태그
81개의 글이 이 태그 아래에 있습니다.
이동
전체 글 보기NVIDIA는 2026년 4월 28일 vision·audio·video·text를 한 모델에서 처리하는 오픈 multimodal reasoning model Nemotron 3 Nano Omni를 발표했다. 이 모델은 30B-A3B hybrid MoE, 256K context를 기반으로 document intelligence·video/audio understanding…
Warp는 2026년 4월 28일 Warp client를 AGPL로 오픈소스화하고, Oz 기반 agent-first 기여 워크플로를 공개했다. 동시에 Kimi·MiniMax·Qwen 지원 확대, auto (open) 모델 라우팅, 설정 파일 추가로 IDE/ADE를 더 개방형 표면으로 재구성했다. 🔍 왜 주목해야 하나 이 발표의 핵심은 오픈소스화 자체보다도 "agent가 구현을 맡고,…
Qwen 팀은 2026년 4월 Qwen3.6 시리즈를 공개하며 35B-A3B와 27B 모델을 순차 배포했다. 공식 저장소 기준으로 이번 릴리스는 agentic coding, front-end workflow, repository-level reasoning 강화와 함께 conversation history 전반에 thinking context를 유지하는 Thinking…
NVIDIA가 공개한 한국어 합성 페르소나 데이터셋으로, 한국의 공개 통계와 지역·직업·교육 등 사회적 분포를 바탕으로 100만 개 규모의 페르소나 레코드를 구성한 자료다. 한국어 모델 학습과 시뮬레이션에서 한국형 맥락을 반영하는 데 참고할 수 있다. 소버린 AI, 한국어 LLM 학습, 합성 데이터 다양성 확대 관점에서 볼 만하다. 영어권 중심 페르소나 데이터셋으로는 놓치기 쉬운 지역성과…
Mistral AI는 최근 Mistral 3를 공개하며 675B total / 41B active의 Mistral Large 3와 3B·8B·14B 규모의 Ministral 3 시리즈를 함께 내놨다. 전 모델을 Apache 2.0으로 공개하고, Large 3는 8×A100 또는 8×H100 단일 노드 배포 경로, 소형 모델은 edge·robotics 환경까지 겨냥하며 배포 범위를 넓혔다.…
Microsoft는 2026년 4월 2일 Agent Governance Toolkit을 MIT 라이선스로 공개했다. 이 오픈소스 프로젝트는 OWASP Agentic AI Top 10의 10개 위험군을 모두 다루는 runtime governance stack을 목표로 하며, Agent OS·Mesh·Runtime·SRE·Compliance·Marketplace·Lightning의 7개…
Voicebox는 음성 복제, 다국어 TTS, 후처리 효과, 멀티 보이스 편집을 한곳에서 다루는 로컬 우선 음성 합성 스튜디오다. 클라우드형 음성 서비스의 대안으로 제시되며, 여러 TTS 엔진을 바꿔가며 테스트하고 REST API로 앱에 붙일 수 있게 설계됐다. 볼 만한 이유는 단순한 모델 데모가 아니라 실제 제작 워크플로우에 가까운 구조를 갖췄기 때문이다. 몇 초짜리 샘플로 보이스…
Mistral은 2026년 4월 16일 Mistral Small 4를 발표했다. 이 모델은 119B total parameters, 6B active parameters의 128-expert MoE 구조와 256k context window를 갖고, reasoning·multimodal·agentic coding을 하나로 묶은 Apache 2.0 오픈 모델로 제공된다. 🔍 왜 주목해야…
Hugging Face는 2026년 봄 오픈소스 AI 리포트를 통해 2025년 신규 trending model의 다수가 China에서 개발되었거나 China-origin 모델 파생형이었고, Alibaba의 Qwen 계열은 11만 3천 개 이상의 derivative models를 만들었다고 정리했다. 또 1-9B급 모델의 상위군은 100B+ 모델 대비 median 기준 약 4배 높은…
코드(25개 언어), 문서, 논문, 이미지, 비디오 등 다양한 파일을 분석해 쿼리 가능한 지식 그래프로 변환하는 AI 어시스턴트 스킬. Tree-sitter AST로 코드 구조를 추출하고, Claude Vision으로 이미지를 분석하며, faster-whisper로 영상/오디오를 로컬 변환한다. 원본 대비 71.5배 토큰 감소. GitHub 스타 26.6k. 🔍 왜 주목해야 하나 AI…
Open Agents는 Vercel 위에서 백그라운드 코딩 에이전트를 만들고 실행하기 위한 오픈소스 레퍼런스 앱이다. 웹 UI, 에이전트 런타임, 샌드박스 오케스트레이션, GitHub 연동까지 함께 제공해 프롬프트에서 실제 코드 변경과 저장소 작업으로 이어지는 흐름을 한 저장소 안에서 보여준다. 이 링크가 볼 만한 이유는 에이전트와 샌드박스를 분리한 구조를 비교적 선명하게 드러내기…
colleague.skill은 특정 동료의 업무 방식과 표현 톤을 스킬 형태로 정리해 재사용할 수 있게 만드는 오픈소스 프로젝트다. /create-colleague 명령으로 새 스킬을 만들고, 생성된 페르소나를 /{slug} 형태로 호출해 반복 작업에 적용한다. 프롬프트를 매번 복붙하는 대신, 팀 내부의 암묵지와 일 스타일을 에이전트가 읽는 재사용 가능한 인터페이스로 바꾸려는 시도이기…
AI 코딩 도구 운영 팁 저장소
TypeUI는 AI가 생성한 UI 코드 위에 일관된 시각 규칙을 덧입히기 위한 CLI이자 디자인 스킬 레지스트리다. pull·generate·update 흐름으로 스킬을 프로젝트에 주입하고, 무료 스킬과 상용 기능을 함께 제공한다. AI 코딩의 문제를 단순히 더 많이 생성하는 것이 아니라, 여러 에이전트와 작업자가 섞여도 같은 시각 언어를 유지하게 만드는 데 초점을 둔 도구라는 점이…
캐시 TTL은 2026년 3월 초경에 1시간에서 5분으로 자동 회귀하여 상당한 할당량과 비용 인플레이션을 일으킨 것으로 보입니다. 1월에 걸쳐 원시 Claude 코드 세션 JSONL 파일에 대한 요약 분석...
실행 전 체크리스트 기존 문제를 검색했지만 아직 보고되지 않았습니다. 이것은 단일 버그 보고서입니다(다른 버그에 대해서는 별도의 보고서를 제출해 주십시오). 최신 버전의 ...을 사용하고 있습니다.
Mistral AI는 2026년 4월 초 Mistral 3를 공개했다. 라인업은 14B·8B·3B의 소형 dense 모델과 41B active/675B total parameters의 Mistral Large 3로 구성되며, 전 모델을 Apache 2.0 라이선스로 공개했고 Large 3는 LMArena 기준 오픈 비추론 모델 2위라고 밝혔다. 🔍 왜 주목해야 하나 이 발표는 오픈 모델…
작은 물고기처럼 말하는 ~9M 매개변수 LLM입니다. GitHub에 계정을 만들어 arman-bd/guppylm 개발에 기여하세요.
Google Stitch의 DESIGN 문서 개념을 바탕으로, 유명 서비스의 시각 언어를 Markdown으로 정리해 AI 코딩 에이전트가 유사한 UI를 구현하도록 돕는 오픈소스 컬렉션. 공식 디자인 시스템이 아니라 공개 웹사이트를 바탕으로 추출한 비공식 레퍼런스라는 점이 핵심이다.
실행 전 체크리스트 비슷한 행동 보고서를 찾기 위해 기존 문제를 검색했습니다. 이 보고서에는 민감한 정보(API 키, 비밀번호 등)가 포함되어 있지 않습니다. 행동 유형 문제 기타 예상치 못한...
Hugging Face가 2026년 3월 17일 공개한 Spring 2026 리포트에 따르면, 플랫폼은 1,300만 사용자·200만 개 이상의 공개 모델·50만 개 이상의 공개 데이터셋으로 커졌고, 중국 모델이 전체 다운로드의 41%를 차지하며 미국을 추월했다. 동시에 Qwen 계열 파생 모델은 11.3만 개를 넘었고, 1~9B급 소형 모델이 실제 배포에서 대형 모델보다 훨씬 높은 채택을…
양자화나 증류 없이 70B 모델을 4GB GPU에서, Llama 3.1 405B를 8GB VRAM에서 실행할 수 있는 추론 최적화 라이브러리. 계층별 모델 분해(layer-wise decomposition)로 필요한 레이어만 메모리에 로드하는 방식. 블록 단위 양자화 압축으로 3배 속도 향상. GitHub 스타 15k+. 🔍 왜 주목해야 하나 대부분의 LLM 최적화는 모델 자체를 줄이는…
3월 31일 Anthropic Claude Code의 TypeScript 소스코드 약 51만 2천 줄이 npm 레지스트리에 실수로 노출된 사건을 계기로, 개발자 Sigrid Jin이 클린룸 방식으로 오픈소스 AI 코딩 에이전트 프레임워크 Claw Code를 출시했다. 출시 첫날 72,000 GitHub stars를 기록하고 일주일 만에 100K를 돌파하며 역사상 가장 빠르게 성장한 AI…
Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…
PrismML이 4월 3일 스텔스에서 등장해 세계 최초 상업적으로 실행 가능한 1-bit LLM 패밀리 Bonsai를 Apache 2.0으로 공개했다. 플래그십인 Bonsai 8B는 1.15GB 메모리에 구동되며, FP16 8B 모델 대비 14배 소형·8배 빠른 속도·5배 낮은 에너지 소비를 달성하면서 추론 품질은 동급 수준을 유지한다. 🔍 왜 주목해야 하나 1-bit LLM은…
Google Research가 공개한 TurboQuant는 LLM의 KV Cache를 3비트로 압축하는 학습 불필요(training-free) 벡터 양자화 알고리즘이다. 메모리 사용량 6배 감소, NVIDIA H100 어텐션 연산 8배 가속을 정확도 손실 없이 달성하며 ICLR 2026에 발표된다. 🔍 왜 주목해야 하나 LLM 서빙의 핵심 병목은 KV Cache 메모리다. 100K+ 토큰…
OpenAI Agents SDK 위에 올려진 멀티에이전트 프레임워크. 역할별 에이전트와 communication flow를 명시적으로 정의해 조직처럼 협업시키는 데 초점이 있다.
multi-agent 시스템을 구축·실행·관리하는 전체 스택. framework, AgentOS runtime, control plane을 함께 제공해 프로덕션 지향성이 강하다.
Microsoft가 만드는 agentic AI 프레임워크. 여러 에이전트가 자율적으로 또는 인간과 함께 협업하는 구조를 코드로 만들 수 있다.
지속 실행형 AI 에이전트를 만들고 배포하는 대표 오픈소스 프로젝트. 단일 데모 에이전트가 아니라 플랫폼·서버·마켓플레이스·벤치마크까지 묶인 생태계로 확장됐다.
웹사이트를 AI 에이전트가 조작할 수 있게 해주는 브라우저 자동화 오픈소스. 사람이 브라우저로 하던 클릭·입력·탐색을 agent workflow에 연결하는 데 강하다.
각 agent에 역할을 부여하고 crew 단위로 협업시키는 Python 프레임워크. LangChain에 의존하지 않는 독립 구조와 비교적 쉬운 진입점으로 인기가 높다.
시각적 워크플로, RAG, agent 기능, observability를 한데 묶은 오픈소스 플랫폼. 빠르게 프로토타입을 만들고 운영 환경으로 가져가는 데 강하다.
장기 실행·상태 유지·human-in-the-loop를 강조하는 low-level orchestration 프레임워크. agent를 노드와 엣지 그래프로 설계해 복잡한 흐름을 다루기 좋다.
MCP의 공식 레퍼런스 서버 모음. filesystem, fetch, git, memory 같은 예시 서버를 통해 LLM/에이전트가 외부 도구와 안전하게 연결되는 방식을 보여준다.
Microsoft의 모델 중립 SDK. agent, multi-agent workflow, plugin, MCP, vector DB를 함께 다루며 .NET/Python/Java를 지원한다.
기존 GUI 소프트웨어·리포를 에이전트가 다루기 쉬운 stateful CLI와 SKILL.md로 변환하는 오픈소스 프레임워크. HARNESS.md 기반 7단계 생성·테스트·배포 절차를 제공한다.
Meta는 2026년 3월 30일 BOxCrete를 공개하며 데이터센터용 콘크리트 배합 최적화에 AI를 적용한 사례를 발표했다. Meta에 따르면 Rosemount 데이터센터 현장에서는 AI가 제안한 배합이 기존 공식보다 full structural strength 도달 시간을 43% 줄였고 cracking risk도 약 10% 낮췄다. 🔍 왜 주목해야 하나 이 뉴스가 중요한 이유는…
Arcee AI가 2026년 4월 1일 Trinity-Large-Thinking을 공개했다. Apache 2.0 오픈웨이트 reasoning 모델로, long-horizon agent와 multi-turn tool calling에 초점을 맞췄고 PinchBench에서 Opus 4.6 바로 아래 2위를 기록했다고 밝혔다. 🔍 왜 주목해야 하나 이 모델의 의미는 단순히 또 하나의 오픈 모델이…
Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…
2026년 3월, vLLM 프로젝트가 Model Runner V2(MRV2)를 릴리즈했다. 기존 스케줄러 아키텍처를 전면 재설계하여 Prefill-Decode 완전 분리 스케줄링과 Zero-Copy DMA 전송을 도입했다. HuggingFace 대비 24배 처리량을 유지하며 GitHub 스타 74,900개로 프로덕션 LLM 추론 엔진의 사실상 표준 위치를 공고히 했다. 🔍 왜 주목해야…
PrismML이 2026년 3월 31일 세계 최초로 상용 수준 1-bit LLM 'Bonsai' 시리즈를 공개했다. 8B·4B·1.7B 세 가지 모델을 Apache 2.0 라이센스로 무료 배포하며, 기존 FP16 대비 메모리를 14배 절감하고 추론 속도를 8배 높이면서도 동급 모델과 동일한 벤치마크 성능을 유지한다. 🔍 왜 주목해야 하나 1-bit 양자화는 이론적으로는 오래 검토된…
Claude Code 소스 공개를 계기로 탄생한 클린룸 재구현 프로젝트. Python + Rust로 에이전트 하네스 아키텍처를 재구현했다. 출시 2시간 만에 50k 스타, 현재 130k 스타 / 102k 포크. Sigrid Jin이 발기인. 🔍 왜 주목해야 하나 130k 스타는 2026년 GitHub에서 가장 빠른 성장 속도 중 하나다. 이 프로젝트의 핵심 가치는 원본 소스 자체가…
NVIDIA가 에이전트 워크로드 특화 오픈소스 모델 Nemotron 3 Super를 공개했다. Mamba-Transformer 하이브리드 MoE 아키텍처로 원래 1,200억 파라미터에서 활성 파라미터 120억만 사용, SWE-Bench Verified 60.47% 및 PinchBench 85.6%로 동급 오픈소스 최고 성능을 기록했다. 🔍 왜 주목해야 하나 Nemotron 3 Super는…
Google Research가 ICLR 2026에서 발표할 TurboQuant를 공개했다. 별도 학습 없이 LLM의 KV 캐시를 3비트로 압축해 메모리를 6배 절감하고, NVIDIA H100에서 어텐션 연산 속도를 최대 8배 높이면서도 정확도 손실이 없다. 🔍 왜 주목해야 하나 LLM 추론의 가장 큰 병목 중 하나는 긴 컨텍스트를 처리할 때 폭발적으로 증가하는 KV 캐시 메모리다. 기존…
Y Combinator 회장 Garry Tan이 만든 Claude Code 기반 AI 소프트웨어 팩토리. 23개의 전문화된 AI 역할(경영진, 엔지니어링, 디자인, QA, 보안 등)을 조합해 10~15개 스프린트를 병렬로 돌린다. 60일간 60만 줄 프로덕션 코드 산출, 일일 1~2만 줄 생산량. GitHub 스타 60.1k. 🔍 왜 주목해야 하나 YC 회장이 풀타임으로 YC를 운영하면서…
여러 AI 에이전트를 하나의 회사 조직처럼 구성하고 운영하는 오픈소스 오케스트레이션 플랫폼. 조직도, 목표 정렬, 예산 관리, 거버넌스(승인 게이트, 롤백, 감사 로그)까지 갖추고 있다. "OpenClaw이 직원이라면 Paperclip은 회사다." GitHub 스타 42.8k. 🔍 왜 주목해야 하나 AI 에이전트 생태계가 개별 에이전트 성능 경쟁을 넘어 '에이전트 간 협업과 조직…
Google의 TurboQuant가 ICLR 2026에서 발표될 예정이다. LLM의 KV 캐시를 3~4비트로 압축해 메모리를 4~6배 절감하면서 정확도 손실이 전혀 없고, H100 GPU에서 32-bit 대비 최대 8배 처리량 향상을 달성한다. 🔍 왜 주목해야 하나 LLM 서빙 인프라의 주요 병목은 긴 컨텍스트 처리 시 KV 캐시가 GPU 메모리를 폭발적으로 소모하는 문제다.…
Mistral AI가 3월 26일 오픈소스 텍스트-음성 변환 모델 Voxtral TTS(4B 파라미터)를 출시했다. 9개 언어를 지원하고 5초 이하의 음성 샘플로 목소리를 복제하며, 첫 오디오 출력 지연(TTFA)이 90ms에 불과해 실시간 음성 에이전트 구현이 가능하다. 🔍 왜 주목해야 하나 TTS 시장은 ElevenLabs, Deepgram, OpenAI가 독점하다시피 한 유료 API…
NVIDIA가 에이전트 AI 특화 오픈 모델 Nemotron 3 패밀리를 출시했다. 플래그십인 Nemotron 3 Super는 120B 파라미터(활성 12B)의 Mamba-Transformer MoE 하이브리드 아키텍처를 채택해 Nemotron 2 대비 5배 처리량을 달성하고 1M 토큰 컨텍스트 윈도우를 지원한다. 🔍 왜 주목해야 하나 에이전트 AI 시스템에서 모델 선택의 핵심 기준은…
Google이 LLM의 KV-캐시를 채널당 3.5비트로 압쳙하는 오픈소스 양자화 기법 TurboQuant를 공개했다. 메모리 사용량을 최대 6배 줄이고 추론 속도를 대폭 향상시킨다. 🔍 왜 주목해야 하나 KV-캐시는 긴 컨텍스트를 처리할 때 VRAM 사용량이 폭발적으로 증가하는 핵심 병목 구간이다. TurboQuant이 INT8 기준(2배 절감)대비 3배나 나은 6배 메모리 절감을…
Alibaba가 0.8B, 2B, 4B, 9B 파라미터 4종의 Qwen 3.5 소형 모델을 Apache 2.0 라이선스로 공개했다. 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-OSS-120B(71.5점)를 13.6% 앞질렀다. 🔍 왜 주목해야 하나 9B 모델이 120B 규모 모델을 정확도에서 앞선다는 것은 단순한 스케일업이 아닌 아키텍처·학습 데이터…
Google Research가 공개한 TurboQuant는 3-bit 벡터 양자화 기법을 통해 LLM의 KV 캐시 메모리를 6배 줄이면서 H100 GPU에서 최대 8배 추론 속도 향상을 달성했다. 정확도 손실 없이 이를 구현한 점이 핵심이다. 🔍 왜 주목해야 하나 기존 4-bit 양자화(GPTQ, AWQ 등)는 정확도 손실을 감수하며 메모리를 줄이는 트레이드오프가 있었다.…
프랑스 Mistral AI가 공개한 22B 파라미터의 Mistral Small 4가 추론 및 지시 수행 벤치마크에서 자신보다 3~5배 큰 클로즈드 모델들을 앞질렀다. Apache 2.0 라이선스로 제공되며 상업적 이용도 자유롭다. 🔍 왜 주목해야 하나 22B 모델이 60B~100B급 클로즈드 모델과 동급이거나 우세하다는 것은 오픈소스 진영의 기술력이 클로즈드 생태계를 본격적으로 위협하는…
Google Research가 ICLR 2026에서 발표한 TurboQuant는 LLM 추론의 가장 큰 메모리 병목인 KV 캐시를 3~4비트로 압축해 메모리 사용량을 최대 6배 절감하는 알고리즘으로, 재학습이나 파인튜닝 없이 적용 가능하며 품질 손실이 사실상 없다. 🔍 왜 주목해야 하나 기존 KV 캐시 양자화 기법들은 품질 저하와 복잡한 재훈련을 요구하는 트레이드오프가 있었다.…
Mistral AI가 3월 중순 출시한 Mistral Small 4는 119B 파라미터 Mixture-of-Experts(MoE) 구조의 오픈소스 모델로, Apache 2.0 라이선스 하에 상업적 무제한 사용이 가능하며 토큰당 활성 파라미터는 6B에 불과해 추론 속도가 매우 빠르다. 🔍 왜 주목해야 하나 기존 오픈소스 모델들이 성능과 라이선스 유연성 사이에서 트레이드오프를 강요받아…
chenglou(React 초기 멤버, ReasonML 창시자)가 만든 다국어 텍스트 측정 및 레이아웃 라이브러리. DOM의 getBoundingClientRect 같은 비싼 측정을 완전히 우회하고, 순수 산술 계산만으로 텍스트 높이와 라인 레이아웃을 처리한다. GitHub 스타 13.9k. 🔍 왜 주목해야 하나 브라우저 텍스트 레이아웃의 고질적 문제인 layout thrashing을…
Model Context Protocol(MCP) SDK의 월간 다운로드가 2026년 3월 기준 9700만 건을 돌파했다. 2024년 11월 Anthropic이 출시했을 당시 약 200만 건이었던 수치가 16개월 만에 4,750% 성장한 것으로, React npm 패키지가 1억 다운로드에 도달하는 데 걸린 3년 대비 절반의 시간이다. 🔍 왜 주목해야 하나 숫자 자체보다 구조적 변화가…
Mistral AI가 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 총 119B 파라미터의 MoE 아키텍처로 활성 파라미터는 6.5B에 불과하지만, 기존에 별도 모델로 운용하던 Magistral(추론), Pixtral(멀티모달), Devstral(에이전트 코딩) 세 가지 역량을 256K 컨텍스트 창 하나로 통합했다. 🔍 왜 주목해야 하나 이 릴리즈의 핵심은…
Alibaba가 Qwen 3.5 Small 시리즈(0.8B·2B·4B·9B)를 Apache 2.0 라이선스로 오픈소스 공개했다. 9B 모델의 GPQA 점수 81.7로 OpenAI의 GPT-OSS-120B(71.5)를 벤치마크에서 앞질렀다. 🔍 왜 주목해야 하나 파라미터 수 대비 추론 성능의 효율이 극적으로 개선되고 있다는 증거다. 9B 모델이 120B를 이긴다는 것은 단순 스케일 경쟁이…
Google이 ICLR 2026에서 TurboQuant를 발표했다. KV-cache를 채널당 3.5비트로 압축해 메모리 사용량을 6배 줄이는 소프트웨어 레벨의 LLM 효율화 기법이다. 🔍 왜 주목해야 하나 그간 LLM 성능 경쟁이 파라미터 수와 GPU 클러스터 확장에 집중됐다면, TurboQuant는 소프트웨어·시스템 최적화만으로 동일 하드웨어에서 6배의 메모리 절감을 달성한다. 이는…
Google이 ICLR 2026에서 발표한 TurboQuant 양자화 기술은 LLM의 KV-Cache를 채널당 3.5비트로 압축하여 메모리 사용량을 최대 6배 감소시키면서도 모델 품질을 유지("absolute quality neutrality")하는 데 성공했다. 이 결과로 Micron 등 AI 메모리 공급업체 주가가 즉각 하락했다. 🔍 왜 주목해야 하나 LLM 추론 비용의 핵심 병목은…
Mistral AI가 220억 파라미터 규모의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 추론 및 지시 수행 벤치마크에서 파라미터 수가 3~5배 많은 클로즈드 모델 여러 개를 상회하는 성능을 보였다. 🔍 왜 주목해야 하나 "규모의 법칙(scaling law)"에 대한 기존 믿음이 흔들리고 있다. 22B 모델이 100B+ 규모 클로즈드 모델을 이기는 패턴이…
Mistral AI가 3월 17일 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 119B 파라미터 MoE 구조로 추론 시 약 22B만 활성화되며, 256K 컨텍스트 윈도우와 멀티모달(비전) 기능을 단일 모델에 통합했다. 전작 Small 3 대비 엔드투엔드 완료 시간 40% 단축, 처리량 3배 향상을 달성했다. 🔍 왜 주목해야 하나 LiveCodeBench에서…
NVIDIA가 GTC 2026에서 120B 전체 파라미터, 12B 활성 파라미터의 하이브리드 Mamba-Transformer MoE 아키텍처 기반 오픈 웨이트 모델 Nemotron 3 Super를 Apache 2.0으로 공개했다. 소프트웨어 개발과 사이버보안 트리아지 등 복잡한 멀티에이전트 태스크를 타겟으로 하며, 10조 토큰 규모의 학습 데이터도 함께 공개됐다. 🔍 왜 주목해야 하나…
Mistral AI가 2026년 3월 16일, 119B 파라미터 Mixture-of-Experts 아키텍처의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 토큰당 활성 파라미터는 6B으로, 기존 Magistral(추론), Pixtral(비전), Devstral(에이전트 코딩) 세 모델의 기능을 하나로 통합했다. 🔍 왜 주목해야 하나 '하나의 오픈소스 모델로 세…
Mistral AI가 2026년 3월 26일 오픈소스 TTS(텍스트-음성 변환) 모델 Voxtral TTS를 공개했다. Ministral 3B 기반으로 영어·프랑스어·독일어 등 9개 언어를 지원하며, 5초 미만의 음성 샘플로 커스텀 음성 복제가 가능하다. 첫 음성까지 지연(TTFA)은 90ms, 실시간 팩터(RTF)는 6x를 달성했다. 🔍 왜 주목해야 하나 오픈소스 TTS 시장은 그간…
Alibaba가 0.8B, 2B, 4B, 9B 네 가지 크기의 Qwen 3.5 Small 시리즈를 Apache 2.0 라이선스로 공개했다. 텍스트, 이미지, 비디오를 네이티브 멀티모달로 처리하며, 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-oss-120B(71.5점)를 상회했다. 🔍 왜 주목해야 하나 파라미터 규모가 13배 이상 차이 나는 모델을 GPQA…
CNCF(Cloud Native Computing Foundation)가 KubeCon + CloudNativeCon Europe 2026(암스테르담)에서 Dapr Agents v1.0 정식 출시를 발표했다. NVIDIA와 오픈소스 커뮤니티가 1년간 협업한 이 Python 프레임워크는 내구성 있는 워크플로우 엔진, 상태 관리, 안전한 멀티 에이전트 조율 기능을 제공한다. 🔍 왜 주목해야…
OpenAI가 GPT-oss-120B(MoE, 활성 파라미터 5.1B)와 GPT-oss-20B 두 모델을 Apache 2.0 라이선스로 Hugging Face에 공개했다. GPT-oss-120B는 단일 80GB GPU(H100, MI300X)에서 실행 가능하며, 핵심 추론 벤치마크에서 o4-mini에 근접하는 성능을 기록한다. 🔍 왜 주목해야 하나 Meta의 Llama 시리즈가 오픈…
AI 에이전트가 자율적으로 LLM 훈련 실험을 수행하는 프레임워크. 5분 단위 훈련 후 성능 평가/반복. 수면 중 ~100회 실험 가능. GitHub 43.9k⭐
GitHub 문제에 대한 즉각적인 주입으로 연쇄 반응이 발생하여 4,000명의 개발자가 동의 없이 OpenClaw를 설치하게 되었습니다. 이 공격은 잘 알려진 취약점을 새로운 것으로 구성합니다. 하나의 AI 도구가 다른 AI 도구를 부트스트랩합니다.
230B 파라미터 MoE 모델(10B 활성). SWE-Bench 80.2%로 Claude Opus 4.6에 근접. 비용은 1/20 수준. 오픈소스(MIT 라이선스).
Microsoft의 브라우저 자동화 CLI. MCP 대신 CLI 기반으로 토큰 효율성 극대화. Claude Code, Copilot 등 코딩 에이전트에 최적화.
1인 개발자 Peter Steinberger가 만든 오픈소스 AI 비서. WhatsApp/Telegram으로 컴퓨터 작업 자동화. GitHub 스타 18만개, 역대 최고속 성장.
Claude Code의 새 기능. 여러 에이전트가 병렬로 작업하고 서로 직접 소통하며 협업. 팀 리드가 조율하고 팀원들은 독립적으로 작업.
Claude Code를 위한 1줄 설치 메모리 시스템. 세션 간 컨텍스트 손실 방지. AI로 대화 압축 후 ChromaDB에 벡터 저장, 다음 세션에 자동 주입. 로컬 저장으로 프라이버시 보장. GitHub 12k 스타.
Google Antigravity IDE를 위한 멀티에이전트 스킬. PM/Frontend/Backend/Mobile/QA/Debug 에이전트가 협업. 토큰 75% 절감 설계. Gemini/Claude/Codex/Qwen 등 모델 혼합 사용. 실시간 대시보드. bunx oh-my-ag로 설치.
Manus AI의 완전 로컬 대안. API 비용 없이 전기세만으로 자율 에이전트 실행. 웹 브라우징, 코드 작성/디버깅, 태스크 계획을 로컬 LLM으로 처리. 보이스 지원. GitHub 24.4k+ 스타.
Mistral의 오픈소스(Apache 2.0) CLI 코딩 어시스턴트. Devstral 2(SWE-bench 72.2%) 기반. 터미널에서 자연어로 코드베이스 탐색/수정/실행. 프로젝트 컨텍스트 자동 인식, Git 상태 반영, 멀티파일 오케스트레이션. Claude Sonnet 대비 7배 비용 효율적. 현재 API 무료.
Tencent의 AI 3D 생성 플랫폼. 텍스트/이미지/스케치로 고품질 3D 에셋 생성. 2단계 DiT 아키텍처(형태→텍스처 분리). 며칠 걸리던 작업을 분 단위로 단축. OBJ/GLB 출력, Unity/Unreal/Blender 호환. HuggingFace 260만+ 다운로드. 무료 20회/일 제공.