2026년 3월 28일수정 2026년 3월 28일원문

Mistral Small 4 (22B, Apache 2.0): 자신보다 3~5배 큰 클로즈드 모델 추론 성능 압도

Mistral AI가 220억 파라미터 규모의 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 추론 및 지시 수행 벤치마크에서 파라미터 수가 3~5배 많은 클로즈드 모델 여러 개를 상회하는 성능을 보였다. 🔍 왜 주목해야 하나 "규모의 법칙(scaling law)"에 대한 기존 믿음이 흔들리고 있다. 22B 모델이 100B+ 규모 클로즈드 모델을 이기는 패턴이…

더 읽기

같이 읽어볼 만한 글

2026년 4월 5일

Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준

Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…

2026년 4월 3일

Arcee Trinity-Large-Thinking 출시 — 미국계 오픈 에이전트 모델이 가격 대비 frontier 경쟁력 제시

Arcee AI가 2026년 4월 1일 Trinity-Large-Thinking을 공개했다. Apache 2.0 오픈웨이트 reasoning 모델로, long-horizon agent와 multi-turn tool calling에 초점을 맞췄고 PinchBench에서 Opus 4.6 바로 아래 2위를 기록했다고 밝혔다. 🔍 왜 주목해야 하나 이 모델의 의미는 단순히 또 하나의 오픈 모델이…

2026년 4월 3일

Gemma 4 공개 — Apache 2.0 오픈 모델을 agentic workflow 중심으로 재정의

Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…

2026년 4월 1일

NVIDIA Nemotron 3 Super — 120B MoE 오픈소스 에이전트 모델, SWE-Bench 60.5% 달성

NVIDIA가 에이전트 워크로드 특화 오픈소스 모델 Nemotron 3 Super를 공개했다. Mamba-Transformer 하이브리드 MoE 아키텍처로 원래 1,200억 파라미터에서 활성 파라미터 120억만 사용, SWE-Bench Verified 60.47% 및 PinchBench 85.6%로 동급 오픈소스 최고 성능을 기록했다. 🔍 왜 주목해야 하나 Nemotron 3 Super는…