Curated AI Magazine

PICKLEE

AI Field Notes For Builders

FEATURE ARTICLE

Mistral Small 4 출시 — 119B MoE, 친지드 추론+비전 통합, Apache 2.0 오픈소스

📌 핵심 요약 Mistral AI가 3월 17일 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 119B 파라미터 MoE 구조로 추론 시 약 22B만 활성화되며, 256K 컨텍스트 윈도우와 멀티모달(비전) 기능을 단일 모델에 통합했다. 전작 Small 3 대비 엔드투엔드 완료 시간 40% 단축, 처리량 3배 향상을 달성했다. 🔍 왜 주목해야 하나 LiveCodeBench에서 GPT-OSS 120B를 20% 적은 출력으로 동등 이상의 성능을 기록했으며, AA LCR 벤치마크에서 Qwen 계열보다 3.5~4배 짧은 출력으로 더 높은 성능을 달성했다. Apache 2.0 라이선스는 기업 내 자체 배포와 파인튜닝을 법적 제약 없이 허용하며, 추론+비전+지시 따르기를 단일 모델로 커버해 인프라 복잡도를 크게 줄일 수 있다는 점이 흰 장점이다. ⚡ 실무 시사점 멀티모달 데이터 처리 파이프라인을 구성 중인 팀은 별도 비전 모델 없이 Mistral Small 4 단일 모델로 아키텍처를 단순화할 수 있다. 비용 민감 서비스에서 Claude/GPT API 대신 자체 호스팅 대안으로 즉시 검토할 가치가 있다.

2026년 3월 27일수정 2026년 3월 27일원문 링크

RELATED

관련 글

전체 보기

RE-ENTRY

최신 글 재진입