FEATURE ARTICLE
Mistral Small 4 출시 — 119B MoE (활성 6.5B), Apache 2.0, 추론·멀티모달·코딩 단일 모델 통합
📌 핵심 요약 Mistral AI가 Mistral Small 4를 Apache 2.0 라이선스로 공개했다. 총 119B 파라미터의 MoE 아키텍처로 활성 파라미터는 6.5B에 불과하지만, 기존에 별도 모델로 운용하던 Magistral(추론), Pixtral(멀티모달), Devstral(에이전트 코딩) 세 가지 역량을 256K 컨텍스트 창 하나로 통합했다. 🔍 왜 주목해야 하나 이 릴리즈의 핵심은 '선택의 종료'다. 지금까지 팀들은 빠른 인스트럭션 처리, 강력한 추론, 멀티모달 분석, 에이전트 코딩 중 어느 것을 우선할지 모델을 선택해야 했다. Mistral Small 4는 configurable reasoning effort 기능으로 이를 하나로 수렴시켰다. 또한 Apache 2.0이므로 상업적 파인튜닝·배포에 제한이 없으며, 활성 파라미터 6.5B는 GPU 메모리 효율 면에서 클로즈드 모델 대비 현실적인 온프레미스 배포 경쟁력을 제공한다. ⚡ 실무 시사점 멀티모달 추론이 필요한 엔터프라이즈 AI 파이프라인을 복수의 특화 모델로 구성하고 있는 팀은, Mistral Small 4를 단일 엔드포인트로 통합하여 운영 복잡도와 비용을 줄이는 방안을 즉시 테스트할 것을 권장한다.