PickleeAI와 개발에 대한 짧은 노트
홈아티클아카이브검색

끝까지 읽는 글

AI와 개발에 관한 변화 중에서 블로그처럼 오래 읽을 수 있는 글만 골라 정리합니다.

© 2026 Picklee

RSSSitemap

글

2026년 3월 30일수정 2026년 3월 30일원문

Alibaba Qwen 3.5 소형 모델 공개 — 9B 파라미터로 GPT-OSS-120B 능가, Apache 2.0 오픈소스

Alibaba가 0.8B, 2B, 4B, 9B 파라미터 4종의 Qwen 3.5 소형 모델을 Apache 2.0 라이선스로 공개했다. 9B 모델이 GPQA Diamond 벤치마크에서 81.7점을 기록해 GPT-OSS-120B(71.5점)를 13.6% 앞질렀다. 🔍 왜 주목해야 하나 9B 모델이 120B 규모 모델을 정확도에서 앞선다는 것은 단순한 스케일업이 아닌 아키텍처·학습 데이터…

AI
모델
오픈소스
무료
트렌드

배경 및 맥락

Alibaba의 Qwen 시리즈는 2023년 말 첫 공개 이후 매 세대마다 오픈소스 LLM 벤치마크 기록을 경신해왔다. Qwen 2.5 시리즈(2025년 초)가 Meta의 Llama 3 계열을 여러 벤치마크에서 앞서면서 오픈소스 AI 지형에서 중국 모델의 존재감이 급부상했다. Qwen 3.5는 이 흐름의 연장선에서 소형 모델 효율성에 집중한 릴리즈다.

2026년 3월 1일 공개된 이번 릴리즈는 Hugging Face에 즉시 업로드되어 커뮤니티 반응이 폭발적이었다.


핵심 내용

모델 라인업:

모델파라미터주요 용도
Qwen3.5-0.8B0.8B엣지/IoT 디바이스
Qwen3.5-2B2B모바일 온디바이스
Qwen3.5-4B4B노트북/저사양 서버
Qwen3.5-9B9B고성능 추론

벤치마크 결과 (GPQA Diamond):

  • Qwen3.5-9B: 81.7점
  • GPT-OSS-120B: 71.5점
  • Meta Llama 3.1 70B: 약 66점 (참고)

라이선스: Apache 2.0 (상업적 이용 무제한)


경쟁 구도 / 비교

Microsoft의 Phi-4(14B), Google의 Gemma 3(27B), Meta의 Llama 3.2(11B)와 직접 경쟁한다. 소형 모델 시장에서는 파라미터당 성능이 핵심 지표인데, Qwen3.5-9B는 이 지표에서 현재 오픈소스 최고 수준이다. 특히 GPQA Diamond(박사급 과학 문제)에서 120B 모델을 앞선다는 점은 데이터 품질과 RLHF 튜닝의 우수성을 방증한다.


의미

소형 LLM의 성능 한계가 빠르게 높아지면서, '성능이 필요하면 대형 모델·비용이 중요하면 소형 모델'이라는 이분법이 무너지고 있다. Qwen3.5-9B는 GPT-4급 지식 추론을 9B 파라미터로 달성해, 기업의 자체 호스팅 비용 구조를 크게 바꿀 수 있다. 또한 Apache 2.0 라이선스는 파인튜닝 후 상업적 판매까지 허용하므로, AI 제품을 내재화하려는 국내 기업에게 실질적인 선택지가 된다.

더 읽기

같이 읽어볼 만한 글

전체 글 보기
2026년 4월 5일

Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준

Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…

2026년 4월 5일

PrismML, Bonsai 1-bit LLM 출시 — 1GB 메모리로 8B 추론, 엣지 AI의 현실화

PrismML이 4월 3일 스텔스에서 등장해 세계 최초 상업적으로 실행 가능한 1-bit LLM 패밀리 Bonsai를 Apache 2.0으로 공개했다. 플래그십인 Bonsai 8B는 1.15GB 메모리에 구동되며, FP16 8B 모델 대비 14배 소형·8배 빠른 속도·5배 낮은 에너지 소비를 달성하면서 추론 품질은 동급 수준을 유지한다. 🔍 왜 주목해야 하나 1-bit LLM은…

2026년 3월 31일

Mistral Voxtral TTS — 4B 오픈소스 음성 합성 모델, ElevenLabs 대비 7~9배 저렴

Mistral AI가 3월 26일 오픈소스 텍스트-음성 변환 모델 Voxtral TTS(4B 파라미터)를 출시했다. 9개 언어를 지원하고 5초 이하의 음성 샘플로 목소리를 복제하며, 첫 오디오 출력 지연(TTFA)이 90ms에 불과해 실시간 음성 에이전트 구현이 가능하다. 🔍 왜 주목해야 하나 TTS 시장은 ElevenLabs, Deepgram, OpenAI가 독점하다시피 한 유료 API…

2026년 3월 30일

Mistral Small 4 (22B), 오픈소스 추론 벤치마크 1위 — 자기 3~5배 규모 클로즈드 모델 추월

프랑스 Mistral AI가 공개한 22B 파라미터의 Mistral Small 4가 추론 및 지시 수행 벤치마크에서 자신보다 3~5배 큰 클로즈드 모델들을 앞질렀다. Apache 2.0 라이선스로 제공되며 상업적 이용도 자유롭다. 🔍 왜 주목해야 하나 22B 모델이 60B~100B급 클로즈드 모델과 동급이거나 우세하다는 것은 오픈소스 진영의 기술력이 클로즈드 생태계를 본격적으로 위협하는…