글
OpenAI, 최초 오픈웨이트 모델 gpt-oss-120b 공개 — Apache 2.0, o4-mini 수준 추론 성능
OpenAI가 처음으로 오픈웨이트 모델인 gpt-oss-120b(117B 파라미터, MoE)와 gpt-oss-20b를 Apache 2.0 라이선스로 공개했다. 단일 80GB GPU에서 실행 가능하며, 코딩·수학·툴 사용에서 o4-mini와 동등하거나 일부 초과한다. 🔍 왜 주목해야 하나 OpenAI가 '오픈소스 전략 부재'라는 비판을 받아온 상황에서 이번 출시는 단순한 제품 발표를 넘어…
배경 및 맥락
OpenAI는 창립 초기 '오픈소스'를 사명에 내건 단체였지만, GPT-4 이후로는 완전히 폐쇄적 전략을 택해왔다. Meta의 Llama 시리즈, Mistral, Alibaba의 Qwen 등 오픈웨이트 모델들이 성능 면에서 상업 모델을 빠르게 추격하면서, OpenAI에게 오픈소스 부재는 점점 전략적 약점으로 작용했다. 이번 gpt-oss 시리즈는 그 공백을 메우기 위한 첫 번째 공식 행보다.
핵심 내용
모델 스펙 (gpt-oss-120b):
- 총 파라미터: 117B
- 활성화 파라미터: 5.1B (MoE 아키텍처)
- GPU 요구사항: 단일 80GB GPU (A100/H100)
- 라이선스: Apache 2.0 (상업적 이용 가능)
- 배포 도구: vLLM, Ollama, LM Studio, HuggingFace 지원
성능 벤치마크:
- 경쟁 코딩: o4-mini와 동등 또는 초과
- 수학 경시 문제: o4-mini 초과
- 의료 관련 쿼리: o4-mini 초과
- 일반 문제 해결·툴 사용: o4-mini 동등
API 호환성: OpenAI Responses API와 완전 호환. Structured Outputs, web search, Python code execution 등 툴 사용 지원.
경쟁 구도 / 비교
| 모델 | 파라미터 | 라이선스 | 단일 GPU | 추론 성능 |
|---|---|---|---|---|
| Llama 4 Scout | 109B (MoE) | Meta 상업용 | 가능 | 양호 |
| Mistral Large 3 | 123B | Apache 2.0 | 제한적 | 양호 |
| gpt-oss-120b | 117B (MoE) | Apache 2.0 | 가능 | o4-mini 수준 |
OpenAI API 호환성이라는 차별점이 크다. 기존 OpenAI 코드베이스를 그대로 사용하면서 셀프호스팅 전환이 가능한 유일한 오픈웨이트 모델이다.
의미
OpenAI의 오픈웨이트 전략은 단순한 생태계 기여가 아니라, API 의존성을 낮추고 싶은 기업 고객들을 OpenAI 생태계 안에 묶어두는 기술적 락인 전략으로 볼 수 있다. Responses API 호환이라는 설계 선택이 이를 방증한다. 한편, 금융·의료·공공 부문처럼 데이터 외부 전송이 불가한 환경에서 GPT 수준 성능의 온프레미스 배포가 처음으로 현실화된다는 점에서 기업 AI 도입의 새로운 국면이 열렸다.