Curated AI Magazine

PICKLEE

AI Field Notes For Builders

FEATURE ARTICLE

OpenAI, 최초 오픈웨이트 모델 gpt-oss-120b 공개 — Apache 2.0, o4-mini 수준 추론 성능

📌 핵심 요약 OpenAI가 처음으로 오픈웨이트 모델인 gpt-oss-120b(117B 파라미터, MoE)와 gpt-oss-20b를 Apache 2.0 라이선스로 공개했다. 단일 80GB GPU에서 실행 가능하며, 코딩·수학·툴 사용에서 o4-mini와 동등하거나 일부 초과한다. 🔍 왜 주목해야 하나 OpenAI가 '오픈소스 전략 부재'라는 비판을 받아온 상황에서 이번 출시는 단순한 제품 발표를 넘어 전략적 전환점이다. Meta의 Llama 4, Mistral 3와 직접 경쟁하면서 동시에 OpenAI API 생태계에 익숙한 개발자들을 셀프호스팅 워크로드로 끌어들이는 이중 전략이다. MoE 아키텍처로 5.1B 파라미터만 활성화해 추론 비용을 대폭 낮춘 점도 기술적으로 주목할 만하다. ⚡ 실무 시사점 Responses API와 완전 호환되어 기존 OpenAI 코드베이스에서 엔드포인트 교체만으로 셀프호스팅 전환이 가능하다. 규제 또는 프라이버시 이유로 클라우드 API를 사용하지 못하는 기업 환경에서 OpenAI 수준의 성능을 온프레미스로 배포할 수 있는 첫 번째 현실적 옵션이 생겼다.

2026년 4월 1일수정 2026년 4월 1일원문 링크

배경 및 맥락

OpenAI는 창립 초기 '오픈소스'를 사명에 내건 단체였지만, GPT-4 이후로는 완전히 폐쇄적 전략을 택해왔다. Meta의 Llama 시리즈, Mistral, Alibaba의 Qwen 등 오픈웨이트 모델들이 성능 면에서 상업 모델을 빠르게 추격하면서, OpenAI에게 오픈소스 부재는 점점 전략적 약점으로 작용했다. 이번 gpt-oss 시리즈는 그 공백을 메우기 위한 첫 번째 공식 행보다.


핵심 내용

모델 스펙 (gpt-oss-120b):

  • 총 파라미터: 117B
  • 활성화 파라미터: 5.1B (MoE 아키텍처)
  • GPU 요구사항: 단일 80GB GPU (A100/H100)
  • 라이선스: Apache 2.0 (상업적 이용 가능)
  • 배포 도구: vLLM, Ollama, LM Studio, HuggingFace 지원

성능 벤치마크:

  • 경쟁 코딩: o4-mini와 동등 또는 초과
  • 수학 경시 문제: o4-mini 초과
  • 의료 관련 쿼리: o4-mini 초과
  • 일반 문제 해결·툴 사용: o4-mini 동등

API 호환성: OpenAI Responses API와 완전 호환. Structured Outputs, web search, Python code execution 등 툴 사용 지원.


경쟁 구도 / 비교

모델파라미터라이선스단일 GPU추론 성능
Llama 4 Scout109B (MoE)Meta 상업용가능양호
Mistral Large 3123BApache 2.0제한적양호
gpt-oss-120b117B (MoE)Apache 2.0가능o4-mini 수준

OpenAI API 호환성이라는 차별점이 크다. 기존 OpenAI 코드베이스를 그대로 사용하면서 셀프호스팅 전환이 가능한 유일한 오픈웨이트 모델이다.


의미

OpenAI의 오픈웨이트 전략은 단순한 생태계 기여가 아니라, API 의존성을 낮추고 싶은 기업 고객들을 OpenAI 생태계 안에 묶어두는 기술적 락인 전략으로 볼 수 있다. Responses API 호환이라는 설계 선택이 이를 방증한다. 한편, 금융·의료·공공 부문처럼 데이터 외부 전송이 불가한 환경에서 GPT 수준 성능의 온프레미스 배포가 처음으로 현실화된다는 점에서 기업 AI 도입의 새로운 국면이 열렸다.

RELATED

관련 글

전체 보기

RE-ENTRY

최신 글 재진입