PickleeAI와 개발에 대한 짧은 노트
홈아티클아카이브검색

끝까지 읽는 글

AI와 개발에 관한 변화 중에서 블로그처럼 오래 읽을 수 있는 글만 골라 정리합니다.

© 2026 Picklee

RSSSitemap

글

2026년 4월 1일수정 2026년 4월 1일원문

OpenAI, 최초 오픈웨이트 모델 gpt-oss-120b 공개 — Apache 2.0, o4-mini 수준 추론 성능

OpenAI가 처음으로 오픈웨이트 모델인 gpt-oss-120b(117B 파라미터, MoE)와 gpt-oss-20b를 Apache 2.0 라이선스로 공개했다. 단일 80GB GPU에서 실행 가능하며, 코딩·수학·툴 사용에서 o4-mini와 동등하거나 일부 초과한다. 🔍 왜 주목해야 하나 OpenAI가 '오픈소스 전략 부재'라는 비판을 받아온 상황에서 이번 출시는 단순한 제품 발표를 넘어…

AI
오픈소스
모델
OpenAI
API
트렌드

배경 및 맥락

OpenAI는 창립 초기 '오픈소스'를 사명에 내건 단체였지만, GPT-4 이후로는 완전히 폐쇄적 전략을 택해왔다. Meta의 Llama 시리즈, Mistral, Alibaba의 Qwen 등 오픈웨이트 모델들이 성능 면에서 상업 모델을 빠르게 추격하면서, OpenAI에게 오픈소스 부재는 점점 전략적 약점으로 작용했다. 이번 gpt-oss 시리즈는 그 공백을 메우기 위한 첫 번째 공식 행보다.


핵심 내용

모델 스펙 (gpt-oss-120b):

  • 총 파라미터: 117B
  • 활성화 파라미터: 5.1B (MoE 아키텍처)
  • GPU 요구사항: 단일 80GB GPU (A100/H100)
  • 라이선스: Apache 2.0 (상업적 이용 가능)
  • 배포 도구: vLLM, Ollama, LM Studio, HuggingFace 지원

성능 벤치마크:

  • 경쟁 코딩: o4-mini와 동등 또는 초과
  • 수학 경시 문제: o4-mini 초과
  • 의료 관련 쿼리: o4-mini 초과
  • 일반 문제 해결·툴 사용: o4-mini 동등

API 호환성: OpenAI Responses API와 완전 호환. Structured Outputs, web search, Python code execution 등 툴 사용 지원.


경쟁 구도 / 비교

모델파라미터라이선스단일 GPU추론 성능
Llama 4 Scout109B (MoE)Meta 상업용가능양호
Mistral Large 3123BApache 2.0제한적양호
gpt-oss-120b117B (MoE)Apache 2.0가능o4-mini 수준

OpenAI API 호환성이라는 차별점이 크다. 기존 OpenAI 코드베이스를 그대로 사용하면서 셀프호스팅 전환이 가능한 유일한 오픈웨이트 모델이다.


의미

OpenAI의 오픈웨이트 전략은 단순한 생태계 기여가 아니라, API 의존성을 낮추고 싶은 기업 고객들을 OpenAI 생태계 안에 묶어두는 기술적 락인 전략으로 볼 수 있다. Responses API 호환이라는 설계 선택이 이를 방증한다. 한편, 금융·의료·공공 부문처럼 데이터 외부 전송이 불가한 환경에서 GPT 수준 성능의 온프레미스 배포가 처음으로 현실화된다는 점에서 기업 AI 도입의 새로운 국면이 열렸다.

더 읽기

같이 읽어볼 만한 글

전체 글 보기
2026년 4월 5일

Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준

Google이 4월 2~3일 Gemma 4를 Apache 2.0 라이선스로 공개했다. Effective 2B·4B·26B MoE·31B Dense 네 가지 크기로 제공되며, 256K 토큰 컨텍스트, 비전·오디오 네이티브 멀티모달, 140개 이상 언어를 지원한다. 🔍 왜 주목해야 하나 Gemma 4는 Gemini 3와 동일한 연구 기반으로 제작됐으면서 상업 제한 없는 Apache 2.0으로…

2026년 4월 3일

Arcee Trinity-Large-Thinking 출시 — 미국계 오픈 에이전트 모델이 가격 대비 frontier 경쟁력 제시

Arcee AI가 2026년 4월 1일 Trinity-Large-Thinking을 공개했다. Apache 2.0 오픈웨이트 reasoning 모델로, long-horizon agent와 multi-turn tool calling에 초점을 맞췄고 PinchBench에서 Opus 4.6 바로 아래 2위를 기록했다고 밝혔다. 🔍 왜 주목해야 하나 이 모델의 의미는 단순히 또 하나의 오픈 모델이…

2026년 4월 3일

Gemma 4 공개 — Apache 2.0 오픈 모델을 agentic workflow 중심으로 재정의

Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…

2026년 4월 1일

NVIDIA Nemotron 3 Super — 120B MoE 오픈소스 에이전트 모델, SWE-Bench 60.5% 달성

NVIDIA가 에이전트 워크로드 특화 오픈소스 모델 Nemotron 3 Super를 공개했다. Mamba-Transformer 하이브리드 MoE 아키텍처로 원래 1,200억 파라미터에서 활성 파라미터 120억만 사용, SWE-Bench Verified 60.47% 및 PinchBench 85.6%로 동급 오픈소스 최고 성능을 기록했다. 🔍 왜 주목해야 하나 Nemotron 3 Super는…