Curated AI Magazine

PICKLEE

AI Field Notes For Builders

FEATURE ARTICLE

NVIDIA Nemotron 3 Super 공개 — 120B 하이브리드 MoE 오픈 에이전틱 AI 모델 Apache 2.0

📌 핵심 요약 NVIDIA가 GTC 2026에서 120B 전체 파라미터, 12B 활성 파라미터의 하이브리드 Mamba-Transformer MoE 아키텍처 기반 오픈 웨이트 모델 Nemotron 3 Super를 Apache 2.0으로 공개했다. 소프트웨어 개발과 사이버보안 트리아지 등 복잡한 멀티에이전트 태스크를 타겟으로 하며, 10조 토큰 규모의 학습 데이터도 함께 공개됐다. 🔍 왜 주목해야 하나 120B 전체 파라미터 중 12B만 활성화하는 희소 MoE 구조 덕분에 추론 비용은 12B dense 모델 수준으로 유지되면서도 frontier급 성능을 제공한다. NVIDIA H100/H200/Blackwell 인프라 기반 기업에게는 TCO 측면에서 직접적인 이점이 있으며, Perplexity/OpenRouter/Hugging Face에서 즉시 접근 가능해 실험적 활용 장벽도 낙다. GPT-OSS 120B및 Qwen-72B대비 코드 시터스 비율도 높은 수준으로 보고된다. ⚡ 실무 시사점 에이전트 파이프라인에 대형 모델 도입을 검토 중인 팀은 GPT-OSS 120B 대비 Nemotron 3 Super의 비용-성능 비율을 직접 벤치마킹할 것. 코드 생성·리뷰 자동화, 보안 로그 분석 등 워크플로우에서 클로즈드 소스 모델의 실질적 대안으로 부상 중이다.

2026년 3월 27일수정 2026년 3월 27일원문 링크

RELATED

관련 글

전체 보기

RE-ENTRY

최신 글 재진입