Feature Article
Gemma 4 공개 — Google이 open model 전략을 Apache 2.0과 on-device 배포로 다시 밀어붙이다
배경 및 맥락
지난 1년간 open-weight 모델 시장은 단순히 '누가 더 작은 모델을 내놓는가'의 경쟁을 넘어, 실제 제품에 넣을 수 있는 라이선스와 배포 유연성을 누가 제공하느냐의 경쟁으로 이동했다. 기업 입장에서는 폐쇄형 frontier API가 성능 면에서 매력적이더라도, 데이터 경계와 비용 예측 가능성, 커스터마이징 범위 때문에 여전히 오픈 모델 선택지가 필요하다.
Google은 그동안 Gemini를 전면에 내세우면서도 Gemma를 통해 개발자용 open model 포트폴리오를 유지해 왔다. 이번 Gemma 4는 그 전략을 한 단계 더 밀어붙인 발표다. 단순 성능 향상보다도 Apache 2.0 라이선스, 로컬 실행성, agentic workflow 지원을 묶어 내면서 'open model도 production-grade component가 될 수 있다'는 메시지를 던진다.
핵심 내용
공식 발표에 따르면 Gemma 4는 E2B, E4B, 26B Mixture-of-Experts, 31B Dense 네 가지 크기로 제공된다. Google은 Gemma 누적 다운로드가 4억 회를 넘었고 10만 개 이상의 파생 모델이 만들어졌다고 설명했으며, 새 라인업은 advanced reasoning과 agentic workflows를 겨냥했다고 밝혔다.
기술적으로는 function-calling, structured JSON output, native system instructions를 기본 지원하고, 전 모델이 이미지와 비디오를 처리하며 E2B·E4B는 native audio input도 지원한다. 31B 모델은 2026년 4월 1일 기준 Arena AI text leaderboard에서 오픈 모델 3위, 26B는 6위라고 제시됐다. Google은 이 모델군이 Gemini 3와 같은 연구 기반 위에서 만들어졌지만, Android 기기부터 laptop GPU와 developer workstation까지 폭넓게 실행되도록 최적화됐다고 강조한다.
경쟁 구도 / 비교
Gemma 4의 의미는 단순히 Google판 경량 모델이 나왔다는 데 있지 않다. Meta의 Llama 계열, Mistral의 오픈 모델과 직접 경쟁하는 동시에, Google이 자사 폐쇄형 Gemini를 잠식하지 않으면서도 오픈 생태계를 놓치지 않겠다는 양면 전략을 보여준다. 특히 Apache 2.0은 상용 활용과 파생 모델 제작의 법적 불확실성을 줄여, 개발자 채택 장벽을 크게 낮춘다.
또한 Gemma 4는 클라우드 API 의존형 사용만이 아니라 on-device와 local-first 배포까지 전제로 설계됐다. 이는 edge AI, 사내 보안 환경, 비용 제한이 큰 제품군에서 실질적 경쟁력이 된다. 단순한 benchmark 승부보다 배포 가능성의 폭이 넓다는 점에서 산업적 함의가 크다.
의미
Gemma 4는 2026년 오픈 모델 경쟁의 기준이 이제 파라미터 수보다도 '얼마나 적은 하드웨어로 agentic capability를 낼 수 있는가'로 이동했음을 보여준다. Google이 폐쇄형 Gemini만으로는 커버할 수 없는 개발자 수요를 정면으로 잡으려 한다는 신호이기도 하다.
실무적으로는 제품팀이 오픈 모델을 PoC 용도로만 볼 이유가 더 줄어든다. 라이선스, 멀티모달, structured output, edge 실행성까지 갖춘 계열은 사내 업무 자동화, 모바일 AI, 로컬 코딩 보조, 오프라인 분석 파이프라인 같은 영역에서 빠르게 채택 후보가 될 수 있다.