Feature Article
Google Gemma 4 공개 — Apache 2.0·256K 컨텍스트·멀티모달, 오픈 에이전틱 모델의 새 기준
배경 및 맥락
Google은 2024년 Gemma 1을 시작으로 경량 오픈 모델 시리즈를 꾸준히 발전시켜 왔다. 그러나 Gemma 1·2는 상업적 이용 제한이 있는 별도 라이선스를 사용해, 오픈소스 생태계에서 Meta Llama에 비해 채택이 저조했다. 2025년 말 경쟁이 격화되는 가운데 Google은 Gemini 3의 연구 성과를 오픈 모델에 이식하는 전략 전환을 결정했고, 그 결과물이 Gemma 4다.
Meta가 2026년 초 Llama 4 Scout(10M 컨텍스트)·Maverick(400B 파라미터)을 공개하며 오픈 모델 경쟁이 새로운 국면에 접어든 시점에서, Google이 Gemma 4를 완전한 Apache 2.0으로 출시한 것은 오픈 생태계 주도권을 놓지 않겠다는 명확한 의지 표명이다.
핵심 내용
모델 라인업:
- Gemma 4 Effective 2B (E2B) — 온디바이스·엣지 배포 최적화
- Gemma 4 Effective 4B (E4B) — 단일 소비자급 GPU 실행 가능
- Gemma 4 26B MoE (A4B) — 활성 파라미터 4B, 소비자 GPU 실행·추론 성능 70B급
- Gemma 4 31B Dense — 고성능 서버 배포용
핵심 기술 스펙:
- 컨텍스트 윈도우: 256K 토큰 (Gemma 3 대비 8배)
- 멀티모달: 비전·오디오 네이티브 처리 (별도 어댑터 불필요)
- 언어 지원: 140개 이상
- 라이선스: Apache 2.0 (상업적 이용, 파인튜닝, 재배포 모두 자유)
- 제공 플랫폼: Google Cloud Vertex AI, Hugging Face, Kaggle, Google AI Studio
에이전트 특화 설계:
Gemma 4는 멀티스텝 플래닝, 함수 호출(tool use), 복잡한 추론 체인에 최적화된 instruction tuning을 적용했다. IT 이전 Gemma 버전과 달리 에이전트 워크플로우에서 외부 API와 도구를 직접 연동하는 시나리오를 1차 사용 사례로 설계했다.
경쟁 구도 / 비교
| 모델 | 컨텍스트 | 라이선스 | 활성 파라미터 | 멀티모달 |
|---|---|---|---|---|
| Gemma 4 26B MoE | 256K | Apache 2.0 | 4B | 비전+오디오 |
| Llama 4 Scout | 10M | Llama 4 Community | ~17B MoE | 비전 |
| Mistral Small 3.2 | 128K | Apache 2.0 | 22B | 비전 |
| Qwen2.5-72B | 128K | Apache 2.0 | 72B | 비전 |
Gemma 4의 차별점은 컨텍스트 256K + Apache 2.0 + 오디오 멀티모달 조합이다. Llama 4 Scout가 10M 컨텍스트를 내세우지만 Community 라이선스(상업 이용 월 7억 MAU 이상 제한)의 제약이 있는 반면, Gemma 4는 이런 제한이 없다.
의미
Gemma 4는 오픈 모델 경쟁이 단순한 '파라미터 수 경쟁'에서 라이선스 자유도·멀티모달 완결성·에이전트 최적화로 이동하고 있음을 보여준다. Google이 Gemini 3 기술을 오픈 모델에 적극 이식함으로써, 폐쇄형 최첨단 모델과 오픈 모델 간의 성능 격차가 빠르게 좁혀지는 추세가 가속화될 것으로 보인다. 엔터프라이즈 입장에서는 데이터 프라이버시·컴플라이언스 제약 없이 Gemini급 성능을 자체 인프라에서 운영할 수 있는 시대가 본격화됐다는 신호다.