Feature Article
Gemma 4 공개 — Apache 2.0 오픈 모델을 agentic workflow 중심으로 재정의
Google DeepMind가 2026년 4월 2일 Gemma 4를 공개했다. E2B, E4B, 26B MoE, 31B Dense 네 가지 크기로 출시됐고, Apache 2.0 라이선스 아래 reasoning, function calling, JSON output, vision/audio 입력까지 지원한다. 🔍 왜 주목해야 하나 Gemma 4의 포인트는 작은 오픈 모델을 단순 경량 대안이…
배경 및 맥락
오픈 모델 시장은 지난 1년 동안 DeepSeek, Qwen, Mistral 중심으로 빠르게 진화했지만, 많은 모델이 실제 제품화 관점에서는 여전히 클라우드 의존적이거나 도구 호출·구조화 출력·멀티모달 입력 같은 에이전트 기능이 약했다. 개발자들은 단순 벤치마크보다 로컬 배포 가능성, 튜닝 비용, 실제 워크플로우 적합성을 더 따지기 시작했다.
Google은 이 지점에서 Gemma 4를 내놨다. Gemini 3 계열 연구를 바탕으로 하되, proprietary frontier model의 축소판이 아니라 개발자가 직접 호스팅하고 미세조정할 수 있는 오픈 계열로 위치를 잡았다. 단순 성능 경쟁이 아니라 hardware efficiency와 deployability를 전면에 두는 전략이다.
핵심 내용
공식 블로그 기준 Gemma 4는 E2B, E4B, 26B Mixture-of-Experts, 31B Dense 네 가지 사이즈로 출시됐다. Google은 이 모델군이 advanced reasoning, multi-step planning, function calling, structured JSON output, native system instructions를 지원하며 agentic workflow에 적합하다고 설명한다. 또한 모든 모델이 이미지·비디오 입력을 다루고, E2B/E4B는 native audio input까지 지원한다고 밝혔다.
성능 포지셔닝도 공격적이다. 31B 모델은 Arena AI text leaderboard 기준 세계 3위 오픈 모델, 26B는 6위이며, Gemma 4가 자신보다 20배 큰 모델과 경쟁한다고 주장한다. 동시에 Apache 2.0 라이선스를 채택해 상업적 재사용과 내부 배포 제약을 크게 낮췄다. Google은 누적 다운로드 4억 회, 10만 개 이상의 파생 variants라는 기존 Gemma 생태계 규모도 강조했다.
경쟁 구도 / 비교
Qwen, Mistral, NVIDIA Nemotron 같은 최근 오픈 모델이 주로 대형 서버·코딩·추론 벤치마크에 초점을 맞췄다면, Gemma 4는 mobile-first와 agent-ready라는 두 축을 더 강하게 밀고 있다. 특히 E2B/E4B 같은 소형 모델에 오디오 입력과 멀티모달 기능을 붙인 점은 단순 경량 모델보다 온디바이스 제품군을 직접 겨냥한 설계다.
Google 입장에서도 의미가 크다. Gemini를 폐쇄형 프리미엄 라인으로 두고, Gemma를 오픈 배포용 런타임으로 분리함으로써 proprietary와 open을 동시에 장악하려는 구조가 명확해졌다. 이는 Meta의 Llama 전략과 비슷해 보이지만, Google은 agentic function calling과 멀티모달 범용성을 더 앞세운다.
의미
Gemma 4는 오픈 모델의 기준이 “작고 싸다”에서 “에이전트로 바로 쓸 수 있다”로 바뀌고 있음을 보여준다. 로컬 실행, 구조화 출력, 도구 호출, 멀티모달 입력이 기본 사양이 되면, 오픈 모델은 더 이상 보조재가 아니라 제품 런타임의 핵심이 된다.
테크 리더에게 중요한 포인트는 하드웨어 전략이다. Gemma 4처럼 다양한 크기와 라이선스 유연성을 가진 모델은 클라우드 API 중심 구조를 온디바이스+사내 호스팅 혼합 구조로 재설계할 여지를 준다. 비용과 데이터 통제 요구가 큰 조직일수록 이 흐름의 영향을 직접 받게 된다.