Feature Article
Meta MTIA 칩 4세대 로드맵 공개 — 6개월 주기 출시, GenAI 추론 전담 아키텍처로 Nvidia 의존 분산
Meta가 MTIA(Meta Training and Inference Accelerator) 300/400/450/500 4세대 로드맵을 공개했다. MTIA 300이 데이터센터 배포를 완료했고, MTIA 400이 테스트 중이며 약 6개월 간격으로 신규 칩이 출시될 예정이다. 랙당 72개 MTIA 400 구성으로 GenAI 추론 워크로드를 전담한다. 🔍 왜 주목해야 하나 Meta는…
배경 및 맥락
Meta는 2023년 처음 MTIA(Meta Training and Inference Accelerator)를 발표했다. 당시에는 랭킹·추천 알고리즘 전용 추론 칩이었고, GenAI 워크로드까지 커버하기엔 한계가 있었다. 그러나 Llama 시리즈의 성공과 Meta AI 어시스턴트의 급격한 사용자 증가로, 추론 인프라 비용 통제가 Meta의 핵심 과제로 부상했다.
2026년 $115B~$135B 규모의 CapEx 계획을 발표한 Meta는 이를 단순히 Nvidia GPU 구매로 소화하는 게 아니라, 자체 실리콘으로 장기적 비용 구조를 바꾸려 한다. HBM(High Bandwidth Memory) 공급 부족이 지속되는 상황에서 추론 특화 칩의 HBM 효율성을 극대화하는 것이 전략의 핵심이다.
핵심 내용
- MTIA 300: 랭킹·추천(R&R) 추론 전담, 데이터센터 배포 완료
- MTIA 400: R&R 학습 + 일반 GenAI 워크로드 확장, 테스트 완료 후 배포 임박
- MTIA 450: GenAI 추론 최적화, 2027년 초 양산 배포 예정
- MTIA 500: 차세대 GenAI 추론 집중, 2027년 중후반 예정
- 랙 구성: 1 랙 = MTIA 400 72개 — 추론 최적화 밀도 구성
- HBM 전략: 이후 세대로 갈수록 HBM 용량 증가, GenAI 추론 컨텍스트 처리 능력 강화
- 출시 주기: 2026~2027년 약 6개월 간격 신규 칩 배포 로드맵
경쟁 구도 / 비교
빅테크 AI 칩 자립화 현황:
- Google: TPU v5p·v6 시리즈, 학습·추론 병행, 외부 판매(GCP)까지 확장
- Amazon: Trainium 2(학습), Inferentia 3(추론) — AWS 기반 외부 서비스
- Microsoft: Maia 100(Azure), OpenAI 전용 학습 칩
- Meta: MTIA — 완전 내부 소비(외부 판매 없음), 추론 특화에 집중
Meta의 접근법은 가장 '폐쇄적'이다 — 외부 판매나 클라우드 서비스화 없이 자사 AI 서빙에만 사용한다. 이는 단기 수익화보다 장기 비용 절감에 최적화된 전략이다. Llama 모델을 오픈소스로 배포하면서 추론 인프라는 완전 자체화하는 이중 전략이 Meta의 모델이다.
의미
GenAI 추론의 경제학이 빅테크 실리콘 전략을 근본적으로 바꾸고 있다. ChatGPT·Claude·Gemini·Meta AI가 수십억 사용자에게 서비스되는 시대에 추론 비용은 기업 수익성의 핵심 변수다. Nvidia가 H-시리즈, B-시리즈로 가격 프리미엄을 유지하는 한, 빅테크의 커스텀 칩 투자는 계속 가속화될 것이다. Meta의 MTIA 4세대 로드맵 공개는 '추론 칩 자립화'가 일부 기업의 실험이 아니라 업계 전반의 전략 방향임을 재확인한다.