Feature Article
Meta, MTIA 4세대 AI 칩 6개월 주기 로드맵 공개 — GenAI 인퍼런스 전용 실리콘 전략
Meta는 자체 개발 AI 칩 MTIA 300/400/450/500 4종을 약 2년 내 출시하는 6개월 주기 로드맵을 공개했다. MTIA 300은 이미 랭킹·추천 트레이닝에 투입 중이며, MTIA 400은 GenAI 인퍼런스 데이터센터에 곧 배포 예정이다. 🔍 왜 주목해야 하나 업계 평균 칩 사이클(1~2년)의 절반 이하인 6개월 주기는 매우 공격적인 전략이다. Meta는 2026년…
배경 및 맥락
Meta는 수년간 추천·랭킹 시스템용으로 MTIA(Meta Training and Inference Accelerator)를 자체 개발해왔다. 초기 MTIA는 상대적으로 제한적인 역할에 머물렀으나, Llama 시리즈의 성공과 Meta AI 서비스의 폭발적 성장으로 인해 GenAI 인퍼런스 전용 실리콘 개발이 전략적 우선순위로 급부상했다.
2026년 2월 Meta는 NVIDIA 및 AMD와 각각 멀티-빌리언 달러 규모의 멀티-이어 공급 계약을 체결하면서도, 자체 MTIA 칩 로드맵을 통해 벤더 의존도를 줄이겠다는 투트랙 전략을 명확히 했다.
핵심 내용
4세대 MTIA 로드맵:
| 칩 | 주요 용도 | 상태 |
|---|---|---|
| MTIA 300 | 랭킹·추천 트레이닝 | 프로덕션 배포 중 |
| MTIA 400 | GenAI 인퍼런스 (주력) | 테스트 완료, 배포 임박 |
| MTIA 450 | GenAI 인퍼런스 최적화 | 2027년 배포 예정 |
| MTIA 500 | GenAI 인퍼런스 최적화 | 2027년 배포 예정 |
전략적 수치:
- 2026년 CapEx 예산: $1,150억~$1,350억
- 칩 출시 주기: 약 6개월 (업계 평균의 1/2~1/3)
- Nvidia 멀티-이어 공급 계약 규모: 애널리스트 추정 $500억~$1,000억
설계 철학: 모듈식·재사용 가능한 설계를 기반으로 6개월 이하 주기 달성. MTIA 400 이후는 GenAI 워크로드에 1차 최적화하고, 랭킹·추천 등 기존 워크로드는 2차 적용.
경쟁 구도 / 비교
빅테크 커스텀 실리콘 경쟁 현황:
- Google: TPU v5p (트레이닝) + Axion (ARM CPU 기반 인퍼런스)
- Amazon: Trainium2 (트레이닝) + Inferentia3 (인퍼런스)
- Microsoft: Azure Maia 2 (OpenAI 전용)
- Meta: MTIA 300~500 (범용 → GenAI 인퍼런스 집중)
Meta의 차별점은 소셜 미디어 스케일의 랭킹 시스템과 GenAI 워크로드를 동일 칩 패밀리로 통합하려는 시도에 있다. 이는 Meta의 광고 시스템과 Meta AI 서비스가 동일 인프라를 공유하기 때문에 나타나는 독특한 요구사항이다.
의미
Meta의 MTIA 로드맵은 단순한 하드웨어 공개를 넘어, 대형 테크 기업들이 AI 인퍼런스 비용을 직접 통제하기 위해 실리콘 레이어까지 수직 통합하는 전략의 일환이다. 수조 건/일 규모의 인퍼런스를 처리하는 Meta 입장에서 단 10%의 비용 절감도 연간 수십억 달러 규모이기 때문에 자체 칩 개발의 ROI는 명확하다.
중장기적으로는 NVIDIA 의존도가 높은 기업들이 커스텀 실리콘으로 전환하는 속도를 가속화할 수 있다. 하지만 칩 설계부터 시스템 소프트웨어, 컴파일러 스택까지 방대한 투자가 필요하기 때문에 Meta 수준의 스케일 없이는 재현하기 어렵다.