글
Meta-Broadcom custom silicon 확대 — frontier AI 경쟁이 GPU 조달에서 workload-specific silicon 설계 능력으로 이동
Meta는 2026년 4월 14일 Broadcom과 차세대 MTIA(Meta Training and Inference Accelerator) 칩을 다세대 공동개발한다고 발표했다. Meta는 향후 2년 내 MTIA 4세대를 개발·배치하고, 1GW를 넘는 초기 배치를 시작으로 장기적으로 multi-gigawatt 규모의 custom silicon 인프라를 확대하겠다고 밝혔다. 🔍 왜 주목해야…
배경 및 맥락
frontier AI 경쟁이 심화되면서 희소 자원은 모델 아이디어만이 아니라, 실제 서비스를 감당하는 연산 인프라 그 자체가 됐다. 특히 추천 시스템, 광고 랭킹, 생성형 AI, 장기 추론 워크로드는 필요한 연산 특성이 서로 다르기 때문에 모든 문제를 동일한 범용 GPU로 푸는 접근은 점점 비효율적이 된다. 전력 제약과 네트워크 병목까지 겹치면서, 대형 플랫폼은 실리콘과 데이터센터를 workload 단위로 재설계하려는 압박을 받고 있다.
Meta의 Broadcom 협력 확대는 바로 이 흐름의 연장선에 있다. Meta는 오랫동안 MTIA를 recommendation과 inference에 맞춘 자사 칩으로 키워왔는데, 이번에는 단발성 칩 발주가 아니라 여러 세대에 걸친 공동설계, 패키징, 네트워킹까지 포함하는 장기 인프라 전략으로 격상했다. 이는 AI 경쟁의 핵심이 GPU 구매력에서 system design capability로 이동하고 있음을 보여준다.
핵심 내용
Meta는 2026년 4월 14일 Broadcom과 차세대 MTIA 칩을 다세대 공동개발한다고 발표했다. 공식 발표에 따르면 MTIA는 Meta의 ranking, recommendation, generative AI workload를 지원하는 custom accelerator이며, Meta는 향후 2년 동안 네 개 세대의 MTIA 칩을 개발·배치할 계획이다.
이번 협력은 칩 설계만 포함하지 않는다. Broadcom은 XPU 플랫폼을 기반으로 Meta와 함께 custom accelerator 설계, advanced packaging, high-bandwidth Ethernet networking까지 함께 맡는다. Meta는 초기 배치 규모가 1GW를 넘고, 이후 multi-gigawatt로 확장되는 로드맵의 첫 단계라고 밝혔다. Mark Zuckerberg는 이 파트너십이 billions of people을 위한 personal superintelligence를 뒷받침할 massive computing foundation이라고 직접 표현했다.
이 구조는 Meta가 AI 인프라를 단순한 칩 구매가 아니라 시스템 공동설계 문제로 보고 있음을 잘 보여준다. Broadcom CEO Hock Tan도 초기 MTIA 배치는 시작일 뿐이며, 향후 수년간 massive growth trajectory를 위한 multi-generation roadmap이라고 설명했다. 이는 칩 공급 계약이 아니라 데이터센터 아키텍처 장기 계약에 가깝다.
경쟁 구도 / 비교
NVIDIA GPU는 여전히 AI 훈련과 서빙의 중심이지만, Meta·Google·Amazon·Microsoft처럼 대규모 수요를 가진 사업자는 자사 workload에 맞춘 custom silicon 비중을 빠르게 늘리고 있다. Meta는 특히 recommendation과 inference에서 특화 칩의 경제성이 크다고 보고 있으며, Broadcom과의 협업을 통해 칩-패키징-네트워크를 함께 조정하려 한다.
이 접근은 단순히 비용 절감만을 위한 것이 아니다. 특정 workload에 맞춘 실리콘은 지연 시간, 전력 효율, 메모리 대역폭, 네트워크 토폴로지까지 함께 최적화할 수 있다. 장기적으로는 AI 인프라 경쟁에서 범용 GPU 조달량보다, 누가 더 많은 workload를 자체 설계 칩으로 전환할 수 있느냐가 수익성과 서비스 품질을 가르는 중요한 지표가 될 수 있다.
의미
이번 발표의 의미는 frontier AI가 소프트웨어 산업을 넘어 본격적인 인프라 산업으로 굳어지고 있다는 점이다. 모델 기업과 플랫폼 기업은 앞으로 더 많은 자본을 칩, 패키징, 냉각, 전력, 네트워크에 묶게 될 것이고, 이는 후발주자의 진입 장벽을 더욱 높인다.
실무적으로는 대형 서비스 운영 조직이 inference와 ranking workload를 더 세밀하게 분해해 볼 필요가 있다. 어떤 계층은 범용 GPU가 적합하지만, 반복적이고 대규모인 워크로드는 특화 가속기나 맞춤형 네트워크 설계가 총소유비용을 크게 낮출 수 있다. AI 전략은 모델 전략과 동시에 인프라 포트폴리오 전략이 되어가고 있다.