Feature Article
Anthropic, Google·Broadcom과 차세대 TPU 수 GW 계약 — 컴퓨트 병목이 곧 전략 그 자체가 된 AI 산업
배경 및 맥락
2025년까지 AI 경쟁의 표면은 모델 성능, 컨텍스트 길이, 에이전트 기능, 개발자 도구 UX에 있었다. 그러나 2026년에 들어서면서 진짜 병목은 다시 compute로 수렴하고 있다. 대형 모델 학습과 장기 추론 수요가 폭증하면서, 누가 더 좋은 모델을 만들었는가만큼 누가 더 많은 전력과 칩, 클라우드 용량을 장기 확보했는가가 중요해졌다.
Anthropic의 이번 발표는 그 전환을 가장 직접적으로 보여준다. Google과 Broadcom과 함께 2027년부터 가동될 차세대 TPU 용량을 복수 기가와트 단위로 계약한 것은, frontier lab이 더 이상 소프트웨어 회사처럼 움직이지 않고 전력 집약적 인프라 기업처럼 행동하기 시작했음을 뜻한다.
핵심 내용
Anthropic 발표에 따르면 이번 계약은 multiple gigawatts 규모의 차세대 TPU capacity를 포함하며, 2027년부터 순차적으로 가동될 예정이다. 회사는 이를 Claude 모델군과 급증하는 고객 수요를 뒷받침할 가장 큰 규모의 compute commitment로 규정했다. 같은 발표에서 Anthropic은 2026년 run-rate revenue가 300억 달러를 넘어섰고, 연환산 100만 달러 이상을 지출하는 비즈니스 고객 수가 500개에서 1,000개 이상으로 두 배 증가했다고 밝혔다.
아키텍처 측면에서도 시사점이 있다. Anthropic은 AWS Trainium, Google TPU, NVIDIA GPU를 모두 사용한다고 밝히며 workload별로 최적 칩을 선택하는 다중 하드웨어 전략을 강조했다. 동시에 Amazon을 primary cloud provider이자 training partner로 유지하면서도 Google Cloud 및 Broadcom과 관계를 강화한 것은, 특정 하이퍼스케일러 종속을 피하면서 공급 안정성과 협상력을 확보하려는 움직임으로 읽힌다.
경쟁 구도 / 비교
OpenAI, xAI, Google, Meta 등도 이미 데이터센터와 실리콘 확보 경쟁에 뛰어들었지만, Anthropic의 발표는 TPU를 중심으로 한 장기 capacity reservation을 전면에 내세웠다는 점에서 차별적이다. 특히 모델 기업이 단순 클라우드 임차가 아니라 2027년 이후를 겨냥한 기가와트급 capacity를 선점한다는 것은, frontier 모델 경쟁이 단기 제품 릴리즈 싸움이 아니라 수년 단위 인프라 선점전으로 이동했음을 보여준다.
이는 Mistral의 유럽 데이터센터 투자, Microsoft의 Maia/NVIDIA 병행 전략, Google의 TPU 생태계 확장과도 맞물린다. 앞으로는 모델 품질이 비슷해질수록 공급 안정성, 리전 배치, 장기 가격 구조, 학습 주기 보장 능력이 더 큰 차별화 요인이 될 가능성이 높다.
의미
이번 계약은 AI 산업이 다시 전통적인 인프라 산업의 속성을 강하게 띠기 시작했음을 보여준다. 자본, 전력, 실리콘, 냉각, 부지, 공급 계약이 모델 혁신 속도를 규정하는 시대다. 이는 시장 진입장벽을 더욱 높이고, 상위 소수 플레이어의 우위를 공고히 할 가능성이 크다.
실무적으로는 모델 선택 기준이 더 복합해진다. 단순히 성능이 아니라, 공급사가 12~24개월 후에도 일관된 capacity와 가격을 제공할 수 있는지, 멀티클라우드로 분산 배포가 가능한지, 특정 지역에서 SLA를 유지할 수 있는지까지 봐야 한다. AI 구매가 소프트웨어 구독이 아니라 인프라 계약 검토에 가까워지고 있다.