Feature Article
Anthropic, Google·Broadcom과 multi-gigawatt TPU 계약 — frontier AI 경쟁이 이제 모델보다 compute 예약전으로 이동
배경 및 맥락
생성형 AI 시장은 2025년까지는 모델 성능과 제품 출시 속도 중심으로 읽혔지만, 2026년 들어서는 실제 승부처가 compute 확보 능력으로 옮겨가고 있다. 학습과 추론 수요가 동시에 폭증하면서, 누가 더 좋은 모델을 먼저 내느냐보다 누가 더 많은 전력과 칩을 장기 계약으로 묶어둘 수 있느냐가 사업 확장의 상한을 결정한다.
Anthropic의 이번 발표는 이런 변화를 수치로 보여준다. 회사는 2027년부터 가동될 multiple gigawatts 규모의 TPU 용량을 선점했고, 동시에 고객 수요와 매출 성장 속도를 공개했다. 이는 frontier lab이 더 이상 연구 조직만이 아니라 전력·데이터센터·클라우드 조달 역량을 갖춘 인프라 사업자로 재편되고 있음을 뜻한다.
핵심 내용
Anthropic은 Google과 Broadcom과의 새 계약을 통해 차세대 TPU compute를 대규모로 확보한다고 밝혔다. 발표문에 따르면 연환산 매출은 300억 달러를 넘었고, 연간 100만 달러 이상을 쓰는 기업 고객 수는 2개월 만에 500개에서 1,000개 이상으로 증가했다. 신규 compute의 대부분을 미국 내에 배치한다고 한 점도 중요하다.
또한 Anthropic은 AWS Trainium, Google TPU, NVIDIA GPU를 함께 쓰는 하드웨어 다변화 전략을 강조했다. 이는 특정 칩 로드맵이나 공급 차질에 덜 흔들리면서, 워크로드별로 가장 적합한 추론·학습 자원을 배치하려는 구조다. 모델 경쟁이 결국 공급망 관리 경쟁으로 이어지고 있다는 증거다.
경쟁 구도 / 비교
OpenAI가 막대한 자금 조달과 compute access를 전면에 내세웠다면, Anthropic은 멀티클라우드·멀티칩 조합으로 대응하고 있다. 두 회사 모두 모델 우위보다 인프라 지속 가능성을 핵심 메시지로 올리고 있다는 점에서 산업의 무게중심이 완전히 바뀌었다.
차이는 Anthropic이 AWS를 주 파트너로 유지하면서도 Google TPU와 Broadcom까지 확장해 리스크를 분산한다는 점이다. 이는 벤더 종속보다 공급 안정성과 탄력성을 우선하는 전략으로 읽힌다.
의미
이 뉴스는 AI 시장이 소프트웨어 출시 경쟁에서 전력·칩·클라우드 예약 경쟁으로 이동했음을 명확히 보여준다. 앞으로 frontier 모델의 성능 격차만큼이나 중요한 것은 얼마나 안정적으로 추론 단가를 낮추고 고객 수요를 흡수할 수 있느냐다.
실무적으로는 AI 벤더 평가 기준을 다시 써야 한다. 기술 조직은 모델 정확도뿐 아니라 공급자별 capacity risk, region availability, 계약 탄력성까지 포함해 멀티벤더 전략을 설계해야 한다.