글
Anthropic-Amazon 5GW 계약 — frontier AI 경쟁이 모델 성능에서 전력·칩·클라우드 확보전으로 이동
Anthropic은 2026년 4월 20일 Amazon과 협력을 확대해 Claude 학습·서빙용으로 최대 5GW 규모의 신규 컴퓨트 용량을 확보한다고 발표했다. Anthropic은 향후 10년간 AWS 기술에 1,000억 달러 이상을 투입하고, 2026년 말까지 Trainium2·Trainium3 기반으로 총 1GW에 가까운 용량이 순차적으로 가동될 예정이며, Claude Platform…
배경 및 맥락
2026년 frontier AI 시장에서 가장 희소한 자원은 더 이상 모델 아이디어만이 아니다. 실제 사업 경쟁력은 대규모 학습과 서빙을 감당할 전력, 칩 공급, 리전 확장, 그리고 엔터프라이즈 고객이 바로 쓸 수 있는 클라우드 유통 경로를 얼마나 안정적으로 확보하느냐에 달려 있다. 모델 성능이 비슷해질수록 인프라 확보 능력이 제품 신뢰성과 매출 성장의 병목이 된다.
Anthropic과 Amazon의 이번 계약은 그 구조를 극단적으로 보여준다. 단순 투자 발표가 아니라, Claude의 미래 성능과 가용성을 AWS의 Trainium 로드맵과 직접 연결하고, Claude Platform 자체를 AWS control plane 안으로 들여오려는 합의이기 때문이다.
핵심 내용
Anthropic은 2026년 4월 20일 Amazon과의 새 계약을 통해 Claude 훈련과 배포를 위한 최대 5GW 규모의 용량을 확보한다고 발표했다. 회사는 향후 10년간 AWS 기술에 1,000억 달러 이상을 투입하고, 2026년 상반기부터 Trainium2 용량이 추가로 가동되며 2026년 말까지 Trainium2와 Trainium3 기준으로 총 1GW에 가까운 용량이 투입될 예정이라고 밝혔다. Amazon은 이번에 50억 달러를 추가 투자하고, 향후 최대 200억 달러까지 확대할 수 있다고도 설명했다.
발표에서 더 중요한 부분은 제품 배포면이다. Anthropic은 Claude Platform on AWS를 예고하면서 같은 계정, 같은 거버넌스, 같은 빌링 체계 안에서 더 많은 Claude Platform 기능을 직접 사용할 수 있게 된다고 밝혔다. 또한 Bedrock을 넘어 Asia와 Europe inference 확장도 포함돼 있어 글로벌 서비스 운영에 필요한 regional footprint 확보까지 동시에 진행된다.
Anthropic은 run-rate revenue가 2025년 말 약 90억 달러에서 현재 300억 달러를 넘어섰다고 공개했고, consumer usage 급증이 무료·Pro·Max·Team 요금제의 신뢰성과 성능에도 영향을 줬다고 밝혔다. 이는 이번 계약이 단순 미래 투자라기보다, 이미 발생한 수요 압박을 해소하기 위한 즉각적인 인프라 대응이라는 점을 시사한다.
경쟁 구도 / 비교
OpenAI, Google, Anthropic 모두 모델 품질을 높이고 있지만, 실제 시장 장악력은 누가 더 많은 GPU나 커스텀 AI 칩을 확보하느냐에 크게 좌우되고 있다. 이번 계약은 Anthropic이 AWS를 단순 호스팅 파트너가 아니라 장기적 training substrate와 enterprise distribution channel로 묶고 있음을 보여준다. 특히 Trainium4까지 옵션을 열어둔 점은 특정 세대 칩이 아니라 하드웨어 로드맵 전체를 선점하려는 전략으로 읽힌다.
또한 Claude가 AWS, Google Cloud, Microsoft Azure 세 곳 모두에서 제공된다는 언급은 흥미롭다. 이는 Anthropic이 멀티클라우드 접근성을 유지하면서도, 실제 학습과 핵심 워크로드는 AWS에 더 깊게 결속시키는 하이브리드 전략을 취하고 있음을 의미한다. 앞으로 frontier 모델 사업자는 단순 API 회사보다, 클라우드 인프라와 공동 설계되는 플랫폼 사업자에 가까워질 가능성이 높다.
의미
이번 발표의 산업적 의미는 frontier AI가 연구 경쟁을 넘어 전력·칩·클라우드 계약이 성패를 가르는 인프라 산업으로 변하고 있다는 데 있다. 모델 기업과 클라우드 기업의 협력은 점점 더 자본집약적이고 장기적인 형태가 될 것이며, 이는 신규 진입 장벽을 한층 높인다.
실무적으로는 AI 도입 조직이 모델 성능표만 보는 구매 관행에서 벗어나야 한다. 어떤 클라우드 계정 체계 안에서 배포와 보안을 관리할 수 있는지, 특정 벤더의 칩 로드맵이 서비스 안정성과 비용에 어떤 영향을 주는지, 그리고 지역별 inference 가용성이 글로벌 제품 운영에 어떤 제약을 주는지까지 함께 따져야 한다.