글
CAISI Signs Agreements Regarding Frontier AI National Security Testing — frontier AI 거버넌스가 사후 규제보다 사전 평가 체계로 이동
미국 NIST 산하 CAISI는 2026년 5월 5일 Google DeepMind, Microsoft, xAI와 frontier AI 국가안보 테스트 협약을 체결했다고 발표했다. 이 협약에 따라 CAISI는 공개 전 모델 평가, 배포 후 평가, 표적 연구를 수행하며, 현재까지 40건 이상 평가를 완료했다고 밝혔다. 🔍 왜 주목해야 하나 이 발표는 frontier AI 거버넌스가 법률…
배경 및 맥락
frontier AI 논의는 오랫동안 규제 찬반이나 고수준 원칙 중심으로 흘러가는 경우가 많았다. 그러나 실제 산업 현장에서는 모델 공개 전 어떤 능력과 위험을 측정할지, 누가 어떤 환경에서 검증할지, 정부와 기업이 어떤 정보를 공유할지가 더 즉각적인 운영 문제다.
NIST 산하 CAISI의 이번 발표는 그 논의가 추상적 가이드라인을 넘어 구체적 평가 파이프라인으로 이동하고 있음을 보여준다. 즉 거버넌스의 단위가 선언이 아니라 테스트 프로세스가 되고 있다.
핵심 내용
CAISI는 2026년 5월 5일 Google DeepMind, Microsoft, xAI와의 확장 협약을 발표했다. 이 협약에 따라 CAISI는 공개 전 frontier AI 모델에 대한 평가와 targeted research를 수행하고, 배포 후 평가도 이어간다. 발표문에 따르면 CAISI는 지금까지 40건이 넘는 평가를 완료했으며, 이 중에는 아직 공개되지 않은 최상위권 모델도 포함된다.
또한 이 협약은 정부 측 평가자가 safeguards가 줄어들거나 제거된 모델을 받아 국가안보 관련 위험을 더 깊게 시험할 수 있게 하고, classified environment에서의 테스트도 지원한다. 정부 내 interagency 협업은 TRAINS Taskforce를 통해 진행된다.
경쟁 구도 / 비교
이전까지 많은 안전 논의는 자율 공약이나 고수준 policy statement에 머무는 경우가 많았다. 반면 이번 발표는 측정 기관이 산업의 공식 접점으로 지정되고, 배포 전 평가와 정보공유가 구조화된 프로세스로 굳어지고 있음을 보여준다. 이는 거버넌스가 규제기관 대 기업의 대립만이 아니라, 평가 인프라를 매개로 한 운영 체계로 이동한다는 의미다.
또한 OpenAI·Anthropic에 이어 Google DeepMind, Microsoft, xAI까지 포함되면서, frontier lab 경쟁이 성능뿐 아니라 정부 평가 체계와의 정렬 능력까지 포함하는 단계로 확장되고 있다.
의미
산업적으로는 frontier AI 릴리즈 프로세스가 벤치마크 공개와 모델 카드 작성만으로는 충분하지 않은 단계에 들어섰다. 앞으로 핵심 플레이어는 모델을 잘 만드는 조직뿐 아니라, 위험을 측정하고 외부 평가와 조율하는 조직이 될 가능성이 높다.
실무적으로는 모델 개발 조직이 internal eval, external red team, release gate, 정보공유 프로토콜을 제품 개발 수명주기에 묶어야 한다. 국가안보와 규제 대응은 점점 별도 법무 이슈가 아니라 모델 운영 아키텍처의 일부가 되고 있다.