글
Agent Governance Toolkit — 에이전트 보안이 사후 감사에서 runtime kernel 계층으로 이동
Microsoft는 2026년 4월 2일 Agent Governance Toolkit을 MIT 라이선스로 공개했다. 이 오픈소스 프로젝트는 OWASP Agentic AI Top 10의 10개 위험군을 모두 다루는 runtime governance stack을 목표로 하며, Agent OS·Mesh·Runtime·SRE·Compliance·Marketplace·Lightning의 7개…
배경 및 맥락
에이전트 시스템이 실제 업무에 들어오면서 보안과 거버넌스 문제도 질적으로 달라지고 있다. 기존 LLM 애플리케이션은 주로 입력 필터링, 출력 검토, 권한 분리 정도로 통제할 수 있었지만, 자율 에이전트는 도구를 호출하고 상태를 기억하며 다른 에이전트와 통신하고 외부 시스템을 조작한다. 이 단계에서는 정책 위반을 사후 로그 분석으로 찾는 방식이 너무 느리다.
Microsoft가 공개한 Agent Governance Toolkit은 이 문제를 운영체제 커널이나 서비스 메시처럼 풀려는 시도다. 즉 에이전트의 행동을 설명하는 가이드가 아니라, 실제 실행 경로 안에서 정책 집행과 신원 검증, 신뢰 점수, 킬 스위치를 제공하는 runtime layer를 만들겠다는 접근이다.
핵심 내용
Microsoft는 2026년 4월 2일 Agent Governance Toolkit을 오픈소스로 공개했다. 공식 설명에 따르면 이 프로젝트는 OWASP Agentic AI Top 10의 10개 리스크를 모두 커버하도록 설계됐고, Python·TypeScript·Rust·Go·.NET 생태계를 지원한다. 아키텍처는 Agent OS, Agent Mesh, Agent Runtime, Agent SRE, Agent Compliance, Agent Marketplace, Agent Lightning의 7개 패키지로 구성되며, 정책 집행 지연은 0.1ms p99 미만이라고 제시됐다.
구성 요소도 구체적이다. Agent OS는 YAML, OPA Rego, Cedar 정책을 지원하는 stateless policy engine이고, Agent Mesh는 Ed25519 기반 DID 신원과 inter-agent trust protocol을 제공한다. Agent Runtime은 privilege ring, saga orchestration, emergency kill switch를 포함하며, Agent Compliance는 EU AI Act, HIPAA, SOC2, OWASP 기준을 매핑한다. 문서에는 tool misuse 대응용 MCP security gateway, plugin signing, manifest verification, circuit breaker, approval workflow 등도 포함돼 있다.
또한 이 툴킷은 LangChain, CrewAI, Google ADK, Microsoft Agent Framework, OpenAI Agents SDK, Haystack, LangGraph, PydanticAI와의 통합을 명시했다. 이는 특정 벤더 제품 잠금이 아니라, 에이전트 프레임워크 전반에 가로지르는 공통 거버넌스 레이어를 노리는 전략으로 읽힌다.
경쟁 구도 / 비교
지금까지 많은 에이전트 거버넌스 논의는 프롬프트 규칙, 인간 승인 단계, 로깅 대시보드처럼 제품 바깥의 통제 수단에 머무는 경우가 많았다. 반면 Agent Governance Toolkit은 action interception과 trust scoring을 런타임 한가운데 넣는다. 이 접근은 서비스 메시가 네트워크 정책을 코드 밖의 인프라 계층으로 옮겼던 것과 비슷한 방향이다.
또 하나 중요한 차별점은 개방형 생태계 전략이다. 벤더 내장형 보안 기능은 빠르게 쓸 수 있지만 멀티프레임워크 환경에서 일관성을 유지하기 어렵다. Microsoft는 MIT 라이선스, 프레임워크 불문 통합, 공개 정책 언어 지원을 내세워 governance layer를 ecosystem artifact로 만들려 한다. 장기적으로는 agent platform의 경쟁이 모델 품질뿐 아니라 누가 더 표준적인 governance substrate를 제공하느냐로 확장될 수 있다.
의미
이번 공개의 의미는 에이전트 보안이 체크리스트나 사후 감사가 아니라, 실제 tool call과 inter-agent communication을 통제하는 실행 계층으로 이동하고 있다는 점이다. 특히 EU AI Act와 Colorado AI Act처럼 규제가 구체화되는 시점에는 이런 runtime governance가 선택이 아니라 필수 인프라에 가까워진다.
실무적으로는 에이전트 제품팀과 플랫폼팀이 지금부터 policy engine, approval workflow, plugin provenance, 신뢰 점수 모델을 아키텍처 일부로 설계해야 한다. 뒤늦게 덧붙인 감사 로그보다, 실행 전 정책 집행과 격리 구조를 갖춘 시스템이 규제 대응과 보안 사고 방어에서 훨씬 유리하다.