글
Introducing Advanced Account Security — AI 계정 보안이 부가 기능에서 워크플로 인프라로 승격
OpenAI는 2026년 4월 30일 ChatGPT와 Codex에 공통 적용되는 Advanced Account Security를 공개했다. 이 설정은 passkey·physical security key 강제, 이메일/SMS 기반 복구 비활성화, 세션 단축, 로그인 알림, 그리고 자동 training exclusion을 한 번에 묶은 opt-in 보안 모드다. 🔍 왜 주목해야 하나 이…
배경 및 맥락
생성형 AI 계정은 더 이상 단순한 챗봇 로그인 수단이 아니다. 실제로는 연구 메모, 소스코드, 연결된 SaaS, 장기 대화 맥락, 그리고 조직 내부 의사결정 흔적이 축적되는 작업 허브가 되고 있다. 이런 계정이 탈취되면 정보 유출뿐 아니라 자동화된 도구 실행, 민감 데이터 접근, 계정 기반 권한 상승까지 이어질 수 있다.
OpenAI의 이번 발표는 이런 현실을 제품 정책으로 공식화한 사례다. 특히 ChatGPT와 Codex를 같은 보호 경계 안에 묶고, 고위험 사용자군과 cyber defenders를 별도로 언급했다는 점에서 AI 계정 보안이 일반 소비자 보안이 아니라 고권한 업무 인프라 보안으로 이동하고 있음을 보여준다.
핵심 내용
공식 발표에 따르면 Advanced Account Security는 웹에서 opt-in할 수 있는 강화 보안 모드다. 활성화하면 비밀번호 기반 로그인 대신 passkey 또는 physical security key가 요구되고, 이메일·SMS 기반 계정 복구는 비활성화된다. 대체 복구 수단은 backup passkey, security key, recovery key로 제한되며, OpenAI Support도 이 모드 사용자의 계정 복구를 대신 처리하지 않는다.
또한 세션 지속 시간이 짧아지고, 새 로그인 알림과 활성 세션 관리 기능이 강화된다. 중요한 차별점은 자동 training exclusion이다. 이 모드를 켠 계정의 대화는 모델 학습에 사용되지 않는다. OpenAI는 여기에 더해 Yubico와 제휴해 보안 키 접근성을 높였고, Trusted Access for Cyber 개인 참여자에게는 2026년 6월 1일부터 이 보안 설정을 의무화한다고 밝혔다.
경쟁 구도 / 비교
대부분의 AI 플랫폼은 보안을 enterprise SSO나 일반 MFA 수준에서 설명해 왔다. 반면 OpenAI는 계정 자체를 고위험 자산으로 보고, phishing-resistant login, 강한 recovery policy, 세션 관리, training exclusion을 하나의 운영 패키지로 묶었다. 이는 AI 제품 경쟁이 모델 성능과 에이전트 기능만이 아니라, 누가 더 강한 identity control plane을 제공하느냐로 확장되고 있음을 뜻한다.
또한 Codex가 같은 보호 범위에 포함된 점은 코딩 에이전트가 일반 생산성 앱보다 더 높은 보안 등급으로 재분류되고 있음을 시사한다. 앞으로 개발자용 AI는 기능 비교만으로 도입하기 어려워질 가능성이 높다.
의미
산업적으로는 AI 계정이 새로운 privileged endpoint가 되고 있다는 신호다. 고성능 모델보다 먼저 계정 보호, 복구 차단, 세션 제어, 데이터 사용 정책이 제품 차별화 요소가 될 가능성이 커졌다.
실무적으로는 보안팀과 개발 플랫폼팀이 AI 계정 보호 기준을 별도 문서로 정의해야 한다. passkey/security key 의무화 가능 여부, 복구 절차, training exclusion 기본값, 고권한 사용자 분류를 지금 설계하지 않으면 AI 도입 속도보다 계정 리스크가 더 빨리 커질 수 있다.