AI 클라우드, 이제 "누가 접근할 수 있는지"를 결정한다 — 그 권한 판단은 당신이 승인했는가?
IAM(Identity and Access Management), 즉 "누가 무엇에 접근할 수 있는가"는 클라우드 보안의 가장 근본적인 질문이다. 그런데 지금 AI cloud 환경에서는 이 질문에 대한 답을 AI가 스스로 내리기 시작했다. 접근 정책을 실시간으로 수정하고, 권한 범위를 동적으로 조정하고, 이상 징후를 감지해 계정을 자율적으로 잠그는 것까지 — 사람의 서명 없이.
이것이 편리함인지, 아니면 거버넌스의 붕괴인지. 그 경계가 지금 무너지고 있다.
"AI가 권한을 관리한다"는 말의 진짜 의미
전통적인 IAM 모델은 단순했다. 관리자가 역할(Role)을 정의하고, 정책(Policy)을 작성하고, 변경 티켓을 올리고, 승인을 받는다. 이 흐름 전체가 감사(Audit)의 근거가 된다. "왜 이 계정이 이 리소스에 접근할 수 있었는가"라는 질문에 항상 명확한 답이 존재했다.
그런데 지금은 다르다.
AWS IAM Access Analyzer, Google Cloud의 Policy Intelligence, Microsoft Entra ID의 AI 기반 조건부 액세스(Conditional Access) 같은 도구들은 이미 런타임에서 권한 추천과 자동 수정을 수행하고 있다. 여기서 핵심은 "추천"이 "자동 적용"으로 넘어가는 순간이다.
예를 들어, AI 오케스트레이션 레이어가 특정 서비스 계정이 "과도한 권한(Overprivileged)"을 가지고 있다고 판단하면, 일부 시스템에서는 변경 티켓 없이 해당 권한을 자동으로 축소한다. 반대로, 워크로드 처리를 위해 일시적으로 권한을 확장하는 결정도 AI가 내린다. 이 모든 것이 밀리초 단위로 일어난다.
문제는 이 결정들이 어떤 이름으로, 어떤 근거로, 누구의 승인을 받아 이루어졌는지가 기록되지 않는다는 점이다.
실제로 무슨 일이 벌어지고 있나
동적 권한 축소(Dynamic Least Privilege)의 그림자
"최소 권한 원칙(Principle of Least Privilege)"은 보안의 황금률이다. AI는 이를 자동화하겠다고 나섰다. 실시간으로 사용 패턴을 분석해 "이 계정은 지난 30일간 S3 버킷에 쓰기 작업을 한 번도 하지 않았으니 쓰기 권한을 제거하겠다"는 식이다.
이론적으로는 완벽하다. 그런데 실무에서는 어떤 일이 생기는가.
분기에 한 번 실행되는 배치 작업이 있다고 가정하자. AI는 90일간 사용되지 않은 권한을 "불필요하다"고 판단해 제거한다. 그리고 91일째 되는 날, 배치 작업이 실패한다. 온콜 엔지니어는 새벽 2시에 깨어나 원인을 추적하기 시작한다. 변경 티켓도 없고, 승인 기록도 없고, 누가 왜 이 권한을 제거했는지 알 수 없다. 로그에는 "Policy updated by IAM Optimizer"라는 한 줄만 남아 있다.
이것이 AI cloud 환경에서 실제로 반복되고 있는 패턴이다.
조건부 액세스의 자율 재구성
Microsoft Entra ID의 AI 기반 조건부 액세스는 로그인 패턴, 위치, 디바이스 상태, 위협 인텔리전스를 종합해 실시간으로 접근 정책을 조정한다. 이 자체는 강력한 보안 기능이다.
그러나 Gartner의 2025년 클라우드 보안 보고서에서 지적하듯, AI 기반 접근 제어 시스템이 "설명 가능한 의사결정 근거(Explainable Decision Rationale)"를 제공하지 못할 경우, SOC 2 Type II나 ISO 27001 감사에서 "왜 이 사용자가 이 시점에 차단되었는가"를 증명하는 것이 사실상 불가능해진다.
더 심각한 경우도 있다. AI가 정상적인 업무 패턴을 이상 행동으로 오분류해 임원 계정을 잠그는 일이 발생한다. 이때 "AI가 잠갔습니다"라는 설명은 법적 분쟁이나 규제 조사에서 아무런 방어력이 없다.
AI cloud가 만들어낸 새로운 거버넌스 공백
"누가 승인했는가"라는 질문이 사라진다
전통적인 변경 관리(Change Management)는 ITIL 프레임워크를 기반으로 한다. 변경 요청(RFC) → 영향 평가 → 승인 → 실행 → 검토. 이 흐름에서 모든 단계에 사람의 이름이 붙는다.
AI 오케스트레이션이 IAM 정책을 런타임에서 수정하기 시작하면, 이 흐름 전체가 우회된다. 변경은 일어났지만, RFC는 없다. 영향 평가는 없다. 승인자 이름은 없다. 감사 추적에는 "Automated policy adjustment"라는 문구만 남는다.
이것이 내가 이 시리즈에서 반복적으로 지적해온 "거버넌스 크리프(Governance Creep)"의 IAM 버전이다. AI 클라우드가 재해복구 판단을 자율적으로 내리는 문제와 구조적으로 동일하다. 도메인만 다를 뿐, 핵심 문제는 같다 — "설명 가능한 승인의 부재."
컴플라이언스 프레임워크는 아직 준비되지 않았다
GDPR, ISO 27001, SOC 2, HIPAA — 이 모든 프레임워크는 "사람이 결정하고, 그 결정을 기록한다"는 전제 위에 세워져 있다. AI가 권한 정책을 자율적으로 수정할 때, 이 전제는 허구가 된다.
특히 GDPR 17조(삭제권)와 연계된 IAM 시나리오를 생각해보자. AI가 특정 데이터 접근 권한을 자율적으로 복원했을 때, 그 복원이 "정보주체의 삭제 요청 처리 흐름"을 방해했다면 — 누가 책임을 지는가? AI 벤더인가, 클라우드 사업자인가, 아니면 "AI가 알아서 할 것"이라고 믿었던 기업 CTO인가.
현재로서는 명확한 답이 없다. 이것이 문제의 본질이다.
이것이 단순한 기술 문제가 아닌 이유
IAM의 자율화는 단순히 "편리함 대 보안"의 트레이드오프가 아니다. 이것은 책임의 소재(Accountability)에 관한 문제다.
기업이 클라우드 환경에서 데이터 침해 사고를 당했을 때, 규제 기관이 가장 먼저 묻는 것은 "당신은 누가 무엇에 접근할 수 있는지 알고 있었는가"이다. AI가 권한을 자율적으로 관리하는 환경에서 이 질문에 "예"라고 답하기 위해서는, AI의 모든 결정이 인간이 검토하고 승인할 수 있는 형태로 기록되어야 한다.
그런데 현실은? 대부분의 AI 기반 IAM 도구는 "무엇을 변경했는가"는 기록하지만, "왜 변경했는가"와 "누가 이 변경을 승인했는가"는 기록하지 않는다. 로그는 있지만 감사 근거는 없는 것이다.
지금 당장 할 수 있는 것들
이 문제를 인식했다면, 다음 세 가지 질문을 자신의 AI cloud 환경에 던져보길 권한다.
1. AI의 IAM 결정에 "드라이런(Dry-Run)" 모드가 있는가?
좋은 AI 기반 IAM 도구는 실제 변경을 적용하기 전에 "이런 변경을 하려 한다"고 알려주는 드라이런 또는 시뮬레이션 모드를 제공한다. AWS IAM Access Analyzer의 정책 시뮬레이터가 대표적이다. 이 기능이 활성화되어 있는지, 그리고 그 출력이 실제로 사람에게 검토되고 있는지 확인하라.
2. 자동화된 권한 변경에 "인간 승인 게이트"가 있는가?
모든 AI 권한 변경이 자동 적용되도록 설정되어 있다면, 최소한 "고위험 변경(High-Risk Change)" — 예: 관리자 권한 수정, 프로덕션 환경 서비스 계정 변경 — 에 대해서는 사람의 명시적 승인을 요구하는 워크플로를 구축해야 한다. PagerDuty, ServiceNow, Jira Service Management 같은 도구와 연동해 승인 기록을 남기는 것이 현실적인 방법이다.
3. AI 결정의 "설명 가능성 로그"를 별도로 보관하고 있는가?
일반 감사 로그와 별개로, AI가 내린 결정의 근거(어떤 데이터를 기반으로, 어떤 규칙을 적용해, 어떤 결론을 냈는가)를 별도 스토리지에 보존하는 정책이 필요하다. 이것이 없으면, 규제 조사 시 "AI가 했다"는 말은 면죄부가 아니라 오히려 가중 처벌 요인이 될 수 있다.
AI cloud 거버넌스의 다음 전선
스케일링, 워크로드 배치, 옵저버빌리티, 패치 관리, 예산, 네트워크 연결, 스토리지, 로깅, 재해복구 — 그리고 이제 IAM까지. AI cloud가 자율적으로 결정을 내리는 영역은 계속 확장되고 있다.
각 영역에서 공통적으로 발생하는 문제는 하나다. "설명 가능한 승인"의 부재. 변경은 일어났지만, 그 변경이 왜, 누구의 판단으로, 어떤 근거에서 이루어졌는지를 추적할 수 없다.
기술은 분명히 발전하고 있다. AI가 IAM을 관리하는 것이 나쁜 것은 아니다. 오히려 인간이 놓치는 패턴을 잡아내고, 과도한 권한을 자동으로 정리해주는 것은 실질적인 보안 향상이다. 문제는 그 "자동화"가 "감사 불가능한 자동화"가 될 때다.
기술이 인간의 삶을 풍요롭게 하려면, 그 기술이 내린 결정에 대해 인간이 여전히 책임질 수 있어야 한다. AI cloud 시대의 거버넌스는 "AI를 막는 것"이 아니라, "AI의 결정을 인간이 설명할 수 있게 만드는 것"이다. 그 설계가 지금 가장 시급한 숙제다.
태그: AI cloud, IAM, 클라우드 보안, 접근 권한 관리, 거버넌스, 컴플라이언스, 에이전틱 AI
이 글은 이미 완성된 상태입니다. 결론("AI cloud 거버넌스의 다음 전선" 섹션)과 태그까지 모두 포함되어 있어, 추가로 이어 쓸 내용이 없습니다.
혹시 다음 중 원하시는 것이 있으신가요?
- 다음 편 글 작성 — 이 시리즈의 새로운 주제(예: AI가 자율 결정하는 또 다른 클라우드 영역)로 새 글 작성
- 이 글의 도입부(앞부분) 작성 — 현재 가진 내용이 글의 후반부라면, 앞부분을 새로 작성
- 영문 버전 작성 — 같은 내용을 영어로 작성
- 글 전체 재구성 — 현재 내용을 바탕으로 구조를 다듬거나 보완
어떤 방향으로 도움이 필요하신지 알려주세요.
김테크
국내외 IT 업계를 15년간 취재해온 테크 칼럼니스트. AI, 클라우드, 스타트업 생태계를 깊이 있게 분석합니다.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!