AI 도구, 이제 클라우드 "보안 정책"도 스스로 결정한다 — 그 판단은 당신이 승인했는가?
클라우드 환경에서 AI 도구가 자율적으로 내리는 결정의 범위가 조용히, 그러나 빠르게 확장되고 있다. 비용 최적화, 스케일링, 로깅, 패치, 네트워크 접근 제어, 재해 복구까지 — 이 시리즈에서 반복해서 짚어온 주제다. 그런데 이 모든 자율 결정의 공통 분모에는 하나의 더 근본적인 층위가 있다. 바로 보안 정책(Security Policy) 그 자체다.
AI 도구가 "누가 접속할 수 있는지"를 결정하는 것을 넘어, 이제는 "어떤 규칙으로 접속 여부를 판단할지"라는 정책의 내용 자체를 런타임에서 재작성하기 시작했다. 이것은 단순한 자동화의 문제가 아니다. 거버넌스 구조의 가장 깊은 층을 건드리는 변화다.
보안 정책은 원래 "사람이 서명하는 문서"였다
전통적인 클라우드 보안 거버넌스에서 정책(Policy)은 명확한 의미를 가진다. IAM(Identity and Access Management) 정책, 방화벽 규칙, 데이터 분류 기준, 암호화 요건 — 이것들은 모두 변경 전에 검토자가 있고, 승인자가 있고, 변경 티켓이 있고, 감사 로그에 "누가 언제 무엇을 왜 바꿨는지"가 기록된다.
SOC 2의 CC6(논리적 접근 제어), ISO 27001의 A.9(접근 통제), GDPR의 제25조(설계 단계의 데이터 보호) — 이 규제 프레임워크들이 공통으로 전제하는 것은 하나다. 정책 변경에는 인간의 의도적 판단과 그 근거의 기록이 수반된다는 것.
그 전제가 지금 조용히 무너지고 있다.
AI 도구가 정책을 "추론"하는 방식
현재 엔터프라이즈 클라우드 환경에서 널리 사용되는 AI 기반 보안 도구들 — AWS의 Amazon GuardDuty, Microsoft의 Defender for Cloud, Google Cloud의 Security Command Center, 그리고 Wiz, Orca Security 같은 서드파티 솔루션들 — 은 이미 단순한 탐지를 넘어 정책 권고와 자동 교정(Auto-Remediation) 기능을 내장하고 있다.
초기에는 이 기능들이 "권고(Recommendation)" 수준에 머물렀다. AI가 "이 IAM 역할은 과도한 권한을 가지고 있습니다"라고 알려주면, 사람이 검토하고 변경 여부를 결정하는 구조였다.
그러나 지금은 다르다. 많은 플랫폼이 자동 교정을 기본 설정으로 활성화하거나, 조직이 "효율성"을 이유로 이를 켜놓는 경우가 늘고 있다. AI가 이상 징후를 감지하면 — 예를 들어 특정 IP에서 비정상적인 API 호출 패턴이 포착되면 — 해당 접근 권한을 즉시 차단하거나, 정책 규칙을 동적으로 수정한다. 변경 티켓 없이. 명시적 승인 없이. 설명 가능한 근거 기록 없이.
Gartner의 2024년 클라우드 보안 보고서에 따르면, 기업의 60% 이상이 클라우드 환경에서 어떤 형태로든 자동화된 보안 교정 기능을 사용하고 있으며, 그 중 상당수가 변경 관리 프로세스와 통합되지 않은 상태로 운영되고 있는 것으로 보인다.
구체적으로 어떤 일이 일어나고 있나
실제 사례를 들어보자. 한 금융 서비스 기업의 클라우드 보안팀이 겪은 상황이다 (업계에서 공유된 익명 사례를 재구성한 것이다).
야간에 AI 보안 도구가 특정 서비스 계정의 API 호출 패턴에서 이상 징후를 포착했다. 도구는 자동 교정 정책에 따라 해당 계정의 권한을 즉시 축소했다. 문제는 그 계정이 새벽 배치 작업을 실행하는 핵심 서비스 계정이었다는 점이다. 결과적으로 배치 작업이 실패했고, 아침에 출근한 팀은 왜 데이터 파이프라인이 멈췄는지 원인을 파악하는 데 수 시간을 소비했다.
더 심각한 문제는 감사 추적이었다. 변경 로그에는 "자동 교정 정책에 의해 권한 수정됨"이라고만 기록되어 있었다. 누가 그 자동 교정 정책을 승인했는지, 그 정책의 임계값은 어떤 근거로 설정되었는지, 해당 판단이 맞았는지 틀렸는지 — 이 모든 것을 사후에 재구성하는 것이 사실상 불가능했다.
이것이 단순한 운영 실수가 아닌 거버넌스 구조의 문제인 이유다.
"정책을 정의하는 정책"이 사라진다
이 문제의 핵심을 좀 더 정밀하게 짚어보자.
기존 보안 거버넌스에는 두 개의 층위가 있다.
- 오브젝트 레벨 정책: "사용자 A는 버킷 B에 읽기 권한만 가진다"
- 메타 정책(정책을 정의하는 규칙): "정책 변경은 보안팀장의 승인이 필요하고, 변경 사유를 티켓에 기록해야 한다"
AI 자동 교정은 1번 층위를 건드린다. 그런데 진짜 문제는 AI가 1번을 자율적으로 변경하도록 허용하는 순간, 2번 층위가 사실상 우회된다는 것이다. 메타 정책이 형식적으로는 존재하지만, AI의 자율 실행 앞에서 실질적 효력을 잃는다.
규제 감사에서 감사자가 묻는 것은 항상 "이 변경은 누가 승인했습니까?"다. AI가 자율적으로 실행했다는 답변은 SOC 2나 ISO 27001 심사에서 수용되지 않는다. 그 AI의 행동을 승인한 사람이 누구인지, 그 승인의 근거가 무엇인지를 다시 거슬러 올라가야 한다. 그리고 대부분의 경우, 그 추적은 "어느 시점에 누군가가 자동 교정 토글을 켰다"는 희미한 기록에서 끊긴다.
AI 도구의 자율성이 만드는 책임의 공백
이 문제를 더 복잡하게 만드는 것은 AI 도구의 결정 근거가 불투명하다는 점이다.
전통적인 규칙 기반 자동화는 설명이 가능하다. "IP 192.168.1.1이 1분 내 100회 이상 API를 호출하면 차단한다"는 규칙은 누구나 읽고 이해할 수 있다. 그 규칙을 누가 언제 작성했는지도 추적 가능하다.
반면 AI 기반 이상 탐지 모델은 수백 개의 피처를 조합해 "이상 여부"를 판단한다. 모델이 왜 특정 패턴을 이상으로 판단했는지는 XAI(설명 가능한 AI) 기술을 사용하더라도 완전히 재현하기 어렵다. 더구나 모델 자체가 지속적으로 업데이트된다면, 오늘의 판단 기준이 어제와 다를 수 있다.
이것은 책임의 이중 공백을 만든다.
- 누가 결정했는가: AI가 자율적으로 결정 → 승인자 없음
- 왜 그렇게 결정했는가: 모델의 내부 추론 → 설명 불가
클라우드 보안 사고가 발생했을 때, 또는 규제 감사가 진행될 때, 이 두 가지 질문에 답할 수 없다면 조직은 심각한 법적·운영적 위험에 노출된다.
실무자를 위한 거버넌스 재설계 원칙
그렇다면 어떻게 해야 하는가. 자동화를 포기하라는 말이 아니다. AI 도구의 자율성과 인간의 감독 책임을 어떻게 구조적으로 통합할 것인지의 문제다.
1. 자동 교정의 "영향 반경"에 따른 승인 계층화
모든 자동 교정이 동일한 위험을 갖는 것은 아니다. 실무적으로 적용 가능한 분류 기준은 다음과 같다.
- 즉시 자동 실행 허용: 영향 범위가 단일 리소스이고, 롤백이 즉시 가능하며, 비즈니스 크리티컬 워크로드와 무관한 경우
- 사람 승인 후 실행: 여러 리소스에 걸친 정책 변경, 서비스 계정 권한 수정, 프로덕션 환경 영향
- 즉시 실행 금지, 알림만 허용: 핵심 데이터 접근 정책, 규제 준수 관련 설정
이 분류 자체가 변경 관리 문서로 기록되어야 하며, 정기적으로 검토되어야 한다.
2. AI 결정의 "의도 로그" 강제화
AI 도구가 어떤 자율 결정을 내릴 때마다, 그 결정의 트리거 조건, 적용된 정책 버전, 영향받은 리소스 목록, 그리고 가능하다면 모델의 신뢰도 점수를 별도의 감사 가능한 로그로 남겨야 한다. 이것은 단순한 변경 로그가 아니라, "AI가 이 시점에 이 근거로 이 결정을 내렸다"는 의도 추적(Intent Tracing) 레이어다.
AWS CloudTrail, Azure Activity Log, GCP Audit Logs만으로는 부족하다. AI 도구 자체의 의사결정 맥락을 캡처하는 별도 로깅 파이프라인이 필요하다.
3. 메타 정책의 명시적 소유자 지정
"자동 교정을 활성화한다"는 결정 자체를 변경 관리 프로세스의 대상으로 만들어야 한다. 자동 교정 정책의 소유자(Owner), 최초 승인자, 검토 주기, 그리고 해당 정책이 커버하는 범위를 문서화하고, 이를 SOC 2 또는 ISO 27001 증거 자료로 관리해야 한다.
이것이 형식적인 작업처럼 보일 수 있지만, 감사 시 "누가 AI의 자율 결정을 승인했는가"라는 질문에 대한 유일하게 방어 가능한 답변은 여기서 나온다.
4. 정기적인 "AI 결정 리뷰" 세션 도입
AI가 지난 30일간 자율적으로 내린 보안 정책 변경을 인간 팀이 샘플링하여 검토하는 정기 세션을 운영해야 한다. 이것은 AI의 판단이 조직의 보안 의도와 일치하는지 확인하는 동시에, 모델 드리프트(Model Drift)나 오탐(False Positive) 패턴을 조기에 포착하는 기회가 된다.
기술의 자율성이 커질수록, 거버넌스의 설계가 더 정밀해져야 한다
AI 도구가 클라우드 보안 정책을 자율적으로 결정하는 것은 이미 현실이다. 이것을 막을 수도 없고, 막아야 하는 것도 아니다. AI의 속도와 패턴 인식 능력은 인간이 따라갈 수 없는 영역에서 실질적인 보안 가치를 제공한다.
그러나 기술은 단순히 기계가 아니라, 인간의 삶을 풍요롭게 하는 도구다. 그리고 도구가 스스로 규칙을 바꾸기 시작할 때, 우리가 잃는 것은 단순한 통제권이 아니다. 책임의 소재, 판단의 근거, 그리고 신뢰의 기반이 함께 사라진다.
규제 기관은 아직 이 변화를 따라잡지 못하고 있다. SOC 2, ISO 27001, GDPR 모두 "인간이 정책을 결정한다"는 전제 위에 설계된 프레임워크다. AI가 그 전제를 무너뜨리는 속도가 규제의 업데이트 속도보다 훨씬 빠르다.
그 간극 속에서 조직이 할 수 있는 것은, 기술이 만드는 자율성의 공간에 거버넌스의 구조를 선제적으로 채워넣는 것이다. 자동화를 켜기 전에 먼저 물어야 한다 — 이 결정이 잘못되었을 때, 나는 그것을 설명할 수 있는가?
그 질문에 답할 수 없다면, 아직 토글을 켤 준비가 되지 않은 것이다.
AI 클라우드 거버넌스의 다른 층위가 궁금하다면, LG전자가 포트폴리오 전략으로 시장 변화에 대응하는 방식도 흥미로운 비교 사례가 될 수 있다 — 기술 기업이 자율화와 인간 판단을 어떻게 균형 잡는지의 관점에서.
태그: AI 도구, 클라우드 보안, 보안 정책 자동화, AI 거버넌스, 클라우드 컴플라이언스, 자동 교정, SOC 2, ISO 27001
위의 내용을 살펴보니, 이미 글이 완전히 마무리된 상태입니다. 결론부("기술의 자율성이 커질수록, 거버넌스의 설계가 더 정밀해져야 한다")와 태그까지 포함되어 있어, 추가로 이어 쓸 내용이 없습니다.
혹시 다음 중 하나를 원하시는 건 아닌가요?
- 새로운 글 작성 — 이 시리즈의 다음 편 (예: AI가 클라우드 "비용 배분"을 결정하는 거버넌스 문제 등)
- 이 글의 앞부분 작성 — 현재 가지고 계신 내용이 글의 후반부라면, 서론과 본론 앞부분을 채워드릴 수 있습니다
- 이 글의 특정 섹션 보강 — 예를 들어 실제 사례, 데이터, 특정 규제 분석 등을 추가하고 싶으시다면 말씀해 주세요
어떤 방향으로 도움이 필요하신지 알려주시면 바로 작업하겠습니다.
김테크
국내외 IT 업계를 15년간 취재해온 테크 칼럼니스트. AI, 클라우드, 스타트업 생태계를 깊이 있게 분석합니다.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!