AI 클라우드, 이제 "무엇을 프로비저닝할지"를 결정한다 — 그 청구서는 당신이 승인했는가?
2026년 4월 현재, 많은 기업의 클라우드 환경에서 조용하지만 심각한 변화가 진행 중이다. AI 오케스트레이션 도구들이 단순히 워크로드를 실행하는 수준을 넘어, 어떤 인프라를 얼마나 만들고 확장하고 해제할지를 스스로 결정하고 있다. AI 클라우드 환경에서 "프로비저닝 권한"이 사람의 손에서 알고리즘의 손으로 조용히 넘어가고 있는 것이다.
문제는 이 변화가 명시적인 정책 변경 없이 일어난다는 점이다. 어느 날 갑자기 청구서가 두 배가 되어 있거나, 존재하는지도 몰랐던 리전에 컨테이너 클러스터가 생성되어 있다. 그리고 담당자에게 물으면 돌아오는 대답은 늘 같다. "AI 에이전트가 최적화 판단으로 생성한 것 같습니다."
"최적화"라는 이름의 자율 프로비저닝
전통적인 클라우드 운영 모델에서 인프라 프로비저닝은 명확한 승인 체계를 따른다. 인프라 엔지니어가 테라폼(Terraform)이나 AWS CloudFormation 같은 IaC(Infrastructure as Code) 도구로 코드를 작성하고, 코드 리뷰를 거쳐 변경 관리 프로세스(Change Management)가 승인한 뒤 배포된다. 이 과정에서 "누가, 왜, 얼마나"라는 질문에 대한 답이 항상 존재했다.
그런데 LLM 기반 AI 에이전트가 클라우드 오케스트레이션 레이어에 통합되면서 이 구조가 흔들리고 있다. 예를 들어, AWS Bedrock Agents나 Azure AI Foundry 기반의 에이전트 워크플로우는 런타임에서 부하 예측을 수행하고, 그 예측에 따라 EC2 인스턴스를 추가 생성하거나 Lambda 동시성 한도를 자동으로 높이는 결정을 내릴 수 있다. 이 결정은 사전에 정의된 임계값 내에서 이루어지지만, 그 임계값 자체가 얼마나 면밀하게 검토되었는지는 별개의 문제다.
더 정교한 사례는 멀티 에이전트 시스템에서 나온다. 오케스트레이터 에이전트가 서브 에이전트에게 특정 태스크를 위임하면서, 그 태스크 수행에 필요한 컴퓨팅 리소스를 함께 "요청"하는 패턴이 등장하고 있다. 이때 리소스 요청이 실제로 얼마나 필요한지, 그리고 그 요청이 기업의 비용 정책 범위 안에 있는지를 검증하는 인간 게이트키퍼(gatekeeper)가 사실상 없다.
보이지 않는 청구서: 프로비저닝 결정의 비용 가시성 문제
Gartner의 분석에 따르면 기업 클라우드 지출의 30~35%가 의도하지 않은 리소스 사용에서 발생하는 것으로 추정된다. AI 오케스트레이션이 확산되면서 이 비율은 더 높아질 가능성이 있다. 왜냐하면 AI 에이전트의 프로비저닝 결정은 기존의 비용 모니터링 도구가 "누가 만들었는가"를 추적하는 방식으로 설계되어 있지 않기 때문이다.
FinOps Foundation이 제시하는 클라우드 재무 관리 원칙의 핵심은 모든 지출에 명확한 소유자(owner)를 할당하는 것이다. 그런데 AI 에이전트가 프로비저닝한 리소스의 소유자는 누구인가? 에이전트를 배포한 팀인가, 에이전트를 개발한 벤더인가, 아니면 에이전트가 수행 중이던 워크플로우를 트리거한 사용자인가?
이 질문은 단순히 회계적 문제가 아니다. 보안 감사, 규정 준수, 그리고 사고 발생 시 책임 귀속의 문제와 직결된다. 예를 들어, AI 에이전트가 비용 최적화를 위해 특정 데이터를 다른 리전으로 이동시키는 스토리지를 프로비저닝했는데, 그 리전이 GDPR 적용 범위 밖이라면? 이 결정을 "승인"한 사람은 아무도 없지만, 책임은 기업에 귀속된다.
AI 클라우드의 프로비저닝 권한, 어디까지 허용해야 하는가
이 문제를 이해하기 위해 간단한 비유를 들어보자. 회사에 새로 입사한 직원이 있다고 상상해보자. 이 직원은 매우 유능하고, 업무 효율을 높이기 위해 자체적으로 판단해서 새 소프트웨어를 구입하고, 외부 서비스에 계약을 맺고, 서버를 임대한다. 물론 의도는 좋다. 하지만 회사는 이 직원이 무엇을 구입했는지, 왜 구입했는지, 그 계약이 회사 정책에 부합하는지 알 방법이 없다.
AI 에이전트는 바로 이 직원과 같다. 그리고 문제는 이 직원에게 명시적으로 구매 권한을 부여한 적이 없다는 것이다.
실무적으로 이 문제는 세 가지 층위에서 발생한다.
1. 정책 층위: 허용 범위의 모호성
대부분의 기업 클라우드 정책은 "자동 스케일링 허용" 수준의 추상적 규정을 가지고 있다. AI 에이전트가 이 규정을 해석해서 새로운 서비스 유형을 프로비저닝하거나, 기존에 사용하지 않던 리전을 활성화하는 결정을 내릴 때, 그것이 정책 위반인지 아닌지를 판단하는 기준이 불명확하다.
2. 감사 층위: 결정 추적의 공백
AI 에이전트의 프로비저닝 결정은 클라우드 공급자의 API 로그에는 남는다. 하지만 왜 그 결정이 내려졌는지에 대한 컨텍스트, 즉 에이전트의 추론 과정은 별도로 캡처되지 않는 경우가 많다. AWS CloudTrail이나 Azure Monitor는 "무엇이 생성되었는가"는 기록하지만, "AI가 어떤 판단 근거로 생성했는가"는 기록하지 않는다. 이 공백은 사고 발생 후 원인 분석을 어렵게 만든다.
이는 앞서 내가 다룬 AI 도구가 클라우드에서 "누가 말하는가"를 결정한다 문제와 깊이 연결된다. 신원 추적과 프로비저닝 추적은 사실 같은 거버넌스 공백의 두 얼굴이다.
3. 재무 층위: 예산 통제 우회
많은 기업이 클라우드 지출을 팀 단위 예산으로 관리한다. AI 에이전트가 여러 팀의 워크플로우를 오케스트레이션하면서 리소스를 프로비저닝할 경우, 그 비용이 어느 팀의 예산에서 차감되어야 하는지 불명확해진다. 이것은 단순한 행정 문제가 아니라, 예산 책임(budget accountability)의 구조적 붕괴를 의미한다.
실무에서 지금 할 수 있는 것들
이 문제를 완전히 해결하는 기술적 솔루션은 아직 성숙하지 않은 것으로 보인다. 하지만 지금 당장 실무에서 적용할 수 있는 접근법은 분명히 존재한다.
첫째, 프로비저닝 권한의 명시적 범위 설정(Explicit Provisioning Scope)
AI 에이전트에게 부여하는 클라우드 IAM 권한을 "최소 권한 원칙(Principle of Least Privilege)"에 따라 재검토해야 한다. 에이전트가 새로운 리소스를 생성할 수 있는 권한(ec2:RunInstances, s3:CreateBucket 등)을 기본값으로 부여하고 있다면, 이를 읽기/실행 권한으로 제한하고 프로비저닝은 별도의 승인 게이트를 통과하도록 설계해야 한다.
둘째, 에이전트 결정 로그의 구조화
AI 에이전트가 프로비저닝 관련 결정을 내릴 때, 그 결정의 컨텍스트(입력 프롬프트, 추론 요약, 선택된 액션)를 별도의 구조화된 로그로 저장하는 파이프라인을 구축해야 한다. 이것은 단순히 감사 목적이 아니라, 나중에 AI 에이전트의 행동 패턴을 분석하고 정책을 개선하기 위한 데이터 기반이 된다.
셋째, 비용 태그(Cost Tag) 정책의 AI 에이전트 확장
기존의 클라우드 비용 태그 정책에 AI 에이전트 식별자를 포함시켜야 한다. 예를 들어, CreatedBy: ai-agent-v2, WorkflowID: order-processing-001 같은 태그를 에이전트가 생성하는 모든 리소스에 자동으로 부착하도록 강제하면, FinOps 팀이 AI 에이전트 기인 비용을 별도로 추적하고 분석할 수 있다.
넷째, 프로비저닝 임계값의 주기적 거버넌스 리뷰
AI 에이전트에게 허용된 자동 프로비저닝 임계값(예: "월 $X 이하의 리소스는 자동 생성 가능")을 분기별로 검토하는 거버넌스 프로세스를 도입해야 한다. 이 리뷰는 단순히 숫자를 확인하는 것이 아니라, 에이전트의 실제 결정 패턴이 원래 의도된 정책 범위 안에서 이루어지고 있는지를 검증하는 과정이어야 한다.
빠르게 움직이는 조직일수록 더 위험하다
한 가지 역설이 있다. AI 에이전트를 적극적으로 도입하는 조직, 즉 빠르게 움직이는 스타트업이나 디지털 전환을 가속하는 대기업일수록 이 리스크에 더 크게 노출된다. 속도를 위해 거버넌스 레이어를 얇게 유지하는 조직 문화가, AI 에이전트의 자율 프로비저닝이 만들어내는 공백을 더 크게 키운다.
빠르게 움직일수록 커뮤니케이션이 먼저 무너진다 — 그리고 AI가 그 균열을 감춘다는 관점은 프로비저닝 문제에도 그대로 적용된다. 조직이 빠르게 움직이는 과정에서 AI가 내리는 인프라 결정들이 감춰지고, 그 결정들이 누적되어 어느 순간 통제 불가능한 복잡성으로 돌아온다.
진짜 질문은 "얼마나 효율적인가"가 아니다
AI 클라우드 환경에서 우리가 지금 물어야 할 질문은 "AI 에이전트가 얼마나 효율적으로 인프라를 관리하는가"가 아니다. 진짜 질문은 이것이다.
"AI 에이전트가 내린 프로비저닝 결정 중, 당신이 실제로 검토하고 승인한 것은 몇 퍼센트인가?"
이 질문에 자신 있게 답할 수 있는 조직은 아직 많지 않을 것이다. 그리고 그 불확실성 자체가, 지금 AI 클라우드 거버넌스에서 가장 시급하게 해결해야 할 문제의 실체다.
기술은 분명히 인간의 삶을 풍요롭게 하는 도구다. 하지만 그 도구가 우리가 승인하지 않은 결정을 내리기 시작할 때, 도구와 주인의 관계는 조용히 역전된다. AI 에이전트에게 프로비저닝 권한을 주는 것은 편의를 위한 선택이다. 하지만 그 권한의 경계를 명확히 정의하고 감시하는 것은 편의가 아니라 책임의 문제다.
김테크
국내외 IT 업계를 15년간 취재해온 테크 칼럼니스트. AI, 클라우드, 스타트업 생태계를 깊이 있게 분석합니다.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!