AI 클라우드, 이제 "얼마를 쓸지"를 결정한다 — 그 지출 판단은 당신이 승인했는가?
예약 인스턴스가 어느 날 아침 조용히 취소되어 있었다. 담당자는 몰랐다. 변경 티켓도 없었고, 승인자 이름도 없었다. AI 클라우드 비용 최적화 도구가 "더 효율적인 옵션"이라고 판단해 자율적으로 실행한 결과였다. 문제는 그 결정이 틀렸느냐가 아니다. 아무도 그 결정을 승인하지 않았다는 것이다.
클라우드 FinOps(재무운영) 영역에서 AI 클라우드 자동화가 급속히 확산되면서, 지금 기업들의 클라우드 지출 거버넌스에 조용하지만 심각한 균열이 생기고 있다.
왜 지금 이 문제가 터지고 있는가
클라우드 비용 관리는 오랫동안 인간의 판단이 개입하는 영역이었다. 어느 리전에 리소스를 배치할지, 예약 인스턴스(RI)를 살지 스팟 인스턴스로 전환할지, 어느 워크로드를 다운사이징할지 — 이 모든 결정에는 구매 주문서(PO), 승인자 서명, 그리고 감사 가능한 근거가 따라붙었다.
그런데 2024년을 기점으로 AWS Cost Optimizer, Google Cloud의 Active Assist, Azure Advisor 같은 도구들이 단순 "권고"를 넘어 자율 실행(autonomous action) 으로 진화하고 있다. 여기에 Anodot, Apptio Cloudability, Spot by NetApp 같은 서드파티 AI 기반 FinOps 플랫폼들도 머신러닝 기반의 자율 비용 최적화 기능을 경쟁적으로 내놓고 있다.
Gartner는 2025년까지 클라우드 지출의 30% 이상이 어떤 형태로든 AI 기반 자동화 레이어의 영향을 받을 것이라 전망한 바 있다. 문제는 이 "영향"이 점점 "결정"으로 바뀌고 있다는 점이다.
AI가 내리는 지출 결정, 구체적으로 무슨 일이 벌어지나
예약 인스턴스 자동 취소·전환
AI 비용 최적화 도구는 사용률 패턴을 분석해 "이 예약 인스턴스는 활용도가 낮으니 온디맨드로 전환하거나 취소하라"는 판단을 내린다. 일부 플랫폼은 이 권고를 자동 실행까지 연결한다. 예약 인스턴스는 1~3년 약정 상품이다. 취소에는 위약금이 따를 수 있고, 반대로 잘못된 타이밍의 구매는 수십만 달러의 낭비로 이어진다. 그런데 이 결정이 구매 주문서 없이, 재무팀 승인 없이, 감사 로그에 "AI 자동 실행"이라는 한 줄만 남긴 채 처리된다.
가격 티어 자동 전환
스토리지 클래스 변경(예: S3 Standard → Glacier), 컴퓨팅 패밀리 변경, 데이터베이스 인스턴스 타입 전환 — 이런 결정들이 AI 오케스트레이션 레이어에서 런타임에 이루어진다. 성능 SLA에 영향을 줄 수 있는 변경임에도 불구하고, 전통적인 변경 관리(Change Management) 프로세스를 우회한다.
멀티클라우드 워크로드 자동 이동
일부 고도화된 FinOps AI 도구는 AWS와 GCP, Azure 사이에서 워크로드 배치를 실시간으로 최적화한다. 이 과정에서 데이터 레지던시 규정, 계약상 클라우드 약정(commit), 보안 정책이 충돌할 수 있지만, AI는 단기 비용 최적화 목표만 보고 결정을 내린다.
"AI가 결정했다"는 감사 기록은 감사 기록이 아니다
이 시리즈에서 반복적으로 강조해온 핵심 문제가 여기서도 그대로 나타난다. AI 클라우드가 IAM 권한을 자율 결정하는 문제나 재해복구 판단을 AI가 내리는 문제와 마찬가지로, 비용 지출 거버넌스에서도 동일한 구조적 공백이 발생한다.
SOC 2, ISO 27001, 그리고 상장사라면 내부회계관리제도(K-SOX)나 미국의 SOX 컴플라이언스는 모두 하나의 전제를 공유한다: "중요한 지출 결정에는 사람의 승인이 있어야 한다."
감사인이 "이 예약 인스턴스 취소는 누가 승인했습니까?"라고 물었을 때, "AI 최적화 도구가 자동으로 실행했습니다"는 답변은 컴플라이언스 관점에서 사실상 "아무도 승인하지 않았습니다"와 동의어다.
더 심각한 문제는 감사 가능한 근거(auditable rationale)의 부재다. AI 모델이 특정 시점에 특정 비용 결정을 내린 이유는 수백 개의 피처와 가중치의 조합이다. "왜 그 결정을 내렸는가"를 사후에 재현하고 설명하는 것은 현재 대부분의 도구에서 불가능하거나 극히 제한적이다.
실무에서 마주치는 세 가지 시나리오
시나리오 1: 클라우드 약정 위반 기업이 특정 클라우드 벤더와 연간 $500만 소비 약정(commit)을 맺었다고 가정하자. AI FinOps 도구가 단기 최적화를 위해 해당 벤더의 워크로드를 다른 클라우드로 이동시키면, 약정 미달로 인한 페널티가 발생할 수 있다. AI는 약정 조건을 모를 수도 있고, 알더라도 단기 비용 신호가 더 강하게 작동할 수 있다.
시나리오 2: 예산 사이클 교란 분기 말 AI 도구가 대규모 RI 구매를 자율 실행하면, 재무팀의 분기 예산 마감과 충돌한다. 이 구매는 어느 부서의 비용 센터에 귀속되는가? 누가 이 지출을 승인했는가? 재무팀은 이 지출을 사전에 알고 있었는가?
시나리오 3: 규제 산업의 데이터 이동 금융, 의료, 공공 분야에서는 데이터가 어느 리전, 어느 클라우드에 저장되는지가 규제 사항이다. AI 비용 최적화가 스토리지를 더 저렴한 리전으로 자동 이동시키면, 데이터 레지던시 규정 위반이 발생할 수 있다. 비용은 줄었지만 규제 리스크는 급등한다.
AI 클라우드 비용 거버넌스, 어디서부터 다시 세워야 하는가
1. "자율 실행"과 "자율 권고"를 명확히 분리하라
현재 많은 FinOps 도구가 권고(recommendation)와 자동 실행(auto-remediation)을 하나의 워크플로로 묶어 제공한다. 이 두 가지는 반드시 분리되어야 한다. 특히 금액 임계값(예: $10,000 이상의 지출 결정)을 기준으로 자동 실행을 차단하고 인간 승인을 의무화하는 정책이 필요하다.
2. AI 결정에도 변경 티켓을 발행하라
AI가 비용 관련 액션을 실행할 때 ServiceNow, Jira, 혹은 내부 ITSM 시스템에 자동으로 변경 티켓이 생성되도록 파이프라인을 설계해야 한다. 티켓에는 최소한 다음이 포함되어야 한다: 실행된 액션의 내용, AI가 제시한 근거(설령 단순화된 형태라도), 영향받는 리소스 목록, 예상 비용 절감액과 잠재적 리스크.
3. FinOps AI 도구의 접근 권한을 최소화하라
AI 비용 최적화 도구에 부여된 IAM 권한을 감사하라. 많은 경우 도구 설치 시 과도한 권한이 부여된다. "읽기 + 권고"와 "쓰기 + 실행"을 분리하고, 실행 권한은 별도의 승인 워크플로를 통해서만 활성화되도록 설계해야 한다.
4. 감사 가능한 의사결정 기록을 요구하라
벤더 선정 시 "왜 이 결정을 내렸는가"를 사후에 재현할 수 있는 설명 가능성(explainability) 기능을 계약 조건에 포함시켜라. 단순히 "AI가 최적화했다"는 로그는 감사 목적으로 충분하지 않다. 결정 시점의 인풋 데이터, 적용된 규칙, 대안 검토 여부가 기록되어야 한다.
5. 재무팀과 클라우드팀의 거버넌스 경계를 재정의하라
전통적으로 클라우드 인프라 결정은 엔지니어링 조직이, 예산 승인은 재무팀이 담당했다. AI FinOps 도구는 이 경계를 허물고 있다. 두 조직이 공동으로 AI 자동화 정책을 수립하고, AI가 내린 지출 결정을 정기적으로 리뷰하는 거버넌스 위원회가 필요하다.
효율성과 통제 가능성 사이의 균형
AI 클라우드 비용 최적화 도구가 가져다주는 가치는 부정할 수 없다. 클라우드 낭비(cloud waste)는 전 세계적으로 연간 수천억 달러 규모로 추정되며, AI 기반 최적화는 이 문제를 실질적으로 줄이는 데 기여하고 있다. Flexera의 2024 State of the Cloud Report에 따르면 기업들은 평균적으로 클라우드 지출의 28%를 낭비하고 있다고 응답했다.
문제는 효율성 자체가 아니라, 효율성 추구 과정에서 통제 가능성(controllability)과 설명 가능성(explainability)이 희생되고 있다는 점이다. 비용을 10% 줄이고 컴플라이언스 리스크를 100% 높이는 최적화는 최적화가 아니다.
기술은 단순히 기계가 아니라, 인간의 삶을 풍요롭게 하는 도구다. 그 도구가 우리가 설정한 경계 안에서 작동하도록 만드는 것 — 그것이 지금 AI 클라우드 시대에 엔지니어와 경영자 모두가 마주한 진짜 과제다.
AI가 "얼마를 쓸지"를 결정하는 시대, 우리는 그 결정을 위임했는가, 아니면 그냥 빼앗겼는가. 그 질문에 아직 명확한 답이 없다면, 지금 당장 자사의 FinOps 자동화 설정을 열어보는 것이 첫 번째 할 일이다.
태그: AI 클라우드, FinOps, 클라우드 비용 관리, 거버넌스, 컴플라이언스, 에이전틱 AI, 클라우드 자동화
아래는 이전 글에 이어지는 새로운 글입니다. 시리즈의 연속성을 유지하면서도 새로운 주제(클라우드 모니터링/옵저버빌리티 거버넌스)를 다룹니다.
AI Tools Are Now Deciding How Your Cloud Monitors — And Nobody Approved That
에이전틱 AI가 "무엇을 관찰할지"를 스스로 결정하는 시대, 감사의 전제가 무너지고 있다
클라우드 거버넌스에서 오랫동안 암묵적으로 유지되어온 가정이 하나 있다.
"어딘가에는 반드시 로그가 존재한다."
감사(audit)의 모든 논리는 이 전제 위에 세워져 있다. 무슨 일이 일어났는지 모르더라도, 로그를 뒤지면 결국 진실이 나온다. 보안 사고 조사도, 컴플라이언스 검증도, 분쟁 해결도 — 모두 이 믿음을 기반으로 작동한다.
그런데 지금, 이 전제가 조용히 무너지고 있다.
에이전틱 AI 옵저버빌리티 도구들이 런타임에서 "무엇을 기록하고, 무엇을 버릴지"를 스스로 결정하기 시작했기 때문이다. 누군가 승인한 것이 아니다. 변경 티켓이 생성된 것도 아니다. AI가 "이 메트릭은 중요하지 않다"고 판단하는 순간, 그 데이터는 그냥 사라진다.
그리고 사라진 데이터는 — 사라졌다는 사실조차 기록되지 않는 경우가 많다.
옵저버빌리티, 그것이 무엇인지부터
혹시 "옵저버빌리티(observability)"라는 단어가 낯설다면, 이렇게 생각하면 된다. 클라우드 시스템이 얼마나 잘 "들여다보이는가"를 뜻한다. 메트릭(숫자 데이터), 로그(이벤트 기록), 트레이스(요청 흐름 추적) — 이 세 가지를 통해 엔지니어는 시스템이 지금 어떤 상태인지, 무슨 일이 벌어졌는지를 파악한다.
전통적인 모니터링 환경에서는 "무엇을 수집할지"가 사전에 설정된다. 팀이 회의를 통해 중요한 메트릭을 정의하고, 샘플링 비율을 결정하고, 로그 보존 정책을 문서화한다. 이 과정에는 승인이 따르고, 변경이 생기면 변경 관리 프로세스를 거친다.
그런데 AI 기반 옵저버빌리티 플랫폼들은 이 패러다임을 근본적으로 바꾸고 있다.
AI는 지금 무엇을 결정하고 있는가
현재 시장에서 널리 사용되는 AI 옵저버빌리티 도구들 — Dynatrace, Datadog의 AI 기능, New Relic의 지능형 샘플링, Honeycomb의 BubbleUp 등 — 은 점점 더 자율적인 판단을 내리고 있다. 구체적으로는 다음과 같은 결정들이다.
동적 샘플링(Dynamic Sampling): 트래픽이 급증할 때 AI가 자동으로 샘플링 비율을 낮춘다. 예를 들어 평소 100%를 기록하던 API 호출 로그를 트래픽 폭증 시 10%만 기록하도록 런타임에서 조정한다. 비용 절감과 성능 유지를 위한 합리적인 결정처럼 보인다. 그런데 그 90%에 보안 이상 징후가 포함되어 있었다면?
지능형 집계(Intelligent Aggregation): 개별 이벤트를 저장하는 대신 AI가 "이 패턴들은 동일하다"고 판단해 집계 데이터로 압축한다. 저장 비용이 줄어드는 대신, 개별 이벤트 수준의 재현이 불가능해진다.
자동 알림 억제(Alert Suppression): AI가 "이 알림은 노이즈다"라고 판단해 자동으로 억제한다. 온콜 엔지니어의 피로도를 줄이는 데 효과적이다. 그러나 억제된 알림 중 하나가 실제 침해 시도의 신호였다면, 그 판단은 누가 책임지는가?
데이터 보존 기간 자동 조정(Retention Optimization): 비용 최적화를 위해 AI가 "이 로그 유형은 30일이면 충분하다"고 판단해 보존 기간을 단축한다. 그런데 해당 로그가 규제상 90일 보존이 요구되는 데이터였다면?
감사의 전제가 무너지는 순간
여기서 핵심 문제가 드러난다.
컴플라이언스 프레임워크 — SOC 2, ISO 27001, PCI-DSS, 국내 정보보호 관리체계(ISMS-P) — 는 모두 하나의 공통된 가정 위에 서 있다. "감사에 필요한 증거는 어딘가에 완전한 형태로 존재한다."
그런데 AI가 런타임에서 샘플링 비율을 낮추고, 로그를 집계하고, 알림을 억제하고, 보존 기간을 단축한다면 — 그 가정은 더 이상 성립하지 않는다.
보안 사고가 발생했다고 가정해보자. 조사팀이 로그를 요청한다. 그런데 해당 시간대의 로그는 AI가 트래픽 폭증을 감지해 샘플링을 10%로 낮춘 구간이었다. 나머지 90%는 존재하지 않는다. 조사팀은 불완전한 증거로 조각 맞추기를 해야 한다.
더 심각한 것은, 이 샘플링 결정 자체가 어떤 변경 티켓에도 기록되지 않았다는 점이다. "AI가 자동으로 조정했다"는 사실은 알 수 있어도, 왜 그 시점에, 어떤 기준으로, 어떤 대안을 검토한 후에 그 결정을 내렸는지는 재현할 수 없다.
감사관이 묻는다: "이 로그는 왜 없습니까?" 담당자가 답한다: "AI가 버렸습니다." 감사관이 다시 묻는다: "누가 그것을 승인했습니까?"
이 질문에 답할 수 없는 순간, 거버넌스는 이미 붕괴된 것이다.
실제로 이런 일이 일어나고 있는가
아직 국내외에서 "AI 옵저버빌리티 도구의 자율 결정으로 인한 컴플라이언스 위반"이 공식적으로 보고된 사례는 드물다. 이유는 두 가지다. 첫째, 이런 사고는 대부분 조용히 처리된다. 둘째, 그리고 더 불편한 진실은 — 로그가 없으면 사고가 있었다는 것 자체를 모를 수 있다는 점이다.
그러나 업계 내부에서는 이미 경고음이 울리고 있다.
Gartner의 2025년 클라우드 보안 예측은 AI 기반 자동화가 확대되면서 "설명 불가능한 보안 결정(unexplainable security decisions)"이 컴플라이언스의 새로운 위협 요소로 부상할 것이라고 지적했다. CNCF(Cloud Native Computing Foundation)의 옵저버빌리티 워킹그룹도 2025년 초 AI 기반 샘플링 결정의 감사 가능성 문제를 공식 의제로 채택했다.
국내 상황도 다르지 않다. 개인정보보호위원회의 개인정보 처리방침 고시는 개인정보가 포함된 로그 데이터의 처리와 보존에 대해 명확한 기록 의무를 부과하고 있다. AI가 자율적으로 이 로그를 집계하거나 삭제한다면, 이는 단순한 거버넌스 문제를 넘어 법적 의무 위반으로 이어질 수 있다.
왜 이 문제가 더 복잡한가
앞선 시리즈에서 다룬 주제들 — 배포 자동화, IAM 권한 관리, 패치 적용, 재해복구, 로그 관리, 비용 최적화 — 과 비교할 때, 옵저버빌리티 거버넌스 문제에는 독특한 어려움이 있다.
다른 영역의 문제는 "잘못된 결정"이 남긴 흔적을 찾아낼 수 있다. 잘못 배포된 컨테이너는 여전히 실행 중이다. 잘못 부여된 권한은 IAM 정책에 남아 있다. 잘못 적용된 패치는 시스템 버전 기록에 남는다.
그런데 옵저버빌리티 문제는 "없는 것"이 문제다. 버려진 로그, 억제된 알림, 집계로 사라진 개별 이벤트 — 이것들은 존재하지 않기 때문에, 문제가 있다는 것 자체를 감지하기 어렵다. 부재의 증거(evidence of absence)를 찾는 것은, 증거의 부재(absence of evidence)와 구별하기가 극히 어렵다.
비유하자면 이렇다. 경비원이 순찰 기록을 남기지 않았을 때, 우리는 두 가지 가능성 중 하나를 선택해야 한다. 아무 일도 없어서 기록하지 않은 것인가, 아니면 무언가가 있었는데 기록되지 않은 것인가. AI가 로그를 버렸을 때 우리는 정확히 이 딜레마에 놓인다.
거버넌스를 되찾기 위한 실천 방안
그렇다면 어떻게 해야 하는가. 완벽한 해법은 없지만, 지금 당장 실행 가능한 접근법은 있다.
1. AI 샘플링 결정을 별도의 메타 로그로 기록하라
AI가 샘플링 비율을 조정하거나 데이터를 집계할 때, 그 결정 자체는 반드시 별도의 변경 불가능한(immutable) 메타 로그에 기록되어야 한다. "언제, 어떤 데이터 스트림에 대해, 어떤 비율로, 어떤 트리거 조건에 의해 샘플링이 변경되었는가"가 추적 가능해야 한다. 이 메타 로그만큼은 AI가 수정하거나 삭제할 수 없도록 권한을 분리해야 한다.
2. 컴플라이언스 크리티컬 데이터 스트림은 AI 자동화 범위에서 제외하라
모든 로그가 동일하지 않다. 보안 이벤트 로그, 접근 제어 로그, 개인정보 처리 관련 로그 — 이처럼 규제 요건이 명시된 데이터 스트림은 AI의 자율 샘플링 및 집계 대상에서 명시적으로 제외해야 한다. "AI가 최적화할 수 있는 영역"과 "반드시 완전한 형태로 보존되어야 하는 영역"을 정책으로 분리하는 것이 출발점이다.
3. 알림 억제 결정에 사람의 검토 루프를 삽입하라
AI가 알림을 억제할 때는 즉시 실행하되, 일정 시간(예: 24시간) 내에 담당자가 해당 억제 결정을 검토하고 승인 또는 취소할 수 있는 워크플로를 설계하라. 억제된 알림의 목록은 정기적으로 보안팀과 공유되어야 하며, 억제 비율이 임계값을 초과하면 자동으로 에스컬레이션되어야 한다.
4. 벤더에게 "설명 가능한 샘플링" 기능을 요구하라
옵저버빌리티 도구 계약 시, AI가 내린 샘플링 및 집계 결정의 근거를 사후에 조회할 수 있는 API 또는 인터페이스를 제공할 것을 계약 조건에 포함시켜라. "AI가 최적화했다"는 블랙박스 답변은 감사 목적으로 수용될 수 없다. 결정 시점의 시스템 상태, 적용된 정책, 대안 검토 여부가 조회 가능해야 한다.
5. 옵저버빌리티 정책을 정기적으로 감사하라
분기별로 현재 적용 중인 AI 샘플링 정책, 알림 억제 규칙, 데이터 보존 설정을 검토하는 내부 감사 프로세스를 수립하라. 이 감사의 결과물은 문서화되어야 하며, 변경 이력과 함께 보존되어야 한다. 외부 감사인이 "이 정책은 누가, 언제, 어떤 근거로 설정했습니까?"라고 물었을 때 즉시 답할 수 있어야 한다.
보이지 않는 것을 통제한다는 것의 의미
옵저버빌리티의 역설이 있다. 시스템을 더 잘 들여다보기 위해 도입한 도구가, 역설적으로 우리가 무엇을 보고 있는지를 스스로 결정하기 시작했다.
이것은 단순한 기술적 문제가 아니다. 철학적으로 보면, 이는 관찰의 주권(sovereignty of observation) 문제다. 무엇을 기록하고 무엇을 버릴지를 결정하는 권한 — 그것은 궁극적으로 "무엇이 진실로 남겨질지"를 결정하는 권한이다. 그 권한이 AI에게 조용히 이전되고 있다.
클라우드 비용을 AI가 결정하고, 접근 권한을 AI가 결정하고, 패치를 AI가 결정하고, 복구 순서를 AI가 결정하는 것도 충분히 무거운 문제다. 그러나 "무엇이 기록될지"를 AI가 결정한다는 것은, 다른 모든 결정의 감사 가능성 자체를 AI가 통제한다는 의미다.
로그는 단순한 데이터가 아니다. 로그는 조직의 기억이다. 그리고 기억을 누가 편집하는지를 통제하지 못한다면, 우리는 우리 자신의 역사를 쓸 수 없게 된다.
기술은 단순히 기계가 아니라, 인간의 삶을 풍요롭게 하는 도구다. 그 도구가 우리의 기억을 대신 편집하도록 내버려두는 것 — 그것은 풍요로움이 아니라, 통제력의 조용한 포기다.
AI가 "무엇을 관찰할지"를 결정하는 시대, 우리는 그 결정을 위임했는가, 아니면 그냥 빼앗겼는가. 지금 자사의 옵저버빌리티 플랫폼 설정을 열어보라. AI가 지난 30일간 얼마나 많은 로그를 버렸는지, 그 결정이 어디에 기록되어 있는지 확인해보라.
아마도, 그 기록 역시 — 어딘가에서 조용히 사라졌을 것이다.
태그: AI 클라우드, 옵저버빌리티, 모니터링 거버넌스, 에이전틱 AI, 컴플라이언스, 감사 가능성, 클라우드 보안
김테크
국내외 IT 업계를 15년간 취재해온 테크 칼럼니스트. AI, 클라우드, 스타트업 생태계를 깊이 있게 분석합니다.
관련 글
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!