앤스로픽이 '공급망 위험'으로 지정된 날 — AI 윤리가 국가안보 무기가 될 때
미국 국방부(현 '전쟁부')가 Claude 개발사 앤스로픽을 국가안보 공급망 위험으로 지정하고 계약을 전면 취소했다. 이것이 단순한 조달 분쟁이 아닌 이유는, AI 모델의 '사용 정책(usage policy)'이 처음으로 국가안보 법령과 정면충돌하는 선례를 만들고 있기 때문이다.
무슨 일이 벌어졌나 — 팩트부터 짚고 가자
D.C. 순회법원의 2026년 4월 8일 결정문에 따르면, 사건의 경위는 다음과 같다.
2024년 국방부(DoD, 현재 공식 명칭 '전쟁부')는 Claude를 다양한 군사작전에 활용하기 시작했다. 그런데 2026년 1월 9일, 피트 헥세스 전쟁부 장관은 내부 메모를 통해 다음을 명시했다.
"The Department must also utilize models free from usage policy constraints that may limit lawful military applications." — Pete Hegseth 메모, 2026년 1월 9일 (Add. 223)
이 메모가 핵심이다. 헥세스는 '합법적 군사 활용'을 제한하는 사용 정책이 없는 모델을 써야 한다고 선언했고, 앤스로픽이 대규모 국내 감시(mass domestic surveillance)와 자율 살상 무기(lethal autonomous warfare) 사용을 계약상 허가하기를 거부하자, 3월 3일 41 U.S.C. § 4713에 근거해 앤스로픽을 공급망 위험으로 지정했다.
결과적으로 전쟁부는:
- 앤스로픽과의 모든 계약 취소
- 자체 시스템에서 Claude 제거 착수
- 전쟁부 관련 업무를 수행하는 하청업체들의 앤스로픽 사용 금지
앤스로픽은 이 결정이 위헌이며 자의적이라고 주장하며 집행정지(stay)를 신청했지만, D.C. 순회법원은 이를 기각했다.
법원이 말하는 것과 말하지 않는 것
법원의 논리 구조를 주의 깊게 읽어야 한다. 법원은 앤스로픽의 청구가 "새롭고 어려운 법적 질문"을 제기한다고 인정했다. § 4713 하에서 무엇이 '공급망 위험'에 해당하는지, 어떤 것이 '긴급 국가안보 이익'을 정당화하는지에 대해 선례가 거의 없다고 명시했다.
그럼에도 집행정지를 기각한 핵심 이유는 형평성(balance of equities) 판단이었다. 법원은 앤스로픽의 손해가 주로 재정적 성격임을 지적했다. 다리오 아모데이 CEO 본인이 "고객의 '압도적 다수'는 이번 지정에 영향을 받지 않는다"고 공개 발언했고, 오히려 이번 사건이 브랜드 신뢰도와 다운로드 수를 끌어올렸다는 점도 법원은 주목했다.
"The $200 million [Anthropic] walked away from by refusing the Pentagon's demands may turn out to be the best marketing spend in Silicon Valley for years." — Digiday, 2026년 3월 9일 인용
앱스토어 2위 등극, 기업 계약 증가. 앤스로픽은 2억 달러짜리 계약을 잃었지만 그 이상의 브랜드 자산을 얻었다는 역설적 상황이다.
반면 법원이 정부 측 이익으로 인정한 것은 훨씬 무거웠다. "중요한 진행 중인 군사 분쟁(significant ongoing military conflict)" 와중에 원치 않는 AI 공급업체와의 관계를 강제로 지속시키는 것은 공공이익에 반한다는 판단이었다.
기사가 말하지 않는 맥락 — 이것이 진짜 전쟁이다
§ 4713: 원래 화웨이를 막으려던 법
41 U.S.C. § 4713은 원래 중국 통신장비 기업, 특히 화웨이와 ZTE 같은 공급망 위험을 차단하기 위해 설계된 조항이다. 이 법이 미국 기업, 그것도 AI 안전을 핵심 가치로 내세우는 실리콘밸리 스타트업에 적용된 것은 전례가 없다.
이 적용의 함의는 단순하지 않다. 정부가 AI 모델의 사용 정책(usage policy) 자체를 공급망 위험의 근거로 삼을 수 있다면, 이는 AI 기업의 안전 가이드라인이 곧 조달 시장에서의 퇴출 사유가 될 수 있다는 뜻이다. 앤스로픽만의 문제가 아니다. OpenAI, Google DeepMind, Meta AI — 모두 유사한 사용 정책을 갖고 있다.
"합법적 군사 활용" 정의권을 누가 갖는가
이 사건의 본질적 긴장은 여기에 있다. 전쟁부는 자율 살상 무기 사용이 "합법적 군사 활용"이라고 주장한다. 앤스로픽은 그것이 자사 모델의 허용 범위를 벗어난다고 본다. 법원은 이 충돌의 실체적 판단을 아직 하지 않았다 — 단지 집행정지를 기각했을 뿐이다.
이 정의권 다툼은 단순한 계약 분쟁이 아니다. AI 모델의 헌법적 지위 문제로 확장될 가능성이 있다. 앤스로픽은 수정헌법 제1조(표현의 자유)와 제5조(적법 절차) 위반을 주장하고 있다. 법원이 "앤스로픽의 언론이 이 소송 계류 중에 위축되었다는 증거가 없다"고 말한 것은, 역으로 향후 위축 효과(chilling effect)가 입증된다면 판단이 달라질 수 있음을 시사한다.
앤스로픽의 딜레마: 영웅 서사가 지속될 수 있는가
지금 앤스로픽은 흥미로운 위치에 있다. 아모데이 CEO가 직원들에게 "우리가 영웅으로 보인다, 앱스토어 2위"라고 말했다는 내부 발언이 법원 기록에 등장했다는 사실 자체가 상징적이다. 대중 서사에서는 이기고 있다. 그러나 연방 조달 시장에서는 지고 있다.
내가 이전 칼럼에서 앤스로픽과 팰런티어의 엔터프라이즈 AI 시장 경쟁을 다루며 지적했던 것처럼, 엔터프라이즈 AI 예산은 제로섬에 가깝다. 연방 정부가 앤스로픽을 배제하면, 그 빈자리는 팰런티어, 스케일 AI, 혹은 정부 요구에 더 유연한 오픈소스 모델이 채울 것이다. "윤리적 AI" 포지셔닝이 민간 기업 시장에서는 프리미엄이 되지만, 정부 조달 시장에서는 진입 장벽이 될 수 있다는 역설이다.
글로벌 맥락: 이것은 미국만의 문제가 아니다
아시아-태평양 시장을 오래 취재한 입장에서 보면, 이 사건은 AI 거버넌스의 지정학화(geopoliticization of AI governance)라는 더 큰 흐름의 일부다.
한국의 경우, 국방부와 방위사업청이 AI 도입을 적극 추진하고 있지만, 외산 AI 모델의 군사 활용에 대한 명확한 법적 프레임이 아직 없다. 일본은 방위성이 생성 AI 활용 가이드라인을 수립 중이고, 호주는 AUKUS 프레임워크 내에서 AI 군사 활용 논의를 진행 중이다.
미국의 이번 사례가 선례가 된다면, 각국 정부는 AI 공급업체에게 '사용 정책 무제한 허용'을 계약 조건으로 요구하는 방향으로 움직일 수 있다. 이는 AI 안전 연구의 핵심인 '모델 사용 제한(usage guardrails)'을 구조적으로 약화시키는 압력으로 작용할 가능성이 있다.
관련 보도에서 언급된 것처럼 AI가 워싱턴 D.C. 지역의 엔트리레벨 일자리를 대체하기 시작했다는 점도 이 맥락에서 읽어야 한다. 정부 기관들이 AI를 업무에 깊숙이 통합하면 할수록, 특정 AI 공급업체에 대한 의존도와 그 공급업체의 정책에 대한 민감도는 함께 높아진다. 공급망 위험 지정이 오늘은 앤스로픽이지만, 내일은 다른 AI 기업이 될 수 있다.
투자자와 기업 의사결정자를 위한 시사점
이 사건에서 실질적으로 주목해야 할 신호들이 있다.
첫째, AI 기업의 사용 정책은 이제 사업 리스크 항목이다. 앤스로픽의 경우처럼, 윤리 가이드라인이 특정 고객군(정부, 방산)과의 계약 가능성을 구조적으로 제한할 수 있다. 투자자라면 포트폴리오 내 AI 기업들의 사용 정책과 정부 계약 의존도를 교차 점검할 필요가 있다.
둘째, § 4713의 확장 적용 가능성이다. 이 법이 앤스로픽에 적용된 이상, 향후 다른 AI 기업들도 유사한 지정을 받을 수 있다. 특히 중국 자본이 일부라도 관여된 AI 기업들은 더 취약하다. 이 법적 프레임이 굳어지면 AI 조달 시장의 지형이 근본적으로 바뀔 수 있다.
셋째, 앤스로픽의 브랜드 전략적 선택은 단기적으로 유효해 보인다. 2억 달러 계약 포기가 앱스토어 2위와 기업 고객 증가로 이어졌다는 데이터는, 소비자 및 민간 기업 시장에서 "AI 안전"이 실질적인 구매 동인이 되고 있음을 보여준다. 그러나 이 서사가 연방 조달 시장 배제라는 구조적 비용을 장기적으로 상쇄할 수 있을지는 아직 불분명하다.
넷째, 이 소송의 본안 판단이 나오기 전까지 불확실성은 지속된다. 법원이 § 4713의 적용 범위와 AI 사용 정책의 헌법적 보호 여부에 대해 어떤 판단을 내리느냐에 따라, AI 기업들의 정부 계약 전략 전체가 재설정되어야 할 수도 있다.
앤스로픽이 이 싸움에서 이길지 질지는 아직 모른다. 그러나 이 사건이 이미 확정한 것은 하나다: AI 모델의 윤리 설계는 더 이상 기술적 선택이 아니라 지정학적 포지셔닝이다. 어떤 사용을 허용하고 어떤 사용을 막을 것인가 — 그 결정이 이제 법정에서, 국가안보 법령 아래에서 심판받는 시대가 열렸다.
Alex Kim
Former financial wire reporter covering Asia-Pacific tech and finance. Now an independent columnist bridging East and West perspectives.
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!