커넥티컷 AI 규제의 역설: 형사 보고서 중단이 드러낸 진짜 문제
커넥티컷 주가 AI를 이용한 형사 보고서 작성을 일시 중단했다. 단순한 기술 오류 수정처럼 보이지만, 이 결정은 공공 부문 AI 거버넌스의 핵심 균열을 정확히 드러낸다.
커넥티컷 AI가 멈춘 이유: 형사 보고서의 특수성
govtech.com 원문 보도에 따르면, 코네티컷 주는 AI를 활용해 형사 관련 보고서를 생성하는 작업을 공식적으로 중단했다. 표면적 이유는 정확성 검증이지만, 이 결정의 무게는 훨씬 무겁다.
형사 보고서는 일반 행정 문서와 근본적으로 다르다. 여기에 기재된 내용은 체포, 기소, 양형, 그리고 한 사람의 자유와 직결된다. AI가 생성한 텍스트에 사실 오류나 편향이 섞이면, 그 피해는 스프레드시트 오류와 비교할 수 없다. 잘못된 AI 출력 하나가 무고한 사람을 구금하거나, 실제 범죄자를 석방하는 결과로 이어질 수 있다.
흥미로운 것은 타이밍이다. 이 중단 조치는 코네티컷 주 의회가 AI 관련 입법을 동시다발적으로 추진하는 시점에 나왔다.
같은 주, 같은 시기에 쏟아지는 AI 입법들
커넥티컷의 이번 움직임은 고립된 사건이 아니다. 관련 보도를 종합하면, 코네티컷 주는 현재 세 가지 방향에서 동시에 AI를 다루고 있다.
첫째, 선거 딥페이크 규제. CT Insider 보도에 따르면, 코네티컷 의원들은 선거 관련 AI 생성 딥페이크를 타깃으로 한 법안을 추진 중이다. 이는 2026년 중간선거를 앞둔 미국 전역의 분위기와 맞닿아 있다.
둘째, 채용 AI 투명성 요구. 4월 12일 CT Insider 보도에 따르면, 고용주가 이력서 심사에 AI를 사용할 경우 지원자에게 이를 고지하도록 요구하는 법안이 논의 중이다.
"AI가 당신의 이력서를 읽고 있다면, 고용주는 당신에게 그 사실을 알려야 한다." — CT Insider, 2026년 4월 12일
셋째, AI 리터러시 지원. 4월 9일 WTNH.com 보도에 따르면, 구글이 코네티컷 소기업을 대상으로 AI 워크숍을 개최했다.
규제와 진흥이 동시에 진행되는 이 구도는 코네티컷만의 현상이 아니라, 미국 주(州) 정부들이 연방 AI 정책의 공백을 메우려는 광범위한 패턴이다.
기사가 말하지 않는 맥락: 공공 부문 AI의 구조적 취약성
아시아-태평양 시장을 오래 커버하면서 내가 반복적으로 목격한 패턴이 있다. 기술 도입 속도와 거버넌스 구축 속도 사이의 간극이다. 한국의 핀테크 규제 샌드박스, 싱가포르의 MAS 가이드라인, 중국의 생성형 AI 등록제 모두 이 간극을 메우려는 시도였다.
코네티컷의 형사 보고서 AI 중단은 이 간극이 공공 안전 영역에서 표면화된 사례다. 주목해야 할 구조적 문제는 세 가지다.
1. 조달(Procurement)의 블랙박스 문제
공공 기관이 AI 도구를 도입할 때, 대부분의 경우 내부 엔지니어링 팀이 아닌 외부 벤더로부터 솔루션을 구매한다. 이 경우 모델의 작동 방식, 학습 데이터의 편향, 오류율에 대한 정보가 공개되지 않는 경우가 많다. 형사 사법 시스템에서 이는 치명적이다. AI 클라우드 모니터링이 '무엇을 관찰할지'를 결정하는 주체가 누구인가의 문제와 정확히 겹친다.
2. 책임 소재의 분산
AI가 생성한 보고서에 오류가 있을 때, 책임은 누구에게 있는가? 모델을 개발한 벤더인가, 이를 도입한 주 정부인가, 아니면 최종 서명한 공무원인가? 현재 대부분의 법적 프레임워크는 이 질문에 명확히 답하지 못한다.
3. 대표성의 결핍
내가 AI 거버넌스를 분석할 때 일관되게 강조해온 지점이 있다. AI 규칙의 영향을 가장 오래, 가장 직접적으로 받을 집단이 규칙 설계 과정에서 가장 목소리가 작다는 것이다. 형사 사법 AI의 경우, 그 피해를 가장 먼저, 가장 크게 받을 집단은 저소득층, 유색인종 커뮤니티, 법적 대리인이 부족한 사람들이다. 이들이 코네티컷 주 AI 정책 결정 테이블에 얼마나 앉아 있는가?
커넥티컷의 결정이 글로벌 맥락에서 갖는 의미
미국 연방 차원에서 포괄적 AI 규제 입법은 여전히 지지부진하다. 이 공백을 채우는 것은 EU의 AI Act와 각 주(州) 정부의 개별 입법이다. 코네티컷은 이미 2023년부터 AI 관련 입법 논의에서 선도적 위치를 차지해왔다.
EU AI Act는 형사 사법 시스템에서의 AI 사용을 '고위험(high-risk)' 카테고리로 분류하고, 엄격한 투명성·감사 요건을 부과한다. 코네티컷의 이번 중단 조치는 사실상 EU 기준에 가까운 신중함을 보여준다. 미국 주 정부가 연방보다 EU를 더 닮아가는 역설적 현상이다.
아시아에서는 한국 개인정보보호위원회가 2025년 하반기부터 공공 기관 AI 도입에 대한 사전 영향평가 의무화를 추진해왔다. 싱가포르는 이미 형사 사법 AI에 대한 별도 가이드라인을 운영 중이다. 코네티컷의 사례는 이 글로벌 흐름의 미국판이라 볼 수 있다.
커넥티컷 AI 규제가 시장에 보내는 신호
핀테크와 AI 거버넌스 교차점을 오래 지켜본 입장에서, 이번 사건이 기업과 투자자에게 보내는 신호는 명확하다.
공공 부문 AI 시장은 '팔고 잊는(sell and forget)' 시장이 아니다. 정부 계약을 통해 형사 사법, 복지, 의료 등 고위험 영역에 AI를 납품하는 기업들은 이제 지속적인 감사 가능성, 계약 중단 리스크, 법적 책임 노출을 비용 구조에 반영해야 한다.
반대로, 이 불확실성은 기회이기도 하다. 설명 가능한 AI(Explainable AI), 감사 추적(audit trail) 솔루션, AI 거버넌스 컨설팅 시장은 공공 부문 AI 도입이 확대될수록 함께 성장한다. Anthropic-Amazon 동맹이 클라우드 인프라 차원에서 AI 생태계를 수직 통합하려는 것처럼, 공공 부문 AI 거버넌스 시장도 인프라-감사-컴플라이언스를 묶는 플레이어가 등장할 가능성이 있다.
지금 이 순간 무엇을 봐야 하는가
코네티컷의 AI 형사 보고서 중단은 기술 실패가 아니라 거버넌스 성숙의 신호로 읽어야 한다. 잘못된 AI 사용을 멈출 수 있는 제도적 반사신경이 작동했다는 점에서, 이것은 후퇴가 아니라 교정이다.
그러나 진짜 시험은 지금부터다. 중단 이후 코네티컷이 어떤 기준으로 AI 재도입을 승인할 것인가? 그 기준이 투명하게 공개되는가? 영향을 받는 커뮤니티가 검토 과정에 참여하는가?
채용 AI 고지 의무, 선거 딥페이크 규제, 형사 보고서 AI 중단이 동시에 진행되는 코네티컷의 지금은, 미국 AI 거버넌스의 실험실이다. 이 실험의 결과가 어떻게 나오느냐에 따라, 다른 48개 주와 연방 정부의 방향도 영향을 받을 가능성이 있다.
기술이 먼저 달리고 규칙이 뒤따라가는 패턴은 핀테크에서도, 크립토에서도, 그리고 지금 AI에서도 반복된다. 코네티컷이 이 패턴을 깨는 첫 사례가 될 수 있을지, 주목할 이유는 충분하다.
Alex Kim
Former financial wire reporter covering Asia-Pacific tech and finance. Now an independent columnist bridging East and West perspectives.
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!