생성형 AI가 만드는 '동의 없는 이미지': 중국 플랫폼은 이 문제를 어떻게 다루고 있는가?
딥페이크와 비동의 합성 이미지 문제는 더 이상 서구만의 이슈가 아니다. 생성형 AI 기술이 중국발 오픈소스 모델을 통해 전 세계로 확산되면서, 한국을 포함한 아시아 전역이 이 문제의 직접적인 피해 무대가 되고 있다.
"우려가 커지고 있다"는 표현 뒤에 숨겨진 현실
KUTV 보도는 생성형 AI를 이용한 비동의 이미지 생성에 대한 우려가 커지고 있다고 전한다. 제목만 봐도 느껴지듯, 이 문제는 이미 '기술적 가능성'의 단계를 지나 '사회적 피해'의 단계로 진입했다.
관련 보도들도 비슷한 흐름을 가리킨다. themercury.com은 AI 모델이 코딩 능력을 고도화하면서 해커들이 이를 사이버 범죄에 활용할 수 있다는 우려를 전했다. 두 보도를 겹쳐 읽으면 하나의 패턴이 보인다. 생성형 AI의 '능력 향상'이 곧 '악용 가능성의 확대'로 직결되고 있다는 것이다.
이는 단순한 기술 오남용 문제가 아니다. 플랫폼 설계, 오픈소스 정책, 규제 프레임워크 전반에 걸친 구조적 문제다.
중국발 오픈소스 모델, 이 논쟁의 핵심 변수
기사 본문이 크롤링에 실패했지만, 현재 비동의 이미지 생성 문제를 논할 때 중국 AI 생태계를 빼놓을 수 없다.
2024~2025년을 거치며 Stability AI 계열 모델과 경쟁하는 중국산 이미지 생성 모델들이 대거 오픈소스로 공개됐다. FLUX 계열 파인튜닝 모델, 그리고 Alibaba의 Wan 비디오 생성 모델이 대표적이다. 이들 모델은 Hugging Face를 통해 글로벌에 배포되며, 일부는 NSFW(성인 콘텐츠) 필터가 의도적으로 제거된 채 유통된다.
더 중요한 것은 접근성의 민주화가 동시에 진행됐다는 점이다. 과거에는 딥페이크 이미지를 만들기 위해 어느 정도의 기술 지식이 필요했다. 그러나 2025년 현재, ComfyUI나 Forge 같은 GUI 기반 툴이 보편화되면서 비전문가도 수분 내에 특정인의 얼굴을 합성한 이미지를 생성할 수 있게 됐다.
중국 내부적으로도 이 문제를 인식하고 있다. 중국 국가인터넷정보판공실(CAC)은 2023년 '딥 합성 관리 규정'을 시행하며 워터마크 의무화, 실명 등록 요구 등을 도입했다. 그러나 이 규제는 중국 내 플랫폼에만 적용되며, 오픈소스로 배포된 모델 자체를 통제하지는 못한다.
"AI 모델이 코딩 능력을 고도화하면서 해커들이 이를 사이버 범죄에 활용할 것이라는 우려가 커지고 있다" — themercury.com
이 인용구는 비동의 이미지 문제와 표면적으로는 달라 보이지만, 본질은 같다. AI 능력의 범용화가 악의적 행위자에게 진입 장벽을 낮춰준다는 구조적 문제다.
플랫폼 전쟁의 새로운 전선: 콘텐츠 거버넌스
내가 이전 분석에서 X 플랫폼의 Grok AI 사진 편집기 출시를 다루며 지적했던 것처럼, 생성형 AI가 소셜 플랫폼의 콘텐츠 생산 흐름에 직접 통합되는 추세는 이미 거스를 수 없다. 문제는 이 통합이 얼마나 책임감 있게 설계되느냐다.
중국의 주요 플랫폼들은 이 문제에서 흥미로운 이중적 태도를 보인다.
Tencent의 경우, WeChat 내 AI 기능에는 얼굴 합성에 대한 비교적 강한 필터를 적용하고 있다. 이는 규제 준수 목적도 있지만, 플랫폼 신뢰도 유지라는 상업적 판단도 작동한다. 반면 Baidu의 ERNIE Bot 계열 이미지 생성 기능은 초기 출시 당시 필터 우회 사례가 다수 보고됐고, 이후 패치를 통해 강화됐다.
ByteDance의 경우가 가장 복잡하다. TikTok/Douyin의 AI
필터 정책은 지역별로 이중화되어 있다. 중국 내 Douyin에서는 CAC 규정에 따라 실명 기반 워터마크가 적용되지만, 글로벌 TikTok에서는 상대적으로 느슨한 기준이 적용된다. 이 비대칭성은 단순한 기술적 차이가 아니라 규제 차익(regulatory arbitrage)을 의도적으로 활용하는 플랫폼 전략으로 해석할 수 있다.
결국 플랫폼들은 각국 규제의 최소 요건만 충족하는 방식으로 AI 콘텐츠 정책을 설계하고 있다. 이는 글로벌 콘텐츠 거버넌스의 가장 큰 취약점이다.
한국은 어디에 서 있는가
한국은 이 문제에서 독특한 위치를 점한다. 피해국이자 동시에 기술 수출국이라는 이중적 입장이다.
피해 측면에서 보면, 한국은 이미 비동의 딥페이크 피해가 사회적 문제로 대두된 나라다. 2024년 텔레그램 딥페이크 성착취물 유포 사건은 전국적 공분을 일으켰고, 이를 계기로 성폭력처벌법 개정안이 통과되어 비동의 딥페이크 제작·유포에 최대 5년 이하 징역 또는 5,000만 원 이하 벌금이 부과될 수 있게 됐다.
그러나 법 제정과 실제 기술 통제 사이의 간극은 여전히 크다. 한국 법무부와 방송통신심의위원회가 국내 플랫폼에 대한 규제 권한을 갖고 있지만, Hugging Face에 올라온 중국산 오픈소스 모델을 통해 로컬에서 실행되는 딥페이크 생성 툴은 사실상 규제 밖에 있다.
기술 수출 측면에서는 또 다른 딜레마가 존재한다. 한국의 반도체 기업들—삼성전자, SK하이닉스—은 AI 연산에 필수적인 HBM(고대역폭 메모리)의 핵심 공급자다. 이 칩들이 결국 이미지 생성 AI 모델을 구동하는 데이터센터에 들어간다는 사실은, 한국 기업들이 의도치 않게 이 생태계의 인프라 공급자 역할을 하고 있음을 의미한다.
| 구분 | 한국 현황 | 과제 |
|---|---|---|
| 법제도 | 비동의 딥페이크 처벌 규정 마련 | 오픈소스 모델 규제 공백 |
| 플랫폼 | 국내 플랫폼 심의 강화 | 해외 플랫폼·로컬 실행 툴 통제 한계 |
| 산업 | HBM 등 AI 인프라 핵심 공급자 | 기술 수출과 윤리 책임의 충돌 |
| 탐지 기술 | KAIST·ETRI 중심 딥페이크 탐지 연구 | 상용화·보급 속도 부족 |
기술 가속과 규제 지연: 구조적 비대칭의 해법은 있는가
솔직히 말하면, 현재의 규제 접근법은 근본적으로 비대칭 게임을 하고 있다. 모델 성능은 6개월 단위로 도약하는데, 법 개정 사이클은 수년이 걸린다.
중국의 CAC 딥 합성 규정은 시행 속도 면에서 세계에서 가장 빠른 AI 콘텐츠 규제 중 하나였다. 그러나 앞서 언급했듯 오픈소스 모델의 국경 초월 유통을 막지는 못한다. EU의 AI Act는 포괄적이지만 고위험 시스템 분류 체계가 딥페이크의 실시간 진화 속도를 따라가지 못한다는 비판을 받는다.
그렇다면 실효성 있는 접근법은 무엇인가. 현재 논의되는 방향은 크게 세 가지다.
첫째, 모델 레벨 기술 통제. C2PA(Coalition for Content Provenance and Authenticity) 표준처럼 생성된 콘텐츠에 암호화 기반 출처 정보를 삽입하는 방식이다. Adobe, Microsoft, Google이 참여하고 있지만, 오픈소스 모델에서는 이 표준 적용이 강제되지 않는다.
둘째, 배포 플랫폼 책임 강화. Hugging Face 같은 모델 허브에 NSFW 필터 제거 모델의 업로드를 제한하거나, 업로더 실명 인증을 요구하는 방식이다. 실제로 Hugging Face는 2024년 일부 악용 모델을 삭제하는 조치를 취했지만, 거버넌스 체계가 체계화되지 않았다는 지적이 있다.
셋째, 피해자 중심 신속 대응 체계. 기술적 완전 차단이 불가능하다면, 피해 발생 후 콘텐츠 삭제와 법적 구제까지의 시간을 최소화하는 데 집중하는 현실적 접근이다. 한국의 디지털성범죄피해자지원센터(DSCC)가 이 방향의 대표적 사례지만, AI 생성 속도에 비해 대응 역량이 부족하다는 현장의 목소리가 여전하다.
결론: '능력의 민주화'가 '책임의 공백'이 되어선 안 된다
생성형 AI의 발전은 누가 봐도 멈출 수 없는 흐름이다. 중국발 오픈소스 모델의 확산, GUI 툴의 보편화, 플랫폼 AI 통합의 가속—이 세 가지
陈科技 (천커지)
深圳出身テック记者,中国IT产业10年取材经验。V2EX、微信公众号、B站技术频道的深层分析传达给韩中读者。
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!