生成式AI的"暗面":当技术被用于制造非自愿图像,中国科技巨头的监管压力将如何演变?
一张照片,可以在几秒钟内被AI"改写"成任何形态——这不再是科幻小说的情节,而是当下数百万普通人正在面临的真实威胁。生成式AI被用于创建非自愿亲密图像(NCII)的问题正在全球范围内引发强烈关注,而这场争议的深层逻辑,与中国科技产业的发展轨迹高度交织。
一条新闻背后的全球性危机
KUTV的报道所揭示的,不仅仅是一个技术滥用问题,更是一场关于"谁来为AI的边界负责"的全球性追问。
生成式AI模型的图像生成能力在过去两年内经历了指数级跃升。从Stable Diffusion到Midjourney,再到各类开源模型的泛滥,任何人只需要一张清晰的人脸照片,就可能在几分钟内生成极具真实感的合成图像。这项技术的双刃性在于:它既能为影视制作、广告创意提供革命性工具,也正在成为骚扰、勒索和性别暴力的新型武器。
值得注意的是,就在同一时间窗口内,themercury.com的报道也指出,随着AI模型在编程领域的能力不断增强,黑客将其用于网络犯罪的担忧同样在攀升。这两个方向——图像生成滥用与代码生成滥用——共同描绘出生成式AI"能力溢出"的完整图谱。
中国语境下的同类问题:监管先行还是技术先行?
作为一名长期观察中国科技产业的记者,我必须指出:这个问题在中国并非新鲜事,但其演变路径与西方世界存在根本性差异。
"换脸"产业的野蛮生长
早在2019年,一款名为ZAO的换脸应用在中国爆红,用户只需上传一张自拍,就能将自己的脸"贴"到任意影视片段中。这款应用在上线48小时内冲上App Store排行榜榜首,随后迅速引发监管介入。彼时,工信部就用户数据安全问题约谈了ZAO的开发商——但对于"非自愿图像生成"这一更深层的伦理问题,监管层的关注相对滞后。
到了2023年,随着国内生成式AI应用的爆发式增长,中国国家互联网信息办公室(网信办)相继出台了《生成式人工智能服务管理暂行办法》,明确要求:
提供者应当采取措施防止生成虚假信息,不得生成涉及侵害他人合法权益的内容,包括利用人脸、声音等个人信息生成的深度伪造内容。 ——《生成式人工智能服务管理暂行办法》(2023年)
这一条款在文本层面具有相当的前瞻性,但执行层面的有效性仍存疑。
BAT们的"合规困境"
百度、阿里巴巴、腾讯三大科技巨头在这一问题上面临的压力尤为复杂。
百度旗下的文心一格(ERNIE-ViLG)和文心大模型已经部署了内容过滤机制,但业内人士普遍认为,这些过滤器在应对"灰色地带"请求时的效果参差不齐。更关键的是,开源模型的泛滥使得平台层面的管控形同虚设——用户完全可以绕过商业平台,直接在本地运行开源模型生成任意内容。
腾讯在这一问题上的处境尤为微妙。微信生态内的图像生成小程序数以百计,其中相当一部分处于监管盲区。腾讯虽然在官方产品中部署了严格的内容审核,但对第三方小程序开发者的管控能力存在结构性局限。
阿里巴巴旗下的通义万相(Tongyi Wanxiang)在技术层面引入了"人脸保护"机制,声称能够识别并拒绝生成特定真实人物的合成图像。但这一机制的覆盖范围仅限于"知名人物",对于普通个人的保护几乎为零。
为什么"技术治理"在中国特别难?
开源模型的监管真空
2024年以来,中国本土涌现出大量高质量的开源图像生成模型。这些模型一旦发布,即意味着任何人都可以在本地部署、修改、使用,彻底绕过平台层面的内容审核。
从深圳的创业生态来看,我观察到一个有趣的现象:大量小型AI公司正在以"图像增强"、"照片修复"为名,实质上提供接近于深度伪造的服务。这些公司游走于监管边界,利用政策解释的模糊性维持运营。
举报机制的缺失
与美国已有多个州立法将非自愿亲密图像定为刑事犯罪不同,中国在这一具体领域的法律保护仍以民事侵权框架为主,受害者维权成本极高。更重要的是,举报渠道的分散性使得大量案例无法进入司法程序——受害者往往不知道该向哪个部门投诉,
而各部门之间的职责划分也存在相当程度的模糊。网信办、公安部、市场监督管理总局之间的管辖权边界,在面对新型AI犯罪时往往陷入"三不管"的困境。
性别视角的系统性缺失
深度伪造性图像的受害者中,女性占据压倒性多数。然而在中国现行的AI治理框架中,性别视角几乎是缺席的。《生成式人工智能服务管理暂行办法》虽然提及"侵害他人合法权益",但并未对性别化暴力的特殊性加以区分和强调。
相比之下,欧盟《人工智能法案》(AI Act)在风险分类体系中明确将"操纵性深度伪造"列为高风险应用,并要求强制标注;英国2023年通过的《在线安全法》则将非自愿分享亲密图像入罪,并正在进一步讨论将AI生成的此类内容纳入同等规制范畴。这种立法取向的差异,折射出不同监管文化对"个体保护"与"平台责任"的权重判断。
数据说话:这个问题有多严重?
在讨论政策回应之前,有必要先看几组数据,以校准我们对问题规模的认知。
根据网络安全机构Sensity AI的报告,截至2023年底,互联网上可检测到的深度伪造视频数量已超过50万条,且每年以约900%的速度增长。其中,96%以上的深度伪造内容属于非自愿亲密图像,受害者几乎清一色为女性。
在中国本土,根据北京互联网法院2023年的司法数据,涉及"AI换脸"和"虚假图像"的案件数量同比增长217%,但最终进入审判程序的不足12%。这一数字背后,是大量受害者在举证困难和维权成本面前选择沉默。
| 指标 | 数据 | 来源 |
|---|---|---|
| 全球深度伪造内容年增速 | ~900% | Sensity AI, 2023 |
| 深度伪造中非自愿亲密图像占比 | >96% | Sensity AI, 2023 |
| 中国AI换脸相关案件年增速 | +217% | 北京互联网法院, 2023 |
| 进入审判程序比例 | <12% | 北京互联网法院, 2023 |
这组数据揭示了一个残酷的现实:技术扩散的速度远远超过了法律救济的响应速度。当一项技术能够在数秒内造成伤害,而司法程序往往需要数月乃至数年,这种时间差本身就构成了对受害者的二次伤害。
对韩国产业的潜在影响:不只是技术问题
作为一名长期关注中韩科技互动的记者,我认为有必要在此专门讨论这一议题对韩国的特殊意涵。
韩流内容的高风险暴露
韩国是全球深度伪造受害最严重的国家之一。根据韩国数字性犯罪受害者支援中心(DSCC)的数据,2023年受理的深度伪造相关案件中,K-pop偶像是被滥用频率最高的群体,而大量素材正是来源于中国境内的图像生成平台和Telegram频道。
这意味着,中国AI监管的漏洞,直接转化为韩国内容产业的商业风险和艺人权益损失。SM娱乐、HYBE、JYP等头部娱乐公司已开始将"深度伪造防护"纳入艺人合同条款和法务预算,但这种被动防御的成本正在快速上升。
韩国半导体与中国AI能力的间接关联
从更宏观的产业链视角来看,韩国三星、SK海力士向中国AI企业供应的高带宽存储器(HBM)和NAND闪存,客观上支撑了中国图像生成模型的算力基础设施。这在商业逻辑上无可厚非,但在伦理层面构成了一种值得深思的技术共谋关系。
随着美国对华半导体出口管制持续收紧,韩国企业面临的合规压力将进一步增加。如何在商业利益与技术伦理之间划定边界,将成为韩国半导体产业在下一阶段必须正视的战略课题。
出路在哪里?三个层面的思考
第一层:技术层面——"水印"能否成为解药?
目前学界和产业界讨论最多的技术解决方案是C2PA(内容来源和真实性联盟)标准,通过为AI生成内容嵌入不可篡改的数字水印,实现溯源追踪。谷歌、微软、Adobe等科技巨头已相继加入这一标准联盟。
然而,这一方案在中国的推广面临现实障碍:国内主流AI平台尚未采纳C2PA标准,而开源模型的存在使得水印机制形同虚设——任何人都可以在生成后通过后处理手段去除水印。
从深圳的创业圈来看,已有团队在研发主动式图像保护技术,通过向原始照片注入对抗性扰动,使其在被AI模型处理时产生失真,从而保护个人图像不被滥用于深度伪造。这类技术路线或许比被动水印更具现实意义。
第二层:法律层面——专项立法刻不容缓
中国现行法律框架对深度伪造性图像的规制,散落在《民法典》人格权编、《网络安全法》、《个人信息保护法》等多部法律中,缺乏专项立法的系统性保护。
我认为,亟需出台一部专门针对非自愿AI合成图像的单行法规,至少应涵盖以下核心要素:
- 明确入罪标准:将非自愿生成、传播他人亲密合成图像定为刑事犯罪,而非仅停留于民事侵权层面;
- 平台连带责任:对明知或应知平台内存在此类内容而未及时处置的平台
陈科技 (천커지)
深圳出身テック记者,中国IT产业10年取材经验。V2EX、微信公众号、B站技术频道的深层分析传达给韩中读者。
Related Posts
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요!