AI 生成内容的区分、标识与治理探索
一、引言:AI 生成内容的崛起与治理挑战
随着生成式AI技术的广泛应用,AI生成内容在信息总量中的占比迅速上升,预测比例高达20%至90%。特别是从2023年至2024年,含有AI生成内容的网页数量激增了2848%。这一趋势促使内容治理逻辑发生转变,从原先关注内容是否违法有害,扩展到对内容来源是否为AI生成的关注。
二、AI 生成内容的治理逻辑与必要性
- 治理逻辑的变化:
- 早期阶段,大模型厂商为提升透明度,开始标识AI生成内容。
- 版权争议下,明确内容来源有助于权利人主张权益,分清权责。
- 政府与公众推动标识,因AI生成内容存在伪造虚假信息、侵犯个人名誉等潜在风险。
- 治理的必要性:
- AI提升内容生产效率,若用于制造虚假内容,可能引发公众对媒体的不信任。
- 传统治理手段虽可处理有害信息,但难以应对AI生成内容的高效性和隐蔽性。
三、区分AI 生成内容的技术路径及困境
- 内容检测路径:
- 直观方法,但AI生成内容在细节上仍有可被察觉的特征。
- 图像、视频、音频、文本等AI生成信息在细节上与自然生成内容存在差异。
- 成熟高效且可靠的合成内容检测技术尚缺,需考虑通用性、可解释性、效率等因素。
- 数据跟踪路径:
- 包括显式标识(如内容标签、可见水印)和隐式标识(如数字水印、元数据记录)。
- 显式标识易被裁剪或移除,隐式标识则面临读取成本高、安全性不足等问题。
四、产业界对AI 生成内容标识的探索实践
- 大模型方面的探索:
- ChatGPT等使用元数据记录标识生成的图像。
- Meta AI等使用可见水印标识创建或编辑的图像。
- 国内企业如元宝、豆包、文小言等添加显式标识。
- 互联网平台方面的探索:
- Meta等平台要求用户分享AI生成或修改的逼真内容时标识。
- 国内平台如小红书、微博等上线用户自主声明功能。
- 共同特点:
- 先在易混淆的图像、视频等领域尝试。
- 大模型企业在生成阶段显性标识,传播平台提示用户分享时声明。
- 国外形成企业产业联盟推进技术标准形成。
五、基于动态风险的AI 生成内容标识治理策略
- 不断试错验证,探寻风险管理方案:
- 鼓励探索多种技术,完善元数据跨主体读取与验证方式。
- 协同应对标识的反删除反篡改问题,关注公众对标识的了解与应用痛点。
- 基于场景区分不同主体治理角色:
- AI生成技术的提供者与部署者角色不同,需适配不同规则。
- 如欧盟《人工智能法》规定提供者应标记输出内容,部署者应披露深度伪造内容性质。
- 避免过度标识,聚焦真正风险领域:
- 全面标识可能导致公众信息过载,应限定领域和标识内容范围。
- 探索“标识的例外规则”,避免过度标识产生的不利影响。
- 培养公众AI时代的“信息素养”:
- 公众是判断信息真伪的最终把关人,培养理性判断是关键环节。
- 以标识规则为契机,提升公众面对网络内容的判断能力。
六、结论
AI生成内容的区分、标识与治理是一个复杂且不断发展的过程。需要各方在技术、实践和公众素养等多方面不断探索完善,以应对其带来的各种挑战。通过持续的努力和创新,我们可以更好地管理和利用AI生成内容,促进信息社会的健康发展。