AI 生成内容的区分、标识与治理探索

一、引言:AI 生成内容的崛起与治理挑战

随着生成式AI技术的广泛应用,AI生成内容在信息总量中的占比迅速上升,预测比例高达20%至90%。特别是从2023年至2024年,含有AI生成内容的网页数量激增了2848%。这一趋势促使内容治理逻辑发生转变,从原先关注内容是否违法有害,扩展到对内容来源是否为AI生成的关注。

二、AI 生成内容的治理逻辑与必要性

  1. 治理逻辑的变化
    • 早期阶段,大模型厂商为提升透明度,开始标识AI生成内容。
    • 版权争议下,明确内容来源有助于权利人主张权益,分清权责。
    • 政府与公众推动标识,因AI生成内容存在伪造虚假信息、侵犯个人名誉等潜在风险。
  2. 治理的必要性
    • AI提升内容生产效率,若用于制造虚假内容,可能引发公众对媒体的不信任。
    • 传统治理手段虽可处理有害信息,但难以应对AI生成内容的高效性和隐蔽性。

三、区分AI 生成内容的技术路径及困境

  1. 内容检测路径
    • 直观方法,但AI生成内容在细节上仍有可被察觉的特征。
    • 图像、视频、音频、文本等AI生成信息在细节上与自然生成内容存在差异。
    • 成熟高效且可靠的合成内容检测技术尚缺,需考虑通用性、可解释性、效率等因素。
  2. 数据跟踪路径
    • 包括显式标识(如内容标签、可见水印)和隐式标识(如数字水印、元数据记录)。
    • 显式标识易被裁剪或移除,隐式标识则面临读取成本高、安全性不足等问题。

四、产业界对AI 生成内容标识的探索实践

  1. 大模型方面的探索
    • ChatGPT等使用元数据记录标识生成的图像。
    • Meta AI等使用可见水印标识创建或编辑的图像。
    • 国内企业如元宝、豆包、文小言等添加显式标识。
  2. 互联网平台方面的探索
    • Meta等平台要求用户分享AI生成或修改的逼真内容时标识。
    • 国内平台如小红书、微博等上线用户自主声明功能。
  3. 共同特点
    • 先在易混淆的图像、视频等领域尝试。
    • 大模型企业在生成阶段显性标识,传播平台提示用户分享时声明。
    • 国外形成企业产业联盟推进技术标准形成。

五、基于动态风险的AI 生成内容标识治理策略

  1. 不断试错验证,探寻风险管理方案
    • 鼓励探索多种技术,完善元数据跨主体读取与验证方式。
    • 协同应对标识的反删除反篡改问题,关注公众对标识的了解与应用痛点。
  2. 基于场景区分不同主体治理角色
    • AI生成技术的提供者与部署者角色不同,需适配不同规则。
    • 如欧盟《人工智能法》规定提供者应标记输出内容,部署者应披露深度伪造内容性质。
  3. 避免过度标识,聚焦真正风险领域
    • 全面标识可能导致公众信息过载,应限定领域和标识内容范围。
    • 探索“标识的例外规则”,避免过度标识产生的不利影响。
  4. 培养公众AI时代的“信息素养”
    • 公众是判断信息真伪的最终把关人,培养理性判断是关键环节。
    • 以标识规则为契机,提升公众面对网络内容的判断能力。

六、结论

AI生成内容的区分、标识与治理是一个复杂且不断发展的过程。需要各方在技术、实践和公众素养等多方面不断探索完善,以应对其带来的各种挑战。通过持续的努力和创新,我们可以更好地管理和利用AI生成内容,促进信息社会的健康发展。

热门词条
    产品推荐