国家互联网信息办公室等四部门联合出台的《人工智能生成合成内容标识办法》(以下简称《办法》),已自9月1日起正式施行,《办法》明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。目前,腾讯、抖音、快手、B站、DeepSeek等平台均出台了细化规则。
这些细则是平台对标《办法》要求作出的跟进落实,也是平台履行人工智能治理主体责任的应有之义。
随着AI生成技术的普及,使用人工智能技术生成的文本、图片、音频、视频、虚拟场景等已广泛应用于各个领域,在提升效率、降低成本的同时,也带来了一些显而易见的风险。大量案例表明,AI技术被用于制作虚假消息、制作低俗内容和人脸声音替换等滥用行为。这不仅扰乱网络信息传播秩序,增加公众获取真实信息的成本,甚至为诈骗等违法犯罪行为提供便利。
此外,若放任大量未准确标注的AI生成信息在网络世界“以假乱真”,还将进一步污染互联网信息与数据源。
不过,依然不能低估规则在落实上的复杂性。其实,关于AI标识的规定此前在一些文件要求中已经存在,不少平台也开展了相关实践和探索。但就实际情况来看,大量AI生成信息依然游离在规范之外。
如就在日前,奥运冠军全红婵、孙颖莎等运动员的声音被AI克隆后,用于短视频平台推销农产品;良品铺子一张“花生上树”的宣传海报,错误使用了由AI生成的图片素材,更引发全网热议。这类事件表明,对于AI内容标识,既不能高估创作者的自觉性、审核者的鉴别力,也不能低估一些人出于利益而规避标识的动机。
对此,平台的源头审核与信息传播过程中对于AI生成内容的常态化监测,显得非常重要。这考验的是技术能力,也是如何平衡好AI生成与人工创作内容生态的智慧。特别是,原创内容可能会被误判为AI生成,更考验平台的技术能力和相关的争议解决机制。
强调对所有AI生成内容必须给予标识,不应该被狭义理解为只是为防范虚假信息,它更是保障公众知情权和信息来源透明性的基本要求。
因此,平台执行好标注功能必须一视同仁,不能出于流量考虑给予选择性对待;其次,平台对于人工创作内容与AI生成信息的推广,在流量分配上是否存在差异,也是一个值得慎重对待的事情。在同等的流量分发机制下,是否会进一步鼓励更多AI生成内容的“创作”,从而抑制人工原创的动力,由此又会给整个互联网内容生态产生怎样的长远影响,需要全社会的共同思考。
更进一步看,如果未来互联网中大部分内容均来自AI生成,从监管者、平台到用户,我们是否已做好充分准备?
可以说,强制标识AI生成内容只是应对AI技术重塑互联网内容生态的第一步,未来仍有诸多的现实问题,需要各方在摸索中不断求解。
(原题为《“强制标记”考验平台AI治理主体责任》来源 澎湃新闻)