人工智能技术迅猛发展,为各个产业领域的应用都带来重要的技术迭代和变革。当前内容生成成为人工智能的主要应用形式之一。人工智能生成、合成内容已囊括文本、图片、视频、虚拟场景等多种形式。毋庸置疑,人工智能生成内容技术的发展,降低了内容生成门槛,改变了传统内容生产方式,为互联网内容生态带来了全新的变革和机遇,同时也伴随着风险、挑战和治理难题。亟需构建具有针对性的治理机制,推动内容标识的规范使用,并将其作为重要举措纳入法治化框架。《人工智能生成合成内容标识办法》和《网络安全技术 人工智能生成合成内容标识方法》强制性国家标准从实体规则和配套技术标准层面,对内容标识规定的细化落地和统一适用提供了重要的制度方案。
一、人工智能生成合成内容的治理难题及其法治应对
通过人工智能生成合成技术降低了内容“伪造”“造假”等的时间成本,尤其在图片、音频、视频等领域,从早期引起广泛关注的“换脸”工具,到伪造人声、通话视频的诈骗活动,再到“被压在废墟下的小男孩”等热点事件,人工智能技术带来的深度伪造、虚假信息、不良信息、抄袭侵权等问题,集中涌现出来,对包括内容治理在内的网络空间秩序构成挑战,对于治理工具、方式和手段也提出了更新更高的要求。
为应对人脸替换、语音合成、场景造假等深度伪造技术带来的挑战,我国已经通过出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规定对此进行回应,规定了服务提供者、技术支持者的相关义务,包括避免用户混淆或误认,杜绝违法信息和虚假信息传播,对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照相关规定保存日志信息等。
二、从法治层面进一步细化内容标识规定的必要性
三、促进内容标识义务全面落地的法治化路径
《人工智能生成合成内容标识办法》及其配套技术标准的出台,有望在法治化的基础上进一步规范我国人工智能生成合成内容标识应用实践,厘清不同主体的责任边界,建立标准化的标识互认机制,有效降低公众辨识人工智能生成合成内容的成本,减少生成合成内容带来的误导乃至欺诈风险,通过提升人工智能应用的透明度来增强公众的认知能力和信任程度,在透明、可信、安全的内容生态建设基础上,促进信息的有效流动,推动代表新质生产力的人工智能产业快速健康发展。通过各方主体形成合力,共同培养培育生成、传播内容的媒介素养和行为伦理,方能标本兼治,推动形成更加健康有序、风清气朗的网络内容生态空间。
作者: 刘晓春 中国社会科学院大学互联网法治研究中心主任