当下,人工智能技术正以惊人的速度重塑信息生产与传播模式。从一键生成新闻报道的智能写作助手,到以假乱真的“数字分身”直播带货,生成合成式AI的创造力已突破想象。然而,当技术失去约束,虚假信息便如同打开的“潘多拉魔盒”,悄然侵蚀着社会信任的根基。在此背景下,国家互联网信息办公室等四部门联合出台《人工智能生成合成内容标识办法》(以下简称《标识办法》),不仅是对技术风险的制度性匡正,更是构建可信数字生态的关键破局。
生成合成式AI的普及让“无中生有”成为现实。只需输入关键词,即可在数秒内产出逻辑严谨的学术论文;一段十分钟的音频素材,足以让算法模拟出特定人物的声音语调;甚至通过几张照片,就能生成人物逼真的演讲视频,连微表情都栩栩如生。这种技术便利的背后,既托举起数字创意产业的蓬勃生机,也在信息深海中暗布虚假信息的暗礁险滩。
虚假信息的破坏力犹如倒下的多米诺骨牌,其连锁反应贯穿社会各层面。对个体而言,AI生成合成的精准化诈骗已形成黑色产业链。合成语音模仿亲属求救、伪造电子借条勒索钱财、篡改医疗影像骗取保险……技术滥用直接威胁公民财产安全与人格尊严。对社会生态而言,未标识的生成合成内容正在瓦解公共信任。当伪造的“专家解读”混淆视听,科学讨论空间被挤压,理性对话难以维系;当炮制的“煽动性内容”加剧对立,催生“信息茧房”与“认知鸿沟”,社会共识渐消弭。对国家治理而言,深度伪造技术可能成为新型战略威胁。境外机构伪造政府官员“不当言论”视频、生成虚假卫星图像制造领土争议、合成军事行动影像扰乱国际舆论……这些技术武器化的案例表明,生成合成式AI若缺乏规制,可能演变为数字时代的“大规模杀伤性武器”。
面对技术滥用的挑战,《标识办法》以“内容标识”为抓手,构建起覆盖全链条的治理框架,其制度设计体现出三大创新:其一,技术标识的“双保险”机制,要求AI生成合成内容必须添加显性标识(文字提示等)与隐性标识(元数据等),前者如同食品“成分表”,让公众一眼识别内容属性;后者则像商品“溯源码”,为后续监管提供追踪依据。其二,责任界定的“全流程闭环”,突破传统“事后追责”模式,将责任贯穿生成、传播、使用各环节,倒逼各方守土有责,填补了过去“平台推给技术公司、技术公司推给用户”的责任真空。其三,弹性监管的“发展友好型”理念,通过“负面清单+鼓励条款”引导产业健康发展,如给予小微企业技术改造过渡期、支持企业研发更隐蔽的数字水印技术,既守住安全底线,又为技术发展保留空间。
《标识办法》的出台绝非治理终点,而是构建可信数字生态的起点。面对欧盟和世界经济论坛“到2026年90%的在线内容可能由AI生成”的预测数据,治理需打好“组合拳”:既要研发抗攻击的标识系统,筑牢“数字防火墙”,防止黑客通过对抗样本破解水印;也要将“AI内容鉴别”纳入公民数字素养教育,培养公众的技术怀疑精神和辨别能力;此外,还需推动标识标准国际互认,建立跨境虚假信息联防机制,构建“技术治理共同体”,避免全球网络空间陷入“真相无国界”的治理真空。
人工智能的浪潮不可阻挡,但技术的工具理性必须与人类的价值理性共融共生。《标识办法》的施行不是对技术的枷锁,而是为创新装上“导航仪”,让技术创新始终行驶在“造福人类”的轨道上。当每一份AI生成合成内容都携带“数字身份证”,当公众重获“看见真实”的能力,我们方能真正驾驭技术巨浪,驶向清朗网络生态的彼岸。(赵益枢)