一张花生长在树上的海报,让知名零食品牌良品铺子登上热搜,也暴露出AI技术广泛应用下令人担忧的常识缺失问题。
近日,良品铺子一款花生产品的宣传海报出现令人啼笑皆非的错误:花生竟然长在了树上。众所周知,花生是地上开花、地下结果的作物,这一初中生物学知识却在此次AI生成的海报中被完全颠覆。
事件曝光后,良品铺子回应称是“错误使用了由AI生成的图片素材”,并迅速下架和更换了相关图片。然而这场看似滑稽的乌龙事件,却引发了广泛的社会反思。
良品铺子并非首个遭遇AI常识滑铁卢的企业。2025年3月,某公司户外广告中的AI生成模特出现了六指画面。
OpenAI的Sora团队公布的一段AI生成视频中,竟然出现了用4条腿爬行的蚂蚁,还出现了“玻璃杯刚被抬起,桌面就先出现玻璃碎片”等多种反常识场景。
AI在专业领域表现出色,却在基础常识上屡屡犯错。研究显示,AI模型在处理“今天是周三,100天后是周几”这类问题时,错误率高达30%。
更令人担忧的是,97%的受访大学生遭遇过AI错误输出,超半数人被虚假数据、伪文献坑害。
AI为何频频在常识问题上“翻车”?当前多数通用AI模型仍依赖互联网数据,而这些数据本身包含大量刻板印象或错误信息。
AI虽擅长各类模式识别,能快速模仿图像、文字的表面特征,却缺乏对现实世界的感知与主动实验能力,进而缺失因果推理能力。
麻省理工学院计算机科学教授Josh Tenenbaum指出:“当前AI的‘智力’更多体现在模式匹配而非真正理解。要让AI融入日常生活,必须教会它们像人类一样感知空间、理解时间。”
AI系统在某些专业领域表现出了高水平的性能,但在其专业领域之外的表现极差。这种特点使AI被称为“低能特才者”,即在某些特定任务中表现出色,却缺乏通用常识。
良品铺子“花生上树”事件暴露了企业内容审核环节的严重失职。无论是设计人员对AI生成素材缺乏基本的常识判断,还是审核流程中各环节未能及时发现问题,都暴露出企业内部管理的松散。
数据显示,事件曝光后24小时内,良品铺子电商旗舰店该产品销量下降17%,相关话题在社交媒体阅读量突破2.3亿次,品牌方不得不投入大量资源进行危机公关。
作为“高端零食第一股”,良品铺子的企业形象建立在消费者信任之上。如果连花生长在哪里这种常识都混淆,包装袋上有关食品安全的专业信息又该如何取信于人?
面对AI幻觉挑战,企业正在构建“AI+专业”的防护网。良品铺子事件后,一些企业建立了“AI生成-专业审核-伦理审查”三级机制,要求食品类宣传素材必须经农业专家签字确认。
技术层面,AI行业正在探索解决方案。可解释性AI通过特征归因技术,让算法生成内容时标注知识来源。
对抗训练在模型训练中加入“常识攻击”环节,故意输入错误前提,强化模型纠错能力。
开发可视化审核工具,将AI生成内容的科学性质疑点高亮显示,辅助人工复核。
“AI幻觉”的危害早已超越技术瑕疵范畴,正在多领域埋下隐患。55%的受访大学生遭遇过参考文献推荐错误,有同学因AI混淆历史事件的时间与人物,不得不推倒重来。
更隐蔽的危害在于认知侵蚀。不同AI模型对同一问题的答案经常存在较大差异,且暗藏价值偏向。假如不加以区分、辨别,将悄然扭曲个人认知。
治理“AI幻觉”需社会共治。开设“AI内容甄别”课程,通过模拟报道实训强化学生的“求证意识”。
用户自身也需培养“AI素养”,养成对信息进行交叉验证的习惯。监管层面则需加快出台行业标准,明确AI生成内容的权责边界。
技术可以一日千里,但企业不能把管理责任和市场信任踩在脚下。良品铺子之后迅速建立了“AI生成-专业审核-伦理审查”三级机制,要求食品宣传素材必须经农业专家签字确认。
AI技术正在重塑各行各业,但工具的创新不能成为责任缺失的借口。技术可以提升效率,却无法替代专业领域的知识积累和严谨求实的职业精神。
在知识爆炸的时代,持续学习不是选择题而是必答题。唯有如此,我们才能在技术狂飙中守住常识的锚点,在创新浪潮中筑牢信任的基石。