中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
创始人
2025-06-11 11:41:16
0

6 月 11 日消息,从中国科学院自动化研究所微信公众号获悉,近日该所神经计算与脑机交互(NeuBCI)课题组与中国科学院脑科学与智能技术卓越创新中心的联合团队结合行为实验与神经影像分析,首次证实多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。这项研究不仅为人工智能认知科学开辟了新路径,更为构建类人认知结构的人工智能系统提供了理论框架。相关研究成果以 Human-like object concept representations emerge naturally in multimodal large language models 为题,发表于《自然・机器智能》(Nature Machine Intelligence)。

人类能够对自然界中的物体进行概念化,这一认知能力长期以来被视为人类智能的核心。当我们看到“狗”“汽车”或“苹果”时,不仅能识别它们的物理特征(尺寸、颜色、形状等),还能理解其功能、情感价值和文化意义 —— 这种多维度的概念表征构成了人类认知的基石。

传统人工智能研究聚焦于物体识别准确率,却鲜少探讨模型是否真正“理解”物体含义。论文通讯作者何晖光研究员指出:“当前 AI 能区分猫狗图片,但这种‘识别’与人类‘理解’猫狗的本质区别仍有待揭示。”团队从认知神经科学经典理论出发,设计了一套融合计算建模、行为实验与脑科学的创新范式。研究采用认知心理学经典的“三选一异类识别任务”(triplet odd-one-out),要求大模型与人类从物体概念三元组(来自 1854 种日常概念的任意组合)中选出最不相似的选项。通过分析 470 万次行为判断数据,团队首次构建了 AI 大模型的“概念地图”。

实验范式示意图。a,物体概念集及带有语言描述的图像示例。b-d,分别针对 LLM、MLLM 和人类的行为实验范式和概念嵌入空间。

研究人员从海量大模型行为数据中提取出 66 个“心智维度”,并为这些维度赋予了语义标签。研究发现,这些维度是高度可解释的,且与大脑类别选择区域(如处理面孔的 FFA、处理场景的 PPA、处理躯体的 EBA)的神经活动模式显著相关。

研究还对比了多个模型在行为选择模式上与人类的一致性(Human consistency)。结果显示,多模态大模型(如 Gemini_Pro_Vision、Qwen2_VL)在一致性方面表现更优。此外,研究还揭示了人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。本研究表明大语言模型并非“随机鹦鹉”,其内部存在着类似人类对现实世界概念的理解。

相关内容

热门资讯

苹果iOS 26引争议 “液态... 【CNMO科技】北京时间6月10日凌晨,苹果在一年一度的WWDC开发者大会上发布了iOS 26,并称...
如何通过破坏系统构建弹性系统 企业必须主动以受控的方式破坏自己的系统,以防止灾难性故障。这种做法被称为混沌工程,在云原生应用的复杂...
原创 俄... 据环球网报道,当地时间6月8日,乌克兰总统泽连斯基在接受美国广播公司采访时透露,美国已将原计划援助乌...
从“未来科技”到“幸福烟火”,... 成都未来科技城成立五周年 成都未来科技城成立五年来, 基础设施持续完善、 城市功能全面跃升, 绿化景...
每斤22元 进口榴莲为何降价?... 封面新闻记者 邹阿江 图由青白江区委宣传部提供 近期,“榴莲价格出现腰斩”登上热搜,不少网友表示,价...
又一固态电池大会即将于6月举行... “第五届中国国际固态电池科技大会暨2025先进电池材料与智能装备技术展”将于2025年6月19-20...
手机厂商纷纷进军人形机器人领域... 随着生成式AI的快速发展,机器人产业的技术得到显著提升,人形机器人也逐渐受到各界的广泛关注,各路资本...
专家解读|推进智能社会发展与治... 习近平总书记指出,人工智能作为引领新一轮科技革命和产业变革的战略性技术,深刻改变人类生产生活方式,强...
破解量子计算威胁:格尔软件展示... 6月11日,英伟达CEO黄仁勋在GTC巴黎主题演讲中指出,量子计算正逼近临界点:自30年前首个物理量...
原创 “... 如果一个用人单位压根儿就不想录用某个考生,那完全可以礼貌地拒绝,或者通过分数如实显示该学生的能力确实...