来源:滚动播报
(来源:上观新闻)
人工智能的发展越来越迅速,引起的伦理问题也越来越受到人们的重视。从道德主体的角度来看,智能机器人无法成为真正的主体,因为它不可能拥有心智状态,而拥有心智状态是成为道德主体的必要条件。从道德接受者的角度来看,只有当智能机器人能主动地面向人类,或者某人与智能机器人发生过有意义的关联时,智能机器人才能获得道德接受者的地位。而且,这样的智能机器人必须具备对话能力,会使用某种语言。
智能机器人是否具有心智状态呢?在我看来,虽然心智状态和智能机器人一样,都依附于物理性的存在,但是,二者之间仍然存在着巨大的差异。
从本体论的角度来看,心智状态与物理存在之间有着本质性的区别。首先,心智状态的一个基本特点是具有意向性,即总是关于对象的。通常情况下,我们认为,物理性的存在并不具备意向能力。智能机器人也是如此,它无法具备意向能力。智能机器人大体可以分为两个部分,即大脑与躯体。其大脑部分的核心是算法程序,而躯体部分则是由一系列物理性存在构成。物理性存在不具备意向能力,因此,我们需要讨论的核心是算法本身是否具备意向能力。目前学界流行的算法大概有五大类,即规则和决策树、神经网络、遗传算法、概率推理和类比推理。这些算法本身虽然运行模式各异,但仍然遵从“输入—输出”模式。也就是说,只有当有信息输入时,智能机器人才会有输出。而且,这种信息正常情况下应该是真实的信息,但这明显与我们所说的意向能力不同。
从认识论的角度来看,心智状态通过理解总是体现出语义特征,但智能机器人无法达到真正的理解。塞尔的“中文屋思想试验”明确地表达了这一论点:塞尔不懂中文,但是通过一本中英文对照手册就可以将中文输入,再按照一定的规则输出中文,在外人看来,塞尔似乎懂中文,因为他的中文输出和懂中文的人的输出类似,但根据前提假设,塞尔本人不懂中文。塞尔认为,这一过程其实就是计算机的运行过程。因此,我们不能认为计算机具备理解的能力。
有些学者并不同意塞尔的论证。他们认为,目前的智能机器人并不能等同于计算机。在一定程度上,这一反驳是合理的,但是,这并不能反驳我们的最终结论,即智能机器人不具备语义理解能力。在塞尔的“中文屋思想试验”中,计算机程序被视为符号的输入与输出,而目前的智能机器人比计算机程序更复杂,其根本特征在于,它不但有符号的运行,还能与外界发生因果联系。问题在于,这两者都不能体现出语义特征。符号的输入与输出只有句法特征,没有语义特征,而因果关系同样无法体现出理解的语义特征。如果认为因果关系具备语义表征能力,那么,自然界中的很多事物都具有语义表征能力,比如动物甚至植物,因为这些对象本身受因果关系的限制,如树的年轮。
从价值论的角度来看,心智状态总是自由的状态,不受特定目的的限制。比如,它可以思考数学系统中的命题,也可以表征经验对象。但是,智能机器人不能如此,它总是受限于它从属的系统。以智能无人驾驶汽车为例,虽然可以在其系统内实现自由选择,比如从某地到某地的路线规划,但是它不能超出这一系统,去自由地选择完成别的事情,比如拿一个盒子、写一篇论文等。因为智能机器人总是为了某一个特定的目的被设计出来的,总是受到它的算法程序的限制。在适用于所有一切事项的终极算法被创造出来以前,智能机器人永远不可能突破它所属的系统。因此,智能机器人不可能实现真正的自由。
作者:上海大学哲学系副教授 戴益斌
原标题:《智能机器人该不该拥有“心智”?|新民·科技前沿》
栏目编辑:郜阳 文字编辑:张炯强 题图来源:新民晚报 制图
来源:作者:戴益斌