人类社会正在步入一个人机物三元融合的时代。当北京亦庄的自动驾驶出租车因突降暴雨误判道路标线,与交通信号灯系统发生数据冲突时,这场技术故障不仅暴露了算法漏洞,更揭示了人—机—物三元融合时代的深层伦理困境——在智能汽车、城市基础设施与人类行为构成的复杂网络中,技术系统的自主决策权如何分配?数据主权归属何方?生命价值能否被量化计算?
当下,自动驾驶面临着典型伦理困境:
(一)责任归属的模糊性困境 2018年,Uber自动驾驶测试车在亚利桑那州撞死一名行人,这起事故引发了强烈的责任归属争议。事故发生时,车辆处于自动驾驶模式,安全员未能及时干预。从“人”的角度,安全员可能因失职需承担责任;从“机”的方面,算法缺陷或系统漏洞也可能是事故原因;从“物”的层面,道路状况、天气因素或许影响了传感器的感知精度。最终,Uber仅承担民事赔偿,未受到刑事指控,这种结果凸显了在人—机—物交互场景下,责任界定缺乏清晰的标准和法律依据,难以对相关主体进行有效追责。
(二)隐私与数据安全的严峻威胁 数据是人工智能技术发展的关键要素,自动驾驶汽车运行过程中会收集大量数据,包括驾驶者的行程信息、生物特征,以及道路、周边物体的各类数据。黑客可通过攻击获取车辆行驶轨迹和车内人员信息。一旦泄露,不仅侵犯个人隐私,还可能影响公共安全,例如恶意篡改交通数据导致交通瘫痪。
(三)价值冲突与决策伦理的矛盾 当自动驾驶车辆面临紧急情况时,不同主体的价值诉求往往会产生冲突。
2016年,麻省理工学院开展了一项名为“道德机器”(Moral Machine)的在线实验,模拟“电车难题”场景,保护车内乘客安全可能会牺牲行人,而优先保护行人又可能损害乘客利益。这背后涉及“人”的生命权、“机”的算法价值取向以及“物”的物理限制。
实验结果显示,不同文化背景的人群在选择上存在显著差异,这充分体现了伦理决策的复杂性和多样性,这使得人工智能算法难以制定统一的决策标准。
传统伦理体系主要基于人与人之间的关系构建,在人—机—物三元融合时代,面对人、机、物之间的新型关系,传统伦理难以提供有效的指导。需要重新构建适应三元融合的伦理理论和规范体系。
人—机—物三元融合正在重塑技术伦理的底层逻辑。正如控制论创始人诺伯特·维纳(NorbertWiener)在《人有人的用处》中所说:“我们必须学会与技术系统共同进化,在承认物之能动性的基础上,重建包含人、机、物的新伦理契约。”唯有如此,三元融合才能真正成为文明进步的阶梯,自动驾驶也真正从“风险游戏”升华为“安全革命”,在敬畏生命的底色下驶向未来。
本文作者:之江实验室智能社会治理实验室 吕明杰
来源:新民晚报 作者:吕明杰