道德考量
无人驾驶汽车的问题可以概括为自动驾驶汽车的道德规范。在问题的经典版本中,有一辆车沿着车道行走,驾驶员必须在保持车道和切换车道之间做出选择。如果继续保持在当前车道上,那么将有五人被杀。但是,如果他切换车道,则会只有一个人会被杀死。 2014年,麻省理工学院的研究人员建立了“道德机器”,以测试世界各地人们对自动驾驶汽车可能会遇到的棘手问题的态度和方法。
本质上,车辆必须选择要撞到的东西。例如,汽车将与宠物发生相撞,是否应该转弯而与人相撞?这类情况是为残疾人、年老、年轻、守法的公民、罪犯、男人,妇女、健康和有病的人设立的。
该研究的主要作者Edmond Awad解释说:“该研究基本上是在试图理解无人驾驶汽车可能要诉诸的道德决定。我们还不知道他们应该怎么做。”如果车辆能够识别出犯罪分子,那么它必须非常聪明才能找出适合的人以及隐私隐患,但是我们仅假设车辆可以做出这样的区分。
四年后,研究人员得到了答案。编入无人驾驶汽车的决策可能必须取决于汽车的位置。例如,假设车辆必须在撞上老人或儿童之间做出选择。在法国和希腊,这种文化使年轻人可以幸免。然而,在中国和日本,老年人受到更多的尊重,更受欢迎的选择是使老年人处境更加安全。但是,对于各种选择,文化态度并不相同。考虑到在节省旅客和行人之间可以做出选择,日本和中国处于相反的境地。日本人想挽救乘客,而中国人想饶恕行人。
研究人员从道德引擎中学到的东西是,人们想要的可能不是最佳的道德选择,决策者可能需要介入并确保这些工具做出与大众期望相反的决定。例如,世界上大多数人都认为,将地位高的人的安全放在地位低的人的安全上是可以接受的。
现在的事情是,当车辆被编程为以某种方式起作用时,它将在每次具有相同选择的情况下都选择该选项。例如,可以对车辆进行编程以使一个8岁的孩子免于受伤,并撞到一个80岁的男人。现在,每次得到选择时,它都会做同样的事情,乘客无权干预此决定,制造商已经做出了道德选择。
在法国的中国乘客上车时可能会面临道德难题。乘客可能会更加犹豫,因为他们知道与行人相比,自己的生活将受到较低的重视。一种建议是,如果出现这种情况,则将控制权提供给驾驶员。但是,有研究表明,大多数人根本无法做出足够迅速的反应来做出这样的决定,因此这不是可行的方法。所有这些考虑都引出了一个问题,人类是否愿意让计算机做出生死攸关的决定?
但是,考虑到自动驾驶汽车的实际工作方式,决策可能不会那么简单,而只是做出选择并继续前进。决策过程是连续的,就像从所有传感器了解周围环境和车辆当前状态的过程一样。在自动驾驶汽车的计算机大脑中,权重赋予了某些概率,并根据这些概率采取后续行动。
例如,看似纯白色的表面可以解释为雾墙,实际上可能是水泥墙或卡车的后部。对功能性质进行的任何判断都可能随时随地更改。这通知了车辆做出的决定。因此,将道德考虑因素真正纳入自动驾驶汽车的编程是一项非常细微的工作。车辆可能不得不在没有完整的周围环境信息的情况下做出决定,这受到车载传感系统的限制。