谁会被自动驾驶汽车杀死? 机器,尽可能多地救人,但最重要的是,救我!
技术

谁会被自动驾驶汽车杀死? 机器,尽可能多地救人,但最重要的是,救我!

如果出现这样一种情况,即汽车的自主系统必须快速选择在即将发生事故时牺牲谁,它应该如何反应? 牺牲乘客救行人? 如有必要,杀死一个行人以备不时之需,例如,一家四口乘车旅行? 或者,也许他应该始终首先保护自己?

虽然仅在加利福尼亚就有 1 多家公司已经获得了个人测试许可,但很难说该行业已准备好面临道德困境。 目前,他正在努力解决更基本的问题——系统的操作和导航效率,以及简单地避免碰撞和意外事件。 在最近在亚利桑那州谋杀一名行人或随后发生车祸(XNUMX)等情况下,到目前为止,这只是系统故障,而不是汽车的某种“道德选择”。

拯救富人和年轻人

做出这些决定的问题不是抽象的问题。 任何有经验的司机都可以证明这一点。 去年,麻省理工学院媒体实验室的研究人员分析了他们在 2014 年启动的研究过程中收集的来自世界各地的超过 XNUMX 万份回复。他们称之为“道德机器”的民意调查系统显示,在世界各地世界上,类似的问题被问到不同的答案。

最普遍的结论是可以预见的。 在极端情况下 人们更喜欢救人而不是照顾动物,旨在拯救尽可能多的生命,并且往往比老年人年轻(2)。 在拯救女性而不是男性、地位较高的人而不是穷人、行人而不是汽车乘客方面,也有一些但不太明显的偏好。.

2、汽车应该救谁?

由于近 XNUMX 万受访者填写了人口统计问卷,因此可以将他们的偏好与年龄、性别和宗教信仰联系起来。 研究人员得出结论,这些差异并没有“显着影响”人们的决定,但注意到了一些文化影响。 例如,法国人倾向于根据估计的死亡人数来权衡决策,而在日本则最不重视。 然而,在旭日之国,老人的生命比西方更看重。

“在我们允许我们的汽车做出自己的道德决定之前,我们需要就此进行一场全球辩论。 当致力于自主系统的公司了解我们的偏好时,他们将在基于这些偏好的机器中开发道德算法,而政治家可以开始引入适当的法律规定,”科学家们在 2018 年 XNUMX 月的《自然》杂志上写道。

参与道德机器实验的一名研究人员让-弗朗索瓦·邦内方特发现,对拯救地位较高的人(例如高管而不是无家可归者)的偏好令人担忧。 在他看来,这与 特定国家的经济不平等程度. 在不平等更大的地方,人们优先考虑牺牲穷人和无家可归者。

之前的一项研究特别表明,根据受访者的说法,自动驾驶汽车应该保护尽可能多的人,即使这意味着失去乘客。 然而,与此同时,受访者表示他们不会购买以这种方式编程的汽车。 研究人员解释说 虽然人们发现拯救更多人更符合道德,但他们也是自利的,这可能向制造商发出信号,表明客户将不愿购买配备利他系统的汽车。. 前段时间,奔驰公司的代表说,如果他们的系统只救了一个人,他们会选择司机,而不是行人。 一波公众抗议迫使该公司撤回其声明。 但研究清楚地表明,这种神圣的愤慨有很多虚伪。

这已经在一些国家发生。 法律监管的首次尝试 在领域。 德国通过了一项法律,要求无人驾驶汽车不惜一切代价避免受伤或死亡。 该法律还规定,算法永远不能根据年龄、性别、健康或行人等特征做出决定。

奥迪负责

设计师无法预测汽车运行的所有后果。 现实总是可以提供以前从未测试过的变量组合。 这完全破坏了我们对“合乎道德地编程”机器的可能性的信念。 在我们看来,在“由于汽车故障”而出现错误和悲剧发生的情况下,责任应该由系统的制造商和开发商承担。

也许这个推理是正确的,但也许不是因为它是错误的。 相反,因为允许进行的运动并非 2019% 没有实现它的可能性。 这似乎是原因,该公司并没有推卸共同责任,该公司最近宣布将对使用自动交通拥堵飞行员 (8) 系统的 3 岁 AXNUMX 发生事故负责。

3. 奥迪堵车导航界面

另一方面,有数以百万计的人驾驶汽车并且也会犯错误。 那么,为什么机器,在统计上比人类犯的错误要少得多,正如许多错误所证明的那样,在这方面要受到歧视呢?

如果有人认为自动驾驶汽车世界中的道德和责任困境很简单,请继续思考......

添加评论