有个无人驾驶 的伦理问题,你一定没想过业界
Google的无人驾驶 已经发生了很多事故,前几天,Google披露在7月1日的一次测试中,一辆经过Google改装的雷克萨斯SUV在加州山景城遭到追尾,车上的3名Google员工受了轻微的皮外伤。然而无一例外,这些事故的原因都不是Google无人驾驶 自己的问题,至少Google一直坚持这么说;毕竟这些事故中有很多都是Google的无人驾驶 被追尾导致的。
那么为什么Google的无人驾驶 不能在追尾即将发生时进行变道而避免事故发生呢?
事实上,他们可以办到这一点,但是在这么做之前,他们还有一些道德上和法律上的问题需要解决。
防撞的技术一直都存在,不管对方是另一辆 ,还是一个行人或者其它物体,装备这项技术的 应该都能对可能发生的撞击采取措施而进行规避。到目前为止,这项技术都还只用到防止前方撞击上,但理论上,这些技术也可以用在防止追尾上,但首先,还需要考虑以下的问题:
可能的事故场景
想象一下你的自动驾驶 停在路口等待着你前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来了,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的 具备规避程序,那么你的 应该怎么做呢?如果你的车子可以立马躲开,移到旁边的车道去,那么这辆卡车就会冲进路口,碾压行人。
那么这样的自动驾驶程序是合情合理的吗?在大部分的追尾事故中,这样的规避也许无可厚非,但是在类似于这种情况的特殊情况(其实并不罕见)下,让自己受一点小伤还是拱手送上无辜行人的性命,选择显而易见。
因为,这个时候可以认为你(或你的车)应该对被无辜碾压的行人负责,因为正是你(或你的车)的规避动作导致了这一事故的发生。由此带来的道德和法律后果就需要你(或车辆负责人)承担。
这样的状况可能在今天的 驾驶中也会出现,在发生事故时,你可能本能地保护自己而给别人造成伤害。看起来和无人驾驶 造成的后果一样,但是人类不是全然理性的生物,在遇到紧急状况时并不能做出理智的决定——人类会感到惊慌。然而无人驾驶的机器就不一样了,它的决定都来自于经过了深思熟虑之后的程序和算法,由此带来的后果就不太容易让人原谅。而且如果是程序员故意设置这样的程序,那么甚至可以将这种事故定义为“蓄意谋杀”,即使是考虑不周,也可能被定义为“重大过失”。
不管哪种可能,对程序员和开发者来说都是难逃法律干系的。当科技公司用机器来取代人做决定的时候,也就给自己带来了新的责任和义务。
道德困境
但是别急,这样的问题难道在前端碰撞时就不存在吗?后端碰撞有什么不同?
其中最大的不同之处在于,追尾发生的时候,责任通常是在后车——通常是因为后车跟车太紧,没法对前车的动作做出及时的反应;或者后车驾驶员分心了。所以对于无人驾驶 而言,被追尾是没有法律责任的。而如果无人驾驶 在行进过程中发现了前方车辆,那么它就有责任进行规避,避免可能发生的事故。
在无人驾驶引起的伦理问题上,这两种情况也是不同的。这个问题有一个被称为“电车难题”的通用版本,由哲学家Phillipa Foot和Judith Jarvis Thomson提出,在这种情况下,无人驾驶 做出的规避选择是完全合法的:它躲开了可能直接造成的伤害,也没有给其他人带来直接的伤害,但是这种合法却是不道德的,所以也就是说,仅仅让无人驾驶 的程序满足法律规范是不够的。
那应该怎么办?
有这样或那样的麻烦并不意味着我们应该禁止无人驾驶 上路,而是意味着我们应该为可能发生的情况早做准备。有时候,无人驾驶 可能会面临两难的选择,这就给开发者带来了潜在的困难和挑战。
为了减少这种风险,行业应该在设置用户期望和社会影响上做更多的工作,它们应该让公众明白无人驾驶 的能力和限制,这就意味着算法透明,而不是让我们无法理解计算机程序掌控我们的生命。
而且算法透明对生产商和服务提供商来说也是好事,当事故发生的时候,他们也能更好地面对法律和道德上的责难。
没有任何技术是完美的,事故还将继续发生。对待可能发生的问题,我们要保持开放和对话,就像上个月斯坦福大学的“针对自动驾驶 的编程伦理学问题”做的那样。因为无人驾驶是一件重要的造福大众的事业,我们只有在确定可能存在的问题之后才能为之确定可能的解决方案。
via Forbes
1. 遵循行业规范,任何转载的稿件都会明确标注作者和来源;2. 的原创文章,请转载时务必注明文章作者和"来源: ",不尊重原创的行为 或将追究责任;3.作者投稿可能会经 编辑修改或补充。