无人驾驶帝国
字体: 16 + -

第三百九十二章 ?“电车难题”有些假设很难成立

    隋老师接着说:

    “最近,一辆无人驾驶测试车就在亚利桑那州坦佩市撞死了岁的妇女 ee hertzberg,当时她正推着自行车横跨马路。

    在笔者分析了一番有关这次事故的法律内涵后,有些读者对我报以功利主义者的嘲讽。

    不过他们不知道的是,米国去年因为横穿马路而遭遇车祸身亡的人数高达 5376 人,而新闻可不会对这些事故进行逐一报道。

    很快,无人驾驶汽车就能减少甚至把行人死亡的情况降为零。

    如果把这种想法套进电车难题,你就会发现轨道变成了时间,而非空间。

    虽然牺牲一边轨道上的那个人依旧是个悲剧,但如果它的代价是拯救数千人,恐怕也会变得合乎情理。

    问题在于,这样的立场需要假定 hertzberg 的死与其他不幸的行人一样。

    从统计学上来说,这能说得过去,但从道德上看,恐怕就不是一回事了。

    未来,如果不出意外,无人驾驶汽车肯定能避免坦普市的悲剧,毕竟传感器和计算机比人类反应要快得多。

    随着无人驾驶测试车致命事故的细节逐渐浮出水面,许多专家称这起事故完全可以避免。”

    这时,刘浩同学举手问道:“隋老师,能确定无人驾驶会减少或者避免交通事故吗?”

    隋老师说:

    “理论上是肯定的。但实践中,可能有一个过程,而且可能。

    谷歌way e 还专门出面补刀称自家技术完全可以避免事故的发生,毕竟它们的司机每 5600 英里才需要‘碰’下方向盘,而 ber 的司机可要忙得多(每英里)。

    在亚利桑那的道路上,way 无人驾驶汽车与 ber 无人驾驶汽车的差别比无人和有人驾驶汽车之间的差别更为重要。

    不过,为了吸引更多公司来亚利桑那研究、测试和部署无人驾驶车辆,州长 dg dey‘网开一面’,在没有严格监管的情况下就放它们上路了。

    解决这些问题可不能靠揣摩电车难题的场景。

    如果放在 ber 这起致死事故中,就意味着测试车第一时间看到了 hertzberg,这时它才能相应做出选择,决定救路人还是保司机。

    此外,要进入电车难题的讨论范围,还要假设无人驾驶汽车足够可靠且安全功能有保证,即在电车难题中扳道的杠杆没有因为锈蚀而动弹不得。

    不过,这次事故以上两个假设都不成立。

    其实富特已经预料到了场景中上下文缺失的问题。

    ‘在现实中,’她写道。‘你很难说那位孤零零被绑在铁道上的人就必死无疑。也许他能找到个立足点并在电车通过前救自己一命呢。’

    想要一个个探索完这些无限的可能,一种方式就是一遍遍的实验并从公众的反应中搜集模式,这也是‘道德机器’的方法,就像现在最火爆的机器学习一样,一个庞大的数据集必不可少。

    不过,另一种方式则是在最合适的道德背景下考虑特定的问题。

    富特还提供了一个典型例子,相比电车难题,它与 ber 的致命车祸有更多共同点。

    富特将场景搬到了医院,假设医院有五个病人,他们的疾病只有一种特殊的气体能治好,不过在使用时这种气体释放的毒物却飞进了旁边的病房,而该病房中的病人都无法移动。

    在这样的情况下,其效果确实很像经典的电车难题,但在许多结论上又不是那么明显。

    这不仅是因为目的和可预见的效果有所不同,还因为避免造成伤害的道德工作原理不同。

    在电车难题中,驾驶员根本别无选择,无论他走出哪一步,都会带来惨痛的后果,而在医院这个例子中,医生则面临一个冲突的选择,他要么施以援手,要么祸害其他病人。

    事实上,无人驾驶测试车面对的情况更加棘手,因为各方(ber、安全司机和政府)对车辆的状态都没有一个准确的认识。

    这让无人驾驶致命事故的道德情景与未来车辆伤亡撇清了关系,它让人更多的联想到政府监管、公司披露和交通政策。”

    这时,沈笑夫举手问道:“隋老师,请问电车道德问题复杂吗?”

    隋老师笑着答道:

    “应该说比较复杂!

    如果无人驾驶这起事故成了道德哲学中能同时满足技术人员、市民和政策制定者需求的先例,那么这场灾难可能会成为道德运气的代表。

    这里还要举一个例子,假设一名喝醉的男子晚上冒险开车回家并最终安全到家,那么在同样的情况下也有可能发生事故。

    一般来说,后者的罪责会更大,但其实两者都有错在先,唯一的不同就是结果罢了。

    由此看来,无人驾驶汽车的致命车祸并不代表价值中立或理直气壮的牺牲一位路人,以保全未来乘客的安全。

    相反,它强调了这样一个事实,那就是积极结果(如更安全的车和行人等)很容易成为无人驾驶汽车道德运气的功能。

    道德运气还为无人驾驶汽车提供了其他途径的思考。

    在无人驾驶汽车上,我们很难确定它们的自主行为。

    那么,无人驾驶汽车司机清楚的知道且理解自己一举一动可能造成的后果吗?

    人类能切入机器操作,但又不进行积极操作吗?

    亚利桑那的邀请是否能帮无人驾驶公司减轻罪责呢?

    这些问题现在都成了事故的焦点,无论是在亚利桑那还是其他地方。

    不过,对 ee hertzberg 来说,这恐怕只能算一个无用的安慰。

    这样子很复杂吧?”

    同学们你纷纷点头。

    确实复杂,都有些晕了!

    隋老师接着说:

    “这堂课的目的不是要责怪或者赞美谁,也不是要庆祝或哀悼无人驾驶汽车的未来。

    相反,我们在呼唤更多的道德复杂性,这是解决现在和将来无人驾驶汽车问题的必需品。

    所谓的伦/理并非将一个简单的微积分套在某种情况上,当然也不是人类有关某个典型案例的意见集合。

    当工程师、批评家、记者或普通人认为电车难题才是无人驾驶汽车的终极拷问时,他们就自动放弃了对更为复杂道德情况的思考。

    对哲学家来说,虽然实验是考虑未知结果或重新考虑已经接受观点的好方法,但它也只是一种思考工具,并非现成的菜谱。

    电车难题让人们产生了误解,以为无人驾驶汽车是已经可靠存在的成熟技术,某些假设的抽象道德行为可以针对性解答了。

    事实上,我们离真正的无人驾驶时代还有距离。

    与此同时,市民、政府、汽车制造商和科技公司必须继续探索,找到更多有关无人驾驶汽车的复杂道德后果的问题。”