现实中的电车难题

谈到已经实现的思想实验电车难题trolley problem可以算是其中之一当然我说的不是美剧The Good Place中的那个电车难题实验比利时根特大学的Bostyn等人去年在 Psychological Science 上发表了历史上首个真实版的电车难题实验[1]也就是那个经典的如果杀死一个人能救下五个人你会不会这么做的思想实验不过在实现上得加上引号是因为他们做实验用的不是人是老鼠而且也不是选择杀死一只还五只老鼠而只是电击而已

在这之前最知名的电车难题实验是由道德部落一书的作者哈佛大学心理学家Joshua Greene2001年做的那时候他还是一名研究生[2]Greene的实验只是让被试思考电车难题然后用fMRI研究人们做决策时候的大脑活动Bostyn则是真正让被试在现实中做出决策

其实Bostyn还真想过拿真人做实验Milgram经典的电击实验一样电击肯定不会是真的只是要让被试相信是真的Bosytn最后做的实验里对老鼠的电击也是假的但即便真做了这个实验被试也肯定知道被电击的人是同意实验的这会降低被试在电击他们时的负罪感考虑到这个影响Bostyn最终决定拿老鼠来做实验很多人可能会觉得干吗不用小猫小狗之类的毕竟老鼠是四害当年全民除四害人们各展奇招来灭鼠也没见谁有道德负罪感啊而作者的回答是小猫小狗太贵了……好吧我们就不追究这个了来看看他们的实验结果

实验中被试面前有个按钮他们有20秒时间来做决定如果不按按钮一只笼子里的五只老鼠会遭到电击如果按下按钮则只有另一只笼子里的一只老鼠会被电击最终84%的被试按下了按钮做出了功利主义效用最大化的决定与这个真实实验同时进行的还有一个对照组的思想实验在思想实验中只有66%的被试决定按下按钮这说明在电车难题中人们怎么想的和怎么做的并不一致

要说这个实验有什么现实意义我想到的是MITMoral Machine[3]可能很多人都做过这个无人驾驶汽车版的电车难题测试作者希望最终能以此建立起一个被社会普通接受的人工智能道德准则但如果人们真的像Bostyn实验中表现地那样言行不一更好的方式或许不是归纳出一条条准则教给机器而是直接让机器从人们的现实行为中学习道德准则这有点像亚里士多德说的道德是从后天的训练和教化中习得的如果电车难题中的两个选择分别代表功利主义目的论和康德义务论的话这种自下向上bottom-up的道德学习大概就更接近亚里士多德的思想吧


  1. Bostyn et al. (2018). Of Mice, Men, and Trolleys: Hypothetical Judgment Versus Real-Life Behavior in Trolley-Style Moral Dilemmas.

  2. Greene et al. (2001). An fMRI Investigation of Emotional Engagement in Moral Judgment.

  3. Awad et al. (2018). The Moral Machine experiment.