现实中的电车难题

谈到已经实现的思想实验,电车难题trolley problem)可以算是其中之一。当然,我说的不是美剧The Good Place中的那个电车难题实验。比利时根特大学的Bostyn等人去年在 Psychological Science 上发表了历史上首个真实版的电车难题实验[1],也就是那个经典的「如果杀死一个人能救下五个人,你会不会这么做?」的思想实验。不过在「实现」上得加上引号,是因为他们做实验用的不是人,是老鼠。而且也不是选择杀死一只还五只老鼠,而只是电击而已。

在这之前,最知名的电车难题实验是由《道德部落》一书的作者、哈佛大学心理学家Joshua Greene于2001年做的(那时候他还是一名研究生)。[2]但Greene的实验只是让被试思考电车难题,然后用fMRI研究人们做决策时候的大脑活动。Bostyn则是真正让被试在现实中做出决策。

其实Bostyn还真想过拿真人做实验。和Milgram经典的电击实验一样,电击肯定不会是真的,只是要让被试相信是真的(在Bosytn最后做的实验里对老鼠的电击也是假的)。但即便真做了这个实验,被试也肯定知道被电击的人是同意实验的,这会降低被试在电击他们时的负罪感。考虑到这个影响,Bostyn最终决定拿老鼠来做实验。很多人可能会觉得,干吗不用小猫小狗之类的。毕竟老鼠是「四害」,当年全民除四害,人们各展奇招来灭鼠,也没见谁有道德负罪感啊。而作者的回答是:小猫小狗太贵了……好吧,我们就不追究这个了,来看看他们的实验结果。

实验中,被试面前有个按钮,他们有20秒时间来做决定。如果不按按钮,一只笼子里的五只老鼠会遭到电击。如果按下按钮,则只有另一只笼子里的一只老鼠会被电击。最终,84%的被试按下了按钮,做出了功利主义效用最大化的决定。与这个真实实验同时进行的还有一个对照组的思想实验。在思想实验中,只有66%的被试决定按下按钮。这说明,在电车难题中人们怎么想的和怎么做的并不一致。

要说这个实验有什么现实意义,我想到的是MIT的Moral Machine[3]。可能很多人都做过这个无人驾驶汽车版的电车难题测试。作者希望最终能以此建立起一个被社会普通接受的人工智能道德准则。但如果人们真的像Bostyn实验中表现地那样言行不一,更好的方式或许不是归纳出一条条准则教给机器,而是直接让机器从人们的现实行为中学习道德准则。这有点像亚里士多德说的,道德是从后天的训练和教化中习得的。如果电车难题中的两个选择分别代表功利主义目的论和康德义务论的话,这种「自下向上」(bottom-up)的道德学习大概就更接近亚里士多德的思想吧。


  1. Bostyn et al. (2018). Of Mice, Men, and Trolleys: Hypothetical Judgment Versus Real-Life Behavior in Trolley-Style Moral Dilemmas.

  2. Greene et al. (2001). An fMRI Investigation of Emotional Engagement in Moral Judgment.

  3. Awad et al. (2018). The Moral Machine experiment.