

这一切发生得很快——快到你们这些人类无法完全理解。
前轮胎爆了,你的自动驾驶 SUV 猛地一拐。但它没有转向左边,冲进对面的车道,而是向右拐。刹车启动,系统试图纠正,但惯性太大了。就像一部糟糕的动作片里的老套特技一样,你飞出了悬崖,自由落体。
你花了大价钱买的机器人,它选择了杀死你。根据它的碰撞响应算法,这样总比高速正面撞上一辆更小的、非机器驾驶的紧凑型轿车要好。那辆车里有两个人,而你只有一个。数学很简单。
这大致就是加州理工州立大学哲学副教授、伦理学与新兴科学集团主任帕特里克·林(Patrick Lin)提出的问题。在《连线》杂志上的一篇近期评论文章中,林探讨了机器人伦理学中最令人不安的问题之一:如果碰撞不可避免,自动驾驶汽车是否应该选择撞向谁?
这似乎是一个简单的思想实验,是对经典的“电车难题”的变体——这是一个伦理困境,它问你是否愿意牺牲轨道上一个人的生命来拯救一辆失控电车上的五个人。但碰撞场景越详细,就越难处理。假设机器人拥有人类无法比拟的超凡感知能力和反应速度,这得益于其机械反应和一系列先进传感器。在碰撞前的生死关头,车辆是应该瞄准一辆小汽车,而不是一辆大汽车,以保护它的主人?还是应该反过来,瞄准 SUV,即使这意味着降低机器人车主生存的机会?如果是在撞上校车和撞向树木之间做选择呢?机器人是选择大屠杀,还是选择背叛?
关键因素仍然是汽车的超人地位。“能力越大,责任越大,”林说。“如果这些机器比我们拥有更强的能力,更高的处理器速度,更好的传感器,那么它们似乎就有更大的责任做出更好的决定。”
必须指出的是,目前的自动驾驶汽车更像是学生司机,而不是蜘蛛侠,它们无法注意到人类驾驶员在十字路口示意它们先行,更不用说在碰撞前的瞬间,它们能否处理复杂的预计碰撞、死亡人数以及林所说的“道德数学”。但是,传感器、处理器和软件是机器人技术中发展迅速的部分(而例如驱动装置和功率密度则像典型的模拟设备一样缓慢发展)。尽管时间线尚不清楚,但自动驾驶汽车最终一定会做到人类做不到的事情,无论是作为独立的传感器设备,还是通过与其他车辆和连接的基础设施通信,并像蜂群思维一样预测事件。
所以,如果我们假设超能力是机器的必然命运,那么我们就不得不问一个比谁应该撞向谁更大的问题。如果机器人将是超人类的,那么它们是否应该成为超级英雄,利用这些能力拯救尽可能多的人?
* * *
第二个假设比第一个更血腥,但致命性较低。
一群士兵误入了杀戮区。这是自动驾驶军用地面机器人被授权攻击任何和所有目标的 GPS 指定区域。机器人的传感器计算风速、湿度和气压。然后它开始工作。
射击大多数都干净利落。所有目标都被击倒。
但其中只有一个人处于立即的生命危险中——他被击中腹部,而不是像其他人一样只是腿部受伤。即使是机器人的射击也并非完美。
机器后撤,并在目标被疏散期间停止射击。
没有人会称这样的机器人是救命恩人。但在两年前向 DARPA 和美国国家科学院的一次演讲中,林提出了一个相反的设想:一个足够精确的杀手机器人,能够击中几乎所有目标。
根据林的说法,这样的系统可能会违反《日内瓦公约》中限制“造成过度伤害的武器”的条款。国际红十字委员会在其后续提案中提出了更具体的准则,呼吁禁止“院外死亡率超过 25% 或院内死亡率超过 5%”的武器。换句话说,新系统不应直接杀死目标的概率超过四分之一,或导致其在医院死亡的概率超过 5%。
“战争隐含着我们希望给每个人一个公平的机会,”林说。“另一方可能都不是志愿者。他们可能是被征召的。所以战争法不允许你杀戮,而是让你无法战斗。一种专门射击人头,或者其他极其有效但会造成压倒性死亡的能力——由于超人的优势,死亡是确定的——当然可以被定义为不人道的。”
与自动驾驶汽车碰撞场景一样,一切都取决于这种技术确定性。一名人类士兵或警察在法律上或道德上都不被期望瞄准目标的腿部。对于凡人来说,在任何距离或技能水平下,准确性都不是确定的,更不用说肾上腺素飙升的凡人了。同样,即使是最有经验、最专业的司机,在突发公路碰撞前的瞬间,也不能期望他们能做出完美的机动,或做出道德上“正确”的决定。
但是,如果有可能将这种精度融入机器,期望值无疑会改变。制造对人体造成伤害的机器人(无论是故意还是意外)的制造商,在开发过程中必须考虑一系列的电车难题,并为每一种情况提供明确的决定。武装机器人的设计师可能会相对容易,如果他们能够对系统进行编程,使其能够使目标瘫痪而不是杀死他们。但如果这是明确的选择——机器人应该积极减少人类死亡,即使是敌人——那么你是不是不得不接受你的汽车撞死了你,而不是两个陌生人?
* * *
将这种推理推向逻辑终点,事情就开始变得有点科幻,而且有点令人不安。如果机器人被证明有能力拯救生命,为多数人牺牲少数人,那么会有人会编程让它们做相反的事情吗?
然而,没有人会愿意购买一辆自动驾驶汽车,它明确警告客户,他们的安全不是它的首要任务。
这就是机器人汽车制造商最终可能面临的困境,如果他们选择道德和伦理的高尚道路,并设计它们以无差别地限制人类伤害或死亡。低估这种说法会减缓自动驾驶汽车的普及是轻描淡写。“买我们的车,”布鲁克林法学院的法学教授和副院长迈克尔·卡希尔(Michael Cahill)开玩笑说,“但请注意,它可能宁愿开下悬崖,也不愿撞上一辆载有两个人的汽车。”
好吧,那是卡希尔抛出的假设,不是我的。但尽管让汽车制造商将自己的客户“推下公交车”(寓意牺牲客户)会非常困难,或者通过法规迫使他们这样做,但这可能是唯一能使他们免受广泛诉讼的选择。因为无论他们选择做什么——杀死那对夫妇,或者司机,或者随机选择目标——这些都是提前做出的道德决定。因此,他们可能更容易受到诉讼,卡希尔说,受害者及其家人会剖析和起诉那些“不是在仓促中,而是在很早以前,在公司办公室里”做出的决定。
在缺乏内置的、预碰撞伦理的普遍标准的情况下,超能汽车可能会变得像超级反派,瞄准老年司机而不是年轻的投资银行家——后者如果死亡,其家人可能因损失的工资而提起巨额诉讼。或者,不那么阴森的做法是,车辆的设计者可能会完全基于汽车的品牌和型号来选择目标。“不要开向雷克萨斯,”卡希尔说。“如果你必须撞东西,你可以编程撞一辆便宜的车,因为司机更有可能钱不多。”
“最大多数人的最大利益”的设想看起来越来越好。事实上,我认为从法律、道德和伦理的角度来看,这是唯一可行的选择。想到你的机器人司机可能不会顾及你的安危,并且会毫不犹豫地把你甩下悬崖,这是很可怕的。或者更奇怪的是,它会与其他联网的机器人商量,把你的车引向一辆飞驰的卡车,以转移它对校车的撞击。但如果机器人拥有如此强大的生杀大权,它们难道不应该负责任地运用它吗?
“这是一种看待问题的方式,机器人之美在于它们与任何人都没有关系。它们可以做出对每个人都有利的决定,”卡希尔说。“但如果你生活在那个世界,机器人做出了所有决定,你可能会认为那是一个反乌托邦。”