

昨天,互联网上充斥着一则机器人杀人的头条新闻,地点在德国。在耸人听闻的表面之下,隐藏着一个悲惨的真相:德国一家大众汽车工厂的一名工业机器人确实杀害了一名22岁的工人,他当时正在对其进行设置。尽管报道铺天盖地,但这似乎并非机器末日降临的开端——在我躲进自家后院掩体之前,我希望能得到第二种意见。瑞安·卡洛是华盛顿大学的法学教授,他曾发表过关于我们即将到来的机器人未来以及机器人与网络法之间互动关系的学术著作。
我通过电子邮件向卡洛提出了一些问题,并将他的回答与问题并列。在适当的地方,我还添加了链接。
《大众科学》:昨天,关于一台工业机器人杀人的消息在 Twitter 上引起了轰动。你当时说“这种情况相当普遍”。你这话是什么意思?
瑞安·卡洛:仅在美国,每年大约有一人死于工业机器人。劳工部会记录此类事件,例如“员工被机器人压死”(2006年)或“员工被工业机器人杀死”(2004年)。
你以前曾写过关于自主机器可能发生的独特错误。在未来的“机器人杀人”故事中,我们应该注意哪些特征,才能区分“工业事故”和“自主性错误”?
没错。工业机器人倾向于一遍又一遍地做同样的事情,比如抓取和移动,通常无法分辨它们正在处理的是什么。这就是为什么工厂会设置“危险区”或“禁区”,人们在机器人运行时必须远离那里。我写过关于未来机器人可能不会表现出自主性,而是表现出涌现行为的前景。根据斯蒂芬·约翰逊(Stephen Johnson)在他精彩著作中的定义,涌现行为是指有用的但出乎意料的活动。有时会发生让编码员感到震惊的事情——他们从未预料到的事情。例如,谷歌的图像算法最近将一张有两个有色人种的照片标记为“大猩猩”。谷歌对此感到非常羞愧。
我讨论了当我们开始看到能够表现出涌现行为的实体机器人时会发生什么。那时事故的类型是不同的,受害者出错的可能性也较小,但可能并不比谷歌的标记算法更可预测。
初步报告将此次死亡归咎于人为错误。在你看来,什么时候拥有一个人类“在回路中”操作自主系统,会构成一种责任,而不是安全功能?
在工业机器人领域,那扇门早就关上了。你不可能让人类参与其中,同时保持如今的生产效率。相反,你必须努力通过规程、警告等方式确保人们避开机器人的运行区域。
关于让“人类在回路中”操作,以防止机器人杀人的讨论,当然是自主武器辩论中的一个重要组成部分。人们普遍认为应该保持“有意义的人类控制”,但对于这意味着什么却几乎没有共识。
我们是否应该接受机器事故作为生活中的日常一部分,就像我们接受汽车伤害一样?或者,夸张的“机器人杀人”头条新闻是否带有任何警示作用?
我有时担心对机器人的恐惧会导致人类生命净损失。我讲了一个关于一辆无人驾驶汽车的故事,它面临着在撞到购物车和撞到婴儿车之间的选择。假设这辆无人驾驶汽车比人类驾驶员安全 20 倍。但如果它在我设想的场景中做出了错误的选择,头条新闻就会写道“机器人为拯救杂货车而杀死婴儿”,从而使自动驾驶倒退十年。
好吧,但我怎么知道你不是一个机器人,想在我们被机器接管之前,引诱我们陷入虚假的安全感呢?
恐怕我无法回答这个问题,凯尔西。