联合国专家担心杀人机器人,却忽视了那些已经存在的

自主战争机器即将来临。对它们感到恐慌只会适得其反。
2005年电影《绝密飞行》中虚构的自主机器人战斗机。维基共享资源

昨天,联合国的一位专家呼吁停止并暂停开发“致命自主机器人”,或者用通俗的话说,“杀手机器人”。

他的论点是:一旦杀手机器人参与战争,就再也无法回头了。联合国法外处决、即审即决或任意处决问题特别报告员克里斯托夫·海因斯告诉人权理事会,现在是时候监管并停止杀手机器人了,他认为“武装冲突中的生死攸关的决定可能需要同情心和直觉。”他还敦促理事会成立一个小组,研究现有的国际法是否充分解决了杀手机器人的使用问题。

关键是,杀手机器人已经存在了。它们是我们能想象到的最缺乏同情心的机器。

尼尔·里卡兹,通过维基共享资源

我说的是地雷,那些臭名昭著的炸弹,一旦被踩到就会爆炸。地雷被编程为在满足特定条件时爆炸。这与驱动杀手机器人的原理相同。

但有一些关键区别:杀手机器人可能会基于算法和输入、内部编码和预设的战斗行为做出决策。它可能被编程为理解战争法,并可能使用监视技术来区分非武装平民和武装战斗人员。驱动面部识别软件的相同原理也可以应用于机器人,使其武器瞄准其他武器,从而只禁用枪支而不杀人。

另一方面,地雷无法区分平民和士兵,不同国家的士兵,以及动物、大个子孩子或小个子士兵。地雷引爆器不容易关闭,而且是为了耐用性而不是智能而设计的。在最坏的情况下,杀手机器人可能像地雷一样致命和不加区分。然而,它们很可能要复杂得多。

立法者面临的任务不是出于恐惧而禁止一项技术,而是要让法律适应这项技术一旦出现。就新技术的立法决策是一件棘手的事情。在美国,电子通信由一项比电子邮件成为日常生活的一部分早得多的法律管辖。1986年,国会议员们试图想象电子邮件时制定的条款,导致了隐私和个人安全方面存在巨大的漏洞,这一切都是因为在法律制定时没有理解这项技术。在管理电子通信时,风险远低于授权机器人杀人。

杀手机器人即将来临。阻止其引进或禁止其开发的努力不仅可能失败,而且会用卢德式的煽动恐惧来掩盖关于如何最安全地实施这项技术的合理担忧。

 

更多优惠、评测和购买指南

 
Kelsey D. Atherton Avatar

Kelsey D. Atherton

科技领域特约撰稿人

Kelsey D. Atherton 是一名军事技术记者,自 2013 年起为《大众科学》供稿。他报道无人机器人和其他无人机、通信系统、核企业以及用于规划、发动和缓解战争的技术。


© .