昨天,联合国的一位专家呼吁停止并暂停开发“致命自主机器人”,或者用通俗的话说,“杀手机器人”。
他的论点是:一旦杀手机器人参与战争,就再也无法回头了。联合国法外处决、即审即决或任意处决问题特别报告员克里斯托夫·海因斯告诉人权理事会,现在是时候监管并停止杀手机器人了,他认为“武装冲突中的生死攸关的决定可能需要同情心和直觉。”他还敦促理事会成立一个小组,研究现有的国际法是否充分解决了杀手机器人的使用问题。
关键是,杀手机器人已经存在了。它们是我们能想象到的最缺乏同情心的机器。
我说的是地雷,那些臭名昭著的炸弹,一旦被踩到就会爆炸。地雷被编程为在满足特定条件时爆炸。这与驱动杀手机器人的原理相同。
但有一些关键区别:杀手机器人可能会基于算法和输入、内部编码和预设的战斗行为做出决策。它可能被编程为理解战争法,并可能使用监视技术来区分非武装平民和武装战斗人员。驱动面部识别软件的相同原理也可以应用于机器人,使其武器瞄准其他武器,从而只禁用枪支而不杀人。
另一方面,地雷无法区分平民和士兵,不同国家的士兵,以及动物、大个子孩子或小个子士兵。地雷引爆器不容易关闭,而且是为了耐用性而不是智能而设计的。在最坏的情况下,杀手机器人可能像地雷一样致命和不加区分。然而,它们很可能要复杂得多。
立法者面临的任务不是出于恐惧而禁止一项技术,而是要让法律适应这项技术一旦出现。就新技术的立法决策是一件棘手的事情。在美国,电子通信由一项比电子邮件成为日常生活的一部分早得多的法律管辖。1986年,国会议员们试图想象电子邮件时制定的条款,导致了隐私和个人安全方面存在巨大的漏洞,这一切都是因为在法律制定时没有理解这项技术。在管理电子通信时,风险远低于授权机器人杀人。
杀手机器人即将来临。阻止其引进或禁止其开发的努力不仅可能失败,而且会用卢德式的煽动恐惧来掩盖关于如何最安全地实施这项技术的合理担忧。