

美国的无人机舰队已成为反叛乱战略中日益依赖的组成部分,并在地缘政治政策中发挥着关键作用,尤其是在巴基斯坦,无人机经常侵入主权领土,向地面目标投送致命载荷。但《华盛顿邮报》提问:我们距离真正的“杀人机器人”还有多远?答案是:我们已经到了。
我们知道,各种研究和学术机构都在研究机器人自主性(经常阅读《PopSci》的读者会时不时地看到有关这些自主“机器人”的报道和视频就在这里),但令人震惊的是,这项技术的进展速度之快。在本宁堡,一支佐治亚理工学院的计算机科学家团队正在帮助军方展示一种软件,该软件可以在没有任何人为干预的情况下,自主地识别地面目标并做出生死攸关的决定。
也就是说,唯一缺少的是开火能力。加上这一点,你就拥有了一个杀人机器人。
当然,这些(目前)只是演示。但它们为战争的必然未来勾勒出了蓝图:当时间至关重要,向上级请示已不可行时,软件将做出关键决策,定义什么构成目标,什么在“战争规则”范围内,以及何时可以安全开火。如果一个程序能够满足其编码中设定的任何要求,那么就可以发射炮弹了。
这一切听起来有点像《终结者》中的天网,但它在美国军方内部正以惊人的速度发展,其驱动力既有需求(让更少的人类生命身处险境显然更可取),也有那种冷战式的观念,即如果美国不在自主战争领域处于领先地位,那就只能落后。这种观点并非完全没有道理:韩国已经在与朝鲜接壤的非军事区部署了半自主武装机器人系统,而中国在自主武器系统领域也有自己的打算。
那么,“致命自主性”的现状如何?打个比方,它成为战场现实至少还需要十年(可能更长)。我参加了上个月 AUVSI 无人机会议上一个题为“武装与自主”的讲座,会议重点是向有争议的空域部署武装无人机的想法——使用无人机在防空火力仍然完好的区域投送地对空和空对空武器。
令许多人惊讶的是,用于规避防空系统并自主执行此类任务的计算机程序已经存在。核心技术就在那里,只是我们还没有足够信任它,不敢真正部署。释放武装的自主机器人(无论是空中的还是其他的)的想法,对我们来说天生就是令人厌恶的,因为机器人——至少是我们现在拥有的机器人——无法做出常识性的决定,也无法以 100% 的准确率区分敌友、投降的士兵或敌对的敌人、无害者和威胁者。
但正如《华盛顿邮报》报道的那样,人与机器之间的能力差距正在缩小。问题是:它何时能缩小到足以让我们信任机器人做出生死攸关的决定?正如我们在伊拉克和阿富汗的事件中冷酷地得到的提醒,即使是训练有素的士兵,在地面上也不是总能做出正确的决定。在多大比例的错误率下,我们才愿意说自主机器人已准备好参战?
点击下方链接,阅读《华盛顿邮报》的文章。这是一篇简短且引人入胜的早间读物。