要想写一个真正吸引眼球的机器人相关标题,你通常有两个选择。
首先,是机器人叛乱的引用。无论是直接引用——见《Gizmodo》关于“ATLAS:可能是最先进的人形机器人,绝对令人恐惧”的文章,说的是,请注意,一个为生命救援机器人开发竞赛设计的非武装机器人——还是简单地提及名字——《电讯报》的“科学家们发布了终结者式的自组装机器人”,文章内容是关于微小的立方体机器人能够(请注意)笨拙地向对方摇摇晃晃地移动——结果是一样的。这是一个参考,而且常常是一个疯狂的参考,指的是机器反抗其创造者并实施种族灭绝的观念。参与写作和编辑的人真的相信他们正在借用的科幻预言吗?他们真的认为詹姆斯·卡梅隆已经看到了我们的未来,而且未来充满了人类的头骨,被自主激光坦克和骷髅状的红眼妖怪踩在脚下?嗯,谁知道呢?这只是个玩笑,对吧?一个十足的笑话,就像我们灭绝的许多令人发笑的关于大规模、系统性屠杀的预测一样。
这是让(包括我在内的)大家关注机器人新闻的一种方法。另一种方法是抛开所有借口,直接陷入恐慌:杀人机器人要来了。
举个例子,约书亚·福斯特在本月早些时候发表在《Defense One》上的文章《为什么美国想要无需人类干预就能杀戮的无人机》。
但当这篇文章被转载到姐妹网站《Quartz》时,标题已经变成了一个更自信的说法:《最安全的无人机将能够在没有人类控制者的情况下杀戮》。
停顿一下。细细品味。感受一下这两个标题中语法所传达的确定性。没有问号,没有但书或保留。政府想要这些系统。安全的无人机将在没有人类控制的情况下杀戮。就像无人机将继续被制造和部署一样,就像我们每个人最终都会死去一样,无人机将在没有人类控制者的情况下杀戮。
然而,接下来的故事似乎证明了恰恰相反。它最初描绘了致命自主机器人(LAR)的幽灵,作为学术和军事圈激烈辩论的话题。专家们的引述有助于定义这种“动手不动杀戮”机器人可能带来的好处——它比今天的遥控系统更不容易被黑客攻击,并且瞄准更精准——然后接着就全盘否定了这个概念。
一位教授在谈到叙利亚时说:“认为可以通过一种机器人武器来解决这场危机是天真且危险的。”另一位专家,布鲁金斯学会萨班中心的研究员补充道:“最终,国家安全部门……不想放弃对冲突的控制。”“有了自主系统,失败的后果在公众的想象中更糟。人类的错误似乎让人们更容易接受如果是人造成的附带损害。”
文章的结尾是海军研究生院教授的最后一位专家的引述:“我不认为任何行为者,无论是否是人类,都有能力执行精细、精确的交战规则(ROE),这些规则将使武装干预在叙利亚有所帮助。”
这似乎是一篇非常负责任的文章,讲述了LAR为何是个糟糕主意的所有原因。然而,它遗漏了,而且所有关于这种迫在眉睫的威胁的文章都遗漏了,任何公开表示愿意将机器人投入战场的人。我所交谈过的每一位军事和机器人专家都重复着同样的观点,这种观点就像经过精心排练的发言一样——必须有“人在回路”。有人要么引导无人机的瞄准镜对准目标并扣动扳机,要么,理论上,告诉机器人,“去吧,杀了那个人。”
那么我的问题是:这些未署名、私下的疯子们在哪里?那些迫不及待地想将无人机派往指定区域,让它们用自己的算法判断谁可以忽略,谁该被撕碎?是军队的那些人吗?那些人(有些人是亲身经历)知道“友军误伤”有多么阴险,或者任何技术有多么容易而且经常会适得其反?是国防部资助的机器人学家吗?那些他们自己的机器人经常在实验室里停摆,失败是他们的预期,最好的希望是达到一个不那么令人尴尬的成功率的人?
我的本意不是要挑剔福斯特——他是一位出色的作家和记者。而写他那篇文章的各种标题的人,或者那些照搬那篇文章的悲伤调子,并用自己的文章和帖子(例如,“很快,致命自主机器人将自主杀戮”和“无人机将自主做出打击决定”)来报道《Defense One》文章的人,只是随波逐流。这就是极其严肃、极其令人警醒的无人机未来报道是如何进行的,通过暗示和想象,将一群不可避免的、不受约束的死亡机器推入现实。谁想要这些末日设备?当然是成群结队的嗜血稻草人。
为记录在案,我自己也曾是这种丑陋传统的贡献者,无论是无意的,还是由于没有正确审查或设定谣言和产品炒作的框架。我曾无意中制造了一个关于武装地面机器人瞄准军事人员的虚假都市传说。我曾搜集了可能永远不会投入开发的外国恐怖机器人,包括一篇关于韩国经常被引用的(作为杀人机器人是现实的例子)机器人哨塔的早期简报——一个武装的、自称自主的系统,它的邪恶枪炮和传感器横跨非军事区——该哨塔被列为该系统维基百科词条的外部来源。关于那个有故障的地面机器人故事在互联网传播中被搅乱,或者韩国的杀人塔只有在接到命令时才可能开火,从而否定了它作为自动死亡机器的地位,这些都几乎无关紧要。尽管例子证据不足或不完整,但它们不言而喻。自主死亡机器人已经在这里了,证明了更多机器即将到来。更不用说,唯一确证的例子是一个实验性的哨塔,它从未开枪打过人,而且其部分自主性完全听命于一名人类操作员。
这场关于自我引导杀手不可避免性的持续讨论的核心是技术已经存在的观念——只是时间问题。2007年,一种能够探测并攻击来袭导弹和飞机的机器人防空炮,无需操作员干预,发生了故障,导致九名水手死亡。这种情况难道不会再次发生,而且是故意的吗?当然。技术上是可能的。但这就像朝鲜向美国本土投掷核弹确保自身毁灭一样不太可能。无意冒犯那些利用朝鲜来证明其冷战后资金合理性的导弹防御产业,能力不等于现实。如果我们不将逻辑应用于我们周围的世界,那么我们就是在接受别人的炒作,或者仅仅是用虚幻的威胁来恐吓和分散自己的注意力。LAR得以使用的前提是,数以百计甚至数以千计的政治家、军事人员和研究人员的集体疯狂。尽管有政府停摆的笑话,五角大楼的走廊里并没有像三只笨蛋那样的互相扔派的愚蠢行为,也不是被渴望寻找新的方法来造成附带损害的恶魔所纠缠。即使最漫画化的五角大楼真的存在,而且愚蠢得要命,和/或邪恶得足以使其所谓的LAR追求成为可能,我们难道不应该等待第一个真正的关于此类系统的公告或现场测试,而不是提前尖叫着看到终结者大小的阴影吗?
有一种非常真实的可能性是我对这一切都错了。也许我只是想给别人的杀人机器人游行泼冷水,因为在互联网上大家都是这么做的——告诉那些玩得开心的人停止。所以我开放评论区。如果有真实的事例,真实的人要求一个完全自主的武装无人机,能够选择和攻击目标而无需人类授权,请告诉我们。也许那些我提到的编辑和作者认为他们的标题和故事并不误导和煽动。也许机器人最终是要来对付我们的。
如果是这样,就停止说“如果”,停止那些没有来源的闲聊和伪装成新闻的思想实验。有足够多的关于实际遥控无人机发射真实导弹攻击真实人类的报道,足以让我们忙上20年。到时候,也许会有理由让机器人随意杀戮。
关于不明飞行物怎么样?我也看了很多关于它们的大新闻。