自主武器技术已经存在。现在怎么办?

未来,随着武器获得决策权,人类可能不再是战争中生死的唯一裁决者。
If autonomous weapons end up in the wrong hands, they can act as weapons of mass destruction, and escalate tensions.
如果自主武器落入不法分子手中,它们可能成为大规模杀伤性武器,并加剧紧张局势。图片来源:Colin Anderson Productions pty ltd via Getty Images

本文最初刊载于 Undark

2021年一个晴朗的日子,Fortem Technologies 的员工来到犹他州一片平坦的沙漠。这片土地是测试该公司一项新发明的好地方:一种名为 DroneHunter 的无人机附件——顾名思义,它是一种猎杀其他无人机的无人机。

实验开始时,DroneHunter——一种高2英尺、翼展与成年男子身高相当的、光滑的黑白旋翼飞机——开始接收地面雷达数据,表明空中有一架飞机形状的无人机——这架无人机在不同情况下可能携带用于伤害人类的弹药。

“DroneHunter,去狩猎,”一个令人不安的人工智能声音说道,这段画面来自一段发布在 YouTube 上的事件视频。它的旋翼开始旋转,视角抬升到干枯的地面之上。

雷达系统自动跟踪目标无人机,软件指导其追击,无需驾驶员。几秒钟内,两架飞机正面相对。一个网从 DroneHunter 中射出,像《蜘蛛侠》里的道具一样缠住了它的敌人。一个连接的降落伞——旨在击落大型飞机的新技术——从网的末端鼓胀起来,将猎物缓缓降落地面。

目标:已消灭,除了授权狩猎外,无需人类参与。“我们发现,无一例外,我们的客户都希望有人在循环中,”位于犹他州普莱森特格罗夫的一家专注于无人机的国防公司 Fortem 的联合创始人兼首席技术官 Adam Robertson 表示。

虽然 Fortem 仍然是一家相对较小的公司,但其反无人机技术已在乌克兰战场上使用,并且它代表了美国国防部正在投资的一类系统:小型、相对廉价的系统,一旦人类发出许可,就可以独立运行。美国目前不使用完全自主的武器,也就是说,那些能够自己决定人生死的武器。

由于许多用户需要人类操作员的参与,Fortem 的 DroneHunter 并不完全符合国际红十字委员会对自主武器的定义——“任何在无人干预下选择和对目标施加武力的武器”,这可能是这个仍然松散的领域中最接近标准解释的定义——但它距离这种能力只差一步,尽管它并不*瞄准*人类。

自主和半自主技术未来将如何运作尚不确定,美国政府必须决定对其开发和使用的限制。这些决定可能很快就会到来——随着技术的发展,全球冲突持续不断,其他国家也面临类似的抉择——这意味着即将上任的特朗普政府可能会增加或改变现有的美国政策。但专家表示,自主创新有可能从根本上改变战争的进行方式:未来,人类可能不再是生死的唯一裁决者,而是由算法来决定。

对一些专家来说,这是一个净收益:它可以减少伤亡和士兵的压力。但其他人则认为,这反而可能导致更多无差别的死亡,没有直接的问责制,以及加剧核武装国家之间的冲突。Stop Killer Robots(停止杀人机器人)反自主倡导组织的发言人、国际机器人武器管制委员会副主席 Peter Asaro 担心这些创新最终会出现在战场上。“这些系统最终如何被使用,并不一定像它们被制造出来的那样,”他说。

与此同时,活动家和学者也对这项技术落入不法分子手中表示担忧,并指出即使人类仍然掌握着决策权,最终结果也可能是不道德的。

乐观主义者和批评者都倾向于认为应该存在国际保障和法规——最好是以确保某种形式的人类问责制的方式。然而,尽管技术不断进步,但要制定出这样的规定,已经进行了十多年,进展甚微。


自主武器可能看起来很未来化,但它们在技术上存在了一个多世纪。例如,地雷,最早在内战期间被广泛使用,能够独立爆炸,毫无辨别能力。还有竹签——旨在伤害或陷害士兵的尖锐竹签。当有人踩到藏在洞里的竹签的覆盖物时——越战期间广泛使用的一种陷阱——他们就会掉下去,落在尖竹签上。

还有热寻式导弹,自20世纪50年代以来,它们就一直在自主追踪发射红外线的物体。海军至今仍在使用的系统,最早开发于20世纪60年代,能够自主拦截射向船只的炮弹。

如今,自主性看起来有些不同:人工智能可以根据身体特征识别人员,这理论上使得军队能够瞄准特定的敌方战斗人员成为可能。与此同时,自动导航和跟踪技术也更加先进。尽管如此,战略与国际研究中心智库的兼职研究员 Zachary Kallenborn 表示,“自主武器”这个术语涵盖了太多东西。“这是各种各样事物的极其广泛的尺度,其中一些可能非常重要,”他说。“另一些则可能根本不重要。”

2020年,利比亚可能出现了第一起完全自主的现代武器的潜在使用事件,当时一架无人机可能自行攻击了民兵武装人员,根据一份联合国报告(尽管很难证明当时没有人为干预)。此后,具有不同程度人类参与的半自主武器继续出现在战场上:在乌克兰,自主无人机*能够*瞄准人员,尽管目前是由人来指导它们进行操作。在加沙持续的冲突中,据报道,以色列国防军使用了一个名为 Lavender 的人工智能数据系统,该系统根据行为模式选择人类目标,根据 +972 Magazine 和 Local Call 的一项调查,其“人为监督很少”。据报道,以色列还*使用*了国内公司 Elbit Systems 的自主无人机和人工智能软件进行战斗,这导致巴勒斯坦平民死亡。

更多此类武器可能即将问世:一家美国公司 Anduril 计划建造一家工厂,使其能够*大规模*生产自主武器,并且已经推出了 ALTIUS-700M 等产品,这是一种支持自主性的无人机,能够悬停并用爆炸性弹药进行攻击。

此类武器是进攻性的,它们会先发制人地用炸弹或导弹攻击并摧毁人类或系统。德克萨斯农工大学的哲学家 Erich Riesen 表示,这些机器人并非完美无缺,他的关于这个新自主时代的军事伦理学的著作被有影响力的国防思想家引用过。但它们确实按照它们无法违背的规则运行:它们至少现在还不是*道德上*自主的。人类以及他们编写的软件决定了武器的道德。

国家国防大学的杰出研究员 T.X. Hammes 表示,人们总是在启动循环,即使有一天他们*不在*循环中。“一个人仍然必须从一开始就参与进来,”他说,设计武器并制定其参数,这意味着在他看来,没有所谓完全自主。

然而,人工智能理论上可以采用最初的编程,并做出超出最初人类设想范围的决定。

机器人遵循的规则可能不完美,可能导致错误,但人类也会犯错误并做出自己的道德决定。士兵可能会筋疲力尽或害怕,导致判断受损。

然而,其他半自主武器只处理传入的威胁。Fortem 的工作,或者以色列的“铁穹”系统,就是属于这一类,它会向来袭的导弹发射导弹。

最新的技术发展很大程度上是由急于在武器竞赛中取得领先地位的政府和公司推动的。美国最近一项名为“Replicator”的倡议似乎就是如此,该倡议旨在到2025年8月部署数千架小型、廉价的无人飞行器:舰船、飞机和反无人机设备——可能类似于 Fortem 生产的设备。“技术已经准备好了,”国防部副部长的一位发言人 Eric Pahon 在电子邮件评论中表示。

“行业也准备好了,”他补充道。

Replicator 的一些系统将配备武器,但其武器种类将采取何种形式,以及将如何使用,并非完全清楚。

尽管存在模糊性,但有一点很清楚:Replicator 是为私营公司准备的一种计划。它向商业部门表明,政府将需要自主技术,并且愿意为此付费。根据国防创新部门(Defense Innovation Unit)关于该计划的在线描述,这种承诺会激励公司开始投入自己的资源来开发相关创新。国防创新部门隶属于国防部,并在该项目中发挥主导作用。企业在自主性方面的内部投资,以后可以让他们向国防部出售成熟的技术。(该部门未允许 Undark 进行采访。)“与行业合作对我们的成功至关重要,”Pahon 在电子邮件中说。“如果我们想保持技术优势,就必须确保我们能够利用每个部门所能提供的最佳人才和知识。”

正如 Fortem 公司一样,企业确实在自主技术方面取得了进展。当被问及是否申请 Replicator 项目时,曾两次担任犹他州众议员的 Robertson 避而不谈。“人们对此了解不多,”他说,但他指出,该公司仍然与国防创新部门保持着“密切联系”,而国防创新部门“非常清楚”Fortem 的工作。

其他小型公司也在开发自己的自主技术。例如,一家名为 Saronic 的公司制造小型自主海洋船只,可以在上面放置武器或其他有效载荷。(Saronic 未同意接受 Undark 的采访。)

像洛克希德·马丁公司这样的大型传统公司也在做同样的事情。虽然洛克希德公司在自主性方面的一些投资——通常发生在其被称为“臭鼬工厂”的实验部门——是与军方直接合作开发的,但其他创新则来自公司的内部研究,以便洛克希德能够为*未来的*合同做好准备。

洛克希德主导的这些研究项目涉及其自身的政府合作。洛克希德公司副总裁兼“臭鼬工厂”集成系统副总裁 Renee Pasman 说:“我们很荣幸能有如此长期的合作关系,可以就‘政府对未来有什么展望’进行深入的讨论,”这是因为洛克希德公司与政府打交道的悠久历史。

根据 Riesen 在《军事伦理学杂志》上发表的研究,使用这些现有和即将到来的自主武器的全部能力,可以被视为军队对士兵的责任:“基本思想是,一个国家有道德义务不让自己的士兵承受不必要的致命风险,”Riesen 说。风险包括死亡,也包括获得创伤后应激障碍(PTSD)——有研究表明,士兵即使在内华达州的无人机控制终端也能获得 PTSD。

他说,如果军队将无人机飞行员和地面部队从决策循环中拉得更远,就像自主武器那样,“那么我们不仅能使我们的士兵免受致命风险,还能免受心理和道德风险。”


虽然目前还不清楚军队未来将如何看待这些风险——以及其士兵应扮演何种角色——但对于像 Fortem 这样的初创公司来说,预测政府未来可能委托开发的项目对它们的长期成功至关重要。在公司发展的早期,它们就清楚地意识到,使用自主飞行器进行无人机防御是一个令人感兴趣的领域。

Robertson 曾学习过电气工程,并在其硕士学位期间研究过紧凑型雷达系统。多年后,他得知他开发的雷达技术对一款小型陆军无人机很有用,于是以此为基础创立了一家公司。

他后来在2016年创立了 Fortem,最初考虑的是像亚马逊这样的公司使用的无人机包裹递送。但公司成立后不久,Robertson 开始考虑其他用途。

将他的无人机算法从探测和避开其他无人机或飞机(这是包裹递送的重要功能)转变为探测和攻击它们,几乎就像在代码中将加号变成减号一样简单。

Fortem 获得了空军 150 万美元的开发资助,其雷达系统很快就进入了“追逐”模式,而不是“避让”模式。

像 Fortem 这样的反无人机系统符合国防部在其 Replicator 项目中的要求,该项目是目前军事领域一项重要的自主性倡议。而且,正如国防部所希望的那样,该公司自己完成了大部分的研发工作,将 DroneHunter 从一种现成的无人机和用家得宝零件制成的网,发展成了一种配备工厂生产的网的定制飞行器。得益于其雷达系统,它的飞行、追逐和捕获是自主的,并且在乌克兰上空进行。

DroneHunter 已经经历了多代迭代,并在其工厂旁边、像犹他湖一样的水域上方、农田上以及军事设施中进行了数千次测试,试图让人工智能系统学会适应不同的环境,并学会区分至关重要的差异——例如,如何区分无人机和鸟类(一个有螺旋桨;另一个没有)。“我们真的可以在后院进行测试,”Fortem 的首席技术官 Robertson 说。

在 Fortem 的大量测试中,该软件还学会了区分威胁和无害设备:“它是一架无人机吗?”但同时也要考虑“这架无人机属于一个拍照的孩子,还是属于一个恐怖分子?”

部分决定涉及武力升级。DroneHunter 可以用灯光和警报警告其他飞机。如果目标不退让,反而靠近,DroneHunter 就会判断它很可能是恶意的。至少,这是该设备的人工智能从分类的遭遇及其相关的行为模式中学到的。

该公司目前正在开发一种能够用弹药摧毁违规无人机的技术,而不是仅仅捕获它,以及能够对付无人机群而不是单个无人机的技术。

像 Fortem 这样的许多美国初创公司最终目标是将其技术出售给美国国防部,因为美国拥有世界上资金最充足的军队——因此,有充足的资金用于合同——而且向本国或盟友出售武器相对简单。向其他国家出售产品确实需要一些行政工作。例如,对于部署在乌克兰的 DroneHunters,Fortem 直接与该国达成了协议。然而,技术出口必须通过美国国务院,该部门负责执行关于哪些技术可以出售给谁的政策。

该公司还向商业市场营销 DroneHunter——例如,面向在有争议水域需要安全的货船运营商,或者希望确定是否有人在大型比赛附近飞行的无人机属于潜在恐怖分子威胁的体育场老板,或者只是想拍照的孩子。

由于 Fortem 的技术不针对人,并且在决策过程中保留了人的参与,因此伦理问题不一定与生与死有关。


在涉及人类的情况下,自主武器是否能够始终如一地准确区分平民和战斗人员,仍然是一个悬而未决的问题。军事领导人是否会为武器编程使其采取保守行动,以及无论武器落入谁之手,这种编程是否会保留下来,也是一个未知数。

毕竟,武器的制造者一旦将其投入使用,就不总能控制自己的创造物了——这是曼哈顿计划的科学家们,其中许多人在开发出原子弹后对核武器的使用有所保留,他们也从中吸取了惨痛的教训。

为了说明这一点,生命未来研究所(Future of Life Institute)——一个致力于减少强大技术风险的非营利组织——创作了一个病毒式传播的视频,标题极具挑衅性:“杀戮机器人”。

“杀戮机器人”以一场 TED 演讲式的公司演说开场,一只微小的嗡嗡作响的无人机在演讲者附近盘旋:“这里面是三克的塑形炸药,”这位高管宣称。然后,无人机飞向舞台上的一个假人,发出“砰”的一声撞击其前额。“这轻轻的一击足以穿透头骨,”他说,“并摧毁里面的东西。”

然后,他展示了无人机在停车场追赶男人的画面。“这些都是坏人,”他告诉听众。

视频随后转变为虚构的新闻片段。自主无人机落入了不法分子手中;人工智能软件被泄露。一次自动化的无人机袭击杀死了11名参议员。然后,一群无人机袭击了大学生,大规模杀害了学生。

“谁能做到这一点?”一位新闻主播问道一位受访者。

“任何人,”受访者回答。

正如“杀戮机器人”所指出的,一旦致命的自主技术存在(即使尚未被证实以这种方式使用),一个监管良好的政府可能不再是唯一的使用者——特别是如果它是商业技术可供出售的话。技术落入不法分子手中是生命未来研究所自主武器系统项目经理 Anna Hehir 关注的问题。

当 Hehir 第一次看到“杀戮机器人”视频时——在她被该研究所录用之前——她的第一反应是:“如果这些真的成为现实,它们肯定会立刻被列为非法。肯定,世界会认识到这不能存在。”

结果,世界并未如此:这项技术已经处于开发之中,即使尚未完全部署,而且也没有国际条约来应对它。

除了算法根本不应该杀人这一道德论点外,Hehir 表示,法律上,自主武器破坏了现有的国际法。“很难追究责任,”她解释说。如果机器人犯下了战争罪,谁该负责?但在德克萨斯农工大学哲学家 Riesen 看来,自主武器将罪责从一个人——很可能是一个非常年轻的成年人——转移到了一个开发人员、测试人员和决策者团队。“他们负责,但他们人很多,”Riesen 说。“所以现在这种风险就分散到更多人身上了。”

Hehir 说,由于部署无人机群比派遣一个营的年轻士兵风险更低,国家可能更倾向于挑起战争,这最终可能导致更多的伤亡。

Riesen 则认为情况相反。他说,机器人可以被编程为采取保守行动。“我们可以花时间说,‘这是战斗人员吗?如果不是,就不要杀死它,’”他说。“因为,嘿,如果那个东西击落了我们的无人机——好吧,它很贵,但它不是一个人。而在那种情况下,一个害怕死亡的士兵会先开枪,后问问题。”

但如果自主武器落入不法分子手中,充当大规模杀伤性武器,并加剧紧张局势,这种编程可能就不会发生。

这种升级可能来自机器人失误。基于机器学习的自主系统可能会形成错误或误导性的模式。例如,人工智能在*种族主义*方面有着悠久的历史,比如无法*区分*黑人。面部识别在区分女性和年轻人方面也较差。这在任何时候都很重要,尤其是在误认平民与战斗人员可能导致致命错误的情况下。人工智能的决策也可能从外部不透明,这意味着生死攸关的决定也是如此。例如,炸毁一个尚未卷入冲突国家的士兵的错误,可能会导致未参与的国家卷入,从而扩大战斗。“它仍然离人类智能水平很远,”人工智能研究所(Allen Institute for Artificial Intelligence)的创始首席执行官 Oren Etzioni 说。

它会犯错误,而这些错误可能涉及人类生命。“显然,在这方面非常令人担忧,”Etzioni 说。

当涉及多架无人机时,这类误判可能会产生指数级后果。“当我们谈论无人机群时,我们就是在谈论未来大规模杀伤性武器,”Kallenborn 说。如果其中一个容易犯某种错误,那么其他999个也可能犯同样的错误。

这种潜在的升级可能与另一种大规模杀伤性武器有关:核武器。一些对自主性感兴趣的国家也是拥有原子武库的国家。如果两个核国家发生冲突,并开始使用自主武器,“只需要一个算法错误,或者同一个军方内部的一次沟通失误,就能造成升级的局面,”Hehir 说。而升级可能导致核灾难。

为了提高公众对自主武器的认识,Hehir 一直在致力于一个名为 Autonomous Weapons Watch 的现有武器数据库。“这是为了填补人们说它们不存在,或者这永远不会发生的差距,”她说。

为了解新型武器,Hehir 参加武器展。在这些展会上,如世界最大的 Eurosatory 展会,制造商会展示他们的产品,展厅里充斥着最先进的坦克和无人机。她说,以前,当她溜达到一个花哨的展位时,其所有者很乐意吹嘘该技术的完全自主性。现在,听到潜在的未来监管,她说他们对能力保持沉默。“他们想说,总有人在循环中,”她说。而尽管“一个人可以只是点击‘是’,”Hehir 称之为“名义上的人工干预”。

该数据库并非详尽无遗,但到目前为止,它包含了17种武器,其中五种来自 Anduril 和 Elbit Systems。“它们看起来不像《终结者》,”Hehir 说。“它们看起来像无人机或潜艇。”

Anduril 公司未回复置评请求,Elbit 公司因“安全限制”拒绝了采访。


像 Hehir 数据库中的这些设备将在未来战场上如何使用,使用到何种程度,以及由谁使用,这些都是只有水晶球才能知道的未来。而人类和监管方面的挑战都阻碍了这些武器在现实世界中的实施。

学者兼军人 Paul Lushenko,例如,正试图理解这个方程中的人类操作员方面。Lushenko 是一名陆军退役情报官员,现任美国陆军战争学院助理教授,他研究新兴技术和信任:将要使用这些武器的人们有多大程度上信任军事人工智能等技术?

他的学术研究源于他在现实冲突中看到的实际问题:第一次武器化无人机袭击发生在2001年的阿富汗,距他入伍仅四年,期间他被部署到伊拉克和阿富汗。在无人机成为主要战争力量的时代,他曾是一名情报官员。当他观看并参与无人机袭击时,他开始思考人们如何看待“正当使用武力”,尤其是涉及到无人机的时候。

在他开始研究时,他意识到现有的研究并不像他希望的那样具有实证严谨性。“它们不提出要检验的理论;它不可推广;它不可证伪,”他说。那只是空谈。作为一名士兵,他想要实干,所以他着手收集数据。

无人机研究将他引向了人工智能这一新的技术前沿。Lushenko 想知道那些将要使用军事人工智能的人——他称之为“皇帝的新衣”——对这一切有什么看法。

他说,在军方内部,“有一种假设认为人工智能是现代战场成功的关键。”然而,上面没有人知道士兵们对他们可能合作的机器人有什么看法,以及他们是否信任它们,原因何在,原因何在。

与之前一样,数据不存在。但 Lushenko 拥有纯粹的学术研究者所没有的优势:他有合法的授权与在军事和军校、战争学院以及 ROTC 项目工作或就读的人交谈,以及相关的机构审查委员会认证人类研究的道德授权。

因此,他决定进行调查实验,部分是为了区分军官之间的代际差异。在那里,调查有一些有趣的东西要说:“高级军官,就像我一样,服役20多年,并不真正信任人工智能,”他说。但是,与直觉相反,在某些情况下,他们却对军方采纳它表示不成比例(尽管仍然是中等程度)的支持——Lushenko 将这种矛盾称为“信任悖论”。

“军官们在喝“琼斯牌可乐”(Kool-Aid),或者在采纳他们高级领导人的说法:即人类与机器在战场上的协作,让机器在生杀予夺的决策上拥有更大的自主权,是未来的方向,”他说。Lushenko 说,如果他们不接受,他们可能会被解雇。所以他们接受了。Lushenko 说,那么一个挑战就是让高层投入足够的资源,以确保假设的武器*值得信赖*,如果军官们无论如何都要使用它们。

另一方面,低级军官更信任人工智能。但他们也希望在技术实际操作中有人类监督,并且对如何使用该技术持保守态度。他们关于信任和使用的个人态度也更加一致:对于一名受访者来说,越信任意味着他们越赞成使用;越不信任意味着他们越不赞成使用。具有讽刺意味的是,他们的态度变化也比他们的长辈更大,这向 Lushenko 表明他们还没有( yet)被“琼斯牌可乐”洗脑。


Lushenko 不相信他很快就会为杀人机器人群收集情报——部分原因是他认为皇帝的新衣并不完全到位,而且因为美国目前的政策是,人类必须对机器的行动使用“适当的人类判断”。

他说的没错:根据美国“无人系统路线图”,其计划是让人类参与其中,要求人类“授权使用武器”——至少目前是这样。美国国防部一份于2023年更新的指令也规定,武器必须符合其官方道德原则和负责任的人工智能战略,并让人类对使用武力拥有“适当程度”的判断。“我们关于自主武器系统的政策清晰且确立良好:使用武力始终由人负责,”Pahon在电子邮件中写道。“句号。”

根据美国“无人系统路线图”,其计划是让人类参与其中,要求人类“授权使用武器”——至少目前是这样。美国国防部一份于2023年更新的指令也规定,武器必须符合其官方道德原则和负责任的人工智能战略,并让人类对使用武力拥有“适当程度”的判断。“我们关于自主武器系统的政策清晰且确立良好:使用武力始终由人负责,”Pahon在电子邮件中写道。“句号。”

Hehir说,这项最近的自主指令在限制武器的地理、空间和时间方面,包含了一些她称之为“好”的表述。“我认为美国正在努力‘说一套’,”Hehir说。

但她接着说,这个国家是否会“做一套”,她指着“Replicator”这样的项目,这是另一回事。“很难确定他们的系统会有多自主,”她说,这与其他专家对“Replicator”缺乏透明度的看法不谋而合。“但我预计他们会尽可能接近完全自主的极限。”

然而,言语总归是某种行动,Hehir和“生命未来研究所”正致力于达成国际协议来规范自主武器。“生命未来研究所”和“停止杀人机器人运动”一直在游说并向联合国提交提案。“生命未来”就曾大力推动将自主武器纳入《特定常规武器公约》——这是一项于1983年生效的国际协议,旨在限制或禁止某些类型的武器。但这条路似乎已经走到尽头。“这是一条死胡同,”Hehir说。“二十多年来,那里没有出现任何新的国际法。”

因此,像她这样的倡导组织已经转向尝试制定一项专门针对自主性的条约——就像化学、生物和核武器的条约一样。今年秋天,这是联合国大会的一个议题

Hehir和“生命未来”并不主张全面禁止所有自主武器。“一个方面将禁止最不可预测的针对人类的系统,”她说。“另一方面将监管那些能够安全使用、并具有有意义的人为控制的系统,”她说。

Fortem公司的系统将属于后者,因为其DroneHunter不针对人,并且有人工操作员在场。因此,假定的条约可以让Fortem继续其现有业务,并要求一个人继续主导武器的决策,同时可能要求提高透明度,例如,雷达数据如何转化为对给定目标的结论。

很容易认为这样的规定是徒劳的:看看Hehir自己的数据库,人们可能会得出世界正在进入军备竞赛的结论。Hehir也会同意这一点。但她从历史上看到了世界大国减缓这种竞赛的例子,就像在化学和生物能力方面。“随着时间的推移,军事大国意识到这些武器的扩散不符合他们的利益,”她说。“而且它们太危险、不可预测了。”

“军队并非愚蠢,”她补充道。

但由于目前缺乏国际监管,国家正在继续执行其现有计划。而其境内的公司,如Fortem,则继续研发可能目前并非完全自主或致命,但未来可能如此的自主技术。理想情况下,根据五角大楼发言人Pahon的说法,像“Replicator”背后的那种自主技术将更多地用于威慑而非实际使用。

“我们的目标始终是威慑,因为竞争不一定需要演变成冲突,”他说。“即使如此,如果必须战斗,我们也必须具备获胜的作战能力。”

 

更多优惠、评测和购买指南

 
© .