

ChatGPT 或 DALL-E 等流行的人工智能应用越来越受到大众的欢迎,国防部也注意到了这一点。为了抢占这些工具的潜在用途和风险,国防部于 8 月 10 日宣布成立了一个新的特别工作组,以分析并可能将生成式人工智能整合到当前行动中。
人工智能是一个含糊的术语,那些能成为人工智能头条新闻的技术,其缺陷和潜在用途往往同样引人注目。五角大楼特别工作组承认了这些工具的潜力,同时也为军方留出了缓冲时间,以便了解这些工具到底可能带来哪些有用或威胁之处。
虽然五角大楼对人工智能的研究无疑会影响到最终的武器系统,但核心问题在于利用人工智能来处理、理解和从其数据集中得出某些预测。有时这些数据很吸引人,比如无人机拍摄的疑似叛乱分子会面或敌方部队调动的视频。然而,军方收集的许多数据却极其平凡,例如直升机和卡车的维护记录。
生成式人工智能或许可以基于军方独有的数据集进行训练,输出能为军方寻找的答案。但这个过程可能并非如此简单。当今的人工智能工具容易出错,而且这种生成式人工智能也可能生成误导性信息,这些信息可能会被输入到下游分析中,导致混淆。人工智能出错的可能性和风险很可能是军方在研究生成式人工智能时采取谨慎态度,而不是一开始就全盘接受这项技术的原因。
对生成式人工智能的研究将由新成立的特别工作组“利马”(Task Force Lima)进行,该工作组将由首席数字和人工智能官(Chief Digital and Artificial Intelligence Office, CDAO)领导。CDAO 本身成立于 2022 年 2 月,是由几个其他五角大楼办公室合并而成,旨在帮助军方更好地利用数据和人工智能。
“国防部有责任负责任地推进生成式人工智能模型的采用,同时确定适当的保护措施,并减轻因培训数据管理不善等问题可能带来的国家安全风险,”国防部首席数字和人工智能官克雷格·马泰尔 (Craig Martell) 表示。“我们还必须考虑我们的对手将在多大程度上采用这项技术,并试图破坏我们自己使用基于人工智能的解决方案。”
生成式人工智能的一种潜在恶意用途是用于虚假信息传播。虽然一些图像生成模型会留下修改照片的明显痕迹,例如人物拥有异常多的额外手指和牙齿,但许多图像乍一看是令人信服的,甚至是逼真的。3 月份,一张人工智能生成的教皇方济各身穿 Balenciaga 外套的照片让许多人信以为真,即使在其人工智能的来源被知晓且可复现之后。对于教皇这样公众人物,很容易核实他是否真的穿了潮牌羽绒服。而在军事事务上,军方拍摄的照片可能需要很长时间才能解密,一张制作精良的假照片的真实性可能很难被驳斥。
[相关:为什么一张教皇方济各身穿飞行夹克的人工智能图片搅动了互联网]
人工智能生成的图像和数据的恶意使用引人注目——这是现代技术实现的邪恶行为。而同样重要的,甚至是更重要的,可能是常规错误。开源分析机构 Bellingcat 的暑期研究员丹尼斯·科夫通(Dennis Kovtun)测试了谷歌的 Bard AI 和微软的 Bing AI 作为可以提供有关上传图像信息的聊天机器人。科夫通试图了解人工智能是否能复制图像地理定位的过程(即通过综合细节来让人类能够精确定位照片的来源)。
“我们发现,虽然 Bing 模仿了开源研究人员用来为图像进行地理定位的策略,但它本身无法成功地为图像进行地理定位,”科夫通写道。“Bard 的结果并没有好多少,但它在推理方面似乎更加谨慎,并且不太容易出现人工智能的‘幻觉’。两者都需要用户进行大量提示,才能得出任何勉强令人满意的地理定位结果。”
这些人工智能的“幻觉”是指人工智能将培训数据中的错误信息纳入结果中。引入新的、不正确的信息可能会削弱这类工具所承诺的节省劳动力的效用。
“国防的未来不仅仅是采纳尖端技术,更要以远见、责任感和对国家更广泛影响的深刻理解来采纳,”国防部副部长凯瑟琳·希克斯(Kathleen Hicks)在宣布成立利马特别工作组时表示。
美国军方作为一个组织,尤其警惕技术突袭,即竞争国家可能开发出一种强大新工具而美国却未做好准备。尽管希克斯强调了在开发生成式人工智能用于军事用途时所需的谨慎,但利马特别工作组任务指挥官哈维尔·卢戈(Xavier Lugo)则将这项工作描述为在管理风险的同时进行实施。
“各军种和作战司令部正积极寻求在情报、作战规划、项目和业务流程等多个任务领域利用生成式人工智能能力和[语言学习模型]的优势并管理其风险,”卢戈说。“通过优先开展工作、减少重复,并提供赋能的人工智能支撑,利马特别工作组将能够塑造[语言学习模型]在整个国防部的有效和负责任的实施。”