美国立法者表示,AI 永远不应该能够发射核弹

众议员特德·利乌解释了为何需要联邦法律来阻止AI接触核武器。
Unarmed missle test launch time lapse at night
2021年2月23日,在美国加利福尼亚州范登堡太空部队基地进行试射的一枚未携带弹头的“民兵III”洲际弹道导弹。Brittany E. N. Murphy / U.S. Space Force

上周,众议员特德·利乌(民主党,加州)与参议员爱德华·马基(民主党,马萨诸塞州)以及众多两党议员共同提出了《禁止自主人工智能发射核武器法案》。该法案的目标与其名称一样直观:确保人工智能永远不能对美国的核战略拥有最终决定权。

利乌在法案公布时表示:“在我们都在努力应对AI加速发展的步伐时,AI的未来及其在社会中的作用仍然不确定。作为国会议员,我们有责任具备远见卓识,保护后代免受潜在的毁灭性后果。在发射核武器方面,AI永远不能取代人类的判断。”

他并非唯一持此观点的人——2021年,人权观察组织(Human Rights Watch)发布的一份由哈佛大学法学院国际人权诊所联合撰写的报告指出:“机器人缺乏对待人类的仁慈、同情、怜悯和判断力,也无法理解人类生命的内在价值。”

[相关:这款AI驱动的大脑扫描仪可以释义你的想法。]

如果获得通过,该法案将把国防部2022年《核态势评估》中现有的程序以法律形式固定下来。该评估指出:“在所有情况下,美国将始终保留一名‘回路中的’(in the loop)人类,负责总统关于启动和终止核武器使用的所有关键决策的通知和执行。”此外,根据法案公布,国防部还表示,任何联邦资金都不能用于由自动化系统在没有“有意义的人类控制”的情况下发射核武器。

这项立法提案出台之际,生成式AI,包括ChatGPT等聊天机器人,其威力正日益成为公众讨论的焦点。利乌并没有忽视“有趣的聊天机器人回复”与“对人类的潜在生存威胁”之间超现实的差距。他告诉《PopSci》,他从未想过自己承担的公民责任之一是制定立法,以阻止“天网”式的场景发生。

利乌自称是一名“正在康复的计算机科学专业学生”,他对AI程序现在能够实现的成就感到惊叹。“语音识别现在非常神奇。面部识别也同样神奇,尽管对于肤色较深的人来说,其准确性较低,”他说,并提到了长期以来被记录在案的算法偏见模式。

然而,正是去年发布像OpenAI的GPT-4这样的生成式AI程序,让利乌开始看到了其潜在的危害。

[相关:“AI教父”辞职,公开谈论新兴技术的危险性。]

“它正在创造信息并预测场景,”他谈到现有的技术时说。“这带来了不同的担忧,包括我的看法,即AI,无论它变得多聪明,都绝不应拥有核武器的操作控制权。”

利乌认为,开始讨论AI监管以遏制三个主要后果至关重要:第一,虚假信息和其他“对社会有害”内容的泛滥。第二,控制那些虽然不会对人类生存构成威胁,但“仍然会直接杀死你”的AI。他提到了2022年11月发生在旧金山的一起多车连撞事故,事故造成多人受伤,据称是由一辆使用其备受争议的Autopilot自动驾驶模式的特斯拉引起的。

“当你的手机出现故障时,它不会以每小时50英里的速度行驶,”他说。

最后,还有“可能literally毁灭世界的AI,”利乌说。他认为,《禁止自主人工智能发射核武器法案》至少在一定程度上可以在这方面发挥作用。本质上,如果该法案成为法律,AI系统仍然可以提供关于核事件的分析和战略建议,但最终的决定权将牢牢掌握在人类手中。

[相关:战术核武器的简短而可怕的历史。]

展望未来,利乌表示,由于国会“没有能力或精力来监管AI的每一个应用”,因此需要采取更广泛的监管方法来处理AI问题。他愿意接受联邦机构商定的AI风险标准,或者可能设立一个专门负责生成式AI和未来先进AI的独立机构。周四,拜登政府公布了计划,将为旨在监测和监管AI发展的新研究中心提供1.4亿美元的资金。

当被问及是否担心社会将面临新的“AI军备竞赛”时,利乌承认这“绝对有可能”,但他指出现有的核武器条约。“是的,确实存在核武器军备竞赛,但它(目前)不是一场全面开战的军备竞赛。因此,有可能避免一场全面的AI军备竞赛,”利乌说。

“各国都在关注这一点,并希望他们能携手合作,表示‘有些事情我们绝不允许AI去做。’”

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .