为什么人工智能可能对 2024 年总统大选构成重大问题

一个反乌托邦的世界 填满了这段32秒视频的画面。中国军队入侵台湾。画面切换到灾难性的银行业崩溃后关闭的店面,以及圣弗朗西斯科被军事封锁。“谁在这里说了算?感觉这列火车要脱轨了,”一位旁白在视频结束时说道。

任何观看过4月在YouTube上发布的广告的人,都可能会在画面中看到当前事件的影子。但这些拼接的电视新闻和其他影像,在左上角都带有一个小小的免责声明:“完全由人工智能图像生成。”不是经过戏剧化处理或特效增强,而是完全由人工智能生成。 

这则广告由共和党全国委员会制作,以回应乔·拜登总统的连任竞选,是一个预兆。在2024年美国总统大选之前,人工智能正汹涌进入一个政治舞台,而这个舞台仍然被2016年和2020年外国势力的网络干预所扭曲。

专家认为,随着投票日的临近,其影响只会加剧。“我们正经历一个关键时刻,民主的敌人拥有释放技术核爆炸的能力,”人工智能研究机构AI2(一家专注于人工智能及其影响的美国研究机构)的前首席执行官兼现任顾问Oren Etzioni说道。“他们选择的武器是错误信息和虚假信息,以前所未有的强度挥舞,以塑造和动摇选民。”

监管机构也开始感到担忧。尽管美国两大政党都在竞选中拥抱人工智能,但国会已就该技术的用途及其潜在监管问题举行了多次听证会。今年夏天,作为打击俄罗斯虚假信息行动的一部分,欧盟要求Meta和Google标记人工智能生成的内容。7月,这两家公司以及微软、亚马逊等公司同意遵守白宫的自愿性准则,其中包括标记以相同方式制作的媒体。

有办法可以防范错误信息(不准确或误导性说法)和有针对性的虚假信息(旨在欺骗的恶意且完全错误的说法)。选民在选举期间应考虑远离社交媒体,转向传统、可信的信息来源来了解候选人。使用FactCheck.org等网站将有助于抵消一些最严重的歪曲工具。但要真正打破迷思,了解谁——或什么——在制造这些谣言很重要。

从涓涓细流到喷涌的泉水

正如过去选举季的错误信息所表明的那样,政治干预运动在于规模化——这就是为什么人工智能驱动的创作的数量和速度让专家们感到担忧。OpenAI的ChatGPT及类似服务使生成书面内容比以往任何时候都更容易。这些软件工具可以创建广告脚本,以及模仿看似合法来源的虚假新闻报道和观点。 

“我们基本上降低了所有人的进入门槛,”布鲁金斯学会高级研究员Darrell M. West表示,他经常撰写关于人工智能对治理影响的文章。“过去,要使用复杂的人工智能工具,你必须具备技术背景。”现在,任何拥有互联网连接的人都可以使用这项技术来生成或传播文本和图像。“我们把法拉利交给了那些可能习惯开斯巴鲁的人,”West补充道。

自2020年以来,政治竞选活动就已开始利用人工智能来识别募款受众并支持“出门投票”的活动。一个日益增长的担忧是,更高级的迭代版本也可能被用来自动化“电话推销”,通过机器模仿候选人进行欺骗性通话。

在5月份的美国国会听证会上,康涅狄格州参议员Richard Blumenthal播放了一段由其办公室制作的音频深度伪造(使用ChatGPT编写的脚本和他的公开演讲音频片段),以说明人工智能的有效性,并主张不应不受监管。

在同一次听证会上,OpenAI首席执行官Sam Altman表示,旨在操纵选民的错误信息和有针对性的虚假信息是他对人工智能最感到警惕的事情。“我们明年将面临一次选举,而这些模型正在变得越来越好,”Altman说,并同意国会应该为该行业制定规则。

机器人和操纵的货币化

人工智能可能对竞选经理有吸引力,因为它成本低廉。几乎任何人都可以成为内容写手——就像OpenAI一样,它通过使用在肯尼亚的低薪工人来训练其模型。ChatGPT的创建者在2019年写道,他们担心这项技术会降低“虚假信息活动的成本”,并支持“经济收益、特定的政治议程以及/或制造混乱或困惑的愿望”,但这并未阻止他们发布该软件。

算法训练的系统还可以协助传播虚假信息,帮助编写机器人轰炸选民。尽管人工智能编程方法相对较新,但整个技术并非如此:根据2016年牛津大学的一项研究,在2016年总统辩论期间,近三分之一的支持特朗普的Twitter流量是由机器人生成的。类似的手法在2017年法国总统大选前几天也被使用,社交媒体冒充者“泄露”了关于埃马纽埃尔·马克龙的虚假报道。

这些虚构的报道可能包括候选人犯罪的假视频或虚构的声明。针对最近共和党全国委员会针对拜登的政治广告,民主党全国委员会执行主任Sam Cornale在X(前身为Twitter)上写道,诉诸人工智能工具部分是由于共和党“操纵阶层”的毁灭。但民主党全国委员会也寻求开发人工智能工具来支持其候选人,主要是为根据人口统计学特征为选民量身定制募款信息。

我们软件的缺陷

在未来的选举中,两党都有可能从人工智能中受益——并滥用它——继续政治宣传和抹黑活动的历史,这种活动至少可以追溯到16世纪的“小册子战争”。但专家们认为,如果任其发展,现代传播策略尤其危险,并可能加速民选治理和不受恐吓的公平选举的消亡。

“我担心的是,我们从其他技术中学到的教训没有被融入到人工智能的开发方式中,”北卡罗来纳大学教堂山分校信息、技术与公众生活研究中心(Center for Information, Technology, and Public Life)首席研究员Alice E. Marwick说。

人工智能常常带有偏见——尤其是针对边缘化性别和有色人种——这些偏见会回响主流政治言论,而这些言论已经疏远了这些群体。人工智能开发者可以从人类滥用其工具来操纵选举的方式中吸取教训,然后利用这些教训来构建可以被制约的算法。或者,他们可以创建算法工具来验证和打击虚假信息生成器。OpenAI预测了这种后果。但它也可能具有减轻这种后果的能力。

了解更多关于人工智能时代的生命的信息:

或者查看我们的所有 PopSci+ 文章。

 

更多优惠、评测和购买指南

 
Kenneth R. Rosen 是一位常驻意大利的独立记者,也是《Troubled: The Failed Promise of America’s Behavioral Treatment Programs》一书的作者。

© .