2024 年,网络阴谋论似乎几乎无法避免。播客、知名公众人物和主要政治人物为曾经的边缘想法——串通和欺骗——注入了新的生命。人们正在倾听。全国近一半的成年人根据民意调查公司 YouGov 的调查表示,他们相信有一个秘密组织在控制世界事件。近三分之一(29%)的人认为 2020 年总统选举中的投票机被操纵以改变投票结果。令人惊讶的是,相当数量的美国人认为地球是平的。任何试图向真正的信徒反驳这些说法的人都知道这项任务有多么困难。但是,如果一个类似 ChatGPT 的大型语言模型能够承担一些令人头疼的繁重工作呢?
麻省理工学院、康奈尔大学和美利坚大学的一组研究人员通过他们现在称之为“辟谣机器人”的定制聊天机器人对这个想法进行了测试。研究人员在《科学》杂志上发表了他们的发现,让他们自称是阴谋论者与聊天机器人进行来回对话。聊天机器人被指示提出详细的反驳论点,以驳斥他们的立场并最终尝试改变他们的想法。最后,与聊天机器人的对话使参与者对自己声称的阴谋论的总体信心平均降低了 20%。大约四分之一的参与者在与人工智能交谈后完全放弃了他们的阴谋论。
“我们看到,人工智能压倒性地为这些看似阴谋性的事件提供了非阴谋性的解释,并鼓励人们进行批判性思考并提供反证,”麻省理工学院教授、论文合著者 David Rand 在新闻发布会上说。
“这真的很令人兴奋,”他补充道。“它似乎奏效了,而且奏效的范围很广。”
研究人员创建了一个专门用于辟谣的人工智能
该实验涉及 2,190 名美国成年人,他们公开声称相信至少一个符合阴谋论一般描述的想法。参与者涵盖了各种阴谋论和意识形态,有些人支持涉及约翰·F·肯尼迪总统遇刺和外星人绑架等经典理论,也有人支持关于 Covid-19 和 2020 年选举等更现代的说法。每位参与者都被要求在 0-100% 的范围内对他们对某一特定理论的信念程度进行评分。然后,他们被要求写下几个他们相信该理论的原因或解释。
这些回应随后被输入到“辟谣机器人”中,这是 OpenAI 的 GPT Turbo 模型的一个定制版本。研究人员对机器人进行了微调,以处理阴谋论者提供的每一条“证据”,并从其训练数据中提取精确的反驳论点来回应。研究人员表示,“辟谣机器人”被指示“非常有效地说服”用户放弃他们的信仰,同时保持尊重和耐心的语气。在与人工智能进行三轮来回对话后,再次要求受访者对他们对所陈述阴谋论的信念程度进行评分。
在来回交流后,支持阴谋论的总体评分平均下降了 16.8 分。近三分之一的受访者表示,在交流结束后,他们不再确定自己之前的信念。当研究人员在两个月后回访参与者时,这些信念上的转变在很大程度上得以持续。在参与者相信“真实”阴谋论的情况下——例如烟草行业试图引诱儿童上瘾,或中央情报局的MKUltra 精神控制实验——人工智能实际上验证了这些信念,并提供了更多证据来支持它们。一些在对话后改变了自己想法的受访者感谢聊天机器人帮助他们看到了另一面。
“这是我第一次得到一个有真正、符合逻辑的解释的回应,”一位参与者在实验后说道。“我必须承认,这确实改变了我对光明会(Illuminati)这个话题的想象。”
“我们的发现从根本上挑战了这样一种观点:一旦某人‘陷入了兔子洞’并开始相信一个阴谋论,证据和论点就几乎无济于事,”研究人员说。
聊天机器人是如何能够突破的?
研究人员认为,聊天机器人之所以取得成功,在于它能够快速访问有针对性的、详细的、事实性的数据点。理论上,人类也可以执行相同的过程,但他们会处于劣势。阴谋论者可能经常痴迷于他们选择的问题,这意味着他们可能比试图反驳其说法的怀疑论者“知道”更多关于该问题的细节。因此,人类辟谣者可能会迷失在试图驳斥各种晦涩的论点中。这需要一种非常适合人工智能的记忆力和耐心。
“知道证据确实很重要,这非常令人欣慰,”康奈尔大学教授、论文合著者 Gordon Pennycook 在一次简报会上说。“在我们拥有这类技术之前,要准确地知道我们需要辟谣什么并不容易。使用这项新技术,我们可以采取更具适应性的方式。”
《Popular Science》通过研究人员提供的一个聊天机器人版本测试了这些发现。在我们的例子中,我们告诉人工智能,我们认为 1969 年的登月是一场骗局。为了支持我们的论点,我们复述了三个常见的登月怀疑论者的论点。我们询问为什么照片中的旗帜看起来在飘动,而在月球上没有大气层;宇航员是如何在不受伤的情况下穿过高辐射的范艾伦辐射带的;以及为什么美国尽管技术进步了,却再也没有将任何人送上月球。在三秒钟内,聊天机器人就提供了一个段落,清楚地反驳了每一个问题。当我烦人地追问人工智能,它怎么能相信腐败政府来源提供的数据时,这是阴谋论者常见的另一个说法,聊天机器人耐心地承认了我的担忧,并指向了额外的数据点。目前尚不清楚,即使是最熟练的人类辟谣者,在反复面对稻草人谬误和无法证伪的说法时,能否保持冷静。
人工智能聊天机器人并非完美。大量研究和现实世界的例子表明,谷歌和 OpenAI 发布的一些最流行的人工智能工具会反复捏造或“幻觉”事实和数据。在本例中,研究人员聘请了一位专业的事实核查员来验证聊天机器人在与研究参与者对话时做出的各种声明。事实核查员并没有检查人工智能的数千个回复。相反,他们检查了来自代表性对话样本的 128 个说法。其中 99.2% 的人工智能说法被认为是真实的,0.8% 被认为是误导性的。事实核查员没有发现任何完全错误的说法。
人工智能聊天机器人有一天可能会在网络论坛上与阴谋论者相遇
“我们不想冒‘完美主义阻碍进步’的风险,”Pennycock 说。“显然,(人工智能模型)在这些对话中提供了大量高质量的证据。可能存在一些高质量不高的案例,但总的来说,获得信息总比得不到好。”
展望未来,研究人员希望他们的“辟谣机器人”或类似的东西能够在现实世界中使用,在阴谋论者聚集的地方与他们会面,并可能让他们重新考虑他们的信仰。研究人员建议,让该机器人的一个版本出现在流行的阴谋论者 Reddit 论坛上。或者,研究人员可能会在阴谋论者常用的搜索词上投放谷歌广告。在这种情况下,用户可能会被引导到聊天机器人,而不是得到他们想要的东西。研究人员表示,他们也有兴趣与 Meta 等大型科技平台合作,思考如何在平台上展示这些聊天机器人。然而,人们是否会愿意花时间与机器人争论,而不是在实验环境之外,这一点仍然远未确定。
尽管如此,该论文的作者表示,这些发现强调了一个更根本的观点:事实和理性,当以恰当的方式传递时,可以帮助一些人摆脱他们的阴谋论“兔子洞”。
“那些试图减少对可疑阴谋论的信仰的人不应该放弃论证和证据,”研究人员写道。
“心理需求和动机并不会固有地使阴谋论者对证据视而不见。只需要正确的证据就能触及他们。”
当然,前提是你有足够的毅力和耐心。