“历史性”的 AI 聊天机器人不仅不准确,而且很危险

让 AI 聊天机器人冒充爱因斯坦和甘地等名人,为何如此值得质疑。
Black and white photo of Albert Einstein
基于 ChatGPT 的应用程序很难替代与阿尔伯特·爱因斯坦这样的人物交流。 Bettman/Getty

在令人反感想法的宏大而冗长的列表中,对能够与 AI 版希特勒进行“有趣且互动”的对话进行付费,可能不会排在最前面。但它或许就排在那里。

然而,已有无数人通过“历史人物”聊天机器人应用程序尝试过。该项目目前仍在苹果应用商店提供,上周因其详尽且备受争议的 AI 档案列表而走红,其中包含甘地、爱因斯坦、戴安娜王妃和查尔斯·曼森。尽管它自称是一款教育应用程序(截至撰写本文时,在该类别中排名第 76 位),适合 9 岁以上人群使用,但批评者迅速谴责此想法,认为这充其量是仓促、经常不准确的噱头,最坏的情况下,是对新兴的、已经充满风险的技术ChatGPT的一种愤世嫉俗的利用

[相关:一份新报告称,构建 ChatGPT 的 AI 内容过滤器摧毁了工人的心理健康。]

连该应用程序的开发者、25 岁的亚马逊软件开发工程师西德哈特·查达(Sidhant Chaddha)上周在接受《滚石》杂志采访时也承认,ChatGPT 的自信和不准确性对那些可能错误地相信其所传播所谓事实是可靠来源的用户来说,是“危险的组合”。“该应用程序使用有限的数据来尽力猜测对话可能是什么样的,”应用程序主页上的说明写道。查达没有回复《Popular Science》的采访请求。

一些历史学家强烈支持这一观点,包括普渡大学(Purdue University)历史技术学助理教授叶卡捷琳娜·巴巴因采娃(Ekaterina Babintseva)。对她来说,试图在历史教育中使用 ChatGPT 不仅品味低下,甚至可能带来极大的危害。

“我创建 ChatGPT 时,第一个想法是‘哦,这实际上很危险’,”她在 Zoom 上回忆道。对巴巴因采娃来说,危险与其说是源于学术抄袭的担忧,不如说是 AI 对社会和文化的更大影响。“ChatGPT 只是进一步消除了批判性地处理信息的能力,以及理解知识是如何构建的能力。”她还指出,目前主要 AI 开发由私营公司掌握,这些公司担心对其知识产权进行严密而有利可图的控制,其发展过程晦暗不明。

[相关:首席执行官们已经在使用 ChatGPT 来写邮件。]

“ChatGPT 甚至不解释这些知识从何而来。它将信息来源黑箱化,”她说。

值得注意的是,ChatGPT 的开发者 OpenAI——以及像“历史人物”这样的第三方衍生品——已经公开了其研究基础设计,任何人都可以查阅。然而,要详细了解它用于训练 AI 理解能力的海量互联网文本库则要复杂得多。即使询问 ChatGPT 引用其来源,也无法提供比“它‘可能’从中提取的公开来源”,例如维基百科更具体的信息。

真是显而易见,沃尔特。图片来源:作者/Popular Science

因此,像查达的“历史人物”应用程序这样的程序会提供歪曲的、有时甚至是完全错误的故事,同时又未能解释其叙事是如何被构建出来的。相比之下,历史学术论文和日常新闻报道则充满了来源引文、脚注和文件记录。“有历史,没有单一的叙事,”巴巴因采娃说。“单一叙事只存在于极权主义国家,因为它们非常致力于产生一种叙事,并削弱那些想要产生与批准的政党路线相悖的叙事的人。”

情况并非总是如此。直到 20 世纪 90 年代末,人工智能研究都集中在“可解释的 AI”上,研究人员专注于心理学家、遗传学家和医生等人类专家是如何做出决定的。然而,到了 20 世纪 90 年代末,AI 开发人员开始放弃这一理念,认为它与其实际目标基本无关。取而代之的是,他们选择追求神经网络,这种网络常常得出连其设计者也无法完全解释的结论。

[相关:青少年心理健康服务因尝试 AI 聊天机器人建议而受到强烈抨击。]

巴巴因采娃和科学技术研究学者们呼吁回归可解释的 AI 模型,至少对于那些对人类生活和行为产生实际影响的系统而言。她表示,AI 应该辅助研究和人类思考,而不是取代它,并希望美国国家科学基金会(National Science Foundation)等组织能够通过奖学金和资助项目来推动这方面的研究。

在此之前,像“历史人物”这样的应用程序可能会继续涌现,它们都基于模糊的逻辑和不明确的来源,同时宣传自己是新颖、创新的教育替代方案。更糟糕的是,像 ChatGPT 这样的程序将继续依赖人类的底层劳动来生产知识基础,而从不承认那些声音。“它将这种知识呈现为一种独特、不可思议的 AI 之声,”巴巴因采娃说,而不是多种复杂人类经验和理解的产物。

[相关:这个 AI 可以验证你是否真的笑了。]

最终,专家们警告说,“历史人物”应该被视为最新的数字戏法。著名的未来学家、最新著作《富人求生:科技富豪的逃避幻想》(Survival of the Richest: Escape Fantasies of the Tech Billionaires)的作者道格拉斯·拉斯科夫(Douglas Rushkoff)在给《Popular Science》的一封电子邮件中,试图为该应用程序找到一丝人造的积极意义。“嗯,我宁愿使用 AI 去……尝试与已故的人交流想法,[而不是]取代活着的人。至少这是我们无法做到的事情。但是选择这些角色似乎更多是为了制造新闻,而不是真正让人们直接体验希特勒,”他写道。

“而且,鉴于你给我发邮件寻求评论,看来这个噱头奏效了!”

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .