

本文最初发布于 The Conversation。
Kyle Mahowald 是语言学助理教授,德克萨斯大学奥斯汀分校文学院;Anna A. Ivanova 是脑与认知科学博士候选人,麻省理工学院 (MIT)。
当你读到这样一句话时,你的过往经验会告诉你,这句话是由一个有思想、有感情的人写的。而在这个例子中,确实有人在输入这些文字:[你好!] 但如今,一些看起来非常像人类写的句子,实际上是由经过海量人类文本训练的人工智能系统生成的。
人们已经习惯于假定流利的语言来自一个有思想、有感情的人,以至于相反的证据可能很难让人理解。人们会如何在这种相对未知的领域中摸索?由于一种根深蒂固的将流畅表达与流畅思想联系起来的倾向,人们自然会——但可能具有误导性——认为如果一个AI模型能够流利地表达自己,那就意味着它能像人类一样思考和感受。
因此,也许毫不奇怪,一位前谷歌工程师最近声称,谷歌的AI系统LaMDA具有自我意识,因为它能够有说服力地生成关于其声称感受的文本。这一事件以及随后的媒体报道引发了一系列理应持怀疑态度的文章和帖子,讨论了关于计算模型人类语言具有感知能力(即能够思考、感受和体验)的说法。
AI模型是否具有感知能力意味着什么这个问题很复杂(例如,请参阅我们同事的观点),而我们的目标并非在此解决。但是,作为语言研究人员,我们可以利用我们在认知科学和语言学方面的研究来解释为什么人类如此容易陷入一种认知陷阱,即认为一个能够流利使用语言的实体是具有感知能力、意识或智能的。
使用AI生成类似人类的语言
由谷歌LaMDA等模型生成的文本很难与人类编写的文本区分开来。这项令人印象深刻的成就,是数十年来致力于构建生成语法良好、意义丰富的语言模型的结果。
至少可以追溯到20世纪50年代的早期版本,称为n-gram模型,它们简单地计算特定短语的出现次数,并利用这些次数来猜测在特定语境中可能出现的词语。例如,很容易知道“花生酱和果酱”比“花生酱和菠萝”更有可能是一个短语。如果你有足够多的英语文本,你会一次又一次地看到“花生酱和果酱”这个短语,但可能从未见过“花生酱和菠萝”这个短语。
今天的模型,即近似人类语言的数据和规则集合,在几个重要方面与早期尝试不同。首先,它们经过了几乎整个互联网的训练。其次,它们能够学习遥远词语之间的关系,而不仅仅是相邻的词语。第三,它们通过大量的内部“旋钮”进行调整——数量如此之多,以至于即使是设计它们的工程师也很难理解它们为什么会生成一个词语序列而不是另一个。
然而,模型的任务与20世纪50年代一样:确定下一个最有可能出现的词语。如今,它们在这项任务上做得如此之好,以至于几乎所有生成的句子都显得流畅且语法正确。
花生酱和菠萝?
我们让一个大型语言模型 GPT-3 完成句子“花生酱和菠萝___”。它回答:“花生酱和菠萝是绝佳的组合。花生酱和菠萝的甜味和咸味互为补充,味道完美。”如果一个人这样说,人们可能会推断他们尝试过花生酱和菠萝一起吃,形成了某种看法,并与读者分享了。
但是GPT-3是如何想出这段话的呢?它通过生成一个符合我们提供的语境的词语。然后是另一个。然后再是另一个。该模型从未见过、触摸过或尝过菠萝——它只是处理了互联网上所有提及菠萝的文本。然而,阅读这段话可能会让人的大脑——即使是谷歌工程师的大脑——将GPT-3想象成一个能够推理花生酱和菠萝菜肴的智能体。

人类大脑天生就倾向于从言语中推断意图。每次你进行对话时,你的大脑都会自动构建一个你的对话伙伴的心理模型。然后,你使用他们说的话来填充这个模型,记录这个人的目标、感受和信念。
从言语跳到心理模型的这个过程是无缝的,每次收到一个完整的句子时都会触发。这种认知过程在日常生活中为你节省了大量的时间和精力,极大地促进了你的社交互动。
然而,在AI系统的情况下,这个过程会出错——凭空构建一个心理模型。
稍加深入探究,就能揭示这种误判的严重性。考虑以下提示:“花生酱和羽毛一起吃味道很棒,因为___”。GPT-3 继续说道:“花生酱和羽毛一起吃味道很棒,因为它们都有坚果味。花生酱也很顺滑细腻,这有助于抵消羽毛的质感。”
在这种情况下,文本的流畅度与我们关于菠萝的例子一样,但这次模型说的话明显不那么明智了。人们开始怀疑GPT-3从未真正尝过花生酱和羽毛。
将智能归于机器,却否认人类的智能
一个令人悲伤的讽刺是,使人们将人性归于GPT-3的认知偏见,同样会导致他们以不人道的方式对待真正的人类。社会文化语言学——研究语言在其社会和文化背景下的学科——表明,过分紧密地将流畅表达与流畅思想联系起来,可能会导致对说话方式不同的人产生偏见。
例如,有外国口音的人常常被认为不够聪明,并且不太可能获得他们有资格获得的职位。类似的偏见也存在于非尊贵方言的说话者(例如美国南部的英语),使用手语的聋哑人,以及有言语障碍(如口吃)的人。
这些偏见非常有害,常常导致种族主义和性别歧视的假设,并且一次又一次地被证明是没有根据的。
仅凭流畅的语言并不意味着人性
AI将来会变得有感知能力吗?这个问题需要深入思考,事实上,哲学家们已经思考了几十年。然而,研究人员已经确定的是,你不能仅仅相信一个语言模型说它感觉如何。言语可能具有误导性,而将流畅的言语误认为流畅的思想是很容易发生的。
