揭秘谷歌的“有感知能力”AI 争议

近期的争论也将其他更紧迫的问题带到了语言模型上。
person texting on phone
谷歌的聊天机器人是新一轮人工智能争议的焦点。Pradamas Gifarry / Unsplash

一位谷歌工程师声称,他花了数月时间测试的一个人工智能(AI)聊天机器人已经有了感知能力,尽管该公司坚称事实并非如此。在上周分享给《华盛顿邮报》的一份内部报告中,谷歌负责任人工智能团队的高级软件工程师 Blake Lemoine 将这款名为 LaMDA(代表对话应用程序语言模型)的聊天机器人称为“可能是人类创造的最智能的人工制品”。

“但它是否有感知能力?目前我们无法明确回答这个问题,但这确实是一个值得认真对待的问题,”Lemoine 在该报告中写道,随后他在网上分享了约 20 页关于 LaMDA 自我感知能力的问答内容。在这份他也发布在《Medium》上的聊天记录中,他探讨了该聊天机器人对其自身存在和意识的理解。

Lemoine 表示,在与谷歌高管沟通并被否决后,他决定公开这些对话(《纽约时报》称,“数百名”其他谷歌研究人员和工程师也与 LaMDA 进行了互动,并“得出了与 Lemoine 先生不同的结论”)。据《华盛顿邮报》报道,他因此违反了公司的隐私政策而被停职。

LaMDA 基于神经网络架构构建,该架构能够合成大量数据,识别模式,然后从接收到的信息中学习。谷歌在去年关于该模型的新闻稿中表示,对于 LaMDA 而言,大量文本的输入使其能够进行“自由流畅”的对话,并称其为“突破性的对话技术”。《华盛顿邮报》报道称,同年 CEO Sundar Puchai 表示,公司计划将 LaMDA 嵌入到包括搜索和谷歌助手在内的许多产品中。

[相关:为什么你还不能使用谷歌令人印象深刻的文本到图像生成器 Imagen]

谷歌外部的专家们普遍认同该公司对 LaMDA 的调查结果,他们表示目前的系统尚不具备感知能力,而是提供了一种令人信服的人类对话模仿,正如它们的设计初衷一样。

“这些系统所做的,不多也不少,就是将词语串联起来,但却没有任何对背后世界的连贯理解,就像是玩外语拼字游戏的人,将英语单词当作得分工具,却不理解其含义,”人工智能研究员兼作家 Gary Marcus 在一篇Substack 文章中写道,并引用了多位其他专家的观点。

然而,训练 LaMDA 这样的模型存在即时风险,包括“内化偏见、镜像仇恨言论或复制误导信息”,正如谷歌在 2021 年的新闻稿中所述。据《华盛顿邮报》报道,Lemoine 在公司的工作重点一直是解决其中一些问题,他已经开发了一个“用于从机器学习系统中去除偏见的公平性算法”。

然而,他并非第一位在该领域表达对公司人工智能工作担忧的谷歌员工——2020 年,谷歌道德人工智能团队的两名负责人表示,在发现公司语言模型存在偏见后,他们被迫走

 

更多优惠、评测和购买指南

 
Colleen Hagerty Avatar

Colleen Hagerty

科技领域特约撰稿人

Colleen Hagerty是一名独立记者,专注于报道灾难、气候变化、技术和政治。她自2021年以来一直为《Popular Science》撰写科技文章。


© .