不,AI 聊天机器人(仍然)没有意识

专家表示,拟人化和将有意识的感知投射到微软和谷歌的聊天机器人上,会分散人们对真正问题的注意力。
Image of hands coming out of a computer or a man hiding behind a laptop
聊天机器人根本无法形成个性——它们甚至不理解“个性”是什么。 Deposit Photos

自从上周测试人员开始与微软的 ChatGPT 驱动的 Bing AI 助手互动以来,他们已经收到了一些超现实的回复。但聊天机器人并没有真的 失控。它不想 入侵一切。它并没有 爱上 你。 评论家警告,这种 日益增长的关注 集中在聊天机器人所谓的 隐藏的个性、议程和欲望 上,会助长机器中并不存在的幽灵。更重要的是,专家警告说,对生成式 AI 聊天机器人持续的拟人化,会分散人们对这项新兴技术更严重、更紧迫的危险的注意力。

“我们从一些世界上最大的新闻机构那里看到的,我会将其比作在高速公路上减速,以便更好地查看车祸现场,” Jared Holt 说。他是专注于极端主义和虚假信息的独立智库 战略对话研究所 的研究员。对 Holt 来说,像 微软 和谷歌这样的公司正在 过度炒作其产品的潜力,尽管它们的程序存在 严重缺陷

[相关:AI 能进行对话,并不意味着它很聪明。]

在各自推出后的一周内,谷歌的 Bard 和微软的 ChatGPT 驱动的 Bing AI 助手都被发现生成了 难以理解不准确 的回复。仅凭这些问题就应该暂停产品发布,尤其是在一个已经充斥着虚假信息和不可靠来源的在线生态系统中。

尽管人类编程的限制在技术上应该禁止聊天机器人生成仇恨内容,但 它们很容易被绕过。“我这样说吧:如果少数无聊的 Reddit 用户能够找出如何让你的聊天机器人 发表充满仇恨的言论,那么也许这项技术还没有准备好进入我们生活的各个方面,” Holt 说。

这个问题的一部分在于我们如何解读这项技术。“在我们的注意力经济中,记者很容易认同‘这些工具背后可能存在一个包罗万象、多用途的智能’的观点,” Data & Society 的研究总监 Jenna Burrell 告诉 _PopSci_。正如 Burrell 上周在一篇 文章 中所写的那样,“当你想到 ChatGPT 时,不要想到莎士比亚,而要想到自动补全。从这个角度来看,ChatGPT 根本不‘知道’任何东西。”

[相关:人工智能的广阔世界入门指南]. ]

ChatGPT 和 Bard 根本无法形成个性——它们甚至不理解“个性”是什么,除了作为用于模式识别的字母字符串,这些字符串是从大量的在线文本中提取出来的。它们计算出它们认为句子中下一个最有可能的词,将其插入,然后重复 ad nauseam。纽约大学坦顿计算机科学与工程系的副教授 Brendan Dolan-Gavitt 表示,它更像是一个“统计学习机器”,而不是一个新的笔友。“目前,我们没有任何迹象表明 AI 具有‘内在体验’、个性或类似的东西,”他说。

然而,Bing 令人信服的自我意识模仿,可能会带来“一点危险”,一些人对它内在运作的误解产生了情感上的依恋。去年,谷歌工程师 Blake Lemoine 的 博客文章 病毒式传播并获得了 全国性报道;它声称该公司的 LaMDA 生成文本模型(Bard 现在使用)已经有了意识。这一说法立即 引起了 AI 社区其他人的怀疑,他们指出该文本模型仅仅是在模仿意识。但随着模仿的改进,Burrell 同意,它“将继续混淆那些将机器意识、动机和情感解读到这些回复中的人。”因此,她认为聊天机器人应该更多地被视为利用“词语序列预测”来提供类人回复的工具,而不是“人工智能”。

拟人化聊天机器人——无论是自觉还是不自觉——都会对理解技术的能力及其局限性造成损害。聊天机器人是工具,建立在大量先前人类劳动成果的基础上。不可否认,它们在响应文本输入方面正在变得更好。然而,从提供 不准确的财务指导 到提供 处理危险化学品 的危险建议,它们仍然存在令人不安的不足。

[相关:微软在人工智能搜索方面遇到了准确性问题。]

“这项技术应该被彻底审查,” Holt 说。“销售它的人声称它可以永远改变世界。对我来说,这足以引起严格审查了。”

Dolan-Gavitt 认为,Bing 最近的回复可能让读者联想到科幻故事中的“失控 AI”情节,部分原因是 Bing 本身对这种桥段也很熟悉。“我认为很多原因可能在于,它接受了大量的科幻故事训练,其中有很多关于 AI 系统变得有意识的故事,”他说。“这是一个非常、非常常见的桥段,所以它有很多可以借鉴的地方。”

周四,ChatGPT 的设计者 OpenAI 发布了一篇博客文章,试图解释他们的流程和解决批评的计划。“有时我们会犯错误。当我们这样做时,我们会从中吸取教训,并迭代我们的模型和系统,”更新中写道。“我们感谢 ChatGPT 用户社区以及更广泛的公众在我们身上保持问责的警惕。”

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .