

自从上周测试人员开始与微软的 ChatGPT 驱动的 Bing AI 助手互动以来,他们已经收到了一些超现实的回复。但聊天机器人并没有真的 失控。它不想 入侵一切。它并没有 爱上 你。 评论家警告,这种 日益增长的关注 集中在聊天机器人所谓的 隐藏的个性、议程和欲望 上,会助长机器中并不存在的幽灵。更重要的是,专家警告说,对生成式 AI 聊天机器人持续的拟人化,会分散人们对这项新兴技术更严重、更紧迫的危险的注意力。
“我们从一些世界上最大的新闻机构那里看到的,我会将其比作在高速公路上减速,以便更好地查看车祸现场,” Jared Holt 说。他是专注于极端主义和虚假信息的独立智库 战略对话研究所 的研究员。对 Holt 来说,像 微软 和谷歌这样的公司正在 过度炒作其产品的潜力,尽管它们的程序存在 严重缺陷。
[相关:AI 能进行对话,并不意味着它很聪明。]
在各自推出后的一周内,谷歌的 Bard 和微软的 ChatGPT 驱动的 Bing AI 助手都被发现生成了 难以理解 和 不准确 的回复。仅凭这些问题就应该暂停产品发布,尤其是在一个已经充斥着虚假信息和不可靠来源的在线生态系统中。
尽管人类编程的限制在技术上应该禁止聊天机器人生成仇恨内容,但 它们很容易被绕过。“我这样说吧:如果少数无聊的 Reddit 用户能够找出如何让你的聊天机器人 发表充满仇恨的言论,那么也许这项技术还没有准备好进入我们生活的各个方面,” Holt 说。
这个问题的一部分在于我们如何解读这项技术。“在我们的注意力经济中,记者很容易认同‘这些工具背后可能存在一个包罗万象、多用途的智能’的观点,” Data & Society 的研究总监 Jenna Burrell 告诉 _PopSci_。正如 Burrell 上周在一篇 文章 中所写的那样,“当你想到 ChatGPT 时,不要想到莎士比亚,而要想到自动补全。从这个角度来看,ChatGPT 根本不‘知道’任何东西。”
[相关:人工智能的广阔世界入门指南]. ]
ChatGPT 和 Bard 根本无法形成个性——它们甚至不理解“个性”是什么,除了作为用于模式识别的字母字符串,这些字符串是从大量的在线文本中提取出来的。它们计算出它们认为句子中下一个最有可能的词,将其插入,然后重复 ad nauseam。纽约大学坦顿计算机科学与工程系的副教授 Brendan Dolan-Gavitt 表示,它更像是一个“统计学习机器”,而不是一个新的笔友。“目前,我们没有任何迹象表明 AI 具有‘内在体验’、个性或类似的东西,”他说。
然而,Bing 令人信服的自我意识模仿,可能会带来“一点危险”,一些人对它内在运作的误解产生了情感上的依恋。去年,谷歌工程师 Blake Lemoine 的 博客文章 病毒式传播并获得了 全国性报道;它声称该公司的 LaMDA 生成文本模型(Bard 现在使用)已经有了意识。这一说法立即 引起了 AI 社区其他人的怀疑,他们指出该文本模型仅仅是在模仿意识。但随着模仿的改进,Burrell 同意,它“将继续混淆那些将机器意识、动机和情感解读到这些回复中的人。”因此,她认为聊天机器人应该更多地被视为利用“词语序列预测”来提供类人回复的工具,而不是“人工智能”。
拟人化聊天机器人——无论是自觉还是不自觉——都会对理解技术的能力及其局限性造成损害。聊天机器人是工具,建立在大量先前人类劳动成果的基础上。不可否认,它们在响应文本输入方面正在变得更好。然而,从提供 不准确的财务指导 到提供 处理危险化学品 的危险建议,它们仍然存在令人不安的不足。
[相关:微软在人工智能搜索方面遇到了准确性问题。]
“这项技术应该被彻底审查,” Holt 说。“销售它的人声称它可以永远改变世界。对我来说,这足以引起严格审查了。”
Dolan-Gavitt 认为,Bing 最近的回复可能让读者联想到科幻故事中的“失控 AI”情节,部分原因是 Bing 本身对这种桥段也很熟悉。“我认为很多原因可能在于,它接受了大量的科幻故事训练,其中有很多关于 AI 系统变得有意识的故事,”他说。“这是一个非常、非常常见的桥段,所以它有很多可以借鉴的地方。”
周四,ChatGPT 的设计者 OpenAI 发布了一篇博客文章,试图解释他们的流程和解决批评的计划。“有时我们会犯错误。当我们这样做时,我们会从中吸取教训,并迭代我们的模型和系统,”更新中写道。“我们感谢 ChatGPT 用户社区以及更广泛的公众在我们身上保持问责的警惕。”