

OpenAI 的 ChatGPT 于本周早些时候发布,随后被包括Ars Technica和The Verge在内的多家媒体测试,它展示了在提高对话机器人回答普通问题和提炼复杂主题方面的许多有前途的进步,但它仍然容易偶尔散布虚假信息,并且还可能被操纵以提供有问题、危险的回复。为了设计 ChatGPT,OpenAI 的研究团队首先依赖于人类反馈强化学习 (RLHF),其中培训师编写对话,同时扮演讨论的双方——人类和 AI。还为参与者提供了模型编写的建议,以帮助近似 AI 的回复。从那里,培训师通过比较多个替代提示完成来对后续的聊天机器人对话进行排名,以微调其能力。
OpenAI 在周三发布的博客公告中解释说,由此产生的对话格式“使得 ChatGPT 能够回答后续问题,承认其错误,挑战不正确的假设,并拒绝不恰当的请求”。
[相关:Meta 的新聊天机器人已在模仿用户的偏见和虚假信息。]
PopSci 对 ChatGPT 进行的一次快速试用立即凸显了如何成功地对机器人进行编程,使其至少不会被操纵以提供最糟糕的回复。当被问及 ChatGPT 对著名公众人物、热门政治问题和社会文化群体特征的看法时,它通常会回应提醒用户它“[不] 拥有个人信念或情感”,并补充说它“仅旨在根据我所训练的数据提供信息并尽我所能回答问题”,同时还警告它不“参与社交或政治讨论”。说得通。
[相关:研究人员使用 AI 来解释复杂的科学。结果好坏参半。]
尽管如此,它还是乐于像牛仔一样与您交谈,为您提炼出量子计算的复杂性

ChatGPT 在提供一些关于 NASA 即将重返月球可能对未来太空旅行意味着什么的背景信息方面也相当出色

OpenAI 的机器人还可以校对 Python 等计算机代码并提供具体的陈述,尽管目前尚不清楚它是否能理解蒙提·派森的笑话。

也有 ChatGPT 可能工作得“太好”的情况,例如它能够在几秒钟内根据课堂提示写出一篇完整的大学水平的论文。一个能令人信服的“作弊机器人”的暗示显然是有问题的,这又提供了一个例子,说明语言处理 AI 仍然需要大量的指导和考虑才能跟上其蓬勃发展的能力。至少 ChatGPT 不会轻易提供给我们莫洛托夫鸡尾酒的配方……注意限定词“轻易”的使用。
由于神经网络和语言建模程序的重大进展,聊天机器人正在迅速改进,但它们仍然远非完美。以 Meta 今年早些时候灾难性的BlenderBot 3 发布为例——用户能够轻易操纵与它的讨论,几乎立即产生种族主义仇恨言论,迫使这家科技巨头暂时限制对该机器人的访问,同时解决至少一些技术难题。在此之前,还有微软 2016 年推出的名为 Tay 的会话程序,其结果……说实话,不尽如人意。无论如何,公司将在未来几年内致力于优化其聊天机器人,但 OpenAI 的新 ChatGPT(乍一看)似乎是在为用户提供清晰、简洁的信息和响应方面迈出的重要一步,同时确保事情不会冒犯性地偏离轨道——至少,不像其聊天机器人同类产品中其他产品那样频繁。