在经历了大量 AI 生成的怪诞内容后,微软更改了 Bing 聊天机器人的限制

与此同时,一份在线文件表明,微软早在 2022 年 11 月就已得知必应聊天存在问题。
Microsoft Windows Store logo
Deposit Photos

对于任何关注 微软必应聊天机器人持续上演的“大戏” 的人来说,这真是一段跌宕起伏的经历。在 2 月 7 日 备受瞩目的发布 后,它及其直接竞争对手谷歌的 Bard 几乎立即就被用户无数次展示出的 古怪回应误导性陈述不道德的后果不正确的信息 所掩盖。然而,在经过不到一周的封闭测试后,微软似乎正在通过悄悄实施一系列交互限制来推迟其“搜索新时代”,这对必应最早的测试者产生了重大影响。

正如 多方 消息源 — 包括许多忠实的 必应 subreddit 用户 — 所强调的,微软似乎在周五对这个已加入等待列表的 ChatGPT 集成搜索引擎进行了三项更新:用户每天最多只能发送 50 条消息,每次对话最多允许进行 5 个回合,并且不允许讨论必应 AI 本身。

[相关:不,AI聊天机器人(仍然)没有意识。]

尽管微软新的繁文缛节乍一看可能显得微不足道,但这些简单的改变却极大地限制了用户在与必应机器人讨论时可以生成的内容。例如,每次对话 5 条消息的限制,极大地缩短了 绕过聊天机器人旨在防止仇恨言论和骚扰等棘手话题的保护措施 的可能性。过去,可以通过用户巧妙的一系列 命令、问题和提示 来实现破解,但现在在五步或更少步内做到这一点会困难得多。

类似地,禁止必应谈论“它自己”将理论上限制它生成可能被 用户误认为 AI 意识早期阶段的情感操控性答案的能力(剧透一下:事实并非如此)。

许多用户对引入 受限制的必应 表示哀悼,并认为该机器人的奇特性质正是使其一开始如此有趣和通用的原因。“有趣的是,AI 本来是为了提供答案,但人们反而更想获得连接感,” Roblox 的产品经理 Peter Yang 在周末评论道。但如果说有什么已经被反复证明的事情,那就是孜孜不倦的尝试者总能找到 破解 最新技术的方法。

[相关: 仅仅因为 AI 能进行对话,并不意味着它很聪明。]

在 2 月 15 日的 博客更新 中,微软承认使用必应进行“社交娱乐”的人们是“新技术找到产品市场契合点的一个绝佳例子,而这一点是我们没有完全预想到的”。

然而,最近的在线文件表明,该公司早在 2022 年 11 月就已收到关于 ChatGPT 驱动的必应存在问题的预警。正如科技博主 René Walter 所强调,随后被纽约大学心理学和神经科学教授 Gary Marcus 转发,微软在四个多月前就在印度公开测试了一个版本的必应 AI,并收到了同样令人担忧的投诉,这些投诉 至今仍在网上

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .