OpenAI 遣散了致力于防止恶意 AI 的团队

该公司在项目启动不到一年后就终止了该项目。
OpenAI logo and Sam Altman in background on screen.
“超级对齐团队”在 OpenAI 存在不到一年。 Deposit Photos

OpenAI 已解散其“超级对齐团队”,该团队的职责是在其首次 宣布成立 不到一年后,阻止人工智能带来的 潜在生存风险。该解散的消息最早由《连线》和其他媒体确认,此前该团队的前联合负责人 Jan Leike 在 X 上发布了 一篇长篇帖子。在此次解释之前,Leike 于 5 月 15 日仅发推文 表示“我辞职了”,并未提供任何进一步的详细信息。

Leike 今天在 X写道:“我加入是因为我认为 OpenAI 将是进行这项研究的全球最佳场所。然而,在公司核心优先事项问题上,我与 OpenAI 高层意见不合已有一段时间,直到我们终于达到了一个临界点。”

OpenAI 于 2023 年 7 月成立了其超级对齐项目。在 随附的博文 中,该公司声称超级智能 AI “将是人类有史以来发明过的最具影响力的技术,并可能帮助我们解决世界上许多最重要的问题。但超级智能的巨大力量也可能非常危险,并可能导致人类被剥夺权力,甚至人类灭绝。”

该公司继续说道:“管理这些风险需要,除其他事项外,新的治理机制并解决超级智能对齐问题。” 当时,该公司宣布 Leike 和 OpenAI 的首席科学家兼联合创始人 Ilya Sutskever 担任超级对齐团队的联合负责人。据称,Sutskever 此后也因类似担忧 离开了 OpenAI,而该团队的其余成员据报道已被吸收到其他研究小组。

包括首席执行官 Sam Altman 在内的公司高管和开发人员一再警告“失控 AI”的所谓威胁,如果设计不当,这种 AI 可能会绕过人类的保护措施。与此同时,OpenAI 与谷歌和 Meta 等公司一样,定期吹嘘其最新的 AI 产品进展,其中一些现在可以生成近乎 照片般逼真 的媒体和 极具说服力的人类语音。本周早些时候,OpenAI 宣布发布 GPT-4o,这是一个 多模态生成式 AI 系统,对人类提示的响应非常逼真,尽管有时仍然有些生硬。一天后,谷歌披露了其 类似的进展。尽管存在所谓的严重风险,但这些公司一再声称自己是 能够应对这些问题 的专家,同时游说 制定行业法规

[相关:Sam Altman:AI 时代将需要“能源突破”]

尽管 Leike 离职和超级对齐团队解散背后的确切细节仍不清楚——最近的公司内部权力斗争 暗示了在如何以安全、公平的方式推动该行业发展方面存在严重分歧。一些批评人士认为,AI 行业正迅速接近一个 回报递减的时代,这促使科技领导者 调整产品预期 并改变目标。其他人,如 Leike,似乎坚信 AI 可能仍很快对人类构成严峻威胁,而像 OpenAI 这样的公司没有足够认真地对待这一点。

但正如许多批评人士指出的那样,生成式 AI 仍然远非自我意识,更不用说能够“失控”了。然而,无论是否有自主意识的聊天机器人,现有技术已经影响了虚假信息、内容所有权劳动者权利 等问题。随着公司继续将新兴 AI 系统推广到网络搜索、社交媒体和新闻出版物中,社会不得不应对其后果。

 

更多优惠、评测和购买指南

 
© .