
OpenAI 已解散其负责防范人工智能潜在生存风险的“超级对齐团队”,距离首次宣布成立还不到一年。该解散的消息最早由Wired等媒体证实,并且公司前超级对齐团队联合负责人Jan Leike在X上发布了冗长的帖子。在今天的解释之前,Leike在5月15日简单地发推说“我辞职了”,没有提供任何进一步的细节。
Leike今天在X上写道:“我加入是因为我认为OpenAI将是世界上进行这项研究的最佳场所。然而,我与OpenAI领导层在公司核心优先事项上存在分歧已经有一段时间了,直到我们终于达到了一个临界点。”
OpenAI 于 2023 年 7 月成立了超级对齐项目。在随附的博客文章中,该公司声称超级智能人工智能“将是人类有史以来发明的影响最大的技术,并可能帮助我们解决世界上许多最重要的问题。但超级智能的巨大力量也可能非常危险,并可能导致人类的赋权丧失甚至人类灭绝。”
" rel="noreferrer noopener nofollow">2024年5月17日昨天是我作为对齐部门负责人、超级对齐负责人和@OpenAI高管的最后一天。— Jan Leike (@janleike)
该公司继续表示,“管理这些风险需要,除其他外,建立新的治理机构并解决超级智能对齐问题”,同时宣布 Leike 和 OpenAI 首席科学家兼联合创始人 Ilya Sutskever 为超级对齐团队的联合负责人。Sutskever 此后也离开了 OpenAI,据称是由于类似担忧,而该团队的其余成员据报道已被吸收到其他研究小组。
该公司的高管和开发者,包括首席执行官 Sam Altman,一再警告“失控人工智能”的潜在威胁,这种人工智能如果设计不当,可能会绕过人类的保障措施。与此同时,OpenAI 以及 Google 和 Meta 等公司,定期吹嘘他们最新的 AI 产品进展,其中一些现在可以生成近乎逼真的媒体和令人信服的人类音频。本周早些时候,OpenAI宣布推出 GPT-4o,这是一个多模态生成式人工智能系统,能够对人类提示做出逼真(尽管有时仍然生硬)的响应。一天后,Google 透露了其自身类似的进展。尽管存在所谓的严重风险,但这些公司却例行地声称自己是能够解决这些问题的专家,同时游说以制定行业法规。
[相关: Sam Altman:人工智能时代将需要“能源突破”]
尽管 Leike 离职和超级对齐团队关闭背后的具体细节尚不清楚——最近的内部权力斗争暗示了在如何安全、公平地推动行业发展方面存在严重的意见分歧。一些批评者认为,人工智能行业正迅速接近一个回报递减的时代,促使科技领导者调整产品预期并改变目标。另一些人,例如 Leike,似乎坚信人工智能可能很快就会对人类构成严峻威胁,而像 OpenAI 这样的公司对此并未给予足够的重视。
但正如许多批评者指出的那样,生成式人工智能仍然远非自我意识,更不用说能够“失控”了。然而,无论是否有自主意识的聊天机器人,现有的技术已经影响到虚假信息、内容所有权和人类劳动者权利等主题。随着公司继续将新兴的人工智能系统推向网络搜索、社交媒体和新闻出版物,社会正不得不面对其后果。