科技巨头最新的 AI 末日警告可能只是老调重弹

周二,包括人工智能领域顶尖人士在内的一个团体宣称,我们正面临一场“灭绝危机”。
批评者称,人工智能当前的危害包括放大算法偏见、从被剥削的劳动力和被盗数据中获利,以及因资源消耗而加剧气候崩溃。图片由Jaap Arriens/NurPhoto通过Getty Images提供

350多名人工智能研究人员、伦理学家、工程师和公司高管联名签署了一份22字的、单句话的声明,阐述人工智能对人类可能造成的生存风险。该声明由非营利组织人工智能安全中心汇编,该中心包括“人工智能教父”Geoffrey Hinton、OpenAI首席执行官Sam Altman和微软首席技术官Kevin Scott等。“人工智能教父”Geoffrey HintonOpenAI首席执行官Sam Altman微软首席技术官Kevin Scott均同意:“将人工智能带来的灭绝风险的缓解工作,作为与流行病和核战争等社会规模风险并列的全球优先事项,至关重要。”

这则22字的声明及其支持者呼应了今年早些时候发布的一份类似但稍长的联合声明,该声明呼吁对开发比OpenAI的GPT-4更强大的人工智能的研究暂停六个月。然而,这样的暂停尚未实施。

[相关:AI 暂停信函存在一个明显的问题。]

人工智能安全中心执行主任Dan Hendrycks周二在接受《纽约时报》采访时表示,这封公开信是一些行业领导者的“出柜”。Hendrycks补充道:“人们普遍存在一种误解,即使是在人工智能社区内部,也认为只有少数‘末日论者’。但实际上,许多人私下里会对这些事情表示担忧。”

但批评者仍然对这类公开声明背后的动机及其可行性持谨慎态度。

“不要被愚弄:这是伪装成拉响警报的自私炒作,”分布式人工智能研究协会(DAIR)的研究工程师Dylan Baker表示,该协会致力于推动合乎道德的人工智能发展。Baker在接受《PopSci》采访时进一步认为,目前关于假想的生存风险的讨论,正在分散公众和监管机构对“人工智能当今的切实危害”的注意力。此类危害包括“放大算法偏见,从被剥削的劳动力和被盗数据中获利,以及通过资源消耗而加剧气候崩溃。”

DAIR在3月份的公开信之后,于周二重新发布了一份首次发布的单独回应。该组织认为:“所谓的‘人工智能’所造成的危害是真实存在的,并且是由于部署自动化系统的人员和公司的行为所致。监管措施应侧重于透明度、问责制和防止剥削性劳动实践。”

然而,Hendrycks认为,“就像我们不能仅仅优先考虑当前的危害一样,忽视它们也是鲁莽的。”Hendrycks将目前的时刻比作原子科学家在引用J. Robert Oppenheimer的话时,警告世界他们所创造的技术:“我们知道世界将不再一样。”

[相关: OpenAI最新的ChatGPT更新仍然可以传播阴谋论。]

“他们本质上是在说‘拉住我!’”媒体和科技理论家Douglas Rushkoff在周二发布的文章中写道。他补充说,公司试图巩固其在行业内的控制权,而“炒作、恶意、营销和偏执”的结合正在推动人工智能的报道,并掩盖了该技术非常真实、可证明的问题。“这只是一种虚张声势,”他写道,“抱歉,我就是不信。”

Rushkoff在给《PopSci》的另一封电子邮件中总结了他的想法:“如果我必须给出一个与他们的宣言成比例的简短引述,我会说:他们是出于好意。他们中的大多数人。”

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .