“人工智能教父”因威胁人类的工作而获得诺贝尔奖

“震惊”的杰弗里·辛顿警告称,人工智能可能“失控”。
Geoff Hinton
“我们没有与比我们更聪明的东西相处的经验。” 图片来源:Johnny Guatto/多伦多大学

被誉为“人工智能教父”之一的杰弗里·辛顿(Geoffrey Hinton)获得了诺贝尔奖,以表彰他在开创一项技术方面所做的贡献——而他本人却担心这项技术可能导致“人类灭亡”。辛顿和另一位人工智能研究员约翰·J·霍普菲尔德(John J. Hopfield)周二荣获了诺贝尔物理学奖,以表彰他们在人工神经网络方面做出的关键早期工作,这些工作至今仍是 Google、OpenAI 等公司开发的强大人工智能模型的基础。这对搭档的工作从人脑的结构中汲取灵感,为机器学习的进步铺平了道路,这些进步已广泛应用于从欺诈检测到自动驾驶汽车等各个领域。然而,在辛顿看来,他所开创的技术也可能对人类安全构成深远风险。 

[ 相关:“人工智能教父”辞职离开 Google,公开谈论这项快速发展技术带来的危险]

早期人工智能研究者从人脑中汲取灵感 

在 20 世纪 70 年代和 80 年代,当人工智能领域是否会发展成为如今的巨头仍不确定之时,霍普菲尔德和辛顿被认为是推动神经网络研究的先驱。霍普菲尔德以结合了物理学、生物学和神经科学的发现,创造出一个能够从数据中保存和重现模式的“霍普菲尔德网络”而闻名。辛顿在此基础上进一步发展,创建了他自己的网络——玻尔兹曼机,该网络能够识别海量数据中的模式。这些进步共同迈出了创造能够分类图像机器的关键第一步。反过来,这又被用于更现代的人工智能模型中,以快速从海量数据集上存储的图像和模式中学习。  

这项奖项进一步凸显了物理学和计算机科学之间日益增长的相似性和相互联系。神经网络从人脑如何利用神经元获取新信息中获得灵感,此后已成为ChatGPT 等大型语言模型以及从癌症筛查到面部识别等各种应用中使用的图像识别模型的底层技术基础。辛顿和他的几位同事此前曾因其在神经网络方面的工作获得图灵奖。 

诺贝尔委员会在公布获奖决定时表示,霍普菲尔德和辛顿的工作为我们“使用计算机”解决具有挑战性的社会问题开辟了新的“途径”。

“多亏了他们的工作,人类现在有了工具箱中的新工具,我们可以选择将其用于好的目的,”诺贝尔委员会在 X(原 Twitter)上写道。“基于人工神经网络的机器学习目前正在彻底改变科学、工程和日常生活。”

辛顿曾将现代人工智能技术称为对人类的“生存威胁”,他周二上午在接受《华盛顿邮报》采访时,似乎对瑞典皇家科学院的决定感到惊讶。 

“我现在住在加州一家廉价的酒店里,网络和电话信号都不好。我今天本来要做核磁共振检查的,但我想我得取消了,”辛顿说道。他继续对未来的人工智能发展表示谨慎,尽管他的语气比他之前的一些说法要乐观得多。 

“在很多方面,这都会很棒,”辛顿告诉《邮报》。“这将意味着生产力的巨大提高。但我们也必须担心一些可能的坏后果……我担心这最终可能导致出现比我们更聪明、最终可能失控的系统。”

“我们没有与比我们更聪明的东西相处的经验,”他补充道。 

辛顿为能自由谈论人工智能的担忧而离开 Google 

2012 年,在他和几位同事在神经网络编程方面取得突破后,Google 找到了辛顿。辛顿随后加入了该公司,担任研究员和副总裁,并致力于推进 Google 的人工智能工作。这项技术的发展速度远超辛顿的预期。在之前的报道中,辛顿表示,他曾认为像 ChatGPT 等大型语言模型近年来产生的文本输出类型,在他有生之年是不可能实现的。这位研究员对人工智能的发展速度越来越感到不安,这促使他去年从 Google 辞职,以便能够更自由地批评该行业。 

离开 Google 后,辛顿加入了一群担忧的科学家和技术专家的行列,他们认为科技行业快速追求开发更强大的人工智能模型可能会带来有害的社会副作用。尽管他近来的言论有所缓和,但辛顿曾表示担心,不受约束的人工智能模型可能会以某种方式“接管”人类。这些担忧导致这位在行业内被许多人称为“人工智能教父”的研究员,据报道对他的大部分毕生工作感到后悔。 

“‘这些东西实际上可能比人类更聪明’——这种想法曾是少数人的信念,”辛顿在 2023 年接受《纽约时报》采访时说道。“但大多数人认为这还很遥远。我以前也这么认为。我认为这还需要 30 到 50 年,甚至更长时间。显然,我现在不再这么认为了。”

辛顿新获得的诺贝尔奖可能会进一步加剧这位研究员与他自己遗产之间本已紧张的关系。 

 

更多优惠、评测和购买指南

 
Mack DeGeurin Avatar

Mack DeGeurin

撰稿人

Mack DeGeurin 是一名科技记者,多年来一直致力于研究科技与政治的交汇点。他的作品曾刊登于 Gizmodo、Insider、New York Magazine 和 Vice。


© .