

杰弗里·辛顿(Geoffrey Hinton)被一些人誉为“人工智能教父”,他开创了当今最具影响力和 争议性人工智能系统背后的技术。他还刚刚辞去了在谷歌的职务,以便能更自由地批评他帮助创建的这个行业。在周一发布的《纽约时报》采访中,辛顿证实,他在三月份告知了雇主他的决定,并于上周四与谷歌首席执行官桑达尔·皮查伊进行了谈话。
2012年,多伦多大学的计算机科学研究员辛顿和他的一些同事在神经网络编程方面取得了突破。不久之后,他们被谷歌邀请与公司合作开发这项技术。尽管神经网络的数学能力在研究人员中曾一度受到怀疑,但它们处理海量数据的能力,如今已成为行业颠覆性的文本和图像生成人工智能技术(如谷歌 Bard和OpenAI 的 GPT-4)的底层基础。2018年,辛顿和他的两位长期合作研究员因其在神经网络领域的贡献获得了图灵奖。
[相关:微软裁撤整个 AI 伦理团队,全力押注 ChatGPT]
然而,鉴于人工智能近期 更具争议性的进展,辛顿在接受《纽约时报》采访时表示,他越来越担心公司之间正在发生的这场技术军备竞赛。他表示,他对行业在几乎没有监管或监督的情况下发展感到非常警惕,并被描述为部分“后悔毕生的工作”。“看看五年前的样子,再看看现在。把这种差异向前推演,”辛顿补充说。“这很可怕。”
人工智能的进步在 气候建模和检测 癌症等传统上复杂的问题上展现出了巨大的潜力。“‘这些东西实际上可能变得比人更聪明’——很少有人相信这一点,”辛顿在采访中说。“但大多数人认为这还很遥远。我曾经也这么认为。我以为这还需要30到50年甚至更长时间。显然,我现在不再这样认为了。”
[相关:不,AI 聊天机器人(仍然)没有意识]
据《纽约时报》报道,这位75岁的研究员起初认为,谷歌、微软和OpenAI等公司的进展将提供新的、强大的语言生成方式,尽管仍然“不如”人类的能力。然而,去年,私营公司的技术进步开始让他感到担忧。他仍然认为(大多数专家也这么认为),这些神经网络系统仍不如人类智能,但他认为在某些任务和责任上,人工智能可能“实际上要好得多”。
自《纽约时报》的报道发布以来,辛顿在推特上澄清了他的立场,称他“离开了,以便能够谈论人工智能的危险,而无需考虑这会如何影响谷歌”。辛顿补充说,他认为“谷歌一直非常负责任”。上个月,《彭博社》的一篇报道援引员工采访称,公司内许多人认为谷歌在人工智能开发过程中存在“道德失误”。
“我用平常的借口来安慰自己:如果我没做,别人也会做,”辛顿谈到他对人工智能的贡献时说。