1993年,计算机科学家兼科幻作家弗诺·文奇预测,在三十年内,我们将拥有创造出超越我们自身智能的技术。“不久之后,人类时代将终结,”文奇说。
事后看来,30年后,能够超越——或至少媲美人力——的人工创造实体不再是投机者和作家的专属领域。众多人工智能研究人员和科技投资者正在寻求他们称之为通用人工智能(AGI)的东西:一种能够胜任各种智力任务的人类水平的实体。一些研究人员现在相信,如果人类成功开发出AGI,“人类时代的终结”将不再是模糊遥远的可能。
[相关:不,人工智能聊天机器人仍然没有感知能力]
未来学家们通常将“奇点”的普及归功于文奇。他认为,技术进步最终可能催生出一种能力超越人类大脑的实体。它的引入社会将彻底改变世界——用文奇自己的话说,“变化堪比地球上生命的诞生”。
也许最容易将奇点想象成强大的人工智能,但文奇从其他方面设想了它。生物技术或电子增强可能会调整人类大脑,使其更快、更聪明,例如将人类心灵的直觉和创造力与计算机的处理器和信息访问相结合,以实现超人般的壮举。或者,举一个更普遍的例子,想想1993年的时空旅行者会对普通智能手机用户拥有的能力感到多么惊叹。
“关键在于,一旦机器接管了科学研究和工程工作,进步的速度就会非常快,你无法跟上,”路易斯维尔大学的计算机科学家Roman Yampolskiy说。
Yampolskiy已经在自己的领域看到了这种未来的缩影,人工智能研究人员正以惊人的速度发表大量论文。“作为一个专家,你不再知道什么是前沿技术了,”他说。“它发展得太快了。”
什么是超人类智能?
虽然文奇没有提出通往奇点的任何单一路径,但一些专家认为AGI是计算机科学实现这一目标的途径。另一些人则认为这个术语是一个无意义的流行语。总的来说,它描述了一个在任何智力任务上都能达到人类表现的系统。
如果我们开发出AGI,它可能会为创造超人类智能的未来打开大门。当应用于研究时,这种智能就可以以惊人的速度产生自己的新发现和新技术。例如,想象一个假设的人工智能系统,它比任何现实世界的计算机科学家都优秀。现在,想象一下这个系统又被赋予了设计更好的人工智能系统的任务。一些研究人员相信,结果可能是人工智能能力的指数级加速。
[相关:工程师终于窥探了深度神经网络的内部]
这可能会带来问题,因为我们并不完全理解许多人工智能系统为何会以其特有的方式运行——这个问题可能永远不会消失。Yampolskiy的研究表明,我们永远无法可靠地预测AGI能做什么。在他看来,没有这种能力,我们就无法可靠地控制它。他说,这可能导致灾难性的后果。
但是预测未来是困难的,世界各地的人工智能研究人员在这个问题上的看法远未统一。2022年中期,智库AI Impact调查了 738名研究人员对奇点式场景可能性的看法。他们发现意见分歧:33%的人认为这种命运“可能”或“非常可能”,而47%的人认为“不太可能”或“非常不可能”。
“我觉得这会分散对真正重要问题的注意力。”
Sameer Singh,计算机科学家
加州大学欧文分校的计算机科学家Sameer Singh表示,AGI——以及奇点——缺乏一个一致的定义,使得这些概念难以进行实证检验。“这些是值得思考的有趣学术问题,”他解释道。“但是,从影响的角度来看,我认为社会上可能会发生更多的事情,而不仅仅是基于这种跨越阈值。”
事实上,Singh担心关注未来可能发生的事情会掩盖人工智能的失败或愚蠢行为已经造成的真正影响。“当我听到资源被用于AGI和这些长期影响时,我觉得这会分散对真正重要问题的注意力,”他说。模型已经可以生成种族主义、性别歧视和事实错误的输出,这一点已经得到充分证实。从法律角度来看,人工智能生成的内容经常与版权和数据隐私法相冲突。一些分析人士开始将裁员归咎于人工智能,并指责其导致失业。
“谈论‘我们已经实现了这个科幻目标’比谈论事物的实际现实要令人兴奋得多,”Singh说。“这就是我的立场,我觉得我工作的很多社区也是如此。”
我们需要AGI吗?
对人工智能驱动的未来的反应反映了构建、微调、扩展和监控模型的社区中许多更广泛的分歧之一。计算机科学先驱Geoffrey Hinton和Yoshua Bengio最近都对他们认为正在失控的领域表示遗憾和迷失方向。一些研究人员呼吁暂停开发比GPT-4更强大的人工智能系统六个月。
Yampolskiy支持暂停的呼吁,但他不认为半年——或一年、两年,或任何一段时间——就足够了。他对自己的判断毫不含糊:“唯一的赢法就是不去做。”