

女士们,先生们,请欢迎比尔·盖茨加入2015年的人工智能恐慌。
在上周三的Reddit“问我任何事”(AMA)环节中,一个名为beastcoin的用户向微软创始人提出了一个相当出色的问题。“您认为机器超级智能将是多大的生存威胁,并且您是否认为对所有互联网活动进行端到端加密能否保护我们免受这种威胁(例如,机器知道得越少越好)?”
令人遗憾的是,盖茨没有回应问题的后半部分,但他写道:
对于机器人恐惧症患者来说,反人工智能的梦想团队几乎已经完整。埃隆·马斯克和比尔·盖茨拥有资金和影响力,而传奇宇宙学家史蒂芬·霍金——他的广泛担忧包括邪恶机器人和掠食性外星人——则带来了他无与伦比的智慧。他们唯一缺少的只是行动者,有人愿意在与杀人机器的先发制人战争中“弄脏双手”。
实际上,这些新兴的AI复仇者们真正需要的是更难以捉摸的东西:任何迹象表明超级人工智能是一个切实的威胁,甚至是一个重要的研究课题。
也许我错了,或者我太固执于反驳日益增长的人工智能研究恐慌,以至于看不到今天代码中孕育的第一个怪物般意识的闪光。也许盖茨、霍金和马斯克,因为他们是极其聪明的人,所以知道一些我不知道的事情。那么,一些著名的人工智能研究者对超级智能这个话题是怎么说的。
我最初联系这些人士是为了即将出版的《大众科学》纸质版,但如果有什么时候需要对人工智能进行背景解释的话,那就是现在。本着这种精神,我将完整地运行我对问题的回复,几乎不做任何编辑或挑拣。因此,接下来的引述是刻意为之的。我还应该解释一下,我选择这些研究者并不是基于他们先前发表的观点,作为一种确认偏见的“观众”,而是因为他们在机器学习和深度学习方面的研究历史和专业经验。当人们讨论神经网络、认知计算以及人工智能系统最终达到或超越人类智能的普遍概念时,他们通常谈论的是机器和深度学习。如果有人知道现在是否应该恐慌,那就是这些研究者。
“人工智能超级智能不会突然或偶然被创造出来。”
这是人工智能初创公司Vicarious的联合创始人Dileep George谈论超级智能风险的看法。
Vicarious的这种视角不仅因为它目前在学习型人工智能方面的工作,而且因为埃隆·马斯克将这家初创公司作为他“揭开面纱”的一部分。马斯克告诉CNBC,他投资Vicarious,“不是从真正追求任何投资回报的角度。我只是想密切关注人工智能方面的发展。”他还写道,“领先的人工智能公司已经采取了重要的措施来确保安全。他们认识到危险,但认为他们可以塑造和控制数字超级智能,并阻止坏的超级智能逃脱到互联网。这一点还有待观察……”
于是我问Vicarious,他们投入了多少时间和资源来防范超级智能的产生。这是Vicarious的另一位联合创始人D. Scott Phoenix的回应。
Vicarious并没有在做任何关于超级智能的事情。这根本不在他们的雷达上。那么马斯克在说的是哪些公司,其中有哪一家在认真担心他所说的,糟糕的超级智能“逃脱到互联网”?换句话说,当你谈论的是一个恶魔(马斯克的描述,不是我的)时,你如何为它建造一座监狱,而恶魔却并不真实?
这是Facebook人工智能研究主管、纽约大学数据科学中心创始人Yann LeCun,在被问及公司是否积极防止人工智能失控时是如何回应的。
LeCun还谈到了那些试图将超级智能描绘成不可避免的人的主要困惑来源之一:智能与自主性之间的区别。
这是一个至关重要的区别,它触及了马斯克、霍金以及现在的盖茨所煽动的恐慌的核心。人工智能可以很聪明而不具备感知能力,也可以很有能力而不具备创造力。更重要的是,人工智能并没有沿着某种数字等同于生物进化的轨道飞驰,通过竞争和繁殖,直到某种有益的突变自发地触发失控的超级智能。人工智能并非如此运作。
“如果我们能在近期内制造出拥有老鼠般智能的机器,那我们会感到困惑,但我们甚至离那还很远。”
一个搜索算法比任何人都快地提供结果,但它永远不会突然发展出一套道德规范,并对你喜欢的色情内容做出批评。只有科幻作家,或者不是计算机科学家的人,才能想象出通用、人类水平的智能突然、奇迹般地自我解决的谜题。如果你相信一个世俗的奇迹,为什么不再加上另一个,即自组装的超级智能?
LeCun确实为马斯克辩护,称他将人工智能与核武器相提并论是“夸张,但也误解了。”
在本次主题上发言最多的是在最后一段回应中提到的一位研究者。Yoshua Bengio是蒙特利尔大学机器学习实验室的负责人,被广泛认为是深度学习子领域(与LeCun一起)的先驱研究者之一。以下是他对人工智能研究是否具有内在危险性的问题的回答。
我还问了超级智能是否不可避免。Bengio的回答是:
至于马斯克提出的“可能比核武器更危险”,并且需要谨慎对待的观点,Bengio谈到了当下,而没有完全否定未来的未知。
这些回应中的共同点是时间。当你与人工智能研究者交谈时——再次强调,是真正的人工智能研究者,是那些在努力让系统正常工作,而不是工作得太好的人——他们现在或将来都不会担心超级智能会突然出现。与马斯克似乎意图讲述的那些令人毛骨悚然的故事相反,人工智能研究者并没有疯狂地安装防火墙召唤室和自毁倒计时。充其量,这些科学家们正在思考超级智能的问题。这不是一个二元情况。恐慌与谨慎的区别在于程度。如果那些最熟悉人工智能研究状况的人将超级智能视为一个优先级低的研究课题,为什么我们要让任何人的随意、未经证实的评论——是的,即使是比尔·盖茨——说服我们否则呢?