一封公开信致所有被愚弄而害怕人工智能的人

别相信人工智能的炒作,也别相信它的恐怖。

本周早些时候,一个名为“生命未来研究所”(Future of Life Institute)的组织就人工智能系统(AI)的安全措施问题发布了一封公开信。这封信以及随附的研究文件,以一种令人惊讶的公正态度审视了人工智能研究人员如何最大限度地发挥这项技术的潜力。这封信最令人担忧的部分,说实话,一点也不令人担忧。

以下是 CNET 对这封信报道的标题:

与此同时,《BBC 新闻》稍稍离开了恐慌区,发布了这条虚假信息:

我宁愿相信这是底线了。在涉及机器人和人工智能问题上,记者们不可能再更无知或更肤浅地为了流量而炒作了。读者们也应该厌倦了,总有一天会厌倦点击那些同样的耸人听闻的标题,引用同样的非人工智能研究者——特别是埃隆·马斯克和斯蒂芬·霍金——做出同样的末日预言。煽动恐惧总会随着时间失去效力,即使是最恶毒的媒体报道也有其固有的半衰期。但它从不停止。

忘掉机器在未来几十年可能对我们构成的风险吧。2015 年更紧迫的问题是,是否有人会保护人类免受其故意无知的记者之害。

***

这就是在报道人工智能时如何自取其辱。

首先,尽量少做报道。在这种情况下,这意味着阅读在线发布的公开信,而不去采访任何参与其创作的人。以 CNET 和 BBC 的报道为例,两者都没有引用或澄清帮助撰写这封信或其配套研究文件的研究人员的观点。这是为了速度,但也是一个策略性决定(无论是有意还是无意)。就像所有以对人工智能末日进行疯狂警告为中心的故事一样,你报道得越多,其前提就越站不住脚。该领域的专家倾向于指出,并非危如累墙,这对于你的主要任务——让读者争相逃离——来说一点也不有趣。

加上一个能让人联想到骨骼状的机器人践踏人类头骨的标题,就把复杂、变革性的技术变成了一场马戏表演。

更快、更戏剧化的做法是提供看似有根据,但实际上只是让埃隆·马斯克和斯蒂芬·霍金谈论他们并不擅长的领域。我特别提到他们,因为他们已经成为人工智能恐慌的集体代言人。他们认为机器超级智能可能导致人类灭绝。他们的评论之所以听起来有道理,是因为它们出自才华横溢、缺乏媒体过滤的人之口。如果时间就是金钱,那么马斯克和霍金的重复引述对于忙碌的记者和编辑来说就是一座金矿。你还需要什么背景,除了两个天才公开担忧人类的陨落?

这就是报道一个事关重大的话题所需的一切。从在线文档、过去的采访、推文和评论中复制粘贴,加上一个能让人联想到骨骼状的机器人践踏人类头骨的标题,然后坐等傻瓜上钩。这就是这类新闻报道对创作者和消费者所做的。它把复杂、变革性的技术变成了一场马戏表演。说实话,这已经是对大多数人工智能报道的过高评价了。杂耍艺人为他们的报酬而努力工作。科技记者只需要快速工作。

***

公开信背后的故事,在某种程度上比信本身更有趣。1 月 2 日,大约 70 位研究人员在波多黎各圣胡安的一家酒店举行了一场为期三天的关于人工智能安全问题的会议。这是一次真正秘密的活动。“生命未来研究所”(FLI)并未提前通知媒体,也没有邀请任何记者参加,尽管他们至少提前六个月就计划了这次会议。即使现在,活动组织者也不会提供一份完整的与会者名单。FLI 希望研究人员能够在为期一周的正式和非正式讨论中坦诚交流,而不必担心被追溯。

在一部电影中,这场由一个名字诱人、而且还设在热带地区的组织主办的神秘会议,可能会遭到某种狂暴的弗兰肯斯坦式的算法重构的先发制人的攻击。或者,在更有耐心的电影制作人手中,它会成为第一幕的铺垫:一个紧急呼吁立即停止所有人工智能研究(当然,会被一个黑暗服务器室里叛逆的疯子无视)。来自 BBC 新闻和 CNET 的那些标题,在电影屏幕上看起来会非常合适,预示着全球对一个真正可怕的公告的反应。

实际上,FLI 的公开信是一份相当枯燥的文件。仅标题——《稳健且有益的人工智能研究重点:一封公开信》——就应该能管理读者的期望。这封信提到了机器学习、神经科学和其他研究领域的进展,这些领域的结合为人工智能系统带来了有希望的结果。至于悲观论调,唯一相关的陈述是前面提到的关于“潜在陷阱”的一句话,以及下面这句话。

说实话,这就是这封公开信中最黑暗的部分。几句略带嘲讽的陈述,埋在一份语言刻意乐观的文件中。签署者们有兴趣“最大限度地发挥人工智能的社会效益”,信件以这个行动呼吁结束。

这就是新闻媒体将其解读为呼吁保护人类免受机器侵害,并遏制人工智能研发的文件。这也证明了许多记者在人工智能问题上不仅仅是误解了。他们是在骗你。

***

事实是,人工智能界确实有一些研究人员对人工智能超级智能问题非常担忧,因此 FLI 在信件的配套文件中包含了一个关于这些担忧的部分。但同样真实的是,这些研究人员是极少数。根据康奈尔大学计算机科学教授 Bart Selman 的说法,公开信的目的是平息记者试图灌输给公众的恐慌情绪,同时提出近期的问题。其中一些问题非常复杂且引人入胜。一家抵押贷款公司的机器学习系统,是否会通过深入挖掘申请人的元数据,意外侵犯其隐私,甚至可能违法?Selman 并不担心失控的算法,而是担心有缺陷或过于激进的算法。“这些系统通常被赋予相当高级别的目标。因此,确保它们不会以与你预期截然不同的方式实现其目标,这是合理的研究目标,”Selman 说。“我们面临的问题是,媒体,尤其是大众媒体,过于关注超级智能和人工智能接管的极端角度。而我们正试图向他们表明,这确实是一个可以担心的角度,但对我们来说,这并不是一个大问题。”

当然,正是这些脱离语境的陈述,会助长他们试图扑灭的火苗。Selman 参加了圣胡安会议,并为 FLI 的公开信和研究文件做出了贡献,他不能违背良心地排除人工智能领域未来的某种可能性。那种教条式的否定,与负责任的科学家格格不入。但他也不介意对那些似乎过分关注“自举式人工智能”的研究人员说几句闲话,所谓自举式人工智能是指一个系统突然变得指数级地更聪明、能力更强。“那些从事这个领域 20、30 年的人,他们比新加入这个领域的人更了解复杂性和扩展性这个问题的,”Selman 说。

人工智能研究的历史充满了理论上的基准和里程碑,而唯一的障碍似乎是计算资源的缺乏。然而,尽管处理器和存储技术的发展速度超出了研究人员的预期,人工智能最令人兴奋(或最令人恐惧,取决于你的议程)的应用的截止日期仍然停留在未来 10 到 20 年。我以前写过关于“不可避免的超级智能”的神话,但 Selman 对此的表述更为简洁。他说,关键的错误在于混淆了原理和执行,并假设向某个系统投入更多资源就会引发能力上的爆炸性增长。“计算机科学领域的人们非常清楚,即使你原则上能够做到某件事,即使你有无限的资源,你可能仍然无法做到,”他说,“因为无限的资源并不意味着指数级的增长。而如果你真的有指数级的增长,突然之间你会拥有 20 倍的变量。”自举式人工智能既是一个人工智能研究者最糟糕的噩梦,也是梦想成真——他或她不必一遍又一遍地在同一个充满 bug 的代码上花费数周时间,而是可以坐下来,看着它自己写代码。

这种对超级智能的恐惧的核心是一个目前无法回答的问题。“主流人工智能界确实认为,系统将在 10 到 20 年内达到人类水平的智能,尽管我并不是说智能的所有方面,”Selman 说。例如,语音和视觉识别可能分别达到这种能力水平,但加起来并不等于一个理解即使是幼儿也能理解的社交线索的系统。“但是,计算机是否会成为出色的程序员、出色的数学家,或从事其他需要创造力的工作?这一点就不那么清楚了。有些真正的计算障碍,它们可能实际上是根本性的障碍,”Selman 说。虽然超级智能不一定需要以可识别的人类思维过程出现——用对《失乐园》的引用来表达其痛苦的抗议诗——但它可能需要能够通过编程将自己变成神。这在原则上是否可能,更不用说在实践中是否可能了?

FLI 希望人工智能界能够探索这个问题,但并不抱有任何紧迫感。当我与该组织创始人之一 Viktoriya Krakovna 交谈时,她对媒体如何解读公开信并几乎完全专注于超级智能问题感到震惊。“我们希望表明,人工智能研究界是一群负责任的人,他们正努力构建有益的机器人和人工智能,”她说。相反,记者们将这封信描绘成一种忏悔行为,惩罚 FLI 创建了一个包容性足够强的文档,允许研究“关于失控人工智能的问题——不是威胁,而是问题”。

Selman 认为这样的项目是“少数人”的工作,试图定义一个尚未被研究甚至尚未被定义的问题。他将其比作理论物理学家的工作,他们可能会计算某种宇宙灾难的影响,作为一个纯粹的研究问题。在可以确定这种末日情景在原则上是否可行之前,没有什么需要防范的。这是一个重要的区别,很容易被忽视。为了让科学发挥作用,它必须关注可观测的宇宙,而不是包裹在科学术语中的迷信。

可悲的是,人工智能报道变得不那么煽动恐惧的可能性,就像大型强子对撞机产生一个毁灭地球的黑洞的可能性一样渺茫。还记得那个容易理解的非故事,以及它如何掩盖了那个粒子加速器的真正意义吗?在报道科学技术这个艰巨的任务上,没有什么比威胁人们的生命更能吸引读者的了。

更新: 自发布此故事以来,很明显我低估了 FLI 在超级智能问题上采取即时行动的兴趣。或者,也许是我低估了埃隆·马斯克的恐慌程度。马斯克 今天宣布,他将“承诺投入 1000 万美元,用于支持旨在使人工智能对人类有益的研究”,形式为由 FLI 管理的拨款。“这是……负面结果的范围,其中一些非常严重。所以,我们能否从某些负面结果中恢复过来,目前尚不清楚,”马斯克在视频声明中说。“你可以构建一些场景,其中人类文明无法恢复。”

就这样,记者们又有了另一个重磅引语——来自一位并非人工智能研究者的人——为他们支撑 2015 年的这场人工智能恐慌。

 

更多优惠、评测和购买指南

 
© .