为什么真正的 CHAPPiE 机器人会比朋友更神秘

电影中的人工智能专家解释了创造第一个有意识的机器人需要什么——以及为什么它会出乎我们的意料。

尼尔·布洛姆坎普的新电影《超能查理》(CHAPPiE),本周末在美国上映,讲述了一个有缺陷的机器人蜕变成一个独一无二的有意识机器人的离奇过程。电影的背景设定在南非约翰内斯堡,那里由一支全自动化的机器人警察部队保卫。这些机器人的天才设计师迪昂·威尔逊(戴夫·帕特尔饰)对没有灵魂的自动机器并不满足——因此,他下班后秘密工作,试图赋予他的创造物以意识。

于是,第一个会思考的机器人查理,在被判处销毁后不久便诞生了。这个机器开始它的新生活,对我们通常认为平淡无奇的事物感到惊奇。他(还是它?)很快就开始更多地了解收留他的人类,并根据他被人工智能加速的成长过程改变自己的思维方式。

布洛姆坎普的这部电影最终拒绝了斯蒂芬·霍金和埃隆·马斯克等有识之士的警告,并对人工智能的未来做出了乐观的表述。如果一个机器人从一张白纸开始,却被赋予了意识来帮助它学习和成长,布洛姆坎普暗示它会是一个仁慈的机器人——一个对学术和创意追求感兴趣的存在,而不是像“天网”那样的末日机器。这样的机器人也会信任创造它的人类,模仿他们,甚至对那些与它交友的人表现出爱意。

这是一种乐观而遥远的看法,与电影制作人通常描绘人工智能的方式不同——即全能的、有意识的机器人,它们一心想要毁灭奴役人类。

如果我们真的能创造出有意识的机器人,我们可以期待什么样的系统?

如果我们真的能创造出有意识的机器人,我们可以期待什么样的系统?一个决心要摆脱地球上讨厌的人类人口的机器人?或者一个会优雅地融入我们社会的机器人?

我们采访了加州理工学院的人工智能研究员沃尔夫冈·芬克博士,希望能得到一些答案。他说,更大的问题在很长一段时间内都将得不到解答——我们离创造《超能查理》中设想的机器人还差得很远。据参与该片咨询的芬克介绍,研究人员仍然缺少人工智能拼图中最重要的一块:如何制造一个既有自我意识有环境意识的系统。当这些特质能够被编程时,我们才拥有一个真正自主的系统。而且它将是我们前所未见的。

什么是人工智能?

哥伦比亚电影公司

芬克说,机器人智能存在三个不同的层次。第一种是人类控制的,这是当今大多数机器人的动力。例如,在《超能查理》中,文森特·摩尔(休·杰克曼饰)戴着一个嵌入传感器的头盔来控制一个巨大的军用机器人MOOSE。“它不过是人类的机械延伸或远程存在,”芬克解释说。“智能是由人类灌输的。”

下一个层次是芬克真正认为是真正人工智能的东西:一种预先安装的、基于规则的系统。配备了一系列系统可能遇到的情况列表,机器人可以对各种预先编程的场景做出反应(恰当或灾难性)。《超能查理》就突出了这种智能水平,比如约翰内斯堡的机器人警察部队。机器人警察遵循一套规则,定义了执法人员应如何行事以确保公民安全,而且没有真正的即兴发挥。

“它会说‘我是查理’。这是一个深刻的声明,因为它象征着自我意识,而这是没有人能够弄清楚的。”

这种智能的障碍——如果你追求的是有知觉的机械,那么——它缺乏使生物体思考的基本要素。这是因为它并没有真正意识到自己及其周围的环境。

“如果有人拔枪,那么[机器人]就会拔枪,”芬克指的是警察机器人。“但是当情况发生变化时会发生什么?如果平民跑进现场,他们可能不知道该怎么办,并在过程中伤害一个无辜的人。它们没有自我意识或情境意识。”

根据芬克的说法,创造一个同时具备这两种意识的机器人,会将门槛提高到第三个机器人智能层次——真正的自主性——并标志着第一个人工智能意识的出现。就像查理一样,这样的机器人将能够修改自己的思维和个性,从它的环境和与人类的互动中汲取线索。最重要的是,它会明白自己是一个思考的个体。

“它会说‘我是查理’,”芬克说。“这是一个深刻的声明,因为它象征着自我意识,而这是没有人能够弄清楚的。”

从智能到自主

哥伦比亚电影公司

很可能,自主系统的“大脑”不会像我们今天在机器人学或生物学中了解到的任何东西。然而,它的样子如何,芬克说,要实现它,我们应该看向(请注意)地质学。

不,自主系统不需要成为岩石专家。芬克认为地质学在设计人工智能系统方面的价值在于该领域依赖于溯因推理,这是一项需要多年才能掌握的技能。“你会在15或16岁时遇到一位杰出的物理学天才,但不会遇到一位地质学家,”芬克说。“地质学在不同的层面上运作。”

到目前为止,机器人只能掌握演绎推理技能,也就是自上而下的逻辑。通过演绎推理,一个有意识的生物体从一般信息推断出更具体的结论。这个过程基本上决定了“如果A则B”。例如,如果你被告知“所有宇航员都曾飞过太空”,那么当你得知某人是宇航员时,你就会推断他曾飞过太空。由于它们依赖于基于规则的系统,人工智能机器人已经掌握了这个过程。

正是溯因推理让机器人学家们感到困惑。这种自下而上的逻辑使得从不完整的一组观察中做出最佳假设成为可能。例如,如果一个人头痛流鼻涕,医生可能会得出结论,这个人患了普通感冒。但如果那个人遗漏了另一个症状——比如喉咙痛呢?那么感冒的结论可能是错误的,因为它可能是链球菌性咽炎;医生必须根据现有事实做出最合理的猜测。而这正是溯因推理如此棘手的原因:它是一种能够适应新信息并通过经验加强的智能。

要让机器人真正有意识,它将需要掌握溯因推理过程。

溯因推理是地质学家每天都必须使用的过程,这使得这个职业难以掌握。“你看到一块本不该在那里的岩石,地质学家会想,‘也许曾发生过洪水,’”芬克说。“所以他们可能会寻找河床的证据。如果这些证据不被证实,他们就必须放弃这个想法,重新开始。”

因此,芬克与地质学家密切合作,希望能够解开溯因推理过程的要素。宏观而言,这种逻辑也使人类既能自我意识又能情境意识——它要求我们关注生活经验和周围环境,并利用这些信息来塑造我们的假设和行动。要让机器人真正有意识,它也需要这样做。

“一切都始于观察到你环境中的某些东西,思考可能是什么导致了这种情况,提出一个假设,然后这个假设告诉你接下来该做什么,”芬克说。“我的主张是,这将是实现真正自主系统的途径。”

一个真正的自动化系统是什么样的?

哥伦比亚电影公司

假设一个拥有溯因推理能力的机器人得以实现。它究竟会如何表现?芬克有一个简单的答案:在我们看到它之前,我们无从得知。

“如果你赋予一个机器人系统吸收环境、接受教导和学习的能力,并通过其行为进行评判并修改其思维,”芬克说,“那么它将发展成什么样子,就无止境了。”

从芬克的角度来看,《超能查理》在这一点上是正确的。这个机器人拥有溯因推理能力,它的个性很大程度上基于它与“抚养”它的人的经历。(包括绑架它的几个匪徒。)然而,即使是最好的人类训练了一个自主系统,芬克也不相信它会导向一个富有同情心的实体,或者一个邪恶的实体——它只会是不同的。

“它不受这些核心价值观的约束。它可能有我们无法理解的思维和行为方式,但那是一种完全有效的思维方式,”他说。“它可能只是缺乏伦理行为和道德行为。”

正是这种未知的结局让霍金和马斯克等公众人物感到担忧。几乎所有人类行为都源于我们获得某种目标的愿望,无论是生存、寻找爱情、保护家人等等。机器人可以被编程为具有相同的优化目标,这将帮助我们预测它的行为方式。但如果机器人真正自主,它将能够随时选择更新或更改这些目标,而且可能毫不留情——而由于我们的生物学(和生物动机),我们缺乏这种奢侈——让我们对其真正想要的东西一无所知。我们也可能无法准确预测它下一步会做什么。

幸运的是,芬克说,在我们看到自主系统发挥作用之前还有一段时间。研究人员甚至还没有接近掌握人工智能的溯因推理能力。但正如布洛姆坎普在《超能查理》中所描绘的那样,激进的技术往往会突然出现。“它不会是一个渐进的过程,而是一个颠覆性的过程,”芬克说。“这将是通往真正自主的一个不连续的飞跃。”

更正(2015年3月6日,美国东部时间上午7:54):原始文章错误地标记了溯因推理。我们已在全文中更正。

 

更多优惠、评测和购买指南

 
洛伦·格鲁什(Loren Grush)是《Popular Science》的助理编辑和科学作家,居住在纽约市。她曾为《纽约时报》、《Nautilus Magazine》、Digital Trends、Fox News 和 ABC News 撰稿。格鲁什是两位 NASA 工程师的女儿,在航天飞机和火箭科学家中长大。她很高兴能圆满完成报道科学发现和技术突破的使命。

© .