做好准备。在《复仇者联盟2:奥创纪元》5月上映前的这些关键几周,编辑和作家们将发布大量关于人工智能(AI)现实威胁的深度文章。无论这部即将上映的电影在票房上能打破多少纪录,它都将以奥创的形式,再次呈现人工智能叛变的景象。这个被创造出来保护人类免受各种威胁的、心怀怨恨的、由詹姆斯·斯派德配音的和平软件,决定孤注一掷,要将我们全部屠杀。这是好莱坞将人工智能超智能的概念转化为动作电影素材的最新一次尝试,但绝不是最后一次。而对于媒体而言,这又提供了一个机会,可以轻描淡写地报道,并深锁眉头,来探讨人工智能领域最严重的问题,而这个问题恰好根本不是问题。
更有可能的是,会伤害到我们的人工智能会非常、非常愚蠢。
我并非认为人工智能完全无害。如果非要说的话,自主算法对人类造成伤害是不可避免的。但就像区分认识到报废卫星变成致命太空垃圾的固有危险,和叫嚣着未来充斥着轨道激光和精神控制卫星一样,与人工智能相关的风险应该被如实评估,并至少保持一丝理智。即将导致生活被毁的人工智能,与奥创这样的超级反派毫无共同之处,也不会是任何人认为的超级智能。更有可能的是,会伤害到我们的人工智能会非常、非常愚蠢。
数字化的种族主义
人工智能安全的概念已经形成了清晰的势头。当非营利组织“生命未来研究所”在1月份发布了一封关于人工智能安全的公开信时,许多与人工智能没有专业关联的人士都签署了。但这并非完全是业余者的表演。签署者中不乏计算机科学家、机器人学家和法律专家。后者之一是瑞安·卡洛(Ryan Calo),华盛顿大学的一位专攻机器人学的法学教授。对卡洛来说,人工智能的短期风险与智能无关,而是与自主性有关。“我担心可能会出现一些意想不到的、涌现的现象,”卡洛说。“例如,也许会有很多人被拒绝提供贷款或信用卡,原因是一个算法发现他们在主要由非洲裔美国人组成的社交网络上活跃。而参与其中的人没有一个是故意种族歧视的,但这将是一场巨大的丑闻。”
卡洛的设想因多种原因而令人不安,但这些原因都与生存危机无关。首先,有些人可能会因意外而被剥夺权利。在人工智能的语境下,自主性的定义是无需人类干预即可采取行动的能力。程序员不必为程序连接起阴险的线索。人工智能可能会基于看似纯粹的定性分析得出令人厌恶的结论。这些结论不一定准确。数据经纪商和广告商在追踪我们的在线活动方面毫不羞耻且无处不在,他们收集我们访问的网站以及个人用户似乎所属的税收等级的一切信息。这可能只需要将房屋止赎与房主种族之间建立一个单一的关联,人工智能就可能做出错误的判断。虽然这不是人工智能最引人注目的例子,但目前使用的高级行为追踪软件也属于该技术相对宽泛的范畴(搜索引擎也包含在内)。种族主义算法甚至算不上特别尖端。
卡洛设想的人工智能实际上并非种族主义。一个没有能力持有意见的机器,就没有能力拥有真正的偏见。这种缺乏社会和情感智能的特点带来了巨大的问题。“法律必须管理风险。它必须让我们觉得它在那里是为了补偿受害者,”卡洛说。“但它通常通过寻找过错来做到这一点。如果这些(过错)缺失了,你可能会有很多受害者而没有加害者。我担心的是法律还无法应对这种情况。”
“你可能会有很多受害者而没有加害者。”
无罪的战争罪行
这种自主问责的问题,可能对被命令夺人性命的人工智能驱动的机器人产生更戏剧性的影响。在科幻小说中,武装机器人很少会犯下任何战场暴行。如果它们要杀死“错误”的人,它们会试图杀死地球上的所有人,通常是受中央超智能的指示。在技术上更可行的是一种远程操作的武器平台,它利用人工智能来处理通信受损的情况。
军事人员总是会指出,当一个无人系统攻击目标时,总有“人在环路中”。但是,如果一个无人机或地面机器人正在与指定目标进行火力交战,并且其通信链路断开了怎么办?它应该停下来,还是撤退,从而可能暴露在敌人的火力之下(或者更糟,被俘)?或者,它应该像参加今年6月DARPA机器人挑战赛的许多机器人一样,在失去联系时继续执行任务,直到通信恢复?
这是一个武装机器人可能会犯下可以说是战争罪的场景。自主机器可能会突然袭击靠近已确认目标平民,或者射杀试图投降的战斗人员。其他场景则不那么复杂——机器人可能只是发生故障,并向人群密集市场开火,使用符合人工智能的高级火力控制软件,精确杀害无辜旁观者。
这里的风险不是故障会蔓延成起义。威胁在于人工智能可能会犯下孤立的谋杀行为,而没有人会受到惩罚。“为了让你追究一名上级军官对其下属战争罪行的责任,该上级必须对他们的下属拥有‘有效控制’——这是法律术语——有效控制,”卡洛说。“所以问题是,作为一名军事指挥官,你是否对战场上的自主资产拥有有效控制?如果不是,这是否意味着你不能对它们负责?”
如果有什么比战争罪更糟糕,那就是无法起诉的战争罪。除非机器人专家和立法者为边缘情况做好准备,并预见到深度智能不足的自主性可能陷入的伦理和法律的无人区,否则将会发生令人发指的事件,而无人需要为此负责。
股市崩盘、肢体残缺和其他日常灾难
当然,大多数人工智能的故障不会导致死亡。自主股票交易软件无疑会再次失误,就像在2010年“闪电崩盘”期间一样,当时道琼斯指数在几分钟内莫名其妙地暴跌了1000点。其他人工智能系统可能会误解传感器数据,导致机器人在工厂里摔到人类同事身上,或者在养老院里摔到老年居民身上。金钱将被浪费,骨骼将被折断。与关于机器超智能的耸人听闻的、非黑即白的银幕幻想相比,这些结果相对来说比较乏味。但如果研究人员和机器人专家认真对待推广人工智能安全,那么这些乏味的事情才需要引起关注,因为它们如此不可避免。
事实上,人工智能的潜在危险之一来自于认为它比实际更聪明。选股算法被赋予了自由裁量权,其专业自主性至少与其看似过时的同行相当。但机器人更是天生具有欺骗性。“人类是病态的拟人化者,所以我们会赋予事物以代理权,而且赋予比实际更高的代理权,”英国布里斯托尔机器人公司的机器人学家、生命未来研究所公开信的另一位签署者艾伦·温菲尔德(Alan Winfield)说。“对于机器人尤其如此。这只是人类对动画事物的反应。我们倾向于看着会动的东西,并将其归因于意图。我们认为它一定有什么东西在脑袋里,即使它没有耳朵,也没有脑袋里的任何东西。”
随着机器人越来越融入我们的生活,这种高估其智能和整体能力的倾向可能导致人身伤害。“我们正朝着人们和机器人在工作场所并肩工作的方向发展,”卡内基梅隆大学机器人工程中心主任托尼·斯滕茨(Tony Stentz)说。斯滕茨设想在工厂里,一个机器人系统可以利用其力量将一个组件定位,而人类则利用其灵活性来拧紧螺栓。这样的团队合作是有希望的,但前提是所有相关人员都了解该机器的能力限制,并且不做出愚蠢的假设。“机器人要具备与即使是 unskilled 的人(仅仅通过活着而拥有基本感知能力和运动技能的人)相同的能力,这是一个挑战,”斯滕茨说。了解机器人能做什么和不能做什么,可能意味着工作日顺产和骨折的区别。人工智能研究人员和机器人专家的责任是创造既安全又极其明确其目的和能力系统的。
了解机器人能做什么和不能做什么,可能意味着工作日顺产和骨折的区别。
高估人工智能可能导致的问题,既有像医院账单这样具体的问题,也有像卡洛所说的“外包决策”的明显趋势这样模糊的问题。马里兰州已经在使用算法来确定哪些假释犯应该受到更高级别的监督。该软件的创建者认为,它也可以用于量刑建议。效率是一个值得称赞的目标,但如此重要的决定是否应该由软件来处理?
同样,不受限制的自主性带来的威胁不必遵循任何滑坡谬误,也不必导致科幻式的全球危机。一个家庭可能因为一次本可避免的工伤而遭受毁灭性的打击,或者因为人工智能在股市上的明显愚蠢行为而失去毕生积蓄。轻微或重大的灾难受害者可能会发现自己无法获得经济或法律追索权,因为责任止于一台非常愚蠢的机器。当大多数研究人员和专家谈论人工智能安全时,他们指的就是这些问题。“这是关于意想不到的后果,”温菲尔德说。“这与阻止超级智能人工智能接管世界无关。我们讨论的是相当愚蠢、不智能的人工智能,它们可能带来重大的后果。”