

科幻作品中充斥着邪恶的机器人,从《太空堡垒卡拉狄加》中的赛昂人,到《银翼杀手》中复仇的复制人,再到标志性的人类毁灭者终结者。然而,这些机器人都是出于善意而制造的,它们的恐怖暴力是其设计中意想不到的后果,而不是其明确的目的。
如果造成伤害的原因不是人类的愚蠢,而是人工智能,并且是由人类*明确*出于恶意目的而设计的呢?埃隆·马斯克部分资助的一项新研究,正在探讨蓄意制造邪恶机器的可能性。
这篇题为“不道德的研究:如何创造恶意人工智能”的短文,由路易斯维尔大学的Roman V. Yampolskiy和未来学家Federico Pistono撰写,探讨了有人可能用一个极其邪恶的程序做什么样的坏事。为什么?这与DARPA要求人们在自家后院发明新武器的原因相似:最好是通过和平研究现在就发现威胁,而不是等到将来它被用于侵略性攻击时再适应。
Pistono和Yampolskiy有什么发现?他们列出的可能制造恶毒人工智能的群体,开头很熟悉:军队(开发网络武器和机器人士兵以实现统治)、政府(试图利用人工智能建立霸权、控制人民或推翻其他政府)、公司(试图实现垄断,通过非法手段摧毁竞争对手);以及黑客、恶棍、末日邪教和罪犯等等。而人工智能的来源也可能很多。根据作者的说法,未经监督的代码,或设计成尽可能少人看到的闭源编程,都是在不事先警告世界的情况下制造有害人工智能的途径。
好吧,但是恶意的AI实际上会*做什么*来制造问题呢?Pistono和Yampolskiy说,它会压低人类劳动力。
自动化取代工作已经是一个备受期待的恐惧。如此备受期待,以至于它是1921年引入“机器人”一词到英语中的捷克戏剧《R.U.R.》的中心情节。
Pistono和Yampolskiy还看到了AI的哪些恐惧?如果不是夺取生产资料,就是通过宣传政变夺取政府,通过精心资助控制立法机构,或者通过一种新研发的病原体或现有的人类核武器库来消灭人类。换句话说,一个极其恶意的AI对人类可能造成的最大伤害,并不比人类自己已经做过或威胁过要做的次数更多。
这并不是一个令人振奋的未来景象,但它至少应该能提供一丝冰冷、金属般的慰藉:我们不必害怕机器,因为我们早就应该害怕我们自己了。
[通过 New Scientist]