

埃隆·马斯克对人工智能(AI)感到恐惧。这位SpaceX和特斯拉汽车公司的创始人预测,AI“可能比核武器更危险”,并最近捐赠了1000万美元用于“保持AI的有益性”的研究。斯蒂芬·霍金也警告说,“完全人工智能的发展可能意味着人类的终结。”
马斯克和霍金并不害怕普通的智能手机助手,比如Siri。他们害怕的是超级智能——即AI超越人类(然后奴役并屠杀人类)。
但是,如果AI末日真的迫在眉睫,硅谷却依然我行我素。截至1月份,已有多达170家初创公司积极从事AI的开发。Facebook已经招募了该领域一些最聪明的人才,成立了一个新的人工智能研究实验室,而谷歌去年则斥资4亿美元收购了AI公司DeepMind。那么问题来了:软件公司和风险投资家们是在玩火自焚吗?还是说,人类最杰出的技术专家们是末日论的假先知?
当然,为新兴的AI行业制定标准是值得的,而且对于例如制定自动驾驶汽车的伦理标准来说,这一点将变得越来越重要。但迫在眉睫的机器人起义并非威胁。现实是,AI的研究和开发极其复杂。即使是像马斯克和霍金这样的智者,也不一定对其有透彻的了解。因此,他们会做出似是而非的假设,这些假设更多地来源于科幻小说,而非现实世界。
人类最杰出的技术专家们是末日论的假先知吗?
在那些真正从事AI工作的人中,很少有人真正担心失控的超级智能。“整个AI社区距离制造出任何可能引起公众担忧的东西还有很长的路要走,”一家知名AI公司Vicarious的联合创始人Dileep George表示。Facebook的AI研究主管、纽约大学数据研究中心主任Yann LeCun强调,创造出与人类水平相当的AI是一个困难——甚至是不可能——的目标,因此在可预见的未来,超级智能并不现实。
然而,AI研究人员并非完全没有担忧。“我这个领域的人所担心的,是现在正在发生的妖魔化,”蒙特利尔大学机器学习实验室负责人Yoshua Bengio说。Bengio表示,除了混淆公众、潜在地吓跑投资者和学生之外,“外面还有一些疯狂的人相信这些关于人类面临极端危险的说法。他们可能会把像我们这样的人当作目标。”换句话说,与AI相关的最紧迫的威胁,可能既不是人造的,也不是智能的。因此,AI社区最紧迫的任务是解决品牌形象问题,而不是技术问题。George说:“作为研究人员,我们有义务向公众解释好莱坞与现实的区别。”
本文最初发表于《流行科学》2015年3月刊,标题为“人工智能不会毁灭人类”。