

意大利技术学院的研究人员训练了一个人工智能计算机程序通过了非语言图灵测试。通过模仿人类的行为,例如在参与交互式形状和颜色匹配游戏时改变反应时间,该人工智能得以隐藏其真实身份。相关研究本周发表在期刊《机器人科学》上。
图灵测试是计算机科学家用来确定机器是否能表现出足够令人信服的类人智能水平,以至于愚弄另一人类,使其相信它本身也可能是人类的标准。这通常通过“模仿游戏”的变体来完成。游戏规则如下:总共有三名玩家。一名玩家无法看到另外两名玩家,但可以通过提问或与他们互动来与他们交流,以确定这两名玩家中哪一个是人类,哪一个是机器。当人类观察者无法区分人类和计算机的答案时,计算机就通过了图灵测试。
研究人员在研究中写道:“鉴于我们的大脑如何被调整以检测非常微妙和隐含的人类行为信号,因此值得探究的是,人形机器人是否可以通过体现其物理行为中的人类特征,来通过非语言版本的图灵测试。”
[相关:解析谷歌“有感知能力”的 AI 争议]
在他们的实验中,他们将一名人类和一台机器人放在一个房间里。人类和机器人都要观察屏幕上的彩色形状。每个参与者只负责响应一种颜色。例如,一名参与者可能只负责在屏幕上出现红色方块时按下按钮,而另一名参与者可能只负责在屏幕上出现绿色方块时按下按钮。但这里的关键是:机器人队友是通过远程控制的,有时由人类控制,有时由人工智能控制。人工智能会考虑其人类队友的反应时间,并在看到形状和按下按钮之间随机变化其反应时间,以显得更像人类。
在共同玩完游戏后,参与者被要求猜测他们的机器人队友是由另一个人还是由人工智能驱动的计算机程序控制的。虽然人们通常能分辨出机器人背后是另一个人,但当面对人工智能时,他们却遇到了困难,猜错的概率超过 50%。“我们的研究结果表明,观察者可能利用‘人性痕迹’,例如行为变异性范围,来将人性归因于人形机器人,”研究人员写道。“这为机器人设计提供了启示,其目标是赋予机器人能够被用户视为类人行为的能力。”
这并非机器首次通过图灵测试。在2014 年,由雷丁大学组织的一项活动中,一个计算机程序成功说服了伦敦皇家学会三分之一的人类评委,认为它是一名 13 岁的男孩。就在上个月,谷歌的一款人工智能也通过了该测试的一个版本,引发了关于此类程序伦理的争议。然而,许多科学家指出,虽然通过图灵测试是一个有意义的里程碑,但由于测试设计中固有的缺陷,它不能用来衡量机器是否真正地思考,因此也不能用来证明真正的通用智能。