人们通常习惯于通过Alexa或Siri等无形机器人语音进行交互,在某些情况下,人们甚至会遇到试图与他们对话的真实机器人。但是,当这种情况发生时,人们会信任这些机器人来告诉他们该怎么做吗?
答案是:可能不会。大多数人似乎仍然不信任智能机器人来告诉他们该怎么做,这并不奇怪。
更有趣的是,机器人被视为领导者还是助手,这很重要。如果有人在领导,而机器人只是作为人类权威的助手出现,那么人们更有可能信任它寻求帮助。这正是多伦多大学的两位研究人员在使用软银社交机器人Pepper测试了32名年龄在18至41岁的参与者后发现的。他们的研究结果本周发表在《Science Robotics》杂志上。
他们进行的这项奇特测试是这样的。
你会让机器人帮你吗?
研究人员设置了两种条件,并将参与者随机分配到其中一种。
其中一种条件如下:机器人被塑造成权威人物,因为它实际上就是实验者本人。“我当时甚至不在房间里,”多伦多大学的博士候选人、该研究的作者之一Shane Saunderson说。
要进入实验室,一个人会敲门。机器人Pepper会站在房间前面,说“请进”,然后那个人会开门。接着机器人会说“谢谢,请随手关门并坐下。”
“我当然是通过摄像头远程观看的,这是我在研究中最喜欢的时刻之一,”Saunderson说。“我会看着这些人进来,环顾四周,然后说‘人呢?这到底是怎么回事?’在最初的30秒到2分钟内,大多数人都会明显感到不舒服,因为他们不习惯让机器人来领导。”
在第二种条件下,Saunderson是主实验者,他告诉参与者Pepper只是来帮忙的。
研究小组在两种条件下都进行了两种类型的测量。他们进行了一项客观测量,研究人员布置了一些基本的记忆任务和拼图,让参与者解决。“它们足够难,以至于人们在看问题时可能会寻求外部影响,”Saunderson说。“我们让他们给出了初步答案,然后机器人会给出一个建议,之后他们可以给出最终答案。”
之后,研究人员测量了机器人对参与者第二次答案的影响程度,并与第一次答案进行了比较。他们还让参与者填写调查问卷,了解他们对机器人的看法,以及是否认为它具有权威性。
“我们认为,与同伴机器人相比,权威机器人会更具说服力。这通常是在人与人互动中看到的,”Saunderson说。“在我们的研究中,我们发现恰恰相反,以同伴形式出现的机器人实际上更具说服力。”参与者更愿意听取它的建议。
令人震惊但事实如此:人们似乎不喜欢机器人“统治者”的想法
Saunderson查阅了相关文献,试图解释这种行为。他发现,要成为一个有效的权威人物,其中一部分在于其合法性。
“我们必须相信那个事物是合法的权威,否则我们就不想配合它,”他说。“通常,这归结为两件事。第一,有一种共同身份感。所以,我们需要感觉我们有共同点,并且我们正在朝着一些相同的目标努力。第二,我必须足够信任那个人,才能相信我们能够实现那个共同目标。”
例如,一个想学习的学生如果认为老师是在努力教他们,那么他们就有共同的目标。但此外,学生还必须信任老师能做好工作,才能真正将他们视为权威人物。
那么,Pepper出了什么问题?Saunderson认为,首先,共同身份感并没有真正存在。“它不是人。它是一堆电线和螺丝。人们可能很难说‘你和我是一样的,你是合法的权威人物’,”他说。然后,从关系的角度来看,实验中的大多数人可能是第一次接触社交机器人。
“他们与机器人没有任何融洽的关系或历史联系。你可以想象一下,这会导致他们与之建立信任感的问题,”他补充道。
对Saunderson来说,研究中最令人惊讶的部分是,女性和男性对Pepper在领导者角色中的反应似乎存在显著差异。“历史上,在我们所有的研究和我所见过的研究中,当你进行机器人互动并测量说服力、信任度等方面时,男性和女性之间并没有真正差异,”他说。
在这项研究中,同伴机器人对男性和女性的说服力大致相同——约为60%。然而,与女性相比,男性更不愿意信任权威机器人。在这种情况下,Pepper只说服了约25%的男性和约45%的女性。
“我们实际上找到了一篇综述论文,该论文调查了70项不同的研究,发现男性倾向于对权威人物更加反叛。这是一种奇怪的现象。也许男性自尊心不喜欢有人在他们之上,”Saunderson说。“这是否意味着机器人能够以某种方式恐吓或让男性感到不舒服,以至于他们觉得有必要行使自己的自主权?这有点推测,但如果我们根据这些结果来看,那么我们研究中的男性理论上会感到受到一个机器人权威人物的威胁。”
Saunderson认为,这些结果并不一定意味着机器人永远无法担任领导或管理角色。然而,人类需要意识到机器人所处的位置,并根据具体情况定制机器人的设计和行为。如果它处于权威角色,例如,机器人可能需要更多地扮演一个提供支持的同伴型领导者,以改善他人的工作,而不是成为那种“有攻击性、冷酷、不服从命令就完了”的老板。你可以想象,我们可能更容易接受一个乐于助人的C-3PO,而不是一个“指手画脚”的T-1000。
[相关: 特斯拉希望制造人形机器人。这是他们的竞争对手。]
“如果是其他社交角色,同样,我们希望了解人们在这种社交角色中对该机器人的感受,以便使其成为一种良好的体验,”他说。
尽管有所犹豫,研究结束时,大多数处于权威条件下的参与者还是听从了机器人的指示,并根据它的提示更改了答案;所有参与者都完成了研究。
机器人说服的艺术
这项研究是Saunderson在他的博士期间一直在研究的一个更大问题的组成部分,即:如何才能让机器人具有说服力?为了了解背景,他阅读了有关人类行为、心理学和说服力的文献,深入研究了20世纪末的文献。
说服的教科书定义是试图改变某人对某事的态度或信念的行为。心理学文献进一步剖析了说服的组成部分,然后他将其应用到机器人上。“所以,如果我试图说服你,”他问道,“我的说话方式、我的外表、我使用的策略或我提供的东西有什么作用?”
他补充说,说服是一条双向街道,对方的动机和个性也可以影响说服策略。“你是否对我持怀疑态度?你想被说服吗?你是更容易被情感论证还是逻辑论证所说服?这些都是需要考虑的。”
Saunderson之前的一项研究考察了机器人可以使用的不同类型的说服策略。他观察到,情感策略是最有效的。也就是说,机器人会说,“如果你这样做,我会很高兴,”或者“如果你不帮我做这件事,我会很难过,”而不是使用理性的策略,例如说,“我可以完美地计算,所以这就是答案。”
当机器人说出带有情感的话语时,尽管参与者认识到机器人并没有真正的情感,但他们仍然更愿意帮助它。
“我认为这确实反映了人类与生俱来的对社交联系的渴望。这种归属感的需求告诉我们,我们需要生活中有他人,或者至少需要社交互动,”他说。“虽然我认为机器人作为社会伙伴和伴侣在其成熟度和发展方面仍处于早期阶段,但我认为它们可以在填补我们与他人之间的社交联系方面发挥作用。”
社交机器人的兴起和人机交互的演变
那么,社交机器人到底是什么?多伦多大学机械工程教授、同一篇《Science Robotics》论文的合著者Goldie Nejat解释说,它是一种交互式机器人,通过引导日常活动和任务等简单的方式与人互动和沟通。
“社交机器人正在帮助人们,无论它们是提供陪伴还是协助,”她说。“它们是交互式的,因为它们有表情、面部表情、肢体语言,它们有语言,也能理解语言并对人们的情感和动作做出反应。”
这些机器人可以有多种形式,从动物形态到类人形态。它们的形态当然会影响它们与人的互动方式。但是,通过提供简单的触摸,人类就能与它们建立联系。《纽约客》曾报道,在疫情期间,社交机器人宠物为孤立的老年人提供了一种奇特的解脱,缓解了他们的孤独感。
在计算机和机器人的演变过程中,社交机器人已经分化出来,不再仅仅是纯粹的功能性或面向物理操作的。Saunderson说:“这正是机器人技术过去所定义的。比如组装焊接机器,或者搬运物品,或者自动驾驶汽车。”社交机器人会学习其互动和环境,以更好地提高其探索和寻找人类的能力,并在医疗保健、零售甚至食品服务等各种应用中与人互动。
人机交互研究最初源于人机交互,后者始于20世纪70年代和80年代。在计算机开始在家庭和工作场所普遍使用后,人们意识到它们在社会调解中起着重要作用,技术影响了我们彼此互动的方式。
Nejat说,人机交互的实现很大程度上取决于界面设计。这意味着界面设计必须吸引人,并让人们保持对他们正在与计算机进行的活动的投入。后来,这种对吸引人设计的考虑被重新应用到了社交机器人上。
Saunderson说:“当你通过电脑进行互动,与一个有面孔、可以显示面部表情和肢体表情的机器人进行互动时,会产生一些奇怪的效果。它开始模糊纯粹是技术设备和我们实际上像对待人一样进行社交互动的事物之间的界限。”
这类研究已经取得了一些成功,但也遇到了一些障碍。其中一个挑战是,有些人似乎不愿意承认他们需要帮助,尤其是在机器人那里。
Nejat说:“我们经常看到这一点,例如对于老年人,当我们把机器人技术带到长期护理院、医院,甚至他们的私人住宅,并告诉他们机器人是来帮助他们的。我们看到他们参与互动,并遵守机器人的所有要求,一切都很顺利。当我们问他们感觉如何、总体体验如何时,他们通常会说‘我喜欢,但机器人不适合我。’”
Nejat认为这里存在脱节,Saunderson也一样。“这可能是他们自己对使用技术的个人看法。因为有时当你依赖技术,尤其是在某些人群中,这意味着你无法独立完成任务,”她说。“没有人愿意说他们再也不能独立完成任务了。”
然而,她对机器人会逐渐被我们接受持乐观态度。Nejat说,曾有一些实验,人类会流畅地模仿机器人的表情,或者回应机器人投射出的情感。模仿是人际社交互动的一个关键特征。因此,看到一个人在机器人微笑时微笑,或者回它挥手,这是一个“美好的景象”,她说,它“让我们对如何使用这些机器人有了新的视角。”