MIT 科学家教会机器人如何互相破坏

理解社会机器人可以帮助心理学、军事等领域。
robot arms with marionettes
将人类的社会化分解为粗略的组成部分,可以制造出反映我们微妙欲望的机器人。Ars Electronica / Flickr

机器人能分辨自己是否被破坏吗?这可能不是你会考虑的问题,但正是这样的问题促使麻省理工学院进行了一些不同寻常的研究。

为此,麻省理工学院的研究人员创建了一个模拟,其中有两个具有社会意识的机器人,它们现在可以分辨自己是否被破坏或被帮助。在本周于伦敦举行的2021年机器人学习会议上发表的新论文中,麻省理工学院的一个团队展示了他们如何使用数学框架赋予一组机器人代理社会技能,使它们能够以类似人类的方式进行交互。然后,在一个模拟环境中,机器人可以相互观察,猜测对方想要完成的任务,然后选择帮助或阻碍对方。实际上,这些机器人像人类一样思考。

这类研究听起来可能有点奇怪,但研究不同类型的社会情境在机器人之间如何展开,可以帮助科学家改进未来的人机交互。此外,这种新的人工社会技能模型还可以作为人类社会化的测量系统,麻省理工学院的团队表示,这可以帮助心理学家研究自闭症或分析抗抑郁药的效果。

社会化机器人

许多计算机科学家认为,赋予人工智能系统社会技能将是使机器人在家庭、医院或护理机构等场所真正有用、并对我们友好的最后一道障碍,正如麻省理工学院的研究科学家、这篇近期论文的作者之一安德烈·巴尔布(Andrei Barbu)所说。在重新调整人工智能后,他们就可以将这些工具引入认知科学领域,以“真正量化地理解一些一直难以捉摸的东西,”他说。

“出于几个原因,社会互动在计算机科学或机器人学中研究得不够充分。研究社会互动很难。这不像我们分配一个明确的数字,”巴尔布说。“你和别人互动时,不会说‘这是第七号帮助’。”

这与人工智能中常见的难题不同,例如图像中的物体识别,这些问题定义相对明确。甚至决定两个人之间的互动是什么类型——这是问题的最基本层面——对机器来说也可能极其困难。

那么,科学家如何才能制造出不仅能完成任务,还能理解完成任务意义的机器人呢?你能让机器人理解你正在玩的游戏,仅通过观察就能弄清楚规则,并与你一起玩游戏吗?

为了测试可能的结果,巴尔布和同事设置了一个简单的二维网格,虚拟机器人代理可以在其中移动以完成不同的任务。屏幕上的代理看起来像卡通机器人手臂,它们被指示将水桶移动到树下或花下。

麻省理工学院 / Social MDP on Github

为了实现代理的社会化,研究人员借鉴了心理学的一些技巧,提出了一些基本但不同的社会互动类别,然后将其编码为一系列的行动和反应。他们改编了一个现成的机器人学模型,称为马尔可夫决策过程(MDP),它是一个行动和奖励的网络,可以帮助机器人系统根据世界的当前状态做出决策以实现目标。为了引入社会元素,研究人员调整了机器人的奖励反馈,使其能够根据另一个机器人的需求来修改自己的需求。

“我们拥有的是这个数学理论,它说如果你想进行社会互动,你应该估计对方代理的目标,然后将一些数学函数应用于这些目标,”巴尔布说。“我们将社会互动视为彼此奖励的函数。”这意味着A机器人必须在采取行动之前考虑B机器人将要做什么。而假设是,这是人类社会互动背后的基本机制。

但这类机器人面临局限性。例如,它们无法识别习惯性的社会互动,比如因国家而异的礼仪文化传统。研究中的基本框架是,机器人代理一观察代理二在做什么,然后根据自己的可能目标和周围环境,试图预测代理二的目标。然后,如果代理A的奖励被设定为代理B的目标,它就会帮助代理B。然而,如果奖励被设定为与对方代理的目标相反,那么它就会阻碍对方代理实现其目标。

研究人员可以添加层来使社会互动更加复杂。“你想要估计的行动、奖励、对方代理的目标有一些属性,”巴尔布说。“我们有更复杂的社会互动,比如与其他代理交换东西,你必须弄清楚这个行动对他们有多大价值,对我有多大价值。”

关于下一步,该团队正在积极努力在现实世界中用机器人复制这些模型,并增加交换和胁迫等互动。

人类能分辨机器人是否在进行社会互动吗?

为了获得关于他们对社会互动编码效果的人类视角,研究人员生成了98个不同的场景,其中机器人具有不同级别的社会推理能力。0级代理只能采取物理行动。它本身没有社会性,也不认为他人具有社会性。1级代理有物理目标且具有社会性,但它没有意识到其他代理也具有社会性。它可以帮助、阻碍或从其他代理那里偷窃,但它不会察觉到对方代理是否试图阻碍它。2级代理拥有物理和社会目标,并认为其他代理是1级。因此,它可以避免被破坏,识别出需要帮助,并进行协作。

然后,十二名人受试者观看了196个机器人互动视频剪辑,这些视频本质上是一系列计算机动画。观看后,他们被要求预测机器人的社会化程度以及它们之间的互动是负面的还是正面的。在大多数情况下,人类准确地识别出了正在发生的社会互动。

“我们在认知科学方面也非常感兴趣的是,人们是如何理解这些社会互动的,”巴尔布说。“人类捕捉到的是什么?当人类不同意我们的模型时会发生什么?”

[相关: 我们足够信任机器人来把它们置于掌管地位吗?]

巴尔布还思考过一个问题,即这个模型是否可以用来分析不同类型的疾病和障碍,如抑郁症、创伤后应激障碍或自闭症,如何影响人们的社会互动或他们对社会互动的感知。

社会机器人到底有什么用?

这项由美国国防部高级研究计划局(DARPA)和美国空军部分资助的研究,有一天可能会为语言习得以及语境在语音请求中的重要性等研究提供信息。

“我们之间使用的绝大多数语言都与与其他人的互动有关。所以很多年来,我们研究了这个问题——‘接地’,”巴尔布说。接地是指将像语言这样抽象的东西与你在世界上看到的东西联系起来。

“如果你看看一个人一天中所说的大部分话,都与其他人想要什么、他们认为什么、以及从另一个人那里得到那个人的想要的东西有关,”他说。“如果你想让一个机器人进入某人的家中,理解社会互动是极其重要的。”

这是因为我们通常认为非常具体的词语在大多数动作识别中,可能具有不同的社会含义。例如,“拿到”水瓶与“抱起”孩子是完全不同的互动。尽管指令技术上相同,但社会意识会让机器人对抱孩子比对水瓶更温柔。

这是该团队一直在为DARPA进行的工作,DARPA主要对儿童语言习得模型感兴趣,以帮助美国士兵与世界各地不会说英语的人进行互动。

“训练语言翻译模型很难。为士兵训练资源也很难。DARPA对能够像孩子一样习得语言的机器人感兴趣,因为孩子习得语言不是通过拥有大型语料库或任何类似的东西,”巴尔布说。“他们通过观察[人们]之间的互动,在物理环境中观察这些互动来习得语言。”

他们的研究已经到了一个阶段,他们想要了解社会语言,并转向制造社会模型,这些模型将稍后集成到他们的语言学习器中。

[相关:Alexa 的主要新更新以及亚马逊对环境 AI 的追求]

他们为麻省理工学院空军人工智能加速器所做的工作也具有类似的意义,他们正在为空军奠定基础,以便构建一个语音界面人工智能助手,例如亚马逊的Alexa,它可以回答有关武器系统、飞机等数十亿份文件的问题。

“找出你关于这架飞机、这个武器系统、在特定条件下这个问题的答案所在,是非常困难的,”巴尔布说。此外,空军希望一个社交人工智能助手能够进行双向对话,并提出合理的反问。

 

更多优惠、评测和购买指南

 
Charlotte Hu Avatar

Charlotte Hu

助理科技编辑

Charlotte 是《趣味科学》的助理科技编辑。她对了解我们与技术的关系如何变化以及我们如何在网上生活感兴趣。


© .