机器人正在获得一种自我怀疑感

反思是成长的关键

你是否知道脑海中那个小小的声音,那个说:“也许跳下悬崖不是个好主意”,或者,“你不能喝下一整加仑的牛奶?”

这种低语就是自我怀疑,它的存在有助于我们生存。但机器人没有这种本能——看看DARPA机器人挑战赛就知道了。但是,要让机器人和无人机在现实世界中存在,它们需要认识到自己的局限性。我们不能让机器人自己在黑暗中瞎扑腾,或者试图撞破墙壁。在一篇新论文中,卡内基梅隆大学的研究人员正在努力赋予机器人反思能力,或者说自我怀疑的能力。通过人工智能预测自己失败的可能性,机器人可以变得更加周全,也更安全。

要衡量一个行动是否会失败,关键在于预测。作为人类,我们通过想象做出决定后可能出现的所有错误来自然地预测结果。在为无人机规划飞行路径时,算法需要查看无人机摄像机传来的视频,并根据画面中的物体预测其下一步行动是否会导致坠毁。无人机需要想象未来。

这个想法超出了物体检测的范畴,物体检测是目前一些无人机已经具备的功能。物体检测很简单:如果前面有东西,就不要过去。但这个框架将使人工智能能够真正确定该情景是否会对主要任务产生不利影响。这包括阻挡无人机传感器的天气状况,或者其摄像头所需的弱光环境。这是理解潜在威胁,而不是仅仅对其做出反应。

在卡内基梅隆大学的测试中,研究人员让一架改装过的无人机自主飞越公园里的树木。通过预测无人机的轨迹以及其在该航线上发生碰撞的可能性,它比没有反思能力的测试飞行的距离长了一倍多——在障碍物间穿梭超过1000米。

但即便如此,这项工作仍处于初步阶段,而且并非孤例。微软研究院的Eric Horvitz多年来一直在研究这个想法,专注于让许多决策算法协同工作。

Horvitz表示:“我们正在开发能够同时反思许多事物的活动系统,它们可以协同思考并优雅地协调许多能力和功能,从而运行得像一场精心排练的交响乐。”

其中一个场景重现了一个游戏节目,但主持人是人工智能,参赛者是两个人。人工智能会提问,人类会回答。但是,为了保持恰当的对话——比如询问参赛者是否需要更多时间——人工智能会计算回答需要多长时间,然后将其与人类可能说话的时间进行比较。如果计算时间太长,机器人就会保持沉默。

Horvitz说:“增加这一层非常棒,它使系统更加优雅。”

如果机器人能够实现自我意识,那条道路就在于教会它们反思。这是灌输一种粗糙的生存指令,一个可能会让一些未来学家不寒而栗的想法。但至少目前,这些机器人连躲避树木都困难——所以人类至少还能安全几年的时间。

 

更多优惠、评测和购买指南

 
© .