人工智能认为你的脸充满了数据。它真的能揭露你吗?

为什么人类,以及我们制造的机器,如此执着于“解读”他人。
Veoneer driving facial recognition mood
Veoneer 的新款自动驾驶汽车软件将在您开车时读取您的面部表情,并根据您的表情做出决定。Veoneer

每年一月,约有 4,500 家公司齐聚拉斯维加斯,参加一场被称为 消费电子展(CES)的心理马拉松。

2019 年的展会与往年并无二致。公司过度宣传自己的想法。参展商在推特上发布最疯狂的产品,并在 Instagram 上发布展会现场无尽的场景。人们热衷于捕捉趋势,今年的趋势多种多样:无人机、语音控制的家庭助手,以及 一款名为“8K”的电视。但最引人注目的机器人是那些声称能够“读取”人类面部表情,通过一张照片就能揭示我们的情感和身体健康状况的机器人。

有些产品只是些空洞的、毫无用处的混合体,融合了网络文化和伪科学。一台机器将我们 36 岁的科技编辑 Stan Horaczek 的照片解读为“可爱,30 岁,长得像 G-Dragon”。(三项中有两项算是不错了。)另一台则认为他 47 岁,“男性 98%”。两者都使用了大量表情符号。

但其中一些提案可能会对我们的日常生活产生深远的影响。英特尔展示了其开发 由面部表情控制的轮椅 的最新进展(眨眼左转,嘟嘴右转),这将对行动不便人士的出行带来明显且积极的改善。Veoneer 推介了其用于 自动驾驶汽车人工智能 的“表情识别”概念。它将根据面部表情判断驾驶员是否专注、是否困倦或在道路上分心。还有一些公司则表示打算自动化部分就诊过程,深入分析我们的面部特征以诊断病情。

CES 上展示的商品或许新颖闪耀,但人类将面部转化为信息的愿望却可以追溯到古代。据盖蒂艺术中心(J. Paul Getty Trust)的 Sarah Waldorf 称,古希腊数学家毕达哥拉斯曾“根据学生的长相来选择”。15 世纪,苏格兰国王詹姆斯二世(绰号:“火爆脸”)面部上的朱红色胎记被视为他暴躁脾气的外在表现。而在殖民时期的欧洲,许多科学家为种族主义漫画增添了可信度,这些漫画将人类表情与动物行为联系起来。

“面相学”(Physiognomy),这种认为我们面部的皱纹暗含隐藏含义的普遍信念,从未真正消失。在《纽约时报杂志》上,Teju Cole 认为 这种信念体现在所有摄影作品中:“我们倾向于将肖像解读为我们好像在阅读被摄者内在的东西,”他写道。“我们谈论力量和不确定;我们称赞某人下巴有力,同情他们下巴无力。高额头被认为是聪明的。我们轻易地将人们的面部特征与他们的性格联系起来。”

那么,两只眼睛、一张嘴、一个鼻子究竟能告诉我们什么?

Face textbook emotion perception
人类无法“解读”面部,但我们善于在情境中解读他人的情绪。Adrigu via Flickr

“我认为,技术在某个时刻有可能发展到可以从你的面部表情读取你的情绪,”东北大学情绪心理学和神经科学专家 Lisa Feldman Barrett 表示。“但不能仅仅依靠你的面部——而是你的面部在特定情境下的表现。”

想想龇牙咧嘴。这被认为是表达不满的近乎普遍的信号。“你在《头脑特工队》里看到过,”Barrett 引用 2015 年关于情绪紊乱的皮克斯电影 时说。“那个愤怒的小人儿在大脑里看起来都一样……这是一个人们普遍相信的刻板印象。”但最扎实的证据表明了别的情况。“人们生气时确实会皱眉——大约 20% 到 30% 的时间,”她说。“但有时他们不会。而且他们常常在不生气的时候皱眉,这意味着皱眉并不能特别有效地指示愤怒。”

这时情境就发挥作用了。我们不断分析他人的“肢体语言”、面部表情,甚至语气。当我们观察时,我们会考虑刚刚发生了什么、现在正在发生什么以及接下来可能发生什么。Barrett 强调,我们甚至会考虑自己身体内部正在发生什么,以及我们正在感受、看到和思考什么。有些人在这方面比其他人做得更好,某些因素会影响你在特定互动中的成功程度。如果你很了解某人——如果你通过反复试验,已经了解他们特定的情绪可能如何表现——你就更有可能准确地解读他们的皱眉。

但这并不是真正意义上的“解读”某人的面部。“这实际上是一个糟糕的比喻,”Barrett 说,“因为我们不是通过一个人的动作来检测心理含义,而是推断它。而且我们很大程度上是根据情境来推断的。”充其量,你是在与他人的面部合作——从数据(一张噘起的嘴)和你的先入之见中创造出新的东西,而这是机器人目前无法观察或理解的。

这些天生的特质帮助我们产生同理心、理解他人并表达自己的情绪。但它们也可能误导我们。“文献表明,我们倾向于高估自己从面部解读性格的能力,”达特茅斯学院脑科学教授 Brad Duchaine 在一封电子邮件中写道。“例如,人们会就谁看起来值得信赖、谁不值得信赖做出一致的判断,但这些判断似乎并不能有效预测实际情况下的可信度。”

试图从面部判断个人的健康状况同样复杂。澳大利亚悉尼麦格理大学的讲师 Ian Stephen 主要使用演化范式来研究我们的生理特征如何反映在面部。他发现面部形状可以预测 BMI 和血压等指标。他最有趣的发现与面部特征无关,而是与肤色有关:研究参与者 将皮肤呈黄色和红色的人 评定为更健康。Stephen 认为这对应于类胡萝卜素(我们通过大量摄入水果和蔬菜获得的橙色色素)和充氧血(由于心血管问题而减少的温暖色调)——这两种都是非常真实的健康指标。

大多数这些判断都是下意识做出的。在《傲慢与偏见》中,达西先生对伊丽莎白·班内特在远足到 Netherfield 后红润的肤色感到困惑。但达西并没有将他的吸引力与充氧血或繁殖能力联系起来——感谢上帝!他只是对眼前所见做出反应。这或许显得很肤浅,但简·奥斯汀的这部爱情小说揭示了一个更深层次的真理:“被认为有吸引力的面孔也被认为更健康,”Stephen 说。

许多进化生物学家会认为,生理健康与被感知的美貌偶尔的 融合 是有利的。它有助于动物选择配偶并繁衍后代,至少在理论上是这样。但它绝非万无一失:美貌在很多、多种、至关重要的方式上,都是由文化决定的。例如,美国人重视苗条而鄙视肥胖,但 瘦的人可能不健康,而 胖的人可能非常健康。这些武断的分类已经产生了真实的后果:仅仅因为外貌,肥胖者、女性和有色人种就会受到歧视,从工作场所 到急诊室

在许多观察者眼中,美貌会掩盖一切。在一项 2017 年的《自然》杂志 研究 中,作者得出结论:“男性感知健康与平均化、对称性和皮肤发黄呈正相关。” 而女性的感知健康则“与女性化呈正相关”。

Physiognomy book facial expressions meaning
一本 19 世纪关于面相学的书通过图像描述了两种情绪。左边是“极度绝望”。右边是“愤怒中夹杂恐惧”。维基共享资源

有人认为,创造能够将外貌转化为更有意义见解的机器有可能克服人类的愚蠢。其他人则担心它会将其放大到失控的地步。最近一项发表在《自然》杂志上的研究,正值 CES 期间,隶属于一家名为 FDNA 的营利性基因公司(其名称听起来像政府机构),研究人员利用人工智能通过儿童面部照片识别遗传性疾病。该程序名为 DeepGestalt,其名称源自德国哲学运动“从混乱中寻求秩序”,它在 17,000 张图像的数据集上进行了训练,能够识别 200 多种综合征。

根据你对技术的态度,DeepGestalt 可能会激起你的希望,或让你感到绝望。虽然它仍然需要医生来解读结果,但这种机器可以为诊断许多疾病提供“更安全、更便捷”的方式,Stephen 说道。但是,其使用也伴随着严重的伦理问题。“曾经是私人的事物,可能更容易被识别,”Stephen 说。“公司会不会 从你的 Facebook 个人资料中提取照片进行风险分析,从而剥夺你的保险或收取额外费用?”

类似的表情解读算法也引发了隐私担忧。2017 年的一项试图 创建“AI 同性恋雷达” 的努力遭到 Glaad 和人权倡导组织等组织的谴责。一位批评者称其为“13 岁网络欺凌者的算法版本”。在研究非常狭窄的范围内,该机器能够比随机概率 更准确地预测男性是否为同性恋 31%。人类比随机概率 做得好 11%

对一个人或机器能够读取我们想法和感受,即使是我们希望隐藏的,这种恐惧是技术焦虑的基础组成部分,这在乔治·奥威尔 70 年前(今年 6 月)出版的《一九八四》一书中得到了体现。但在这一领域,想象力仍然远远领先于我们的技术。

Feldman Barrett 认为,能够高度解读情绪的机器人是可能实现的——无论是好是坏,但目前在这个市场上运营的公司似乎并没有做好制造它们的准备。“计算机在计算机视觉方面做得越来越好——动作的检测,”她说。“不幸的是,[程序员]认为检测到一个动作就是检测到一种情绪。”她表示,要取得真正的突破,“在某些方面需要改变的不是技术,而是思维方式、假设。”

Teju Cole 在他为《泰晤士报》撰写的关于面相学的 专栏 中,描述了一张 20 世纪 80 年代的黑白照片,上面是一个年轻的男人。“我想回到老方法,说男孩左眉毛的轻微弧度似乎表明他有点讽刺,或者他面部特征的对称性使他既值得信赖又可靠,”他写道。“但实际上,那将是我的投射。”

所以,如果你在 CES 上订购了一面能读取情绪或健康状况的镜子,你可能还有时间取消订单——并等待更新的型号。

 

更多优惠、评测和购买指南

 
Eleanor Cummins Avatar

Eleanor Cummins

撰稿人

埃莉诺·卡明斯是一位自由科学记者,撰写关于死亡、灾难和保龄球的文章。在 2017 年至 2019 年期间,她在《大众科学》杂志工作,从实习生一路晋升为助理编辑。她是纽约大学科学、健康和环境报道项目的兼职教授。


© .