

随着技术的不断发展,人工智能生成的人脸图像正变得越来越难以与真实照片区分。但我们区分真实与虚假的能力,可能取决于个人偏见——包括我们自己的偏见,以及人工智能底层算法的偏见。
根据最近发表在《Psychological Science》杂志上的一项新研究,某些人可能比准确识别白种人的真实照片更频繁地将人工智能生成的白人面孔误认为真实。更具体地说,是白人无法区分真实白人面孔和人工智能生成的白人面孔。
[相关:汤姆·汉克斯说他的深度伪造广告在推销牙科保险。]
在一系列由澳大利亚、荷兰和英国大学的研究人员合作进行的试验中,124 名白人成年人被要求将一系列面孔分类为人工或真实,然后对每项决定在 100 分的量表上评分。研究小组决定将白人参与者与白种人图像样本进行匹配,以尝试减轻潜在的“同族识别偏见”——即不同种族和文化群体对不同人口特征的不熟悉面孔记忆能力较差的倾向。
“值得注意的是,人工智能生成的白人面孔可以令人信服地被认为是比真人面孔更真实的——人们并没有意识到自己被愚弄了,”研究人员在他们的论文中写道。
而且这并非偶然。参与者错误地将 66% 的人工智能图像归类为真实拍摄的人类,而真实照片中只有不到一半被这样归类。与此同时,同一批白人参与者区分有色人种真实与虚假面孔的能力大约是 50-50。在第二项实验中,610 名参与者使用 14 种构成“看起来像人”的属性对同一批图像进行评分,但他们并不知道其中一些照片是假的。在这些属性中,面孔的比例、熟悉度、记忆度和逼真眼睛的感知在受试者中排名最高。

研究小组将这种新识别出的、过度误将人工智能生成的面孔——尤其是白人面孔——视为“人工智能超真实感”的倾向命名。这种显著的统计差异被认为源于人工智能开发中已得到充分证明的算法偏见。人工智能系统是在远超 POC 的白人受试者上进行训练的,这使得它们能够生成更具说服力的白人面孔,并且能够使用面部识别技术准确地识别它们。
这种差距的影响可能会波及无数科学、社会和心理情境——从身份盗窃、种族貌相,到基本的隐私担忧。
[相关:人工智能抄袭检测器错误地标记了非英语母语者。]
“我们的结果解释了为什么会出现人工智能超真实感,并表明并非所有人工智能面孔都显得同样逼真,这会对社会偏见的扩散和公众对人工智能的误认产生影响,”研究小组在他们的论文中写道,并补充说人工智能超真实感现象“意味着人工智能面孔和真人面孔之间必须存在一些视觉差异,而人们却误解了这些差异。”
值得注意的是,这项新研究的测试样本量很小且极其有限,因此无疑需要更多研究来进一步了解这种偏见的程度和影响。但事实仍然是,我们对人工智能超真实感可能对不同人群意味着什么,以及它如何影响日常生活的判断,仍然知之甚少。与此同时,人类可能会从一个极其讽刺的来源获得一些辨别帮助:在试验期间,研究小组还构建了一个机器学习程序,该程序负责将真实和虚假人脸分开——而该程序准确地完成了 94% 的任务。