这位程序员和诗人认为我们应该如何解决种族偏见的人工智能问题

第一次 当乔伊·布奥拉姆维尼第一次遇到面部识别技术中的种族偏见问题时,她还是佐治亚理工学院的一名本科生,试图教一个机器人玩“躲猫猫”。这个人工智能系统无法识别布奥拉姆维尼深色的脸,于是她借用了她白人室友的脸来完成这个项目。她当时并没有太在意——毕竟,在 2010 年代初期,人工智能是一个快速发展的领域,这类问题肯定很快就会得到解决。

事实并非如此。2015 年,在马萨诸塞州理工学院读研究生时,布奥拉姆维尼遇到了类似的问题。面部识别技术再次未能识别出她的特征——直到她戴着一个白色面具开始编程。人工智能虽然令人印象深刻,但在一项简单的任务上仍有很长的路要走:它可能会灾难性地无法识别黑人的面孔和身体。布奥拉姆维尼说,要解决这个问题,就需要重新构想我们如何定义成功的软件,如何训练我们的算法,以及为谁设计特定的 AI 程序。

在 MIT 学习期间,这位程序员证实,电脑的偏见不仅仅局限于无法识别深色面孔。通过她的 Gender Shades 项目,该项目评估了 AI 产品分类性别的能力,她发现,基于照片将性别指定为男性或女性的软件,在正确识别女性和深色皮肤人群的性别方面表现更差。例如,尽管 IBM 开发的人工智能在总体上正确识别了 88% 的图像性别,但它将近 100% 的浅肤色男性识别为男性,而将深肤色女性正确识别为女性的比例仅为 67%。 

“我们衡量成功的标准本身就存在偏差,”布奥拉姆维尼说。IBM 的 Watson Visual Recognition AI 在面部识别方面似乎很有用,但当考虑肤色和性别时,很明显这个“超级计算机”在某些人群上表现不佳。在 2018 年收到 Gender Shades 研究结果后的一天内,项目负责人做出了回应,并发布了一份声明,详细说明了 IBM 如何致力于改进其产品,包括更新培训数据和识别能力,并评估其新软件是否存在偏见。该公司提高了 Watson 识别深肤色女性的准确性,将误差率降至约 4%。 

带有偏见的人工智能身份识别软件具有重大影响。近年来,美国至少有四名无辜的黑人男性和一名女性在面部识别技术错误地将他们识别为罪犯(误将他们认作其他黑人)后被捕。使用类似的自动化系统让租户进入建筑物的住房单元,会让 深肤色和女性居民被困在外面。因此,布奥拉姆维尼(她还是 Algorithmic Justice League 的创始人兼首席艺术家,该组织旨在提高公众对 AI 影响的认识,并支持那些预防和抵消其危害的倡导者)将她的伦理工作与艺术相结合,使非常技术性的问题人性化。她精通 代码和文字。“诗歌是一种将更多人引入这些紧迫而必要的对话的方式,”布奥拉姆维尼说,她是书籍 《解密人工智能》 的作者。 

portrait of Dr. Joy Buolamwini
程序员兼诗人乔伊·布奥拉姆维尼希望我们重新构想如何训练软件和衡量其成功。Naima Green

也许布奥拉姆维尼最著名的作品是她的诗《人工智能,我难道不是女人?》。在 配套视频 中,她展示了 Watson 和其他人工智能将艾达·B·威尔斯、奥普拉·温弗瑞和米歇尔·奥巴马等著名黑人女性误认为是男性。“机器能像我一样看到我的女王吗?”她问道。“机器能像我们认识的那样看到我们的祖母吗?” 

这种偏见长期以来被认为是新兴人工智能领域的一个问题。但即使开发者知道他们的产品在识别深色面孔方面做得不好,他们也不一定解决这个问题。布奥拉姆维尼说,他们意识到解决这个问题需要巨大的投入——而且缺乏机构支持。“事实证明,这往往是一个优先事项的问题,”特别是对于那些专注于大众吸引力的营利性公司而言。

布奥拉姆维尼补充说,在科技行业雇佣更多不同种族和性别的人可以提供不同的视角,但这本身并不能解决问题。很多偏见来源于训练计算机所需的数据集,这些数据集可能包含的信息不足,例如缺乏大量深肤色女性的图像。仅仅拥有多样化的程序员,也无法使用有偏见的数据集来构建无偏见的产品。

事实上,布奥拉姆维尼说,完全消除人工智能的偏见是不可能的,因为所有人类都有偏见,他们的信念会影响代码。她希望人工智能开发者能够意识到这些思维定势,并努力开发不传播歧视的系统。

这包括有意识地选择使用哪些计算机程序,并认识到不同的群体可能需要不同的程序来满足不同的服务。“我们必须摆脱‘一个系统统治一切’的普适性方法,”布奥拉姆维尼解释道。她举了一个医疗保健 AI 的例子:一个主要以男性指标为基础训练的数据集,可能会导致女性患者的疾病迹象被忽略。但这并不意味着模型无用,因为它仍然可以为某一性别的医疗保健带来好处。相反,开发人员还应该考虑构建一个针对女性的模型。

但即使能够创建无偏见的人工智能算法,它们仍然可能造成伤害。例如,如果一个理论上完美的面部识别人工智能在美国各地推广,它可能会助长国家监控。(交通安全管理局计划在未来几年内,在 400 多个机场尝试使用自愿性的面部识别检查取代人工安检。在遥远的未来,新流程可能会成为强制性的。)“精确的系统可能会被滥用,”布奥拉姆维尼说。“有时解决方案是不构建工具。”

了解更多关于人工智能时代的生命的信息:

或者查看我们的所有 PopSci+ 文章。

 

更多优惠、评测和购买指南

 

泰勒·桑托拉是一名自由科学记者,也是 Fatherly 的特约编辑,他报道科学、健康和环境的方方面面。他还撰写有关性别和 LGBTQ+ 社群的文章。泰勒出生并成长于费城郊区,在奥柏林学院获得生物学学士学位,在纽约大学获得科学新闻学硕士学位。现在,他和他的女友以及一只名叫 Damsel 的黑拉布拉多混种犬一起住在科罗拉多州。


© .