算法并非都生而平等

最近的一项民意调查发现,大多数美国人认为算法不公平。但这项民意调查本身是否存在偏见?

算法在我们周围默默地发挥着作用。它们推荐音乐、推送新闻,发现癌性肿瘤,并让自动驾驶汽车成为现实。但人们信任它们吗?

根据皮尤研究中心去年进行的一项调查,答案是否定的。当被问及计算机程序是否总是会反映其设计者的偏见时,58%的受访者认为它们会。这一发现凸显了计算技术(其对人们生活的影响只会增长)与受其影响的人们之间存在的严重张力。

Cover of the book Once Upon an Algorithm
马丁·埃尔维格(Martin Erwig)的《算法童话:故事如何解释计算》。亚马逊

对任何特定技术的信任缺失都会阻碍其接受和使用。一方面,对危险技术的合理不信任是好事。没有人会反对消除使用会产生不良后果的糟糕算法,例如导致患者过量辐射的Therac-25软件,或者导致NASA丢失火星气候轨道器的不正确的单位计算。另一方面,人们对安全技术(如疫苗接种)的不合理恐惧本身就可能很危险。这不仅是因为那些不信任技术的人将错过其益处,而且他们的拒绝参与可能会对其他人产生负面影响,并对整个社会产生不利影响。

因此,区分合理恐惧和不合理恐惧,并且不助长后者尤为重要,特别是当你处于影响公众舆论的职位时。不幸的是,这项特定的皮尤调查,或者至少是其结果的报道方式,已经混淆了视听。该调查询问受访者关于算法做出决定的四种不同情景:计算个人财务评分、评估假释决定中的犯罪风险、筛选求职者简历以及分析工作面试。主图表的标题总结了其发现:“大多数美国人认为计算机程序将始终反映人类偏见;年轻人意见分歧较大。”

A Pew Research Center poll
2018年11月的一项皮尤研究民意调查未区分人类算法和黑箱算法。皮尤研究中心

该声明的问题在于,它错误地将算法的普遍概念与某种特定类型的算法混为一谈。在提出的情景中使用的算法是*机器学习*算法,这意味着它们本质上是黑箱,在其内部将逻辑表示为一组没有明显意义的数字。这些机器学习算法的一个问题是,它们实际上是不可读的,人类无法理解。

相比之下,人类创建的算法是*可读的*;它们以人类可以理解的语言给出。这包括自然语言的描述(食谱、驾驶说明、玩游戏的规则、组装家具的说明等)以及可以用机器执行的编程语言编写的程序。

在判断算法的可信度方面,这两种算法在可读性和可理解性方面的差异至关重要。并非人类创建的算法总是正确的。恰恰相反:由于人类是会犯错的,他们的产品也是如此,算法和软件通常以包含错误而闻名。但是,可读算法和不可读算法之间的一个关键区别在于,前者可以有效地纠正,而后者则不能。

如果一道菜太咸,你可以找到食谱中加盐的地方并减少用量;或者当驾驶指示将你带错地方时,很容易发现错误的转弯并纠正错误。对于不可读的算法,情况则完全不同。当我们观察到不正确的行为时,我们无法在算法描述中找到导致该行为并可以修复的特定位置。机器学习算法的黑箱性质有效地阻止了这一点。改变机器学习算法的故障行为的唯一方法是用新数据重新训练它,这可能会引入其他偏见。

数据中的偏见是算法的一个合理担忧,但仅限于决策基于不良数据的算法。在谈论算法时,特别是在归咎和敲响警钟时,我们应该谨慎地区分可读算法和不可读(即机器学习)算法。

回到皮尤研究民意调查,我们可以注意到它实际上也是一种算法,一种用不同人的回答作为输入运行的算法。需要明确的是,所采用的方法论没有问题,人们被询问的情景也很重要,但结果的报道方式具有误导性,而且可以说是不负责任的。讽刺的是,它在示例情景的选择上存在偏见,因此它本身就印证了它所谴责的现象。幸运的是,由于皮尤民意调查是由人类创建的,我们可以识别其中的缺陷并进行纠正。一个简单的解决方法是改变标题,报告说人们不信任*机器学习算法*。另一种可能性是,提供一些非机器学习算法的例子,并将人们对这些例子的回应也纳入调查。

为了更准确地了解人们对算法的态度,并避免产生不必要的反感和错误的恐慌,任何评判算法的人都应该区分人类创建的算法和机器学习产生的算法。民意调查员、记者以及所有参与衡量和影响公众舆论的人,都将受益于对算法性质的更好理解。接受调查的人们也会受益。

算法可能存在缺陷,民意调查也是如此。让我们尽量避免两者中的偏见。


马丁·埃尔维格(Martin Erwig)是俄勒冈州立大学的计算机科学Stretch教授,也是《*算法童话:故事如何解释计算*》的作者。

此文最初发布于The Reader

 

更多优惠、评测和购买指南

 
© .