我们是否应该利用大数据在犯罪发生前进行惩罚?

欢迎来到一个大数据将帮助执法部门在犯罪发生前预测和惩罚犯罪的未来。
霍顿·米夫林·哈考特

约翰·安德顿是华盛顿特区一个特警队的队长。这天早上,在霍华德·马克狂怒地即将用一把剪刀刺入妻子身体的几个瞬间之前,他冲进了一个郊区住宅,他的妻子被他发现在与另一个男人床上。对安德顿来说,这只是又一天阻止重大犯罪的经历。“根据哥伦比亚特区犯罪预防部门的命令,”他宣读道,“我逮捕你,因为你今天将要谋杀萨拉·马克……”

其他警察开始制止马克,他尖叫道:“我什么都没做!”电影《少数派报告》的开场场景描绘了一个预测似乎非常准确的社会,警察会在犯罪发生前逮捕个人。人们被监禁不是因为他们做了什么,而是因为他们被预见到会做什么,尽管他们从未真正犯罪。这部电影将这种预知和先发制人的执法归功于三个通灵者的预视,而不是数据分析。但《少数派报告》所描绘的令人不安的未来,是那些不受约束的大数据分析所威胁要带来的,届时定罪的判断将基于对未来行为的个体化预测。

当然,大数据正在为社会带来无数的好处。它将成为改善从医疗保健到教育一切方面的基石。我们将依靠它来解决全球性挑战,无论是气候变化还是贫困。更不用说企业如何利用大数据,以及为我们的经济带来的收益。其益处之大,与数据集一样巨大。然而,我们也需要意识到大数据的阴暗面。

我们已经看到了《少数派报告》式预测惩罚人们的苗头。我们已经看到了《少数派报告》式预测惩罚人们的苗头。美国一半以上州的假释委员会使用基于数据分析的预测作为决定是否释放某人出狱或将其继续监禁的因素。美国越来越多的地方——从洛杉矶的巡逻区到弗吉尼亚州的里士满等城市——都在使用“预测性警务”:利用大数据分析来选择哪些街道、群体和个人应接受额外审查,仅仅因为算法显示他们更有可能犯罪。

但这肯定不会就此止步。这些系统将试图通过预测,最终达到个体层面,谁可能会犯罪,来阻止犯罪发生。这指向了大数据的一个新用途:防止犯罪发生。

美国国土安全部的一个名为FAST(未来属性筛选技术)的研究项目,试图通过监测个人的生命体征、肢体语言和其他生理模式来识别潜在的恐怖分子。其理念是,通过监视人们的行为,可以检测出他们伤害他人的意图。据国土安全部称,在测试中,该系统的准确率为70%。(这意味着什么尚不清楚;研究对象是否被指示假扮恐怖分子,以查看其“恶意”是否被发现?)尽管这些系统似乎处于初级阶段,但执法部门非常重视它们。

阻止犯罪发生似乎是一个诱人的前景。难道在犯罪发生前就加以阻止,不比事后惩罚肇事者要好得多吗?阻止犯罪不仅有利于可能成为受害者的人,也有利于整个社会,不是吗?

但这是一条危险的道路。如果我们通过大数据预测谁可能犯下未来的罪行,我们可能不会满足于仅仅阻止犯罪的发生;我们也很可能想要惩罚潜在的肇事者。这只是合乎逻辑的。如果我们只是介入并阻止非法行为的发生,潜在的肇事者可能会逍遥法外,再次尝试。相反,通过利用大数据追究他对(未来)行为的责任,我们可能会震慑他和其他人。

指控某人可能发生的未来行为,是对司法根基的破坏。当今对可能行为的预测——例如保险费率或信用评分——通常依赖于基于对问题的思维模型(即,既往健康问题或贷款还款历史)的少数几个因素。基本上,这是画像——根据个人与其他群体共享的特征来决定如何对待个人。通过大数据,我们希望识别特定个体而不是群体;这使我们摆脱了将每一个预测出的嫌疑人都视为“有罪推定”的画像缺点。

大数据的承诺是,我们所做的与我们一直以来所做的相同——画像——但做得更好,歧视性更小,而且更具个体化。如果目标仅仅是阻止不希望发生的行为,这听起来是可以接受的。但如果我们利用大数据预测来决定某人是否应为尚未发生的行为承担责任并受到惩罚,那就会变得非常危险。

杰西·兰兹

基于倾向性进行惩罚的想法令人作呕。指控某人可能发生的未来行为,是对司法根基的破坏:即我们必须在他做了某事之后才能追究他的责任。毕竟,想坏事不是违法的,做坏事才是。它还否定了无罪推定原则,而这一原则是我们法律体系以及我们公平感的基石。如果我们让人们为预测的未来行为负责,而他们可能从未犯下这些行为,我们也否认了人类具有道德选择的能力。

在大数据时代,我们将不得不扩大我们对正义的理解。这里的重要一点不仅仅是警务。危险远比刑事司法更广泛;它涵盖了社会的所有领域,所有人类判断的实例,其中大数据预测被用来决定人们是否应对未来的行为负责。这包括从公司解雇员工的决定,到医生拒绝为患者做手术,到配偶提出离婚。

也许有了这样的系统,社会会更安全或更高效,但构成我们人性Essential部分的东西——我们选择行为并为此负责的能力——将被摧毁。大数据将成为集体化人类选择和抛弃社会自由意志的工具。即使一个人没有像电影《少数派报告》那样被投入时髦的、夜总会式的站立监狱,其影响也可能如同惩罚一样。一个因有偷窃倾向而受到社工拜访的青少年,在他人(以及他自己)眼中会感到被污名化。

在大数据时代,我们将不得不扩大我们对正义的理解,并要求它包括对人类能动性的保障,就像我们目前保护程序公平一样。没有这些保障,正义本身的概念可能会被彻底动摇。

通过保障人类能动性,我们确保政府对我们行为的判断是基于实际行为,而不仅仅是大数据分析。因此,政府只能对我们的过去行为负责,而不是对未来的统计预测负责。当政府评判过去的行动时,它应该被禁止仅仅依赖大数据。而且,如果大数据活动对许多人造成重大损害,公司应该将其活动公开接受审查。

大数据治理的一个基本支柱必须是这样一个保证:我们将继续通过考虑个人的责任和实际行为来评判人,而不是通过“客观地”处理数据来确定他们是否可能犯错。只有这样,我们才能把他们当作人来对待:作为有自由选择自己行为并有权为之负责的人。

本文经授权摘选自 《大数据:一场将改变我们生活、工作和思考方式的革命》(霍顿·米夫林·哈考特,2013年)。维克多·迈尔-舍恩伯格是英国牛津互联网研究所的互联网治理与监管教授。肯尼思·库基尔是《经济学人》的数据编辑。

 

更多优惠、评测和购买指南

 
© .