

1975 年,已故的法律哲学家罗纳德·德沃金(Ronald Dworkin)写了一位他称之为赫拉克勒斯(Hercules)的虚构的超级法官。德沃金写道,赫拉克勒斯法官拥有“超乎常人的技能、学识、耐心和敏锐力”,他总是能做出公正的判决。
人类是会犯错的,包括法官在内。
算法或许能让“不犯错的法官”这个梦想更接近现实。
算法能否帮助改善
这些算法利用罪犯的背景信息来预测他们重新犯罪的可能性。
风险评估算法的使用者认为,这种算法为量刑提供了一种更科学的方法,并能消除过程中的偏见。但其他人则认为,算法会加剧偏见,并且侵犯正当程序,因为设计这些算法的私营公司不会披露
算法以各种方式影响着我们的生活,而且影响日益加深。有诸如 Facebook 动态内容或 Netflix 推荐你看的电影这些小事,但算法也在更大程度上影响我们,比如决定我们的信用评分、我们是否有资格获得贷款,或者我们的简历是否能被潜在雇主看到。
如今,很多人并不认为“公正”是美国刑事司法系统的特点。根据 2015 年盖洛普民意调查,公众对刑事司法系统的信心已跌至令人沮丧的 23%。对警察的信心相对较高,为 52%,但这已是 22 年来的最低点。该系统一直饱受争议,从“拦截搜身”到“按人头收费”,从弗格森事件到全国性的“黑人的命也是命”运动。像《Serial Podcast》节目和最近的 Netflix 剧集《制造杀人犯》(Making a Murderer)讲述了(可能)被错判者的故事,让许多人不禁思考:下一个会不会是我?
德沃金的赫拉克勒斯法官是一个说教工具,但如果存在没有偏见、没有人类主观性、不会对美国人的生活造成如此多破坏的、在道德上完美的法官、警察和地区检察官呢?
借助人工智能,这或许并非遥不可及。
至少有十五个州的假释委员会已经依赖软件来决定囚犯是否符合假释资格。此前,以色列一项 2011 年的研究表明,假释委员会的决定往往取决于一些任意因素,例如委员会成员是否已经吃过午饭。在西弗吉尼亚州,重罪犯需要接受计算机风险评估,法官随后利用这些评估结果来确定适当的刑期。
加州大学戴维斯分校的一位研究员最近发表了一篇论文,提议“无自由裁量权警务”,即由人工智能系统而非警察来决定车辆拦截,从而消除交通拦截中的种族和其他偏见。
也许问题不应该是我们是否在法院使用算法,而是我们如何使用它们。Propublica 报道称,这些工具最初的目的是为法官提供关于治疗方案和缓刑计划的指导,以防止人们重新犯罪。一些司法管辖区,例如加州的纳帕县,至今仍将这些工具用于此目的,而非用于量刑。