Facebook 无法通过自动化解决仇恨言论问题

该公司如何为20亿人构建文明的对话?

人们到底应该如何在网上相互交流?对 Facebook 来说,这既是一个操作性问题,也是一个哲学性问题。

上周,Facebook 宣布其用户已达20亿,这意味着全球75亿人口中约有27%使用该社交媒体网络。在 Facebook 的“Hard Questions”博客上的一篇文章中,该公司解释了其管理仇恨言论的内部逻辑,就在 ProPublica 披露了该标准似乎被虚伪地应用的报道前一天。将两者结合起来看,Facebook 试图规范言论的做法似乎是不可能完成的任务。

语言很难。例如,通过人类语言训练的人工智能,仅仅通过观察词语之间的关系,就会复制用户相同的偏见。同一个词,在同一个句子中,根据说话者的身份、交流对象的身份,甚至交流的方式,都可以有不同的含义。这还没有考虑到一个给定词语的多个定义。

“‘烧旗帜,不烧基佬’这句话是什么意思?” Facebook 欧洲、中东和非洲公共政策副总裁 Richard Allan 写道。“这句话表面上显然是挑衅性的,但应该被视为仇恨言论吗?例如,这是攻击同性恋者,还是试图‘重新夺回’这个侮辱性词汇?这是煽动通过烧毁旗帜进行的政治抗议吗?或者,如果说话者或听众是英国人,这是否是为了阻止人们吸烟(fag 是英国人对香烟的常用说法)?要确定是否构成仇恨言论违规,需要更多背景信息。”

Facebook 的一位发言人在被问及此事时证实,这篇“Hard Questions”文章并非代表任何新政策,而只是对 Facebook 如何审查言论的逻辑进行透明化解释。

耶鲁大学信息社会项目研究员 Kate Klonick 表示:“人们希望某些内容被删除,他们希望自己有权发表言论,” “他们希望有一个完美的过滤器,可以删除那些属于仇恨言论、种族主义、性别歧视或极其冒犯的内容。”

Facebook 可能会仔细审查其在公共领域管理言论的方式,原因之一是,由于一批内部文件被泄露给《卫报》(The Guardian),其他媒体也开始报道 Facebook 内部关于哪些言论应被删除、哪些应被保留的指导方针。

“根据一份文件,移民可以被称为‘污秽’,但不能被称为‘污秽之物’,” ProPublica 报道称,“该文件解释说,他们不能被比作污秽或疾病‘当这种比较是以名词形式出现时’。”

Klonick 研究 Facebook 如何管理其用户。虽然“Hard Questions”文章中讨论的审核类型并不新鲜,但透明度是新的。Klonick 说:“不再是秘密了,这种事情正在发生,你的声音正在被审核,你的信息流正在幕后被审核。”

在 Klonick 看来,通过开始更多地披露“幕后”工作,Facebook 试图 preempt 批评,以防止外界对其如何审核言论的方式提出质疑。

然而,Facebook 除了遵守其运营所在国家的法律要求外,并没有必须审核所有言论的规定。 “Hard Questions”文章中的几个例子都取决于上下文:说话者是否在重新定义一个以前的侮辱性词汇,还是朋友之间的玩笑,或是陌生人对受保护群体的攻击?但是,当一场战争突然改变了一个词语的用法,使其从随意用语变成被举报为仇恨言论时,会发生什么?

“Hard Questions”中的一个例子是 Facebook 如何处理“moskal”(乌克兰语中对俄罗斯人的俚语)和“khokhol”(俄语中对乌克兰人的俚语)。2014年,当俄罗斯和乌克兰之间爆发冲突时,两国人民都开始举报对方使用的这些词语为仇恨言论。Allan 表示,作为回应,“我们进行了内部审查,并得出结论,他们是对的。我们开始删除这两个词,这个决定最初在双方都不受欢迎,因为它似乎很严厉,但在冲突的背景下,我们认为它很重要。”

网站举报功能的一个常见用途是,人们只是举报他们不同意的人,从而利用网站的审查能力来打击他们的意识形态敌人。随着战争期间普通语言转化为侮辱性词汇,Facebook 似乎选择通过删除包含冒犯性词语的帖子来试图平息紧张局势。

“我认为那个例子非常有趣,因为他明确表示,审查这些词的决定在双方都不受欢迎,”EFF 国际言论自由总监 Jillian York 说。“这是一个非常价值判断的决定。它不是说‘人们因为这个词而自杀,所以我们在保护自己免受法律责任的追究;’这是他们会做的事情,也更容易理解。这是 Facebook 在说,‘人们不想要这个,但我们还是认为这对他们是正确的。’”

虽然 Facebook 最终制定了关于删除或保留内容的政策,但审核工作是由人工完成的,而且正如 Facebook 对视频的审核一样,在可预见的未来,这项工作将继续由人工完成。

Klonick 说:“人们认为可以轻松实现自动化,我认为这篇博文解释了为什么现在它如此困难,我们离自动化还有多远。” “这些都是艰难的人类判断,我们离那还有很多年。Richard Allen 在他的博文中提到的这些例子,正是说明了我们为何离实现这一过程的自动化如此遥远。”

同样,Facebook 正在为全球超过四分之一的人口制定言论规则和标准,这是历史上很少有政府能够接近或超越的。(古波斯是一个罕见的例外)。鉴于这项任务的艰巨性,我们不仅应该审视 Facebook 如何选择监管言论,还应该审视它为何选择这样做。

York 说:“大规模地为20亿人审核内容是不可能的,那么为什么还要选择超越法律的限制性规定呢?为什么 Facebook 要充当世界的监管者?”

 

更多优惠、评测和购买指南

 
Kelsey D. Atherton Avatar

Kelsey D. Atherton

科技领域特约撰稿人

Kelsey D. Atherton 是一名军事技术记者,自 2013 年起为《大众科学》供稿。他报道无人机器人和其他无人机、通信系统、核企业以及用于规划、发动和缓解战争的技术。


© .