

2019 年,Meta(原名 Facebook)首席执行官马克·扎克伯格 宣布成立了一个独立的 内容监督委员会。这个由 23 名专家和公众领袖组成的委员会,在批评人士和用户对公司 复杂且似乎不一致的政策施压后,负责审查有争议的内容审核决定。据扎克伯格当时所说,他自己称之为社交媒体最高法院的裁决“将是约束性的,即使是我或 Facebook 的任何人不同意。” 自那时以来,该委员会就包括 仇恨言论、虚假信息和裸体在内的问题发布了多项裁决。但该 小组的最新裁决也许是对 Meta 内部公司战略及其应对持续存在的 内容审核 问题的能力的最具破坏性的指控。
今天早些时候,监督委员会宣布了其在对先前删除一幅描绘警察暴力的哥伦比亚政治漫画的申诉过程中的调查结果。在该委员会 今早在线发布的声明中,委员会解释了 Facebook 为什么应该从 Facebook 的人工智能辅助媒体匹配服务库中删除该艺术品,该服务库使用 AI 扫描来识别和删除违反网站内容政策的被标记图像。他们还解释了为什么整个当前系统存在巨大缺陷。
监督委员会写道:“Meta 将这幅漫画添加到其媒体匹配服务库是错误的,这导致该图像在平台上的大规模且不成比例的删除,包括本案中用户发布的帖子。”然后警告说:“尽管有 215 名用户申诉了这些删除,其中 98% 的申诉成功了,但在该案件提交给委员会之前,Meta 仍未将这幅漫画从该库中删除。”
监督委员会接着解释说,Facebook 现有的自动化内容删除系统可以,并且已经放大了人类员工所做的错误决定。鉴于此类选择的连锁反应,这尤其成问题。它警告说:“添加到此类库中的错误选择的风险尤其高,当内容涉及批评国家行为者的政治言论时,情况更是如此。”在其建议中,委员会要求 Facebook 公布媒体匹配服务库的错误率,并按内容政策细分,以提高透明度和问责制。
[相关:Meta 的聊天机器人正在重复用户的偏见和虚假信息。]
不幸的是,社交媒体的“最高法院”与华盛顿特区的最高法院不同——尽管是一个独立委员会,Facebook 并不在法律上有义务遵守这些建议。尽管如此,通过向公众公布监督委员会的意见,扎克伯格和 Meta 的高管们至少可能会面临进一步改革其内容审核策略的额外压力。