

内容审核是一项臭名昭著的糟糕工作,围绕其蓬勃发展的劳务外包行业,在将人类工人置于遭受网络中最黑暗角落的折磨方面,其道德做法经常面临严厉审视。周三,《时代》杂志发布了一份针对 Sama 的深度调查报告,该公司最近为 OpenAI 提供了仅负责阅读互联网上最糟糕内容的劳动者。
尽管此举的总体目标是为热门的、备受瞩目的 ChatGPT 程序开发有用且必要的内部人工智能过滤器,但据新报告称,Sama 的前员工们表示,他们现在因任职期间阅读了数千段描述性侵、乱伦、兽交、虐待儿童、酷刑和谋杀的可怕在线文本摘录而遭受创伤后应激障碍。报告指出,这些工人主要在肯尼亚,每小时的收入不到 2 美元。
[相关:热门青少年心理健康服务因试验 AI 聊天机器人建议而受到批评。]
OpenAI 的 ChatGPT 凭借其几乎能即时从几乎任何人类提示生成创意文本的能力,迅速成为去年最受关注的技术突破之一。虽然类似程序已经存在,但它们经常容易生成仇恨和赤裸裸的辱骂性内容,因为它们无法在用作生成参考点的海量互联网文本中内部识别有毒内容。
ChatGPT 已经拥有超过 100 万用户,在很大程度上避免了此类问题(尽管其他许多担忧依然存在),这在很大程度上要归功于一个内置的 AI 过滤系统,该系统旨在消除互联网上的大部分恶劣内容。但尽管它们很有用,目前的 AI 程序本身并不够智能,无法自行识别不当内容——它们首先需要人类的训练来标记各种上下文关键词和主题。
Sama,一家总部位于美国的数据标注公司,其员工分布在肯尼亚、印度和乌干达,为硅谷公司工作。其主页上将其宣传为“人工智能发展的下一个时代”,并声称已帮助全球超过 50,000 人通过其就业机会摆脱贫困。然而,根据《时代》杂志通过数百页的内部文件、合同和工人工资单获得的研究,数十名工人的代价是每小时仅获得 1.32 美元至 2 美元的微薄收入,他们自己称之为“折磨”。
[相关:OpenAI的新聊天机器人提供稳健的对话和更少的偏激言论。]
工人向《时代》杂志声称,他们工作的时间远远超过分配的任务,每天要筛选 150-250 条令人不安的文本段落,并为 ChatGPT 的 AI 过滤器训练标记内容。尽管据报道有健康咨询服务,但 Sama 的员工仍然经历了超出这些服务能力范围的挥之不去的精神和情感创伤。Sama 在提供给《时代》杂志的一份声明中对工作量提出异议,并表示其承包商每班只需审查大约 70 篇文本。
“这些公司向我们展示人工智能和自动化,就好像它们消除了工人一样,但实际上情况很少如此,”技术文化评论家、《《通往无路之路:硅谷在交通问题上错在哪儿》》的作者 Paris Marx 解释道。“…这和脸书的内容审核员的故事如出一辙——其中一些人也是由 Sama 在肯尼亚雇用的。”
Marx 认为,唯一能避免此类身心剥削的方法是科技行业进行大规模的文化重塑,而这在目前看来非常不可能。“这是这些公司选择的人工智能发展模式,”他们写道,“要改变它,就需要彻底颠覆他们的目标和基本假设。”
Sama 最初与 OpenAI 签订了价值 20 万美元的内容审核合同,但据报道,他们提前终止了合作,转而专注于“计算机视觉数据标注解决方案”。OpenAI 目前正与投资者洽谈,以 290 亿美元的估值筹集资金,其中 100 亿美元可能来自微软。《路透社》此前曾报道称,OpenAI 预计今年收入为 2 亿美元,2024 年将超过 10 亿美元。正如最新的揭露再次表明,这些利润常常以普通劳动者巨大的幕后代价为代价。