礼貌的警告在减少社交媒体上的仇恨言论方面出奇地有效

纽约大学的研究人员测试了一系列警告,这些警告包括标记那些在推文中包含仇恨言论的账户。
stoplight
警告能阻止推特上的仇恨言论吗? Kai Pilger / Unsplash

仇恨言论是一个普遍存在且有毒的问题,困扰着社交媒体。 美国外交关系委员会指出,它甚至会引发针对少数群体的真实暴力,这是一个各国政府都在绞尽脑汁解决的严峻问题。许多科技公司一直在想方设法阻止其传播——但这却是一项困难且 复杂 的任务。

纽约大学社会媒体与政治中心的研究人员有一个想法:如果跟踪那些因仇恨言论被封禁的账户的粉丝,并向这些粉丝(他们也在自己的推文中使用了仇恨言论)发送关于他们不当行为的警告,会怎样?这些用户是否会被迫改变他们的发帖内容?事实证明,答案是肯定的——至少在收到警告后的一段时间内是这样。研究人员的发现于周一发表在期刊《 政治视角》上。

“在关于是否暂停账户的公共政策讨论中,我们总是面临的一个权衡是,这些人会在其他平台上做什么,”纽约大学社会媒体与政治中心联合主任、该论文的作者之一Joshua Tucker说。“最近的一些研究表明,在英国大量右翼白人至上主义者被暂停后,这些群体在Telegram上的活动大幅增加。”

[相关: 推特打击误导性推文的努力反而让它们在其他地方蓬勃发展]

该研究的第一作者、纽约大学博士生Mikdat Yildirim说,他们想出了一个解决方案,可以达到“最佳点”,即账户不必被封禁,但会收到某种推动,阻止他们使用仇恨言论。这样,干预“既不会限制他们表达自己权利,也不会阻止他们迁移到更激进的平台”。换句话说,这是一种警告,而不是噤声。

收集“暂停候选人”

计划是什么?创建六个推特账户,像虚拟的、自发的巡逻员一样运作,在公共信息流中寻找、公布和标记违规者。这些账户发布的警告结构相似。每个警告都标记了一个使用仇恨言论的账户的完整用户名,提醒他们他们关注的一个账户最近因使用类似语言而被暂停,如果他们继续像这样发推,他们也可能被暂停。每个账户的警告措辞略有不同。

但首先,研究人员需要确定那些可能被暂停的潜在违规者。研究小组在2020年7月21日下载了过去一周发布的超过60万条推文,并将其缩小到包含至少一个来自 先前研究 中使用的仇恨语言词典的词语(这些词典主要针对种族或性方面的仇恨)。他们关注了大约55个账户,并在这些账户被暂停之前收集了其中27个账户的粉丝名单。

Yildirim解释说:“我们没有将这些信息发送给他们所有的粉丝;我们只发送给那些在3%以上的推文中使用了仇恨言论的粉丝。”因此,总共有大约4,400名用户参与了研究。其中,700人属于对照组,他们根本没有收到警告,而3,700名用户收到了来自六个研究人员运营的推特账户之一的警告。

NYU / 政治视角

Yildirim说:“我们收到了200多条对我们推文的反应。有些人对我们的警告感到愤怒,认为他们有权按照自己想要的方式表达。有些人则很谨慎,想知道是哪些推文导致我们向他们发送警告。”

[相关: 社交媒体确实让我们更加道德愤怒]

在他们关注的每个用户中,研究人员测量了发送警告前一个月、警告前一周、警告推文发布后一周以及警告发布后一个月的仇恨推文与非仇恨推文的比例。

Yildirim说:“我们发现,与对照组相比,我们的处理组平均发布的包含仇恨语言的推文减少了约10%。”此外,他们发现措辞最委婉的警告在减少仇恨言论方面效果最好。“但当然,在治疗一个月后,效果就消散了。”

Tucker指出,如果效果能持续更久就太好了。但看到一条来自他们甚至不关注的账户的推文能产生效果,这简直是“不可思议”。

他说:“可能是人们意识到有人在盯着他们,或者有人对他们说了些什么,这才是真正重要的。或者,一个强大的干预就是让人意识到,你选择关注的一个账户因为你所做的事情而被暂停了,这对人们来说是一种警醒。”

推特本身一直在积极努力打击平台上的仇恨言论。今年早些时候,该公司推出了一项功能,该功能 在用户发布可能有害或冒犯性的推文之前发出警告。“但我们不知道这个功能与我们的实验相比效果如何,”Tucker说。“也许他们尝试了我们的实验,但从未向任何人报告过。”

事实是,在没有大量研究的情况下,很难衡量某些功能的益处。Tucker说,如果是由推特运营这些账户,他们观察到的效果可能会截然不同。因此,“对于社交媒体公司来说,对他们内部进行的研究更加透明,同时也与独立研究人员分享更多数据,并与独立研究人员合作进行研究设计是协作的项目,这一点至关重要。”

 

更多优惠、评测和购买指南

 
© .