

在2016年总统大选后的几个月里,越来越多的证据表明,YouTube的视频推荐可能会让观众陷入极端和仇恨内容的“兔子洞”。强烈的批评最终促使YouTube在2019年初发布了一份公开声明,宣布对其内容算法进行更改,以减少“对边缘内容以及可能以有害方式误导用户的内容的推荐”。自那时以来,YouTube声称其改进已使通过用户推荐 Feed观看种族主义、性别歧视和其他偏见内容的观看时间减少了至少50%。
尽管缺乏公开的实证证据来支持这一说法,但新的研究证实了YouTube算法在某些方面确实取得了一些积极的改进。尽管如此,专家警告说,这些积极因素并不能抵消激化内容的持续危害,这些内容继续对用户和公众造成伤害。
根据一项研究,由纽约城市大学、斯坦福大学、达特茅斯学院、东北大学和埃克塞特大学的研究人员组成的团队进行的这项研究发现,YouTube的算法推荐并不一定会将用户引导至激化内容的“兔子洞”,“这可能归因于该公司在2019年对其推荐系统所做的更改。”
[相关:OpenAI 最新的 ChatGPT 更新仍会传播阴谋论。]
该团队的发现于8月30日发表在《Science Advances》杂志上,结合了美国一项民意调查以及2020年7月至12月期间1181名受访者自愿提供的浏览数据。
相反,接触极端和对抗性内容的现象主要集中在一个规模小得多的、已经有倾向性的用户群体上。尽管如此,该团队认为,该平台“仍然在向寻求它的忠实受众展示来自另类和极端频道的内容的方面发挥着关键作用”。不仅如此,参与这些内容仍然能带来广告利润。
《Science Advances》的编辑Aaron Shaw在一篇随文文章中写道:“[这项]研究证实,像YouTube这样的平台可以,也应该做得更多,以限制极端内容向寻求它的忠实受众的传播。YouTube及其母公司Alphabet应该停止与那些与其公开承诺的减少仇恨言论、骚扰和有害阴谋论传播的承诺相悖的内容相关的盈利活动。”
Millican继续说道:“在这个社交媒体平台努力遏制仇恨和虚假信息方面出现倒退的时期,YouTube应该将此和其他近期研究视为一个鼓舞人心的信号,并继续投资于解决方案,使其成为所有消费者和社会的安全平台。”
Julie Millican,一个致力于监测极右翼虚假信息的非营利组织Media Matters的副总裁,认为YouTube在改进其算法以更好地限制极端内容的传播方面值得称赞。“然而,事实仍然是,在平台上,仇恨、偏执和阴谋内容仍然猖獗,对于那些寻找它们的人来说,也太容易找到了,”她告诉《PopSci》。“即使只有一小部分用户会因平台上的内容而激化,但我们已经一次又一次地看到,这种激化可能带来致命的后果。”
尽管继续改进YouTube的推荐系统是至关重要的和值得称赞的,但该研究的研究人员也呼应说,“即使是低水平的算法放大,当考虑到YouTube庞大的用户基础和跨越的时间时,也可能产生破坏性后果。”根据近期报告,约有2.47亿美国人定期使用该平台。在撰写本文时,YouTube的代表没有回复《PopSci》的置评请求。