

自2016年首次推出以来,TikTok的用户已超过10亿。其成功的关键在于其令人上瘾的、可无限滚动且似乎为你量身定制的视频流。长期以来,人们一直在猜测字节跳动旗下的微视频分享应用会收集用户哪些数据来喂养其内容机器。现在,我们离弄清楚这一点越来越近了。
周日,《纽约时报》的一名记者获得了TikTok北京工程团队的一份内部文件,该文件解释了点赞、评论、观看时长和分享如何输入推荐算法,然后该算法会评估视频对特定用户的吸引力。此外,《泰晤士报》看到的一张截图暗示,一个内容审核团队可以看到你发送给朋友或私下上传的视频,这揭示了更深层次的个性化。
《泰晤士报》写道,这份简化的算法介绍“既揭示了该应用程序的数学核心,也洞察了该公司对人性的理解——我们倾向于无聊,我们对文化线索的敏感度——这有助于解释为什么如此难以放下”。但它也强调了算法可能将你引向“可能导致自残”的有害内容。
这些新细节建立在《华尔街日报》今年早些时候的一项调查之上,该调查使用了100个自动化的“机器人”账户,追踪了单个用户在TikTok上的体验,从各种流行、主流视频迁移到更具针对性、更符合兴趣的内容。例如,一个被《华尔街日报》编程为对政治有普遍兴趣的机器人,最终收到了关于选举阴谋论和QAnon的视频。TikTok的一位发言人驳斥了《华尔街日报》的报道,称他们的实验“不能代表真实用户行为,因为人类拥有多样化的兴趣”。
根据《泰晤士报》看到的这份文件,基于用户活动的视频评分方程通常会结合点赞、评论、播放和在视频上花费的时间。其中还有一个公式,可以计算出个人创作者对观众的吸引力。“推荐系统根据这个方程为所有视频打分,并将得分最高的视频返回给用户,”《泰晤士报》报道。
库存问题
最终目标是提供一个内容阵容,最大化用户在应用程序上花费的时间并让他们保持活跃。但TikTok的工程师们知道,如果他们只向用户推送一种类型的视频,用户就会感到厌倦并离开应用程序。为了解决这个问题,他们提出了两个对算法的补充:一个将显示更多他们认为你喜欢的创作者的视频,另一个将限制同一标签的视频的每日观看次数。他们还进一步考虑在“为你推荐”标签中多样化推荐内容,将你可能喜欢的内容与你通常不会看到的内容穿插起来。
纽约大学社会媒体与政治中心联合主任Joshua Tucker表示:“基本理念是,他们希望吸引用户的注意力。你想让人们使用你的产品。”
Tucker说:“我认为TikTok的 G点在于它的界面,你可以去关注你关注的人,或者你可以说,TikTok,给我展示你认为我喜欢看的东西。”通过这样做,TikTok解决了Tucker所说的困扰Facebook以及最初Twitter的“库存问题”。机器学习现在允许应用程序处理海量数据并推断个人偏好,而不是向每个用户展示相同的基本内容选项。除了你的偏好之外,平台还想了解你的互动可能如何随着你的社交网络而变化。例如,你会因为朋友在看而看某个内容吗?
[相关: 社交媒体确实让我们更加道德愤怒]
Facebook之所以受限,是因为除了广告之外,它只会显示你关注的朋友和页面的帖子。而且很长一段时间以来,Twitter只显示你关注的用户发布的推文。Tucker说:“如果你注意到Twitter上最新的‘话题’功能,那就是在解决库存问题。”“它为你提供了获得更多库存的方法,这意味着他们可以尝试更多东西来了解你喜欢什么。TikTok从一开始就通过‘为你推荐’做到了这一点。”
TikTok的人工内容审核员会处理计算机算法难以分类的争议性内容。据《Netzpolitik》获得的泄露文件显示,他们可以删除内容、限制谁可以看到某个视频,以及阻止视频被推荐或进入信息流。随着TikTok越来越自动化其审核系统,创作者如果认为自己的视频被错误删除,可以向人工内容审核员申诉。
TikTok有多了解你?
Tucker建议,TikTok之所以能如此快速地了解你的口味,可能是因为它拥有更多关于你可能喜欢什么的数据。
去年6月,TikTok罕见地深入展示了其推荐算法的工作原理。在该公司的一篇博客文章中,该公司写道,与用户互动相关的数据(点赞、评论或关注账户)、视频信息(字幕、声音和标签)以及账户设置(语言偏好、位置)都会被系统权衡,以计算用户的兴趣。
[相关:为什么YouTube要隐藏视频的点踩数]
虽然TikTok声称它使用点赞、评论和分享作为衡量你对特定内容的参与度的指标,《华尔街日报》发现,该应用程序分析的最重要因素是视频的观看时长——你是否立即退出、暂停或重复观看。数据科学家Guillaume Chaslot在回顾《华尔街日报》的实验时告诉他们:“算法看到了你对什么做出反应,并能迅速找出‘让你点击、让你观看的内容,但这并不意味着你真的喜欢它,也不是你最享受的内容’。”根据《华尔街日报》的说法,随着用户的信息流变得越来越小众,他们更有可能遇到未经审核人员充分审查的有害内容。鉴于TikTok的用户群体比Facebook或YouTube等其他社交媒体平台更年轻,这成为了一个令人担忧的问题。
持续审查
自从Facebook的举报人Frances Haugen在国会作证称,那些优先考虑参与度而不是安全性的网站可能会放大危险的虚假信息以来,网站的推荐算法一直受到越来越多的审查。立法者们正在讨论可能的监管改革,以追究使用这些算法的平台的责任,使其对推荐内容可能造成的危害负责。
在研究YouTube的推荐算法时,Tucker一直对“是算法在引导你观看特定内容,还是人们自己的选择”这个问题很感兴趣。Tucker说:“无论如何,如果这些平台上有对儿童宣扬自杀的内容,那么无论你是如何看到的,这些内容都不应该在那里。”
TikTok表示,它一直在积极删除违反其规则(包括自残内容)的内容。它过去曾表示,它结合使用计算机和人工来审核内容。但错误时有发生,有时视频会被错误标记,或者会滑过过滤器。
9月,TikTok在一份新闻稿中表示,它正在发布新的“福祉指南”,以支持通过该平台分享个人经历的用户,并提出负责任参与的建议。它还宣布将扩大搜索干预措施,以便在用户搜索令人痛苦的内容时更好地提供危机支持资源。
Tucker说:“这对这些公司来说是一个真正的挑战,因为它们太大了。”“TikTok的增长太快了。Facebook也发生了同样的事情:它增长太快,因此没有意识到正在发生的(比如不同语言的)危害。”