

本·拉登的搜捕行动,波士顿马拉松爆炸案,斯卡利在哈德逊河上的生死降落。新闻往往在主流媒体有机会追赶之前就出现在了推特上。事实上,根据路透社的内部研究,大约20%的新闻都首先在推特上发布。然而,正如今年的选举周期所证明的那样,假新闻的出现(和传播)速度与真实新闻一样快。
路透社解决这个问题的方法是推出一个名为News Tracer的新系统,该系统是一个算法,能够筛选掉每天发布的5亿条推文中的垃圾信息、无稽之谈、广告和噪音,从而将真实新闻与虚假信息区分开来。这样,记者们就可以摆脱社交媒体的泥潭,将更多的时间花在深入挖掘新闻故事上。
据《哥伦比亚新闻评论》报道,News Tracer自2014年开始开发,其工作流程始于识别主题相似的推文集群。例如,政治新闻与政治新闻归类在一起;体育新闻与体育新闻归类在一起;依此类推。然后,该系统利用语言处理技术,对每个集群生成连贯的摘要。
News Tracer与其他流行的监控工具的区别在于,它是为了像记者一样思考而设计的。“当你开始转向机器时,一个有趣的练习是,你必须开始将其编码化,”路透社数据与创新执行编辑Reg Chua告诉《新闻评论》。
据《哈佛大学尼曼实验室》报道,这种虚拟思维模式考虑了40个因素。它利用诸如原始发帖者的地点和状态(例如,她是否经过验证?)以及新闻传播方式等信息,来为所讨论的新闻条目建立一个“可信度”评分。该系统还会与记者确认为可靠的来源进行交叉核对,并利用这个初始网络来识别其他潜在的可靠来源。News Tracer还可以区分热门话题标签和真实新闻。
News Tracer考虑的数据点组合意味着它最适用于实际的、物理的事件——例如事故、抗议、爆炸——而不是那些可能主导新闻周期的“他说她也说”式的新闻。
尽管如此,我们正处于一个关于人工智能如何——或应该如何——在新闻业中使用的有趣时刻。今天,Facebook发布了一项重大的公关/教育活动,宣传其人工智能方面的努力,旨在揭开机器学习和神经网络等抽象概念的神秘面纱。这些工具支撑着你的时间线上的内容——无论出现什么,无论不出现什么——并且将继续塑造你未来在Facebook上的体验。
通过监控、学习和迎合用户的点击、阅读和喜欢习惯,这家社交媒体巨头招致了大量批评。通过迎合用户想看的内容,该系统也压制了他们可能应该看的内容。批评者将这种现象称为“过滤气泡”。
这些气泡最严重的后果之一是在该网站上传播假新闻。虚假的标题(例如“教皇方济各endorse特朗普”、“比尔·克林顿强奸了一名13岁的女孩”)在过滤气泡的回声室中回荡。
Facebook的人工智能研究主管Yann LeCun在最近的一次新闻发布会上表示,Facebook强大的AI可能能够过滤掉这些虚假标题。但CEO马克·扎克伯格对这个想法有些顾虑,他在11月中旬的一篇帖子中指出,“确定‘真相’是很复杂的”,甚至主流媒体也不是100%的时间里都百分之百准确。
在次周的一篇后续帖子中,扎克伯格列出了一个七点计划,用于识别明显的恶作剧。该计划中的项目包括评估给定新闻条目相关文章质量的工具、要求第三方验证以及方便用户举报的机制。
同样,法国报纸《世界报》也宣布了帮助读者识别网络上假新闻的计划。该报的计划是为Chrome和Firefox浏览器开发一个扩展程序。起初,它将依靠一个受信任来源的数据库,并在读者遇到可疑内容时发出红旗。中介来源将收到黄旗,而受信任的来源将收到绿旗。
当然,Facebook和路透社并不拥有共同的使命。前者是一个集社交网络和新闻聚合器于一身的平台,而后者则是一家新闻制作商。但从本质上讲,它们都负有告知公众的责任,无论是通过最初的构想还是后期的演变。路透社在News Tracer项目上过去两年的工作证明,当人工智能得到巧妙的开发和实施时,它可以提高我们所消费新闻的标准。