这台机器比你更擅长写“爆款”标题

它的运作方式将令你震惊
httpswww.popsci.comsitespopsci.comfilesscreen_shot_2015-10-14_at_2.51.37_pm.png
Click-o-Tron 是一个完全由人工智能撰写的吸引眼球的文章组成的网站。Lars Eidnes

当研究人员进行机器学习实验时,通常是为了创造有益于人类的工具。计算机在设计上可以弥补我们天生的缺陷:它们不会疲倦,也不会感到压力,尤其不会夸大其词。通常,它们只关注事实和数字。但挪威开发商 Lars Eidnes 采取了相反的方法,他创造了一个旨在通过利用人们的好奇心和轻信来欺骗人类的学习机器——就像当今一些人类作家所做的那样。Eidnes 构建了一个吸引眼球的文章生成器。

吸引眼球的文章(Clickbait)——一个术语,指的是标题耸人听闻但内容未能兑现承诺的文章——在当今互联网上泛滥成灾,越来越多的媒体机构极大地夸大或虚报相对微不足道的事情来吸引读者的目光。醒目的大标题承诺会让你震惊、愉悦、获得灵感或惊叹的列表(“你绝对想不到……”)。

Eidnes 构建了一个神经网络,该网络阅读了来自 BuzzFeed、Gawker、Jezebel、Huffington Post 和 Unworthy 等大众在线媒体(所有这些都曾被指控有吸引眼球的文章)的大约 200 万篇这类标题。

神经网络是数学公式的集合,用于解码输入之间的关系。因此,如果你让神经网络阅读 200 万篇吸引眼球的文章标题(这个过程称为训练),它就会解析出哪些词语与其他词语相关。通过理解词语之间的关系,它就能够相当确定地预测接下来可能发生什么。

训练完成后,当要求网络造句时,它会找到并输出一个词,然后循环回到原点,将第一个词作为上下文,再次进行整个思考过程。这种架构被称为循环神经网络(因为它会循环),机器学习研究人员发现它非常适合需要按顺序发生或带有时间元素任务。

httpswww.popsci.comsitespopsci.comfilesrnn-unrolled2.png
循环神经网络能够将自己的输​​出整合到未来的方程中,使其在语言应用方面具有通用性。Lars Eidnes

在第一次训练之后,Eidnes 的神经网络并没有对世界有太多的理解。它会生成诸如“真正的行走加入他们背后去法国的飞机莎拉约克”或“经济教训给女演员给前任——需要一个应用程序”之类的标题。它们没有多大意义。然而,在进一步处理了更多信息后,该网络表示:“约翰·麦凯恩警告最高法院要支持节育改革。”

Eidnes 从数据中提取了其他几个例子,比如“罗姆尼阵营:‘我认为你是个糟糕的总统。’”

“这好得离谱——如果这是某个网站上真实发布过的标题,我一点也不会惊讶,”Eidnes 在一篇详细介绍该系统的博客文章中写道。“但它不在数据集中,甚至不接近。”

显然,在“罗姆尼阵营”出现的 17 次中,从未与总统职位相关联。而“糟糕的总统”一词出现的那一次,是来自马尔科·卢比奥。根据这些信息,Eidnes 写道,该网络具有某种程度的语义理解能力,并且能够理解政治关系。

为了让该网络发挥更大的作用,他创建了Clickotron.com,该网站每 20 分钟更新一篇新的人工生成的故事。该网站会自动搜索维基共享资源上的相关图片,并生成一些正文。为了区分好坏,Clickotron.com 具有类似于 Reddit 的投票机制。

“这为我们提供了无限的无用新闻来源,而且免费,”Eidnes 写道。“如果我没记错的话,根据经济学课的知识,这应该会把无用新闻的市场价值压低到零,迫使其他无用新闻的生产者去生产别的东西。”

 

更多优惠、评测和购买指南

 
© .