研究人员使用 AI 来解释复杂的科学。结果好坏参半。

这个工具能够以二年级学生能够理解的方式总结科学研究的摘要。
woman with book in face
研究人员喜欢和讨厌这款总结摘要的人工智能工具。Siora Photography / Unsplash

如果你曾经盯着一篇学术论文,眉头紧锁,想知道作者到底想表达什么,请举手。如果你还打开过另一个标签页来搜索遇到的术语,那奖励加倍。

好消息是,你并不孤单。2017年的一项eLife研究发现,2010年代中期发表的科学论文比19世纪的论文更难阅读。大多数现代学术论文似乎都存在结构糟糕的句子、可疑的词汇选择以及不必要的术语和晦涩的首字母缩略词。这使得科学知识难以获取,无论对于该领域的初级研究人员还是没有科学背景的人来说都是如此。

那么人工智能能提供帮助吗?一个名为tl;dr papers的新人工智能项目旨在通过使用机器学习来筛选冗长的研究论文摘要,并快速生成其内容的简洁摘要,即使是7岁的孩子也能理解。

The Verge报道称,尽管该程序早在近两年前就已创建,但它在本周末走红,当时学术研究人员将其文章输入其中,并将生成在Twitter上分享的摘要。一些摘要惊人地准确且简洁,而另一些则离谱到令人发笑。

例如,人工智能将“玻璃悬崖”的概念总结为“一个女性经常被置身的地方”和“一个糟糕的地方”。该论文的作者、澳大利亚国立大学全球女性领导力研究所所长Michelle Ryan告诉The Verge,虽然这个总结是准确的,但缺乏很多细微差别。最终,她和其他The Verge联系的研究人员承认,这是一个“有趣的工具”,可以向科学家展示“以更具可读性的方式写作”是怎样的。

尽管广受欢迎,tl;dr papers的创作者告诉The Verge,他们打算逐步淘汰该产品(该网站目前正在维护中),并提供替代工具,例如由人工智能研究所(The Allen Institute for Artificial Intelligence)创建的人工智能摘要器

[相关:谷歌的这项新 AI 工具可能会改变我们的在线搜索方式]

这并非人类首次求助于机器人来合成简报。2017年,一家名为Primer的公司雇佣人工智能为间谍创建情报报告,依据输入的数据和信息。两年后,《纽约时报》报道称,人工智能驱动的机器人记者正在协助世界各地的新闻编辑室。一台由tl;dr papers运行的相同神经网络驱动的机器人甚至在《卫报》上发表了一篇关于人工智能威胁的观点文章。

该神经网络被称为GPT-3,是OpenAI创建的一个语言写作人工智能工具。它接受了约2000亿字的训练,并且学会了编程、写博客和辩论。人工智能如此令人印象深刻,以至于开发者正在试用它处理法律文件、客户服务咨询、基于文本的角色扮演游戏等方面,《自然》报道称。

尽管有时它可能很有趣甚至令人毛骨悚然,Vox指出,它并不智能,这意味着它并不真正理解它接收到的笔记之外的世界;它通过解析词语和短语之间的关系来工作。《自然》去年3月报道称,GPT-3的创建者正在努力教人工智能搜索概念,而不是特定的词语或短语。

但是,人工智能不幸地仍然缺乏常识。这就是为什么,像大多数大型语言模型一样,它有时会犯错误,产生无意义的内容,提供危险的信息,或者带有负面偏见。也许通过一个庞大的事实数据库来修复这些模型是解决方案,《自然》提出。或者,这些机器人作者或许能从人工编辑那里获益。

 

更多优惠、评测和购买指南

 
Charlotte Hu Avatar

Charlotte Hu

助理科技编辑

Charlotte 是《趣味科学》的助理科技编辑。她对了解我们与技术的关系如何变化以及我们如何在网上生活感兴趣。


© .