这个虚构的新闻节目完全由人工智能和深度伪造制作

“狼新闻”视频出现语法错误,主播由人工智能生成,怪异。
Screenshot of deepfaked news anchor for fake news channel
如果感觉不对劲,那是因为它确实不对劲。Graphika

一家专门研究虚假信息的公司 Graphika 周二 发布了一份令人震惊的报告,揭示了备受争议的深度伪造技术已经发展到何种程度。他们的发现详细说明了似乎是第一个国家支持的影响行动,该行动利用完全由人工智能生成的“新闻”片段来传播宣传。尽管其最终产品相对笨拙,在线影响似乎很小,但虚构媒体“狼新闻”的人工智能电视主播去年曾批评美国在枪支暴力问题上的不作为,并称赞中国在地缘政治责任和即将举行的国际峰会上的影响力。

正如《纽约时报》周二提供的补充报道中所述,这两名“狼新闻”主播可以追溯到英国一家成立五年的初创公司 Synthesia 提供的“Jason”和“Anna”虚拟形象。该公司提供深度伪造软件,每月仅需 30 美元。Synthesia 目前提供至少 85 个角色,这些角色基于不同年龄、性别、种族、音调和服装的真实人类演员。客户还可以生成他们自己的虚拟形象,或者任何获得许可的人的虚拟形象。

[相关:深度伪造、虚假信息和视频编辑的历史。]

Synthesia 的产品主要用于节省成本和时间的解决方案,例如公司内部的人力资源培训视频。公司网站上宣传的过往客户包括亚马逊和诺和诺德。Synthesia 的示例以及《纽约时报》强调的宣传片段的质量并不高——虚拟形象的语调大多单调,面部表情僵硬,音频延迟,动作不真实,例如眨眼过慢。

通常情况下,这不成问题,因为客户愿意在成本大幅降低的情况下牺牲这些方面,以用于通常的平淡项目。尽管如此,Graphika 的专家警告说,这项技术正在迅速改进,很快就会出现与真实视频越来越难以区分的虚假信息。

[相关:“历史人物”聊天机器人不仅不准确,而且很危险。]

Synthesia 的服务条款明确禁止生成“政治、色情、个人、犯罪和歧视性内容”。尽管该公司有一个四人部门负责监控客户的深度伪造内容违规行为,但与仇恨言论或露骨内容相比,仍然难以发现虚假信息或宣传等微妙问题。Synthesia 的联合创始人兼首席执行官 Victor Riparbelli 告诉《纽约时报》,该公司对此次安全漏洞承担全部责任,并且“狼新闻”背后的订阅者因违反公司政策已被封禁。

尽管 Graphika 发现的数字宣传似乎只触及了少数在线用户,但该公司警告说,这只是时间问题,不良行为者将利用更好的技术来制作极具说服力的视频和图像,以服务于他们的影响力行动。去年 11 月,Riparbelli 在 Synthesia 网站上发布的一篇博客文章中,将责任推给了政府,要求其制定全面的立法来规范“合成媒体”和深度伪造行业。 

 

更多优惠、评测和购买指南

 
Andrew Paul Avatar

Andrew Paul

特约撰稿人

Andrew Paul 是 Popular Science 的特约撰稿人。


© .