深度伪造可能利用了新技术,但它们基于一个古老的想法

从媒体诞生之初,人们就一直在传播虚假信息。
1970s era living room with orange wallpaper, two chairs and a TV with a deepfake of Nixon playing.
纽约市影像博物馆正在举办一个关于深度伪造及其历史背景的展览,该展览以阿波罗 11 号登月任务为开端。Thanassi Karageorgiou / 影像博物馆

“命运已定,那些前往月球探险的人们将安息在月球上。” 

这是理查德·尼克松在 1969 年电视讲话中对全国宣布阿波罗 11 号任务失败、宇航员尼尔·阿姆斯特朗和巴兹·奥尔德林在尝试首次登月时遇难的悲惨消息时所说的话。

但这只存在于另一个现实中。尼克松从未说过这些话,因为阿波罗 11 号任务取得了历史性的成功,阿姆斯特朗、奥尔德林和他们的飞行员迈克尔·柯林斯安全返回地球。但如果他们未能成功,则为时任总统尼克松准备了一篇演讲稿。短片《如果月球遇难》向我们展示了在尼克松极具说服力的深度伪造视频中,这一场景将如何展开,他将在此视频中宣布灾难性的消息。 

[相关:7 个简单的方法,你可以自己证明登月是真的]

深度伪造(Deepfake)是“深度”(deep learning,深度学习)和“伪造”(fake,虚假)的组合。合起来,它是一个标签,用于描述使用人工智能来描绘从未真正发生过的场景的音频或视频剪辑。Halsey Burgund,《如果月球遇难》的导演之一表示,这通常涉及一个人说或做他们从未做过的事情,而且通常未经当事人同意。

虽然深度伪造是最近才出现的技术,但它们建立在扭曲媒体的悠久而成熟的传统之上,这种扭曲媒体即使在今天仍然作为低技术、影响力巨大的虚假信息而存在。尽管深度伪造技术正在迅速发展,但也有一些努力试图减缓其传播。虽然深度伪造存在许多恶意用途,但在人权和可访问性等领域也有一些有益的应用。纽约市影像博物馆正在举办的名为《深度伪造:屏幕上的不稳定证据》的展览,以《如果月球遇难》为中心,探讨了这些主题。

《如果月球遇难》是一部理查德·尼克松宣布阿波罗 11 号任务失败的深度伪造视频。

深度伪造与其他虚假信息的区别

要制作一个人的深度伪造视频,创作者必须通过向计算机提供大量“目标”(即你试图操纵其图像和声音的人)的视频、音频或图像,以及“来源”(即扮演你想让目标看起来说或做的词语或动作的演员)来训练计算机。为了做到这一点,计算机使用一种形式的被称为人工神经网络的技术,这种技术旨在像人脑一样通过查看证据、寻找模式,然后将这些模式应用于新信息来解决问题。神经网络最早的概念是在 1943 年提出的,它们可以用于各种任务,从编写食谱翻译晦涩的期刊文章。深度学习和深度伪造的创建涉及许多层神经网络,以至于计算机可以自我训练和纠正。

虽然深度伪造技术本身可能看起来是有害的,但社交媒体用户传播信息的快速速度助长了这一点,他们通常不会停下来质疑信息的来源。

影像博物馆展览的联合策展人、副馆长 Barbara Miller 表示:“深度伪造作为一种制作技术,带来了很多担忧。我认为,不关注信息传播的闪电般的速度,就不可能思考这种担忧。”

但虚假信息的有效传播早于深度伪造,甚至早于社交媒体。Miller 补充说,展览将深度伪造置于“不稳定非虚构媒体”的悠久历史背景下,这样参观者就不会认为人工智能驱动的操纵的兴起是所有媒体不信任的根源。 

Burgund 表示:“这些技术自媒体出现以来就一直存在。” 

利用基本的视频编辑技巧,几乎任何人都可以剪辑和拼接镜头来改变其含义或基调。

在 19 世纪 90 年代,爱迪生制造公司急于展示其电影摄影机的能力,并用相机捕捉了美西战争。然而,19 世纪的相机比今天的相机要笨重得多,难以近距离拍摄战斗场面。因此,该公司将美国士兵迅速击败敌军的摆拍镜头穿插在行军士兵和武器的真实镜头中。这些剪辑激发了美国观众的爱国热情,他们并不知道真实和虚假场景之间的区别。 

即使在今天,你也不需要人工智能来制造有效且有影响力的虚假信息。Burgund 表示:“那些被尝试过并证明有效的操纵方法仍然有效。” 他解释说,即使在照片上添加错误的标题,而不编辑图像本身,也能制造虚假信息。

以 2020 年总统大选为例。Miller 说,在大选前的几个月里,人们担心深度伪造可能会干扰民主进程。然而,这项技术在大选期间并没有引起很大的轰动,至少与那些能够成功传播虚假信息的更粗糙的操纵形式相比是如此。 

利用基本的视频编辑技能,几乎任何人都可以剪辑和拼接镜头来改变其含义或基调。这些被称为“便宜伪造”(cheapfakes)或“浅伪造”(shallowfakes)(拼接的美西战争视频是早期实例之一)。《如果月球遇难》的开头部分就利用了这些技术处理档案镜头,使其看起来像是阿波罗 11 号任务坠毁了。导演们将月球着陆器返回的镜头穿插在宇航员的快速剪辑中,并配以加速的哔哔声和静电噪声的音轨,制造出令人焦虑的错觉,认为任务已经失误。由于这些技术只需要很少的专业知识和一台笔记本电脑,因此比深度伪造更为普遍。

展览的联合策展人、亨德里克斯学院英语、电影和媒体研究系助理教授 Joshua Glick 表示:“我们看到最广泛的损害就发生在(浅伪造)方面。”

事实上,一些最著名的被辩论为深度伪造的视频实际上是便宜伪造。2019 年,时任特朗普总统的律师鲁道夫·朱利安尼发布了一段南希·佩洛西的视频,视频中她说话含糊不清,导致一些批评者声称她喝醉了。该视频被发现经过了编辑和慢速处理,但没有使用任何深度伪造技术。

Burgund 和他的联合导演 Francesca Panetta 认为,确认偏见是深度伪造或便宜伪造传播的真正原因,即使它们制作得非常粗糙。“如果深度伪造呈现的是你想相信的东西,那么它看起来几乎不必像真的,”Burgund 说。

减缓深度伪造的传播

虽然目前制作像 Burgund 和 Panetta 的深度伪造视频还需要一些技术知识,但罗切斯特理工学院全球网络安全研究所研究主任、计算安全学教授 Matthew Wright 表示,这项技术正在迅速普及到大众,并且已经有许多深度伪造应用程序和软件

“这正在让一项潜在危险的技术民主化,”Wright 说。 

然而,也有一些努力在减缓或抵消深度伪造的传播。Wright 表示,虽然科技研究人员的通常冲动是与公众分享方法和工具,但一些开发新深度伪造技术的专家已经发誓要更严格地保密他们的研究成果。此外,还有一些项目,例如内容真实性倡议,这是一个由 Adobe、Twitter 和《纽约时报》等公司和组织组成的联盟,旨在通过数字水印追踪媒体的来源,即使它们被编辑过。Wright 说,这不是一个完美的解决方案,因为有绕过这些检查的方法。尽管如此,如果来自白宫的每一个视频都经过数字水印,那么就可以减缓或阻止其被操纵。 

Wright 正在致力于开发深度伪造检测工具,供记者和普通互联网用户使用。(微软在 2020 年推出了类似的产品。)Wright 表示,他和他的同事们非常小心,不会分享所有的源代码,因为如果有人获得访问权限,他们可能会创建一个深度伪造来欺骗这些检测器。但是,如果存在多种真实性验证器,那么发生这种情况的可能性就会降低。

Wright 表示:“只要有多种检测工具被用于对抗这些视频,我认为我们总体上捕获(深度伪造)的机会还是相当不错的。” 

2020 年的纪录片《车臣欢迎你》使用了深度伪造技术来掩盖其弱势对象的面部。

深度伪造技术的价值

你可能在娱乐领域遇到过深度伪造的好处,例如在最新的星球大战电影中,或在讽刺作品中,例如这部带有杰夫·贝索斯和埃隆·马斯克面孔的星际迷航致敬视频。然而,这项技术在人权和残疾人可访问性方面也有其用途。

影像博物馆的展览展示了 David France 荣获大奖的纪录片《车臣欢迎你》中的片段,该片使用深度伪造技术来隐藏在俄罗斯共和国遭受迫害的 LGBTQ 活动家的真实面孔。这使得观众能够看到受访者的情感,同时保护他们的身份。

Burgund 表示,这项技术还被用于改善那些因疾病、伤害或残疾(如卢伽雷氏病)而失去声音的人的可访问性。例如,VocaliD 利用人工智能从旧录音中重现用户的声音,用于文本转语音技术,或帮助他们从语音库中选择最符合其个性的声音。 

[相关:深度伪造可以帮助我们重温历史——或改写历史]

尽管 Panetta 和 Burgund 希望他们的深度伪造视频的观看者能够审视他们遇到的媒体的来源,但他们不希望观众因此而感到惊恐,以至于造成一个“零信任社会”。

Panetta 表示:“这不是试图吓唬人们,让他们不再相信他们看到的一切,因为这和虚假信息本身一样有问题。”

正如媒体信任可能被武器化一样,对媒体的不信任也可能被武器化。 

正如展览所指出的,即使是深度伪造的理论存在也会导致“说谎者红利”,即有人可以暗示一个真实的视频是深度伪造,从而播下怀疑的种子。

2018 年,加蓬总统阿里·邦戈·翁丁巴在经历中风并因此淡出公众视野后发表了新年致辞。他的政敌声称他看起来不自然,并散布说法称该视频是深度伪造的。虽然专家们认为这段视频看起来有些异常,但没有人能确定它是否是深度伪造,一些人将邦戈奇怪的外表归因于他糟糕的健康状况。一周后,他的反对派以视频的异常之处为由发动了一场政变尝试,但未能成功。 

Wright 表示,他和他的同事们开始在政治领域看到更多这种“狼来了”的情况,而不是实际的深度伪造在传播并造成损害。“可能存在深度伪造,但它们并不常用,”他说。“你需要做的是了解其来源。”

对于任何在社交媒体和新闻中被海量信息淹没的人来说,重要的是要停下来思考:“这些信息是如何到达我的?谁在传播这些信息?我能信任这个来源吗?” 这样做可以决定一个深度伪造(或便宜伪造)是变成强大的虚假信息,还是只是互联网上的另一个视频。  

深度伪造:屏幕上的不稳定证据》将于 2022 年 5 月 15 日之前在纽约皇后区的影像博物馆展出。

 

更多优惠、评测和购买指南

 
Maggie Galloway Avatar

玛姬·盖洛韦

编辑实习生

Maggie Galloway是《流行科学》杂志2022年春季的编辑实习生,也是西北大学梅迪尔新闻学院的学生。她来自湾区,并且很喜欢说“hella”(俚语,表示“非常”)。当她不写作时,她通常在听播客,散步,或者看磷虾的照片(它们非常美丽)。


© .