短短几年内,AI 生成的名人和政治人物的深度伪造内容已从学术期刊的范畴走向各大社交媒体的流行趋势页面。错误信息专家警告称,这些工具如果与社交媒体平台上捉襟见肘的审核团队相结合,可能会给本已充满争议的 2024 年选举季增添一层混乱和困惑。
现在,谷歌正正式加入一个快速增长的科技和媒体公司联盟,共同致力于推广一种数字徽章标准,该徽章能显示图像是否使用生成式 AI 工具创建。如果广泛推广,“内容凭证”(Content Credential),由内容来源和真实性联盟(C2PA)牵头,有望在欺骗性 AI 生成的政治深度伪造内容在互联网上泛滥之际,提高消费者对照片和视频来源的信任度。谷歌将于本月作为指导成员加入 C2PA,与 Adobe、Microsoft、Intel 和 BBC 等公司并列。
谷歌的一位发言人在一封电子邮件中告诉《PopSci》,该公司目前正在探索在其产品套件中使用该标准的方法,并在“未来几个月”内公布更多信息。该发言人表示,谷歌已在探索将内容凭证整合到谷歌图片搜索的“关于此图片”功能中。谷歌对这些凭证的支持可能会提高其受欢迎程度,但鉴于缺乏具有约束力的联邦深度伪造立法,其整体使用仍然是自愿的。这种不一致性给了深度伪造创作者一个优势。
什么是内容凭证?
C2PA 是一个成立于 2019 年的全球标准机构,其主要目标是创建技术标准,以认证数字内容的来源、创建者和创建方式。Adobe,作为内容真实性倡议(CAI)的牵头者,及其合作伙伴,在像OpenAI 的 DALL-E 这样大规模消费级生成式 AI 工具兴起之前多年,就已经开始担忧 AI 生成媒体侵蚀公众信任和放大网络错误信息的方式。
这种担忧促成了内容凭证的创建,这是一个小徽章,公司和创作者可以选择将其附加到图像的元数据中,披露谁创建了它以及何时创建。它还向观看者披露数字内容是否使用生成式 AI 模型创建,甚至会指明所使用的具体模型,以及是否在之后经过数字编辑或修改。
内容凭证的支持者认为,该工具创建了一个“防篡改的元数据”记录,随数字内容一起传输,并在其生命周期的任何时间点都可以进行验证。实际上,大多数用户会看到这个“透明度图标”以一个小徽章的形式弹出,字母“CR”出现在图像的角落。Microsoft、Intel、ARM 和 BBC 也是C2PA 指导委员会的成员。
Adobe 首席法律顾问兼首席信任官 Dana Rao 在发送给《PopSci》的一份声明中说:“随着数字内容成为事实上的沟通方式,加上 AI 赋能的创作和编辑工具的兴起,公众迫切需要了解他们在家里、学校、工作场所,无论身在何处所接触到的内容的背后信息。在一个所有数字内容都可能虚假的世界里,我们需要一种方法来证明什么是真实的。”
用户遇到带有内容凭证的图像时,可以点击该徽章来查看创建时间和后续发生的任何编辑。每一次新的编辑都会被绑定到照片或视频的原始清单中,并随其在网络上传播。
例如,如果一名记者裁剪了一张之前用 Photoshop 编辑过的照片,那么这两种对图像的更改都会在最终清单中得到记录。CAI 表示,该工具无法阻止任何人截屏图像,但是,截屏将不包含原始文件的 CAI 元数据,这可以暗示观看者这不是原始文件。该符号可见于图像上,也包含在其元数据中,理论上可以防止恶意用户使用 Photoshop 或其他编辑工具删除该徽章。
如果图像上没有可见的徽章,用户可以复制它并上传到这个内容凭证验证链接来检查其凭证,并查看其是否随时间被修改。如果在其生命周期的某个阶段,媒体的编辑方式不符合 C2PA 的规范,用户会看到“缺失”或“不完整”的标记。内容凭证功能可以追溯到 2021 年。此后,Adobe 已将其提供给 Photoshop 用户,以及使用Adobe 的 Firefly AI 图像生成器制作图像的创作者。Microsoft计划将该徽章用于其 Bing AI 图像生成器创建的图像。拥有 Facebook 和 Instagram 的 Meta也宣布将添加一项新功能,允许用户披露其在其平台上分享的 AI 生成视频或音频。Meta 表示将在“未来几个月”开始应用这些标签。
谷歌加入 C2PA 的重要性
谷歌参与 C2PA 至关重要,首先是因为这家搜索巨头在网络上拥有庞大的数字足迹。该公司已在探索在其广泛的在线产品和服务(特别是 YouTube)中应用这些徽章的方法。C2PA 认为,谷歌的参与可以将凭证展示给更多用户,从而提高该工具作为一种可操作的数字内容验证方式的普及度,尤其是在政治深度伪造和篡改媒体日益盛行的情况下。Rao 将谷歌的合作描述为推动内容凭证普及的“分水岭时刻”。
Rao 表示:“谷歌的行业专业知识、深入的研究投入和全球影响力将帮助我们加强标准,以解决内容来源使用方面最紧迫的问题,并触达全球更多消费者和创作者。在谷歌这样的公司支持和采用下,我们相信内容凭证可以成为我们所需要的:一种简单、统一、通用的理解内容的方式。”
此次合作发生在谷歌宣布将使用 SynthID 在其 DeepMind AI Lyrica 模型生成的音频上附加数字水印三个月后。在此情况下,DeepMind 表示音频水印不应能被人耳听到,也不应干扰用户的听觉体验。相反,它应作为一种更透明的保护措施,以防止音乐被 AI 生成的复制品模仿,或证明一个可疑的剪辑是真实的还是 AI 生成的。
深度伪造造成的混乱可能使本已充满争议的 2024 年选举更加糟糕
在错误信息专家警告可能出现的令人眼花缭乱的 2024 年选举周期之前,科技公司和媒体公司正争相建立可信赖的数字媒体来源验证方式。主要政治人物,如共和党总统候选人唐纳德·特朗普和佛罗里达州州长罗恩·德桑蒂斯,都已使用生成式 AI 工具攻击对方。最近在新罕布什尔州,AI 声纹克隆技术被用于制造总统乔·拜登打电话给居民,敦促他们不要在新罕布什尔州初选中投票。该州总检察长办公室此后已将这些电话与两家位于德克萨斯州的公司联系起来。
但威胁不仅限于选举。多年来,研究人员一直警告说,日益逼真的 AI 生成的深度伪造图像和视频在网上泛滥,可能导致一种被称为“说谎者红利”的现象,即消费者怀疑网上看到的一切是否真实。律师、政治家和警察已经错误地声称合法的图像和视频是 AI 生成的,试图赢得官司或定罪。
内容凭证可以提供帮助,但它们缺乏强制力
即使有谷歌的支持,内容凭证仍然完全是自愿的。无论是 Adobe 还是任何监管机构,都没有强制要求科技公司或其用户对其内容负责地添加来源凭证。即使谷歌和微软确实使用这些标记来披露由其特定 AI 生成器制作的内容,目前也无法阻止政治恶意行为者使用其他开源 AI 工具拼凑深度伪造内容,然后尝试通过社交媒体传播。
在美国,拜登政府已指示商务部制定关于 AI 水印和安全标准的新指南,科技公司在构建生成式 AI 模型时必须遵守这些指南。国会议员已提出联邦立法,要求 AI 公司在所有 AI 生成的内容上包含可识别的水印,尽管尚不清楚这在实践中是否有效。
科技公司正迅速采取措施,部署针对深度伪造的保护措施,但距离总统大选不到七个月,专家们一致认为,令人困惑或误导性的 AI 材料很可能将在其中扮演一定的角色。