AI 生成的图像正变得越来越逼真,这将使识别深度伪造和其他图像误导信息变得更加困难。但谷歌的 DeepMind 团队认为他们可能有一个解决方案:一个名为SynthID的特殊水印工具。
SynthID 是在谷歌云和谷歌 DeepMind 团队的合作下在本周的 Google Cloud Next 大会上发布的。目前,通过谷歌云的生成式 AI 平台Vertex AI,Image 已经可以进行 Beta 测试。目前,它仅支持 Imagen,即谷歌类似 DALL-E 2 的文本到图像生成器,但该公司正在考虑将类似技术引入其网络上提供的其他生成式 AI 模型。
据 DeepMind 团队的公告博客文章称,SynthID 的工作原理是将“数字水印直接嵌入图像的像素中,使其对人眼不可见,但可以被检测到以进行识别。” 这是他们试图找到“不可见性和抗图像篡改性之间的正确平衡”。这是一个艰难但重要的挑战。
正如 DeepMind 团队在公告中所解释的那样,“虽然生成式 AI 可以释放巨大的创意潜力,但它也带来了新的风险,例如使创作者能够传播虚假信息——无论是故意还是无意。” 建立某种系统来帮助人们和平台识别 AI 生成的内容,对于阻止错误信息扩散至关重要。
研究人员声称,传统的数字水印——例如叠加在图库照片上的标志——不适用于 AI 生成的图像,因为如果它们很小,很容易被编辑掉,而如果它们很大且显眼,它们“会给创意或商业目的带来美学挑战。”(换句话说,它们看起来非常丑陋。)
同样,尽管过去曾有尝试开发不可见水印的尝试,但 DeepMind 的研究人员声称,简单的图像操作,如调整图像大小,就足以去除它们。
SynthID 使用两个相关的基于深度学习的 AI 模型:一个用于为每张图像添加水印,另一个用于识别水印。这两个模型在同一组“多样化的图像”上一起进行了训练,并且由此产生的组合模型经过优化,既能使水印对人类几乎不可察觉,又能被 AI 轻松识别。
至关重要的是,SynthID 经过训练,即使在原始图像被编辑后也能检测到嵌入的水印。诸如裁剪、翻转或旋转、添加滤镜、更改亮度、颜色或对比度,或使用有损压缩算法等操作都无法从图像中移除水印——或者至少,不会移除到 SynthID 无法检测到的程度。虽然可能存在通过激进编辑规避的方法,但它应该对大多数常见修改都相当稳健。
作为进一步的保护措施,SynthID 具有三个置信度级别。如果它检测到水印,您可以相当确定该图像是由 Imagen 生成的。同样,如果它未检测到水印且图像看起来没有被过度编辑,那么该图像不太可能是由 Imagen 创建的。然而,如果它可能检测到水印(或者,大概是图像中与 SynthID 水印相似的区域),它就会发出警告,提示需要谨慎处理。
SynthID 并非深度伪造的即时解决方案,但它确实允许合乎道德的创作者为他们的图像添加水印,以便识别它们为 AI 生成的。如果有人使用文本到图像工具制造故意误导的信息,他们不太可能选择将他们的图像标记为 AI 生成的,但至少它可以防止一些 AI 图像被误用。
DeepMind 团队的目标是让 SynthID 成为识别人工生成的数字内容的“广泛方法套件”的一部分。虽然它应该准确有效,但诸如元数据、数字签名和简单的视觉检查等方法仍然是识别这些类型图像的一部分。
展望未来,该团队正在收集用户反馈,并寻找改进 SynthID 的方法——毕竟它仍处于 Beta 测试阶段。他们还在探索将其与其他谷歌产品集成,甚至在“不久的将来”向第三方发布。他们的最终目标是值得称赞的:生成式 AI 已经到来,因此使用它们将工具需要赋能“个人和组织负责任地处理 AI 生成的内容。”否则,我们将面临大量可能的误导信息。