

本文最初发表于 MIT Press Reader。
如果说有一幅图像可以被形容为不祥,那么特雷弗·帕格伦的《彩虹》就堪称典范。除了看起来有毒的“天空”之外,它的部分区域似乎已经变异成弹药燃烧的痕迹,或者更隐晦地说,是一系列故障。这幅作品的全称是《彩虹(语料库:预兆与凶兆)》,它暗示着自然元素与有形、可能已故的身体(corpus/corpse)的汇集,进一步加深了疏离感和恐惧感。
与帕格伦的“对抗性进化幻觉”系列(2017年至今)中的其他作品一样,包括怪诞的《吸血鬼(语料库:资本主义的怪物)》和《人眼(语料库:人类)》(后者带有欺骗性的、似乎无神的眼睛幻影),《彩虹》是由生成对抗网络(GAN)生成的,这是一种AI模型,它训练神经网络识别、分类,并至关重要的是,生成新的图像。鉴于AI图像处理模型不像我们那样体验世界,而是复制了一个间接且扭曲的世界版本,它们产生的图像揭示了AI在计算上生成我们世界中令人不安的寓言的程度。《彩虹》等图像从自动图像生产的胚胎空间中涌现出来,揭示了通常隐藏或被遮蔽的东西——一种幻觉,或一场噩梦,这种幻觉得益于驱动AI的算法的幻觉性、常常是错误的逻辑。这种逻辑常常被斥为故障或瑕疵,但它却是AI的一个基本方面,而不仅仅是副作用。所有这一切都引出了一个 overarching 的问题:这些AI驱动的图像生产的幻觉模型是否会进一步疏远,甚至深刻地疏远我们与世界的关系?

特雷弗·帕格伦是一位备受赞誉的艺术家,也是一位麦克阿瑟奖学金获得者,他一直致力于探索我们世界中那些不可见和被遮蔽的事物,包括他所说的,人类肉眼无法理解的机器生成图像的“不可见的视觉文化”。
例如,在他2019年的展览“从‘苹果’到‘异常’”中,他强调了算法——作为编码的指令集——如何经常产生有偏见的AI模型。在整个项目中,他让观众和研究人员都有机会了解,尽管机器学习模型存在可疑的假设和设计,但当代主体在多大程度上被这些重复的不透明模型中的偏见(种族和其他)所预先定义和确立。在他同样关注潜在和隐秘元素的《对抗性进化幻觉》系列中,帕格伦采用了诊断性逆向工程的方法:他从《彩虹》等图像的明显、最终版本向后工作,探索GAN如何通过汇集数据集来系统地训练以生成新的、尚不为人知的图像。在此过程中,该系列展示了这些程序如何受到数据集中偏见(某些图像被过度或低估)、整体训练过程中的差异,以及特别是在算法权重对输入数据进行迭代应用过程中所做的、通常是不透明的调整的影响。

尽管机器学习存在局限性和固有的偏见(更不用说产生幻觉的倾向),但我们越来越依赖这些技术来预测和影响我们的生活。通过对过去模式的统计分析,以计算和识别未来模式,对人们的身份、购物偏好、信用评分、职业前景、日常行为、健康状况、政治倾向以及潜在的激进化倾向的机械预测,正变得普遍而非例外。AI技术到目前为止的这种预测倾向,存在变成自我实现和无法解释,甚至难以理解的危险。
机器驱动计算的影响是深远的,尤其是当它们试图预测的不仅仅是日常行为,而是可能更令人不安的、那些超出常规的行为——即那些抵制预定义模式的行为、活动和身份。通过揭示图像生产AI模型的决定性推理——这是一个彩虹;这是一个苹果;这是一张脸;这是一个威胁——以及它们如何将意义强加于世界,看似抽象的(误)分类或幻觉行为,对我们的生活有着极其真实的影响。这种强加的遗产,其认识论上的作用 (affect),意义重大:例如,当应用于面部识别技术时,此类系统会为特定对象或实体——一张脸——分配一个分类,并为其分配一个名称,或者更不祥地,一个威胁等级。

因此,人们常常倾向于想当然地接受这些分类,并按照它们的预测和自动化建议继续进行——也就是说,标记出某些行为模式。通过计算神经网络的推理来程序化地呈现世界,图像处理AI模型,如GAN,正在通过程序来规范人们和社区,使其接受机器的推测。简而言之,我们正被调适,将计算上的推测视为我们世界的“真理”,而不是,如实际情况所示,基于概率预测和算法不透明运作的条件性投射。
GAN的操作逻辑,重要的是,专门针对生成新的、尚不为人知的图像,这进一步使该过程承受了很大程度的计算上的偶然性。尽管算法设备通常与技术决定论相关联(即所谓的准确识别个人和对未来事件有争议的预测),但所涉及的过程并不自动产生可预测的,或者说,正确的结果。
在《对抗性进化幻觉》系列中,我们遇到的图像,在已经被GAN赋予了一个明确的类别——彩虹、眼睛、吸血鬼——之后,这一点变得尤为关键。这些通常怪异,甚至诡异的分类,传达了AI图像处理模型在多大程度上普遍地,如果不是无处不在地参与生产,用帕格伦的话来说,一种可疑的“机器现实主义”。他曾观察到,创建一个训练集涉及人类操作员对成千上万张图像进行分类和归档。此后,帕格伦继续说,“人们假设这些类别以及其中包含的图像,对应于世界上的事物。”
在这种机器现实中,我们发现了一个令人不安的世界的替代品,我们需要面对这样一个事实:用于训练机器识别的神经网络和深度学习模型不仅系统性地容易出错,而且还系统性地容易产生不存在的对象的幻觉。只要图像处理系统不返回世界的精确复制品或准确的分类,它们就会经常将现实幻化为存在。 正是这种倾向,当帕格伦介入算法推理的潜在领域时——即AI进行分类和关联的神经网络的隐藏层——得到了放大。正是在这里,当图像以主题的诡异变体形式返回给我们时,算法可以被程序员——或者,像在这里一样,被程序员兼艺术家帕格伦——进行调整和离散加权。通过提高GAN中产生幻觉的潜力,算法的常见应用(图像识别)可以与其功利性功能产生关键性的脱节,并揭示其本质:统计近似和现实的机械寓言。

通过揭示驱动生成式AI的计算性狂热,帕格伦的实践挖掘、利用并反驳了关于神经网络在图像分类任务中有效性的、常常被夸大的说法。如果说“彩虹”确实是算法推理召唤出的彩虹的诡异类比,那么我们该如何理解神经网络产生这些幻觉图像的过程呢?帕格伦问道,我们该如何从这些系统“内部”思考,而不是仅仅反思它们的潜在影响?
AI对我们生活及其生活方式的累积和上升的影响,为开发研究方法提供了强有力的论据,例如帕格伦所采用的方法,旨在鼓励从AI这个“装置”内部产生批判性的思考。通过开发这样的方法论,我们可以确保系统性训练(例如,涉及标记和输入数据)和系统性(潜在和算法)的计算空间更容易被理解为它们本来的样子:概率的统计计算,而不是确定性,但尽管如此,它们已经定义了我们今天如何感知和生活的重要方面。
安东尼·唐尼 (Anthony Downey) 是伯明翰城市大学(Birmingham City University)中东和北非地区的视觉文化教授。他是《Third Text》、《Digital War》和《Memory, Mind & Media》的编辑委员会成员,并最近编辑了“特雷弗·帕格伦:对抗性进化幻觉”(Sternberg Press,2024),隶属于Research/Practice系列。