本文最初由 Grist 发布。在此处订阅 Grist 的 每周通讯。
本文与 The Markup 合作发布,The Markup 是一个非营利性的调查性新闻机构,致力于挑战技术以服务于公共利益。在此处 注册 接收其新闻简报。
“有些事情不对劲,”右翼、由化石燃料资助的智库德克萨斯公共政策基金会在 3 月份的一份新闻简报中宣称。标题下方是一幅 海滩上搁浅鲸鱼的醒目图像,背景中有三座巨大的海上风力涡轮机。
那幅图像确实有些不对劲。并非因为海上风电会导致鲸鱼死亡——这是化石燃料利益集团推行的毫无根据的阴谋论,而这幅图像试图支持该理论。而是因为,正如 Gizmodo 作者 Molly Taft 报道的那样,这张照片是使用人工智能伪造的。除了诡异的像素化沙子、奇怪弯曲的海滩碎片以及错误地融合在一起的风力涡轮机叶片,这张照片还保留了人工智能图像生成器 DALL-E 的标志性彩虹水印。
DALL-E 是无数人工智能模型中的一个,这些模型在过去一年中尤其受欢迎,达到了前所未有的水平。但是,当数亿用户惊叹于人工智能生成新颖图像和可信文本的能力时,当前的炒作浪潮却掩盖了人工智能如何可能阻碍我们在气候变化方面取得进展。
倡导者认为,这些影响——包括运行模型所需的电力所产生的巨大碳排放、石油和天然气行业为促进化石燃料开采而普遍使用人工智能,以及错误信息输出的令人担忧的增加——却未得到应有的关注。虽然许多知名研究人员和投资者对人工智能的“神一样”的技术力量或可能终结文明的说法感到恐惧,但一系列现实世界的后果却未得到应有的关注。
其中许多危害远远超出了气候问题,包括算法种族主义、版权侵权以及帮助开发人工智能模型的数据工作者遭受的剥削性工作条件。“我们将技术视为必然,而不考虑如何在考虑到社会影响的情况下塑造它,”麦吉尔大学计算机科学教授、非营利组织气候变化人工智能联合创始人 David Rolnick 告诉 Grist。
但是,人工智能的影响,包括其对我们气候和减缓气候变化努力的影响,绝非不可避免。专家表示,我们可以也应该解决这些危害——但首先,我们需要理解它们。
大型人工智能模型产生未知数量的排放
其核心在于,人工智能本质上是一个“营销术语”,美国联邦贸易委员会在 2 月份表示。人工智能技术没有绝对的定义。但通常,正如人工智能研究机构 AI Now Institute 的执行董事 Amba Kak 所描述的那样,人工智能是指处理大量数据以执行生成文本或图像、进行预测或计算分数和排名等任务的算法。
这种更高的计算能力意味着大型人工智能模型在其开发和使用过程中消耗大量计算能力。以 ChatGPT 为例,这款 OpenAI 聊天机器人因生成令人信服的、类似人类的文本而走红。研究人员估计,ChatGPT-3(今年 GPT-4 的前身)的训练产生了 552 吨二氧化碳当量——相当于从旧金山到纽约往返飞行三次多。总排放量可能高得多,因为这个数字仅计算了 ChatGPT-3 训练一次的排放量。实际上,模型在构建过程中可以被重新训练 数千次。
该估算还不包括每天约有 1300 万人使用 ChatGPT 时消耗的能源。研究人员强调,实际使用一个已训练好的模型可以占人工智能机器学习模型总能源消耗的 90%。而最新的 ChatGPT 版本 GPT-4,因为它是一个更大的模型,很可能需要更多的计算能力。
对于数十亿用户使用大型人工智能模型产生的确切排放量,目前没有明确的数据。但谷歌的研究人员发现,机器学习人工智能模型的总能源消耗约占该公司总能源消耗的 15%。彭博社报道,这相当于每年 2.3 太瓦时——大致相当于亚特兰大那样大小的城市一年用电量。
微软、谷歌和 OpenAI 等人工智能产品公司缺乏透明度,这意味着人工智能技术涉及的总能源和排放量是未知的。例如,OpenAI 尚未披露今年 ChatGPT-4 模型输入了哪些数据、使用了多少计算能力,或者聊天机器人是如何改进的。
研究人工智能模型碳足迹的研究员 Sasha Luccioni 告诉《彭博社》,“我们谈论 ChatGPT,但我们对它一无所知。” “它可能是一只穿着风衣的三只浣熊。”
人工智能助长网络气候错误信息
人工智能还可以从根本上改变我们消费——以及信任——在线信息的方式。英国非营利组织数字仇恨对抗中心测试了谷歌的 Bard 聊天机器人,并发现它能够生成有关 COVID-19、种族主义和气候变化等话题的有害和虚假叙事。例如,Bard 告诉一位用户,“我们无能为力阻止气候变化,所以担心它毫无意义。”
根据 Rolnick 的说法,聊天机器人散布错误信息的能力是其设计中固有的。“大型语言模型的设计目的是生成看起来好而不是实际真实的内容,”他说。“目标是模仿人类语言的风格,而不是基于事实——这种倾向‘非常适合用于制造错误信息’。”
谷歌、OpenAI 和其他大型科技公司通常会尝试在这些模型上线部署后处理内容问题。但 Rolnick 说,这些努力往往是“表面功夫”。“更深入地测试它们的内容,你会发现这些偏见深深地编码在公司部署的算法中,以更隐蔽和微妙的方式存在,这些算法尚未被修补,”他说。
来自英国莱弗休默未来智能中心的 Giulio Corsi,一位研究气候错误信息的研究员,表示一个更大的担忧是人工智能生成的图像。与通过聊天机器人单独生成的文本不同,图像可以“传播得非常快,并破坏我们对所见事物的信任感,”他说。“如果人们开始持续怀疑他们所看到的东西,我认为那是一种相当令人担忧的行为。”
气候错误信息在人工智能工具出现之前就已存在。但现在,德克萨斯公共政策基金会等组织拥有新的武器库来攻击可再生能源和气候政策——而那条奇怪的鲸鱼图像表明他们已经在使用它了。
人工智能的气候影响取决于谁在使用它,以及如何使用
研究人员强调,人工智能的现实世界影响并非预先注定——它们取决于开发和使用它的人的意图和行为。正如 Corsi 所说,在气候变化方面,人工智能可以“既作为积极的也作为消极的力量”使用。
例如,气候科学家已经在使用人工智能来推进他们的研究。通过梳理大量数据,人工智能可以帮助创建气候模型,分析卫星图像以识别森林砍伐区域,并更准确地预测天气。人工智能系统还可以帮助提高太阳能电池板的性能,监测能源生产的排放,并优化供暖和制冷系统,等等。
与此同时,石油和天然气行业也广泛使用人工智能来提高化石燃料产量。尽管宣扬净零排放的气候目标,微软、谷歌和亚马逊都因其与埃克森美孚、斯伦贝谢、壳牌和雪佛龙等石油和天然气公司的利润丰厚的云计算和人工智能软件合同而受到抨击。
一份由绿色和平组织于 2020 年发布的报告发现,这些合同存在于石油和天然气运营的各个阶段。化石燃料公司利用人工智能技术摄取海量数据,以定位石油和天然气储量,并提高从钻探到运输、储存和炼油的整个供应链的效率。根据咨询公司埃森哲的说法,人工智能分析和建模可能在 2016 年至 2025 年间为石油和天然气行业带来高达 4250 亿美元的额外收入。
Rolnick 表示,人工智能在石油和天然气行业的应用“非常明确地通过挤压低碳能源来增加全球温室气体排放”。
谷歌发言人 Ted Ladd 告诉 Grist,尽管该公司目前仍与石油和天然气公司有活跃的云计算合同,但谷歌目前不构建定制的人工智能算法来促进石油和天然气开采。亚马逊发言人 Scott LaBelle 强调,亚马逊与石油和天然气公司的人工智能软件合同侧重于使“他们传统的业务减少碳排放”。而微软代表 Emma Detwiler 告诉 Grist,微软为已承诺实现净零排放目标的石油和天然气公司提供先进的软件技术。
目前没有主要的政策来监管人工智能
Corsi 表示,就人工智能的使用方式而言,这“就像狂野的西部”。他补充说,考虑到人工智能的部署规模,监管的缺乏尤其令人担忧。Facebook 拥有近 30 亿用户,它使用人工智能来推荐帖子和产品。“在没有任何监督的情况下,你不可能在如此大的规模上做任何事情,”Corsi 说——除了人工智能。
作为回应,公众公民 (Public Citizen) 和人工智能研究机构 (AI Now Institute) 等倡导团体呼吁对这些人工智能产品负责的科技公司对其造成的危害负责。人工智能研究机构在 2023 年的《格局报告》(Landscape report) 中呼吁政府“将责任转移给公司,要求它们积极证明自己没有造成伤害”,而不是依赖公众和政策制定者在事后调查并找到解决方案。倡导者和人工智能研究人员还呼吁对人工智能模型的设计、数据使用、能源消耗和排放足迹提出更高的透明度和报告要求。
与此同时,政策制定者正在逐步跟进人工智能治理。6 月中旬,欧洲议会批准了该技术首个监管法案的草案规则。即将出台的《人工智能法案》(AI Act) 可能需要两年时间才能实施,它将根据人工智能技术对社会的感知风险程度进行监管。草案禁止在公共场所使用面部识别技术,禁止 ChatGPT 等生成式语言模型使用任何受版权保护的材料,并要求人工智能模型将其内容标记为人工智能生成。
倡导者希望即将出台的法律仅仅是追究公司对人工智能危害责任的第一步。“这些东西现在正在制造问题,”公众公民的研究主管 Rick Claypool 说。“它们之所以现在制造问题,是因为人类以某种方式使用它们来推进人类的议程。”
本文最初刊登在 Grist,网址为 https://grist.org/technology/the-overlooked-climate-consequences-of-ai/。Grist 是一个非营利性的独立媒体组织,致力于讲述气候解决方案和公正未来的故事。请访问 Grist.org 了解更多信息。