近年来,研究人员和气候倡导者一直在就人工智能对环境的影响发出警告。先进且日益流行的大型语言模型(LLM)——例如OpenAI和Google提供的模型——都位于消耗大量电力和水来冷却服务器的大型数据中心。每次有人在这些平台之一中输入一个问题或短语时,用于生成响应的能量都会产生可测量的有害二氧化碳排放量。但是,根据发表在《Frontiers in Communication》上的一项新研究,并非所有这些提示都会产生相同的环境影响。一点也不接近。
该研究考察了 14 种不同的 LLM,每种模型在训练数据量上都有所不同,并使用一套标准化的、跨不同主题领域的 500 个问题来评估它们的性能。每个模型每个查询会生成一定数量的“思考标记”,而这些标记与二氧化碳排放量相关。当研究人员比较响应时,他们发现更复杂的“推理模型”——它们拥有更大的训练集,并且处理和响应需要更长时间——产生的二氧化碳量明显高于更小、更高效的“简洁模型”。在某些情况下,推理模型产生的排放量是其简洁模型的 50 倍。
除了模型本身,提示产生的二氧化碳量还因主题而异。更复杂或开放式的问题,例如涉及高等代数或哲学的问题,比高中历史问题等更简单的提示往往会产生更大的碳排放量。这些发现进一步揭示了人工智能模型助长能源消耗飙升的那些常常被忽视的方式。
相关:[人工智能将需要比我们想象的更多的能源]
“训练过的 LLM 的环境影响在很大程度上取决于它们的推理方法,明确的推理过程会显著增加能源消耗和碳排放,”慕尼黑应用科技大学的博士生、论文作者 Maximilian Dauner 在一份声明中说。
什么是推理模型?
推理模型——有时被称为“思考模型”——指的是那些针对需要逻辑、分步分解或详细指令的更复杂任务进行了优化的 LLM。这些模型通常有不同的名称。例如,在 OpenAI 中,GPT-4o 和 GPT-4o-mini 被认为是“通用”模型,而 o1 和 o3-mini 等版本被归类为推理模型。
推理模型采用一些 LLM 研究人员称之为“思维链”处理,这使得它们能够比优先考虑速度和清晰度的通用模型更审慎地响应。最终目标是让推理模型生成更像人类的响应。对于使用过这些模型的人来说,最明显的副产品是,推理模型需要更长的时间来生成答案。

研究人员发现,与更简洁的模型相比,推理模型产生的标记数量显著增加,而标记数量与二氧化碳排放量相关。(标记是指被转换为 LLM 可以理解的数值表示的单词或单词的组成部分。)
测试分为两个阶段。在第一阶段,研究人员向模型提出了相同的选择题。在下一阶段,自由回答短语,模型提供了书面回答。平均而言,推理模型每道题生成 543.5 个标记,而简洁模型仅生成 37.7 个标记。他们检查的最准确的推理模型“Cogito”产生的二氧化碳量是经过优化用于简洁响应的类似大小模型的 3 倍。
研究人员在论文中写道:“从环境角度来看,推理模型始终表现出更高的排放量,这主要是由其增加的标记产生量驱动的。”
虽然每次单独提示的排放量差异可能看起来微不足道,但当规模化后,它会产生真正的差异。研究人员估计,让DeepSeek的 R1 模型回答 60 万个问题所产生的二氧化碳量,大约相当于伦敦到纽约的往返航班。相比之下,你可以在达到相同排放量水平之前,让非推理的 Qwen 2.5 模型回答三倍多的问题。
总的来说,研究人员表示,他们的发现突显了 LLM 准确性与环境可持续性之间的根本权衡。
研究人员说:“随着模型尺寸的增加,准确性往往会提高。”“然而,这种提高也与二氧化碳排放量和生成的标记数量的显著增长有关。”
耗能的人工智能模型正在助推新发电厂的繁荣
这些发现 Comes Amidst a fierce global race among tech companies to develop increasingly advanced AI models. 过去一年 alone, Apple has announced plans to invest $500 billion in manufacturing and data centers over the next four years. 同样,Project Stargate—a joint initiative by OpenAI, SoftBank, and Oracle—has also pledged to spend $500 billion on AI-focused data centers. 研究人员警告说,这种基础设施的激增可能会给本已不堪重负的能源网带来额外压力。
特别是人工智能应用,在较新数据中心的能源消耗中起着不成比例的作用。《MIT Technology Review》最近的一份报告指出,从 2017 年左右开始,数据中心开始采用更多为复杂人工智能计算设计的、能耗更高的硬件。此后,能源使用量激增。电力研究所以估计,到本世纪末,支持先进人工智能模型的数据中心可能占美国总能源需求的 9.1%——而目前约为 4.4%。
公司正争相寻找新方法来满足这种不断增长的能源需求。Meta、Google和Microsoft都已与核电站合作以产生更多电力。微软,作为 OpenAI 的主要合作伙伴之一,甚至签署了一项为期 20 年的协议,从宾夕法尼亚州的三哩岛核电站采购能源,该电站曾因美国历史上最严重的反应堆事故而闻名。

Meta还在地热技术方面进行了大量投资,以作为一种对化石燃料依赖较少的发电方式。其他人,例如 OpenAI 首席执行官萨姆·奥尔特曼,他曾表示人工智能时代将需要“能源突破”,正在投资于实验性核聚变。这些投资可能有助于公司取得进展,但近期研究表明,几乎肯定需要更多的化石燃料——尤其是天然气——才能完全满足人工智能巨大的能源需求。
相关:[人工智能的未来意味着更多的化石燃料]
这一切听起来可能令人望而生畏,但研究人员对不同类型模型进行比较的人员表示,他们的发现可以帮助赋予普通人工智能用户采取措施来减少自身碳足迹的能力。如果用户了解推理模型比其他模型耗能多少,他们可能会选择更少地使用它们,并在日常一般任务,如网络搜索和回答基本问题时,依赖简洁模型。
Dauner 说:“如果用户知道他们通过人工智能生成的输出的確切二氧化碳成本,例如随意将自己变成一个动作玩偶,他们可能会在何时以及如何使用这些技术方面更加有选择性,并加以深思熟虑。”