

人工智能程序的 令人印象深刻(尽管 经常存在问题)的能力是有代价的——所有那些 计算能力 都需要能源。随着世界竞相采纳 可持续能源 实践,人工智能 集成 到日常生活中可能使问题变得复杂。新的专家分析现在提供了对 人工智能行业 在不久的将来可能变得多么耗能的估计,而且这些数字可能令人担忧。
根据10月10日发表在《Joule》上的评论,弗吉大学阿姆斯特丹商学院和经济学博士候选人Alex de Vries认为,到2027年,全球人工智能相关的电力消耗可能每年超过134太瓦时(TWh)。这大致相当于阿根廷、荷兰和瑞典等国家的年消耗量。
[相关: NASA希望利用人工智能研究不明空中现象。]
尽管 de Vries指出,2010-2018年间数据中心的电力使用量(不包括耗能巨大的 加密货币挖矿)仅增加了约6%,“人们越来越担心,开发和维护人工智能模型和应用所需的计算资源可能会导致数据中心对全球电力消耗的贡献激增。”鉴于过去一年无数行业 拥抱人工智能,不难想象这种假设的激增成为现实。例如,如果谷歌——已经是人工智能的主要采用者——将其技术与 ChatGPT 类似的技术集成到其每天90亿次的谷歌搜索中,该公司每年可能会消耗29.2太瓦时(TWh)的电力,相当于爱尔兰的总电力消耗。
de Vries,也是数字趋势监督研究公司 Digiconomist 的创始人,认为这种极端情况有些不太可能,主要原因是人工智能服务器的成本以及供应链瓶颈。但随着技术越来越普及,人工智能行业的能源需求无疑将继续增长,仅凭这一点就必须仔细审查在哪里以及何时使用此类产品。
例如,今年 英伟达 预计将向客户交付10万台人工智能服务器。满负荷运行时,这些服务器的总功率需求将介于650至1020兆瓦(MW)之间,每年消耗5.7-8.9太瓦时(TWh)的电力。与数据中心的年消耗率相比,这“几乎是微不足道的”。
然而,到2027年,英伟达每年可能(并且目前正在)将交付150万台人工智能服务器。使用类似的电力消耗率估算,其总需求将达到每年85-134太瓦时(TWh)。“在这个阶段,这些服务器可能对全球数据中心电力消耗做出重大贡献,” de Vries写道。
正如de Vries自己的网站所争论的,人工智能并非“万能的灵丹妙药”,仍然必须处理 隐私问题、 歧视性偏见 以及 幻觉。“环境可持续性现在是这个担忧清单上的又一项内容。”