图片源于:https://www.theguardian.com/business/article/2024/jun/29/ai-drive-brings-microsofts-green-moonshot-down-to-earth-in-west-london
如果您想要证据来证实微软朝着其环境“登月”目标的进展,那么请看看位于伦敦西部工业园区的一个建筑工地。
公司的帕克皇家数据中心是其扩展人工智能(AI)的承诺的一部分,但这一雄心与其在2030年达到负碳排放的目标相冲突。
微软表示该中心将完全依赖可再生能源运行。然而,数据中心的建设和其中填充的服务器意味着公司的范围3排放量(例如与建筑物材料相关的二氧化碳和人们在使用产品时消耗的电力,如Xbox)比2020年水平高出30%以上。因此,该公司的总体排放目标超过约相同比例。
本周,微软的联合创始人比尔·盖茨声称人工智能将有助于应对气候变化,因为大型科技公司“非常愿意”支付额外费用使用清洁的电力来源,以便“说他们正在使用绿色能源”。
短期内,人工智能对微软的绿色目标构成了问题。微软坚定的总裁布拉德·史密斯曾将其碳减排雄心描述为“登月”。今年5月,他在摧毁这个比喻的同时承认,由于其人工智能战略,“月球已经移动了”。该公司计划在未来三年内在英国扩大价值25亿英镑的AI数据中心基础设施,并且今年宣布了包括美国、日本、西班牙和德国在内的新数据中心项目。
支撑产品如OpenAI的ChatGPT和谷歌的Gemini的AI模型的培训和运营需要大量用于供电和冷却相关硬件的电力,与制造和运输相关设备带来的额外碳排放。
Digiconomist网站的创始人亚历克斯·德弗里斯表示:“这是一种正在推高能耗的技术”。
国际能源署估计,数据中心的总耗电量从2022年水平将翻倍至2026年的1000太瓦时(TWh),相当于日本的能源需求。根据研究机构SemiAnalysis的计算,到2030年,AI将导致数据中心占全球能源生成量的4.5%。
这意味着在人们担忧人工智能对就业和人类寿命的影响的同时,环境也成为了一个问题。国际货币基金组织上周表示,政府应考虑征收碳税,以捕捉人工智能的环境成本,如一种捕捉服务器排放的一般碳税,或其他诸如对该设备产生的二氧化碳具体税收。
所有参与人工智能的大科技公司 – Meta、谷歌、亚马逊、微软 – 都在寻找可再生能源资源以实现其气候目标。今年1月,亚马逊,全球最大的企业购买者可再生能源,宣布已购买苏格兰近海风力发电厂产出的一半以上,而微软在今年5月表示正在支持价值100亿美元(79亿英镑)的可再生能源项目。谷歌计划到2030年完全以无碳能源运行其数据中心。
微软发言人表示:“我们坚定地致力于实现我们的气候目标”。
微软联合创始人比尔·盖茨于2020年离职,但通过盖茨基金会信托持有该公司股份,他主张人工智能可以直接帮助对抗气候变化。他在周四表示,新增的电力需求将与新的绿色发电投资相匹配,这将完全弥补使用量。
最近一份得到英国政府支持的报告也表示,“能源来源的碳强度是计算与AI相关排放的关键变量”,尽管其补充说“全球范围内人工智能培训仍然依赖于高碳来源,例如煤炭或天然气”。用于冷却服务器的水也是一个问题,一项研究估计,到2027年,人工智能可能占用高达66亿立方米的水 – 几乎为英格兰年度用水量的三分之二。
德弗里斯认为,对可持续计算能源的追逐使可再生能源的需求加剧,这将导致化石燃料在全球经济的其他领域加大补贴。
NexGen Cloud是一家提供可持续云计算的英国公司,云计算是依赖数据中心的产业,通过互联网提供数据存储和计算能力等IT服务,该公司表示,如果避开城市并紧邻水力或地热能源,为AI相关计算提供可再生能源是可行的。
NexGen Cloud的联合创始人尤里安·曾涅夫表示:“行业常态是围绕经济中心而不是可再生能源来源进行建设。”
这使得任何AI聚焦的科技公司更加难以实现碳目标。全球最大的云计算提供商亚马逊的目标是到2040年实现净零排放 -排放的碳与吸收的碳相等-并在2025年用100%可再生能源匹配其全球电力使用量。谷歌和Meta计划在2030年前达到相同的净零目标。ChatGPT的开发者OpenAI使用微软数据中心来培训和运营其产品。
大型语言模型 – 作为ChatGPT或Gemini背后的技术 – 使用能源的两种关键方式。第一种是培训阶段,模型被喂入从互联网及其他地方汇编的大量数据,并建立了对语言的统计理解,最终能够输出令人信服的答复给查询。
培训AI的前期能耗是 astronomically。这一点使得较小的公司(甚至较小的政府)无法在该领域竞争,如果他们没有额外的1亿美元用于一次培训运行。但实际运行产生的成本巨大,这称为“推理”。投资公司Jefferies的分析师布伦特·希尔表示,AI能耗的90%位于推理阶段:当人们要求AI系统回答事实性查询、总结一段文本或撰写学术论文时所消耗的电力。
用于培训和推理的电力通过一个巨大且不断增长的数字基础设施传递。数据中心充满了服务器,这些服务器从底层构建为它们所处的AI工作负荷的特定部分。单个训练服务器可能只有一个中央处理单元(CPU),其性能几乎与您自己的计算机上的相同,配备有数十个专用图形处理单元(GPU)或张量处理单元(TPU) – 专为迅速处理AI模型制作所需的大量简单计算而设计的微芯片。
如果您使用聊天机器人,当您看着它逐字逐句地输出答案时,一台强大的GPU正在使用约把一个水壶加热所需电力的四分之一。所有这些都由一个数据中心托管,无论是由AI提供商自己拥有还是第三方拥有的 – 在这种情况下可能被称为“云”,这是另一个人的计算机的花哨名称。
SemiAnalysis估计,如果生成式人工智能被集成到每一个谷歌搜索中,这可能会导致每年消耗29.2 TWh的电力,相当于爱尔兰一年的消耗量,尽管这对科技公司的财务成本是禁止的。这引发了谷歌可能开始收费一些AI工具的猜测。
但一些人认为,以AI的能耗为视角是错误的。相反,应考虑新工具可以节省的能源。今年早些时候,《自然》的同行评议的科学报告杂志上发表的一篇挑衅性论文指出,AI写作和插图的碳排放比人类作者低。
加利福尼亚大学欧文分校的研究人员估计,AI系统生成一页文本的二氧化碳排放约为人类作者的130至1500倍,图像达2900倍。
当然,未提到的是这些人类作者和插画师正在做什么。将他们的劳动力重定向并重新培训到另一个领域 – 如绿色工作 – 可能是另一个登月之举。