科普之窗
当前位置: 首页 > 科普 > 科普之窗
研究 | ChatGPT日耗电超50万度,卡死AI发展的竟然是能源?
发布时间:2024-04-01 来源:鄂州市科学技术协会

最近《纽约客》报道,Chat GPT每日耗电量或超过50万千瓦时,相当于美国家庭平均用电量的1.7万倍。埃隆·马斯克也曾预言,未来两年内电能短缺将成为制约AI发展的主要因素。然而,事实真的是这样吗?

目前关于AI耗电量的观点主要源自估算结果,而非真实的测量数据。美国信息技术与创新基金会(ITIF)发布的报告认为,个别不准确的研究大大高估了AI的能耗,这样的言论可能对AI发展造成不利影响,阻碍AI在促进节能减排、应对环境挑战方面发挥潜力。业界人士呼吁,应当促进行业信息透明,同时减少AI技术的滥用。

AI能耗评估难题

影响因素众多

ITIF是一家非营利智库,总部位于美国华盛顿。在这份题为《重新审视对人工智能能耗的担忧》的报告中,ITIF指出,不同AI模型的能耗和碳排放存在巨大差异,受到诸多因素的影响,包括芯片设计、冷却系统、数据中心设计、软件技术、工作负担、电能来源等。

所以,在估算AI的能耗方面,不同研究的结论出现了较大分歧。2019年马萨诸塞大学阿默斯特分校团队发布的一项预印本研究估算,当时领先的谷歌公司大语言模型BERT在79小时的训练过程中排放了约1438磅二氧化碳(约合652千克),量级相当于一名乘客乘坐飞机往返于纽约和旧金山一次。研究也对AI神经架构搜索(NAS)等技术得出了类似结论。这篇论文在谷歌学术被引用接近3000次,并得到了大量媒体报道。

然而,从事AI研发的企业和机构得出了截然不同的分析结论。2021年,谷歌公司与加州大学伯克利分校发布一项预印本研究认为,前述研究将谷歌的AI碳排放数值高估了88倍。但是这项研究得到的关注远不如前者,被引数仅有500左右。

由于媒体和公众关注负面信息的倾向,结论惊人的研究更容易得到传播。科技行业名人的言行也在放大“AI能耗巨大”的信息,马斯克曾预言“制约AI发展的因素将由‘缺硅’变成‘缺电’”;OpenAI CEO萨姆·阿尔特曼也表示AI将消耗更多电力,并高调投资核聚变。

从全生命周期视角

评估AI能耗

ITIF报告指出,目前许多研究和政策都关注AI训练(training)阶段,但多项研究表明AI在推理(inference)过程中,也即人们使用AI输出结果的过程能耗更高。此外,不同AI模型处理不同类型的推理任务,能耗的差异也很大。例如1000次请求计算,图片分类任务的耗电量是0.007千瓦时,而图片生成任务耗电2.907千瓦时。

报告作者指出,AI的训练是一次性事件,而它的使用是长期过程,讨论AI能耗问题时应该关注的不是爆发式增长,而是长期的影响。并且,从技术史的视角看来,AI及其能耗的增长还将受到以下4个因素的限制:

1.基础设施建设成本将制约AI的快速增长

“ChatGPT每日耗电量或超过50万千瓦时”的结论,出自技术博客Digiconomist作者亚历克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的AI用电量将与整个爱尔兰相当,达到每年29.3TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入1000亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

2.AI性能增长存在边际效应

近年来AI连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化AI模型可能是接下来的研发方向。

3.软件和硬件的性能提升将减少AI能耗

AI模型的优化,以及硬件技术的进步,都有望减少AI的能耗。一项发表于《科学》期刊的研究指出,在2010~2018年间,全球数据中心的运算量增长了550%,存储空间增长了2400%,但耗电量仅增长6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

同样,剪枝(pruning)、量化(quantization)、蒸馏(distillation)等技术有望带来更好的算法,让AI模型更快、更节能。谷歌公司和加州大学伯克利分校研究团队指出,有赖于各项技术进步,近年来在谷歌公司内部AI的能耗占比保持稳定,尽管机器学习增长到运算量的70%~80%。

4.AI的应用最终将在某些方面减少碳排放

整体上,当人们用电子邮件替代传统书信,用观看DVD或流媒体频道替代去电影院看电影,这些活动的数字化都减少了碳排放。AI有望在这方面继续发挥作用,例如通过改进视频通话体验,使更多的会议转向远程进行。此外,AI技术还可用于进行电网调度、分析气候数据,从而成为应对气候变化的助力。

准确评估AI能耗

促进领域健康发展

从历史的角度看,关于AI碳排放的担忧并不新鲜。90年代曾有人预测,未来发电量的一半将用于满足互联网活动;在流媒体出现的时候,同样有人提出类似观点。如今我们知道,这些担忧都并未成为现实。ITIF报告认为,如果没有完全理解AI能耗问题就急于进行管控,可能会阻碍AI的性能提升,限制其发展潜力。例如,使AI消除偏见和仇恨言论、避免输出有害信息,都需要进行更多的推断,从而提升能耗。

报告建议,应对大众关于AI能耗问题的担忧,决策者应当:

①制定相应标准,使AI模型能耗公开透明;

②鼓励业界主动公开AI模型能耗信息,以便公众进行知情选择;

③考虑AI法规对能源使用的意外后果;

④利用AI实现政府运作的低碳化。

一些机构已经在推动AI的信息公开。2023年12月,欧盟通过《人工智能法案》,这是全球首部AI监管法案。法案督促AI开发者致力于使模型高能效、可持续,并要求进行相应的信息公开。

德·弗里斯同样呼吁进行信息公开,同时他希望及时限制AI的发展,就像限制加密货币技术一样。数字经济学家(Digiconomist)博客指出:“AI和先前的区块链等新兴技术的发展,伴随着大量的狂热和错失恐惧(FOMO),这通常会催生对终端用户没什么益处的应用。”

而在《纽约客》报道中,著名科学记者伊丽莎白·科尔伯特(ElizabethKolbert)的原话是:“每当ChatGPT吐出信息(或给某人写高中作文),都需要进行大量运算。据估计,ChatGPT每天要响应约2亿次请求,同时消耗超过50万千瓦时电力。”也就是说,要应对AI能耗危机,或许可以从限制使用AI写作业开始。

科普鄂州
科普湖北
科普中国
返回顶部