WSJ:
它们就在那里。金色的盒子,比红眼航班上的幼儿还吵闹,比热浪中的篝火还要滚烫,比一座私人加勒比海岛还要昂贵。
是的,是货真价实、正在运行的英伟达(Nvidia) GPU。
我被严令“只许看不许摸”,说得好像我会去舔那个金属网罩似的。光是站在那里,我就能听见并感受到电力被吞噬的动静。
我们都听说过AI对能源永不满足的胃口。根据美国能源部和劳伦斯伯克利国家实验室(Lawrence Berkeley National Lab)的一份报告,到2028年,像我这次在弗吉尼亚州阿什本参观的这种数据中心,可能会消耗高达全美12%的电力。
是的,我们就是问题所在,是我们自己。每当我们要求AI写一封电子邮件、画一幅动漫风格的乔治·华盛顿(George Washington)肖像,或者生成一段猫咪后空翻的视频时,我们都在那些巨大的GPU机房里引发又一阵轰鸣。
我想知道的是,我的AI任务究竟消耗多少电能?相当于给一部手机充电?还是给一台笔记本电脑充电?用电烤架烤一块牛排?还是为我的整栋房子供电?
在我深入研究、参观了一个数据中心、“骚扰”了几乎所有主要AI公司、以及(没错)在用上了那个电烤架之后,我得到了一些答案。但这还不够。科技公司需要就它们为x x我们所消耗的能源,向我们透露更多信息。
运作过程
让我们从一个近来很受欢迎的例子说起:“生成一段一只猫从奥运会跳板上跳水的视频”。在你敲下回车键的那一刻,该提示词就会被发送到一个巨大的数据中心。
提示词抵达后,便会启动推理过程,也就是由预训练的AI模型来解读并回应你的请求。在大多数情况下,一排排强大的英伟达GPU会开始工作,将你古怪的想法变为更古怪的现实。来自亚马逊(Amazon)、谷歌(Google)或Groq等公司的竞争对手芯片也开始被用于推理。模型训练本身则发生在更早阶段,使用英伟达的芯片完成。
我看到的那个由英伟达H100 GPU组成的“超级计算集群”(SuperPod)所在的设施,由Equinix负责运营。该公司是全球最大的数据中心运营商之一,提供云基础设施,如今也提供AI服务。
Equinix负责客户成功事宜的高级副总裁克里斯·金(Chris Kimm)表示,虽然AI训练几乎可以在任何地方进行,但推理最好在地理位置上更靠近用户的地方完成,以实现最佳的速度和效率。
能源消耗
如果各大AI公司真的愿意分享相关信息,那么弄清楚你的每一条AI提示词消耗了多少能源就会容易得多。谷歌、微软(Microsoft)和Meta都不予提供。谷歌和Meta让我去查阅它们的可持续发展报告。
OpenAI分享了一些信息。该公司首席执行官山姆·阿尔特曼(Sam Altman)表示,一次ChatGPT的平均查询大约消耗0.34瓦时电能。OpenAI不愿分别提供文本、图像或视频生成任务的能耗细节。
研究人员正在努力填补这一信息空白。开源AI平台Hugging Face的AI与气候负责人萨莎·卢乔尼(Sasha Luccioni)开展了一系列测试,以估算生成不同类型内容所消耗的能源。她还与其他研究人员共同维护着一个AI能耗排行榜。由于主流AI公司使用的都是各自的专有模型,卢乔尼只能依赖开源模型作为替代。
生成内容所需的能耗差异很大,取决于所用模型和GPU配置。可以将卢乔尼的测试结果与为一部普通智能手机充满电所需的能量(约10瓦时)作对比:
文本内容:一个在单个GPU上运行的轻量级Meta Llama模型大约消耗0.17瓦时电能,而一个在多个GPU上运行的更大型Llama模型则耗电1.7瓦时。
图像生成:用一个GPU生成一张1024 x 1024像素的图像同样消耗了1.7瓦时电能。
视频生成:这是能耗最高的任务。即使只是生成一段6秒钟的标清视频,也需耗电20至110瓦时不等。
我想更直观地理解这些数字的含义。于是我从家得宝(Home Depot)买来一个电烤架,一个功率计,并叫上了我的视频制作人David Hall。大约10分钟、耗电220瓦时之后,我们烤好了一块七分熟的薄切牛排。换句话说:烹饪一顿像样晚餐所消耗的电能,与生成两个高耗能AI视频的能耗大致相当。
还记得几周前我用谷歌Veo和Runway制作的那部AI短片吗?我们为那部影片生成了大约1,000个8秒钟、720p分辨率的片段。根据这些估算,我们可能消耗了大约11万瓦时的电能。这几乎相当于烤500块牛排的能耗!
但是,正如我所说,卢乔尼没有商业AI工具的功耗数据,她提供的估算值并不完全匹配:一方面,我们制作的视频质量高于卢乔尼测试中6秒、480p分辨率的标准。另一方面,专家们表示,目前市面上流行的视频模型可能已经优化得更节能。
卢乔尼说:“在获得这些模型的使用权之前,我们所能做的只有估算。”
坐落于庞大的Equinix数据中心内的一排排机笼。每个机笼里都配备了各种硬件,以驱动供我们使用的云端和AI工具。 PHOTO: 图片来源:DAVID HALL/WSJ
她的测试还使用了英伟达上一代的Hopper芯片。据英伟达可持续发展负责人乔什·帕克(Josh Parker)称,公司最新的Blackwell Ultra芯片在能效方面取得了重大突破。帕克说:“同样的推理工作负载,我们现在使用的能源仅为一年前的1/30。”
话虽如此,目前仍有大量用户在使用旧款芯片。我在Equinix的设施里看到的那个集群?光是英伟达的硬件就耗资超过900万美元。显然,你不会因为新产品上市就把旧的扔进垃圾箱。
而且,这里讨论的还只是电力。为保持这些发热的GPU稳定运行,还需大量水源进行冷却,那又是另一个话题了。
影响
与我交谈过的数据中心提供商和科技公司几乎都提到了同一个现象:对装满GPU的数据中心的需求正成倍增长。仅仅开车穿越阿什本,我就看到了五座正在建设中的大型数据中心。
这些公司还强调了模型和芯片效率的提高,以及它们为转向更清洁、更可再生能源所做的努力。
不管效率提升多少,AI的使用者只会越来越多。就好比虽然我们都可以去买更节能的空调,但如果地球持续变暖,开空调的频率仍会增加,能源消耗也会上升。
卢乔尼希望,用户在使用AI工具时至少能对能耗有所意识,或许在生成十几段猫咪视频前三思而后行。与此同时,企业有责任开始分享真实的数据,以便我们能够作出明智选择。
回到弗吉尼亚州,以及那些不断轰鸣的GPU。事实证明,它们并不是在生成什么奥运小猫视频。它们归百时美施贵宝(Bristol Myers Squibb)所有,正在寻找治疗疾病的新方法。
看来,并非所有AI提示词的使用都可以说成是浪费能源。
评论
发表评论