ChatGPT一年电费2亿,AI咋这么费电?

ChatGPT一年电费2亿,AI咋这么费电?

 

ChatGPT居然这么费电?
最新的等式出现了:
ChatGPT日耗电量≈1.7万家庭日耗电量。
什么概念?一年光电费就要花2亿!
美国普通家庭平均单日用电29千瓦时,而ChatGPT的单日用电量超过了50万千瓦时。
(美国商业用电刚刚大约0.147美元顿1.06元,相当于一天53万元)
消息一出就直接冲上热搜第一了。

除了OpenAI 谷歌也“不容小觑”:
在谷歌搜索中应用生成式AI技术,谷歌每年的消耗量将高达290亿千瓦时,相当于每天约7900万度。
而在未来,AI这种“吃电巨兽”的食量将会更加惊人。
数据统计:

到2027年,人工智能数据中心将与荷兰、瑞典等小国使用芬兰相当。

有网友赞赏表示:

这是利好光伏和风电吗?

所以AI最后拼的是谁发电多、谁发电成本低?ChatGPT一年电费2亿,AI咋这么费电?

01 人工智能要耗多少电?

如上数据来自一篇论文《人工智能不断增长的能源足迹》。
作者是荷兰数字经济学家Alex de Vries,他通过英伟达、OpenAI、谷歌等公开数据进行了说明。
结果就得出了很多后果的结论。
首先,现在大模型训练期间的消耗推理和推理阶段相比,已经不值一提了。SemiAnalysis
数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。
ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。
而GPT-3整个训练阶段的耗电量指示灯为1287兆瓦时,是ChatGPT大约4天的消耗量。
谷歌报告也表示,2019- 2021年,与人工智能相关的能源消耗包含60%来自推理相应部分。
论文提出未来研究AI用电量时,更应该从全周期角度考量。
但也与模型再训练频率、模型性能与消耗关系之间的平衡有。比如BLOOM在推理阶段的消耗电量就显着降低。

其次,搜索引擎如果用上AI,消耗量还会更高。
谷歌方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。
数据显示,使用一次谷歌搜索消耗的电量为0.3瓦时。这和上面分析给出的数据相呼应。
如果假定大模型能力接入到谷歌搜索中,预计需要512821个HGX A100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。
目前谷歌每天需要处理多达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。

这一现象在英伟达的第二财报数据中也可以看到。
去年季度,英伟达收入创出同样的纪录,其中数据中心部门较上季度增长了141%,这表示AI方面的需求增加。
今年,英伟达AI服务器出货量增加量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这个数量级的服务器,每年的用电量将达到85.4-134太瓦时。
不过AI用电量会一路闪电吗?
研究也认为不一定。
哪像谷歌这样在全球拥有大量用户的搜索量,同时也慎重考虑AI与引擎的融合。硬件、软件和电力成本压力下,厂商的脚步或许没那么快。硬件
生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能要等到2027年才能开始批量生产,或者可能会影响英伟达的出货量。
以及这个模型本身的算法和架构也让AI人工智能在一定程度上降低。
最终研究认为,关于AI用电流的问题,过于悲观或乐观都不可取。
短期内,在各种资源因素影响下,AI用天线翻转会被抑制;但硬件和软件的能效提高,显然也无法适应长期的需求电力增长。
总之,认为作者在AI开发方面,还是不要铺张的好。监管机构也需要考虑要求厂商披露数据,提高整个AI供应链的透明度,从而这一新兴技术的环境成本
。的话题已经多次引发讨论。
有研究指出,到2027年,人工智能的数据中心将与荷兰或瑞典等小国的用电量相当。
加州大学河滨分校研究表明,询问ChatGPT5-50问题,就可以消耗500毫升水。
由于AI超算数据中心需要大量水来一周,微软也承认用水量是训练模型的一大成本,从2021年到2022年,其全球用水量骤增了34%,相比之下AIGC之前的研究显然增加。

02网友:也很简单

除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。

尽管这个数据看起来很惊人,但网友们都表示:

我们还是需要比较一下投入资金。

知乎网友@段小草就浅算一下:

一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,根本只需万分的家庭用电,就能支撑一个服务全球TOP 1的AI产品、服务几亿用户,这还在浪费能源环境吗?

言外之意,如下所述(来自知乎网友@桔了个仔)

ChatGPT 创造的价值实际上远远超过了它的作用。

和某些技术(咳咳,都懂)的消耗电量相比,它可能更不值一提了。

 

所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:

震惊,注意力要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)

 

咳咳,是的,上面的答主@段小草还提到了一篇论文,题为《The Carbon Emissions ofwriting and illustration Are Lower for Al than for Humans》,讲的是AI在绘画和写作上的碳排放量比人类少310到2900倍,比人类少130到1500倍。

 

这样看来,AI甚至算得上“节能减排的先锋”(手动狗头)

呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。

 

03奥特曼:我们需要可控核聚变

 

话又说回来,金牌收益,ChatGPT 一日 1.7 万个家庭的内存虽然不值一提,但 AI 内存确实也是一个值得关注的问题。

而这一点,奥特曼早就“担心”了。

在今年1月举行的沃斯会议中,他就表示:

人工智能的未来取决于清洁能源的突破。

图源/Digwatch

 

具体来说,他认为:

随着技术越来越成熟,人工智能将消耗越来越多的电力,如果能源技术无法突破,就无法实现这一目标(即让人工智能技术释放全部潜力)

而现在,公众还不太了解这个需求有多大,奥特曼本人表示也远超他的预期。

关于如何提升能源产量,他也直言:

需要可控的核聚变,或者更便宜的太阳能及存储等等。

——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion

他在上面投资了3.75亿美元,这是他以个人名义投资的最大一笔。

除此之外,奥特曼的“爸爸”微软也押注了这家公司。

据了解,Helion成立于2013年,目前约有150多名员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。

相关新闻

联系我们

联系我们

13276019273

邮件:siyushenqi@gmail.com

工作时间:周一至周五,9:30-18:30,节假日休息

添加微信
添加微信
Telegram
分享本页
返回顶部
私域神器:一站式全网全渠道拓客营销软件
销售热线:173 5412 3667 (←点击添加微信)