ChatGPT居然這么費電?
最新的等式出現了:
ChatGPT日耗電量≈1.7萬家庭日耗電量。
什么概念?一年光電費就要花2億!
美國普通家庭平均單日用電29千瓦時,而ChatGPT的單日用電量超過了50萬千瓦時。
(美國商業用電一度約為0.147美元也就是1.06元,相當于一天53萬元)
消息一出就直接沖上熱搜第一了。
除了OpenAI,谷歌也“不容小覷”:
在谷歌搜索中應用生成式AI技術,谷歌每年的耗電量將高達290億千瓦時,也就是每天約7900萬度(?)。
而在未來,AI這一“吃電巨獸”的食量還會更驚人。
數據統計:
到2027年,人工智能數據中心的用電量將和荷蘭、瑞典等小國用電量相當。
有網友看完表示:
這是利好光伏和風電?
所以AI最后拼的是誰發電多、誰發電成本低?
AI要耗多少電?
如上數據來自一篇論文《The growing energy footprint of artificial intelligence》。
作者是荷蘭數字經濟學家Alex de Vries,他通過英偉達、OpenAI、谷歌等公開數據進行估算。
結果就得出了很多意想不到的結論。
首先,現在大模型訓練時期的耗電量和推理階段相比,已經不值一提了。
SemiAnalysis數據顯示,OpenAI需要3617臺英偉達HGX A100、共28936個GPU來支持ChatGPT推理。
ChatGPT每天需要響應1.95億次請求,預計每天需要消耗564兆瓦時電力,每個請求大約2.9瓦時。
而GPT-3整個訓練階段的耗電量預估為1287兆瓦時,是ChatGPT大約4天的消耗量。
谷歌報告也表示,2019-2021年,與人工智能相關的能源消耗中有60%來自推理部分。
因此論文提出未來研究AI用電量時,更應該從全周期角度考量。
但這也與模型再訓練頻率、模型性能與功耗之間的平衡有關系。比如BLOOM在推理階段的耗電量就顯著降低。