近日,一則“人工智能已對全球電力系統(tǒng)造成嚴(yán)重破壞”的報道,引發(fā)公眾對AI能耗的擔(dān)憂。
中國科學(xué)院計算技術(shù)研究所工程師劉延嘉表示,AI的耗電主要集中在模型訓(xùn)練和推理兩方面。一般來說,參數(shù)量越大,大模型的算力消耗就越大,其消耗的電能就越多。以GPT-3大模型為例,其訓(xùn)練耗電總量大約為1280兆千瓦時,也就是128萬度電,相當(dāng)于6400個中國普通家庭一個月的用電量。
在推理階段的耗電量同樣不容小覷。推理是大模型響應(yīng)用戶需求的過程,雖然AI推理階段單次能耗比訓(xùn)練階段低,但由于高頻調(diào)用,電力消耗也相當(dāng)驚人。在全球已推出的數(shù)百個AI大模型中,僅ChatGPT每天就要消耗50萬千瓦時電力來響應(yīng)用戶超2億的應(yīng)用需求。隨著全球用戶數(shù)量、使用頻率的增加,耗電量也將不斷累積。
據(jù)國際能源署發(fā)布的《電力2024》報告預(yù)測,到2026年,全球數(shù)據(jù)中心每天的用電量將達(dá)到1.05萬億千瓦時,大約是整個日本全年的用電量。當(dāng)下AI應(yīng)用范圍越來越廣,其對全球電力系統(tǒng)的“壓榨”還將進(jìn)一步凸顯。
(摘自《科普時報》)