AIGC動態歡迎閱讀
內容摘要:
大數據文摘受權轉載自頭部科技
文丨俊俊
沒想到,AI的盡頭,居然是儲能。
因為大模型訓練,不僅費錢,更費電!
隨著AI爆火,大型AI模型需要大量算力資源,大量新建的數據中心需要巨量的電力供應,科技巨頭對電力需求激增,電力需求不斷高漲。
像亞馬遜AWS等公司正與核電廠運營商商談供電協議,以滿足數據中心的電力需求。
這一趨勢引發爭議,大家都在擔心科技公司通過轉移現有電力資源而非增加綠色能源來滿足需求,可能加劇電力可靠性問題和電價上漲。
果然費電
AI需要電,就像人類需要水一樣。雖然知道AI訓練耗電大,但沒想到這么大。
“一些簡單的計算”表明 AI 所需電力將在全球電力消耗中占據相當大的份額。
研究顯示,訓練谷歌于2022年發布的大語言模型PaLM需要消耗3436兆瓦時的電量,約等于11.8萬美國普通家庭日耗電量(美國普通家庭日均耗電量約為29千瓦時);就算訓練參數量為3.4億的BERT模型,也需要消耗1.5兆瓦時的電量,相當于觀看1875小時的流媒體。
據《紐約客》雜志引援國外研究機構報告,ChatGPT每天要響應大約2億個請求,在此過程中消耗超過50萬度電力。
也就是說,ChatGPT每
原文鏈接:AI要發展,這個難題必須解決
聯系作者
文章來源:大數據文摘
作者微信:BigDataDigest
作者簡介:普及數據思維,傳播數據文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...