生成式AI,聽起來挺酷,但你知道嗎?它可是地地道道的“吃電巨獸”:現在爆火的ChatGPT,每日耗電量高達50萬度!隨著人工智能的發展,其用電量急速上升問題,正引發全球警惕,以后會發生“電荒”嗎?能耗問題會不會成為AI發展的“絆腳石”?
日耗電50萬度!GPT成“吃電狂魔”
由美國OpenAI公司最新推出的視頻生成工具Sora,自發布以來,便成為人工智能界最火爆的“網紅”。該公司上一個全網刷屏的產品——ChatGPT,在推出僅兩個月后,就達到1億月活躍用戶數。
不過,蓬勃發展的AI背后,是算力;而算力背后則是能耗。人工智能飛速發展的背后,其能源消耗問題日益凸顯,成為全球關注的焦點。
據報道,全球數據中心的耗電量,已從十年前的100億瓦增加到如今的1000億瓦水平。ChatGPT聊天機器人每天耗電超過50萬度,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。據OpenAI公司稱,他們在ChatGPT上,每天花費高達70萬美元。
近日,特斯拉創始人馬斯克公開表示,未來兩年,人工智能行業將由“缺硅”變為“缺電”。據國際能源署稱,全球數據中心目前約占用電量的1%至1.5%。到2025年,在全球數據中心用電量中,人工智能業務的占比,將從2%增至10%。
以谷歌為例,其用于人工智能訓練的能量消耗,占總用電量的10%至15%,每年約23億度電,相當于美國一個州首府所有家庭一年的用電量。即使在訓練完成后,這些人工智能仍需大量計算能力運行,并耗費大量能源。
若谷歌在每次搜索中,都使用AIGC(生成式人工智能技術),其年耗電量將增至約290億度。
最新研究表明,到2027年,生成式人工智能所消耗的能源,可滿足荷蘭這樣一個國家一年的需求,即約85-134太瓦時(TWh)。
一次訓練用電2.4億度,AI為啥那么耗電?
僅僅是GPT-4的GPU,一次訓練就會用去2.4億度電。AI為什么那么耗電?它們用掉的電都跑到哪里去了?
我們現在所說的人工智能(AI),主要是指生成式人工智能。它們需要大規模的數據中心來訓練和推理。
這些數據中心由大量服務器組成,服務器消耗的電能,絕大部分轉化成熱能,最后通過水冷系統釋放出來。可以說,AI的物理硬件,是個巨大的“電熱水器”。
據統計,全球數據中心的能耗,約占全球總電力消耗的1%左右,預計這一比例,還會隨著數據量的增長而增加。
能量無法創造也無法消滅,它只能從一種形式轉化成另一種形式。對計算機來說,最主要的能量轉化方式,就是從電能轉化成熱能。
大語言模型也是如此。它對電能和冷卻水的需求,正造成越來越嚴重的環境問題。波士頓咨詢集團曾發布報告稱,到2030年底,僅美國數據中心的用電量,就將是2022年的三倍。
在OpenAI訓練大語言模型GPT-4時,完成一次訓練需要約三個月時間,使用大約25000塊英偉達A100 GPU。僅僅是這些 GPU(圖形處理器),一次訓練就要用2.4億度電。這些電能幾乎全部轉化成了熱能,可以將大約200萬立方米冰水——大概是1000個奧運會標準游泳池的水量——加熱到沸騰。
全球人工智能的蓬勃發展,可能會導致這一數字大幅上升。與此同時,大量的碳排放和數百萬加侖淡水的消耗也不容小覷。
回答50個問題,得“喝”500毫升水
生成式AI,除了“吃電,還得喝水”——用水量也是個驚人數字。因為要訓練這些AI,就得有強大的算力中心,而算力中心要運轉,就得有散熱系統,這都得用到水。
全球科技巨頭,都在建設新的數據中心,爭的就是誰的算力更強,結果就是對水資源的需求越來越大。
研究顯示,訓練GPT-3所需的水量,能夠填滿一個核反應堆的冷卻塔。ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。