AI是“吃電狂魔”?將面臨“缺電”?中國這個解法值得關注

首頁 > 科技

AI是“吃電狂魔”?將面臨“缺電”?中國這個解法值得關注

來源:社會大爆點 釋出時間:2024-04-17 09:15

“下一個短缺的將是電力。”

不久前,圍繞人工智慧(AI)發展,特斯拉執行長馬斯克發出這樣的預警。

他表示,人工智慧計算的約束條件是可預測的,“我在一年多前就預測過晶片短缺,下一個短缺的將是電力。我認為明年將沒有足夠的電力來執行所有的晶片。”

此外,OpenAI執行長山姆·奧特曼也表示,人工智慧將消耗比人們預期更多的電力,未來的發展需要能源突破。

在人工智慧飛速發展的背後,能源消耗問題也日益凸顯,成為業內關注的焦點。甚至有人提出,“AI的盡頭是算力,而算力的盡頭是電力”。

那麼,人工智慧到底有多耗電?人工智慧發展“缺電”了嗎?面對能耗問題,我國又拿出了怎樣的應對方案?

01

AI有多耗電?

當下人工智慧大模型的競爭,頗像一場“算力軍備競賽”。在規模效應(Scaling Law)的驅動下,各公司透過不斷增加模型引數和資料量,期待實現“大力出奇跡”,相應地,算力需求也成倍增加。

所謂算力,簡單來理解,就是對資料或資訊的處理能力。

算力是抽象的,它的載體卻實在可見,就是以資料中心、智算中心為代表的算力基礎設施。算力的背後,是電力在支撐。

你可以在腦海中想象這樣一幅畫面——在資料中心或智算中心,成千上萬臺伺服器和晶片整齊列陣、日夜不停地運轉。

△資料圖

當下訓練AI大模型使用的主流算力晶片英偉達H100晶片,一張最大功耗為700瓦,這意味著執行一小時就要耗電0.7度。而此前有訊息稱,OpenAI訓練GPT-5,需要數萬張H100晶片。

透過晝夜不息的資料中心,大家會對AI耗電有一個感性認識,而資料則更加直觀。

以GPT-3的訓練為例,GPT-3有1750億個引數,據估計,訓練過程使用了大約1287兆瓦時(也就是128.7萬度)的電力。

該如何理解這個耗電量?這相當於美國約121個家庭一整年的用電量。也曾有專家打了這麼一個比方,大概相當於3000輛特斯拉電動汽車共同開跑,每輛車跑20萬英里。

GPT-3是在2020年釋出的,很多人也許會問,更新的模型能耗如何呢?因為近年來不少AI科技公司不再公佈訓練細節,比如用了什麼硬體、耗時多久,這使得能耗計算變得困難。

但GPT-3的能耗可以作為一個參考,GPT-3模型引數為1750億,而GPT-4曾被曝包含1.8萬億引數,隨著引數的翻倍,能耗也會大幅增加。

而以上的能耗還只限於訓練階段,完成訓練後,AI將迎來新的耗電階段——推理,即人們使用AI輸出結果的過程。

AI的訓練是一次性事件,而使用卻是長期過程,隨著應用的普及、使用人數的增加,耗電量將不斷疊加。

國際能源署(IEA)在今年1月的一份報告中曾表示,ChatGPT響應一個請求平均耗電2.9瓦時——相當於將一個60瓦的燈泡點亮略少於三分鐘。

另外,據美媒報道,ChatGPT每天響應約2億個需求,消耗超過50萬度電力,相當於1.7萬個美國家庭平均一天的用電量。

讓我們做一道簡單的數學題,GPT-3訓練耗電約128萬度,ChatGPT每天為響應需求耗電50萬度,GPT-3在訓練階段消耗的電量,甚至無法支撐ChatGPT執行3天。

天長日久,耗電量可謂相當可觀。

02

AI“缺電”了嗎?

各種資料似乎都在說明,AI是一隻“耗電巨獸”,那麼下一個問題就是,它的胃口還能被滿足嗎?AI發展“缺電”了嗎?

來讓資料說話。

根據公開資料,2023年,美國全口徑淨髮電量為41781.71億千瓦時(1千瓦時=1度),以ChatGPT每天耗電50萬度計算,按一年365天,耗電量約為18250萬度,這也只佔全美髮電量的約0.0044%。

△資料圖

AI當然不只ChatGPT,但它的耗能資料可以作為一個切口。可以看出,儘管隨著AI算力的迅猛增長,電力需求也持續增長,但目前其在整體電力消耗中所佔比例較小。

既然如此,科技大佬們頻頻呼籲關注AI能耗問題,是在“販賣焦慮”嗎?其實不然。

波士頓諮詢集團曾釋出報告稱,到2030年底,僅美國資料中心的用電量預計就將是2022年的三倍,而這一增幅主要來自AI模型訓練和更高頻的AI查詢。

“AI發展‘缺電’並不是現在已經出現的問題,而是未來可能面臨的問題。”

中國現代國際關係研究院國際安全所所長劉衝作出這樣的判斷。

他表示,目前AI發展的路線是不斷增加模型引數、疊加晶片,如果繼續按照這個路線發展,將來消耗的電力將更多,從這個角度來講,未來AI的能耗問題可能會越來越突出,尤其是對於電力供應本身比較緊張的國家。但就目前而言,能源還沒有成為限制AI發展的因素。

工信部資訊通訊經濟專家委員會委員劉興亮也表示,科技大佬預言AI“缺電”,可能是想讓大家重視起這個問題,這隻說明,AI確實耗電,電力成本也確實很高,但是目前能源問題還沒有到影響AI發展的程度。

劉興亮同意未來可能面臨的隱憂,如果繼續無節制地擴大引數規模,並且伴隨著使用者越來越多,而能耗技術沒有進步,耗電將很快成為一個問題。但與此同時,他也作出了比較樂觀的展望,認為可以透過技術進一步降低能耗。

可以說,AI缺電是一個未來可能面臨的問題,而在這個問題真正到來前,一系列解決思路就已經在路上。

在需求方面,AI模型的最佳化,晶片效率和演算法效率的提升,資料中心軟硬體技術的進步,都有望減少AI的能耗。

回望過去或許可以幫助我們思考未來。

一項發表於《科學》期刊的研究指出,在2010年至2018年間,全球資料中心的運算量增長了550%,儲存空間增長了2400%,但耗電量僅增長6%。

而在供應方面,電力問題涉及能源、基建、政策、技術等多個方面,難以透過簡單的“有”或“沒有”“充足”或“不充足”來一言以蔽之。更多樣化的能源組合、電力技術革新、國家調控等都將有助於應對這個問題。

比如,國際能源署(IEA)對清潔能源能起到的作用就相當樂觀,其在一份報告中指出,預計到2026年底,包括可再生能源和核能在內的低碳能源將佔全球發電量的46%,並可滿足所有額外需求增長,其中就包括用電需求將翻番的人工智慧。

總而言之,儘管短期內還不會出現AI缺電的問題,但相關的討論確實給大力發展AI的世界提了個醒——隨著AI大模型規模和數量的高速增長,未來可能面臨的能源需求激增不容忽視。

03

AI耗電的中國解法之一

目前,我國算力總規模已經位居全球第二。

據我國權威機構測算,目前,全國資料中心總耗電量佔全社會的2%,電力成本佔資料中心總運營成本的50%。

中國資訊通訊研究院資料顯示,預計到2030年,資料中心能耗總量將達3800億千瓦時左右。

AI耗電,也是我國需要應對的問題。

我國在電力方面具有優勢,已建成全球規模最大的電力供應系統和清潔發電體系,其中,水電、風電、光伏、生物質發電和在建核電規模多年位居世界第一。

值得一提的是,在提升具體的AI和電力相關技術外,我國在宏觀層面的一個“解題思路”,也值得關注。

讓我們從最近舉行的一場青海推介會說起,推介會的主題是綠色算力產業發展。

我們知道,青海有著豐富的綠色電力資源,包括光電、風電、水電等。

截至2023年底,青海省清潔能源裝機超過5100萬千瓦,佔比92.8%,發電量佔比超84.5%。

△青海省海南州千萬千瓦級生態光伏發電園區

但豐富的綠電面臨“用不完又送不出”的問題——綠電的不穩定性導致很多無法送出,只能在本地消耗,但本地又用不完。

AI算力需要消耗大量電力,青海的綠電又用不完,如果把資料中心搬到青海,將“綠電”變為“綠算”,將綠色“瓦特”變為綠色“位元”,豈不是雙向奔赴?

在中國電信(國家)數字青海綠色大資料中心,透過風光水等清潔能源的互補,已經實現了資料中心的100%清潔能源供應。

而且,資料中心建到青海,不僅能解決電力問題,還能大大降低散熱能耗。青海氣候乾燥、冷涼,資料中心可實現全年314天自然冷卻,製冷用電比全國平均水平低40%左右。

這樣得天獨厚的條件,青海當然要自信推介。

在這方面,還有一位先行者,就是同樣具有電力和氣候優勢的貴州

作為全球超大型資料中心集聚最多的地區之一,貴州正在人工智慧的賽道上邁開步伐奔跑。

上一篇:門店稱華為 P... 下一篇:零程式碼平臺(...
猜你喜歡
熱門閱讀
同類推薦