ChatGPT每天要耗費1.7萬個家庭的用電量, 到底值不值?

首頁 > 科技

ChatGPT每天要耗費1.7萬個家庭的用電量, 到底值不值?

來源:讀職場 釋出時間:2024-03-18 12:07

最近,馬斯克在活動上表示,繼之前的晶片短缺後,AI的發展接下來將會遇上電力不足的挑戰。

大家似乎都知道訓練AI發展AI需要大量算力,極為耗電耗水,但我們似乎又不清楚它具體有多耗電。

即便如此,部分地區已經開始感受到由AI大潮帶來的用電壓力,而各領域的研究人員也在想方設法去對能耗進行測算。

畢竟,如果我們真要如科技巨頭們所描繪般走入與AI緊密共存的未來,那及早計算它背後的“能源賬”也是一種必要。

一、好奇生成一張圖,就能為手機充滿電?

我在用文生圖模型時,常常會不自覺“貪心”。

即便圖片出來質量還可以,我也總會忍不住多點幾下,生成幾次,或者新增一些變數,看模型會給我“造”出什麼。

輕點一下就有全新演繹,這個誘惑太大了。

AI生成圖片

然而,我沒想到的是,我的一次好奇點選下消耗的電量,居然已經能把我手機充滿電。

去年12月,開源AI平臺HuggingFace研究員和卡內基梅隆大學聯手合作,統計了88個不同AI模型在不同任務下的用電情況。

其論文指出,影象生成模型推斷1000次平均用電2.907千瓦時,而平均手機充電耗電量為0.012千瓦時。

不過,論文作者SashaLuccioni強調,這並不意味著所有影象生成模型的耗電量都如此,因為研究測算中既然只生成64x64影象的小模型,也有生成4K高畫質圖的模型。

相比之下,文字類模型的耗電量會低很多——推斷1000次平均耗電量介乎於0.002千瓦時至0.047千瓦時。

值得指出的是,這只是AI模型在訓練完成之後每次使用時的耗電量,訓練模型本身用電量則更可觀。

論文估算,GPT-3這種體量的模型訓練用電量可達1300兆瓦時,約等於130個美國家庭一年的用電量。

為什麼不去算更新模型的用電量?

因為OpenAI變得越來越不open,不再像幾年前一樣會公佈訓練細節,如用了什麼硬體和耗時。

在白熱化競爭下,各個AI公司也不願公佈自己的模型訓練資訊,一切都在變得越來越不透明。

這也是為什麼SashaLuccioni要用更側面的方式來進行估算。

當然,這些資料沒法代表所有人的使用情況,但至少我們有一點資料。

我想把旗子立起來,和大家說“我們就從這裡開始吧。”

同樣不願被資訊壁壘擋住的,還有供職於荷蘭中央銀行的AlexdeVries。

deVries將視野拉得更廣,直接跳過AI模型,透過計算全球被用於AI領域的英偉達GPU數量來估算這個領域的用電量。

據deVries估算,到了2027年,AI行業每年的耗電量將介乎於85~134太瓦時,相當於荷蘭整個國家的用電量。

至於ChatGPT本身,deVries認為它每天處理2億個使用者請求會耗電50萬千瓦時,這相當於一個美國家庭每天用電的量的1.7萬倍

如果Google將AI結合到每一次搜尋中,那它一年的用電量就會飆升至210億千瓦時,高於肯亞、克羅埃西亞等國家的用電量。

而和從前計算機發展不同的是,目前勢態下AI的用電量基本很難降低。

他指出,在2010—2018年期間,全球資料中心的用電量其實相對穩定,大概佔全球總用電量1%-2%。

雖然我們的生活和網際網路更緊密了,用“網”頻率也更高了,但硬體的效率也在提升,能抵消一下。

情況在“AI模型大戰”下改變了,巨頭們只想把模型越做越大,資料越多越好:

真像是一個效率的死亡動力學。

它自然地創造了一種驅動力,讓人們不停地增加算力資源,一旦模型或硬體變得更高效了,人們又要讓這些模型變得更加大。

二、未來的問題,交給未來?

這一切對於deVries來說都很熟悉。

最開始,吸引deVries去做用電統計的其實是比特幣。

據deVries,比特幣挖礦現在一年仍然消耗1450億千瓦時的電量,碳足跡高達8100萬噸,比摩洛哥的年排放量都要高。

挖礦本身的模式也註定了它和“可持續”在本質上的不相容:

我認為政策上唯一可行的做法就是要求披露資料。

我們花了那麼多年才在加密行業學會這個,我真的很失望我們怎麼沒能早些在AI領域做到這件事。

就像是我們看到了挖幣帶來的影響,然後完全就忘了。

但和加密幣行業不同的是,在各個大公司的敘事中,AI將更緊密地融入我們的生活中,巨頭們也不怕說起AI的耗電問題,只是解決方案也和AGI一樣“未來”。

我們仍舊不喜歡這項技術對能源的消耗。

如果沒有大突破,我們沒法達到目的地。我們需要核聚變,或者極其廉價的太陽能加上儲存裝置,或者某種大規模的裝置。

SamAltman在今年1月的達沃斯活動上如此回應AI的能耗問題。

此前,Altman和微軟都投資了核聚變發電初創公司Helion。這家公司致力於2028年以前,建成全球首座核聚變發電廠。

這段時間引來大量關注的法國公司MistralAI和美國公司InflectionAI則各自拿出訓練成本更低的高質量模型。

這固然可以減少算力壓力,但它們又是否能走出deVries提及的規模迴圈?

這些都是要等“未來”回答的問題,但“現在”已經展露出AI對能源的壓力。

據彭博社,為了應對用電量的飆升,美國一些電力公司在考慮解封已經封存的化石燃料發電廠,部分公司已經開始提請監管機構批准建造新的天然氣發電廠。

國際能源署在今年釋出的報告中預測,未來三年,全球對資料中心、加密貨幣和AI的電力需求將增加一倍以上,相當於一個德國的全部電力需求。

到了2026年,全球總體電力需求預計將增長3.4%,但風能、太陽能和水能等可再生能源和核能,都無法彌補這一增長。

的確,如果我們想要一個AI無處不在的未來,正如Altman所言,真的是迫切需要重大突破。

但deVries則認為,我們也可以提出一個新問題:

我們真的需要AI去做某些特定的任務嗎?

考慮到AI的各種限制,它在很多地方可能都不適用,但我們就得花很長時間和大量能源去用艱難的方式才能明白這個道理。

最近,馬斯克在活動上表示,繼之前的晶片短缺後,AI的發展接下來將會遇上電力不足的挑戰。

大家似乎都知道訓練AI發展AI需要大量算力,極為耗電耗水,但我們似乎又不清楚它具體有多耗電。

即便如此,部分地區已經開始感受到由AI大潮帶來的用電壓力,而各領域的研究人員也在想方設法去對能耗進行測算。

畢竟,如果我們真要如科技巨頭們所描繪般走入與AI緊密共存的未來,那及早計算它背後的“能源賬”也是一種必要。

一、好奇生成一張圖,就能為手機充滿電?

我在用文生圖模型時,常常會不自覺“貪心”。

即便圖片出來質量還可以,我也總會忍不住多點幾下,生成幾次,或者新增一些變數,看模型會給我“造”出什麼。

輕點一下就有全新演繹,這個誘惑太大了。

AI生成圖片

然而,我沒想到的是,我的一次好奇點選下消耗的電量,居然已經能把我手機充滿電。

去年12月,開源AI平臺HuggingFace研究員和卡內基梅隆大學聯手合作,統計了88個不同AI模型在不同任務下的用電情況。

其論文指出,影象生成模型推斷1000次平均用電2.907千瓦時,而平均手機充電耗電量為0.012千瓦時。

不過,論文作者SashaLuccioni強調,這並不意味著所有影象生成模型的耗電量都如此,因為研究測算中既然只生成64x64影象的小模型,也有生成4K高畫質圖的模型。

相比之下,文字類模型的耗電量會低很多——推斷1000次平均耗電量介乎於0.002千瓦時至0.047千瓦時。

值得指出的是,這只是AI模型在訓練完成之後每次使用時的耗電量,訓練模型本身用電量則更可觀。

論文估算,GPT-3這種體量的模型訓練用電量可達1300兆瓦時,約等於130個美國家庭一年的用電量。

為什麼不去算更新模型的用電量?

因為OpenAI變得越來越不open,不再像幾年前一樣會公佈訓練細節,如用了什麼硬體和耗時。

在白熱化競爭下,各個AI公司也不願公佈自己的模型訓練資訊,一切都在變得越來越不透明。

這也是為什麼SashaLuccioni要用更側面的方式來進行估算。

當然,這些資料沒法代表所有人的使用情況,但至少我們有一點資料。

我想把旗子立起來,和大家說“我們就從這裡開始吧。”

同樣不願被資訊壁壘擋住的,還有供職於荷蘭中央銀行的AlexdeVries。

deVries將視野拉得更廣,直接跳過AI模型,透過計算全球被用於AI領域的英偉達GPU數量來估算這個領域的用電量。

據deVries估算,到了2027年,AI行業每年的耗電量將介乎於85~134太瓦時,相當於荷蘭整個國家的用電量。

至於ChatGPT本身,deVries認為它每天處理2億個使用者請求會耗電50萬千瓦時,這相當於一個美國家庭每天用電的量的1.7萬倍

如果Google將AI結合到每一次搜尋中,那它一年的用電量就會飆升至210億千瓦時,高於肯亞、克羅埃西亞等國家的用電量。

而和從前計算機發展不同的是,目前勢態下AI的用電量基本很難降低。

他指出,在2010—2018年期間,全球資料中心的用電量其實相對穩定,大概佔全球總用電量1%-2%。

雖然我們的生活和網際網路更緊密了,用“網”頻率也更高了,但硬體的效率也在提升,能抵消一下。

情況在“AI模型大戰”下改變了,巨頭們只想把模型越做越大,資料越多越好:

真像是一個效率的死亡動力學。

它自然地創造了一種驅動力,讓人們不停地增加算力資源,一旦模型或硬體變得更高效了,人們又要讓這些模型變得更加大。

二、未來的問題,交給未來?

這一切對於deVries來說都很熟悉。

最開始,吸引deVries去做用電統計的其實是比特幣。

據deVries,比特幣挖礦現在一年仍然消耗1450億千瓦時的電量,碳足跡高達8100萬噸,比摩洛哥的年排放量都要高。

挖礦本身的模式也註定了它和“可持續”在本質上的不相容:

我認為政策上唯一可行的做法就是要求披露資料。

我們花了那麼多年才在加密行業學會這個,我真的很失望我們怎麼沒能早些在AI領域做到這件事。

就像是我們看到了挖幣帶來的影響,然後完全就忘了。

但和加密幣行業不同的是,在各個大公司的敘事中,AI將更緊密地融入我們的生活中,巨頭們也不怕說起AI的耗電問題,只是解決方案也和AGI一樣“未來”。

我們仍舊不喜歡這項技術對能源的消耗。

如果沒有大突破,我們沒法達到目的地。我們需要核聚變,或者極其廉價的太陽能加上儲存裝置,或者某種大規模的裝置。

SamAltman在今年1月的達沃斯活動上如此回應AI的能耗問題。

此前,Altman和微軟都投資了核聚變發電初創公司Helion。這家公司致力於2028年以前,建成全球首座核聚變發電廠。

這段時間引來大量關注的法國公司MistralAI和美國公司InflectionAI則各自拿出訓練成本更低的高質量模型。

這固然可以減少算力壓力,但它們又是否能走出deVries提及的規模迴圈?

這些都是要等“未來”回答的問題,但“現在”已經展露出AI對能源的壓力。

據彭博社,為了應對用電量的飆升,美國一些電力公司在考慮解封已經封存的化石燃料發電廠,部分公司已經開始提請監管機構批准建造新的天然氣發電廠。

國際能源署在今年釋出的報告中預測,未來三年,全球對資料中心、加密貨幣和AI的電力需求將增加一倍以上,相當於一個德國的全部電力需求。

到了2026年,全球總體電力需求預計將增長3.4%,但風能、太陽能和水能等可再生能源和核能,都無法彌補這一增長。

的確,如果我們想要一個AI無處不在的未來,正如Altman所言,真的是迫切需要重大突破。

但deVries則認為,我們也可以提出一個新問題:

我們真的需要AI去做某些特定的任務嗎?

考慮到AI的各種限制,它在很多地方可能都不適用,但我們就得花很長時間和大量能源去用艱難的方式才能明白這個道理。

最近,馬斯克在活動上表示,繼之前的晶片短缺後,AI的發展接下來將會遇上電力不足的挑戰。

大家似乎都知道訓練AI發展AI需要大量算力,極為耗電耗水,但我們似乎又不清楚它具體有多耗電。

即便如此,部分地區已經開始感受到由AI大潮帶來的用電壓力,而各領域的研究人員也在想方設法去對能耗進行測算。

畢竟,如果我們真要如科技巨頭們所描繪般走入與AI緊密共存的未來,那及早計算它背後的“能源賬”也是一種必要。

一、好奇生成一張圖,就能為手機充滿電?

我在用文生圖模型時,常常會不自覺“貪心”。

即便圖片出來質量還可以,我也總會忍不住多點幾下,生成幾次,或者新增一些變數,看模型會給我“造”出什麼。

輕點一下就有全新演繹,這個誘惑太大了。

AI生成圖片

然而,我沒想到的是,我的一次好奇點選下消耗的電量,居然已經能把我手機充滿電。

去年12月,開源AI平臺HuggingFace研究員和卡內基梅隆大學聯手合作,統計了88個不同AI模型在不同任務下的用電情況。

其論文指出,影象生成模型推斷1000次平均用電2.907千瓦時,而平均手機充電耗電量為0.012千瓦時。

不過,論文作者SashaLuccioni強調,這並不意味著所有影象生成模型的耗電量都如此,因為研究測算中既然只生成64x64影象的小模型,也有生成4K高畫質圖的模型。

相比之下,文字類模型的耗電量會低很多——推斷1000次平均耗電量介乎於0.002千瓦時至0.047千瓦時。

值得指出的是,這只是AI模型在訓練完成之後每次使用時的耗電量,訓練模型本身用電量則更可觀。

論文估算,GPT-3這種體量的模型訓練用電量可達1300兆瓦時,約等於130個美國家庭一年的用電量。

為什麼不去算更新模型的用電量?

因為OpenAI變得越來越不open,不再像幾年前一樣會公佈訓練細節,如用了什麼硬體和耗時。

在白熱化競爭下,各個AI公司也不願公佈自己的模型訓練資訊,一切都在變得越來越不透明。

這也是為什麼SashaLuccioni要用更側面的方式來進行估算。

當然,這些資料沒法代表所有人的使用情況,但至少我們有一點資料。

我想把旗子立起來,和大家說“我們就從這裡開始吧。”

同樣不願被資訊壁壘擋住的,還有供職於荷蘭中央銀行的AlexdeVries。

deVries將視野拉得更廣,直接跳過AI模型,透過計算全球被用於AI領域的英偉達GPU數量來估算這個領域的用電量。

據deVries估算,到了2027年,AI行業每年的耗電量將介乎於85~134太瓦時,相當於荷蘭整個國家的用電量。

至於ChatGPT本身,deVries認為它每天處理2億個使用者請求會耗電50萬千瓦時,這相當於一個美國家庭每天用電的量的1.7萬倍

如果Google將AI結合到每一次搜尋中,那它一年的用電量就會飆升至210億千瓦時,高於肯亞、克羅埃西亞等國家的用電量。

而和從前計算機發展不同的是,目前勢態下AI的用電量基本很難降低。

他指出,在2010—2018年期間,全球資料中心的用電量其實相對穩定,大概佔全球總用電量1%-2%。

雖然我們的生活和網際網路更緊密了,用“網”頻率也更高了,但硬體的效率也在提升,能抵消一下。

情況在“AI模型大戰”下改變了,巨頭們只想把模型越做越大,資料越多越好:

真像是一個效率的死亡動力學。

它自然地創造了一種驅動力,讓人們不停地增加算力資源,一旦模型或硬體變得更高效了,人們又要讓這些模型變得更加大。

二、未來的問題,交給未來?

這一切對於deVries來說都很熟悉。

最開始,吸引deVries去做用電統計的其實是比特幣。

據deVries,比特幣挖礦現在一年仍然消耗1450億千瓦時的電量,碳足跡高達8100萬噸,比摩洛哥的年排放量都要高。

挖礦本身的模式也註定了它和“可持續”在本質上的不相容:

我認為政策上唯一可行的做法就是要求披露資料。

我們花了那麼多年才在加密行業學會這個,我真的很失望我們怎麼沒能早些在AI領域做到這件事。

就像是我們看到了挖幣帶來的影響,然後完全就忘了。

但和加密幣行業不同的是,在各個大公司的敘事中,AI將更緊密地融入我們的生活中,巨頭們也不怕說起AI的耗電問題,只是解決方案也和AGI一樣“未來”。

我們仍舊不喜歡這項技術對能源的消耗。

如果沒有大突破,我們沒法達到目的地。我們需要核聚變,或者極其廉價的太陽能加上儲存裝置,或者某種大規模的裝置。

SamAltman在今年1月的達沃斯活動上如此回應AI的能耗問題。

此前,Altman和微軟都投資了核聚變發電初創公司Helion。這家公司致力於2028年以前,建成全球首座核聚變發電廠。

這段時間引來大量關注的法國公司MistralAI和美國公司InflectionAI則各自拿出訓練成本更低的高質量模型。

這固然可以減少算力壓力,但它們又是否能走出deVries提及的規模迴圈?

這些都是要等“未來”回答的問題,但“現在”已經展露出AI對能源的壓力。

據彭博社,為了應對用電量的飆升,美國一些電力公司在考慮解封已經封存的化石燃料發電廠,部分公司已經開始提請監管機構批准建造新的天然氣發電廠。

國際能源署在今年釋出的報告中預測,未來三年,全球對資料中心、加密貨幣和AI的電力需求將增加一倍以上,相當於一個德國的全部電力需求。

到了2026年,全球總體電力需求預計將增長3.4%,但風能、太陽能和水能等可再生能源和核能,都無法彌補這一增長。

的確,如果我們想要一個AI無處不在的未來,正如Altman所言,真的是迫切需要重大突破。

但deVries則認為,我們也可以提出一個新問題:

我們真的需要AI去做某些特定的任務嗎?

考慮到AI的各種限制,它在很多地方可能都不適用,但我們就得花很長時間和大量能源去用艱難的方式才能明白這個道理。

最近,馬斯克在活動上表示,繼之前的晶片短缺後,AI的發展接下來將會遇上電力不足的挑戰。

大家似乎都知道訓練AI發展AI需要大量算力,極為耗電耗水,但我們似乎又不清楚它具體有多耗電。

即便如此,部分地區已經開始感受到由AI大潮帶來的用電壓力,而各領域的研究人員也在想方設法去對能耗進行測算。

畢竟,如果我們真要如科技巨頭們所描繪般走入與AI緊密共存的未來,那及早計算它背後的“能源賬”也是一種必要。

一、好奇生成一張圖,就能為手機充滿電?

我在用文生圖模型時,常常會不自覺“貪心”。

即便圖片出來質量還可以,我也總會忍不住多點幾下,生成幾次,或者新增一些變數,看模型會給我“造”出什麼。

輕點一下就有全新演繹,這個誘惑太大了。

AI生成圖片

然而,我沒想到的是,我的一次好奇點選下消耗的電量,居然已經能把我手機充滿電。

去年12月,開源AI平臺HuggingFace研究員和卡內基梅隆大學聯手合作,統計了88個不同AI模型在不同任務下的用電情況。

其論文指出,影象生成模型推斷1000次平均用電2.907千瓦時,而平均手機充電耗電量為0.012千瓦時。

不過,論文作者SashaLuccioni強調,這並不意味著所有影象生成模型的耗電量都如此,因為研究測算中既然只生成64x64影象的小模型,也有生成4K高畫質圖的模型。

相比之下,文字類模型的耗電量會低很多——推斷1000次平均耗電量介乎於0.002千瓦時至0.047千瓦時。

值得指出的是,這只是AI模型在訓練完成之後每次使用時的耗電量,訓練模型本身用電量則更可觀。

論文估算,GPT-3這種體量的模型訓練用電量可達1300兆瓦時,約等於130個美國家庭一年的用電量。

為什麼不去算更新模型的用電量?

因為OpenAI變得越來越不open,不再像幾年前一樣會公佈訓練細節,如用了什麼硬體和耗時。

在白熱化競爭下,各個AI公司也不願公佈自己的模型訓練資訊,一切都在變得越來越不透明。

這也是為什麼SashaLuccioni要用更側面的方式來進行估算。

當然,這些資料沒法代表所有人的使用情況,但至少我們有一點資料。

我想把旗子立起來,和大家說“我們就從這裡開始吧。”

同樣不願被資訊壁壘擋住的,還有供職於荷蘭中央銀行的AlexdeVries。

deVries將視野拉得更廣,直接跳過AI模型,透過計算全球被用於AI領域的英偉達GPU數量來估算這個領域的用電量。

據deVries估算,到了2027年,AI行業每年的耗電量將介乎於85~134太瓦時,相當於荷蘭整個國家的用電量。

至於ChatGPT本身,deVries認為它每天處理2億個使用者請求會耗電50萬千瓦時,這相當於一個美國家庭每天用電的量的1.7萬倍

如果Google將AI結合到每一次搜尋中,那它一年的用電量就會飆升至210億千瓦時,高於肯亞、克羅埃西亞等國家的用電量。

而和從前計算機發展不同的是,目前勢態下AI的用電量基本很難降低。

他指出,在2010—2018年期間,全球資料中心的用電量其實相對穩定,大概佔全球總用電量1%-2%。

雖然我們的生活和網際網路更緊密了,用“網”頻率也更高了,但硬體的效率也在提升,能抵消一下。

情況在“AI模型大戰”下改變了,巨頭們只想把模型越做越大,資料越多越好:

真像是一個效率的死亡動力學。

它自然地創造了一種驅動力,讓人們不停地增加算力資源,一旦模型或硬體變得更高效了,人們又要讓這些模型變得更加大。

二、未來的問題,交給未來?

這一切對於deVries來說都很熟悉。

最開始,吸引deVries去做用電統計的其實是比特幣。

據deVries,比特幣挖礦現在一年仍然消耗1450億千瓦時的電量,碳足跡高達8100萬噸,比摩洛哥的年排放量都要高。

挖礦本身的模式也註定了它和“可持續”在本質上的不相容:

我認為政策上唯一可行的做法就是要求披露資料。

我們花了那麼多年才在加密行業學會這個,我真的很失望我們怎麼沒能早些在AI領域做到這件事。

就像是我們看到了挖幣帶來的影響,然後完全就忘了。

但和加密幣行業不同的是,在各個大公司的敘事中,AI將更緊密地融入我們的生活中,巨頭們也不怕說起AI的耗電問題,只是解決方案也和AGI一樣“未來”。

我們仍舊不喜歡這項技術對能源的消耗。

如果沒有大突破,我們沒法達到目的地。我們需要核聚變,或者極其廉價的太陽能加上儲存裝置,或者某種大規模的裝置。

SamAltman在今年1月的達沃斯活動上如此回應AI的能耗問題。

此前,Altman和微軟都投資了核聚變發電初創公司Helion。這家公司致力於2028年以前,建成全球首座核聚變發電廠。

這段時間引來大量關注的法國公司MistralAI和美國公司InflectionAI則各自拿出訓練成本更低的高質量模型。

這固然可以減少算力壓力,但它們又是否能走出deVries提及的規模迴圈?

這些都是要等“未來”回答的問題,但“現在”已經展露出AI對能源的壓力。

據彭博社,為了應對用電量的飆升,美國一些電力公司在考慮解封已經封存的化石燃料發電廠,部分公司已經開始提請監管機構批准建造新的天然氣發電廠。

國際能源署在今年釋出的報告中預測,未來三年,全球對資料中心、加密貨幣和AI的電力需求將增加一倍以上,相當於一個德國的全部電力需求。

到了2026年,全球總體電力需求預計將增長3.4%,但風能、太陽能和水能等可再生能源和核能,都無法彌補這一增長。

的確,如果我們想要一個AI無處不在的未來,正如Altman所言,真的是迫切需要重大突破。

但deVries則認為,我們也可以提出一個新問題:

我們真的需要AI去做某些特定的任務嗎?

考慮到AI的各種限制,它在很多地方可能都不適用,但我們就得花很長時間和大量能源去用艱難的方式才能明白這個道理。

最近,馬斯克在活動上表示,繼之前的晶片短缺後,AI的發展接下來將會遇上電力不足的挑戰。

大家似乎都知道訓練AI發展AI需要大量算力,極為耗電耗水,但我們似乎又不清楚它具體有多耗電。

即便如此,部分地區已經開始感受到由AI大潮帶來的用電壓力,而各領域的研究人員也在想方設法去對能耗進行測算。

畢竟,如果我們真要如科技巨頭們所描繪般走入與AI緊密共存的未來,那及早計算它背後的“能源賬”也是一種必要。

一、好奇生成一張圖,就能為手機充滿電?

我在用文生圖模型時,常常會不自覺“貪心”。

即便圖片出來質量還可以,我也總會忍不住多點幾下,生成幾次,或者新增一些變數,看模型會給我“造”出什麼。

輕點一下就有全新演繹,這個誘惑太大了。

AI生成圖片

然而,我沒想到的是,我的一次好奇點選下消耗的電量,居然已經能把我手機充滿電。

去年12月,開源AI平臺HuggingFace研究員和卡內基梅隆大學聯手合作,統計了88個不同AI模型在不同任務下的用電情況。

其論文指出,影象生成模型推斷1000次平均用電2.907千瓦時,而平均手機充電耗電量為0.012千瓦時。

不過,論文作者SashaLuccioni強調,這並不意味著所有影象生成模型的耗電量都如此,因為研究測算中既然只生成64x64影象的小模型,也有生成4K高畫質圖的模型。

相比之下,文字類模型的耗電量會低很多——推斷1000次平均耗電量介乎於0.002千瓦時至0.047千瓦時。

值得指出的是,這只是AI模型在訓練完成之後每次使用時的耗電量,訓練模型本身用電量則更可觀。

論文估算,GPT-3這種體量的模型訓練用電量可達1300兆瓦時,約等於130個美國家庭一年的用電量。

為什麼不去算更新模型的用電量?

因為OpenAI變得越來越不open,不再像幾年前一樣會公佈訓練細節,如用了什麼硬體和耗時。

在白熱化競爭下,各個AI公司也不願公佈自己的模型訓練資訊,一切都在變得越來越不透明。

這也是為什麼SashaLuccioni要用更側面的方式來進行估算。

當然,這些資料沒法代表所有人的使用情況,但至少我們有一點資料。

我想把旗子立起來,和大家說“我們就從這裡開始吧。”

同樣不願被資訊壁壘擋住的,還有供職於荷蘭中央銀行的AlexdeVries。

deVries將視野拉得更廣,直接跳過AI模型,透過計算全球被用於AI領域的英偉達GPU數量來估算這個領域的用電量。

據deVries估算,到了2027年,AI行業每年的耗電量將介乎於85~134太瓦時,相當於荷蘭整個國家的用電量。

至於ChatGPT本身,deVries認為它每天處理2億個使用者請求會耗電50萬千瓦時,這相當於一個美國家庭每天用電的量的1.7萬倍

如果Google將AI結合到每一次搜尋中,那它一年的用電量就會飆升至210億千瓦時,高於肯亞、克羅埃西亞等國家的用電量。

而和從前計算機發展不同的是,目前勢態下AI的用電量基本很難降低。

他指出,在2010—2018年期間,全球資料中心的用電量其實相對穩定,大概佔全球總用電量1%-2%。

雖然我們的生活和網際網路更緊密了,用“網”頻率也更高了,但硬體的效率也在提升,能抵消一下。

情況在“AI模型大戰”下改變了,巨頭們只想把模型越做越大,資料越多越好:

真像是一個效率的死亡動力學。

它自然地創造了一種驅動力,讓人們不停地增加算力資源,一旦模型或硬體變得更高效了,人們又要讓這些模型變得更加大。

二、未來的問題,交給未來?

這一切對於deVries來說都很熟悉。

最開始,吸引deVries去做用電統計的其實是比特幣。

據deVries,比特幣挖礦現在一年仍然消耗1450億千瓦時的電量,碳足跡高達8100萬噸,比摩洛哥的年排放量都要高。

挖礦本身的模式也註定了它和“可持續”在本質上的不相容:

我認為政策上唯一可行的做法就是要求披露資料。

我們花了那麼多年才在加密行業學會這個,我真的很失望我們怎麼沒能早些在AI領域做到這件事。

就像是我們看到了挖幣帶來的影響,然後完全就忘了。

但和加密幣行業不同的是,在各個大公司的敘事中,AI將更緊密地融入我們的生活中,巨頭們也不怕說起AI的耗電問題,只是解決方案也和AGI一樣“未來”。

我們仍舊不喜歡這項技術對能源的消耗。

如果沒有大突破,我們沒法達到目的地。我們需要核聚變,或者極其廉價的太陽能加上儲存裝置,或者某種大規模的裝置。

SamAltman在今年1月的達沃斯活動上如此回應AI的能耗問題。

此前,Altman和微軟都投資了核聚變發電初創公司Helion。這家公司致力於2028年以前,建成全球首座核聚變發電廠。

這段時間引來大量關注的法國公司MistralAI和美國公司InflectionAI則各自拿出訓練成本更低的高質量模型。

這固然可以減少算力壓力,但它們又是否能走出deVries提及的規模迴圈?

這些都是要等“未來”回答的問題,但“現在”已經展露出AI對能源的壓力。

據彭博社,為了應對用電量的飆升,美國一些電力公司在考慮解封已經封存的化石燃料發電廠,部分公司已經開始提請監管機構批准建造新的天然氣發電廠。

國際能源署在今年釋出的報告中預測,未來三年,全球對資料中心、加密貨幣和AI的電力需求將增加一倍以上,相當於一個德國的全部電力需求。

到了2026年,全球總體電力需求預計將增長3.4%,但風能、太陽能和水能等可再生能源和核能,都無法彌補這一增長。

的確,如果我們想要一個AI無處不在的未來,正如Altman所言,真的是迫切需要重大突破。

但deVries則認為,我們也可以提出一個新問題:

我們真的需要AI去做某些特定的任務嗎?

考慮到AI的各種限制,它在很多地方可能都不適用,但我們就得花很長時間和大量能源去用艱難的方式才能明白這個道理。

上一篇:一女子坐火車... 下一篇:股票被st一般...
猜你喜歡
熱門閱讀
同類推薦