AI伺服器價格漲近20倍!帶火哪些晶片?

首頁 > 科技

AI伺服器價格漲近20倍!帶火哪些晶片?

來源:車輛知多少 釋出時間:2023-05-26 15:44

“所有與英偉達相關的AI伺服器都在漲價。”有企業最近向媒體透露,“去年8萬元一臺的AI伺服器,今年已經漲到160萬元,漲了近20倍。”

ChatGPT大火後,各大科技企業紛紛發力AI大模型,作為通用的算力晶片,英偉達的高階GPU開始供不應求。A100價格從去年年底開始暴漲,至今漲幅接近40%,連上一代V100的價格也被炒到近10萬元,中國特供版A800更是相稱緊缺。

AI伺服器的漲價很大程度上與這波行情有關,作為算力的基礎設施,無論是練習,仍是模型推理,AI伺服器都是必需品,且往往需要的不止是一臺兩臺。那麼AI伺服器是什麼?跟一般伺服器有什麼區別?英偉達的GPU,為何讓AI伺服器大漲特漲?除了GPU,AI伺服器裡還用到哪些晶片?哪些晶片能夠隨著受益?

01

什麼是伺服器?

如何分辨AI伺服器?

AI伺服器由傳統伺服器演變而來。伺服器,幾乎是辦公室打工人手裡電腦的翻版,它屬於高效能計算機,儲存、處理著網路上80%的資料、資訊,被稱為網路的靈魂。

假如微機、筆記本、手機等網路終端是分佈在家庭、辦公場所 、公共場所的電話機,那麼伺服器就是郵局的交換機,把網友們共享的網路遊戲、網站,企業的資料等存放其中,又可分為檔案伺服器、雲計算伺服器、資料庫伺服器等。

放置伺服器的機房,全年無休,來源:ecl-ips.com

比擬電腦,伺服器在穩定性、安全性、機能等方面都要求更高,絕不誇張地說,每年雙十一若不是有足夠牛X的伺服器,購物狂歡節會變成“網路錯誤”或“請稍後再試”的刷屏節。

究竟短短一兩分鐘內,就要處理剁手黨們傳送給電商伺服器的上千億交易訂單,再發送給使用者進行響應,資料流量到達巔峰(2018年,天貓雙11支付峰值為25.6萬筆/秒,資料庫處理峰值為4200萬次/秒),每年對伺服器的機能都是一次大考。

這操縱放在1964年誕生的第一代伺服器System/360身上大概是無法想象的,那時無論網路仍是分散式計算都沒誕生,當年IBM推出它的時候,仍是在協助美國太空總署建立阿波羅11號的資料庫,助力人類登月。它每秒可計算100萬次,價格高達200-300萬美元一臺,體積龐大,許多銀行採購這樣的IBM大型機開展業務。

很快在1965年,伺服器的價格被打了下來,這年DEC公司開發了PDP-8小型機,掀起了小型機革命。90年代初,網際網路興起,RISC架構的伺服器如日中天,英特爾x86架構的伺服器讓許多小企業甚至是個人使用者都能買得起,不到20年的時間,英特爾迅速統治了各類計算機市場。

在AI伺服器之前,伺服器大致經歷了Wintel時代、雲計算時代兩個時代的演變,跟著新一代人工智慧技術的到來,摩爾定律的“到頭”,CPU的物理工藝和核心數接近極限,單靠CPU提供算力的傳統伺服器,很難滿意AI對密集型計算的需求。

機器學習和人工智慧代表了一個基本的新架構,人工智慧需要專屬的基礎結構進行承載和支撐,AI伺服器從此應運而生。

谷歌、BAT等企業面對海量的資料,打造一座資料中心時,通常都要配備成千上萬臺伺服器。以用到A100的ChatGPT為例,其部署的大算力計算,每個GPU或大算力AI晶片的算力大於100TFLOPS。這時就要給伺服器們上更高的配置,強強聯手,搭載GPU或者其他型別的AI晶片,好比GPU就非常擅長做一些CPU做不了的密集型資料運算。

AI伺服器和普通伺服器最大的區別,就是AI伺服器通常打組合拳,好比CPU+GPU、CPU+TPU、CPU+其他的加速卡等,CPU在AI伺服器中,徹底卸下了算力的包袱,噹噹領導指揮下就行。

02

一臺AI伺服器漲價近20倍,

憑啥?

一臺AI伺服器的價格,從去年到現在漲了近20倍。而一臺普通伺服器,都換不到AI伺服器裡的8個GPU,價格上相形見絀。大家都在資料中心裡躺著,憑什麼AI伺服器這麼金貴,價格瘋漲?

在AI伺服器中,CPU退居幕後,GPU等AI晶片在其中充當主角做大量運算,算力無止境,事實上,AI伺服器通常有且不僅只有一塊GPU

固然FPGA、各類ASIC晶片也可以做大量運算,但GPU強盛的通用性使得它更吃香。IDC資料顯示,2021年上半年中國人工智慧晶片行業中,GPU明顯成為實現資料中心加速的首選,據有90%以上的市場份額。

CPU方面,AI伺服器一般僅搭載1-2塊CPU,GPU的數目就佔上風了,根據GPU數目的不同,AI伺服器進一步分為四路、八路和十六路伺服器,搭載8塊GPU的八路AI伺服器最常見。

AI大模型分為練習和推理兩種,練習模型要求的算力很高,推理相對要求低一點,但大模型總有一天會練習出來,推理卻永無止境,好比ChatGPT與我們對話就是推理的過程,從算力總需求上來看,推理可能甚至要高過練習。

算力的高低最直觀的影響就是速度,誰也不想練習一個模型要耗上個把年,等AI回答個題目,等到人老珠黃。在這個內卷的時代,誰快,誰就有飯吃。

有研究機構測算,以GPT-4為例,為滿意最高 75352 PFlop/s-day的算力,在5 PFlop/s-day的計算速度下,20天完成,需要採購754臺浪潮NF5688M6伺服器(2 CPU + 8 GPU),縮短至15天,就要1005臺,縮短至5天完成,就要多達3015臺!

浪潮NF5688M6搭載了兩顆intel ice lake處理器,8顆英偉達A800GPU,京東售價約105萬,按照CPU約5.3萬/顆,GPU約10.4萬元/顆計算,CPU和GPU的價值量佔比為10.10%和79.24%。

說白了,玩家為了大模型的運算效率,得加錢,氪金充值。

放在整機上,GPU的本錢仍是遙遙領先,無人能敵。普通伺服器和AI伺服器的BOM表顯示,AI伺服器單機均勻售價(ASP)比普通伺服器要高出5倍,AI伺服器對AI晶片如英偉達的A100需求大,而普通伺服器甚至都不需要用到專業的AI晶片。

普通伺服器最貴的CPU,單機ASP 14400美元,不到AI伺服器中GPU 96000美元的四分之一,而普通伺服器40000美元的單機總成本ASP,也不及AI伺服器GPU這一項本錢的一半。講個笑話,一臺普通伺服器,都換不到八路AI伺服器裡的8個英偉達A100。

這就是AI伺服器輕易價格瘋漲的原因,背後本錢佔比高,單價昂貴的英偉達A100等GPU幾乎成了決定性因素。

來源:中金點睛

挖礦潮過去後,英偉達顯然嗅到了生成式AI高潮的銅臭味。有業內人士表態,早在去年6月開始,英偉達就已經公佈上調A100價格,漲幅在20%左右,因為美國禁令,英偉達特供中國的A800版本在ChatGPT爆火之前已經泛起了漲價,導致市場上泛起了眾多炒貨行為。

固然海內有華為、百度、阿里等自研的AI晶片,也有部門伺服器廠商使用這些晶片,但整個AI伺服器市場,英偉達仍是奪得冠軍的那個,所以英偉達就成了AI伺服器這條漲價線的源頭。

ChatGPT的大火,導致英偉達高階GPU價格一路上漲。有代理商透露,英偉達A100價格從去年12月開始上漲,截至今年4月上半月,5個月價格累計漲幅達到37.5%;同期A800價格累計漲幅達20.0%。

GPU的持續缺貨,進一步影響AI伺服器廠商的出貨,連帶著下游雲服務廠商,AI企業都要受到影響。今年以來,AI伺服器價格大漲的動靜不絕於耳。

英偉達也向臺積電追加訂單,但GPU需要的進步前輩製程產能究竟有限,因此交貨週期仍是沒有幸免拉長,之前拿貨週期大約為一個月,現在基本都需要三個月或更長。甚至,部門新訂單“可能要到12月才能交付”。

一些雲服務廠商開始縮衣減食,嚴格限制內部對GPU的使用量。有廠商表示,“後悔買少了。”頗有種汽車缺芯時那種差之一“芯”,失之萬臺的感覺。

03

AI伺服器

還帶動了哪些晶片需求?

無論GPU如何帶動AI伺服器漲價,本質上是AI市場需求的體現,就像前兩年汽車缺芯一樣。這種需求的泛起往往伴隨的不只是一種晶片的激增。

中金測算,AI伺服器核心元件按價值量由高到低依次為GPU、DRAM、SSD、CPU、網絡卡、PCB、高速互聯晶片和散熱模組等,按7.5萬臺練習型和17.5萬臺推理型伺服器測算,對應市場規模分別為240億美元、88億美元、48億美元、34億美元、5億美元、3億美元、2.5億美元和1.5億美元。

上一篇:瀘惠保是什麼... 下一篇:過年了沒錢回...
猜你喜歡
熱門閱讀
同類推薦