今年儲存晶片太猛了!SK海力士、江波龍飛速增長:AI功不可沒

首頁 > 科技

今年儲存晶片太猛了!SK海力士、江波龍飛速增長:AI功不可沒

來源:這裡是廈門 釋出時間:2024-04-30 12:44

就在本週,全球儲存晶片巨頭 SK 海力士宣佈了最新一輪超過 1000 億元人民幣的投資,計劃用於擴大包括 HBM(高頻寬記憶體)在內的下一代 DRAM 的產能。

一點也不意外。

過去一年半,從 ChatGPT 到 Sora 一次又一次重新整理了人們對於人工智慧的認知。而且從目前來看,Claude 3 的震撼釋出,GPT-5 流出的資訊,似乎說明大語言模型(以下簡稱「大模型」)的智力湧現沒有絲毫放緩的跡象。

這讓 GPU「採購戰爭」變得愈演愈烈,連帶著臺積電的 CoWos 以及 HBM 產能也成為了絕對意義的「搶手貨」。但大模型在「爭奪」的其實不只是 HBM。

隨著手機、PC 等計算終端開始積極引入大模型,甚至出現了一系列基於大模型打造的 AI 原生終端,消費電子產品對於 DRAM(記憶體)、NAND(快閃記憶體)的需求也在變多、變大。

從 GPT-3.5 到 Llama 3,大模型要繼續帶飛儲存晶片

當地時間 4 月 18 日,Meta 釋出了最新的開源大模型 Llama 3,再次奪回了開源大模型的「王座」。但值得注意的是,Llama 3 的強大很大程度上離不開 15 萬億 Token 的訓練資料,這不僅是小公司難以企及的規模,甚至比谷歌之前開源的 Gemma 大模型:

還多出一倍不止。

圖/ Meta

從 GPT-3.5 到 Llama 3,時至今日,大模型的智力湧現依然依託於 Scaling laws(OpenAI 提出)指導下的大力出奇跡,對算力和資料有著近乎沒有上限的需求。這直接孕育了海量的 GPU 需求,也帶動了 HBM 的需求。

根據國外研究機構的拆解,英偉達力推的 H100 NVL 版本配備了 12 個 16GB HBM 堆疊,而單顆 16GB HBM 堆疊,成本就高達 240 美元。也就是說,僅僅 HBM 的成本就逼近 3000 美元,毫無疑問超過了製造和封裝,是 H100 成本中最貴的一項。

即便如此,SK 海力士、美光 2024 年的 HBM 產能,也早被英偉達、AMD、英特爾、谷歌、微軟等半導體廠商預訂一空。

英偉達 H100 GPU,圖/英偉達

高昂的定價和供不應求的訂單,也讓 HBM 廠商賺得盆滿鍋滿。4 月 25 日剛公佈的財報顯示,SK 海力士今年第一季度營業利潤為 2.8860 萬億韓元(約合人民幣 151.8 億元),不僅扭虧為盈,而且比起已經很樂觀的市場預期:

還高出 30%。

要知道,這仍是產能遠遠無法滿足需求的情況。

而另一方面,大模型預訓練最重要的一步就是語料庫的採集。如果企業需要利用私有資料重新訓練模型,同樣也要經過資料收集、清洗等步驟。

不僅如此,涉及資料就不可避免要涉及「資料怎麼儲存、怎麼管理、怎麼保證資料安全,」聯想凌拓執行長陸大昕在年初的一次演講中表示,「這些都是後續大模型建設中的剛需。」

聯想凌拓執行長陸大昕,圖/聯想

所以不難想象,伴隨大模型進一步從資料中心擴散到更多、更分散的伺服器,以及大模型應用的擴充套件和普及,需要更大的資料儲存容量。這也就不奇怪,已經有大量廠商正在面向 AI 需求打造資料儲存產品和解決方案。

國內著名儲存廠商江波龍董事長蔡華波還在 2024 中國快閃記憶體市場峰會上表示:

江波龍要從儲存模組廠向半導體品牌公司做轉型,經營模式從原有的價差模式向服務模式轉型。

AI 硬體元年,終端吞噬儲存晶片

都說 2024 年是 AI 硬體元年,其實並不誇張。不只是很多人都聽過的 AI 手機、AI PC,還有大量硬體產品,包括智慧眼鏡、電視乃至產品形態更新奇的 AI 原生終端,都在 2024 年集體亮相。

儘管很多產品在擁抱 AI 的過程中含有不少「水分」,比如可能只是接入了類 ChatGPT 的生成式 AI 聊天機器人,或者只是引入雲端大模型的能力。但從「AI 消除」到「AI 通話/閱讀摘要」,我們也要承認,基於背後的大模型,生成式 AI 的確開始改變我們的數字體驗。

從左到右依次為 vivo、OPPO、小米、華為,圖/雷科技

同時,不管是手機仍是 PC 廠商都認同端側大模型的勢在必行,只有結合端側和雲端大模型,計算終端的體驗才能發生革命性的演變。但與此相對的是,端側算力和儲存配置也變得前所未有地重要。

君不見,江波龍上個月就宣佈將與西部資料「加強合作關係,積極探索並共同支援下一代基於人工智慧的移動終端儲存和應用的市場機遇。」更具體地說,江波龍要與西部資料聯手面向手機市場提供「領先的定製化嵌入式儲存解決方案」——也就是快閃記憶體,對應到手機上就是儲存空間。

不僅如此,從財報公佈的資料來看,截止 3 月 31 日,江波龍的存貨賬面金額猛然上升至 76 億元,同比增長了 28%。按照江波龍的說法,存貨增長主要是因為戰略備貨增加。但顯然,更根本的原因是江波龍看好大模型在手機和 PC 等主要計算終端上的落地,必然需要更大的儲存配置。

江波龍董事長蔡華波,圖/中國快閃記憶體市場峰會

當然也不只是江波龍,前文提到的 SK 海力士以及三星都在向手機、PC 市場提供更大甚至更高頻寬的記憶體,還計劃參考 HBM,在 LPDDR 基礎上引入新的堆疊和封裝方式。

從資料中心到計算終端,這一輪席捲全球的 AI 浪潮不僅在助推儲存晶片行業走出寒冬,也在將行業引向一個全新的週期。

寫在最後

如果你相信大模型一定是未來,一定會走進千行百業,走進千家萬戶,那毫無疑問的是,儲存晶片也一定是未來。

說到底,作為推動 AI 進化的三個核心要素之一,隨著 AI 的逐步落地和普及,資料一定需要更大、更快的記憶體和快閃記憶體,也需要更適合 AI 時代的儲存解決方案。

這是挑戰,也是機遇。

儘管 SK 海力士、三星、美光三大儲存晶片巨頭在技術、資本、人才上的優勢不問可知,也幾乎壟斷了 HBM 供應。但對於包括江波龍在內的國產儲存廠商來說,面向 AI 需求的儲存解決方案依然是一個全新的領域,不管在個人移動終端上,仍是在企業級市場上。

同時,這裡也孕育了全新的可能。

4月25日-5月4日,北京國際汽車展覽會(北京車展)正在火熱進行。本屆車展以“新時代新汽車”為主題,是“汽車從電動化走向智慧化”的風向標。

雷科技旗下“關注電動車,更懂智慧化”的賬號電車通已派出豪華報道團,正在北京車展現場,進行一線專業報道,歡迎關注“電車通”獲取一手專業現場報道。

就在本週,全球儲存晶片巨頭 SK 海力士宣佈了最新一輪超過 1000 億元人民幣的投資,計劃用於擴大包括 HBM(高頻寬記憶體)在內的下一代 DRAM 的產能。

一點也不意外。

過去一年半,從 ChatGPT 到 Sora 一次又一次重新整理了人們對於人工智慧的認知。而且從目前來看,Claude 3 的震撼釋出,GPT-5 流出的資訊,似乎說明大語言模型(以下簡稱「大模型」)的智力湧現沒有絲毫放緩的跡象。

這讓 GPU「採購戰爭」變得愈演愈烈,連帶著臺積電的 CoWos 以及 HBM 產能也成為了絕對意義的「搶手貨」。但大模型在「爭奪」的其實不只是 HBM。

隨著手機、PC 等計算終端開始積極引入大模型,甚至出現了一系列基於大模型打造的 AI 原生終端,消費電子產品對於 DRAM(記憶體)、NAND(快閃記憶體)的需求也在變多、變大。

從 GPT-3.5 到 Llama 3,大模型要繼續帶飛儲存晶片

當地時間 4 月 18 日,Meta 釋出了最新的開源大模型 Llama 3,再次奪回了開源大模型的「王座」。但值得注意的是,Llama 3 的強大很大程度上離不開 15 萬億 Token 的訓練資料,這不僅是小公司難以企及的規模,甚至比谷歌之前開源的 Gemma 大模型:

還多出一倍不止。

圖/ Meta

從 GPT-3.5 到 Llama 3,時至今日,大模型的智力湧現依然依託於 Scaling laws(OpenAI 提出)指導下的大力出奇跡,對算力和資料有著近乎沒有上限的需求。這直接孕育了海量的 GPU 需求,也帶動了 HBM 的需求。

根據國外研究機構的拆解,英偉達力推的 H100 NVL 版本配備了 12 個 16GB HBM 堆疊,而單顆 16GB HBM 堆疊,成本就高達 240 美元。也就是說,僅僅 HBM 的成本就逼近 3000 美元,毫無疑問超過了製造和封裝,是 H100 成本中最貴的一項。

即便如此,SK 海力士、美光 2024 年的 HBM 產能,也早被英偉達、AMD、英特爾、谷歌、微軟等半導體廠商預訂一空。

上一篇:朝鮮姑娘遠嫁... 下一篇:多項晶片領域...
猜你喜歡
熱門閱讀
同類推薦