英特爾首發大型神經擬態系統Hala Point,推進“綠色AI”發展

首頁 > 科技

英特爾首發大型神經擬態系統Hala Point,推進“綠色AI”發展

來源:焦糖老乾媽 釋出時間:2024-04-20 17:43

中關村線上訊息,近日英特爾釋出了代號為Hala Point的大型神經擬態系統。Hala Point基於英特爾Loihi 2神經擬態處理器打造而成,旨在支援類腦AI領域的前沿研究,解決AI目前在效率和可持續性等方面的挑戰。在英特爾第一代大規模研究系統Pohoiki Springs的基礎上,Hala Point改進了架構,將神經元容量提高了10倍以上,效能提高了12倍。

英特爾研究院神經擬態計算實驗室總監Mike Davies 表示:“目前,AI模型的算力成本正在持續上升。行業需要能夠規模化的全新計算方法。為此,英特爾開發了Hala Point,將高效率的深度學習和新穎的類腦持續學習、最佳化能力結合起來。我們希望使用Hala Point的研究能夠在大規模AI技術的效率和適應性上取得突破。”

Hala Point在主流AI工作負載上展現了出色的計算效率。研究顯示,在執行傳統深度神經網路時,該系統能夠每秒完成多達2萬萬億次(20 petaops)運算,8位運算能效比達到了15TOPS/W,相當於甚至超過了基於GPU和CPU的架構。HalaPoint有望推動多領域AI應用的實時持續學習,如科學研究、工程、物流、智慧城市基礎設施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個旨在改進未來商用系統的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新資料中持續學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

深度學習模型的規模正在不斷擴大,引數目可達萬億級。這一趨勢意味著AI技術在可持續性上面臨著嚴峻的挑戰,有必要探索硬體架構底層的創新。神經擬態計算是一種借鑑神經科學研究的全新計算方法,透過存算一體和高細粒度的平行計算,大幅減少了資料傳輸。在本月舉行的聲學、語音與訊號處理國際會議(ICASSP)上,英特爾發表的研究表明,Loihi 2在新興的小規模邊緣工作負載上實現了效率、速度和適應性數量級的提升。

Hala Point在其前身Pohoiki Springs的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的效能和效率,尤其是那些用於處理影片、語音和無線通訊等實時工作負載的模型。例如,在今年的世界行動通訊大會(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將Loihi 2神經擬態處理器應用於電信基礎設施效率的最佳化。

Hala Point基於神經擬態處理器Loihi 2打造,Loihi 2應用了眾多類腦計算原理,如非同步(asynchronous)、基於事件的脈衝神經網路(SNNs)、存算一體,以及不斷變化的稀疏連線,以實現能效比和效能的數量級提升。神經元之間能夠直接通訊,而非透過記憶體通訊,因此能降低整體功耗。

Hala Point系統由封裝在一個六機架的資料中心機箱中的1152個Loihi 2處理器(採用Intel 4製程節點)組成,大小相當於一個微波爐。該系統支援分佈在140544個神經形態處理核心上的多達11.5億個神經元和1280億個突觸,最大功耗僅為2600瓦。Hala Point還包括2300多個嵌入式x86處理器,用於輔助計算。

在大規模的並行結構中,Hala Point集成了處理器、記憶體和通訊通道,記憶體頻寬達每秒16PB,核心間的通訊頻寬達每秒3.5PB,晶片間的通訊頻寬達每秒5TB。該系統每秒可處理超過380萬億次8位突觸運算和超過240萬億次神經元運算。

在用於仿生脈衝神經網路模型時,Hala Point能夠以比人腦快20倍的實時速度執行其全部11.5億個神經元,在執行神經元數量較低的情況下,速度可比人腦快200倍。雖然Hala Point並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或捲尾猴的大腦皮層。

在執行AI推理負載和處理最佳化問題時,Loihi 2神經擬態晶片系統的速度比常規CPU和GPU架構快50倍,同時能耗降低了100倍。早期研究結果表明,透過利用稀疏性高達10比1的稀疏連線(sparse connectivity)和事件驅動的活動,Hala Point執行深度神經網路的能效比高達15TOPS/W,同時無需對輸入資料進行批處理。批處理是一種常用於GPU的最佳化方法,會大幅增加實時資料(如來自攝像頭的影片)處理的延遲。儘管仍處於研究階段,但未來的神經擬態大語言模型將不再需要定期在不斷增長的資料集上再訓練,從而節約數千兆瓦時的能源。

世界各地領先的學術團體、研究機構和公司共同組成了英特爾神經擬態研究社群(INRC),成員總數超過200個。攜手英特爾神經擬態研究社群,英特爾正致力於開拓類腦AI前沿技術,以將其從技術原型轉化為業界領先的產品。

(8666918)

中關村線上訊息,近日英特爾釋出了代號為Hala Point的大型神經擬態系統。Hala Point基於英特爾Loihi 2神經擬態處理器打造而成,旨在支援類腦AI領域的前沿研究,解決AI目前在效率和可持續性等方面的挑戰。在英特爾第一代大規模研究系統Pohoiki Springs的基礎上,Hala Point改進了架構,將神經元容量提高了10倍以上,效能提高了12倍。

英特爾研究院神經擬態計算實驗室總監Mike Davies 表示:“目前,AI模型的算力成本正在持續上升。行業需要能夠規模化的全新計算方法。為此,英特爾開發了Hala Point,將高效率的深度學習和新穎的類腦持續學習、最佳化能力結合起來。我們希望使用Hala Point的研究能夠在大規模AI技術的效率和適應性上取得突破。”

Hala Point在主流AI工作負載上展現了出色的計算效率。研究顯示,在執行傳統深度神經網路時,該系統能夠每秒完成多達2萬萬億次(20 petaops)運算,8位運算能效比達到了15TOPS/W,相當於甚至超過了基於GPU和CPU的架構。HalaPoint有望推動多領域AI應用的實時持續學習,如科學研究、工程、物流、智慧城市基礎設施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個旨在改進未來商用系統的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新資料中持續學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

深度學習模型的規模正在不斷擴大,引數目可達萬億級。這一趨勢意味著AI技術在可持續性上面臨著嚴峻的挑戰,有必要探索硬體架構底層的創新。神經擬態計算是一種借鑑神經科學研究的全新計算方法,透過存算一體和高細粒度的平行計算,大幅減少了資料傳輸。在本月舉行的聲學、語音與訊號處理國際會議(ICASSP)上,英特爾發表的研究表明,Loihi 2在新興的小規模邊緣工作負載上實現了效率、速度和適應性數量級的提升。

Hala Point在其前身Pohoiki Springs的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的效能和效率,尤其是那些用於處理影片、語音和無線通訊等實時工作負載的模型。例如,在今年的世界行動通訊大會(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將Loihi 2神經擬態處理器應用於電信基礎設施效率的最佳化。

Hala Point基於神經擬態處理器Loihi 2打造,Loihi 2應用了眾多類腦計算原理,如非同步(asynchronous)、基於事件的脈衝神經網路(SNNs)、存算一體,以及不斷變化的稀疏連線,以實現能效比和效能的數量級提升。神經元之間能夠直接通訊,而非透過記憶體通訊,因此能降低整體功耗。

Hala Point系統由封裝在一個六機架的資料中心機箱中的1152個Loihi 2處理器(採用Intel 4製程節點)組成,大小相當於一個微波爐。該系統支援分佈在140544個神經形態處理核心上的多達11.5億個神經元和1280億個突觸,最大功耗僅為2600瓦。Hala Point還包括2300多個嵌入式x86處理器,用於輔助計算。

在大規模的並行結構中,Hala Point集成了處理器、記憶體和通訊通道,記憶體頻寬達每秒16PB,核心間的通訊頻寬達每秒3.5PB,晶片間的通訊頻寬達每秒5TB。該系統每秒可處理超過380萬億次8位突觸運算和超過240萬億次神經元運算。

在用於仿生脈衝神經網路模型時,Hala Point能夠以比人腦快20倍的實時速度執行其全部11.5億個神經元,在執行神經元數量較低的情況下,速度可比人腦快200倍。雖然Hala Point並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或捲尾猴的大腦皮層。

中關村線上訊息,近日英特爾釋出了代號為Hala Point的大型神經擬態系統。Hala Point基於英特爾Loihi 2神經擬態處理器打造而成,旨在支援類腦AI領域的前沿研究,解決AI目前在效率和可持續性等方面的挑戰。在英特爾第一代大規模研究系統Pohoiki Springs的基礎上,Hala Point改進了架構,將神經元容量提高了10倍以上,效能提高了12倍。

英特爾研究院神經擬態計算實驗室總監Mike Davies 表示:“目前,AI模型的算力成本正在持續上升。行業需要能夠規模化的全新計算方法。為此,英特爾開發了Hala Point,將高效率的深度學習和新穎的類腦持續學習、最佳化能力結合起來。我們希望使用Hala Point的研究能夠在大規模AI技術的效率和適應性上取得突破。”

Hala Point在主流AI工作負載上展現了出色的計算效率。研究顯示,在執行傳統深度神經網路時,該系統能夠每秒完成多達2萬萬億次(20 petaops)運算,8位運算能效比達到了15TOPS/W,相當於甚至超過了基於GPU和CPU的架構。HalaPoint有望推動多領域AI應用的實時持續學習,如科學研究、工程、物流、智慧城市基礎設施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個旨在改進未來商用系統的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新資料中持續學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

深度學習模型的規模正在不斷擴大,引數目可達萬億級。這一趨勢意味著AI技術在可持續性上面臨著嚴峻的挑戰,有必要探索硬體架構底層的創新。神經擬態計算是一種借鑑神經科學研究的全新計算方法,透過存算一體和高細粒度的平行計算,大幅減少了資料傳輸。在本月舉行的聲學、語音與訊號處理國際會議(ICASSP)上,英特爾發表的研究表明,Loihi 2在新興的小規模邊緣工作負載上實現了效率、速度和適應性數量級的提升。

Hala Point在其前身Pohoiki Springs的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的效能和效率,尤其是那些用於處理影片、語音和無線通訊等實時工作負載的模型。例如,在今年的世界行動通訊大會(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將Loihi 2神經擬態處理器應用於電信基礎設施效率的最佳化。

Hala Point基於神經擬態處理器Loihi 2打造,Loihi 2應用了眾多類腦計算原理,如非同步(asynchronous)、基於事件的脈衝神經網路(SNNs)、存算一體,以及不斷變化的稀疏連線,以實現能效比和效能的數量級提升。神經元之間能夠直接通訊,而非透過記憶體通訊,因此能降低整體功耗。

Hala Point系統由封裝在一個六機架的資料中心機箱中的1152個Loihi 2處理器(採用Intel 4製程節點)組成,大小相當於一個微波爐。該系統支援分佈在140544個神經形態處理核心上的多達11.5億個神經元和1280億個突觸,最大功耗僅為2600瓦。Hala Point還包括2300多個嵌入式x86處理器,用於輔助計算。

在大規模的並行結構中,Hala Point集成了處理器、記憶體和通訊通道,記憶體頻寬達每秒16PB,核心間的通訊頻寬達每秒3.5PB,晶片間的通訊頻寬達每秒5TB。該系統每秒可處理超過380萬億次8位突觸運算和超過240萬億次神經元運算。

在用於仿生脈衝神經網路模型時,Hala Point能夠以比人腦快20倍的實時速度執行其全部11.5億個神經元,在執行神經元數量較低的情況下,速度可比人腦快200倍。雖然Hala Point並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或捲尾猴的大腦皮層。

中關村線上訊息,近日英特爾釋出了代號為Hala Point的大型神經擬態系統。Hala Point基於英特爾Loihi 2神經擬態處理器打造而成,旨在支援類腦AI領域的前沿研究,解決AI目前在效率和可持續性等方面的挑戰。在英特爾第一代大規模研究系統Pohoiki Springs的基礎上,Hala Point改進了架構,將神經元容量提高了10倍以上,效能提高了12倍。

英特爾研究院神經擬態計算實驗室總監Mike Davies 表示:“目前,AI模型的算力成本正在持續上升。行業需要能夠規模化的全新計算方法。為此,英特爾開發了Hala Point,將高效率的深度學習和新穎的類腦持續學習、最佳化能力結合起來。我們希望使用Hala Point的研究能夠在大規模AI技術的效率和適應性上取得突破。”

Hala Point在主流AI工作負載上展現了出色的計算效率。研究顯示,在執行傳統深度神經網路時,該系統能夠每秒完成多達2萬萬億次(20 petaops)運算,8位運算能效比達到了15TOPS/W,相當於甚至超過了基於GPU和CPU的架構。HalaPoint有望推動多領域AI應用的實時持續學習,如科學研究、工程、物流、智慧城市基礎設施管理、大語言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一個旨在改進未來商用系統的研究原型。英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新資料中持續學習的能力,從而有望在AI廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

深度學習模型的規模正在不斷擴大,引數目可達萬億級。這一趨勢意味著AI技術在可持續性上面臨著嚴峻的挑戰,有必要探索硬體架構底層的創新。神經擬態計算是一種借鑑神經科學研究的全新計算方法,透過存算一體和高細粒度的平行計算,大幅減少了資料傳輸。在本月舉行的聲學、語音與訊號處理國際會議(ICASSP)上,英特爾發表的研究表明,Loihi 2在新興的小規模邊緣工作負載上實現了效率、速度和適應性數量級的提升。

Hala Point在其前身Pohoiki Springs的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的效能和效率,尤其是那些用於處理影片、語音和無線通訊等實時工作負載的模型。例如,在今年的世界行動通訊大會(MWC)上,愛立信研究院(Ericsson Research)就展示了其如何將Loihi 2神經擬態處理器應用於電信基礎設施效率的最佳化。

Hala Point基於神經擬態處理器Loihi 2打造,Loihi 2應用了眾多類腦計算原理,如非同步(asynchronous)、基於事件的脈衝神經網路(SNNs)、存算一體,以及不斷變化的稀疏連線,以實現能效比和效能的數量級提升。神經元之間能夠直接通訊,而非透過記憶體通訊,因此能降低整體功耗。

Hala Point系統由封裝在一個六機架的資料中心機箱中的1152個Loihi 2處理器(採用Intel 4製程節點)組成,大小相當於一個微波爐。該系統支援分佈在140544個神經形態處理核心上的多達11.5億個神經元和1280億個突觸,最大功耗僅為2600瓦。Hala Point還包括2300多個嵌入式x86處理器,用於輔助計算。

在大規模的並行結構中,Hala Point集成了處理器、記憶體和通訊通道,記憶體頻寬達每秒16PB,核心間的通訊頻寬達每秒3.5PB,晶片間的通訊頻寬達每秒5TB。該系統每秒可處理超過380萬億次8位突觸運算和超過240萬億次神經元運算。

在用於仿生脈衝神經網路模型時,Hala Point能夠以比人腦快20倍的實時速度執行其全部11.5億個神經元,在執行神經元數量較低的情況下,速度可比人腦快200倍。雖然Hala Point並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或捲尾猴的大腦皮層。

上一篇:開通花唄後的... 下一篇:暗之月面 Kim...
猜你喜歡
熱門閱讀
同類推薦