清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

首頁 > 科技

清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

來源:寵物養成 釋出時間:2024-03-25 22:53

清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

文/夏賓、王立廣

中國發展高層論壇2024年年會3月24日至25日召開,年會主題為“持續發展的中國”。在人工智慧發展與治理專題研討會上,清華大學智慧產業研究院院長、中國工程院院士張亞勤總結了當前AI發展趨勢,並就風險治理給出看法和建議。

針對現在的AI浪潮,張亞勤總結了大模型發展的六大趨勢:

一是多模態、多尺度、跨模態新的智慧。

二是架構突破。未來五年內AI架構需要有重大突破,當前的Transformer模型雖然強大,但效率低下,在推理、訓練方面需要多個數量級的改善。技術正在發展,未來可能出現新的架構模式。

三是智慧邊緣化。智慧技術正在向邊緣裝置轉移,如智慧手機和AI PC等。

四是自主智慧。它可以定義任務、規劃路徑,自我升級、自我編碼,做到完全自主,但也會帶來風險。

五是走向物理世界。現在的智慧大部分是資訊式智慧,未來大模型將走向物理世界,和無人機、低空經濟、機器人等連線起來。

六是生物智慧,即大模型與大腦和生物連線。

張亞勤表示,Sora能量很大,但才剛剛開始。未來5年會看到相關技術在各個領域大規模應用,會帶來很多風險。一是資訊世界的風險,比如錯誤、虛假的資訊。二是大模型裡獨有的幻覺,當資訊智慧延伸到物理智慧、生物智慧,當生物體、腦機介面開始被應用,這時風險會呈規模化。三是大模型連線到經濟體系、金融體系後,一旦被壞人所利用,會產生風險。

具體怎樣防範人工智慧帶來的風險?張亞勤提出了五個建議。

一是標識AI產物,將數字人等AI產物打上標識,明確其是AI產生的。

二是建立對映和註冊機制。機器人本身是一個從屬體,不是主體,必須要對映到主體,即一個公司或一個法定實體。如果機器人犯了錯誤,一定要能夠追溯是哪個人或者機構的責任。

三是建立分級體制。無人駕駛汽車有L0到L5六個等級,大模型也應該有不同分級。對於一般規模的模型監管可以少一點;對於萬億級引數的前沿大模型,尤其應用到物理世界、金融系統、生物系統的,監管要多一些。

四是投入研究經費。我呼籲把10%的經費投入大模型風險研究中去,這個研究不僅是政策研究,還有很多演算法、技術的研究。政策制定者、科學家、技術從業者、企業家,都要參與進來,一邊發展、一邊治理。

五是制定紅線。人工智慧發展到了大模型,一定不要跨越紅線。紅線在不同時間可能會不一樣,但我們需要這條紅線,需要全球一起合作。

清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

文/夏賓、王立廣

中國發展高層論壇2024年年會3月24日至25日召開,年會主題為“持續發展的中國”。在人工智慧發展與治理專題研討會上,清華大學智慧產業研究院院長、中國工程院院士張亞勤總結了當前AI發展趨勢,並就風險治理給出看法和建議。

針對現在的AI浪潮,張亞勤總結了大模型發展的六大趨勢:

一是多模態、多尺度、跨模態新的智慧。

二是架構突破。未來五年內AI架構需要有重大突破,當前的Transformer模型雖然強大,但效率低下,在推理、訓練方面需要多個數量級的改善。技術正在發展,未來可能出現新的架構模式。

三是智慧邊緣化。智慧技術正在向邊緣裝置轉移,如智慧手機和AI PC等。

四是自主智慧。它可以定義任務、規劃路徑,自我升級、自我編碼,做到完全自主,但也會帶來風險。

五是走向物理世界。現在的智慧大部分是資訊式智慧,未來大模型將走向物理世界,和無人機、低空經濟、機器人等連線起來。

六是生物智慧,即大模型與大腦和生物連線。

張亞勤表示,Sora能量很大,但才剛剛開始。未來5年會看到相關技術在各個領域大規模應用,會帶來很多風險。一是資訊世界的風險,比如錯誤、虛假的資訊。二是大模型裡獨有的幻覺,當資訊智慧延伸到物理智慧、生物智慧,當生物體、腦機介面開始被應用,這時風險會呈規模化。三是大模型連線到經濟體系、金融體系後,一旦被壞人所利用,會產生風險。

清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

文/夏賓、王立廣

中國發展高層論壇2024年年會3月24日至25日召開,年會主題為“持續發展的中國”。在人工智慧發展與治理專題研討會上,清華大學智慧產業研究院院長、中國工程院院士張亞勤總結了當前AI發展趨勢,並就風險治理給出看法和建議。

針對現在的AI浪潮,張亞勤總結了大模型發展的六大趨勢:

一是多模態、多尺度、跨模態新的智慧。

二是架構突破。未來五年內AI架構需要有重大突破,當前的Transformer模型雖然強大,但效率低下,在推理、訓練方面需要多個數量級的改善。技術正在發展,未來可能出現新的架構模式。

三是智慧邊緣化。智慧技術正在向邊緣裝置轉移,如智慧手機和AI PC等。

四是自主智慧。它可以定義任務、規劃路徑,自我升級、自我編碼,做到完全自主,但也會帶來風險。

五是走向物理世界。現在的智慧大部分是資訊式智慧,未來大模型將走向物理世界,和無人機、低空經濟、機器人等連線起來。

六是生物智慧,即大模型與大腦和生物連線。

張亞勤表示,Sora能量很大,但才剛剛開始。未來5年會看到相關技術在各個領域大規模應用,會帶來很多風險。一是資訊世界的風險,比如錯誤、虛假的資訊。二是大模型裡獨有的幻覺,當資訊智慧延伸到物理智慧、生物智慧,當生物體、腦機介面開始被應用,這時風險會呈規模化。三是大模型連線到經濟體系、金融體系後,一旦被壞人所利用,會產生風險。

清華大學張亞勤:大模型應分級監管 一邊發展一邊治理

文/夏賓、王立廣

中國發展高層論壇2024年年會3月24日至25日召開,年會主題為“持續發展的中國”。在人工智慧發展與治理專題研討會上,清華大學智慧產業研究院院長、中國工程院院士張亞勤總結了當前AI發展趨勢,並就風險治理給出看法和建議。

針對現在的AI浪潮,張亞勤總結了大模型發展的六大趨勢:

一是多模態、多尺度、跨模態新的智慧。

二是架構突破。未來五年內AI架構需要有重大突破,當前的Transformer模型雖然強大,但效率低下,在推理、訓練方面需要多個數量級的改善。技術正在發展,未來可能出現新的架構模式。

三是智慧邊緣化。智慧技術正在向邊緣裝置轉移,如智慧手機和AI PC等。

四是自主智慧。它可以定義任務、規劃路徑,自我升級、自我編碼,做到完全自主,但也會帶來風險。

五是走向物理世界。現在的智慧大部分是資訊式智慧,未來大模型將走向物理世界,和無人機、低空經濟、機器人等連線起來。

六是生物智慧,即大模型與大腦和生物連線。

張亞勤表示,Sora能量很大,但才剛剛開始。未來5年會看到相關技術在各個領域大規模應用,會帶來很多風險。一是資訊世界的風險,比如錯誤、虛假的資訊。二是大模型裡獨有的幻覺,當資訊智慧延伸到物理智慧、生物智慧,當生物體、腦機介面開始被應用,這時風險會呈規模化。三是大模型連線到經濟體系、金融體系後,一旦被壞人所利用,會產生風險。

上一篇:歐盟就蘋果、... 下一篇:缺碘導致的甲...
猜你喜歡
熱門閱讀
同類推薦