福布斯專訪“現代人工智慧之父”:他畢生的工作不會帶來毀滅

首頁 > 科技

福布斯專訪“現代人工智慧之父”:他畢生的工作不會帶來毀滅

來源:幽默段子 釋出時間:2023-05-26 08:03

當技術與貿易之間產生巨大矛盾時,Juergen Schmidhuber才會被公家惦記起來。從四月那封暫停人工智慧技術研發的公開信,到本月初為了能更“自由”的談論AI風險而離開谷歌的Geoffrey Hinton。本世紀最具想象力也最具爭議的技術終於站在了最後的十字路口。

最近兩年,Juergen Schmidhuber的風頭一度被獲得圖靈獎的人工智慧三巨頭(Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun)所蓋過,以致於大眾無意識間將這位人工智慧思想家與技術前驅放到了一個相對低估的位置。

要理解他錯失圖靈獎的原因,或許南京大學人工智慧學院院長周志華教授的評論值得參考,他說:“要論對深度學習的貢獻,Hinton 無疑居首,LeCun 和 Schmidhuber 貢獻都很大。但HLB總捆綁在一起,Schmidhuber 顯然不在那個小團體裡。而獲獎需有提名有投票,人緣也重要。不外不要緊,有LSTM這樣教科書級的貢獻,他足以淡定。”

與大部分傾向於AI威脅論的學術權威與企業家不同,Juergen Schmidhuber是一個十足的技術樂觀主義,他也深諳科技、商業化與人道之間的規律。他和他的學生Sepp Hochreiter、Felix Gers、Alex Graves、Daan Wierstra等人一起發表了長短期記憶(LSTM)的架構和練習演算法,這種型別的RNN被廣泛用於自然語言處理、語音識別、影片遊戲、機器人和其他應用。而LSTM已成為20世紀被引用次數最多的神經網路,也被稱作是“最具商業價值的人工智慧成就”。

而更早在 1990年,Schmidhuber明確了 無監視天生對抗神經網路,這些神經網路在極小極大博弈中相互對抗 ,以實現人工好奇心。1991年,他又引入了 神經快速權重程式 ,形式上相當於現在所謂的具有線性化自我關注的轉換器(Transformer)。 今天,這種轉換器正在驅動著聞名的ChatGPT。 2015年,他的團隊推出了高速神經網路(Highway Neural Networks),比以前的網路深度多出許多倍。

在Schmidhuber的職業生涯中,因其開創性的工作獲得了各種獎項和榮譽。2013年,他被授予“赫爾姆霍茲獎”,旨在表彰他在機器學習領域的重大貢獻。2016年,他因“對深度學習和神經網路的開創性貢獻”被授予IEEE神經網路先鋒獎。同時需要留意的是,在Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun還沒有獲得圖靈獎之前,Juergen Schmidhuber就已經被稱作是“現代人工智慧之父”了。

他的聲音常常站在“主流”的對立面,但常常是準確的。Schmidhuber在今年早些時候接受了福布斯中國的專訪,而又在近期回答了福布斯撰稿人Hessie Jones關於人工智慧擔憂的一系列題目。我們將相關談話內容收拾整頓如下:

福布斯中國:深度學習和神經網路等技術在ChatGPT泛起後是否已經預示著發生了本質的變化?

 Schmidhuber:實際上沒有,由於ChatGPT本質上是一個學習神經網路,其基礎是在上個千年奠定的,然而,因為不斷的硬體加速,現在可以構建比以前更大的神經網路,並向它們輸入整個網際網路,從而學習猜測部門文字(例如"聊天")和影象。 ChatGPT的智慧主要是這些規模巨大化的結果。

ChatGPT所基於的神經網路是所謂的"注意力轉換器"。我對此感到高興,由於30多年前,我發表了現在稱為"具有線性自注意力的轉換器"的論文(J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation, 4(1):131-139, 1992)。它們等效於我所說的神經快速權重程式設計器(除了歸一化),分離儲存和控制;注意力術語是在ICANN 1993年引入的。

福布斯中國: 你去過中國,那麼你以為中國的人工智慧技術發展如何?中國應該如何遇上像美國這樣的技術進步前輩國家?

 Schmidhuber:固然深度學習的大部分基本演算法是由歐洲人發明的,但美國的大型公司在商業化這些演算法方面做得更好。我以為中國的公司並不落後。這些基本方法已經是公然開源的。你需要的是快速的計算機,大量的資料和工程人才。我多次訪問中國,知道中國擁有這一切,並且已經是人工智慧發表論文最多的國家。所以我對中國的人工智慧非常樂觀!

福布斯中國:目前,大部分的計算能力和資料都把握在一些行業巨頭手中。中小微企業和初創公司如何突破障礙?

 Schmidhuber:40年前,我熟悉一個富人。他有一輛保時捷。但最令人驚訝的是:保時捷裡有一部行動電話。因此,透過衛星,他可以呼喚其他擁有類似保時捷的人。

今天,每個人都擁有一部便宜的智慧手機,它在很多方面比保時捷裡的東西更好。而且,跟著人工智慧的發展,情況也將如斯。請記住:每5年,人工智慧的價格將便宜10倍。每個人都將擁有大量的便宜的人工智慧為他們工作。(這是一個比摩爾定律更古老的規律,從齒輪的發現至今已經存在近千年了。)

實際上,我公司NNAISENSE的座右銘就是:“人工智慧面向所有人”!我們的人工智慧已經讓人類的生命更長、更健康、更輕鬆、更幸福。人工智慧不會被少數大公司控制。不,每個人都將擁有便宜但強盛的人工智慧,以多種方式改善他/她的生活。

福布斯中國:您以為人工智慧和深度學習領域對於企業家和初創企業有哪些機遇?

 Schmidhuber:我可以從我們自己創立的企業NNAISENSE的角度來談。它的發音類似於“nascence”(英語中的“birth”),但拼寫方式不同,由於它是基於通用神經網路人工智慧而誕生。今天,大多數人工智慧的利潤都在虛擬世界中,用於營銷和出售廣告——這就是太平洋沿岸的大型平臺公司的做法:阿里巴巴、亞馬遜、Facebook、騰訊、谷歌、百度等等。但是,營銷只佔世界經濟的一小部分。更大的部門也將被人工智慧侵入,就像片子中一樣。像我們這樣的初創企業有許多機會。

福布斯中國:您以為人工智慧取代人類工作的趨勢如何,考慮到ChatGPT所帶來的驚人體驗?

 Schmidhuber:有了ChatGPT,使用者可以忽然間像與一個非常博學的人交談一樣,該人好像對所有主題和題目都有精心構思的謎底。即使是像“用這個作家的風格寫一篇關於這個方面的文章摘要”的複雜任務,也常常能夠很快得到解決,以至於後來只需要進行少量編纂。很多辦公桌任務將透過這樣智慧的人工智慧夥伴得到極大的便利。

今天哪種型別的人工智慧表現得相稱不錯?謎底是那些為桌面工作者服務的人工智慧。例如回答法律考試題目、總結公司檔案、擊敗您在虛擬世界中的對手(例如影片遊戲)或者跟蹤您在網際網路上的步履並向您提供量身定製的廣告。

為現實的物理世界構建人工智慧要難題得多。固然早就有超級棋手和模式識別器,但沒有由人工智慧驅動的機器人能像一些小男孩那樣熟練地踢足球。相稱多的桌面工作者比手藝人賺得更多,但現在事實證明:手藝人很難被人工智慧取代。

福布斯中國:您如何看待AI在道德、道義、隱私和安全方面所面臨的挑戰?

 Schmidhuber:這將是一場AI之間的軍備競賽,一些AI會為某些道德和道義尺度、隱私和安全而戰,而其他一些則不那麼仁慈。

福布斯中國:目前的AI發展是否符合您的猜測?深度學習將來會如何發展?

 Schmidhuber:自15歲左右起,我的主要目標就是構建一個比我更智慧的自我改進的人工智慧,然後退休。目前的發展符合我的猜測。

請記住,自1941年以來,每5年,計算機的價格便宜了10倍。這種指數級趨勢的樸素外推猜測,21世紀將會看到廉價計算機,其原始計算能力將達到所有人類大腦的千倍之多。很快將會有數百萬、數十億、數萬億這樣的裝置。

以下為福布斯撰稿人Hessie Jones針對人工智慧擔憂的一系列題目和Schmidhuber的對話內容,為保證文字清楚連貫,以下經由編輯整理。

Jones:你已經簽署了關於AI武器的警告信。但你沒有在最近發表的《暫停人工智慧大模型實驗: 一封公開信》上簽名,有什麼原因嗎?

 Schmidhuber:我已經意識到,很多在公開場合對人工智慧的危險提出警告的人只是在尋求宣傳。我不以為最新的這封信會產生任何重大影響,由於很多人工智慧研究職員、公司和政府將完全忽視它。

那封公開信裡多次使用了“我們”這個詞,指的是“我們所有人”,即人類。但正如我過去多次指出的那樣,世界上並不存在每個人都能認同的“我們”。問10個不同的人,你會聽到10種關於什麼是“好”的不同意見。其中一些觀點是完全不相容的。不要健忘很多人之間的巨大沖突。

信中還說,“假如這種暫停不能迅速到位,政府應該進行干涉干與。”題目是,不同的政府對什麼對自己好、什麼對別人好也有不同的看法。大國A會說,假如我們不這樣做,大國B就會做,也許是偷偷地做,以便獲得對我們的上風。大國C和大國D也是如斯。

Jones:每個人都承認這種對當前生成式人工智慧技術的驚駭。此外,OpenAI執行長Sam Altman本人也公然承認了這項技術的存在性威脅,並呼籲對人工智慧進行監管。從你的角度來看,AI是否對人類構成了存在性的威脅?

 Schmidhuber:人工智慧確實可以被武器化, 我也絕不懷疑會有各種各樣的人工智慧軍備競賽,但人工智慧並沒有引入一種新的存在性威脅。 來自人工智慧武器的威脅好像與來自核氫彈更古老的威脅比擬相形見絀,不值一提。 我們應該更害怕 半個世紀前的氫彈火箭技術。  1961年的沙皇炸彈(20世紀60年代初暗鬥期間蘇聯研製的一型氫彈)的破壞力幾乎是二戰中所有武器總和的15倍。  儘管自20世紀80年代以來各國已經進行了戲劇性的核裁軍, 但全世界仍舊有足夠的核彈頭在兩個小時內消滅人類文明,且不需要任何人工智慧的匡助。我更擔心的是古老的生存威脅,而不是相稱無害的人工智慧武器。

Jones:我意識到,固然你把人工智慧與核彈的威脅相提並論,但目前存在一種危險,即當前的技術可能被人類把握,並使他們能夠“終極”以一種非常精確的方式對群體中的個人造成進一步的傷害,好比有針對性的無人機攻擊。正如一些人指出的那樣,你給了人們一個他們以前從未有過的工具集,使壞人能夠比以前做更多的壞事,由於他們原來沒有這項技術。

 Schmidhuber:原則上,這些聽起來很可怕,但我們現有的法律足以應對這些由人工智慧驅動的新型武器。假如你用槍殺了人,你會進監獄,用無人機殺人也一樣。執法部分將更好地瞭解新的威脅和新的武器,並將用更好的技術來應對這些威脅。讓無人機從遠處瞄準目標,需要一些跟蹤和一些智慧來完成,這在傳統上是由純熟的人力來完成的,但對我來說,這好像只是傳統武器的改進版本,好比現在的槍,你知道的,它也只是比老式的槍支更智慧一點。

但原則上,所有這些都不是新的發展。幾個世紀以來,我們已經研發出了更好的武器和更致命的毒藥等等,執法部分也跟著時間的推移不斷發展他們的政策來應對這些威脅。所以,這並不是說我們忽然有了一種新的、比我們六十年來所擁有的更令人擔憂的生存威脅。大型核彈頭不需要花哨的面部識別來殺死一個人。不,它可以只是簡樸地摧毀一座擁有一千萬居民的城市。

Jones:隱含的生存威脅是人類對這項技術的控制程度。我們看到一些機會主義的早期案例,正如你所說,這些案例往往比積極的突破會得到更多的媒體關注。但你的意思是這一切都會平衡嗎?

 Schmidhuber:從歷史上看,我們有一個悠久的傳統,那就是技術的突破會導致武器的提高,既用於防備,也用於保護。從棍棒到石頭,從斧頭到炸藥,從大炮到火箭,再到現在的無人機,這對人類歷史產生了巨大的影響,但縱觀歷史,那些使用技術來達到自己目的的人也要面對同樣的技術,由於他們的對手也正在學習使用這種技術來對付他們。這種情況在幾千年的人類歷史上一直在重複,而且還會繼續下去。我不以為新的人工智慧軍備競賽會像老式的核彈頭那樣構成生死存亡的威脅。

你說了一些很重要的事情,有些人更喜歡談論這項技術的缺點,而不是它的好處,但這是誤導,由於95%的人工智慧研究和開發都是為了讓人們更快樂,促進人類的生活和健康。

Jones:讓我們來談談人工智慧研究中那些有益的、能夠從根本上改變目前的方法,並取得突破的進展吧。

 Schmidhuber:好的!例如,11年前,我們的團隊和我的博士後Dan Ciresan是第一個透過深度學習贏得醫學成像比賽的團隊。我們分析了女性乳腺細胞,目的是分辨無害細胞與癌前階段的細胞。通常,一個訓練有素的腫瘤學家需要很長時間才能做出這些決定。我們的團隊對癌症一竅不通,但卻能在大量此類資料上練習出一個人工神經網路,固然這個網路在開始時是非常愚蠢的。它的表現優於所有其他方法。今天,它不僅用於乳腺癌,還用於放射學和檢測動脈中的斑塊以及很多其他方面。  我們在過去30年裡開發的一些神經網路現在已經廣泛應用於數千種醫療保健應用,可以檢測糖尿病和新冠肺炎等疾病。這終極將滲透到所有醫療保健領域。這種型別的人工智慧的良好結果比利用人工智慧進行犯罪的吸引眼球的新方法重要得多。

Jones:應用是強化結果的產物。大規模的應用要麼讓我們相信人們被引入了歧途,要麼相反,技術對人們的生活產生了積極的影響。

 Schmidhuber:後者是更可能泛起的情況。我們面臨著巨大的貿易壓力,需要好的AI而不是壞的AI,由於公司想要賣給你東西,而你只會購買你以為對你有益的東西。所以在這種簡樸的貿易壓力下,你會對優秀的AI產生巨大的偏見,而不是糟糕的AI。然而,與改善人們生活的人工智慧紀錄片比擬,施瓦辛格片子中的世界末日場景更能吸引人們的留意。

Jones:我以為人們會被好故事所吸引——那些包含對手和鬥爭的故事,但終極都有圓滿的結局。這與你對人道的評價是一致的,以及歷史儘管有暴力和毀滅人道的傾向,但在某種程度上傾向於自我糾正。

 Schmidhuber:讓我們以一種技術為例,你們都知道——生成式對抗網路(GAN, Generative Adversarial Networks),它今天很輕易被用於假新聞和虛假資訊相關的應用。實際上,GAN發明的目的與今天的用途相差甚遠。

GANs這個名字是在2014年建立的,但我們在90年代初就已經有了基本的原則。30多年前,我稱它為人造的好奇心(Artificial Curiosity)。這是一個非常簡單的方法,它可以將創造力注入到小小的兩個網路系統中。這種創造性的人工智慧不只是試圖奴顏婢膝地模仿人類,相反,它正在創造自己的目標。讓我解釋一下:

現在你有兩個網路。一個網路正在產生輸出,可能是任何東西,任何步履。然後,第二個網路正在觀察這些步履,並試圖猜測這些步履的後果。一個動作可以移動一個機器人,然後再發生一些其他事情,而另一個網路只是試圖猜測會發生什麼。

現在,我們可以透過減少第二個網路的猜測誤差來實現人工好奇心,同時,這也是第一個網路的獎勵。第一個網路想使其獎勵最大化,因此它將發明一些步履,這些步履將導致第二個網路吃驚的情況,也就是那些它還沒有學會很好地猜測的情況。

在輸出假圖片的情況下,第一個網路將試圖天生質量足夠好的影象來欺騙第二個網路,而後者將試圖猜測環境的反應:影象是真的仍是假的?第二個系統試圖擁有更強的猜測能力而第一個網路將繼承在天生影象方面改進,使得第二個網路無法判定其真偽。因此,它們兩個系統互相爭鬥。第二個網路將繼承減少它的猜測誤差,而第一個網路將試圖使猜測系統的誤差最大化。

透過這種零和遊戲(Zero-sum Game),第一個網路在產生這些令人信服的假輸出方面變得越來越好,天生的圖片看起來幾乎是完全真實的。因此,一旦你有了梵高的一組有趣影象,你就可以利用他的風格天生新的影象,而梵高本人並沒有創作過這些藝術品。

Jones:讓我們來談談未來。你曾說過,“傳統的人類不會對在宇宙中傳播智慧方面施展重要作用”。

 Schmidhuber:首先讓我們從概念上區分兩類人工智慧。第一種型別的人工智慧是由人類指導的工具。它們被練習來做特定的事情,如正確檢測糖尿病或心臟病,並在其發生前預防疾病發生髮火。在這些情況下,人工智慧的目標是來自人類的。而更有趣的人工智慧正在設定自己的目標。他們正在發明自己的實驗並從中學習,他們的視野不斷擴大,終極他們成為現實世界中越來越普遍的題目解決者。他們不受父母的控制,他們學到的大部分東西是透過自我發明的實驗。

例如,一個機器人正在旋轉一個玩具,當它這樣做的時候,它可以透過攝像頭傳來的隨時間推移而變化的影片,開始學習這個影片的變化,並學習假如以某種方式旋轉玩具,它的三維性質將如何產生某些視覺變化。終極,它將學會重力如何工作,學會世界的物理學如何工作等等,就像一個小科學家一樣!

而我幾十年來一直猜測,未來這種人工智慧科學家的放大版將想要進一步擴大他們的視野,並終極去大多數物理資源所在的地方,以建立更大更多的人工智慧。當然,幾乎所有這些資源都在闊別地球的太空中,那裡對人類是不友好的,但對適當設計的人工智慧控制的機器人和自我複製的機器人工廠是友好的。因此,在這裡我們談論的不再是我們微小的生物圈;相反,我們談論的是大得多的宇宙其他部門。在幾百億年內,擁有好奇心的、會自我改進的人工智慧將以一種對人類來說不可行的方式在可見的宇宙中開展“殖民”。聽起來像科幻小說,但自20世紀70年代以來,我一直無法看到這種情景的公道替換方案,除非發生全球性的劫難,如全面的核戰爭,在它衝上雲霄之前阻止這種技術發展。■

福布斯中國獨家稿件,未經許可,請勿轉載

頭圖來源:蓋蒂圖片社‍‍‍‍‍‍‍‍

關注《福布斯》微信公家號

出色資訊永不錯過

長按圖片掃碼下載福布斯中文版APP

當技術與貿易之間產生巨大矛盾時,Juergen Schmidhuber才會被公家惦記起來。從四月那封暫停人工智慧技術研發的公開信,到本月初為了能更“自由”的談論AI風險而離開谷歌的Geoffrey Hinton。本世紀最具想象力也最具爭議的技術終於站在了最後的十字路口。

最近兩年,Juergen Schmidhuber的風頭一度被獲得圖靈獎的人工智慧三巨頭(Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun)所蓋過,以致於大眾無意識間將這位人工智慧思想家與技術前驅放到了一個相對低估的位置。

要理解他錯失圖靈獎的原因,或許南京大學人工智慧學院院長周志華教授的評論值得參考,他說:“要論對深度學習的貢獻,Hinton 無疑居首,LeCun 和 Schmidhuber 貢獻都很大。但HLB總捆綁在一起,Schmidhuber 顯然不在那個小團體裡。而獲獎需有提名有投票,人緣也重要。不外不要緊,有LSTM這樣教科書級的貢獻,他足以淡定。”

與大部分傾向於AI威脅論的學術權威與企業家不同,Juergen Schmidhuber是一個十足的技術樂觀主義,他也深諳科技、商業化與人道之間的規律。他和他的學生Sepp Hochreiter、Felix Gers、Alex Graves、Daan Wierstra等人一起發表了長短期記憶(LSTM)的架構和練習演算法,這種型別的RNN被廣泛用於自然語言處理、語音識別、影片遊戲、機器人和其他應用。而LSTM已成為20世紀被引用次數最多的神經網路,也被稱作是“最具商業價值的人工智慧成就”。

而更早在 1990年,Schmidhuber明確了 無監視天生對抗神經網路,這些神經網路在極小極大博弈中相互對抗 ,以實現人工好奇心。1991年,他又引入了 神經快速權重程式 ,形式上相當於現在所謂的具有線性化自我關注的轉換器(Transformer)。 今天,這種轉換器正在驅動著聞名的ChatGPT。 2015年,他的團隊推出了高速神經網路(Highway Neural Networks),比以前的網路深度多出許多倍。

在Schmidhuber的職業生涯中,因其開創性的工作獲得了各種獎項和榮譽。2013年,他被授予“赫爾姆霍茲獎”,旨在表彰他在機器學習領域的重大貢獻。2016年,他因“對深度學習和神經網路的開創性貢獻”被授予IEEE神經網路先鋒獎。同時需要留意的是,在Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun還沒有獲得圖靈獎之前,Juergen Schmidhuber就已經被稱作是“現代人工智慧之父”了。

他的聲音常常站在“主流”的對立面,但常常是準確的。Schmidhuber在今年早些時候接受了福布斯中國的專訪,而又在近期回答了福布斯撰稿人Hessie Jones關於人工智慧擔憂的一系列題目。我們將相關談話內容收拾整頓如下:

福布斯中國:深度學習和神經網路等技術在ChatGPT泛起後是否已經預示著發生了本質的變化?

 Schmidhuber:實際上沒有,由於ChatGPT本質上是一個學習神經網路,其基礎是在上個千年奠定的,然而,因為不斷的硬體加速,現在可以構建比以前更大的神經網路,並向它們輸入整個網際網路,從而學習猜測部門文字(例如"聊天")和影象。 ChatGPT的智慧主要是這些規模巨大化的結果。

ChatGPT所基於的神經網路是所謂的"注意力轉換器"。我對此感到高興,由於30多年前,我發表了現在稱為"具有線性自注意力的轉換器"的論文(J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation, 4(1):131-139, 1992)。它們等效於我所說的神經快速權重程式設計器(除了歸一化),分離儲存和控制;注意力術語是在ICANN 1993年引入的。

福布斯中國: 你去過中國,那麼你以為中國的人工智慧技術發展如何?中國應該如何遇上像美國這樣的技術進步前輩國家?

 Schmidhuber:固然深度學習的大部分基本演算法是由歐洲人發明的,但美國的大型公司在商業化這些演算法方面做得更好。我以為中國的公司並不落後。這些基本方法已經是公然開源的。你需要的是快速的計算機,大量的資料和工程人才。我多次訪問中國,知道中國擁有這一切,並且已經是人工智慧發表論文最多的國家。所以我對中國的人工智慧非常樂觀!

福布斯中國:目前,大部分的計算能力和資料都把握在一些行業巨頭手中。中小微企業和初創公司如何突破障礙?

 Schmidhuber:40年前,我熟悉一個富人。他有一輛保時捷。但最令人驚訝的是:保時捷裡有一部行動電話。因此,透過衛星,他可以呼喚其他擁有類似保時捷的人。

今天,每個人都擁有一部便宜的智慧手機,它在很多方面比保時捷裡的東西更好。而且,跟著人工智慧的發展,情況也將如斯。請記住:每5年,人工智慧的價格將便宜10倍。每個人都將擁有大量的便宜的人工智慧為他們工作。(這是一個比摩爾定律更古老的規律,從齒輪的發現至今已經存在近千年了。)

實際上,我公司NNAISENSE的座右銘就是:“人工智慧面向所有人”!我們的人工智慧已經讓人類的生命更長、更健康、更輕鬆、更幸福。人工智慧不會被少數大公司控制。不,每個人都將擁有便宜但強盛的人工智慧,以多種方式改善他/她的生活。

福布斯中國:您以為人工智慧和深度學習領域對於企業家和初創企業有哪些機遇?

 Schmidhuber:我可以從我們自己創立的企業NNAISENSE的角度來談。它的發音類似於“nascence”(英語中的“birth”),但拼寫方式不同,由於它是基於通用神經網路人工智慧而誕生。今天,大多數人工智慧的利潤都在虛擬世界中,用於營銷和出售廣告——這就是太平洋沿岸的大型平臺公司的做法:阿里巴巴、亞馬遜、Facebook、騰訊、谷歌、百度等等。但是,營銷只佔世界經濟的一小部分。更大的部門也將被人工智慧侵入,就像片子中一樣。像我們這樣的初創企業有許多機會。

福布斯中國:您以為人工智慧取代人類工作的趨勢如何,考慮到ChatGPT所帶來的驚人體驗?

 Schmidhuber:有了ChatGPT,使用者可以忽然間像與一個非常博學的人交談一樣,該人好像對所有主題和題目都有精心構思的謎底。即使是像“用這個作家的風格寫一篇關於這個方面的文章摘要”的複雜任務,也常常能夠很快得到解決,以至於後來只需要進行少量編纂。很多辦公桌任務將透過這樣智慧的人工智慧夥伴得到極大的便利。

今天哪種型別的人工智慧表現得相稱不錯?謎底是那些為桌面工作者服務的人工智慧。例如回答法律考試題目、總結公司檔案、擊敗您在虛擬世界中的對手(例如影片遊戲)或者跟蹤您在網際網路上的步履並向您提供量身定製的廣告。

為現實的物理世界構建人工智慧要難題得多。固然早就有超級棋手和模式識別器,但沒有由人工智慧驅動的機器人能像一些小男孩那樣熟練地踢足球。相稱多的桌面工作者比手藝人賺得更多,但現在事實證明:手藝人很難被人工智慧取代。

福布斯中國:您如何看待AI在道德、道義、隱私和安全方面所面臨的挑戰?

 Schmidhuber:這將是一場AI之間的軍備競賽,一些AI會為某些道德和道義尺度、隱私和安全而戰,而其他一些則不那麼仁慈。

福布斯中國:目前的AI發展是否符合您的猜測?深度學習將來會如何發展?

 Schmidhuber:自15歲左右起,我的主要目標就是構建一個比我更智慧的自我改進的人工智慧,然後退休。目前的發展符合我的猜測。

請記住,自1941年以來,每5年,計算機的價格便宜了10倍。這種指數級趨勢的樸素外推猜測,21世紀將會看到廉價計算機,其原始計算能力將達到所有人類大腦的千倍之多。很快將會有數百萬、數十億、數萬億這樣的裝置。

以下為福布斯撰稿人Hessie Jones針對人工智慧擔憂的一系列題目和Schmidhuber的對話內容,為保證文字清楚連貫,以下經由編輯整理。

Jones:你已經簽署了關於AI武器的警告信。但你沒有在最近發表的《暫停人工智慧大模型實驗: 一封公開信》上簽名,有什麼原因嗎?

 Schmidhuber:我已經意識到,很多在公開場合對人工智慧的危險提出警告的人只是在尋求宣傳。我不以為最新的這封信會產生任何重大影響,由於很多人工智慧研究職員、公司和政府將完全忽視它。

那封公開信裡多次使用了“我們”這個詞,指的是“我們所有人”,即人類。但正如我過去多次指出的那樣,世界上並不存在每個人都能認同的“我們”。問10個不同的人,你會聽到10種關於什麼是“好”的不同意見。其中一些觀點是完全不相容的。不要健忘很多人之間的巨大沖突。

信中還說,“假如這種暫停不能迅速到位,政府應該進行干涉干與。”題目是,不同的政府對什麼對自己好、什麼對別人好也有不同的看法。大國A會說,假如我們不這樣做,大國B就會做,也許是偷偷地做,以便獲得對我們的上風。大國C和大國D也是如斯。

Jones:每個人都承認這種對當前生成式人工智慧技術的驚駭。此外,OpenAI執行長Sam Altman本人也公然承認了這項技術的存在性威脅,並呼籲對人工智慧進行監管。從你的角度來看,AI是否對人類構成了存在性的威脅?

 Schmidhuber:人工智慧確實可以被武器化, 我也絕不懷疑會有各種各樣的人工智慧軍備競賽,但人工智慧並沒有引入一種新的存在性威脅。 來自人工智慧武器的威脅好像與來自核氫彈更古老的威脅比擬相形見絀,不值一提。 我們應該更害怕 半個世紀前的氫彈火箭技術。  1961年的沙皇炸彈(20世紀60年代初暗鬥期間蘇聯研製的一型氫彈)的破壞力幾乎是二戰中所有武器總和的15倍。  儘管自20世紀80年代以來各國已經進行了戲劇性的核裁軍, 但全世界仍舊有足夠的核彈頭在兩個小時內消滅人類文明,且不需要任何人工智慧的匡助。我更擔心的是古老的生存威脅,而不是相稱無害的人工智慧武器。

Jones:我意識到,固然你把人工智慧與核彈的威脅相提並論,但目前存在一種危險,即當前的技術可能被人類把握,並使他們能夠“終極”以一種非常精確的方式對群體中的個人造成進一步的傷害,好比有針對性的無人機攻擊。正如一些人指出的那樣,你給了人們一個他們以前從未有過的工具集,使壞人能夠比以前做更多的壞事,由於他們原來沒有這項技術。

 Schmidhuber:原則上,這些聽起來很可怕,但我們現有的法律足以應對這些由人工智慧驅動的新型武器。假如你用槍殺了人,你會進監獄,用無人機殺人也一樣。執法部分將更好地瞭解新的威脅和新的武器,並將用更好的技術來應對這些威脅。讓無人機從遠處瞄準目標,需要一些跟蹤和一些智慧來完成,這在傳統上是由純熟的人力來完成的,但對我來說,這好像只是傳統武器的改進版本,好比現在的槍,你知道的,它也只是比老式的槍支更智慧一點。

但原則上,所有這些都不是新的發展。幾個世紀以來,我們已經研發出了更好的武器和更致命的毒藥等等,執法部分也跟著時間的推移不斷發展他們的政策來應對這些威脅。所以,這並不是說我們忽然有了一種新的、比我們六十年來所擁有的更令人擔憂的生存威脅。大型核彈頭不需要花哨的面部識別來殺死一個人。不,它可以只是簡樸地摧毀一座擁有一千萬居民的城市。

Jones:隱含的生存威脅是人類對這項技術的控制程度。我們看到一些機會主義的早期案例,正如你所說,這些案例往往比積極的突破會得到更多的媒體關注。但你的意思是這一切都會平衡嗎?

 Schmidhuber:從歷史上看,我們有一個悠久的傳統,那就是技術的突破會導致武器的提高,既用於防備,也用於保護。從棍棒到石頭,從斧頭到炸藥,從大炮到火箭,再到現在的無人機,這對人類歷史產生了巨大的影響,但縱觀歷史,那些使用技術來達到自己目的的人也要面對同樣的技術,由於他們的對手也正在學習使用這種技術來對付他們。這種情況在幾千年的人類歷史上一直在重複,而且還會繼續下去。我不以為新的人工智慧軍備競賽會像老式的核彈頭那樣構成生死存亡的威脅。

你說了一些很重要的事情,有些人更喜歡談論這項技術的缺點,而不是它的好處,但這是誤導,由於95%的人工智慧研究和開發都是為了讓人們更快樂,促進人類的生活和健康。

Jones:讓我們來談談人工智慧研究中那些有益的、能夠從根本上改變目前的方法,並取得突破的進展吧。

 Schmidhuber:好的!例如,11年前,我們的團隊和我的博士後Dan Ciresan是第一個透過深度學習贏得醫學成像比賽的團隊。我們分析了女性乳腺細胞,目的是分辨無害細胞與癌前階段的細胞。通常,一個訓練有素的腫瘤學家需要很長時間才能做出這些決定。我們的團隊對癌症一竅不通,但卻能在大量此類資料上練習出一個人工神經網路,固然這個網路在開始時是非常愚蠢的。它的表現優於所有其他方法。今天,它不僅用於乳腺癌,還用於放射學和檢測動脈中的斑塊以及很多其他方面。  我們在過去30年裡開發的一些神經網路現在已經廣泛應用於數千種醫療保健應用,可以檢測糖尿病和新冠肺炎等疾病。這終極將滲透到所有醫療保健領域。這種型別的人工智慧的良好結果比利用人工智慧進行犯罪的吸引眼球的新方法重要得多。

Jones:應用是強化結果的產物。大規模的應用要麼讓我們相信人們被引入了歧途,要麼相反,技術對人們的生活產生了積極的影響。

 Schmidhuber:後者是更可能泛起的情況。我們面臨著巨大的貿易壓力,需要好的AI而不是壞的AI,由於公司想要賣給你東西,而你只會購買你以為對你有益的東西。所以在這種簡樸的貿易壓力下,你會對優秀的AI產生巨大的偏見,而不是糟糕的AI。然而,與改善人們生活的人工智慧紀錄片比擬,施瓦辛格片子中的世界末日場景更能吸引人們的留意。

Jones:我以為人們會被好故事所吸引——那些包含對手和鬥爭的故事,但終極都有圓滿的結局。這與你對人道的評價是一致的,以及歷史儘管有暴力和毀滅人道的傾向,但在某種程度上傾向於自我糾正。

 Schmidhuber:讓我們以一種技術為例,你們都知道——生成式對抗網路(GAN, Generative Adversarial Networks),它今天很輕易被用於假新聞和虛假資訊相關的應用。實際上,GAN發明的目的與今天的用途相差甚遠。

GANs這個名字是在2014年建立的,但我們在90年代初就已經有了基本的原則。30多年前,我稱它為人造的好奇心(Artificial Curiosity)。這是一個非常簡單的方法,它可以將創造力注入到小小的兩個網路系統中。這種創造性的人工智慧不只是試圖奴顏婢膝地模仿人類,相反,它正在創造自己的目標。讓我解釋一下:

現在你有兩個網路。一個網路正在產生輸出,可能是任何東西,任何步履。然後,第二個網路正在觀察這些步履,並試圖猜測這些步履的後果。一個動作可以移動一個機器人,然後再發生一些其他事情,而另一個網路只是試圖猜測會發生什麼。

現在,我們可以透過減少第二個網路的猜測誤差來實現人工好奇心,同時,這也是第一個網路的獎勵。第一個網路想使其獎勵最大化,因此它將發明一些步履,這些步履將導致第二個網路吃驚的情況,也就是那些它還沒有學會很好地猜測的情況。

在輸出假圖片的情況下,第一個網路將試圖天生質量足夠好的影象來欺騙第二個網路,而後者將試圖猜測環境的反應:影象是真的仍是假的?第二個系統試圖擁有更強的猜測能力而第一個網路將繼承在天生影象方面改進,使得第二個網路無法判定其真偽。因此,它們兩個系統互相爭鬥。第二個網路將繼承減少它的猜測誤差,而第一個網路將試圖使猜測系統的誤差最大化。

透過這種零和遊戲(Zero-sum Game),第一個網路在產生這些令人信服的假輸出方面變得越來越好,天生的圖片看起來幾乎是完全真實的。因此,一旦你有了梵高的一組有趣影象,你就可以利用他的風格天生新的影象,而梵高本人並沒有創作過這些藝術品。

Jones:讓我們來談談未來。你曾說過,“傳統的人類不會對在宇宙中傳播智慧方面施展重要作用”。

 Schmidhuber:首先讓我們從概念上區分兩類人工智慧。第一種型別的人工智慧是由人類指導的工具。它們被練習來做特定的事情,如正確檢測糖尿病或心臟病,並在其發生前預防疾病發生髮火。在這些情況下,人工智慧的目標是來自人類的。而更有趣的人工智慧正在設定自己的目標。他們正在發明自己的實驗並從中學習,他們的視野不斷擴大,終極他們成為現實世界中越來越普遍的題目解決者。他們不受父母的控制,他們學到的大部分東西是透過自我發明的實驗。

例如,一個機器人正在旋轉一個玩具,當它這樣做的時候,它可以透過攝像頭傳來的隨時間推移而變化的影片,開始學習這個影片的變化,並學習假如以某種方式旋轉玩具,它的三維性質將如何產生某些視覺變化。終極,它將學會重力如何工作,學會世界的物理學如何工作等等,就像一個小科學家一樣!

而我幾十年來一直猜測,未來這種人工智慧科學家的放大版將想要進一步擴大他們的視野,並終極去大多數物理資源所在的地方,以建立更大更多的人工智慧。當然,幾乎所有這些資源都在闊別地球的太空中,那裡對人類是不友好的,但對適當設計的人工智慧控制的機器人和自我複製的機器人工廠是友好的。因此,在這裡我們談論的不再是我們微小的生物圈;相反,我們談論的是大得多的宇宙其他部門。在幾百億年內,擁有好奇心的、會自我改進的人工智慧將以一種對人類來說不可行的方式在可見的宇宙中開展“殖民”。聽起來像科幻小說,但自20世紀70年代以來,我一直無法看到這種情景的公道替換方案,除非發生全球性的劫難,如全面的核戰爭,在它衝上雲霄之前阻止這種技術發展。■

福布斯中國獨家稿件,未經許可,請勿轉載

頭圖來源:蓋蒂圖片社‍‍‍‍‍‍‍‍

當技術與貿易之間產生巨大矛盾時,Juergen Schmidhuber才會被公家惦記起來。從四月那封暫停人工智慧技術研發的公開信,到本月初為了能更“自由”的談論AI風險而離開谷歌的Geoffrey Hinton。本世紀最具想象力也最具爭議的技術終於站在了最後的十字路口。

最近兩年,Juergen Schmidhuber的風頭一度被獲得圖靈獎的人工智慧三巨頭(Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun)所蓋過,以致於大眾無意識間將這位人工智慧思想家與技術前驅放到了一個相對低估的位置。

要理解他錯失圖靈獎的原因,或許南京大學人工智慧學院院長周志華教授的評論值得參考,他說:“要論對深度學習的貢獻,Hinton 無疑居首,LeCun 和 Schmidhuber 貢獻都很大。但HLB總捆綁在一起,Schmidhuber 顯然不在那個小團體裡。而獲獎需有提名有投票,人緣也重要。不外不要緊,有LSTM這樣教科書級的貢獻,他足以淡定。”

與大部分傾向於AI威脅論的學術權威與企業家不同,Juergen Schmidhuber是一個十足的技術樂觀主義,他也深諳科技、商業化與人道之間的規律。他和他的學生Sepp Hochreiter、Felix Gers、Alex Graves、Daan Wierstra等人一起發表了長短期記憶(LSTM)的架構和練習演算法,這種型別的RNN被廣泛用於自然語言處理、語音識別、影片遊戲、機器人和其他應用。而LSTM已成為20世紀被引用次數最多的神經網路,也被稱作是“最具商業價值的人工智慧成就”。

而更早在 1990年,Schmidhuber明確了 無監視天生對抗神經網路,這些神經網路在極小極大博弈中相互對抗 ,以實現人工好奇心。1991年,他又引入了 神經快速權重程式 ,形式上相當於現在所謂的具有線性化自我關注的轉換器(Transformer)。 今天,這種轉換器正在驅動著聞名的ChatGPT。 2015年,他的團隊推出了高速神經網路(Highway Neural Networks),比以前的網路深度多出許多倍。

在Schmidhuber的職業生涯中,因其開創性的工作獲得了各種獎項和榮譽。2013年,他被授予“赫爾姆霍茲獎”,旨在表彰他在機器學習領域的重大貢獻。2016年,他因“對深度學習和神經網路的開創性貢獻”被授予IEEE神經網路先鋒獎。同時需要留意的是,在Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun還沒有獲得圖靈獎之前,Juergen Schmidhuber就已經被稱作是“現代人工智慧之父”了。

他的聲音常常站在“主流”的對立面,但常常是準確的。Schmidhuber在今年早些時候接受了福布斯中國的專訪,而又在近期回答了福布斯撰稿人Hessie Jones關於人工智慧擔憂的一系列題目。我們將相關談話內容收拾整頓如下:

福布斯中國:深度學習和神經網路等技術在ChatGPT泛起後是否已經預示著發生了本質的變化?

 Schmidhuber:實際上沒有,由於ChatGPT本質上是一個學習神經網路,其基礎是在上個千年奠定的,然而,因為不斷的硬體加速,現在可以構建比以前更大的神經網路,並向它們輸入整個網際網路,從而學習猜測部門文字(例如"聊天")和影象。 ChatGPT的智慧主要是這些規模巨大化的結果。

ChatGPT所基於的神經網路是所謂的"注意力轉換器"。我對此感到高興,由於30多年前,我發表了現在稱為"具有線性自注意力的轉換器"的論文(J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation, 4(1):131-139, 1992)。它們等效於我所說的神經快速權重程式設計器(除了歸一化),分離儲存和控制;注意力術語是在ICANN 1993年引入的。

福布斯中國: 你去過中國,那麼你以為中國的人工智慧技術發展如何?中國應該如何遇上像美國這樣的技術進步前輩國家?

 Schmidhuber:固然深度學習的大部分基本演算法是由歐洲人發明的,但美國的大型公司在商業化這些演算法方面做得更好。我以為中國的公司並不落後。這些基本方法已經是公然開源的。你需要的是快速的計算機,大量的資料和工程人才。我多次訪問中國,知道中國擁有這一切,並且已經是人工智慧發表論文最多的國家。所以我對中國的人工智慧非常樂觀!

福布斯中國:目前,大部分的計算能力和資料都把握在一些行業巨頭手中。中小微企業和初創公司如何突破障礙?

 Schmidhuber:40年前,我熟悉一個富人。他有一輛保時捷。但最令人驚訝的是:保時捷裡有一部行動電話。因此,透過衛星,他可以呼喚其他擁有類似保時捷的人。

今天,每個人都擁有一部便宜的智慧手機,它在很多方面比保時捷裡的東西更好。而且,跟著人工智慧的發展,情況也將如斯。請記住:每5年,人工智慧的價格將便宜10倍。每個人都將擁有大量的便宜的人工智慧為他們工作。(這是一個比摩爾定律更古老的規律,從齒輪的發現至今已經存在近千年了。)

實際上,我公司NNAISENSE的座右銘就是:“人工智慧面向所有人”!我們的人工智慧已經讓人類的生命更長、更健康、更輕鬆、更幸福。人工智慧不會被少數大公司控制。不,每個人都將擁有便宜但強盛的人工智慧,以多種方式改善他/她的生活。

福布斯中國:您以為人工智慧和深度學習領域對於企業家和初創企業有哪些機遇?

 Schmidhuber:我可以從我們自己創立的企業NNAISENSE的角度來談。它的發音類似於“nascence”(英語中的“birth”),但拼寫方式不同,由於它是基於通用神經網路人工智慧而誕生。今天,大多數人工智慧的利潤都在虛擬世界中,用於營銷和出售廣告——這就是太平洋沿岸的大型平臺公司的做法:阿里巴巴、亞馬遜、Facebook、騰訊、谷歌、百度等等。但是,營銷只佔世界經濟的一小部分。更大的部門也將被人工智慧侵入,就像片子中一樣。像我們這樣的初創企業有許多機會。

福布斯中國:您以為人工智慧取代人類工作的趨勢如何,考慮到ChatGPT所帶來的驚人體驗?

 Schmidhuber:有了ChatGPT,使用者可以忽然間像與一個非常博學的人交談一樣,該人好像對所有主題和題目都有精心構思的謎底。即使是像“用這個作家的風格寫一篇關於這個方面的文章摘要”的複雜任務,也常常能夠很快得到解決,以至於後來只需要進行少量編纂。很多辦公桌任務將透過這樣智慧的人工智慧夥伴得到極大的便利。

今天哪種型別的人工智慧表現得相稱不錯?謎底是那些為桌面工作者服務的人工智慧。例如回答法律考試題目、總結公司檔案、擊敗您在虛擬世界中的對手(例如影片遊戲)或者跟蹤您在網際網路上的步履並向您提供量身定製的廣告。

為現實的物理世界構建人工智慧要難題得多。固然早就有超級棋手和模式識別器,但沒有由人工智慧驅動的機器人能像一些小男孩那樣熟練地踢足球。相稱多的桌面工作者比手藝人賺得更多,但現在事實證明:手藝人很難被人工智慧取代。

福布斯中國:您如何看待AI在道德、道義、隱私和安全方面所面臨的挑戰?

 Schmidhuber:這將是一場AI之間的軍備競賽,一些AI會為某些道德和道義尺度、隱私和安全而戰,而其他一些則不那麼仁慈。

福布斯中國:目前的AI發展是否符合您的猜測?深度學習將來會如何發展?

 Schmidhuber:自15歲左右起,我的主要目標就是構建一個比我更智慧的自我改進的人工智慧,然後退休。目前的發展符合我的猜測。

請記住,自1941年以來,每5年,計算機的價格便宜了10倍。這種指數級趨勢的樸素外推猜測,21世紀將會看到廉價計算機,其原始計算能力將達到所有人類大腦的千倍之多。很快將會有數百萬、數十億、數萬億這樣的裝置。

以下為福布斯撰稿人Hessie Jones針對人工智慧擔憂的一系列題目和Schmidhuber的對話內容,為保證文字清楚連貫,以下經由編輯整理。

Jones:你已經簽署了關於AI武器的警告信。但你沒有在最近發表的《暫停人工智慧大模型實驗: 一封公開信》上簽名,有什麼原因嗎?

 Schmidhuber:我已經意識到,很多在公開場合對人工智慧的危險提出警告的人只是在尋求宣傳。我不以為最新的這封信會產生任何重大影響,由於很多人工智慧研究職員、公司和政府將完全忽視它。

那封公開信裡多次使用了“我們”這個詞,指的是“我們所有人”,即人類。但正如我過去多次指出的那樣,世界上並不存在每個人都能認同的“我們”。問10個不同的人,你會聽到10種關於什麼是“好”的不同意見。其中一些觀點是完全不相容的。不要健忘很多人之間的巨大沖突。

信中還說,“假如這種暫停不能迅速到位,政府應該進行干涉干與。”題目是,不同的政府對什麼對自己好、什麼對別人好也有不同的看法。大國A會說,假如我們不這樣做,大國B就會做,也許是偷偷地做,以便獲得對我們的上風。大國C和大國D也是如斯。

Jones:每個人都承認這種對當前生成式人工智慧技術的驚駭。此外,OpenAI執行長Sam Altman本人也公然承認了這項技術的存在性威脅,並呼籲對人工智慧進行監管。從你的角度來看,AI是否對人類構成了存在性的威脅?

 Schmidhuber:人工智慧確實可以被武器化, 我也絕不懷疑會有各種各樣的人工智慧軍備競賽,但人工智慧並沒有引入一種新的存在性威脅。 來自人工智慧武器的威脅好像與來自核氫彈更古老的威脅比擬相形見絀,不值一提。 我們應該更害怕 半個世紀前的氫彈火箭技術。  1961年的沙皇炸彈(20世紀60年代初暗鬥期間蘇聯研製的一型氫彈)的破壞力幾乎是二戰中所有武器總和的15倍。  儘管自20世紀80年代以來各國已經進行了戲劇性的核裁軍, 但全世界仍舊有足夠的核彈頭在兩個小時內消滅人類文明,且不需要任何人工智慧的匡助。我更擔心的是古老的生存威脅,而不是相稱無害的人工智慧武器。

Jones:我意識到,固然你把人工智慧與核彈的威脅相提並論,但目前存在一種危險,即當前的技術可能被人類把握,並使他們能夠“終極”以一種非常精確的方式對群體中的個人造成進一步的傷害,好比有針對性的無人機攻擊。正如一些人指出的那樣,你給了人們一個他們以前從未有過的工具集,使壞人能夠比以前做更多的壞事,由於他們原來沒有這項技術。

 Schmidhuber:原則上,這些聽起來很可怕,但我們現有的法律足以應對這些由人工智慧驅動的新型武器。假如你用槍殺了人,你會進監獄,用無人機殺人也一樣。執法部分將更好地瞭解新的威脅和新的武器,並將用更好的技術來應對這些威脅。讓無人機從遠處瞄準目標,需要一些跟蹤和一些智慧來完成,這在傳統上是由純熟的人力來完成的,但對我來說,這好像只是傳統武器的改進版本,好比現在的槍,你知道的,它也只是比老式的槍支更智慧一點。

但原則上,所有這些都不是新的發展。幾個世紀以來,我們已經研發出了更好的武器和更致命的毒藥等等,執法部分也跟著時間的推移不斷發展他們的政策來應對這些威脅。所以,這並不是說我們忽然有了一種新的、比我們六十年來所擁有的更令人擔憂的生存威脅。大型核彈頭不需要花哨的面部識別來殺死一個人。不,它可以只是簡樸地摧毀一座擁有一千萬居民的城市。

Jones:隱含的生存威脅是人類對這項技術的控制程度。我們看到一些機會主義的早期案例,正如你所說,這些案例往往比積極的突破會得到更多的媒體關注。但你的意思是這一切都會平衡嗎?

 Schmidhuber:從歷史上看,我們有一個悠久的傳統,那就是技術的突破會導致武器的提高,既用於防備,也用於保護。從棍棒到石頭,從斧頭到炸藥,從大炮到火箭,再到現在的無人機,這對人類歷史產生了巨大的影響,但縱觀歷史,那些使用技術來達到自己目的的人也要面對同樣的技術,由於他們的對手也正在學習使用這種技術來對付他們。這種情況在幾千年的人類歷史上一直在重複,而且還會繼續下去。我不以為新的人工智慧軍備競賽會像老式的核彈頭那樣構成生死存亡的威脅。

你說了一些很重要的事情,有些人更喜歡談論這項技術的缺點,而不是它的好處,但這是誤導,由於95%的人工智慧研究和開發都是為了讓人們更快樂,促進人類的生活和健康。

Jones:讓我們來談談人工智慧研究中那些有益的、能夠從根本上改變目前的方法,並取得突破的進展吧。

 Schmidhuber:好的!例如,11年前,我們的團隊和我的博士後Dan Ciresan是第一個透過深度學習贏得醫學成像比賽的團隊。我們分析了女性乳腺細胞,目的是分辨無害細胞與癌前階段的細胞。通常,一個訓練有素的腫瘤學家需要很長時間才能做出這些決定。我們的團隊對癌症一竅不通,但卻能在大量此類資料上練習出一個人工神經網路,固然這個網路在開始時是非常愚蠢的。它的表現優於所有其他方法。今天,它不僅用於乳腺癌,還用於放射學和檢測動脈中的斑塊以及很多其他方面。  我們在過去30年裡開發的一些神經網路現在已經廣泛應用於數千種醫療保健應用,可以檢測糖尿病和新冠肺炎等疾病。這終極將滲透到所有醫療保健領域。這種型別的人工智慧的良好結果比利用人工智慧進行犯罪的吸引眼球的新方法重要得多。

Jones:應用是強化結果的產物。大規模的應用要麼讓我們相信人們被引入了歧途,要麼相反,技術對人們的生活產生了積極的影響。

 Schmidhuber:後者是更可能泛起的情況。我們面臨著巨大的貿易壓力,需要好的AI而不是壞的AI,由於公司想要賣給你東西,而你只會購買你以為對你有益的東西。所以在這種簡樸的貿易壓力下,你會對優秀的AI產生巨大的偏見,而不是糟糕的AI。然而,與改善人們生活的人工智慧紀錄片比擬,施瓦辛格片子中的世界末日場景更能吸引人們的留意。

Jones:我以為人們會被好故事所吸引——那些包含對手和鬥爭的故事,但終極都有圓滿的結局。這與你對人道的評價是一致的,以及歷史儘管有暴力和毀滅人道的傾向,但在某種程度上傾向於自我糾正。

 Schmidhuber:讓我們以一種技術為例,你們都知道——生成式對抗網路(GAN, Generative Adversarial Networks),它今天很輕易被用於假新聞和虛假資訊相關的應用。實際上,GAN發明的目的與今天的用途相差甚遠。

GANs這個名字是在2014年建立的,但我們在90年代初就已經有了基本的原則。30多年前,我稱它為人造的好奇心(Artificial Curiosity)。這是一個非常簡單的方法,它可以將創造力注入到小小的兩個網路系統中。這種創造性的人工智慧不只是試圖奴顏婢膝地模仿人類,相反,它正在創造自己的目標。讓我解釋一下:

現在你有兩個網路。一個網路正在產生輸出,可能是任何東西,任何步履。然後,第二個網路正在觀察這些步履,並試圖猜測這些步履的後果。一個動作可以移動一個機器人,然後再發生一些其他事情,而另一個網路只是試圖猜測會發生什麼。

現在,我們可以透過減少第二個網路的猜測誤差來實現人工好奇心,同時,這也是第一個網路的獎勵。第一個網路想使其獎勵最大化,因此它將發明一些步履,這些步履將導致第二個網路吃驚的情況,也就是那些它還沒有學會很好地猜測的情況。

在輸出假圖片的情況下,第一個網路將試圖天生質量足夠好的影象來欺騙第二個網路,而後者將試圖猜測環境的反應:影象是真的仍是假的?第二個系統試圖擁有更強的猜測能力而第一個網路將繼承在天生影象方面改進,使得第二個網路無法判定其真偽。因此,它們兩個系統互相爭鬥。第二個網路將繼承減少它的猜測誤差,而第一個網路將試圖使猜測系統的誤差最大化。

透過這種零和遊戲(Zero-sum Game),第一個網路在產生這些令人信服的假輸出方面變得越來越好,天生的圖片看起來幾乎是完全真實的。因此,一旦你有了梵高的一組有趣影象,你就可以利用他的風格天生新的影象,而梵高本人並沒有創作過這些藝術品。

Jones:讓我們來談談未來。你曾說過,“傳統的人類不會對在宇宙中傳播智慧方面施展重要作用”。

 Schmidhuber:首先讓我們從概念上區分兩類人工智慧。第一種型別的人工智慧是由人類指導的工具。它們被練習來做特定的事情,如正確檢測糖尿病或心臟病,並在其發生前預防疾病發生髮火。在這些情況下,人工智慧的目標是來自人類的。而更有趣的人工智慧正在設定自己的目標。他們正在發明自己的實驗並從中學習,他們的視野不斷擴大,終極他們成為現實世界中越來越普遍的題目解決者。他們不受父母的控制,他們學到的大部分東西是透過自我發明的實驗。

例如,一個機器人正在旋轉一個玩具,當它這樣做的時候,它可以透過攝像頭傳來的隨時間推移而變化的影片,開始學習這個影片的變化,並學習假如以某種方式旋轉玩具,它的三維性質將如何產生某些視覺變化。終極,它將學會重力如何工作,學會世界的物理學如何工作等等,就像一個小科學家一樣!

而我幾十年來一直猜測,未來這種人工智慧科學家的放大版將想要進一步擴大他們的視野,並終極去大多數物理資源所在的地方,以建立更大更多的人工智慧。當然,幾乎所有這些資源都在闊別地球的太空中,那裡對人類是不友好的,但對適當設計的人工智慧控制的機器人和自我複製的機器人工廠是友好的。因此,在這裡我們談論的不再是我們微小的生物圈;相反,我們談論的是大得多的宇宙其他部門。在幾百億年內,擁有好奇心的、會自我改進的人工智慧將以一種對人類來說不可行的方式在可見的宇宙中開展“殖民”。聽起來像科幻小說,但自20世紀70年代以來,我一直無法看到這種情景的公道替換方案,除非發生全球性的劫難,如全面的核戰爭,在它衝上雲霄之前阻止這種技術發展。■

福布斯中國獨家稿件,未經許可,請勿轉載

頭圖來源:蓋蒂圖片社‍‍‍‍‍‍‍‍

當技術與貿易之間產生巨大矛盾時,Juergen Schmidhuber才會被公家惦記起來。從四月那封暫停人工智慧技術研發的公開信,到本月初為了能更“自由”的談論AI風險而離開谷歌的Geoffrey Hinton。本世紀最具想象力也最具爭議的技術終於站在了最後的十字路口。

最近兩年,Juergen Schmidhuber的風頭一度被獲得圖靈獎的人工智慧三巨頭(Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun)所蓋過,以致於大眾無意識間將這位人工智慧思想家與技術前驅放到了一個相對低估的位置。

要理解他錯失圖靈獎的原因,或許南京大學人工智慧學院院長周志華教授的評論值得參考,他說:“要論對深度學習的貢獻,Hinton 無疑居首,LeCun 和 Schmidhuber 貢獻都很大。但HLB總捆綁在一起,Schmidhuber 顯然不在那個小團體裡。而獲獎需有提名有投票,人緣也重要。不外不要緊,有LSTM這樣教科書級的貢獻,他足以淡定。”

與大部分傾向於AI威脅論的學術權威與企業家不同,Juergen Schmidhuber是一個十足的技術樂觀主義,他也深諳科技、商業化與人道之間的規律。他和他的學生Sepp Hochreiter、Felix Gers、Alex Graves、Daan Wierstra等人一起發表了長短期記憶(LSTM)的架構和練習演算法,這種型別的RNN被廣泛用於自然語言處理、語音識別、影片遊戲、機器人和其他應用。而LSTM已成為20世紀被引用次數最多的神經網路,也被稱作是“最具商業價值的人工智慧成就”。

而更早在 1990年,Schmidhuber明確了 無監視天生對抗神經網路,這些神經網路在極小極大博弈中相互對抗 ,以實現人工好奇心。1991年,他又引入了 神經快速權重程式 ,形式上相當於現在所謂的具有線性化自我關注的轉換器(Transformer)。 今天,這種轉換器正在驅動著聞名的ChatGPT。 2015年,他的團隊推出了高速神經網路(Highway Neural Networks),比以前的網路深度多出許多倍。

在Schmidhuber的職業生涯中,因其開創性的工作獲得了各種獎項和榮譽。2013年,他被授予“赫爾姆霍茲獎”,旨在表彰他在機器學習領域的重大貢獻。2016年,他因“對深度學習和神經網路的開創性貢獻”被授予IEEE神經網路先鋒獎。同時需要留意的是,在Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun還沒有獲得圖靈獎之前,Juergen Schmidhuber就已經被稱作是“現代人工智慧之父”了。

他的聲音常常站在“主流”的對立面,但常常是準確的。Schmidhuber在今年早些時候接受了福布斯中國的專訪,而又在近期回答了福布斯撰稿人Hessie Jones關於人工智慧擔憂的一系列題目。我們將相關談話內容收拾整頓如下:

福布斯中國:深度學習和神經網路等技術在ChatGPT泛起後是否已經預示著發生了本質的變化?

 Schmidhuber:實際上沒有,由於ChatGPT本質上是一個學習神經網路,其基礎是在上個千年奠定的,然而,因為不斷的硬體加速,現在可以構建比以前更大的神經網路,並向它們輸入整個網際網路,從而學習猜測部門文字(例如"聊天")和影象。 ChatGPT的智慧主要是這些規模巨大化的結果。

ChatGPT所基於的神經網路是所謂的"注意力轉換器"。我對此感到高興,由於30多年前,我發表了現在稱為"具有線性自注意力的轉換器"的論文(J. Schmidhuber. Learning to control fast-weight memories: An alternative to recurrent nets. Neural Computation, 4(1):131-139, 1992)。它們等效於我所說的神經快速權重程式設計器(除了歸一化),分離儲存和控制;注意力術語是在ICANN 1993年引入的。

福布斯中國: 你去過中國,那麼你以為中國的人工智慧技術發展如何?中國應該如何遇上像美國這樣的技術進步前輩國家?

 Schmidhuber:固然深度學習的大部分基本演算法是由歐洲人發明的,但美國的大型公司在商業化這些演算法方面做得更好。我以為中國的公司並不落後。這些基本方法已經是公然開源的。你需要的是快速的計算機,大量的資料和工程人才。我多次訪問中國,知道中國擁有這一切,並且已經是人工智慧發表論文最多的國家。所以我對中國的人工智慧非常樂觀!

福布斯中國:目前,大部分的計算能力和資料都把握在一些行業巨頭手中。中小微企業和初創公司如何突破障礙?

 Schmidhuber:40年前,我熟悉一個富人。他有一輛保時捷。但最令人驚訝的是:保時捷裡有一部行動電話。因此,透過衛星,他可以呼喚其他擁有類似保時捷的人。

今天,每個人都擁有一部便宜的智慧手機,它在很多方面比保時捷裡的東西更好。而且,跟著人工智慧的發展,情況也將如斯。請記住:每5年,人工智慧的價格將便宜10倍。每個人都將擁有大量的便宜的人工智慧為他們工作。(這是一個比摩爾定律更古老的規律,從齒輪的發現至今已經存在近千年了。)

實際上,我公司NNAISENSE的座右銘就是:“人工智慧面向所有人”!我們的人工智慧已經讓人類的生命更長、更健康、更輕鬆、更幸福。人工智慧不會被少數大公司控制。不,每個人都將擁有便宜但強盛的人工智慧,以多種方式改善他/她的生活。

福布斯中國:您以為人工智慧和深度學習領域對於企業家和初創企業有哪些機遇?

 Schmidhuber:我可以從我們自己創立的企業NNAISENSE的角度來談。它的發音類似於“nascence”(英語中的“birth”),但拼寫方式不同,由於它是基於通用神經網路人工智慧而誕生。今天,大多數人工智慧的利潤都在虛擬世界中,用於營銷和出售廣告——這就是太平洋沿岸的大型平臺公司的做法:阿里巴巴、亞馬遜、Facebook、騰訊、谷歌、百度等等。但是,營銷只佔世界經濟的一小部分。更大的部門也將被人工智慧侵入,就像片子中一樣。像我們這樣的初創企業有許多機會。

福布斯中國:您以為人工智慧取代人類工作的趨勢如何,考慮到ChatGPT所帶來的驚人體驗?

 Schmidhuber:有了ChatGPT,使用者可以忽然間像與一個非常博學的人交談一樣,該人好像對所有主題和題目都有精心構思的謎底。即使是像“用這個作家的風格寫一篇關於這個方面的文章摘要”的複雜任務,也常常能夠很快得到解決,以至於後來只需要進行少量編纂。很多辦公桌任務將透過這樣智慧的人工智慧夥伴得到極大的便利。

今天哪種型別的人工智慧表現得相稱不錯?謎底是那些為桌面工作者服務的人工智慧。例如回答法律考試題目、總結公司檔案、擊敗您在虛擬世界中的對手(例如影片遊戲)或者跟蹤您在網際網路上的步履並向您提供量身定製的廣告。

為現實的物理世界構建人工智慧要難題得多。固然早就有超級棋手和模式識別器,但沒有由人工智慧驅動的機器人能像一些小男孩那樣熟練地踢足球。相稱多的桌面工作者比手藝人賺得更多,但現在事實證明:手藝人很難被人工智慧取代。

福布斯中國:您如何看待AI在道德、道義、隱私和安全方面所面臨的挑戰?

 Schmidhuber:這將是一場AI之間的軍備競賽,一些AI會為某些道德和道義尺度、隱私和安全而戰,而其他一些則不那麼仁慈。

福布斯中國:目前的AI發展是否符合您的猜測?深度學習將來會如何發展?

 Schmidhuber:自15歲左右起,我的主要目標就是構建一個比我更智慧的自我改進的人工智慧,然後退休。目前的發展符合我的猜測。

請記住,自1941年以來,每5年,計算機的價格便宜了10倍。這種指數級趨勢的樸素外推猜測,21世紀將會看到廉價計算機,其原始計算能力將達到所有人類大腦的千倍之多。很快將會有數百萬、數十億、數萬億這樣的裝置。

以下為福布斯撰稿人Hessie Jones針對人工智慧擔憂的一系列題目和Schmidhuber的對話內容,為保證文字清楚連貫,以下經由編輯整理。

Jones:你已經簽署了關於AI武器的警告信。但你沒有在最近發表的《暫停人工智慧大模型實驗: 一封公開信》上簽名,有什麼原因嗎?

 Schmidhuber:我已經意識到,很多在公開場合對人工智慧的危險提出警告的人只是在尋求宣傳。我不以為最新的這封信會產生任何重大影響,由於很多人工智慧研究職員、公司和政府將完全忽視它。

那封公開信裡多次使用了“我們”這個詞,指的是“我們所有人”,即人類。但正如我過去多次指出的那樣,世界上並不存在每個人都能認同的“我們”。問10個不同的人,你會聽到10種關於什麼是“好”的不同意見。其中一些觀點是完全不相容的。不要健忘很多人之間的巨大沖突。

信中還說,“假如這種暫停不能迅速到位,政府應該進行干涉干與。”題目是,不同的政府對什麼對自己好、什麼對別人好也有不同的看法。大國A會說,假如我們不這樣做,大國B就會做,也許是偷偷地做,以便獲得對我們的上風。大國C和大國D也是如斯。

Jones:每個人都承認這種對當前生成式人工智慧技術的驚駭。此外,OpenAI執行長Sam Altman本人也公然承認了這項技術的存在性威脅,並呼籲對人工智慧進行監管。從你的角度來看,AI是否對人類構成了存在性的威脅?

 Schmidhuber:人工智慧確實可以被武器化, 我也絕不懷疑會有各種各樣的人工智慧軍備競賽,但人工智慧並沒有引入一種新的存在性威脅。 來自人工智慧武器的威脅好像與來自核氫彈更古老的威脅比擬相形見絀,不值一提。 我們應該更害怕 半個世紀前的氫彈火箭技術。  1961年的沙皇炸彈(20世紀60年代初暗鬥期間蘇聯研製的一型氫彈)的破壞力幾乎是二戰中所有武器總和的15倍。  儘管自20世紀80年代以來各國已經進行了戲劇性的核裁軍, 但全世界仍舊有足夠的核彈頭在兩個小時內消滅人類文明,且不需要任何人工智慧的匡助。我更擔心的是古老的生存威脅,而不是相稱無害的人工智慧武器。

Jones:我意識到,固然你把人工智慧與核彈的威脅相提並論,但目前存在一種危險,即當前的技術可能被人類把握,並使他們能夠“終極”以一種非常精確的方式對群體中的個人造成進一步的傷害,好比有針對性的無人機攻擊。正如一些人指出的那樣,你給了人們一個他們以前從未有過的工具集,使壞人能夠比以前做更多的壞事,由於他們原來沒有這項技術。

 Schmidhuber:原則上,這些聽起來很可怕,但我們現有的法律足以應對這些由人工智慧驅動的新型武器。假如你用槍殺了人,你會進監獄,用無人機殺人也一樣。執法部分將更好地瞭解新的威脅和新的武器,並將用更好的技術來應對這些威脅。讓無人機從遠處瞄準目標,需要一些跟蹤和一些智慧來完成,這在傳統上是由純熟的人力來完成的,但對我來說,這好像只是傳統武器的改進版本,好比現在的槍,你知道的,它也只是比老式的槍支更智慧一點。

但原則上,所有這些都不是新的發展。幾個世紀以來,我們已經研發出了更好的武器和更致命的毒藥等等,執法部分也跟著時間的推移不斷發展他們的政策來應對這些威脅。所以,這並不是說我們忽然有了一種新的、比我們六十年來所擁有的更令人擔憂的生存威脅。大型核彈頭不需要花哨的面部識別來殺死一個人。不,它可以只是簡樸地摧毀一座擁有一千萬居民的城市。

Jones:隱含的生存威脅是人類對這項技術的控制程度。我們看到一些機會主義的早期案例,正如你所說,這些案例往往比積極的突破會得到更多的媒體關注。但你的意思是這一切都會平衡嗎?

 Schmidhuber:從歷史上看,我們有一個悠久的傳統,那就是技術的突破會導致武器的提高,既用於防備,也用於保護。從棍棒到石頭,從斧頭到炸藥,從大炮到火箭,再到現在的無人機,這對人類歷史產生了巨大的影響,但縱觀歷史,那些使用技術來達到自己目的的人也要面對同樣的技術,由於他們的對手也正在學習使用這種技術來對付他們。這種情況在幾千年的人類歷史上一直在重複,而且還會繼續下去。我不以為新的人工智慧軍備競賽會像老式的核彈頭那樣構成生死存亡的威脅。

你說了一些很重要的事情,有些人更喜歡談論這項技術的缺點,而不是它的好處,但這是誤導,由於95%的人工智慧研究和開發都是為了讓人們更快樂,促進人類的生活和健康。

Jones:讓我們來談談人工智慧研究中那些有益的、能夠從根本上改變目前的方法,並取得突破的進展吧。

 Schmidhuber:好的!例如,11年前,我們的團隊和我的博士後Dan Ciresan是第一個透過深度學習贏得醫學成像比賽的團隊。我們分析了女性乳腺細胞,目的是分辨無害細胞與癌前階段的細胞。通常,一個訓練有素的腫瘤學家需要很長時間才能做出這些決定。我們的團隊對癌症一竅不通,但卻能在大量此類資料上練習出一個人工神經網路,固然這個網路在開始時是非常愚蠢的。它的表現優於所有其他方法。今天,它不僅用於乳腺癌,還用於放射學和檢測動脈中的斑塊以及很多其他方面。  我們在過去30年裡開發的一些神經網路現在已經廣泛應用於數千種醫療保健應用,可以檢測糖尿病和新冠肺炎等疾病。這終極將滲透到所有醫療保健領域。這種型別的人工智慧的良好結果比利用人工智慧進行犯罪的吸引眼球的新方法重要得多。

Jones:應用是強化結果的產物。大規模的應用要麼讓我們相信人們被引入了歧途,要麼相反,技術對人們的生活產生了積極的影響。

 Schmidhuber:後者是更可能泛起的情況。我們面臨著巨大的貿易壓力,需要好的AI而不是壞的AI,由於公司想要賣給你東西,而你只會購買你以為對你有益的東西。所以在這種簡樸的貿易壓力下,你會對優秀的AI產生巨大的偏見,而不是糟糕的AI。然而,與改善人們生活的人工智慧紀錄片比擬,施瓦辛格片子中的世界末日場景更能吸引人們的留意。

Jones:我以為人們會被好故事所吸引——那些包含對手和鬥爭的故事,但終極都有圓滿的結局。這與你對人道的評價是一致的,以及歷史儘管有暴力和毀滅人道的傾向,但在某種程度上傾向於自我糾正。

 Schmidhuber:讓我們以一種技術為例,你們都知道——生成式對抗網路(GAN, Generative Adversarial Networks),它今天很輕易被用於假新聞和虛假資訊相關的應用。實際上,GAN發明的目的與今天的用途相差甚遠。

GANs這個名字是在2014年建立的,但我們在90年代初就已經有了基本的原則。30多年前,我稱它為人造的好奇心(Artificial Curiosity)。這是一個非常簡單的方法,它可以將創造力注入到小小的兩個網路系統中。這種創造性的人工智慧不只是試圖奴顏婢膝地模仿人類,相反,它正在創造自己的目標。讓我解釋一下:

現在你有兩個網路。一個網路正在產生輸出,可能是任何東西,任何步履。然後,第二個網路正在觀察這些步履,並試圖猜測這些步履的後果。一個動作可以移動一個機器人,然後再發生一些其他事情,而另一個網路只是試圖猜測會發生什麼。

現在,我們可以透過減少第二個網路的猜測誤差來實現人工好奇心,同時,這也是第一個網路的獎勵。第一個網路想使其獎勵最大化,因此它將發明一些步履,這些步履將導致第二個網路吃驚的情況,也就是那些它還沒有學會很好地猜測的情況。

在輸出假圖片的情況下,第一個網路將試圖天生質量足夠好的影象來欺騙第二個網路,而後者將試圖猜測環境的反應:影象是真的仍是假的?第二個系統試圖擁有更強的猜測能力而第一個網路將繼承在天生影象方面改進,使得第二個網路無法判定其真偽。因此,它們兩個系統互相爭鬥。第二個網路將繼承減少它的猜測誤差,而第一個網路將試圖使猜測系統的誤差最大化。

透過這種零和遊戲(Zero-sum Game),第一個網路在產生這些令人信服的假輸出方面變得越來越好,天生的圖片看起來幾乎是完全真實的。因此,一旦你有了梵高的一組有趣影象,你就可以利用他的風格天生新的影象,而梵高本人並沒有創作過這些藝術品。

Jones:讓我們來談談未來。你曾說過,“傳統的人類不會對在宇宙中傳播智慧方面施展重要作用”。

 Schmidhuber:首先讓我們從概念上區分兩類人工智慧。第一種型別的人工智慧是由人類指導的工具。它們被練習來做特定的事情,如正確檢測糖尿病或心臟病,並在其發生前預防疾病發生髮火。在這些情況下,人工智慧的目標是來自人類的。而更有趣的人工智慧正在設定自己的目標。他們正在發明自己的實驗並從中學習,他們的視野不斷擴大,終極他們成為現實世界中越來越普遍的題目解決者。他們不受父母的控制,他們學到的大部分東西是透過自我發明的實驗。

例如,一個機器人正在旋轉一個玩具,當它這樣做的時候,它可以透過攝像頭傳來的隨時間推移而變化的影片,開始學習這個影片的變化,並學習假如以某種方式旋轉玩具,它的三維性質將如何產生某些視覺變化。終極,它將學會重力如何工作,學會世界的物理學如何工作等等,就像一個小科學家一樣!

而我幾十年來一直猜測,未來這種人工智慧科學家的放大版將想要進一步擴大他們的視野,並終極去大多數物理資源所在的地方,以建立更大更多的人工智慧。當然,幾乎所有這些資源都在闊別地球的太空中,那裡對人類是不友好的,但對適當設計的人工智慧控制的機器人和自我複製的機器人工廠是友好的。因此,在這裡我們談論的不再是我們微小的生物圈;相反,我們談論的是大得多的宇宙其他部門。在幾百億年內,擁有好奇心的、會自我改進的人工智慧將以一種對人類來說不可行的方式在可見的宇宙中開展“殖民”。聽起來像科幻小說,但自20世紀70年代以來,我一直無法看到這種情景的公道替換方案,除非發生全球性的劫難,如全面的核戰爭,在它衝上雲霄之前阻止這種技術發展。■

福布斯中國獨家稿件,未經許可,請勿轉載

頭圖來源:蓋蒂圖片社‍‍‍‍‍‍‍‍

上一篇:角膜捐獻與移... 下一篇:AI繪畫免費!...
猜你喜歡
熱門閱讀
同類推薦