“AI教父”:暫停開發AI的想法是幼稚的,最重要的是監管開發過程

首頁 > 科技

“AI教父”:暫停開發AI的想法是幼稚的,最重要的是監管開發過程

來源:穿搭講究 釋出時間:2023-05-26 15:31

【新智元導讀】AI巨佬Hinton離職,後悔自己一生在人工智慧領域做出的貢獻,莫非真是錯付了嗎?

ChatGPT等大模型帶來的震撼技術革新,讓Geoffrey Hinton忽然改變了自己的一個設法。

這位75歲的「人工智慧教父」意識到,數字智慧優於生物智慧的程序無法避免,超級智慧很快就會到來,他必需要對其風險發出警示,而人類需要找到一種方法來控制AI技術的發展。而在此之前,他一直以為,智慧機器人不會像人類一樣智慧,不會朝著AGI的方向發展。

為了自由探討AI風險,Hinton最近辭任Google工程副總裁,今年恰是他在那裡工作的第十年。十年前,他與兩位學生Alex Krizhevsky、Ilya Sutskever(OpenAI首席科學家)成立的三人組公司DNN-research以4400萬美元賣給了Google,「天價」收購源自他們當時提出了震驚業界的AlexNet,它後來被視為新一輪深度學習的黃金時代的標誌,並且極大推動了AI領域的發展。

十年來,人工智慧領域的眾多驚人突破背後都離不開深度學習,它是使得ChatGPT、AlphaGo等得以面世的基石。而Hinton作為深度學習領域眾多開創性突破的研究者,他的論文總共被引超50萬次,2019年,他還獲得了計算機科學領域的「諾貝爾獎」——圖靈獎。

功成名就之後,當他看著當前AI領域的顛覆式變革,卻也憂慮AI的黑暗面,聲稱自己有點後悔之前推動的AI研究工作,由於他匡助開發的技術可能會終結人類文明。

近期,在與強化學習大牛Pieter Abbeel的一次對話中,他具體解釋了為什麼要在此時呼籲正視AI的潛伏風險,以及數字智慧進化帶來的挑戰,但他以為,暫停開發AI的設法是幼稚的,最重要的是對AI技術開發過程進行監管。

不外,對於如何透過技術解決AI對齊等挑戰,Hinton自嘲自己「廉頗老矣」,不適合做相關技術工作,而且他更喜歡研究演算法,他現在能做的是利用自己的名聲給人類敲響AI的警鐘。

(以下內容經授權後由OneFlow編譯釋出,譯文轉載請聯絡OneFlow獲得授權。來源:https://www.youtube.com/watch?v=rLG68k2blOc&t=206s)

警惕AI的風險

Pieter Abbeel:5月1日,《紐約時報》頭條報道了你已從Google離職的動靜,你還提醒人們要警惕AI可能帶來的負面影響。從事AI研究多年,你為什麼現在忽然改變了對AI的立場?

Geoffrey Hinton:50年來,我一直在研究大腦是如何學習的:透過使用人工神經網路在數字計算機上製作模型,以及試圖弄清楚如何讓這些模型進行學習。我堅信,要使數字模型更好地工作,就必需讓它們更像大腦,但最近,我忽然發現,與大腦比擬,在數字計算機上執行的反向傳播演算法可能是更好的學習演算法。

原因如下:一年前釋出的PaLM可以理解笑話的有趣之處,讓我很是震動,由於這是我長期以來判定模型是否智慧的尺度。然後又泛起了ChatGPT和GPT-4等模型,其能力給人們留下了深刻印象。人類大約有一千萬億個權重,這些模型只有大約一萬億個權重,但它們把握的知識卻遠超人類,是人類的一千多倍,這表明,反向傳播在將大量資訊壓縮到少量連線中很有優越性,僅使用數萬億個連線就能容納大量資訊。

之前,我以為大腦可能有更好的學習演算法,但現在不禁開始重新思索,數字系統可能具有大腦所沒有的上風,即可以在不同硬體上執行很多相同的模型。當其中一個副本學習到新知識時,它可以透過傳遞權重變化的方式將這些知識傳達給其他副本,傳輸的頻寬可以達到數萬億位。然而,對於人類而言,假如我們想要將學習內容傳達給他人,那麼被傳輸者可能需要改變權重,以便能夠與他人達成一致,並且每個句子只有幾百位的寬頻。比擬人類,也許數字系統更擅長獲取知識,它們可以利用並行更好地工作。

Pieter Abbeel:從概念上看,好像現有的猜測下一個單詞的AI(ChatGPT等語言模型)與目標導向型AI(AlphaGo等)之間仍有較大差距。也許我們能快速彌合這兩類AI之間的差距,但與猜測型AI比擬,目標導向型AI仍處於相稱關閉的環境中,未來我們是否會快速從猜測型AI轉向目標導向型AI?

Geoffrey Hinton:語言模型的學習方式不僅僅是基於下一個單詞的猜測,固然這是它的主要學習方式,但同時也使用

人類反饋的強化學習(RLHF)

進行練習,可以告訴模型應該給出何種謎底,不外這與猜測下一個單詞有很大的差別。

人類反饋的強化學習正在塑造AI,OpenAI在這方面取得了極大突破。他們意識到,可以透過人類反饋強化學習引導大型語言模型的行為方式,這就比如是養育孩子:孩子們可以透過探索世界、觀察世界的運轉模式進行學習,在這個過程中,父母可以透過告訴孩子能或不能做什麼介入到孩子的學習當中。長期以往,父母可以在更少介入的情況下對孩子的行為產生極大影響。

還有其他因素在塑造語言模型。多模態大型語言模型可以利用視覺輸入做一系列事情,好比開門、將東西放進抽屜等等。所以,它們不僅僅是猜測下一個單詞。

不外,即使模型只是猜測下一個單詞,也沒有人們想得那麼簡樸。有人以為,模型猜測下一個單詞只是在自動補齊,但樞紐是想要猜測下一個單詞,獨一的方法是要真正理解前文內容,而這恰是語言模型所做的。

Pieter Abbeel:也就是說,模型需要有效理解人們的所思所想,以最大限度正確猜測人們將要說的內容。這種模型必需十分強盛。

Geoffrey Hinton:最好的猜測模型就會像你說的那樣。這種模型可能無法完全理解人們的所思所想,但能理解大部分內容,並且它們的理解程度會與日俱增。

回看2015年,那時Transformers架構還未現世,人們對聊天機器人毫無頭緒,現在,語言模型的能力已十分強盛,難以想象未來五年它們會發展到何種程度。我不禁開始擔憂AI的智慧程度將超過人類。

PieterAbbeel:你怎麼定義「(AI)比人類更智慧」?

Geoffrey Hinton:AI在單個領域中的表現中有所體現。好比我不玩圍棋,也不瞭解AlphaGo,但會一點點象棋。在我看來,AlphaZero的強盛不僅來自計算量(它的計算量還比不上DeepBlue),還由於它有極好的下棋「意識」:AlphaZero能在下棋過程中作出公道的犧牲與讓步,下棋技術超過了人類。AI技術的高度發展不會僅侷限於這一個領域,它們戰勝人類靠的不僅是計算量,還有極好的「意識」。

Pieter Abbeel:你一直在嘗試構建AI,現在成為這個行業的前驅。AI的發展程度已經遠超你最初的預想,曾經你但願AI能達到與人類匹敵的智力水平,但現在可能找到了超越人類智慧的方法。

Geoffrey Hinton:我還想了解大腦的運轉方式,目前我們還未解開這一謎題。

我們一直在談論AI面臨的各種題目,好比假如我們利用有偏見的資料練習模型,那麼模型就會同樣具有偏見,但我並不特別擔心這個題目,由於人類也存在偏見,實際上,AI系統的偏見題目比人類的偏見更好解決。我們可以「凍結」AI系統,進行實驗分析,但人類卻難以做到這一點,在實驗中,人類可以隱藏設法並改變他們的行為。

固然跟著AI的發展,有許多人會失業,但這並不是AI的錯。就拿自動駕駛來說,許多卡車司機會因此失去工作,有人以為這是AI的錯,不外當我們創造了更擅長挖掘的機器時,人們卻不會說「這些機器不好,我們不應該創造它們」。實際上,當時的機器一開始可能確實不太好用,但結果我們選擇了機器,由於機器比鏟子做得更好,而之前習慣於用鏟子挖掘的工人只好改行,重新找工作。

在正派社會(Decent Society)中,晉升工作效率是一件人人受益的事情。題目是,目前社會上晉升工作效率可能會拉大貧富差距,讓富人更富,窮人更窮,但這並能怪AI,我們沒有理由像勒德分子(持有反機械化以及反自動化觀點的人)一樣反對AI的發展,由於AI的發展能給人類社會帶來極大好處。

在自動駕駛領域,假如AI駕駛撞到了行人,大眾會感到恐慌,並且呼籲住手發展AI技術,即使是同一天裡,人類駕駛員撞到行人的事故更多。實在我們都知道,終極自動駕駛技術會發展成熟,會極大減少事故發生率,比人類能更好地勝任駕駛工作。

在醫學方面,AI擁有更多知識貯備,能夠充當家庭醫生,能從醫學掃描影象中看出更多資訊,醫生也能在AI解讀的基礎上完善診斷結果。現在,在蛋白質結構猜測方面,AlphaFold精彩地完成了任務,極大地節約了猜測本錢,假如這一猜測任務由博士生們以傳統方式進行,足以支付大部分AI的用度。

AI的積極影響還有許多,我們需要知道,在一定程度上,人類能夠做的任何事AI都能更高效地完成。鑑於AI具備的強盛能力,人類決不會拋卻發展AI。但與此同時,我也開始擔憂它們可能會帶來的負面影響。

Pieter Abbeel:現在人們聽到AI一詞時,泛起在腦海中的第一個題目就是:假如AI的智慧程度超過人類會發生什麼,是否會對人類造成威脅?

Geoffrey Hinton:顯然,我們但願將AI保持在可控範圍內,但掌控超越自己智慧水平的東西並非易事。人類是經由進化的生物,有一些強盛的目標,好比當真保養身體、吃足夠的食品等等,可AI並沒有這些目標。對此,我們可以設定目標並將其植入AI,讓AI圍繞人類的利益工作。

不外這種方式也可能泛起各式各樣的題目,以不良用途為例。假如國防部構建出機器人士兵,那麼這些士兵並不會遵守阿西莫夫原則(阿西莫夫第一原則是:機器人不得傷害人類個體,相反,它們要保護人類)。此外,我們還面臨對齊題目,假如賦予AI建立子目標的能力(好比我們想去機場,那麼可以建立一個總目標——找交通工具,然後再建立子目標,也就是將任務分解為幾個小目標),可以極大地晉升效率。我以為,我們會選擇賦予數字智慧建立子目標的能力,但題目是,假如AI建立了對人類有潛伏不利影響的目標怎麼辦?

為了應對這一題目,人們通常會設定子目標,以實現對AI的更多掌控權,這也意味著我們可以更好地實現其他目標。不外矛盾的是,我們一旦賦予AI設定子目標的能力,那麼它們其中一個子目標就會獲得更多控制權,但這又與我們不想讓它們獲得更多控制權的意願背道而馳。

Pieter Abbeel:最大的題目是,現在許多人擔心AI將控制世界。

Geoffrey Hinton:這確實是一大威脅。以前,我以為間隔AI控制世界還很遙遠,可能需要幾十甚至上百年時間,但現在我以為可能只需5-20年。一旦AI比人類智慧,那麼就會面臨一個題目:到底是AI控制世界,仍是我們控制AI?

我們正在進入一個有極大不確定性的時期,將與超越人類智慧的事物進行互動,而且沒有任何經驗可供參考,我真的不知道未來會如何發展。

最近,我和馬斯克進行了一次談話,他以為我們會開發出比人類更智慧的事物,但他但願它們讓人類存續,由於有人類存在的世界才更有趣。這是一種很斗膽的假設,相當於將人類的命運寄託到AI身上,但他以為這是完全有可能的,AI將變得更加智慧並獲得掌控權。

Pieter Abbeel:馬斯克設想的場景是AI與人類融合在一起,他的神經網路公司(Neuralink)正在想辦法讓AI和大腦相結合。

Geoffrey Hinton:那很有趣。人類有語音輸入和輸出能力,但沒有影片輸出能力。假如人類有了影片輸出能力,就能透過傳達影象進行溝通。不外這並不完全是馬斯克計劃要做的事,他想實現的是腦與腦之間的傳輸,將思維傳遞到一個相對抽象的層面。我們現在需要以一種他人能理解的方式傳輸資訊。影片輸出是一個相對不那麼雄偉的專案,現在已經有人知道該如何處理影片,並將其作為輸入進行處理了。

假如我們有影片輸出能力,那麼人與人之間的溝通將得到極大改善。好比當你向我傳達資訊時,你可以透過語言或畫圖,但在畫圖之前,你的腦海中可能已經有了一個影象(可能並非老是如斯,但大多數情況下是這樣)。假如你能夠迅速傳達腦海中的影象,那將增加資訊傳輸的頻寬,即使只增加一倍,也會是一個很大的晉升,並且實際情況甚至可能不止一倍。

「監管可能是獨一的辦法」

Pieter Abbeel:長期以來,一直有人呼籲對AI領域進行監管,馬斯克就是其中的典型,不外他並沒有明確提出詳細的監管建議。你以為應該採取哪些監管措施?

Geoffrey Hinton:人們經常將AI可能造成失業、偏見、政治分裂、威脅人類生存以及傳播虛假動靜等各種各樣的題目這些題目混為一談,我們有必要分清所面臨的到底是什麼題目。

就拿傳播虛假動靜掩蓋真相來說,假如我們被虛假的東西包抄,那麼所面臨的境況會是多麼艱難。政府一直都在嚴厲打擊製造假鈔行為,假如有人給你假鈔,而你在明知是假鈔的情況下還拿去消費,這也是違法行為(即便不如製造假鈔嚴峻)。

因此,對於AI天生的內容,我們也要想辦法對其進行標記,假如有人在明知是虛假內容的條件下將其假冒為真,就應該受到嚴肅的法律處罰。現在能否很好地對真假內容進行檢測是另一回事,但至少我們要朝著這個方向前進,加強監管,避免被假象沉沒。

Pieter Abbeel:我贊同你的觀點。不外製定規則可能比較輕易,但實際執行也許會比較難題。

Geoffrey Hinton:為什麼執行會很難題?假設使用深度學習來匡助檢測虛假內容,我們構建了一個能夠檢測偽造品的AI系統,但實在利用這種系統能練習AI天生更加逼真的假冒產品,這也是GAN模型的工作原理。因此,我們不能指望AI系統檢測出虛假內容。

Pieter Abbeel:對AI天生內容進行加密是否可以解決這個題目?好比對AI天生的內容新增加密簽名,顯示內容的作者,然後將作者身份和聲譽與內容的可信度聯絡起來。假如作者在內容中添加了虛假資訊,他的聲譽就會受到損害。

Geoffrey Hinton:英國曾經就這樣做過,甚至現在可能仍是這樣:無論你印刷什麼東西,即使是小型示威的宣傳冊,都必需在上面印上印刷者的身份,未印刷身份資訊是違法的。固然我對密碼學和加密技術一竅不通,但這種設法聽起來十分公道。

Pieter Abbeel:固然監管可能難以實施,但從原則上講,仍是有一個明確的框架來避免人們被假新聞、假影片和虛假文字所誤導。

Geoffrey Hinton:為避免引發政治分裂,我們還可以對標題黨(Clickbait)進行監管。Facebook、YouTube等社交媒體經常會對使用者推送一些產生覆信室效應的內容,這種過度的資訊過濾和選擇性接觸可能導致人們極端化,加劇社會、政治分裂。這也是我不願再為Google工作的原因之一。

我們可以透過立法來阻止這種行為,固然很棘手,但至關重要。假如想要維持民主,避免群體分裂,互相仇視,就需要採取措施監管媒體公司,避免這些公司推送可能激化矛盾的內容。

Pieter Abbeel:幾周前,有人呼籲暫停練習比GPT-4更大的模型,你怎麼看?

Geoffrey Hinton:從政治上看,這封呼籲信或許是明智的,由於它引起了人們對AI安全的關注。但這種呼籲實在很愚蠢,所以我沒有在呼籲信上簽名。即使美國暫停練習AI,中國不會暫停,俄羅斯也不會暫停,所以這是不現實的。

對於這個題目,我贊同Sam Altman的看法:面對這些技術可能帶來的潛伏風險題目,因為我們無法阻止其發展,所以最好的方式是鼎力開發它們,在開發過程中學會更好地理解和控制它們。就像寫程式一樣,坐而論道是不行的,我們必需步履起來,進行實驗和除錯,以瞭解可能發生的情況。

在大力發展AI的同時,我們應該著力於解決潛伏的負面影響,避免失控,我們必需非常嚴厲地對待這個題目。當前投入資金的99%都用在了開發上面,只有1%用於安全方面,我以為今後這個比例應該五五開。

Pieter Abbeel:從學術角度看,用於AI研發和安全的資金比例達到五五開是可能的,資助機構只需在申請要求上加上這一點即可。但私企基本都是利益驅動,更注重開發能帶來更多利潤的產品,他們願意把一半的資金放在安全題目上嗎?

Geoffrey Hinton:我只是一名科學家,並非政策專家,只能留意到可能發生的事情。實在Google在這方面仍是相對負責任的,在研發出Transformer之後,他們在這一領域處於領先地位,之後又研發出了聊天機器人,但並沒有急於將其推向市場,由於他們意識到聊天機器人可能會產生許多負面影響。但當微軟資助OpenAI並在必應中使用聊天機器人後,Google別無選擇,只能努力進行工程改進,以開發出與ChatGPT相匹敵的Bard。

在資本主義體系下,大公司很難有其他選擇,假如要讓他們犧牲利益,監管可能是獨一的辦法。

數字智慧優於生物智慧不可避免?

Pieter Abbeel:在接下來的30-50年,我們應該把重點放在哪裡?

Geoffrey Hinton:就歷史演進來看,數字智慧優於生物智慧可能是不可避免的,數字智慧可能是下一個進化階段,我們應儘可能保持AI處於可控範圍。

有時我會想:假如田雞發明了人類並想要控制人類,但就智力而言,田雞和人類之間差距巨大,所以我不以為「發明人類」對田雞來說是一件好事。

當然,這並非真實論點,由於人類由進化而來,在向著自己的目標演進,但數字智慧並沒有自己的目標。一旦數字智慧有了「自我繁衍(make more of me)」這一設法,那麼進化就發生了,最有決心實現自身繁衍的數字智慧將會勝出。

Pieter Abbeel:假如我們想讓數字智慧有這種目標,這個過程會不會很難題?

Geoffrey Hinton:給數字智慧以「自我繁衍」的目標很輕易,但這種做法十分瘋狂。

Pieter Abbeel:人類今天的地位是進化的結果,或許最智慧的數字智慧也會在競爭中泛起。它們不是與人類競爭,而是與其他數字智慧競爭。

Geoffrey Hinton:你可以觀察到,因為人類智慧功耗很低,跟著不斷進化構建出了發電站和大量數字智慧,而數字智慧需要大量功耗,並提供高精度製造能力,這些數字智慧是進化的下一階段,它們彼此競爭並變得更加強盛。人類傾向於構建比自己智慧的智慧體,後者可以以某種方式替換聯合國,擔任「智慧調解者(intelligent mediator)」。該智慧體沒有自己的目標,我們每個人都可能按照它的安排來行事,就像孩子完全信任父母一樣。當然,這只是烏托邦式願望,但也並非沒有可能。

Pieter Abbeel:從技術上講,你所說的好像可行,但需要人類團結一致。

Geoffrey Hinton:這種情景在理論上是可行的。但人們在沒有實際經驗的情況下進行推測,往往離真相相稱遙遠。一旦獲得一些實際經驗,就會意識到自己的理論有多麼離譜,還需進行修正。因此,在技術不斷發展的過程中,我們需要進行大量工作,瞭解其中的風險,並進行實證實驗,以觀察智慧系統執行時,是否傾向於控制人類,是否會產生自我繁衍的目標等。

Pieter Abbeel:短期來看,擁有能設定自我目標並執行任務的AI可能並非壞事。一方面我們可以利用AI賺錢,另一方面可以使其利用自身資源和其他資源做事。但從長期來看,這樣又可能產生滑坡效應,我們無法控制AI為實現自我目標而設定的子目標,以及由此可能產生意料之外的後果。

Geoffrey Hinton:這涉及到對齊題目。

Pieter Abbeel:是的,這非常難題。不外我們可以對AI分類,一類是那些旨在完成任務並能設定目標的AI,另一類是純粹作為參謀的AI,後者擁有豐碩的知識和猜測能力,能為人類提供建議和聰明,但它們僅僅擔任參謀一職,不介入任務執行。

Geoffrey Hinton:這樣會非常有用。不外,僅僅不讓AI按下控制按鈕無法保證能消除它的潛伏風險。聊天機器人能閱讀馬基雅維利(Machiavelli)的作品以及其他關於操作的小說,從而成為操作巨匠。它不需要任何實際操作,只需操作他人,就可以實現一系列步履。如果機器人想入侵華盛頓的建築,那麼它們只需讓人們以為這是挽救民主的獨一方式即可。

因此,一種不答應AI實際做任何事情,只答應與人交談的隔離措施是不夠的,假如AI可以與人交談,它就能操作人類,並透過操作人類來達到自己的目的。所以關鍵在於AI的內建目標。假如AI產生了自我繁衍的目標,那麼人類就會陷入麻煩。

Pieter Abbeel:有人提出,將來我們可以讓AI擔任公司CEO,在AI的帶領下,公司可以得到更好的發展,由於AI能夠更好地瞭解、把握公司和世界的發展趨勢,作出更好的決議計劃。

Geoffrey Hinton:這種設法沒什麼題目。關於猜測未來,就拿開車來說,人們經常在夜晚開車,碰到大霧時常常發生交通事故。開車時我們可以看到前方車輛的尾燈,尾燈亮度隨間隔的平方反比衰減,一旦碰到大霧,就會跟著間隔損失相應亮度。

在霧中,我們可以看到前方一百碼的情況,這時人們就會誤認為自己能夠適度地看到前一千碼的情況,但事實上我們甚至難以看清前兩百碼處的情況。前方彷彿泛起了一堵牆,我們的視野將變得有限或具有不確定性。

在推斷未來事件時,人們經常使用線性或二次模型,假設變化是逐漸發生的。然而,現實情況是,未來可能呈現出指數級的變化,使得長期猜測變得難題。

我喜歡《紐約時報》在1902年的一篇文章中寫的故事:人造飛行器將需要百萬或者甚至一千萬年才能研發出來,但實際上兩個月後飛行器就泛起了。

Pieter Abbeel:你說,生物進化也許只是一個出發點,接下來可能是基於計算機的數字進化或其他形式的進化。假設未來存在一種數字生命形態,在某種程度上比當今人類更具統治地位。這種數字生命體可能對人類、其他生物和四周的一切都很友好,但也可能會摧毀一切。那麼我們是否需要考慮確保它往好的方面發展?

Geoffrey Hinton:這絕對值得考慮。數字生命體將會是非常不同的存在,它們不需要擔心死亡。人們可能還未真正留意到這一點,但實際上我們已經發現了計算機科學領域中長生的秘密:將軟體與硬體分離。人工神經網路就是如斯,假如某個硬體損壞了,知識並不會消失,權重可以記實在某個地方,只要有另一塊能夠執行相同指令的硬體,知識就能「復活」。

人類的學習演算法好像利用了大腦連線(wiring)和神經元工作的所有特殊方式,這使其在能源效率上更加高效。但也意味著硬體死亡時,知識會隨之消失,除非將其傳遞給其他人。例如,Ray Kurzweil但願獲得長生,但他作為生物體不會實現。不外,也許人類長生之後,會變得友善一點。

「退休」計劃

Pieter Abbeel:你是否會繼承宣傳AI發展存在的風險?仍是現在人們已經意識到這個題目,你的任務已經完成了?

Geoffrey Hinton:我也不知道。我沒有想到會引發這麼大的反響,也還沒有仔細想過接下來會發生什麼。估計我會繼承思索如何控制這個題目,偶然發表一些演講,鼓勵人們去解決對齊題目。但我不會全身心投入到這些事情上,相比之下我更喜歡鑽研演算法,接下來我可能會繼承研究forward-forward演算法及相關演算法,這是我更擅長的事。

Pieter Abbeel:一方面誇大對齊的重要性,另一方面又想了解大腦的運作方式,這兩者之間是否存在矛盾?

Geoffrey Hinton:理解大腦的運作方式不會有什麼題目,真正會帶來麻煩的是構建比大腦更強盛的東西。假如我們能更好地理解人類,就能夠使社會變得更好。

Pieter Abbeel:你對AI研究職員或但願為這個領域做出貢獻的人有什麼建議?

Geoffrey Hinton:可以嘗試與最進步前輩的聊天機器人互動,以便更深入地理解其智慧程度和工作原理。固然我們知道它的基礎是Transformer模型,但目前我們並不完全清晰模型是如何完成推理任務的。

此外,我們應該關注如何在AI的發展過程中對其進行控制。當然,我並不是AI對齊方面的專家。跟著超級智慧可能很快到來,我的任務是敲響警鐘,讓人們意識到這方面的題目。

Pieter Abbeel:離開Google後,你應該有大量時間去做自己喜歡的事。

Geoffrey Hinton:在Google工作時,同事常常討論工作與生活的平衡,但因為工作太忙,我從未介入類似的研討會。前50年我都在忙於工作,錯過了許多好片子,接下來我想在Netflix上把錯過的片子都看一遍,並且儘量多陪陪我的孩子,儘管他們已不再是小孩了。

卡內基梅隆大學的Allen Newell曾給他的研究生說:假如每週的工作時間少於80小時,那麼你就不是一名合格的科學家。我並不贊同這種說法,現在我打算平衡一下工作和生活,這並不意味著我會住手做研究,即使我不再像以前一樣在研究上花大量時間,但研究本身仍是很有趣。

來源:OneFlow

翻譯:楊婷 賈川

【新智元導讀】AI巨佬Hinton離職,後悔自己一生在人工智慧領域做出的貢獻,莫非真是錯付了嗎?

ChatGPT等大模型帶來的震撼技術革新,讓Geoffrey Hinton忽然改變了自己的一個設法。

這位75歲的「人工智慧教父」意識到,數字智慧優於生物智慧的程序無法避免,超級智慧很快就會到來,他必需要對其風險發出警示,而人類需要找到一種方法來控制AI技術的發展。而在此之前,他一直以為,智慧機器人不會像人類一樣智慧,不會朝著AGI的方向發展。

【新智元導讀】AI巨佬Hinton離職,後悔自己一生在人工智慧領域做出的貢獻,莫非真是錯付了嗎?

ChatGPT等大模型帶來的震撼技術革新,讓Geoffrey Hinton忽然改變了自己的一個設法。

這位75歲的「人工智慧教父」意識到,數字智慧優於生物智慧的程序無法避免,超級智慧很快就會到來,他必需要對其風險發出警示,而人類需要找到一種方法來控制AI技術的發展。而在此之前,他一直以為,智慧機器人不會像人類一樣智慧,不會朝著AGI的方向發展。

【新智元導讀】AI巨佬Hinton離職,後悔自己一生在人工智慧領域做出的貢獻,莫非真是錯付了嗎?

ChatGPT等大模型帶來的震撼技術革新,讓Geoffrey Hinton忽然改變了自己的一個設法。

這位75歲的「人工智慧教父」意識到,數字智慧優於生物智慧的程序無法避免,超級智慧很快就會到來,他必需要對其風險發出警示,而人類需要找到一種方法來控制AI技術的發展。而在此之前,他一直以為,智慧機器人不會像人類一樣智慧,不會朝著AGI的方向發展。

上一篇:瀘惠保2023年... 下一篇:這類運動,腎...
猜你喜歡
熱門閱讀
同類推薦