“ChatGPT之父”等350名業內人士簽署公開信並警告:AI可能滅絕人類

首頁 > 科技

“ChatGPT之父”等350名業內人士簽署公開信並警告:AI可能滅絕人類

來源:追劇小能手 釋出時間:2023-05-31 15:08

日前,超過350名人工智慧(AI)領域的行業高管、專家和教授簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險。

這份公開信釋出在非營利組織人工智慧安全中心(Center for AI Safety)的網站上,簽署者包括OpenAI執行長山姆·奧特曼、DeepMind執行長Demis Hassabis、Anthropic執行長Dario Amodei以及微軟和谷歌的高管等。

公開信的核心只有一段話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”這份公開信由超過 350 名從事人工智慧工作的高管、研究人員和工程師簽署,他們呼籲加強監管和管理,避免類似的問題出現。

自聊天機器人ChatGPT掀起AI熱潮以來,對這項技術潛在風險的擔憂持續增加。此次公開信引發了廣泛關注和熱議,也使得人們對 AI 技術的發展和應用有了更加深入的思考與探討。

其實早在今年3 月,就一篇有關叫停 6 個月 AI 研究的公開信火遍了全網。

包括特斯拉CEO埃隆·馬斯克在內的1000多名行業高管和專家簽署公開信,呼籲在6個月內暫停高階AI的開發。馬斯克等人在信中寫道,高階AI可能會對社會和人類構成深遠的風險。

公開信的原文如下:

人工智慧具有與人類競爭的智慧,這可能給社會和人類帶來深刻的風險,這已經透過大量研究得到證實,並得到了頂級AI實驗室的認可。正如廣泛認可的阿西洛馬爾人工智慧原則(Asilomar AI Principles)所指出的,提高前輩的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:

我們應該讓機器充斥我們的資訊渠道,傳播宣傳和謊言嗎?

我們應該將所有工作都自動化,包括那些令人滿意的工作嗎?

我們應該發展可能最終超過、取代我們的非人類思維嗎?

我們應該冒失控文明的風險嗎?這些決議計劃不應該由非選舉產生的科技領導人來負責。只有當我們確信AI系統的影響是積極的,風險是可控的,我們才應該開發強大的AI系統。這種決心信念必須得到充分的理由,並隨著系統潛在影響的增大而增強。

OpenAI 最近關於人工智慧的宣告指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對於最提高前輩的努力,需要同意限制用於建立新模型的計算增長速度。」我們同意。現在就是那個時刻。因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,幷包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入並實行一個暫禁令。

AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的提高前輩 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格稽核和監督。這些協議應確保遵守它們的系統在合理懷疑範圍之外是安全的。

這並不意味著暫停AI發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。AI 研究和開發應該重點放在提高現有強大、提高前輩系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 管理體系的發展。這些至少應包括:

專門負責 AI 的新的、有能力的監管機構;

對高能力 AI 系統和大型計算能力池的監督和跟蹤;

用於區分真實與合成內容、跟蹤模型洩漏的溯源和水印系統;

健全的審計和認證生態系統;對 AI 造成的損害承擔責任;

技術AI安全研究的充足公共資金;

應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個「AI 盛夏」,在其中我們收穫回報,將這些系統明確地用於造福所有人,並讓社會有機會適應。在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這裡,我們也可以這樣做。讓我們享受一個漫長的AI盛夏,而不是毫無準備地衝向秋天。

日前,超過350名人工智慧(AI)領域的行業高管、專家和教授簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險。

這份公開信釋出在非營利組織人工智慧安全中心(Center for AI Safety)的網站上,簽署者包括OpenAI執行長山姆·奧特曼、DeepMind執行長Demis Hassabis、Anthropic執行長Dario Amodei以及微軟和谷歌的高管等。

公開信的核心只有一段話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”這份公開信由超過 350 名從事人工智慧工作的高管、研究人員和工程師簽署,他們呼籲加強監管和管理,避免類似的問題出現。

自聊天機器人ChatGPT掀起AI熱潮以來,對這項技術潛在風險的擔憂持續增加。此次公開信引發了廣泛關注和熱議,也使得人們對 AI 技術的發展和應用有了更加深入的思考與探討。

其實早在今年3 月,就一篇有關叫停 6 個月 AI 研究的公開信火遍了全網。

包括特斯拉CEO埃隆·馬斯克在內的1000多名行業高管和專家簽署公開信,呼籲在6個月內暫停高階AI的開發。馬斯克等人在信中寫道,高階AI可能會對社會和人類構成深遠的風險。

公開信的原文如下:

人工智慧具有與人類競爭的智慧,這可能給社會和人類帶來深刻的風險,這已經透過大量研究得到證實,並得到了頂級AI實驗室的認可。正如廣泛認可的阿西洛馬爾人工智慧原則(Asilomar AI Principles)所指出的,提高前輩的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:

我們應該讓機器充斥我們的資訊渠道,傳播宣傳和謊言嗎?

我們應該將所有工作都自動化,包括那些令人滿意的工作嗎?

我們應該發展可能最終超過、取代我們的非人類思維嗎?

我們應該冒失控文明的風險嗎?這些決議計劃不應該由非選舉產生的科技領導人來負責。只有當我們確信AI系統的影響是積極的,風險是可控的,我們才應該開發強大的AI系統。這種決心信念必須得到充分的理由,並隨著系統潛在影響的增大而增強。

OpenAI 最近關於人工智慧的宣告指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對於最提高前輩的努力,需要同意限制用於建立新模型的計算增長速度。」我們同意。現在就是那個時刻。因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,幷包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入並實行一個暫禁令。

AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的提高前輩 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格稽核和監督。這些協議應確保遵守它們的系統在合理懷疑範圍之外是安全的。

這並不意味著暫停AI發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。AI 研究和開發應該重點放在提高現有強大、提高前輩系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 管理體系的發展。這些至少應包括:

專門負責 AI 的新的、有能力的監管機構;

對高能力 AI 系統和大型計算能力池的監督和跟蹤;

用於區分真實與合成內容、跟蹤模型洩漏的溯源和水印系統;

健全的審計和認證生態系統;對 AI 造成的損害承擔責任;

技術AI安全研究的充足公共資金;

應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個「AI 盛夏」,在其中我們收穫回報,將這些系統明確地用於造福所有人,並讓社會有機會適應。在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這裡,我們也可以這樣做。讓我們享受一個漫長的AI盛夏,而不是毫無準備地衝向秋天。

日前,超過350名人工智慧(AI)領域的行業高管、專家和教授簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險。

這份公開信釋出在非營利組織人工智慧安全中心(Center for AI Safety)的網站上,簽署者包括OpenAI執行長山姆·奧特曼、DeepMind執行長Demis Hassabis、Anthropic執行長Dario Amodei以及微軟和谷歌的高管等。

公開信的核心只有一段話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”這份公開信由超過 350 名從事人工智慧工作的高管、研究人員和工程師簽署,他們呼籲加強監管和管理,避免類似的問題出現。

自聊天機器人ChatGPT掀起AI熱潮以來,對這項技術潛在風險的擔憂持續增加。此次公開信引發了廣泛關注和熱議,也使得人們對 AI 技術的發展和應用有了更加深入的思考與探討。

其實早在今年3 月,就一篇有關叫停 6 個月 AI 研究的公開信火遍了全網。

包括特斯拉CEO埃隆·馬斯克在內的1000多名行業高管和專家簽署公開信,呼籲在6個月內暫停高階AI的開發。馬斯克等人在信中寫道,高階AI可能會對社會和人類構成深遠的風險。

公開信的原文如下:

人工智慧具有與人類競爭的智慧,這可能給社會和人類帶來深刻的風險,這已經透過大量研究得到證實,並得到了頂級AI實驗室的認可。正如廣泛認可的阿西洛馬爾人工智慧原則(Asilomar AI Principles)所指出的,提高前輩的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:

我們應該讓機器充斥我們的資訊渠道,傳播宣傳和謊言嗎?

我們應該將所有工作都自動化,包括那些令人滿意的工作嗎?

我們應該發展可能最終超過、取代我們的非人類思維嗎?

我們應該冒失控文明的風險嗎?這些決議計劃不應該由非選舉產生的科技領導人來負責。只有當我們確信AI系統的影響是積極的,風險是可控的,我們才應該開發強大的AI系統。這種決心信念必須得到充分的理由,並隨著系統潛在影響的增大而增強。

OpenAI 最近關於人工智慧的宣告指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對於最提高前輩的努力,需要同意限制用於建立新模型的計算增長速度。」我們同意。現在就是那個時刻。因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,幷包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入並實行一個暫禁令。

AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的提高前輩 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格稽核和監督。這些協議應確保遵守它們的系統在合理懷疑範圍之外是安全的。

這並不意味著暫停AI發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。AI 研究和開發應該重點放在提高現有強大、提高前輩系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 管理體系的發展。這些至少應包括:

專門負責 AI 的新的、有能力的監管機構;

對高能力 AI 系統和大型計算能力池的監督和跟蹤;

用於區分真實與合成內容、跟蹤模型洩漏的溯源和水印系統;

健全的審計和認證生態系統;對 AI 造成的損害承擔責任;

技術AI安全研究的充足公共資金;

應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個「AI 盛夏」,在其中我們收穫回報,將這些系統明確地用於造福所有人,並讓社會有機會適應。在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這裡,我們也可以這樣做。讓我們享受一個漫長的AI盛夏,而不是毫無準備地衝向秋天。

日前,超過350名人工智慧(AI)領域的行業高管、專家和教授簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險。

這份公開信釋出在非營利組織人工智慧安全中心(Center for AI Safety)的網站上,簽署者包括OpenAI執行長山姆·奧特曼、DeepMind執行長Demis Hassabis、Anthropic執行長Dario Amodei以及微軟和谷歌的高管等。

公開信的核心只有一段話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”這份公開信由超過 350 名從事人工智慧工作的高管、研究人員和工程師簽署,他們呼籲加強監管和管理,避免類似的問題出現。

自聊天機器人ChatGPT掀起AI熱潮以來,對這項技術潛在風險的擔憂持續增加。此次公開信引發了廣泛關注和熱議,也使得人們對 AI 技術的發展和應用有了更加深入的思考與探討。

其實早在今年3 月,就一篇有關叫停 6 個月 AI 研究的公開信火遍了全網。

包括特斯拉CEO埃隆·馬斯克在內的1000多名行業高管和專家簽署公開信,呼籲在6個月內暫停高階AI的開發。馬斯克等人在信中寫道,高階AI可能會對社會和人類構成深遠的風險。

公開信的原文如下:

人工智慧具有與人類競爭的智慧,這可能給社會和人類帶來深刻的風險,這已經透過大量研究得到證實,並得到了頂級AI實驗室的認可。正如廣泛認可的阿西洛馬爾人工智慧原則(Asilomar AI Principles)所指出的,提高前輩的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:

我們應該讓機器充斥我們的資訊渠道,傳播宣傳和謊言嗎?

我們應該將所有工作都自動化,包括那些令人滿意的工作嗎?

我們應該發展可能最終超過、取代我們的非人類思維嗎?

我們應該冒失控文明的風險嗎?這些決議計劃不應該由非選舉產生的科技領導人來負責。只有當我們確信AI系統的影響是積極的,風險是可控的,我們才應該開發強大的AI系統。這種決心信念必須得到充分的理由,並隨著系統潛在影響的增大而增強。

OpenAI 最近關於人工智慧的宣告指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對於最提高前輩的努力,需要同意限制用於建立新模型的計算增長速度。」我們同意。現在就是那個時刻。因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,幷包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入並實行一個暫禁令。

AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的提高前輩 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格稽核和監督。這些協議應確保遵守它們的系統在合理懷疑範圍之外是安全的。

這並不意味著暫停AI發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。AI 研究和開發應該重點放在提高現有強大、提高前輩系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 管理體系的發展。這些至少應包括:

專門負責 AI 的新的、有能力的監管機構;

對高能力 AI 系統和大型計算能力池的監督和跟蹤;

用於區分真實與合成內容、跟蹤模型洩漏的溯源和水印系統;

健全的審計和認證生態系統;對 AI 造成的損害承擔責任;

技術AI安全研究的充足公共資金;

應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個「AI 盛夏」,在其中我們收穫回報,將這些系統明確地用於造福所有人,並讓社會有機會適應。在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這裡,我們也可以這樣做。讓我們享受一個漫長的AI盛夏,而不是毫無準備地衝向秋天。

日前,超過350名人工智慧(AI)領域的行業高管、專家和教授簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來滅絕風險。

這份公開信釋出在非營利組織人工智慧安全中心(Center for AI Safety)的網站上,簽署者包括OpenAI執行長山姆·奧特曼、DeepMind執行長Demis Hassabis、Anthropic執行長Dario Amodei以及微軟和谷歌的高管等。

公開信的核心只有一段話:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起,成為全球優先事項。”這份公開信由超過 350 名從事人工智慧工作的高管、研究人員和工程師簽署,他們呼籲加強監管和管理,避免類似的問題出現。

自聊天機器人ChatGPT掀起AI熱潮以來,對這項技術潛在風險的擔憂持續增加。此次公開信引發了廣泛關注和熱議,也使得人們對 AI 技術的發展和應用有了更加深入的思考與探討。

其實早在今年3 月,就一篇有關叫停 6 個月 AI 研究的公開信火遍了全網。

包括特斯拉CEO埃隆·馬斯克在內的1000多名行業高管和專家簽署公開信,呼籲在6個月內暫停高階AI的開發。馬斯克等人在信中寫道,高階AI可能會對社會和人類構成深遠的風險。

公開信的原文如下:

人工智慧具有與人類競爭的智慧,這可能給社會和人類帶來深刻的風險,這已經透過大量研究得到證實,並得到了頂級AI實驗室的認可。正如廣泛認可的阿西洛馬爾人工智慧原則(Asilomar AI Principles)所指出的,提高前輩的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:

我們應該讓機器充斥我們的資訊渠道,傳播宣傳和謊言嗎?

我們應該將所有工作都自動化,包括那些令人滿意的工作嗎?

我們應該發展可能最終超過、取代我們的非人類思維嗎?

我們應該冒失控文明的風險嗎?這些決議計劃不應該由非選舉產生的科技領導人來負責。只有當我們確信AI系統的影響是積極的,風險是可控的,我們才應該開發強大的AI系統。這種決心信念必須得到充分的理由,並隨著系統潛在影響的增大而增強。

OpenAI 最近關於人工智慧的宣告指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對於最提高前輩的努力,需要同意限制用於建立新模型的計算增長速度。」我們同意。現在就是那個時刻。因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,幷包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入並實行一個暫禁令。

AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的提高前輩 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格稽核和監督。這些協議應確保遵守它們的系統在合理懷疑範圍之外是安全的。

這並不意味著暫停AI發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。AI 研究和開發應該重點放在提高現有強大、提高前輩系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 管理體系的發展。這些至少應包括:

專門負責 AI 的新的、有能力的監管機構;

對高能力 AI 系統和大型計算能力池的監督和跟蹤;

用於區分真實與合成內容、跟蹤模型洩漏的溯源和水印系統;

健全的審計和認證生態系統;對 AI 造成的損害承擔責任;

技術AI安全研究的充足公共資金;

應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之後,我們現在可以享受一個「AI 盛夏」,在其中我們收穫回報,將這些系統明確地用於造福所有人,並讓社會有機會適應。在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這裡,我們也可以這樣做。讓我們享受一個漫長的AI盛夏,而不是毫無準備地衝向秋天。

上一篇:HPE宣佈收購... 下一篇:股票股息穩定...
猜你喜歡
熱門閱讀
同類推薦