AI 胡編亂造怎麼辦,OpenAI 稱找到解決“幻覺”方法

首頁 > 科技

AI 胡編亂造怎麼辦,OpenAI 稱找到解決“幻覺”方法

來源:喬治葫蘆娃 釋出時間:2023-06-01 11:38

《AI前哨》北京時間6月1日訊息,ChatGPT開發商OpenAI週三釋出了一份研究論文,闡述瞭如何解決人工智慧(AI)“幻覺”的新方法。AI幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT或谷歌“巴德”(Bard)這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是AI幻覺。舉個例子:在谷歌2月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份檔案中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI研究人員在報告中稱:“即使是最提高前輩的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。”

為了對抗AI幻覺,OpenAI找到了一種潛在新策略:訓練AI模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智慧(AI)的關鍵步驟。”OpenAI數學論文生成器(mathgen)研究員卡爾・科布(KarlCobbe)在接受採訪時表示。他指出,儘管OpenAI並非發明了過程監督方法,但該公司正在推動其發展。“這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。”

科布說,OpenAI已經發布了一個附帶的資料集,其中包含80萬個人類標註,它們用於訓練研究論文中提到的模型。鳳凰網科技《AI前哨》對此將持續關注。

《AI前哨》北京時間6月1日訊息,ChatGPT開發商OpenAI週三釋出了一份研究論文,闡述瞭如何解決人工智慧(AI)“幻覺”的新方法。AI幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT或谷歌“巴德”(Bard)這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是AI幻覺。舉個例子:在谷歌2月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份檔案中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI研究人員在報告中稱:“即使是最提高前輩的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。”

為了對抗AI幻覺,OpenAI找到了一種潛在新策略:訓練AI模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智慧(AI)的關鍵步驟。”OpenAI數學論文生成器(mathgen)研究員卡爾・科布(KarlCobbe)在接受採訪時表示。他指出,儘管OpenAI並非發明了過程監督方法,但該公司正在推動其發展。“這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。”

科布說,OpenAI已經發布了一個附帶的資料集,其中包含80萬個人類標註,它們用於訓練研究論文中提到的模型。鳳凰網科技《AI前哨》對此將持續關注。

《AI前哨》北京時間6月1日訊息,ChatGPT開發商OpenAI週三釋出了一份研究論文,闡述瞭如何解決人工智慧(AI)“幻覺”的新方法。AI幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT或谷歌“巴德”(Bard)這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是AI幻覺。舉個例子:在谷歌2月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份檔案中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI研究人員在報告中稱:“即使是最提高前輩的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。”

為了對抗AI幻覺,OpenAI找到了一種潛在新策略:訓練AI模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智慧(AI)的關鍵步驟。”OpenAI數學論文生成器(mathgen)研究員卡爾・科布(KarlCobbe)在接受採訪時表示。他指出,儘管OpenAI並非發明了過程監督方法,但該公司正在推動其發展。“這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。”

科布說,OpenAI已經發布了一個附帶的資料集,其中包含80萬個人類標註,它們用於訓練研究論文中提到的模型。鳳凰網科技《AI前哨》對此將持續關注。

《AI前哨》北京時間6月1日訊息,ChatGPT開發商OpenAI週三釋出了一份研究論文,闡述瞭如何解決人工智慧(AI)“幻覺”的新方法。AI幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT或谷歌“巴德”(Bard)這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是AI幻覺。舉個例子:在谷歌2月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份檔案中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI研究人員在報告中稱:“即使是最提高前輩的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。”

為了對抗AI幻覺,OpenAI找到了一種潛在新策略:訓練AI模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智慧(AI)的關鍵步驟。”OpenAI數學論文生成器(mathgen)研究員卡爾・科布(KarlCobbe)在接受採訪時表示。他指出,儘管OpenAI並非發明了過程監督方法,但該公司正在推動其發展。“這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。”

科布說,OpenAI已經發布了一個附帶的資料集,其中包含80萬個人類標註,它們用於訓練研究論文中提到的模型。鳳凰網科技《AI前哨》對此將持續關注。

《AI前哨》北京時間6月1日訊息,ChatGPT開發商OpenAI週三釋出了一份研究論文,闡述瞭如何解決人工智慧(AI)“幻覺”的新方法。AI幻覺指的是聊天機器人用編造的資訊進行回應。

ChatGPT或谷歌“巴德”(Bard)這樣的聊天機器人會完全捏造資訊,表現得好像他們在滔滔不絕地講事實,這就是AI幻覺。舉個例子:在谷歌2月份為巴德拍攝的宣傳影片中,這個聊天機器人對詹姆斯・韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份檔案中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI研究人員在報告中稱:“即使是最提高前輩的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案。”

為了對抗AI幻覺,OpenAI找到了一種潛在新策略:訓練AI模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監督”,與之相反的是“結果監督”,這可能會訓練出更好的可解釋AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。

“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智慧(AI)的關鍵步驟。”OpenAI數學論文生成器(mathgen)研究員卡爾・科布(KarlCobbe)在接受採訪時表示。他指出,儘管OpenAI並非發明了過程監督方法,但該公司正在推動其發展。“這項研究的動機是解決幻覺問題,以使模型在解決具有挑戰性的推理問題方面能力更強。”

科布說,OpenAI已經發布了一個附帶的資料集,其中包含80萬個人類標註,它們用於訓練研究論文中提到的模型。鳳凰網科技《AI前哨》對此將持續關注。

上一篇:小夥野外爬山... 下一篇:淺談三維模型...
猜你喜歡
熱門閱讀
同類推薦