阻止 AI 說謊!OpenAI 引入新訓練法,要人工智慧「停止蒙蔽人類」

2023-06-02 14:24:00    編輯: 動區動趨
導讀 儘管 ChatGPT、微軟的 Bing 和 Google 的 Bard 等聊天機器人,在過去半年間展示出令人驚豔的能力,但它們仍有一個致命缺點,那就是會編造答案,即所謂的「人工智慧幻覺」(hallu...


管 ChatGPT、微軟的 Bing 和 Google 的 Bard 等聊天機器人,在過去半年間展示出令人驚豔的能力,但它們仍有一個致命缺點,那就是會編造答案,即所謂的「人工智慧幻覺」(hallucinations),這讓 AI 是否會對人類造成重大危機的討論就被推向高峰。

OpenAI 希望阻止 AI 產生幻覺

近日 ChatGPT 開發商 OpenAI 就對此發表論文,闡述已找到對策,希望解決 AI 在生成內容時出現的問題,包括「幻覺」和「撒謊」,從而減少模型邏輯錯誤,避免編造謊言。

根據這篇文章,OpenAI 意識到 AI 系統可能會生成虛假的訊息或誤導性的內容,這可能對使用者產生負面影響。為了解決這個問題,他們提出了一種新的訓練方法,稱為「抑制式學習」(inhibition learning),旨在教導 AI 辨別和避免產生虛假或誤導性的內容。

另外,據 CNBC ,OpenAI 的研究人員表示,未來將會在訓練 AI 模型期間加以監督,當 AI 在每個步驟推理正確時,便會給予獎勵,而不是僅等到推理出正確的最終結論時才給予獎勵。研究人員解釋:

這方法為「過程監督」,不再只是進行「結果監督」,相信這能更有效地鼓勵模型,可按照類似人類的思考方式進行推理,訓練出更好的 AI。

據了解,人工智慧幻覺指的是,AI 自信地生成出看似具說服力、實際卻是錯誤答案的問題,儘管這答案在其訓練數據中並不合理。多數研究人員認為,幻覺問題是運行聊天機器人的大型語言模型(Large Language Models)本身設計的問題。

而目前研究人員紛紛提出建議,盼能不斷改善相關問題,例如麻省理工學院(MIT)最新報告就提議,讓多個機器人相互辯論,來取得更符合事實的答案。

此外,一封包括「OpenAI 執行長」Sam Altman 在內的 350 位 AI 領域的權威專家,也在本週共同簽署了一封公開信,呼籲人們重視正在開發的 AI 技術,可能會對人類生存構成重大威脅。

(本文由  授權轉載;首圖來源:)

延伸閱讀:



關鍵字: , , ,


標題:阻止 AI 說謊!OpenAI 引入新訓練法,要人工智慧「停止蒙蔽人類」

地址:https://www.utechfun.com/post/220687.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡