儘管 ChatGPT、微軟的 Bing 和 Google 的 Bard 等聊天機器人,在過去半年間展示出令人驚豔的能力,但它們仍有一個致命缺點,那就是會編造答案,即所謂的「人工智慧幻覺」(hallucinations),這讓 AI 是否會對人類造成重大危機的討論就被推向高峰。
OpenAI 希望阻止 AI 產生幻覺
近日 ChatGPT 開發商 OpenAI 就對此發表論文,闡述已找到對策,希望解決 AI 在生成內容時出現的問題,包括「幻覺」和「撒謊」,從而減少模型邏輯錯誤,避免編造謊言。
根據這篇文章,OpenAI 意識到 AI 系統可能會生成虛假的訊息或誤導性的內容,這可能對使用者產生負面影響。為了解決這個問題,他們提出了一種新的訓練方法,稱為「抑制式學習」(inhibition learning),旨在教導 AI 辨別和避免產生虛假或誤導性的內容。
另外,據 CNBC ,OpenAI 的研究人員表示,未來將會在訓練 AI 模型期間加以監督,當 AI 在每個步驟推理正確時,便會給予獎勵,而不是僅等到推理出正確的最終結論時才給予獎勵。研究人員解釋:
這方法為「過程監督」,不再只是進行「結果監督」,相信這能更有效地鼓勵模型,可按照類似人類的思考方式進行推理,訓練出更好的 AI。
據了解,人工智慧幻覺指的是,AI 自信地生成出看似具說服力、實際卻是錯誤答案的問題,儘管這答案在其訓練數據中並不合理。多數研究人員認為,幻覺問題是運行聊天機器人的大型語言模型(Large Language Models)本身設計的問題。
而目前研究人員紛紛提出建議,盼能不斷改善相關問題,例如麻省理工學院(MIT)最新報告就提議,讓多個機器人相互辯論,來取得更符合事實的答案。
此外,一封包括「OpenAI 執行長」Sam Altman 在內的 350 位 AI 領域的權威專家,也在本週共同簽署了一封公開信,呼籲人們重視正在開發的 AI 技術,可能會對人類生存構成重大威脅。
(本文由 授權轉載;首圖來源:)
延伸閱讀:
標題:阻止 AI 說謊!OpenAI 引入新訓練法,要人工智慧「停止蒙蔽人類」
地址:https://www.utechfun.com/post/220687.html