如何發現並預防人工智能“幻覺”?

2024-06-28 18:00:13    編輯: robot
導讀 如何發現並預防人工智能“幻覺”? 當不確定答案時,生成式人工智能會產生“幻覺”,從而編造錯誤的答案。 牛津大學的研究人員开發了一個統計模型來識別可能的人工智能“幻覺”。 該方法區分了人工智能在內容和...

如何發現並預防人工智能“幻覺”?


  • 當不確定答案時,生成式人工智能會產生“幻覺”,從而編造錯誤的答案。
  • 牛津大學的研究人員开發了一個統計模型來識別可能的人工智能“幻覺”。
  • 該方法區分了人工智能在內容和表達上的不確定性,提高了可靠性。

什么是人工智能幻覺?

人工智能幻覺是指人工智能系統在訓練數據收集過程中,產生或推斷不存在的不正確信息的情況。

如果不解決人工智能幻覺問題,則可能導致傳播虛假信息和做出有偏見的判斷等問題,從而引發經濟和安全問題。

如何發現人工智能“幻覺”?

當生成式人工智能不知道問題的答案時,就會發出“幻覺”。以下是如何發現的方法。

牛津大學的研究人員發明了一種新方法,幫助用戶判斷生成式人工智能何時會出現“幻覺”。當人工智能系統被提出一個它不知道答案的問題時,就會出現這種情況,導致它編造一個錯誤的答案。

好在,有一些技巧可以幫助我們在發生這種情況時,及時發現並徹底防止發生。

如何阻止人工智能幻覺?

牛津大學團隊的一項新研究建立了一個統計模型,該模型可以識別生成式人工智能聊天機器人提出的問題何時最有可能產生錯誤答案。

這對於生成式人工智能模型來說是一個真正的問題,因爲它們交流方式的先進性意味着它們可以將虛假信息當作事實。今年2月ChatGPT因提供虛假答案而失控時就凸顯了這一點。

隨着各行各業越來越多的人开始使用人工智能工具來幫助學習、工作和日常生活,參與這項研究的人工智能專家呼籲人們,以更清晰的方式判斷人工智能何時在編造答案,特別是在涉及醫療保健和法律等嚴肅話題時。

牛津大學的研究人員聲稱,其研究可以分辨出模型是正確的還是編造出來的。

研究作者Sebastian Farquhar在接受採訪時表示:“LLM能夠用多種不同的方式來表達同一件事,這使得我們很難分辨出其何時對答案有把握,何時只是在編造一些東西。使用以前的方法,無法區分模型是不確定要說什么,還是不確定如何表達。但新方法克服了這個問題。”

然而,在消除人工智能模型可能犯的錯誤方面,還有更多的工作要做。

Sebastian Farquhar補充道:“語義不確定性有助於解決特定的可靠性問題,但這只是一部分。如果LLM不斷犯錯,這種新方法就無法發現這一點。人工智能最危險的失敗是,當系統出現錯誤卻自信而系統化的時候。



標題:如何發現並預防人工智能“幻覺”?

地址:https://www.utechfun.com/post/390213.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡