如何應對人工智能幻覺?

2023-10-30 18:01:49    編輯: robot
導讀 如何應對人工智能幻覺? 人工智能現在可以對看似怪異的人類問題做出回應。但有時,人工智能會給出答案。這些虛構的反應是真實的幻覺,還是別的什么? 要點:研究發現,93%的受訪者認爲,人工智能幻覺可能會以...

如何應對人工智能幻覺?


人工智能現在可以對看似怪異的人類問題做出回應。但有時,人工智能會給出答案。這些虛構的反應是真實的幻覺,還是別的什么?


要點:
研究發現,93%的受訪者認爲,人工智能幻覺可能會以某種方式導致實際傷害。
雖然ChatGPT可能是一種快捷工作方式,但更多人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。
人工智能的反應有可能影響人類生存的幾乎所有方面。
去年11月,當OpenAI推出聊天生成預訓練轉換器(ChatGPT)時,立即受到了世界各地用戶的測試。ChatGPT被視爲一種革命性的研究工具和有趣的新奇事物。

一些人認爲它很有用——事實證明,人工智能聊天機器人擅長從不同的來源收集信息,並將其綜合成一種對話式的、易於理解的格式。但也有許多人發現自己面對的是不合邏輯的結論,甚至是徹頭徹尾的謊言。許多回應都很滑稽——例如,盡管該平台收集了公衆人物的出生和死亡日期,但無法明確說明其已經死亡。

但也有令人不安的。ChatGPT發明了醫學研究,甚至將其與其他不相關論文的DOI(數字對象標識符)聯系起來。這些令人困惑的結果被稱爲人工智能幻覺——大型語言模型(LLM)生成的信息與現實的關系很脆弱。其中一些所謂的幻覺似乎完全是捏造的,而另一些則似乎是虛構的,借鑑了已證實的事實,但卻用垃圾來填補空白。

LLM以這種方式失敗的原因人們知之甚少。目前的觀點表明,無論如何稱呼,這些不准確的反應總是會出現在人工智能系統中,而人類的反饋對於確保它們不會完全脫軌至關重要。

此外,用於描述這些失敗的語言也越來越受到爭議。這些真的是人類經歷過的幻覺嗎?如何才能糾正呢?

什么是人工智能幻覺?

根據2015年一篇關於精神病的調查文章:“幻覺被定義爲在沒有相應的外部或軀體刺激的情況下的感覺知覺,並根據其發生的感覺域進行描述。無論是否了解幻覺的本質,幻覺都可能發生。”

將人工智能產生的不准確信息描述爲幻覺,是隱喻性地借鑑了這個概念。機器人可能並不夢想成爲電子羊,但可能會制造出這樣的想法:它們存在於合適的環境中。這個詞最早出現在一次面部和手勢識別會議的論文中,後來被廣泛應用。

在ChatGPT這樣的系統中,這些幻覺可以以各種形式出現。ChatGPT會對用戶輸入的提示做出反應。正如Tidio的研究所述,它們可能直接與提示相矛盾,包括矛盾的句子或事實,甚至完全捏造來源。在其他情況下,如在術語的原始用法中,它們也可以是視覺的,以視頻或圖像形式,或聽覺的。

人工智能幻覺有很多種類型,但所有這些都歸結爲同一個問題:混合和匹配它們接受過訓練的數據,以生成一些全新的錯誤的東西。

這些幻覺反應通常但並非總是表面上合理。這些模型旨在生成易於用戶理解的材料,因此即使是錯誤的信息也會以自信、實事求是的方式呈現。因此,即使是幻覺也會被呈現得如同現實一樣。

真的是幻覺嗎?

機器產生的虛擬反應和人類的感官現象之間的類比是顯而易見的:兩者都會產生不以現實爲基礎的信息。就像經歷幻覺的人可能會看到生動逼真的圖像或聽到讓人想起真實聽覺現象的聲音一樣,LLM可能會在其“頭腦”中產生看似真實但並非真實的信息。

然而,最近發表在《精神分裂症公報》上的一篇文章對這種隱喻性的構建提出了質疑。作者聲稱:“這是一個不精確的比喻。幻覺是一個醫學術語,用來描述在沒有外部刺激的情況下產生的感覺知覺。人工智能模型不具備感官知覺,即使它們犯了錯誤,也不會在沒有外部刺激的情況下發生。相反,訓練人工智能模型的數據可以被視爲外部刺激,引發(偶爾錯誤的)反應的提示也可以被視爲外部刺激。”

他們進一步認爲,使用“幻覺”一詞是對那些患有精神疾病並經歷過真正幻覺的人的侮辱。他們建議使用“不合邏輯的”或“不相關的反應”來代替。

還有‘人工智能誤解’、‘人工智能捏造’或‘人工智能謬誤’等選項,人們會毫不猶豫地將其稱爲幻覺。

然而,這些術語遠沒有引起人們的共鳴,也不太可能引起人們對這個問題的關注。一些觀察家,包括IBM對該問題的總結的作者,堅持認爲,盡管“幻覺”一詞不精確,但其使用相對准確,並且具有隱喻意義。

爲何會出現AI幻覺?

雖然人工智能幻覺的最終原因尚不清楚,但已經出現了一些潛在的解釋。

這些現象通常與設計和測試期間數據提供不足有關。如果一开始就將有限數量的數據輸入模型,即使查詢依賴於對不同類型數據的理解,模型也將依賴該數據來生成未來的輸出。這稱爲過度擬合,即模型針對某種類型的數據進行了高度調整,但無法適應新的數據類型。模型學到的概括對於原始數據集可能非常有效,但不適用於不相關的數據集。

當模型沒有完全考慮詞義和語義結構的變化時,其本身也可能是一個問題。矢量編碼映射單詞和句子結構的不同含義,試圖避免這些事件。如果模型不理解同義詞所產生的不同含義以及不同的部署方式,其就更有可能給出無意義或不准確的響應。

爲什么人工智能幻覺是一個問題?

Tidio的研究對974人進行了調查,發現93%的人認爲人工智能的幻覺可能會以某種方式導致實際傷害。與此同時,近四分之三的人相信人工智能能爲其提供准確的信息——這是一個明顯的矛盾。

每天都有數百萬人使用人工智能。雖然ChatGPT可能對許多人而言是一種好奇,或者是一種快捷工作的方式,像許多學生試圖將ChatGPT撰寫的論文冒充爲自己論文的例子,或更多的人與Siri和Alexa交談,就好像是值得信賴的顧問一樣。從家庭維修到醫療建議,用戶會求助於這些聲音悅耳的人工智能功能。通常,都會得到理性的、精心構建的回應。

但如果不這樣做?責任在哪裏?與用戶一起信任人工智能?开發商沒有預見到這些情況?或者根本不存在——可以說漂浮在雲中,仿佛不受其所影響的物質現實的束縛?

人工智能的反應有可能影響人類生存的幾乎所有方面,從選舉到有關大流行等社會危機的信息,再到法律體系。

近一半的Tidio受訪者認爲,應該爲开發者提供更強有力的立法指導方針,確保人工智能運動的傲慢行爲不會侵犯人類生存和呼吸的權利。

人工智能平台已經產生了相應的不准確和有偏見的信息。6月,紐約一家律師事務所代表其客戶提交了一起航空傷害訴訟的先例,結果證明其完全是由ChatGPT制造的,結果被處以5,000美元的罰款。2016年,Microsoft的Tay聊天機器人开始生成種族主義推文,導致該企業將其關閉。

許多試圖使用ChatGPT爲其研究收集參考資料的醫學研究人員也表達了擔憂。《自然》雜志《精神分裂症》八月份的一篇社論對ChatGPT傾向於制作虛構論文來支持一項主張的行爲提出了嚴厲的控訴。在五次提到可能與抗精神病治療相關的特定大腦區域中,有三次完全是捏造的——這是人工智能幻覺的一個相當元的例子,因爲精神病可能會導致真正的幻覺。

一項更大規模的研究發現,在ChatGPT生成的178條參考文獻中,28條根本不存在,41條不包含准確的DOI。

如果人工智能用於實際醫療,醫生經常需要返回文獻來尋找罕見或難以診斷的疾病的答案,這些類型的結果實際上可能是生死攸關的問題。

這些發現表明,LLM尚未准備好進行可能對現實世界造成嚴重有害影響的應用。

如何減輕人工智能幻覺?

Tidio的研究發現,近三分之一的LLM用戶直觀地發現了人工智能幻覺,近三分之二的人最終交叉引用了結果來確定。後一種趨勢在短期內可能是一種可取之處——大多數人都知道,不要盲目地相信這些平台。

人工智能平台开發人員繼續使用此類人工輸入來訓練其模型。一種已經顯示出前景的方法被稱爲過程監督。OpenAI現在正在使用其來完善ChatGPT。過程監督不是簡單地獎勵正確答案(稱爲結果監督),而是微調用於實現結果的邏輯中的每個步驟。

其他研究建議擴大這一範圍——將對反應的分析進行衆包,從而以指數方式提高人類對人工智能系統的反饋水平。當然,這可能會很混亂。人類很容易有意無意地提供不准確的信息,就像其傾向於糾正錯誤一樣。偏見仍將是一個持續存在的問題。

在更廣泛地使用人工智能平台之前,使用更廣泛的數據集也有助於減少幻覺反應。如果模型熟悉廣泛的數據,那么當面臨挑战其能力的問題時,就不太可能失敗。並且這些數據集應該不斷更新,確保模型敏捷並不斷主動學習。

確保偏見和事實核查機制從一开始就融入並積極維護,也有助於確保答復的保真度。因此,積極激發模型產生幻覺,然後嘗試對其進行逆向工程,可以揭示其最初發生的原因。2023年5月的一篇論文中引入的大型語言模型幻覺評估(HaluEval)基准試圖做到這一點,並教會模型識別自己的幻覺。這是一個棘手的命題,因爲追蹤LLM的邏輯可能非常具有挑战性。

人工智能幻覺有好處嗎?

一些人認爲,人工智能的幻覺可能並不總是一件壞事,盡管其可能會導致錯誤的結論,但也可能會導致不同的思維和概念之間以前未知的聯系,然後這些聯系可以被人類研究。

這在創意領域可能特別有用。藝術家、建築師和遊戲設計師也許能夠利用機器的奇怪輸出,並將其轉化爲實用的創新:新的視覺模式、建築效率、復雜遊戲系統中的情節曲折。

這些現象,最終可能對日常用戶和开發人員也有幫助。

盡管如此,當我們探索人工智能前沿時,仍需保持高度謹慎。對機器生成的幻象的好奇已經滲透到我們的日常生活中,這是很自然的,但我們必須確保下一個數字海市蜃景不會將我們帶入深淵。


相關推薦:

  • 實現網絡安全的10大最佳實踐
  • 生成式人工智能:對網絡安全來說是福還是禍?
  • 物聯網網絡安全:保護物理世界和數字世界的融合
  • 人工智能如何徹底改變網絡安全:防止網絡釣魚攻擊
  • 深度學習如何將網絡安全從被動響應轉變爲主動預防


 CIBIS峰會 

由千家網主辦的2023年第24屆CIBIS建築智能化峰會即將正式拉开帷幕,本屆峰會主題爲“智慧連接,‘築’就未來”, 將攜手全球知名智能化品牌及業內專家,共同探討物聯網、AI、雲計算、大數據、IoT、智慧建築、智能家居、智慧安防等熱點話題與最新技術應用,分享如何利用更知慧、更高效、更安全的智慧連接技術,“築”就未來美好智慧生活。 歡迎建築智能化行業同仁報名參會,分享交流!

報名方式

長沙站(11月09日):https://www.huodongxing.com/event/7715337579900

上海站(11月21日):https://www.huodongxing.com/event/9715337959000

北京站(11月23日):https://www.huodongxing.com/event/3715338464800

廣州站(12月07日):https://www.huodongxing.com/event/6715338767700

更多2023年CIBIS峰會信息,詳見峰會官網:http://summit.qianjia.com/



標題:如何應對人工智能幻覺?

地址:https://www.utechfun.com/post/283534.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡