“AI教父”警告:开源大型語言模型可能會讓AI變得更加危險

2023-05-31 18:00:10    編輯: robot
導讀 在开發神經網絡方面做出重大貢獻而被譽爲“AI教父”的谷歌前副總裁GeoffreyHinton日前表示,开源大型語言模型(LLM)可能會使AI變得更加危險,因爲AI技術的代碼在網上免費提供,更有可能被...

在开發神經網絡方面做出重大貢獻而被譽爲“AI教父”的谷歌前副總裁GeoffreyHinton日前表示,开源大型語言模型(LLM)可能會使AI變得更加危險,因爲AI技術的代碼在網上免費提供,更有可能被居心不良的人所利用。



开源大型語言模型可能帶來的問題

OpenAI的GPT-4或谷歌的PaLM等大型語言模型爲ChatGPT等生成式AI系統提供技術支撐。近幾個月來,ChatGPT等AI系統在企業和消費者中迅速普及,這些工具能夠在幾秒鐘內自動生成詳細的圖像和文本,這對許多行業來說可能是革命性的技術,但AI模型的封閉性以及高昂的开發成本,意味着用戶採用這些系統面臨高昂的成本。

爲此許多人認爲,大型語言模型可以提供更具成本效益的替代方案,特別是對於希望利用AI的力量並使用ChatGPT等工具的中小公司,开源正是其中的一個方案。

但Hinton認爲,不斷發展和增長的大型語言模型可能會帶來問題。Hinton於上個月辭去了在谷歌的職位,聲稱這樣他就可以自由地表達自己對AI發展的擔憂。

Hinton日前在劍橋大學生存風險研究中心發表演講時說:“开源大型語言模型的危險在於,它使更多的瘋子能夠用AI做瘋狂的事情。”

把大型語言模型“關進籠子”可能是有益的

Hinton認爲,大型語言模型繼續局限在OpenAI等公司的實驗室开發,可能最終證明是有益的。

他表示,“如果這些AI技術是危險的,那么最好由幾個不同國家的幾家大公司來开發,同時找到控制它的方法。一旦开源了代碼,有些人就會开始用它做各種瘋狂的事情。”

Hinton在演講中稱,相信GPT-4已經顯示出智慧湧現的跡象。他重申了自己的信念,即所謂的超級智能AI的能力超越人類智能的時刻已經不遠了。

“這些AI系統將變得比我們更聰明,這可能很快就會發生。我過去認爲這可能50到100年之後發生的事情,但現在我認爲可能是未來5到20年。如果它將在5年內發生,我們不能讓哲學家來決定該怎么做,而是需要有實踐經驗的人員來說決定。”他強調。

他補充說,“關於如何處理AI,我希望有一個簡單的答案。我認爲最好的一個辦法是,AI开發商在开發AI模型時,應該必須投入大量人力和資源來檢查它們的安全性。我們需要獲得這些方面的經驗,了解它們可能會如何失控,以及如何控制它們。”

Hinton原來所在的谷歌旗下AI實驗室DeepMind於5月26日表示,該公司已經开發出一個早期預警系統,可以發現AI帶來的潛在風險。



一些大型語言模型已經开源並產品化

如今有一些大型語言模型已經發布在網上,特別是今年3月Meta的大型語言模型LLaMa的源代碼,已被泄露到網上。

軟件供應商也試圖從企業對可安裝的、有針對性的、個性化的大型語言模型日益增長的需求中獲利。今年4月,Databricks發布了一個名爲Dolly2.0的大型語言模型,將其標榜爲第一個指定用於商業用途的开源、遵循指令的大型語言模型,聲稱其具有類似ChatGPT的功能,並且可以在企業內部運行。

开源模型的支持者表示,它們有可能使ChatGPT等AI系統的使用“民主化”。本月早些時候,軟件开發人員KeerthanaGopalakrishnan在接受媒體採訪時表示:“我認爲降低實驗的進入門檻很重要。有很多人對這項技術感興趣,他們真的希望通過AI進行創新。”

標題:“AI教父”警告:开源大型語言模型可能會讓AI變得更加危險

地址:https://www.utechfun.com/post/219785.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡