導讀 今年9月份OpenAI對外宣稱,AI能力達到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機器才能具備人類大腦一樣的認知能力?大家爭論的智能就是所謂...
今年9月份OpenAI對外宣稱,AI能力達到新等級,相比之前的LLM,新AI更接近人類的思考能力。OpenAI的斷言引起爭論:到底還要等多久機器才能具備人類大腦一樣的認知能力?
大家爭論的智能就是所謂的AGI,它可以幫助人類解決復雜問題,比如氣候變化、大流行、癌症治療等等。AGI充滿不確定,它也會給人類帶來風險。
加拿大蒙特利爾大學深度學習研究人員YoshuaBengio說:“AI可能會被誤用,人類可能失去對AI的控制,這些都會導致惡意事件發生。”
過去幾年LLM飛速進化,一些人相信AGI已經很接近了,但YoshuaBengio認爲,考慮到LLM的構建和訓練方式,LLM單靠自己不能達到AGI,因爲缺少一些關鍵要素。
亞利桑那州立大學計算機科學家SubbaraoKambhampati說:“在我人生的大部分時間裏,我覺得談論AGI的人是瘋子。現在呢?幾乎每個人都在談論,你不能說他們都是瘋子。”
有關AGI的爭論,爲什么變了?
2007年AGI开始流行起來,它的定義並不精准,大意是說AI系統具備人一樣的推理、泛化能力。回看AI歷史,沒有一個AI能達到AGI水准,即使是稱霸圍棋界的AlphaGo,它的“超能力”也只是局限於狹窄領域。
現在呢?LLM已經改變了行業。由於LLM具備多種多樣的能力,研究人員認爲某種形式的AGI可能很快會出現,甚至已經出現。
LLM就是神經網絡,它相當於受到大腦啓發的機器學習模型。網絡由人工神經元組成(或者叫計算單元),它們排列成層,有着可調節的參數(代表神經元的連接強度)。
在訓練時,研究人員用到一種名叫NTP(NextTokenPrediction)的方法,模型被反復輸入文本,文本被分成很多小塊,這些小塊叫token。在一個序列中,最後一個token被隱藏或者掩蓋,讓模型預測它是什么。模型會將預測結果與原數據對比,然後調整模型參數,讓它具備更好的預測能力。
後來又出現了Transformer模型,它更進一步。Transformer可以讓模型知道有一些token會對其它token造成更大影響,如此一來,LLM可以像人一樣解析語言。
到了這一步,LLM可以生成計算機程序,讓程序去解決自然語言中描述的問題,它可以匯總學術論文,可以回答數學問題。
有人認爲,只要LLM變得足夠大,就會孕育出AGI。CoT(chain-of-thought)提示就是一個例證,它說明LLM可以將一個問題分成更小的步驟,方便解決,也可以讓LLM分步解決問題,可惜的是CoT在小模型中表現不太好。
LLM模型的局限性,與大腦的“世界模型”
OpenAI开發的o1模型用到了CoT,能解決更復雜的問題,但它並不是AGI。實驗證明,讓o1處理規劃達到16步的任務時,o1表現不錯,但是如果步數達到20-40步,o1的表現會越來越差。
研究人員經常會用抽象推理和泛化來測試AGI能力,比如讓AI處理視覺拼圖問題。在測試時,AI需要觀看實例,總結出抽象規則,然後用規則來解決新的謎題。
不論LLM是大還是小,在測試中表現都不太好,因爲它們需要組合學到的知識,用來解決新問題。
那么LLM有可能進化出AGI嗎?研究人員認爲,雖然現在我們離AGI還很遙遠,但是使用Transformer架構的LLM和AI系統已經具備一些AGI的關鍵特徵。
TransformerLLM當然也有一些問題,比如訓練模型的數據快耗盡了。當我們訓練TransformerLLM時讓它預測下一個token,這樣做可能太過片面,無法進化出AGI,構建能生成解決方案的模型可能會讓我們離AGI更近一些。
神經科學家爲AI行業帶來自己的看法,他們認爲,大腦可以構建“世界模型”,所以才有了智力。所謂“世界模型”就是指周邊環境。大腦可以想象不同的行動方案並預測結果,可以規劃、推理,人腦還可以模擬不同的場景,將自己在某個領域學到的技能應用於其它新任務。要讓AI變成AGI,它需要具備構建“世界模型”的能力。
有些研究者認爲,已經有證據顯示在LLM出現了基本世界模型。另一些研究則說,AI系統構建的世界模型並不可靠。
當今LLM的大缺點,缺少內部反饋
谷歌DeepMindAGI研發團隊成員DileepGeorge認爲,缺少內部反饋是當今LLM的一大缺點。人類大腦有很多的反饋連接,信息可以在神經元層之間快速流動,由於信息可以從感覺系統向大腦更高層流動,所以我們可以創建出映射環境的世界模型。不只如此,信息還會向下流動,引導人進一步獲得更深刻的感官信息。
在OpenAIo1模型中,內部CoT提示看起來有效,屬於反饋連接,但它無法保證模型可以進行抽象推理。
研究人員爲LLM添加外部模型,這種模塊叫“verifier”(驗證器)。驗證器會檢查LLM在特定環境中生成的答案,比如制定可行的旅行計劃,比如搜索結果讓人不滿意,它會重新查詢。事實證明,搭配驗證器的LLM制定旅行計劃時比普通LLM好很多,但問題在於,研究人員必須爲每一個任務設計定制驗證器,沒有通用驗證器。
爲了適應新情況,AGI需要構建相應驗證器,人類不一樣,我們可以利用抽象規則確保推理正確,即使處理新任務也可以從容應對,現在的LLM還做不到。
數據問題也是阻止LLM進化的一大障礙。倫敦大學學院理論神經科學家KarlFriston認爲,未來的系統也許可以高效確定自己到底需要多少數據才能構建世界模型並正確推理預測,這樣就沒有必要向模型投喂所有數據。聽起來很像是代理、自主體。KarlFriston說:“在LLM或者生成式AI中你看不到類似的代理,如果能开發出一種智能,它能在某種程度上進行選擇,那就意味着朝AGI前進了一大步。”
AI系統應該有能力構建高效世界模型,集成反饋循環,盡力降低對外部數據的依賴,通過內部模擬、假定反設事實、推理、規劃來生成數據。
用這種方法能否創造出AGI?計算機專家認爲在理論上是可能的,沒有障礙。新墨西哥州聖達菲研究所計算機科學家MelanieMitchell說:“人和其它動物達到智能基本上是一個道理,我並不認爲生物系統和其它材料構建的系統有什么本質區別,非生物系統達成智能沒有什么障礙。”
即使真的有可能創造出AGI,何時達成目標大家也沒有定論,有人認爲只要幾年,有人覺得十年之內不太可能。當AGI出現時可能不會那么明顯,AGI會慢慢展示自己的潛能,它會被人類發明出來,然後擴大規模並應用,然後才能真正开始改變世界。
標題:LLM很難變成AGI?科學家:創造AGI理論上可行
地址:https://www.utechfun.com/post/452842.html