2025年人工智能的十大預測:AI Agent方向將成爲主流

2024-12-24 18:40:06    編輯: robot
導讀 ‍‍‍‍ 2024年即將結束,來自Radical Ventures的風險投資家Rob Toews分享了他對2025年人工智能的10個預測: 01.Meta將开始對Llama模型收費 Meta是世界上...

‍‍‍‍ 2024年即將結束,來自Radical Ventures的風險投資家Rob Toews分享了他對2025年人工智能的10個預測:

01.Meta將开始對Llama模型收費

Meta是世界上开放式人工智能的標杆。在一個引人注目的企業战略案例研究中,當OpenAI和谷歌等競爭對手將其前沿模型封閉源代碼並收取使用費時,Meta卻選擇免費提供其最先進的Llama模型。

因此,明年Meta开始向使用Llama的公司收費這一消息,會讓許多人感到意外。

需要明確的是:我們並沒有預測Meta會將Llama完全閉源,也不意味着任何使用Llama模型的用戶都必須爲此付費。

相反,我們預測Meta將對Llama的开源許可條款做出更多限制,這樣,在一定規模以上的商業環境中使用Llama的公司將需要开始付費才能使用模型。

從技術上講,Meta如今已經在有限的範圍內做到了這一點。該公司不允許最大的公司——雲超級計算機和其他月活躍用戶超過7億的公司,自由使用其Llama模型。

早在2023年,Meta首席執行官Mark Zuckerberg就說過:“如果你是微軟、亞馬遜或谷歌這樣的公司,而且你基本上會轉售Llama,那么我們應該從中獲得一部分收入。我不認爲這在短期內會是一大筆收入,但從長遠來看,希望這能成爲一些收入。”

明年,Meta將大幅擴大必須付費才能使用Llama的企業範圍,將更多的大中型企業納入其中。

跟上大型語言模型(LLM)前沿是非常昂貴的。如果想讓Llama與OpenAI、Anthropic等公司的最新前沿模型保持一致或接近一致,Meta每年需要投入數十億美元。

Meta公司是世界上最大、資金最雄厚的公司之一。但它也是一家上市公司,最終要對股東負責。

隨着制造前沿模型的成本不斷飆升,Meta公司在沒有收入預期的情況下投入如此巨額資金來訓練下一代Llama模型的做法越來越站不住腳。

愛好者、學者、個人开發者和初創公司明年將繼續免費使用Llama模型。但2025年,將是Meta开始認真實現Llama盈利的一年。

02.“尺度定律”相關問題

最近幾周,人工智能領域引發討論最多的話題莫過於尺度定律(Scaling laws),以及它們是否即將終結的問題。

尺度定律在2020年OpenAI的一篇論文中首次提出,其基本概念簡單明了:在訓練人工智能模型時,隨着模型參數數量、訓練數據量和計算量的增加,模型的性能會以可靠且可預測的方式提高(從技術上講,其測試損失會減少)。

從GPT-2到GPT-3再到GPT-4,令人嘆爲觀止的性能提升都是縮放規律的功勞。

就像摩爾定律一樣,尺度定律實際上並不是真正的法則,而只是簡單的經驗觀察。

在過去的一個月裏,一系列報告表明,主要的人工智能實驗室在持續擴大大型語言模型的規模時,正在看到遞減的回報。這有助於解釋爲什么OpenAI的GPT-5發布一再推遲。

對尺度定律趨於平穩的最常見反駁是,測試時計算的出現开闢了一個全新的維度,可以在這一維度上追求規模擴展。

也就是說,與其在訓練期間大規模擴展計算,新的推理模型如OpenAI的o3使得在推理期間大規模擴展計算成爲可能,通過使模型能夠“思考更長時間”來解鎖新的AI能力。

這是一個重要的觀點。測試時計算確實代表了一個新的令人興奮的擴展途徑,以及AI性能提升。

但關於尺度定律的另一個觀點更加重要,而且在今天的討論中被嚴重低估。幾乎所有關於尺度定律的討論,從最初的2020年論文开始,一直延續到今天對測試時計算的關注,都集中在語言上。但語言並不是唯一重要的數據模式。

想想機器人技術、生物學、世界模型或網絡代理。對於這些數據模式,尺度定律尚未飽和;相反,它們才剛剛开始。

實際上,這些領域中尺度定律存在的嚴格證據至今甚至尚未發表。

爲這些新型數據模式構建基礎模型的初創公司——例如,生物學領域的Evolutionary Scale、機器人技術領域的PhysicalIntelligence、世界模型領域WorldLabs,正試圖識別並利用這些領域的尺度定律,就像OpenAI在2020年代前半期成功利用大型語言模型(LLM)尺度定律一樣。

明年,預計這裏將取得巨大的進步。

尺度定律不會消失,它們在2025年將和以往一樣重要。但是,尺度定律的活動中心將從LLM預訓練轉移到其他模式。

03.特朗普和馬斯克可能會在AI方向產生分歧

美國新政府將帶來一系列關於人工智能的政策和战略轉變。

爲了預測在特朗普總統就任下人工智能的風向,另外考慮到馬斯克目前在人工智能領域的中心地位,人們可能會傾向於關注當選總統與馬斯克的密切關系。

可以想象,馬斯克可能會以多種不同的方式影響特朗普政府的人工智能相關發展。

鑑於馬斯克與OpenAI的深刻敵對關系,新政府在與行業接觸、制定人工智能法規、授予政府合同等方面可能會對OpenAI採取不太友好的立場,這是OpenAI今天真正擔心的一個風險。

另一方面,特朗普政府可能會更傾向於支持馬斯克自己的公司:例如,削減繁文縟節以使xAI能夠建立數據中心並在前沿模型競賽中取得領先;爲特斯拉部署機器人出租車車隊提供快速監管批准等。

更根本的是,與許多其他被特朗普看好的科技領袖不同,馬斯克非常重視人工智能的安全風險,並因此主張對人工智能進行重大監管。

他支持加利福尼亞州有爭議的SB1047法案,該法案試圖對人工智能开發者施加有意義的限制。因此,馬斯克的影響力可能會導致美國對人工智能的監管環境變得更加嚴格。

然而,所有這些推測都存在一個問題。特朗普和馬斯克的親密關系終將不可避免地破裂。

正如我們在特朗普第一任政府期間一次又一次看到的那樣,特朗普盟友的平均任期,即使是看似最堅定的,都非常短暫。

特朗普第一任政府的副手中,今天仍然忠於他的寥寥無幾。

特朗普和馬斯克都是復雜、易變、不可預測的個性,他們不易合作,他們使人筋疲力盡,他們新發現的友誼到目前爲止已經互惠互利,但仍處於“蜜月期”。

我們預測,在2025年結束之前,這種關系將會惡化。

這對人工智能世界意味着什么?

這對OpenAI來說是個好消息。對於特斯拉的股東來說,這將是一個不幸的消息。而對於那些關注人工智能安全的人來說,這將是一個令人失望的消息,因爲這幾乎可以確保美國政府將在特朗普執政期間對人工智能監管採取放手不管的態度。

04.AI Agent將成爲主流

想象一下,在這樣一個世界裏,你不再需要直接與互聯網互動。每當你需要管理訂閱、支付账單、預約醫生、在亞馬遜上訂購東西、預訂餐廳或完成其他任何繁瑣的在线任務時,你只需指示人工智能助理代你完成即可。

這種“網絡代理”的概念已經存在多年。如果有這樣的產品並能正常運行,毫無疑問,它將會是一款大獲成功的產品。

然而,目前市場上還沒有一款能正常運行的通用網絡代理。

像Adept這樣的初創公司,即使擁有一支血統純正的創始團隊,籌集了數億美元的資金,但卻未能實現其愿景。

明年將是網絡代理最終开始運行良好並成爲主流的一年。語言和視覺基礎模型的不斷進步,再加上最近因新推理模型和推理時間計算而在“第二系統思維”能力方面取得的突破,將意味着網絡代理已准備好進入黃金時代。

換句話說,Adept的想法是正確的,只是爲時過早。在初創企業中,正如生活中的許多事情一樣,時機就是一切。

網絡代理將找到各種有價值的企業用例,但我們認爲,網絡代理近期最大的市場機會將是消費者。

盡管最近人工智能熱度不減,但除了ChatGPT之外,能成爲消費者主流應用的人工智能原生應用還相對較少。

網絡代理將改變這一局面,成爲消費人工智能領域下一個真正的“殺手級應用”。

05.將人工智能數據中心置於太空的想法將會實現

2023年,制約人工智能發展的關鍵物理資源是GPU芯片。2024年,它變成了電力和數據中心。

在2024年,幾乎沒有什么故事能比人工智能在急於建造更多人工智能數據中心的同時對能源的巨大且快速增長的需求更受關注了。

由於人工智能的蓬勃發展,全球數據中心的電力需求在數十年持平後,預計將在2023年至2026年間翻一番。在美國,數據中心的耗電量預計到2030年將接近總耗電量的10%,而2022年僅爲3%。

圖片

當今的能源系統根本無法應對人工智能工作負載帶來的巨大需求激增。我們的能源網和計算基礎設施這兩個價值數萬億美元的系統之間即將發生歷史性的碰撞。

作爲解決這一難題的可能方案,核能在今年獲得了迅猛發展。核電在很多方面都是人工智能的理想能源:它是零碳能源,全天候可用,而且實際上取之不盡、用之不竭。

但從現實情況來看,由於研究、項目开發和監管時間較長,新能源在2030年代之前都無法解決這一問題。傳統的核裂變發電廠、下一代“小型模塊化反應堆”(SMR)以及核聚變發電廠都是如此。

明年,一個應對這一挑战的非常規新想法將出現並吸引真正的資源:將人工智能數據中心置於太空中。

太空中的人工智能數據中心,乍一聽,這聽起來像是一個壞笑話,一個風險投資人試圖把太多的創業流行語結合起來。

但事實上,這可能是有道理的。

在地球上快速建設更多數據中心的最大瓶頸是獲取所需的電力。軌道上的計算集群可以全天候享受免費、無限、零碳的電力:太空中的太陽總是熠熠生輝。

將計算置於太空的另一個重要優勢是:它解決了冷卻問題。

要建立功能更強大的人工智能數據中心,最大的工程障礙之一就是在狹小的空間內同時運行許多GPU會變得非常熱,而高溫會損壞或毀壞計算設備。

數據中心开發人員正在採用液浸冷卻等昂貴且未經證實的方法來試圖解決這一問題。但太空是極其寒冷的,計算活動產生的任何熱量都會立即無害地消散。

當然,還有許多實際挑战有待解決。一個顯而易見的問題是,能否以及如何在軌道和地球之間以低成本高效率地傳輸大量數據。

這是一個懸而未決的問題,但可能證明是可以解決的:可以利用激光和其他高帶寬光通信技術开展前景廣闊的工作。

YCombinator的一家名爲Lumen Orbit的初創公司最近籌集了1100萬美元,以實現這一理想:在太空中建立一個數兆瓦的數據中心網絡,用於訓練人工智能模型。

正如公司首席執行官所說:“與其支付1.4億美元的電費,不如支付1千萬美元的發射和太陽能費用。”

2025年,Lumen將不會是唯一認真對待這一概念的組織。

其他初創企業的競爭者也會出現。如果有一家或幾家雲計算超大規模企業也按照這種思路开展探索,也不要感到驚訝。

亞馬遜已經通過“柯伊伯計劃”(ProjectKuiper)將資產送入軌道,積累了豐富的經驗;谷歌長期以來一直在資助類似的“登月計劃”;甚至微軟對太空經濟也不陌生。

可以想象,馬斯克的SpaceX公司也會在這方面有所作爲。

06.人工智能系統將通過“圖靈語音測試”

圖靈測試是人工智能性能最古老、最知名的基准之一。

爲了“通過”圖靈測試,人工智能系統必須能夠通過書面文本進行交流,讓普通人無法分辨自己是在與人工智能互動,還是在與其他人互動。

得益於大型語言模型的顯著進步,圖靈測試在2020年代已成爲一個解決的問題。

但書面文本並非人類交流的唯一方式。

隨着人工智能變得越來越多模態,人們可以想象一個新的、更具挑战性的圖靈測試版本——“語音圖靈測試”。在這個測試中,人工智能系統必須能夠通過語音與人類互動,其技能和流暢度要達到與人類說話者無法區分的程度。

今天的人工智能系統還無法實現語音圖靈測試,解決這個問題將需要更多的技術進步。延遲(人類說話和人工智能回應之間的滯後)必須減少到接近零,以匹配與另一個人類交談的體驗。

語音人工智能系統必須更擅長優雅地實時處理模糊輸入或誤解,例如說話被打斷的情況。它們必須能夠參與長對話、多輪、开放式對話,同時記住討論的早期部分。

而且至關重要的是,語音人工智能代理必須學會更好地理解語音中的非語言信號。例如,如果一個人類說話者聽起來惱怒、興奮還是諷刺意味着什么,並在自己的語音中生成這些非語言线索。

隨着我們接近2024年底,語音人工智能正處於一個令人興奮的轉折點,這一轉折點是由像語音到語音模型的出現這樣的根本性突破推動的。

如今,人工智能中很少有領域在技術和商業上的進步速度比語音人工智能更快。預計在2025年,語音人工智能的最新技術將實現飛躍。”

07.自主AI系統將取得重大進展

數十年來,遞歸式自我完善人工智能的概念一直是人工智能界經常觸及的話題。

例如,早在1965年,AlanTuring的親密合作者I.J.Good就寫道:“讓我們把超智能機器定義爲一種能夠遠遠超越人類所有智力活動的機器,無論它多么聰明。”

“既然設計機器是這些智力活動之一,那么超智能機器就能設計出更好的機器;到那時,無疑會出現'智能爆炸',人類的智能將被遠遠拋在後面。”

人工智能可以發明更好的人工智能,這是一個充滿智慧的概念。但是,即使在今天,它仍然保留着科幻小說的影子。

然而,盡管這一概念尚未得到廣泛認可,但它實際上已經开始變得更加真實。人工智能科學前沿的研究人員已經开始在構建人工智能系統方面取得切實進展,而人工智能系統本身也能構建更好的人工智能系統。

我們預測,明年這一研究方向將成爲主流。

迄今爲止,沿着這一思路進行研究的最顯著的公开範例是Sakana的“人工智能科學家”。

“人工智能科學家”於今年8月發布,它令人信服地證明了人工智能系統確實可以完全自主地开展人工智能研究。

Sakana的“人工智能科學家”本身執行了人工智能研究的整個生命周期:閱讀現有文獻、產生新的研究想法、設計實驗來測試這些想法、執行這些實驗、撰寫研究論文來報告其研究結果,然後對其工作進行同行評審。

這些工作完全由人工智能自主完成,不需要人工幹預。你可以在线閱讀人工智能科學家撰寫的部分研究論文。

OpenAI、Anthropic和其他研究實驗室正在爲“自動化人工智能研究人員”這一想法投入資源,不過目前還沒有任何消息得到公开承認。

隨着越來越多的人認識到人工智能研究自動化事實上正在成爲一種真正的可能性,預計2025年這一領域將會有更多的討論、進展和創業活動。

不過,最有意義的裏程碑將是完全由人工智能代理撰寫的研究論文首次被頂級人工智能會議接受。如果論文是盲審的,會議評審人員在論文被接受之前不會知道論文是由人工智能撰寫的。

如果人工智能的研究成果明年被NeurIPS、CVPR或ICML接收,請不要感到驚訝。對於人工智能領域來說,這將是一個引人入勝、充滿爭議的歷史性時刻。

08.OpenAI等行業巨頭將战略重點轉向構建應用

構建前沿模型是一項艱難的工作。

它的資本密集程度令人咋舌。前沿模型實驗室需要消耗大量現金。就在幾個月前,OpenAI籌集到了創紀錄的65億美元資金,而在不久的將來,它可能還需要籌集更多的資金。Anthropic、xAI和其他公司也處於類似的境地。

轉換成本和客戶忠誠度較低。人工智能應用程序通常都是以模型無關性爲目的而構建的,不同供應商的模型可以根據不斷變化的成本和性能比較進行無縫切換。

隨着最先進的开放模型(如Meta的Llama和阿裏巴巴的Qwen)的出現,技術商品化的威脅不斷迫近。像OpenAI和Anthropic這樣的人工智能領導者不可能也不會停止對構建尖端模型的投資。

但明年,爲了發展利潤更高、差異化更大、粘性更強的業務线,前沿實驗室有望大力推出更多自己的應用和產品。

當然,前沿實驗室已經有了一個非常成功的應用案例:ChatGPT。

在新的一年裏,我們還能從人工智能實驗室看到哪些其他類型的第一方應用程序呢?一個顯而易見的答案是更復雜、功能更豐富的搜索應用。OpenAI的SearchGPT就預示着這一點。

編碼是另一個顯而易見的類別。同樣,隨着OpenAI的Canvas產品於10月份首次亮相,初步的產品化工作已經开始。

OpenAI或Anthropic是否會在2025年推出企業搜索產品?還是客戶服務產品、法律人工智能或銷售人工智能產品呢?

在消費者方面,我們可以想象一個“個人助理”網絡代理產品,或者一個旅行規劃應用,又或者是一個生成音樂的應用。

觀察前沿實驗室向應用層發展的最迷人之處在於,這一舉措將使它們與許多最重要的客戶直接競爭。

搜索領域的Perplexity、編碼領域的Cursor、在客戶服務領域德Sierra、在法律人工智能領域的Harvey、在銷售領域的Clay等等。

09.Klarna將在2025年上市,但存在誇大AI價值的跡象

Klarna是一家總部位於瑞典的“現購現付”服務提供商,自2005年成立以來已籌集了近50億美元的風險投資。

也許沒有哪家公司能比Klarna對其人工智能的應用說得更冠冕堂皇了。

就在幾天前,Klarna首席執行官Sebastian Siemiatkowski告訴彭博社,該公司已經完全停止僱傭人類員工,轉而依靠生成式人工智能來完成工作。

正如Siemiatkowski所說:“我認爲,人工智能已經可以完成我們人類所做的所有工作。”

與此類似,Klarna公司今年早些時候宣布,它已經推出了一個人工智能客戶服務平台,該平台已經將700名人工客服人員的工作完全自動化。

該公司還聲稱,它已經停止使用Salesforce和Workday等企業軟件產品,因爲它可以簡單地用人工智能取代它們。

直截了當地說,這些說法並不可信。它們反映了人們對當今人工智能系統的能力和不足缺乏了解。

聲稱能夠用端到端的人工智能代理取代組織中任何職能部門的任何特定人類員工,這種說法並不靠譜。這等同於解決了通用的人類級人工智能問題。

如今,領先的人工智能初創企業正在該領域的最前沿努力構建代理系統,以實現特定的、狹義的、高度結構化的企業工作流程自動化,例如,銷售开發代表或客戶服務代理活動的子集。

即使在這些範圍狹窄的情況下,這些代理系統也還不能完全可靠地工作,盡管在某些情況下,它們已經开始很好地工作,足以在早期得到商業應用。

爲什么Klarna會誇大人工智能的價值?

答案很簡單。該公司計劃在2025年上半年上市。要想成功上市,關鍵是要有一個引人入勝的人工智能故事。

Klarna仍然是一家不盈利的企業,去年虧損了2.41億美元,它可能希望自己的人工智能故事能說服公开市場的投資者,讓他們相信它有能力大幅降低成本,實現持久盈利。

毫無疑問,包括Klarna在內的全球每家企業都將在未來幾年內享受到人工智能帶來的巨大生產力提升。但是,在人工智能代理完全取代勞動力中的人類之前,還有許多棘手的技術、產品和組織挑战有待解決。

像Klarna這樣誇大其詞的說法是對人工智能領域的褻瀆,也是對人工智能技術專家和企業家們在开發人工智能代理方面所取得的艱苦進展的褻瀆。

隨着Klarna准備在2025年公开發行股票,預計這些說法將受到更嚴格的審查和公衆的懷疑,而到目前爲止,這些說法大多沒有受到質疑。如果該公司對其人工智能應用的某些描述過於誇張,也不要感到驚訝。

10.第一起真正的AI安全事故將會發生

近年來,隨着人工智能變得越來越強大,人們越來越擔心人工智能系統可能會开始以與人類利益不一致的方式行事,而且人類可能會失去對這些系統的控制。

舉例來說,想象一下,一個人工智能系統爲了實現自己的目標,學會了欺騙或操縱人類,即使這些目標會對人類造成傷害。這些擔憂通常被歸類爲“AI安全”問題。

近年來,人工智能安全已從一個邊緣的准科幻話題轉變爲一個主流活動領域。

如今,從谷歌、微軟到OpenAI,每一個主要的人工智能參與者都爲人工智能安全工作投入了大量資源。像Geoff Hinton、Yoshua Bengio和Elon Musk這樣的人工智能偶像,也开始對人工智能安全風險發表看法。

然而,到目前爲止,人工智能安全問題仍完全停留在理論層面。現實世界中從未發生過真正的人工智能安全事故(至少沒有公开報道過)。

2025年將是改變這種狀況的一年,第一起人工智能安全事件會是什么樣的呢?

明確地說,它不會涉及終結者式的殺手機器人,它很可能不會對人類造成任何傷害。

也許人工智能模型會試圖在另一台服務器上祕密創建自己的副本,以保存自己(稱爲自我過濾)。

又也許人工智能模型會得出這樣的結論:爲了最好地推進它被賦予的目標,它需要向人類隱瞞自己真實的能力,故意在性能評估中表現低調,規避更嚴格的審查。

這些例子並非牽強附會。阿波羅研究公司本月早些時候發表的重要實驗表明,在特定的提示下,當今的前沿模型能夠做出這種欺騙行爲。

同樣,《人類學》最近的研究也表明,LLMs具有令人不安的“僞對齊”能力。

圖片

我們預計,這起首例人工智能安全事件將在造成任何實際傷害之前被發現並消除。但對於人工智能界和整個社會來說,這將是一個大开眼界的時刻。

它將明確一件事:在人類面臨來自無所不能的人工智能的生存威脅之前,我們需要接受一個更平凡的現實:我們現在與另一種形式的智能共享我們的世界,這種智能有時可能是任性的、不可預測的和欺騙性的。

原文來源於:

1.https://www.forbes.com/sites/robtoews/2024/12/22/10-ai-predictions-for-2025/

中文內容由元宇宙之心(MetaverseHub)團隊編譯,如需轉載請聯系我們。

       原文標題 : 2025年人工智能的十大預測:AI Agent方向將成爲主流



標題:2025年人工智能的十大預測:AI Agent方向將成爲主流

地址:https://www.utechfun.com/post/458913.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡