關於AGI的預測,背後是數萬億美元的投資

2024-11-26 18:40:20    編輯: robot
導讀 2024年余額告急,目測一大波#展望2025#正在路上。 誰還記得大佬們對2024年的展望? OpenAI聯創Greg Brockman曾預測:在2024年,AI能力、安全性、潛在影響的積極性上,都...

2024年余額告急,目測一大波#展望2025#正在路上。

誰還記得大佬們對2024年的展望?

OpenAI聯創Greg Brockman曾預測:在2024年,AI能力、安全性、潛在影響的積極性上,都將是突破性的一年。長遠來講,2024年不過是指數級發展的又一年,每個人的生活都會比今天更好。

一年以來,不僅GPT-5爽約,Brockman本人險些離席,甚至連被奉爲圭臬的Scaling Law最近也遇到了“小插曲”。

英偉達高級科學家Jim Fan曾預測,2024年將是“視頻年”。盡管機器人和具身智能體才剛剛起步,但視頻AI將在未來12個月內迎來突破性進展的時刻。

一年以來,各類優秀的視頻生成產品陸續發布,全員處於加速狀態。但視頻生成領域並未迎來“GPT時刻”,商業化探索同樣是個難題。

年初驚豔世人的Sora,自橫空出世以來,就鴿了。。。。其背後原因,據說是卡在了審查關。一方面,要和政府深入探討安全風險;另一方面,亟需好萊塢和藝術家們入駐合作。

另一種可能性是,太燒錢了。Factorial Funds估算,Sora在訓練環節對算力需求比LLM高出好幾倍,至少需要在 4200-10500 塊H100 上訓練1個月。如果Sora得到大範圍應用,比如TikTok的 50%視頻由 AI 生成、YouTube的15%視頻由AI 生成,推理環節則需要約72萬台H100,大概燒216億美元。前OpenAI CTO Mira提到,公司希望成本做到和Dall·E接近後再考慮开放。

阿波羅首席經濟學家Torsten Sløk曾撰文稱,AI泡沫的“糟糕程度”不僅超過了1990年代,還超過了互聯網泡沫巔峰時期的水平。

一年以來,生成式AI應用依然處於早期,但擋不住巨頭們的下注熱情。紅杉算了一筆账,AI的預期收入和基建投入之間,或存在6000億美元缺口。目前局勢尚且穩定,不過歷史給我們的教訓是,泡沫需要很長時間才能破裂......

所謂“預言”,往往會出現“方向”正確;“時間點”錯誤的情況。雖然你很難咬定上面哪條預言判斷有誤,但目前的“體感”並不明朗。

“黑天鵝”之父塔勒布曾在《反脆弱》一書中提出了“脆弱推手”(Fragilista)的概念,特指那些在系統中增加脆弱性的“西裝革履”的人物或機構。他們會用“預測”,規劃未來的路线圖,對於自己不理解的事物,則傾向於當其不存在。

然而,如果這些“預言家”完全置身事內,其“預測”將影響自身利害,情況就大不相同了。比如,包括上述Greg Brockman等等投身AI事業的諸位大佬,他們或許會誇張炒作,或許會誤測時間,但不會紙上談兵。

只不過,有些預言實在是“太誇張”了。

最近,在一段YouTube視頻採訪中,當被問及對2025年的期待時,OpenAI CEO Sam Altman答道:AGI?我對此很興奮。我們要有“孩子”了,這是我一輩子最興奮的事情。

眼看GPT-5正在“卡殼”,你是信2025實現AGI,還是信我是秦始皇。關於AGI的預言都有哪些?想要實現還差幾步?《商業內幕》的一篇文章《Those bold AGI predictions are suddenly looking stretched》進行了解釋。

看山跑死馬,“明年實現AGI”堪比“明年移民火星”

盤點大佬們對AGI的預測,大致存在“2026年”“2029年”,以及“2034年”三個時間節點。

第一梯隊:3年內

OpenAI CEO Sam Altman:對2025年實現 AGI充滿期待。

“全美Cutter”馬斯克:最遲2026年會出現 AGI。

Anthropic創始人Dario Amodei :預測2026年實現AGI 。

OpenAI聯創John Schulman:AGI將在2027年實現,ASI將在2029年到來。

第二梯隊:5年內

諾獎得主、AI教父Geoffery Hinton:5年內看到AGI。

英偉達創始人兼CEO黃仁勳:未來5年,AI能通過人類任何測試。

谷歌首席研究員Ray Kurzweil:預測AGI將在2029年到來。

《奇點臨近》作者Ray Kurzweil:預測2029年實現AGI。

第三梯隊:10年

諾獎得主、DeepMind創始人 Demis Hassabis:實現AGI 需要10年時間,且還需要 2 到 3項重大創新。

軟銀CEO孫正義:AI將在10年內比人類聰明一萬倍。(直接預言上了ASI)

當然,還有一些“白日夢”組合。

Yann LeCun認爲,AGI短期內不會出現。至少不會像好萊塢科幻電影那樣突然出現。它更可能是一個漸進的過程,而不是某個時刻突然“开機”就得到AGI。實現真正的“人類級別”的AI之前,我們得到的更可能是一種“貓級別”或者“狗級別”的低智能AI。

吳恩達對宣稱AGI即將到來持懷疑態度:我希望能在我們有生之年看到AGI,但我不確定。

人工智能專家Gary Marcus曾表示,如果我們繼續深度學習和語言模型的路线,將永遠無法實現AGI,更遑論ASI了。因爲這些技術存在缺陷,相對薄弱,只有通過更多的數據和算力,才能取得進步。

華盛頓大學計算機科學教授、《終極算法》作者Pedro Domingos曾斷言:ASI只是一個白日夢。

對於AGI的預測,背後關系着數萬億美元的投資。其無疑是未來科技發展的重要方向,但更重要的是,看清楚什么是真實可行,什么是過度炒作。

文章作者Alistair Barr認爲,警示信號已經出現。

最爲迫切的是Scaling Law“撞牆”:OpenAI聯創Ilya Sutskever明確表示,依賴於擴大模型規模的結果似乎已經停滯;OpenAI研究員Noam Brown表示,在某個節點,擴展模式會失效;谷歌下一代Gemini性能未達預期,內部正在重新評估訓練數據的使用方式。

連“技術樂觀派”投資人都开始“謹言慎行”。

a16z創始人Marc Andreessen和Ben Horowitz懷疑LLM是否能保持現有的發展勁頭。

Andreessen表示:目前看起來,AI模型的能力似乎遇到了某種瓶頸。當然,行業中有許多聰明人正在試圖突破這個天花板。但是,如果你僅僅從數據和性能趨勢圖來看,AI模型性能的提升速度正在放緩,並呈現出一種“觸及天花板”的趨勢。

Horowitz則指出了阻礙因素:即使芯片到位了,我們可能也沒有足夠的電力支持。而有了電力後,又可能缺乏有效的冷卻手段。雖然GPU的算力在不斷提升,但AI模型的性能卻未能同步增長,這表明僅僅依靠硬件的升級並不能解決所有問題。

如果目前無法突破這個技術瓶頸,那么短期內實現AGI的可能性幾乎爲零。如今,Google未給出明確回應;Sam Altman直接表示,沒有撞牆;Anthropic則表示,尚未發現任何偏離Scaling law的跡象。

有趣的是,Alistair Barr解釋了Sam Altman爲何“嘴硬”。

一方面,如果OpenAI實現了AGI,則有望逃離微軟的巨額“控制”。OpenAI官網寫道,一旦實現AGI,其所產生的知識產權將不受現有與微軟的協議約束。

另一方面,Altman的AGI目標完全是一種愿景,就像馬斯克對火星移民和自動駕駛汽車的執着——即便一次次錯過預測時間,卻總能點燃團隊的熱情。

因此,“2025年實現AGI”的宏大目標,無疑比“實現公司账單自動化”這類相對平凡的目標更帶勁兒,盡管後者可能更具短期商業價值。

歷史表明,技術的發展充滿了不確定性,比如某些技術在經歷長期穩定的進步後,可能會突然失效。最經典的例子是“摩爾定律”。該定律是半導體行業發展的一盞明燈,其“每兩年翻一番”的預言,點燃了整個科技界的創新熱情,並爲英特爾等巨頭的崛起奠定了堅實基礎。

然而,麻省理工學院計算機科學與人工智能實驗室(CSAIL)的研究表明,摩爾定律的魔力正在逐漸消退。

比如,2014年—2019年,英特爾在14納米和10納米工藝的推進上遭遇了瓶頸,用5年才完成預期2年就能達成的目標。2019年,投資者意識到摩爾定律不再適用以來,英特爾股價下跌了約50%,至今未能完全恢復。

這些現象預示着,技術進步可能並非永恆,AGI的到來並非迫在眉睫。

擋在AGI前方的四座大山

近期,Scale AI 創始人兼CEO Alexandr Wang的演講頗具啓發意義。

他將現代AI時代分爲三個主要階段:

第一個階段是研究階段(2012-2018),由第一個深度神經網絡 AlexNet开啓,那是一個 AI 只能告訴你YouTube視頻裏有沒有貓的時代。

第二個階段是規模化階段(2018-2024),由 OpenAI的Alec Radford訓練的Transformer 和 GPT-1开啓。在這段時期,投入資源增長了一萬多倍,這帶來了性能的巨大提升。模型能力也從默默無聞的GPT-1,發展到了博士水平的o1 模型。

第三個階段將是創新階段,由o1 模型开啓,直到出現超級智能爲止。我們拭目以待,看看這個階段是6年還是更短。這個階段的標志是,大家已經在模型上投入了 2000 億美元,而事實上大公司無法投入比這更多的資金了。我們不可能在模型上砸出 200萬億美元。所以,從數量級來說,能繼續規模化的空間已經很有限了。砸錢工作結束,才真正需要相應的創新來配合,增強推理能力和測試時間計算能力肯定是其中之一。

Wang認爲,在此之前,邁向AGI路上存在五大挑战:數據牆、評估過擬合、Agent不可靠、芯片和能源、國際競爭等等。

挑战一是數據牆。Epic AI預計的時間點在 2027年到 2030年之間。但如果你和業內人士交流,他們會說比這更早。目前,有幾個主要的解決方案。

例如,前沿數據,各種形式的合成數據,以及更高級的數據類型,還有企業數據。這些數據類型能讓我們更有效地學習高級概念,比如推理能力、多模態、智能體數據。此外,具身智能以及其需要的現實數據將是一個重要領域。總之,絕大部分的數據仍然是私有和專有的,是被鎖起來的。

比如,GPT-4 的訓練數據集大約爲0.5 PB。而摩根大通的專有數據集,超過了150 PB。他們只是衆多大企業中的一個。還有大量的數據躺在那裏,從未被用於任何主要的訓練。

挑战二是評估。這在AI圈內經常引發討論,但是圈外人不太理解其重要性。評估是我們用來衡量這些模型進步的標尺。目前,許多評估都飽和或容易過擬合,過擬合指它們有點被“遊戲化”了;飽和是指模型在所有評估中都已經表現得非常好。這意味着研究可能變得更加漫無目的。如果你看過去幾年的MMU、數學、GPQA 等測試,模型表現似乎達到了瓶頸。但這並不是因爲模型沒有變得更好,而是因爲這些評估已經不夠難了。爲解決這個問題,我們需要建立更具挑战性的評估。

挑战三是Agent。盡管每個人都在談論Agent,但它們還沒有真正到來,而且不可靠。我們看到AI Agent與自駕中的“L1—L5”非常相似。這個類比非常貼切:L1是一個聊天機器人;L2 是你可以尋求各種幫助的助手。L3是指用於工作流程特定部分的Agent,你可以开始依賴它們;L4 可能會顛覆這一點,當Agent需要人類幫助時,會向你尋求幫助,更像是一種遠程操作模式。首先,讓模型在每個領域都具備推理能力,最終在幾乎每個領域都能發揮作用。其次,建設能夠實現遠程操作Agent的基礎設施。在未來,我們大多數人可能只是 AI Agent的遠程操作員。

挑战四是芯片和能源。在未來五年內,這些數據中心所需的電力保守估計爲100吉瓦,也許遠遠不夠。這相當於 20 個芝加哥的能源消耗,需要投入數萬億美元的資本支出。在這裏我沒有解決方案,只是指出這個挑战。

結語

AGI被視爲人類追求的“聖杯”。一旦實現,世界將被徹底改變。

如果AI出現了“神”的能力,它或許就成了“神”的化身。

無論是在2年後,3年後,抑或5年後,10年後,終有一天AGI會實現,現在留給人類“轉型”的時間還有多少?

或許,預測未來不如預測“脆弱”。

正如Sam Altman所言:我從不祈禱求神站在我這邊,而是希望自己站在神的一邊。

如何讓AI有利於我,是每個人需要思考的問題。

       原文標題 : 關於AGI的預測,背後是數萬億美元的投資



標題:關於AGI的預測,背後是數萬億美元的投資

地址:https://www.utechfun.com/post/448674.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡