2024年,生成式AI的“炒作”要結束了?

2023-10-18 18:40:10    編輯: robot
導讀 “用ChatGPT-4寫一封電子郵件,就好比讓蘭博基尼送披薩。 ”這句話聽上去 有點誇 張,卻一語道破了當前生成式AI在應用層上遇到的巨大難題: 成本過高,尤其是在AI產品和市場契合度(PMF)不那...

“用ChatGPT-4寫一封電子郵件,就好比讓蘭博基尼送披薩。 ”這句話聽上去 有點誇 張,卻一語道破了當前生成式AI在應用層上遇到的巨大難題: 成本過高,尤其是在AI產品和市場契合度(PMF)不那么高的情況下。

近期,分析公司CCS Insight發布預測報告稱: 生成式人工智能領域將在明年接受現實的檢驗,具體表現在: 技術炒作逐漸消退,運行成本不斷上升,監管呼聲越來越多。 種種跡象表明:生成式AI的增長即將放緩。

就在報告發布的前一天,華爾街日報的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副標題中指出, 包括微軟、谷歌在內的一些公司,正在努力嘗試各種策略,只爲讓AI產品真正能賺到錢。

適道對這篇文章進行了編譯和補充,結合CCS Insight的報告,試着梳理出生成式AI面臨的困境,並給出相應的判斷,以下是正文。 

1 每月倒貼3000萬美元,150萬用戶致成本失控

GitHub Copilot是微軟基於ChatGPT推出的一款AI編程產品,被程序員們稱爲“开發者神器”,目前用戶超過150萬人。如果按照互聯網時代的商業邏輯,GitHub Copilot以10美元/月的會員費,早就能賺到盆滿鉢滿。但據文章作者所言,這款爆火的AI應用讓微軟虧到吐血。

今年的前幾個月,GitHub Copilot平均每月要給每個用戶倒貼20美元,給有些用戶最多能倒貼80美元。算下來,自從推出GitHub Copilot,微軟一個月就能虧3000萬美元,如果情況不變,一年下來虧損直接過億。不知道的以爲微軟轉行做慈善了。

生成式AI “冤種”聯盟的成員還有谷歌、亞馬遜、Adobe、Zoom等。

爲了避免血虧,Adobe公司直接對用戶的每月使用量設置了上限。谷歌除了收取每月6美元起的常規會員費,將對一款AI助手的用戶收取30美元/月的額外費用;微軟則是在13美元/月的基礎費用之上,對AI版Microsoft 365的用戶多收30美元/月。另外,知情人透露,這兩家巨頭還會“偷梁換柱”,採用更便宜的小模型。

繁榮之下,爲什么生成式AI會還能虧錢呢?

最主要的問題是成本失控。

首先,买硬件需要錢。AI算力芯片是大模型的發動機,早期微軟向OpenAI投資的150多億美元,大多數都用在了搭建AI超級計算機和購买AI芯片的硬件支出上。據悉GPT-4模型需要超過3萬枚A100芯片。不然怎么說英偉達是當前AI時代當之無愧的最大贏家,也難怪MAAMA都开始卷起了芯片。

其次,大模型越聰明的代價是所需的算力越多。作者指出:企業要花費數年時間和數億美元,才能訓練出一個成熟的AI產品。a16z曾發布報告稱,單次GPT-3訓練的成本在50萬美元到460萬美元之間。就連電費都是一筆天文數字,據估算,2023年1月平均每天約有1300萬獨立訪客使用ChatGPT,對應芯片需求爲3萬多片英偉達A100 GPU,每日電費在5萬美元左右。

最重要的是,AI應用不具備互聯網應用的規模經濟。算力有成本,每計算一次要多花一次的錢。SemiAnalysis首席分析師Dylan Patel統計,OpenAI光是運行ChatGPT,每天投入的成本就可能高達70萬美元。這導致使用AI產品的用戶越多,或用戶的使用次數越多,提供服務的企業就要支付更高的成本費用。如果只向用戶收取一筆固定的月費,那么企業就會面臨潛在的成本損失,正如微軟在GitHub Copilot遭遇的血虧。

2 用戶找不到爲生成式AI付費的理由

當然,錢是賺來的,不是省來的。畢竟, “日虧70萬美元”的吞金獸OpenAI,如今也能估值高達900億美元。近期,The Information還爆出,OpenAI預計在未來一年內,通過銷售AI軟件及其計算能力,獲得超過10億美元的收入。

但OpenAI在商業模式上的巨大成功並不具備普遍性。就目前來看,不少生成式AI產品的吸金能力顯然有限。

Insight的傑出工程師Carm Taglienti指出:人工智能項目失敗的原因99%與客戶過高的期望值有關。但這句話也揭示了一點:現在的人工智能沒有聰明到能解決用戶希望解決的問題。

而根據紅杉資本的判斷,當前AI市場已經從“第一幕”——從技術出發,進入了 “第二幕”——從客戶开始。這個階段要求生成式AI必須具備解決人類問題的能力。也就是說,當人們對新興技術的熱情退散時,他們會思考自己到底需要何種AI服務,並質疑自己爲什么要爲AI付費?

這正如文章中Amazon Web Services的首席執行官Adam Selipsky所指出的:目前,許多用戶开始對運行AI模型的高昂費用感到不滿。

事實上,紅杉資本的報告《Generative AI’s Act Two》也顯示,無論是首月用戶留存率,還是目前用戶的日常使用情況,以大模型爲代表的生成式AI使用情況都不容樂觀。相比普通產品最高85%的留存和日/月活,用戶體驗過ChatGPT後還愿意繼續用比例爲56%,每天打开的比例僅爲14%。

這或許意味着,至少很多用戶還沒找到自己必須使用生成式AI產品的理由。

從to B的層面來講,大模型也不是萬金油。你所構建的AI產品必須與你試圖解決的任務強相關。甚至OpenAI的首席技術官 Mira Murati也指出:企業用戶並不是總需要最強大的模型,有時候他們只需要適合其特定用例且更經濟實惠的模型。

而從解決問題的角度看,目前通用大模型存在使用成本高、推理延遲較大,數據泄漏、專業任務上不夠准確等問題。與之相比,一些更小型、專業化的長尾模型具有更准確、更便宜、更快速的優點,剛好能夠滿足客戶企業的需求。

總而言之,早期初創公司投資人在去年砸進了22億美元資金,如果AI的實際應用確實達不到預期效果,隨之而來的失望將導致投資縮減。

爲企業打造生成式AI工具的公司Writer的首席執行官梅·哈比卜(May Habib)說,估值不斷上升反映了人們對AI前景的熱情,不過高管們很快就會更仔細地關注成本問題。他認爲,明年投資者對於生成式AI就不會如此趨之若鶩了。

3 生成式AI最大的問題是向用戶證明其價值

高昂的开發成本,再加上難以盈利的應用,反正不會讓投資人高興,可能只有英偉達和一些雲服務提供商开心。

但情況真就如此糟糕嗎?也不一定。文章指出:預計隨着時間的推移,生成式AI會變得更便宜,就像雲存儲和3D動畫等許多技術一樣。同時,新芯片和其他創新可能也會降低處理成本。

可是即便事實如CCS Insight所預測的:2024年生成式AI的增長即將放緩,但從長遠來看,生成式AI也一定會增長。正如Amara定律:我們傾向於在短期內高估一項技術的效果,在長期內低估其效果的現象。

這讓人想到互聯網發展初期的1998年,一位著名經濟學家宣稱:到2005年,一切將變得清晰,互聯網對經濟的影響不會超過傳真機。”

或許,生成式AI目前只是處在“尷尬的青春期”,它最大的問題不是尋找使用案例、需求或分發,而是證明其在解決用戶問題上產生的真正價值。正如福特汽車公司創始人的經典名言:如果我問客戶他們想要什么,他們的回答一定是一輛更快的馬”。無論如何,技術一定要走在市場前面,因爲消費者看不到那么遠。

本文來自微信公衆號“適道”(ID:survivalbiz),作者:適道。

       原文標題 : 2024年,生成式AI的“炒作”要結束了?



標題:2024年,生成式AI的“炒作”要結束了?

地址:https://www.utechfun.com/post/278149.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡