AI行業真的要注意下形象:不要過度PR,更不要撒謊。守衛真實,創業者人人有責。這是整體建議,不針對單個公司。
作者丨鉛筆道 直八
11月14日,一位融資4輪的AI創業者向鉛筆道透露:11月6日,看到零一萬物發布Yi系列大模型,問鼎多項世界第一,內心很興奮。
零一萬物由李开復(創新工場創始人)創辦,成立於2023年5月16日,僅耗費6個月,就研發出“世界最強”大模型,估值超10億美元(破70億元)。
據“零一萬物”官方公衆號稱,據大模型社區Hugging Face評測,Yi成爲全球开源大模型“雙料冠軍”,是迄今爲止唯一登頂該社區全球开源模型排行榜的國產模型。
文章稱,厚積薄發的成績仰賴於自研的“規模化訓練試驗平台”和超強AI infra(基礎設施)能力。
據零一萬物官方公衆號稱,Yi已躋身世界範圍內开源最強基礎模型之列
新模型出現後,引發了部分應用類公司關注,他們要着手測試:該大模型能否賦能自家產品。
但經過一周測試後,這位AI創業者顯得比較失望。“測試結果一言難盡。PR做得太好,把我唬住了,沒細看就讓技術測試,傻乎乎的。有些耽誤我們的時間。”
關於具體原因,他稱:“不算自研模型,用的是別人的神經網絡框架。”
他推測,所謂的“Yi”系列大模型,可能是借用別人的框架做了些自己的訓練,喂了不同的語料進去——更像應用工程師做的事情。“滿足適當條件後,我們團隊也能做。”
其實,這件事在前一晚就傳开了。
一封郵件顯示,“Yi”系列模型被提交至Hugging Face後,後者回復道:據我們了解,除了兩個張量被重命名外,Yi完全使用LLama架構。
“張量”是一種核心數據結構,而LLaMA與GPT一樣,都是AIGC的主流基礎模型。
Hugging Face稱:後續會重新發布Yi,並重新命名張量(把名字改回來)。
原阿裏首席AI科學家賈揚清也發布了一條朋友圈,大約意思是:“上周,有某海外客戶要我們幫他們適配某國內大廠新模型,我們太忙,暫時還沒做。今天有朋友說,這個新模型實際就是LLaMA,但爲了表示不一樣,把代碼裏的名字(LLaMA)換成了自己的名字。
最後他給出建議:如果就是开源的模型結構,建議就叫原來的名字,免得大家還要做一堆工作,就爲了適配你們改名字。
以上信息,賈揚清並沒有點名道姓,但事實細節與Yi確有諸多相似之處。
事發之後,AI從業者褒貶不一。
一位AI創業者張化(化名)表示:“部分價值值得肯定。Yi雖借用了別人的框架,但從0开始做了訓練。只是換名字確實沒必要。”
另一位AI創業者王佳(化名)稱:“類似套殼也合理,這么短時間要做出世界最強模型,估計都得這么幹,是正確做法,可以大大方方說出來,但套殼冒充原創做得不對,再多人認可也不對。”
AI創業者張方(化名)稱:“改名有可能是程序員的鍋,並非公司有意爲之。”
其實,這件事的細枝末節並不重要,重要的是,它給了AI產業敲響一記警鐘:凡AI參與者,應該把實事求是放在重要位置。
過度PR容易勞民傷財,實際收效甚微。
作爲AI生態的老大哥,一旦有新模型出現,便是牽一發而動全身:开源社區、下遊應用企業都會跟進,着手測試、適配。
如果經過1-2周測試後,發現模型只是新瓶裝舊酒,反而徒耗精力。
“Yi其實做的是偏應用的工作,基礎大模型確實不需要那么多人研發。我生氣的核心原因是:他耽誤了研發同事的時間。”
自研就是自研,非自研就是非自研,本沒有貴賤之分。
據科技部報告稱,中國研發的大模型數量全球第二,10億參數規模以上的大模型已發布79個。這裏的“大模型”並非全指“自研大模型”,也包含許多類似Yi的非自研模型。
鉛筆道此前曾有報道,自研大模型難度很大,單次訓練成本高達100萬美元。而結合GPT的自研歷程,一個脫穎而出的世界最強模型,至少需要7年以上。
國內的AI產業還是跟風太嚴重。
2022年11月前ChatGPT沒火的時候,只有極少數公司專注大模型,比如清華大學智源研究院。2022年11月後,很多AI公司就一擁而上,爭先要做國產大模型。
也就是不到10個月的時間裏,一批企業紛紛宣布推出大模型,並且各自宣稱其領先性。“幾個月就自研大模型”這種荒謬事,竟然在國內AI產業風起雲湧,並有前赴後繼之勢。
鉛筆道對此現象嗤之以鼻。
AI創業者張方(化名)表示,國內真正的自研大模型很少,根據他的測試結果,只有GLM(智譜AI發布)、BAT(百度/阿裏/騰訊)、百川(搜狗創始人王小川研發)等符合。
創新創業應堅守“實事求是”文化,守護真實,人人有責。
原文標題 : 剛剛,70億獨角獸被“打假”
標題:剛剛,70億獨角獸被“打假”
地址:https://www.utechfun.com/post/291742.html