風辭遠的科技茶屋:來自未來的信號槍

2023-07-31 18:40:19    編輯: robot
導讀 很久之前,有位朋友問我,現在科技資訊這么發達了,你們還寫啊寫做什么呢? 我是這么看的。最終能夠凝結爲資訊的那個新聞點,其實是一系列事情最終得出的結果,而這個結果又會帶來更多新的結果。其中這些“得出”...

很久之前,有位朋友問我,現在科技資訊這么發達了,你們還寫啊寫做什么呢?

我是這么看的。最終能夠凝結爲資訊的那個新聞點,其實是一系列事情最終得出的結果,而這個結果又會帶來更多新的結果。其中這些“得出”與“帶來”的過程,都是藏在資訊之後的,是隱身的、曖昧的。

如果我們僅僅希望知道個大概,對科技內容的預期僅僅是三五知己闲談時當個佐料,那么發達的資訊當然足夠。但如果你希望以科技爲學業、爲事業,使之成爲自己能夠理解和掌握的能力,那么就需要對科技資訊有一個識別、思辨、預判的過程,這些就是腦極體希望提供給大家的。

人類是具有高效想象力的動物,喜歡基於看到的信號來想象全貌。但信號槍下面到底發生了什么,將要發生什么,經常會有點復雜,並且跟我們想象的不太一樣。就像諸侯看到狼煙,以爲已經形勢危急,其實不過是褒姒得到個小禮物。

科技資訊有時候就像是這種信號槍,我們不僅要能看到,還需要甄別和分析。

今天就來選幾個新聞,跟大家聊聊信號槍之下,關於未來的不確定性。

要滅絕人類的AI,該封殺嗎?

第一條已經不算是新聞了,但在當時還挺炸裂的。

5月末,超過350名AI領域的行業高管、專家和教授籤署了一封公开信,警告AI可能給人類帶來滅絕風險。其實著名者包括括“ChatGPT之父”Open AI首席執行官山姆·奧特曼、DeepMind創始人、首席執行官戴密斯·哈薩比斯等大佬。

於是就有朋友說了,這些做AI的都說AI要毀滅人類了,咱們還弄他幹啥,趕快封殺啊,晚一點《終結者》和《黑客帝國》就要上演了。

但這事換一個角度看,這么多位業界高管提醒要警惕AI失控,但其中有哪位從我做起,放棄AI事業了嗎?顯然並沒有。

這種警告在整個AI發展,乃至科技發展歷史上其實屢見不鮮。一方面業內人士對可能存在的失控提請社會關注,是一種分內之事。另一方面這也是歐美當前社會氛圍下,符合某某正確的必然表態。

我們懼怕AI,很大一部分原因都來自科幻文學與電影,但事實上任何產業失序發展都可能帶來毀滅性的影響。化工,能源,工業,甚至娛樂業都是如此。規範發展當然重要,但規範不意味着封禁,更不意味恐慌。

火是如此的危險,但學會用火是我們人類告別猿猴形態的標志。

所以,別怕AI。

免費的大模型來了,就問你們怕不怕?

最近幾天還有一個熱議話題,就是Llama 2开源。這件事在AI行業內激起的討論,似乎比行業外還要大。

其中爭議的邏輯很好理解,就是免費、开源的大模型都出現了,你們花那么多錢做的閉源大模型豈不是要打水漂了?可以觀察到,一些趁着大模型風口,剛剛進入AI行業或者投資AI項目的朋友對此非常焦慮。

這其實也是個很難成立的說法。從軟件發展史上看,开源僅僅是一種競爭策略,有的領域合適,有的不合適。不是所有軟件最後都會走向开源,並且开源大模型有大量存在的問題,比如無法適配大量企業用戶的安全、隱私、自主可控需求。同時,开源會導致算法供應商的利潤空間下降,服務能力打折,從而無法滿足用戶需求。僅僅從深度學習算法興起的這十年來看,主流算法模型也大多是閉源的,

加上开源模型能力普遍不強,因此开源大模型在很長一段時間,都很難給產業秩序帶來衝擊。具體內容,我們在《大模型,开源幹不掉閉源》這篇文章中有詳細闡釋。

其實對於剛剛加入這個領域的朋友來說,需要焦慮的不是开源衝擊,而是大模型就像很多基礎軟件一樣,最後必然是去多留少。如何在這個過程裏確保自身價值不受損害,才是值得關注的問題。

馬斯克出手了,歐美互聯網大洗牌?

這兩天另一個熱議的話題,是馬斯克宣布了自己的超級X計劃。隨着推特改名的步伐加快,各界普遍認爲馬斯克要將“新推特”變成“微博+微信”模式的超級終端。

出於對馬斯克搞事能力的信服,很多朋友認爲接下來歐美互聯網即將大洗牌,甚至有可能給中國互聯網帶來某種程度的影響。

對此我個人是比較謹慎的。如果我們排除馬斯克的個人光環,僅僅來看他參與的項目,會發現除了特斯拉之外,大多數項目都進展不快,商業成果不佳。當然,這也與這些項目普遍過於超前有關系。而推特的迭代,不僅需要面對來自Meta的近身肉搏,(這裏插一句,也不知道兩位CEO的近身肉搏什么時候上演)。更需要面對谷歌、蘋果的壓力。

在歐美互聯網的超級系統層面,最具有壟斷力的其實不是某個終端,而是多終端卡死底層位置的谷歌。其無所不在的程度連蘋果都難以望其項背。

有理由相信,在馬斯克本人巨大的流量和號召力,新推特會得到劇烈的短期增長。但長期競爭卻很可能是“超級X”不太擅長的。

當然,新推特必然會納入更多xAI帶來的智能化能力,這個點是非常具有想象力,也是很可能成爲中國科技界下一輪抄作業目標的。

GPT-4變笨了,AI還行嗎?

最近AI還有一個不算利好的消息,就說GPT-4變笨了。

7月20日, 斯坦福大學和加州大學伯克利分校的研究團隊提出,對比3月和6月的GPT-4版本,發現其在數學問題、代碼生成、視覺推理任務上都有下降。

很快,openAI就在博客上回復了這個觀點,表示雖然大多數指標都有所改善,但GPT-4在某些任務上可能表現會更差。

於是又有很多聲音出現,一部分覺得扛旗的GPT-4都不行了,AI是不是沒勁了?另一部分聲音傾向陰謀論,認爲這是openAI故意的。

我們當然不知道這個現象背後的真實問題在哪,但可以討論一個相對積極的方向。就是GPT本身是基於反饋再優化的模型機制,因此當回饋量下降,尤其是高質量回饋缺乏之後,其本身是可能能力變差的。

而走向這個方向的原因,或許是因爲openAI越來越復雜、嚴苛的使用策略,以及越來越多的優質大模型正式开放,分流了聚焦在GPT上的流量。

有教師朋友跟我說,第一名分數領先太大,其實對整個班級的學習並不好。一個AI變笨了,說不定意味着全班AI普遍變聰明了?

妙鴨相機火了,該All in證件照嗎?

回到國內,值得欣喜的事情是終於有AI應用火起來了。妙鴨相機在短時間內聚集了極大關注,當然也引發了一系列討論。

這些討論中,我們感覺最沒必要的一種,是認爲AI的價值體現在證件照上非常明顯,所以咱們現在感覺投入,去革海馬體的命吧。

這屬於標准的只見樹木,不見森林,稍微動腦想象就會發現,大模型能夠帶來的應用變革數不勝數,生成寫真證件照僅僅是其中微小的一個。

與其看到了證件照,就趕緊all in,不如去想象大模型的底層邏輯、應用成本、商業模式,然後去發現發現還有哪些類似的需求可以填補。

大模型原生應用,是這一輪AI風口能帶來的最大想象力,可別輕信忽悠,把大好機會黏在了一張證件照上。

總之,各種信息背後,充斥着諸多來自未來的不確定性。我們需要長久地審視,千萬別把一時當金科,把熱鬧當玉律。

見其所見,知其略知,達所未達,是我們混跡智能時代的最佳狀態。

       原文標題 : 風辭遠的科技茶屋:來自未來的信號槍



標題:風辭遠的科技茶屋:來自未來的信號槍

地址:https://www.utechfun.com/post/244679.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡