文丨陳永偉(《比較》研究部主管)
作爲世界重要經濟體之一的日本,在目前這輪各國競相參與的AI革命當中幾乎是悄無聲息。我們基本看不到來自日本的AI模型——不僅是基礎大模型,就連應用層的模型也很少。Open Calm、Rinna等模型都是在日本AI業內名列前茅的模型,但它們在評測中的表現甚至要遠遜於OpenAI(开放人工智能公司)已經過時的模型GPT-3.5。與之對應地,日本似乎也沒有什么著名的AI企業,既無巨頭,也無特別出色的初創企業。這充分說明,日本確實在這一輪的AI革命中被其他的經濟體遠遠拋在了身後。
事實上,日本在AI的發展史上很長時間內都是一股舉足輕重的力量。早在20世紀六七十年代,日本就已經开始了對人工智能的探索,並取得了一系列令人矚目的成績。到20世紀八九十年代,日本不僅在AI的應用上實現了很多的突破,還提出了雄心勃勃的“第五代計算機”計劃。更重要的是,當時幾乎整個AI學界都將深度學習視爲異端,而日本保留着大量這個領域的人才,幾乎成了深度學習的最後堡壘。很多人都認爲日本將會引領之後的深度學習革命。
然而,在進入新世紀之後,日本在AI領域的地位卻日漸下降。在深度學習革命在全球範圍內風起雲湧之時,這個曾經的深度學習堡壘卻異常安靜。直到今天,日本在新一輪的AI革命中,似乎還沒找到自己的位置。
那么,曾經在AI領域領先的日本爲何會失去過去的30年?在這背後究竟有哪些值得我們借鑑的教訓?在未來,日本的AI行業還有翻身的希望嗎?
尋路:20世紀六七十年代
日本的AI發展史至少可以追溯到20世紀60年代。當時,人工智能作爲一個獨立的學科登上歷史舞台還沒多久,關於這個學科應該做什么、按照怎樣的方式發展,人們也還沒有任何的共識。盡管如此,單憑“創造類似人類智能”這個愿景,這個嶄新的學科就已足夠激動人心。剛剛從战爭中恢復過來的日本很快就看到了該學科的巨大前景,並積極加入了對其進行探索的行列。
20世紀六七十年代日本在AI領域取得的重要成就主要表現在兩個方面:
一方面是機器人的研發和制造。日本之所以關注這一領域,主要是出於十分現實的考慮。作爲“二战”的發動者和战敗國,日本在战爭中損失了大量的人口,並造成了人口結構的扭曲。這導致當時的日本人口相對不足。隨着經濟的恢復,日本對勞動力的需求暴增,這就使得就業市場出現了嚴重的供不應求。
恰好,美國的萬能機公司(Unimation)在1960年研發出了世界上第一台工業機器人,這讓日本認識到用機器人來緩解勞動力不足的可能。起初,日本主要是從美國進口機器人。1968年,日本的川崎重工業集團(下稱“川崎”)從萬能機公司獲得了生產許可證,开始了自行生產。一开始,由於缺乏相關的經驗,川崎生產的機器人毛病很多,但日本的工程師的學習和改進能力非常強,不久後,川崎生產的機器人性能就已經超過了萬能機公司自己的產品。在川崎之後,很多日本企業也陸續投入到了機器人的研發和制造中來。到20世紀70年代初,日立、東芝、松下等企業都有了自己的機器人業務,相關的配套網絡也逐步成長起來。
在工業機器人領域站穩腳跟之後,日本人又將眼光瞄向了更爲復雜的人形機器人。1973年,日本早稻田大學成功制造出人形機器人WABOT-1。不同於那些只能完成固定任務的工業機器人,WABOT-1由肢體控制系統、視覺系統和對話系統組成,它不僅可以模仿人類行動,根據周圍環境做出反應,甚至還能與人進行簡單的語言交流。可以想象,在那個時代,這款產品是具有相當震撼效應的。
另一方面是對早期神經網絡理論的探索。1958年,康奈爾大學教授弗蘭克·羅森布拉特(Frank Rosenblatt)發明了一個名叫“感知機”(Perceptron)的早期神經網絡模型,並用它成功完成了識別手寫字母的任務。雖然“感知機”的成功在相當程度上向人們展示了神經網絡的應用前景,但圍繞着它的爭論也隨之而來。在關於它的衆多質疑中,參數調整是十分重要的一個質疑。我們知道,神經網絡性能的優劣幾乎完全取決於其模型的參數,但由於模型的運作本身是一個黑箱,所以人們想通過調整參數來優化模型性能將變得十分困難。尤其是當模型參數越來越多、模型層數越來越大時,其困難將呈幾何級數上升。事實上,也正是因爲在很長一段時期內人們都沒能找到處理這個問題的方法,所以當時的大部分AI學者都放棄了這個技術路徑,轉投了當時更爲熱門的符號主義。
不過,就在大部分學者將神經網絡棄之如敝屣時,一些日本學者則矢志不渝地對此進行持續研究。其中,貢獻最大的兩位學者有兩位:一位是甘利俊一(Shunichi Amari)。1967年,他提出了“隨機梯度下降法”(Stochastic Gradient Descent,簡稱SGD)。這個方法每次在訓練數據集上選擇一個樣本或者一小批樣本進行模型訓練,通過對損失函數計算梯度,按照負梯度方向對模型參數進行更新。這一方法的提出,爲破解神經網絡的調參問題提供了有力的思路。多年以後,辛頓(Geoffrey Hinton)提出了“反向傳播算法”(Backpropagation)來訓練模型,而其最初的靈感就是來自SGD。另一位學者則是福島邦彥(Kunihiko Fukushima)。他的主要貢獻在於對神經網絡架構的探索。他於1979年提出,並在1980年實現的“神經認知機”(Neocognitron)模型就是後來“卷積神經網絡”(Convolutional Neural Networks,CNN)的雛形。
豪賭:20世紀八九十年代
到了20世紀80年代,符號主義的觀點成了AI領域公認的主流。符號主義認爲人類認知和思維的基本單元是符號,而認知過程就是在符號表示上的一種運算。因此,要實現人工智能,就必須模擬這種符號運算。最初,符號主義者們主要致力於探索用符號進行知識表示,並通過演繹來進行推理。而到了20世紀80年代,愛德華·費吉鮑姆(Edward A Feigenbaum)开始將領域知識和符號推理聯系了起來,從而形成了一套被稱爲“專家系統”的技術路徑。
什么叫“專家系統”呢?通俗地說,它是一種模擬人類專家解決領域問題的計算機程序系統。這種系統有大量領域專家水平的知識與經驗,並能夠根據系統中的知識與經驗進行推理和判斷,模擬人類專家的決策過程,從而解決那些復雜的問題。當一個專家系統包含的知識庫越大時,它可以解決的問題就越多,能力也就越強大。而爲專家系統准備知識的過程就被稱爲“知識工程”。
與“深度學習”(Deep Learning)相比,“專家系統”在知識獲取上有很大的不同。“專家系統”的知識需要人來輸入,因而“知識工程”的主體是人,而“深度學習”則是由計算機通過神經網絡來自行學習,因而它更多是機器自己在學習。雖然從直觀上看,讓人來輸入知識顯然不如讓機器自己學習來得方便,但在當時的技術條件下,人們還沒有找到調節神經網絡參數的良方,算力上也不充足,因而“深度學習”幾乎無人問津,而“專家系統”則獨領風騷。
很快,“專家系統”對AI領域的全面統治也蔓延到了日本。但與美國不同的是,這個過程在日本是以一種政府主導的方式完成的。
從20世紀70年代开始,經濟實力迅速膨脹的日本就嘗試運用國家主導的方式對一些關鍵的技術領域進行攻關,從而一舉搶佔全球技術的制高點。起初,日本用這種方式取得了一系列的成功,其中最經典的案例就是在動態隨機存取存儲器(DRAM)的研發過程中實現了巨大突破,從而讓日本成了當時世界上最爲領先的芯片大國。在實現了這些勝利後,日本政府立即將目光瞄向了當時炙手可熱的計算機行業,試圖搶在美國和歐洲之前开發出“第五代計算機”。
所謂第五代計算機,來自當時流行的對計算機發展階段的一種劃分方法。最初,這種方法的階段劃分依據主要是計算機採用的電路工藝。按此標准,第一代計算機使用的主要是電子管,第二代計算機使用的是晶體管,第三代計算機使用的是集成電路,第四代計算機使用的則是超大規模集成電路。
日本通產省於1978年委托時任東京大學計算機中心主任的元岡達(Tohru Moto-Oka)對第五代計算機進行探索。1981年,元岡達向通產省提交了一份長達89頁的報告。報告認爲:第五代計算機可能並不是被硬件工藝的突破定義,而是被體系架構和軟件的創新定義。通過軟硬件的結合,第五代計算機應該能像人一樣與用戶進行交互。在當時的技術條件下,這種未來的新型計算機應該是一個搭載着巨大的知識庫的硬件化專家系統。
如今看來,元岡達的觀點實在是過於超前了——事實上,他對於第五代計算機的展望就是現在各大巨頭們正在競相嘗試的AIPC(人工智能電腦)。但在那個日本自信心爆棚的年代,它立即得到了通產省的認可。通產省很快就決定牽頭啓動第五代計算機的开發工作。
不過,在這一切开始前,還需要解決一個棘手的問題,即第五代計算機應該採用什么架構。在元岡達的報告中,他提出了六種先進的架構:邏輯程序機、函數機、關系代數機、抽象數據類型機、數據流機,以及基於馮諾依曼機的創新機。對於這六種架構,學界和業界都已經有了一些探索。其中,函數機的探索是相對來說最成熟的。比如,初創公司Symbolics已經在函數機上取得了不小的成就,它的軟件性能已經可以比一般機器高出兩三倍。因此,當時日本的不少專家也傾向於基於函數式編程語言LISP的函數機入手進行突破。然而,以淵一博(Kazuhiro Fuchi)爲代表的一些專家則力主攻關基於邏輯程序語言Prolog的邏輯程序機。關於淵一博爲什么會堅持這一觀點,有一些解讀認爲,淵一博這么做其實是出於一個不足爲外人道的原因:LISP是美國人提出的,而Prolog不是。因此,日本人爲了實現“日本第一”的夢想,就不能沿着美國人的老路走。雖然這種觀點聽起來非常不理性,但聯想到時代背景,這又似乎是最合理的一種解釋。
最終,在淵一博等人的力主之下,基於Prolog的邏輯語言機被確立爲了日本認定的第五代計算機的方向。隨後,日本通產省聯合幾大公司,一起成立了第五代計算機研究所(Institute of New Generation Computer Technology),並任命淵一博爲該所的所長,統一協調研發事宜。淵一博從當時的各大公司和研究機構抽調了40位精幹技術人員,號稱“四十浪人”來進行具體研發。爲了對項目提供有力支持,通產省計劃在十年內投入4.5億美元的資金,同時由參與項目的公司也提供對應資金進行配套。
爲了开發第五代計算機,日本幾乎是動用了舉國之力。在這一政策的影響之下,這個時代的日本AI界也自覺地團結到了爲這一目標服務的隊伍中來。很自然地,專家系統成了日本AI界當仁不讓的技術路徑。那么,日本的這場豪賭成功了嗎?答案是否定的。
盡管在日本政府的熱捧之下,第五代計算機的概念看似很熱,相關的研討會不斷,論文層出不窮,但真正的技術研發卻舉步維艱。這一點很大程度上是由專家系統的特性決定的。如前所述,專家系統要足夠強大,就必須進行龐大的知識工程。而爲了保證輸入了這些知識的計算機可以和人實現自然交互,還需要對交互的規則進行明確的設定。至少在那個時代,這是非常困難的。在現實中,一個詞、一句話可能有各種不同的意思,機器應該採取哪種意思,要視情境而定。對於邏輯語言來說,每一個情景的規定,就是一個邏輯前提。因此,要用這種語言來實現自然語言,其需要加入的邏輯規則將是海量的,而再要機器根據相關的知識輸出用戶需要的內容,則更是難上加難,技術上根本無法實現。與此同時,日本經濟高歌猛進的勢頭也急轉直下,日本政府也不再有充足的實力來支持項目。最終,在提出了一些並不成功的樣機之後,日本的第五代計算機項目以失敗告終。
第五代計算機項目的失敗對於日本AI界來說是巨大的打擊。它不僅讓巨額的研發經費付諸東流,更是把整個AI界都帶偏了方向。本來,日本在神經網絡和深度學習方面有很強的底蕴,但在全面爲第五代計算機服務的背景下,全社會的資源都在向專家系統這一路徑傾斜,甚至連福島邦彥這樣的大佬都很難申請到需要的經費。日本在神經網絡上的優勢开始逐漸消退。
掉隊:21世紀
深度學習的淵源幾乎可以追溯到AI學科創立之初,“感知機”等模型就是其先驅。然而,因爲技術條件的限制,這一支技術路徑一直處於邊緣狀態。甚至連辛頓這樣的頂尖學者很長時間都只能坐冷板凳。
2006年,命運的齒輪發生了轉動。那一年,辛頓和其學生西蒙·奧辛德羅(Simon Osindero)發表了一篇重要的論文《一種深度置信網絡的快速學習算法》(A Fast Learning Algorithm for Deep Belief Nets),建議利用GPU(圖形處理器)來提升訓練神經網絡的速度。這篇論文的發表,讓很多人認識到用GPU來突破算力瓶頸的可能性,因而神經網絡研究在沉寂多年後,終於重新迎來了生機。爲了讓人們擺脫對這個學科的成見,辛頓還專門爲這類研究重新起了一個名字,“深度學習”的大名就由此而來。
到2012年,深度學習終於向全世界展示了自己的力量。那年,一個名叫Alex Net的神經網絡模型以 15.3%的低錯誤率贏得了Image Net大規模視覺識別挑战賽。這個成績,足足比之前的錯誤率紀錄降低了一半。這讓整個AI界認識到,隨着算力瓶頸的突破,或許深度學習才是未來AI的發展方向。於是,大批的資本、人才都开始湧入這個領域,而這個領域也迎來了爆發性的增長。2016年,基於深度學習的AlphaGo模型就擊敗了人類頂尖的圍棋選手。2017年,Transformer架構又橫空出世,基於這一架構,人們开始了生成式AI模型的研發。而幾年之後,ChatGPT(OpenAI聊天機器人)又進一步引領了生成式AI革命。毫不誇張地說,在過去的十幾年中,深度學習簡直是在帶領整個AI界一路狂奔。
在這段時間內,日本發生了什么呢?正如我們之前看到的,其實日本在很早就有深厚的神經網絡研究底蕴,像甘利俊一、福島邦彥等學者都是這個領域當之無愧的先驅。事實上,在20世紀80年代,當幾乎全世界都拋棄了神經網絡之時,還有不少日本學者堅持做這方面的研究。據“深度學習革命三傑”之一的楊立昆(Yann Le Cun)回憶,1988年他構思“卷積神經網絡”(Convoltional Neural Networks,CNN)時,能夠查到的文獻幾乎都是日本人寫的。然而,正是這樣一個神經網絡底蕴深厚的國家,在深度學習革命到來之時,卻出現了相關人才青黃不接的現象。全國押注第五代計算機帶來的導向作用很可能是一個關鍵原因。畢竟,在研究專家系統的收益肉眼可見地高於神經網絡時,誰又會選擇這樣一個冷門專業呢?而當第五代計算機的夢想在20世紀90年代最終破裂後,日本幹脆削減了對整個AI學科的資金扶持,這就導致了最優秀的人才根本不愿意進入這個領域。
日本的背運還不止於此。本來,在日本的經濟實力如日中天之時,很多日本企業曾到美國开辦實驗室,它們曾在當地招攬和儲備過大批的AI人才。其中,最有代表性的就是NEC Lab,它由著名的日本電氣株式會社(Nippon Electric Company,NEC)於1988年在硅谷成立。曾經,包括楊立昆、瓦普尼克(Vladimir Vapnik)、伯托(Leon Bottou)、龔怡宏等在深度學習領域舉足輕重的人物都曾經供職於NEC Lab。然而,這些人才一個也未能被日本所用,而是先後出走,爲美國和中國的深度學習事業作出了巨大的貢獻。之所以會有這樣的結果,一是由於NECLab本身的導向有誤,只重理論,不重現實,這讓本應高度與實踐結合的AI人才毫無用武之地。二是它的管理十分僵化。比如楊立昆就因去普林斯頓大學講學未經報備而遭到了實驗室領導的批評。在這種情況下,NEC Lab當然就很難留住人才。
國內人才斷層,國外人才又留不住,這些原因加在一起,就導致了日本在深度學習高歌猛進之時,完美地錯失了這次革命。盡管這幾年,日本政府已經發現了問題,开始嘗試用政策鼓勵AI的發展。“冰凍三尺非一日之寒”,至少到目前爲止,這個曾經的未來科技大國仍然在最近的生成式AI大潮中處於一個可有可無的位置。
迷思:日本的AI發展還有戲嗎?
日本究竟還有沒有機會成功實現逆襲,重新成爲AI大國呢?在我看來,機會依然是存在的。實際上,盡管日本現在在基礎AI模型和應用上都暫時處於全面落後狀態,但它的歷史積累決定了它在應用層面是具有相當潛力的。
日本AI發展的一個可能方向是具身AI。通俗地說,就是將AI智能體(AIgent)與機器人結合起來,讓機器人能夠和人交流,並按照人的指示完成復雜的任務。從歷史看,日本在機器人領域的積累非常深厚。正如我們前面看到的,從20世紀70年代起它就开始了人形機器人的探索。直到最近,它在這個賽道依然保持着相對領先的地位。比如,本田的阿西莫(ASIMO)機器人就廣受市場贊譽,但從性能上看,它的表現甚至好於比它晚出很多年的類似產品(不過,它也有其弱點,就是實在太貴了)。可以想象,如果將一個類似GPT的模型植入到這樣的機器人中,它的表現將會非常驚豔,其市場空間也十分可期。當然,除了制作這樣高端的機器人之外,日本還可以利用其先進的機器人技術开發一些玩具級別的機器人,並讓它們搭載AI。這樣的產品,或許可以有很好的銷路。
另一個可能方向是行業大模型。現在,主要的AI企業大多是在开發通用大模型方面競爭,但其實市場上真正的需求卻是行業專用的大模型。不過,到目前爲止,行業大模型的發展並不算好,究其原因,就是現在的AI企業在行業層面的積累都太少,相關的數據積累十分缺乏。日本由於過去在專家系統領域的押注巨大,有很多行業知識庫的積累。如果可以將專家系統與現在的生成式AI模型進行有機的結合,那么其开發出的行業大模型的性能可能會相當好。
一旦有日本的AI企業率先從類似的領域發起突圍,並真正實現了盈利,那么日本全社會對AI興趣的低迷就會被扭轉,人才也會陸續重新回到這個領域。加之相關政策的支持,以及之前積累的技術根底,日本未必不能在一個相對較短的時期內重新成爲一個AI大國。
結語
日本在神經網絡研究上起步很早,積累很深,但倒在了“深度學習革命”的黎明前。縱向產業政策的扭曲作用不容忽視。在AI這樣一個技術路徑多元,各條技術路徑之間競爭激烈的行業,要預測哪一條路徑會最終勝出是極爲困難的。尤其是在“範式轉換”作用的影響下,不同技術路徑的優劣更是隨時可能發生逆轉。面對這樣的情況,用縱向產業政策去選定一個技術方向扶持就幾乎是一場豪賭。一旦失敗,其成本將是巨大的。日本的教訓是慘痛的。
如果當年日本採用了橫向產業政策,一方面,對所有的技術路徑都給予一些支持,讓甘利俊一和福島邦彥們都有相對充足的經費深入自己的研究。另一方面,通過政府的協調,將一些熱門領域的研究和機器人等日本傳統的優勢結合起來。那么,今天日本的AI發展很可能是另外一番景象。
(本文首發於《經濟觀察報》。界面新聞獲授權轉載。文章僅代表個人觀點。責編郵箱:yanguihua@jiemian.com。)
標題:日本AI大敗局的啓示
地址:https://www.utechfun.com/post/376402.html