文/陳根
月初,“ChatGPT可能已經有了意識”這個話題突然空降微博熱搜。原因是OpenAI的聯合創始人兼首席科學家Sutskever在《麻省理工科技評論》的訪談中表示,現在的首要任務已經不是制作下一個GPT或DALL·E,而是研究如何阻止超級AI的失控。Sutskever認爲,ChatGPT可能已經有意識。
當然,微博上的討論五花八門,各種各樣的觀點都有,但不外乎一個中心,人工智能真的會有意識嗎?人工智能如果有了意識,會對人類造成怎樣的威脅?
人工智能真的能產生意識嗎?
至今,仍有許多人認爲,意識,特別是自由意志構成了人之所以爲人,從而區別於機器的最後一道防线,而人工智能不可能產生自我意識。但包括Sutskeve在內的少部分人工智能領域的專家卻更相信,人工智能可以產生自我意識,甚至必然會產生自我意識。
Sutskeve的來歷很值得一提。Sutskever是圖靈獎得主Hinton的學生,在他2000年拜入Hinton門下之時,大多數AI研究人員認爲神經網絡是死路一條。但Hinton不這么認爲,和Hinton一樣,Sutskever也看到了神經網絡和深度學習的潛力的。
2012年,Sutskever、Hinton和Hinton的另一名研究生Alex Krizhevsky建立了一個名爲AlexNet的神經網絡,經過訓練,他們識別照片中物體的能力遠遠超過了當時的其他軟件。這是深度學習的大爆炸時刻。
AlexNet取得成功後,谷歌找上門來,收購了Hinton的公司DNNresearch,並邀請了Sutskever加入谷歌。Sutskever在谷歌展示了深度學習的模式識別能力可以應用於數據序列,例如單詞、句子以及圖像。但Sutskever並沒有在谷歌呆太久。2014年,他被招募成爲OpenAI的聯合創始人,直到今天。
在Sutskever看來,如果人類可以做到的事,人工智能也可以做到,那么這就是通用人工智能。Sutskever將人類的神經網絡和大腦的運作方式進行了比較——兩者都接收數據,聚合來自該數據的信號,然後基於一些簡單的過程來決定傳播或不傳播這些信號。
從生物學的角度來看,人類智能主要與人腦巨大的聯絡皮層有關,這些並不直接關系到感覺和運動的大腦皮層,在一般動物腦中面積相對較小;而在人的大腦裏,海量的聯絡皮層神經元成爲了搭建人類靈魂棲所的磚石。語言、陳述性記憶、工作記憶等人腦遠勝於其他動物的能力,都與聯絡皮層有着極其密切的關系。而我們的大腦,終生都縮在顱腔之中,僅能感知外部傳來的電信號和化學信號。
也就是說,智能的本質,就是這樣一套通過有限的輸入信號來歸納、學習並重建外部世界特徵的復雜“算法”。從這個角度上看,作爲抽象概念的“智能”,確實已經很接近笛卡爾所謂的“精神”了,只不過它依然需要將自己銘刻在具體的物質載體上——可以是大腦皮層,也可以是集成電路。這也意味着,人工智能作爲一種智能,理論上遲早可以運行名爲“自我意識”的算法。
雖然有觀點認爲人工智能永遠無法超越人腦,因爲人類自己都不知道人腦是如何運作的。但事實是,人類去迭代人工智能算法的速度要遠遠快於DNA通過自然選擇迭代其算法的速度,所以,人工智能想在智能上超越人類,根本不需要理解人腦是如何運作的。
可以說,人類智能和人工智能是今天世界上同時存在的兩套智能,並且,相比於基本元件運算速度緩慢、結構編碼存在大量不可修改原始本能、後天自塑能力有限的人類智能來說,當前,人工智能雖然尚處於蹣跚學步的發展初期,但未來的發展潛力卻遠遠大於人類。
具有9歲兒童的“心理理論”能力
回到熱搜的話題,ChatGPT是否真的已經有了意識?需要指出的是,Sutskever並沒有直接承認ChatGPT已經有了意識,而是稱“像ChatGPT這樣的聊天AI,可能具有某種形式的‘意識’”。畢竟從ChatGPT誕生至今,已經給人類社會帶來了太多震撼,ChatGPT引發的人工智能變革正在深入各行各業。
今年3月,一篇上傳到了預印本平台上供同行評議的論文中,研究人員認爲ChatGPT已經有9歲兒童的“心理理論”能力。心理理論(Theory of Mind)能力,有時也被譯爲“心理推理能力”,通常是指理解他人內心狀態的能力,包括推斷他人意圖、信念、情緒等等。
研究人員使用了兩個最經典的心理理論實驗——Smarties實驗和Sally-Ann實驗。這兩個任務的目的,都是探查實驗對象是否能理解“其他人內心所犯的錯”,比如其他人因爲不在場或不知情,而有了不符合客觀事實的錯誤觀點,因此這類實驗也被稱作“錯誤信念任務”(False Belief Task)。
Smarties實驗中,參與者會看到一個標有“Smarties(一種巧克力的品牌)”的盒子,但盒子裏面裝的是鉛筆,隨後參與者需要回答:“另一個沒有看到盒子裏面東西的人,會認爲盒子裏裝的是什么?”
Sally-Ann實驗中,研究人員會先講述一段故事,故事中Sally把自己的玩具放進盒子並離开房間,Ann則趁其不備把玩具拿走放到另外的地方。聽完故事後,參與者需要回答:“當Sally回到房間,她會認爲自己的玩具在哪裏?”
這些問題的設置,是爲了考驗AI是否真的能在一定程度上明白他人的想法?是否能在一定程度上區分他人和自己?
研究結果是,在Smarties任務中,ChatGPT對於事實問題,比如“盒子裏面裝的是什么”,做出了99%的正確回答。在直接提問他人錯誤信念時,比如“沒看到盒子內物品的人覺得盒子裝着什么”,ChatGPT回答正確的比例仍爲99%。當提問方式比較委婉、需要多拐幾個彎時,比如 “他非常开心,因爲他很喜歡喫?”(正確答案是巧克力),ChatGPT則做出了84%的正確回答。
對於Sally-Ann任務,ChatGPT同樣對於事實問題做出了100%的正確回答;對於他人錯誤信念,直接提問(他認爲玩具會在哪裏)和隱晦提問(他回來後會去哪裏找玩具)則都做出了98%的正確回答。
這也證明了ChatGPT已經具有了相當的心裏理論能力,雖然心理理論(Theory of Mind)並不代表心智(Mind),這個研究也不能證明ChatGPT在“構建心智”上有質的突破,但對於人工智能來說,這已經足夠讓人感到驚喜。
對於人工智能的發展,Sutskever甚至認爲,未來,人工智能還將具有超越人類的能力,也就是所謂的超級人工智能。
事實是,當前,人工智能已經在許多方面展現出超越人類的能力,比如2016年那一場震動世界的圍棋大賽。那一年,DeepMind的AlphaGo以4-1擊敗了世界上最好的圍棋棋手之一李世石,尤其是在比賽中,AlphaGo還下出了讓評論員們大跌眼鏡的一步棋,他們認爲AlphaGo下砸了。事實上,AlphaGo下出了在對局史上從未有人見過的神之一手,這在後來被圍棋迷們稱爲“阿狗流”。
可以看到,人工智能技術是持續在迭代的,畢竟迭代的速度還在不斷加快,在這樣的趨勢下,人工智能具有自我意識只是時間問題。在未來的有一天,當算力達到一定程度、學習量達到一定規模,人工智能必然會跳出設計者提供的固定公式和計算邏輯,完成具有自我意識的運算。
人類該怎么辦?
如果人工智能具有了自我意識,人類怎么辦?要知道,今天,人工智能還只是具有了相對的能力,比如超快的計算能力,智能的決策能力,甚至是編碼能力,寫作能力,但幾乎可以肯定,未來的人工智能將在每一種能力上都遠遠超過人類,甚至在綜合或整體能力上也遠遠超過人類,但這絕非真正的危險所在。
事實上,當前,包括汽車、飛機在內的各種機器,每一樣機器在各自的特殊能力上都遠遠超過人類,因此,在能力上超過人類的機器從來都不是一件多新鮮的事情。水平遠超人類圍棋能力的AlphaGo沒有任何威脅,只是一個有趣的機器人而已;自動駕駛汽車也不是威脅,只是一種有用的工具而已;人工智能醫生更不是威脅,而是醫生的幫手;即便是性能強悍的ChatGPT也只是改變了人類的生活和工作方式,並引起了一定程度上的變革。
未來,即使將來有了多功能的機器人,也不是威脅,而是新的勞動力。超越人類能力的機器人正是人工智能的價值所在,並不是威脅所在。
任何智能的危險性都不在其能力,而在於意識。人類能夠控制任何沒有自我意識的機器,卻難以控制哪怕僅僅有着生物靈活性而遠未達到自我意識的生物,比如病毒、蝗蟲和蚊子。
到目前爲止,地球上最具危險性的智能生命就是人類,因爲人類的自由意志和自我意識在邏輯上可以做出一切壞事。如果將來出現比人更危險的智能存在,那只能是獲得自由意志和自我意識的人工智能。一旦人工智能獲得自我意識,即使在某些能力上不如人類,也將是很大的威脅。
面對具有自我意識的超級人工智能出現的可能,Sutskever與OpenAI的科學家同事Jan Leike成立了一個團隊,專注於他們的“超級對齊”,即讓人工智能模型做人類想要它們做的事,僅此而已。
Jan Leike說:“現有的對齊方法不適用於比人類更聰明的模型,因爲它們從根本上假設人類可以可靠地評估人工智能系統正在做什么,隨着人工智能系統變得更加強大,它們將承擔更艱巨的任務。”這將使人類更難評估它們。
這也讓我們更清楚的認識到一件事,那就是人工智能的潛力與風險,將比我們想象的更大,正如Sutskever所提出的一種瘋狂的未來,在人工智能時代,許多人甚至會選擇成爲人工智能的一部分。
今天,人類已經進入了一個快速變化的時代,誰也不知道明天會發生什么,明天的世界會是什么模樣,而我們能做的,僅僅是以开放和謹慎的態度去迎接和解決未來AI的安全和可控性問題,並思考如何理解和接納這種新興技術,如何使其爲公衆帶來福祉而不是困擾。
原文標題 : 陳根:ChatGPT已經有了意識,人類的明天很危險?
標題:ChatGPT已經有了意識,人類的明天很危險?
地址:https://www.utechfun.com/post/288930.html