文章轉載來源:機器之心
來源:機器之心
圖片來源:由無界 AI生成LeCun 表示,絕大多數學術同行都非常支持开放式 AI 研發,但還是有反對者。
關於 AI 風險的問題,各路大佬們也是意見不統一。有人帶頭籤署聯名信,呼籲 AI 實驗室應立即暫停研究,深度學習三巨頭 Geoffrey Hinton、Yoshua Bengio 等都支持這一觀點。
就在近幾日,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智能風險》,呼籲在开發 AI 系統之前,研究者應該採取緊急治理措施,將安全和道德實踐納入重點,呼籲各國政府應該採取行動,管理 AI 帶來的風險。
文中提到了一些緊急治理措施,例如,讓國家機構也參與進來,從而防止人們對 AI 的濫用。爲了實現有效的監管,政府需要全面了解人工智能的發展。監管機構應採取一系列措施,如模型注冊、對舉報人進行有效保護以及對模型开發和超級計算機使用的監控等。監管機構還需要在部署之前訪問先進的人工智能系統,以評估其危險功能。
不僅如此,時間再往前一點,今年五月,美國非營利組織人工智能安全中心發表了一份聲明,警告人工智能應被視爲與流行病一樣存在滅絕人類的風險,支持該聲明的人同樣包括 Hinton、Bengio 等人。
今年 5 月,爲了暢所欲言地談論人工智能帶來的風險,Hinton 還辭去了在谷歌的工作。在一次紐約時報的採訪中,他表示:‘大多數人認爲這(AI 危害)還很遙遠。我過去也認爲這還很遙遠,可能是 30 到 50 年甚至更長的時間。但顯然,我現在不這么想了。’
可以預見,在 Hinton 等 AI 大佬眼裏,管理 AI 帶來的風險是一項非常緊急的事情。
然而,作爲深度學習三巨頭之一的 Yann LeCun,對 AI 發展持有非常樂觀的態度。對於籤署關於 AI 風險的聯名信,他基本上都是持反對態度,認爲人工智能的發展遠未構成對人類的威脅。
剛剛, LeCun 在與 X 用戶的交流中,對網友的一些關於 AI 風險的問題給出了回答。
該網友是針對 LeCun 對文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法進行提問的,文章認爲 Hinton、Bengio 等人發表聯名信的行爲使人們轉變了對 AI 的看法,從一开始將 AI 視爲輔助助手,轉變爲將 AI 視爲潛在威脅。文章接着表示,近幾個月來,觀察家們在英國發現了越來越多的關於 AI 會造成世界末日的氛圍。今年三月,英國政府公布了一份白皮書,承諾不會扼殺 AI 領域的創新。然而僅僅兩個月後,英國就开始談論對 AI 設置護欄,並敦促美國接受其全球人工智能規則計劃。
文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
LeCun 對這篇文章的反應是這樣的,他不希望英國對 AI 存在宿命論風險的擔憂傳播給其他國家。
之後,就有了我們前面提到的 LeCun 與 X 用戶的交流,以下是 LeCun 全部的回答:
‘Altman、Hassabis 以及 Amodei 正在進行大規模的企業遊說。他們正嘗試對 AI 產業進行監管。而你、Geoff,還有 Yoshua 正在給那些遊說禁止开放 AI 研究的人提供“彈藥”。
如果你們的恐懼宣傳活動取得成功,將不可避免地造成你我都認爲是災難的結果:少數公司將控制 AI。
絕大多數學術同行都非常支持开放式 AI 研發。很少有人相信你所鼓吹的末日場景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。
和許多人一樣,我非常支持开放式 AI 平台,因爲我相信各種力量的結合:人們的創造力、民主、市場力量和產品法規。我也知道,生產安全且受我們控制的 AI 系統是可能的。我已經爲此提出了具體建議。這一切都將促使人們做正確的事。
你寫得好像 AI 是憑空產生的,它是我們無法控制的自然現象。但事實並非如此。它之所以取得進步,是因爲你我所認識的每一個人。我們和他們都有能力打造“正確的事物”。要求對研發(相對於產品部署)進行監管,其實暗含了這樣的假設:這些人和他們所服務的組織都是無能、魯莽、自我毀滅或者邪惡的。但事實並非如此。
我已經提出了很多論據來證明你所害怕的末日場景是荒謬的。在此我就不再贅述了。但主要的一點是,如果強大的 AI 系統是由目標(包括護欄)驅動的,那么它們就會是安全可控的,因爲他們設定了這些護欄和目標。(目前的自回歸 LLM 並不是由目標驅動的,所以我們不要從自回歸 LLM 的弱點來推斷)。
關於开源這件事,你的活動所產生的效果將與你所追求的完全相反。在未來,AI 系統將成爲人類所有知識和文化的寶庫,我們需要的是开源和免費的平台,以便每個人都能爲之做出貢獻。开放是讓 AI 平台反映人類全部知識和文化的唯一途徑。這就要求對這些平台的貢獻是衆包的,類似於維基百科。除非平台是开放的,否則這樣做是行不通的。
如果开放源代碼的 AI 平台被監管,那么另一種情況將一定發生,那就是少數公司將控制 AI 平台,進而控制人們的全部數字依賴。這對民主意味着什么?這對文化多樣性意味着什么?這是讓我徹夜難眠的原因。’
在 LeCun 長推文的下方,也有許多人‘聲援’他的觀點。
蒙特利爾大學計算機科學與運籌學系教授 Irina Rish,也是 Mila - Quebec AI 研究所的核心成員。她表示或許支持开源 AI 的研究人員們不應該再沉默了,應該引領新興 AI 的發展。
亞馬遜創始人 Beff Jezos 也在評論區中表示,這樣的評論是重要的,也是人們所需要的。
網友表示,一开始,討論安全問題可以豐富大家對未來科技的想象,但是聳人聽聞的科幻小說不應當導致壟斷政策的出現。
博客主持人 Lex Fridman 對這場辯論有更多的期待。
關於 AI 風險的問題討論也將影響着 AI 的未來發展。當一個觀點搶佔風頭時,人們會盲目跟從。只有兩方能夠不斷地進行理性探討,才能夠真正地看清 AI 的‘真面目’。
海量資訊、精准解讀,盡在新浪財經APP責任編輯:張靖笛
標題:圖靈獎得主吵起來了,LeCun:Bengio、Hinton等的AI滅絕論是荒謬的
地址:https://www.utechfun.com/post/284567.html