超370位大佬聯名警告!

2023-06-02 18:10:08    編輯: robot
導讀   來源:21世紀經濟報道   作 者丨馬嘉璐   編 輯丨娜迪婭   圖 源丨視覺中國   “減輕被人工智能滅絕的風險,應該與流行病和核战爭等其他大規模社會性風險一樣,成爲全球優先解決的事項。” ...

  來源:21世紀經濟報道

  作 者丨馬嘉璐

  編 輯丨娜迪婭

  圖 源丨視覺中國

  “減輕被人工智能滅絕的風險,應該與流行病和核战爭等其他大規模社會性風險一樣,成爲全球優先解決的事項。”

  當地時間5月30日,一份僅有一句話內容的《AI風險聲明》獲得包括OpenAI首席執行官Sam Altman、圖靈獎獲得者“深度學習之父”Yoshua Bengio和Geoffrey Hinton超370位AI領域權威專家聯合籤名發布。中國科學院自動化研究所研究員曾毅、清華大學教授張亞勤、助理教授詹仙園等中國學者也位列其中。

  曾毅透露,在這份新聲明正式對媒體發布前,他就收到了發起人人工智能安全中心主任Dan Hendrycks的邀請。出於對在AI風險認知觀點上的接近,他籤署了這份聯合聲明。

  作爲中國科學院自動化研究所人工智能倫理與治理研究中心主任、國家新一代人工智能治理專委會委員、聯合國教科文組織人工智能倫理實施高層專家組成員,曾毅長期專注於類腦智能及人工智能倫理與治理研究。他告訴南方財經全媒體記者,公开信的目的不是阻礙人工智能的發展,而“恰恰是在探索人工智能穩健發展的途徑。”他提出,探索“可持續發展的人工智能”或許是一個有益的選擇,而逐步提升人工智能真正意義上的智能水平,才能使人工智能技術真正實現可持續發展。

  非營利組織人工智能安全中心(Center for AI Safety)官網發布《AI風險聲明》

  AI潛在風險關乎全人類利益

  這種對AI風險的高調表態並非首次。今年 3 月 22 日,生命未來研究所(Future of Life)向全社會發布《暫停人工智能巨模型實驗》公开信,呼籲所有人工智能實驗室立即暫停比 GPT-4 更強大的人工智能系統的訓練,暫停時間至少爲 6 個月。這封公开信獲得了馬斯克、約書亞·本希奧、蘋果聯合創始人 Steve Wozniak等上千名研究者和科學家的公开籤名。

  曾毅表示,《AI風險聲明》在動機上顯然與《暫停人工智能巨模型實驗》很相關,兩者都是意識到了目前人工智能發展過程中的風險和失控的可能性。不過,二者的應對方式有顯著的差別。《暫停人工智能巨模型實驗》號召通過暫停能力超越GPT-4的人工智能巨模型的研究,優先爲人工智能設計並實現安全框架。而這次新的《AI風險聲明》更深度和直接地表達了籤名者對人工智能給人類帶來潛在生存風險的擔憂和應採取的行動。

  《AI風險聲明》將人工智能可能帶來的風險提高到堪比大流行病和核战爭的程度。曾毅分析,大流行病、核战爭與人工智能可能給人類帶來的潛在生存風險的共性是波及範圍廣,關乎全人類的利益,甚至是致命性的。

  曾毅指出,關於人工智能對人類造成生存風險,有至少兩種可能:一種是對遠期人工智能的擔憂,另一種是對近期人工智能的擔憂。

  針對遠期而言,當通用人工智能和超級智能到來時,由於智力水平可能遠超過人類,超級智能視人類如同人類視螞蟻,很多人據此認爲超級智能將與人類爭奪資源,甚至危及到人類的生存。

  針對近期而言,由於當代人工智能只是看似智能的信息處理工具,沒有真正的理解能力,也不是真正的智能,因此會以人類難以預期的方式犯下人類不會犯的錯誤。人工智能既不理解什么是人類,什么是生死,也不理解什么是生存風險,只會機械地執行某種操作。如果被人惡意利用、誤用和濫用,風險將幾乎難以預期和控制。“遠期人工智能的挑战我們如果從現在开始研究如何規避其風險尚有可能應對,近期人工智能的這種風險則顯得更爲緊迫。”

  部分籤名者經歷態度“大轉彎”

  ChatGPT的“橫空出世”引發新一輪人工智能“技術競賽”,另一方面,也有越來越多的聲音警告強人工智能會給人類帶來生存風險。

  OpenAI首席執行官Sam Altman也在《AI風險聲明》籤名。今年5月,他在美國國會聽證會上坦言,自己最擔心的是 AI 最終會“對世界造成重大傷害”,並表示“如果這項技術出了問題,後果可能會非常嚴重。”不過,在聽證會上,他並沒有提出放慢或者暫停推出 AI 產品。

  籤署了兩份公开信的“深度學習之父”Bengio表示自己投身人工智能研究,但如今的狀況卻讓他感到迷茫。他开始旗幟鮮明地反對人工智能的快速發展,並對大語言模型在社會上的廣泛可及性表示擔憂,強調目前缺乏對這項技術的審查。“應用GPT-4 的技術競賽創造了一個有害的循環。”

  另一位“深度學習之父”Hinton對人工智能的態度同樣經歷了“大轉彎”。他此前在谷歌效力近十年,於今年2月離开谷歌“以便更自由地談論人工智能的危險”。離職前,他擔任谷歌副總裁兼工程研究員。談及轉變想法的原因,Hinton表示,人工智能系統從大量數據中學到意想不到的行爲,可以變得比人更聰明,“我以爲還有30到50年甚至更長的時間。顯然,我不再這么認爲了。”

  近期人工智能風險更爲緊迫

  有批評者提出,討論“想象中的風險”會轉移人們對算法偏見、預測性監管等現實問題的注意力。作家兼未來學家Daniel Jeffries認爲,“存在人工智能風險是一種目前不存在的幻想,試圖解決明天的想象問題完全是浪費時間。解決今天的問題,明天的問題就會解決。”

  曾毅認爲,恰恰是針對近期人工智能的擔憂,才是更緊迫、更需要人類關心的。

  特別是近期的人工智能進展使得人工智能系統能夠利用互聯網規模的數據與信息,生成式人工智能產生的合成虛假信息極大降低了社會信任,網絡通信又已使萬物互聯,使相關風險在呈世界規模地放大。這種情況就極有可能威脅到人類的生存。

  如果人工智能可以利用人類的弱點對人類的生存造成致命危機,例如利用和加劇人類之間的敵對和仇視、偏見和誤解,致命性自主人工智能武器對人類脆弱生命的威脅,甚至不需要達到通用人工智能的階段就有可能對人類造成生存風險。

  “(兩份聲明的)目的都不是阻礙人工智能的發展,恰恰是在探索人工智能穩健發展的途徑。”曾毅認爲,重視和管控人工智能的安全風險不是阻礙人工智能的發展與應用,而是確保人工智能技術穩健發展。人工智能無疑是社會進步的推進器,然而這並不意味着人工智能沒有潛在風險或者是由於最大化人工智能益處的需求,就可以忽略人工智能的潛在風險。絕大多數人發展人工智能的愿景是用人工智能造福人類,而並非是給人類帶來風險甚至是生存風險,因此,絕大多數人有權利知道人工智能的潛在風險。

  人工智能技術應實現可持續發展

  面對浪潮,該從哪裏落腳?

  曾毅表示,《AI風險聲明》首先應引起共鳴的是人工智能的研發者,通過研制和發布人工智能安全解決方案解決盡可能多的安全風險隱患。其次,最大限度地提升人工智能所有利益相關方對人工智能安全隱患的意識,包括但不限於研發者、使用與部署者、政府與公衆、媒體等,讓人工智能的所有利益相關方都成爲給人工智能穩健發展保駕護航的參與者。再次,對於人工智能給人類造成生存風險的各種可能,要开展充分的研究、極限與壓力測試,以最大限度地降低這種風險。解決人工智能給人類帶來的生存風險問題,人工智能倫理安全的問題需要建立全球協作機制,共享人工智能紅利的同時,需要全球共護安全。

  “少數人很難改變趨勢,但少數人首先站出來提升公衆的意識,最終參與改變現狀的就會是多數人。”曾毅提醒到,人工智能的研發者有義務確保人工智能不給人類帶來生存風險,至少要通過人工智能的各種利益相關方最小化這種風險的可能性。

  曾毅此前曾在多個場合提出,“可持續發展的人工智能”或許是一個有益的選擇。他解釋,“可持續發展的人工智能”一方面意味着應當使人工智能作爲賦能技術促進全球可持續發展目標的實現,另一方面意味着應當確保人工智能技術的可持續性。他觀察到,目前這方面的努力主要聚焦於高利潤高回報的領域如教育和健康,但保護生物多樣性、減緩氣候變暖、促進公平公正等真正關乎人類未來的議題領域,受到人工智能技術的關注仍然較少。

  曾毅還提醒,並不是人工智能應用於可持續發展目標的方向就是真正在推動可持續目標的實現,因爲技術還有可能在這些領域帶來負面影響。例如,在教育領域需要注意人工智能的應用應尊重學生隱私,並確保不對學生的身心產生負面影響。

  曾毅認爲,逐步提升人工智能真正意義的智能水平,才能使人工智能技術真正實現可持續發展。“人工智能不應停留在‘看似智能的信息處理’的階段,不應當滿足於‘絕大多數情況比人好’,否則很多時候會犯人類不犯的錯誤。”

責任編輯:劉鵬林



標題:超370位大佬聯名警告!

地址:https://www.utechfun.com/post/220724.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡