新浪科技訊 北京時間7月13日早間消息,據報道,多名人工智能專家本周在一場會議上表示,人工智能的快速發展有可能加劇社會問題,甚至對人類的生存構成威脅,因此有必要加強全球範圍對人工智能的監管。
近幾個月來,生成式人工智能的爆炸式發展既激起了人們對其技術潛力的興渠,也引發了擔憂。例如,這些技術可能導致一些工作崗位流失,經濟發展模式被顛覆,甚至能力超過人類。生成式人工智能可以根據無限制的提示生成文本、照片和視頻。
在周二的會議上,Protect AI的首席執行官、聯合創始人伊恩·斯旺森(Ian Swanson)表示:“我們正駕駛着這輛人工智能的汽車在高速公路上飛馳,那么我們需要做什么呢?我們需要進行安全檢查,需要適當的基本維護,需要監管。”該公司幫助企業保護人工智能和機器學習系統的安全。
“負責任人工智能研究所”所長賽斯·多布林(Seth Dobrin)則表示,監管機構只需看看社交媒體平台,就可以明白一個新行業不受限制的發展會導致什么樣的負面後果。他說:“如果我們擴大數字鴻溝,將導致社會的分裂。監管機構需要考慮這點。”
目前,已有多個國家正在准備通過監管手段去解決圍繞人工智能的問題。例如,歐盟提議中的人工智能法案將把人工智能應用劃分爲不同的風險級別,禁止被定性爲“不可接受”的應用,並對“高風險”應用進行嚴格評估。
美國的立法者上個月提出了兩項獨立的人工智能法案,其中一項要求美國政府在使用人工智能與人互動時保持透明,另一項法案提出設立一個辦公室,調研美國在最新技術方面是否仍具備競爭力。
“未來生命研究所”創始人、執行主任安東尼·阿吉雷(Anthony Aguirre)在會議上說,立法者和科技行業領袖必須警惕的一個新威脅是,人工智能可能會使核武器變得更強大。
越來越強的人工智能也將帶來社會失業的風險,因爲人類將無法通過簡單地學習新技能就進入其他行業。阿吉雷說:“我們最終會陷入一個所掌握技能無關緊要的世界。”
未來生命研究所是一家非營利性組織,目標是降低先進人工智能帶來的災難性風險。今年3月,該研究所發布公开信,呼籲暫停訓練比OpenAI的GPT-4更強的人工智能系統,吸引了媒體的密切關注。該機構警告稱,人工智能實驗室已經“陷入了一場失控的競賽”,正試圖开發“沒有人,甚至是它們的創造者,能夠理解、預測或可靠控制的強大數字思維”。
阿吉雷說:“這似乎是世界上最顯而易見的事情,不能讓人工智能獲得核指揮和控制權。但這並不意味着我們人類不會這么做,因爲我們以往也做過很多不明智的事情。”
炒股开戶享福利,6.XX%新客理財、盤前信號燈工具送給你,一對一指導服務! 海量資訊、精准解讀,盡在新浪財經APP責任編輯:鄭卓
標題:對人類生存構成威脅?美國專家呼籲針對人工智能爆炸式發展展开全球監管
地址:https://www.utechfun.com/post/237256.html