文/陳根
今年5月,人工智能安全中心曾發布一份由350位人工智能領域的科學家與企業高管聯名籤署的《人工智能風險聲明》,聲明稱“降低人工智能導致人類滅絕的風險,應該與流行病及核战爭等其他社會規模的風險一起,成爲全球優先事項”。彼時,由 OpenAI、谷歌和微軟等公司的數百名首席執行官和科學家籤署的這一句援引人類滅絕威脅的話,也成爲了全球頭條新聞。
4個多月過去,今天,社會對人工智能技術的擔憂不減反增。隨着以ChatGPT爲代表的大模型進入應用,人們越來越意識到它的危險性:它有可能制造和傳播錯誤信息;它有能力取代或改變工作崗位;以及它變得比人類更智能並取代人類的風險。如何對人工智能技術進行監管已成爲當前迫在眉睫的全球議題。
層出不窮的問題
從來沒有哪項技術能夠像人工智能一樣引發人類無限的暢想,而在給人們帶來快捷和便利的同時,人工智能也成爲一個突出的國際性的科學爭議熱題,人工智能技術的顛覆性讓我們也不得不考慮其背後潛藏的巨大危險。
早在2016年11月世界經濟論壇編纂的《全球風險報告》列出的12項亟需妥善治理的新興科技中,人工智能與機器人技術就名列榜首。尤瓦爾·赫拉利在《未來簡史》中也曾預言,智人時代可能會因技術顛覆,特別是人工智能和生物工程技術的進步而終結,因爲人工智能會導致絕大多數人類失去功用。
究其原因,人工智能技術並不是一項單一技術,其涵蓋面及其廣泛,而“智能”二字所代表的意義又幾乎可以代替所有的人類活動。就當前的現實來說,生成式人工智能的爭議性主要集中在對人們的隱私權構成新的挑战,使內容造假或者作惡的門檻降低。
比如,前段時間,在互聯網平台,“AI孫燕姿”翻唱的《發如雪》《下雨天》等走紅,抖音平台上也出現了“AI孫燕姿”的合集。很快,“AI周傑倫”“AI王菲”等也都相繼問世。“AI歌手”主要是利用AI技術提取歌手的音色特徵,對其他歌曲進行翻唱。但“AI歌手”是否涉及侵權卻並無定論,也無監管。
與“AI歌手”相似的,是AI繪畫。AI繪畫是指利用AI技術來生成內容的新型創作方式,同樣因著作權的歸屬問題頻頻惹出爭議,遭到大批畫師抵制。全球知名視覺藝術網站ArtStation上的千名畫師曾發起聯合抵制,禁止用戶將其畫作投放AI繪畫系統。
除了AI歌手和AI繪畫外,AI寫書、AI新聞採編也越來越多的出現在互聯網中,此前,就有網友發現,亞馬遜網上書店有兩本關於蘑菇的書籍爲AI所創造。這兩本書的作者,署名都爲 Edwin J. Smith,但事實上,根本不存在這個人。書籍內容經過軟件檢測,85% 以上爲 AI 撰寫。更糟糕的是,它關於毒蘑菇的部分是錯的,如果相信它的描述,可能會誤食有毒蘑菇。紐約真菌學會爲此發了一條推特,提醒用戶只購买知名作者和真實採集者的書籍,這可能會關系到你的生命。
AI合成除了引發版權相關的爭議,也讓AI詐騙有了更多的空間。當前,AIGC的制作成本越來越低,也就是說,誰都可以通過AIGC產品生成想要的圖片或者其他內容,但問題是,沒有人能承擔這項技術被濫用的風險。今年以來,已經有太多新聞,報道了AI生成軟件僞造家人的音頻和視頻,騙錢騙財。據FBI統計,AI生成的DeepFake在勒索案中已經成爲了不可忽視的因素,尤其是跟性相關的勒索。當假的東西越真時,我們辨別假東西的成本也越大。
AI技術同時也引發了數據安全的爭議。比如,今年6月,由16人匿名提起訴訟,聲稱OpenAI與其主要支持者微軟公司在數據採集方面違背了合法獲取途徑,選擇了未經同意與付費的方式,進行個人信息與數據的收集。起訴人稱,OpenAI爲了贏得“AI軍備競賽”,大規模挪用個人數據,非法訪問用戶與其產品的互動以及與ChatGPT集成的應用程序產生的私人信息,根據這份長達157頁的訴訟文件,OpenAI以祕密方式從互聯網上抓取了3000億個單詞,並獲取了“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”,行爲違反了隱私法。
顯然,盡管ChatGPT稱得上是一項革命性的突破,但其與其他生成式AI應用對人類社會造出的風險也是不可忽視的。
全球酝釀監管措施
隨着AI風險的凸顯,各國也把對於AI的監管提上日程。
斯坦福大學發布的《2023年人工智能指數報告》中提到,對127個國家立法記錄調研的結果顯示,包含“人工智能”的法案被通過成爲法律的數量,從2016年的僅1個增長到2022年的37個。報告對81個國家2016年以來的人工智能法律法規記錄的分析也同樣表明,全球立法程序中提及人工智能的次數增加了近6.5倍。
具體監管方面,歐洲議會在今年6月,率先通過了一項名爲《人工智能法案》(AI Act)的法律草案,該法案將對被視爲該技術最危險的用途施加新的限制——投票禁止實時遠程生物識別技術,歐盟禁令意味着不能在公共場合實時人臉掃描;同時要求OpenAI和谷歌等公司必須進行風險評估,並披露更多用於創建程序的數據。不僅如此,《人工智能法案》將人工智能風險分爲不可接受的風險、高風險、有限的風險和極小的風險四級,對應不同的監管要求。
在美國,7月21日,包含亞馬遜、谷歌、微軟、OpenAI、Meta、Anthropic和Inflection在內的7家人工智能巨頭公司參與了白宮峰會,這些公司的代表與美國總統拜登會面,爲防範AI風險做出了8項承諾。
其中有一項內容很有意思,這7家AI巨頭聯合宣布——將會开發出一種水印技術,在所有AI生成的內容中嵌入水印。OpenAI在官網中表示,將會研發一種水印機制,加入到視頻或音頻中。還會开發一種檢測工具,判斷特定內容是否含有系統創建的工具或API。谷歌也表示,除了水印以外,還會有其它創新型技術,把關信息推廣。
就國內來看,今年4月11日,國家網信辦起草《生成式人工智能服務管理辦法(徵求意見稿)》,到7月13日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局發布《生成式人工智能服務管理暫行辦法》,僅僅用了3個月的時間,並且自2023年8月15日起施行。
與此同時,《辦法》做出了一系列的規範和管理措施,《辦法》明確了提供和使用生成式人工智能服務的總體要求,提出國家堅持發展和安全並重、促進創新和依法治理相結合的原則,採取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。
這也讓我們看到,面對AI技術挑战,人類已經开始了自律行動,目的就是讓AI更好的服務於人類社會。正如以往的任何一次工業革命,盡管都對人類社會帶來了巨大的影響,也存在一些負面傷害,但人類最終都能在技術的協同中,將正向價值發揮到最大,並且最大程度的通過一些規則來降低技術的負面影響。
同樣,在AI技術所引發的第四次工業革命浪潮下,盡管目前我們還不清楚技術的潛在負面,但對於已經預見到的潛在影響,人類已經在尋找解決方案。
人工智能向善發展
其實,不管監管會怎樣前進,最終目的都是引導人工智能向善發展,只有人工智能向善,人類才能與機器協同建設人類文明。當然,這個問題本身並不復雜,本質上來看,作爲一種技術,人工智能並沒有善惡之分,但人類卻有。
可以預見,隨着ChatGPT的進一步發展,人工智能還將滲透到社會生活的各領域並逐漸接管世界,諸多個人、企業、公共決策背後都將有人工智能的參與。而如果我們任憑算法的設計者和使用者將一些價值觀進行數據化和規則化,那么人工智能即便是自己做出道德選擇時,也會天然帶着價值導向而並非中立。
說到底,ChatGPT是人類教育與訓練的結果,它的信息來源於我們人類社會。ChatGPT的善惡也由人類決定。如果用通俗的方式來表達,教育與訓練ChatGPT正如果我們訓練小孩一樣,給它投喂什么樣的數據,它就會被教育成什么類型的人。這是因爲人工智能通過深度學習 “學會”如何處理任務的唯一根據就是數據。
因此,數據具有怎么樣的價值導向,有怎么樣的底线,就會訓練出怎么樣的人工智,如果沒有普世價值觀與道德底线,那么所訓練出來的人工智能將會成爲非常恐怖的工具。而如果通過在訓練數據裏加入僞裝數據、惡意樣本等破壞數據的完整性,進而導致訓練的算法模型決策出現偏差,就可以污染人工智能系統。
有報道表示,ChatGPT在新聞領域的應用會成爲造謠基地。這種看法本身就是人類的偏見與造謠。因爲任何技術的本身都不存在善與惡,只是一種中性的技術。而技術所表現出來的善惡背後是人類對於這項技術的使用,比如核技術的發展,被應用於能源領域就能成爲服務人類社會,能夠發電給人類社會帶來光明。但是這項技術如果使用於战爭,那對於人類來說就是一種毀滅,一種黑暗,一種惡。人工智能由人創造,爲人服務,這也將使我們的價值觀變得更加重要。
過去,無論是汽車的問世,還是電腦和互聯網的崛起,人們都很好地應對了這些轉型時刻,盡管經歷了不少波折,但人類社會最終變得更好了。在汽車首次上路後不久,就發生了第一起車禍。但我們並沒有禁止汽車,而是頒布了限速措施、安全標准、駕照要求、酒駕法規和其他交通規則。
我們現在正處於另一個深刻變革的初期階段——人工智能時代。這類似於在限速和安全帶出現之前的那段不確定時期。人工智能發展得如此迅速,導致我們尚不清楚接下來會發生什么。當前技術如何運作,人們將如何利用人工智能違法亂紀,以及人工智能將如何改變社會和作爲獨立個體的我們,這些都對我們提出了一系列嚴峻考驗。
在這樣的時刻,感到不安是很正常的。但歷史表明,解決新技術帶來的挑战依然是完全有可能的。而這種可能性,正取決於我們人類。
原文標題 : 陳根:層出不窮的AI問題,該如何監管?
標題:層出不窮的AI問題,該如何監管?
地址:https://www.utechfun.com/post/264305.html