AIGC爆火的背後,《辦法》打造可信AI護城河

2023-08-17 18:00:10    編輯: robot
導讀 衆所周知,新興技術的發展是把雙刃劍,當人工智能從1.0時代邁入2.0時代,AIGC(生成式人工智能)爲千行百業帶來市場紅利的同時,也催生了不少行業安全隱患。諸如技術濫用、虛假信息傳播、個人信息權益被...

衆所周知,新興技術的發展是把雙刃劍,當人工智能從1.0時代邁入2.0時代,AIGC(生成式人工智能)爲千行百業帶來市場紅利的同時,也催生了不少行業安全隱患。

諸如技術濫用、虛假信息傳播、個人信息權益被侵害、數據泄露或偏見歧視等安全問題,已然成爲AIGC產業持續發展的阻礙。因而,基於實際國情,適合我國社會環境、產業發展和技術創新等監管政策的出爐成爲當務之急。

一、風險凸顯

衆所周知,AI發展的三駕馬車“算法、算力、數據”,數據尤爲重要,其安全性則是重中之重。而作爲AI下一個風口的AIGC,更需要海量優質數據爲訓練模型提供支撐,其訓練參數量從億級飆升到萬億級。

數據顯示,2018年GPT預訓練模型參數量突破1億,2020年的CPT-3模型參數量達到1750億,GPT-4的參數量高達1.8萬億,GPT-4的參數量規模是GPT-3的10倍以上。

可見,動輒千億、上萬億參數的模型訓練,不僅試錯成本高昂,而且很難在訓練過程中進行修正。AIGC的訓練模型數據需求量大,如若喂給大模型的樣本數據存在虛假、不准確性或涉及到用戶個人隱私安全,其生成內容歸屬難定,或將涉及到安全或隱私糾紛。

當前,AIGC持續大熱,其應用場景不斷拓展,覆蓋千行百業多個領域。當通用大模型向行業大模型轉型升級,對細分行業的數據需求更多,數據質量要求更高,也對海量數據的真實性、准確性、安全性提出更高要求。


二、可信AI的挑战

聚焦國內市場,伴隨着AI技術的快速迭代和應用場景商業化落地,AIGC的發展也亟待解決可釋性、公平性、魯棒性等核心挑战。

通俗來講,可釋性就是“知其然不知其所以然”。例如當購物網站爲用戶推薦了一個商品,我們不僅希望用戶看到推薦的結果,還要告訴用戶爲什么推薦這個商品。就是從“知道這個結果”到“爲什么是這個結果”的溯源,但在人工智能的不斷深度學習中,越來越缺少系統的可解釋性。

公平性缺失意味着,在同樣的商品推薦中,基於圖神經網絡結構隱藏在數據中的偏見,對性別、年齡、種族等產生不同的推薦效果,從而降低了對用戶和對推薦物的公平性。

魯棒性的挑战則指系統、算法或模型在存在異常輸入、算法錯誤或深度僞造數據時,容易被欺騙犯錯,從而造成AI系統的不可控和不准確。

綜上來看,要做到可信AI,需要從可釋性、公平性、魯棒性、倫理性、正確性、安全性等多維度進行考量,才會更好地驅動AIGC的未來發展。

由此可見,AIGC的“超能力”將逐步賦能千行百業,有必要提前預防可能產生的安全風險。因而,爲了規避新技術帶來的陷阱,對AIGC或將產生的不良影響,亟待政策層面的保障。

三、多國監管政策出爐

在AIGC技術逐步向細分行業商業化的落地過程中,其引發的安全問題已受到全球關注,並引發監管層面的關注和行動。

今年4月,AI早期創始人馬斯克聯合業內千名高管和專家發布公开信,倡議所有人工智能實驗室應立即暫停訓練至少6個月,以應對AI脫離人類掌控的威脅。

5月,美國政府機構強調對ChatGPT在倫理道德方面的監管,研究和制定針對ChatGPT的監管政策和指南,以確保ChatGPT的發展和應用符合法律法規和倫理標准。

6月,歐盟議會宣布《人工智能法案》進入最終討論階段,對AIGC生成圖像和文本的智能模型制定限制性規則。意大利、愛爾蘭、德國、法國等或將停用ChatGPT,並調查它是否符合通用數據保護條例。

7月,聯合國安理會也在开展AI風險問題研討。這是該機構第一次舉行類型會議,各國政府積極探討如何降低新興AI技術在全球經濟和國際安全方面帶來的風險。

同是7月,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局發布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),自8月15日正式施行。

從上述各國對待AIGC技術帶來的風險挑战和應對措施來看,在AIGC帶來“超能力”之時,也需要對其引發的多重風險“立規矩”,助力AIGC更好地落地應用。

四、《辦法》打造護城河

歷時3個月,伴隨着AIGC產業發展的高歌猛進,其監管政策也從徵求意見階段進階到正式落地階段,助力AIGC成爲真正的“可信AI”。正如業內人士所言:“《辦法》的出台,就是打造可信AI的護城河”。

《辦法》的出台,可謂順勢而爲。其中,第七條提到生成式人工智能服務提供者需“使用具有合法來源的數據和基礎模型;採取有效措施提高訓練數據質量,增強訓練數據的真實性、准確性、客觀性、多樣性。

具體規定包括:1)使用具有合法來源的數據和基礎模型;2)涉及知識產權的,不得侵害他人依法享受的知識產權;3)涉及個人信息的,應用取得個人同意或符合法律、行政法規規定的其他情形;4)採取有效措施提高訓練數據質量,增強訓練數據的真實性、准確性、客觀性、多樣性;5)《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》、《中華人民共和國個人信息保護法》等法律、行政法規的其他有關規定和有關主管部門的相關監管要求。

可以說,《辦法》的出台,即是在政策認可前提下的風險管控,可以爲大數據確權、雲計算自主性、網絡安全等AI配套產業打造增量需求和服務,更好地實現“技術向善”。

隨着AIGC技術端的突破,將能更好地解決“安防+AI”遇到的個性化需求少、交付速度慢、長尾需求的算法精度差、定制化算法成本高等壁壘,助推“安防+AI”的二次變革,也助力安防產業收獲第一波AIGC應用市場的紅利。

而安防產業在享受大數據、雲計算、物聯網、AIGC算法生成等帶來的紅利時,也必須更高效地應對數據安全帶來的安全挑战。特別是安防設備對圖片、視頻等數據的真實性和防僞性要求級別更高,《辦法》的出台,爲AIGC在安防行業的落地應用提供了監管保障。

國家互聯網信息辦公室有關負責人也表示,出台《辦法》,旨在促進AIGC健康發展和規範應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。


總結:

縱觀AIGC的發展軌跡,當前其應用領域側重於to-C領域,涵蓋對話、圖片、音頻、視頻等內容生成,而未來涉及to-B領域的更多落地化應用場景對行業大模型的需求也不少,但苦於資金、技術和算力的掣肘,還需要“通用大模型+應用場景+訓練調優”進行迭代,從而提升行業大模型能力,深化技術和應用場景。

可預見的是,基於AIGC應用場景的普及和商業化落地,保護隱私和數據安全已刻不容緩。在此時間點,《辦法》的出台則及時也很必要,可以降低AIGC發展引發的多重風險,以促進行業整體健康發展。

標題:AIGC爆火的背後,《辦法》打造可信AI護城河

地址:https://www.utechfun.com/post/250157.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡