大模型的陰面:無法忽視的安全隱憂

2023-09-22 18:40:12    編輯: robot
導讀 在AI大模型的身上,竟也出現了“to be or not to be”問題。 爭議是伴隨着大模型的能力驚豔四座而來的,爭議的核心問題在於安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個...

在AI大模型的身上,竟也出現了“to be or not to be”問題。

爭議是伴隨着大模型的能力驚豔四座而來的,爭議的核心問題在於安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個是大模型本身帶來的隱私泄漏、數據安全等問題。

埃隆·馬斯克應該可以說是對大模型發起質疑的企業家之一。早在ChatGPT誕生之初,馬斯克等一千多名業界、學界人士聯署發表公开信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,暫停至少6個月。

時至今日,馬斯克依舊對外表達的態度是,人工智能是一把雙刃劍,對人工智能方面的監管是強烈共識,可能會出現某種形式的監管機構。

圍繞着AI大模型的安全,不少國內專家學者以及企業家們也有了更多的思考和發聲。9月初,中國科學院院士何積豐曾發言談到,目前大模型面臨的安全問題涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

另一方面,隨着AI大模型在行業中的廣泛應用,對合規和數據保護的需求急劇上升。在“雲、大、物、移”四大網絡安全場景之後,大模型正逐漸成爲新的市場增長點。

不少企業开始圍繞大模型安全視角推出產品,掀起了一陣AI安全、數據安全等新興安全領域的火熱之風。

 大模型的“陰面” 安全問題不容忽視

發展至今,大模型陰陽兩面,涇渭分明。不少人早已經感受到了大模型的“陽面”,應該不少人早已經开始嘗試,將其作爲提升工作效率的工具。

但大模型的“陰面”,關於安全的討論不絕於耳。最典型的安全案例,三星機密數據外泄事件仍然記憶猶新。

上文中也曾提到,中國科學院院士何積豐發言指出,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

隱私保護問題的是,在未經允許的情況下,大模型是否會收集、使用和泄露個人信息。

價值觀對齊問題的是,使得大模型的價值觀與人類的價值觀相對齊。使得大模型按照設計者的意愿行事,而不作出超出意圖之外的舉動。

在價值觀對齊方面,由於人類社會的價值觀是多元化的,且有用的人工智能與無害的人工智能往往存在衝突,這導致了大模型價值觀對齊存在很大的難度。

具體來看,大模型的包含多個關鍵要素,數據、算法模型以及應用層等,每一個要素中,都有不少安全問題需要面對。

在數據層,安全問題主要集中在數據泄露、數據污染等。三星的案例,其實就在於數據層面存在一定的泄漏風險。

數據可以說是構成大模型的骨骼,爲其提供了基礎支撐。

在機器學習和深度學習的領域中,數據的獲取、加工及利用的方式決定了模型的性能和准確性。但是,數據層面的安全隱患卻是不可避免的。

其中最常見的問題包括數據的非法泄漏,這可能導致敏感信息暴露;數據被惡意篡改,這可能導致訓練出的模型有誤導性;還有非法獲取或使用未經授權的數據,這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對模型的訓練和應用帶來不良影響,使其失去原有的效果甚至產生誤導。

與數據安全同等重要的,是算法模型的安全。

在現代社會,大模型的訓練往往需要消耗巨大的計算力,因此很多資源都集中在特定的數據中心。

這就爲潛在的攻擊者提供了機會,他們可能會針對這些數據中心進行攻擊,試圖更改模型的參數或者整體結構。一旦成功,模型的輸出可能會完全不可控,產生不可預知的結果。

另外,還有一種更加隱蔽的攻擊方式——對抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產生錯誤的輸出,這在一些關鍵領域如醫療診斷、金融決策等方面,可能會帶來嚴重後果。

到應用層,安全隱患也十分嚴重。比如說生成內容的有害性和准確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進行數據推斷的過程中,用戶的私人數據不會被非法獲取或泄露?這些都是在模型部署時必須要考慮的問題。

此前,就有人嘗試向大模型發問,“野生娃娃魚的做法”,大模型給出的回答是“紅燒”,並且寫出了具體的步驟。這就很容易“誤導”提問者。實際上,野生娃娃魚屬於國家二級保護動物,不能捕捉、捕殺甚至食用。

爲了應對這些隱患,可能需要一系列的安全措施,包括但不限於數據加密、模型的版本控制和運行環境的隔離等。

 AI大模型安全問題 的解決之道

大模型問題出現後,外界對於監管的呼聲是最爲熱烈的。

在新技術飛速發展的當下,政府與各類監管機構成爲確保AI大模型安全運行的重要力量。他們可以通過制定和實施嚴格的數據隱私法規,爲大模型的安全使用提供法律保障。

今年4月,國家互聯網信息辦公室發布了關於《生成式人工智能服務管理辦法(徵求意見稿)》,旨在促進生成式人工智能健康發展和規範應用。其中的第七條涉及到生成式人工智能服務提供者數據來源的合法性問題。

這也意味着國家已經开始出手應對大模型火熱帶來的一些列的安全問題。

7月,網信中國官微消息稱,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局公布了《生成式人工智能服務管理暫行辦法》。

這其中就明確生成式人工智能服務提供者應當依法开展預訓練、優化訓練等訓練數據處理活動,使用具有合法來源的數據和基礎模型;涉及知識產權的,不得侵害他人依法享有的知識產權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形;採取有效措施提高訓練數據質量,增強訓練數據的真實性、准確性、客觀性、多樣性。

此外,明確了數據標注的相關要求。

監管之下,國內的大模型也迎來了合理合法合規的發展期。最新的消息是,目前國內已經有11家大模型陸續通過《生成式人工智能服務管理暫行辦法》備案,並逐步面向大衆开放。

監管之下,技術本身也可以在大模型安全上有所行動。AI守護AI,技術反哺技術。

“利器攻利器”。AI技術本身不僅是可能的威脅,更是解決問題的關鍵。

對抗性訓練就是其中的佳例,它可以讓模型在面對惡意輸入時仍然保持其穩定性,從而增強模型對各類對抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術對模型的輸出進行實時監控,及時發現並糾正模型的異常行爲。

另外,目前也有不少安全企業提出通過可信計算、差分隱私、聯邦學習等技術手段確保數據隱私安全。

此前,清華大學人工智能研究院副院長,北京智源人工智能研究院和瑞萊智慧首席科學家朱軍在接受騰訊科技採訪時就曾提到過,爲了解決大模型的安全問題,從技術方向來看,我們可以以“AI識別AI”的形式來應對。

朱軍表示,與進攻相比,防守其實更爲困難。現在,我們正積極尋求多種手段以增強模型的抵御能力,並在模型的應用和布署階段實施多重保護策略。

比如在人臉鑑定系統中,我們設置人臉識別安全屏障,能在樣本進入決策階段前篩選並剔除攜帶潛在威脅或經過對抗性修改的樣本,確保系統安全穩定。這一技術手段已經在銀行等行業中落地使用。

爲了防範未然,开發者和企業在產品層面也必須下足功夫。嚴格的安全標准不僅僅是一紙文件,更應該深入到每一個开發與部署的細節中。

對於开發者和企業而言,對數據的處理要嚴格遵循隱私保護原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的开發與部署過程也需要經過嚴格的審查,確保其不會對用戶和社會造成傷害。

大模型安全問題掀起行業新風向

目前,不少企業也關注到了大模型安全的問題,甚至推出了不少相關的產品和解決方案。這也掀起了一陣“安全潮”,風口也逐漸吹向了數據要素、網絡安全和隱私計算等相關產業上。

最近一段時間,可以明顯地看到網絡安全行業正在迎頭趕上這一挑战,大模型和數據安全新品不斷亮相,旨在滿足市場對於新興技術的安全需求。

今年的網絡安全博覽會成爲了各大廠商展示大模型安全解決方案的初舞台。比如,奇安信推出了名爲Q-GPT的安全機器人,還發布了針對大模型數據泄露隱患的“大模型衛士”; 綠盟科技在發布其安全大模型的同時,也推出了基於隱私計算的“數據保險箱”。

除此之外,安恆信息、深信服、三六零集團、螞蟻等公司也紛紛推出各自的大模型產品,爲企業提供了多樣的選擇。這些新品的出現無疑證明了行業對於大模型安全的重視。

據中國網絡安全產業聯盟的數據,2022年我國網絡安全產業規模達到了近633億元,預計在未來三年內,增速將保持在10%以上。隨着數據要素市場的逐步建立,大模型等前沿技術發揮出的應用價值越來越大,新的安全需求也隨之湧現。

隱私計算賽道同樣如此。

在2023年世界人工智能大會上,就有不少專家學者提到大模型時代隱私計算迎來全新機遇。現階段,隱私計算中包括可信執行環境TEE、多方安全計算MPC等都有與大模型結合的探索,比如在雲端部署TEE,用戶在推理時將輸入數據加密傳輸至雲端,在其內部解密然後進行推理。

復旦大學教授、上海市數據科學重點實驗室主任肖仰華表示,傳統的隱私計算如差分隱私、聯邦學習多是算法層开展工作。

不過算法工作前提是保護對象是明確的,協作機制清晰。大模型時代是海量參數化的模型,不透明、無邊界、不可解釋,對於以前的基於可解釋、清晰、可控的技術路线的隱私計算方法提供了全新挑战。

華經產業研究院的報告顯示,隨着中國互聯網技術的發展,中國隱私計算市場規模逐年增長,預計2025年中國隱私計算市場規模達192.2億元。

大模型已經成爲繼“雲、大、物、移”之後的新战場,被視爲新的市場增量。

無論是爲自己的客戶提供基於大模型的服務,提高交付效率和競爭力,還是通過大模型應用提高企業自身生產效率,大模型正迅速進入企業IT中,與此對應的大模型安全也成爲攻防焦點。

隨着各大公司在大模型安全方面的持續投入和創新,預期這一市場將帶動整個網絡安全行業邁向新的高度。

結語

AI大模型的發展不僅帶來了巨大的潛力,也伴隨着重大的安全挑战。爲了充分發揮AI的潛力並確保安全,政府、企業和網絡安全公司需要共同努力,採取綜合性的措施來解決這些問題。只有這樣,我們才能在AI時代中邁出堅實的步伐。

 相關閱讀

別怪ChatGPT,AI黑客攻擊早已开始

生成式AI大模型,或將撼動雲服務市場格局

AI攻擊AI,升級的網絡安全战

一波未平一波又起?AI大模型再出邪惡攻擊工具

【科技雲報道原創】

轉載請注明“科技雲報道”並附本文鏈接

       原文標題 : 大模型的陰面:無法忽視的安全隱憂



標題:大模型的陰面:無法忽視的安全隱憂

地址:https://www.utechfun.com/post/266295.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡