影子人工智能:對企業採用生成式人工智能的隱藏威脅

2024-04-18 18:00:21    編輯: robot
導讀 生成式人工智能(GenAI)技術,尤其是像OpenAI的GPT-4這樣的大型語言模型,不斷引起渴望獲得競爭優勢的企業的興趣。許多企業認識到這些技術的潛力,以徹底改變其運營的各個方面。然而,盡管人們的...

生成式人工智能(GenAI)技術,尤其是像OpenAI的GPT-4這樣的大型語言模型,不斷引起渴望獲得競爭優勢的企業的興趣。許多企業認識到這些技術的潛力,以徹底改變其運營的各個方面。然而,盡管人們的興趣日益濃厚,但在企業內部採用生成式人工智能方面存在明顯的猶豫。


數據隱私是企業最關心的問題之一。它不僅是一個問題,而且是开展業務的關鍵要素。

● 91%的組織表示,他們需要採取更多措施來讓客戶放心他們的數據將如何被人工智能使用。
● 98%的組織向董事會報告隱私指標。
● 94%的組織表示,如果數據沒有得到充分保護,他們的客戶就不會從他們那裏購买產品。

GenAI將人工智能能力交到更多用戶的手中。92%的受訪者認爲,GenAI是一項完全不同的技術,具有新的挑战和問題,需要新的技術來管理數據和風險。

此外,我們看到,全球範圍內,因違背客戶信任而對企業處以創紀錄的罰款的數量不斷增加。例如,

● 2022年9月,Instagram因違反GDPR侵犯兒童隱私而被愛爾蘭數據保護專員(DPC)罰款4.03億美元。
● 中國網約車企業滴滴全球出行有限公司(滴滴)因違反網絡安全和數據相關法律被罰款80.26億元人民幣(約合11.8億美元)。
● 2021年夏天,零售巨頭亞馬遜的財務記錄披露,盧森堡當局因違反GDPR對其處以7.46億歐元(8.77億美元)的罰款。

數據隱私的風險從未如此高。

影子人工智能的崛起

隨着人工智能繼續無情地向企業邁進,一種潛在的威脅潛伏在黑暗中,可能會破壞其廣泛應用:影子人工智能。

影子人工智能與未經授權使用軟件的“影子IT”現象非常相似,指的是在沒有組織監督的情況下部署或使用人工智能系統。但它給企業帶來的風險要大得多。

無論是出於方便還是無知,對人工智能开發進行妥善管理都可能制造定時炸彈。隨着人工智能通過雲服務變得更容易訪問,同時又保持不透明,松懈控制留下的後門很容易被濫用。

渴望獲得優勢的員工可以輕松地將企業數據粘貼到ChatGPT或GoogleBard中,目的很好,例如更快、更高效地完成工作。在沒有安全解決方案的情況下,員工將轉向可訪問的解決方案。

去年春天,三星員工三次意外與ChatGPT共享機密信息。泄露的信息包括軟件代碼和會議記錄,這導致該公司禁止員工使用GenAI服務。

此外,由於GenAIAPI易於訪問,軟件开發人員可以輕松地將GenAI集成到他們的項目中,這可以添加令人興奮的新功能,但往往以犧牲最佳安全實踐爲代價。

影子人工智能的風險

隨着利用GenAI的壓力越來越大,多種威脅也日益增多。

數據泄露


GenAI工具的激增是一把雙刃劍。一方面,這些工具在提高生產力和促進創新方面提供了卓越的能力。另一方面,它們也帶來了與數據泄露相關的重大風險,尤其是在缺乏強大的AI可接受使用政策(AUP)和執行機制的情況下。GenAI工具的易用性導致了一種令人擔憂的趨勢:員工在熱情或追求效率的驅使下,可能會無意中將敏感的企業數據泄露給第三方服務。

不僅僅是普通知識工作者在使用聊天機器人。去年,微軟員工也犯了一個錯誤,在將38TB的LLM培訓數據上傳到开發者平台GitHub時意外泄露了這些數據。這其中包括微軟員工的個人電腦備份。備份包含敏感的個人數據,包括微軟服務的密碼、密鑰以及359名微軟員工的3萬多條微軟團隊內部信息。

違反合規性


未經合規性審查的影子人工智能工具可能會違反GDPR等法規,從而導致法律後果和罰款。除此之外,企業需要關注的跨多個司法管轄區的法律越來越多。

即將通過的歐盟《人工智能法案》則讓情況更加復雜。不遵守規定可能會導致罰款,罰款金額從3500萬歐元或全球營業額的7%到750萬歐元或營業額的1.5%不等,具體取決於違法行爲和企業規模。

1月29日,意大利數據保護局(DPA,即GaranteperlaProtezionedeiDatiPersonali)通知OpenAI違反了數據保護法。去年3月,Garante曾暫時禁止OpenAI處理數據。根據事實調查活動的結果,意大利DPA得出結論,現有證據表明OpenAI違反了歐盟GDPR的規定。

揭祕影子人工智能

組織需要一種保護隱私的AI解決方案,以彌合保護隱私和充分發揮LLM潛力之間的差距。

盡管人工智能技術取得了重大進展,但只有一些基於人工智能的應用被組織成功實施,以安全地處理機密和敏感數據。爲了在整個生成式人工智能生命周期中保護隱私,必須實施嚴格的數據安全技術,以安全高效地執行涉及模型的所有安全關鍵操作以及用於訓練和推理的所有機密數據。

數據清理和匿名化通常被提議作爲增強數據隱私的方法。然而,這些方法可能沒有預期的那么有效。數據清理,即從數據集中刪除敏感信息的過程,可能會因GenAI的本質而受到破壞。

匿名化,即從數據集中剝離個人身份信息的過程,在GenAI的背景下也存在不足。先進的人工智能算法已經證明了在匿名數據集中重新識別個人的能力。例如,倫敦帝國理工學院的研究表明,機器學習模型可以以驚人的准確度在匿名數據集中重新識別個人。研究發現,僅使用年齡、性別和婚姻狀況等15個特徵,就可以在任何給定的匿名數據集中重新識別99.98%的美國人。

此外,《麻省理工技術評論》報道的一項研究強調,即使數據集不完整或被更改,也可以輕松地從匿名數據庫中重新識別個人。在此背景下使用機器學習模型表明,當前的匿名化實踐不足以應對現代人工智能技術的能力。

這些發現表明,政策制定者和技術專家需要开發更強大的隱私保護技術,以跟上人工智能的進步,因爲數據清理和匿名化等傳統方法,已不足以確保GenAI時代的數據隱私。

GenAI中更好的數據隱私解決方案

隱私增強技術(PET)被認爲是GenAI領域保護數據隱私的最佳解決方案。通過保護數據處理並維護系統功能,PET解決了數據共享、泄露和隱私監管問題。

值得注意的PET包括:


同態加密:允許對加密數據進行計算,輸出結果就像對純文本進行處理一樣。限制包括速度較慢和查詢復雜度降低。數據完整性風險仍然存在。

安全多方計算(MPC):方便多方處理加密數據集,保護數據隱私。缺點包括性能下降,尤其是在LLM訓練和推理方面。

差分隱私:在數據中添加噪聲以防止用戶重新識別,平衡隱私和數據分析准確性。但是,它可能會影響分析准確性,並且在計算過程中不保護數據,因此需要與其他PET結合使用。

雖然上述每種技術都提供了保護敏感數據的方法,但沒有一種可以確保生成式AI模型所需的計算能力能夠充分發揮作用。然而,一種稱爲機密計算的新方法使用基於硬件的可信執行環境(TEE),可防止在使用過程中未經授權訪問或修改應用程序和數據。

這可以防止未經授權的實體(例如主機操作系統、虛擬機管理程序、系統管理員、服務提供商、基礎設施所有者或任何可以物理訪問硬件的人)查看或更改環境中的數據或代碼。這種基於硬件的技術提供了一個安全的環境,以確保敏感數據的安全。

機密計算作爲隱私保護的AI解決方案

機密計算是技術行業的一個新興標准,重點是保護使用過程中的數據。這一概念將數據保護從靜態和傳輸中的數據擴展到使用中的數據,這在當今橫跨多個平台(從本地到雲和邊緣計算)的計算環境中尤爲重要。

這項技術對於處理敏感數據(例如個人身份信息(PII)、財務數據或健康信息)的組織至關重要,因爲針對系統內存中數據的機密性和完整性的威脅是一個重大問題。

由於機密計算的復雜性,這種跨行業努力至關重要,它涉及重大的硬件更改以及程序、操作系統和虛擬機的結構。CCC旗下的各種項目正在通過开發开源軟件和標准來推動該領域的發展,這對於致力於保護使用中數據的开發人員來說至關重要。

機密計算可以在不同的環境中實施,包括公共雲、本地數據中心和分布式邊緣位置。這項技術對於數據隱私和安全、多方分析、法規遵從性、數據本地化、主權和駐留至關重要。它確保敏感數據即使在多租戶雲環境中也能得到保護並符合當地法律。

最終目標:機密人工智能

機密AI解決方案是一種安全平台,它使用基於硬件的可信執行環境(TEE),來訓練和運行敏感數據的機器學習模型。TEE可以進行訓練、微調和推理,而不會將敏感數據或專有模型暴露給未經授權的各方。

數據所有者和用戶可以在其數據上使用本地學習模型(LLM),而不會向未經授權的各方泄露機密信息。同樣,模型所有者可以在保護其訓練數據和模型架構和參數的同時訓練他們的模型。如果發生數據泄露,黑客只能訪問加密數據,而不能訪問TEE內保護的敏感數據。

然而,僅靠機密計算無法防止模型意外泄露有關訓練數據的詳細信息。機密計算技術可以與差分隱私相結合,以降低這種風險。這種方法涉及在TEE內計算數據並在發布之前應用差分隱私更新,從而降低推理過程中泄露的風險。

此外,機密的AI平台可幫助LLM和數據提供商遵守隱私法律法規。通過使用高級加密和安全的TEE技術保護機密和專有數據,模型構建者和提供商無需擔心他們可以收集的用戶數據的數量和類型。

可信執行環境等機密計算技術,爲保護AI系統中的隱私和知識產權奠定了基礎。機密AI解決方案與差異隱私和周到的數據治理政策等技術相結合,可讓更多組織從AI中受益,同時建立利益相關者的信任和透明度。

盡管仍有許多工作要做,但密碼學、安全硬件和隱私增強方法的進步表明,未來人工智能可以合乎道德地部署。不過,我們必須繼續倡導負責任的創新,並推動平台賦予個人和組織控制其敏感數據使用方式的權力。



標題:影子人工智能:對企業採用生成式人工智能的隱藏威脅

地址:https://www.utechfun.com/post/359439.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡