機密計算如何確保生成式人工智能的採用

2023-06-30 18:00:38    編輯: robot
導讀 生成式人工智能可以爲新產品、企業、行業甚至新經濟提供信息。但它與傳統人工智能不同之處可能使其變得危險。其獨特的創造能力引發了一系列全新的安全和隱私問題。企業突然不得不考慮許多問題,比如是否擁有培訓數...

生成式人工智能可以爲新產品、企業、行業甚至新經濟提供信息。但它與傳統人工智能不同之處可能使其變得危險。其獨特的創造能力引發了一系列全新的安全和隱私問題。

企業突然不得不考慮許多問題,比如是否擁有培訓數據的權利?系統本身對未來創建的數據有權利嗎?該系統的權利如何受到保護?如何使用生成人工智能來管理模型中的數據隱私……

這也導致了許多企業不敢輕舉妄動,因爲明顯的安全和隱私漏洞,加上對依賴現有的權宜之計解決方案的猶豫,促使許多人完全禁止了這些工具。但還是有希望的。

機密計算是一種新的數據安全方法,可在使用時保護數據並確保代碼完整性,是解決大型語言模型(LLM)更復雜、更嚴重的安全問題的答案。它准備幫助企業在不影響安全的情況下,充分利用生成式人工智能的力量。在解釋之前,我們先來看看是什么讓生成式人工智能特別容易受到攻擊。

生成式人工智能有能力將整個企業的數據,甚至知識豐富的子集,納入一個可查詢的智能模型,從而隨時提供全新的想法。這具有巨大的吸引力,但它也使企業很難保持對其專有數據的控制,並保持符合不斷變化的監管要求。

如果沒有足夠的數據安全和信任控制,這種知識的集中和隨後的生成結果,可能會無意中使生成人工智能成爲濫用、盜竊和非法使用的武器。

事實上,越來越多的員工將機密商業文件、客戶數據、源代碼和其他受監管的信息提交給llm。由於這些模型部分是根據新輸入進行訓練的,因此一旦發生泄露,可能會導致知識產權的重大泄露。


如果模型本身受到損害,企業在法律上或合同上有義務保護的任何內容也可能會被泄露。在最壞的情況下,模型及其數據被盜,將允許競爭對手或民族國家行爲者復制所有內容並竊取該數據,這些都是高風險的。

另外,企業在投資生成式人工智能時還需要跟上不斷變化的隱私法規。在各個行業中,遵守數據要求都有着深刻的責任和動力。例如,在醫療保健領域,人工智能驅動的個性化醫療在改善患者治療效果和整體效率方面具有巨大潛力。但醫療服務提供者和研究人員需要訪問和處理大量敏感的患者數據,同時仍保持合規性,這就帶來了新的困境。

爲了應對這些挑战以及其他不可避免會出現的挑战,生成人工智能需要一個新的安全基礎。保護訓練數據和模型必須是重中之重;加密數據庫中的字段或表單上的行已不再足夠。

在生成式人工智能結果用於重要決策的場景中,代碼和數據的完整性及其所傳達的信任的證據,對於合規性和潛在的法律責任管理來說絕對至關重要。必須有一種方法爲整個計算及其運行狀態提供嚴密的保護。

機密生成式人工智能的出現

機密計算提供了一種簡單但非常強大的方法來解決看似棘手的問題。通過機密計算,數據和IP與基礎設施所有者完全隔離,並且只能由運行在可信CPU上的可信應用訪問。即使在執行過程中,也可以通過加密確保數據隱私。

數據安全和隱私成爲雲計算的固有屬性,以至於即使惡意攻擊者破壞了基礎設施數據,IP和代碼也完全不可見。這對於生成式人工智能來說是完美的,可以降低其安全性、隱私性和攻擊風險。

作爲安全遊戲規則的改變者,機密計算越來越受到關注。每個主要的雲提供商和芯片制造商都在投資它,如今,同樣的技術,即使是最堅定的雲計算反對者也可以成爲幫助生成人工智能安全起飛的解決方案。領導者必須开始認真對待它,並理解它的深遠影響。

通過機密計算,企業可以確保生成式人工智能模型,僅學習他們打算使用的數據,而不學習其他數據。跨雲可信源網絡的私有數據集訓練提供了完全的控制和安心。所有信息,無論是輸入還是輸出,都是完全受保護的,都在企業自己的四面牆後面。



標題:機密計算如何確保生成式人工智能的採用

地址:https://www.utechfun.com/post/231556.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡