導讀 爲了保護數據的機密性,越來越多的企業禁止使用ChatGPT和其他類似基於雲的生成AI服務,蘋果也加入了這一行列。根據《華爾街日報》的報道,蘋果還禁止員工使用GitHub的Copilot工具,而很多开...
爲了保護數據的機密性,越來越多的企業禁止使用ChatGPT和其他類似基於雲的生成AI服務,蘋果也加入了這一行列。
根據《華爾街日報》的報道,蘋果還禁止員工使用GitHub的Copilot工具,而很多开發人員使用該工具來幫助編寫軟件。
最近的一項調查發現,39%的Mac开發者正在使用這項技術。
真的有必要實施全面禁令么?
盡管蘋果實施這一禁令似乎有些極端,但表明該公司聽從了一些信息安全專家對使用這些服務發出的警告。令人擔憂的是,使用這些服務可能泄露敏感數據或機密數據。在今年早些時候,三星發現其員工向ChatGPT上傳了機密的源代碼,隨後禁止員工使用這些工具。
一些信息安全專家非常清楚這個問題。網絡安全服務商OrangeCyberdefense的高級安全研究員WicusRoss警告說:“雖然AI聊天機器人經過了开發人員進一步的訓練和完善,但工作人員仍有可能訪問輸入到它們的數據。而且,考慮到人類通常是企業安全態勢中最薄弱的因素,這會使這些信息面臨一系列威脅,即使風險是偶然的。”
雖然OpenAI向企業客戶提供了一個更保密(運行成本也更高)的自托管版本的服務,但其風險在於,在公共使用協議下數據幾乎沒有機密性。
這在處理機密代碼和內部文檔方面很糟糕,而在處理來自嚴格監管的行業,如銀行、醫療和其他領域的信息時,將面臨更大的風險。如今已經看到了一些數據泄露事件,例如一些人詢問ChatGPT的問題已經泄露給不相關的人員。
人們提出的問題變成了數據,那么能夠信任擁有這些數據的人嗎?
盡管蘋果的這一決定可能讓人感覺反應過度,但企業必須說服員工對他們正在共享的數據保持警惕。問題是,當使用基於雲的服務來處理數據時,這些信息很可能會被保留,用於評分或評估,甚至在將來使用。
從本質上來說,用戶向AI聊天機器人提出的問題將成爲未來答案的數據點,他們提供給基於雲的服務的信息可能被人訪問,無論是來自企業內部還是外部攻擊。現在已經出現了這種情況,在今年早些時候發生數據泄露事件之後,OpenAI不得不讓ChatGPT暫時下线。
英國國家網絡安全研究中心(NCSC)提供的建議解釋了這種風險的本質。建議指出,這些詢問的問題對服務提供者是可見的,還將被存儲起來,並且肯定會在某個時候用於开發服務。
在這種情況下,在任何人進行查詢之前,需要對服務的使用條款和隱私政策進行深入審查。此外,人們面臨的另一個挑战是,他們提出的問題也會變成數據。
正如NCSC所解釋的那樣:“隨着越來越多的組織开發大型語言模型(LLM),也增加了另一種風險,那就是存儲在網上的查詢問題可能被黑客攻擊和泄露,或者更有可能意外地被公开訪問,這可能包括潛在的用戶身份信息。”
誰將擁有和保存人們的問題?
隨着AI行業的整合加速,還存在另一層風險。用戶可能在某一天向一個經過安全驗證的LLM詢問敏感問題,這個LLM符合企業安全協議的所有要求,但它可能不久會被網絡安全策略較弱的第三方購买,第三方購买者將擁有以前提供給該服務的敏感數據,但其安全防護性較差。
這個令人擔憂的問題並沒有被提出,是因爲信息安全專家在測試中了解到會出現這種情況,反映出人們已經看到了問題。例如,根據最近發布的一份調查報告,去年在GitHub等公共存儲庫中對外泄露了1000多萬條機密數據,包括API密鑰和憑據。
很多時候,這類機密數據都是通過使用這類服務的個人账戶共享的,豐田、三星和蘋果發布的禁令表明這種情況確實已經發生了。考慮到這一點,大多數信息安全專家都警告用戶不要在向公共服務(例如ChatGPT)進行查詢時包含敏感機密信息。
因此,用戶永遠不應該問那些公开之後可能會帶來麻煩的問題,對於任何試圖保護其數據安全的大公司來說,都可能全面禁止使用ChatGPT,而這是迄今爲止最簡單的解決方案,至少目前是這樣。
生成式AI會走向邊緣
但情況不會一直如此。生成式AI最合乎邏輯的發展之路是朝着能夠托管在邊緣設備上的小型LLM系統發展。這是可能實現的,因爲斯坦福大學开發了能夠在谷歌Pixel手機上運行的小型LLM系統。這可以讓人們預期,在未來可能沒有人會在iPhone上使用ChatGPT應用程序,因爲他們將使用手機本身提供的類似技術。
但是,對於任何使用基於雲的LLM服務的人來說,其遵守的規則是,如果安全性得不到保證,永遠不應該共享機密或敏感數據。這證明了邊緣處理和隱私保護在互聯時代的價值。
標題:蘋果因數據安全問題禁止員工使用ChatGPT等AI工具,真的有必要么?
地址:https://www.utechfun.com/post/215912.html