思科調查:超25%公司在內部實施了生成式AI禁令

2024-01-29 18:00:16    編輯: robot
導讀 根據思科(Cisco)日前進行的一項調查,盡管很多員工了解生成式AI在數據隱私方面的缺陷,但許多人仍在向ChatGPT等類似的AI應用程序輸入敏感的公司數據。思科針對全球12個國家的2600名隱私和...

根據思科(Cisco)日前進行的一項調查,盡管很多員工了解生成式AI在數據隱私方面的缺陷,但許多人仍在向ChatGPT等類似的AI應用程序輸入敏感的公司數據。

思科針對全球12個國家的2600名隱私和安全專業人士進行的年度數據隱私基准調查表明,超過四分之一的公司在內部實施了生成式AI禁令,三分之二的公司對哪些信息可以輸入基於大型語言模型(LLM)的系統設置了護欄,或者禁止使用特定的應用程序。

思科卓越隱私中心主任RobertWaitman在博客文章中寫道:“超過三分之二的受訪者表示,他們擔心數據有被競爭對手或公衆共享的風險。盡管如此,他們中的許多人輸入了可能有問題的信息,包括有關所在公司的非公开信息(48%)。”


多數受訪者已經意識到生成式AI的數據隱私問題

不出所料,調查表明,受訪者對生成式AI的了解程度越來越高,55%的人表示他們“非常熟悉”這項技術。而在2023年的調查中,52%的人表示不熟悉。與此同時,79%的受訪者在今年的調查表示,他們正在從生成式AI應用中提取“顯著或非常顯著的價值”。

即便如此,在部署此類工具時,受訪者對公司保護數據安全的能力一直持保留態度。其中包括擔心AI可能危及其公司的法律和知識產權(69%),將專有數據泄露給競爭對手或公衆(68%),以及應用程序輸出內容可能不准確(68%)。與此同時,92%的受訪者認爲,部署生成式AI需要“管理數據和風險的新技術”。

盡管存在這些擔憂,但許多受訪者坦率地承認,他們曾將敏感的公司數據輸入到生成AI應用程序中。例如,62%的人輸入了有關內部流程的信息,而48%的人在生成式AI應用程序中使用敏感的公司數據以尋求新的見解。

企業發布內部使用生成式AI禁令變得越來越普遍

很多公司似乎也开始通過對生成式AI的使用設置護欄來應對帶來的這些誘惑。27%的受訪者表示,他們的公司已經完全禁止使用這項技術。其他公司則設置了一定的限制,這些限制措施通常是數據限制(63%)、工具限制(61%)或數據驗證要求(36%)。

這些調查發現與零售、制造業和金融服務行業組織在2023年發布的類似公告相呼應,他們將對生成式AI的內部使用設置護欄。今年5月,三星禁止其員工使用生成式AI,亞馬遜、蘋果和Verizon也實施了類似的限制。

生成式AI專家HenryAjder表示,這些決定可能是出於監管的不確定性,以及對數據隱私的擔憂。

“人們意識到,如果他們以目前的方式使用生成式AI,在當前的監管環境下,他們的一些行爲將會違反法規,或者公司在安全維護方面的成本將非常高。”Ajder說。

標題:思科調查:超25%公司在內部實施了生成式AI禁令

地址:https://www.utechfun.com/post/325019.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡