導讀 根據思科(Cisco)日前進行的一項調查,盡管很多員工了解生成式AI在數據隱私方面的缺陷,但許多人仍在向ChatGPT等類似的AI應用程序輸入敏感的公司數據。思科針對全球12個國家的2600名隱私和...
根據思科(Cisco)日前進行的一項調查,盡管很多員工了解生成式AI在數據隱私方面的缺陷,但許多人仍在向ChatGPT等類似的AI應用程序輸入敏感的公司數據。
思科針對全球12個國家的2600名隱私和安全專業人士進行的年度數據隱私基准調查表明,超過四分之一的公司在內部實施了生成式AI禁令,三分之二的公司對哪些信息可以輸入基於大型語言模型(LLM)的系統設置了護欄,或者禁止使用特定的應用程序。
思科卓越隱私中心主任RobertWaitman在博客文章中寫道:“超過三分之二的受訪者表示,他們擔心數據有被競爭對手或公衆共享的風險。盡管如此,他們中的許多人輸入了可能有問題的信息,包括有關所在公司的非公开信息(48%)。”
多數受訪者已經意識到生成式AI的數據隱私問題
不出所料,調查表明,受訪者對生成式AI的了解程度越來越高,55%的人表示他們“非常熟悉”這項技術。而在2023年的調查中,52%的人表示不熟悉。與此同時,79%的受訪者在今年的調查表示,他們正在從生成式AI應用中提取“顯著或非常顯著的價值”。
即便如此,在部署此類工具時,受訪者對公司保護數據安全的能力一直持保留態度。其中包括擔心AI可能危及其公司的法律和知識產權(69%),將專有數據泄露給競爭對手或公衆(68%),以及應用程序輸出內容可能不准確(68%)。與此同時,92%的受訪者認爲,部署生成式AI需要“管理數據和風險的新技術”。
盡管存在這些擔憂,但許多受訪者坦率地承認,他們曾將敏感的公司數據輸入到生成AI應用程序中。例如,62%的人輸入了有關內部流程的信息,而48%的人在生成式AI應用程序中使用敏感的公司數據以尋求新的見解。
企業發布內部使用生成式AI禁令變得越來越普遍
很多公司似乎也开始通過對生成式AI的使用設置護欄來應對帶來的這些誘惑。27%的受訪者表示,他們的公司已經完全禁止使用這項技術。其他公司則設置了一定的限制,這些限制措施通常是數據限制(63%)、工具限制(61%)或數據驗證要求(36%)。
這些調查發現與零售、制造業和金融服務行業組織在2023年發布的類似公告相呼應,他們將對生成式AI的內部使用設置護欄。今年5月,三星禁止其員工使用生成式AI,亞馬遜、蘋果和Verizon也實施了類似的限制。
生成式AI專家HenryAjder表示,這些決定可能是出於監管的不確定性,以及對數據隱私的擔憂。
“人們意識到,如果他們以目前的方式使用生成式AI,在當前的監管環境下,他們的一些行爲將會違反法規,或者公司在安全維護方面的成本將非常高。”Ajder說。
標題:思科調查:超25%公司在內部實施了生成式AI禁令
地址:https://www.utechfun.com/post/325019.html