如何保護人工智能隱私?

2023-09-21 18:00:22    編輯: robot
導讀 盡管企業和消費者都對人工智能改變日常生活的潛力感到興奮,但人工智能的廣泛使用所帶來的隱私問題仍是一個主要問題。顯然,隨着越來越多的個人數據被輸入人工智能模型,許多消費者理所當然地擔心他們的隱私,以及...

盡管企業和消費者都對人工智能改變日常生活的潛力感到興奮,但人工智能的廣泛使用所帶來的隱私問題仍是一個主要問題。顯然,隨着越來越多的個人數據被輸入人工智能模型,許多消費者理所當然地擔心他們的隱私,以及他們的數據被如何使用。

本文旨在幫助這些消費者建立有關人工智能隱私功能的更深入的知識庫。此外,它還爲企業主和領導者提供了指南,幫助他們更好地了解客戶的擔憂,以及如何在不犧牲功能的情況下保護隱私的方式使用人工智能。


人工智能和隱私問題

很少尊重版權和知識產權法


人工智能模型從網絡的各個角落提取訓練數據。不幸的是,許多人工智能供應商在未經他人同意的情況下使用他人受版權保護的藝術品、內容或其他知識產權時,要么沒有意識到,要么不在乎。

隨着模型被訓練、再訓練和使用這些數據進行微調,這個問題變得越來越嚴重,如今的許多人工智能模型都非常復雜,甚至它們的構建者也無法自信地說出,正在使用哪些數據以及誰可以訪問這些數據。

未經授權合並用戶數據


當人工智能模型用戶以查詢的形式輸入自己的數據時,這些數據有可能成爲模型未來訓練數據集的一部分。當這種情況發生時,這些數據可能作爲輸出顯示給其他用戶的查詢,如果用戶向系統輸入了敏感數據,這是一個特別大的問題。

監管機構和保障措施有限


一些國家和監管機構正在制定人工智能法規和安全使用政策,但目前尚無總體標准來要求人工智能供應商,對其構建和使用人工智能工具的方式負責。

許多人工智能供應商已經因侵犯知識產權,以及不透明的培訓和數據收集流程而受到批評。但目前在大多數情況下,人工智能供應商可以在不受幹擾的情況下,決定自己的數據存儲、網絡安全和用戶規則。

未經授權使用生物識別數據


越來越多的個人設備使用面部識別、指紋、語音識別和其他生物識別數據來取代更傳統的身份驗證形式。公共監控設備也經常使用人工智能掃描生物特徵數據,以便更快地識別個人。

雖然這些新的生物識別安全工具非常方便,但對於人工智能企業在收集到這些數據後如何使用這些數據的監管有限。在許多情況下,個人甚至不知道他們的生物特徵數據已經被收集,更不用說這些數據被存儲並用於其他目的了。

隱蔽元數據收集實踐


當用戶與廣告、社交媒體視頻或幾乎任何網絡資產進行交互時,來自該交互的元數據以及用戶的搜索歷史和興趣可以被存儲起來,以便將來進行更精確的內容定位。

這種元數據收集方法已經持續多年,但在人工智能的幫助下,可以大規模收集和解釋更多數據,使科技企業有可能在用戶不知道其工作原理的情況下,進一步針對他們的信息。雖然大多數用戶網站都有提及這些數據收集做法的政策,但只是在其他政策文本中簡短提及,因此大多數用戶沒有意識到他們已經同意了什么,並將自己和移動設備上的所有內容置於審查之下。

人工智能模型的內置安全功能有限


雖然一些人工智能供應商可能選擇構建基线網絡安全功能和保護,但許多人工智能模型沒有本地網絡安全保障措施。這使得未經授權的用戶和惡意行爲者,非常容易訪問和使用其他用戶的數據,包括個人身份信息(PII)。

延長數據存儲周期


很少有人工智能供應商能夠公开他們存儲用戶數據的時間、地點和原因,而透明的供應商通常會存儲很長一段時間的數據。

例如,OpenAI的政策稱,它可以將用戶輸入和輸出數據存儲長達30天,以識別濫用行爲。然而,目前尚不清楚該企業何時或如何在用戶不知情的情況下更仔細地查看他們的個人數據。

隱私和人工智能數據的收集

網絡抓取和網絡爬行


由於它不需要特殊權限,並且使供應商能夠收集大量不同的數據,因此人工智能工具通常依賴於網絡抓取和網絡爬行來構建訓練數據集。

內容是從互聯網上的公开來源中抓取的,包括第三方網站、維基百科、數字圖書館等。近年來,用戶元數據也成爲通過網絡抓取和爬行收集的大部分內容。這些元數據通常來自營銷和廣告數據集,以及包含目標受衆和他們最關注的內容的網站。

人工智能模型中的用戶查詢


當用戶將他們的問題或其他數據輸入人工智能模型時,大多數人工智能模型都會將該數據存儲至少幾天。雖然這些數據可能永遠不會用於其他用途,但事實證明,許多人工智能工具不僅會收集這些數據,還會保留這些數據以供未來的培訓使用。

生物識別技術


監控設備,包括安全攝像頭、面部和指紋掃描儀以及檢測人類聲音的麥克風,都可以用來收集生物識別數據,並在人類不知情或未經同意的情況下識別其身份。

許多企業在使用此類技術時需要保持多大的透明度的規定越來越嚴格。但在大多數情況下,他們可以收集、存儲和使用這些數據,而無需徵求客戶的許可。

物聯網傳感器和設備


物聯網(IoT)傳感器和邊緣計算系統收集大量實時數據,並在附近處理這些數據,以完成更大、更快的計算任務。人工智能軟件通常利用物聯網系統的數據庫,並通過數據學習、數據攝取、安全物聯網協議和網關以及api等方法收集相關數據。

API


API爲用戶提供了與不同類型商業軟件的接口,以便他們可以輕松收集並集成不同類型的數據,以進行人工智能分析和訓練。通過正確的API和設置,用戶可以從CRM、數據庫和數據倉庫以及基於雲的系統和本地系統收集數據。

公共記錄


無論記錄是否數字化,公共記錄通常都會被收集並納入人工智能訓練集中。有關上市企業、當前和歷史事件、犯罪和移民記錄以及其他公共信息的信息無需事先授權即可收集。

用戶調查和問卷


盡管這種數據收集方法比較過時,但使用調查和問卷仍然是人工智能供應商從用戶那裏收集數據的可靠方法。

用戶可以回答關於他們最感興趣的內容、所需要幫助的內容、以及最近對產品或服務的體驗如何,或者任何其他問題,這些問題可以讓人工智能更好地了解如何在未來與該人進行個性化互動。

人工智能和隱私問題的解決方案

借助一些最佳實踐、工具和其他資源,企業可以有效地使用人工智能解決方案,而無需犧牲用戶隱私。爲了在人工智能使用的各個階段保護最敏感的數據,請遵循以下提示:

爲人工智能制定適當的使用政策:內部用戶應該知道他們可以使用哪些數據,以及在使用人工智能工具時,應該如何以及何時使用這些數據,這對於處理敏感客戶數據的企業尤其重要。

投資數據治理和安全工具:保護人工智能工具和其他攻擊面的一些最佳解決方案,包括擴展檢測和響應(XDR)、數據丟失防護以及威脅情報和監控軟件。還有許多特定於數據治理的工具,可以幫助保護數據並確保所有數據的使用均符合相關法規。

閱讀細則:人工智能供應商通常會提供某種文檔,涵蓋其產品的工作原理以及培訓的基礎知識。仔細閱讀這些文件,找出任何危險信號,如果有什么你不確定的,或者在他們的政策文件中有不清楚的地方,聯系他們的代表來澄清。

僅使用非敏感數據:作爲一般規則,不要在任何人工智能工具中輸入企業或客戶最敏感的數據,即使它是一個定制或微調的感覺私密的解決方案。如果想要追求涉及敏感數據的特定用例,請研究是否有一種方法可以使用數字孿生、數據匿名化或合成數據安全地完成操作。

總結

人工智能工具爲企業和日常消費者提供了各種新的便利,從任務自動化到引導式問答,再到產品設計和編程。但盡管這些工具可以簡化我們的生活,但它們也存在侵犯個人隱私的風險,從而損害供應商聲譽和消費者信任、網絡安全和監管合規性。

以負責任的方式使用人工智能來保護用戶隱私需要付出額外的努力,但當考慮到隱私侵犯會如何影響企業的公衆形象時,這是非常值得的。尤其是隨着這項技術的成熟,並在我們的日常生活中變得更加普遍,遵循人工智能法律的通過並开發更具體的、符合企業文化和客戶隱私期望的人工智能,使用最佳實踐將變得至關重要。

 CIBIS峰會 

由千家網主辦的2023年第24屆CIBIS築智能化峰會即將正式拉开帷幕,本屆峰會主題爲智慧連接,‘築’就未來, 將攜手全球知名智能化品牌及業內專家,共同探討物聯網、AI、雲計算、大數據、IoT、智慧建築、智能家居、智慧安防等熱點話題與最新技術應用,分享如何利用更知慧、更高效、更安全的智慧連接技術,“築”就未來美好智慧生活。 歡迎建築智能化行業同仁報名參會,分享交流!

報名方式

成都站(10月24日):https://www.huodongxing.com/event/6715336669000

西安站(10月26日):https://www.huodongxing.com/event/3715335961700

長沙站(11月09日):https://www.huodongxing.com/event/7715337579900

上海站(11月21日):https://www.huodongxing.com/event/9715337959000

北京站(12月23日):https://www.huodongxing.com/event/3715338464800

廣州站(12月07日):https://www.huodongxing.com/event/6715338767700

更多2023年CIBIS峰會信息,詳見峰會官網:http://summit.qianjia.com/  



標題:如何保護人工智能隱私?

地址:https://www.utechfun.com/post/265379.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡