OpenAI“宮鬥”大戲即將塵埃落定。
自首席執行官Sam Altman突然被董事會宣布遭解僱、董事長兼總裁Greg Brockman辭職;緊接着OpenAI員工以辭職威脅董事會要求Altman回歸;再到OpenAI董事會更換成員、Altman回歸OpenAI。
表面上看,這似乎是一場針對一家獨領風騷的技術初創公司控制權的爭奪战,但從種種跡象來看,此次“宮鬥”的導火索,更多應源自對AI未來發展理念的分歧:一派扛着“加速主義”旗幟,希望AI在技術精英的帶領下加速前進改造世界;另一邊則是以利他主義理論爲根基、力求讓AI在人類控制下發展的保守派別。
從創造栩栩如生的藝術到如同真人般的精度模仿人類語言,生成式AI正在改寫創新和自動化的規則。
AI大模型訓練的高耗能、AI對語言情感和倫理道德的把握程度、AI對假消息和公衆輿論的操縱、生成式AI在人類創新創造中的角色……在生成式AI加速奔跑的今天,有些問題依然值得我們細細思考。
AI大模型成下一個 安全新战場
今年三月,三星電子剛剛在企業內部引入ChatGPT服務不久,就發生了三起機密數據泄露事件。部分員工將涉及半導體生產的機密代碼與內部會議信息輸入ChatGPT端口,導致這些敏感資料被上傳至美國服務器,極可能已經泄漏。事件發生後,三星迅速採取措施約束員工使用ChatGPT的場景和行爲,也引發了行業對於這類大模型技術帶來的數據隱私和安全問題的討論。
客觀而言,在互聯網時代,任何向雲端上傳數據的行爲都具有潛在的安全風險。雲計算剛剛興起的時代,就有很多企業擔憂敏感數據被雲服務商泄露,拒絕將其上傳至雲端。
時至今日,仍有大批企業在本地存儲隱私數據來增強安全性,雲服務商仍然沒有完全贏得企業的信任。
而生成式AI的熱潮則令這一問題雪上加霜。一方面,由於大模型訓練、運營所需的成本極爲高昂,極少有企業能夠負擔巨大的投資而在本地建設自有大模型服務。
另一方面,由雲服務商提供的大模型服務在訓練和交互時需要海量數據,尤其是特定領域的數據。大模型掌握的領域數據越多,特別是與企業研發、運營相關的數據越多,輸出的效果往往越令人滿意。
例如,企業开發人員使用AI代碼輔助生成工具時,一般需要上傳企業已有的代碼庫,使大模型給出更精准的代碼預測結果;企業營銷人員將過往的營銷材料輸入大模型,就可以自動生成高質量的營銷內容,提升工作效率。
爲此,企業和研究機構往往會收集包括用戶生成內容的文本、圖像等數據,這些原始訓練數據中可能含有用戶的敏感隱私信息。
如果數據採集不當、存在偏見或標籤錯誤、數據被投毒,都有可能導致大模型產生錯誤輸出、存在歧視或其他負面影響,同時數據在應用的過程中,也要面臨數據泄露、隱私曝光等風險,這既存在法律風險,也會引發公衆對AI的信任危機。
另外,提供大模型服務的雲廠商一般會同時服務衆多客戶,而大模型在獲得各個企業的數據後,如何將這些數據充分隔離在每個客戶的服務範圍之內,就成爲了困擾雲廠商與企業的一大難題。
一旦數據的隔離失敗,從甲客戶獲得的數據就可能被用在對乙客戶給出的交互回答中,造成數據泄露。
如果企業上傳的大量隱私機密數據未能得到充分保護,惡意攻擊者或者雲廠商內部的惡意人士就可能利用軟件漏洞或職權獲取這些信息,攫取不當利益的同時,也對企業造成了無可估量的傷害。
考慮到大模型所需的訓練和交互數據數量龐大,遠遠超過以往企業上傳到雲端的規模,這種風險相比過去也有數量級的增長。
目前,生成式AI已經展現前所未有的智能化水平,由此將佔據企業的IT關鍵位置,而就此重要性帶來的受攻擊頻度,也將使得生成式AI成爲雲計算、大數據、物聯網、移動互聯網之後的一個全新的安全战場。
與此同時,大模型技術也將會在多個方面幫助提升網絡安全運維效率,在更深層次改變網絡安全格局的基礎。
有些人士還認爲,生成式AI將進一步擴大貧困差距,加深數字鴻溝。生成式AI作爲新興的AI技術,需要基於大量的數據與巨大的計算能力,這就意味着生成式AI只能在技術先進的國家和地區普及开來,並被少數經濟體所掌控。
數字貧困差距進一步擴大,科技弱勢地區的話語權被忽視,其潛在的風險就是發達經濟體的價值觀廣泛傳播,數字鴻溝也會不可逆地加深。
用技術對抗技術用魔法打敗魔法
隨着大模型時代的到來,其強大能力也爲安全防護技術的變革提供了新的思路。“用AI的力量來對抗AI”已經成爲一個熱點方向。
事實上,對抗攻防思路並不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領域就逐步形成了“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統的弱點,以此推動算法和工程端的防御能力加強。
只不過,以往安全防護主要依賴機器學習算法模型,這需要大量專業數據知識積累,且面臨知識盲區和小樣本冷啓動不及時的問題。利用大模型技術,可以實現更智能化的安全防控。
當前,生成式AI面臨的安全問題可以分爲三級。初級問題是技術攻擊問題,也就是網絡攻擊、漏洞攻擊、數據攻擊問題,特別是提供給大模型不好的數據或污染它的訓練數據,可能會導致結果出錯。這類問題相對比較好解決。
比較難解決的是中級問題,主要涉及內容安全。例如大模型可以成爲人們很好的幫手,也能成爲壞人的工具。它可以幫一個水平不怎么樣的黑客寫更好的攻擊代碼、詐騙郵件。
如何讓它的內容更加可控?如何防止AI大模型不作惡?這已經超越了技術範疇。盡管現在有人爲大模型做了內置的所謂“安全護欄”,但它很容易遭到注入攻擊或算法攻擊。
從高級問題來看,大模型可以把人類所有知識融會貫通,再來和人類做交流、做提示。但當AI的能力超越人類後,還能不能甘於做人類的工具,這些技術帶來的挑战最終還要靠技術來解決,技術自身會不斷進化,不能因爲未來還沒有發生的問題就不發展相關技術。
從產業界現狀來看,AI安全與否如何評測,目前尚缺乏一套易用和標准化的評測工具和規則。
這也是大模型防御中能夠補充的另一方面,通過大模型技術學習風險知識和標准規則來提升AI對於風險的認知理解能力,以實現用大模型對抗大模型來進行極速防御和快速冷啓動的目的。
面對大模型下的網絡安全挑战,需要企業、安全團隊和監管機構等共同努力來應對。
首先,加強大模型的訓練和管理。通過採用更加有效的數據增強和處理技術,減少大模型的過擬合和梯度爆炸等問題,提高模型的魯棒性和可靠性。同時,對大模型的訓練和管理也需要加強監管和審計,確保數據的隱私和安全。
其次,研發新型安全防御技術。針對大模型的攻擊手段不斷變化和更新,需要研發新型的安全防御技術來應對。例如,可以利用人工智能技術來檢測和防御惡意代碼和網絡釣魚攻擊等。
以文本安全爲例,大模型可以基於安全標准規則、風險領域知識和歷史風險樣本進行訓練,提升模型對於風險標准和內容的理解力,從而實現對風險檢測能力的提升。
也採用大模型生成能力結合安全知識圖譜,來構造攻擊樣本持續迭代優化檢測模型。
第三,強化數據安全保護。除了要關注大模型在互聯網上的攻防對抗,大模型本身的安全和隱私問題同樣引發了擔憂。
針對大模型的訓練和使用過程中可能存在的數據安全問題,需要採取一系列的隱私保護技術。例如,使用同態加密、差分隱私、安全多方計算、模型水印和指紋等多種技術來保護數據的隱私和安全。
第四,加強監管和法律保護。技術立法往往落後於技術發展的步伐,缺少法規和條例的引導和規制,越來越多使用生成式AI的公司發現其系統運行的安全性受到很大挑战。
面對大模型下的網絡安全挑战,也需要監管機構和法律機構加強管理和監管。例如,政府監管機構要通過政策立法對生成式AI的設計、演進進行有效引導、統籌管理。
制定的政策框架需要與各國的立法和監管背景保持一致,並且要隨AI技術更迭而更新,不斷提高現有法規的適用度。在監管的同時給予AI創新的自由度,協同創造出更高質量的內容。
生成式AI是非常復雜的問題,倫理、數據、訓練等領域的復雜度都是前所未有的,是一個新領域,也是擺在所有人面前的一個命題。
從科技企業的發展史看,在新技術發展的前期,不同路线、理念的參與者往往能夠團結協作,共同爲了科技普及而合作前進。
但當科技普及已經發生,關於商業化、實現路徑的種種理念差異,卻可能走上不同的道路。在AI普及和深度應用的前夜裏,或許,關於未來技術應該如何普及、如何監管的理念與路徑之爭,才剛剛拉开帷幕。
面對未來的安全發展趨勢和挑战,企業更應該攜起手來,共同建立可度量的安全體系,爲應對智能化時代的攻防新趨勢,打造內在自適應的“安全免疫力”。
相關閱讀
打造生成式AI應用,什么才是關鍵?
生成式AI大模型,或將撼動雲服務市場格局
當雲廠商主動擁抱生成式AI,會碰撞出什么樣的火花?
大模型會給操作系統帶來什么樣的想象?
大模型的中場战事,深入垂直行業腹地
【科技雲報道原創】
轉載請注明“科技雲報道”並附本文鏈接
原文標題 : 從數據到生成式AI,是該重新思考風險的時候了
標題:從數據到生成式AI,是該重新思考風險的時候了
地址:https://www.utechfun.com/post/302509.html