文章轉載來源:極客公園
就在 Meta 公布了新一代开源大語言模型 Llama 2 三天之後,公司高層就和微軟、OpenAI、亞馬遜、Anthropic 等七家目前在 AI 行業中的巨頭和炙手可熱的創業公司管理人員,再次聚首美國白宮。
在這次的活動中,七家公司籤訂了一份‘自愿承諾書’(Voluntary Commitments),就 AI 技術和研發的安全、透明、以及風險等做出‘8 大承諾’。
圖片來源:由無界 AI 生成AI 公司‘求監管’的戲碼,到此達到了一個小高潮。
NYT 專欄作者 Kevin Roose 撰文,詳解了這‘8 大承諾’到底都說了什么,以及因此帶來的改變。
研究的結果是,這 8 項承諾,例如安全測試、分享 AI 安全信息、報告漏洞以及‘優先用 AI 解決社會挑战’,看起來都是一些大問題,而對應的承諾也缺乏細節,其中不少問題本身就是 AI 公司已經‘公示’給大衆的。
此份‘資源承諾書’,更像是過去半年美國監管層對 AI 公司數次問詢的一次間接性的‘成果展示’,很可能不具備太多執行層面的意義。但是,監管對於 AI 數次表示關切,標明政府對於 AI 技術應用的立場,才是這場秀最大的意義。
以下爲 Kevin Roose 對於‘自愿承諾書’中 8 項承諾的解讀:
承諾 1:公司承諾在發布人工智能系統之前,對其進行內部和外部安全測試。
這些人工智能公司在發布之前都已經對其模型進行了安全測試——通常稱爲‘紅隊測試’。從某種程度上來說,這並不是一個真正的新承諾,它很模糊。沒有提供有關需要進行何種測試或由誰進行測試的詳細信息。
在隨後一份聲明中,白宮僅表示,人工智能模型的測試‘將部分由獨立專家進行’,並重點關注‘生物安全和網絡安全等人工智能風險,及其更廣泛的社會影響’。
讓人工智能公司公开承諾繼續進行此類測試,並鼓勵測試過程更加透明,這是一個好主意。還有一些類型的人工智能風險——例如人工智能模型可用於开發生物武器的危險——政府和軍事官員可能比公司更適合評估。
我很高興看到 AI 行業就一系列標准安全測試達成一致,例如 Alignment 研究中心對 OpenAI 和 Anthropic 預發布的模型進行的‘自主復制’測試。我還希望看到聯邦政府資助此類測試,這些測試可能成本很高,並且需要具有重要技術專業知識的工程師。目前,許多安全測試都是由公司資助和監督的,這引發了明顯的利益衝突問題。
承諾 2:公司承諾在整個行業以及與政府、民間社會和學術界分享有關管理人工智能風險的信息。
這個承諾也有點模糊。其中一些公司已經發布了有關其人工智能模型的信息——通常是在學術論文或企業博客文章中。其中一些公司,包括 OpenAI 和 Anthropic,還發布了名爲‘系統卡片’(System Cards)的文檔,其中概述了他們爲使這些模型更安全而採取的步驟。
但他們有時也會以安全問題爲由隱瞞信息。當 OpenAI 今年發布最新的人工智能模型 GPT-4 時,它打破了行業慣例,選擇不透露其訓練數據量或模型有多大(稱爲‘參數’的指標)。該公司表示,出於對競爭和安全的擔憂,拒絕透露這一信息。這也恰好是科技公司喜歡遠離競爭對手的數據類型。
根據這些新的承諾,人工智能公司是否會被迫公开此類信息?如果這樣做有加速人工智能軍備競賽的風險怎么辦?
我懷疑白宮的目標不是強迫公司披露其參數數量,而是鼓勵他們相互交換有關其模型確實(或不)構成風險的信息。
但即使是這種信息共享也可能存在風險。如果谷歌的人工智能團隊,在預發布測試期間阻止新模型被用來設計致命的生物武器,那么它是否應該在谷歌之外分享這些信息?這是否會給不良行爲者,帶來關於如何讓一個較少保護的模型來執行相同任務的想法?
承諾 3:公司承諾投資網絡安全和內部威脅防護措施,以保護專有和未發布的模型權重。
這個問題非常簡單,在我採訪過的人工智能內部人士中也沒有爭議。‘模型權重’(Model Weights)是一個技術術語,指的是賦予人工智能模型運行能力的數學指令。如果你是外國政府(或競爭對手公司)的代理人,想要構建自己版本的 ChatGPT 或其他人工智能產品,那么權重就是你想要竊取的東西。人工智能公司嚴格控制這一點符合既得利益。
模型權重泄露的問題已經廣爲人知。
例如,Meta 的原始 LLaMA 語言模型的權重,在模型公开發布幾天後就在 4chan 和其他網站上泄露。考慮到更多泄密的風險,以及其他國家可能有興趣從美國公司竊取這項技術,要求人工智能公司在自身安全方面進行更多投資似乎是理所當然的事情。
承諾 4:兩家公司承諾促進第三方發現,和報告其人工智能系統中的漏洞。
我不太確定這意味什么。每家人工智能公司在發布模型後,都會發現其模型中的漏洞,通常是因爲用戶試圖用模型做壞事,或以公司未預見到的方式規避‘越獄’。
白宮承諾要求公司針對這些漏洞建立‘強大的報告機制’,但尚不清楚這可能意味着什么。
應用內反饋按鈕,類似於允許 Facebook 和 Twitter 用戶舉報違規帖子的按鈕?一個漏洞賞金計劃,就像 OpenAI 今年啓動的獎勵在其系統中發現缺陷的用戶的計劃?還有別的事嗎?我們將不得不等待更多細節。
承諾 5:公司致力於开發強大的技術機制,以確保用戶知道內容何時由人工智能生成,例如水印系統。
這是一個有趣的想法,但留下了很大的解釋空間。
到目前爲止,人工智能公司一直在努力設計工具,讓人們能夠判斷他們是否正在查看人工智能生成的內容。這有很好的技術原因,但當人們可以將人工智能生成的工作,冒充爲自己的工作時,這就是一個真正的問題(問問任何一位高中老師。)
目前許多被宣傳爲能夠檢測人工智能輸出的工具實際上無法以任何程度的准確性做到這一點。
我對這個問題能夠完全解決並不樂觀,但很高興各公司承諾爲此努力。
承諾 6:公司承諾公开報告其人工智能系統的功能、局限性以及適當和不適當使用的領域。
另一個聽起來很明智的承諾,有很大的回旋余地。
公司多久需要報告其系統的功能和限制?這些信息必須有多詳細?考慮到許多構建人工智能系統的公司在事後都對自己系統的功能感到驚訝,那么他們真的能在多大程度上提前描述這些系統呢?
承諾 7:公司承諾優先研究人工智能系統可能帶來的社會風險,包括避免有害的偏見和歧視以及保護隱私。
致力於‘優先考慮研究’是一種模糊的承諾。盡管如此,我相信這一承諾會受到人工智能道德人群中許多人的歡迎,他們希望人工智能公司,將預防偏見和歧視等近期傷害作爲優先事項,而不是擔心世界末日場景,就像人工智能安全人士所做的那樣。
如果您對‘人工智能倫理’和‘人工智能安全’之間的差異感到困惑,請了解人工智能研究界內存在兩個敵對派系,每個派系都認爲對方專注於防止錯誤的傷害。
承諾 8:兩家公司致力於开發和部署先進的人工智能系統,以幫助解決社會面臨的最大挑战。
我認爲沒有多少人會認爲,先進的人工智能不應該被用來幫助解決社會面臨的最大挑战。白宮將‘癌症預防’和‘緩解氣候變化’列爲希望人工智能公司重點關注的兩個領域,我對此不會有異議。
然而,讓這個目標變得有些復雜的是,在人工智能研究中,一开始看起來無聊的事情往往會產生更嚴重的影響。
DeepMind 的 AlphaGo(一種經過訓練可以玩棋盤遊戲圍棋的人工智能系統)所採用的一些技術在預測蛋白質的三維結構方面非常有用,這是一項促進基礎科學研究的重大發現。
總體而言,白宮與人工智能公司的交易似乎更具象徵意義,而不是實質性的。沒有執行機制來確保公司遵守這些承諾,其中許多承諾反映了人工智能公司已經採取的預防措施。
盡管如此,這仍然是合理的第一步。
同意遵守這些規則表明人工智能公司,已經從早期科技公司的失敗中吸取了教訓,這些公司等到遇到麻煩才與政府接觸。在華盛頓,至少在科技監管方面,盡早出現是值得的。
海量資訊、精准解讀,盡在新浪財經APP責任編輯:張靖笛
標題:AI七巨頭在白宮做出8大承諾,他們都承諾了什么?
地址:https://www.utechfun.com/post/242378.html