AI滅絕人類前,OpenAI已經被罵慘了

2024-06-12 18:40:36    編輯: robot
導讀 作者|孫鵬越 編輯|大   風 OpenAI的瓜還在繼續,甚至已經上升到人類存亡的歷史高度。 就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現任員工,1名谷歌De...

作者|孫鵬越

編輯|大   風

OpenAI的瓜還在繼續,甚至已經上升到人類存亡的歷史高度。

就在上周,頭部AI公司OpenAI和谷歌的13位員工(7名OpenAI前員工和4名現任員工,1名谷歌DeepMind現任員工和1名前員工),公开發表了一封名爲《對先進人工智能發出警告的權利》的聯名信。

在信中,他們用一種極爲驚悚的語調表示:“人工智能可能帶來的人類滅絕風”。

大權獨攬的山姆·奧特曼

目前,這封公开信已經引發AI世界的大地震。

甚至還獲得了兩位2018年圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、喬弗裏·辛頓(Geoffrey Hinton)的署名支持。

OpenAI和谷歌的員工們在信中曝光出一個非常驚悚的言論:

“AI公司掌握了他們正在研究的人工智能技術的真正風險所在,但由於他們不需要向政府披露太多信息,因此他們系統的真正能力仍是一個‘祕密’。如果沒有適當的監管,人工智能系統可以強大到足以造成嚴重危害,甚至‘滅絕人類’。”

據信中所說,當前AI公司已經了解到安全性的嚴重程度,但是在高層內部正在產生分歧甚至分裂,大多數高層認爲利潤至上,小部分高層認爲安全性更爲重要。

不得不說,這封公开信戳中了OpenAI的內部問題,甚至隱晦指出去年爆發的“OpenAI政變危機”,以及首席科學家伊利亞·蘇斯克沃(Ilya Sutskever)的下台。

去年11月,OpenAI爆發政變,首席科學家伊利亞·蘇斯克沃聯合董事會,將CEO山姆·奧特曼和總裁格雷格·布羅克曼开除。

這場宮鬥鬧劇吸引了全世界的目光,最終導致背後金主微軟的下場,伊利亞·蘇斯克沃政變失敗,山姆·奧特曼官復原職。

據悉,雙方最大的矛盾點,就在於AI安全性。

伊利亞·蘇斯克沃

山姆·奧特曼加速OpenAI商業化,在不確定安全性是否會帶來嚴重後果的前提下,依然成立GPT應用商店,允許私人創建GPT機器人,开放“灰色機器人”入駐ChatGPT。

在OpenAI主要負責AI監督工作的伊利亞·蘇斯克沃,堅持AI安全才是OpenAI的核心,而非商業化,對山姆·奧特曼大刀闊斧的加速商業化進程非常不滿。

在2023年爆發過多次高層會議爭鬥之後,最終實施政變。

在政變失敗後,山姆·奧特曼徹底將OpenAI變成“一言堂”解除多位政見不合的董事職位,將伊利亞·蘇斯克沃雪藏半年後开除。

共同創建OpenAI的10年老搭檔黯然出局,但山姆·奧特曼依然沒有收手,甚至將安全部門視爲“亂黨黨羽”,也要一一肅清。

伊利亞·蘇斯克沃負責的超級對齊團隊,原本是爲能夠智勝和壓倒創造者的超級智能人工智能的出現做准備,在伊利亞·蘇斯克沃離开後,團隊直接解散,幾名相關研究人員離職。

制約OpenAI風險控制團隊解散,負責AI安全的“最後一把鎖”被山姆·奧特曼砸碎,只能說在他眼裏,AI安全並沒有利益和金錢重要。

全球400多位大佬聯名警告

排除異見,讓關於“安全性”的祕密保留在公司內部。

這個做法並不能滿足山姆·奧特曼,作爲猶太裔的他,多疑是種天性。於是山姆·奧特曼強制性要求員工離職後一周內籤署一份極其嚴格的“離職協議”:

前OpenAI員工必須遵守的“保密條款”和“不貶低條款”,禁止任何時間、任何場合批評OpenAI,而且即使承認保密協議的存在也是違反該協議的行爲;

如果離職員工拒絕籤署,或者違反協議規定,他們可能會失去既得股權,價值數百萬美元。

同時,這份“離職協議”的期限是:終生,直至死亡。

不得不說,作爲硅谷最有權勢的CEO,山姆奧特曼下手真狠。如果把這份“警惕員工”的保密精神,用在AI安全上,可能就不會有所謂的人類AI危機了。

最爲“癲”的事情來了,山姆·奧特曼一邊被外界指責忽視AI安全,一邊又在國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)聯名發布公开信,表達了對一些高級人工智能所帶來嚴重風險的擔憂。

是的,不止你會寫信,我也會。

從規模上看,“人工智能安全中心”的聯名信目前已有400多名全球的人工智能領域科學家、企業高管等籤署,影響力更爲深遠。

全文只有簡短的一句話:Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

(減輕人工智能帶來的人類滅絕風險,應該與大流行病和核战爭等其他影響社會的大規模風險一同成爲全球性的優先事項。)

狠話雖然放出去了,但沒人執行。

在目前的頭部AI公司中,普遍對AI安全性並不關注。OpenAI背後的金主微軟,早在2023年3月就裁撤了整個人工智能部門內道德與社會團隊。

在互聯網巨企眼中,市場份額遠遠比“虛無縹緲”的安全性更爲關鍵。

AI會不會變成“智械危機”?

將AI視爲“大流行病、核战爭”同等致命危險,並不是危言聳聽。

在人工智能 (AI) 技術的飛速發展下,機器人逐漸成爲我們日常生活和工作中的重要組成部分。以目前AI的發展情況來說,人工智能對人類造成生存風險,至少有兩種可能。

第一種:短期內的AI危機,就是在AI智能程度還不夠完善,人類會利用AI來顛覆社會安全。例如,等到AI大模型集體开源的時候,一些不法之徒利用不加限制的开源代碼,採購一些英偉達GPU、再向微軟租個雲服務器,大批量制造出“灰色機器人”。

這些不加節制、又難以溯源的AI,對人類社會的破壞堪比一枚“電子核彈”。

第二種:遠期的AI危機,則更接近電影、遊戲中的“智械危機”。

當AI來到超級智能的時代,由於智力水平可能遠超過人類,超級智能看待人類如同人類看待螞蟻,很多人據此認爲超級智能將與人類爭奪資源,甚至危及到人類的生存。

來源:網絡面對可能對人類社會造成影響的AI危機,谷歌旗下DeepMind公司,在今年初就起草了“機器人憲法”,以確保AI機器人不會傷害人類。

以艾薩克?阿西莫夫的“機器人三大定律”爲前提,“機器人憲法”明確要求AI機器人在家庭、辦公室、工廠等環境場景中,機器人的行爲將受到嚴格的限制,以確保它們在執行任務時不會對人類、動物、尖銳物體甚至電器造成傷害。

此外,該憲法還強調了機器人的自主性和創造性,使得它們能夠在人類無法勝任的環境中執行任務。

或許,機器人憲法給AI時代开了個好頭,但面臨日益嚴峻的AI安全性問題上,普通人需要得到的保護還不夠多。

最起碼,先讓那些互聯網巨企們知道,AI並不簡簡單單是筆賺錢的生意,還有可能成爲一枚電子核彈。

       原文標題 : AI滅絕人類前,OpenAI已經被罵慘了



標題:AI滅絕人類前,OpenAI已經被罵慘了

地址:https://www.utechfun.com/post/383449.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡