文章轉載來源:AI之勢
文章來源:數據猿
圖片來源:由無界 AI生成在OpenAI內部,一場關於金錢和權力的風暴正悄然酝釀。本文將深入挖掘這場薪酬風波背後隱藏的權力遊戲,揭示公司高層之間的激烈鬥爭和員工團隊的立場。在這個故事中,金錢和利益的角力場不僅僅是數字遊戲,更是一場關於未來科技道德與商業價值的較量。
OpenAI 600萬天價薪酬
近日,一份薪酬表格的曝光,再次引發了公衆對於科技公司薪酬的關注與熱議。在這張薪酬表格之中,OpenAI以高達600萬元的年薪位居榜首,令人矚目。這一數字相較於其他大型科技公司而言,顯得異常的醒目。
頂級公司的AI工程師到底能賺多少錢?
數據來源:Rora Research(薪酬談判公司)從以上表格之中我們可以得知,OpenAI慷慨的提供給員工的年薪高達86.5萬美元,其中底薪爲66.5萬美元,年薪增幅更是高達30%。
從之前一份由美國科技公司數據收集網站發布的報告中,揭示了OpenAI的薪資表現。OpenAI的軟件工程師中位數年薪達到92.5萬美元(約人民幣673.4萬元)。這一數值對應的是OpenAI五級軟件工程師的工資水平,其中包括,30萬美元的基本薪資和62.5萬美元的股票補償,而這一類五級軟件工程師通常都有着大約10年的工作經驗積累。
報告中提及,最低工資標准是針對那些擁有2-4年工作經驗的工程師,其年薪爲21萬美元,其中不包括股票補償。據了解,OpenAI的一些高級軟件工程師每年的收入可達到140萬美元,這凸顯了其對於高級人才的優厚回報政策。
從表格中可以對比看出,Google Brain最終年薪:69.5萬美元、Google Research最終年薪爲54.9萬美元;微軟的初始年薪爲27.0萬美元,最終年薪爲44.9萬美元,談判漲幅達到66%;而蘋果的初始年薪爲33.7萬美元、最終年薪爲45.0萬美元,談判漲幅爲33%。
總體來說,OpenAI的最終年薪要比Google Brain、Microsoft Research和Apple的高不少。蘋果在薪資介於Google和Microsoft之間,處於中等水平。
OpenAI與谷歌、微軟和蘋果等公司相比較,在薪資上處於遙遙領先的地位,這也反映出了OpenAI對於行業內頂尖人才的渴望,有助於確保其能夠吸引並留住高端人才。
員工爲什么站隊Altman,這份薪酬報告給出了答案
回想前段時間OpenAI的宮鬥大戲,其員工明顯站隊CEO Altman,從薪酬就能看出原因。OpenAI开出天價薪酬,難怪其員工不舍得其離开,並做出了籤署聯名信來威脅董事會一事。
相信很多人還記得之前喫到的驚天大“瓜”,那場“內鬥”大戲可謂是讓人大开眼界。
在被OpenAI董事會“踢出”公司之後,前OpenAI的領導者Sam Altman再一次踏足公司時,身份上面發生的改變令其不禁發出感慨“這是我第一次,也是最後一次佩戴訪客牌”。
就在外界普遍認爲Altman離开OpenAI一事已然成爲定局之時,此事又迎來驚天大反轉,超過500名的OpenAI工作員工集體籤署了一封聯名信,這封信宣稱,除非公司董事會集體辭職,並重新委任 Altman成爲首席執行官,否則這些工作員工將可能會選擇離職,並且投身到 Altman在微軟的團隊之中工作。按照OpenAI總計員工人數約有770人員工,這封籤署聯名信的員工佔據了其公司總人數的六成以上。
也有消息透露,OpenAI的投資人也向其董事會進行施壓,呼籲重新聘任 Altman出任OpenAI的CEO,其中包括最大的股東微軟、風投機構興盛資本等,希望促使 Altman“官復原職”。
投資人以及員工們到底爲何對 Altman如此推崇,以至於員工甚至愿意犧牲自己的工作,來推動Altman重新回到OpenAI?這是個令人深思的問題。
回顧OpenAI的發展歷程,作爲初創團隊成員之一的Altman,可以算得上是公司的元老級成員,也爲其做出了重要的貢獻。然而,對於Altman被OpenAI“踢掉”的事情,OpenAI方面表示,在Altman離職之前,經過了認真的審查,董事會得出的結論是, Altman在與董事會溝通之中表現得不夠坦誠,這阻礙了其履行職責的能力。因此,董事會失去了對他繼續領導OpenAI的信心。
但還有猜測或是與Altman在安全上面的冒進和過度商業化,引發董事會其他成員(包括聯合創始人lllya)的不滿有所關系。
但是聯合此次OpenAI薪酬暴露一事,就可以看出,Altman力推OpenAI的商業化,這導致OpenAI營收和估值都很高,這也是OpenAI員工能夠拿到高薪的基礎。
從這個角度來看,目前Altman的路线,是比較符合OpenAI員工利益的,這或是其受到了員工擁戴的最主要原因。
天價薪資的B面
OpenAI憲章,明文規定“我們首要的受托責任是對人類負責。我們預見需要整合大量資源來實現我們的使命,但是我們將保持勤勉行動使僱員與利益相關方之間的利益衝突最小化,這種衝突會損害廣泛利益。”
從這個規定可以看出,OpenAI憲章規定,人類的信托責任,要高於員工和投資人等利益相關方,並且他們在設立之初就預見到了將來僱員(員工)、投資人等利益相關方,將與其對人類的信托責任產生衝突。從OpenAI前段時間的“宮鬥”劇中,可以分爲兩派:
首席科學家lllya爲代表,他們更關注人工智能的安全性,避免失控AI對人類的威脅。爲了達到這個目標,其寧愿OpenAI放慢研發步伐,在找到安全解決辦法之前,不貿然推進更高級AI的研發;
首席執行官Altman爲代表,他們更關注OpenAI的商業化能力,只有更好的商業化,才能有更多的資金,公司估值也才更高。
OpenAI的員工,當然希望公司能掙更多錢,公司估值也越高越好,因爲他們的薪酬結構中,有很大一部分是股票。爲此,他們甚至希望公司能早點上市,早點實現財務自由。與這個相比,人工智能對於人類的風險,就要先放一邊了。
所以,這個時候,OpenAI的員工以及投資人的利益,明顯與全人類的利益產生衝突了。如果完全以OpenAI當初制定的憲章爲准,那人類的信托責任是要高於員工和投資人的,應該以人類的利益爲重。
然而,從OpenAI那場宮鬥大戲的最終結果來看,當員工利益與人類信托責任產生衝突的時候,OpenAI還是選擇了員工、投資人等利益相關方的利益。因爲這個時候做選擇的就是這些利益相關方,他們不太可能爲了人類大義,來損害自己的利益。
其實,我們把視角放大一點,會發現一個更嚴重的問題——在AGI這場競賽中,部分利益群體與整個人類利益很可能是衝突的,很可能某些群體以損害全人類利益爲代價,來滿足一己私利。
在AGI這條道路上的軍備競賽,各個科技巨頭都鉚足了勁要訓練更復雜、更強大的神經網絡模型,不想競爭對手超過自己。但從全人類的角度來看,這些公司的軍備競賽,跟當初核武器的軍備競賽何其相似。
只是當初核武軍備,是國家之間的競爭,而現在AGI的軍備競賽,是谷歌、微軟、亞馬遜、Meta、OpenAI,以及國內的百度、阿裏巴巴、華爲、騰訊、京東、科大訊飛、智譜AI等科技公司的競爭。
這些公司爲了自己的市值,公司裏的員工爲了自己能有更好的收入,會爭先恐後的訓練更強大的AI模型。至於安全措施,尤其是避免AGI失控的措施,實際上已經被放在一邊了。換句話說,人類的信托責任被放在一邊了。
OpenAI最开始是比較理想主義的,他們甚至專門制定了一個《憲章》,明確提出以人類的信托責任爲第一要義。但到後來,那群人還是爲了自己的利益,違背了當初的信念和承諾,變得越來越商業化,越來越追逐利益。
要知道,OpenAI最开始可是由一個理念匯聚起來的一群人,既然他們都無法做到“舍己爲全人類”,還能指望其他公司能做到么?
而且,在AGI這個領域,跟當初的核武器競賽類似,喫虧的都是“老實人”。你不做自然有其他人做,並且別人做了,你就喫虧了。某種程度上,人類陷入了一種“囚徒困境”。
爲什么這么說?
將AGI競賽與囚徒困境進行類比分析時,我們可以發現幾個核心相似之處:
1、互相不信任的參與者:在囚徒困境中,兩名嫌疑人因爲彼此不信任,傾向於做出對自己有利但對雙方都不理想的選擇。同樣,在AGI競賽中,各個參與者也可能由於不信任其他參與者會克制自己,而選擇加速开發AGI,即使這可能導致安全風險增加。
2、最優選擇帶來集體不利結果:在囚徒困境中,雖然合作是最佳的集體結果,但個體選擇自保導致了雙方都受損。在AGI領域,如果所有參與者都選擇迅速發展AGI而忽略安全考慮,這可能導致不可控的風險,對整個人類社會不利。
3、競爭與合作的衝突:與囚徒困境中的合作與自利選擇相似,AGI的競賽也面臨着短期內的競爭與長期合作的抉擇。選擇競爭可能帶來短期優勢,但風險是集體安全和利益的損失。
因此,AGI的競賽可以被看作是一種囚徒困境,它揭示了在缺乏足夠信任和合作的情況下,如何平衡個體利益與集體最佳利益的復雜性。
作爲地球上幾十億人,絕大部分都只能是這場AGI競賽的看客。但是,如果有什么不利的後果,卻要我們所有人來一起承擔。
海量資訊、精准解讀,盡在新浪財經APP責任編輯:張靖笛
標題:獨家解密OpenAI內幕:員工與CEO之間的神祕金錢遊戲!
地址:https://www.utechfun.com/post/305699.html