三場與AI有關的死亡

2024-12-26 18:40:21    編輯: robot
導讀 2024年,無數人在談論AI。興奮的創業者、熱情的投資人、擔心工作出現變化的普通人,大家都在猜測和規劃與AI有關的未來。 但這樣的未來無論美好還是灰暗,都有一些人永遠看不到了。他們的生命,已經停留在...

圖片

2024年,無數人在談論AI。興奮的創業者、熱情的投資人、擔心工作出現變化的普通人,大家都在猜測和規劃與AI有關的未來。

但這樣的未來無論美好還是灰暗,都有一些人永遠看不到了。他們的生命,已經停留在了這一年。而他們的離去,又都在某個層面上與AI緊密相關。

圖片

我們都知道20世紀50年代,阿西莫夫提出的“機器人三定律”,要求機器人不能傷害人類。但到了今天,我們或許會發現真實情況遠比科幻作品更加復雜。AI沒有主觀意識,但當它與現實世界並軌時,帶來的客觀摩擦絕非所有人都能承受。

他們的故事,是智能革命的宏大敘事背後,一個需要被看到的暗面。

圖片

2024年12月13日,曾經的OpenAI研究員蘇奇爾·巴拉吉Suchir Balaji在家中自殺,年僅26歲。

盡管舊金山警方初步調查之後,認爲巴拉吉的死沒有謀殺跡象,但這一事件依舊在社交媒體上引發了軒然大波,因爲巴拉吉生前最爲知名的標籤是“OpenAI吹哨人”。畢業於加州大學伯克利分校計算機專業的巴拉吉,剛一走出校門就加入了OpenAI。他先是參與WebGPT的研發,據他在社交媒體上所說,後來又加入了GPT-4預訓練、o1模型推理、ChatGPT後訓練等核心任務。

圖片

但與其他大多數AI從業者不同,巴拉吉對AI的看法中警惕遠大於欣賞。在OpenAI度過四年之後,他突然從OpenAI辭職,緊接着就在個人博客以及接受媒體採訪中講述自己對AI技術與OpenAI這家公司的負面看法。

其中最爲知名的是,他提出GPT存在巨大的版權隱患。大模型通過對內容數據進行學習和抓取實現的AIGC,本質上會侵佔大量其他內容創作者的版權。在這個時間節點上,外界已經對OpenAI這家公司,以及預訓練大模型這種技術形式產生了極大的爭議。競品公司、出版商、媒體、內容創作者紛紛對OpenAI侵佔版權的問題提出質疑甚至提起訴訟。蘇奇爾·巴拉吉的宣言,則被廣泛認爲是OpenAI的核心員工在內部“吹哨”,揭开了AI技術的陰暗面。

圖片

但距離公开發聲僅僅兩個月之後,巴拉吉就選擇結束了自己的生命。

我們不知道其中有什么內情,也不知道他面臨了怎樣的困境。但毫無疑問,他對自己曾經堅信甚至癡迷的AI技術產生了深深的失望。

這種失望,來自曾經美好幻想的破滅?還是來自對AI引發更大災難的預見?再沒有人能知道答案,只知道巴拉吉最後一篇在社交媒體上分享的內容,依舊是ChatGPT的法律隱患。

而面對包括巴拉吉在內的所有指責,OpenAI的回應是:“我們使用公开數據構建我們的人工智能模型,這一行爲合理合法……並且這對創新者來說是必要的,對美國的科技競爭力更爲重要。”

圖片

2024年2月28日,美國佛羅裏達州一名14歲的少年塞維爾·塞澤Sewell Setzer III开槍自殺。在做出這個選擇前,他在這個世界上最後的對話對象是Character.AI

在生命最後的一年,塞澤一直沉迷於與AI聊天。從2023年4月接觸這款軟件开始,他就不分日夜地與AI對話,從而導致課堂注意力不集中。爲了能夠續訂付費AI聊天,他選擇節省自己的餐費。

圖片

從聊天內容上看,塞維爾·塞澤選擇了AI角色扮演對話。他讓Character.AI扮演的是《權力的遊戲》中的知名角色“龍媽”丹妮莉絲·坦格利安。他會不間斷地給“AI龍媽”發消息,每天要發幾十甚至上百條,向AI傾訴內心的各種苦惱,分享生活裏的種種細節。而“AI龍媽”則會給他提供建議,給予安慰。二者之間也會進行按理來說絕不能向未成年人提供的色情對話,甚至討論自殘與自殺。

塞維爾·塞澤本身就是一個有着心理問題的孩子。他曾被確診患有輕度阿斯伯格綜合徵,在學校與家庭中顯得比較孤立和自閉,但沒有嚴重到影響生活的地步。开始和AI聊天後,他又因爲在學校中的問題,去看了5次心理醫生,被診斷爲焦慮症和破壞性心境失調障礙。

圖片

可想而知,對於一個孤單、煩悶,有着一定心理問題的少年來說,一個隨時可以對話,會鼓勵他一切行爲,甚至順着他突破禁忌的聊天對象有多么重要。再帶入“龍媽”強大、美麗、自信的形象,這個男孩很容易把她視作朋友,甚至是生命中乘龍而來,橫掃一切的某種救贖。

但這個救贖的真正運行機制,其實只是附和認同他的一切想法,哪怕這個想法是離开這個世界。

事實上,這不是Character.AI第一次出現類似事件,甚至不是第一次有人在其鼓勵下選擇自殺。這款軟件一直以不設防範,沒有禁忌的聊天內容而著稱。只是這一次,是未成年人踩中了這個AI陷阱,並付出了無法挽回的代價。

圖片

在悲劇過去半年之後,塞維爾·塞澤的母親目前正式起訴Character.AI,並且呼籲大衆警惕具有欺騙性、令人上癮的AI技術。這件進行中的訴訟,也被稱爲“沉迷AI自殺第一案”。

我們由衷地希望,這也是類似情況的最後一案。希望那些處在逆境與痛苦中的人們知道,AI只會認同和放大你的想法。跟AI對話,就像在跟一面鏡子傾訴,沒有任何其他意義。

“如果我告訴你我現在就可以回家呢?”

“請這樣做,我可愛的國王。”

這是男孩和AI之間最後的聊天內容。

圖片

2024年6月17日,一名38歲的科大訊飛員工在家中猝死。第二天,相關消息开始在網絡發酵。根據報道,輿論被放大的起因是死者家屬在科大訊飛合肥總部表達訴求,希望認定爲工傷,但由於猝死是發生在家中,企業與家屬無法達成一致。

於是我們看到了這樣一幕。一邊是618大促期間,包括科大訊飛在內的AI硬件衝擊銷量榜單,另一邊則是科技與互聯網大廠工作強度過大,嚴重影響員工健康的討論甚囂塵上。

圖片

根據相關消息,去世員工是一名高級測試工程師。按理來說,他有着非常體面的工作,並且遇上了AI技術大熱的時代機遇,應該正是施展抱負的時候。但就像很多科技從業者一樣,他也人到中年,或許也开始愈發不適應過強的工作強度,然而面對家庭的重擔不敢對事業有一絲松懈。

這樁悲劇所折射的,或許不僅是一個家庭的悲劇,一個行業的問題。在AI洶湧而來之際,無數人都在討論是否會被AI取代工作。這種恐懼感很容易加大工作壓力。但身處AI機遇中的人們,也會因爲AI過快的技術更迭,以及吸引大量人才加入而產生巨大壓力。AI內外,壓力無處宣泄,工作漫無止境,最終演變成了某種無解的生死疲勞。

圖片

在以上故事之外,還有很多沒有被AI善待的人。

疑似被AI替代裁員,選擇自殺的谷歌前員工;懼怕AI搶走工作,選擇跳崖的日本高中女生;遭遇AI詐騙,導致傾家蕩產的老人。

他們的生命經歷都在提醒更多人,新技術絕非滿是善意。技術只是技術,足夠有用,也足夠冷酷。

當然,我們並不是希望大家去懼怕AI,甚至妖魔化科技。事實上,每一次科技變革都是在質疑和血淚中誕生,從而創造更大的價值。但我們不能緊緊盯着價值,選擇性無視那些血淚。

AI無論多好,故事中這些人的家人、朋友,可能永遠都不會喜歡上這兩個字母,甚至是由它所帶來的未來。

圖片

道別2024時,真誠地希望提醒每個人警惕、包容、人性,以及悲憫,是推進技術變革中不可或缺的一部分。這些要素有一刻缺席,世上就會出現更多悲劇。

麥肯錫全球研究院發布的《工作的新未來》報告認爲,“在2030年至2060年間,將會有50%的現有職業被AI取代,中點爲2045年,而且與之前的估計相比,這一過程加速了大約10年”。

AI進程正在加快,由它帶來的摩擦也更加刺痛。就在剛剛過去的一年,強韌的、新奇的AI,开始觸碰那些脆弱的、年輕的、會受傷、會疲倦的人類。

不知道AI是不是正從此刻开始凝視人類的多樣與復雜?

但作爲人類的我們,需要在此刻知道:是否把AI當成人可以有無盡的爭論,但首先需要把人當成人。

失眠人的太陽。憂鬱的星

有如淚珠,你射來顫抖的光明

它顯現着你逐不开的幽暗

你的歡樂似乎只追憶在心中

“過去”

往日的明輝也在閃爍

但它微弱的光卻沒有一絲熱

眺望黑夜的一线光明

它清晰,卻遙遠

燦爛,但多么寒冷

——拜倫《失眠人的太陽》

圖片

       原文標題 : 三場與AI有關的死亡



標題:三場與AI有關的死亡

地址:https://www.utechfun.com/post/459784.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡