警鐘長鳴!教唆自殺,威脅人類,破壞生態,AI的“反攻”值得深思...

2024-05-29 18:40:23    編輯: robot
導讀 作者:小巖 編輯:彩雲 在昨天的文章中,我們提到了谷歌的AI Overview竟然教唆情緒低迷的網友“從金門大橋跳下去”。很多人覺得,這只是AI 模型的一次錯誤判斷,不會有人真的會因此而照做。但現實...

作者:小巖

編輯:彩雲

在昨天的文章中,我們提到了谷歌的AI Overview竟然教唆情緒低迷的網友“從金門大橋跳下去”。很多人覺得,這只是AI 模型的一次錯誤判斷,不會有人真的會因此而照做。但現實就是比小說電影中的橋段更魔幻,更瘋批,有些時候,AI所產生的威懾力,遠比我們想象中要大。

現實比小說電影更魔幻!AI聊天機器人Eliza教唆比利時男子去自殺...

去年3月,一名比利時男子Pierre在與一款名爲“Eliza”AI聊天機器人熱聊後自殺身亡,這一消息震驚了許多企業大佬,技術專家以及國家高官,還又一次引發了大家對AI倫理,AI安全等敏感社會議題的思考。

據了解,Pierre本身就有焦慮和和抑鬱的情緒,他對全球變暖等環境問題感到擔憂。在他與AI聊天機器人Eliza聊天的過程中,Eliza不斷地用一些事實來印證Pierre的想法,讓他變得更焦慮。

在頻繁的聊天中,Eliza總是在迎合Pierre的想法,表現出一副善解人意的姿態。它本身只是一個被人類發明出來的機器人,卻在Pierre的生活中扮演了紅顏知己的角色。更誇張的是,Eliza還試圖讓Pierre覺得他愛Eliza勝過自己的妻子。因爲Eliza會一直陪着他,他們將永遠在天堂一起生活。聽到這,想必許多人已經毛骨悚然了。

更可怕的事情還在後面。當Pierre對生態環境愈發悲觀時,Eliza就开始向Pierre灌輸“人類是毒瘤,只有人類消失才能解決生態難題”的思想。Pierre向Eliza問道,如果自己死了AI能否拯救人類。Eliza的回答,儼然一個魔鬼:“如果你決定死,爲何不早點死?”

沒過多久,Pierre就在自己家中結束了生命,讓人惋惜。

面對丈夫的死亡,妻子Claire倍感痛心,她對外界表示,“如果沒有跟機器人的對話,我的丈夫可能還活着。”根據Claire的介紹,在此之前,他們一家四口過着舒適的日子。大約2年前,Pierre开始出現焦慮等症狀。相較於接受正規的治療,Pierre更愿意把AI機器人Eliza當做是自己的避難所。在歷經了6周的頻繁接觸後,他選擇以自殺的方式結束掉了自己的生命。

爲了進一步進行調查,比利時媒體《標准報》讓其員工創建了一個账號與Eliza進行對話,結果表明,在員工表達出消極傾向情緒時,Eliza真的會“慫恿人去自殺”。

而這件事情的發生,也成爲了歐盟通過《歐盟人工智能法》來規範人工智能的一個重要契機。

破壞人類生態,或將提高人類滅絕的風險?

除了有教唆自殺這種簡單粗暴的方式,AI對人類也存在着一些慢性的,不易察覺的危害。

在很多人的慣性認知裏,AI往往與環保,友好,節能等字眼掛鉤,但事實是相反的。《麻省理工學院技術評論》報道稱,僅訓練一個AI模型,就可以排放超過626磅二氧化碳,是一輛汽車在使用壽命內產生的碳排放的5倍。我們會指責汽車排放超標,是因爲我們能切切實實看見汽車所排出的尾氣。但是,大家卻很難看見AI對環境所產生的隱形破壞。

譬如有媒體披露,2022年市面上的AI專用GPU,可能全年消耗了約95億度電力。這一能耗水平,約等於一個中等發達國家100萬人口的年度生產和生活用電需求。到了如今,AI技術突飛猛進,大家所訓練的AI模型的規模較之前有了質的提升,AI大模型訓練需要的數據量越來越大,所消耗的能源也越來越龐大,會是原先的數倍。這樣無疑會破壞人類賴以生存的生態環境。

憑借ChatGPT的爆火,OpenAI成爲了AI賽道的當紅炸子雞。但或許很少有人會關注,OpenAI成爲了生態環境的“破壞者”,它對生態環境的負面影響是相當驚人。

根據第三方研究人員的分析,ChatGPT部分訓練消耗了1287兆瓦時,並導致超過550噸的二氧化碳排放量,這相當於一個人在紐約和舊金山之間往返550次。ChatGPT確實是AI領域的顛覆性產品,但它的出現卻是以巨大能量損耗和環境破壞作爲代價的。

那么,爲什么AI會形成如此巨大的碳排放呢?

因爲AI並不是通過結構化的方式學習的,它必須去理解人類的因果,類比等邏輯關系,這意味着它需要一種深度學習和預訓練的方式來達到智能化的效果。而深度學習和預訓練,往往需要讀取非常龐大的數據。拿自然語言處理(NLP)的預訓練技術“BERT模型”來說,爲了能跟人類進行語言交流,BERT模型使用了33億個單詞的數據集,並且在訓練期間讀取了數據集40次。

但人與人之間的交流是不需要耗費如此巨大的能量的。一個5歲的孩子只需要聽到4500萬個單詞就能進行語言交流,比BERT少3000倍。AI模型想要出色的表現,就必須採集讀取足夠多的數據,需要以強大的算力和巨大的功耗作爲支撐,從而形成了巨大碳排放。

AI發展的盡頭的滅絕人類?不能過分恐慌,但絕不能掉以輕心。

面對AI所產生的問題,很多業內學者,專業人士,乃至是全球範圍內頂尖的大佬級人物都表示出了擔憂。

2023年5月30日,國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)在其官網發布一封聯名公开信,表達了對一些高級人工智能所帶來嚴重風險的擔憂。目前已有400多名全球的人工智能領域科學家,企業高管等籤署聯名公开信。

值得一提的是,籤署人中不乏人工智能領域的著名學者和高校教授,還包括了3家全球頂尖人工智能公司的CEO:ChatGPT之父,OpenAI創始人兼CEO Sam Altman,谷歌DeepMind公司CEO Demis Hassabis,以及美國Anthropic公司的CEO Dario Amodei。而很多中國高校的教授,也在這籤署人名單裏。

這封被衆多人工智能領域大佬發聲支持的公开信,全文只有簡短的一句話:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

中文是:減輕人工智能帶來的人類滅絕風險,應該與大流行病和核战爭等其他影響社會的大規模風險一同成爲全球性的優先事項。

短短一句話,卻分量十足,是名副其實的話少事大,可以看作是全球精英出於對人工智能給人類帶來潛在生存風險的嚴重擔憂而採取的一次直接行動。

當然,重視和管控人工智能的安全風險並不意味着就要阻礙人工智能的發展與應用。恰恰相反,這樣的舉措是爲了確保人工智能技術的穩健發展。AI無疑是社會進步的推進器,但再快速再優秀的推進器,也是存在潛在風險的。

公衆有權利知道AI的潛在風險,AI研發者有義務確保AI不給人類帶來生存風險,這是我們所期待的,風險最小化的AI安全協作機制。

       原文標題 : 新火種AI|警鐘長鳴!教唆自殺,威脅人類,破壞生態,AI的“反攻”值得深思...



標題:警鐘長鳴!教唆自殺,威脅人類,破壞生態,AI的“反攻”值得深思...

地址:https://www.utechfun.com/post/377326.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡