AI時代可能遇到的倫理問題,你做好准備了嗎?

2023-12-05 18:40:11    編輯: robot
導讀 作者:小巖 編輯:彩雲 圖片來源:由無界 AI生成 曾經如日中天的互聯網行業如今身處“寒冬”之中,還在努力尋找自救的方式。但人們的注意力總是有限的,大家早已不再關注互聯網賽道,取而代之的,是芯片制造...

作者:小巖

編輯:彩雲

圖片來源:由無界 AI生成

曾經如日中天的互聯網行業如今身處“寒冬”之中,還在努力尋找自救的方式。但人們的注意力總是有限的,大家早已不再關注互聯網賽道,取而代之的,是芯片制造,人工智能等新興賽道。特別是人工智能,在今年因爲ChatGPT的強勢出圈而成爲了備受矚目的當紅炸子雞。

ChatGPT的出現讓我們意識到,AI技術已經取得了突破性的進展,並且,這種爆炸式的發展節奏還在繼續。在這種情況下,比肩人類智慧的通用人工智能很快就能被培養出來,相關的倫理問題也將應運而生。

AI會對未來的兩性關系產生怎樣的影響?家庭概念會就此消失嗎?”

如果你對通用人工智能的形象沒有概念,可以去參考電影中出現過的形象,諸如《黑客帝國》中的Matrix,《流浪地球》裏的MOSS,《間客》中的“老東西”等,都是通用人工智能的典型形象。

一旦這些形象出現在現實生活中,整個社會都會出現顛覆性的改變,建立一套全新的行爲規範就會成爲十分迫切的事情。譬如如何在法律和道德上定義AI,如何看待人類與AI之間的關系等,都是亟待解決的問題。更重要的是,隨着AI發展的越來越智能,擁有越來越接近人類的思考方式,它很可能對人類的情感方面產生衝擊。一旦觸及到情感,就意味着AI對人類的影響已經到了相當深遠的程度。畢竟,愛與家庭,通常被認爲是傳統社會人文情感的核心領域,是屬於人類獨有的私隱問題。

就在最近,科幻作家韓松提出了一個發人深省的問題:人工智能和元宇宙的出現,是否會對兩性關系產生影響?家庭概念是否會因此而消失?換句話說,AI有可能觸達到人類的情感嗎?甚至與人類組建成家庭?

在今年早些時候,馬斯克表示將推出“貓女機器人”。光看這個名字,我們就知道,馬斯克是想推出針對男性的“完美伴侶”的形象,從而促進男性消費。據說這種機器人擁有貓女的性感外表,可以包攬家務,打理主人的生活。

當然,馬斯克想要做的內容,還是屬於AI設備的範疇,是沒有人格的商品,而不是與人對等的智慧生命。但如果這些商品突破了圖靈極限,產生自我意識,那就很可能變成在智慧上遠遠超越人類的“新物種”,自然會參與到人類的愛情和家庭中去。

日漫和日本輕小說都有過類似的描寫,他們習慣於將其設定爲“機器人女友”,而故事結構大都是“宅男+軟妹機器人女友”的設定。故事橋段大同小異,都是機器人在與人類的相處中逐漸學習,懂得了人類的情感,最後在與男主的羈絆中完成了“成爲人”的進化。

可仔細分析,我們會發現這一類的設定存在明顯的bug。人類去幻想與機器人“相戀”的故事,從本質上說,是典型的人類中心主義敘事,是人類的幻想。超級AI之所以稱之爲超級AI,是因爲它擁有遠超人類的智慧。在默認人類智慧極限不變,或很難快速提升的情況下,人類是無法預判超級AI的行爲的。

AI是否會取代人類?針對這個問題,要早做預防。

人類與AI未來是否有可能產生情感聯動,這個問題我們無法給出肯定的答復。但有一點是一定的:對於AI融入我們生活後可能產生的問題,危機和威脅,我們務必要早做打算。

美國科幻小說黃金時代的代表人物艾薩克·阿西莫夫曾經在20世紀40年代提出了“機器人3定律”。 

什么是“機器人3定律”? 

第一定律是機器人不得傷害人類個體,或者目睹人類個體遭遇危險卻袖手旁觀;第二定律是機器人必須服從人類給予它的命令,除非這一命令與第一定律相矛盾;第三定律是在不違反第一定律和第二定律的前提下,機器人要盡可能地確保自己的生存。

80多年前阿西莫夫提出的“機器人3定律”,大概率是基於自己天馬行空的想象。但如今,AI的表現令人驚訝,早已不再是昔日文學作品裏的幻想了,我們不得不認真的思考起“機器人3定律”的可行性了。

對此,人工智能科幻作品《造神年代》的作者嚴曦發表了自己的見解,他認爲“3定律”本身是具有局限性的,因爲語言本身是不包含三原則的。他表示,“把對機器人的約束標准放到非常抽象的語言層面,這是人類的想法。因爲機器人的語言和邏輯是很底層的,它會通過各種強行的細節解釋去繞過這些定律”。

換句話說,“3定律”對AI的約束性完全不夠強。

也正因此,當我們談到AI倫理,談到對AI的約束時,要約束的並不是AI本身,而是AI的开發者。當AI處於古早時期時,發展的並不完善,我們總是把AI聯想成類人的東西,從人類既定思維去思考AI。彼時的AI無論從形態,語言還是思維方式上,都沒有脫離人的軌道。但今時不同往日,如今的AI十分強大,甚至從底層思維上就與人類大相徑庭,它是無法理解人類的行爲模式的。總有一天,AI也無法理解“人類倫理”。

人工智能的對齊問題(AI Alignment),一直是AI工作者和AI團隊所關注的重要議題之一,也是以OpenAI爲代表的頭部研究所始終關注和試圖攻克的難點。

所謂價值對齊,就是讓人工智能系統的行爲符合人類的目標,偏好或倫理原則。通俗點說,就是讓AI在擁有超自然能力,超人類肉體強度,超人類智慧的同時,還可以順從人類的情感模式。畢竟,一旦一個超級強大的AI系統所追求的目標和人類的真實意圖和價值取向不一致,就有可能帶來災難性的後果。

希望有朝一日,可以給AI加上“緊箍咒”;希望戴上“緊箍咒”的AI,可以真正的造福人類。

 

       原文標題 : 新火種AI | AI時代可能遇到的倫理問題,你做好准備了嗎?



標題:AI時代可能遇到的倫理問題,你做好准備了嗎?

地址:https://www.utechfun.com/post/299980.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡