“現實不存在了”?據新京報貝殼財經報道,北京時間2月16日凌晨,OpenAI發布了第一個文生視頻大模型Sora,隨即引發熱議。
Sora可以根據用戶輸入的提示詞,生成長達一分鐘的高清視頻。雖然還沒有公开使用,但在OpenAI官方分享的演示視頻中,Sora可以直接輸出有多個角色、多種場景和運鏡的畫面。
Sora的強大衝擊,主要來自於兩個方面。一是,Sora視頻太逼真,“現實,不存在了”;二是,Sora視頻水平很高,搞影視的要失業,短視頻“徹底端掉行業飯碗”。
據OpenAI發布信息,Sora主要功能包括:根據文字提示生成視頻;靜態圖片生成視頻;對視頻進行填充和擴充等。
顯然,上述功能均並非Sora首創,很多其他工具可以不同程度實現。不過,其生成效果並不能令人滿意,並且很容易出現錯誤。而此次,Sora則將生成視頻的質量提升了一大步。
Sora可以生成長達1分鐘的視頻,大大超越此前類似工具。不僅如此,Sora視頻還可以一鏡到底,多角度鏡頭切換,並且對象始終不變。Sora視頻,更可以運用景物、表情和色彩等鏡頭語言,表達出如孤獨、繁華、呆萌等情感色彩。
總之,Sora的AI視頻效果,幾乎和人工拍攝不相上下。也因此,雖不是從0到1的原始創新,卻已足夠令人震驚。
比如,當前的短視頻時代,Sora既然可與人工媲美,制造短視頻的專門團隊可能就面臨下崗危險。要知道,短視頻的攝影、導演、剪輯等任務,Sora“一個人”費點電就全包了,想不刷屏都不行。
未來,各種不同用途的Sora短視頻,或許會很快充斥各種視頻社交平台,其對現實的影響與改變,不可不謂之巨大。
OpenAI也在其發布中宣稱,Sora將成爲實現通用人工智能(AGI)的重要裏程碑。
但是,不管Sora是否“理解”世界,也不管Sora視頻多么逼真,始終仍是數字模擬,而不是真實拍攝的現實。
常言道,眼見爲實,耳聽爲虛。但在AI短視頻建構的世界中,顯然不能將眼睛看到的東西作爲判斷依據了。
Sora的應用,無疑將進一步加劇當代社會的後真相狀況,真實與虛擬的邊界進一步模糊,甚至完全被消解。這需要我們高度警惕。
▲在OpenAI發布的AI視頻中,人物臉部特寫也非常精細真實。圖/網絡視頻截圖什么是後真相呢?簡單地說,各種信息與通信技術和人工智能工具的使用,使得人們身處真假難辨的環境之中,久而久之越來越忽視所謂客觀事實,思考問題、處理問題、評價問題越來越訴諸個人的情緒、情感、信仰和成見。
在網絡上,後真相狀況表現得尤其明顯。僱傭來的網絡水軍在網絡肆虐,各種謠言、陰謀論層出不窮。更多的是無根據的、隨口一說的灌水,到處是情緒化的站隊、开懟、开罵,完全沒有耐心也不想搞清楚真相是什么,“幹就完了”。於是,網絡消息不斷反轉,且劇情離譜。Sora的出現,可能進一步加劇這一狀況。
當然,指出Sora可能導致的社會風險,並不是要一棒子將之打死。對於新科技的發展,社會要有足夠的包容性。但是,在大規模將之推向社會之前,應當充分預估其風險和挑战,提前做好應對的准備。
就後真相問題而言,首先每個人都要意識到身處虛實交織的時代。對接收到的所有信息,養成質疑、反思和批判的本能,切不可聽風就是雨。並且,如果有需要,要對信息源進行仔細查證、比對和分析,提高甄別信息真假的能力。
對於相關企業和行業而言,必須不斷提倡行業自律自查自糾,盡到內容提供者的審查義務。而政府應該根據相關管理要求,細化規制辦法,如顯著標識爲AIGC(生成式人工智能)內容,或將之一律歸爲娛樂或廣告,不得與事實和新聞相混淆。
至於Sora的出現,可能導致大量的影視等相關行業從業者失業,更是不可忽視的重大社會風險。
其實,關於AI大規模應用可能引發的失業問題,已經有汗牛充棟的深入研究,也提出了很多應對方案,包括延緩AI技術的應用速度,幫助再就業,徵收AI稅等。現在,Sora一夜刷屏提醒我們,要將這些措施穩步細化實施,而不能再僅僅停留在“刷屏”上了。
撰稿 / 劉永謀(中國人民大學吳玉章講席教授、國家發展與战略研究院研究員)
責任編輯:張迪
標題:OpenAI視頻生成刷屏,對現實影響有多大?
地址:https://www.utechfun.com/post/333061.html