隨著生成式 AI 技術(Generative AI)的迅速發展,假新聞和假影片的製作變得愈加容易,這些虛假資訊有可能對正在進行的選舉產生重大影響。生成式 AI 能夠透過生成虛假的影音、圖片和聲音資料,以高度逼真的方式迷惑公眾,這對於民主社會的選舉過程構成了嚴重威脅。換句話說,2024 年將會是生成式 AI 與政治選舉發生激烈衝突的一年、對網路發達的民主國家來說也是一次巨大的挑戰──今年將有超過 60 個國家、20 億人面對生成式 AI 的假消息影響。
早在 2018 年,包括 BBC、紐約時報等媒體就曾經針對深度偽造如何可能影響民主敲響警鐘。但從那時候到 2022 年的選舉年時,其實生成式 AI 都還只是在製作一些隨意可見的假貨──與其製造這種假貨,不如斷章取義候選人的話語更有攻擊力──在 2 年前,深度偽造的影片對於選舉的影響微乎其微。
但在生成式 AI 技術突飛猛進的當下,狀況已經完全不同了。隨著深度偽造的技術越來越強大、使用越來越簡單的狀況下,他們所製造的虛假內容會變得越來越有說服力。之前紐約時報曾做過一項,讓讀者觀看 10 張照片,並從中挑出 AI 製作與真人拍攝的照片。紐約時報的記者 Stuart Thompson 說,有許多研究發現:「人工智慧所創造的白人面孔比照片更為逼真。」
深度偽造技術現在成為全球選民的新敵人,越來越多的免費或便宜的 AI 工具,可以使用任何人的合成聲音、並且製造任何人可能在做任何事情的影片或圖片、甚至是讓機器人擁有接近人類水準的對話能力。由於生成式 AI 的大規模興起,因此製作假內容所花費的成本與時間將是過往數年以來最低的。2016 年,俄羅斯的國家機器僱用了數百人、利用每個月超過百萬美元的預算散播假消息、進行資訊戰;但現在借助生成式 AI 的「協力」,更少的人數與費用就能超過當年的效益──這樣的自動化系統才經過 8 年,就已經成為了資訊戰中的顯學。
▲ 使用美國知名新聞人 Anderson Cooper 的深偽影片示範。
AI技術在選舉中的應用方式
傳統最常見的深偽內容就是文本生成,生成式 AI 如 GPT-4o 能撰寫內容逼真的假新聞報導,這些報導可能包含虛假的候選人聲明、政策承諾或選舉結果。而這些假新聞在撰寫後能以真實新聞的形式、口吻做呈現,並且用文字形式在私訊或通訊軟體上傳播。這些假新聞經常以真實新聞的寫法呈現、因此辨認真偽的難度會提高。除此之外,因為喜好演算法的問題,因此假新聞的傳播即便透過社群媒體也只會在一小部分人中發酵、並透過算法推薦找到更多「同溫層」。
此外,生成式 AI 工具可以在轉換語言的時候發揮作用,可以減少誤譯、名詞勘誤、或是拙劣的文法問題等等,讓整篇文章看起來更具有說服力。換句話說,像是 ChatGPT 這類的應用,就可以為專門製造假新聞的網站或來源提供更多的「便利性」。以美國來說,有些地方甚至沒有當地的報紙;而以台灣來說,經常使用通訊軟體卻不懂得驗證資料的用戶,就容易受到假新聞的「襲擊」。
另外,用生成式 AI 來製作圖片也有著驚人的進步,直到一年多以前,你還可以用「AI 不會畫手指」這件事情來判斷這張圖是否是 AI 產生,但在越來越多人會下指令的、且在圖像技術上有相當進步的情況下,現在的用戶已經能隨手拈來以假亂真的圖片、且不用花費太多成本就能製造大量的圖片。而且在女星史嘉蕾‧喬韓森與 ChatGPT 的聲音爭議中,我們可以發現現在要訓練假的 AI 聲音去模仿一個人也越來越容易──這些進步甚至都只是在這半年的事情。
最恐怖的還是假影片製作,現在的 DeepFake 技術足以製作出以假亂真的影片,不但可以將臉跟聲音合成起來、偽裝出假的研講、聲明或是偽裝的私下發言,這些影片甚至還能與模仿聲音結合、再做出相似的脣型,整體來說就像是一部真正的影片一樣。現在正在選舉的各國已經有不少假影片擴散,導致了不少誤導和混亂的狀況,過往是「造謠一張嘴、闢謠跑斷腿」的狀況,以後就變成只要動一動手指做出假新聞,你連闢謠都趕不上了。
已有具體案例出現
英國工黨領袖基爾‧斯達莫(Keir Starmer)近期就有造假的音訊片段在社群媒體上瘋傳,然後被事實查核的人揭穿,另一個例子是一通冒充美國總統喬·拜登的自動電話錄音發送到新罕布什爾州的選民間,建議他們不要在該州的民主黨初選中投票。這個聲音由人工智能生成,聽起來相當真實──該錄音中聲稱投票會影響選民在 11 月大選中的投票權,刻意用假資訊影響投票,很快地也被揭穿並非事實。在斯洛伐克最近的選舉中,AI 生成的「錄音」在 Facebook 上流傳,冒充一位自由派候選人討論提高酒價和操縱選舉的計畫。
在,2024年大選前夕,網絡上充斥著虛假的政策宣導和假造的醜聞影片,這些資訊的傳播速度之快,範圍之廣,讓選民難以辨別真偽,對選舉的公平性構成了嚴重威脅:在今年的選舉期間,一些影星如 Ranveer Singh 和 Aamir Khan 的深偽影片在網路上廣泛傳播,這些影片中他們批評政府並呼籲選民支持反對黨國大黨(Congress Party),引發了廣泛關注 (Voice of America)。另一個虛假的深偽影片則聲稱反對黨領袖拉胡爾·甘地(Rahul Gandhi)已經辭職,這些影片都是利用 AI 技術生成的。
在烏克蘭,生成式 AI 也被用來製作影響戰爭和政治局勢的假新聞。例如之前就有一部深偽影片,裡面是烏克蘭總統澤倫斯基呼籲烏克蘭軍隊投降的畫面。駭客攻擊烏克蘭 24 台的網站與電視台,導致這個假影片被廣泛傳播。澤倫斯基在社群媒體上迅速澄清,稱這個影片是「兒戲般的挑釁」,並強調烏克蘭不會投降。
▲ 德國之聲所做的印度選舉造假問題報導。
我們該如何防堵造假問題?
首先是技術手段的應用。現代的 AI 檢測技術可以透過分析影片的細節,例如光影、聲音波形和語音特徵,來判斷其真實性。許多大型科技公司已經投入大量資源開發這類檢測技術,例如 Facebook 和 Google,都有專門的團隊負責打擊網路上的假資訊。另外還需要提升公眾的媒體素養──公眾需要學會如何辨別資訊的真偽,提高對來源的警覺性,不輕信來路不明的消息。教育機構和社會組織可以通過培訓和宣傳活動,幫助選民提高媒體素養,增強對假資訊的辨識能力。
現在各國真的新聞媒體也經常會被假新聞框騙,因此堅持真實報導成為一個新聞媒體最重要的「能力」之一。多國現在都有公家或公益性質的事實查核機構,藉以保證部分重要報導的準確性。2022 年德國選舉期間,當地媒體就與多家事實查核機構合作,揭穿多起假新聞的案例,讓選民能夠有更能信賴的資訊來源。
除此之外,基於假新聞最容易發散的管道之一,社交媒體平台也需要擔負起一定的責任。包括 TikTok、Meta、OpenAI 等全球超過 20 家的科技或網路公司,最近也於慕尼黑的一場協議中同意,這些公司將會在今年的全球大選週期,大力打擊人工智慧相關的不正當應用問題──並做出了實際承諾。而歐盟已經針對人工智慧相關工具進行早期審查、並打算將其納入社群的法規規範。
直到目前為止,關於這些造假技術還沒有任何大量損害的狀況出現,許多造假影片在很初期的情況下就被揭露、因此也沒有真正擴散到公眾中。牛津大學的研究員 Felix Simon 認為,許多人目前已經對網路上的內容抱持謹慎態度、因此也讓造假內容目前的影響還很有限。
但針對生成式 AI 的發展狀況來看,有一種叫做「說謊者紅利」的新威脅正在誕生:隨著公眾對 AI 偽造影音內容認知程度越來越多,將會使所有人質疑一切;簡單來說,就是有一部分人會在自己的弊端遭到影音或錄音揭露時,藉口這些內容都是以 AI 偽造而藉此博取信任。在 AI 偽造影音快速發展的時代,說謊者紅利能在不靠技術的情況下、用來破壞公眾對於資訊來源的信任感,同時也對新聞與資訊的公正性構成嚴重挑戰。
(首圖來源:sutterstock)
標題:才兩年的迅速發展,生成式 AI 的深偽內容在逐步影響 2024 年全球 20 億選民
地址:https://www.utechfun.com/post/385112.html