造個破謠而已,咋還用上AI了?

2023-08-12 18:40:05    編輯: robot
導讀 最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網絡謠言的案例,其中涉及災害、安全事故、刑事案件等多類謠言內容,造謠的方式更是從文案到圖片、視頻不一而足。 看到這樣的消息,總是會加重我們對AI的擔憂...

最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網絡謠言的案例,其中涉及災害、安全事故、刑事案件等多類謠言內容,造謠的方式更是從文案到圖片、視頻不一而足。

看到這樣的消息,總是會加重我們對AI的擔憂,聯想到此前的AI詐騙、deepfake等,AI仿佛是越來越壞了,至少它已經變成了一種可以被不法分子利用的工具。

但也有網友問了,不就是造個謠嗎?這東西去村口轉一圈,聽大爺大媽聊一會,輕輕松松能收集個百八十條的,怎么還得用上AI這種高科技了?這不法分子是太懶了,還是過於缺乏想象力?

這其實是個很重要的問題,我們今天就通過這些已經被公开報道的案例,來聊一聊用AI造謠背後的動機與行爲邏輯。了解了這些之後,才能更有針對性、靈活性地遏制AI造謠。

正所謂恐懼源於未知。AI造謠這事,乍聽起來魔幻且恐怖。但如果我們逐層拆解它、了解它,會發現不過爾爾。

不必恐懼AI。就像火能帶來溫暖也能帶來火災,絕大多數技術都是雙刃劍。重點是誰來使用它,以及如何使用它。

從瞎編,到AI批量化高水准瞎編

在電影《保你平安》裏,魏平安費勁千辛萬苦,最後發現謠言來源不過是爲了幾塊錢在論壇隨便發了一句評論。

很多朋友看完電影覺得這樣的動機有點離譜,但從曝光出來的AI造謠案件中,我們會發現這種卑鄙且低端的行爲還真不在少數,只不過貪圖論壇幣的行爲確實過分奇葩。大部分網絡造謠者的利益動機,還是希望獲取流量來換取平台補貼並變現,這也就導致他們需要在信息流或者短視頻平台發布內容。

要知道,這些平台目前的流量補貼已經很低了,而即使是聳人聽聞的謠言內容,也需要標題、文案、圖片配合好,才能大差不差、以假亂真。結果往往是造謠者瞎編了半天,收益微乎其微。有這個能力和時間,可能還不如去找個文案、編輯類的工作來做。

這可怎么辦呢?於是就產生了造謠者選擇AI的第一個動機:更快、更簡單地編造謠言。

我們能在很多案例裏發現,用AI造謠並沒有什么神祕的,不法分子就是需要AI的簡單高效。根據《北京日報》8月1日報道,在一系列編造某地水災的網絡謠言背後,造謠者僅僅是利用手機瀏覽器自帶的AI文本生成功能,輸入了“暴雨”等相關關鍵詞,就得到了水災相關的新聞稿。

除了根據關鍵詞直接生成通稿,AI文本生成還可以對已有文案進行渲染。造謠者會命令AI,對懸疑、驚悚、情緒對立等內容進行強化和誇大。由此生成看起來更真實細膩,且容易讓人相信的謠言內容。換句話說,很多煞有介事的小作文原本要自己編,現在可以交給AI了。

還有一種用AI造謠的方法,是將原本的新聞進行移花接木。最近甘肅平涼市公布了一起案例,嫌疑人是通過AI軟件來大量篡改此前的新聞內容。比如將新聞的地點、時間、人名進行替換,以此來批量制造謠言內容。這些謠言大部分是某地發生了自然災害、交通事故、刑事案件。由於是批量制造,這些謠言涉及各個地方,加上不同地區的用戶會被算法推薦本地新聞,這些某某地發生水災、火災的謠言很容易產生流量。

歸根結底,AI技術在這些造謠事件中,起到的只是一個加速謠言生產的工具作用。假如沒有AI,這些人大概率也會想到這種編造謠言的方式,只不過需要自己一點點編輯加杜撰。又或許,AI寫稿能力的出現,讓連造謠“辛苦”也不想喫的懶漢們找到了門徑。

我們無需污名化AI。AI加速文案生成,這個能力本身是有價值的,只是好人和壞人看到了它的不同應用方式。

貼合大數據需求的精准造謠

造謠者利用AI技術,僅僅只有一個動機嗎?其實也不盡然。

對於很多造謠者來說,有流量、有話題度就是他們的最終目標。無論是出於病態心理還是利益訴求,能讓人看的謠言才對於造謠者來說具有價值,但想要實現這事,可能還真不那么容易。造什么謠才能讓人想看呢?甚至於什么謠言才能在一大堆競品謠言中脫穎而出呢?以前這可能需要造謠者一個個關鍵詞,一個個謠言類型去嘗試,但現在情況开始改變了,造謠者可能不知道,但是AI知道啊,於是他們可以直接命令AI來做。

這就引出了用AI造謠的第二個動機:利用AI洞察大數據的能力。

用過生成式AI的朋友應該有所體會,如果你向AI提出諸如“文案裏要有網絡梗”“文案要讓年輕人愛看”之類的需求,會發現很多時候AI比我們更懂網絡,更懂流量。甚至還可以讓AI生成“老年人愛看”“能引發中年焦慮”“能挑起性別話題”等內容。

這背後的技術原理,就是大模型具有更好的泛化信息理解能力,可以將沒有直接關聯的信息按照語義結合在一起。顯然,造謠者對技術原理不感興趣,但很快掌握了大模型的應用竅門。

在河南鄭州市通報的一起案例中,嫌疑人就是通過對AI下命令,進行提示的方式獲得謠言內容的。他要求AI生成的內容要能吸引眼球,並且明確說明要讓年輕人看到。在這些提示關鍵詞的要求下,AI生成了很多內容,嫌疑人最終選擇了自己比較滿意的進行發布。

可以看到,這個造謠原理,基本已經跟現在很火的職業“AI提示工程師”非常相近了。AI大模型帶來的底層邏輯變革之一,就是人類可以不用搜索和點擊來進行數字化交互,而是直接向AI提出需求,這一點也先被造謠者學會了。

而讓人啼笑皆非的是,這名嫌疑人提示AI制造的謠言,最終確實引發了關注。只不過在給造謠者帶來二三百元收益的同時,還帶來了法律的制裁。

有圖,沒真相

還有那么一些造謠者,他們想要造謠騙取流量或實現其他目的,但苦於沒有能讓人信服的所謂“證據”。畢竟大多數網友也知道,空口無憑,有圖有真相,而一些謠言很快被拆穿,也是因爲造謠者利用了此前網絡上已經發布過的圖片。比如說前不久的某流量明星火速闢謠事件。

但如果能讓AI做出來看着有點真,此前又沒出現過的圖片,這個難題似乎也就攻克了。於是就有了用AI造謠的第三個動機:通過AIGC平台來生成作爲論據的圖片。

還記得今年年初在土耳其大地震期間,就有人在推特上散布謠言,稱自己是消防員、志愿者等,以此請求捐款。而信息中的配圖就是AIGC平台合成的。由此可見,有圖有真相的時代真的已經過去了。在今天,只要能夠熟練使用AIGC軟件,想要什么圖基本都是可行的,而且很可能以假亂真。

這裏要說的是,AIGC圖片並沒有那么神。其擬真程度甚至比不過大部分PS高手。但問題是,PS並非人人都會,使用AIGC則只需要按教程學一遍就能上手。於是不少遊手好闲者开始用AIGC制造“謠圖”,其中最惡心的一種,就是用AI來造黃謠。

不久前,《光明日報》就報道了一位女士在社交網絡上發現了用自己面容合成的不雅圖片。報道中還稱,相關的AI制圖工具堪稱唾手可得,並且還有人在社交平台上兜售相關視頻、訂制換臉服務、販賣操作教學等。

用AI換臉的Deepfake技術堪稱屢禁不止,而AIGC平台的出現還讓相關問題愈演愈烈。在一些缺乏監管的海外AIGC平台,用戶基本可以在無技術門檻的情況下獲得訂制化的不雅圖片。隨着AI技術的前進,造謠者的工具箱也確實更加豐富了。

如何對抗這股歪風邪氣?

奧爾波特在《謠言心理學》提出,想要限制謠言的傳播,需要做到三件事:法律上嚴懲不貸、社會中進行阻隔、公民具備謠言意識。

其實最近備受關注的AI造謠,本質上與此前的網絡謠言基本沒有不同,唯一的變化就是造謠的門檻更底了,於是必然會有人覺得用AI造謠更加劃算。

歸根結底,大部分的AI造謠都是爲流量和平台分成而來。這種造謠其實原本也有,但如果想要做大做強,可能需要幾個寫手、幾個美工,有網絡運營和大數據分析人員。類似電影《孤注一擲》裏,詐騙集團就按“千門八將”分了八個部門,其中就有專門散播謠言的“謠部”。

但對於絕大多數造謠者來說,目標都僅僅是流量,而不是詐騙、勒索、敲詐這種重大刑事犯罪,他們的賊心和賊膽都不夠,並且也不會寫,不會P圖。

於是對於他們來說,用AI來炮制謠言就顯得更加劃算,尤其在大模型出現之後,一個人就可以是一只謠言隊伍,基本不用分工協作。

想要讓這股AI造謠的歪風邪氣不再猖獗,也需要從這三個方面入手,讓AI造謠變得不再那么具有性價比。

首先當然是嚴懲不貸。從目前曝光的AI造謠案例中來看,大部分造謠者都是產生的影響很壞,但真正的收益很少。持續的犯罪打擊與案例宣傳,會讓更多造謠者與准造謠者看到,AI造謠雖然看似成本低,但其實是非常不具備性價比的一件事。

接下來是建立造謠者在炮制、傳播、獲利等環節中的社會阻隔。很多相關討論,都說可以用AI來檢測AI內容,用魔法打敗魔法。事實上,這樣做當然可以,但技術上的實現空間很窄。比如說,讓AI炮制一條假新聞很容易,但要讓AI對比所有新聞數據,然後確定某條信息是假的,這個技術難度相當大。AI檢測謠言工具,在一段時間內將更多是輔助性質。

想要從技術上建立造謠者與AI工具之間的組個,還是需要從AIGC工具上入手。讓AI模型知道自己在寫什么、生成什么圖片,一旦遇到不合理、不合法的內容主動屏蔽,從而讓造謠者不能那么順利地應用AI。

與此同時,還需要在利益層建立給造謠者建立阻隔。大多數AI造謠案例的獲利方式都是平台分成。那么我們是不是可以考慮唯流量論的分成體現機制是否過於簡單粗暴?且必然給謠言留下了滋生空間?畢竟沒人看狗咬人,都想看人咬狗。降低、甚至切斷這些毫無營養的謠言內容獲利渠道,也是重要的社會阻隔方式。

最後才是用戶必須提高謠言意識。畢竟絕大多數人不是專家,不可能就看到的每條信息都考證二三,因此確實不能將太多分辨謠言的責任推給最終用戶。但至少我們需要知道,確實有AI炮制假新聞,AI僞造圖片這種可能性的存在。

另外還是想說,AI不可怕,用AI造謠也不可怕。心懷不軌之人,會利用一切可資利用的技術與工具。今天有AI,明天就有BI、CI,他們瞧上了AI,恰好說明AI確實已經做到了可利用和低門檻,如果因此就懷疑和污名化AI,豈不就把它白白讓給了到處散德行的小人?

技術沒有好壞,人心才有。

       原文標題 : 造個破謠而已,咋還用上AI了?



標題:造個破謠而已,咋還用上AI了?

地址:https://www.utechfun.com/post/248628.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡