文章轉載來源:AIcore
文章來源:新智元
圖片來源:由無界AI生成香港一家跨國公司員工,被騙子邀請進了用deep fake做的‘高管視頻會議’中,下令讓他轉了2億港幣到不知名中账戶,5天之後才發現被騙了。
這幾天,古老的AI應用——‘AI換臉’多次破圈,屢屢登上熱搜。
先是網上充斥的大量泰勒斯威夫特的‘AI豔照’,逼得X(原推特)只能直接屏蔽了所有有關‘Tylor Swift’的搜索。
而今天香港警方向社會公布了一起更離譜的詐騙案件:
一家英國跨國企業的香港分公司,被騙子用僞造的‘AI換臉’和AI音頻合成的視頻內容,冒充總公司的CFO,直接騙走了2億港幣!
最高級的騙局,往往只需要最樸素的AI技術
據稱,這位香港分公司的員工收到了一封英國總部CFO的郵件,稱總部正在計劃一個‘祕密交易’,需要將公司資金轉到幾個香港本地的账戶中待用。
而這個員工一开始並沒有相信這封郵件的內容,認爲是釣魚詐騙郵件。但是騙子不斷給他發郵件討論這個祕密交易的必要性,最終,給他撥打一個視頻電話。
在電話中,這位員工看到了公司的CFO和其他他認識的‘幾位同事’,大家都在一起开會。騙子還在視頻會議中要求這位員工進行自我介紹。
然後視頻會議中的‘英國領導’要求他趕快進行轉账,之後就突然中斷了視頻。而信以爲真的員工就分15次向5個香港本地的账戶陸續匯款了2億港幣的資金。
而在整個事件持續5天之後,他才回過味來,向英國公司求證,最終發現被騙了。
香港警方在通報中稱,以往的‘AI換臉’詐騙,一般都是一對一的。這次騙子用視頻電話會議的形式,僞造了一個‘高管團隊’,讓可信度大幅上升。
騙子使用deep fake技術,通過公司的Youtube上視頻和其他公开的媒體素材,就成功僞造了英國公司高管的形象和聲音。
參與視頻會議的都是真人,然後通過‘AI’換臉,把騙子的臉和聲音都換成了對應的高管的臉和嗓音,下達了轉账的指令。
而除了受騙的這一名員工之外,騙子還聯系了另外幾位香港分公司的員工。
警方表示,整個案件還在進一步調查之中,還沒有逮捕任何嫌疑人,但是希望向公衆發布消息,防止騙子通過類似的手法再次得手。
警方提供了幾個方式可以幫助識別是否是‘AI換臉’詐騙行爲。
首先,如果對方在視頻中提到錢,就一定要提高警惕。
可以要求對方快速的移動頭部和面部,注意觀察畫面會不會出現奇怪的變形。
然後提一些只有雙方知道的問題來驗證對方的真實身份。
而銀行,對於此類的詐騙也在部署預警系統,發現用戶在與可疑的账戶進行交易之後也會發出提醒。
國外網友看了這個事,紛紛感嘆deep fake技術的強大:那我能deep fake我自己去开會,讓我自己能多睡一會嗎?
也有網友覺得,可能整個故事都是這個‘被騙員工’編的,可能他自己也參與了這個騙局。
deep fake的由來
deep fake本質上是一種特殊的深度學習技術。
最初源於一個名爲‘deep fakes’的Reddit用戶。該用戶於2017年12月在 Reddit 社交網站上發布了將斯嘉麗·約翰遜等女演員的換臉視頻,使得‘deep fake’成爲了AI‘AI換臉’的代名詞。
deep fake目前並沒有公認的統一定義。美國在其發布的《2018年惡意僞造禁令法案》中將‘deep fake’定義爲‘以某種方式使合理的觀察者錯誤地將其視爲個人真實言語或行爲的真實記錄的方式創建或更改的視聽記錄’, 其中‘視聽記錄’指圖像、視頻和語音等數字內容。
其核心原理是利用生成對抗網絡或者卷積神經網絡等算法將目標對象的面部‘嫁接’到被模仿對象上。
因爲視頻是連續的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。
首先將模仿對象的視頻逐幀轉化成大量圖片,然後將目標模仿對象面部替換成目標對象面部。
最後,將替換完成的圖片重新合成爲假視頻,而深度學習技術可以使這一過程實現自動化。
隨着深度學習技術的發展,自動編碼器、生成對抗網絡等技術逐漸被應用到深度僞造中。
deep fakes依賴於一種稱爲自動編碼器的神經網絡。它們由編碼器和解碼器組成,編碼器將圖像減少到較低維的潛空間,解碼器從潛表徵中重建圖像。
圖源:深度僞造的原理及實战deep fakes通過使用通用編碼器將人編碼到潛在空間中來利用這種架構。潛表徵包含有關其面部特徵和身體姿勢的關鍵特徵。
然後可以使用專門針對目標訓練的模型對其進行解碼。這意味着目標的詳細信息將疊加在原始視頻的底層面部和身體特徵上,並在潛空間中表徵。
圖源:深度僞造的原理及實战另一種制作深度僞造品的方法是使用所謂的‘生成對抗網絡’(Gan)。Gan讓兩種人工智能算法相互競爭。
第一個算法稱爲生成器,輸入隨機噪聲並將其轉換爲圖像。
然後,該合成圖像被添加到真實圖像流(例如名人圖像)中,這些圖像被輸入到第二個算法(稱爲鑑別器)中。
起初,合成圖像看起來一點也不像人臉。但重復這個過程無數次,並提供性能反饋,判別器和生成器都會得到改進。
如果有足夠的周期和反饋,生成器將开始生成完全不存在的名人的完全逼真的面孔。
而之前黴黴的AI不雅照在X平台上被瘋傳,甚至驚動了白宮的發言人。
在1月26日白宮記者會上,發言人Karine Jean-Pierre被問及此事時表示該事件令人擔憂(alarming)。
‘雖然社交媒體公司在內容管理方面有自己的獨立決策,但我們認爲,他們在嚴格貫徹其監管制度以防止錯誤信息和未經本人允許的私密圖像傳播方面,應起到重要作用。’
如何識別檢測僞造的視頻
而對於泛濫的deep fake內容,也有越來越多的研究在關注如何識別和檢測的技術。
論文地址:https://openaccess.thecvf.com/content/WACV2022/papers/Mazaheri_Detection_and_Localization_of_Facial_Expression_Manipulations_WACV_2022_paper.pdf
2022年由加州大學河濱分校的計算機科學家團隊开發了一種新方法來檢測深度僞造視頻中被操縱的面部表情。該方法可以以高達 99% 的准確率檢測這些僞造的視頻。
這個方法將檢測造假視頻任務分成深度神經網絡中的兩個部分。
第一個分支辨別面部表情,同時提供有關包含該表情的區域的信息。
這些區域可以包括嘴、眼睛、前額等。
然後這些信息被輸入到第二個分支,該分支是一個編碼器-解碼器架構,負責操作檢測和定位。
研究團隊將這個框架命名爲‘表達操縱檢測’(EMD),它可以檢測並定位圖像中已更改的特定區域。
作者稱Ghazal Mazaheri:‘多任務學習可以利用面部表情識別系統學到的突出特徵來有利於傳統操縱檢測系統的訓練。這種方法在面部表情操縱檢測方面取得了令人印象深刻的性能,’
研究人員在兩個具有挑战性的面部操縱數據集上進行了實驗,他們證明EMD在面部表情操縱和身份交換方面表現更好,准確地檢測出了99%的被篡改視頻。
未來,在技術和政策層面上都做出努力,才有可能將deep fake技術的負面影響控制在合理範圍內。
海量資訊、精准解讀,盡在新浪財經APP
責任編輯:張靖笛
標題:香港最大AI詐騙案!Deepfake換臉「英國CFO」,直接騙走公司2億港幣
地址:https://www.utechfun.com/post/328761.html