眼見和耳聽或都不能爲實!更多人正在被AI變聲”“換臉”合成騙取錢財

2023-05-24 18:40:11    編輯: robot
導讀 人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。AI 工具的獲取和使用變得越來越容易,也讓網絡犯罪分子能夠以更加難以識破的方式進行詐騙。 文丨阿秋 編輯丨張飛  近日,網絡安全公司 Mc...

人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。AI 工具的獲取和使用變得越來越容易,也讓網絡犯罪分子能夠以更加難以識破的方式進行詐騙。

文丨阿秋

編輯丨張飛 

近日,網絡安全公司 McAfee發布的一份報告顯示,越來越多的人被人工智能(AI)詐騙。調查發現,10% 的成年人曾經被這種詐騙方式針對,另外 15% 的人認識有人被騙過。

亞利桑那州立大學AI領域的教授坎巴姆帕蒂稱,只需獲得某人3秒鐘的原聲,就能迅速復制出完全相同的聲音。這給了不法分子利用該項技術詐騙的機會,即給受害者留下假的語音郵件,或者冒充他們的好友打電話給他們。據悉,在受害者中,有 77% 的人表示在詐騙中損失了錢財,其中三分之一的人損失超過 1000 美元,還有 7% 的人損失了5000 -15000 美元。

McAfee 首席技術官 Steve Grobman 稱,“人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。AI 工具的獲取和使用變得越來越容易,也讓網絡犯罪分子能夠以更加難以識破的方式進行詐騙。”

AI助力騙子橫行 

“最近ChatGPT引爆AI風潮,刷新了人們對AI的認知。AI技術是把雙刃劍‘’,在給人們生活提供便利的同時,也給不法分子留下了可乘之機,眼見不一定爲真,耳聽也不一定爲實。”

日前,據南通反詐消息,小劉的初中同學“小韓”通過QQ聯系小劉,准備借6000元錢。小劉向來謹慎,擔心“小韓”不是本人,沒想到“小韓”發來一條聲音很像本人的語音。後來“小韓”又給小劉打了一通視頻電話,看到對方的臉後,小劉便相信了對方,於是給“小韓”提供的銀行卡轉了6000元。

不過,小劉轉完錢後越想越不對勁,覺得“小韓”表情僵硬,於是撥打小韓的電話,沒想到小韓的QQ账號被盜了,這才意識到被騙,隨後立即報警。警方初步判斷,通話的視頻極有可能是詐騙分子通過AI技術“變聲”“換臉”詐騙手段合成的。

這並非個例,4月2日,央視網報道稱,加拿大犯罪分子利用AI合成親人聲音實施詐騙,3天時間內至少有8人上當,涉案金額約100萬元。這些受害者多爲老年人,他們表示,“電話裏的聲音簡直和親人一模一樣”。

早在2019年,《華爾街日報》曾報道過一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經理給他打了22萬歐元。但在當時,詐騙者還得准備被模仿者的語料進行訓練打磨。而現在,AI讓克隆聲音幾乎沒什么門檻,連方言和語氣的模仿都不在話下。

此外,以往被認爲安全的“聲紋”系統如今也能被輕易破解。

3月,《衛報》澳大利亞版記者尼克·伊夫賽德稱,他用人工智能做出自己的聲音,成功進入了自己的Centrelink自助服務账戶。而就在兩年前,澳大利亞服務局在一份報告中聲稱“聲紋與指紋一樣安全”。

提高警惕是自我防範的首要

據了解,當下不法分子利用AI主要通過AI合成聲音、AI換臉展开詐騙活動。所謂AI合成聲音,是指騙子通過撥打騷擾電話等方式,錄音提取詐騙對象及其重要關系人的聲音特徵,然後利用AI技術進行語音合成,進而用僞造的聲音實施詐騙。

因爲人臉效果更易取得對方信任,所以不法分子還會利用AI換臉技術,即通過合成視頻或照片“以假亂真”,冒充詐騙對象的親人、朋友等重要關系人,擾亂詐騙對象的視线進而實施詐騙。

此外,不法分子還會使用AI技術篩選和鎖定受騙人群。他們會分析詐騙對象在網絡平台發布的個人信息,根據所要實施的騙術利用AI技術對人群進行篩選,從而選出目標對象,制定詐騙計策。

那么,面對如此強勢的技術騙局,個人該如何保護自己不受詐騙的侵害呢?

南通反詐提示,一方面,在涉及錢款時,大家要提高安全意識,通過電話、視頻等方式確認對方是否爲本人,在不能確定真實身份時,要格外留意、不要着急匯款,避免上當受騙,建議將到账時間設定爲“2小時到账”或“24小時到账”,以預留處理時間。

另一方面,個人應當加強個人信息保護意識,切勿接聽任何陌生人邀請的視頻驗證或語音聊天,謹防騙子利用AI技術搜集人臉、聲音等素材,掌握大量個人信息並對人物性格、需求傾向等進行刻畫,從而有針對性地實施詐騙。

泰和泰律師事務所律師劉青在接受媒體採訪時建議,若遭遇詐騙應第一時間報警尋求警方幫助,注意保留相關材料以供警方盡快掌握案情、嚴懲犯罪分子。

如發現自己的肖像被盜用或者“被換臉”,劉青建議,用戶應當第一時間保留證據,以便後續維權。“同時,用戶還可以向網絡平台運營商提出投訴,要求強制下架侵權圖片或視頻,也可以提起人格權訴訟,用法律武器維護自己的合法權益。”

用魔法打敗魔法? 

2018年,紐約州立大學曾开發出一款“反換臉”AI刑偵工具,通過預測眼睛是否眨動的狀態來識別僞造人臉,准確率宣稱能夠達到99%,但這款工具很快便失效了,因爲深度僞造技術的進化速度更快。

隨着AI的技術演進,人們所聽所見將越來越不可信,對了應對先進技術帶來的負面影響,科技企業也在希冀使用技術手段攔截和防範AI帶來的語言合成、AI換臉、內容虛假等深度僞造問題。

2019年,谷歌开始有意識地防御,先是招募了一群演員錄制視頻,然後利用網上的深度僞造技術進行換臉等操作,並對這些數據進行全面地分析,讓开發者們研究深度僞造技術的算法和邏輯,在“知己知彼”的基礎上,更准確地識別和防治深度僞造內容。

此後,微軟推出了名爲“Video Aunthenticator”的工具,其能夠對畫面中渲染邊界和灰度等級進行逐幀的實時分析進而生成可靠指數,幫助用戶鑑別內容真實性。

不久前,OpenAI 公司發布了一款AI分類器,可識別人工智能生成的文本。AI分類器基於一個語言模型,通過對同一話題的人類文稿和AI文稿數據集的大量學習和訓練,以識別文本是否由AI生成。但博客數據顯示,檢測成功率只有26%,對英文以外的語言,檢測效果要差很多。

在2022世界人工智能大會治理論壇上,上海交通大學凱原法學院院長、特聘教授彭誠信曾指出:“數字社會中倫理之治的根本還在於人,企業倫理、科技的可信向善,歸根結底還是人的可信向善,因此需要完善法律監管、釐清法律基本責任,確立人們的行爲規範。”

爲對AI技術進行快速有效地監管,國際方面,白宮官員近日向美國科技公司發出邀請,希望與行業企業領導者共同探討針對人工智能的監管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。

上個月,歐洲數據保護委員會已經成立了一個專門針對ChatGPT的工作組,並朝着制定人工智能隱私規則的共同政策邁出的重要一步。

“我們希望人工智能的能力成爲改善人類生活、促進人類文明發展的’助推器’,以及人類走向星際文明的’擺渡人’。”

上海交通大學安泰經濟與管理學院教授史佔中在近期一場媒體沙龍上表示,從國家的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監管,釐清AI的設計者、使用者、內容生成者的權責關系,完善AI決策的問責機制,保護大衆合法權益;而從社會層面來講,應加強AI技術的監管,推進AI研發者遵守倫理准則與規範AI的發展。

國內方面,相關監管政策也在細化落實中。爲促進生成式人工智能技術健康發展和規範應用,國家網信辦起草了《生成式人工智能服務管理辦法(徵求意見稿)》,並於4月11日向社會公开徵求意見。

徵求意見稿要求,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,承擔該產品生成內容生產者的責任;利用生成式人工智能產品向公衆提供服務前,應當向國家網信部門申報安全評估,履行算法備案和變更、注銷備案手續等。

       原文標題 : 眼見和耳聽或都不能爲實!更多人正在被AI變聲”“換臉”合成騙取錢財



標題:眼見和耳聽或都不能爲實!更多人正在被AI變聲”“換臉”合成騙取錢財

地址:https://www.utechfun.com/post/216604.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡