防不勝防,10分鐘就被AI騙走430萬!
這是這兩天震驚全網的真實詐騙案件。
據包頭警方發佈,一公司老闆接到朋友的微信視頻電話,由於長相和聲音確認都是“本人”,他絲毫沒有懷疑就把錢打了過去。
結果一問朋友,對方根本不知道此事。這人才知道,原來詐騙者DeepFake了他朋友的面部和聲音。
消息一出,直接衝上熱搜第一。網友們紛紛表示:離大譜啊!不敢接電話了。
也有人提出質疑:AI這麼好訓練?這需要掌握個人的大量信息吧。
不過,雖說是看上去離譜的小概率事件,但據相關統計,AI技術新騙局來襲後,詐騙成功率竟接近100%。
畢竟連那些直播賣貨“楊冪”“迪麗熱巴”、B站歌手“孫燕姿”“林俊杰”都不是真的。
△圖源抖音@娛樂日爆社,疑似直播間用楊冪的AI換臉帶貨
10分鐘被AI騙走430萬
據微信號平安包頭介紹,一個月前,福州市一科技公司法人代表郭某,突然接到好友的微信視頻。
聊天過程中,這個“好友”透露,自己朋友在外地投標,需要430萬保證金,且公對公賬戶過賬,所以想用郭某公司的賬戶走一下賬。
背景介紹之後,“好友”就找郭某要了銀行卡號,而後甩出一張銀行轉賬底單的截圖告訴郭某,已經把錢打到了郭某的賬戶上。
結果因為已經視頻聊天以及各種“物證”,郭某並沒有過多懷疑,甚至也沒去核實錢款是否到賬。
幾分鐘之後郭某就分兩筆將錢打了個過去,本想去跟好友報備一下:“事情已經辦妥”。
然而,好友緩緩打出來一個問號。
好在郭某反應比較快,第一時間報警。於是在警方和銀行聯動下,僅用時10分鐘就成功攔截了330多萬元被騙資金。
有網友表示,AI正成為騙子高手新一代工具。
還有網友調侃道,我沒錢,哪個都騙不了我。(等等,好友有錢也不行doge)
而在這起案件背後,核心涉及了AI換臉以及語音合成這兩個技術。
大眾所熟知的AI換臉方面,現在即便一張2D照片,就能讓口型動起來。據此前新華每日電訊消息,合成一個動態視頻,成本也僅在2元至10元。
當時涉案嫌疑人表示:“客戶”往往是成百上千購買,牟利空間巨大。
至於面向更精準、更實時的大型直播平臺,視頻實時換臉的全套模型購買價格在3.5萬元,而且不存在延遲、也不會有bug。
至於像語音合成方面,技術效果也是越來越逼真,新模型和開源項目湧現。
前段時間,微軟新模型VALL·E炸場學術圈:只需3秒,就可以複製任何人的聲音,甚至連環境背景音都能模仿。
而具備語音合成功能的工具Bark,更是曾登頂GitHub榜首,除了聲色接近真人,還能加入背景噪音和高度擬真的笑聲、嘆息和哭泣聲等。
在各類社交網絡上,各種小白教程也層出不窮。
要是結合虛擬攝像頭,可能就更加防不勝防。
只需一個軟件應用程序,就可以在視頻通話中使用任意視頻資源。
△圖源微博@啞巴
點擊接通後,對方完全不會看到播放、暫停視頻等具體操作,只會看到視頻播放的效果,“接通後看到的就是美女了”:
△圖源微博@啞巴
這樣一來,不僅視頻可以通過虛擬攝像頭,隨意拍攝甚至更換,甚至連說話方式都可以真人定製:
△圖源微博@啞巴
核心技術門檻的降低,也就給了犯罪分子可乘之機。
AI新騙局成功率接近100%
事實上,AI加持下的新型網絡詐騙,並不止這一種操作。
無論是國內還是國外,都有不少用AI換臉的詐騙案例,小到在網絡購物、兼職刷單等方面騙點小錢,大到冒充客服、投資理財人員等身份,獲取銀行卡賬號密碼直接轉一大筆賬,都有出現。
在國內,據南京警方消息,此前就出現過一起被QQ視頻AI詐騙3000元的案例。
當事人小李表示,自己的大學同學小王通過QQ跟自己借3800元,稱自己很著急,因為表姐住院了。
小李懷疑了小王的身份,而小王很快給她傳來了一個4~5秒左右的動態QQ視頻,不僅背景在醫院,而且還打了聲招呼。
這讓小李打消了疑慮並轉了3000元,然而隨後發現對方已經將她刪除拉黑,發現視頻原來是AI偽造的。
目前包括北京反詐、武漢市反電信網絡詐騙中心等官方公眾號平臺,都警告了AI技術新騙局的嚴重性,甚至表示“詐騙成功率接近100%”。
可別以為這些詐騙現象只在國內出現,國外的語音詐騙同樣花樣百出。
一種方式是用AI合成語音騙取電話轉賬。
據Gizmodo介紹,英國最近就同樣發生了一起涉及金額高達22萬英鎊(摺合人民幣約192.4萬元)的詐騙案件。
一位當地能源公司的CEO,在不知情的情況下被騙子“DeepFake”了自己的聲音。隨後,騙子用他這段聲音,電話轉賬了22萬英鎊到自己的匈牙利賬戶。
據CEO表示,他後來自己聽到這段AI合成語音時都驚訝了,因為這段語音不僅模仿出了他平時說話的語調,甚至還帶有一點他的口癖,有點像是某種“微妙的德國口音”。
另一種則是用合成語音冒充親友身份。
據nbc15報道,美國一位名叫Jennifer DeStefano的母親,最近接到了一個自稱是“綁匪”的詐騙電話,對方稱劫持了她15歲的女兒,要求這位母親交出100萬美元的贖金。
電話那頭傳來了女兒的“呼救聲”,不僅聲音、就連哭聲都非常相似。幸運的是她的丈夫及時證明了女兒是安全的,這次詐騙才沒能成功。
現在,不僅是詐騙,在AI技術加持下,就連楊冪、迪麗熱巴們都在今天引發了熱議。
原來,這是商家們想出的新“搞錢之道”,那就是在直播的時候,用AI換臉等技術“Deepfake”一下楊冪、迪麗熱巴、Angelababy等明星的臉,這樣大家就會誤以為是明星本人在帶貨,從而拉昇直播流量。
然而,這類行為目前還不能被直接判定為侵權。據21世紀經濟報道,北京雲嘉律師事務所律師趙佔領表示:
平臺對於平臺內商家的侵權行為不承擔直接侵權的責任,而是否構成幫助侵權,主要是看平臺對於商家的侵權行為是否屬於明知或應知。
但對於如何判定平臺對用戶、權利人的投訴是否明知或應知,在一般情況下很難認定。
顯然,在AI技術越來越火熱的當下,相關法律也還需要進一步完善。
One More Thing
就在昨天夜裡,最近火爆全網的“AI孫燕姿”本人,也就是歌手孫燕姿,出來回應了。
她發佈了一篇名為《我的AI》的英文版文章,這是她團隊的中文翻譯全文:
然後,網友們看到後的評論是醬嬸的: