你在網上關注的美女,可能都是AI生成的

你在網上關注的美女,可能都是AI生成的
最近,有人宣稱,要在蘇州的金雞湖上開遊艇趴,報名費3000塊,每名參加者都會配備“隨身女僕一名”。
 
舉辦者還附上了部分女僕的照片,看著很頂,但也很奇怪,因為有幾位“女僕”的手指扭曲得不合常理。
 
後來事兒鬧大了,警方介入,才發現這些女僕照片,居然全都是用AI生成的。
 
而諸如此類利用AI以假亂真的例子,在過去的一年裡可謂屢見不鮮,一再刷新著我們對“真實這兩個字的認知。
 
你所愛戀的,都是幻象
今年2月,海外多家媒體發文,稱付費色情平臺OnlyFans可能會在不遠的未來,被AI創造的色圖所沖垮。
 
媒體說這話的原因,是因為在推特平臺上,有一個名叫“heartereum的”用戶上傳了數張由AI所生成的美女圖片。
 
乍看上去,圖裡的小姐姐們與真人別無二致。
 
只有仔細觀察,你才能發現她們身上的一處處“不協調”,然後才意識到這些辣妹,其實都只是精緻的“人類模仿品”。
 
雖然人是假的,但色卻是真的,就像下面這哥們所說的那樣:
 
 
不過OnlyFans的從業者倒是不擔心會被AI模特搶走工作,平臺知名豔星Laura Lux表示,她賺錢的點不僅是裸露,還在於與粉絲的親密互動,這一點,AI是無法勝任的。
 
在幾乎同一時間節點,國內的網絡上也出現了一套由AI生成的小姐姐Cosplay圖。因其過於逼真,而被B站的審核直接分類進了“仿妝Cos區”。

這事兒充滿一種“齊馬藍式”的科幻寓言感:
 
人類用PS修圖,努力將自己的面容P到完美,而AI卻努力去模仿真人臉上的複雜與瑕疵,最後二者實現了某種動態平衡。
創造這套圖的,是國內的博主“勘雲工造”。在他的微博時間線上,技術的迭代似乎每隔幾天就會出現一次。
 
當漂亮的寫真可以被人工智能愈發完美地一次次復現時,你可能就無法意識到,小紅書上那個名叫“愛旅遊的小多”的美女博主,其實只是一個由AI所締造的存在。
 
德國的ColorDigital,已經開始組建自己的“數字模特營銷團隊”,用被生成的、身材完美的AI模特,來給各種潮牌做宣傳。
 
而要說AI合成圖像最近最狠的一次應用,那還得看Youtube博主Kyle Vorbach——這哥們決定在社交媒體上,利用AI偽造出自己一個月的全部生活。
 
最開始,他只是在Instagram上生成了一張自己從未拍過的自拍照。
 
·AI合成的
 
然後,Instagram上的照片變成了小哥穿上了萬聖節的服裝;變成了他前往了紐約街頭,見到了自己的好友——當然,這一切都是假的。
 
然而,它們卻成功騙過了小哥的朋友們。他們以為他真在紐約,有人甚至都準備打掃屋子迎接他了。
 
之後,小哥開始讓AI去完成它更多的幻想:他成了成功人士,搬到了紐約,和自己的愛犬住進了漂亮的公寓,在街頭偶遇名人……
在千萬次的訓練下,AI創造出了一條完全平行的時空線,在那些真的可怕的合成照片裡,小哥甚至開始覺得,機器所合成的他,似乎就是真正的他。
 
諸如此類的案例,正變得越來越多,而許多本不該被擊穿的“真實底線”,也開始遇到了數字虛擬的全面刺破——

有人開始用AI生成的作品沽名釣譽,甚至開始搞數字詐騙。
 
你所看見的,都是虛假

從去年10月開始,Instagram上火了一個叫Jos Avery的攝影師。
 
這個Jos,以其精湛的人像攝影,在短時間內征服了3萬多名粉絲。
 
並且,面對攝影新人的請教,Jos還貼心地指導他們:“我這張照片,是用尼康D810拍的,用的是24-70毫米的鏡頭。”
 
然而在一段時間後,Jos本人實在忍不住,向Ars Technica的記者坦言:其實我根本就不是什麼攝影師,這些人像都是我用AI生成出來的。”
 
這不禁讓人想起國內最近有個知名的畫師,因被曝出用AI繪畫而塌房,讓許多模仿他作畫的萌新失去了繼續畫下去的動力,也讓許多網民開始了一場賽博獵巫——逼畫師們自證在繪畫中沒用過人工智能輔助。
 
與之類似,當人類的容貌,可以被機器在短時間內創造出成百上千張,就會有像Informa Systems 這樣的企業,用生成的臉孔創造假的員工,讓公司看上去有一個人數眾多的專業團隊。
 
同一時刻,Facebook的母公司在去年底表示,在它們2022年的取締活動中,有三分之二的違禁賬戶,用的頭像是AI生成的。
 
這並不讓人感到意外,因為在2022年的一篇論文裡,研究者發現有3成到5成的美國人,根本就無法在真實臉孔和用DeepFake所生成的虛擬臉孔間做區分。
 
所以在TikTok上,由AI合成的明星整活兒類視頻遍地都是,難辨真假,比如下面的這個基努裡維斯:
 
對於騙子來說,DeepFake實在是一件的趁手的工具。
 
去年8月,有個詐騙團隊就利用DeepFake,偽造出一張數字貨幣公司高管的臉。騙子將這張假臉套在自己的面部,然後通過在線聊天軟件Zoom,去和那些項目團隊的成員開會,讓他們以為自己正在和大公司的負責人對接。”
 
被“偷臉”的這位高管表示,這群騙子的技術很厲害:“他們唯一沒模仿出來的,就是我在疫情期間胖出來的那15磅。”
 
不止面孔,像Midjourney這樣的圖像生成AI,甚至會影響你對這個世界的認知。
 
譬如去年9月26日,東京時間凌晨4點39分,有一名家住東京的推特用戶,發了三張靜岡縣遭遇水災後的慘狀。
 
 
該貼被迅速轉發,許多網友又是震驚不已又是要籌措捐款。
 
結果在推文發出11小時後,原作者道歉,稱靜岡發水災是真的,但災情圖片卻是他用AI做出來的。他也知道撒謊不好,但就是捨不得海量的推特轉發和點贊。
 
無獨有偶,在今年2月初的土耳其敘利亞大地震後,也有人在網上用一張“地震現場的救援圖”來號召愛心人士們捐款,結果立刻就被眼尖的網友扒出來,說這圖上的人有六根手指,應該是用Midjourney做出來的。
 
 
而當被AI生成的圖像,配合上同樣被AI生成的音頻與文字時,那你所理解的一切真實,就將會迎來一場徹底的崩塌。
 
你所相信的,都在崩塌
在以假亂真這個層面,AI合成的音頻絲毫不遜色於圖像。
 
上個月, ElevenLabs發佈了自家的語音合成平臺,原本是幫助電影和遊戲配音,結果很快就被網友們拿來合成“比爾·蓋茨稱新冠疫苗會造成艾滋病”,以及“艾瑪·沃特森大聲朗讀《我的奮鬥》”。
 
而早在去年12月,中國臺灣的刑事局就已經破獲了一起AI語音詐騙案。
 
騙子先以5萬新臺幣的價格從科技公司購入詐騙電話的AI模組,然後在8個月的時間裡群發上百萬次,賺了2700萬新臺幣的贓款。
 
而當AI合成視頻加上了AI合成音頻,你便能在社交媒體上刷到埃隆·馬斯克在鏡頭前懺悔自己吸毒過量,知名電臺主持人喬·羅根(Joe Rogan)教觀眾如何去亞馬遜購買他推薦的壯陽藥。
 
 
在算法的加持與混淆下,那個“將名人的話語奉為真理”的時代正在離我們遠去。

這還沒完。
 
前些日子,ChatGPT正好在情人節前後大火,加拿大反欺詐中心便趁此機會警告世人未來操縱感情殺豬盤的,很可能就是這些聰明的聊天AI。
 
而安全公司McaFee的研究則表明,10個人裡有7個都會把AI生成的情書,當成是真人所撰寫的甜言蜜語。
 
與此同時,美國知名科幻雜誌《克拉克世界》被迫暫停投稿渠道,只因他們在短短一個月內,接到了500多篇由AI所生成的小說稿件。
 
歐洲執法組織去年9月預言:“到 2026 年,全網有多達 90% 的在線內容可能是合成生成的。媒體將大多由人工智能生成與操縱。”
 
當然,為了防止以後互聯網上“無內容可信”,各國也想出了相應的對策——利用一套專門用來打假的AI。
 
像韓國就聲稱將在2月的月底,用AI來輔助偵破電信詐騙案,而創造了ChatGPT的OpenAI,最近剛研究出了一個專門鑑別ChatGPT的AI。
 
這就讓以後的互聯網,變得越來越像一個AI神仙打架的地方了,變成了一個巨型的類生成對抗網絡,而所謂的真假,不過是用來證明哪方AI更強的一個標準。
 
 
況且,根據去年12月安永發布的一篇文章,許多用來訓練AI的數據,本身也都是虛構出來的。
 
像現在一些頂尖的汽車公司,就用隨機生成出來的模擬路況來訓練自動駕駛,而藥企則用千萬個用隨機數據做出的病歷,來進行非物質層面的臨床實驗。
 
相對於參考真實的案例去開發,AI生成確實節省了大量的成本,也能將許多罕見的極端情況考慮在內。
 
而我們也因此終於,走進了那片被《黑客帝國》稱為“真實的荒漠”的地方。
 
在那個地方,真實被AI託管,網絡上的種種欺詐,像一個個被精心策劃的真相,沒有真與假,只有神經網絡與複雜的算法。
 
-End-
本文授權轉載自X博士(ID:doctorx666),作者:抓絨,設計/視覺  Elaine。

Scroll to Top