對著電腦點幾下鼠標、或是在手機上輸入“幫我畫一幅xx主題的畫”,很快一幅“全新”的、“原創”的畫作便呈現在了面前。
大家都知道,這便是近來大紅大紫的“生成式AI”所能提供的、最典型的用用場景。特別是在最新一代、具有強大AI加速能力的硬件平臺上,部分生成式AI更是已經可以做到脫機運行,即便沒有網絡,也只需藉助本機算力就能很快完成各種繪圖、背景替換、文字總結等富有“創意”的工作。
然而,如果有那麼一天,當你依然習慣於命令AI去作畫、去撰寫文章的時候,可能會驚訝地發現,它們突然“性情大變”。明明想要的是可愛的小貓小狗圖片,可AI畫出來的卻變成了遍佈眼球和觸手的克蘇魯怪物;明明只想要一篇發“小紅薯”的短文,AI卻洋洋灑灑寫了一篇全是文言文的頌歌。
難道這是AI突然覺醒,終結者要到來了嗎?顯然並非如此,可能只是你使用的生成式AI“中毒”了。
-
生成式AI的原理,讓一部分人不爽了
生成式AI是怎麼起作用的?簡單來說,它其實就是模仿人類學習的過程,先要學習個幾萬、幾十萬,甚至幾百萬現有的文章和畫作,然後才能形成可用的“文風”和“畫風”。之後,這些AI便可以正常“工作”了。
講道理,這種先學習、模仿,然後逐漸生成自己風格的過程,其實與人類的學習並沒有太大區別。但問題就在於,生成式AI目前其實還存在三大短板。
其一,是生成式AI所需的學習樣本量通常都相當大。以作畫為例,往往要學個上千萬、甚至上億張畫,才能變得可用。這麼大的學習樣本,顯然不可能讓AI公司自己去找人畫出來,所以在這個學習的過程中,難免就會出現使用未授權畫作的問題。
可能有人會說,人類學畫、學寫作文的時候,不也是會去模仿名家作品嗎?我們一樣不可能得到這些知名畫家、畫師、作家或博主的授權。而且法律上也有規定,基於學習目的去複製原作是可以豁免的,難道這對於AI不適用嗎。
問題就在這裡。生成式AI的剩下兩大短板就在於,它即便是經過了大量的“學習”,實際上也往往很難真正生成自己的風格,而是會“學什麼像什麼”。特別在繪畫方面,現有的生成式AI普遍表現得像是一個“技術精湛的模仿犯”,雖然畫的體裁可以有創新,但畫風通常一眼就能看出模仿的痕跡。
在這個基礎上,生成式AI這項技術本身從探索到轉向商用的步伐,也確實快了點。特別是隨著目前在PC、智能手機上的大量部署,就讓不少畫家、作家感覺到了危機感。或者說得更直白一點,也可能是受到了嫉妒。
-
針對AI的“投毒”,吸引了眾多關注
正是因為目前生成式AI的蓬勃發展,讓大量的創作感到了不安,也促使了一部分研究者開始投身於“對抗”生成式AI的特殊工具上。
比如就在近日,芝加哥大學的一位教授就公佈了他所在團隊研發的一種“數據中毒工具”Nightshade。當創作者決定在網上公開發布他們作品的低清數字版時,就可以用這個工具,向畫作中插入像素級別的微小改動。
大模型裡混入的中毒圖像越多,AI畫出的畫就會越離譜
對於人類來說,這些改動幾乎不會被察覺到,也不會影響到欣賞畫作,但對於AI來說,這些按照特定規律排布的“混淆像素”,卻會使得AI錯誤地認知畫作中的內容,比如把貓認成狗、把城市認成樹木之類。
一旦這些包含有錯誤認知元素的畫作被AI學習後,就會增加AI後續在“創作”時出現詭異錯誤的概率。“帶毒”的畫作被AI模型學習得越多,模型出錯的概率就會越大。而要想排除這種影響,背後的公司便不得不通過人工審閱,一幅幅地去排查語料庫裡的畫作,這會極其費時費力,而且很可能還解決不了問題,甚至在最壞的情況下會導致整個大模型全部廢掉,變得不再可用(因為此時出錯的概率會變得高到不可接受)。
Glaze處理後的圖像人看不出什麼問題,但AI則會完全無法識別
不僅如此,這個團隊還研發出了另外一款相對“溫和”的投毒工具Glaze。雖然同樣是基於特殊的像素混淆技術,只不過它並不會導致AI“學壞”,而是會讓AI什麼也學不到。也就是說,AI將不能從Glaze處理過的畫作中學習到任何新的作畫風格和技巧,這張畫作將會白白浪費大模型學習的時間和成本,卻不能起到作用。
-
投毒或許短期有用,但卻很難換來真正的公平
為什麼研究者要開發針對生成式AI的“投毒”技術?根據他們自己的說法,是希望這些工具“有助於將權力平衡從AI公司轉向藝術家”。
是的,我們不能否認,現在的AI大模型在訓練、生成的過程中,很大程度上是利用了前文所講到的、法規上對於“學習他人作品”的豁免條款。因為生成式AI確實不是直接改編現有的作品,而是通過學習他人風格之後進行“再創造”。所以相關公司從理論上來說,確實是不需要為這種學習行為去申請許可、甚至不需要付費。
但很現實的問題就在於,一方面生成式AI學習之後的畫風往往與“原作”太像,另一方面它們也確實已經開始威脅到了一部分藝術家的生存狀況。所以會有研究者推出類似的數據投毒工具,希望幫助藝術家增強與AI企業進行版權談判時的話語權,其實也不難理解。
可問題在於,這種“投毒”真的可以解決問題嗎?恐怕很難。
一方面,無論是與研究者、還是藝術家相比,AI大模型背後的企業顯然都處於絕對的技術優勢地位。也就是說今天研究團隊可以推出數據投毒工具,過段時間保不齊相關企業就能開發出“抗毒”的新款大模型、新款算法,從而令“投毒”無效化。
另一方面,就算“投毒工具”本身難以被攻破,但生成式AI技術已經發展了這麼長時間,很多大模型早已成熟。就算它本身還需要進一步學習、迭代,也未必就非得要靠外部的數據抓取了。畢竟對於AI來說,“自己訓練自己”早已不算是什麼新聞。
況且,如果針對AI的投毒工具真的被廣泛採用,那麼最壞的情況下,它甚至可能會直接倒逼生成式AI技術普遍“進化”,大家都不再需要靠抓取外部的作品來學習。這樣一來,本意是為了增強藝術家話語權的新技術,最終卻反而可能會堵死了藝術家們好不容易的賺錢路子。
畢竟巨大的技術力差距客觀存在,而這顯然不是靠一兩個“投毒工具”就能夠解決的。
蘋果iPad到底強在哪?現在又多出了兩條理由
雖然這兩款新品的定位不高端,但其實並不簡單。