2023年早些時(shí)候,當(dāng)意識(shí)到生成式人工智能能夠輕松地篡改人們的圖像時(shí),人們開(kāi)始在社交媒體賬戶上把隱私設(shè)置調(diào)成了最嚴(yán)格的,并將臉書(shū)和推特個(gè)人資料圖片換成了自己的畫(huà)像。
這一發(fā)現(xiàn)是在玩了基于StableDiffusion的圖像編輯軟件和各種深度偽造應(yīng)用程序之后發(fā)現(xiàn)的。通過(guò)從推特上隨便選擇一個(gè)人的頭像,點(diǎn)幾下鼠標(biāo)并輸入文字提示,就可以生成關(guān)于那個(gè)人的深度偽造色情視頻,并編輯照片中的衣服。
雖然深度偽造色情多年來(lái)一直被用來(lái)折磨女性,但最新一代的人工智能使其成為了一個(gè)更大的問(wèn)題。這些系統(tǒng)比以前的深度偽造技術(shù)更容易使用,而且它們可以生成看起來(lái)完全令人信服的圖像。
以圖生圖的人工智能系統(tǒng)允許人們使用生成式人工智能編輯現(xiàn)有圖像,“可以是非常高質(zhì)量的……因?yàn)樗旧匣诂F(xiàn)有的單一高分辨率圖像,”美國(guó)芝加哥大學(xué)計(jì)算機(jī)科學(xué)教授本·趙介紹,“結(jié)果是同樣的質(zhì)量,同樣的分辨率,同樣的細(xì)節(jié)水平,因?yàn)橥ǔ#ㄈ斯ぶ悄芟到y(tǒng))只是在移動(dòng)?xùn)|西。”
你可以想象,當(dāng)了解到一種新工具可以幫助人們保護(hù)自己的圖像免受人工智能操縱時(shí),這令人們松了一口氣。PhotoGuard是由麻省理工學(xué)院的研究人員創(chuàng)建的,它的作用就像照片的保護(hù)罩。它以我們無(wú)法察覺(jué)的方式改變了照片,但阻止了人工智能系統(tǒng)對(duì)它們進(jìn)行修改。如果有人試圖使用基于生成式人工智能模型(如StableDiffusion)的應(yīng)用程序編輯PhotoGuard“保護(hù)”的圖像,結(jié)果將看起來(lái)不真實(shí)或扭曲。
另一個(gè)以類似方式工作的工具叫做Glaze。但它并沒(méi)有保護(hù)人們的照片,而是幫助藝術(shù)家防止他們受版權(quán)保護(hù)的作品和藝術(shù)風(fēng)格被抓取到人工智能模型的訓(xùn)練數(shù)據(jù)集中。自從StableDiffusion和DALL-E2等圖像生成式人工智能模型出現(xiàn)以來(lái),一些藝術(shù)家就一直在奮起反抗,認(rèn)為科技公司竊取了他們的知識(shí)產(chǎn)權(quán),并用來(lái)訓(xùn)練這些模型,但卻沒(méi)有給他們補(bǔ)償。
Glaze由趙和芝加哥大學(xué)的一組研究人員開(kāi)發(fā),幫助他們解決這個(gè)問(wèn)題。Glaze像是“斗篷”一樣遮住圖像,應(yīng)用人類幾乎看不到的細(xì)微變化,但能阻止人工智能模型學(xué)習(xí)定義特定藝術(shù)家風(fēng)格趙表示,Glaze破壞了人工智能模型的圖像生成過(guò)程,阻止他們生成無(wú)限多看起來(lái)像特定藝術(shù)家作品的圖像。
PhotoGuard有一個(gè)與StableDiffusion合作的在線演示,藝術(shù)家們很快就能使用Glaze。趙和他的團(tuán)隊(duì)目前正在測(cè)試該系統(tǒng),并將允許有限數(shù)量的藝術(shù)家在本周晚些時(shí)候注冊(cè)使用。
但這些工具做不到完全保護(hù)。例如,你仍然可以拍攝受PhotoGuard保護(hù)的圖像的截圖,并使用人工智能系統(tǒng)進(jìn)行編輯。盡管它們證明了人工智能圖像編輯問(wèn)題有巧妙的技術(shù)解決方案,但除非科技公司開(kāi)始更廣泛地采用類似的工具,否則它們本身毫無(wú)價(jià)值?,F(xiàn)在,我們放在網(wǎng)上的圖片對(duì)于任何想使用人工智能濫用或篡改它們的人來(lái)說(shuō)都是容易得到的“獵物”。
阻止我們的圖片被不良行為者篡改的最有效方法是社交媒體平臺(tái)和人工智能公司為人們提供方法,使他們的圖像免疫,并在每次人工智能模型更新的時(shí)候確保方法仍然奏效。
在向白宮作出的自愿承諾中,領(lǐng)先的人工智能公司承諾“開(kāi)發(fā)”檢測(cè)人工智能生成內(nèi)容的方法。然而,他們沒(méi)有承諾會(huì)使用它們。如果他們真的要保護(hù)用戶免受生成人工智能的傷害,那可能是最關(guān)鍵的第一步。