傅爾得
最近,一款以“螞蟻呀嘿”為背景音樂的換臉搖頭特效視頻,在抖音、微博等平臺被火熱刷屏。名為Avatarify的、制作這款特效的App,在幾天之內(nèi)就沖上了國內(nèi)蘋果應(yīng)用商店的榜首,但在不到一周后的3月2日凌晨,這款應(yīng)用被悄然下架了。
面對這如暴風雨般來去的熱潮,我們心中大概已不再泛起太大的波瀾,因為,早在三年前,我們就見識過一款名為“ZAO”的換臉視頻應(yīng)用在一周內(nèi)的現(xiàn)象級快速興起與下架。如今很難想象當時的我們有多么天真,當我在微信一屏屏刷到朋友們的臉在幾秒之內(nèi)無縫般移花接木到演員的臉上,同時還能毫無破綻地出演劇情時,內(nèi)心確實受到了不小的震撼。我們可能普遍會對一張照片是否修過產(chǎn)生警覺,但卻仍然本能地對視頻和聲音抱有信任,因為那個時候,“深度造假”遠未像現(xiàn)在這樣被認知。
“深度造假”這個詞誕生于2017年,當時一位名為“deepfakes”的用戶,在社交新聞?wù)搲W(wǎng)站Reddit上發(fā)布了一些經(jīng)過Al換臉的色情視頻,視頻將色情演員的臉替換成了蓋爾·加朵、泰勒·斯威夫特、斯嘉麗·約翰遜等好萊塢女星。這一事件的轟動效應(yīng)迅速引發(fā)了全球的關(guān)注,在那之后,deepfake就成了AI(人工智能)換臉技術(shù)的代名詞。
維基百科對Deepfa ke的定義是:英文“deeplearning”(深度學習)和“fake”(造假)的混成詞,專指基于人工智能的人體圖像合成技術(shù)的應(yīng)用。雖說技術(shù)是中性的,但如何把握好度則是對人性及隨時跟進的法律的考驗。斯嘉麗·約翰遜就曾在接受華盛頓郵報的采訪中說過:“讓任何一個人成為這項技術(shù)的攻擊目標只是時間問題?!笔虑閷⑦h不會止于色情報復(fù)等行為,如果臉部和聲音的生物特征數(shù)據(jù)被泄漏,我們的門禁和銀行賬戶等都將不再安全。如果不對深度造假技術(shù)的使用加以監(jiān)管,無論是個人生活還是公共政治等層面,我們都將會無所適從。
我無意在倫理和社會公共議題上過多地討論深度造假,更多想討論的是,在這之后我們和影像的關(guān)系發(fā)生了怎樣的變化?我們都有過這樣的經(jīng)驗,如果了解過魔術(shù)的技巧,就不會再產(chǎn)生第一次觀看表演時的強烈沖擊了,正如我們多數(shù)人經(jīng)歷假照片后的感受。而現(xiàn)在,我們來到了升級后的深度造假的世界,這將會是一個口說和耳聽都不再為憑的世界,是一個你可能會在自己毫不知情的情況下說出你沒有說過的話的世界。此刻,我們要刷新我們的認知和心理來面對。
暗房時代說起來稍微有點遙遠了,大多數(shù)從Adobe Photoshop時代走來的我們,曾經(jīng)為了將一張照片中的人像移入另一張照片,或者為了將照片中的人修得更完美等,先要學會使用這個軟件,而修好一張圖還要花費很長時間,然則結(jié)果還不一定完美。在“無圖無真相”口號還流行的時代,即便我們已經(jīng)對雜志上被修得過分完美的模特產(chǎn)生了共識,但對于一般照片的信任還是基本存在的。但深度造假技術(shù)則擊潰了我們過往的認知,與PS不一樣的是,它的一個重要特點在于:其圖片和視頻是由人工智能算法制作而成。
只要稍稍回想一下,就會發(fā)現(xiàn)我們已在不知不覺中進入了算法的世界。三不五時,朋友圈就會出現(xiàn)一些刷屏的小程序,要么是為你生成不同風格的懷舊照片,要么是生成你老年時的照片,或者是讓你看到男性或女性版本的自己,等等。在我們驚訝于一鍵換頭的便捷的同時,各種美圖軟件已成了我們生活的必需品,我們對自己在照片中的完美形象比任何時候的期望都要高。
現(xiàn)實越走越遠,似乎無法回頭,一旦知道那些幾乎毫無破綻的照片或視頻是偽造的,我們的認知就會發(fā)生變化。因此,當近期一款用AI技術(shù)將懷舊老照片中的人的頭部動起來的程序開始進入大眾視野的時候,我已經(jīng)感覺到了自己體內(nèi)的“免疫抗體”。
雖然如此,當我點進網(wǎng)站“This Person Does Not Exist”(這個人不存在)后,不得不說,剛看到那些肖像照時,我簡直無法說服自己他們都是人工智能合成的,從他們的面部表情和眼神中,我甚至能想象到他們的呼吸、喜好、經(jīng)歷等等。這些人臉肖像是用StyleGAN2技術(shù)生成的,這是深度造假的基本技術(shù)之一:算法讓一個網(wǎng)絡(luò)去生成內(nèi)容,讓另一個網(wǎng)絡(luò)將其與人臉進行比較,迫使其不斷改進,直到合成圖像與真實人臉之間無法區(qū)分。那么問題來了,一旦所有人都變得懷疑一切,我們將如何讓自己判斷眼前所見?
我們或許會變得更為偏狹,只相信自己信任的信息源。而識別深度造假的方法,還得依靠人工智能。目前,通過神經(jīng)網(wǎng)絡(luò)算法來判斷是主要方法之一,但其準確率只落在84%—99%之間。而且,一旦我們用新的技術(shù)去識別深度造假,它就會對這項技術(shù)進行深度學習,從而進行規(guī)避。因此,任何一種反深度造假的技術(shù),都會讓其越來越強大。但另一種方法將會更為可靠:通過區(qū)塊鏈技術(shù)的證據(jù)溯源來進行判斷。
我們不得不調(diào)試好自己,學會與深度造假共存,這將影響到我們創(chuàng)作、溝通以及詮釋世界的方式。影像作為當前最強而有力的溝通媒介已被推入了真與假的戰(zhàn)場,而它是否能守住防線不至潰敗,則成為我們的擔憂。
或許,我們將進入一個很難確定什么是真實的世界,在這里,真相不僅是奢侈品,而且正被重新塑形。而更大的隱憂在于:許多人甚至根本不在乎真相。奧威爾在《1984》里說過,“誰控制了過去,就控制了未來;誰控制了現(xiàn)在,就控制了過去”,在人工智能時代,這句話或許應(yīng)該改為:“誰控制了數(shù)據(jù),就控制了過去和未來”。