文|馬 迪
如何去偽存真,真的是每個(gè)時(shí)代每個(gè)社會(huì)都需要思考的終極問題。
都說“耳聽為虛,眼見為實(shí)”,但如果你在國外視頻網(wǎng)站上搜索一下“deepfake”這個(gè)詞,一定會(huì)懷疑自己的眼睛。這種正在迅速風(fēng)行全球的技術(shù)讓人意識(shí)到,除了詐騙電話、PS圖片,現(xiàn)在連視頻都會(huì)“騙人”了,而且?guī)缀跆煲聼o縫。
在AI領(lǐng)域中,有一項(xiàng)非常熱門的分支,叫做機(jī)器學(xué)習(xí)—用程序模擬人類學(xué)習(xí)的過程,可以自我更新、自我進(jìn)化、累積經(jīng)驗(yàn),最終形成自己的某種套路。而在機(jī)器學(xué)習(xí)中,又有一種非常熱門的方式—生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,簡稱GAN)。
2014年,Ian Goodfellow提出了GAN模型,即設(shè)計(jì)兩個(gè)獨(dú)立的機(jī)器學(xué)習(xí)網(wǎng)絡(luò),分別為生成器和判別器。以模擬一張圖片為例,生成器不斷訓(xùn)練,目的是“模仿”出以假亂真的圖;而判別器則不斷檢測,判斷出此圖是真是假。在對(duì)抗過程中,兩者都會(huì)不斷優(yōu)化,提高自己的生成能力和判別能力。這樣“左右互搏”的結(jié)果就是,生成器一定能輸出無限接近于原圖的“贗品”。
2016年,基于GAN的實(shí)時(shí)視頻仿真軟件Face2Face誕生,可以把一個(gè)人的臉部動(dòng)作,無聲無息地轉(zhuǎn)移到另一個(gè)人的臉上。這項(xiàng)技術(shù)的開發(fā)者Justus Thies在當(dāng)時(shí)已經(jīng)意識(shí)到了潛在的危險(xiǎn),他在一次接受采訪的時(shí)候表示:“如果這類視頻軟件得到廣泛應(yīng)用的話,將會(huì)對(duì)社會(huì)造成劇烈的影響—這也是為什么我們不把軟件代碼開源的原因之一?!?/p>
但遺憾的是,這個(gè)潘多拉魔盒已經(jīng)被打開了。超低門檻的工具讓這項(xiàng)技術(shù)走向大眾,一大批用戶加入到這種視頻的制作和分享中,甚至有專門的軟件教人“一鍵換臉”,比如Fakeapp,兩個(gè)月就被下載了12萬次。
在2017年11月前,deepfake每月搜索次數(shù)只有100次左右。到了2018年7月,每月搜索次數(shù)已經(jīng)上升到100萬次-1000萬次。隨著類似于fakeapp這樣工具開始普及,有人開始嘗試通過虛假視頻來造謠、制造恐慌甚至牟利,比如制造假新聞甚至制作用來威脅勒索的假視頻。
另一方面,deepfake視頻的檢測是個(gè)難題。很業(yè)余的“換臉”肉眼可辨—通俗一點(diǎn)講,你會(huì)發(fā)現(xiàn)諸如五官的線條、動(dòng)態(tài)的表情有種僵硬的不協(xié)調(diào)感,仿佛人臉上帶了一個(gè)面具。更細(xì)節(jié)一點(diǎn),還有連接處、陰影位置、服裝飾品不對(duì)稱之類的證據(jù)。但隨著人工智能技術(shù)的發(fā)展,這項(xiàng)技術(shù)必將日趨完善,甚至到達(dá)人工智能也無法區(qū)分真假的程度。如果我們檢測虛假視頻,很快我們就會(huì)被迫懷疑一切所見所聞。
值得慶幸的是,科學(xué)界正在應(yīng)對(duì)這個(gè)問題。由紐約奧爾巴尼大學(xué)的Siwei Lyu領(lǐng)導(dǎo)的一個(gè)團(tuán)隊(duì)發(fā)現(xiàn)了這些偽造視頻的漏洞。Lyu和他的團(tuán)隊(duì)特別關(guān)注一點(diǎn):眨眼。健康的成年人每兩到十秒鐘眨眼一次,而一次眨眼的時(shí)間是十分之一到十分之四秒。由于人像照片通常不會(huì)閉眼,所以假視頻中的人物眨眼的頻率要比真人少得多。因此,辨別真假視頻的原理就是使用機(jī)器學(xué)習(xí)來檢查視頻中睜眼和閉眼,計(jì)算眨眼的總頻率并將其與自然范圍進(jìn)行比較,可以排除高達(dá)95%的假視頻。
全憑眨眼判斷視頻真?zhèn)物@然是不夠的—在偽造視頻的后期處理中,手動(dòng)添加眨眼并不是多大的挑戰(zhàn),Lyu也很清楚這一點(diǎn):“我們正在形成第一道防線,從長遠(yuǎn)來看,這實(shí)際上是制作假視頻和檢測假視頻之間的持續(xù)戰(zhàn)斗。”
另一個(gè)可行的方式是推廣視頻簽名,即所有的視頻都要留下原始hash來證實(shí)真實(shí)性,也許以后,沒有留下hash值的人物視頻都會(huì)被視為虛假,就如同和任何發(fā)來要求借錢的短信同樣的待遇。到時(shí)候,一定會(huì)出現(xiàn)輔助校驗(yàn)的平臺(tái)和工具,幫助人們分辨。
對(duì)中國來說,現(xiàn)在處于一個(gè)很特殊的時(shí)期—大多數(shù)民眾完全不熟悉這種技術(shù),而在技術(shù)圈已經(jīng)可以很低成本地制造這種視頻。像抖音、快手這種自媒體視頻平臺(tái),簡直就是天然適合虛假視頻大規(guī)模傳播的土壤。雖然deepfake視頻還沒在中國的網(wǎng)絡(luò)上大規(guī)模出現(xiàn),但提高警惕總是沒錯(cuò)的:知道視頻可以偽造,以后第一反應(yīng)就應(yīng)該是去探究其來源,如果沒有可靠的官方來源,就應(yīng)該提高警惕,切勿輕易相信和傳播。
如何去偽存真,真的是每個(gè)時(shí)代每個(gè)社會(huì)都需要思考的終極問題。