田少波,田 騫
(武漢理工大學(xué)馬克思主義學(xué)院,湖北武漢430070)
“假新聞”是當(dāng)今社會(huì)的常態(tài),人們雖然不喜假新聞,但也未曾對(duì)其有過(guò)太多關(guān)注,因?yàn)榧傩侣剾](méi)有給人們的個(gè)人生活帶來(lái)真正或是巨大的影響。近期,一款名為ZAO的人工智能換臉APP在國(guó)內(nèi)推出,通過(guò)這款軟件可以把影視劇中演員的臉換成自己的,并生成視頻,還可以通過(guò)社交媒體傳播。這款A(yù)PP大獲成功,在國(guó)內(nèi)迅速流行起來(lái)。然而,人們?cè)诳駳g過(guò)后也發(fā)現(xiàn)了這款A(yù)PP背后隱藏的巨大問(wèn)題。很快,相關(guān)公司因?yàn)榫W(wǎng)絡(luò)數(shù)據(jù)安全問(wèn)題被工信部約談。這款產(chǎn)品所依托的一項(xiàng)AI技術(shù)——Deepfake技術(shù)引起了人們的廣泛關(guān)注。深度偽造技術(shù)是什么,它對(duì)人們的生活帶來(lái)了哪些影響,如何看待和解決它所產(chǎn)生的影響?這都是亟待解決的重要問(wèn)題。
深度偽造(Deepfake)是一個(gè)組合的新單詞,它來(lái)源于“深度學(xué)習(xí)(Deep learning)”和“偽造(fake)”。是一種偽造的鏡頭、圖像、音頻或視頻。其操作過(guò)程為將圖像、視頻、音頻片段進(jìn)行合并、替換或疊加,從而創(chuàng)建出作者需要的看起來(lái)是真實(shí)的,但事實(shí)上從未說(shuō)過(guò)和做過(guò)的假的音頻、視頻等。這一類(lèi)視頻、音頻可以看作是人工智能、深度學(xué)習(xí)技術(shù)或機(jī)器學(xué)習(xí)應(yīng)用等技術(shù)的產(chǎn)品。深度偽造技術(shù)具有很強(qiáng)的商業(yè)價(jià)值,如在影視行業(yè),對(duì)深度偽造技術(shù)的最初運(yùn)用應(yīng)當(dāng)源于好萊塢,好萊塢將其運(yùn)用于電影制作之中,它能夠塑造科幻形象、制作人臉特效以及完成演員無(wú)法完成的特技動(dòng)作。比如《星球大戰(zhàn)》中凱麗·費(fèi)雪的影像。不過(guò),在當(dāng)時(shí)這種技術(shù)并不叫作深度偽造技術(shù),而是“圖像合成”。長(zhǎng)期以來(lái),人們一直在用不同的工具進(jìn)行合成,如19世紀(jì)60年代一張著名的照片中,林肯的頭部被換到了奴隸制倡導(dǎo)者卡爾霍恩的身體上。這種合成圖像的制作難度很大,且制作金額龐大,因此在當(dāng)時(shí)沒(méi)有被廣泛運(yùn)用。而隨著人工智能等具有時(shí)代特色的技術(shù)不斷涌現(xiàn),圖像合成技術(shù)變得十分容易。深度偽造技術(shù)應(yīng)運(yùn)而生,且不再需要花費(fèi)大量的金錢(qián),或是具備高超的技能,深度偽造技術(shù)變得平民化,每個(gè)人都可以輕易制作出深度偽造產(chǎn)品。在深度偽造技術(shù)被濫用之前,它的應(yīng)用范圍和目的都要單純?cè)S多,比如用來(lái)再現(xiàn)影視作品中已逝的人物。在日本,一家人工智能(AI)公司Data Grid開(kāi)發(fā)了一種AI應(yīng)用,它可以自動(dòng)生成不存在的人的全身模型,并可以將其應(yīng)用到時(shí)尚和服裝行業(yè)。此外,它在娛樂(lè)、教育、生物醫(yī)學(xué)等方面也提供了益處,如博物館應(yīng)用、醫(yī)學(xué)影像等。不可否認(rèn),深度偽造技術(shù)給人們的生活帶來(lái)了許多好處,未來(lái)還可能會(huì)造福更多領(lǐng)域,但這一切都有一個(gè)必要的前提,即合法。但就目前而言,深度偽造技術(shù)在應(yīng)用方向上出現(xiàn)了問(wèn)題。Philip Fried在他的詩(shī)集中這樣形容Deepfake:AI輔助的面部交換應(yīng)用程序,可將某人的臉龐放在別人的身體上……我們總統(tǒng)的頭自然地坐在喬治·華盛頓的身上,沒(méi)有穿著富麗堂皇的長(zhǎng)袍,而是穿著裝飾著鷹頭紐扣的西裝[1]。
深度偽造在技術(shù)方面給人們帶來(lái)了許多便利,但深度偽造不僅只是技術(shù)問(wèn)題,更關(guān)乎安全、信任和美德問(wèn)題,不論是對(duì)個(gè)人隱私、網(wǎng)絡(luò)、社會(huì)或是國(guó)家而言。
深度偽造技術(shù)嚴(yán)重危害了個(gè)人隱私安全。一家名為Deep Trace Labs的公司發(fā)現(xiàn),目前網(wǎng)上有14 678個(gè)Deepfake視頻,其中96%是色情視頻,并且大部分都是著名女演員的臉,被轉(zhuǎn)移到色情明星的身體上。不難想象,隨著“ZAO”“一鍵脫衣”等深度偽造技術(shù)APP的應(yīng)用,出于惡搞、報(bào)復(fù)等目的,普通人的臉也將出現(xiàn)在類(lèi)似的色情視頻中。印度作者Rana Ayyub在發(fā)表了一篇具有挑釁性的報(bào)道后,網(wǎng)絡(luò)上就開(kāi)始流傳出一段以她為主角的色情視頻,這段視頻被成千上萬(wàn)的人傳播,而后,她的家庭住址等個(gè)人信息被曝光在網(wǎng)絡(luò)上,收到了大量的強(qiáng)奸威脅,這對(duì)她的生活和工作都造成了巨大影響。而這段色情視頻就是被人利用深度偽造技術(shù)合成的。所以,隨著該技術(shù)的普遍化,每一個(gè)人一覺(jué)醒來(lái)都有可能發(fā)現(xiàn)自己的臉隨著某段深度偽造的視頻傳遍了整個(gè)網(wǎng)絡(luò),名譽(yù)將嚴(yán)重受損,個(gè)人隱私也隨時(shí)可能受到侵犯,這會(huì)毀掉一個(gè)人的工作、生活,甚至生命。
深度偽造技術(shù)同樣會(huì)嚴(yán)重影響國(guó)家安全和公共安全。2019年美國(guó)眾議院情報(bào)委員會(huì)召開(kāi)關(guān)于人工智能深度偽造的聽(tīng)證會(huì),美國(guó)外交政策研究所研究員Watts指出:深度偽造技術(shù)可以讓虛假的信息以高度可信的方式呈現(xiàn)給社會(huì)公眾,從而操控人們情緒,引發(fā)社會(huì)廣泛的不信任。且很有可能被競(jìng)爭(zhēng)對(duì)手利用,成為進(jìn)行詆毀、煽動(dòng)等行為的工具。學(xué)者Tim在2018年就討論了使用機(jī)器學(xué)習(xí)軟件生成的假冒視頻可能破壞2018年美國(guó)的政治競(jìng)選活動(dòng)[2]。還有一些學(xué)者認(rèn)為深度偽造技術(shù)會(huì)被應(yīng)用到2020的美國(guó)大選上,通過(guò)深度偽造技術(shù)來(lái)夸大候選人資格、歪曲事實(shí)來(lái)傷害對(duì)方候選人、干擾個(gè)人行使其選舉權(quán)的自主權(quán)等。此外,深度偽造技術(shù)還可能對(duì)公共安全產(chǎn)生一定的影響。2018年,印度有20人因?yàn)樵诰W(wǎng)絡(luò)上被人謠傳綁架小孩或涉及其他罪案而被暴力打死。在國(guó)內(nèi)同樣也可能產(chǎn)生由于深度偽造技術(shù)帶來(lái)的公共安全問(wèn)題,其主要表現(xiàn)為對(duì)新聞媒體的沖擊,利用深度偽造技術(shù)篡改的人物形象、口型真假難辨,如果有人利用新聞聯(lián)播的視頻,合成一段假新聞,就會(huì)引起大眾的恐慌,影響社會(huì)穩(wěn)定。
除了社會(huì)方面的安全問(wèn)題,深度偽造技術(shù)的不控制發(fā)展還可能影響國(guó)際關(guān)系。Robert和Danielle認(rèn)為數(shù)字音頻和視頻編輯技術(shù)的發(fā)展,特別是深度偽造的東西或者數(shù)字操縱的錄音帶或錄像帶會(huì)對(duì)國(guó)際關(guān)系造成危險(xiǎn),因?yàn)檫@些技術(shù)會(huì)顯示出從未發(fā)生過(guò)的事件[3]。2016年美國(guó)總統(tǒng)大選佛羅里達(dá)州候選人盧比奧就曾將Deepfake與核武器相提并論[4]?;蛟S現(xiàn)狀并沒(méi)有像盧比奧說(shuō)得這樣夸張,但事實(shí)上,深度偽造技術(shù)的發(fā)展,很有可能被不法分子利用,用來(lái)發(fā)表極端主義言論、散播虛假戰(zhàn)爭(zhēng)消息、煽動(dòng)暴力等影響國(guó)家與國(guó)家之間的關(guān)系,從而引起全球戰(zhàn)爭(zhēng)。
Deepfake視頻最有害的后果是:新聞報(bào)道中公眾信任度的進(jìn)一步削弱。以往人們往往是通過(guò)新聞媒體獲取信息,對(duì)權(quán)威媒體有著很高的信任度,但隨著“假新聞”的出現(xiàn),人們開(kāi)始對(duì)部分新聞報(bào)道產(chǎn)生懷疑,開(kāi)始有選擇的相信。而深度偽造技術(shù)導(dǎo)致人們對(duì)媒體報(bào)道的不信任程度加劇。因?yàn)樯疃葌卧旒夹g(shù)導(dǎo)致眼見(jiàn)不為實(shí),耳聽(tīng)不為真。一段奧巴馬嘲諷特朗普的視頻曾流傳網(wǎng)絡(luò),但事實(shí)上,那段視頻是利用深度偽造技術(shù)把奧巴馬的臉覆蓋在了好萊塢導(dǎo)演Jordan Peele的臉上。在西班牙,犯罪分子利用深度偽造技術(shù)來(lái)模仿某公司CEO的聲音,對(duì)公司員工進(jìn)行詐騙,成功詐騙該公司22萬(wàn)歐元……世界各地太多的案例使得人們無(wú)法再輕易相信他們所看到、所聽(tīng)到的一切信息。這與馬里蘭大學(xué)法學(xué)教授Citron在關(guān)于人工智能深度偽造的聽(tīng)證會(huì)上提出的“信任衰退效應(yīng)”不謀而合。
其次,該技術(shù)的存在會(huì)不利地影響其在法庭上的證明價(jià)值[5]。在法庭上,視頻、音頻等常常被作為有效證據(jù)。但在深度偽造技術(shù)盛行的現(xiàn)在,視頻、音頻是否還能作為有效的證據(jù)加以支撐?如何判斷安防監(jiān)控下的視頻說(shuō)的內(nèi)容,做的行為具有可信度?以往都是銷(xiāo)毀證據(jù),把有變成無(wú),這只是為查案增加了些許難度。而深度偽造則是“無(wú)中生有”,把證據(jù)送到警察面前、法庭之上,這類(lèi)“證據(jù)”就很可能影響法官的判斷和整個(gè)案件的走向。另一方面,深度偽造技術(shù)可能會(huì)成為犯罪者擺脫罪行的工具。即對(duì)于不利于自己的信息,即使該信息沒(méi)有經(jīng)過(guò)任何加工處理,犯罪者仍可以宣稱(chēng)該信息是偽造的,從而混淆視聽(tīng)。
深度偽造技術(shù)的不斷進(jìn)步,有可能使人喪失勤奮、誠(chéng)信、自信等美德。
以?shī)蕵?lè)行業(yè)為例。一位演員不再需要基本的演員素養(yǎng),不需要背臺(tái)詞,琢磨演技,只需要一張漂亮的臉蛋,再利用深度偽造技術(shù)等AI技術(shù)進(jìn)行視頻、音頻的合成,就可以完成大部分操作。更甚者可以直接由替身演員完成整部戲,最后用深度偽造技術(shù)把當(dāng)紅小生或當(dāng)紅花旦的臉替換上去。這從商業(yè)角度來(lái)看,似乎實(shí)現(xiàn)了演員和出品人的雙贏。但實(shí)際上這是出品方對(duì)觀眾的不尊重,和演員沒(méi)有職業(yè)操守的表現(xiàn)。這會(huì)使得娛樂(lè)行業(yè)不良風(fēng)氣盛行,不利于該行業(yè)的發(fā)展,也不利于社會(huì)勤奮美德的傳承。同時(shí),對(duì)于即將加入該行業(yè)、或還沒(méi)有明確目標(biāo)的人而言,這種風(fēng)氣就會(huì)使得他們不再為了夢(mèng)想努力豐富自身,而是選擇投機(jī)取巧,比如去整容。選擇用一張漂亮的臉去敲開(kāi)夢(mèng)想的門(mén),而不是用自己的專(zhuān)業(yè)性,這是很可怕的現(xiàn)象。此外,這種沒(méi)有職業(yè)操守的行為會(huì)助長(zhǎng)路人的不滿。一方面,行業(yè)資源有限,十分努力但長(zhǎng)得一般的人無(wú)法獲得好的資源,會(huì)對(duì)自己產(chǎn)生懷疑,會(huì)對(duì)該行業(yè)產(chǎn)生厭惡等心理。沒(méi)有進(jìn)入該行業(yè),但長(zhǎng)相普通的人也會(huì)對(duì)娛樂(lè)明星產(chǎn)生怨恨等心理,認(rèn)為其沒(méi)有資格擁有大筆的社會(huì)財(cái)富;另一方面,對(duì)于普通觀眾而言,粗制濫造的作品浪費(fèi)了他們的情感、金錢(qián)等。
誠(chéng)信問(wèn)題主要體現(xiàn)在兩方面。一方面,深度偽造技術(shù)的發(fā)展本身使得人們的誠(chéng)信度降低,不論是出于主動(dòng)或被動(dòng),都有可能傳播假的信息;另一方面,深度偽造技術(shù)的發(fā)展使得人們不再注重自己的言行,會(huì)逃避自己犯的錯(cuò)誤。如在安全問(wèn)題中提及的,犯罪者很可能不承認(rèn)視頻或音頻的真實(shí)性,宣稱(chēng)自己是無(wú)辜的,即使該視頻或音頻沒(méi)有受到任何處理。最后,深度偽造技術(shù)還會(huì)對(duì)人們的自信感產(chǎn)生影響。在網(wǎng)絡(luò)上,不少人通過(guò)合成各色的視頻來(lái)吸引觀眾,視頻越搞笑、越瘋狂,就有越來(lái)越多的人給UP主(upload的簡(jiǎn)稱(chēng),指在網(wǎng)站上上傳視頻、音頻或其他資源的人)點(diǎn)贊、打賞。UP主從大量的粉絲中獲得金錢(qián)、自信和成就。然而這種自信和成就是建立在對(duì)他人音視頻的剪輯上,是對(duì)他人進(jìn)行玩笑的基礎(chǔ)上。這或許是現(xiàn)代職業(yè)的一種成功,但也是對(duì)他人的不尊重。
人類(lèi)在改造外部對(duì)象時(shí)往往會(huì)遇到力不能及的情況,于是人們開(kāi)始試圖制造一些工具、運(yùn)用一些技術(shù),來(lái)增強(qiáng)自身的某種能力,或更直觀地來(lái)說(shuō),延伸人類(lèi)的某種人體器官。如為了縮短在路程上花費(fèi)的時(shí)間,從利用馬匹、騾子等動(dòng)物,到制造出可代替雙腿、動(dòng)物的汽車(chē)車(chē)輪,解放了人的雙腳。同樣的,錘子、機(jī)器都可以視為雙手的延伸,解放了人的雙手。深度偽造技術(shù)似乎也一樣,解放了人的臉,甚至整個(gè)人體,即一個(gè)人根本無(wú)須真的出現(xiàn),只要有他的照片,或一些視頻,該技術(shù)就能讓其出現(xiàn)在任何需要他出現(xiàn)的地方,做著任何需要他做的事情,發(fā)表著任何需要他說(shuō)出的言論。這真的是人類(lèi)通過(guò)“延伸”實(shí)現(xiàn)對(duì)外部對(duì)象的改造嗎?這種改造是否真的有益于人類(lèi),是否能帶給人類(lèi)“好的生活”?倘若改造帶來(lái)了不好的“后果”,人類(lèi)又當(dāng)如何應(yīng)對(duì),是否該直接放棄技術(shù)的研發(fā)?這些問(wèn)題都值得深究。
深度偽造技術(shù)是對(duì)人體器官的有益延伸嗎?從最初來(lái)看,是的。當(dāng)深度偽造技術(shù)還不被稱(chēng)作深度偽造技術(shù)時(shí),它被運(yùn)用于影視業(yè),讓導(dǎo)演大腦中天馬行空的想象得以實(shí)現(xiàn),是人類(lèi)想象力、創(chuàng)造力的延伸。但隨著技術(shù)的快速發(fā)展,應(yīng)用門(mén)檻的降低,該技術(shù)被許多人濫用,如A將明星B的臉安到色情視頻當(dāng)中,A的想法得到了延伸,但對(duì)于B而言,她是被迫延伸,更像是技術(shù)對(duì)人類(lèi)的改造。這種被迫性,這種本末倒置的改造,似乎都預(yù)示了深度偽造技術(shù)相比帶來(lái)“好的生活”,可能會(huì)更多地帶來(lái)“不好的生活”。這種“不好的生活”也就是上文中提及的安全問(wèn)題、信任問(wèn)題和美德問(wèn)題。從技術(shù)后果來(lái)看,一方面,深度偽造技術(shù)確實(shí)在許多方面為人類(lèi)提供了便利,但這種便利性是可以用其他技術(shù)來(lái)替代的。另一方面,它也給人類(lèi)、社會(huì)帶來(lái)許多不確定性,如該技術(shù)被人用作混淆總統(tǒng)的言行,這就意味著深度偽造技術(shù)所帶來(lái)的安全問(wèn)題不再只是存在于個(gè)人中,也對(duì)國(guó)家安全造成了威脅。而技術(shù)造成的問(wèn)題不應(yīng)該比技術(shù)所解決的問(wèn)題更大[6]。由此,基于倫理原則中的安全原則,不論何時(shí)、何地、何人、何種理由,都不能利用深度偽造技術(shù)對(duì)任何人的身體、精神或其他方面造成傷害。該技術(shù)的應(yīng)用范圍應(yīng)為:個(gè)人只能應(yīng)用于個(gè)人或已告知人的視頻或音頻制作,商業(yè)應(yīng)用只能應(yīng)用于需要運(yùn)用該技術(shù)的領(lǐng)域發(fā)揮積極作用,不得應(yīng)用于惡搞、虛假信息等。同時(shí),從預(yù)防原則來(lái)看,要制定切實(shí)可行的安全防范措施來(lái)督促深度偽造技術(shù)的應(yīng)用,在音視頻發(fā)布之前,對(duì)于音視頻的內(nèi)容要加以審核,同時(shí)需主動(dòng)告知音視頻中涉及的人物,并獲得其許可。對(duì)于深度偽造技術(shù)實(shí)際運(yùn)用的過(guò)程中,應(yīng)當(dāng)堅(jiān)持倫理優(yōu)先于技術(shù)的原則。如在人工智能領(lǐng)域,學(xué)者就指出“應(yīng)該始終把人工智能對(duì)社會(huì)負(fù)責(zé)的要求放在技術(shù)進(jìn)步的沖動(dòng)之上[7]”。同理,深度偽造技術(shù)也應(yīng)如人工智能一樣,其社會(huì)倫理問(wèn)題思考應(yīng)當(dāng)優(yōu)先于技術(shù)的發(fā)展。
不難看出,深度偽造技術(shù)給人們的生活帶來(lái)了許多困擾,人們渴望避免或減少技術(shù)應(yīng)用帶來(lái)的負(fù)面影響。如何減少負(fù)面效果?“亡羊補(bǔ)牢”是遠(yuǎn)遠(yuǎn)不夠的,技術(shù)倫理的新分支預(yù)判性技術(shù)倫理或許能有所幫助。在人工智能領(lǐng)域,學(xué)者們普遍認(rèn)識(shí)到:“現(xiàn)階段探討人工智能倫理,主要是指加強(qiáng)人工智能設(shè)計(jì)倫理,旨在保證優(yōu)先發(fā)展造福人類(lèi)的人工智能,避免設(shè)計(jì)和制造出不符合人類(lèi)價(jià)值和利益的人工智能[8]。”這一認(rèn)識(shí)也同樣適用于深度偽造技術(shù)。當(dāng)前科技快速發(fā)展,帶給人類(lèi)巨大利益的同時(shí)也帶來(lái)許多倫理問(wèn)題,如何解決這些倫理問(wèn)題?關(guān)鍵的一步就在于避免設(shè)計(jì)和推行違背人類(lèi)價(jià)值觀和人類(lèi)利益的技術(shù)。在技術(shù)得到實(shí)際運(yùn)用前,如何知曉該技術(shù)是否存在倫理問(wèn)題?一項(xiàng)技術(shù)的發(fā)展歷程包括研發(fā)、引入、擴(kuò)張、權(quán)威、衰落五個(gè)階段,其中研發(fā)階段是技術(shù)發(fā)展的最初階段,因此我們需要從技術(shù)的最初階段入手,對(duì)該技術(shù)未來(lái)有可能出現(xiàn)的倫理問(wèn)題進(jìn)行預(yù)判,才能實(shí)現(xiàn)技術(shù)符合人類(lèi)利益的最大化,滿足人們要求減少或避免技術(shù)負(fù)面影響的訴求。深度偽造技術(shù)的發(fā)展不可逆,但我們可以從研發(fā)階段入手,不研發(fā)不利于人類(lèi)發(fā)展的以深度偽造技術(shù)為基礎(chǔ)的產(chǎn)品,即可以研發(fā)該技術(shù)于電影行業(yè)的應(yīng)用,不研發(fā)“ZAO”“一鍵脫衣”等產(chǎn)品。
基于技術(shù)發(fā)展的爭(zhēng)論,往往會(huì)出現(xiàn)兩大陣營(yíng),即技術(shù)進(jìn)步支持者和技術(shù)保守主義者,而隨著國(guó)內(nèi)外各種深度偽造事件的發(fā)生,學(xué)者們對(duì)深度偽造技術(shù)的發(fā)展更多是持以否定態(tài)度。那么是否意味著應(yīng)該暫停、或者放棄這種技術(shù)?赫費(fèi)曾說(shuō):“應(yīng)該發(fā)展一種新型的意義能力,那種未來(lái)能力是對(duì)新的、使其他意義遠(yuǎn)景保持開(kāi)放的能力[9]?!币簿褪钦f(shuō),不能因?yàn)槟撤N技術(shù)的弊端而輕易放棄它,要尋求新的人與技術(shù)的關(guān)系,尤其在充滿未知的時(shí)代,要具備與風(fēng)險(xiǎn)共存的能力。另一方面,我們也不能無(wú)限制地發(fā)展技術(shù)??档抡f(shuō)要有使用理性的勇氣和膽量,因此,要用批判精神去衡量技術(shù)的限度在哪里。即哪些是我們能夠超越的界限,哪些是我們不能逾越的?;蛟S我們可以用尤納斯的“審慎”來(lái)回答,但這里的審慎不再是基于一種恐懼,恐懼只會(huì)阻礙技術(shù)的發(fā)展和創(chuàng)新。因此,我們需要賦予“審慎”新的時(shí)代含義,即對(duì)技術(shù)的力量進(jìn)行正確的自我評(píng)估,使其行為一直保持在合理的限度內(nèi),不盲目信仰,不斷自我完善和發(fā)展。
深度偽造技術(shù)正在平民化、大眾化,深度偽造技術(shù)的門(mén)檻越來(lái)越低,價(jià)格越來(lái)越便宜,只要有網(wǎng)絡(luò)、無(wú)線網(wǎng)絡(luò)布局的地方,深度偽造產(chǎn)品就會(huì)隨著其網(wǎng)絡(luò)傳播速度,傳遍人類(lèi)社會(huì)的每一個(gè)角落。因此,必須加快“反深度偽造”技術(shù)的研究。
為防止深度偽造音視頻的傳播,需要在傳播渠道的前端進(jìn)行部署,對(duì)其進(jìn)行審核,禁止其發(fā)布。楊子江博士建議可建立全網(wǎng)“數(shù)字水印或簽名”系統(tǒng),所有播發(fā)的視頻、圖片等在播發(fā)前,需打上數(shù)字水印或簽名,如果被偽造篡改,這些印記就會(huì)被破壞,從而立刻被標(biāo)注為虛假信息。
網(wǎng)絡(luò)傳播具有太多不確定性,對(duì)于一些逃脫了前期識(shí)別的深度偽造音視頻,或是已經(jīng)存在的深度偽造音視頻,需要一些技術(shù)來(lái)對(duì)其進(jìn)行甄別。Haya R.和Khaled提出了“智能合約”來(lái)應(yīng)對(duì)視頻中的偽造內(nèi)容,即不斷向前跟蹤數(shù)據(jù)內(nèi)容的來(lái)源和歷史,直至發(fā)現(xiàn)它的最原始來(lái)源,若原始來(lái)源方是可信任的、信譽(yù)良好的,則判定其內(nèi)容是真實(shí)的。同時(shí)他們表示這一技術(shù)不僅適用于視頻內(nèi)容,也適用于其他任何形式的數(shù)學(xué)內(nèi)容[10]。美國(guó)國(guó)防高級(jí)研究計(jì)劃局(DARPA)設(shè)立了“媒體鑒證”項(xiàng)目,以開(kāi)發(fā)能識(shí)別深度偽造視頻的工具。該項(xiàng)目的呂思偉教授團(tuán)隊(duì)成功開(kāi)發(fā)了一種非常簡(jiǎn)單的識(shí)別技術(shù),即深度偽造技術(shù)生成的人臉很少眨眼,一旦眨眼,眼球運(yùn)動(dòng)則很不自然。該項(xiàng)目的其他團(tuán)隊(duì)也在捕捉類(lèi)似技巧以鑒別深度偽造視頻[11]。DARPA還計(jì)劃投入大量資源來(lái)構(gòu)建具有常識(shí)推理和邏輯的人工智能機(jī)器[12]。無(wú)獨(dú)有偶,美國(guó)南加州大學(xué)和加州大學(xué)伯克利分校的研究人員合作研發(fā)出了新AI工具,該工具也通過(guò)每個(gè)人講話或做表情時(shí)面部各器官的特定細(xì)節(jié)動(dòng)作,來(lái)識(shí)別深度偽造虛假視頻[13]。但也有學(xué)者表示,目前科技對(duì)面部有著充分的了解,通過(guò)觀察身體部分的協(xié)調(diào)性等更容易分辨真假。2018年,由德國(guó)海德堡大學(xué)圖像處理合作實(shí)驗(yàn)室(HCI)和科學(xué)計(jì)算跨學(xué)科中心(IWR)的計(jì)算機(jī)視覺(jué)教授比約恩·奧默爾(Bjorn Ommer)博士領(lǐng)導(dǎo)的研究小組,發(fā)表了一篇關(guān)于教授機(jī)器以逼真形態(tài)渲染人類(lèi)身體運(yùn)動(dòng)的論文。奧默爾指出,由于數(shù)碼相機(jī)或智能手機(jī)中面部檢測(cè)技術(shù)的應(yīng)用,為深度學(xué)習(xí)研究提供了大量的數(shù)據(jù),所以對(duì)臉部的研究已經(jīng)到了瓶頸階段。由此,基于大量的數(shù)據(jù)集組裝、數(shù)據(jù)整理和獲取面部圖像的換臉技術(shù)已經(jīng)爐火純青,很難分辨真假了。慶幸的是,奧默爾同樣也表示說(shuō),臉部研究已經(jīng)十分透徹,但身體有更多的可變性,處理起來(lái)也更復(fù)雜。由此,還有可能從身體部分、整體協(xié)調(diào)性來(lái)分辨真假。但事實(shí)上,這對(duì)普通人來(lái)說(shuō),進(jìn)行細(xì)微的分辨相當(dāng)困難。
技術(shù)的發(fā)展是為了更好地利用和改造自然,從而造福人類(lèi)。發(fā)展技術(shù)的同時(shí)堅(jiān)持一定的倫理原則,才能為技術(shù)的正確發(fā)展保駕護(hù)航。從后果論角度進(jìn)行倫理思考是十分有必要的,必須要利用實(shí)踐推理能力,預(yù)見(jiàn)一項(xiàng)技術(shù)在未來(lái)應(yīng)用中有可能帶來(lái)哪些技術(shù)和倫理問(wèn)題。其次,要能夠根據(jù)未來(lái)應(yīng)用中可能出現(xiàn)的技術(shù)倫理問(wèn)題的預(yù)見(jiàn)來(lái)決定是否繼續(xù)該技術(shù)的研究,或調(diào)整該技術(shù)。從“好的生活”角度出發(fā),以深度偽造技術(shù)為代表的技術(shù)應(yīng)有一些評(píng)估標(biāo)準(zhǔn),如技術(shù)造成的問(wèn)題不應(yīng)該比解決的問(wèn)題更大;技術(shù)應(yīng)為人類(lèi)創(chuàng)造更多的選擇,而不是剝奪人類(lèi)的選擇,或是讓人類(lèi)被迫選擇;技術(shù)應(yīng)具備和人類(lèi)一致的價(jià)值觀,符合人類(lèi)利益。除此之外,正義、義務(wù)等原則也十分重要。正義能揭示利益和風(fēng)險(xiǎn)的分配是否合理,義務(wù)能揭示該技術(shù)對(duì)權(quán)利和義務(wù)的影響[14]。
社會(huì)心理學(xué)認(rèn)為,我們接觸到符合我們世界觀的信息越多,我們?cè)絻A向認(rèn)為該信息是真的。試想一下,當(dāng)一則深度偽造信息出現(xiàn)在我們眼前,而該信息和我們認(rèn)知中的信息相當(dāng)符合,那么我們就很難去懷疑它。解決這一問(wèn)題的有效方案就是建立批判性思維。在以往的案例中,假新聞之所以能夠流傳甚廣,是因?yàn)樗@得了主流媒體的轉(zhuǎn)發(fā),而人們對(duì)主流媒體擁有較高的信任度,因而認(rèn)為該信息是真的。在當(dāng)前AI技術(shù)肆虐的現(xiàn)在,即使是主流輿論,我們也不能盲目相信,而是應(yīng)該多質(zhì)疑,經(jīng)過(guò)多方面印證后,再做出自己的判斷。同時(shí),還要認(rèn)識(shí)到,深度偽造技術(shù)很可能被犯罪者用來(lái)逃脫罪行,因此,不能聽(tīng)取犯罪者的片面之詞,出于同情等因素而相信罪犯。
從倫理學(xué)角度來(lái)看,法律手段或許并不能歸為一種倫理對(duì)策。但對(duì)于一項(xiàng)技術(shù)的發(fā)展來(lái)說(shuō),法律手段必不可少。對(duì)于技術(shù)制約技術(shù)解決不了的問(wèn)題,或是借由技術(shù)出現(xiàn)的錯(cuò)誤舉動(dòng),就需要采取更強(qiáng)硬的法律監(jiān)管手段。
深度偽造技術(shù)是AI技術(shù)的一種,其他AI技術(shù)可能也存在著潛在危機(jī),其表現(xiàn)出一些令人不安的范式轉(zhuǎn)變[15]。因此,在每一件AI產(chǎn)品,如各色的APP發(fā)布和投入市場(chǎng)之前,必須進(jìn)行倫理和法律評(píng)估。歐盟于2018年就頒布實(shí)施了通用數(shù)據(jù)保護(hù)條例(GDPR),以此將個(gè)人數(shù)據(jù)置于現(xiàn)行的歐盟法律的保護(hù)之下。美國(guó)加州也立法,將制作、散播“深度偽造”(deepfake)視頻列入非法行為,以防止錯(cuò)誤信息對(duì)選舉產(chǎn)生影響。由此,國(guó)家必須制定相應(yīng)的法律法規(guī),一方面對(duì)人們的權(quán)益,如隱私安全進(jìn)行有效保護(hù),另一方面對(duì)AI產(chǎn)品的發(fā)布和投入進(jìn)行嚴(yán)格審核和把控,對(duì)AI產(chǎn)品可能造成的倫理和實(shí)際傷害進(jìn)行評(píng)估,并針對(duì)性地逐條制定法規(guī)。同時(shí),人工智能等相關(guān)倫理委員也要充分發(fā)揮自己的作用,對(duì)技術(shù)公司發(fā)布的AI產(chǎn)品進(jìn)行審查,該委員會(huì)應(yīng)由多方面代表組成,如工程師、律師、社會(huì)學(xué)家等等。此外,AI技術(shù)公司自身也要及時(shí)自查,不能只顧眼前效益,而忽略了技術(shù)背后可能帶來(lái)的社會(huì)問(wèn)題。
對(duì)深度偽造技術(shù)為代表的AI技術(shù)的科技倫理和法律的審查,不是阻礙和桎梏科技的發(fā)展,而是要審視技術(shù)背后的責(zé)任和意圖,以及運(yùn)用技術(shù)實(shí)施的行為本身[16],為科技創(chuàng)新劃定正確的航道和必須遵守的價(jià)值底線。同時(shí),不能向人們隱瞞這些技術(shù),必須將技術(shù)展示給人們,讓人們保持警惕性,這才是符合道德的做法。只有這樣才會(huì)真正促進(jìn)科技發(fā)展,共創(chuàng)文明社會(huì)。
目前,深度偽造技術(shù)在國(guó)內(nèi)還沒(méi)有被濫用,但從該技術(shù)在國(guó)外的應(yīng)用情況來(lái)看,深度偽造技術(shù)已經(jīng)相當(dāng)成熟,并且嚴(yán)重影響了國(guó)外的社會(huì)現(xiàn)狀。我國(guó)是人工智能發(fā)展大國(guó),不可避免地要面對(duì)人工智能發(fā)展所帶來(lái)的各種問(wèn)題。隨著我國(guó)國(guó)內(nèi)以ZAO為代表的相關(guān)APP的推出,也代表著我國(guó)即將面臨深度偽造技術(shù)的巨大沖擊,我國(guó)必須即刻行動(dòng)起來(lái),從國(guó)外的案例中汲取經(jīng)驗(yàn),全面審視深度偽造技術(shù)在應(yīng)用中所產(chǎn)生的一系列倫理問(wèn)題,結(jié)合我國(guó)的經(jīng)濟(jì)、政治、文化背景,提出切實(shí)可行的倫理原則、法律法規(guī),以及其他措施,為AI技術(shù)的發(fā)展和管理提供有效的依據(jù),避免嚴(yán)重后果的產(chǎn)生。