5月20日,好萊塢知名影星斯嘉麗·約翰遜發(fā)布聲明稱,盡管拒絕了向OpenAI(美國(guó)人工智能研究公司)提供聲音的邀約,但ChatGPT最新發(fā)布大模型GPT-4o仍然使用了高度類似自己聲音的Sky語音。
“在這個(gè)我們都在努力應(yīng)對(duì)深度偽造,保護(hù)自身形象、作品和身份的時(shí)代,我認(rèn)為,這些問題需要得到絕對(duì)的明確。我期待通過透明度和立法來解決這些問題,以確保個(gè)人權(quán)利得到保護(hù)?!彼辜嘻惐硎?。
近日曝光的韓國(guó)第二起N號(hào)房事件中,61位女性在該事件中成為受害者,2名主犯涉嫌深度偽造首爾大學(xué)女生照片,大肆傳播不雅照片及視頻。
4月,英國(guó)司法部宣布:根據(jù)最新刑事司法修正案,未經(jīng)他人同意,利用AI制作Deepfake(深度偽造,簡(jiǎn)稱深偽)色情圖像,且廣泛發(fā)布的人將被定罪。英國(guó)成為全球第一個(gè)刑法規(guī)制深度偽造濫用的國(guó)家。
Deepfake一詞是由Deep learning (深度學(xué)習(xí))和fake(偽造)而成?;谌斯ぶ悄艿娜梭w圖像合成技術(shù)的應(yīng)用,將現(xiàn)有的視頻圖像音頻疊加到目標(biāo)視頻圖像音頻上,真假莫辨。
2017年11月2日,社交新聞網(wǎng)站Reddit用戶Deepfakes創(chuàng)立了一個(gè)好萊塢女演員色情換臉的子論壇。影片使用開放源代碼制作,只要具備基本知識(shí),任何人都能效法。此后,Deepfake如脫韁野馬,一發(fā)不可收拾。學(xué)界公認(rèn)2017年是為深度偽造元年。
作家妮娜·席克在《深度偽造:即將到來的信息末日危機(jī)》一書中,采訪了當(dāng)初獨(dú)家報(bào)道該事件的記者薩曼莎·科爾。
“那天,我在Reddit網(wǎng)站閑逛,無意間發(fā)現(xiàn)Deepfakes登上了熱門版。事情就發(fā)生在我眼前。”薩曼莎深感震驚,“假如連一個(gè)Reddit使用者都做得到,又要如何阻止普通人們做出同樣的事?”因此,她第一時(shí)間聯(lián)系上Deepfakes,對(duì)方同意匿名接受訪談。
Deepfakes自稱不是工程師,也不是技術(shù)專家,只是“對(duì)機(jī)器學(xué)習(xí)感興趣的人”。無人知曉他的真實(shí)身份,也不知道他從事什么工作。
“我偶然發(fā)現(xiàn)了一種聰明的方法,利用開源AI工具,將女明星的臉置換到色情片演員臉上?!盌eepfakes說。
站在AI肩膀上,他以一己之力創(chuàng)造了自己的弗蘭肯斯坦:電影《神奇女俠》主角好萊塢女演員蓋兒·加朵(Gal Gadot)的亂倫色情片。影片鏡頭中出現(xiàn)的不是她本人的身體,也不是她的臉,只是移花接木換臉而已,那些加工出來的色情片看起來就像由加朵本人演出的,影片在網(wǎng)絡(luò)上不脛而走、大肆傳播。
他究竟是如何成功做到的?通過Google圖片檢索圖片視頻庫(kù)和油管,Deepfakes建立了一個(gè)龐大的加朵數(shù)據(jù)集,訓(xùn)練AI算法,讓它逐漸學(xué)會(huì)如何置換人臉。沒有細(xì)看的話,的確會(huì)相信片中女主角就是加朵。要是觀眾有耐心,仔細(xì)觀察,不出幾秒也能察覺事有蹊蹺——加朵的口型有時(shí)并未同步。
薩曼莎隨即發(fā)文,向全世界揭發(fā)色情片深度造假,引發(fā)公憤。Reddit以“包含未經(jīng)同意制作的成人影片”為由,關(guān)閉了討論版。
Deepfakes從此銷聲匿跡,但他早已公開分享深度造假程序碼。潘多拉魔盒一旦打開,再無可能關(guān)上……
2019年,荷蘭DeepTrace公司發(fā)表報(bào)告,發(fā)現(xiàn)深度偽造影片的數(shù)量快速增加,原因無非是“相關(guān)工具和服務(wù)商品化,降低非專業(yè)人士制作深度偽造影片的門檻”。
截至2019年9月,有1.5萬部深度造假影片充斥著網(wǎng)絡(luò),迎合部分男性最狂野的幻想。DeepTrace老板喬奇歐·派特尼(Giorgio Patrini)指出:“深度偽造影片中,高達(dá)96%都是色情片,當(dāng)事人卻對(duì)此一無所知?!?/p>
2018年2月,全球第一個(gè)深度造假色情片網(wǎng)站成立,隨后這樣的網(wǎng)站越來越多。在這樣的網(wǎng)站上,只要按幾個(gè)鍵,就能免費(fèi)觀看所有影片。這些網(wǎng)站的首頁毫不掩飾地宣稱:“色情片任君挑選,性虐支配、戀物癖、戀足癖……你想得到的,這里都看得到!”據(jù)統(tǒng)計(jì),全球前四大深度造假色情片網(wǎng)站瀏覽次數(shù)超過1.34億萬次。
深度偽造的受害者絕大多數(shù)為女性。席克問薩曼莎在調(diào)查期間,是否看過任何以男性為對(duì)象的深度偽造色情片,她直率地回答:“沒有?!蓖痪W(wǎng)站上,以女人為對(duì)象的深度偽造色情片動(dòng)輒數(shù)百部,你能想得到的女明星、名人應(yīng)有盡有。
對(duì)于女受害者而言,這一切都是駭人聽聞、踐踏尊嚴(yán)。早在2018年,女星斯嘉麗·約翰遜就告訴《華盛頓郵報(bào)》,對(duì)于這種行為,她無計(jì)可施,從網(wǎng)上完全移除這類影片基本上就是不可能的。
“很遺憾,這種情況,我經(jīng)歷了太多。每個(gè)國(guó)家都有自己關(guān)于肖像權(quán)的法律規(guī)范。即使能在美國(guó)境內(nèi)采取法律行動(dòng),關(guān)閉侵權(quán)網(wǎng)站,同樣的法規(guī)卻可能不適用于德國(guó),徒勞無功?!彼嬲f,“很快人人都會(huì)成為目標(biāo),因?yàn)榫W(wǎng)絡(luò)是一個(gè)巨大的黑暗蟲洞,終將吞噬你。”
深度造假色情片的下一個(gè)目標(biāo)是所有女性——每個(gè)妻子、女兒、姐妹和母親。
波士頓大學(xué)法學(xué)教授丹妮爾·西特龍(Danielle Citron)強(qiáng)調(diào):“深度偽造技術(shù)正被用作針對(duì)女性的武器?!彼鼘⑵椒驳呐跃砣肫渲校阋詺У羲齻兊娜松?。曝光、羞辱、恐懼,難以找到或保住工作,甚至不再感到安全。這侵犯了女性最私密的領(lǐng)域和人身安全。
早在2018年美國(guó)未來生命研究所發(fā)布的《人工智能的惡意使用:預(yù)測(cè)、預(yù)防和緩解》報(bào)告中就指出,人工智能技術(shù)存在被惡意使用的風(fēng)險(xiǎn),深度偽造技術(shù)就是其中的一大代表。
你見過奧巴馬罵特朗普是“徹頭徹尾的白癡”嗎?見過扎克伯格吹噓自己“竊取了數(shù)十億人的數(shù)據(jù),并玩弄于股掌”嗎?見過合成的“特朗普與逮捕他的警察搏斗”系列圖片嗎?如果你回答“是”,便是看到了政治性深度偽造。
2023年2月,美國(guó)芝加哥市長(zhǎng)初選前夕,社交媒體上流傳一個(gè)模仿候選人保羅·瓦拉斯的聲音發(fā)表不實(shí)陳述的視頻,聲稱“警察可隨意射殺嫌疑人”,并呼吁削減警察預(yù)算。在瓦拉斯向社交媒體平臺(tái)發(fā)出投訴之后,社交媒體刪除了這段視頻,但該視頻在下架前已經(jīng)被瀏覽了數(shù)千次。
2023年11月,一段印度總理“莫迪”身著傳統(tǒng)服飾、歡快跳著印度加爾巴舞的視頻在網(wǎng)上瘋傳,印度總理親自辟謠,稱贊視頻做得好的同時(shí),對(duì)濫用AI技術(shù)深度偽造視頻表示擔(dān)憂,認(rèn)為這可能引發(fā)一場(chǎng)大危機(jī)。
2024年1月底,美國(guó)新罕布什爾州檢察長(zhǎng)辦公室發(fā)布一份聲明稱,發(fā)現(xiàn)新罕布什爾州出現(xiàn)機(jī)器人自動(dòng)打電話使用由深度偽造技術(shù)制作的模仿拜登總統(tǒng)的聲音,敦促人們不要在新罕布什爾州1月23日民主黨總統(tǒng)初選中投票。該事件迅速在美國(guó)引起了廣泛關(guān)注,并激發(fā)了關(guān)于AI深度偽造對(duì)大選可能產(chǎn)生影響的討論。
2023年11月發(fā)布的一份民調(diào)結(jié)果顯示,參與調(diào)查的美國(guó)成年人中,有58%的人認(rèn)為“AI將對(duì)2024年美國(guó)大選造成影響”,這一數(shù)字較2022年8月增長(zhǎng)了5個(gè)百分點(diǎn)。此外,英國(guó)、印度、尼日利亞、蘇丹、埃塞俄比亞和斯洛伐克等國(guó)去年都發(fā)現(xiàn)了據(jù)稱利用AI制作并在網(wǎng)絡(luò)上傳播的虛假政客視頻。
“候選人的圖像或聲音可以被篡改,選民可能被有目的地引導(dǎo),根據(jù)設(shè)計(jì)支持或遠(yuǎn)離候選人,甚至放棄投票?!薄缎l(wèi)報(bào)》認(rèn)為,在誤導(dǎo)選民方面,深度偽造的潛在危害“難以預(yù)估”。偽裝成選民的社交媒體機(jī)器人、被篡改的視頻或圖像層出不窮,且更難被識(shí)破。
科技平臺(tái)需要承擔(dān)起阻止深度偽造浪潮奔涌的最大責(zé)任?!督鹑跁r(shí)報(bào)》報(bào)道,亞馬遜、谷歌、元宇宙平臺(tái)、微軟、TikTok和OpenAI等20家科技公司,2024年2月16日在慕尼黑安全會(huì)議期間表示,將共同努力打擊旨在誤導(dǎo)選民的內(nèi)容制作和傳播,并針對(duì)這些內(nèi)容以“迅速和適當(dāng)”的方式采取行動(dòng)。比如,在圖片中添加水印,以明確其來源以及是否曾被篡改。
科技行業(yè)普遍采用了“內(nèi)容來源和真實(shí)性聯(lián)盟”(C2PA)的標(biāo)準(zhǔn),該標(biāo)準(zhǔn)將用數(shù)字內(nèi)容的來源和創(chuàng)建者的信息對(duì)數(shù)字內(nèi)容進(jìn)行編碼。2024年2月初,元宇宙平臺(tái)公司宣布將在其社交媒體平臺(tái)上標(biāo)記AI生成的圖像;谷歌公司表示將為其生成式AI工具集成C2PA水印系統(tǒng),OpenAI也作出了類似承諾。
對(duì)此,專家指出,添加水印的方式可能會(huì)有所幫助,但它們并不能阻止不懷好意者使用開源AI工具,也沒有解決那些飽受深度偽造影響的人保護(hù)其隱私權(quán)的問題。
3月,元宇宙公司宣布調(diào)整旗下臉書與Instagram平臺(tái)的數(shù)字創(chuàng)建和更改媒體政策,以遏制大選前利用AI制作的深度偽造的內(nèi)容的傳播。這一新政策于5月生效,Meta平臺(tái)上發(fā)布的AI生成的視頻圖片音頻,打上人工智能制作標(biāo)簽,便利用戶區(qū)分。
涉及深度偽造的金融犯罪,也浮出水面。2024年2月,香港媒體報(bào)道某團(tuán)伙通過“變臉”冒充跨國(guó)公司CFO,騙走兩個(gè)億!
報(bào)案人為一家跨國(guó)公司香港分行的職員,1月,他收到英國(guó)總部首席財(cái)務(wù)官的信息,聲稱要進(jìn)行機(jī)密交易,分別邀請(qǐng)數(shù)名財(cái)務(wù)職員進(jìn)行多人視頻會(huì)議。對(duì)方在會(huì)議內(nèi)顯示了與現(xiàn)實(shí)中相同的容貌,香港分行的職員上當(dāng)了,應(yīng)對(duì)方要求,前后轉(zhuǎn)賬15次2億港元,其后向總部查詢后方知受騙。這是香港首次涉及深度偽造“多人變臉”的詐騙案。
香港專業(yè)進(jìn)修學(xué)校協(xié)理副校長(zhǎng)林森表示,隨著人工智能生成引擎的種類愈來愈多,深度偽造技術(shù)持續(xù)進(jìn)化,辨別真?zhèn)蔚碾y度也會(huì)越來越大,加上該技術(shù)門檻不斷降低,將誘使更多不法分子利用深度偽造技術(shù)進(jìn)行詐騙、發(fā)布失實(shí)資訊、制造社會(huì)輿論等。
深度偽造內(nèi)容帶來最大的挑戰(zhàn)是難以利用肉眼和耳朵識(shí)別。雖然人工智能生成的影像或許仍有瑕疵,例如,光線和陰影可能不太自然,影像邊緣模糊,但當(dāng)大部分公眾以細(xì)小的手機(jī)熒幕觀看影像時(shí),這些細(xì)節(jié)便不易被察覺。
“過去,制作假照片、視頻或音頻,需要大量人力、時(shí)間和金錢?,F(xiàn)在,使用谷歌和OpenAI等公司提供的免費(fèi)或低成本的生成式人工智能服務(wù),幾乎每個(gè)人都能通過簡(jiǎn)單的文本提示創(chuàng)建深度偽造內(nèi)容。”美聯(lián)社稱。
2022年1月,歐洲議會(huì)修改了《數(shù)字服務(wù)法》,強(qiáng)制對(duì)深度偽造視頻使用標(biāo)簽?!稊?shù)字服務(wù)法案》于2024年1月1日生效。
2023年1月,中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,發(fā)布了關(guān)于深度偽造和其他人工生成內(nèi)容的管理方案,明確要求深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息,并規(guī)定了一系列監(jiān)管制度。
早在2018年,美國(guó)參議院便提出《禁止惡意深度造假法案》草案,處罰制造欺詐視聽紀(jì)錄的犯罪行為,包括深度造假視聽影音媒體的電子紀(jì)錄、照片或電子影像等。
2019年,美國(guó)眾議院提出限制深度造假影片篡改技術(shù)的《深度造假問責(zé)法》草案,要求使用深度造假技術(shù)制作影片的人負(fù)起責(zé)任。違者將處罰款或可并處5年以下徒刑。受害者有權(quán)向行為人請(qǐng)求最高15萬美元賠償。無奈美國(guó)兩黨爭(zhēng)斗不斷,加之有人擔(dān)心法案侵犯憲法表達(dá)自由和創(chuàng)作自由,相關(guān)法案一直難以通過。各州議會(huì)于是決定自行立法!
2019年,弗吉尼亞州成為美國(guó)第一個(gè)針對(duì)未經(jīng)同意的深度偽造色情內(nèi)容課以刑責(zé)的州,違法者可處2年以下監(jiān)禁,并處罰款。加利福尼亞州州長(zhǎng)頒布法案,允許受害者向影片制作者提起損害賠償訴訟,最高可要求15萬美元的賠償。
2022年,佛羅里達(dá)州就修法,將未經(jīng)受害者同意傳播深度偽造的色情圖像定為犯罪。2023年12月,邁阿密戴德警察逮捕兩名男中學(xué)生,指控二人犯有三級(jí)重罪——深度偽造女同學(xué)裸照。這起事件成為美國(guó)首例與深度偽造裸體圖像有關(guān)的刑事指控。
美國(guó)哥倫比亞大學(xué)法學(xué)院教授李本(Benjamin L. liebman)介紹說:“截至2024年1月,全美50州共提出211項(xiàng)與人工智能相關(guān)的法案,其中一半是關(guān)注深度偽造的。”
為何美國(guó)立法總是“常聽樓梯響,不見人下來”?弗吉尼亞理工大學(xué)傳播學(xué)院教授凱西·邁爾斯(Cayce Myers)解釋:“立法者不想制定一部新的監(jiān)管人工智能的法律。制定一部太快的法律可能會(huì)扼殺人工智能的發(fā)展和增長(zhǎng),制定一部太慢的法律可能會(huì)為許多潛在的問題打開大門。保持平衡將是一個(gè)挑戰(zhàn)?!?/p>
3月13日,歐洲議會(huì)批準(zhǔn)《人工智能法》,嚴(yán)格規(guī)范人工智能的使用。針對(duì)深度偽造現(xiàn)象,新法要求AI工具提供者有義務(wù)以允許檢測(cè)合成虛假內(nèi)容的方式設(shè)計(jì)這些工具、增加數(shù)字水印。AI提供商必須建立有效的監(jiān)督和問責(zé)機(jī)制,確保AI系統(tǒng)安全和可靠運(yùn)行。開發(fā)人員和使用者必須對(duì)AI系統(tǒng)造成的損害承擔(dān)責(zé)任。對(duì)違反規(guī)定的行為進(jìn)行處罰,最高可達(dá)公司全球營(yíng)業(yè)額6%或3000萬歐元,以高者為準(zhǔn)。
4月,英國(guó)政府推出新法草案。英國(guó)受害者和保護(hù)事務(wù)負(fù)責(zé)人勞拉·法里斯表示:“這是某些人企圖貶低他人的行徑,尤其是針對(duì)女性,假如相關(guān)內(nèi)容廣泛傳播,很可能造成災(zāi)難性后果,本屆政府絕不會(huì)容忍這種行為?!?/p>
英國(guó)《新科學(xué)家》網(wǎng)站報(bào)道,美國(guó)OpenAI公司的文本—視頻模型Sora橫空出世,讓普通人能更快捷、更廉價(jià)地制作出視頻,事實(shí)與虛構(gòu)的分界線也愈加模糊,進(jìn)一步加劇了人們對(duì)“深度偽造”內(nèi)容的憂慮,擔(dān)心其引發(fā)虛假和錯(cuò)誤信息泛濫。如何預(yù)防和阻止“深度偽造”內(nèi)容誤導(dǎo)大眾,已成為擺在各國(guó)政府和科技巨頭面前的重大難題。
隨著深度偽造技術(shù)的迅速發(fā)展,恐怖分子可能利用這一技術(shù)進(jìn)行跨國(guó)犯罪,深度偽造產(chǎn)品的泛濫對(duì)全世界來說都是災(zāi)難,沒有哪個(gè)國(guó)家能夠獨(dú)善其身,推動(dòng)對(duì)深度偽造技術(shù)的全球治理符合各國(guó)的共同利益。
假視頻、假音頻、假照片泛濫,有心人士使用電腦或手機(jī)等大眾電子設(shè)備制作出來,并通過社交媒體廣泛傳播,從而可能使全社會(huì)陷入一場(chǎng)真相與假象之間混雜不清的困境之中,造成“真相的終結(jié)”,推動(dòng)人類社會(huì)真正進(jìn)入“后真相時(shí)代”。
正如Deeptrace威脅情報(bào)主管亨利·阿杰德(Henry Ajder)所言:“世界越發(fā)人工化,深度偽造技術(shù)不會(huì)消失?!边@場(chǎng)政府與技術(shù)的游戲遠(yuǎn)未結(jié)束。