陳 鵬 程
(安徽財(cái)經(jīng)大學(xué) 法學(xué)院, 安徽 蚌埠 233000)
《牛津詞典》2016年年度詞匯“post truth”,譯為“后真相”,意思是“(信息)訴諸情感及個(gè)人信念,較客觀事實(shí)更能影響民意”[1]。通俗地說(shuō),后真相是指人們易受片面和非客觀的“真相”影響。2019年2月,一條由“楊某”主演的《射雕英雄傳》視頻片段在網(wǎng)絡(luò)上走紅。許多網(wǎng)友對(duì)此僅當(dāng)作娛樂(lè),但有一部分網(wǎng)友意識(shí)到視頻內(nèi)在的技術(shù)原理,指責(zé)制作者打開(kāi)了“潘多拉魔盒”。而此項(xiàng)被網(wǎng)友稱為“潘多拉魔盒”的技術(shù)就是新型人工智能偽造技術(shù)——深度偽造(Deep Fakes)①。稱深度偽造為“潘多拉魔盒”并不夸張。早在2017年,美國(guó)紅迪網(wǎng)就已經(jīng)出現(xiàn)通過(guò)深度偽造技術(shù)合成的名人色情視頻,隨后深度偽造更是被用在偽造政治人物發(fā)言視頻中,達(dá)到政治抹黑、干預(yù)選舉的目的[2]。除此以外,深度偽造仍有可能被用于誹謗、詐騙等犯罪活動(dòng)[3]。如果說(shuō)互聯(lián)網(wǎng)時(shí)代的后真相是“片面真實(shí)+輿論引導(dǎo)”的形式,那么,權(quán)威媒體及時(shí)客觀地作出全面的報(bào)道,便能大范圍避免或降低這種不明真相的輿論影響。但是,隨著人工智能深度作偽技術(shù)的出現(xiàn),“真相”可以被制造,眼睛和耳朵不再可靠,人類可謂步入了“偽造真實(shí)+輿論引導(dǎo)”式的深層后真相時(shí)代。此時(shí),轉(zhuǎn)變思路,制定專門的人工智能法案、統(tǒng)一協(xié)調(diào)地治理人工智能偽造將是幫助人類突破后真相迷霧的有益進(jìn)路。
康德有言:“說(shuō)真話是一種義務(wù),人們應(yīng)該無(wú)條件履行這種義務(wù),不管由此導(dǎo)致什么后果?!盵4]433這個(gè)論斷包含著深刻的法學(xué)和哲學(xué)思辨,無(wú)爭(zhēng)議地揭示了真誠(chéng)對(duì)于社會(huì)存在的重要性,深度偽造卻在很多方面誘導(dǎo)人們“說(shuō)謊”。
由于“虛假新聞”(fake news)概念難以覆蓋信息傳播的復(fù)雜現(xiàn)狀,歐盟內(nèi)部報(bào)告曾建議以“虛假信息”(disinformation)作為替換概念,意為“有意設(shè)計(jì)、提供和推廣以造成公共傷害或謀取利益的虛假、不準(zhǔn)確或誤導(dǎo)性信息”[5]?!缎侣?dòng)浾摺冯s志發(fā)布的《2019年度虛假新聞研究報(bào)告》認(rèn)為,中國(guó)虛假新聞現(xiàn)象有所改善,由社交自媒體散布的虛假信息卻在進(jìn)一步侵害傳播秩序[5]。虛假信息的泛濫在2020年初爆發(fā)的新冠疫情中可見(jiàn)一斑,各種假消息鋪天蓋地,甚至出現(xiàn)了“信息疫情”的概念。從信息發(fā)布和傳播層面看,這些虛假信息的發(fā)布主體多為規(guī)模激增的網(wǎng)絡(luò)自媒體。同時(shí),因?yàn)樾滦退惴ㄙY訊平臺(tái)如網(wǎng)易新聞、今日頭條等相繼出現(xiàn),甚至包括微博、抖音等娛樂(lè)社交平臺(tái)也逐漸成為集新聞熱點(diǎn)和休閑娛樂(lè)一體化的綜合性平臺(tái),也為這些虛假信息提供了傳播和發(fā)酵的溫床。有研究報(bào)告指出,虛假信息正走向“新聞生態(tài)系統(tǒng)”內(nèi)的傳播,其表現(xiàn)形式是專業(yè)媒體和自媒體互為信息源。例如,2019年2月的“部分漢字拼音被改”刷屏網(wǎng)絡(luò),不乏被“中央人民廣播電臺(tái)”等官方媒體微博轉(zhuǎn)載,事后證實(shí)為片面假消息,源頭系某微信自媒體根據(jù)未生效的《審音表(意見(jiàn)稿)》編寫發(fā)布[5]。以自媒體為發(fā)布主體的信息真實(shí)性可能被質(zhì)疑,但當(dāng)帶有“官方”標(biāo)簽的新聞媒體為虛假信息背書時(shí),其危險(xiǎn)后果不言自明。同時(shí),當(dāng)人工智能偽造技術(shù)被用于制作虛假信息,信息發(fā)布者不再需要通過(guò)有意剪輯、隱藏部分真相等手段來(lái)提高信息可信度,轉(zhuǎn)而可以直接按照其意圖制作一個(gè)“真相”時(shí),人工智能深度偽造可以更便捷地在很多場(chǎng)合達(dá)到以假亂真的目的,此時(shí),虛假信息將造成更加嚴(yán)重的社會(huì)負(fù)面影響。國(guó)內(nèi)目前還沒(méi)有運(yùn)用人工智能技術(shù)偽造傳播假消息的典型案例,但深度偽造在國(guó)外被多次用于偽造政治新聞。例如,YouTube上有關(guān)于特朗普和奧巴馬等諸多政治人物的偽造視頻。隨著深度偽造應(yīng)用場(chǎng)景的不斷豐富,未來(lái)可能會(huì)出現(xiàn)涉及政治、經(jīng)濟(jì)、文化等領(lǐng)域的假信息,監(jiān)管部門必須及早提高警惕。
深度偽造可能被用于偽造個(gè)人信息,冒充身份。央視新聞?lì)l道曾在2019年對(duì)深度偽造現(xiàn)象作過(guò)專題報(bào)道。在報(bào)道中,深度偽造(打擊)專家沃德?tīng)柌┦客ㄟ^(guò)深度偽造將視頻中的自己變成另一個(gè)人來(lái)向觀眾介紹這項(xiàng)技術(shù);“針幕動(dòng)畫”聯(lián)合創(chuàng)始人李浩則和美國(guó)公共廣播公司記者現(xiàn)場(chǎng)展示了用軟件一鍵變臉成特朗普總統(tǒng)和日本首相安倍。然而,深度偽造的利用遠(yuǎn)不止如此,聲音也可以被偽造。2018年,“琴鳥”(Lyrebird)公司開(kāi)發(fā)了一款語(yǔ)音合成軟件,只需要獲取任意人的一段源音頻數(shù)據(jù),人工智能就能輕易模仿他的聲音,并且該軟件還可以為聲音添加感情因素,使其更加真實(shí)。彭博社記者萬(wàn)斯體驗(yàn)了這項(xiàng)技術(shù),并用合成聲音和自己的母親進(jìn)行了實(shí)時(shí)通話,母親對(duì)此卻沒(méi)有絲毫察覺(jué)。蘇黎世大學(xué)研究員烏德里什就聲音偽造接受采訪時(shí)表明,完美的聲音偽造難度很大,但是,視頻和偽造音頻結(jié)合將是一個(gè)巨大的威脅[3]。冒充他人身份因?yàn)槿斯ぶ悄軅卧旒夹g(shù)而變得簡(jiǎn)單。在傳統(tǒng)的電信詐騙犯罪中使用人工智能偽造技術(shù),不法者將更容易獲取目標(biāo)信任,甚至受害人在事后也意識(shí)不到受騙?!度A爾街日?qǐng)?bào)》在2019年3月報(bào)道過(guò)一起案件:通過(guò)偽造公司CEO的聲音,不法者成功詐騙了22萬(wàn)歐元。冒充他人身份無(wú)疑會(huì)擾亂社會(huì)秩序。隨著移動(dòng)支付、智能家居、智慧出行的不斷發(fā)展普及,面部、聲音和指紋等常用生物信息逐步財(cái)產(chǎn)化、鑰匙化,而通過(guò)深度偽造可以輕易地模擬這些信息。設(shè)想一個(gè)陌生人能夠很容易地在網(wǎng)絡(luò)上冒用你的身份、行為,必然會(huì)使得人人自危,嚴(yán)重?cái)_亂并阻礙現(xiàn)實(shí)社會(huì)秩序。
英國(guó)有古諺:法庭之上沒(méi)有事實(shí),只有證據(jù)。現(xiàn)代司法制度設(shè)計(jì)了較為完善的證明規(guī)則,但包括取證、舉證責(zé)任和證明標(biāo)準(zhǔn)在內(nèi)的一系列規(guī)則旨在還原案件事實(shí)的證明目的,還要回歸到證據(jù)真實(shí)的基礎(chǔ)上。目前,由于缺乏有效的鑒別手段,深度偽造最容易出現(xiàn)在視聽(tīng)資料和電子數(shù)據(jù)形式的證據(jù)中。由于我國(guó)刑事訴訟入罪時(shí)奉行排除合理懷疑原則,如果不法者利用深度偽造制作一項(xiàng)與查證事實(shí)矛盾的“證據(jù)”并主張?jiān)撟C據(jù)真實(shí),那么,他極有可能因?yàn)榉ㄔ簾o(wú)法形成完整的證據(jù)鏈、不能排除合理懷疑而獲得無(wú)罪的評(píng)價(jià),最不濟(jì)也能拖延訴訟進(jìn)程,使自己暫時(shí)免受刑事制裁。如果深度偽造證據(jù)被用于栽贓陷害,就會(huì)使無(wú)罪者面臨被錯(cuò)誤入罪的風(fēng)險(xiǎn),危害結(jié)果將會(huì)更大。相比較于刑事訴訟對(duì)證據(jù)的嚴(yán)格審查和嚴(yán)格證明,民事訴訟和行政訴訟的證明標(biāo)準(zhǔn)和證據(jù)審查則要寬緩,這也為深度偽造證據(jù)提供了更大的施展空間。民事訴訟和行政訴訟為追求定紛止?fàn)?,?duì)于當(dāng)事人無(wú)爭(zhēng)議的證據(jù)事實(shí)基本予以認(rèn)定,即使對(duì)證據(jù)真實(shí)性有爭(zhēng)議,由于缺乏有效的鑒別技術(shù),法官在綜合審查后仍然有一半的可能性予以認(rèn)定。而無(wú)論最終認(rèn)定與否,額外耗費(fèi)的訴訟成本都是不符合提高效率和降低訴累要求的??傊?,人工智能偽造如果用于偽造證據(jù),將會(huì)極大地破壞司法公信力。
深度偽造本質(zhì)是一項(xiàng)人工智能偽造技術(shù),具有廣泛的應(yīng)用場(chǎng)景。國(guó)內(nèi)目前為人所熟知的直接涉及深度偽造的案例,無(wú)論是2019年“ZAO”換臉軟件因不當(dāng)收集用戶信息而遭工信部約談并下架整改,還是“楊某換臉”事件,其影響范圍還僅僅限于私人及娛樂(lè)領(lǐng)域。因此,對(duì)深度偽造的治理,學(xué)界的關(guān)注點(diǎn)較多集中在隱私保護(hù)、版權(quán)規(guī)則維護(hù)和虛假信息清理上。國(guó)內(nèi)現(xiàn)行的關(guān)于深度偽造的相關(guān)管理規(guī)定主要有《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》和《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》。前者為國(guó)家互聯(lián)網(wǎng)信息辦公室、文化和旅游部、國(guó)家廣播電視總局三部門在2019年11月聯(lián)合制定的以應(yīng)對(duì)人工智能深度學(xué)習(xí)在網(wǎng)絡(luò)音視頻信息領(lǐng)域的應(yīng)用管理辦法,主要規(guī)定不得利用網(wǎng)絡(luò)音視頻信息服務(wù)和相關(guān)技術(shù)從事違法活動(dòng),對(duì)于利用深度學(xué)習(xí)合成的非真實(shí)信息應(yīng)當(dāng)添加區(qū)分標(biāo)識(shí),信息服務(wù)提供者上線或新增以深度學(xué)習(xí)、虛擬現(xiàn)實(shí)為技術(shù)內(nèi)核的具有媒體屬性或社會(huì)動(dòng)員性質(zhì)的服務(wù)功能需要開(kāi)展安全評(píng)估;后者為國(guó)家互聯(lián)網(wǎng)信息辦公室在同年12月制定發(fā)布,在信息服務(wù)提供者基礎(chǔ)上進(jìn)一步將信息生產(chǎn)者納入調(diào)整范圍,并規(guī)定了網(wǎng)絡(luò)行業(yè)組織監(jiān)督管理等內(nèi)容,仍側(cè)重于對(duì)網(wǎng)絡(luò)信息生態(tài)的治理。不難看出,這是一種以問(wèn)題為導(dǎo)向的治理思路,其邏輯是回應(yīng)人工智能技術(shù)在互聯(lián)網(wǎng)領(lǐng)域應(yīng)用產(chǎn)生的不良結(jié)果。此種治理思路適合應(yīng)對(duì)突發(fā)情況,卻不能涵蓋深度偽造在其他領(lǐng)域的應(yīng)用。如果將此種治理模式作為中國(guó)深度偽造治理之道,似有以偏概全之嫌,甚至可能人為地模糊人工智能技術(shù)和互聯(lián)網(wǎng)的差異性,反而使人工智能技術(shù)和互聯(lián)網(wǎng)的治理措施相互掣肘,阻礙技術(shù)進(jìn)步。
深度偽造等人工智能技術(shù)對(duì)于既存的法律秩序不斷地發(fā)起挑戰(zhàn),理論界和實(shí)務(wù)界也不斷予以回應(yīng),但規(guī)制效果有限。一個(gè)原因是立法位階低且處罰措施輕。以平臺(tái)不當(dāng)收集和使用個(gè)人信息為例,我國(guó)“個(gè)人信息保護(hù)法”“數(shù)據(jù)安全法”等尚處在立法規(guī)劃階段,而目前對(duì)個(gè)人信息保護(hù)規(guī)定較全面的是2017年修訂的GB/T 35273-2017《信息安全技術(shù)個(gè)人信息安全規(guī)范》,其中,個(gè)人信息安全國(guó)家標(biāo)準(zhǔn)規(guī)定了個(gè)人信息收集的“明示同意”規(guī)則和存儲(chǔ)規(guī)則;2020年GB/T 35273-2020又新增了對(duì)用戶畫像的使用限制。而根據(jù)我國(guó)工業(yè)和信息化部網(wǎng)絡(luò)安全管理局2019年4月披露的信息,其同年3月開(kāi)通對(duì)違規(guī)收集個(gè)人信息的舉報(bào)渠道,僅1個(gè)月收到的舉報(bào)就超過(guò)3 000條,國(guó)家標(biāo)準(zhǔn)缺乏威懾力由此也可見(jiàn)一斑[6]。另一個(gè)原因是缺乏統(tǒng)一規(guī)范。散落在各部門法中的相關(guān)規(guī)定,能夠在人工智能偽造侵犯具體法益時(shí)發(fā)揮事后救濟(jì)的作用,但分散的管理規(guī)定一旦涉及模糊地帶,就容易出現(xiàn)難規(guī)制的法外之地。一般認(rèn)為,人工智能偽造信息如果涉及侮辱誹謗他人情形時(shí),可以通過(guò)《中華人民共和國(guó)刑法》(以下簡(jiǎn)稱《刑法》)第二百四十六條“侮辱誹謗罪”予以追究;而如果是冒充身份實(shí)施詐騙則依《刑法》第二百六十六條“詐騙罪”入罪處罰;對(duì)于利用人工智能偽造證據(jù),則有可能觸犯《刑法》第三百零五條“偽證罪”的相關(guān)規(guī)定。另外,《中華人民共和國(guó)民法典》第一千零十九條規(guī)定,任何組織或者個(gè)人不得以丑化、污損或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán),這可以被視為對(duì)于“智能換臉”的深度偽造運(yùn)用侵犯他人肖像權(quán)的回應(yīng)。但是,相關(guān)的規(guī)定列舉有限,人工智能偽造技術(shù)的應(yīng)用場(chǎng)景卻難以盡數(shù),且民法、刑法和其他部門法由于功能不同,法益保護(hù)的方式和傾向也存在差異,難以面面俱到,缺乏統(tǒng)一的規(guī)范;同時(shí),如此復(fù)雜的規(guī)范體系甚至還會(huì)造成規(guī)范內(nèi)部的沖突。
目前,國(guó)內(nèi)沒(méi)有一個(gè)正式的人工智能技術(shù)開(kāi)發(fā)和安全評(píng)估監(jiān)管部門。前文已經(jīng)論述人工智能偽造技術(shù)帶來(lái)的風(fēng)險(xiǎn)被很大程度上當(dāng)作互聯(lián)網(wǎng)虛假信息在監(jiān)管。根據(jù)經(jīng)驗(yàn),深度偽造的內(nèi)容和互聯(lián)網(wǎng)的結(jié)合較為緊密,偽造內(nèi)容往往以互聯(lián)網(wǎng)作為傳播媒介使自身影響最大化,甚至于某些互聯(lián)網(wǎng)信息科技企業(yè)本身也是人工智能技術(shù)的研發(fā)者,因此,通過(guò)網(wǎng)絡(luò)信息監(jiān)管部門和網(wǎng)絡(luò)行業(yè)組織自律監(jiān)管對(duì)現(xiàn)階段人工智能偽造進(jìn)行規(guī)制,確實(shí)有立竿見(jiàn)影的效果,但這并非長(zhǎng)遠(yuǎn)之計(jì)。一個(gè)原因是互聯(lián)網(wǎng)信息監(jiān)管部門對(duì)于其他領(lǐng)域的人工智能偽造缺乏監(jiān)管權(quán)限;另一個(gè)原因是當(dāng)下互聯(lián)網(wǎng)信息生態(tài)治理本身就是一個(gè)沉重的任務(wù),現(xiàn)有監(jiān)管機(jī)制自身尚不完善。例如,根據(jù)國(guó)家互聯(lián)網(wǎng)信息辦公室和公安部聯(lián)合發(fā)布的《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》要求具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)和相關(guān)新技術(shù)新應(yīng)用要依規(guī)定開(kāi)展安全評(píng)估,但此規(guī)定只能規(guī)制在互聯(lián)網(wǎng)領(lǐng)域開(kāi)展的深度偽造,且該規(guī)定僅是政策性文件,既不設(shè)行政許可也不規(guī)定行政處罰,這就使得安全評(píng)估的威懾力大幅度弱化。
為了統(tǒng)籌部署我國(guó)人工智能創(chuàng)新發(fā)展,2017年7月20日,國(guó)務(wù)院以國(guó)發(fā)〔2017〕35號(hào)文件發(fā)布了《新一代人工智能發(fā)展規(guī)劃》。規(guī)劃要求完善人工智能發(fā)展的法律規(guī)范和倫理規(guī)范,建立起人工智能安全監(jiān)管和評(píng)估體系,引導(dǎo)和保障人工智能技術(shù)健康安全發(fā)展。我國(guó)現(xiàn)有規(guī)制體系僅能初步應(yīng)對(duì)“網(wǎng)絡(luò)娛樂(lè)換臉”類較典型場(chǎng)景的深度偽造運(yùn)用,但從域外深度偽造應(yīng)用情況來(lái)看,未來(lái)人工智能偽造在我國(guó)多場(chǎng)景、突發(fā)式的運(yùn)用不可避免,現(xiàn)有制度對(duì)其是難以有效規(guī)范的。對(duì)于人工智能技術(shù)的治理仍需要統(tǒng)一的規(guī)范和專門的監(jiān)管制度。
治理人工智能偽造有兩種思路,一種是從具體問(wèn)題出發(fā)的針對(duì)性規(guī)制,一種是宏觀層面對(duì)人工智能偽造現(xiàn)存和潛在問(wèn)題作出統(tǒng)一規(guī)范。美國(guó)和中國(guó)目前遵循的是前一種思路,歐盟則傾向于后者。
美國(guó)對(duì)于深度偽造的規(guī)制是聯(lián)邦和州兩級(jí)規(guī)制模式。2019年6月13日,美眾議院情報(bào)委員會(huì)專門就“深度偽造”舉行聽(tīng)證會(huì),提出了許多有益措施,如限制政府官員實(shí)施深度偽造、發(fā)展信息檢測(cè)技術(shù)、強(qiáng)化網(wǎng)絡(luò)運(yùn)營(yíng)者責(zé)任和加強(qiáng)對(duì)網(wǎng)絡(luò)內(nèi)容的審核等[7]。而就在舉行聽(tīng)證會(huì)的前一天,美國(guó)眾議院議員Clarke在國(guó)會(huì)上提交了《深度偽造責(zé)任法案》(DeepFakesAccountability,Act),該法案規(guī)定了偽造者的披露義務(wù),將利用深度偽造實(shí)施數(shù)字冒名頂替行為認(rèn)定為假冒身份的犯罪行為;同時(shí),要求政府牽頭開(kāi)發(fā)信息真實(shí)檢測(cè)技術(shù)[8]。2019年6月28日,美參議院也提交了一份《2019年深度偽造報(bào)告法案》(TheDeepfakeReportof2019)。該法案將深度偽造的監(jiān)管授權(quán)給美國(guó)國(guó)土安全部(United States Department of Homeland Security, DHS)②,要求國(guó)土安全部定期發(fā)布深度偽造調(diào)查報(bào)告,為日后立法修法提供依據(jù)[9]。州層面對(duì)于深度偽造規(guī)制各有側(cè)重,總體較聯(lián)邦層面呈現(xiàn)更加具體和嚴(yán)厲的趨勢(shì)。例如,弗吉尼亞州將傳播未經(jīng)授權(quán)的深度偽造圖像視頻認(rèn)定為犯罪,德克薩斯州則直接禁止制作或傳播深度偽造內(nèi)容[9],加利福尼亞州州長(zhǎng)分別簽署《AB 730》《AB 602》兩部法案以禁止干擾選舉和傳播色情[10]。
從美國(guó)現(xiàn)行規(guī)范體系可以看出,美國(guó)同樣沒(méi)有統(tǒng)一的人工智能偽造規(guī)制法案,甚至聯(lián)邦層面的法案,如規(guī)定制作者披露義務(wù)和限制偽造技術(shù)應(yīng)用場(chǎng)景在一定程度上被認(rèn)為侵犯美國(guó)《憲法第一修正案》的言論自由而不被接受。州與州之間對(duì)于深度偽造的規(guī)制差異較大,在實(shí)踐中也難以操作,在數(shù)據(jù)共享的互聯(lián)網(wǎng)世界,這種矛盾很大地削弱了治理效果。美國(guó)現(xiàn)行的規(guī)范體系有諸多不完善之處,當(dāng)權(quán)者顯然也意識(shí)到,從參議院提案授權(quán)國(guó)土安全部對(duì)深度偽造作定期監(jiān)管報(bào)告就可以看出,美國(guó)已經(jīng)將新型人工智能偽造技術(shù)規(guī)制提到了國(guó)家安全的高度。除專門針對(duì)人工智能偽造具體問(wèn)題進(jìn)行規(guī)制外,美國(guó)也一直在探索宏觀人工智能統(tǒng)一法案。其實(shí),早在2017年年底,美國(guó)國(guó)會(huì)就曾提出《人工智能未來(lái)法案》(FutureofArtificialIntelligenceActof2017),希望通過(guò)該法案幫助美國(guó)確保其在人工智能領(lǐng)域的領(lǐng)先優(yōu)勢(shì),如其被兩院審議通過(guò),這將會(huì)是美國(guó)第一部聯(lián)邦層面的人工智能法律?!度斯ぶ悄芪磥?lái)法案》的主要內(nèi)容是建立一個(gè)專門的機(jī)構(gòu)負(fù)責(zé)人工智能發(fā)展事業(yè),即在商務(wù)部設(shè)立促進(jìn)人工智能發(fā)展的聯(lián)邦咨詢委員會(huì)。咨詢委員會(huì)享有立法行政建議權(quán)和對(duì)人工智能的產(chǎn)業(yè)研究及其評(píng)估權(quán),并在規(guī)定期限內(nèi)向商務(wù)部長(zhǎng)和國(guó)會(huì)出具報(bào)告和建議[11]。2019年2月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布《美國(guó)如何領(lǐng)導(dǎo)人工智能:聯(lián)邦參與制定技術(shù)標(biāo)準(zhǔn)及相關(guān)工具的計(jì)劃》,公布人工智能的美國(guó)標(biāo)準(zhǔn),建議美國(guó)政府優(yōu)先參與制定包容非歧視、可訪問(wèn)和透明、基于共識(shí)的人工智能標(biāo)準(zhǔn)等相關(guān)工作,并提議輔之以包括但不限于標(biāo)準(zhǔn)化格式的數(shù)據(jù)集、評(píng)估測(cè)試、問(wèn)責(zé)和審計(jì)等工具,以提高人工智能的可信賴性[12]。
歐盟目前沒(méi)有出現(xiàn)大規(guī)模的人工智能偽造危害性案例,所以并未出臺(tái)專門針對(duì)深度偽造的法案,而是通過(guò)個(gè)人數(shù)據(jù)保護(hù)和反對(duì)不道德的人工智能運(yùn)用來(lái)規(guī)范人工智能作偽。
2018年5月25日,《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,GDPR)在整個(gè)歐盟范圍內(nèi)生效,在歐盟境內(nèi)的任何涉及收集、傳輸、保留或處理成員國(guó)內(nèi)個(gè)人信息的機(jī)構(gòu)組織均適用該條例。GDPR將同意規(guī)則作為任何第三方使用他人信息數(shù)據(jù)的唯一正當(dāng)理由;同時(shí),將涉及種族及民族、政治觀點(diǎn)、宗教哲學(xué)信仰、工會(huì)成員身份、健康狀況和性取向及性生活的數(shù)據(jù)、基因數(shù)據(jù)、 經(jīng)處理可識(shí)別特定個(gè)人的生物識(shí)別數(shù)據(jù)等7種類別的數(shù)據(jù)信息視為個(gè)人敏感信息,以禁止他人使用為原則,獲權(quán)使用也不得私自披露。GDPR奉行私權(quán)至上原則,對(duì)于違反條例的行為采取嚴(yán)厲的處罰措施。瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)(The Swedish Data Protection Authority,DPA)就曾認(rèn)定當(dāng)?shù)啬掣咧惺褂萌四樧R(shí)別對(duì)學(xué)生進(jìn)行考勤違反了GDPR關(guān)于一般禁止識(shí)別自然人的生物數(shù)據(jù)的規(guī)定而開(kāi)出罰單[13]。嚴(yán)厲且有執(zhí)行力的個(gè)人數(shù)據(jù)保護(hù)使得人工智能偽造在使用個(gè)人信息時(shí)因可能違反GDPR而遭受嚴(yán)格的處罰更加謹(jǐn)慎。2019年4月,由歐盟人工智能高級(jí)專家組擬定的《人工智能道德準(zhǔn)則》(AIEthicsGuidelines)正式生效。該準(zhǔn)則要求人工智能不得使用公民的個(gè)人資料并歧視和傷害他們,并且提出實(shí)現(xiàn)“可信賴人工智能”的7條準(zhǔn)則,分別是:人的能動(dòng)性和監(jiān)督、穩(wěn)健性和安全性、隱私和數(shù)據(jù)管理、多樣性和非歧視、透明度、社會(huì)和環(huán)境福祉、問(wèn)責(zé)。而在這7項(xiàng)準(zhǔn)則中,“透明度”被認(rèn)為是一切的關(guān)鍵。任何公司在使用人工智能技術(shù)時(shí),其受眾都應(yīng)當(dāng)具有知情權(quán),人們應(yīng)該知道和他們進(jìn)行溝通的是算法還是真人。同時(shí),任何由算法作出的決定,都必須由公司出面解釋[14]。這意味著人工智能偽造可能因?yàn)槠潆y以追溯和區(qū)分(不受監(jiān)督)、暗箱操作(不透明)被認(rèn)定為違反準(zhǔn)則,不可信賴。同時(shí),歐盟仍在探索更為嚴(yán)格的人工智能立法。
歐盟規(guī)范整體呈現(xiàn)出在人工智能技術(shù)應(yīng)用中對(duì)個(gè)人信息的一種嚴(yán)格保護(hù)。但是,過(guò)度限制人工智能技術(shù)應(yīng)用場(chǎng)景,確實(shí)也使歐盟的人工智能技術(shù)發(fā)展相對(duì)遲緩。對(duì)于如何規(guī)制人工智能偽造,美國(guó)和歐盟采取寬嚴(yán)不同的治理思路。美國(guó)雖然在具體問(wèn)題上發(fā)布諸多針對(duì)性法案,但整體給予平臺(tái)和運(yùn)營(yíng)商較寬緩的環(huán)境,只要不涉及犯罪行為,平臺(tái)和運(yùn)營(yíng)商少有其他責(zé)任。甚至于美國(guó)《通信規(guī)范法》(CommunicationsDecencyActof1996)所規(guī)定的“網(wǎng)絡(luò)服務(wù)商豁免責(zé)任”使Facebook、Google等網(wǎng)絡(luò)運(yùn)營(yíng)商審核用戶發(fā)布的內(nèi)容成為一種免責(zé)式自律,這也使得行業(yè)內(nèi)難以達(dá)成共識(shí),在缺乏有效技術(shù)對(duì)抗的情況下,導(dǎo)致深度偽造泛濫。歐盟以嚴(yán)厲的規(guī)范限制人工智能技術(shù)應(yīng)用場(chǎng)景,有因噎廢食之嫌,也不利于技術(shù)進(jìn)步。美歐在規(guī)制人工智能偽造中的不足各有表現(xiàn),但是,美歐的規(guī)制也有共性,即回歸技術(shù)的本質(zhì),以統(tǒng)一的人工智能法案來(lái)協(xié)調(diào)治理人工智能偽造,希望通過(guò)完善的人工智能法案進(jìn)一步指導(dǎo)具體領(lǐng)域的人工智能應(yīng)用。
后真相時(shí)代之所以要規(guī)制人工智能偽造,目的是人類迫切地需要了解真相。因此,從法治理角度看,規(guī)制人工智能偽造就是要禁止技術(shù)說(shuō)謊,或者說(shuō)禁止欺詐。人工智能算法具有自主性和隱蔽性,實(shí)際上包括偽造信息制作者本人可能對(duì)于人工智能學(xué)習(xí)和運(yùn)行原理都沒(méi)有全面的認(rèn)識(shí)。伴隨著人工智能偽造技術(shù)的不斷學(xué)習(xí)進(jìn)步,未來(lái)人類面臨的更大風(fēng)險(xiǎn)不是受智能技術(shù)使用者欺騙,而是受智能技術(shù)欺騙。結(jié)合我國(guó)現(xiàn)行法制缺陷和域外法實(shí)踐經(jīng)驗(yàn),統(tǒng)一協(xié)調(diào)、寬嚴(yán)相濟(jì)、權(quán)責(zé)分明的規(guī)范體系建立是禁止人工智能欺詐的有益進(jìn)路。從域外實(shí)踐看,美國(guó)和歐盟都在積極探索專門的人工智能法案,并嘗試構(gòu)建完善的人工智能道德標(biāo)準(zhǔn),以謀求人工智能技術(shù)快速發(fā)展,同時(shí)保障人工智能安全可控。國(guó)務(wù)院《新一代人工智能發(fā)展規(guī)劃》提出,要在2025年之前初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。雖然我國(guó)人工智能核心算法和設(shè)備水平距離發(fā)達(dá)國(guó)家還有差距,我國(guó)對(duì)于人工智能技術(shù)的應(yīng)用規(guī)模卻遙遙領(lǐng)先。無(wú)論從技術(shù)安全角度還是從國(guó)際競(jìng)爭(zhēng)角度看,我國(guó)都必須盡快出臺(tái)中國(guó)式的“人工智能未來(lái)法案”,制定具有中國(guó)特色同時(shí)又符合整體人類發(fā)展需要的“人工智能道德準(zhǔn)則”。
筆者以人工智能偽造規(guī)制為具體場(chǎng)景,為未來(lái)中國(guó)人工智能立法提出幾點(diǎn)建議。
人工智能越是精于偽造就越應(yīng)要求其“真誠(chéng)”。由于檢測(cè)技術(shù)難以匹配,中國(guó)和美國(guó)在應(yīng)對(duì)偽造信息時(shí)都嘗試為制作者設(shè)定披露義務(wù),但此設(shè)定對(duì)惡意偽造者無(wú)效。從有效監(jiān)管的角度出發(fā),與其耗費(fèi)精力對(duì)人工智能偽造的危害后果進(jìn)行治理,不如追根溯源讓人工智能偽造技術(shù)從一開(kāi)始就受監(jiān)督、可識(shí)別。因此,對(duì)于人工智能偽造技術(shù)規(guī)制的要點(diǎn)不在于技術(shù)使用,而在于技術(shù)開(kāi)發(fā)。人工智能要做到真誠(chéng),在技術(shù)開(kāi)發(fā)階段就必須寫入“真誠(chéng)”命令,其目的是保證所有通過(guò)人工智能偽造技術(shù)輸出的偽造內(nèi)容必然以某種特征表明其偽造的本質(zhì)?!罢嬲\(chéng)”命令起到了標(biāo)簽作用,以“可識(shí)別”表明技術(shù)受監(jiān)督;同時(shí),可以圍繞“真誠(chéng)”原則構(gòu)建人工智能安全標(biāo)準(zhǔn),發(fā)展安全認(rèn)證。只上線符合安全標(biāo)準(zhǔn)的技術(shù)應(yīng)用,而不受監(jiān)督的人工智能技術(shù)禁止開(kāi)發(fā)和使用。
通過(guò)健全隱私保護(hù)和數(shù)據(jù)管理并建立評(píng)估制度,以保證提供穩(wěn)健和安全的人工智能服務(wù)。人工智能偽造是依靠算法深度學(xué)習(xí)實(shí)現(xiàn)的,算法學(xué)習(xí)又以大數(shù)據(jù)為基礎(chǔ),也就是說(shuō),在智能時(shí)代,數(shù)據(jù)化的個(gè)人信息被人工智能收集和處理是人類可以享受智能服務(wù)的前提?!秱€(gè)人信息安全規(guī)范》中將“明示同意”作為服務(wù)商收集使用個(gè)人信息的原則,但在實(shí)踐中該原則的執(zhí)行卻趨于僵化,往往是一次授權(quán)永久使用。同時(shí),也缺乏相應(yīng)的評(píng)估監(jiān)管機(jī)制,使得個(gè)人信息極易被濫用和泄露。對(duì)此,應(yīng)當(dāng)建立動(dòng)態(tài)授權(quán)和信息使用披露機(jī)制。而未來(lái)的人工智能法為智能服務(wù)提供者因服務(wù)需要收集如面部、指紋等個(gè)人敏感信息的應(yīng)當(dāng)設(shè)定風(fēng)險(xiǎn)預(yù)警機(jī)制和信息保護(hù)專員,定期對(duì)服務(wù)商經(jīng)營(yíng)狀況、信用狀況和信息使用和保護(hù)狀況進(jìn)行考察評(píng)估,避免服務(wù)提供者因不當(dāng)經(jīng)營(yíng)而疏于管理造成信息泄露。對(duì)于在評(píng)估中不合格的,予以公告,責(zé)令出具保證并派遣信息保護(hù)專員介入幫助和監(jiān)督整改;如果連續(xù)兩次評(píng)估均不合格或拒不整改的,責(zé)令其停止發(fā)展業(yè)務(wù)。
建立健全公開(kāi)透明的人工智能技術(shù)監(jiān)管體系是治理新技術(shù)的重要舉措。人工智能具有極強(qiáng)的專業(yè)性,作為未來(lái)智能社會(huì)構(gòu)建的基礎(chǔ),人工智能又具有顯著的溢出效應(yīng),其應(yīng)用涉及社會(huì)各領(lǐng)域,因此,對(duì)人工智能的監(jiān)管應(yīng)當(dāng)從技術(shù)開(kāi)發(fā)和技術(shù)應(yīng)用兩方面展開(kāi)。技術(shù)開(kāi)發(fā)層面的監(jiān)管需要制定統(tǒng)一的人工智能技術(shù)標(biāo)準(zhǔn)規(guī)范作為監(jiān)管依據(jù),明確國(guó)家科技部為監(jiān)管主體。國(guó)家科技部憑借其專業(yè)性和權(quán)威性,無(wú)疑是人工智能技術(shù)研發(fā)監(jiān)管的最適格主體。國(guó)務(wù)院《新一代人工智能發(fā)展規(guī)劃》關(guān)于實(shí)施組織的部署,也體現(xiàn)了圍繞科技部構(gòu)建中國(guó)人工智能科技發(fā)展行政配套體系的理念。技術(shù)應(yīng)用層面的監(jiān)管需要科技部聯(lián)合在具體技術(shù)應(yīng)用領(lǐng)域的負(fù)責(zé)部門綜合治理?;谌斯ぶ悄茉趹?yīng)用中往往處于輔助地位,因此,應(yīng)當(dāng)明確以責(zé)任部門為監(jiān)管主體,科技部協(xié)助監(jiān)管,避免因權(quán)限劃分不明導(dǎo)致低效監(jiān)管。
人工智能偽造技術(shù)的應(yīng)用,網(wǎng)絡(luò)平臺(tái)以提供智能服務(wù)需要為由大規(guī)模收集個(gè)人信息,作為信息實(shí)際控制者即同時(shí)負(fù)有妥善保護(hù)和使用信息的義務(wù)。濫用信息造成損害的,由網(wǎng)絡(luò)平臺(tái)承擔(dān)過(guò)錯(cuò)推定責(zé)任;對(duì)于信息泄露造成損害的,要區(qū)分導(dǎo)致信息泄露的原因是人為還是技術(shù)缺陷。人為的信息泄露由平臺(tái)承擔(dān)責(zé)任;技術(shù)缺陷導(dǎo)致的信息泄露,可以比照產(chǎn)品缺陷責(zé)任由技術(shù)開(kāi)發(fā)者(生產(chǎn)者)和網(wǎng)絡(luò)運(yùn)營(yíng)者(銷售者)承擔(dān)責(zé)任,并且由技術(shù)開(kāi)發(fā)者最終負(fù)解釋責(zé)任。而如果是人工智能偽造技術(shù)使用者利用該技術(shù)侵犯他人合法權(quán)益,可以類比網(wǎng)絡(luò)服務(wù)提供者責(zé)任,技術(shù)提供者要和使用者一起承擔(dān)連帶責(zé)任,但技術(shù)提供者可以舉證人工智能技術(shù)開(kāi)發(fā)符合法定安全標(biāo)準(zhǔn)并及時(shí)采取必要措施從而免責(zé)。
人工智能是未來(lái)國(guó)際競(jìng)爭(zhēng)合作的戰(zhàn)略性核心技術(shù),同時(shí)也可能是一項(xiàng)顛覆性技術(shù)。高度智慧和自主學(xué)習(xí)使人工智能具有不確定性而被警惕,人工智能偽造使算法“學(xué)會(huì)說(shuō)謊”更進(jìn)一步增加了其技術(shù)風(fēng)險(xiǎn)。應(yīng)對(duì)科技進(jìn)步帶來(lái)的危害,無(wú)論是先發(fā)展后治理還是禁止發(fā)展都是錯(cuò)誤的態(tài)度。我國(guó)在大力推進(jìn)人工智能技術(shù)發(fā)展的同時(shí),必須著力同步治理技術(shù)應(yīng)用帶來(lái)的風(fēng)險(xiǎn)。近年來(lái),包括人工智能作品屬性、無(wú)人駕駛汽車責(zé)任、算法透明和深度偽造規(guī)制在內(nèi)的研究都反映了我國(guó)在立法上對(duì)人工智能規(guī)范仍缺乏統(tǒng)一有效的回應(yīng),客觀上要求契合技術(shù)發(fā)展給予有效治理?!叭斯ぶ悄芊ā北仨毦桶踩珮?biāo)準(zhǔn)、監(jiān)管、責(zé)任等技術(shù)治理前提予以明確,這也是未來(lái)學(xué)界研究關(guān)注的重點(diǎn)。
注 釋:
① 深度偽造(Deep Fakes),一種新型人工智能偽造技術(shù),最開(kāi)始是指人工智能合成照片,隨后發(fā)展為視頻、音頻、文本和微表情等各種形式的信息載體.以視頻為例,視頻是由一幀幀圖片組成,偽造視頻就是將原視頻中的部分圖片替換成偽造圖片,基于源數(shù)據(jù)分析并運(yùn)用“生成性對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)”和“卷積神經(jīng)網(wǎng)絡(luò)(Converlutional Neural Network,CNN)”的算法生成器生成偽造圖片,再經(jīng)與真實(shí)圖片比較,并設(shè)定相似度達(dá)一定比率為“真”,反之為“假”.將通過(guò)鑒別的偽造圖片映射到原有視頻中替換真實(shí)圖片以保證視頻幀數(shù)連續(xù)和偽造視頻真實(shí)度,生成偽造視頻.
② 美國(guó)國(guó)土安全部(DHS),是美國(guó)政府于9·11恐怖事件后成立的聯(lián)邦行政部門,負(fù)責(zé)國(guó)內(nèi)安全及防止恐怖活動(dòng).
洛陽(yáng)理工學(xué)院學(xué)報(bào)(社會(huì)科學(xué)版)2021年4期