摘 要:生成式人工智能改變了傳統(tǒng)的信息生產(chǎn)機(jī)制而有廣闊的應(yīng)用場(chǎng)景,但其生成虛假信息速度快、逼真度高、無中生有的特征不僅放大了傳統(tǒng)的虛假信息風(fēng)險(xiǎn)隱患,還使得信息信任風(fēng)險(xiǎn)成為虛假信息的重要風(fēng)險(xiǎn)類型,也使得社交媒體平臺(tái)虛假信息治理防線有被全面突破的風(fēng)險(xiǎn)。對(duì)此,應(yīng)基于生成式人工智能對(duì)虛假信息治理體系的挑戰(zhàn),從規(guī)范依據(jù)、虛假信息分類分級(jí)和實(shí)施部署方面著手推進(jìn)虛假信息分級(jí)治理;應(yīng)從應(yīng)用準(zhǔn)入、算法治理和訓(xùn)練數(shù)據(jù)質(zhì)量管理方面強(qiáng)化虛假信息的源頭治理;應(yīng)從監(jiān)管協(xié)同、義務(wù)細(xì)化和公私協(xié)同方面增強(qiáng)虛假信息的協(xié)同治理。
關(guān)鍵詞:生成式人工智能;虛假信息;分類分級(jí);源頭治理;協(xié)同治理
中圖分類號(hào):D035 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-335X(2024)02-0112-10
DOI: 10.16497/j.cnki.1672-335X.202402010
2022年12月1日,美國(guó)OpenAI公司推出的ChatGPT以其在自然語言理解、文本生成、代碼編寫及知識(shí)問答等方面的強(qiáng)大功效讓社會(huì)見證了生成式人工智能的廣泛應(yīng)用場(chǎng)景和市場(chǎng)前景。我國(guó)很多企業(yè)也紛紛投入生成式人工智能的研發(fā)并推出了類似產(chǎn)品,如百度“文心一言”、阿里“通義千問”、360“智腦”、中國(guó)電科“小可”等。但生成式人工智能在應(yīng)用過程可能的負(fù)面影響也被揭露和關(guān)注,對(duì)此,既有研究探討該技術(shù)在營(yíng)銷領(lǐng)域[1]、旅游領(lǐng)域[2]、教育領(lǐng)域[3][4]、科研領(lǐng)域[5]的應(yīng)用可能引發(fā)的風(fēng)險(xiǎn)及應(yīng)對(duì),從不同視角揭示其應(yīng)用風(fēng)險(xiǎn)。通過文獻(xiàn)梳理發(fā)現(xiàn),既有研究均將虛假信息作為該技術(shù)應(yīng)用產(chǎn)生負(fù)面影響的原因之一,這充分說明在開展生成式人工智能場(chǎng)景下虛假信息治理理論研究的必要性。而觀察生成式人工智能技術(shù)的應(yīng)用,發(fā)現(xiàn)該技術(shù)不僅有憑空編造虛假信息的特征,而且有生成速度快、生成內(nèi)容逼真度高的特點(diǎn),可以想見該技術(shù)必然會(huì)使虛假信息的風(fēng)險(xiǎn)產(chǎn)生某種形塑進(jìn)而對(duì)虛假信息治理產(chǎn)生沖擊,[6]因而從實(shí)踐需要講也有對(duì)其展開研究的必要。既有虛假信息的治理實(shí)踐和研究,主要停留在生成式人工智能未廣泛應(yīng)用前的社交平臺(tái)虛假信息的治理,[7]尚且沒有結(jié)合生成式人工智能技術(shù)對(duì)虛假信息風(fēng)險(xiǎn)的特殊性和治理的挑戰(zhàn)來開展,因而難免缺乏針對(duì)性。因此,本文擬對(duì)生成式人工智能技術(shù)場(chǎng)景下虛假信息風(fēng)險(xiǎn)特殊性進(jìn)行挖掘,進(jìn)而分析既有虛假信息治理體系在面對(duì)技術(shù)挑戰(zhàn)時(shí)的困局并探索紓困之策。
一、生成式人工智能技術(shù)下虛假信息風(fēng)險(xiǎn)特殊性透視
生成式人工智能技術(shù)在生成虛假信息方面有速度快、體量大和逼真度高的特征,[8]比人工生產(chǎn)虛假信息效率高出很多量級(jí),甚至在圖片、視頻偽造等領(lǐng)域比人類更加高明。因此,生成式人工智能技術(shù)會(huì)對(duì)傳統(tǒng)的虛假信息風(fēng)險(xiǎn)發(fā)生影響,甚至還會(huì)產(chǎn)生新的風(fēng)險(xiǎn)挑戰(zhàn)。為對(duì)這些風(fēng)險(xiǎn)挑戰(zhàn)進(jìn)行揭示,本文通過文獻(xiàn)調(diào)研法和案例收集法對(duì)風(fēng)險(xiǎn)樣態(tài)進(jìn)行總結(jié),以便揭示在生成式人工智能下虛假信息風(fēng)險(xiǎn)的特殊性。
(一)放大已有虛假信息的風(fēng)險(xiǎn)隱患
虛假信息因存在領(lǐng)域不同會(huì)在個(gè)人權(quán)益、社會(huì)秩序以及國(guó)家安全等不同層面產(chǎn)生風(fēng)險(xiǎn)隱患,而生成式人工智能技術(shù)會(huì)讓虛假信息的破壞性得以放大而難以控制。在個(gè)人權(quán)益層面,編造謠言對(duì)個(gè)體進(jìn)行誹謗進(jìn)而侵犯?jìng)€(gè)體名譽(yù)權(quán),這類虛假信息的風(fēng)險(xiǎn)在生成式人工智能廣泛應(yīng)用前就已經(jīng)存在,而生成式人工技術(shù)場(chǎng)景下造謠成本的降低和造謠水平的增強(qiáng),使得謠言破除難度更高且風(fēng)險(xiǎn)隱患也更高,這放大了已有虛假信息的風(fēng)險(xiǎn)隱患。在社會(huì)秩序?qū)用?,生成式人工智能技術(shù)使得虛假社會(huì)新聞制作成本更低、速度更快和欺騙性更強(qiáng),進(jìn)而使社會(huì)秩序維護(hù)面臨更高的挑戰(zhàn)。例如,杭州某小區(qū)居民用ChatGPT制作“明日杭州市取消依照尾號(hào)限行”的虛假政府通告并進(jìn)行分享導(dǎo)致虛假信息被廣泛傳播,嚴(yán)重?cái)_亂了社會(huì)秩序。[9]而民眾信以為真的原因很大程度是因?yàn)镃hatGPT編寫的虛假新聞?dòng)泻軓?qiáng)的邏輯性和連貫性。在國(guó)家安全方面,生成式人工智能編寫虛假信息能力給政治穩(wěn)定、國(guó)防安全帶來的隱患也不容忽視。事實(shí)上,生成式人工智能被用于政治領(lǐng)域的案例已經(jīng)出現(xiàn)。例如,美國(guó)芝加哥市長(zhǎng)選舉中就曾出現(xiàn)利用人工智能軟件偽造候選人談話音頻進(jìn)而讓選民對(duì)候選人政治立場(chǎng)產(chǎn)生誤解的破壞選舉事件。[10]而在國(guó)防安全方面,生成式人工智能技術(shù)可能被敵對(duì)國(guó)家用來對(duì)我國(guó)進(jìn)行虛假信息攻擊。這種虛假信息攻擊主要有兩種情形:一種情形是通過編造虛假信息來影響我國(guó)民眾的認(rèn)知進(jìn)而營(yíng)造有利于敵人的輿論。此種攻擊手法美國(guó)對(duì)中東地區(qū)國(guó)家施展過,極大地增強(qiáng)了美國(guó)在當(dāng)?shù)氐妮浾搩?yōu)勢(shì)。[11]第二種情形是偽造虛假情報(bào)信息干擾我國(guó)決策機(jī)構(gòu)和國(guó)民對(duì)國(guó)安情勢(shì)判斷,進(jìn)而危害我國(guó)國(guó)家安全。[12]盡管上述風(fēng)險(xiǎn)并不是因生成式人工智能而產(chǎn)生,但運(yùn)用該技術(shù)會(huì)增加侵害手段的危害性,也會(huì)相應(yīng)提升該種類風(fēng)險(xiǎn)的治理難度。
(二)增加信息信任損害為重要風(fēng)險(xiǎn)類型
生成式人工智能智能具有類人性、看似真實(shí)性等特征,這使其可能錯(cuò)被作為獲取真實(shí)信息的工具,進(jìn)而產(chǎn)生信息信任損害的風(fēng)險(xiǎn)。事實(shí)上,生成式人工智能下虛假信息引發(fā)的信息信任損害風(fēng)險(xiǎn)已經(jīng)得到一定程度的顯現(xiàn),體現(xiàn)在個(gè)人信息信任和知識(shí)信息信任兩個(gè)方面。在個(gè)人信息信任方面,已出現(xiàn)AI編造他人過往經(jīng)歷信息的現(xiàn)象。例如,澳大利亞某地市長(zhǎng)布賴恩·胡德被ChatGPT編造其在1999年、2005年曾向外國(guó)官員行賄被判處刑罰的過往經(jīng)歷信息。[13]無獨(dú)有偶,美國(guó)喬治華盛頓大學(xué)法學(xué)教授喬納森·特利被編造有性侵女學(xué)生并被處罰的過往經(jīng)歷且曾因此事被《華盛頓郵報(bào)》公開報(bào)道。而事實(shí)上《華盛頓郵報(bào)》從未報(bào)道過該新聞,而特利也從未因性侵女性受過指控。[14]這說明生成式人工智能有編造個(gè)人過往經(jīng)歷的信息能力,如果將其作為獲取他人經(jīng)歷信息的工具,必然引發(fā)個(gè)人信息信任的風(fēng)險(xiǎn)。在知識(shí)信息信任方面,類似ChatGPT的生成式人工智能能以聊天的方式向詢問者快速提供合乎邏輯和可信的答案,在回答簡(jiǎn)單的知識(shí)常識(shí)等方面具有很好的客觀性和真實(shí)性,因此很容易被作為無所不知的超級(jí)人工智能而被賦予知識(shí)基礎(chǔ)設(shè)施的地位進(jìn)而成為獲取知識(shí)的重要渠道。而生成式人工智能對(duì)問題的回答是基于對(duì)訓(xùn)練數(shù)據(jù)的深度學(xué)習(xí)。如果學(xué)習(xí)的數(shù)據(jù)質(zhì)量存在問題,其輸出文本真實(shí)性難以保證。在特定高深的學(xué)術(shù)領(lǐng)域,其沒有受到相關(guān)數(shù)據(jù)的訓(xùn)練,其對(duì)問題的回答存在事實(shí)性錯(cuò)誤、概念誤用甚至捏造信息等問題。生成式人工智能還會(huì)編造虛假的信息源,如果被其欺騙而怠于查證則無疑有害教育、科研的發(fā)展,[15]進(jìn)而產(chǎn)生知識(shí)信任的問題。
(三)突破社交平臺(tái)內(nèi)容治理防線的風(fēng)險(xiǎn)
生成式人工智能連續(xù)對(duì)話、信息批量制造以及出色的偽裝能力會(huì)使得社交平臺(tái)面對(duì)治理海量高度逼真的虛假信息的挑戰(zhàn)。社交媒體平臺(tái)如微信、微博、抖音、知乎等已經(jīng)是人們?nèi)粘=煌闹匾绞剑蔀榘l(fā)布信息、獲取信息與分享知識(shí)的重要場(chǎng)域,也是網(wǎng)絡(luò)虛假信息泛濫的重災(zāi)區(qū)。社交媒體平臺(tái)打破了傳統(tǒng)媒體對(duì)信息發(fā)布的壟斷,任何用戶都可以是信息源,但也因用戶發(fā)布信息往往不會(huì)經(jīng)過真實(shí)性審核而面臨如何有效治理虛假信息的困擾。[16]生成式人工智能技術(shù)在信息生產(chǎn)力方面的突破性進(jìn)展,會(huì)進(jìn)一步加劇社交平臺(tái)虛假信息治理的難度。在治理對(duì)象識(shí)別方面,生成式人工智能生成虛假信息的高效率和欺騙性使得社交平臺(tái)識(shí)別虛假信息的工作量和工作難度極大提高,進(jìn)而增加社交平臺(tái)識(shí)別虛假信息的成本。在虛假信息傳播的技術(shù)反制方面,生成式人工智能的連續(xù)對(duì)話能力使其被作為社交機(jī)器人使用時(shí)更加難以識(shí)別,從而提高打擊社交機(jī)器人的難度。傳統(tǒng)的社交機(jī)器人只是簡(jiǎn)單復(fù)制與粘貼原帖來傳播虛假信息而不能進(jìn)行持續(xù)對(duì)話,相對(duì)容易被社交平臺(tái)識(shí)別與禁止,而生成人工智能如ChatGPT卻沒有原有社交機(jī)器人的不足。因此,社交平臺(tái)虛假信息的治理將會(huì)面臨不同以往的全新挑戰(zhàn),甚至面臨現(xiàn)有治理體系被全面突破的風(fēng)險(xiǎn)。在這種背景下,無論是監(jiān)管機(jī)構(gòu)還是社交媒體平臺(tái),都必須及時(shí)更新社交平臺(tái)虛假信息的應(yīng)對(duì)策略,才能更好地應(yīng)對(duì)生成式人工智能技術(shù)給社交平臺(tái)虛假信息治理帶來的挑戰(zhàn)。
二、既有生成式人工智能下虛假信息治理模式的困局及改進(jìn)方向
網(wǎng)絡(luò)虛假信息問題自互聯(lián)網(wǎng)誕生之日就已經(jīng)產(chǎn)生,但生成式人工智能廣泛應(yīng)用之前的虛假信息隱患遠(yuǎn)沒有現(xiàn)在這么嚴(yán)重。雖然目前網(wǎng)絡(luò)虛假信息的宏觀框架和治理措施及安排,在一定程度上能對(duì)生成式人工智能技術(shù)引發(fā)的虛假信息問題進(jìn)行應(yīng)對(duì),但從治理現(xiàn)狀考察,既有治理體系面臨治理對(duì)象范圍擴(kuò)大、源頭治理力度不足、治理主體協(xié)同性不強(qiáng)的困局。
(一)生成式人工智能下虛假信息的治理現(xiàn)狀
從虛假信息生成到發(fā)揮負(fù)面作用來看,依次會(huì)經(jīng)歷生成式人工智能編寫虛假信息、社交平臺(tái)傳播、受眾接受錯(cuò)誤信息的過程。因此,虛假信息的治理包括信息生產(chǎn)、信息傳播以及信息影響三個(gè)環(huán)節(jié),涉及生成服務(wù)提供者、社交媒體平臺(tái)以及網(wǎng)絡(luò)用戶等多方主體。與之相對(duì)應(yīng),網(wǎng)絡(luò)虛假信息的治理也形成了覆蓋多環(huán)節(jié)、多主體的治理格局。通過梳理有關(guān)法律、行政法規(guī)、部門規(guī)章以及地方性法規(guī)、網(wǎng)絡(luò)平臺(tái)的管理規(guī)約、用戶協(xié)議等有普遍約束力或者局部約束力的文件,可將當(dāng)前網(wǎng)絡(luò)虛假信息的治理主體、治理環(huán)節(jié)及治理措施概括為圖1。
總的來說,現(xiàn)有的以《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》為基礎(chǔ)構(gòu)建的網(wǎng)絡(luò)虛假信息治理體系在宏觀治理框架方面已經(jīng)相對(duì)完善,也基本覆蓋到相關(guān)主體和信息生產(chǎn)、信息傳播以及信息影響等環(huán)節(jié)。然而在治理規(guī)范的針對(duì)性層面,如《互聯(lián)網(wǎng)深度合成服務(wù)管理辦法》(以下簡(jiǎn)稱“《辦法》”)〖ZW(1B〗2022年11月11日,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》由國(guó)家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布,自2023年1月10日起施行。)直接指向人工智能深度合成虛假信息源頭生產(chǎn)的治理規(guī)范還比較少,《辦法》在第二章第六條只做了籠統(tǒng)的規(guī)定:“任何組織和個(gè)人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國(guó)家安全和利益、損害國(guó)家形象、侵害社會(huì)公共利益、擾亂經(jīng)濟(jì)和社會(huì)秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動(dòng)。深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息。轉(zhuǎn)載基于深度合成服務(wù)制作發(fā)布的新聞信息的,應(yīng)當(dāng)依法轉(zhuǎn)載互聯(lián)網(wǎng)新聞信息稿源單位發(fā)布的新聞信息”。《辦法》沒有對(duì)深度合成服務(wù)中的基礎(chǔ)數(shù)據(jù)來源、數(shù)據(jù)質(zhì)量、數(shù)據(jù)合成算法進(jìn)行規(guī)范。而其他規(guī)范在應(yīng)對(duì)生成式人工智能下虛假信息治理方面還缺乏針對(duì)性。在治理對(duì)象的覆蓋范圍上,現(xiàn)行治理規(guī)范只規(guī)制屬于違法信息、不良信息和虛假新聞的虛假信息,而沒有覆蓋到人工智能生成的純粹事實(shí)虛假信息,如虛假健康信息、虛假學(xué)術(shù)信息等。因此,在既有虛假信息治理體系中,生成式人工智能引發(fā)的虛假信息問題難以得到有效治理,還需要進(jìn)一步解決。
(二)面向生成式人工智能的虛假信息治理困境
生成式人工智能技術(shù)對(duì)虛假信息生產(chǎn)效率、虛假性識(shí)別難度的提高以及其作為知識(shí)基礎(chǔ)設(shè)施表面的虛假權(quán)威性,不僅放大了傳統(tǒng)虛假信息的風(fēng)險(xiǎn)隱患,而且引發(fā)新的信息信任風(fēng)險(xiǎn)和平臺(tái)虛假信息治理防線被突破的風(fēng)險(xiǎn)。然而生成式人工智能技術(shù)的積極價(jià)值也要保護(hù),因此,在生成式人工智能時(shí)代下,虛假信息的治理目標(biāo)在于實(shí)現(xiàn)人工智能科技創(chuàng)新與虛假信息隱患的平衡,盡全力將虛假信息隱患控制在合理范圍。而從虛假治理規(guī)劃的角度講,應(yīng)做好事前人工智能虛假信息的源頭生成控制、事中虛假信息傳播的阻斷和事后虛假信息影響的消除等工作,而根據(jù)生成式人工智能的技術(shù)特性和事后修復(fù)虛假信息損害成本的考量,虛假信息治理的重點(diǎn)應(yīng)放在事前虛假信息生成的監(jiān)管和事中傳播環(huán)節(jié)虛假信息的阻斷,當(dāng)然事后修復(fù)影響的責(zé)任追究和辟謠工作也要進(jìn)行相應(yīng)強(qiáng)化。因此,實(shí)現(xiàn)生成人工智能下虛假信息的治理,需要根據(jù)生成人工智能下虛假信息風(fēng)險(xiǎn)隱患的特殊性,從治理薄弱點(diǎn)出發(fā),構(gòu)建與生成式人工智能場(chǎng)景下虛假信息風(fēng)險(xiǎn)水平相匹配的治理體系。
但是,既有網(wǎng)絡(luò)虛假信息治理體系在面對(duì)ChatGPT等生成式人工智能技術(shù)方?jīng)_擊下面臨困局,主要體現(xiàn)在治理對(duì)象、治理規(guī)劃以及治理主體三個(gè)方面。在治理對(duì)象層面上,生成式人工智能使得虛假信息治理的范圍擴(kuò)張,而既有治理體系沒有涵蓋可能引發(fā)風(fēng)險(xiǎn)隱患的全部虛假信息。根據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)深度生成服務(wù)管理辦法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》等規(guī)范,既有治理體系范圍內(nèi)的虛假信息僅包括違法信息、不良信息、虛假新聞,而沒涵蓋虛假健康信息、虛假學(xué)術(shù)信息以及偏見和歧視信息等事實(shí)虛假信息。以往事實(shí)虛假信息多由不法分子為了特定目的而刻意偽造,例如編造用鐵鍋炒菜能補(bǔ)充鐵元素等虛假信息來銷售鐵鍋等,而不會(huì)無目的地去偽造單純事實(shí)虛假信息,而生成式人工智能由于自身智能缺陷卻會(huì)不基于功利目的地去生產(chǎn)這些純粹虛假和違反常識(shí)的信息,因此生成式人工智能場(chǎng)景下需要治理的虛假信息范圍更為寬泛,如果采用同樣的治理標(biāo)準(zhǔn),則會(huì)產(chǎn)生不合理地增加企業(yè)合規(guī)成本、阻礙技術(shù)創(chuàng)新以及侵犯?jìng)€(gè)體信息發(fā)布自由等問題,因此,應(yīng)該綜合考慮信息類型、信息領(lǐng)域以及風(fēng)險(xiǎn)程度進(jìn)行分類分級(jí)治理。在治理規(guī)劃層面上,生成式人工智能使得源頭信息生產(chǎn)環(huán)節(jié)成為治理重點(diǎn),既有治理體系在源頭治理方面力度不足,具體體現(xiàn)在生成式人工智能的監(jiān)管缺位。[17]以ChatGPT為代表的生成式人工智能之所以會(huì)產(chǎn)生虛假信息,除了人為操縱之外,還與其內(nèi)在算法缺陷以及訓(xùn)練數(shù)據(jù)質(zhì)量不高、語料庫不能及時(shí)更新等有關(guān)。生成式人工智能的治理除了要對(duì)傳播環(huán)節(jié)進(jìn)行治理之外,還要回到生成人工智能規(guī)范本身,促使人工智能企業(yè)優(yōu)化算法以及提高訓(xùn)練數(shù)據(jù)的質(zhì)量來盡力減少不必要的錯(cuò)誤。即便如此,也不可能將全部的錯(cuò)誤問題解決,還需要人工智能服務(wù)提供者在可能的范圍之內(nèi)配合傳播環(huán)節(jié)虛假信息的治理,如添加數(shù)字水印等。整體來說,既有對(duì)人工智能企業(yè)算法治理、訓(xùn)練數(shù)據(jù)質(zhì)量管理以及配合后續(xù)治理的規(guī)范并非絕對(duì)欠缺,但都缺乏直接相關(guān)性。如,2022年3月1日施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,盡管對(duì)生成合成類的算法推薦技術(shù)進(jìn)行了規(guī)范,但是并沒有直接從源頭對(duì)算法訓(xùn)練數(shù)據(jù)、算法缺陷等進(jìn)行規(guī)制;《互聯(lián)網(wǎng)深度生成服務(wù)管理辦法》中規(guī)定:深度合成服務(wù)提供者和技術(shù)支持者應(yīng)當(dāng)加強(qiáng)訓(xùn)練數(shù)據(jù)管理,采取必要措施保障訓(xùn)練數(shù)據(jù)安全;訓(xùn)練數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)遵守個(gè)人信息保護(hù)的有關(guān)規(guī)定。但是此處并沒有直接涉及訓(xùn)練數(shù)據(jù)的質(zhì)量、可信度等方面的問題。當(dāng)然,2023年8月公布的《生成式人工智能服務(wù)管理暫行辦法》主要規(guī)定了生成式人工智能服務(wù)提供者的責(zé)任,但是后續(xù)治理的措施并不完備,傳播平臺(tái)責(zé)任者、服務(wù)使用者相關(guān)的責(zé)任并不明確,而且缺乏相應(yīng)的懲罰措施。在治理主體的協(xié)同性方面,現(xiàn)有治理模式?jīng)]有構(gòu)建起責(zé)任明確、協(xié)作有效的生成式人工智能場(chǎng)景下的虛假信息治理機(jī)制。生成人工智能場(chǎng)景下的虛假信息從產(chǎn)生到傳播會(huì)涉及多方主體,而不同主體應(yīng)該負(fù)有相應(yīng)責(zé)任,但由于缺乏明確的責(zé)任劃定和協(xié)同義務(wù)過于寬泛,因而治理主體在治理職責(zé)的履行效果上很難保證。比如,法律只是抽象地規(guī)定監(jiān)管機(jī)關(guān)有監(jiān)管職責(zé),網(wǎng)絡(luò)服務(wù)提供者有防止生成、傳播虛假信息的義務(wù),而如何具體履行防范義務(wù)以及采取何種措施沒有細(xì)化規(guī)定。又如,應(yīng)對(duì)生成式人工智能給虛假信息治理的沖擊,有關(guān)主體(如網(wǎng)信、電信、公安等部門)之間需要進(jìn)行必要的信息溝通、事務(wù)協(xié)調(diào)以及聯(lián)合行動(dòng),但目前尚缺乏相應(yīng)的協(xié)調(diào)機(jī)制。因此,在虛假信息的治理上難免相互推諉,甚至即便部分主體(如公安機(jī)關(guān)、國(guó)家安全機(jī)關(guān)等部門)有心治理,但由于缺乏相應(yīng)的協(xié)調(diào)機(jī)制其努力也因其他方面的掣肘而不能取得實(shí)效。此時(shí),應(yīng)該反思既有的虛假信息治理體系,根據(jù)人工智能對(duì)虛假信息治理的挑戰(zhàn)來采取應(yīng)對(duì)措施,實(shí)現(xiàn)多元主體的治理協(xié)同。
(三)生成式人工智能技術(shù)下虛假信息治理的改進(jìn)方向
面對(duì)生成式人工智能技術(shù)帶來虛假信息治理難題,既有虛假信息治理體系對(duì)生成人工智能場(chǎng)景下的虛假信息生產(chǎn)能力和風(fēng)險(xiǎn)隱患的特殊性缺乏有效的回應(yīng),因而需要進(jìn)一步優(yōu)化。以往虛假信息帶來的問題主要還是謠言誹謗、虛假新聞以及虛假信息攻擊,而且數(shù)量還停留在相對(duì)可控的范圍,只要強(qiáng)化對(duì)傳播各環(huán)節(jié)的把控,就能將虛假信息的影響控制在合理范圍之內(nèi)。既有治理體系之所以面對(duì)生成式人工智能會(huì)陷入困局,其原因在于現(xiàn)有治理對(duì)生成人工智能技術(shù)生成虛假信息的特性回應(yīng)能力不足。詳言之,正因?yàn)樯墒饺斯ぶ悄軣o中生有、生成速度快的特性才使得需要治理的虛假信息類型增加、數(shù)量膨脹,進(jìn)而才引發(fā)治理對(duì)象擴(kuò)張的問題,也因其生成信息效率的革命性提高才使得信息生產(chǎn)環(huán)節(jié)的人工智能監(jiān)管成為治理的中心,才使得不同治理主體的協(xié)同性需要調(diào)整,以此來適應(yīng)治理需要。因此,既有治理體系的改進(jìn)思路也應(yīng)以生成式人工智能的技術(shù)特性和影響為基礎(chǔ)來展開。詳言之,首先,應(yīng)重視違法信息、不良信息以及虛假新聞之外的虛假信息的治理,以遏制因治理疏漏而引發(fā)的信息信任等風(fēng)險(xiǎn)的現(xiàn)實(shí)化。其次,應(yīng)增強(qiáng)生成式人工智能本身的治理,生成式人工智能產(chǎn)生虛假信息受其算法、訓(xùn)練數(shù)據(jù)、人工標(biāo)注等因素的影響,如果只是簡(jiǎn)單去規(guī)定人工智能企業(yè)防止虛假信息生成的義務(wù)而不將治理的觸角伸進(jìn)人工智能治理,那么虛假信息的治理就只是隔靴搔癢。最后,應(yīng)根據(jù)生成式人工智能下虛假信息生成速度快、體量大、逼真程度高的特征對(duì)虛假信息不同治理環(huán)節(jié)的治理主體、治理規(guī)范、治理措施提出新要求,對(duì)整個(gè)虛假信息的治理體系進(jìn)行全過程、全鏈條優(yōu)化。
三、生成式人工智能場(chǎng)景下虛假信息的治理對(duì)策
生成式人工智能技術(shù)的進(jìn)展使得虛假信息風(fēng)險(xiǎn)發(fā)生了深刻變化,不僅傳統(tǒng)虛假信息風(fēng)險(xiǎn)被放大,信息信任風(fēng)險(xiǎn)成為重要風(fēng)險(xiǎn)類型,還加劇了社交平臺(tái)虛假信息治理防線被突破的風(fēng)險(xiǎn),因此對(duì)這些風(fēng)險(xiǎn)進(jìn)行應(yīng)對(duì)已經(jīng)成為生成式人工智能場(chǎng)景下不可回避的問題。為有效應(yīng)對(duì)這些風(fēng)險(xiǎn)隱患,可從虛假信息的分類分級(jí)治理、虛假信息的生產(chǎn)源頭治理以及治理主體的協(xié)同治理方面著手推進(jìn)生成式人工智能場(chǎng)景下虛假信息的治理,進(jìn)而疏解既有虛假信息治理體系在面對(duì)生成式人工智能沖擊而遭遇的困局。
(一)推進(jìn)虛假信息的分級(jí)治理
面對(duì)生成式人工智能技術(shù)引發(fā)虛假信息治理對(duì)象范圍的擴(kuò)充以及數(shù)量的急劇增加,務(wù)實(shí)的做法是對(duì)虛假信息進(jìn)行分類分級(jí)治理,根據(jù)虛假信息損害法益的重要性和可能產(chǎn)生的危險(xiǎn)性賦予治理主體差異化的治理責(zé)任,進(jìn)而實(shí)現(xiàn)治理效果與治理成本的平衡。為實(shí)現(xiàn)分級(jí)治理,應(yīng)從規(guī)范依據(jù)、分類分級(jí)指引、部署推進(jìn)策略等方面來推進(jìn)分級(jí)治理。
第一,應(yīng)由監(jiān)管機(jī)關(guān)明確規(guī)定虛假信息分類分級(jí)治理的要求,使得分級(jí)分類治理有法可依。分類分級(jí)治理的理念在數(shù)據(jù)治理[18]、個(gè)人信息保護(hù)[19]方面已得到貫徹并取得階段性進(jìn)展,而虛假信息分類分級(jí)還沒有明確的規(guī)范依據(jù),但《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》將信息區(qū)分為違法信息、不良信息并規(guī)定差異化義務(wù)的做法已經(jīng)體現(xiàn)了虛假信息內(nèi)容分級(jí)治理的理念。為了使分類分級(jí)有明確的法律依據(jù),同時(shí)考慮到分級(jí)治理制度還處于初創(chuàng)期,因此可由中央網(wǎng)信辦在有關(guān)虛假治理規(guī)范中先做出原則性規(guī)定,以便給后續(xù)推行留下制度空間,但其中要包括內(nèi)容分級(jí)原則性標(biāo)準(zhǔn)和差異化設(shè)置治理主體義務(wù)和法律責(zé)任等內(nèi)容,以構(gòu)建起分級(jí)治理的基本法律框架。
第二,應(yīng)重視制定具有可操作性的虛假信息內(nèi)容分類分級(jí)規(guī)范指引。科學(xué)且有可操作性的信息內(nèi)容分類分級(jí)指引是落實(shí)虛假信息分類分級(jí)治理的先決條件和重要依托。[20]為確保該指引具有可操作性,在制定參與主體方面,應(yīng)參考《網(wǎng)絡(luò)數(shù)據(jù)分類分級(jí)指引》的制定過程,吸納有關(guān)領(lǐng)域的監(jiān)管機(jī)關(guān)、人工智能產(chǎn)業(yè)協(xié)會(huì)、社交平臺(tái)企業(yè)行業(yè)協(xié)會(huì)以及不同行業(yè)的研究機(jī)構(gòu)和專業(yè)人士共同參與,以吸取各方面智慧和經(jīng)驗(yàn)來提高可執(zhí)行性。在虛假信息內(nèi)容分級(jí)指引參考標(biāo)準(zhǔn)上,可參考《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南》〖ZW(2B〗關(guān)于發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——網(wǎng)絡(luò)數(shù)據(jù)安全風(fēng)險(xiǎn)評(píng)估實(shí)施指引》的通知,https://www.tc260.org.cn/upload/2021-12-31/1640948142376022576.pdf。)的規(guī)定,綜合考慮虛假信息的危害程度、影響對(duì)象、影響程度因素來確定虛假信息的風(fēng)險(xiǎn)等級(jí)。根據(jù)虛假信息對(duì)國(guó)家安全、公共利益或者個(gè)人、組織合法權(quán)益造成的危害程度,將其從低到高分成一般、重大、危險(xiǎn)三個(gè)級(jí)別,根據(jù)所損害法益的類型影響對(duì)象可區(qū)分為國(guó)家安全、公共利益、組織利益以及個(gè)人利益四種,而影響程度可分嚴(yán)重、一般、輕微和無影響四個(gè)等級(jí)(參見表1)。考慮到國(guó)家安全、公共利益的重要性,即便對(duì)其僅有輕微影響也可以定為更高等級(jí),而僅對(duì)個(gè)人、組織權(quán)益產(chǎn)生影響的虛假信息即便有嚴(yán)重影響也可能被定為相對(duì)較低的等級(jí)。如,捏造某人殺人的謠言,相比造謠明天將施行交通管制的情形,后者涉及了不特定多數(shù)人的公共利益,盡管對(duì)公共利益有輕微影響,可以將后者定位更高級(jí),因?yàn)檫@種謠言需要及時(shí)糾正,涉及的群體比較大,而前者針對(duì)的是個(gè)體,即使產(chǎn)生嚴(yán)重后果,也不產(chǎn)生更大危害,所以定為較低級(jí)別。
第三,應(yīng)遵循“先試點(diǎn)后推行”虛假信息分級(jí)治理推進(jìn)思路。監(jiān)管機(jī)關(guān)和符合條件的企業(yè)可先行開展分級(jí)治理試點(diǎn),對(duì)分類分級(jí)規(guī)范指引、差異化義務(wù)設(shè)置和分類監(jiān)管措施的實(shí)施效果進(jìn)行檢驗(yàn),并為后續(xù)改進(jìn)提供參考經(jīng)驗(yàn)。為確保試點(diǎn)效果,首先要制訂詳細(xì)的試點(diǎn)規(guī)劃,對(duì)測(cè)試周期、測(cè)試指標(biāo)、測(cè)試結(jié)果評(píng)價(jià)、治理成本、保障機(jī)制、監(jiān)督機(jī)制、網(wǎng)絡(luò)用戶權(quán)益保護(hù)等方面做出全面規(guī)定。其次,試點(diǎn)期間對(duì)參與試點(diǎn)的生成式人工智能企業(yè)、社交平臺(tái)企業(yè)等主體給予特定的監(jiān)管優(yōu)待和財(cái)政補(bǔ)貼,調(diào)動(dòng)企業(yè)參與試點(diǎn)的積極性。最后,要做好試點(diǎn)經(jīng)驗(yàn)總結(jié)工作,對(duì)試點(diǎn)過程中的積極成果及時(shí)進(jìn)行總結(jié),將其作為分類分級(jí)規(guī)范指引、義務(wù)規(guī)范設(shè)置和監(jiān)管措施調(diào)整的依據(jù)。
(二)強(qiáng)化虛假信息的源頭治理
生成式人工智能對(duì)整個(gè)虛假信息治理鏈條的直接沖擊體現(xiàn)在信息生產(chǎn)環(huán)節(jié),因此,虛假信息治理應(yīng)強(qiáng)化源頭治理才能實(shí)現(xiàn)治理效能最大化。而人工智能產(chǎn)生錯(cuò)誤信息除受人操縱外,還受其模型算法的局限性、預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量以及人工標(biāo)注質(zhì)量的影響。[21]因此,從根本上遏制虛假信息,除了規(guī)范網(wǎng)絡(luò)用戶使用網(wǎng)絡(luò)行為、運(yùn)用民法、刑法在事后打擊濫用人工智能行為外,還要強(qiáng)化人工智能本身的治理來控制人工智能本身的虛假信息生成和提供。
第一,應(yīng)對(duì)生成式人工智能應(yīng)用領(lǐng)域設(shè)置準(zhǔn)入負(fù)面清單,暫時(shí)禁止其進(jìn)入如科研、教學(xué)、醫(yī)療等可能引發(fā)高風(fēng)險(xiǎn)的領(lǐng)域。暫時(shí)禁止生成式人工智能進(jìn)入科研、教學(xué)、醫(yī)療等領(lǐng)域,可以避免其帶來的不確定性風(fēng)險(xiǎn),如避免學(xué)生學(xué)術(shù)誠(chéng)信的擔(dān)憂、深度虛假信息生成,也可以避免醫(yī)學(xué)領(lǐng)域過度依賴人工智能可能造成不良預(yù)測(cè)事件、個(gè)人醫(yī)療信息泄露等。[22]與此同時(shí),禁止生成式人工智能在這些領(lǐng)域的應(yīng)用也會(huì)阻礙新技術(shù)的發(fā)展,不利于我國(guó)生成式人工智能技術(shù)的發(fā)展,阻礙科技創(chuàng)新。因此,相比于意大利禁止生成式人工智能ChatGPT應(yīng)用的政策而言,意大利宣布禁用ChatGPT,限制OpenAI處理本國(guó)用戶信息,https://www.thepaper.cn/newsDetail_forward_22539065。)我國(guó)應(yīng)該保持政策的彈性,在目前生成式人工智能風(fēng)險(xiǎn)不明的情況下,對(duì)其設(shè)置準(zhǔn)入負(fù)面清單,暫時(shí)禁止其進(jìn)入某些領(lǐng)域,待到技術(shù)成熟時(shí)再全面放開。同時(shí),我國(guó)要加大生成式人工智能的研發(fā),不能因此錯(cuò)失生成式人工智能的發(fā)展機(jī)遇。從目前來看,生成式人工智能的代表ChatGPT在智能回答上已經(jīng)表現(xiàn)出類人性特征,但因其算法、訓(xùn)練數(shù)據(jù)及人工標(biāo)注的原因,其不可能成為知識(shí)基礎(chǔ)設(shè)施,而只是對(duì)已有信息進(jìn)行加工和合成。盡管將其應(yīng)用在科研領(lǐng)域及教育等領(lǐng)域可能會(huì)產(chǎn)生很多難以控制的隱患,如影響認(rèn)知塑造、科研誠(chéng)信進(jìn)而沖擊人類的知識(shí)根基。但如果將其應(yīng)用在電商領(lǐng)域以及政務(wù)問答等有相對(duì)固定模板的領(lǐng)域,則能起到提高生產(chǎn)力的功效,因此應(yīng)對(duì)其應(yīng)用領(lǐng)域進(jìn)行限制。
第二,積極利用好算法備案審查制度抓手,通過細(xì)化和完善備案審查制度來督促生成式人工智能企業(yè)優(yōu)化算法模型并對(duì)明顯虛假的信息進(jìn)行過濾。算法備案是國(guó)家機(jī)關(guān)實(shí)施算法治理、推進(jìn)數(shù)字治理現(xiàn)代化的重要抓手。[23]實(shí)現(xiàn)虛假信息治理首先要修改算法備案的適用范圍,目前算法備案僅對(duì)具有輿論屬性與社會(huì)動(dòng)員能力的算法適用,目前新出臺(tái)的《生成式人工智能服務(wù)管理暫行辦法》也沒有規(guī)定其他類型的生成式人工智能算法需要備案。因此,首先,將高風(fēng)險(xiǎn)的生成式人工智能類算法納入其中,算法分級(jí)從算法可能引發(fā)的風(fēng)險(xiǎn)入手,將個(gè)人權(quán)益、公共利益與國(guó)家安全納入考慮范圍,可以劃分為高風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)算法。參見陳兵,董思琰.分類分級(jí)治理算法的基本內(nèi)涵及實(shí)踐進(jìn)路[J].西安財(cái)經(jīng)大學(xué)學(xué)報(bào),2023,(6):70-79.)不管算法是否具有輿論屬性與社會(huì)動(dòng)員能力;其次,細(xì)化和擴(kuò)充備案內(nèi)容,將是否采取措施對(duì)虛假信息進(jìn)行過濾或者反制以及其實(shí)際阻止效果作為審查內(nèi)容;再次,強(qiáng)化算法備案后的審查力度,并將通過備案審查作為算法投入使用的前置條件,避免備案流于形式。[24]最后,將提交備案審查的材料如虛假信息控制報(bào)告、治理承諾書等,將其作為后續(xù)追責(zé)的依據(jù),如果已經(jīng)備案的算法模型在后續(xù)使用中出現(xiàn)的風(fēng)險(xiǎn)影響范圍、反制措施效果與備案內(nèi)容描述有明顯差距,應(yīng)及時(shí)撤銷備案并啟動(dòng)備案造假的追責(zé)程序,進(jìn)而強(qiáng)化備案審查的效果。
第三,應(yīng)積極推動(dòng)監(jiān)管機(jī)關(guān)和人工智能產(chǎn)業(yè)協(xié)會(huì)在充分協(xié)商基礎(chǔ)上制定可供執(zhí)行的訓(xùn)練數(shù)據(jù)質(zhì)量管理規(guī)范,引導(dǎo)人工智能企業(yè)提高訓(xùn)練數(shù)據(jù)的質(zhì)量,將因訓(xùn)練數(shù)據(jù)原因?qū)е碌奶摷傩畔㈠e(cuò)誤控制在合理范圍。在訓(xùn)練數(shù)據(jù)庫的選擇上,應(yīng)要求人工智能企業(yè)對(duì)該數(shù)據(jù)庫中可能隱含的虛假信息的比例和對(duì)模型訓(xùn)練的影響進(jìn)行整體性評(píng)估,如果該數(shù)據(jù)庫虛假信息數(shù)據(jù)占比過高且會(huì)導(dǎo)致虛假信息輸出風(fēng)險(xiǎn)極高,就應(yīng)要求將其排除在訓(xùn)練數(shù)據(jù)之外。在選定可用于訓(xùn)練的數(shù)據(jù)庫之外,應(yīng)要求企業(yè)采取人工或者技術(shù)手段對(duì)數(shù)據(jù)庫的虛假信息盡最大可能進(jìn)行清洗,究竟應(yīng)達(dá)到何種法律強(qiáng)制標(biāo)準(zhǔn)應(yīng)由監(jiān)管機(jī)關(guān)和產(chǎn)業(yè)協(xié)會(huì)進(jìn)行協(xié)商,以保證標(biāo)準(zhǔn)的可行性。監(jiān)管機(jī)關(guān)在制定法律強(qiáng)制性之前應(yīng)該積極與產(chǎn)業(yè)協(xié)會(huì)開展聽證會(huì),聽取專家學(xué)者、產(chǎn)業(yè)公司代表的意見。此外,產(chǎn)業(yè)協(xié)會(huì)應(yīng)積極制定行業(yè)標(biāo)準(zhǔn),在行業(yè)標(biāo)準(zhǔn)的基礎(chǔ)上建立強(qiáng)制性國(guó)家標(biāo)準(zhǔn),并以國(guó)務(wù)院部門規(guī)章的形式發(fā)布。
(三)增強(qiáng)虛假信息的協(xié)同治理
生成式人工智能場(chǎng)景下虛假信息生產(chǎn)的影響會(huì)傳導(dǎo)到整個(gè)虛假信息治理鏈條,因此需要增強(qiáng)不同治理主體之間的協(xié)同性來強(qiáng)化治理效能。
第一,應(yīng)設(shè)置監(jiān)管機(jī)關(guān)“義務(wù)型”責(zé)任清單,注重監(jiān)管機(jī)關(guān)的力量整合,強(qiáng)化監(jiān)管機(jī)關(guān)的協(xié)同性,使監(jiān)管力量得到充分釋放,從而營(yíng)造虛假信息治理的良好外部環(huán)境。監(jiān)管者負(fù)有營(yíng)造遏制虛假信息生態(tài)環(huán)境的重要責(zé)任,必須要通過壓實(shí)責(zé)任和強(qiáng)化協(xié)同來營(yíng)造遏制虛假信息的良好外部環(huán)境。首先,應(yīng)制定監(jiān)管“義務(wù)型”責(zé)任清單,倒逼監(jiān)管機(jī)關(guān)履行職責(zé)。責(zé)任的最初內(nèi)涵是做好分內(nèi)之事,[25]因此可通過責(zé)任清單來明確監(jiān)管機(jī)關(guān)的職責(zé)。同時(shí)責(zé)任清單要根據(jù)實(shí)際情況來進(jìn)行科學(xué)制定,避免難以落地。責(zé)任清單應(yīng)該主要包括生成式類算法機(jī)制機(jī)理風(fēng)險(xiǎn)性評(píng)估、虛假信息檢測(cè)定期報(bào)告、虛假信息處理結(jié)果公告等。責(zé)任清單應(yīng)貫徹到監(jiān)管內(nèi)容從產(chǎn)生、傳播、影響及處理等整個(gè)環(huán)節(jié)。其次,應(yīng)由對(duì)互聯(lián)網(wǎng)虛假信息治理負(fù)有主體責(zé)任的網(wǎng)信部門牽頭有關(guān)監(jiān)管部門來搭建虛假信息治理協(xié)同平臺(tái)、制定協(xié)調(diào)行動(dòng)細(xì)則和銜接程序,最好借助已有的電子政務(wù)平臺(tái)來提高協(xié)作效率。
第二,應(yīng)積極應(yīng)用行業(yè)規(guī)約、平臺(tái)管理規(guī)約、用戶服務(wù)協(xié)議等軟法工具來實(shí)現(xiàn)治理義務(wù)的細(xì)化,使得人工智能企業(yè)、社交媒體平臺(tái)、網(wǎng)絡(luò)用戶有更加可具操作性的行動(dòng)指南。首先,可應(yīng)用行業(yè)規(guī)約工具來將抽象的法律義務(wù)細(xì)化,將法律義務(wù)轉(zhuǎn)化為對(duì)人工智能企業(yè)、社交平臺(tái)企業(yè)內(nèi)控制度、治理措施、治理標(biāo)準(zhǔn)等方面的具體要求,為企業(yè)在實(shí)際運(yùn)營(yíng)過程中落實(shí)責(zé)任提供指引。其次,社交媒體平臺(tái)應(yīng)在其平臺(tái)管理規(guī)約落實(shí)治理虛假信息的義務(wù),詳細(xì)規(guī)定平臺(tái)對(duì)虛假信息的定義、虛假信息的舉報(bào)、投訴及處理機(jī)制、分級(jí)管理措施、違規(guī)行為的平臺(tái)懲戒(如凍結(jié)、注銷賬號(hào)等措施)等,將平臺(tái)的法律義務(wù)轉(zhuǎn)化為具體的治理行動(dòng)。最后,應(yīng)發(fā)揮用戶協(xié)議對(duì)用戶的自律約束,將不得利用生成式人工智能生成虛假信息、不得發(fā)布和傳播未經(jīng)查證的人工智能生成信息納入用戶協(xié)議規(guī)定,并規(guī)定違反有關(guān)規(guī)定可能產(chǎn)生的平臺(tái)懲戒以及法律責(zé)任。為確保用戶了解有關(guān)協(xié)議,可采用各種舉措,如醒目提示、協(xié)議內(nèi)容考試等手段方法進(jìn)行提醒。
第三,應(yīng)建立由監(jiān)管機(jī)關(guān)、人工智能產(chǎn)業(yè)協(xié)會(huì)、網(wǎng)絡(luò)平臺(tái)行業(yè)協(xié)會(huì)、重點(diǎn)企業(yè)代表、有關(guān)專家和其他人士組成的虛假信息治理協(xié)調(diào)機(jī)制。虛假信息治理的協(xié)同性除了要細(xì)化各自職責(zé)外,還需要彼此之間信息互通、工作協(xié)調(diào)、資源共享和良性互動(dòng)。通過設(shè)置協(xié)調(diào)機(jī)制可以及時(shí)了解各個(gè)主體在虛假信息治理方面的進(jìn)展、遇到的實(shí)際困難以及需要何種配合,進(jìn)而形成治理主體之間對(duì)虛假信息治理的合力,提高對(duì)生成式人工智能虛假信息的治理效能。例如,對(duì)于虛假信息的重要措施之一就是對(duì)人工智能生成信息進(jìn)行標(biāo)注,而為了不影響用戶使用,人工智能企業(yè)添加的標(biāo)識(shí)可能需要利用技術(shù)才能加以識(shí)別,對(duì)此社交平臺(tái)企業(yè)可通過和人工智能企業(yè)合作來獲取標(biāo)識(shí)的技術(shù)原理,以提高對(duì)生成消息的識(shí)別效率。
四、結(jié)語
生成式人工智能改變了傳統(tǒng)的信息生產(chǎn)機(jī)制而有廣闊的應(yīng)用場(chǎng)景,但其生成虛假信息速度快、逼真度高、無中生有的特征,使得虛假信息風(fēng)險(xiǎn)樣態(tài)發(fā)生了改變,不僅放大了傳統(tǒng)的風(fēng)險(xiǎn)隱患,還使得信息信任風(fēng)險(xiǎn)成為虛假信息的重要風(fēng)險(xiǎn)類型,也使得社交媒體平臺(tái)虛假信息治理防線有被全面突破的風(fēng)險(xiǎn)。盡管如同ChatGPT那般強(qiáng)大的生成式人工智能在我國(guó)還沒有得到普遍應(yīng)用,但其引發(fā)的虛假信息風(fēng)險(xiǎn)已經(jīng)顯現(xiàn),而且隨著生成式人工智能技術(shù)的快速發(fā)展將很快成為我國(guó)必須面對(duì)之問題。對(duì)此,既有虛假信息治理體系面臨虛假信息數(shù)量類型、數(shù)量的擴(kuò)張、信息生成環(huán)節(jié)治理壓力增加、治理主體協(xié)同性不強(qiáng)等挑戰(zhàn),因此本文從虛假信息分級(jí)治理、源頭治理、協(xié)同治理方面為應(yīng)對(duì)上述挑戰(zhàn)提供了治理對(duì)策。但本文提供的對(duì)策能否在實(shí)踐中發(fā)揮預(yù)期效果還有待在治理實(shí)踐中根據(jù)具體情況進(jìn)行細(xì)化和進(jìn)一步修正,比如企業(yè)如何通過內(nèi)控制度來具體落實(shí)分級(jí)治理的要求還需要細(xì)化研究。除此之外,治理體系方面的改進(jìn)只是虛假信息治理效能提升的重要部分而不是全部,因此,虛假信息的治理還需要推進(jìn)相關(guān)反制技術(shù)研究的提升。
參考文獻(xiàn):
[1] Paul, Justin, Akiko Ueno, et al. ChatGPT and consumers:benefits, pitfalls and future research agenda[J].International Journal of Consumer Studies,2023,47(4):1213-1225.
[2] Mich, L., Garigliano, R. ChatGPT for e-Tourism: a technological perspective[J]. Inf Technol Tourism, 2023, (25):1-12.
[3] Farrokhnia, Mohammadreza. A SWOT analysis of ChatGPT:implications for educational practice and research[J].Innovations in Education and Teaching International,2023,(5): 1-15.
[4] 馮雨奐.ChatGPT在教育領(lǐng)域的應(yīng)用價(jià)值、潛在倫理風(fēng)險(xiǎn)與治理路徑[J].思想理論教育,2023,(4):26-32.
[5] 游俊哲.ChatGPT類生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施[J].情報(bào)理論與實(shí)踐,2023,46(6):24-32.
[6] 劉霞.生成式AI或致虛假信息野蠻生長(zhǎng)[N].科技日?qǐng)?bào),2023-06-13(04).
[7] Marsden C,Meyer T,Brown I. Platform values and democratic elections :how can the law regulate digital disinformation?[J]. Computer Law & Security Review,2020,36:105373 .
[8] 舒洪水,彭鵬.ChatGPT場(chǎng)景下虛假信息的法律風(fēng)險(xiǎn)與對(duì)策[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(5):124-129.
[9] 罕山.ChatGPT寫假新聞,謠言該如何止于“智”者?[EB].https://k.sina.com.cn/article_5328858693_13d9fee4502001mky0.html, 2023-02-18/2023-04-25.
[10] 任文科.ChatGPT有可能攪亂美國(guó)大選[EB].https://mp.weixin.qq.com/s/4A8ajTIsmuCw6fKmEsr8Ug,2023-04-24/2023-04-26.
[11] 李志偉.美國(guó)實(shí)施“隱秘影響行動(dòng)”炮制虛假信息[N].人民日?qǐng)?bào),2023-01-17(17).
[12] 吉磊,李大琨.ChatGPT技術(shù)潛在的政治安全風(fēng)險(xiǎn)[N].中國(guó)社會(huì)科學(xué)報(bào),2023-03-29(08).
[13] 胡耕碩.被AI造謠找誰算賬?澳洲一市長(zhǎng)擬起訴ChatGPT誹謗[EB].https://m.mp.oeeee.com/a/BAAFRD00002023041478 4192.html,2023-04-14/2023-04-24.
[14] 騰訊網(wǎng).又涉嫌造謠!ChatGPT編造法學(xué)教授性騷擾[EB].https://new.qq.com/rain/a/20230408A007TI00.html,2023-04-08/2023-04-25.
[15]? Cotton, Debby R E, Peter A. Cotton, & J. Reuben Shipway. Chatting and cheating:ensuring academic integrity in the era of ChatGPT[J].Innovations in Education and Teaching International,2023: 1-12.
[16] 陳小燕,任書麗.社交媒體虛假信息的治理:基于平臺(tái)社會(huì)的視角[J].新聞傳播,2022,(20):15-17.
[17] 畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023,(3):155-172.
[18] 王玎.論數(shù)據(jù)處理者的數(shù)據(jù)安全保護(hù)義務(wù)[J].當(dāng)代法學(xué),2023,37(2):40-49.
[19] 童云峰.證立與提倡:讀者個(gè)人信息的民法分類分級(jí)保護(hù)[J].現(xiàn)代情報(bào),2021,41(12):97-106.
[20] 唐要家,唐春暉.網(wǎng)絡(luò)信息內(nèi)容治理的平臺(tái)責(zé)任配置研究[J].財(cái)經(jīng)問題研究,2023,(6):59-72.
[21] 莫祖英,盤大清,劉歡,等.信息質(zhì)量視角下AIGC虛假信息問題及根源分析[J].圖書情報(bào)知識(shí),2023,40(4):32-40.
[22] 李川,楊勝剛.法益重塑與模式更新:場(chǎng)景化視域下個(gè)人信息刑法保護(hù)的動(dòng)態(tài)轉(zhuǎn)向[J].廣西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,(6):105-117.
[23] 張吉豫.論算法備案制度[J].東方法學(xué),2023,(2):86-98.
[24] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023,(4):29-43.
[25] 劉啟川.“依清單行政”之辨正[J].法學(xué),2022,(12):52-64.
A Perspective on the Particularity of False Information Risks and Solutions under the Scenario of Generative Artificial Intelligence
Liu Chaomin
(Law School, Ocean University of China, Qingdao 266100, China)
Abstract: Generative artificial intelligence has changed the traditional information production mechanism and has a wide range of applications. However, its characteristics such as fast generation of false information, high fidelity and sheer fabrication of false information not only increase the traditional hidden dangers of false information, but also make information trust risk? an important risk type of false information. It also puts the defensive line of social media platforms false information governance at risk of being completely broken through. Therefore, based on the challenge of generative artificial intelligence to the false information governance system, we should promote the hierarchical governance of false information from the aspects of normative basis, classification and deployment of false information. We should strengthen the control of false information source from the aspects of application access, algorithm governance and training data quality management. We should enhance the collaborative governance of false information from the aspects of regulatory coordination, obligation specification and public-private collaboration.
Key words: generative artificial intelligence; false information; classification; source governance; collaborative governance
責(zé)任編輯:高 雪
收稿日期:2023-04-19
作者簡(jiǎn)介:劉超民(1993- ),男,河北樂亭人,中國(guó)海洋大學(xué)法學(xué)院博士研究生,專業(yè)方向?yàn)榫W(wǎng)絡(luò)空間法。
①2022年ll月11日,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》由國(guó)家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布,白2023年1月10日起施行。
②關(guān)于發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——網(wǎng)絡(luò)數(shù)據(jù)安全風(fēng)險(xiǎn)評(píng)估實(shí)施指引》的通知,https://www.tc260.org.cniupload/2021-12-31/1640948142376022576. pdf.
③危險(xiǎn)虛假信息,是指關(guān)系國(guó)家安全、國(guó)民經(jīng)濟(jì)命脈、重要民生、重大公共利益等的虛假信息。這里只有涉及國(guó)家安全和公共利益的虛假信息才能被歸屬為危險(xiǎn)虛假信息這種最高級(jí)別。而且涉及國(guó)家安全的虛假信息構(gòu)成一般危害或者嚴(yán)重危害,才能歸屬于危險(xiǎn)虛假信息,而涉及公共利益的虛假信息只有構(gòu)成嚴(yán)重危害才能歸屬于危險(xiǎn)虛假信息。這里是為了突出強(qiáng)淵國(guó)家安全的重要性。
④國(guó)家安全一般危害的參考:①對(duì)政治、國(guó)土、軍事、經(jīng)濟(jì)、文化、社會(huì)、科技、網(wǎng)絡(luò)、生態(tài)、資源、核安全等構(gòu)成威脅,影響海外利益、生物、太空、極地、深海、人T智能等重點(diǎn)領(lǐng)域安全;②對(duì)本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域生產(chǎn)、運(yùn)行和經(jīng)濟(jì)利益等造成影響;③引發(fā)的級(jí)聯(lián)效應(yīng)明顯,影響范圍涉及多個(gè)行業(yè)、區(qū)域或者行業(yè)內(nèi)多個(gè)企業(yè),或者影響持續(xù)時(shí)間長(zhǎng),對(duì)行業(yè)發(fā)展、技術(shù)進(jìn)步和產(chǎn)業(yè)生態(tài)等造成嚴(yán)重影響。
⑤國(guó)家安全嚴(yán)重危害參考:①對(duì)政治、國(guó)土、軍事、經(jīng)濟(jì)、文化、社會(huì)、科技、網(wǎng)絡(luò)、生態(tài)、資源、核安全等構(gòu)成嚴(yán)重威脅,嚴(yán)重影響海外利益、生物、太空、極地、深海、人T智能等重點(diǎn)領(lǐng)域安全;②對(duì)本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域的重要骨干企業(yè)、關(guān)鍵信息基礎(chǔ)設(shè)施、重要資源等造成嚴(yán)重影響;③導(dǎo)致對(duì)本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域大范圍停工停產(chǎn)、大面積網(wǎng)絡(luò)與服務(wù)癱瘓、大量業(yè)務(wù)處理能力喪失。
⑥公共利益嚴(yán)重危害參考:波及一個(gè)或多個(gè)省市的大部分地區(qū),引起社會(huì)動(dòng)蕩,對(duì)經(jīng)濟(jì)建設(shè)有極其惡劣的負(fù)面影響。
⑦重大虛假信息,是指可能危害國(guó)家安全、公共利益的虛假信息。重大虛假信息一般不涉及個(gè)人合法權(quán)益信息和企業(yè)(組織)合法權(quán)益,但達(dá)到一定規(guī)模的有關(guān)個(gè)人的虛假信息或者基于海量個(gè)人信息加工衍生形成的虛假信息,如其非法利用可能危害國(guó)家安全、公共利益,也應(yīng)歸屬于重大虛假信息。如果虛假信息對(duì)國(guó)家安全的影響是輕微的,就歸屬于重大虛假信息,而對(duì)公共利益產(chǎn)生一般危害或者輕微危害影響,也歸屬于重大虛假信息。
⑧國(guó)家安全輕微危害參考:①對(duì)本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域生產(chǎn)、運(yùn)行和經(jīng)濟(jì)利益等造成輕微影響;②影響持續(xù)時(shí)間短,對(duì)行業(yè)發(fā)展、技術(shù)進(jìn)步和產(chǎn)業(yè)生態(tài)等造成一般影響。
⑨公共利益一般危害參考:波及一個(gè)或多個(gè)地市的大部分地區(qū)引起社會(huì)恐慌,對(duì)經(jīng)濟(jì)建設(shè)有重大的負(fù)面影響。
⑩公共利益輕微危害參考:波及一個(gè)地市或地市以下的部分地區(qū),擾亂社會(huì)秩序,對(duì)經(jīng)濟(jì)建設(shè)有一定的負(fù)面影響。
⑩一般虛假信息,指的是可能對(duì)個(gè)人、組織合法權(quán)益造成危害,但不會(huì)危害國(guó)家安全、公共利益的虛假信息。
(12)國(guó)家安全無危害參考:對(duì)國(guó)家安全不造成影響。
⑩公共利益無危害參考:對(duì)公共利益不造成影響。
(14)個(gè)人合法權(quán)益無危害參考:對(duì)個(gè)人信息合法權(quán)益不造成影響,或僅造成微弱影響但可忽略不計(jì)。
(15)個(gè)人合法權(quán)益輕微危害參考:個(gè)人信息主體可能會(huì)遭受閑擾,但尚可以克服。如付出額外成本、無法使用應(yīng)提供的服務(wù)、造成誤解、產(chǎn)生害怕和緊張的情緒、導(dǎo)致較小的生理疾病等。
(16)個(gè)人合法權(quán)益一般危害參考:個(gè)人信息主體可能遭受較大影響,個(gè)人信息主體克服難度高,消除影響代價(jià)較大。如遭受詐騙、資金被盜用、被銀行列入黑名單、信用評(píng)分受損、名譽(yù)受損、造成歧視、被解雇、被法院傳喚、健康狀況惡化等。
(17)個(gè)人合法權(quán)益嚴(yán)重危害參考:個(gè)人信息主體可能會(huì)遭受重大的、不可消除的、可能無法克服的影響,容易導(dǎo)致白然人的人格尊嚴(yán)受到侵害或者人身、財(cái)產(chǎn)安全受到危害。如遭受無法承擔(dān)的債務(wù)、失去T作能力、導(dǎo)致長(zhǎng)期的心理或生理疾病、導(dǎo)致死亡等。
⑩組織合法權(quán)益無危害參考:對(duì)組織合法權(quán)益不造成影響,或僅造成微弱影響但不會(huì)影響國(guó)家安全、公共利益、市場(chǎng)秩序或各項(xiàng)業(yè)務(wù)的正常開展。
⑩組織合法權(quán)益輕微危害參考:可能導(dǎo)致個(gè)別訴訟事件,或在某一時(shí)間造成部分業(yè)務(wù)中斷,使組織的經(jīng)濟(jì)利益、聲譽(yù)、技術(shù)等輕微受損。
(20)組織合法權(quán)益一般危害參考:可能導(dǎo)致組織遭到監(jiān)管部門處罰(包括一段時(shí)間內(nèi)暫停經(jīng)營(yíng)資格或業(yè)務(wù)等),或者影響部分業(yè)務(wù)無法正常開展的情況,造成較大經(jīng)濟(jì)或技術(shù)損失,破壞機(jī)構(gòu)聲譽(yù)。
(21)組織合法權(quán)益嚴(yán)重危害參考:可能導(dǎo)致組織遭到監(jiān)管部門嚴(yán)重處罰(包括取消經(jīng)營(yíng)資格、長(zhǎng)期暫停相關(guān)業(yè)務(wù)等),或者影響重要/關(guān)鍵業(yè)務(wù)無法正常開展的情況,造成重大經(jīng)濟(jì)或技術(shù)損失,嚴(yán)重破壞機(jī)構(gòu)聲譽(yù),企業(yè)面臨破產(chǎn)。
(22)意大利宣布禁用ChatGPT.限制()penAI處理本國(guó)用戶信息,https://www.thepaper.cn/newsDetail- forward一22539065。
中國(guó)海洋大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2024年2期