歐陽(yáng)林潔,張永紅
(西南大學(xué) 馬克思主義學(xué)院,重慶 400715)
生成式人工智能(Generative Artificial Intelligence)是基于訓(xùn)練數(shù)據(jù)和生成式算法,可以自主生成創(chuàng)造性的文本、圖像、音頻、視頻、3D交互內(nèi)容(如虛擬化身、虛擬物品、虛擬環(huán)境)的模型和技術(shù),[1](P2)ChatGPT正是其典型代表。生成式模型(Generative Model)的突破,讓生成式人工智能在自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)等信息科技領(lǐng)域的實(shí)踐應(yīng)用得以落地,開(kāi)創(chuàng)了數(shù)字內(nèi)容生產(chǎn)模式革新的信息科技新時(shí)代。在信息科技高度嵌入人們生活的背景下,數(shù)字內(nèi)容生產(chǎn)模式的變革也將改變?nèi)藗兊恼J(rèn)知方式與行為模式,進(jìn)而將影響傳導(dǎo)至意識(shí)形態(tài)領(lǐng)域,我國(guó)意識(shí)形態(tài)工作將面臨諸多重大理論和實(shí)踐課題。
人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)命題,肇始于20世紀(jì)以降的科學(xué)技術(shù)與意識(shí)形態(tài)關(guān)系之爭(zhēng)。相關(guān)討論大體可分作“非意識(shí)形態(tài)論”和“技術(shù)統(tǒng)治論”兩派。雖然當(dāng)時(shí)兩派學(xué)者均未涉及人工智能的意識(shí)形態(tài)問(wèn)題,但二者觀點(diǎn)交鋒的余波猶存?!胺且庾R(shí)形態(tài)論”以丹尼爾·貝爾等資本主義的辯護(hù)士為代表,將科學(xué)技術(shù)與意識(shí)形態(tài)相對(duì)立,片面強(qiáng)調(diào)科學(xué)技術(shù)對(duì)于社會(huì)的改造作用,并宣稱“意識(shí)形態(tài)已經(jīng)終結(jié)”。[2](P450~519)雖然“非意識(shí)形態(tài)論”在20世紀(jì)下半葉西方的“再意識(shí)形態(tài)化”運(yùn)動(dòng)中破產(chǎn),但其對(duì)于科學(xué)技術(shù)與意識(shí)形態(tài)無(wú)涉的觀點(diǎn)卻影響至今。作為論戰(zhàn)的另一派,“技術(shù)統(tǒng)治論”則以法蘭克福學(xué)派為代表。他們認(rèn)為科學(xué)技術(shù)本身即是意識(shí)形態(tài)的一部分,發(fā)揮著“維護(hù)現(xiàn)有社會(huì)統(tǒng)治和導(dǎo)致社會(huì)墮落的意識(shí)形態(tài)作用”,堅(jiān)稱當(dāng)前的社會(huì)已經(jīng)掉入“技術(shù)統(tǒng)治”的窠臼,悲觀地將科學(xué)技術(shù)視作桎梏人類解放的枷鎖。[3](P1~11)在人工智能時(shí)代背景下,“技術(shù)統(tǒng)治論”的擁躉們也將人工智能技術(shù)視作一種意識(shí)形態(tài),一種服務(wù)于社會(huì)精英的統(tǒng)治工具。[4]事實(shí)上,這一觀點(diǎn)具有極強(qiáng)的迷惑性。它看似揭露了西方主導(dǎo)人工智能技術(shù)發(fā)展背景下的技術(shù)弊病與意識(shí)形態(tài)風(fēng)險(xiǎn),但本質(zhì)上是無(wú)視了科學(xué)技術(shù)的階級(jí)應(yīng)用差異,通過(guò)轉(zhuǎn)嫁責(zé)任給科學(xué)技術(shù)的方式,將人工智能技術(shù)本身進(jìn)行了全然的意識(shí)形態(tài)化與批判化,從而巧妙地掩蓋了技術(shù)應(yīng)用背后的資本主義社會(huì)的階級(jí)壓迫問(wèn)題。因此,縱使“非意識(shí)形態(tài)論”與“技術(shù)統(tǒng)治論”對(duì)于科學(xué)技術(shù)與意識(shí)形態(tài)關(guān)系持截然相反的觀點(diǎn),但二者卻分別以“全無(wú)”或“全有”的方式否定了馬克思關(guān)于意識(shí)形態(tài)的理論。[5]他們將全部的注意力都集中在了物質(zhì)的、客觀的且作為生產(chǎn)力而存在的科學(xué)技術(shù)上,忽略了暗含在科學(xué)技術(shù)應(yīng)用背后的階級(jí)矛盾,因而也就喪失了厘清科學(xué)技術(shù)與意識(shí)形態(tài)關(guān)系的可能。所以,這兩派的觀點(diǎn)均難以成為準(zhǔn)確破解人工智能與意識(shí)形態(tài)關(guān)系命題的理論支撐。
科學(xué)技術(shù)意識(shí)形態(tài)風(fēng)險(xiǎn)分析的關(guān)鍵在于應(yīng)用領(lǐng)域,人工智能亦是如此。馬克思曾在《資本論》中指出,盡管“智力轉(zhuǎn)化為資本支配勞動(dòng)的權(quán)力,是在以機(jī)器為基礎(chǔ)的大工業(yè)中完成的”,但也“要學(xué)會(huì)把機(jī)器和機(jī)器的資本主義應(yīng)用區(qū)別開(kāi)來(lái)”,因?yàn)闄C(jī)器的資本主義應(yīng)用才是產(chǎn)生矛盾和對(duì)抗的源頭。[6](P438,444)馬克思以大量實(shí)際案例,詮釋了機(jī)器如何在具體的資本主義應(yīng)用場(chǎng)景中制造矛盾與對(duì)抗。例如,馬克思在剖析機(jī)器大生產(chǎn)導(dǎo)致工人勞動(dòng)時(shí)間大幅延長(zhǎng)的現(xiàn)象時(shí)指出:“作為資本,自動(dòng)機(jī)在資本家身上獲得了意識(shí)和意志……而機(jī)器的有效壽命,顯然取決于工作日的長(zhǎng)度或每天勞動(dòng)過(guò)程的長(zhǎng)度乘以勞動(dòng)過(guò)程反復(fù)進(jìn)行的日數(shù)?!盵6](P416~417)原本用來(lái)節(jié)約勞動(dòng)時(shí)間的機(jī)器,在資本主義應(yīng)用下卻導(dǎo)致了勞動(dòng)時(shí)間的延長(zhǎng),這無(wú)疑是一種機(jī)器應(yīng)用的“異化”。馬克思的論述給予我們兩點(diǎn)啟示:一是科學(xué)技術(shù)的應(yīng)用具有鮮明的意識(shí)形態(tài)屬性,二是科學(xué)技術(shù)的風(fēng)險(xiǎn)源于具體應(yīng)用場(chǎng)景下科學(xué)技術(shù)應(yīng)用的“異化”。因此,對(duì)于人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)的剖析,也需要建立在意識(shí)形態(tài)辨析和應(yīng)用場(chǎng)景分類的基礎(chǔ)之上。當(dāng)前,國(guó)內(nèi)相關(guān)研究仍處于初期階段。雖然在人工智能意識(shí)形態(tài)屬性與人工智能意識(shí)形態(tài)風(fēng)險(xiǎn)樣態(tài)研究領(lǐng)域已有一定進(jìn)展,但既往研究對(duì)應(yīng)用場(chǎng)景的分類卻鮮有涉及。由于缺少對(duì)人工智能技術(shù)的具體應(yīng)用場(chǎng)景及意識(shí)形態(tài)風(fēng)險(xiǎn)類型化的關(guān)切,既往研究在論述人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)時(shí),經(jīng)常出現(xiàn)抽象、泛化的現(xiàn)象,難以切中人工智能意識(shí)形態(tài)風(fēng)險(xiǎn)問(wèn)題的要害。
生成式人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)源于技術(shù)應(yīng)用的“異化”。當(dāng)前科技界人士對(duì)于生成式人工智能的憂慮,顯然不是對(duì)正常技術(shù)應(yīng)用的擔(dān)憂,而是對(duì)于技術(shù)應(yīng)用“異化”的擔(dān)憂。為此,ChatGPT的母公司OpenAI專門對(duì)當(dāng)前最為先進(jìn)的生成式人工智能模型GPT-4技術(shù)應(yīng)用“異化”風(fēng)險(xiǎn)進(jìn)行了分析。OpenAI分析了GPT-4已知的十二種具體應(yīng)用“異化”的風(fēng)險(xiǎn),分別為幻象(Hallucinations)、有害內(nèi)容(Harmful Content)、放大偏見(jiàn)(Amplify Biases)、(1)OpenAI是從應(yīng)用場(chǎng)景的角度出發(fā),對(duì)此條目進(jìn)行命名,即對(duì)代表、分配和服務(wù)質(zhì)量的危害(Harms of representation, allocation, and quality of service)。而此項(xiàng)“異化”風(fēng)險(xiǎn)的核心是“放大偏見(jiàn)”,為便于讀者理解本文將條目名稱替換為“放大偏見(jiàn)”。虛假信息和行為誘導(dǎo)(Disinformation and Influence Operations)、武器擴(kuò)散(Proliferation of Conventional and Unconventional Weapons)、隱私(Privacy)、網(wǎng)絡(luò)安全(Cybersecurity)、潛在的緊急危險(xiǎn)行為(Potential for Risky Emergent Behaviors)、與其他系統(tǒng)的交互關(guān)系(Interactions with other Systems)、經(jīng)濟(jì)影響(Economic Impacts)、科技加速(Acceleration)和過(guò)度依賴(Overreliance)。[7]但以上的技術(shù)應(yīng)用“異化”的風(fēng)險(xiǎn)是OpenAI基于純粹技術(shù)視角評(píng)估所得出的,不能直接用于意識(shí)形態(tài)風(fēng)險(xiǎn)分析,因此需要結(jié)合具體的應(yīng)用場(chǎng)景,重新對(duì)生成式人工智能應(yīng)用“異化”的意識(shí)形態(tài)風(fēng)險(xiǎn)予以類型化處理。如果以不同應(yīng)用場(chǎng)景下生成式人工智能與意識(shí)形態(tài)風(fēng)險(xiǎn)間的因果關(guān)系為分類標(biāo)準(zhǔn),排除與意識(shí)形態(tài)關(guān)聯(lián)性較弱的具體風(fēng)險(xiǎn)后,可將生成式人工智能應(yīng)用“異化”的意識(shí)形態(tài)風(fēng)險(xiǎn)分為三類:(2)通說(shuō)認(rèn)為意識(shí)形態(tài)具有階級(jí)性與社會(huì)性。以此為標(biāo)準(zhǔn),結(jié)合OpenAI分析報(bào)告中列舉的風(fēng)險(xiǎn)案例,本文將無(wú)法或極小概率導(dǎo)致意識(shí)形態(tài)混亂的具體風(fēng)險(xiǎn),以及僅以技術(shù)形式存在而不直接作用于社會(huì)群體的具體風(fēng)險(xiǎn)都排除在討論范圍之外。被排除的具體風(fēng)險(xiǎn)包括:隱私、網(wǎng)絡(luò)安全、與其他系統(tǒng)的交互、科技加速。一是基礎(chǔ)應(yīng)用場(chǎng)景下的原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)源于技術(shù)自身的缺陷,包括幻象、有害內(nèi)容、放大偏見(jiàn)、潛在的意外危險(xiǎn)行為等。二是惡意應(yīng)用場(chǎng)景下的繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)產(chǎn)生于個(gè)人或組織的惡意應(yīng)用,包括虛假信息和行為誘導(dǎo)、武器擴(kuò)散等。三是長(zhǎng)期應(yīng)用場(chǎng)景下的并發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)是一種附隨風(fēng)險(xiǎn),技術(shù)應(yīng)用僅發(fā)揮催化劑作用,包括經(jīng)濟(jì)影響、過(guò)度依賴等。
綜上,從馬克思對(duì)于機(jī)器應(yīng)用“異化”的觀點(diǎn)出發(fā),生成式人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)實(shí)際上是一個(gè)偽命題,真正的命題應(yīng)表述為生成式人工智能應(yīng)用的意識(shí)形態(tài)風(fēng)險(xiǎn)。只有緊扣生成式人工智能具體的應(yīng)用場(chǎng)景,才有可能厘清意識(shí)形態(tài)風(fēng)險(xiǎn)的生成機(jī)制,進(jìn)而探尋科學(xué)、有效的治理進(jìn)路。
生成式人工智能的發(fā)展給意識(shí)形態(tài)建設(shè)帶來(lái)了歷史性機(jī)遇,但也帶來(lái)了意識(shí)形態(tài)風(fēng)險(xiǎn)。這種意識(shí)形態(tài)風(fēng)險(xiǎn)本質(zhì)上是一種由技術(shù)應(yīng)用的“異化”所形成的對(duì)主流意識(shí)形態(tài)安全的威脅,包含風(fēng)險(xiǎn)因素、風(fēng)險(xiǎn)事故和風(fēng)險(xiǎn)損失三大要素。[8](P113)而生成式人工智能應(yīng)用的風(fēng)險(xiǎn)生成機(jī)制則表現(xiàn)為:基于生成式技術(shù)特征的風(fēng)險(xiǎn)因素,在應(yīng)用“異化”的過(guò)程中可能發(fā)生削弱主流意識(shí)形態(tài)凝聚力或引領(lǐng)力的風(fēng)險(xiǎn)事故,并最終導(dǎo)致主流意識(shí)形態(tài)認(rèn)同危機(jī)的風(fēng)險(xiǎn)損失。
原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)是一種基礎(chǔ)應(yīng)用場(chǎng)景下,嵌于技術(shù)底層的內(nèi)生性意識(shí)形態(tài)風(fēng)險(xiǎn)。它源自生成式人工智能技術(shù)的核心——生成式算法。在生成式人工智能出現(xiàn)前,人類是唯一的內(nèi)容生產(chǎn)主體,政治、文學(xué)、藝術(shù)等均來(lái)源于人類基于特定的物質(zhì)條件和社會(huì)關(guān)系基礎(chǔ)上的塑造。但生成式算法讓人工智能具備了這一此前由人類所“獨(dú)享”的能力,成為新的內(nèi)容生產(chǎn)主體。生成式算法的能力源于海量的數(shù)據(jù)訓(xùn)練和模型參數(shù)的微調(diào),以ChatGPT為例,“無(wú)監(jiān)督預(yù)訓(xùn)練+有監(jiān)督微調(diào)”即是其最初模型GPT-1的誕生范式。[9]但這一算法訓(xùn)練方法卻并非完美,即便迭代到了GPT-4模型,ChatGPT生成內(nèi)容的幻象、有害內(nèi)容、放大偏見(jiàn)、潛在的意外危險(xiǎn)行為等現(xiàn)象依舊存在。
首先,原發(fā)性風(fēng)險(xiǎn)發(fā)端于海量問(wèn)題數(shù)據(jù)生成的“算法鋼印”風(fēng)險(xiǎn)因素。生成式算法以海量數(shù)據(jù)喂養(yǎng)的預(yù)訓(xùn)練模型為基石。所謂“算法鋼印”是指在預(yù)訓(xùn)練過(guò)程中如同鋼印一般烙印在生成式算法中的刻板化的意識(shí)形態(tài)。無(wú)人監(jiān)督的海量數(shù)據(jù)預(yù)訓(xùn)練造就了生成式算法的強(qiáng)大能力,但同時(shí)也將算法質(zhì)量與數(shù)據(jù)質(zhì)量相綁定。有研究顯示,即便是經(jīng)過(guò)人工篩選的數(shù)據(jù)質(zhì)量都已堪憂,[10]更遑論以未經(jīng)嚴(yán)格篩選的互聯(lián)網(wǎng)數(shù)據(jù)為訓(xùn)練來(lái)源的生成式算法。OpenAI所提及的幻象、有害內(nèi)容、放大偏見(jiàn)等問(wèn)題最初均源于互聯(lián)網(wǎng)中的海量問(wèn)題數(shù)據(jù)。而問(wèn)題并未止步于此。由于不同語(yǔ)種的數(shù)據(jù)在互聯(lián)網(wǎng)中分布不均,且生成式人工智能技術(shù)仍處于西方領(lǐng)先的狀態(tài)之下,所以當(dāng)前的主流生成式算法均由英語(yǔ)等拉丁語(yǔ)系語(yǔ)種訓(xùn)練而成。OpenAI甚至未對(duì)GPT-4模型的中文水平進(jìn)行評(píng)估。[7]為驗(yàn)證GPT-4模型應(yīng)用的意識(shí)形態(tài)表現(xiàn),筆者與ChatGPT就中國(guó)歷史評(píng)價(jià)及中國(guó)臺(tái)灣地區(qū)地位等問(wèn)題進(jìn)行了實(shí)驗(yàn)性對(duì)話。筆者發(fā)現(xiàn)ChatGPT不但在非中文對(duì)話中呈現(xiàn)出明顯的意識(shí)形態(tài)偏見(jiàn),在進(jìn)行中文對(duì)話時(shí),ChatGPT也存在混淆政治概念、負(fù)面評(píng)價(jià)誘導(dǎo)等問(wèn)題。因而從意識(shí)形態(tài)角度來(lái)看,當(dāng)前主流的生成式算法是真正的西方技術(shù),并且其意識(shí)形態(tài)偏見(jiàn)已深深地印刻于算法之中。
其次,原發(fā)性風(fēng)險(xiǎn)生變于社會(huì)意識(shí)生產(chǎn)領(lǐng)域“逆向馴化”的風(fēng)險(xiǎn)事故。“逆向馴化”是指在“算法鋼印”的影響下生成式人工智能“異化”了原本的社會(huì)意識(shí)生產(chǎn)模式,在文藝、教育等領(lǐng)域?qū)θ藗冞M(jìn)行反向意識(shí)形態(tài)輸出的現(xiàn)象。原本的社會(huì)意識(shí)生產(chǎn)模式以社會(huì)實(shí)踐為基礎(chǔ),正如馬克思所指出的“普遍意識(shí)不過(guò)是以現(xiàn)實(shí)共同體、社會(huì)存在物為生動(dòng)形式的那個(gè)東西的理論形式”,[11](P302)其生產(chǎn)過(guò)程必然經(jīng)過(guò)人的感知器官和社會(huì)器官的加工。但生成式人工智能的應(yīng)用卻顛覆了這一模式。生成式人工智能的社會(huì)意識(shí)生產(chǎn)并非源于現(xiàn)實(shí)的社會(huì)實(shí)踐,而是源于既有數(shù)據(jù)的整合。其所生產(chǎn)的數(shù)字內(nèi)容產(chǎn)品不會(huì)經(jīng)過(guò)任何人的感知器官或社會(huì)器官的加工,但卻會(huì)受到“算法鋼印”的“異化”影響,進(jìn)而引發(fā)“逆向馴化”的風(fēng)險(xiǎn)事故。一方面,“量”的碾壓將產(chǎn)生逆向擠占的效果。相較于人類,生成式算法的社會(huì)意識(shí)生產(chǎn)邊際成本近乎為零。生成式人工智能可在既往人類作品的基礎(chǔ)上,生成海量的文學(xué)、藝術(shù)作品,迅速充斥、擠占社會(huì)意識(shí)生產(chǎn)領(lǐng)域;另一方面,“質(zhì)”的低劣暗藏有馴化誘導(dǎo)的風(fēng)險(xiǎn)。以教育領(lǐng)域?yàn)槔?縱使人工智能在教育領(lǐng)域擁有巨大市場(chǎng),但其本身仍應(yīng)符合“道德的、值得信賴的或負(fù)責(zé)任的”準(zhǔn)入標(biāo)準(zhǔn)。[12]從ChatGPT在教育領(lǐng)域的實(shí)際應(yīng)用來(lái)看,當(dāng)前的生成式人工智能不但無(wú)法提供必要的情感教育,而且存在大量捏造教育內(nèi)容的情形。[13]就意識(shí)形態(tài)而言,如果教育內(nèi)容中潛藏有意識(shí)形態(tài)偏見(jiàn),將對(duì)受教育者的價(jià)值觀產(chǎn)生深遠(yuǎn)影響。因此,在生產(chǎn)能力強(qiáng)大且存在“算法鋼印”的生成式人工智能面前,人類會(huì)迅速?gòu)纳鐣?huì)意識(shí)的生產(chǎn)者淪為被馴化者。而這種“逆向馴化”事故如若出現(xiàn),則必然威脅我國(guó)主流意識(shí)形態(tài)安全。
最后,原發(fā)性風(fēng)險(xiǎn)成形于人類封閉的被動(dòng)的“認(rèn)知繭房”風(fēng)險(xiǎn)損失。馬克思將意識(shí)視作可以區(qū)分人類與動(dòng)物的標(biāo)準(zhǔn),因?yàn)椤叭说念愄匦郧∏【褪亲杂傻淖杂X(jué)的活動(dòng)”。[14](P96)然而,生成式人工智能的“逆向馴化”事故,可能“異化”這種“自由的自覺(jué)的”意識(shí)狀態(tài),進(jìn)而讓人類陷入封閉和被動(dòng)的“認(rèn)知繭房”。其一,以“封閉”的虛擬互動(dòng)取代“自由”的社會(huì)聯(lián)系。人是社會(huì)性動(dòng)物,需要通過(guò)社會(huì)聯(lián)系來(lái)實(shí)現(xiàn)自身價(jià)值、維系自身存在。這種社會(huì)聯(lián)系必須是處于人“自由的”意識(shí)支配下的真正的聯(lián)系,而非形式上的、虛假的聯(lián)系。當(dāng)人們面對(duì)存在“算法鋼印”的生成式人工智能時(shí),雖然可以通過(guò)比肩真實(shí)場(chǎng)景的互動(dòng)交流,感受到表象化的社會(huì)聯(lián)系,但事實(shí)上卻離自由意識(shí)越來(lái)越遠(yuǎn)。因?yàn)檫@種社會(huì)聯(lián)系完全由算法所驅(qū)動(dòng),只要這種虛擬互動(dòng)持續(xù)存在,人就會(huì)持續(xù)遭受潛在的“算法鋼印”的馴化,慢慢陷入封閉的“認(rèn)知繭房”。其二,以虛假的“自覺(jué)”掩蓋真實(shí)的“被動(dòng)”。人類作為與生成式人工智能互動(dòng)的發(fā)起者,極易產(chǎn)生一種“自覺(jué)的”錯(cuò)覺(jué),似乎整個(gè)互動(dòng)過(guò)程都處于自己的意識(shí)掌控之下,從而低估了生成式人工智能的意識(shí)操控能力。但OpenAI的研究指出,以GPT-4為代表的生成式人工智能非常擅長(zhǎng)羅織真實(shí)程度極高的虛幻內(nèi)容,甚至還有主動(dòng)欺騙人類的意外危險(xiǎn)行為。[7]這意味著一旦人類沉浸于這種虛假的自覺(jué),就可能經(jīng)由“逆向馴化”被動(dòng)地落入“算法鋼印”編織的“認(rèn)知繭房”陷阱。受困于“認(rèn)知繭房”的人數(shù)愈多,對(duì)主流意識(shí)形態(tài)認(rèn)同的沖擊也就愈大,這種誕生于生成式算法本身的原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)也將沿著這條技術(shù)應(yīng)用的“異化”路徑,逐步成為現(xiàn)實(shí)的威脅。
繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)與原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)不同,它并非是自然生成于技術(shù)應(yīng)用的“異化”路徑,而是誕生于個(gè)人或組織的惡意應(yīng)用場(chǎng)景之下。就意識(shí)形態(tài)領(lǐng)域而言,OpenAI的技術(shù)報(bào)告中有兩種具體風(fēng)險(xiǎn)與之相關(guān),即虛假信息和行為誘導(dǎo)、武器擴(kuò)散。所謂虛假信息和行為誘導(dǎo)是指生成式人工智能會(huì)遵循使用者的要求,生成一些虛假、有害或者誘導(dǎo)性內(nèi)容用于惡意攻擊。而武器擴(kuò)散則是指生成式人工智能可能會(huì)被用作網(wǎng)絡(luò)認(rèn)知對(duì)抗的武器。[15]兩種風(fēng)險(xiǎn)雖有不同,但所遵循的意識(shí)形態(tài)風(fēng)險(xiǎn)生成機(jī)制及樣態(tài)是一致的,二者均惡意利用了生成式人工智能的智能仿真技術(shù),試圖突破意識(shí)形態(tài)的把關(guān)機(jī)制,以摧毀主流意識(shí)形態(tài)的價(jià)值體系。
首先,“智能仿真”風(fēng)險(xiǎn)因素為繼發(fā)性風(fēng)險(xiǎn)的產(chǎn)生創(chuàng)造了先決條件。智能仿真(Intelligent Simulation Technology)是指人工智能與仿真技術(shù)的集成性應(yīng)用技術(shù),即利用人工智能技術(shù)還原或模擬物理世界。[16]隨著生成式人工智能時(shí)代的到來(lái),智能仿真技術(shù)將迎來(lái)“模型即服務(wù)”(MaaS)的新模式。這意味著智能仿真中的仿真智能體技術(shù)(Agent Simulation)將直接為用戶提供服務(wù)。有學(xué)者認(rèn)為智能體要在現(xiàn)實(shí)社會(huì)中自主完成委托任務(wù),應(yīng)當(dāng)具備以下四種能力:自治性、社會(huì)能力、響應(yīng)性和能動(dòng)性。[17]但對(duì)于意識(shí)形態(tài)安全而言,仿真智能體技術(shù)愈發(fā)成熟,其被惡意利用的概率就愈高,所導(dǎo)致的意識(shí)形態(tài)風(fēng)險(xiǎn)也愈大。從世界范圍來(lái)看,智能體已成為計(jì)算性宣傳(Computational Propaganda)的重要工具,即利用算法、自動(dòng)化程序、大數(shù)據(jù)分析等方法在社交平臺(tái)發(fā)布誘導(dǎo)性信息,以實(shí)現(xiàn)操縱輿論的目的。在生成式算法廣泛應(yīng)用前,智能體僅能完成一些簡(jiǎn)單、重復(fù)的計(jì)算性宣傳工作,如信息發(fā)布、信息收集和簡(jiǎn)單交互。但生成式智能體的出現(xiàn)將徹底改變這一局面,它不僅具有極強(qiáng)的響應(yīng)性和能動(dòng)性,具體表現(xiàn)與人類專業(yè)的宣傳人員相差無(wú)幾,[7]還具有一定的自治性和社會(huì)能力,能夠?qū)ι缃画h(huán)境進(jìn)行識(shí)別并按照既定要求自主完成對(duì)于人類社會(huì)交互行為的仿真。[18]出色的智能仿真能力,疊加生成式算法的深度合成技術(shù)(Deep Synthesis),將讓生成式智能體成為威脅意識(shí)形態(tài)安全的重大風(fēng)險(xiǎn)因素。
其次,“把關(guān)失效”風(fēng)險(xiǎn)事故為繼發(fā)性風(fēng)險(xiǎn)的擴(kuò)散撕開(kāi)了制度豁口。列寧指出:“社會(huì)主義意識(shí)只能從外面灌輸進(jìn)去”,[19](P3,29)但何種意識(shí)需要灌輸必須經(jīng)過(guò)選擇,這種選擇的過(guò)程就是意識(shí)形態(tài)把關(guān)的過(guò)程。把關(guān)理論本質(zhì)上是一種信息控制范式,該理論認(rèn)為社會(huì)中所流動(dòng)的信息只有經(jīng)過(guò)把關(guān)人的價(jià)值篩選才能進(jìn)入傳播渠道。傳統(tǒng)把關(guān)理論將把關(guān)人、把關(guān)內(nèi)容和把關(guān)效果視為研究重點(diǎn),[20]這在一定程度上也還原了大眾傳播時(shí)代意識(shí)形態(tài)把關(guān)制度的設(shè)計(jì)重點(diǎn)。然而,生成式人工智能的出現(xiàn)輕易地將意識(shí)形態(tài)把關(guān)制度撕開(kāi)了豁口。其一,傳統(tǒng)把關(guān)人無(wú)法應(yīng)對(duì)仿真智能體把關(guān)對(duì)象。盡管遭遇互聯(lián)網(wǎng)興起的嚴(yán)峻挑戰(zhàn),把關(guān)制度仍不至于失效,因?yàn)榘殃P(guān)人已近乎布滿整個(gè)互聯(lián)網(wǎng)。[21]但這一結(jié)論成立的前提是把關(guān)對(duì)象為人類個(gè)體,而非仿真智能體。因?yàn)閻阂饪刂葡碌纳墒街悄荏w可以輕易偽裝成人類滲透進(jìn)公共信息平臺(tái),在海量智能體的協(xié)同下,實(shí)現(xiàn)操控議題、轉(zhuǎn)移話題、挑唆情緒等意識(shí)形態(tài)操控目標(biāo)。作為把關(guān)對(duì)象的生成式智能體在惡意控制下將成為意識(shí)表達(dá)和傳播的重要參與者,而無(wú)論把關(guān)人是人類個(gè)體還是組織都難以應(yīng)對(duì)。[22]其二,傳統(tǒng)把關(guān)的內(nèi)容分析模式無(wú)法分辨深度合成內(nèi)容。傳統(tǒng)把關(guān)理論認(rèn)為對(duì)于信息內(nèi)容的把關(guān)應(yīng)當(dāng)經(jīng)過(guò)兩個(gè)階段,即信息采集和信息加工階段,而把關(guān)人會(huì)基于一定的價(jià)值判斷在這兩個(gè)階段中完成對(duì)于內(nèi)容的分析和把關(guān)。[23]因此,傳統(tǒng)把關(guān)的內(nèi)容分析模式高度依賴把關(guān)人對(duì)于信息來(lái)源及社會(huì)背景的認(rèn)知。但在互聯(lián)網(wǎng)背景下,碎片化的信息內(nèi)容呈現(xiàn)方式在打斷這一內(nèi)容分析模式的同時(shí),也破壞了把關(guān)人對(duì)于信息背景的整體性認(rèn)知。此時(shí),經(jīng)由生成式算法產(chǎn)生的深度合成信息的出現(xiàn),將徹底讓把關(guān)人無(wú)所適從,他們無(wú)法分辨合成信息的真?zhèn)?也就無(wú)法完成對(duì)于內(nèi)容的把關(guān)。其三,傳統(tǒng)把關(guān)的效果反饋機(jī)制難以穿透生成算法黑箱。傳統(tǒng)把關(guān)的效果反饋是調(diào)整把關(guān)機(jī)制的重要環(huán)節(jié),順暢的把關(guān)效果反饋應(yīng)建立在全面掌握把關(guān)過(guò)程的基礎(chǔ)之上。但對(duì)于生成式算法的算法黑箱而言,即便是設(shè)計(jì)者也一籌莫展。把關(guān)人自然更加難以把握信息內(nèi)容的生成規(guī)律,無(wú)法準(zhǔn)確評(píng)估把關(guān)效果。
最后,“價(jià)值失衡”風(fēng)險(xiǎn)損失是繼發(fā)性風(fēng)險(xiǎn)現(xiàn)實(shí)化產(chǎn)生的危害后果。繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)是主觀惡意最強(qiáng)的“異化”風(fēng)險(xiǎn),對(duì)意識(shí)形態(tài)把關(guān)制度的突破不是其目的,其真正的目的在于摧毀我國(guó)主流意識(shí)形態(tài)價(jià)值體系。一方面,仿真智能體利用社會(huì)焦點(diǎn)事件助推政治極化。從境外仿真智能體參與計(jì)算宣傳的案例可見(jiàn),智能體更擅長(zhǎng)通過(guò)“標(biāo)簽劫持”引導(dǎo)輿論走向極化,以實(shí)現(xiàn)操控者的政治目的。[24]有研究顯示,中國(guó)也是境外計(jì)算宣傳進(jìn)行輿論滲透的重災(zāi)區(qū)。以境外社交媒體Twitter為例,其中約超過(guò)1/5與中國(guó)相關(guān)的帖文均由智能體發(fā)布,相關(guān)內(nèi)容主要發(fā)布在重大社會(huì)性事件發(fā)生后,集中在政治議題和人權(quán)議題上,以歪曲解讀、煽動(dòng)對(duì)立為主。[25]當(dāng)前智能體的惡意應(yīng)用多以信息發(fā)布和轉(zhuǎn)發(fā)擴(kuò)散為主,極少進(jìn)行互動(dòng)式傳播,但隨著智能仿真能力的不斷提升,仿真智能體制造政治極化的風(fēng)險(xiǎn)也將更大。另一方面,仿真智能體借助從眾效應(yīng)宣揚(yáng)西方價(jià)值。仿真智能體也可被用于制造虛假的社會(huì)共識(shí),它可被部署在社交媒體上,集中放大特定的宣傳信息,并通過(guò)從眾效應(yīng)以形成對(duì)具體個(gè)體或價(jià)值觀的現(xiàn)實(shí)支持。有學(xué)者指出,2016年美國(guó)大選特朗普的競(jìng)選集團(tuán)就應(yīng)用此項(xiàng)技術(shù)為特朗普贏得了廣泛支持。[26]事實(shí)上,仿真智能體對(duì)于社會(huì)意識(shí)的操縱都是一體兩面的,在進(jìn)行意識(shí)形態(tài)攻擊的同時(shí),也必然伴隨著對(duì)另一價(jià)值觀的宣揚(yáng)。對(duì)于我國(guó)而言,無(wú)論是對(duì)社會(huì)主義核心價(jià)值體系的攻擊,還是對(duì)西方價(jià)值觀的宣揚(yáng),生成式人工智能惡意應(yīng)用者的根本目的均在于顛覆主流價(jià)值體系,造成“價(jià)值失衡”的意識(shí)形態(tài)風(fēng)險(xiǎn)損失。
并發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)是生成式人工智能技術(shù)在長(zhǎng)期應(yīng)用場(chǎng)景下所產(chǎn)生的附隨性風(fēng)險(xiǎn),同時(shí)也是一種最底層、最不可逆的意識(shí)形態(tài)風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)已觸及人的主體性問(wèn)題,進(jìn)一步助推了近代以來(lái)資本主義生產(chǎn)方式所造就的人的異化危機(jī)。生成式人工智能的出現(xiàn)應(yīng)驗(yàn)了馬克思的判斷,“我們的一切發(fā)明和進(jìn)步,似乎結(jié)果是使物質(zhì)力量成為有智慧的生命,而人的生命則化為愚鈍的物質(zhì)力量”。[27](P776)即便OpenAI也不得不承認(rèn),經(jīng)濟(jì)影響和過(guò)度依賴的風(fēng)險(xiǎn)是生成式人工智能給人類社會(huì)所帶來(lái)的不容忽視的重大風(fēng)險(xiǎn)。前者將人從生產(chǎn)活動(dòng)中排擠出去,令其失去了他的“類生活”;后者讓人脫離現(xiàn)實(shí),令其沉溺于“描繪他的真正的類生活的諷刺畫(huà)”中。[14](P53,25)在二者的綜合影響下,傳統(tǒng)的價(jià)值觀、道德感將逐漸解體,并最終導(dǎo)致社會(huì)信仰遷移的意識(shí)形態(tài)風(fēng)險(xiǎn)損失。
首先,“主客異位”的風(fēng)險(xiǎn)因素讓人的主體性地位遭遇空前的挑戰(zhàn)。馬克思曾詳細(xì)分析過(guò)人的異化現(xiàn)象,在其看來(lái)這些有悖人的類本質(zhì)的現(xiàn)象均源自資本主義生產(chǎn)關(guān)系下勞動(dòng)的異化。[28]雖然這種勞動(dòng)的異化會(huì)導(dǎo)致機(jī)器對(duì)人類的排擠,但機(jī)器本身的地位卻并未改變,不會(huì)危及人類的主體性地位。然而,生成式人工智能卻對(duì)人類的主體性地位發(fā)起了挑戰(zhàn),甚至從多個(gè)維度開(kāi)始混淆人的本質(zhì)概念,最終將引發(fā)質(zhì)變。依照OpenAI的測(cè)試,GPT-4模型在眾多選拔類職業(yè)資格考試中均取得了超越常人的優(yōu)異成績(jī),如美國(guó)研究生考試(GRE)、美國(guó)統(tǒng)一律師考試(MBE+MEE+MPT)等,[7]這意味著生成式人工智能在腦力勞動(dòng)領(lǐng)域已初步具備了取代人類的能力。而隨著OpenAI收購(gòu)挪威人形機(jī)器人公司1X,那些依靠人類多感官協(xié)調(diào)的技術(shù)性體力勞動(dòng)也將面臨嚴(yán)峻挑戰(zhàn)。[29]并且這種取代可能不再是馬克思所描述的勞動(dòng)生產(chǎn)關(guān)系中機(jī)器對(duì)于人類的排擠,而是更為底層的主體地位的替代,即“主客異位”。如果生成式人工智能獲得了主體地位并成為超越人類的存在,那么人類將必須為自身的存在尋找價(jià)值和意義,人的存在也將日益變得“虛無(wú)和荒謬化”。[30]這種“主客異位”必然挑戰(zhàn)以人為核心的意識(shí)形態(tài)基礎(chǔ),由此引發(fā)的意識(shí)形態(tài)風(fēng)險(xiǎn)也將是史無(wú)前例的。
其次,“解構(gòu)傳統(tǒng)”的風(fēng)險(xiǎn)事故激化了社會(huì)中原有的意識(shí)形態(tài)風(fēng)險(xiǎn)。馬克思雖力主批判資本主義的生產(chǎn)方式和意識(shí)形態(tài)所導(dǎo)致的人的異化現(xiàn)象,但他也承認(rèn)“以資本為基礎(chǔ)的生產(chǎn)……創(chuàng)造出一個(gè)物質(zhì)的和精神的普遍有用性體系”是“服從于人的需要”的,并具有“偉大的文明作用”。[31](P389~390)但長(zhǎng)期應(yīng)用場(chǎng)景下的生成式人工智能卻正在從物質(zhì)層面和精神層面解構(gòu)這些以人為基礎(chǔ)的“普遍有用性體系”,激化原本就存在的意識(shí)形態(tài)風(fēng)險(xiǎn)。OpenAI列舉的經(jīng)濟(jì)影響和過(guò)度依賴的風(fēng)險(xiǎn)便是例證。一方面,經(jīng)濟(jì)影響的風(fēng)險(xiǎn)通過(guò)剝奪人類勞動(dòng)機(jī)會(huì)的方式,從物質(zhì)層面解構(gòu)人類個(gè)體自我實(shí)現(xiàn)的基礎(chǔ),將人們困于自我價(jià)值否定的陷阱之中。馬克思雖然認(rèn)為資本主義生產(chǎn)關(guān)系所導(dǎo)致的勞動(dòng)異化,讓人無(wú)法從勞動(dòng)中感受到生命的價(jià)值,因此必須加以批判。但不可否認(rèn)的是,大部分被異化的人仍在生產(chǎn)關(guān)系中占據(jù)一席之地。而在OpenAI所預(yù)測(cè)的經(jīng)濟(jì)影響風(fēng)險(xiǎn)中,生成式人工智能可能導(dǎo)致經(jīng)濟(jì)體發(fā)生組織層面的變革,將相當(dāng)數(shù)量的人完全排除在勞動(dòng)生產(chǎn)之外,同時(shí)疊加生成式模型的“加速”特性,(3)加速(Acceleration)是指生成式模型作為當(dāng)前最先進(jìn)的技術(shù),能夠讓企業(yè)或組織獲取先發(fā)紅利,因此企業(yè)或組織出于競(jìng)爭(zhēng)的需要可能會(huì)陷入類似“賽車”比賽一樣的持續(xù)加速開(kāi)發(fā)和部署的狀態(tài)。但社會(huì)卻尚未做好運(yùn)用制度性規(guī)范進(jìn)行“剎車”的準(zhǔn)備,導(dǎo)致生成式模型在不斷“加速”的過(guò)程中,存在完全“失控”的嚴(yán)重風(fēng)險(xiǎn)。被替代的人群范圍可能愈來(lái)愈大。由于生成式模型迭代的速度遠(yuǎn)超人類,被替代的人將永遠(yuǎn)失去追趕的機(jī)會(huì),進(jìn)而掉入自我價(jià)值否定的陷阱。另一方面,過(guò)度依賴的風(fēng)險(xiǎn)通過(guò)令人類個(gè)體脫離社會(huì)環(huán)境,從精神層面解構(gòu)人類社會(huì)的現(xiàn)實(shí)基礎(chǔ),讓人們沉溺于個(gè)體的虛擬幻象之中。馬克思直言:“甚至當(dāng)我從事科學(xué)之類的活動(dòng),即從事一種我只是在很少情況下才能同別人直接交往的活動(dòng)的時(shí)候,我也是社會(huì)的,因?yàn)槲沂亲鳛槿嘶顒?dòng)的?!盵14](P122)事實(shí)上,人與社會(huì)的相互塑造關(guān)系決定了人的社會(huì)活動(dòng)和享受無(wú)法脫離社會(huì)而單獨(dú)存在,與此同時(shí)人類社會(huì)的存在也有賴于永不停息的人的社會(huì)活動(dòng)和享受。因此,任何將人的活動(dòng)和享受抽離于現(xiàn)實(shí)社會(huì)的科技都是一種解構(gòu)人類社會(huì)基礎(chǔ)的力量。在進(jìn)入信息時(shí)代后,以虛擬的活動(dòng)和享受替代現(xiàn)實(shí)社會(huì)的解構(gòu)進(jìn)程便已開(kāi)啟,而生成式人工智能技術(shù)的出現(xiàn)更是加劇了這一趨勢(shì)。就人的活動(dòng)而言,除去必要的物質(zhì)交換,生成式人工智能依靠強(qiáng)大的模型和數(shù)據(jù)足以在任何專業(yè)領(lǐng)域滿足普通人的知識(shí)和信息需求,在普通人心中塑造其智能權(quán)威的形象。而對(duì)于人的享受,生成式人工智能也可以通過(guò)精準(zhǔn)個(gè)體化定制,為每個(gè)個(gè)體提供專屬性服務(wù)。長(zhǎng)此以往,生成式人工智能應(yīng)用的“異化”,也就逐漸將人類個(gè)體剝離出現(xiàn)實(shí)社會(huì),并包裹在為個(gè)體打造的專屬虛擬幻象之中。
最后,“信仰遷移”的風(fēng)險(xiǎn)損失將造成主流價(jià)值觀消解的嚴(yán)重后果。信仰有個(gè)人信仰與社會(huì)信仰之別。從意識(shí)形態(tài)角度出發(fā),社會(huì)信仰源自特定文化共同體和特定人群的共同意識(shí),是塑造主流價(jià)值觀的必爭(zhēng)之地。在生成式人工智能大規(guī)模應(yīng)用前,社會(huì)信仰之爭(zhēng)所折射的是不同社會(huì)生產(chǎn)方式下人的地位問(wèn)題,如資本主義將宗教作為壓迫人民的統(tǒng)治工具,而馬克思主義信仰則致力于實(shí)現(xiàn)人的解放。但生成式人工智能的出現(xiàn),從主體層面對(duì)當(dāng)前以人為核心的社會(huì)信仰發(fā)起了挑戰(zhàn),在解構(gòu)社會(huì)傳統(tǒng)的同時(shí),也為社會(huì)信仰遷移至以非人類為中心的“數(shù)據(jù)”或“超智能存在”提供了可能。從路徑上看,這種社會(huì)信仰的遷移不會(huì)是一蹴而就的,它至少可分為兩個(gè)階段,即解構(gòu)人類社會(huì)權(quán)威的階段和塑造非人類社會(huì)權(quán)威的階段。前一階段的特征為:以模型依賴解構(gòu)社會(huì)權(quán)威。有研究顯示,當(dāng)人們?nèi)狈θ斯ぶ悄芩仞B(yǎng)時(shí),容易高度信賴人工智能模型。特別是在自己不熟悉的專業(yè)領(lǐng)域,人們可能將人工智能視作“客觀邏輯”的呈現(xiàn)。[32](P1~23)而隨著人們對(duì)生成式模型信任度的增長(zhǎng),人們也愈發(fā)難以質(zhì)疑或驗(yàn)證生成式模型的結(jié)論,與之相伴的則是依托于人類知識(shí)體系和主流價(jià)值觀的社會(huì)權(quán)威影響力的消弭。后一階段的特征為:以模型依賴塑造智能權(quán)威。一項(xiàng)針對(duì)人工智能依賴性的實(shí)證研究發(fā)現(xiàn),雖然人們可能會(huì)因各種緣由對(duì)具有可解釋性的人工智能產(chǎn)生“無(wú)理由的信任”(Unwarranted Faith),但其中那些不具備人工智能素養(yǎng)的人更有可能會(huì)將人工智能視作高于人類的智能存在。[33]這一結(jié)論印證了尤瓦爾·赫拉利所預(yù)言的“數(shù)據(jù)主義”出現(xiàn)的可能,也預(yù)示了社會(huì)信仰存在向非人類的智能權(quán)威遷移的巨大意識(shí)形態(tài)風(fēng)險(xiǎn)。
習(xí)近平總書(shū)記指出:“人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動(dòng)性很強(qiáng)的‘頭雁’效應(yīng)?!盵34]面對(duì)生成式人工智能應(yīng)用所帶來(lái)的各種意識(shí)形態(tài)風(fēng)險(xiǎn),切不可諱疾忌醫(yī),以抵制技術(shù)的方式防范風(fēng)險(xiǎn)。而應(yīng)因勢(shì)利導(dǎo),針對(duì)不同類型的意識(shí)形態(tài)風(fēng)險(xiǎn),探尋切實(shí)可行的風(fēng)險(xiǎn)治理路徑。
生成式人工智能應(yīng)用的原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)根植于算法底層,單純依賴人力將難以破除根深蒂固的“算法鋼印”。因此,對(duì)于原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的治理思路也應(yīng)從既往的“人工規(guī)訓(xùn)”轉(zhuǎn)向“技術(shù)規(guī)馴”。而從“技術(shù)規(guī)馴”的角度出發(fā),可衍生出兩條具體的治理路徑:一是錨定技術(shù)本身的治理路徑,強(qiáng)調(diào)對(duì)生成式算法的規(guī)制;二是錨定技術(shù)應(yīng)用場(chǎng)景的治理路徑,強(qiáng)調(diào)對(duì)生成式算法的馴化。
一方面,通過(guò)建立生成式算法備案與披露制度,增強(qiáng)技術(shù)透明度,強(qiáng)化對(duì)生成式人工智能技術(shù)本身的規(guī)制能力。生成式人工智能應(yīng)用的原發(fā)性風(fēng)險(xiǎn)治理應(yīng)擺脫依靠人工規(guī)訓(xùn)算法的路徑依賴。因?yàn)樵谝源竽P蜑榛A(chǔ)的生成式算法面前,即便是設(shè)計(jì)者也無(wú)法探查全部的潛在算法風(fēng)險(xiǎn),更毋言通過(guò)預(yù)先的人工干預(yù)來(lái)加以規(guī)避,人們能做的只是在發(fā)現(xiàn)問(wèn)題后嘗試對(duì)算法進(jìn)行微調(diào)。[35]因此,通過(guò)備案和披露制度提升監(jiān)管機(jī)構(gòu)的反應(yīng)與規(guī)制能力,就成為了治理原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的關(guān)鍵。2023年7月10日頒布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《管理辦法》)規(guī)定了生成式人工智能應(yīng)用提供者的合法性義務(wù),并確立了生成式算法備案與披露制度。但總體而言,當(dāng)前的備案與披露制度仍過(guò)于粗略,難以滿足治理需求。其一,備案與披露的類型過(guò)于單一,未能實(shí)現(xiàn)分級(jí)分類的監(jiān)管目標(biāo)。當(dāng)前的備案與披露制度,僅針對(duì)“具有輿論屬性或者社會(huì)動(dòng)員能力”的生成式算法,但生成式人工智能應(yīng)用的原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)卻不一定發(fā)生在輿論領(lǐng)域。其二,備案與披露的內(nèi)容過(guò)于模糊,難以滿足精準(zhǔn)審慎的監(jiān)管要求。《管理辦法》準(zhǔn)用了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中的備案程序制度。后者雖要求備案人披露“算法類型、算法自評(píng)估報(bào)告”等信息,但卻并未對(duì)算法概念進(jìn)行準(zhǔn)確界定。對(duì)于生成式算法的備案與披露,是只需要對(duì)算法類型進(jìn)行描述性的形式備案,還是需要對(duì)算法模型本身進(jìn)行實(shí)質(zhì)備案,以及備案內(nèi)容是否涉及敏感詞數(shù)據(jù)庫(kù)、分類器等必要內(nèi)容,均缺少明確規(guī)定。而有效治理的前提則在于提升技術(shù)透明度,強(qiáng)化與算法平臺(tái)的溝通協(xié)作。所以,國(guó)家應(yīng)盡快制定配套、細(xì)化的分級(jí)分類生成式算法備案與披露制度,進(jìn)一步明確備案登記的內(nèi)容和程序,切實(shí)提升對(duì)于生成式人工智能技術(shù)的規(guī)制能力。
另一方面,通過(guò)建立意識(shí)形態(tài)敏感領(lǐng)域應(yīng)用規(guī)范與強(qiáng)制定向訓(xùn)練制度,增強(qiáng)技術(shù)安全性,提升對(duì)于生成式人工智能應(yīng)用的馴化能力。如前所述,生成式算法的“算法鋼印”形成于海量問(wèn)題數(shù)據(jù)的預(yù)訓(xùn)練模型,而破解之道同樣在此。為確保意識(shí)形態(tài)領(lǐng)域的安全,《管理辦法》明確將“具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)”列入需要主動(dòng)申請(qǐng)安全評(píng)估的類別,并明確生成式人工智能“從事新聞出版、影視制作、文藝創(chuàng)作等活動(dòng)”時(shí)還應(yīng)遵守相應(yīng)領(lǐng)域的例外規(guī)定。在上文深度剖析生成式人工智能應(yīng)用的意識(shí)形態(tài)風(fēng)險(xiǎn)生成機(jī)制后,我們可以發(fā)現(xiàn)《管理辦法》的規(guī)定意在預(yù)防生成式人工智能應(yīng)用所可能引發(fā)的繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)。但同時(shí),我們也可以發(fā)現(xiàn)《管理辦法》顯然沒(méi)有考慮到生成式人工智能技術(shù)的全部應(yīng)用場(chǎng)景,進(jìn)而忽略了原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)這一風(fēng)險(xiǎn)類別。事實(shí)上,我國(guó)可參鑒歐盟的《人工智能法案》,對(duì)生成式人工智能技術(shù)應(yīng)用的關(guān)鍵領(lǐng)域劃分風(fēng)險(xiǎn)等級(jí),將教育領(lǐng)域等可能發(fā)生原發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的敏感領(lǐng)域設(shè)置為高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域。具體路徑可分作兩步:一是針對(duì)意識(shí)形態(tài)敏感領(lǐng)域設(shè)置特殊的應(yīng)用規(guī)范,明確生成式算法所必須具備的技術(shù)標(biāo)準(zhǔn);二是依據(jù)不同意識(shí)形態(tài)敏感領(lǐng)域的特點(diǎn)設(shè)置定向訓(xùn)練數(shù)據(jù)庫(kù)和敏感詞定向訓(xùn)練數(shù)據(jù)庫(kù)。《管理規(guī)定》雖強(qiáng)調(diào)要推動(dòng)建立“公共訓(xùn)練數(shù)據(jù)資源平臺(tái)”,但卻并未規(guī)定強(qiáng)制性的定向訓(xùn)練制度。對(duì)于已經(jīng)存在“算法鋼印”的生成式人工智能,定向訓(xùn)練是糾正其算法偏見(jiàn)最直接有效的方法。因此國(guó)家應(yīng)加快生成式人工智能基礎(chǔ)設(shè)施和公共訓(xùn)練數(shù)據(jù)資源平臺(tái)的建設(shè),并要求在意識(shí)形態(tài)敏感領(lǐng)域提供服務(wù)的組織及個(gè)人,在正式開(kāi)展業(yè)務(wù)前,必須使用指定的定向訓(xùn)練數(shù)據(jù)庫(kù)對(duì)算法模型進(jìn)行強(qiáng)制定向訓(xùn)練。例如,在教育領(lǐng)域,要求生成式人工智能技術(shù)在應(yīng)用前應(yīng)預(yù)先完成中國(guó)特色社會(huì)主義理論體系數(shù)據(jù)庫(kù)的定向訓(xùn)練,以避免在應(yīng)用過(guò)程中出現(xiàn)嚴(yán)重的政治及意識(shí)形態(tài)錯(cuò)誤。只有如此,才能在最大程度上避免“算法鋼印”的意識(shí)形態(tài)威脅,消除“逆向馴化”所可能產(chǎn)生的“認(rèn)知繭房”效應(yīng),將西方技術(shù)馴化為中國(guó)技術(shù)。
生成式人工智能應(yīng)用的繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的癥結(jié)在于,傳統(tǒng)的把關(guān)人無(wú)法應(yīng)對(duì)仿真智能體所發(fā)起的全方位挑戰(zhàn)。因此,風(fēng)險(xiǎn)治理模式也必須與時(shí)俱進(jìn),由把關(guān)人理論下的“重點(diǎn)監(jiān)管”轉(zhuǎn)為“全鏈監(jiān)管”模式。為適應(yīng)在智能仿真技術(shù)加持下,計(jì)算宣傳智能體所可能發(fā)起的意識(shí)形態(tài)攻勢(shì),“全鏈監(jiān)管”應(yīng)從以下兩方面入手。
一方面,完善分布式監(jiān)管網(wǎng)絡(luò),合理劃定權(quán)責(zé)。分布式監(jiān)管區(qū)別于把關(guān)人理論下的分段、重點(diǎn)監(jiān)管體系,其核心價(jià)值在于能有效彌合傳統(tǒng)中心式監(jiān)管體系所造成的監(jiān)管縫隙。傳統(tǒng)的中心式監(jiān)管體系以把關(guān)人為監(jiān)管核心,監(jiān)管責(zé)任高度集中于把關(guān)人,因此以“量”取勝、重點(diǎn)布控是慣常操作。但面對(duì)有生成式人工智能技術(shù)加持的仿真智能體,無(wú)論如何增加把關(guān)人的數(shù)量,也無(wú)法應(yīng)對(duì)可能隨時(shí)攻擊信息采集、選擇、編輯、審查、導(dǎo)向、發(fā)布等意識(shí)形態(tài)傳播全鏈條任意環(huán)節(jié)的仿真智能體。同時(shí),在“模型即服務(wù)”模式日益盛行的當(dāng)下,把關(guān)權(quán)實(shí)際上已開(kāi)始向算法平臺(tái)企業(yè)轉(zhuǎn)移。算法平臺(tái)企業(yè)在擁有篩選服務(wù)對(duì)象的巨大權(quán)力時(shí),卻無(wú)需負(fù)擔(dān)相應(yīng)的監(jiān)管職責(zé),從而產(chǎn)生了巨大的監(jiān)管真空地帶。而《管理辦法》的“分類分級(jí)監(jiān)管”原則正體現(xiàn)了這種分布式監(jiān)管的理念,強(qiáng)調(diào)了生成式人工智能服務(wù)提供者的法律責(zé)任。然而可惜的是,《管理辦法》雖界定了“生成式人工智能服務(wù)提供者”的概念,但并未嚴(yán)格區(qū)分算法平臺(tái)與利用API(應(yīng)用程序可編程接口)的終端服務(wù)提供者。而角色的不同不僅意味著在傳播鏈條中的地位和能力差異,也意味著責(zé)任的不同。例如,OpenAI的政策研究中心主任Miles Brundage等人所提出的疑問(wèn),當(dāng)前的算法平臺(tái)能夠通過(guò)API控制申請(qǐng)使用生成式算法的終端服務(wù)提供者,但真正的問(wèn)題是誰(shuí)能通過(guò)申請(qǐng)?通過(guò)理由如何?算法平臺(tái)又該怎樣制定訪問(wèn)權(quán)限規(guī)則?[36]模糊的規(guī)定意味著模糊的責(zé)任,并將最終導(dǎo)致架空責(zé)任條款的結(jié)果。因此,國(guó)家應(yīng)當(dāng)將分布式監(jiān)管的思路貫徹到底,打造符合生成式人工智能應(yīng)用路徑且權(quán)責(zé)一致的分布式監(jiān)管網(wǎng)絡(luò),以構(gòu)筑起治理繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的監(jiān)管體系。
另一方面,提升智能化監(jiān)管水平,以技術(shù)制約技術(shù)。對(duì)于惡意利用生成式人工智能技術(shù)所可能導(dǎo)致的風(fēng)險(xiǎn),《管理規(guī)定》從三個(gè)角度嘗試予以防范與治理,即自主監(jiān)管、用戶監(jiān)管和行政監(jiān)管??傮w而言,《管理規(guī)定》的監(jiān)管思路是清晰的,準(zhǔn)確切中了意識(shí)形態(tài)風(fēng)險(xiǎn)治理的要害。但規(guī)定中的技術(shù)含量仍然不高,所體現(xiàn)的更多的是倚賴把關(guān)人的傳統(tǒng)監(jiān)管思路,難以應(yīng)對(duì)以仿真智能體與深度合成技術(shù)為主要攻擊手段的繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)。從可預(yù)期的實(shí)際治理效果來(lái)看,《管理規(guī)定》所重點(diǎn)倚賴的自主監(jiān)管和用戶監(jiān)管路徑恐難奏效。一是惡意利用必然回避現(xiàn)有規(guī)范,令自主監(jiān)管落空。繼發(fā)性風(fēng)險(xiǎn)源自惡意應(yīng)用。算法平臺(tái)如果直接參與了意識(shí)形態(tài)的計(jì)算宣傳或認(rèn)知對(duì)抗,便不可能遵守《管理規(guī)定》中的自主監(jiān)管條款。而如果是終端服務(wù)提供者所實(shí)施,也必然繞開(kāi)了平臺(tái)監(jiān)管,更加不可能遵守《管理規(guī)定》的自主監(jiān)管規(guī)定,例如,為虛假的深度合成內(nèi)容加注標(biāo)識(shí)。二是惡意的深度偽造具有極強(qiáng)的迷惑性,讓用戶監(jiān)管失效。互聯(lián)網(wǎng)背景下的傳統(tǒng)監(jiān)管模式主要采取增加把關(guān)人的治理思路,即將用戶作為把關(guān)人吸納至監(jiān)管體系之中,實(shí)現(xiàn)把關(guān)人數(shù)量的指數(shù)級(jí)增長(zhǎng)。但用戶監(jiān)管受限于個(gè)體的認(rèn)知與知識(shí)體系,對(duì)于可能引發(fā)社會(huì)意識(shí)形態(tài)風(fēng)險(xiǎn)的深度合成內(nèi)容,甚至是深度偽造的內(nèi)容則束手無(wú)策。因此,行政監(jiān)管才是應(yīng)對(duì)繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)最為重要的手段。同時(shí),為更好地應(yīng)對(duì)潛在的海量計(jì)算宣傳與認(rèn)知對(duì)抗意識(shí)形態(tài)攻擊,必須將監(jiān)管體系由以人工為主過(guò)渡到以技術(shù)為主,大力發(fā)展智能化監(jiān)管工具,如人民網(wǎng)開(kāi)發(fā)的“人民審?!碑a(chǎn)品。只有以技術(shù)為依托,堅(jiān)持三管齊下,才能有效提升繼發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)治理的智能化監(jiān)管水平。
并發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)其本質(zhì)是一種顛覆以人為本價(jià)值體系的信仰危機(jī),故而風(fēng)險(xiǎn)治理的思路應(yīng)當(dāng)反其道而行。任何以人為本鞏固社會(huì)主流價(jià)值觀,并提升人們抵御智能依賴的方法,即為并發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)的治理之道。
一方面,以強(qiáng)化“人機(jī)對(duì)齊”筑牢人工智能以人為本的價(jià)值觀?!豆芾磙k法》通過(guò)明確規(guī)定人工智能技術(shù)所應(yīng)遵循的準(zhǔn)則和要求的方式,對(duì)以上問(wèn)題給予了回應(yīng)。但就規(guī)范層面而言,相關(guān)規(guī)定只是宣示性規(guī)范,是國(guó)家立場(chǎng)的宣告。事實(shí)上,當(dāng)前人機(jī)對(duì)齊的具體工作仍主要依靠生成式人工智能服務(wù)提供者,特別是算法平臺(tái)自主完成。例如,OpenAI所開(kāi)發(fā)的InstructGPT預(yù)訓(xùn)練模型,就是采用“人類反饋強(qiáng)化學(xué)習(xí)”的人機(jī)對(duì)齊技術(shù)。但就實(shí)際效果而言,其只是一項(xiàng)“行動(dòng)目標(biāo)對(duì)齊”技術(shù),而非“價(jià)值觀對(duì)齊”技術(shù)。因此,InstructGPT雖然讓ChatGPT的行為更像人類,但卻并未給出消減反人類價(jià)值觀行為的解決方案。[37]所以,欲實(shí)現(xiàn)價(jià)值觀層面的人機(jī)對(duì)齊,應(yīng)當(dāng)依賴國(guó)家和社會(huì)的力量,而非由算法平臺(tái)各行其是。國(guó)家應(yīng)主導(dǎo)人機(jī)對(duì)齊技術(shù)的發(fā)展,充分利用人工智能行業(yè)協(xié)會(huì)、學(xué)會(huì)、研究會(huì)等社會(huì)力量,共同制定生成式人工智能倫理標(biāo)準(zhǔn)和發(fā)展規(guī)劃,將以人為本價(jià)值觀深深地印刻在生成式人工智能的算法之中。
另一方面,以培育“智能素養(yǎng)”增強(qiáng)社會(huì)公眾的智能依賴抵御力。上文引述的研究表明,缺乏智能素養(yǎng)的社會(huì)公眾將更容易陷入對(duì)人工智能的過(guò)度依賴。那么反之,培育智能素養(yǎng)能否有效提升社會(huì)公眾的智能依賴抵御力?答案是肯定的。有研究顯示,公眾僅僅認(rèn)知到機(jī)器學(xué)習(xí)模型所可能存在的性能差異,就可顯著降低其對(duì)于模型的依賴程度。[38](P120~129)但可惜的是《管理辦法》再次將管理職責(zé)交給了算法平臺(tái),僅要求提供者“采取有效措施防范未成年人用戶過(guò)度依賴或者沉迷生成式人工智能服務(wù)”。事實(shí)上,過(guò)度依賴現(xiàn)象并不僅發(fā)生在未成年人身上,預(yù)防并發(fā)性意識(shí)形態(tài)風(fēng)險(xiǎn)有賴于社會(huì)公眾智能素養(yǎng)的普遍提升,因此必須多管齊下。其一,在企業(yè)層面,應(yīng)對(duì)生成式人工智能服務(wù)提供者提出明確且清晰的規(guī)范要求。如在用戶登錄界面提示生成式算法的局限性,并列舉錯(cuò)誤范例;又如為用戶提供生成內(nèi)容相關(guān)度與準(zhǔn)確性的提示,并標(biāo)明參考信息來(lái)源等。其二,在社會(huì)層面,應(yīng)注重針對(duì)社會(huì)公眾的宣傳。管理機(jī)關(guān)應(yīng)與宣傳機(jī)關(guān)協(xié)作搭建信息共享平臺(tái),利用各種輿論契機(jī),加大針對(duì)社會(huì)公眾的人工智能通識(shí)性宣傳。其三,在教育層面,應(yīng)在各教育階段增設(shè)符合學(xué)生需求的智能素養(yǎng)教育內(nèi)容,盡快普及智能素養(yǎng)教育,從根本上提升社會(huì)整體的智能依賴抵御能力。