賀 芳
(中南財(cái)經(jīng)政法大學(xué) 圖書館,湖北 武漢430073)
數(shù)字經(jīng)濟(jì)時(shí)代,傳統(tǒng)內(nèi)容生成技術(shù)已難以滿足用戶日益增長的數(shù)字內(nèi)容需要。隨著人工智能技術(shù)發(fā)展,AIGC(Artificial Intelligence-Generated Content)應(yīng)運(yùn)而生。AIGC即“人工智能生成內(nèi)容”,是繼專業(yè)生成內(nèi)容PGC和用戶生成內(nèi)容UGC之后的一種新型內(nèi)容生產(chǎn)方式,是通過人工智能技術(shù)來生成符合用戶需求的文本、圖像,甚至音視頻等內(nèi)容,內(nèi)容生成主體由人變成了AI。中國信息通信研究院公布的《人工智能生成內(nèi)容(AIGC)白皮書(2022)》將AIGC發(fā)展分成早期萌芽階段、沉淀積累階段和快速發(fā)展3個(gè)階段[1]。隨著深度學(xué)習(xí)算法、算力突破瓶頸和語料庫不斷完善,人工智能技術(shù)得以大幅進(jìn)步,AIGC應(yīng)用也變得更加豐富,包括圖像生成、文本生成、音視頻生成、跨模態(tài)生成等[2]。Stability AI公司發(fā)布Stable Diffusion模型,可以根據(jù)文字自動(dòng)生成圖像。2022年11月以來,由OpenAI發(fā)布的聊天機(jī)器人ChatGPT引發(fā)廣泛關(guān)注[3],能與人類“對(duì)答如流”,眾多業(yè)界專家學(xué)者對(duì)此表達(dá)看法,一些學(xué)者觀點(diǎn)較為積極,認(rèn)為ChatGPT將重塑社交媒體、語言翻譯、文字創(chuàng)作[4]、智能編程[5]等行業(yè)。也有專家對(duì)ChatGPT等AIGC的突出表現(xiàn)及引發(fā)的各種倫理風(fēng)險(xiǎn)[6]、法律問題[7]、能源環(huán)保問題[8]產(chǎn)生擔(dān)憂;美國語言學(xué)家諾姆·喬姆斯基認(rèn)為,ChatGPT是一個(gè)高科技剽竊系統(tǒng),部分高校及研究機(jī)構(gòu)則明令禁止學(xué)生使用ChatGPT寫作業(yè)或者撰寫論文。ChatGPT是AIGC技術(shù)應(yīng)用中的文本生成模態(tài)應(yīng)用模型,是AIGC最新應(yīng)用成果,也標(biāo)志著AIGC的發(fā)展將進(jìn)入新階段。
自ChatGPT出世以來,從目前市場(chǎng)各種測(cè)試數(shù)據(jù)來看,它具有強(qiáng)大的語言理解和自然語言生成能力;具有一定的自學(xué)習(xí)能力;設(shè)置一定的過濾處理機(jī)制,可以針對(duì)不恰當(dāng)?shù)恼?qǐng)求進(jìn)行合理回復(fù),并對(duì)不正確的問題提出質(zhì)疑;可以與用戶保持連續(xù)性對(duì)話,對(duì)不理解的指令進(jìn)行追問;具備記憶力,能記住用戶生產(chǎn)的內(nèi)容等,它可以算是生成式AI極為關(guān)鍵的發(fā)展節(jié)點(diǎn),AIGC發(fā)展受益于生成算法、生成式AI預(yù)訓(xùn)練模型、多模態(tài)等技術(shù)的不斷發(fā)展。
在自然語言處理方面,早期主流模型主要為RNN等循環(huán)神經(jīng)網(wǎng)絡(luò),后引入注意力機(jī)制,但是存在順序處理效率低、長序列數(shù)據(jù)處理模型不穩(wěn)定等問題。2017年Google團(tuán)隊(duì)首次提出基于自注意力機(jī)制的Transformer模型,擁有6 500萬個(gè)可調(diào)參數(shù)[9],ChatGPT則在這個(gè)模型的技術(shù)基礎(chǔ)上,從GPT-1到GPT-4,模型參數(shù)呈指數(shù)級(jí)增長,文本處理及生成能力大幅提高。而基于Transformer模型的BERT等預(yù)訓(xùn)練模型具有較強(qiáng)的語義理解能力。
在圖像處理方面,Kingma等在2014年提出深度生成模型-變分自編碼器(Variational Autoencoder,VAE),以概率方式對(duì)潛在空間進(jìn)行觀察,在數(shù)據(jù)生成方面有所應(yīng)用,可以生成與原始數(shù)據(jù)類似但不完全相同的數(shù)據(jù)。2014年,Lan GoodFellow提出早期較為有名的生成對(duì)抗網(wǎng)絡(luò)模型(Generative Adversarial Networks,GAN),在人臉照片生成、漫畫人物生成、文字轉(zhuǎn)圖片、圖片修復(fù)、3D建模等方面廣泛使用。同時(shí),基于自我注意力機(jī)制的擴(kuò)散模型(Diffusion Model)等生成算法出現(xiàn)[10],擴(kuò)散模型圖像生成性能顯著,且在圖像合成上可以取代GAN的性能,并能生成多樣化圖像。
此外,多模態(tài)技術(shù)發(fā)展在一定程度解決了AIGC多樣性的問題,例如Open AI推出基于Transformer的圖像生成模型DALL-E和圖像文本多模態(tài)模型CLIP,CLIP模型可進(jìn)行圖像分類、搜索、對(duì)比等任務(wù),具有更強(qiáng)的泛化能力;谷歌團(tuán)隊(duì)推出文本到圖像的預(yù)訓(xùn)練模型Imagen和Parti; Stability AI推出文本轉(zhuǎn)圖像模型Stable Diffusion等,因此預(yù)訓(xùn)練模型從單模態(tài)走向多模態(tài),AIGC通用性能力將得以進(jìn)一步提升。
1.2.1 重構(gòu)傳統(tǒng)互聯(lián)網(wǎng)商業(yè)模式,促進(jìn)數(shù)字經(jīng)濟(jì)新突破
隨著數(shù)字經(jīng)濟(jì)不斷發(fā)展,各種數(shù)字化場(chǎng)景不斷出現(xiàn),而數(shù)字內(nèi)容生產(chǎn)取決于知識(shí)水平、創(chuàng)造能力等,傳統(tǒng)單純靠人的內(nèi)容生產(chǎn)手段已經(jīng)難以滿足日益增長的數(shù)字內(nèi)容增量需求,引入ChatGPT等人工智能手段輔助內(nèi)容生產(chǎn),將進(jìn)一步變革內(nèi)容生產(chǎn)方式,并對(duì)人工智能利益鏈產(chǎn)生一定的影響。一方面從應(yīng)用來看,現(xiàn)有GPT模型、OPT模型等可應(yīng)用于市場(chǎng)營銷、銷售郵件、通用寫作等文本生成領(lǐng)域,Tabnine模型可自動(dòng)完成代碼編寫,DALL-E、Stable Diffusion可用于圖像生成、廣告設(shè)計(jì)等領(lǐng)域,X-CLIP模型可應(yīng)用于通用視頻識(shí)別, AI模型生成能力已在影響各行業(yè)解決問題的傳統(tǒng)思維;另一方面隨著應(yīng)用不斷擴(kuò)展,傳統(tǒng)企業(yè)或者用戶往往面臨著模型使用門檻高、內(nèi)容生成存在偏差等問題,反過來促進(jìn)算力芯片、數(shù)據(jù)標(biāo)注、自然語言處理(NLP)等行業(yè)的進(jìn)一步發(fā)展。同時(shí),它通過支持人工智能生成內(nèi)容與其他產(chǎn)業(yè)形成多維互動(dòng),為其他行業(yè)帶來新的商業(yè)模式。
1.2.2 輔助內(nèi)容生產(chǎn),提高數(shù)字內(nèi)容生產(chǎn)效率
將人工智能技術(shù)應(yīng)用于內(nèi)容生產(chǎn),一是能大幅提高內(nèi)容生產(chǎn)效率,通過AI模型輔助內(nèi)容生產(chǎn),可以讓更多用戶以最簡單的方式進(jìn)行內(nèi)容創(chuàng)作,降低創(chuàng)作門檻,提升創(chuàng)作者生產(chǎn)力;二是隨著AI模型訓(xùn)練數(shù)據(jù)不斷完善和算力的不斷增強(qiáng),將能以更低的邊際成本滿足更多的個(gè)性化需求;三是AI模型被“投喂”的知識(shí)量可以遠(yuǎn)遠(yuǎn)大于人腦的知識(shí)儲(chǔ)備量,理論上來說其輸出的內(nèi)容質(zhì)量始終維持在較高水平;四是AI在數(shù)字內(nèi)容生產(chǎn)領(lǐng)域的出色表現(xiàn),將重塑人機(jī)協(xié)作的新范式,一個(gè)好的內(nèi)容創(chuàng)意可能不僅來自于內(nèi)容創(chuàng)作者,也可以來自內(nèi)容生產(chǎn)工具使用者。
AIGC以人工智能為主體,不斷驅(qū)動(dòng)內(nèi)容生成產(chǎn)業(yè)革新,但不可避免存在一定價(jià)值偏向和意識(shí)形態(tài)色彩,具有一定的意識(shí)形態(tài)屬性。一方面,AIGC帶來內(nèi)容生成主體和生成方式的變革,但其內(nèi)容“三觀”完全由研發(fā)公司灌輸,其輸出結(jié)果依賴AIGC訓(xùn)練集數(shù)據(jù)的統(tǒng)計(jì)規(guī)律,無法核實(shí)數(shù)據(jù)的來源及準(zhǔn)確性,容易產(chǎn)生算法歧視和價(jià)值偏見;AI算法設(shè)計(jì)師自身的價(jià)值取向也會(huì)影響AI內(nèi)容的公正性與公平性。另一方面,AIGC促進(jìn)內(nèi)容傳播方式改進(jìn),從傳統(tǒng)由用戶被動(dòng)式搜索內(nèi)容過渡到算法個(gè)性化推薦,并且支持千人千面的階段。人機(jī)交互過程中,人的主體性地位被不斷削弱,導(dǎo)致人對(duì)社會(huì)的認(rèn)知過度依賴算法的過濾包裝,被算法塑造后的認(rèn)知空間對(duì)人的價(jià)值認(rèn)知更容易產(chǎn)生負(fù)面影響。且AIGC本身具有生產(chǎn)周期短、效率高、應(yīng)用廣泛等優(yōu)勢(shì),智能算法已在各個(gè)領(lǐng)域扮演主導(dǎo)者角色,會(huì)形成“信息繭房”“過濾氣泡”“回音室效應(yīng)”等問題,造成人機(jī)意識(shí)形態(tài)主導(dǎo)權(quán)與話語權(quán)之爭。有研究者指出人工智能對(duì)信息生成與傳播過程深入介入將進(jìn)一步強(qiáng)化人對(duì)技術(shù)的依賴與盲從[11],進(jìn)一步加劇用戶認(rèn)知風(fēng)險(xiǎn)。
一方面是AIGC侵權(quán)風(fēng)險(xiǎn),AIGC模型生成需要大量的訓(xùn)練集數(shù)據(jù),這些數(shù)據(jù)可能會(huì)包含受版權(quán)保護(hù)的內(nèi)容。同時(shí)AIGC作品本身也是“從有到有”,例如藝術(shù)類作品,很可能AI生成最終作品只是原作品新的表達(dá),或者與原作品在表達(dá)上構(gòu)成“實(shí)質(zhì)性相似”,都可能對(duì)原作品造成侵權(quán)。另一方面是關(guān)于AIGC著作的權(quán)利歸屬問題,一是AIGC作品是否受版權(quán)保護(hù),美國版權(quán)局于2023年3月16日針對(duì)AIGC發(fā)布版權(quán)注冊(cè)指南,明確版權(quán)只保護(hù)人類創(chuàng)造力的產(chǎn)物,而在我國,《著作權(quán)法》只有自然人或法人才具備擁有著作權(quán)或版權(quán)的資格,從某種意義來說,AI不具備擁有著作權(quán)或版權(quán)的資格。有研究者認(rèn)為,AI模型核心是數(shù)據(jù),如果能做好數(shù)據(jù)確權(quán),就能解決AIGC作品版權(quán)保護(hù)問題[12]。但是數(shù)據(jù)確權(quán)是一項(xiàng)復(fù)雜工程,全球尚無統(tǒng)一標(biāo)準(zhǔn),因此關(guān)于AIGC作品是否受版權(quán)保護(hù)尚無定論。二是作為AI模型開發(fā)者或者使用者是否擁有版權(quán),2018年騰訊狀告網(wǎng)貸之家網(wǎng)站未經(jīng)授權(quán)許可,抄襲騰訊機(jī)器人Dreamwriter撰寫的文章,宣判結(jié)果為AI生成作品屬于著作權(quán)法保護(hù)范圍,騰訊公司勝訴。在此案中,著作權(quán)歸開發(fā)者所有。我國AI生成工具文心一言也認(rèn)為用AI工具生成內(nèi)容的版權(quán)屬于生成該內(nèi)容的AI工具開發(fā)者。ChatGPT則認(rèn)為由它生成的內(nèi)容著作權(quán)歸ChatGPT使用者所有,AI工具只是進(jìn)行作品創(chuàng)作的技術(shù)手段,具體內(nèi)容及表現(xiàn)形式需要使用者來決定??拼笥嶏w的星火認(rèn)知大模型則根據(jù)具體情況具體分析,如果作品由人類使用AI工具創(chuàng)作,版權(quán)通常屬于人類作者,如果作品由AI程序自動(dòng)生成,則需考慮AI程序開發(fā)者和使用者對(duì)版權(quán)歸屬的責(zé)任與義務(wù),以及使用場(chǎng)景及目的等因素[13]。由于AIGC著作權(quán)利歸屬問題無明確界定,導(dǎo)致AIGC作品無法受到著作權(quán)保護(hù),阻礙人工智能技術(shù)使用,同時(shí)可能因AI的摹寫行為侵犯他人合法權(quán)益。
AIGC是以數(shù)據(jù)為中心構(gòu)建的模型,訓(xùn)練數(shù)據(jù)集合的全面性、準(zhǔn)確性、多樣性和公正性決定了輸出結(jié)果是否具有相應(yīng)特性,但在實(shí)際情況下,AIGC訓(xùn)練數(shù)據(jù)是有限的,且受到相應(yīng)AI模型開發(fā)者和使用者的個(gè)人價(jià)值觀影響,容易產(chǎn)生歧視、價(jià)值觀對(duì)抗、霸權(quán)、虛假信息等問題。例如訓(xùn)練AI模型的數(shù)據(jù)可能是基于某特定地區(qū)或國家的文字進(jìn)行訓(xùn)練,它在理解其他語言語義上就會(huì)相對(duì)較差。如果數(shù)據(jù)集主要針對(duì)某些特定主題,則響應(yīng)其他主題內(nèi)容時(shí),則無法給出理想答案。如果數(shù)據(jù)集存在一些種族偏見、性別偏見、歷史偏見等問題,則其生成的內(nèi)容可能會(huì)固化這些偏見。 同時(shí)AI數(shù)據(jù)集來源包括大量用戶生成內(nèi)容,內(nèi)容具有一定的價(jià)值偏見,如果與主流價(jià)值觀點(diǎn)相沖突,就會(huì)削弱部分弱勢(shì)群體的利益,且AIGC傳播特性還可能造成這種價(jià)值偏見在傳播過程中不斷延續(xù)與強(qiáng)化。此外,AI模型主要是“向數(shù)據(jù)學(xué)習(xí)”,其可能無法區(qū)分事實(shí)數(shù)據(jù)和虛構(gòu)數(shù)據(jù),因此容易生成一些具有一定說服力和可信度的虛假作品,加上其生產(chǎn)效率高特點(diǎn),有助于虛假信息的泛濫、傳播,如果不予以監(jiān)管,將進(jìn)一步加大偏見或有害刻板印象。
ChatGPT的橫空出世拉開了大語言模型產(chǎn)業(yè)的序幕,其模型參數(shù)和預(yù)訓(xùn)練數(shù)據(jù)量呈幾何級(jí)數(shù)增長,模型訓(xùn)練和部署需要消耗大量的電力和算力[14],艾瑞咨詢關(guān)于《ChatGPT浪潮下,看中國大預(yù)言模型產(chǎn)業(yè)發(fā)展》[15]提出,2020年微軟Azure為GPT-3準(zhǔn)備的訓(xùn)練研發(fā)平臺(tái)共部署1萬多塊英偉達(dá)V100,如果置換為A100,則GPU算力約3 000~5 000塊英偉達(dá)A100。在電力方面,AI算力用電需求龐大,訓(xùn)練單個(gè)模型消耗的電力超過100多個(gè)美國家庭1年的用電量[16]。且模型不僅需要訓(xùn)練,還需要用來為大規(guī)模用戶服務(wù),這增加了幾倍的計(jì)算量,從總體來看會(huì)造成巨大的碳排放量。
通過出臺(tái)相關(guān)政策法規(guī),對(duì)AIGC技術(shù)和內(nèi)容進(jìn)行正面價(jià)值引導(dǎo)、監(jiān)管并治理。目前,各國政府針對(duì)AIGC等人工智能技術(shù)的健康可持續(xù)發(fā)展制定了相關(guān)規(guī)劃或政策。歐盟于2021年發(fā)布《人工智能法案》草案[17],提出人工智能風(fēng)險(xiǎn)預(yù)防機(jī)制和實(shí)踐路徑;2017年國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》指出[18],人工智能帶來法律適用性、社會(huì)倫理等方面的挑戰(zhàn),要加強(qiáng)倫理法規(guī)制定,建立人工智能健康發(fā)展法律法規(guī)、倫理規(guī)范和政策體系,具備人工智能安全評(píng)估和管控的能力。同時(shí),為明確算法推薦服務(wù)提供者的主題責(zé)任,加強(qiáng)網(wǎng)絡(luò)信息安全管理,并保障算法推薦服務(wù)規(guī)范健康發(fā)展,避免算法歧視、誘導(dǎo)沉迷等不合理應(yīng)用現(xiàn)象,在《法治社會(huì)建設(shè)實(shí)施綱要(2020-2025年)》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》等政策文件基礎(chǔ)上,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》[19]明確算法推薦服務(wù)提供者應(yīng)堅(jiān)持主流價(jià)值導(dǎo)向、積極傳播正能量、禁止合成虛假新聞信息及禁止利用算法影響網(wǎng)絡(luò)輿論等;2022年11月,國家互聯(lián)網(wǎng)信息辦公室印發(fā)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》[20],該規(guī)定針對(duì)深度合成技術(shù)帶來的現(xiàn)實(shí)危害與潛在風(fēng)險(xiǎn),提出科學(xué)化的治理要求,規(guī)定深度合成服務(wù)的使用范圍,界定各方主體責(zé)任與義務(wù),強(qiáng)化和規(guī)范服務(wù)提供者責(zé)任,通過強(qiáng)化備案與評(píng)估等手段對(duì)深度合成服務(wù)進(jìn)行全過程管理與監(jiān)督;2023年4月,針對(duì)ChatGPT等生成式人工智能技術(shù)的高速發(fā)展,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》[21],擬對(duì)生成式人工智能進(jìn)行專項(xiàng)監(jiān)管,在該意見稿中,明確生成式人工智能的定義,生成式產(chǎn)品或服務(wù)以及預(yù)訓(xùn)練數(shù)據(jù)應(yīng)滿足的要求,服務(wù)提供者的合規(guī)義務(wù)及法律責(zé)任。雖然以上法律法規(guī)規(guī)定AIGC技術(shù)應(yīng)用的紅線與底線,但針對(duì)AIGC產(chǎn)品或服務(wù)的責(zé)任認(rèn)定、知識(shí)產(chǎn)權(quán)等權(quán)屬認(rèn)定、訓(xùn)練數(shù)據(jù)版權(quán)爭議等處于探索階段。且有研究者認(rèn)為人工智能的大范圍使用才剛剛開始,其治理工作也處于起步階段,目前法規(guī)或者標(biāo)準(zhǔn)等在指導(dǎo)人工智能技術(shù)的有序開發(fā)與利用方面的作用仍然有限[22]。因此,政府應(yīng)加強(qiáng)政策引導(dǎo),一是在AIGC治理工作中起到統(tǒng)領(lǐng)作用,形成政府、社會(huì)組織、企業(yè)、群眾等主體共同參與的協(xié)同治理格局[23],政府作為AIGC治理的主導(dǎo)者,應(yīng)進(jìn)一步完善相應(yīng)的法律法規(guī),對(duì)人工智能研發(fā)者、管理者和使用者行為進(jìn)行規(guī)范,以促進(jìn)技術(shù)規(guī)范應(yīng)用和行業(yè)健康發(fā)展;二是通過進(jìn)一步細(xì)化法律法規(guī),明確各相關(guān)方面的法律責(zé)任,持續(xù)完善監(jiān)管框架,實(shí)現(xiàn)事前、事中、事后全流程、可溯源的監(jiān)管;三是開展AIGC產(chǎn)品或服務(wù)權(quán)屬認(rèn)定等方面的法律法規(guī)研究,明確AIGC獲取、利用版權(quán)數(shù)據(jù)進(jìn)行模型訓(xùn)練和模型應(yīng)用是否合法,界定模型訓(xùn)練和應(yīng)用過程中利用版權(quán)數(shù)據(jù)的方式及合法使用行為,同時(shí)明確AIGC產(chǎn)品或服務(wù)權(quán)屬的認(rèn)定標(biāo)準(zhǔn)及形式等。
通過行業(yè)層面加強(qiáng)“技術(shù)向善、倫理先行”意識(shí),加強(qiáng)行業(yè)自律,促進(jìn)AIGC行業(yè)良性發(fā)展。其中行業(yè)成員是AIGC治理的具體配合者,是人工智能技術(shù)能否得以有效和規(guī)范應(yīng)用的具體生產(chǎn)者,行業(yè)成員應(yīng)秉承負(fù)責(zé)任的態(tài)度發(fā)展人工智能技術(shù),確保AIGC相關(guān)的軟件、工具、服務(wù)及其背后的算法等實(shí)現(xiàn)全流程可監(jiān)管、可溯源。同時(shí),行業(yè)應(yīng)根據(jù)AIGC存在的各種風(fēng)險(xiǎn)制定行業(yè)管理規(guī)范,達(dá)到科技向善目的,并能有一定的安全措施保障,可以確認(rèn)AIGC應(yīng)用是安全可控的。此外,通過建立行業(yè)聯(lián)盟,發(fā)揮資源整合優(yōu)勢(shì),圍繞AIGC合法合規(guī)應(yīng)用和健康發(fā)展目標(biāo),聯(lián)合制定行業(yè)發(fā)展規(guī)范,并通過行業(yè)黑名單、風(fēng)險(xiǎn)管理、倫理審查、內(nèi)容治理、版權(quán)保護(hù)、違法打擊、危機(jī)應(yīng)對(duì)等行業(yè)自治機(jī)制,實(shí)現(xiàn)AIGC良性發(fā)展生態(tài)。
Gran等[24]通過定量研究方法將算法意識(shí)和態(tài)度納入數(shù)字鴻溝研究發(fā)現(xiàn),用戶對(duì)各種算法驅(qū)動(dòng)下的廣告和內(nèi)容推薦等態(tài)度與算法意識(shí)水平存在一定的關(guān)系,同時(shí),算法意識(shí)水平存在明顯的人口統(tǒng)計(jì)學(xué)差異。而算法素養(yǎng)對(duì)理解用戶的人智交互行為至關(guān)重要[25],這種能力主要體現(xiàn)在感知算法、理解算法和使用算法[26]。Sundar[27]認(rèn)為在人智交互過程中,用戶對(duì)人工智能的差異化理解都可能影響用戶對(duì)人工智能的判斷,算法素養(yǎng)高低將在一定程度決定用戶對(duì)人工智能究竟是選擇質(zhì)疑還是信賴。ChatGPT等AIGC模式一方面在信息檢索等方面為用戶提供了便利,部分算法素養(yǎng)過低的用戶可能很難意識(shí)到AIGC僅僅是不斷迭代更新的算法模型,可能會(huì)對(duì)算法形成一定的依賴與盲從。此外這類用戶對(duì)于AIGC生成內(nèi)容的真假缺乏一定的判斷力。因此,一方面,通過AIGC技術(shù)與應(yīng)用的宣傳加強(qiáng)用戶對(duì)AIGC技術(shù)濫用帶來的風(fēng)險(xiǎn)認(rèn)知和不良AIGC的甄別能力;另一方面通過科普等手段提升用戶對(duì)各類算法信息的鑒別意識(shí)、對(duì)操縱性信息的判斷力等,對(duì)AIGC生成內(nèi)容持批判意識(shí),從而避免信息繭房、算法利維坦等風(fēng)險(xiǎn)出現(xiàn)。
綜上所述,雖然AIGC技術(shù)帶來了多方面的風(fēng)險(xiǎn),但不可否認(rèn)其推動(dòng)了內(nèi)容生產(chǎn)方式變革,未來將會(huì)取代大量重復(fù)性的內(nèi)容生產(chǎn)與傳播工作,并將重構(gòu)產(chǎn)業(yè)結(jié)構(gòu),在提高內(nèi)容生產(chǎn)效率的同時(shí),為各行各業(yè)帶來新的發(fā)展機(jī)遇,如何通過政策制度來平衡技術(shù)發(fā)展和風(fēng)險(xiǎn)治理之間的關(guān)系,將是需要解決的難題。從風(fēng)險(xiǎn)來看,技術(shù)發(fā)展本身并沒有問題,關(guān)鍵在于如何約束、監(jiān)督并使用它,發(fā)展與監(jiān)管應(yīng)統(tǒng)籌兼顧,并通過匯聚多方利益群體力量,不斷加強(qiáng)各個(gè)群體人工智能治理能力,建立健全全流程風(fēng)險(xiǎn)管理體系,從而實(shí)現(xiàn)人與人工智能和諧發(fā)展。