国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能研究進(jìn)展*

2024-10-21 00:00王芳朱學(xué)坤劉清民岳之楠王美權(quán)張馨月楊天德馬鑫張超
圖書與情報(bào) 2024年4期

摘 要:快速地技術(shù)迭代與廣泛應(yīng)用表明生成式人工智能在驅(qū)動(dòng)經(jīng)濟(jì)社會(huì)發(fā)展方面具有巨大潛力,但同時(shí)它也可能帶來多種挑戰(zhàn)與風(fēng)險(xiǎn)。在系統(tǒng)回顧相關(guān)學(xué)術(shù)文獻(xiàn)的基礎(chǔ)上,文章梳理了生成式人工智能的關(guān)鍵技術(shù)、技術(shù)發(fā)展歷程及應(yīng)用場景,分析了生成式人工智能在數(shù)據(jù)訓(xùn)練、算法模型、內(nèi)容利用等方面存在的風(fēng)險(xiǎn),總結(jié)了生成式人工智能風(fēng)險(xiǎn)治理的策略,包括實(shí)施全生命周期的數(shù)據(jù)質(zhì)量控制,提高AI風(fēng)險(xiǎn)治理的技術(shù)能力,對組織結(jié)構(gòu)進(jìn)行適應(yīng)性優(yōu)化,強(qiáng)化問責(zé)機(jī)制和標(biāo)準(zhǔn)約束,同時(shí)提出未來生成式人工智能發(fā)展應(yīng)堅(jiān)持發(fā)展創(chuàng)新與風(fēng)險(xiǎn)治理并重的原則,完善政策法規(guī)與技術(shù)標(biāo)準(zhǔn)體系,建立多元包容的國際合作共治體系,充分激發(fā)企業(yè)活力。本文可以為生成式人工智能領(lǐng)域的學(xué)術(shù)研究、技術(shù)開發(fā)和政策制定提供參考借鑒。

關(guān)鍵詞:生成式人工智能;大語言模型;風(fēng)險(xiǎn)治理;AIGC; AI幻覺;政策分析

中圖分類號:G354.5 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.11968/tsyqb.1003-6938.2024045

Progress in Generative Artificial Intelligence Research

Abstract The rapid iteration and wide application of generative artificial intelligence (GAI) technology have demonstrated its immense potential in driving economic and social development. At the same time, it also brings challenges and risks. Based on a comprehensive review of relevant literature, this paper identifies the key technologies, development history, and application scenarios of GAI, analyzes the risks in data training, model building, and content generation, summarizes the risk governance strategies for GAI, such as implementing data quality control throughout the entire lifecycle of GAI, enhancing technical capabilities to manage AI risks, optimizing organizational structures for adaptability, and strengthening the constraints by accountability mechanism and technical standards. Additionally, this paper proposes that the future development of generative artificial intelligence should adhere to the principle of balancing innovation with risk management, improve the system of policies, regulations, and technical standards, establish a diverse and inclusive framework for international cooperation and governance, and fully stimulate the vitality of enterprises. This study is expected to provide reference for GAI related research, technology development, and policy making.

Key words generative artificial intelligence; Large Language Model(LLM); risk governance; AIGC; AI hallucination; policy analysis

生成式人工智能正迅速應(yīng)用于教育、醫(yī)療、金融、法律、制造業(yè)、氣象預(yù)測、廣告創(chuàng)作、新媒體、游戲等經(jīng)濟(jì)社會(huì)的各個(gè)領(lǐng)域,對促進(jìn)新質(zhì)生產(chǎn)力發(fā)展、完善現(xiàn)代產(chǎn)業(yè)體系、形成國際競爭新優(yōu)勢具有重要意義。伴隨著生成式人工智能的快速發(fā)展,其潛在的風(fēng)險(xiǎn)與挑戰(zhàn)也引發(fā)了廣泛關(guān)注。生成內(nèi)容的真實(shí)性、原創(chuàng)性和倫理合規(guī)性成為公眾和學(xué)術(shù)界討論的焦點(diǎn)。同時(shí),生成式人工智能的應(yīng)用可能造成隱私泄露、算法歧視、生成內(nèi)容幻覺和虛假信息泛濫等社會(huì)問題,有效規(guī)制的缺失又可能會(huì)使虛假信息在社會(huì)層面廣泛擴(kuò)散,進(jìn)而引發(fā)更大的社會(huì)風(fēng)險(xiǎn)。因此,既要支持負(fù)責(zé)任、可信賴的AI創(chuàng)新,又要管理其潛在的風(fēng)險(xiǎn),成為中、美、歐等國家和地區(qū)共同關(guān)注的課題。學(xué)術(shù)界也在短時(shí)間內(nèi)發(fā)表了大量的研究成果,就相關(guān)問題展開探討。為了更加系統(tǒng)地理解當(dāng)前生成式人工智能領(lǐng)域的學(xué)術(shù)研究成果和各國政策關(guān)注的核心議題,本文將全面梳理生成式人工智能的關(guān)鍵技術(shù)、發(fā)展歷程和應(yīng)用場景,總結(jié)生成式人工智能存在應(yīng)用的倫理、法律與社會(huì)風(fēng)險(xiǎn),并在此基礎(chǔ)上分析生成式人工智能的風(fēng)險(xiǎn)治理與創(chuàng)新發(fā)展策略,為促進(jìn)我國生成式人工智能更好地賦能經(jīng)濟(jì)社會(huì)發(fā)展提供參考。

1 生成式人工智能的關(guān)鍵技術(shù)、發(fā)展歷程與應(yīng)用場景

1.1 生成式人工智能的關(guān)鍵技術(shù)

人工智能(Artificial Intelligence)根據(jù)用途可分為決策式人工智能(Discriminant AI)和生成式人工智能(Generative AI)[1]。決策式AI專注于數(shù)據(jù)洞察并做出決策,應(yīng)用于自動(dòng)駕駛、智能推薦、人臉識(shí)別等自動(dòng)化決策領(lǐng)域。生成式AI則能夠通過模型訓(xùn)練生成新穎、有意義的內(nèi)容,如文本、圖像代碼或視頻等[2]。這些由人工智能技術(shù)自動(dòng)生成而非由人類創(chuàng)作的內(nèi)容被稱為人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)[3],而之與相對應(yīng)的人類創(chuàng)作內(nèi)容則被稱為HGC(Human Generated Content)。

生成式AI的關(guān)鍵技術(shù)包括生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)[4]、變分自編碼器(Variational Autoencoder,VAE)[5]、擴(kuò)散模型(Denoising Diffusion Probabilistic Models,DDPM)[6]、強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)[7]和Transformer[8]等。GAN通過生成器和判別器的對抗訓(xùn)練生成接近真實(shí)的數(shù)據(jù),廣泛應(yīng)用于藝術(shù)創(chuàng)作和圖像生成;VAE通過編碼器將輸入數(shù)據(jù)映射到低維空間,再通過解碼器生成新的數(shù)據(jù);DDPM則通過逐步向數(shù)據(jù)中添加噪聲并學(xué)習(xí)逆向去噪過程生成高分辨率圖像,已在圖像生成任務(wù)中展現(xiàn)出優(yōu)異的性能;RL根據(jù)試錯(cuò)學(xué)習(xí)和環(huán)境反饋信號來優(yōu)化生成策略,通過與環(huán)境的交互評估生成內(nèi)容的質(zhì)量,進(jìn)而調(diào)整生成策略,提高生成結(jié)果的多樣性和適應(yīng)性;Transformer通過其自注意力機(jī)制,能夠高效捕捉和生成序列數(shù)據(jù)的上下文信息,為生成式人工智能在文本生成任務(wù)中的成功奠定基礎(chǔ)。此外,Transformer的并行計(jì)算能力可以大大提高訓(xùn)練效率,使得在大規(guī)模數(shù)據(jù)上預(yù)訓(xùn)練和微調(diào)這些模型成為可能,進(jìn)而推動(dòng)生成式人工智能在文本生成、問答系統(tǒng)、機(jī)器翻譯等多個(gè)領(lǐng)域的應(yīng)用和發(fā)展。

大語言預(yù)訓(xùn)練模型(Large Language Models,LLMs)是基于Transformer架構(gòu)的生成式人工智能模型的典型代表,如BERT和GPT系列模型。BERT作為基于雙向Transformer架構(gòu)的代表性模型,通過同時(shí)考慮上下文信息實(shí)現(xiàn)了更加準(zhǔn)確和全面的文本理解和生成能力[9]。經(jīng)過預(yù)訓(xùn)練和微調(diào)后,BERT在問答系統(tǒng)、文本分類等多種自然語言處理(NLP)任務(wù)上表現(xiàn)優(yōu)異。GPT系列模型采用Transformer的解碼器結(jié)構(gòu),運(yùn)用自回歸方法進(jìn)行語言建模。GPT-1開創(chuàng)了基于Transformer的大規(guī)模預(yù)訓(xùn)練方法,使用無監(jiān)督預(yù)訓(xùn)練加有監(jiān)督微調(diào)模式,能夠生成高質(zhì)量、連貫且上下文相關(guān)的文本[10]。GPT-2提出了“Zero-shot”學(xué)習(xí)的理念,即在沒有額外微調(diào)的情況下,僅憑預(yù)訓(xùn)練模型就能執(zhí)行特定任務(wù)[11]。GPT-3引入了上下文學(xué)習(xí)(In-context Learning)模式,使模型能夠通過分析提供的文本上下文進(jìn)行學(xué)習(xí),從而在無需額外訓(xùn)練的情況下,靈活地適應(yīng)和執(zhí)行各種任務(wù)[12]。InstructGPT通過從人類反饋中進(jìn)行強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF),使模型生成的內(nèi)容更加符合用戶的具體指令和需求,從而提升了模型的實(shí)用性和可靠性[13]。而ChatGPT,作為InstructGPT的進(jìn)一步優(yōu)化版本,通過更深入的強(qiáng)化學(xué)習(xí)和微調(diào)策略,不僅保持了強(qiáng)大的語言生成能力,還顯著提升了與用戶交互的自然度和流暢度。Sora是OpenAI推出的一項(xiàng)尖端的生成式AI技術(shù),結(jié)合了DDPM、Spacetime Patch和Transformer架構(gòu),能夠根據(jù)文本指令創(chuàng)造出逼真且富有想象力的視頻,代表了“文生視頻”領(lǐng)域的一大飛躍[14]。

1.2 生成式人工智能的技術(shù)發(fā)展歷程

生成式人工智能的技術(shù)發(fā)展共經(jīng)歷了三個(gè)階段。第一階段為二十世紀(jì)五六十年代的起源階段,主要基于規(guī)則驅(qū)動(dòng)的方法,通過編寫一系列規(guī)則來生成新的內(nèi)容[15]。第二階段為早期探索階段,生成式技術(shù)以機(jī)器學(xué)習(xí)為基礎(chǔ)逐漸發(fā)展起來。這個(gè)時(shí)期的研究者們開始嘗試采用統(tǒng)計(jì)方法來生成新的數(shù)據(jù),如文本、圖像等。其代表技術(shù)包含隱馬爾可夫模型(Hidden

Markov Model,HMM)[16]、高斯混合模型(Gaussian Mixture Models,GMM)[17]等,但在文本與圖像的生成內(nèi)容中,缺乏連貫性與創(chuàng)造性。第三階段為成熟階段,隨著深度學(xué)習(xí)算法的快速發(fā)展,生成模型的性能得到了顯著提升。生成式對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、擴(kuò)散模型(DDPM)等技術(shù)的出現(xiàn),極大地推動(dòng)了生成式技術(shù)的發(fā)展。這三類技術(shù)被廣泛應(yīng)用于生成文本、圖像、音視頻等領(lǐng)域。同時(shí),生成模型在各個(gè)領(lǐng)域的發(fā)展雖遵循了不同路徑,但最終出現(xiàn)了交集:Transformer架構(gòu)[8]。Transformer于2017年首次用于NLP任務(wù),隨后成為各領(lǐng)域許多生成模型的主要支柱?;谝陨细黜?xiàng)技術(shù)的提出,近年來,多模態(tài)生成模型DALL-E、CLIP與大語言模型ChatGPT更進(jìn)一步推動(dòng)了生成式人工智能的發(fā)展,顯著提升了生成內(nèi)容的質(zhì)量與用戶體驗(yàn)。Sora結(jié)合ChatGPT系列的技術(shù)優(yōu)勢,能夠模擬現(xiàn)實(shí)世界中的物理交互與動(dòng)態(tài)變化,生成復(fù)雜的視頻場景[18],成為生成式人工智能的重大突破。張亞勤提出,AI大模型的五個(gè)未來發(fā)展方向包括多模態(tài)智能、自主智能、邊緣智能、物理智能和生物智能[19]。李彥宏指出,在大模型基礎(chǔ)上衍生出的智能體,能夠通過自然語言處理技術(shù)理解和響應(yīng)用戶的自然語言指令,并通過不斷學(xué)習(xí)用戶交互數(shù)據(jù)提升自身的服務(wù)能力,通過動(dòng)態(tài)交互對話、任務(wù)自動(dòng)化和智能推薦滿足用戶的復(fù)雜需求[20]。

1.3 生成式人工智能在經(jīng)濟(jì)社會(huì)中的應(yīng)用場景

作為一項(xiàng)迅速發(fā)展的前沿技術(shù),生成式人工智能推動(dòng)了經(jīng)濟(jì)社會(huì)諸多行業(yè)的創(chuàng)新,顯著提升了生產(chǎn)力[21]。人工智能生成內(nèi)容(AIGC)包括文本、圖像、視頻、語音、代碼和三維場景等,具有高效性、創(chuàng)造性、多樣性和廣泛適用性[22]。文本生成主要用于聊天機(jī)器人、內(nèi)容創(chuàng)作等[23];圖像生成用于創(chuàng)作藝術(shù)作品和視覺內(nèi)容[24];視頻生成廣泛應(yīng)用于娛樂和廣告領(lǐng)域[25];語音生成則利用WaveNet等工具生成人類語音,用于虛擬助手、有聲讀物和自動(dòng)客服[26-27];三維場景生成技術(shù)則在游戲、虛擬現(xiàn)實(shí)和建筑可視化中得到應(yīng)用[28]。

在傳媒和出版領(lǐng)域,生成式人工智能被用于自動(dòng)撰寫新聞和生成音視頻內(nèi)容[29-30]。如NVIDIA的PYoCo模型運(yùn)用時(shí)間注意力機(jī)制、級聯(lián)生成架構(gòu)等技術(shù),通過文本描述生成高質(zhì)量的視頻,并確保視頻內(nèi)容的時(shí)間一致性和高分辨率,改變了內(nèi)容生產(chǎn)和傳播的方式[31-32]。

在產(chǎn)品設(shè)計(jì)和廣告創(chuàng)意領(lǐng)域,生成式人工智能正在重塑商業(yè)模式[33]。如Adobe Sensei利用機(jī)器學(xué)習(xí)和生成技術(shù)自動(dòng)生成設(shè)計(jì)元素、編輯圖像和優(yōu)化廣告內(nèi)容,幫助設(shè)計(jì)師更快地對接客戶需求,生成個(gè)性化的廣告[34]。

在公共服務(wù)領(lǐng)域,生成式人工智能嵌入敏捷政府的治理過程[35-36],推動(dòng)公共服務(wù)自動(dòng)化,提升政府的服務(wù)能力[37-38]。如北京市昌平區(qū)政務(wù)服務(wù)管理局的智能問答機(jī)器人“平平”通過理解和生成人類語言,實(shí)現(xiàn)了全天候在線服務(wù)和智能問答[39];清華大學(xué)圖書館采用AI導(dǎo)航助手依托數(shù)據(jù)庫導(dǎo)航實(shí)現(xiàn)AI增強(qiáng)問答,采用AI閱讀助手依托水木搜索實(shí)現(xiàn)AI增強(qiáng)閱讀[40]。

在司法領(lǐng)域,生成式AI被用來提升審判效率和質(zhì)量。如深圳中院的人工智能輔助審判系統(tǒng)通過立案智審、智能閱卷、智能庭審和智能文書生成等功能模塊,在提升審判效率的同時(shí)保留了法官的自主決策權(quán)[41]。

在醫(yī)療領(lǐng)域,生成式人工智能被用于醫(yī)療影像分析[42]。如北京天壇醫(yī)院的“龍影”大模型結(jié)合深度學(xué)習(xí)和圖像處理技術(shù),通過生成對抗網(wǎng)絡(luò)(GANs)精確提取和分析醫(yī)學(xué)圖像特征,輔助醫(yī)生進(jìn)行診斷[43]。

在教育領(lǐng)域,生成式人工智能應(yīng)用于教育實(shí)踐[44-45],輔助生成個(gè)性化的教育內(nèi)容[46]。如清華大學(xué)開發(fā)的AI助教系統(tǒng)運(yùn)用生成式預(yù)訓(xùn)練模型(GPT)分析學(xué)生的學(xué)習(xí)數(shù)據(jù),生成個(gè)性化的教育內(nèi)容和反饋[47-48]。

在科學(xué)研究領(lǐng)域,生成式人工智能被用來加速新材料、新療法和新藥物的發(fā)現(xiàn)。如Insilico Medicine利用生成對抗網(wǎng)絡(luò)(GANs)和強(qiáng)化學(xué)習(xí)(RL)技術(shù),進(jìn)行新靶點(diǎn)發(fā)現(xiàn)和藥物分子結(jié)構(gòu)的設(shè)計(jì)[49]。

在金融領(lǐng)域,生成式人工智能被用于市場預(yù)測、個(gè)性化營銷內(nèi)容生成[50-51]。如摩根大通的LOXM系統(tǒng)通過生成多樣化的投資場景,更準(zhǔn)確地預(yù)測市場動(dòng)向并優(yōu)化投資策略[52]。

在制造業(yè)領(lǐng)域,生成式AI的應(yīng)用能夠推動(dòng)產(chǎn)業(yè)轉(zhuǎn)型[53],有助于生產(chǎn)效率的提升和產(chǎn)品質(zhì)量控制。如Ford公司通過AI系統(tǒng)監(jiān)控車輛制造過程中的質(zhì)量問題,提前檢測到缺陷并進(jìn)行修復(fù),從而減少廢品率,提升產(chǎn)品質(zhì)量[54]。

在網(wǎng)絡(luò)安全領(lǐng)域,人工智能大模型在風(fēng)險(xiǎn)識(shí)別、數(shù)據(jù)安全、垃圾郵件和釣魚攻擊過濾等方面有巨大潛力,同時(shí)也存在誤報(bào)率、數(shù)據(jù)質(zhì)量、模型泛化能力、可解釋性問題和實(shí)時(shí)性能等方面的挑戰(zhàn)[55]。

2 生成式人工智能風(fēng)險(xiǎn)研究

2.1 各技術(shù)環(huán)節(jié)存在的風(fēng)險(xiǎn)

風(fēng)險(xiǎn)是指事件發(fā)生概率和相應(yīng)事件后果程度的綜合衡量。生成式人工智能從準(zhǔn)備、運(yùn)算到生成內(nèi)容[56],涉及數(shù)據(jù)、算法和算力三個(gè)基本要素[57],在數(shù)據(jù)訓(xùn)練[58]、模型運(yùn)算、內(nèi)容輸出、內(nèi)容利用各個(gè)環(huán)節(jié)上存在風(fēng)險(xiǎn),需要進(jìn)行識(shí)別和治理。

2.1.1 數(shù)據(jù)風(fēng)險(xiǎn)

生成式AI需要依靠對大量訓(xùn)練數(shù)據(jù)的學(xué)習(xí)才能生成新內(nèi)容,如百度“文心一言”的訓(xùn)練數(shù)據(jù)包括萬億級網(wǎng)頁數(shù)據(jù)、數(shù)十億的搜索數(shù)據(jù)和圖片數(shù)據(jù)、百億級的語音日均調(diào)用數(shù)據(jù),以及5500億事實(shí)的知識(shí)圖譜等[59]。在生成式AI對海量數(shù)據(jù)進(jìn)行采集、存儲(chǔ)、標(biāo)注、利用和銷毀過程中,可能發(fā)生如下風(fēng)險(xiǎn):

一是訓(xùn)練數(shù)據(jù)采集風(fēng)險(xiǎn)。包括數(shù)據(jù)采集手段非法、采集范圍不當(dāng)、數(shù)據(jù)含有偏見或故意投毒、篡改,以及模型訓(xùn)練過多依賴生成數(shù)據(jù)等[60-61]。含有偏見、受到污染、篡改的數(shù)據(jù)將嚴(yán)重影響輸出內(nèi)容的質(zhì)量,產(chǎn)生AIGC的幻覺問題[62-63]。如美國訓(xùn)練數(shù)據(jù)中存在的偏見使語言模型對非裔美國人等群體的判斷存在偏見[64],而目前緩解這一偏見的人類偏好對齊做法,可能會(huì)在表面上掩蓋語言模型更深層次上的種族主義,從而加劇隱性和顯性刻板印象之間的差異[65]。Shumailov等指出使用AI生成的數(shù)據(jù)訓(xùn)練AI模型可能導(dǎo)致“模型崩潰”,即模型在多代迭代后出現(xiàn)性能退化和輸出質(zhì)量下降的現(xiàn)象[66]。

二是數(shù)據(jù)存儲(chǔ)風(fēng)險(xiǎn)。主要包括大聚集數(shù)據(jù)的內(nèi)部泄露[67]、通過外部攻擊進(jìn)行數(shù)據(jù)篡改、投毒、刪除等[68],基于有毒數(shù)據(jù)生成的模型可能輸出有害或錯(cuò)誤的結(jié)果,進(jìn)而侵犯個(gè)人隱私或商業(yè)秘密,甚至危害國家安全[69]。

三是數(shù)據(jù)標(biāo)注風(fēng)險(xiǎn)。主要是由標(biāo)注者的能力水平、價(jià)值偏見以及監(jiān)管不力等造成的訓(xùn)練數(shù)據(jù)質(zhì)量低下問題。在面部識(shí)別技術(shù)的訓(xùn)練中,標(biāo)注不當(dāng)或數(shù)據(jù)集中某些種族群體的代表性不足,可能導(dǎo)致模型在識(shí)別少數(shù)群體時(shí)出現(xiàn)顯著誤差[70]。

四是數(shù)據(jù)選擇性利用風(fēng)險(xiǎn)。主要包括有選擇地利用數(shù)據(jù)進(jìn)行訓(xùn)練導(dǎo)致生成結(jié)果的偏見。如果開發(fā)者在訓(xùn)練過程中有意或無意地排除某類數(shù)據(jù),模型的輸出將難以反映現(xiàn)實(shí)情況。如在自動(dòng)化招聘工具中,有模型因使用偏向男性的數(shù)據(jù)集,導(dǎo)致系統(tǒng)在篩選簡歷時(shí)對女性求職者產(chǎn)生偏見[71]。

五是數(shù)據(jù)刪除階段的風(fēng)險(xiǎn)。包括刪除不徹底、數(shù)據(jù)進(jìn)入大量生成內(nèi)容后難以完全刪除等,進(jìn)而造成侵權(quán)問題。盡管法律或公司政策要求刪除數(shù)據(jù),但是許多企業(yè)發(fā)現(xiàn)難以完全刪除在多個(gè)系統(tǒng)中復(fù)制的用戶數(shù)據(jù),如果數(shù)據(jù)已經(jīng)被AI模型使用生成內(nèi)容,即便刪除原始數(shù)據(jù)也無法完全抹除其影響[72]。

2.1.2 算法與模型風(fēng)險(xiǎn)

算法是生成式人工智能的核心技術(shù),隱含著技術(shù)開發(fā)人員的觀念與思維模式,在設(shè)計(jì)、開發(fā)和應(yīng)用過程中可能隱藏如下風(fēng)險(xiǎn):

一是算法歧視破壞社會(huì)公平。算法偏見是指由于初始算法、樣本數(shù)據(jù)或其他原因所形成的思維慣性而導(dǎo)致生成式人工智能系統(tǒng)在運(yùn)行過程中出現(xiàn)有偏向性的舉措或選擇[73],如基于種族、性別、宗教等顯性特征,在輸出內(nèi)容中對條件相同的人實(shí)施差別待遇[74-75]。

二是算法的不可解釋性和追責(zé)難問題。生成式人工智能的內(nèi)部運(yùn)行機(jī)制被稱為“算法黑箱”,即輸出內(nèi)容或做出決策的原理難以被解釋和監(jiān)控[76]。這導(dǎo)致對生成式人工智能參與的行為追責(zé)困難[77],阻礙了生成式人工智能參與重要決策。

2.1.3 內(nèi)容生成風(fēng)險(xiǎn)

由大模型生成的內(nèi)容可能會(huì)偏離真實(shí)世界的事實(shí)或不能準(zhǔn)確反映用戶指令,由此產(chǎn)生幻覺(Hallucination)風(fēng)險(xiǎn)。AI幻覺主要分為兩類:

一是事實(shí)性幻覺。AI生成的內(nèi)容有可能與現(xiàn)實(shí)世界的事實(shí)不一致,如捏造不存在的人物、事件或數(shù)據(jù)等。造成這種問題的原因通常是模型觸及知識(shí)邊界,數(shù)據(jù)利用不足,或者訓(xùn)練數(shù)據(jù)中特定領(lǐng)域知識(shí)不準(zhǔn)確、不充足[78]。

二是忠實(shí)性幻覺。AI生成的內(nèi)容有可能沒有忠實(shí)地反映用戶的指令或?qū)υ挶尘?。這通常是因?yàn)锳I模型訓(xùn)練中能力不對齊和架構(gòu)缺陷[79]、解碼策略隨機(jī)性和表示能力不足[80]等問題導(dǎo)致AI模型在理解復(fù)雜指令和多層次上下文推理中表現(xiàn)欠佳。

2.2 利用不當(dāng)導(dǎo)致的風(fēng)險(xiǎn)

生成式人工智能不僅在各個(gè)技術(shù)環(huán)節(jié)存在隱患,若應(yīng)用不當(dāng)且生成內(nèi)容傳播失控時(shí),還可能會(huì)引發(fā)一系列交織的倫理、法律、政治、社會(huì)和經(jīng)濟(jì)風(fēng)險(xiǎn)。

2.2.1 倫理風(fēng)險(xiǎn)

倫理風(fēng)險(xiǎn)主要指利用生成式人工智能技術(shù)從事違背社會(huì)道德的活動(dòng)[81],從而對人與社會(huì)和自然之間的關(guān)系準(zhǔn)則產(chǎn)生影響[82],包括違背學(xué)術(shù)道德[83]、導(dǎo)致情感異化、人類主體性價(jià)值消解等。

首先,利用生成式人工智能實(shí)施學(xué)術(shù)不端的行為[84-85]有多種形式,如生成虛假學(xué)術(shù)文章[86]、編造不存在的引用[87]、通過重新措辭剽竊他人作品[88]以及生成虛假的數(shù)據(jù)和圖表[89]。AI編撰的內(nèi)容表面上符合學(xué)術(shù)標(biāo)準(zhǔn),但實(shí)際上缺乏實(shí)驗(yàn)和證據(jù)支持,誤導(dǎo)讀者和評審,擾亂學(xué)術(shù)界的規(guī)范和誠信。

其次,長期使用生成式人工智能可能會(huì)使人產(chǎn)生技術(shù)依賴[90-91],并對個(gè)體的神經(jīng)系統(tǒng)產(chǎn)生實(shí)質(zhì)性影響,導(dǎo)致批判性思維受損和記憶保持能力改變[92]。與此同時(shí),擬人化程度越來越高的生成式人工智能為人類創(chuàng)造能夠提供情感支持的數(shù)字空間,但人機(jī)交往的單向性可能會(huì)使人類陷入“群體性孤獨(dú)”,長期的單向人機(jī)交往可能導(dǎo)致人類情感異化[93]。

最后,由于生成式人工智能愈發(fā)具有自主道德行動(dòng)能力[94],人的主體價(jià)值被削弱或消解[95-97],有學(xué)者認(rèn)為生成式人工智能有可能會(huì)顛覆傳統(tǒng)人本主義道德體系[98-99]。生成式人工智能也可能引導(dǎo)人類做出含有道德傾向的決策[100-101],所以AI是否擁有權(quán)利[102],人工智能權(quán)利的基礎(chǔ)和來源[103],人工智能的權(quán)利是否應(yīng)當(dāng)與人類權(quán)利保持一致[104-105]等問題將受到關(guān)注。

2.2.2 法律風(fēng)險(xiǎn)

生成式人工智能在高效完成用戶指令的同時(shí),其算法不透明,數(shù)據(jù)來源具有隱蔽性,輸出內(nèi)容具有匿名性[106],因此容易產(chǎn)生法律風(fēng)險(xiǎn)。

首先,生成式AI的無約束使用可能侵犯知識(shí)產(chǎn)權(quán)[107-110]。2023年Stable Diffusion用戶李昀鍇狀告百家號不當(dāng)傳播自己利用AI生成的圖片,成為中國首例AI生成圖片侵犯知識(shí)產(chǎn)權(quán)案[111]。此外,訓(xùn)練數(shù)據(jù)集可能未經(jīng)所有者授權(quán),導(dǎo)致數(shù)據(jù)產(chǎn)權(quán)糾紛[112],如湯森路透曾指控羅斯智能公司“非法復(fù)制其法律數(shù)據(jù)庫內(nèi)容以訓(xùn)練人工智能系統(tǒng)”,導(dǎo)致羅斯智能公司在版權(quán)糾紛下被迫停業(yè)[113]。

其次,遠(yuǎn)程生物識(shí)別,如遠(yuǎn)程人臉識(shí)別、指紋收集可能會(huì)給個(gè)體的基本權(quán)利帶來風(fēng)險(xiǎn)。生成式AI有可能侵犯隱私[114]和個(gè)人信息[115-116],被用于偽造他人信息實(shí)施詐騙或勒索[117]。如2024年韓國警方某加密軟件中存在大量社交群組利用Deepfake(深度偽造)技術(shù)換臉合成色情照片和視頻,參與用戶多達(dá)22萬人[118]。

最后,生成式AI還面臨算法失控、算法濫用、算法欺詐等風(fēng)險(xiǎn)。McAfee調(diào)查發(fā)現(xiàn),生成式人工智能被犯罪分子用來克隆聲音,以實(shí)施詐騙,超過70%的受訪者難以辨別真實(shí)語音與克隆語音的差異,約10%的受訪者表示曾收到AI生成的語音詐騙消息,其中77%的受害者在收到此類消息后蒙受了財(cái)務(wù)損失[119]。

為應(yīng)對生成式AI的潛在法律風(fēng)險(xiǎn),美國加州議會(huì)擬定了《SB-1047前沿AI大模型安全創(chuàng)新法案》,旨在對高風(fēng)險(xiǎn)AI模型建立安全標(biāo)準(zhǔn),防止濫用和災(zāi)難性后果,但遭到包括李飛飛在內(nèi)的科學(xué)家們的強(qiáng)烈反對,他們認(rèn)為這將損害AI生態(tài)系統(tǒng),不必要地懲罰開發(fā)者,扼殺開源社區(qū),并阻礙學(xué)術(shù)研究,且對模型風(fēng)險(xiǎn)的評估方法不科學(xué)[120]。在應(yīng)對生成式AI的潛在法律風(fēng)險(xiǎn)與促進(jìn)技術(shù)創(chuàng)新之間,如何取得平衡仍然是一個(gè)巨大的挑戰(zhàn)。

2.2.3 政治風(fēng)險(xiǎn)

生成式AI技術(shù)能夠在極短時(shí)間內(nèi)生成大量內(nèi)容,并通過社交媒體、搜索引擎優(yōu)化等渠道迅速擴(kuò)散[121],傳播范圍遠(yuǎn)超傳統(tǒng)人類生成內(nèi)容(HGC)。同時(shí),通過分析用戶的行為數(shù)據(jù)和興趣偏好,AI能夠生成高度定制化的內(nèi)容,并通過智能推薦系統(tǒng)精準(zhǔn)推送給特定用戶群體[122]。然而,盡管個(gè)性化的定向傳播方具有廣泛的應(yīng)用場景,但如果監(jiān)管不當(dāng)也可能會(huì)帶來諸多政治風(fēng)險(xiǎn)。

首先,A生成內(nèi)容泛濫有可能污染網(wǎng)絡(luò)信息環(huán)境。生成式AI可能被用于大規(guī)模傳播虛假信息、謠言、煽動(dòng)性言論等有害內(nèi)容[63],污染網(wǎng)絡(luò)信息環(huán)境[123],破壞社會(huì)公序良俗[124]。

其次,生成式AI可以自動(dòng)產(chǎn)生虛假新聞,并通過偽造可信來源的方式迅速傳播。這種大規(guī)模傳播的虛假信息不僅會(huì)混淆公眾視聽,還可能導(dǎo)致社會(huì)信任體系的崩潰,引發(fā)公眾的普遍焦慮和不安[125]。

第三,生成式AI可能被用于輿情操縱,影響公眾認(rèn)知[126-127]。如在美國總統(tǒng)選舉中,生成式AI被用于生成大量宣傳內(nèi)容,通過社交媒體平臺(tái)影響選民的政治傾向和投票意圖[128],進(jìn)而削弱公眾對政府和社會(huì)機(jī)構(gòu)的信任[129]。

最后,AI生成內(nèi)容可能帶有某種特定的意識(shí)形態(tài)偏向,故意曲解事實(shí)或隱瞞真相。借助于特定事件情境,這些意識(shí)形態(tài)材料可能被用于國家間的輿論戰(zhàn)或信息戰(zhàn),嚴(yán)重威脅國家意識(shí)形態(tài)安全[130]。通過有偏內(nèi)容的輸出來影響公眾觀點(diǎn),甚至成為境外勢力干預(yù)內(nèi)政的手段[131]。

2.2.4 社會(huì)風(fēng)險(xiǎn)

生成式人工智能技術(shù)應(yīng)用的社會(huì)風(fēng)險(xiǎn)主要涉及勞動(dòng)力替代與就業(yè)難題、社會(huì)不公加劇、新型智能鴻溝的出現(xiàn)等。

首先,自動(dòng)化程度的提高使低技能和重復(fù)性的工作需求減少[132]。生成式人工智能強(qiáng)大的知識(shí)生產(chǎn)與應(yīng)用能力使其能夠承擔(dān)的工作類型越來越多,人類腦力勞動(dòng)領(lǐng)域的咨詢、分析、教育以及媒體制作等過去“專屬于人的崗位”將被機(jī)器取代[133]。雖然生成式人工智能催生的新興職業(yè)在一定程度上增加了就業(yè)機(jī)會(huì),但高技能職位要求技術(shù)教育與技能提升[134],而就業(yè)壓力的持續(xù)增大可能帶來社會(huì)穩(wěn)定方面的風(fēng)險(xiǎn)[135]。

其次,人工智能生成的歧視與偏見性信息[136]的廣泛傳播可能會(huì)加劇社會(huì)不公[137]。計(jì)算資源分配不均以及數(shù)據(jù)和算法歧視等技術(shù)鴻溝、訪問限制等政策變量、人機(jī)協(xié)同能力等用戶差距均會(huì)導(dǎo)致不同個(gè)體在與生成式人工智能交互的各個(gè)環(huán)節(jié)上拉開差距,尤其會(huì)放大數(shù)字弱勢群體的脆弱性,使之在人工智能技術(shù)發(fā)展的浪潮中被進(jìn)一步邊緣化[138],從而出現(xiàn)新型智能鴻溝。

最后,過度依賴與AI的交互可能會(huì)改變傳統(tǒng)的人際交互模式,導(dǎo)致個(gè)體認(rèn)知與情感能力削減、自我身份認(rèn)同困難和自我存在意義消解等風(fēng)險(xiǎn)[69,139]。

2.2.5 經(jīng)濟(jì)風(fēng)險(xiǎn)

當(dāng)前,由于數(shù)據(jù)、算力以及專業(yè)壁壘,生成式人工智能的基礎(chǔ)模型和微調(diào)模型的市場高度集中并主要被極少數(shù)大型科技企業(yè)所壟斷[140]。自從2020年GPT-3的突破以來,只有11個(gè)大型基礎(chǔ)模型得以建立,其中有8個(gè)基礎(chǔ)模型由大型平臺(tái)直接開發(fā),如谷歌/DeepMind、Meta、微軟和百度等,其他模型也離不開大型平臺(tái)的間接投資和控制[141]。為了應(yīng)對生成式人工智能市場競爭可能帶來的風(fēng)險(xiǎn),美歐英的競爭管理機(jī)構(gòu)聯(lián)合發(fā)表聲明,提出保護(hù)人工智能生態(tài)系統(tǒng)中的競爭原則,內(nèi)容包括公平交易、互操作性、自由選擇和消費(fèi)者保護(hù)等[142]。

3 生成式人工智能風(fēng)險(xiǎn)治理與創(chuàng)新發(fā)展對策研究

3.1 生成式人工智能風(fēng)險(xiǎn)治理對策

負(fù)責(zé)任的人工智能強(qiáng)調(diào)以人為本、社會(huì)責(zé)任和可持續(xù)性,有效解決、記錄和管理人工智能風(fēng)險(xiǎn)和潛在的負(fù)面影響,從而帶來更值得信賴的人工智能系統(tǒng)[143]。針對生成式人工智能應(yīng)用可能帶來的種種風(fēng)險(xiǎn),現(xiàn)有研究從生態(tài)體系建設(shè)、數(shù)據(jù)質(zhì)量管理、治理技術(shù)、組織結(jié)構(gòu)優(yōu)化、問責(zé)機(jī)制建設(shè)等方面提出了治理對策。

(1)構(gòu)建可信賴人工智能生態(tài)體系,實(shí)施政府主導(dǎo)下的AI風(fēng)險(xiǎn)協(xié)同治理

生成式人工智能生產(chǎn)、應(yīng)用的產(chǎn)業(yè)鏈?zhǔn)謴?fù)雜,使得算法檢視性工具、算法風(fēng)險(xiǎn)評估性工具和算法主體責(zé)任制存在局限[144],單一的政府治理難以實(shí)現(xiàn)生成式人工智能風(fēng)險(xiǎn)的有效治理,因此需要實(shí)施政府主導(dǎo)下的企業(yè)、社會(huì)多元主體協(xié)同治理[145]。如建立虛假信息等級評估制度,以政府主導(dǎo)強(qiáng)化多元主體間的協(xié)同,強(qiáng)化效能管理和快捷響應(yīng)[146]。商湯科技指出,人工智能治理應(yīng)當(dāng)是一個(gè)價(jià)值牽引、技術(shù)先行、 多方參與、分層推進(jìn)的動(dòng)態(tài)進(jìn)程[147]。歐盟《人工智能白皮書》(2020)提出構(gòu)建可信賴人工智能生態(tài)系統(tǒng),包括與會(huì)員國合作、支持建立世界領(lǐng)先的測試中心、通過吸引頂尖教授和科學(xué)家來提升歐洲人工智能研究中心的能力、關(guān)注中小企業(yè)、與私營部門合作、推動(dòng)公共領(lǐng)域應(yīng)用人工智能、加強(qiáng)安全訪問數(shù)據(jù)和計(jì)算基礎(chǔ)設(shè)施的建設(shè)、引入非歐盟組織和政府觀察員[148]。阿里巴巴《生成式人工智能治理與實(shí)踐白皮書》提出,政府在生成式 AI 治理中應(yīng)完善頂層設(shè)計(jì)、健全治理體系、推動(dòng)國際合作;產(chǎn)業(yè)界應(yīng)通過標(biāo)準(zhǔn)化形成行業(yè)自律、建設(shè)分類分級治理制度、持續(xù)發(fā)展治理技術(shù)、合理分配主體責(zé)任、吸收多方意見;社會(huì)應(yīng)普及新技術(shù),彌合公眾認(rèn)知鴻溝,校企聯(lián)合助力人才培養(yǎng)[149]。

(2)實(shí)施人工智能風(fēng)險(xiǎn)評估,進(jìn)行風(fēng)險(xiǎn)分級分類管理

對人工智能的風(fēng)險(xiǎn)進(jìn)行評估,有助于明確治理范圍,實(shí)施精準(zhǔn)治理。歐盟《人工智能法案》[150](2024)將人工智能風(fēng)險(xiǎn)劃分為不可接受的風(fēng)險(xiǎn)(需要禁止,如社會(huì)評分系統(tǒng)和操縱性人工智能);大部分涉及文本的高風(fēng)險(xiǎn)人工智能系統(tǒng)(需要管制);風(fēng)險(xiǎn)有限的人工智能系統(tǒng)(透明度義務(wù)較輕),但開發(fā)人員和部署人員必須確保終端用戶知道他們正在與人工智能(聊天機(jī)器人和深度冒充者(Deepfakes)進(jìn)行交互;極小風(fēng)險(xiǎn)(不受監(jiān)管),包括目前歐盟單一市場上可用的大多數(shù)人工智能應(yīng)用程序,如支持人工智能的視頻游戲和垃圾郵件過濾器等。美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)發(fā)布的《人工智能風(fēng)險(xiǎn)管理框1.0》提出,與不直接與人類交互的AI系統(tǒng)相比,設(shè)計(jì)或部署用于直接與人類互動(dòng)的AI系統(tǒng),如由個(gè)人身份信息等敏感或受保護(hù)數(shù)據(jù)組成的大型數(shù)據(jù)集上進(jìn)行模型訓(xùn)練,或者輸出內(nèi)容對人類有直接或間接影響,應(yīng)設(shè)定更高的風(fēng)險(xiǎn)初始優(yōu)先級[143]。中國信息通信研究院建議聚焦人工智能應(yīng)用場景,以監(jiān)管沙箱試點(diǎn)摸清場景應(yīng)用風(fēng)險(xiǎn)特點(diǎn),針對典型風(fēng)險(xiǎn)細(xì)化治理規(guī)則和方案[151]。商湯科技將人工智能治理的實(shí)現(xiàn)分為可用、可靠、可控、可信四個(gè)層次,并依據(jù)AI對最終產(chǎn)品安全、個(gè)人權(quán)益、市場公平、公共安全和生態(tài)安全的影響程度,將倫理風(fēng)險(xiǎn)由低至高劃分為E0至E4四個(gè)等級[147]。

(3)強(qiáng)化AI項(xiàng)目管理,實(shí)施項(xiàng)目全周期風(fēng)險(xiǎn)管理

生成式人工智能被用于改造傳統(tǒng)產(chǎn)業(yè),具有顯著的項(xiàng)目屬性。因此,需要強(qiáng)化AI項(xiàng)目管理,將風(fēng)險(xiǎn)管理貫穿于項(xiàng)目生命周期的各個(gè)階段,包括規(guī)劃階段、商業(yè)和技術(shù)規(guī)范階段、測試階段和部署階段[152]。在規(guī)劃階段設(shè)定AI的安全、倫理和法律標(biāo)準(zhǔn),明確監(jiān)管范圍;在商業(yè)和技術(shù)規(guī)范階段制定生成式AI技術(shù)和商業(yè)規(guī)范,利用自動(dòng)化工具監(jiān)控?cái)?shù)據(jù)質(zhì)量、隱私保護(hù)和算法合規(guī)性;在測試階段通過自動(dòng)化模擬測試和算法優(yōu)化,確保AI在不同場景下安全運(yùn)行,并根據(jù)測試結(jié)果進(jìn)行調(diào)整;在部署階段則需要AI系統(tǒng)運(yùn)行中進(jìn)行實(shí)時(shí)監(jiān)控,檢測問題后自動(dòng)調(diào)整,確保系統(tǒng)穩(wěn)定、安全。阿里巴巴提出,在AI模型訓(xùn)練階段,對訓(xùn)練數(shù)據(jù)進(jìn)行篩選和過濾以剔除含有風(fēng)險(xiǎn)的數(shù)據(jù),對模型實(shí)施全面的安全評測,通過模型對齊與內(nèi)生安全增強(qiáng)確保模型遵循人類的價(jià)值觀;在服務(wù)上線階段,服務(wù)提供者需要選擇安全有效的模型,并進(jìn)行模型核驗(yàn),確保服務(wù)使用的工具集(如插件)的合理性和必要性,并執(zhí)行合規(guī)動(dòng)作,如算法安全自評估和算法備案;在內(nèi)容生成階段,需要對賬號進(jìn)行管理,保護(hù)個(gè)人信息,建立內(nèi)容審核與處置機(jī)制,包括建立審核制度、專職團(tuán)隊(duì),對生成內(nèi)容進(jìn)行分類分級,并采用技術(shù)手段進(jìn)行內(nèi)容審核;在內(nèi)容傳播階段,需要添加標(biāo)識(shí)以提示內(nèi)容是由人工智能生成,并建立風(fēng)險(xiǎn)監(jiān)測和應(yīng)急處置機(jī)制,以快速響應(yīng)和控制虛假信息的傳播[149]。

(4)嚴(yán)格控制數(shù)據(jù)質(zhì)量,實(shí)施AI全生命周期數(shù)據(jù)治理

生成式人工智能的風(fēng)險(xiǎn)與數(shù)據(jù)質(zhì)量密切相關(guān),數(shù)據(jù)質(zhì)量管理應(yīng)當(dāng)貫穿生成式人工智能的全生命周期[153]。在預(yù)訓(xùn)練階段應(yīng)對數(shù)據(jù)收集、標(biāo)注、準(zhǔn)備、降維、增強(qiáng)和版本控制環(huán)節(jié)進(jìn)行治理,尤其是對數(shù)據(jù)進(jìn)行嚴(yán)格過濾,避免使用AI生成數(shù)據(jù)訓(xùn)練模型,減少模型崩潰風(fēng)險(xiǎn)[66];在評估階段應(yīng)開展同分布評測、異分布評測及相關(guān)評測數(shù)據(jù)集的治理, 引入嚴(yán)格的標(biāo)準(zhǔn)數(shù)據(jù)審查機(jī)制,減少數(shù)據(jù)中的隱性或顯性偏見,減少算法輸出的歧視性結(jié)果[154];在部署推理階段需要對部署數(shù)據(jù)、指令數(shù)據(jù)集、偏好數(shù)據(jù)集、強(qiáng)化學(xué)習(xí)數(shù)據(jù)集、提示工程數(shù)據(jù)、運(yùn)維監(jiān)控?cái)?shù)據(jù)等進(jìn)行治理;運(yùn)維監(jiān)控階段的數(shù)據(jù)治理包括運(yùn)維數(shù)據(jù)的治理、數(shù)據(jù)的安全治理、數(shù)據(jù)的理解呈現(xiàn)、數(shù)據(jù)的質(zhì)量保證、數(shù)據(jù)存儲(chǔ)檢索的治理等,更新存儲(chǔ)知識(shí)庫資源以擴(kuò)展模型的知識(shí)邊界,避免錯(cuò)誤信息引入,確保生成結(jié)果的時(shí)效性與正確性;在退役(迭代)階段則需要合規(guī)處置數(shù)據(jù)、對模型知識(shí)數(shù)據(jù)進(jìn)行遷移復(fù)用、對大模型全生命周期的技術(shù)與經(jīng)驗(yàn)數(shù)據(jù)進(jìn)行繼承[155]。中國信息通信研究院指出,大模型發(fā)展需要重視個(gè)人隱私保護(hù)問題,包括確保訓(xùn)練數(shù)據(jù)來源的合法性,堅(jiān)持?jǐn)?shù)據(jù)使用透明和可問責(zé)原則,保障用對戶交互信息的刪除權(quán)[155]。信息系統(tǒng)審計(jì)與控制協(xié)會(huì)(Information Systems Audit and Control Association,ISACA)強(qiáng)調(diào)確保人工智能系統(tǒng)決策過程和數(shù)據(jù)來源的透明度和可追蹤性,企業(yè)需要增強(qiáng)審計(jì)功能來監(jiān)控AI系統(tǒng)的決策,保證決策過程的透明度,追蹤數(shù)據(jù)來源以確保數(shù)據(jù)的可靠性,實(shí)施記錄和監(jiān)控操作以快速響應(yīng)問題,確保符合數(shù)據(jù)保護(hù)和隱私法規(guī),從而提高用戶對AI系統(tǒng)的信任度[156]。

(5)以AI治理AI,開發(fā)智能化的技術(shù)工具應(yīng)對算法風(fēng)險(xiǎn)

當(dāng)前,人工智能的性能提升遠(yuǎn)超安全技術(shù)的發(fā)展,這種不平衡導(dǎo)致“Crippled AI”,即高性能但安全性不足的AI系統(tǒng)[157]。為了跟隨高速迭代的AI系統(tǒng),“以技術(shù)治理技術(shù),以AI治理AI”是一種新型算法治理方向?!癆I治理AI”通過智能算法自我監(jiān)管,提高效率并解決傳統(tǒng)人工監(jiān)管迭代慢的局限性[158]。2022年6月,Meta與美國司法部達(dá)成法律和解,同意刪除廣告商用來間接分析和定位某些受眾群體的特殊廣告工具,并同意部署一個(gè)新的“方差減少系統(tǒng)”(VRS)以消除其廣告定位和投放系統(tǒng)中機(jī)器學(xué)習(xí)算法的偏見[159],通過開發(fā)治理技術(shù)減少了住房廣告中的性別和種族偏見風(fēng)險(xiǎn)。人民日報(bào)社傳播內(nèi)容認(rèn)知全國重點(diǎn)實(shí)驗(yàn)室基于“AI治理AI”的理念,打造AIGC-X平臺(tái),實(shí)現(xiàn)對人工智能生成內(nèi)容的精準(zhǔn)識(shí)別,在文本識(shí)別方面,基于人工智能生成模型傾向于采用高頻詞的特點(diǎn),構(gòu)建語義與風(fēng)格特征融合的語言模型評價(jià)方法;在圖像識(shí)別方面,研發(fā)基于視覺上下文、子塊信號特征的人工智能生成圖像檢測模型,實(shí)現(xiàn)對人工智能生成圖像的精確識(shí)別;在視頻識(shí)別方面,通過提取真實(shí)視頻中人物的視覺、音頻特征,建立人物關(guān)聯(lián)特異性模型,檢測出合成人物在全局一致性、幾何特性等方面與真實(shí)人物存在的偏差[160]。商湯科技建立了模型體檢平臺(tái),對模型進(jìn)行推理攻擊和逆向攻擊測試,檢測算法模型對數(shù)字世界白盒對抗、數(shù)字世界黑盒查詢對抗魯棒準(zhǔn)確率、數(shù)字世界遷移攻擊對抗魯棒準(zhǔn)確率、物理世界對抗樣本攻擊成功率、模型后門攻擊成功率,以判定算法模型是否符合設(shè)計(jì)要求[147]。阿里巴巴則建議提升模型的魯棒性、可解釋性、公平性,并構(gòu)建有效的防濫用機(jī)制,以提高模型的可靠性和用戶的信任,具體措施包括:開發(fā)評估工具來測試和強(qiáng)化模型抵御攻擊的能力,提高模型韌性;使用模型可視化和解釋性工具來揭示模型的決策邏輯;通過在訓(xùn)練過程中引入公平性約束并平衡數(shù)據(jù)來減少偏見;建立內(nèi)容審核和版權(quán)監(jiān)測系統(tǒng)來防止模型濫用[149]。

(6)強(qiáng)化生成內(nèi)容檢測,提高AI生成內(nèi)容的準(zhǔn)確性與可靠性

生成式人工智能容易生成虛假信息,帶來幻覺問題,對社會(huì)和個(gè)人造成誤導(dǎo),緩解AIGC的幻覺風(fēng)險(xiǎn)需要強(qiáng)化內(nèi)容治理,措施包括數(shù)據(jù)質(zhì)量控制、優(yōu)化訓(xùn)練過程、改進(jìn)解碼推理算法和強(qiáng)化后處理機(jī)制。在數(shù)據(jù)層面,減少幻覺的關(guān)鍵在于嚴(yán)格篩選和驗(yàn)證數(shù)據(jù)來源,避免錯(cuò)誤信息和偏見的引入,同時(shí)加強(qiáng)對數(shù)據(jù)利用的優(yōu)化,定期更新數(shù)據(jù)集以擴(kuò)展模型的知識(shí)邊界[161]。在模型訓(xùn)練層面,可以利用技術(shù)手段優(yōu)化預(yù)訓(xùn)練模型的架構(gòu)。如借助Self-Alignment機(jī)制,根據(jù)檢測出來的事實(shí)性幻覺對模型進(jìn)行微調(diào)[162];通過人類反饋強(qiáng)化學(xué)習(xí)減少毒害內(nèi)容的產(chǎn)生,讓模型與指令需求保持一致[13]。在推理層面,可以通過降低解碼過程中的隨機(jī)性實(shí)現(xiàn)算法優(yōu)化,如調(diào)整采樣溫度(Temperature)或采用束搜索等確定性策略,減少生成錯(cuò)誤的概率[163]。在生成內(nèi)容后,可以引入外部知識(shí)庫進(jìn)行事實(shí)驗(yàn)證或使用語言模型檢測邏輯錯(cuò)誤,進(jìn)一步提高生成內(nèi)容的準(zhǔn)確性和可靠性[164]。

(7)進(jìn)行組織結(jié)構(gòu)的適應(yīng)性優(yōu)化,實(shí)施敏捷治理與自我規(guī)制

為了應(yīng)對潛在、復(fù)雜、瞬時(shí)的AI風(fēng)險(xiǎn),還需要對組織結(jié)構(gòu)進(jìn)行優(yōu)化,提高AI環(huán)境下的組織韌性。現(xiàn)有研究提出兩種優(yōu)化方向:敏捷與適應(yīng)性治理,自我規(guī)制調(diào)整。

首先,敏捷治理被視為應(yīng)對生成式人工智能技術(shù)快速變革的關(guān)鍵策略,強(qiáng)調(diào)通過動(dòng)態(tài)調(diào)整和靈活應(yīng)變[165],提高組織應(yīng)對復(fù)雜性和不確定性的能力[166]。阿里巴巴提出,生成式人工智能的發(fā)展還存在著較大的不確定性,采用過重、不科學(xué)的治理方式會(huì)抑制產(chǎn)業(yè)的發(fā)展,而敏捷治理作為更加順應(yīng)科技研發(fā)應(yīng)用的治理模式,通過小步快走、迭代試錯(cuò)、動(dòng)態(tài)更新,可以解決技術(shù)高速演進(jìn)的不確定性問題[149]。中國信息通信研究院則建議堅(jiān)持敏捷治理理念,強(qiáng)化跨部門協(xié)同和多元敏捷互動(dòng)機(jī)制,平衡創(chuàng)新發(fā)展和風(fēng)險(xiǎn)治理[151]。

其次,為了進(jìn)一步提升AI系統(tǒng)的安全性與合規(guī)性,組織內(nèi)部自我管理型規(guī)制的引入成為必要。通過強(qiáng)化平臺(tái)自律和合規(guī)建設(shè),平臺(tái)企業(yè)能夠主動(dòng)識(shí)別和排除潛在的安全隱患,從源頭減少AI系統(tǒng)帶來的風(fēng)險(xiǎn)[167]。德勤報(bào)告發(fā)現(xiàn)僅23%的企業(yè)認(rèn)為自己為生成式AI的風(fēng)險(xiǎn)管理和法規(guī)合規(guī)做好準(zhǔn)備,41%的企業(yè)難以精確衡量生成式AI的影響,并建議企業(yè)管理層應(yīng)持續(xù)關(guān)注生成式AI戰(zhàn)略,加強(qiáng)數(shù)據(jù)管理、風(fēng)險(xiǎn)控制和價(jià)值衡量,推動(dòng)生成式AI深入嵌入業(yè)務(wù)流程,并通過跨部門合作和強(qiáng)有力的監(jiān)管框架確保技術(shù)的長期成功和合規(guī)性[168]。ISACA指出組織需要構(gòu)建AI倫理準(zhǔn)則,以確保AI技術(shù)的發(fā)展與應(yīng)用遵循倫理原則、透明度、公正性,涵蓋利益相關(guān)者的權(quán)益,確立責(zé)任與問責(zé)機(jī)制,并進(jìn)行持續(xù)的倫理審視與教育培訓(xùn),促進(jìn)AI技術(shù)負(fù)責(zé)任的演進(jìn)[158]。

(8)采用“軟硬法”結(jié)合治理方式,強(qiáng)化問責(zé)機(jī)制與標(biāo)準(zhǔn)約束

應(yīng)對AI對技術(shù)發(fā)展帶來的法律爭議,還需要加強(qiáng)政策法規(guī)和技術(shù)標(biāo)準(zhǔn)建設(shè)。在大模型治理過程中,可以使用強(qiáng)制性法律(硬法)和非強(qiáng)制性的指導(dǎo)性文件、標(biāo)準(zhǔn)、倫理原則(軟法)的“軟硬法”結(jié)合的治理方式[151]。現(xiàn)有研究從生成式人工智能的法律責(zé)任、法律準(zhǔn)則、安全體系、技術(shù)標(biāo)準(zhǔn)等視角提出具體建議。

首先,人工智能系統(tǒng)的不可預(yù)測性和自主性可能導(dǎo)致責(zé)任漏洞,包括證明過錯(cuò)、因果關(guān)系以及界定生產(chǎn)者與使用者的責(zé)任,因此需要調(diào)整現(xiàn)有的責(zé)任規(guī)則[169],包括明確顯性隱性披露體系,確定內(nèi)容責(zé)任主體,完善投訴機(jī)制[170]。

其次,監(jiān)管機(jī)構(gòu)應(yīng)制定和完善相關(guān)法律法規(guī),明確數(shù)據(jù)使用、隱私保護(hù)、算法偏見等方面的規(guī)范[171]。如中國在算法備案與評估方面提出了一系列措施[172];歐盟出臺(tái)了AI法案,建立了歐盟通用的AI法律規(guī)制框架,并于2024年8月1日正式生效[173]。

第三,研究AI安全可信指南,統(tǒng)籌規(guī)劃AI安全標(biāo)準(zhǔn)體系,并加快建設(shè)AI安全檢測能力[174],可以從確定績效、設(shè)計(jì)和內(nèi)部管理三類標(biāo)準(zhǔn)方向以保障人工智能生成內(nèi)容的安全[175]。

最后,完善生成式人工智能技術(shù)專利標(biāo)準(zhǔn)。如引入人工智能作為技術(shù)“發(fā)明人”的制度設(shè)計(jì),創(chuàng)立人工智能生成技術(shù)方案的專利性標(biāo)準(zhǔn)[176]。

3.2  生成式人工智能創(chuàng)新發(fā)展對策

生成式人工智能是一項(xiàng)新興的顛覆性技術(shù),對于未來經(jīng)濟(jì)社會(huì)發(fā)展的影響十分深遠(yuǎn)。為進(jìn)一步推動(dòng)生成式人工智能產(chǎn)業(yè)高質(zhì)量發(fā)展和創(chuàng)新應(yīng)用,政策制定部門和學(xué)術(shù)界提出了一系列發(fā)展對策。

(1)堅(jiān)持發(fā)展創(chuàng)新與風(fēng)險(xiǎn)治理并重的原則

1982年,大衛(wèi)·科林格里奇在其《技術(shù)的社會(huì)控制》一書中提出了科林格里奇困境(Collingridge's Dilemma):一項(xiàng)技術(shù)如果因?yàn)閾?dān)心不良后果而過早實(shí)施控制,那么技術(shù)很可能就難以發(fā)展。反之,如果控制過晚,已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,就可能走向失控,再來解決不良問題就會(huì)變得昂貴、困難和耗時(shí)間,甚至難以或不能改變[177]。生成式人工智能的發(fā)展也面臨這種技術(shù)控制的兩難困境[178]。在生成式人工智能技術(shù)的創(chuàng)新發(fā)展過程中,如何平衡技術(shù)進(jìn)步與潛在風(fēng)險(xiǎn)是各國政策制定的重要議題?,F(xiàn)有研究對主要經(jīng)濟(jì)體在生成式人工智能的發(fā)展[179]、監(jiān)管[180]、教育[181]等方面的政策進(jìn)行了比較研究,明確了各國對生成式人工智能技術(shù)的社會(huì)功能、潛在影響與戰(zhàn)略定位。這些政策法規(guī)基本上秉持發(fā)展與治理并重的政策原則,旨在通過設(shè)定法律框架和治理機(jī)制,促進(jìn)技術(shù)的負(fù)責(zé)任發(fā)展[182],不斷尋求創(chuàng)新和規(guī)制的平衡點(diǎn)[183]。

在AI發(fā)展方面,美國將人工智能界定為戰(zhàn)略競爭的前沿領(lǐng)域,堅(jiān)持絕對安全理念,依賴技術(shù)優(yōu)勢推行單邊主導(dǎo)型治理,嘗試構(gòu)建以美國為中心的非對稱單向度的數(shù)據(jù)流動(dòng)秩序[184]。此外,美國政府重視AI基礎(chǔ)設(shè)施長期投資和人工智能研究,以增強(qiáng)美國在制造領(lǐng)域的競爭力[185]。美國白宮發(fā)布的報(bào)告認(rèn)為,AI有潛力徹底改變科學(xué)研究的方式,通過快速運(yùn)行數(shù)百萬次基于計(jì)算機(jī)的模擬實(shí)驗(yàn),為現(xiàn)實(shí)世界中重要的科學(xué)實(shí)驗(yàn)提供指導(dǎo);同時(shí)AI的發(fā)展需要解決數(shù)據(jù)偏見、計(jì)算能源、錯(cuò)誤生成以及濫用等問題,建議采用負(fù)責(zé)任和可信賴的AI使用原則以及鼓勵(lì)創(chuàng)新的AI集成方法[186]。

中國的生成式人工智能政策體現(xiàn)出強(qiáng)烈的國家主導(dǎo)特征,重點(diǎn)在于通過政府規(guī)劃和投資推動(dòng)技術(shù)在國家安全和經(jīng)濟(jì)競爭力方面的應(yīng)用[187]。在技術(shù)和應(yīng)用監(jiān)管方面,具有風(fēng)險(xiǎn)分析中性、深入技術(shù)管理、技術(shù)應(yīng)用范圍廣、新興市場應(yīng)用潛力強(qiáng)等特點(diǎn)[188]。在借鑒其他國家的生成式人工智能監(jiān)管經(jīng)驗(yàn)的基礎(chǔ)上,我國生成式人工智能管理制度的設(shè)計(jì)應(yīng)該堅(jiān)持發(fā)展與安全并重[189]、促進(jìn)創(chuàng)新與依法治理相結(jié)合的監(jiān)管原則[190]。為了進(jìn)一步促進(jìn)生成式AI的健康發(fā)展,需要堅(jiān)持發(fā)展創(chuàng)新與風(fēng)險(xiǎn)治理并重的原則,確保技術(shù)進(jìn)步與安全、合規(guī)和倫理責(zé)任相協(xié)調(diào),使生成式AI在促進(jìn)經(jīng)濟(jì)社會(huì)進(jìn)步的同時(shí),符合公共利益和人權(quán)保障的要求[191]。

(2)加速AI產(chǎn)業(yè)布局,充分激發(fā)企業(yè)活力

AI產(chǎn)業(yè)規(guī)模發(fā)展迅猛,成為世界各國關(guān)注的焦點(diǎn)。2023年,全球AI市場價(jià)值超過1300億歐元,預(yù)計(jì)到2030年將增長至近1.9萬億歐元。美國在AI私人投資方面以625億歐元領(lǐng)先,中國以73億歐元位居次席,而歐盟和英國合計(jì)吸引了90億歐元的私人投資[192]。2024年我國政府工作報(bào)告提出深化人工智能研發(fā)應(yīng)用,打造具有國際競爭力的數(shù)字產(chǎn)業(yè)集群[193]。美韓等國也在加速AI制造產(chǎn)業(yè)布局,以激發(fā)AI在促進(jìn)生產(chǎn)力提升和產(chǎn)業(yè)升級方面的巨大潛能[194]。

企業(yè)是技術(shù)創(chuàng)新的主體,生成式人工智能發(fā)展離不開企業(yè)創(chuàng)新賦能。得益于麥肯錫、埃森哲和AIport等機(jī)構(gòu)報(bào)告,企業(yè)高管已經(jīng)認(rèn)識(shí)到生成式AI的變革潛力,并計(jì)劃加大對人工智能領(lǐng)域的投資力度[195-196]。歐盟報(bào)告指出,在全球AI競爭中,中美處于領(lǐng)先地位,歐盟相對落后,建議通過Horizon Europe、Digital Europe、EIC Accelerator和InvestEU計(jì)劃為歐洲的初創(chuàng)企業(yè)和中小企業(yè)提供資金,幫助企業(yè)開發(fā)可信賴的AI技術(shù),并修改歐洲高性能計(jì)算聯(lián)合企業(yè)(EuroHPC Regulation)的相關(guān)限制,以便歐盟公司可以使用AI超級計(jì)算機(jī)來訓(xùn)練大型語言模型[192]。歐盟審計(jì)部門則發(fā)現(xiàn)由于缺乏協(xié)調(diào)和明確的投資目標(biāo),歐盟在AI投資方面沒有跟上全球領(lǐng)導(dǎo)者的步伐;中小企業(yè)采用AI技術(shù)的基礎(chǔ)設(shè)施和資本支持的實(shí)施進(jìn)展緩慢,到審計(jì)時(shí)尚未產(chǎn)生顯著結(jié)果;盡管委員會(huì)設(shè)法從歐盟預(yù)算中增加了對AI研究項(xiàng)目的資金投入,但并未監(jiān)控這些投資對發(fā)展歐盟AI生態(tài)系統(tǒng)的貢獻(xiàn)[197]。

研究表明,中國企業(yè)領(lǐng)導(dǎo)層對生成式 AI 的認(rèn)知度正在提升,試點(diǎn)和推廣活動(dòng)增多,企業(yè)內(nèi)部的知識(shí)管理和答疑成為 AI 應(yīng)用的關(guān)鍵場景,但預(yù)算投入有限,轉(zhuǎn)化率有待提高[198-199]。美國則更多地依賴市場驅(qū)動(dòng)的創(chuàng)新模式,注重通過法規(guī)和市場力量推動(dòng)AI技術(shù)的發(fā)展,同時(shí)重視保護(hù)個(gè)人隱私和數(shù)據(jù)安全[200]。美國智庫ITIF的報(bào)告《中國在人工智能領(lǐng)域的創(chuàng)新能力如何?》指出,中國在AI研究和應(yīng)用方面取得顯著進(jìn)展,同時(shí)私人部門參與不足抑制了技術(shù)商業(yè)化轉(zhuǎn)化率[177]。為了進(jìn)一步促進(jìn)我國生成式人工智能的發(fā)展和應(yīng)用,政府應(yīng)加速AI產(chǎn)業(yè)布局,充分激發(fā)企業(yè)活力,將企業(yè)的變革計(jì)劃轉(zhuǎn)化為創(chuàng)新實(shí)踐,使其成為生成式人工智能創(chuàng)新發(fā)展的主體。

(3)構(gòu)建多領(lǐng)域、分層次法律架構(gòu),在合規(guī)的基礎(chǔ)上兼顧敏捷治理

生成式人工智能廣泛應(yīng)用于許多行業(yè),但是各行業(yè)相關(guān)法律詞義模糊,制度供給體系雜亂[201],目前實(shí)踐只能參照通用性法律法規(guī)而少有專門規(guī)定可循。立法供給不足和司法裁判機(jī)制的缺失[202],監(jiān)管工具不完善[203],導(dǎo)致司法機(jī)關(guān)在處理生成式人工智能相關(guān)案件時(shí)面臨困難。為了應(yīng)對生成式人工智能帶來的復(fù)雜政策和法律挑戰(zhàn),需要進(jìn)一步建立和完善法律框架體系[204],針對生成式人工智能的不同應(yīng)用領(lǐng)域構(gòu)建多領(lǐng)域、分層次的法律架構(gòu),以實(shí)現(xiàn)生成式人工智能的分層精準(zhǔn)治理。

歐洲在生成式人工智能政策制定方面展現(xiàn)出引領(lǐng)者的姿態(tài),制定了嚴(yán)格的合規(guī)框架并推動(dòng)跨大西洋合作,以確保AI技術(shù)的發(fā)展既符合社會(huì)公共利益,又能夠保障基本人權(quán)[205]。歐盟在2020年發(fā)布的《人工智能白皮書》中提出構(gòu)建可信賴人工智能生態(tài)系統(tǒng),并確定了七項(xiàng)關(guān)鍵要求:人事代理機(jī)構(gòu)和監(jiān)管,技術(shù)魯棒性和安全性,隱私和數(shù)據(jù)治理,透明性,多樣性、非歧視性公平,社會(huì)和環(huán)境福祉,問責(zé)制[148]。歐盟的政策優(yōu)先級在于建立信任與維護(hù)社會(huì)公正[206],其監(jiān)管模式主要依托法律、法規(guī)和指令等實(shí)施全面的強(qiáng)監(jiān)管策略[207]。

為確保生成式人工智能技術(shù)在合規(guī)框架內(nèi)具備必要的創(chuàng)新發(fā)展靈活性與有效性,可以考慮在法律架構(gòu)的基礎(chǔ)上引入安全港機(jī)制,為技術(shù)開發(fā)者和企業(yè)提供法律保護(hù),減少創(chuàng)新過程中的阻力,從而使人工智能在發(fā)展合規(guī)的基礎(chǔ)上保持足夠的彈性[208]。

(4)加強(qiáng)國際合作,建立多元包容的共治體系

人工智能的發(fā)展和應(yīng)用具有全球性質(zhì),需要各國政府和區(qū)域組織共同努力。通過國際合作和制度創(chuàng)新,構(gòu)建多元協(xié)同、包容、敏捷、高效的共治體系,促進(jìn)生成式人工智能合規(guī)、安全的使用[60]。聯(lián)合國發(fā)布的《以人為本的人工智能治理》報(bào)告建議實(shí)施問責(zé)機(jī)制,加強(qiáng)國際合作,以應(yīng)對人工智能帶來的挑戰(zhàn)和機(jī)遇,具體包括建立國際人工智能科學(xué)小組、開展政策對話、促進(jìn)可互操作的治理方法、利用《2030年可持續(xù)發(fā)展議程》指導(dǎo)人工智能的發(fā)展、建立能力發(fā)展網(wǎng)絡(luò)、創(chuàng)建全球人工智能基金、制定全球人工智能數(shù)據(jù)框架,并在聯(lián)合國秘書處內(nèi)設(shè)立人工智能辦公室等舉措[209]。美國國家科學(xué)技術(shù)委員會(huì)發(fā)布的《2020-2024年人工智能研發(fā)進(jìn)展報(bào)告》則強(qiáng)調(diào)需要國際合作、公私部門合作等方式推動(dòng)AI進(jìn)步[186]。2024年,美國、歐盟、英國等10個(gè)國家和組織簽署了多邊條約《歐洲委員會(huì)人工智能與人權(quán)、民主和法治框架公約》,其中包含程序保障、公眾咨詢、數(shù)字素養(yǎng)努力和人權(quán)侵犯補(bǔ)救等相關(guān)規(guī)定,通過責(zé)任、非歧視、隱私和可靠性等原則確立國際法中關(guān)于尊重人權(quán)的AI活動(dòng)的基線[210]。該公約要求簽署國對AI產(chǎn)生的危害和歧視性結(jié)果負(fù)責(zé),要求評估、管理、監(jiān)督AI系統(tǒng)全周期內(nèi)可能產(chǎn)生的影響,并確保透明度和公眾參與,同時(shí)AI侵權(quán)的受害者應(yīng)擁有法律追索權(quán)。關(guān)于AI的發(fā)展,中國堅(jiān)持多邊主義,以總體國家安全觀為指引,朝著構(gòu)建網(wǎng)絡(luò)空間命運(yùn)共同體的方向,推動(dòng)人工智能的全球治理朝著普惠、包容、彈性、靈活的方向發(fā)展[182]。

(5)推進(jìn)AI知識(shí)普及,提升AI素養(yǎng)和培育AI人才

生成式AI的創(chuàng)新發(fā)展不能僅依賴專家和技術(shù)開發(fā)者,公眾的參與和理解至關(guān)重要。政府可以制定政策,促進(jìn)AI教育,提升公眾對AI技術(shù)的認(rèn)知與理解[44-46]。通過普及AI基礎(chǔ)知識(shí)、開展技能培訓(xùn)和加強(qiáng)信息公開,使更多人了解生成式AI的潛力與風(fēng)險(xiǎn)[211]。同時(shí),將AI理論和實(shí)踐納入中小學(xué)教育體系,從早期培養(yǎng)公眾的AI素養(yǎng),為未來的技術(shù)應(yīng)用和社會(huì)變革奠定基礎(chǔ)[45]。美國智庫ITIF建議,美國應(yīng)該加強(qiáng)研發(fā)投入和勞動(dòng)力培訓(xùn)以保持全球領(lǐng)導(dǎo)地位[212]。ISACA指出,AI可能造成就業(yè)替代和技術(shù)濫用風(fēng)險(xiǎn),教育系統(tǒng)需要更新課程和教學(xué)方法,政策制定者需要關(guān)注弱勢就業(yè)群體利益,以確保社會(huì)的整體福祉[156]。北京大學(xué)提出了一套“通識(shí)、通智、通用”人工智能復(fù)合型頂尖人才培養(yǎng)框架,旨在為未來打造一支兼具人文素養(yǎng)和專業(yè)深度的科技王牌軍[213]。

4 結(jié)語

現(xiàn)有研究針對生成式人工智能的核心技術(shù)、行業(yè)應(yīng)用、存在風(fēng)險(xiǎn)、政策法規(guī)、發(fā)展對策展開了大量有益的探索,提出了很多有價(jià)值的觀點(diǎn)與思路,但仍存在一些局限,如缺少關(guān)于技術(shù)的經(jīng)濟(jì)社會(huì)影響的定量研究;政策法規(guī)對于生成式人工智能技術(shù)的促進(jìn)作用與制約機(jī)理研究不足;對AIGC風(fēng)險(xiǎn)的識(shí)別與應(yīng)對研究仍需要深化。未來研究需要在深化技術(shù)原理與應(yīng)用研究的同時(shí),系統(tǒng)評估生成式人工智能技術(shù)與經(jīng)濟(jì)社會(huì)的交織作用關(guān)系,發(fā)展適應(yīng)數(shù)據(jù)訓(xùn)練、算法構(gòu)造、內(nèi)容生成三階段的風(fēng)險(xiǎn)動(dòng)態(tài)識(shí)別與應(yīng)急管理策略,以促進(jìn)生成式人工智能合規(guī)、負(fù)責(zé)任、可持續(xù)的發(fā)展和應(yīng)用。

參考文獻(xiàn):

[1] Lv Z.Generative artificial intelligence in the metaverse era[J].Cognitive Robotics,2023,3(2):208-217.

[2] Feuerriegel S,Hartmann J,Janiesch C,et al.Generative ai[J].Business & Information Systems Engineering,2024,66(1):111-126.

[3] Cao Y,Li S,Liu Y,et al.A comprehensive survey of ai-generated content(aigc):A history of generative ai from gan to chatgpt[J].arXiv preprint arXiv:2303.04226,2023.

[4] Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.

[5] Kingma D P.Auto-encoding variational bayes[J].arXiv preprint arXiv:1312.6114,2013.

[6] Ho J,Jain A,Abbeel P.Denoising diffusion probabilistic models[J].Advances in neural information processing systems,2020,33(1):6840-6851.

[7] Mnih V.Playing atari with deep reinforcement learning[J].arXiv preprint arXiv:1312.5602,2013.

[8] Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need.Advances in neural information processing systems[J].Advances in neural information processing systems,2017.

[9] Devlin J.Bert:Pre-training of deep bidirectional transformers for language understanding[J].arXiv preprint arXiv:1810.04805,

2018.

[10] Radford A.Improving language understanding by generative pre-training[J].2018,1(5):1-10.

[11] Radford A,Wu J,Child R,et al.Language models are unsupervised multitask learners[J].OpenAI blog,2019,1(8):9-10.

[12] Brown T B.Language models are few-shot learners[J].arXiv preprint arXiv:2005.14165,2020.

[13] Ouyang L,Wu J,Jiang X,et al.Training language models to follow instructions with human feedback[J].Advances in neural information processing systems,2022,35(1):27730-27744.

[14] OpenAI.Video generation models as world simulators[EB/OL].[2024-08-01].https://openai.com/index/video-generation-models-as-world-simulators/.

[15] Bobrow D.Natural language input for a computer problem solving system[J].1964,1(1):1-5.

[16] Brown P F,Cocke J,Della Pietra S A,et al.A statistical approach to machine translation[J].Computational linguistics,1990,16(2):79-85.

[17] Rabiner L R.A tutorial on hidden Markov models and selected applications in speech recognition[J].Proceedings of the IEEE,1989,77(2):257-286.

[18] Liu Y,Zhang K,Li Y,et al.Sora:A review on background,technology,limitations,and opportunities of large vision models[J].arXiv preprint arXiv:2402.17177,2024.

[19] 清華大學(xué)人工智能國際治理研究院.張亞勤:人工智能發(fā)展的一些觀點(diǎn)[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/-EFYd98t6TU7j_uRTJJgVQ.

[20] 李彥宏.李彥宏WAIC圓桌訪談:開源模型是智商稅,智能體正在爆發(fā)[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/CUoM87LRvlw53M_NxOaiDA.

[21] 梁正.新興技術(shù)視域下的人工智能善治——發(fā)展現(xiàn)狀、風(fēng)險(xiǎn)挑戰(zhàn)與治理思路[J].人民論壇·學(xué)術(shù)前沿,2024(14):12-22.

[22] Chen C,Wu Z,Lai Y,et al.Challenges and remedies to privacy and security in aigc:Exploring the potential of privacy computing,blockchain,and beyond[J].ArXiv preprint arXiv:2306.00419,2023.

[23] 陳永偉.超越ChatGPT:生成式AI的機(jī)遇、風(fēng)險(xiǎn)與挑戰(zhàn)[J].山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(3):127-143.

[24] Karras T,Laine S,Aila T.A style-based generator architecture for generative adversarial networks[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition[C].Long Beach,CA,USA,2019,4401-4410.

[25] Castrejon L,Ballas N,Courville A.Hierarchical video generation for complex data[J].ArXiv preprint arXiv:2106.02719,2021.

[26] Oord A,Dieleman S,Zen H,et al.Wavenet:A generative model for raw audio[J].ArXiv preprint arXiv:1609.03499,2016.

[27] Wu J,Gan W,Chen Z,et al.Ai-generated content (Aigc):A survey[J].arXiv preprint arXiv:2304.06632,2023.

[28] Mildenhall B,Srinivasan P P,Tancik M,et al.Nerf:Representing scenes as neural radiance fields for view synthesis[J].Communications of the ACM,2021,65(1):99-106.

[29] 匡文波,姜澤瑋.智能媒體新質(zhì)生產(chǎn)力:理論內(nèi)涵、運(yùn)作邏輯與實(shí)現(xiàn)路徑[J].中國編輯,2024,2(7):29-35.

[30] 漆亞林.新質(zhì)生產(chǎn)力全域賦能:智能媒體高質(zhì)量發(fā)展新路向[J].編輯之友,2024,4(6):74-83.

[31] 胡翼青,黃悠然.生成式人工智能背景下的媒體融合——基于產(chǎn)能的視角[J].中國編輯,2024,1(5):28-34.

[32] Theodore M.NVIDIA unveils PYoCo,a new text-to-video diffusion model[EB/OL].[2024-08-12].https://80.lv/articles/nvidia-unveils-pyoco-a-new-text-to-video-diffusion-model/.

[33] 火山引擎,RollingAI,InfoQ研究中心.生成式AI商業(yè)落地白皮書——給CXO的AI轉(zhuǎn)型戰(zhàn)術(shù)指南[EB/OL].[2024-08-12].https://www.infoq.cn/minibook/E2hbDbQTdoffVOGc9PSN.

[34] Adobe.引領(lǐng)變革,Adobe發(fā)布全新生成式人工智能Sensei GenAI服務(wù)[EB/OL].[2024-07-26].https://www.adobeacp.com/content/news?id=1680873211777063.

[35] 王春英,姚亞,滕白瑩.生成式人工智能嵌入敏捷政府建設(shè):影響、風(fēng)險(xiǎn)與應(yīng)對[J].北京行政學(xué)院學(xué)報(bào),2024,11(3):73-83.

[36] Straub V J,Morgan D,Bright J,et al.Artificial intelligence in government:Concepts,standards,and a unified framework[J].Government Information Quarterly,2023,40(4):101881.

[37] 汪波,牛朝文.從ChatGPT到GovGPT:生成式人工智能驅(qū)動(dòng)的政務(wù)服務(wù)生態(tài)系統(tǒng)構(gòu)建[J].電子政務(wù),2023,1(9):25-38.

[38] 張洪雷.生成式人工智能參與數(shù)字政府建設(shè)的技術(shù)躍遷、目標(biāo)導(dǎo)向與可行路徑[J].南昌大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023,54(4):100-109.

[39] 北京日報(bào)網(wǎng).昌平政務(wù)服務(wù)機(jī)器人入選“互聯(lián)網(wǎng)助力經(jīng)濟(jì)社會(huì)數(shù)字化轉(zhuǎn)型”特色案例[EB/OL].[2024-08-01].https://news.bjd.com.cn/2022/12/09/10258790.shtml.

[40] 清華大學(xué)圖書館AI服務(wù)新體驗(yàn)[EB/OL].[2024-08-01].https://lib.tsinghua.edu.cn/info/1073/6869.htm.

[41] 深圳市人民政府門戶網(wǎng)站.深圳法院人工智能輔助審判系統(tǒng)打造司法智能化轉(zhuǎn)型的“深圳樣本”[EB/OL].[2024-08-01].https://www.sz.gov.cn/cn/xxgk/zfxxgj/zwdt/content/post_11399256.html.

[42] 陳雋柏,吳國平,張童,等.語言學(xué)視角下人工智能生成內(nèi)容與用戶生成內(nèi)容的對比研究——以在線醫(yī)療服務(wù)場景為例[J/OL].情報(bào)理論與實(shí)踐,1-13[2024-08-01].http://kns.cnki.net/kcms/detail/11.1762.G3.20240325.1844.004.html.

[43] 北京天壇醫(yī)院.北京天壇醫(yī)院和北京理工大學(xué)團(tuán)隊(duì)合作創(chuàng)建醫(yī)學(xué)影像大模型首位中文數(shù)字放射科醫(yī)生誕生[EB/OL].[2024-08-01].https://bifns.bjtth.org/Html/News/Articles/211808.html.

[44] 王帥杰,湯倩雯,楊啟光.生成式人工智能在教育應(yīng)用中的國際觀察:挑戰(zhàn)、應(yīng)對與鏡鑒[J].電化教育研究,2024,45(5):106-112.

[45] 齊彥磊,周洪宇.技術(shù)、制度與思想:生成式人工智能在教育領(lǐng)域中應(yīng)用的演進(jìn)邏輯[J].電化教育研究,2024,45(8):28-34.

[46] 黃榮懷.人工智能大模型融入教育:觀念轉(zhuǎn)變、形態(tài)重塑與關(guān)鍵舉措[J].人民論壇·學(xué)術(shù)前沿,2024(14):23-30.

[47] 清華大學(xué).從“工具”到“伙伴”,當(dāng)大學(xué)課堂多了AI助教[EB/OL].[2024-08-01].https://www.tsinghua.edu.cn/info/1182/110370.htm.

[48] 趙麗,劉寅生.教育對話的技術(shù)轉(zhuǎn)向:嬗遞路徑、應(yīng)用困頓與范式重構(gòu)——兼論對ChatGPT的邏輯審視及展望[J].華東師范大學(xué)學(xué)報(bào)(教育科學(xué)版),2024,42(8):76-84.

[49] WIRED Middle East.The world’s first fully AI-generated drug aims to treat a deadly lung disease[EB/OL].[2024-07-26].https://wired.me/science/insilico-ai-drug/.

[50] 劉志雄.生成式人工智能賦能普惠金融:現(xiàn)實(shí)基礎(chǔ)、關(guān)鍵風(fēng)險(xiǎn)挑戰(zhàn)與應(yīng)對策略[J].人民論壇·學(xué)術(shù)前沿,2024,5(6):86-93.

[51] 申么,申明浩,丁子家,等.生成式人工智能與銀行業(yè)變革:典型事實(shí)、實(shí)踐問題與破局之策——以ChatGPT為例[J].南方金融,2023,5(11):64-76.

[52] 金評媒.“逼死”交易員:摩根大通的AI機(jī)器人都可以執(zhí)行高頻交易[EB/OL].[2024-08-01].http://www.jpm.cn/article-37348-1.html.

[53] 鄭世林,陶然,楊文博.ChatGPT等生成式人工智能技術(shù)對產(chǎn)業(yè)轉(zhuǎn)型升級的影響[J].產(chǎn)業(yè)經(jīng)濟(jì)評論,2024,2(1):5-20.

[54] Digital Defynd.20 Generative AI case studies[EB/OL].[2024-07-27].https://www.digitaldefynd.com/generative-ai-case-studies.

[55] 譚曉生.AI如何重塑網(wǎng)絡(luò)安全的未來?[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/M99SYg2jGSOv-BiLr9i9Mw.

[56] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023,11(4):29-43.

[57] 支振鋒,劉佳琨.倫理先行:生成式人工智能的治理策略[J].云南社會(huì)科學(xué),2024,1(4):60-71.

[58] 丁道勤.生成式人工智能訓(xùn)練階段的數(shù)據(jù)法律問題及其立法建議[J].行政法學(xué)研究,2024(6):16-28.

[59] 康驍.行政法如何應(yīng)對生成式人工智能——基于算法、訓(xùn)練數(shù)據(jù)和內(nèi)容的考察[J].云南社會(huì)科學(xué),2024,6(4):80-88.

[60] 徐偉,何野.生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)的治理體系及優(yōu)化路徑——基于38份政策文本的扎根分析[J/OL].電子政務(wù),1-17[2024-07-29].http://kns.cnki.net/kcms/detail/11.5181.TP.20240516.1831.010.html.

[61] 吳靜.生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)及其法律規(guī)制——以ChatGPT為例[J].科技管理研究,2024,44(5):192-198.

[62] Fountain J E.The moon,the ghetto and artificial intelligence:Reducing systemic racism in computational algorithms[J].Government Information Quarterly,2022,39(2):1-17.

[63] Bruno A,Mazzeo P L,Chetouani A,et al.Insights into classifying and mitigating LLMs' hallucinations[J].ArXiv preprint arXiv:2311.08117,2023.

[64] Nangia N,Vania C,Bhalerao R,et al.CrowS-pairs:A challenge dataset for measuring social biases in masked language models[J].ArXiv preprint arXiv:2010.00133,2020.

[65] Hofmann V,Kalluri P R,Jurafsky D,et al.AI generates covertly racist decisions about people based on their dialect[J].Nature,2024,633(8028):147-154.

[66] Shumailov I,Shumaylov Z,Zhao Y,et al.AI models collapse when trained on recursively generated data[J].Nature,2024,631(8022):755-759.

[67] 王良順,李想.生成式人工智能服務(wù)提供者的數(shù)據(jù)安全保護(hù)義務(wù)研究[J].南昌大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023,54(6):72-83.

[68] 姚璐,武政堯.挑戰(zhàn)與應(yīng)對:人工智能與國家政治安全[J].中國信息安全,2023,2(7):79-82.

[69] 江輝.論生成式人工智能應(yīng)用的國家安全審查[J].云南社會(huì)科學(xué),2024(4):72-79.

[70] Wang M,Deng W,Hu J,et al.Racial faces in the wild:Reducing racial bias by information maximization adaptation network[A].Proceedings of the ieee/cvf international conference on computer vision[C].2019:692-702.

[71] Hunkenschroer A L,Luetge C.Ethics of AI-enabled recruiting and selection:A review and research agenda[J].Journal of Business Ethics,2022,178(4):977-1007.

[72] Mohammad Amini M,Jesus M,F(xiàn)anaei Sheikholeslami D,et al.Artificial intelligence ethics and challenges in healthcare applications:a comprehensive review in the context of the European GDPR mandate[J].Machine Learning and Knowledge Extraction,2023,5(3):1023-1035.

[73] 劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019,40(6):55-66.

[74] 楊成越,羅先覺.算法歧視的綜合治理初探[J].科學(xué)與社會(huì),2018,8(4):1-12.

[75] 馬海群,張濤.國內(nèi)外算法風(fēng)險(xiǎn)研究:框架、特征及展望[J/OL].情報(bào)理論與實(shí)踐,1-11[2024-08-02].http://kns.cnki.net/kcms/detail/11.1762.G3.20240807.1551.004.html.

[76] 曾雄,梁正,張輝.人工智能軟法治理的優(yōu)化進(jìn)路:由軟法先行到軟法與硬法協(xié)同[J].電子政務(wù),2024,43(6):96-107.

[77] 孫那,鮑一鳴.生成式人工智能的科技安全風(fēng)險(xiǎn)與防范[J].陜西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2024,53(1):108-121.

[78] Chowdhery A,Narang S,Devlin J,et al.Palm:Scaling language modeling with pathways[J].Journal of Machine Learning Research,2023,24(240):1-113.

[79] Perez E,Ringer S,Luko?觢iūtK,et al.Discovering language model behaviors with model-written evaluations[J].ArXiv preprint arXiv:2212.09251,2022.

[80] Chern I,Chern S,Chen S,et al.FacTool:Factuality detection in generative AI--A tool augmented framework for multi-task and multi-domain scenarios[J].ArXiv preprint arXiv:2307.13528,2023.

[81] Schiff D,Borenstein J,Biddle J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection[J].IEEE Transactions on Technology and Society,2021,2(1):31-42.

[82] Wach K,Duong C D,Ejdys J,et al.The dark side of generative artificial intelligence:A critical analysis of controversies and risks of ChatGPT[J].Entrepreneurial Business and Economics Review,2023,11(2):7-30.

[83] Guleria A,Krishan K,Sharma V,et al.ChatGPT:ethical concerns and challenges in academics and research[J].The Journal of Infection in Developing Countries,2023,17(9):1292-1299.

[84] 韓婧,石磊.AIGC背景下的知識(shí)產(chǎn)權(quán)保護(hù)與制度創(chuàng)新[J].科技與出版,2024,23(7):5-6.

[85] 陳曉峰,沈錫賓.生成式人工智能重塑科技期刊產(chǎn)業(yè)的影響、挑戰(zhàn)及應(yīng)對策略研究[J].中國科技期刊研究,2024,35(7):890-898.

[86] Elkins K,Chun J.Can GPT-3 pass a writer’s Turing test?[J].Journal of Cultural Analytics,2020,5(2):1-10.

[87] Walters W H,Wilder E I.Fabrication and errors in the bibliographic citations generated by ChatGPT[J].Scientific Reports,2023,13(1):14045.

[88] Dehouche N.Plagiarism in the age of massive Generative Pre-trained Transformers(GPT-3)[J].Ethics in Science and Environmental Politics,2021,21(1):17-23.

[89] Khalifa M,Albadawy M.Using artificial intelligence in academic writing and research:An essential productivity tool[J].Computer Methods and Programs in Biomedicine Update,2024,21(12):1-18.

[90] 楊彥軍,張佳慧,童慧.數(shù)字媒介技術(shù)依賴的多學(xué)科析因及整合性闡釋[J].電化教育研究,2020,41(8):26-32.

[91] 童慧,楊彥軍.基于“技術(shù)道德化”理論的生成式人工智能教育應(yīng)用潛能與風(fēng)險(xiǎn)研究[J].電化教育研究,2024,45(7):12-18.

[92] Bai L,Liu X,Su J.ChatGPT:The cognitive effects on learning and memory[J].Brain-X,2023,1(3):30-39.

[93] [美]雪莉.特克爾.群體性孤獨(dú):為什么我們對科技期待更多,對彼此卻不能更親密?[M].周逵,劉菁荊,譯.杭州:浙江人民出版社,2014.

[94] 馮子軒.生成式人工智能應(yīng)用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學(xué)學(xué)報(bào),2024,27(1):61-71.

[95] Ca?觡as J J.AI and ethics when human beings collaborate with AI agents[J].Frontiers in psychology,2022,13(1):1-13.

[96] 李韜,周瑞春.生成式人工智能的社會(huì)倫理風(fēng)險(xiǎn)及其治理——基于行動(dòng)者網(wǎng)絡(luò)理論的探討[J].中國特色社會(huì)主義研究,2023,5(6):58-66.

[97] 何煒.生成式人工智能技術(shù)的倫理風(fēng)險(xiǎn)及負(fù)責(zé)任創(chuàng)新治理研究[J].世界科技研究與發(fā)展,2024,46 (4):548-559.

[98] 盧家銀.美德與規(guī)范的內(nèi)在主義協(xié)同:生成式人工智能的傳播倫理進(jìn)路[J].新聞界,2024(8):15-23.

[99] 汝緒華,汪懷君.數(shù)字資本主義的話語邏輯、意識(shí)形態(tài)及反思糾偏[J].深圳大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2021,38(2):149-160.

[100] Weidinger L,Uesato J,Rauh M,et al.Taxonomy of risks posed by language models[A].Proceedings of the 2022 ACM Conference on Fairness,Accountability,and Transparency[C].2022:214-229.

[101] 李偉,林彥虎.協(xié)助自殺人工智能潛在倫理問題及其有效防治[J].科學(xué)技術(shù)哲學(xué)研究,2023,40(3):122-128.

[102] 封錫盛.機(jī)器人不是人,是機(jī)器,但須當(dāng)人看[J].科學(xué)與社會(huì),2015,5(2):1-9.

[103] 張玉潔.論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制[J].東方法學(xué),2017,23(6):56-66.

[104] Putman H,Putnam H.Robots:Machines or artificially created life?[J].The Journal of Philosophy,1964,61(21):668-691.

[105] Hauer T.Machine ethics,allostery and philosophical anti-dualism:will ai ever make ethically autonomous decisions?[J].Society,2020,57(4):425-433.

[106] 張?jiān)婂?,李赟,李韜.ChatGPT類生成式人工智能的風(fēng)險(xiǎn)及其治理[J].貴州社會(huì)科學(xué),2023,12(11):138-143.

[107] 刁佳星.生成式人工智能服務(wù)提供者版權(quán)侵權(quán)注意義務(wù)研究[J].中國出版,2024,8(1):25-30.

[108] 張平.人工智能生成內(nèi)容著作權(quán)合法性的制度難題及其解決路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(3):18-31.

[109] Gregor S.Responsible artificial intelligence and journal publishing[J].Journal of the Association for Information Systems,2024,25(1):48-60.

[110] 劉倩,王京山,詹洪春.關(guān)于生成式人工智能的應(yīng)用規(guī)范研究與啟示——基于國際學(xué)術(shù)出版界的相關(guān)規(guī)范政策視角[J].科技與出版,2024(8):27-33.

[111] 澎湃新聞.首例AI生成圖片侵權(quán)案始末:原告勝訴放棄賠償,有律師質(zhì)疑判決[EB/OL].[2024-08-02].https://www.thepaper.cn/newsDetail_forward_25963744.

[112] 張濤.生成式人工智能訓(xùn)練數(shù)據(jù)集的法律風(fēng)險(xiǎn)與包容審慎規(guī)制[J].比較法研究,2024,16(4):86-103.

[113] 清華大學(xué)智能法治研究院.AI訓(xùn)練數(shù)據(jù)的合法性邊界:Westlaw訴Ross Intelligence案解讀[EB/OL].[2024-08-02].https://www.secrss.com/articles/65016?app=1.

[114] 新浪財(cái)經(jīng).韓國出現(xiàn)“深度偽造”技術(shù)下的新“N號房”案件,受害者多為未成年人[EB/OL].[2024-08-01].https://finance.sina.com.cn/jjxw/2024-08-29/doc-incmihkh2825937.shtml.

[115] 張濤.生成式人工智能中個(gè)人信息保護(hù)風(fēng)險(xiǎn)的類型化與合作規(guī)制[J].行政法學(xué)研究,2024(6):47-59.

[116] 朱榮榮.類ChatGPT生成式人工智能對個(gè)人信息保護(hù)的挑戰(zhàn)及應(yīng)對[J/OL].重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),1-14[2024-08-01].http://kns.cnki.net/kcms/detail/50.1023.C.20230921.1151.002.html.

[117] 劉霜,祁敏.生成式人工智能的刑事法律風(fēng)險(xiǎn)及其合規(guī)治理[J].河南社會(huì)科學(xué),2024,32(8):47-58.

[118] 新京報(bào).韓國女性陷入深度偽造AI換臉,人工智能技術(shù)生成逼真虛假內(nèi)容[EB/OL].[2024-08-02].http://epaper.bjnews.com.cn/html/2024-09/02/content_847965.htm.

[119] McAfee.Beware the Artificial Impostor Report[R/OL].[2024-07-27].https://www.mcafee.com/content/dam/consumer/en-us/resources/cybersecurity/artificial-intelligence/rp-beware-the-artificial-impostor-report.pdf.

[120] 機(jī)器之心.李飛飛親自撰文,數(shù)十名科學(xué)家簽署聯(lián)名信,反對加州AI限制法案[EB/OL].[2024-08-12].https://mp.weixin.qq.com/s/EkxZ-r4-Swaj5l8ioJyQ7Q.

[121] Bontridder N,Poullet Y.The role of artificial intelligence in disinformation[J].Data & Policy,2021,32(3):1-14.

[122] Benzie A,Montasari R.Artificial intelligence and the spread of mis-and disinformation[M].Artificial intelligence and national security.Cham:Springer International Publishing,2022:1-18.

[123] 向征.“黑鏡”中的對壘:生成式人工智能背景下網(wǎng)絡(luò)意識(shí)形態(tài)風(fēng)險(xiǎn)與防范[J].社會(huì)科學(xué)戰(zhàn)線,2024,23(4):18-24.

[124] 張愛軍,王芳.人工智能視域下的深度偽造與政治輿論變異[J].河海大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2021,23(4):29-36,106.

[125] Trandab?D,Gifu D.Discriminating AI-generated fake news[J].Procedia Computer Science,2023,225(1):3822-3831.

[126] 魏俊斌.網(wǎng)絡(luò)輿情智能生成風(fēng)險(xiǎn)防控的PDRR體系構(gòu)建[J].南京社會(huì)科學(xué),2024(6):76-87.

[127] 黃日涵,姚浩龍.“再塑造”與“高風(fēng)險(xiǎn)”:生成式人工智能對輿論安全的影響[J].情報(bào)雜志,2024,43(4):121-127.

[128] 孫成昊,譚燕楠.生成式人工智能對美國選舉宣傳的介入:路徑、場景與風(fēng)險(xiǎn)[J].世界經(jīng)濟(jì)與政治論壇,2024,12(4):1-22.

[129] 周文培.論人工智能大模型在國際傳播中的實(shí)踐與應(yīng)用[J].傳播與版權(quán),2023,7(24):52-55.

[130] 何茂昌.ChatGPT的意識(shí)形態(tài)風(fēng)險(xiǎn):樣態(tài)、肇因及防范[J].西南民族大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023,44(12):188-197.

[131] 張楚凡,張佳琳.數(shù)字政府建設(shè)與ChatGPT模型的互動(dòng)研究——基于問題、法治與規(guī)制視角分析[J/OL].重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),1-17[2024-08-02].http://kns.cnki.net/kcms/detail/50.1023.C.20240118.1741.004.html.

[132] 鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術(shù)發(fā)展的經(jīng)濟(jì)和社會(huì)影響[J].產(chǎn)業(yè)經(jīng)濟(jì)評論,2023,6(3):5-21.

[133] 孫偉平,劉航宇.生成式人工智能與知識(shí)生產(chǎn)方式的革命——從Sora的沖擊波談起[J].思想理論教育,2024,21(5):12-18.

[134] 徐國慶,蔡金芳,姜蓓佳,等.ChatGPT/生成式人工智能與未來職業(yè)教育[J].華東師范大學(xué)學(xué)報(bào)(教育科學(xué)版),2023,41(7):64-77.

[135] 吳冰藍(lán),周麗萍,岳昌君.ChatGPT/生成式人工智能與就業(yè)替代:基于高校大學(xué)生能力供求的視角[J].教育發(fā)展研究,2023,43(19):40-48.

[136] 丁國峰,壽曉明.生成式人工智能算法的法律風(fēng)險(xiǎn)及其規(guī)范化防控[J].云南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,23(3):107-119.

[137] 楊亞紅,孫巖,余黨會(huì).學(xué)術(shù)出版行業(yè)生成式人工智能作品相關(guān)責(zé)任與風(fēng)險(xiǎn)分析研究綜述[J].中國科技期刊研究,2023,34(12):1601-1607.

[138] 孫榕,李白楊.生成式人工智能(GAI)背景下的新型數(shù)字鴻溝識(shí)別框架研究[J/OL].圖書情報(bào)知識(shí),1-12[2024-08-02].http://kns.cnki.net/kcms/detail/42.1085.G2.20240321.1548.002.html.

[139] 崔中良.生成式人工智能作為敘事主體的社會(huì)風(fēng)險(xiǎn)及治理[J].云南社會(huì)科學(xué),2024,12(2):47-58.

[140] 李希梁,張欽昱.生成式人工智能的反壟斷規(guī)制[J].電子政務(wù),2024,2(5):53-63.

[141] H?觟ppner T,Streatfeild L.ChatGPT,Bard & Co.:An introduction to AI for competition and regulatory lawyers[EB/OL].[2024-07-12].https://ssrn.com/abstract=4371681.

[142] 新華網(wǎng).美歐英關(guān)于生成性人工智能基礎(chǔ)模型和人工智能產(chǎn)品競爭的聯(lián)合聲明[EB/OL].[2024-08-12].http://www.news.cn/world/20240724/d1124218f501455d8dd63140db54f31c/c.html.

[143] NIST.AI 100-1:Artificial Intelligence Risk Management Framework(AI RMF 1.0)[EB/OL].[2024-08-12].https://doi.org/10.6028/NIST.AI.100-1.

[144] 張旭芳.生成式人工智能的算法安全風(fēng)險(xiǎn)及治理路徑[J].江西社會(huì)科學(xué),2024(8):90-100.

[145] 王芳.論政府主導(dǎo)下的網(wǎng)絡(luò)社會(huì)治理[J].人民論壇.學(xué)術(shù)前沿,2017(7):42-53,95.

[146] 何宇華,李霞.生成式人工智能虛假信息治理的新挑戰(zhàn)及應(yīng)對策略——基于敏捷治理的視角[J].治理研究,2024,40 (4):142-156.

[147] 商湯人工智能倫理與治理委員會(huì).“平衡發(fā)展”的人工智能治理白皮書——商湯人工智能倫理治理年度報(bào)告(2022年)[R/OL].[2024-08-02].https://www.sohu.com/a/791841367_121823480.

[148] European Commission.White Paper:On Artificial Intelligence-A European approach to excellence and trust(2020)[EB/OL].[2024-08-12].https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial-intelligence-feb2020_en.pdf.

[149] 阿里巴巴人工智能治理與可持續(xù)發(fā)展研究中心.生成式人工智能治理與實(shí)踐白皮書[R/OL].[2024-07-23].https://hub.baai.ac.cn/view/33508.

[150] European Commission.High-level summary of the AI Act(2024)[EB/OL].[2024-08-12].https://artificialintelligenceact.eu/high-level-summary/.

[151] 中國信息通信研究院政策與經(jīng)濟(jì)研究所.大模型治理藍(lán)皮報(bào)告——從規(guī)則走向?qū)嵺`[R/OL].[2024-08-02].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/P020231124526622371194.pdf.

[152] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學(xué),2023,45 (3):108-123.

[153] 劉鑫,畢超.人工智能大模型的數(shù)據(jù)治理[J].信息安全與通信保密,2024,3(6):45-55.

[154] 陳銳,江奕輝.生成式AI的治理研究:以ChatGPT為例[J].科學(xué)學(xué)研究,2024,42 (1):21-30.

[155] 經(jīng)濟(jì)合作與發(fā)展組織.OECD 人工智能原則概覽[EB/OL].[2024-08-02].https://oecd.ai/en/ai-principles.

[156] ISACA.The promise and peril of the AI revolution:managing risk[R/OL].[2024-08-02].https://www.isaca.org/resources/white-papers/2023/the-promise-and-peril-of-the-ai-revolution.

[157] 上海人工智能實(shí)驗(yàn)室.周伯文:探索人工智能45°平衡律[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/US5vXn1FJ

Tu-9iMO_bJ48w.

[158] 高志宏.回應(yīng)與超越:生成式人工智能法律規(guī)制——以《生成式人工智能服務(wù)管理暫行辦法》為視角[J].社會(huì)科學(xué)輯刊,2024,3(5):121-130.

[159] Albert J.Not a solution:Meta’s new AI system to contain discriminatory ads[EB/OL].[2024-07-23].https://algorithmwatch.org/en/meta-discriminatory-ads/.

[160] 葉蓁蓁.開創(chuàng)研發(fā)應(yīng)用新范式探索“用AI治理AI”——探討智能互聯(lián)網(wǎng)時(shí)代AI應(yīng)用和治理之道[J].傳媒,2023(11):12-13.

[161] Huang L,Yu W,Ma W,et al.A survey on hallucination in large language models:Principles,taxonomy,challenges,and open questions[J].ArXiv preprint arxiv:2311.05232,2023.

[162] Zhang X,Peng B,Tian Y,et al.Self-alignment for factuality:Mitigating hallucinations in LLMs via self-evaluation[J].ArXiv preprint arXiv:2402.09267,2024.

[163] Yehuda Y,Malkiel I,Barkan O,et al.InterrogateLLM:Zero-resource hallucination detection in LLM-generated Answers[A].Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics,Bangkok,Thailand[C].2024:9333-9347.

[164] Dhuliawala S,Komeili M,Xu J,et al.Chain-of-verification reduces hallucination in large language models[J].ArXiv preprint arXiv:2309.11495,2023.

[165] Reuel A,Undheim T A.Generative AI needs adaptive governance[J].arXiv preprint arXiv:2406.04554,2024.

[166] Policy practice and digital science:Integrating complex systems,social simulation and public administration in policy research[M].Springer,2015.

[167] 童云峰.生成式人工智能技術(shù)風(fēng)險(xiǎn)的內(nèi)部管理型規(guī)制[J/OL].科學(xué)學(xué)研究,1-13[2024-07-29].https://doi.org/10.16192/j.cnki.1003-2053.20240304.001.

[168] Deloitte.State of Generative AI in the Enterprise:Q3 Report[R/OL].[2024-08-02].https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-generative-ai-in-enterprise.html.

[169] Buiten M,De Streel A,Peitz M.The law and economics of AI liability[J].Computer Law & Security Review,2023,48(1):1-23.

[170] 姚志偉,李卓霖.生成式人工智能內(nèi)容風(fēng)險(xiǎn)的法律規(guī)制[J].西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,43(5):147-160.

[171] Song H.Legal Risks and Governance Path of Generative Artificial Intelligence[J].Journal of Beijing Institute of Technology (Social Sciences Edition),2024,26(3):134-143.

[172] Zhu S,Ma G.The Chinese path to generative AI governance[J].Available at:SSRN 4551316.

[173] European Commission.AI Act enters into force[EB/OL].[2024-08-02].https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en.

[174] 朱倩倩,張振乾,高云龍.我國人工智能安全檢測能力現(xiàn)狀及治理建議[J].信息安全與通信保密,2024(5):62-68.

[175] 張學(xué)府.生成式人工智能服務(wù)信息內(nèi)容安全的三類標(biāo)準(zhǔn)——基于《生成式人工智能服務(wù)管理暫行辦法》的分析[J].中國行政管理,2024(4):120-128.

[176] 劉鑫.人工智能生成技術(shù)方案的專利法規(guī)制——理論爭議、實(shí)踐難題與法律對策[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019,37(5):82-92.

[177] Genus A,Stirling A.Collingridge and the dilemma of control:Towards responsible and accountable innovation[J].Research policy,2018,47(1):61-69.

[178] 沈芳君.生成式人工智能的風(fēng)險(xiǎn)與治理——兼論如何打破“科林格里奇困境”[J].浙江大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2024,54(6):73-91.

[179] 顧男飛.生成式人工智能發(fā)展的產(chǎn)業(yè)促進(jìn)與風(fēng)險(xiǎn)規(guī)制——以Sora為例[J/OL].圖書館論壇,1-9[2024-08-01].http://kns.cnki.net/kcms/detail/44.1306.G2.20240508.1109.004.html.

[180] 朱旭峰,樓聞佳.發(fā)展還是監(jiān)管?人工智能政策的國際比較研究[J].學(xué)海,2024(4):76-85.

[181] 胡小勇,朱敏捷,陳孝然,等.生成式人工智能教育應(yīng)用政策比較:共識(shí)、差異與實(shí)施進(jìn)路[J].中國教育信息化,2024,30(6):3-11.

[182] Li J,Cai X,Cheng L.Legal regulation of generative AI:a multidimensional construction[J].International Journal of Legal Discourse,2023,8(2):365-388.

[183] Ferrari F,van Dijck J,van den Bosch A.Observe,inspect,modify:Three conditions for generative AI governance[J].New Media & Society,2023:14614448231214811.

[184] 沈逸,高瑜.大國競爭背景下的人工智能安全治理與戰(zhàn)略穩(wěn)定[J].國際展望,2024(3):50.

[185] The White House.National Artificial Intelligence research and development strategic plan:2023 Update[EB/OL].[2024-07-21].https://www.whitehouse.gov/wp-content/uploads/2023/05/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf.

[186] National Science and Technology Council.Artificial Intelligence research and development interagency working Group.2020-2024 Progress Report:Advancing Trustworthy Artificial-Intelligence Research and Development[R/OL].[2024-07-22].https://www.nitrd.gov/pubs/AI-Research-and-Development-Progress-Report-2020-2024.pdf.

[187] Roberts H,Cowls J,Hine E,et al.Governing artificial intelligence in China and the European Union:Comparing aims and promoting ethical outcomes[J].The Information Society,2023,39(2):79-97.

[188] 洪延青.我國生成式AI新規(guī)的認(rèn)識(shí)和理解之十三:立法的中美歐比較[EB/OL].[2024-07-19].https://mp.weixin.qq.com/s/RwSt8b7L5Ceznr1Vaht1Xw.

[189] 徐磊.發(fā)展與安全并重:生成式人工智能風(fēng)險(xiǎn)的包容審慎監(jiān)管[J].理論與改革,2024,12(4):67-83.

[190] 和軍,楊慧.ChatGPT類生成式人工智能監(jiān)管的國際比較與借鑒[J].湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,26(6):119-128.

[191] 中國日報(bào)網(wǎng).AI治理:平衡發(fā)展與風(fēng)險(xiǎn),邁向全球共治[EB/OL].[2023-07-18].https://column.chinadaily.com.cn/a/202407/18/WS6698a9c1a3107cd55d26b9a3.html.

[192] Madiega T,Ilnicki R.AI investment:EU and global indicators.European Parliamentary Research Service[R/OL].[2024-08-02].https://www.europarl.europa.eu/thinktank/en/document/EPRS_ATA(2024)760392_EN.

[193] 國務(wù)院.深化大數(shù)據(jù)、人工智能與實(shí)體經(jīng)濟(jì)融合發(fā)展指導(dǎo)意見[EB/OL].[2024-07-22].https://www.gov.cn/gongbao/202

4/issue_11246/202403/content_6941846.html.

[194] 韓國產(chǎn)業(yè)通商資源部.韓政府成立“AI自主制造聯(lián)盟”加速AI與制造業(yè)融合[EB/OL].[2024-07-19].http://kr.mofcom.gov.cn/article/jmxw/202407/20240703524978.shtml.

[195] AIport.Global GenAI Landscape 2024:Roughly Half of Nations That Invest in AI Develop Generative Models[R/OL].[2024-08-02].https://hackernoon.com/global-genai-landscape-2024-roughly-half-of-nations-that-invest-in-ai-develop-generative-models.

[196] Chui M,Hazan E,Yee L,et al.生成式AI的突破之年[R/OL].[2024-07-30].https://www.mckinsey.com.cn/wp-content/uploads/2023/09/%E7%94%9F%E6%88%90%E5%BC%8FAI%E7%9A%84%E7%AA%81%E7%A0%B4%E4%B9%8B%E5%B9%B4_2023-%E9%87%91%E8%9E%8D%E5%AD%A3%E5%88%8AGenAI0908.pdf.

[197] European Court of Auditors.Special report 08/2024:EU Artificial intelligence ambition[R/OL].[2024-08-02].https://www.eca.europa.eu/en/publications?ref=SR-2024-08.

[198] 王小林,謝妮蕓.未來產(chǎn)業(yè):內(nèi)涵特征、組織變革與生態(tài)建構(gòu)[J].社會(huì)科學(xué)輯刊,2023,13(6):173-182.

[199] 董華,張皓越,高愛宇.生成式人工智能大模型賦能傳統(tǒng)出版企業(yè)轉(zhuǎn)型升級路徑研究——基于扎根理論的質(zhì)性研究[J].出版科學(xué),2024,32(4):37-46.

[200] Hine E,F(xiàn)loridi L.Artificial intelligence with American values and Chinese characteristics:a comparative analysis of American and Chinese governmental AI policies[J].AI & SOCIETY,2024,39(1):257-278.

[201] 胡玲,馬忠法.論我國企業(yè)數(shù)據(jù)合規(guī)體系的構(gòu)建及其法律障礙[J].科技與法律,2023,1(2):42-51.

[202] Tourki Y,Keisler J,Linkov I.Scenario analysis:a review of methods and applications for engineering and environmental systems[J].Environment Systems & Decisions,2013,33(1):3-20.

[203] 宋華健.論生成式人工智能的法律風(fēng)險(xiǎn)與治理路徑[J].北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,26(3):134-143.

[204] Migliorini S.China's Interim Measures on generative AI:Origin,content and significance[J].Computer Law & Security Review,2024,53(1):1-10.

[205] 丁曉東.人工智能風(fēng)險(xiǎn)的法律規(guī)制——以歐盟《人工智能法》為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(5):3-18.

[206] Hu S,Li Y.Policy Interventions and Regulations on Generative Artificial Intelligence:Key Gaps and Core Challenges[A].Proceedings of the 25th Annual International Conference on Digital Government Research[C].2024:1034-1036.

[207] 陳鳳仙,連雨璐,王娜.歐美人工智能監(jiān)管模式及政策啟示[J].中國行政管理,2024(1):77-88.

[208] 汪慶華,胡臨天.生成式人工智能責(zé)任機(jī)制的技術(shù)與法律建構(gòu)[J].中國法律評論,2024(4):114-130.

[209] UN.Advisory Body on Artificial Intelligence.Governing AI for humanity:Final report[R/OL].[2024-07-22].https://digitallibrary.un.org/record/4042280?v=pdf.

[210] United States Department of State.The council of Europe’s framework convention on Artificial Intelligence and human rights,democracy,and the rule of law[EB/OL].[2024-08-11].https://www.state.gov/the-council-of-europes-framework-convention-on-artificial-intelligence-and-human-rights-democracy-and-the-rule-of-law/.

[211] Casal-Otero L,Catala A,F(xiàn)ernández-Morante C,et al.AI literacy in K-12:a systematic literature review[J].International Journal of STEM Education,2023,10(1):29-31.

[212] Omaar,Hodan.How innovative is China in AI?Information Technology and Innovation Foundation[R/OL].[2024-08-02].https://www2.itif.org/2024-chinese-ai-innovation.pdf.

[213] 人民資訊.北京大學(xué)發(fā)布《人工智能人才培養(yǎng)方案》[EB/OL].[2024-08-15].https://sai.pku.edu.cn/info/1082/2018.htm.

作者簡介:王芳,女,南開大學(xué)商學(xué)院、南開大學(xué)網(wǎng)絡(luò)社會(huì)治理研究中心教授,博士生導(dǎo)師;朱學(xué)坤,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;劉清民,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;岳之楠,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;王美權(quán),女,南開大學(xué)商學(xué)院信息資源管理系博士研究生;張馨月,女,南開大學(xué)商學(xué)院信息資源管理系博士研究生;楊天德,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;馬鑫,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;張超,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生。