摘 要:生成式人工智能在交互性、通用性和創(chuàng)新性上的顛覆性突破,給人類(lèi)社會(huì)帶來(lái)深刻的影響與變革。但生成式人工智能技術(shù)的飛速發(fā)展令傳統(tǒng)人工智能治理范式捉襟見(jiàn)肘,尤其在輸入數(shù)據(jù)的合法性、算法的透明性、輸出結(jié)果的倫理性等方面提出全新挑戰(zhàn)。世界各國(guó)多年來(lái)在相關(guān)領(lǐng)域的立法成果,為生成式人工智能技術(shù)的法律規(guī)制打下堅(jiān)實(shí)的基礎(chǔ),但各國(guó)的治理路徑在不同維度下均有不足之處。在立法滯后性凸顯的今天,倡導(dǎo)多元協(xié)同治理和行業(yè)自律尤為重要,企業(yè)從被動(dòng)守法到積極發(fā)展負(fù)責(zé)任人工智能治理機(jī)制,是生成式人工智能技術(shù)開(kāi)發(fā)和應(yīng)用的中流砥柱。如何在不阻礙新興技術(shù)發(fā)展的同時(shí),合理地預(yù)防和規(guī)避風(fēng)險(xiǎn),是一個(gè)亟待解決卻又無(wú)法一蹴而就的問(wèn)題。
關(guān)鍵詞:生成式人工智能;法律規(guī)制;風(fēng)險(xiǎn)治理;負(fù)責(zé)任人工智能治理機(jī)制
2024年2月16日OpenAI發(fā)布了視頻大模型Sora,用戶(hù)只需輸入文本即可生成一段長(zhǎng)達(dá)60秒“單視頻多角度鏡頭”的視頻,視頻效果不僅逼真且極具想象力。這距離ChatGPT橫空出世并在兩個(gè)月就獲得上億用戶(hù)的盛況不足兩年。生成式人工智能技術(shù)的出現(xiàn),標(biāo)志著人工智能從分析決策到交互創(chuàng)新的轉(zhuǎn)化,從學(xué)習(xí)知識(shí)到構(gòu)建邏輯的演變,這不僅極大地提高了企業(yè)的生產(chǎn)力,還帶來(lái)了行業(yè)性商業(yè)模式的顛覆式變革。在賦能科技造福社會(huì)的同時(shí),各界對(duì)生成式人工智能技術(shù)合法性及合規(guī)性的質(zhì)疑聲也不絕于耳。2023年3月,圖靈獎(jiǎng)得主約書(shū)亞·本吉奧、特斯拉CEO埃隆·馬斯克、蘋(píng)果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等在內(nèi)的數(shù)千名企業(yè)家、學(xué)者及各界人士強(qiáng)烈呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)。近年來(lái),世界各國(guó)政府、研究機(jī)構(gòu)、行業(yè)組織和企業(yè)在人工智能風(fēng)險(xiǎn)治理和法律規(guī)制領(lǐng)域做出了不懈努力并發(fā)展出各具特色的治理路徑。我國(guó)作為和美國(guó)并駕齊驅(qū)的人工智能技術(shù)大國(guó),在人工智能和深度合成方面的立法探索也頗見(jiàn)成效。2017年國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,提出在2025年“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”的目標(biāo)。本文從生成式人工智能的應(yīng)用場(chǎng)景和技術(shù)特點(diǎn)出發(fā),總結(jié)其風(fēng)險(xiǎn)類(lèi)型以及各國(guó)的法律規(guī)制和治理路徑,并探討了業(yè)內(nèi)領(lǐng)先企業(yè)在負(fù)責(zé)任人工智能治理機(jī)制方面的成果和經(jīng)驗(yàn)。
一、生成式人工智能應(yīng)用
生成式人工智能技術(shù)是一種通過(guò)對(duì)海量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,結(jié)合簡(jiǎn)單適配和高效微調(diào),生成邏輯自洽又不失原始數(shù)據(jù)特征的全新內(nèi)容的深度學(xué)習(xí)技術(shù)[1]。紅杉資本發(fā)表過(guò)一篇與ChatCPT-3合著的文章《生成式人工智能:創(chuàng)造全新世界》,生動(dòng)描述了生成式人工智能的應(yīng)用場(chǎng)景,遍及文學(xué)創(chuàng)作、圖形處理、游戲設(shè)計(jì)、代碼編寫(xiě)、音樂(lè)創(chuàng)作等諸多領(lǐng)域。全球領(lǐng)先的技術(shù)研究和咨詢(xún)公司Gartner邀請(qǐng)2500位來(lái)自世界各地的企業(yè)高管評(píng)價(jià)生成式人工智能技術(shù)的商業(yè)價(jià)值,其中38%的高管認(rèn)為生成式人工智能可有效提升客戶(hù)體驗(yàn),26%認(rèn)為可增加銷(xiāo)售收入,17%認(rèn)為可優(yōu)化成本結(jié)構(gòu)。麥肯錫咨詢(xún)公司預(yù)測(cè),生成式人工智能每年將為全球經(jīng)濟(jì)增加相當(dāng)于2.6萬(wàn)億至4.4萬(wàn)億美元的價(jià)值[2]。波士頓咨詢(xún)公司分析總結(jié)了生成式人工智能對(duì)各行業(yè)產(chǎn)生的變革性影響[3],如約88%的代碼將由生成式人工智能技術(shù)輔助完成、基于模特身形自動(dòng)生成的時(shí)尚穿搭效果圖可提升零售轉(zhuǎn)化率1.5倍、生成式算法可極大縮短發(fā)現(xiàn)治療IPF的新藥方向的時(shí)間(數(shù)年至21天)、利用生成式人工智能技術(shù)的保險(xiǎn)科技平臺(tái)最多可降低30%客戶(hù)服務(wù)成本等。羅蘭貝格咨詢(xún)公司預(yù)測(cè),生成式語(yǔ)言模型技術(shù)和生成式圖像模型技術(shù)有望在中國(guó)各行業(yè)中帶來(lái)1.6%的成本降低,相當(dāng)于3.7萬(wàn)億元[4]。在普華永道“2023全球勞動(dòng)力調(diào)研”中,超過(guò)40個(gè)國(guó)家和地區(qū)近3萬(wàn)名受訪(fǎng)者回復(fù),預(yù)計(jì)未來(lái)五年人工智能將對(duì)他們的職業(yè)生涯產(chǎn)生積極影響,包括提高效率、學(xué)習(xí)新技能和創(chuàng)造新的就業(yè)機(jī)會(huì)[5]。
二、生成式人工智能的風(fēng)險(xiǎn)
生成式人工智能技術(shù)在交互性、通用性和創(chuàng)新性上的顛覆性突破,給人類(lèi)社會(huì)帶來(lái)的潛在風(fēng)險(xiǎn)更具現(xiàn)實(shí)緊迫性。國(guó)內(nèi)外法學(xué)界、科技界、商界及機(jī)構(gòu)投資者等對(duì)數(shù)據(jù)安全保障、個(gè)人信息保護(hù)、著作權(quán)歸屬、問(wèn)責(zé)機(jī)制、算法歧視及風(fēng)險(xiǎn)治理模式等諸多課題進(jìn)行了深度探討和研究。從“數(shù)據(jù)——算法——輸出”的邏輯出發(fā),生成式人工智能的風(fēng)險(xiǎn)主要體現(xiàn)在三個(gè)方面:輸入數(shù)據(jù)的合法性、算法的透明性和可解釋性、輸出結(jié)果及應(yīng)用的倫理性和合規(guī)性。
(一)輸入數(shù)據(jù)合法性
生成式人工智能技術(shù)的海量訓(xùn)練數(shù)據(jù)形式多樣且來(lái)源廣泛,包括開(kāi)源數(shù)據(jù)庫(kù)、通過(guò)爬蟲(chóng)技術(shù)獲取的公開(kāi)數(shù)據(jù)、人工標(biāo)注數(shù)據(jù)以及合成數(shù)據(jù)等。
開(kāi)源數(shù)據(jù)是政府或機(jī)構(gòu)發(fā)布的可免費(fèi)使用和重復(fù)利用的合法數(shù)據(jù)集,如ChatGPT的訓(xùn)練數(shù)據(jù)集大多是從公共語(yǔ)料庫(kù)中提取的開(kāi)源數(shù)據(jù),包括Wikipedia、Common Crawl等。但利用開(kāi)源數(shù)據(jù)進(jìn)一步提供商業(yè)化服務(wù),需要遵守相關(guān)的開(kāi)源許可協(xié)議,如很多許可協(xié)議是限制開(kāi)源數(shù)據(jù)的云使用。
通過(guò)爬蟲(chóng)技術(shù)獲取的網(wǎng)絡(luò)數(shù)據(jù),不可避免地可能攜帶個(gè)人敏感信息或商業(yè)機(jī)密,在未脫敏和未授權(quán)的情況下直接使用極可能侵犯?jìng)€(gè)人隱私權(quán)或知識(shí)產(chǎn)權(quán)[6],2023年人工智能繪畫(huà)模型開(kāi)發(fā)商Stability AI被全球知名的圖片提供商華蓋創(chuàng)意(Getty Images)告上法庭,因Stability AI非法從其網(wǎng)站上竊取了大量圖片作為AI圖像生成工具Stable Diffusion的素材而謀取商業(yè)利益,原告稱(chēng)這種行為侵犯了數(shù)百萬(wàn)藝術(shù)家的權(quán)利。
人工標(biāo)注數(shù)據(jù)是對(duì)數(shù)據(jù)集的具體信息以及上下文進(jìn)行注釋?zhuān)荚谔岣哂?xùn)練模型的適應(yīng)性和準(zhǔn)確性,但標(biāo)注過(guò)程中可能導(dǎo)入偏見(jiàn)甚至錯(cuò)誤信息,使缺陷內(nèi)嵌在訓(xùn)練過(guò)程中,導(dǎo)致算法偏見(jiàn)的滋生和放大。
合成數(shù)據(jù)是人工或計(jì)算機(jī)程序生成的數(shù)據(jù),以模擬真實(shí)場(chǎng)景,從而增加數(shù)據(jù)的多樣性和模型的魯棒性,除了主觀(guān)偏見(jiàn)或者歧視風(fēng)險(xiǎn),合成數(shù)據(jù)缺乏真實(shí)場(chǎng)景的某些特征,因此可能加劇生成結(jié)果錯(cuò)誤或者不合理的風(fēng)險(xiǎn)。
訓(xùn)練數(shù)據(jù)是人工智能技術(shù)的基礎(chǔ),數(shù)據(jù)缺陷是所有深度學(xué)習(xí)技術(shù)難以修復(fù)的先天不足,因此數(shù)據(jù)風(fēng)險(xiǎn)通常是治理的重中之重。在將數(shù)據(jù)投喂到算法模型之前,訓(xùn)練數(shù)據(jù)必須經(jīng)過(guò)篩選、清洗、劃分等多個(gè)處理步驟,以確保數(shù)據(jù)的合法性、合規(guī)性并符合道德規(guī)范。
(二)算法的透明性和可解釋性
算法的透明性指技術(shù)提供方對(duì)用戶(hù),包括不限于使用者及數(shù)據(jù)提供方,明確告知“我是誰(shuí),我為什么要使用你的數(shù)據(jù)及如何使用?!蓖该餍灾荚谝怨降姆绞胶陀脩?hù)建立關(guān)系,用戶(hù)可自愿選擇要不要建立關(guān)系以及如何建立關(guān)系。算法的可解釋性是指以用戶(hù)可理解的方式闡述算法決策過(guò)程和結(jié)果,用戶(hù)不僅了解到人工智能決策的依據(jù)及可能產(chǎn)生的影響,并且可以啟動(dòng)司法程序捍衛(wèi)自己的權(quán)利[7]。可解釋性包括全局可解釋性和局部可解釋性。全局可解釋性指算法的行為模式和決策邏輯的內(nèi)涵描述,局部可解釋性指算法針對(duì)特定目標(biāo)進(jìn)行決策的過(guò)程和行為[8]??山忉屝允强尚判缘闹匾卣?,是人類(lèi)施加算法控制權(quán)的著力點(diǎn)[9]?;诖笠?guī)模語(yǔ)言模型的ChatGPT,構(gòu)筑在預(yù)訓(xùn)練語(yǔ)言模型、上下文學(xué)習(xí)、基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)等復(fù)雜的底層技術(shù)之上,屬于典型的“黑箱算法”。目前尚無(wú)技術(shù)手段對(duì)黑箱算法進(jìn)行全局解釋?zhuān)植拷忉尩目尚判酝鶄涫茉嵅10]。比如在醫(yī)療行業(yè)應(yīng)用中,即使生成式算法模型對(duì)病人的疾病進(jìn)行準(zhǔn)確診斷,但由于算法復(fù)雜性高,無(wú)法給出診斷依據(jù),這將會(huì)極大影響結(jié)果可信度,從而影響模型的實(shí)際應(yīng)用和推廣。算法可解釋性的強(qiáng)弱,直接關(guān)系到?jīng)Q策行為及決策結(jié)果的合法性、安全性和可靠性的評(píng)估和判斷[11]。算法的不可解釋及訓(xùn)練數(shù)據(jù)的先天不足,使算法歧視向“無(wú)意識(shí)”轉(zhuǎn)變成為可能甚至是趨勢(shì)[12]。
(三)輸出結(jié)果及應(yīng)用的倫理性和合規(guī)性
數(shù)據(jù)安全和算法歧視的風(fēng)險(xiǎn),在所有人工智能技術(shù)中都有體現(xiàn),但相較于以預(yù)測(cè)和判斷為主的傳統(tǒng)人工智能技術(shù),生成式人工智能的負(fù)外部性和有害性成倍攀升。算法可能在一定情境中產(chǎn)生“幻覺(jué)”[13],即與現(xiàn)實(shí)情況相悖卻又令人信服的“胡編亂造的真話(huà)”。美國(guó)新聞可信度評(píng)估與研究機(jī)構(gòu)News Gurd通過(guò)對(duì)ChatGPT的測(cè)試發(fā)現(xiàn),ChatGPT能在幾秒鐘內(nèi)改變信息并產(chǎn)生大量很有說(shuō)服力卻無(wú)信源的內(nèi)容[14]。這種不可預(yù)測(cè)的違背技術(shù)提供方或用戶(hù)意圖的內(nèi)容,可能涉及意識(shí)形態(tài)和價(jià)值觀(guān)等方面如國(guó)別、種族、職業(yè)、年齡、性別、窮富差距的甄別與選擇,可能觸犯法律如違反競(jìng)爭(zhēng)法的商業(yè)建議,甚至可能是危害國(guó)家安全的反動(dòng)言論[15],這無(wú)疑無(wú)論對(duì)個(gè)人成長(zhǎng)、企業(yè)經(jīng)營(yíng)乃至社會(huì)安定和諧造成不可估量的不利影響[16]。
生成式人工智能另外一個(gè)備受矚目的爭(zhēng)議是法律責(zé)任認(rèn)定。當(dāng)生成內(nèi)容被判定為知識(shí)產(chǎn)權(quán)侵權(quán)或與反歧視法規(guī)定相左,導(dǎo)致個(gè)人利益或社會(huì)公共利益受到侵害,誰(shuí)是法律責(zé)任承擔(dān)方?模型提供方、數(shù)據(jù)提供方和使用者,誰(shuí)承擔(dān)主要責(zé)任?適用嚴(yán)格責(zé)任還是過(guò)錯(cuò)責(zé)任?傳統(tǒng)的“安全港”機(jī)制無(wú)法適用于生成式人工智能技術(shù)應(yīng)用,OpenAI首席執(zhí)行官Sam Altman也曾表示立法者應(yīng)制定新的法律,以保護(hù)大模型不會(huì)因?yàn)檩敵鰞?nèi)容而獨(dú)自承擔(dān)所有法律責(zé)任。
此外,生成式人工智能是以海量訓(xùn)練數(shù)據(jù)為基礎(chǔ),如ChatGPT-3訓(xùn)練數(shù)據(jù)45萬(wàn)億字節(jié)訓(xùn)練數(shù)據(jù),1750億個(gè)參數(shù),最新的GPT-4參數(shù)數(shù)量達(dá)萬(wàn)億。訓(xùn)練和運(yùn)行大型生成式人工智能模型需要使用大量的計(jì)算資源,這些資源通常由大型數(shù)據(jù)中心提供,而數(shù)據(jù)中心的能源消耗和碳排放量都很高,這必然對(duì)于環(huán)境保護(hù)和可持續(xù)發(fā)展帶來(lái)極大挑戰(zhàn)[17]。
三、人工智能技術(shù)法律規(guī)制
面對(duì)人工智能技術(shù)帶來(lái)的治理模式范式轉(zhuǎn)變,現(xiàn)行法律規(guī)制體系在應(yīng)對(duì)人工智能技術(shù)的風(fēng)險(xiǎn)和治理問(wèn)題上捉襟見(jiàn)肘。全球監(jiān)管者和立法機(jī)構(gòu)經(jīng)多年研究和實(shí)踐,取得一定進(jìn)展,但各國(guó)在不同維度上也存在明顯的缺陷。
歐盟在人工智能技術(shù)研發(fā)和應(yīng)用領(lǐng)域并未處于領(lǐng)先地位,但在立法和倫理規(guī)范的成就上先行于技術(shù)發(fā)展更為先進(jìn)的美國(guó)和中國(guó)。2018年歐盟通過(guò)的《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,“GDPR”),以“全世界個(gè)人隱私保護(hù)領(lǐng)域最為嚴(yán)格和全面的立法”聞名,從數(shù)據(jù)源頭對(duì)人工智能的應(yīng)用進(jìn)行了規(guī)制。2019年4月,歐盟先后發(fā)布了兩份重量級(jí)指導(dǎo)性文件《可信賴(lài)的人工智能倫理指南》①(下文簡(jiǎn)稱(chēng)“倫理指南”)和《算法責(zé)任與透明治理框架》②(下文簡(jiǎn)稱(chēng)“治理框架”),對(duì)人工智能技術(shù)發(fā)展和治理元規(guī)則的研究奠定了堅(jiān)實(shí)的基礎(chǔ)?!秱惱碇改稀诽岢隹尚刨?lài)人工智能在其生命全周期應(yīng)兼具三項(xiàng)道德準(zhǔn)則:合法性、倫理性、技術(shù)及社會(huì)穩(wěn)健性?!吨卫砜蚣堋穭t從透明性和問(wèn)責(zé)制角度出發(fā),總結(jié)了監(jiān)管的四個(gè)維度:提高思想、公共領(lǐng)域算法應(yīng)用問(wèn)責(zé)制、法律規(guī)制以及全球性的協(xié)同治理。2021年4月歐盟發(fā)布的《人工智能法案》(下文簡(jiǎn)稱(chēng)“法案”),歷經(jīng)三年的修改和談判,終于在2024年1月獲得歐盟27個(gè)成員國(guó)一致批準(zhǔn),成為全球首部人工智能領(lǐng)域全面監(jiān)管的綜合性法律,為各國(guó)在人工智能領(lǐng)域的立法提供了系統(tǒng)性和技術(shù)性的參照。其中對(duì)于生成式大規(guī)模語(yǔ)言模型的應(yīng)用,強(qiáng)調(diào)了權(quán)利人可以選擇保留對(duì)其作品或其他主體的權(quán)利,通用人工智能模型的提供者如果想對(duì)這些作品進(jìn)行文本和數(shù)據(jù)挖掘,需要獲得權(quán)利人的授權(quán)。法案特別強(qiáng)調(diào)要提高算法透明性,強(qiáng)化內(nèi)容發(fā)布者的披露義務(wù),切實(shí)落實(shí)有關(guān)檢測(cè)和標(biāo)識(shí)生成內(nèi)容的義務(wù)等。
美國(guó)目前尚未有針對(duì)人工智能技術(shù)的綜合性法律。2021年生效的《國(guó)家人工智能倡議法》主要目的是通過(guò)專(zhuān)門(mén)的人工智能委員會(huì)協(xié)調(diào)統(tǒng)籌人工智能的研究和應(yīng)用,以促進(jìn)國(guó)家經(jīng)濟(jì)進(jìn)步和保障國(guó)家安全。此后,美國(guó)政府陸續(xù)發(fā)布了一系列無(wú)強(qiáng)制性效力的政策、框架及白皮書(shū)。2023年5月,拜登政府宣布推進(jìn)現(xiàn)有生成式人工智能系統(tǒng)的評(píng)估和風(fēng)險(xiǎn)管理;7月微軟、谷歌、OpenAI等七家科技巨頭在白宮自愿承諾遵守八項(xiàng)人工智能監(jiān)管舉措,以提高人工智能技術(shù)的安全性和可信度。美國(guó)國(guó)家科學(xué)技術(shù)研究所曾向全社會(huì)征集想法和意見(jiàn),以有效地道德地發(fā)展和應(yīng)用生成式人工智能技術(shù)。2023年8月美國(guó)國(guó)防部宣布成立生成式人工智能和大語(yǔ)言模型利馬工作組,旨在推進(jìn)對(duì)生成式人工智能能力的探索和負(fù)責(zé)任治理體系的部署。2023年10月,拜登政府升級(jí)對(duì)人工智能的監(jiān)管力度,以行政命令的形式,要求開(kāi)發(fā)者在向公眾發(fā)布可能對(duì)美國(guó)國(guó)家安全、經(jīng)濟(jì)、公共健康或保障構(gòu)成風(fēng)險(xiǎn)的人工智能系統(tǒng)之前,應(yīng)根據(jù)《國(guó)防生產(chǎn)法》與美國(guó)政府分享相關(guān)安全測(cè)試(如紅隊(duì)測(cè)試③)的結(jié)果。
歐盟的法案基于風(fēng)險(xiǎn)分級(jí)治理同時(shí)注重個(gè)體賦權(quán),美國(guó)的監(jiān)管措施以技術(shù)應(yīng)用為核心,以行業(yè)自律為主導(dǎo),我國(guó)在人工智能領(lǐng)域的風(fēng)險(xiǎn)治理和法律規(guī)制,以主體責(zé)任為路徑,鼓勵(lì)和監(jiān)管并舉。2021年先后發(fā)布實(shí)施的《中華人民共和國(guó)數(shù)據(jù)安全保護(hù)法》和《中華人民共和國(guó)個(gè)人信息保護(hù)法》從法律角度規(guī)范個(gè)人信息和數(shù)據(jù)處理活動(dòng),促進(jìn)個(gè)人信息合理利用,保障數(shù)據(jù)安全、維護(hù)國(guó)家主權(quán)和發(fā)展利益。2022年,網(wǎng)信辦、工信部、公安部等聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》規(guī)范互聯(lián)網(wǎng)信息服務(wù)算法推薦活動(dòng),包括生成合成類(lèi)、決策調(diào)度類(lèi)等算法,要求算法推薦服務(wù)提供者落實(shí)算法安全主體責(zé)任,監(jiān)管部門(mén)根據(jù)算法推薦服務(wù)的內(nèi)容類(lèi)別、用戶(hù)規(guī)模、數(shù)據(jù)重要程度等因素對(duì)算法推薦服務(wù)提供者實(shí)施分級(jí)分類(lèi)管理,包括備案審查及安全性評(píng)估。2022年11月網(wǎng)信辦等部門(mén)聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)利用深度學(xué)習(xí)生成內(nèi)容的技術(shù)應(yīng)用進(jìn)一步提出明確要求,包括深度合成服務(wù)提供者應(yīng)落實(shí)信息安全主體責(zé)任。國(guó)務(wù)院辦公廳2023年6月發(fā)布的《國(guó)務(wù)院2023年度立法工作計(jì)劃》中預(yù)備提請(qǐng)全國(guó)人大常委會(huì)審議的法律草案中包括人工智能法律草案。針對(duì)生成式人工智能技術(shù)的洶涌浪潮,國(guó)家網(wǎng)信辦聯(lián)合國(guó)家發(fā)展改革委、教育部、科技部、工信部、公安部和國(guó)家廣電總局于2023年7月聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(下文簡(jiǎn)稱(chēng)“辦法”),以包容審慎的治理方式,對(duì)技術(shù)應(yīng)用進(jìn)行分類(lèi)分級(jí)監(jiān)管,既吸收了歐盟和美國(guó)在相關(guān)領(lǐng)域的立法經(jīng)驗(yàn),又體現(xiàn)中國(guó)特色社會(huì)主義法治精神。辦法規(guī)定了生成式人工智能的技術(shù)發(fā)展與治理規(guī)則、服務(wù)規(guī)范、監(jiān)督機(jī)制以及法律責(zé)任。2023年8月全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)秘書(shū)處發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識(shí)方法》,針對(duì)利用生成式人工智能技術(shù)向公眾提供內(nèi)容的服務(wù)提供者,規(guī)范其生成內(nèi)容的標(biāo)識(shí)方式,以提高生成式人工智能技術(shù)應(yīng)用的安全管理水平。2024年2月,全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布《生成式人工智能服務(wù)安全基本要求》,首次提出生成式人工智能服務(wù)提供者需遵循的安全方面的基本要求,包括語(yǔ)料安全、模型安全、安全措施等,并給出了安全評(píng)估要求。
雖然我國(guó)在人工智能領(lǐng)域的立法成就斐然,但不可否認(rèn)的是主體問(wèn)責(zé)的治理路徑可能存在問(wèn)題,尤其在生成式人工智能的管理中更為彰顯。《辦法》對(duì)生成式人工智能服務(wù)提供者(下文簡(jiǎn)稱(chēng)“提供者”)的義務(wù)規(guī)定過(guò)高,從訓(xùn)練階段到終端應(yīng)用的全周期,包括數(shù)據(jù)審查、內(nèi)容標(biāo)識(shí)、網(wǎng)絡(luò)信息安全、違法內(nèi)容處置到監(jiān)督管理等諸多方面[18]。這會(huì)導(dǎo)致提供者的研發(fā)熱情和技術(shù)的應(yīng)用推廣遭到過(guò)度限制和阻礙。同時(shí),深度合成算法的自我演進(jìn)和迭代,由提供者承擔(dān)這種動(dòng)態(tài)的技術(shù)風(fēng)險(xiǎn)不甚合理。相較于提供者,《辦法》對(duì)生成式人工智能服務(wù)的使用者(下文簡(jiǎn)稱(chēng)“使用者”)的監(jiān)管和規(guī)范仍然處于較低的程度。在實(shí)際應(yīng)用中,使用者在生成內(nèi)容的利用和傳播上往往更加廣泛,加之《辦法》對(duì)使用者的顯性披露義務(wù)規(guī)定欠缺[19],這種不平衡的義務(wù)和責(zé)任分布在實(shí)操中必然帶來(lái)問(wèn)題,因此合理設(shè)定提供者和使用者的義務(wù)是化解技術(shù)應(yīng)用風(fēng)險(xiǎn)的重要保障。
其次,人工智能技術(shù)應(yīng)用與場(chǎng)景緊密結(jié)合,學(xué)界一種代表觀(guān)點(diǎn)是應(yīng)以單行法律和法規(guī)的形式施以針對(duì)性治理,比較典型的是金融行業(yè)的智慧投顧和無(wú)人駕駛[20]。辦法中提到的算法偏見(jiàn)、知識(shí)產(chǎn)權(quán)侵權(quán)、壟斷和不當(dāng)競(jìng)爭(zhēng)等風(fēng)險(xiǎn),需要結(jié)合具體技術(shù)和數(shù)據(jù)特征并適配應(yīng)用場(chǎng)景再加以規(guī)制[21]。我國(guó)目前已出臺(tái)了一系列針對(duì)人工智能應(yīng)用的行業(yè)性規(guī)范和政策,如藥監(jiān)局發(fā)布的《人工智能醫(yī)用軟件產(chǎn)品分類(lèi)界定指導(dǎo)原則》和《人工智能醫(yī)療器械等6項(xiàng)注冊(cè)審查指導(dǎo)原則和技術(shù)審評(píng)要點(diǎn)》、最高法發(fā)布的《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見(jiàn)》等,但整體位階較低,強(qiáng)制性較弱,欠缺系統(tǒng)性。
此外,人工智能技術(shù)的分類(lèi)分級(jí)監(jiān)管路徑有待進(jìn)一步論證和改進(jìn)。生成式人工智能的應(yīng)用類(lèi)型和風(fēng)險(xiǎn)等級(jí)呈現(xiàn)不確定性。即使在通常低風(fēng)險(xiǎn)的場(chǎng)景下,某些情境同樣可能觸發(fā)高風(fēng)險(xiǎn)后果。對(duì)風(fēng)險(xiǎn)等級(jí)和類(lèi)型進(jìn)行靜態(tài)的評(píng)估,缺乏合理性和準(zhǔn)確性。但若以寧枉勿縱的精神分級(jí)監(jiān)管,又會(huì)嚴(yán)重阻礙技術(shù)的發(fā)展進(jìn)步。前車(chē)之鑒——?dú)W盟GDPR,2018年實(shí)施之初,由于過(guò)分嚴(yán)苛,對(duì)數(shù)字經(jīng)濟(jì)的負(fù)面影響嚴(yán)重,美國(guó)經(jīng)濟(jì)研究局報(bào)告顯示,GDPR實(shí)施后的六個(gè)月,歐盟企業(yè)的融資總額縮水近30%[22]。
總之,立法滯后性在人工智能時(shí)代愈加凸顯,即使嚴(yán)苛到被人詬病的GDPR也無(wú)法解決所有數(shù)據(jù)隱私的道德和聲譽(yù)風(fēng)險(xiǎn),目前也沒(méi)有法律框架可盡數(shù)人工智能——尤其是生成式人工智能的風(fēng)險(xiǎn)并加以規(guī)制。因此,歐盟和美國(guó)都主張采用多元主體廣泛參與的模式,從政府主導(dǎo)向政府和企業(yè)協(xié)同治理模式轉(zhuǎn)型。其中,企業(yè)、科研機(jī)構(gòu)和行業(yè)組織在負(fù)責(zé)任人工智能治理機(jī)制方面的成就尤為值得關(guān)注。
四、負(fù)責(zé)任人工智能治理機(jī)制
Responsible Artificial Intelligent (下文簡(jiǎn)稱(chēng)“RAI”)負(fù)責(zé)任人工智能是一套包含原則、政策、工具和流程的治理機(jī)制,旨在確保人工智能系統(tǒng)從數(shù)據(jù)采集、技術(shù)開(kāi)發(fā)及場(chǎng)景應(yīng)用全周期的合法性及道德性[23]。RAI治理機(jī)制在法律體系尚未完善的環(huán)境下,不僅為行業(yè)內(nèi)技術(shù)發(fā)展樹(shù)立了道德標(biāo)桿,也是企業(yè)自律和風(fēng)險(xiǎn)控制的底層邏輯。根據(jù)波士頓咨詢(xún)和《MIT斯隆管理評(píng)論》2022年對(duì)全球22個(gè)行業(yè)96家公司上千名企業(yè)高管的調(diào)研,42%受訪(fǎng)者表示RAI治理機(jī)制已經(jīng)或應(yīng)該是企業(yè)首要戰(zhàn)略方向之一,52%受訪(fǎng)者表示本公司已經(jīng)建立了RAI治理機(jī)制。
微軟于2016年啟動(dòng)RAI機(jī)制,2018年提出人工智能技術(shù)開(kāi)發(fā)應(yīng)用的六大基本原則:公平性、可靠性和安全性、隱私和安全、包容性、透明度和問(wèn)責(zé)制。2022年6月,微軟發(fā)布了由三十多位專(zhuān)家共同編纂的“負(fù)責(zé)任人工智能標(biāo)準(zhǔn)”。標(biāo)準(zhǔn)詳細(xì)闡述了人工智能系統(tǒng)開(kāi)發(fā)團(tuán)隊(duì)在實(shí)際工作中應(yīng)遵守的切實(shí)可行的目標(biāo),通過(guò)對(duì)廣泛的指導(dǎo)原則進(jìn)行分解,編制具體的行為規(guī)范,利用培訓(xùn)、工具和測(cè)試等手段賦能行為規(guī)范落地,例如影響評(píng)估、數(shù)據(jù)治理和人工監(jiān)督等,并通過(guò)定期審計(jì)、監(jiān)管、公布等形式,確保人工智能系統(tǒng)在整個(gè)系統(tǒng)生命周期中符合負(fù)責(zé)任原則。由此,微軟的RAI機(jī)制形成閉環(huán)(見(jiàn)圖1)。
阿里巴巴人工智能治理與可持續(xù)發(fā)展研究中心(下文簡(jiǎn)稱(chēng)“AAIG”)聯(lián)合中國(guó)信通院在2022年世界人工智能大會(huì)上發(fā)表了《人工智能治理與可持續(xù)發(fā)展實(shí)踐白皮書(shū)》④,提出技術(shù)體系應(yīng)以“可用、可靠、可信”為原則,治理目標(biāo)兼顧“發(fā)展生產(chǎn)力,保護(hù)主體權(quán)益”以及倡導(dǎo)“人人受益、責(zé)任擔(dān)當(dāng)、開(kāi)放共享”的價(jià)值導(dǎo)向,“構(gòu)建全生命周期風(fēng)險(xiǎn)分類(lèi)治理機(jī)制”(見(jiàn)圖2)。白皮書(shū)中不僅有詳盡的治理機(jī)制的總結(jié)和建議,還分享了具體的技術(shù)、規(guī)范和專(zhuān)題研究,如維護(hù)電商平臺(tái)信息真實(shí)和競(jìng)爭(zhēng)公平、如何構(gòu)建行之有效的算法透明等。
總結(jié)國(guó)內(nèi)外科技巨頭在RAI治理元規(guī)則上的成就,見(jiàn)表1。主要圍繞安全、可信、透明、平等展開(kāi)。治理路徑以多元協(xié)同和開(kāi)放共治為主導(dǎo)。RAI治理機(jī)制,在具體場(chǎng)景下也不斷迭代發(fā)展,如在智慧醫(yī)療中的應(yīng)用,醫(yī)療適應(yīng)性、患者偏好等臨床倫理學(xué)的考量,并入智慧醫(yī)療場(chǎng)景的治理原則[24]。
五、結(jié)語(yǔ)
“萬(wàn)物皆可生成”的時(shí)代已經(jīng)來(lái)臨,拉伯雷曾說(shuō)“智慧不屬于惡毒的心靈,沒(méi)有良心的科學(xué)只是靈魂的毀滅”。如何使社會(huì)進(jìn)步的參與者合乎道德倫理地負(fù)責(zé)任地使用生成式智能技術(shù),營(yíng)造監(jiān)管和鼓勵(lì)并舉的法治環(huán)境,是立法者亟待解決又不能一蹴而就的問(wèn)題。微軟全球總裁、首席法務(wù)官2019年在其論述人工智能和倫理的著作中提出的“不要問(wèn)計(jì)算機(jī)能做什么,告訴計(jì)算機(jī)該做什么”。
注 釋?zhuān)?/p>
① 《可信賴(lài)的人工智能倫理指南》,載https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai,于2024年2月23日訪(fǎng)問(wèn)。
② 《算法責(zé)任與透明治理框架》,載https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf,于2024年2月23日訪(fǎng)問(wèn)。
③ 紅隊(duì)測(cè)試在過(guò)去指用于測(cè)試安全漏洞的系統(tǒng)對(duì)抗攻擊,載https://learn.microsoft.com/zh-cn/azure/ai-services/openai/concepts/red-tea
ming#what-is-red-teaming,于2024年2月23日訪(fǎng)問(wèn)。
④ 《人工智能治理與可持續(xù)發(fā)展實(shí)踐白皮書(shū)》,載s.alibaba.com/cn/aaigWhitePaperDetails,于2024年2月23日訪(fǎng)問(wèn)。
參考文獻(xiàn):
[1] 張熙,楊小汕,徐常勝.ChatGPT及生成式人工智能現(xiàn)狀及未來(lái)發(fā)展方向[J].中國(guó)科學(xué)基金,2023,37(5):743-750.
[2] MCKINSEY DIGITAL.Economic Potential of Generative AI: The Next Productivity Frontier[EB/OL].[2024-02-23].https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#key-insi
ghts.
[3] BCG數(shù)智港.生成式AI大潮來(lái)襲,你準(zhǔn)備好了么[EB/OL].[2024-02-23].https://mp.weixin.qq.com/s/sCZhcsjMaMdPss8KNtu2MA.
[4] 羅蘭貝格.通用人工智能的曙光:生成式人工智能技術(shù)的產(chǎn)業(yè)影響[EB/OL].[2024-02-23].https://www.rolandberger.com/publications/publication_pdf/AIGC_whitepaper_CN-2.pdf
[5] PWC’S Global Workforce Hopes and Fears Survey 2023[EB/OL].[2024-02-23].https://www.pwc.com/gx/en/issues/workforce/hope
s-and-fears.html.
[6] 肖鳳.爬蟲(chóng)技術(shù)獲取數(shù)據(jù)合法性[N].檢察日?qǐng)?bào),2022-02-10.
[7] 張煒羿.ChatGPT沖擊下敏感個(gè)人信息的應(yīng)對(duì)與保護(hù)[J].湖北經(jīng)濟(jì)學(xué)院學(xué)報(bào):人文社會(huì)科學(xué)版,2023(9):86-91.
[8] CHANLEY T.HOWELL.The Most Critical Factors for AI Legal Compliance: Transparency and Explainability[EB/OL].[2024-02-13].https://www.foley.com/insights/publications/2023/09/critical-fact
ors-ai-legal-compliance-transparency.
[9] 紀(jì)守領(lǐng),李進(jìn)峰等.機(jī)器學(xué)習(xí)模型可解釋性方法、應(yīng)用與安全研究綜述[J].計(jì)算機(jī)研究與發(fā)展,2019(10):2071-2096.
[10] ICO.Explaining Decisions Made with AI[EB/OL].[2024-02-23].https://ico.org.uk/media/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/guidance-on-ai-and-data-protect
ion-2-0.pdf.
[11] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法,2023(3):108-123.
[12] 楊玉曉.人工智能算法歧視刑法規(guī)制路徑研究[J].法律適用.2023(4):86-94.
[13] JUNYI LI, XIAOXUE CHENG, WAYNE XIN ZHAO et al.HaluEval:A Large Scale Hallucination Evaluation Benchmark for Large Language Models[C].Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing.Singapore:Association for Computational Linguistics,2023:6449-6464.
[14] 鈄曉東.論生成式人工智能的數(shù)據(jù)安全風(fēng)險(xiǎn)及回應(yīng)型治理[J].東方法學(xué),2023(5):106-116.
[15] 羅世杰,賀國(guó)榮.生成式AI算法訓(xùn)練風(fēng)險(xiǎn)的合規(guī)管理研究[J].湖北經(jīng)濟(jì)學(xué)院學(xué)報(bào),2023(6):106-115.
[16] 武林娜,宋愷,王淞鶴.生成式人工智能對(duì)個(gè)人信息安全的挑戰(zhàn)及應(yīng)對(duì)策略[J].信息通信技術(shù)與政策,2024,50(1):13-18.
[17] HILIPP HACKER.Sustainable AI Regulation.[EB/OL].[2023-08-23].https://www.researchgate.net/publication/371223358_Sustainable_AI_Regulation.
[18] 李彤.通用人工智能技術(shù)提供者義務(wù)的審視與優(yōu)化[J].東方法學(xué),2023(5):70-81.
[19] 姚志偉,李卓霖.生成式人工智能內(nèi)容風(fēng)險(xiǎn)的法律規(guī)制[J].西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(5):147-160.
[20] 汪慶華.人工智能的法律規(guī)制路徑:一個(gè)框架性討論[J].現(xiàn)代法學(xué),2019(2):54-63.
[21] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[22] 姜奇平.反對(duì)唯GDPR論[J].互聯(lián)網(wǎng)周刊.2019(6):70-71.
[23] ELIZABETH M.RENIERIS,DAVID KIRON,STEVEN MILLS.Building Robust RAI Programs as Third-Party AI Tools Proliferate [EB/OL].MIT Sloan Management Review and Boston Consulting Group.[2024-02-23].https://sloanreview.mit.edu/projects/building-robust-rai-programs-as-third-party-ai-tools-proliferate/.
[24] 關(guān)健.智慧醫(yī)療發(fā)展中的倫理問(wèn)題[J].中國(guó)醫(yī)學(xué)倫理學(xué),2022,35(4):357-361.
湖北經(jīng)濟(jì)學(xué)院學(xué)報(bào)·人文社科版2024年12期