国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能大模型的新型風(fēng)險與規(guī)制框架

2024-06-03 15:37:24劉金瑞
行政法學(xué)研究 2024年2期
關(guān)鍵詞:生成式人工智能透明度

劉金瑞

摘要:大模型技術(shù)的發(fā)展,掀起了生成式人工智能發(fā)展的新浪潮,但其數(shù)據(jù)訓(xùn)練和部署應(yīng)用也帶來了新的風(fēng)險挑戰(zhàn),包括產(chǎn)生有害內(nèi)容、泄露敏感數(shù)據(jù)、生成錯誤信息、濫用實施違法活動、可能危害環(huán)境和經(jīng)濟(jì)、向下游傳導(dǎo)風(fēng)險等。對此,歐盟近期擬對基礎(chǔ)模型和生成式基礎(chǔ)模型提供者設(shè)定專門義務(wù),但背離了基于風(fēng)險分級規(guī)制的立法初衷;我國出臺專門辦法側(cè)重規(guī)制大模型部署者,對大模型本身風(fēng)險管控有限。規(guī)制大模型風(fēng)險,要遵循數(shù)據(jù)利用安全范式,基于風(fēng)險分類分級規(guī)制,實現(xiàn)上下游的合作共治。按照這一思路構(gòu)建新型風(fēng)險規(guī)制框架,主要包括設(shè)立專門機構(gòu)引導(dǎo)發(fā)展、評估和應(yīng)對風(fēng)險,規(guī)范數(shù)據(jù)訓(xùn)練以避免數(shù)據(jù)泄露和不當(dāng)輸出,基于特定用途風(fēng)險構(gòu)建風(fēng)險分級管控制度,確立貫穿大模型全生命周期的透明度制度,健全防止生成違法內(nèi)容的上下游共治機制。

關(guān)鍵詞:生成式人工智能;大模型;風(fēng)險規(guī)制;透明度;人工智能法

2022年年底,ChatGPT橫空出世,在語言理解、文本生成和知識推理等方面表現(xiàn)出驚人的“類人”能力,上線兩個月日活用戶超過一億,這促使國內(nèi)外科技巨頭紛紛布局其背后的大模型技術(shù),引發(fā)“百模大戰(zhàn)”。大模型技術(shù)驅(qū)動生成式人工智能狂飆突進(jìn)的同時,其基于大數(shù)據(jù)訓(xùn)練實現(xiàn)的自動化內(nèi)容生成也引發(fā)了新的風(fēng)險挑戰(zhàn),生成有害內(nèi)容、數(shù)據(jù)泄露等問題日益突出。如何防范規(guī)制風(fēng)險,如何平衡好人工智能發(fā)展與安全的關(guān)系,引導(dǎo)生成式人工智能健康發(fā)展,已成為人類社會面臨的共同難題。

對此,主要大國都在積極研究應(yīng)對之策,我國和歐盟在探索專門立法方面走在前列。我國2023年5月將《人工智能法草案》列入國務(wù)院年度立法工作計劃,2023年7月制定的《生成式人工智能服務(wù)管理暫行辦法》,主要規(guī)制生成式人工智能服務(wù)提供者,并未規(guī)制單純的大模型技術(shù)提供者。歐盟2021年4月提出《人工智能法》提案,2023年6月歐洲議會通過了提案修正案,規(guī)定了基礎(chǔ)模型提供者的義務(wù),但基本是將大模型比照高風(fēng)險系統(tǒng)予以監(jiān)管。目前來看,現(xiàn)有立法探索尚不足以充分規(guī)制大模型的新型風(fēng)險。

本文就是在此背景下,聚焦生成式人工智能大模型技術(shù)帶來的新型風(fēng)險,結(jié)合歐盟立法經(jīng)驗和我國立法探索,提出規(guī)制大模型風(fēng)險的基本思路和制度框架,以期能夠?qū)Υ竽P蜁r代的人工智能立法提供有益參考。

一、人工智能大模型技術(shù)的新突破帶來了新挑戰(zhàn)

大模型技術(shù)的新突破,掀起了生成式人工智能發(fā)展的新浪潮,開啟了邁向通用人工智能的新路徑,但大模型技術(shù)的新特性也帶來了新的風(fēng)險挑戰(zhàn)。

(一)大模型技術(shù)驅(qū)動生成式人工智能新發(fā)展

所謂的生成式人工智能,“是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”。不同于傳統(tǒng)的基于規(guī)則或模板的簡單內(nèi)容生成,近年來快速發(fā)展的生成式人工智能主要是由“深度學(xué)習(xí)”技術(shù)所驅(qū)動的,該技術(shù)可以通過訓(xùn)練從數(shù)據(jù)中自動學(xué)習(xí)結(jié)構(gòu)和模式,并基于這些模式來生成新的高質(zhì)量內(nèi)容,著名的深度學(xué)習(xí)模型包括了生成對抗網(wǎng)絡(luò)、擴散模型和轉(zhuǎn)換器模型(Transformer)等。

其中,Transformer是一種基于自注意力機制的深度學(xué)習(xí)模型,可以高效并行地處理序列數(shù)據(jù),這使得對大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練成為可能?;谠撃P?,OpenAI在2018年提出了第一代生成式預(yù)訓(xùn)練模型GPT-1,實現(xiàn)了先以大規(guī)模無標(biāo)注數(shù)據(jù)進(jìn)行無監(jiān)督的模型“預(yù)訓(xùn)練”,然后再用有標(biāo)注數(shù)據(jù)進(jìn)行有監(jiān)督的模型“微調(diào)”來更好地適配下游任務(wù),將生成式人工智能帶入了“預(yù)訓(xùn)練模型”時代。后來出現(xiàn)的BERT、LaMDA、T5等都是基于Transformer的預(yù)訓(xùn)練模型,這些模型的大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練都需要強大算力支撐。

這種生成式預(yù)訓(xùn)練模型,又稱為通用模型、基礎(chǔ)模型,本文稱之為生成式人工智能大模型(以下簡稱“大模型”),是指在大規(guī)模數(shù)據(jù)上訓(xùn)練,具有海量模型參數(shù),可以適應(yīng)廣泛下游任務(wù)的模型。可以看出,大模型的生命周期分為以數(shù)據(jù)訓(xùn)練為主的模型訓(xùn)練階段和以模型適配為主的模型部署階段,大模型訓(xùn)練具有基于大數(shù)據(jù)、依靠強算法、需要大算力的技術(shù)特征。而訓(xùn)練完成的大模型,其本身的技術(shù)特征可以概括如下:

一是參數(shù)規(guī)模大:大模型參數(shù)規(guī)模通常在百萬級以上,甚至超過萬億級別,如GPT-3的參數(shù)達(dá)到1750億、北京智源“悟道2.0”的參數(shù)達(dá)到1.75萬億。需要指出的是,這些參數(shù)只是反映了模型所學(xué)習(xí)的數(shù)據(jù),并不會包含或存儲模型所學(xué)習(xí)的數(shù)據(jù)。

二是生成新內(nèi)容:基于從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)的模式,大模型可以生成新的內(nèi)容。以ChatGPT為例,其從大量現(xiàn)有文本中學(xué)習(xí)單詞在上下文中如何與其他單詞一起出現(xiàn),據(jù)此來響應(yīng)用戶請求,預(yù)測下一個最有可能出現(xiàn)的單詞以及后續(xù)每個單詞。

三是涌現(xiàn)新能力:隨著參數(shù)規(guī)模的增大,大模型展現(xiàn)出較小模型所沒有的“涌現(xiàn)能力”,包括小樣本提示學(xué)習(xí)能力、思維鏈推理能力等,例如GPT-3未經(jīng)專門訓(xùn)練也可以運算兩位數(shù)的乘法,這些涌現(xiàn)能力加劇了人工智能的不可解釋性。

四是呈現(xiàn)通用性:相較于在標(biāo)注數(shù)據(jù)上訓(xùn)練執(zhí)行分類、翻譯等任務(wù)的專用模型,大模型在大量未標(biāo)注數(shù)據(jù)上訓(xùn)練出的海量參數(shù)及強大涌現(xiàn)能力,使其得以通過微調(diào)等適配方式,去處理各種不同的任務(wù),甚至處理未見過的任務(wù),大模型的通用性大大提高。

生成式人工智能大模型的出現(xiàn),標(biāo)志著人工智能研究范式開始從訓(xùn)練特定任務(wù)模型轉(zhuǎn)向訓(xùn)練通用任務(wù)模型,展現(xiàn)出通往通用人工智能的可行路徑。2023年3月,GPT-4發(fā)布,不僅比之前的大模型表現(xiàn)出更多的通用智能,還可以接受圖像和文本的輸入,實現(xiàn)了多模態(tài)的數(shù)據(jù)處理。微軟研究院認(rèn)為,GPT-4的表現(xiàn)已經(jīng)驚人地接近人類水平,有理由將其視為通用人工智能(AGI)系統(tǒng)的早期版本,堪稱“通用人工智能的星星之火”。生成式人工智能大模型的發(fā)展,揭開了邁向通用人工智能的序幕。

(二)生成式人工智能大模型引發(fā)的新型風(fēng)險

由上可知,大模型是依靠大算力對大數(shù)據(jù)進(jìn)行訓(xùn)練的結(jié)果,其能力來自對大量無標(biāo)注數(shù)據(jù)中抽象共現(xiàn)模式的深度學(xué)習(xí),在本質(zhì)上是大數(shù)據(jù)驅(qū)動的。從尋找大數(shù)據(jù)中的規(guī)律、釋放數(shù)據(jù)價值的方式來看,不同于傳統(tǒng)的數(shù)據(jù)挖掘和分析主要依靠專家標(biāo)注數(shù)據(jù)、設(shè)計特征等高成本投入,大模型主要是在大量無標(biāo)注數(shù)據(jù)上進(jìn)行無監(jiān)督學(xué)習(xí),自動高效提取數(shù)據(jù)中的規(guī)律和模式,這些規(guī)律和模式最終表現(xiàn)為大模型中的大規(guī)模參數(shù)。通過大數(shù)據(jù)訓(xùn)練大煉參數(shù)而得到的大模型,具備強大的能力和通用性,本身就是訓(xùn)練數(shù)據(jù)價值的集中體現(xiàn)。因此,筆者認(rèn)為大模型的訓(xùn)練和調(diào)用是一種新的大數(shù)據(jù)利用方式,大模型是一種高效的大數(shù)據(jù)價值實現(xiàn)方式。相較于傳統(tǒng)的“人工智能系統(tǒng)本身的安全問題”和人為的內(nèi)容生成,大模型這種新型大數(shù)據(jù)利用方式,其數(shù)據(jù)訓(xùn)練和模型調(diào)用實現(xiàn)的自動化內(nèi)容生成引發(fā)了新的風(fēng)險挑戰(zhàn),主要包括以下幾個方面:

1.產(chǎn)生偏見、歧視等有害內(nèi)容的風(fēng)險

大模型訓(xùn)練所用的大量數(shù)據(jù)多為無標(biāo)注數(shù)據(jù),這些數(shù)據(jù)易存在偏見、歧視,甚至存在侮辱、仇恨、暴力、色情等技術(shù)界稱之為“毒性”的有害內(nèi)容,大模型根據(jù)從這些數(shù)據(jù)中學(xué)習(xí)的模式來生成內(nèi)容,生成內(nèi)容便不可避免地會反映出同樣的問題。其中最受關(guān)注的是偏見、歧視問題。偏見可以理解為一種主觀認(rèn)識和態(tài)度,往往會引發(fā)客觀上對特定人群的區(qū)別對待,不公平的區(qū)別對待就會導(dǎo)致歧視,例如性別偏見導(dǎo)致的性別歧視。美國國家標(biāo)準(zhǔn)與技術(shù)研究院將人工智能偏見分為三大類:系統(tǒng)偏見,指文化和社會中的制度規(guī)范、實踐和流程造成的偏見;統(tǒng)計和計算偏見,指訓(xùn)練樣本代表性不足導(dǎo)致的偏見;人類偏見,指人類思維中的系統(tǒng)性錯誤。有研究對DALLE-E2、Stable Diffusion等文本生成圖像模型進(jìn)行了測試,發(fā)現(xiàn)當(dāng)提示輸入“CEO”時,生成的都是西裝革履的男性圖像。出現(xiàn)這種結(jié)果的原因,就在于訓(xùn)練數(shù)據(jù)本身存在系統(tǒng)偏見和統(tǒng)計偏見,不具有公平的代表性。從系統(tǒng)偏見角度看,如果訓(xùn)練數(shù)據(jù)主要來自某種語言或某個國家,大模型必然會打上這種語言或這個國家文化傳統(tǒng)、主流價值觀和意識形態(tài)的烙??;應(yīng)該警惕大模型應(yīng)用可能引發(fā)的文化和價值觀沖突,防范其可能帶來的意識形態(tài)安全風(fēng)險。

2.泄露個人信息、敏感數(shù)據(jù)的風(fēng)險

此種風(fēng)險主要源于兩個方面:一是大模型泄露了訓(xùn)練數(shù)據(jù)中的個人信息、敏感數(shù)據(jù)。大模型訓(xùn)練往往采用大規(guī)模抓取的網(wǎng)絡(luò)公開數(shù)據(jù),其中可能包含姓名、電話號碼等個人信息,甚至可能包括生物識別、行蹤軌跡等敏感個人信息和高風(fēng)險數(shù)據(jù)。而且,很多大模型默認(rèn)將用戶輸入的提示作為訓(xùn)練數(shù)據(jù),其中同樣可能包含個人信息、敏感數(shù)據(jù)。研究發(fā)現(xiàn),大模型可能會“記憶”并在特定輸入誘導(dǎo)下泄露這些訓(xùn)練數(shù)據(jù)中的個人信息、敏感數(shù)據(jù),包括受版權(quán)保護(hù)的材料。2023年3月,三星公司在允許使用ChatGPT不到20天時間里,就被曝出發(fā)生了3起敏感數(shù)據(jù)泄露事件,導(dǎo)致其半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率、內(nèi)部會議內(nèi)容等敏感保密信息泄露。二是通過大模型推斷出個人信息、敏感數(shù)據(jù)。大模型涌現(xiàn)出強大的推理能力,可能推斷出特定個人的宗教信仰、經(jīng)濟(jì)狀況等敏感個人信息,甚至可能分析出關(guān)系國家安全、公共安全的敏感數(shù)據(jù)。有研究發(fā)現(xiàn),如果在提示指令中聲稱正在從事防止核恐怖主義的研究,便可以繞開ChatGPT拒絕響應(yīng)核武器制造提示的安全護(hù)欄,而說服其給出如何制造核彈的詳細(xì)說明。雖然此發(fā)現(xiàn)公布后不久該提示指令便不再起作用,但確實展現(xiàn)出大模型強大的敏感數(shù)據(jù)析出能力。

3.生成錯誤信息、誤導(dǎo)性信息的風(fēng)險

大模型生成新內(nèi)容是基于訓(xùn)練數(shù)據(jù)的內(nèi)在關(guān)聯(lián)和共現(xiàn)概率。例如,如果在訓(xùn)練數(shù)據(jù)中“不前進(jìn)”的高頻共現(xiàn)詞是“右轉(zhuǎn)”“左轉(zhuǎn)”等,那么在用戶輸入“不前進(jìn)”后,大模型就可能按照其參數(shù)隨機輸出“右轉(zhuǎn)”。然而訓(xùn)練數(shù)據(jù)可能并不具有真實性、時效性或關(guān)聯(lián)性,因此模型輸出結(jié)果有時便可能是不準(zhǔn)確、不真實的,甚至可能會生成錯誤信息、誤導(dǎo)性信息。OpenAI就指出,Chat-GPT的輸出有時可能是不準(zhǔn)確、不真實和誤導(dǎo)性的,偶爾會產(chǎn)生錯誤回答,甚至?xí)幵焓聦嵒虍a(chǎn)生“幻覺”輸出。在對信息準(zhǔn)確性要求 較高的專業(yè)領(lǐng)域,如法律和醫(yī)療行業(yè),如果僅信賴大模型生成的信息而不加核實,可能會造成重大損害。例如,如果輕信大模型就某些身體不適癥狀給出的治療建議,不去就醫(yī)或錯誤服用藥物劑量等,就可能會延誤救治或?qū)ι眢w造成傷害。再如,近期美國紐約州兩位律師在提交法院的法律文書中,援引了ChatGPT搜集的6個案例,但法院發(fā)現(xiàn)這些案例都是ChatGPT編造的,最終對律師和其律所分別處以了5000美元罰款。

4.濫用于欺騙操縱等違法犯罪的風(fēng)險

上述三種風(fēng)險基本都來源于大模型的大數(shù)據(jù)訓(xùn)練,通常屬于非人為故意造成的風(fēng)險。訓(xùn)練完成的大模型,具有強大的通用能力,存在被故意濫用于實施欺騙操縱等違法犯罪的風(fēng)險。相較于上述非故意產(chǎn)生的錯誤信息,大模型可能被故意濫用于制造虛假信息。大模型超強的生成能力,以及其基于大量人類數(shù)據(jù)訓(xùn)練而具有的“類人”輸出和交互能力,使得以低成本方式大規(guī)模制造更加逼真、更具欺騙性的虛假信息成為可能,例如可以大量制作更具說服力的網(wǎng)絡(luò)釣魚電子郵件。這些大模型生成的更具欺騙性的虛假信息,如果再通過大模型支撐的個性化推薦系統(tǒng)進(jìn)行推送,鑒于“過濾泡”和“信息繭房”效應(yīng),就很可能會造成受眾觀念極化,甚至?xí)κ鼙娪^念和行為進(jìn)行針對性操縱。這不僅可能侵害私主體權(quán)益,更可能對一國的國家安全尤其是政治安全、文化安全等造成嚴(yán)重威脅。例如在俄烏沖突初期,2022年3月在主流社交平臺上相繼出現(xiàn)了烏克蘭總統(tǒng)澤連斯基和俄羅斯總統(tǒng)普京宣布投降的視頻,后來都被證實是深度偽造的。此外,大模型也有可能被濫用于實施其他違法犯罪,例如生成惡意軟件代碼實施網(wǎng)絡(luò)攻擊等。

5.可能危害環(huán)境和社會經(jīng)濟(jì)的風(fēng)險

即使大模型不被濫用,其正常使用也可能會對環(huán)境和社會經(jīng)濟(jì)造成一定的風(fēng)險。但目前來看,這些風(fēng)險似乎并不如上述幾類風(fēng)險那樣緊迫和確切,不過從人工智能的發(fā)展來看,這類風(fēng)險很可能在不遠(yuǎn)的將來成為重大挑戰(zhàn),應(yīng)該重視和監(jiān)測這類風(fēng)險的增長和演變,做到未雨綢繆。例如,大模型的大算力需求,會消耗大量的能源和資源,從而可能造成一定的環(huán)境危害。有研究發(fā)現(xiàn),訓(xùn)練GPT-3大模型會產(chǎn)生552噸二氧化碳,消耗1287兆瓦時電力,但也認(rèn)為GPT-3的泛化能力使得不需要針對每個任務(wù)重新訓(xùn)練模型,具有潛在的能源優(yōu)勢。再如,長期以來,有不少觀點認(rèn)為人工智能將會消滅大量工作崗位。但有研究指出,人工智能工具正在賦予而不是取代人的因素,人工智能如果合乎道德地開發(fā)和部署,可以賦予人們做更多事情的能力。此外,還有研究關(guān)注了大模型應(yīng)用可能帶來的不平等加劇、工作質(zhì)量降低、創(chuàng)意經(jīng)濟(jì)受損等風(fēng)險。

6.通用性造成風(fēng)險傳導(dǎo)給下游應(yīng)用

大模型呈現(xiàn)較強的通用性,可以用于解決廣泛的下游任務(wù)。但這種通用性也意味著大模型自身缺陷會被所有下游模型所繼承,大模型自身缺陷引發(fā)的風(fēng)險會傳導(dǎo)給下游應(yīng)用。大模型的自身缺陷主要源于其訓(xùn)練數(shù)據(jù)的缺陷,因而大模型可以傳導(dǎo)給下游應(yīng)用的風(fēng)險主要就是其大數(shù)據(jù)訓(xùn)練引發(fā)的風(fēng)險,由上文可知包括產(chǎn)生有害內(nèi)容、泄露敏感數(shù)據(jù)、生成錯誤信息等風(fēng)險。大模型向下游應(yīng)用的風(fēng)險傳導(dǎo),意味著大模型的風(fēng)險管控必須依靠大模型價值鏈上下游參與者的共同努力。其中,最重要的就是訓(xùn)練開發(fā)大模型的主體和適配大模型解決下游任務(wù)的主體,本文將前者稱為大模型提供者,將后者稱為大模型部署者。除非大模型的提供者同時也是部署者,否則在一般情況下,由于大模型深度學(xué)習(xí)算法和涌現(xiàn)能力的不可解釋性,大模型部署者在理解和應(yīng)對大模型風(fēng)險上存在較大難度,其應(yīng)對大模型傳導(dǎo)的風(fēng)險,離不開大模型提供者共享必要的技術(shù)文件和相關(guān)信息。

總結(jié)起來,大模型這種新的大數(shù)據(jù)利用方式,引發(fā)的新型風(fēng)險可以分為兩類:一類是模型數(shù)據(jù)訓(xùn)練引發(fā)的風(fēng)險,主要表現(xiàn)為產(chǎn)生有害內(nèi)容、泄露敏感數(shù)據(jù)、生成錯誤信息等;另一類是模型部署應(yīng)用引發(fā)的風(fēng)險,主要表現(xiàn)為濫用實施違法犯罪、可能危害環(huán)境和經(jīng)濟(jì)、向下游應(yīng)用傳導(dǎo)風(fēng)險等。由前文可知,前一類風(fēng)險來自模型訓(xùn)練階段,根源在于訓(xùn)練數(shù)據(jù)的質(zhì)量問題和敏感性,例如訓(xùn)練數(shù)據(jù)集代表性不足、存在有害內(nèi)容和敏感數(shù)據(jù)等。后一類風(fēng)險出現(xiàn)在模型部署階段,根源在于模型被濫用、模型的負(fù)外部性和通用性。面對這些新型風(fēng)險,技術(shù)界正在努力研究有效的緩解措施,通過基于人類反饋的強化學(xué)習(xí)(RLHF)等,推進(jìn)大模型與人類價值觀和意圖對齊,并已取得了一定的成效。例如GPT-4相較于GPT-3.5,生成內(nèi)容的真實性評估得分高出40%,對敏感請求(如醫(yī)療建議)符合其政策響應(yīng)的概率提高29%,對不允許內(nèi)容的請求響應(yīng)傾向降低82%。

盡管這些技術(shù)研究努力顯著提高了大模型的安全性,但大模型引發(fā)的風(fēng)險挑戰(zhàn)仍然較為突出。應(yīng)對大模型帶來的新型風(fēng)險,僅靠技術(shù)層面的緩解措施和對齊手段是遠(yuǎn)遠(yuǎn)不夠的,還應(yīng)該探索適應(yīng)大模型技術(shù)特征和發(fā)展需要的法律規(guī)制手段。

二、生成式人工智能大模型立法的歐盟探索及其鏡鑒

對于大模型帶來的風(fēng)險挑戰(zhàn),最早開始探索人工智能綜合性立法的歐盟給予了及時回應(yīng)。雖然歐盟委員會2021年4月提出的《人工智能法》提案(以下簡稱“提案”),主要是將人工智能系統(tǒng)按特定用途分成不可接受、高、有限和最小等4個風(fēng)險等級予以分級規(guī)制,最初并未涉及沒有特定用途的人工智能系統(tǒng),但隨著大模型技術(shù)的發(fā)展,如何規(guī)制大模型和通用人工智能系統(tǒng),成為歐盟《人工智能法》立法無法回避的問題。2022年12月,歐盟理事會通過了關(guān)于《人工智能法》提案的共同立場,專門增加一章“通用人工智能系統(tǒng)”,不過該章主要授權(quán)歐盟委員會未來對此立法,并未作出針對性規(guī)定。

歐洲議會對這些問題進(jìn)行了更為充分的討論,2023年6月通過了關(guān)于《人工智能法》提案的修正案(以下簡稱“提案議會版”),提出了相對完整的以大模型為中心的通用人工智能風(fēng)險規(guī)制方案??梢灶A(yù)見,在接下來歐洲議會、歐盟理事會和歐盟委員會就《人工智能法》最終文本的“三方談判”中,大模型規(guī)制將是重點議題。以下結(jié)合提案議會版的最新案文,對歐盟規(guī)制生成式人工智能大模型的制度探索做一簡要梳理。

(一)對基礎(chǔ)模型和生成式基礎(chǔ)模型設(shè)定了專門義務(wù)

提案議會版將本文所謂的大模型稱為“基礎(chǔ)模型”,并規(guī)定了其提供者的應(yīng)盡義務(wù)。

1.基礎(chǔ)模型提供者的義務(wù)

提案議會版新增第28b條“基礎(chǔ)模型提供者的義務(wù)”,在第2款明確了基礎(chǔ)模型提供者應(yīng)當(dāng)遵循的7項義務(wù),包括:

一是風(fēng)險管理義務(wù)。要求通過適當(dāng)?shù)脑O(shè)計、測試和分析來證明,在開發(fā)之前和整個開發(fā)過程中,以適當(dāng)?shù)姆椒ㄗR別、減少和緩解對健康、安全、基本權(quán)利、環(huán)境以及民主和法治的合理可預(yù)見的風(fēng)險,并記錄開發(fā)后剩余的不可緩解的風(fēng)險;

二是數(shù)據(jù)治理義務(wù)。要求僅處理和納入受基礎(chǔ)模型適當(dāng)數(shù)據(jù)治理措施約束的數(shù)據(jù)集,特別是審查數(shù)據(jù)來源的適當(dāng)性以及可能存在的偏見和適當(dāng)?shù)木徑獯胧?/p>

三是技術(shù)可靠義務(wù)。要求在生命周期內(nèi)達(dá)到適當(dāng)水平的性能、可預(yù)測性、可解釋性、可糾正性、安全性和網(wǎng)絡(luò)安全,并以適當(dāng)方法進(jìn)行評估,例如有獨立專家參與的評估。

四是環(huán)境保護(hù)義務(wù)。要求適用相關(guān)標(biāo)準(zhǔn)來減少能源使用、資源使用和浪費,提高能源效率和系統(tǒng)整體效率;只要技術(shù)可行,應(yīng)測量和記錄能源資源消耗及其他環(huán)境影響。

五是信息提供義務(wù)。要求制定廣泛的技術(shù)文件和易于理解的使用說明,以使下游提供者能夠遵守高風(fēng)險人工智能系統(tǒng)提供者的義務(wù)。

六是質(zhì)量管理義務(wù)。要求建立一個質(zhì)量管理系統(tǒng),以確保和記錄對該條規(guī)定的遵守,并有可能進(jìn)行試驗以滿足這一要求。

七是模型登記義務(wù)。要求在可公開訪問的歐盟高風(fēng)險人工智能系統(tǒng)數(shù)據(jù)庫中登記。

2.生成式基礎(chǔ)模型提供者的義務(wù)

該條第4款進(jìn)一步規(guī)定了生成式基礎(chǔ)模型提供者的義務(wù)。無論是生成式人工智能系統(tǒng)所用基礎(chǔ)模型的提供者,還是將基礎(chǔ)模型專門化為生成式人工智能系統(tǒng)的提供者,除上述7項義務(wù)之外,還應(yīng)當(dāng)遵循以下3項義務(wù):

一是透明度義務(wù)。要求遵守第52條第1款的透明度義務(wù),即人工智能系統(tǒng)、提供者本身或部署者,以及時、清晰和易于理解的方式,告知接觸人工智能系統(tǒng)的自然人,他們正在與人工智能系統(tǒng)交互,除非這一點從使用情況和使用場景來看顯而易見。

二是防止生成非法內(nèi)容義務(wù)。要求基礎(chǔ)模型的訓(xùn)練、設(shè)計和開發(fā),應(yīng)確保按照公認(rèn)的現(xiàn)有技術(shù)水平,有充分的保障措施,防止生成違反歐盟法律的內(nèi)容,并且不損害包括言論自由在內(nèi)的基本權(quán)利。

三是披露受版權(quán)保護(hù)的訓(xùn)練數(shù)據(jù)義務(wù)。要求在不損害歐盟或成員國版權(quán)立法的情況下,記錄并公開提供受版權(quán)法保護(hù)的訓(xùn)練數(shù)據(jù)的使用情況的足夠詳細(xì)的摘要。

(二)基于基礎(chǔ)模型的人工智能系統(tǒng)的風(fēng)險分級規(guī)制

提案議會版延續(xù)并完善了提案基于風(fēng)險的規(guī)制方法?;A(chǔ)模型提供者除了需要遵循上述專門義務(wù)之外,一旦基礎(chǔ)模型部署集成到人工智能系統(tǒng)之中,其還會適用人工智能系統(tǒng)的風(fēng)險分級規(guī)制。除了最小風(fēng)險情形下可自由使用外,基于基礎(chǔ)模型的人工智能系統(tǒng),在其特定用途造成不可接受風(fēng)險、高風(fēng)險和有限風(fēng)險時,會受到不同程度的規(guī)制。

1.禁止構(gòu)成不可接受風(fēng)險的人工智能系統(tǒng)

提案議會版第5條明確列出了應(yīng)予禁止的人工智能系統(tǒng),原因就在于歐盟立法者認(rèn)為這些系統(tǒng)會對人類安全構(gòu)成“不可接受風(fēng)險”。在最初的提案中,這些系統(tǒng)包括采用潛意識技術(shù)、利用人們?nèi)觞c和用于社會評分的系統(tǒng)。提案議會版在此基礎(chǔ)上對禁止的人工智能實踐和系統(tǒng)清單進(jìn)行了大幅度補充和完善,以禁止操縱性、侵入性和歧視性地使用人工智能系統(tǒng),主要包括:采用有目的操縱或欺騙技術(shù)的系統(tǒng);強調(diào)利用人們?nèi)觞c的系統(tǒng),包括利用已知或預(yù)測的人格特征或者社會經(jīng)濟(jì)狀況的系統(tǒng);公共場所的“實時”遠(yuǎn)程生物特征識別系統(tǒng);“事后”遠(yuǎn)程生物特征識別系統(tǒng),除非是獲得司法授權(quán)并且為追訴嚴(yán)重犯罪的執(zhí)法所必要;使用敏感特征(例如性別、種族、宗教、政治取向等)的生物特征分類系統(tǒng);預(yù)測性警務(wù)系統(tǒng)(基于畫像、位置或過去的犯罪行為);執(zhí)法、邊境管理、工作場所和教育機構(gòu)中的情緒識別系統(tǒng);不加區(qū)分地從社交媒體或閉路電視錄像中抓取面部圖像來創(chuàng)建面部識別數(shù)據(jù)庫的系統(tǒng)。

2.高風(fēng)險人工智能系統(tǒng)的全生命周期義務(wù)

歐盟立法者認(rèn)為,構(gòu)成高風(fēng)險的人工智能系統(tǒng),可以投放歐洲市場,但必須遵守某些強制性要求和進(jìn)行事前符合性評估。提案第6條明確了兩大類高風(fēng)險人工智能系統(tǒng):一是用作產(chǎn)品安全組件或適用附件2歐盟健康和安全協(xié)調(diào)立法的系統(tǒng)(例如汽車、醫(yī)療器械領(lǐng)域的系統(tǒng)等);二是在附件3確定的八個特定領(lǐng)域部署的系統(tǒng),歐盟委員會可以通過授權(quán)立法進(jìn)行必要的更新。八個特定領(lǐng)域為:自然人的生物特征識別和分類;關(guān)鍵基礎(chǔ)設(shè)施的管理和運作;教育和職業(yè)培訓(xùn);就業(yè)、工人管理和自營職業(yè);獲得和享受基本的私營服務(wù)和公共服務(wù)及福利;執(zhí)法;移民、庇護(hù)和邊境控制管理;司法行政和民主程序。

提案議會版延續(xù)了這一分類規(guī)則,完全保留了提案的附件2,但對第二類高風(fēng)險系統(tǒng)的認(rèn)定和附件3的內(nèi)容提出了重大修改。歐洲議會認(rèn)為,屬于附件3的八個特定領(lǐng)域的系統(tǒng)并不會自動歸類為高風(fēng)險系統(tǒng),而是必須滿足額外的限定條件,即“對自然人的健康、安全或基本權(quán)利構(gòu)成重大損害風(fēng)險”,才會被認(rèn)為是高風(fēng)險系統(tǒng)。還進(jìn)一步補充和完善了附件3各個領(lǐng)域的表述,將第一個領(lǐng)域修改為“生物特征和基于生物特征的系統(tǒng)”,在各個領(lǐng)域之下增加了一些新的高風(fēng)險系統(tǒng),包括第5條規(guī)定之外的情緒識別系統(tǒng)、評估個人教育和職業(yè)培訓(xùn)水平的系統(tǒng)、決定個人健康和人壽保險資格的系統(tǒng)等,尤其是納入了影響政治競選中選民投票的系統(tǒng)和超大型社交媒體平臺用于推薦的系統(tǒng)。

提案的第3編對高風(fēng)險人工智能系統(tǒng)提供者規(guī)定了貫穿整個系統(tǒng)生命周期的義務(wù)和要求,涉及風(fēng)險管理、數(shù)據(jù)和數(shù)據(jù)治理、技術(shù)文件、記錄保存、透明度和信息提供、人類監(jiān)督、技術(shù)可靠性(第9-15條),以及質(zhì)量管理、符合性評估、利益相關(guān)方義務(wù)等,其他編還規(guī)定了登記到歐盟高風(fēng)險系統(tǒng)數(shù)據(jù)庫、上市后監(jiān)測、報告嚴(yán)重事故等義務(wù),提案議會版延續(xù)了這些規(guī)定,并進(jìn)一步完善了相關(guān)表述。

3.有限風(fēng)險人工智能系統(tǒng)負(fù)有透明度義務(wù)

歐盟立法者認(rèn)為,構(gòu)成有限風(fēng)險的人工智能系統(tǒng),其風(fēng)險主要是特定的操縱風(fēng)險,為使人們避免被操縱,得以做出知情選擇或后退決定,這些系統(tǒng)應(yīng)負(fù)有透明度義務(wù)。提案第52條列出了三種此類系統(tǒng)及相應(yīng)的透明度義務(wù):一是與人類交互的系統(tǒng),應(yīng)當(dāng)告知正在與人工智能系統(tǒng)交互;二是根據(jù)生物特征數(shù)據(jù)進(jìn)行情緒識別或社會分類的系統(tǒng),應(yīng)當(dāng)告知系統(tǒng)的運行;三是生成或操縱圖像、音頻或視頻等內(nèi)容(“深度偽造”)的系統(tǒng),應(yīng)當(dāng)披露內(nèi)容是人為生成或操縱的,但出于法律授權(quán)等合法目的時除外。提案議會版延續(xù)了這一規(guī)定,并根據(jù)不同系統(tǒng)的特點,完善了相應(yīng)的告知內(nèi)容。

(三)歐盟立法探索的經(jīng)驗與鏡鑒

總結(jié)來看,對于大模型驅(qū)動的本輪通用人工智能發(fā)展浪潮,歐盟立法者及時關(guān)注并回應(yīng)了其中的風(fēng)險挑戰(zhàn):基于風(fēng)險分級規(guī)制的方法,以大模型為中心,對于基礎(chǔ)模型、生成式基礎(chǔ)模型、基于基礎(chǔ)模型的人工智能系統(tǒng)設(shè)定了不同義務(wù)要求,提出了通用人工智能分層監(jiān)管方案。但從目前最新的提案議會版來看,基礎(chǔ)模型提供者承擔(dān)的義務(wù),除了環(huán)境保護(hù)義務(wù)和生成式情形下的防止生成非法內(nèi)容和披露受版權(quán)保護(hù)的訓(xùn)練數(shù)據(jù)義務(wù)外,其在風(fēng)險管理、數(shù)據(jù)治理、技術(shù)可靠性、信息提供、質(zhì)量管理、模型登記等方面的義務(wù),與高風(fēng)險人工智能系統(tǒng)承擔(dān)的義務(wù)基本一致。這說明歐盟立法者實際上將基礎(chǔ)模型本身歸類為高風(fēng)險,比照高風(fēng)險人工智能系統(tǒng)對基礎(chǔ)模型予以監(jiān)管。

但從風(fēng)險管理和技術(shù)可靠性等要求來看,以這種思路監(jiān)管基礎(chǔ)模型實際并不可行。考慮到基礎(chǔ)模型的通用性,在風(fēng)險管理方面,要求識別、減少和緩解所有合理可預(yù)見的風(fēng)險,至少就要考慮和分析《人工智能法》法案附件3中所有高風(fēng)險用途中的可能風(fēng)險,然后在此基礎(chǔ)上制定和實施針對所有這些風(fēng)險的緩解措施;在技術(shù)可靠性方面,要求達(dá)到并評估適當(dāng)水平的性能、安全性等,就需要針對所有高風(fēng)險用途在這些技術(shù)方面進(jìn)行可靠性測試和評估。滿足這種監(jiān)管要求,需要付出不可估量的成本和代價,是基本不可能完成的任務(wù),而且讓大模型提供者針對所有假設(shè)性的可能用途實施風(fēng)險緩解和可靠性保障,而很多的可能用途最終又不會實現(xiàn),似乎也沒有必要。

深究來看,風(fēng)險分級規(guī)制方法,是以人工智能系統(tǒng)特定用途來確定風(fēng)險分級的,歐盟立法者將具有通用性的大模型直接按照高風(fēng)險人工智能系統(tǒng)予以監(jiān)管,其實并沒有考慮大模型實際特定用途的不同風(fēng)險,也沒有看到往往是大模型部署者而非提供者決定其實際用途,更沒有考慮大模型數(shù)據(jù)訓(xùn)練和部署應(yīng)用引發(fā)兩類不同 的風(fēng)險。這種削足適履、一刀切的立法方案,實際背離了基于風(fēng)險分級規(guī)制的初衷。應(yīng)該從大模型技術(shù)特征和新型挑戰(zhàn)入手,探索切實有效、適應(yīng)通用人工智能發(fā)展需要的大模型風(fēng)險規(guī)制方案。

三、生成式人工智能大模型新型風(fēng)險的規(guī)制框架

2023年7月,國家網(wǎng)信辦等七部門制定了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》),其適用范圍聚焦于利用生成式人工智能技術(shù)向我國境內(nèi)公眾提供生成式人工智能服務(wù)的提供者,而排除了僅“研發(fā)、應(yīng)用生成式人工智能技術(shù)”的企業(yè)、科研機構(gòu)等。這實際區(qū)分了生成式人工智能的服務(wù)提供者和技術(shù)提供者,后者若并不向境內(nèi)公眾提供生成式服務(wù),則不適用《暫行辦法》。那么對于基于大模型技術(shù)的生成式人工智能服務(wù)來說,《暫行辦法》規(guī)制的是大模型部署者,并未規(guī)制單純的大模型提供者。這種將規(guī)制重點放在大模型部署應(yīng)用、鼓勵大模型訓(xùn)練開發(fā)的監(jiān)管思路,堅持了發(fā)展和安全并重,有利于我國大模型和通用人工智能業(yè)態(tài)的創(chuàng)新發(fā)展,值得高度肯定。

但從前文分析來看,大模型引發(fā)的新型風(fēng)險有一類根源于模型訓(xùn)練階段,大模型通用性會將這些風(fēng)險傳導(dǎo)給下游應(yīng)用,應(yīng)對這種風(fēng)險離不開大模型價值鏈上下游參與者的溝通合作。從這個角度看,除了大模型提供者本身就是部署者的情況之外,目前《暫行辦法》第7條的訓(xùn)練數(shù)據(jù)合法性要求、第14條的“模型優(yōu)化訓(xùn)練”整改措施等規(guī)定,僅適用于下游的大模型部署者,只規(guī)范部署者適配大模型時的小規(guī)模數(shù)據(jù)訓(xùn)練,實際無法管控上游的大模型基座及其風(fēng)險,并不能充分解決大模型帶來的風(fēng)險挑戰(zhàn)。因此,從生成式人工智能大模型的風(fēng)險防范和發(fā)展需要來看,《暫行辦法》仍有較大完善空間。

基于大模型的技術(shù)特征,針對其引發(fā)的新型風(fēng)險,結(jié)合國內(nèi)外的立法進(jìn)展,本文就規(guī)制大模型風(fēng)險的基本思路和制度框架提出以下建議。

(一)大模型風(fēng)險規(guī)制基本思路

規(guī)制大模型這種新的大數(shù)據(jù)利用方式引發(fā)的新型風(fēng)險,應(yīng)該遵循數(shù)據(jù)利用安全范式,采用基于風(fēng)險的分類分級規(guī)制方法,實現(xiàn)上下游參與者的合作共治。

1.遵循數(shù)據(jù)利用安全范式

大模型是利用大數(shù)據(jù)訓(xùn)練大煉參數(shù)而來,其訓(xùn)練開發(fā)和部署應(yīng)用是一種新的大數(shù)據(jù)利用方式,這種新的數(shù)據(jù)利用方式引發(fā)了新的風(fēng)險挑戰(zhàn)。規(guī)制大模型的新型風(fēng)險,就應(yīng)該遵循數(shù)據(jù)利用安全范式?!吨腥A人民共和國數(shù)據(jù)安全法》確立了數(shù)據(jù)安全新范式,要求“確保數(shù)據(jù)處于有效保護(hù)和合法利用的狀態(tài)”,既確保傳統(tǒng)的數(shù)據(jù)“自身安全”,也確保數(shù)據(jù)大規(guī)模流動和挖掘的“利用安全”。而其中的數(shù)據(jù)利用安全范式,筆者認(rèn)為關(guān)鍵就是確保數(shù)據(jù)大規(guī)模流動和利用的可控性和正當(dāng)性。對于大模型而言,其數(shù)據(jù)利用包括兩個方面:一是模型訓(xùn)練階段提取大數(shù)據(jù)中規(guī)律和模式的數(shù)據(jù)訓(xùn)練,訓(xùn)練結(jié)果表現(xiàn)為大模型,尤其是其中的算法和參數(shù);二是模型部署階段基于數(shù)據(jù)訓(xùn)練結(jié)果即大模型來響應(yīng)數(shù)據(jù)輸入生成新的內(nèi)容。簡言之,大模型的數(shù)據(jù)利用包括利用數(shù)據(jù)去訓(xùn)練大模型和再利用數(shù)據(jù)訓(xùn)練結(jié)果即大模型來生成內(nèi)容。而由上文可知,大模型的兩類新型風(fēng)險即模型數(shù)據(jù)訓(xùn)練引發(fā)的風(fēng)險和模型部署應(yīng)用 引發(fā)的風(fēng)險,正是根源于這兩方面的數(shù)據(jù)利用。

遵循數(shù)據(jù)利用安全范式規(guī)制大模型的新型風(fēng)險,就是既要確保大模型數(shù)據(jù)訓(xùn)練的可控性和正當(dāng)性,也要確保大模型部署應(yīng)用的可控性和正當(dāng)性。具體而言,對于模型訓(xùn)練階段,一方面訓(xùn)練數(shù)據(jù)的收集和聚合要符合可控性,重要數(shù)據(jù)、個人識別信息等敏感高風(fēng)險數(shù)據(jù)不應(yīng)納入訓(xùn)練數(shù)據(jù);另一方面鑒于數(shù)據(jù)訓(xùn)練結(jié)果會決定模型生成內(nèi)容,訓(xùn)練數(shù)據(jù)的來源和內(nèi)容要符合正當(dāng)性,例如要盡量排除存在偏見、歧視的數(shù)據(jù)。對于模型部署階段,一方面模型的具體部署要符合可控性,例如不得將模型用于存在不可接受風(fēng)險的領(lǐng)域,將模型用于高風(fēng)險用途時應(yīng)規(guī)定相應(yīng)的風(fēng)險管控義務(wù);另一方面模型的使用目的和生成內(nèi)容要符合正當(dāng)性,不得將模型用于違法目的,應(yīng)防止模型生成違法內(nèi)容。

2.基于風(fēng)險分類分級規(guī)制

《暫行辦法》強調(diào)要“實行包容審慎和分類分級監(jiān)管”。筆者認(rèn)為,落實該原則性規(guī)定的關(guān)鍵,在于對大模型進(jìn)行基于風(fēng)險的分類分級規(guī)制。大模型的風(fēng)險分類,本文認(rèn)為應(yīng)主要根據(jù)大模型的風(fēng)險根源和風(fēng)險領(lǐng)域來區(qū)分,可以分為大模型系統(tǒng)本身存在的傳統(tǒng)風(fēng)險和大模型數(shù)據(jù)利用引發(fā)的新型風(fēng)險,后者如前文所述又包括模型數(shù)據(jù)訓(xùn)練引發(fā)的各種風(fēng)險和模型部署應(yīng)用引發(fā)的各種風(fēng)險。對于前者的規(guī)制,目前已有《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)等相關(guān)法律法規(guī)作出專門規(guī)定;對于后者的規(guī)制,要遵循上述數(shù)據(jù)利用安全范式,探索確保大模型數(shù)據(jù)訓(xùn)練及部署應(yīng)用可控性和正當(dāng)性的制度設(shè)計。大模型的風(fēng)險分級,本文認(rèn)為應(yīng)主要根據(jù)大模型實際特定用途的風(fēng)險程度來確定,借鑒歐盟《人工智能法》提案,可以將風(fēng)險分為不可接受風(fēng)險、高風(fēng)險、中風(fēng)險和低風(fēng)險等4個等級。

基于風(fēng)險的分級規(guī)制,需要將規(guī)制重點放在大模型實際用途上,并根據(jù)風(fēng)險等級匹配不同監(jiān)管方式。而管控風(fēng)險一般認(rèn)為包括四種策略:接受風(fēng)險、避免風(fēng)險、控制風(fēng)險以及轉(zhuǎn)移風(fēng)險。對于大模型存在不可接受風(fēng)險的用途,應(yīng)該力求避免風(fēng)險,原則上予以嚴(yán)格禁止;對于大模型的高風(fēng)險、中風(fēng)險用途,應(yīng)該側(cè)重控制風(fēng)險,規(guī)定與風(fēng)險等級相適應(yīng)的風(fēng)險管控義務(wù)。由于不可能實現(xiàn)絕對安全,對于大模型的低風(fēng)險用途,以及采取避免風(fēng)險、控制風(fēng)險措施后仍然存在的殘留風(fēng)險,妥當(dāng)策略是接受風(fēng)險的存在,這也是“堅持發(fā)展和安全并重”的應(yīng)有之義。從這個角度看,無論是歐盟《人工智能法》提案議會版一刀切地將大模型作為高風(fēng)險系統(tǒng)監(jiān)管,還是《暫行辦法》征求意見稿曾要求生成內(nèi)容“應(yīng)當(dāng)真實準(zhǔn)確”等,都沒有對風(fēng)險進(jìn)行分級規(guī)制,都有追求絕對安全之嫌,確實在一定程度上忽視了風(fēng)險防范與產(chǎn)業(yè)發(fā)展的平衡。

3.實現(xiàn)上下游的合作共治

妥當(dāng)應(yīng)對和規(guī)制大模型向下游應(yīng)用的風(fēng)險傳導(dǎo),離不開大模型價值鏈上下游參與者的共同努力。確定上下游參與者各自應(yīng)當(dāng)承擔(dān)的風(fēng)險管控義務(wù),就需要厘清大模型用于下游任務(wù)時,相關(guān)主體的不同角色及其對大模型的控制水平。目前“下游大模型部署者”調(diào)用大模型的方式主要有兩種:開源訪問和API(應(yīng)用編程 接口)訪問。在開源訪問的情況下,提供者會公開模型的參數(shù)和源代碼,部署者可以直接檢查源代碼和參數(shù)并根據(jù)開源許可進(jìn)行修改和適配。在API訪問的情況下,提供者僅向部署者提供大模型的API調(diào)用接口,部署者可以利用一些訓(xùn)練數(shù)據(jù)微調(diào)模型以適配下游任務(wù),但無權(quán)修改模型的源代碼和參數(shù)。但不管是開源訪問還是API調(diào)用,都是部署者決定大模型的實際用途。

可見,對于大模型部署者來說,在API模式下,大模型的源代碼和參數(shù)仍完全控制在提供者手中,其無法知曉大模型的底層技術(shù)細(xì)節(jié),也無法通過修改大模型來應(yīng)對風(fēng)險,即使在開源模式下可以修改模型源代碼和參數(shù),但考慮到大模型算法和涌現(xiàn)能力存在不可解釋性,其實際并不能完全理解和管控大模型上游數(shù)據(jù)訓(xùn)練帶來的風(fēng)險。而對于大模型提供者來說,其無法介入部署者適配模型的數(shù)據(jù)訓(xùn)練,也無法干預(yù)部署者決定大模型的實際用途,并不能管控模型適配數(shù)據(jù)訓(xùn)練和模型部署應(yīng)用引發(fā)的風(fēng)險。因此,全面管控大模型應(yīng)用風(fēng)險,單靠部署者抑或提供者都不可行,需要實現(xiàn)二者的合作共治。從這個角度看,無論是《暫行辦法》僅從大模型部署者入手防范風(fēng)險,還是歐盟提案議會版將風(fēng)險管理的重任僅賦予大模型提供者,都是讓他們?nèi)ネ瓿刹豢赡芡瓿傻娜蝿?wù),實際無法達(dá)成全面管控大模型風(fēng)險的目標(biāo)。此外,利用基于大模型的人工智能系統(tǒng)生成內(nèi)容的最終使用者,決定了生成的具體內(nèi)容及內(nèi)容受眾,使用者和內(nèi)容受眾也是參與治理大模型生成內(nèi)容風(fēng)險的重要主體。為了實現(xiàn)大模型風(fēng)險的合作共治,這些上下游參與者既需要進(jìn)行充分的風(fēng)險溝通和信息共享,也需要協(xié)作采取必要的風(fēng)險應(yīng)對措施。

(二)大模型新型風(fēng)險規(guī)制框架

根據(jù)上述基本思路,規(guī)制大模型引發(fā)的新型風(fēng)險,重點是確保大模型數(shù)據(jù)訓(xùn)練及部署應(yīng)用的可控性和正當(dāng)性。對此,結(jié)合國內(nèi)外立法進(jìn)展,本文提出以下規(guī)制框架。

1.設(shè)立專門機構(gòu)引導(dǎo)發(fā)展、評估和應(yīng)對風(fēng)險

建議借鑒域外經(jīng)驗設(shè)立專門的人工智能監(jiān)管機構(gòu),名稱可為“人工智能發(fā)展和安全委員會”,以全方位監(jiān)測和應(yīng)對大模型等技術(shù)路徑帶來的風(fēng)險挑戰(zhàn),引導(dǎo)和促進(jìn)人工智能安全發(fā)展。2018年底,美國依據(jù)《2019年國防授權(quán)法》,設(shè)立了“國家人工智能安全委員會”,負(fù)責(zé)審查人工智能、機器學(xué)習(xí)和相關(guān)技術(shù)的發(fā)展,以全面解決美國國家安全需要。歐盟提案議會版提出設(shè)立歐洲人工智能辦公室,以確保該法有效和協(xié)調(diào)執(zhí)行,其職責(zé)明確包括對大模型的監(jiān)管:提供特別的監(jiān)督和監(jiān)測,就基礎(chǔ)模型及利用這些模型的人工智能系統(tǒng)是否合規(guī),以及行業(yè)自我治理的最佳實踐,與基礎(chǔ)模型提供者建立定期對話制度;記錄并監(jiān)測已知的大模型大型訓(xùn)練的運行情況,以及發(fā)布基礎(chǔ)模型發(fā)展、擴散和使用狀況的年度報告,并附上應(yīng)對基礎(chǔ)模型特有風(fēng)險和機遇的政策選擇。

筆者認(rèn)為,專門機構(gòu)對于大模型的風(fēng)險監(jiān)管,除了監(jiān)督落實法定義務(wù)之外,可以側(cè)重以下兩個方面:一是組織對高性能大模型進(jìn)行強制性風(fēng)險評估。目前歐盟提案規(guī)定的大模型風(fēng)險評估,主要是提供者和部署者的自我評估?!稌盒修k法》第17條提到的提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的安全評估,也屬于自我評估,僅側(cè)重信息內(nèi)容安全風(fēng)險??紤]到大模型的潛在風(fēng)險可能影響巨大,為避免造成難以承受的后果,建議由專門機構(gòu)組織相關(guān)領(lǐng)域?qū)<?,對某些高性能大模型在其上市前進(jìn)行強制性的第三方風(fēng)險評估。這種強制性評估的范圍應(yīng)該限于具有強大能力的大模型,可以從大模型性能指標(biāo)入手進(jìn)行界定,比如限于參數(shù)超過1億或計算量超過一定門檻的大模型。鑒于對大模型技術(shù)的評估才剛開始探索,專門機構(gòu)應(yīng)該負(fù)責(zé)組織研究和發(fā)展針對大模型的評估方法和評估標(biāo)準(zhǔn)?;陲L(fēng)險評估的結(jié)果,專門機構(gòu)可以組織制定大模型的風(fēng)險應(yīng)對措施。二是加強對大模型遠(yuǎn)期風(fēng)險的監(jiān)測、研究和應(yīng)對。如前所述,大模型正常使用也可能對環(huán)境和社會經(jīng)濟(jì)造成一定的風(fēng)險,比如對環(huán)境和勞動就業(yè)的影響,但目前研究顯示這些風(fēng)險尚未構(gòu)成迫切威脅,可稱之為一種遠(yuǎn)期風(fēng)險。對于這類遠(yuǎn)期風(fēng)險,目前妥當(dāng)應(yīng)對策略是接受風(fēng)險,但也需要加強監(jiān)測和研究,一旦發(fā)現(xiàn)其轉(zhuǎn)變?yōu)楝F(xiàn)實威脅,應(yīng)該及時調(diào)整應(yīng)對措施。為監(jiān)測需要,大模型提供者應(yīng)有義務(wù)定期報告資源消耗等情況。

2.規(guī)范數(shù)據(jù)訓(xùn)練以避免數(shù)據(jù)泄露和不當(dāng)輸出

由上文可知,規(guī)制大模型數(shù)據(jù)訓(xùn)練引發(fā)的新型風(fēng)險,就是要確保數(shù)據(jù)訓(xùn)練的可控性和正當(dāng)性,最大限度地避免數(shù)據(jù)泄露以及因數(shù)據(jù)訓(xùn)練導(dǎo)致模型生成有害甚至違法內(nèi)容,提高生成內(nèi)容的準(zhǔn)確性和可靠性。大模型提供者和部署者的數(shù)據(jù)訓(xùn)練要滿足以下要求:

一是確保訓(xùn)練數(shù)據(jù)的收集和聚合符合可控性。由于大模型可能會“記憶”部分訓(xùn)練數(shù)據(jù),其強大的推理能力也會分析出敏感信息,因此應(yīng)該盡量避免將敏感的高風(fēng)險數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),以最大限度地避免敏感數(shù)據(jù)泄露。筆者認(rèn)為,關(guān)系國家安全和公共利益的重要數(shù)據(jù)、關(guān)系個人權(quán)益的隱私和個人識別信息、關(guān)系企業(yè)商業(yè)利益的商業(yè)秘密等,原則上不應(yīng)作為公開大模型的訓(xùn)練數(shù)據(jù)。

二是確保訓(xùn)練數(shù)據(jù)的來源和內(nèi)容符合正當(dāng)性。數(shù)據(jù)來源正當(dāng),主要就是《暫行辦法》強調(diào)的“具有合法來源”,不是以非法方式獲取的數(shù)據(jù)。筆者認(rèn)為,很多大模型默認(rèn)將用戶輸入的提示作為訓(xùn)練數(shù)據(jù)、只為用戶提供退出機制的做法,正當(dāng)性值得質(zhì)疑,至少在用戶輸入構(gòu)成個人信息的時候,應(yīng)當(dāng)原則上征得個人同意或者具有其他合法依據(jù)。數(shù)據(jù)內(nèi)容正當(dāng),主要就是數(shù)據(jù)承載的信息內(nèi)容不得違反法律法規(guī)的禁止性規(guī)定,不得侵害他人合法權(quán)益,符合一國的主流價值觀和意識形態(tài),盡量排除存在偏見、歧視等不公平內(nèi)容的數(shù)據(jù),確保訓(xùn)練數(shù)據(jù)質(zhì)量?!稌盒修k法》已明確要求采取有效措施“增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性”。不過從防止產(chǎn)生歧視的角度看,本文認(rèn)為還應(yīng)該要求訓(xùn)練數(shù)據(jù)具有充分的代表性、與預(yù)期目的的相關(guān)性,以及采取適當(dāng)?shù)钠姍z測和糾正措施,以最大限度地降低大模型中嵌入不公平偏見的風(fēng)險。

3.基于特定用途風(fēng)險構(gòu)建風(fēng)險分級管控制度

如前文所述,規(guī)制大模型部署應(yīng)用引發(fā)的新型風(fēng)險,就是要確保大模型部署應(yīng)用的可控性和正當(dāng)性,規(guī)制對象主要是大模型部署者。確??煽匦?,勢必需要對大模型特定用途的風(fēng)險進(jìn)行分級管控,按前述建議就是分不可接受風(fēng)險、高風(fēng)險、中風(fēng)險和低風(fēng)險予以不同程度的規(guī)制。從這個角度看,《暫行辦法》側(cè)重規(guī)制部署者確有道理,但僅提出分級監(jiān)管原則并未規(guī)定風(fēng)險分級規(guī)制,在風(fēng)險管控方面仍有較大完善空間。根據(jù)前述風(fēng)險管控策略,應(yīng)該允許低風(fēng)險用途,禁止存在不可接受風(fēng)險的用途,就高風(fēng)險和中風(fēng)險用途設(shè)定相適應(yīng)的風(fēng)險管控義務(wù),后兩個方面是分級管控制度的重點所在。具體而言:

一是明確大模型部署應(yīng)用的“禁止清單”。禁止清單主要是理清存在不可接受風(fēng)險的用途,筆者認(rèn)為主要是指可能嚴(yán)重危害國家安全、公共安全和重大公共利益,會造成難以承受后果的用途。這種不可接受性往往取決于一國的核心價值觀、國家利益和文化傳統(tǒng)等,不同國家可能會有不同的界定。從歐盟提案的界定來看,是基于歐盟維護(hù)基本權(quán)利等價值觀,側(cè)重禁止操縱性、侵入性和歧視性的用途。歐盟界定中提到的采用潛意識或欺騙技術(shù)、利用弱勢群體弱點等操縱人的行為等用途,可以為我國界定這種禁止性用途所借鑒;但對于歐盟擬禁止的預(yù)測性警務(wù)等用途,本身在歐盟立法過程中就引起很大爭議,是否列入我國的禁止清單需要進(jìn)一步論證。還需要指出的是,歐盟提案由于立法權(quán)力所限將軍事用途排除在適用范圍之外,筆者認(rèn)為我國未來立法應(yīng)該明確禁止將大模型用于自主武器系統(tǒng)、核威懾等軍事用途。

二是明確界定高風(fēng)險、中風(fēng)險用途并規(guī)定相應(yīng)的風(fēng)險管控義務(wù)。筆者認(rèn)為高風(fēng)險用途主要是指可能危害國家安全、經(jīng)濟(jì)運行、社會穩(wěn)定、公共健康和安全等的用途。歐盟提案議會版對高風(fēng)險用途的界定采用了“特定領(lǐng)域列舉+抽象要件認(rèn)定”的方法,即列出了關(guān)鍵基礎(chǔ)設(shè)施管理和運作等八個領(lǐng)域里可能存在高風(fēng)險用途的系統(tǒng),然后根據(jù)“對自然人的健康、安全或基本權(quán)利構(gòu)成重大損害風(fēng)險”限定條件具體認(rèn)定是否構(gòu)成高風(fēng)險用途。這種界定方法可以為我國所借鑒。對于決定大模型高風(fēng)險用途的部署者,借鑒歐盟提案,可以從風(fēng)險管理、透明度、記錄保存、技術(shù)可靠性等方面規(guī)定其風(fēng)險管控義務(wù)。在風(fēng)險管理方面,對于是否可以部署某種高風(fēng)險用途,建議借鑒歐盟提案議會版第29a條高風(fēng)險系統(tǒng)部署者“基本權(quán)利影響評估”義務(wù),要求部署者建立利益相關(guān)者尤其包括受影響者在內(nèi)多方參與的風(fēng)險評估機制。至于中風(fēng)險用途,借鑒歐盟“有限風(fēng)險”的理解,筆者認(rèn)為主要是指因運行不透明而導(dǎo)致人們可能被自動化系統(tǒng)誤導(dǎo)、操縱,可能危害人的自主性的用途。為避免這種風(fēng)險,應(yīng)規(guī)定此時部署者負(fù)有一定的透明度義務(wù),要告知使用者人工智能系統(tǒng)存在和運行情況,保障人們在知情后有權(quán)選擇是否使用系統(tǒng)。

4.確立貫穿大模型全生命周期的透明度制度

為有效應(yīng)對大模型的新型風(fēng)險,大模型的上下游參與者既需要直面大模型的不可解釋性,努力理解大模型訓(xùn)練部署和運行輸出的原理,也需要進(jìn)行充分的風(fēng)險溝通和信息共享,促成風(fēng)險的合作共治。而做到這兩方面的關(guān)鍵,在于確立貫穿大模型全生命周期的透明度制度。具體而言,包括三個方面:

一是大模型提供者及高風(fēng)險用途部署者的信息公開義務(wù)。從歐盟立法來看,提案最初只規(guī)定了高風(fēng)險人工智能系統(tǒng)才負(fù)有透明度義務(wù),提案議會版明確要求基礎(chǔ)模型應(yīng)在歐盟高風(fēng)險人工智能系統(tǒng)數(shù)據(jù)庫中登記并按附件8要求公布相關(guān)信息。筆者贊同這一思路,不論大模型是否用于高風(fēng)險用途,都有必要保持一定的透明度。借鑒歐盟的規(guī)定,并結(jié)合前文所述,筆者認(rèn)為大模型提供者應(yīng)該公布以下信息并保持更新:提供者名稱等基本信息;大模型訓(xùn)練數(shù)據(jù)的來源;大模型的能力、局限性以及合理可預(yù)見的風(fēng)險緩解措施;大模型訓(xùn)練所需的計算能力以及對環(huán)境的可能影響;大模型按照公共或行業(yè)基準(zhǔn)具有的性能;大模型內(nèi)外部測試和優(yōu)化的說明等。大模型高風(fēng)險用途部署者也應(yīng)該參照這些內(nèi)容公布模型部署應(yīng)用情況,并著重說明高風(fēng)險系統(tǒng)的預(yù)期用途、局限性、潛在風(fēng)險及緩解措施。在信息公開形式上,我國可以借鑒歐盟建立可公開訪問的數(shù)據(jù)庫。

二是大模型中風(fēng)險用途部署者及使用者的透明度義務(wù)。除了前述大模型中風(fēng)險用途部署者負(fù)有透明度義務(wù)外,基于大模型的中風(fēng)險系統(tǒng)的使用者,對受到系統(tǒng)影響的人也應(yīng)負(fù)有一定的透明度義務(wù)。例如,歐盟提案議會版第52條新增規(guī)定:與人類交互的系統(tǒng)的使用者,利用系統(tǒng)做出決策時,應(yīng)當(dāng)告知接觸系統(tǒng)的人,誰負(fù)責(zé)決策過程以及現(xiàn)有的權(quán)利和程序,這些權(quán)利和程序允許反對適用系統(tǒng)并就系統(tǒng)所做決策或所致?lián)p害尋求司法補救,包括尋求解釋的權(quán)利;未被禁止的情緒識別系統(tǒng)或生物特征分類系統(tǒng)的使用者,應(yīng)當(dāng)在處理生物特征數(shù)據(jù)和其他個人數(shù)據(jù)前征得接觸系統(tǒng)的人的同意;“深度偽造”系統(tǒng)的使用者,應(yīng)當(dāng)以適當(dāng)、及時、清晰和可見的方式披露內(nèi)容是人為生成或操縱的。

三是大模型價值鏈上游參與者向下游參與者提供必要信息的義務(wù)。大模型提供者應(yīng)當(dāng)向部署者、大模型高風(fēng)險用途部署者應(yīng)當(dāng)向使用者,提供必要的技術(shù)文件和使用說明,以支持下游人工智能系統(tǒng)的正常運行和依法使用,尤其是符合高風(fēng)險系統(tǒng)的監(jiān)管要求。歐盟提案附件4規(guī)定這些信息包括人工智能系統(tǒng)的一般描述、要素和開發(fā)過程的詳細(xì)說明、運行和控制的詳細(xì)資料、風(fēng)險管理的詳細(xì)描述等。提案議會版認(rèn)為還應(yīng)當(dāng)包括:系統(tǒng)的主要目標(biāo)、輸出質(zhì)量和輸出可解釋性;系統(tǒng)的結(jié)構(gòu)、設(shè)計規(guī)格、算法和數(shù)據(jù)結(jié)構(gòu)以及它們的彼此聯(lián)系和整體邏輯;特定系統(tǒng)性能指標(biāo)的適當(dāng)性;系統(tǒng)開發(fā)的能源消耗以及使用的預(yù)期能源消耗等。筆者認(rèn)為,必要信息的提供,應(yīng)該考慮上下游參與者之間約定的大模型利用方式,并在技術(shù)信息共享和商業(yè)秘密保護(hù)之間取得適當(dāng)平衡。

5.健全防止生成違法內(nèi)容的上下游共治機制

規(guī)制大模型部署應(yīng)用引發(fā)的風(fēng)險,除了要確保具體部署的可控性,還要確保特定用途的正當(dāng)性,這就既需要禁止將大模型用于違法目的,也需要防止大模型生成違法內(nèi)容,而后者涉及機器生成違法內(nèi)容的新挑戰(zhàn),是規(guī)制大模型新型風(fēng)險的關(guān)鍵所在。針對大模型生成內(nèi)容的信息內(nèi)容安全風(fēng)險,歐盟提案議會版和《暫行辦法》都明確要求防止生成違法內(nèi)容。大模型之所以生成違法內(nèi)容,既可能是源于大模型訓(xùn)練數(shù)據(jù)缺陷的模型有害輸出,也可能是大模型被故意部署濫用于生成違法內(nèi)容,因此防止大模型生成違法內(nèi)容需要上下游的合作共治。前述大模型提供者的數(shù)據(jù)規(guī)范訓(xùn)練義務(wù)、大模型部署者的風(fēng)險管控義務(wù)等,都是盡量避免大模型生成違法內(nèi)容的有力措施。

但如果基于大模型的人工智能系統(tǒng)還是生成了違法內(nèi)容,應(yīng)該如何及時發(fā)現(xiàn)與處置呢?對此,《暫行辦法》要求生成式服務(wù)提供者即大模型部署者應(yīng)當(dāng)承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,發(fā)現(xiàn)違法內(nèi)容及時采取停止生成等處置措施和模型優(yōu)化訓(xùn)練等整改措施,并向有關(guān)主管部門報告。不過細(xì)思之下,雖然部署者提供了生成式服務(wù),但該服務(wù)是基于大模型提供者的技術(shù),下達(dá)指令決定具體生成內(nèi)容及受眾的是服務(wù)的使用者,使用者才是其中最重要的內(nèi)容生產(chǎn)者。僅將大模型部署者認(rèn)定為內(nèi)容生產(chǎn)者,實際是讓部署者對使用者生成內(nèi)容行為直接承擔(dān)全部責(zé)任,考慮到使用者利用生成式服務(wù)會生成海量內(nèi)容,這種要求似乎過于嚴(yán)苛;讓部署者采取模型優(yōu)化訓(xùn)練的整改措施,但除了開源模型等情況外,部署者往往無法對上游大模型進(jìn)行優(yōu)化修改,實際根本無法完成整改目標(biāo)。

這說明僅依靠部署者難以完成發(fā)現(xiàn)和處置違法內(nèi)容的重任,應(yīng)當(dāng)進(jìn)一步健全發(fā)現(xiàn)和處置違法內(nèi)容的共治機制。一是健全違法內(nèi)容 發(fā)現(xiàn)的共治機制。目前《暫行辦法》強調(diào)部署者有義務(wù)“發(fā)現(xiàn)”并處置違法內(nèi)容,不過考慮到使用者會生成海量內(nèi)容,要求逐一人工審查幾乎是不可行的,因此參照《網(wǎng)絡(luò)安全法》第47條的規(guī)定和理解,筆者認(rèn)為不能將部署者發(fā)現(xiàn)違法內(nèi)容的義務(wù)理解為讓其對所有生成內(nèi)容承擔(dān)普遍審查義務(wù),發(fā)現(xiàn)違法內(nèi)容需要部署者、使用者和主管部門的共同參與:除了部署者負(fù)有一定的“主動”發(fā)現(xiàn)義務(wù),即應(yīng)該根據(jù)現(xiàn)有技術(shù)水平采取人工審核監(jiān)督、識別過濾措施等手段,積極查找違法內(nèi)容之外,還應(yīng)該暢通違法內(nèi)容的舉報機制,完善主管部門的舉報處理和巡查機制,動員廣大使用者積極舉報違法內(nèi)容;部署者對于通過使用者舉報、主管部門告知等途徑“被動”獲知的違法內(nèi)容,應(yīng)當(dāng)及時予以處置。二是健全違法內(nèi)容處置的共治機制。當(dāng)部署者發(fā)現(xiàn)自己不足以阻卻違法內(nèi)容生成時,應(yīng)及時將有關(guān)情況告知大模型提供者,由提供者采取修改模型參數(shù)、模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報告。當(dāng)然如果發(fā)現(xiàn)生成違法內(nèi)容是由于部署者適配模型造成的,應(yīng)當(dāng)由部署者通過模型適配優(yōu)化訓(xùn)練等措施進(jìn)行相應(yīng)整改,不應(yīng)將整改責(zé)任強加給上游的提供者。

(責(zé)任編輯:王青斌)

猜你喜歡
生成式人工智能透明度
生成式人工智能的教育啟示:讓每個人成為他自己
挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
生成式人工智能時代的政治傳播走向
黨政研究(2023年3期)2023-05-29 01:10:39
生成式人工智能重塑教育及教師應(yīng)對之道
人機共生時代國際傳播的理念升維與自主敘事體系構(gòu)建
對外傳播(2023年4期)2023-05-21 20:52:16
生成式人工智能的教育應(yīng)用與展望
中國FTA中的透明度原則
彩色透明度
童話世界(2017年26期)2017-12-18 00:31:05
股權(quán)結(jié)構(gòu)與信息透明度相關(guān)性的實證研究
提高上市公司會計信息透明度的對策
华蓥市| 彩票| 吉安市| 揭阳市| 东宁县| 房产| 长寿区| 泉州市| 南溪县| 松江区| 宁南县| 长治市| 扬州市| 分宜县| 武山县| 武义县| 大田县| 洪雅县| 沂源县| 南城县| 邵武市| 利津县| 巴彦淖尔市| 龙南县| 珲春市| 双城市| 廊坊市| 思南县| 周口市| 蛟河市| 潞西市| 辽宁省| 佛学| 中方县| 扎赉特旗| 射洪县| 班玛县| 乌审旗| 甘南县| 富裕县| 临江市|