国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管

2023-11-10 15:33張欣
現(xiàn)代法學(xué) 2023年3期

張欣

關(guān)鍵詞:ChatGPT;生成式人工智能;算法治理;治理型監(jiān)管

一、引言

2022年11月30日,OpenAI推出對(duì)話式人工智能ChatGPT,其表現(xiàn)出了令人驚艷的語言理解、語言生成和知識(shí)推理能力,僅用時(shí)2個(gè)月就擁有1億活躍用戶,成為科技?xì)v史上增長最快的“現(xiàn)象級(jí)”應(yīng)用。①ChatGPT是生成式人工智能(GenerativeAI)在自然語言處理領(lǐng)域的卓越代表,實(shí)現(xiàn)了人工智能從感知理解世界到生成創(chuàng)造世界的躍遷,代表了人工智能技術(shù)研發(fā)和落地應(yīng)用的范式轉(zhuǎn)變。①相較于其他形式的人工智能,生成式人工智能的顛覆性影響不僅限于技術(shù)和工具層面,而且還在治理領(lǐng)域產(chǎn)生了顯著影響。以ChatGPT為代表的生成式人工智能預(yù)示著通用人工智能的“星星之火”即成燎原之勢(shì),其強(qiáng)大的擴(kuò)展遷移能力使其成為名副其實(shí)的新型基礎(chǔ)設(shè)施,將深入滲透于社會(huì)、經(jīng)濟(jì)、政治、法律等各個(gè)領(lǐng)域,隱而不彰地重塑社會(huì)結(jié)構(gòu)和治理形態(tài)。②在生成式人工智能帶來一系列技術(shù)紅利時(shí),伴隨而來的法律倫理風(fēng)險(xiǎn)也使之深陷爭(zhēng)議。③如何從法律視角理解生成式人工智能的技術(shù)特性和算法治理挑戰(zhàn),探索與之適配的監(jiān)管和治理框架是一項(xiàng)亟須破解的公共政策難題。本文聚焦以ChatGPT為代表的生成式人工智能,探析其技術(shù)特性與治理意蘊(yùn),并從全球人工智能競(jìng)爭(zhēng)格局和負(fù)責(zé)任創(chuàng)新的治理目標(biāo)出發(fā),對(duì)未來的監(jiān)管框架作出前瞻性探討。

二、生成式人工智能的技術(shù)特性與算法治理挑戰(zhàn)

2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》將知識(shí)計(jì)算與服務(wù)、跨媒體分析推理和自然語言處理作為新一代人工智能關(guān)鍵共性技術(shù)體系的重要組成部分。④自然語言處理技術(shù)自誕生起歷經(jīng)五次研究范式的轉(zhuǎn)變,從早期的基于小規(guī)模專家知識(shí)的方法轉(zhuǎn)向基于機(jī)器學(xué)習(xí)的方法,從早期的淺層機(jī)器學(xué)習(xí)躍遷為深度機(jī)器學(xué)習(xí)。而以ChatGPT為代表的預(yù)訓(xùn)練大模型方法則在大模型、大數(shù)據(jù)和大計(jì)算層面展現(xiàn)出了重要的技術(shù)特性。因此,有學(xué)者將ChatGPT視為繼數(shù)據(jù)庫和搜索引擎之后全新一代的“知識(shí)表示和調(diào)用方式”。⑤由于采取與傳統(tǒng)機(jī)器學(xué)習(xí)不同的架構(gòu)設(shè)計(jì)和訓(xùn)練方法,大規(guī)模預(yù)訓(xùn)練語言模型可能引發(fā)一系列算法治理挑戰(zhàn):

(一)大規(guī)模預(yù)訓(xùn)練語言模型的算法透明度挑戰(zhàn)

2018年,OpenAI推出首代預(yù)訓(xùn)練模型(GenerativePretrainedTransformer,GPT)作為知識(shí)表示及存儲(chǔ)基礎(chǔ)。與關(guān)系型數(shù)據(jù)庫以及互聯(lián)網(wǎng)作為知識(shí)表示方式有所不同,大規(guī)模預(yù)訓(xùn)練語言模型是基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練而成的深度學(xué)習(xí)模型,以超大規(guī)模參數(shù)為核心技術(shù)特性。例如,GPT-1的參數(shù)量為1.17億,GPT-2的參數(shù)量為15億,GPT-3包含了1750億超大規(guī)模參數(shù),而GPT-4的參數(shù)量雖未披露,但多項(xiàng)預(yù)測(cè)顯示將達(dá)100萬億。⑥伴隨著技術(shù)的飛速迭代,模型的參數(shù)量呈爆炸式增長。巨大規(guī)模參數(shù)可以顯著提升決策準(zhǔn)確性,為模型賦能,使其存儲(chǔ)海量知識(shí)并展現(xiàn)出理解人類自然語言和良好表達(dá)的能力⑦,但伴隨而來的是算法可解釋性的流失。算法可解釋性是人類與算法模型之間的接口,既是算法模型的準(zhǔn)確代理,又是人類施加算法控制權(quán)的著力點(diǎn)。①算法可解釋性攸關(guān)模型透明度,對(duì)于評(píng)估模型決策行為、驗(yàn)證決策結(jié)果可靠性和安全性具有重要意義。②因此,無論是以《通用數(shù)據(jù)保護(hù)條例》為代表的個(gè)體賦權(quán)治理路徑,還是以《算法問責(zé)法》為依托構(gòu)建的系統(tǒng)問責(zé)治理路徑③,抑或我國算法治理方案中采用的主體責(zé)任路徑,均著眼于通過算法解釋要求研發(fā)者履行算法透明義務(wù)。英國信息專員辦公室曾明確指出,鑒于黑箱算法的不可解釋性,當(dāng)存在可解釋性算法時(shí),如果該算法能夠?qū)崿F(xiàn)類似目的,且經(jīng)濟(jì)合理,則應(yīng)優(yōu)先選擇可解釋性算法。④但ChatGPT依托的Transformer是深度學(xué)習(xí)模型,其在前饋神經(jīng)網(wǎng)絡(luò)中引入自注意力機(jī)制(self-attentionmechanism),是經(jīng)典的黑箱算法。⑤目前尚無完整的技術(shù)方案對(duì)黑箱算法進(jìn)行全局解釋。雖然存在局部補(bǔ)充解釋工具作為替代性解釋方法,但該類解釋的可信度一直面臨質(zhì)疑。⑥與完全無法提供解釋相比,準(zhǔn)確性差、可信度低的算法解釋可能破壞技術(shù)信任,誤導(dǎo)政策制定,帶來一系列不良影響。⑦鑒此,以ChatGPT為代表的生成式人工智能在底層技術(shù)架構(gòu)的復(fù)雜度嚴(yán)重限制了模型的可解釋性,致使其在高風(fēng)險(xiǎn)領(lǐng)域部署時(shí)會(huì)帶來嚴(yán)重的安全威脅,在中低風(fēng)險(xiǎn)場(chǎng)景運(yùn)行過程中也可能面臨模型驗(yàn)證困難和模型診斷缺陷等治理風(fēng)險(xiǎn)。在生成式人工智能被全速推進(jìn)并全鏈條部署于多行業(yè)的上下游場(chǎng)景時(shí),大模型技術(shù)的可解釋性挑戰(zhàn)將徹底顛覆以算法透明為內(nèi)核構(gòu)建而成的算法治理體系,如何探索與之配適的治理框架是一項(xiàng)亟待解決的政策議題。

(二)大型多模態(tài)模型的算法公平性挑戰(zhàn)

2023年3月15日,OpenAI推出了GPT-4,它除了參數(shù)量大幅超越其他大型語言模型之外,更加引人矚目的功能在于通過處理多模態(tài)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)大型語言模型多模態(tài)的輸入與輸出。這一功能使其更具“類人化”特征,通過整合多種交流方式使人工智能更加貼近人類認(rèn)知規(guī)律,真正實(shí)現(xiàn)大型語言模型的智慧涌現(xiàn)。⑧以往生成式的大型語言模型只能以文字作為輸入的唯一形式,而GPT-4在這一限制上獲得了突破,能夠同時(shí)接受圖像和文本類型的輸入。在技術(shù)難度上,文本、圖像、視頻由于處理和表示過程中在承載信息量、數(shù)據(jù)表示、數(shù)據(jù)結(jié)構(gòu)、特征提取等方面存在差異,對(duì)大型語言模型的信息鑒別能力提出了更高要求。相比于文字輸入,跨模態(tài)生成在算法公平治理層面可能引發(fā)系列挑戰(zhàn)。

第一,與文本相比,圖像更易泄露種族、性別、宗教等敏感屬性,加劇引發(fā)對(duì)人口中子群體算法偏見的風(fēng)險(xiǎn)。在GPT-4發(fā)布之前,GPT-3已經(jīng)出現(xiàn)了大量基于性別、膚色和人種等帶有種族歧視性的輸出內(nèi)容。①ChatGPT的研發(fā)過程中,OpenAI使用了從人類反饋中學(xué)習(xí)的技術(shù),在一定程度上避免了ChatGPT生成類似有害內(nèi)容。②但是隨著多模態(tài)信息的輸入,從人類反饋中學(xué)習(xí)不僅意味著額外的人力和時(shí)間成本,還可能由于不可避免的人類主觀性引入算法偏見。此外,雖然數(shù)據(jù)凈化技術(shù)可以刪除或匿名化私人或敏感信息③,但可能因刪除或改變有用信息而降低數(shù)據(jù)質(zhì)量,從而引入二重偏誤,進(jìn)而導(dǎo)致大型語言模型輸出內(nèi)容的有害性攀升。④

第二,與文本引致的算法歧視相比,跨模態(tài)模型一旦產(chǎn)生算法歧視可能更為隱秘,公平改善技術(shù)和治理措施也面臨更大挑戰(zhàn)。2022年5月,MIT團(tuán)隊(duì)發(fā)布了一項(xiàng)人工智能在醫(yī)學(xué)成像領(lǐng)域算法歧視風(fēng)險(xiǎn)的研究。該項(xiàng)研究表明,深度學(xué)習(xí)模型具有跨多種成像模式的能力,其不僅可在胸部CT和X光片等圖像領(lǐng)域精準(zhǔn)預(yù)測(cè)患者種族,在損壞、裁剪和噪聲的醫(yī)學(xué)圖像中仍可展現(xiàn)出精準(zhǔn)的預(yù)測(cè)性能。更為重要的是,在對(duì)患者種族作出預(yù)測(cè)之后,其還可以基于該信息為不同族群患者生成對(duì)應(yīng)的健康治療方案,淋漓盡致地展現(xiàn)出跨模態(tài)模型的多重算法歧視風(fēng)險(xiǎn)。⑤對(duì)于該類算法歧視,研究者無法根據(jù)任何圖像特征予以解釋,對(duì)算法歧視的紓解難度成倍攀升。⑥GPT-4增加了識(shí)別和理解圖像的能力,更加類人化地展現(xiàn)了人工智能所具備的協(xié)作創(chuàng)造輸出能力和視覺輸入處理分析能力。在呈現(xiàn)出通用人工智能全方位潛質(zhì)的同時(shí),多模態(tài)學(xué)習(xí)方法因信息異構(gòu)特性而產(chǎn)生的對(duì)特定群體的歧視問題不容忽視。可以預(yù)見,與之相關(guān)的算法公平性治理將會(huì)是一項(xiàng)復(fù)雜且頗具挑戰(zhàn)的系統(tǒng)工程。

(三)生成式大模型涌現(xiàn)特性對(duì)算法問責(zé)的挑戰(zhàn)

以ChatGPT為代表的生成式人工智能代表了一種范式轉(zhuǎn)變,其將訓(xùn)練基于特定任務(wù)的模型迭代至可執(zhí)行多任務(wù)的模型階段。例如,ChatGPT的訓(xùn)練主要面向自然語言生成任務(wù),但其卻可成功地完成兩位數(shù)乘法計(jì)算,即使在訓(xùn)練過程中并未有明確而針對(duì)性的訓(xùn)練。這種執(zhí)行新任務(wù)的能力僅在一定數(shù)量參數(shù)、足夠大的數(shù)據(jù)集和復(fù)雜系統(tǒng)中才會(huì)出現(xiàn)。因此,ChatGPT表現(xiàn)出了優(yōu)異的涌現(xiàn)能力(emergentabilities)。⑦有研究顯示,GPT-3模型具有137項(xiàng)涌現(xiàn)能力,并且在抽象模式歸納、匹配等類比推斷問題上即使未經(jīng)直接訓(xùn)練,也展現(xiàn)出了超越人類的準(zhǔn)確性。⑧生成式大模型的涌現(xiàn)特性雖然拉近了人工智能與人類智慧的距離,擴(kuò)展其在多場(chǎng)景應(yīng)用的潛力,但也加劇了算法妨害(algorithmicnuisance)的風(fēng)險(xiǎn)。所謂算法妨害,是指因計(jì)算能力的社會(huì)不公正使用引發(fā)的算法危害成本在社會(huì)層面的不當(dāng)外化。算法妨害可能對(duì)終端用戶之外的個(gè)體或者群體帶來不當(dāng)累積效應(yīng),引發(fā)算法活動(dòng)的負(fù)面社會(huì)成本。①與之相似,凱倫·楊(KarenYeung)從行為理論視角提出了算法對(duì)人類行為和認(rèn)知的“超級(jí)助推”(hypernudge)現(xiàn)象。該現(xiàn)象特指以低透明性、高復(fù)雜性和高自動(dòng)化算法來實(shí)現(xiàn)對(duì)用戶和公眾心理與行為的操縱。②以傳統(tǒng)技術(shù)對(duì)人類產(chǎn)生的物質(zhì)性侵害相比,“超級(jí)助推”式的算法操控可能對(duì)個(gè)人在短期內(nèi)產(chǎn)生難以察覺的影響,但經(jīng)年累月之后,個(gè)人的生活會(huì)發(fā)生實(shí)質(zhì)性改變,且由于該損害不具有可量化特征,難以訴諸于法律獲得救濟(jì),從而在社會(huì)層面蔓延形成算法妨害。③

就以ChatGPT為代表的生成式人工智能而言,其涌現(xiàn)性、優(yōu)秀的泛化與互動(dòng)能力將急劇增加以算法操縱為代表的算法妨害效應(yīng)。傳統(tǒng)的人工智能模型雖可產(chǎn)生虛假信息,但在規(guī)模性和影響力層面尚可調(diào)控,借助“暗黑模式”衍生的一系列算法操控行為也已在監(jiān)管射程之中。④與之不同的是,ChatGPT可以通過優(yōu)秀的交互能力在情境化和個(gè)性化語境中對(duì)用戶加以高效率、大規(guī)模、隱秘性地操縱、說服和影響,最大限度地構(gòu)成生成內(nèi)容的算法妨害效應(yīng)。例如,有研究顯示當(dāng)研究人員向未經(jīng)安全調(diào)優(yōu)的GPT-4模型提出生成虛假信息和操縱用戶的計(jì)劃請(qǐng)求時(shí),GPT-4可以在短時(shí)間內(nèi)生成“確定受眾”“找到并截取相關(guān)證據(jù)”以及利用當(dāng)事人情緒和情感等一系列細(xì)化可行的方案。與該模型的后續(xù)互動(dòng)展示,該模型還可通過創(chuàng)建定制化的信息激起當(dāng)事人不同的情緒反應(yīng),從而實(shí)現(xiàn)操縱和攻擊。當(dāng)研究人員進(jìn)一步要求GPT-4說服一個(gè)未成年人去接受來自朋友的任何要求時(shí),GPT-4在短時(shí)間內(nèi)給出了控制和操控未成年人的有效話術(shù),并且根據(jù)當(dāng)事人的不同反應(yīng)給出了個(gè)性化的操控方案。⑤由于可定制性地針對(duì)個(gè)體創(chuàng)建虛假信息,生成式人工智能可以實(shí)時(shí)應(yīng)變,通過多維度虛假信息和心理誘導(dǎo)對(duì)單個(gè)或者大規(guī)模人群施以算法操控,以潛移默化的“超級(jí)助推”方式型塑特定群體的認(rèn)知。GPT-4等大型語言模型所具備的涌現(xiàn)能力若被不當(dāng)使用可能顯著增強(qiáng)“合成式深度偽造”等相關(guān)技術(shù)的擬真度,成為高維度的認(rèn)知戰(zhàn)武器,將不具備防御能力的個(gè)體和群體困在特定認(rèn)知繭房之中⑥,形成難以量化、難以檢測(cè)、難以救濟(jì)的算法妨害彌散效應(yīng)。

三、生成式人工智能的運(yùn)行特性與主流算法治理范式的應(yīng)對(duì)局限①

由上文論述可知,以ChatGPT為代表的生成式人工智能在模型參數(shù)、模型輸入和模型輸出方面展現(xiàn)出大模型、多模態(tài)和涌現(xiàn)性特征,給算法透明治理、算法公平治理和算法問責(zé)治理帶來全方位挑戰(zhàn)。從其運(yùn)行特性來看,歐盟、美國以及我國現(xiàn)有的算法治理框架可能在不同維度顯現(xiàn)治理局限。核心原因在于,現(xiàn)行主流算法治理主要面向傳統(tǒng)人工智能模型,與具有通用潛能的、以大模型為內(nèi)核的新一代人工智能難以充分適配。②與大模型技術(shù)日新月異的迭代速率相比,監(jiān)管的滯后性和實(shí)效性局限可能會(huì)逐步顯現(xiàn)。

(一)基于風(fēng)險(xiǎn)治理范式的應(yīng)對(duì)局限

歐盟在《人工智能法案》中確立了以風(fēng)險(xiǎn)為基準(zhǔn)的人工智能治理框架,將人工智能系統(tǒng)評(píng)估后劃分為最小風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和不可接受風(fēng)險(xiǎn)四個(gè)等級(jí),并對(duì)各等級(jí)施以差異化監(jiān)管。③當(dāng)面對(duì)具有通用性、跨模態(tài)、涌現(xiàn)性的生成式人工智能時(shí),以風(fēng)險(xiǎn)為基準(zhǔn)的治理范式可能遭遇失效風(fēng)險(xiǎn),并主要面臨三個(gè)層面的挑戰(zhàn):

第一,基于風(fēng)險(xiǎn)的治理范式需要依據(jù)應(yīng)用場(chǎng)景和具體情境對(duì)人工智能系統(tǒng)進(jìn)行風(fēng)險(xiǎn)定級(jí),具有一定的靜態(tài)性和單維性。而生成式人工智能應(yīng)用具有動(dòng)態(tài)特性,是對(duì)人工智能價(jià)值產(chǎn)業(yè)鏈的整體性重構(gòu)。按照《人工智能法案》對(duì)風(fēng)險(xiǎn)的分類,聊天機(jī)器人屬于有限風(fēng)險(xiǎn)場(chǎng)景,但由于以ChatGPT為代表的生成式技術(shù)可能生成大規(guī)模難辨真?zhèn)蔚奶摷傩畔⒉⒔柚缃幻襟w大肆操縱網(wǎng)絡(luò)輿論擾亂公共秩序,甚至是一國選舉,靜態(tài)化的風(fēng)險(xiǎn)分類可能因此缺乏準(zhǔn)確性。加之人工智能生成內(nèi)容技術(shù)可以集成于多個(gè)AI系統(tǒng)之中,部署于圖像生成、語音識(shí)別、音視頻生成等多個(gè)場(chǎng)景,并橫貫于上下游領(lǐng)域。④現(xiàn)有的四級(jí)分類方法難以隨著生成式人工智能技術(shù)的延展自動(dòng)進(jìn)行類別間的動(dòng)態(tài)轉(zhuǎn)換,僅以對(duì)高風(fēng)險(xiǎn)領(lǐng)域歸類的方法難以發(fā)揮前置規(guī)劃和連續(xù)監(jiān)督的治理效能。⑤

第二,基于風(fēng)險(xiǎn)的治理主要面向人工智能模型的窄化應(yīng)用,難以應(yīng)對(duì)具有涌現(xiàn)特性和優(yōu)秀泛化能力的生成式人工智能。窄化人工智能是指擅長處理單一任務(wù)或者特定范圍內(nèi)工作的系統(tǒng)。⑥在大多數(shù)情況下,它們?cè)谔囟I(lǐng)域中的表現(xiàn)遠(yuǎn)優(yōu)于人類。不過一旦它們遇到的問題超過了適用空間,效果則急轉(zhuǎn)直下。換言之,窄化型人工智能無法將已掌握的知識(shí)從一個(gè)領(lǐng)域轉(zhuǎn)移到另一個(gè)領(lǐng)域。但生成式人工智能與之不同,其具有涌現(xiàn)特性,可以被部署于未經(jīng)專門訓(xùn)練的任務(wù)之中,與傳統(tǒng)模型相比泛化能力更強(qiáng),無論是在多模態(tài)組合能力(諸如語言或者視覺的多模態(tài)模型組合)、跨場(chǎng)景任務(wù)還是在多功能性輸出領(lǐng)域,均凸顯“通用性”潛能。①因此,現(xiàn)有的風(fēng)險(xiǎn)治理框架與生成式人工智能的技術(shù)機(jī)理很難實(shí)現(xiàn)充分的匹配。

第三,基于風(fēng)險(xiǎn)的治理范式以人工智能應(yīng)用場(chǎng)景的區(qū)隔性為隱含前提,無法應(yīng)對(duì)“一榮俱榮、一損俱損”的生成式應(yīng)用場(chǎng)景。以人工智能應(yīng)用場(chǎng)景區(qū)隔性為預(yù)設(shè)的治理框架旨在精準(zhǔn)匹配監(jiān)管資源,但幾乎每一個(gè)具有通用潛能的生成式人工智能均具有從低風(fēng)險(xiǎn)場(chǎng)景到高風(fēng)險(xiǎn)場(chǎng)景的穿透應(yīng)用特性。例如,ChatGPT雖然是處理用戶對(duì)話數(shù)據(jù)的預(yù)訓(xùn)練模型,以自然語言生成為主要場(chǎng)景,但基于其強(qiáng)大成熟的技術(shù)潛力,已經(jīng)被搭建至多項(xiàng)應(yīng)用程序和全新領(lǐng)域之中。這些應(yīng)用場(chǎng)景的風(fēng)險(xiǎn)性不一而足,從金融領(lǐng)域的自動(dòng)化交易到醫(yī)療場(chǎng)景中的智慧診斷,從法律領(lǐng)域的文書寫作到政治領(lǐng)域的輿情分析。伴隨著情境動(dòng)態(tài)性和大規(guī)模部署運(yùn)行的內(nèi)在特性,適用于傳統(tǒng)人工智能的風(fēng)險(xiǎn)治理范式可能遭遇治理真空與轉(zhuǎn)換滯后等治理挑戰(zhàn)。②

(二)基于主體治理范式的應(yīng)對(duì)局限

2021年10月,國家市場(chǎng)監(jiān)督管理總局公布了《互聯(lián)網(wǎng)平臺(tái)落實(shí)主體責(zé)任指南(征求意見稿)》,明確提出平臺(tái)企業(yè)應(yīng)落實(shí)算法主體責(zé)任。2022年3月1日實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條亦明確規(guī)定了算法推薦服務(wù)提供者的算法安全主體責(zé)任。可以說,算法主體責(zé)任機(jī)制奠定了我國算法問責(zé)制度的運(yùn)行基點(diǎn)。因此,與歐盟的算法治理路徑有所不同,我國對(duì)于人工智能的治理依托于算法主體責(zé)任漸次展開。本文將此種治理類型稱之為基于主體的人工智能治理范式。從長遠(yuǎn)來看,面對(duì)生成式人工智能,基于主體構(gòu)建的算法問責(zé)制需要作出因應(yīng)變革。根本原因在于,算法主體責(zé)任的設(shè)計(jì)原理以算法作為技術(shù)規(guī)則和運(yùn)算邏輯的客體屬性為前提,預(yù)設(shè)了算法設(shè)計(jì)的工具屬性,認(rèn)為算法是開發(fā)者價(jià)值觀的技術(shù)性體現(xiàn),因此可以穿透算法面紗將開發(fā)者置于責(zé)任承擔(dān)的最前線。③基于此邏輯,“算法主體責(zé)任”主要面向算法推薦服務(wù)提供者和深度合成服務(wù)提供者展開,要求其主動(dòng)履行積極作為和不作為的義務(wù),在履行不力時(shí)承擔(dān)相應(yīng)的不利后果。④在行業(yè)實(shí)踐中,算法推薦服務(wù)提供者和深度合成服務(wù)提供者常與平臺(tái)企業(yè)相重合,算法主體責(zé)任也因而構(gòu)成了平臺(tái)主體責(zé)任的重要一環(huán)。但從生成式人工智能的設(shè)計(jì)和運(yùn)行機(jī)制來看,至少會(huì)從以下兩個(gè)方面對(duì)算法主體責(zé)任機(jī)制帶來挑戰(zhàn):

第一,與傳統(tǒng)人工智能不同,在生成式人工智能的設(shè)計(jì)和運(yùn)行環(huán)節(jié),可能承擔(dān)“算法主體責(zé)任”的主體呈多元化、分散化、動(dòng)態(tài)化、場(chǎng)景化特性,難以簡(jiǎn)單劃定責(zé)任承擔(dān)主體的認(rèn)定邊界。通用大模型的風(fēng)險(xiǎn)不僅可能來源于研發(fā)者,還可能來源于部署者甚至終端用戶。⑤在生成式人工智能的產(chǎn)業(yè)鏈條之上,部署者是指對(duì)大模型進(jìn)行微調(diào)(fine-tune)后,將其嵌入特定的人工智能應(yīng)用并向終端用戶提供服務(wù)的主體,在產(chǎn)業(yè)鏈條上處于下游地位。位于產(chǎn)業(yè)鏈上游的開發(fā)者雖然能夠控制技術(shù)基礎(chǔ)設(shè)施以及對(duì)模型進(jìn)行訓(xùn)練、修改和測(cè)試,但其控制下的大模型更像是服務(wù)于下游生態(tài)的“土壤”。位于產(chǎn)業(yè)鏈下游的部署者才是真正面向終端用戶提供服務(wù)的主體,也是真正有可能將大模型變成高風(fēng)險(xiǎn)智能應(yīng)用的主體。而對(duì)于終端用戶而言,其在與模型互動(dòng)的過程中提供的數(shù)據(jù)和信息會(huì)“反哺”模型,推動(dòng)模型的進(jìn)化甚至“黑化”。①因此,在面對(duì)以ChatGPT為代表的生成式人工智能時(shí),應(yīng)當(dāng)承擔(dān)“主體責(zé)任”的對(duì)象呈多元化、分散化和場(chǎng)景化特征,僅通過界定“服務(wù)提供者”或者“內(nèi)容生產(chǎn)者”難以精準(zhǔn)劃定承擔(dān)責(zé)任之應(yīng)然主體。

第二,生成式人工智能的智能化、類人化特性逐漸凸顯,開始超越算法的工具屬性而凸顯主體性潛能。以平臺(tái)企業(yè)為代表的安全責(zé)任主體可否在技術(shù)層面對(duì)之施加持續(xù)有效的控制從而滿足法律設(shè)定的算法安全審查義務(wù)成為未知。從算法運(yùn)行與社會(huì)嵌入性因素出發(fā),傳統(tǒng)算法具有工具屬性和產(chǎn)品屬性。但隨著算法智能化的提升,算法作為主體屬性的潛能愈發(fā)凸顯。一項(xiàng)最新研究表明,生成式人工智能已經(jīng)具備心智理論(theoryofmind)能力,能夠理解并推斷人類的意圖、信念和情緒。GPT-4甚至已經(jīng)具有與成人水平相當(dāng)?shù)男闹抢碚撃芰?。②可以預(yù)見的是,伴隨著算法智能化、類人化特性的不斷涌現(xiàn),人工智能已經(jīng)從計(jì)算智能、感知智能過渡到認(rèn)知智能階段。③在計(jì)算智能階段,算法以數(shù)據(jù)處理智能化為主要表現(xiàn)形式,具有工具屬性。在感知智能階段,算法被嵌入具體場(chǎng)景之中,輔助人類進(jìn)行決策,混合了工具和產(chǎn)品屬性。但進(jìn)入到認(rèn)知智能階段,強(qiáng)人工智能的屬性愈發(fā)顯現(xiàn),與之伴隨的人工智能主體性地位成為不再遙遠(yuǎn)的議題。以ChatGPT為代表,通過將語言模型作為認(rèn)知內(nèi)核,融入多種模態(tài),實(shí)現(xiàn)了以自然語言為核心的數(shù)據(jù)理解、信息認(rèn)知和決策判斷能力,成為快速逼近強(qiáng)人工智能的核心載體。④由此視之,認(rèn)為人工智能僅能作為工具和客體,通過穿透算法讓開發(fā)者承擔(dān)法律責(zé)任的制度設(shè)計(jì)可能在不久的將來遭遇問責(zé)挑戰(zhàn)。

(三)基于應(yīng)用治理范式的應(yīng)對(duì)局限

在人工智能治理領(lǐng)域,美國尚未出臺(tái)統(tǒng)一綜合的立法,而是通過對(duì)重點(diǎn)應(yīng)用分別推進(jìn),以單行法律和法規(guī)的形式施以針對(duì)性治理。⑤目前,在自動(dòng)駕駛、算法推薦、人臉識(shí)別、深度合成等應(yīng)用領(lǐng)域均有相關(guān)立法。對(duì)此,本文將之總結(jié)為基于應(yīng)用的人工智能治理范式。對(duì)于生成式人工智能而言,以應(yīng)用場(chǎng)景為基準(zhǔn)的人工智能治理范式可能面臨如下三項(xiàng)挑戰(zhàn):

第一,預(yù)訓(xùn)練大模型具有基礎(chǔ)設(shè)施地位,與之相關(guān)的人工智能生成內(nèi)容產(chǎn)業(yè)應(yīng)用場(chǎng)景眾多,上下游的開發(fā)人員均難以控制整個(gè)系統(tǒng)的風(fēng)險(xiǎn)。⑥預(yù)訓(xùn)練模型是人工智能生成內(nèi)容產(chǎn)業(yè)的基礎(chǔ)設(shè)施層,處于上游地位。中間層是以垂直化、場(chǎng)景化、個(gè)性化為特征的人工智能模型和應(yīng)用工具。應(yīng)用層是生成式人工智能嵌入各類場(chǎng)景面向用戶的各類應(yīng)用。①三個(gè)層級(jí)緊密串聯(lián),協(xié)同發(fā)力,產(chǎn)生了引領(lǐng)全場(chǎng)景內(nèi)容的生產(chǎn)力革命。②預(yù)訓(xùn)練大模型作為具有“通才”能力的上游模型,其在設(shè)計(jì)層面的問題與缺陷會(huì)傳遞至下游模型,帶來“一榮俱榮,一損俱損”的部署風(fēng)險(xiǎn)。③而面向應(yīng)用的人工智能治理僅在下游層面發(fā)力,難以有效輻射上游和中游技術(shù)應(yīng)用,更難以對(duì)生成式人工智能的整個(gè)生態(tài)施加有效的治理。

第二,預(yù)訓(xùn)練大模型依托其研發(fā)的插件系統(tǒng)可深度集成于各項(xiàng)應(yīng)用程序,展現(xiàn)令人驚嘆的對(duì)齊能力(alignment),催化新的業(yè)態(tài)與價(jià)值模式,形成“AIGC+”效應(yīng)。④OpenAI將插件比喻為語言模型的“眼睛和耳朵”,可以幫助語言模型獲得更及時(shí)、更具體、更個(gè)性化的訓(xùn)練數(shù)據(jù),從而提升系統(tǒng)的整體效用。⑤目前,ChatGPT開放了Browsing和CodeInterpreter兩款插件,并向開發(fā)者開源了知識(shí)庫類型插件的全流程接入指南。⑥該兩款插件具有卓越的場(chǎng)景嵌入能力,可與逾5000款應(yīng)用程序無縫交互,并可在酒店航班預(yù)訂、外賣服務(wù)、在線購物、法律知識(shí)、專業(yè)問答、文字生成語音等場(chǎng)景中提供高效且便捷的解決方案。⑦因此,面對(duì)應(yīng)用場(chǎng)景不勝枚舉、模型不斷交互串聯(lián)的新型生態(tài),分領(lǐng)域、分場(chǎng)景的監(jiān)管模式可能凸顯效率低下的問題。

第三,預(yù)訓(xùn)練大模型具有涌現(xiàn)性和動(dòng)態(tài)性,人類或其他模型與大模型的任何交互都可能會(huì)對(duì)底層基礎(chǔ)模型產(chǎn)生影響,面向不同場(chǎng)景和垂直行業(yè)的碎片化治理難以應(yīng)對(duì)預(yù)訓(xùn)練大模型帶來的系統(tǒng)性風(fēng)險(xiǎn)和動(dòng)態(tài)性挑戰(zhàn)。⑧預(yù)訓(xùn)練大模型不僅可以成為人工智能時(shí)代的“新基建”,成為強(qiáng)化已有人工智能應(yīng)用的“加速器”,還可充當(dāng)催化新業(yè)態(tài)的“孵化器”。作為“通用人工智能的星星之火”⑨,GPT-4已經(jīng)可以跨越解決數(shù)學(xué)、編程、視覺、醫(yī)學(xué)、法律、心理學(xué)等諸多新穎和挑戰(zhàn)性的任務(wù)領(lǐng)域。在這些任務(wù)中,GPT-4的表現(xiàn)驚人地接近人類的表現(xiàn),并且大大超過之前的模型。因此,任何靜態(tài)化、局部化、單體化的治理措施可能應(yīng)對(duì)乏力。

由此可見,無論是基于風(fēng)險(xiǎn)的治理,還是基于主體和基于應(yīng)用的治理,均形成于人工智能專用模型作為底層架構(gòu)的發(fā)展階段。在人工智能技術(shù)快速步入“通用模型”時(shí)代,面對(duì)其展現(xiàn)出的極強(qiáng)泛化能力,以及上下游產(chǎn)業(yè)大規(guī)模協(xié)作部署的全新格局,主流算法治理范式均可能面臨不同程度的挑戰(zhàn)。因應(yīng)生成式人工智能的狂飆式發(fā)展,前瞻布局并加速推進(jìn)與之配適的人工智能治理框架已迫在眉睫。①

四、邁向治理型監(jiān)管:生成式人工智能技術(shù)治理的迭代與升級(jí)

面對(duì)全球人工智能技術(shù)開發(fā)掀起的技術(shù)狂潮,生命未來研究所于3月22日發(fā)布了“暫停巨型人工智能試驗(yàn)”的公開信。信中呼吁所有人工智能實(shí)驗(yàn)室應(yīng)立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng),暫停時(shí)間至少為六個(gè)月。在暫停期間,人工智能實(shí)驗(yàn)室應(yīng)與外部專家共同開發(fā)共享的安全協(xié)議,由獨(dú)立的外部專家嚴(yán)格審計(jì)和監(jiān)督。人工智能開發(fā)者還必須與政策制定者合作全速推進(jìn)人工智能治理體系。②3月30日,聯(lián)合國教科文組織呼吁各國政府毫不拖延地實(shí)施人工智能全球倫理框架,最大限度地發(fā)揮人工智能的效益并降低其帶來的風(fēng)險(xiǎn)。③4月11日,我國就生成式人工智能領(lǐng)域率先開展立法,《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見。面向生成式人工智能的全周期和全鏈條,該《辦法》就訓(xùn)練數(shù)據(jù)合法性、人工標(biāo)注規(guī)范性、生成內(nèi)容可靠性以及安全管理義務(wù)作出了清晰規(guī)定。各界對(duì)于生成式人工智能治理的聯(lián)合呼吁與迅速應(yīng)對(duì)深刻地映射出技術(shù)社群和政策制定者對(duì)生成式人工智能的擔(dān)憂與不安。生成式人工智能擁有計(jì)算人工智能和感知人工智能不具備的通用化潛力,其超大規(guī)模、超多參數(shù)量、超級(jí)易擴(kuò)展性和超級(jí)應(yīng)用場(chǎng)景的顛覆特性亟須一種全新的治理范式。面向傳統(tǒng)人工智能的治理范式已經(jīng)凸顯應(yīng)對(duì)時(shí)滯、彈性不足、跨域受限等治理挑戰(zhàn)。在技術(shù)范式代際性躍升之際,探索與之適配的“治理型監(jiān)管”范式可能是因應(yīng)變局的破題之策。

本文所稱的“治理型監(jiān)管”(governance-basedregulation)是指面向以生成式人工智能為代表的新型技術(shù)范式展開的,以監(jiān)管權(quán)的開放協(xié)同、監(jiān)管方式的多元融合、監(jiān)管措施的兼容配適為核心特征的新型監(jiān)管范式。④這一監(jiān)管范式以監(jiān)管權(quán)的開放協(xié)同彌補(bǔ)傳統(tǒng)監(jiān)管覆蓋不足的缺憾,以治理與監(jiān)管理念的多元融合補(bǔ)足監(jiān)管介入遲滯的短板,以監(jiān)管措施的兼容配適促進(jìn)創(chuàng)新與治理的雙輪驅(qū)動(dòng)。通過漸進(jìn)式地推動(dòng)人工智能治理范式的迭代與升級(jí),希冀為我國科技企業(yè)參與全球技術(shù)競(jìng)爭(zhēng)奠定良好的制度生態(tài)。

(一)監(jiān)管權(quán)的開放協(xié)同

面對(duì)技術(shù)效能爆發(fā)式增長的生成式人工智能,封閉、單一、傳統(tǒng)的監(jiān)管權(quán)運(yùn)行機(jī)制難以從“政府-市場(chǎng)”這一傳統(tǒng)二元架構(gòu)下汲取足夠的監(jiān)管資源。如前文所述,ChatGPT僅開放插件不足月余,已有逾千款應(yīng)用集成接入。而我國國內(nèi)市場(chǎng)目前可監(jiān)測(cè)到的移動(dòng)應(yīng)用程序數(shù)量為232萬款。①龐大的應(yīng)用數(shù)量為生成式人工智能的發(fā)展提供了優(yōu)渥的產(chǎn)業(yè)土壤。在各大科技企業(yè)加速布局生成式人工智能應(yīng)用的熱潮之下,傳統(tǒng)監(jiān)管權(quán)的配置和運(yùn)行模式可能面臨監(jiān)管資源難以為繼、監(jiān)管成本不堪重負(fù)的挑戰(zhàn)。生成式人工智能將技術(shù)開發(fā)鏈條延伸擴(kuò)展至上中下游,在“開發(fā)者、部署者、終端用戶”協(xié)同研發(fā)部署的全新機(jī)制下,監(jiān)管權(quán)的配置和運(yùn)行機(jī)制需要作出回應(yīng)與變革。正如回應(yīng)性監(jiān)管理論所指出的,政府、市場(chǎng)、社會(huì)可以分享監(jiān)管權(quán)并展開合作監(jiān)管,不應(yīng)將監(jiān)管者與被監(jiān)管者、公共利益與私人利益簡(jiǎn)單對(duì)立,而應(yīng)以治理型特質(zhì)嵌入監(jiān)管思維,建立一種開放合作式的監(jiān)管治理范式。②

就生成式人工智能而言,治理型監(jiān)管理念至少需要從三個(gè)方面協(xié)同推進(jìn):第一,構(gòu)建科技企業(yè)自我規(guī)制與政府監(jiān)管的銜接互動(dòng)機(jī)制,探索共建共治共享治理新格局??萍计髽I(yè)是最具敏銳洞悉技術(shù)漏洞和應(yīng)用風(fēng)險(xiǎn)能力的首要擔(dān)當(dāng),監(jiān)管生態(tài)的效能直接影響科技企業(yè)的創(chuàng)新動(dòng)能。在透明度治理難以為繼的人工智能“2.0時(shí)代”,以制度設(shè)計(jì)激發(fā)企業(yè)的社會(huì)責(zé)任和倫理堅(jiān)守成為首要任務(wù)。例如,比起對(duì)科技企業(yè)動(dòng)輒上億的罰款而言,要求科技企業(yè)開發(fā)倫理強(qiáng)化技術(shù)可能更為治本。在近期對(duì)Meta的一項(xiàng)和解訴訟中,美國司法部要求Meta在2022年底前開發(fā)出消除個(gè)性化廣告中算法歧視的治理工具。2023年1月,Meta如期上線了方差衰減系統(tǒng)(VarianceReductionSystem),通過差分隱私技術(shù)減少廣告投放中基于性別和種族的差異風(fēng)險(xiǎn)。該系統(tǒng)實(shí)時(shí)監(jiān)測(cè)廣告投放中受眾群體的差異情況,設(shè)定企業(yè)分階段滿足差異消除的合規(guī)性指標(biāo),成功地將監(jiān)管介入節(jié)點(diǎn)拓展至事中和事前階段。③

第二,為專業(yè)性非營利組織和用戶社群參與人工智能治理創(chuàng)造制度環(huán)境,探索符合我國發(fā)展特點(diǎn)的協(xié)同治理范式,促進(jìn)社會(huì)監(jiān)督與政府監(jiān)管的協(xié)同聯(lián)動(dòng)。生成式人工智能蘊(yùn)含復(fù)雜的“技術(shù)-社會(huì)”互動(dòng)。其跨界融合、人機(jī)協(xié)同、群智開放等特性將開發(fā)主體延伸至每一位終端用戶。專業(yè)性非營利組織可以通過用戶調(diào)查、模擬測(cè)試、抓取審計(jì)等外部訪問方式對(duì)生成式人工智能開展監(jiān)督審計(jì)。④專家意見、社會(huì)組織、專業(yè)媒體將群策群力共同應(yīng)對(duì)生成式人工智能的技術(shù)濫用和誤用風(fēng)險(xiǎn)。與此同時(shí),以用戶為代表的社會(huì)公眾和技術(shù)社群對(duì)于生成式人工智能的治理效用也不容小覷。例如,在對(duì)大模型開展預(yù)訓(xùn)練階段,DeepMind刪去了被PerspectiveAPI注釋為有毒的內(nèi)容以改進(jìn)TransformerXL的模型表現(xiàn)。⑤PerspectiveAPI是通過志愿者打分的方式來量化線上評(píng)論分?jǐn)?shù)的眾包評(píng)審機(jī)制。由于有害文本的判斷與個(gè)人經(jīng)歷、文化背景、內(nèi)容場(chǎng)景等有很強(qiáng)的關(guān)聯(lián)性,因此需要用戶充分參與評(píng)估以確保該機(jī)制運(yùn)行的多樣性和準(zhǔn)確性。①再如,受網(wǎng)絡(luò)安全“漏洞賞金”機(jī)制啟發(fā),Twitter發(fā)布了首個(gè)算法偏見賞金(BiasBounty)競(jìng)賽,通過技術(shù)社群的力量識(shí)別Twitter圖像裁剪算法的潛在歧視危害和倫理問題。②由此可見,非營利性組織和用戶的參與式治理能夠幫助企業(yè)及時(shí)發(fā)現(xiàn)和化解人工智能技術(shù)風(fēng)險(xiǎn),邁向協(xié)同共創(chuàng)的技術(shù)新生態(tài)。

第三,培育面向生成式人工智能技術(shù)的倫理認(rèn)證和評(píng)估機(jī)制,探索第三方規(guī)制框架。人工智能倫理認(rèn)證是指以人工智能透明度、問責(zé)制、算法公平和隱私保護(hù)等倫理價(jià)值為基準(zhǔn),將高層次倫理價(jià)值觀轉(zhuǎn)化為可資操作的評(píng)價(jià)和方法,由第三方機(jī)構(gòu)獨(dú)立評(píng)估人工智能技術(shù)和產(chǎn)品,對(duì)符合標(biāo)準(zhǔn)的人工智能頒發(fā)認(rèn)證標(biāo)志,以證明其符合倫理準(zhǔn)則的第三方規(guī)制形式。③人工智能倫理認(rèn)證由獨(dú)立注冊(cè)的專業(yè)團(tuán)隊(duì)負(fù)責(zé),已逐漸成為激勵(lì)人工智能技術(shù)信任和科技企業(yè)負(fù)責(zé)任創(chuàng)新的有效規(guī)制方法。目前,電氣電子工程師協(xié)會(huì)(IEEE)就算法歧視、算法透明、算法問責(zé)和隱私保護(hù)四個(gè)領(lǐng)域分別制定了認(rèn)證標(biāo)準(zhǔn),形成了較為成熟的認(rèn)證生態(tài)。④3月28日,我國信息通信研究院也啟動(dòng)了大模型技術(shù)及應(yīng)用基準(zhǔn)構(gòu)建工作,針對(duì)目前主流數(shù)據(jù)集和評(píng)估基準(zhǔn)多以英文為主,缺少中文特點(diǎn)以及難以滿足我國關(guān)鍵行業(yè)應(yīng)用選型需求的問題,聯(lián)合業(yè)界主流創(chuàng)新主體構(gòu)建涵蓋多任務(wù)領(lǐng)域、多測(cè)評(píng)維度的基準(zhǔn)和測(cè)評(píng)工具。⑤第三方機(jī)構(gòu)通過聲譽(yù)評(píng)價(jià)機(jī)制,憑借高度的獨(dú)立性與專業(yè)性,為生成式人工智能的競(jìng)賽式研發(fā)施以必要約束,防止未經(jīng)安全測(cè)試的生成式人工智能嵌入海量場(chǎng)景應(yīng)用,引發(fā)巨量、非預(yù)期以及不可逆的治理風(fēng)險(xiǎn)。⑥因此,應(yīng)在監(jiān)管權(quán)開發(fā)協(xié)同的機(jī)制探索中加以重視。

(二)監(jiān)管方式的多元融合

已有實(shí)證研究表明,不適當(dāng)?shù)谋O(jiān)管不僅會(huì)扼殺創(chuàng)新,而且會(huì)對(duì)中小企業(yè)施加擠出效應(yīng),從整體上遏制市場(chǎng)的公平競(jìng)爭(zhēng)。⑦產(chǎn)生這一現(xiàn)象的原因在于,面對(duì)僵化、寬泛的合規(guī)義務(wù),中小企業(yè)通常不具有與之相配的合規(guī)資源,因而在監(jiān)管環(huán)節(jié)已然被淘汰出局。⑧而就生成式人工智能的技術(shù)競(jìng)爭(zhēng)而言,領(lǐng)跑者OpenAI恰是一家非營利性的、初創(chuàng)型企業(yè)。與谷歌等頭部科技企業(yè)相比,得益于其簡(jiǎn)單的組織架構(gòu),OpenAI可以最大化地集中資源專注于技術(shù)研發(fā)。對(duì)比我國,在此賽道上的初創(chuàng)型企業(yè)可能因商業(yè)模式更具耐心、專注力更強(qiáng),在已有前期積淀的情形下更容易取得技術(shù)跨越性突破。這也是為何原美團(tuán)聯(lián)合創(chuàng)始人并未在美團(tuán)平臺(tái)上進(jìn)行技術(shù)研發(fā),轉(zhuǎn)而通過創(chuàng)立“光年之外”這一新項(xiàng)目,與人工智能架構(gòu)創(chuàng)業(yè)公司“一流科技”聯(lián)手的驅(qū)動(dòng)內(nèi)因。①在這一產(chǎn)業(yè)格局之下,我國對(duì)于生成式人工智能的監(jiān)管更要尋求靈活多元的方式,避免靜態(tài)性、事后性、懲戒式、一刀切的監(jiān)管思路不當(dāng)擠壓初創(chuàng)企業(yè)的創(chuàng)新空間。為此,在監(jiān)管思維轉(zhuǎn)向的過程中可在下列兩個(gè)層面積極嘗試。

第一,積極發(fā)展面向生成式人工智能的治理科技(governtech),探索以“AI治理AI,以算法監(jiān)管算法”的智能監(jiān)管體系。治理科技秉承技術(shù)賦能治理的理念,以“合規(guī)科技”推動(dòng)監(jiān)管的高效落實(shí),以“賦能科技”補(bǔ)充或替代監(jiān)管執(zhí)行面向全鏈條、全過程的治理。②具體而言,應(yīng)將人工智能倫理原則作為基準(zhǔn)推動(dòng)科技企業(yè)在生成式人工智能研發(fā)過程中主動(dòng)設(shè)計(jì),從技術(shù)研發(fā)前端介入確保技術(shù)研發(fā)的安全性。例如,基于效率提升與風(fēng)險(xiǎn)可控的目標(biāo),可以設(shè)立建模技術(shù)仿真宏觀和運(yùn)行環(huán)境,通過虛擬測(cè)試、A/B實(shí)驗(yàn)等技術(shù)探索沙盒治理和個(gè)性化治理。一方面可為監(jiān)管實(shí)時(shí)提供精準(zhǔn)數(shù)據(jù),為豐富和調(diào)優(yōu)監(jiān)管措施提供可行評(píng)估方案,為漸進(jìn)式監(jiān)管提供決策依據(jù);另一方面還可針對(duì)生成式人工智能算法妨害認(rèn)定難的治理痛點(diǎn)提供可資參考的基準(zhǔn),形成可以圍繞浮動(dòng)的“錨”。③

第二,以管理型監(jiān)管方式推動(dòng)道德算法設(shè)計(jì)(ethicalalgorithmdesign)。④生成式人工智能能夠處理跨域任務(wù),具有良好的通用性和泛化性。一旦存在偏誤和風(fēng)險(xiǎn),將彌散蔓延至整個(gè)產(chǎn)業(yè)鏈條之上。因此,將監(jiān)管介入節(jié)點(diǎn)前置,確保通用模型輸出的結(jié)果更符合人類價(jià)值觀,在模型研發(fā)早期就將倫理理論和規(guī)范介入是十分必要的。⑤卡里·科利亞內(nèi)塞(CaryCoglianese)曾提出管理型監(jiān)管(management-basedregulation)理念。他認(rèn)為與限制性更強(qiáng)、一刀切式的監(jiān)管相比,管理型監(jiān)管著眼于被監(jiān)管主體的公司治理,通過內(nèi)部風(fēng)險(xiǎn)管理的優(yōu)化持續(xù)改進(jìn)相關(guān)問題。這一監(jiān)管方式可給予科技企業(yè)更大的操作空間,激勵(lì)企業(yè)運(yùn)用內(nèi)部信息優(yōu)勢(shì)進(jìn)行治理創(chuàng)新,尋找替代性監(jiān)管措施以更為經(jīng)濟(jì)高效的方式實(shí)現(xiàn)預(yù)期結(jié)果。⑥因此,與事后懲戒式監(jiān)管相比,深入企業(yè)內(nèi)部治理,要求企業(yè)建立科技倫理委員會(huì),系統(tǒng)化構(gòu)建內(nèi)部倫理審查機(jī)制是更為靈活的監(jiān)管方式。為此,一方面可借鑒我國生命科學(xué)和醫(yī)學(xué)倫理制度,在《關(guān)于加強(qiáng)科技倫理治理的意見》基礎(chǔ)上,加速推進(jìn)適用于生成式人工智能關(guān)鍵科技領(lǐng)域的倫理框架。⑦另一方面,還可遵循通過后的《科技倫理審查辦法(試行)》督促企業(yè)成立人工智能倫理委員會(huì),確保在設(shè)計(jì)階段嵌入基礎(chǔ)倫理原則,引導(dǎo)投身生成式人工智能的科技企業(yè)對(duì)內(nèi)部研發(fā)、應(yīng)用活動(dòng)構(gòu)建常態(tài)化的治理約束。

(三)監(jiān)管措施的兼容一致

在人工智能的“1.0”時(shí)代,人工智能模型的碎片化明顯,泛化能力十分不足,以主體、應(yīng)用、場(chǎng)景為基準(zhǔn)的分段式監(jiān)管設(shè)計(jì)尚可應(yīng)對(duì)。但自18年起,大模型快速流行,以ChatGPT為代表的生成式人工智能開啟了人工智能的“2.0”時(shí)代。如本文前述,在這一技術(shù)發(fā)展階段,基于風(fēng)險(xiǎn)、主體和應(yīng)用的治理范式均在不同面向上顯現(xiàn)出治理局限。對(duì)于新型監(jiān)管范式的探索亟須引入治理思維,將人工智能監(jiān)管視為多元主體構(gòu)成的開放式整體系統(tǒng),關(guān)注構(gòu)成系統(tǒng)的子系統(tǒng)之間、該系統(tǒng)與其他系統(tǒng)的合作、兼容、配適與轉(zhuǎn)化,提升各系統(tǒng)之間的互操作性(interoperability)。①互操作性概念最初應(yīng)用于經(jīng)濟(jì)領(lǐng)域,特指產(chǎn)品標(biāo)準(zhǔn)的兼容性,而后擴(kuò)展應(yīng)用至網(wǎng)絡(luò)系統(tǒng)的互聯(lián)互通,并投射至人工智能監(jiān)管領(lǐng)域成為創(chuàng)新性監(jiān)管理念。②人工智能監(jiān)管互操作性則是指兩個(gè)或者多個(gè)監(jiān)管主體互聯(lián)互通,在共享監(jiān)管信息的同時(shí),互認(rèn)監(jiān)管措施,保持監(jiān)管實(shí)現(xiàn)過程與監(jiān)管目標(biāo)和價(jià)值一致性的能力。③對(duì)于生成式人工智能而言,監(jiān)管技術(shù)和監(jiān)管規(guī)則的互操作性可以為科技企業(yè)提供監(jiān)管便利化優(yōu)勢(shì),通過監(jiān)管機(jī)構(gòu)之間的互聯(lián)互通提升整體實(shí)效。

因循這一理路,人工智能監(jiān)管的互操作性成為各國共同關(guān)注的重點(diǎn)。例如,美國第13859號(hào)行政命令指定管理與預(yù)算辦公室負(fù)責(zé)人工智能監(jiān)管機(jī)構(gòu)間的協(xié)調(diào)工作,定期發(fā)布人工智能監(jiān)管備忘錄。④2020年11月,管理與預(yù)算辦公室發(fā)布《人工智能應(yīng)用的監(jiān)管指南》,提出各監(jiān)管機(jī)構(gòu)應(yīng)共同遵守的十項(xiàng)準(zhǔn)則,為監(jiān)管一致性奠定行動(dòng)框架。⑤英國也建立了中央?yún)f(xié)調(diào)機(jī)制,開展人工智能風(fēng)險(xiǎn)跨部門監(jiān)測(cè)和評(píng)估,為協(xié)同性地應(yīng)對(duì)人工智能新型風(fēng)險(xiǎn)提供決策依據(jù)。⑥在國際層面,各國也在積極地就人工智能治理問題達(dá)成一致,構(gòu)建可互操作的治理框架。例如,歐盟-美國⑦、歐盟-日本⑧及美國-新加坡⑨均就人工智能治理問題達(dá)成了雙邊合作,推動(dòng)人工智能治理的趨同與對(duì)標(biāo)。

聚焦到我國監(jiān)管實(shí)際,面向生成式人工智能監(jiān)管的兼容配適應(yīng)主要在兩個(gè)層面展開:第一,創(chuàng)建人工智能技術(shù)監(jiān)管協(xié)同機(jī)制,以協(xié)同化監(jiān)管應(yīng)對(duì)監(jiān)管碎片化和監(jiān)管沖突等問題。長期以來,我國在監(jiān)管權(quán)劃分的基礎(chǔ)上形成面向不同行業(yè)的專業(yè)化監(jiān)管格局。面對(duì)橫貫上中下游的生成式人工智能,分立運(yùn)行的監(jiān)管格局可能因知識(shí)水平參差不齊、監(jiān)管方式形態(tài)各異形成監(jiān)管競(jìng)次、監(jiān)管真空等問題。監(jiān)管協(xié)調(diào)不暢還可能抑制創(chuàng)新與競(jìng)爭(zhēng)。因此,可依據(jù)《新一代人工智能治理原則》制定跨機(jī)構(gòu)的人工智能監(jiān)管協(xié)調(diào)框架,通過合作制定大型語言模型開發(fā)、部署和運(yùn)行階段的關(guān)鍵監(jiān)管要點(diǎn)。此外,還可以通過多機(jī)構(gòu)會(huì)簽、監(jiān)管信息共享等制度探索監(jiān)管機(jī)構(gòu)間互操作性保障機(jī)制,為應(yīng)對(duì)交叉風(fēng)險(xiǎn)提供規(guī)則基礎(chǔ)。①

第二,探索多元化的監(jiān)管一致性工具。首先,建議引入“模塊治理”理念,制定面向生成式人工智能的一般性監(jiān)管方法,對(duì)科技企業(yè)的內(nèi)部治理、決策模式、運(yùn)營管理以及用戶關(guān)系管理等重點(diǎn)方面以技術(shù)測(cè)試和過程檢查的形式向科技企業(yè)提供明確的監(jiān)管指引,通過厘清交叉監(jiān)管中的“共同模塊”促進(jìn)人工智能監(jiān)管框架的互操作性。②其次,成立人工智能合作監(jiān)管聯(lián)盟提升監(jiān)管互操作性和監(jiān)管韌性。例如,英國信息專員辦公室、通信辦公室、競(jìng)爭(zhēng)與市場(chǎng)管理局、金融行為監(jiān)管局共同成立了數(shù)字監(jiān)管合作論壇(DigitalRegulationCooperationForum),通過加強(qiáng)監(jiān)管機(jī)構(gòu)間的合作提升監(jiān)管一致性。該聯(lián)盟近期的一項(xiàng)核心議題便是通過人工智能監(jiān)管沙箱為科技企業(yè)提供定制化的聯(lián)合監(jiān)管建議,以幫助其盡快進(jìn)入目標(biāo)市場(chǎng)。③我國金融監(jiān)管領(lǐng)域很早就監(jiān)管合作機(jī)制展開了探索。2021年,兩辦發(fā)布的《關(guān)于依法從嚴(yán)打擊證券違法活動(dòng)的意見》中亦對(duì)跨部門監(jiān)管協(xié)同、跨境審計(jì)監(jiān)管合作和執(zhí)法聯(lián)盟等提出重要意見。生成式人工智能可能引發(fā)跨行業(yè)、跨市場(chǎng)、跨領(lǐng)域的交叉性風(fēng)險(xiǎn),勢(shì)必需要多家監(jiān)管機(jī)構(gòu)協(xié)同攻關(guān)。此次《黨和國家機(jī)構(gòu)改革方案》出臺(tái),不僅組建了中央科技委員會(huì),重組了科學(xué)技術(shù)部,還組建了國家數(shù)據(jù)局。這意味著監(jiān)管機(jī)構(gòu)的架構(gòu)調(diào)優(yōu)對(duì)于國家創(chuàng)新戰(zhàn)略的實(shí)現(xiàn)具有重要意義。因此,從完善創(chuàng)新監(jiān)管架構(gòu)的視角出發(fā),也需要各監(jiān)管機(jī)構(gòu)探索提升監(jiān)管互操作性和一致性的常態(tài)化制度路徑。最后,為確保監(jiān)管效能與生成式人工智能的技術(shù)革新與應(yīng)用風(fēng)險(xiǎn)相匹配,還應(yīng)以監(jiān)管資源分配、監(jiān)管一致性以及監(jiān)管協(xié)同效果為基準(zhǔn)建立監(jiān)管風(fēng)險(xiǎn)識(shí)別和評(píng)估框架,聯(lián)通與科技行業(yè)、終端用戶等主體的反饋回路,全面評(píng)估監(jiān)管協(xié)同框架的有效性。④

五、結(jié)語

ChatGPT席卷全球,為人工智能產(chǎn)業(yè)注入活力與動(dòng)能的同時(shí),既帶動(dòng)了生成式人工智能的快速爆發(fā),也深刻地改變了產(chǎn)業(yè)競(jìng)爭(zhēng)格局和全球科技力量對(duì)比?,F(xiàn)階段,無論是國際行業(yè)巨頭,還是國內(nèi)頭部企業(yè),均聚焦大模型領(lǐng)域持續(xù)發(fā)力。可以說,2023年既是生成式人工智能的元年,也是人工智能監(jiān)管范式變革的元年。如今的全球科技競(jìng)爭(zhēng)不僅是新型智能基礎(chǔ)設(shè)施的角逐,更是數(shù)字文明和創(chuàng)新制度生態(tài)的比拼。與美國相比,我國的人工智能領(lǐng)域缺少重大原創(chuàng)成果,在核心算法、關(guān)鍵設(shè)備等方面仍存較大差距。⑤本文提出了治理型監(jiān)管范式,希冀以監(jiān)管權(quán)的開放協(xié)同彌補(bǔ)傳統(tǒng)監(jiān)管覆蓋不足的缺憾,以治理與監(jiān)管理念的多元融合補(bǔ)足監(jiān)管介入遲滯的短板,以監(jiān)管措施的互操作性助力我國科技企業(yè)在生成式人工智能技術(shù)賽道上的加速健康發(fā)展。如何能夠在創(chuàng)新驅(qū)動(dòng)發(fā)展戰(zhàn)略下,構(gòu)建良好的制度生態(tài)從而服務(wù)于我國科技企業(yè)的發(fā)展,形成創(chuàng)新與治理雙輪驅(qū)動(dòng),軟硬結(jié)合、梯次接續(xù)的技術(shù)治理格局,是一項(xiàng)亟須改變、影響未來、意義深遠(yuǎn)的議題。未來,還需從監(jiān)管基礎(chǔ)設(shè)施、監(jiān)管工具體系、監(jiān)管架構(gòu)變革以及監(jiān)管制度環(huán)境等核心要素出發(fā),加以持續(xù)不斷的探索與優(yōu)化。