国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能的行政監(jiān)管困境及其紓解

2024-01-01 00:00:00袁周
關(guān)鍵詞:生成式人工智能

摘 要:生成式人工智能的開放性、復(fù)雜性和高速迭代性給行政監(jiān)管帶來對(duì)象難以確認(rèn)、主體能力不足以及過程較為封閉的治理難題。人工智能監(jiān)管的現(xiàn)行法律應(yīng)對(duì)其負(fù)起責(zé)任,認(rèn)真對(duì)待監(jiān)管對(duì)象轉(zhuǎn)移、組合式監(jiān)管乏力以及監(jiān)管程序缺漏的問題。對(duì)此,應(yīng)引入整體性治理理論,將監(jiān)管對(duì)象整合為生成式人工智能的大模型產(chǎn)品,將監(jiān)管資源整合至網(wǎng)信部門,由其主要負(fù)責(zé)生成式人工智能的監(jiān)管,并通過構(gòu)建整體性的程序機(jī)制,實(shí)現(xiàn)監(jiān)管程序的民主化與規(guī)范化。

關(guān)鍵詞:生成式人工智能;ChatGPT;行政監(jiān)管;監(jiān)管組織;行政程序

中圖分類號(hào):D082 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.13411/j.cnki.sxsx.2024.03.006

Administrative Supervision Dilemma of Generative

Artificial Intelligence and Its Solutions

YUAN Zhou

(School of Law, Southeast University, Nanjing 211102, China)

Abstract:The openness, complexity and high-speed iteration of generative artificial intelligence bring administrative supervision with difficult to confirm objects, insufficient subject capacity and relatively closed process. The current law on AI regulation should take responsibility and seriously treat the transfer of regulatory objects, the lack of combined supervision and the lack of regulatory procedures. In this regard, we should introduce the holistic governance theory, integrate the supervision objects into large model products of generative artificial intelligence, integrate the regulatory resources into the cyberspace administration which will be mainly responsible for the supervision of generative artificial intelligence, and realize the democratization and standardization of the supervision procedure through the construction of an holistic procedure mechanism.

Key words:generative artificial intelligence; ChatGPT; administrative supervision; regulatory organization; administrative procedure

2023年7月13日公布的《生成式人工智能服務(wù)管理暫行辦法》,使我國成為首個(gè)出臺(tái)生成式人工智能監(jiān)管法律的國家。而人工智能發(fā)展至今,已歷經(jīng)手動(dòng)編碼知識(shí)(Handcrafted knowledge)的第一次AI浪潮和統(tǒng)計(jì)學(xué)習(xí)的第二次浪潮,悄然站立于第三次浪潮來臨的前夜[1]。在此關(guān)鍵節(jié)點(diǎn),站在人工智能科技前沿的專家卻集體呼吁暫停對(duì)人工智能的訓(xùn)練,警惕人工智能對(duì)人類即將產(chǎn)生的威脅[2]。因?yàn)樗麄冋J(rèn)為,人工智能發(fā)展的奇點(diǎn)已經(jīng)來臨,人工智能技術(shù)的發(fā)展將帶來許多的不確定性[3]??赡艿娘L(fēng)險(xiǎn)既包括隱私保護(hù)、數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)保護(hù)、科技倫理等現(xiàn)實(shí)問題,也包括相應(yīng)法律應(yīng)對(duì)不力產(chǎn)生的風(fēng)險(xiǎn)[4]。而在諸多風(fēng)險(xiǎn)中,行政監(jiān)管的風(fēng)險(xiǎn)雖常被提及,卻無系統(tǒng)論述。已有研究成果往往將行政監(jiān)管的不足認(rèn)作風(fēng)險(xiǎn)產(chǎn)生的原因,卻沒有從行政監(jiān)管的立場(chǎng)出發(fā),分析生成式人工智能對(duì)行政監(jiān)管的實(shí)踐與規(guī)范帶來的挑戰(zhàn)?;诖耍P者立足于行政監(jiān)管的視角,檢視生成式人工智能給行政監(jiān)管帶來的挑戰(zhàn),關(guān)注現(xiàn)行監(jiān)管法律的不足,以期通過適當(dāng)?shù)睦碚摽蚣芴岢鼋鉀Q問題的對(duì)策。

一、生成式人工智能的行政監(jiān)管困境

行政監(jiān)管是指行政機(jī)關(guān)依據(jù)一定的規(guī)則對(duì)某種公共事務(wù)進(jìn)行監(jiān)督管理,以使其不危害公共利益[5]343。生成式人工智能的行政監(jiān)管,也即行政機(jī)關(guān)對(duì)生成式人工智能這一技術(shù)進(jìn)行控制和調(diào)節(jié),以使之更好地服務(wù)于公共利益[6]。在行政監(jiān)管的視角下,可以從監(jiān)管對(duì)象、監(jiān)管主體以及后者對(duì)前者的監(jiān)管過程三個(gè)要素,分析生成式人工智能行政監(jiān)管的現(xiàn)狀及其存在的問題。

(一)監(jiān)管對(duì)象難以確認(rèn)

傳統(tǒng)監(jiān)管語境中,行政監(jiān)管的對(duì)象一般指行政監(jiān)管行為的相對(duì)人,所以生成式人工智能技術(shù)本身并不是監(jiān)管對(duì)象,其開發(fā)者、管理者、使用者才是監(jiān)管的對(duì)象。而與之前的人工智能相比,生成式人工智能更具開放性,該特征直接導(dǎo)致了監(jiān)管對(duì)象的難以確認(rèn)。

生成式人工智能的開放性體現(xiàn)在運(yùn)營模式的巨大改變。傳統(tǒng)的人工智能應(yīng)用,技術(shù)(算法與數(shù)據(jù))、服務(wù)、內(nèi)容生成等方面的提供者是能夠被輕易區(qū)分的。如人臉識(shí)別技術(shù),技術(shù)的開發(fā)者為應(yīng)用企業(yè)提供人臉識(shí)別算法,企業(yè)錄入用戶數(shù)據(jù),為用戶提供服務(wù)。這一過程也基本不涉及內(nèi)容的生產(chǎn)。而ChatGPT等生成式人工智能模糊了技術(shù)支持者、服務(wù)提供者和內(nèi)容生產(chǎn)者之間的差別,允許三者之間身份的切換。以知名鏈?zhǔn)焦P記軟件Obsidian為例,其以插件的形式給用戶嵌入ChatGPT功能的選擇。數(shù)據(jù)的輸入和輸出經(jīng)過API端口實(shí)現(xiàn),內(nèi)容的生成既可以選擇調(diào)用Obsidian自己的算法和數(shù)據(jù),也可以不經(jīng)過Obsidian的算法與數(shù)據(jù)庫。那么,在Obsidian中應(yīng)用ChatGPT,應(yīng)當(dāng)如何定位Obsidian軟件的技術(shù)支持者、服務(wù)提供者(或者是插件的技術(shù)支持者、服務(wù)提供者)?其生成的內(nèi)容又應(yīng)當(dāng)如何定性?再者,ChatGPT本身即會(huì)保存用戶的對(duì)話數(shù)據(jù)以改進(jìn)自身的性能,此時(shí),用戶作為ChatGPT使用者的同時(shí),也無意間成為了ChatGPT的“技術(shù)支持者”。假設(shè)用戶輸入具有不符合訓(xùn)練數(shù)據(jù)要求的內(nèi)容,并利用ChatGPT生產(chǎn)出具有社會(huì)危害性的內(nèi)容,且將之付諸實(shí)踐,ChatGPT原本的技術(shù)支持者及服務(wù)提供者是否對(duì)此負(fù)有責(zé)任?由此可見,生成式人工智能的開放性使得監(jiān)管對(duì)象的確認(rèn)成為一個(gè)需要重新思考的問題。

(二)監(jiān)管主體能力不足

ChatGPT等生成式人工智能的強(qiáng)大實(shí)力,來源于不同以往的海量數(shù)據(jù)歸集和不斷改進(jìn)的算法能力。據(jù)OpenAI透露,ChatGPT-3有1750億個(gè)參數(shù)[7]。雖然OpenAI不再公開升級(jí)版本ChatGPT-4的數(shù)據(jù)規(guī)模,但根據(jù)技術(shù)人員的推測(cè),ChatGPT-4有1.76萬億個(gè)參數(shù)[8]。龐大的數(shù)據(jù)集不僅可能存在自身質(zhì)量良莠不齊的問題,還可能在訓(xùn)練階段就產(chǎn)生國家數(shù)據(jù)、政府?dāng)?shù)據(jù)、個(gè)人數(shù)據(jù)等方面的安全問題[9]。算法方面,算法黑箱仍然是一個(gè)懸而未決的問題。ChatGPT等人工智能的算法,本質(zhì)上是一種通過獎(jiǎng)勵(lì)模型訓(xùn)練出來的概率選擇程序。工程師們將海量數(shù)據(jù)喂養(yǎng)給算法系統(tǒng),并對(duì)算法系統(tǒng)的回答進(jìn)行或肯定或否定的賦值?!皳Q句話說,算法會(huì)重復(fù)穿梭于數(shù)據(jù)集,逐步修改或平均其預(yù)測(cè)結(jié)果,以優(yōu)化指定的標(biāo)準(zhǔn)?!?sup>[10]因此,算法的輸入與輸出之間,并非一種基于因果規(guī)則的邏輯推導(dǎo)關(guān)系,而只是一種基于概率選擇的關(guān)系。而當(dāng)算法通過海量數(shù)據(jù)的喂養(yǎng),使自己輸出的內(nèi)容越來越準(zhǔn)確時(shí),我們也逐漸不能分辨算法究竟是在關(guān)注輸入與輸出內(nèi)容的哪些精準(zhǔn)特征了。而當(dāng)因果規(guī)則與傳統(tǒng)統(tǒng)計(jì)模型都不能發(fā)揮作用時(shí),算法對(duì)于外部觀察者而言,就變成了一個(gè)黑箱[10]。在以大模型為基礎(chǔ)的生成式人工智能應(yīng)用中,解釋算法輸出與輸入之間關(guān)系的任務(wù)將更加復(fù)雜,算法黑箱的問題將更加突出。

生成式人工智能的復(fù)雜性暴露出監(jiān)管主體監(jiān)管能力不足的問題,其具體表現(xiàn)為兩個(gè)方面:第一,技術(shù)實(shí)力不能滿足監(jiān)管需要。ChatGPT等生成式人工智能的技術(shù)復(fù)雜性是帶來諸多監(jiān)管挑戰(zhàn)的核心原因。所以,監(jiān)管主體應(yīng)當(dāng)具有與之相應(yīng)的技術(shù)實(shí)力,才能實(shí)現(xiàn)技術(shù)水平上的勢(shì)均力敵,識(shí)破監(jiān)管中可能存在的技術(shù)風(fēng)險(xiǎn)。不過,監(jiān)管部門當(dāng)前并不能實(shí)現(xiàn)技術(shù)實(shí)力的自給,遑論具備與前沿科技公司相當(dāng)?shù)募夹g(shù)水平。我國當(dāng)前政府的技術(shù)能力建設(shè)仍依賴于市場(chǎng)上大大小小的軟件公司,而這種做法不僅具有較高的成本和較低的效率,技術(shù)水平也難以保證[11]。生成式人工智能的復(fù)雜性不過是再度凸顯了這一窘境,并加劇了解決這一問題的緊迫性。第二,監(jiān)管效率有限,不能及時(shí)應(yīng)對(duì)監(jiān)管問題。在人工智能技術(shù)的早期階段,我國對(duì)人工智能產(chǎn)業(yè)的監(jiān)管主要采取回應(yīng)型治理模式,因此對(duì)效率的要求尚不突出。而在目前的集中型治理模式下,監(jiān)管機(jī)關(guān)要織起一張嚴(yán)密的防控網(wǎng),積極落實(shí)監(jiān)督和保障制度[12]。這樣高強(qiáng)度的監(jiān)管模式給監(jiān)管部門帶來了更大的壓力,也對(duì)其監(jiān)管效率提出了更高的要求。

(三)監(jiān)管過程缺乏參與

生成式人工智能等新技術(shù)具有高速迭代的特性,不斷沖擊與挑戰(zhàn)著監(jiān)管秩序[13]。面對(duì)這些新技術(shù),政府需要盡快探索出合適的監(jiān)管規(guī)則,而這需要社會(huì)多元主體的參與。然而一方面,我國還未構(gòu)建起具有包容力的參與機(jī)制,使各方力量齊心協(xié)力地應(yīng)對(duì)快速變化的技術(shù);另一方面,現(xiàn)有的生成式人工智能監(jiān)管方式也缺乏參與渠道。當(dāng)前,對(duì)生成式人工智能主要采取算法備案等方式監(jiān)管,其存在著“缺失陳述申辯、聽證、說明理由等核心程序”,“程序運(yùn)行公開度及備案管理當(dāng)事人程序參與度都明顯不夠”的問題,并最終表現(xiàn)為“監(jiān)管機(jī)關(guān)自我決定的監(jiān)管權(quán)力封閉運(yùn)行過程”[14]。

封閉的監(jiān)管過程不能建立暢通的信息傳遞渠道,也不能構(gòu)建起合作型的監(jiān)管機(jī)制。監(jiān)管權(quán)力封閉的運(yùn)作意味著監(jiān)管機(jī)關(guān)與其他主體的溝通程序被省略了,這限制了監(jiān)管機(jī)關(guān)獲取信息的渠道,讓監(jiān)管機(jī)關(guān)失去了與被監(jiān)管對(duì)象和更多社會(huì)相關(guān)主體的交流機(jī)會(huì)。再者,封閉的權(quán)力運(yùn)作還假定監(jiān)管機(jī)關(guān)是“全知全能”的,監(jiān)管任務(wù)只需要監(jiān)管機(jī)關(guān)自己履行職責(zé)即可完成。然而,現(xiàn)代社會(huì)下行政任務(wù)的愈加復(fù)雜以及其中牽涉利益的多元化,使“公共權(quán)力的運(yùn)用擺脫了傳統(tǒng)自上而下單向性過程而具備了自上而下的和自下而上的雙向運(yùn)用軌道”,并“以此確立了行政主體與行政相對(duì)人之間一種新穎的關(guān)系”[15]。這種關(guān)系的持續(xù)性與雙向性適應(yīng)了現(xiàn)代行政任務(wù)的復(fù)雜性,承認(rèn)了國家以外的力量的補(bǔ)充能夠讓行政機(jī)關(guān)更好地完成公共任務(wù)[16]。封閉的監(jiān)管過程讓“全知全能”的監(jiān)管機(jī)關(guān)壟斷了行政權(quán)力,阻礙了適應(yīng)現(xiàn)代行政任務(wù)的合作機(jī)制的建立。

二、推本溯源:困境成因的行政法律分析

生成式人工智能技術(shù)的開放性、復(fù)雜性和高速迭代性給現(xiàn)有的監(jiān)管機(jī)制帶來了一定的挑戰(zhàn),我國行政機(jī)關(guān)尚未對(duì)此作出有效應(yīng)對(duì)。2023年出臺(tái)并實(shí)施的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)被認(rèn)為是全球首部AIGC(生成式人工智能)領(lǐng)域的監(jiān)管法規(guī),但其仍然依循原有的監(jiān)管慣性,將監(jiān)管對(duì)象設(shè)定為“生成式人工智能服務(wù)提供者”。誠然,我國的人工智能監(jiān)管機(jī)制一直將“服務(wù)提供者”作為監(jiān)管的核心抓手,并已逐步建立起“技術(shù)支持者—服務(wù)提供者—內(nèi)容生產(chǎn)者”的監(jiān)管鏈條。而監(jiān)管對(duì)象的內(nèi)部界限卻被實(shí)現(xiàn)技術(shù)躍遷的生成式人工智能所消解,將人工智能拆解為各部分進(jìn)行分別監(jiān)管的思路將難以適用于生成式人工智能的監(jiān)管[17]。不僅如此,現(xiàn)行法律也未能助力解決監(jiān)管主體能力不足與監(jiān)管過程缺乏參與的問題,重新審視生成式人工智能相關(guān)的法律規(guī)定變得尤為迫切。

(一)人工智能監(jiān)管對(duì)象之流變

“智能時(shí)代的法律創(chuàng)新還必須緊密結(jié)合技術(shù)邏輯展開,切忌脫離技術(shù)特征談風(fēng)險(xiǎn)防控?!?sup>[13]事實(shí)上,我國法律對(duì)人工智能監(jiān)管對(duì)象的規(guī)定也表現(xiàn)出明顯的技術(shù)邏輯。具體來說,將人工智能視為多種技術(shù)的復(fù)合體,并對(duì)各種技術(shù)分別予以規(guī)制,是我國當(dāng)前治理人工智能的基本思路。

技術(shù)邏輯的視角下,人工智能主要由兩部分組成:算法和數(shù)據(jù)[18]。由此,法律也基本從算法和數(shù)據(jù)兩個(gè)方面展開對(duì)人工智能的監(jiān)管?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法管理規(guī)定》)是我國首部專門治理算法的規(guī)范,其確立了算法監(jiān)管的基本機(jī)制——算法備案?!端惴ü芾硪?guī)定》將保障算法安全、符合法律與倫理、真實(shí)準(zhǔn)確等責(zé)任課以算法服務(wù)提供者,以具體的“人”作為監(jiān)管對(duì)象。之后制定并實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成管理規(guī)定》)實(shí)際上是對(duì)《算法管理規(guī)定》作出的補(bǔ)充。因?yàn)槠浔O(jiān)管對(duì)象——深度合成技術(shù)——本質(zhì)上也是一種算法。

從立法數(shù)量上,法律規(guī)范對(duì)作為生產(chǎn)要素的“數(shù)據(jù)”的監(jiān)管更為嚴(yán)密。從《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律層級(jí)的規(guī)范,到《網(wǎng)絡(luò)安全審查辦法》《數(shù)據(jù)出境安全評(píng)估辦法》等部門規(guī)章,都圍繞數(shù)據(jù)設(shè)置了具體的監(jiān)管對(duì)象,即數(shù)據(jù)處理者。換言之,數(shù)據(jù)處理者對(duì)數(shù)據(jù)負(fù)有各項(xiàng)義務(wù),而監(jiān)管者的任務(wù)也即監(jiān)督管理數(shù)據(jù)處理者履行義務(wù),這一過程的核心仍然是“人”。

當(dāng)然,法律作為調(diào)整社會(huì)關(guān)系的調(diào)節(jié)器,處理的本就是人與人的關(guān)系。若以關(guān)系鏈的形式表示法律對(duì)數(shù)據(jù)以及算法的監(jiān)管,將呈現(xiàn)如下鏈條:法律—服務(wù)提供者—算法;法律—數(shù)據(jù)處理者—數(shù)據(jù)。但生成式人工智能及作為其基礎(chǔ)的大模型改變了現(xiàn)有的鏈條。大模型將算法與海量的數(shù)據(jù)深度融合,即將成為新時(shí)代的基礎(chǔ)設(shè)施。一方面,大模型的泛用性極強(qiáng),能夠廣泛應(yīng)用于各類應(yīng)用與系統(tǒng),并不需要過于豐富的品類。另一方面,巨大的開發(fā)成本使得大模型只能是少數(shù)行業(yè)巨頭的“昂貴的嘗試”[19],而足夠的財(cái)力和技術(shù)實(shí)力也能保障大模型的穩(wěn)定性與前沿性,為社會(huì)供給足夠的服務(wù)。于是,法律監(jiān)管的關(guān)系鏈更迭為“法律—義務(wù)人—大模型(生成式人工智能)”。

其中,義務(wù)人是指對(duì)大模型負(fù)有管理義務(wù)的行政相對(duì)人。而之所以使用義務(wù)人這一模糊的指代,是因?yàn)樯墒饺斯ぶ悄苣:吮O(jiān)管對(duì)象之間的區(qū)分,而現(xiàn)有法律尚不能做出恰當(dāng)?shù)奶幚?。有學(xué)者認(rèn)為,《暫行辦法(征求意見稿)》將基礎(chǔ)模型的訓(xùn)練數(shù)據(jù)列為專門的調(diào)整對(duì)象,意味著我國已經(jīng)著手對(duì)基礎(chǔ)模型展開監(jiān)管[17]。不過,征求意見稿第7條第2款的內(nèi)容,“用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),應(yīng)滿足以下要求”,也被修改為《暫行辦法》第7條第1款“生成式人工智能服務(wù)提供者(以下稱提供者)應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),遵守以下規(guī)定”。語法的變化或可表明,我國當(dāng)前人工智能的監(jiān)管抓手仍然是具體的服務(wù)提供者,其目光并沒有移轉(zhuǎn)到生成式人工智能及其大模型。

(二)組合式監(jiān)管無法賦能生成式人工智能監(jiān)管

技術(shù)實(shí)力與監(jiān)管效率的不足,在一定程度上與現(xiàn)行監(jiān)管法律的規(guī)定密切相關(guān)。因?yàn)閺目傮w上看,是立法的部門化導(dǎo)致了生成式人工智能的監(jiān)管部門化,而各個(gè)部門的組合式監(jiān)管共同構(gòu)成了生成式人工智能的監(jiān)管網(wǎng)絡(luò)。部門間的各項(xiàng)資源尚沒有形成良好的整合,必然導(dǎo)致該種形式的監(jiān)管在一定程度上存在監(jiān)管能力不足的問題。

第一,《暫行辦法》等法律規(guī)范指向了一個(gè)模糊的主管部門。《暫行辦法》第16條第2款規(guī)定,“國家有關(guān)主管部門……制定相應(yīng)的分類分級(jí)監(jiān)管規(guī)則或者指引?!币约暗?8條規(guī)定,“使用者發(fā)現(xiàn)生成式人工智能服務(wù)不符合法律、行政法規(guī)和本辦法規(guī)定的,有權(quán)向有關(guān)主管部門投訴、舉報(bào)?!薄坝嘘P(guān)部門”的模糊表述,雖然為生成式人工智能監(jiān)管職責(zé)的調(diào)整預(yù)留了空間,但也給法律的執(zhí)行帶來難題。詳言之,通過算法備案機(jī)制進(jìn)行監(jiān)管的責(zé)任由《暫行辦法》第17條明確為國家網(wǎng)信部門,但第19條又規(guī)定,“有關(guān)主管部門依據(jù)職責(zé)對(duì)生成式人工智能服務(wù)開展監(jiān)督檢查”,可見,監(jiān)督檢查的職責(zé)似乎是各部門都具有的?!熬琵堉嗡钡母窬植粌H給監(jiān)管對(duì)象帶來不便,也使真正負(fù)責(zé)的監(jiān)管主體難以確認(rèn)。

第二,《暫行辦法》等法律規(guī)范沒有理清組合式監(jiān)管中各主體的權(quán)責(zé)。例如,最新的專門立法《暫行辦法》第16條第1款規(guī)定,“網(wǎng)信、發(fā)展改革、教育等部門,依據(jù)各自職責(zé)依法加強(qiáng)對(duì)生成式人工智能服務(wù)的管理?!痹摋l款顯然是一項(xiàng)宣示性條款,其并沒有為各部門設(shè)定或明確權(quán)責(zé)。而《暫行辦法》第20條、第21條等條款,雖然表面上增加了新的行政監(jiān)管事項(xiàng)并規(guī)定了具體的罰則,但究其本質(zhì),仍然只是對(duì)其他法律規(guī)范的轉(zhuǎn)述??梢姡墒饺斯ぶ悄艿母鞅O(jiān)管部門仍需要通過理解、解釋一般性立法,來執(zhí)行本部門的監(jiān)管職責(zé),這將不可避免地造成權(quán)責(zé)劃分上的模糊。

第三,在技術(shù)層面,《暫行辦法》等法律規(guī)范也并未規(guī)定監(jiān)管機(jī)關(guān)之間的技術(shù)支持機(jī)制,且將技術(shù)的解釋權(quán)保留給了被監(jiān)管者。《暫行辦法》第19條第1款規(guī)定,“提供者應(yīng)當(dāng)依法予以配合,按要求對(duì)訓(xùn)練數(shù)據(jù)來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機(jī)制機(jī)理等予以說明,并提供必要的技術(shù)數(shù)據(jù)等支持和協(xié)助?!奔僭O(shè)教育部門就某個(gè)應(yīng)用于教學(xué)的生成式人工智能進(jìn)行監(jiān)督檢查,由于其自身不具備技術(shù)實(shí)力,且現(xiàn)行法律規(guī)范并未通過人才引入等機(jī)制賦予該教育部門技術(shù)實(shí)力,那么本次檢查的技術(shù)解釋權(quán)將全部歸屬于被監(jiān)管的部門。監(jiān)督檢查的公正性和有效性由此存疑,而在生成式人工智能的生成內(nèi)容高度依賴大模型中的數(shù)據(jù)與算法時(shí),“技術(shù)無涉”的內(nèi)容監(jiān)管部門是否應(yīng)放棄技術(shù)層面的必要監(jiān)管也值得進(jìn)一步討論。

總之,組合式的監(jiān)管在法律上存在監(jiān)管主體及其權(quán)責(zé)不清、缺失統(tǒng)籌部門與協(xié)調(diào)機(jī)制等問題,并造成監(jiān)管資源的低效利用。可以說,當(dāng)前的組合式監(jiān)管不僅無法賦能監(jiān)管機(jī)關(guān),甚至可能減損了監(jiān)管機(jī)關(guān)的監(jiān)管能力,阻礙了有效有為監(jiān)管者的實(shí)現(xiàn)。

(三)監(jiān)管過程缺少程序性規(guī)范

行政監(jiān)管貫穿于事前、事中和事后的全過程[20],能夠?qū)ι墒饺斯ぶ悄苓M(jìn)行全方位的監(jiān)督管理。而我國法律規(guī)范缺少對(duì)監(jiān)管過程的程序性控制,這不僅造成了監(jiān)管過程的封閉性,更是體現(xiàn)出我國行政監(jiān)管民主參與水平的不足。

事中事后監(jiān)管是我國生成式人工智能的監(jiān)管的主要階段,而其可以依據(jù)的程序性規(guī)范存在一定缺失。一方面,現(xiàn)有的程序規(guī)定過于簡(jiǎn)單,算法備案等程序規(guī)定不能給相對(duì)人以合適的指引?!端惴ü芾硪?guī)定》第25條規(guī)定,“國家和省、自治區(qū)、直轄市網(wǎng)信部門收到備案人提交的備案材料后,材料齊全的,應(yīng)當(dāng)在三十個(gè)工作日內(nèi)予以備案,發(fā)放備案編號(hào)并進(jìn)行公示;材料不齊全的,不予備案,并應(yīng)當(dāng)在三十個(gè)工作日內(nèi)通知備案人并說明理由?!痹摋l主要有兩個(gè)程序性要素,一是備案的期限,二是備案的條件。其中,材料是否齊全是唯一的備案條件,而是否齊全的判斷標(biāo)準(zhǔn)理應(yīng)有一份材料清單,但《算法管理規(guī)定》并沒有給出。一般而言,行政許可、行政備案等需要行政相對(duì)人事先準(zhǔn)備材料的行政行為,都應(yīng)當(dāng)提前公示所需的材料目錄?!缎姓S可法》第30條第1款規(guī)定,“行政機(jī)關(guān)應(yīng)當(dāng)將法律、法規(guī)、規(guī)章規(guī)定的有關(guān)行政許可的事項(xiàng)、依據(jù)、條件、數(shù)量、程序、期限以及需要提交的全部材料的目錄和申請(qǐng)書示范文本等在辦公場(chǎng)所公示?!绷硪环矫妫糠直O(jiān)管行為缺少程序規(guī)定,如數(shù)據(jù)安全評(píng)估。目前,僅有《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》對(duì)部分算法進(jìn)行安全評(píng)估的范圍、內(nèi)容、程序作出規(guī)定,《數(shù)據(jù)安全法》規(guī)定的重要數(shù)據(jù)的處理者的數(shù)據(jù)安全評(píng)估義務(wù),尚無一般性的規(guī)定。這些具體程序性規(guī)范的缺失無疑會(huì)造成具體監(jiān)管過程的不透明與恣意。

更為重要的是,現(xiàn)有規(guī)范仍然保持著高權(quán)行政的風(fēng)格,不能為被監(jiān)管主體與其他社會(huì)主體提供暢通的民主參與渠道。監(jiān)管生成式人工智能的相關(guān)法律規(guī)范以事中事后監(jiān)管為主,順應(yīng)了生成式人工智能的技術(shù)發(fā)展邏輯,但其并未改變行政機(jī)關(guān)高高在上、遠(yuǎn)離技術(shù)的監(jiān)管常態(tài)。被監(jiān)管主體“盡管具備更強(qiáng)的風(fēng)險(xiǎn)預(yù)見和防范能力,但是喪失主體性而處于被控制者地位,無法有效利用技術(shù)優(yōu)勢(shì)和地位優(yōu)勢(shì)協(xié)助開展監(jiān)管”[21]。同樣,其他社會(huì)主體的智慧也無法賦能監(jiān)管。為解決這一問題,《數(shù)據(jù)安全法》《暫行辦法》等全國性規(guī)范以及《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》等地方性規(guī)范做出了一定的嘗試。如《暫行辦法》第5條第2款規(guī)定,“支持行業(yè)組織、企業(yè)、教育和科研機(jī)構(gòu)、公共文化機(jī)構(gòu)、有關(guān)專業(yè)機(jī)構(gòu)等在生成式人工智能技術(shù)創(chuàng)新風(fēng)險(xiǎn)防范等方面開展協(xié)作?!钡摋l款避重就輕,僅強(qiáng)調(diào)社會(huì)自治的協(xié)作而未將監(jiān)管機(jī)關(guān)納入?yún)f(xié)作網(wǎng)絡(luò),不能觸及問題的核心。此外,目的相仿的其他條款多為宣示性條款,并不具備強(qiáng)制的法律效力。

總的來說,生成式人工智能的行政監(jiān)管過程尚未實(shí)現(xiàn)規(guī)范化,多元主體更是無法通過程序性機(jī)制參與監(jiān)管過程。高權(quán)行政的慣性使得執(zhí)法保持了傳統(tǒng)的思路,而程序性規(guī)范的不完善則是直接造成監(jiān)管封閉性的原因。

三、紓解之道:生成式人工智能的整體性治理

綜上可知,現(xiàn)行法律的不足造成了生成式人工智能的行政監(jiān)管困境,而其本質(zhì)原因在于,傳統(tǒng)行政法理論還未能適應(yīng)現(xiàn)代行政監(jiān)管的轉(zhuǎn)型。傳統(tǒng)行政法律理論以行政行為為核心,主要關(guān)注的是行政行為的合法性問題。但是,“某種程度意義上,現(xiàn)代政府所面臨的核心問題,不是它們做什么,而是如何做;與之相適應(yīng)的行政法則應(yīng)置于整個(gè)政治體制下來審視,而不僅僅局限于對(duì)行政活動(dòng)在法律框架下應(yīng)當(dāng)做什么而不應(yīng)當(dāng)做什么的純粹合法與否的關(guān)注?!?sup>[15]因此,必須從其他的理論視角出發(fā),將關(guān)注從個(gè)別行為移轉(zhuǎn)到整體治理目標(biāo)的實(shí)現(xiàn)上來。

(一)以整體性治理理論塑造AI監(jiān)管制度

對(duì)生成式人工智能的有效監(jiān)管離不開監(jiān)管體制的改革,而整體性治理理論正是我國行政體制改革的重要指導(dǎo)理論,我國近幾次的行政體制改革均體現(xiàn)著整體性治理的思路。2023年3月20日第十四屆全國人民代表大會(huì)第一次會(huì)議通過的《國務(wù)院機(jī)構(gòu)改革方案》,以習(xí)近平新時(shí)代中國特色社會(huì)主義思想為指導(dǎo),“加強(qiáng)科學(xué)技術(shù)、金融監(jiān)管、數(shù)據(jù)管理、鄉(xiāng)村振興、知識(shí)產(chǎn)權(quán)、老齡工作等重點(diǎn)領(lǐng)域的機(jī)構(gòu)職責(zé)優(yōu)化和調(diào)整,轉(zhuǎn)變政府職能”,是在大部制基礎(chǔ)上對(duì)各部門職能的進(jìn)一步優(yōu)化[22],也遵循著整體性治理的邏輯思維。

整體性治理理論發(fā)端于英國,著眼于政府內(nèi)部機(jī)構(gòu)和部門的整體性運(yùn)作,其核心主旨是整合政府的內(nèi)部機(jī)構(gòu)和部門以整合政府的各項(xiàng)功能,從而實(shí)現(xiàn)更好的治理。整體性治理的理論內(nèi)涵較為豐富,它的主要思想包括逆部門化和碎片化、大部式治理、重新政府化、恢復(fù)或重新加強(qiáng)中央過程等內(nèi)容[23]。將整體性治理理論應(yīng)用于生成式人工智能監(jiān)管體制的改革并不意味著接受整體性治理理論的全部思想,尤其是該理論發(fā)源于英國,具有明顯的國家特色。例如,“重新政府化”的整體性治理思路并不適用我國,因?yàn)槲覈鴤鹘y(tǒng)治理場(chǎng)域過度政府化的問題尚未解決,遑論重新政府化[24]。事實(shí)上,整體性治理理論在我國的應(yīng)用實(shí)踐也保持了中國特色社會(huì)主義制度的特色,是在中國經(jīng)驗(yàn)的基礎(chǔ)上對(duì)西方整體性治理理論的創(chuàng)新和超越[25]。

以整體性治理理論形塑生成式人工智能的監(jiān)管制度具有四點(diǎn)優(yōu)勢(shì)。(1)整體性治理理論可以統(tǒng)籌創(chuàng)新與風(fēng)險(xiǎn)監(jiān)管。對(duì)生成式人工智能這一新技術(shù)展開監(jiān)管必然需要考量創(chuàng)新與風(fēng)險(xiǎn)這一對(duì)范疇,而理想的監(jiān)管方案也一定是二者的平衡。達(dá)成此平衡需要全局的考量,也即從一種整體的視角觀察。(2)整體性治理理論可以擴(kuò)大傳統(tǒng)行政法理論關(guān)注對(duì)象的范圍。生成式人工智能行政監(jiān)管的問題不是對(duì)監(jiān)管行為是否合法的判斷,而是如何在控制風(fēng)險(xiǎn)的前提下促進(jìn)生成式人工智能發(fā)展的問題。傳統(tǒng)理論重點(diǎn)關(guān)注具有外部效力的行政行為,并以行為錨定監(jiān)管主體與監(jiān)管對(duì)象,而這樣的思路把監(jiān)管全程過分簡(jiǎn)單地化約為了最后表示在外的行為。整體性治理理論則能重新建立對(duì)監(jiān)管全過程的重視,并將更好的監(jiān)管作為監(jiān)管主體的目標(biāo)。(3)整體性治理理論可以精準(zhǔn)應(yīng)對(duì)監(jiān)管主體能力不足的問題?!罢稀币恢笔钦w性治理理論的關(guān)鍵詞,其強(qiáng)調(diào)的是通過合并政府組織和部門功能,以形成一個(gè)更能有效解決問題的政府。(4)整體性治理理論能夠優(yōu)化治理的過程。整體性治理強(qiáng)調(diào)的自上而下的建構(gòu),當(dāng)然也包括程序機(jī)制的統(tǒng)一,并且其強(qiáng)調(diào)的程序機(jī)制并不排斥非政府主體的參與,具有包容性。

由上可見,將整體性治理理論運(yùn)用于生成式人工智能的監(jiān)管,既具有諸多方面的理論優(yōu)勢(shì),也符合我國行政體制改革的一貫思路。而整體性治理在生成式人工智能行政監(jiān)管中的具體展開,可以從以下三個(gè)方面入手。

(二)產(chǎn)品監(jiān)管:AI監(jiān)管對(duì)象的整體化思路

數(shù)據(jù)處理者和服務(wù)提供者是原本監(jiān)管體制的核心,而生成式人工智能的出現(xiàn)增加了識(shí)別二者責(zé)任的難度。在生成式人工智能的應(yīng)用系統(tǒng)中,似乎只有生成式人工智能技術(shù)是明確的中心,其技術(shù)支持者、服務(wù)提供者、直接亦或間接的使用者,也只是相對(duì)確定但可以不斷變化的。但如果再考慮到生成式人工智能昂貴的開發(fā)成本、龐大的數(shù)據(jù)集和在此基礎(chǔ)上不斷演化的算法,每個(gè)生成式人工智能技術(shù)項(xiàng)目都可以說是獨(dú)一無二的。雖然在理論上,某個(gè)生成式人工智能可以被復(fù)制為無數(shù)份,不過,人工智能的主要開發(fā)者必然會(huì)對(duì)其進(jìn)行保密,以保持其模型的競(jìng)爭(zhēng)優(yōu)勢(shì)和獨(dú)一無二性[26]。所以,生成式人工智能可以被暫時(shí)認(rèn)作一份獨(dú)一無二的“產(chǎn)品”。

在相對(duì)確定的產(chǎn)品與相對(duì)不確定的產(chǎn)品開發(fā)者、使用者之間,產(chǎn)品應(yīng)當(dāng)走入監(jiān)管視野的中心。而在整體治理的思路下,將產(chǎn)品作為線索,將產(chǎn)品背后的人統(tǒng)一納入監(jiān)管,是解決監(jiān)管對(duì)象確認(rèn)問題的可行方法。產(chǎn)品監(jiān)管具體可以通過三個(gè)具體措施實(shí)現(xiàn)。

第一,完善備案信息,為產(chǎn)品監(jiān)管提供抓手。目前的算法備案機(jī)制為監(jiān)管機(jī)構(gòu)提供了信息,緩解了監(jiān)管主體的信息匱乏,有利于監(jiān)管機(jī)構(gòu)科學(xué)地開展監(jiān)管活動(dòng),提升監(jiān)管效能[27]。生成式人工智能備案應(yīng)當(dāng)進(jìn)一步升級(jí),實(shí)現(xiàn)算法、數(shù)據(jù)、場(chǎng)景、主體等更多維度信息的備案,最終構(gòu)建起大模型備案機(jī)制。詳言之,不僅算法要進(jìn)行備案,大模型的數(shù)據(jù)集、應(yīng)用場(chǎng)景以及授權(quán)使用大模型的其他開發(fā)主體等內(nèi)容,也應(yīng)當(dāng)進(jìn)行備案。同時(shí),這種備案并非一次性的,而是盡可能保持持續(xù)的更新,實(shí)現(xiàn)與監(jiān)管機(jī)關(guān)的實(shí)時(shí)共享。

第二,明確管理義務(wù),提升產(chǎn)品的安全性。首先,凡是運(yùn)行和維護(hù)生成式人工智能產(chǎn)品的主體,即具有對(duì)其的管理義務(wù)。生成式人工智能模型的初級(jí)開發(fā)者,當(dāng)然具有管理義務(wù),除非其將該人工智能模型轉(zhuǎn)讓給他者。生成式人工智能模型的次級(jí)開發(fā)者,也對(duì)其具有部分的管理義務(wù)。所謂次級(jí)開發(fā)者,指的是將生成式人工智能產(chǎn)品嵌入自己開發(fā)的應(yīng)用中,二次開發(fā)利用生成個(gè)性化產(chǎn)品的開發(fā)者,也即上文提及的“授權(quán)使用大模型的其他開發(fā)主體”。次級(jí)開發(fā)者對(duì)個(gè)性化的部分負(fù)有管理義務(wù),如次級(jí)開發(fā)者輸入的用以個(gè)性化的數(shù)據(jù)。其次,管理義務(wù)根據(jù)不同的層次內(nèi)容不同。初級(jí)開發(fā)者要注重生成式人工智能產(chǎn)品的合倫理性,避免其在根本上存在的潛在的違法傾向;次級(jí)開發(fā)者則要注重個(gè)性化數(shù)據(jù)的應(yīng)用場(chǎng)景,可以引入數(shù)據(jù)的分級(jí)分類制度來保障數(shù)據(jù)的安全[17]

第三,賦予使用者監(jiān)督權(quán),確保產(chǎn)品的靈敏性。應(yīng)先明確的是,使用者故意不當(dāng)使用生成式人工智能產(chǎn)品所產(chǎn)生的不良后果,不應(yīng)由開發(fā)者承擔(dān)責(zé)任,但開發(fā)者應(yīng)當(dāng)對(duì)用戶輸入的數(shù)據(jù)進(jìn)行篩選,避免其影響產(chǎn)品本身。而使用者在使用過程中,發(fā)現(xiàn)產(chǎn)品可能出現(xiàn)的歧視、誤導(dǎo)、虛假信息,應(yīng)享有監(jiān)督權(quán)。生成式人工智能是一個(gè)通過不斷交互進(jìn)行升級(jí)的產(chǎn)品,因而不應(yīng)忽視用戶本身對(duì)于產(chǎn)品的貢獻(xiàn),應(yīng)當(dāng)重視使用者的感受和問題反映。并且基于生成式人工智能的技術(shù)能力,個(gè)人用戶的舉報(bào)投訴應(yīng)至少得到格式化的反饋,而對(duì)于頻繁出現(xiàn)的問題則應(yīng)當(dāng)進(jìn)行更正式的說明,甚至在必要時(shí)制定并公開“偏見影響聲明”等可能影響使用者權(quán)益的文件[28]。

由此,行政監(jiān)管能夠以大模型備案機(jī)制為基礎(chǔ),鎖定背后不同層級(jí)開發(fā)者的責(zé)任義務(wù)。而眾多使用者對(duì)產(chǎn)品進(jìn)行的監(jiān)督,則是整體化的產(chǎn)品監(jiān)管的重要力量。

(三)資源整合:主要監(jiān)管機(jī)關(guān)的確認(rèn)

對(duì)監(jiān)管主體和職能的整合是整體性治理所重點(diǎn)關(guān)注的,也是當(dāng)前生成式人工智能行政監(jiān)管所需要的。而哪一機(jī)關(guān)應(yīng)當(dāng)作為生成式人工智能監(jiān)管的主要機(jī)關(guān),亦或是否需要新設(shè)一個(gè)專門機(jī)關(guān)監(jiān)管人工智能的問題,則是有待明確的。是否需要設(shè)立一個(gè)專門的人工智能監(jiān)管機(jī)關(guān)?對(duì)此,歐盟的答案是肯定的。已由歐盟理事會(huì)批準(zhǔn)公布的《人工智能法案》計(jì)劃設(shè)置獨(dú)立的“歐洲人工智能辦公室”(The European Artificial Intelligence Office),其主要職責(zé)即監(jiān)管歐盟范圍內(nèi)的人工智能模型。[29]。歐洲人工智能辦公室的設(shè)立,很大程度上是為了實(shí)現(xiàn)歐盟這一國家聯(lián)盟內(nèi)人工智能監(jiān)管的統(tǒng)一性,而我國的國家互聯(lián)網(wǎng)信息辦公室(以下簡(jiǎn)稱網(wǎng)信辦)已然可以擔(dān)當(dāng)此角色。在現(xiàn)有的規(guī)范和實(shí)踐中,網(wǎng)信部門作為《算法管理規(guī)定》《暫行辦法》規(guī)定的重要監(jiān)管主體,也應(yīng)當(dāng)被進(jìn)一步確認(rèn)為我國人工智能監(jiān)管的主要機(jī)關(guān)。

首先,將網(wǎng)信部門規(guī)定為統(tǒng)籌人工智能監(jiān)管的機(jī)關(guān)。建議在之后的《生成式人工智能管理辦法》中增加如下條款:“各級(jí)網(wǎng)信部門是人工智能產(chǎn)品的主管部門,負(fù)責(zé)統(tǒng)籌、協(xié)調(diào)、實(shí)施本行政區(qū)域內(nèi)人工智能產(chǎn)品監(jiān)管工作?!比绱瞬拍芟鞴懿块T的模糊性,明確網(wǎng)信部門作為主要監(jiān)管機(jī)關(guān)的地位。需要注意的是,網(wǎng)信部門是生成式人工智能的主管部門而不是唯一部門,其他部門行使的生成式人工智能監(jiān)管權(quán)力可以由網(wǎng)信部門進(jìn)行統(tǒng)籌協(xié)調(diào)。具體來說,因?yàn)樯墒饺斯ぶ悄艿母驹谟谒惴ㄅc數(shù)據(jù),所以網(wǎng)信部門主要行使生成式人工智能算法與數(shù)據(jù)的安全監(jiān)管權(quán)力,而監(jiān)管事項(xiàng)涉及其他部門的主要職能時(shí),則由其他部門進(jìn)行監(jiān)管,由網(wǎng)信部門進(jìn)行統(tǒng)籌。例如,《科技倫理審查辦法(試行)》規(guī)定,人工智能的研究活動(dòng)需要經(jīng)過科技倫理審查,該監(jiān)管事項(xiàng)就由科技部主要負(fù)責(zé),而這樣的分工也符合“功能適當(dāng)性”[30]的考量。

其次,集中生成式人工智能的監(jiān)管權(quán)力。作為主要的人工智能監(jiān)管行政機(jī)關(guān),網(wǎng)信部門需要配置以更廣泛的權(quán)力。雖然主要職能的不同使得網(wǎng)信部門與工業(yè)和信息化部門、科技主管部門、市場(chǎng)監(jiān)管部門等仍有一定的分工,但這并不妨礙將監(jiān)管權(quán)力進(jìn)一步集中到網(wǎng)信部門。第一,落實(shí)網(wǎng)信部門的事中事后監(jiān)管權(quán)。僅憑算法備案機(jī)制以及其升級(jí)版本的大模型備案機(jī)制,網(wǎng)信部門尚不能實(shí)現(xiàn)對(duì)生成式人工智能監(jiān)管的實(shí)效,其還需要“與其他事中事后監(jiān)管機(jī)制的聯(lián)動(dòng)與強(qiáng)化后續(xù)監(jiān)管執(zhí)法工具的威懾力來實(shí)現(xiàn)對(duì)相對(duì)人的過程控制”[31]。故而,網(wǎng)信部門應(yīng)當(dāng)可以通過“雙隨機(jī)、一公開”對(duì)備案內(nèi)容進(jìn)行檢查執(zhí)法。第二,保持網(wǎng)信部門的政策制定主導(dǎo)權(quán)。在《算法管理規(guī)定》《暫行辦法》等生成式人工智能治理的政策規(guī)范中,網(wǎng)信部門往往是聯(lián)合印發(fā)的各部門中的牽頭人,而今后關(guān)于生成式人工智能治理的其他政策規(guī)范,也應(yīng)當(dāng)由網(wǎng)信部門主導(dǎo)。因?yàn)榫W(wǎng)信部門不僅具有豐富的立法經(jīng)驗(yàn),更是方便直接將執(zhí)法經(jīng)驗(yàn)向立法轉(zhuǎn)化,是詳盡規(guī)則制定的最適合機(jī)關(guān)[32]。其他相關(guān)部門應(yīng)當(dāng)配合好網(wǎng)信部門,并向其反饋不同部門視角下的觀點(diǎn),以避免部門利益立法的傾向[33]。第三,尊重網(wǎng)信部門的統(tǒng)籌權(quán)。網(wǎng)信部門應(yīng)當(dāng)用好統(tǒng)籌權(quán),協(xié)調(diào)各部門展開生成式人工智能的整體性治理,特別是統(tǒng)籌調(diào)動(dòng)政府技術(shù)部門,發(fā)揮好技術(shù)部門的技術(shù)支持作用。統(tǒng)籌權(quán)可以通過我國整體性治理理論所強(qiáng)調(diào)的黨政融合加以實(shí)現(xiàn)[34],而各部門也應(yīng)當(dāng)尊重網(wǎng)信部門的統(tǒng)籌指令。

最后,還應(yīng)當(dāng)考慮適時(shí)提高網(wǎng)信部門的行政級(jí)別。在國家層面,網(wǎng)信辦仍然只是國務(wù)院的辦事機(jī)構(gòu),不具有獨(dú)立的行政管理職能。而在人工智能、算法、數(shù)據(jù)等基礎(chǔ)之上的網(wǎng)絡(luò)社會(huì)中,網(wǎng)信辦的執(zhí)法權(quán)力與責(zé)任只會(huì)越來越大。那么,當(dāng)前的行政級(jí)別勢(shì)必不能匹配網(wǎng)信辦未來的地位和作用。再者,人工智能監(jiān)管具有一定的國際化趨勢(shì)[35],網(wǎng)信辦也需要合適的身份與國外監(jiān)管機(jī)關(guān)進(jìn)行交流合作。

(四)過程優(yōu)化:監(jiān)管程序的整體性構(gòu)建

整體性治理不僅強(qiáng)調(diào)行政機(jī)關(guān)組織內(nèi)部的治理資源整合,還重視將社會(huì)力量納入治理網(wǎng)絡(luò),而這正是破除傳統(tǒng)高權(quán)行政慣性的指南?!罢瓶卮罅抠Y源和專業(yè)知識(shí),但是并不足以滿足公眾的所有需求,將社會(huì)不同部門的資源和專業(yè)知識(shí)整合到一起,共同面對(duì)公共議題,才是解決公共問題的最佳辦法?!?sup>[36]因此,行政機(jī)關(guān)需要從高權(quán)行政轉(zhuǎn)變?yōu)槠跫s行政,從單向、封閉的監(jiān)管體系升級(jí)為互動(dòng)、合作的監(jiān)管體系。從程序機(jī)制構(gòu)建生成式人工智能整體性治理的合作機(jī)制,是現(xiàn)有條件下最具可行性的方案。

首先,增設(shè)生成式人工智能行政監(jiān)管的定期咨詢程序。歐盟計(jì)劃建立“咨詢論壇”(Advisory forum)為人工智能治理提供技術(shù)經(jīng)驗(yàn)和建議,且規(guī)定咨詢論壇每年至少舉行兩次會(huì)議。[29]我國網(wǎng)信部門也可以定期組織咨詢會(huì),與生成式人工智能利益相關(guān)的企業(yè)、社會(huì)組織、學(xué)術(shù)代表、人民代表進(jìn)行交流溝通。與會(huì)代表應(yīng)通過遴選的方式產(chǎn)生,使之從整體上兼顧各方利益,尤其是中小規(guī)模的人工智能技術(shù)開發(fā)者,而為了咨詢程序的按時(shí)有序,代表也可以實(shí)行任期制。其次,完善程序規(guī)則的細(xì)節(jié)。在現(xiàn)有規(guī)范的基礎(chǔ)上,還需完善以下方面。(1)制定、公開大模型備案所需的材料清單。(2)規(guī)定材料不齊全、不符合規(guī)定情形下的補(bǔ)正程序。(3)繼續(xù)完善較為專業(yè)和獨(dú)立的材料的準(zhǔn)備程序,如安全評(píng)估報(bào)告。我國已制定《工業(yè)和信息化領(lǐng)域數(shù)據(jù)安全管理辦法(試行)》《工業(yè)和信息化領(lǐng)域數(shù)據(jù)安全風(fēng)險(xiǎn)評(píng)估實(shí)施細(xì)則(試行)》,對(duì)工業(yè)和信息化領(lǐng)域的數(shù)據(jù)安全評(píng)估報(bào)告進(jìn)行了細(xì)致規(guī)定,但數(shù)據(jù)評(píng)估報(bào)告是所有人工智能項(xiàng)目均需要的必備材料,更應(yīng)構(gòu)建起一個(gè)整體統(tǒng)一的程序機(jī)制。(4)制定網(wǎng)信部門“雙隨機(jī)、一公開”監(jiān)管機(jī)制的程序規(guī)定,包括雙隨機(jī)抽查工作細(xì)則、抽查事項(xiàng)清單,以及由各級(jí)網(wǎng)信部門制定的“檢查對(duì)象清單”“執(zhí)法檢查人員清單”等。最后,在監(jiān)管過程中為當(dāng)事人提供救濟(jì)渠道。雖然監(jiān)管過程中的大部分行政行為均屬于事實(shí)行為,不設(shè)定、改變、減損或增加當(dāng)事人的權(quán)利義務(wù),但這并不意味著當(dāng)事人完全不享有獲得救濟(jì)的權(quán)利。行政監(jiān)管中的所有事實(shí)行為均有行政強(qiáng)制力作為后盾,若當(dāng)事人未完成行政事實(shí)行為的要求,其權(quán)利義務(wù)當(dāng)然會(huì)受到影響[37]。大模型備案從性質(zhì)上也屬于行政事實(shí)行為,但若備案不予通過,當(dāng)事人開發(fā)、使用人工智能的權(quán)益當(dāng)然會(huì)受到影響,因而應(yīng)當(dāng)予以當(dāng)事人陳述申辯、尋求救濟(jì)的渠道。例如,當(dāng)事人在不認(rèn)可不予備案的理由時(shí),應(yīng)當(dāng)有權(quán)請(qǐng)求備案機(jī)關(guān)重新審查。

結(jié)語

法律發(fā)展的歷史即社會(huì)生活的變遷史,而人工智能技術(shù)已經(jīng)融入我們的社會(huì)生活之中[38]。生成式人工智能等技術(shù)的發(fā)展速度也一直存在“加速度”,這使得科技促成的社會(huì)變化越來越劇烈。問題是,變化有益于社會(huì)生活中的普通人嗎[39],又如何平衡技術(shù)發(fā)展的速度與安全性?法律與政策絕不能把科技發(fā)展的高速路變?yōu)橥谅贰⒛嗦?,但也必須設(shè)置一些減速帶,保障科技進(jìn)步的安全性。行政監(jiān)管正是生成式人工智能發(fā)展道路上最有效的減速帶,不過其自身仍存在優(yōu)化的空間。整體性治理理論恰是合適的指導(dǎo)理論,其提供了生成式人工智能監(jiān)管的全局規(guī)劃,促使行政監(jiān)管的過程民主化、規(guī)范化,加強(qiáng)了行政監(jiān)管主體的監(jiān)管能力,并鎖定了生成式人工智能模型為監(jiān)管對(duì)象。在社會(huì)發(fā)展的整體視角下,妥當(dāng)?shù)男姓O(jiān)管制度不僅能夠防止科技風(fēng)險(xiǎn)的發(fā)生,還能在客觀上保障科技發(fā)展立足于公共利益,并最終促進(jìn)科技發(fā)展行穩(wěn)致遠(yuǎn)。

參考文獻(xiàn):

[1]楊春生. 大模型不等于第三次AI浪潮[J]. 智能系統(tǒng)學(xué)報(bào), 2023, 18(3): 409.

[2]Elon Musk among Experts Urging a Halt to AI Training[EB/OL]. (2023-03-29)[2023-09-02].BBC News,https://www.bbc.com/news/technology-65110030.

[3]STREITFELD D. Silicon Valley Confronts the Idea That the ‘Singularity’ Is Here[EB/OL].(2023-06-11)[2023-09-02].The New York Times, https://www.nytimes.com/2023/06/11/technology/silicon-valley-confronts-the-idea-that-the-singularity-is-here.html.

[4]劉艷紅. 人工智能的可解釋性與AI的法律責(zé)任問題研究[J]. 法制與社會(huì)發(fā)展, 2022(1): 78–91.

[5]江國華. 法治政府要論——行為法治[M]. 武漢:武漢大學(xué)出版社, 2021.

[6]劉軒, 陳海彬. 人工智能監(jiān)管:理論、模式與趨勢(shì)[J]. 情報(bào)理論與實(shí)踐, 2023(6): 17-23+37.

[7]GPT-4 is Bigger and Better than ChatGPT—but OpenAI Won’t Say Why[EB/OL].(2023-03-14)[2023-09-03].MIT Technology Review, https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/.

[8]MAXIMILIAN SCHREINER. GPT-4 architecture, datasets, costs and more leaked[EB/OL].(2023-07-11)[2023-09-03].THE DECODER, https://the-decoder.com/gpt-4-architecture-datasets-costs-and-more-leaked/.

[9]劉艷紅. 生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J]. 東方法學(xué), 2023(4): 29–43.

[10]COGLIANESE C, LEHR D. Regulating by Robot: Administrative Decision Making in the Machine-Learning Era[J]. Georgetown Law Journal, 2017.

[11]北京大學(xué)課題組, 黃璜. 平臺(tái)驅(qū)動(dòng)的數(shù)字政府:能力、轉(zhuǎn)型與現(xiàn)代化[J]. 電子政務(wù), 2020(7): 2–30.

[12]畢文軒. 生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J]. 比較法研究, 2023(3): 155–172.

[13]周佑勇. 論智能時(shí)代的技術(shù)邏輯與法律變革[J]. 東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版), 2019(5): 67-75;147;2.

[14]徐曉明. 外部行政備案管理:機(jī)制屬性、缺陷反思與法律規(guī)制[J]. 中國行政管理, 2020(11): 17–24.

[15]徐健. 行政任務(wù)的多元化與行政法的結(jié)構(gòu)性變革[J]. 現(xiàn)代法學(xué), 2009(3): 22–33.

[16]劉紹宇. 超大互聯(lián)網(wǎng)平臺(tái)中個(gè)人信息保護(hù)獨(dú)立監(jiān)督機(jī)構(gòu)的元規(guī)制論[J]. 重慶理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)), 2023(5): 127–140.

[17]張凌寒. 生成式人工智能的法律定位與分層治理[J]. 現(xiàn)代法學(xué), 2023(4): 126–141.

[18]程樂. 生成式人工智能的法律規(guī)制——以ChatGPT為視角[J]. 政法論叢, 2023(4): 69–80.

[19]葉曉丹. 大模型競(jìng)速迎來“iPhone時(shí)刻” :高昂算力成本怎么破?尋找優(yōu)質(zhì)“算料”或成博弈焦點(diǎn)[EB/OL].(2023-06-07)[2023-10-07].每日經(jīng)濟(jì)新聞, https://www.nbd.com.cn/articles/2023-06-07/2860951.html.

[20]鄧輝. 我國個(gè)人信息保護(hù)行政監(jiān)管的立法選擇[J]. 交大法學(xué), 2020(2): 140–152.

[21]周佑勇. 契約行政理念下的企業(yè)合規(guī)協(xié)議制度構(gòu)建——以工程建設(shè)領(lǐng)域?yàn)橐暯荹J]. 法學(xué)論壇, 2021(3): 49–61.

[22]李軍鵬. 新一輪黨和國家機(jī)構(gòu)改革的突出亮點(diǎn)與重大意義[J]. 國家治理, 2023(7): 2–8.

[23]竺乾威. 從新公共管理到整體性治理[J]. 中國行政管理, 2008(10): 52–58.

[24]朱國偉, 周妍池, 劉銀喜. 敏捷治理推動(dòng)數(shù)字政府建設(shè):發(fā)展趨勢(shì)與實(shí)現(xiàn)路徑[J]. 電子政務(wù), 2024(2): 1–11.

[25]楊解君. 政府治理體系的構(gòu)建:特色、過程與角色[J]. 現(xiàn)代法學(xué), 2020(1): 15–30.

[26]XIANG C. OpenAI’s GPT-4 Is Closed Source and Shrouded in Secrecy[EB/OL].(2023-03-16)[2023-11-08].Vice, https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy.

[27]張吉豫. 論算法備案制度[J]. 東方法學(xué), 2023(2): 86–98.

[28]Algorithmic Bias Detection and Mitigation: Best Practices and Policies to Reduce Consumer Harms[EB/OL].(2023-06-07)[2023-11-08].Brookings, https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.

[29]The Act Texts | EU Artificial Intelligence Act[EB/OL].[2024-07-30].https://artificialintelligenceact.eu/the-act/.

[30]張翔. 我國國家權(quán)力配置原則的功能主義解釋[J]. 中外法學(xué), 2018(2): 281–303.

[31]王青斌, 王由海. 作為規(guī)制工具的行政備案:規(guī)制機(jī)理與效果優(yōu)化[J]. 浙江學(xué)刊, 2022(5): 42–53.

[32]劉啟川. 行政機(jī)關(guān)制定法律規(guī)范的法治邏輯——以公安機(jī)關(guān)交通管理部門為例[J]. 東南學(xué)術(shù), 2021(6): 102–109.

[33]周佑勇. 大變局下中國式民主的制度優(yōu)勢(shì)與憲法保障[J]. 中國法學(xué), 2023(1): 46–64.

[34]袁周,劉苗佳. 公共數(shù)據(jù)整體性治理的組織法進(jìn)路——基于國家數(shù)據(jù)局的展開[J]. 中國科技論壇, 2024(6): 111–120.

[35]The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023[EB/OL].(2023-01-02)[2023-11-10].GOV.UK, https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023.

[36]王瑞雪. 治理語境下的多元行政法[J]. 行政法學(xué)研究, 2014(4): 131–138.

[37]楊霞. 行政備案的性質(zhì)定位與規(guī)范進(jìn)路[J]. 浙江學(xué)刊, 2022(6): 77–85.

[38]劉艷紅. 從學(xué)科交叉到交叉學(xué)科:法學(xué)教育的新文科發(fā)展之路[J]. 中國高教研究, 2022(10): 8–13.

[39]王祿生. ChatGPT類技術(shù):法律人工智能的改進(jìn)者還是顛覆者?[J]. 政法論壇, 2023(4): 49–62.

[責(zé)任編輯:葉慧娟]

猜你喜歡
生成式人工智能
生成式人工智能的教育啟示:讓每個(gè)人成為他自己
挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會(huì)議綜述
生成式人工智能時(shí)代的政治傳播走向
黨政研究(2023年3期)2023-05-29 01:10:39
生成式人工智能重塑教育及教師應(yīng)對(duì)之道
人機(jī)共生時(shí)代國際傳播的理念升維與自主敘事體系構(gòu)建
生成式人工智能的教育應(yīng)用與展望
江阴市| 余庆县| 桃园县| 浪卡子县| 乌拉特中旗| 泽州县| 手游| 青河县| 弥勒县| 北京市| 云霄县| 石河子市| 固阳县| 新密市| 磐安县| 库尔勒市| 屏东县| 克东县| 石台县| 岳西县| 大洼县| 双辽市| 静乐县| 车险| 卢氏县| 桃园市| 原阳县| 阿拉善盟| 伊通| 会同县| 泰来县| 伊川县| 中宁县| 会昌县| 肇州县| 海安县| 米易县| 阳曲县| 浑源县| 温泉县| 得荣县|