劉光宇
(山東司法警官職業(yè)學(xué)院,山東 濟(jì)南 250299)
2022 年底以來,美國OpenAI 公司發(fā)布的智能機(jī)器ChatGPT 在全世界廣受熱議,這款用戶交互式的智能應(yīng)用程序已成為歷史上用戶增長速度最快的消費(fèi)級應(yīng)用,其代表的生成式人工智能被認(rèn)為將給人類的生產(chǎn)生活方式帶來重要變革。比爾·蓋茨(Bill Gates)認(rèn)為ChatGPT是“1980年以來最具革命性的科技進(jìn)步”。探索新型人工智能的應(yīng)用場景,既是擁抱創(chuàng)新的價(jià)值取向體現(xiàn),更是落實(shí)國家戰(zhàn)略的要求。習(xí)近平總書記指出:“中國高度重視創(chuàng)新發(fā)展,把新一代人工智能作為推動(dòng)科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的驅(qū)動(dòng)力量,努力實(shí)現(xiàn)高質(zhì)量發(fā)展。”中共中央、國務(wù)院印發(fā)的《法治政府建設(shè)實(shí)施綱要(2021—2025年)》指出,要堅(jiān)持運(yùn)用人工智能等技術(shù)手段促進(jìn)依法行政……大力提升法治政府建設(shè)數(shù)字化水平。從行政法學(xué)角度看,人工智能賦能政府行政活動(dòng)被稱為“自動(dòng)化行政”,是指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能代為處理,而無須人工的個(gè)別介入,從而實(shí)現(xiàn)部分或全部無人化的行政活動(dòng)。①“交通違法自動(dòng)抓拍”“健康碼”等技術(shù)的應(yīng)用已令世人初見自動(dòng)化行政的端倪,而以“無人干預(yù)自動(dòng)審批”為代表的應(yīng)用場景的出現(xiàn)更使得人們得以窺見人工智能驅(qū)動(dòng)行政行為的應(yīng)用潛力。囿于技術(shù)發(fā)展水平,實(shí)現(xiàn)“有裁量能力的完全自動(dòng)化行政”只能停留在理論層面。以ChatGPT 為代表的生成式人工智能具有更強(qiáng)大的學(xué)習(xí)能力和更準(zhǔn)確的輸出結(jié)果,這為其賦能行政裁量這一“行政法上最基本、最難以把握,也是最富有魅力的概念之一”①王貴松:《行政裁量的內(nèi)在構(gòu)造》,《法學(xué)家》2009年第2期,第31頁。提供了巨大前景誘惑和遐想空間。
然而,ChatGPT 可能給現(xiàn)行法律秩序帶來的風(fēng)險(xiǎn)與隱憂也一直為業(yè)界和學(xué)術(shù)界所熱議。2023年7月13日,國家互聯(lián)網(wǎng)信息辦公室等7部門正式公布《生成式人工智能服務(wù)管理暫行辦法》②國家互聯(lián)網(wǎng)信息辦公室:《生成式人工智能服務(wù)管理暫行辦法》,載中央網(wǎng)信辦官網(wǎng):http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm,最后訪問時(shí)間:2023年7月19日。,對生成式人工智能的應(yīng)用作出了初步規(guī)制。包括埃隆·馬斯克(Elon Musk)在內(nèi)的1800 多位首席執(zhí)行官和1500 多位教授聯(lián)署發(fā)表公開信,呼吁所有實(shí)驗(yàn)室“立即停止訓(xùn)練比ChatGPT4.0 還要強(qiáng)大的AI系統(tǒng)至少6個(gè)月,從而讓實(shí)驗(yàn)室和獨(dú)立專家在此期間能夠共同開發(fā)和實(shí)施一套共享的安全協(xié)議”③Futureoflifeinsistute,PauseGiantAIExperiments《AnOpenLetter》,https://futureoflife.org/open-letter/pause-gi-ant-aiexperiments,最后訪問時(shí)間:2023年7月9日。;“算法黑箱”“算法歧視”等應(yīng)用風(fēng)險(xiǎn)對公民基本權(quán)利產(chǎn)生的負(fù)面影響亦長久以來為行政法學(xué)界所擔(dān)憂。由此,本文將從規(guī)范角度討論生成式人工智能實(shí)現(xiàn)全自動(dòng)行政裁量的可行性,并在此基礎(chǔ)上探析生成式人工智能對現(xiàn)行法律秩序產(chǎn)生的風(fēng)險(xiǎn)與隱憂,并試論可以采取的解決策略,以期從行政法學(xué)角度為生成式人工智能賦能行政裁量提供理論回應(yīng)。
根據(jù)《生成式人工智能服務(wù)管理暫行辦法》的定義,生成式人工智能技術(shù),是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù),ChatGPT 即為這一技術(shù)的典型代表。行政裁量則是行政法的核心問題?!靶姓ǖ木柙谟诓昧俊!雹軛罱槪骸缎姓?guī)制與權(quán)利保障》,中國人民大學(xué)出版社,2007,第1頁。人工智能賦能政府行政活動(dòng)被稱為“自動(dòng)化行政”,指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能代為處理,而無須人工的個(gè)別介入,從而實(shí)現(xiàn)部分或全部無人化的行政活動(dòng)。⑤馬顏昕:《自動(dòng)化行政的分級與法律控制變革》,《行政法學(xué)研究》2019年第1期,第82頁?;诤M鈱W(xué)者將行政活動(dòng)解構(gòu)為“觀測、分析和行動(dòng)”的觀點(diǎn),國內(nèi)學(xué)者將自動(dòng)化行政進(jìn)一步細(xì)化為自動(dòng)化輔助行政、部分自動(dòng)化行政、無裁量能力的完全自動(dòng)化行政、有裁量能力的完全自動(dòng)化行政。⑥馬顏昕:《自動(dòng)化行政的分級與法律控制變革》,《行政法學(xué)研究》2019年第1期,第83頁。在現(xiàn)實(shí)應(yīng)用場景中,深圳上線的應(yīng)屆生落戶“秒批”系統(tǒng)已初具裁量特征。在該系統(tǒng)中,相對人自行提交申請信息,系統(tǒng)自動(dòng)核查材料并比對信息,如材料完整、信息正確,即可自動(dòng)作出行政審批,這種審批是羈束性的,并無裁量空間,因而屬于無裁量能力的完全自動(dòng)化行政。有學(xué)者認(rèn)為,行政裁量完全自動(dòng)化在理論上無從證立,應(yīng)定位于輔助功能。⑦查云飛:《行政裁量自動(dòng)化的學(xué)理基礎(chǔ)與功能定位》,《行政法學(xué)研究》2021年第3期,第114頁。ChatGPT 及其代表的人工智能技術(shù)為突破這一技術(shù)和理論藩籬提供了可能,下文將從技術(shù)和規(guī)范兩個(gè)維度解構(gòu)其可行性。
ChatGPT是以大型語言模型(Large Language Model)為支撐,綜合運(yùn)用人工智能算法、大數(shù)據(jù)處理技術(shù)、云計(jì)算技術(shù)和自動(dòng)化運(yùn)維技術(shù)等形成的自然語言處理機(jī)器學(xué)習(xí)系統(tǒng),其可以通過對數(shù)據(jù)的學(xué)習(xí)來提煉信息、預(yù)測趨勢,進(jìn)而生成不同于學(xué)習(xí)樣本的新內(nèi)容。在模型上,ChatGPT 使用人類反饋強(qiáng)化學(xué)習(xí)(Reward Learningfor Human Feedback)方式進(jìn)行訓(xùn)練,通過人類提問機(jī)器回答、機(jī)器提問人類回答并不斷迭代的方式,讓模型逐漸具有對生成答案的評判能力①OpenAI:“Introducing ChatGPT”,載OpenAI網(wǎng)https://openai.com/blog/chatgpt/,最后訪問時(shí)間:2023年7月26日。,具體訓(xùn)練方法可以大致分為三步:首先,使用監(jiān)督微調(diào)方式(Supervised Fine-tuning)訓(xùn)練初始模型,即“預(yù)訓(xùn)練語言模型”,由人類AI訓(xùn)練員扮演用戶和AI雙方進(jìn)行對話,并將這個(gè)新的對話數(shù)據(jù)集與InstructGPT數(shù)據(jù)集混合,使得ChatGPT 的預(yù)訓(xùn)練語言模型成為對話格式;其次,使用初始模型產(chǎn)生的數(shù)據(jù)訓(xùn)練打分模型(Reward Model),其目標(biāo)是評估模型的輸出是否符合人類的要求。通過隨機(jī)選擇一條初始模型的輸入信息和幾個(gè)生成結(jié)果,讓人類AI訓(xùn)練員根據(jù)人類的滿意程度對它們從好到壞進(jìn)行排名,從而實(shí)現(xiàn)對打分模型的訓(xùn)練;最后,在使用打分模型的基礎(chǔ)上,使用近端策略優(yōu)化這一強(qiáng)化學(xué)習(xí)算法(Proximal Policy Optimization)來微調(diào)模型。在多次迭代后形成ChatGPT 的最終模型。通過迭代式地更新打分模型和策略模型,讓打分模型對模型輸出質(zhì)量的評估愈加精確,策略模型的輸出不斷與初始模型拉開差距,使輸出文本愈符合人類的需求和認(rèn)知。②朱光輝、王喜文:《ChatGPT 的運(yùn)行模式、關(guān)鍵技術(shù)及未來圖景》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2023年第4期,第117頁。由此,通過“模型+算法”,生成式人工智能在技術(shù)上實(shí)現(xiàn)了人類偏好的自主強(qiáng)化訓(xùn)練和語言結(jié)果的界面友好輸出,為最終實(shí)現(xiàn)可達(dá)成法律目的的裁量功能提供了技術(shù)鋪墊。
一般認(rèn)為,行政裁量是指行政主體在適用法律作出決定和采取行動(dòng)時(shí)所享有的自由判斷的空間。③王貴松:《行政裁量的內(nèi)在構(gòu)造》,《法學(xué)家》2009年第2期,第31頁。從法律規(guī)范的邏輯構(gòu)成上來看,行政裁量的法律規(guī)范可以描述為:如果存在T1的情形,行政機(jī)關(guān)可采取措施R1、R2。情形T1 屬于法律要件,措施R1、R2 屬于法律效果。簡單地說,要件裁量是指行政主體在認(rèn)定有待適用的法律要件時(shí)享有判斷的空間;效果裁量是指行政主體認(rèn)定法律要件之后在選擇行為的效果上享有裁量的自由,兩者同時(shí)存在。行政主體適用法律規(guī)范的基本順序?yàn)檎J(rèn)定案件事實(shí)、解釋法律要件、將案件事實(shí)帶入法律要件,這一過程又被稱為“涵攝”,至此,法律要件的判斷結(jié)束。行政主體可以根據(jù)前述判斷的結(jié)果,作出是否采取措施的決定。如果決定采取措施,則進(jìn)一步需要確定采取何種措施、何時(shí)采取、采用哪種方式和程序,以上判斷構(gòu)成效果裁量。
一條完整的法律規(guī)范可以拆分為若干T1和S1、S2,將其作為對話的兩端輸入預(yù)訓(xùn)練語言模型,生成的結(jié)果數(shù)據(jù)即可用于訓(xùn)練打分模型。在打分模型訓(xùn)練中,通過對法律規(guī)范中可以采取的措施,如處罰的措施、數(shù)額、幅度等進(jìn)行人類偏好排序,可初步篩選出裁量結(jié)果。隨著涵攝的不斷進(jìn)行,不確定概念、特殊因素等T1 會不斷疊加,打分模型可以不斷訓(xùn)練排列符合法律規(guī)范目的的處理結(jié)果,借助強(qiáng)化學(xué)習(xí)進(jìn)行語言學(xué)習(xí)優(yōu)化,實(shí)現(xiàn)對法律規(guī)范和裁量空間的自我訓(xùn)練和裁量基準(zhǔn)的自我學(xué)習(xí),最終實(shí)現(xiàn)對S1、S2的精準(zhǔn)篩選、輸出結(jié)果。
綜上所述,在以大型語言模型為基底的生成式人工智能技術(shù)支持下,行政裁量空間中普遍存在的不確定概念和特殊因素得以被納入訓(xùn)練。強(qiáng)大算力的支撐將讓每一次涵攝過程成為不斷趨近人類偏好的訓(xùn)練過程,從而最終實(shí)現(xiàn)裁量結(jié)果的準(zhǔn)確生成,讓實(shí)現(xiàn)法律意義上的“有裁量能力的完全自動(dòng)化行政”成為可能。
ChatGPT 的輸出結(jié)果本質(zhì)上是基于對語料的學(xué)習(xí)而生成的“易于看懂”的數(shù)據(jù),表現(xiàn)出的結(jié)果正確和情感傾向是人類單方面的設(shè)定。換句話說,生成式人工智能本身并不知道輸出結(jié)果的意義和價(jià)值所在,自然缺乏自主意識和人類情感。使用“無情”的工具進(jìn)行“溫情”的裁量,后果直接作用于相對人,本身就是一項(xiàng)大膽的嘗試。因此,在探索技術(shù)可行性的同時(shí),理應(yīng)對其保持足夠的慎重和戒備。與現(xiàn)有自動(dòng)化行政應(yīng)用場景相比,生成式人工智能賦能行政裁量會給現(xiàn)行行政法秩序帶來特有的沖突與風(fēng)險(xiǎn),在算法、數(shù)據(jù)和結(jié)果上尤為突出和緊迫。
由于算法可能作為商業(yè)秘密受保護(hù)而不公開,即便公開,算法模型原理也不易被公眾所了解,對其運(yùn)作機(jī)理、技術(shù)路徑、裁量依據(jù)的理解和觀察需要極高的知識門檻,再加上數(shù)據(jù)輸入和輸出的環(huán)節(jié)中存在的數(shù)據(jù)收集由于公共利益豁免知情同意規(guī)則而不透明、數(shù)據(jù)分析結(jié)果與決策之間的轉(zhuǎn)換不公布等問題,①張凌寒:《算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,《東方法學(xué)》2020年第6期,第9頁。算法面臨無法透明化的難題,即“算法黑箱”。生成式人工智能憑借“黑箱”中的算法做出行政裁量,對公眾實(shí)體權(quán)利產(chǎn)生影響,這與“公開、透明、公眾參與”的行政公開原則背道而馳,導(dǎo)致公民監(jiān)督權(quán)的缺位,進(jìn)而可能引發(fā)行政權(quán)力的濫用,損害相對人合法權(quán)利。除此之外,“算法歧視”的存在也會與公民平等權(quán)發(fā)生沖突。算法歧視往往是無意識的,但產(chǎn)生的后果可能會導(dǎo)致基于種族、性別、年齡等特征的不公正。實(shí)踐中,算法歧視主要表現(xiàn)為偏見代理的算法歧視、特征選擇的算法歧視和大數(shù)據(jù)殺熟三種基本形態(tài)。②鄭智航、徐昭曦:《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查——以美國法律實(shí)踐為例》,《比較法研究》2019年第4期,第112—113頁。在第一種形態(tài)的算法歧視中,輸入端的訓(xùn)練數(shù)據(jù)本身并無歧視性,但輸出結(jié)果存在歧視性,如在貸款違約預(yù)測算法中,在輸入端排除種族因素后,輸出結(jié)果依然存在基于種族區(qū)別之外因素的貸款違約率。③Gillis,T.B.and Spiess,J.L.,“Bigdata and discrimination”,The University of Chicago Law Review,NO.2(2019):459-488.第二種形態(tài)中的原始數(shù)據(jù)本身并不是中立的,歷史、文化、社會結(jié)構(gòu)等方面的相關(guān)信息在數(shù)據(jù)采集和處理過程中不經(jīng)意地被植入到訓(xùn)練數(shù)據(jù)集之中④陳潭、劉璇:《智能政務(wù)ChatGPT化的前景與隱憂》,《電子政務(wù)》2023年第4期,第40頁。,即“偏見進(jìn),偏見出”?!叭绻覀儗⒑谌吮劝兹烁菀妆淮蹲鳛槌跏紨?shù)據(jù)來預(yù)測逮捕率,那么預(yù)測結(jié)果將是逮捕更頻繁地發(fā)生在黑人身上而不是白人身上?!雹軲ayson,S.G.,“2019.Biasin,biasout”,The Yale Law Journal,NO.2(2019):2218-2300.第三種形態(tài)則是針對新老用戶采取差異對待,多體現(xiàn)在價(jià)格區(qū)別對待和特定推送中。將具有歧視性特征的算法應(yīng)用于行政裁量,將導(dǎo)致裁量結(jié)果的歧視性,造成特定人群因種族、膚色、國籍、宗教、性別、殘疾等受到不平等對待,損害公民平等權(quán)利。平等對待、不歧視相對人是公民在“法律面前一律平等”的憲法原則在行政法領(lǐng)域的具體體現(xiàn)。“算法歧視”的存在,將使得自動(dòng)化行政裁量違背行政公平這一基本原則。
生成式人工智能的訓(xùn)練和運(yùn)行需要海量數(shù)據(jù),將引發(fā)數(shù)據(jù)安全與公民隱私權(quán)保護(hù)的隱憂。據(jù)公開資料,ChatGPT 使用了約45TB 的互聯(lián)網(wǎng)公開數(shù)據(jù)和數(shù)字書籍文檔以訓(xùn)練其語言模型。①陳潭、劉璇:《智能政務(wù)ChatGPT化的前景與隱憂》,《電子政務(wù)》2023年第4期,第37頁。其采用的預(yù)訓(xùn)練模型無須人工介入、監(jiān)督,這使得其得以自動(dòng)爬取互聯(lián)網(wǎng)上的數(shù)據(jù)資源,可能會獲取來源為非法的數(shù)據(jù)信息,侵犯他人的隱私。②鄧建鵬、朱懌成:《ChatGPT 模型的法律風(fēng)險(xiǎn)及應(yīng)對之策》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2023 年第5期,第94頁。龐大的數(shù)據(jù)規(guī)模自然面臨著合法性和安全性的擔(dān)憂和審視。以ChatGPT 為代表的生成式人工智能賦能行政裁量,需要海量個(gè)案和裁量基準(zhǔn)進(jìn)行涵攝預(yù)訓(xùn)練,在生成式人工智投入使用后的行政許可、行政處罰等具體裁量場景中,每一次裁量都會將行政相對人的個(gè)人隱私數(shù)據(jù)納入生成式人工智語料數(shù)據(jù)庫,由此產(chǎn)生的公民個(gè)人信息安全隱憂將更為嚴(yán)重。數(shù)據(jù)一旦被泄露和濫用,將會對公民個(gè)人信息權(quán)益、隱私權(quán)造成難以估量的損害,甚至損傷政府公信力,引發(fā)社會動(dòng)蕩??傊?,生成式人工智能本身面臨的數(shù)據(jù)安全風(fēng)險(xiǎn),在生成式人工智能介入行政裁量后將被無限放大,產(chǎn)生的后果將更加嚴(yán)重和難以消除。
生成式人工智能賦能的自動(dòng)化行政具有即時(shí)性,將大大壓縮公民程序性權(quán)利信息的加工處理時(shí)間,活動(dòng)在系統(tǒng)內(nèi)部瞬間完成,活動(dòng)的程序、步驟和方式無法分離,所有信息與內(nèi)容糅雜進(jìn)既定的算法之中得出結(jié)果。③張凌寒:《算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,《東方法學(xué)》2020年第6期,第9頁。瞬間生成的自動(dòng)化行政裁量結(jié)果直接作用于行政相對人,將會損害行政相對人陳述、申辯以及說明理由等程序性權(quán)利,實(shí)質(zhì)上免除了行政機(jī)關(guān)解釋說明的義務(wù),將相對人置于“孤立無援”的境地,在沒有補(bǔ)充程序或人工干預(yù)的情況下,相對人對于裁量結(jié)果只能接受或不接受。即時(shí)性同時(shí)意味著在相同時(shí)長內(nèi)做出的裁量行為將會更多,如發(fā)生大規(guī)模系統(tǒng)錯(cuò)誤,波及范圍會更廣,導(dǎo)致信息數(shù)據(jù)收集、處理的錯(cuò)誤風(fēng)險(xiǎn)擴(kuò)大化。由于先前的行政裁量活動(dòng)往往是后續(xù)行政行為的基礎(chǔ),前一階段自動(dòng)化行政錯(cuò)誤的存在將連帶后續(xù)過程發(fā)生錯(cuò)誤,對行政相對人的正當(dāng)權(quán)利造成延遲性破壞,極端不利于相對人的信賴?yán)姹Wo(hù)。加之自動(dòng)化行政裁量的糾錯(cuò)機(jī)制尚不明確,裁量行為做出后救濟(jì)渠道不暢、責(zé)任尚未厘清,行政活動(dòng)的程序正義會受到較大損害。
如前所述,生成式人工智能賦能行政裁量在算法、數(shù)據(jù)和結(jié)果三個(gè)維度上會給現(xiàn)有行政法秩序帶來隱患。厘定生成式人工智能賦能下的行政裁量在政府行政活動(dòng)中的地位和立場,是一切風(fēng)險(xiǎn)防范路徑選擇的思考起點(diǎn)。有學(xué)者對完全自動(dòng)化裁量持批判態(tài)度,認(rèn)為自動(dòng)化裁量只能定位于為行政機(jī)關(guān)提供決策或行動(dòng)方面的輔助,而非代替人類自行決斷。④查云飛:《行政裁量自動(dòng)化的學(xué)理基礎(chǔ)與功能定位》,《行政法學(xué)研究》2021年第3期,第114頁。亦有學(xué)者在接受算法獨(dú)立裁量可行性的基礎(chǔ)上認(rèn)為由于算法“仍無法將同理心、道德感、意志等人類獨(dú)有的特征進(jìn)行編碼轉(zhuǎn)換至算法決策中,因此,占據(jù)主體地位的只能是具有上述人類獨(dú)有特征的行政機(jī)關(guān)(行政主體)”⑤陳飏、裴亞楠:《論自動(dòng)化行政中算法決策應(yīng)用風(fēng)險(xiǎn)及其防范路徑》,《西南民族大學(xué)學(xué)報(bào)》(人文社會科學(xué)版)2021年第1期,第79頁。。由此可見,鮮明地確立“人”,即行政機(jī)關(guān)和行政相對人的主體地位,是包括生成式人工智能在內(nèi)的自動(dòng)化技術(shù)得以進(jìn)入行政法空間的通道,這也意味著被以行政法角度觀察的技術(shù)只能具有工具屬性,居于從屬地位。明確這一立場,才能確立人對生成式人工智能賦能下的行政裁量后果具有接管、變更、補(bǔ)救的權(quán)限,從而對具體風(fēng)險(xiǎn)進(jìn)行拆解與補(bǔ)漏。
提高算法透明度和公開度是消解“算法黑箱”影響、保障公民知情權(quán)的最直接途徑?!肮_”包含兩個(gè)層面的含義:一是確保相對人知曉對其作出行政裁量的是生成式人工智能,同時(shí)保障其應(yīng)用選擇權(quán),二是提升算法透明度。前者要求行政機(jī)關(guān)在使用生成式人工智能進(jìn)行行政裁量時(shí)要明確告知相對人,并且保留相對人拒絕使用的權(quán)利和進(jìn)行人工裁量的通道。只有相對人在明確同意使用生成式人工智能進(jìn)行裁量的情況下,方可進(jìn)行全自動(dòng)行政裁量?!跋鄬θ嗣髦彝狻睉?yīng)當(dāng)作為全自動(dòng)化行政裁量的前提要件,這既是行政程序“參與”原則基本要求,更是以人為中心的“人工智能—行政裁量”關(guān)系基本立場的題中應(yīng)有之義。出于對裁量系統(tǒng)安全、商業(yè)秘密保護(hù)與民眾可接受度的考量,若要提升算法的透明度不應(yīng)當(dāng)簡單地披露運(yùn)行代碼與運(yùn)算過程,而是提升其可解釋性。對于提高可解釋性,學(xué)界普遍認(rèn)為許可機(jī)關(guān)應(yīng)在允許范圍內(nèi),以適當(dāng)方式公示自動(dòng)化許可算法的基本原理、目的意圖和主要運(yùn)行機(jī)制,解釋自動(dòng)化算法的目的、邏輯、公式、考量因素及比重、被代碼化的法律和數(shù)據(jù)等。①唐曼:《自動(dòng)化行政許可審查的法律控制》,《現(xiàn)代法學(xué)》2022年第6期,第100頁。行政主體應(yīng)當(dāng)最大限度地就算法本身向公眾作出說明,最大限度幫助公眾了解算法運(yùn)作原理,確保公眾便捷獲取相關(guān)技術(shù)解釋。有學(xué)者另辟蹊徑,跳出算法解釋本身,從提升民眾認(rèn)可度的角度考量破解“算法黑箱”的路徑。②王賓:《自動(dòng)化行政中算法的法律控制》,《財(cái)經(jīng)法學(xué)》2023第1期,第72頁。醫(yī)藥衛(wèi)生領(lǐng)域知識的高度專業(yè)性令民眾難以得知疾病治療的原理和操作規(guī)程,具有“黑箱”性質(zhì),但仍普遍獲得民眾信任。受此啟發(fā),在算法上,還可以通過開發(fā)普遍認(rèn)可的專業(yè)考核和認(rèn)證機(jī)制等衡量技術(shù)水準(zhǔn)的證明形式,使得公眾即便無法獲知技術(shù)信息,也能對其建立信任,也能夠嚴(yán)格保護(hù)行政相對人利益,建立完備的救濟(jì)及損害歸責(zé)機(jī)制以及負(fù)擔(dān)風(fēng)險(xiǎn)的方式,在解釋算法本身之外,提高民眾信任度,雙管齊下,最大限度消弭“算法黑箱”的負(fù)面效應(yīng)。
對于算法運(yùn)行存在的歧視可能,要做好系統(tǒng)預(yù)審與事后救濟(jì)。在具體的行政許可、處罰等裁量應(yīng)用場景中,要明確系統(tǒng)上線前應(yīng)做好預(yù)先調(diào)試與審查。審查內(nèi)容既包括輸入端數(shù)據(jù)的非歧視性,又包含輸出結(jié)果的歧視可能性。對審查發(fā)現(xiàn)的歧視性輸入端數(shù)據(jù)要及時(shí)清理,對歧視性輸出結(jié)果要及時(shí)進(jìn)行干預(yù)訓(xùn)練,盡可能在系統(tǒng)投入使用前排除歧視可能。對系統(tǒng)在具體應(yīng)用場景中作出的歧視性裁量,要建立專門規(guī)定保障相對人權(quán)利的事后救濟(jì)渠道,如提供陳述申辯的行政、司法制度安排等。
生成式人工智能預(yù)訓(xùn)練需要大量數(shù)據(jù),行政裁量同樣需要獲取大量公民個(gè)人數(shù)據(jù),這將使得數(shù)據(jù)安全成為其賦能行政裁量的核心風(fēng)險(xiǎn)點(diǎn)。為最大限度避免與公民隱私權(quán)的沖突,在微觀上,數(shù)據(jù)的收集和使用要嚴(yán)格遵從比例原則;在具體應(yīng)用場景中,生成式人工智能使用的應(yīng)當(dāng)是用于涵攝的關(guān)鍵語句片段,如行為、裁量基準(zhǔn)、相關(guān)因素等,而非姓名、住址、身份證號碼等隱私性身份信息。因此,在輸入端要做好信息的篩選與過濾,確保生成式人工智能運(yùn)算和存儲的數(shù)據(jù)不構(gòu)成識別性個(gè)人信息。在宏觀上,行政法律規(guī)范要對生成式人工智能賦能下的行政裁量數(shù)據(jù)安全保護(hù)作出特別回應(yīng),明確政府監(jiān)管、企業(yè)落實(shí)、個(gè)人守法的三方數(shù)據(jù)安全責(zé)任,完善數(shù)據(jù)泄露的責(zé)任追究及問責(zé)機(jī)制,如明確生成式人工智能行政裁量系統(tǒng)數(shù)據(jù)庫信息泄露的黨紀(jì)政紀(jì)責(zé)任,技術(shù)承包商及個(gè)人的民事、刑事責(zé)任等。暢通隱私權(quán)救濟(jì)的行政、司法救濟(jì)途徑,確保數(shù)據(jù)存儲安全有保障、泄露風(fēng)險(xiǎn)可控制、損害后果可救濟(jì)。
一般來看,生成式人工智能作出的裁量結(jié)果生成即生效,但將大大限制相對人的陳述、申辯及救濟(jì)權(quán)利。保障相對人的程序性權(quán)利,就要增大裁量結(jié)果生成與生效之間的回旋余地。因此,將通知與申辯環(huán)節(jié)作為結(jié)果生效的必經(jīng)環(huán)節(jié)甚為必要。裁量結(jié)果作出后,應(yīng)及時(shí)通知行政相對人,并告知其救濟(jì)途徑,必要時(shí)應(yīng)設(shè)置專門的聽證程序,以保證行政相對人能夠充分表達(dá)自己的合理訴求。為保證權(quán)威性和有效性,申辯與救濟(jì)程序應(yīng)由人工完成,并且保有變更裁量結(jié)果的最高權(quán)限,司法的終局性介入空間也應(yīng)當(dāng)明確。值得注意的是,全自動(dòng)行政裁量不會主動(dòng)履行解釋說明義務(wù),而是由相對人在尋求申辯或救濟(jì)時(shí)依申請作出,即當(dāng)行政相對人對由機(jī)器作出的處罰決定不信任時(shí),行政機(jī)關(guān)要向行政相對人進(jìn)行解釋說明,并保證個(gè)案公正。①馬顏昕:《自動(dòng)化行政方式下的行政處罰:挑戰(zhàn)與回應(yīng)》,《政治與法律》2020年第4期,第144頁。這既是全自動(dòng)行政裁量追求行政效率的價(jià)值目的所在,也是相對人在前置性選擇自動(dòng)化行政裁量時(shí)應(yīng)當(dāng)被明確告知和自愿接受的結(jié)果。為避免裁量即時(shí)性可能引發(fā)的錯(cuò)誤導(dǎo)致更嚴(yán)重的后果,要有針對性地建立大數(shù)據(jù)監(jiān)測預(yù)警機(jī)制,對同一時(shí)段超過安全閾值的投訴申辯作出及時(shí)反映,以便行政機(jī)關(guān)及時(shí)作出調(diào)整。同時(shí)行政機(jī)關(guān)扛起能動(dòng)性責(zé)任,不得過度依賴自動(dòng)化裁量,造成行政懈怠。
除程序性權(quán)利保障外,全自動(dòng)行政裁量結(jié)果的責(zé)任承擔(dān)機(jī)制尚不健全。為保障行政相對人的合法權(quán)益,應(yīng)當(dāng)明確行政機(jī)關(guān)的第一責(zé)任人責(zé)任。對于行政裁量相對人來說,其不應(yīng)關(guān)心到底哪些主體介入了裁量過程,只需要明確裁量結(jié)果歸因于行政機(jī)關(guān),裁量產(chǎn)生的一切法律后果只作用于行政機(jī)關(guān)和行政相對人。至于處罰(裁量)錯(cuò)誤到底歸因于行政機(jī)關(guān)還是外部技術(shù)主體、行政機(jī)關(guān)如果承擔(dān)了責(zé)任是否可以向技術(shù)主體追責(zé)的問題,其實(shí)并不屬于行政處罰(裁量)關(guān)系中需要解決的問題。這一問題涉及的是技術(shù)主體與行政主體之間的技術(shù)法律服務(wù),技術(shù)主體與行政主體之間有一種行政協(xié)議關(guān)系。②馬顏昕:《自動(dòng)化行政方式下的行政處罰:挑戰(zhàn)與回應(yīng)》,《政治與法律》2020年第4期,第147頁。此種責(zé)任分擔(dān)機(jī)制可以歸納為“政府對外承擔(dān)責(zé)任、對內(nèi)分配責(zé)任”。
國務(wù)院《新一代人工智能發(fā)展規(guī)劃》指出,要圍繞行政管理等熱點(diǎn)難點(diǎn)問題,促進(jìn)人工智能技術(shù)應(yīng)用的發(fā)展,推動(dòng)社會治理現(xiàn)代化。人工智能賦能政務(wù)服務(wù)等社會治理場景將有利于提高行政效能、助力依法行政、推動(dòng)效率與公平的兼顧統(tǒng)一。與人工智能在行政活動(dòng)中只能發(fā)揮輔助性作用的主流觀點(diǎn)不同,本文認(rèn)為,以ChatGPT 為代表的生成式人工智能將在行政許可、行政處罰等核心裁量場景中發(fā)揮基石性作用,其大型預(yù)訓(xùn)練語言模型與法律規(guī)范、裁量基準(zhǔn)以及裁量個(gè)案發(fā)生的語句結(jié)合將為真正實(shí)現(xiàn)有裁量能力的全自動(dòng)行政提供技術(shù)可能。然而,與其他人工智能技術(shù)類似,生成式人工智能對具體行政行為場景的介入將在算法、數(shù)據(jù)、結(jié)果上對現(xiàn)有法律秩序造成沖擊,對公民基本權(quán)利造成損害。應(yīng)當(dāng)在堅(jiān)定重申人工智能的工具屬性立場、明確行政機(jī)關(guān)與相對人的主體地位的基礎(chǔ)之上,提升算法的透明度,嚴(yán)格進(jìn)行系統(tǒng)預(yù)審,從而避免裁量的歧視性后果;嚴(yán)格限制公民數(shù)據(jù)采集與使用范圍,聚集政府、企業(yè)、公民三方合力保證數(shù)據(jù)安全;明確裁量結(jié)果的救濟(jì)途徑和責(zé)任分擔(dān),保障公民的程序性權(quán)利,避免行政主體陷入技術(shù)發(fā)展導(dǎo)致的技術(shù)依賴和行政惰怠,最終實(shí)現(xiàn)技術(shù)與效率、公平與正義的良性互動(dòng)。