国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自動化行政中算法的法律控制

2023-04-06 04:57:50
財經(jīng)法學 2023年1期
關(guān)鍵詞:合法性機關(guān)行政

王 賓

內(nèi)容提要:自動化行政中的算法可分為轉(zhuǎn)譯型算法和自我學習型算法。算法的運用面臨合法性危機:處于私主體地位的算法設(shè)計師將法律語言轉(zhuǎn)譯成機器語言時會嵌入自身的判斷,帶來改寫法律的風險;算法決策有時在事實上超出法律授權(quán)范圍,且缺乏暢通的救濟機制。算法的合法性控制方式應(yīng)與算法類型適配。針對轉(zhuǎn)譯型算法,需結(jié)合算法的性質(zhì)以及技術(shù)特點,從轉(zhuǎn)譯主體、所譯法律的明確性、轉(zhuǎn)譯過程的透明度等方面施以控制。針對自我學習型算法,首先應(yīng)當確立“民主—科學”的合法性框架,其次應(yīng)當從建立算法信任的角度,圍繞保障公眾主體地位和算法科學性對算法進行控制。

一、引 言

隨著人工智能技術(shù)的迅猛發(fā)展,數(shù)字技術(shù)越來越多地被嵌入公共行政領(lǐng)域,數(shù)字法治政府建設(shè)已上升為一項國家戰(zhàn)略。中共中央、國務(wù)院印發(fā)的《法治政府建設(shè)實施綱要(2021—2025年)》提出健全法治政府建設(shè)科技保障,全面建設(shè)數(shù)字法治政府,堅持運用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段促進依法行政,著力實現(xiàn)政府治理信息化與法治化深度融合,優(yōu)化革新政府治理流程和方式,大力提升法治政府建設(shè)數(shù)字化水平?!秶鴦?wù)院關(guān)于加強數(shù)字政府建設(shè)的指導(dǎo)意見》提出“將數(shù)字技術(shù)廣泛應(yīng)用于政府管理服務(wù),推進政府治理流程優(yōu)化、模式創(chuàng)新和履職能力提升,構(gòu)建數(shù)字化、智能化的政府運行新形態(tài)”。數(shù)字法治政府建設(shè)的潮流不可逆轉(zhuǎn),其中需要關(guān)注的重點問題之一是如何保證“數(shù)字”與“法治”共生。由于技術(shù)水平的迭代發(fā)展,政府開展行政活動所借助的數(shù)字技術(shù)已經(jīng)超出了亞里士多德所想象的“按照人的意志或命令自動工作的無生命工具”(1)〔古希臘〕亞里士多德:《政治學》,吳壽彭譯,商務(wù)印書館1983年版,第11-12頁。的范疇。機器學習通過算法,讓機器可以從外界輸入的大量數(shù)據(jù)中學習到規(guī)律,從而進行識別判斷。(2)參見郭麗麗、丁世飛:《深度學習研究進展》,載《計算機科學》2015年第5期。機器學習算法都有一定程度的自主性,它們通常無法為證明行政決策合理性的這類因果陳述提供任何依據(jù)(例如“因為X導(dǎo)致Y,所以X是正當?shù)摹?。(3)參見〔美〕卡里·科利亞尼斯:《自動化國家的行政法》,蘇苗罕、王夢菲譯,載《法治社會》2022年第1期。當行政機關(guān)使用機器學習系統(tǒng)作出行政決策時,很難保證該決策體現(xiàn)的是特定人的意志。

有觀點認為,行政國家的自動化程度越高,就越有可能減損行政國家存在的正當性,理由有二:一方面,自動化系統(tǒng)的復(fù)雜性使得利用其執(zhí)行任務(wù)的行政機關(guān)工作人員并不了解系統(tǒng)的運行原理,更無法在法庭上給出任何解釋說明;另一方面,行政規(guī)則以機器語言的形式被嵌入自動化系統(tǒng)之后,行政機關(guān)再也無法像過去一樣通過行使裁量權(quán)來回應(yīng)變動不居的實際情況。(4)See Ryan Calo & Danielle K.Citron, The Automated Administrative State: A Crisis of Legitimacy,70 Emory Law Journal 797,804(2021).在高度自動化行政的背景下,行政機關(guān)同時放棄了專業(yè)知識和裁量權(quán)。行政機關(guān)對專業(yè)知識和裁量權(quán)的放棄,意味著其將行政權(quán)力讓渡給了自動化系統(tǒng)。而自動化決策的正當性、合理性、合法性是數(shù)字法治政府建設(shè)中應(yīng)當認真對待的重要基礎(chǔ)和法治前提。(5)參見馬長山:《數(shù)字法治政府的機制再造》,載《政治與法律》2022年第11期。有學者對無人工介入的自動化行政提出合法性疑問:由第三方主體設(shè)計的機器和程序過程取代行政機關(guān)一方的意思表示是否具有權(quán)力主體上的合法性,用以作出行政決定的算法是否如實復(fù)刻了實體法中的內(nèi)容。(6)參見展鵬賀:《數(shù)字化行政方式的權(quán)力正當性檢視》,載《中國法學》2021年第3期。對此,有觀點認為,在自動化行政中,算法設(shè)計師在轉(zhuǎn)譯法律語言時,可能會扭曲法律法規(guī)的內(nèi)容,導(dǎo)致法律規(guī)則的異化執(zhí)行或適用,不符合形式合法性的要求,而且,由于自動化行政中存在技術(shù)壁壘,公眾的知情權(quán)、異議權(quán)和建議權(quán)難以實現(xiàn),行政過程缺乏民主正當性。(7)參見王懷勇、鄧若翰:《算法行政:現(xiàn)實挑戰(zhàn)與法律應(yīng)對》,載《行政法學研究》2022年第4期。

在傳統(tǒng)行政法中,行政機關(guān)的權(quán)力來源于立法授權(quán),立法機關(guān)被設(shè)定為代表民意的政治機構(gòu),負責民意的匯集和表達,制定法律并承擔政治上的責任,行政機關(guān)負責法律的執(zhí)行。行政機關(guān)只要嚴格依法行政,便可以借助政治權(quán)威(立法機關(guān))的正當性而獲得“合法化”。(8)參見王錫鋅:《行政正當性需求的回歸——中國新行政法概念的提出、邏輯與制度框架》,載《清華法學》2009年第2期。在自動化行政中,自動化系統(tǒng)運行算法的過程相當于執(zhí)行法律的過程,面對自動化執(zhí)法合法性不足的問題,該如何對算法施以法律控制?這是本文重點回答的問題。首先,文章結(jié)合算法的工作原理對實踐中的自動化行政樣態(tài)和算法類型進行分類;其次,在類型化的基礎(chǔ)上具體分析可能面臨的合法性問題;最后,針對不同類型的算法,提出合法性控制手段。

二、自動化行政中的算法及其應(yīng)用分類

(一)自動化行政中的算法工作原理

“自動化行政”是一個描述性用語,指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能代為處理,而無需人工的個別介入,從而實現(xiàn)部分或全部無人化的行政活動。(9)參見馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學研究》2019年第1期。學界也用“算法行政”(10)參見虞青松:《算法行政:社會信用體系治理范式及其法治化》,載《法學論壇》2020年第2期。“數(shù)字化行政”(11)參見前引〔6〕,展鵬賀文?!叭斯ぶ悄芩惴Q策”(12)參見張恩典:《人工智能算法決策對行政法治的挑戰(zhàn)及制度因應(yīng)》,載《行政法學研究》2020年第4期。等名稱來描述這一現(xiàn)象。自動化行政中的技術(shù)載體是計算機,而計算機的工作過程就是執(zhí)行程序,該程序是由程序開發(fā)人員使用某種程序設(shè)計語言編寫的,以代碼形式表示的,能夠為計算機識別并予以執(zhí)行的指令集合,程序的核心是算法。(13)參見劉東亮:《技術(shù)性正當程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020年第5期。程序與算法實際上具有相同含義,計算機執(zhí)行程序本質(zhì)上就是執(zhí)行算法。有學者指出,算法是一套求解邏輯,在計算科學領(lǐng)域,其表現(xiàn)為由代碼連結(jié)且結(jié)構(gòu)化的一系列問題和求解數(shù)學模型的集合,單一代碼向計算機傳達的是簡單的做或不做的指令,若干單一代碼有機連結(jié)后構(gòu)成解決具體問題的復(fù)雜算法。(14)參見邱澤奇:《算法治理的技術(shù)迷思與行動選擇》,載《人民論壇·學術(shù)前沿》2022年第10期。將算法視作求解邏輯是最廣義的定義,可以涵蓋所有決策程序和步驟,而將其限定于計算科學的定義,是狹義的算法定義。也有學者采用中義的算法定義,將算法界定為人類和機器交互的決策,即人類通過代碼設(shè)置、數(shù)據(jù)運算與機器自動化判斷進行決策的一套機制。(15)參見丁曉東:《論算法的法律規(guī)制》,載《中國社會科學》2020年第12期。本文采取中義的算法定義。

從技術(shù)層面來講,有兩種構(gòu)建算法規(guī)則的模式:一是專家系統(tǒng)模式,二是機器學習模式。專家系統(tǒng)是利用人類預(yù)先設(shè)定的專家知識數(shù)據(jù)庫來解決相應(yīng)的問題。其發(fā)展的近期目標是建造能用于代替人類高級腦力勞動的專家系統(tǒng)。(16)參見張煜東等:《專家系統(tǒng)發(fā)展綜述》,載《計算機工程與應(yīng)用》2010年第19期。以構(gòu)建認定故意傷害罪的算法為例,專家系統(tǒng)構(gòu)建路徑首先需要法律專家確認構(gòu)建知識圖譜的犯罪構(gòu)成理論(犯罪三階層、四階層抑或其他理論),然后在確定的大框架下,根據(jù)故意傷害罪的法律特征,精細化拆分犯罪構(gòu)成要素,定義基本的法律模式圖。定義好數(shù)據(jù)模式之后,再從大量真實的法律數(shù)據(jù)中抽取相關(guān)知識點以及知識點之間的邏輯關(guān)系,將這些實體信息相應(yīng)掛接在要件要素上,從而形成具有高度邏輯的知識組織形式。(17)參見葉衍艷:《法律知識圖譜的概念與建構(gòu)》,載華宇元典法律人工智能研究院編:《讓法律人讀懂人工智能》,法律出版社2019年版,第25頁。專家系統(tǒng)具有可理解性,即在執(zhí)行過程中,系統(tǒng)能解釋推理步驟,使之易于理解,其解釋的方式應(yīng)與專家解釋他們推理的方式一樣。(18)參見〔美〕吉奧克等:《專家系統(tǒng)原理與編程》,印鑒等譯,機械工業(yè)出版社2006年版,第7頁。

機器學習是通過接收外界信息(包括觀察樣例、外來監(jiān)督、交互反饋等)獲得一系列知識、規(guī)則、方法和技能的過程。這一過程對人類和其他生物而言稱為“生物學習”,對計算機而言稱為“機器學習”。(19)參見王東:《機器學習導(dǎo)論》,清華大學出版社2021年版,第2頁。簡單來說,機器學習是在樣本數(shù)據(jù)的基礎(chǔ)上找出一個公式或者多個公式的組合模型來解決特定的問題。(20)參見鄒劭坤:《機器學習的“黑盒”是什么?》,載華宇元典法律人工智能研究院編:《讓法律人讀懂人工智能》,法律出版社2019年版,第37頁。中間尋找模型(確定算法)的過程是不可知的、難以解釋的。在專家系統(tǒng)模式下,自動化系統(tǒng)的算法是由算法設(shè)計師確定的;而在機器學習模式下,算法是由算法設(shè)計師和機器共同確定的,設(shè)計師為機器制定“學習規(guī)則”,機器在“學習規(guī)則”的指示下,通過對海量數(shù)據(jù)的學習確定算法。

(二)自動化行政中的算法應(yīng)用分類

既有研究對自動化行政進行了不同的類型化處理。有學者將特定行政活動區(qū)分為識別與輸入、分析與決定、輸出與實現(xiàn)三個環(huán)節(jié),根據(jù)自動化系統(tǒng)發(fā)揮作用的環(huán)節(jié)不同,將自動化行政分為0~4級,分別為無自動化行政、自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政。(21)參見前引〔9〕,馬顏昕文。自動化輔助行政和部分自動化行政中,分析與決定的權(quán)力仍掌握在人類手中;而在完全自動化行政中,行政活動不再需要人類介入。也有學者從是否排除人工介入的角度,將自動化行政分為需要人工介入的半自動行政行為和不需要人工介入的全自動行政行為。(22)參見查云飛:《人工智能時代全自動具體行政行為研究》,載《比較法研究》2018年第5期。

還有學者將行政過程中是否有人工干預(yù)和自動化對最終決定的實際影響結(jié)合起來,將自動化行政分為三類:(1)數(shù)字化程序?qū)嵤?,但實體決定仍為人工作出;(2)“程序?qū)嵤?實體決定”的完全數(shù)字化,但實體決定非以人工智能的方式作出;(3)“程序?qū)嵤?實體決定”的完全數(shù)字化,且實體決定由人工智能作出。(23)參見前引〔6〕,展鵬賀文?!胺且匀斯ぶ悄艿姆绞阶鞒觥笔侵缸詣踊到y(tǒng)中的算法是專家系統(tǒng)模式下預(yù)先設(shè)定好的規(guī)則,系統(tǒng)并不進行自主學習。在此語境下,人工智能僅包括能夠進行機器學習的自動化系統(tǒng)。

這種兼顧行政活動的實現(xiàn)方式和技術(shù)影響力的分類方式,于本文研究而言,更具有相關(guān)意義,但其在表述上不當限縮了“人工智能”概念的范圍,因此應(yīng)該稍作修正。按照其分類依據(jù),自動化行政可以分為:(1)自動化程序?qū)嵤?,但實體決定仍為人工作出;(2)“程序?qū)嵤?實體決定”的完全自動化,但實體決定是人為設(shè)定算法的表達;(3)“程序?qū)嵤?實體決定”的完全自動化,但實體決定是機器學習后算法的表達。以下將該三類自動化行政分別簡稱為自動化行政Ⅰ、自動化行政Ⅱ、自動化行政Ⅲ。

在自動化行政Ⅰ中,自動化系統(tǒng)輸出的結(jié)果對實體決定發(fā)揮作用的方式有兩種:一是為實體決定的作出提供參考,例如南京市環(huán)保行政處罰自由裁量輔助決策系統(tǒng)。(24)參見《規(guī)范執(zhí)法流程 提升執(zhí)法精準性 南京輔助決策系統(tǒng)實現(xiàn)全覆蓋》,載https://www.mee.gov.cn/home/ztbd/qt/szhb/201507/t20150713_306216.shtml,最后訪問時間:2022年11月3日。二是作為實體決定作出的依據(jù)。例如,根據(jù)《道路交通安全法》第114條的規(guī)定,公安機關(guān)交通管理部門根據(jù)交通技術(shù)監(jiān)控記錄資料,可以對有關(guān)人員依法予以處罰。依據(jù)授權(quán)法律的規(guī)定,電子警察系統(tǒng)的作用是收集、固定違法事實,為最終處罰決定的作出提供證據(jù)。有觀點認為,在我國智慧交通體系的建設(shè)中,算法可以直接對監(jiān)控查獲的交通違法行為處以罰款,這意味著在此領(lǐng)域,算法已經(jīng)可以直接作為決策者作出具體行政行為。(25)參見張凌寒:《算法權(quán)力的興起、異化及法律規(guī)制》,載《法商研究》2019年第4期。本文在第三部分將對這一觀點展開論證。

自動化行政Ⅱ的典型范例是深圳市用于高校應(yīng)屆畢業(yè)生引進和落戶的“無人干預(yù)自動審批”系統(tǒng)。審批系統(tǒng)按照既定的規(guī)則自動進行數(shù)據(jù)比對,全程自動辦理,無人工干預(yù)。(26)參見《推動無人干預(yù)自動審批(秒批)改革(深圳做法)》,載https://www.gd.gov.cn/gdywdt/zwzt/szhzy/jytg/content/post_2906394.html,最后訪問時間:2022年11月3日。除此之外,疫情防控中所廣泛應(yīng)用的健康碼也屬于此類自動化行政的范圍,健康碼經(jīng)由機器自動化決策生成,行政機關(guān)先將評判標準程式化,然后相對人在線提交信息并申請,最終由系統(tǒng)自動分配不同顏色標識的二維碼。(27)參見查云飛:《健康碼:個人疫情風險的自動化評級與利用》,載《浙江學刊》2020年第3期。

自動化行政Ⅲ的實踐樣本尚未在我國出現(xiàn)。該自動化行政方式意味著系統(tǒng)將在不預(yù)設(shè)“裁量規(guī)則”的前提下代替人類作出裁量性具體行政行為。德國《行政程序法》第35a條將具有不確定法律概念和裁量的行政行為排除于全自動程序的適用范圍之外,即只允許羈束具體行政行為適用全自動化程序。(28)參見前引〔22〕,查云飛文。德國立法例屬于自動化行政Ⅱ的范圍,即人工為系統(tǒng)設(shè)定算法,系統(tǒng)執(zhí)行。美國勞工統(tǒng)計局使用監(jiān)督學習系統(tǒng)代替工作人員對收集到的大量關(guān)于就業(yè)、人力成本等專題信息進行編碼。(29)將自然語言轉(zhuǎn)換為統(tǒng)計數(shù)據(jù)是編碼的過程,例如為了回答“門衛(wèi)人員在工作中最常見的傷害原因是什么”這一問題,工作人員需要閱讀每一份描述,以編碼的方式將對方的職業(yè)與造成傷害的因素關(guān)聯(lián)起來。現(xiàn)在機器學習系統(tǒng)代替勞工局工作人員完成這項任務(wù)。參見《采訪Alex Measure:機器學習應(yīng)用于政府業(yè)務(wù)場景》,載https://m.elecfans.com/article/1281070.html,最后訪問時間:2022年11月4日。盡管在該應(yīng)用場景中,自動化系統(tǒng)并未直接對公民作出決定,但其的確已經(jīng)獨立完成本應(yīng)由人類完成的編碼工作,該工作將會影響勞工統(tǒng)計局相關(guān)的政策制定。

三、算法支配的自動化行政的合法性危機

傳統(tǒng)行政法通過依法行政原則建立起用于擔保行政機關(guān)合法行使行政權(quán)的框架性法律制度,依法行政原理的邏輯基點是由人民代表大會及其常務(wù)委員會制定的法律為行政機關(guān)提供行政權(quán)的依據(jù),行政機關(guān)必須在法律規(guī)定的范圍內(nèi)行使行政權(quán)。(30)參見章劍生:《現(xiàn)代行政法總論》(第2版),法律出版社2019年版,第36頁。在行政法的傳統(tǒng)模式之下,行政機關(guān)被設(shè)想為一個純粹的傳送帶,職責是在特定案件中執(zhí)行立法指令;行政機關(guān)的行為受制于司法審查以符合立法指令。(31)參見〔美〕理查德·B.斯圖爾特:《美國行政法的重構(gòu)》,沈巋譯,商務(wù)印書館2011年版,第11-12頁。當行政機關(guān)以自動化的方式執(zhí)行法律時,其同樣需符合依法行政原則的要求,接受合法性檢驗。本部分將從自動化系統(tǒng)中算法自身的合法性和算法決策的合法性兩方面,展開合法性問題的討論。

(一)算法自身的合法性

自動化行政中算法的生成方式大致可以分為人為設(shè)定和機器自我學習生成兩種。前者主要依靠算法設(shè)計師將法律語言轉(zhuǎn)譯成機器語言,可以稱為“轉(zhuǎn)譯型算法”;后者是以算法設(shè)計師設(shè)計的學習規(guī)則為基礎(chǔ),通過對海量數(shù)據(jù)的學習生成的新算法,可以稱為“自我學習型算法”。自動化行政Ⅱ中涉及的算法是轉(zhuǎn)譯型算法,自動化行政Ⅲ中涉及的算法是自我學習型算法;而自動化行政Ⅰ中的算法類型取決于系統(tǒng)的技術(shù)應(yīng)用。

轉(zhuǎn)譯型算法的設(shè)計者通常是行政機關(guān)和私營部門中的算法設(shè)計師,轉(zhuǎn)譯型算法制定的過程實質(zhì)是把行政規(guī)范、行政過程以及自由裁量轉(zhuǎn)化成計算邏輯和代碼的自動執(zhí)行,這一過程無疑會嵌入主觀判斷、利益選擇和價值觀設(shè)定。(32)參見前引〔5〕,馬長山文。例如,在設(shè)計識別車牌遮擋行為的交通監(jiān)控系統(tǒng)的過程中,當存在多種識別車牌遮擋行為的技術(shù)時,如基于車牌結(jié)構(gòu)特征的檢測技術(shù)、基于顏色特征的檢測技術(shù)、基于機器學習的檢測技術(shù)(33)參見聶文真:《出租汽車車牌遮擋行為判定與圖像取證技術(shù)研究》,北京工業(yè)大學2019年碩士學位論文,第26-27頁。等,算法設(shè)計師應(yīng)該選擇何種檢測技術(shù)實現(xiàn)監(jiān)控系統(tǒng)的運行目標?不同檢測技術(shù)的準確率和實現(xiàn)成本不同,受私益驅(qū)動的算法設(shè)計者可能會和代表公共利益的行政機關(guān)作出不同的選擇。此時,引發(fā)的第一個合法性問題是,不具有行政主體資格的算法設(shè)計師轉(zhuǎn)譯法律規(guī)范、主導(dǎo)自動化行政過程的合法性基礎(chǔ)為何。這一問題對自我學習型算法而言更加尖銳。盡管轉(zhuǎn)譯型算法的設(shè)計者包括除行政機關(guān)以外的第三方主體,但仍是特定個人決定了算法的表達,算法仍處于人類的控制之下。自我學習型算法,以“學習規(guī)則”為基礎(chǔ),利用海量和非結(jié)構(gòu)化的數(shù)據(jù)來確定解決既定問題的最優(yōu)算法。除此之外,系統(tǒng)還可以根據(jù)外界環(huán)境的反饋持續(xù)更新算法,結(jié)果輸出具有不確定性。自我學習型算法的表達已經(jīng)超出了行政機關(guān)和設(shè)計者的嚴密控制,法律的實施具有更大的不確定性和不可解釋性。

算法生成過程存在改寫法律的風險。傳統(tǒng)法律在制定時存在必要的模糊性,也未考慮到自動化的要求,而自動化系統(tǒng)中運行的算法需要極高的精確度和嚴格度,這導(dǎo)致人類語言與機器語言的轉(zhuǎn)譯過程充滿了不確定性。(34)參見〔美〕麗莎·A.謝伊、伍德羅·哈特佐格等:《機器人歡迎電子法嗎?一個法律內(nèi)部的算法實驗》,載〔美〕瑞恩·卡洛、邁克爾·弗魯姆金、〔加〕伊恩·克爾主編:《人工智能與法律的對話》,陳吉棟、董惠敏、杭穎穎譯,上海人民出版社2018年版,第278頁。麗莎·A.謝伊和伍德羅·哈特佐格等學者在《機器人歡迎電子法嗎?一個法律內(nèi)部的算法實驗》(35)參見前引〔34〕,麗莎·A.謝伊、伍德羅·哈特佐格等文。一文中構(gòu)建并實施了一個由52位電腦程序員參與的、將特定交通法規(guī)以代碼方式實現(xiàn)的實驗。程序員被分為三組,第一組被要求實現(xiàn)“法律條文”,第二組被要求實現(xiàn)“法律意圖”,第三組得到了一份附加的、精心編寫的說明書,以此作為其軟件實現(xiàn)的基礎(chǔ)。無論是參考不同文本的不同組的程序員,還是參考同樣文本的同組程序員,其最終設(shè)計出的程序都存在較多差異。該實驗的結(jié)論之一是程序員自身的假設(shè)和偏差會體現(xiàn)在代碼之中,雖然該問題可以通過構(gòu)建良好的軟件設(shè)計說明書來化解,但是對所有可能出現(xiàn)的問題進行預(yù)測的完美說明書極難設(shè)計。實踐中,美國科羅拉多州福利管理系統(tǒng)(The Colorado Benefits Management System,CBMS)是確定申請人是否能夠獲得公共援助資格的自動化系統(tǒng),該系統(tǒng)自2004年9月應(yīng)用以來,作出了成千上萬錯誤的福利認定,許多錯誤都可以歸因于算法設(shè)計者在將法律轉(zhuǎn)譯為代碼的過程中出現(xiàn)偏差,扭曲了聯(lián)邦和州政策。(36)See Danielle Keats Citron,Technology Due Process,85(6) Washington University Law Review 1249(2007).轉(zhuǎn)譯型算法或可通過對轉(zhuǎn)譯主體、轉(zhuǎn)譯程序等施加嚴格法律要求的方式來保障其準確性,補強合法性。但自我學習型算法的計算邏輯大多是從訓(xùn)練數(shù)據(jù)中得來的,很少反映在源代碼中,(37)See Kartik Hosanagar & Vivian Jair, We Need Transparency in Algorithms, but Too Much Can Backfire, Harvard Business Review(July 23, 2018), available at https://hbr.org/2018/07/we-need-transparency-in-algorithms-but-too-much-can-backfire,last visited on Dec.26,2022.因此,難以通過控制源代碼的方式證成其適用的合法性。

(二)算法決策的合法性

1.算法決策超出法律的授權(quán)范圍

自動化行政Ⅰ中的系統(tǒng)可分為兩類,一是為人工決定提供參考意見的自動化輔助系統(tǒng),二是為人工決定提供證據(jù)的自動化系統(tǒng),后者對實體決定的影響甚于前者。在自動化輔助系統(tǒng)應(yīng)用的場景中,作出實體決定的權(quán)力掌握在執(zhí)法人員手中,即使執(zhí)法人員事實上高度依賴系統(tǒng)提供的建議,也不能將決策過程稱為“算法決策”,因為依賴系統(tǒng)是人的主動選擇。在第二類自動化系統(tǒng)的應(yīng)用場景中,盡管從形式上來看是由執(zhí)法人員根據(jù)系統(tǒng)提供的證據(jù)作出決定,但實質(zhì)上系統(tǒng)在固定證據(jù)的同時就完成了對違法行為的認定,剝奪了屬于人的裁量空間,也超出了法律的授權(quán)范圍。

以電子警察系統(tǒng)為例,依據(jù)授權(quán)法律的規(guī)定,系統(tǒng)要實現(xiàn)的目標是收集、固定違法事實,為最終處罰決定的作出提供證據(jù)。結(jié)合《道路交通安全違法行為處理程序規(guī)定》(以下簡稱《程序規(guī)定》)的要求,自動化行政處罰流程可歸納為以下五步:第一,交通技術(shù)監(jiān)控設(shè)備收集違法事實;第二,經(jīng)人工審核無誤后錄入系統(tǒng)作為證據(jù);第三,通知相對人違法信息;第四,告知相對人處罰事實、理由、依據(jù)及權(quán)利;第五,實施處罰并送達決定書。(38)參見謝明睿、余凌云:《技術(shù)賦能交警非現(xiàn)場執(zhí)法對行政程序的挑戰(zhàn)及完善》,載《法學雜志》2021年第3期。前兩個步驟屬于案件事實的認定過程,由系統(tǒng)和人類共同完成,系統(tǒng)用來收集、固定違法行為證據(jù)。需要注意的是,系統(tǒng)對行為的記錄并上傳過程意味著其已經(jīng)完成了對違法行為的第一次認定,人工審核是一個復(fù)核的過程。在認定案件事實的過程中,系統(tǒng)認定的案件事實需要經(jīng)人工審核無誤后方可成為行政處罰決定的證據(jù)。結(jié)合《程序規(guī)定》第18條和第19條(39)《道路交通安全違法行為處理程序規(guī)定》第18條規(guī)定:“作為處理依據(jù)的交通技術(shù)監(jiān)控設(shè)備收集的違法行為記錄資料,應(yīng)當清晰、準確地反映機動車類型、號牌、外觀等特征以及違法時間、地點、事實?!钡?9條規(guī)定:“交通技術(shù)監(jiān)控設(shè)備收集違法行為記錄資料后五日內(nèi),違法行為發(fā)生地公安機關(guān)交通管理部門應(yīng)當對記錄內(nèi)容進行審核,經(jīng)審核無誤后錄入道路交通違法信息管理系統(tǒng),作為處罰違法行為的證據(jù)?!钡囊?guī)定,人工審核的內(nèi)容應(yīng)當是違法行為記錄資料是否清晰、準確地反映機動車類型、號牌、外觀等特征以及違法時間、地點、事實;對于系統(tǒng)認定違法行為的標準(即預(yù)先設(shè)定的算法)是全盤接受的。因此,在案件事實認定階段,系統(tǒng)與執(zhí)法人員共同認定違法行為,前者通過算法實質(zhì)決定了違法行為的認定標準,后者僅能從證據(jù)形式是否完備的角度否定不符合形式標準的違法行為。從執(zhí)法實踐來看,交警在大多數(shù)情況下僅依靠交通技術(shù)監(jiān)控設(shè)備或執(zhí)法設(shè)備所記錄的圖片或視頻就實施處罰。(40)參見前引〔38〕,謝明睿、余凌云文。雖然形式上執(zhí)法人員對處罰決定的作出保有審核的權(quán)力,但事實上系統(tǒng)已經(jīng)成為真正的處罰決定實施者。由此觀之,電子警察系統(tǒng)在應(yīng)用過程中,已經(jīng)超出了法律的授權(quán)。

2.算法決策的救濟渠道不暢

自動化行政Ⅱ和Ⅲ是無人工干預(yù)下的算法決策,而完全自動化系統(tǒng)在設(shè)計時可能缺乏糾錯機制。以北京健康寶“彈窗3”為例,“彈窗3”產(chǎn)生的原理是系統(tǒng)認定特定個人與京內(nèi)外風險地區(qū)、點位、人員等有時空關(guān)聯(lián),需要進行風險排查。但是健康寶的決策系統(tǒng)并未給個人提供直接的救濟途徑,使個人能夠通過提供不存在時空關(guān)聯(lián)證據(jù)的形式自行解除彈窗。被彈窗的公民只能通過人工申訴的方式解除彈窗,(41)參見《收到北京健康寶彈窗3怎么辦?怎樣處理高效便捷,方法來了!》,載http://beijing.qianlong.com/2022/0919/7635814.shtml,最后訪問時間:2022年11月22日。而人工申訴解決往往耗時良久,彈窗狀態(tài)又嚴重影響公民的正常生活,被彈窗公民的救濟渠道并不順暢。

除此之外,公民事實上難以挑戰(zhàn)算法決策的準確性。原因有二:一是公民的專業(yè)知識很難與算法所代表的行政機關(guān)的專業(yè)認定相對抗;二是公民得知被“錯誤”決策的時間通常晚于決策作出的時間,其難以收集并保留行為發(fā)生時的證據(jù)以自證清白。例如,在何凱與上海市公安局黃浦分局交通警察支隊行政二審案件(42)參見上海市高級人民法院(2019)滬行終204號行政判決書。中,何凱鳴喇叭的行為被電子警察記錄,交警對其作出行政處罰。何凱具有一定的聲學專業(yè)背景,在二審時其結(jié)合專業(yè)認知陳述了異議,即根據(jù)照片上有關(guān)聲波的圖案無法對應(yīng)其車輛喇叭發(fā)聲的波段。這一異議并未推翻電子警察的認定結(jié)果。同樣,在高彬與新民市公安局交通行政處罰糾紛案(43)參見遼寧省沈陽市中級人民法院(2016)遼01行終386號行政判決書。中,高彬被電子監(jiān)控設(shè)備認定為超速,并被交警予以頂格處罰。高彬依據(jù)監(jiān)控設(shè)備拍攝的照片上顯示的時間及其目測的位移,自行計算速度,認為其并未超速,并且提供了相關(guān)的學術(shù)論文證明雷達測速對其車速的測量是誤判。同樣這一主張也未得到法院的認可。

自動化行政方式對傳統(tǒng)行政法中的法律約束框架提出挑戰(zhàn):第三方設(shè)計主體的參與、轉(zhuǎn)譯型算法與自我學習型算法改寫法律的風險、算法決策超越法律的授權(quán)等沖擊著立法對行政的約束能力;算法決策的救濟途徑不暢、算法的難以審查性也使得司法對行政的約束作用減弱。對此,一方面,應(yīng)當反思傳統(tǒng)法律控制框架對自動化行政發(fā)揮作用的場域;另一方面,在傳統(tǒng)框架規(guī)制不足的場域,應(yīng)當探索新的合法性約束機制。接下來,文章將分別從轉(zhuǎn)譯型算法和自我學習型算法的控制角度對前述問題作出回應(yīng)。

四、轉(zhuǎn)譯型算法的控制

轉(zhuǎn)譯型算法面臨的合法性問題是轉(zhuǎn)譯者的主體適當性、轉(zhuǎn)譯算法是否能夠準確實現(xiàn)法律的要求。在自動化行政中,“代碼即法律”(44)〔美〕勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》(修訂版),李旭、沈偉偉譯,清華大學出版社2018年版,第1頁。,轉(zhuǎn)譯型算法的制定過程(轉(zhuǎn)譯過程)可類比傳統(tǒng)行政法中的規(guī)則制定過程。轉(zhuǎn)譯型算法的裁量存在于轉(zhuǎn)譯過程,算法適用過程無裁量空間。對轉(zhuǎn)譯型算法系統(tǒng)而言,控制算法制定過程就能夠控制算法適用過程。針對轉(zhuǎn)譯過程的控制:首先,需要分析轉(zhuǎn)譯過程的法律性質(zhì)為何,應(yīng)該符合何種主體、程序的要求;其次,應(yīng)當結(jié)合法律語言轉(zhuǎn)譯成算法的不確定性特點,探究通過何種方式縮減第三方中算法設(shè)計師的判斷空間。

(一)轉(zhuǎn)譯過程的法律性質(zhì)

轉(zhuǎn)譯型算法作為機器語言,其法律性質(zhì)與所需要執(zhí)行的規(guī)范條文的性質(zhì)有關(guān),若其對應(yīng)的規(guī)范條文屬于裁量基準,則算法就相當于裁量基準。例如,自動化處罰系統(tǒng)中的轉(zhuǎn)譯過程相當于將裁量基準算法化。算法將裁量過程分解為可供機器運行的計算步驟,而代碼則以機器語言的形式對計算步驟進行具體化表達。在自動化處罰裁量語境下,算法相當于裁量基準。不同于傳統(tǒng)裁量基準,算法化裁量基準將法律適用過程中的事實要素直接納入,實現(xiàn)事實與法律規(guī)范的具體對應(yīng)。(45)參見王正鑫:《機器何以裁量:行政處罰裁量自動化及其風險控制》,載《行政法學研究》2022年第2期。

轉(zhuǎn)譯過程因存在必須由行政機關(guān)和算法設(shè)計師填補的判斷空間而具有立法的色彩,可以將其類比為行政機關(guān)具有較大裁量空間的規(guī)則制定過程。例如,在設(shè)計CBMS系統(tǒng)時,由于算法設(shè)計師對規(guī)則進行編碼時改變了上百條既定規(guī)則,系統(tǒng)相當于在闡明新規(guī)則。(46)參見前引〔36〕,Danielle Keats Citron文,第1279頁。規(guī)則制定過程是在闡釋語義模糊的立法,在立法規(guī)定無法為規(guī)則制定提供清晰指引時,該過程會借助公眾和專家的參與來增強規(guī)則制定的合法性和科學性。轉(zhuǎn)譯過程需要減小法律語言與機器語言之間的模糊空間。在將法律語言細化至更容易為算法設(shè)計師操作的技術(shù)標準和設(shè)計說明書過程中,可以借助公眾和專家的知識作出價值判斷和技術(shù)選擇。在具體轉(zhuǎn)譯算法之時,法律語言到機器語言之間的判斷空間,只能由行政機關(guān)和算法設(shè)計師來填補,此時算法可能偏離其所表達的法律的意圖,偏離程度與判斷空間的大小有關(guān)。下文主要針對法律語言到機器語言的轉(zhuǎn)譯過程,從轉(zhuǎn)譯過程的主體要求、所譯法律的明確性要求和轉(zhuǎn)譯過程的透明度要求三方面提出轉(zhuǎn)譯型算法的控制方式。

(二)轉(zhuǎn)譯過程的主體要求

首先,行政機關(guān)采取自動化行政方式應(yīng)獲得立法的授權(quán),即存在授權(quán)規(guī)范,具體規(guī)定何種行政機關(guān)在何種行政領(lǐng)域能夠以自動化方式開展行政管理活動。當然授權(quán)規(guī)范的層級、授權(quán)的范圍和事項,因自動化系統(tǒng)適用的領(lǐng)域、對公民合法權(quán)益的影響程度大小而有所不同。例如,電子警察系統(tǒng)的應(yīng)用就需具備法律、行政法規(guī)的明確授權(quán)。新修訂的《行政處罰法》第41條規(guī)定,利用電子技術(shù)監(jiān)控設(shè)備收集、固定違法事實的行為,必須有法律、行政法規(guī)的授權(quán),且需經(jīng)過法制審核。(47)《行政處罰法》第41條規(guī)定:“行政機關(guān)依照法律、行政法規(guī)規(guī)定利用電子技術(shù)監(jiān)控設(shè)備收集、固定違法事實的,應(yīng)當經(jīng)過法制和技術(shù)審核,確保電子技術(shù)監(jiān)控設(shè)備符合標準、設(shè)置合理、標志明顯,設(shè)置地點應(yīng)當向社會公布?!薄兜缆方煌ò踩ā返?14條授予行政機關(guān)根據(jù)交通技術(shù)監(jiān)控記錄資料進行處罰的權(quán)力。(48)《道路交通安全法》第114條規(guī)定:“公安機關(guān)交通管理部門根據(jù)交通技術(shù)監(jiān)控記錄資料,可以對違法的機動車所有人或者管理人依法予以處罰。對能夠確定駕駛?cè)说?,可以依照本法的?guī)定依法予以處罰?!币陨峡梢钥醋魇切姓C關(guān)使用電子警察系統(tǒng)的授權(quán)規(guī)范。需要注意的是,前述條款授權(quán)的范圍限于“利用電子技術(shù)監(jiān)控設(shè)備收集、固定違法事實”,不能擴大到利用電子警察系統(tǒng)直接作出行政處罰決定,進行處罰的權(quán)力仍然屬于行政機關(guān)。從當前的立法情況來看,針對電子監(jiān)控設(shè)備的使用問題,只有交通執(zhí)法和市場監(jiān)管兩個領(lǐng)域有法律和行政法規(guī)的授權(quán),環(huán)保、海關(guān)、農(nóng)業(yè)領(lǐng)域的授權(quán)規(guī)范位階是部門規(guī)章。(49)相關(guān)授權(quán)規(guī)范參見《環(huán)境行政處罰辦法》第36條、《海關(guān)監(jiān)管區(qū)管理暫行辦法》第17條、《農(nóng)業(yè)行政處罰程序規(guī)定》第37條。

其次,轉(zhuǎn)譯主體包括行政機關(guān)和私營部門的算法設(shè)計師,具有立法色彩的轉(zhuǎn)譯過程應(yīng)滿足轉(zhuǎn)譯主體合法性的要求。以“類裁量基準”的算法為例,裁量基準本身是行政機關(guān)根據(jù)授權(quán)法的旨意,對法定授權(quán)范圍內(nèi)的裁量權(quán)予以情節(jié)的細化和效果的格化而事先以規(guī)則的形式設(shè)定的一種具體化的判斷選擇標準,屬于行政自制規(guī)范。(50)參見周佑勇:《裁量基準的制度定位——以行政自制為視角》,載《法學家》2011年第4期。行政機關(guān)制定裁量基準的權(quán)力來自于立法授予的行政裁量權(quán),其將裁量基準轉(zhuǎn)譯成算法的過程本質(zhì)上仍是在行使行政裁量權(quán)。行政機關(guān)選擇與私營部門的算法設(shè)計師合作共同制定轉(zhuǎn)譯型算法的行為也在裁量空間之內(nèi),算法設(shè)計師的行為也因此具備了合法性基礎(chǔ)。此時,算法設(shè)計師可以看作是行政機關(guān)手腳的延伸,其行為歸屬于行政機關(guān);行政機關(guān)也需要通過細密的規(guī)范設(shè)計約束算法設(shè)計師的行為。

(三)轉(zhuǎn)譯法律的明確性要求

為了縮小算法設(shè)計師“轉(zhuǎn)譯法律”時的判斷空間,行政機關(guān)應(yīng)當盡可能地明確法律的含義。具體而言,在設(shè)計系統(tǒng)時,算法設(shè)計師需要明確系統(tǒng)將要實現(xiàn)的法律目標是什么,即確定“目標規(guī)范”,目標規(guī)范是系統(tǒng)運行時具體執(zhí)行的法律。目標規(guī)范和算法之間是對應(yīng)關(guān)系,前者是人類世界中由行政機關(guān)執(zhí)行的法律語言,后者是由系統(tǒng)執(zhí)行的機器語言,二者要實現(xiàn)的是同一行政目標。例如,闖紅燈自動記錄系統(tǒng)中運行的算法是用來自動認定闖紅燈行為的機器語言,相應(yīng)的目標規(guī)范是《道路交通安全法》第44條(51)《道路交通安全法》第44條規(guī)定:“機動車通過交叉路口,應(yīng)當按照交通信號燈、交通標志、交通標線或者交通警察的指揮通過;通過沒有交通信號燈、交通標志、交通標線或者交通警察指揮的交叉路口時,應(yīng)當減速慢行,并讓行人和優(yōu)先通行的車輛先行?!焙汀兜缆方煌ò踩▽嵤l例》第38條(52)《道路交通安全法實施條例》第38條第1款規(guī)定:“機動車信號燈和非機動車信號燈表示:(一)綠燈亮時,準許車輛通行,但轉(zhuǎn)彎的車輛不得妨礙被放行的直行車輛、行人通行;(二)黃燈亮時,已越過停止線的車輛可以繼續(xù)通行;(三)紅燈亮時禁止車輛通行?!敝校t燈亮時禁止機動車通行的規(guī)定。目標規(guī)范是行政機關(guān)的執(zhí)法依據(jù)。轉(zhuǎn)譯過程實際上是將目標規(guī)范這一法律語言轉(zhuǎn)譯成機器語言的過程,轉(zhuǎn)譯時需要細化、解釋具體的法律用語,明確至機器可執(zhí)行的程度。仍以闖紅燈自動記錄系統(tǒng)為例,《闖紅燈自動記錄系統(tǒng)通用技術(shù)條件》(GA/T 496—2014)對如何認定闖紅燈行為作了更具體的規(guī)定:系統(tǒng)需要監(jiān)測和記錄的闖紅燈行為是機動車違反交通信號燈紅燈亮時禁止通行的規(guī)定,越過停止線并繼續(xù)行駛的行為。(53)參見《闖紅燈自動記錄系統(tǒng)通用技術(shù)條件》(GA/T 496—2014)第3.1、3.2條。自動記錄系統(tǒng)至少要記錄三張反映闖紅燈行為過程的圖片,圖片需符合《闖紅燈自動記錄系統(tǒng)通用技術(shù)條件》的要求。(54)《闖紅燈自動記錄系統(tǒng)通用技術(shù)條件》(GA/T 496—2014)第4.3.1.1條規(guī)定:“系統(tǒng)應(yīng)能至少記錄以下3張反映闖紅燈行為過程的圖片:a) 能反映機動車未到達停止線的圖片,并能清晰辨別車輛類型、交通信號燈紅燈、停止線;b) 能反映機動車已越過停止線的圖片,并能清晰辨別車輛類型、號牌號碼、交通信號燈紅燈、停止線;c) 能反映機動車與b)圖片中機動車向前位移的圖片,并能清晰辨別車輛類型、交通信號燈紅燈、停止線?!睘榱藴p小法律語言轉(zhuǎn)譯為機器語言時可能出現(xiàn)的偏差,行政機關(guān)通常會發(fā)布相關(guān)技術(shù)標準,自動化系統(tǒng)的設(shè)計必須符合技術(shù)標準的要求。在技術(shù)標準的基礎(chǔ)上,有必要事先為轉(zhuǎn)譯過程設(shè)計更為詳細的說明書,盡可能地明確可能會引起算法設(shè)計師進行獨立判斷的問題。說明書應(yīng)當經(jīng)過法律專家與技術(shù)專家的審核,并應(yīng)當被允許共享以及不斷完善,以促使算法設(shè)計師的行為合乎規(guī)范要求。(55)參見前引〔34〕,麗莎·A.謝伊、伍德羅·哈特佐格等文,第295頁。

行政機關(guān)通過發(fā)布技術(shù)標準和設(shè)計轉(zhuǎn)譯算法說明書的方式減少法律語言的模糊性,為算法設(shè)計師提供更為明確的設(shè)計方向。但是,即便說明書的表述極盡詳細,法律語言轉(zhuǎn)譯成算法的過程仍然存在算法設(shè)計師的主觀判斷空間。處于私主體地位的算法設(shè)計師受私益驅(qū)動,而行政管理活動需將公共利益作為首要考量因素,為了確保公共利益的實現(xiàn),行政機關(guān)應(yīng)當全程參與系統(tǒng)的設(shè)計過程,擔任重要問題的最終決策者。

(四)轉(zhuǎn)譯過程的透明度要求

首先,轉(zhuǎn)譯型算法制定過程應(yīng)滿足公開的要求。轉(zhuǎn)譯過程公開的理論基點在于對公民知情權(quán)的保障,此處的知情權(quán)是指政治上的民主權(quán)利,即公民依法享有知道國家的活動、了解國家的事務(wù)的權(quán)利,國家機關(guān)有依法向公民及社會公眾公開自己活動的義務(wù),這是人民主權(quán)原則的延伸。(56)參見劉莘:《行政立法研究》,法律出版社2018年版,第167-168頁。轉(zhuǎn)譯過程公開的內(nèi)容包括公開轉(zhuǎn)譯主體、轉(zhuǎn)譯目的、轉(zhuǎn)譯依據(jù)以及源代碼等,算法公開體現(xiàn)的是算法透明原則的要求。就具體規(guī)制手段而言,算法透明包含告知義務(wù)、向主管部門報備參數(shù)、向社會公開參數(shù)和存檔數(shù)據(jù)、公開源代碼等不同的形式。(57)參見汪慶華:《算法透明的多重維度和算法問責》,載《比較法研究》2020年第6期。算法公開的程序可參照行政規(guī)范性文件的公布程序。2008年起實施的《湖南省行政程序規(guī)定》率先規(guī)定了對規(guī)范性文件的統(tǒng)一登記、統(tǒng)一編號、統(tǒng)一公布制度,其后,“三統(tǒng)一”制度被推廣至其他省份,目前已被中央層面法律文件納入。(58)參見《國土資源部辦公廳關(guān)于實行規(guī)范性文件“三統(tǒng)一”制度的通知》(國土資廳函〔2015〕523號)。

其次,應(yīng)在算法公開的基礎(chǔ)上增強算法的可解釋性。反對算法公開的理由之一是“算法透明≠算法可知”,即考慮到披露對象的技術(shù)能力、算法的復(fù)雜性、機器學習和干擾性披露四重因素,即使向公眾公開源代碼,公眾也未必會理解算法的工作原理。(59)參見沈偉偉:《算法透明原則的迷思——算法規(guī)制理論批判》,載《環(huán)球法律評論》2019年第6期。對行政機關(guān)施加解釋算法的義務(wù)并非要求其準確地說明算法的工作原理,由于“算法黑箱”的制約,這可能在技術(shù)上也是不可行的。行政機關(guān)的解釋性義務(wù)只需要做到提供必要的信息證明系統(tǒng)產(chǎn)生的結(jié)果是合理的即可。換言之,行政機關(guān)需要提供有關(guān)其自動化系統(tǒng)背后的目的及其通常如何運作的基本信息,需要表明在設(shè)計系統(tǒng)時已經(jīng)仔細考慮了關(guān)鍵的設(shè)計選項,也可能需要借助公認的審核和驗證工作來證明系統(tǒng)確實能夠運行并生成預(yù)期的結(jié)果。(60)參見前引〔3〕,卡里·科利亞尼斯文。對行政機關(guān)施加公開算法和解釋算法的義務(wù),一方面是為了滿足自動化行政自身合法性的要求,另一方面也有助于個人對自動化決策提出質(zhì)疑,引發(fā)關(guān)于技術(shù)的辯論,從長遠來看可以促進社會對新技術(shù)的接受。

五、自我學習型算法的控制

針對轉(zhuǎn)譯型算法,可以通過控制轉(zhuǎn)譯過程的合法性來保證算法決策的合法性,確保系統(tǒng)始終處于行政機關(guān)的控制之下。此時的規(guī)制邏輯是通過形式合法性來解釋行政正當性,核心技術(shù)是評估行政與法律的一致性。(61)參見前引〔8〕,王錫鋅文。但自我學習型算法是根據(jù)預(yù)先設(shè)定的“學習規(guī)則”,學習訓(xùn)練數(shù)據(jù)之后生成的,本身具有不確定性。自我學習型算法無法滿足形式合法性的要求,需要探索新的合法性框架,相應(yīng)控制方式應(yīng)在新的合法性框架下展開。

(一)“民主—科學”的合法性框架

1.構(gòu)建合法性框架的目的

自我學習型算法的適用需要具備合法性基礎(chǔ)的本質(zhì)原因是要保證系統(tǒng)行使行政權(quán)時像行政機關(guān)一樣受到控制。傳統(tǒng)法律體系對公權(quán)力的控制機制,使得公民可以充分相信行政機關(guān)在行使權(quán)力時始終以維護公共利益為目的;而逸脫了法律控制機制的系統(tǒng),難以使公民相信其同樣以維護公共利益的方式運轉(zhuǎn)。換言之,控制系統(tǒng)是為了建立起公眾對系統(tǒng)的信任。公眾對系統(tǒng)的不信任不僅會導(dǎo)致系統(tǒng)本身合法性基礎(chǔ)缺失,還會引發(fā)公眾與系統(tǒng)的提供者——行政機關(guān)之間的信任危機。盡管自我學習型算法具有“黑箱”性質(zhì),其決策過程難以為人類理解,但這并不意味著人類無法對其建立信任。正如在醫(yī)療領(lǐng)域,盡管患者對藥物或藥物治療的工作原理不甚了解,但其仍然愿意將生命健康托付給通常難以理解的治療手段;問題的關(guān)鍵不在于人類是否知道特定藥物的作用機理,而是該領(lǐng)域內(nèi)是否存在充分的規(guī)則、制度和專業(yè)知識給予我們信心,使我們對治療手段建立信任。(62)See Robin C.Feldman, Ehrik Aldana & Kara Stein,Artificial Intelligence in the Health Care Space: How We Can Trust What We Cannot Know, 30(2)Stanford Law & Policy Review 399 (2019).

2.合法性框架分析

行政管理過程偏離形式合法性要求的問題并不限于自動化行政領(lǐng)域,只不過在自我學習型算法上尤為突出。當代行政是目標導(dǎo)向的積極活動,行政機關(guān)在目標界定、手段選擇等方面,都擁有自主進行權(quán)衡和選擇的權(quán)力;目標導(dǎo)向的行政,意味著法律對行政的控制,通常只能是寬泛的目標指引而非具體的指令控制。立法提出行政活動的寬泛目標,行政對目標進行判斷、權(quán)衡以及對實現(xiàn)目標的手段進行選擇裁量。(63)參見王錫鋅:《行政法治的邏輯及其當代命題》,載《法學論壇》2011年第2期。例如,在風險行政領(lǐng)域,由于立法者不具備關(guān)于風險的完整知識,需要廣泛授予行政機關(guān)裁量權(quán),依法行政實際上被依裁量行政替代。(64)參見趙鵬:《知識與合法性:風險社會的行政法治原理》,載《行政法學研究》2011年第4期。行政機關(guān)規(guī)制風險的活動若要符合現(xiàn)代行政法治的基本要求,至少需要滿足兩個條件:一是價值合理性,即行政機關(guān)設(shè)定的風險規(guī)制目標能夠為公眾所接受,符合民眾的需求,反映民眾的偏好,體現(xiàn)盧梭所說的“公意”的要求,從而具有正當性;二是工具合理性,即行政機關(guān)規(guī)制風險的手段或措施基于精確的計算和預(yù)測,追求功效最大化,具有科學性。(65)參見戚建剛:《風險規(guī)制過程合法性之證成——以公眾和專家的風險知識運用為視角》,載《法商研究》2009年第5期。風險行政背景下,行政機關(guān)通過增強行政過程中的民主性與科學性,來補強行政活動正當性?!懊裰鳌茖W”的合法性框架也可以作為自我學習型算法適用的理論基礎(chǔ)。

3.合法性規(guī)制目的實現(xiàn)方式

“民主—科學”的合法性規(guī)制目的是建立公眾對算法的信任。與自我學習型算法相同,診療過程對于患者而言同樣具有“黑箱”性質(zhì),因此,醫(yī)療領(lǐng)域信任機制的構(gòu)建方式可以為算法的規(guī)制提供借鑒。醫(yī)療領(lǐng)域的信任建立機制有以下三個要點:(1)醫(yī)療服務(wù)提供者的能力。以醫(yī)師為例,醫(yī)師培訓(xùn)和考核機制、醫(yī)師資格考試制度、醫(yī)師執(zhí)業(yè)注冊制度、醫(yī)師的執(zhí)業(yè)規(guī)范要求、衛(wèi)生健康主管部門和醫(yī)療衛(wèi)生機構(gòu)對醫(yī)師的監(jiān)督管理及問責制度等共同建立起一個保證醫(yī)師專業(yè)水準的框架,使得公眾即使無法直接評估其實際能力,也能對其建立信任。(2)保護患者的利益。醫(yī)學倫理規(guī)范和相關(guān)制度的存在使公眾相信,相較于個人的經(jīng)濟利益,醫(yī)師會將病人的利益放在首位。美國出臺了《聯(lián)邦反回扣法案》(The Federal Anti-Kickback Statute)、《醫(yī)師酬勞陽光法案》(Physician Payments Sunshine Act)來監(jiān)督醫(yī)師從醫(yī)藥企業(yè)獲取利益的行為,平衡患者的最大利益與醫(yī)師個人利益之間的關(guān)系。(3)信息的完整性。醫(yī)師用于診療的數(shù)據(jù)的準確性、診療數(shù)據(jù)使用方式的適當性、診療數(shù)據(jù)的可訪問性、可糾錯性都有助于增進患者的信任??傮w而言,建立信任的路徑可以二分:一是建立患者的主體地位保障,對應(yīng)要點(2);二是建立診療過程的科學性保障,對應(yīng)要點(1)(3)。兩種路徑大致可以分別與民主和科學相對應(yīng)。

(二)自我學習型算法的民主控制要求

與保障患者的主體地位類似,自動化行政中的民主參與是為了使公眾獲得自尊、自主和自治的心理。(66)參見沈巋:《風險規(guī)制決策程序的科學與民主》,載沈巋主編:《風險規(guī)制與行政法新發(fā)展》,法律出版社2013年版,第308頁。自我學習型算法的民主控制可以從兩方面展開:一是行政機關(guān)在制定規(guī)制人工智能的法律法規(guī)、政策文件時,應(yīng)當聽取公眾意見,并提供充分交流意見的平臺;二是在算法投入運用階段,拓寬公眾發(fā)現(xiàn)、識別算法風險的渠道。

以算法治理為代表的數(shù)治主要關(guān)注工具有效性和效率,側(cè)重于治理的事實和工具維度,對法治的“價值之治”側(cè)面帶來挑戰(zhàn)。(67)參見王錫鋅:《數(shù)治與法治:數(shù)字行政的法治約束》,載《中國人民大學學報》2022年第6期。這也導(dǎo)致算法治理中公眾意見表達的空間被進一步壓縮。反對人工智能立法的理由之一是缺乏精確度的法律難以滿足對代碼的規(guī)制需求。對此的反駁為,法律是在民主程序中妥協(xié)的產(chǎn)物,在妥協(xié)的過程中,公眾不斷朝最適當規(guī)則的方向達成共識。(68)See Paul Nemitz, Constitutional Democracy and Technology in the Age of Artificial Intelligence Philosophical Transactions: Mathematical,376(2133)Physical and Engineering Sciences 1(2018).規(guī)制算法的規(guī)則和政策的形成過程就是一個妥協(xié)和不斷達成共識的過程,對算法規(guī)制的價值選擇和目標確定應(yīng)當以公眾的意見為依據(jù)。應(yīng)當規(guī)制哪些風險、如何進行價值位階排序,以及置于何種議程進行規(guī)制,體現(xiàn)的是公眾希望自己決定生活狀態(tài)的意愿。(69)參見前引〔65〕,戚建剛文。在參與過程中,公眾能夠從各種視角了解和理解算法,盡可能地消除對未知風險的疑慮,增進信任。

算法決策過程的瞬時性剝奪了相對人在行政程序中向決策者表達意見的機會,算法決策的黑箱特點使公眾難以直接發(fā)現(xiàn)算法的技術(shù)性錯誤。對此,有學者提出通過建立“前瞻性基準”(prospective benchmarking)的方式對自我學習型算法的運行情況進行監(jiān)督,具體而言,在采取算法決策的場景中,行政機關(guān)應(yīng)當隨機選取一組同類型的人工執(zhí)法案例作為基準,公眾能夠以此作為對比樣本,對算法決策結(jié)果進行監(jiān)督,及時發(fā)現(xiàn)算法決策中可能存在的錯誤。(70)See David Freeman Engstrom & Daniel E.Ho, Algorithmic Accountability in the Administrative State, 37 Yale Journal on Regulation 800,849(2020).除此之外,行政機關(guān)應(yīng)向公眾提供算法查驗途徑,即面向用戶或公眾提供一個公開的查驗渠道,使用戶、交易者或第三方有機會檢驗算法能否實現(xiàn)其所宣稱的目標,從而對算法的運行機理建立相當程度的了解和預(yù)期。(71)參見蘇宇:《算法規(guī)制的譜系》,載《中國法學》2020年第3期。

(三)自我學習型算法的科學控制要求

自我學習型算法的科學性控制要求體現(xiàn)在兩方面:一是對算法的提供者和算法技術(shù)的科學性、可靠性的保障;二是對數(shù)據(jù)可靠性的保障。在對算法提供者的控制方面,行政機關(guān)通過算法進行治理,是自動化行政行為的直接責任主體,應(yīng)當承擔起對算法科學性的保障責任。第一,行政機關(guān)內(nèi)部應(yīng)該設(shè)立專門的算法審查機構(gòu),承擔算法審查、算法監(jiān)測、算法糾錯等具體工作??紤]到當前階段行政機關(guān)專業(yè)人才不足的問題,有學者建議目前可依托具有相應(yīng)專業(yè)人才、技術(shù)支撐和監(jiān)管能力的行業(yè)自律組織,建立起由相關(guān)行政機關(guān)負責指導(dǎo)、行業(yè)自律組織負責實施的算法監(jiān)管體制。(72)參見孫清白:《人工智能算法的“公共性”應(yīng)用風險及其二元規(guī)制》,載《行政法學研究》2020年第4期。第二,行政機關(guān)在選擇第三方機構(gòu)共同設(shè)計算法時,應(yīng)當遵循公開透明、公平競爭、公正原則,設(shè)計單位的資質(zhì)、選擇單位的程序和標準等信息需向社會公開,并接受監(jiān)督。

在對算法技術(shù)的控制方面,第一,建立算法標準和算法備案制度。統(tǒng)一的技術(shù)標準有助于確認某種算法現(xiàn)階段的科學性和合理性;而算法備案制度便于查明算法風險,明確責任主體。第二,建立算法審查制度。算法設(shè)計過程需嵌入算法倫理,因此在設(shè)計階段就應(yīng)當以立法形式要求算法通過道德審查標準,防止產(chǎn)生不公平后果。(73)參見張凌寒:《算法規(guī)制的迭代與革新》,載《法學論壇》2019年第2期。第三,建立算法影響評估制度,以中立、專業(yè)、可信的評估主體為保證,對算法設(shè)計、部署、運行的全部流程予以動態(tài)評估,在算法系統(tǒng)應(yīng)用之前就進行獨立的社會技術(shù)分析。(74)參見張欣:《算法影響評估制度的構(gòu)建機理與中國方案》,載《法商研究》2021年第2期。第四,開發(fā)監(jiān)督算法運行、監(jiān)測算法技術(shù)可靠性的算法。盡管對算法代碼進行實時督導(dǎo)(monitoring)和審計(auditing),需要具備與算法生產(chǎn)和使用相當或超越的技術(shù)能力,成本巨大,(75)參見前引〔14〕,邱澤奇文。但以技術(shù)控制技術(shù)既可以推動科技進步,也能有效增進公眾對科技的信任。前述控制手段大多是自上而下的機制設(shè)計,有可能因為利益關(guān)聯(lián)或認知局限等原因阻礙算法的正常發(fā)展,因此,應(yīng)當鼓勵產(chǎn)業(yè)界、社會組織及個人創(chuàng)造和發(fā)展自下而上的風險識別與防范工具。(76)參見前引〔71〕,蘇宇文。

在對數(shù)據(jù)可靠性的保障方面,第一,利用數(shù)據(jù)集缺陷檢測技術(shù)。目前的人工智能技術(shù)已經(jīng)完全可以為算法開發(fā)者提供數(shù)據(jù)集及訓(xùn)練過程檢測工具,主要用于檢測訓(xùn)練人工智能的數(shù)據(jù)集是否存在偏差或缺陷,還可以通過一定的算法檢測在數(shù)據(jù)選取、數(shù)據(jù)標注、數(shù)據(jù)清洗以及其他預(yù)處理工作過程中是否包含了偏離算法設(shè)計目標或足以導(dǎo)致結(jié)果發(fā)生顯著偏差的操作。(77)參見前引〔71〕,蘇宇文。第二,提高數(shù)據(jù)的互操作性(interoperability)。(78)See Peter K.Yu, Beyond Transparency and Accountability: Three Additional Features Algorithm Designers Should Build into Intelligent Platforms, 13(1)Northeastern University Law Review 263,290(2021).互操作性要求不同行政機關(guān)之間共享數(shù)據(jù),能夠更好地滿足自我學習型算法對數(shù)據(jù)數(shù)量的要求,進而提高算法的準確性。

六、結(jié) 語

在民主國家,主權(quán)統(tǒng)治通過雙重形式的透明實現(xiàn)合法性:首先,人民生活在自己制定的規(guī)則之下(民主參與);其次,這些規(guī)則的適用能夠在打開其解釋黑箱的訴訟程序中提出爭議(法治)。(79)See Mireille Hildebrandt, Law as Information in the Era of Data-Driven Agency, 79(1)Modern Law Review 1,23(2016).這也是傳統(tǒng)行政法中行政權(quán)獲得合法性的途徑,行政機關(guān)通過嚴格遵循依法行政原則,獲得民主正當性。自動化行政方式面臨合法性危機:轉(zhuǎn)譯型算法在轉(zhuǎn)譯過程中會嵌入算法設(shè)計師的判斷,而來自私營部門的算法設(shè)計師可能尚未獲得執(zhí)行法律的授權(quán),缺乏執(zhí)法的合法性基礎(chǔ),這一問題在自我學習型算法中更為突出;此外,當前階段,算法決策有時在事實上超出法律的授權(quán)范圍,且缺乏暢通的救濟機制。

因此,應(yīng)當結(jié)合算法類型對算法進行控制。針對轉(zhuǎn)譯型算法,需要保證轉(zhuǎn)譯過程的合法性:首先,要有上位法授權(quán)行政機關(guān)以自動化的方式在某一領(lǐng)域開展行政活動,從而為引入第三方共同設(shè)計算法提供法律基礎(chǔ);其次,行政機關(guān)有義務(wù)細化系統(tǒng)所需執(zhí)行的目標法律規(guī)范,以縮小轉(zhuǎn)譯過程的判斷空間;最后,轉(zhuǎn)譯過程應(yīng)參考規(guī)則制定程序,符合相應(yīng)程序要求。針對自我學習型算法,傳統(tǒng)合法性框架失去作用,應(yīng)當通過行政過程中的民主性和科學性重構(gòu)合法性基礎(chǔ),具體控制措施也應(yīng)從公眾參與和算法科學的角度展開。

猜你喜歡
合法性機關(guān)行政
行政學人
行政論壇(2022年5期)2022-10-25 04:47:00
組織合法性的個體判斷機制
Westward Movement
強化使命擔當 建設(shè)“兩個機關(guān)”
行政調(diào)解的實踐與探索
人大機關(guān)走出去的第一書記
打開機關(guān)鎖
行政為先 GMC SAVANA
車迷(2015年12期)2015-08-23 01:30:48
機關(guān)制造
小說月刊(2015年4期)2015-04-18 13:55:18
加快行政審批體制改革
全球化(2015年2期)2015-02-28 12:38:53
乐亭县| 夏津县| 波密县| 姚安县| 卢氏县| 永丰县| 沙田区| 宜兰市| 安溪县| 阳江市| 台南县| 滨海县| 宜春市| 建宁县| 驻马店市| 长顺县| 苗栗县| 乐亭县| 定襄县| 佛教| 巴彦淖尔市| 郸城县| 禹城市| 大邑县| 恩平市| 建湖县| 博客| 开封县| 额尔古纳市| 化德县| 和平县| 尉犁县| 凤城市| 天全县| 盱眙县| 柳江县| 专栏| 西城区| 昌江| 勐海县| 增城市|