劉 星, 侍海艷
(1.東南大學 法學院,南京 211189;2.淮陰師范學院 法政學院,江蘇淮安 223001)
當下,人工智能儼然成為法學研究的學術(shù)熱點,無論是法理學還是各部門法,基于人工智能的法學研究已占據(jù)著各類學術(shù)期刊的版面(1)。人工智能情境下的行政裁量問題,就是在這種研究熱潮中被提出的。然而,正如有學者所指出的,雖然人工智能法學研究空前繁盛,但卻出現(xiàn)了違反人類智力常識的反智化現(xiàn)象,概念附會現(xiàn)象嚴重,不少成果只是基于“AI+法律”的任意性組合,“泛人工智能化”研究正在產(chǎn)生大量學術(shù)泡沫[1]。這不得不引起我們的反思:人工智能情境下的行政裁量是人工智能法學研究中“AI+法律”式的概念附會嗎;人工智能情境下的行政裁量真的存在嗎;如若存在,在何種情形下存在;其具體形態(tài)有哪些;人工智能是否對當下的行政裁量治理提出了根本性挑戰(zhàn)?
正如美國行政法學家科克教授所言,“行政法已被裁量的術(shù)語所統(tǒng)治”[2]469。身處智能的新時代,無論是行政主體還是行政相對人,都能時時感受到人工智能與大數(shù)據(jù)、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、區(qū)塊鏈、云計算等現(xiàn)代新興技術(shù)結(jié)合所帶來的公共行政革命式變遷,以公共行政為研究對象的行政法將理論視野投射至人工智能,并考察其與行政裁量的關(guān)系,便成為水到渠成、自然而然的事情了。然而,“行政的生命在于裁量,行政法的核心在于通過法治實現(xiàn)對行政裁量問題的有效治理”[3]121,故而,在考察人工智能與行政裁量之間的關(guān)系時,我們要格外理性、細致、審慎,不僅要厘清基礎(chǔ)性概念的內(nèi)涵與外延,從而避免出現(xiàn)常識性謬誤以及學術(shù)研究的“偽問題”,而且應該盡可能納入現(xiàn)有的行政法教義分析框架,避免就問題論問題所導致的對策論代替教義論?;谝陨峡紤],筆者嘗試在梳理相關(guān)國內(nèi)外文獻的基礎(chǔ)上,從人工智能的界分、人工智能下行政行為的成立條件以及行政裁量的內(nèi)在結(jié)構(gòu)三個方面對人工智能與行政裁量的關(guān)系進行考察,探討行政裁量治理所面臨的技術(shù)挑戰(zhàn)。
雖然當前人工智能法學研究蔚為大觀,行政裁量的研究成果也日益豐碩,但是關(guān)于人工智能與行政裁量關(guān)系的系統(tǒng)性研究并不多,因此有必要圍繞此主題對已有的國內(nèi)外文獻進行綜述,以展現(xiàn)當前的研究進展,明確研究的創(chuàng)新起點。
就國內(nèi)而言,無論是我國大陸還是臺灣地區(qū)(2),關(guān)于人工智能與行政裁量關(guān)系的系統(tǒng)性研究并未出現(xiàn),但并不是說沒有學者關(guān)注此問題,只不過關(guān)于此問題的論述在文獻中都是片段式地提及,尚未做專項研究。從已有的文獻看,涉及該主題的研究內(nèi)容主要集中在兩個方面:一是人工智能條件下行政裁量存在與否;二是人工智能情境下行政裁量的控制問題。
一方面,部分學者從行政裁量的綜合性與復雜性出發(fā)否定人工智能行政裁量的存在,傾向于認為人工智能只能作為行政裁量的輔助工具。宋華琳等認為,在當前的公共行政中,人工智能的引入相對更多集中于事實認定環(huán)節(jié),相對更多適用于羈束行為而非裁量行為。現(xiàn)實行政情境都涉及個案中的復雜權(quán)衡,而人工智能能否勝任此項工作,能力存疑,因此否定人工智能裁量的存在[4]82-90。以行政許可為例,宋華琳認為,人工智能系統(tǒng)的引入并不能完全取代行政許可機關(guān)的裁量判斷,面對特定個案中多元利害關(guān)系主體和錯綜復雜的利益沖突,行政許可機關(guān)需要脫離人工智能系統(tǒng)和電子化許可規(guī)則的束縛,轉(zhuǎn)而回歸傳統(tǒng)的行政裁量[5]。
另一方面,部分學者認為人工智能條件下存在行政裁量,應考慮人工智能情境下行政裁量的控制問題。查云飛認為既然裁量基準能在同案同處理和個案處理之間保持適當平衡,從而被行政法所允許,那么,行政機關(guān)依賴全自動設(shè)備做出具體行政行為也未嘗不可??梢园凑詹煌姓顒宇愋途C合考慮相關(guān)因素,將裁量基準在算法規(guī)則中提前預制,從而實施自動化裁量[6]167-179。作者以此次新冠疫情中的健康碼為例,深入分析健康碼的管理規(guī)定的裁量基準功能,明確作為人工智能工具的健康碼在個案行政中的裁量壓縮作用[7]。馬顏昕認為,自動化行政應該區(qū)分為自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政等多個級別[8]。作者以自動化行政方式下的行政處罰為例,系統(tǒng)考察行政處罰中完全自動化行政中的裁量情形,并且提出必須對自動化輔助異化保持警惕。在歸責上,近期自動化行政處罰的賠償責任宜采用無過錯責任原則,長遠看將自動化系統(tǒng)錯誤導致的責任予以單獨類型化,從而確定專門的責任構(gòu)成要件[9]。
國外關(guān)于人工智能的法學研究早在20世紀80年代已經(jīng)開啟,盡管曾因人工智能技術(shù)研究陷入低潮而一度沉寂,然而近年人工智能的飛躍式發(fā)展再次掀起法學研究的熱潮。有關(guān)數(shù)字行政裁量的問題在國外行政法研究中已有較為豐富的知識沉淀。
在德國,行政法學家的主流觀點認為人工智能情形下的自動化系統(tǒng)參與行政活動并不影響行政行為的成立。關(guān)于這一點,毛雷爾教授很早就給予了相關(guān)論述[10]。然而,對人工智能是否能夠進行行政裁量,學者們的觀點仍然存在分歧。Wolff等認為,行政機關(guān)在作成裁量決定或于判斷余地從事活動時,需合理斟酌有關(guān)個案之一切情況,電腦自動作業(yè)受規(guī)格化之限制,不能符合此要求,所為決定屬違法。此外,以電腦對當事人做成決定,無異以機器決定人之命運,亦抵觸憲法對一般人格權(quán)之保障[11]。與之相反,Badura認為,行政機關(guān)得依行政規(guī)則(裁量準則)作成裁量決定。在以電腦自動化作業(yè)時,考慮各種因素之作業(yè)程式即無異于行政規(guī)則。因此,并不完全排除裁量決定之自動處理[12]。從德國當前的制定法上看,人工智能領(lǐng)域的行政裁量并未獲得認可,相關(guān)立法嚴格地排除行政行為中存有不確定法律概念和裁量的情形,人工智能下的全自動行政行為只允許存在于羈束行政之中(3)。當然,這很可能是因為當時的立法者并未意識到人工智能會發(fā)展如此迅速,因此不排除今后立法可能產(chǎn)生松動。
在英美,由于對行政裁量界定的寬泛性,人工智能能否參與行政裁量經(jīng)歷了從全盤否定適用到局部肯定適用的過程,并已開始探討人工智能裁量的控制技術(shù)與責任歸屬問題。Lipsky基于裁量過程中人的意識判斷過程,否定公共行政中數(shù)字裁量的可能性[13]。Busch等梳理了1998年至2017年有關(guān)數(shù)字裁量與街頭官僚之間關(guān)系的44篇文獻,反駁了Lipsky“公共行政服務提供需要人類的判斷,而這無法編程,機器無法替代人類”的觀點,并明確當前的研究任務是評估數(shù)字自由裁量權(quán)的影響,解釋不同類型的現(xiàn)代信息技術(shù)如何影響街頭官僚數(shù)字裁量權(quán)[14]。Barth在系統(tǒng)梳理人工智能文獻的基礎(chǔ)上,提出了包括回應、判斷和問責在內(nèi)的與行政裁量權(quán)有關(guān)的經(jīng)典困境,并認為,人工智能領(lǐng)域的進步將引領(lǐng)計算的新水平,人工智能系統(tǒng)將有能力做出自主代理,并學會獨立學習,評估周邊環(huán)境,并具有用價值觀、動機和情感來進行思考的能力[15]。Bullock詳細分析了人工智能、裁量和官僚之間的關(guān)系,并得出結(jié)論:盡管有證據(jù)表明,自由裁量權(quán)可能會縮小,但需要更多的理論和實證研究來更好地理解這種變化的全部影響。復雜性和不確定性低的任務最有可能被人工智能自動處理,而復雜性和不確定性高的任務應該保留在人類主導的范圍內(nèi)[16]。另外,Bullock等通過對美國預測警務和醫(yī)療保險中的典型數(shù)字裁量系統(tǒng)考察,發(fā)現(xiàn)人工智能對行政裁量的影響已呈現(xiàn)出非線性結(jié)構(gòu)[17]。Suksi認為,為防范自動決策帶來的裁量風險,所有國家都有必要審查其行政正當程序規(guī)則,以便使這些規(guī)則在自動決策的要求方面跟上時代的步伐,只有基于規(guī)則的自動化決策系統(tǒng)才能與法治相兼容[18]。劍橋大學Cobbe教授也持類似觀點,并且強調(diào)通過法律規(guī)制提高算法技術(shù)透明度,從而規(guī)避自動化行政決策風險[19]。
綜上所述,人工智能情境下的行政裁量是否存在,無論是國內(nèi)還是國外并未達成統(tǒng)一。在探討這一問題時,或許出于對技術(shù)的信任與期待,在英美等國家人工智能裁量的存在似乎已不言自明。再者,英美法系國家由于不像大陸法系國家一樣需要對法律要件做嚴謹細致的法教義學分析,整體上偏向討論如何治理人工智能裁量。然而,籠統(tǒng)地講人工智能行政裁量又給具有法教義學傳統(tǒng)的國家?guī)矸▽W理論上的挑戰(zhàn),正因如此,部分學者否認人工智能行政裁量的存在,故而有必要對人工智能做類型學分析,進而探討行政裁量問題。
以往不少研究在探討人工智能行政裁量時,往往忽略了一個前提條件:探討行政裁量存在與否的前提是人工智能情境下的行政行為能否成立。倘若行政行為不成立,又如何談行政裁量?即便從語義學的角度,分析人工智能情境下的行政裁量問題也必須對人工智能的內(nèi)涵有較為清晰的認識。
眾所周知,因人工智能太熱門而導致各行業(yè)都競相追趕、奮力融入相關(guān)的開發(fā)與應用?!暗扇巳绾我驊棵鎸@一波AI崛起,當然也不能缺席!然有鑒于AI牽涉到相關(guān)的數(shù)學統(tǒng)計層面,所以對一般不具理工背景的法律人,要切入確有技術(shù)面上的障礙。即使如此,就算不去學AI相關(guān)之電腦語言和演算法,法律人也應掌握基本的技術(shù)內(nèi)涵,具有一定認知,再來看法律問題才比較容易切中要害!”[20]的確如此,當前的人工智能法學研究熱潮之所以有為追趕熱點而制造學術(shù)泡沫的嫌疑,恐怕與尚未厘清人工智能等基礎(chǔ)概念的內(nèi)涵與外延存在莫大的關(guān)系。因此,有必要對人工智能做出層級上的界分。
雖然法律人不能像AI開發(fā)者一樣對人工智能的方方面面都要有精深的理解和把握,但是對于人工智能的基本原理及其發(fā)展層級要有清醒的認識。就人工智能的發(fā)展而言,其大致可以劃分為三個層級。第一層級,弱人工智能,只專注于完成某個特定的任務,例如語音識別、圖像識別和翻譯,即擅長單個方面的人工智能。它們只是用于解決特定的具體類的任務問題而存在,大都是統(tǒng)計數(shù)據(jù),以此從中歸納出模型。由于弱人工智能只能處理較為單一的問題,且發(fā)展程度并沒有達到模擬人腦思維的程度,所以弱人工智能仍然屬于“工具”的范疇,與傳統(tǒng)的“產(chǎn)品”在本質(zhì)上并無區(qū)別。包括近年來出現(xiàn)的IBM的Watson和谷歌的Alpha Go,它們雖然是優(yōu)秀的信息處理者,但都屬于受到技術(shù)限制的弱人工智能。第二層級,強人工智能,屬于人類級別的人工智能,在多個方面都能和人類比肩。它能夠進行思考、計劃、解決問題、抽象思維、理解復雜概念、快速學習和從經(jīng)驗中學習等操作,并且和人類一樣得心應手。強人工智能系統(tǒng)包括了學習、語言、認知、推理、創(chuàng)造和計劃,目標是使人工智能在非監(jiān)督學習的情況下處理前所未見的細節(jié),并同時與人類開展交互式學習。在強人工智能階段,由于人工智能技術(shù)已經(jīng)可以比肩人類,同時也具備了具有“人格”的基本條件,因此機器可以像人類一樣獨立思考和決策。第三層級,超人工智能。牛津哲學家、知名人工智能思想家尼克·波斯特洛姆把超級智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學創(chuàng)新、通識和社交技能”[21]。在超人工智能階段,人工智能已經(jīng)跨過“奇點”,其計算和思維能力已經(jīng)遠超人腦,此時的人工智能已經(jīng)不是人類可以理解和想象的。人工智能將打破人腦受到的維度限制,其所觀察和思考的內(nèi)容,人腦已經(jīng)無法理解,人工智能將形成一個新的社會。
之所以要對人工智能進行層級上的區(qū)分,原因在于這將決定不同人工智能情境下意思表示能力的存無,而意思表示能力的存無關(guān)系法律行為能否成立。很顯然,在弱人工智能階段,人工智能不具有獨立的意思表示能力,而只有在強人工智能階段以及超強人工智能階段意思表示能力才成為可能。
判定行政裁量存在與否的前提條件是裁量本身所依附的行政行為本身能否成立(4),但目前的學術(shù)爭論往往忽略了這一點而徑直討論裁量問題。整個大陸法系的行政法學都是由行政行為作為支柱性概念所構(gòu)筑起來的,而奧托·邁耶是借鑒民法中的意思表示構(gòu)筑行政行為概念時,將行政行為界定為行政機關(guān)對臣民在個案中作出的決定其權(quán)力的高權(quán)宣示[22]。因而,意思表示成為行政行為能否成立的要素之一。正因如此,人工智能是否具有意思表示能力往往成為討論行政行為能否成立的條件。例如,德國法學家蔡德勒20世紀50年代即指出,即便將來機器能夠代替人工開展行政活動,但從行政法角度而言也應該禁止,原因便是人的意思形成或意思表示無法由機器做出,因此應當區(qū)分人類活動與機器活動并構(gòu)建不同的責任體系[6]167-179。當然,蔡德勒所處的時代并不是人工智能蓬勃發(fā)展的時代,目之能及的機器只是某種程度的機械自動化,和當前的人工智能不可同日而語。
如果承認人工智能系統(tǒng)是否具有意思表示能力關(guān)系行政行為的成立與否,那么前文中的人工智能層級的劃分就具有實質(zhì)意義了。在弱人工智能階段,由于人工智能并不具有獨立的意思表示能力,因此此時所謂的人工智能行政行為不能成立;在強人工智能階段和超強人工智能階段,由于人工智能具有獨立的意思表示能力,行政行為便能成立。就目前而言,人類所處的智能時代處于弱人工智能階段,因此我們可以得出結(jié)論:弱人工智能只能輔助公務人員做出行政決策,并不能獨立開展行政執(zhí)法活動,因為行政行為的成立依賴的是作為公務人員的意思表示。這在現(xiàn)實立法中也得到印證?!兜聡?lián)邦程序法》立法過程中圍繞自動行政是否具有意思表示能力,曾經(jīng)展開過激烈的爭論,立法的最終結(jié)果實際上否定了自動行政行為具有意思表示的能力。由于自動行政系統(tǒng)不具有“人性”(主要指心性、感情與靈性等),與作為公務人員的“人”存在本質(zhì)上的差異,因此無法形成自身的意思表示。向前再推進一步,按照當前的人工智能發(fā)展速度,假如人工智能發(fā)展到強人工智能階段,具有了獨立的意思表示能力,那結(jié)論還是如此嗎?由此即引出行政行為概念的主體資格問題。
當前的行政行為概念的主體構(gòu)建始終是圍繞行政主體而展開。不過,行政主體類似“法人”概念,只是行政法上的擬制概念。行政主體的運作過程必須依賴一定的載體和手段,比如行政機關(guān)的公務人員即是行政主體得以運作的“活的載體”。然而,作為自然人的公務人員雖然是行政機關(guān)開展行政活動最主要的載體,但絕不是唯一的載體和手段。機器作為行政活動的載體在現(xiàn)實中早已司空見慣,例如當前的互聯(lián)網(wǎng)自動審批系統(tǒng)即脫離人工的行政載體。由此觀之,無論是作為自然人的公務員,還是當前所探討的“可能”具有法律人格的人工智能,都只是行政主體之下的行政行為載體而已,其只有得到行政主體的授權(quán)才能開展行政活動。從這一角度出發(fā),人工智能是否具有意思表示能力并不影響行政行為的成立。而之所以產(chǎn)生意思表示能力有無是否影響行政行為證立的分歧,可能與行政法上行政行為的意思表示要素與民法上的民事行為意思表示要素未加嚴格區(qū)分有關(guān)[23]。無論是公務員的意思表示,還是人工智能的意思表示,其在行政行為的做出過程中都應視為行政主體的意思表示?!凹幢闶褂每勺孕懈兄?、思考和行動的人工智能機器,雖然會出現(xiàn)行政機關(guān)不可預測的情形,但根據(jù)行政行為意思表示的客觀推定原理,此時行政機關(guān)的意思將從機器對相對人權(quán)利義務是否直接產(chǎn)生影響的角度予以推定。無論如何,在行政法上,全自動具體行政行為都不會因缺乏意思表示要素而不被證立?!盵6]174因此,有學者認為,自動化行政行為,乃至完全自動化行政行為在我國也并不存在理論障礙[8]。即便自動化行政與人工智能行政不能完全等同,由于是否具有意思表示能力并不成為行政行為成立與否的要素,因此人工智能情境下的行政行為是當然成立的。
盡管人工智能是否具有意思表示能力并不影響行政行為的成立與否,但并不意味著行政法能夠承認人工智能進行行政裁量。行政裁量所具有的內(nèi)在構(gòu)造結(jié)構(gòu)制約著人工智能條件下的行政裁量。
行政裁量的內(nèi)部構(gòu)造即裁量存在于何處的問題。只有明確行政裁量是什么,才能知曉行政裁量存于何處。因此,探討人工智能能否進行行政裁量,必須厘清行政裁量的內(nèi)在構(gòu)造。傳統(tǒng)上,關(guān)于行政裁量的內(nèi)部構(gòu)造,產(chǎn)生過裁量“一元論”和“二元論”的區(qū)分。裁量二元論堅持將裁量問題與法律問題區(qū)別開來,裁量一元論正好相反,認為裁量問題與法律問題并非各自獨立的二元,所有的行政裁量都是法律授權(quán)的結(jié)果 ,根本不存在不受法律約束的自由裁量[24]。但是不管是裁量一元論還是裁量二元論,在裁量的構(gòu)成上都存在著效果裁量與要件裁量,只不過一元論將效果裁量與要件裁量統(tǒng)合在一元之中,都要接受法律的約束以及司法監(jiān)督,而二元論則將效果要件排除在司法審查之外。探討人工智能行政裁量問題有必要在效果裁量與要件裁量的架構(gòu)下進行。
所謂“要件裁量”,其主要過程包括以下幾個步驟:第一步,在行政過程中通過查找證據(jù)來確定法律事實;第二步,根據(jù)初步確定的法律事實搜尋對應的法律規(guī)定,同時針對不確定的法律概念進行法律解釋;第三步,將確定的法律事實帶入法律規(guī)范,判定其是否符合相關(guān)的法律要件,即要件裁量的實質(zhì)就是法律的“涵攝”(或稱為“等置”)過程。所謂“效果裁量”是指行政主體完成法律涵攝過程之后在選擇行為的效果上所享有的裁量自由。具體而言,效果裁量包括決定裁量和選擇裁量,前者指行政主體選擇做出或者不做出某種行政決定,后者指在做出行政決定時在時間、程序以及內(nèi)容上的不同選擇[25]31-40。以《中華人民共和國治安管理處罰法》第二十六條為例,“有下列行為之一的,處五日以上十日以下的拘留,可以并處五百元以下罰款;情節(jié)較重的,處十日以上十五日以下拘留,可以并處一千元以下罰款:(一)結(jié)伙斗毆的;(二)追逐、攔截他人的;(三)強拿硬要或者任意損毀、占用公私財物的;(四)其他尋釁滋事行為?!焙螢椤扒楣?jié)較重”就涉及要件裁量中的不確定法律概念,“處五日以上十日以下的拘留,可以并處五百元以下罰款”“處十日以上十五日以下拘留,可以并處一千元以下罰款”等屬于效果裁量。以《突發(fā)事件應對法》第五十條,“社會安全事件發(fā)生后,組織處置工作的人民政府應當立即組織有關(guān)部門并由公安機關(guān)針對事件的性質(zhì)和特點,依照有關(guān)法律、行政法規(guī)和國家其他有關(guān)規(guī)定,采取下列一項或者多項應急處置措施……”“事件的性質(zhì)和特點”即是要件裁量中的不確定法律概念,可采取多種措施則是效果裁量。無論是要件裁量中不確定法律概念的解釋以及法律要件的判斷補充,還是效果裁量中行為的選擇,都涉及人的認知問題,若以人工智能代替人類進行判斷則可能會帶來不同的效果。
盡管近年來我國的行政法適用多未對法規(guī)范的邏輯構(gòu)成進行分析,在行政實務中以及司法審判中并沒有對行政裁量中的不確定法律概念與效果裁量做出二元區(qū)分,而是籠統(tǒng)地將行政主體適用法律規(guī)范的自由選擇視為行政裁量,傾向于支持“統(tǒng)一裁量觀”。但是,無論是行政實務部門制定的行政裁量基準,還是司法部門對行政裁量怠惰、逾越以及濫用的司法審查,其基本框架都是在要件裁量和效果裁量的架構(gòu)下進行的。就人工智能參與當前的行政活動開展而言,其更多地適用于羈束行為中的事實認定,即非裁量行為居多。受制于人工智能目前發(fā)展的技術(shù)局限性,人工智能尚未能有效滲透于行政裁量。但是伴隨著人工智能的迅速發(fā)展,人工智能是否能夠進行行政裁量逐漸有了探討的空間。因此,有必要在法教義學的框架下,從行政裁量內(nèi)在構(gòu)造中的要件裁量和效果裁量出發(fā)進行分析。
首先,就行政裁量中的要件裁量而言,其核心在于對法律要件中的不確定法律概念進行判斷認知。盡管有學者否定要件裁量的存在,認為不確定法律概念的解釋和適用實質(zhì)上只有唯一的正解,對正解的求解過程本質(zhì)上就是主觀認識與客觀實際相符合的過程,并不涉及人的意志[26]。但是,正如有學者分析的那樣,不確定法律概念始終存在蓋然性的判斷,要最終確定法律適用的內(nèi)涵,不可避免摻雜著人的價值判斷等意志作用,“所謂的認識作用和意志作用并不能作出明確的區(qū)分,故而否定要件裁量的學說是缺乏足夠的證據(jù)的”[25]33??梢姡瑢τ诓淮_定法律概念的理解,始終包含著人的主觀認知和意志作用。行政法中的諸如公共利益、公益事業(yè)、情節(jié)嚴重、必要性、公共服務、公共安全等不確定法律概念的法律適用過程,必然涉及行政主體的主觀認知與意志作用,更確切地說要依賴于行政主體的載體——得到授權(quán)的作為自然人的公務人員的權(quán)衡。而作為自然人的公務人員,只有在全面謹慎評估和權(quán)衡各種要素的前提下,才有可能公平公正進行行政裁量,促進裁量均衡。而綜合權(quán)衡的過程,必然會涉及個案的深層情況以及錯綜復雜的利益衡量,人的價值觀、情感等主觀因素都可能滲入行政裁量之中。作為人工智能,有這個能力嗎?有學者認為,“不確定法律概念會影響法律要件中事實認定的準確性,人工智能對此難以個案權(quán)衡,有可能加劇事實認定的不準確”[4]86。但正如前文所言,籠統(tǒng)地談人工智能是否有類似人的權(quán)衡能力是無意義的,人工智能的層級劃分中,弱人工智能毫無疑問尚不具備這樣的能力,但是強人工智能的情境下不排除會具有此項能力。
其次,就行政裁量中的效果裁量而言,由人工智能進行決定裁量和選擇裁量可能更難。按照目前學者們的多數(shù)看法,“效果裁量=要件裁量+適當選擇”以及與之類似的“統(tǒng)一裁量觀”已經(jīng)占據(jù)主流觀點。也是說,效果裁量以要件裁量為前提,甚至在部分行政法學者的眼中,效果裁量是不存在的,一旦法律要件得到補充,所謂的效果選擇就是唯一的[27]。行政機關(guān)固然有權(quán)決定是否在實際的行政實踐中引入人工智能技術(shù),甚至決定是否采取裁量措施,但是如果法律要件裁量中的不確定法律概念尚不能得到人工智能的準確界定,那么此時探討人工智能是否能夠進行效果裁量就是毫無意義的。人工智能參與行政決策必然包含三個環(huán)節(jié): 第一個環(huán)節(jié),信息獲取,即人工智能技術(shù)將行政過程中的人、時、地等要素轉(zhuǎn)化為有待進一步識別和處理的信息,本質(zhì)上是進行初步的事實認定; 第二個環(huán)節(jié),信息處理,即將第一步獲取的案件事件進行抽象處理,并將其與所儲備的法律要件進行匹配;第三個環(huán)節(jié),信息輸出,即根據(jù)對應的法律規(guī)范輸出相應的法律效果。理想中的模式是人工智能系統(tǒng)能夠如“自動售貨機”一樣進行輸出,從而提高行政效率。不過,人工智能算法中的這種代碼規(guī)則會忽視問題的復雜性,即便在強人工智能階段其能否應對問題的復雜性仍然是存疑的。
綜上所述,探討人工智能系統(tǒng)能否進行行政裁量,始終繞不過法律規(guī)范中的要件裁量,其核心在于人工智能系統(tǒng)能否對不確定法律概念進行認知和判定。在當前個案中的行政裁量中,人工智能都是處于弱人工智能階段,只能發(fā)揮輔助作用,只能參與相對簡單而重復的行政活動,而不能發(fā)揮實質(zhì)性的決定作用。雖然不排除伴隨著人工智能的迅速發(fā)展,今后人工智能具有實質(zhì)參與行政裁量的可能性,但是就目前以及可以預期的較長時間內(nèi)而言,探討人工智能行政裁量問題顯得過于超前,對當前的行政實踐指導意義不大(見表1)[28]。
雖然當前的人工智能技術(shù)尚未對行政裁量治理帶來根本性挑戰(zhàn),人工智能當前所扮演的角色仍然僅僅只是助手,但是人工智能迅速發(fā)展所帶來的技術(shù)進步確實對行政裁量治理研究提出了新的課題。
行政法上行政行為的建構(gòu)主要通過行政主體概念的擬制來實現(xiàn),因此正如前文所述,有無意思表示能力并不影響行政行為的證立。但是人工智能情境下,行政主體實施行政行為的載體由自然人變?yōu)槿斯ぶ悄芟到y(tǒng),也就是我們所謂的智能機器,卻可能帶來裁量治理的新問題,即便處于弱人工智能輔助階段。這其中扮演關(guān)鍵角色的就是算法偏見與歧視。
算法可以理解為人類和機器交互的決策,即人類通過代碼設(shè)置、數(shù)據(jù)運算與機器自動化判斷進行決策的一套機制[29]。算法從數(shù)據(jù)輸出的角度看是公平的,同樣的數(shù)據(jù)輸入得出同樣的輸出結(jié)果,并且效率更高,推送的服務更加精準,但是如果從算法本身設(shè)計的角度看,算法設(shè)計之初便可能存在歧視與偏見。例如,2020年引起社會廣泛關(guān)注的外賣騎手拼命送餐事件就是例證。配送外賣騎手在強大的系統(tǒng)驅(qū)動下,為避免差評、維持收入,不得不超速、違章,直接導致外賣員遭遇交通事故的數(shù)量急劇上升。這實際上就是由于算法設(shè)計的不合理所導致的。算法本身并不是一種價值完全中立的活動,算法設(shè)計雖然依賴于數(shù)理統(tǒng)計和大數(shù)據(jù),但其中也難免存在價值判斷,不同的對象、不同的風險所給予的權(quán)重是不同的。設(shè)計者的局限與偏見、信息不充分等因素會滲入算法系統(tǒng)之中,甚至開發(fā)者和設(shè)計者本身也未必能夠意識到。
就行政活動而言,算法行政將導致專家意見的主導地位讓位于數(shù)據(jù)和算法,軟件編碼和統(tǒng)計操作趨向于取代法律規(guī)則的現(xiàn)實困境。以往,行政主體在進行行政裁量時,特別是涉及行政領(lǐng)域重大問題的行政裁量時,往往會聽取專家意見,但是如果數(shù)據(jù)和算法在行政決策咨詢中占據(jù)主導地位,那么算法偏見與歧視必然影響行政決策的公平性與公正性。特別是,由于算法具有形式上的中立性,算法之中潛藏的偏見和歧視并不是行政公務人員能夠輕易發(fā)現(xiàn)的,只有出現(xiàn)嚴重后果后才能引起行政主體的關(guān)注。同時,有學者認為,根據(jù)以往行政經(jīng)驗所積累的數(shù)據(jù)并結(jié)合其他重要因素,將行政裁量基準提前在電腦程序中予以設(shè)定,能夠促使裁量行為更為精準[30]。固然,算法作用于行政裁量從形式看確實能夠促進裁量基準更為公平,但是就實際行政實務而言,裁量基準設(shè)置的格次大小、裁量的社會效果以及倫理問題等這些都是算法程序所無法解決的。以行政處罰為例,罰款處罰往往還需要考慮相對人的經(jīng)濟承受能力并且要遵照處罰與教育相結(jié)合的原則,而這些都是算法行政所無法達到的。行政自動化帶來個案正義的喪失,以及事后修正所帶來的行政成本的增加,這些問題都是需要進一步探討解決的。
人工智能所帶來的自動化技術(shù)無論是對行政相對人的實體性權(quán)利,還是對程序性權(quán)利都帶來了挑戰(zhàn)。例如,現(xiàn)實行政執(zhí)法中的自動化技術(shù),雖然顯著提高了行政執(zhí)法效率,但是也帶來行政處罰執(zhí)法密度的失衡。在杜寶良案中,由于當事人在同一地點被電子監(jiān)控反復抓拍105次,交通執(zhí)法部門對其處以罰款10500元的行政處罰[31]。但相比較來說,自動化技術(shù)所帶來的程序權(quán)利侵蝕問題更為突出。由于行政程序的建構(gòu)都是圍繞作為“活著”的自然人展開,而非自動系統(tǒng)的機器,因此面對行政行為過程中“載體”的變化,傳統(tǒng)的行政正當程序受到新的挑戰(zhàn)。
首先,自動化行政導致聽證程序的缺失。在行政活動涉及行政相對人的重大利益時,行政主體在進行行政裁量時,遵循行政正當程序原則,應當聽取相對人的意見,從而平衡行政行為所關(guān)聯(lián)的利害關(guān)系人的利益,維護法律的正義價值。以《中華人民共和國行政處罰法》為例,在第三十一條、三十二條中,對告知、陳述、申辯、聽證等程序制度進行了具體規(guī)定,而諸如此類的具體行政程序在保護行政相對人權(quán)益、限制行政權(quán)等方面具有重要作用。然而,人工智能系統(tǒng)自動化卻帶來此類程序在具體行政活動中難以適用的困境,更確切地是說是自動化行政導致聽證程序的缺失。德國聯(lián)邦《行政程序法》雖然免除了行政主體的聽證義務,但是僅僅局限于簡單可重復的行政行為。
其次,自動化行政導致說明理由等程序性制度在時間上向后推移。說明理由作為良好行政的基本要求,有助于實現(xiàn)程序性權(quán)利的工具性價值與非工具性價值[32]。人工智能自動化情境下,由于算法針對特定的事項,不針對特定的人,在信息輸入進行識別和分析之后,就能按照算法程序輸出確定的結(jié)果。但是,這一過程中,無法像以“人”為中心構(gòu)造的行政程序一樣,說明理由能夠與行政活動同時進行。類似的說明理由、陳述申辯等程序只能從事前、事中向事后推移。這種推移,一方面可能會因為時間的延后,無形之中增加行政的時間成本和物質(zhì)成本;另一方面,此時行政行為可能已經(jīng)生效,通過事后的溝通能否達到事前溝通的效果值得懷疑,特別是在負擔性行政行為之中則更難實現(xiàn)。
當然,自動化技術(shù)所帶來的程序權(quán)利侵蝕并不意味著不能通過新的程序設(shè)計進行彌補。比如,交通執(zhí)法過程中,自動處罰系統(tǒng)對違法行政相對人的行為作出處罰,在自動處罰系統(tǒng)獲取證據(jù)之后,按照算法參數(shù)就能自行決定做出處罰決定。此時,可以通過網(wǎng)絡(luò)、短信等方式發(fā)送通知,如果相對人不服,可以提出申辯,要求人工介入。由于自動化技術(shù)對程序的挑戰(zhàn)是多方面的,包括聽證、調(diào)查、閱卷等多種程序性權(quán)利,因此如何設(shè)計此類彌補性程序,將成為一項挑戰(zhàn)。
行政裁量并不是純粹的行政主體的自由行為,也要接受司法審查,這一點無論是在實務界還是學術(shù)界都已經(jīng)達成共識,問題的關(guān)鍵是司法審查給予行政裁量的尊重程度該如何把握。伴隨著行政專業(yè)化越來越強,司法審查常常面對專業(yè)知識審查時的難題,而人工智能技術(shù)的發(fā)展無疑更增加了這種難度,作為外部監(jiān)督的一種方式,很可能已經(jīng)面臨“知識匱乏”的現(xiàn)實困境。
一方面,人工智能技術(shù)與行政領(lǐng)域?qū)I(yè)化的深度結(jié)合增加了司法審查的難度。人工智能行政的核心是算法,算法能否成為審查的對象?雖然有學者指出,算法可以被審查,但是面對復雜的算法規(guī)則,司法機關(guān)有能力進行審查嗎?如何判斷算法是否尊重法律規(guī)范?特別是在算法缺乏透明性的情況下,如何對其進行審查[33]?行政的領(lǐng)域劃分越來越細,專業(yè)性程度越來越高,而人們又將技術(shù)與行政的專業(yè)性深深地捆綁在一起,這無形之中導致司法審查行政行為合法性和合理性的難度加大。并且,技術(shù)是否完全中立并不能得到證立,破解技術(shù)中立難題依然是法律面臨的重大挑戰(zhàn)。盡管在美國有學者試圖用“技術(shù)性正當程序”來解決這一問題,寄希望于通過編碼公開、軟件測試和評估程序等手段來實現(xiàn)問責的目標[34]。但是關(guān)于編碼的理解,即使編碼能夠得到公開,其審查的難度也相當大,必須借助專業(yè)技術(shù)才能夠?qū)幋a程序進行解讀,而公眾能在多大程度上接受這種解釋恐怕也是未知之數(shù)。
另一方面,人工智能技術(shù)導致行政裁量責任歸屬難以確定。在自然人作為行政行為的載體時,行政行為整個過程中的責任歸屬是比較清晰的,但是在人工智能的情境下,則帶來責任歸屬上的難題。在行政主體與行政相對人的法律關(guān)系中,無論是作為自然人的公務員,還是人工智能系統(tǒng),都僅僅是行政主體開展行政活動的載體,行政行為的法律責任主體都是行政主體,由行政主體對行政相對人承擔法律責任。這一點在理論上已得到證立。不過,問題在于,人工智能情形下,作為行政主體的行政機關(guān)在承擔法律責任后如何進行內(nèi)部追責?在德、日等大陸法系行政賠償制度中,行政賠償?shù)脑蚩蓜澐譃楣珓諉T違法侵權(quán)的“人的行為”、公共設(shè)施設(shè)置和管理“物的瑕疵”兩類。究竟將人工智能歸為哪一類呢?由于人工智能與一般的靜態(tài)的公共設(shè)施差別較大,歸為哪一類恐怕都不合適,存在難以周延的矛盾。人工智能技術(shù)帶來的責任歸屬困境,或許需要另外建立一套歸責體系。
正如美國資深人工智能學者錢德拉賽拉克所言,“近些年,人工智能在很大程度上集中于統(tǒng)計學和大數(shù)據(jù)。我同意由于計算能力的大幅提高,這些技術(shù)曾經(jīng)取得過某些令人印象深刻的成果。但是我們完全有理由相信,雖然這些技術(shù)還會繼續(xù)改進、提高,總有一天這個領(lǐng)域(指AI)會對它們說再見,并轉(zhuǎn)向更加基本的認知科學研究”(5)。當前所有人工智能的探討都是建立在大數(shù)據(jù)的數(shù)理統(tǒng)計基礎(chǔ)之上,而以此為出發(fā)點,人工智能無論如何也不可能擁有人的“自主意識”和“心性”,因此人工智能與“人”存在本質(zhì)上的區(qū)別。就人工智能與行政裁量的關(guān)系而言,有無意思表示能力雖然并不影響行政行為的證立,但是受制于行政裁量內(nèi)在構(gòu)造結(jié)構(gòu)的制約,當前的人工智能僅僅能夠在簡單且重復性強的行政活動中,基于行政裁量基準提前預制算法程序輔助人工進行行政裁量。因此,我們可以得出結(jié)論:雖然人工智能對行政裁量治理提出了新課題,但是當前基于人工智能主體資格論的行政裁量并不存在。科學技術(shù)作為一種工具理性的存在,僅是達成目的的手段,它無法證明目的的正當性。在人類可理解的人工智能范疇內(nèi),作為一種科學技術(shù)存在的人工智能,始終無法逃避倫理的約束,或許這才是人工智能與行政裁量所面臨的根本性哲學問題。
注釋:
(1)據(jù)不完全統(tǒng)計,北京大學、清華大學、中國政法大學、浙江大學、華東政法大學、西南政法大學、東南大學等國內(nèi)諸多院校都開始設(shè)立人工智能法學院、法律與大數(shù)據(jù)研究中心等學術(shù)機構(gòu)。
(2)目前,我國臺灣地區(qū)法學界也有對人工智慧的關(guān)注(臺灣地區(qū)一般稱人工智能為“人工智慧”),但更多的是探討人工智慧醫(yī)事法律問題與刑事法律問題,從行政法角度研究人工智慧的并不多見。行政法學者李建良主編的《法律思維與制度的智慧轉(zhuǎn)型》也主要是基于法理學角度的分析。參見李建良:《法律思維與制度的智慧轉(zhuǎn)型》,元照出版公司2020年版。
(3)參見2017年修訂的《德國聯(lián)邦程序法》第35a條。
(4)此處“行政行為”是就具體行政行為而言的,不包括抽象行政行為。
(5)這段話來自中國科學院陸汝鈴院士的轉(zhuǎn)述,錢德拉賽拉克教授曾在給陸汝鈴院士的來信中提及此觀點。參見周志華:《機器學習》,清華大學出版社,2016年版序言。