国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自動化國家的行政法

2022-11-22 23:11卡里科利亞尼斯蘇苗罕王夢菲
法治社會 2022年1期
關(guān)鍵詞:行政法同理機(jī)器

[美]卡里·科利亞尼斯 著 蘇苗罕 王夢菲 譯

內(nèi)容提要:行政機(jī)關(guān)將日益依賴機(jī)器學(xué)習(xí)算法驅(qū)動的數(shù)字自動化。美國行政法可以適應(yīng)這樣的未來嗎?不僅高度自動化的國家完全可以符合存在已久的行政法原則,而且在實(shí)現(xiàn)行政法的專家決策和民主問責(zé)的核心價(jià)值方面,負(fù)責(zé)任地使用機(jī)器學(xué)習(xí)算法的效果可能更優(yōu)于現(xiàn)狀。顯然,算法治理有可能做出更為準(zhǔn)確的、由數(shù)據(jù)驅(qū)動的決策。此外,由于其數(shù)學(xué)特性,算法很可能成為民主機(jī)構(gòu)更為忠實(shí)的智能體(agent)。然而,即使自動化國家更為智能、具有更高問責(zé)度,它也可能存在缺乏同理心(empathy)的風(fēng)險(xiǎn)。盡管我們不應(yīng)夸大人工驅(qū)動的官僚機(jī)構(gòu)現(xiàn)在所具有的同理心程度,但是大規(guī)模轉(zhuǎn)向算法治理將給行政法帶來新的挑戰(zhàn),那就是如何確保自動化政府同時(shí)也是具有同理心的政府。

未來無極限,行政法的前景很廣闊。在近期內(nèi),美國的行政法無疑關(guān)注的是最高法院如何裁決引發(fā)行政法核心問題的案件,這些問題的例子包括禁止權(quán)力授出(nondelegation)原則和法院對行政機(jī)關(guān)所作法律解釋的尊重。但從長遠(yuǎn)來看,隨著政府和社會出現(xiàn)一些新的變化,行政法領(lǐng)域?qū)⒚媾R新的問題。即將出現(xiàn)的一項(xiàng)重大變化是行政國家自動化程度的日益加深,數(shù)字系統(tǒng),尤其是那些由機(jī)器學(xué)習(xí)算法驅(qū)動的系統(tǒng),將承擔(dān)政府的眾多任務(wù)。

行政機(jī)關(guān)現(xiàn)在承擔(dān)著發(fā)放許可證、支付款項(xiàng)、裁決爭議和制定規(guī)則等一系列工作,這些在傳統(tǒng)上都是由政府官員執(zhí)行的。但是,既不難想象,也并非不切實(shí)際的是,未來在公眾與政府打交道時(shí),他們會越來越多地發(fā)現(xiàn)自己主要是與數(shù)字系統(tǒng)而非人類官員打交道。即使在今天,計(jì)算機(jī)系統(tǒng)也越來越多地完成了長期以來一直由人類負(fù)責(zé)的傳統(tǒng)行政任務(wù)。如今,在美國很少有人在使用政府網(wǎng)站申請失業(yè)救濟(jì)、投訴或提交文件時(shí)猶豫再三,而選擇直接訪問或致電政府辦公室。聯(lián)邦政府甚至創(chuàng)建了一家在線門戶網(wǎng)站(USA.gov),為用戶訪問各種資源提供便利,現(xiàn)在公眾可以通過州和聯(lián)邦政府網(wǎng)站的廣泛網(wǎng)絡(luò)使用各種數(shù)字應(yīng)用程序了。

在過去的25年里,這種轉(zhuǎn)向與政府在線互動的發(fā)展預(yù)示著,在接下來的25年里,政府程序?qū)⒔?jīng)歷更深入、更廣泛的技術(shù)變革。除了與政府前端的通信數(shù)字化之外,未來可能還會出現(xiàn)更廣泛的后端決策自動化,盡管后端決策如今仍然由行政官員裁量決定?;蛟S只需再過幾十年時(shí)間,我們就能實(shí)現(xiàn)在采用機(jī)器學(xué)習(xí)算法構(gòu)建的自動化系統(tǒng)基礎(chǔ)上運(yùn)行的行政國家,私營部門的重要方面很大程度上也是如此。這種行政國家具有的兩項(xiàng)特征是算法裁決(algorithmic adjudication)和自動化規(guī)則制定(robotic rulemaking)。①See Cary Coglianese and David Lehr,Regulating by Robot:Administrative Decision Making in the Machine-Learning Era,105 Georgetown Law Journal 1147,1171(2017).行政機(jī)關(guān)將不再由行政官員作出裁量性決定,而是能夠依靠自動化系統(tǒng)作出這些決定,例如判斷申領(lǐng)者個(gè)人是否有資格獲得殘疾人福利。例如,我們可以對福利申領(lǐng)處理系統(tǒng)進(jìn)行設(shè)計(jì)以便自動從電子病歷中導(dǎo)入大量數(shù)據(jù),然后采用人工智能系統(tǒng)處理這些數(shù)據(jù),確定申領(lǐng)人是否達(dá)到特定的概率閾值從而具備福利申領(lǐng)的資格。②See Cary Coglianese and David Lehr,Transparency and Algorithmic Governance,71Administrative Law Review 1,9(2019).

目前政府通過行政人員決策來完成的許多任務(wù),如果完全交由自動化決策工具和計(jì)算機(jī)系統(tǒng)來執(zhí)行,行政法會如何應(yīng)對這種邁向自動化國家的轉(zhuǎn)型?行政法應(yīng)該怎樣應(yīng)對呢?

現(xiàn)有的行政法原則大多數(shù)已經(jīng)可以適應(yīng)整個(gè)行政國家廣泛采用自動化的情況。不僅各行政機(jī)關(guān)已經(jīng)長期依賴各種有形機(jī)器來實(shí)現(xiàn)自動化,而且自動化國家,或者至少是負(fù)責(zé)任的自動化國家,可以被認(rèn)為是行政法對政府基本愿景的頂點(diǎn),即立法授權(quán)的中立的公共行政。我們不需要徹底改變行政法才能讓其在自動化程度越來越高的時(shí)代運(yùn)作,因?yàn)槿绻覀兡軌蜇?fù)責(zé)任地實(shí)施自動化,它將推進(jìn)長期以來作為行政法基礎(chǔ)的民主原則和善治價(jià)值的實(shí)現(xiàn)。

盡管如此,即使在負(fù)責(zé)任的自動化國家,也會存在善治的一項(xiàng)重要因素,而且這項(xiàng)因素越來越可能隨著自動化而消失,那就是人類的同理心。即使由官員組成的官僚機(jī)構(gòu)也可能冷酷無情,但是極端自動化的時(shí)代可能會呈現(xiàn)出人類關(guān)懷的危機(jī)狀態(tài),或者更準(zhǔn)確地說,是缺乏人類關(guān)懷的危機(jī)。在日益自動化的國家中,行政法需要尋找各種方法以鼓勵(lì)各機(jī)構(gòu)確保公眾繼續(xù)有機(jī)會與人類接觸,表達(dá)他們的心聲,并讓人們了解其處境現(xiàn)狀。簡而言之,自動化國家也得是有同理心的國家。

幾十年前發(fā)起的信息技術(shù)革命幾乎沒有消退的跡象。今天的技術(shù)人員通過使用人工智能、機(jī)器學(xué)習(xí)和預(yù)測分析等高級算法技術(shù),揭示并觸及各種新領(lǐng)域。這些術(shù)語(有時(shí)互換使用)所包含的一系列工具,能夠快速處理大量數(shù)據(jù),產(chǎn)生高度準(zhǔn)確的預(yù)測,從而促進(jìn)許多不同任務(wù)的自動化。在私營部門,之前由經(jīng)過訓(xùn)練的人類處理的大量任務(wù),例如讀取胸部X光片、駕駛汽車和金融機(jī)構(gòu)發(fā)放貸款,都通過算法創(chuàng)新實(shí)現(xiàn)了自動化處理。

公共管理部門已經(jīng)注意到了私營部門的算法進(jìn)展。商業(yè)世界的一些進(jìn)展甚至與政府任務(wù)有異曲同工之處。例如,像eBay和PayPal等公司已經(jīng)開發(fā)了非常成功的自動化在線糾紛解決工具,在沒有員工直接參與的情況下也能處理投訴。③See Benjamin H.Barton and Stephanos Bibas,Rebooting Justice:More Technology,Fewer Lawyers,and the Future of Law(New York:Encounter Books,2017),pp.111-115.總的來說,政府官員在現(xiàn)代數(shù)據(jù)分析中看到了構(gòu)建可以自動化處理各種政府任務(wù)的系統(tǒng)的可能性,所有這些都有可能提高行政效率、速度、一致性和準(zhǔn)確性。

自動化行政國家之愿景的最佳例證可能是在愛沙尼亞共和國,這個(gè)波羅的海小國已經(jīng)全面擁抱數(shù)字政府,并將其作為獨(dú)特的標(biāo)志。愛沙尼亞的“e-Estonia”項(xiàng)目已經(jīng)將醫(yī)療記錄、就業(yè)信息、財(cái)務(wù)報(bào)表等大量個(gè)人信息加以數(shù)字化并安全存儲,從而改變了該國的行政管理。④See Nathan Heller,Estonia,the Digital Republic,The New Yorker,December 11,2017,(https://www.newyorker.com/magazine/2017/12/18/estonia-the-digital-republic);and Republic of Estonia,Ministry of Economic Affairs and Communications,Report of Estonia’s AI Taskforce(Tallinn:Republic of Estonia,Ministry of Economic Affairs and Communications,2019),(https://f98cc689-5814-47ec-86b3-db505a7c3978.filesusr.com/ugd/7df26f_486454c9f32340b28206e140350159cf.pdf).這些信息通過XRoad這一數(shù)字基礎(chǔ)設(shè)施實(shí)現(xiàn)交叉鏈接(cross-link),從而讓有需要的任何實(shí)體可以立即訪問個(gè)人記錄,同時(shí)遵守旨在防止不法行為的限制。廣泛數(shù)字化促進(jìn)了一系列政府服務(wù)的自動化:個(gè)人可以在不與行政官員打交道的情況下,只需傳輸他們的數(shù)字信息以完成表格并提交請求,就能輕松完成投票、申請貸款、報(bào)稅等各種行政任務(wù)。通過眾多行政程序的自動化,愛沙尼亞每年大約節(jié)省了GDP的2%。該國甚至正在探索使用自動化的“法官”裁決小額索賠糾紛。⑤See Eric Niler,Can AI Be a Fair Judge?Estonia Thinks So,Wired,March 25,2019,(https://www.wired.com/story/can-ai-be-fairjudge-court-estonia-thinks-so/).

丹麥和韓國等國在采用電子政務(wù)工具方面也處于世界領(lǐng)先地位。⑥See United Nations Department of Economic and Social Affairs,E-Government Survey 2020:Digital Government in the Decade of Action for Sustainable Development(New York:United Nations,2020),(https://publicadministration.un.org/egovkb/Portals/egovkb/Documents/un/2020-Survey/2020%20UN%20E-Government%20Survey%20(Full%20Report).pdf)美國可能還沒有實(shí)現(xiàn)相同水平的自動化政府,但是肯定也不會落后太多。美國的聯(lián)邦、州和地方機(jī)構(gòu)不僅采用了網(wǎng)絡(luò)應(yīng)用程序(如USA.gov網(wǎng)站上匯編的程序),而且開始用機(jī)器學(xué)習(xí)算法讓一系列行政決策過程實(shí)現(xiàn)自動化。在大多數(shù)情況下,行政官員仍然在一定程度上參與其中,但是大量的行政工作正越來越多地通過數(shù)字系統(tǒng)進(jìn)行。

自動化幫助美國聯(lián)邦、州和地方政府在公共項(xiàng)目管理過程中處理具有挑戰(zhàn)性的資源配置決策。美國多個(gè)州已經(jīng)實(shí)施了算法工具來幫助做出發(fā)放醫(yī)療補(bǔ)助和其他社會福利的決策,以便加快進(jìn)度并提高福利申領(lǐng)程序處理的一致性。⑦See Cary Coglianese and Lavi M.Ben Dor,AI in Adjudication and Administration,86 Brooklyn Law Review 791(2021).同樣,聯(lián)邦社會保障局利用自動化工具來支持人類上訴法官個(gè)人的工作,對每年處理多達(dá)250萬份殘疾福利申請的行政裁決程序進(jìn)行有效監(jiān)督。⑧See David Freeman Engstrom,Daniel E.Ho,Catherine M.Sharkey,and Mariano Florentino Cuéllar,Government by Algorithm:Artificial Intelligence in Federal Administrative Agencies(Washington,D.C.:The Administrative Conference of the United States,2020),(https://www-cdn.law.stanford.edu/wp-content/uploads/2020/02/ACUS-AI-Report.pdf).

有的市政當(dāng)局依靠自動化系統(tǒng)來決定將衛(wèi)生和建筑檢查員派往何處。⑨See Gabe Cherry,Google,U-M to Build Digital Tools for Flint Water Crisis,Universityof Michigan News,May 3,2016,(https://news.umich.edu/google-u-m-to-build-digital-tools-for-flint-water-crisis/);City of Chicago,Food Inspection Forecasting:Optimizing Inspections with Analytics,(https://chicago.github.io/food-inspections-evaluation/)(accessed November 21,2020);Robert Sullivan,Innovations in Identifying People Who Frequently Use Criminal Justice and Healthcare Systems,Policy Research Associates,May 16,2018,(https://www.prainc.com/innovations-identification-cj-healthcare/);Harvard Kennedy School,Data-Smart City Solutions,A Catalogue of Civic Data Use Cases:How Can Data and Analytics Be Used to Enhance City Operations?October 9,2019,(https://datasmart.ash.harvard.edu/news/article/how-can-data-and-analytics-be-used-to-enhance-city-operations-723);and University of Pennsylvania,Uses in Government,(https://www.law.upenn.edu/institutes/ppr/optimizing-government-project/government.php#municipal)(accessed November 21,2020).有的地方當(dāng)局則使用這種系統(tǒng)決定在何時(shí)何地部署社會工作者跟進(jìn)有關(guān)虐待和忽視(neglect)兒童的指控。⑩Dan Hurley,Can an Algorithm Tell When Kids Are in Danger?The New York Times Magazine,January 2,2018,(https://www.nytimes.com/2018/01/02/magazine/can-an-algorithm-tell-when-kids-are-in-danger.html).與此同時(shí),聯(lián)邦機(jī)構(gòu)已經(jīng)用算法系統(tǒng)來分析消費(fèi)者投訴,處理工傷報(bào)告,并評估公眾對擬議規(guī)則提出的意見了。?See Coglianese and Ben Dor,supra note⑦.

美國各地的刑事執(zhí)法機(jī)構(gòu)也依賴各種自動化工具。他們采用了一些工具,根據(jù)對城市中最可能發(fā)生犯罪的地點(diǎn)的預(yù)測,自動部署巡邏警察。?See Tim Lau,Predicting Policing Explained,Brennan Center for Justice,April 1,2020,(https://www.brennancenter.org/our-work/research-reports/predictive-policing-explained).許多執(zhí)法機(jī)構(gòu)還廣泛運(yùn)用自動化的人臉識別工具來識別嫌疑人或進(jìn)行安全檢查。?See Shirin Ghaffary and Rani Molla,Here’s Where the U.S.Government Is Using Facial Recognition Technology to Surveil Americans,Vox,December 10,2019,(https://www.vox.com/recode/2019/7/18/20698307/facial-recognition-technology-us-govern ment-fight-for-the-future).

監(jiān)管機(jī)構(gòu)同樣也使用了自動化工具來確定審計(jì)和執(zhí)法資源的使用對象。各州采用了數(shù)據(jù)分析技術(shù)來查找失業(yè)保險(xiǎn)項(xiàng)目存在的欺詐和錯(cuò)誤。?See Tod Newcombe,Aiming Analytics at Our $3.5 Billion Unemployment Insurance Problem,Government Technology,March 2017,(https://www.govtech.com/data/Aiming-Analytics-at-Our-35-Billion-Unemployment-Insurance-Problem.html).聯(lián)邦證券交易委員會(SEC)和國稅局(Internal Revenue Service)采用了算法工具來幫助發(fā)現(xiàn)欺詐和其他不當(dāng)行為。?See David Freeman Engstrom and Daniel E.Ho,Algorithmic Accountability in the Administrative State,37 Yale Journal on Regulation 800,815-819(2020);and Richard Rubin,AI Comes to the Tax Code,The Wall Street Journal,February 26,2020,(https://www.wsj.com/articles/ai-comes-to-the-tax-code-11582713000).

運(yùn)用諸如此類的各種方式,美國公共當(dāng)局已經(jīng)在朝向日益自動化的政府的方向上取得了長足進(jìn)步。在接下來的幾十年里,由人工智能工具驅(qū)動的自動化在政府中的應(yīng)用肯定會進(jìn)一步擴(kuò)大,并可能導(dǎo)致目前由政府雇員從事的許多工作轉(zhuǎn)型或被逐步淘汰。?Partnership for Public Service and IBM Center for the Business of Government,More Than Meets AI:Assessing the Impact of Artificial Intelligence on the Work of Government(Washington,D.C.:Partnership for Public Service and IBM Center for the Business of Government,2019),(https://ourpublicservice.org/wp/content/uploads/2019/02/More-Than-Meets-AI.pdf).行政法未來所要治理的國家將是行政自動化程度日益提高的政府。

行政法可以適應(yīng)自動化國家的發(fā)展嗎?乍一看,自動化國家的前景似乎需要對行政法進(jìn)行根本性改寫。畢竟,行政法的出現(xiàn)是為了約束行政人員的裁量權(quán),使其在法律范圍內(nèi)工作,并防止人類決策者之間的聯(lián)系可能出現(xiàn)的委托-代理問題。此外,行政法的重要信條之一是行政程序應(yīng)當(dāng)是透明的,同時(shí)能夠說明理由;對于推動自動化之新興趨勢的機(jī)器學(xué)習(xí)算法來說,這一信條似乎會成為算法應(yīng)用的障礙。?這種信條既反映在正當(dāng)程序的概念中,也反映在行政行為不得武斷和恣意的一般性標(biāo)準(zhǔn)中。這是因?yàn)闄C(jī)器學(xué)習(xí)算法有時(shí)也被稱為“黑盒”算法,它所具有的一些特性使其晦澀難懂,難以解釋。在傳統(tǒng)算法中,變量是由人類選擇的,結(jié)果系數(shù)可以用來解釋因變量中特定數(shù)量的變化,而學(xué)習(xí)算法則有所不同,它能在數(shù)據(jù)中有效地發(fā)現(xiàn)其中存在的模式,并不產(chǎn)生將解釋力與特定變量相關(guān)聯(lián)的結(jié)果。數(shù)據(jù)科學(xué)家當(dāng)然能夠理解并解釋機(jī)器學(xué)習(xí)算法的目標(biāo)和一般屬性,但總的來說這些算法都有一定程度的自主性,也因此被冠以“學(xué)習(xí)”之名,而這可能會使人更難準(zhǔn)確地解釋其做出任何特定預(yù)測的原因。它們通常無法為證明行政決策合理性的這類因果陳述提供任何依據(jù)(例如“因?yàn)閄導(dǎo)致Y,所以X是正當(dāng)?shù)摹保?/p>

因此,考慮到自動化國家的未來是建立在機(jī)器學(xué)習(xí)系統(tǒng)基礎(chǔ)之上,對透明度的關(guān)切是合理的。但是,即使是輕微的額外反思,這些擔(dān)憂似乎既不會對依賴機(jī)器學(xué)習(xí)自動化構(gòu)成內(nèi)在障礙,也不一定需要對美國行政法進(jìn)行根本性改革以適應(yīng)自動化國家。即使根據(jù)《行政程序法》第706節(jié)規(guī)定的武斷恣意標(biāo)準(zhǔn),行政法也從未苛求接近絕對的透明,或者要求一絲不茍或詳盡的推理。?See Cary Coglianese and David Lehr,supra note②,at 26-29.根據(jù)現(xiàn)有法律原則,行政機(jī)構(gòu)依靠機(jī)器學(xué)習(xí)系統(tǒng)時(shí),如果用一般性的術(shù)語解釋該算法是如何設(shè)計(jì)的,并將其結(jié)果與現(xiàn)有程序所產(chǎn)生的結(jié)果進(jìn)行比較,以此證明其運(yùn)作符合算法設(shè)計(jì)要求,應(yīng)該能夠滿足任何說明理由義務(wù)的要求。充分的解釋可能只涉及描述所使用算法的類型,披露搭建算法所要滿足的目標(biāo),并顯示該算法是如何處理某類數(shù)據(jù)并生成結(jié)果,以及這些結(jié)果表明符合該算法所定義的目標(biāo)與目前的程序一樣好甚至更好。

這種解釋實(shí)際上與行政官員目前使用物理機(jī)器而非數(shù)字機(jī)器時(shí)的解釋類似。例如,為了證明對未在低溫下儲存易腐爛食品的食品加工者實(shí)施的行政處罰是合理的,行政官員不需要詳細(xì)解釋溫度計(jì)如何工作,只需要證明它準(zhǔn)確讀取了溫度計(jì)顯示度數(shù)即可。長期以來,法院一直將物理機(jī)器的儀器有效性視為使用該儀器的行政行為的充分依據(jù)。此外,在行政官員依賴復(fù)雜儀器或數(shù)學(xué)分析的情況下,法院通常會尊重行政官員的專業(yè)知識。事實(shí)上,在Baltimore Gas & Electric Co.v.Natural Resources Defense Council中,美國最高法院呼吁法院在行政機(jī)構(gòu)“在其特殊專業(yè)領(lǐng)域內(nèi),在科學(xué)前沿進(jìn)行預(yù)測”的時(shí)候,保持“最大程度尊重”的態(tài)度。?462 U.S.87,103(1983).最近,在Marsh v.Oregon Natural Resource Council中,最高法院指出,只要行政決定“‘需要高度的技術(shù)性專業(yè)能力’,我們必須尊重‘負(fù)責(zé)行政機(jī)關(guān)的知情決定權(quán)’”。?490 U.S.360,371(2011),quoting Kleppe v.Sierra Club,427 U.S.390,412(1976).下級法院遵循這些指示,支持了行政機(jī)關(guān)在各種場景下依賴復(fù)雜算法(即使不是機(jī)器學(xué)習(xí)算法)作出的決定。

當(dāng)技術(shù)和統(tǒng)計(jì)技術(shù)在機(jī)器學(xué)習(xí)時(shí)代變得更加復(fù)雜時(shí),很難看到最高法院對法官提供獨(dú)立技術(shù)評估的能力有更多信心。除非最高法院有新的來源獲得這種信心,并放棄它在Baltimore Gas &Electric Co.v.Natural Resources Defense Council和Marsh v.Oregon Natural Resource Council中采 取的立場,否則,行政法上的說明理由義務(wù)似乎并不能成為行政機(jī)構(gòu)更廣泛地依賴基于機(jī)器學(xué)習(xí)或其他先進(jìn)預(yù)測技術(shù)系統(tǒng)的任何不可逾越的障礙,即使今天人們可以合理地稱之為“黑箱算法”。將機(jī)器學(xué)習(xí)算法描述為黑箱,這種說法在未來幾十年似乎將不再合適,因?yàn)槟壳皵?shù)據(jù)科學(xué)家正在進(jìn)行大量工作以開發(fā)先進(jìn)技術(shù),試圖更好地解釋這種復(fù)雜算法的輸出。?See Cary Coglianese and David Lehr,supra note②,at 49-55.“可解釋的”人工智能技術(shù)的進(jìn)步可能只會讓自動化與長期存在的行政法價(jià)值觀更加相容。

當(dāng)然,上述這一切并不是說,在設(shè)計(jì)或操作其系統(tǒng)的問題上,行政機(jī)關(guān)將會或者應(yīng)當(dāng)一直得到尊重。根據(jù)Motor Vehicle Manufacturers Association v.State Farm Insurance Co.提出的標(biāo)準(zhǔn),行政機(jī)關(guān)仍然需要提供有關(guān)其自動化系統(tǒng)背后的目的及其通常如何運(yùn)作的基本信息。?463 U.S.29(1983).他們需要表明他們已經(jīng)仔細(xì)考慮了關(guān)鍵的設(shè)計(jì)選項(xiàng)。他們也可能需要通過公認(rèn)的審核和驗(yàn)證工作來證明這些系統(tǒng)確實(shí)能夠運(yùn)行并生成預(yù)期的結(jié)果。?在放棄以人為基礎(chǔ)的程序現(xiàn)狀之前,應(yīng)進(jìn)行驗(yàn)證,包括在隨機(jī)選擇的案件上測試算法,這些案件也是由人類按照正常程序決定的。人類專家小組可以對數(shù)字系統(tǒng)的結(jié)果和最初人類決策者之間的差異進(jìn)行更嚴(yán)格的審查。但是,這一切都意味著,幾乎可以肯定的是行政機(jī)關(guān)可以提供必要的信息以證明其系統(tǒng)產(chǎn)生的結(jié)果是合理的。換句話說,長期存在的行政法原則似乎已經(jīng)可以適應(yīng)自動化時(shí)代。

從一些重要的方面看,向自動化行政的轉(zhuǎn)變甚至可以說是對行政法背后原則的某種神化。許多行政法規(guī)范聚焦的是行政官員根據(jù)授權(quán)行使裁量權(quán)時(shí)所產(chǎn)生的潛在問題。通過行政的自動化,這些潛在問題可以得到緩解,而隨著某些政府任務(wù)的自動化,人類可能會強(qiáng)化對裁量權(quán)的控制。

自動化可以推進(jìn)長期以來構(gòu)成美國行政法主要特征的兩大主題:一項(xiàng)主題關(guān)注的是確保可以對行政權(quán)力的行使進(jìn)行民主問責(zé);另一項(xiàng)主題是試圖確保這種權(quán)力是基于可靠專家判斷的。例如,《行政程序法》規(guī)定的武斷恣意標(biāo)準(zhǔn)背后的說明理由義務(wù)就反映了這兩項(xiàng)主題。行政決定的說明理由作為一個(gè)基礎(chǔ),既可以有助于確保各行政機(jī)關(guān)忠實(shí)于其民主任務(wù),又可以將其決定建立在合理的證據(jù)和分析基礎(chǔ)之上。類似地,白宮對未來規(guī)章的制度化審查,既有利于加強(qiáng)對民選總統(tǒng)的問責(zé),又能通過要求行政機(jī)關(guān)開展利益成本分析來促進(jìn)其專業(yè)決策。?這種規(guī)制審查制度的基本內(nèi)容,參見Executive Order 12866 of September 30,1993 Regulatory Planning and Review,58 Federal Register 51735(1993).

同樣,在Chevron v.Natural Resources Defense Council這一被廣泛引用的判決中,最高法院在支持司法尊重行政機(jī)關(guān)的法律解釋,同時(shí)強(qiáng)調(diào)了民主問責(zé)制和實(shí)質(zhì)性專業(yè)知識這兩項(xiàng)理由,這么做絕不是偶然的。?467 U.S.837(1984).作為正式事項(xiàng),最高法院認(rèn)為雪佛龍尊重原則的基礎(chǔ)是國會明確或隱含地將澄清或填補(bǔ)空白的權(quán)力授予行政機(jī)關(guān)。See Cary Coglianese,Chevron’s Interstitial Steps,85 George Washington Law Review1339,1347-1351(2017).它強(qiáng)調(diào)了行政機(jī)關(guān)是如何位于“政府的政治分支”,以及他們?nèi)绾瓮瑫r(shí)擁有“豐富的專業(yè)知識”,從而比法院更適合對模棱兩可的法定術(shù)語之含義作出判斷。?467 U.S.837,865.盡管雪佛龍?jiān)瓌t(the Chevron doctrine)本身的未來似乎是不確定的,但是最高法院對問責(zé)和專業(yè)知識的強(qiáng)調(diào)不太可能消失,因?yàn)樗鼈兪切姓卫淼墓逃衅焚|(zhì)。

機(jī)器學(xué)習(xí)和自動化可以提高問責(zé)和專業(yè)知識這兩種品質(zhì)。自動化最明顯的作用可能是有助于實(shí)現(xiàn)專家治理的目標(biāo)。當(dāng)自動化系統(tǒng)提高行政決策的準(zhǔn)確性的同時(shí),必然會促進(jìn)行政法提高行政機(jī)關(guān)提高專業(yè)能力的目標(biāo),這也正是機(jī)器學(xué)習(xí)和其他數(shù)據(jù)分析技術(shù)看起來前景可期的原因。在專家治理方面,人工智能有望提供最先進(jìn)的技術(shù)。例如,退伍軍人管理局(Veterans Administration)最近選擇用自動化算法系統(tǒng)來預(yù)測哪些退伍軍人自殺的風(fēng)險(xiǎn)更高(因此需要更緊急的關(guān)懷),因?yàn)檫@個(gè)分析系統(tǒng)甚至比經(jīng)驗(yàn)豐富的精神科醫(yī)生更為智能。?Benedict Carey,Can an Algorithm Prevent Suicide?The New York Times,November 23,2020,(https://www.nytimes.com/2020/11/23/health/artificial-intelligence-veterans-suicide.html).退伍軍人管理局的一位精神病學(xué)家指出,“事實(shí)是,我們不能依靠經(jīng)過訓(xùn)練的醫(yī)學(xué)專家來識別真正處于高風(fēng)險(xiǎn)的人,(因?yàn)樗麄儯┎簧瞄L這一點(diǎn)。”?Id.

類似地,當(dāng)涉及到行政法的其他主要目標(biāo)——民主問責(zé)時(shí),自動化系統(tǒng)也能起到推動作用。自動化具有民主優(yōu)勢,這一點(diǎn)初看起來似乎與直覺相悖:基于機(jī)器的治理似乎很難與林肯提出的“民治”政府概念相一致。但是,現(xiàn)實(shí)是自動化系統(tǒng)本身仍然需要能夠設(shè)計(jì)、測試和審計(jì)這些系統(tǒng)的人。只要設(shè)計(jì)者和監(jiān)督者按照相關(guān)法律用與行政機(jī)關(guān)設(shè)定的參數(shù)相一致的方式操作系統(tǒng),自動化系統(tǒng)本身就可以預(yù)防由數(shù)以千計(jì)的行政官員實(shí)施重大國家項(xiàng)目和政策時(shí)可能會出現(xiàn)的偏離和推諉現(xiàn)象。即使是根據(jù)國會授權(quán)制定新的規(guī)則,行政機(jī)關(guān)也很可能會發(fā)現(xiàn),自動化促進(jìn)而非削弱了民主問責(zé)制。機(jī)器學(xué)習(xí)算法本身的特性會要求一定程度的問責(zé)制。這些算法如果要發(fā)揮作用,不僅依賴“明確性原則(intelligible principle)”提供指引,還需要有可用數(shù)學(xué)術(shù)語精確說明的原理。?關(guān)于明確性原則學(xué)說的討論,參見Cary Coglianese,Dimensions of Delegation,167 University of Pennsylvania Law Review1849(2019).如此一來,自動化很可能推動在法律中對行政目標(biāo)作出更明確的規(guī)定,甚至超過法院可能復(fù)興禁止權(quán)力授出原則時(shí)要求規(guī)定的明確性。

雖然為了確保所創(chuàng)造的自動化系統(tǒng)符合以民主方式確認(rèn)的價(jià)值觀,對自動化系統(tǒng)設(shè)計(jì)和開發(fā)過程的監(jiān)督仍然很重要,但是自動化系統(tǒng)一旦投入運(yùn)行,它們就會大幅減少出現(xiàn)俘獲和腐敗的機(jī)會,而這些問題都是行政法長期以來試圖防止的。人類可能會追求自己的狹隘利益而非更廣泛的公眾利益,而算法編程則是為了優(yōu)化其設(shè)計(jì)者所定義的各項(xiàng)目標(biāo)。只要這些設(shè)計(jì)者向公眾負(fù)責(zé),只要系統(tǒng)目標(biāo)是按照相關(guān)法律的規(guī)定,以非自利方式定義的,那么,算法本身就不會產(chǎn)生俘獲和腐敗的風(fēng)險(xiǎn)。重要的是,它們在實(shí)施法律時(shí)比行政官員更具有可問責(zé)性。

自動化系統(tǒng)并非萬能靈藥,負(fù)責(zé)任地開發(fā)和使用自動化系統(tǒng)亦非易事。它們當(dāng)然可以在法律和道德上有問題的情況下使用。此外,行政機(jī)關(guān)使用自動化系統(tǒng),依然要受到行政法以外的約束,例如,根據(jù)《憲法》第一修正案或平等保護(hù)條款(Equal Protection Clause)適用于所有政府行為的法律約束。事實(shí)上,算法偏見的可能性所引發(fā)的對平等的關(guān)切,很可能成為自動化系統(tǒng)在未來幾年內(nèi)所面臨的最突出的法律問題。人類決策顯然存在偏見,但機(jī)器學(xué)習(xí)算法也存在偏見,尤其是當(dāng)用于訓(xùn)練這些算法的基礎(chǔ)數(shù)據(jù)已經(jīng)包含(人為制造的)偏見時(shí)。盡管如此,如果沒有獨(dú)立的敵意表現(xiàn),基于機(jī)器學(xué)習(xí)算法的自動化系統(tǒng)很可能會順利通過平等保護(hù)原則的審查,至少在平等保護(hù)原則沒有隨著時(shí)間推移而發(fā)生太大變化時(shí)是如此。?See Washington v.Davis,426 U.S.229,239(1976).

即使行政官員選擇采用包括種族、性別或其他受保護(hù)的變量類型的數(shù)據(jù),政府使用機(jī)器學(xué)習(xí)算法也能夠避免根據(jù)平等保護(hù)條款的分析對其行為提起訴訟。只要算法編程時(shí)所要實(shí)現(xiàn)的目標(biāo)不是以這種受保護(hù)的分類來表述的,我們就很難,甚至不可能證明算法將某類變量作為任何特定結(jié)果的決定性依據(jù)。這些算法生成的結(jié)果來自有效的自主數(shù)學(xué)過程,這些數(shù)學(xué)過程可以發(fā)現(xiàn)變量之間的模式和不同變量之間的關(guān)系??梢酝茢嗟氖?,在種族或其他受保護(hù)的階級在政府決策中被賦予了明確的甚至是決定性的權(quán)重時(shí),機(jī)器學(xué)習(xí)算法將很少會支持根據(jù)已經(jīng)被最高法院否定的階級相關(guān)變量而做出的決定。?See Fisher v.University of Texas at Austin,133 S.Ct.2411(2013);Grutter v.Bollinger,539 U.S.306(2003);Gratz v.Bollinger,539 U.S.244(2003);and Cary Coglianese and David Lehr,supra note①,at 1147.即使在使用階級變量的數(shù)據(jù)時(shí),機(jī)器學(xué)習(xí)算法的使用,整體上來說也可能會給受保護(hù)階級的成員帶來更好的結(jié)果。?對算法公平的技術(shù)問題所作的清晰解釋,參見Michael Kearns and Aaron Roth,The Ethical Algorithm:The Science of Socially Aware Algorithm Design(New York:Oxford University Press,2019),pp.57-93.圍繞數(shù)字算法如何產(chǎn)生比人類程序更公平的結(jié)果而展開的令人信服的討論,參見Sandra G.Mayson,Bias In,Bias Out,128 Yale Law Journal 2218,2277-2281(2019).

此外,隨著對基于算法的自動化系統(tǒng)的依賴不斷加深,政府將獲得一種新的能力,即通過對其算法進(jìn)行數(shù)學(xué)調(diào)整,減少不必要的偏見,有時(shí)對準(zhǔn)確度并不會產(chǎn)生明顯影響。?例可參見Richard A.Berk and Arun Kumar Kuchibhotla,Improving Fairness in Criminal Justice Algorithmic Risk Assessments Using Conformal Prediction Sets(2021),arXiv:2008.11664[stat.AP];James E.Johndrow and Kristian Lum,An Algorithm for Removing Sensitive Information:Application to Race-Independent Recidivism Prediction,13 Annals of Applied Statistics 189(2019);Jon Kleinberg,Jens Ludwig,Sendhil Mullainathan,and Cass R.Sunstein,Discrimination in the Age of Algorithms,10 Journal of Legal Analysis 113(2018).以這種方式消除算法偏見肯定比目前消除人類隱性偏見更容易。在未來的自動化國家里,政府可能會發(fā)現(xiàn)自己不太會受到過度歧視的指控。

基于上述理由,長期存在的行政法原則,甚至憲法原則,很可能將繼續(xù)在自動化國家中發(fā)揮效力,并鼓勵(lì)行政機(jī)構(gòu)負(fù)責(zé)任地行事,既能保留民主問責(zé)制,又能做出更明智、更公平的決定。但是,這并不是說現(xiàn)有的原則將一成不變。誰都不應(yīng)指望任何領(lǐng)域的法律始終一成不變。鑒于一些學(xué)者和觀察者已經(jīng)開始以批判的眼光審視政府對算法的使用,在具體針對未來行政國家的自動化特征方面,公眾態(tài)度的轉(zhuǎn)變也許將導(dǎo)致新的、可能更為苛刻的行政法原則。?例可參見,Danielle Keats Citron,Technological Due Process,85 Washington University Law Review1249(2008);Karen Yeung,Algorithmic Regulation:A Critical Interrogation,12 Regulation and Government 505(2018).

盡管政府官員無疑將會繼續(xù)強(qiáng)化自動化系統(tǒng)相關(guān)的規(guī)范和實(shí)踐,正如為了利用收益-成本分析等其他分析工具而在過去多年里實(shí)現(xiàn)的發(fā)展一樣,但是行政法的基本原理是否會在算法治理的時(shí)代發(fā)生巨大變化,這一點(diǎn)還遠(yuǎn)遠(yuǎn)沒有達(dá)到明朗的程度。?例如,行政機(jī)關(guān)在設(shè)計(jì)算法系統(tǒng)時(shí)所作的選擇,對此如何記錄的規(guī)范肯定會發(fā)展起來。例可參見Timnit Gebru,Jamie Morgenstern,Briana Vecchione,et al.,Datasheets for Datasets(2020),(https://arxiv.org/abs/1803.09010).畢竟,法官們在審查機(jī)器學(xué)習(xí)算法時(shí)會遇到許多困難,就像他們過去在行政管理的其他統(tǒng)計(jì)和技術(shù)方面所遇到的困難一樣,這可能會導(dǎo)致Baltimore Gas & Electric案所體現(xiàn)的司法尊重繼續(xù)存在。?借用伏爾泰(Voltaire)的話來說,如果Baltimore Gas & Electric案沒有發(fā)生,聯(lián)邦各級法院仍會認(rèn)為有必要給予尊重。See Adrian Vermeule,Law’s Abnegation:From Law’s Empire to the Administrative State(Cambridge,Mass.:Harvard University Press,2016).(伏爾泰曾經(jīng)說過,如果上帝不存在,就應(yīng)該創(chuàng)造一個(gè)?!g者注)此外,與其說公眾的態(tài)度轉(zhuǎn)向反對政府使用算法工具,不如說公眾的期望將受到人工智能在生活其他方面被廣泛接受的影響,甚至可能導(dǎo)致其對政府使用算法工具的肯定,而不是繼續(xù)依賴與算法相比更慢而又更不可靠的程序。出于對算法治理陷入僵化的警惕,法官和行政法學(xué)者可能會克制對自動化增加設(shè)置學(xué)理障礙的沖動。?正如Steven M.Appel和我曾經(jīng)指出的,“不難想象,在不久的將來,公眾真的會期待他們的公務(wù)員依賴這些技術(shù)”。隨著復(fù)雜機(jī)器學(xué)習(xí)算法在私營部門的迅速推廣,公眾很可能會期望政府提供類似的準(zhǔn)確性和自動化服務(wù)。Steven M.Appel and Cary Coglianese,Algorithmic Governance and Administrative Law,in Woodrow Barfield ed.,Cambridge Handbook on the Law of Algorithms:Human Rights,Intellectual Property,Government Regulation(Cambridge:Cambridge University Press,2021),pp.162,165.他們還可能會認(rèn)定現(xiàn)有的行政法理論包含了確保政府機(jī)構(gòu)負(fù)責(zé)任地使用自動化系統(tǒng)所需的內(nèi)容,這也是言之成理的。

因此,如果政府機(jī)構(gòu)希望擴(kuò)大負(fù)責(zé)任地使用經(jīng)過合理培訓(xùn)、審計(jì)和驗(yàn)證的自動化系統(tǒng),確保其符合法律要求,并提高行政機(jī)關(guān)實(shí)施關(guān)鍵任務(wù)的能力,他們幾乎不需要改變傳統(tǒng)的行政法原則就能適應(yīng)這些創(chuàng)新。行政法也不需要做太多調(diào)整(如果有的話),以確保負(fù)責(zé)任地使用算法治理??偟膩碚f,我們可以想見的是自動化的國家可以比以前更好地實(shí)現(xiàn)長期以來為行政法注入活力的善治愿景。

盡管行政法的主流原則能夠充分應(yīng)對公共部門對機(jī)器學(xué)習(xí)算法的使用,但是在自動化國家中有些重要的問題可能很容易陷入迷失。自動化國家中,政府可能會更智能,更具有民主可問責(zé)性,甚至更公平,但是它甚至可能比今天毫無生氣的官僚程序更缺乏感情。通過智能手機(jī)和自動聊天與政府進(jìn)行互動,對于在國家公園預(yù)訂露營地,甚至報(bào)稅來講都是不錯(cuò)的選擇,但是,當(dāng)政府必須作出對于個(gè)人福利產(chǎn)生深遠(yuǎn)影響的重大決策時(shí),這些互動方式可能會忽略善治的一項(xiàng)重要因素,即同理心。在這些情況下,同理心要求行政機(jī)構(gòu)提供人際互動、傾聽和表達(dá)關(guān)切的機(jī)會。未來幾十年,行政法面臨的一項(xiàng)重要挑戰(zhàn)將是尋求方法以推動自動化國家同時(shí)成為具有同理心的國家。

當(dāng)然,對同理心的渴求并不必然阻礙自動化的發(fā)展。?值得注意的是,技術(shù)人員甚至正在探索在自動化工具中構(gòu)建同理心的可能性。例可參見,Pascale Fung,Dario Bertero,Yan Wan,et al.,Towards Empathetic Human-Robot Interactions,in Alexander Gelbukh ed.,Computational Linguistics and Intelligent Text Processing(New York:Springer International Publishing,2018).如果政府順利完成向自動化國家的轉(zhuǎn)型,那么自動化就有可能提高政府對公眾提供同理心的能力,但前提是政府官員充分意識到這樣做的需要。隨著整個(gè)經(jīng)濟(jì)體越來越依賴人工智能和其他自動化系統(tǒng),這種需求將會變得更大。社會需要重視并找到新的方法來完成那些人類擅長的涉及同理心的任務(wù)。正如技術(shù)專家李開復(fù)所指出的那樣,目標(biāo)應(yīng)該是確?!叭斯ぶ悄芴幚淼氖侨粘5膬?yōu)化任務(wù),而人類……帶來個(gè)人的、創(chuàng)造性的和富有同情心的風(fēng)格。?Kai-Fu Lee,AI Superpowers:China,Silicon Valley,and the New World Order(New York:Houghton Mifflin Harcourt,2018),p.210.

公共管理專家認(rèn)識到,這是遷移到自動化國家的巨大潛在優(yōu)勢之一。它可以把政府工作人員從繁重的工作和積壓的文件中解放出來,讓他們有更多的時(shí)間和機(jī)會去聯(lián)系那些受行政決定影響的人。?自動化國家的出現(xiàn)無疑將導(dǎo)致政府勞動力的變化,就像人工智能在私營部門的擴(kuò)大使用將導(dǎo)致勞動力市場的變化一樣。David Autor and Anna M.Salomons,Is Automation Labor-Displacing?Productivity Growth,Employment,and the Labor Share,Brookings Papers on Economic Activity,March 8,2018;and David Autor,David Mindell,and Elisabeth Reynolds,The Work of the Future:Building Better Jobs in an Age of Intelligent Machines(Cambridge,Mass.:MIT Work of the Future,2020),(https://workofthefuture.mit.edu/wp-content/uploads/2021/01/2020-Final-Report4.pdf).政府工作人員越來越多地圍繞同理心組織起來,這與制造業(yè)經(jīng)濟(jì)向服務(wù)經(jīng)濟(jì)或進(jìn)一步向“共享”經(jīng)濟(jì)的更廣泛轉(zhuǎn)變相符。See Cary Coglianese,Optimizing Regulation for an Optimizing Economy,4 University of Pennsylvania Journal of Law and Public Affairs 3-4(2018).公共服務(wù)伙伴關(guān)系(Partnership for Public Service)和IBM商業(yè)與政府中心(IBM Center for Business and Government)最近聯(lián)合發(fā)布的一份研究報(bào)告解釋了這種轉(zhuǎn)變對政府雇員工作的重要性:

“許多展望人工智能在政府中更廣泛應(yīng)用的觀察者認(rèn)為,政府雇員和行政相對人之間將有更多面對面的互動,并有更多機(jī)會提供更多的個(gè)性化客戶服務(wù)。政府雇員與行政相對人開展更多接觸的轉(zhuǎn)變,預(yù)計(jì)將成為自動化行政任務(wù)若干可能的影響之一。擺脫了繁重的文書工作之后,移民官員可以花更多的時(shí)間與簽證申請人互動,或跟進(jìn)處理個(gè)人移民案件??茖W(xué)家可以把更多的時(shí)間分配給研究項(xiàng)目的參與者。政府撥款項(xiàng)目的經(jīng)理可以花更多的時(shí)間來了解和支持個(gè)別接受撥款者。一項(xiàng)研究表明,聯(lián)邦雇員現(xiàn)在平均只花2%或者每周不到一小時(shí)的時(shí)間與客戶和機(jī)構(gòu)以外的其他人溝通。與此同時(shí),公民希望政府做得更好。行政相對人與公司之間互動的體驗(yàn)推動了他們對個(gè)性化政府服務(wù)的需求。在一項(xiàng)對美國等六個(gè)國家的6000多人的調(diào)查中,44%的受訪者優(yōu)先考慮個(gè)性化政府服務(wù)?!?Partnership for Public Service and IBM Center for Business and Government,supra note ?,at 8.

不僅相當(dāng)一部分公眾已經(jīng)認(rèn)識到自己需要與政府有同理心、個(gè)性化的接觸機(jī)會,而且隨著私營部門各個(gè)組織在個(gè)性化服務(wù)方面加大投入,這也會提高和擴(kuò)大對政府具有同理心的類似期望。根據(jù)對程序公正的大量研究,我們已經(jīng)知道,政府對待公眾的方式會影響他們對所獲得結(jié)果合法性的認(rèn)知。?Allen E.Lind and Tom Tyler,The Social Psychology of Procedural Justice(New York:Springer International Publishing,1988).為了建立公眾對自動化國家的信任,政府機(jī)構(gòu)需要確保公眾仍能感受到人與人之間的聯(lián)系。正如政治哲學(xué)家Amanda Greene所指出的,“政府必須讓人看到它在真誠地關(guān)心每個(gè)人的福利。?Amanda Greene,Competence,Fairness,and Caring:The Three Keys to Government Legitimacy,Centre for Public Impact,February 27,2018,(https://www.centreforpublicimpact.org/the-three-keys-government-legitimacy/).

行政法能否有助于鼓勵(lì)有同理心的行政程序?有人可能會說,這已經(jīng)構(gòu)成了行政法上正當(dāng)程序原則的基礎(chǔ)目的。畢竟,Goldberg v.Kelly保證某些政府福利的領(lǐng)受人在福利被終止之前,有權(quán)在中立決策者面前舉行口頭聽證會,這一權(quán)利至少為受到影響的個(gè)人提供了與理論上有同理心的行政法官接觸的機(jī)會。?397 U.S.254(1970).See Lucie E.White,Subordination,Rhetorical Survival Skills,and Sunday Shoes:Notes on the Hearing of Mrs.G.,38 Buffalo Law Review 1(1990).但是,Mathews v.Eldridge所反映的如今成為經(jīng)典的程序性正當(dāng)程序測試標(biāo)準(zhǔn),幾乎完全沒有注意到在政府與公眾的互動中傾聽、關(guān)懷和關(guān)切的作用。?424 U.S.319(1976).Mathews案對程序性正當(dāng)程序的定義是基于下列三項(xiàng)因素的平衡:(1)受影響的私人利益;(2)減少決策錯(cuò)誤的可能性;(3)財(cái)政和行政負(fù)擔(dān)相關(guān)的政府利益。機(jī)器學(xué)習(xí)的自動化似乎很容易通過Mathews的權(quán)衡測試標(biāo)準(zhǔn)。其中,第一項(xiàng)因素即受影響的私人利益,與機(jī)器學(xué)習(xí)無關(guān),而根據(jù)后兩項(xiàng)因素,機(jī)器學(xué)習(xí)系統(tǒng)似乎總是表現(xiàn)良好,因?yàn)樽詣踊畲蟮膬?yōu)勢就是可以減少錯(cuò)誤和降低行政成本。

這就是現(xiàn)有的行政法原則在自動化狀態(tài)下的不足之處,也是需要更多遠(yuǎn)見的地方。聽證權(quán)和說明理由的需要不僅僅是為了實(shí)現(xiàn)準(zhǔn)確的結(jié)果,這也正是Mathews原則的框架所暗示的。相反,聽證和說明理由并不總是擅長獲得準(zhǔn)確結(jié)果,至少不像自動化系統(tǒng)那樣穩(wěn)定。2011年的一項(xiàng)研究表明,在社會安全保障局某辦公室15名最活躍的行政法官中,“不同法官批準(zhǔn)福利的比例……從不到10%到90%以上不等”。?Social Security Awards Depend More on Judge Than Facts,TRAC Social Security Administration,July 4,2011,(https://trac.syr.edu/tracreports/ssa/254/).社會保障局對這項(xiàng)研究的某些方面提出了尖銳的異議。例如,該研究顯示,同一辦公室的三名法官批準(zhǔn)不超過30%的申請人獲得福利,而另外三名法官則批準(zhǔn)超過70%的申請人獲得福利。?Id.其他研究表明,社會保障殘疾福利裁決可能存在種族差異,某些黑人申請者往往比白人申請者獲得更不利的結(jié)果。?例可參見,U.S.General Accounting Office,Racial Difference in Disability Decisions Warrants Further Investigation,B-247327(Washington,D.C.:U.S.General Accounting Office,1992),(https://www.gao.gov/assets/160/151781.pdf);and Erin M.Godtland,Michele Grgich,Carol Dawn Petersen,et al.,Racial Disparities in Federal Disability Benefits,25 Contemporary Economic Policy 27(2007).與這樣的歷史記錄不同,自動化系統(tǒng)具有獨(dú)特的優(yōu)勢,能夠提供更公平、更一致、甚至更快速的決定。

但是,對于那些向政府申請?jiān)蚱渌麤Q定的人,或者那些發(fā)現(xiàn)自己本身受到政府限制的人來說,人類仍然善于傾聽和同情他們的困境。?關(guān)于同理心在行使監(jiān)管權(quán)力中重要性的討論,see Cary Coglianese,Listening,Learning,and Leading:A Framework for Regulatory Excellence(Philadelphia:University of Pennsylvania Law School,2015),pp.23-25,(https://www.law.upenn.edu/live/files/4946-pprfinalconvenersreport.pdf).我們應(yīng)當(dāng)讓人類具有的同理心之品質(zhì)引導(dǎo)程序性正當(dāng)程序的行政法超越目前只強(qiáng)調(diào)減少錯(cuò)誤和降低成本的做法。

對一些法官來說,對具備同理心的行政法之需要,可能會讓他們發(fā)問,在自動化國家中公眾是否擁有“接受人類決策的權(quán)利”。?對該問題的完美處理,參見Aziz Z.Huq,A Right to a Human Decision,106 Virginia Law Review 611(2020).但是,并非所有的人類決策必然具有同理心。此外,接受人類決策的權(quán)利可能會帶來一種可能性,即只是為了保留人類參與的這一優(yōu)點(diǎn),法律需要接受人類決策的所有缺陷。如果事實(shí)證明自動化決策越來越比人類決策更準(zhǔn)確、更少偏見,那么接受人類決策的權(quán)利似乎會讓公眾失去因算法應(yīng)用而帶來政府績效改善的機(jī)會。

行政法不需要阻礙這些改進(jìn)。它可以在使用機(jī)器學(xué)習(xí)算法的同時(shí),推動政府尋求更多傾聽和同情回應(yīng)的機(jī)會。有時(shí),富有同情心的反應(yīng)甚至可能要求推翻自動決策,即讓人類官員表現(xiàn)出仁慈,在個(gè)案基礎(chǔ)上做出不同的決定。畢竟,自動化系統(tǒng)本身仍然會導(dǎo)致錯(cuò)誤,而聯(lián)合的人機(jī)系統(tǒng)在減少錯(cuò)誤方面有時(shí)可能比單獨(dú)操作的人或機(jī)器做得更好。然而,挑戰(zhàn)在于要確保有足夠的裁量權(quán)結(jié)構(gòu)來推翻自動化的結(jié)果,以免人類的例外情況吞噬了自動化規(guī)則。See Cary Coglianese,Gabriel Scheffler,and Daniel E.Walters,Unrules,73 Stanford Law Review 885(2021).一種解決方案可能是創(chuàng)建專門用于幫助解決這個(gè)問題的自動化系統(tǒng)。如果自動化系統(tǒng)不僅能生成結(jié)果,而且還生成對該結(jié)果的置信度預(yù)估值時(shí),那么只在系統(tǒng)的置信度預(yù)估值足夠低的情況下,才能引導(dǎo)人類超越同情的傾聽,并提供仁慈的例外。正如最高法院在Goldberg v.Kelly中堅(jiān)持對福利領(lǐng)受人終止福利前舉行聽證一樣,未來法院可以詢問特定利益是否具有足夠的品質(zhì)和重要性,從而要求行政機(jī)關(guān)為受自動化程序影響的個(gè)人提供更多的接觸和援助。各級法院可以通過這種方式強(qiáng)化行政機(jī)關(guān)工作中的最佳實(shí)踐,以提供具有同理心的接觸和援助。

最后,如果自動化國家的行政法要采用任何新權(quán)利,法院拒絕承認(rèn)接受人類決策的權(quán)利,對社會更為有利。相反,法院可以考慮并嘗試界定獲得人類同理心的權(quán)利(right to human empathy)。

猜你喜歡
行政法同理機(jī)器
行政法漏洞的認(rèn)定與填補(bǔ)——以上海市松江區(qū)“天價(jià)砍樹事件”為例
機(jī)器狗
機(jī)器狗
民法典對行政法法典化的啟示
行政法法典化之基本問題研究
同理心:“走心”的理解,勝過千言萬語!
老來更明同理心
避免同理心耗竭
未來機(jī)器城
滑落還是攀爬