国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論自動化行政中算法決策應(yīng)用風(fēng)險及其防范路徑

2021-04-17 11:10:43裴亞楠
關(guān)鍵詞:裁量決策行政

陳 飏 裴亞楠

[提要]自動化行政中算法決策應(yīng)用僅限“三大類別”,但仍無可避及與正當(dāng)程序、行政公正等原則相背離之風(fēng)險,甚至因不當(dāng)或濫用而削弱行政裁量的能動性,最終影響行政決策的準(zhǔn)確性而導(dǎo)致行政相對人權(quán)益損害等風(fēng)險。算法決策“黑箱”性特征、數(shù)據(jù)質(zhì)量瑕疵與相關(guān)制度規(guī)范缺失等是風(fēng)險產(chǎn)生的客觀成因,而行政主體對算法決策的不當(dāng)操作與過度依賴是重要的主觀成因。為防范該等風(fēng)險、促進(jìn)算法決策在自動化行政中的良性發(fā)展,在建構(gòu)因應(yīng)性的專門法律框架下,至少可從地位厘定、立法明定和程序控制等切入,以重申并堅定行政機(jī)關(guān)的主體地位、明確算法決策的工具屬性,并明晰界定自動化行政中算法決策的具體應(yīng)用場景,且須以比例原則先行完成系統(tǒng)預(yù)審,同時還須切實(shí)貫徹正當(dāng)程序控制,在督進(jìn)行政主體算法解釋責(zé)任的同時,盡速完善行政相對人的權(quán)利救濟(jì)。

算法決策技術(shù)已然涉入自動化行政應(yīng)用領(lǐng)域,2020年初疫情背景下的健康碼的開發(fā)與推廣,正是基于大數(shù)據(jù)收集的算法自主分析決策技術(shù),完成個人疫情風(fēng)險的評估,為行政機(jī)關(guān)的疫情防控應(yīng)急行動提供了技術(shù)支持,是算法決策在自動化行政領(lǐng)域中的典型應(yīng)用。但是,算法決策在自動化行政中的應(yīng)用并非全然,而僅限定以部分自動化行政、無裁量能力的完全自動化行政和有裁量能力的完全自動化行政之三大類別。盡管該等應(yīng)用確實(shí)大幅度提高了行政機(jī)關(guān)在具體行政活動的工作效率、節(jié)省各類行政資源,卻也無可避及面臨算法決策與正當(dāng)程序、行政公正等原則相背離的風(fēng)險,甚至因不當(dāng)或濫用算法決策不僅削弱行政裁量的能動性,最終還影響行政決策的準(zhǔn)確性而對行政相對人造成實(shí)質(zhì)性權(quán)益損害等風(fēng)險。上述是為算法決策在自動化行政領(lǐng)域應(yīng)用中已露端倪的諸多特定風(fēng)險,限于技術(shù)發(fā)展水平,將來定還有他類不可預(yù)測之風(fēng)險。所以,本文擇取行政法的視角,在建構(gòu)自動化行政中算法決策應(yīng)用的專門性法律框架下,通過明確自動化行政中算法決策應(yīng)用的地位厘定、立法明定與程序控制等路徑展開,以積極防范該等風(fēng)險的發(fā)生,有效規(guī)避該等風(fēng)險的后果。

一、自動化行政中的算法決策及其類別化應(yīng)用

大數(shù)據(jù)時代,自動化行政中算法決策的應(yīng)用已是大勢所趨。但是,算法決策在自動化行政中的應(yīng)用并非全然,至少當(dāng)下應(yīng)僅限于“三大類別”的應(yīng)用。在厘清算法決策、自動化行政等基本概念基礎(chǔ)上,完成自動化行政之“三大類別”的解讀與分析。

(一)算法決策與自動化行政

1.算法決策

算法是由一系列步驟分明的清晰指令組成的計算機(jī)程序。[1](P.128)算法決策作為一項新興技術(shù),具有自學(xué)性、“黑箱”性與極速性三種特性,并借助此三種特性的各自優(yōu)勢和相互作用的充分發(fā)揮,實(shí)現(xiàn)其輔助自動化行政的工具作用。

算法決策系統(tǒng)涉入的場景通常分私人生活場景和公共治理場景,并在部分場景下逐漸代替?zhèn)鹘y(tǒng)中只有人為才可進(jìn)行的工作或決策。作為算法決策基礎(chǔ)之一的機(jī)器學(xué)習(xí),具備區(qū)別于其他分析技術(shù)的三個特性[2](P.1167):(1)自學(xué)性。算法決策的結(jié)果并不完全依賴人類預(yù)先指定的預(yù)測結(jié)果。事實(shí)上,只要機(jī)器自主學(xué)習(xí)還在運(yùn)行,人類就無法真正控制、組合和比較數(shù)據(jù);因此,算法決策系統(tǒng)可以有效地、自主地尋找決策模式。(2)“黑箱”性。算法決策的分析過程是一密閉的“黑箱”性操作,其決策結(jié)果并不能被直觀解釋,當(dāng)然也就不能作為司法、行政部門行動理由基礎(chǔ)的因果解釋。(3)極速性。算法決策系統(tǒng)的整個運(yùn)行過程極其迅速,算法決策產(chǎn)生結(jié)果的過程可以縮短、甚至跳過人類深思熟慮的時間。

2.自動化行政

自動化行政,系人工智能在行政領(lǐng)域中的一種具體運(yùn)用,是指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能或者自動化系統(tǒng)代為處理,無需人工的個別介入,從而實(shí)現(xiàn)部分或全部無人化的行政活動。[3](P.140)可見,自動化行政并未完全應(yīng)用算法決策系統(tǒng)。因此,就有必要對自動化行政類型作出界定。

一項特定的行政活動可分為識別與輸入、分析與決定、輸出與實(shí)現(xiàn)三個環(huán)節(jié),并依據(jù)這三個環(huán)節(jié)各自的完成主體是人類還是自動化系統(tǒng),將自動化行政分為無自動化行政、自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政這五個類別。[4](P.83)其中,只有無裁量能力的完全自動化行政和有裁量能力的完全自動化行政這兩個類別在分析與決定環(huán)節(jié)的完成主體是自動化系統(tǒng),即直接應(yīng)用算法決策完成其行政活動。實(shí)踐中,部分自動化行政雖然沒有直接應(yīng)用算法決策完成分析與決定,但在具體場景下,已然應(yīng)用算法決策進(jìn)行輔助行政、幫助行政主體做出最終決策。

(二)部分自動化行政

在部分自動化行政中,分析與決定環(huán)節(jié)的完成主體雖然是人類;但是,行政主體仍可以應(yīng)用算法決策進(jìn)行數(shù)據(jù)的識別與分析,以此輔助行政主體作出決策。最典型的應(yīng)用場景是為行政執(zhí)法。

以國內(nèi)行政執(zhí)法論,2018年,北京、杭州先后推出了“聲吶電子眼”違法鳴笛抓拍設(shè)備。該設(shè)備通過采集聲音、車輛圖像等信息與信號,并傳輸至后臺經(jīng)算法系統(tǒng)的自動檢測與識別,完成對違法鳴笛車輛的精準(zhǔn)查控,以有效輔助交警進(jìn)行遠(yuǎn)程或現(xiàn)場執(zhí)法。①

國外行政執(zhí)法也有類似舉措。2013年,美國小城雷丁,利用加州圣克魯斯的大數(shù)據(jù)分析初創(chuàng)公司PredPol的犯罪預(yù)測軟件——收集并利用該地區(qū)的歷史犯罪數(shù)據(jù)——通過算法決策以按小時計算出最有可能發(fā)生犯罪的地點(diǎn)——被預(yù)測區(qū)域,以協(xié)助警方在對應(yīng)的時間段安排相應(yīng)的警力進(jìn)行巡邏與犯罪預(yù)防。[5](P.91)

(三)無裁量能力的完全自動化行政

無裁量能力的完全自動化行政,是指自動化系統(tǒng)可以對不需要裁量的行政活動進(jìn)行獨(dú)立的全程處理,但對于需要進(jìn)行裁量的事項不能適用。[4](P.83)實(shí)踐中多應(yīng)用于行政審批、社會信用體系建設(shè)和市政建設(shè)等情形。

第一,行政審批的特定事項。2018年6月,深圳市人民政府率先啟用“無人干預(yù)自動審批”的新型行政審批方式。②申請人無須現(xiàn)場報到,只需在線提交相關(guān)信息,審批系統(tǒng)采用算法決策技術(shù)自動核查材料完整性和準(zhǔn)確性,并決定是否進(jìn)入下一步程序。隨之,安徽、廣西等地也有相關(guān)文件陸續(xù)出臺。

第二,社會信用體系建設(shè)。社會信用體系建設(shè)中的信用評級即是通過算法治理完成信用數(shù)據(jù)的判定。算法治理包括三個“階段”[6](P.39-40):1.數(shù)據(jù)收集與存儲,是大數(shù)據(jù)不可或缺的數(shù)據(jù)監(jiān)視;2.數(shù)據(jù)挖掘,即自動處理大數(shù)據(jù),識別其間的細(xì)微關(guān)聯(lián);3.關(guān)聯(lián)數(shù)據(jù)應(yīng)用,即以概率統(tǒng)計知識,利用關(guān)聯(lián)數(shù)據(jù)預(yù)測單個行為。

第三,市政建設(shè)。如美國波士頓為解決城市道路坑洼問題,在2013年推出一款名為Street Bump的應(yīng)用軟件。借助智能手機(jī)的運(yùn)動感應(yīng)功能記錄坑洼引起的震動數(shù)據(jù)信息,并將其發(fā)送至市政府?dāng)?shù)據(jù)中心,數(shù)據(jù)中心利用算法決策自動分析傳來數(shù)據(jù),以準(zhǔn)確定位坑洼區(qū)域、及時作出修復(fù)等市政建設(shè)指令。[1](P.158)

(四)有裁量能力的完全自動化行政

有裁量能力的完全自動化行政,是指自動化系統(tǒng)具有裁量能力,可以在一定的裁量空間內(nèi)進(jìn)行完全自動化決策。[4](P.83)但是,囿于行政裁量空間的諸多不確定性、科學(xué)技術(shù)水平的客觀限定以及配套制度的缺失等諸多現(xiàn)實(shí)條件,在有裁量能力的完全自動化行政中,算法決策尚未、且將在很長一段時間內(nèi)只能作為行政輔助性工具,而不能直接作出最終的決策結(jié)果。就此,德國即以立法形式對之進(jìn)行了嚴(yán)格規(guī)定。2017年,德國在修改的聯(lián)邦《行政程序法》中引入“全自動作出的具體行政行為”概念,并在第35a條明確提出,“僅允許在羈束行政行為中應(yīng)用算法決策等全自動技術(shù),禁止在存有不確定法律概念或裁量情形的行政行為中予以應(yīng)用”。[7](P.171-172)

質(zhì)言之,在有裁量能力的完全自動化行政中,算法決策的作用惟限定于工具性地位而輔助行政機(jī)關(guān)作出最終行政決策。即藉由算法決策的數(shù)據(jù)收集與分析處理上的技術(shù)優(yōu)勢,最終可以通過數(shù)據(jù)整合為行政機(jī)關(guān)提供決策支持。如,通過算法決策對互聯(lián)網(wǎng)數(shù)據(jù)的收集與分析,行政機(jī)關(guān)可以判斷某類廣告的影響群體與傳播范圍,進(jìn)而促使行政機(jī)關(guān)政策制定以及決策的優(yōu)化。[8](P.58)顯然,行政機(jī)關(guān)正是借助算法決策的輔助,希望可以作出更富有科學(xué)性的行政決策。

二、自動化行政中算法決策的特殊風(fēng)險

隨著算法決策在自動化行政中的擴(kuò)張性應(yīng)用,更因其具有不可徹底解決的“自身弊端”,自動化行政中算法決策應(yīng)用的特殊風(fēng)險正逐層顯露。

(一)算法決策與正當(dāng)程序原則的沖突性

算法決策的“黑箱”性特點(diǎn)致使算法決策與正當(dāng)程序原則相沖突。算法決策的分析過程是一密閉的“黑箱”性操作,其決策結(jié)果并不能被直觀解釋,當(dāng)然也就不能作為司法、行政部門行動理由基礎(chǔ)的因果解釋。[2](P.1167)按照行政正當(dāng)程序基本原則要求,行政機(jī)關(guān)作出任何行政行為,特別是作出對行政相對人不利的行政行為,除非有法定保密的要求,都必須說明理由;同時,還必須聽取相對人的陳述和申辯。[9](P.74-76)正當(dāng)程序原則在增強(qiáng)公權(quán)力機(jī)關(guān)可問責(zé)性的同時,還必須保護(hù)公民的知情權(quán),保障決策結(jié)果的公平性,保護(hù)公民免遭專權(quán)獨(dú)斷。[10](P.22)

然而,自動化行政中的算法決策是通過算法內(nèi)部自主分析迅速完成的,且整個決策過程又是封閉的,行政相對人對此全無直觀感受,因而無法直接參與算法決策系統(tǒng)的內(nèi)在決策流程,更無機(jī)會要求行政主體說明理由,并聽取相對人的陳述和申辯。例如,技術(shù)公司接受行政機(jī)關(guān)委托,運(yùn)用算法決策技術(shù)開發(fā)健康碼,健康碼的生成過程自然就是不透明的。并且,實(shí)踐中健康碼的評級結(jié)果還存在一定程度的偏差,亦因算法決策并不透明,信息申報人對決策過程也根本無從知曉,自然地,在申述中也就無從進(jìn)行陳述、作出申辯。[11](P.30)

(二)算法決策與行政公正原則的背離性

算法決策輔助自動化行政,其全自動地高速處理自是大幅降低成本而提高行政效率,但也致使行政行為趨于模塊化或程式化。[7](P.176)如此“一刀切”的程式化行為方式嚴(yán)重忽略個案情景的因應(yīng)考量,勢必有違行政公正原則,以致作出不公正決策而最終導(dǎo)致個案正義受損。

例如,在“聲吶電子眼”等交通抓拍系統(tǒng)場景下,行政相對人恰巧是醫(yī)護(hù)急救車等而超速、鳴笛等特殊情狀,現(xiàn)有技術(shù)無法自主識別救護(hù)車輛或是普通私用車輛,仍按照系統(tǒng)進(jìn)行常規(guī)化的處理。但事實(shí)上,諸如人類的同理心等特征,是完全可以幫助決策者做出更合理、也更令人信服的結(jié)果。盡管這些結(jié)果可能與可預(yù)測的算法決策結(jié)果有所偏離,但該等人類特征目前實(shí)難被編程于算法決策系統(tǒng)中。[12](P.1785)遇此情狀,如果行政主體缺乏個案情景考量,過度依賴算法決策結(jié)果,必然導(dǎo)致執(zhí)法不公。又如,行政機(jī)關(guān)運(yùn)用算法決策對行政相對人進(jìn)行社會信用評級時,往往將相對人某一領(lǐng)域的失信記錄納入另一個完全不同的領(lǐng)域,并以此作為基礎(chǔ)數(shù)據(jù)作出最終評級結(jié)果。但是,不同領(lǐng)域的信用記錄是否可以互相作為信用評判的基礎(chǔ)本身就存在爭議,因為并非所有關(guān)于相對人生活場景的數(shù)據(jù)都具有分析價值、對個人信用評估都具有意義。[13](P.86)所以,如果行政主體過度依賴這種評級結(jié)果,將無可避免地背離行政公正原則,產(chǎn)生評級錯誤等問題。

(三)算法決策干擾行政決策的準(zhǔn)確性

算法決策技術(shù)的應(yīng)用在一定程度上會干擾行政決策的準(zhǔn)確性。一如前述,美國小城雷丁適用的犯罪預(yù)測軟件,重點(diǎn)數(shù)據(jù)的基礎(chǔ)是地理位置,且以詳細(xì)輸入每一次犯罪的類型、時間與地點(diǎn)為主要的數(shù)據(jù)收集與選擇??此瓶陀^、合理,但該軟件的適用終歸依賴警方的最后決定與選擇,即:“只關(guān)注第一類犯罪(暴力犯罪、殺人、縱火、人身侵犯等)——該等犯罪通常必須要被警方記錄在案”;還是“需同時關(guān)注第二類犯罪(輕微犯罪、流浪、酗酒、侵犯型乞討等)——如果警察不在現(xiàn)場,此等犯罪通常不會被記錄在案”。必須指出的是,后者之輕微犯罪等情形在貧困地區(qū)十分常見。倘若PredPol的預(yù)測軟件已然囊括第二類輕微犯罪數(shù)據(jù),結(jié)果必將出現(xiàn)巨大偏差。一旦選擇輕微犯罪數(shù)據(jù)作為分析指標(biāo),就會輕易得出“貧困地區(qū)是最有可能發(fā)生犯罪的地點(diǎn)”的輕率結(jié)論;如此,更多警力被安排進(jìn)貧困地區(qū),警察在該地域就又獲得更多的輕微犯罪人在案記錄,相應(yīng)地犯罪預(yù)測模型中也將會出現(xiàn)越來越多的輕微犯罪數(shù)據(jù),而更多警力將被再次派駐于輕微犯罪高發(fā)的貧困地區(qū)。[5](P.93-94)如此,惡性循環(huán)的周而復(fù)始,怎可能有針對性的準(zhǔn)確行政決策。

經(jīng)過研究得知:觀察組中護(hù)理滿意度,空腹血糖,餐后兩小時血糖指標(biāo)大小分別(96.09±2.00)分、(4.16±0.13)mmol/l以及(6.20±1.11)mmol/l,所有數(shù)據(jù)均顯著優(yōu)于對照組,兩組結(jié)果對比具有統(tǒng)計學(xué)意義。如表1所示:

(四)自動化行政中算法決策的泛化性

算法決策作為大數(shù)據(jù)時代的一項新興技術(shù),不能應(yīng)用于自動化行政的所有外部場景,如果行政機(jī)關(guān)肆意應(yīng)用算法決策,必將導(dǎo)致算法決策在自動化行政中的泛化或濫用。如此,當(dāng)外部場景的自身條件不符合算法決策的實(shí)際應(yīng)用要求時,該等完全取代人為決策的算法決策最終必定產(chǎn)出不準(zhǔn)確、甚或是不公平的決策結(jié)果。

美國波士頓Street Bump應(yīng)用軟件解決城市道路坑洼仍是最好例證:實(shí)踐中,該軟件算法決策系統(tǒng)的數(shù)據(jù)表明,常常是富裕地區(qū)顛簸程度反而高于貧窮地區(qū),以此作為依據(jù)而建議市政資源向富裕地區(qū)傾斜。但實(shí)際上,大量的、急需被修復(fù)的道路多聚集于貧困區(qū)域。導(dǎo)致這一偏差的原因其實(shí)很簡單,惟因富裕地區(qū)居民的智能手機(jī)數(shù)量及其運(yùn)動感應(yīng)程序的配置度遠(yuǎn)高于貧困區(qū)域的相應(yīng)配置。[1](P.158)但波士頓政府恰恰忽略了這一關(guān)鍵的基礎(chǔ)性要素——智能手機(jī)本身的擇用就存在嚴(yán)重偏差。所以,該種外部場景并不滿足Street Bump軟件進(jìn)行算法決策的內(nèi)部要求,而波士頓政府不加選擇的應(yīng)用即是算法決策于自動化行政中泛化應(yīng)用的風(fēng)險例證。

(五)算法決策對行政裁量能動的削弱性

誠如上述,如果任由自動化行政中算法決策的肆意泛化應(yīng)用,算法決策完全有可能取代人為決策而令算法權(quán)力深度嵌入公權(quán)力,以致逐漸削弱、甚至徹底吞噬行政裁量的能動性。原本算法決策僅以工具屬性輔助自動化行政,但行政主體卻因?qū)χ疅o條件的依賴,促使其不加質(zhì)疑的直接應(yīng)用決策結(jié)果作出行政決定;加之算法決策的自身特性與機(jī)器優(yōu)勢,算法決策亦正逐漸突破工具屬性而進(jìn)行著實(shí)質(zhì)性的資源調(diào)配、作出決策等行為。同時,隨著算法生態(tài)環(huán)境的搭建,算法必將勝任更復(fù)雜的行政行為,并使公民身份最大可能的數(shù)據(jù)化和動態(tài)化,進(jìn)而逐步削弱行政機(jī)關(guān)在該決策領(lǐng)域的地位,甚至凌駕、取代行政機(jī)關(guān)的主體地位。[14](P.69-70)

當(dāng)然,行政機(jī)關(guān)還具有行政裁量權(quán)。即在其職權(quán)范圍內(nèi),可以基于法理或事理對具體事件進(jìn)行酌量處理。如行政處罰:在傳統(tǒng)行政中,行政機(jī)關(guān)可在法定的處罰幅度內(nèi)自由選擇,不僅是處罰種類的自由選擇,還包括該種類下處罰強(qiáng)度的自由選擇。但在自動化行政中,借助算法決策輔助行政處罰,將無法及時有效地發(fā)揮行政主體行政裁量權(quán)的作用,更遑論個案情景的充分考量。因此,如果對算法決策在自動化行政中的應(yīng)用不加以有效的限制與監(jiān)管,其將完全取代人為決策而導(dǎo)致算法權(quán)力深度嵌入公權(quán)力,逐漸削弱行政裁量的能動性。

三、自動化行政中算法決策風(fēng)險的成因?qū)徦?/h2>

為最大限度地防范、規(guī)避算法決策在自動化行政中顯露的上述五大特殊風(fēng)險,首先必須要對風(fēng)險背后的原因進(jìn)行深度解析?;诖?,不僅能從源頭上盡可能地進(jìn)行風(fēng)險防范或規(guī)避,更能在風(fēng)險來臨時盡可能的降低風(fēng)險、甚至解決風(fēng)險帶來的各種問題。下述即從風(fēng)險成因的客觀方面與主觀方面展開論述:

(一)算法決策原生的“黑箱”性與極速性

算法決策原生內(nèi)在的“黑箱”性操作特征,外在表現(xiàn)為自動化行政中的行政決策過程是通過算法內(nèi)在的自主分析而快速做出的,行政相對人對此全無直觀感受。因此,算法決策分析的結(jié)果自是無法被直觀地解釋,當(dāng)然也就不能作為司法、行政部門行動理由基礎(chǔ)的因果解釋。[2](P.1167)而且,自動化行政中算法決策應(yīng)用主要是公私合作模式,即行政主體委托技術(shù)公司研發(fā)、完成算法決策系統(tǒng),且大部分行政主體對系統(tǒng)內(nèi)部運(yùn)作機(jī)理幾近一無所知。面對這一強(qiáng)技術(shù)性的操作系統(tǒng),即使行政主體通過技術(shù)公司對行政相對人充分解釋決策理由,但若非專業(yè)技術(shù)人員,實(shí)是難以理解。因此,也就根本無法達(dá)到正當(dāng)程序原則所要求的“說明理由”這一事項的要求與目的。

同時,在算法決策的“黑箱”性特征導(dǎo)致的不透明性障礙之外,又因算法決策系統(tǒng)的運(yùn)行過程、決策結(jié)果產(chǎn)生的極速性,可以縮短、甚至跳過人類思考的時間,令行政相對人根本無法及時的作出反應(yīng),更別說能進(jìn)行準(zhǔn)確、有效地陳述和申辯。如此,不僅嚴(yán)重危及程序正義,并且,在這種不透明與極速性的決策系統(tǒng)下很可能導(dǎo)致作出不公平的、甚至是錯誤的行政決策結(jié)果,也勢必遭致行政相對人合法權(quán)益受損之虞。算法黑箱,尤其是其導(dǎo)致的算法社會,使得算法的擁有者手握巨大的算法權(quán)力,且這是一種準(zhǔn)國家權(quán)力的權(quán)力。[15](P.11)如果自動化行政中算法決策過程不受正當(dāng)程序原則約束,則該權(quán)力極有可能會被濫用,從而侵犯行政相對人的知情權(quán)、平等權(quán)等合法權(quán)益。

(二)數(shù)據(jù)流轉(zhuǎn)環(huán)節(jié)疏漏的數(shù)據(jù)質(zhì)量瑕疵

數(shù)據(jù)收集、選擇與處理通常是數(shù)據(jù)流轉(zhuǎn)的基本環(huán)節(jié),也是算法決策在自動化行政中的應(yīng)用基礎(chǔ)。任一環(huán)節(jié)疏漏的數(shù)據(jù)質(zhì)量瑕疵,必然影響行政決策的準(zhǔn)確性;并且,算法決策作為一項技術(shù)也不可避免會出現(xiàn)漏洞。因而,數(shù)據(jù)收集、選擇與處理環(huán)節(jié)的數(shù)據(jù)質(zhì)量瑕疵即是干擾行政決策準(zhǔn)確性的基礎(chǔ)性原因。

這里的數(shù)據(jù)質(zhì)量瑕疵區(qū)別于行政主體自身操作失誤因素,主要是指客觀上存在數(shù)據(jù)質(zhì)量瑕疵。如,以健康碼的實(shí)踐為例,健康碼的生成依賴兩部分?jǐn)?shù)據(jù)——申請人個人自主填寫的數(shù)據(jù)與行政機(jī)關(guān)掌握的公共數(shù)據(jù)。個人填寫部分包括申請人的行蹤軌跡和健康狀況,若申請人故意隱瞞行程和病情,則該部分?jǐn)?shù)據(jù)失真無效,必定導(dǎo)致健康碼的輸出也不準(zhǔn)確。[11](P.30)另外,技術(shù)公司開發(fā)健康碼,將被授權(quán)接入公共數(shù)據(jù),鑒于數(shù)據(jù)掌控主體之間普遍存在的數(shù)據(jù)壁壘,數(shù)據(jù)共享并不理想,后臺數(shù)據(jù)的完整性并無完全保障。[11](P.30)同理,行政機(jī)關(guān)掌握的公共數(shù)據(jù)準(zhǔn)確性同樣不能確保?;跀?shù)據(jù)輸入錯誤而作出的算法決策,必然影響最終行政決策的準(zhǔn)確性。

(三)自動化行政與算法決策的相關(guān)制度規(guī)范缺失

2016年11月,我國頒行《網(wǎng)絡(luò)安全法》,隨即又發(fā)布《國家信息化發(fā)展戰(zhàn)略綱要》《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《發(fā)展規(guī)劃》)等戰(zhàn)略規(guī)劃文件。但是,有關(guān)算法決策在自動化行政中應(yīng)用的專門性法律、法規(guī)卻寥寥無幾,僅在《發(fā)展規(guī)劃》有所提及安全便捷的智能社會建設(shè)。③此后,盡管地方各級政府也有智能政務(wù)的相關(guān)地方性文件出臺,但均未對人工智能與政務(wù)結(jié)合的具體場景做出細(xì)致說明;在行政決策方面,更未有算法決策應(yīng)用的詳細(xì)規(guī)定。如,在深圳、安徽、廣西等關(guān)于智能審批的地方性文件規(guī)定中,也僅籠統(tǒng)強(qiáng)調(diào)推行“無人干預(yù)自動審批”或“不見面審批”等舉措。④由此可見,自動化行政與算法決策相關(guān)制度規(guī)范存在極大地缺失。

反觀域外,美、德等國關(guān)于算法決策的相關(guān)制度規(guī)范的制定已經(jīng)走在了前端。1970年與1974年,美國分別頒布《公平信用報告法》(FCRA)與《平等信用機(jī)會法》(ECOA),就信用評分領(lǐng)域的自動化決策進(jìn)行立法規(guī)制。[16](P.16)2017 年,德國在《行政程序法》中引入“全自動作出的具體行政行為”概念,并進(jìn)行若干法條的匹配修改;[7](P.170)又通過《稅收條例》的制定為稅法領(lǐng)域的完全自動化奠定規(guī)范基礎(chǔ)。[17](P.1)2018年,歐盟又正式出臺《通用數(shù)據(jù)保護(hù)條例》(GDPR),當(dāng)中第22條即是有關(guān)自動化決策的專門規(guī)定。⑤顯然,適逢大數(shù)據(jù)時代,為有效解決算法決策于自動化行政應(yīng)用場景中的特殊風(fēng)險,相應(yīng)的制度規(guī)范自刻不容緩。

(四)行政主體對算法決策的不當(dāng)操作與過度依賴

上述三大成因是擇從客觀層面的分析與論證,而行政主體對算法決策的不當(dāng)操作和過度依賴是遭致前述五大特殊風(fēng)險的主觀層面成因。

就行政主體的不當(dāng)操作成因論,緣因算法決策作為大數(shù)據(jù)時代的一項新強(qiáng)技術(shù),在實(shí)際的具體應(yīng)用中,必須配備以大量的高科技專業(yè)技術(shù)人員,才能進(jìn)行正確的操作與有效的駕馭。但是,在應(yīng)用算法決策的自動化行政實(shí)踐中,卻是由非專業(yè)技術(shù)類的行政機(jī)關(guān)工作人員完成實(shí)際的具體操作;面對高強(qiáng)技術(shù)性決策系統(tǒng),行政主體極易因操作不當(dāng)或失誤,影響行政決策最終結(jié)果的準(zhǔn)確性。究其原因,正如前述,緣因我國自動化行政中的算法決策應(yīng)用,所有決策系統(tǒng)的研發(fā)與完成皆是由行政機(jī)關(guān)委托技術(shù)主體完成,即實(shí)行的是行政機(jī)關(guān)與技術(shù)主體的公私合作模式。所以,在算法決策的相關(guān)技術(shù)方面,行政機(jī)關(guān)必然、且將長期依賴系統(tǒng)研發(fā)的技術(shù)主體,而行政主體的不當(dāng)或失誤操作也將客觀、長期的存在。

又以行政主體過度依賴算法決策之成因分析,正因算法決策于自動化行政中的推廣應(yīng)用,不僅大幅降低成本,且又極大地提高行政效率。如此明顯優(yōu)勢利導(dǎo)著行政主體大肆應(yīng)用算法決策而產(chǎn)生過度依賴,甚至無條件信任算法決策并促令其直接使用決策結(jié)果于各類行政決定之中,如此“一刀切”的盲目信賴與過度依賴,只謀圖高效率,完全無視效益與準(zhǔn)確率,更全然無視個案或特殊情形的考量。同時,必須指出的是,決策系統(tǒng)也因行政主體的過度依賴而反向促使算法本身形成一種固定式、模塊化的決策模式。如此,行政主體若仍保持信任、毫無質(zhì)疑,勢必侵蝕行政主體自身的獨(dú)立判斷能力,最終導(dǎo)致決策結(jié)果的準(zhǔn)確性存疑。

一如上述,基于客觀成因與主觀成因之標(biāo)準(zhǔn)劃分,不管是算法決策原生的“黑箱”性與極速性、數(shù)據(jù)流轉(zhuǎn)環(huán)節(jié)疏漏的數(shù)據(jù)質(zhì)量瑕疵以及有關(guān)自動化行政與算法決策的相應(yīng)制度規(guī)范缺失等客觀原因,還是因行政主體對算法決策的不當(dāng)、或失誤操作及其過度依賴決策系統(tǒng)等主觀成因,都深刻揭示了自動化行政中算法決策的特殊風(fēng)險并非偶然;且也為下文提出的該等特殊風(fēng)險防范或規(guī)避的因應(yīng)性路徑夯實(shí)基礎(chǔ)。

四、自動化行政中算法決策應(yīng)用風(fēng)險的防范路徑

有學(xué)者提出,數(shù)字行政法是社會信用體系等法治化的新路徑,在未來也將成為大數(shù)據(jù)時代法治建設(shè)領(lǐng)域全新的行政法學(xué)科分支。[6](P.47)為促進(jìn)算法決策優(yōu)勢在自動化行政中的可持續(xù)發(fā)展,基于創(chuàng)新一定不能打破規(guī)則和安全的態(tài)度,在建構(gòu)自動化行政中算法決策應(yīng)用的專門性法律框架下,至少可以在地位厘定、立法明定與程序控制等方面對自動化行政中算法決策的特殊風(fēng)險予以防范或規(guī)避。

(一)地位厘定:主體地位與工具屬性

誠如前述,算法決策正在、且將來更有可能直接取代人為決策而令算法權(quán)力深度嵌入公權(quán)力,甚至于突破其工具屬性而凌駕、取代行政機(jī)關(guān)的主體地位。因而,在自動化行政中,首要的就是必須重申、堅持行政機(jī)關(guān)的主體性地位,而算法決策僅是具有起輔助作用的工具屬性罷了。

1. 堅定行政機(jī)關(guān)的主體地位

人工智能是人類創(chuàng)造的高度自動化、智能化的工具,無論其怎樣發(fā)展,但終非人類。任一算法決策運(yùn)行背后,仍是行政機(jī)關(guān)通過專業(yè)技術(shù)人員進(jìn)行著系統(tǒng)的操控和應(yīng)用。同時,囿于當(dāng)下的計算機(jī)技術(shù)水平,仍無法將同理心、道德感、意志等人類獨(dú)有的特征進(jìn)行編碼轉(zhuǎn)換至算法決策中。因此,占據(jù)主體地位的只能是具有同理心、道德感、意志等人類特征、能夠做出個案情景判斷的行政機(jī)關(guān)(行政主體)。質(zhì)言之,重申并堅定行政機(jī)關(guān)的主體地位,不僅能夠防范模塊化的決策系統(tǒng)掌握控制權(quán),且在特殊個案的情景下,最大限度地避免其對行政相對人的合法權(quán)益造成侵害;進(jìn)而,有效抑制算法決策完全取代人為決策,預(yù)防算法權(quán)力深度嵌入公權(quán)力而致使行政裁量權(quán)被削弱。

2.明確算法決策的工具屬性

作為人類創(chuàng)造的高度自動化、智能化的工具,人工智能本身并沒有自己的意志,只具有工具屬性。[18](P.48)同樣地,自動化行政中的算法決策也僅具有工具屬性,其功能就是輔助行政機(jī)關(guān)作出決策,且其輔助形式亦因自動化行政的不同級別而呈現(xiàn)出多樣化態(tài)勢。如,在部分自動化行政中,算法決策通過完成數(shù)據(jù)識別與分析得出初步結(jié)論,以此輔助行政主體做出決策;在無裁量能力的完全自動化行政中,算法決策系統(tǒng)可以獨(dú)立對不需要裁量的行政活動實(shí)施全程化處理,即算法決策直觀上取代人為決策。但是,無論直觀上算法決策是輔助人為決策,亦或是有限度地取代人為決策,都無法掩蓋其工具屬性。

(二)立法明定:應(yīng)用場景與系統(tǒng)預(yù)審

公共利益是所有行政活動的理由和界限所在,也是行政機(jī)關(guān)追求的大眾福祉與個人追求的私人福祉區(qū)別所在。[19](P.83)為更好地協(xié)調(diào)二者利益關(guān)系,須以立法明定自動化行政中算法決策的具體應(yīng)用場景,且同時還須按比例原則完成決策系統(tǒng)的提前預(yù)審。

1. 明確算法決策的應(yīng)用場景

盡管算法決策已然成功應(yīng)用于部分自動化行政、無裁量能力的完全自動化行政和有裁量能力的完全自動化行政,但同時也表明,算法決策絕非可任意應(yīng)用于自動化行政的所有場景。

德國行政程序法對完全自動化行政的適用明確提出其兩個限定性條件:(1)法律保留,即僅限定于法律法規(guī)允許時方可適用;(2)行政機(jī)關(guān)不存在裁量或判斷余地時方可適用。[4](P.89)這于明確我國算法決策在自動化行政中的應(yīng)用場景具借鑒意義。于法律保留,立法者應(yīng)當(dāng)提供原則性指引,而非面面俱到的干預(yù),如在授益行為和不涉及當(dāng)事人重大利益等事項上,法律可以對算法決策在自動化行政中的應(yīng)用給予概括性的授權(quán),釋放創(chuàng)新空間。[4](P.89)又如,算法決策在自動化行政中應(yīng)當(dāng)適用于事實(shí)清楚,又易數(shù)據(jù)化、類別化等事項。對于情況較為復(fù)雜,尤其切關(guān)人身權(quán)益、住宅等建筑物拆除令等行政決定不可逆的場景中,行政機(jī)關(guān)應(yīng)當(dāng)謹(jǐn)慎應(yīng)用算法決策。[17](P.13)

2. 完成決策系統(tǒng)的提前預(yù)審

事先運(yùn)用比例原則對算法決策系統(tǒng)進(jìn)行提前的預(yù)審與測試,是合理評估算法決策系統(tǒng)是否適合應(yīng)用于某項具體的自動化行政的有效舉措。

算法決策系統(tǒng)的預(yù)審,具言之,即分別進(jìn)行適應(yīng)性判斷、均衡性判斷和必要性判斷。[20](P.112)(1)適應(yīng)性判斷。判斷算法決策系統(tǒng)的設(shè)計是否能夠合理、合法地運(yùn)行,且其對數(shù)據(jù)的收集、選擇和處理是否能夠最大限度地減少數(shù)據(jù)質(zhì)量瑕疵。(2)均衡性判斷。判斷決策系統(tǒng)對數(shù)據(jù)的實(shí)際應(yīng)用是否產(chǎn)生歧視性決策等消極影響,并比較其可能帶來的積極與消極影響,只有確認(rèn)積極影響明顯高于消極影響時才可通過均衡性判斷。(3)必要性判斷。行政機(jī)關(guān)應(yīng)當(dāng)選擇產(chǎn)生消極影響最小的算法決策系統(tǒng),最大限度地降低技術(shù)的不確定性和數(shù)據(jù)質(zhì)量瑕疵,以保障決策結(jié)果的最大可靠性。自動化行政領(lǐng)域,決策結(jié)果可能會致使行政相對人的人身權(quán)益和財產(chǎn)權(quán)益發(fā)生重大變化,所以,有且只能采用技術(shù)不確定性最低、數(shù)據(jù)質(zhì)量瑕疵最小的算法決策系統(tǒng)。質(zhì)言之,惟同時滿足上述三者判斷的算法決策系統(tǒng)才可通過預(yù)審并投入實(shí)踐應(yīng)用。

(三)程序控制:解釋責(zé)任與權(quán)利救濟(jì)

一如前述,自動化行政中的算法決策應(yīng)用,應(yīng)然接受正當(dāng)程序原則的約束,即在法定程序的控制下進(jìn)行算法決策的應(yīng)用。但是,鑒于算法決策的新強(qiáng)技術(shù)特征,我們應(yīng)與時俱進(jìn)賦予正當(dāng)程序原則以新的要求與內(nèi)容。

1. 說明理由——督進(jìn)行政主體的算法解釋責(zé)任

督進(jìn)行政主體的算法解釋責(zé)任,并非要求行政主體對算法決策的技術(shù)細(xì)節(jié)進(jìn)行解釋,只要求當(dāng)行政相對人存在異議時,行政主體通過保留解釋能力對個案進(jìn)行事后監(jiān)督。[3](P.144-145)即對算法決策的輸入端和輸出端進(jìn)行事后檢查。

(1)輸入端。如果算法決策系統(tǒng)輸入端的數(shù)據(jù)本身存有瑕疵,那么決策結(jié)果必將存疑。如果行政相對人就此提出質(zhì)疑,行政主體必須通過事后檢查進(jìn)行監(jiān)督。在社會信用體系評級中,并非所有關(guān)于相對人生活場景的數(shù)據(jù)都對個人信用評估有意義,如果相對人質(zhì)疑其某一領(lǐng)域的信用評級,那么就可要求行政主體對輸入端中作為評級基礎(chǔ)的數(shù)據(jù)進(jìn)行解釋與理由說明。

(2)輸出端。陳景輝學(xué)者認(rèn)為,只要程序的輸出結(jié)果是單一性的,那么就能反向推斷,這樣的做法違反了正當(dāng)程序或者程序正義的要求,因此就有了要求該算法決策做出改變的正當(dāng)理由。[15](P.13)如在某一項算法決策系統(tǒng)中,如果輸入端數(shù)據(jù)在多次修正后,輸出端得出的結(jié)果依舊一樣,就須考慮決策系統(tǒng)內(nèi)部故障、或決策系統(tǒng)程序本身是否出現(xiàn)問題。如此,就必須要求技術(shù)人員及時進(jìn)行修復(fù)。

2. 聽取陳述和申辯——完善行政相對人的權(quán)利救濟(jì)

因算法決策的“黑箱”性與極速性,當(dāng)事人幾近全無陳述或申辯的機(jī)會。所以,行政相對人的相應(yīng)救濟(jì)權(quán)必須盡速得到完善。

歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第1款規(guī)定,除例外情形,數(shù)據(jù)主體有權(quán)反對自動化決策。⑤德國在自動稅收程序中實(shí)施特殊的保護(hù)機(jī)制,即風(fēng)險管理系統(tǒng)。該系統(tǒng)的目的即在于確保重大風(fēng)險案件仍然可以由人為決定,只是在沒有重大問題情況下,自動化系統(tǒng)才可以發(fā)揮作用。[17](P.8-9)這一特殊保護(hù)機(jī)制賦予納稅人由算法決策轉(zhuǎn)為人為決策的可能性,某種程度上也是對行政相對人權(quán)利救濟(jì)的擴(kuò)張。此外,按照學(xué)者查云飛的觀點(diǎn),全自動行政應(yīng)至少保障行政相對人對全自動程序的知情權(quán)、選擇權(quán)與要求人工介入等權(quán)利;并且,在法定情形下,行政機(jī)關(guān)還應(yīng)當(dāng)恪守主動中斷自動程序的義務(wù)。[7](P.177)

可見,實(shí)踐中已有上述例證關(guān)于自動化行政中行政相對人救濟(jì)權(quán)的相關(guān)規(guī)定;由此印證——在保障行政相對人對算法決策知情權(quán)的基礎(chǔ)上,賦予行政相對人于重大事項、且符合正當(dāng)性規(guī)定的情況下,要求人工介入決策、中斷算法決策的救濟(jì)性權(quán)利成為可能。

結(jié) 語

我國《行政處罰法》修訂草案新增第38條⑥就此命題曾努力嘗試進(jìn)行規(guī)定,但除卻涉關(guān)算法決策應(yīng)用之“電子技術(shù)監(jiān)控設(shè)備”這一專業(yè)語詞外,并未就該等算法決策系統(tǒng)應(yīng)用設(shè)備的大數(shù)據(jù)支撐、如何設(shè)置及其具體設(shè)置標(biāo)準(zhǔn)等進(jìn)行詳細(xì)規(guī)定,更無只字提及風(fēng)險防范。而我們也深知,大數(shù)據(jù)只有在為人類所掌控時才是好的數(shù)學(xué)工具,尤其在自動化行政領(lǐng)域,我們必須重申并堅定行政機(jī)關(guān)的主體地位、明確算法決策的工具屬性。同時,通過立法規(guī)制,嚴(yán)格限定算法決策在自動化行政中的具體應(yīng)用場景,并運(yùn)用比例原則進(jìn)行決策系統(tǒng)預(yù)審,明晰算法決策系統(tǒng)合格標(biāo)準(zhǔn),絕不能因盲求效率而放棄更為重要的公平與公正價值。當(dāng)然,在強(qiáng)調(diào)合法程序控制的意義下,應(yīng)發(fā)展性地賦予傳統(tǒng)行政法之正當(dāng)程序原則以新的內(nèi)容與要求,督進(jìn)行政主體算法解釋的義務(wù)與責(zé)任,且更須竭盡完善行政相對人的相應(yīng)救濟(jì)權(quán)。因為,在可以預(yù)測的未來,算法功能定是愈來愈趨強(qiáng)大,而人類只有不斷地審視人工智能新技術(shù)的發(fā)展,并不斷增強(qiáng)自身防御和應(yīng)對風(fēng)險的能力,才能夠在新技術(shù)到來時從容面對算法決策可能產(chǎn)生的新風(fēng)險,最大限度地確保并激發(fā)算法決策的優(yōu)勢,促進(jìn)自動化行政中算法決策的可持續(xù)發(fā)展。

注釋:

①參見《“聲吶電子警察”在杭州上崗!》,《杭州日報》2018年7月12日,第8版。

②參見《深圳市人民政府辦公廳關(guān)于印發(fā)深圳市普通高校應(yīng)屆畢業(yè)生引進(jìn)和落戶 “秒批” (無人干預(yù)自動審批) 工作方案的通知》(深府辦函〔2018〕109 號)。

③國務(wù)院《新一代人工智能發(fā)展規(guī)劃》第三章第三節(jié)第2條。

④《安徽省人民政府辦公廳關(guān)于印發(fā)進(jìn)一步深化“互聯(lián)網(wǎng)+政務(wù)服務(wù)”推進(jìn)政務(wù)服務(wù)“一網(wǎng)、一門、一次”改革行動方案的通知》(皖政辦〔2018〕31號);《廣西壯族自治區(qū)人民政府辦公廳關(guān)于印發(fā)進(jìn)一步深化“互聯(lián)網(wǎng)+政務(wù)服務(wù)”推進(jìn)政務(wù)服務(wù)“一網(wǎng)、一門、一次”改革專項行動實(shí)施方案的通知》(桂政辦發(fā)〔2018〕145號)。

⑤參見《通用數(shù)據(jù)保護(hù)條例》第22條第1款。

⑥我國《行政處罰法》修訂草案新增第38條第1款。

猜你喜歡
裁量決策行政
行政學(xué)人
行政論壇(2022年5期)2022-10-25 04:47:00
為可持續(xù)決策提供依據(jù)
論行政自由裁量的“解釋性控權(quán)”
法律方法(2021年4期)2021-03-16 05:35:16
Mesenchymal stromal cells as potential immunomodulatory players in severe acute respiratory distress syndrome induced by SARS-CoV-2 infection
決策為什么失誤了
行政調(diào)解的實(shí)踐與探索
應(yīng)如何確定行政處罰裁量基準(zhǔn)
行政為先 GMC SAVANA
車迷(2015年12期)2015-08-23 01:30:48
加快行政審批體制改革
全球化(2015年2期)2015-02-28 12:38:53
行政審批中的自由裁量行為研究
武义县| 昌图县| 横山县| 青浦区| 宣恩县| 布尔津县| 栖霞市| 三门县| 南郑县| 图片| 信丰县| 安顺市| 隆林| 宣武区| 安丘市| 兴安县| 阆中市| 墨竹工卡县| 晋城| 农安县| 伊金霍洛旗| 平邑县| 邹城市| 色达县| 济源市| 池州市| 南川市| 双鸭山市| 黄大仙区| 富川| 沁阳市| 乾安县| 奉节县| 裕民县| 松江区| 北海市| 山阳县| 鲜城| 谢通门县| 奉节县| 武平县|