侯東德 張可法
決策是人類的一種專屬行為。自古以來,人類是決策的唯一主體。決策行為帶有確定的目的性,它是運(yùn)用決策者的智能、見識(shí)、經(jīng)驗(yàn)以及理性判斷等能力,在權(quán)衡利弊要素后作出最優(yōu)行動(dòng)方案選擇的過程。然而,在數(shù)字時(shí)代,智能算法介入并重新定義傳統(tǒng)的決策方式、呈現(xiàn)形態(tài)和運(yùn)行邏輯,決策者的有限理性和經(jīng)驗(yàn)由于算法技術(shù)的定量分析介入趨于高度智能化,當(dāng)算法自動(dòng)化在決策過程中出現(xiàn)算法權(quán)利化傾向時(shí),會(huì)產(chǎn)生難以預(yù)料的破壞性效果。
綜上所述,算法決策已經(jīng)深刻影響個(gè)人生活和公共管理,我們?cè)谔骄孔詣?dòng)化決策算法帶來?yè)?dān)憂的同時(shí),更重要的任務(wù)是認(rèn)清決策算法的法律屬性,并依據(jù)決策二分法,科學(xué)判斷算法決策應(yīng)用的合理場(chǎng)域和界定原由,以及在合理應(yīng)用場(chǎng)域下如何防控算法風(fēng)險(xiǎn)。
算法是數(shù)字化、智能化的技術(shù)手段,并非自然人意思自治的延伸,算法自動(dòng)化決策方式從形式上切斷了“行為—責(zé)任”邏輯鏈條,要還原算法自動(dòng)化決策的本來面目,可以回歸到法律關(guān)系的架構(gòu)中去驗(yàn)證。
2.自動(dòng)化決策算法是“人格性工具”。算法自動(dòng)化決策與人的關(guān)系并非完全分離,這是由算法的技術(shù)特點(diǎn)決定的。自動(dòng)化決策算法既非人也非物,是人機(jī)交互的行為,其本質(zhì)是一種“人格性工具”,原因有三。一是算法自動(dòng)化決策的依據(jù)是設(shè)計(jì)者和代碼編譯者創(chuàng)設(shè)的,是決策者意思自治的物理性手段延伸,不存在完全內(nèi)生、自主思維和自主學(xué)習(xí)的算法。二是算法自動(dòng)化決策過程需要人類的全程參與、密切關(guān)注和評(píng)估結(jié)果。算法決策依賴于大量初始訓(xùn)練數(shù)據(jù),訓(xùn)練數(shù)據(jù)和算法決策結(jié)果是相互成就的,訓(xùn)練數(shù)據(jù)影響算法決策結(jié)果的質(zhì)量,反過來算法決策的結(jié)果反饋能引導(dǎo)決策者對(duì)訓(xùn)練數(shù)據(jù)的調(diào)適和改進(jìn)。三是算法自動(dòng)化決策離不開持續(xù)的管理和維護(hù)。算法決策是輔助性手段,其行為與后果都由人來承擔(dān),因此,人們有義務(wù)對(duì)算法決策的偏差和錯(cuò)誤進(jìn)行全過程的防控。
3.自動(dòng)化決策算法易背離“人本主義”。人的主體地位和尊嚴(yán)是憲法價(jià)值的延伸,源自于哲學(xué)道德要求向法律規(guī)則的轉(zhuǎn)變,是憲法給予人的終極認(rèn)可與推崇,但機(jī)器是冰冷且沒有理性思想的,算法自動(dòng)化決策不加區(qū)分合理應(yīng)用場(chǎng)域的后果,便是人的主體地位受到算法的不斷蠶食,讓人們?cè)谥悄芩惴ū尘跋虏坏貌恢匦露ㄎ蝗说淖饑?yán)和價(jià)值,并在價(jià)值指引之下,把“人本主義”價(jià)值被動(dòng)地帶入算法應(yīng)用的正當(dāng)性論證之中,顯然“人本主義”價(jià)值遵循本身是不容動(dòng)搖的,人們過度依賴算法自動(dòng)化帶來的便捷和經(jīng)濟(jì)利益,必然會(huì)付出背離人的價(jià)值和價(jià)值意蘊(yùn)的代價(jià),削弱了自身的主體地位。
顯而易見,當(dāng)厘清了決策算法的法律本質(zhì),就能揭開算法自動(dòng)化決策的“面紗”,確定決策算法設(shè)計(jì)者(控制者)是算法決策失控后相關(guān)法律責(zé)任的承擔(dān)者,為算法自動(dòng)化決策風(fēng)險(xiǎn)如何在私法權(quán)利譜系中進(jìn)行規(guī)制奠定了基礎(chǔ)。
為了確定人工決策與算法自動(dòng)化決策適用的應(yīng)然范圍,基于“決策二分法”探討場(chǎng)域問題,是解決決策風(fēng)險(xiǎn)防控問題的基礎(chǔ),決策應(yīng)用場(chǎng)域劃分的科學(xué)與否,涉及對(duì)決策風(fēng)險(xiǎn)的兩種不同邏輯對(duì)應(yīng)問題。簡(jiǎn)言之,應(yīng)依據(jù)理性標(biāo)準(zhǔn)劃分出兩類決策的應(yīng)用邊界,確定哪些場(chǎng)域運(yùn)用算法自動(dòng)化決策是合理的,反之,就會(huì)出現(xiàn)算法自動(dòng)化決策侵占人工決策權(quán)場(chǎng)域的越位行為。
本文認(rèn)為,對(duì)決策界域劃分問題應(yīng)該形成一種判斷共識(shí):算法決策通常能夠識(shí)別輸入和結(jié)果之間的相關(guān)關(guān)系,而不是因果關(guān)系;在沒有可供預(yù)測(cè)的數(shù)據(jù)參數(shù)反饋的情況下,不應(yīng)該使用算法機(jī)器進(jìn)入該應(yīng)用領(lǐng)域開展自動(dòng)化決策;同時(shí),當(dāng)決策內(nèi)容涉及倫理或其他道德價(jià)值方面的定性判斷時(shí),也不應(yīng)使用算法機(jī)器去完成該決策。監(jiān)督者對(duì)決策風(fēng)險(xiǎn)監(jiān)督的首要任務(wù)就是判斷決策手段與決策邏輯之間的適應(yīng)性,對(duì)算法自動(dòng)決策審查的重點(diǎn)應(yīng)當(dāng)落到算法程序中是否存在技術(shù)倫理風(fēng)險(xiǎn)的防控上。
2.對(duì)數(shù)據(jù)、代碼、算法的正義價(jià)值考量。數(shù)據(jù)是算法的基礎(chǔ),作為重要的生產(chǎn)要素,數(shù)據(jù)要素有其正義性的需求。譬如,近年來的“大數(shù)據(jù)殺熟”盛行,對(duì)算法決策的定點(diǎn)式推送再次提出警示。尤其當(dāng)行政管理部門和經(jīng)濟(jì)平臺(tái)運(yùn)用數(shù)據(jù)挖掘技術(shù)對(duì)原始數(shù)據(jù)進(jìn)行抓取、分類、整理和賦值,并依據(jù)訓(xùn)練數(shù)據(jù)給服務(wù)對(duì)象提供相對(duì)應(yīng)的算法模塊,或者建立新的技術(shù)規(guī)范和社會(huì)管理模式時(shí),此種情形的數(shù)據(jù)資源利益關(guān)系就需要規(guī)則的平衡,尤其在數(shù)據(jù)賦值環(huán)節(jié),面對(duì)相同的基礎(chǔ)數(shù)據(jù)常常形成不同的算法決策結(jié)果,這就不單是一個(gè)技術(shù)問題,而是包含著一定的價(jià)值判斷,隱藏和交織著不同的利益訴求和權(quán)利主張,這些挑戰(zhàn)都需要構(gòu)建相應(yīng)的數(shù)據(jù)正義觀給予指引。
3.算法決策與法律決策之間的鴻溝。算法決策遵循數(shù)理邏輯,法律決策依據(jù)社會(huì)邏輯。它們處于兩個(gè)不同的邏輯系統(tǒng),因?yàn)榉蓻Q策必須要以法律規(guī)范為基礎(chǔ),而法律規(guī)范是人們長(zhǎng)期在社會(huì)實(shí)踐中人為創(chuàng)設(shè)出來的行為規(guī)范,折射出人類的理性思維、智慧思辨邏輯和社會(huì)關(guān)系運(yùn)行規(guī)律,本質(zhì)上體現(xiàn)了人與人之間的社會(huì)關(guān)系。而算法決策是由自然人經(jīng)過收集、加工數(shù)據(jù)后設(shè)計(jì)出來的算法模塊,反映了數(shù)據(jù)算力和數(shù)理邏輯,本質(zhì)上是人與機(jī)器的交互行為。算法可視為對(duì)數(shù)據(jù)的計(jì)算過程,這種計(jì)算方式的內(nèi)部運(yùn)行結(jié)構(gòu)就是算法系統(tǒng),算法系統(tǒng)只能通過數(shù)據(jù)模塊運(yùn)算來確定數(shù)據(jù)輸入與結(jié)果輸出的數(shù)值關(guān)系或相關(guān)關(guān)系,卻無法解釋二者的因果關(guān)系和運(yùn)算機(jī)理。目前,算法自動(dòng)化決策僅能做到提高效率、減少工作重復(fù)和簡(jiǎn)單的推理,若要將算法決策轉(zhuǎn)化為法律決策,擺在前面的技術(shù)障礙和理論阻卻難以突破。
算法自動(dòng)化決策雖產(chǎn)生眾多擔(dān)憂,但過分的從規(guī)范性基本原則證成擔(dān)憂并放大人工決策的糾偏效能似乎也不適應(yīng)社會(huì)發(fā)展的規(guī)律,甚至有阻礙算法科技發(fā)展的嫌疑。人工決策和算法決策的糾纏是智能時(shí)代決策二分性的體現(xiàn),對(duì)于程序性、簡(jiǎn)單推理、有高效要求的決策事項(xiàng),在一個(gè)相對(duì)閉合的預(yù)判環(huán)境下,算法決策往往更高效且錯(cuò)誤總量更少。反觀人工決策,決策結(jié)果是在規(guī)則和規(guī)范引導(dǎo)下,依靠決策者的意思自治和對(duì)各種社會(huì)關(guān)系利弊的理性權(quán)衡,判斷往往受經(jīng)驗(yàn)主義和堅(jiān)守“人本主義”及倫理道德價(jià)值的影響,同時(shí),它還承擔(dān)對(duì)算法自動(dòng)化決策的動(dòng)態(tài)校準(zhǔn),及時(shí)糾正算法越界域決策后的不良后果的重要職責(zé)。由于決策過程邏輯的不同,要求決策者辯證地看待彼此不同的兩種決策方式,二者各有其應(yīng)然存在的合理空間,當(dāng)決策者在選擇適用工具時(shí),在不同的場(chǎng)景下應(yīng)遵循二者的邏輯本質(zhì),取長(zhǎng)補(bǔ)短,相互不僭越,彼此合理的場(chǎng)域。
即使揭開了算法自動(dòng)化決策的面紗,最終目的也是為了對(duì)其帶來的風(fēng)險(xiǎn)加以規(guī)制。當(dāng)前,算法決策給現(xiàn)實(shí)生活帶來的安全問題已經(jīng)多有顯現(xiàn),決策者必須清醒地認(rèn)識(shí)到,只有洞悉算法決策風(fēng)險(xiǎn)的發(fā)生邏輯,合理區(qū)分風(fēng)險(xiǎn)類型,才能找到具有針對(duì)性地防范與治理算法自動(dòng)化決策風(fēng)險(xiǎn)的辦法。
從社會(huì)發(fā)展的維度看,算法決策風(fēng)險(xiǎn)是智能化發(fā)展帶來的負(fù)外部性溢出。智能算法驅(qū)動(dòng)社會(huì)管理和人們的經(jīng)濟(jì)生活發(fā)生巨大變革,產(chǎn)生了人機(jī)交互并存的新型社會(huì)生產(chǎn)關(guān)系,算法自動(dòng)化決策系統(tǒng)在提高經(jīng)濟(jì)效率和緩解勞動(dòng)力成本的同時(shí),逐步形成了一種新的算法權(quán)力,該權(quán)力使人們?nèi)菀桩a(chǎn)生路徑依賴,并在公、私法兩個(gè)領(lǐng)域擴(kuò)大算法權(quán)力界域和固化對(duì)人類自決權(quán)的蠶食,這種變化過程必然給社會(huì)結(jié)構(gòu)的穩(wěn)定帶來挑戰(zhàn)。
從算法應(yīng)用的維度看,智能算法具有技術(shù)屬性和社會(huì)屬性高度融合的特征,使得算法決策在社會(huì)各領(lǐng)域得以展開,當(dāng)算法決策在公權(quán)力領(lǐng)域應(yīng)用,會(huì)對(duì)國(guó)家、社會(huì)和個(gè)人安全產(chǎn)生直接影響。在經(jīng)濟(jì)領(lǐng)域的應(yīng)用,平臺(tái)算法可以利用制定算法規(guī)制的優(yōu)勢(shì)地位,在算法中嵌入符合自己最大經(jīng)濟(jì)利益的代碼,使得算法決策權(quán)利化,固化決策者的算法權(quán)利地位。在個(gè)人信息處理中,算法決策利用算法的不可解釋性和不透明性,可以選擇性地盜取用戶的個(gè)人信息,存在個(gè)人信息泄露的風(fēng)險(xiǎn)。
本文認(rèn)為,產(chǎn)生這種問題的主要原因是算法決策明顯違背其應(yīng)運(yùn)的場(chǎng)域問題,算法決策應(yīng)用必須堅(jiān)守的原則和標(biāo)準(zhǔn)是:人們不應(yīng)該在算法決策中嵌入因果關(guān)系判斷,更不應(yīng)該將對(duì)人的道德品行定性評(píng)價(jià)賦權(quán)給機(jī)器去決策。否則,新的不公平會(huì)被算法技術(shù)帶入社會(huì)管理和經(jīng)濟(jì)生活,產(chǎn)生效率掩蓋公正的現(xiàn)象。
恐懼往往來源于未知,算法決策風(fēng)險(xiǎn)源自人和技術(shù)兩方面,但關(guān)鍵要素在于算法技術(shù)本身和決策控制者的價(jià)值追求,我們應(yīng)該將其放置在法律規(guī)制框架下,明確算法控制者與數(shù)據(jù)主體各方的權(quán)利義務(wù)關(guān)系,刻不容緩地架構(gòu)“立法+監(jiān)督+協(xié)同”的治理體系。
2.監(jiān)管部門對(duì)算法決策異化的防控。算法決策系統(tǒng)涉及多方主體,包括算法系統(tǒng)設(shè)計(jì)者、算法決策者、數(shù)據(jù)主體等,加之決策流程的不透明和難解釋特性,算法成為形式上的決策主體后,形成了多方參與者責(zé)任剝離的理由。因此,要面向算法決策設(shè)立專門的科技監(jiān)管機(jī)構(gòu),給予監(jiān)督機(jī)構(gòu)針對(duì)算法決策風(fēng)險(xiǎn)享有相應(yīng)的監(jiān)督、管理和問責(zé)權(quán)限,逐步形成算法倫理性評(píng)估、外督內(nèi)審及第三方制約等監(jiān)督鏈條。