摘要:近年來隨著算法決策運(yùn)用增多,如何規(guī)制算法決策引起了學(xué)界廣泛的關(guān)注。表面上來看,算法解釋權(quán)是打開算法黑箱,使算法決策過程透明化和可理解的理想手段。然而,算法解釋權(quán)并非國際立法之通例,可行性不高,難以發(fā)揮實(shí)際作用,重要性和必要性不足,在既有法律體系下,其旨在實(shí)現(xiàn)的功能和目標(biāo),均可為其他法律規(guī)制手段所實(shí)現(xiàn),無須另行創(chuàng)設(shè)算法解釋權(quán)。用法律引導(dǎo)和規(guī)制算法,需要從注重公私法合力、充分利用現(xiàn)有法律規(guī)范、根據(jù)行業(yè)特點(diǎn)制定各類安全標(biāo)準(zhǔn)、細(xì)化告知披露義務(wù)等多方面著手。
關(guān)鍵詞:算法決策;算法黑箱;算法解釋權(quán);算法規(guī)制
作者簡介:辛巧巧,中國政法大學(xué)博士后(北京 100088)
基金項(xiàng)目:中國法學(xué)會民法學(xué)研究會青年學(xué)者研究項(xiàng)目“我國公共不動產(chǎn)役權(quán)制度研究”(2018MFXH005)
DOI編碼:10.19667/j.cnki.cn23-1070/c.2021.03.011
一、問題的提出
人類進(jìn)入21世紀(jì)以來,智能工具和算法應(yīng)用日益廣泛,深刻影響了大眾的日常生活。算法決策,尤其是自動化算法決策,以其高效、客觀、便捷的特點(diǎn),廣受歡迎。在商業(yè)領(lǐng)域,企業(yè)使用算法決策為用戶提供個性化新聞推薦、精準(zhǔn)廣告推薦、智能語音、圖像識別等服務(wù)。在公共領(lǐng)域,政府機(jī)構(gòu)使用算法決策進(jìn)行自動化行政辦公,為公眾提供線上自動化行政服務(wù),司法機(jī)構(gòu)使用算法決策進(jìn)行智能審判,如虛假訴訟甄別、證據(jù)判斷、智能庭審記錄、類案推薦、量刑輔助、文書生成,等等。
隨著算法應(yīng)用的增多,算法決策中存在的問題和隱藏的風(fēng)險(xiǎn)也日益顯現(xiàn)。人們發(fā)現(xiàn),算法決策結(jié)果并非絕對的公平公正,算法決策結(jié)果也可能帶有歧視和偏見,也可能是不公正的。然而,面對機(jī)器學(xué)習(xí)算法具有自主學(xué)習(xí)和難以解釋的特點(diǎn),傳統(tǒng)法律規(guī)制方式似乎力有不逮。因此,如何規(guī)制算法問題成為了當(dāng)前法學(xué)界研究的熱點(diǎn)問題。
針對機(jī)器學(xué)習(xí)算法復(fù)雜且難以理解的特點(diǎn),以及由此引發(fā)的算法“黑箱”問題,算法解釋權(quán)的呼吁和探討興起。一般認(rèn)為,算法解釋權(quán)是對算法輸出進(jìn)行解釋的權(quán)利,對個人法律或經(jīng)濟(jì)上有重大影響的算法決策進(jìn)行解釋的個人權(quán)利。算法解釋權(quán)直觀地承諾使算法更加透明和可理解,從而有利于及時發(fā)現(xiàn)算法決策中存在的問題,并提出異議和質(zhì)疑,提高算法的可責(zé)性,化解算法危機(jī)。因此,一些論者主張?jiān)谖覈ㄖ性O(shè)置算法解釋權(quán)作為新型的算法權(quán)利。更有論者認(rèn)為,可解釋性原則是算法治理和算法規(guī)制需要堅(jiān)持的第一原則。1
本文旨在探討,算法解釋權(quán)是否可以有效地實(shí)現(xiàn)算法透明和促進(jìn)算法理解,算法解釋權(quán)是否規(guī)制算法的可行措施或最佳措施,進(jìn)而揭示,算法解釋權(quán)既不可行,也無必要,而且,設(shè)置算法解釋權(quán)旨在達(dá)成的目標(biāo),可以采用其他更為合適的方法和途徑完成。
二、算法解釋權(quán)理論之提要
(一)算法解釋權(quán)的提出
2018年歐盟頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR)被認(rèn)為首次在立法中提出和創(chuàng)設(shè)了算法解釋權(quán)。該法在序言第71條指出,對個人法律或經(jīng)濟(jì)上有重大影響的自動化決策應(yīng)當(dāng)受到適當(dāng)?shù)姆纱胧┑募s束,這些措施包括向數(shù)據(jù)主體提供具體信息以及獲得人工干預(yù)、表達(dá)意見、獲取決策如何做出的解釋和對決策提出質(zhì)疑的權(quán)利。其中首次提及“解釋”(explanation),即數(shù)據(jù)主體有權(quán)要求對個人法律或經(jīng)濟(jì)上有重大影響的自動化決策進(jìn)行解釋的個人權(quán)利。為此,歐盟學(xué)者就GDPR是否設(shè)立了算法解釋權(quán)以及有無必要設(shè)置算法解釋權(quán)展開了爭論,在該規(guī)定和相關(guān)研究的啟示下,我國一些學(xué)者也呼吁我國立法引入算法解釋權(quán)。
在國內(nèi),對于算法解釋權(quán)尚無統(tǒng)一定義,以算法決策作為解釋客體,有學(xué)者強(qiáng)調(diào)解釋與具體決策的相關(guān)性,認(rèn)為算法解釋權(quán)是包括異議、解釋、更新、更正的一系列權(quán)利;2也有學(xué)者強(qiáng)調(diào)解釋決策得出的過程,僅強(qiáng)調(diào)解釋的權(quán)利。3但不管持何種觀點(diǎn),算法解釋權(quán)的核心是“解釋”,即尋求特定算法決策結(jié)果的原因和理由。同時,在類型上,學(xué)者依據(jù)解釋的對象和解釋的時間的不同,將算法解釋權(quán)中的解釋分為以系統(tǒng)功能為中心的解釋與以具體決策為中心的解釋,以及具體決策做出前的“事前解釋”與具體決策做出后的“事后解釋”4。
(二)對算法解釋權(quán)的呼吁及其理由
目前,支持算法解釋權(quán)的理由主要有:
第一,算法解釋權(quán)可以打開算法“黑箱”,實(shí)現(xiàn)算法透明,提高算法的可責(zé)性,解決“算法歧視”“算法不公”等問題。這種觀點(diǎn)認(rèn)為,算法“黑箱”導(dǎo)致了算法決策責(zé)任性的缺失,算法解釋權(quán)可以增強(qiáng)算法透明度,使復(fù)雜的算法決策為人所理解,從而增強(qiáng)算法的責(zé)任性。5算法解釋權(quán)可以使相對人了解決策是如何做出的,進(jìn)而發(fā)現(xiàn)決策過程和結(jié)果中存在的歧視和不公問題。
第二,算法解釋權(quán)有助于矯正商業(yè)算法決策中權(quán)力地位不平等的狀態(tài),解決“算法暴政”“算法霸權(quán)”問題。這種觀點(diǎn)認(rèn)為,算法解釋權(quán)可以矯正商業(yè)自動化決策中的信息不對稱,平衡自動化決策者和相對人的地位不平等狀態(tài),限制算法權(quán)力,從而實(shí)現(xiàn)合同平等、自由和正義。6算法解釋權(quán)可以體現(xiàn)對相對人意思自治的尊重,1關(guān)乎用戶的自主、尊嚴(yán)及人格,有助于消弭數(shù)字鴻溝,對抗“算法霸權(quán)”2。
第三,作為規(guī)則的算法需要解釋。這種觀點(diǎn)認(rèn)為,算法與傳統(tǒng)法律均屬于規(guī)則,作為規(guī)則的法律需要進(jìn)行解釋,同樣作為規(guī)則的算法也需要解釋。
第四,算法是可解釋的。這種觀點(diǎn)認(rèn)為,多數(shù)算法具有可解釋性。3而且,可解釋性的機(jī)器學(xué)習(xí)方法正在成為計(jì)算機(jī)科學(xué)中一個活躍的新興熱門領(lǐng)域,這為算法解釋權(quán)的可行性提供了技術(shù)基礎(chǔ)。
第五,通過特定的解釋方法,可以回避解釋上的技術(shù)難題和認(rèn)知上的理解難題。這種觀點(diǎn)主張,算法解釋權(quán)追求的是可理解的解釋權(quán)4和“可理解的透明度”,即沒有算法專業(yè)知識的普通大眾也可以獨(dú)立地理解。5具體實(shí)現(xiàn)途徑為:一是通過“反設(shè)事實(shí)解釋”的方法予以解釋,即不關(guān)注算法內(nèi)部運(yùn)作邏輯,而是關(guān)注輸入數(shù)據(jù)和輸出結(jié)果之間的關(guān)聯(lián)關(guān)系,告知哪些事實(shí)影響了最終的輸出結(jié)果。6二是通過簡明的自然語言、可視化圖表等普通人能夠充分理解的方式予以解釋。7
第六,通過限定解釋對象和解釋范圍,明確解釋條件,可以避免算法解釋權(quán)帶來的弊端。為避免泄露知識產(chǎn)權(quán)和商業(yè)秘密,有學(xué)者主張,算法解釋權(quán)尋求的是“適當(dāng)透明性”,不用完全公開算法,只用“對算法模型的邏輯和有意義的信息”進(jìn)行解釋,8例如,做出具體決策所參考的數(shù)據(jù)、主體畫像、數(shù)據(jù)權(quán)重等信息。9也有學(xué)者主張,算法解釋權(quán)尋求的是“有法律意義的信息”,解釋的內(nèi)容不用包括技術(shù)細(xì)節(jié)。10還有學(xué)者主張,“在解釋對象上算法僅向某些特定群體進(jìn)行小范圍的公開解釋,在解釋范圍上核心算法可以不解釋不公開,在解釋條件上由法律明確規(guī)定”11或者“僅在個案中向單個數(shù)據(jù)主體披露”12。
第七,通過限制算法解釋權(quán)的適用,化解算法解釋權(quán)面臨的難題。這種觀點(diǎn)認(rèn)為,可以通過設(shè)置權(quán)利行使的門檻,防止權(quán)利濫用,避免設(shè)置解釋權(quán)所帶來的較高的解釋成本和對決策效力的影響。具體而言,即僅當(dāng)決策結(jié)果與合理預(yù)期不相符時才可主張這一權(quán)利,并在有關(guān)機(jī)關(guān)內(nèi)部設(shè)置單獨(dú)部門對解釋請求做形式審查。13
第八,算法解釋權(quán)在歐美法中已經(jīng)是法定的權(quán)利。這種觀點(diǎn)通常認(rèn)為,2018年生效的歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)第13條、第14條、第15條、第22條和序言第71條,14美國《信貸機(jī)會均等法》(ECOA)與《公平信用報(bào)告法》(FCRA)中規(guī)定的不利行動告知條款,以及2017年《關(guān)于算法透明性和可問責(zé)性的聲明》中提及的算法解釋原則,從立法上肯定了算法解釋權(quán)。
從上述理由來看,算法解釋權(quán)直觀地承諾可以打開算法“黑箱”,促進(jìn)算法透明和理解,提高算法問責(zé)的可能性,似乎是一種具有吸引力的、可行且有必要的規(guī)制方式。但實(shí)際真的是這樣嗎?
三、算法解釋權(quán)的實(shí)然性和可行性質(zhì)疑
(一)算法解釋權(quán)的實(shí)然性質(zhì)疑
第一,算法解釋權(quán)在歐盟法中是否是實(shí)然的法定權(quán)利還有較多爭議,即使是也存在著重大缺陷。歐盟GDPR僅在序言第71條提及“解釋”,由于序言對歐盟各國不具備直接的法律約束力,1在歐盟各國能否得到承認(rèn)還有疑問,這導(dǎo)致了法律的不確定性。GDPR第13條和第14條規(guī)定的是知情權(quán),第15條規(guī)定的是訪問權(quán),第22條規(guī)定的是拒絕權(quán)、異議權(quán),也難以直接作為算法解釋權(quán)的法律依據(jù)。即使肯認(rèn)GDPR設(shè)立了算法解釋權(quán),這一權(quán)利也存在著適用范圍有限,適用標(biāo)準(zhǔn)不明確,甚至自相矛盾的缺點(diǎn)。2具體而言:其一,算法解釋權(quán)僅適用于基于個人數(shù)據(jù)做出的、非公共決策的、對個人“法律或經(jīng)濟(jì)上”有“重大”影響的自動化決策,這使得大多數(shù)算法決策爭議案件都不能適用這一權(quán)利。3其二,對于何為算法自動化決策,何為“重大”的算法自動化決策,沒有明確標(biāo)準(zhǔn),而且,也未規(guī)定算法解釋權(quán)的行使規(guī)則和算法解釋所需要達(dá)到的標(biāo)準(zhǔn)。其三,GDPR第22條(1)規(guī)定,如果算法決策對數(shù)據(jù)主體有法律效力或者重大影響,那么這種決策不應(yīng)純粹由算法做出。結(jié)合上述其一可能導(dǎo)致這一權(quán)利無適用對象??梢?,即使從形式上而言,這一規(guī)定也存在著重大缺陷。將其直接引入我國值得商榷。
第二,算法解釋權(quán)在美國法中尚未被承認(rèn)。美國法中被學(xué)者們視為算法解釋權(quán)法定依據(jù)的條款,實(shí)際上并未賦予個人算法解釋權(quán)。根據(jù)美國《信貸機(jī)會均等法》等的規(guī)定,只要是不良信用記錄均需要說明原因,并非僅針對算法生成的信用記錄,而且,是通過對信用機(jī)構(gòu)施加一般性的說明告知義務(wù)的方式而非賦予個人算法解釋權(quán)的方式來實(shí)現(xiàn)的?!蛾P(guān)于算法透明性和可問責(zé)性的聲明》,鼓勵使用算法決策系統(tǒng)的機(jī)構(gòu)主動對算法過程和特定決策提供解釋,也并未賦予用戶算法解釋權(quán)。考慮到解釋的技術(shù)可行性難題,該項(xiàng)聲明中提及的七項(xiàng)算法治理原則,除解釋原則是“鼓勵”之外,其余六項(xiàng)均為“應(yīng)該”達(dá)到的。4
總之,算法解釋權(quán)并非國際立法之通例,歐盟法中的現(xiàn)有規(guī)定也尚不足以支撐我國引入這一新型權(quán)利,還需要從可行性和必要性等更為本質(zhì)的角度進(jìn)一步討論。
(二)算法解釋權(quán)的可行性質(zhì)疑
第一,機(jī)器學(xué)習(xí)算法的可解釋性較弱,即使是設(shè)置算法解釋權(quán)也難以執(zhí)行。算法解釋權(quán)行使的前提是算法解釋在技術(shù)上的可行性。簡單算法的解釋尚屬可行,但機(jī)器學(xué)習(xí)算法,尤其是深度學(xué)習(xí)算法,很難解釋其模型輸出結(jié)果產(chǎn)生的原因?;跀?shù)據(jù)驅(qū)動的機(jī)器學(xué)習(xí)算法模型,可以從海量數(shù)據(jù)中直接提取特征,進(jìn)行分析運(yùn)算,生成預(yù)估。其中,深度學(xué)習(xí)算法更是一種擁有自主學(xué)習(xí)能力的動態(tài)算法,在算法工程師選擇了最初的算法模型后,算法會不斷地吸收新的信息并構(gòu)建更為復(fù)雜的算法模型,有時結(jié)果的生成還會參入隨機(jī)因素,這使得即使是算法設(shè)計(jì)者也無法解釋自己所設(shè)計(jì)的算法模型結(jié)果生成的原因。因此,對于機(jī)器學(xué)習(xí)算法而言,即使設(shè)置算法解釋,也難以執(zhí)行,易流于形式、形同虛設(shè),5無法實(shí)現(xiàn)規(guī)范的目的。
第二,可解釋性的機(jī)器學(xué)習(xí)方法也難以支撐算法解釋權(quán)。其一,可解釋性的機(jī)器學(xué)習(xí)方法難以從技術(shù)上為法律上的解釋權(quán)提供充分的支撐??山忉屝缘臋C(jī)器學(xué)習(xí)方法雖然可以幫助了解算法決策是如何做出的,幫助推導(dǎo)輸入與輸出之間的因果關(guān)系,但很大程度上,這種因果關(guān)系只是統(tǒng)計(jì)意義上的,而非規(guī)范意義上的,二者之間存在著難以跨越的價(jià)值鴻溝。1其二,可解釋性的要求需要以準(zhǔn)確性為代價(jià),強(qiáng)行設(shè)置算法解釋權(quán)會影響算法決策的效率和準(zhǔn)確性。算法的準(zhǔn)確性通常隨其復(fù)雜性而變化,算法越復(fù)雜,準(zhǔn)確性越高,解釋就越困難。目前,可解釋性的要求需要以犧牲準(zhǔn)確性為代價(jià)。這使得可解釋的算法應(yīng)用場景有限,因?yàn)閮H在少數(shù)領(lǐng)域可解釋比準(zhǔn)確性更重要,在多數(shù)場合下,可解釋性的要求不能以犧牲或約束性能、扼殺效益為代價(jià)。例如,對于自動駕駛而言,能夠解釋事故重要,還是避免事故更重要?解釋事故關(guān)系到事后法律追責(zé),而避免事故直接關(guān)系到乘坐人員的人身安全。可解釋性的機(jī)器學(xué)習(xí)方法雖然為機(jī)器學(xué)習(xí)算法的解釋提供了可期待的技術(shù)基礎(chǔ),但不得不面臨可解釋性與準(zhǔn)確性之間的折中選擇和權(quán)衡。強(qiáng)行設(shè)置算法解釋權(quán)客觀上可能犧牲算法決策的準(zhǔn)確率,提高算法應(yīng)用的開發(fā)成本,減緩行業(yè)發(fā)展,犧牲市場效率。
第三,即使是賦予用戶算法解釋權(quán),許多用戶也難以獲得理解。機(jī)器學(xué)習(xí)算法具有高度的專業(yè)性和復(fù)雜性,機(jī)器學(xué)習(xí)算法模型中充滿了專業(yè)術(shù)語表達(dá)和復(fù)雜的非線性函數(shù)計(jì)算。對于算法模型最終輸出結(jié)果的原因和理由,許多具有專業(yè)知識背景的人士也難以完全理解并提出質(zhì)疑,更不用說大多數(shù)非專業(yè)人士。即使完全公開算法模型,許多公眾和行政管理人員也難以獲得理解,更別說從中發(fā)現(xiàn)系統(tǒng)設(shè)計(jì)的偏見和不公因素。算法部署者可能還會通過模糊的、晦澀難懂的算法運(yùn)行邏輯以及冗余混雜的數(shù)據(jù)信息來推卸責(zé)任,使算法解釋權(quán)成為逃避自身責(zé)任的工具,2從而妨礙追責(zé)。
運(yùn)用簡明的表達(dá)方式或“反設(shè)事實(shí)解釋”也難以實(shí)現(xiàn)“可理解”的解釋權(quán)和“可理解”的透明度。其一,從信號輸入角度來看,算法作為一套可執(zhí)行的計(jì)算機(jī)準(zhǔn)則,是以計(jì)算機(jī)的語言和邏輯表達(dá)的,將機(jī)器的推理過程轉(zhuǎn)化為人類可認(rèn)知、理解和表達(dá)的邏輯還存在著困難。機(jī)器學(xué)習(xí)算法模型中所提取的許多特征或變量,可能并不是如同“年齡”“性別”一般清晰,而是更加抽象的行為序列、模擬信號數(shù)字化等,一些特征或變量可能缺乏清晰的人類理解和解釋,難以用清晰的自然語言或可視化工具予以表達(dá)。3其二,在復(fù)雜的機(jī)器學(xué)習(xí)算法模型中,變量多而復(fù)雜,每個用戶可能擁有數(shù)以百萬甚至上億計(jì)的變量,任何輸入或計(jì)算都難以被稱為主要因素,全面概述或解釋模型輸出結(jié)果的影響變量、權(quán)重、邏輯在技術(shù)上是不可能的。即使是采用“反設(shè)事實(shí)解釋”也無法回避這一難題,因?yàn)椤胺丛O(shè)事實(shí)解釋”依然需要能夠說明影響決策結(jié)果的關(guān)鍵值、主要特征、權(quán)重占比。4而且,“反設(shè)事實(shí)解釋”是一種簡化的主邏輯的解釋,對于主邏輯之外的非核心因素及其復(fù)雜變換也難以提供有效的解釋。
第四,算法解釋權(quán)在權(quán)利保障上是低效的、不經(jīng)濟(jì)的,即使賦予用戶算法解釋權(quán),也不足以矯正算法權(quán)力。算法決策中的透明性和權(quán)力地位不平等問題,通常關(guān)系到用戶群體的利益,個體用戶行使權(quán)利難以保障群體用戶的權(quán)益,個體賦權(quán)式治理的碎片化特點(diǎn)甚至有可能還會阻礙集體行動的達(dá)成,5導(dǎo)致權(quán)利保障的低效和不經(jīng)濟(jì)。個體賦權(quán)式治理還面臨著個體能力有限的問題,往往不足以對抗強(qiáng)大的資本,矯正現(xiàn)實(shí)社會中存在的權(quán)力地位不平等問題,難以實(shí)現(xiàn)真正的意思自治和交易自由。例如,算法解釋權(quán)行使的前提是知曉算法決策,但現(xiàn)實(shí)中,相對人可能不知對其產(chǎn)生影響的決策是由算法做出的,更不用說發(fā)起算法解釋權(quán)。
第五,設(shè)置算法解釋權(quán)不利于社會多元利益保護(hù)。商業(yè)算法決策系統(tǒng)中通常會有一些公司商業(yè)秘密、知識產(chǎn)權(quán)、個人隱私數(shù)據(jù)。政府部門的算法決策系統(tǒng)中除了個人信息、隱私數(shù)據(jù)之外,還可能會有一些國家秘密。設(shè)置算法解釋權(quán)有可能會造成個人隱私、商業(yè)秘密、知識產(chǎn)權(quán)等數(shù)據(jù)的泄露,不利于數(shù)據(jù)安全或國家安全,也難以防止黑客攻擊、算法惡意利用、競爭對手剽竊和效仿等風(fēng)險(xiǎn),長遠(yuǎn)來看會抑制算法應(yīng)用的研發(fā)投資和產(chǎn)業(yè)創(chuàng)新。即使限制算法解釋權(quán)的解釋對象、范圍、條件,或僅提供“有法律意義的信息”,也難以避免知識產(chǎn)權(quán)和商業(yè)秘密等數(shù)據(jù)的泄露。允許公司“適當(dāng)”地公開或提供解釋,為公司留出了一定的解釋空間,卻難以保證解釋和實(shí)際情況的一致性,更難以證明具體決策的正當(dāng)性,仍然無法解決公眾的信任問題。而且,算法解釋權(quán)能否發(fā)揮作用對用戶個人能力依賴較強(qiáng),用戶的技術(shù)理解能力差異使得解釋的“可理解”性會因人而異,這使得解釋的限度和程度難以確定,何為“有法律意義的信息”和“適當(dāng)”的信息也難以分辨。這些方式難以化解算法解釋權(quán)與多元利益保護(hù)之間的緊張關(guān)系。
第六,設(shè)置算法解釋權(quán)會加重用戶和公司平臺雙方的負(fù)擔(dān)。對于個體用戶而言,享有難以實(shí)現(xiàn)理解的解釋權(quán),會增加權(quán)利行使成本和認(rèn)知負(fù)擔(dān)。對于企業(yè)而言,承擔(dān)大量難以實(shí)現(xiàn)的解釋義務(wù),會增加企業(yè)的解釋成本和負(fù)擔(dān)。防止解釋權(quán)濫用而設(shè)置的門檻,提高了用戶獲得解釋的難度,卻不一定會減少解釋權(quán)的主張,反而會增加企業(yè)設(shè)置部門與形式審查的成本,而且也難以保證企業(yè)內(nèi)部部門審查的公正性。
總之,實(shí)踐中,面對機(jī)器學(xué)習(xí)算法,算法解釋權(quán)的可行性不高,難以發(fā)揮實(shí)際作用。難以破除算法“黑箱”,帶來算法理解和算法透明,解決信息不對稱問題,也難以矯正算法權(quán)力,難以完全重塑算法決策的可責(zé)性。即使設(shè)置算法解釋權(quán),也可能會流于形式,成為“僵尸權(quán)利”,甚至?xí)l(fā)新的問題,如影響算法決策的效率,不利于社會多元利益協(xié)調(diào),帶來較高的解釋成本。
四、算法解釋權(quán)的重要性和必要性質(zhì)疑
(一)算法解釋權(quán)的重要性質(zhì)疑
第一,從算法決策問題的根源來看,算法“黑箱”,甚至算法,都并非唯一的或最主要的因素。算法決策中的“歧視”與“不公”,主要源于算法模型對現(xiàn)實(shí)社會中歧視與不公的吸收和實(shí)然反映,以及設(shè)計(jì)者的價(jià)值偏向滲入及其對算法方法選擇的不合適。算法“黑箱”帶來的信息不對稱與處理過程不透明,會導(dǎo)致算法決策中的問題難以被及時發(fā)現(xiàn)和監(jiān)督,從而加劇和放大算法決策風(fēng)險(xiǎn),但不能將算法應(yīng)用危機(jī)的根源完全歸根于算法“黑箱”。而且,算法僅是算法決策涉及的技術(shù)和因素之一,算法決策中的許多問題并非來自于算法,數(shù)據(jù)、代碼程序、架構(gòu)設(shè)計(jì)等系統(tǒng)其他的組成部分,以及外部環(huán)境變化、第三方干擾、人為破壞、惡意使用等,都可能導(dǎo)致算法決策結(jié)果出現(xiàn)問題。將注意力集中在算法上,將難以發(fā)現(xiàn)與算法決策相關(guān)的事實(shí)全貌。僅解釋算法,打開或破解算法“黑箱”,提高算法透明度,并不能完全重塑算法決策的可責(zé)性,也不能從根本上解決各類算法決策的風(fēng)險(xiǎn)。
第二,人類社會中大多數(shù)決策并不需要做出解釋?!昂谙洹睆V泛地存在于人類社會中,大多數(shù)時候并不需要解釋。在私人生活中,個人所做出的很多決策,并不需要向他人解釋。在市場經(jīng)濟(jì)中,企業(yè)所做出的很多經(jīng)營決策,同樣并不需要向消費(fèi)者進(jìn)行解釋。商業(yè)領(lǐng)域的自動化算法決策,許多是誘導(dǎo)性的而非強(qiáng)制性的,動態(tài)生成的、個性化的,此時,決策能夠在多大程度上影響用戶,往往與用戶個體自身本來的意愿息息相關(guān),而且,用戶通過改變自己的個人行為,如點(diǎn)擊次數(shù)、閱讀時長,即可改變算法決策結(jié)果。雖然這些決策可能會對他人或消費(fèi)者產(chǎn)生經(jīng)濟(jì)上或法律上的影響,需要法律加以規(guī)制和治理,卻沒有解釋的必要。換言之,許多決策有規(guī)制必要,卻沒有解釋的必要,解釋權(quán)難以成為規(guī)制算法決策的通用工具。
總之,即使可以獲得理解,解釋權(quán)也難以成為治理算法最重要的工具,“可解釋原則”也難以成為規(guī)制算法的“第一原則”。
(二)算法解釋權(quán)的必要性質(zhì)疑
現(xiàn)代社會復(fù)雜問題的決策通常不能不證自明,了解決策做出的理由、過程、優(yōu)點(diǎn)、不足、風(fēng)險(xiǎn),通??梢蕴岣邔τ跊Q策結(jié)果的信任和把握。從法律上讓算法決策更易理解、更具可責(zé)性,也具有重要意義,但算法解釋權(quán)所預(yù)期達(dá)成的目的和功效,在很大程度上,可以被其他更適合的規(guī)制方式所實(shí)現(xiàn)。
第一,設(shè)置算法解釋權(quán)的直接目的是提高算法的透明度和可理解性。透明和可理解要求,在法律領(lǐng)域一直存在,并非只有算法決策的場景才有的新需求,但一般并不會通過解釋權(quán)的方式實(shí)現(xiàn)。其一,雖然法律規(guī)則需要解釋,但法律并未賦予個體法律解釋權(quán),而是通過程序和法律規(guī)范保障立法的科學(xué)性和嚴(yán)謹(jǐn)性,通過司法解釋來發(fā)展和完善法律,通過裁判說理的方式展現(xiàn)裁判依據(jù)和事實(shí)、理由,通過裁判宣讀和文書送達(dá)、上訴等程序機(jī)制以及裁判文書公開等制度保障訴訟當(dāng)事人的權(quán)益。其二,行政領(lǐng)域重在規(guī)范權(quán)力運(yùn)行的正當(dāng)性,一般通過法定義務(wù)和正當(dāng)程序、信息公開等方式來約束公權(quán)力的運(yùn)行,保障公眾的合法權(quán)益,兼顧結(jié)果公平和過程公平。如我國法律規(guī)定了行政處罰告知義務(wù)、行政復(fù)議告知義務(wù)、行政信息公開制度,并通過程序性的規(guī)則保障公眾的知情、參與、異議和救濟(jì)的權(quán)利。其三,商業(yè)領(lǐng)域重在保護(hù)消費(fèi)者的意思自治和交易自由、交易公平,主要采用知情權(quán)等個體權(quán)利以及告知義務(wù)等法定義務(wù)來糾正市場信息不對稱,為消費(fèi)者提供更多的市場信息,從而促進(jìn)實(shí)質(zhì)上的交易自由與交易公平。例如,我國《消費(fèi)者權(quán)益保護(hù)法》規(guī)定消費(fèi)者享有知情權(quán)和選擇權(quán),要求經(jīng)營者承擔(dān)如實(shí)說明義務(wù)和風(fēng)險(xiǎn)警示義務(wù),并對應(yīng)當(dāng)說明告知的具體事項(xiàng)、內(nèi)容、方式進(jìn)行了列舉和約束。1在醫(yī)療、證券、金融等對個人權(quán)益影響較大、關(guān)涉市場秩序或公共利益的領(lǐng)域,有關(guān)法律也規(guī)定了醫(yī)務(wù)人員的說明告知義務(wù),發(fā)行人、上市公司的信息披露義務(wù)。2
第二,設(shè)置算法解釋權(quán)的最終目的是提高問責(zé)和及時提供救濟(jì),3但這在很大程度上可以被事后面向結(jié)果的問責(zé)所實(shí)現(xiàn)。理解和解釋算法決策是如何做出的,或許對于厘清事實(shí)能夠提供一些幫助,但即使無法解釋原因和過程,算法部署者也應(yīng)對其所使用的算法運(yùn)行結(jié)果負(fù)責(zé)。雖然算法具有了一定的學(xué)習(xí)能力,但總體上而言,算法依然是人類的工具,算法輸出結(jié)果依然可以為人類所控。而且,即使是在技術(shù)上,對于機(jī)器學(xué)習(xí)算法模型的評估、管理和優(yōu)化,也不是通過監(jiān)督其內(nèi)部結(jié)構(gòu)和算法來實(shí)現(xiàn)的,而是通過約束其外部表征、結(jié)果和目標(biāo)來實(shí)現(xiàn)的。如果預(yù)測的結(jié)果不正確或不符合設(shè)計(jì)目標(biāo),就會對模型進(jìn)一步調(diào)試和修正。相較于原因的難以解釋,算法決策的目標(biāo)和結(jié)果都是容易識別和判斷的。大多數(shù)算法決策結(jié)果可以用常識推理識別,進(jìn)行合理性評判和規(guī)范評估。從法律上而言,對于這種復(fù)雜的算法模型系統(tǒng)的規(guī)制,相較于通過監(jiān)督其內(nèi)部的算法和技術(shù)細(xì)節(jié),直接約束其輸出結(jié)果更為合適和更具可行性。應(yīng)更加注重算法決策結(jié)果的公正性,而非對結(jié)果的解釋。4面向結(jié)果的問責(zé)也能倒逼算法部署者、設(shè)計(jì)者改善系統(tǒng)設(shè)計(jì)和技術(shù)措施,預(yù)防算法風(fēng)險(xiǎn)和危害。1
第三,從算法解釋權(quán)的核心內(nèi)容和功能來看,是向相對人提供“解釋”。其一,以具體決策為中心的解釋,以糾紛解決機(jī)制中的舉證責(zé)任分配機(jī)制替代更為合適。當(dāng)人們尋求解釋時,往往是在質(zhì)疑算法決策的正當(dāng)性和合理性,尋求更為正當(dāng)?shù)摹⒐降臎Q策。而算法決策的正當(dāng)性和合理性,不能以某一方的認(rèn)知作為評價(jià)基礎(chǔ),需要中立的第三方,將具體事實(shí)與規(guī)范相聯(lián)系,對決策結(jié)果進(jìn)行個案分析和價(jià)值評價(jià)。因此,需要在糾紛解決機(jī)制中,結(jié)合歸責(zé)原則、過錯認(rèn)定規(guī)則等,要求算法部署者負(fù)擔(dān)相應(yīng)的舉證責(zé)任,證明決策結(jié)果的合理性。在必要時還可以配置專家證人輔助審判人員、訴訟當(dāng)事人理解??梢笙到y(tǒng)對決策關(guān)鍵數(shù)據(jù)作以記錄并保存一定時間,為糾紛解決提供數(shù)據(jù)證據(jù)。其二,以系統(tǒng)功能為中心的解釋,旨在提供對算法決策系統(tǒng)功能的一般性說明解釋,以知情權(quán)和說明告知等義務(wù)的規(guī)范方式替代更為合適。這至少有以下優(yōu)勢:一是事后對系統(tǒng)功能的解釋說明,往往不如事前的說明告知及時和有意義;二是對于算法部署者而言,僅需依據(jù)法律規(guī)定的事項(xiàng)、框架和方式履行相關(guān)義務(wù),行為標(biāo)準(zhǔn)清晰,具有較強(qiáng)的行為指引性和可預(yù)見性,可以避免承擔(dān)過重的技術(shù)成本和解釋成本;三是有利于克服用戶個體能力的局限性,保障用戶群體和社會公眾均能獲取有用的信息,對于矯正權(quán)力地位不平等和信息不對稱現(xiàn)象更加有效;四是其在內(nèi)容上與知情權(quán)有較大的重合,采用知情權(quán)和告知等義務(wù)的規(guī)范方式,有利于沿續(xù)法律規(guī)制的傳統(tǒng),避免法律沖突、權(quán)利內(nèi)容發(fā)生重疊。
第四,從算法解釋權(quán)的其他內(nèi)容和功能來看,與知情權(quán)、異議權(quán)、更正權(quán)等權(quán)利在內(nèi)容上發(fā)生了較大的交錯重合。算法解釋權(quán)不能代替這些更具針對性的、獨(dú)立的權(quán)利,反而其功用可以被這些權(quán)利所分擔(dān)和承接。增設(shè)權(quán)利邊界并不清晰的算法解釋權(quán),反而會造成法律冗余,與既有法律規(guī)范產(chǎn)生適用上的重復(fù)甚至沖突。2
總之,算法解釋權(quán)并非最為適合的規(guī)制方式,具有高度的可替代性。不賦予算法解釋權(quán)并不意味著放任不公開、不說理、不可理解,也并不代表不可救濟(jì)。在當(dāng)前各領(lǐng)域均存在大量法律規(guī)范的情形下,解釋的功能和目標(biāo)基本上已經(jīng)被其他法律規(guī)范所分擔(dān)。而且,這些規(guī)制方式,在不對算法決策運(yùn)行邏輯和結(jié)果進(jìn)行解釋的情況下,較好地平衡了用戶權(quán)利保障與算法部署者利益保護(hù)之間的關(guān)系更為恰當(dāng)。即使有解釋的需要,即使可以獲得理解,也無須以解釋權(quán)的方式實(shí)現(xiàn),無設(shè)置解釋權(quán)的必要。
五、算法解釋權(quán)之外的可行路徑
算法解釋權(quán)表面上看似是規(guī)制算法決策與解決算法決策不公問題的理想手段,但實(shí)際上并不能提供有效的幫助。為了更好地實(shí)現(xiàn)算法決策公平,需要在充分利用現(xiàn)有法律資源的基礎(chǔ)上,探尋其他解決路徑彌補(bǔ)現(xiàn)有法律規(guī)制的不足之處。
第一,要注重公私法合力規(guī)制。當(dāng)人們尋求解釋時往往是在尋求更為正當(dāng)?shù)臎Q策,僅僅提供“解釋”難以滿足相對人尋求正當(dāng)決策的目的和意圖。不能孤立地看待解釋需求,解釋需求的滿足是一個系統(tǒng)功能,需要多項(xiàng)法律規(guī)范統(tǒng)合性的規(guī)制。而且,面對強(qiáng)大的人工智能平臺、高度復(fù)雜的機(jī)器學(xué)習(xí)算法,以及算法已全方位滲透社會生活的現(xiàn)實(shí),將權(quán)利救濟(jì)的希望寄托于個體賦權(quán)式的救濟(jì)之上是不切實(shí)際的,期望依靠單項(xiàng)權(quán)利或單一法律制度解決算法黑箱和算法不公問題也是難以實(shí)現(xiàn)的。整合性地運(yùn)用公法和私法規(guī)范資源,通過法律、倫理、政策、行業(yè)規(guī)范等多種規(guī)制手段進(jìn)行多領(lǐng)域多層次的統(tǒng)合規(guī)制,以及公私合力,政府、市場、社會力量共同參與,發(fā)揮行政規(guī)制、市場調(diào)控、社會自治多元機(jī)制的作用,多管齊下,才能在算法治理中形成體系性的周全的規(guī)制。
第二,要充分利用現(xiàn)有法律規(guī)范。由于算法技術(shù)和應(yīng)用發(fā)展快速,容易大規(guī)模地投入使用和普及,規(guī)制缺失或規(guī)制不足時更容易造成較大的社會危害。而改變法律和倫理滯后于算法技術(shù)和業(yè)務(wù)發(fā)展的現(xiàn)狀,形成成熟而健全的規(guī)范體系,尚需要一段時間。在新的規(guī)范形成之前,有必要盡可能地利用現(xiàn)有法律資源,援用已有法律原則和條文規(guī)定,運(yùn)用好既有治理框架、治理機(jī)構(gòu)、治理技術(shù),減少無規(guī)范狀態(tài),引導(dǎo)算法規(guī)范化應(yīng)用。具體到黑箱問題和透明性要求上,一些法律規(guī)則應(yīng)當(dāng)依然可以適用。因?yàn)槿绻骋皇马?xiàng)需要保持透明或公開,那么無論是否使用算法或其他技術(shù)來達(dá)成該事項(xiàng),都應(yīng)如此。例如,司法裁判文書不論是由法官還是自動化審判系統(tǒng)做出的,都需要依法公開,并對相關(guān)的司法文檔進(jìn)行保存?,F(xiàn)行法律規(guī)定有告知義務(wù)、信息披露義務(wù)、信息公開義務(wù)的事項(xiàng),如果是智能算法做出的,也應(yīng)當(dāng)履行相關(guān)義務(wù)。例如,行政處罰不論是不是自動化行政系統(tǒng)做出的,都需要履行依法告知義務(wù)。
第三,要根據(jù)行業(yè)特點(diǎn),明確人工智能系統(tǒng)的設(shè)計(jì)和部署要求,制定具體的監(jiān)管標(biāo)準(zhǔn)、設(shè)計(jì)標(biāo)準(zhǔn)、性能標(biāo)準(zhǔn)、安全標(biāo)準(zhǔn)、隱私標(biāo)準(zhǔn),規(guī)范上線風(fēng)險(xiǎn)評估和安全審查標(biāo)準(zhǔn)與流程。例如,自動駕駛系統(tǒng)、臨床決策支持系統(tǒng)、智能投訴等,除了需要遵循汽車、醫(yī)療、金融等領(lǐng)域既有的安全規(guī)范和監(jiān)管規(guī)范,還需要由相關(guān)部門結(jié)合系統(tǒng)特點(diǎn)有針對性地出臺具體的性能標(biāo)準(zhǔn)、質(zhì)量標(biāo)準(zhǔn)等,保障系統(tǒng)上線入市使用前,性能經(jīng)過充分的測試,具備準(zhǔn)確性、穩(wěn)定性、可靠性、安全性的基本要求。其中,要特別注意公共治理領(lǐng)域人工智能系統(tǒng)設(shè)計(jì)標(biāo)準(zhǔn)中的算法方法選擇要求。公共治理領(lǐng)域往往涉及公共秩序和公共利益,對于透明度的要求較高。在人工智能系統(tǒng)部署時就需要采用可理解性較強(qiáng)、能夠生成和輸出關(guān)鍵信息的算法,以化解算法黑箱與司法公開、行政公開的沖突。在算法部署時就應(yīng)采用可理解性較強(qiáng)的算法模型,而非事后追求對不可解釋模型的強(qiáng)行解釋。如果一種可解釋的算法和一種不可解釋的算法所能實(shí)現(xiàn)的性能效果一樣好,宜優(yōu)先選擇可解釋的算法,因?yàn)檫@更有助于后續(xù)理解、判斷和改進(jìn)算法決策模型及結(jié)果。1
第四,要結(jié)合人工智能的特點(diǎn),有針對性地細(xì)化告知義務(wù)、披露義務(wù)等法定義務(wù)的內(nèi)容、標(biāo)準(zhǔn)和框架,對過往沒有的新型算法決策有針對性的立法。例如,對于行政處罰告知義務(wù)可以結(jié)合算法決策的特點(diǎn)進(jìn)一步細(xì)化,要求對行政處罰算法決策的結(jié)果和主要依據(jù)保持透明。當(dāng)對相對人做出的具體行政決策是由算法系統(tǒng)直接做出的,需要對算法輸出結(jié)果和支持的關(guān)鍵值保持透明。當(dāng)算法結(jié)果僅是具體行政決策的支持,該項(xiàng)行政決策結(jié)果及包括算法結(jié)果在內(nèi)的理由需要依照相關(guān)的規(guī)定以易獲取和易懂的方式向相對人予以說明或給出答復(fù)。值得注意的是,不僅算法,數(shù)據(jù)訓(xùn)練、代碼編程、計(jì)算機(jī)架構(gòu)體系等對于普通群眾而言也是難以理解的,告知、說明或披露義務(wù)不宜過于關(guān)注具體的技術(shù)細(xì)節(jié),而應(yīng)關(guān)注用戶使用該人工智能所受到的影響及其主要影響因素的告知、說明或披露。
第五,要完善數(shù)據(jù)主體的數(shù)據(jù)權(quán)利。數(shù)據(jù)對于人工智能最終輸出結(jié)果有著重要的影響。如果輸入的數(shù)據(jù)本身就包含歧視和偏見,就會被算法所“學(xué)習(xí)”并帶到輸出結(jié)果中,控制好數(shù)據(jù)輸入能夠較好地預(yù)防算法決策結(jié)果偏差。在商業(yè)領(lǐng)域,可采用數(shù)據(jù)收集利用知情同意規(guī)則,2賦予用戶更正權(quán)、刪除權(quán)、可攜帶權(quán)等個人權(quán)利,尊重用戶的數(shù)據(jù)利用意愿和提高用戶對個人數(shù)據(jù)的控制能力。在公共領(lǐng)域,可采用法定數(shù)據(jù)收集使用機(jī)制,由法律明確規(guī)定數(shù)據(jù)收集來源、范圍、主體,主要目的和用途,以保證正確的、相關(guān)的數(shù)據(jù)輸入,防止不合理的、歧視性的數(shù)據(jù)隨意錄入。當(dāng)用戶發(fā)現(xiàn)數(shù)據(jù)錯誤或?qū)Y(jié)果不服時,可以提出異議、申訴,要求對錯誤進(jìn)行更正。
第六,要明確平臺責(zé)任,加強(qiáng)平臺監(jiān)管。網(wǎng)絡(luò)平臺是我國商業(yè)化人工智能應(yīng)用的主要場所和實(shí)施主體,也是最有能力控制算法模型結(jié)果、預(yù)防算法技術(shù)風(fēng)險(xiǎn)的主體。以平臺為抓手,明確平臺應(yīng)承擔(dān)的法律責(zé)任,加強(qiáng)平臺監(jiān)管,可以較好地引導(dǎo)平臺自我規(guī)范,也有利于提高監(jiān)管效率、落實(shí)監(jiān)管責(zé)任。在平臺治理理念上要兼顧算法產(chǎn)業(yè)發(fā)展、消費(fèi)者權(quán)益保護(hù)與算法規(guī)制,注重平臺、多方用戶的利益平衡。
第七,要建立良好的溝通反饋機(jī)制。社會不斷發(fā)展變化,不斷有新的現(xiàn)象和訴求產(chǎn)生,人工智能需要不斷地更新優(yōu)化和升級才能滿足社會需求。有必要通過國家、行業(yè)、社會公眾多方面的力量推動平臺的自我反思和各界互動,促進(jìn)平臺對算法持續(xù)性的優(yōu)化,對智能算法系統(tǒng)不斷地更新、優(yōu)化、升級,以滿足不斷發(fā)展變化的社會訴求。具體而言,在制度層面要建立和提供溝通反饋機(jī)制,及時根據(jù)公眾反饋、社會建議以及檢查監(jiān)督情況優(yōu)化改善系統(tǒng),促進(jìn)人工智能提供更具人性化和社會適應(yīng)性的服務(wù)。
結(jié) 語
人工智能時代,智能工具和算法的運(yùn)用在給人類社會帶來極大的福利的同時,也帶來了隱患。算法決策中的歧視和不公現(xiàn)象會損害相對人的權(quán)益。對此,算法解釋權(quán)被認(rèn)為是一種有效可行的路徑。然而,實(shí)際上,算法解釋權(quán)難以成為規(guī)制算法的可行路徑和必要解決方案,更不能成為規(guī)制算法最重要的工具。算法解釋權(quán)并非國際立法之通例。從技術(shù)可行性、權(quán)利效用、社會多元利益保護(hù)、權(quán)利設(shè)置的成本上,算法解釋權(quán)也不具有可行性。強(qiáng)行設(shè)置算法解釋權(quán),有可能流于形式難以執(zhí)行,即使執(zhí)行也會代價(jià)較大,影響市場效率,不利于多元利益保護(hù),還可能與既有法律規(guī)定產(chǎn)生重合甚至沖突。而且,設(shè)置算法解釋權(quán)旨在實(shí)現(xiàn)的功能和目標(biāo),可以通過知情權(quán)、說明告知等義務(wù)、面向結(jié)果的問責(zé)機(jī)制等規(guī)制方式所分擔(dān)和承接,這些規(guī)范方式可以在不對算法決策結(jié)果或算法運(yùn)行邏輯進(jìn)行解釋的情況下,較好地平衡用戶權(quán)利保障與算法部署者利益保護(hù)之間的關(guān)系,是較算法解釋權(quán)更為合適的規(guī)制方式??傊?,無須另行創(chuàng)設(shè)算法解釋權(quán)。為了更好地實(shí)現(xiàn)決策公平,有必要公私合力,在充分利用現(xiàn)有法律資源的基礎(chǔ)上結(jié)合算法決策的特點(diǎn)有針對性地完善相關(guān)規(guī)范,并分別結(jié)合商業(yè)算法決策和公共治理領(lǐng)域算法決策的特點(diǎn)進(jìn)行有重點(diǎn)的規(guī)制,形成反思優(yōu)化機(jī)制,促進(jìn)算法應(yīng)用與社會的良性互動。
[責(zé)任編輯 李宏弢]