許 可 朱 悅
(1.對外經(jīng)濟貿(mào)易大學(xué) 法學(xué)院,北京 100029;2.圣路易斯華盛頓大學(xué),美國密蘇里州 圣路易斯市 63101)
作為在“有限的時間內(nèi)一步步完成某個任務(wù)的過程”[1]1,算法并不神秘。千百年來,人們一直使用著算法:巴比倫人處理法律事務(wù)時會用到算法,拉丁語老師檢查語法時會用到算法,醫(yī)生預(yù)測病情時會用到算法[2]42,中國《易經(jīng)》更是可以“預(yù)測”未來的終極算法??芍挥性诖髷?shù)據(jù)、人工智能、云計算等嶄新的信息技術(shù)爆發(fā)的當代,算法才得以脫胎換骨,成為支配社會乃至人類自身的權(quán)力。在這個“算法社會”中[3],算法為我們規(guī)劃道路,為我們篩選搜索結(jié)果;為我們做手術(shù);為我們推薦雇主;為我們選擇朋友;為我們吟詩作樂;甚至還能為我們打出社會信用分值。在某種意義上,算法決定了我們是誰,我們看到什么,以及我們?nèi)绾嗡伎肌?/p>
然而,正如人類并非完美一樣,算法也絕非完美無缺,它可能出錯,甚至還可能存在“惡意”。
算法失靈、算法歧視、算法欺詐、算法壟斷等威脅引發(fā)了算法可責的呼吁。算法可責的前提是算法可知,而算法可知的有力工具便是算法可解釋。為此,歐盟議會智庫2019年發(fā)布《算法決策:機遇與挑戰(zhàn)》報告,將“可解釋性”視為算法決策系統(tǒng)中的關(guān)鍵議題。(1)參見Understanding algorithmic decision-making:Opportunities and challenges,http://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2019)624261.在全球范圍內(nèi)影響深遠的《伯克利對人工智能面臨挑戰(zhàn)的系統(tǒng)性觀點》,亦將“可解釋性”視為人工智能算法“適時、穩(wěn)健、安全”的核心要素。[4]人們?nèi)找嫦嘈牛骸皩磳⒌絹淼?、人工智能協(xié)作的時代,如果希冀理解信任管理這一時代,可解釋的人工智能將至關(guān)重要?!盵5]基于此,法律上的“算法解釋權(quán)”浮出水面。2018年,歐盟《通用數(shù)據(jù)保護條例》(GDPR)以1995年歐盟《數(shù)據(jù)保護指令》中“獲知算法內(nèi)部邏輯的權(quán)利”為藍本,在“鑒于”部分第71條和正文第22條針對基于算法的“自動化決策”,賦予個人干預(yù)的權(quán)利,允許其表達其觀點,在評估后獲得該決策的解釋,以及對決策提出質(zhì)疑。(2)因“鑒于”部分(至少在理論層面)并不具備法律約束力,有關(guān)GDPR是否確實設(shè)有獲解釋權(quán)一事,爭論仍未停歇。參見Kuner,Christopher,Lee A.Bygrave,and Christopher A.Docksey,Commentary on the EU General Data Protection Regulation.Forthcoming, Oxford University Press,p.538.受此影響,法國《數(shù)字共和國法》(French loi pour une Rl’publique numl’rique)規(guī)定,個人受到基于算法的行政決定時,有權(quán)要求行政機關(guān)提供算法相關(guān)信息,包括但不限于算法對行政決定的影響程度和方式、使用參數(shù)的權(quán)重和適當性、處理的數(shù)據(jù)及其來源。[6]
但是,正如古老的法諺所言:“法律不強人所難?!彼惴ń忉寵?quán)在立法層面的確立,不得不面臨著大量實踐的質(zhì)疑——“將解釋權(quán)形諸文字,是一回事;將之付諸實踐,則是另一回事?!盵7]具言之,可解釋性的范圍相當模糊:算法何時需要解釋,具體需要何種解釋,難以充分明確[8];其次,即便“解釋”之范圍已經(jīng)明晰,立法者眼中的“解釋”,也時常超出當前技術(shù)的邊界;最后,假設(shè)可解釋性得以理想方式實踐,提供解釋是否能保障個體相應(yīng)權(quán)益,同樣充滿爭議。不僅如此,可解釋性還有可能帶來便利惡意攻擊[9]、侵害商業(yè)秘密[10]等消極后果。因此,無論是在歐盟層面,還是法國國內(nèi),目前算法解釋權(quán)均無執(zhí)法實例,處于邊緣位置。
立法和實踐的背離使得我們深思:在我國邁向智慧城市、建構(gòu)數(shù)字中國的宏大背景下,是否以及如何設(shè)計我國的算法解釋權(quán)制度,這不但是確保人工智能安全、可靠、可控發(fā)展的基石,而且是數(shù)字時代社會、經(jīng)濟、文化、政治復(fù)合風險預(yù)防的關(guān)鍵??紤]到正在制定的《個人信息保護法》可能借鑒歐盟GDPR,引入對自動化算法決策的解釋權(quán)。這一問題顯得更為迫切。為此,本文試圖追根溯源,從科學(xué)解釋的基礎(chǔ)理論出發(fā),探尋解釋算法的技術(shù)邊界,最終構(gòu)造出理論性和操作性兼具的“算法解釋權(quán)”制度。
作為科學(xué)解釋(Scientific Explanation)的子類別,把握算法解釋權(quán)離不開既有解釋理論的支持。在此,我們將從傳統(tǒng)解釋理論開始,嘗試著為算法解釋權(quán)奠定扎實的理論基礎(chǔ)。
傳統(tǒng)解釋理論中,值得算法解釋考慮者有三:“演繹-律則”(Deductive-nomological model)解釋、“因果機制”(Causal mechanical model)解釋及“統(tǒng)計相關(guān)”(Statistical-relevance model)解釋。
從“演繹-律則解釋”角度看,“解釋”分為“解釋項”與“被解釋項”,并需同時滿足以下條件:首先,由解釋項出發(fā),經(jīng)歷演繹論證,可推得被解釋項;其次,解釋項中應(yīng)當至少包含一條恒真定律;再次,對上述推理過程,相應(yīng)定律應(yīng)當是“必不可少的”,或者說,脫離相應(yīng)定律,則上述演繹推理無法成立;最后,“解釋項”中應(yīng)當包含可由經(jīng)驗證實的成分。[11]這一解釋尚無法直接運用于算法解釋中。這是因為,盡管算法已在“發(fā)現(xiàn)高維數(shù)據(jù)中的精細結(jié)構(gòu)”等復(fù)雜問題上取得顯著成就,但仍無法達到理論上對“推理”的要求。[12]目前,算法幾乎完全“由統(tǒng)計學(xué)驅(qū)動”,在因果推理方面仍“相當缺乏”。[13]如此,則很難在算法場景下定位此處理論所需的“定律”。
“因果機制”解釋理論的核心是事物的“過程”。[14]該理論假定:事物具備特定的“恒量”(Invariant quantity)。由恒量出發(fā),事物可能經(jīng)歷“因果過程”,即在特定時空范圍內(nèi),連續(xù)地顯現(xiàn)相應(yīng)恒量,或者經(jīng)歷“因果交互”,即不同事物間發(fā)生恒量的轉(zhuǎn)移或交換。因果機制的直觀性無法在算法解釋中凸顯,實際上,我們往往無法在算法解釋中確定對應(yīng)的“事物”或“恒量”。誠然,借助近年迅速發(fā)展的可視化理論,我們可以定義“變量”或“特征”,并觀察算法訓(xùn)練中相應(yīng)變量或指標變動的過程。(3)可參見Yosinski,Jason,et al.“Understanding neural networks through deep visualization.”arXiv preprint arXiv:1506.06579(2015)。值得注意的是,相關(guān)工作與下一部分提及的、嘗試打開“黑盒”的解釋之間存在密切聯(lián)系。但這些高度依賴具體模型又隨時可能因相應(yīng)領(lǐng)域進展發(fā)生變化的定義[15],恐怕很難(至少在一般的場景下)擔任類似“恒量”的角色。
相比前兩種理論,“統(tǒng)計相關(guān)”解釋的含義更為清晰。給定群體A,個體a(a屬于A),以及群體成員可能具備的特征X、Y、Z,對“a為何具備X”的統(tǒng)計相關(guān)解釋,包含以下三部分:其一,不考慮其他因素時,a具備X的概率,此為無條件概率;其二,計算“a具備X”對Y的條件概率(記為i),計算“a具備X”對Z的條件概率(記為ii),并分別與計算“a具備X”對Y和Z的條件概率(記為iii,便利起見,再假設(shè)i=iii且ii≠iii)。此時,Y與X“統(tǒng)計無關(guān)”,Z與X“統(tǒng)計相關(guān)”;其三,以上,Z是X的一個統(tǒng)計相關(guān)解釋,Y不是X的統(tǒng)計相關(guān)解釋。以下實例有助理解上述定義:記A為全體人群,X為“疾病是否痊愈”,Y為“是否曾祈神”(不考慮或有的安慰劑效應(yīng)),Z為“是否遵醫(yī)囑服藥”,按上述步驟,可知Z解釋X,Y不能解釋X。這一理論勾勒了解釋需滿足的必要條件——如Salmon所述:“……對解釋而言,無關(guān)足以致命”。[16]該理論尚有兩優(yōu)點:一是它容易推廣至算法場景中的相應(yīng)問題;二是這一對照性的理論易與個體對算法解釋的期待相協(xié)調(diào)。這是因為,個體總由比較角度看待解釋;同時,個體僅對所有解釋因素中的一部分感興趣。從這個意義上看,較之側(cè)重演繹推理或因果機制的解釋而言,凸顯少數(shù)特定特征的統(tǒng)計相關(guān)解釋,更加符合個體的相應(yīng)期待。
實用主義解釋理論與傳統(tǒng)解釋理論相對稱,其在追求“實證層面足矣”的同時,也在一定程度上放棄了理論的精確性。實用主義解釋理論的特色在于它依賴于解釋所發(fā)生的場景,以及發(fā)出和接受解釋者的興趣、信念等心理因素。[17]
在實用主義解釋看來,解釋的優(yōu)劣在于是否滿足接受解釋者的興趣,它是心理學(xué)的和場景論的。質(zhì)言之,解釋首先是對照性的,意即人們常問“為什么結(jié)果是這樣,而非那樣?”其次,人選擇性地(以有認知偏差的方式)采納解釋,概率或許不重要;最后,解釋植根于現(xiàn)實場景。循此,有效的解釋應(yīng)一般具備以下結(jié)構(gòu):提供解釋者提出一種解釋方案,并提出其他方案作為對照,再說明為何前者,而非后者,是合適的解釋。無論是對照方案的選取,還是對選取方案的說明,都依賴于被接受者的期待和具體場景。雖然,場景這一概念已無法進一步化約,但從心理學(xué)出發(fā),不妨分出三種加以闡釋:(1)物之組成部分或運行過程;(2)物的功用;(3)物的類別屬性。Lombrozo曾舉出以下例子:在說明“為何特定輪胎是圓的,而不是方的或其他形狀”時,按照上述場景的分類,答案分別是:(1)“蓋因輪胎制造工序如此”;(2)“因為這樣車子運行最方便”;(3)“因為這是個輪胎”。[18]總之,在實用主義立場下,解釋總包含“對照”與“說明”,后者又包含部分特定的形式。
較諸傳統(tǒng)解釋理論,實用主義解釋與算法解釋權(quán)更為契合。這首先因為,將解釋權(quán)定位于個體權(quán)益,特別是面臨“無助、焦慮”個體的權(quán)益上。故而,無論是事前設(shè)計規(guī)制方案,還是事后對規(guī)制效果進行評估,都難以回避關(guān)乎“心理學(xué)特征”的事實,即使特定權(quán)益表面上與心理無關(guān),如在算法成為人格延伸之部分時,維護個體權(quán)益;又或在個體不當暴露脆弱性時。只要希望通過解釋保護相應(yīng)權(quán)益,實用主義的考慮均在所難免。其次,實用主義的引入可適應(yīng)“實證主義”的追求。如Miller之總結(jié),“解釋通常具備社會性”。[19]在實踐中評估特定解釋時,個體既會考慮相應(yīng)行為的動機,也會考慮具體的道德與規(guī)范。前者關(guān)涉心理,后者涉及場景。最后,盡管解釋方案應(yīng)盡量“普適”,伴隨算法的迅速迭代和對社會生活的廣泛滲透,尋求通用性的解釋方案已十分困難。對相應(yīng)解釋要求,須以強調(diào)標準靈活性、設(shè)置差異化規(guī)定或?qū)TO(shè)例外等方式調(diào)節(jié)。最后,實用主義已經(jīng)成為數(shù)字時代法律的底色。以數(shù)據(jù)隱私保護為例,美國學(xué)者Solove將其追溯到特定侵犯造成的“痛苦和壓力”[20];Nissenbaum更是提出了影響深遠的“場景融貫”理論,將尊重數(shù)據(jù)隱私定義為尊重特定場景中的適當性原則,并尊重特定場景中有關(guān)數(shù)據(jù)流動的原則。[21]
但還需說明的是,實用主義解釋的包容性使之并不排斥傳統(tǒng)解釋理論。事實上,由于其對實證層面的強調(diào),其完全可以借鑒“統(tǒng)計相關(guān)”解釋,以增強其說服力。另外,實用主義解釋亦并非是一時一地的,它還要求一定程度的普適性[22],即必須關(guān)注是否廣泛適用于不同類別的算法,就此而言,它屬于弱版本的“模型無關(guān)可解釋”(Model-agnostic explainable)。
徒法不足以自行。在代碼統(tǒng)治的世界中,一種紙面上的權(quán)利能否轉(zhuǎn)化為真實的主張,必須具有技術(shù)可行性,否則只能淪為具文。正如歐盟GDPR實踐所顯示,無論是“在技術(shù)上很難實施”,還是“未能與算法的實際運行掛鉤”,都被視為歐盟算法解釋權(quán)未具實效的原因。[23]事實上,早在20世紀70年代,計算機科學(xué)家就致力于解釋特定類型的算法,但目前仍分歧重重。[24]就此而言,算法解釋權(quán)的技術(shù)路徑毋寧說是決定性的。倘若連奮戰(zhàn)于技術(shù)前沿的研究者都未能弄清算法的具體工作機理,賦予個體清晰知曉內(nèi)部邏輯的權(quán)利,無異于緣木求魚。而在更加積極的面向上,明確技術(shù)邊界所在,并初步說明介入或改善技術(shù)的可能性,應(yīng)是與法律攜手,落實算法解釋權(quán)的必由之路。
與傳統(tǒng)算法不同,當前的主流算法(如深度學(xué)習(xí))并不遵循數(shù)據(jù)輸入、特征提取、特征選擇、邏輯推理、預(yù)測的過程,而是由計算機直接從事物原始特征出發(fā),自動學(xué)習(xí)和生成高級的認知結(jié)果。在其輸入的數(shù)據(jù)和輸出的答案之間,存在著我們無法洞悉的“隱層”,它被稱為“黑盒”(black box)。這里的“黑盒”并不只意味著不能觀察,還意味著即使計算機試圖向我們解釋,我們也無法理解。哥倫比亞大學(xué)的機器人學(xué)家 Hod Lipson把這一困境形象地描述為“這就像是向一條狗解釋莎士比亞是誰”。
在黑盒難以打破的前提下,所謂“黑盒之內(nèi)的解釋”,即只針對模型輸出,而無須或只需要非常優(yōu)先的模型內(nèi)部信息所進行的解釋。根據(jù)信息量的多少,解釋可進一步劃分至三個不同層面[25]:(1)影響算法決策因素的信息;(2)在特定范圍內(nèi),相關(guān)相應(yīng)因素,如何影響算法決策的信息;(3)應(yīng)如何變動對應(yīng)因素,使算法輸出特定決策的信息。
目前,第(1)層解釋方案仍存在大量問題待解。[26]首先,如何在難以解釋的算法中挖掘出相應(yīng)影響因素,目前仍在持續(xù)研究之中。[27]其次,假設(shè)對特定算法,確實可以得出上述信息,但未必能當然地為個體所理解。因為在很多場景中,深度學(xué)習(xí)等算法的目的之一,本就是學(xué)習(xí)有效但常常難以為個體所發(fā)現(xiàn)或表征的影響因素。而在另一部分場景中,開發(fā)者同樣有可能需要將易于為人所理解但不易處理的因素,轉(zhuǎn)化為對處理有效但不易于理解的特征,此謂“特征工程”。[28]最后,即使相關(guān)因素均可為人所理解,由于相應(yīng)模型通常十分復(fù)雜,可能涉及成千上萬個高維因素,而個體通常偏好簡潔的、有選擇的解釋,僅僅機械地展示對決策有所影響的因素,很可能明顯超出個體的認知能力,進而導(dǎo)致解釋無法達到預(yù)期的效果。
第(2)層解釋方案同樣不易,但并非不現(xiàn)實。至少,在一部分算法中,現(xiàn)有技術(shù)可實現(xiàn)以下三類功能:在局部或全局范圍內(nèi),展示不同因素與算法間的相關(guān)性;在局部或全局范圍內(nèi),展示不同因素影響算法決策的程度;以及用本身具備可解釋性的算法,在局部或全局范圍內(nèi)近似其他不可解釋算法。雖然如此,由于第(1)層面信息的限制,如果我們沒有盡曉為個體感興趣且影響算法決策的變量,上述功能的發(fā)揮,自然會打折扣。不僅如此,除“局部可解釋模型不可知論解釋”(Local Interpretable Model-agnostic Explanations, LIME)方法等少數(shù)方法外,其他各類型解釋,多難以普遍適用。(4)此處對LIME方法的實際操作稍微展開:首先,在意欲解釋的樣本(以下稱原樣本)的附近取一定量樣本;其次,將樣本輸入算法,得到相應(yīng)輸出;再次,以相當輸出,訓(xùn)練一個可解釋模型;最后,將新模型輸出按到原樣本的距離(“距離”的具體形式相當靈活)加權(quán)平均。
第(3)層解釋方案即“反事實解釋”理論,相應(yīng)研究已經(jīng)成為法學(xué)與計算機科學(xué)交叉領(lǐng)域的熱點。然而,無論是相應(yīng)理論本身,還是后續(xù)跟進的研究(5)可參見Ustun,Berk,Alexander Spangher,and Yang Liu.“Actionable recourse in linear classification.”Proceedings of the Conference on Fairness,Accountability,and Transparency.ACM,2019,Artelt,André,and Barbara Hammer.“Efficient computation of counterfactual explanations of LVQ models.”,都存在僅適用于特定模型、僅適用于特定數(shù)據(jù)和/或不穩(wěn)健等特性。在考慮相應(yīng)解釋方案時,當較前兩層面而言更加謹慎,也更為可行。
較諸模擬、近似或預(yù)測“算法將如何決策”的黑盒解釋,觸及模型內(nèi)在機理、探討“算法為何如此決策”的“打開黑盒解釋”方案,可能更符合人們對“解釋權(quán)”的通常理解。在一些風險高度敏感的場景中,如果不能從原理層面解釋算法,必然被人詬病。因此,我們不妨大膽預(yù)測,簡要討論相應(yīng)研究,并在法律規(guī)制中為技術(shù)進展預(yù)留空間。
打開黑盒的解釋可分為:(1)不尋求完全揭示算法工作原理,而僅致力于以個體能夠理解的方式,展示算法部分內(nèi)在細節(jié)的解釋;(2)尋求建立能夠充分解釋“算法為何正當”的理論。[29]
第(1)層解釋方案固然迅速發(fā)展,但針對具體算法,則存有四個方面限制:首先,不具備相應(yīng)專業(yè)知識的個體,不太可能理解此類解釋。其次,蓋因此類解釋多用于協(xié)助研究者或開發(fā)者訓(xùn)練、調(diào)試或加固模型,類似方案常僅針對特定模型之參數(shù),未必具備普適性;再次,倘若解釋過度暴露算法的特定內(nèi)部細節(jié),算法安全性可能因此顯著下降。例如,有不少研究意在充分展示神經(jīng)網(wǎng)絡(luò)中的“梯度”(Gradient),以便利開發(fā)者訓(xùn)練其間參數(shù);然而,借助梯度信息,攻擊者可能據(jù)此推斷用于訓(xùn)練算法的原始數(shù)據(jù),從而造成嚴峻的隱私風險。類似信息,亦有可能用于構(gòu)造欺騙算法的對抗樣本,進而帶來難以忽視的安全問題??傊摻忉尫桨?,未必能有效地促進個人權(quán)益,還有可能帶來幅度相當不確定的負面影響。損益相權(quán),總體宜持保守態(tài)度。
至于第(2)層解釋方案,至今仍無實質(zhì)進展。針對深度學(xué)習(xí)的工作原理,即使是近兩年來最具影響力的“信息瓶頸”理論,也無法很好地解釋其他學(xué)者對算法內(nèi)部運行的觀察。[30]若將解釋權(quán)錨定在這一層面上,無疑是“不可能完成的任務(wù)”。不過,在思考可解釋性的中長期愿景時,其可以是考量因素之一。
除上述以“黑盒”為中心的解釋分類外,還有一些解釋屬于幫助個體理解的算法的輔助性方案,如可視化、可交互以及舉例解釋。[31]這些解釋方案均可與前述“黑盒之內(nèi)的解釋”和“打破黑盒的解釋”并行不悖,同時,憑借著工具性質(zhì),它們還能更有效地實現(xiàn)擬議的解釋方案。
“可視化、可交互”使得算法解釋的輸出更顯“用戶友好”。在未經(jīng)恰當方式展示前,信息和邏輯必然是“冷冰冰”的、難以為個體所釋讀的數(shù)字。為此,算法可以在適當?shù)那樾蜗?,以圖像、動畫、表格展示解釋;對滿足特定形式的解釋,可以轉(zhuǎn)化為自然語言,以談話形式與個體溝通算法解釋(6)有關(guān)“自然語言”部分,可參見Hendricks,Lisa Anne,et al.“Generating counterfactual explanations with natural language.”arXiv preprint arXiv:1806.09809(2018);有關(guān)“交互”部分,見于Sokol,Kacper,and Peter A.Flach.“Glass-Box:Explaining AI Decisions With Counterfactual Statements Through Conversation With a Voice-enabled Virtual Assistant”.IJCAI.2018.;至于老年人、殘障人士及兒童等通常需要特別關(guān)注的情形,更需要以特別方式予以交互。反觀個體層面,在感知并評估算法解釋時,個體可能會考慮以下因素中的一種或多種:解釋是否令人滿意;解釋是否完整;解釋是否足夠細致;解釋是否便利操作;解釋是否具備足夠細節(jié);解釋是否有用;鑒于相應(yīng)解釋,算法是否值得信任;等等。同時,亦有部分衡量個體“好奇”或“理解”特定算法程度的指標:是否希望理解算法;是否希望知曉自己的理解是否正確;是否為算法之決策感到驚奇;是否期待理解算法的后續(xù)決策;是否希望理解,算法如何對不同輸入做出反應(yīng);等等。研究者可以借鑒心理學(xué)中用以評估的量表,繪制出“解釋滿意度量表”。放寬視野看,如何增強解釋方案的“用戶友好化”和“場景化”,以及評估相應(yīng)趨勢指標的“進化”,理應(yīng)納入解釋方案的構(gòu)想之中。此外,“舉例解釋”是選取少量算法決策實例,并通過說明相應(yīng)決策的方式解釋算法的方案,其優(yōu)勢在于充分契合了個體認知規(guī)律。一個有效的舉例解釋,應(yīng)當與實用主義解釋類似,具備“對照性”及“選擇性”。當算法決策出現(xiàn)異常、不符合個體預(yù)期時,個體對解釋的需求通常尤為迫切,相應(yīng)解釋效果如何,也會影響后續(xù)對算法的信任。因此,舉例也是解釋方案應(yīng)當考慮的重要成分。
“黑盒之內(nèi)的解釋”是算法解釋權(quán)實現(xiàn)的最主要方案,這不但源于其落在個體理解能力和技術(shù)層面邊界,更由于其與實用主義解釋理論相吻合。其中,由揭示影響決策因素信息,至決策相關(guān)性信息,再到預(yù)測反事實的決策,三層方案層層遞進,困難也層層提升。至于各類打開黑盒的解釋,鑒于其間風險及實現(xiàn)障礙,在出現(xiàn)根本性突破之前,暫可作為方案長期設(shè)想的考慮因素之一。最后,無論是便利個體感知的各類可視化或交互技術(shù),還是重點突出的舉例解釋,均可與“黑盒之內(nèi)的解釋”手段互補運用。
作為一項法律制度,算法解釋權(quán)的困境根植于科技層面的障礙,即沒有充分考量技術(shù)上的實現(xiàn)程度,或者即使承認“在機器學(xué)習(xí)等算法中,使其向用戶提供自動化決策及與個體畫像相關(guān)的信息變得十分困難”,但依然堅持認為“如此困難不應(yīng)成為拒絕提供相應(yīng)信息的正當理由”。[32]其間邏輯聯(lián)系,可謂“跳躍”。為了化解實踐與理論的鴻溝,我們認為,算法解釋權(quán)的構(gòu)造必須秉承實用主義解釋理論,回歸人和算法使用場景,同時在技術(shù)設(shè)定的條件下,促進法律與科技的耦合。
當今,準確界定應(yīng)當提供解釋的主體,正變得愈發(fā)困難。這首先因為,作為算法輸入之數(shù)據(jù),相應(yīng)收集與標注工作日益專業(yè)化,并可能與算法開發(fā)工作相分離。其次,在算法開發(fā)過程中,伴隨Github等專業(yè)平臺的興盛,調(diào)用已有算法實現(xiàn)的現(xiàn)象日益頻繁。[33]由此,即使是算法的開發(fā)者,亦未必清楚算法的具體實現(xiàn)機理。最后,人工智能芯片等封裝算法硬件的發(fā)展,在使算法之實現(xiàn)日趨專業(yè)化、標準化、模塊化的同時,也進一步延長了算法開發(fā)者與實際的算法使用者間的距離。此時,如果令算法開發(fā)者提供解釋,相應(yīng)主體可能亦難與解釋對象直接溝通;而令算法使用者提供解釋,因相應(yīng)主體未必知曉算法原理,無法提供有意義的信息。這是一個兩難選擇。
算法解釋權(quán)的范圍,同樣尚未完全解決。如前所述,除“具備法律效應(yīng)的自動化決策”外,歐盟GDPR第22條及鑒于71條還涵蓋“產(chǎn)生(與法律效應(yīng)相似的)顯著效應(yīng)的”“自動化決策”。這里可以明確的是,“自動化決策”意味著個人無法對該決策過程施加有意義的影響,無論這個決策由行政機關(guān)還是私人部門做出,均在所不問。歐盟29條工作組進一步指出,計算機輔助決策系統(tǒng)并不在該自動化決策范圍內(nèi)。但另一方面,關(guān)于何為“顯著影響”,一直語焉不詳。29條工作組認為,若自動化決策長期或永久地嚴重影響了個人所關(guān)切的環(huán)境、行為和選擇,或?qū)е聜€人遭受排斥或歧視,則構(gòu)成“顯著影響”。對此,GDPR的序言舉出在線信貸申請和數(shù)字招聘的例子,試圖明晰。造就這一困境的同樣是一對張力:一方面,算法日益包羅萬象、滲透個體生活各層面,本身是引入解釋的理據(jù)之一;另一方面,以上倘若對各色算法均要求解釋,相應(yīng)信息之數(shù)量,恐足以構(gòu)成對個體腦海的“DDoS攻擊”。
針對上述難題,我們建議不妨將算法解釋權(quán)與現(xiàn)有個人信息保護實踐深度整合。具言之,提供解釋的主體,是在特定場景下以算法處理其個人信息的“個人信息控制者”;提供解釋的對象,是自動化決策的相對人;提供解釋的范圍,則僅針對特定場景中的算法。此處的“特定場景”,應(yīng)由個人信息保護規(guī)制體系中已經(jīng)或?qū)忻鞯闹匾蛎舾袌鼍敖缍?,包括但不限于健康醫(yī)療,特別是涉及基因遺傳的領(lǐng)域;社會信用;金融業(yè)務(wù);用戶畫像;新聞的個性化推送;(足以識別至個體的)音視頻合成;對相應(yīng)個體產(chǎn)生法律效力的情形;以及后續(xù)被界定為重要或敏感的、使用算法處理個人信息的情形。
既有案例彰顯了上述解釋主體和解釋范圍的正當性。在盧米斯訴威斯康星州一案(Loomis v.Wisconsin)中,威斯康星懲教署引用了“罪犯矯正替代性制裁分析管理系統(tǒng)”(COMPAS)的風險評估結(jié)果,將盧米斯的危險等級認定為“高風險”。盧米斯不服,認為被告人有權(quán)知道被控告的理由,法院依據(jù)COMPAS的評估對其加以判決侵犯其正當程序權(quán)利。(7)可參見Loomis v.Wisconsin,Petition for certiorari denied on June 26,2017,http://www.scotusblog.com/case-files/cases/loomis-v-wisconsin/.在“個人信息控制者”和“個人信息處理者”二分架構(gòu)下,開發(fā)COMPAS系統(tǒng)的Nortpointe公司并不負有解釋算法的義務(wù),其商業(yè)秘密得以保護,而威斯康星懲教署作為決定盧卡斯個人信息使用方式和用途的控制者,應(yīng)說明其算法原理。
算法解釋權(quán)和個人信息保護的整合,既避開了在技術(shù)話語中精確界定主體的困難,又可直接參照個人信息保護中已相對成熟的概念體系,尚可循個人信息保護在“場景性”方面的擴展而不斷調(diào)整。從實踐層面觀察,該等整合將顯著便利解釋主體及監(jiān)管機構(gòu)。對前者而言,算法解釋權(quán)可因此成為個人信息合規(guī)的一部分,而不必分別實施。對后者而言,監(jiān)管工作亦可自然納入現(xiàn)有個人信息違法違規(guī)治理實踐。誠然,如此設(shè)想,可能在一定程度上限制了解釋權(quán)的范圍;不過,相比理論層面之完備,基于實用主義的立場,以及“于現(xiàn)有規(guī)制框架下以審慎態(tài)度探索”的經(jīng)驗教訓(xùn),盡力使算法解釋權(quán)平滑“嵌入”現(xiàn)有規(guī)制思路與實踐,應(yīng)是更加務(wù)實的選擇。
圍繞著算法解釋權(quán)的權(quán)利配置,國內(nèi)學(xué)界已有相當?shù)难芯?。例如,張恩典認為,基于算法模型的建模階段和算法模型運用于特定主體兩階段,可以將算法解釋權(quán)分為以“算法功能為中心”的解釋權(quán)和以“具體決策為中心”的解釋權(quán),前者要求提供的信息包括自動化決策系統(tǒng)的邏輯、意義、設(shè)想后果和一般功能,后者提供的信息包括特定自動化決策的基本原理、理由和個體情況。[34]而張凌寒則立足于具體決策的解釋,將解釋權(quán)分為“事后的具體解釋”“事后更新解釋”,以及對自動化決策者拒不提供解釋或沒有提供充分解釋的救濟。[35]在本文的脈絡(luò)下,之前的研究或者忽視了技術(shù)條件對解釋權(quán)的強烈制約,或者忽視了解釋權(quán)普適性的要求。在此基礎(chǔ)上,本文試圖從“黑盒內(nèi)之解釋”出發(fā),貼合技術(shù)場景和個體需求,提出三層次的算法解釋權(quán)構(gòu)造。
1.算法所需個人信息的解釋權(quán)
個人有權(quán)要求信息控制者(一般為算法使用者)在合理范圍內(nèi),展示輸入算法變量(個人信息)的權(quán)利。詳言之,(1)此處輸入變量的“合理范圍”,由相應(yīng)算法所處理的個人信息所準確界定。在某種意義上,這可視為個人信息保護中已有規(guī)定的延伸——解釋主體需告知用戶,收集或處理個人信息的目的,是用于優(yōu)化上述目標,并進而達到采用算法的目的。如果算法之輸入包含非個人信息變量,解釋主體可靈活決定是否展示。(2)對需要展示的個人信息,可分為“個人敏感信息”和“其他個人信息”。對于后者,解釋主體可以靈活選擇展示方式。比如,對多個性質(zhì)詳盡的變量(如工作單位、社交網(wǎng)絡(luò)、關(guān)注與點贊清單等),以主成分分析或其他方式,概括為同一變量(“社交”)展示。對其間“個人敏感信息”,主體宜單獨展示每一變量。(3)展示過程中,主體既可以采取簡單的文字列表方式,也可以采取符合認知特點的可視化方式。對兒童、老年人或殘疾人等或有不便的群體,鼓勵專門設(shè)計符合認知特點的展示方式。
這一層次的解釋權(quán)有助于個體對算法產(chǎn)生較為全面的理解,從而促進人格尊嚴、知情信任和理性選擇。此外,要求算法主體全面展現(xiàn)算法所處理的個人信息與個人敏感信息,既有利于個體及時發(fā)現(xiàn)個人信息保護中的風險,又有利于觀察算法中是否可能存在需要不合理的歧視現(xiàn)象。同時,鑒于此處僅要求說明主體很可能本來便需要展示的內(nèi)容,并對具體展示形式賦予了較高程度的靈活性,不太可能造成安全或侵犯秘密的風險。而在解釋理論層面,將要求限縮至個人信息,尤其是個人敏感信息層面,符合解釋的“選擇性”要求。
對此,近年判決的NJCM cs/De Staat der Nederlanden案可資佐證。(8)可參見The SyRI case:a landmark ruling for benefits claimants around the world,https://privacyinternational.org/news-analysis/3363/syri-case-landmark-ruling-benefits-claimants-around-world在該案中,荷蘭政府采取算法,根據(jù)工作、稅收、教育、住房、養(yǎng)老金等多種個人信息,預(yù)測個體在領(lǐng)取社會救濟時舞弊的概率,卻沒有公開這一算法使用的任何具體信息。海牙地區(qū)法院在援引ECHR第8條后判決:由于這一系統(tǒng)不夠透明、無法驗證,對算法可能造成的隱私侵害缺乏足夠防護,荷蘭政府侵犯了公民的隱私權(quán),應(yīng)當立即停用這一系統(tǒng)。
2.算法邏輯的解釋權(quán)
個人有權(quán)要求信息控制者(一般為算法使用者)在合理的范圍內(nèi),說明相應(yīng)算法變量(個人信息)對自動化決策結(jié)果產(chǎn)生何種影響的權(quán)利。在具體實施層面,可作如下四方面展開:(1)這里的“相應(yīng)變量”僅包括上一層次已經(jīng)涵蓋的個人信息中參與實際分析推斷的信息。(2)決策結(jié)果需要在具體場景中界定,包括但不限于診療結(jié)果、信用分數(shù)、信貸決定,等等。(3)“影響”有必要進一步細化。在輸入(個人信息)與輸出(決策結(jié)果)均可排序的場合(9)可以排序的情形并不少見,至少包括:數(shù)字變量;二元變量(例如男女,可用一對數(shù)字量化,數(shù)字的具體大小不重要);以及其他具備自然排序的變量(例如信用評級的分等)。,個人信息控制者可以展示數(shù)字化變量間的“正相關(guān)”與“負相關(guān)”,說明當輸入信息(在一定范圍內(nèi))上升/下降時,輸出結(jié)果的高低變化。而在輸入或輸出無法排序的場合,可允許其靈活處理,既能顯示全局相關(guān),也可展示局部相關(guān),只需說明相應(yīng)相關(guān)性的作用范圍即可。(4)個人信息控制者應(yīng)選擇用戶友好形式解釋說明。針對個人,信息控制者應(yīng)幫助其理解特定信息如何影響決策結(jié)果,從而成為后續(xù)知曉并對抗算法歧視問題的重要依據(jù);針對公眾,信息控制者應(yīng)幫助其了解富含不同社會價值的信息類型以何種方向影響輸出,有利于更精細地評估算法是否恰當平衡了各方社會利益。在解釋理論層面,此處要求的統(tǒng)計相關(guān)解釋,可作為過于靈活、難以準確界定的實用主義解釋的補充。
在K.W.ex rel.D.W.v.Armstrong一案中,愛達荷州聯(lián)邦地區(qū)法院已采取了上述解釋進路。(10)可參見K.W.ex rel.D.W.v.Armstrong,789 F.3d 962(2015).多年來,愛達荷州政府對智力或發(fā)育殘疾的個體進行評估,基于多項問卷數(shù)據(jù),計算個體每年領(lǐng)取的救濟金數(shù)目。2012年前后,相關(guān)算法缺陷致使救濟金計算錯誤,嚴重影響被救濟人生活,4 000余人由此發(fā)起集體訴訟。法院判定,州政府需要充分告知民眾救濟金數(shù)目發(fā)生變化的具體原因,如問卷特定項目的答案發(fā)生變化,或者是其他解釋和根據(jù)(Explanation/Justification)。
3.算法審計的解釋權(quán)
“算法審計”要求個人信息控制者(一般為算法使用者)針對模型、數(shù)據(jù)和決策結(jié)果留有明確記錄,從而在變動對應(yīng)因素后,使算法輸出特定決策,以備監(jiān)管部門、第三方機構(gòu)或法院的核查,最終判斷算法是否將會導(dǎo)致歧視性或其他不當后果。[36]與之前兩個層次的權(quán)利不同,該權(quán)利更傾向于事后的驗證、測試和問責。為此算法主體應(yīng)當建構(gòu)出一套具有交互診斷分析能力的系統(tǒng),通過檢視輸入數(shù)據(jù)和重現(xiàn)執(zhí)行過程,來化解人們可能的質(zhì)疑?!胺词聦嵔忉尅背蔀檫@一層面解釋權(quán)的核心。具體而言,個人信息控制者應(yīng)根據(jù)“若非 A 則無 B”的反事實解釋原則,允許個體選取希冀達到之決策結(jié)果,并告知個體如何變動現(xiàn)有輸入信息,可以實現(xiàn)所選輸出結(jié)果。
若任一層次的算法解釋權(quán)無法實現(xiàn),個體即可不接受該等算法做出的決定,并有權(quán)要求相應(yīng)算法使用者采取人工方式重新做出。此外,考慮到許多經(jīng)由算法的決定系其他事務(wù)的中介環(huán)節(jié)或必要前提,遭受不利影響的個體還可另行提出其他權(quán)利主張,以彌補損失。例如,在征信領(lǐng)域,央行征信報告和科技金融公司的信用評分在風險控制中的作用日益凸顯,如個體認為其在貸款發(fā)放過程中被不公正對待,且央行或科技金融公司未能充分履行算法解釋的義務(wù),則個體可以據(jù)此要求賠償因之產(chǎn)生的“純粹經(jīng)濟損失”。
在人工智能的決策中,“準確性”(accuracy)和“可解釋性”(interpretability)始終負相關(guān),換言之,容易向人類解釋的算法的準確性往往低于難以理解的算法。(11)可參見Will Goodrum,Finding balance:Model accuracy vs.interpretability in regulated environments,https://www.elderresearch.com/blog/predictive-model-accuracy-versus-interpretability.例如,深度學(xué)習(xí)、隨機森林(Random Forests)、支援向量機(Support Vector Machines, SVMs)等準確性高的算法可解釋性相對較低,而可解釋性較高的信念網(wǎng)路(Belief Nets/Bayesian)或決策樹(Decision Trees)卻有著較低的準確性。這種“準確性”和“可解釋性”兩難,何嘗不是科技與法律的兩難。我們生活在一個科技領(lǐng)先于法律的時代,這是科學(xué)家的幸運,但亦是法律人的不幸!面對人之尊嚴和人之完整性被算法侵蝕的威脅,算法解釋權(quán)是不可或缺的制度因應(yīng)。但同時必須承認,迄今為止,我們還很難為算法提供有意義、普適且自洽的解釋理論,它需要數(shù)學(xué)和哲學(xué)等基礎(chǔ)學(xué)科方面的積淀,需要心理學(xué)和社會學(xué)提供的經(jīng)驗,算法解釋權(quán)的法律之途任重而道遠。