梁振文
(湘潭大學 法學院,湖南 湘潭 411105)
自2014年國務(wù)院發(fā)布《社會信用體系建設(shè)規(guī)劃綱要》以來,我國正穩(wěn)步推進社會信用體系建設(shè)。社會信用體系建設(shè)本質(zhì)是一個在幾乎任何人、任何事上使用聲譽機制的工程[1]。在大數(shù)據(jù)時代,依托于大數(shù)據(jù)分析的算法技術(shù)迅速發(fā)展,算法自動決策對社會信用體系建設(shè)的影響日益明顯。一方面,高效、精確的算法有助于提高決策的效率與精準度,維護社會信用秩序,但另一方面,算法“黑箱”、算法權(quán)力的產(chǎn)生增加了算法決策給社會信用體系建設(shè)帶來的風險[2]86。因此,推動社會信用體系建設(shè)既需要充分利用算法技術(shù),也須對算法決策保持警惕。作為可規(guī)制算法,提高算法透明度與決策可責性的法律手段,算法解釋權(quán)獲得了較多關(guān)注與認可。
2018年5月25日生效的《歐盟一般數(shù)據(jù)保護條例》(下文簡稱為GDPR)是目前影響較大的算法解釋權(quán)立法先例。GDPR序言(Recital)第71條提出解釋權(quán)是數(shù)據(jù)主體“在任何情況下都應(yīng)受到適當?shù)谋U?,其中?yīng)包括關(guān)于數(shù)據(jù)主體的具體資料和獲得人為干預(yù),表達其觀點,獲得對這種評估后作出決定的解釋并對該決定提出質(zhì)疑的權(quán)利”。就此,有研究認為,算法解釋權(quán)的實質(zhì)是立法者設(shè)計的促進算法透明度的個性化措施,能夠較好地依據(jù)算法應(yīng)用的多元化場景為個人提供靈活和及時的制度保障[3]1438。這些詮釋反映了對算法解釋權(quán)的不同解讀。算法解釋的對象為自動化處理的算法決策,從權(quán)利的目的來看,算法解釋權(quán)是法律賦權(quán)于數(shù)據(jù)主體,由其請求人工干預(yù)算法決策及表達異議并獲得相應(yīng)解釋,以此實現(xiàn)制約算法權(quán)力,保障數(shù)據(jù)主體權(quán)益的權(quán)利。
算法解釋權(quán)為約束算法權(quán)力而提出,以域外立法為參考,我國正在探索以設(shè)定平臺算法義務(wù)為主、賦予個體權(quán)利為輔的復(fù)合型治理路徑[4]。立法確認算法解釋權(quán)是以權(quán)利約束權(quán)力的選擇,算法自動決策已廣泛應(yīng)用于社會信用體系建設(shè)場景,需要算法解釋權(quán)對其進行規(guī)制。本文以此為切入點,通過分析算法解釋權(quán)的構(gòu)造及具體信用場景的應(yīng)用,就算法解釋權(quán)法治保障的困境及路徑作出探討,以期拋磚引玉。
社會信用體系建設(shè)進程中,信用信息數(shù)據(jù)是社會信用制度的基礎(chǔ)[5],信用評價的客觀、公平也取決于信用信息數(shù)據(jù)的客觀公正。因此,對信用數(shù)據(jù)的治理需充分發(fā)揮其客觀性[6]。然而大數(shù)據(jù)算法逐漸占據(jù)統(tǒng)治地位的算法社會[7],由于諸多原因,信用信息的客觀公正越來越難以保證,信用主體需要借助算法解釋權(quán)來規(guī)制算法,保障自身權(quán)益。
算法技術(shù)的應(yīng)用拓展了信用信息的深度和廣度,也導(dǎo)致信用信息的客觀性難以保證。這首先體現(xiàn)在信用信息的內(nèi)涵擴大、類型增多。從信息來源方式看,信用信息既包括市場信用信息,也包括政府部門等在履職過程中形成的公共信用信息。此外,與日俱增的網(wǎng)絡(luò)用戶產(chǎn)生的線上信息,如搜索、瀏覽記錄以及社交媒體記錄等都可能被收集并用于作出影響主體權(quán)益的算法決策。其次,信息提供者、使用者的來源更廣泛。新興技術(shù)降低了信息收集、存儲、處理和傳輸?shù)某杀?,信息的流動和共享更加便利,除銀行等傳統(tǒng)金融機構(gòu)外,信息提供者、使用者擴及公共部門乃至普通人。再次,信用信息的準確性、完整性以及獲取途徑的合法性面臨挑戰(zhàn)。現(xiàn)代網(wǎng)絡(luò)日益普及與發(fā)達,但缺乏嚴格的身份認證和審查機制,用戶線上交易和社交信息等極易被泄露和盜用。信息廣度與深度的新變化使信用信息收集與使用的正當性與合法性遭受新的挑戰(zhàn),僅依賴行業(yè)慣例或革新技術(shù)已不足以保證信用信息的客觀公正性。實現(xiàn)新時代對信用主體的權(quán)益保護,需要通過更合理的制度設(shè)計加強對信用信息收集與使用等環(huán)節(jié)的法律規(guī)制,從而有效應(yīng)對完善社會信用體系建設(shè)的難題。
信息不對稱是信息經(jīng)濟學的一項重要理論,指某些信息締約當事人一方知道而另一方不知道,甚至第三方也無法驗證,即使驗證,也需要巨大的人力、物力和精力[8]。同時,這種不對稱也將激發(fā)陌生人之間交易的不確定性和機會主義行為,隨之產(chǎn)生的信息成本又成為了交易成本的一部分[9]。成本的增加反過來加劇了信息的不對稱,而“數(shù)據(jù)是新型石油”[10],誰掌握的基礎(chǔ)數(shù)據(jù)量大,誰就擁有更大的算法權(quán)力,谷歌、亞馬遜、Facebook、阿里巴巴、騰訊等網(wǎng)絡(luò)巨頭的涌現(xiàn)即是明證。顯而易見,目前這些數(shù)據(jù)控制者與數(shù)據(jù)主體之間呈現(xiàn)的信息不對稱史無前例。根據(jù)海量信息,數(shù)據(jù)控制者可以設(shè)計、使用算法對廣大信用主體進行評價并作出決策,卻只對決策結(jié)果負通知義務(wù)。如美國廣泛采用的自動化信用評分系統(tǒng)被認為對女性與少數(shù)民族裔等弱勢群體構(gòu)成了系統(tǒng)性負面影響[11]14-15。但這些負面影響如何形成、如何消除,相對人群卻知之甚少也束手無策。正如有學者所言,數(shù)據(jù)控制者無視監(jiān)視參與者的同意和知識,以及這種監(jiān)視所帶來的安全性,卻獨享信息和情報收益,這是一種典型的未經(jīng)授權(quán)的入侵[12]。這種入侵亦會出現(xiàn)在信貸場景中,在貸款申請人看來,信貸流程就是一個黑箱,他們知道提交的材料和得到的結(jié)果,卻不知道里面發(fā)生了什么[13]。算法的日益高端化和算法決策的復(fù)雜性,使信用主體面對的信息不對稱遠高于以往,而其所享有的權(quán)利卻沒有相應(yīng)改變。這導(dǎo)致了兩者之間權(quán)力—權(quán)利的不匹配,因此需賦予信用主體相應(yīng)的法律權(quán)利來改變這種不匹配的狀態(tài)。
信息自決權(quán)是指每個人基本有權(quán)自行決定是否將其個人信息交付和提供使用的權(quán)利[14],包括使個人信用信息免受監(jiān)控和審查以及對個人信用信息的自由轉(zhuǎn)讓[15]。理論上,信用主體知曉并同意個人信用信息的自由流轉(zhuǎn),算法才能在對個人信用信息篩選整合的基礎(chǔ)上進行信用評價并作出決策。信息自決權(quán)的實質(zhì)也是每個信用主體有權(quán)選擇是否將個人信息“讓渡”出來,交由金融機構(gòu)、征信機構(gòu)和互聯(lián)網(wǎng)平臺進行整合、篩選,完成信用評分和風險評估。這是增強社會的信用風險防控能力,維護市場交易秩序的必經(jīng)程序。可見,信息自決權(quán)與算法自動決策緊密關(guān)聯(lián),信息自決權(quán)的實現(xiàn)關(guān)乎著公共利益與私人利益。然而也正因如此,出于算法決策的需要,相對強勢的信息控制者往往無視信息自決權(quán)的存在,擅自使用與處理信息,這就導(dǎo)致信用主體信息自決權(quán)被限制與削弱。社會信用體系建設(shè)講究誠信、公正,即使是政府主導(dǎo)建設(shè),也不能以削弱甚至忽視信用主體的正當權(quán)利為理所當然。算法解釋權(quán)賦權(quán)于信用主體,是能使信息使用與處理的決定權(quán)從信息控制者向信用主體適當傾斜的有效手段。
我國信用體系建設(shè)要求全覆蓋,算法社會中的每個信用主體的行為都會作為信用數(shù)據(jù)被記錄,由算法監(jiān)控、整合、使用并作出決策,算法決策直接關(guān)系信用主體的利益。自然人作為主要的信用主體,本就相對弱勢,若決定其信用評價的信用信息客觀公正性無法保證,且只能單方面承受與服從算法權(quán)力,則其基本的信息權(quán)益得不到保障,顯然不利于建設(shè)公平公正的社會信用體系。賦予信用主體算法解釋權(quán)既是保障其權(quán)益實現(xiàn)的重要手段,也能為我國順利完成社會信用體系建設(shè)添磚加瓦。
構(gòu)建算法解釋權(quán),須明晰其權(quán)利構(gòu)造。國外針對算法解釋權(quán)內(nèi)部構(gòu)造的研究不多,大多集中于從GDPR相關(guān)規(guī)定的角度對算法解釋的可行性和算法解釋權(quán)的外部屬性闡述觀點[16]。國內(nèi)有學者立足于商業(yè)自動化決策對算法解釋權(quán)的權(quán)利主體進行了分析[17]72。本文聯(lián)系GDPR相關(guān)條款,對社會信用體系建設(shè)場景中的算法解釋權(quán)主客體以及權(quán)利內(nèi)容進行解構(gòu)。
從我國民法學上法律關(guān)系的角度來看,算法解釋權(quán)的主體可一分為二,即權(quán)利主體和義務(wù)主體,前者是針對算法決策可以獲得解釋的權(quán)利人,后者是指作出相應(yīng)算法解釋的義務(wù)人。就設(shè)計算法到算法運用至作出決策的整個過程來說,算法解釋權(quán)的主體應(yīng)包括算法設(shè)計者、算法使用者和算法決策相對人。前兩者是解釋權(quán)的義務(wù)主體,算法相對人為權(quán)利主體。
社會信用場景中,信用主體是算法決策相對人,鑒于目前我國相關(guān)規(guī)范性文件如《個人信息安全規(guī)范》中“系統(tǒng)自動決策機制”條款的保護對象限于個人,本文僅討論以自然人為算法相對人的信用主體。具體來說,可能是憑借信用向銀行借貸的申請人,由算法自動評估而被決定聘用與否的求職者等。而算法設(shè)計者或使用者不管是自然人、法人或其他組織,其開發(fā)或運用算法圍繞相對人進行信用評價,以獲得決策結(jié)果為目的,故而是應(yīng)承擔算法解釋的義務(wù)人,包括征信機構(gòu)、金融機構(gòu)、民間借貸企業(yè)、保險公司等。另外,算法設(shè)計者與使用者在一段時間內(nèi)可能具有同一性,但隨著社會分工的細化,算法設(shè)計者的開發(fā)工作與算法使用者的決策工作之間的關(guān)聯(lián)也漸趨復(fù)雜,二者往往會趨向于不具同一性,此時,算法設(shè)計者仍負有協(xié)助解釋的義務(wù)。
對權(quán)利客體和權(quán)利對象是否應(yīng)相區(qū)分,學界尚存爭議。通常來說不區(qū)分“權(quán)利客體”與“權(quán)利對象”,權(quán)利的客體是物、行為、信息等具體對象。但有學者認為應(yīng)該區(qū)分權(quán)利客體與權(quán)利對象,因為前者是一個抽象的范疇,是指體現(xiàn)在各種權(quán)利對象上的人格利益或財產(chǎn)利益;后者是一個相對具體的范疇,包括承載各種財產(chǎn)利益或人格利益的物、行為、信息等載體。對特殊權(quán)利對象可以同時給予人格權(quán)和財產(chǎn)權(quán)雙重權(quán)利保護,從而為個人信息商業(yè)價值的法律保護提供有力的理論依據(jù)[18]。這與“信用兼具人格屬性與經(jīng)濟價值”[19]的觀點不謀而合。這樣的區(qū)分邏輯對探討社會信用場景中的算法解釋權(quán)大有裨益,可視算法解釋權(quán)的權(quán)利客體就是它本身,具體表現(xiàn)為算法相對人權(quán)益可能或已受到不利影響時,請求算法設(shè)計者、算法使用者為或不為一定行為,它兼具人格利益和財產(chǎn)利益的雙重屬性。而算法解釋權(quán)的權(quán)利對象則是算法使用者、設(shè)計者就算法決策作出的解釋。解釋的內(nèi)容關(guān)涉?zhèn)€人信用,應(yīng)予以雙重保護。
通常認為,對算法的解釋一般遵循兩種模式,一種以模型為中心,另一種以主體為中心。前者要求算法使用者承擔設(shè)置信息、性能指標、預(yù)估的全局邏輯以及處理信息等解釋義務(wù);后者要求圍繞主體的敏感度、具體案例、績效為中心作解釋[20]。以模型為中心的解釋可以在決策作出前或之后進行,而以主體為中心的解釋主要發(fā)生在決策作出后。有觀點提出可將針對算法決策的解釋內(nèi)容構(gòu)建成兩個層次,一為事后具體解釋,二為事后更新解釋[17]72。這是將算法解釋適用第二種模式,即認為對算法決策作出后的具體解釋才是有意義的解釋。這樣的考慮固然有一定的道理,但對算法解釋兩種模式的劃分并非意味著行使算法解釋權(quán)時只能對兩者之一選擇適用,而是意在明確各階段的算法解釋標準與內(nèi)容。若只著眼于對具體決策作事后解釋,不僅有割裂算法運行整體邏輯與特定決策結(jié)果間的緊密聯(lián)系之虞,而且不利于保障數(shù)據(jù)主體的事先知情權(quán)。
分析GDPR相關(guān)文本,換個角度也可以發(fā)現(xiàn),以算法決策的作出為分界點,算法解釋權(quán)并非僅限于事后解釋,還應(yīng)包括事前解釋。GDPR第13條第2款第6項指出:“數(shù)據(jù)控制者至少應(yīng)提供關(guān)于決策所運用邏輯的有用信息、該處理的重要性以及對數(shù)據(jù)主體可能造成的后果。”這一規(guī)定意在創(chuàng)建數(shù)據(jù)控制者的通知義務(wù)[21],是從義務(wù)主體的角度對數(shù)據(jù)控制者在決策前的告知事項提出要求。GDPR第15條第1款第8項要求“數(shù)據(jù)主體至少有權(quán)獲得有關(guān)邏輯信息、該處理的重要性以及該處理對數(shù)據(jù)主體可能造成的后果?!边@是從權(quán)利主體的角度反向規(guī)定了數(shù)據(jù)控制者的事前解釋義務(wù),兩個角度相互印證。且根據(jù)以上條款的表述,應(yīng)將文本中“決策所運用邏輯的有用信息”與“對數(shù)據(jù)主體可能造成的后果”理解為并列的意思表達,即設(shè)計者或使用者擬對相對人使用算法前,應(yīng)對整個算法決策所涉邏輯信息、決策的重要性以及可能造成的后果明確告知,便于相對人就算法過程形成大概了解、預(yù)測可能的結(jié)果以及決定是否行使其他數(shù)據(jù)權(quán)利。
算法相對人享有的算法解釋權(quán)應(yīng)包含事前解釋,這點在信用場景中尤為必要。社會交往日益講究誠信,信用主體可能明白何為失信行為,對失信行為引起的后果的嚴重性卻不一定了解。譬如信用卡的使用,哪怕逾期欠款僅一角也會影響個人征信,持有者將長時間內(nèi)無法辦理如房貸等重要銀行業(yè)務(wù)。一種可能的實現(xiàn)方式是,無需設(shè)定特定的信用主體為得到告知性解釋的相對人,而將相對人預(yù)設(shè)為不特定的目標人群,廣而告之,爭取將事前解釋的作用最大化。目標人群接收事前解釋后仍進行相關(guān)行為即代表其初步認同與接受算法的運用與決策。當決策產(chǎn)生不利影響,相對人可再度要求算法解釋義務(wù)主體針對特定決策環(huán)節(jié)作更為具體的解釋。信用場景中的算法解釋權(quán)應(yīng)包含兩個階段的解釋,即事前一般的告知性解釋和事后特定的針對性解釋,更能形成算法解釋權(quán)在特定領(lǐng)域中的完整邏輯。
社會信用體系建設(shè)涵蓋政務(wù)、商務(wù)、社會誠信以及司法公信等領(lǐng)域,隨著算法的廣泛應(yīng)用,兩者的交集愈加密切與深入。當前,算法決策已經(jīng)應(yīng)用到金融信貸、線上交易、教育、醫(yī)療等諸多行業(yè),且在廣度上還將不斷拓展。本文選取金融信貸、保險服務(wù)、求職就學三種常見且與大眾密切相關(guān)的場景,考察算法解釋權(quán)應(yīng)用于社會信用體系建設(shè)場景時權(quán)利主體與義務(wù)主體之間的關(guān)系及算法解釋權(quán)的作用,各具體場景對應(yīng)的主體見表1。
表1 社會信用場景中的算法解釋權(quán)主體
隨著互聯(lián)網(wǎng)業(yè)務(wù)的不斷更新升級,很多線上信貸公司借助用戶的社交媒體和購物記錄等信息對金融消費者作信用評價,以此決定是否對其發(fā)放信貸、確定額度高低。此外,銀行、保險、證券、信托、基金等行業(yè)的傳統(tǒng)金融機構(gòu)也在應(yīng)用算法進行信用評估,以更好地指導(dǎo)風險預(yù)測、評估和防控。信貸公司、金融機構(gòu)通過購買、共享服務(wù)等方式,與芝麻信用、騰訊征信等信用評分系統(tǒng)或征信機構(gòu)合作,對金融消費者的借貸意愿及還款能力作出評估,繼而為其提供快速授信及現(xiàn)金分期服務(wù)。這種情形下,算法設(shè)計者、使用者雖不具有同一性,作為信用主體的金融消費者仍可以選擇向算法設(shè)計者行使解釋權(quán)。因為作為第三方的征信機構(gòu)或信用評分機構(gòu)實際參與到了算法決策過程中,也應(yīng)納入算法解釋權(quán)義務(wù)主體范圍。
算法解釋權(quán)要求金融機構(gòu)、信貸公司等承擔對算法決策的解釋義務(wù),這在一定程度上可以抵制算法設(shè)計者與使用者的歧視性做法。金融市場的歧視性做法主要表現(xiàn)為價格歧視和市場分割。以價格歧視為例,這是一種向負擔得起的人出示高價,向負擔不起的人出示低價的差別做法。表面上看它似乎是購買力較低的消費者的福利,然而,并非所有的價格歧視都有益。信貸公司可以利用價格歧視向陷入重大財務(wù)困境的信用主體發(fā)放高息貸款,因為算法精準地預(yù)測此時信用主體愿意“付出”更多來尋求可能的轉(zhuǎn)機,但是這種愿意并非因為其實際購買力提升,而是出于解決問題和走出困境的迫切心理,若盲目選擇貸款,信用主體將很可能陷入財務(wù)狀況的惡性循環(huán)。根據(jù)前文所提算法解釋兩種模式的內(nèi)容,信貸申請的場景中,信用主體在決策作出前可以要求獲得解釋,以普通人可理解的方式獲知算法的功能和運行的邏輯(比如影響決策的信用信息類型、特征)、算法的目的和意義,以及預(yù)期后果(是否發(fā)放貸款以及額度、利率的確定)。通過詳細解釋,信用主體可以判斷自己是否遭受了價格歧視,從而謹慎決定借貸與選擇機構(gòu)。
保險服務(wù)通過簽訂保險合同確定。保險合同是保險人和投保人約定保險權(quán)利義務(wù)關(guān)系的書面協(xié)議,通常以格式合同的形式簽訂,因而具有高度的信息不對稱性。保險合同中的投保人處于信息劣勢方,即便保險人遵照格式合同的規(guī)定主動履行告知義務(wù),但實踐中保險人的告知通常以簽訂合同為目的,其導(dǎo)向往往是夸大投保人利益保障、回避自身責任,因而導(dǎo)致告知保險事項時避重就輕、含糊其辭。合同簽訂后,若產(chǎn)生爭議,最終解釋的標準和決定權(quán)在保險人一方,被動的投保人容易陷入無處說理的境地。算法解釋權(quán)是糾正信息優(yōu)劣方在算法決策中不平衡關(guān)系的有效工具。投保人享有解釋權(quán),能有效促使保險人在原本告知事項基礎(chǔ)上,謹慎履行事前與事后就決策尤其是不利決策的形成和原因的解釋義務(wù),也有利于提高大眾對保險行業(yè)的信任度。
以保險服務(wù)中的車險為例。假設(shè)甲想給汽車投保,保險公司A在與甲簽訂合同之前要對甲進行信用評分。A的算法決策系統(tǒng)收集與分析甲以前駕駛行為(例如是否發(fā)生過車禍或其他交通違法行為)的信用數(shù)據(jù),并按既定的標準評級。根據(jù)評分結(jié)果,A將決定是否與甲訂立保險合同,確定可以向甲提供的保險費率。在A根據(jù)甲以往駕車的信用信息畫像,得出信用評分的自動決策前后,甲都應(yīng)有權(quán)獲知自身駕駛行為與保險金額、費率之間的關(guān)系,并了解和預(yù)知違約責任和爭議處理等重要事項的信息。A與甲合同中的這些重要事項關(guān)乎甲的人身權(quán)與財產(chǎn)權(quán),不論合同簽訂前或簽訂后,甲要求A公司就影響這些事項的決策因素與邏輯作出適當解釋,既符合保險合同所應(yīng)遵循的最大誠信和有力解釋原則,也是可以規(guī)制算法決策正當且必要的保障程序。
求職與就學這兩者不是典型的信用場景,一并歸于此討論是因為,近年來失信行為對求職與就學的不利影響受到越來越多關(guān)注。個人信用雖不是獲得任職或就學資格的決定因素,卻能對資格的失去產(chǎn)生重要影響。這兩種場景中,個人能力、學歷、成績排名等是用人單位或?qū)W校錄用時首要且著重考慮的因素,良好的信用似乎只是錦上添花,但這并不意味著可以忽略信用因素對求職與就學的影響,因為不良的信用記錄可能使其功虧一簣。求職的場景中,若算法認定應(yīng)聘者存在拒服兵役、頻繁跳槽或涉及商業(yè)秘密糾紛等行為,這些往往會成為決定對其不予錄用的關(guān)鍵原因。而就學場景中,申請者的準入門檻以成績排名為基本標準,但若存在考試作弊、學歷造假或家長被列為失信被執(zhí)行人等情形,也會導(dǎo)致其失去就學資格。
當算法決策應(yīng)用于招聘篩選與審批求學申請,如果招聘單位或?qū)W校沒有任何人為干預(yù)自動拒絕網(wǎng)上應(yīng)聘或申請,應(yīng)聘者、求學者有權(quán)就此提出異議。但對他們來說,僅僅反對并不能解決問題。若享有算法解釋權(quán)則大不一樣,他們可要求應(yīng)聘單位或?qū)W校就拒絕的決策原因作解釋說明,并就他們認為有疑義、錯誤或不公的決策予以更正或刪改。這有利于改善就業(yè)與求學歧視,提高求學、就業(yè)機會的公平??梢园l(fā)現(xiàn),求職與就業(yè)場景下,與信用有關(guān)的算法自動決策不僅影響公權(quán)與私益的權(quán)衡,還事關(guān)招聘單位與教育機構(gòu)的公信力。美國著名的教育平權(quán)案件Grutter案、Gratz案和Bakke案,反映了高校招生的政策既是維護基本權(quán)利的法律問題,也是一個算法問題[22]。設(shè)置算法解釋權(quán)為普通民眾提供一個了解招聘規(guī)則與招生政策的正當途徑,可以適當兼顧這種權(quán)衡,為求職、求學者平等享有基本權(quán)利提供有力的保障,也有助于提高招聘單位和高校等教育機構(gòu)的公信力。
算法解釋權(quán)應(yīng)用于社會信用體系建設(shè)場景,能有效發(fā)揮防止算法歧視、促進信息公平、保障相對人權(quán)益的作用,但要實現(xiàn)這一新型權(quán)利的本土化構(gòu)建仍存在很多困難。實現(xiàn)算法解釋權(quán)作為法律權(quán)利的制度化是首要解決的難題。其次,當面對多類型的社會場景如信用體系建設(shè)場景時,算法解釋權(quán)的適用還面臨兩個主要的問題。
隨著人工智能的飛速發(fā)展,算法在自動決策體系中的主導(dǎo)地位將毋庸置疑,在算法自動決策對我們的生活形成全方位滲入的情況下,算法決策相對人首先必須知悉算法解釋權(quán)的適用標準,才能明白如何進一步維護自己的權(quán)益。況且,倘若權(quán)利的啟發(fā)點即適用標準不明,相對人動輒頻繁行使解釋權(quán),只會使算法義務(wù)主體陷入無盡解釋的循環(huán)中,即使技術(shù)上可行,也會在實踐中增加解釋成本,造成資源浪費。因此,需要設(shè)置合理的適用標準,作為維護權(quán)益、行使解釋權(quán)的“敲門磚”,也為防止權(quán)利濫用把關(guān)。GDPR第22條是目前公認的關(guān)于規(guī)定解釋權(quán)適用標準的條款。即針對完全基于自動化處理的、對數(shù)據(jù)主體“具有法律影響或類似重大影響”的決策,數(shù)據(jù)主體享有反對權(quán)。此外,GDPR第71條也提及對“產(chǎn)生顯著效應(yīng)”的算法決策,可以請求算法解釋權(quán)。但遺憾的是,根據(jù)這兩個條款的表述,我們尚無法明晰關(guān)于“法律影響或類似重大影響”或“顯著效應(yīng)”所代表的確切意思。因此,嚴格來說,GDPR中對解釋權(quán)適用標準的規(guī)定還不夠明確。
我國尚未有涉及算法解釋權(quán)的正式法律出臺,但2020年10月1日實施的《個人信息安全規(guī)范》第7條第7款中規(guī)定,個人信息主體有權(quán)“對個人權(quán)益造成顯著影響的(例如自動決定個人征信及貸款額度,或用于面試人員的自動化篩選)自動決策結(jié)果”進行投訴,且可以申請“人工復(fù)核”。這在一定程度上可以視為有關(guān)算法解釋權(quán)內(nèi)容的初步規(guī)定,然而其“造成顯著影響”的適用標準指向亦不夠明確,實踐中容易摻雜過多主觀因素。我國10月21日公布的《個人信息保護法》(草案)對解釋權(quán)有所提及,即第四章第48條:“個人有權(quán)要求個人信息處理者個人信息處理規(guī)則進行解釋說明?!边@是我國對個人信息保護立法一大進步。草案條文賦予個人提起解釋的主動權(quán),在一定程度上肯定了個人對信息處理規(guī)則的知情權(quán),但一方面草案的解釋權(quán)僅針對信息處理規(guī)則,未擴及整個算法自動決策,另一方面亦未對信息處理規(guī)則解釋的適用標準作進一步細化規(guī)定。
算法決策并非一蹴而就,整個過程包含的內(nèi)容專業(yè)且龐雜,相對人無法在短時間內(nèi)接受,權(quán)利的可行性會大打折扣。為了最大限度保證解釋權(quán)的實現(xiàn),具體解釋的內(nèi)容如何循序漸進分階段進行,前文第二章已略有提及。對一些特殊的尤其是涉及商業(yè)秘密的算法決策,解釋的界限在哪里?目前尚無定論。GDPR實施以來,歐洲各地的法院判例中并未明確劃定算法設(shè)計者或使用者必須披露的信息類型與范圍。德國SCHUFA59判決顯示,信用主體無權(quán)徹底調(diào)查基于自動處理的信用評分的準確性,因為其基礎(chǔ)公式受商業(yè)秘密的保護[23]。以此看來,解釋權(quán)的適用目前大概率被要求止步于知識產(chǎn)權(quán)與商業(yè)秘密。正如國內(nèi)有學者的研究指出,知識產(chǎn)權(quán)或商業(yè)秘密是算法解釋權(quán)的禁區(qū)[24]。但這個禁區(qū)因美國威斯康星州盧米斯上訴一案受到廣泛質(zhì)疑而逐漸打破。涉案被告人盧米斯在上訴中質(zhì)疑COMPAS軟件的準確性與科學性,要求獲知影響自己評分的因素所占權(quán)重以及軟件運行邏輯。但其訴求被軟件開發(fā)者以此類信息屬于商業(yè)秘密,具有專有性為理由拒絕。威斯康星州最高法院最終駁回盧米斯的上訴,維持原判。然而,同時主審法官也承認,在未來的案件審理中應(yīng)對風險評估算法的使用提供充足的程序性保障措施,包括在預(yù)測報告中明確評估的優(yōu)勢、相關(guān)性以及不足。威斯康星州最高法院沒有支持盧米斯獲知軟件運行邏輯的訴求,表明相對人的知情權(quán)仍不足以對抗算法設(shè)計者對商業(yè)秘密的獨占性,但是顯然法院也意識到了相對人的知情權(quán)與知識產(chǎn)權(quán)之間存在僵持的關(guān)系需要調(diào)和,否則難以體現(xiàn)程序正義和法律對算法相對人正當權(quán)利的保護。
我國司法實踐中一些審判表明司法機關(guān)在涉及商業(yè)秘密的案件中已重視算法解釋,保護相對人的正當權(quán)利。如龐理鵬與北京趣拿信息技術(shù)有限公司等隱私權(quán)糾紛案中,龐理鵬上訴,其通過北京趣拿信息技術(shù)有限公司(以下簡稱趣拿公司)與中國東方航空股份有限公司(以下簡稱東航)的旅客服務(wù)系統(tǒng)購買機票后,姓名、電話、行程等個人信息被泄漏并遭遇詐騙,要求兩公司承擔侵犯隱私權(quán)責任。二審北京互聯(lián)網(wǎng)法院認為,一審法院雖認定事實清楚,但舉證責任分配不當。龐理鵬作為旅客,對信息及證據(jù)的掌握尤其是趣拿公司與東航旅客的服務(wù)系統(tǒng)方面明顯處于極不對等的劣勢地位,應(yīng)由兩公司就自身系統(tǒng)無漏洞或其員工不存在侵權(quán)行為負舉證責任。但兩家公司未能就此舉證,因而無法排除其所用系統(tǒng)泄漏旅客信息的高度可能性,最終北京互聯(lián)網(wǎng)法院判決支持了龐理鵬要求兩家公司向其賠禮道歉的訴求。正如有學者提出,使用算法自動決策,至少應(yīng)該向受算法決策不利影響的當事人進行充分且有意義的說明,使其有機會介入算法評估過程,了解算法預(yù)測類型、輸入數(shù)據(jù)以及算法邏輯等信息,以便他們對阻礙其獲得信貸、工作、住房或其他重要機遇的算法決策提出質(zhì)疑或挑戰(zhàn)[11]26-27。近年來,類似案件如任甲玉訴百度網(wǎng)訊科技公司名譽權(quán)糾紛案的判決也表明,我國司法實務(wù)中,司法裁判者在審理有關(guān)算法決策的案件時,已關(guān)注到算法解釋的重要性,并且在個人權(quán)利保護與商業(yè)秘密、知識產(chǎn)權(quán)相抗衡的問題上,開始呈現(xiàn)適當傾向于保護個人權(quán)利的趨勢。
沿著規(guī)制算法權(quán)力、保護信用主體權(quán)益的邏輯,構(gòu)建算法解釋權(quán)并為其提供法治保障,乃是一種積極的探索。對算法解釋權(quán)施以法治保障不能對域外立法相關(guān)內(nèi)容全盤接收,而應(yīng)結(jié)合我國的具體國情,有選擇、有鑒別地予以參考。國內(nèi)有不少學者對此發(fā)表了高見,或結(jié)合算法解釋權(quán)蘊含的規(guī)范價值對其本土化路徑提出了建議[3]1437-1444,或圍繞多元化的算法決策規(guī)制手段建構(gòu)周邊相應(yīng)機制[25]192-193,或探究社會信用體系建設(shè)場景中算法解釋權(quán)的適用路徑[2]84-102,但對算法解釋權(quán)法治保障路徑的研究鮮見?;诖?,結(jié)合算法解釋權(quán)適用所面臨的困境,可從以下三個方面探討為社會信用體系建設(shè)場景中的算法解釋權(quán)提供法治保障的問題。
權(quán)利就是法律要保護并且予以強制執(zhí)行的主張[26]。法治國家中,一種權(quán)益只有被法律認可才能轉(zhuǎn)變?yōu)檎嬲鼙Wo的權(quán)利。因此,必須在立法上引入算法解釋權(quán),這需要先為算法解釋權(quán)這一權(quán)利定位。
有研究指出,創(chuàng)制算法解釋權(quán)是為了平衡算法使用者和相對人之間的不平等,為相對人提供額外救濟制度,以達成實質(zhì)平等[27]。另有研究提出,算法解釋權(quán)應(yīng)被理解為個人數(shù)據(jù)“權(quán)利束”的一部分,其內(nèi)含于“個人數(shù)據(jù)保護權(quán)”,強調(diào)本人對個人數(shù)據(jù)及其處理的控制[25]187。上述觀點中,將算法解釋權(quán)視為救濟權(quán)是針對商業(yè)自動化領(lǐng)域原本處于平等關(guān)系的使用者與相對人提出,視為意思自治的民事合同出現(xiàn)損害結(jié)果時設(shè)置的補救方式,這無可厚非,卻不適用于所有的信用場景,譬如求職、就學等存在不平等關(guān)系的場景中,當不可逆的算法傷害已經(jīng)產(chǎn)生,再尋求救濟可達到的補救效果畢竟有限。而以個人數(shù)據(jù)“權(quán)利束”為算法解釋權(quán)定性有一定道理,但應(yīng)用于信用領(lǐng)域的算法解釋權(quán)也不能完全視為個人對其相關(guān)數(shù)據(jù)擁有控制權(quán)。算法解釋權(quán)行使初期表現(xiàn)為一種知情權(quán),如前文所言,權(quán)利的適用標準按GDPR的規(guī)定具有不確定性。鑒于算法規(guī)則及決策本身也須以信用主體的信任與接受為基礎(chǔ),不妨將算法解釋權(quán)適用標準的決定權(quán)適當讓位于作為相對人的信用主體。即只要信用主體質(zhì)疑某項決策可能或已對自身構(gòu)成法律上或其他不利影響,可向使用者表達異議,獲得相關(guān)說明與解釋。其后,當信用主體進一步請求更正錯誤或不當?shù)乃惴Q策時,算法解釋權(quán)不再是一種純粹的請求權(quán),繼而隨之觸發(fā)其他多項數(shù)據(jù)權(quán)利,例如更正權(quán)、反對權(quán)、刪除權(quán)等,這些可隨之行使的相關(guān)權(quán)利在GDPR第13-14條、第16-17條、第21條等條款中亦有涉及。綜上,行使算法解釋權(quán)的信用主體擁有了解算法、提出異議乃至對不當決策要求更正或刪除的權(quán)利。因此,算法解釋權(quán)實質(zhì)上更傾向于是一種糅合了多方面權(quán)利的復(fù)合型權(quán)利,當信用主體質(zhì)疑某項決策可能或已經(jīng)對自身構(gòu)成法律上或其他不利影響時,即可要求算法使用者履行解釋義務(wù),并視情況行使后續(xù)權(quán)利。
數(shù)據(jù)是構(gòu)成算法決策的核心元素,算法決策建立在對數(shù)據(jù)進行自動化處理的基礎(chǔ)上。GDPR對算法解釋權(quán)的規(guī)定聚焦于數(shù)據(jù),繞開直接規(guī)制復(fù)雜的算法,轉(zhuǎn)而賦予數(shù)據(jù)主體獲得算法解釋的權(quán)利,從而把算法的規(guī)制問題放在數(shù)據(jù)保護的法律框架內(nèi)進行。我國可以參考這種立法經(jīng)驗,在已進入立法規(guī)劃的《個人信息保護法》中予以借鑒。個人信用信息包含于個人信息,《個人信息保護法》也是社會信用體系建設(shè)進程中的一部重要法律,可進一步在個人權(quán)利的章節(jié)中細化相關(guān)內(nèi)容作為算法解釋權(quán)立法的切入點。一方面,明確信用主體可能受到?jīng)Q策不利影響或已受到不利影響時有權(quán)向算法設(shè)計及使用方提出異議,獲得解釋。另一方面,對使用者的解釋義務(wù)作相應(yīng)規(guī)定,減少自動決策過程中的歧視與侵害風險。同時還應(yīng)考慮到,算法解釋權(quán)并非用來增強信用主體對個人信息的絕對控制權(quán),不能妨礙信息的平等自由以及公眾必要的知情權(quán),也須注意防范信用主體濫用解釋權(quán)。
算法解釋權(quán)上升為法定權(quán)利后,需對其具體設(shè)計作進一步規(guī)定。學界的研究目前大多聚焦于如何完善算法解釋權(quán)的事后解釋,達到權(quán)利救濟的目的。如本文第二部分所述,以算法決策是否作出為分界點,可將信用場景中的算法解釋劃分為事前、事后兩個階段,在不同的階段應(yīng)匹配相應(yīng)的解釋內(nèi)容。事前的算法解釋須對算法決策運行過程作整體說明,具有抽象性。而事后的解釋則是對產(chǎn)生不利影響的特定決策環(huán)節(jié)作出解釋,更為具體。即實現(xiàn)算法解釋權(quán)可以遵循這樣的流程:對算法相對人作出自動決策之前,算法設(shè)計者或使用者應(yīng)告知其擁有行使算法解釋權(quán)的請求權(quán)利,此時算法相對人可以選擇請求事前或事后解釋。選擇事前解釋,則算法決策形成前義務(wù)主體應(yīng)主動提供告知性解釋。這種解釋無須由相對人提起請求,應(yīng)具有一般性與代表性,使相對人知曉自身參與的算法決策系統(tǒng)的設(shè)計目的、影響決策的因素等,做好積極應(yīng)對算法決策可能帶來的影響的準備。而事后解釋主要針對特定算法決策如何作出而提供詳細的說明,這是由特定相對人按照一定程序提出,此時的解釋可以同時面向系統(tǒng)和特定決策[28],為相對人表示異議后維護權(quán)益打好基礎(chǔ)。
當算法應(yīng)用于信用體系建設(shè)場景,算法解釋權(quán)的實現(xiàn)可通過這樣的流程保障。算法事前的一般解釋應(yīng)包括個人信用畫像的獲得,算法決策的依據(jù)、理由以及作出決策的規(guī)則與程序等。通過這一階段的解釋,信用主體可以知曉形成的信用畫像是否客觀,算法是否合法,是否存在歧視因素以及可預(yù)估的算法決策結(jié)果及影響等問題。而事后的特定解釋則是算法使用者應(yīng)信用主體要求,在事前解釋的基礎(chǔ)上就其對產(chǎn)生不利影響的決策結(jié)果存疑或認為有誤之處作出更具針對性的解釋,例如:信用主體某些關(guān)鍵信息在信用畫像中所占的比重、比重設(shè)置的原因及合理性等必要事項。經(jīng)過針對性解釋,信用主體清楚自身具體信用行為對算法決策的影響程度,以及所得信用評級產(chǎn)生的原因。當然,這些解釋事項不強制要求包括有關(guān)知識產(chǎn)權(quán)的內(nèi)容,因為保護商業(yè)秘密等知識產(chǎn)權(quán)本是遵循社會信用的應(yīng)有之義,制度設(shè)計中可將算法解釋涉及的這類內(nèi)容劃為不予披露的事項,作為解釋的界限。但這只限于需要大范圍披露商業(yè)秘密的情形,倘若僅是在個案中則應(yīng)審慎處理。如盧米斯案中,COMPAS軟件開發(fā)者作為算法設(shè)計者未直接參與算法決策,可不負主要的解釋義務(wù),但一審中威斯康星懲教署按照軟件評估將盧米斯的風險等級認定為“高風險”,且提出以此作為量刑參考,威斯康星懲教署作為軟件使用者應(yīng)承擔解釋軟件算法原理的義務(wù)。況且,若只是單獨向受到算法決策不利影響的信用主體披露相關(guān)信息,既沒有證據(jù)表明也并不必然會對使用者的利益造成損害或阻礙創(chuàng)新。畢竟類似可能產(chǎn)生的危害還能以要求信用主體遵守保密規(guī)定的方式來避免[29]??傊?,為算法解釋權(quán)提供法治保障既應(yīng)實現(xiàn)事前、事后解釋的無縫銜接,也應(yīng)注意避免一刀切地以知識產(chǎn)權(quán)為界限制其適用,如此,才能避免“架設(shè)空中樓閣”。
權(quán)利的另一面是義務(wù),違反法定義務(wù)必然要負法律責任,然責任不明、不受監(jiān)管的法定義務(wù)容易變成一紙空文。社會信用體系建設(shè)場景中,算法相對人或設(shè)計者及使用者都是建設(shè)的參與者,其權(quán)利的實現(xiàn)或義務(wù)的履行須有相關(guān)監(jiān)督機制保證。
算法設(shè)計者與使用者作為義務(wù)主體,是主要的被監(jiān)督對象。若其拒絕履行算法解釋義務(wù),也是一種失信。因此,有必要對其義務(wù)的履行進行督促。征信管理機關(guān)可以對相關(guān)機構(gòu)、企業(yè)進行預(yù)先算法評估,并且指定具備資質(zhì)的機構(gòu)對其是否履行應(yīng)盡義務(wù)進行監(jiān)管。對于拒絕提供合理解釋的義務(wù)主體,根據(jù)法律責任條款,由主管機構(gòu)實施懲罰性措施,以保護信用主體合法權(quán)益?!稊?shù)據(jù)安全法(草案)》第六章“法律責任”(第41-48條)對負有數(shù)據(jù)安全保護法定義務(wù)的主體違背法律規(guī)定所應(yīng)承擔的責任作了比較詳細的規(guī)定,算法解釋義務(wù)主體履責的規(guī)定可對此進行參照。
另外,算法相對人雖是權(quán)利主體,但并不代表其請求解釋的權(quán)利可以任意行使,對其加以適當?shù)谋O(jiān)督也非常有必要。算法解釋權(quán)在初期表現(xiàn)為一種知情權(quán),而在知情權(quán)保護的實踐過程中,存在濫用知情權(quán)的情形[30]。因而,監(jiān)管機構(gòu)可以對算法解釋的請求進行初步審查,審查的內(nèi)容包括該請求是否符合權(quán)利適用的標準與范圍,同時還可視具體情況要求相對人就自己受算法決策不利影響的客觀情況負必要的舉證責任,以便減少時間成本,防止浪費社會資源。
社會信用場景中涉及的貸款、就業(yè)、保險等信用信息具有特殊性和敏感性,以此為基礎(chǔ)的算法自動決策直接關(guān)乎個體的切身利益,不能僅僅依靠算法設(shè)計者或使用者的自律,也不能忽視相對人濫用解釋權(quán)的可能,必須借助外部力量進行監(jiān)管與督促,以保障算法解釋權(quán)在法治軌道內(nèi)正當行使。
大數(shù)據(jù)與算法結(jié)合的現(xiàn)代社會,算法權(quán)力已成為新型社會權(quán)力,算法的設(shè)計者、使用者無疑是這一新型權(quán)力的“擁有者”。算法決策能有力推進社會信用體系建設(shè),但反過來也可能侵害信用主體的權(quán)益。為了抑制與平衡算法社會中信息不對稱、地位不對等的態(tài)勢,賦予信用主體算法解釋權(quán)不失為一個良策。社會信用體系建設(shè)覆蓋面廣,又兼涉公益和私益兩端,算法解釋權(quán)作為一種預(yù)設(shè)的新型權(quán)利,其構(gòu)造與法治保障應(yīng)考慮到這一點。算法解釋權(quán)的行使可以觸發(fā)多項權(quán)利的提起,一方面,倘若將算法解釋權(quán)僅僅作為一種事后救濟機制遠遠不夠,在適用階段上,算法解釋權(quán)應(yīng)適當前移方能較全面地維護信用主體權(quán)益,達到抑制與平衡的效果。另一方面,與掌握信用信息的算法使用者相比,信用主體處于弱勢地位,為確保解釋權(quán)的實現(xiàn),及時的監(jiān)督介入非常有必要。同時,為了避免解釋權(quán)的濫用,對信用主體行使解釋權(quán)加以必要的限制也不可缺。總之,社會信用體系建設(shè)背景下加快為算法解釋權(quán)提供法治保障,有利于規(guī)制算法權(quán)力,促進社會利益與個人權(quán)益的良性互動。以此為契機,算法決策亦能與社會信用體系建設(shè)達成共識和共贏。