陳浩林
隨著人工智能技術(shù)的不斷發(fā)展,算法自動(dòng)化決策被賦能運(yùn)用到生活的方方面面,給法律的規(guī)制帶來了一定挑戰(zhàn)。一方面,自動(dòng)化決策系統(tǒng)雖然能與神經(jīng)元網(wǎng)絡(luò)等技術(shù)結(jié)合處理海量信息,極大地提升決策的效率,但其本身并不一定是中立的。自動(dòng)化決策可能會(huì)以技術(shù)公正的表象,掩蓋人類社會(huì)中本來就存在的問題。(1)Cathy O’ Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown Publishers,2016,p.21.部分自動(dòng)化決策系統(tǒng)背后的機(jī)器學(xué)習(xí)機(jī)制依賴從社會(huì)中收集到的數(shù)據(jù),如果社會(huì)本身存在不平等對待或其他歧視的現(xiàn)象,那么相應(yīng)的自動(dòng)化決策也會(huì)表現(xiàn)出同樣的瑕疵。(2)Solon Barocas &Andrew D. Selbst,Big Data’s Disparate Impact,104 California Law Review,671,677(2016).另一方面,與大數(shù)據(jù)和人工智能技術(shù)結(jié)合的自動(dòng)化決策系統(tǒng)容易形成“黑箱效應(yīng)”,給法律的問責(zé)增加阻礙。這類自動(dòng)化決策系統(tǒng)的決策過程往往難以從外部進(jìn)行觀察、理解,并且涉及數(shù)據(jù)海量,一旦發(fā)生算法侵害便難以確定原因。(3)Danielle Keats Citron &Frank Pasquale,The Scored Society:Due Process for Automated Predictions,89 Washington Law Review,1,13-15(2014).面對這樣的情形,有學(xué)者精準(zhǔn)地指出,對于自動(dòng)化決策,傳統(tǒng)私法上的合同效力制度、違約救濟(jì)制度和侵權(quán)損害賠償制度等法律資源已經(jīng)不敷規(guī)制。(4)參見張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第3期。這意味著,我們已經(jīng)進(jìn)入了一個(gè)由自動(dòng)化決策操控,但因缺乏透明度而無法進(jìn)行有效監(jiān)管的“黑箱社會(huì)”。(5)Frank Pasquale,The Black Box Society:The Secret Algorithmic That Control Money and Information,Harvard University Press,2015,p.1-4.
在這樣的背景下,賦予數(shù)據(jù)主體算法解釋的權(quán)利是增強(qiáng)自動(dòng)化決策透明度、保證數(shù)據(jù)主體權(quán)益的重要手段。美國在金融信貸領(lǐng)域頒布了《公平信用報(bào)告法》(Fair Credit Reporting Act)、《平等信貸機(jī)會(huì)法》(The Equal Credit Opportunity Act)等法案作為算法解釋的法律依據(jù)。前者賦予消費(fèi)者有條件地訪問自身征信報(bào)告和信用分?jǐn)?shù)的權(quán)利,后者則課以貸款人向消費(fèi)者解釋負(fù)面信用評分的義務(wù)。(6)參見許可:《馴服算法:算法治理的歷史展開與當(dāng)代體系》,載《華東政法大學(xué)學(xué)報(bào)》2022年第1期。歐盟的《通用數(shù)據(jù)保護(hù)條例》通過第13條、第14條、第15條和第22條保障了數(shù)據(jù)主體對自動(dòng)化決策系統(tǒng)的知情透明,確立了數(shù)據(jù)主體對抗自動(dòng)化決策的行權(quán)機(jī)制。我國《個(gè)人信息保護(hù)法》第24條規(guī)定了個(gè)人拒絕自動(dòng)化決策和請求解釋說明的權(quán)利,國家網(wǎng)信辦頒布的《算法推薦管理規(guī)定》第17條也規(guī)定了算法推薦服務(wù)提供者的解釋說明義務(wù)??梢哉f,算法解釋在我國法律體系中具備規(guī)范基礎(chǔ)。
但算法解釋的權(quán)利該如何與我國私法體系相融合,在我國的理論研究中尚未形成統(tǒng)一的觀點(diǎn)。具體而言,分歧主要存在于以下幾個(gè)方面:首先,算法解釋的權(quán)利能否被構(gòu)建為獨(dú)立的“算法請求權(quán)”,換言之,“算法解釋權(quán)”是否存在?這一問題充滿爭議。其次,算法解釋的構(gòu)成要件該如何認(rèn)定,尤其是如何理解《個(gè)人信息保護(hù)法》第24條第3款中“自動(dòng)化決策”“決定”和“重大影響”等概念,目前我國的研究也并不充分。最后,算法解釋應(yīng)該體現(xiàn)哪些內(nèi)容,要如何把握解釋的限度,這一問題也仍不明確。本文將在對歐盟《通用數(shù)據(jù)保護(hù)條例》進(jìn)行比較研究的基礎(chǔ)上,從我國民法解釋論的層面嘗試對以上問題進(jìn)行探討。
算法解釋是否是一項(xiàng)獨(dú)立的權(quán)利,進(jìn)而被稱作“算法解釋權(quán)”,這一問題在國內(nèi)外的研究中均存在爭議。我國有學(xué)者明確肯定算法解釋是一項(xiàng)獨(dú)立的權(quán)利,認(rèn)為“算法解釋權(quán)”是數(shù)據(jù)主體在自動(dòng)化決策作出后向數(shù)據(jù)控制者請求解釋說明的權(quán)利;(7)參見張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第3期;解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1期。也有學(xué)者旗幟鮮明地反對“算法解釋權(quán)”的存在。(8)參見賈章范:《論算法解釋權(quán)不是一項(xiàng)法律權(quán)利》,載《電子知識產(chǎn)權(quán)》2020年第12期。實(shí)際上,對“算法解釋權(quán)(the right to explanation)”概念的爭論可以回溯至對歐盟《通用數(shù)據(jù)保護(hù)條例》的研究中。梳理歐盟《通用數(shù)據(jù)保護(hù)條例》的立法過程、學(xué)說觀點(diǎn),可以發(fā)現(xiàn):算法解釋并不是一項(xiàng)單獨(dú)的權(quán)利,而是由一系列規(guī)范組成的義務(wù)體系。
“算法解釋權(quán)”這一概念最早由英國學(xué)者古德曼(Goodman)和弗萊斯曼(Flaxman)在其2016年的會(huì)議論文中提出。他們指出:《通用數(shù)據(jù)保護(hù)條例》在序言第71條明確要求數(shù)據(jù)控制者應(yīng)采取適當(dāng)?shù)拇胧┓乐棺詣?dòng)化決策的歧視性影響,并且正文第13條和第14條賦予數(shù)據(jù)主體獲得“與算法邏輯相關(guān)的有意義信息”的權(quán)利,這些規(guī)定與正文第22條第3款“數(shù)據(jù)控制者應(yīng)采取適當(dāng)措施保障數(shù)據(jù)主體的權(quán)利、自由和正當(dāng)利益”的表述相結(jié)合,可以認(rèn)為《通用數(shù)據(jù)保護(hù)條例》確立了算法解釋權(quán)。(9)Bryce Goodman &Seth Flaxman,European Union Regulations on Algorithmic Decision-Making and A “Right to Explanation”,38 AI Magazine,50,53-55(2017).一些學(xué)者也在其文章中直接引用該觀點(diǎn),認(rèn)為“歐盟《通用數(shù)據(jù)保護(hù)條例》有效地創(chuàng)建了算法解釋權(quán),用戶可以借此要求對關(guān)于其自身的算法決定進(jìn)行解釋?!?10)Francesca Rossi,Artificial Intelligence:Potential Benefits and Ethical Considerations,EPRS:European Parliamentary Research Service. Belgium.原文鏈接:https://policycommons.net/artifacts/1340375/artificial-intelligence/1950888/,2023年5月30日訪問;Hildebrandt,Mireill,The New Imbroglio-Living with Machine Algorithms,The Art of Ethics in the Information Society,Amsterdam University Press,2016,p. 55-60.上述學(xué)者所稱的“算法解釋權(quán)”,主要指針對具體自動(dòng)化決策的事后解釋請求權(quán)。該論斷一經(jīng)提出,便受到歐盟學(xué)者瓦赫特(Wachter)和愛德華茲(Edwards)的質(zhì)疑,其主要觀點(diǎn)可總結(jié)如下。
從文義解釋的角度觀察,《通用數(shù)據(jù)保護(hù)條例》正文中并未規(guī)定算法解釋權(quán)。(11)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,82(2017).首先,《通用數(shù)據(jù)保護(hù)條例》第22條第3款并沒有提及算法解釋權(quán)。其表述僅為“數(shù)據(jù)控制者應(yīng)采取適當(dāng)措施”,從中無法推導(dǎo)出算法解釋權(quán)的含義。其次,《通用數(shù)據(jù)保護(hù)條例》第13條和第14條亦未提及算法解釋權(quán)。該兩條規(guī)定的是數(shù)據(jù)控制者在自動(dòng)化決策作出前的告知義務(wù),從中無法推導(dǎo)出一項(xiàng)事后的算法解釋權(quán)。并且,《通用數(shù)據(jù)保護(hù)條例》第13條第2款f項(xiàng)和第14條第2款g項(xiàng)明確規(guī)定適用于第22條第1款和第4款的自動(dòng)化決策情形,并沒有與第22條第3款的“適當(dāng)措施”產(chǎn)生關(guān)聯(lián)。最后,從《通用數(shù)據(jù)保護(hù)條例》第15條規(guī)定的訪問權(quán)中也無法推導(dǎo)出算法解釋權(quán)?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第15條第1款h項(xiàng)規(guī)定,當(dāng)存在第22條第1款和第4款規(guī)定的自動(dòng)化決策時(shí),信息主體有權(quán)了解“所涉邏輯相關(guān)的重要信息”和“設(shè)想的結(jié)果”。對于該條,古德曼和弗萊斯曼在文章中沒有作過多分析,但確有學(xué)者指出其“相較于第22條更可能賦予數(shù)據(jù)主體算法解釋權(quán)”。(12)Lilian Edwards &Michael Veale,Slave to the Algorithm?Why a ‘Right to an Explanation’ Is Probably Not the Remedy You Are Looking for?,16 Duke Law &Technology Review,18,68-72(2018).而學(xué)者瓦赫特指出,在體系上《通用數(shù)據(jù)保護(hù)條例》第13條—第15條可被視為一個(gè)整體,并且第15條第1款第(h)項(xiàng)與第13條第2款第(f)項(xiàng)和第14條第2款第(g)項(xiàng)的文義表述相似,可以認(rèn)為第15條第1款第(h)項(xiàng)亦是對自動(dòng)化決策系統(tǒng)的事前一般性解釋。他還分析了《通用數(shù)據(jù)保護(hù)條例》的德語文本,從其語法措辭上進(jìn)一步佐證第15條第1款第(h)項(xiàng)的事前解釋性質(zhì)。(13)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,83-84(2017).歐盟第29條數(shù)據(jù)保護(hù)小組在對該條的解釋中也指出,第15條第1款第(h)項(xiàng)與第13條和第14條規(guī)范目的一致,對其應(yīng)作相同的解釋。(14)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe Purposes of Regulation 2016/679 [R],p.25-26..
從體系解釋的角度觀察,《通用數(shù)據(jù)保護(hù)條例》中確立了算法解釋權(quán)的觀點(diǎn)也值得懷疑。古德曼和弗萊斯曼認(rèn)為算法解釋權(quán)的核心規(guī)范基礎(chǔ)在于《通用數(shù)據(jù)保護(hù)條例》第22條第3款與序言第71條的結(jié)合。誠然,《通用數(shù)據(jù)保護(hù)條例》全文中確實(shí)只有序言第71條中提及算法解釋權(quán),該條規(guī)定數(shù)據(jù)主體在自動(dòng)化決策作出后具有“要求作出解釋”和“提出質(zhì)疑”的權(quán)利。但從歐盟的立法實(shí)踐傳統(tǒng)來看,其頒布法律的序言部分往往并不具有實(shí)際效力。歐盟學(xué)者克利馬(Klimas)指出,當(dāng)一部歐盟法律的序言和正文條款都明確對同一事項(xiàng)作出規(guī)定,但文義表述并不一致時(shí),序言條款往往是沒有效力的。(15)Tadas Klimas &Jurate Vaiciukaite,The Law of Recitals in European Community Legislation,15 ILSA Journal of International &Comparative Law,61,83-85(2008).意大利學(xué)者巴拉塔(Baratta)也認(rèn)為,歐盟法律的序言可以輔助解釋正文條款的規(guī)范目的和立法背景,但原則上不具有效力。(16)Roberto Baratta,Complexity of EU Law in the Domestic Implementing Process,2 The Theory and Practice of Legislation,293,293-295(2014).回到《通用數(shù)據(jù)保護(hù)條例》的文本,其序言第71條和正文第22條對于數(shù)據(jù)控制者應(yīng)采取“保障措施”的表述幾乎一致,但正文第22條卻并無提及數(shù)據(jù)主體“請求解釋”的權(quán)利,這足以說明算法解釋權(quán)并無實(shí)際效力。
回顧歐盟針對自動(dòng)化決策的立法過程,也可以得出算法解釋權(quán)被立法者有意忽略的結(jié)論。根據(jù)歐盟的立法程序,《通用數(shù)據(jù)保護(hù)條例》頒布前需要經(jīng)過歐盟的部長理事會(huì)、歐盟議會(huì)和歐盟委員會(huì)進(jìn)行“三方會(huì)談(trilogues)”,以達(dá)成對法律文本的一致意見。(17)Olivier Proust,Unravelling the Mysteries of the GDPR Trilogues,原文鏈接:https://www.fieldfisher.com/en/services/privacy-security-and-information/privacy-security-and-information-law-blog/unravelling-the-mysteries-of-the-gdpr-trilogues,最后訪問時(shí)間:2023年5月30日。在歐盟委員會(huì)于2012年提出的《通用數(shù)據(jù)保護(hù)條例》建議草案中,其序言第58條(相當(dāng)于目前序言第71條)和正文第20條(相當(dāng)于目前正文第22條)中均未提及對算法解釋的權(quán)利。(18)Proposal for a regulation of the european parliament and of the council on the protection of individuals with regard to the processing of personal data and on the free movement of such data(General Data Protection Regulation),原文鏈接:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52012PC0011&qid=1691392945581,2023年5月30日訪問。歐盟議會(huì)在2013年11月的報(bào)告中,曾提議對該版本的草案正文第20條第5款進(jìn)行修改,增加“獲得人工評估的權(quán)利以及對此類評估后做出的決定的解釋”作為對數(shù)據(jù)主體的保障措施。(19)Report on the proposal for a regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data(General Data Protection Regulation),原文鏈接:https://www.europarl.europa.eu/doceo/document/A-7-2013-0402_EN.html,2023年5月30日訪問。但在歐盟委員會(huì)于2014年提出的草案版本中,其正文第20條(相當(dāng)于目前正文第22條)僅規(guī)定數(shù)據(jù)主體“有權(quán)獲得人為干預(yù)、表達(dá)自己的觀點(diǎn)和提出異議的權(quán)利”,而將數(shù)據(jù)主體“獲得對決定的解釋和對決定提出異議的權(quán)利”置于序言第58條(相當(dāng)于目前序言第71條)中。(20)European Digital Rights,Comparison of the Parliament and Council text on the General Data Protection Regulation,原文鏈接:https://edri.org/files/EP_Council_Comparison.pdf,2023年5月30日訪問。2016年通過的《通用數(shù)據(jù)保護(hù)條例》最終文本采納了這種模式,將對算法解釋權(quán)的規(guī)定置于序言第71條中。這在一定程度上可以說明,歐盟立法者有意不賦予算法解釋權(quán)實(shí)際法律效力。
不僅“算法解釋權(quán)”概念在法教義學(xué)層面受到質(zhì)疑,歐盟學(xué)者指出其在實(shí)踐中也沒有發(fā)揮應(yīng)有的作用。一方面,“算法解釋權(quán)”會(huì)不合理地增加數(shù)據(jù)主體的負(fù)擔(dān)。向數(shù)據(jù)控制者提交信息訪問的申請往往需要花費(fèi)大量的時(shí)間,并且還需要具備專業(yè)知識,這對于大多數(shù)用戶來說并不便利。并且在歐盟,數(shù)據(jù)主體進(jìn)行集體訴訟應(yīng)該由歐洲的國家數(shù)據(jù)保護(hù)機(jī)構(gòu)(DPAs)代表,而由于這些機(jī)構(gòu)缺乏相應(yīng)的人力支持和專業(yè)知識,維權(quán)也并不容易。(21)Lilian Edwards &Michael Veale,Enslaving the Algorithm:From a “Right to an Explanation” to a “Right to Better Decisions”?,16 IEEE Security &Privacy,46,49-50 (2018).另一方面,即便數(shù)據(jù)主體通過“算法解釋權(quán)”獲得了解釋,由于專業(yè)知識缺乏且涉及數(shù)據(jù)眾多,其也無法對該解釋形成有效的理解。(22)Frank Pasquale,The Black Box Society:The Secret Algorithmic That Control Money and Information,Harvard University Press,2015,p.29.對于受自動(dòng)化決策影響的數(shù)據(jù)主體而言,一旦涉及到“算法解釋權(quán)”的救濟(jì),便意味著特定的侵害已經(jīng)發(fā)生,事后的解釋實(shí)際上為時(shí)已晚。此外,由于法律上的商業(yè)秘密保護(hù),自動(dòng)化決策算法披露也存在阻礙。(23)Mike Ananny &Kate Crawford,Seeing without Knowing:Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability,20 New Media &Society,973,975-976(2018).
在上述質(zhì)疑之下,可認(rèn)為針對具體自動(dòng)化決策的事后“算法解釋權(quán)”并不存在,其僅是學(xué)者構(gòu)造出來的概念?;谧詣?dòng)化決策透明度規(guī)制的現(xiàn)實(shí)需求,歐盟學(xué)者在近年來的研究中厘清了《通用數(shù)據(jù)保護(hù)條例》中實(shí)質(zhì)起到算法解釋作用的規(guī)范體系:《通用數(shù)據(jù)保護(hù)條例》實(shí)際上通過第13-15條、第22條和序言第71條組成的告知義務(wù)體系承擔(dān)算法解釋的功能。
首先,《通用數(shù)據(jù)保護(hù)條例》第13條第2款第(f)項(xiàng)、第14條第2款(g)項(xiàng)和第15條第1款(h)項(xiàng)中“所涉邏輯的有意義信息”“對數(shù)據(jù)主體重要性和設(shè)想后果”等表述值得重視,其規(guī)定了數(shù)據(jù)控制者充分的算法解釋義務(wù)。具體而言,披露信息必須“有意義”,這對于沒有技術(shù)背景的數(shù)據(jù)主體來說是可理解的、具有實(shí)質(zhì)指引作用和信息量充分的,并且披露的方式應(yīng)根據(jù)應(yīng)用場景的不同靈活調(diào)整;披露信息能體現(xiàn)“重要性和設(shè)想后果”則要求數(shù)據(jù)主體能夠根據(jù)所提供的信息,理解自動(dòng)化決策系統(tǒng)的運(yùn)作邏輯,并預(yù)測自己行為的結(jié)果。(24)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,235-236(2017).這實(shí)際上消融了瓦赫特提出的一般性系統(tǒng)功能解釋和具體決策解釋、自動(dòng)化決策事前解釋和事后解釋的嚴(yán)格區(qū)分,彌補(bǔ)了事后“算法解釋權(quán)”缺位的不足。因?yàn)閺募夹g(shù)層面來看,基于可靠性的要求,使用線性回歸算法、機(jī)器學(xué)習(xí)算法的自動(dòng)化決策系統(tǒng)運(yùn)算結(jié)果是可以預(yù)測的。一旦對其輸入數(shù)據(jù),其處理結(jié)果便可預(yù)知,而不必等最終的決策作出。(25)Peter Flach,Machine Learning:The Art and Science of Algorithms that Make Sense of Data,Cambridge University Press,2012,p.11.能進(jìn)行一般性系統(tǒng)功能解釋但無法進(jìn)行具體決策解釋的例子,只有使用隨機(jī)輸出算法的自動(dòng)化決策。但該類系統(tǒng)在實(shí)踐中不具有典型性,并且對其具體決策的事后解釋也沒有意義,一般性系統(tǒng)功能的解釋便足夠。(26)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,240(2017).因此,《通用數(shù)據(jù)保護(hù)條例》第13-15條能夠?qū)λ惴ㄟM(jìn)行充分解釋,并且數(shù)據(jù)主體根據(jù)第15條第1款第(h)項(xiàng)至少可獲得對自動(dòng)化決策的事中解釋。
其次,在算法解釋的內(nèi)容上,《通用數(shù)據(jù)保護(hù)條例》第13—15條的算法解釋義務(wù)能夠協(xié)調(diào)算法透明度、數(shù)據(jù)主體可理解性和商業(yè)秘密保護(hù)三者之間的緊張關(guān)系,彌補(bǔ)“算法解釋權(quán)”在實(shí)現(xiàn)上的不足。如前所述,“算法解釋權(quán)”的阻礙,主要在于數(shù)據(jù)主體無法理解披露內(nèi)容和商業(yè)秘密保護(hù)等問題上。就前一問題而言,《通用數(shù)據(jù)保護(hù)條例》第13—15條確立了“易讀性解釋”標(biāo)準(zhǔn),使得算法解釋既有合理的透明度,又易于數(shù)據(jù)主體理解。以程度為標(biāo)準(zhǔn),算法解釋可分為可讀性(readability)解釋、透明性(transparency)解釋和易讀性(legibility)解釋三類??勺x性指的是數(shù)據(jù)主體理解某些信息、某些數(shù)據(jù)的主觀能力。對自動(dòng)化決策系統(tǒng)進(jìn)行可讀性解釋,可以促進(jìn)數(shù)據(jù)主體對其機(jī)制的理解,但不會(huì)提高數(shù)據(jù)主體對其影響范圍、處理目的、處理結(jié)果和社會(huì)意義的知情程度。(27)Mingfeng Lin,Economic Value of Texts:Evidence from Online Debt Crowdfunding,in Empirical Studies on Online Crowdfunding,原文鏈接:https://www.federalreserve.gov/conferences/files/economic-value-of-texts-presentation.pdf,2023年5月30日訪問。透明性解釋則包含自動(dòng)化決策的具體存在、輸入信息、處理范圍、商業(yè)目的、社會(huì)意義、具體效果等細(xì)節(jié)方面的信息,但無法提升數(shù)據(jù)主體對其理解程度。(28)Tal Zarsky,Transparent Predictions,4 University of Illinois Law Review,1503,1530-1550(2013).換言之,可讀性解釋是對自動(dòng)化決策的不透明理解,透明性解釋則是對自動(dòng)化決策的不理解透明。而易讀性解釋則意味著數(shù)據(jù)主體能夠自主理解數(shù)據(jù)和分析算法,達(dá)到對自動(dòng)化決策“既理解又透明”的程度。(29)Richard Mortier,Hamed Haddadi,Tristan Henderson,Derek McAuley &Jon Crowcroft,Human-data Interaction:The Human Face of the Data-driven Society,2 MIT Technology Review,1,6-7(2014).在算法解釋中采用易讀性原則,可以彌合可讀性解釋和透明性解釋各自的不足?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第13條第2款(f)項(xiàng)、第14條第2款(g)項(xiàng)、第15條第1款(h)項(xiàng)中“存在自動(dòng)化決策”“所涉邏輯有意義信息”的規(guī)定屬于透明性解釋的內(nèi)容,而“對數(shù)據(jù)主體的重要性和設(shè)想結(jié)果”的規(guī)定則屬于可讀性解釋的內(nèi)容。綜合來看,《通用數(shù)據(jù)保護(hù)條例》第13—15條要求算法解釋達(dá)到“既透明又理解”的程度,明確了“易讀性解釋”標(biāo)準(zhǔn)。(30)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,257-258(2017).而在商業(yè)秘密保護(hù)方面,《通用數(shù)據(jù)保護(hù)條例》序言第63條確實(shí)規(guī)定數(shù)據(jù)保護(hù)的權(quán)利不應(yīng)對商業(yè)秘密產(chǎn)生不利影響,但這并不妨礙數(shù)據(jù)控制者履行算法解釋義務(wù)。因?yàn)椤锻ㄓ脭?shù)據(jù)保護(hù)條例》序言第63條也強(qiáng)調(diào),數(shù)據(jù)控制者不得因上述限制拒絕向數(shù)據(jù)主體提供信息,歐盟《商業(yè)秘密指令》序言第35條亦規(guī)定,商業(yè)秘密原則不應(yīng)影響數(shù)據(jù)保護(hù)權(quán)利。(31)Paul B. de Laat,Algorithmic Decision-making Employing Profiling:Will Trade Secrecy Protection Render the Right to Explanation Toothless?,24 Ethics and Information Technology,16,17(2022).這表明,歐盟法律中算法解釋和商業(yè)秘密保護(hù)二者也可以平衡。
最后,《通用數(shù)據(jù)保護(hù)條例》序言在法解釋中的價(jià)值指引作用也不應(yīng)忽視,其強(qiáng)化了算法解釋義務(wù)體系的構(gòu)建。雖然《通用數(shù)據(jù)保護(hù)條例》序言第71條所規(guī)定的算法解釋的權(quán)利并無法律效力,但其與正文第13—15條、第22條在內(nèi)容上并不存在沖突。從法教義學(xué)的角度,無法反駁序言第71條在闡釋正文第22條第3款的“保護(hù)措施”和第13—15條的算法解釋義務(wù)時(shí)能起到補(bǔ)充的作用。(32)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,255(2017).《通用數(shù)據(jù)保護(hù)條例》第22條第3款所規(guī)定“保護(hù)措施”的內(nèi)涵,并不能從該條的文義中得到明晰。序言第71條指出,“保護(hù)措施”具體包括“獲得人為干預(yù)、表達(dá)其觀點(diǎn)、獲得對自動(dòng)化決策解釋的權(quán)利和提出質(zhì)疑的權(quán)利”。在第22條無法推導(dǎo)出獨(dú)立“算法解釋權(quán)”的情況下,“獲得對自動(dòng)化決策解釋的權(quán)利”僅能指向第13—15條所規(guī)定的算法解釋義務(wù)。由此,《通用數(shù)據(jù)保護(hù)條例》第13—15條、第22條和序言第71條構(gòu)成了完整的算法解釋義務(wù)體系。
從上述分析可知,歐盟《通用數(shù)據(jù)保護(hù)條例》中并不存在“算法解釋權(quán)”,僅有算法解釋義務(wù)體系。我國《個(gè)人信息保護(hù)法》第24條第3款的表述與《通用數(shù)據(jù)保護(hù)條例》第22條第1款相近,但增加了“個(gè)人有權(quán)要求個(gè)人信息處理者予以說明”的賦權(quán)性表述。這是否意味著我國《個(gè)人信息保護(hù)法》彌補(bǔ)了《通用數(shù)據(jù)保護(hù)條例》的缺憾,肯定了“算法解釋權(quán)”的獨(dú)立地位?從法教義學(xué)的角度對此分析,獨(dú)立“算法請求權(quán)”在我國民法體系中亦難以證立,算法解釋的性質(zhì)應(yīng)為信息處理者的告知義務(wù)。
若“算法解釋權(quán)”應(yīng)被肯定,其在我國民法中應(yīng)被置于何種體系地位,目前并未有較多研究。一種較有說服力的觀點(diǎn)認(rèn)為,算法解釋是依附于人格權(quán)保護(hù)體系、為實(shí)現(xiàn)人格利益保護(hù)而服務(wù)的非獨(dú)立請求權(quán)。其理由在于:第一,個(gè)人信息權(quán)益是隸屬于人格權(quán)保護(hù)體系的法益,因此算法解釋也應(yīng)置于人格權(quán)保護(hù)的范疇進(jìn)行性質(zhì)界定;第二,人格權(quán)“事前防御—事后救濟(jì)”的請求權(quán)保護(hù)體系能夠涵蓋自動(dòng)化決策全過程中可能出現(xiàn)的侵害,為信息主體提供有效救濟(jì)。(33)參見胡巧莉、劉征峰:《算法在民法中的體系定位去類型區(qū)分》,載《財(cái)經(jīng)法學(xué)》2022年第4期。該種觀點(diǎn)構(gòu)思精巧,對算法解釋在民法中的體系地位進(jìn)行了有益的探討。但在個(gè)人信息保護(hù)的特殊語境下,以權(quán)利的維度構(gòu)建算法解釋權(quán)未免局限。
從民法教義學(xué)的角度分析,人格權(quán)請求權(quán)無法涵蓋“算法解釋權(quán)”的制度功能?!八惴ń忉寵?quán)”所保護(hù)的對象為個(gè)人信息權(quán)益,且歐盟對自動(dòng)化決策的規(guī)制始于對個(gè)人尊嚴(yán)的關(guān)懷,(34)Mariam Hawath,Regulating Automated Decision-Making:An Analysis of Control over Processing and Additional Safeguards in Article 22 of the GDPR,7 EDPL,161,163-164(2021).不可否認(rèn)算法解釋權(quán)與人格權(quán)編在體系上有著緊密關(guān)聯(lián)。但這并不意味著須采人格權(quán)請求權(quán)理論構(gòu)建算法解釋權(quán)。一方面,自動(dòng)化決策不僅可能侵害信息主體的人格權(quán)益,還有可能侵害其財(cái)產(chǎn)權(quán)益。電子商務(wù)領(lǐng)域頻頻出現(xiàn)的“大數(shù)據(jù)殺熟”現(xiàn)象即為自動(dòng)化決策侵害財(cái)產(chǎn)權(quán)益的例證,(35)參見廖建凱:《“大數(shù)據(jù)殺熟”法律規(guī)制的困境與出路——從消費(fèi)者的權(quán)利保護(hù)到經(jīng)營者算法權(quán)利治理》,載《西南政法大學(xué)學(xué)報(bào)》2020年第1期。僅憑人格權(quán)請求權(quán)無法周延保護(hù)信息主體的權(quán)益。另一方面,作為“算法解釋權(quán)”保護(hù)對象的個(gè)人信息權(quán)益并未被我國《民法典》確立為具體的人格權(quán),其僅為一項(xiàng)受法律保護(hù)的人格利益,我國民法并不總是借助人格權(quán)請求權(quán)對其進(jìn)行保護(hù)。(36)參見李永軍:《論民法典中人格權(quán)的實(shí)證概念》,載《比較法研究》2022年第1期。人格權(quán)請求權(quán)基于具體人格權(quán)的效力而產(chǎn)生,是對作為絕對權(quán)的人格權(quán)進(jìn)行保護(hù)的特有方法。(37)參見王利明:《論人格權(quán)請求權(quán)與侵權(quán)損害賠償請求權(quán)的分離》,載《中國法學(xué)》2019年第1期。在《民法典》沒有明確“個(gè)人信息權(quán)”概念的情況下,我國《個(gè)人信息保護(hù)法》系通過確立一系列“個(gè)人信息處理規(guī)則”行為規(guī)范的方式,實(shí)現(xiàn)對個(gè)人信息權(quán)益的反射保護(hù)。(38)參見龍衛(wèi)球:《論個(gè)人信息主體基礎(chǔ)法益的設(shè)定與實(shí)現(xiàn)——基于“個(gè)人信息處理規(guī)則”反射利益的視角》,載《比較法研究》2023年第2期。其目的在于將“個(gè)人信息處理規(guī)則”作為人格或財(cái)產(chǎn)的前置保護(hù)機(jī)制,以此防范數(shù)據(jù)處理帶來的抽象人格侵害或財(cái)產(chǎn)侵害的危險(xiǎn)。(39)參見楊芳:《個(gè)人信息自決權(quán)理論及其檢討——兼論個(gè)人信息保護(hù)法之保護(hù)客體》,載《比較法研究》2015年第6期。具體到自動(dòng)化決策的場景,個(gè)人信息權(quán)益本就內(nèi)涵模糊、外延寬泛,自動(dòng)化決策作出前后往往難以界定是否侵害某一具體人格權(quán)的圓滿狀態(tài),遑論人格權(quán)請求權(quán)的行使?;谝陨峡剂浚Y(jié)合《個(gè)人信息保護(hù)法》第24條第3款處于“個(gè)人信息處理規(guī)則”一章的體系位置,將該條性質(zhì)認(rèn)定為信息處理者的行為規(guī)范更為妥適。
從實(shí)踐的角度分析,以權(quán)利的維度構(gòu)建“算法解釋權(quán)”,也難謂信息主體有效的私法救濟(jì)手段。一方面,“算法解釋權(quán)”無法匹配我國的人格權(quán)司法救濟(jì)途徑,信息主體難以借助公權(quán)力實(shí)現(xiàn)算法解釋的目的。我國人格權(quán)的司法救濟(jì)途徑主要有民事責(zé)任和人格權(quán)禁令兩類。人格權(quán)受到侵害時(shí),所對應(yīng)的民事責(zé)任主要為停止侵害、排除妨礙、消除危險(xiǎn)、消除影響、恢復(fù)名譽(yù)和賠禮道歉等,其均是對絕對權(quán)的保護(hù)方法。(40)參見張新寶:《民法分則侵權(quán)責(zé)任編立法研究》,載《中國法學(xué)》2017年第3期。而如前所述,個(gè)人信息權(quán)益并非具體的人格權(quán),自動(dòng)化決策作出前后難謂侵害某一具體人格權(quán)的圓滿狀態(tài),遑論以民事責(zé)任的方式強(qiáng)制信息處理者進(jìn)行算法解釋。也正因?yàn)閭€(gè)人信息權(quán)益并非具體的人格權(quán),個(gè)人信息權(quán)益保護(hù)是否能適用人格權(quán)禁令程序亦存在爭議。(41)參見程嘯:《論我國民法典中的人格權(quán)禁令制度》,載《比較法研究》2021年第3期。實(shí)際上,即便肯定個(gè)人信息保護(hù)禁令的適用,其也體現(xiàn)為拒絕權(quán)、異議更正權(quán)、刪除權(quán)和遺忘權(quán)禁令等,(42)參見楊鋼:《個(gè)人信息權(quán)禁令的理論證成與構(gòu)造》,載《法律適用》2023年第3期。從我國《民法典》第997條的文義來看,難以推導(dǎo)出“算法解釋禁令”的存在。
另一方面,信息主體行使“算法解釋權(quán)”的請求,可能會(huì)面臨信息處理者的商業(yè)秘密保護(hù)抗辯,進(jìn)而使算法解釋的目的落空。近年來,在我國為數(shù)不多的算法解釋糾紛案件中,法院往往傾向于商業(yè)秘密保護(hù)的立場。譬如,在全國首例“搜索服務(wù)”違約案中,原告以“我搜索的是國美冰箱,為什么出來的不全是國美牌冰箱”為由起訴淘寶公司,認(rèn)為其構(gòu)成違約并要求其解釋算法,但被告以商業(yè)秘密保護(hù)為由抗辯,最終法院駁回原告的訴訟請求;(43)參見浙江省杭州互聯(lián)網(wǎng)法院(2020)浙0192民初2295號民事判決書。在凌某某訴北京某播視界科技有限公司隱私權(quán)、個(gè)人信息權(quán)益網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案當(dāng)中,北京互聯(lián)網(wǎng)法院認(rèn)為,算法確實(shí)屬于商業(yè)秘密的范疇,告知和公開算法不屬于對原告?zhèn)€人信息的必要保護(hù)措施。(44)參見北京市北京互聯(lián)網(wǎng)法院(2019)京0491民初6694號民事判決書。目前,算法已經(jīng)被我國司法實(shí)踐明確為商業(yè)秘密保護(hù)的范疇。2020年8月頒布的《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》在其第1條中明確將算法歸屬于技術(shù)信息,使其受知識產(chǎn)權(quán)法的保護(hù)。在“全國首例算法商業(yè)秘密保護(hù)案”智搜公司訴光速蝸牛侵犯商業(yè)秘密糾紛案中,深圳中院也明確指出,算法能夠?yàn)樵婀編砩虡I(yè)收益和競爭優(yōu)勢,符合商業(yè)秘密的法定要件。(45)參見《廣東高院發(fā)布數(shù)字經(jīng)濟(jì)知識產(chǎn)權(quán)保護(hù)典型案例裁判要旨》,載《廣東省高級人民法院》微信公眾號,2023年4月25日。雖然以上司法解釋條款和案例僅在反不正當(dāng)競爭法領(lǐng)域起指引作用,但其在一定程度上也能夠起到強(qiáng)化信息處理者商業(yè)秘密抗辯的作用。
以權(quán)利構(gòu)建的路徑難以在我國民法中創(chuàng)設(shè)一項(xiàng)“算法解釋權(quán)”。如前所述,從《個(gè)人信息保護(hù)法》第24條第3款的體系位置來看,將其性質(zhì)認(rèn)定為信息處理者的行為規(guī)范更為合理。為了行文方便,此處將其稱為“行為規(guī)范說”,這一解釋立場在比較法上存在依據(jù),也能夠自洽于我國民法理論。
1.“行為規(guī)范說”在比較法上的正當(dāng)性
從比較法來看,采權(quán)利構(gòu)建路徑的“算法解釋權(quán)”初衷是為了對抗公共領(lǐng)域的自動(dòng)化決策,其僅在公法的語境下成立?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條的前身是歐盟《數(shù)據(jù)保護(hù)指令》第15條規(guī)定,該條在很大程度上受1978年法國《信息技術(shù)、數(shù)據(jù)文件和公民自由法》第2條的影響,后者旨在禁止司法和行政領(lǐng)域的自動(dòng)化決策。(46)Loi n° 78-17 du 6 janvier 1978 relative à l'informatique,aux fichiers et aux libertés.目前,法國《數(shù)據(jù)保護(hù)法》第30條第70—9款仍然保留了公民對司法、行政領(lǐng)域自動(dòng)化決策的算法解釋權(quán)。(47)LOI n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles (1).我國亦有學(xué)者認(rèn)為,對《個(gè)人信息保護(hù)法》第24條第3款的解釋應(yīng)考慮公私場景的不同,僅在公法領(lǐng)域應(yīng)賦予信息主體“算法解釋權(quán)”。(48)參見林洹民:《〈個(gè)人信息保護(hù)法〉中的算法解釋權(quán):兼顧公私場景的區(qū)分規(guī)范策略》,載《法治研究》2022年第5期。
在私法語境下,將我國《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,能夠在《通用數(shù)據(jù)保護(hù)條例》中找到依據(jù)。在歐盟的研究中,學(xué)者們對《通用數(shù)據(jù)保護(hù)條例》第22條的性質(zhì)存在較大爭議?!皺?quán)利說”認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》第22條是數(shù)據(jù)主體可選擇行使的主觀權(quán)利,僅涉及第22條第2項(xiàng)規(guī)定的三種情形時(shí),數(shù)據(jù)主體的拒絕權(quán)方受限制。(49)Luca Tosoni,The Right to Object to Automated Individual Decisions:Resolving the Ambiguity of Article 22(1)of the General Data Protection Regulation,11 International Data Privacy Law,145,145-162(2021).“禁令說”則認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》第22條為數(shù)據(jù)控制者的行為規(guī)范,其系針對自動(dòng)化決策的一般性禁止,僅涉及第22條第2項(xiàng)的三種情形時(shí),數(shù)據(jù)控制者可例外使用自動(dòng)化決策。(50)Florent Thouvenin,Alfred Früh &Simon Hensele,Article 22 GDPR on Automated Individual Decision-Making:Prohibition or Data Subject Right?,8 EDPL,183,188-192(2022).在歐盟理論界,“禁令說”為多數(shù)說。并且,梳理歐盟《通用數(shù)據(jù)保護(hù)條例》的官方解釋和裁判觀點(diǎn),“禁令說”也更加受到歐盟司法實(shí)踐的肯定。歐盟第29條數(shù)據(jù)保護(hù)小組基于《通用數(shù)據(jù)保護(hù)條例》序言第71條、正文第12—22條的法教義學(xué)解釋,認(rèn)為第22條本質(zhì)上是對自動(dòng)化決策的一般性禁止,指出“禁令說”更符合《通用數(shù)據(jù)保護(hù)條例》強(qiáng)化數(shù)據(jù)主體數(shù)據(jù)控制權(quán)的基本立場。(51)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.23-24.歐盟及其成員國近年來一系列裁判案例亦肯定“禁令說”的立場。2020年2月荷蘭海牙地區(qū)法院在其判決中指出:“《通用數(shù)據(jù)保護(hù)條例》第22條普遍禁止完全自動(dòng)化的個(gè)人決策”,肯定將該條視為禁令的觀點(diǎn)。(52)ECLI:NL:RBDHA:2020:865.在2023年1月的OQ訴德國黑森州案中,歐洲法院也明確將第22條的性質(zhì)認(rèn)定為禁令。(53)OQ v Land Hesse (Case C-634/21)(2022/C 37/19).該案被稱為歐盟關(guān)于自動(dòng)化決策的首個(gè)里程碑判例,有望結(jié)束第22條的性質(zhì)之爭。
2.“行為規(guī)范說”在我國民法上的正當(dāng)性
首先,將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,能夠填補(bǔ)信息處理者事前算法解釋義務(wù)闕如的法律漏洞。從本文第二部分對《通用數(shù)據(jù)保護(hù)條例》算法解釋義務(wù)體系的梳理可知,第13條、第14條所規(guī)定的算法事前解釋義務(wù)是“告知—同意”原則的重要方面。若無該算法事前解釋義務(wù),數(shù)據(jù)主體將不知道自動(dòng)化決策的存在,亦無從行使第22條賦予的自動(dòng)化決策拒絕權(quán)。從我國對個(gè)人信息處理告知的具體規(guī)定來看,其并不能涵蓋算法解釋的內(nèi)容。我國《民法典》第1035條第1款第3項(xiàng)規(guī)定,處理個(gè)人信息應(yīng)“明示處理信息的目的、方式和范圍”;我國《個(gè)人信息保護(hù)法》第17條第1款第3項(xiàng)亦規(guī)定,個(gè)人信息處理者應(yīng)告知“個(gè)人信息的處理目的、處理方式”。而該“處理方式”一般指個(gè)人信息的收集、儲(chǔ)存、使用、加工、傳輸、提供、公開和刪除等方面,并不包含自動(dòng)化決策的使用。(54)參見江必新、李占國主編:《中華人民共和國個(gè)人信息保護(hù)法條文解讀與法律適用》,中國法制出版社2021年版,第61-65頁。自動(dòng)化決策屬于個(gè)人信息“處理”的一環(huán),基于“告知—同意”原則的要求,其本應(yīng)屬于信息處理者告知義務(wù)的內(nèi)容。(55)參見萬方:《算法告知義務(wù)在知情權(quán)體系中的適用》,載《政法論壇》2021年第6期。這無疑屬于德國法學(xué)家拉倫茨所言的“隱藏型漏洞”——法律雖有規(guī)定但并未對案件的特別情況予以考慮。(56)參見〔德〕卡爾·拉倫茨:《法學(xué)方法論》,黃家鎮(zhèn)譯,商務(wù)印書館2020年版,第473-474頁。該漏洞即便在因締約需求而使用自動(dòng)化決策的情況下,也難以通過先合同義務(wù)進(jìn)行彌補(bǔ)。我國《民法典》合同編并沒有課以締約人一般性的先合同告知義務(wù),僅第500條針對“與訂立合同有關(guān)的重要事實(shí)”作出特別規(guī)定。要判斷先合同告知義務(wù)的有無,須借助法律具體規(guī)定、交易習(xí)慣和利益衡量等進(jìn)行判斷。(57)參見韓世遠(yuǎn):《合同法總論》(第四版),法律出版社2018年版,第175-176頁。算法解釋是否能夠納入先合同告知義務(wù)的范疇,顯然并不明確。在此情況下,唯有將《個(gè)人信息保護(hù)法》第24條第3款作為第17條告知義務(wù)的特別規(guī)定,課以信息處理者事前的算法告知義務(wù),方能填補(bǔ)該法律漏洞。
其次,將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,可以在體系上構(gòu)建出“事前—事后”維度的算法解釋規(guī)則體系,并在一定程度上消解信息處理者的商業(yè)秘密保護(hù)抗辯。在事前算法解釋存在的情況下,若賦予信息主體事后算法解釋的權(quán)利,便可形成針對自動(dòng)化決策的“全周期聯(lián)動(dòng)行權(quán)機(jī)制”,提升對信息主體權(quán)益的保護(hù)程度。(58)參見趙宏:《公共決策適用算法技術(shù)的規(guī)范分析與實(shí)體邊界》,載《比較法研究》2023年第2期。“行為規(guī)范說”恰好能夠結(jié)合民法上的“絕對義務(wù)”理論,在我國《個(gè)人信息保護(hù)法》上構(gòu)建出“事前—事后”維度的算法解釋規(guī)則體系。有學(xué)者指出,從民事權(quán)利基礎(chǔ)理論的角度觀察,《個(gè)人信息保護(hù)法》“個(gè)人信息處理規(guī)則”一章的絕大多數(shù)規(guī)定屬于“絕對義務(wù)規(guī)范”。其本質(zhì)上是一種為了保護(hù)尚未定型的新興法益,而以行為規(guī)制為中心的立法技術(shù)。(59)參見李春暉:《絕對權(quán)、絕對義務(wù)及其相對化——民事權(quán)利與法益保護(hù)的單一框架》,載《中外法學(xué)》2023年第3期。《個(gè)人信息保護(hù)法》第24條第3款即可視為信息處理者承擔(dān)事前算法解釋的絕對義務(wù)。絕對義務(wù)被違反后、損害發(fā)生前,有被侵權(quán)之虞的權(quán)利人便享有絕對義務(wù)請求權(quán)進(jìn)行救濟(jì)。其與絕對權(quán)請求權(quán)類似,但以行為具有違法性為判斷標(biāo)準(zhǔn)。(60)參見楊明:《知識產(chǎn)權(quán)請求權(quán)研究——兼以反不正當(dāng)競爭為考察對象》,北京大學(xué)出版社2005年版,第153頁。我國《個(gè)人信息保護(hù)法》第44條(知情權(quán)和決定權(quán))、第48條(釋明權(quán))和第50條(個(gè)人行使權(quán)利的保障機(jī)制)可視為算法解釋的絕對義務(wù)請求權(quán)。當(dāng)信息處理者違反事前算法解釋的絕對義務(wù)時(shí),信息主體便可依據(jù)以上條款請求信息處理者進(jìn)行事后算法解釋,請求被拒絕的情況下則可向人民法院提起訴訟,由此形成“事前—事后”的算法解釋規(guī)則體系。如此一來,算法解釋與商業(yè)秘密保護(hù)之間的關(guān)系,便不是“算法解釋權(quán)—商業(yè)秘密保護(hù)”兩項(xiàng)權(quán)益衡平擇一的問題,而是“算法解釋程度—商業(yè)秘密保護(hù)”的程度把控問題,在一定程度上也消解了商業(yè)秘密保護(hù)對算法解釋的行權(quán)阻礙。
再次,“行為規(guī)范說”更有利于自動(dòng)化決策侵權(quán)案件中信息主體權(quán)利的保護(hù)。由于個(gè)人信息權(quán)益內(nèi)涵模糊、人工智能算法自帶“黑箱效應(yīng)”、算法侵權(quán)具有隱蔽性等原因,自動(dòng)化決策侵權(quán)案件發(fā)生時(shí),往往難以界定何種具體的民事權(quán)利受到侵害,也難以認(rèn)定信息處理者的主觀過錯(cuò),侵權(quán)救濟(jì)難以落實(shí)。(61)參見李文超、武一帆:《算法侵害行為的事前規(guī)制與侵權(quán)救濟(jì)研究》,載《法律適用》2023年第3期。若將《個(gè)人信息保護(hù)法》第24條第3款解釋為信息處理者的行為規(guī)范,該問題能夠得到解決。在“行為規(guī)范說”下,《個(gè)人信息保護(hù)法》第24條第3款實(shí)際上是“以保護(hù)他人為目的的法律”,違反該條即具備了違法性要件,進(jìn)而輔助判斷侵權(quán)責(zé)任的構(gòu)成。一方面,違法性要件可作為信息處理者過錯(cuò)的認(rèn)定標(biāo)準(zhǔn)之一。我國侵權(quán)法中,違法性應(yīng)否作為侵權(quán)責(zé)任的獨(dú)立構(gòu)成要件始終存在爭議。但隨著過失認(rèn)定應(yīng)采客觀化標(biāo)準(zhǔn)為我國理論和實(shí)務(wù)界普遍接受,以及受德國民法中過錯(cuò)與違法性應(yīng)否區(qū)分之爭議的影響,“過錯(cuò)吸收違法性”已經(jīng)成為有力學(xué)說。(62)參見王利明:《我國〈侵權(quán)責(zé)任法〉采納了違法性要件嗎?》,載《中外法學(xué)》2012年第1期。信息處理者違反事前算法解釋的義務(wù),便可認(rèn)為存在侵權(quán)法意義上的過錯(cuò),解決了自動(dòng)化決策侵權(quán)案件中過錯(cuò)認(rèn)定模糊的問題。另一方面,在我國《個(gè)人信息保護(hù)法》以行為規(guī)范為核心的立法模式下,違法性要件能夠輔助界定信息處理者的行為是否侵入個(gè)人信息權(quán)益的侵權(quán)責(zé)任保護(hù)范圍,在個(gè)人信息權(quán)益侵害要件認(rèn)定上也具有工具性價(jià)值。(63)參見蔡立東、展海晴:《論個(gè)人信息權(quán)益保護(hù)范圍的厘定——以行為違法判斷為核心》,載《吉林大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2023年第2期。
最后,將《個(gè)人信息保護(hù)法》第24條第3款視為行為規(guī)范,還可以防止信息處理者通過格式條款排除其算法解釋義務(wù)的情形。我國司法實(shí)踐中即出現(xiàn)過類似的案件。在陳某訴杭州“阿里媽媽”網(wǎng)絡(luò)服務(wù)合同糾紛案中,杭州“阿里媽媽”公司就通過《阿里媽媽推廣者規(guī)范》約定:“阿里媽媽過濾系統(tǒng)涉及阿里媽媽核心商業(yè)秘密,阿里媽媽無需向推廣者披露具體異常數(shù)據(jù)?!?64)參見浙江省杭州鐵路運(yùn)輸法院(2017)浙8601民初3306號民事判決書。將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,意味著其屬于我國《民法典》第153條第1款中的“法律、行政法規(guī)的強(qiáng)制性規(guī)定”。信息處理者通過格式條款排除自身算法說明義務(wù)時(shí),該條款會(huì)因“違反法律、行政法規(guī)的強(qiáng)制性規(guī)定”而無效。
此外,“行為規(guī)范說”的立場,還可以在我國《算法推薦管理規(guī)定》的立法過程得到印證。2021年8月頒布的《算法推薦管理規(guī)定》(征求意見稿)曾于第15條第3款規(guī)定,“用戶……有權(quán)要求算法推薦服務(wù)提供者予以說明……”,對算法解釋采賦權(quán)立法模式。但在2022年12月頒布的正式版本中,其第17條第3款將上述條款修改為“算法推薦服務(wù)提供者……應(yīng)當(dāng)依法予以說明……”,將算法解釋修正為信息處理者的義務(wù)。這說明,該規(guī)定的起草者也認(rèn)為,在私法語境中應(yīng)通過行為規(guī)范的方式課以信息處理者算法解釋的義務(wù)。
明確了《個(gè)人信息保護(hù)法》第24條第3款的行為規(guī)范性質(zhì)后,尚須明確其構(gòu)成要件和算法解釋的程度,方能在我國民法中真正落實(shí)。
無論是歐盟的《通用數(shù)據(jù)保護(hù)條例》,還是我國的《個(gè)人信息保護(hù)法》,算法解釋均須基于一定的前提觸發(fā)?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條第1款規(guī)定,當(dāng)決定是“僅基于自動(dòng)化決策”作出且對個(gè)人產(chǎn)生“法律效力或其他類似重大影響”時(shí),數(shù)據(jù)主體方能拒絕。我國《個(gè)人信息保護(hù)法》第24條第3款的表述類似。但該兩項(xiàng)要件該如何認(rèn)定,研究中一直存在爭議。
1.“自動(dòng)化決策”的界定
“自動(dòng)化決策”這一法律表述,已非客觀技術(shù)上的記敘性要件,而是須加入價(jià)值評判的規(guī)范性要件。明確其內(nèi)涵和外延,需要從以下三個(gè)方面進(jìn)行界定。
首先,需要厘清自動(dòng)化決策與數(shù)據(jù)畫像(profiling)之間的關(guān)系。根據(jù)《通用數(shù)據(jù)保護(hù)條例》第4條第4款的規(guī)定,所謂數(shù)據(jù)畫像是為了評價(jià)與自然人相關(guān)的特定層面,尤其是自然人的業(yè)務(wù)能力、經(jīng)濟(jì)狀況、個(gè)人喜好、健康、愛好、可行度、方位等使用的自動(dòng)化個(gè)人信息處理?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條第1款“自動(dòng)化決策,包括數(shù)據(jù)畫像”的立法表述,使得自動(dòng)化決策與數(shù)據(jù)畫像之間的關(guān)系存在爭議。對此存在兩種不同的文義解釋:第一種觀點(diǎn)認(rèn)為,自動(dòng)化決策與數(shù)據(jù)畫像為并列關(guān)系,二者均為自動(dòng)化決策拒絕權(quán)的規(guī)制對象;第二種觀點(diǎn)認(rèn)為,數(shù)據(jù)畫像應(yīng)構(gòu)成自動(dòng)化決策的基礎(chǔ),即只有基于數(shù)據(jù)畫像作出的自動(dòng)化決策,數(shù)據(jù)主體方能拒絕。單純的自動(dòng)化決策或單純的數(shù)據(jù)畫像,數(shù)據(jù)主體都無權(quán)拒絕。(65)Brent Mittelstadt,Chris Russell &Sandra Wachter,Explaining Explanations in AI,原文鏈接:https://dl.acm.org/doi/abs/10.1145/3287560.3287574,2023年5月30日訪問。前者的適用范圍顯然較后者要大,而后者對自動(dòng)化決策的界定范圍與歐盟《數(shù)據(jù)保護(hù)指令》第15條保持一致。有學(xué)者認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》的規(guī)制重點(diǎn)在于數(shù)據(jù)畫像,并且出于延續(xù)《數(shù)據(jù)保護(hù)指令》解釋一致性的考量,對此應(yīng)采第二種解釋。(66)Isak Mendoza &Lee A. Bygrave,The Right Not to Be Subject to Automated Decisions Based on Profiling,Springer International Publishing,2017,p.67.但歐盟第29條數(shù)據(jù)保護(hù)小組的官方解釋支持第一種解釋,(67)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.20-21.歐盟多數(shù)學(xué)者也贊同這一立場。(68)Lee A. Bygrave,Minding the Machine v2.0:The EU General Data Protection Regulation and Automated Decision Making,Oxford University Press,2019,p.5.反觀我國《個(gè)人信息保護(hù)法》第73條第2款對自動(dòng)化決策的界定,其并沒有單獨(dú)確立數(shù)據(jù)畫像的概念,而是將其作為自動(dòng)化決策的一部分。并且,我國《個(gè)人信息保護(hù)法》第24條第1款和第2款也強(qiáng)調(diào)“利用個(gè)人信息進(jìn)行自動(dòng)化決策”、“針對個(gè)人特征”,似乎也是將數(shù)據(jù)畫像作為自動(dòng)化決策的基礎(chǔ)。但在實(shí)際應(yīng)用中,數(shù)據(jù)畫像可通過完全自動(dòng)化或非完全自動(dòng)化處理方式得出,自動(dòng)化決策也并非均涉及數(shù)據(jù)畫像,二者呈現(xiàn)為“交集”的關(guān)系。譬如在算法信用評分的場景下,信用畫像形成后的自動(dòng)推送信息、自動(dòng)識別紅黑名單、自動(dòng)提示獎(jiǎng)懲依據(jù)、自動(dòng)實(shí)施限制處理、自動(dòng)反饋處理結(jié)果等自動(dòng)化決策便不具有數(shù)據(jù)畫像特質(zhì),但其決定作出時(shí)確有算法解釋的必要。(69)參見張欣:《免受自動(dòng)化決策約束權(quán)的制度邏輯與本土構(gòu)建》,載《華東政法大學(xué)學(xué)報(bào)》2021年第5期。因此,宜將我國《個(gè)人信息保護(hù)法》中的“自動(dòng)化決策”進(jìn)行擴(kuò)張解釋,使其與數(shù)據(jù)畫像呈現(xiàn)并列關(guān)系。
其次,需要厘清自動(dòng)化決策中人類的干預(yù)程度。歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第1款明確要求具體的決定必須是“僅基于自動(dòng)化處理而形成的”,我國《個(gè)人信息保護(hù)法》第24條第3款的表述與此類似。這是否意味著,我國《個(gè)人信息保護(hù)法》第24條第3款規(guī)定僅能適用于純粹自動(dòng)化決策的情形?歐盟第29條數(shù)據(jù)保護(hù)小組采嚴(yán)格的文義解釋立場,認(rèn)為只要自動(dòng)化決策的過程中存在人工干預(yù),便不受《通用數(shù)據(jù)保護(hù)條例》第22條的規(guī)制。(70)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.25-26.但這樣的觀點(diǎn)嚴(yán)重限制了該條的效力范圍,因?yàn)樽裱@樣的邏輯,只需要在自動(dòng)化決策流程中設(shè)置一個(gè)形式上的人工按鈕,便可輕松規(guī)避第22條的適用。(71)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,251-252(2017).實(shí)際上,在算法賦能運(yùn)用中,純粹的全自動(dòng)化決策系統(tǒng)只是少數(shù),多數(shù)決策是由“人工+輔助算法”的方式作出的。在部分情況下,輔助算法也可能達(dá)到完全自動(dòng)化決策系統(tǒng)的效果。一般而言,輔助型算法包括決策支持型算法、分流型算法和自動(dòng)總結(jié)型算法等類型。(72)Reuben Binns &Michael Veale,Is That Your Final Decision?Multi-stage Profiling,Selective Effects,and Article 22 of the GDPR,11 International Data Privacy Law,319,321-323(2021).決策支持型算法起到向人類決策者提供信息、輔助決策的作用。從表面上看,其輸出結(jié)果對人類決策者并無約束力,僅僅是一種可供自由選擇的建議。但當(dāng)人類決策者對某類結(jié)果形成思維定式,進(jìn)而失去對算法建議的批判意識時(shí),其實(shí)際上已經(jīng)化身為自動(dòng)化決策的一環(huán)。一項(xiàng)針對美國COMPAS系統(tǒng)的實(shí)證研究即指出,一些法官在面對黑人被告時(shí)往往全盤接受COMPAS系統(tǒng)的評分,而在面對白人被告時(shí)則傾向于使用自己的判斷。(73)Bo Cowgill,The Impact of Algorithms on Judicial Discretion:Evidence from Regression Discontinuities,原文鏈接:https://www.semanticscholar.org/paper/The-Impact-of-Algorithms-on-Judicial-Discretion-%3A-Cowgill/cdd4484708af448831eeb3d76a7c2d1e5b0a4ff2,2023年5月30日訪問。對于這部分主體來說,經(jīng)由人類決策者作出的決定已經(jīng)與“僅基于自動(dòng)化處理而形成的”無異。分流型算法則會(huì)按照某種標(biāo)準(zhǔn)將被決策對象進(jìn)行分組,再將不同的分組轉(zhuǎn)交給人類或人工智能系統(tǒng)進(jìn)行處理。這一過程雖有人類參與,但自動(dòng)化決策已經(jīng)在無形中削減了人類的決策權(quán),對最后的結(jié)果產(chǎn)生了實(shí)質(zhì)的影響。譬如微博、微信等媒體平臺(tái)會(huì)依靠關(guān)鍵詞識別技術(shù)遴選需要進(jìn)行人工審核的內(nèi)容,這就導(dǎo)致部分并無違規(guī)的內(nèi)容因關(guān)鍵詞重合而接受審核,被刪除的風(fēng)險(xiǎn)增加。自動(dòng)總結(jié)型算法則會(huì)整理合并多數(shù)人的評價(jià)或決策,經(jīng)過某種加權(quán)計(jì)算后生成整體的分?jǐn)?shù)或評估,譬如Uber、滴滴的司機(jī)打分系統(tǒng)及淘寶、京東等電商上的店鋪評分系統(tǒng)。這些最終的分?jǐn)?shù)或評估往往會(huì)用于限制、暫停、刪除平臺(tái)上的用戶,或?qū)灰桩a(chǎn)生負(fù)面影響。當(dāng)其數(shù)據(jù)抓取有誤或加權(quán)計(jì)算錯(cuò)誤時(shí),亦會(huì)造成類似完全自動(dòng)化決策的侵害。因此,我國《個(gè)人信息保護(hù)法》第24條第3款中的“自動(dòng)化決策”,不僅包括純粹的自動(dòng)化決策系統(tǒng),還須包含支持型算法、分流型算法和自動(dòng)總結(jié)型算法等輔助型自動(dòng)化決策系統(tǒng)。
最后,還需要明晰“決定”的具體內(nèi)涵。因?yàn)樵趯?shí)踐中,一個(gè)自動(dòng)化決策的作出很可能是系統(tǒng)內(nèi)部一系列中間決定累積的結(jié)果。曾有歐盟學(xué)者指出,“決定”包含了如計(jì)劃、建議、提議、選項(xiàng)映射等情況,(74)Lee A.Bygrave,Automated Profiling:Minding the machine:Article 15 of the EC Data Protection Directive and Automated Profiling,17 Computer Law &Security Review,17,17-24(2001).但即便如此,對“決定”的判斷依舊模糊。一般而言,自動(dòng)化決策系統(tǒng)中具有重要意義的決定可能發(fā)生在兩個(gè)階段,第一是數(shù)據(jù)主體個(gè)人畫像生成的時(shí)刻,第二是終局性結(jié)果產(chǎn)生的時(shí)刻。(75)Reuben Binns &Michael Veale,Is That Your Final Decision?Multi-stage Profiling,Selective Effects,and Article 22 of the GDPR,11 International Data Privacy Law,319,324-325(2021).譬如,銀行在制定客戶服務(wù)政策時(shí),往往會(huì)根據(jù)房貸、車貸、違約記錄等情況對客戶進(jìn)行信用評分,進(jìn)而依據(jù)分?jǐn)?shù)的不同賦予客戶不同的信貸權(quán)利。(76)參見張博文、楊斯堯:《算法型評分工具:優(yōu)勢、風(fēng)險(xiǎn)與法律規(guī)制》,載《西南金融》2022年第9期。在這一過程中,雖然信用評分形成時(shí)終局性的決定還未作出,但該分?jǐn)?shù)實(shí)際上已經(jīng)決定了最終的結(jié)果。因此,即便某一決定僅處于中間環(huán)節(jié),若其已經(jīng)對最后的結(jié)果產(chǎn)生了決定性的影響,也應(yīng)該認(rèn)為構(gòu)成《個(gè)人信息保護(hù)法》第24條第3款中的“決定”。
2.“對個(gè)人權(quán)益有重大影響”的界定
《個(gè)人信息保護(hù)法》第24條第3款的另一適用前提是自動(dòng)化決策“對個(gè)人權(quán)益有重大影響”,此為典型的不確定性概念,需要借助其他法律規(guī)范或價(jià)值判斷進(jìn)行補(bǔ)充。有兩個(gè)問題亟待回應(yīng),一是如何理解“重大影響”的內(nèi)容,二是該要件應(yīng)采主觀標(biāo)準(zhǔn)還是客觀標(biāo)準(zhǔn)進(jìn)行判斷。
同樣的問題亦存在于歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第1款的解釋中?!锻ㄓ脭?shù)據(jù)保護(hù)條例》序言第71條以列舉的方式,規(guī)定“法律效力或其他類似重大影響”應(yīng)存在于數(shù)據(jù)主體的工作表現(xiàn)、經(jīng)濟(jì)狀況、健康、個(gè)人偏好或興趣、信用度、地點(diǎn)或活動(dòng)等領(lǐng)域,但并沒有對闡明該不確定性概念提供更多指引。學(xué)者拜格雷夫(Bygrave)曾指出,產(chǎn)生“法律效力”的影響,系指自動(dòng)化決策影響了數(shù)據(jù)主體的法律地位,其包含對數(shù)據(jù)主體私法權(quán)利和公法權(quán)利的任何不利;而“重大影響”則不僅指客觀物質(zhì)上的損害,也包含數(shù)據(jù)主體的主觀感受。(77)Lee A.Bygrave,Minding the Machine:Art 15 of the EC Data Protection Directive and Automated Profiling,原文鏈接:http://classic.austlii.edu.au/au/journals/PrivLawPRpr/2000/40.html,2023年5月30日訪問。也有學(xué)者認(rèn)為,對于“重大影響”應(yīng)采寬泛的客觀判斷,通過自動(dòng)化決策對數(shù)據(jù)主體的任何損害性影響和普遍操縱都應(yīng)包含在內(nèi)。(78)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,252-254(2017).還有學(xué)者采主觀標(biāo)準(zhǔn),認(rèn)為“重大影響”包括對個(gè)人的認(rèn)知自由權(quán)、精神隱私權(quán)、精神完整權(quán)和心理連續(xù)性權(quán)利的影響。(79)Marcello Ienca &Roberto Andorno,Towards New Human Rights in the Age of Neuroscience and Neurotechnology,13 Life Sciences,Society and Policy,5,8-9(2017).而歐盟第29條數(shù)據(jù)保護(hù)小組則采列舉的方式對“重大影響”進(jìn)行界定,其指出,諸如嚴(yán)重影響個(gè)人行為或選擇、對數(shù)據(jù)主體產(chǎn)生長期或永久影響、導(dǎo)致個(gè)人歧視、影響信貸資格、影響醫(yī)療機(jī)會(huì)、剝奪就業(yè)和教育機(jī)會(huì)等情況可認(rèn)為是“重大影響”。可以說,該問題在域外的研究中還并未達(dá)成一致觀點(diǎn)。
反觀我國《個(gè)人信息保護(hù)法》第24條第3款中的“重大影響”,其還是可以結(jié)合算法侵害的典型場景進(jìn)行類型化判斷。算法侵害的類型,主要有聲譽(yù)侵害、歧視、行為影響、算法操控等。(80)參見王瑩:《算法侵害類型化研究與法律應(yīng)對——以〈個(gè)人信息保護(hù)法〉為基點(diǎn)的算法規(guī)制擴(kuò)展構(gòu)想》,載《法制與社會(huì)發(fā)展》2021年第6期。而置于私法語境下考察,其“私法效力或其他類似重大影響”主要體現(xiàn)為以下類型:(1)影響數(shù)據(jù)主體的意思表示自由。在高速交易、在線定價(jià)和智能合約等算法合約的場景中,算法會(huì)深入到合同磋商的過程,參與制定合同的具體條款。(81)Lauren Henry Scholz,Algorithmic Contracts,20 Stanford Technology Law Review,128,134-135(2017).此時(shí),自動(dòng)化決策便可能影響到數(shù)據(jù)主體意思表示的自由。(2)影響數(shù)據(jù)主體的締約資格。當(dāng)互聯(lián)網(wǎng)或金融平臺(tái)借助自動(dòng)化決策監(jiān)管,限制或取消數(shù)據(jù)主體的交易資格時(shí),如淘寶封禁買家賬號,便會(huì)對數(shù)據(jù)主體的私法權(quán)益產(chǎn)生影響。(3)侵害數(shù)據(jù)主體的財(cái)產(chǎn)權(quán)益。典型的如互聯(lián)網(wǎng)平臺(tái)封禁游戲賬號、直播賬號等情形,游戲賬號、直播賬號中所蘊(yùn)涵的財(cái)產(chǎn)權(quán)益也會(huì)直接受到影響。(4)侵害數(shù)據(jù)主體的人格權(quán)益。金融信貸公司借助智能算法進(jìn)行征信評分時(shí),有可能對數(shù)據(jù)主體的信用評價(jià)產(chǎn)生負(fù)面影響,進(jìn)而構(gòu)成對其具體人格權(quán)的侵害。(82)參見王苑:《信用大數(shù)據(jù)背景下信用的私法保護(hù)》,載《中國法律評論》2023年第1期。(5)造成數(shù)據(jù)主體的純粹經(jīng)濟(jì)損失。譬如,電商平臺(tái)的流量推薦機(jī)制、店鋪評分機(jī)制有可能會(huì)給具體店家的交易帶來負(fù)面影響,此時(shí)難謂侵害數(shù)據(jù)主體的具體民事權(quán)利,但卻有可能造成純粹經(jīng)濟(jì)損失。此外,我國《信息安全技術(shù)個(gè)人信息安全影響評估指南》(GB/T 39335—2020)第5.5.1條還列舉了限制個(gè)人自主決定權(quán)、引發(fā)差別待遇、名譽(yù)受損或精神壓力、個(gè)人財(cái)產(chǎn)受損等算法對個(gè)人權(quán)益造成損害的類型,可供補(bǔ)充解釋參考。
在判斷標(biāo)準(zhǔn)上,我國《個(gè)人信息保護(hù)法》第24條第3款中的“重大影響”應(yīng)采主客觀相結(jié)合的綜合標(biāo)準(zhǔn)?!秱€(gè)人信息保護(hù)法(草案)》一審稿曾采主觀標(biāo)準(zhǔn),其規(guī)定,“個(gè)人認(rèn)為自動(dòng)化決策對其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說明”。而在二審稿中,該條被修改為“通過自動(dòng)化決策方式作出對個(gè)人權(quán)益有重大影響的決定”的表述,采客觀陳述的立場。這一表述最終被保留到正式的法律文本中。但即便我國的立法體現(xiàn)為從主觀標(biāo)準(zhǔn)到客觀標(biāo)準(zhǔn)的轉(zhuǎn)變,鑒于自動(dòng)化決策運(yùn)用場景的復(fù)雜,且數(shù)據(jù)主體的主觀感受亦不容忽略,采主客觀相結(jié)合的判斷標(biāo)準(zhǔn)更為妥適。(83)參見王苑:《完全自動(dòng)化決策拒絕權(quán)之正當(dāng)性及其實(shí)現(xiàn)路徑——以〈個(gè)人信息保護(hù)法〉第24條第3款為中心》,載《法學(xué)家》2022年第5期。
算法解釋通常會(huì)面臨可理解性和商業(yè)秘密保護(hù)的阻礙,因此,如何把握算法解釋的程度,是落實(shí)算法解釋權(quán)的核心問題之一。比較法上,歐盟《通用數(shù)據(jù)保護(hù)條例》第13-14條、第15條僅規(guī)定數(shù)據(jù)控制者應(yīng)向數(shù)據(jù)主體披露“自動(dòng)化決策的存在”“所涉邏輯的重要信息”“該處理對數(shù)據(jù)主體的重要性和設(shè)想的后果”,但以上立法表述在適用上依然模糊。法國《數(shù)字共和國法》第4條規(guī)定,使用自動(dòng)化決策的公權(quán)力機(jī)關(guān)必須向數(shù)據(jù)主體揭示系統(tǒng)的“主要特征”,(84)LOI n°2016-1321 du 7 octobre 2016 pour une République numérique (1).而2017年3月頒布的《公眾與行政部門關(guān)系守則》第R311-3-1-2條則對“主要特征”進(jìn)一步明確,指出其主要指算法處理對決策的貢獻(xiàn)程度和方式、處理的數(shù)據(jù)和來源、適用于數(shù)據(jù)主體的處理參數(shù)和權(quán)重、處理所執(zhí)行的操作等方面。(85)Code des relations entre le public et l'administration.法國《數(shù)字共和國法》和《公眾與行政部門關(guān)系守則》的上述規(guī)定可為算法解釋的內(nèi)容提供更為清晰的指引。
學(xué)說上,較有影響力的是歐盟學(xué)者瓦赫特的理論,其區(qū)分“事前—事后”的維度分別界定算法解釋的內(nèi)容。根據(jù)他的觀點(diǎn),事前解釋系指對系統(tǒng)功能的一般性解釋,即對自動(dòng)化決策系統(tǒng)的邏輯、重要性預(yù)期后果和一般功能,例如系統(tǒng)的需求規(guī)范、決策樹、預(yù)定義模型、標(biāo)準(zhǔn)和分類結(jié)構(gòu)進(jìn)行闡釋;事后解釋系指對具體決策的解釋,即對具體自動(dòng)化決策的基本原理、原因和個(gè)別情況,如特征權(quán)重、機(jī)器定義的特定案例決策規(guī)則、參考或配置文件組的信息進(jìn)行解釋。(86)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,81-82(2017).該理論為算法解釋的維度和內(nèi)容作出了清晰的界定,在一定程度上奠定了歐盟對算法解釋研究的基礎(chǔ)。但其也受到歐盟學(xué)者塞爾伯斯(Selbst)等的有力質(zhì)疑,后者指出這一分類模式無法在《通用數(shù)據(jù)保護(hù)條例》中成立。(87)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,235-236(2017).后來瓦赫特還富有創(chuàng)見地提出了“反事實(shí)解釋”方法,指出其能夠在不打開算法黑箱的前提下向數(shù)據(jù)主體傳達(dá)算法的基本信息,幫助其理解、質(zhì)疑和改變自動(dòng)化決策。(88)Sandra Wachter,Brent Mittelstadt &Chris Russell,Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR,31 Harvard Journal of Law &Technology,1,1-50(2018).但這一解釋模式的普適性和具體適用效果還有待驗(yàn)證。
在將《個(gè)人信息保護(hù)法》第24條第3款認(rèn)定為行為規(guī)范的情況下,較為合理的解釋方法是歐盟學(xué)者馬爾基里(Malgieri)所提出的“易讀性(Legibility)解釋”。該理論同樣基于《通用數(shù)據(jù)保護(hù)條例》第13—15條的算法解釋義務(wù)展開。如本文第二部分所述,馬爾基里明確區(qū)分了算法解釋中可讀性解釋、透明性解釋和易讀性解釋的不同,指出:“可讀性解釋是對自動(dòng)化決策的不透明理解,透明性解釋是對自動(dòng)化決策的不理解透明”,而易讀性解釋則是前二者的結(jié)合,其旨在使算法解釋“既理解又透明”。(89)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,257-258(2017).具體而言,易讀性解釋需要在算法設(shè)計(jì)和實(shí)施的過程中實(shí)現(xiàn)。在算法設(shè)計(jì)的過程中,需要重視算法數(shù)據(jù)來源、系統(tǒng)功能、特征權(quán)重和預(yù)設(shè)結(jié)果等方面的公開透明,并以可理解的方式呈現(xiàn);在算法實(shí)施的過程中,則需要向數(shù)據(jù)主體就算法的目的、人為干預(yù)的程度、商業(yè)用途、對過去用戶的統(tǒng)計(jì)影響、算法決策重做的條件等方面進(jìn)行易于理解的闡釋。(90)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,258-261(2017).
以“易讀性解釋”作為算法事前解釋的標(biāo)準(zhǔn),能夠較好契合我國目前的算法治理現(xiàn)狀。我國的實(shí)踐中,出現(xiàn)過僅注重可讀性解釋的情況,也出現(xiàn)過僅注重透明性解釋的情況,二者的效果均不夠理想。前者如美團(tuán)APP曾于“Meituan”公眾號公布的算法圖示。其通過邏輯圖、簡明事例、配送模擬圖等方式直觀地解釋了外賣配送“訂單分配”和“騎手評分”的算法,(91)參見《讓更多聲音參與改變,美團(tuán)外賣“訂單分配”算法公開》,載微信公眾號“美團(tuán)Meituan”,2021年11月5日;《讓更多聲音參與改變,美團(tuán)改進(jìn)騎手服務(wù)評價(jià)規(guī)則》,載微信公眾號“美團(tuán)Meituan”,2022年3月3日。卻未涉及對算法所使用的信息、決策模型等透明性方面的描述。后者如國家互聯(lián)網(wǎng)信息辦公室官網(wǎng)曾于2022年8月公布的算法備案。其披露了天貓、淘寶等24款知名APP的個(gè)性化推薦算法的基本原理和運(yùn)行機(jī)制,(92)參見 《國家互聯(lián)網(wǎng)辦公室關(guān)于發(fā)布互聯(lián)網(wǎng)信息服務(wù)算法備案信息的公告》,原文鏈接:http://www.cac.gov.cn/2022-08/12/c_1661927474338504.htm#,2023年5月30日訪問。但尚未達(dá)到使公眾易于理解的程度。而從我國針對自動(dòng)化決策的立法趨勢來看,“易讀性解釋”的標(biāo)準(zhǔn)正在被確立。一方面,我國近來頒布的規(guī)章條例開始重視算法模型在設(shè)計(jì)上的可解釋性,確保其在建立之初便是“既理解又透明”。譬如,《算法推薦管理規(guī)定》第12條規(guī)定,“鼓勵(lì)算法推薦服務(wù)提供者……優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”;《征信業(yè)務(wù)管理辦法》第29條第1款規(guī)定,“征信機(jī)構(gòu)提供畫像、評分、評級等信用評價(jià)類產(chǎn)品和服務(wù)的,應(yīng)當(dāng)建立評價(jià)標(biāo)準(zhǔn)”,第2款規(guī)定,“征信機(jī)構(gòu)……應(yīng)當(dāng)履行必要的內(nèi)部測試和評估驗(yàn)證程序,使評價(jià)規(guī)則可解釋、信息來源可追溯”。以上規(guī)定實(shí)際上強(qiáng)調(diào)自動(dòng)化決策系統(tǒng)在算法數(shù)據(jù)來源、系統(tǒng)功能、特征權(quán)重和預(yù)設(shè)結(jié)果等方面的“易讀性解釋”設(shè)計(jì)。另一方面,在算法的具體實(shí)施上,我國也開始明確算法告知須達(dá)到“易讀性解釋”標(biāo)準(zhǔn)。2023年5月23日發(fā)布的《信息安全技術(shù)個(gè)人信息處理中告知和同意的實(shí)施指南》(GB/T 42574—2023)第7.3條即規(guī)定,信息處理者在告知時(shí)須考慮友好展示、媒體適配等要素,要通過友好、生動(dòng)、形象的方式告知信息的處理規(guī)則和對個(gè)人權(quán)益的影響;第8.3.3條亦強(qiáng)調(diào),“告知內(nèi)容的展示需以個(gè)人視角的用戶體驗(yàn)和權(quán)益保障為出發(fā)點(diǎn),以清晰易懂、內(nèi)容簡潔、主次分明為目標(biāo)設(shè)計(jì)展示方案”?!吨改稀返囊陨弦?guī)定同樣旨在使算法告知變得“既理解又透明”。
肯定“易讀性解釋”為算法事前解釋的標(biāo)準(zhǔn),亦不會(huì)與算法事后解釋以及商業(yè)秘密保護(hù)相沖突。當(dāng)信息處理者不履行《個(gè)人信息保護(hù)法》第24條第3款的算法事前解釋義務(wù),導(dǎo)致信息主體須通過《個(gè)人信息保護(hù)法》第44條、第48條和第50條行使算法事后解釋的權(quán)利時(shí),該事后解釋可基于上述“易讀性解釋”的二次解釋落實(shí)。二次解釋本質(zhì)上是結(jié)合具體場景和用戶合理訴求對“易讀性解釋”展開的個(gè)性化解讀,其并不會(huì)使信息處理者承擔(dān)過重的解釋義務(wù)。(93)參見蘇宇:《優(yōu)化算法可解釋性及透明義務(wù)之詮釋與展開》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2022年第1期。并且,“易讀性解釋”屬于在法律允許的告知范圍內(nèi)展開的解釋,也不涉及算法核心技術(shù)的披露,因此無論是事前解釋還是事后解釋均不存在與商業(yè)秘密保護(hù)相沖突的情形。(94)參見劉琳:《算法解釋權(quán)與商業(yè)秘密保護(hù)的沖突化解》,載《行政法學(xué)研究》2023年第2期。
“算法解釋權(quán)”是一個(gè)舶來自歐盟理論研究中的概念,其并不能在《通用數(shù)據(jù)保護(hù)條例》中得到驗(yàn)證。實(shí)際上,《通用數(shù)據(jù)保護(hù)條例》中所存在的是由第13—15條、第22條和序言第71條組合而成的算法解釋義務(wù)體系。在我國民法研究中,不應(yīng)照搬“算法解釋權(quán)”的概念,從而徑直以權(quán)利構(gòu)建的思維討論算法解釋的體系定位。正如比較法學(xué)家茨威格所言:“在外國形成并且經(jīng)過考驗(yàn)的解決辦法——不管怎樣,沒有經(jīng)過修改——是不能夠在我們的法律上轉(zhuǎn)抄的。”(95)〔德〕茨威格特、克茨:《比較法總論》,潘典漢、米健、高鴻鈞、賀衛(wèi)方譯,中國法制出版社2017年版,第30頁。經(jīng)受住考驗(yàn)的域外經(jīng)驗(yàn)尚不得直接轉(zhuǎn)抄,遑論充滿爭議且僅存于域外學(xué)術(shù)研究中的“算法解釋權(quán)”概念。
探究算法解釋的民法體系定位,應(yīng)結(jié)合《個(gè)人信息保護(hù)法》對個(gè)人信息權(quán)益的特殊保護(hù)方法,從行為規(guī)范的角度進(jìn)行考量?!秱€(gè)人信息保護(hù)法》第24條第3款本質(zhì)上為信息處理者的事前算法解釋義務(wù),結(jié)合民法中的“絕對義務(wù)”理論,其能聯(lián)動(dòng)《個(gè)人信息保護(hù)法》第44條、第48條和第50條形成覆蓋“事前—事后”維度的算法解釋規(guī)則體系。如此既能填補(bǔ)我國《個(gè)人信息保護(hù)法》中算法事前告知義務(wù)闕如的法律漏洞,也能明晰自動(dòng)化決策侵害案件中侵權(quán)責(zé)任的構(gòu)成。
在未來的研究中,更應(yīng)結(jié)合《個(gè)人信息保護(hù)法》第55條的個(gè)人信息保護(hù)影響評估制度,探討公私二元監(jiān)管下算法解釋的實(shí)現(xiàn),如此方能充分實(shí)現(xiàn)算法使用的透明化、規(guī)范化,將“算法黑箱”關(guān)進(jìn)“制度的籠子里”。