張恩典
隨著機器學(xué)習(xí)算法技術(shù)的迭代發(fā)展,算法技術(shù)已經(jīng)深度介入過去完全由人類掌控和完成的諸種公私事務(wù)之中。在算法技術(shù)浪潮席卷之下,人類已然置身于由底層算法技術(shù)精心構(gòu)筑的數(shù)字生活世界之中。在這一社會形態(tài)之下,算法技術(shù)“將與市場和國家一起決定我們獲得重要社會物品的途徑”[1]。這意味著,算法將超越傳統(tǒng)的技術(shù)范疇,成為法律制度之外一種重要的分配正義機制,由此也引發(fā)社會公眾對算法透明度問題的強烈擔(dān)憂。為回應(yīng)社會公眾的擔(dān)憂,國家互聯(lián)網(wǎng)信息辦公室等四部門于2022年1月出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(簡稱《算法推薦管理規(guī)定》),其中第4條、第12條、第16條和第17條對互聯(lián)網(wǎng)推薦服務(wù)者的算法透明義務(wù)作出規(guī)定,這是我國算法透明制度的探索性實踐,在實現(xiàn)互聯(lián)網(wǎng)信息服務(wù)算法透明方面發(fā)揮重要作用。
算法透明度并非一個純粹的技術(shù)問題,而是一項技術(shù)、管理和法律相互交織的重要社會議題。當(dāng)前,實現(xiàn)何種程度的算法透明以及如何實現(xiàn)算法透明成為包括法律學(xué)者在內(nèi)的眾多學(xué)科研究者和實務(wù)工作者關(guān)注的重大理論和實踐命題??傮w上,目前的研究主要從算法透明度的概念屬性、學(xué)理爭議、功能定位、實現(xiàn)機制等方面展開:在概念屬性的研究方面,有學(xué)者闡釋了算法透明度的概念,并揭示其與算法解釋之間的區(qū)別與關(guān)系,認為算法可解釋性是算法模型的客觀屬性,算法透明度則是算法運行結(jié)果與主觀預(yù)期的關(guān)系[2];在學(xué)理爭議方面,有學(xué)者對算法透明度原則進行了批判性研究,認為算法透明度原則是一種事前規(guī)制方式,具有先天缺陷,既不可行,亦無必要[3];在功能定位研究方面,有學(xué)者認為算法透明是實現(xiàn)算法問責(zé)的重要機制,并具有多重維度[4];還有學(xué)者認為算法透明雖可以實現(xiàn)算法治理,但其作用不宜過分夸大[5];在實現(xiàn)機制研究方面,有學(xué)者對實現(xiàn)算法透明的算法解釋權(quán)[6]、算法影響評估[7]和算法審計[8]等具體機制展開研究。
客觀而言,既有研究對于完善我國算法透明制度、促進算法問責(zé)無疑具有重要意義。然而,上述研究亦存在理論建構(gòu)不足和實踐指引不足的雙重缺失。一方面,目前的研究更多聚焦于制度層面,試圖通過對個別化算法透明制度的研究來建構(gòu)算法透明制度,并為算法透明度實踐提供指引。這對于建立健全我國算法透明制度頗有助益。然而,目前這種碎片化的研究,對繁復(fù)細微的算法透明制度實踐背后潛藏的理論意蘊缺乏深入的挖掘,容易迷失在微觀制度研究中,忽視了制度背后的理論意蘊。另一方面,算法透明度實踐離不開豐富的算法透明“工具箱”,但更端賴于實踐中的合理運用,以實現(xiàn)算法透明合規(guī)。然而,目前的研究對于如何合理設(shè)計、組合各種算法透明制度機制缺乏足夠關(guān)注,導(dǎo)致算法透明度實踐進退失據(jù),甚至滋長了全盤否定算法透明度價值的錯誤認知。鑒于此,本文在闡釋和重申算法透明度的固有價值和工具性價值基礎(chǔ)上,將算法透明制度實踐置于透明度理論脈絡(luò)中加以審視,對算法透明制度實踐加以細致考察并予以理論凝練和檢視反思,進而倡導(dǎo)邁向基于關(guān)系的算法透明度理論,并以該理論為指引探索算法透明度機制的具體建構(gòu)方案。
算法透明度在算法治理制度體系中占據(jù)重要地位,這得益于其所蘊含的多維價值。從類型學(xué)上,可以將價值分為固有價值與工具性價值。該分類有助于更加全面地理解算法透明度所潛藏的價值意蘊。鑒于目前的算法治理實踐中存在著僅將算法透明度定位為一種工具性價值,甚至全然否認算法透明度價值的錯誤傾向,本文從固有價值與工具性價值維度來解讀算法透明度的價值譜系,以重申算法透明度在算法治理中的功能。
固有價值通常被認為是“某種特殊道德類型的非派生性價值”[9],據(jù)此,算法透明度的固有價值意指算法透明本身內(nèi)在所蘊藏的價值,其并不是派生的?!耙坏┓艞壛送该鬟^程,內(nèi)生價值將隨之一并消散,保障人的自由和尊嚴的功能也將大大減弱,所以內(nèi)生價值因其固有性和直接性而不可替代”[10]。算法透明度的內(nèi)在價值可以從人的尊嚴自主和算法正義兩方面來理解。從人的尊嚴維度上,算法透明度作為一種內(nèi)在價值,彰顯了算法時代背景下對人的尊嚴和個人自主的捍衛(wèi)?!八惴Q策剝奪了受影響者個體‘表達意見’和反駁決策的權(quán)利,人作為道德主體(即有自己觀點且能夠理性行事),理應(yīng)受到相應(yīng)認可和對待,且有權(quán)享有尊嚴和尊重,這是生而為人的基本權(quán)利,而算法決策從根本上破壞了這種權(quán)利”[11]。算法透明度是促進個人人格發(fā)展、實現(xiàn)理性自主的重要保障,面對缺乏基本透明度的算法決策,個人極有可能在隱秘算法的操縱下喪失其自主選擇的能力,也將失去捍衛(wèi)個人尊嚴的力量,并終將淪為數(shù)字時代的弱者和流眾,甚至淪為“赤裸生命”[12]。透過算法透明度,個人得以洞悉算法決策背后的運行邏輯,進而在一定程度上祛除機器學(xué)習(xí)算法對人的主體性的遮蔽,增強個人的自主選擇能力。
從算法正義維度上,算法透明度是算法正義的內(nèi)在要求。有學(xué)者揭示了算法正義與現(xiàn)代法治的關(guān)系,認為“算法正義要求算法實踐在法治之下秉持平等、尊嚴與自由價值”[13]。馬長山在論及算法治理的正義原則時便將公平透明原則作為三大算法正義原則之一[14]。算法透明度反映出算法社會中人類普遍且質(zhì)樸的正義觀念,構(gòu)成了算法正義的重要面相,體現(xiàn)出算法時代人類對于正義的不懈追求。美國計算機協(xié)會下屬美國公共政策委員會于2017年發(fā)布《算法透明度和問責(zé)制聲明》,其中確立了算法透明度和問責(zé)制的七大原則[15]。國家網(wǎng)信辦等四部門出臺的《算法推薦管理規(guī)定》第4條明確規(guī)定,提供算法推薦服務(wù)應(yīng)當(dāng)遵循公開透明度原則??梢?算法透明度原則已經(jīng)成為算法治理實踐的基本原則和價值追求,這意味著,算法透明度是算法正義的題中之義,并非只具有工具性價值,其本身是算法治理的目的,而非僅僅只作為算法治理的工具或手段。
工具性價值意指一種非內(nèi)在的派生價值,意謂某事物的價值并非源于其本身而取決于其外在目的之實現(xiàn)。算法透明度的工具性價值強調(diào)算法透明是實現(xiàn)特定價值的工具和手段。
首先,適當(dāng)?shù)乃惴ㄍ该鞫扔兄跍p少算法錯誤和歧視。算法決策實踐表明,機器學(xué)習(xí)算法并非像其開發(fā)者和應(yīng)用者所宣稱的那般客觀中立,而是充斥著錯誤和歧視,并掩蓋在算法黑箱之中,難以為外界所察覺。算法開發(fā)者既可以借由對訓(xùn)練數(shù)據(jù)和算法模型參數(shù)權(quán)重的設(shè)計來對受保護群體進行直接歧視,也可以因為對歷史數(shù)據(jù)的揀選而延續(xù)固化業(yè)已存在的結(jié)構(gòu)性間接歧視[16]。透明度意味著一種持續(xù)的觀察和監(jiān)控[17],適當(dāng)?shù)乃惴ㄍ该鳈C制則猶如一幅透視算法黑箱的透鏡,透過它人們得以對機器學(xué)習(xí)算法進行持續(xù)的觀察、檢查和監(jiān)控,以發(fā)現(xiàn)潛藏在算法黑箱中的錯誤和偏見,進而采取有效措施去減少機器學(xué)習(xí)算法的錯誤和歧視。
其次,適當(dāng)?shù)乃惴ㄍ该鞫扔兄趶娀惴Q策的問責(zé)制。問責(zé)制是現(xiàn)代公共行政的重要價值追求,其可以從兩個維度來加以理解:一是對決策過程和結(jié)果的解釋說明,二是對決策后果的歸責(zé)。然而,在算法決策場景中,機器學(xué)習(xí)算法模型的復(fù)雜性和算法決策的自動性特征卻不同程度地導(dǎo)致問責(zé)制困境。一方面,算法決策面臨解釋難題。機器學(xué)習(xí)算法模型具有高度的復(fù)雜性,加之算法開發(fā)者以商業(yè)秘密為由拒絕披露算法,使得技術(shù)專家難以對機器學(xué)習(xí)算法輸出的決策結(jié)果作出準確的解釋,更別說對算法技術(shù)知之甚少的普通民眾。而在這種由機器學(xué)習(xí)算法模型編造的卡夫卡環(huán)境中,由于人們不了解某個決定的形成過程,就難以提出有力的反對理由。例如,在平臺經(jīng)濟中,“人力投入其實對數(shù)字平臺的運作必不可少,但是就連知識淵博的用戶可能都會以為算法決策是‘中立的’,并且因為平臺運營的不透明和復(fù)雜性,用戶并不敢質(zhì)疑平臺的操作行為和過程”[18]。另一方面,算法決策的復(fù)雜性和自動化特征引發(fā)事后歸責(zé)的難題。算法決策的復(fù)雜性和自動性導(dǎo)致人們在將決策后果歸責(zé)于某個特定主體的過程中面臨歸責(zé)的難題。這一難題根源于人類對機器學(xué)習(xí)算法決策過程的參與程度和控制力的弱化,而科技巨頭主導(dǎo)算法自動化系統(tǒng)的開發(fā)和部署則進一步加劇了算法問責(zé)困境。適恰的算法透明度能夠增強算法決策的問責(zé)制,一方面,通過事前披露算法模型的運行機理和有關(guān)權(quán)重參數(shù)等信息,有助于增強外界對算法模型內(nèi)部運行過程的了解;另一方面,通過為那些受特定算法決策影響的個體提供事后的個別化解釋說明,能夠增強個人對其個人權(quán)益產(chǎn)生深刻影響的算法決策的理解,為其挑戰(zhàn)那些算法決策結(jié)果提供可能性;再則,算法透明度對機器學(xué)習(xí)算法模型的開發(fā)和運行建立起事前、事中和事后的動態(tài)、周期性的評估和審計機制,能夠進一步增強對算法運行過程和結(jié)果的控制。換言之,算法透明機制實則是在這些具有高度復(fù)雜性和自動性的機器學(xué)習(xí)算法決策上建立一套制度化的自我監(jiān)控和外部監(jiān)督機制,進而有助于強化算法決策問責(zé)。
再次,適當(dāng)?shù)乃惴ㄍ该鞫扔兄谠鰪娒癖妼λ惴Q策的信任。在現(xiàn)代社會,信息透明被認為是信任大廈得以牢固建立的基礎(chǔ)。在算法社會背景下,算法信任是構(gòu)成算法社會發(fā)展的基石和關(guān)鍵性媒介。與此同時,“算法厭惡”情緒悄然擴散開來。究其原因,固然有算法系統(tǒng)錯誤、歧視以及算法決策帶來的控制力弱化等因素,但算法模型缺乏基本透明度是引發(fā)算法厭惡的重要原因[19]。合理的算法透明機制為利益相關(guān)者提供了可訪問、可解釋、可評估的算法理解路徑,透過可信算法的開發(fā)和部署,重建算法信任[20]。
綜上所述,算法透明度既蘊含著豐富的固有價值,其本身便是算法治理的重要目標,并具有重要的工具性價值,而算法透明度價值的實現(xiàn),端賴于合理的算法透明制度設(shè)計。
目前的算法透明度實踐所采行的是一種基于信息的算法透明度模式。該模式將算法透明度實踐視為一個信息披露和信息解釋的過程,試圖通過充分的信息披露來打開算法黑箱,以達致提高算法透明度之目的。
1.理論淵源:透明度即信息(transparency as information)
誠如韓炳哲所言:“當(dāng)代公共話語中沒有哪個詞比透明更高高在上,地位超然。人們對它孜孜以求,這首先與信息自由息息相關(guān)。對‘透明’無所不在的需求愈演愈烈,甚至讓它登上神壇,一統(tǒng)天下。”[21]在透明度的諸多理論中,透明度即信息理論占據(jù)主導(dǎo)地位[22]。該理論認為,導(dǎo)致不透明的原因在于信息供給不足以及信息不對稱,而實現(xiàn)透明則需要通過信息披露以彌合主體間的信息鴻溝?;谛畔⒌耐该鞫饶軌?qū)崿F(xiàn)可見性,提供“清晰”的“洞察力”,以便我們“看穿”組織或政府機構(gòu)[23]。據(jù)此,實現(xiàn)透明的過程被視作一個持續(xù)的公開和披露信息的過程。
透明度即信息理論對政府規(guī)制實踐產(chǎn)生了深遠影響。根據(jù)這一理論,政府對市場施加規(guī)制的原因在于,產(chǎn)品經(jīng)營者與消費者之間存在著信息不對稱,而對產(chǎn)品經(jīng)營者苛以披露義務(wù),要求其向消費者披露信息,以克服信息不對稱造成的市場失靈[24]。在政府治理中,政府透明度亦被視為是消解作為委托人的國民與作為代理人的政府之間存在的信息不對稱的基本方式,“陽光是最好的防腐劑”是該理論的鮮明佐證。
受透明度即信息理論學(xué)說之影響,基于信息的算法透明度理論也被廣泛接受。這一理論認為,算法透明的本質(zhì)即在于通過信息的主動公開和披露來消解橫亙于普通民眾與算法模型開發(fā)者之間的“信息鴻溝”,使得普通民眾得以打開算法黑箱,觀察和洞悉黑箱的運行?!坝^察產(chǎn)生洞察力,從而產(chǎn)生治理和讓系統(tǒng)負責(zé)的知識。觀察則被認為是一種倫理行為,觀察者接觸更多關(guān)于系統(tǒng)的信息,就能夠更好地判斷一個系統(tǒng)是否按照預(yù)期運行,亦即需要作出哪些改變”[25]。基于信息的算法透明度理論倡導(dǎo)者堅信,算法透明實則是一個信息公開和流動的過程,借由算法模型和算法決策過程的最大限度公開以及算法決策的解釋,能夠獲得算法治理和問責(zé)所需的信息和知識。
2.制度設(shè)計:算法公開與算法解釋的雙重構(gòu)造
基于信息的算法透明度理論對算法透明具體制度實踐產(chǎn)生了深刻影響,并衍生出算法公開和算法解釋兩大頗具代表性的算法透明制度。所謂算法公開,即向外界披露算法代碼、算法模型的架構(gòu)和運行原理。算法公開“假定算法是一個黑箱,只要打開這個黑箱,算法就會暴露在陽光下,為人們所知曉”[26]。算法解釋則是算法開發(fā)者和應(yīng)用者向受算法決策影響的主體解釋算法決策運行的邏輯。
歐盟《一般數(shù)據(jù)保護條例》第5條第1(a)款規(guī)定:“個人數(shù)據(jù)應(yīng)以合法、公正、透明的方式處理”。該條確立個人數(shù)據(jù)處理的透明度原則。在此基礎(chǔ)上,《一般數(shù)據(jù)保護條例》序言第39條、第58條規(guī)定個人數(shù)據(jù)處理應(yīng)當(dāng)符合透明度原則,透明度原則要求“任何向公眾或數(shù)據(jù)主體發(fā)布的信息是簡潔、容易獲取和易于理解的,要求使用清晰樸實的語言并采用可視化的方法”。就透明類型而言,這是典型的事前透明。此外,《一般數(shù)據(jù)保護條例》還確立了事后透明機制?!兑话銛?shù)據(jù)保護條例》序言第71條規(guī)定,數(shù)據(jù)主體有權(quán)獲得人為干預(yù)的權(quán)利,以表達數(shù)據(jù)主體的觀點,在評估后獲得決定解釋權(quán)并質(zhì)疑該決定。同時,《一般數(shù)據(jù)保護條例》第13條第2(f)款規(guī)定:“控制者在獲取個人數(shù)據(jù)時,為確保處理過程的公正和透明之必要,應(yīng)當(dāng)向數(shù)據(jù)主體提供‘包括數(shù)據(jù)畫像及有關(guān)邏輯程序和有意義的信息’?!币陨蠗l款被學(xué)者認為是確立了算法解釋權(quán)制度[27][28]。
在算法透明制度規(guī)定方面,我國深受該理論模式的影響。具體而言,《個人信息保護法》第7條規(guī)定:“處理個人信息應(yīng)當(dāng)遵循公開、透明原則,公開個人信息處理規(guī)則,明示處理的目的、方式和范圍”,該條規(guī)定將公開透明確立為包括算法自動化決策等在內(nèi)的個人信息處理活動的基本原則。同時,該法第24條規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇?!币?guī)定“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明”。這實則確立了“中國版”的算法解釋權(quán)制度。在此基礎(chǔ)上,《算法推薦管理規(guī)定》則針對推薦算法的公開和算法解釋作出了更為細致的規(guī)定。其中,第12條規(guī)定:“鼓勵算法推薦服務(wù)提供者優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性?!钡?6條規(guī)定:“算法推薦服務(wù)提供者應(yīng)當(dāng)以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等?!睆耐该黝愋蜕嫌^之,上述兩條規(guī)定實則規(guī)定了一種事前的算法公開制度。而《算法推薦管理規(guī)定》第17條第3款規(guī)定:“算法推薦服務(wù)提供者應(yīng)用算法對用戶權(quán)益造成重大影響的,應(yīng)當(dāng)依法予以說明并承擔(dān)相應(yīng)責(zé)任?!痹摋l規(guī)定實則是一種事后的針對特定決策的算法解釋權(quán)。可見,事前的算法公開和事后的算法解釋共同構(gòu)筑起事前和事后算法透明制度。
上述規(guī)定類似于美國學(xué)者卡里·科格里安塞等所言的“魚缸型透明”與“析理型透明”[29]。前者通過事前主動公開披露算法的原理和運行機制,乃至算法模型、代碼來實現(xiàn)充分的透明,旨在解決“是什么”的問題;后者則借由針對特定決策進行解釋說明來實現(xiàn)算法決策的透明,旨在解決“為什么”的問題。兩者旨在通過算法原理的公開或算法決策的解釋說明,盡可能地為用戶提供關(guān)于算法模型和算法決策的信息,幫助用戶洞悉算法決策的形成過程和邏輯。
客觀而言,基于信息的透明度模式在促進算法透明方面發(fā)揮著重要作用,并深刻影響著歐盟和我國的算法透明度制度實踐,同時該模式仍存在以下缺陷。
1.忽視了算法決策的復(fù)雜性和動態(tài)性特征
算法決策呈現(xiàn)出高度復(fù)雜性和動態(tài)性。一方面,算法決策具有高度復(fù)雜性。這一復(fù)雜性多源于算法決策背后的復(fù)雜算法模型、海量數(shù)據(jù)及繁復(fù)的應(yīng)用場景。另一方面,算法決策呈現(xiàn)出高度動態(tài)性[30]。算法決策具有高度的動態(tài)性潛能,能夠從可用的新數(shù)據(jù)中不斷學(xué)習(xí),故算法系統(tǒng)處于持續(xù)變動中,僅具暫時穩(wěn)定性[31]。然而,基于信息的透明度理論將透明度看成一個靜態(tài)的信息披露行為,認為信息早已存在,并能夠為人們所使用,相關(guān)組織和機構(gòu)所需要做的是盡可能地向人們披露。由此可見,該理論更多地將信息視作一個價值無涉的中性事實,聚焦于信息的可獲取性,對于信息披露背后所涉及的選擇機制、過程和政治等因素則不甚關(guān)心[32]。在這種透明度觀念支配之下,該模式將算法透明度簡單視為靜態(tài)的算法模型披露或者算法決策結(jié)果解釋的行為,而忽視了算法決策背后所涉及的機器學(xué)習(xí)等算法技術(shù)的復(fù)雜性、動態(tài)性特征以及應(yīng)用場景的繁復(fù)性,導(dǎo)致算法透明度實踐缺乏足夠的回應(yīng)性。
2.難以回應(yīng)利益相關(guān)者的多元化透明需求
算法透明度的要求因信息接受者的不同而呈現(xiàn)多樣化。算法決策背后涉及算法系統(tǒng)的開發(fā)者、采購應(yīng)用者、用戶、普通公眾、第三方技術(shù)專家和監(jiān)管者等眾多主體,他們對于算法透明度有著差異化需求。對于公眾而言,算法透明度以算法的一般性功能為主,對于受決策直接影響的個體而言,其中關(guān)于個人決策的特定信息將是其主要關(guān)注點。該模式強調(diào)最大限度地向社會或用戶披露算法原理乃至代碼,或解釋特定的算法決策,主要聚焦于普通公眾和用戶的透明度需求,對其他利益相關(guān)者的算法透明度需求則缺乏足夠關(guān)切。
客觀而言,基于信息的算法透明度模式對于算法透明的理解是偏頗的。誠如學(xué)者所言:“透明度常常與僅僅披露信息相混淆。我們認為,兩者之間的一個重要區(qū)別在于,透明度實踐具有需求側(cè)的層面,需要充分考慮相對方對于算法透明度的現(xiàn)實需求。這意味著傳遞的信息不僅要可觀察到,而且要與接收方相關(guān)、值得信任、足夠精確,歸根結(jié)底傳遞信息對接收方具有價值”[24]。在具體實踐中,該模式往往將算法透明度看作一個“全有或全無”的狀態(tài)。其實,算法透明度具有多重維度,其更多是一個程度的問題,應(yīng)當(dāng)被視為一個面向不同利益相關(guān)者的關(guān)系性過程,而不能簡單地將算法透明度視作信息的披露或傳遞,而應(yīng)基于利益相關(guān)者的差異化透明度需求,有針對性地開展算法透明度實踐。福斯托·朱奇利亞主張多樣化的算法透明度實踐,提出了五個層次的算法透明度機制,依次分別為用戶感知、觀察者審計、開發(fā)者披露、用戶/開發(fā)者映射及完全透明[33]。當(dāng)前我國算法透明度實踐多聚焦于用戶和普通公眾層面,未充分考慮其他利益相關(guān)者的透明度需求,在算法透明度需求的回應(yīng)性方面亟待提升。
3.忽視個體對算法決策的理解能力
基于信息的算法透明度模式而認識到橫亙于算法開發(fā)者與個體間的巨大鴻溝,并試圖透過盡力地對外披露算法模型原理,解釋算法決策,以達到彌合鴻溝之目標。該模式將實現(xiàn)算法“完全透明”作為其理想追求。然而,所謂的完全透明既不可能,也不可欲?!八惴ㄍ耆该?披露所有信息)在技術(shù)上輕而易舉,但在政治上和實踐上卻不可行,而且可能毫無裨益”[34],而且,該制度實踐預(yù)設(shè)的前提是只要盡可能地披露算法信息,便能使其理解算法模型和算法決策[35]。然而,該觀點忽視了普通用戶對機器學(xué)習(xí)算法的理解力,并有可能加劇普通民眾的責(zé)任。由于基于信息的算法透明度模式預(yù)設(shè)了在算法決策中個人是高度理性的,并相信將信息披露給個體,其便能夠作出知情決策。這實則是通過算法透明的方式賦予個體更多的算法治理責(zé)任,并為算法開發(fā)者以已“公開算法”“披露算法信息”為由推諉責(zé)任提供了便利。學(xué)者卡爾波卡斯便對那種片面追求完全透明的做法提出了質(zhì)疑,他認為,“如果更高的透明度僅僅是將責(zé)任轉(zhuǎn)移到在權(quán)力、時間和知識方面的資源已經(jīng)有限且無法進一步延伸的個人身上時,那么純粹的透明度可能會讓事情變得更糟,而不是更好”[36]。
算法透明度與信息披露強度有較大關(guān)聯(lián),但并不意味著信息披露越多透明效果便越佳。從主體角度觀之,基于信息的算法透明度模式認為,個體的特定認知和實踐技能的運用僅源于個人自由意志,是內(nèi)在于個人的一種能力。實際上,個體的認知和實踐技能是在主體交往中逐漸習(xí)得和運用的,個體對于信息的理解具有高度的情境主義特征,并受到個人“前見”的深刻影響,呈現(xiàn)出高度差異化。從客體角度觀之,由于機器學(xué)習(xí)算法技術(shù)本身具有高度的復(fù)雜性,普通公眾和用戶囿于自身理解能力,即使算法開發(fā)者將代碼向外界完全披露,也難以真正為普通公眾和用戶所理解,反而可能陷入“信息冗余”狀態(tài)中,偏離算法透明目標。
客觀而言,該模式在理論預(yù)設(shè)上將透明度實踐簡化為靜止的算法信息披露,在理論預(yù)設(shè)上存在偏狹之處,而以此理論為指導(dǎo)的算法透明制度實踐忽視了算法決策的動態(tài)性和復(fù)雜性、利益相關(guān)者的透明度需求多元化,以及個體對于算法模型和決策信息披露的理解力的局限性,導(dǎo)致有效性和回應(yīng)性不足,并給人一種“無意義透明”的觀感。
鑒于傳統(tǒng)算法透明度實踐所面臨的困境,有必要對其加以理論更新,倡導(dǎo)算法透明度的“關(guān)系”轉(zhuǎn)向,即由傳統(tǒng)靜態(tài)的基于信息的算法透明度模式邁向動態(tài)的基于關(guān)系的算法透明度模式,以提高其解釋力和指導(dǎo)價值。
1.將算法透明度定位為“關(guān)系”概念
不同于傳統(tǒng)理論將透明度簡化為純粹的信息傳遞,基于關(guān)系的透明度理論更多地從關(guān)系維度來理解透明。該理論認為,那種將透明度簡化為單純信息披露的化約主義觀點是片面的,主張將透明度看作是指稱“關(guān)系”的概念,并將其置于具體的社會、文化情境中加以理解,更多關(guān)注信息披露背后的社會、價值因素[22]。誠如學(xué)者所言:“如果僅僅將透明度理解為信息從一個主體向另一個主體的傳遞,而不注意與這種傳遞相關(guān)的意義、價值和社會功能,就不能理解透明度的意義?!盵28]基于關(guān)系的算法透明度模式的倡導(dǎo)者批判那種將透明度簡單視為信息披露和傳遞的觀點,轉(zhuǎn)而強調(diào)算法透明度實踐應(yīng)充分考慮算法決策所涉及的復(fù)雜的技術(shù)條件、組織結(jié)構(gòu)和具體應(yīng)用場景等諸多影響因素,而不再以簡單的系統(tǒng)“透明”和“不透明”的二分法去理解和界分算法透明度[30]。該模式讓我們將目光更多投向那些被傳統(tǒng)模式所遮蔽和忽略的、蘊含于算法透明度實踐的社會性面向,將算法透明度實踐視為一個在多元主體間展開的社會實踐活動[22];同時,該模式還引導(dǎo)我們關(guān)注算法治理轉(zhuǎn)型背后潛藏的諸如算法歧視等不公正的社會關(guān)系,并通過多樣化的算法透明機制改變這一關(guān)系。
2.將算法透明度視為動態(tài)交流的互動過程
基于關(guān)系的透明度模式將透明度實踐視為動態(tài)的、雙向的交流過程。誠如學(xué)者所言,透明度是關(guān)系性的,涉及不同行動者之間的信息交換[30],這意味著,透明度并非是個體維度的信息傳遞者公開信息的行為,而是發(fā)生在信息傳遞者與接收者之間的互動交流過程。具體到算法透明度,該理論將算法透明度實踐視為動態(tài)的、多主體之間的信息交流互動過程,算法透明度并不意味著披露的算法模型信息越多越好,而是要重點關(guān)注算法決策中算法采購者、用戶、監(jiān)管者、第三方機構(gòu)等多元主體的透明度需求。尼古拉斯·蘇佐等學(xué)者指出,有意義的算法透明度應(yīng)被理解為是對獨立利益相關(guān)者的問責(zé)溝通過程的組成部分[37]。這顯然是從關(guān)系維度理解算法透明度,將其看作一個多元主體溝通交流的過程。該模式既有效回應(yīng)了算法決策的動態(tài)性特征,也充分詮釋了算法透明度實踐的關(guān)系性特質(zhì)。
3.倡導(dǎo)“透明度設(shè)計”的理念
最佳透明度是與各個體或群體所期望和實現(xiàn)的透明度相匹配的水平[32]。不同于傳統(tǒng)透明度理論的“全有或全無”的獨斷論思維,基于關(guān)系的算法透明度模式強調(diào)算法透明度更多是一個程度的問題,并倡導(dǎo)一種透明度設(shè)計理念?!巴该鞫仍O(shè)計”源于“隱私設(shè)計”理念[38],透明度設(shè)計理念主張根據(jù)算法透明實踐所欲實現(xiàn)之目標、所針對之對象、所面對之情境、所處之具體階段等因素對算法透明度機制加以合理設(shè)計,以滿足不同主體、不同情境算法透明度要求,實現(xiàn)多重維度的算法透明度目標。
基于關(guān)系的算法透明度模式倡導(dǎo)從關(guān)系的視角來理解透明度,讓我們得以重新發(fā)現(xiàn)那些被傳統(tǒng)模式所遮蔽的社會因素,能夠有效彌補傳統(tǒng)模式的缺陷。
1.契合算法決策的復(fù)雜性和動態(tài)性特征
“與其他技術(shù)一樣,算法深嵌于現(xiàn)有的社會、政治和經(jīng)濟環(huán)境之中”[39]。算法決策具有高度的復(fù)雜性和動態(tài)性特征,傳統(tǒng)模式將透明度簡化為信息傳遞和披露,難以適應(yīng)算法決策的上述特征,而基于關(guān)系的算法透明度理論則更好地契合了算法決策場景。一方面,該模式契合了算法決策的復(fù)雜性特征,摒棄了傳統(tǒng)模式的化約主義思維,從關(guān)系視角來理解算法透明度,主張在尊重透明對象之需求的基礎(chǔ)上,充分考慮算法模型信息公開和算法解釋等透明度實踐在技術(shù)上的可能性、限度及其潛在的負面影響。另一方面,該模式契合了算法決策的動態(tài)性特征。算法決策可以分為算法系統(tǒng)開發(fā)設(shè)計、采購部署、運行、結(jié)果輸出等階段;同時,算法決策還會根據(jù)訓(xùn)練數(shù)據(jù)集、算法模型參數(shù)的變化而變化,呈現(xiàn)高度動態(tài)性特征。這意味著,在算法透明度實踐中,那種認為可以一勞永逸地實現(xiàn)算法透明的做法是不可取的,而應(yīng)基于算法決策的多階構(gòu)造,并結(jié)合算法決策場景和利益相關(guān)者的透明度需求持續(xù)性地履行透明度義務(wù)。該模式從動態(tài)關(guān)系的角度來理解算法透明實踐,充分認識算法透明度的復(fù)雜動態(tài)性特征,并主張根據(jù)算法決策階段有針對性地設(shè)計算法透明度,更契合算法決策的動態(tài)性特征[31]。??恕し茽柶澛葘W(xué)者基于機器學(xué)習(xí)算法決策的多階性特征,總結(jié)出算法系統(tǒng)設(shè)計、數(shù)據(jù)處理和分析應(yīng)遵守的透明度九大原則,頗具啟發(fā)意義[32]。
2.有效回應(yīng)利益相關(guān)者多元化的算法透明度需求
誠如學(xué)者所言:“人工智能系統(tǒng)的開發(fā)人員需要公正地對待透明交流的關(guān)系性質(zhì)。因此,責(zé)任不僅在于提供信息,還在于考慮可能接收和解釋信息的受眾”[32]。在機器學(xué)習(xí)算法決策中,眾多利益相關(guān)者在透明度方面具有多元化需求。作為一項社會實踐活動,算法透明度實踐不能脫離算法決策利益相關(guān)方的多元需求。算法透明度只能通過關(guān)鍵的利益相關(guān)方才有可能實現(xiàn)[39]?;陉P(guān)系的透明度模式從關(guān)系視角來理解透明度實踐,強調(diào)將其視為一個社會實踐過程,并主張算法透明度實踐的“需求”驅(qū)動。該模式面向包括算法采購者、用戶、監(jiān)管者/第三方機構(gòu)等眾多利益相關(guān)者,充分尊重和考慮各利益相關(guān)者在算法透明度方面的差異化需求,精心設(shè)計靈活而有針對性的算法透明度實現(xiàn)機制,才能夠有效回應(yīng)利益相關(guān)者的多元化透明度需求,從而使算法透明度更具實踐合理性。
3.充分考慮個體的算法決策認知局限性
傳統(tǒng)透明度模式的悖論在于,其旨在借由算法信息披露或算法解釋來提升公眾對于算法決策的理解,并捍衛(wèi)算法決策中的個人自主性,然而,無論是算法信息披露還是算法解釋,都在很大程度上依賴于普通公眾對算法決策的理解能力。信息披露方式總是受到各種社會因素和關(guān)系假設(shè)的制約,這些假設(shè)涉及對個體在技能方面的正當(dāng)期待。同時,信息披露以技能和能力為前提,在大多數(shù)情況下這些技能和能力只能在社會實踐和交往中習(xí)得和鍛煉[22]。不同于傳統(tǒng)模式從理性主體的角度看待個體,該模式正視個體的認知能力受歷史、社會文化環(huán)境和知識結(jié)構(gòu)等多重因素影響,以及其在算法決策的理解力方面的現(xiàn)實局限性,并主張在算法透明度具體機制設(shè)計中充分考慮普通公眾的認知局限性及其背后的各種社會因素。
基于關(guān)系的算法透明度理論的價值在于,揚棄傳統(tǒng)的透明即信息的線性觀念,將算法透明度作為社會實踐加以理解,從廣泛的文化、社會和經(jīng)濟背景下來看待算法透明度,并揭示出算法透明度的關(guān)系屬性,直面算法透明度實踐中諸如“向誰透明”“為何透明”“如何透明”等亟待解決的問題??傮w上,宜以關(guān)系透明度理論為指引,遵循“透明度設(shè)計”理念,充分考慮算法透明度實踐的對象、目標、內(nèi)容、方式和時機等要素,并對諸要素加以合理組合、構(gòu)造,從算法透明度基礎(chǔ)制度和具體運行機制兩個方面建構(gòu)基于關(guān)系的算法透明制度。一方面,將算法透明度界分為個體透明與系統(tǒng)透明,并健全完善以算法解釋權(quán)為中心和以算法審計為中心的基礎(chǔ)性制度,以實現(xiàn)雙重維度的算法透明;另一方面,立足算法透明度的關(guān)系屬性,從雙階視角來觀察和審視算法透明度實踐,并建構(gòu)具有實踐理性的算法透明度具體運行機制,以增強算法透明制度的回應(yīng)性和有效性。
從類型學(xué)上,基于算法透明的對象、目標和內(nèi)容等因素的差異,可以將算法透明度界分為個體維度的算法透明度與系統(tǒng)維度的算法透明度,亦即個體透明與系統(tǒng)透明[40]。前者旨在實現(xiàn)算法決策對受算法決策影響的個體的透明,其指向的是算法決策之于個體的可解釋性,進而為個體挑戰(zhàn)和質(zhì)疑算法決策、捍衛(wèi)個人的尊嚴和自主提供可能;后者旨在實現(xiàn)算法系統(tǒng)對監(jiān)管機構(gòu)、第三方算法審查機構(gòu)及其技術(shù)專家的透明,其指向的是算法系統(tǒng)對于上述機構(gòu)及其技術(shù)專家的可審查性,以減少算法決策的錯誤和偏見。
1.以算法解釋權(quán)制度為中心,實現(xiàn)個體透明
面向受算法決策影響的個體所實施的個體透明是算法透明度的重要組成部分,而算法解釋權(quán)制度通過向受算法影響的個體披露算法運行原理和提供算法決策的解釋說明,在促進個體透明方面發(fā)揮著關(guān)鍵性作用。我國法律對算法解釋權(quán)作出了相關(guān)規(guī)定,但具體規(guī)則和適用仍有待細化明確。在具體實踐中,圍繞算法解釋的權(quán)利內(nèi)容、具體標準、方法和時機等具體制度規(guī)則,目前仍存在一般主張與限定主張、系統(tǒng)解釋與個案解釋、人工解釋與機器解釋、事前解釋與事后解釋等一系列爭論[41]。
算法解釋權(quán)制度的具體構(gòu)造應(yīng)以彰顯和捍衛(wèi)人的尊嚴為根本宗旨,以促進個體維度的算法透明為制度目標,并結(jié)合算法決策應(yīng)用場景來加以合理設(shè)計和選擇,以充分發(fā)揮算法解釋權(quán)在數(shù)字社會中多元主體間的溝通橋梁功能,維系和重塑算法信任。具體而言,在解釋標準上,宜堅持系統(tǒng)解釋和個案解釋相結(jié)合;在解釋時機上,堅持事前解釋與事后解釋并重。在具體的算法解釋實踐中,以算法模型為中心的系統(tǒng)解釋通常是一種事前解釋,即在算法決策作出之前進行;以特定算法決策為中心的個案解釋則通常是一種事后解釋,即在特定決策做出之后進行。事前的系統(tǒng)解釋主要圍繞系統(tǒng)功能展開解釋,解釋的具體內(nèi)容包括自動決策系統(tǒng)的邏輯、意義、預(yù)期后果和一般功能,如系統(tǒng)的需求規(guī)范、決策樹、預(yù)定義模型、標準和分類結(jié)構(gòu)。事后的個案解釋主要圍繞著特定算法決策展開,具體包括特定自動化決策的基本原理、理由和個體情況,例如,特征的權(quán)重、機器定義的特定案例決策規(guī)則、參考或畫像群體的信息[6]。算法解釋并非一成不變,在具體算法解釋實踐中仍需結(jié)合算法決策應(yīng)用領(lǐng)域、場景、風(fēng)險大小和個體權(quán)益的影響程度等因素有針對性地予以展開。通常而言,在司法裁判、政府公共治理等公共領(lǐng)域中算法決策對個體權(quán)益影響更高,風(fēng)險更大,算法決策者的解釋義務(wù)更重,解釋標準亦更高。
2.以算法審計為中心,實現(xiàn)系統(tǒng)透明
算法透明度還涉及對決策過程的外部審查,例如允許第三方檢查計算機代碼或其執(zhí)行的決策標準,其可以歸類為系統(tǒng)透明[42]。系統(tǒng)透明旨在通過算法系統(tǒng)模型和訓(xùn)練數(shù)據(jù)集向監(jiān)管機構(gòu)和第三方機構(gòu)公開透明,以減少和糾正算法系統(tǒng)的偏見和錯誤。算法審計是促進算法透明的重要工具,在彌合算法透明與算法商業(yè)秘密保護之間的張力、實現(xiàn)算法透明方面發(fā)揮著重要作用[8]。算法審計是指“對軟件產(chǎn)品和過程與適用的規(guī)則、標準、準則、計劃、規(guī)格和程序相符合的獨立評估”[34]。在算法審計制度規(guī)定方面,我國《個人信息保護法》第54條、第64條分別規(guī)定了個人信息處理者的定期合規(guī)審查義務(wù)和個人信息保護強制合規(guī)義務(wù),《算法推薦管理規(guī)定》第7條、第8條和第24條則對算法審計制度作出進一步規(guī)定。然而,當(dāng)前算法審計在制度構(gòu)造和具體實踐操作方面仍處于探索階段。
算法審計制度包括審計主體、審計對象、審計方法和審計報告公開等具體制度要素。從審計主體上,可以界分為內(nèi)部審計和外部審計。其中,內(nèi)部審計是一種由開發(fā)和應(yīng)用算法的企業(yè)和機構(gòu)自行開展的“用以檢查人工智能系統(tǒng)創(chuàng)建和部署所涉及的工程過程是否符合公開的道德期望和標準的機制”[43];外部審計則旨在從算法系統(tǒng)外部識別風(fēng)險,通常在算法研發(fā)部署之后展開。外部審計包括監(jiān)管機構(gòu)審計以及第三方審計。審計對象包括數(shù)據(jù)的審計和算法模型的審計兩個方面。在審計方法上,基于算法模型的訪問程度差異,可供選擇的審計方法包括五種:代碼審計、抓取審計、馬甲審計、眾包審計和非侵入式審計[44]。其中,代碼審計是指對計算機代碼的審計,研究人員通過對代碼的審計可以仔細檢查算法的邏輯基礎(chǔ)[45]。代碼審計需要以代碼公開為前提,然而現(xiàn)實中,企業(yè)多以算法代碼為商業(yè)秘密為由而拒絕公開,因此在算法審計實踐中,代碼審計方法通常運用于算法內(nèi)部審計之中。抓取審計,是指審計人員通過訪問平臺反復(fù)更改輸入信息,并對輸出結(jié)果進行觀察和分析。該審計方法的效果取決于平臺所提供的訪問權(quán)限。眾包審計,也稱協(xié)作審計,是指通過招募的“測試人員”即用戶對算法輸出開展觀察、分析的審計方法,其優(yōu)點是法律風(fēng)險小,缺點為成本較高。上述審計方法各具特征,審計主體可以有針對性地選擇適當(dāng)?shù)膶徲嫹椒ㄩ_展算法審計活動,以實現(xiàn)算法系統(tǒng)的透明。
基于關(guān)系的算法透明度理論并非單純從技術(shù)角度來理解算法透明,而是將算法透明度看作人類對算法技術(shù)的治理實踐,其中將包括算法技術(shù)、構(gòu)造算法的人類決策以及圍繞算法所建構(gòu)的治理體系。據(jù)此,算法透明度將界分為一階透明度與二階透明度。其中,一階透明度指向算法技術(shù)以及關(guān)于算法構(gòu)造的人類決策;二階透明度則與算法協(xié)同治理理念一脈相承,伴隨著私營機構(gòu)承擔(dān)算法治理責(zé)任,二階透明度是保障私營機構(gòu)算法治理實踐的透明性和可責(zé)性的重要機制,是對“觀察者的觀察”,其指向算法治理體系的透明性和可責(zé)性[40]。為增強算法透明度制度的有效性,宜基于算法的雙階透明度界分,立足于個體透明與系統(tǒng)透明雙重維度,并結(jié)合算法透明度的工具、對象、目標、內(nèi)容、時機等諸要素,構(gòu)建以算法技術(shù)透明為中心和以算法治理體系透明為中心的雙階算法透明機制,實現(xiàn)算法透明度機制的優(yōu)化配置。
1.構(gòu)建以算法技術(shù)透明為中心的一階透明度機制
算法一階透明度旨在實現(xiàn)算法技術(shù)之于相關(guān)多元主體的透明,亦即通過透明機制讓特定主體能夠了解算法決策系統(tǒng)。從類型上,算法一階透明度包括個體與系統(tǒng)兩個維度的透明。其中,個體維度的算法一階透明度機制包括如下要素:在透明度工具上,包括個人數(shù)據(jù)披露、算法解釋等工具;在透明度對象上,針對的是受算法決策影響的個體;在透明度目標上,旨在實現(xiàn)對涉及個人數(shù)據(jù)和特定算法決策的知悉和理解,以尊重個人尊嚴;在透明度內(nèi)容上,包括涉及個人數(shù)據(jù)的披露和算法解釋(包括以模型為中心的算法解釋和以主體為中心的算法解釋);在透明度時機上,包括事前與事后以及定期披露等。上述諸因素相結(jié)合,構(gòu)造個體維度的算法一階透明度之具體機制(表1)[40]。
表1 個體維度的算法一階透明度機制
系統(tǒng)維度的一階透明度機制的具體要素如下:在透明度對象上,包括獨立審計人員、外部技術(shù)專家、公司內(nèi)部職員、監(jiān)管人員、利益相關(guān)者以及普通公眾;在透明度目標上,旨在減少算法錯誤和歧視,提高算法系統(tǒng)正當(dāng)性;在透明度工具上,包括第三方算法審計、算法影響評估、記錄留存等制度工具;在透明度內(nèi)容上,包括源代碼、數(shù)據(jù)集等;在透明度時機上,包括算法系統(tǒng)設(shè)計、運行和更新等時間節(jié)點。在上述諸要素有機結(jié)合基礎(chǔ)上,構(gòu)造系統(tǒng)維度的算法一階透明度的具體機制(表2)[40]。
表2 系統(tǒng)維度的算法一階透明度機制
2.構(gòu)建以算法治理體系透明為中心的二階透明度機制
算法二階透明度實則是社會系統(tǒng)論“二階觀察”在算法透明度實踐中的具體呈現(xiàn),即在算法協(xié)同治理模式下,針對平臺企業(yè)等私營機構(gòu)建立的內(nèi)部算法合規(guī)治理體系和制度實踐所開展的合規(guī)監(jiān)督。其具有代表性的制度實踐便是我國《個人信息保護法》第64條規(guī)定的合規(guī)審計制度。二階透明度旨在通過對私營機構(gòu)開展算法治理體系和實踐的持續(xù)監(jiān)督,確保其不被俘獲,這與一階透明度旨在實現(xiàn)算法系統(tǒng)的可解釋性和可審計性是不同的,雖然兩者在實踐中通常共享一個算法透明度“工具箱”,也包括透明度的對象、目標、工具、內(nèi)容、時機及方式等具體要素,但在目標設(shè)定上卻大異其趣。
算法二階透明度機制建立在上述具體要素基礎(chǔ)之上。具體而言,在透明度對象上,包括受影響個體、外部專家、受影響利益相關(guān)者以及公眾代表等;在透明度工具上,包括算法解釋、算法影響評估、算法審計等;在透明度內(nèi)容上,主要包括提供監(jiān)督公司政策和特定算法解釋等信息;在透明度時機上,包括算法系統(tǒng)設(shè)計、算法運行和決定作出等時間節(jié)點。在上述諸要素有機結(jié)合的基礎(chǔ)上,構(gòu)造算法二階透明度的具體機制(表3)[40]。算法二階透明度將特定主體的治理實踐也囊括其中,既呈現(xiàn)算法透明度實踐的多重維度和多階構(gòu)造,也向人們展現(xiàn)了算法透明治理實踐的豐富性。更為重要的是,以私人機構(gòu)的算法治理體系和實踐為觀察對象的算法二階透明度機制,為我們深刻理解算法治理實踐背后的邏輯提供了一個具有高度反思性的方法論透鏡[46]。
表3 算法二階透明度機制
蘭登·溫納在談到技術(shù)社會的復(fù)雜性導(dǎo)致人的自主性喪失時指出:“技術(shù)社會的成員們實際上對維持他們生存的根本結(jié)構(gòu)和程序了解得越來越少。世界的真實情況與人們所具有的關(guān)于這個世界的圖像之間的差距變得比以往更大了。”[47]數(shù)字技術(shù)浪潮席卷之下,人類正在邁向由算法技術(shù)構(gòu)筑的微粒社會之中,其間潛藏著這樣一個悖論:“那些高度不透明的數(shù)字化機器,正在創(chuàng)造著無法辯駁的透明。這樣的對立也讓我們的制度不堪重負。國家陷入壓力,一方面要保護民眾,使其不為數(shù)字化耀眼的光芒所傷;另一方面又要將光芒照進機器的黑暗當(dāng)中?!盵48]微粒社會的透明度失衡狀態(tài),促使人們對算法透明度的呼喚和吶喊,并使得算法透明度成為算法社會中備受尊崇的“新宗教”[49]。然而,當(dāng)我們將傳統(tǒng)透明度理論用于指導(dǎo)算法透明度實踐時,卻面臨著傳統(tǒng)透明度理論與算法透明度實踐之間“圓鑿方枘”的張力,并導(dǎo)致算法透明度實踐陷入“進退失據(jù)”的現(xiàn)實困境。鑒于此,本文倡導(dǎo)算法透明度理論的“關(guān)系”轉(zhuǎn)向,從關(guān)系視角來理解算法透明度的多重維度,建構(gòu)基于關(guān)系的算法透明度模式,并在具體制度設(shè)計上遵循“透明度設(shè)計”理念,科學(xué)合理地設(shè)計算法透明度的具體機制,真正實現(xiàn)“有意義”的算法透明,有效發(fā)揮算法透明度在算法治理中的制度價值。