王紹源 任宇東
人工智能(AI)的興起與“機(jī)器學(xué)習(xí)”議題的勃興在很大程度上促進(jìn)了“自主決策系統(tǒng)”(automated-decision making,ADM)的產(chǎn)生?!白灾鳑Q策系統(tǒng)”可以看作是人工智能的一個(gè)核心部分,憑借“機(jī)器學(xué)習(xí)”算法,利用基于數(shù)據(jù)集構(gòu)建的預(yù)測(cè)模型實(shí)現(xiàn)自主決策系統(tǒng)在非人類(lèi)的自動(dòng)化過(guò)程做出決策。自主決策系統(tǒng)側(cè)重體現(xiàn)算法的主體性以及“算法”在“決策過(guò)程”中的重要性。
“自主決策系統(tǒng)”不僅改變了機(jī)器學(xué)習(xí)模式,而且引發(fā)了人們對(duì)于“責(zé)任、尊嚴(yán)和人機(jī)關(guān)系”等問(wèn)題的倫理思考。隨著人工智能的發(fā)展,無(wú)監(jiān)督學(xué)習(xí)方法在尋找數(shù)據(jù)集中的規(guī)律性方面展露優(yōu)勢(shì),這種規(guī)律性并不以“分類(lèi)”為前提,因此無(wú)監(jiān)督學(xué)習(xí)比之監(jiān)督學(xué)習(xí)方法適用性更廣。也正是由于“自主決策系統(tǒng)”是在沒(méi)有人類(lèi)輔助的情況下做出決定的,這引發(fā)了諸多學(xué)者對(duì)“自主決策系統(tǒng)透明度”問(wèn)題的探討。歐盟委員會(huì)(European Commission)相繼頒布了如《通用數(shù)據(jù)保護(hù)條例》《AI開(kāi)發(fā)和使用的道德草案》等人工智能倫理準(zhǔn)則,這充分展現(xiàn)了“透明度設(shè)計(jì)”相關(guān)研究的必要性和重要性①Heike Schmidt Felzmann,et al,“Towards Transparency by Design for Artificial Intelligence”,Science and Engineering Ethics,2020,Vol.26,No.6,pp.1-29.。
目前,“自主決策系統(tǒng)透明度”的研究表明,“透明度”只是一種理想,想要實(shí)現(xiàn)仍然任重道遠(yuǎn)。一方面,從“算法”角度來(lái)看,“算法”不應(yīng)被視為信息技術(shù)的中立組成部分,或是與現(xiàn)實(shí)割裂的概念對(duì)象,而應(yīng)當(dāng)被看作是“異質(zhì)和分散的社會(huì)技術(shù)系統(tǒng)”。設(shè)計(jì)者應(yīng)當(dāng)通過(guò)在各種技術(shù)中嵌入“算法”來(lái)實(shí)現(xiàn)“算法具現(xiàn)化”并賦予其社會(huì)意義,更好地支持、服務(wù)于設(shè)計(jì)應(yīng)用,通過(guò)“算法”顯示出技術(shù)社會(huì)優(yōu)越性并降低技術(shù)潛在的社會(huì)負(fù)作用,最終實(shí)現(xiàn)技術(shù)和社會(huì)實(shí)踐的彼此結(jié)合。另一方面,從“數(shù)據(jù)集”角度來(lái)看,“數(shù)據(jù)集”受制于語(yǔ)境的不同而呈現(xiàn)出復(fù)雜性,要求基于數(shù)據(jù)模型構(gòu)建批判性的思維模式、知識(shí)框架和法規(guī)體系。正如美國(guó)塔夫茨大學(xué)人類(lèi)學(xué)教授尼克·西弗(Nick Seaver)所言:“數(shù)據(jù)集”表面上是中立技術(shù),但實(shí)則容易淪為服務(wù)私人的工具,致使用戶(hù)由于“私人訪(fǎng)問(wèn)權(quán)限”等理由而遠(yuǎn)離真相②Nick Seaver,“Knowing Algorithms”,in Janet Vertesi,David Ribes(eds.),Digital STS:A Feld Guide for Science and Technology Studies,New Jersey:Princeton University Press Inc.,2019,pp.412-422.。上述情況表明,“透明度”的實(shí)踐不僅要在技術(shù)層面考慮到“算法”和“數(shù)據(jù)集”的“透明度”,還要考慮到二者在現(xiàn)有社會(huì)結(jié)構(gòu)中的落實(shí)情況及應(yīng)當(dāng)承擔(dān)的社會(huì)責(zé)任?!巴该鞫仍O(shè)計(jì)”對(duì)當(dāng)前社會(huì)環(huán)境下“算法”的運(yùn)行模式具有變革意義③鄭智航:《人工智能算法的倫理危機(jī)與法律規(guī)制》,《社會(huì)科學(xué)文摘》2021年第4期,第74-76頁(yè)。。
綜上所述,對(duì)“透明度設(shè)計(jì)”進(jìn)行理論指導(dǎo)是十分必要的,這有利于考察“自主決策系統(tǒng)”一般適用性和倫理規(guī)范原則。本文基于“透明度設(shè)計(jì)”這一概念,以“自主決策系統(tǒng)”設(shè)計(jì)人員為服務(wù)對(duì)象,首先,從宏觀層面對(duì)“自主決策系統(tǒng)透明度”從美德、關(guān)系、制度三個(gè)角度進(jìn)行含義整合;其次,從研究基礎(chǔ)層面對(duì)“透明度設(shè)計(jì)”模型的理論借鑒和實(shí)現(xiàn)路徑進(jìn)行闡述;最后,在系統(tǒng)化設(shè)計(jì)層面利用“透明度設(shè)計(jì)”模型以循序漸進(jìn)的方式整合覆蓋三個(gè)設(shè)計(jì)階段的九條倫理原則。旨在實(shí)現(xiàn)“透明度”倫理設(shè)計(jì)前的“價(jià)值融入”和倫理設(shè)計(jì)后的“系統(tǒng)評(píng)價(jià)”兩大功能,并將“透明度設(shè)計(jì)”模型的倫理原則作為人工智能自主決策系統(tǒng)開(kāi)發(fā)人員的行動(dòng)指南。
“透明度”是一個(gè)復(fù)雜的概念,無(wú)法用簡(jiǎn)單的定義一言蔽之,其核心特征在于可解釋性、可開(kāi)放性、可訪(fǎng)問(wèn)性等?!巴该鞫取钡膶?shí)踐往往意味著發(fā)揮正外部性作用,正如荷蘭烏德勒支大學(xué)管理學(xué)教授阿爾伯特·梅耶爾(Albert Meijer)所說(shuō)的那樣:“經(jīng)濟(jì)學(xué)家將‘透明度’視為市場(chǎng)的先決條件,政治學(xué)家將‘透明度’概念化為政治參與的先決條件,法律學(xué)者強(qiáng)調(diào)‘透明度’是判斷合法性的先決條件”④Albert Meijer,“Transparency”,in Mark Bovens,Robert Goodin,Thomas Schillemans(eds.),The Oxford Hand Book of Public Accountability.Oxford:Oxford University Press,2014,pp.507-524.。雖然所有學(xué)科都認(rèn)為透明度具有積極價(jià)值,但卻難以清楚指代透明度的豐富意蘊(yùn),以及這一積極價(jià)值的邊際收益變化情況。
目前“透明度”的研究囿于“純信息視角”假設(shè)。荷蘭烏德勒支大學(xué)人類(lèi)學(xué)教授泰倫伯格(Daan Simon Tielenburg)認(rèn)為:“‘透明度’等同于‘信息披露’,認(rèn)為‘透明度’是靜態(tài)的,信息需求方隨時(shí)可以查閱使用現(xiàn)有信息,是一種依賴(lài)于信息視角的積極力量?!雹貲aan Simon Tielenburg,“The‘Dark Sides’of Transparency:Rethinking Information Disclosure as a Social Praxis”,MSThesis,Utrecht University,2020.盡管“純信息視角”下“透明度”有很多積極作用,但許多學(xué)者認(rèn)為,“純信息視角”下“透明度”與“美德倫理、社會(huì)關(guān)系和組織制度”等多維視角徹底割裂,沒(méi)有現(xiàn)實(shí)意義。
一方面,“純信息視角”的局限性在于只看中了信息的“可獲得性”,而沒(méi)有對(duì)這些信息的性質(zhì)、背景和提供信息的過(guò)程進(jìn)行思考。因此,“純信息視角”將信息看作是中立的事實(shí),而不是社會(huì)構(gòu)建的人工產(chǎn)物,不會(huì)考慮到披露背后的遴選機(jī)制、披露程序和政治意圖。德國(guó)比勒菲爾德大學(xué)社會(huì)學(xué)教授利奧波德·林格爾(Leopold Ringel)一針見(jiàn)血地指出:“信息提供方為了實(shí)現(xiàn)‘透明度’而做的努力根本就是一場(chǎng)作秀”。因此,信息提供方不會(huì)主動(dòng)創(chuàng)造中立的觀察平臺(tái),而是以利己化的方式?jīng)Q定披露哪些信息②Leopold Ringel,“Unpacking the Transparency-Secrecy Nexus:Frontstage and Backstage Behaviour in a Political Party”,Organization Studies,2019,Vol.40,No.5,pp.705-723.。
另一方面,“純信息視角”下的“透明度”忽視了需求方,此時(shí)“透明度”被簡(jiǎn)單等同于滿(mǎn)足信息公開(kāi)。但這是遠(yuǎn)遠(yuǎn)不夠的,信息提供方還需要根據(jù)信息受眾的不同,對(duì)信息進(jìn)行形式加工,便于受眾接收、解讀和理解。在自主決策階段,受眾最直接的參與方式是授予自主決策系統(tǒng)用戶(hù)數(shù)據(jù)訪(fǎng)問(wèn)權(quán)限,因此,自主決策系統(tǒng)的“透明度”必須以一種既可以取得受眾信任,又能夠提高受眾對(duì)個(gè)人信息重視程度的方式進(jìn)行設(shè)計(jì)。
由于“純信息視角”缺乏對(duì)信息轉(zhuǎn)移背后蘊(yùn)含的“意義、價(jià)值和社會(huì)功能”的考慮,無(wú)法透徹地理解“透明度”的重要意義。因此,下文基于梅耶爾的片段表述,歸納總結(jié)了三個(gè)宏觀視角并對(duì)“透明度”進(jìn)行定義整合,即“透明度”的美德倫理學(xué)意蘊(yùn)、“透明度”的利益相關(guān)者意蘊(yùn)、“透明度”的制度化意蘊(yùn)。
首先,“透明度”的美德倫理學(xué)意蘊(yùn)是一個(gè)規(guī)范的概念,它構(gòu)成了評(píng)估“信息生產(chǎn)者”是否具備開(kāi)放美德的標(biāo)準(zhǔn)。簡(jiǎn)而言之,一個(gè)企業(yè)如果將“透明度”視作人工智能系統(tǒng)或組織層面追求的價(jià)值特征,那么該企業(yè)應(yīng)當(dāng)對(duì)決策的“行為目的、具體操作、最終意義”這三個(gè)層面進(jìn)行解釋?zhuān)⑹冀K如一地開(kāi)放給公眾進(jìn)行檢查。
其次,“透明度”的利益相關(guān)者意蘊(yùn)旨在解決的問(wèn)題是,承擔(dān)“透明度”美德倫理學(xué)意蘊(yùn)的“信息生產(chǎn)者”應(yīng)當(dāng)面向受眾承擔(dān)何種責(zé)任。在“透明度”的利益相關(guān)者的關(guān)系視角下,“透明度”并非局限于一種概念特征,而代表了行為者和受眾之間的一種關(guān)系,這種關(guān)系體現(xiàn)在三個(gè)方面。第一,任務(wù)嚴(yán)重程度,如果在性命攸關(guān)的任務(wù)中使用自主決策系統(tǒng),則必須做到透明,此類(lèi)任務(wù)由于不能單純地依賴(lài)于AI,出于向受眾負(fù)責(zé)的角度,必須透明推理機(jī)制從而改善行為者與人工智能的合作交互。第二,法律需求方面,如果行為者從事的信息工作已然在法律法規(guī)中明文規(guī)定進(jìn)行解釋?zhuān)敲葱袨檎叱讼蚴鼙娞峁┩该鞫纫酝鈩e無(wú)選擇,行為者甚至為此必須訴諸更簡(jiǎn)單、可解釋性更強(qiáng)的算法。第三,訪(fǎng)問(wèn)權(quán)限方面,行為者出于希望保護(hù)算法免受非必要的影響,可能對(duì)AI模型的訪(fǎng)問(wèn)權(quán)限進(jìn)行規(guī)定,但如果“透明度”能夠幫助專(zhuān)家得出更科學(xué)的結(jié)論,那么行為者可以選擇向受眾充分展示算法的可解釋性。
最后,“透明度”的制度化意蘊(yùn)就是在審視“利益相關(guān)者雙邊關(guān)系”的制度背景時(shí),采用系統(tǒng)化視角剖析現(xiàn)實(shí)社會(huì)的體制背景,包括相關(guān)的法律、監(jiān)管和組織措施等。只有將“透明度”置于運(yùn)行著的社會(huì)機(jī)制之中,并從各類(lèi)社會(huì)制度的影響結(jié)果中剖析出“透明度”的作用方式,這才對(duì)現(xiàn)實(shí)地理解“透明度”制度化產(chǎn)生的實(shí)際影響及輔助制度化有效落實(shí)具有重要意義。
綜上所述,“純信息視角”是理解“透明度”的一個(gè)重要組成部分,但忽視了“透明度”在特殊機(jī)構(gòu)、社會(huì)關(guān)系和系統(tǒng)實(shí)踐中深度的價(jià)值嵌入,僅僅認(rèn)為“透明度”是信息從一個(gè)代理人向另一個(gè)代理人轉(zhuǎn)移的物理過(guò)程是不夠的。因此,通過(guò)對(duì)上文三個(gè)宏觀視角,即“透明度”的美德倫理學(xué)意蘊(yùn)、“透明度”的利益相關(guān)者意蘊(yùn)和“透明度”的制度化意蘊(yùn)進(jìn)行定義整合之后發(fā)現(xiàn),“透明度”在實(shí)踐層面具有規(guī)范性和社會(huì)性,通過(guò)適當(dāng)?shù)脑O(shè)計(jì),能夠發(fā)揮“透明度”最大的積極作用。
“透明度設(shè)計(jì)”(Transparency by Design,TbD)模型肇端于“隱私倫理設(shè)計(jì)”(Privacy by Design,PbD)模型。PbD原則是加拿大瑞爾森大學(xué)(Ryerson University)數(shù)據(jù)學(xué)教授安·卡沃基安(Ann Cavoukian)于20世紀(jì)90年代確立的一種整體化的隱私保護(hù)措施,用以幫助公司最優(yōu)化保護(hù)隱私,并駁斥“保護(hù)隱私只能以犧牲其他價(jià)值為代價(jià)”的言論①Ann Cavoukian,“Privacy by Design:The 7 Foundational Principles”,Information and Privacy Commissioner of Ontario,Canada,2009,Vol.5,No.5,pp.12.。歐盟頒布《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)就參照了“隱私倫理設(shè)計(jì)”模型,從而保護(hù)隱私數(shù)據(jù)。從保護(hù)隱私數(shù)據(jù)角度來(lái)看,“透明度”是基于隱私倫理角度研究數(shù)據(jù)保護(hù)的最核心問(wèn)題。“隱私倫理設(shè)計(jì)”中的“透明度”體現(xiàn)在三個(gè)方面:第一,公布行為者和受眾收集、記錄了哪些類(lèi)型的數(shù)據(jù)、數(shù)據(jù)服務(wù)的目標(biāo)人群、數(shù)據(jù)的使用目的以及采取何種措施保持透明。第二,“透明度”還意味著控制信息的傳輸范圍,鑒于此,用戶(hù)不僅有權(quán)了解他們的隱私數(shù)據(jù)在機(jī)構(gòu)內(nèi)部的使用途徑,還應(yīng)該了解如何在機(jī)構(gòu)外部使用。第三,“透明度”還應(yīng)使數(shù)據(jù)主體了解隱私數(shù)據(jù)應(yīng)用的可能結(jié)果以及與之匹配的數(shù)據(jù)保護(hù)具體措施。
此后,為解決“透明度設(shè)計(jì)”中有關(guān)隱私倫理的問(wèn)題,“隱私倫理設(shè)計(jì)”理論孕育了諸如“價(jià)值敏感性設(shè)計(jì)”(Value Sensitive Design,VSD)和“預(yù)期技術(shù)倫理”(Anticipatory Technology Ethics,ATE)等解決方案,推動(dòng)“歐盟委員會(huì)”的“人工智能高級(jí)專(zhuān)家小組”(High-Level Expert Group,HLEG)發(fā)布了《人工智能開(kāi)發(fā)和使用的道德草案》。“透明度設(shè)計(jì)”引起了學(xué)術(shù)界的日益重視,美中不足的是缺乏與實(shí)踐相匹配的“倫理路徑”。此時(shí),“透明度設(shè)計(jì)”模型蘊(yùn)含的指導(dǎo)原則就成為了最好的“倫理指針”,指明了“透明度”的倫理設(shè)計(jì)。
如果說(shuō)“隱私倫理設(shè)計(jì)”的提出旨在維護(hù)公司利益,爭(zhēng)取公司各種權(quán)益的共贏,那么人工智能系統(tǒng)開(kāi)發(fā)中的“透明度設(shè)計(jì)”就旨在規(guī)范設(shè)計(jì)義務(wù),保障用戶(hù)權(quán)利。雖然兩者指向不同的服務(wù)領(lǐng)域,但是彼此支持、相互補(bǔ)充。將“美德、關(guān)系和制度”等倫理原則與“隱私設(shè)計(jì)”理論相結(jié)合,可以增強(qiáng)“透明度設(shè)計(jì)”的實(shí)踐性和可操作性。因此,認(rèn)識(shí)“隱私倫理設(shè)計(jì)”的三個(gè)特殊價(jià)值對(duì)于實(shí)現(xiàn)“透明度設(shè)計(jì)”模型有重要意義:
第一,“隱私倫理設(shè)計(jì)”涵蓋的廣泛原則已經(jīng)通過(guò)法律手段落實(shí)實(shí)施。這表明,“透明度設(shè)計(jì)”同樣可以通過(guò)法律手段來(lái)實(shí)現(xiàn),從而在保障其實(shí)用性的前提下發(fā)揮廣泛約束力。
第二,荷蘭屯特大學(xué)哲學(xué)系教授維貝克(Peter Paul Verbeek)認(rèn)為,“技術(shù)設(shè)計(jì)”顯著影響后續(xù)的技術(shù)應(yīng)用,有利于明確利益相關(guān)者的社會(huì)責(zé)任?!巴该鞫仍O(shè)計(jì)”模型從自主決策系統(tǒng)“設(shè)計(jì)”到“實(shí)現(xiàn)”的各環(huán)節(jié)出發(fā),通過(guò)倫理設(shè)計(jì)以消弭信息技術(shù)的不良影響①陳首珠、劉寶杰、夏保華:《論“技術(shù)—倫理實(shí)踐”在場(chǎng)的合法性——對(duì)荷蘭學(xué)派技術(shù)哲學(xué)研究的一種思考》,《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2013年第1期,第14-18頁(yè)。。
第三,“隱私倫理設(shè)計(jì)”具有天然平衡性。當(dāng)我們希冀通過(guò)技術(shù)手段來(lái)實(shí)現(xiàn)隱私保護(hù)時(shí),必須在設(shè)計(jì)中體現(xiàn)“隱私倫理原則”和其他價(jià)值觀訴求。只有這樣,“隱私保護(hù)”才不會(huì)被視為是“實(shí)現(xiàn)其他價(jià)值”的限制因素,反而會(huì)升格為在整個(gè)設(shè)計(jì)過(guò)程中需要與其他價(jià)值訴求一起平衡和實(shí)現(xiàn)的核心價(jià)值。“隱私倫理設(shè)計(jì)”一改往日“隱私與價(jià)值的零和博弈”,而是將正和博弈帶入其中,追求更好的價(jià)值實(shí)現(xiàn)路徑,對(duì)于“透明度設(shè)計(jì)”同樣具有借鑒意義。
根據(jù)德國(guó)著名發(fā)展經(jīng)濟(jì)學(xué)家阿爾伯特·赫希曼(Albert Hirschman)提出的“退出、呼吁與忠誠(chéng)”(exit,voice&loyalty)理論,消費(fèi)者由于“自主決策系統(tǒng)”的信息披露提高了自身的決策能力,進(jìn)而萌生“退出”(停止參與)或“呼吁”(推動(dòng)改變)兩種動(dòng)機(jī)。雖然在理論上“透明度”的提高有助于增加彼此的關(guān)系信任和忠誠(chéng)度,降低用戶(hù)的退出意愿。但需要在實(shí)踐層面轉(zhuǎn)換為具有可操作性的步驟。對(duì)此,下文對(duì)愛(ài)爾蘭國(guó)立高威大學(xué)倫理學(xué)教授菲爾茲曼(Heike Schmidt Felzmann)提出的“TbD”模型設(shè)計(jì)的三個(gè)階段和九個(gè)原則進(jìn)行整合與論述:
第一,“人工智能系統(tǒng)設(shè)計(jì)”階段,即開(kāi)發(fā)新系統(tǒng)之初就應(yīng)當(dāng)設(shè)定提高“透明度”的總體設(shè)計(jì)要求以及預(yù)期實(shí)現(xiàn)目標(biāo);
第二,“數(shù)據(jù)處理和信息分析”階段,即系統(tǒng)一經(jīng)投入使用,對(duì)于“數(shù)據(jù)處理、決策程序和風(fēng)險(xiǎn)評(píng)估”提供更加透明化的信息;
第三,“利益相關(guān)者的透明度管理”階段,即面向組織和用戶(hù)利益雙方,在“可檢查性、響應(yīng)能力和定期報(bào)告”方面提高透明度。
以上“TbD”模型的三個(gè)階段分別側(cè)重于“總體設(shè)計(jì)需求、面向用戶(hù)的信息提供,以及組織立場(chǎng)上的透明度管理”三個(gè)方面,并結(jié)合與“透明度”有關(guān)的理論以及關(guān)于“人工智能自主決策透明度”的行業(yè)報(bào)告,進(jìn)而推導(dǎo)出與上述階段有機(jī)融合、相輔相成的九條倫理原則。歸根結(jié)底,“TbD”模型的本質(zhì)是:在將“透明度”原則集成到人工智能系統(tǒng)開(kāi)發(fā)中時(shí),規(guī)范系統(tǒng)設(shè)計(jì)人員所應(yīng)承擔(dān)的義務(wù),與用戶(hù)所應(yīng)擁有的“透明度”檢查權(quán)利,促使“透明度設(shè)計(jì)”揚(yáng)長(zhǎng)避短,充分發(fā)揮其積極作用。
牛津大學(xué)數(shù)據(jù)倫理學(xué)教授桑德拉·沃切特(Sandra Wachter)對(duì)“自主和智能系統(tǒng)”(autonomous and intelligent systems,A/IS)相關(guān)的問(wèn)題進(jìn)行了闡述,并規(guī)劃了系統(tǒng)設(shè)計(jì)的“路線(xiàn)圖”①Sandra Wachter,Brent Mittelstadt,“A Right to Reasonable Inferences:Re-thinking Data Protection Law in the Age of Big Data and AI”,Columbia Business Law Review,2019,Vol.1,No.7,pp.494-620.。實(shí)現(xiàn)路徑有以下三個(gè)關(guān)鍵問(wèn)題:決策來(lái)源的認(rèn)知性問(wèn)題、決策過(guò)程的規(guī)范性問(wèn)題、決策結(jié)果的追溯性問(wèn)題。
澳大利亞弗林德斯大學(xué)計(jì)算機(jī)系教授約翰·羅迪克(John Roddick)認(rèn)為,“決策來(lái)源的認(rèn)知性問(wèn)題”促使設(shè)計(jì)者必須考慮使用的數(shù)據(jù)其數(shù)量和質(zhì)量是否足以印證某一結(jié)論;“決策過(guò)程的規(guī)范性問(wèn)題”促使設(shè)計(jì)者監(jiān)控系統(tǒng)運(yùn)作的實(shí)時(shí)影響,隨時(shí)糾正錯(cuò)誤并尋找原因;“決策結(jié)果的追溯性問(wèn)題”促使設(shè)計(jì)者認(rèn)識(shí)到結(jié)果的“可追溯性”與“透明度”之間的關(guān)系,以及缺乏結(jié)果“可追溯性”的嚴(yán)重后果②Peter Fule,John Roddick,“Detecting Privacy and Ethical Sensitivity in Data Mining Results”,in Proceedings of the 27th Australasian Conference on Computer Science,Australian Computer Society,2004,Vol.26,pp.159-166.。根據(jù)上述有關(guān)“透明度設(shè)計(jì)”過(guò)程的研究,此設(shè)計(jì)階段需踐行以下三條原則:
1.“主動(dòng)性”原則
“技術(shù)設(shè)計(jì)”和組織措施應(yīng)該做好頂層設(shè)計(jì),從人工智能系統(tǒng)開(kāi)發(fā)伊始就將實(shí)現(xiàn)“透明度”列為目標(biāo)之一,而不是在系統(tǒng)設(shè)計(jì)完成之后亡羊補(bǔ)牢。美國(guó)康奈爾大學(xué)信息科學(xué)教授海倫·尼森鮑姆(Helen Nissenbaum)認(rèn)為:“技術(shù)必然體現(xiàn)價(jià)值,只有在設(shè)計(jì)環(huán)節(jié)就關(guān)注價(jià)值,才能確保價(jià)值不會(huì)因?yàn)橄到y(tǒng)決策意外而變得無(wú)法實(shí)現(xiàn)”①Helen Nissenbaum,“Accountability in a Computerized Society”,Science and Engineering Ethics,1996,Vol.2,No.2,pp.25-42.。如荷蘭代爾夫特理工大學(xué)倫理學(xué)教授艾梅·萬(wàn)·溫斯伯格(Aimee van Wynsberghe)分析了以關(guān)懷為中心的“價(jià)值敏感性設(shè)計(jì)”的醫(yī)護(hù)機(jī)器人之后,發(fā)現(xiàn)“關(guān)懷”這一價(jià)值訴求得到了很好的貫徹②Aimee van Wynsberghe,“Designing Robots for Care:Care Centered Value-sensitive Design”,Science and Engineering Ethics,2013,Vol.19,No.1,pp.407-433.。因此,設(shè)計(jì)者需要通過(guò)頂層設(shè)計(jì)滿(mǎn)足利益相關(guān)方對(duì)“透明度”這一核心價(jià)值的需求。
2.集合化原則
“集合化”原則要求將“透明度設(shè)計(jì)”視為一個(gè)不斷集合的過(guò)程。
一方面,從外部環(huán)境來(lái)看:在設(shè)計(jì)人工智能系統(tǒng)時(shí),必須超越“透明度”的靜態(tài)信息視角,“透明度設(shè)計(jì)”的措施應(yīng)直面決策過(guò)程的復(fù)雜性,面向受眾的多樣性。根據(jù)信息目的和受眾的不同,公布的決策依據(jù)標(biāo)準(zhǔn)可以是提綱挈領(lǐng)的原則,也可以是具體詳細(xì)的標(biāo)準(zhǔn)。
另一方面,從系統(tǒng)內(nèi)部來(lái)看:要采取系統(tǒng)的、變化的觀點(diǎn)看待問(wèn)題。IBM就是很好地明證,為了減少人工智能系統(tǒng)中的偏見(jiàn)和歧視,將人工智能系統(tǒng)做出的決策、采用的數(shù)據(jù)集,產(chǎn)生人工智能系統(tǒng)決策的過(guò)程,包括這一過(guò)程中數(shù)據(jù)收集、數(shù)據(jù)標(biāo)記和使用的算法都以極其嚴(yán)格的標(biāo)準(zhǔn)進(jìn)行了系統(tǒng)記錄,方便進(jìn)行觀測(cè)與跟蹤,以此確定自主決策系統(tǒng)出錯(cuò)的原因,進(jìn)而有助于防微杜漸③IBM,“Principles for Trust and Transparency”,2021-05-20,https://www.ibm.com/blogs/policy/wp-content/uploads/2018/05/IBM_Principles_OnePage.pdf.Accessed.。
3.“有效溝通”原則
人工智能系統(tǒng)的設(shè)計(jì)者需要認(rèn)識(shí)到系統(tǒng)并非單向度地服務(wù)于信息提供方,還要考慮信息面向的普羅大眾。正如以色列海法大學(xué)法學(xué)教授塔爾·扎爾斯基(Tal Zarsky)指出的那樣:“信息受眾有著極其復(fù)雜的構(gòu)成,例如不同的用戶(hù)、機(jī)構(gòu)以及普通公眾,因此,信息披露的表現(xiàn)形式要根據(jù)不同的信息接收者而有所改變。總之,要按照受眾敏感的方式進(jìn)行溝通?!雹躎al Zarsky,“The Trouble with Algorithmic Decisions:An Analytic Road Map To Examine Efficiency and Fairness in Automated and Opaque Decision Making”,Science,Technology,&Human Values,2016,Vol.41,No.1,pp.118-132.因此,圍繞客觀性信息在表現(xiàn)上呈現(xiàn)出不同的主觀性形式,例如提供給政府機(jī)構(gòu)、監(jiān)管機(jī)構(gòu)和第三方機(jī)構(gòu)的信息要以更具技術(shù)性的形式呈現(xiàn)。
此階段的主要關(guān)注點(diǎn)是“應(yīng)向利益相關(guān)者提供哪些信息”,這些信息涉及處理哪些數(shù)據(jù)、如何處理數(shù)據(jù),以及數(shù)據(jù)處理的相關(guān)風(fēng)險(xiǎn)。其核心問(wèn)題是界定哪些信息需要披露,才能履行利益相關(guān)方規(guī)定的透明義務(wù)。其本質(zhì)是要實(shí)現(xiàn)系統(tǒng)及其風(fēng)險(xiǎn)的“可解釋性”⑤劉云:《論可解釋的人工智能之制度構(gòu)建》,《江漢論壇》2020年第12期,第113-119頁(yè)。。
根據(jù)國(guó)際多媒體技術(shù)大會(huì)“公平—問(wèn)責(zé)—透明”會(huì)議(ACM Conference on Fairness,Accountability,and Transparency,F(xiàn)AccT)提出的“可靠算法”原則,“可解釋性”意味著“無(wú)論是算法決策,還是驅(qū)動(dòng)做出決策的數(shù)據(jù),都可以用非技術(shù)術(shù)語(yǔ)解釋給用戶(hù)和其他利益相關(guān)者”。這包括可以解釋系統(tǒng)的一般功能、系統(tǒng)內(nèi)數(shù)據(jù)的具體使用以及系統(tǒng)做出的個(gè)別決策的過(guò)程。
但正如“人工智能高級(jí)專(zhuān)家小組”所說(shuō),“可解釋性”是有技術(shù)限制的,不是所有的系統(tǒng)或所有的決策都能進(jìn)行解釋?zhuān)虼?,“可解釋性”的涵蓋范圍取決于環(huán)境背景、決策后果的嚴(yán)重程度以及相關(guān)利益相關(guān)方的具體訴求。此階段將從“數(shù)據(jù)使用、決策環(huán)節(jié)和風(fēng)險(xiǎn)防控”三個(gè)角度設(shè)立倫理原則。
1.“數(shù)據(jù)處理”原則
利益相關(guān)方與其潛在的偏差是由最初設(shè)計(jì)決定的,因此,扎爾斯基認(rèn)為,要滿(mǎn)足“透明度”要求,就應(yīng)當(dāng)允許分析員在早期階段就參與到收集數(shù)據(jù)、預(yù)測(cè)影響等任務(wù)中①Tal Zarsky,“Transparent Predictions”,University of Illinois Law Review,2013,Vol.1,No.4,pp.1503-1570.。鑒于復(fù)雜人工智能系統(tǒng)決策“可解釋性”的潛在技術(shù)限制,“數(shù)據(jù)處理”原則要求設(shè)計(jì)者擬好技術(shù)架構(gòu),包括“數(shù)據(jù)樣本”的內(nèi)容、數(shù)據(jù)的使用方式、可供檢查的數(shù)據(jù)處理階段,以及人類(lèi)的自由裁量權(quán)。
一方面,“透明度”要求披露“使用數(shù)據(jù)的具體做法與規(guī)劃”。以國(guó)際多媒體技術(shù)大會(huì)“公平—問(wèn)責(zé)—透明”會(huì)議提出的對(duì)“準(zhǔn)確使用數(shù)據(jù)的定義”為例,即“在整個(gè)算法及其數(shù)據(jù)來(lái)源中,要識(shí)別、記錄和闡明錯(cuò)誤或不確定性的來(lái)源,以便能夠預(yù)估最壞的結(jié)果并做出及時(shí)反應(yīng)”。
另一方面,人類(lèi)的決策往往具有很強(qiáng)的引導(dǎo)性,會(huì)產(chǎn)生截然不同的結(jié)果,需要對(duì)“人類(lèi)自由裁量權(quán)”進(jìn)行清晰地界定。例如,人類(lèi)在創(chuàng)建和選擇訓(xùn)練數(shù)據(jù)方面的調(diào)整會(huì)從根本上影響系統(tǒng)決策結(jié)果。因此,“透明度設(shè)計(jì)”要求公開(kāi)“人為干預(yù)”的環(huán)節(jié)以及干預(yù)方式的信息。
2.“標(biāo)準(zhǔn)解釋”原則
“標(biāo)準(zhǔn)解釋原則”主要從兩個(gè)方面對(duì)決策標(biāo)準(zhǔn)進(jìn)行規(guī)范,一是決策標(biāo)準(zhǔn)的科學(xué)性,二是采用數(shù)據(jù)的可靠性。
決策標(biāo)準(zhǔn)的科學(xué)性要求設(shè)計(jì)人員對(duì)規(guī)則進(jìn)行清晰地解釋?zhuān)鞔_價(jià)值指向并對(duì)進(jìn)行恰當(dāng)編碼。對(duì)于在模型處理中可能遇到“黑箱理論”困境,牛津大學(xué)高級(jí)研究員布倫特·米特爾施塔特(Brent Mittelstadt)等就通過(guò)分析“自主決策系統(tǒng)”中的多元模型,用“社會(huì)關(guān)系互動(dòng)的合理性”方法超越了傳統(tǒng)的“完整性描述”方法,從而對(duì)于破解“黑箱理論”這一困境另辟蹊徑②Sandra Wachte&Brent Mittelstadt,“A Right to Reasonable Inferences:Re-thinking Data Protection Law in the Age of Big Data and AI”,pp.494.。
采用數(shù)據(jù)的可靠性將目光聚焦于哪些數(shù)據(jù)更具有借鑒意義,所用數(shù)據(jù)的來(lái)源是否可靠。對(duì)數(shù)據(jù)處理的評(píng)估既需要具備前瞻性素養(yǎng),考慮數(shù)據(jù)源與預(yù)期結(jié)果之間的關(guān)聯(lián)性;也需要逆向指導(dǎo)從結(jié)果進(jìn)行回溯,從而演繹并得出“自主決策系統(tǒng)”的處理流程、組織結(jié)構(gòu)、功能特性及技術(shù)規(guī)格等設(shè)計(jì)要素,進(jìn)而確認(rèn)數(shù)據(jù)的可靠性。
3.“風(fēng)險(xiǎn)預(yù)警”原則
“風(fēng)險(xiǎn)預(yù)警”原則重點(diǎn)解決人工智能系統(tǒng)操作風(fēng)險(xiǎn)的透明化問(wèn)題。首先,作為“知情權(quán)”重要構(gòu)成要素的“風(fēng)險(xiǎn)溝通”由于宣傳的模糊性,導(dǎo)致未被用戶(hù)充分重視。因此實(shí)現(xiàn)“透明度”的前提舉措之一就是進(jìn)行“風(fēng)險(xiǎn)知識(shí)”宣傳,旨在增加人工智能系統(tǒng)用戶(hù)的自主選擇性和風(fēng)險(xiǎn)掌控力。其次,當(dāng)算法預(yù)測(cè)顯示結(jié)果趨于負(fù)面時(shí),作為組織可以利用信息優(yōu)勢(shì)未雨綢繆,但法律卻尚未規(guī)定“對(duì)風(fēng)險(xiǎn)一無(wú)所知”的個(gè)人有何補(bǔ)償措施。學(xué)者們認(rèn)為,像《通用數(shù)據(jù)保護(hù)條例》這樣的數(shù)據(jù)保護(hù)法沒(méi)有充分杜絕“使用預(yù)測(cè)技術(shù)所產(chǎn)生的不公平?jīng)Q策”,也沒(méi)有預(yù)防令人不寒而栗的“決策歧視”。因此,用戶(hù)在充分知情的前提下參與到數(shù)據(jù)處理的相關(guān)環(huán)節(jié)顯得尤為重要。
總之,“風(fēng)險(xiǎn)預(yù)警”原則的“透明度”不僅僅是聚焦于隱私使用的風(fēng)險(xiǎn)問(wèn)題,還需要杜絕隱瞞風(fēng)險(xiǎn)帶來(lái)的偏見(jiàn)和歧視性決策。除此以外,關(guān)于風(fēng)險(xiǎn)的公開(kāi)信息還應(yīng)包括“風(fēng)險(xiǎn)防控措施、剩余風(fēng)險(xiǎn)評(píng)估措施、風(fēng)險(xiǎn)問(wèn)責(zé)措施”等。
以利益相關(guān)方為問(wèn)題導(dǎo)向的“透明度管理”是“透明度設(shè)計(jì)”的最后階段。此階段旨在解決社會(huì)關(guān)切的合理需求。一方面,制定的決策標(biāo)準(zhǔn)必須定期接受審查,評(píng)估“決策標(biāo)準(zhǔn)”的實(shí)踐效果并制定相應(yīng)的懲戒改進(jìn)機(jī)制;其次,組織要采取以倫理道德為基礎(chǔ),具備實(shí)操性、適應(yīng)性的“透明度”管理方式來(lái)積極回應(yīng)社會(huì)期盼。
在人工智能自主決策系統(tǒng)中,“算法”和“組織”究竟誰(shuí)占據(jù)責(zé)任主體地位,國(guó)際計(jì)算機(jī)學(xué)會(huì)(Association for Computing Machinery,ACM)代表了主流立場(chǎng),它指出:“對(duì)算法生成結(jié)果的邏輯進(jìn)行詳細(xì)解釋?zhuān)⒎菙[脫責(zé)任的理由。組織應(yīng)該為他們所使用的算法做出的決策負(fù)責(zé)。”因此,在當(dāng)前的社會(huì)實(shí)踐中,責(zé)任主體仍然是人類(lèi),而不能將人工智能看作是擔(dān)負(fù)責(zé)任能力的行為主體。
我們傳統(tǒng)上將責(zé)任與設(shè)計(jì)者捆綁起來(lái),然而,這樣的追責(zé)模式并不適用于“算法學(xué)習(xí)”的社會(huì)環(huán)境。因此,面向利益相關(guān)方的“透明度管理”必須以系統(tǒng)的“可追溯性”和“可檢查性”為前提。一方面,“可追溯性”意味著人工智能系統(tǒng)的設(shè)計(jì)方式允許追溯其決策邏輯,并詳細(xì)保留決策相關(guān)流程和因素的記錄,從而界定哪些主體該為決策責(zé)任;另一方面,“可檢查性”意味著系統(tǒng)的設(shè)計(jì)必須允許合法的第三方機(jī)構(gòu)訪(fǎng)問(wèn)有關(guān)流程和決策因素的信息,并對(duì)其合理性做出判斷。兩者共同作用促使我們明確了“面向組織和利益相關(guān)者的透明度管理”階段的三大原則。
1.“可檢查性”原則
人工智能系統(tǒng)設(shè)計(jì)應(yīng)當(dāng)具備“可檢查性”,支持第三方機(jī)構(gòu)檢查系統(tǒng)的決策是否合理。根據(jù)“公平—問(wèn)責(zé)—透明”會(huì)議提出的相關(guān)原則,“可檢查性”需要提供詳細(xì)的文件資料以及技術(shù)層面的API①應(yīng)用程序編程接口(Application Programming Interface)是一組定義、程序及協(xié)議的集合,通過(guò)API接口實(shí)現(xiàn)計(jì)算機(jī)軟件之間的相互通信。API的一個(gè)主要功能是提供通用功能集。程序員通過(guò)調(diào)用API函數(shù)對(duì)應(yīng)用程序進(jìn)行開(kāi)發(fā),可以減輕編程任務(wù)。API同時(shí)也是一種中間件,是介于應(yīng)用系統(tǒng)和系統(tǒng)軟件之間的一類(lèi)軟件,它使用系統(tǒng)軟件所提供的基礎(chǔ)服務(wù)功能,銜接網(wǎng)絡(luò)上應(yīng)用系統(tǒng)的各個(gè)部分或不同的應(yīng)用,能夠達(dá)到資源共享、功能共享的目的。,方便第三方機(jī)構(gòu)對(duì)算法進(jìn)行審查。“可檢查性”原則還強(qiáng)調(diào),不僅要為有技術(shù)素養(yǎng)的利益相關(guān)方提供有關(guān)決策依據(jù)的核心信息,同時(shí)對(duì)非專(zhuān)業(yè)人士也要一視同仁。
總之,“可檢查性”原則希望設(shè)計(jì)者與人工智能系統(tǒng)的檢查機(jī)構(gòu)積極合作,不但要積極引導(dǎo)審核人員了解系統(tǒng)的基本技術(shù)邏輯,例如使用了哪些機(jī)器學(xué)習(xí)方法和數(shù)據(jù)庫(kù),而且還應(yīng)該進(jìn)行“反事實(shí)推理”,能夠利用各種典型和非典型場(chǎng)景對(duì)系統(tǒng)進(jìn)行測(cè)試①John Zerilli,et al,“Transparency in Algorithmic and Human Decision-making:Is There a Double Standard?”,Philosophy&Technology,2019,Vol.32,No.4,pp.661-683.。
2.“積極響應(yīng)”原則
“積極響應(yīng)”原則是指,愿意接受記者、社會(huì)組織、行政人員和普通公眾等利益相關(guān)方的咨詢(xún)和審查,要求系統(tǒng)設(shè)計(jì)人員在利益相關(guān)方有合理顧慮時(shí)可以隨時(shí)隨地進(jìn)行透明溝通,對(duì)利益相關(guān)方提出的“透明度”問(wèn)題作出有意義的、針對(duì)性的及時(shí)答復(fù)。例如,溝通媒介應(yīng)當(dāng)是電話(huà)號(hào)碼或電子郵件地址,而不只是機(jī)械的常見(jiàn)問(wèn)題回復(fù)或是聊勝于無(wú)的聊天機(jī)器人。
尤其是針對(duì)“媒體行業(yè)”的質(zhì)詢(xún),“積極響應(yīng)”原則強(qiáng)調(diào):只在“后臺(tái)”與記者秘密交談,避免嚴(yán)格審查的行為并不可取,而應(yīng)當(dāng)以公開(kāi)形式參與到匯報(bào)中,這種做法將是自主決策系統(tǒng)邁向更高“透明度”的第一步,進(jìn)而改善公司在公眾心目中的形象。
此外,“積極響應(yīng)”原則也適用于企業(yè)“透明度”表現(xiàn)不佳時(shí)的緊急預(yù)案,呈現(xiàn)出愿意遵守任何制裁條款的態(tài)度,進(jìn)行批判性的自我檢討并采取有意義的補(bǔ)救行動(dòng)。
3.“定期報(bào)告”原則
“定期報(bào)告”原則規(guī)定,人工智能系統(tǒng)的設(shè)計(jì)者應(yīng)該通過(guò)詳細(xì)的報(bào)告來(lái)確保設(shè)計(jì)活動(dòng)的“透明度”,主要途徑是定期發(fā)布報(bào)告、定期匯總關(guān)于人工智能系統(tǒng)準(zhǔn)確性的信息并進(jìn)行匯報(bào)等。例如,運(yùn)用司法算法設(shè)計(jì)刑事風(fēng)險(xiǎn)評(píng)估系統(tǒng)的設(shè)計(jì)者應(yīng)該定期公布算法的使用領(lǐng)域、決策數(shù)量以及決策結(jié)果,并輔助以其他的決策方法來(lái)校準(zhǔn)決策的質(zhì)量;在報(bào)告頻率方面,報(bào)告可以以信息的重要性和時(shí)效性為依據(jù),以不同的周期進(jìn)行公布;在報(bào)告形式方面,報(bào)告以受眾的需求和閱讀能力為依據(jù),可以采用傳統(tǒng)的文本文檔,也可以提供匯總信息的搜索平臺(tái),亦或者提供可供使用的原始數(shù)據(jù)API。
“透明度設(shè)計(jì)”從宏觀角度提供了具有包容性的框架設(shè)計(jì),并非可直接應(yīng)用于解決“透明度”具體問(wèn)題的技術(shù)工具。從這個(gè)意義上說(shuō),本文不能在技術(shù)層面提供更深層次原則需要的具體指示,但“透明度設(shè)計(jì)”模型的主要目的是提供一個(gè)具有包容性的框架,可以作為不同利益相關(guān)方的共同合作框架模型,促使“透明度設(shè)計(jì)”更好地融合到倫理實(shí)踐中去?!巴该鞫仍O(shè)計(jì)”模型對(duì)“透明度”的相關(guān)文獻(xiàn)進(jìn)行了跨學(xué)科融合,增強(qiáng)了模型的適用性,并得出了人工智能自主決策系統(tǒng)“透明度”所帶來(lái)的積極方面和嚴(yán)峻挑戰(zhàn)。
在積極作用方面,“透明度”有利于資源有效分配,增強(qiáng)行為者責(zé)任意識(shí)。信息視角下的“透明度”可以看作是消解信息不對(duì)稱(chēng)的一種方式,通過(guò)增加信息的公開(kāi)性實(shí)現(xiàn)信息的公共化,從而減少信息的不對(duì)稱(chēng)。因此,“公開(kāi)信息”可以作為一種追求平等的手段,確保信息雙方通過(guò)談判實(shí)現(xiàn)信息共享,使每個(gè)人都可以獲得關(guān)于決策流程以及組織內(nèi)部運(yùn)作的相關(guān)信息。美國(guó)斯坦福大學(xué)商學(xué)院教授凱瑟琳·艾森哈特(Kathleen Eisenhardt)認(rèn)為實(shí)現(xiàn)信息視角下“信息透明”的方法與“委托代理理論”一致,在“委托代理理論”中,委托人將某些任務(wù)委托給代理人時(shí),要求獲得代理方獲得的相關(guān)信息,以監(jiān)督代理人是否忠實(shí)履行了合同中規(guī)定的義務(wù),從而避免陷入逆向選擇或道德風(fēng)險(xiǎn)的窘境①Kathleen Eisenhardt,“Agency Theory:An Assessment and Review”,Academy of Management Review,1989,Vol.14,No.1,pp.57-74.。根據(jù)“信息透明”和“委托代理理論”來(lái)推導(dǎo),“透明度”也可以發(fā)揮促進(jìn)彼此信任、推行問(wèn)責(zé)機(jī)制、發(fā)揮自主能力和提高管理水平的積極作用。
盡管?chē)?guó)際多媒體技術(shù)大會(huì)“公平—問(wèn)責(zé)—透明”會(huì)議對(duì)“透明度”研究的前景很看好,但讓人工智能更加透明仍然存在兩個(gè)嚴(yán)峻挑戰(zhàn):一是底層技術(shù)的復(fù)雜性,二是隱私化數(shù)據(jù)利用問(wèn)題。
第一,底層技術(shù)的復(fù)雜性?,F(xiàn)代人工智能系統(tǒng)通常依賴(lài)于機(jī)器學(xué)習(xí),尤其是“人工神經(jīng)網(wǎng)絡(luò)”。隨著機(jī)器配置日新月異,訓(xùn)練數(shù)據(jù)與日俱增,即使對(duì)專(zhuān)家來(lái)說(shuō)這樣的系統(tǒng)也不可能一步一步地進(jìn)行追蹤。因此,預(yù)測(cè)更準(zhǔn)確的先進(jìn)系統(tǒng)也就變得越來(lái)越難解釋。在此基礎(chǔ)上,專(zhuān)家必須在準(zhǔn)確性和“可解釋性”之間進(jìn)行權(quán)衡,找到最合適的度。
第二,隱私化數(shù)據(jù)利用問(wèn)題。人工智能系統(tǒng)完全透明化勢(shì)必暴露敏感數(shù)據(jù)和私人數(shù)據(jù),這會(huì)引發(fā)兩個(gè)嚴(yán)重后果。首先,聚焦私人數(shù)據(jù)領(lǐng)域,在人工智能“無(wú)偏算法”需要更多樣化和更具代表性的訓(xùn)練數(shù)據(jù)集的背景下,以語(yǔ)音記錄、電子郵件、社交媒體帖子為代表的個(gè)人數(shù)據(jù)大量被用于訓(xùn)練機(jī)器學(xué)習(xí)算法,這導(dǎo)致了一個(gè)嚴(yán)峻的社會(huì)問(wèn)題:公布這些訓(xùn)練數(shù)據(jù)集可能會(huì)被不當(dāng)利用,尤其會(huì)使弱勢(shì)群體的處境雪上加霜。因此,透明度的提高必須與個(gè)人隱私權(quán)的保護(hù)相結(jié)合。其次,從市場(chǎng)競(jìng)爭(zhēng)的敏感數(shù)據(jù)角度來(lái)看,企業(yè)高層認(rèn)為,一味地提高公司人工智能系統(tǒng)的透明度會(huì)給居心叵測(cè)的用戶(hù)和惡意競(jìng)爭(zhēng)的對(duì)手以可乘之機(jī),便于這些行為者更有針對(duì)性地干預(yù)規(guī)則或破壞系統(tǒng)。
如上所述,邊際效益遞減的“透明度”提高反而會(huì)導(dǎo)致秩序混亂。最理想的“透明度”水平應(yīng)該是與每個(gè)主體期望的“透明度”水平相匹配的。
正如美國(guó)加利福尼亞大學(xué)伯克利分校信息學(xué)教授詹娜·伯勒爾(Jenna Burrell)研究認(rèn)為,人類(lèi)的互動(dòng)聯(lián)結(jié)和社會(huì)進(jìn)步發(fā)展越來(lái)越多地依賴(lài)人工智能系統(tǒng)這一“紐帶”,“透明度”的重要性已然不言而喻。由于不同的利益相關(guān)者有不同的“透明度”需求,制定一個(gè)廣泛適用的最佳方案是無(wú)稽之談。從這個(gè)角度來(lái)看,“透明度”倫理設(shè)計(jì)跳出單純的“信息透明度視角”,將狹義的價(jià)值取向如責(zé)任、公平、價(jià)值敏感性等進(jìn)行整合,以切實(shí)可行的方式幫助利益相關(guān)方提高“透明度”,并帶來(lái)“促進(jìn)彼此信任、推行問(wèn)責(zé)機(jī)制、發(fā)揮自主能力和提高管理水平”等利好結(jié)果。同時(shí)“透明度”倫理設(shè)計(jì)也意識(shí)到“透明度”的非靜態(tài)性,而是一個(gè)迭代過(guò)程。從理論層面而言,“透明度”倫理設(shè)計(jì)從一開(kāi)始就將不同利益相關(guān)方的訴求納入設(shè)計(jì)模型之中,并予以公平對(duì)待;從實(shí)踐層面而言,“透明度”倫理設(shè)計(jì)最大程度地保留了在未來(lái)的適用性,并在實(shí)踐中檢驗(yàn)這些原則的借鑒價(jià)值。隨著時(shí)間的推移,它一方面可以進(jìn)一步發(fā)揮前瞻性,細(xì)化為更具體的行動(dòng)指南;另一方面可以發(fā)揮批判性,通過(guò)實(shí)踐反饋來(lái)調(diào)整原則并鞏固其適用性。人工智能自主決策系統(tǒng)的“透明度”倫理設(shè)計(jì)的研究對(duì)促進(jìn)“透明度”走向?qū)嵺`具有重要借鑒意義。
科學(xué)經(jīng)濟(jì)社會(huì)2022年4期