謝永江,楊永興
(北京郵電大學(xué) 互聯(lián)網(wǎng)治理與法律研究中心,北京 100876)
作為信息技術(shù)領(lǐng)域的開創(chuàng)性技術(shù),人工智能對人類社會(huì)的發(fā)展與變遷產(chǎn)生了深遠(yuǎn)的影響。算法、算力、數(shù)據(jù)共同構(gòu)筑人工智能的底層邏輯。其中,以算法和大數(shù)據(jù)驅(qū)動(dòng)的算法自動(dòng)化決策正悄無聲息滲透政治、經(jīng)濟(jì)、社會(huì)等領(lǐng)域的各層面,這種算法決策在信息推送、招聘、警務(wù)、電商等方面的廣泛應(yīng)用正逐步取代長期以來由人類決策或者組織的工作[1]。人類社會(huì)儼然陷入算法社會(huì)的泥潭之中[2]。在理想狀態(tài)下,鑒于人工智能的技術(shù)中立原則,算法的自動(dòng)化決策不僅效率更高,還具有相對客觀、獨(dú)立、公正的優(yōu)勢。但在算法的具體應(yīng)用之中,算法開發(fā)者內(nèi)隱偏見于算法、數(shù)據(jù)偏差、算法黑箱等因素中,導(dǎo)致算法自動(dòng)化形成的決策帶有濃厚的歧視性色彩。除了擔(dān)憂“大數(shù)據(jù)殺熟”等消費(fèi)者權(quán)益被侵害的問題,更讓人們惴惴不安的是透明度缺乏、監(jiān)管失位的算法決策可能使社會(huì)陷入算法和數(shù)據(jù)濫用的泥沼之中。算法歧視帶來的嚴(yán)重后果已引起不少國家的關(guān)注。本文擬對人工智能時(shí)代下的算法歧視及其治理進(jìn)行探討,以期對我國算法歧視治理制度的完善提出建議。
目前,不同學(xué)者對算法歧視的認(rèn)知不一。理清算法歧視之定義需要從算法與歧視兩個(gè)概念著手。
算法作為一項(xiàng)新興的數(shù)字技術(shù),已被廣泛應(yīng)用于自然科學(xué)領(lǐng)域,其主要是為解決某特定問題而采取的明確的操作方法[3]。在人工智能時(shí)代,算法與機(jī)器學(xué)習(xí)密切相關(guān),以大數(shù)據(jù)為節(jié)點(diǎn),可將算法分為兩類:一為半自主式學(xué)習(xí)算法,即使用人類定義的模型分析數(shù)據(jù)的算法;二為自主式學(xué)習(xí)算法,即機(jī)器自動(dòng)抓取數(shù)據(jù)并生成和選擇模型的算法[4]。半自主式學(xué)習(xí)算法可以理解為在人類定義的算法下,機(jī)器對數(shù)據(jù)進(jìn)行理解。人輸入什么數(shù)據(jù),機(jī)器就會(huì)按照既定模型輸出相應(yīng)結(jié)果。因此,如果輸入歧視性數(shù)據(jù),那么所得結(jié)果將不可避免地帶有歧視性色彩。而自主式學(xué)習(xí)算法是指機(jī)器自動(dòng)抓取數(shù)據(jù)并進(jìn)行自我分析建模[5]的行為,那么基于技術(shù)受限等原因?qū)е聶C(jī)器抓取的數(shù)據(jù)有偏差時(shí),同樣會(huì)導(dǎo)致算法歧視。
不同學(xué)科對歧視有不同的定義。(1)從語義學(xué)角度來看,歧視是指個(gè)人或者群體對其他個(gè)人或者群體的某些特點(diǎn)諸如性別、疾病、缺陷等又以不平等的眼光看待[6]。(2)從經(jīng)濟(jì)學(xué)角度來看,歧視是指基于偏好選擇與信息不對稱而做出的為滿足特定個(gè)體利益最大化的區(qū)別對待[7]。(3)從法學(xué)的角度來看,平等與非歧視構(gòu)成國際人權(quán)法的核心。在國際人權(quán)法上,構(gòu)成歧視需滿足三個(gè)要件:第一,實(shí)施差別待遇;第二,該差別待遇造成不良后果;第三,實(shí)施差別待遇的理由違法[8]。雖然我國現(xiàn)行《中華人民共和國憲法》《中華人民共和國勞動(dòng)法》《中華人民共和國婦女權(quán)益保障法》等法律明確規(guī)定了禁止歧視條款,但未能清晰界定何為歧視。目前通說認(rèn)為,歧視是指沒有合理的依據(jù)而實(shí)施區(qū)別對待的行為。
綜合上述算法與歧視概念,筆者認(rèn)為,算法歧視是由不完全或不合理的數(shù)據(jù)分析所導(dǎo)致的對特定群體或個(gè)人實(shí)施的不公正待遇。
2015年7月,黑人程序員杰基·阿爾辛發(fā)現(xiàn)自己與黑人異性朋友的合照被谷歌圖像標(biāo)記為“大猩猩”[9]。該事件發(fā)生后,谷歌僅將“大猩猩”相關(guān)標(biāo)簽除去,并未就為何谷歌圖像會(huì)將黑人照片識(shí)別認(rèn)定為“大猩猩”這一行為做出解釋,時(shí)至今日該問題仍未解決。研究表明,在谷歌上搜索“白人女孩”(Caucasian girls),得到的是相對正常的信息,而搜索“亞洲女孩”(Asian girls)或者“黑人女孩”(black girls),智能推薦算法推薦的往往是關(guān)于“約會(huì)”“色情”等方面的信息。與此類似,人工智能算法也被廣泛應(yīng)用于司法實(shí)踐中。美國警察局在“預(yù)測警務(wù)”項(xiàng)目中,引入智能算法分析。在目標(biāo)犯罪應(yīng)呈平均分布的情況下,以大約兩倍于白人社區(qū)的規(guī)模向黑人社區(qū)調(diào)配警力[10]。上述種種現(xiàn)象表明,智能時(shí)代運(yùn)用算法進(jìn)行種族歧視已不是簡單的個(gè)例現(xiàn)象。而在國際公約方面,《消除一切形式種族歧視國際公約》《公民權(quán)利和政治權(quán)利國際公約》《經(jīng)濟(jì)、社會(huì)及文化權(quán)利國際公約》等均將對特定種族實(shí)施差別待遇的歧視行為認(rèn)定為侵犯人權(quán)的行為[11]。
人工智能技術(shù)的變遷促進(jìn)了電商產(chǎn)業(yè)的蓬勃發(fā)展。受逐利思想的驅(qū)使,電商經(jīng)營者將算法的效用發(fā)揮到了極致,導(dǎo)致被人詬病的“大數(shù)據(jù)殺熟”問題。大數(shù)據(jù)殺熟即電商經(jīng)營者通過算法程序,對平臺(tái)內(nèi)消費(fèi)者的數(shù)據(jù)進(jìn)行搜集、匯總、分析并對其進(jìn)行精準(zhǔn)畫像,得到消費(fèi)者最大支付意愿信息,進(jìn)而實(shí)行千人千價(jià)[12]。2020年12月,美團(tuán)被爆涉嫌利用大數(shù)據(jù)殺熟。有網(wǎng)友稱通過美團(tuán)購物時(shí)發(fā)現(xiàn)配送地點(diǎn)相同的外賣,使用會(huì)員賬號登錄的配送費(fèi)是6元,而使用非會(huì)員賬號登錄的配送費(fèi)卻是2元[13]。就一般意義而言,老客戶原本會(huì)獲得新顧客享受不到的優(yōu)惠,然而有報(bào)道稱價(jià)值300元的酒店房間,老客戶在APP上卻要花費(fèi)380元[14]。這種差異化定價(jià)使消費(fèi)者在同等質(zhì)量和數(shù)量的產(chǎn)品交易中并未獲得公正的待遇,是對消費(fèi)者公平交易權(quán)的侵害。除此之外,消費(fèi)者在電商平臺(tái)瀏覽過相關(guān)商品之后,打開其他APP時(shí)也會(huì)收到相關(guān)商品的廣告推送,這實(shí)際上是平臺(tái)利用算法將搜集到的用戶數(shù)據(jù)在不同平臺(tái)之間進(jìn)行共享,借此進(jìn)行相關(guān)推送,損害用戶的隱私權(quán)。
谷歌公司開發(fā)出一款名為PageRank的算法。與淘寶類似,該算法根據(jù)賣家的信譽(yù)度、銷量等因素對平臺(tái)商品進(jìn)行賦權(quán),對產(chǎn)品從高到低進(jìn)行排序,從而對網(wǎng)頁進(jìn)行篩選[15]。權(quán)重大的網(wǎng)頁得到靠前推送的機(jī)會(huì),權(quán)重低的網(wǎng)頁自然排序在后。Google Shopping服務(wù)進(jìn)入歐洲市場后,將自己的商品業(yè)務(wù)排除在PageRank算法的審核范圍外,并且將自己旗下的商品信息置于搜索頁面頂部。谷歌這種濫用市場支配地位,利用算法進(jìn)行流量阻截以達(dá)排除、限制競爭效果的做法,已然構(gòu)成對其他經(jīng)營者競爭性利益的侵害。
Datta等[16]研究了求職者性別與廣告推送的關(guān)系。研究發(fā)現(xiàn),谷歌推送給男性求職者高薪職位的次數(shù)要遠(yuǎn)高于女性求職者。2019年,聯(lián)合國教科文組織發(fā)布的建議書《如果我能,我會(huì)臉紅》指出,性別歧視隱藏在亞馬遜語音助手Alexa、蘋果語音助手Siri等多數(shù)AI語音助手中,而且這些語音助手都被算法設(shè)計(jì)為千篇一律、謙卑恭順的女性形象[17]。除此之外,Zhao等[18]研究發(fā)現(xiàn),男性照片被識(shí)別為女性的原因是照片中的人物在忙家務(wù)。
前文所述的種種算法歧視,也間接產(chǎn)生了諸多不利后果。首先,算法歧視加劇了數(shù)字鴻溝。作為人工智能時(shí)代的特有產(chǎn)物,算法歧視將特定群體排除在人際交往之外,當(dāng)這些群體在數(shù)字信息供給能力、獲取能力、應(yīng)用能力上分別或均處于缺乏狀態(tài)時(shí),他們會(huì)陷入數(shù)字貧困狀態(tài)[19],繼而進(jìn)一步擴(kuò)大社會(huì)貧富差距,加深既有偏見。其次,算法歧視不利于人工智能產(chǎn)業(yè)的長遠(yuǎn)發(fā)展。人工智能的健康發(fā)展有賴于人機(jī)關(guān)系的相互信任,而算法歧視將會(huì)破壞這種信任關(guān)系。
歧視并非算法社會(huì)的專利。作為人類社會(huì)的附屬品,早在人工智能誕生之前,歧視現(xiàn)象就已廣泛存在于人類社會(huì)[20]。步入算法社會(huì)之后,算法開發(fā)者的內(nèi)隱偏見嵌于算法、數(shù)據(jù)偏差、算法黑箱中,為歧視持續(xù)注入生成動(dòng)力。
內(nèi)隱偏見是在信息匱乏、主體經(jīng)驗(yàn)以及慣性思維等因素影響下,形成的可自動(dòng)表達(dá)的對他人或者群體的片面的看法[21]。誠如一萬個(gè)人眼里有一萬個(gè)蒙娜麗莎,受所受的職業(yè)教育、所處的家庭背景等影響,算法工程師對同一事物形成的印象存在差異,基于個(gè)人主觀的看法不可避免存有片面性。而出于維持積極的自我認(rèn)同及維護(hù)尊嚴(yán)的需要,算法工程師傾向于將貶義的刻板印象賦予外群[22]。然偏見與歧視不可同日而語,內(nèi)隱偏見需要以一定的方式外化方可構(gòu)成歧視。如果算法工程師在進(jìn)行算法的編寫過程中將自己的內(nèi)隱偏見以代碼形式嵌于算法中,勢必會(huì)造成嚴(yán)重的算法歧視問題。無論是算法引發(fā)的種族歧視還是就業(yè)歧視,歸根結(jié)底都是人類思想所主導(dǎo)的算法歧視,而不是算法技術(shù)所帶來的必然后果[23]。
數(shù)據(jù)偏差是算法歧視產(chǎn)生的另一途徑。有學(xué)者稱算法是機(jī)器學(xué)習(xí)的結(jié)果,而機(jī)器的學(xué)習(xí)遠(yuǎn)不能離開對數(shù)據(jù)的搜集,故數(shù)據(jù)偏差同樣會(huì)引起算法歧視。
在大數(shù)據(jù)時(shí)代,數(shù)據(jù)通過被動(dòng)、主動(dòng)、自動(dòng)三種途徑產(chǎn)生[24],每個(gè)人都可能成為數(shù)據(jù)的生產(chǎn)者。根據(jù)艾媒數(shù)據(jù)中心《2020年中國主要網(wǎng)絡(luò)直播平臺(tái)用戶年齡分布》,以嗶哩嗶哩視頻網(wǎng)站為例,18歲以下用戶占比25.1%,19~24歲占比56.4%,25~30歲占比4.9%,31~35歲占比2.3%,46歲以上占比4.7%[25]。據(jù)此可知,觀看直播的用戶主要為青少年,老年人較少。當(dāng)這些直播電商平臺(tái)利用算法搜集這些用戶生成的數(shù)據(jù)自動(dòng)化決策時(shí),即使算法設(shè)計(jì)極具公正性,由于所選取的樣本數(shù)據(jù)分配不均,也會(huì)出現(xiàn)自動(dòng)化形成的決策對老年不公的現(xiàn)象。
此外,對于自主學(xué)習(xí)算法而言,人類開發(fā)機(jī)器學(xué)習(xí)算法是為了通過對數(shù)據(jù)的搜集與學(xué)習(xí),提高機(jī)器在學(xué)習(xí)過程中輸出結(jié)論的準(zhǔn)確性與高效性。但目前市面上一些機(jī)器學(xué)習(xí)算法并不具備信息甄別與過濾功能[23]66,導(dǎo)致機(jī)器學(xué)習(xí)算法將帶有歧視性數(shù)據(jù)也搜集起來,進(jìn)而產(chǎn)生“偏見進(jìn)、偏見出”的現(xiàn)象。意即其能解決提高效率問題,卻不能避免歷史數(shù)據(jù)本身造成的缺陷[26]。
黑箱理論源于控制論,是指在人類對系統(tǒng)開展研究時(shí),不針對系統(tǒng),而僅僅依據(jù)輸入和輸出結(jié)論分析相關(guān)規(guī)律,即人類把系統(tǒng)作為一個(gè)看不透的黑色箱子,該系統(tǒng)為人不知、不能打開也不能從外部查知[27]。在信息技術(shù)領(lǐng)域,黑箱是指當(dāng)技術(shù)專業(yè)人員對計(jì)算系統(tǒng)進(jìn)行理解或測試時(shí),他們不知道且不能查看系統(tǒng)的內(nèi)部運(yùn)轉(zhuǎn)情況[28]。因此,從這個(gè)意義上來說,算法黑箱是指算法運(yùn)行過程中出現(xiàn)的復(fù)雜且專業(yè)性極強(qiáng)的環(huán)節(jié),而部分人對此環(huán)節(jié)也無法得到解釋。諸多企業(yè)將算法作為商業(yè)秘密進(jìn)行保護(hù),用戶不能知悉算法運(yùn)行的工作原理,由此推動(dòng)算法黑箱的形成。當(dāng)用戶僅知悉算法結(jié)果,而對初始數(shù)據(jù)的搜集、自動(dòng)化決策的算法運(yùn)行規(guī)則并不知情時(shí),此種嚴(yán)重的信息不對稱現(xiàn)象會(huì)導(dǎo)致算法歧視更加隱蔽而不易被查知。
如前文所述,算法歧視帶來了諸多不利后果。為了充分保護(hù)公民權(quán)益,促進(jìn)人工智能產(chǎn)業(yè)健康發(fā)展,亟需對其規(guī)制。數(shù)據(jù)和算法為人工智能的兩大核心,針對算法歧視的規(guī)制,歐盟形成了個(gè)人數(shù)據(jù)賦權(quán)的嚴(yán)格保護(hù)模式,美國形成了以算法問責(zé)為中心的模式,而日本建立匿名加工信息制度以對抗數(shù)據(jù)的濫用。
1953年,《歐洲人權(quán)公約》對個(gè)人數(shù)據(jù)的保護(hù)做出規(guī)定,其中第8條規(guī)定“人人有權(quán)享有使自己的私人和家庭生活、住所和通信得到尊重的權(quán)利”,這一條款后經(jīng)歐洲人權(quán)法院解釋將個(gè)人數(shù)據(jù)納入隱私權(quán)的保護(hù)范圍[29]。隨著大數(shù)據(jù)的發(fā)展,傳統(tǒng)隱私權(quán)保護(hù)路徑已然不能應(yīng)對數(shù)據(jù)濫用對公民個(gè)人數(shù)據(jù)保護(hù)的沖擊。直到2000年,作為一種新興的權(quán)利,個(gè)人數(shù)據(jù)保護(hù)權(quán)才被寫入《歐盟基本權(quán)利憲章》,但其僅僅是原則性規(guī)定,此時(shí)個(gè)人數(shù)據(jù)保護(hù)權(quán)仍未與隱私權(quán)相分離。直到2018年5月25日,歐盟的《一般數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,GDPR)才徹底將個(gè)人數(shù)據(jù)保護(hù)權(quán)與隱私權(quán)相剝離。
GDPR在前言部分對算法歧視概念做出相應(yīng)界定,并后續(xù)規(guī)定了一系列規(guī)制算法歧視的方法。GDPR規(guī)定“數(shù)據(jù)控制者應(yīng)當(dāng)采用合適的數(shù)學(xué)或統(tǒng)計(jì)程序進(jìn)行數(shù)據(jù)畫像活動(dòng),確保個(gè)人數(shù)據(jù)安全,防止因?yàn)榉N族、政治主張或者性取向等原因?qū)ψ匀蝗嗽斐善缫曈绊憽盵4]67?;诖?,有學(xué)者將歐盟GDPR規(guī)制算法歧視的基本原則稱為“數(shù)據(jù)清潔”,具體規(guī)定見GDPR第9條,“揭露種族、宗教信仰等資格,及出于識(shí)別自然人身份目的,處理基因數(shù)據(jù)、或與自然人的健康、性生活等個(gè)人數(shù)據(jù)相關(guān)的個(gè)人數(shù)據(jù)處理活動(dòng)應(yīng)被禁止”[4]67。此外,GDPR賦予數(shù)據(jù)主體訪問權(quán)、刪除權(quán)、可攜權(quán)、被遺忘權(quán)、算法解釋權(quán)等權(quán)利,試圖以個(gè)人權(quán)利限制算法權(quán)力的擴(kuò)張進(jìn)而達(dá)到對算法歧視的抑制效果。
為了更好地貫徹落實(shí)GDPR,歐盟通過了《關(guān)于自動(dòng)化個(gè)人決策目的和識(shí)別分析目的準(zhǔn)則》(GuidelinesonAutomatedIndividualDecision-MakingandProfilingforthePurposesofRegulation2016/679),其在附錄一的“良好實(shí)踐經(jīng)驗(yàn)”中針對GDPR第22條的“適當(dāng)安全保障措施”提出了算法審計(jì),即“數(shù)據(jù)控制者應(yīng)檢測使用的和機(jī)器學(xué)習(xí)發(fā)展出的算法,以證明其是在按照實(shí)際運(yùn)行,并且沒有產(chǎn)生歧視性的、錯(cuò)誤的或不合理的結(jié)果”(1)參見Guidelines on Automated Individual Decision-Making and Profiling for the Purposes of Regulation 2016/679:ANNEX 1-Good practice recommendations。在此需厘定的是該條款僅僅是對自動(dòng)化決策的特殊規(guī)定,即對GDPR第22條規(guī)定的應(yīng)當(dāng)采取的安全保障措施做出的闡釋,未脫離GDPR的個(gè)人數(shù)據(jù)賦權(quán)模式的范式分析。
1986年,美國《電子記錄系統(tǒng)和個(gè)人隱私》已充分意識(shí)到治理算法歧視的必要性,其明確指出政府部門畫像的使用引起了算法歧視等重要的隱私和憲法問題,但當(dāng)時(shí)并未有任何針對此種問題的立法。1974年通過的《平等信用機(jī)會(huì)法》已包含禁止算法歧視的相關(guān)內(nèi)容。該法規(guī)定,“在信貸交易方面,因種族、國籍、性取向等的差異而歧視相應(yīng)信貸者即為非法”[30]。然而在相當(dāng)長一段時(shí)間內(nèi),美國針對算法歧視的治理立法一直停滯不前。2014年,美國白宮發(fā)布《大數(shù)據(jù):抓住機(jī)遇,堅(jiān)守價(jià)值》報(bào)告。報(bào)告稱,受數(shù)據(jù)偏差、算法設(shè)計(jì)者主觀影響,算法自動(dòng)化決策往往會(huì)對特定人群帶來歧視損害,建議政府采取行動(dòng)應(yīng)對算法歧視[31]。2017年8月,紐約州率先通過算法問責(zé)法案,緊接著2019年華盛頓州亦通過相關(guān)的問責(zé)法案。2019年4月,美國國會(huì)引入《2019算法問責(zé)法案》,該法案的第一部分旨在規(guī)制算法黑箱中的歧視,具體路徑即授權(quán)美國聯(lián)邦貿(mào)易委員會(huì)要求受監(jiān)管的企業(yè)自行審查算法歧視[4]69。2022年2月,美國幾個(gè)民主黨參議員推出《2022年算法問責(zé)法案》,該法案為《2019年算法問責(zé)法案》的更新版本。該法案要求科技企業(yè)在運(yùn)用自動(dòng)化決策系統(tǒng)做出關(guān)鍵決策時(shí),對歧視性、有效性和相關(guān)因素進(jìn)行自我審查。此外,該法案另規(guī)定聯(lián)邦貿(mào)易委員會(huì)開發(fā)一個(gè)自動(dòng)化決策系統(tǒng)的公共存儲(chǔ)庫,里面包括自動(dòng)化決策系統(tǒng)的源數(shù)據(jù)、參數(shù)以及對算法自動(dòng)化決策提出質(zhì)疑的記錄,并建議聯(lián)邦貿(mào)易委員會(huì)增加工作人員,成立一個(gè)專門的技術(shù)局來執(zhí)行該項(xiàng)立法。由此可見,美國針對算法歧視選擇了以問責(zé)為中心的規(guī)制路徑,成立專門的監(jiān)管機(jī)構(gòu)對被監(jiān)管的企業(yè)具有審查追責(zé)的權(quán)力。雖然對算法進(jìn)行問責(zé)尚未在美國全域展開,但美國的做法可為世界各國治理算法歧視提供寶貴的經(jīng)驗(yàn)。
日本《個(gè)人信息保護(hù)法》并非以歐盟對個(gè)人數(shù)據(jù)賦權(quán)的路徑對個(gè)人數(shù)據(jù)提供保護(hù),而是在賦予數(shù)據(jù)某種公共物品的屬性以促進(jìn)數(shù)據(jù)資源流通時(shí),建立“匿名加工信息”制度以兼顧保護(hù)與開發(fā)二者之間的關(guān)系。雖然對于匿名加工信息的使用不需經(jīng)過相關(guān)主體的同意,但為了避免相關(guān)信息被用以實(shí)施歧視性算法決策,日本對數(shù)據(jù)控制者科以嚴(yán)格的法定義務(wù):第一,妥善加工義務(wù),如刪除可識(shí)別特定自然人的特征信息;第二,安全管理義務(wù),如防止匿名加工的相關(guān)信息泄露;第三,公示義務(wù),如經(jīng)營者應(yīng)當(dāng)將擬實(shí)施的匿名加工信息或者將此等信息提供給他人的情況予以公示通知;第四,禁止識(shí)別義務(wù),即禁止反向清洗匿名信息—利用匿名加工所得信息實(shí)施識(shí)別特定自然人的行為[32]。
綜上所述,歐盟、美國、日本分別基于各自的背景形成了各具特色的算法歧視規(guī)制模式。歐盟的“數(shù)據(jù)清潔”雖然可以防止基于種族、性別、健康信息等因素實(shí)施的直接歧視,但是其在面對算法基于關(guān)聯(lián)數(shù)據(jù)實(shí)施的間接歧視行為面前則顯得成效不足。日本的“匿名加工信息”制度與歐盟“數(shù)據(jù)清潔”模式有異曲同工之處,但日本對數(shù)據(jù)控制者科以嚴(yán)格的法定義務(wù),在一定程度上可緩解基于關(guān)聯(lián)數(shù)據(jù)實(shí)施的算法歧視行為。美國《2022年算法問責(zé)法案》規(guī)定的算法審查問責(zé)制度可以較好地解決基于直接數(shù)據(jù)及關(guān)聯(lián)數(shù)據(jù)實(shí)施的歧視行為,但該模式不可避免地使公民在算法運(yùn)用中處于被動(dòng)的地位。
當(dāng)下,我國人工智能產(chǎn)業(yè)尚處于新生階段。規(guī)制算法歧視,除了參考借鑒域外模式,更重要的是立足于我國的基本國情,結(jié)合歐、美、日算法歧視治理的范式,形成算法治理多元規(guī)制的中國模式。
1.賦予數(shù)據(jù)主體算法解釋權(quán)
抑制算法歧視首先應(yīng)賦予數(shù)據(jù)主體算法解釋權(quán)。由于算法黑箱的存在,算法平臺(tái)與用戶之間存在嚴(yán)重的數(shù)據(jù)差,為算法歧視注入生成動(dòng)力。為了破解算法黑箱給用戶帶來的歧視性問題,應(yīng)當(dāng)肯定數(shù)據(jù)主體的權(quán)利:當(dāng)數(shù)據(jù)主體認(rèn)為算法決策與自己的預(yù)期存有偏差且該決策關(guān)涉自身合法權(quán)益時(shí),要求對算法的工作原理進(jìn)行解釋的權(quán)利。姜野等[33]認(rèn)為,算法解釋權(quán)不僅使用戶擁有知悉算法真相的權(quán)利,而且當(dāng)算法存在不合理或數(shù)據(jù)偏差時(shí)民眾有救濟(jì)的權(quán)利。雖然我國《中華人民共和國個(gè)人信息保護(hù)法》第24條涉及算法解釋權(quán),但其規(guī)定過于模糊,適用起來較為困難。因此,賦予數(shù)據(jù)主體算法解釋權(quán)需要明確其具體內(nèi)容:算法解釋權(quán)的權(quán)利主體應(yīng)為自然人;義務(wù)主體應(yīng)為算法開發(fā)者與算法應(yīng)用者;權(quán)利內(nèi)容為要求對不涉及商業(yè)秘密的算法運(yùn)行原理進(jìn)行公開解釋。在人工智能時(shí)代,算法對于互聯(lián)網(wǎng)企業(yè)來說極具商業(yè)價(jià)值。為了避免不法行為人濫用算法解釋權(quán)而侵害他人的商業(yè)秘密,有必要對算法解釋權(quán)進(jìn)行一定的限制,即對于涉及企業(yè)商業(yè)秘密的核心算法代碼,權(quán)利主體不能要求義務(wù)主體公開,否則既違反了公平原則,也容易滋生不正當(dāng)競爭行為。
2.建構(gòu)算法審查制度
規(guī)制算法歧視,更重要的是建構(gòu)算法審查制度。美國在公布《2019年算法問責(zé)法案》之前,學(xué)界主張推動(dòng)算法透明化以應(yīng)對算法歧視行為。我國《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》的第十三條(2)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》第十三條規(guī)定:推動(dòng)算法公開透明。規(guī)范企業(yè)算法應(yīng)用行為,保護(hù)網(wǎng)民合理權(quán)益,秉持公平、公正原則,促進(jìn)算法公開透明。及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第十二條亦規(guī)定推動(dòng)算法透明(3)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第十二條規(guī)定:鼓勵(lì)算法推薦服務(wù)提供者綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛。。筆者不太認(rèn)同此做法。根據(jù)2020年頒布的《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》的司法解釋(4)《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》第一條規(guī)定:與技術(shù)有關(guān)的結(jié)構(gòu)、原料、組分、配方、材料、樣品、樣式、植物新品種繁殖材料、工藝、方法或其步驟、算法、數(shù)據(jù)、計(jì)算機(jī)程序及其有關(guān)文檔等信息,人民法院可以認(rèn)定構(gòu)成反不正當(dāng)競爭法第九條第四款所稱的技術(shù)信息。,算法、數(shù)據(jù)被認(rèn)定為商業(yè)秘密。算法對于平臺(tái)來說極具商業(yè)價(jià)值,如果強(qiáng)行要求企業(yè)公開算法,不僅會(huì)侵犯企業(yè)的商業(yè)秘密,還會(huì)滋生不正當(dāng)競爭行為。構(gòu)建算法審查制度將知悉算法的主體限定在一定范圍之內(nèi),可以緩解商業(yè)秘密保護(hù)和用戶知情權(quán)之間的矛盾。為此,美國《2022年算法問責(zé)法案》規(guī)定企業(yè)應(yīng)自行對算法進(jìn)行審核并報(bào)告給聯(lián)邦貿(mào)易委員會(huì)。歐盟在《關(guān)于自動(dòng)化個(gè)人決策目的和識(shí)別分析目的準(zhǔn)則》中亦提出數(shù)據(jù)控制者要進(jìn)行算法審計(jì)的實(shí)踐建議。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》也規(guī)定算法推薦服務(wù)提供商應(yīng)自我定期審查。筆者認(rèn)為,受逐利思想的驅(qū)使,企業(yè)的自我審核對規(guī)制算法歧視恐怕難以起到良好的效果。
因此,構(gòu)建完善的算法審查制度應(yīng)包括三個(gè)方面:第一,企業(yè)的自我審查;第二,行業(yè)協(xié)會(huì)的自律審查;第三,行政機(jī)關(guān)的監(jiān)督審查。首先,就企業(yè)的自我審查而言,其在開發(fā)應(yīng)用新的算法之前,應(yīng)主動(dòng)審查該算法是否會(huì)造成歧視以及數(shù)據(jù)有無偏差,并將該審查報(bào)告向行政機(jī)關(guān)進(jìn)行備案。其次,對于互聯(lián)網(wǎng)相關(guān)行業(yè)協(xié)會(huì)而言,應(yīng)制定該協(xié)會(huì)算法審查的相關(guān)規(guī)則,可以將通過行業(yè)協(xié)會(huì)算法審查作為協(xié)會(huì)的準(zhǔn)入門檻。最后,對于行政審查而言,應(yīng)由行政人員、算法技術(shù)人員、法律工作者、消費(fèi)者等人員共同組建行政主導(dǎo)的算法審查委員會(huì),不定期對市場運(yùn)行算法進(jìn)行審查,并將算法審查結(jié)果納入企業(yè)信用系統(tǒng)[34]。
3.進(jìn)行算法問責(zé)
對算法進(jìn)行問責(zé),即通過問責(zé)制,將由高交易成本造成的外部性內(nèi)部化[35]。一方面,當(dāng)用戶因算法不公受到傷害時(shí),應(yīng)鼓勵(lì)用戶通過行使訴權(quán)的方式向法院提起訴訟進(jìn)行救濟(jì);另一方面,通過對算法平臺(tái)進(jìn)行追責(zé),對其科以賠償責(zé)任以彌補(bǔ)算法用戶受到的傷害。而當(dāng)下,我國《中華人民共和國憲法》《中華人民共和國婦女權(quán)益保障法》等僅以宣示性條款禁止各種歧視,對算法歧視規(guī)制缺乏實(shí)際可操作性與可訴性。為了切實(shí)維護(hù)公民的合法權(quán)益,可以將公益訴訟制度引入算法歧視的規(guī)制體系中,即賦予檢察院或者其他行政主體或組織在特定群體因算法歧視遭受侵害時(shí)向人民法院提起公益訴訟的權(quán)利。
此外,在對算法進(jìn)行追責(zé)時(shí),雖然我國《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》指出企業(yè)應(yīng)對算法應(yīng)用的后果承擔(dān)責(zé)任,但是此條款缺乏配套性措施,故需要明確算法歧視的責(zé)任主體、算法歧視行為與損害之間的因果關(guān)系、歸責(zé)原則以及責(zé)任方式。首先,就算法歧視的責(zé)任主體而言,雖然歧視由算法造成,但是仍應(yīng)由人來承擔(dān)算法責(zé)任,即由算法開發(fā)者與算法使用者承擔(dān)責(zé)任。至于算法開發(fā)者與算法使用者應(yīng)當(dāng)承擔(dān)何種責(zé)任,則需要根據(jù)算法具體的應(yīng)用場景不同而做出不同的規(guī)定。其次,針對算法歧視行為與造成損害之間的因果關(guān)系判斷,應(yīng)采取相當(dāng)因果關(guān)系的認(rèn)定標(biāo)準(zhǔn)[36]。再次,就算法歧視的歸責(zé)原則而言,由于人機(jī)之間關(guān)系的不對等使算法用戶處于一種弱勢地位,應(yīng)采取無過錯(cuò)責(zé)任原則。但是,為了平衡公民權(quán)益保護(hù)與人工智能產(chǎn)業(yè)發(fā)展之間的矛盾,應(yīng)肯定算法責(zé)任主體存有免責(zé)事由。從這個(gè)角度來說,《中華人民共和國產(chǎn)品質(zhì)量法》提供了值得借鑒的思路:如在算法設(shè)計(jì)之時(shí),算法經(jīng)過多方主體審核認(rèn)證不存在偏見,而歧視現(xiàn)象在現(xiàn)有科技水平下不能發(fā)現(xiàn)的,那么算法開發(fā)者與算法運(yùn)用者應(yīng)當(dāng)獲得免責(zé)事由。最后,針對算法歧視的責(zé)任,需要根據(jù)歧視的具體場景決定責(zé)任主體的責(zé)任方式,包括但不限于民事責(zé)任、行政責(zé)任甚至刑事責(zé)任。
算法歧視是算法技術(shù)濫用所導(dǎo)致的不良后果,因此,利用技術(shù)手段規(guī)制算法歧視是另一重要的途徑。技術(shù)規(guī)制不僅是一種理論,也具有具體實(shí)踐的基礎(chǔ)。歐盟GDPR在“控制者責(zé)任”部分要求數(shù)據(jù)控制者應(yīng)采取適當(dāng)?shù)募夹g(shù)措施以決定處理方式[37]。就技術(shù)規(guī)制而言,首先,應(yīng)擴(kuò)大算法數(shù)據(jù)采集維度以應(yīng)對數(shù)據(jù)偏差問題,利用技術(shù)從源頭擴(kuò)充數(shù)據(jù)的可選擇范圍,擴(kuò)充數(shù)據(jù)搜集維度[5]48。其次,應(yīng)推動(dòng)開發(fā)具有反歧視意識(shí)的數(shù)據(jù)挖掘技術(shù)。再次,利用技術(shù)手段提高算法運(yùn)行過程的透明度,避免算法黑箱的產(chǎn)生。最后,算法開發(fā)者在研發(fā)算法產(chǎn)品時(shí)應(yīng)對相關(guān)算法應(yīng)用類型涉及的數(shù)據(jù)安全、個(gè)人信息保護(hù)、消費(fèi)者權(quán)益保護(hù)、反壟斷等要求進(jìn)行全面考量,并根據(jù)現(xiàn)行法律法規(guī)要求進(jìn)行算法開發(fā)設(shè)計(jì)。鑒于算法工程師對法律要求的理解可能不符合法律的本意,則需要法律工作者與算法工程師通力合作開發(fā)出符合法律要求的算法技術(shù)。
羅爾斯[38]認(rèn)為,社會(huì)公正是一個(gè)社會(huì)制度的首要價(jià)值,而公正亦是當(dāng)下中國人民努力追求的崇高價(jià)值之一。黨的十八大報(bào)告提出“倡導(dǎo)富強(qiáng)、民主、文明、和諧,倡導(dǎo)自由、平等、公正、法治,倡導(dǎo)愛國、敬業(yè)、誠信、友善,積極培育和踐行社會(huì)主義核心價(jià)值觀”[39]。規(guī)制算法歧視不能忽視社會(huì)主義核心價(jià)值觀的引領(lǐng)作用,要大力弘揚(yáng)社會(huì)主義核心價(jià)值觀,積極引導(dǎo)算法工程師樹立公正的算法意識(shí),引導(dǎo)算法工程師將公正理念嵌于算法之中。算法使用者亦要牢固樹立公正意識(shí),不欺詐、不偏袒,從而構(gòu)建信任的人機(jī)關(guān)系,推動(dòng)人工智能產(chǎn)業(yè)的健康發(fā)展。執(zhí)法人員亦要堅(jiān)守法律底線,恪守公正道德,將公正理念貫徹落實(shí)于算法歧視治理的全過程。
作為人工智能核心技術(shù)之一,算法在造福人類的同時(shí)亦帶來不可忽視的算法歧視問題。算法歧視給人類社會(huì)帶來諸多不利后果,有必要對其進(jìn)行規(guī)制。作為人工智能的先行者,歐盟、美國、日本分別形成了規(guī)制算法歧視的不同模式。由于我國尚處于人工智能的發(fā)展階段,規(guī)制算法歧視要立足于我國的基本國情,借鑒域外模式,從法律、技術(shù)、社會(huì)規(guī)范三重維度形成具有中國特色的算法歧視規(guī)制范式。
北京郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2022年5期