邱琳 郭純
現(xiàn)今社會已進入大數(shù)據(jù)時代,大數(shù)據(jù)算法是這一時代的核心技術(shù)之一。人們在享受科技發(fā)展帶來便利的同時,大數(shù)據(jù)算法技術(shù)所帶來的歧視現(xiàn)象也引發(fā)了一系列社會風(fēng)險。數(shù)據(jù)在本質(zhì)上是人類觀察世界的一種方式,而大數(shù)據(jù)則是人類觀察社會的進化加速形態(tài)?;诖髷?shù)據(jù),人類觀察與研究的進程極大加快,大數(shù)據(jù)算法作為一種海量數(shù)據(jù)的分析處理程序,適應(yīng)了當(dāng)前數(shù)據(jù)爆炸時代的需求。但其作為人類思維的一種外延形式,與人類思維一樣也天然地存在“劣根性”即歧視。如果說人工智能取代人類屬于杞人憂天的話,那么算法技術(shù)廣泛運用所引發(fā)的“算法歧視”“算法霸權(quán)”“算法黑箱”等風(fēng)險已然影響到人們的日常生活,并亟待解決。對算法歧視風(fēng)險的規(guī)制是數(shù)字經(jīng)濟發(fā)展的基本需要。要對算法歧視進行規(guī)制,要先分析其生成的內(nèi)在邏輯、風(fēng)險的外在表現(xiàn)形式,再提出更有針對性的規(guī)制方案。
一、算法歧視的形成:歧視嵌入算法的多重路徑
(一)算法研發(fā)者的歧視嵌入算法
算法技術(shù)歸根結(jié)底是由人類設(shè)計的,難免受算法設(shè)計者思維的影響。算法研發(fā)者難以避免地會將自身偏好帶入算法設(shè)計的過程中,并在算法運用過程中形成歧視。首先,算法研究者帶入無意識的歧視。人類是“認(rèn)知的吝嗇鬼”,為了在信息紛繁復(fù)雜的社會中節(jié)約思維成本和認(rèn)知資源,總是采用分類的方式簡化自己的認(rèn)知過程。[1]因此,人類本身就容易自帶歧視。歧視的發(fā)端是源于個人認(rèn)知,個人認(rèn)知很容易形成“認(rèn)知繭房”,進而形成人類社會普遍存在的內(nèi)隱性歧視。內(nèi)隱性歧視根植在人類的內(nèi)心最深處,并會以難以察覺的方式表達出來,進而形成外顯性歧視。算法的開發(fā)離不開人類的設(shè)計,而算法設(shè)計者本身也自帶內(nèi)隱性歧視。因此,進行算法開發(fā)和設(shè)計的行業(yè)工作人員的無意識的認(rèn)知歧視將被嵌入算法設(shè)計中,進而隱藏在算法應(yīng)用的全過程中。如在性別識別系統(tǒng)中,易將“長發(fā)”作為一項重要的識別標(biāo)識,這一固有印象會導(dǎo)致一些長發(fā)的男性被識別為女性。這是基于算法研發(fā)者的固有認(rèn)知,而非刻意為之,但客觀上造成了算法歧視的結(jié)果。其次,算法研發(fā)者為追求自身目的,設(shè)置顯性歧視。依托于互聯(lián)網(wǎng)的人工智能算法的數(shù)字資本主義的重點在于價值生產(chǎn),即通過數(shù)字分析和精準(zhǔn)預(yù)測可以帶來實在的經(jīng)濟利益。[2]算法技術(shù)的研發(fā)前期需要大量的資金與技術(shù)資源,而這些資源的提供者往往期望算法的應(yīng)用能給其帶來更多的回報。因此,在算法研發(fā)過程中會有意地嵌入對其有利或能為其帶來更多效益的歧視。如“大數(shù)據(jù)殺熟”。這種刻意為之的算法歧視危害性更強,因為刻意為之的算法歧視往往通過損害算法相對人的利益來獲得更大的利益?!按髷?shù)據(jù)殺熟”的典型表現(xiàn)為價格歧視與特定推送,通過算法的精準(zhǔn)計算,針對不同的受眾制定不同的定價方式,以此達到利益最大化。這種算法歧視對于算法相對人而言防不勝防,其無從知曉自己已被算法“算計”,且無處申冤。
(二)數(shù)據(jù)理解維度的歧視嵌入算法
與人為歧視不同,數(shù)據(jù)本身的歧視更為隱蔽。作為算法的基礎(chǔ),如果所輸入的數(shù)據(jù)本身可能存在歧視,那么算法產(chǎn)出的結(jié)果必然帶有歧視。數(shù)據(jù)理解與選擇維度的歧視主要分為三類:一是數(shù)據(jù)選擇偏差引起的歧視。少數(shù)樣本與多數(shù)樣本的選擇將對算法的最終結(jié)果產(chǎn)生至關(guān)重要的影響。許多大數(shù)據(jù)算法的運算依賴于抽樣運算法,如果在樣本數(shù)據(jù)選擇上就存在多數(shù)派與少數(shù)派,數(shù)據(jù)樣本中的多數(shù)派與少數(shù)派被抽中的概率不平等,從而導(dǎo)致算法決策的結(jié)果將更有可能傾向多數(shù)派,而少數(shù)派將可能被直接淹沒。二是數(shù)據(jù)代表性不足引發(fā)的歧視。算法運用的最終結(jié)果依賴于“原材料”即輸入數(shù)據(jù)的質(zhì)量,若輸入數(shù)據(jù)不夠全面,則輸出的結(jié)果也不會全面,即產(chǎn)生數(shù)據(jù)暗點。據(jù)中國互聯(lián)網(wǎng)絡(luò)信息中心(CNNIC)數(shù)據(jù)顯示,截至2022年6月,我國網(wǎng)民規(guī)模為10.51億人,其中城鎮(zhèn)網(wǎng)民占整體的72.1%,農(nóng)村網(wǎng)民占整體的27.9%,從年齡上看,50歲及以上網(wǎng)民占比僅為25.8%。這意味著農(nóng)村人口和老年人難以在互聯(lián)網(wǎng)上留下數(shù)據(jù)痕跡,他們的訴求與傾向難以被算法捕捉。因此,算法在進行決策輸出時,由于沒有農(nóng)村人口與老年人口的數(shù)據(jù),其想法與需求將難以被算法納入,進而導(dǎo)致輸出結(jié)果的不全面。三是數(shù)據(jù)代表性過度。由于代表性的不足引起的歧視被重視和糾偏之后,也可能走向另一個極端,即數(shù)據(jù)代表性過度。數(shù)據(jù)代表性過度是指針對少數(shù)派數(shù)據(jù)進行刻意強化,形成數(shù)據(jù)亮斑,夸張真實數(shù)據(jù),導(dǎo)致最終的算法輸出結(jié)果難以反映真實情況,進而形成算法歧視。
(三)技術(shù)自身的歧視嵌入算法
首先,算法原理本身就是一種歧視。換言之,算法技術(shù)的運行就是一種“標(biāo)簽化+分類化”的過程。而“標(biāo)簽”的產(chǎn)生毫無疑問地會隱藏與弱化樣本的多樣性,使少數(shù)或隱性的樣本被標(biāo)簽化所抹去,涉及了差別性的對待與不公??梢哉f,算法歧視是算法技術(shù)得以應(yīng)用的前提,其次,“偏見進,則偏見出”的運行規(guī)則將加固歧視。即在算法運行過程中,若輸入為垃圾數(shù)據(jù),則輸出亦為垃圾數(shù)據(jù)?!蹲匀弧飞缯撘晃模瑒t用“偏見進,則偏見出(Bias In,Bias Out)”來描述。[3]基于此種特征,算法的自我糾偏難度很大。只要輸入的數(shù)據(jù)是帶有歧視的數(shù)據(jù),則輸出的結(jié)果必定是帶有歧視的結(jié)果。這種運作模式將直接將人類社會存在的性別、種族等歧視帶入算法技術(shù)運用過程中,并繼續(xù)輸出與加固此類歧視。如Google算法歧視案中,人們搜索非洲裔美國人相關(guān)名稱時,往往會顯示更多的與犯罪相關(guān)的信息[4]。這些結(jié)果反映的是過去搜索行為模式形成的印象,而不是程序員故意地創(chuàng)造了一種歧視性算法[5]。最后,技術(shù)自帶的黑箱效應(yīng)將對外界糾偏造成阻礙。算法的黑箱效應(yīng)是指算法的運行過程不公開、不透明。由于存在“黑箱效應(yīng)”,算法運行在數(shù)據(jù)輸入與結(jié)果輸出之間存在無法知悉的黑色空間,這也導(dǎo)致若算法技術(shù)在黑色空間內(nèi)產(chǎn)生錯誤將難以被外界知悉與及時糾偏。進而導(dǎo)致由算法技術(shù)本身帶來的歧視,在黑箱效應(yīng)的強化后,難以被察覺與有效規(guī)制。
二、算法歧視的風(fēng)險:引發(fā)風(fēng)險的類型界分
(一)個人主體性不斷喪失:個體權(quán)利的讓渡與濫用
當(dāng)帶有歧視的算法技術(shù)滲入人類生活的方方面面時,個體出于對日常生活便利性的追求,主動、被動地向算法技術(shù)讓渡自身部分權(quán)利。算法技術(shù)基于所獲得的個體讓渡權(quán)利,使個體的空間控制、時間控制、選擇控制等各項控制能力削減,個體的自主性受到算法歧視的嚴(yán)重威脅。主要表現(xiàn)在兩方面:一是自主選擇權(quán)受到侵犯。算法歧視十分常見的一種表現(xiàn)形式為算法推薦,其通過獲取算法相對人的基礎(chǔ)數(shù)據(jù)輸入,有導(dǎo)向性地為其推送更具有針對性的信息,即“越愛看什么越推送什么”。個體因?qū)Ρ憷淖非筚x予了算法技術(shù)“決策權(quán)”,這也導(dǎo)致了算法對個體自主性的侵蝕。算法的決策具有非常明顯的歸類性與重復(fù)性,利用算法技術(shù)進行決策將大大消解個體生活的自主性、偶然性、延展性,使個體更具有自我“個性”,而與社會的多樣性脫節(jié)。更多的選擇與信息難以被使用者看到,使使用者的自主選擇權(quán)難以在一個全知全明的狀態(tài)下行使,嚴(yán)重?fù)p害了使用者的自主選擇權(quán)。算法推薦的廣泛運用使用者成為一個個更狹隘、更極端的個體,使其喪失了極為重要的思辨能力。二是隱私的讓渡導(dǎo)致全景監(jiān)控。隱私信息能最精準(zhǔn)、最真實地反映個體的特質(zhì)。這種全景監(jiān)控導(dǎo)致社會個體大量的特征數(shù)據(jù)與行為數(shù)據(jù)不可避免地被全方位采集,其中就包括大量個體不想被收集的數(shù)據(jù),如個人興趣偏好、行動軌跡、社交群體、親密關(guān)系、消費水平等。但由于平臺應(yīng)用的普及與滲透,其利用便利性誘使個體主動讓渡部分不想被收集的數(shù)據(jù),或者直接在個體不知情的情況下秘密收集,嚴(yán)重侵害了個體的隱私權(quán)。此外,隱私侵犯問題不僅在于個人私有信息的“公共暴露”,更在于無聲監(jiān)控和暗中利用[6]。
(二)社會性風(fēng)險不斷加?。翰还叫耘c不平等現(xiàn)象普遍
算法歧視的本質(zhì)即區(qū)別對待,它意味著不平等和非正義,會產(chǎn)生針對特殊主體的個體性規(guī)則,這種規(guī)則會突破法的一般性,產(chǎn)生馬太效應(yīng),造成實質(zhì)的不平等。[7]目前人類社會天然存在著一些不平等和非正義,算法作為人造物,不可避免地繼承了這些偏見,而且變得更加隱蔽。隨著網(wǎng)絡(luò)平臺大行其道,算法技術(shù)的滲透性不斷增強,而這些不公平與不平等再次被吸收與固化,形成“自我實現(xiàn)的歧視性反饋循環(huán)”。[8]算法歧視帶來的不平等和非正義一方面體現(xiàn)在對人類現(xiàn)實社會歧視觀念的固化上,這類歧視根源于個人內(nèi)心偏見,主要表現(xiàn)為因種族、性別、外貌、病癥等群體具有一定特征性。但算法技術(shù)固化并傳播了這類歧視,并將此類歧視轉(zhuǎn)化為隱性歧視,是指表面上中立的規(guī)定、標(biāo)準(zhǔn)或慣例被適用于個人的時候,將導(dǎo)致具有某些特征的人(通常是少數(shù)群體或其他受保護的群體)受到不平等對待的結(jié)果。這種新的發(fā)展趨勢為傳統(tǒng)意義上的歧視提供了一塊遮羞布,也為隱性歧視提供了保護網(wǎng),算法社會中歧視會以一種更為隱蔽的方式進行。另一方面體現(xiàn)在更為現(xiàn)實的“價格歧視”等逐利目的上。這種歧視通過算法推薦充分利用了信息資源的不公正分配,針對不同人群的消費能力、消費習(xí)慣、接受程度等特性,制定不同的定價方案,刻意制造不公平不平等的局面,采用個性化定價,形成“千人千價”,其本質(zhì)乃是算法控制者利用算法技術(shù),進而容易制造社會不公平不平等現(xiàn)象。
(三)算法操縱性不斷強化:信息繭房逐漸形成與固化
算法操縱侵害主要體現(xiàn)在“信息繭房”與“算法分類”等方面?!靶畔⒗O房”是指,算法技術(shù)通過所掌握的算法相對人數(shù)據(jù)內(nèi)容、瀏覽記錄等,對其進行標(biāo)簽化并精準(zhǔn)推送其感興趣的內(nèi)容,使其如同生活在繭房中,知識信息逐漸單一化、自我中心化,侵害用戶的信息自我決定權(quán),造成社群溝通鴻溝[9]。“信息繭房”所帶來的危害不僅局限于使個體的認(rèn)知與價值觀的固化,還將造成群體性的認(rèn)知割裂,進一步導(dǎo)致社會的割裂,阻礙公共意識的形成。對于整個社會而言,算法歧視具有十分嚴(yán)重的負(fù)面影響。如以抖音、快手為代表的短視頻潮流已席卷全球,其通過智能算法重復(fù)地向用戶推送所謂“感興趣”的內(nèi)容,一步步固化用戶認(rèn)知與信息輸入,在此背景下可以發(fā)現(xiàn),網(wǎng)絡(luò)針對一件事件的評價往往越來越極端,呈現(xiàn)非此即彼,非黑即白的“二極管”思維,也體現(xiàn)出了算法干預(yù)用戶自主觀念與意志的形成,對個人或群體進行支配或操縱,不利于人類思維的進步與社會的良性發(fā)展。
除“信息繭房”外,算法技術(shù)還會利用“算法分類”來進一步操控群體性行為。其同樣是通過獲取個體的個人數(shù)據(jù),但與“信息繭房”的推送不同,“算法分類”將對個體的屬性進行精準(zhǔn)劃分,使其成為一個個具有相同屬性的群體,并將這一個個群體貼上標(biāo)簽,如具有“財務(wù)風(fēng)險”“犯罪風(fēng)險”等。而這些標(biāo)簽僅為是通過算法不夠全面的分析而成,但對被“標(biāo)簽化”的個體帶來的影響卻是深刻存在于現(xiàn)實生活?!八惴w類”使個體因擔(dān)心算法會對自己進行分類與標(biāo)簽,可能會數(shù)字世界里壓縮自己的行為空間,這在一定程度上也是對個體自由權(quán)益的侵害。但目前對于這種行為尚未被法律有效規(guī)制。
三、算法歧視的規(guī)制:多元化規(guī)制體系的構(gòu)建
(一)數(shù)據(jù)主體賦權(quán):平等權(quán)保護模式的完善
算法歧視產(chǎn)生的根本原因是算法研發(fā)者和控制者與算法相對人權(quán)利的不平等。但如果直接采取削弱算法技術(shù)的方式抑制算法歧視,將產(chǎn)生技術(shù)創(chuàng)新的阻礙,有悖于社會發(fā)展的趨勢。因此,對算法相對人進行賦權(quán)是抑制算法歧視,是保護普通私主體平等地位的重要手段。一是賦予算法相對人要求算法解釋的權(quán)利。算法歧視之所以會愈演愈烈就是因為算法控制者與算法相對人之間的信息鴻溝巨大。算法相對人無法知悉算法技術(shù)的運行規(guī)則與運行邏輯,導(dǎo)致其難以知悉權(quán)益受侵害,或者即使知悉也難以舉證證明受侵害。面對這一困境,算法解釋權(quán)成為監(jiān)管者和數(shù)據(jù)主體制衡算法歧視的關(guān)鍵一環(huán)。[10]算法技術(shù)通過輸入數(shù)據(jù),輸出結(jié)果的方式進行運行,但由于算法技術(shù)的高門檻性,普通個體難以知曉運行邏輯,這就造成了算法控制者與個體使用者地位不平等的局面。而算法相對人也有知曉算法運行是否公平的權(quán)利。賦予算法相對人算法解釋權(quán),有助于平衡算法相對人與算法控制者之間的權(quán)利失衡,彌合雙方的數(shù)字鴻溝。二是增強個體對個人數(shù)據(jù)的控制權(quán)。算法隱秘或者“軟強迫”地大量獲取個體的信息是算法歧視產(chǎn)生的重要原因。增強個體對自身數(shù)據(jù)的控制權(quán),是抑制算法歧視“釜底抽薪”式的手段。增強個體對自身數(shù)據(jù)的控制權(quán)可通過全面賦予個體有關(guān)數(shù)據(jù)處理的各項權(quán)利,如對個人數(shù)據(jù)的訪問權(quán)、刪除權(quán)、更正權(quán)、限制處理權(quán)等。通過完善個人數(shù)據(jù)控制的權(quán)利細節(jié),將個人數(shù)據(jù)的處理與使用范圍牢牢掌控在個人手中,個人數(shù)據(jù)的處理完全做到遵循個人意識,以此強化個體對個人數(shù)據(jù)的控制權(quán)。此外,還應(yīng)對平臺、企業(yè)等算法控制者收集個人數(shù)據(jù)進行更為嚴(yán)格的限制,在立法層面強化違法收集個人數(shù)據(jù)的懲戒力度。
(二)代碼規(guī)則監(jiān)督:算法治理手段的創(chuàng)新
算法的源頭便是代碼。所謂代碼,是程序員用開發(fā)工具所支持的語言寫出來的源文件,是由一組字符、符號或信號碼元以離散的形式表示信息的明確的規(guī)則體系。[11]代碼的規(guī)制不存在技術(shù)盲區(qū),可直接深入算法內(nèi)部,動態(tài)調(diào)整算法運行的規(guī)則,實現(xiàn)算法技術(shù)的靈活規(guī)制??赏ㄟ^法律歸化針對代碼構(gòu)建起一個從事前、事中、事后三個層面的規(guī)制體系,以完善規(guī)制代碼。首先,形成一個完整的算法運行程序前,對代碼的生成進行監(jiān)督。對代碼的事前監(jiān)管即是在形成算法程序的初期,對代碼形成的過程進行監(jiān)督和審核,主要審核內(nèi)容為代碼的運行過程、運行結(jié)果、是否存在隱性運行內(nèi)容等。查找代碼明顯或隱性的歧視傾向,突破物理空間的限制,對滲透到社會中邊邊角角的算法歧視進行根源治理,以解決法律滯后性和行為主義邏輯的局限性。其次,在算法運行期間,不定期對運行代碼進行審核和檢測,以確保算法運行期間的穩(wěn)定與合法。算法運行期間,運用專業(yè)技術(shù)對算法的執(zhí)行進行持續(xù)監(jiān)測,可隨時根據(jù)外部環(huán)境、指標(biāo)、內(nèi)容的變化進行風(fēng)險防范,將流動的因素考慮在內(nèi),形成動態(tài)的算法監(jiān)督體系。如果發(fā)現(xiàn)算法存在嚴(yán)重錯誤,應(yīng)及時中止系統(tǒng)服務(wù),并采取有效措施及時糾偏。最后,對代碼進行事后審查,可對算法歧視進行有效歸責(zé)。當(dāng)算法的運行已經(jīng)造成了歧視的侵害后果,對代碼進行專業(yè)性審查,可有效確認(rèn)責(zé)任范圍與責(zé)任承擔(dān)對象,有助于算法歧視追責(zé)體系的構(gòu)建。算法作為一項技術(shù),目前尚未在法律層面認(rèn)定其具有民事主體地位,因此無法獨立承擔(dān)民事責(zé)任,但這并不意味著對其設(shè)計者、運營者、許可頒布者等主體也無需承擔(dān)民事責(zé)任。在對算法代碼進行審核的過程中,對于造成算法歧視有過錯的算法設(shè)計者、控制者、許可頒布者均應(yīng)進行追責(zé),責(zé)令其對算法的代碼進行合理修改,以有效規(guī)制與糾偏算法歧視。
(三)責(zé)任主體的延伸:平臺與企業(yè)社會責(zé)任的承擔(dān)
平臺和企業(yè)基于自身目的大量收集用戶數(shù)據(jù)并借助算法技術(shù)進行分析,帶來巨大收益。網(wǎng)絡(luò)平臺與人工智能企業(yè)與傳統(tǒng)企業(yè)最大的區(qū)別在于其利用技術(shù)優(yōu)勢形成了獨特的雙元屬性,即其角色雙元、情境雙元、價值雙元。借助其雙元屬性在社會中形成了“用戶(數(shù)據(jù))—平臺—用戶(數(shù)據(jù))”的鏈接社會的基本關(guān)系,而平臺就是這一關(guān)系的中心與連接。作為關(guān)鍵的算法主體,網(wǎng)絡(luò)平臺與人工智能企業(yè)兼具商業(yè)性與社會性。因此,面對算法歧視的問題時,平臺與企業(yè)應(yīng)發(fā)揮“守門人”的功能[12],全面承擔(dān)起社會責(zé)任,以構(gòu)建健康合理的可持續(xù)性算法商業(yè)模式。
首先,平臺與企業(yè)應(yīng)改變傳統(tǒng)以純粹商業(yè)利益為導(dǎo)向的價值目標(biāo),轉(zhuǎn)而追求經(jīng)濟價值與社會價值雙重價值目標(biāo)。進行算法技術(shù)運行的平臺與企業(yè)掌握著算法的設(shè)計、優(yōu)化、應(yīng)用的全過程,尤其是一些大型平臺企業(yè)在本平臺公共領(lǐng)域內(nèi)擁有對平臺企業(yè)內(nèi)數(shù)據(jù)使用與算法使用過程的全方位權(quán)限。因此,若掌握算法技術(shù)的平臺與企業(yè)能擔(dān)負(fù)起社會責(zé)任,將以商業(yè)利益作為唯一價值目標(biāo)的觀念轉(zhuǎn)變?yōu)樽非蠼?jīng)濟價值與社會利益的雙重價值目標(biāo)觀念,可促進技術(shù)中立向技術(shù)向善的轉(zhuǎn)變。同時,在其領(lǐng)域內(nèi)對算法歧視行為進行治理,將能最大限度規(guī)制算法歧視。其次,平臺與企業(yè)基于其地位與優(yōu)勢,可實現(xiàn)數(shù)據(jù)、算法、用戶的三重治理有機結(jié)合。平臺與企業(yè)擁有海量數(shù)據(jù)與用戶,又坐擁算法技術(shù),若能在其領(lǐng)域內(nèi)建立起包括算法歧視責(zé)任披露、算法歧視責(zé)任承擔(dān)、算法透明度管理等在內(nèi)的算法治理制度,將有效規(guī)制算法歧視并進一步完善算法治理體系。最后,要在立法層面明確算法歧視規(guī)制的平臺企業(yè)主體責(zé)任。要強化平臺與企業(yè)的社會責(zé)任承擔(dān),最關(guān)鍵的是要在立法層面對平臺與企業(yè)的社會責(zé)任承擔(dān)進行明確。我國2021年發(fā)布的《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》中提出要強化平臺企業(yè)算法治理的主體責(zé)任。據(jù)此可以看出,我國已將落實平臺企業(yè)算法治理責(zé)任提上議程。平臺企業(yè)的算法治理責(zé)任承擔(dān)要求其在自身所能控制的領(lǐng)域積極發(fā)揮主體治理能力與治理權(quán)限,以雙重價值目標(biāo)為導(dǎo)向,積極將社會責(zé)任落到實處。
基金項目:江西省社會科學(xué)“十四五”(2022)基金項目“數(shù)字治理背景下平臺私權(quán)力濫用的法律規(guī)制研究”(項目編號:22FX10);江西省社會科學(xué)院2021年度基金項目“三元結(jié)構(gòu)視角下網(wǎng)絡(luò)平臺算法權(quán)力異化的法律規(guī)制研究”(項目編號:21QN01)階段性成果。
參考文獻:
[1]張中學(xué),宋娟.偏見研究的進展[J].心理與行為研究,2007(2):150-155.
[2]胡凌.人工智能視閾下網(wǎng)絡(luò)法的核心問題[J].中國法律評論,2018(2):86-95.
[3]Editorial.More accountability for big-data algorithms[J].Nature,2016:537.
[4]Daniel R.Shulman.Whats the Problem with Google?[J].THE Sedona Conference Journal ,2014:17-34.
[5]Richard A.Primus.Equal Protection and Disparate Impact: Round Three[J].117 Harv.L.Rev,2003:494-587.
[6]馬長山.智慧社會背景下的“第四代人權(quán)”及其保障[J].中國法學(xué),2019(5):5-24.
[7]崔靖梓.算法歧視挑戰(zhàn)下平等權(quán)保護的危機與應(yīng)對[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019(3):29-42.
[8]徐琳.人工智能推算技術(shù)中的平等權(quán)問題之探討[J].法學(xué)評論,2019(3):152-161.
[9]姜野.算法的規(guī)訓(xùn)與規(guī)訓(xùn)的算法:人工智能時代算法的法律規(guī)制[J].河北法學(xué),2018(12):145.
[10]張欣.算法解釋權(quán)與算法治理路徑研究[J].中外法學(xué),2019(6):1428.
[11]鄭智航.網(wǎng)絡(luò)社會法律治理與技術(shù)治理的二元共治[J].中國法學(xué),2018(2):117.
[12]肖紅軍.算法責(zé)任:理論證成、全景畫像與治理范式[J].管理世界,2022(4):221.
作者:邱琳,江西省社會科學(xué)院法學(xué)研究所研究實習(xí)員
郭純,江西省青云譜區(qū)人民法院法官助理
責(zé)任編輯:劉小僑