戴藝晗(華東政法大學(xué)國際法學(xué)院)
20世紀(jì)70年代,隨著計算機技術(shù)的興起,法律越來越關(guān)注個人隱私保護(hù)。1980年,經(jīng)濟發(fā)展與合作組織(Organization for Economic Cooperation and Development,OECD)發(fā)布的《隱私保護(hù)與個人數(shù)據(jù)跨境流通指南》普及了這樣一種觀念,即個人應(yīng)該對任何用于自己和關(guān)于自己的信息擁有知情同意權(quán)[1]。1978年,法國頒布了數(shù)據(jù)保護(hù)法,規(guī)定必須為了特定、明確和合法的目的,在本人(“數(shù)據(jù)主體”)同意的情況下,以公平、合法的方式收集和處理個人數(shù)據(jù)[2]。受法國數(shù)據(jù)保護(hù)法等相關(guān)法律的啟發(fā),歐盟分別于1995年和2018年頒布《個人數(shù)據(jù)保護(hù)指令》[3]和《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)[4]。如今數(shù)據(jù)權(quán)利被視為“個人權(quán)利”,數(shù)據(jù)權(quán)利的個體化已成為世界各國數(shù)據(jù)保護(hù)法的基石。當(dāng)政府和法律將重點放在保護(hù)個人數(shù)據(jù)權(quán)利時,科技公司卻從分析個人行為轉(zhuǎn)向分析群體行為,有效地讓個人的拒絕或同意變得毫無意義:即使某人拒絕使用Facebook、Twitter或亞馬遜的服務(wù),但其周圍的每個人都加入并使用,意味著此人的目標(biāo)數(shù)據(jù)點和沒有拒絕使用服務(wù)的人一樣多。
數(shù)據(jù)和信息基于個人或者單位產(chǎn)生,兼具私人與公共屬性,是數(shù)字經(jīng)濟時代維持運轉(zhuǎn)不可或缺的資源[5]。以海量數(shù)據(jù)為基礎(chǔ)的大數(shù)據(jù)算法分析能洞察市場的新興趨勢,指導(dǎo)新產(chǎn)品和服務(wù)的開發(fā),預(yù)測個體偏好,為消費者提供個性化的產(chǎn)品和服務(wù)。大數(shù)據(jù)的生命周期可以分為收集、編制與整理、數(shù)據(jù)挖掘與分析和使用四個階段[6]。
在大數(shù)據(jù)生命周期的編制、整理階段,不同來源的數(shù)據(jù)被組合起來,用于構(gòu)建單個消費者的畫像[7]。大數(shù)據(jù)分析將具有某方面共同特征的人歸結(jié)到一個群組中,如,每周去三次西式快餐店的人、一周有三次以上晨間運動習(xí)慣的人。在市場環(huán)境下,數(shù)據(jù)挖掘與分析的共同目的之一是預(yù)測消費者的選擇。利用數(shù)據(jù)預(yù)測事件或行為是機器學(xué)習(xí)和人工智能發(fā)展的結(jié)果,隨著數(shù)據(jù)可用性和使用范圍的擴大,做決策變得越來越容易,人類傳統(tǒng)做決策的過程有時甚至?xí)耆凰^的預(yù)測建模方法(通常稱為“算法的使用”)所取代。正如一個硬幣有兩面,大數(shù)據(jù)算法分析帶來便利性的同時,也可能會合并甚至強化歧視性的刻板印象,從而損害用戶和系統(tǒng)本身的效率。牛津詞典將歧視定義為不公平對待社會中某個人或某一群體的行為[8]。歧視有三個特點:存在非合理的不公平對待,此種不公平對待是法律所禁止的,會造成不公平、不公正的后果[9]?,F(xiàn)代社會的一個核心原則是,按照某種類型的標(biāo)準(zhǔn)對不同群體的人進(jìn)行歧視在道德上是錯誤的[10]。歧視可能有意,也可能無意。機器學(xué)習(xí)系統(tǒng)依靠人類創(chuàng)造的算法處理來自人類的數(shù)據(jù),因此這種數(shù)據(jù)處理的最終結(jié)果會帶有人類固有的偏見。聯(lián)合國《世界人權(quán)宣言》第2條明確規(guī)定:“人人有資格享有本宣言所載的一切權(quán)利和自由,不分種族、膚色、性別、語言、宗教、政治或其他見解、國籍或社會出身、財產(chǎn)、出生或其他身份等任何區(qū)別。并且不得因一人所屬的國家或領(lǐng)土的政治的、行政的或者國際的地位之不同而有所區(qū)別,無論該領(lǐng)土是獨立領(lǐng)土、托管領(lǐng)土、非自治領(lǐng)土或者處于其他任何主權(quán)受限制的情況之下?!保?1]由此可見,歧視基于的要素不僅包括種族、性別等客觀要素,還包括政治見解等主觀要素,不論是對個體的歧視還是對集體的歧視皆違反現(xiàn)代法律精神。
當(dāng)今社會,數(shù)據(jù)和信息已經(jīng)成為每個人不可分割的組成部分,它描繪和構(gòu)建了人的自然本性、社會角色和個性特征,表現(xiàn)了人的人格尊嚴(yán)和主體價值[5]。隨著人工智能技術(shù)的進(jìn)一步發(fā)展及運用,算法帶來的歧視已經(jīng)不限于傳統(tǒng)的種族、性別等人口統(tǒng)計因素,而是滲透到日常生活和社會事務(wù)中,并開始以越來越隱蔽的方式逐步影響人類社會制度和經(jīng)濟發(fā)展的方方面面[12]。算法歧視可以分為偏見代理的算法歧視,即客觀中立的基礎(chǔ)性數(shù)據(jù)組合產(chǎn)生了歧視性的后果;特征選擇的算法歧視,即輸入系統(tǒng)本身帶有偏見,從而構(gòu)成歧視性的看法;大數(shù)據(jù)殺熟,即同一時段提供的商品或者服務(wù),面對不同的客戶采取不同的對待模式[13]。大數(shù)據(jù)算法歧視和一般歧視相比,所依據(jù)的因素更為多樣化和不確定,如對消費者信用的評估不是基于將消費者的已知信用特征(如過去的逾期付款記錄)與歷史數(shù)據(jù)進(jìn)行比較,而是基于這些客戶的郵政編碼、社交媒體的使用情況或購物歷史。
如果數(shù)據(jù)收集的過程反映了個人偏好或者受到了某種客觀條件的限制,那么由數(shù)據(jù)揭示的一些統(tǒng)計關(guān)系可能會產(chǎn)生偏見,導(dǎo)致不準(zhǔn)確的預(yù)測和分析。如,美國波士頓市開發(fā)了一款名為Street Bump的手機應(yīng)用程序,利用智能手機的一些功能來采集和發(fā)送道路情況,因為低收入人群攜帶智能手機的比例較低,所以這些數(shù)據(jù)不能完全代表所有的道路狀況,偏差的數(shù)據(jù)有可能使道路服務(wù)向高收入社區(qū)傾斜[6]。歧視一般源于主觀偏見或偏好,但更看重客觀所造成的不良社會影響[12]。2017年,斯坦福大學(xué)的研究人員詳細(xì)介紹了一種人臉識別算法,該算法能夠以驚人的準(zhǔn)確性預(yù)測一個人的性取向[14]。這項研究受到了廣泛批評,理由是其創(chuàng)造了一個收集數(shù)據(jù)的工具從而根據(jù)性取向?qū)€體進(jìn)行分類,分類結(jié)果有可能被用來排除或歧視整個階級的個體。
數(shù)據(jù)是數(shù)據(jù)主體的“生命密碼”,與數(shù)據(jù)主體的隱私、情感以及社會評價息息相關(guān)[15]。大數(shù)據(jù)分析被廣泛用于理解用戶通過與網(wǎng)絡(luò)設(shè)備、平臺和組織互動而產(chǎn)生的數(shù)據(jù)軌跡。大數(shù)據(jù)算法分析將個人歸結(jié)到不同的群體中,歸類到一個群體中的數(shù)據(jù)并不一定涉及能識別到特定個人的事實或信息;由于不具有可識別性,不一定構(gòu)成對個人隱私和個人數(shù)據(jù)保護(hù)的違反。保險公司在提供汽車、健康、家庭或人壽保險之前,可能會根據(jù)目標(biāo)客戶對生活方式的選擇、閱讀的期刊、居住地、未決或已了結(jié)的刑事或民事訴訟、教育水平和就業(yè)情況來提取與客戶細(xì)分相關(guān)的風(fēng)險預(yù)測信息,如,住在高檔社區(qū)A的住戶與住在普通小區(qū)B的住戶在同一時期購買同一種保險,前者所支付的保費比后者要低得多,保險公司對應(yīng)繳保費的評估和判斷不是基于個人,而是基于個人作為該小區(qū)的一分子。
隨著網(wǎng)絡(luò)和智能技術(shù)的飛速發(fā)展,企業(yè)和政府將收集更多個人信息并可能傾向于使用自動化決策方法,隨著自動化程度的提高,對公平的影響將會更大。在大數(shù)據(jù)時代,數(shù)據(jù)交易和生產(chǎn)過程呈現(xiàn)出“參與主體多元化、權(quán)利歸屬復(fù)雜化”的特點[16]。被歸類到一個群體中的數(shù)據(jù)涉及多個個體作為一個整體的利益,而不僅僅是許多單個個體利益的總和以及簡單疊加。集體維度的重要性取決于這樣一個事實,即用現(xiàn)代算法進(jìn)行分類的方法不僅關(guān)注個人,還關(guān)注具有某些共同行為特征(如,十一點以前上床睡覺、每天乘坐地鐵上班、每周喝咖啡超過三杯)的群體。大數(shù)據(jù)收集者從研究和預(yù)測群體行為的層面出發(fā),而非對單個用戶進(jìn)行分析,在此種情況下,基于相關(guān)關(guān)系的預(yù)測不僅會影響個體,而且還會影響整個群體,使其有別于社會的其他群體[17]。數(shù)據(jù)驅(qū)動的決策涉及由單個個體組成的集群,并且直接地影響這些群組里的成員,這就需要在集體層面保護(hù)群體以及群體中的個體免受侵入性和歧視性數(shù)據(jù)處理造成的潛在傷害。
相對于侵犯個人隱私而言,個人為集體損害尋求救濟非常困難。目前的數(shù)據(jù)保護(hù)框架以數(shù)據(jù)控制者、數(shù)據(jù)處理者和數(shù)據(jù)主體之間的關(guān)系為前提,隨著技術(shù)的發(fā)展,這些關(guān)系變得越來越復(fù)雜和不穩(wěn)定:很難分清楚誰是數(shù)據(jù)控制者,誰的數(shù)據(jù)權(quán)利受到了傷害。
21世紀(jì)的數(shù)據(jù)隱私和歧視問題在于公眾不再知道自己屬于或不屬于哪個群體,只有算法知道。數(shù)據(jù)主體不了解數(shù)據(jù)處理的具體運作與過程。個人和使用個人數(shù)據(jù)的組織之間經(jīng)常存在信息不對稱現(xiàn)象,用戶可能知道他的數(shù)據(jù)被收集和存儲,但卻不知道這些數(shù)據(jù)將被如何使用[18],也不清楚經(jīng)營者和網(wǎng)絡(luò)提供者實行的政策可能對其數(shù)據(jù)或者隱私造成的影響,如網(wǎng)絡(luò)用戶瀏覽網(wǎng)頁時勾選Cookies同意的預(yù)選框可能產(chǎn)生什么樣的具體后果。在大數(shù)據(jù)背景下,單個數(shù)據(jù)主體對集體的認(rèn)知有限,他們可能并不知道自己已經(jīng)被大數(shù)據(jù)歸類到某個群體中,或?qū)θ后w中其他成員的身份一無所知[19],數(shù)據(jù)主體也很難意識到可能存在的潛在集體偏見[20]。在大數(shù)據(jù)分析領(lǐng)域,數(shù)據(jù)集體侵權(quán)事件由于流程的部分隱蔽性和復(fù)雜性更難被察覺,如數(shù)據(jù)挖掘使那些希望對受保護(hù)階層采取歧視措施的雇主可以在第一時間否認(rèn)對受保護(hù)階層的任何了解[21],這使得及時地發(fā)起訴訟十分困難。另外,網(wǎng)絡(luò)提供者與作為消費者的用戶之間權(quán)利懸殊,個人信息的價值包括自主價值和使用價值,以確保個人信息的獨立使用,信息劣勢方(網(wǎng)絡(luò)用戶)的自由意志和自由發(fā)展很可能受到信息優(yōu)勢方(網(wǎng)絡(luò)提供者)的影響,最終導(dǎo)致?lián)p害[22]。
數(shù)據(jù)侵權(quán)行為不僅可能構(gòu)成指向性侵害,即某一民事主體指向性地侵害其他民事主體(可以是一人也可以是多人)的人身、財產(chǎn)權(quán)利或者法益;還可能構(gòu)成社會侵害,即對特定集體(又被稱為“社會共同體”“集團(tuán)”或“群”)的社會權(quán)益即集體權(quán)益形成發(fā)散性侵害[23]。數(shù)據(jù)保護(hù)司法困難重重的根源在于傳統(tǒng)賦權(quán)模式過于籠統(tǒng)、抽象,數(shù)據(jù)權(quán)利缺乏制衡導(dǎo)致數(shù)據(jù)主體處于弱勢地位,只能被動地承受數(shù)據(jù)被分析、被使用甚至被披露等一系列后果,在維權(quán)時,由于證據(jù)收集能力有限,容易陷入證據(jù)不能或證據(jù)不足的困境[23-24]。如今政府—平臺—商戶(消費者)、公權(quán)利—社會權(quán)利—私權(quán)利的三元結(jié)構(gòu)和公、私并存的雙重權(quán)利生態(tài)的生成,面對技術(shù)霸權(quán)和算法決策,私權(quán)利更為弱勢,被困于“數(shù)字鴻溝”、算法霸權(quán)和監(jiān)控社會中[5]。這就要求在數(shù)據(jù)和信息在公共性與私密性之間,在政府部門、業(yè)務(wù)平臺、技術(shù)公司與消費者之間,在公法保護(hù)與私法保護(hù)之間,形成多元、平衡、互動、共享的數(shù)字人權(quán)保護(hù)機制[5]。個人尋求救濟的前提是數(shù)據(jù)集體利益的確立。
大數(shù)據(jù)滋生了三個悖論:①透明度悖論,即大數(shù)據(jù)廣泛收集各種私人信息的同時,大數(shù)據(jù)本身的運作幾乎完全被法律和商業(yè)秘密所掩蓋;②同一性悖論,即大數(shù)據(jù)試圖以犧牲個人和集體身份為代價進(jìn)行識別;③權(quán)利悖論,即大數(shù)據(jù)以犧牲普通個人為代價,為大型政府和企業(yè)提供特權(quán)[25]。同時,大數(shù)據(jù)具有四大特點:大量(Volume)、高速(Velocity)、多樣性(Variety)、價值性(Value)[26]。在大數(shù)據(jù)時代,單個自然人的個人數(shù)據(jù)本身沒有價值,真正蘊含巨大經(jīng)濟價值的是政府和數(shù)據(jù)從業(yè)者收集、存儲的海量個人數(shù)據(jù)[27]。大數(shù)據(jù)中的大多數(shù)人不是被描述為個體,而是被描述為一個特定群體的成員,因此數(shù)據(jù)主體不再是一個特定的個人或少數(shù)群體,而是數(shù)量龐大的未定義群體[28]。
牛津互聯(lián)網(wǎng)研究所研究員Brent Mittelstadt將群體分為三種形式:①集體群體,即因集體利益、共同背景或其他明確的共同特征和目的而有意加入的群體(如工會);②先賦性群體,即由遺傳或偶然發(fā)展的特征所決定的群體,此群體通常不能在不重新定義群體邊界的情況下被有意加入或離開(如種族群體、遺傳病群體);③特別小組,即根據(jù)成員之間的聯(lián)系,為第三方利益而組織成立的團(tuán)體,通常在一段時間或基于特定目的而組成,成員資格要求不穩(wěn)定[29]。從Brent Mittelstadt的研究可以得知,前兩種形式已經(jīng)得到法律認(rèn)可,而特別小組還未被法律承認(rèn)為合法的權(quán)利擁有者,群組用戶畫像是特別小組的典型代表[29]。GDPR將畫像定義為為了評估自然人的某些條件,通過自動化方式對個人數(shù)據(jù)進(jìn)行處理,特別是為了評估自然人的工作表現(xiàn)、經(jīng)濟狀況、健康、個人偏好、興趣、可靠性、行為方式、位置或行蹤而進(jìn)行的處理[4]。我國法律尚未對用戶畫像進(jìn)行明確的定義,但在《信息安全技術(shù) 個人信息安全規(guī)范》(GB/T 35273-2020)中將用戶畫像定義為“通過收集、匯聚、分析個人信息,對某特定自然人個人特征,如其職業(yè)、經(jīng)濟、健康、教育、個人喜好、信用、行為等方面作出分析或預(yù)測,形成其個人特征模型的過程”[30]。并且在注解中還進(jìn)一步將用戶畫像分為直接用戶畫像和間接用戶畫像:直接用戶畫像是指直接使用特定自然人的個人信息形成該自然人的特征模型;間接用戶畫像是指使用來源于特定自然人以外的信息,如所在群體的數(shù)據(jù)從而形成該自然人的特征模型[30]。畫像是一個模式識別問題,與分類、概括和刻板印象相似[31]。畫像不限于收集個人數(shù)據(jù),還包括利用這些數(shù)據(jù)來評估與個人有關(guān)的某些方面,其目的是識別和預(yù)測客戶的行為并據(jù)此做出決策。具體而言,畫像包括三個元素:①一種自動化的處理形式;②針對個人數(shù)據(jù)進(jìn)行;③目的是評估自然人的某些個人方面,預(yù)測他們的行為并就此作出決定。根據(jù)GDPR,如數(shù)據(jù)當(dāng)事人要求停止畫像,處理工作必須停止,除非數(shù)據(jù)控制者證明該反對凌駕于數(shù)據(jù)當(dāng)事人的利益、權(quán)利及自由之上[4]。
企業(yè)為了自身發(fā)展越來越注重為客戶提供個性化的定制服務(wù),科技的進(jìn)步和廉價的數(shù)據(jù)存儲更是使得這一目標(biāo)具有前所未有的可能性。從零售到出版、從公共服務(wù)到健康,我們在與組織互動的任何地方都留下了數(shù)字指紋和活動痕跡。這些組織熱衷于利用這些信息,通過創(chuàng)建用戶畫像為我們提供更好的服務(wù),或者為我們提供對他們而言更有利的服務(wù)。如,仲量聯(lián)行公司與亞歷山大·巴貝奇公司曾合作開發(fā)了一款名為Pinpoint的新工具來監(jiān)控購物中心內(nèi)的消費者,并向百貨公司業(yè)主和零售商提供購物者的相關(guān)信息,包括客戶來自哪里、他們習(xí)慣去什么樣的商店以及他們會在那里停留多長時間等,以方便零售商進(jìn)一步挖掘那些頻繁到訪的客戶[32]。這些信息可被用于多種目的,包括評估廣告是否有效地定位到目標(biāo)客戶,預(yù)測客戶的未來購買行為等。畫像可以通過描繪一個人的外在形象和內(nèi)在偏好從而將其歸入算法所創(chuàng)造的數(shù)字范疇中[5],即使跟蹤和描述的是個體消費者的行為,這些組織也會將其推廣到多個個體,并將多個個體看作一個整體,如“商店顧客”這一群體從而進(jìn)行預(yù)測。這剛好印證了信息哲學(xué)家盧西亞諾·弗洛里迪的說法,即大多數(shù)畫像不是基于個體,而是基于個體作為一個特定群體的成員[33]。
群組用戶畫像被定義為“對個體用戶畫像進(jìn)行聚類分析,采用不同的模型、算法與技術(shù),從多個維度發(fā)現(xiàn)規(guī)模較大的用戶群體,或?qū)⑻卣黝愃频挠脩魵w為一類,從而在提供服務(wù)時可以優(yōu)先滿足核心群體的需求”[34]。大數(shù)據(jù)分析所運用的數(shù)字集體標(biāo)識符破壞了個人、身份和隱私之間長期存在的聯(lián)系,被算法分組的個人在描述所在群體的信息如何生成和使用方面擁有共同利益[29]。這類分組方法的特點在于決策者對屬于同一個由分析生成的群組里的個體采取通用的解決方案,決策過程并不考慮個體本身,而是將其作為具有一些共同定性因素的一群人或一個群組的一部分,并由此產(chǎn)生了社會中以前不存在的新群體,即各種個體的可變集合,這些群體的不同起源和形態(tài)使得有必要從集體維度對隱私和數(shù)據(jù)保護(hù)權(quán)利進(jìn)行考察[17]。大數(shù)據(jù)時代的關(guān)注點不能只放在單個個體的隱私保護(hù)上,也要重視大數(shù)據(jù)分析技術(shù)帶來的群體隱私威脅和保護(hù)問題[35]。
盧西亞諾·弗洛里迪認(rèn)為,只要群體本身被視為一個個體(參見法人),那么按照權(quán)利歸屬于個人的邏輯,群體也可以成為權(quán)利所有者,如民族自決權(quán)就是由國家作為一個整體享有[33]。按照他的說法,在涉及信息交換的互動中,群體扮演著與個體相同的角色,權(quán)利可以同時由個人和個人組成的群體持有,只要在這兩個層面上都存在形成身份的互動且這些相互作用構(gòu)成了群體的身份(與個人情況一致),那么群體就可以被認(rèn)為對控制這種身份感興趣,這種利益就可以被正式承認(rèn)為一個群體身份不受侵犯的權(quán)利[36]。因此,在評估分析平臺的倫理可接受性時,“群體隱私”概念作為“平衡個人隱私和社會、商業(yè)以及認(rèn)知利益”的第三個利益被提出[28]。盧西亞諾·弗洛里迪將群體隱私定義為作為一個群體整體持有的權(quán)利,而不是由其成員各自持有的權(quán)利[33]。群體隱私的概念挑戰(zhàn)了社會、法律和倫理實踐的基本基礎(chǔ),也挑戰(zhàn)了傳統(tǒng)的以個人為中心構(gòu)建的隱私理論體系和實踐[26]。
雖然法律致力于使個人權(quán)利和權(quán)利的補救措施更有效,但卻忽視了保護(hù)個人信息的集體利益和確保這些利益之間的相互協(xié)作[37]。集體權(quán)利的主體不能被簡單定義為個體的簡單聯(lián)合,集體權(quán)利的前提條件是必須適用于作為整體的集體。數(shù)據(jù)保護(hù)不僅關(guān)乎個人利益,而且影響整個社會的質(zhì)量以及民主和多元主義等價值觀,如限制不成比例的監(jiān)視行為、防止基于敏感個人數(shù)據(jù)的歧視等[17]。然而,在相關(guān)權(quán)利被侵犯時,法院只有接收到權(quán)利所有者的投訴時才能處理案件,權(quán)利人可能對將這些問題訴諸法庭并不感興趣,抑或壓根不知道自己擁有的權(quán)益,抑或由于數(shù)據(jù)所有者和使用者權(quán)利的不平衡,無力對其利益可能受到的威脅作出有力的回?fù)襞c反應(yīng)。被大數(shù)據(jù)歸類的群組由于缺乏集體代理和自我意識,無法采取行動保護(hù)自己的利益,因此,相關(guān)法律和監(jiān)管制度應(yīng)該作出相應(yīng)改變,以符合市場的邏輯。
20世紀(jì)70年代發(fā)展起來的法律和思想已不再適合處理今天的現(xiàn)實。這里的問題是市場邏輯和法律邏輯之間根本不匹配。當(dāng)代技術(shù)市場從集體數(shù)據(jù)中提取價值,然而我們的法律只對個人受到的傷害作出反應(yīng),并沒有隨著技術(shù)的變化而改變。傷害越是集體性,人們受到的保護(hù)就越少,也就越不明顯;個人受害越多,其影響就越明顯,受到法律保護(hù)的人也就越多。如果一個人因其年齡、性別或族裔等遭受歧視,他們本人非常清楚并且能夠?qū)で蠓裳a救;當(dāng)一個人由于算法決策而受到歧視時,這種歧視很可能不那么明顯,而且目前很難尋求法律補救。其解決方案在于為代表集體利益的群體賦權(quán)、推行嚴(yán)格的問責(zé)制以及制定算法影響評估機制。
(1)權(quán)利的懸殊在大數(shù)據(jù)環(huán)境中表現(xiàn)得尤為明顯,數(shù)據(jù)主體很難反對數(shù)據(jù)收集者對其信息的歧視性使用以及針對其數(shù)據(jù)的非法處理,而代表集體利益的實體(如消費者權(quán)益保護(hù)協(xié)會)不太容易受到權(quán)利不平衡的影響。消費者協(xié)會作為聯(lián)系廣大消費者的紐帶,能夠?qū)蝹€的用戶連接起來,消除搭便車心理[38],還能夠在核實事實的基礎(chǔ)上,努力解決糾紛,糾正互聯(lián)網(wǎng)企業(yè)威脅或損害數(shù)據(jù)主體利益的行為[39]。在環(huán)境保護(hù)、勞動等其他領(lǐng)域,基于權(quán)利不平衡影響直接相關(guān)一方如雇員或公民的現(xiàn)實,也都采用了這種共同利益的集體代表方式。最后,基于個體的法律補救措施可能面臨因賠償數(shù)額低而導(dǎo)致缺乏起訴動力的問題。單個的信息可能不具備足夠的訴訟價值,使得具備有限理性的互聯(lián)網(wǎng)用戶缺乏訴訟的動力[40]。此外,由大數(shù)據(jù)算法塑造的群體具有可變的幾何形狀,個體可以是多個群體的成員,個體也可以從一個群體轉(zhuǎn)移到另一個群體,這種原子性的維度使得對集體表征的需求更為迫切[17]。
(2)要確保嚴(yán)格的問責(zé)制,需要具備以下要素。①確保關(guān)于大數(shù)據(jù)自動決策發(fā)生的地點和時間及其對個人和群體的影響是清晰以及透明的;②廣泛聽取公眾意見和要求當(dāng)權(quán)者為公眾決定辯護(hù)的權(quán)利;③執(zhí)行制裁的能力[41]。首先,政策制定者不應(yīng)該只監(jiān)管人們?yōu)榱吮Wo(hù)隱私而同意如何使用他們的數(shù)據(jù),而是應(yīng)該監(jiān)管自動化決策,從收集、排序和分類數(shù)據(jù)的黑盒算法開始。這需要一種全新的監(jiān)管方法,重點應(yīng)該放在對自動決策的公眾監(jiān)督和透明度的類型上,包括揭示算法背后的現(xiàn)有數(shù)據(jù)和源代碼、訓(xùn)練數(shù)據(jù)的目的以及對哪些群體產(chǎn)生哪些具體影響,這些操作需要確保在高危人工智能部署之前進(jìn)行并定期更新。其次,明確而有針對性的透明度有助于揭示算法的影響和評估部署算法的機構(gòu)是否正確使用數(shù)據(jù),并清楚地說明由誰來收集使用數(shù)據(jù)并用于評估什么。此外,公眾有基本權(quán)利要求當(dāng)權(quán)者為他們的決定辯護(hù),包括授權(quán)參與。最后,制裁權(quán)利是這些改革取得成功和實現(xiàn)問責(zé)制的關(guān)鍵,需要用法律來限制數(shù)據(jù)的使用和自動化,而不僅僅是對個人數(shù)據(jù)使用的限制。為此,社會還需要更新相關(guān)法律,如勞動法、未成年人保護(hù)法、生物安全法、環(huán)境法等,使其與社會發(fā)展相適應(yīng)。
(3)企業(yè)和政府要制定算法影響評估機制,評估算法對群體的處理結(jié)果以及任何由數(shù)據(jù)驅(qū)動的集體傷害,確保這些評估的結(jié)果公開公布,并使公眾有可能對自動決策的使用提供有意義的投入,將這種評估擴展為社區(qū)驅(qū)動決策的工具[41]。
大數(shù)據(jù)算法造就的歧視和差異性的影響越來越普遍,保護(hù)大數(shù)據(jù)環(huán)境下的數(shù)據(jù)利益,需要制定原則、規(guī)則和針對其損害性質(zhì)的特別補救措施,關(guān)鍵的一步是將關(guān)注的焦點從對個人的侵犯和傷害轉(zhuǎn)向?qū)w的侵犯和傷害。個人信息受隱私和數(shù)據(jù)相關(guān)法律法規(guī)的規(guī)制和保護(hù)。隱私權(quán)和個人數(shù)據(jù)得到保護(hù)的權(quán)利作為個人權(quán)利,無法覆蓋數(shù)據(jù)集體維度的保護(hù)。解決方案在于為代表集體利益的群體賦權(quán)、推行嚴(yán)格的問責(zé)制以及制定算法影響評估機制。