国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法治理視域下推論信息的界定

2024-01-03 15:26:04謝欣源徐漢明
理論月刊 2023年12期
關(guān)鍵詞:個人信息保護

謝欣源 徐漢明

[摘 要] 算法推論的普及與迭代,在推動高效生活方式的同時也衍生了涉及數(shù)據(jù)主體歧視與隱私侵犯的風(fēng)險,對數(shù)據(jù)主體的基本權(quán)利產(chǎn)生不可忽視的影響??蚣苄粤⒎ǖ幕\統(tǒng)、學(xué)界研究的模糊,在不同程度上造成了對算法推斷下產(chǎn)生的信息與個人信息概念關(guān)系的認識混亂,蘊含技術(shù)進步與個體保護間的矛盾。為治理這一現(xiàn)象,應(yīng)通過倫理風(fēng)險和法律風(fēng)險的角度厘清算法推論的風(fēng)險圖景,加強算法治理風(fēng)險預(yù)防與矛盾化解能力。同時從個人信息的角度明確算法推論的概念與界限,通過權(quán)利保護的視角補強算法推論的定位與邊界,揭示算法推論與個人隱私、數(shù)據(jù)保護之間的矛盾,提升數(shù)據(jù)主體個人權(quán)利保護以弱化數(shù)據(jù)控制者對推論的控制。

[關(guān)鍵詞] 算法治理;算法推論;個人信息保護

[DOI編號] 10.14180/j.cnki.1004-0544.2023.12.015

[中圖分類號] D035; TP18? ? ? ? ? ? ? ?[文獻標(biāo)識碼] A? ? ? ?[文章編號] 1004-0544(2023)12-0135-10

基金項目:教育部哲學(xué)人文社科重大項目“‘習(xí)近平法治思想——以‘習(xí)近平社會治理法治理論原創(chuàng)性貢獻為視角”(21JZD002)。

作者簡介:謝欣源(1994—),男,中南財經(jīng)政法大學(xué)社會治理法學(xué)博士研究生;徐漢明(1951—),男,中南財經(jīng)政法大學(xué)國家治理學(xué)院教授、博士生導(dǎo)師。

一、問題的提出

算法推斷通過學(xué)習(xí)海量數(shù)據(jù)構(gòu)建輸入和輸出關(guān)系模型[1](p235),從全新的輸入中預(yù)測輸出得出推論,這屬于對個人信息的后續(xù)加工。經(jīng)算法推斷產(chǎn)生的推論如智能設(shè)備后臺中那雙“看不見的眼睛”,通過對用戶過去經(jīng)歷和相似人群的行為進行總結(jié)分析進而預(yù)測未來,揭示數(shù)據(jù)主體私人生活的方方面面,這對個體和其所處的環(huán)境造成長期的影響,并為歧視和侵害隱私創(chuàng)造了可能。推論的形式種類繁多,并不是每種形式的推論都涉及個人信息的范疇,當(dāng)且僅當(dāng)某推論是基于數(shù)據(jù)主體的某些特性、習(xí)慣、喜好或行為等信息衍生并對個人產(chǎn)生實際影響,方為本文討論的對象。

學(xué)界研究層面對推論的認識存在爭議,這包括以下兩個方面:一是,學(xué)界未就推論的定義達成統(tǒng)一的共識[2](p6)。為了更好地討論該問題,筆者把推論定義為:數(shù)據(jù)控制者通過算法推理、預(yù)測、評估等推斷方式對其所收集的信息進行進一步處理所得出的與已識別或可識別的人有關(guān)的結(jié)論。二是,推論與隱私權(quán)、數(shù)據(jù)保護、個人信息之間的矛盾一直未得到有效解決。圍繞推論是否應(yīng)當(dāng)納入個人信息的概念范疇,一方面,有學(xué)者持否定說,理由是數(shù)據(jù)的收集和利用依賴于人工的干預(yù)和資本的運作[3](p28)。大數(shù)據(jù)行業(yè)的發(fā)展需要促進和保障,利用個人數(shù)據(jù)的匯聚獲得財產(chǎn)權(quán)益的新興的商業(yè)模式在實踐中已被大型互聯(lián)網(wǎng)廠商奉為習(xí)慣,民眾對“交出個人信息—獲得服務(wù)”已經(jīng)習(xí)以為常,這些習(xí)慣先于法律產(chǎn)生,會達到預(yù)期效果[4](p9)。普通個人的數(shù)據(jù)信息財富轉(zhuǎn)換效率不顯著,政府和數(shù)據(jù)企業(yè)海量收集的個人信息才具有巨大價值。根據(jù)勞動創(chuàng)造財產(chǎn)理論,伴隨勞動的投入,數(shù)據(jù)控制者在處理數(shù)據(jù)使其成為可反復(fù)利用的資源后可取得個人信息數(shù)據(jù)的財產(chǎn)權(quán)益[5](p1160)。另一方面,有學(xué)者持肯定說,理由是個人信息屬于有關(guān)人身財產(chǎn)、人格尊嚴和個人隱私的權(quán)益。數(shù)字時代具有平臺化特征[6](p67),在數(shù)據(jù)主體與數(shù)據(jù)控制者的博弈中,數(shù)據(jù)主體處于弱勢地位[7](p21),現(xiàn)有技術(shù)無法消除算法推斷帶來的歧視,所謂算法中立和技術(shù)無罪的觀點無法消除推斷侵害的可能性[8](p24);而《中華人民共和國個人信息保護法》(以下簡稱“《個人信息保護法》”)的立法目的不僅是為促進網(wǎng)絡(luò)行業(yè)的發(fā)展,更賦予了個人不受不法侵害的權(quán)益。為回應(yīng)以上問題,本研究聚焦于如何解決算法推論與個人隱私、數(shù)據(jù)保護之間的矛盾,完善相關(guān)法律法規(guī)體系。

二、算法推論的風(fēng)險圖景

數(shù)據(jù)控制者利用大數(shù)據(jù)工具收集和分析個人信息已經(jīng)有數(shù)十年的歷史[9](p64-72)。近年來,大數(shù)據(jù)技術(shù)的發(fā)展在更強大的內(nèi)存和分析能力的支持下突飛猛進,與最初的數(shù)據(jù)收集與分析不同,現(xiàn)在的自動化算法推斷工具有更強大的收集和識別能力,準(zhǔn)確評估算法的作用和相關(guān)風(fēng)險是政策分析和決策的基礎(chǔ)[10](p2)。

(一)厘定算法推論應(yīng)用引發(fā)的倫理風(fēng)險

從感知獲取角度看,數(shù)據(jù)記錄呈現(xiàn)悄然性和實時性,數(shù)據(jù)主體對自動化記錄工具的感知能力下降,隱私侵犯展現(xiàn)難以被察覺的特征。一方面,隨著法律法規(guī)的完善,多數(shù)數(shù)據(jù)控制者在數(shù)據(jù)主體第一次使用設(shè)備或應(yīng)用程序時都會告知隱私條款并向其索取訪問權(quán)限。在得到數(shù)據(jù)主體第一次授權(quán)許可后,數(shù)據(jù)記錄在后臺運行,數(shù)據(jù)記錄設(shè)備對數(shù)據(jù)主體的記錄往往被數(shù)據(jù)主體忽略,即無論這些記錄是否被感知,記錄時刻都在發(fā)生。以某款智能手表為例,在用戶第一次使用時會征求用戶意見,允許其跟蹤、儲存位置信息,監(jiān)測睡眠習(xí)慣及質(zhì)量,并生成相應(yīng)的健康質(zhì)量、睡眠質(zhì)量的報告,由此可見記錄的產(chǎn)生并不以用戶的感知為前提。另一方面,個性化分析工具的工作模式依賴于大量信息的獲取,該過程往往與數(shù)據(jù)主體的隱私相關(guān)聯(lián)。隨著存儲、傳輸、計算的工具多樣化,數(shù)據(jù)感知無處不在,對數(shù)據(jù)主體的信息的記錄幾乎是全天候的。比如,智能手表可實時檢測記錄心率,捕捉過快、過慢或者不規(guī)律的心跳,并向用戶發(fā)出警告,這展現(xiàn)出敏感信息的記錄往往與隱私獲取相關(guān)聯(lián)。

從敏感信息解讀角度看,敏感信息收集能力的增強與數(shù)據(jù)主體隱私保護呈此升彼降的關(guān)系。個性化算法數(shù)據(jù)的收集并不僅僅來源于傳統(tǒng)意義上的數(shù)據(jù)集,而是依靠系統(tǒng)性的數(shù)據(jù)挖掘,對已收集數(shù)據(jù)進行進一步分析,找到之前未建立關(guān)聯(lián)的兩組或多組數(shù)據(jù),以新的模型構(gòu)建數(shù)據(jù)分類和關(guān)聯(lián),從而擴展現(xiàn)有數(shù)據(jù)集的信息量,達到充分利用的目的。數(shù)據(jù)挖掘的發(fā)展使得原有數(shù)據(jù)集的細節(jié)被進一步放大的同時,一個新的數(shù)據(jù)的引入也會和之前的數(shù)據(jù)建立新的聯(lián)系,個性化算法對于一件事或一個人的認識也會更深入。第一種情況是,數(shù)據(jù)主體提供給算法的數(shù)據(jù)往往不是敏感數(shù)據(jù),但是與其他數(shù)據(jù)結(jié)合后可能上升為敏感數(shù)據(jù)。比如個人的位置信息通常是無害的,但若與其他若干個體的位置信息疊加比較,通過算法疊加推斷出二者的關(guān)系不僅僅潛在地或顯現(xiàn)地對個人人格權(quán)及其人格權(quán)利益造成侵害,甚至?xí)a(chǎn)生延伸而造成危害公共安全的情形。第二種情況是,算法推斷對個體的定性分析的敏感性傾向。量化分析通常危害性不高①,因為它不涉及生物識別、宗教信仰、特定身份等敏感信息。而定性分析經(jīng)常與個人的性質(zhì)屬性相關(guān)聯(lián),因為定性分析往往依賴算法根據(jù)過往數(shù)據(jù)的信息對數(shù)據(jù)主體進行“畫像”和推斷,描繪出有關(guān)數(shù)據(jù)主體的性取向、性格特征、智力水平、政治觀點、行為模式乃至行動軌跡等特點,這些被推斷出的特征與信息往往不是數(shù)據(jù)主體自愿共享的,從而違背自主決定主義。

(二)厘定算法推論應(yīng)用隱藏的法律風(fēng)險

相對于規(guī)范數(shù)據(jù)控制者利用已收集到的數(shù)據(jù)作出推論,立法更關(guān)注如何保護數(shù)據(jù)主體輸入數(shù)據(jù)和數(shù)據(jù)控制者如何收集和處理個人數(shù)據(jù)的過程。但是個性化算法帶來的危害往往集中于對數(shù)據(jù)主體的推論上,而不是大數(shù)據(jù)信息的收集行為。對于數(shù)據(jù)主體來說,具有個性化推斷屬性的數(shù)據(jù)集出現(xiàn)判斷失誤或產(chǎn)生歧視的情況是不可控的。同時,算法推斷不僅是數(shù)據(jù)輸入后對數(shù)據(jù)的處理,基于推斷產(chǎn)生的推論將再次被當(dāng)作數(shù)據(jù)輸入數(shù)據(jù)集以校準(zhǔn)數(shù)據(jù)集結(jié)果,這是算法自我更新、自我強化的過程。尤其在自我更新的過程中,微小的數(shù)據(jù)偏差都可能導(dǎo)致指數(shù)級的錯誤,當(dāng)錯誤數(shù)據(jù)鏈接到數(shù)據(jù)主體,將對數(shù)據(jù)主體產(chǎn)生更廣泛的危害。

1.匿名形式化條件下隱含的侵權(quán)可能

匿名數(shù)據(jù)存在形式上匿名的幻化趨勢。即使數(shù)據(jù)主體在網(wǎng)絡(luò)上以匿名方式進行網(wǎng)絡(luò)活動,算法仍可根據(jù)匿名數(shù)據(jù)蘊含的信息與已有數(shù)據(jù)關(guān)聯(lián)比照,推出匿名數(shù)據(jù)背后的用戶個人信息。個人信息雖經(jīng)匿名化處理,但是為了避免算法推論產(chǎn)生不可控的危害,數(shù)據(jù)主體可能進入“寒蟬效應(yīng)”的怪圈,減少網(wǎng)絡(luò)活動或不發(fā)表個人真實意見,以防范潛在風(fēng)險[11](p18)。比如,評論區(qū)關(guān)于熱點事件的看法往往會天馬行空、熱鬧非凡,但也會因為“言行正確”而鴉雀無聲;網(wǎng)絡(luò)投票會因為投票者標(biāo)準(zhǔn)不同而產(chǎn)生不同的傾向,但卻會因為存在投票結(jié)果暴露的風(fēng)險而投出不符合個人意愿的一票;個體可以在網(wǎng)絡(luò)上分享自己的抑郁情緒,但會被系統(tǒng)貼上“存在風(fēng)險”的標(biāo)簽。

2.不可預(yù)測性條件下隱含的侵權(quán)可能

首先,個體心理和行為活動具有漸變特征。算法推斷不僅僅以單獨的個人行為作為基礎(chǔ),更是基于由數(shù)據(jù)主體群體行為組成的大數(shù)據(jù)池為分析基礎(chǔ),在了解一群相似人的特征后推斷出某個具體人的下一步行動。其本質(zhì)是通過以往的實證經(jīng)驗預(yù)測未來行為發(fā)生的可能性,但是過去的表現(xiàn)并不一定能準(zhǔn)確預(yù)測未來的結(jié)果。算法根據(jù)過往推論給數(shù)據(jù)主體貼上不同標(biāo)簽以強化數(shù)據(jù)主體對自身的認識,社會與個體的未來是發(fā)展變化的,這表現(xiàn)在基于對過去的認知對未來的判斷往往會產(chǎn)生先入為主的偏見。尊重個體的自決權(quán)是現(xiàn)代法治尤為關(guān)鍵的內(nèi)涵,是充分相信并尊重個體自由意志的表現(xiàn),從某種意義上講,刻板的印象與先入為主的偏見為侵權(quán)埋下了隱患。

其次,推論運行機制脫離因果關(guān)系。一方面,算法的運行并不僅僅遵循因果關(guān)系,有時甚至是違反直覺的以至于在推論決定被作出時甚至不受監(jiān)督制約、無法被驗證。受專業(yè)知識和商業(yè)機密雙重限制,數(shù)據(jù)主體無法訪問關(guān)于自身的推論以及產(chǎn)生推論的過程,雖然《個人信息保護法》第13條規(guī)定數(shù)據(jù)控制者處理個人信息前應(yīng)當(dāng)取得數(shù)據(jù)主體的同意,但是數(shù)據(jù)主體即便“知情—同意”也無法預(yù)見算法對已有證據(jù)的推斷,即使是算法的創(chuàng)造者和運行者也無法全面預(yù)測算法的推斷,更不用說預(yù)見推論對現(xiàn)實造成的影響。另一方面,算法蘊含的價值判斷并不總是中立的,其設(shè)計中隱藏著歧視與不公,甚至隱藏著利益集團的控制[12](p1622),數(shù)據(jù)主體的正當(dāng)利益可能受到破壞,算法秩序的安定性不被信賴,這會導(dǎo)致推論造成的損害成本由使用者承擔(dān)[13](p1083)。在這種情況下,不存在充分的理由期待算法具有法律視角規(guī)范下的因果關(guān)系合理性。

3.推論隱含的社會治理風(fēng)險

算法推論造成個人自治秩序紊亂風(fēng)險。一方面,算法可時刻感知、收集數(shù)據(jù)主體個人信息,并分析其個人喜好,數(shù)據(jù)主體被迫出讓個人信息和隱私以獲得數(shù)據(jù)控制者提供的服務(wù)。數(shù)據(jù)主體如置身于圓形監(jiān)獄,獄卒可以觀察到囚犯的一舉一動,而囚犯卻看不到獄卒,數(shù)據(jù)主體無奈被困于牢獄中而不知算法根據(jù)其行為偏好來為其定制推送內(nèi)容[14](p15)。另一方面,推斷導(dǎo)致兩種可能性,一種是過度強調(diào)個人喜好的正確推論,一種是推斷錯誤的推論。這種推論導(dǎo)向在應(yīng)用程序持續(xù)吸引數(shù)據(jù)主體的興趣,增加用戶黏性的同時,也會使數(shù)據(jù)主體沉迷于當(dāng)前的、短暫的需求刺激中,而忽略了未來的、其他的需求,導(dǎo)致數(shù)據(jù)主體追求的局限性與獲得信息知識的單一化,不利于數(shù)據(jù)主體按照正常需求發(fā)展模式發(fā)展個人興趣。

算法推論加劇對司法公平的侵擾。依據(jù)被告身份、種族、愛好、收入等情況對其作出再犯可能性的評估正逐漸進入一些國家的司法系統(tǒng),但是這種風(fēng)險評分可能會給法庭判斷注入偏見。美國前司法部部長埃里克·霍爾德認為風(fēng)險評估系統(tǒng)會加劇本已存在于司法中的無根據(jù)和不公平的傾向。對犯罪的評估應(yīng)當(dāng)滿足正當(dāng)程序和證據(jù)規(guī)則,而不是基于某種不可控制和改變的因素,如過往的愛好、種族和言論,但這恰恰是風(fēng)險評估系統(tǒng)決策的依據(jù)之一。推論公正性、歧視可能性、黑箱效應(yīng)及結(jié)構(gòu)性立法差異都會嚴重影響再犯風(fēng)險預(yù)測系統(tǒng)的證據(jù)資格與效力,這使其面臨包括準(zhǔn)確性難以判斷、無法進行有效辯護以及說服力不足等問題,同時加劇司法不穩(wěn)定。

三、個人信息保護法中推論的認定

《個人信息保護法》第4條①明確了個人信息的概念具有“以電子或其他方式記錄的”“已識別或可識別的”“自然人相關(guān)聯(lián)”“各種信息”“非匿名信息”的特征。實踐中,推論數(shù)據(jù)往往被數(shù)據(jù)控制者掌握并成為其私人財產(chǎn),但是從語義學(xué)的角度對個人信息特點進行分析,與可識別的個人相關(guān)聯(lián)的算法推論具有個人信息應(yīng)當(dāng)具有的所有特點。

(一)推論是以電子或其他方式記錄的

推論符合以電子或其他方式記錄的特征。以往個人信息保護中,關(guān)注點更多地集中在個人信息構(gòu)建的整體性和完整性上,但是目前為了確?!皞€人信息”概念劃定不會導(dǎo)致對數(shù)據(jù)主體的歧視,對其的保護逐漸由靜態(tài)走向動態(tài),即不只關(guān)注“個人信息”概念的整體性和完整性,也要關(guān)注個人信息構(gòu)建過程,對個人身份構(gòu)建過程投入更多關(guān)注是人格權(quán)在算法時代新的轉(zhuǎn)變與發(fā)展[15](p5)?!耙噪娮踊蛘咂渌绞接涗洝睂儆趥€人信息記錄方式之一,是個人信息構(gòu)建的基礎(chǔ)過程?!秱€人信息保護法》中“以電子或者其他方式記錄”的表述沿用了之前的立法規(guī)定,從中可得出以下認識:第一,個人信息須被記錄,不被記錄的或不能被記錄的不算個人信息。第二,個人信息的表現(xiàn)形式不拘泥于以代碼、圖形為代表的電子文檔,也包括以文字為代表的傳統(tǒng)信息記錄模式,信息與數(shù)據(jù)是一體兩面,是內(nèi)容與形式的關(guān)系[16](p6)。

推論的迭代記錄表現(xiàn)出被記錄的特點。在實際應(yīng)用時,也存在數(shù)據(jù)控制者變相記錄儲存?zhèn)€人信息的現(xiàn)象,比如通過“下載—打印”的方式實錄儲存數(shù)據(jù)主體輸入的相關(guān)信息以及算法對數(shù)據(jù)主體的判斷。在算法推斷的過程中,只有不斷地對基于數(shù)據(jù)主體產(chǎn)生的推論進行記錄,才能將本次推論作為下一次推斷的依據(jù),即算法的運行不僅會記錄數(shù)據(jù)主體的輸入數(shù)據(jù),也會記錄對數(shù)據(jù)主體的推論。即使數(shù)據(jù)控制者對記錄推論的文檔進行封裝保存,采取了必要的保護措施,履行了必要的注意義務(wù),這整個過程仍算是對推論進行的記錄。

(二)推論是已識別或可識別的

已識別是指如果已利用某一要素將某人從某一群體中單獨挑選出來,則可以稱這個自然人因某種特征已經(jīng)被識別出來。已識別的個人信息是指包含姓名、性別、年齡、住址、電話等具體直接連接某人特征要素的個人信息。例如,某購物平臺可以根據(jù)某女性用戶購買了母嬰產(chǎn)品這一已識別的個人信息推斷出該女性用戶可能有生育經(jīng)歷,這一推論仍應(yīng)屬于該女性用戶隱私方面的個人信息。

可識別是指當(dāng)具備可識別的條件或存在被識別的可能,即使因為某種原因,系統(tǒng)沒有主動將自然人識別,但由于該自然人對于系統(tǒng)來說是可識別的,因此仍認為該信息具有可識別性。可識別的信息包括個人習(xí)慣、興趣愛好、位置信息、IP地址等,需要運用附加手段方可推理識別出某人的要素的個人信息。比如當(dāng)某人提供的住址不夠詳細到可以鎖定他時,住址則變成了算法推斷用于鎖定區(qū)域的間接要素。

辯證看待已識別、可識別與個人信息的關(guān)系。如前所述,對于利用已識別或可識別的個人信息進行推斷所得到的推論,應(yīng)當(dāng)屬于個人信息這一結(jié)論是顯而易見的。但是對于利用不涉及個人信息的基礎(chǔ)信息進行推斷得出的涉及個人信息的推論是否屬于個人信息的范疇,還有待研究。算法可以利用對于常人而言不具有可識別性的信息推斷出涉及個人信息的推論,雖然該信息本身不涉及個人信息,但是這些信息經(jīng)過算法推斷后產(chǎn)生的推論是能夠定位到個人的。如在國內(nèi)某短視頻平臺上,某位用戶上傳了一段關(guān)于某位藝人行為的文字論述,雖然該用戶在論述過程中并沒有直接標(biāo)明藝人的姓名等資料,但是短視頻平臺基于大數(shù)據(jù)技術(shù)通過算法對這一信息進行推斷產(chǎn)生了推論,并在平臺的搜索欄中展示了這一推論,導(dǎo)致其他用戶可以在搜索欄中知曉涉事藝人姓名。因此對于可識別與已識別,須根據(jù)具體的情況作動態(tài)的判斷,但如果最終的結(jié)果都導(dǎo)向某用戶的具體信息、概括特征或建立某種連接,可認定該推論具有已識別或可識別特征,并進一步探究該推論是否屬于個人信息范疇。如前所述,通過推論可以識別到可識別的個人,推論則具有可識別性。因此如果將推論排除在個人信息保護范圍外,則與可識別標(biāo)準(zhǔn)相違背。

(三)推論與自然人相關(guān)

基于推論識別自然人。有關(guān)個人信息的概念,《個人信息保護法》用到了“自然人”的表述。自然人的范疇內(nèi),無論性別、年齡,在個人信息的意涵上每個人都享有平等的權(quán)利,與此相近的是,有學(xué)者指出可以把個人信息理解為與個人相關(guān)的信息[15](p5)。即能識別出自然人的信息是個人信息。個人信息的概念中之所以強調(diào)自然人,是因為在該信息與某人產(chǎn)生聯(lián)系并識別該人的情況下,該信息方可納入個人信息概念,防止個人信息保護權(quán)過度擴張。

值得延伸討論的是對法人、動植物、死者的推論往往不屬于個人信息的范疇。這包括兩種含義:一是,根據(jù)《民法典》的規(guī)定,自然人死亡后不具有權(quán)利主體資格。已逝者的個人信息在《個人信息保護法》個人信息的框架下不受其保護。但是也存在例外,當(dāng)算法基于已逝者的信息推斷出另一自然人的特征或信息,基礎(chǔ)信息即使隸屬于前者,也不能簡單地歸屬于個人信息的范疇,理由是該基礎(chǔ)信息只有在連接到可識別或已識別的自然人時可被歸納為該自然人的個人信息。二是,法人、動植物不屬于自然人的范疇。與上述理論類似的是,算法可依據(jù)法人、動植物等內(nèi)涵的信息推斷出其他自然人的特征,此時上述事物蘊含的部分信息屬于個人信息的范疇,這表明對于每一個推論都應(yīng)當(dāng)獨立評判從而得出該推論是否屬于個人信息的判斷。

(四)推論屬于各種信息的范疇

各種信息的外延。在數(shù)據(jù)主體與數(shù)據(jù)控制者的博弈中,數(shù)據(jù)主體始終處于弱勢地位,為防止對各種信息的誤讀,應(yīng)明晰各種信息的概念范疇。信息可分為主觀信息和客觀信息??陀^信息指數(shù)據(jù)主體自我輸入的數(shù)據(jù),既包括姓名、地址、電話等真實的、具體的描述,也包括其對自己或者他人的帶有主觀性色彩的描述。對自己的或者他人的帶有主觀性色彩的描述之所以是客觀信息,是基于數(shù)據(jù)主體對自我情況的說明也是相對于推論的主觀性而言的。

主客觀信息外延的高度模糊性。一方面,主觀信息具有相對性,算法推斷的信息本質(zhì)上是主觀信息,它既可以是有依據(jù)的,也可以是沒有依據(jù)的假設(shè)、意見、評估,屬于基于學(xué)習(xí)和概念分析的結(jié)果,類似于經(jīng)驗分析的結(jié)果,所以當(dāng)這種結(jié)果對個體產(chǎn)生影響的時候又具有客觀性。另一方面,信息載體形式存在差異。信息既可以編碼形式存在,也可以圖形、照片、畫像、文字等形式存在。例如統(tǒng)計學(xué)上根據(jù)統(tǒng)計數(shù)據(jù)形成概率研究或者個性測試,將該結(jié)果輸入算法后對數(shù)據(jù)主體作出推斷,推斷結(jié)果既可應(yīng)用在性格測試、種族測試、就業(yè)測試等敏感領(lǐng)域,又可應(yīng)用在廣告推動、音樂推送、視頻推送等日常領(lǐng)域,且都與個體息息相關(guān),并可以連接到可識別的個人,該結(jié)果自然屬于個人信息意涵的各種信息。

有待探討的問題是若數(shù)據(jù)主體輸入的有關(guān)個人的數(shù)據(jù)是虛假的,該數(shù)據(jù)是否屬于數(shù)據(jù)主體的個人信息,算法基于該虛假信息進行推斷產(chǎn)生的推論是否還屬于該數(shù)據(jù)主體的個人信息。首先,從個人信息的概念來看其完全符合個人信息定義,但從立法者的角度來看應(yīng)該是排除在外的,否則會對個人信息的概念作出不必要的拓展。其次,從語義學(xué)的角度出發(fā),各種信息強調(diào)的是信息的形式和數(shù)量而不是真?zhèn)蔚膮^(qū)別。對于個人信息而言,它不一定要求是真實或者經(jīng)過證明的,也就是說即使是錯誤的推斷,或者是數(shù)據(jù)主體故意提供的錯誤信息,也屬于個人數(shù)據(jù)。最后,從保護的必要性來看,一種情況是他人輸入的有關(guān)個人的信息真實準(zhǔn)確時,值得保護;另一種情況是他人輸入的有關(guān)個人的信息是捏造的或不準(zhǔn)確時,如果被傳播或以電子形式記載下來,后以某種不特定的方式侵害到個人,這種仍值得保護。因此,根據(jù)客觀信息進行算法推斷得出的各種主觀信息仍舊應(yīng)當(dāng)納入《個人信息保護法》中個人信息的概念范圍。

(五)推論是非匿名化的

首先,匿名化是對個人信息的進一步處理。但它卻超越了個人信息的保護范圍,《個人信息保護法》第73條第4款規(guī)定:“匿名化,是指個人信息經(jīng)過處理無法識別特定自然人且不能復(fù)原的過程。”《民法典》第1038 條規(guī)定:“信息處理者不得泄露或者篡改其收集、存儲的個人信息;未經(jīng)自然人同意,不得向他人非法提供其個人信息,但是經(jīng)過加工無法識別特定個人且不能復(fù)原的除外。”雖然二者對匿名化的規(guī)定略有差異,比如前者使用“處理”,而后者使用“加工”;前者使用“自然人”,而后者使用“人”的表述。但是不難看出兩者僅在用詞上有區(qū)別,但都旨在闡述匿名化信息與可識別信息之間的關(guān)系。

其次,匿名化與去標(biāo)識化相關(guān)。《個人信息保護法》中的去標(biāo)識化是指,個人信息經(jīng)過處理,使其在不借助額外信息的情況下無法識別特定自然人的過程。而匿名化是通過相關(guān)技術(shù)手段的處理,使信息不具有個人屬性,并無法逆轉(zhuǎn)這種不可識別的狀態(tài)。匿名化信息和去標(biāo)識化信息的區(qū)別在于匿名化信息即使結(jié)合其他信息也無法識別到個人,并且是不可逆的過程,二者具有高度相關(guān)性。

再次,匿名化信息不是個人信息的范疇。立法對匿名化信息的規(guī)定應(yīng)是嚴格不可逆的,但也有觀點認為互聯(lián)網(wǎng)的匿名是“可追溯的匿名”,比如在線評論匿名的,但是總會留下痕跡,嚴格的匿名化是不存在的[17](p54)。

最后,推論基于分析匿名數(shù)據(jù)得出信息。掩碼雖然可以隱藏個人信息,但是不能隱藏數(shù)據(jù)原本的字符數(shù)目,即使留意了每種風(fēng)險可能性的存在,算法推斷的風(fēng)險也不限于在某單一屬性中出現(xiàn),也可能跨屬性出現(xiàn)?!稓W盟一般數(shù)據(jù)保護條例》序言第26條規(guī)定:為判斷自然人身份是否可被識別,需要考慮所有可能使用的手段,例如利用控制者或其他人直接或間接地確認自然人身份。為判斷所使用的手段是否可能用于識別自然人,需要窮盡考慮所有客觀因素,包括對身份進行確認需要花費的金錢和時間、現(xiàn)有處理技術(shù)以及科技發(fā)展。歐盟29條工作組在第05/2014號意見書中指出匿名化處理在于杜絕識別當(dāng)事人的身份,且處理結(jié)果是不可逆的。因此,對匿名化數(shù)據(jù)的理解不應(yīng)追求絕對的匿名化,而應(yīng)是在現(xiàn)有技術(shù)手段和有限的時間精力下仍無法破解的有限匿名。

四、推論信息規(guī)制的邏輯與進路

個人信息的保護是當(dāng)代社會的共識,保護商業(yè)公司的利益也不容忽視。推論的產(chǎn)生與發(fā)展不僅僅是為了服務(wù)客戶,也是為了獲取利潤,就目前的情形和未來的發(fā)展趨勢研判,算法對數(shù)據(jù)主體的推論是不可避免的。因此,為推動算法技術(shù)協(xié)調(diào)穩(wěn)步發(fā)展,需要重視數(shù)據(jù)控制者開發(fā)完善算法的積極性,對推論的規(guī)制應(yīng)當(dāng)平衡雙方利益,遵循一定的比例原則。基于平衡比例理論,數(shù)據(jù)主體向數(shù)據(jù)控制者出讓部分基礎(chǔ)信息的控制權(quán),數(shù)據(jù)控制者基于個性化分析推送合理、公平、公正的推論并提供推論產(chǎn)生的理由和基礎(chǔ),建立數(shù)據(jù)控制者與數(shù)據(jù)主體之間的對話機制。

(一)推論規(guī)制的邏輯路徑

數(shù)據(jù)控制者的公信力取決于其道德能力,須把握社會理性的公約數(shù)。所謂社會理性,是社會主流道德觀念對某件事的認知和判斷,符合社會上多數(shù)人的期待,與最低的道德標(biāo)準(zhǔn)相比,具有更高的社會道德期待可能性。即數(shù)據(jù)控制者在算法推論等問題上有多大空間支持社會理性,社會理性就會在多大程度上反哺數(shù)據(jù)控制者。反映在用戶的依賴和選擇上,這種關(guān)系在商業(yè)上是一種投入與回饋的過程,在法律上是一種權(quán)利與義務(wù)的規(guī)制。所以,算法推論在致力于追求公平、公正的同時,也致力于理性與合理的達成。這也表明一個合理、公平、公正的推論結(jié)果反映的是社會理性對某一行為的期待和要求,有助于引導(dǎo)人們選擇正義,發(fā)展個人自治的期待。一項有悖于社會理性期待的推論,不管其是否嚴格遵循算法因果關(guān)系,其結(jié)果都是負面的。對推論理性的規(guī)制僅停留在公平、公正的基礎(chǔ)上是遠遠不夠的,平均式公平公正的價值選擇只能解決歧視問題,無法滿足算法時代對個人主體保護的其他要求,因此應(yīng)當(dāng)引入社會理性的概念對推論進行約束和引導(dǎo)。

1.社會理性對推論機制的約束能力

數(shù)據(jù)控制者所遵循的社會理性是社會主流道德價值的內(nèi)在要求,也是立法理念的永恒追求。在現(xiàn)實世界的交往中,人們根據(jù)行為是否遵循社會理性而賦予其道德的正面或負面評價,如果推斷結(jié)果符合社會理性的基本內(nèi)涵,那么它就是社會主流道德可接受的;反之,如果推論結(jié)果違反社會理性的期待,那么它就無法被社會主流道德接納。因此,社會理性的最大公約數(shù)是算法推論是否符合社會主流道德價值的評判標(biāo)準(zhǔn)。

2.社會理性對推論機制的引導(dǎo)能力

一方面,數(shù)據(jù)控制者設(shè)計推論機制時應(yīng)具有對社會主流價值體系整體性認識的能力。推論機制對社會成員的社交喜好、未來發(fā)展等基本認知與判斷應(yīng)符合常理。這決定了立法在規(guī)制推論時的進路。算法推斷產(chǎn)生發(fā)展的意義在于方便社會成員生活、推動人類社會發(fā)展,因此其追求的基本價值建立在滿足社會成員原有生活方式的基礎(chǔ)上,力求發(fā)展一種更便捷地獲取信息的方式,而不是造成一種新的歧視和約束。為規(guī)避這一傾向,立法對推論的引導(dǎo)過程中須加入社會理性的價值認同。

另一方面,數(shù)據(jù)控制者設(shè)計推論機制時應(yīng)具有對道德要素體系全方位把握的能力。之于推論的說服力,本質(zhì)上是道德要素。推論能否被社會大眾接受,反映的是其是否滿足道德要素,它是一種潛移默化、約定俗成的社會共識,反映了全體社會成員的心理認同。在這個層面上,推論邏輯的設(shè)計不是考驗算法遵循機械邏輯的能力,而是取決于算法秉承的道德要素體系。一項值得信服的推論,一定是合情合理、經(jīng)得起審視的推論,如若推斷過程是機械式的判斷,很可能會偏離被推論行為本身的含義,造成不必要的曲解。

(二)個人信息范疇下對推論的法律規(guī)制

數(shù)據(jù)主體有權(quán)質(zhì)疑并改變關(guān)于自身的推論。在數(shù)據(jù)保護和隱私領(lǐng)域,這通常意味著個人應(yīng)有權(quán)質(zhì)疑和更正給予他們個人數(shù)據(jù)的自動化決策與推論,特別是當(dāng)這些推論對他們有重大影響時。而改變的前提是查閱,維權(quán)的前提是復(fù)制,上文談到了在現(xiàn)有語境下推論被概括到個人信息的概念,納入《個人信息保護法》規(guī)制的推論則有了更有力的保護。

首先,數(shù)據(jù)主體享有查閱推論的權(quán)利。數(shù)據(jù)主體對推斷的結(jié)果享有決定權(quán),決定的前提是查閱。雖然數(shù)據(jù)主體不具備剖析算法運行模式的專業(yè)知識,僅通過查閱算法推斷的處理規(guī)則也無法保證不會產(chǎn)生錯誤的或不利的推斷結(jié)果,但數(shù)據(jù)主體只有通過查閱推論才能發(fā)現(xiàn)不準(zhǔn)確、不完整或者過時的推論。在個人信息權(quán)利保護視角下,查閱權(quán)是面對推斷侵害時的首要的保護方式,有助于幫助數(shù)據(jù)主體判斷該推論是否準(zhǔn)確、必要,防范推論侵害繼續(xù)擴大。如《歐盟一般數(shù)據(jù)保護條例》第15條規(guī)定了數(shù)據(jù)主體對數(shù)據(jù)畫像和推論的邏輯意義訪問的權(quán)利:數(shù)據(jù)主體有權(quán)從數(shù)據(jù)控制者處確認其個人數(shù)據(jù)是否正在被處理,以及有權(quán)在該種情況下訪問個人數(shù)據(jù)和信息。即數(shù)據(jù)控制者利用已收集到的數(shù)據(jù)主體個人信息作出有關(guān)數(shù)據(jù)主體的推論,無論是否影響到數(shù)據(jù)主體的實際權(quán)利,數(shù)據(jù)主體都享有查閱推論的權(quán)利,當(dāng)數(shù)據(jù)控制者妨礙數(shù)據(jù)主體行使查閱權(quán)時,數(shù)據(jù)主體有權(quán)要求排除妨害。

其次,數(shù)據(jù)主體對推論享有要求解釋說明權(quán)?!秱€人信息保護法》第48條規(guī)定個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明。雖然本條規(guī)定了數(shù)據(jù)主體享有要求解釋說明權(quán),但是這只是針對處理規(guī)則而言的,對于推論的結(jié)果數(shù)據(jù)主體是否同樣具有要求數(shù)據(jù)控制者解釋說明的權(quán)利,《個人信息保護法》則未規(guī)定。算法屬于數(shù)據(jù)控制者的商業(yè)秘密,牽扯到其市場競爭核心利益,如果要求數(shù)據(jù)控制者對全部推論的結(jié)果進行解釋說明是不現(xiàn)實的。解決該問題可以參考張新寶提出的權(quán)利協(xié)調(diào)原則,從數(shù)據(jù)控制者和數(shù)據(jù)主體權(quán)利協(xié)調(diào)的角度切入,即當(dāng)數(shù)據(jù)主體認為需要對涉及自身的推論要求解釋說明時,且對該推論的解釋說明在數(shù)據(jù)處理者的利益可承擔(dān)范圍內(nèi),可認定該解釋說明的要求在合理范圍內(nèi),數(shù)據(jù)控制者應(yīng)作出解釋說明。

再次,數(shù)據(jù)主體對數(shù)據(jù)控制者享有請求權(quán)。更正、補充和刪除權(quán)本質(zhì)上是一種請求權(quán),即便推論是正確的,數(shù)據(jù)主體亦有權(quán)要求刪除推論,數(shù)據(jù)控制者不能通過“推斷過程是一種勞動,推論是收益”的觀點拒絕履行該義務(wù)。個人信息概念涵蓋推論后,一方面,數(shù)據(jù)主體可以選擇行使更正、補充權(quán),即對推論進行修改或調(diào)整,以避免個人自決權(quán)和個人隱私權(quán)受到侵犯而受到更大影響。數(shù)據(jù)主體發(fā)現(xiàn)其個人信息不準(zhǔn)確或者不完整時,有權(quán)請求個人信息處理者更正、補充,數(shù)據(jù)主體請求更正、補充其個人信息的,個人信息處理者應(yīng)當(dāng)對其個人信息予以核實,并及時更正、補充。推論屬于個人信息時,數(shù)據(jù)主體自然享有該權(quán)利。另一方面,當(dāng)推論被排除出個人信息概念范圍時,縱觀《個人信息保護法》,沒有規(guī)定數(shù)據(jù)主體是否有權(quán)要求刪除經(jīng)自動化決策后生成的推斷信息,數(shù)據(jù)主體無權(quán)刪除數(shù)據(jù)控制者對數(shù)據(jù)主體的推論會加劇數(shù)據(jù)控制者對數(shù)據(jù)主體個人信息權(quán)的侵犯;當(dāng)推論被納入個人信息概念范圍時,刪除權(quán)是推論被納入個人信息概念后數(shù)據(jù)主體獲得的又一重要權(quán)利?!睹穹ǖ洹返?037條第2款規(guī)定:自然人發(fā)現(xiàn)信息處理者違反法律、行政法規(guī)的規(guī)定或者雙方的約定處理其個人信息的,有權(quán)請求信息處理者及時刪除。與《個人信息保護法》第47條結(jié)合來看,數(shù)據(jù)主體行使查閱權(quán)后有權(quán)按規(guī)定要求數(shù)據(jù)控制者刪除其信息。這背后體現(xiàn)的是立法者通過對數(shù)據(jù)主體自主決定權(quán)的保護,進而維護個人信息權(quán)的完整性與整體性。換言之,刪除推論是防止侵害和要求停止侵害的自我救濟方式,數(shù)據(jù)主體有權(quán)刪除推論是個人實施個人信息權(quán)的途徑,也是個人信息權(quán)發(fā)生效力的表現(xiàn)。當(dāng)推斷被刪除并且不以電子或其他方式記錄時,方能最大限度地保護個人信息的自主權(quán),降低被數(shù)據(jù)控制者侵權(quán)的風(fēng)險。

五、結(jié)語

個人信息框架亟須完善,推論信息概念和范圍的確立作用在于補強個人信息保護力度。用戶偏好在學(xué)理上是一種心理認同,取決于個體對價值的權(quán)衡與選擇,受外界雕琢與篆刻的同時也秉持自由與熱愛,不受數(shù)據(jù)控制者或其他團體干涉與控制是其基本內(nèi)核。本文通過對算法推論概念和風(fēng)險的系統(tǒng)性梳理和規(guī)范性闡釋,基本觀點是對個體的推論信息符合個人信息的概念范疇,應(yīng)當(dāng)納入《個人信息保護法》的規(guī)范框架。數(shù)據(jù)控制者在處理和分析個人信息時,不僅要對直接收集的數(shù)據(jù)進行保護,通過推斷得出的個人信息也應(yīng)當(dāng)?shù)玫竭m當(dāng)?shù)奶幚?。?guī)范算法推論信息概念范疇的價值在于消解推論信息與個人隱私之間的矛盾,厘定推論信息隱含的侵權(quán)可能與風(fēng)險圖景,從而緩解個體利益與數(shù)字平臺利益之間的內(nèi)部張力,以提高對個人自治系統(tǒng)紊亂的認知和把握能力,在維護用戶合法權(quán)益的同時推動數(shù)字平臺持續(xù)健康發(fā)展。

參考文獻:

[1]Selbst A D, Powles J. Meaningful Information and the Right to Explanation[J]. International Data Privacy Law, 2017, 7(4).

[2]Hallinan D, Zuiderveen Borgesius F. Opinions can be Iincorrect (in our opinion)! On Data Protection Laws Accuracy Principle[J]. International Data Privacy Law, 2020, 10(1).

[3]許可.數(shù)據(jù)權(quán)屬:經(jīng)濟學(xué)與法學(xué)的雙重視角[J].電子知識產(chǎn)權(quán),2018(11).

[4]蘇力.法治及其本土資源[M]. 北京:北京大學(xué)出版社,2004.

[5]張新寶.論個人信息權(quán)益的構(gòu)造[J].中外法學(xué),2021(5).

[6]馬長山.數(shù)智治理的法治悖論[J].東方法學(xué),2022(4).

[7]張新寶.個人信息處理的基本原則[J].中國法律評論,2021(5).

[8]楊立新,趙鑫.利用個人信息自動化決策的知情同意規(guī)則及保障——以個性化廣告為視角解讀《個人信息保護法》第24條規(guī)定[J].法律適用, 2021(10).

[9]Davenport T H. Analytics 3.0[J]. Harvard Business Review, 2013, 91(12).

[10]Latzer M, Festic N. A Guideline for Understanding and Measuring Algorithmic Governance in Everyday Life[J]. Internet Policy Review, 2019, 8(2).

[11]匡文波.對個性化算法推薦技術(shù)的倫理反思[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版), 2021(5).

[12]丁曉東.算法與歧視 從美國教育平權(quán)案看算法倫理與法律解釋[J].中外法學(xué),2017(6).

[13]Yadav Y. The Failure of Liability in Modern Markets[J]. Virginia Law Review, 2016(4).

[14]曹建峰.人工智能:機器歧視及應(yīng)對之策[J].信息安全與通信保密,2016(12).

[15]陸青.數(shù)字時代的身份構(gòu)建及其法律保障:以個人信息保護為中心的思考[J].法學(xué)研究, 2021(5).

[16]申衛(wèi)星.論個人信息權(quán)的構(gòu)建及其體系化[J].比較法研究, 2021(5).

[17]齊英程.我國個人信息匿名化規(guī)則的檢視與替代選擇[J].環(huán)球法律評論, 2021(3).

責(zé)任編輯? ?楊? ?幸

1量化分析的敏感性往往不高,但是并不能完全斷定其是不敏感的。比如,某人的購買記錄是一組量化分析的數(shù)據(jù),但卻可以根據(jù)這個數(shù)據(jù)推斷出其宗教信仰、政治觀點、特定身份、醫(yī)療健康、金融賬戶、行蹤軌跡等敏感信息。

1個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關(guān)的各種信息,不包括匿名化處理后的信息。

The Definition of Inferential Information

in the Perspective of Algorithmic Governance

Xie Xinyuan? ? ? Xu Hanming

[Abstract] The popularization and iteration of algorithmic inference, while promoting efficient lifestyles, also generate risks involving data subject discrimination and privacy invasion, which have a non-negligible impact on the basic rights of data subjects. To varying degrees, the generality of framework legislation and the ambiguity of academic research have caused confusion in the understanding of the conceptual relationship between information generated by algorithm inference and personal information, implying the contradiction between technological progress and individual protection. In order to change this phenomenon, the risk picture of algorithmic inference should be clarified from the perspectives of ethical risks and legal risks, and the risk prevention and conflict resolution capabilities of algorithmic governance should be strengthened. At the same time, it is necessary to clarify the concept and boundaries of algorithmic inference from the perspective of personal information, strengthen the positioning and boundaries of algorithmic inference from the perspective of rights protection, reveal the contradiction between algorithmic inference and personal privacy and data protection, and then enhance the personal rights of data subjects in order to weaken the data controllers control over inferences.

[Keywords] algorithmic governance; algorithmic inference; personal information protection law

猜你喜歡
個人信息保護
互聯(lián)網(wǎng)+大數(shù)據(jù)模式下的個人信息保護
智富時代(2017年8期)2017-10-18 08:07:06
論網(wǎng)購環(huán)境下消費者的個人信息保護
山東青年(2017年5期)2017-10-09 12:45:42
大數(shù)據(jù)時代的網(wǎng)絡(luò)搜索與個人信息保護研究
魅力中國(2017年21期)2017-06-16 16:25:46
謹防電信詐騙的研究
從徐玉玉案反思我國的個人信息保護問題
如何做好法律領(lǐng)域的個人信息保護
東方教育(2016年3期)2016-12-14 20:18:10
我國大數(shù)據(jù)時代個人信息保護研究綜述
個人信息保護中的自律與監(jiān)督
個人信息保護中的自律與監(jiān)督
移動互聯(lián)環(huán)境中個人信息保護的調(diào)查與分析—以大學(xué)生為例
通山县| 安仁县| 全椒县| 辉县市| 永春县| 清苑县| 巫溪县| 定州市| 夏津县| 阳原县| 衡阳市| 临夏县| 丽水市| 蒲江县| 天柱县| 仁怀市| 黔西| 孝义市| 安阳县| 团风县| 巴中市| 武胜县| 驻马店市| 雷波县| 富民县| 崇左市| 宜城市| 满洲里市| 大宁县| 疏勒县| 东莞市| 浑源县| 巧家县| 绥滨县| 驻马店市| 霍城县| 淮北市| 西和县| 成安县| 西贡区| 同江市|