唐林垚
(中國(guó)社會(huì)科學(xué)院法學(xué)研究所,北京 100009)
算法決策相對(duì)于自然人決策具有成本低、效率高、反應(yīng)快、應(yīng)用廣等優(yōu)勢(shì)。依托算法決策的各類智能應(yīng)用,無疑能為人們的生活帶來便利,“已經(jīng)日益成為社會(huì)經(jīng)濟(jì)發(fā)展和公共治理的重要支點(diǎn)”,[1](p165)但新的問題也由此產(chǎn)生:外賣平臺(tái)近乎嚴(yán)苛的超時(shí)懲戒制度,逼迫外賣騎手不顧交通安全疲于奔命;網(wǎng)約車軟件、網(wǎng)購(gòu)平臺(tái)通過對(duì)用戶操作習(xí)慣的分析,在隱藏環(huán)節(jié)加價(jià)、對(duì)消費(fèi)者進(jìn)行揩油和“殺熟”;各類短視頻應(yīng)用登頂全球下載量最多的應(yīng)用行列,“成癮性”利用空洞內(nèi)容吞噬空余時(shí)間的算法設(shè)計(jì)被詬病為21世紀(jì)的“精神鴉片”。在智能應(yīng)用無所不在的數(shù)字經(jīng)濟(jì)時(shí)代,如何保護(hù)個(gè)體免受算法的支配和控制,同保護(hù)個(gè)人信息一樣,已經(jīng)成為廣大人民群眾最關(guān)心、最直接、最現(xiàn)實(shí)的利益問題。目前,被人大法工委列為2021年立法工作重點(diǎn)的《個(gè)人信息保護(hù)法》對(duì)個(gè)人信息的利用和流轉(zhuǎn)保護(hù)有余,對(duì)個(gè)體脫離算法決策的相關(guān)權(quán)利保障卻明顯不足,解決方案是在《個(gè)人信息保護(hù)法(草案)》中明確具體地規(guī)定個(gè)體享有“免受算法支配權(quán)”。
算法,是求解特定結(jié)果的數(shù)理步驟,是解決特殊問題的思維路徑,[2](p365)但其一旦以智能應(yīng)用為載體介入對(duì)個(gè)體或群體的日常決策,就可能產(chǎn)生關(guān)涉?zhèn)€體權(quán)益、公序良俗和公共安全的問題。馬斯克對(duì)此直言不諱:“以算法為代表的人工智能或是人類文明的最大敵人?!盵3](p1)這種“反電子烏托邦”的論點(diǎn)或許過于悲觀和絕對(duì),但我們確有必要對(duì)算法決策的優(yōu)點(diǎn)和缺點(diǎn)持有更全面和更清醒的認(rèn)識(shí)。
作為各類智能應(yīng)用的關(guān)鍵所在,算法決策,是指利用先進(jìn)的信息挖掘技術(shù)對(duì)海量用戶進(jìn)行持續(xù)追蹤和信息采集,通過特定規(guī)則對(duì)信息進(jìn)行提煉以確定用戶的群組特質(zhì)或特征,①《個(gè)人信息保護(hù)法(草案)》第4條:“個(gè)人信息的處理包括個(gè)人信息的收集、存儲(chǔ)、使用、加工、傳輸、提供、公開等活動(dòng)?!彼惴Q策是典型的信息處理活動(dòng),算法決策中的相對(duì)方為信息處理主體(即算法利用方,包括但不限于智能服務(wù)提供方、社交媒體、短視頻軟件、網(wǎng)購(gòu)平臺(tái)、智能配送系統(tǒng)等)和信息主體(即算法決策對(duì)象,包括但不限于智能應(yīng)用用戶、網(wǎng)購(gòu)平臺(tái)消費(fèi)者、外賣送餐平臺(tái)騎手、網(wǎng)約車司機(jī)等)。為與《個(gè)人信息保護(hù)法(草案)》表述一致,本文采用信息而非數(shù)據(jù)的提法。最終生成具有明確指向性的決策或用戶畫像的過程。算法決策精于預(yù)測(cè),號(hào)稱能為信息主體提供貼心的“個(gè)性化服務(wù)”。舉例而言,短視頻軟件的內(nèi)容推薦算法圍繞“熱度權(quán)重”進(jìn)行內(nèi)容推送,具有極高的用戶黏性;產(chǎn)品推薦引擎革新了網(wǎng)絡(luò)購(gòu)物平臺(tái)的內(nèi)容呈現(xiàn)方式,從滿足消費(fèi)者需求一躍提升至培養(yǎng)消費(fèi)者習(xí)慣;動(dòng)態(tài)投喂算法被社交媒體廣泛采用,極大地增加了用戶沉浸其中的時(shí)間。內(nèi)置算法決策的智能應(yīng)用不勝枚舉,通常,算法決策都是“免費(fèi)”的,信息主體無須繳納任何費(fèi)用即可“享用服務(wù)”,只要允許信息處理者獲取和重復(fù)使用個(gè)人信息即可。[4](p196)
算法決策還被廣泛應(yīng)用于公共治理。如用于考察客戶信譽(yù)的銀行大數(shù)據(jù)資信系統(tǒng)、公安部門的犯罪預(yù)測(cè)系統(tǒng)、居民養(yǎng)老保險(xiǎn)在線審核系統(tǒng)以及各地為抗擊疫情推出的健康碼應(yīng)用等。與此同時(shí),人們對(duì)智慧城市和智慧生活的向往,推動(dòng)了算法決策對(duì)傳統(tǒng)商業(yè)模式的顛覆。以大家耳熟能詳?shù)闹悄軕?yīng)用為例,美團(tuán)、餓了么等外賣平臺(tái)的實(shí)時(shí)智能配送系統(tǒng),號(hào)稱能夠完成“萬單對(duì)萬人的秒級(jí)求解”,以最低的價(jià)格、最短的時(shí)間實(shí)現(xiàn)最精確的物品配送;滴滴出行、首汽約車等網(wǎng)約車軟件,在實(shí)現(xiàn)百萬級(jí)出乘需求匹配的同時(shí),還力圖盡可能平衡司機(jī)和乘客的利益,讓出行的時(shí)間和成本都“可預(yù)見”和“可控制”。在算法決策已經(jīng)結(jié)構(gòu)性嵌入社會(huì)運(yùn)營(yíng)的大背景下,[5](p133)赫拉利所描述的“算法社會(huì)”已經(jīng)奇點(diǎn)臨近:“權(quán)威將從個(gè)人轉(zhuǎn)向由算法構(gòu)成的網(wǎng)絡(luò)。人類不會(huì)再認(rèn)為自己是自主的個(gè)體,不再依據(jù)自己的期望度日,而是習(xí)慣把人類整體看作一種生化機(jī)制的集合體,由電子算法網(wǎng)絡(luò)實(shí)時(shí)監(jiān)測(cè)和指揮?!盵6](p296)
盡管,使用算法決策的信息處理者堅(jiān)稱,算法決策能給用戶提供更有意義的體驗(yàn)、為信息主體帶來便利、提升社會(huì)運(yùn)營(yíng)效率,但智能應(yīng)用和傳統(tǒng)服務(wù)大相徑庭——算法決策的服務(wù)供給通常完全基于信息處理者推斷出來的用戶喜好和商業(yè)痛點(diǎn),向信息主體提供服務(wù)時(shí)也未真正征求其意愿和完整的意思表示。誠(chéng)然,“通知—同意機(jī)制”早已被前置為算法決策全周期的“第一閘口”,但晦澀難懂的用戶須知無法讓信息主體知曉全部信息、非同意不可使用的俘獲同意機(jī)制誘使用戶匆忙決策,“通知—同意機(jī)制”形同虛設(shè)。[7](p126)從程序法的視角來看,現(xiàn)行算法決策系統(tǒng)的設(shè)計(jì)理念普遍有待商榷,[8](p4)相關(guān)的道德和倫理問題也由此凸顯:算法決策系統(tǒng)真正提升的,是信息處理者的收入所得,還是信息主體的便利性和獲得感?信息處理者的利己和社會(huì)整體的利他如果發(fā)生本末倒置,法律就有介入的必要,以調(diào)適二者之間的沖突。
當(dāng)算法決策從“試圖適應(yīng)和預(yù)測(cè)人們的偏好”轉(zhuǎn)向“將本不存在的偏好強(qiáng)加于人們”時(shí),法律應(yīng)對(duì)風(fēng)險(xiǎn)也隨之激增。自然人決策是維系人類集體生活所不可或缺的“陽光、空氣和水”,自然人決策向算法決策的讓渡是人類主動(dòng)對(duì)自身特性的放棄和抹殺,必然將對(duì)社會(huì)群體和個(gè)人產(chǎn)生深刻影響。眾所周知,自然人決策存在諸多弊端,遠(yuǎn)非盡善盡美,近代法律制度在彌補(bǔ)和矯正自然人決策方面頗有建樹;但對(duì)于算法決策的缺陷和不足,我們知之甚少,缺乏查缺補(bǔ)漏的經(jīng)驗(yàn),遑論能夠自上而下建立切實(shí)可行的制度性保障機(jī)制。當(dāng)生成決策的邏輯基礎(chǔ)是不同于人類理性的算法程式時(shí),過去行之有效的監(jiān)督和干預(yù)機(jī)制難以發(fā)揮實(shí)效;在科技創(chuàng)新發(fā)展和應(yīng)用于社會(huì)的過程中,倡導(dǎo)“負(fù)責(zé)任的治理”尤其重要,這要求立法者具備“三界五行”的視野,而不是被現(xiàn)有問題驅(qū)動(dòng)著走。習(xí)近平總書記指出,“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究?!蔽ㄓ薪⑼晟频乃惴Q策規(guī)范,才能更好地獲取人工智能福利,讓科技造福人類。[9](p17)
各類應(yīng)用對(duì)用戶“潤(rùn)物細(xì)無聲”的投其所好,看似簡(jiǎn)單,實(shí)則需要過濾大量的個(gè)人信息才能實(shí)現(xiàn),在這個(gè)過程中,算法決策是核心,規(guī)制算法決策與保護(hù)個(gè)人信息同樣重要。算法決策日益成為影響國(guó)家安全、政治安全、意識(shí)形態(tài)安全的重點(diǎn)問題,也是世界各國(guó)所面臨的共性難題。2021年2月7日,國(guó)務(wù)院反壟斷委員會(huì)制定發(fā)布《關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》,將“大數(shù)據(jù)殺熟”和“算法合謀”納入重點(diǎn)監(jiān)管范疇,提倡保護(hù)市場(chǎng)公平競(jìng)爭(zhēng),促進(jìn)平臺(tái)經(jīng)濟(jì)規(guī)范有序創(chuàng)新健康發(fā)展,維護(hù)消費(fèi)者利益和社會(huì)公共利益。[10](p3)但是,算法決策所帶來的法律挑戰(zhàn),并非都因互聯(lián)網(wǎng)巨頭濫用市場(chǎng)支配地位而產(chǎn)生,任何信息處理者,無論大小,只要濫用算法工具,都可能造成嚴(yán)重后果。算法決策以大數(shù)據(jù)為其“養(yǎng)分”和“燃料”,而構(gòu)成大數(shù)據(jù)的,則是眾多獨(dú)立的個(gè)體。因此,公法視域之外,個(gè)體權(quán)利保障的進(jìn)路更加重要。在《網(wǎng)絡(luò)安全法》已經(jīng)生效、《數(shù)據(jù)安全法》呼之欲出之時(shí),與每個(gè)個(gè)體休戚相關(guān)的《個(gè)人信息保護(hù)法》勢(shì)必將主要承載保護(hù)信息主體免受算法決策侵害之重任。
算法對(duì)個(gè)體的侵害,源于對(duì)人類自主性的侵蝕??戮S指出,“人不律己,便是情緒、食欲和情欲的奴隸”。[11](p1)由此看來,缺乏自律便會(huì)喪失自由。既然自由通常建立在嚴(yán)于律己的基礎(chǔ)之上,人們行事時(shí)須常以更高標(biāo)準(zhǔn)約束自己,才能充分體會(huì)到自主性的存在。根據(jù)尼采的觀點(diǎn),“真正的幸福來自自我節(jié)制”,[12](p505)只有自我節(jié)制才能讓人持續(xù)地感受到自己是自身利益的最佳判斷者。縱觀當(dāng)下各類算法決策的應(yīng)用場(chǎng)景,不僅不能促進(jìn)人們以更高標(biāo)準(zhǔn)約束自身以獲得更高的自主性,反倒傾向于引導(dǎo)人們不斷屈服于低層次的本能和唾手可得的滿足感,在對(duì)廉價(jià)快感的角逐中徹底喪失幸福和自由:“抖音”“快手”極易讓人沉迷于快節(jié)奏的驚喜變幻之中,從而降低做其他事情的積極性,甚至讓人忘記思考;網(wǎng)購(gòu)平臺(tái)的新品推送,催生了無數(shù)原本不需要的消費(fèi)需求,甚至在一定程度上培養(yǎng)了消費(fèi)者“超前消費(fèi)”和“過度消費(fèi)”的壞習(xí)慣,從而引發(fā)債務(wù)危機(jī)。要想突破算法決策對(duì)人們的支配和困擾,首先應(yīng)當(dāng)根除信息主體對(duì)算法應(yīng)用的不當(dāng)依賴,倡導(dǎo)一種以自然人自律取代算法他律的原初狀態(tài)。
算法決策規(guī)制的重要基點(diǎn),應(yīng)聚焦于算法決策濫用所導(dǎo)致的權(quán)力失衡。交易,是商業(yè)的基石;從交易中獲利,是商業(yè)的本質(zhì)。算法決策在商業(yè)領(lǐng)域的頻繁應(yīng)用,正源于算法決策可以帶來更高的正向收益。問題在于,算法決策帶來的正向收益并未在交易雙方中平均分配;憑借著技術(shù)和信息的雙重優(yōu)勢(shì),掌控算法應(yīng)用的信息處理者最終將能占盡信息處理活動(dòng)中的所有剩余利益。不知疲倦、隨時(shí)待機(jī)、能力隨算力水漲船高的算法決策應(yīng)用在設(shè)計(jì)之初,就是為了助力信息處理者或以巧妙、精準(zhǔn)的方式掠奪消費(fèi)者剩余實(shí)現(xiàn)“開源”,或通過節(jié)省人工成本的方式減少自然人崗位實(shí)現(xiàn)“節(jié)流”。因此,打著“個(gè)性化服務(wù)”“提供貼心支持”等幌子的算法應(yīng)用,并不總是以受眾或消費(fèi)者的利益最大化為追求,相反,二者存在不可避免的利益沖突。職是之故,針對(duì)算法決策的個(gè)人權(quán)利保障,應(yīng)以交易雙方的利益再分配為根本目標(biāo),改變“數(shù)據(jù)處理者中心主義”的現(xiàn)狀。
在擺脫算法依賴、保護(hù)信息主體權(quán)益方面,立法者早已有所行動(dòng)?!秱€(gè)人信息保護(hù)法(草案)》第四章針對(duì)算法決策行為,賦予了信息主體“更正權(quán)”(第46條)、“被遺忘權(quán)”(第47條)和“獲解釋權(quán)”(第48條),但這三種權(quán)利尚不足以保護(hù)信息主體免受算法操縱、平臺(tái)殺熟和信息繭房的傷害,也不可能真正實(shí)現(xiàn)“免受算法支配權(quán)”的綜合意涵。
針對(duì)算法決策的“更正權(quán)”,始見于歐盟《通用數(shù)據(jù)保護(hù)條例》(下簡(jiǎn)稱GDPR)第16條,算法決策對(duì)象可以在不違反算法目的的前提下,更正、完善、調(diào)整存在偏差的個(gè)人信息。我國(guó)《網(wǎng)絡(luò)安全法》第43條最先規(guī)定了在“網(wǎng)絡(luò)運(yùn)營(yíng)者收集、存儲(chǔ)的其個(gè)人信息有錯(cuò)誤”等情形中,“個(gè)人有權(quán)要求網(wǎng)絡(luò)運(yùn)營(yíng)者予以更正”;2021年生效的《民法典》吸納了這一規(guī)定,將其置于人格權(quán)編第1037條:“自然人可以依法向信息處理者查閱或者復(fù)制其個(gè)人信息;發(fā)現(xiàn)信息有錯(cuò)誤的,有權(quán)提出異議并請(qǐng)求及時(shí)采取更正等必要措施?!薄秱€(gè)人信息保護(hù)法(草案)》第46條在前述規(guī)定的基礎(chǔ)上,進(jìn)行了細(xì)化,要求信息處理者對(duì)不準(zhǔn)確和不完整的個(gè)人信息進(jìn)行及時(shí)更正和補(bǔ)充。然而,無論是歐盟還是我國(guó),算法決策對(duì)象主動(dòng)行使“更正權(quán)”可以更正的對(duì)象,只能是處于決策鏈前端的底層數(shù)據(jù)或者個(gè)人信息,不能更正形成錯(cuò)誤算法決策的錯(cuò)誤邏輯。由于機(jī)器學(xué)習(xí)模型抓取的大數(shù)據(jù)通常來源于多個(gè)渠道,個(gè)人實(shí)際上不可能對(duì)較長(zhǎng)時(shí)間維度中的每一次數(shù)據(jù)抓取都進(jìn)行糾偏,極偶爾的數(shù)據(jù)更正相對(duì)于體量異常龐大的“數(shù)據(jù)池”而言,根本不具備統(tǒng)計(jì)學(xué)意義條件,因此難以對(duì)算法決策的結(jié)果產(chǎn)生決定性影響。
更何況,在卷積神經(jīng)網(wǎng)絡(luò)中,算法決策所依賴的機(jī)器學(xué)習(xí)模型群,對(duì)應(yīng)著不同層級(jí)的信息簇,信息簇和信息簇之間存在層層遞進(jìn)的關(guān)系,除了直接來源于信息主體的初始信息外,其余所有層級(jí)的信息簇都是信息主體難以理解的推論信息。要對(duì)算法決策的結(jié)果產(chǎn)生影響,“更正權(quán)”的作用對(duì)象應(yīng)當(dāng)是環(huán)環(huán)相扣的推論信息簇,但單從字面意思來看,GDPR第16條、《網(wǎng)絡(luò)安全法》第43條、《民法典》第1037條以及《個(gè)人信息保護(hù)法(草案)》第46條,皆不涉及對(duì)推論信息的“更正”。已經(jīng)有學(xué)者注意到了算法決策過程中推論信息的監(jiān)管空白,主張“通過保障推論數(shù)據(jù)獲取權(quán)以搭建個(gè)人數(shù)據(jù)主體與數(shù)據(jù)控制者之間的溝通機(jī)制”。[13](p107)此番呼吁對(duì)應(yīng)的背景是,域外為數(shù)不多的司法判決對(duì)推論信息的歸屬和本質(zhì)尚未定性。在Y.S v.Minister voor Immigra?tie一案中,荷蘭高等法院曾判決,無論推論信息與原始信息之間的關(guān)聯(lián)有多么直接、是否關(guān)涉信息主體的重要權(quán)益,只要推論信息通過特定的處理方式(算法)在原始信息的基礎(chǔ)上有所遞進(jìn),那么該推論信息就不是信息主體可以任意支配的個(gè)人信息。①Y.S v.Minister voor Immigratie,C-372/12(2010).在Peter Nowak v.Data Protection Commissioner一案中,愛爾蘭高等法院則認(rèn)為,只要能夠證明同信息主體有所關(guān)聯(lián),那么不管是經(jīng)歷了多少輪處理取得的推論信息,都應(yīng)被視為信息主體可以直接支配的個(gè)人信息。②Peter Nowak v.Data Protection Commissioner,C-434/16(2017).易言之,只要能追溯至算法決策對(duì)象原始信息的推論信息,都屬于信息主體通過行使“更正權(quán)”可以糾正的信息。問題是,即便采納Pe?ter Nowak案的審判思路,考慮到計(jì)算機(jī)的思維通常異于常人,信息輸入和輸出之間通常不是線性關(guān)聯(lián),對(duì)算法決策運(yùn)算邏輯缺乏相應(yīng)知識(shí)的信息主體,如何有能力對(duì)推論信息進(jìn)行更正呢?
綜上所述,機(jī)器學(xué)習(xí)模型從數(shù)個(gè)渠道、多個(gè)平臺(tái)抓取信息,形成對(duì)個(gè)體產(chǎn)生重大影響的算法決策。單一信息源頭的修改及修正,在整體邏輯不變的前提下,能夠起到的作用可謂“微乎其微”,根本不可能實(shí)現(xiàn)徹底更正錯(cuò)誤的法律效果。在算法黑箱的掩映下,針對(duì)推論信息的“更正權(quán)”實(shí)屬天方夜譚,不具備可行性。更正基礎(chǔ)信息完全不同于更正結(jié)果,二者具有指向性的區(qū)別,在行權(quán)擬取得的法律效果上,“更正權(quán)”甚至算不上最低程度的“免受算法支配權(quán)”。
長(zhǎng)期以來,算法可解釋性的合規(guī)要求,被視為“對(duì)抗數(shù)據(jù)個(gè)體的主體性和自治性淪陷和喪失的內(nèi)在之善”;[14](p1425)本應(yīng)居于非普遍使用、輔助性地位的算法透明原則,一躍成為世界各國(guó)人工智能法律法規(guī)的核心要旨。[15](p20)似乎,只要過程是可以被解釋的,那么算法決策結(jié)果的合理與否,便一目了然。但是,算法透明真的能夠一蹴而就嗎?答案顯然是否定的。
透過可解釋性的合規(guī)要求確實(shí)可以將有爭(zhēng)議的問題擺至臺(tái)面進(jìn)行探討,但針對(duì)算法決策過程的人為解釋,未必能夠通過科學(xué)合理的方式進(jìn)行驗(yàn)證。機(jī)器學(xué)習(xí)模型所涉及的中間環(huán)節(jié)越多,身處局外的觀察家們就越不能終局地評(píng)價(jià)信息輸入和結(jié)果輸出之間的因果關(guān)系。強(qiáng)推算法可解釋性合規(guī)要求的結(jié)果是,信息處理者被迫加大力度,去尋求能夠正當(dāng)化算法決策且能夠被大眾所接受的理由和借口[16](p61)——對(duì)算法決策的解釋是事后添加的,而解釋說理的方式完全取決于政治和經(jīng)濟(jì)目標(biāo)。對(duì)算法可解釋性的合規(guī)要求進(jìn)行補(bǔ)強(qiáng)的方案,是要求信息處理者在算法決策的各個(gè)流程引入同行評(píng)議,由同信息處理者無關(guān)聯(lián)的專家同行對(duì)機(jī)器學(xué)習(xí)模型和代碼的構(gòu)造進(jìn)行實(shí)質(zhì)審查。英國(guó)《政府?dāng)?shù)據(jù)倫理框架》將法定同行評(píng)議作為算法決策的“安全屏障”,但并未給出切實(shí)可行的操作方案。需要指出的是,通過同行評(píng)議并不意味著算法就可被解釋,更不意味著算法不具備支配性和攻擊性。缺乏充分反映自然人價(jià)值體系的倫理審查標(biāo)準(zhǔn),同行評(píng)議充其量只能保證:(1)算法代碼的字里行間不充斥著個(gè)別程序員帶有偏見的價(jià)值負(fù)載;(2)機(jī)器學(xué)習(xí)建模過程和指令轉(zhuǎn)譯過程中不存在必須調(diào)整的理解偏差和表達(dá)耗散。
GDPR第13條、第14條、第15條分別規(guī)定了直接、間接以及因各類原因進(jìn)行個(gè)人信息處理活動(dòng)主體應(yīng)向信息主體履行的強(qiáng)制性信息披露義務(wù);《個(gè)人信息保護(hù)法(草案)》第48條相對(duì)簡(jiǎn)單地闡述了“個(gè)人有權(quán)要求個(gè)人信息處理者對(duì)其個(gè)人信息處理規(guī)則進(jìn)行解釋說明”。以上兩種規(guī)定方式,均是從信息主體的“獲解釋權(quán)”入手,來反向規(guī)定信息處理者應(yīng)當(dāng)遵循的算法可解釋性的合規(guī)要求,并不必然涉及對(duì)算法決策的“全流程”解釋。在這種規(guī)定方式之下,信息處理者可以輕松地以信息采集的范圍和合理性來搪塞信息主體對(duì)算法決策過程的懷疑,將本來是針對(duì)信息采集環(huán)節(jié)的事前解釋“依葫蘆畫瓢”地作用于算法決策的事中和事后過程。同行評(píng)議程序的缺乏,配合上本來就意義不大的事前解釋,必然將架空信息主體的“獲解釋權(quán)”,既無法降低信息處理者和信息主體之間的信息不對(duì)稱,甚至都難以協(xié)助信息主體加深對(duì)算法決策的了解。
總而言之,立法者看到的是一個(gè)設(shè)定一項(xiàng)“獲解釋權(quán)”就可以讓算法決策可解釋的世界,而這種理想愿景同當(dāng)今技術(shù)運(yùn)作的現(xiàn)實(shí)情況存在巨大鴻溝。隨著機(jī)器學(xué)習(xí)模型的日益復(fù)雜、卷積神經(jīng)網(wǎng)絡(luò)的廣泛適用、數(shù)據(jù)搜集源頭的交匯重疊,要就算法決策的運(yùn)作原理與裁判機(jī)制做出詳細(xì)且外行人也能理解的解釋,經(jīng)常是“解釋了也是白解釋”,無助于信息主體從不公平的算法決策中抽身而退,也并未賦予信息主體在算法決策前負(fù)隅頑抗的籌碼。
從字面來看,“被遺忘權(quán)”是迄今為止,最接近“免受算法支配權(quán)”的一種權(quán)利創(chuàng)設(shè),因?yàn)樾畔⒅黧w只要確實(shí)身處“被遺忘”的狀態(tài),那將不再受到算法工具的針對(duì)、評(píng)價(jià)和信息封鎖。世界各國(guó)縱有截然不同的“被遺忘權(quán)”立法背景,“被遺忘權(quán)”卻殊途同歸地在法律文件中被轉(zhuǎn)譯為“擦除權(quán)”(the right to erase)或“刪除權(quán)”(the right to delete)。以歐盟為例,在2010年的Google Spain v.Costeja Gonzalez案中,原告要求在搜索引擎中剔除自己已經(jīng)過時(shí)的個(gè)人信息,《個(gè)人數(shù)據(jù)保護(hù)指令》(下簡(jiǎn)稱DPID)第12條“允許信息主體擦除不符合相關(guān)規(guī)定的信息”的原始規(guī)定得以適用。GDPR第17條吸收了此前的規(guī)定,將DPID第12條表達(dá)為:“信息主體有權(quán)要求數(shù)據(jù)控制者擦除關(guān)于其個(gè)人信息的權(quán)利”。我國(guó)的相關(guān)法律實(shí)踐開始于2015年,在任甲玉訴北京百度網(wǎng)訊科技有限公司人格權(quán)糾紛案中,原告除了主張姓名權(quán)和名譽(yù)權(quán)受到侵害之外,還額外主張被告侵犯了其人格權(quán)中“被遺忘”的權(quán)利。①任甲玉與北京百度網(wǎng)訊科技有限公司人格權(quán)糾紛案,北京市海淀區(qū)人民法院民事判決書,(2015)海民初字第17417號(hào)。雖然原告在二審中敗訴,但是“被遺忘權(quán)”的主張,引發(fā)了學(xué)界和實(shí)務(wù)界的熱切關(guān)注,[17](p155)并體現(xiàn)在《民法典》人格權(quán)編的立法工作中?!睹穹ǖ洹返?028條、1029條、1037條和1195條分別規(guī)定了自然人在四種情形中享有“刪除權(quán)”:1.報(bào)刊、網(wǎng)絡(luò)等媒體報(bào)道的內(nèi)容失實(shí);2.針對(duì)自己的信用評(píng)價(jià)不當(dāng);3.信息處理者違反法律、行政法規(guī)的規(guī)定或者雙方的約定處理其個(gè)人信息;4.網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為?!秱€(gè)人信息保護(hù)法(草案)》集判例和《民法典》之大全,在第22條規(guī)定了超出約定處理目的、合同履行完畢時(shí)信息處理者的信息返還或刪除義務(wù),在第47條明確了個(gè)人撤回信息處理同意時(shí)所享有的“刪除權(quán)”;對(duì)于刪除信息在技術(shù)上難以實(shí)現(xiàn)的,《個(gè)人信息保護(hù)法(草案)》要求個(gè)人信息處理者立即停止處理個(gè)人信息。
遺憾的是,表現(xiàn)為“刪除權(quán)”的“被遺忘權(quán)”,并非完整意義上的“被遺忘權(quán)”,只能在有限范圍內(nèi)將涉及信息主體的部分信息“隱去”,并不能起到讓信息主體“被遺忘”的效果。在Google Spain案中,雖然原告勝訴,但被允許行使“刪除權(quán)”的結(jié)果,只是讓搜索引擎在其算法模型中,剔除了包含原告?zhèn)€人信息的鏈接,并沒有徹底刪除包含這些個(gè)人信息的原始界面,畢竟,這些界面所對(duì)應(yīng)的門戶網(wǎng)站,并不歸搜索引擎公司所有。因此,原告行使“刪除權(quán)”頂多實(shí)現(xiàn)了被某個(gè)搜索引擎算法“遺忘”的法律效果;只要包含個(gè)人信息的原始頁(yè)面依舊存續(xù),其他的智能應(yīng)用依舊可以實(shí)現(xiàn)對(duì)這些頁(yè)面的抓取和訪問,信息主體也就仍然隨時(shí)處于各類算法決策的支配之下?!氨贿z忘權(quán)”的自欺欺人之處在于,信息主體只能暫時(shí)免受某算法決策的“跟蹤”,就好比清空網(wǎng)絡(luò)購(gòu)物平臺(tái)購(gòu)物車雖然可以暫時(shí)改變“猜你想要”的推送結(jié)果,但算法系統(tǒng)依舊可以憑借對(duì)用戶購(gòu)買習(xí)慣、支付方式等深層次信息的牢牢掌控進(jìn)行“套路”和“殺熟”。若想達(dá)至被徹底遺忘的效果,信息主體只能依次向包含個(gè)人信息的網(wǎng)站逐一行使“被遺忘權(quán)”,此種在理論上可行的操作方式在實(shí)踐中將面臨極高的行權(quán)成本。更何況,現(xiàn)實(shí)中有不少專門記錄從搜索引擎界面移除鏈接的界面,例如Wikime?dia和Reddit等,讓希冀行使“被遺忘權(quán)”的信息主體陷入“越描越黑”的境地之中。[18](p18)以此觀之,如果“被遺忘權(quán)”只是停留在“擦除權(quán)”“刪除權(quán)”的水準(zhǔn),期望信息主體通過行使“被遺忘權(quán)”來達(dá)到“免受算法支配”的希望,定然會(huì)落空。
“更正權(quán)”“被遺忘權(quán)”“獲解釋權(quán)”的固有缺陷決定了,即使三者在實(shí)踐中能夠合乎情理的聯(lián)動(dòng),也無法真正起到讓信息主體“免受算法支配”的效果。等因奉此,《個(gè)人信息保護(hù)法(草案)》應(yīng)當(dāng)以更加直接的方式規(guī)定“免受算法支配權(quán)”:“個(gè)人有權(quán)不成為算法決策支配對(duì)象,信息處理者應(yīng)當(dāng)保障個(gè)人可以不受信息自動(dòng)化處理的決定的限制”。性質(zhì)上,“免受算法支配權(quán)”是信息主體請(qǐng)求免受算法決策影響、獲得人工干預(yù)等權(quán)利的集合。對(duì)這種復(fù)合式權(quán)利的內(nèi)涵界定,可以分情境從以下三個(gè)方面展開。
“免受算法支配權(quán)”是最低限度的“陳情權(quán)”,是個(gè)體就自身不公平遭遇獲得公平聆訊以及請(qǐng)求行政復(fù)議的權(quán)利。允許個(gè)體就廣泛存在的“算法不公”進(jìn)行陳情,可以讓政策制定者以“同為自然人”的立場(chǎng)對(duì)被決策者的實(shí)際遭遇感同身受,借此制定出更人性化的政策和法律,及時(shí)矯正影響深遠(yuǎn)的算法決策可能存在的偏誤。
在算法操縱的場(chǎng)景中,受算法支配的從業(yè)人員,主要是學(xué)歷不高、無專業(yè)技能的基礎(chǔ)工種,是各類勞動(dòng)者中幾近最為弱勢(shì)的群體。以外賣送餐騎手為例,各平臺(tái)的騎手一般分為兩類,一種是加入各個(gè)站點(diǎn)、由代理商作為“隔層”與平臺(tái)構(gòu)成勞務(wù)關(guān)系的專職騎手,理應(yīng)按照勞動(dòng)法規(guī)范落實(shí)工作時(shí)間和社會(huì)保險(xiǎn)的相關(guān)規(guī)定;另一種是入行門檻極低,自主注冊(cè)、接單、配送的眾包騎手,由于其服務(wù)樣態(tài)不符合典型勞動(dòng)關(guān)系的特征,很難納入勞動(dòng)法調(diào)整,缺乏與其勞動(dòng)方式相適應(yīng)的法律保障機(jī)制。在平臺(tái)的外衣下,專職騎手實(shí)際上也難以行使勞動(dòng)法所提供的法定議價(jià)權(quán)利,與眾包騎手一樣缺乏同平臺(tái)的議價(jià)能力,這實(shí)際上是勞動(dòng)者被算法支配的問題的根源。在該類法律關(guān)系中,工作時(shí)間、加班報(bào)酬以及獎(jiǎng)懲規(guī)則由平臺(tái)決定,平臺(tái)的決定權(quán)由算法決策予以具體落實(shí)。由于缺乏議價(jià)能力,勞動(dòng)者只能選擇要么被迫接受、要么離開平臺(tái),算法決策加劇了平臺(tái)與底層勞動(dòng)者之間的權(quán)力和利益結(jié)構(gòu)失衡。
讓勞動(dòng)關(guān)系中的信息主體免受算法支配的對(duì)策,是回歸基本的勞動(dòng)者權(quán)益保障,即綜合運(yùn)用政策工具,提升勞動(dòng)者與平臺(tái)之間的議價(jià)能力。在人工智能的加持下,新業(yè)態(tài)、新模式層出不窮,政策和既有規(guī)定很難及時(shí)捕捉因技術(shù)變革帶來的新問題和新挑戰(zhàn),此時(shí),賦予作為受支配者、當(dāng)事人的信息主體通過正當(dāng)渠道發(fā)聲的“陳情權(quán)”,有助于提醒立法者及時(shí)調(diào)整法律法規(guī),以構(gòu)筑勞動(dòng)者權(quán)益保障的底線?!瓣惽闄?quán)”的行使,將有助于建立與不同業(yè)態(tài)和模式相匹配的“政府—?jiǎng)趧?dòng)者—平臺(tái)”三方參與的議價(jià)協(xié)商制度,借用公共對(duì)話的場(chǎng)域來制衡平臺(tái)的技術(shù)霸權(quán),為處于弱勢(shì)地位的勞動(dòng)者提供議價(jià)渠道,以各方都能接受的協(xié)商結(jié)果修正近乎肆意妄為的算法決策。
“陳情權(quán)”所構(gòu)筑的商談場(chǎng)域,也有助于矯正雇傭關(guān)系中不平衡的風(fēng)險(xiǎn)分配機(jī)制,避免不公平的責(zé)任轉(zhuǎn)嫁或無必要的責(zé)任攬承?!胺芍贫鹊恼?dāng)性取決于‘正當(dāng)化’的過程以及為了達(dá)到這一目的而運(yùn)用的‘說理的技術(shù)’?!盵19](p71)各參與方的相互角力可以創(chuàng)造出符合各方利益的內(nèi)生性合理秩序,解決既有外生性制度安排難以應(yīng)對(duì)的棘手問題?!蹲罡呷嗣穹ㄔ宏P(guān)于審理人身?yè)p害賠償案件適用法律若干問題的解釋》第11條規(guī)定了“雇主嚴(yán)格責(zé)任制”:“雇員在從事雇傭活動(dòng)中遭受人身?yè)p害,雇主應(yīng)當(dāng)承擔(dān)賠償責(zé)任,雇傭關(guān)系以外的第三人造成雇員人身?yè)p害的,賠償權(quán)利人可以請(qǐng)求第三人承擔(dān)賠償責(zé)任,也可以請(qǐng)求雇主承擔(dān)賠償責(zé)任?!北仨毘姓J(rèn)的是,“雇主嚴(yán)格責(zé)任制”的過度適用,將給勞動(dòng)市場(chǎng)的供給方帶來過高的運(yùn)營(yíng)成本,不利于商業(yè)活動(dòng)的開展。面對(duì)技術(shù)進(jìn)步不斷革新商業(yè)模式的現(xiàn)狀,有學(xué)者指出,不宜“一攬子”將互聯(lián)網(wǎng)平臺(tái)的勞務(wù)供給認(rèn)定為勞務(wù)關(guān)系,勞動(dòng)法的適用范圍應(yīng)當(dāng)根據(jù)技術(shù)的發(fā)展做動(dòng)態(tài)調(diào)整,“避免勞動(dòng)關(guān)系的泛化”。[20](p50)“陳情權(quán)”的適用,將有助于勞動(dòng)者和平臺(tái)之間自行達(dá)至責(zé)任和風(fēng)險(xiǎn)分配的最優(yōu)解,為未來《勞動(dòng)法》的動(dòng)態(tài)調(diào)整提供方法論上的啟示。
平臺(tái)殺熟,是指信息處理者通過對(duì)信息主體的大數(shù)據(jù)分析,在掌握其消費(fèi)偏好、消費(fèi)習(xí)慣和消費(fèi)水平后,將同一商品或服務(wù)以差別性定價(jià)賣給不同的信息主體從而獲得更多消費(fèi)者剩余的行為,嚴(yán)重影響市場(chǎng)秩序、侵害消費(fèi)者權(quán)益以及社會(huì)整體利益。例如,同樣的一份外賣餐食,外賣平臺(tái)對(duì)同一區(qū)域的客戶收取不同的配送費(fèi)或者服務(wù)費(fèi);網(wǎng)約車軟件對(duì)相同里程、相近交通狀況的行程收取不同的費(fèi)用。在殺熟技巧越發(fā)精湛的今天,平臺(tái)殺熟演化出兩種基本表現(xiàn)形式,從差別定價(jià)逐漸向誘導(dǎo)消費(fèi)轉(zhuǎn)換。其中,差別定價(jià)以三種方式實(shí)現(xiàn):(1)根據(jù)信息主體所使用的設(shè)備差異進(jìn)行差別定價(jià);(2)根據(jù)信息主體消費(fèi)時(shí)所處的不同場(chǎng)合進(jìn)行差別定價(jià);(3)根據(jù)信息主體的不同消費(fèi)習(xí)慣和效率頻率進(jìn)行差別定價(jià)。誘導(dǎo)消費(fèi)主要有三種表現(xiàn)形式:(1)分析信息主體對(duì)價(jià)格的敏感程度,對(duì)“高凈值客戶”隱藏性價(jià)比更高的選項(xiàng);(2)利用預(yù)測(cè)型和自主學(xué)習(xí)型算法,實(shí)現(xiàn)各搜索界面的協(xié)調(diào)一致,排除信息主體的多樣化選擇;(3)在用戶原有偏好的基礎(chǔ)上進(jìn)行戰(zhàn)略性反復(fù)推送,激發(fā)用戶原本不存在的隱性偏好。
平臺(tái)殺熟的本質(zhì),其實(shí)是人為的錯(cuò)誤算法決策,是平臺(tái)放任有利于自身的、帶有偏見的算法決策取代原有公平的、不區(qū)別對(duì)待的算法決策。在這個(gè)意義上,平臺(tái)殺熟和算法決策錯(cuò)誤并無二致,二者可以以相同的矯正方式予以應(yīng)對(duì)。矯正算法決策錯(cuò)誤最直接的方法,是人工介入。實(shí)際上,《個(gè)人信息保護(hù)法(草案)》第四章的“更正權(quán)”“獲解釋權(quán)”以及“被遺忘權(quán)”都是人工介入的典范,當(dāng)算法決策產(chǎn)生錯(cuò)誤時(shí),由自然人介入決策過程,或?qū)Σ徽_的原始信息予以更正、或?qū)此撇缓侠淼乃惴Q策予以解釋、或刪除包含噪音的個(gè)人信息。但正如上文指出的那樣,“更正權(quán)”“獲解釋權(quán)”以及“被遺忘權(quán)”層面的人工介入,尚不足以完全糾正錯(cuò)誤的算法決策,更不可能實(shí)現(xiàn)免受算法支配的法律效果。在平臺(tái)殺熟和算法決策有誤的場(chǎng)景中,“免受算法支配權(quán)”應(yīng)當(dāng)對(duì)應(yīng)比“人工介入權(quán)”程度更高的“人工干預(yù)權(quán)”,即以人工干預(yù)的方式直接糾正不合理的結(jié)果,以“自然人所具備的一般理性和情感”對(duì)信息主體的相關(guān)信息進(jìn)行審查并得出全新結(jié)論。
更高程度的人工介入體現(xiàn)在,由自然人親力親為,對(duì)錯(cuò)誤的算法決策過程和結(jié)果的干預(yù)。以健康碼為例,政府部門允許個(gè)人在健康碼的結(jié)果與實(shí)際情況不符時(shí),撥打12345熱線發(fā)起糾錯(cuò)申請(qǐng),經(jīng)縣級(jí)防控指揮部核實(shí)確認(rèn)后,以人工決策取代算法決策形成公允的判定結(jié)果。這是在法律尚無明確規(guī)定的情況下,以“行勝于言”的方式實(shí)現(xiàn)了“免受算法支配權(quán)”的精神內(nèi)涵,這種以人為本的執(zhí)法實(shí)踐,讓智治與自治、法治、德治一樣充滿溫度。回到平臺(tái)殺熟的場(chǎng)景,“人工干預(yù)權(quán)”的設(shè)置,并不意味著平臺(tái)必須以“自然人親力親為”的方式進(jìn)行定價(jià)或者向消費(fèi)者推薦商品或服務(wù),也不是當(dāng)消費(fèi)者覺察到被殺熟之后由人工審核算法定價(jià)的合理性。從節(jié)約雙方成本的角度考慮,平臺(tái)應(yīng)在預(yù)測(cè)型和自主學(xué)習(xí)型算法的使用上保持克制,并且主動(dòng)建立“算法決策審核官”等職位,由自然人專家主動(dòng)監(jiān)測(cè)算法決策的各個(gè)環(huán)節(jié),防止利潤(rùn)最大化導(dǎo)向下算法決策的異化和“脫韁”,以事前的“主動(dòng)人工干預(yù)”避免產(chǎn)生事后的“被動(dòng)人工干預(yù)”成本。
人類的相互操縱和強(qiáng)力干預(yù),頗受外部競(jìng)爭(zhēng)和權(quán)力分化的限制,但打著促進(jìn)個(gè)人自主旗號(hào)的算法工具,已經(jīng)在受眾的半推半就之間完全破壞了人類的自主性。這種破壞性集中體現(xiàn)在通過吸引注意力的方式來影響人們的行為并左右人們的偏好。有學(xué)者將監(jiān)控和管理人們生活的算法決策系統(tǒng)比喻成“隱形鐵絲網(wǎng)”,它們包圍并限制了人們的自主空間,個(gè)體甚至根本意識(shí)不到它們?cè)谧鍪裁础21](p9)無處不在的傳感器系統(tǒng)、時(shí)時(shí)開啟的定位服務(wù)、360度無死角的監(jiān)控?cái)z像頭以及呈指數(shù)級(jí)增長(zhǎng)的大數(shù)據(jù),記錄并重塑了人們的數(shù)字生活,任何從中逃亡的嘗試,都將面臨被“推回正軌”的壓力。例如,脫離銀行的資信審查系統(tǒng),信息主體將無法獲得貸款,甚至,在房屋租賃的平臺(tái)都無法通過審核。2020年以來,反壟斷法和反不正當(dāng)競(jìng)爭(zhēng)法已經(jīng)在宏觀層面頻頻發(fā)力,對(duì)橫亙?cè)谡褪袌?chǎng)之間、憑借科技優(yōu)勢(shì)介入社會(huì)運(yùn)營(yíng)的技術(shù)寡頭進(jìn)行合理拆分,防止因“集個(gè)人信息之大成”而掌握“準(zhǔn)公權(quán)力”的商業(yè)平臺(tái)、金融機(jī)構(gòu)和社交媒體興風(fēng)作浪。在微觀層面,信息主體也需要切實(shí)有力、操作性強(qiáng)的個(gè)體權(quán)利,以脫離算法決策所塑造的信息繭房,不被掌控話語權(quán)的商業(yè)巨頭們“帶節(jié)奏”。
美國(guó)學(xué)者特蘭最早提出了“注意力保護(hù)權(quán)”(the right to attention)的概念,主張賦予信息主體對(duì)抗算法決策捕捉和控制注意力的權(quán)利。[22](p1023)由于“注意力保護(hù)權(quán)”的概念過于模糊,實(shí)踐中人們將其解讀為“離線權(quán)”(the right to disconnect),意指信息處理主體應(yīng)當(dāng)賦予信息主體從網(wǎng)絡(luò)世界回歸現(xiàn)實(shí)生活留白、不受算法調(diào)度的被動(dòng)權(quán)利。弗銳希曼和瑟琳格更進(jìn)一步,提出了“遠(yuǎn)離權(quán)(the right to be off)”的概念。他們指出,人類在21世紀(jì)保持自主意識(shí)的關(guān)鍵在于,個(gè)體隨時(shí)隨地都能享有在沒有任何算法工具強(qiáng)加于身的情況下生活的基本權(quán)利。[23](p96-102)實(shí)現(xiàn)“遠(yuǎn)離權(quán)”的方式,是在“通知—同意機(jī)制”中,對(duì)信息主體可以“隨時(shí)離線”的權(quán)利予以特別提示??紤]到算法決策應(yīng)用場(chǎng)景的千變?nèi)f化,千篇一律的權(quán)利預(yù)設(shè)方式將難以發(fā)揮其既定的效用,“遠(yuǎn)離權(quán)”的內(nèi)涵亟待進(jìn)一步完善。
根據(jù)拉茲在20世紀(jì)80年代提出的四維自主理論,個(gè)體想要成為自己生活的主宰者,應(yīng)當(dāng)符合四個(gè)基本條件:(1)具有最低限度的理性來計(jì)劃擬實(shí)現(xiàn)的目標(biāo);(2)擁有足夠的選擇,不受單一手段的限制和制約;(3)在思維和心智上獨(dú)立,有能力應(yīng)對(duì)來自外界的干擾、脅迫和操縱;(4)享有實(shí)現(xiàn)目標(biāo)的精神和魄力。[24](p112)相應(yīng)的,“遠(yuǎn)離權(quán)”的構(gòu)建可以從多個(gè)面向展開:(1)算法決策通常透過限制和約束個(gè)體的選擇,以達(dá)到直接或間接干預(yù)人類決策的目的,“遠(yuǎn)離權(quán)”則應(yīng)打破算法工具有限選擇的藩籬,禁止信息處理者利用技術(shù)手段隱藏、過濾、預(yù)選可供信息主體選擇的選項(xiàng);(2)算法決策工具慣于通過反復(fù)推薦,來削弱個(gè)體自主決策的意志,以“放長(zhǎng)線釣大魚”的手段,讓人們被迫接受一套“因反復(fù)而定型”的思維模式乃至價(jià)值觀。信息主體應(yīng)當(dāng)被允許請(qǐng)求信息處理者剔除一切可能擾亂其思維的推薦方式,包括但不限于重復(fù)推送、在關(guān)鍵位置進(jìn)行醒目提醒等;(3)某些算法工具被塑造成具有脅迫性的輔助工具,如果個(gè)體不按照程序規(guī)定的方式行動(dòng),系統(tǒng)就會(huì)發(fā)出不利后果的嚴(yán)正警告。在更極端的情形中,算法工具之間甚至存在合謀的情況,例如,某些自動(dòng)駕駛系統(tǒng)同保險(xiǎn)費(fèi)計(jì)算程序掛鉤,如果用戶不嚴(yán)格按照自動(dòng)駕駛系統(tǒng)所“建議”的方式駕駛車輛,那么將可能面臨保費(fèi)激增的后果。就此而論,“遠(yuǎn)離權(quán)”應(yīng)當(dāng)包含禁止系統(tǒng)濫發(fā)警告的消極效力;(4)算法工具通過吞噬碎片時(shí)間的方式,逐漸消磨個(gè)體“集中力量辦大事”的心力:密集溝通與零散信息讓專心致志的思考愈發(fā)奢侈,疲于應(yīng)付的必然結(jié)果就是好生忙碌卻智識(shí)匱乏,在不知不覺間讓算法接管一切。就像當(dāng)今所有的網(wǎng)絡(luò)游戲都被要求引入“防沉溺系統(tǒng)”一樣,信息處理者應(yīng)當(dāng)主動(dòng)在算法工具中置入長(zhǎng)時(shí)間使用應(yīng)用提醒,以及超長(zhǎng)時(shí)間使用應(yīng)用被迫離線等功能。
“免受算法支配權(quán)”所揭示出來的重要命題是,人類與技術(shù)之間,需要保持相當(dāng)?shù)陌踩嚯x。算法操縱、平臺(tái)殺熟和信息繭房場(chǎng)景中“免受算法支配權(quán)”的內(nèi)涵雖然不盡相同,但其背后的邏輯基點(diǎn)都是不同場(chǎng)景之間自然人保護(hù)的共性需求:其一,警惕本來應(yīng)當(dāng)是中立的智能應(yīng)用,被用來掩飾未取得“多數(shù)人同意”的少數(shù)人集權(quán)。其二,避免“算法正確”取代“自然人正確”以及“信息處理者利益最大化”排斥“個(gè)人利益最大化”。其三,倡導(dǎo)一種符合自然人實(shí)際感受的自由與自主。只有在決定自身利益的關(guān)鍵事務(wù)上享有積極參與的權(quán)利,人類才有可能維持和延續(xù)在知識(shí)、經(jīng)驗(yàn)和道德上的卓越。監(jiān)管套利、技術(shù)壁壘和應(yīng)用迭代或?qū)⑷找鏀U(kuò)展信息采集的邊界、加大算法可解釋性的鴻溝、提升個(gè)體被網(wǎng)絡(luò)世界遺忘的門檻,但倘若能將免受算法支配的權(quán)利思維嵌入至算法規(guī)制的全流程,那便是以充分體現(xiàn)人民意愿的方式將“不斷增強(qiáng)人民群眾獲得感、幸福感、安全感”的價(jià)值追求一以貫之;[25](p15)如此個(gè)人信息保護(hù),正所謂“良法善治”也。