蘇新建 程佳琪
隨著算法應(yīng)用的普及,有很多學(xué)者以區(qū)分算法操縱類別為出發(fā)點(diǎn)對(duì)算法操縱的規(guī)制路徑進(jìn)行研究,然而操縱的損害結(jié)果這一標(biāo)準(zhǔn)在分類過(guò)程中鮮少被提及。算法操縱包括“抽象的操縱”,即對(duì)個(gè)人自主性的傷害,也包括“具體的操縱”,如大數(shù)據(jù)殺熟[1]。抽象操縱存在諸多方式與手段,潛意識(shí)操縱便為其中一種。潛意識(shí)屬于人類思維活動(dòng),其核心特征在于無(wú)法為人察覺(jué)。通過(guò)潛意識(shí)操縱這一方式,算法操縱剝奪了個(gè)人的自主性與決策的參與性,具有損害性危險(xiǎn)性。如何引導(dǎo)潛意識(shí)技術(shù)的正向使用并避免算法潛意識(shí)操縱行為所帶來(lái)的風(fēng)險(xiǎn)是值得關(guān)注和研究的重要課題。
對(duì)于算法潛意識(shí)操縱這類應(yīng)被法律絕對(duì)禁止的行為,目前缺少完整的法律規(guī)制。在“潛意識(shí)操縱”禁令實(shí)踐樣態(tài)中,歐盟、美國(guó)和中國(guó)都試圖通過(guò)原則性立法規(guī)范“潛意識(shí)技術(shù)”。然而,此類立法仍未直擊算法潛意識(shí)技術(shù)的根源問(wèn)題,首先,權(quán)力主體隱藏在技術(shù)之后,面對(duì)冷冰冰的機(jī)器,個(gè)人無(wú)法意識(shí)到其行為受到操縱,難以對(duì)權(quán)益受侵害這一事實(shí)作出反饋,對(duì)此,法律應(yīng)當(dāng)如何介入?其次,法律介入情況下,純粹結(jié)果式導(dǎo)向的實(shí)體規(guī)制是否能真正起到法律的指引作用,引導(dǎo)背后的權(quán)力主體停止使用相關(guān)技術(shù)?最后,傳統(tǒng)程序正義對(duì)主體規(guī)制的補(bǔ)充作用在算法技術(shù)背景下是否依然可以實(shí)現(xiàn)?這些問(wèn)題都是未來(lái)需要直面和解答的。
算法潛意識(shí)操縱通過(guò)算法技術(shù)與潛意識(shí)技術(shù)得以實(shí)現(xiàn),潛意識(shí)技術(shù)背后關(guān)乎“意識(shí)”與“潛意識(shí)”的神經(jīng)科學(xué):在外界刺激未達(dá)致一定閾值前,個(gè)人對(duì)刺激有感受但卻不會(huì)引發(fā)個(gè)人對(duì)其的知覺(jué),即不會(huì)意識(shí)到該刺激的存在,該領(lǐng)域內(nèi)屬于潛意識(shí)范疇;直到刺激水平達(dá)致一定閾值,個(gè)人才能意識(shí)到其存在,也即進(jìn)入意識(shí)的范疇[2]。潛意識(shí)技術(shù)便是利用這個(gè)優(yōu)勢(shì)向個(gè)人發(fā)送刺激水平在潛意識(shí)域內(nèi)的信息,進(jìn)而影響個(gè)人的行為。由于目的不同,技術(shù)的實(shí)踐樣態(tài)有正面影響也有負(fù)面影響,算法技術(shù)是通過(guò)算法使?jié)撘庾R(shí)操縱成為可能的一種數(shù)字技術(shù),原本的潛意識(shí)影響較為局限,但結(jié)合了算法技術(shù)的高效性,其影響范圍更為廣泛,效果更為顯著。
潛意識(shí)操縱的實(shí)踐具有兩種形態(tài),一是由算法設(shè)計(jì)者通過(guò)“暗黑模式”觸發(fā)認(rèn)知操縱的“自上而下”形態(tài);二是由算法通過(guò)算法黑箱與個(gè)人的潛意識(shí)進(jìn)行交流實(shí)現(xiàn)操縱目的的“自下而上”形態(tài),可謂“交互模式”。“暗黑模式”指人機(jī)交互領(lǐng)域中,資本方為了獲取最大化利益而采用非道德的數(shù)字技術(shù),引導(dǎo)用戶作出會(huì)產(chǎn)生不利結(jié)果的決策。Harry Brignull最早提出了“暗黑模式”,并指出其16種具體類型①Harry Brignull認(rèn)為“暗黑模式”包括比較預(yù)防(Comparison prevention)、確認(rèn)羞辱(Confirmshaming)、偽裝廣告(Disguised ads)、假稀缺(Fake scarcity)、虛假社會(huì)證明(Fake social proof)、假緊急(Fake urgency)、強(qiáng)制行動(dòng)(Forced action)、難以取消(hard to cancel)、隱性成本(Hidden Costs)、隱藏訂閱(Hidden subscription)、嘮叨(Nagging)、梗阻(Obstruction)、預(yù)選(Preselection)、鬼鬼祟祟(Sneaking)、詭計(jì)措辭(Trick wording)、視覺(jué)干擾(Visual interference)16種類型。。在算法技術(shù)等數(shù)字技術(shù)背景下,操縱個(gè)人變得愈發(fā)容易,例如,在保護(hù)隱私權(quán)益的過(guò)程中產(chǎn)生了一種矛盾,著名的“隱私悖論”指出在理性人假設(shè)下個(gè)人應(yīng)當(dāng)會(huì)作出理性披露信息的決定,然而事實(shí)上個(gè)人聲明的隱私偏好與實(shí)際的披露行為存在不一致,換言之,互聯(lián)網(wǎng)用戶對(duì)其隱私的披露十分重視,卻在同時(shí)為了微薄的回報(bào)而披露大量的個(gè)人信息[3]。這種披露決策并不是單獨(dú)作出的,是算法的設(shè)計(jì)者通過(guò)精心設(shè)計(jì)的內(nèi)在環(huán)境,以“暗黑模式”的方式來(lái)操縱用戶作出其本來(lái)不會(huì)做的行為[4]。大規(guī)模數(shù)字技術(shù)的使用在客觀上將人們局限在幾個(gè)給出的選擇之中,用戶只能點(diǎn)擊呈現(xiàn)在他面前的按鈕,在一些刻意的設(shè)計(jì)下,人們以為自己有選擇不同按鈕的自主決策能力,然而其選擇實(shí)際已經(jīng)受到了算法潛意識(shí)的操縱?!鞍岛谀J健蓖ㄟ^(guò)隱藏、混淆和迷惑,在用戶不知情的情況下,達(dá)成潛意識(shí)操縱的目的?!鞍岛谀J健钡乃惴撘庾R(shí)操縱是算法背后設(shè)計(jì)者的歧視與偏見(jiàn)造成的,將他們本身帶有的觀念加入代碼之中,形成與“垃圾進(jìn),垃圾出”相似的“偏見(jiàn)進(jìn),偏見(jiàn)出”生成機(jī)理[5]。例如,TikTok在向13-17歲兒童顯示兩個(gè)彈出式通知時(shí)所采用的設(shè)計(jì)方法未能以客觀中立的方式向用戶提供選項(xiàng),歐洲數(shù)據(jù)保護(hù)局認(rèn)定TikTok這一設(shè)置違反公平原則,并加以行政罰款3.45億歐元[6]。
“交互模式”則建立在算法的“輸入—分析—輸出”機(jī)制基礎(chǔ)之上。算法在被給予大量數(shù)據(jù)的情況下,以代碼為支撐完成深度學(xué)習(xí)進(jìn)而在分析過(guò)程中形成迭代。在算法設(shè)計(jì)之初,技術(shù)開發(fā)者往往會(huì)先設(shè)定一個(gè)目標(biāo),并不斷輸入數(shù)據(jù),讓算法完成深度學(xué)習(xí)以達(dá)成最初的目標(biāo)。在這個(gè)過(guò)程中,容易出現(xiàn)一種情況:即算法在深度學(xué)習(xí)完成迭代的過(guò)程中抓取到一個(gè)高效達(dá)成目的的路徑信息——利用與人的潛意識(shí)交互的方式。因此,在此種算法偏差的存在前提下,輸出結(jié)果最終以與個(gè)人潛意識(shí)交互的方式引導(dǎo)人作出決策,達(dá)成算法潛意識(shí)操縱。在該類操縱中,雖然技術(shù)開發(fā)者并沒(méi)有試圖操縱他人的想法,并且使用了客觀中立的數(shù)據(jù),但這些合規(guī)的數(shù)據(jù)結(jié)合之下,算法抓取到了潛意識(shí)影響與人的行為之間的聯(lián)系,并加深了該聯(lián)系,從而對(duì)人群決策產(chǎn)生影響,甚至因?yàn)樗惴ǔ霰姷母咝П憩F(xiàn),它所產(chǎn)生影響的能量將大于個(gè)案中的潛意識(shí)操縱影響。
為證成規(guī)范算法潛意識(shí)操縱的必要性,突破其表層形態(tài),解剖風(fēng)險(xiǎn)可能性,分析算法潛意識(shí)操縱行為侵犯的法益,并探析背后具有深層指引意義的價(jià)值理念,這其中最顯著的就是程序正義理論。
正當(dāng)程序作為行為法意義上規(guī)定的一項(xiàng)要求,《布萊克法律辭典》中將其解釋為:“任何權(quán)益受到判決結(jié)果影響的當(dāng)事人,都享有被告知和陳述自己意見(jiàn)并獲得聽審的權(quán)利?!盵7]自“田永案”以來(lái),正當(dāng)程序在我國(guó)發(fā)展已20余年且卓有成效,實(shí)踐中的正當(dāng)程序之上,是程序正義理論在進(jìn)行指導(dǎo),它不僅可用來(lái)指引立法方向,同時(shí)也在司法實(shí)踐中提供補(bǔ)充性適用[8],在內(nèi)容上程序正義與正當(dāng)程序二者具備高度一致性,一般認(rèn)為合乎程序正義的程序就是正當(dāng)程序[9]。程序正義理論在不同的時(shí)代具有鮮明的時(shí)代特征,隨著規(guī)制對(duì)象的變化而不斷豐富自身內(nèi)涵[10]。從程序正義的理論演進(jìn)道路看,有客觀程序正義和主觀程序正義兩條進(jìn)路??陀^程序正義理論誕生于實(shí)體正義的需求,注重程序的工具合理性,即人們?yōu)榱双@得實(shí)質(zhì)上的結(jié)果正義而去遵守程序規(guī)則。主觀程序正義理論采取實(shí)證研究方法探索公眾對(duì)程序公正性的主觀感受[11],以形成更讓人感到滿意的程序機(jī)制,最終增強(qiáng)人們的守法意識(shí)[12]。
從外部看,算法潛意識(shí)操縱需要有正當(dāng)程序來(lái)規(guī)制。正當(dāng)程序原本在于限制權(quán)力的無(wú)邊界擴(kuò)張,產(chǎn)生于行政法領(lǐng)域,后在法律實(shí)踐中不斷推廣,逐漸在法律的各個(gè)領(lǐng)域中都有了正當(dāng)程序的影子。如今,算法基于深度學(xué)習(xí)等技術(shù)逐漸形成“算法權(quán)力”,且算法權(quán)力較傳統(tǒng)權(quán)力的力量更強(qiáng),輻射區(qū)域更廣,對(duì)個(gè)人與群體的影響更甚。數(shù)字社會(huì)中,算法權(quán)力在實(shí)質(zhì)上擁有了控制個(gè)人的力量,鑒于其“權(quán)力”般的體量,限制權(quán)力的濫用、避免權(quán)力使用的任意性成為必然[13]。相應(yīng)的,潛意識(shí)操縱作為算法操縱的手段之一,正處于算法權(quán)力濫用的范疇之內(nèi),對(duì)其規(guī)范也具有了必要性和正當(dāng)性。從內(nèi)部看,算法潛意識(shí)技術(shù)具有一定的“程序”特征,卻違背程序正義的價(jià)值。廣義的“程序”指一定的結(jié)果或狀態(tài)形成之前的一段時(shí)間或過(guò)程[14],算法在輸出結(jié)果前也是一套邏輯程式的體現(xiàn),屬于程序的范疇。主觀程序正義要求保障人的在場(chǎng)和主體間的互動(dòng),這是對(duì)人的尊嚴(yán)的保護(hù)。杰瑞·馬修提出的“尊嚴(yán)理論”同樣支持這一觀點(diǎn),他認(rèn)為維護(hù)程序的最根本目的在于使那些受裁決影響的人們的尊嚴(yán)得到尊重[15]。既有的數(shù)據(jù)保護(hù)法律框架以數(shù)據(jù)主體的“同意”以及數(shù)據(jù)處理者的“控制”為核心,數(shù)據(jù)主體的“同意”是個(gè)人數(shù)據(jù)進(jìn)入數(shù)據(jù)處理過(guò)程的第一道關(guān)卡,而算法潛意識(shí)操縱正涉嫌干擾個(gè)人的“同意”原則?!巴狻睒?biāo)志著數(shù)據(jù)主體和數(shù)據(jù)處理者之間達(dá)成了一種合意,即數(shù)據(jù)主體預(yù)期其數(shù)據(jù)會(huì)被數(shù)據(jù)處理者處理加工,然而在算法潛意識(shí)操縱下,這種“同意”不再體現(xiàn)雙方真正的合意。算法潛意識(shí)操縱通過(guò)干擾個(gè)人的“同意”,個(gè)人看似自己做出了“同意”的動(dòng)作,然而這個(gè)動(dòng)作是受到蒙蔽的,個(gè)人并沒(méi)有充分陳述自己的意見(jiàn),其尊嚴(yán)由此被侵犯,違反主觀程序正義中的四個(gè)要求:陳述的機(jī)會(huì)、決策的中立性、決策者的可信度、對(duì)待爭(zhēng)議者的尊重程度[16]。算法潛意識(shí)技術(shù)的應(yīng)用不僅容易侵害陳述的機(jī)會(huì),而且其本身喪失了中立性,操縱行為對(duì)個(gè)體的不尊重,讓個(gè)體對(duì)算法及算法背后的操縱者失去信任,是算法這一新興“程序”對(duì)傳統(tǒng)程序正義要求的挑戰(zhàn)[17]。
算法潛意識(shí)操縱不僅具有不符合現(xiàn)有法律理論的風(fēng)險(xiǎn),更對(duì)目前的法律框架提出挑戰(zhàn)。歐盟的立法順從《歐洲人權(quán)公約》和《歐盟基本權(quán)利憲章》的思路屬于權(quán)利保護(hù)路徑,主張自上而下保護(hù)權(quán)利。美國(guó)則主要依據(jù)《聯(lián)邦貿(mào)易委員會(huì)法案》第5條針對(duì)消費(fèi)者的數(shù)據(jù)保護(hù)問(wèn)題展開執(zhí)法活動(dòng),具有鮮明的普通法系特征。歐盟和美國(guó)以截然不同的方式對(duì)算法潛意識(shí)操縱行為加以規(guī)制,我國(guó)雖然沒(méi)有在法律中明文指出對(duì)算法潛意識(shí)操縱行為的規(guī)范,但也可以通過(guò)一些法律方法進(jìn)行解釋。
針對(duì)算法潛意識(shí)操縱這類侵犯?jìng)€(gè)人的參與性與自主性的行為,歐盟已經(jīng)進(jìn)行立法規(guī)制。《歐盟基本權(quán)利憲章》第3條第1款規(guī)定每個(gè)人都有權(quán)利保障他/她的身體健全或心理健全。雖然《歐盟基本權(quán)利憲章》中并沒(méi)有解釋什么是“心理健全”,但該條款起到了原則性指引作用,且將該條款的解釋余地留給了法院,有學(xué)者將“心理健全權(quán)”定義為“免受直接和強(qiáng)制的不必要的精神干擾或操縱的權(quán)利”,實(shí)現(xiàn)了對(duì)算法潛意識(shí)操縱的規(guī)制[18]。2020年通過(guò)的《數(shù)字服務(wù)法》首次明確提出禁止在線平臺(tái)使用欺騙、操縱的設(shè)計(jì)、組織或操作界面,特別是信息超載、虛假等級(jí)制度和阻礙技術(shù)等操縱性技術(shù)手段扭曲或損害用戶自由和知情權(quán)。該法特別指出了需要保護(hù)用戶的知情權(quán),是對(duì)算法潛意識(shí)操縱規(guī)制的進(jìn)一步發(fā)展。歐盟的《人工智能法案》第5條第1款a項(xiàng)規(guī)定:禁止將部署潛意識(shí)技術(shù)的人工智能系統(tǒng)投放市場(chǎng)或投入使用,該系統(tǒng)在實(shí)質(zhì)上扭曲人的行為,從而導(dǎo)致或可能導(dǎo)致該人或另一個(gè)人的身體或心理傷害。該條款明確指出,對(duì)人類的潛意識(shí)造成影響進(jìn)而影響個(gè)人的行為的人工智能系統(tǒng)是要被禁止的,其背后的原理就在于“潛意識(shí)技術(shù)”可能會(huì)非法操縱個(gè)人的思想,侵犯?jìng)€(gè)人主體性。美國(guó)式的規(guī)制則不同,歐盟在規(guī)則制定上有一個(gè)統(tǒng)領(lǐng)作用,美國(guó)是將重心置于規(guī)則的監(jiān)督與執(zhí)行上。美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)根據(jù)企業(yè)所做出的關(guān)于信息保護(hù)的自律性承諾對(duì)其行為進(jìn)行監(jiān)管,以實(shí)現(xiàn)對(duì)市場(chǎng)的秩序維護(hù)。根據(jù)《聯(lián)邦貿(mào)易委員會(huì)法案》(FTCA)第 5 條,美國(guó)聯(lián)邦貿(mào)易委員會(huì)有權(quán)對(duì)企業(yè)貿(mào)易中不公平行為或欺騙性行為加以監(jiān)督[19],算法潛意識(shí)操縱行為自然也在監(jiān)督的范圍之內(nèi)。2021年4月,F(xiàn)TC在研討會(huì)中重申“暗黑模式”規(guī)制的重要性,并于同年10月,公布一項(xiàng)政策要求企業(yè)不能在訂閱服務(wù)中使用暗黑模式,這些舉措皆表明了政府對(duì)規(guī)范算法潛意識(shí)操縱行為的重視與努力。
在我國(guó)現(xiàn)有法律實(shí)踐中,沒(méi)有明確以“算法潛意識(shí)操縱”為對(duì)象的規(guī)范條款,“潛意識(shí)”往往以裁判理由的身份出現(xiàn),作為說(shuō)理的一部分,但這里采用的“潛意識(shí)”是社會(huì)生活的慣常用語(yǔ)。司法實(shí)踐中有考量到潛意識(shí)的存在,卻并沒(méi)有以它為主要說(shuō)法理由進(jìn)行判決。本文繼而轉(zhuǎn)向法律解釋的分析方法,探索現(xiàn)有法律框架中是否可以解釋出規(guī)范算法潛意識(shí)操縱行為的規(guī)范。
以隱形廣告為例,廣告商在廣告中加入一些強(qiáng)度在意識(shí)閾值以下的刺激,以此進(jìn)行商品推銷。隱性廣告隨處可見(jiàn),具有很強(qiáng)的滲透性,出現(xiàn)在電視劇、電影、節(jié)目等多個(gè)場(chǎng)景中。1982年,導(dǎo)演史蒂芬·斯皮爾伯格執(zhí)導(dǎo)的《外星人》中,小主角用“里斯”的巧克力吸引外星人,“里斯”巧克力為《外星人》提供100萬(wàn)美元的宣傳贊助,伴隨電影的熱映,“里斯”糖果的銷量也提高了65%,被視為隱性廣告的一座里程碑。如今實(shí)踐中的隱性廣告已經(jīng)是被規(guī)范后的結(jié)果,《中華人民共和國(guó)廣告法》第14條規(guī)定,“廣告應(yīng)當(dāng)具有可識(shí)別性,能夠使消費(fèi)者辨明其為廣告……通過(guò)大眾傳播媒介發(fā)布的廣告應(yīng)當(dāng)顯著標(biāo)明為‘廣告’,與其他非廣告信息相區(qū)別,不得使消費(fèi)者產(chǎn)生誤解”,防止消費(fèi)者喪失消費(fèi)選擇的自主意愿。同時(shí),《中華人民共和國(guó)消費(fèi)者權(quán)益保護(hù)法》第9條規(guī)定,“消費(fèi)者享有自主選擇商品或者服務(wù)的權(quán)利”,也隱含著廣告透明化的要求。以上兩條規(guī)范雖然沒(méi)有在字面上提及“潛意識(shí)技術(shù)”,但蘊(yùn)含的規(guī)范要求正是在保護(hù)消費(fèi)者的決策自主性,所以完成了對(duì)廣告領(lǐng)域中“潛意識(shí)技術(shù)”的變相規(guī)制。另外,科技部等十部門共同頒發(fā)的《科技倫理審查辦法(試行)》中規(guī)定了需要開展倫理審查復(fù)核的科技活動(dòng)清單,其中包括侵入式腦機(jī)接口用于神經(jīng)、精神類疾病治療的臨床研究以及對(duì)人類主觀行為、心理情緒和生命健康等具有較強(qiáng)影響的人機(jī)融合系統(tǒng)的研發(fā)。可見(jiàn),潛意識(shí)技術(shù)明顯包括在內(nèi),但是該辦法著重從監(jiān)督角度對(duì)技術(shù)的應(yīng)用加以審查,而由于潛意識(shí)操縱行為的特殊性,對(duì)其審查往往難以實(shí)踐。
現(xiàn)存法律規(guī)范都是實(shí)體性法律規(guī)范,實(shí)體法律規(guī)范的特點(diǎn)在于以結(jié)果為導(dǎo)向的行為規(guī)制,這些規(guī)制無(wú)法解決算法潛意識(shí)操縱的問(wèn)題。首先,算法潛意識(shí)技術(shù)對(duì)個(gè)人的操縱標(biāo)準(zhǔn)難以確認(rèn),究竟在什么程度上算達(dá)成對(duì)一個(gè)人的潛意識(shí)操縱,每個(gè)人的潛意識(shí)閾值都不相同,要設(shè)定一個(gè)固定的標(biāo)準(zhǔn)似乎較難。其次,實(shí)體法中所規(guī)定的造成人的身心傷害同樣難于認(rèn)定,損害結(jié)果包括累積危害的個(gè)人層面及集體層面,在個(gè)人層面,累積危害指“一種產(chǎn)品在消耗更多單位時(shí)會(huì)對(duì)個(gè)人產(chǎn)生累積危害”[20],這些傷害可能會(huì)隨著時(shí)間的推移而累積,并在低于正常意識(shí)水平的情況下發(fā)生,但是因果關(guān)系卻難以證明[21]。集體層面的累積危害表現(xiàn)在社會(huì)影響上。數(shù)字技術(shù)對(duì)人造成的危害可能微不足道,但會(huì)在社會(huì)層面形成巨大影響,這種傷害表現(xiàn)間接但影響重大。因此,光是憑借實(shí)體規(guī)制無(wú)法完全覆蓋立法本意。最后,基于算法的“程序”特點(diǎn),實(shí)體性法律規(guī)范只關(guān)注到操縱結(jié)果產(chǎn)生后對(duì)算法潛意識(shí)操縱者的責(zé)任,沒(méi)有充分保障個(gè)人的自主性與參與性,對(duì)于個(gè)人的基本權(quán)利保護(hù)仍較為欠缺。
技術(shù)的風(fēng)險(xiǎn)性通??梢酝ㄟ^(guò)制度化設(shè)計(jì)進(jìn)行規(guī)避,潛意識(shí)操縱本身的特殊性要求其規(guī)制方法也具有特殊性,行為入法雖能一刀切式地截?cái)酀撘庾R(shí)操縱的可能,但也斬?cái)嗔怂惴夹g(shù)以及神經(jīng)科學(xué)的發(fā)展。為了平衡此二者,在現(xiàn)有法律的實(shí)體性行為規(guī)制基礎(chǔ)之上,引入算法程序正義理念,形成實(shí)體性正當(dāng)程序與程序性正當(dāng)程序規(guī)制相結(jié)合的法律適用方法,完善“數(shù)據(jù)收集—數(shù)據(jù)處理—人機(jī)交互”全鏈條式規(guī)范,形成對(duì)技術(shù)的發(fā)展引導(dǎo),并盡量降低其負(fù)面影響。
程序正義理論隨著規(guī)制對(duì)象的變化而不斷豐富其內(nèi)涵[22],傳統(tǒng)程序正義理論關(guān)注主體的參與性,并起到防止權(quán)力濫用的功能。隨著技術(shù)的革命,主體的參與性受到挑戰(zhàn),技術(shù)性正當(dāng)程序理論得以興起①杰伊(Jay Thornton)對(duì)技術(shù)性正當(dāng)程序提出反駁,他在《法律信息技術(shù)中的成本、準(zhǔn)確性與主觀公平——對(duì)技術(shù)性正當(dāng)程序批評(píng)的回應(yīng)》一文中回應(yīng),公開算法代碼不僅會(huì)讓本來(lái)不被算法程序通過(guò)的主體利用代碼的關(guān)注點(diǎn)故意修改相關(guān)數(shù)據(jù)使其通過(guò),還會(huì)增加程序機(jī)制的成本,喪失了技術(shù)本身的獨(dú)特優(yōu)勢(shì)。,該理論建基于傳統(tǒng)客觀程序正義理論,在全新的技術(shù)背景下,強(qiáng)調(diào)事前程序測(cè)試、審計(jì)跟蹤機(jī)制等新的程序制度來(lái)維護(hù)程序的客觀性和中立性[23]。技術(shù)性正當(dāng)程序要求從算法源頭加以監(jiān)管,其關(guān)鍵在于通過(guò)算法的可解釋性來(lái)達(dá)成規(guī)制目的,然而算法本身具有“黑箱”屬性,且作為私主體開發(fā)的算法要求公開本身并不實(shí)際,在此背景下,形成一套私主體關(guān)系間的算法程序正義框架勢(shì)在必行,算法程序正義是在算法技術(shù)背景下對(duì)程序正義理論的補(bǔ)充與發(fā)展,指涉的是透明、準(zhǔn)確、參與以及可問(wèn)責(zé)性在算法技術(shù)中的滿足程度[24]。
算法程序正義背后最深層的價(jià)值仍是人權(quán),即以人為本?,F(xiàn)代化過(guò)程中人的需求層次不斷提高,人的自我意識(shí)覺(jué)醒揭示了堅(jiān)持人民至上是現(xiàn)代社會(huì)的內(nèi)在意蘊(yùn)[25],數(shù)字技術(shù)背景下提出的“數(shù)字人權(quán)”將該價(jià)值內(nèi)涵不斷豐富,并要求數(shù)字時(shí)代下堅(jiān)決捍衛(wèi)人權(quán)價(jià)值,捍衛(wèi)人的主體性,將人權(quán)作為一個(gè)指引性的價(jià)值觀來(lái)評(píng)價(jià)或指引數(shù)字科技的應(yīng)用[26]。主觀程序正義同樣出于以人為本的考量,將該理論納入算法程序正義的框架之下,更有助于實(shí)現(xiàn)對(duì)人的主體性、參與性等的保障。明確以人為本的指引理念后,要實(shí)現(xiàn)算法程序正義,使該理論不浮于表面而具有一定的實(shí)踐意義,重點(diǎn)在于對(duì)數(shù)字人權(quán)與算法權(quán)力的平衡。二者具有可平衡性的基礎(chǔ)在于二者背后都有值得法律保護(hù)的價(jià)值,數(shù)字人權(quán)自不待言,算法權(quán)力背后則是算法技術(shù)的發(fā)展。數(shù)字時(shí)代剛剛起步,其未來(lái)發(fā)展離不開算法技術(shù),如若在發(fā)展之初就將算法技術(shù)否決,生產(chǎn)力無(wú)法實(shí)現(xiàn)突破,社會(huì)的發(fā)展也將停滯。因此,在推動(dòng)算法技術(shù)不斷前進(jìn)的基礎(chǔ)上,還要保障數(shù)字人權(quán),如何在法律上平衡兩者關(guān)系,是亟待解決的問(wèn)題。
實(shí)體性正當(dāng)程序旨在保護(hù)憲法中未明確列舉的基本權(quán)利,基本權(quán)利平衡木的另一端是操縱者及算法技術(shù),代表的是操縱者欲實(shí)現(xiàn)的商業(yè)價(jià)值及社會(huì)發(fā)展所必要的數(shù)字技術(shù)的進(jìn)步。算法技術(shù)以一種完全計(jì)算的方式來(lái)對(duì)待人類,強(qiáng)迫人類接受其操縱,使人類失去了身為人類的獨(dú)特性,換言之,也是對(duì)人類尊嚴(yán)、自主性的侵犯,因此加強(qiáng)人在技術(shù)過(guò)程中的參與性是維護(hù)人的主體性的重要方式,而人機(jī)交互權(quán)是實(shí)現(xiàn)二者平衡的一道具有可實(shí)踐性的橋梁[27]。
在算法潛意識(shí)操縱規(guī)制中加強(qiáng)個(gè)體感受的參與是人機(jī)交互權(quán)的一種體現(xiàn),人機(jī)交互權(quán)看似是人類和算法系統(tǒng)之間的關(guān)系和交互,實(shí)際上其真正想實(shí)現(xiàn)的是個(gè)人與算法系統(tǒng)背后設(shè)計(jì)者的交流。歐盟的《通用數(shù)據(jù)保護(hù)條例》中明確規(guī)定了“人機(jī)交互權(quán)”,要求在進(jìn)行自動(dòng)化決策時(shí),需要有人類參與并進(jìn)行評(píng)估和決策,這個(gè)要求強(qiáng)調(diào)了人類在自動(dòng)化過(guò)程中的重要性,以保護(hù)數(shù)據(jù)主體的尊嚴(yán)和權(quán)利,同時(shí)也可以促進(jìn)算法的透明度和公正性,避免算法對(duì)數(shù)據(jù)主體造成不公正的影響。因此,“人機(jī)交互權(quán)”可以作為一種重要的規(guī)制工具,幫助保護(hù)數(shù)據(jù)主體的權(quán)利和利益?,F(xiàn)有人工智能系統(tǒng)對(duì)決策的不同層次的審查[28],包括人類主導(dǎo)模式、人類參與模式、人類監(jiān)督模式、人類排除模式四種模式①人類主導(dǎo)模式下人類完全掌控自動(dòng)化系統(tǒng),自動(dòng)化系統(tǒng)只是執(zhí)行人類的指令,人類對(duì)自動(dòng)化系統(tǒng)的決策結(jié)果負(fù)有全部責(zé)任。人類參與模式中自動(dòng)化系統(tǒng)進(jìn)行決策時(shí)需要人類參與并進(jìn)行評(píng)估和決策,這種機(jī)制下,人類可以對(duì)自動(dòng)化系統(tǒng)的決策結(jié)果進(jìn)行監(jiān)督和糾正,以保護(hù)數(shù)據(jù)主體的權(quán)利和利益。人類監(jiān)督模式下自動(dòng)化系統(tǒng)進(jìn)行決策時(shí),人類可以對(duì)決策結(jié)果進(jìn)行監(jiān)督和糾正以確保自動(dòng)化系統(tǒng)的決策結(jié)果符合人類的期望和要求,但不需要直接參與決策過(guò)程。人類排除模式中自動(dòng)化系統(tǒng)完全獨(dú)立進(jìn)行決策,人類不參與決策過(guò)程,也無(wú)法對(duì)決策結(jié)果進(jìn)行監(jiān)督和糾正。。前三種模式皆體現(xiàn)了一定程度上的人機(jī)交互,其中人類參與模式是允許人工智能系統(tǒng)發(fā)揮其技術(shù)優(yōu)勢(shì)前提下,人類參與程度最深的一種模式。人機(jī)交互體現(xiàn)了主觀程序正義的主張,有助于緩解操縱者與被操縱者之間的壓迫關(guān)系,二者之間存在一個(gè)基本平等的商談環(huán)境,要求躲在技術(shù)背后的包括權(quán)力意志機(jī)構(gòu)及組織在內(nèi)的主體應(yīng)當(dāng)尊重被操縱者的自主性,以一種不同于行為規(guī)范的方式緩和雙方之間的博弈關(guān)系。
面對(duì)算法潛意識(shí)操縱,要維護(hù)個(gè)人的自主性,個(gè)人在其中應(yīng)當(dāng)發(fā)揮主導(dǎo)作用,由于不同的人對(duì)潛意識(shí)影響的反應(yīng)并不相同,因此為個(gè)人準(zhǔn)備一個(gè)反饋機(jī)制顯得尤為必要。反饋機(jī)制目的是在算法中設(shè)計(jì)一個(gè)空間,該空間為算法背后的組織和個(gè)人提供一個(gè)商談的空間,實(shí)現(xiàn)“人—機(jī)—人”式的交互。面對(duì)冷酷的機(jī)器及算法,個(gè)人仍然有機(jī)會(huì)陳述自己的觀點(diǎn),且其所陳述的內(nèi)容應(yīng)當(dāng)?shù)玫絻A聽。反饋機(jī)制可以以兩種方式開展:第一種是“電子客服”,個(gè)人陳述完自己的意見(jiàn)后,機(jī)器可以初步處理信息并給出解決方案;第二種是“人工客服”,個(gè)人會(huì)有不信任機(jī)器的時(shí)候,應(yīng)當(dāng)向其提供一個(gè)人工客服的選擇,保證個(gè)人有溝通的渠道與可能性,對(duì)個(gè)人而言,也是一個(gè)確保其個(gè)人權(quán)益不被機(jī)器單方面處置的保障[29]。
除了在內(nèi)部設(shè)計(jì)一條允許個(gè)人反饋的通道之外,還需要有一種正當(dāng)程序從外部防止權(quán)力的濫用。算法本身具有形成算法權(quán)力的潛能,再以潛意識(shí)影響的方式行事,算法潛意識(shí)行為幾乎必然會(huì)導(dǎo)致權(quán)力濫用的現(xiàn)象,因此,如何監(jiān)測(cè)其是否屬于算法潛意識(shí)操縱也是一項(xiàng)重要程序。對(duì)此,學(xué)界多次提出算法透明化的對(duì)策,然而效果不彰。在實(shí)踐中,算法黑箱在事實(shí)上存在,算法設(shè)計(jì)者并不必然能夠解釋最終結(jié)果;算法透明化意味著向全社會(huì)開源,對(duì)于企業(yè)而言,以算法不公開為原則,算法公開為例外,公開的結(jié)果會(huì)引起數(shù)據(jù)市場(chǎng)經(jīng)濟(jì)的停滯,對(duì)于技術(shù)的進(jìn)步也并無(wú)益處。經(jīng)過(guò)平衡,本文提出三點(diǎn)對(duì)策,旨在數(shù)據(jù)收集與數(shù)據(jù)處理過(guò)程中加強(qiáng)管理。
其一,強(qiáng)化輸入端審查,保障數(shù)據(jù)收集合法性。在現(xiàn)有法律框架下,數(shù)據(jù)收集階段以同意為原則,要求數(shù)據(jù)控制者只能在數(shù)據(jù)主體同意的前提下開展收集以及后續(xù)的數(shù)據(jù)處理工作。鑒于認(rèn)識(shí)的欠缺,數(shù)據(jù)主體不一定能意識(shí)到數(shù)據(jù)控制者意在收集數(shù)據(jù)主體的潛意識(shí)相關(guān)數(shù)據(jù),也不一定能認(rèn)識(shí)到收集潛意識(shí)相關(guān)數(shù)據(jù)對(duì)個(gè)人會(huì)產(chǎn)生的危害,便需要法律加以強(qiáng)制規(guī)定,要求數(shù)據(jù)控制者不得收集個(gè)人潛意識(shí)相關(guān)信息。換言之,在算法的輸入端應(yīng)該加強(qiáng)審查,確保數(shù)據(jù)控制者沒(méi)有收集不合規(guī)數(shù)據(jù)。
其二,完善輸出端監(jiān)測(cè),確保不存在操縱現(xiàn)象。在算法構(gòu)成的世界中,只給予個(gè)人有限的選擇,然而并非構(gòu)成有限選擇就必然意味著存在操縱的事實(shí),而是在這些可能的選項(xiàng)中,通過(guò)算法借力,引導(dǎo)個(gè)人選擇了其中一個(gè)具體的選項(xiàng),才構(gòu)成了算法潛意識(shí)操縱。這要求被展示在個(gè)人面前的信息應(yīng)當(dāng)是全面不加以刻意篩選的,除非得到用戶的同意。以潛意識(shí)影響的方式達(dá)成的算法操縱,于個(gè)人而言難以意識(shí),但卻可以經(jīng)過(guò)一定次數(shù)的輸出端監(jiān)測(cè)來(lái)確認(rèn)。簡(jiǎn)單來(lái)說(shuō),正當(dāng)程序中有輸入端與輸出端兩端,如果輸入端數(shù)據(jù)存在瑕疵那毫無(wú)疑問(wèn)不符合正當(dāng)程序,而且容易被審查出來(lái),然而如果在輸出端經(jīng)過(guò)多次檢測(cè)后,發(fā)現(xiàn)個(gè)人有很高的幾率被指引選擇其中某一個(gè)選項(xiàng),那便有操縱的嫌疑[30],應(yīng)當(dāng)要求該算法予以修正。潛意識(shí)操縱本身具有隱蔽的特點(diǎn),在巨大體量的信息面前隱蔽性更是得以強(qiáng)化,算法設(shè)計(jì)者應(yīng)當(dāng)謹(jǐn)慎使用推薦算法的方式,尤其不得利用潛意識(shí)相關(guān)標(biāo)準(zhǔn)來(lái)篩選信息。這對(duì)于保護(hù)心智尚不成熟的人非常重要,因?yàn)樗麄儤O其容易受到所見(jiàn)所聽之影響,如果展示在他們面前的信息是加以篩選過(guò)的,那么必然會(huì)受到算法的操縱。
其三,加強(qiáng)審計(jì)控制,審核重要節(jié)點(diǎn)算法解釋。算法設(shè)計(jì)者雖然不需要向社會(huì)開源,公開其代碼所有內(nèi)容,但是應(yīng)當(dāng)在算法中的一些重要節(jié)點(diǎn)中作出說(shuō)明。歐盟《通用數(shù)據(jù)保護(hù)條例》第12條明確表示數(shù)據(jù)控制者要以清晰和通俗易懂的語(yǔ)言進(jìn)行算法解釋,這個(gè)解釋包括重要的決策解釋、信息解釋和理念解釋,在解釋時(shí)著重注意對(duì)算法中立性的說(shuō)明。依我國(guó)《個(gè)人信息保護(hù)合規(guī)審計(jì)管理辦法(征求意見(jiàn)稿)》規(guī)定,國(guó)家網(wǎng)信部門等相關(guān)部門正統(tǒng)籌協(xié)調(diào)組織形成第三方審計(jì)機(jī)構(gòu)推薦目錄,對(duì)數(shù)據(jù)處理者的數(shù)據(jù)處理是否合規(guī)進(jìn)行審計(jì)。待第三方審計(jì)機(jī)構(gòu)建立完畢后,其審計(jì)業(yè)務(wù)范圍也可以擴(kuò)張,包含對(duì)算法合規(guī)情況的審計(jì),在審計(jì)過(guò)程中需關(guān)注重要節(jié)點(diǎn)如篩選理由等的算法解釋,并且確保算法解釋與最終運(yùn)行結(jié)果的一致性。
算法潛意識(shí)技術(shù)的出現(xiàn)是數(shù)字技術(shù)、心理學(xué)與神經(jīng)科學(xué)發(fā)展必然的結(jié)果,雖然技術(shù)的使用存在負(fù)面影響,但是數(shù)字法學(xué)是按照以人為中心的思維構(gòu)建的,傾向于在知道、了解技術(shù)危害后進(jìn)行規(guī)范管理后對(duì)技術(shù)進(jìn)行使用。潛意識(shí)操縱行為對(duì)人的自主性、尊嚴(yán)等有不同程度的損害,存在缺乏監(jiān)管的現(xiàn)狀,一是歐盟的《人工智能法案》中規(guī)定的潛意識(shí)條款為我國(guó)提供了在實(shí)體行為規(guī)范角度中潛意識(shí)操縱行為規(guī)范的參考。二是依據(jù)算法程序正義理論構(gòu)建實(shí)體性正當(dāng)程序與程序性正當(dāng)程序結(jié)合的路徑,完善“數(shù)據(jù)收集—數(shù)據(jù)處理—人機(jī)交互”全鏈條式規(guī)范。由于“潛意識(shí)”相關(guān)概念尚不成熟,仍待各學(xué)科專家共同探討諸如閾值、通感等相關(guān)問(wèn)題,未來(lái)對(duì)“潛意識(shí)技術(shù)”監(jiān)管需要世界各國(guó)及地區(qū)的廣泛參與和合作,甚至還需要利用跨學(xué)科的知識(shí),來(lái)建立一個(gè)新的全球法律框架??梢灶A(yù)見(jiàn)的是,當(dāng)下算法技術(shù)從多維角度向全社會(huì)滲透,為人們帶來(lái)效益的同時(shí)引起了人們的警覺(jué)。若不對(duì)其加以引導(dǎo),算法操縱將愈發(fā)超越人意識(shí)的閾值范圍,潛意識(shí)操縱不再局限于概念界定之中,在實(shí)踐中或?qū)⒋罅看嬖冢a(chǎn)生變革性甚至破壞性影響。技術(shù)的發(fā)展對(duì)應(yīng)著人類的某種需求,算法技術(shù)毫無(wú)疑問(wèn)讓人們的生活更加簡(jiǎn)便,解放了生產(chǎn)力,但同時(shí)對(duì)人類提出重大挑戰(zhàn),這些挑戰(zhàn)仍待我們一一解決。在此情況下,算法程序正義堅(jiān)持以人為中心,關(guān)心人在技術(shù)中的地位與作用,正是突破與技術(shù)相關(guān)的重重矛盾的一大突破口。