宋青勵(lì) 韓奧林
摘 要:智能場(chǎng)域由人工智能實(shí)踐的主體要素和客體要素構(gòu)成,兩者的相互作用共同構(gòu)成了人工智能實(shí)踐的作用場(chǎng)。在智能場(chǎng)域下,人們?cè)谙硎芩惴◣?lái)諸多生活便利的同時(shí),也時(shí)刻面臨著自身被算法“圈禁”的風(fēng)險(xiǎn),其思想認(rèn)知、判斷能力、決策意識(shí)可能會(huì)受制于算法,社會(huì)地位也可能會(huì)因算法的“偽中立性”而受到不合理的禁錮。當(dāng)前,算法的“偽中立性”主要表現(xiàn)在形成擬態(tài)環(huán)境、形成圈群文化、形成等級(jí)制度方面,算法作用下的“物化困境”“主體失位”“效率優(yōu)先”,往往導(dǎo)致其對(duì)人的決策、勞動(dòng)、隱私的“圈禁”?;诖?,解除算法對(duì)人的“圈禁”,需要堅(jiān)持以科學(xué)的技術(shù)手段輔助人的決策、以主流價(jià)值觀引導(dǎo)人的勞動(dòng)、以健全的法律法規(guī)保護(hù)人的隱私。
關(guān)鍵詞:智能場(chǎng)域;算法;算法推薦;“偽中立性”
中圖分類(lèi)號(hào):TP18
文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1002-7408(2023)06-0075-08
基金項(xiàng)目:2022年國(guó)家社會(huì)科學(xué)基金青年項(xiàng)目“網(wǎng)絡(luò)亞文化異動(dòng)對(duì)青年主流價(jià)值觀的消解及應(yīng)對(duì)研究”(22CKS044)。
作者簡(jiǎn)介:宋青勵(lì)(1993—),女,天津人,南京航空航天大學(xué)馬克思主義學(xué)院博士研究生,研究方向:馬克思主義中國(guó)化、社會(huì)治理;韓奧林(1991—),男,安徽阜陽(yáng)人,南京航空航天大學(xué)馬克思主義學(xué)院博士研究生,研究方向:馬克思主義中國(guó)化。
何謂“場(chǎng)域”?作為一種社會(huì)學(xué)概念,場(chǎng)域最早由法國(guó)社會(huì)學(xué)家皮埃爾·布迪厄提出。在他看來(lái),一個(gè)場(chǎng)域可以被定義為在各種位置之間存在的客觀關(guān)系的一個(gè)網(wǎng)絡(luò)(network),或一個(gè)構(gòu)型(configuration)[1]。所謂構(gòu)成場(chǎng)域的關(guān)系網(wǎng)絡(luò),實(shí)質(zhì)上是由不同類(lèi)型的權(quán)力(或資本)造成的生存處境,任何人既要受到場(chǎng)域中各種關(guān)系網(wǎng)絡(luò)的影響,又有一定可能影響甚至改變客觀存在的場(chǎng)域。在皮埃爾·布迪厄的理論體系中,具體場(chǎng)域之間的主體關(guān)系網(wǎng)絡(luò)內(nèi)蘊(yùn)著流動(dòng)性,深度內(nèi)嵌于所在場(chǎng)域但又獨(dú)立于主體意識(shí)而存在,故而具有源自場(chǎng)域內(nèi)部的一系列強(qiáng)制性約束。代表不同群體的主體積極參與競(jìng)爭(zhēng),旨在盡可能獲取有價(jià)值的符號(hào)商品,從而將經(jīng)濟(jì)、社會(huì)、文化等資本形態(tài)轉(zhuǎn)化為形式各樣的權(quán)力,以此逐步獲得主體間有效的支配關(guān)系。當(dāng)然,不同場(chǎng)域之間具有自主性、差異化等顯著特征,每個(gè)場(chǎng)域都隱含著不同力量的博弈和競(jìng)爭(zhēng)且沒(méi)有明確邊界,每個(gè)場(chǎng)域都不能完全脫離其他場(chǎng)域而獨(dú)自存在,仍會(huì)時(shí)刻受到其他場(chǎng)域的多重影響和制約?;趫?chǎng)域理論分析視角,智能場(chǎng)域既是人工智能實(shí)踐有序開(kāi)展的時(shí)空形態(tài),也是變革人工智能實(shí)踐方式的重要因素,人工智能實(shí)踐直接或間接地受制于智能場(chǎng)域的發(fā)展。當(dāng)前,作為人工智能技術(shù)的產(chǎn)物,算法廣泛應(yīng)用于人們?nèi)粘I畹姆椒矫婷?,深刻重塑了人與人、人與社會(huì)之間的互動(dòng)聯(lián)系。當(dāng)算法逐漸演變?yōu)榫哂凶兏镆饬x的生產(chǎn)要素和技術(shù)手段時(shí),對(duì)于算法“偽中立性”帶來(lái)的潛在社會(huì)影響的研究成為學(xué)界共同關(guān)注的課題。在智能場(chǎng)域下,算法本身的“偽中立性”衍生了諸多現(xiàn)實(shí)危害,無(wú)形中促使人們?cè)谀撤N程度上被“圈禁”。如在一些短視頻平臺(tái),算法始終隱性影響著人們的決策行為;在一些數(shù)字勞動(dòng)平臺(tái),算法始終隱性控制著人們的勞動(dòng)行為等。集中反思算法對(duì)人的“圈禁”,亟待從輔助決策、引導(dǎo)勞動(dòng)、保護(hù)隱私等方面采取有效措施加以應(yīng)對(duì)。
一、算法的“偽中立性”
算法具有本體論意義上的技術(shù)中立性,但是隨著算法開(kāi)始接管各類(lèi)信息分發(fā)的權(quán)力,算法設(shè)計(jì)之初標(biāo)榜的中立性已經(jīng)異化。在市場(chǎng)邏輯的強(qiáng)力支配下,各種信息篩選機(jī)制和推薦規(guī)則的不透明性,使得算法本身明顯帶有一種可見(jiàn)的“偽中立性”。
(一)算法“偽中立性”的緣由
智能場(chǎng)域下的算法不能被視為純粹意義上沒(méi)有價(jià)值觀的技術(shù)手段,這是因?yàn)樗惴ㄅc信息連接的全過(guò)程都隱含著人為因素和權(quán)力因素。算法推薦的出現(xiàn)有效解決了信息內(nèi)容與用戶需求不匹配的問(wèn)題,實(shí)質(zhì)上使得信息分發(fā)變得更加智能、高效、精準(zhǔn)。然而,由于各類(lèi)平臺(tái)過(guò)于推崇和依賴(lài)算法推薦技術(shù),過(guò)于迎合用戶的興趣與愛(ài)好,導(dǎo)致用戶瀏覽信息成癮的現(xiàn)象日益凸顯,由此引發(fā)了社會(huì)各界對(duì)其中立性的高度質(zhì)疑。算法并非價(jià)值中立,它內(nèi)嵌于社會(huì)機(jī)制的復(fù)雜性,其對(duì)不同勞動(dòng)者影響結(jié)果的差異性及其在運(yùn)行過(guò)程中的自我強(qiáng)化性,都使得以實(shí)現(xiàn)客觀技術(shù)指標(biāo)為目的的功能性算法,最終演化為帶有價(jià)值判斷和選擇功能的政治性算法[2]??此瓶陀^中立的算法技術(shù),實(shí)則在研發(fā)過(guò)程中就帶有研發(fā)人員的偏見(jiàn)和歧視,且算法運(yùn)行也是基于大量帶有偏見(jiàn)的社會(huì)現(xiàn)實(shí)數(shù)據(jù)的收集和分析。算法正在以一種相對(duì)隱蔽的方式固化甚至加深社會(huì)已有的偏見(jiàn),各類(lèi)平臺(tái)無(wú)論是出于保護(hù)算法安全還是暗中謀取私利的目的,算法權(quán)力主體從一開(kāi)始就被完美地隱藏起來(lái)。事實(shí)上,算法權(quán)力主體彌漫于整個(gè)社會(huì),日益呈現(xiàn)出多元化、不確定的狀態(tài)。首先,國(guó)家政治機(jī)構(gòu)是掌握算法權(quán)力的公權(quán)力主體,它們憑借強(qiáng)大的國(guó)家權(quán)力、雄厚的國(guó)家資本以及海量的公共數(shù)據(jù)資源,將算法有序納入國(guó)家治理體系,旨在全方位發(fā)揮算法技術(shù)支配對(duì)象的工具性價(jià)值。此外,政府在基礎(chǔ)設(shè)施、資金投入、政策制度等方面支持算法發(fā)展,不僅使所有參與者從中受益良多,同時(shí)也推動(dòng)了算法權(quán)力再分配機(jī)制的形成。其次,各類(lèi)互聯(lián)網(wǎng)企業(yè)是掌握算法權(quán)力的私權(quán)力主體,他們擁有龐大的私人資本、卓越的算法技術(shù)以及先進(jìn)的算法系統(tǒng)架構(gòu),在一定程度上影響著經(jīng)濟(jì)社會(huì)各個(gè)方面的長(zhǎng)遠(yuǎn)健康發(fā)展。最后,其他社會(huì)機(jī)構(gòu)也是掌握算法權(quán)力的特定主體,隨著算法權(quán)力逐步深入社會(huì)生活和實(shí)踐的各個(gè)領(lǐng)域,廣泛存在于學(xué)校、醫(yī)院、工廠等社會(huì)機(jī)構(gòu),人類(lèi)“數(shù)字化生存”的方式已經(jīng)成為社會(huì)常態(tài)。
(二)算法“偽中立性”的表現(xiàn)
算法技術(shù)不是晦澀難懂的數(shù)字符號(hào),其必然融入了人們多元化的價(jià)值觀。算法技術(shù)中立的本質(zhì)在于價(jià)值觀是否中立,但是價(jià)值觀本身?yè)诫s了各類(lèi)群體的偏好,使得算法“偽中立性”的表現(xiàn)躍然紙上。
一是形成擬態(tài)環(huán)境。算法技術(shù)強(qiáng)化了人們?yōu)g覽信息的擬態(tài)環(huán)境,固化了人們?cè)械钠?jiàn)和喜好,導(dǎo)致人們的思想意識(shí)深度陷入虛無(wú)縹緲的孤島。擬態(tài)環(huán)境不是憑空產(chǎn)生的,它以真實(shí)世界為根據(jù),但并不是現(xiàn)實(shí)社會(huì)在鏡子里的成像,而是傳播媒介通過(guò)對(duì)代表性事件進(jìn)行選擇和加工之后向人們展示的環(huán)境[3]。由于擬態(tài)環(huán)境與主觀環(huán)境存在密切關(guān)聯(lián),人們選擇和接收信息的過(guò)程實(shí)際上受主觀意志主導(dǎo),如果算法形成的擬態(tài)環(huán)境與主觀環(huán)境高度趨同,那么受眾對(duì)信息的選擇權(quán)和知情權(quán)也就逐漸被剝奪了??陀^來(lái)說(shuō),算法技術(shù)搭建的擬態(tài)環(huán)境更加形象生動(dòng),極易引發(fā)人們的思想認(rèn)同、情感共鳴,這也是各種平臺(tái)利用算法技術(shù)吸引廣大受眾的重要原因。但是算法技術(shù)始終遵循資本邏輯的法則,不僅會(huì)使信息傳播嚴(yán)重偏離主流價(jià)值導(dǎo)向,而且會(huì)進(jìn)一步助長(zhǎng)低俗虛假信息泛濫的勢(shì)頭,加大黃色、暴力、恐怖等不良信息擴(kuò)散的力度,最終導(dǎo)致各類(lèi)平臺(tái)推送的信息質(zhì)量陡然下降,信息的客觀性、真實(shí)性、中立性也蕩然無(wú)存。
二是形成圈群文化。算法技術(shù)在內(nèi)容社交平臺(tái)打造了諸多圈子,形成了“圈群文化”這一人際交往新形式,而圈子不可避免地產(chǎn)生了明顯的排他性效應(yīng)?;诠餐救さ木W(wǎng)絡(luò)使用者更容易在網(wǎng)絡(luò)中形成圈群,并演化出具有相似情感取向的“圈群文化”[4]。各類(lèi)平臺(tái)為了盡可能延長(zhǎng)用戶的停留時(shí)間,往往精準(zhǔn)推送一些充分迎合用戶瀏覽需求的信息,使得用戶沉迷于高度同質(zhì)化信息營(yíng)造的“信息繭房”?!靶畔⒗O房”是指在信息傳播中,由于人們沒(méi)有全方位的信息需求,他們只會(huì)重點(diǎn)關(guān)注一些讓自身愉悅的信息,從而使自身牢牢束縛于像蠶繭一樣的“繭房”之中。長(zhǎng)此以往,人們便逐漸喪失了自由選擇和充分接收其他信息的能力,潛意識(shí)地隔絕了自身正確認(rèn)識(shí)外部世界的窗口,甚至?xí)?yán)重制約縱向與橫向思維能力的培養(yǎng),出現(xiàn)相關(guān)部門(mén)難以妥善處理的群體極化現(xiàn)象。隨著算法技術(shù)的廣泛應(yīng)用和創(chuàng)新發(fā)展,人們能夠接收的多元化信息更加匱乏、失真,其觀察視野更加狹隘封閉、思想認(rèn)知更加偏離實(shí)際。
三是形成等級(jí)制度。社交平臺(tái)主要是以節(jié)點(diǎn)為單位進(jìn)行搭建,建立之初為了最大限度地吸引用戶,往往會(huì)采用具有頭部樞紐節(jié)點(diǎn)的網(wǎng)絡(luò)架構(gòu),頭部樞紐節(jié)點(diǎn)是指網(wǎng)紅、明星等,基本樞紐節(jié)點(diǎn)是指普通用戶。這種等級(jí)制度的形成依賴(lài)于智能算法,通常是以粉絲數(shù)量、作品播放量和點(diǎn)擊率等指標(biāo)為劃分依據(jù)。一方面是為了便于日常管理,通過(guò)算法優(yōu)先將平臺(tái)資源分發(fā)給頭部樞紐節(jié)點(diǎn),使得管理者只需科學(xué)管理和引導(dǎo)頭部樞紐節(jié)點(diǎn),就可以有效篩選普通用戶接收的繁雜無(wú)序信息。另一方面是為了明確信息傳播規(guī)則,通過(guò)算法明確社交平臺(tái)普通用戶的規(guī)則意識(shí),使其接收算法分發(fā)給頭部樞紐節(jié)點(diǎn)生產(chǎn)的信息,主動(dòng)將自身置于信息傳播網(wǎng)絡(luò)底部的接收端。這種信息分發(fā)機(jī)制固然有助于提高管理效率,但是普通用戶的價(jià)值觀可能會(huì)被部分價(jià)值觀不正的頭部樞紐節(jié)點(diǎn)所誤導(dǎo),進(jìn)而產(chǎn)生一些有違主流價(jià)值觀的偏激思想和行為。
(三)算法“偽中立性”的危害
算法的“偽中立性”使其呈現(xiàn)的圖景不同于現(xiàn)實(shí)世界,而是基于各種偏見(jiàn)精心構(gòu)建的虛擬世界,由此可能會(huì)帶來(lái)一系列嚴(yán)重的危害。
一是算法作用下的“物化困境”。在算法驅(qū)動(dòng)的社交情境中,人與人連接的本質(zhì)是各種數(shù)據(jù)的連接,各類(lèi)平臺(tái)算法會(huì)根據(jù)用戶行為進(jìn)行分類(lèi)整理并精準(zhǔn)推送內(nèi)容,實(shí)際上導(dǎo)致用戶在這一過(guò)程中的主體性完全被數(shù)據(jù)所代替。從智能算法、移動(dòng)交互界面到互聯(lián)網(wǎng)技術(shù)標(biāo)準(zhǔn)(5G/Http/超文本標(biāo)記語(yǔ)言)再到PC桌面、多媒體文件(圖片、視頻、文檔等),這些均為“形成于屏幕上或隱藏于電腦程序后端的物體(objects)”[5]。此外,算法隱含著各種有關(guān)社會(huì)規(guī)則的評(píng)分機(jī)制,可以幫助匯聚和量化人們的社會(huì)活動(dòng)、理解和分析人們的社會(huì)意識(shí)。在某種意義上,評(píng)分機(jī)制強(qiáng)化了人們對(duì)于社會(huì)規(guī)則的遵守力度,有助于合理管控一些難以察覺(jué)的社會(huì)風(fēng)險(xiǎn),但不可否認(rèn)的是,它的物化行為可能?chē)?yán)重侵犯?jìng)€(gè)人隱私。隨著算法技術(shù)的快速發(fā)展,人人都成為觀察者、評(píng)價(jià)者、監(jiān)控者,這為人們?cè)诰W(wǎng)絡(luò)空間的安全互動(dòng)提供了堅(jiān)實(shí)保障,便于人們及時(shí)研判未知風(fēng)險(xiǎn)并作出有效應(yīng)對(duì),但也容易造成人們之間相互評(píng)價(jià)和監(jiān)控的權(quán)力被肆意濫用。
二是算法作用下的“主體失位”。在算法全面介入信息傳播的背景下,算法能夠高度控制人并代替其分析、判斷、決策,無(wú)形中壓制了人的主體地位和主導(dǎo)作用。人類(lèi)主體對(duì)智能算法的依賴(lài)性越強(qiáng),越說(shuō)明智能算法在更多領(lǐng)域中替代了人類(lèi)主體的思考[6]。事實(shí)上,算法往往通過(guò)議程設(shè)置引導(dǎo)或左右人們對(duì)于事件本身的看法,如短視頻平臺(tái)通過(guò)推薦熱門(mén)話題,暗示和引導(dǎo)用戶生產(chǎn)特定內(nèi)容,表面上看似用戶具有較強(qiáng)的主體性和創(chuàng)造力,實(shí)則是完全服從于算法及其背后的權(quán)力掌控者。雖然絕大數(shù)平臺(tái)都允許用戶自主發(fā)起話題,但是這些話題是否能被推薦都取決于各類(lèi)平臺(tái)的產(chǎn)品定位和算法邏輯,用戶的主體性和創(chuàng)造力只能在某個(gè)算法限定的范圍內(nèi)發(fā)揮。在算法的暗中干預(yù)下,一些看似引發(fā)用戶關(guān)注的輿論事件實(shí)則隱含著資本邏輯,是資本方靈活運(yùn)用算法技術(shù)開(kāi)展的針對(duì)性引導(dǎo),其中一些虛構(gòu)的事件甚至?xí)鸩窖葑優(yōu)楝F(xiàn)實(shí)危機(jī)。
三是算法作用下的“效率優(yōu)先”。作為人工智能技術(shù)的核心部件和重要支撐,算法傾向于通過(guò)程序設(shè)計(jì)高效輸出結(jié)果,效率優(yōu)先是算法運(yùn)行的首要價(jià)值導(dǎo)向。效率是投入成本與獲得收益之間的對(duì)比關(guān)系,旨在有序?qū)崿F(xiàn)各類(lèi)資源配置最優(yōu)化的目標(biāo),內(nèi)在要求以最少的投入成本獲得最大收益。在智能場(chǎng)域下,算法處理海量數(shù)據(jù)的效率確實(shí)優(yōu)于人類(lèi),且可以幫助人類(lèi)高效進(jìn)行決策并解決實(shí)際難題。雖然算法主體行為盡力保持技術(shù)中立性,但是算法主體行為往往受到多元價(jià)值和功能的影響,特別是基于人類(lèi)價(jià)值預(yù)設(shè)的算法比較注重效率優(yōu)先??陀^來(lái)說(shuō),效率優(yōu)先的價(jià)值導(dǎo)向是算法優(yōu)化升級(jí)的關(guān)鍵助力,但是算法與資本的結(jié)合往往傾向于追求資本利益的最大化,有時(shí)甚至?xí)c公平正義等法律價(jià)值產(chǎn)生沖突,導(dǎo)致算法盲目選擇最優(yōu)策略而罔顧社會(huì)應(yīng)有的公平正義。
二、算法對(duì)人的“圈禁”
日益占據(jù)主體地位的算法正在重構(gòu)現(xiàn)有的社會(huì)關(guān)系,通過(guò)數(shù)字控制方式重塑人們對(duì)于現(xiàn)實(shí)世界的思維方式和認(rèn)知能力。當(dāng)前,人們生活在一個(gè)完全被算法包裹的環(huán)境中,一旦算法技術(shù)具有較大的自主性時(shí),就會(huì)使人們緊緊跟隨算法指引的前進(jìn)方向,結(jié)果便是算法對(duì)人的決策、勞動(dòng)、隱私的“圈禁”。
(一)算法對(duì)人的決策的“圈禁”
隨著人們逐漸將體現(xiàn)自身主體性的決策交給算法,算法已經(jīng)深度嵌入一些行業(yè)決策中并扮演著重要角色。如在金融領(lǐng)域,銀行在系統(tǒng)評(píng)估貸款申請(qǐng)人的信用狀況時(shí),往往會(huì)借助算法來(lái)確定不同客戶群體的放貸額度;在警務(wù)系統(tǒng),警察局借助算法可以快速研判潛在的犯罪嫌疑人及可能產(chǎn)生的犯罪行為;在內(nèi)容生產(chǎn)領(lǐng)域,通過(guò)算法分析得出的排行榜、熱搜榜等,很大程度上決定了未來(lái)的內(nèi)容生產(chǎn)方向和主題。今后,算法還將在教育、醫(yī)療、交通、就業(yè)等領(lǐng)域凸顯其決策作用,這是因?yàn)樗惴ㄔ谠u(píng)估、分析、判斷后作出的決策往往更優(yōu),高效便捷的決策程序使得人們能夠從繁忙的工作中徹底解脫出來(lái)。但是人們?cè)谙硎芩惴Q策帶來(lái)諸多便利的同時(shí),如果一味地放任自身的惰性而將所有決策權(quán)力交予算法,那么很有可能深深陷入算法精心設(shè)計(jì)的陷阱中,不僅會(huì)被形式各樣的算法牢牢地“圈禁”,還會(huì)導(dǎo)致自身的主體性和創(chuàng)造力大幅受限。當(dāng)前,算法在人們?nèi)粘I钪兄饾u顯示出權(quán)力屬性,持續(xù)推動(dòng)人們的決策能力讓位于算法的自動(dòng)化決策,導(dǎo)致現(xiàn)代社會(huì)出現(xiàn)了屈服于技術(shù)理性的個(gè)體,個(gè)體行為也隨著相關(guān)算法決策的結(jié)果而改變。特別是智能技術(shù)強(qiáng)化了算法的深度學(xué)習(xí)能力,算法能夠部分甚至完全取代人們的決策能力,人們的決策活動(dòng)高度依賴(lài)于算法程序的設(shè)計(jì)與開(kāi)發(fā),由此導(dǎo)致自我創(chuàng)造、發(fā)展、提升的能力停滯不前。樂(lè)于不去思考和判斷就獲得結(jié)論的信息傳遞方式,不僅加劇了人們對(duì)事物判斷的偏見(jiàn)與喜好,還將影響其主動(dòng)接受異質(zhì)化的信息[7]。同時(shí),算法決策本身也存在諸多缺陷,一方面,算法決策是基于海量數(shù)據(jù)之間內(nèi)在關(guān)聯(lián)的分析,在一定意義上具有較為明顯的隨機(jī)性,可能會(huì)在代碼輸入和運(yùn)算過(guò)程中出現(xiàn)諸多偏差。另一方面,算法決策直觀反映了特定群體的思想偏見(jiàn)和價(jià)值導(dǎo)向,在某種場(chǎng)合具有較為明顯的主觀性,如根據(jù)用戶行為檢測(cè)或推導(dǎo)的數(shù)據(jù)都可以作為算法決策的依據(jù),這就使其難以真實(shí)發(fā)揮決策活動(dòng)應(yīng)有的指導(dǎo)作用。上述特性會(huì)對(duì)人們有效參與算法程序設(shè)計(jì)帶來(lái)現(xiàn)實(shí)阻礙,因?yàn)樗惴Q策的形成包括歷史數(shù)據(jù)的收集與分析、模型和編碼的系統(tǒng)構(gòu)建、數(shù)據(jù)輸入與輸出的規(guī)定等,這就意味著那些無(wú)法生產(chǎn)數(shù)據(jù)的群體可能會(huì)喪失參與機(jī)會(huì),或者只享有被動(dòng)或間接參與相關(guān)決策的機(jī)會(huì),導(dǎo)致他們難以充分表達(dá)自身合理的利益訴求和進(jìn)行價(jià)值選擇。同時(shí),人們可能無(wú)法知曉某項(xiàng)決策是否由算法作出,無(wú)法實(shí)質(zhì)性參與整個(gè)算法決策過(guò)程,即使清晰知曉算法決策的基本流程,也難以完全理解算法決策運(yùn)行的內(nèi)在機(jī)理和相關(guān)依據(jù),導(dǎo)致人們持有具體異議且能質(zhì)疑算法決策的空間極為有限。例如2018年,劍橋分析公司通過(guò)一款名為“這是你的數(shù)據(jù)人生”(This Is Your Digital Life)的問(wèn)答應(yīng)用獲取了多達(dá)8700萬(wàn)份Facebook個(gè)人用戶資料,后根據(jù)這些數(shù)據(jù)的分析結(jié)果為美國(guó)前總統(tǒng)特朗普在2016年的總統(tǒng)競(jìng)選活動(dòng)提供幫助[8]。由此可見(jiàn),算法決策的專(zhuān)業(yè)性和復(fù)雜性特征較為鮮明,人們的行動(dòng)空間、掌控能力、救濟(jì)渠道難有保障,伴隨而來(lái)的便是知情權(quán)、參與權(quán)、救濟(jì)權(quán)的逐漸喪失,甚至基本的自由和尊嚴(yán)也受到不同程度的侵犯。因此,人們不能把所有決策都交給算法來(lái)處理,應(yīng)審慎判斷算法在哪些方面能夠幫助我們作出最佳決策以及算法本身是否存在明顯偏見(jiàn)或缺陷。
(二)算法對(duì)人的勞動(dòng)的“圈禁”
算法如同一個(gè)“神經(jīng)系統(tǒng)”支配著勞動(dòng)者的言行舉止,扮演著管理和控制整個(gè)勞動(dòng)過(guò)程的角色,無(wú)形中導(dǎo)致勞動(dòng)價(jià)值日漸偏離、勞動(dòng)壓力日漸倍增。隨著過(guò)去用于控制勞動(dòng)者的機(jī)器和設(shè)備轉(zhuǎn)變?yōu)樘摂M的軟件和數(shù)據(jù),各類(lèi)平臺(tái)能夠通過(guò)算法收集和分析海量數(shù)據(jù),精準(zhǔn)把握勞動(dòng)者每時(shí)每刻的工作狀態(tài),有序?qū)崿F(xiàn)透視可見(jiàn)的嚴(yán)密監(jiān)督和規(guī)范管理,逐漸成為新型勞資關(guān)系中的絕對(duì)優(yōu)勢(shì)方。而在算法精準(zhǔn)控制下的勞動(dòng)者被異化為連續(xù)高效運(yùn)轉(zhuǎn)的“機(jī)器”,因平時(shí)密切聯(lián)系、協(xié)作互動(dòng)機(jī)會(huì)的日漸匱乏,逐漸成為新型勞資關(guān)系中的絕對(duì)劣勢(shì)方。例如,2021年針對(duì)北京地區(qū)外賣(mài)騎手的問(wèn)卷調(diào)查發(fā)現(xiàn),近50%的外賣(mài)騎手表示自己遭遇過(guò)剮蹭、摔倒、碰撞等交通事故?!凹铀佟迸c“重體力”對(duì)于女性進(jìn)入外賣(mài)行業(yè)構(gòu)成了某些障礙,加入其中的女性騎手不得不征用或者順從“送外賣(mài)”語(yǔ)境下的男性氣質(zhì)[9]。當(dāng)前,應(yīng)用算法的各類(lèi)平臺(tái)掌控著外賣(mài)騎手、網(wǎng)絡(luò)主播、網(wǎng)約車(chē)司機(jī)等勞動(dòng)者,使得他們長(zhǎng)期被困在算法特意打造的牢籠之中,被迫投入更多的時(shí)間和精力以賺取足夠養(yǎng)家的生活費(fèi)。如雖然各類(lèi)平臺(tái)算法對(duì)效率的追求可使消費(fèi)者生活便利,但是海量的訂單對(duì)于外賣(mài)騎手來(lái)說(shuō)卻是高壓的勞動(dòng)強(qiáng)度。算法不僅嚴(yán)重削弱了外賣(mài)騎手的自主反抗心理,還使他們自覺(jué)參與到日復(fù)一日的高強(qiáng)度勞動(dòng)過(guò)程,瘋狂接收大量訂單并努力完成每日指定任務(wù),始終堅(jiān)持以良好的服務(wù)態(tài)度滿足消費(fèi)者需求。不難發(fā)現(xiàn),平臺(tái)通過(guò)算法機(jī)制重新定義了勞動(dòng)過(guò)程并重新分配了勞動(dòng)控制權(quán)[10]。事實(shí)上,各類(lèi)平臺(tái)算法之所以能夠直接控制人的勞動(dòng),其中一個(gè)重要原因就是平臺(tái)將勞動(dòng)者與消費(fèi)者連接起來(lái),消費(fèi)者能夠通過(guò)平臺(tái)評(píng)價(jià)勞動(dòng)者的日常勞動(dòng)成果,算法能夠量化勞動(dòng)者的日常勞動(dòng)成果并使其成為評(píng)價(jià)勞動(dòng)的關(guān)鍵指標(biāo)。這種直觀的量化行為看似解放了勞動(dòng)者,實(shí)則讓他們付出了包括情感勞動(dòng)在內(nèi)的各種勞動(dòng)來(lái)迎合消費(fèi)者。在網(wǎng)絡(luò)內(nèi)容生產(chǎn)領(lǐng)域,各類(lèi)平臺(tái)算法通過(guò)瀏覽量、點(diǎn)擊量、播放量等流量指標(biāo),逐步實(shí)現(xiàn)對(duì)相關(guān)勞動(dòng)者的實(shí)時(shí)監(jiān)督和控制。如平臺(tái)為了讓網(wǎng)絡(luò)主播增加粉絲量,往往會(huì)常態(tài)化推出一系列“人氣PK”活動(dòng)并制定獎(jiǎng)懲制度,迫使廣大主播不得不賣(mài)力表演以獲得相關(guān)獎(jiǎng)勵(lì),導(dǎo)致其勞動(dòng)成果本質(zhì)上與薪酬機(jī)制不匹配,持續(xù)受到更加隱秘甚至嚴(yán)酷的勞動(dòng)控制。一旦流量指標(biāo)成為衡量?jī)?nèi)容品質(zhì)的關(guān)鍵,就有可能使勞動(dòng)者的內(nèi)容生產(chǎn)方向發(fā)生嚴(yán)重偏離,導(dǎo)致他們緊密結(jié)合消費(fèi)者的喜好生產(chǎn)相關(guān)內(nèi)容,自主創(chuàng)新能力完全被市場(chǎng)邏輯和流量邏輯所驅(qū)使,此舉不僅沒(méi)有減輕勞動(dòng)者的重重壓力,反而使勞動(dòng)者成為被算法全面裹挾的“囚徒”。此外,當(dāng)勞動(dòng)者的勞動(dòng)成果都依照流量指標(biāo)來(lái)衡量時(shí),另一種數(shù)字勞動(dòng)者——網(wǎng)絡(luò)水軍也就隨之產(chǎn)生,他們?cè)诶骝?qū)使下人為改變一些流量指標(biāo),從而對(duì)他人正常勞動(dòng)帶來(lái)不利影響。隨著各類(lèi)平臺(tái)愈加重視開(kāi)發(fā)算法模型,平臺(tái)控制將最終演變?yōu)閯趧?dòng)者自身的約束和管理,使人的勞動(dòng)徹底被形式各樣的算法所“圈禁”。
(三)算法對(duì)人的隱私的“圈禁”
隨著算法廣泛應(yīng)用于各類(lèi)平臺(tái),人們的基本數(shù)據(jù)甚至是隱私數(shù)據(jù)逐漸被收集,加之可穿戴設(shè)備、傳感器技術(shù)的快速發(fā)展,算法對(duì)人的數(shù)據(jù)收集將深入到情緒、心理等生理層面。在數(shù)據(jù)收集的基礎(chǔ)上,算法能夠進(jìn)一步發(fā)現(xiàn)數(shù)據(jù)背后更深層的奧秘,并以此對(duì)人們進(jìn)行全過(guò)程控制。人們的言行舉止都可能成為算法分析的依據(jù),表面看似平常的一種活動(dòng)或行為,實(shí)際上卻被一系列算法程序演算過(guò)無(wú)數(shù)次??陀^來(lái)說(shuō),算法技術(shù)確實(shí)能夠帶來(lái)諸多生活便利,但是需要人們將一些隱私數(shù)據(jù)讓渡給相關(guān)平臺(tái),導(dǎo)致人們無(wú)法在完全意義上擁有自身數(shù)據(jù)的主導(dǎo)權(quán)和控制權(quán)。2022年3月,中國(guó)青年報(bào)社會(huì)調(diào)查中心聯(lián)合問(wèn)卷網(wǎng)就算法推薦服務(wù)問(wèn)題對(duì)1144名受訪者進(jìn)行調(diào)查,結(jié)果顯示75.3%的受訪者曾被算法推薦服務(wù)困擾過(guò),其中就涉及算法推薦服務(wù)對(duì)隱私的侵犯[11]。在算法的世界中,人們隱私權(quán)面臨的威脅往往源自算法本身,因?yàn)榱桉{于人們之上的算法在進(jìn)行相關(guān)決策時(shí),可能把原本與人們隱私無(wú)關(guān)的數(shù)據(jù)組合為真實(shí)可見(jiàn)的圖像。為了讓算法提供更加契合自身需求的優(yōu)質(zhì)服務(wù),人們還需讓渡更多的隱私數(shù)據(jù)以便使算法分析更加完善,當(dāng)人們沉浸在算法技術(shù)帶來(lái)的諸多生活便利時(shí),渾然不知自身已經(jīng)深深陷入算法的“圈禁”之中。個(gè)性化推薦算法和人工智能技術(shù)為人們帶來(lái)便利的同時(shí)也給個(gè)人隱私保護(hù)帶來(lái)新挑戰(zhàn)[12]。如人臉識(shí)別技術(shù)依托的算法程序仍在持續(xù)升級(jí)優(yōu)化,其在用戶身份確認(rèn)、金融機(jī)構(gòu)支付、人機(jī)界面交互等方面應(yīng)用廣泛。雖然法律并不禁止有關(guān)人臉識(shí)別技術(shù)的算法研發(fā)和應(yīng)用,但是技術(shù)研發(fā)和監(jiān)管機(jī)制不成熟的現(xiàn)狀加劇了人臉識(shí)別技術(shù)濫用的風(fēng)險(xiǎn)。市場(chǎng)上不同廠商的人臉識(shí)別技術(shù)標(biāo)準(zhǔn)不一,安全性有待進(jìn)一步驗(yàn)證,部分基于二維圖片的識(shí)別技術(shù)存在較大安全隱患,如一些人隨意抓拍住戶照片后即可進(jìn)入擁有人臉識(shí)別門(mén)禁的小區(qū)。《中國(guó)消費(fèi)者權(quán)益保護(hù)狀況年度報(bào)告(2021)》指出:“互聯(lián)網(wǎng)平臺(tái)以收集個(gè)人信息甚至隱私的方式,提供‘免費(fèi)或‘個(gè)性化服務(wù),消費(fèi)者讓渡自身部分?jǐn)?shù)據(jù)權(quán)利后,并不一定能獲得便利快捷、公平安全的‘對(duì)價(jià)體驗(yàn)。”[13]在新聞傳播領(lǐng)域,信息技術(shù)賦權(quán)下的新聞生產(chǎn)方式變得更加隱蔽,從信息的廣泛采集到集中編輯再到精準(zhǔn)投放,都極易產(chǎn)生一些復(fù)雜棘手的數(shù)據(jù)泄露問(wèn)題。而當(dāng)新聞生產(chǎn)借助算法技術(shù)過(guò)度收集、分析用戶閱讀偏好等數(shù)據(jù)時(shí),便在一定程度上侵犯了用戶的隱私權(quán)。當(dāng)前,算法自動(dòng)關(guān)聯(lián)技術(shù)可以復(fù)原數(shù)據(jù)主體的特定行為,使網(wǎng)絡(luò)服務(wù)者不僅可以深度挖掘數(shù)據(jù)主體提供的部分?jǐn)?shù)據(jù),還可以準(zhǔn)確探知用戶不愿提供的隱私數(shù)據(jù)。相較于技術(shù)的迅猛發(fā)展,當(dāng)前平臺(tái)在隱私保護(hù)方面的責(zé)任體系并不完善,信息內(nèi)容審核制度不健全以及平臺(tái)算法治理存在的缺陷,更容易導(dǎo)致用戶隱私權(quán)益無(wú)法得到有效保護(hù)[14]。分散且孤立的數(shù)據(jù)主體往往在個(gè)人隱私數(shù)據(jù)保護(hù)方面處于弱勢(shì)地位,在相關(guān)法律制度不夠健全的現(xiàn)實(shí)情境下,人們?cè)馐芩惴ㄇ址鸽[私的維權(quán)之路較為艱難。
三、解除算法對(duì)人的“圈禁”的對(duì)策
面對(duì)算法在諸多方面對(duì)人的“圈禁”,我們需要深刻理解不同算法的運(yùn)行機(jī)理和潛在影響,積極采取一系列應(yīng)對(duì)措施,堅(jiān)持以科學(xué)的技術(shù)手段輔助人的決策、以主流價(jià)值觀引導(dǎo)人的勞動(dòng)、以健全的法律法規(guī)保護(hù)人的隱私。
(一)以科學(xué)的技術(shù)手段輔助人的決策
算法的廣泛應(yīng)用是智能場(chǎng)域信息傳播的時(shí)代趨勢(shì),算法帶來(lái)的諸多問(wèn)題可以通過(guò)技術(shù)本身的優(yōu)化完善來(lái)解決。
一是著重提升算法技術(shù)的透明度,平衡用戶與算法平臺(tái)之間的信息權(quán)益。算法規(guī)制實(shí)踐分為四個(gè)路徑:提升算法透明度、推進(jìn)算法倫理審查、加強(qiáng)算法法律規(guī)制和構(gòu)建算法治理體系。盡管世界各國(guó)對(duì)上述四個(gè)規(guī)制路徑各有側(cè)重,但相同的是均將算法公開(kāi)透明作為算法規(guī)制的基礎(chǔ)性舉措,貫穿于其他規(guī)制實(shí)踐之中[15]。算法技術(shù)的透明度不僅事關(guān)個(gè)人信息權(quán)益、數(shù)據(jù)權(quán)益的保障,也事關(guān)國(guó)家網(wǎng)絡(luò)安全與制度監(jiān)管的效率。為保障算法技術(shù)真正服務(wù)于人的各項(xiàng)決策,有必要實(shí)質(zhì)性提升算法技術(shù)的公開(kāi)透明度,明確規(guī)定算法披露的運(yùn)行邏輯、重要參數(shù)、影響因子等具體事項(xiàng),盡可能避免用戶與算法平臺(tái)之間的信息不對(duì)稱(chēng)。一方面,應(yīng)及時(shí)公開(kāi)公權(quán)力機(jī)構(gòu)使用的算法,因?yàn)楣珯?quán)力機(jī)構(gòu)帶有明顯的權(quán)力壟斷特質(zhì),如果其使用的算法具有黑箱屬性,那么這種算法可能會(huì)產(chǎn)生歧視、偏見(jiàn)等問(wèn)題,進(jìn)而對(duì)廣大民眾帶來(lái)不利影響。對(duì)于其他公共機(jī)構(gòu)來(lái)說(shuō),可引入第三方監(jiān)管機(jī)構(gòu)保護(hù)其商業(yè)秘密和算法系統(tǒng),從而在一定程度上擺脫算法技術(shù)的透明度困境。另一方面,不應(yīng)強(qiáng)制公開(kāi)非壟斷性的商業(yè)機(jī)構(gòu)所使用的算法,因?yàn)槌松虡I(yè)秘密和算法知識(shí)產(chǎn)權(quán)的現(xiàn)實(shí)考量外,這種商業(yè)機(jī)構(gòu)往往具有優(yōu)化自身算法的內(nèi)生動(dòng)力,算法的合理性可以通過(guò)市場(chǎng)競(jìng)爭(zhēng)得到逐步改善。如消費(fèi)者發(fā)現(xiàn)某家購(gòu)物網(wǎng)站推薦的商品不合理,他們就可能會(huì)選擇推薦商品較為合理的同類(lèi)網(wǎng)站,而該網(wǎng)站就會(huì)產(chǎn)生極大的內(nèi)生動(dòng)力以優(yōu)化自身的算法。
二是循序擴(kuò)大算法推薦的信息范圍,平衡個(gè)性化信息推送與多元化信息推送。算法推薦在一定程度上馴化了用戶的信息獲取方式,讓用戶牢牢依附于算法運(yùn)行的邏輯理路,無(wú)形中導(dǎo)致用戶的思想固化、認(rèn)知窄化、實(shí)踐泛化。這就要求從技術(shù)源頭上循序擴(kuò)大算法推薦的信息范圍,在切實(shí)滿足人們個(gè)性化信息需求的同時(shí)豐富信息推送內(nèi)容,嘗試向用戶推薦他們可能不感興趣但卻需要重點(diǎn)關(guān)注的內(nèi)容。算法要?jiǎng)討B(tài)更新平臺(tái)的關(guān)鍵詞信息庫(kù),及時(shí)監(jiān)測(cè)或屏蔽不良信息的關(guān)鍵詞,賦權(quán)契合主流價(jià)值的關(guān)鍵詞,助力優(yōu)質(zhì)信息內(nèi)容的生成和傳播。在某些特殊情形下,相關(guān)部門(mén)也可以設(shè)立有關(guān)算法推薦的管理委員會(huì),通過(guò)管理委員會(huì)的審查機(jī)制來(lái)確保算法推薦的合理性。當(dāng)然,算法在馴化人的過(guò)程中也會(huì)被人所馴化,因此身處算法裹挾下的用戶還應(yīng)具備馴化算法的能力,即在使用算法平臺(tái)的同時(shí)調(diào)整自身行為,積極對(duì)算法進(jìn)行反向馴化,如減少點(diǎn)擊量、減少播放量、忽視信息推送等,從而盡可能減少算法推送此類(lèi)信息的頻次。用戶還可通過(guò)算法平臺(tái)瀏覽其他信息,如提高時(shí)政新聞的關(guān)注度、提高不同觀點(diǎn)的接觸率等,從而盡可能增加算法推薦信息的多元化。
三是大力完善人—機(jī)協(xié)同的信息分發(fā)模式,平衡信息推送效率與公共管理責(zé)任。算法精準(zhǔn)篩選、推薦、分發(fā)信息旨在滿足用戶需求,不斷謀求自身工具理性的拓展空間。在人們?nèi)諠u依賴(lài)算法技術(shù)的背景下,人們的日常行為逐漸演變?yōu)閷?duì)象化的數(shù)字活動(dòng),沉浸其中的個(gè)體逐漸讓渡了分析、計(jì)算、判斷等部分理性能力。信息推送效率是算法工具理性的集中展現(xiàn),如何以人的價(jià)值理性規(guī)制算法的工具理性是一項(xiàng)重要課題。當(dāng)前,自動(dòng)化行政中的算法決策僅具有工具理性,主要作用就是輔助行政機(jī)關(guān)作出科學(xué)決策,其輔助形式會(huì)因不同級(jí)別的自動(dòng)化行政而呈現(xiàn)多元化趨勢(shì)。如算法在部分自動(dòng)化行政中,往往通過(guò)數(shù)據(jù)識(shí)別與分析得出初步結(jié)論后再輔助行政主體作出決策。在完全意義上的自動(dòng)化行政中,算法決策系統(tǒng)可以全程處理一些不需要裁量的行政活動(dòng),即算法決策可以直接代替人的決策,但這都無(wú)法掩蓋其鮮明的工具理性。這就要求在算法設(shè)計(jì)和應(yīng)用中重視人的主體性,特別是相關(guān)專(zhuān)家學(xué)者的有益意見(jiàn)和建議,通過(guò)大力完善人—機(jī)協(xié)同的信息分發(fā)模式,進(jìn)而實(shí)現(xiàn)信息推送效率與公共管理責(zé)任的動(dòng)態(tài)平衡,深度激發(fā)各類(lèi)主體的參與意識(shí)和實(shí)踐能力,進(jìn)而有效提升信息推送效率、貫徹落實(shí)公共管理責(zé)任。
(二)以主流價(jià)值觀引導(dǎo)人的勞動(dòng)
作為一種形塑智能社會(huì)的軟性權(quán)力,算法主要通過(guò)誤導(dǎo)價(jià)值觀來(lái)“圈禁”人的勞動(dòng),這就需要以主流價(jià)值觀馴化算法并引導(dǎo)人的勞動(dòng)。
一是以主流價(jià)值觀推動(dòng)算法技術(shù)創(chuàng)新。目前,算法仍處于依賴(lài)算法設(shè)計(jì)者意志和構(gòu)想的弱人工智能階段。在運(yùn)算代碼編排或推薦順序策劃之初,主動(dòng)將主流價(jià)值觀確立為算法運(yùn)行的核心原則,可以從根本上保證算法技術(shù)的價(jià)值導(dǎo)向[16]。算法的技術(shù)因素是其發(fā)揮價(jià)值功用的重要依托,針對(duì)目前算法價(jià)值理性嚴(yán)重缺失的現(xiàn)實(shí)困境,正確的做法是深刻反思并全面推動(dòng)算法技術(shù)創(chuàng)新,通過(guò)及時(shí)調(diào)整和優(yōu)化原有的算法技術(shù)設(shè)計(jì)方案或框架,盡力消除主流價(jià)值觀融入算法的多重技術(shù)障礙。在海量信息處理階段,應(yīng)將主流價(jià)值觀貫穿于信息分析和歸類(lèi)的全過(guò)程,將更多契合主流價(jià)值觀的信息注入算法“信息池”。在用戶數(shù)據(jù)分析階段,應(yīng)深度挖掘用戶數(shù)據(jù)價(jià)值,系統(tǒng)分析用戶的信息偏好、信息盲點(diǎn),從而為算法的多元化信息推送提供數(shù)據(jù)支撐。在場(chǎng)景信息推送階段,應(yīng)明確規(guī)定同質(zhì)化信息推送的頻次和頻率,持續(xù)向用戶推送集中體現(xiàn)主流價(jià)值觀的信息。主流媒體要充分借助算法推薦平臺(tái)傳播主流價(jià)值觀,充分利用與時(shí)俱進(jìn)的算法推薦技術(shù),徹底轉(zhuǎn)變傳統(tǒng)宏大敘事的話語(yǔ)傳播方式,力爭(zhēng)建構(gòu)起兼具理性與情感的綜合性話語(yǔ)表達(dá),善于將抽象的宏大敘事進(jìn)行具象化呈現(xiàn),從而加快提升主流價(jià)值觀在智能場(chǎng)域的引領(lǐng)力和凝聚力。
二是以主流價(jià)值觀把關(guān)算法推薦信息。事實(shí)上,算法在很大程度上扮演著信息推送的重要角色,實(shí)質(zhì)上承擔(dān)了過(guò)去由媒體編輯把關(guān)信息的基本功能。這種由算法強(qiáng)勢(shì)介入媒介傳播形成的生態(tài)系統(tǒng),潛藏著價(jià)值觀偏離、私權(quán)侵蝕公權(quán)等諸多風(fēng)險(xiǎn)。特別是基于用戶興趣愛(ài)好的算法推薦,不僅造成了信息把關(guān)標(biāo)準(zhǔn)的降低,也造成了主流價(jià)值觀信息資源的不足。當(dāng)前,算法的把關(guān)能力還處于較低水平,其信息審核能力遠(yuǎn)未達(dá)到能夠開(kāi)展價(jià)值判斷和選擇的水平。在此情形下,各類(lèi)信息的把關(guān)權(quán)還不能完全交由算法來(lái)執(zhí)行,當(dāng)前最合理的方式就是統(tǒng)籌結(jié)合算法把關(guān)和人工把關(guān),在充分發(fā)揮算法技術(shù)優(yōu)勢(shì)的同時(shí)突出人工審核信息的能力。因此,算法推薦信息一刻也離不開(kāi)主流價(jià)值觀的引導(dǎo)和糾偏,要將算法審核與人工審核有機(jī)結(jié)合起來(lái),充分發(fā)揮兩者對(duì)于算法推薦信息的雙重把關(guān)作用。這就要求逐步強(qiáng)化把關(guān)人員的媒介素養(yǎng)和辨別意識(shí),著力提升其根據(jù)主流價(jià)值觀審核算法推薦信息的能力,從而最大限度地將有違主流價(jià)值觀的不良信息過(guò)濾掉。
三是以主流價(jià)值觀教育算法從業(yè)人員。算法是由人類(lèi)創(chuàng)造和搭建的技術(shù)形態(tài),實(shí)際上內(nèi)嵌著人類(lèi)的情感偏好和價(jià)值導(dǎo)向,堅(jiān)持以主流價(jià)值觀教育算法從業(yè)人員,旨在全力推動(dòng)算法的科學(xué)設(shè)計(jì)和良性運(yùn)作。對(duì)于算法從業(yè)人員來(lái)說(shuō),相關(guān)部門(mén)要定期開(kāi)展主流價(jià)值觀教育活動(dòng),努力幫助其牢固樹(shù)立正確的價(jià)值觀、倫理觀,使其具有強(qiáng)烈的社會(huì)責(zé)任意識(shí)和使命情懷。要進(jìn)一步明確算法從業(yè)人員的數(shù)據(jù)清潔責(zé)任,將有違道德和法律原則的信息排除在算法模型外,從而防止弱勢(shì)群體的數(shù)據(jù)被邊緣化。無(wú)論是可能脫離人類(lèi)控制的算法權(quán)力,抑或是在人類(lèi)控制之下的算法權(quán)力,均肇始于算法設(shè)計(jì)者基于單向逐利的自主行為[17]。因此,算法設(shè)計(jì)者要以主流價(jià)值觀為指導(dǎo),合理解釋算法的設(shè)計(jì)思路和基本邏輯,接受政府部門(mén)、業(yè)界專(zhuān)家及社會(huì)各界的全面監(jiān)督,不得故意在算法輸入端預(yù)留敏感數(shù)據(jù)的轉(zhuǎn)碼端口。算法應(yīng)用者也要以主流價(jià)值觀為導(dǎo)向,始終與其他經(jīng)營(yíng)者保持一定距離,因?yàn)槿绻惴☉?yīng)用者盲目追求個(gè)人利益最大化,可能會(huì)使算法的工具理性異化為實(shí)施共謀的技術(shù)手段,進(jìn)而形成對(duì)市場(chǎng)長(zhǎng)遠(yuǎn)健康發(fā)展有害無(wú)益的競(jìng)爭(zhēng)格局。
(三)以健全的法律法規(guī)保護(hù)人的隱私
從世界各國(guó)的實(shí)踐經(jīng)驗(yàn)來(lái)看,健全算法領(lǐng)域的法律法規(guī)是時(shí)代趨勢(shì)?;诖?,我國(guó)應(yīng)以健全的法律法規(guī)化解算法領(lǐng)域的潛在風(fēng)險(xiǎn),力爭(zhēng)將對(duì)各類(lèi)風(fēng)險(xiǎn)的管控置于法治軌道之中。
一是健全算法推薦領(lǐng)域的法律法規(guī)。算法、數(shù)據(jù)、信息、網(wǎng)絡(luò)密不可分,數(shù)據(jù)安全法、個(gè)人信息保護(hù)法、網(wǎng)絡(luò)安全法、電子商務(wù)法的相關(guān)條款能夠?yàn)樗惴ㄒ?guī)制提供依據(jù)[18]。當(dāng)前,我國(guó)算法推薦領(lǐng)域的立法效率不高且滯后性明顯,這就要求循序強(qiáng)化以防范風(fēng)險(xiǎn)為重心的前置立法,逐步加強(qiáng)專(zhuān)門(mén)法與配套法之間的統(tǒng)籌規(guī)劃。相關(guān)部門(mén)要制定有關(guān)算法推薦技術(shù)發(fā)展和應(yīng)用的法律法規(guī),明確各類(lèi)算法推薦主體的責(zé)任和義務(wù),利用一套追溯和問(wèn)責(zé)機(jī)制指導(dǎo)算法推薦行為的開(kāi)展。要切實(shí)提高算法推薦領(lǐng)域法律法規(guī)的前瞻性和實(shí)效性,充分保障用戶在算法推薦領(lǐng)域的隱私權(quán)、知情權(quán)等。為有效應(yīng)對(duì)日益棘手的算法歧視和個(gè)人信息保護(hù)困境,需要進(jìn)一步完善相關(guān)法律法規(guī),規(guī)范算法收集和分析個(gè)人隱私信息的行為,厘清企業(yè)發(fā)展與信息流動(dòng)、權(quán)利保護(hù)之間的關(guān)系。同時(shí),還要建立合理、規(guī)范、高效的用戶投訴機(jī)制,及時(shí)解決涉私非法信息的網(wǎng)絡(luò)傳播問(wèn)題。
二是健全算法監(jiān)管領(lǐng)域的法律法規(guī)。當(dāng)前,我國(guó)尚未形成有關(guān)算法的直接監(jiān)管機(jī)制,主要是將算法引發(fā)的不良后果和法律責(zé)任分給算法平臺(tái)以實(shí)現(xiàn)算法監(jiān)管。2022年3月1日施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,明確了算法治理體制機(jī)制,科學(xué)構(gòu)建了網(wǎng)絡(luò)平臺(tái)問(wèn)責(zé)體系,實(shí)行事前事中事后全流程、全鏈條的政府監(jiān)管。政府監(jiān)管的重點(diǎn)在于合理利用調(diào)控手段,從社會(huì)整體視角對(duì)各方權(quán)益進(jìn)行平衡保護(hù)[19]。因此,我國(guó)應(yīng)該盡快完善對(duì)人工智能應(yīng)用的立法,明文規(guī)定人工智能技術(shù)研究和應(yīng)用的領(lǐng)域、應(yīng)當(dāng)遵循的倫理原則,明確規(guī)范人工智能技術(shù)的倫理要求、安全標(biāo)準(zhǔn)、監(jiān)管機(jī)制[20]。健全算法監(jiān)管領(lǐng)域的法律法規(guī)是保護(hù)人的隱私的關(guān)鍵,行業(yè)主管機(jī)構(gòu)與各類(lèi)媒體機(jī)構(gòu)必須依法履行算法監(jiān)管責(zé)任,定期向社會(huì)各界公開(kāi)算法監(jiān)管的一系列進(jìn)展和成效。
三是加大不良算法平臺(tái)的懲治力度。要加大對(duì)不良算法平臺(tái)的懲治力度,積極探索源頭治理策略并形成強(qiáng)大震懾力,不讓任何一條非法信息的制造者、推送者逃過(guò)法律的制裁。執(zhí)法部門(mén)要?jiǎng)討B(tài)審查算法設(shè)計(jì)和應(yīng)用的全過(guò)程,明確算法設(shè)計(jì)者和應(yīng)用者學(xué)法懂法守法用法的基本義務(wù),對(duì)于一些違背公序良俗的算法設(shè)計(jì)和應(yīng)用,應(yīng)嚴(yán)格追究相關(guān)主體法律責(zé)任并予以嚴(yán)厲懲戒。此外,算法平臺(tái)要強(qiáng)化自律意識(shí),在遵守法律法規(guī)的基礎(chǔ)上主動(dòng)實(shí)施自我約束行為,做到自我把關(guān)、自我管理、自我負(fù)責(zé)。必須看到,算法平臺(tái)自律意識(shí)的養(yǎng)成是一個(gè)相對(duì)漫長(zhǎng)的過(guò)程,應(yīng)積極培育行業(yè)自律組織,推動(dòng)算法行業(yè)自律公約的科學(xué)制定和全面推廣。相關(guān)部門(mén)要鼓勵(lì)算法平臺(tái)運(yùn)營(yíng)商、算法技術(shù)供應(yīng)商、算法內(nèi)容服務(wù)商等建立形式各樣的自律組織,力爭(zhēng)以健全的行業(yè)自律體系推動(dòng)算法領(lǐng)域自我優(yōu)化機(jī)制的形成。
參考文獻(xiàn):
[1] 皮埃爾·布迪厄,華康德.實(shí)踐與反思:反思社會(huì)學(xué)導(dǎo)引[M].李猛,李康,譯.北京:中央編譯出版社,2004:133.
[2]賈開(kāi).算法可以中立嗎:“零工經(jīng)濟(jì)”的新可能[J].文化縱橫,2021(4):123.
[3]陳鈿瑩,龍柏林.仿像·真相·具象:擬態(tài)環(huán)境與青年意識(shí)形態(tài)認(rèn)同[J].思想教育研究,2020(4):49.
[4]王星.“后真相”網(wǎng)絡(luò)環(huán)境下大學(xué)生價(jià)值引導(dǎo)力的提升策略[J].思想理論教育導(dǎo)刊,2022(9):150.
[5]許煜.論數(shù)碼物的存在[M].李婉楠,譯.上海:上海人民出版社,2019:1.
[6]馮月季.符號(hào)學(xué)視角下智能算法對(duì)人類(lèi)主體性的消解及其反思[J].東南學(xué)術(shù),2022(5):55.
[7]侯東德,張可法.算法自動(dòng)化決策的屬性、場(chǎng)域與風(fēng)險(xiǎn)規(guī)制[J].學(xué)術(shù)研究,2022(8):42.
[8]Meta與Facebook用戶達(dá)成初步和解,同意了結(jié)劍橋分析數(shù)據(jù)丑聞相關(guān)集體訴訟[EB/OL].(2022-08-28)[2023-04-22].https://baijiahao.baidu.com/s?id=1742389352175740395&wfr=spider&for=pc.
[9]孫萍,李云帆,吳俊燊.身體何以成為基礎(chǔ)設(shè)施:基于平臺(tái)勞動(dòng)語(yǔ)境下外賣(mài)騎手的研究[J].新聞與寫(xiě)作,2022(9):33.
[10]顧燁燁,莫少群.算法權(quán)力下的勞動(dòng)控制:基于秀場(chǎng)主播勞動(dòng)過(guò)程的研究[J].學(xué)習(xí)與實(shí)踐,2022(10):138.
[11]姜晨,顏云霞.“何以向善”:大數(shù)據(jù)時(shí)代的算法治理與反思[J].傳媒觀察,2022(6):39.
[12]竇悅.數(shù)據(jù)開(kāi)放共享與個(gè)人隱私保護(hù)對(duì)策研究:層次數(shù)據(jù)與算法問(wèn)責(zé)[J].現(xiàn)代情報(bào),2021(7):151.
[13]中消協(xié)發(fā)布消費(fèi)者權(quán)益保護(hù)年度報(bào)告[EB/OL].[2022-10-15].http://www.bj.xinhuanet.com/2022-04/23/c_1128588628.htm.
[14]夏夢(mèng)穎.算法推薦隱私保護(hù)機(jī)制研究[J].編輯學(xué)刊,2021(3):26.
[15]韓萬(wàn)渠,韓一,柴琳琳.算法權(quán)力及其適應(yīng)性協(xié)同規(guī)制:基于信息支配權(quán)的分析[J].中國(guó)行政管理,2022(1):36.
[16]管秀雪.算法文化環(huán)境下青年價(jià)值表達(dá)的理論審視[J].思想教育研究,2022(9):153.
[17]趙一丁,陳亮.算法權(quán)力異化及法律規(guī)制[J].云南社會(huì)科學(xué),2021(5):127.
[18]任穎.算法規(guī)制的立法論研究[J].政治與法律,2022(9):103.
[19]黃毅,宋子寅.大數(shù)據(jù)背景下“算法殺熟”的法律規(guī)制[J].中州學(xué)刊,2022(4):53.
[20]潘志玉.人工智能應(yīng)用的倫理風(fēng)險(xiǎn)及法治應(yīng)對(duì)[J].學(xué)習(xí)與探索,2022(7):67.
【責(zé)任編輯:張曉妍】