国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法推薦可能引致的公共風(fēng)險(xiǎn)及綜合治理路徑

2022-12-07 21:06夏夢穎
天府新論 2022年2期
關(guān)鍵詞:輿情輿論算法

夏夢穎

有學(xué)者提出,算法權(quán)力“是一種內(nèi)化的、泛在的權(quán)力關(guān)系,普遍存在于個(gè)人生活和社會運(yùn)作的方方面面,表現(xiàn)為對公眾和社會組織的操縱和引導(dǎo)”(1)張愛軍、李圓:《人工智能時(shí)代的算法權(quán)力:邏輯、風(fēng)險(xiǎn)及規(guī)制》,《河海大學(xué)學(xué)報(bào)》2019年第6期。。數(shù)字平臺通過技術(shù)優(yōu)勢、海量用戶和強(qiáng)大的社會連接能力,實(shí)現(xiàn)了社會信息的大規(guī)模協(xié)同化分享,建構(gòu)起強(qiáng)大的社會化傳播網(wǎng)絡(luò),繼而成為社會連接和資訊傳播的樞紐。(2)張志安、譚曉倩:《互聯(lián)網(wǎng)平臺公共性的構(gòu)成維度及現(xiàn)實(shí)挑戰(zhàn)》,《新聞與寫作》2020年第5期。因此,算法本質(zhì)上是一種權(quán)力,能夠影響乃至左右公眾的意見、看法。算法權(quán)力的不當(dāng)使用將有可能引發(fā)網(wǎng)絡(luò)輿情風(fēng)險(xiǎn),因此規(guī)范算法推薦使用,是營造清朗的網(wǎng)絡(luò)輿情生態(tài)治理環(huán)境的重要內(nèi)容。

一、算法推薦可能引致公共風(fēng)險(xiǎn)

算法推薦影響信息生產(chǎn)和傳播機(jī)制。一方面,算法推薦會加劇圈層化、部落化傳播環(huán)境的形成,在認(rèn)知協(xié)調(diào)和群體極化機(jī)制的作用下,增加達(dá)成社會共識的難度;另一方面,算法推薦提升信息傳播的精準(zhǔn)性和適配性,增加輿情主體的構(gòu)成寬度,使得輿情的影響更加廣泛,可能造成更大的公共危害。

(一)算法推薦形成意見孤島

算法推薦正加速形成意見孤島。一方面,算法推薦可以提高用戶獲取信息內(nèi)容的效率,滿足用戶個(gè)性化信息服務(wù)需求;另一方面,信息傳播適配度會加快同質(zhì)化網(wǎng)絡(luò)社群形成速度,圈層化傳播越來越普遍。凱斯·桑斯坦認(rèn)為,圈內(nèi)協(xié)商是產(chǎn)生群體極化的重要機(jī)制之一,算法把同質(zhì)化信息持續(xù)推送給圈層內(nèi)成員,固化圈層輿論。從本質(zhì)上說,算法推薦是再中心化傳播,具有相同價(jià)值觀、興趣愛好的網(wǎng)民被算法連結(jié)成一個(gè)個(gè)孤立的網(wǎng)絡(luò)群體,使能被他們接受和喜歡的信息在群體里反復(fù)傳播,加固他們的共同“意識”。網(wǎng)絡(luò)群體所喜歡和認(rèn)可的觀念并非都具有公共性,算法提高了邊緣群體制造話題的能力,“即使是少數(shù)人意見、被忽視的意見,在智能傳播環(huán)境中仍然能成為輿論生成和傳播的依據(jù)”(3)林凌:《智能網(wǎng)絡(luò)輿論傳播機(jī)制及引導(dǎo)策略》,《當(dāng)代傳播》2019年第6期。。同時(shí),由于算法對人們屏蔽了其不愿意接受的觀點(diǎn)和信息,使得不同網(wǎng)絡(luò)群體之間的交流更加缺乏。如此一來,基于價(jià)值觀和興趣愛好差異形成的網(wǎng)絡(luò)群體進(jìn)一步固化,形成意見孤島。

智能傳播時(shí)代“血緣、族緣和業(yè)緣”文化圈子和趣緣文化圈子之間的公共性落差被大幅度縮小,公共性話題也能在公共屬性不強(qiáng)的文化圈子中擴(kuò)散。(4)林凌:《智能技術(shù)對輿論的再塑造》,《青年記者》2020年第7期。伴隨公共性話題下移,任何話題都能借助算法渠道找到擁護(hù)者,并以線上線下互動方式對抗輿論、引導(dǎo)意見。因此,算法輿論極化越來越普遍且具有危害性。

(二)算法更容易擴(kuò)散危害性信息

算法基于用戶偏好而推送信息。一方面,算法通過精準(zhǔn)、適配性推薦為感興趣的公眾提供相關(guān)信息;另一方面,圈層化網(wǎng)絡(luò)群體突破傳統(tǒng)地域、熟人社會的人際關(guān)系限制,形成新的社會形態(tài)。智能技術(shù)將通過“親而信”紐帶聯(lián)系的輿論主體轉(zhuǎn)變?yōu)橥ㄟ^“利相關(guān)”紐帶聯(lián)系的輿論主體,提升智能網(wǎng)絡(luò)輿論主體的構(gòu)成寬度。(5)林凌:《智能網(wǎng)絡(luò)輿論傳播機(jī)制及引導(dǎo)策略》,《當(dāng)代傳播》2019年第6期。算法所建構(gòu)的“利相關(guān)”網(wǎng)絡(luò)群體既是信息推送對象,又是意見生成主體和傳播主體,危害性信息極易通過這種“傳受同體”的群體廣泛擴(kuò)散。一是網(wǎng)絡(luò)群體成員作為信息推送對象和意見主體,源源不斷地接收相同信息,群體內(nèi)部通過相互交流將信息納入群體價(jià)值結(jié)構(gòu)框架里,并趨向固化;二是“利相關(guān)”網(wǎng)絡(luò)群體本質(zhì)上是以利益作為連結(jié)中樞而存在的集團(tuán),基于利益的算法推薦從底層加強(qiáng)群體成員的交流和溝通,促使其成為更加緊密的意見共同體。當(dāng)意見和利益互為表里時(shí),這個(gè)群體便內(nèi)生出抵御異質(zhì)意見的能力和機(jī)制,逐漸形成為利益而存在和抗?fàn)幍木W(wǎng)絡(luò)圈層。如此一來,當(dāng)算法為獲取流量而將危害性信息推送給特定網(wǎng)民后,網(wǎng)民在利益的驅(qū)動下偏聽偏信,極有可能把危害信息轉(zhuǎn)化為共同意見和行動。

算法擴(kuò)散的危害信息類型中頗為典型的是網(wǎng)絡(luò)民粹主義言論。在算法的主導(dǎo)下,用戶個(gè)人興趣和需求對公共性產(chǎn)生全面的壓制和覆蓋,以致各種低俗信息、非主流信息充斥網(wǎng)絡(luò),即使像民生問題、司法問題等嚴(yán)肅議題也因用戶做出民粹主義解讀而被包裹成民粹主義狂歡。(6)穆蒞曄:《算法輿論的公共性》,《當(dāng)代傳播》2021年第4期。網(wǎng)絡(luò)輿情治理過程是“公權(quán)力結(jié)構(gòu)與民眾(網(wǎng)民)互動的一個(gè)過程”(7)舒剛:《基于政治安全的網(wǎng)絡(luò)輿情治理創(chuàng)新研究》,武漢大學(xué)出版社,2019年,第199頁。,政府與網(wǎng)民通過協(xié)商、互動,增進(jìn)網(wǎng)民對公共政策的理解,提升網(wǎng)民對政府的信任感,同時(shí)提高政府網(wǎng)絡(luò)輿情治理的有效性。網(wǎng)絡(luò)民粹言論將會增加政府網(wǎng)絡(luò)輿情治理的難度。一方面,以二元群體對立為鮮明特征的網(wǎng)絡(luò)民粹言論可能加劇網(wǎng)民對政府的不信任感,甚至損害政府的公共形象與公信力,增加政府網(wǎng)絡(luò)輿情治理的難度。網(wǎng)絡(luò)輿論的民粹化導(dǎo)致網(wǎng)絡(luò)公共事件指向的問題被放大,政府對算法誘發(fā)的層出不盡的網(wǎng)絡(luò)輿情疲于應(yīng)對,深陷輿情治理的旋渦之中,擔(dān)負(fù)高昂的治理成本,甚至有可能對網(wǎng)絡(luò)輿情事件反應(yīng)過度,影響政策制定。另一方面,政府作為輿情治理主體具有獨(dú)特性,在社會轉(zhuǎn)型期,政府既是輿情治理主體,又是公共輿論關(guān)注和批評的對象,極易受到網(wǎng)民的質(zhì)疑。在算法推薦形成固化思維模式的網(wǎng)絡(luò)群體中,政府的輿情回應(yīng)、信息公開等輿情治理行為不僅無法有效引導(dǎo)網(wǎng)絡(luò)輿論,贏得網(wǎng)民的理解和認(rèn)同,反而容易激化網(wǎng)民非理性情緒,加劇政府與公眾的對立,甚至引發(fā)網(wǎng)絡(luò)公共危機(jī)事件。

(三)算法權(quán)力操控網(wǎng)絡(luò)輿情

福柯提出,權(quán)力的運(yùn)作來自規(guī)訓(xùn)技術(shù),微觀權(quán)力的行使已經(jīng)擴(kuò)展到日常生活的各個(gè)領(lǐng)域。(8)??拢骸陡?抡f權(quán)力與話語》,陳怡含譯,華中科技大學(xué)出版社,2019年,第253頁。知識被權(quán)力建構(gòu),而知識并非像我們所想的那樣是完全客觀中立的產(chǎn)物,恰恰相反,它也是被建構(gòu)的結(jié)果。你所學(xué)習(xí)的知識,也帶有一定的傾向性,是一定立場、觀念的表達(dá),在不同的意識形態(tài)中,知識的面目也是不同的。(9)??拢骸陡?抡f權(quán)力與話語》,陳怡含譯,華中科技大學(xué)出版社,2019年,第253頁。智能技術(shù)賦予權(quán)力復(fù)合體更加先進(jìn)的統(tǒng)治方式,傳播技術(shù)越復(fù)雜,就越有能力和效率過濾掉那些對抗權(quán)力復(fù)合體的不良信息,從而鞏固自身的權(quán)力。(10)劉易斯·芒福德:《機(jī)器神話》 (下),宋俊嶺譯,上海三聯(lián)書店,2017年,第189頁。而算法控制人具有隱秘性。設(shè)計(jì)算法模型時(shí),技術(shù)公司在數(shù)據(jù)選取、甄別階段就嵌入技術(shù)公司的主觀價(jià)值;在算法運(yùn)行階段,數(shù)字平臺通過動態(tài)調(diào)適算法,向用戶自動推薦個(gè)性化的偏向性信息,通過尋找合適的情緒誘因,潛移默化地影響用戶的價(jià)值觀。對用戶來說,無論是不透明的算法技術(shù)黑箱還是基于算法模型進(jìn)行偏向性信息分發(fā),他們往往都難以察覺,也無法認(rèn)識到這是技術(shù)對人的規(guī)訓(xùn)。從這個(gè)角度看,用戶并不能真正基于個(gè)人意志獲取信息,信息的分發(fā)由掌控技術(shù)的平臺意志決定。以計(jì)算宣傳為例,計(jì)算宣傳被視為“以達(dá)到其創(chuàng)造者的特定目標(biāo)而故意歪曲符號、訴諸情感和偏見、繞過理性思維的傳播,一種運(yùn)用算法技術(shù)手段進(jìn)行創(chuàng)造或傳播的宣傳”(11)Gillian Bolsover, Philip Howard, “Computational Propaganda and Political Big Data: Moving Toward a More Critical Research Agenda,” Big Data, Vol.5,No.4,2017,pp.273-276.。

二、算法風(fēng)險(xiǎn)治理機(jī)制失靈

算法推薦對網(wǎng)絡(luò)信息傳播環(huán)境帶來巨大的影響,反思算法造成網(wǎng)絡(luò)危機(jī)風(fēng)險(xiǎn)的根源,是基于信息需求端的法律制度缺陷、算法技術(shù)倫理審查機(jī)制不健全以及算法技術(shù)產(chǎn)生后的觀念悖離等因素綜合作用的結(jié)果。

(一)基于信息需求端的法律制度缺陷

長期以來,為了規(guī)范信息社會中濫用用戶信息的行為,法律重點(diǎn)關(guān)注和規(guī)制個(gè)人信息收集、處理和運(yùn)用行為,很少研究用戶接受信息的質(zhì)量及需求關(guān)系。換言之,法律重視信息供給端研究,不重視信息需求端研究,致使算法技術(shù)任意推薦無效公共信息、無用公共信息和有害公共信息。當(dāng)前,我們?nèi)狈挠脩艚邮招畔①|(zhì)量角度進(jìn)行規(guī)制的法律資源供給。

首先,算法依托平臺進(jìn)行信息分發(fā),而平臺防范算法推薦無效、無用甚至有害的公共信息的法律責(zé)任并不明晰。2021年12月31日,國家網(wǎng)信辦等部門發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,規(guī)定算法推薦服務(wù)提供者加強(qiáng)用戶模型和用戶標(biāo)簽管理,不得將違法和不良信息關(guān)鍵詞記入用戶興趣點(diǎn)或者作為用戶標(biāo)簽并據(jù)以推送信息內(nèi)容。這標(biāo)志著法律進(jìn)一步壓實(shí)平臺主體責(zé)任,明確禁止平臺為追求新聞熱度濫用算法設(shè)置用戶標(biāo)簽、放任違法和不良信息的傳播、污染網(wǎng)絡(luò)信息環(huán)境。然而,有關(guān)平臺對生成虛假流量數(shù)據(jù)、制造虛假輿論熱點(diǎn)的違法行為進(jìn)行技術(shù)審查的法律邊界仍不明晰,其法律義務(wù)亟待進(jìn)一步明確。

其次,在平臺信息內(nèi)容人工審核制度上,法律法規(guī)對平臺信息內(nèi)容審查的界定較為寬泛。在實(shí)際信息認(rèn)定過程中,主要由內(nèi)容審查員對信息進(jìn)行把關(guān),而不同平臺公司的內(nèi)容審查員,甚至同一公司不同組的內(nèi)容審查員在審核環(huán)節(jié)都存在差異性的判斷,對相關(guān)信息審核標(biāo)準(zhǔn)的模糊給內(nèi)容審核員留下了較大的自由裁量空間,可能產(chǎn)生放任的傳播后果,進(jìn)而無法及時(shí)阻斷用戶接收有害信息。

最后,為提升用戶接收信息的質(zhì)量,滿足用戶接收正能量信息的需求,我國《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《網(wǎng)絡(luò)短視頻平臺管理規(guī)范》《微博客信息服務(wù)管理規(guī)定》均對平臺明確提出堅(jiān)持主流價(jià)值導(dǎo)向、優(yōu)先推薦正能量內(nèi)容的要求。然而,平臺算法對傳播正能量這一目標(biāo)缺乏精細(xì)化的制度設(shè)計(jì),平臺對主流價(jià)值內(nèi)容進(jìn)行算法推薦的標(biāo)準(zhǔn)也難以掌握。尤其是在重大突發(fā)公共事件中,平臺缺乏推送正能量消息的法律義務(wù)。

(二)算法技術(shù)倫理審查機(jī)制不健全

算法技術(shù)是中立的,但是技術(shù)為人所用,技術(shù)使用的目的是有價(jià)值導(dǎo)向的。長期以來,對算法技術(shù)使用缺少嚴(yán)格的倫理審查程序,無論是平臺的自我審查還是政府、行業(yè)組織和公益組織的第三方審查都嚴(yán)重缺失,使得算法技術(shù)任由資本和權(quán)力使用。雖然近年來我國也十分重視算法倫理建設(shè),2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,2021年國家網(wǎng)信辦印發(fā)的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,都要求“企業(yè)應(yīng)建立算法安全責(zé)任制度和科技倫理審查制度”,同時(shí)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確算法推薦服務(wù)提供者應(yīng)加強(qiáng)用戶模型和用戶標(biāo)簽管理,不得設(shè)置歧視性或者偏見性用戶標(biāo)簽,表明我國法律法規(guī)確立了平臺算法推薦中堅(jiān)持保護(hù)人的尊嚴(yán)的底線原則。然而,較之于美國的《國家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》《算法問責(zé)法案》、歐盟的《人工智能白皮書》《通用數(shù)據(jù)保護(hù)條例》、加拿大的《自動化決策指令》等域外算法立法和倫理規(guī)范,我國的算法技術(shù)倫理審查體系仍然缺乏成熟、精細(xì)化的制度設(shè)計(jì)。具體表現(xiàn)為:法律制度、行業(yè)自律公約以及技術(shù)指南均缺乏系統(tǒng)、明確的推薦算法從模型設(shè)計(jì)、開發(fā)到運(yùn)行階段的技術(shù)倫理嵌入規(guī)范與標(biāo)準(zhǔn);缺乏算法審計(jì)的機(jī)構(gòu)和法律標(biāo)準(zhǔn)、強(qiáng)度、范圍以及要求;平臺企業(yè)內(nèi)部的管理制度缺乏與法律的銜接,企業(yè)內(nèi)部不同部門之間缺乏暢通的算法溝通以及影響評估機(jī)制,企業(yè)內(nèi)部難以形成協(xié)同共治機(jī)制,算法工程師難以承擔(dān)算法倫理方面的法律責(zé)任。

(三)算法技術(shù)中的觀念失靈

人永遠(yuǎn)是信息使用的主宰者。技術(shù)和觀念相互嵌套而共同進(jìn)化,缺少觀念支撐的技術(shù)和缺少技術(shù)的觀念,都難以發(fā)展演化。自算法技術(shù)出現(xiàn)后,用戶享受到傳統(tǒng)媒介環(huán)境無法提供的信息。但是,隨著算法技術(shù)的廣泛使用和進(jìn)化,技術(shù)已經(jīng)反噬人作為信息主宰者的觀念,人變成信息的附庸。作為主體的人并沒有意識到人和算法技術(shù)主客關(guān)系的變化,依然使用傳統(tǒng)觀念應(yīng)對算法技術(shù),造成一系列觀念悖離。

首先,政府的網(wǎng)絡(luò)輿情治理過度依賴數(shù)據(jù)思維。政府適應(yīng)算法社會發(fā)展的需要,適時(shí)培養(yǎng)、提升數(shù)據(jù)思維能力十分必要。然而,“我們也需要意識到,數(shù)據(jù)化、計(jì)算化思維并不能解釋、解決一切問題。如果我們將一切都落實(shí)為數(shù)據(jù),都用計(jì)算來解決,那么世界會變得平面、單調(diào)?!?12)彭蘭:《如何實(shí)現(xiàn)“與算法共存”——算法社會中的算法素養(yǎng)及其兩大面向》,《探索與爭鳴》2021年第3期。網(wǎng)絡(luò)輿情治理的目標(biāo)是洞悉輿論背后的人心公道。輿論治理者的責(zé)任是,既要看到輿論表面的荒謬、偏激、情緒化,也要看到輿論背后的人心公道和社會正能量。而所謂的輿情化解和輿論引導(dǎo),則應(yīng)該充分利用這種正能量、公道、人心所向而因勢利導(dǎo),做出相應(yīng)的化解和處理,這才是解決問題的關(guān)鍵。(13)喻國明:《網(wǎng)絡(luò)輿情治理的基本邏輯與規(guī)制構(gòu)建》,《探索與爭鳴》2016年第10期。算法只是以對用戶行為數(shù)據(jù)的無限接近為基礎(chǔ)進(jìn)行信息推送,并非用戶真實(shí)的需求反映。由于算法與用戶之間的互動是通過中介數(shù)據(jù)進(jìn)行的,所以算法得到的反饋并非完全為用戶是否得到滿足的真實(shí)反映,而可能只是用戶在內(nèi)容界面的行為信息,也就是說,用戶行為數(shù)據(jù)經(jīng)過語義描述所表達(dá)的意義并不一定符合用戶內(nèi)心真正想要表達(dá)的含義。(14)全燕、張入遷:《關(guān)鍵詞、內(nèi)容生成與算法重組的傳播格局》,《蘇州大學(xué)學(xué)報(bào)》2021年第2期。如果政府治理網(wǎng)絡(luò)輿情時(shí)過度依賴算法的工具理性,僅依靠數(shù)據(jù)思維,依據(jù)算法輿論表面呈現(xiàn)的客觀信息進(jìn)行治理,忽視其背后的主觀感受,將無法洞悉輿論背后的公民訴求和價(jià)值觀,無法挖掘民意背后的社會問題。也就是說,算法輿論可能并非網(wǎng)絡(luò)用戶內(nèi)心真正想要表達(dá)的觀點(diǎn),無法真實(shí)反映公眾的意見,政府以數(shù)據(jù)思維形成的認(rèn)知無法反映主體的自覺性,進(jìn)而難以達(dá)成爭取人心、有效實(shí)現(xiàn)網(wǎng)絡(luò)輿情治理的目標(biāo)。

其次,網(wǎng)絡(luò)用戶亟待通過制度機(jī)制的保障,增強(qiáng)對用戶的賦權(quán)和提高防范算法風(fēng)險(xiǎn)的能力,促進(jìn)其觀念更新從意識層面轉(zhuǎn)向現(xiàn)實(shí)層面。為避免算法技術(shù)發(fā)展之下人成為算法推薦信息的附庸,用戶觀念的更新十分重要。然而,觀念的更新并不是一句空洞的口號,需要制度機(jī)制幫助用戶培養(yǎng)人工智能環(huán)境下的算法素養(yǎng)以及相關(guān)技能。當(dāng)前,算法透明度實(shí)現(xiàn)的機(jī)制不完善,無法保障用戶的知情權(quán)和選擇權(quán)。此外,對平臺算法進(jìn)行風(fēng)險(xiǎn)評估的法律標(biāo)準(zhǔn)、算法分類分級制度的具體實(shí)施規(guī)則,包括具體類別、等級以及是否適用多層次、差異化的監(jiān)管措施等制度尚未明確,可能導(dǎo)致公眾在算法技術(shù)的使用過程中逐漸喪失主體性,亦無力對抗算法生成的公共風(fēng)險(xiǎn)。

三、構(gòu)建算法綜合治理機(jī)制

面對平臺算法帶來的新風(fēng)險(xiǎn),構(gòu)建算法綜合治理機(jī)制,通過法律上知情同意原則從信息供給端向接收端延伸、健全算法技術(shù)的倫理審查機(jī)制、完善信息化社會觀念迭代機(jī)制,防范資本和少數(shù)利益集團(tuán)利用算法影響和控制公眾,引發(fā)網(wǎng)絡(luò)公共危機(jī)事件,從而營造清朗的網(wǎng)絡(luò)輿情生態(tài)治理環(huán)境。

(一)法律上知情同意原則從信息供給端向接收端延伸

首先,為防范虛假輿論熱點(diǎn)導(dǎo)致輿論復(fù)雜化甚至輿論動蕩,擾亂輿情信息傳播環(huán)境,應(yīng)當(dāng)明確平臺的法律義務(wù),防范用戶關(guān)注度、內(nèi)容點(diǎn)擊率、轉(zhuǎn)發(fā)評論量等數(shù)據(jù)造假,防范制造虛假輿論熱點(diǎn)的行為。例如,進(jìn)一步明確平臺的提醒義務(wù),在特定情形下,平臺應(yīng)當(dāng)明示用戶所接收的信息內(nèi)容。有學(xué)者建議,“如果某些信息內(nèi)容中含有偏見、歧視、極端內(nèi)容并經(jīng)網(wǎng)絡(luò)平臺清除、編輯后向用戶呈現(xiàn),也應(yīng)逐條對用戶進(jìn)行明確告知,如通過設(shè)置‘本條內(nèi)容經(jīng)編輯后呈現(xiàn)’標(biāo)簽對用戶進(jìn)行提示”(15)侯東德、張麗萍:《算法推薦意識形態(tài)風(fēng)險(xiǎn)的法律防范》,《重慶社會科學(xué)》2021年第8期。。其次,為保障用戶對平臺信息處理行為的充分“知情”和明確“同意”,應(yīng)當(dāng)建設(shè)完善的平臺信息內(nèi)容審核制度,防止違法違規(guī)信息的傳播,同時(shí)避免平臺對用戶的過度審查,侵犯網(wǎng)民表達(dá)權(quán)、參與權(quán)、監(jiān)督權(quán)等權(quán)利。在現(xiàn)有法律、行政法規(guī)、部門規(guī)章的基礎(chǔ)上,盡量明確平臺內(nèi)容審查的法律標(biāo)準(zhǔn),推動行業(yè)自律規(guī)范的出臺,提高信息內(nèi)容審核標(biāo)準(zhǔn)的可操作性。優(yōu)化信息審查流程設(shè)計(jì),對用戶的人格權(quán)、名譽(yù)權(quán)等私權(quán)利構(gòu)成侵害的信息內(nèi)容,加強(qiáng)通知—刪除規(guī)則的設(shè)計(jì),細(xì)化通知—移除的具體流程、處理權(quán)限、行為判斷標(biāo)準(zhǔn),進(jìn)一步明確平臺內(nèi)部信息內(nèi)容審核責(zé)任,推進(jìn)平臺內(nèi)部內(nèi)容治理機(jī)制的精細(xì)化。最后,應(yīng)當(dāng)通過立法形式,在法律法規(guī)堅(jiān)持算法輿論導(dǎo)向原則性要求的基礎(chǔ)上,優(yōu)化平臺算法傳播正能量的制度設(shè)計(jì),明確平臺正能量算法推薦的權(quán)重配比,“技術(shù)上,考慮給予優(yōu)質(zhì)內(nèi)容生產(chǎn)者所發(fā)布的文章和視頻更高的推薦權(quán)重”(16)匡文波、陳小龍:《新聞推薦算法:問題及優(yōu)化策略》,《新聞與寫作》2018年第4期。,增強(qiáng)算法推薦的主流價(jià)值色彩。在重大突發(fā)公共事件中,強(qiáng)化平臺在內(nèi)容、版面設(shè)置上進(jìn)行信息披露的法律義務(wù),適當(dāng)增設(shè)網(wǎng)絡(luò)平臺利用算法傳播安全提示以及向網(wǎng)民推送涉及熱點(diǎn)議題的最新官方消息等正能量消息的法律義務(wù),從信息接收端提升用戶對正向信息內(nèi)容的“知情”。

(二)健全算法技術(shù)的倫理審查機(jī)制

明確算法設(shè)計(jì)者、控制者關(guān)于算法倫理的法律責(zé)任。為提升政府引導(dǎo)輿情、凝聚共識的能力,增強(qiáng)主流價(jià)值導(dǎo)向?qū)λ惴P偷鸟{馭,在算法設(shè)計(jì)階段應(yīng)當(dāng)嵌入倫理要求,明確算法程序中普遍應(yīng)當(dāng)遵守的媒介倫理標(biāo)準(zhǔn)。第一,應(yīng)當(dāng)明確算法設(shè)計(jì)者的數(shù)據(jù)清潔責(zé)任,將違背道德和法律的原始物料排除在算法模型之外,提升數(shù)據(jù)的準(zhǔn)確性、多樣性和完整性,防止弱勢群體數(shù)據(jù)被邊緣化,構(gòu)建無偏見數(shù)據(jù)集。第二,通過規(guī)定強(qiáng)制性的算法審計(jì)制度規(guī)范算法設(shè)計(jì)者執(zhí)行算法倫理的要求,算法審計(jì)制度應(yīng)當(dāng)明確算法審計(jì)的主體、啟動條件和認(rèn)定標(biāo)準(zhǔn),注重保障弱勢群體的利益。第三,對違背公序良俗的算法模型設(shè)計(jì)者,應(yīng)當(dāng)建立責(zé)任追究制度。增強(qiáng)對推薦算法全過程的動態(tài)審查,明確算法工程師等算法控制者在算法運(yùn)行階段及時(shí)撤回、校正帶有偏見、歧視性算法模型的法律義務(wù),以規(guī)避算法偏見的風(fēng)險(xiǎn)。第四,制定精細(xì)化的法律規(guī)范,在考慮技術(shù)實(shí)踐和研發(fā)成本的基礎(chǔ)上,合理設(shè)定平臺的法律義務(wù),明確平臺算法倫理審查的范圍、技術(shù)標(biāo)準(zhǔn)以及程序環(huán)節(jié),強(qiáng)制下架不符合法律規(guī)范以及倫理道德的算法。

(三)建立信息化社會觀念迭代機(jī)制

算法技術(shù)霸權(quán)加深了網(wǎng)絡(luò)用戶個(gè)體的弱勢地位,為確保用戶的主體性,提高用戶的“反規(guī)訓(xùn)”能力,亟待建立用戶賦權(quán)和防范算法生成公共風(fēng)險(xiǎn)的觀念迭代機(jī)制。

首先,信息化社會觀念迭代應(yīng)當(dāng)真正“賦權(quán)”用戶,保障用戶的知情權(quán)和選擇權(quán)。為確保算法的透明度,健全算法的過濾機(jī)制,使用戶獲得異質(zhì)性算法渠道,有效規(guī)避算法產(chǎn)生的信息繭房風(fēng)險(xiǎn),我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》對算法推薦服務(wù)提供者排序、選擇等規(guī)則的透明度和可解釋性以及對算法推薦服務(wù)者告知用戶其提供算法推薦服務(wù)的情況等都做出明確規(guī)定,要求算法推薦服務(wù)者履行告知義務(wù)。域外亦加強(qiáng)對算法透明度的法治保障,以明確算法的權(quán)力邊界。2021年由美國參議員愛德華·馬基和眾議員多麗絲·松井提議的《算法正義與在線平臺透明度法案》,當(dāng)中提出一系列具體措施,包括“用戶能夠理解在線平臺如何調(diào)節(jié)信息內(nèi)容,使用算法放大或推薦內(nèi)容,用戶可以訪問透明度報(bào)告,平臺則應(yīng)當(dāng)通過明顯、可理解的方式向用戶披露信息,包括平臺算法運(yùn)用過程中如何使用用戶個(gè)人信息,算法處理過程中對某些個(gè)人信息進(jìn)行優(yōu)先排序的方法,算法測試的準(zhǔn)確性、公平性等”(17)參見“HR3611 - Algorithmic Justice and Online Platform Transparency Act”,2021-05-28, https://www.congress.gov/bill/117th-congress/house-bill/3611/text,訪問日期:2022-02-07。。這為我國加快完善法律法規(guī)、健全算法透明機(jī)制提供了有益的參考。一方面,算法透明不僅要求算法推薦服務(wù)者對用戶進(jìn)行告知,而且要求告知的方式應(yīng)當(dāng)建立在用戶可理解、解釋及時(shí)的基礎(chǔ)之上;另一方面,為保障用戶的算法知情權(quán),尊重和提升用戶的自主性,在實(shí)踐中平臺應(yīng)當(dāng)提升算法透明度的可操作性,比如出臺透明度報(bào)告幫助用戶了解算法、采取措施告知用戶對某些個(gè)人信息進(jìn)行優(yōu)先排序的方法,“平臺需要優(yōu)先顯示贊助商的信息時(shí),應(yīng)主動公開標(biāo)注廣告,避免誤導(dǎo)用戶的認(rèn)知”(18)郭小平、秦藝軒:《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風(fēng)險(xiǎn)治理路徑》,《現(xiàn)代傳播》2019年第9期。。此外,實(shí)現(xiàn)算法透明最大的障礙是企業(yè)的商業(yè)秘密,對于無法完全向用戶公開的算法,應(yīng)當(dāng)引入外部監(jiān)管,至少應(yīng)當(dāng)保證算法推薦的標(biāo)準(zhǔn)向法律規(guī)定的監(jiān)管機(jī)構(gòu)做到公開透明。同時(shí)為保障用戶的選擇權(quán),我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng),賦予用戶拒絕算法推薦的權(quán)利。

其次,通過加強(qiáng)平臺算法信息安全風(fēng)險(xiǎn)管理責(zé)任體系建設(shè),建立用戶對抗算法風(fēng)險(xiǎn)的機(jī)制,增強(qiáng)用戶對算法風(fēng)險(xiǎn)的防范意識和能力。明確平臺進(jìn)行算法風(fēng)險(xiǎn)評估的法律標(biāo)準(zhǔn),對評估過程中應(yīng)當(dāng)優(yōu)先考慮的要素進(jìn)行排序,“風(fēng)險(xiǎn)評估的判定要素取決于受到法律保護(hù)的權(quán)益的重要性。包括但不限于:用戶的生命權(quán)、健康權(quán)、人格權(quán)和隱私權(quán)、名譽(yù)權(quán)、財(cái)產(chǎn)權(quán)等受到潛在侵害的程度;算法使用特定數(shù)據(jù)的敏感性(如兒童數(shù)據(jù),敏感個(gè)人信息);對個(gè)人或群體的潛在危害程度(不能以資產(chǎn)規(guī)模作為衡量標(biāo)準(zhǔn));受影響的個(gè)人數(shù)量(用戶規(guī)模)和潛在可能受到損害的用戶總數(shù);以及對整個(gè)社會公共利益的損害等”(19)張凌寒:《算法評估制度如何在平臺問責(zé)中發(fā)揮作用》,《上海政法學(xué)院學(xué)報(bào)》2021年第3期。。在關(guān)涉公共利益的重點(diǎn)領(lǐng)域,平臺對算法系統(tǒng)的評估應(yīng)當(dāng)采取更為嚴(yán)格的方式。進(jìn)一步完善平臺對算法的管理措施,要求平臺設(shè)計(jì)常態(tài)化的風(fēng)險(xiǎn)技術(shù)監(jiān)測、緩解措施,增強(qiáng)對可能導(dǎo)致輿情風(fēng)險(xiǎn)的算法的管理能力,對高風(fēng)險(xiǎn)類算法適用更嚴(yán)格的風(fēng)險(xiǎn)管理要求,加強(qiáng)算法的備案、安全性審查工作。

最后,從認(rèn)知維度,政府輿情治理觀念的迭代需要政府避免治理網(wǎng)絡(luò)輿情時(shí)對算法工具理性的過度依賴,認(rèn)識到算法在呈現(xiàn)公眾差異化訴求和批判性意見方面的有限性,同時(shí)提升批判性思維,警惕、鑒別、解碼算法輿論,一方面阻斷虛假信息的傳播,另一方面積極引導(dǎo)輿論達(dá)成共識,透過輿情信息內(nèi)容的表面深入了解公眾訴求,防止在利用算法技術(shù)治理輿情信息的過程中被算法控制,從而真正實(shí)現(xiàn)算法工具理性與價(jià)值理性的協(xié)調(diào)與統(tǒng)一。

猜你喜歡
輿情輿論算法
Travellng thg World Full—time for Rree
阿桑奇突然被捕引爆輿論
進(jìn)位加法的兩種算法
數(shù)字輿情
數(shù)字輿情
消費(fèi)輿情
突發(fā)事件的輿論引導(dǎo)
一種改進(jìn)的整周模糊度去相關(guān)算法
一種基于L-M算法的RANSAC圖像拼接算法
誰能引領(lǐng)現(xiàn)代輿論場?