侯東德 張麗萍
人工智能技術(shù)幾乎重塑了我們的生活方式。諸如智能推薦等方法是如此熟悉而普遍,以至于很難引起關(guān)注,更不用說將它們視為與無數(shù)社會控制和權(quán)力實踐聯(lián)系在一起的社會秩序的核心組成部分了。這些做法正在給網(wǎng)絡(luò)空間及社會文化帶來變化。個體,曾經(jīng)被理解為道德或理性行為者,越來越多地被塑造為不斷更新的人工智能算法作用的對象。這種從道德主體到精算主體的轉(zhuǎn)變標(biāo)志著國家和其他大型組織對個人行使權(quán)力的方式發(fā)生了變化?;谛畔⑸鷳B(tài)理論視角下信息生態(tài)系統(tǒng)構(gòu)成要素的信息人、信息本體、信息環(huán)境及其之間的連環(huán)共生關(guān)系①參見靖繼鵬、張向先主編:《信息生態(tài)理論與應(yīng)用》,北京:科學(xué)出版社,2017年,第6—13頁。亦呈現(xiàn)出新的特征。預(yù)訓(xùn)練模型加速了人工智能技術(shù)的迭代更新,以chatGPT 為代表的生成式人工智能的廣泛應(yīng)用使網(wǎng)絡(luò)空間信息傳播方式從平臺與算法的分發(fā)推送模式向智能問答模式轉(zhuǎn)變;將此類模型接入搜索引擎、音視頻生成、出版、教育等垂直行業(yè)領(lǐng)域應(yīng)用將指數(shù)級提升服務(wù)及應(yīng)用效率,大幅加速產(chǎn)業(yè)升級。生成式人工智能在輸出及應(yīng)用端的出彩表現(xiàn)需要前期海量的數(shù)據(jù)資源投喂訓(xùn)練與內(nèi)嵌算法作支撐,基于算法、模型、規(guī)則生成信息內(nèi)容的無監(jiān)督或部分監(jiān)督式的學(xué)習(xí)框架①See Mla?an Jovanovi? and Mark Campbell, “Generative Artificial Intelligence: Trends and Prospects,” Computer, vol. 55,no.10 (October 2022), pp.107-112.不僅能夠提煉信息內(nèi)容,還能夠利用既有內(nèi)容檢測訓(xùn)練痕跡并學(xué)習(xí)其模式和分布。作為網(wǎng)絡(luò)安全、政治安全的重要組成部分,生成式人工智能背景下系列應(yīng)用中算法內(nèi)嵌價值偏向和基于特定目的的導(dǎo)向性利用均使其存在網(wǎng)絡(luò)信息生態(tài)異質(zhì)化塑造的可能,并在應(yīng)用及實踐過程中引發(fā)信息生態(tài)風(fēng)險,主要體現(xiàn)在以下方面:
第一,主流價值離散風(fēng)險。一方面,算法分發(fā)模式下信息內(nèi)容推送機(jī)制和敘述方式變化產(chǎn)生對主流信息內(nèi)容傳播效力的消解作用。與科層制傳播結(jié)構(gòu)信息內(nèi)容的推薦、審核、把關(guān)流程不同,算法主導(dǎo)下信息內(nèi)容創(chuàng)作及推送機(jī)制呈現(xiàn)出顯著的效率和商業(yè)利益導(dǎo)向特征,這由信息主體、信息載體與信息環(huán)境各要素的改變所共同決定。商業(yè)利益驅(qū)動下的所謂用戶黏性提升和通俗內(nèi)容廣泛傳播勢必在一定程度上擠占主流價值內(nèi)容傳播空間,影響著主流信息內(nèi)容所承載的涵養(yǎng)及教化功能的實現(xiàn)。另一方面,信息傳播機(jī)制的去公共化議程削弱了主流價值引領(lǐng)。由李普曼提出的議程設(shè)置理論認(rèn)為,大眾媒介可以通過信息供給和議題安排有效左右人們對公共事務(wù)的關(guān)注,影響公眾意見發(fā)表的先后順序。人工智能推薦算法主導(dǎo)下的議程設(shè)置呈現(xiàn)出去公共化趨勢。社會主流價值內(nèi)容傳播面臨障礙,社會公共議題萎縮,主流價值引領(lǐng)面臨困境。
第二,網(wǎng)絡(luò)輿論群體極化風(fēng)險。人工智能算法支撐帶來信息分發(fā)效率不斷提高的同時也產(chǎn)生了信息繭房和回音室效應(yīng);去中心化的信息傳播機(jī)制、去公共化的議題設(shè)置機(jī)制使得主流價值引領(lǐng)乏力,大眾對民間意見領(lǐng)袖的盲目跟隨等都使公共輿論場域暗含群體極化風(fēng)險。其一,信息繭房引發(fā)觀點(diǎn)極化。人工智能算法圍繞用戶個體興趣和所在圈層進(jìn)行信息分發(fā),長期沉浸于同質(zhì)化的信息氛圍之中,單一信息環(huán)境構(gòu)成群體極化的誘因之一。其二,盲目跟隨引發(fā)觀點(diǎn)極化。個體的主觀性和局限性決定了用戶在面對公共事件時缺乏相應(yīng)的專業(yè)與嚴(yán)謹(jǐn)判斷,于是或受群體意識壓迫,或被特定利益集團(tuán)蠱惑,往往做出與客觀事實理性相違背的主觀判斷、情緒發(fā)泄及輿論輸出。這將在更大程度上擴(kuò)大既有觀點(diǎn)聚合,事實上發(fā)揮推動群體極化形成的作用。其三,價值依附引發(fā)觀點(diǎn)極化。面對公共事件,除少數(shù)用戶群體選擇將官方主流媒體作為唯一可信渠道外,多數(shù)群體往往或基于自身感性認(rèn)識,或選擇追隨所謂民間意見領(lǐng)袖,將自身價值判斷依附于他方。社會心理學(xué)中的從眾心理和羊群效應(yīng)使得相對溫和的個體觀點(diǎn)趨向于沉默或跟隨,往往趨向于觀點(diǎn)極化。②參見尹寒、楊軍:《試論自媒體時代網(wǎng)絡(luò)輿論群體極化及其引導(dǎo)機(jī)制》,《湖北社會科學(xué)》2023年第2期。
第三,公共信任體系崩潰風(fēng)險。其表現(xiàn)在于:一方面,智能內(nèi)容生成模型與算法分發(fā)帶來的信息生產(chǎn)、傳播機(jī)制的轉(zhuǎn)變,引發(fā)媒體公信力危機(jī)。新聞報道尤其是負(fù)面或虛假新聞報導(dǎo)是引發(fā)公眾對政府、媒體以及社會不信任的重要感知來源。③See Dhavan V. Shah, “Civic Engagement,Interpersonal Trust, and Television Use: An Individual-level Assessment of Social Capital,” Political Psychology, vol.19, no.3 (September 1998), pp.469-496.算法生成內(nèi)容和信息傳播機(jī)制產(chǎn)生用戶閱讀習(xí)慣的轉(zhuǎn)變需要新聞業(yè)者適度轉(zhuǎn)變信息創(chuàng)作方式和傳播策略以做出應(yīng)對。但這一過程的風(fēng)險在于,如果無法在完整的內(nèi)容生產(chǎn)和傳播鏈條中保障信息的真實與準(zhǔn)確,那么媒體的公信力也將在一次次的即時推送中被無情消解。另一方面,作為政策公信力來源的專家被過度消費(fèi),引發(fā)公共政策合理性危機(jī)。社會決策的做出基于兩個重要方面:決策的科學(xué)化與決策的民主化。當(dāng)前中國的民主化決策機(jī)制由人民代表大會制度和中國人民政治協(xié)商會議制度共同保障實施。決策科學(xué)化是政策合法性的重要保障。各領(lǐng)域?qū)<覍W(xué)者以自身專業(yè)智識對社會發(fā)展中的各項問題做出可行性分析與合理論證,從專業(yè)角度提出相應(yīng)解決方案,為政府決策提供科學(xué)化支撐。然而官方組織和商業(yè)機(jī)構(gòu)都呈現(xiàn)出過度消費(fèi)專家的傾向。這一表現(xiàn)反噬到公共信任體系和社會信任體系之中,“不信任媒體、不信任專家、不信任政府”的多重不信任狀態(tài)的社會心理蔓延,其結(jié)果是導(dǎo)致公共政策的合法性和合理性危機(jī)。④參見李瑞昌:《風(fēng)險社會的政治挑戰(zhàn)》,《文化縱橫》2012年第5期。
首先應(yīng)回歸科學(xué)技術(shù)的本質(zhì)展開思考。技術(shù)中立在一種最低意義上表明了技術(shù)“具有討論起點(diǎn)意義的獨(dú)立性”,且蘊(yùn)含著價值判斷、歸責(zé)原理和法律意義等三重意涵。①參見鄭玉雙:《破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思》,《華東政法大學(xué)學(xué)報》2018年第1期??茖W(xué)技術(shù)因其自身的客觀結(jié)構(gòu)和物理屬性易產(chǎn)生技術(shù)中立“幻象”②參見劉興華:《數(shù)字全球化時代的技術(shù)中立:幻象與現(xiàn)實》,《探索與爭鳴》2022年第12期。,技術(shù)發(fā)展實踐的現(xiàn)實表明,其作為一種價值的實踐樣態(tài)進(jìn)入公共領(lǐng)域之中正在制造著紛爭與風(fēng)險。
科學(xué)技術(shù)的去政治化面向使其獲得了技術(shù)反思的隱形性,且隱形程度較高。首先應(yīng)明確的是,我們所說科學(xué)技術(shù)“異化”是反思的結(jié)果,即在科技的生產(chǎn)力功能支撐下整個社會呈現(xiàn)出發(fā)展高歌猛進(jìn)、經(jīng)濟(jì)空前繁榮、人民生活水平不斷提升的一派欣欣向榮景象,通過反思,于合理之中發(fā)現(xiàn)它的不合理性。發(fā)達(dá)工業(yè)文明中科學(xué)技術(shù)所具有的生產(chǎn)效率和效能以及創(chuàng)新和擴(kuò)大生產(chǎn)方式、不斷更新和豐富舒適生活品質(zhì)的能力,都表明其帶動社會繁榮的能力毋庸置疑??茖W(xué)技術(shù)以自身所蘊(yùn)含的巨大內(nèi)在力量獲得了上至國家下至大眾各階層的廣泛認(rèn)同,統(tǒng)一了大眾的口味和興趣,這是一種無須辯白的合理性存在。與此同時,對商品的追逐成為人們生活的終極目的,汽車、房子、便利的生活方式、不斷更新的科技手段等逐漸成為人們生活的“真諦”。在科學(xué)技術(shù)作用下,個體與社會之間的連接機(jī)制悄然改變,科學(xué)技術(shù)通過實踐理性過程帶領(lǐng)人們朝著嶄新的、與傳統(tǒng)政治生活相背離的方向奔去,技術(shù)控制在科學(xué)技術(shù)不斷創(chuàng)造出的新的需要中愈加穩(wěn)定??茖W(xué)技術(shù)與人們生活之間的聯(lián)系是如此緊密、如此堅固、如此必不可少,于是得以享有免于反思、免于批判的自由。
科技進(jìn)步呈現(xiàn)出作為先進(jìn)生產(chǎn)力和實現(xiàn)技術(shù)控制合法性的雙重功能??茖W(xué)技術(shù)具有促進(jìn)生產(chǎn)效率提升和繁榮社會發(fā)展的積極價值。人們也許認(rèn)為,科學(xué)與技術(shù)對社會控制是漠不關(guān)心的,盡管它在事實上可以變革或阻礙社會的發(fā)展。這種觀點(diǎn)認(rèn)可科學(xué)技術(shù)本身的中立性,認(rèn)為科學(xué)和技術(shù)在被利用的過程中體現(xiàn)出工具屬性,工具價值的發(fā)揮取決于利用主體的目的性活動。馬克思曾對這一中立性提出異議:“手推磨產(chǎn)生的是封建主為首的社會,蒸汽磨產(chǎn)生的是工業(yè)資本家為首的社會?!雹邸恶R克思恩格斯選集》第1卷,北京:人民出版社,2012年,第222頁。雖然這一論斷在其后的論述中又受到馬克思進(jìn)一步修正,但不可否認(rèn)的是科學(xué)技術(shù)對自然和物質(zhì)世界的改造最終導(dǎo)致了對人的改造,技術(shù)作為“人的創(chuàng)造物”出自社會整體又返歸社會整體;技術(shù)實踐過程本身對社會控制漠不關(guān)心,但它的確具備變革或阻礙社會發(fā)展的能力。馬爾庫塞將這種關(guān)系稱為“技術(shù)先驗論是一種政治先驗論”。④赫伯特·馬爾庫塞:《單向度的人——發(fā)達(dá)工業(yè)社會意識形態(tài)研究》,劉繼譯,上海:上海譯文出版社,2006 年,第123頁??茖W(xué)技術(shù)的加成促進(jìn)了科學(xué)的分工和社會管理的科學(xué)化,技術(shù)理性開始與實踐理性同步發(fā)展。這一過程既不表現(xiàn)為不合理的,也不表現(xiàn)為政治性的,而是表現(xiàn)為對擴(kuò)大舒適生活、提高生產(chǎn)效率的追求。這種追求包含著一種征服意圖與屈從意味,展現(xiàn)出一種合理的極權(quán)主義傾向:它并非取消政治的合法性,而是使政治意圖得以滲透從而為政治統(tǒng)治辯護(hù)。從這個意義上講,科學(xué)技術(shù)變成了奴役的代名詞,科技從解放的力量轉(zhuǎn)而成為解放的桎梏,既實現(xiàn)了事物的工具化,也使人工具化了。
科學(xué)技術(shù)在網(wǎng)絡(luò)信息空間的廣泛運(yùn)用使其逐漸形成一種近乎偶像化的新型技術(shù)控制力量。以私有財產(chǎn)制為基礎(chǔ),商品交換的市場機(jī)制確保了交換關(guān)系的公平合理和等價進(jìn)行。這種生產(chǎn)方式能夠?qū)⑸鐣贫瓤蚣苤苯油瑒趧酉到y(tǒng)聯(lián)系在一起,所有制不再依賴政治制度而是通過合理的市場交換確立的生產(chǎn)關(guān)系獲得了自身合法性,也即統(tǒng)治制度依靠合法生產(chǎn)關(guān)系取得了自身的存在基礎(chǔ)。這種交換社會的科技力量取代了以往脫胎于文化傳統(tǒng)的神權(quán)思想,從社會勞動的根基上解決了社會控制的合法性問題,因而社會控制能夠“從下”而非“從上”得以合法化。進(jìn)一步的發(fā)展階段表現(xiàn)為,科學(xué)技術(shù)作為第一位的生產(chǎn)力,科學(xué)技術(shù)進(jìn)步的方向、作用和速度在根本上決定著社會各個系統(tǒng)整體利益的擴(kuò)大,于是似乎就呈現(xiàn)了這樣一種現(xiàn)象:科技進(jìn)步的內(nèi)在規(guī)律在很大程度上決定了生產(chǎn)生活環(huán)境中事物發(fā)展的邏輯與規(guī)律,即使社會整體發(fā)展進(jìn)步了,也不得不遵循這種規(guī)律。在這種邏輯下,技術(shù)控制論命題的合法性基礎(chǔ)得以進(jìn)一步拓展。
人工智能技術(shù)的物理屬性決定了其承載了信息生態(tài)塑造功能。同其他科學(xué)技術(shù)一樣,人工智能技術(shù)與算法均為人類主體理性建構(gòu)的產(chǎn)物。技術(shù)決定論者克里斯托弗·梅指出:“很多闡釋都認(rèn)定某些技術(shù)‘內(nèi)嵌特殊規(guī)則’……內(nèi)嵌著像自由、共同體、平等、利他主義和民主等價值……無論這些是內(nèi)嵌著什么樣的內(nèi)容,它都是這樣一種理念:技術(shù)形式具有與生俱來的特性,而這些特性是人類無法干預(yù)的?!雹侔驳卖敗げ榈峦耍骸痘ヂ?lián)網(wǎng)政治學(xué):國家、公民與新傳播技術(shù)》,任孟山譯,北京:華夏出版社,2010年,第23頁。作為人類主體理性建構(gòu)的產(chǎn)物,以算法為代表的人工智能技術(shù)在設(shè)計開發(fā)過程中會無意或慎重地嵌入個體價值觀念、一定的規(guī)范標(biāo)準(zhǔn)、常規(guī)慣例與社會形態(tài)之中,這由其自身的客觀結(jié)構(gòu)和編程屬性所決定。而這些價值觀念、規(guī)范標(biāo)準(zhǔn)、慣例、社會形態(tài)與相應(yīng)的信息生態(tài)語境密不可分,因而決定了算法等人工智能技術(shù)的非中立性,以及其作用于網(wǎng)絡(luò)空間信息生態(tài)環(huán)境的必然性。
人工智能的社會屬性決定了其持續(xù)發(fā)揮著信息生態(tài)塑造功能。以智能推薦為代表的人工智能技術(shù),結(jié)合個體畫像和社群偏好進(jìn)行精準(zhǔn)化甚至引導(dǎo)性、傾向性的內(nèi)容推送,在一次次的信息生產(chǎn)、分發(fā)、決策、推送等高頻行為過程中,持續(xù)地影響著人們的思維方式、行為模式和生活習(xí)慣,影響著網(wǎng)絡(luò)平臺用戶的價值觀念與輿論表達(dá),并在此過程中改變并塑造著網(wǎng)絡(luò)空間的信息生態(tài)環(huán)境。以算法歧視為代表的人工智能技術(shù),將年齡、性別、種族、職業(yè)、消費(fèi)水平等各類為法律禁止或社會反對的歧視行為以算法黑箱名義嵌入各類應(yīng)用之中,呈現(xiàn)出應(yīng)用場景更加多元、作用方式更加隱蔽、更強(qiáng)的滲透力和影響力等特點(diǎn)。以機(jī)器學(xué)習(xí)和自動控制為代表的人工智能技術(shù)廣泛運(yùn)用于智能家居、自動化生產(chǎn)、智慧醫(yī)療等場景,在社會生產(chǎn)生活中扮演的不再僅是支撐者、輔助者角色,而是成為值得人們信賴、占據(jù)主導(dǎo)地位的、不可或缺的重要“伙伴”。技術(shù)的獨(dú)立性、智能化程度越高,人們的依賴性就越強(qiáng),人的自主性就越弱,越來越無法擺脫來自智能技術(shù)的“支配”與“控制”,技術(shù)的社會實踐和價值實踐一起以一種隱形控制方式改變著我們既有的認(rèn)知及信賴路徑,在此過程中持續(xù)影響、改變著網(wǎng)絡(luò)空間的信息生態(tài)環(huán)境。
如果說前面討論的人工智能的信息生態(tài)塑造功能是經(jīng)由正常的技術(shù)應(yīng)用實踐而產(chǎn)生,那么基于特定目標(biāo)導(dǎo)向的利用將經(jīng)由技術(shù)實踐實現(xiàn)對信息生態(tài)的操控。正如馬爾庫塞所言,“電子計算機(jī)同樣有助于資本主義管理或社會主義管理;回旋加速器對于好戰(zhàn)派或和平派可以是同樣有效的工具”。②赫伯特·馬爾庫塞:《單向度的人——發(fā)達(dá)工業(yè)社會意識形態(tài)研究》,劉繼譯,第123頁。以算法操控為代表的技術(shù)能夠被有效嵌入社會政治等上層建筑的各個子系統(tǒng)之中,基于數(shù)據(jù)識別與統(tǒng)計分析技術(shù)實施政治操控,或干預(yù)社會輿論,或影響政治認(rèn)同。人工智能技術(shù)正在以一種無孔不入而又無處不在的方式,影響、改變甚至重塑著網(wǎng)絡(luò)空間信息生態(tài)。
顯然,人工智能技術(shù)及其應(yīng)用并不會直接轉(zhuǎn)化為網(wǎng)絡(luò)空間信息生態(tài)風(fēng)險。作為非中立的、價值有涉的技術(shù)集合,人工智能如何在微觀技術(shù)層面對信息生態(tài)領(lǐng)域施加影響并引起相當(dāng)程度的風(fēng)險?基于信息生態(tài)系統(tǒng)三要素的安全風(fēng)險識別方法將目標(biāo)聚焦于信息、主體、環(huán)境三個方面,本文將其抽象并轉(zhuǎn)換為技術(shù)黑箱、把關(guān)失靈、結(jié)構(gòu)嵌入三種路徑,深入剖析人工智能技術(shù)引發(fā)網(wǎng)絡(luò)信息生態(tài)風(fēng)險的作用機(jī)理,以此作為探討法律規(guī)制路徑的邏輯起點(diǎn)。
技術(shù)黑箱是指對算法擁有者或設(shè)計者之外的人而言,算法系統(tǒng)工作機(jī)制神秘,人們只能通過觀測輸入和輸出結(jié)果判斷其合理運(yùn)行,卻無法具體確切地了解其運(yùn)行機(jī)制。③Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge:Harvard University Press, 2015, p.3.雖然在語言學(xué)意義上,“黑箱”一詞往往容易引發(fā)不公平或者負(fù)面意義聯(lián)想,但就智能算法運(yùn)行決策的技術(shù)機(jī)制來說,其黑箱屬性主要還是一種事實性的中立描述。對于算法擁有者或編寫者之外的其他人來說,算法運(yùn)行的實際過程的確不為人所知。除了對輸入端口質(zhì)料的把控和輸出端口結(jié)果的觀察,算法運(yùn)行過程確如黑箱一般無法被觀測和追蹤。
但技術(shù)黑箱的不可知性恰恰使得算法決策過程無法把控,從而為網(wǎng)絡(luò)信息生態(tài)風(fēng)險的生成孕育了空間。況且算法作為越來越普遍而廣泛的應(yīng)用要素,正在極大程度影響、改變著人們的生活樣態(tài)。技術(shù)黑箱的不可知性使其作用于信息生態(tài)的過程亦變得撲朔迷離。仍以信息獲取為例,自媒體時代用戶獲取信息大致有三種方式:一是以用戶畫像和熱門話題置頂為基礎(chǔ),輔之以聚合推送模式;二是以社交圈層為支撐,輔之以關(guān)注推送與社群推送模式;三是電視、廣播、報紙、雜志、博客等信息渠道仍有其市場空間??梢姡脩魧π畔⒌墨@取在很大程度上依賴平臺推送,受智能分發(fā)算法支配。算法運(yùn)行過程中的不透明、不可測性意味著算法推薦、算法分發(fā)和算法決策過程無法被有效衡量,至少體現(xiàn)在兩個方面:其一,信息的來源及其價值屬性。既然平臺信息分發(fā)的過程具有黑箱屬性且無法被監(jiān)測,那么作為信息分發(fā)基礎(chǔ)的數(shù)據(jù)庫及其內(nèi)容便應(yīng)當(dāng)具備客觀、科學(xué)、價值中立、向上向善等特征。并且,對這些基本特征的判斷應(yīng)當(dāng)可以通過相應(yīng)的審查機(jī)制得以明確,這是保障信息內(nèi)容整體價值導(dǎo)向可控的必要前提,也是從程序輸入階段把控信息分發(fā)內(nèi)容質(zhì)量以避免人工智能算法過度侵蝕信息空間生態(tài)的有效手段。其二,分發(fā)過程。技術(shù)黑箱是相對于算法作用對象即除算法編寫者、算法所有者或算法使用者之外的其他主體而言;對算法編寫者、所有者、使用者而言,超出普通用戶認(rèn)知范圍的用于算法決策的數(shù)據(jù)庫、源代碼以及被嵌入算法系統(tǒng)的變量、影響因素等并非不可理解,甚至可以編輯與控制。技術(shù)黑箱的不可知性將使算法濫用的可能性大大增加,并經(jīng)由技術(shù)濫用路徑為信息內(nèi)容操縱風(fēng)險提供罅隙。人工智能作為人類智能創(chuàng)造物的本質(zhì)特性意味著如果算法設(shè)計開發(fā)人員結(jié)合特定應(yīng)用場景的編碼過程除關(guān)注作為工具的技術(shù)有用性之外還加入了其他價值判斷,那么勢必將產(chǎn)生功能偏移或異化。
有觀點(diǎn)表示,個性化算法決策在本質(zhì)上是一種正常的商業(yè)活動,平臺依據(jù)用戶行為數(shù)據(jù)記錄有針對性地進(jìn)行信息分發(fā)及決策推送,在客觀上提高了用戶信息獲取效率,同時也降低了商家和消費(fèi)者之間的信息不對稱,增加了廣告商營業(yè)的有效性。鑒于個性化算法決策并不直接對用戶的法律狀態(tài)或其他類似狀態(tài)產(chǎn)生影響,立法應(yīng)給予其充分的應(yīng)用空間并保持謙抑。①See Michal S. Gal and Niva Elkin-Koren, “Algorithmic Consumers,” Harvard Journal of Law & Technology, vol. 30, no. 2(Spring 2017), pp.309-353.
然而從信息生態(tài)視角考察網(wǎng)絡(luò)平臺的算法推薦行為,其性質(zhì)早已超出了單純商業(yè)活動范疇。對于算法利用主體即平臺、機(jī)構(gòu)、企業(yè)而言,只要滿足確切性、用戶適配度、可行性等特征,即滿足了算法分發(fā)的基本要素。而從社會視角觀察,算法推薦除了作為代碼化、工具性存在,還要避免對社會價值或公共秩序產(chǎn)生負(fù)面影響,以社會連接形式應(yīng)用到市場經(jīng)營和公共生活之中,應(yīng)當(dāng)符合法律規(guī)定和社會倫理。智能算法本就與社會公共領(lǐng)域和公共事務(wù)緊密相關(guān),例如個性化算法推薦可以在潛移默化中影響人們的價值觀念,改變、塑造人們的行為方式。智能算法對信息資源的社會性調(diào)配是其產(chǎn)生網(wǎng)絡(luò)信息生態(tài)風(fēng)險的決定性因素,已成為一種可以影響與改變社會秩序的軟性權(quán)力。
傳統(tǒng)信息傳播機(jī)制中,當(dāng)然也存在著信息分發(fā)的權(quán)力。這種權(quán)力擁有者屬于政府部門及其所關(guān)聯(lián)的官媒,其權(quán)力來源于統(tǒng)治者的權(quán)威地位,使得他們能夠通過合理方式傳播正向積極的價值觀念,鞏固社會認(rèn)同,這是國家作為權(quán)力擁有者的經(jīng)常樣態(tài)。當(dāng)然,也有一些間接方式使得特定組織被賦予權(quán)力,這主要是由于該組織掌握了特定的資源和機(jī)會,如高等學(xué)校有“權(quán)力”對考生做出錄取與否的決定。不同的是,網(wǎng)絡(luò)平臺所擁有的算法分發(fā)權(quán)力并不主動以良好信息生態(tài)塑造和增進(jìn)公共福祉為目標(biāo),而是存在巨大的失靈和濫用風(fēng)險。其根源在于,官媒的信息分發(fā)權(quán)力及賦予它的社會制度本身經(jīng)過了嚴(yán)格證成,而平臺算法權(quán)力形成于技術(shù)更迭與行業(yè)發(fā)展過程的自然累積。
權(quán)力如果未受到合理制約將經(jīng)常產(chǎn)生被濫用的效果。首先,效率邏輯支配下的信息過度收集導(dǎo)致人機(jī)關(guān)系失衡。在用戶畫像過程中,平臺、企業(yè)、機(jī)構(gòu)通過收集用戶的年齡、性別、教育程度、職業(yè)等基礎(chǔ)數(shù)據(jù),以及社會關(guān)系、消費(fèi)能力、行為軌跡、心理特征等不同維度信息,通過標(biāo)簽規(guī)則、關(guān)聯(lián)規(guī)則等的挖掘分析,使得算法可以通過畫像模型了解人,進(jìn)而提高搜索引擎、推薦引擎、廣告投放等領(lǐng)域應(yīng)用的精準(zhǔn)度,提高信息傳播效率。以生成式人工智能為代表的新一代人工智能環(huán)境中,數(shù)據(jù)和算法作為網(wǎng)絡(luò)空間運(yùn)行的基礎(chǔ)要素,其所構(gòu)成的結(jié)構(gòu)化、規(guī)則化存在將在社會結(jié)構(gòu)中發(fā)揮主導(dǎo)甚至支配性力量。在高度數(shù)字化的算法世界中,經(jīng)由“算法之眼”②約翰·切尼·利波爾德:《數(shù)據(jù)失控:算法時代的個體危機(jī)》,張昌宏譯,北京:電子工業(yè)出版社,2019年,第27頁。,個體被觀察、監(jiān)測、評估,然后貼上身份標(biāo)簽??梢?,這一過程中平臺、企業(yè)、機(jī)構(gòu)所追求的仍然是技術(shù)視角下的最大化增值,不考慮甚至完全忽視了作為權(quán)力擁有者的公共價值引領(lǐng)與社會責(zé)任承擔(dān)。缺乏這一必要約束,以信息數(shù)據(jù)收集為支撐的用戶畫像將完全忽略人的主體性與社會性建構(gòu),以高效率滿足信息需求為目的的平臺用戶從算法利用主體轉(zhuǎn)而成為算法作用的客體,用戶行為數(shù)據(jù)累積成為算法迭代升級的學(xué)習(xí)資源庫。其次,用戶至上模式的迎合式把關(guān)規(guī)則誘發(fā)把關(guān)失靈。在算法推薦過程中,平臺、企業(yè)、機(jī)構(gòu)為持續(xù)廣泛地吸引不同偏好類型群體,可能會分場景、分時段、分類型將用戶不同維度數(shù)據(jù)做加權(quán)處理。這一過程由于嚴(yán)格把關(guān)缺位,虛假、誘導(dǎo)甚至煽動性信息有機(jī)會進(jìn)入信息分發(fā)過程并到達(dá)用戶端口。作為算法權(quán)力擁有者和信息生態(tài)塑造者,平臺不適當(dāng)?shù)膶徍藱C(jī)制將會產(chǎn)生巨大尋租空間,誘發(fā)網(wǎng)絡(luò)空間信息生態(tài)安全風(fēng)險。
人工智能引發(fā)的信息生態(tài)風(fēng)險不僅是技術(shù)負(fù)外部性的體現(xiàn),也是社會關(guān)系演化和相關(guān)制度體系共同作用的結(jié)果。①參見張彥華、徐帆:《人工智能影響政治安全的邏輯及其風(fēng)險治理——基于傳播政治經(jīng)濟(jì)學(xué)的分析》,《社會科學(xué)戰(zhàn)線》2022年第12期。結(jié)構(gòu)嵌入以算法越來越普遍而廣泛地影響著現(xiàn)實生活情境為前提。隨著人工智能算法越來越深入地參與社會資源分配、政策環(huán)境塑造甚至體制機(jī)制形成的各環(huán)節(jié),傳統(tǒng)信息空間領(lǐng)域的歧視風(fēng)險、操縱風(fēng)險也經(jīng)由人工智能算法的結(jié)構(gòu)嵌入得以系統(tǒng)化。
具體層面,主要表現(xiàn)為給予用戶不利地位的系統(tǒng)性歧視風(fēng)險。一方面,當(dāng)算法決策復(fù)現(xiàn)了與傳統(tǒng)決策基本一致的結(jié)果,算法自動化決策系統(tǒng)將強(qiáng)化歧視發(fā)生密度和執(zhí)行力度,將偶發(fā)、碎片化的歧視常態(tài)化、系統(tǒng)化,其結(jié)果是受歧視一方遭受更加嚴(yán)密且有效率的社會排斥。②參見李成:《人工智能歧視的法律治理》,《中國法學(xué)》2021年第2期。非算法權(quán)力主導(dǎo)社會同樣存在基于性別、殘障者、病原攜帶者等特定群體歧視現(xiàn)象,但影響范圍較為有限,且具有一定隱蔽性。借助智能算法加持,單次歧視的實時危害可能并不顯著,但其所造成的深遠(yuǎn)影響卻不容忽視。這是因為,算法社會中超大型網(wǎng)絡(luò)平臺同樣承擔(dān)著如高社會地位、良好社會資源等積極社會價值分配的職能,以性別、殘障者等集體身份為邊界的社會資源分配將在系統(tǒng)性歧視的推動下造就日益不平等格局。由于缺乏必要、優(yōu)質(zhì)的社會資源支持,不同群體之間所謂社會公平競爭環(huán)境將蕩然無存。另一方面,算法系統(tǒng)性歧視將產(chǎn)生對于受歧視群體的規(guī)訓(xùn)效應(yīng)。來自網(wǎng)絡(luò)空間的系統(tǒng)性歧視將進(jìn)一步深化既有社會結(jié)構(gòu)中的歧視情境,進(jìn)而在心理層面使得受歧視群體接受、認(rèn)同這種事實上的不平等與相關(guān)制度安排。在現(xiàn)實世界和網(wǎng)絡(luò)空間雙重情境強(qiáng)化下,受歧視群體不再將自身的不利處境與顯著不公的社會排斥相關(guān)聯(lián),而是將來自外界的不利因素歸因于自身。算法歧視所產(chǎn)生的結(jié)構(gòu)性不平等將借此完成對受歧視群體的思想規(guī)訓(xùn)。
抽象層面,主要是算法對個體自治價值的傷害,表現(xiàn)為算法對用戶的思想滲透與操縱。其一,特定推送產(chǎn)生的思想滲透。用戶行為數(shù)據(jù)的可記錄、可挖掘?qū)傩约八惴ǖ纳疃葘W(xué)習(xí)能力是特定推送產(chǎn)生的前提。智能分發(fā)過程中用戶接收到的信息并非基于個人意志的自主選擇,相反,個體的自由意志常常受到算法決策的影響。算法經(jīng)由用戶畫像和行為數(shù)據(jù)收集過程所累積的數(shù)據(jù)信息,在綜合分析和系統(tǒng)評估基礎(chǔ)上,通過泛政治內(nèi)容的精準(zhǔn)推送對用戶的政治認(rèn)知、政治情感和價值傾向施加影響,進(jìn)而在較長時間跨度內(nèi)產(chǎn)生思想滲透的效果。其二,惡意利用產(chǎn)生的思想操控。研究表明,源于用戶政治人格回歸分析的算法能夠?qū)崿F(xiàn)特定目的導(dǎo)向的情感操控。③大衛(wèi)·薩普特:《被算法操控的生活:重新定義精準(zhǔn)廣告、大數(shù)據(jù)和AI》,易文波譯,長沙:湖南科學(xué)技術(shù)出版社,2020年,第39頁?;谒惴?quán)力支配下信息分發(fā)機(jī)制對價值觀念影響的有效性,某些政治組織行動者利用深度偽造技術(shù)、大數(shù)據(jù)分析與算法嵌入的人工智能技術(shù),與信息傳播過程中輸入及輸出端口的信息不對稱狀態(tài),或故意或盲目地制造、傳播有損公共部門權(quán)威和公信力的虛假信息進(jìn)入傳播領(lǐng)域,該因素與算法運(yùn)行機(jī)制的不透明性、審核環(huán)節(jié)平臺把關(guān)失靈及用戶的天然信任情感等多重因素相疊加,不僅產(chǎn)生廣泛的政府信任危機(jī),還可能誘發(fā)巨大的政治安全風(fēng)險。
信息生態(tài)理論以信息人、信息、信息環(huán)境三個基本要素為出發(fā)點(diǎn),關(guān)注信息人與信息環(huán)境的有機(jī)交互,強(qiáng)調(diào)信息人與信息環(huán)境之間的平衡協(xié)調(diào)。①參見李卉、國佳寧、李前:《GDPR 下法國與比利時的個人數(shù)據(jù)保護(hù)監(jiān)管實踐與啟示——基于信息生態(tài)系統(tǒng)理論》,《國際經(jīng)濟(jì)法學(xué)刊》2022年第3期。網(wǎng)絡(luò)信息生態(tài)風(fēng)險規(guī)制,可置于風(fēng)險社會理論范疇展開思考。該理論所關(guān)注的風(fēng)險防范的重點(diǎn)聚焦于風(fēng)險引發(fā)的危害后果及其發(fā)生可能性等負(fù)面效應(yīng)。這表明,基于技術(shù)工具理論范式下技術(shù)工具與技術(shù)應(yīng)用相分離的終端責(zé)任原則規(guī)制方式僅寄望于通過對風(fēng)險所造成損害的事后補(bǔ)救路徑,顯然與風(fēng)險社會理論指引的預(yù)防型思路并不相符。
安德魯·芬伯格在批判技術(shù)工具理論與技術(shù)實體理論基礎(chǔ)上,提出了技術(shù)批判理論,指出根本不存在所謂專注技術(shù)“本身”的規(guī)制范式,只有置身于某種具體應(yīng)用情境中技術(shù)才可能得以具象化。②參見安德魯·芬伯格:《技術(shù)批判理論》,韓連慶、曹觀法譯,北京:北京大學(xué)出版社,2005年,第52—57頁。該理論反對技術(shù)研究與技術(shù)應(yīng)用相分離的規(guī)制范式,強(qiáng)調(diào)要從技術(shù)研究階段著手而非僅對技術(shù)應(yīng)用進(jìn)行規(guī)制,以實現(xiàn)事前預(yù)防技術(shù)引發(fā)的負(fù)面效應(yīng)與副作用的功能。這與風(fēng)險社會理論的預(yù)防型規(guī)制理念不謀而合。其次,技術(shù)批判理論并不認(rèn)可技術(shù)的中立性,而是認(rèn)為技術(shù)是一種處于不同可能性之間的發(fā)展的“兩重性的”過程,在“技術(shù)代碼”的設(shè)計體系和應(yīng)用體系中均蘊(yùn)含著社會價值。③安德魯·芬伯格:《技術(shù)批判理論》,第16頁。這種判斷與貝克在風(fēng)險社會理論中強(qiáng)調(diào)通過技術(shù)民主來預(yù)防、解決技術(shù)風(fēng)險問題的理念④參見貝克、鄧正來、沈國麟:《風(fēng)險社會與中國——與德國社會學(xué)家烏爾里?!へ惪说膶υ挕?,《社會學(xué)研究》2010年第5期。再次投契?;谇笆鲭p重契合特征,技術(shù)批判理論和風(fēng)險社會理論可作為風(fēng)險社會中技術(shù)及其所引發(fā)負(fù)面效應(yīng)規(guī)制的基礎(chǔ)理論范式和有效載體。⑤參見劉鐵光:《風(fēng)險社會中技術(shù)規(guī)制基礎(chǔ)的范式轉(zhuǎn)換》,《現(xiàn)代法學(xué)》2011年第4期?,F(xiàn)代法律通過保障法益安全和保證法律作為決策體系自身的可靠與可預(yù)見性雙重方式來獲得與風(fēng)險及其所生危害的未知性、不可權(quán)衡性相對的安全性,也即在技術(shù)與環(huán)境有關(guān)的層面上,對風(fēng)險的預(yù)防或者排除觸及了對社會具有建構(gòu)意義的自由和安全的基本關(guān)系。⑥參見劉剛:《風(fēng)險規(guī)制:德國的理論與實踐》,北京:法律出版社,2012年,第78—91頁。
根據(jù)技術(shù)批判理論所確立的技術(shù)本質(zhì)與技術(shù)應(yīng)用相結(jié)合的規(guī)制思路,破解技術(shù)黑箱規(guī)制難題仍有必要回歸算法的技術(shù)本質(zhì)作為思考原點(diǎn),慣常思路是算法公開。針鋒相對的主張如言論、商業(yè)秘密等均無法與之有效抗衡。⑦參見陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,《比較法研究》2020年第2期。然而,算法公開的可行性同樣遭到來自技術(shù)領(lǐng)域的質(zhì)疑。其一,算法公開并不等于算法可知?;诩夹g(shù)的不斷演進(jìn)和日益廣泛的社會需求,算法呈現(xiàn)出復(fù)雜化和不可知性等特征,既源于單一算法本身,也包含了在應(yīng)用實踐中廣泛存在的不同算法模塊間的交互反應(yīng)。算法模塊化運(yùn)行可以輔助解決一些復(fù)雜算法問題并在一定程度上促進(jìn)算法的可解釋性,但其弊端就在于會令算法之間的反應(yīng)變得難以預(yù)料。⑧參見卡麗斯·鮑德溫、金·克拉克:《設(shè)計規(guī)則模塊化的力量》,張傳良譯,北京:中信出版社,2006 年,第222—225頁。這就決定了算法解釋及其透明性在某種程度上僅是一種美好的技術(shù)理想。另一方面,算法個性化推薦與自動決策過程包含著大量的隨機(jī)和自主運(yùn)行程序,呈現(xiàn)出一種無法被完全解釋的指令系統(tǒng)。如在智能推薦場合,算法根據(jù)用戶在頁面內(nèi)特定信息的停留時間等行為數(shù)據(jù)相繼作出推送決策,且該推送結(jié)果隨著用戶行為軌跡的變化而改變。可見,算法運(yùn)行的決策規(guī)則所依據(jù)的原始數(shù)據(jù)和輸出結(jié)果均處于動態(tài)變化過程之中且難以把握,算法輸入和輸出過程之間的因果關(guān)系在技術(shù)層面可能根本無法被解釋。
有關(guān)算法技術(shù)本質(zhì)的討論充分表明,完全程度或完全意義上的算法公開在可行性和必要性方面都存在瑕疵。但這種爭論的價值就在于能夠幫助規(guī)制者反思聲浪巨大的算法透明化主張的合理程度,以避免陷入經(jīng)由完全“透明”“公開”方能實現(xiàn)的所謂算法正義悖謬。算法運(yùn)行的技術(shù)本質(zhì)固然重要,然而更應(yīng)著重關(guān)注的是算法的社會應(yīng)用及其應(yīng)用實踐過程中所引發(fā)的權(quán)力配置、社會關(guān)系和法律關(guān)系變化。⑨參見沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,《環(huán)球法律評論》2019年第6期。
另一種思路是正當(dāng)程序。算法擁有者以制定規(guī)則和政策的方式行使對用戶的約束權(quán)力,因而應(yīng)當(dāng)借鑒公權(quán)力行使的正當(dāng)程序理念,使其滿足正當(dāng)程序的規(guī)范性要求。①參見陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》。依據(jù)正當(dāng)程序要求,權(quán)益受到?jīng)Q策影響的任何當(dāng)事人都應(yīng)被告知決策的性質(zhì)和理由,并擁有陳述意見和獲得申辯的權(quán)利,通常體現(xiàn)為程序本身的公開和程序運(yùn)行過程公開兩個方面。其可行之處在于,保持算法運(yùn)行過程的非公開性并不妨礙對其做出是否符合正當(dāng)程序的結(jié)果判斷。從強(qiáng)化算法監(jiān)管和促進(jìn)算法負(fù)責(zé)、算法可信的角度,算法運(yùn)行的技術(shù)黑箱能夠有效克服人為操作的主觀臆斷可能,同時又在網(wǎng)絡(luò)空間信息生態(tài)塑造和國家安全與公共利益維護(hù)方面發(fā)揮重要作用,二者之間存在著合作互惠與防范對抗的張力。在技術(shù)黑箱規(guī)制中引入正當(dāng)程序能夠通過程序正義保障消除個人、公眾和社會對人工智能算法在信息內(nèi)容質(zhì)量保障和信息生態(tài)環(huán)境塑造過程中的疑慮并防范算法對用戶的不合理支配。也就是說,正當(dāng)程序理念指引下的算法透明應(yīng)以建立算法擁有者和利用主體間的信任關(guān)系作為目標(biāo)。②參見蘇宇:《算法規(guī)制的譜系》,《中國法學(xué)》2020年第3期。
首先,正當(dāng)程序理念下的算法解釋權(quán)應(yīng)當(dāng)被視為是一種動態(tài)的程序性權(quán)利。③參見李曉輝:《算法商業(yè)秘密與算法正義》,《比較法研究》2021年第3期?;诤贤牟煌陚湫?,即使在最經(jīng)典的合同關(guān)系中,合同主體雙方也不可能針對合同所涉事項事無巨細(xì)地約定完全,合同成立到履行完畢的過程需要雙方之間信賴關(guān)系的持續(xù)性存續(xù)并輔之以合同解釋規(guī)則的合理運(yùn)用。算法分發(fā)過程中平臺、企業(yè)、機(jī)構(gòu)和用戶之間的信任程度較傳統(tǒng)合同場合相對更低,雙方持續(xù)性信任問題更加突出,通過一次性地賦予用戶算法解釋權(quán)不僅無助于雙方信任關(guān)系的形成、深化和用戶權(quán)利的切實保障,而且也難以在實質(zhì)意義上促使平臺切實履行信息質(zhì)量保障與信息生態(tài)引領(lǐng)的公共責(zé)任。因此,作為質(zhì)疑人工智能算法運(yùn)行技術(shù)黑箱的有效工具,更為合理的算法解釋權(quán)應(yīng)當(dāng)是正當(dāng)程序理念指引下的算法解釋權(quán)。絕對透明化的算法解釋權(quán)不僅具有技術(shù)方面的不可得性,信息的無限度公開也將徒增平臺與用戶雙方信息權(quán)利主張與保護(hù)負(fù)累。以算法解釋權(quán)作為平臺與用戶及大眾之間建立溝通信任關(guān)系的正當(dāng)程序權(quán)利,將有助于建立起公眾對算法作用于信息生態(tài)領(lǐng)域的信任感。④參見丁曉東:《基于信任的自動化決策:算法解釋權(quán)的原理反思與制度重構(gòu)》,《中國法學(xué)》2022年第1期。
其次,正當(dāng)程序理念下的算法解釋權(quán)應(yīng)關(guān)注算法設(shè)計、運(yùn)行和輸出的全過程。摒卻對算法運(yùn)行過程中公開和透明度的線性價值追求,程序正義保障下的算法解釋除了要求一定程度的算法公開外,其他程序正義要求如中立、參與、效率等均應(yīng)在算法分發(fā)的形式、步驟、過程中得以滿足。同時,實現(xiàn)外部價值衡量的實質(zhì)性程序價值如尊嚴(yán)、平等與自由,也應(yīng)在人工智能算法滿足外部道德性和正當(dāng)價值性過程中得到保障。⑤季衛(wèi)東:《法律程序的意義》(增訂版),北京:中國法制出版社,2011年,第37頁。這些程序性價值標(biāo)準(zhǔn)能夠為算法利用過程中技術(shù)黑箱所內(nèi)嵌與外源的恣意、專斷、偏見、歧視等風(fēng)險提供穩(wěn)定預(yù)期并有效防止其無限制外溢。
正當(dāng)程序理念下的算法解釋權(quán)可以從內(nèi)部控制機(jī)制和外部約束機(jī)制兩方面得以實施。內(nèi)部控制方面,可設(shè)立算法設(shè)計中的運(yùn)行邏輯解釋與審查機(jī)制。可參考的立法例是歐盟《通用數(shù)據(jù)保護(hù)條例》第35 條。該條要求數(shù)據(jù)處理可能妨礙個人權(quán)利行使、阻止其訂立合同或獲得服務(wù)時,算法控制者應(yīng)提前針對數(shù)據(jù)處理過程對個人數(shù)據(jù)權(quán)利行使可能造成的影響進(jìn)行評估。算法設(shè)計或使用主體應(yīng)當(dāng)對算法決策運(yùn)行的基礎(chǔ)邏輯、可能引致的信息生態(tài)風(fēng)險及相應(yīng)的防范機(jī)制進(jìn)行釋明并達(dá)到相當(dāng)強(qiáng)度的解釋標(biāo)準(zhǔn)以便于公共部門作出合理判斷。同時應(yīng)當(dāng)向公眾解釋自動化分發(fā)的意義與可能后果,為公眾提供拒絕算法分發(fā)結(jié)果的有效渠道和相應(yīng)的意見反饋通道等。⑥參見解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,《現(xiàn)代法學(xué)》2020年第1期。算法運(yùn)行的過程控制可通過反不一致檢測、價值偏離預(yù)警、神經(jīng)網(wǎng)絡(luò)中間層⑦See Paul de Laat, “Big Data and Algorithmic Decision-making: Can Transparency Restore Accoutability?”ACM SIGCAS Computers and Society, vol.47, no.3 (September 2017), pp.39-53.等技術(shù)手段介入。
外部審查方面,以自然語言或可視技術(shù)對算法運(yùn)行邏輯、數(shù)據(jù)輸入與輸出結(jié)果之間的相關(guān)性進(jìn)行解釋既能夠避免與算法的商業(yè)秘密保護(hù)形成沖突,也有助于公眾從原理上理解算法分發(fā)的作用機(jī)理從而產(chǎn)生對算法技術(shù)及企業(yè)、平臺、機(jī)構(gòu)的持續(xù)性信任。必要時通過可信第三方(如公共監(jiān)管部門或其委托方)介入算法分發(fā)過程對可能造成個體及公眾注意力損害的算法進(jìn)行核查并提出質(zhì)疑,如此既可回應(yīng)算法擁有者及控制者的商業(yè)秘密權(quán)益關(guān)切,同時又能實現(xiàn)用戶正當(dāng)信息權(quán)益的合理保護(hù)。
平臺、企業(yè)、機(jī)構(gòu)的算法分發(fā)權(quán)力在社會價值觀念形成和信息生態(tài)環(huán)境塑造方面發(fā)揮著巨大作用,因而仍將其作為普通商事主體對待無疑將產(chǎn)生社會責(zé)任承擔(dān)不足的問題。把關(guān)失靈規(guī)制問題主要聚焦在平臺、企業(yè)、機(jī)構(gòu)對注意力市場規(guī)則制定、數(shù)據(jù)控制、資源分配等權(quán)力所構(gòu)成的對傳統(tǒng)信息生態(tài)結(jié)構(gòu)的重塑,而基于商業(yè)利益和效率考慮生成的傳統(tǒng)規(guī)制模式效能遲滯,不僅無法對平臺自我約束行為的公共性缺失等負(fù)外部性進(jìn)行有效補(bǔ)足,也無法阻止算法不正當(dāng)利用所產(chǎn)生的負(fù)面效應(yīng)。作為算法擁有者或使用者的平臺、企業(yè)、機(jī)構(gòu),其先發(fā)優(yōu)勢、規(guī)模效應(yīng)、網(wǎng)絡(luò)效應(yīng)使之成為社會信息生態(tài)領(lǐng)域極其重要以至不能完全放給市場力量來管理的關(guān)鍵信息基礎(chǔ)設(shè)施。無論是從促進(jìn)網(wǎng)絡(luò)信息基礎(chǔ)設(shè)施維護(hù)的角度,還是基于網(wǎng)絡(luò)信息空間公共性價值考慮,對特定的網(wǎng)絡(luò)平臺、企業(yè)、機(jī)構(gòu)施加一定的公共義務(wù)都是必要的。①參見高薇:《平臺監(jiān)管的新公用事業(yè)理論》,《法學(xué)研究》2021年第3期。
平臺、機(jī)構(gòu)、企業(yè)作為信息分發(fā)權(quán)力主體和網(wǎng)絡(luò)空間信息生態(tài)塑造參與主體應(yīng)當(dāng)發(fā)揮自身作為自由討論空間的公共論壇屬性并承擔(dān)起載體性質(zhì)的公共責(zé)任。算法決策的公共性價值及其利用是平臺、企業(yè)、機(jī)構(gòu)等快速發(fā)展的支柱,它可以被無限制地用于爭奪用戶注意力、離散公共意見形成、侵蝕公共領(lǐng)域空間,也可以經(jīng)由公共價值平衡進(jìn)而實現(xiàn)價值弘揚(yáng)、輿論引導(dǎo)、公共信任、文化涵養(yǎng)等一系列社會功能。也即,算法分發(fā)權(quán)力把關(guān)失靈的修復(fù)需要實現(xiàn)公共性價值和非公共性價值、供給與效益之間的平衡。遵循這樣的規(guī)制思路,將難以量化評估的注意力、質(zhì)量(包含信息生態(tài)影響)損害融入現(xiàn)有規(guī)制框架,才能為算法監(jiān)管和平臺把關(guān)提供更為明晰的指引。
從算法影響評估制度中抽象出信息生態(tài)影響評估,對平臺利用算法的設(shè)計、應(yīng)用和數(shù)據(jù)處理等內(nèi)容進(jìn)行全面評估,確定其所產(chǎn)生信息生態(tài)影響的程度和風(fēng)險等級,進(jìn)而采取減緩或消除負(fù)面影響及相應(yīng)風(fēng)險的措施。信息生態(tài)影響評估制度價值明顯:其一,有助于從程序和實質(zhì)兩方面創(chuàng)建決策運(yùn)行過程的信任機(jī)制,增加算法決策的適當(dāng)性和算法系統(tǒng)運(yùn)行的穩(wěn)健性。其二,有助于促進(jìn)“負(fù)責(zé)任的”算法研發(fā),弱化對算法黑箱和復(fù)雜化算法設(shè)計的逆向激勵。其三,有助于將算法治理規(guī)范和技術(shù)標(biāo)準(zhǔn)結(jié)合起來,督促平臺強(qiáng)化把關(guān)控制,以實現(xiàn)更高效的風(fēng)險管理。②參見張欣:《算法影響評估制度的構(gòu)建機(jī)理與中國方案》,《法商研究》2021年第2期。
基于場景治理和精準(zhǔn)治理的思路,立法者在建立基于影響維度的評估指標(biāo)體系過程中亦將算法治理所要維護(hù)的社會核心價值融入其中。加拿大《自動化決策指令》關(guān)注自動化決策在經(jīng)濟(jì)、社會等方面的影響,將系統(tǒng)對個人或公眾在基本權(quán)利、健康福祉、經(jīng)濟(jì)利益等方面的影響納入算法影響評估指標(biāo)體系之中,并將影響等級劃分為可逆短暫影響、可逆短期影響、難以移轉(zhuǎn)的持續(xù)不斷性影響、不可逆轉(zhuǎn)的永久性影響四個等級。③See Government of Canada, Directive on Automated Decision-Making, https://www. tbs-sct. canada. ca/pol/doc-eng. aspx?id=32592,2023年8月7日。美國立法者則更多聚焦算法決策對公平、偏見、歧視、隱私、安全等價值的影響,聯(lián)邦《算法問責(zé)法案》自動化決策系統(tǒng)影響評估(C)項就規(guī)定,系統(tǒng)對消費(fèi)者隱私安全風(fēng)險、系統(tǒng)可能引致消費(fèi)者遭遇偏見及歧視決策的風(fēng)險應(yīng)當(dāng)?shù)玫皆u估。④See S.1108, Algorithmic Accountability Act of 2019,http://www.congress.gov/bill/116th-congress/senate-bill/1108/text,2023年8月7日。紐約市則以自動化決策系統(tǒng)潛在影響的性質(zhì)和程度、持續(xù)時間,不同類型的已知或潛在風(fēng)險等為基準(zhǔn)建立影響維度的評估指標(biāo)體系。⑤See Automated Decision Systems Task Force, New York City Automated Decision Systems Task Force Report, p. 18-21,from https://www.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-Report-11192019.pdf?ref=hackernoon.com,2023年8月7日。
合理的信息生態(tài)影響評估制度不僅有助于在一定程度上提升算法的透明性,而且通過對算法運(yùn)行系統(tǒng)負(fù)效應(yīng)和風(fēng)險程度的揭示能夠提升算法運(yùn)行過程中技術(shù)黑箱、平臺把關(guān)及結(jié)構(gòu)風(fēng)險嵌入規(guī)制的有效性;同時通過信息生態(tài)影響及其內(nèi)生或外源風(fēng)險的評估與披露,使得用戶和公共監(jiān)管部門對其所利用算法的風(fēng)險程度擁有合理認(rèn)知并為進(jìn)一步的權(quán)利行使提供空間。有學(xué)者將代表性的算法影響評估制度實踐分為封閉合規(guī)型和開放反思型兩種,并從啟動時間、公眾參與、評估披露、規(guī)制理念、功能定位等方面展開了細(xì)致對比,認(rèn)為開放反思型算法影響評估制度在促成算法透明、保障正當(dāng)程序以及接受公眾審查等方面更具實效。①參見張恩典:《算法影響評估制度的反思與建構(gòu)》,《電子政務(wù)》2021年第11期。我國《個人信息保護(hù)法》第55 條第2 款明確規(guī)定利用個人信息進(jìn)行自動化決策的,應(yīng)當(dāng)進(jìn)行個人信息保護(hù)影響評估。亦有規(guī)范性文件從信息輿論屬性和社會動員能力角度要求互聯(lián)網(wǎng)信息服務(wù)提供者在特定情形下自行開展安全評估以維護(hù)國家安全、社會秩序和公共利益。②參見《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》第3條,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第24、27條。但《個人信息保護(hù)法》及其制度設(shè)計由信息處理者主導(dǎo)實施,在定位上更多以滿足企業(yè)算法自動化決策的合規(guī)要求為導(dǎo)向,因而呈現(xiàn)出較強(qiáng)的封閉性和自我規(guī)制特征。
信息生態(tài)影響評估首先應(yīng)當(dāng)吸納現(xiàn)行法的相關(guān)規(guī)定?!稊?shù)據(jù)安全法》第30 條明確重要數(shù)據(jù)處理者負(fù)有定期開展風(fēng)險評估并向有關(guān)主管部門報送評估報告的義務(wù)?!秱€人信息保護(hù)法》第17 條明確個人信息處理者應(yīng)當(dāng)告知個人信息處理目的、處理方式以及處理個人信息的種類與保存期限?!毒W(wǎng)絡(luò)安全法》第38 條規(guī)定關(guān)鍵信息基礎(chǔ)設(shè)施運(yùn)營者對網(wǎng)絡(luò)安全性和潛在風(fēng)險負(fù)有檢測評估義務(wù)?!峨娮由虅?wù)法》確立了個性化推薦算法的自然結(jié)果提供義務(wù)和消費(fèi)者保護(hù)義務(wù)。③參見張凌寒:《〈電子商務(wù)法〉中的算法責(zé)任及其完善》,《北京航空航天大學(xué)學(xué)報》(社會科學(xué)版)2018年第6期。
其次,信息生態(tài)影響評估的各項指標(biāo)設(shè)置應(yīng)當(dāng)能夠準(zhǔn)確揭示算法對信息生態(tài)影響的可能性以及嚴(yán)重程度。需要對“風(fēng)險”“信息內(nèi)容的公共性”“責(zé)任”等關(guān)鍵概念展開針對性制度設(shè)計。④參見張欣:《算法影響評估制度的構(gòu)建機(jī)理與中國方案》。具體判定要素取決于受到法律保護(hù)權(quán)益的重要性,包括但不限于:用戶人格權(quán)、隱私權(quán)等受侵害的潛在程度;算法利用特定數(shù)據(jù)的敏感程度(如敏感個人信息、行為數(shù)據(jù)信息);信息內(nèi)容質(zhì)量;對網(wǎng)絡(luò)空間信息生態(tài)環(huán)境產(chǎn)生的可能影響及程度,包括個體(如注意力損害)及公眾兩個層面;受影響的用戶規(guī)模和潛在致害的用戶總數(shù),以及對網(wǎng)絡(luò)信息空間的整體影響,技術(shù)倫理等。
雖然以上指標(biāo)中多數(shù)指標(biāo)尚缺乏必要精度與量化標(biāo)準(zhǔn),但仍可選取替代性指標(biāo)間接進(jìn)行。如注意力損害一項,注意力并不是一個擁有一致學(xué)術(shù)認(rèn)識的法律概念。心理學(xué)方面的解釋認(rèn)為,注意力是心理活動對一定對象的指向和集中的能力,是伴隨著感覺、知覺、記憶、思維等心理過程的一系列心理特征。將注意力作為一種損害的對象存在著測量難題。用戶的注意力損害包括經(jīng)濟(jì)損害和精神損害兩個層面。自然主體注意力的有限性決定了其在被占用過多時存在過載與耗盡的可能。損害的經(jīng)濟(jì)方面表現(xiàn)在,注意力的容量受認(rèn)知能力約束,如果存在可獲得信息的超額供給,“西蒙斯設(shè)想的信息供給和注意力供給之間的反比關(guān)系將成立。”⑤John M.Newman, “Antitrust in Attention Markets: Objections and Responses,” Santa Clara L.Review, vol.59,2020, pp.743-769.當(dāng)用戶有限的注意力被平臺供給的各類信息大比例占用,將更多時間和精力投入到無甚經(jīng)濟(jì)助益的行為與活動中去,他們獲取收入、進(jìn)行價值創(chuàng)造、投入生產(chǎn)生活的時間和精力就隨之下降。⑥See Gary S. Becker, “A Theory of the Allocation of Time,” The Economic Journal, vol. 75, no. 299 (September 1965),pp.493-517.這就使得注意力所生經(jīng)濟(jì)損害的測量得以可能,可通過平臺投放廣告數(shù)量的變化、平臺行為對消費(fèi)者剩余的影響來實現(xiàn)。⑦參見喻玲:《個性化推薦、公共性貶損與數(shù)字新聞市場反壟斷》,《法學(xué)》2022年第11期。
又如信息質(zhì)量一項,可參考新聞質(zhì)量評估的抽象標(biāo)準(zhǔn)即“新聞是否以及如何促進(jìn)公眾討論進(jìn)而加強(qiáng)公共輿論和決策形成”,新聞質(zhì)量評估通常從相關(guān)性、情景化、專業(yè)性和多樣性等指標(biāo)進(jìn)行。⑧See Philipp Bachmann, Mark Eisenegger and Diana Ingenhoff, “Defining and Measuring News Media Quality: Comparing the Content Perspective and the Audience Perspective,” The International Journal of Press/Politics, vol. 27, no. 1 (January 2022), pp.9-37.學(xué)者們多認(rèn)為,度量指標(biāo)可以包括用戶與異質(zhì)觀點(diǎn)的接觸、對比性信息的引用或信息來源的多樣性等,這為信息生態(tài)影響評估提供了更加明確的標(biāo)準(zhǔn):其一,主體多樣性,保障相關(guān)市場獨(dú)立媒體數(shù)量充足以實現(xiàn)異質(zhì)化內(nèi)容的持續(xù)性供給;其二,暴露多樣性,保障信息內(nèi)容的深度和廣度、準(zhǔn)確與公正、倫理與權(quán)威,以及不同價值偏向的衡平;其三,選擇多樣性,用戶閱讀、接觸不同內(nèi)容、不同觀點(diǎn)信息的選擇權(quán)以及其參與和互動等應(yīng)當(dāng)能夠予以保障。①See N. Helberger, K. Karppinen & L. D’Acunto, “Exposure Diversity as a Design Principle for Recommender Systems,” Information, Communication and Society, vol.21, no.2, 2018, pp.191-207.歐盟發(fā)布的《媒體多元化和媒體自由》報告指出,“媒體多元化包括合并控制規(guī)則、廣播內(nèi)容許可程度、媒體所有權(quán)的透明度、編輯自由、公共服務(wù)廣播機(jī)構(gòu)的獨(dú)立性、記者的職業(yè)狀況、媒體與政治經(jīng)濟(jì)之間的關(guān)系、婦女和少數(shù)群體獲得媒體內(nèi)容的機(jī)會、意見的多樣性等。”②See European Parliament, Committee on Civil Liberties Justice and Home Affairs 2018, Report on Media Pluralism and Media Freedom in the European Union,2017/2209(INI),2018,https://www. europarl. europa. eu/doceo/document/A-8-2018-0144_EN.html,2023年8月7日。澳大利亞競爭與消費(fèi)委員會(ACCC)發(fā)布《數(shù)字平臺對新聞和新聞內(nèi)容的影響》,從內(nèi)容屬性、受眾參與、組織機(jī)構(gòu)三個維度開發(fā)出較為科學(xué)實用的測量標(biāo)準(zhǔn)。其中內(nèi)容屬性從核心評估標(biāo)準(zhǔn)(涵蓋準(zhǔn)確性、明確性、公正性、隱私保護(hù)、信息來源平衡、誠信和透明等)、專業(yè)評估標(biāo)準(zhǔn)(包括新聞的即時性、權(quán)威性、信息內(nèi)容的深度、信息采集倫理、分析、原創(chuàng)、呈現(xiàn)方式等)、社會功能評價(社會監(jiān)督、公共交流、關(guān)鍵信息需求、地理相關(guān)性、有用性、多樣性等)三個一級指標(biāo)和諸多細(xì)分類指標(biāo),來作為信息內(nèi)容公共性判斷的關(guān)鍵參考內(nèi)容。③See Wilding, D., Fray, P., Molitorisz, S. and McKewon, E. 2018, The Impact of Digital Platforms on News and Journalistic Content, Sydney: University of Technology Sydney, 2018, pp.86-87.國內(nèi)亦有學(xué)者從真實性、新鮮性、實用性、正義性因素考慮構(gòu)建新聞文本評價模型,評價因子涵蓋:新聞內(nèi)容要素、聯(lián)系、組合真實因子,內(nèi)容新穎性和傳播及時性因子,意義建構(gòu)、行為指導(dǎo)因子,接受效應(yīng)和外部性因子等④參見肖云:《報紙新聞文本質(zhì)量評估指標(biāo)體系研究》,《中華文化論壇》2017年第11期。,可為網(wǎng)絡(luò)空間信息生態(tài)影響評估指標(biāo)設(shè)置提供本土化的意見和參考。
針對結(jié)構(gòu)嵌入路徑引發(fā)算法系統(tǒng)性歧視和侵害用戶個體自治價值的信息生態(tài)風(fēng)險,可基于事前行為控制的預(yù)防性路徑與事后矯正主義的救濟(jì)性路徑相結(jié)合的思路展開思考。在前者,法律通過介入算法利用者即平臺、企業(yè)、機(jī)構(gòu)的微觀管理,為生產(chǎn)經(jīng)營者的自律性規(guī)制設(shè)定相應(yīng)的制度約束與最低標(biāo)準(zhǔn)要求,使其在遵守法律的前提下保障內(nèi)部自律規(guī)制的靈活性和成本效益的有效性,進(jìn)而更好實現(xiàn)企業(yè)運(yùn)營質(zhì)量和效益的提升。⑤See Cary Coglianese and Evan Mendelson, “Meta-Regulation and Self-Regulation,” in Baldwin, Robert, Martin Cave, and Martin Lodge eds, The Oxford Handbook of Regulation, 2010, online edn, Oxford Academic, 2 (September 2010, pp.146-153),https://doi.org/10.1093/oxfordhb/9780199560219.001.0001, 7 August 2023.在后者,以侵權(quán)法為核心的法律歸責(zé)理論,通過減少對算法運(yùn)作流程和運(yùn)行邏輯的過度關(guān)注,基于結(jié)果主義視角經(jīng)由算法問責(zé)機(jī)制對算法運(yùn)作結(jié)果實施穿透式監(jiān)管。算法歧視和算法操縱的結(jié)果來自于算法權(quán)力,因而法律介入算法的具體舉措,應(yīng)當(dāng)圍繞著算法權(quán)力規(guī)制路徑展開。
秉持正當(dāng)程序理念的算法歧視審查是有效防范路徑。算法歧視審查強(qiáng)調(diào)將其作為信息推送系統(tǒng)設(shè)計的一部分,只有經(jīng)過專家、公共機(jī)構(gòu)和受算法決策影響的公民驗證后才可在實體之間共享或公共站點(diǎn)上發(fā)布,以事前預(yù)防視角盡力避免公眾遭受偏見、無意識歧視之困境。司法實踐對算法歧視的認(rèn)定和審查主要有區(qū)別待遇和差異性影響兩種模式。區(qū)別待遇審查模式又稱為“故意算法審查模式”,主觀故意歧視意圖或固有刻板印象是算法使用者承擔(dān)責(zé)任的前提條件。其表現(xiàn)形態(tài)有二:一是算法使用者將特定成員資格作為變量納入算法決策,并故意操縱算法運(yùn)行程序從而獲得歧視性結(jié)果,其實質(zhì)是算法掩蓋下的人為偏見。二是算法使用者充分利用對特定群體的刻板印象實施算法決策,從而產(chǎn)生針對性歧視后果。⑥參見鄭智航、徐昭曦:《大數(shù)據(jù)時代算法歧視的法律規(guī)制與司法審查——以美國法律實踐為例》,《比較法研究》2019年第4期。差異性影響審查模式中,算法決策是否對用戶產(chǎn)生差異性影響的實際后果構(gòu)成算法歧視的判斷標(biāo)準(zhǔn)。如在“康涅狄格州訴迪爾”(Connecticut v. Teal)一案中,法院認(rèn)為雇主適用的就業(yè)與晉升測試算法使黑人雇員遭受禁止晉升的結(jié)果而應(yīng)受到差異性影響審查。審查重心將集中在差異性影響、商業(yè)必要性和可替代性算法決策等核心問題上。算法歧視審查與評估的義務(wù)主體為算法平臺,主要采取排除明確及隱含歧視屬性信息的做法。①See Melissa Hamilton, “The Biased Algorithm: Evidence of Disparate Impact on Hispanics,” American Criminal: Law Review,vol.56,2019, pp.1553-1577.
派生思路是將非歧視作為技術(shù)合規(guī)標(biāo)準(zhǔn)。在算法歧視審查之外,另一個頗具效率意義的禁止歧視路徑是將基于內(nèi)容控制和行為控制在內(nèi)的非歧視標(biāo)準(zhǔn)納入算法運(yùn)行的底層邏輯,進(jìn)而經(jīng)由技術(shù)的合理實踐和有效應(yīng)用誘導(dǎo)預(yù)期規(guī)制結(jié)果實現(xiàn)。該思路的可行性和隱含邏輯在于,如果人工智能算法設(shè)計者、開發(fā)者能夠經(jīng)由技術(shù)嵌入路徑在信息生態(tài)領(lǐng)域生發(fā)出歧視或操縱風(fēng)險,那么同樣可以經(jīng)此路徑實現(xiàn)非歧視或降低歧視風(fēng)險發(fā)生概率的目的。這就要求信息分發(fā)算法本身應(yīng)具備非歧視屬性,同時用于算法模型訓(xùn)練的數(shù)據(jù)集、作為信息分發(fā)內(nèi)容來源的數(shù)據(jù)池亦需具備內(nèi)容屬性均衡特征。因為非歧視的算法可能因為信息內(nèi)容價值偏頗的訓(xùn)練數(shù)據(jù)集而形成非中立的判斷及推送結(jié)果。作為信息分發(fā)內(nèi)容來源的數(shù)據(jù)池應(yīng)能夠均衡反映不同地域、性別、民族、種族、職業(yè)、特殊群體等的客觀情況,避免信息內(nèi)容前端沉淀的偏見、歧視和結(jié)構(gòu)性不平等經(jīng)由算法技術(shù)加持而進(jìn)一步擴(kuò)張風(fēng)險。對于算法模型訓(xùn)練數(shù)據(jù)信息的來源、內(nèi)容等也要公開,保證訓(xùn)練數(shù)據(jù)全面性、多樣性的同時使用戶和公共機(jī)構(gòu)的知情權(quán)得到保障,從而為監(jiān)督權(quán)的進(jìn)一步行使奠定基礎(chǔ)。
網(wǎng)絡(luò)平臺應(yīng)承擔(dān)對信息內(nèi)容輸出結(jié)果的審核、監(jiān)督義務(wù)。作為算法使用主體,平臺、機(jī)構(gòu)、企業(yè)對其所利用算法技術(shù)的實踐結(jié)果,以及實施自我規(guī)制策略、遵從合規(guī)要求后所塑造形成的信息內(nèi)容生態(tài)應(yīng)有相應(yīng)的合理預(yù)期并承擔(dān)信息生態(tài)風(fēng)險的避免義務(wù)。網(wǎng)絡(luò)平臺應(yīng)在技術(shù)層面強(qiáng)化對操縱型算法的實時監(jiān)測,及時識別特定利益主體利用網(wǎng)絡(luò)機(jī)器人、情感算法等以顯著手段影響信息生態(tài)或惡意引發(fā)、制造網(wǎng)絡(luò)空間安全、國家安全等風(fēng)險的事件發(fā)生并及時采取防范措施。可通過用戶協(xié)議、社群規(guī)范等文件將營造良好網(wǎng)絡(luò)信息生態(tài)作為信息內(nèi)容傳播的倡導(dǎo)性規(guī)范,引導(dǎo)、支持平臺企業(yè)將良好信息生態(tài)塑造納入企業(yè)中長期經(jīng)營目標(biāo)。作為算法技術(shù)應(yīng)用的結(jié)果,即使技術(shù)在客觀層面的不可解釋性使其不具備算法歧視審查方面的可問責(zé)性,但基于結(jié)果視角的觀察仍然能夠反映算法決策的歧視性。針對算法應(yīng)用所致?lián)p害后果,需要結(jié)合平臺算法運(yùn)行機(jī)制和推送決策的具體情境,分析系主觀故意損害或算法過失損害,并根據(jù)各主體及行為的原因力大小確定差異化的責(zé)任標(biāo)準(zhǔn)。
最后,對于歧視與操縱風(fēng)險的規(guī)制并不僅是私法制度設(shè)計,未來為更好實現(xiàn)規(guī)制效果,公法治理的必要性仍然存在。對于未履行合理的審核、監(jiān)督義務(wù)并造成相當(dāng)程度信息生態(tài)風(fēng)險的,平臺、企業(yè)、機(jī)構(gòu)可能面臨修正、罰款等行政處罰。此外,不僅僅是平臺的自我規(guī)制、基于事前控制的算法歧視審查、基于損害救濟(jì)的事后問責(zé)路徑等很可能都無法完全阻止違法的內(nèi)容或行為,為生成信息生態(tài)風(fēng)險預(yù)留空間。因而,法律規(guī)制形式無法取代或無法完全取代非法律的規(guī)制形式,針對網(wǎng)絡(luò)信息生態(tài)風(fēng)險還需其他風(fēng)險治理路徑協(xié)同發(fā)揮作用,如吸納多元治理主體參與,優(yōu)化監(jiān)管方法,產(chǎn)業(yè)自律標(biāo)準(zhǔn)的制定,用戶信息素養(yǎng)的培育和提高,主流信息內(nèi)容傳播效力提升,等等。
生成式人工智能背景下,科學(xué)技術(shù)因其自身的客觀結(jié)構(gòu)和物理屬性易產(chǎn)生技術(shù)中立“幻象”。發(fā)展實踐表明,技術(shù)作為一種價值實踐樣態(tài)進(jìn)入公共領(lǐng)域之中正在制造紛爭和風(fēng)險。人工智能算法在信息傳播領(lǐng)域的廣泛應(yīng)用正在重塑網(wǎng)絡(luò)空間信息生態(tài)環(huán)境,孕育信息生態(tài)風(fēng)險。基于信息生態(tài)系統(tǒng)安全風(fēng)險識別的三要素,本文將目光聚焦于技術(shù)黑箱、把關(guān)失靈、結(jié)構(gòu)嵌入三種路徑,以此作為網(wǎng)絡(luò)信息生態(tài)風(fēng)險規(guī)制的邏輯起點(diǎn)。技術(shù)黑箱規(guī)制存在算法透明與算法可知的矛盾,通過程序正義保障下的算法解釋能夠增進(jìn)個體、公眾和社會的算法信任并防范算法產(chǎn)生的不合理支配風(fēng)險。信息生態(tài)影響評估充分重視平臺之于網(wǎng)絡(luò)空間信息生態(tài)塑造的公共價值,將算法決策對用戶注意力的影響、信息內(nèi)容質(zhì)量納入規(guī)制框架,能夠為平臺把關(guān)權(quán)力行使提供清晰指引。結(jié)構(gòu)嵌入的權(quán)力規(guī)制需要事前、事中、事后相結(jié)合的多元路徑協(xié)同作用。此外,非法律的規(guī)制方式如政府監(jiān)管、行業(yè)自治、用戶自我保護(hù)等多重治理模式和規(guī)制形式的混合將構(gòu)成網(wǎng)絡(luò)信息生態(tài)風(fēng)險規(guī)制的基本特征。