国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

對個性化算法推薦技術(shù)的倫理反思

2021-10-19 05:34匡文波
關(guān)鍵詞:信息繭房

匡文波

摘 ? 要: 算法推薦技術(shù)的出現(xiàn),使得傳統(tǒng)以編輯為中心的把關(guān)權(quán)力部分遷移到算法創(chuàng)設(shè)主體身上,以算法為核心的“技術(shù)叢”在一定程度上被賦予信息采集、記錄、篩選、分類、推送、存儲等權(quán)力,而這些權(quán)力背后的動機及其執(zhí)行結(jié)果并不都是符合倫理的,信息繭房、數(shù)據(jù)濫用、算法黑箱等問題對個人隱私權(quán)、知情權(quán)、平等權(quán)、被遺忘權(quán)造成了不同程度的威脅。算法推薦技術(shù)在新聞傳播領(lǐng)域中的運用帶來了技術(shù)邏輯與新聞邏輯的碰撞,商業(yè)和資本價值輸出給數(shù)字人權(quán)和公共價值帶來新困境?;诖?,從法倫理的視角出發(fā),以權(quán)利為邏輯起點,從數(shù)字人權(quán)中的自由、正義、隱私、自主性、人性尊嚴(yán)等先行價值切入,重新解讀算法黑箱和信息繭房等問題中受沖擊的倫理內(nèi)核,厘清智能傳播環(huán)境下算法推薦技術(shù)對個人、行業(yè)和社會造成的權(quán)利威脅,反思造成這種現(xiàn)狀的原因,并試圖提出可行的解決對策和建議,提倡以人權(quán)價值規(guī)制算法技術(shù),在算法推薦技術(shù)的發(fā)展中重視人的價值,尊重人的主體地位。

關(guān)鍵詞: 數(shù)字人權(quán);法倫理;算法歧視;信息繭房;被遺忘權(quán);隱私侵犯;數(shù)字素養(yǎng)

中圖分類號:TP18 ?文獻(xiàn)標(biāo)識碼:A ?文章編號:1004-8634(2021)05-0014-(10)

DOI:10.13852/J.CNKI.JSHNU.2021.05.002

一、引言

人工智能的核心在于算法,算法的社會本質(zhì)是一種權(quán)力,作為數(shù)據(jù)與人工智能的節(jié)點,它在新聞內(nèi)容生產(chǎn)和制作環(huán)節(jié)中起著關(guān)鍵的邏輯組織作用,在信息的準(zhǔn)入、準(zhǔn)出方面發(fā)揮著重要的過濾作用,在檢索、分類方面發(fā)揮著匹配和判定作用。1 “個性化新聞推薦”(Personalized News Recommender)是一種基于計算機技術(shù)、統(tǒng)計學(xué)知識,通過將數(shù)據(jù)、算法、人機交互有機結(jié)合,建立用戶和資源個性化關(guān)聯(lián),從而為用戶提供信息決策支持的技術(shù)。2 目前,用于新聞分發(fā)的算法主要包括:協(xié)同過濾(Collaborative Filtering Recommendation)、基于內(nèi)容的推薦(Content-based Recommendation)和關(guān)聯(lián)規(guī)則推薦。其中協(xié)同過濾系統(tǒng)又包含基于記憶的(Memory-based)和基于模型的(Model-based)協(xié)同過濾。3 其基本思路是通過對內(nèi)容、個人、場景特征的判斷,進行信息匹配。從數(shù)據(jù)采集的角度看,算法推薦技術(shù)需要至少采集以上三個方面的信息,具體包括個人的年齡、興趣、職業(yè)等詳細(xì)的人口統(tǒng)計學(xué)信息,瀏覽記錄、互動記錄等行為信息,地理位置、網(wǎng)絡(luò)情況等場景信息,基于此描繪個體的“數(shù)字畫像”。在內(nèi)容判斷上,針對具體信息內(nèi)容的關(guān)鍵詞、熱度等做出判斷,1 算法基于這兩端的信息,通過過濾邏輯進行匹配,推送個人化的內(nèi)容。

算法技術(shù)的運用,不僅對原有的傳播主體進行了重新賦能與賦權(quán),也影響和解構(gòu)了傳統(tǒng)傳播生態(tài)。不少學(xué)者從技術(shù)角度或者個案視角對智能分發(fā)機制進行考察,探討了算法推薦在新聞傳播領(lǐng)域中運用的影響,如,蔡磊平從協(xié)同過濾算法出發(fā),探討了個性化推薦算法下個人信息的窄化和信息繭房風(fēng)險;張志安和湯敏指出以偏好為導(dǎo)向的算法推薦擠壓了主流媒體的生存空間,給主流意識形態(tài)的傳播帶來挑戰(zhàn);2 任莎莎與田嬌等選取算法推薦技術(shù)較為成熟的平臺作為個案,分析這項技術(shù)帶來的倫理問題。3學(xué)者們普遍認(rèn)為,算法推薦在新聞傳播領(lǐng)域的運用,除了提高信息生產(chǎn)效率、稿件質(zhì)量外,還緩解了信息過載、實現(xiàn)了信息精準(zhǔn)分發(fā),但同時也加劇或引發(fā)信息繭房、泛娛樂化、公共性減弱、算法黑箱等問題??傮w來說,一些學(xué)者從技術(shù)視角出發(fā),揭示算法推薦或某一平臺媒體的技術(shù)邏輯,進而反思其引發(fā)的問題;還有一些研究從新聞倫理角度分析算法推薦對專業(yè)主義和新聞場域的解構(gòu)與重塑;也有一些研究從現(xiàn)象出發(fā),聚焦“后真相”“算法黑箱”“信息繭房”等問題。

本文認(rèn)為,現(xiàn)象中包含的倫理問題有重疊性,基于單個案例或現(xiàn)象的分析較為深入,但不利于從全局把握這一問題;技術(shù)視角下的剖析有利于建構(gòu)“以技術(shù)約束技術(shù)”的路徑,但與從倫理建構(gòu)和法律規(guī)制上約束算法推薦之間缺少橋梁。算法推薦技術(shù)的倫理問題從屬于技術(shù)倫理范疇,這一問題不僅可以從技術(shù)角度切入,還可以從倫理視域分析,如有學(xué)者認(rèn)為功利主義、義務(wù)論、契約論和美德倫理學(xué)等道德理論可以為算法帶來的倫理問題提供框架,并從算法新聞的“輸入—處理—生產(chǎn)”和“組織—專業(yè)—社會”兩個層面出發(fā),構(gòu)建算法新聞的多層倫理分析框架。4 本文試圖從法倫理的視角出發(fā)對算法推薦技術(shù)引發(fā)的倫理問題進行解讀,從透明、平等、隱私、自主等核心視點出發(fā)去理解算法黑箱、信息繭房等問題。這種以倫理價值先行的分析方式,有助于我們剝離紛繁復(fù)雜的現(xiàn)象表層去審視被算法推薦侵蝕的倫理內(nèi)核。我們以數(shù)字人權(quán)理論中的公民隱私權(quán)、數(shù)據(jù)權(quán)、公平權(quán)等為起點,分析算法推薦技術(shù)對個人權(quán)利的濫用與侵犯,以期加深對算法推薦技術(shù)倫理問題的實然性與應(yīng)然性解讀,為進一步建立從倫理上約束、從法律上規(guī)制的算法推薦開發(fā)與運用管理系統(tǒng)提供新的思考起點。

二、算法推薦技術(shù)引發(fā)的倫理困境

1.個體層面:權(quán)利讓渡與濫用

數(shù)據(jù)權(quán)利被納入第四代人權(quán)即數(shù)字人權(quán)框架,數(shù)字人權(quán)理論是在信息技術(shù)、人工智能技術(shù)高速發(fā)展,算法全方位融入社會生活的背景下提出的。信息的存在方式賦予了人權(quán)數(shù)字屬性,5 它主張數(shù)字科技要以人為本,把人的權(quán)利及尊嚴(yán)作為最高目的,以人權(quán)作為根本的劃界尺度和評價標(biāo)準(zhǔn),包括數(shù)據(jù)信息知情權(quán)、數(shù)據(jù)信息表達(dá)權(quán)、數(shù)據(jù)信息公平利用權(quán)、數(shù)據(jù)信息隱私權(quán)、數(shù)據(jù)信息財產(chǎn)權(quán)等。6 它提倡以公民隱私權(quán)、數(shù)據(jù)權(quán)、知識利益公平共享權(quán)等人權(quán)基本價值制約數(shù)字科技的開發(fā)與運用,確保其在公平、自由、正義、安全底線之內(nèi)運行。7 在算法推薦技術(shù)已經(jīng)廣泛應(yīng)用于搜索、社交、資訊定制平臺的當(dāng)下,個體出于信息獲取的便利性,或主動、或被動地向服務(wù)提供者讓渡自身部分?jǐn)?shù)字權(quán)利。算法推薦引發(fā)的倫理困境普遍產(chǎn)生于這種權(quán)利讓渡與濫用的情境中。

第一,隱私讓渡與全景監(jiān)控。

從權(quán)利功能來看,隱私權(quán)主要是為了保護個人私生活的安寧與私密性。隱私權(quán)的內(nèi)容包括維護個人的私生活安寧、個人私密不被公開、個人私生活自主決定等。對隱私權(quán)的侵害主要是非法的披露和騷擾。1 個人信息在內(nèi)容上是隱私的內(nèi)在組成部分,保護個人信息是為了捍衛(wèi)隱私權(quán)。隱私權(quán)主體有權(quán)不被干擾,而且對自身信息有自我決定權(quán)。2

如前文所述,算法推薦技術(shù)運行的基石是海量數(shù)據(jù)的采集,對個人信息的采集、使用行為的記錄、興趣偏好的判斷是信息定向推送的基礎(chǔ)。這意味著大量形象特征和行為數(shù)據(jù)的采集變得不可避免,這其中包含大量個體不想曝光的基本的人口統(tǒng)計信息、興趣偏好、地理位置行動軌跡、社交范圍、親屬關(guān)系群體、消費水平等。算法創(chuàng)設(shè)主體在收集個體基本數(shù)據(jù)的前提下,根據(jù)用戶行為、社交關(guān)系、地理位置等信息推斷其興趣偏好與需求,描繪用戶畫像,貼上數(shù)據(jù)標(biāo)簽,在此基礎(chǔ)上推送與用戶屬性相匹配的新聞內(nèi)容,更重要的是廣告內(nèi)容——這仍然是目前應(yīng)用最廣泛的變現(xiàn)模式。這些被算法創(chuàng)設(shè)主體采集,用以判別和定義用戶的“元數(shù)據(jù)”,是信息時代商業(yè)機構(gòu)競爭的重要戰(zhàn)略資源。數(shù)據(jù)采集是信息定制的前提,這意味著受眾個人必須“讓渡”一部分隱私數(shù)據(jù)使用權(quán)才能讓算法了解和定義個體,才能實現(xiàn)“千人千面”的專屬定制和精準(zhǔn)推送。就如進行衣服定制時,需提供個人的尺寸,進行信息定制,也需提供自己的“數(shù)據(jù)尺寸”。信息定制意味著信息暴露,個人讓渡的隱私數(shù)據(jù)尺度及其使用權(quán)不完全由個體所知、所掌控。個人數(shù)據(jù)的采集和使用范圍往往是秘而不宣的,中國的《網(wǎng)絡(luò)安全法》第41條規(guī)定,搜集個人的信息應(yīng)符合合法、正當(dāng)和必要三元素,3在實際情況中,數(shù)據(jù)的采集、采集范圍、使用范疇不被個人所知,即使在知情信息被采集的情況下,也會面臨“不同意即停用”的局面。網(wǎng)頁、應(yīng)用軟件、設(shè)備對信息收集的范圍往往遠(yuǎn)超它們提供正常服務(wù)所調(diào)用的必需權(quán)限。之所以要超過使用所必需的范圍采集信息數(shù)據(jù),在于更多的“元數(shù)據(jù)”意味著更為精準(zhǔn)的個體畫像,意味著更高的變現(xiàn)價值。而“元數(shù)據(jù)”的商品化,泄露、二次售賣現(xiàn)象早已不是個案,銀行、購物平臺都有泄露數(shù)據(jù)的先例。2019年9月20日中國青年網(wǎng)報道了網(wǎng)絡(luò)求職者“簡歷”被1元售賣的現(xiàn)象,被人民網(wǎng)官方微博轉(zhuǎn)載。全球最大社交平臺Facebook也多次卷入數(shù)據(jù)泄露的風(fēng)波,2018年更是因為5000萬用戶數(shù)據(jù)泄露的“劍橋分析事件”而接受調(diào)查。數(shù)量眾多、良莠不齊的設(shè)備對用戶數(shù)據(jù)進行普遍抓取,卻不一定有足夠的保護措施防止這些數(shù)據(jù)被盜,這意味著個人信息被獲取后其用途和是否會泄露成為不確定事件,隱私侵犯隱患成為常態(tài)。

隱私侵犯問題不僅在于個人私有信息的“公共暴露”,更在于無聲監(jiān)控和暗中利用,4 在于算法背后的技術(shù)與資本對個人的監(jiān)視、規(guī)訓(xùn)與剝削。5 這些無處不在、秘而不宣的數(shù)據(jù)掌控者對全景透明、無知無覺的個體造成了一種數(shù)字全景監(jiān)控,在這種不對等的身份條件下歧視和信息操縱變得有機可乘。

物聯(lián)網(wǎng)、云存儲等技術(shù)的發(fā)展使個人在互聯(lián)網(wǎng)上所有的蹤跡都變得有跡可循,絕對意義的私人領(lǐng)域不存在,理論上如果打通所有的數(shù)據(jù)渠道,是可以還原一個人在數(shù)據(jù)世界的生活圖景的。真正的個人空間和私域消失,某種程度上人在數(shù)據(jù)世界里變成了透明人,一種數(shù)字意義上的“全景監(jiān)控”成為可能,海量信息采集意味著海量的監(jiān)控。但是我們必須看到,個人隱私的存在和不被侵犯是對人性自由和尊嚴(yán)的尊重,是對自主權(quán)的捍衛(wèi),也是互聯(lián)網(wǎng)技術(shù)進一步發(fā)展的必然要求。在大數(shù)據(jù)時代,用隱私通貨(Privacy Currency)交換便利6似乎已經(jīng)變成不可避免的事情,但是隱私的邊界在何處,信息采集和調(diào)用如何規(guī)范,如何在尊重隱私的基礎(chǔ)上提供更便利的生活方式,在公共領(lǐng)域和私域之間找到平衡點,是我們進一步探索的重點。

第二,自主讓渡與規(guī)訓(xùn)操縱。

自主,或稱自治,是指建構(gòu)自己目標(biāo)和價值的能力,以及有自由做出自己的決定并根據(jù)這些決定采取行動的能力。1 接受算法推薦還意味著對個體自主性、獲取和處理信息的自我決策權(quán)進行部分讓渡,代表著接受算法替?zhèn)€人決策“看什么和不看什么”“多看什么少看什么”。麥克盧漢認(rèn)為,媒介是人的延伸,延伸意味著截除。算法被喻為人腦的延伸,我們賦予技術(shù)以“決策權(quán)”,在某種程度上是人的自主性被“截除”。而這種決策導(dǎo)向的單一性,壓縮了我們生活的自主性、偶然性、延展性。這種個性導(dǎo)向的邏輯容易加劇個體與真實、多元、多樣世界脫節(jié)的風(fēng)險。而信息的多元化、多樣性是個人進行認(rèn)知世界、自由交流、發(fā)表政治意見、按照自己的意志做出決策的基礎(chǔ),與受眾興趣和觀點匹配度高的信息會以更符合他們閱讀習(xí)慣的方式出現(xiàn)。通過算法過濾,屏蔽了真實世界的一部分。這種自主性的讓渡讓受眾變成被動接受信息投喂的單向度“信宿”,被動地接受自動化決策方案,壓縮了個體與多樣內(nèi)容的交互空間。

智能算法延伸了我們的智能判斷能力,也讓我們在技術(shù)中被馴化,逐漸喪失了思辨能力。在這種情況下,算法通過對個人數(shù)據(jù)的分析進行信息干預(yù),改變受眾態(tài)度和行為的風(fēng)險增大。此時,商業(yè)或其他力量的介入,會加劇對自我決策的侵蝕,如在線商業(yè)營銷、關(guān)鍵詞競價排名、基于搜索行為和內(nèi)容的廣告等。有研究者指出,基于興趣導(dǎo)向的算法推送,受眾所接觸信息的同質(zhì)性增加,接觸到的知識的多樣性減少,人類的自主性在認(rèn)知和行為層面都有了減退的風(fēng)險。2 以“今日頭條”為代表的多個資訊APP也因此備受詬病。此外,作為普通公民,“喜歡看到的信息”不等同于“需要知道的信息”。媒體建構(gòu)的擬態(tài)環(huán)境是人們認(rèn)知世界的重要來源,如果這一擬態(tài)環(huán)境的構(gòu)建只依據(jù)單一的興趣偏好原則,會更加限制受眾對真實世界的認(rèn)知,束縛在算法構(gòu)建的同質(zhì)化的信息繭房中?!靶畔⒗O房”(Information Cocoons)是凱斯·桑斯坦在《信息烏托邦》一書中提出的概念,他指出,公眾的信息需求并非全方位的,人們傾向于將自己包裹在自己感興趣的內(nèi)容中,從而將自己桎梏在一個“信息繭房”中。信息繭房提供了一個更自我的思想空間,將個人限制在有限的領(lǐng)域內(nèi),加劇認(rèn)知偏差,提高刻板印象和群體極化的風(fēng)險,加深了不同群體之間的交流鴻溝。更為重要的是,這些“繭房”邊界的設(shè)定中摻雜著算法開發(fā)者的意志,其篩選和推送機制裹挾著其他利益相關(guān)者的商業(yè)目的,其輸出結(jié)果執(zhí)行開發(fā)者利益最大化的原則,優(yōu)先推送那些最符合自身訴求的信息;通過有偏向的算法影響個體認(rèn)知、議程設(shè)置,這些經(jīng)過精心篩選后的信息加深了對個體的規(guī)訓(xùn)、操縱和剝削。

第三,知情侵犯與信息繭房。

知情權(quán)指知悉、獲取信息的自由與權(quán)利,包括對所征集的個人信息及基于這些信息加工的征信產(chǎn)品享有知情權(quán)。3 算法對知情權(quán)的威脅一方面體現(xiàn)在算法推薦邏輯單一帶來的“信息世界窄化”上;另一方面是個人信息在用戶“不知曉”的狀態(tài)下被采集和使用,還有“技術(shù)黑箱”的部分不可知。個體在接受算法的信息過濾機制的同時,也意味著在某種程度上同意“算法推送一個由算法邏輯為主導(dǎo)的不完整的世界”,而這個“算法邏輯”的加工和選擇機制并不完全被普通新聞用戶所熟知,算法在其中如何過濾和排序信息對絕大部分用戶而言是一個“技術(shù)黑箱”,4這造成傳播地位的嚴(yán)重不對等,普通用戶甚至對“算法推薦”的存在也渾然不知。用戶對算法和算法邏輯的不知情,影響他們對真實世界的認(rèn)知與判斷,進而影響了他們的社會公共參與。傳統(tǒng)的非算法推薦邏輯下的擬態(tài)環(huán)境雖然也窄化了信息世界,其篩選機制融入了專業(yè)機構(gòu)和把關(guān)人的社會公共價值考量,但是其過程是公開和可被審視的,而算法的過濾邏輯和價值導(dǎo)向并非如此。此外,技術(shù)和資本壟斷也構(gòu)成數(shù)字時代算法推薦對個體知情權(quán)的威脅,占據(jù)壟斷地位的行業(yè)巨頭變成了新聞信息流通道路上重要的“守門人”,其利益相關(guān)者的“有償新聞”和“有償不聞”也變得更加隱蔽,資本和技術(shù)對“熱搜榜”“頭條”競價排名等的過度介入威脅了普通公眾知悉事實真相的權(quán)利。

第四,平等侵犯與算法歧視。

平等的界定經(jīng)過了從形式平等到實質(zhì)平等的發(fā)展,實質(zhì)平等考慮個體之間的差別,給予不同對待,以在事實上達(dá)到平等。而人工智能算法個性化的推薦邏輯,會產(chǎn)生針對特殊主體的個體性規(guī)則,這種規(guī)則會突破法的一般性,產(chǎn)生馬太效應(yīng),造成實質(zhì)的不平等。1 谷歌相冊(Google Photos)將黑人分類為“大猩猩”的例子一度引起公眾對算法歧視的討伐。布魯諾等學(xué)者將算法歧視分為預(yù)先存在于數(shù)據(jù)、算法設(shè)計參與者之中的偏見,由算法的分類、優(yōu)化邏輯等引起的不公正,以及由于對數(shù)據(jù)權(quán)重設(shè)置不同引發(fā)的間接歧視行為三種。2歧視即區(qū)別對待,它意味著不平等和非正義。這也是算法推薦難以避免的一大難題,因為算法的一個重要運行邏輯是數(shù)據(jù)的“標(biāo)簽化”“類別化”,這是其進行后續(xù)量化分析與操作的重要基礎(chǔ),而個性化推薦就是對目標(biāo)個體展開劃分和進行區(qū)別化信息推送的過程。標(biāo)簽化與類別化也意味著“去個性化”,這種做法加深了“刻板印象”和社會偏見,容易對“類別”中的獨立個體造成誤判和傷害。而認(rèn)知上的偏見會導(dǎo)致行動上的歧視。在算法歧視中,數(shù)據(jù)采集、數(shù)據(jù)解讀的偏差,算法設(shè)計者的主觀思維上的偏見等環(huán)節(jié),都會引發(fā)最終執(zhí)行結(jié)果上的歧視行為。算法歧視導(dǎo)致在地區(qū)發(fā)達(dá)程度不同及收入水平和性別種族不同的人群間信息資源的分配不均,進一步擴大“數(shù)字鴻溝”。這種歧視和偏見通過算法推薦再次被人們吸收,偏見被固化,形成“自我實現(xiàn)的歧視性反饋循環(huán)”。3除了信息資源的不公正分配,算法歧視還體現(xiàn)在“價格歧視”上,典型的如某網(wǎng)約車平臺的“大數(shù)據(jù)殺熟”現(xiàn)象,在內(nèi)容付費時代,很難保證這種價格歧視不會遷移至知識付費、新聞付費領(lǐng)域。

當(dāng)然,偏見普遍存在于不同的文化中,算法作為人造物,不可避免地繼承了這些偏見,而且變得更加隱蔽。隨著算法推薦的擴散,其引發(fā)的風(fēng)險也變得更加不確定和不可預(yù)計。因此,在數(shù)據(jù)采集、分析和算法設(shè)計過程中,減少偏見,加強監(jiān)督和管理顯得更加重要。不同成因的算法歧視的治理路徑不同,研究者們普遍認(rèn)為通過公開算法的運行機制與設(shè)計意圖,接受公眾的監(jiān)督,能減少算法創(chuàng)設(shè)環(huán)節(jié)的人為偏見。此外,“機會平等原則”(Equality of Opportunity)和“人文主義精神”也被提議納入算法系統(tǒng)的設(shè)計中。4

第五,被遺忘讓渡與永久記錄。

“被遺忘權(quán)是指信息主體對已被發(fā)布在網(wǎng)絡(luò)上的,有關(guān)自身的不恰當(dāng)?shù)?、過時的、繼續(xù)保留會導(dǎo)致其社會評價降低的信息,要求信息控制者予以刪除的權(quán)利?!? 大數(shù)據(jù)、傳感器、物聯(lián)網(wǎng)等技術(shù)的出現(xiàn)使得個人在互聯(lián)網(wǎng)上所有的蹤跡都變得可循,而云存儲、擴容等技術(shù)使得這些數(shù)據(jù)的永久記錄成為可能。數(shù)字化記憶變成網(wǎng)絡(luò)信息時代的重要特征,個體和集體記憶的形態(tài)從生物記憶延伸到了數(shù)字空間。伴隨著對互聯(lián)網(wǎng)的使用,個體的身份信息、檢索數(shù)據(jù)、瀏覽痕跡、購買行為等會長久甚至永久地存儲在互聯(lián)網(wǎng)數(shù)據(jù)庫中。從個體在網(wǎng)絡(luò)上留下瀏覽或者內(nèi)容數(shù)據(jù)那一刻起,我們就逐漸喪失了對這些信息的掌控,對數(shù)據(jù)的控制與訪問權(quán)則被讓渡給了數(shù)據(jù)記錄者和占有者,他們通常是占據(jù)壟斷地位的科技公司、政府等機構(gòu)。6

數(shù)字化記憶的可訪問性、持久性、全面性以及由此所帶來的永久“凝視”,使我們面臨數(shù)字化在時間與空間上雙維度的介入。7 經(jīng)由一系列的數(shù)字行為軌跡的拼合,在多年之后仍然可以根據(jù)推測數(shù)據(jù)還原出用戶的個人畫像,人們可以想象,在網(wǎng)上不經(jīng)意的行為會被長久地記憶,可能成為引發(fā)某些事件的導(dǎo)火索。如加拿大心理咨詢師費爾德瑪在一本雜志中提到自己在20世紀(jì)60年代曾服用過致幻劑,由此,他在進入美國邊境時被扣留了4個小時。在社交、資訊、購物等平臺,小到抱怨、負(fù)能量,大到激烈的辯論和意見、態(tài)度的發(fā)表,情緒可能是一時的,但記錄是永久的,甚至在多年之后被當(dāng)作“黑歷史”再現(xiàn),影響個體的生活。從這個角度來說,它似乎縮小了個體“改過自新”的空間。面對這種個人信息和行為數(shù)據(jù)在網(wǎng)絡(luò)上長久留存可能帶來不可控的預(yù)期損耗和風(fēng)險,人們可能會在互聯(lián)網(wǎng)上選擇“噤若寒蟬”,導(dǎo)致所謂的寒蟬效應(yīng)(Chilling Effect):人們?yōu)榱吮苊獠豢深A(yù)知的潛在風(fēng)險,減少意見發(fā)表和對公共事務(wù)等的參與。

記憶倫理的核心問題是“誰在記憶”“記憶什么”“如何記憶”以及“如何表述記憶”。1 什么樣的機構(gòu)和組織可以去記憶,什么樣的數(shù)據(jù)可以被納入數(shù)據(jù)記憶這些都是需要進一步考察的問題。目前,這一領(lǐng)域的問題仍處在探討階段。2016年,中國頒布了《網(wǎng)絡(luò)安全法》,正式確認(rèn)個人對其網(wǎng)上個人信息的“刪除權(quán)”,即“個人發(fā)現(xiàn)網(wǎng)絡(luò)運營者違反法律、行政法規(guī)的規(guī)定或者雙方的約定收集、使用其個人信息的,有權(quán)要求網(wǎng)絡(luò)運營者刪除其個人信息?!? 這種“刪除權(quán)”并不完全等同于“被遺忘權(quán)”(Right to Be Forgotten),它更多是為了保障網(wǎng)絡(luò)信息傳播秩序的穩(wěn)定,而且技術(shù)上的實現(xiàn)也有困難。美國加州2014年通過了“橡皮”法律,用戶可以要求科技公司刪除涉及個人隱私的信息。2012年,歐盟在《通用數(shù)據(jù)保護條例》草案中也提出了“被遺忘權(quán)”。這些法律和條例的制定為“被遺忘權(quán)”在中國的本土化提供了一些借鑒與參考。在中國語境下,當(dāng)被遺忘權(quán)與公共利益沖突時,我們?nèi)绾谓缍ū贿z忘權(quán)的邊界,如何明晰被遺忘權(quán)與言論自由的權(quán)責(zé)關(guān)系,如何在公共領(lǐng)域的開放性和私人領(lǐng)域的不可侵犯性之間尋找平衡點,也同樣是我們需要進一步探索的問題。

除此之外,算法壓縮了偶然性,正如“我憑什么不想看新的東西”的邏輯所指涉的,3 算法推薦的邏輯是根據(jù)個體過去的行為軌跡預(yù)測其未來的行為傾向,從而投其所好,“投喂”符合其偏好的內(nèi)容。但在現(xiàn)實生活中,人的行為邏輯是復(fù)雜的、多樣化的,不是只有“過去+現(xiàn)在—未來”導(dǎo)向。個體的需求和成長具有發(fā)展性,行動邏輯還有目標(biāo)導(dǎo)向性,即“未來—現(xiàn)在”導(dǎo)向。就像人的口味會改變一樣,人的信息需求和生活目標(biāo)也會改變,一味根據(jù)過去的行為邏輯和標(biāo)簽投其所好只會禁錮個體的視野,限制其發(fā)展的更多可能性。從這個角度來說,算法推薦還影響了個人成長和發(fā)展的空間。另外,簡單粗暴的算法推薦對出版權(quán)、言論自由等權(quán)利也造成了不同程度的沖擊。

2.行業(yè)層面:觀念、主體性的變化與“算法囚徒”

算法推薦技術(shù)在新聞傳播領(lǐng)域的運用對新聞生產(chǎn)和傳播方式都產(chǎn)生了重要影響。算法的創(chuàng)設(shè)主體及其規(guī)則對專業(yè)新聞生產(chǎn)機構(gòu)的主體性、權(quán)威性造成了沖擊。平臺擁有絕對優(yōu)勢量的活躍用戶和優(yōu)質(zhì)內(nèi)容分發(fā)渠道,為實現(xiàn)新聞內(nèi)容更廣泛的傳播提供了必要條件,同時它們分散了主流媒體的受眾,而擁有采編權(quán)的專業(yè)新聞機構(gòu)和海量的UGC內(nèi)容則成為算法創(chuàng)設(shè)主體進行內(nèi)容分發(fā)的主要來源。新聞專業(yè)主義中的技能規(guī)范、組織倫理被非專業(yè)參與和技術(shù)改寫,把關(guān)、分發(fā)權(quán)力的遷移,生產(chǎn)、營利模式的改變,價值理性的削弱,產(chǎn)生了新聞專業(yè)主義的“控制危機”。4

而與傳統(tǒng)受過系統(tǒng)訓(xùn)練的專業(yè)新聞工作者把關(guān)不同,算法推薦機制以興趣為導(dǎo)向的邏輯無法實現(xiàn)對主流價值觀的引導(dǎo),進而新聞業(yè)的環(huán)境監(jiān)測、輿論監(jiān)督、價值引領(lǐng)職能也受到削弱。新聞業(yè)的合法基石在于向公眾提供可信賴的新聞信息服務(wù)。5新聞專業(yè)主義的核心理念是客觀性,新聞從業(yè)者秉持客觀、公正、中立的原則進行真實、準(zhǔn)確的報道,捍衛(wèi)公眾權(quán)利,也以此為準(zhǔn)則進行內(nèi)容的審核和把關(guān),以客觀立場反映社情民意。這是算法推薦光靠技術(shù)邏輯難以實現(xiàn)的。算法技術(shù)簡化了社會功能和意義豐富的新聞邏輯,并將其簡單處理為“信息”供求問題,通過點擊率、閱讀量等一系列指標(biāo)量化滿足用戶的喜好。這種去價值化、去意義化的做法將新聞簡化為一種無差別的“信息商品”,6 變成為商業(yè)資本服務(wù)的工具,而非實現(xiàn)新聞理想、追求社會公平正義的途徑。7 算法在本質(zhì)上不是中立的,是構(gòu)建和實施權(quán)力和知識的制度,其使用具有規(guī)范性含義。8 算法是由一系列代碼與公式組成的指令,旨在解決具體問題,而問題的性質(zhì)在被提出和界定之前就帶有強烈的背景和意圖,這也意味著算法推薦從誕生伊始就必然夾帶著算法創(chuàng)設(shè)主體的意志,因而,算法的中立性是一個偽命題。

這些資本和商業(yè)意圖在算法中的滲透,不僅改寫了從選題到內(nèi)容分發(fā)的各個新聞內(nèi)容生產(chǎn)(如新聞?wù)Z言萌化、泛娛樂化、興趣導(dǎo)向擠壓了嚴(yán)肅議題的空間)環(huán)節(jié),以用戶點擊和廣告售賣為效果導(dǎo)向也改寫了新聞創(chuàng)作的觀念,它將受眾個體的數(shù)字勞動和內(nèi)容創(chuàng)作者的創(chuàng)意工作都納入其資本擴張和增值的過程中,加劇了對受眾個體和內(nèi)容生產(chǎn)者原有的規(guī)訓(xùn)及剝削。

具體來說,內(nèi)容生產(chǎn)者方面,翟秀鳳通過對今日頭條、新浪微博、微信公眾號等五家大型網(wǎng)絡(luò)內(nèi)容平臺和相關(guān)內(nèi)容從業(yè)者進行深度訪談發(fā)現(xiàn),算法通過自動化指標(biāo)、工具理性和懲罰性機制對內(nèi)容生產(chǎn)者形成了規(guī)訓(xùn),使平臺目標(biāo)內(nèi)化為從業(yè)者的行為準(zhǔn)則和價值追求。新聞生產(chǎn)活動由強調(diào)媒介精英主體性價值的活動變成經(jīng)濟驅(qū)動型活動?!拔覀儾挥弥苯痈嬖V創(chuàng)作者應(yīng)該怎么做,只要我們把算法設(shè)計好就可以了……他們自然就明白怎么做才能分到錢。”在“越被推送越賺錢,越賺錢系統(tǒng)就越愿意推你”的“調(diào)教”下,內(nèi)容生產(chǎn)表現(xiàn)出“物化”勞動的情況,內(nèi)容創(chuàng)作者在一篇篇“10萬+”文章的驅(qū)動下成為平臺資本增值過程中的被剝削對象,如同外賣平臺的騎手遇到的“困在系統(tǒng)里”一樣,內(nèi)容生產(chǎn)者也遇到了這個算法困局。1

受眾個體層面,在大數(shù)據(jù)采集中,受眾的每一次瀏覽、點贊、分享等行為成為可以量化的、實現(xiàn)內(nèi)容運營KPI的數(shù)字勞動。受眾在使用內(nèi)容商品的同時,其行為本身也成為數(shù)據(jù)商品被二次販賣。從每千人成本(Cost Per Mille,縮寫CPM)、每點擊成本(Cost Per Click,縮寫CPC)、每行動成本(Cost Per Action,縮寫CPA),到日/月活躍用戶(Daily/Monthly Active User)的演化,使得受眾的注意力被販賣的明碼標(biāo)價過程更加精細(xì)。正如安德烈耶維奇提出的“互動性壓迫假說”(Interactive Repressive Hypothesis)所警示的,每當(dāng)我們被告知互動性是表達(dá)自己、反抗控制、顛覆權(quán)力的一種方式時,我們就需要警惕權(quán)力的詭計:煽動我們提供關(guān)于自己的信息,參與我們的自我分類,從而完成控制的循環(huán)。2 要警惕數(shù)據(jù)交互過程中的規(guī)訓(xùn)與交換。

3.社會層面:公共性的消減

大眾傳播權(quán)源自公民對自身知情權(quán)、表達(dá)權(quán)與對公共事務(wù)監(jiān)督權(quán)的讓渡。3 在中國,主渠道的媒體傳播屬于公權(quán)力的一部分;在西方國家,媒體也被稱為“第四權(quán)力”。媒體有讓公眾了解事物全貌、引導(dǎo)社會輿論的責(zé)任。但是隨著資本力量的流入,曾被哈貝馬斯喻為民主基石與公共領(lǐng)域的大眾傳播的公共性有減弱之勢。算法背后資本和技術(shù)開發(fā)主體的意志,代表的是少數(shù)股東的訴求,而非廣大公眾的利益,會過濾掉那些不利于算法開發(fā)者的信息。

由信息繭房引發(fā)的個體分散、知識溝擴大、群體極化、社會凝聚力降低的風(fēng)險,由熱度排行榜、內(nèi)容運營KPI引發(fā)的議程設(shè)置導(dǎo)向偏差,由算法黑箱引發(fā)的偏見和歧視風(fēng)險,由算法規(guī)訓(xùn)對內(nèi)容生產(chǎn)者主體性的削弱,由興趣導(dǎo)向培養(yǎng)的娛樂化、單向度個體等方面,消減了媒體空間的公共性。媒體作為社會公器的監(jiān)督作用被減弱,傳播環(huán)境中意見的多元空間被擠壓,“澄清謬誤、明辨是非”的思辨與批判機制也受到了沖擊。數(shù)字空間的永久記憶造成的寒蟬效應(yīng)降低了公共參與精神被培育的可能性,構(gòu)建了溝通壁壘和偏見。數(shù)據(jù)標(biāo)簽體系的建立助長了刻板印象的產(chǎn)生,不利于整個社會民主和協(xié)商之風(fēng)的形成??傮w來說,由資本操控的算法信息采集和把關(guān)機制,編織了一個有利于資本的信息氣候,破壞了輿論的公共空間。

三、算法推薦技術(shù)倫理失范的原因及對策探討

算法推薦技術(shù)引發(fā)的一系列倫理問題,究其根本,一方面是由算法技術(shù)天然自帶的特性造成的,另一方面是由“新聞邏輯”和“技術(shù)邏輯”之間的不適配導(dǎo)致的。技術(shù)邏輯是問題導(dǎo)向,算法推薦重在解決信息資源在傳受雙方間的最佳匹配問題,其核心是提高效率。而新聞邏輯著眼于社會公平問題,除了提供信息、引導(dǎo)輿論、教育大眾外,還承擔(dān)著重要的監(jiān)測環(huán)境、輿論監(jiān)督等功能。算法推崇“用戶”思維,著眼于信息生產(chǎn)和分發(fā)的效率;新聞業(yè)推崇“公眾”思維,著眼于社會公平正義、民生福祉。兩者著眼點的不同導(dǎo)致在融合初期出現(xiàn)眾多不適配現(xiàn)象。隨著商業(yè)資本的介入,算法中還滲透了商業(yè)邏輯,對公共利益和個人的價值、權(quán)利造成忽視。此外,也存在管理、法律、監(jiān)管等諸多外部因素。而受眾層面,娛樂主義和商業(yè)主義的盛行形成了整體的信息偏好,這種意見氣候助長了算法的單一價值取向。算法迎合受眾的興趣偏好,進一步推動了受眾脫離公共空間。因此,筆者將分別從這技術(shù)與資本、法律與倫理、個人的媒介素養(yǎng)與數(shù)字素養(yǎng)三個方面分析算法推薦技術(shù)倫理失范的原因,探討可能的解決路徑。

1.技術(shù)與資本

壟斷資本對工具理性的過度依賴以及算法的不透明性是引發(fā)算法推薦技術(shù)倫理失范的兩個重要來源,偏見、歧視和規(guī)訓(xùn)也建立在此基礎(chǔ)上。

對工具理性的過度依賴是由資本的逐利性導(dǎo)致的,在對算法的運用過程中,商業(yè)主題追求的是推送的精準(zhǔn)度和用戶黏度,而非人性需求和多元化。算法創(chuàng)設(shè)主體在設(shè)計算法規(guī)則時應(yīng)當(dāng)分配更多的權(quán)重在公共價值和人文關(guān)懷方面,增加對公平、正義、人性尊嚴(yán)的考量,從源頭上減少算法剝削、霸權(quán)和濫用。必要時,行政、法律力量需要介入打破技術(shù)與資本的壟斷,以達(dá)到制約和平衡算法技術(shù)的工具理性與價值理性之間關(guān)系的目的。

算法的不透明,部分是由技術(shù)壟斷和商業(yè)機密導(dǎo)致的,部分是由對機器算法執(zhí)行結(jié)果的不可理解導(dǎo)致的,即人類目前對這個技術(shù)的認(rèn)識還存在未知的部分。前者需要建立合理的算法審查機制加以約束,以保證其設(shè)計與運行結(jié)果的合法性。而對機器不可知的部分需要我們在技術(shù)上進一步推進在計算機技術(shù)方面的研究,減少不可控制的風(fēng)險。通過行業(yè)和行政的干預(yù)力量,落實“可理解的透明度”,1 公布算法黑箱中存在的技術(shù)和價值取向,接受公眾的審視,是規(guī)范算法的重要途徑。有研究者總結(jié)了研究算法的六種方法,認(rèn)為結(jié)合使用兩種或兩種以上的方法有助于我們揭示算法的本質(zhì)和工作原理,即:檢查偽代碼/源代碼(Examining Pseudo-code/Source-code)、反身地生成代碼(Re?exively Producing Code)、逆向工程(Reverse Engineering)、采訪設(shè)計人員或?qū)幋a團隊進行民族志研究(Interviewing Designers or Conducting an Ethnography of a Coding Team)、解開算法的全部社會—技術(shù)組合(Unpacking the Full Socio-technical Assemblage of Algorithms)和研究算法究竟是如何運作的(Examining How Algorithms Do Work in the World)。2

除此之外,技術(shù)本身的缺陷也是引發(fā)倫理困境的原因。機器算法作為“物”,沒有作為人的高級情感,不能完全取代記者和編輯進行道德倫理判斷、人文關(guān)懷和獨立的價值識別。算法作為一種機器語言,也無法對非量化、不能被定義的內(nèi)容做出識別。只有將意涵豐富的內(nèi)容簡化為一系列指標(biāo),將內(nèi)容數(shù)據(jù)化、將“社會人”數(shù)據(jù)化,才能進入其判斷體系。這個過程是簡單粗暴的類別化過程和去“社會人”過程。它將“社會人”視作數(shù)據(jù)商品的提供者和消耗體,將“社會人”數(shù)據(jù)化、機器化,消解人作為人不能被算法系統(tǒng)所識別的特征。這是技術(shù)科學(xué)與社會人文之間的根本差異。正如哈貝馬斯所說,科技進步導(dǎo)致人對精神價值的忽視,并將自己作為生產(chǎn)要素,淪為機器和金錢的附屬品。在算法推薦中,我們也看到這種技術(shù)反客為主,人的主體性削弱、異化的趨勢。3 也由此,我們重新突出人在技術(shù)環(huán)境中的主體性地位。

2.法律與倫理

目前,對人工智能、算法、數(shù)據(jù)采集等技術(shù)進行管理的機制與法律還不健全。在智能技術(shù)已經(jīng)廣泛應(yīng)用到傳播實踐中的當(dāng)下,規(guī)范與管理嚴(yán)重滯后于技術(shù)發(fā)展的步伐,傳媒立法滯后,使算法推薦倫理失范現(xiàn)象和侵權(quán)的灰色產(chǎn)業(yè)有了可乘之機,也使得算法創(chuàng)設(shè)主體有了逃避責(zé)任、壟斷的機會。在算法使用的管理方面,一方面,要明確責(zé)任主體,規(guī)范算法研發(fā)者、運營者和使用者各自的權(quán)利與義務(wù)關(guān)系;另一方面,面對算法引發(fā)的具體倫理和法律問題,要建立健全審查機制,建立包含新聞、法律和倫理相關(guān)專家的監(jiān)察機構(gòu)審核算法原理及決策過程,4 通過立法或行政干預(yù)鼓勵優(yōu)質(zhì)主旋律內(nèi)容的生產(chǎn)和傳播。5

當(dāng)前部分國家和地區(qū)已將人工智能立法提上日程。2018年5月生效的歐盟《一般性數(shù)據(jù)保護法案》(General Data Protection Regulation,縮寫GDPR)給予用戶申請基于算法得出結(jié)論的解釋權(quán)。美國紐約州為了解決政務(wù)系統(tǒng)算法歧視問題于2017年12月通過了算法問責(zé)法案。這些案例都為中國在法律法規(guī)方面建立健全算法管理機制提供了借鑒意義。有學(xué)者針對個人信息權(quán)的保護提出“新數(shù)據(jù)權(quán)”權(quán)利束的概念,提倡通過立法保障由算法推薦技術(shù)叢引發(fā)的知情同意權(quán)、數(shù)據(jù)采集權(quán)、修改權(quán)、可攜權(quán)、被遺忘權(quán)(刪除權(quán))、管理權(quán)、支配權(quán)、使用權(quán)、收益權(quán)等。1

此外,規(guī)范的行業(yè)倫理守則是行業(yè)健康發(fā)展不可或缺的條件。增加算法透明性和建立成熟的倫理守則有助于算法相關(guān)技術(shù)的健康發(fā)展。算法推薦技術(shù)在新聞傳播領(lǐng)域的運用使得新聞倫理需要約束的范圍擴展到相關(guān)的技術(shù)人員、算法工程師??傮w來說,新聞專業(yè)主義的核心價值訴求依然能成為構(gòu)建新的倫理規(guī)范的內(nèi)核所在。此外,還要將人工智能倫理中的相關(guān)原則吸納進對算法推薦技術(shù)的管理中。目前國內(nèi)人工智能領(lǐng)域缺少統(tǒng)一的、公認(rèn)的行業(yè)規(guī)范,雖然有少數(shù)幾家公司在監(jiān)管部門的督促下提出了一些可行性方案,但是整體來看,行業(yè)自律領(lǐng)域還處于缺位狀態(tài)。2019年,歐盟委員會發(fā)布了人工智能倫理準(zhǔn)則,列出了人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉、問責(zé)機制7個確保人工智能足夠安全可靠的關(guān)鍵條件。這7個關(guān)鍵條件,充分考慮了人的主體地位,尊重基本人權(quán),雖然目前在實操層面可能存在一些困難,但也為我們結(jié)合國內(nèi)實際情況制定規(guī)范的算法使用的倫理準(zhǔn)則,以及行業(yè)和行政干預(yù)提供了參考。

此外,還有學(xué)者提出,面對倫理困境,相對于道德規(guī)范的建構(gòu),倫理原則的確立具有更高的學(xué)術(shù)價值和現(xiàn)實意義。不少研究集中在“社會責(zé)任原則”“真實原則”“客觀原則”“公正原則”和“善良原則”的討論上,也有學(xué)者提倡應(yīng)該將“公平、準(zhǔn)確、透明、可解釋、可審計、責(zé)任等原則”囊括進算法責(zé)任倫理體系,認(rèn)為算法的設(shè)計要體現(xiàn)社會公平,考慮社會的多元性和不同的價值觀,考量利益相關(guān)者的權(quán)益,盡量避免因偏見的數(shù)據(jù)或偏見的算法設(shè)計導(dǎo)致對某一特定群體的歧視。2

3.個人的媒介素養(yǎng)與數(shù)字素養(yǎng)

媒介素養(yǎng)指受眾對媒介信息的解讀、批判和使用能力。在受眾作為內(nèi)容產(chǎn)消者(Prosumer)的當(dāng)下,研究者指出,公眾媒介素養(yǎng)應(yīng)該包括媒介使用、信息生產(chǎn)、信息消費、社會交往、社會協(xié)作和社會參與等在內(nèi)的素養(yǎng)。3 個性化推薦算法的邏輯起點是迎合受眾的內(nèi)容偏好,因此,個體對內(nèi)容的喜愛偏好的低俗化、泛娛樂化也對算法單一價值取向負(fù)有不可推卸的責(zé)任。在數(shù)字化、智能化已經(jīng)深度嵌入日常生活各個方面的當(dāng)下,如果受眾個體不具備基本的數(shù)字素養(yǎng),將無法正確地運用以此技術(shù)為基礎(chǔ)的產(chǎn)品和服務(wù),容易落入被詐騙、被商業(yè)或其他力量操縱的陷阱,因此,數(shù)字素養(yǎng)被聯(lián)合國認(rèn)為是數(shù)字時代的基本人權(quán)。4 媒介素養(yǎng)和數(shù)字素養(yǎng)之所以和人權(quán)息息相關(guān),是因為人們從媒體環(huán)境中獲取和發(fā)布信息的過程已經(jīng)成為個體參與公共生活、表達(dá)民主意見的重要途徑。因此,培養(yǎng)受眾個體對內(nèi)容需求的多樣性、理解能力和批判能力也是保障數(shù)字人權(quán)的重要層面,它能提升公眾參與公共生活度,促進信息生態(tài)和意見環(huán)境的良性發(fā)展,也會對算法失范行為產(chǎn)生批判制約。

四、結(jié)語

總體來說,從數(shù)字人權(quán)的角度看,算法推薦技術(shù)中的兩個環(huán)節(jié)——個人信息采集和邏輯過濾,分別導(dǎo)致個人信息的隱私權(quán)、知情權(quán)、被遺忘權(quán)受威脅;平等權(quán)、“自決權(quán)”受侵犯。在這種權(quán)利讓渡與濫用中,造成了算法主體和使用者之間關(guān)系的不對等,增加了算法歧視、霸權(quán)、剝削的風(fēng)險,也帶來信息安全、信息操縱、信息繭房和極化等方面的擔(dān)憂。從行業(yè)和社會層面看,算法推薦對內(nèi)容工作者和受眾整體主體性的削弱,減弱了社會公共性。我們探討算法推薦技術(shù)帶來的問題,并非要排斥算法,將其關(guān)回潘多拉魔盒中。比起算法本身,我們更加關(guān)注算法背后的評價體系、價值導(dǎo)向、設(shè)計原則,以此,試圖為算法推薦技術(shù)在公共利益和商業(yè)利益、個人價值和技術(shù)價值之間的平衡尋找更多可能性,從數(shù)字人權(quán)的角度出發(fā),探索算法推薦技術(shù)在新聞傳播領(lǐng)域中規(guī)范性、合法性運用的路徑。技術(shù),是新聞權(quán)力生成的重要來源之一。不可否認(rèn),無論是在以報紙、廣播、電視、雜志為主導(dǎo)的傳統(tǒng)媒體時代,還是算法滲入全民生活的智能傳播時代,“傳播即權(quán)力”都需要通過有關(guān)傳播的一系列技術(shù)來實現(xiàn),技術(shù)一直形塑著傳播內(nèi)容與傳播主體間的關(guān)系。但技術(shù)從來只是手段,人才是最終目的。在算法推薦技術(shù)的發(fā)展中,尊重人的主體地位,尊重人權(quán)價值,有助于我們加深對這一問題實然性的理解和應(yīng)然性的建構(gòu)。

A Legal Ethical Reflection on Personalized Algorithmic

Recommendation Technologies

KUANG Wenbo

Abstract: The emergence of algorithm recommendation technology makes the traditional gate-keeping power centered on editors partially migrate to the main body of algorithm creation. The algorithm-centered “technology cluster” is to a certain extent endowed with powers such as information collection, recording, filtering, classification, push, and storage. However, the motivation behind these powers and the results of their implementation are not all ethical. The issues of information cocoon, data misuse, and algorithmic black boxes pose different degrees of threats to the individuals right to privacy, right to information, right to equality, and right to be forgotten. The application of algorithm recommendation technology in the field of journalism has brought about the collision of technical logic and news logic, the export of commercial and capital values, and brought new dilemmas to digital human rights and public values. ?Accordingly, the paper starts from the perspective of legal ethics, takes rights as the logical starting point, approaches from the prior values of freedom, justice, privacy, autonomy, and human dignity in digital human rights, and reinterprets the impacted ethical core in issues such as algorithmic black box and information cocoon. Furthermore, the paper also clarifies the threats to the rights of individuals, industries and society caused by algorithmic recommendation technology in the intelligent communication environment, reflects on the reasons of this status quo. Finally, the paper attempts to propose feasible solutions and suggestions, advocates the regulation of algorithm technology with human rights value, and attaches importance to human values and respects human subject position in the development of algorithmic recommendation technology.

Key words: digital human rights; legal ethics; algorithmic discrimination;privacy violation

(責(zé)任編輯:蘇建軍)

猜你喜歡
信息繭房
淺析基于算法的個性化信息推送服務(wù)
新聞客戶端個性化推薦引發(fā)的“信息繭房”現(xiàn)象
后真相時代的信息傳受方式與應(yīng)對路徑
微時代大學(xué)生“信息繭房”效應(yīng)干預(yù)
“信息繭房”與高校思想政治教育應(yīng)對途徑思考
社交媒體時代下新聞產(chǎn)需變化芻議
“信息繭房”禁錮了我們的雙眼
“信息繭房”禁錮了我們的雙眼(觀察家)
科技| 灵寿县| 亳州市| 嘉定区| 邯郸市| 芦山县| 鄱阳县| 宁陕县| 绍兴市| 新蔡县| 长武县| 福清市| 岳西县| 榆树市| 罗源县| 宁陵县| 沂南县| 晋江市| 安仁县| 公安县| 枣阳市| 遂昌县| 安泽县| 丽江市| 高安市| 右玉县| 贵定县| 石城县| 永胜县| 河间市| 鄄城县| 河北省| 宜春市| 元谋县| 湘西| 徐闻县| 麦盖提县| 绥芬河市| 株洲县| 资中县| 宁乡县|