匡文波
(中國人民大學(xué)新聞學(xué)院,北京 100872)
人工智能、5G、大數(shù)據(jù)等技術(shù)在新聞傳播領(lǐng)域生產(chǎn)、分發(fā)和傳播等環(huán)節(jié)的滲透給傳媒生態(tài)造成了廣泛而深刻的影響。 當(dāng)前,雖然人工智能技術(shù)在傳媒領(lǐng)域的應(yīng)用還處在初級階段,但已經(jīng)成為一個(gè)備受關(guān)注的問題。 人工智能的核心在于算法,算法的社會本質(zhì)是一種權(quán)力。 作為數(shù)據(jù)與人工智能的節(jié)點(diǎn),算法在新聞內(nèi)容生產(chǎn)和分發(fā)環(huán)節(jié)中起著關(guān)鍵的邏輯控制作用,在信息的準(zhǔn)入、準(zhǔn)出方面發(fā)揮著重要的過濾作用,在檢索、分類方面發(fā)揮著記錄和判定作用。 正如斯科特·拉什(Scott Lash)所說,“在一個(gè)媒體和代碼無處不在的社會,權(quán)力越來越存在于算法之中”[1]。 算法技術(shù)的運(yùn)用,不僅對原有的傳媒生態(tài)進(jìn)行了重新賦能與賦權(quán),還影響和解構(gòu)了以往的權(quán)力模式。 算法在給普通用戶提供個(gè)性化信息服務(wù)、提高信息生產(chǎn)效率、緩解信息過載難題的同時(shí)也引發(fā)了一系列倫理問題。 在媒體和代碼滲入日常生活的當(dāng)下,傳統(tǒng)的新聞傳播倫理問題如虛假新聞、新聞尋租等仍然存在,甚至被放大,變得更加隱蔽和難以控制, 而新技術(shù)賦權(quán)帶來的數(shù)據(jù)泄露、隱私侵犯,“信息繭房”風(fēng)險(xiǎn),知情權(quán)、自主決策權(quán)、被遺忘權(quán)不同程度受到?jīng)_擊等新問題也層出不窮。 用戶行為數(shù)據(jù)足跡的永久存儲、全景監(jiān)獄式的無縫監(jiān)視[2],以及個(gè)人數(shù)據(jù)信息過度商品化、算法黑箱等傳播倫理問題成為新聞傳播研究領(lǐng)域備受關(guān)注的議題。 現(xiàn)有研究多從某一視角或個(gè)案切入,聚焦于算法帶來的某一具體倫理問題,本文試圖以整體視角審視算法給受眾個(gè)人、行業(yè)和社會層面帶來的倫理困境,并提出可行的解決對策和建議。
1.隱私讓渡與全景監(jiān)獄
算法在傳播領(lǐng)域一個(gè)重要的應(yīng)用是個(gè)性化信息的智能推送。 信息分發(fā)主體在收集用戶基本數(shù)據(jù)的基礎(chǔ)上,根據(jù)用戶行為、社交關(guān)系、地理位置等信息推斷其興趣偏好與需求,描繪用戶畫像,打上數(shù)據(jù)標(biāo)簽,在此基礎(chǔ)上推送給用戶“喜聞樂見”的信息商品。 目前用于新聞分發(fā)的算法主要包括3 種:協(xié)同過濾(Collaborative filtering recommendation)、基于內(nèi)容的推薦(Content-based recommendation)和關(guān)聯(lián)規(guī)則推薦。 其中協(xié)同過濾系統(tǒng)包含基于記憶的(Memory-based)和基于模型的(Model-based)協(xié)同過濾[3],其基本思路是通過對內(nèi)容、個(gè)人、環(huán)境(場景)特征的判斷,進(jìn)行信息匹配。 對個(gè)人數(shù)據(jù)的采集、使用行為的記錄是信息定向推送的基礎(chǔ),這些信息是用來判別和定義用戶的“元數(shù)據(jù)”,也是信息時(shí)代商業(yè)機(jī)構(gòu)競爭的重要戰(zhàn)略資源。 數(shù)據(jù)采集是信息定制的基礎(chǔ),這意味著受眾個(gè)人必須要“讓渡”一部分隱私數(shù)據(jù)使用權(quán)才能讓算法了解和定義自己,才能實(shí)現(xiàn)“千人千面”的專屬定制和精準(zhǔn)推送。就像進(jìn)行衣服定制時(shí)要提供自己的尺寸,要進(jìn)行信息定制,也要提供自己的數(shù)據(jù)。 信息定制意味著信息暴露,而信息暴露的程度卻并不完全取決于受眾個(gè)人。
在實(shí)踐中,這些“元數(shù)據(jù)”大多在個(gè)人不知情的情況下被采集,而且還存在數(shù)據(jù)泄露和二次售賣問題,“元數(shù)據(jù)”商品化現(xiàn)象廣泛存在。 2019 年9 月20日中國青年網(wǎng)報(bào)道了網(wǎng)絡(luò)求職者“簡歷”被一元售賣的現(xiàn)象,被人民網(wǎng)官方微博轉(zhuǎn)載。 全球最大社交平臺Facebook 也多次卷入數(shù)據(jù)泄露風(fēng)波,2018 年更是因?yàn)?000 萬用戶數(shù)據(jù)泄露的“劍橋分析事件”而接受調(diào)查。 此外,部分應(yīng)用或者設(shè)備在用戶知情卻不能拒絕(“不同意就停用”)的情況下獲取遠(yuǎn)超過自身正常應(yīng)用需要調(diào)用的用戶權(quán)限,獲得用戶的數(shù)據(jù)信息。 數(shù)量眾多、良莠不齊的各類設(shè)備對用戶數(shù)據(jù)進(jìn)行普遍抓取,這意味著個(gè)人信息被獲取后其用途和是否會泄露成為了不確定事件,隱私侵犯隱患成為常態(tài)。
云存儲和5G 技術(shù)的出現(xiàn)使得個(gè)人在互聯(lián)網(wǎng)上所有的蹤跡都變得有跡可循,絕對意義的私人領(lǐng)域已不存在。 理論上,如果打通所有的數(shù)據(jù)渠道,是可以還原一個(gè)人在數(shù)據(jù)世界的生活圖景的,真正的個(gè)人空間和私域消失,某種程度上,人在數(shù)據(jù)世界里變成了透明人。 信息化、數(shù)據(jù)化已成為不可阻擋的浪潮,但是我們拒絕過度的隱私信息采集。 個(gè)人隱私不被侵犯是對人性自由和尊嚴(yán)的尊重,是對自主權(quán)的捍衛(wèi),也是互聯(lián)網(wǎng)技術(shù)進(jìn)一步發(fā)展的必然要求。 在大數(shù)據(jù)時(shí)代,我們是否真的愿意用隱私通貨(privacy currency)交換便利[4]? 隱私的邊界在何處? 信息采集和調(diào)用的邊界在何處? 如何規(guī)范數(shù)據(jù)采集方處理和分析的權(quán)限?要回答和解決這些問題,亟待建立算法對個(gè)人數(shù)據(jù)的調(diào)用與分析規(guī)范。
算法推薦的基礎(chǔ)是對用戶數(shù)據(jù)場景信息的分析, 因此海量信息的采集成為不可避免的選擇,而海量的數(shù)據(jù)也意味著海量的監(jiān)控,個(gè)人的閱讀、行動、消費(fèi)軌跡在大數(shù)據(jù)下都變得有跡可循,傳統(tǒng)意義上個(gè)人對國家和公共機(jī)構(gòu)不透明的空間基本消失,個(gè)體暴露于數(shù)字化的全景監(jiān)獄,算法背后的技術(shù)與資本完成了對個(gè)人的監(jiān)視、規(guī)訓(xùn)與剝削[5]。
2.自主讓渡與規(guī)訓(xùn)操縱
信息定制化推送還意味著“自主權(quán)”的讓渡,個(gè)人用戶接受定制化信息服務(wù)意味著在一定程度上接受了算法代替?zhèn)€人決策“看什么不看什么”“多看什么少看什么”內(nèi)容,從而構(gòu)建了一個(gè)由算法意志和部分個(gè)人意志共同決定的“擬態(tài)環(huán)境”。 經(jīng)過雙重篩選后的信息在內(nèi)容和觀點(diǎn)上都有極強(qiáng)的興趣導(dǎo)向,與真實(shí)的多元和多樣化世界脫節(jié)。 與受眾興趣和觀點(diǎn)匹配度高的信息會以更符合他們閱讀習(xí)慣的方式出現(xiàn),通過算法過濾,屏蔽了一部分真實(shí)世界。 自主決策權(quán)的讓渡讓受眾變成被動接受信息投喂的“信宿”。 麥克盧漢認(rèn)為,媒介即人的延伸,延伸意味著截除。 智能算法延伸了我們的智能判斷能力,也讓我們在技術(shù)中被馴化,逐漸喪失了思辨能力。 在這種情況下,算法通過對個(gè)人數(shù)據(jù)的分析進(jìn)行信息干預(yù),改變受眾態(tài)度和行為的風(fēng)險(xiǎn)大大提高。 有學(xué)者指出,基于興趣導(dǎo)向的算法推送導(dǎo)致受眾所接觸信息的同質(zhì)性增加,知識多樣性減少,人類的自主權(quán)在認(rèn)知和行為層面都有了減退的風(fēng)險(xiǎn)[6]。 以今日頭條為代表的多個(gè)資訊APP 也因此備受詬病。 此外,作為普通公民,“想知道的信息”不等同于“需要知道的信息”。 媒體建構(gòu)的擬態(tài)環(huán)境是人們認(rèn)知世界的重要工具,它已經(jīng)不可避免地與真實(shí)世界有所偏離,如果信息的分發(fā)與推送只依據(jù)單一的興趣偏好原則,會更加限制受眾對真實(shí)世界的認(rèn)知,使受眾被束縛在算法構(gòu)建的信息繭房中。同質(zhì)化的信息來源容易造成認(rèn)知偏差、刻板印象和群體極化。 “信息繭房”(Information Cocoons)是凱斯·桑斯坦在《信息烏托邦》一書中提出的概念,他指出,公眾的信息需求并非全方位的,人們傾向于將自己包裹在感興趣的內(nèi)容中,從而將自身桎梏在一個(gè)“信息繭房”中。 信息繭房提供了一個(gè)更自我的思想空間,將個(gè)人限制在有限的領(lǐng)域內(nèi),加深了不同群體之間的交流鴻溝。 這些“繭房”邊界的設(shè)定中摻雜著算法開發(fā)者的意志,其篩選和推送機(jī)制裹挾著其他利益相關(guān)者的商業(yè)目的,其輸出結(jié)果也必然執(zhí)行開發(fā)者利益最大化的原則,優(yōu)先推送那些最符合自身訴求的信息,通過有偏向的算法影響個(gè)體認(rèn)知和議程設(shè)置,這些經(jīng)過精心篩選的信息共同完成了對個(gè)體的規(guī)訓(xùn)和操縱。
3.知情讓渡與“技術(shù)黑箱”
知情權(quán)原指知悉、 獲取信息的自由與權(quán)利,在數(shù)字時(shí)代,知情權(quán)還包括對自己被提取的個(gè)人信息及其用途有知悉的權(quán)利[7]。 算法對知情權(quán)的威脅體現(xiàn)在算法推薦邏輯單一帶來的“信息世界窄化”、個(gè)人信息在用戶“不知曉”的狀態(tài)下被采集和使用以及“技術(shù)黑箱”的部分不可知。
個(gè)體在接受算法的信息過濾機(jī)制的同時(shí),也意味著在某種程度上默許“同意算法推送一個(gè)由算法邏輯為主導(dǎo)的不完整的世界”,而這個(gè)“算法邏輯”的加工和選擇機(jī)制并不完全被普通新聞用戶所熟知,算法在其中如何過濾和排序信息對絕大部分用戶而言是一個(gè)“技術(shù)黑箱”[8],這造成傳播地位的嚴(yán)重不對等,普通用戶甚至對“算法推薦”的存在都渾然不知。 用戶對算法和算法邏輯的不知情,干擾了他們對真實(shí)世界的認(rèn)知與判斷,進(jìn)而影響其社會公共參與。 傳統(tǒng)的非算法推薦邏輯下的的擬態(tài)環(huán)境雖然也窄化了信息世界,但是其篩選機(jī)制融入了專業(yè)機(jī)構(gòu)和把關(guān)人的社會公共價(jià)值考量,且其過程是公開和可被審視的,但是算法的過濾邏輯和價(jià)值導(dǎo)向卻并非如此。
技術(shù)和資本壟斷也構(gòu)成數(shù)字時(shí)代算法推薦對個(gè)體知情權(quán)的威脅,占據(jù)壟斷地位的行業(yè)巨頭變成了新聞信息流通道路上重要的“守門人”,其利益相關(guān)者的“有償新聞”和“有償不聞”也變得更加隱蔽,資本和技術(shù)對“熱搜榜”“頭條”競價(jià)排名等的過度介入威脅了普通公眾知悉事實(shí)真相的權(quán)利。
4.平等讓渡與算法歧視
歧視即區(qū)別對待,它意味著不平等和非正義。算法歧視是由于算法開發(fā)者或使用者在運(yùn)用算法時(shí)根據(jù)算法邏輯對目標(biāo)對象進(jìn)行劃分并施以區(qū)別對待而產(chǎn)生的。 這也是算法推薦難以避免的一大難題,因?yàn)樗惴ǖ囊粋€(gè)重要運(yùn)行邏輯是數(shù)據(jù)的“標(biāo)簽化”“類別化”,這是其進(jìn)行后續(xù)量化分析與操作的重要基礎(chǔ)。 標(biāo)簽化與類別化也意味著 “去個(gè)性化”,這種做法加深了“刻板印象”和社會偏見,容易對“類別”中的獨(dú)立個(gè)體造成誤判和傷害。 而認(rèn)知上的偏見會導(dǎo)致行動上的歧視, 在算法歧視中,數(shù)據(jù)采集、數(shù)據(jù)解讀的偏差,算法設(shè)計(jì)者主觀思維上的偏見等因素都會引發(fā)最終執(zhí)行結(jié)果上的歧視行為[9]。 算法歧視導(dǎo)致不同地區(qū)、收入水平和性別種族的人群間信息資源的分配不均,進(jìn)一步擴(kuò)大“數(shù)字鴻溝”。 這種歧視和偏見通過算法推薦再次被人們所吸收,偏見被固化,形成“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”[9]。 除了信息資源的不公正分配,算法歧視還體現(xiàn)在“價(jià)格歧視”上,典型的如某網(wǎng)約車平臺的“大數(shù)據(jù)殺熟”現(xiàn)象。 在內(nèi)容付費(fèi)時(shí)代,很難保證這種價(jià)格歧視不會遷移至知識付費(fèi)、新聞付費(fèi)領(lǐng)域。
偏見普遍存在于不同的文化中,算法作為人造物,不可避免地繼承了這些偏見,而且使之變得更加隱蔽。 隨著算法推薦的擴(kuò)散,其引發(fā)的風(fēng)險(xiǎn)也變得更加不確定和不可預(yù)計(jì)。 因此,在數(shù)據(jù)采集、分析和算法設(shè)計(jì)過程中減少偏見,加強(qiáng)監(jiān)督和管理顯得更加重要。 不同成因的算法歧視需要不同的治理路徑,研究者們普遍認(rèn)為通過公開算法的運(yùn)行機(jī)制與設(shè)計(jì)意圖、接受公眾的監(jiān)督能減少算法創(chuàng)設(shè)環(huán)節(jié)的人為偏見。 此外,“機(jī)會平等原則”(Equality of Opportunity)和“人文主義精神”也被提議納入到算法系統(tǒng)的設(shè)計(jì)中[10]。
5.被遺忘讓渡與永久記錄
數(shù)字化記憶是網(wǎng)絡(luò)信息時(shí)代的重要特征,個(gè)體和集體記憶的形態(tài)從生物記憶延伸到了數(shù)字空間。伴隨著對互聯(lián)網(wǎng)的使用,個(gè)體的身份信息、檢索數(shù)據(jù)、瀏覽痕跡、購買行為等會長久甚至永久地存儲在互聯(lián)網(wǎng)數(shù)據(jù)庫中。 從個(gè)體在網(wǎng)絡(luò)上留下瀏覽痕跡或者內(nèi)容數(shù)據(jù)那一刻起,用戶就逐漸喪失了對這些信息的掌控,對數(shù)據(jù)的控制與訪問權(quán)則被讓渡給了數(shù)據(jù)記錄者和占有者,他們通常是占據(jù)壟斷地位的科技公司、政府等機(jī)構(gòu)[11]。
數(shù)字化記憶的可訪問性、持久性、全面性以及由此所形成的“凝視”給我們帶來了新的挑戰(zhàn),人類日常生活面臨著數(shù)字化時(shí)間與空間雙重維度的介入[12]。 經(jīng)由一系列的數(shù)字行為軌跡的拼合,在多年之后仍然可以通過推測數(shù)據(jù)還原出用戶的個(gè)人畫像,人們可以想象,在網(wǎng)上不經(jīng)意的行為被長久地記憶可能成為引發(fā)某些事件的導(dǎo)火索。 如加拿大心理咨詢師費(fèi)爾德瑪在一本雜志中提到自己曾在20 世紀(jì)60 年代服用過致幻劑,由此,他在進(jìn)入美國邊境時(shí)被扣留了4 個(gè)小時(shí)。 在社交、資訊、購物等平臺中,小到抱怨、負(fù)能量,大到激烈的辯論和意見、態(tài)度的發(fā)表,情緒可能是一時(shí)的,但記錄是永久的,甚至在多年之后還會被當(dāng)做“黑歷史”再現(xiàn),影響個(gè)體的生活。 從這個(gè)角度來說,它似乎縮小了個(gè)體“改過自新”的空間。面對這種個(gè)人信息和行為數(shù)據(jù)在網(wǎng)絡(luò)上長久留存可能帶來的不可控的預(yù)期損耗和風(fēng)險(xiǎn),人們或許會在互聯(lián)網(wǎng)上選擇“噤若寒蟬”,導(dǎo)致所謂的“寒蟬效應(yīng)”(chilling effect),即為了避免不可預(yù)知的潛在風(fēng)險(xiǎn),減少意見發(fā)表和對公共事務(wù)等的參與。
記憶倫理的核心問題是 “誰在記憶”“記憶什么”“如何記憶”以及“如何表述記憶”[13]。 什么樣的機(jī)構(gòu)和組織可以去記憶,什么樣的數(shù)據(jù)可以被納入數(shù)據(jù)記憶之中,這些都是需要進(jìn)一步考察的議題。目前,這一領(lǐng)域的問題仍處在探討階段。 2016 年,我國頒布了《網(wǎng)絡(luò)安全法》,正式確認(rèn)個(gè)人對其網(wǎng)上個(gè)人信息的“刪除權(quán)”,即“個(gè)人發(fā)現(xiàn)網(wǎng)絡(luò)運(yùn)營者違反法律、行政法規(guī)的規(guī)定或者雙方的約定收集、使用其個(gè)人信息的,有權(quán)要求網(wǎng)絡(luò)運(yùn)營者刪除其個(gè)人信息。 ”[14]這種“刪除權(quán)”并不完全等同于“被遺忘權(quán)”(right to be forgotten),它更多的是為了保障網(wǎng)絡(luò)信息傳播秩序的穩(wěn)定,而且技術(shù)上的實(shí)現(xiàn)也有困難。美國加州2014 年通過了“橡皮”法律,該法律規(guī)定用戶可以要求科技公司刪除涉及個(gè)人隱私的信息。2012 年,歐盟在《通用數(shù)據(jù)保護(hù)條例》草案中也提出了“被遺忘權(quán)”。 這些法律和條例的制定為“被遺忘權(quán)”在我國的本土化提供了一些借鑒與參考。 在中國語境下,當(dāng)被遺忘權(quán)與公共利益沖突時(shí),我們應(yīng)該如何界定被遺忘權(quán)的邊界,如何明晰被遺忘權(quán)與言論自由的權(quán)責(zé)關(guān)系,如何在公共領(lǐng)域的開放性和私人領(lǐng)域的不可侵犯性之間尋找平衡點(diǎn),也同樣是需要進(jìn)一步探索的問題。
除此之外,算法推薦的邏輯是根據(jù)個(gè)體過去的行為軌跡來預(yù)測其未來的行為傾向,從而投其所好,“投喂”符合其偏好的內(nèi)容。 但在現(xiàn)實(shí)生活中,人的行為邏輯是復(fù)雜的,不是只有“過去+現(xiàn)在—未來”導(dǎo)向。 個(gè)體的需求和成長具有發(fā)展性,行動邏輯還具有目標(biāo)導(dǎo)向性,即“未來—現(xiàn)在”導(dǎo)向。 就像人的口味會改變一樣,人的信息需求和生活目標(biāo)也會改變,一味根據(jù)過去的行為邏輯和標(biāo)簽投其所好只會禁錮個(gè)體的視野,限制其發(fā)展的空間。 從這個(gè)角度來說, 算法推薦還影響了個(gè)人成長和發(fā)展的可能性。另外,算法推薦對出版權(quán)、言論自由等權(quán)利也造成了不同程度的沖擊。
算法推薦技術(shù)在新聞傳播領(lǐng)域的運(yùn)用對新聞生產(chǎn)和傳播方式都產(chǎn)生了重要影響。 專業(yè)機(jī)構(gòu)對新聞生產(chǎn)和傳播過程的壟斷性地位受到?jīng)_擊,成為算法分發(fā)平臺的重要內(nèi)容源[15]。 算法的創(chuàng)設(shè)主體擁有大量活躍用戶和優(yōu)質(zhì)的內(nèi)容分發(fā)渠道,為實(shí)現(xiàn)新聞內(nèi)容更廣泛的傳播提供了必要條件,而擁有采編權(quán)的專業(yè)新聞機(jī)構(gòu)和海量的UGC 內(nèi)容則成為算法創(chuàng)設(shè)主體的內(nèi)容來源。
算法推薦技術(shù)簡化了功能和意義豐富的新聞邏輯,并將其簡單處理為“信息”供求問題,通過點(diǎn)擊率、閱讀量等一系列指標(biāo)量化滿足用戶的喜好。這種去價(jià)值化、去意義化的做法將新聞簡化為一種無差別的“信息商品”[16],變成為商業(yè)資本服務(wù)的工具,而非實(shí)現(xiàn)新聞理想、追求社會公平正義的重要途徑[17]。
與傳統(tǒng)的受過系統(tǒng)訓(xùn)練的專業(yè)新聞工作者把關(guān)不同,算法推薦機(jī)制以興趣為導(dǎo)向的邏輯無法實(shí)現(xiàn)對主流價(jià)值觀的引導(dǎo),新聞業(yè)的環(huán)境監(jiān)測、輿論監(jiān)督、價(jià)值引領(lǐng)的職能也受到削弱。 新聞專業(yè)主義的核心理念是客觀性, 新聞從業(yè)者應(yīng)秉持客觀、公正、中立的原則進(jìn)行真實(shí)、準(zhǔn)確地報(bào)道,捍衛(wèi)公眾權(quán)利。 而算法的客觀性和中立性其實(shí)是一個(gè)偽命題,算法究其根本是一段解決具體問題的指令,通常由一系列的代碼與公式組成,這意味著它從誕生開始就必然夾帶著算法創(chuàng)設(shè)主體的意志,特別是商業(yè)資本的介入使其獨(dú)立性、客觀性更加受到質(zhì)疑。
此外,智能算法推薦的邏輯已經(jīng)滲透到新聞生產(chǎn)從選題到內(nèi)容分發(fā)的各個(gè)環(huán)節(jié),個(gè)性化新聞推送對數(shù)據(jù)挖掘與分析的深度依賴以及由此帶來的新聞失實(shí)風(fēng)險(xiǎn)、決策風(fēng)險(xiǎn)、偏見風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)和聲譽(yù)風(fēng)險(xiǎn)都需要我們進(jìn)一步提高警惕。
傳播是一種權(quán)力,在我國,主渠道的媒體傳播屬于公權(quán)力的一部分,在西方國家,媒體也被稱為“第四權(quán)力”。 黨的新聞輿論工作承擔(dān)著“高舉旗幟、引領(lǐng)導(dǎo)向,圍繞中心、服務(wù)大局,團(tuán)結(jié)人民、鼓舞士氣,成風(fēng)化人、凝心聚力,澄清謬誤、明辨是非,聯(lián)接中外、溝通世界”的任務(wù)。 但是在智能傳播時(shí)代,主渠道媒體的視聽時(shí)間被平臺媒體的渠道所分散,人們越來越偏向基于興趣偏好推送的算法新聞,而算法體現(xiàn)的是資本和技術(shù)開發(fā)主體的意志, 代表的是少數(shù)股東的訴求,而非廣大公眾的利益。 資本的本質(zhì)是逐利,算法技術(shù)的高度壟斷使得信息推送的把關(guān)權(quán)從公共機(jī)構(gòu)遷移到掌握資本和技術(shù)的公司,原先代表公共利益和公共意見的把關(guān)機(jī)制有轉(zhuǎn)向代表商業(yè)公司及其算法開發(fā)人員意志的風(fēng)險(xiǎn)。
這種變化大大削弱了媒體的公共性,媒體作為社會公器的監(jiān)督作用被減弱。 信息繭房和回聲效應(yīng)的形成使得傳播環(huán)境失去了意見的多元空間,“澄清謬誤、明辨是非”的思辨與批判機(jī)制也受到了沖擊;數(shù)字空間的永久記憶造成的“寒蟬效應(yīng)”降低了公共參與精神被培育的可能性,構(gòu)建了溝通壁壘和偏見;數(shù)據(jù)標(biāo)簽體系的建立助長了刻板印象的產(chǎn)生,不利于整個(gè)社會民主和協(xié)商之風(fēng)的形成。 算法建立了新的把關(guān)機(jī)制,過濾了那些不利于算法開發(fā)者的信息,編織了一個(gè)有利于資本的信息氣候,破壞了意見的公共空間。
算法是計(jì)算機(jī)科學(xué)技術(shù)領(lǐng)域的話題,本質(zhì)上是由一系列代碼與公式組成的解決具體問題的指令。算法推薦技術(shù)在改變?nèi)藗儷@取信息方式的同時(shí),也打破了傳統(tǒng)的新聞生產(chǎn)格局,構(gòu)建了算法創(chuàng)設(shè)主體、算法運(yùn)用主體和算法新聞收受主體之間新的動態(tài)關(guān)系[15]。 算法推薦技術(shù)帶來的一系列倫理問題,一方面是由算法技術(shù)天然自帶的特性造成的,另一方面則是由“新聞邏輯”和“技術(shù)邏輯”之間的不適配導(dǎo)致的。 技術(shù)邏輯是問題導(dǎo)向的,算法推薦重在解決信息資源在傳受雙方間的最佳匹配問題,其核心是提高效率; 而新聞邏輯著眼于社會公平問題,除了提供信息、引導(dǎo)輿論、教育大眾外,還承擔(dān)著重要的監(jiān)測環(huán)境、輿論監(jiān)督等功能。 新聞業(yè)的合法基石在于向公眾提供可信賴的新聞信息服務(wù)[18]。 算法推行的是“用戶”思維,著眼于信息生產(chǎn)和分發(fā)的效率;新聞業(yè)推行“公眾”思維,著眼于社會公平正義和民生福祉,兩者著眼點(diǎn)的不同導(dǎo)致在融合初期出現(xiàn)眾多不適配的現(xiàn)象。 隨著商業(yè)資本的介入,算法中還滲透了商業(yè)邏輯,造成對公共利益和公眾作為人本身的價(jià)值和權(quán)利的忽視。 此外,也存在管理、法律、監(jiān)管等諸多外部影響因素。 當(dāng)然,信息接收方也有不可推卸的責(zé)任,娛樂主義和商業(yè)主義的盛行形成了公眾整體的信息偏好,可以說,算法迎合了受眾的興趣偏好導(dǎo)向,導(dǎo)致受眾主動脫離公共空間。 這種意見氣候助長了算法的單一價(jià)值取向,所以受眾的理性培育也是規(guī)范智能傳播的重要方面。
當(dāng)下, 算法的核心技術(shù)掌握在少部分公司手中,其不僅占據(jù)絕大部分的用戶資源,還掌握著絕大多數(shù)受眾的使用行為數(shù)據(jù),技術(shù)壟斷意味著數(shù)據(jù)資源的壟斷,技術(shù)和數(shù)據(jù)資源的壟斷取消了觀點(diǎn)的自由市場,也加劇了數(shù)據(jù)商業(yè)化、隱私侵犯的風(fēng)險(xiǎn)。算法代表了其開發(fā)者,通常是資本集團(tuán)及其股東的利益,而不能代表廣大公眾的訴求,在公眾利益與集團(tuán)利益相左時(shí),算法優(yōu)先考慮其自身利益。 而且相比于傳統(tǒng)媒體清晰的操作流程,算法使傳播的操作后臺化、不透明化,難以受到公共力量的監(jiān)督[19]。算法使權(quán)力從公共機(jī)構(gòu)遷移到資本驅(qū)動的技術(shù)公司所引發(fā)的風(fēng)險(xiǎn)值得我們關(guān)注。
目前階段,算法相關(guān)管理機(jī)制與法律還不夠健全。 在智能技術(shù)已經(jīng)廣泛應(yīng)用到傳播實(shí)踐中的當(dāng)下,法律規(guī)定似乎成了一個(gè)“下醫(yī)”,規(guī)范與管理總是滯后于技術(shù)發(fā)展的步伐,“醫(yī)未病,醫(yī)欲病”的情況少,總是在問題出現(xiàn)后再去補(bǔ)救和防治。 傳媒立法的滯后也讓很多領(lǐng)域成為灰色地帶,比如,網(wǎng)絡(luò)平臺個(gè)人信息的售賣、“水軍”“有償公關(guān)”等“灰色產(chǎn)業(yè)”急需嚴(yán)加整治。 在算法運(yùn)用方面,同樣缺乏規(guī)范的法律體系, 未來要加強(qiáng)相關(guān)領(lǐng)域的立法與管理。 一方面,要明確責(zé)任主體,規(guī)范算法研發(fā)者、運(yùn)營者和使用者各自的權(quán)利與義務(wù)關(guān)系; 另一方面,面對算法引發(fā)的具體倫理和法律問題,要建立健全審查機(jī)制,建立包含新聞、法律和倫理相關(guān)領(lǐng)域?qū)<业谋O(jiān)察機(jī)構(gòu)審核算法原理及決策過程[20]。 相關(guān)部門應(yīng)通過立法或行政干預(yù),鼓勵優(yōu)質(zhì)主旋律內(nèi)容的生產(chǎn)和傳播[21]。
當(dāng)前部分國家和地區(qū)已將人工智能立法提上日程。 2018 年5 月生效的歐盟《一般性數(shù)據(jù)保護(hù)法案》(General Data Protection Regulation,GDPR)給予用戶申請基于算法得出結(jié)論的解釋權(quán)。 美國紐約州為了解決政務(wù)系統(tǒng)算法歧視問題, 于2017 年12 月通過了算法問責(zé)法案。 這些案例都為我國建立健全規(guī)范智能算法應(yīng)用方面的法律法規(guī)提供了借鑒意義。
良好的行業(yè)自律是整個(gè)行業(yè)健康發(fā)展必不可少的條件, 就人工智能在傳播領(lǐng)域的應(yīng)用問題而言,增加透明性和建立良好的倫理準(zhǔn)則有助于行業(yè)的健康發(fā)展。 仇筠茜與陳昌鳳等學(xué)者認(rèn)為,算法對信息處理的過程對于普通新聞用戶而言已經(jīng)形成了一個(gè)“技術(shù)黑箱”,算法透明化被認(rèn)為是解決算法黑箱的重要方式。 通過落實(shí)“可理解的透明度”[22]公布算法黑箱中存在的技術(shù)和價(jià)值取向,并接受公眾的審視,不僅需要行業(yè)力量的努力,還需要相關(guān)部門的行政干預(yù)。
此外,我們也注意到,目前國內(nèi)人工智能領(lǐng)域缺少統(tǒng)一、規(guī)范、公認(rèn)的行業(yè)準(zhǔn)則,雖然有少數(shù)幾家公司在監(jiān)管部門的督促下提出了一些可行方案,但是從行業(yè)整體層面看,行業(yè)自律領(lǐng)域幾乎處于空白狀態(tài),各個(gè)利益集團(tuán)僅從自身出發(fā),在技術(shù)上野蠻增長,構(gòu)建自己的傳媒帝國。 人工智能應(yīng)用面對的倫理問題是國際性問題, 在全世界范圍內(nèi)廣泛存在,2019 年4 月8 日,歐盟委員會發(fā)布了人工智能倫理準(zhǔn)則,列出了人的能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉、問責(zé)機(jī)制等7 個(gè)確保人工智能足夠安全可靠的關(guān)鍵條件。 根據(jù)官方解釋,“可信賴的人工智能”有兩個(gè)必要的組成部分:一是應(yīng)尊重基本人權(quán)、規(guī)章制度、核心原則及價(jià)值觀;二是應(yīng)在技術(shù)上安全可靠,避免因技術(shù)不足而造成無意的傷害。 這為我們根據(jù)國內(nèi)實(shí)際情況制定規(guī)范的人工智能倫理準(zhǔn)則提供了重要參考。
此外,還有學(xué)者提出,面對倫理困境,相較于道德規(guī)范的建構(gòu),倫理原則的確立具有更高的學(xué)術(shù)價(jià)值和現(xiàn)實(shí)意義。 大多數(shù)研究都集中在“社會責(zé)任原則”、“真實(shí)原則”、“客觀原則”、“公正原則”和“善良原則”的討論上,也有學(xué)者提倡應(yīng)該將“公平、準(zhǔn)確、透明、可解釋、可審計(jì)、責(zé)任”等原則囊括進(jìn)算法責(zé)任倫理體系,認(rèn)為算法的設(shè)計(jì)要體現(xiàn)社會公平,考慮社會的多元性和不同價(jià)值觀,需要考量利益相關(guān)者的權(quán)益,盡量避免因偏見的數(shù)據(jù)或偏見的算法設(shè)計(jì)導(dǎo)致對某一特定群體的歧視[23]。
除了商業(yè)和資本的原因外,人工智能帶來的倫理問題還源于技術(shù)本身自帶的缺陷。 機(jī)器算法不能完全取代記者和編輯進(jìn)行道德倫理判斷、人文關(guān)懷和獨(dú)立的價(jià)值判斷等,也無法對非量化內(nèi)容作出準(zhǔn)確判斷,它將內(nèi)容簡化為一系列指標(biāo),簡單粗暴地將“社會人”視作信息商品(提供數(shù)據(jù)來源,作為信息主體)和信息消耗體,將“社會人”數(shù)據(jù)化、機(jī)器化,使得人作為人的特征被消解,取而代之的是像原子一樣無差別的信息消耗體和信息提供體(信宿和信源), 這是技術(shù)科學(xué)與社會人文之間的根本差異。 正如哈貝馬斯所說,科技進(jìn)步導(dǎo)致人對精神價(jià)值的忽視,并將自己作為生產(chǎn)要素,淪為機(jī)器和金錢的附屬品。 在算法推薦中,我們也看到這種技術(shù)反客為主,人的主體性被削弱、異化的趨勢[24]。 因此,不將用戶看做數(shù)據(jù)商品的提供者,重視以人為本,尊重人的價(jià)值,突出人在技術(shù)環(huán)境中的主體性地位也是我們應(yīng)對倫理困境的重要議題。
探討算法帶來的倫理問題, 并不是要排斥技術(shù),將算法關(guān)回潘多拉魔盒中,而是要尋求兩者達(dá)到動態(tài)平衡的更多可能性。 技術(shù),包括算法技術(shù),是新聞權(quán)力生成的重要來源之一。 新聞的“傳播權(quán)力”通過傳播技術(shù)實(shí)現(xiàn),不論是在以報(bào)紙、廣播、電視、雜志為主導(dǎo)的傳統(tǒng)媒體時(shí)代還是算法滲透到全民生活的智能化傳播時(shí)代,不可否認(rèn),新聞傳播技術(shù)一直形塑著傳播內(nèi)容與傳播關(guān)系。
數(shù)據(jù)信息的資源化已成為不可逆的趨勢,我們生活的空間、行為的情境無一不被數(shù)字化、算法所重新定義與塑造。 同時(shí),也應(yīng)該看到,算法從來不是獨(dú)立的,是人類自身賦予技術(shù)權(quán)限去記錄、讀取、分析我們的行為數(shù)據(jù),為我們的決策提供意見與幫助,但是在具體使用的過程中難免出現(xiàn)目的與路徑錯位的現(xiàn)象。 隨著技術(shù)和機(jī)制的日臻完善,我們需要在數(shù)據(jù)采集、數(shù)據(jù)計(jì)算、算法模型中提升人的主導(dǎo)作用,在全面認(rèn)識算法推薦技術(shù)的基礎(chǔ)上,厘清其在新聞傳播領(lǐng)域引發(fā)的倫理問題,尋找效率導(dǎo)向的“算法”與公平導(dǎo)向的“新聞”二者間的平衡點(diǎn),并在此基礎(chǔ)上建構(gòu)算法推薦新聞的倫理規(guī)范原則及應(yīng)用細(xì)則。認(rèn)識算法、理解算法、批判算法是善用算法的前提,否則“我們塑造算法,然后算法塑造我們”將不止存在于科幻故事中。