李瀟涵
摘?要:媒介技術的發(fā)展日新月異,近年來虛擬現實技術、算法大數據、人工智能等技術不斷興起,并被運用到媒體行業(yè)和新聞領域。技術的更新對媒體的發(fā)展產生了深刻的影響,它拓展了傳播的渠道、改變了傳播的方式、增強了傳播的影響力,帶來了新聞生產的革新和傳播思想的顛覆。但與此同時,技術賦權也增加了新聞倫理的思考維度。本文主要選取智媒時代中具有代表性的算法推薦技術,從三個方面提出算法推薦技術帶來的倫理失范現象,并對算法推薦帶來的新聞倫理困境進行探討,以期對算法的倫理規(guī)制和算法技術未來的發(fā)展方向提出一些思考。
關鍵詞:算法推薦;新聞倫理;智媒;媒介技術
中圖分類號:G210??????文獻標識碼:A?????文章編號:1672-8122(2020)02-0031-04
科學技術的發(fā)展推動著人類社會的進步,這是人類在幾千年歷史進程中得到的共識。很多時候,技術被視為一種“工具”,人們利用它改進生產工具、改善生產環(huán)境、提高生產效率,這是整個社會運轉和發(fā)展的規(guī)律。把技術置于媒介發(fā)展和信息傳播領域,我們可以發(fā)現,技術也在不斷推動著傳媒業(yè)的發(fā)展,不僅改變著信息收集、生產、傳播、接收的方式,也對傳播的理念、新聞的原則進行著改造,從而不斷更新著媒介與人、媒介與社會的關系。
隨著傳媒技術的迅猛發(fā)展,人工智能、云計算、虛擬現實、大數據、5G等技術不斷迭代更新,已深入人們的生活,徹底改變了新聞業(yè)的生產分發(fā)機制和傳統(tǒng)的媒介格局。在這種變化中,我們不得不面對一種技術與倫理的矛盾:技術重構了傳播生態(tài)環(huán)境,一定程度上也阻礙了傳播生態(tài)的健康發(fā)展。單純迷戀“技術至上”或純粹陷入人文關懷都是不可取的。
算法推薦作為智媒時代新技術的典型代表,在這種困境中,展現出了特有的倫理失范問題,例如,隱私權的侵犯、“信息繭房”等,從而導致信息認知的偏差以及價值觀的異化等后果。因此,如何正確面對算法推薦技術下的倫理困境,以及如何盡力規(guī)避算法技術的不良影響,需要我們進行反思和探討。
一、算法推薦締造傳播新生態(tài)
梅洛維茨曾經說過:“電子傳媒的出現改變了人類生活的社會情境并因此改變了社會”。在這個媒介融合、技術賦權的智媒時代,信息生產、分發(fā)和接收的方式發(fā)生了劇變,影響著傳受雙方的角色、觀念和交互方式,人類社會已經從信息匱乏轉變?yōu)樾畔⑦^載,由此大數據和算法推薦應運而生。
算法原本是計算機領域中一個重要的概念,隨著互聯(lián)網的普及,它已經滲透到人們的生活中:購物、社交、新聞、健身、理財……各個領域都或多或少地被算法操控和驅動著??梢哉f,“大數據時代干預生活世界的算法能夠解決大量復雜的任務,包括:執(zhí)行搜索、優(yōu)先推薦、安全加密、預測、分析、仿真和優(yōu)化等,算法已然成為社會新的權力中間人”。
特別是在新聞傳播領域,以今日頭條為代表的算法推薦新聞平臺,受到了大眾的廣泛喜愛,取得巨大成功后,包括網易、新浪、搜狐等客戶端都紛紛采用了算法推薦技術。自此,算法推薦在信息傳播領域掀起了改革風暴,各大平臺秉持著“用戶至上”的觀念進行信息傳播,由此締造了一種“點對點”、個性化的傳播新模式。
(一)算法推薦的運作機制
所謂“算法”,是大數據時代應運而生的一種技術,是由于信息幾何爆炸增長和個體時間和注意力有限的矛盾而產生的解決方案,它能夠在海量無差別的數據中篩選出用戶 “很可能”需要的那一部分展現出來,在這里它似乎充當著傳統(tǒng)媒介格局中“把關人”的角色。而算法推薦就是指使用算法技術,將海量用戶的網上行為和發(fā)布的信息進行數據化,進而挖掘用戶的愛好習慣和社交興趣圖譜。它的主要任務就是匹配用戶和信息,讓每一位用戶都能最快、最便捷地獲取自己最需要的信息。
算法推薦新聞目前主要有四種類型:第一種是最傳統(tǒng)的類似“排行榜式”的推薦機制,是以某種可量化的數據為排行依據,例如,點擊量、評論數、點贊數等,為用戶推薦新聞信息;第二種是以構建“用戶圖譜”為方式,進行內容推薦。平臺會追蹤用戶的信息瀏覽歷史,制作個性化的“用戶畫像”,再通過平臺之間的交互傳遞和更多的信息瀏覽行為,不斷為用戶“打標簽”,推測出該用戶的個人基本面貌、社會屬性、興趣愛好等,這是一個連續(xù)不斷的重繪“用戶圖譜”的過程,從而將用戶感興趣的內容不斷推薦給他;第三種是“聯(lián)想式”推送方法,計算用戶之間的相似程度,把用戶細化為不同的目標群體,向目標群體集中推薦感興趣的內容;最后一種是“混合式”的推薦機制,給不同的推薦方法混合加權,以求實現算法推薦新聞的最優(yōu)效果。
(二)算法推薦改變傳播模式
算法推薦對于傳統(tǒng)傳播模式的沖擊是可想而知的,它改變了傳統(tǒng)的傳受方式,受眾在傳統(tǒng)媒體時期,也擁有一定的選擇權,例如,選擇一張報紙中自己感興趣的新聞閱讀、選擇一個自己感興趣的電視節(jié)目觀看,而算法推薦拓展了受眾的選擇權,讓受眾有更多機會接觸到更多感興趣的信息。
同時,個性化的算法推薦機制塑造了一種“點對點”的傳播模式,每一位受眾都似乎擁有一個“信息管家”,幫助用戶搜索、收集、展示感興趣的信息。平臺致力于打造一種“千人千面”的信息推送模式,根據“用戶畫像”進行內容推送,因此,每一位用戶都可以得到不同于他人的個性化內容。
二、算法推薦引發(fā)的倫理失范
算法推薦技術的使用和推廣在帶來技術紅利的同時,也同樣引發(fā)了一系列問題。各類新聞平臺作為市場主體,有自己的利益需求是無可厚非的,而這種更偏向于商業(yè)利益的目的驅動,會導致算法推薦對公眾的忽視和價值導向的扭曲,由此產生的倫理失范現象值得審視。
(一)個性化推薦導致“信息繭房”
美國學者桑斯坦在其著作《網絡共和國》中描述了“個人日報”現象,他認為隨著網絡技術的發(fā)展和信息的海量增長,我們能夠隨意選擇我們感興趣的話題,完全可以根據個人的喜好為自己量身定制一份“個人日報”。他也提出這種“個人日報”式的信息選擇行為會導致“信息繭房”的形成。而如果我們長期沉浸于“信息繭房”中,就會呈現出一種定式化的生活方式,喪失獲取新鮮事物的機會,個人會失去全方位思考問題的能力,群體可能出現極化的現象,社會將缺乏粘性。
算法推薦新聞的核心就是“個性化”,個性化的推薦很大程度上優(yōu)化了用戶的閱讀體驗:它使用戶“需要”的內容更多地呈現,屏蔽掉用戶“不需要”的內容。但是這種“需要”的標準是由誰來決定呢?
作為普通受眾,我們往往關注那些與我們興趣相關的、觀點一致的內容,而不愿意看到不感興趣的、觀點相悖的信息,只看我們想看的、聽我們想聽的,最終在不斷重復中強化了固有偏見和喜好。然而,客觀來說,我們是需要多方面信息的,不同的信息源、表達立場、分析角度是我們進行正確認知和判斷的基礎。
一旦沉浸于這樣的回聲室中,就很難接受異質化的信息和不同的觀點,導致信息認知出現偏差,甚至阻礙不同群體間的交流溝通。
(二)用戶畫像對個人隱私權的侵犯
“隱私換便利”是互聯(lián)網時代的常態(tài),包括網站的瀏覽歷史、站點的密碼儲存、APP的權限獲取等,其實都是對個人隱私的一種潛在侵犯。
使用算法推薦技術進行新聞分發(fā)的基礎是對用戶興趣點的了解。這里存在一種理所當然的邏輯:只有知曉了用戶更多的、更詳盡的個人信息,才能更加精準地進行推薦。雖然媒體平臺勾勒 “用戶畫像”能夠最大限度地發(fā)揮個性推薦的優(yōu)勢,但是從受眾的角度來看,“畫像”不斷完善細化的過程,也是自己不斷暴露在大數據中的過程。
隱私是不受他人非法干擾的安寧的私生活或不受他人非法收集、刺探、公開的私人信息。隱私權被認為是生存權的延展,是一種不受打擾的獨處權利。當算法介入新聞傳播領域后,隱私權的侵犯又多了一種表現,即以算法獲取用戶數據,以數據訓練算法,以數據進行商業(yè)買賣。究竟隱私的范疇是怎樣,還沒有明確的界限。在傳統(tǒng)的網絡隱私問題中,人們更關注網絡上的財產安全和人身安全,但是隨著互聯(lián)網的發(fā)展,個人隱私問題被越來越多提起:淘寶究竟有沒有監(jiān)聽功能;Facebook的用戶數據泄漏事件;我的個人信息到底被多少軟件記錄……
正如邊沁設計的“全景敞視監(jiān)獄”,算法往往比想象更無處不在,更無所不能,它對于個人的了解遠比你認為的還要深刻。這種對普通用戶的“過度了解”究竟是不是對個人隱私權的侵犯呢?雖然目前還沒有相關的法律對此定性,但是算法倫理準則中最重要的一點就是尊重性。算法要尊重使用者,尊重社會文化,也要使人彼此感到尊重。
算法是面向人的,對人尊重是一種算法能夠被大眾接納的基本準則。沒有充分尊重個人的權利是一種倫理的缺失。加之,大數據收集的個人信息的歸屬問題、數據泄漏之后的追責問題、被遺忘權的實施等問題,我們不難得出算法推薦技術存在著理論和實踐上的倫理失范。
(三)流量陷阱與價值觀異化
我們普遍認為,算法推送的是一種更為有效的新聞分發(fā)方式,對于用戶來說,能夠更加便捷地獲取信息。但究其根本,對于新聞聚合平臺來說,它們的根本目的是抓住用戶,從而獲得更多的利益。從這個角度來看,最大限度地滿足受眾的需求, 提高點擊率,增加流量,增強用戶粘性,就能帶來巨大的經濟收益。
因此,在以用戶通過點擊、閱讀、評論、分享等行為來主動表達的興趣愛好為唯一標準時,算法平臺的“個性化推薦”是“偽個性”的。工作生活的快節(jié)奏、碎片化的閱讀時間,以及天生的獵奇怠惰的人性,往往使普通大眾更加關注簡單易懂的娛樂化信息,長此以往,那些需要深度閱讀和思考的內容被算法“屏蔽”,越來越多的低俗、獵奇的內容被不斷推送,于是用戶就更難接觸到優(yōu)質信息,最終導致“劣幣驅逐良幣”。
算法作為一種純粹的技術,是中立的,算法背后的設計者、擁有者、操控者擁有相應的價值取向。而作為商業(yè)機構,他們往往首先注重的是流量,而非內容,充分強調個性來吸引用戶,而缺少社會主流價值導向,由此傳統(tǒng)媒體倡導的主流價值觀正在被逐漸消解。
三、算法推薦技術的倫理困境
算法本身是一種中立性的技術,但在設計、編寫、使用的過程中又不可避免地將人的價值觀進行了內化。由此可見,算法與人的利益需求、思想觀念、價值取向等密切相關,具有其內在的邏輯和控制。算法存在價值負荷,持不同價值判斷的人會設計出不同的算法,或者說是選擇不同的算法來解決問題。由此帶來的工具理性和價值理性的沖突,導致了算法推薦技術陷于倫理的困境。
(一)“技術至上”和“內容為王”的抉擇
技術至上主義是一種認為關于技術本身的發(fā)展能夠直接主宰人類命運并導致社會繁榮的思潮。持該觀點的學者們通常認為技術是獨立的,它的發(fā)展不受社會影響和制約,技術進步能夠解決人類所面臨的各種問題,而往往忽視了技術發(fā)展給社會帶來的負面影響。
在智媒時代,媒介技術的革新為各類內容生產活動和傳播活動提供了新的可能。然而技術不是萬能的,算法推薦技術發(fā)展到現在,仍然存在著缺陷。目前的算法內容認知、分析數據、分發(fā)信息還處在“弱智能”階段,不能達到人類智慧的程度,并且算法的運行邏輯是不能夠被大眾知曉的。所以從實際上說,算法推薦不是完全中立客觀的,不能夠對信息進行最合理地分發(fā),也就導致用戶需要的內容、好的內容很可能被算法“屏蔽”。
技術和內容在這里就出現了不可避免的沖突問題。今日頭條采取的解決方法是加入人工進行內容識別和分發(fā),仿佛是走了回頭路,然而這也是面對技術缺陷最快捷的彌補方法,而目前我們只有期待未來的算法技術能夠更透明、更智能、更合理。
(二)個性化和公共性的失衡
正如我們前文提到的,算法所追求的個性化會致使“信息繭房”的出現,“信息繭房”的負面作用主要包括兩個方面,第一,對個人來說,“信息繭房”會封閉個人獲得更全面的消息的渠道,使受眾只能接觸到感興趣的內容,從而失去對社會整體的全面認知,在算法反復長期的作用后,會導致個人思考方式變的單一和極端。
第二,對群體和社會來說,“信息繭房”會促使共意群體的產生,社會被不同的共意群體分割,導致各個群體之間更加隔閡,難以凝聚成社會共識,這對社會共識的達成、社會決策的制定和社會價值觀的推行都有阻礙作用。
個性化和公共性的平衡被算法推薦技術打破,如何在保證社會性和公共性前提下,充分滿足受眾的個性化需求,這是算法推薦技術今后發(fā)展的方向。
(三)商業(yè)利益和公眾利益的博弈
除了算法推薦推崇的個性化對公眾利益的損害之外,我們也不能忽視算法平臺本身的商業(yè)性質。算法推薦看似是在滿足受眾的新聞需求,但它的背后,是一套試圖增加用戶粘性和提高點擊量謀利的商業(yè)邏輯,實則應被理解為對經濟利益的追求。
算法平臺為了更好地在智媒時代的激烈競爭中生存下來,就不得不用盡辦法抓住用戶、留住用戶的注意力。相比傳統(tǒng)推崇真實客觀的新聞價值原則,算法推薦技術更強調內容的新鮮和獵奇,以求獲得用戶的點擊和關注。這樣的目標導向,容易導致新聞泛娛樂化、充斥“三俗”內容,而真正有深度、有思想的內容則被邊緣化,這對于整個媒介環(huán)境的健康發(fā)展和正向社會價值觀塑造具有負面作用。
作為算法平臺,需要更加認清自己在傳播信息、引導受眾過程中的角色,充分承擔起作為媒體的社會責任,在追求商業(yè)利益的同時,兼顧公眾利益和社會利益。
四、小?結
當今社會是信息時代,是智媒當道的新媒體時代,從某種程度上來說,也是算法的時代。隨著技術的發(fā)展,算法推薦還可能引發(fā)更多新的倫理問題和爭議,如何使算法變得更加符合人類的倫理要求是我們面臨的一個問題,解決這一問題需要社會多方共同努力,例如,優(yōu)化算法技術、健全對算法平臺的監(jiān)管和問責機制、提升受眾的媒介素養(yǎng)等。
傳媒技術的發(fā)展為信息傳播提供更加優(yōu)良的工具,它們用以更好地服務人類傳播活動,這是我們發(fā)展技術的最終目的。我們期望未來科學的發(fā)展能夠使算法推薦技術更加符合人類社會倫理規(guī)范、更能滿足受眾的真實需求,更能推動社會的整體進步。
參考文獻:
[1]?胡翼青. 試論社會學芝加哥學派與傳播學技術主義范式的建構[J].國際新聞界,2006(8) .
[2]?KitchinR.Thinking Criticaly About and Researching Algorithms[J].Information Communication & Society,2017,20(1):14-29.
[3]?劉海明.媒體算法的價值糾纏與倫理誤區(qū)[J].湖南師范大學社會科學學報,2019,48(1):32-41.
[4]?吳飛,孔祥雯.智能連接時代個人隱私權的終結[J].現代傳播(中國傳媒大學學報),2018,40(9):25-31.
[5]?Felicitas Kraemer,Kees van Overveld,Martin Peterson.“Is there an ethics of algorithms?”, Philosophy & Technology[M].2011(13):251-260.
[6]?M Carlson.Automating judgment? algorithmic judgement,news knowledge,and journalistic profes? sionalism[J].New Media & Society,2017(4).
[7]?(美)桑斯坦著.畢竟悅譯.信息烏托邦[M].北京:法律出版社,2008.
[8]?袁帆,嚴三九.新聞傳播領域算法倫理建構[J].湖北社會科學,2018(12):182-189.
[9]?郭林生.論算法倫理[J].華中科技大學學報(社會科學版),2018,32(2):40-45.
[10]?陳昌鳳.未來的智能傳播:從“互聯(lián)網”到“人聯(lián)網”[J].學術前沿,2017(12):8-14.
[11]?趙雙閣,岳夢怡.新聞的“量化轉型”:算法推薦對媒介倫理的挑戰(zhàn)與應對[J].當代傳播,2018(4):52-56.
[12]?蔣曉麗,楊珊.大數據時代媒介技術的倫理問責[J].西南民族大學學報(人文社科版),2016,37(7):145-149.
[13]?任莎莎,田嬌.算法新聞的倫理困境及其解決思路——以“今日頭條”為例[J].傳媒,2018(6):89-91.
[責任編輯:艾涓]