董倩格
關(guān)鍵詞 智能媒體;公共性;個(gè)性化算法;新聞倫理
中圖分類號 G2 文獻(xiàn)標(biāo)識碼 A 文章編號 2096-0360(2021)07-0120-03
傳統(tǒng)媒體時(shí)代的新聞分發(fā)權(quán)掌握在媒體人手中,媒體根據(jù)自己的標(biāo)準(zhǔn)將內(nèi)容推送至媒體所選定的受眾面前。而如今智能媒體時(shí)代,算法技術(shù)日益成熟,已逐漸取代了人工,能夠?yàn)橛脩暨M(jìn)行“千人千面”的內(nèi)容定制。例如,“封面新聞高考志愿小助手”整合600萬條考生數(shù)據(jù),對考生進(jìn)行“私人化”的精準(zhǔn)分析,為其智能化預(yù)估高考分?jǐn)?shù)和志愿填報(bào)。同時(shí),多媒體平臺協(xié)同分發(fā),精準(zhǔn)化投放內(nèi)容,也為不同平臺的用戶提供了適應(yīng)平臺傳播特性的內(nèi)容。
智能媒體時(shí)代,報(bào)紙、電視臺、電臺等傳統(tǒng)媒體在新聞報(bào)道時(shí)具有權(quán)威性的優(yōu)勢,而新興媒體也同樣在時(shí)效性方面具有傳統(tǒng)媒體暫時(shí)還不具備的優(yōu)勢。將兩者優(yōu)勢結(jié)合進(jìn)行報(bào)道可以深層次擴(kuò)大事件的影響力,將不同平臺的用戶凝聚在一起,從而打破平臺使用界限。
2.1 算法權(quán)力與新聞公共性
新聞公共性是在歷史發(fā)展中實(shí)踐出來的。哈貝馬斯認(rèn)為,將社會權(quán)力轉(zhuǎn)變?yōu)檎螜?quán)力的過程與公眾批判和監(jiān)督是分不開的,因此,在政治和公共領(lǐng)域具有公共影響力的所有機(jī)構(gòu),都必須堅(jiān)持公共性[1]。而新聞公共性的涵義則有以下幾種:一是為大眾報(bào)道與他們切身利益相關(guān)的公共事務(wù),為公眾知情權(quán)做保障;二是為公眾提供一個(gè)平等交流的意見平臺,即所謂的公共領(lǐng)域,為公眾參與權(quán)做保障;三是要代表民眾承擔(dān)起監(jiān)督政府的責(zé)任,使大眾的聲音可以上達(dá)至國家機(jī)關(guān)。在傳統(tǒng)媒體時(shí)代,主要由新聞媒體來保障和完成新聞的公共性。如今的媒介生態(tài)變成了由算法作技術(shù)驅(qū)動力的智能媒體時(shí)代,算法權(quán)力一定程度上剝奪了傳統(tǒng)媒體的權(quán)力,其所依賴的是資本和市場的價(jià)值邏輯。擁有算法權(quán)力的公司可以人為地利用算法來為自己服務(wù),使信息變得越來越娛樂化、個(gè)性化,復(fù)雜的公共議題就被算法過濾掉了,公民成了消費(fèi)者。新聞公共性還應(yīng)為弱小者發(fā)聲,但在算法權(quán)力操縱下的智能媒體時(shí)代,弱者被當(dāng)作“長尾”忽略了。同時(shí)新聞的本質(zhì)就是追求真實(shí),但在算法邏輯主導(dǎo)的媒介機(jī)制里,假新聞的話題度高,成本低,導(dǎo)致了虛假信息的泛濫。故而,智能媒體時(shí)代的新聞公共性還需要更系統(tǒng)完整的規(guī)制。
2.2 重構(gòu)了信息傳播中的權(quán)力主體
隨著5G技術(shù)的成熟發(fā)展,將迎來“萬物互聯(lián)”的傳播新生態(tài)。從根本上講,人工智能的本質(zhì)也算是一種算法。在新聞傳播領(lǐng)域中,智能的內(nèi)容分發(fā)在效率和規(guī)模上大大超過了傳統(tǒng)編輯把關(guān)的內(nèi)容分發(fā),成為了各大平臺信息推薦的核心技術(shù)。但實(shí)際上,算法卻解構(gòu)了傳統(tǒng)的編輯把關(guān)角色,媒體人的專業(yè)理性讓渡給機(jī)器。算法不知不覺地在塑造擬態(tài)環(huán)境中行使了“算法權(quán)力”,構(gòu)造了新型的“算法政治”,導(dǎo)致了編輯權(quán)力的旁落。專業(yè)的編輯把關(guān)時(shí)代,可以通過編輯自身的專業(yè)素養(yǎng)與價(jià)值判斷來有效過濾和篩選缺乏社會價(jià)值的內(nèi)容。相比于傳統(tǒng)把關(guān),表面上,算法把關(guān)更能與市場需求相匹配,但它在把關(guān)過程中,一味過度提取用戶的偏好關(guān)鍵詞,常常會導(dǎo)致標(biāo)題黨現(xiàn)象的發(fā)生。當(dāng)算法完全主導(dǎo)信息生產(chǎn)者的內(nèi)容選擇權(quán)時(shí),便會逐漸形成“點(diǎn)擊率與關(guān)注度就是價(jià)值導(dǎo)向”的扭曲觀念。如果過度依賴算法把關(guān),除了無法對信息做深度解讀和判斷之外,還會因?yàn)檫^度強(qiáng)調(diào)對用戶注意力的捕捉,放棄了對社會價(jià)值與文化的堅(jiān)守,新聞信息變?yōu)橛狭髁亢褪袌龅慕?jīng)濟(jì)消費(fèi)品。信息傳播的權(quán)力也從由人主導(dǎo)變?yōu)橛伤惴ㄖ鲗?dǎo),對人的信任也轉(zhuǎn)化為對算法的信任。大型的公司、國家權(quán)力機(jī)關(guān)往往掌握著豐富的用戶數(shù)據(jù)和成熟的算法優(yōu)化技術(shù),他們便擁有了更多的“算法權(quán)力”,必然會在新型傳播場域中引發(fā)多種利益的競爭和博弈。波斯曼指出,技術(shù)壟斷是對技術(shù)的神化抵御,在抵抗信息泛濫的防御系統(tǒng)被破壞之后,社會遭遇的后果就是技術(shù)壟斷[2]。
2.3 解構(gòu)了社會公共空間
關(guān)于公共性的話題討論,最早可以追溯至古希臘語境。當(dāng)時(shí)的公共性概念所代指的是古希臘人民在城邦中和諧互助、友好生活的一種狀態(tài),城邦就作為他們的公共領(lǐng)域[3]。公共性的概念是在不同時(shí)代,不同領(lǐng)域和不同語境下不斷補(bǔ)充發(fā)展起來的。人們普遍認(rèn)為,公共利益不是天然就存在的,是經(jīng)過實(shí)踐助力形成的,它更多地需要社會成員彼此之間的充分合作。在傳媒領(lǐng)域中,公共性則是媒體應(yīng)鼓勵并引導(dǎo)公眾更多地關(guān)注當(dāng)?shù)睾凸彩聞?wù),與此同時(shí),公眾的行為與意識也應(yīng)不受資本利益集團(tuán)的控制。
在過去,關(guān)于傳媒公共性的爭論主要側(cè)重于在國家政治權(quán)力和傳媒之間,由誰來履行公共責(zé)任的討論。而在實(shí)際中,傳播的行為受到了各種力量的約束與限制,這在傳播過程中會形成一種“社會合力”。在智能媒體階段,由于用戶對社交媒體的廣泛使用,使得用戶“前臺”與“后臺”的邊界開始消融,不再像傳統(tǒng)媒體時(shí)期那樣明確,開始發(fā)生重疊,從而引發(fā)了用戶對媒體公共性可能會被進(jìn)一步消解的質(zhì)疑。
傳播學(xué)家麥奎爾將傳媒業(yè)中的公共性總結(jié)為“平衡的、廣泛的、共同的、長遠(yuǎn)的利益與個(gè)體的、特殊的、短期的利益之間的關(guān)系”[4]。傳統(tǒng)媒體時(shí)代,由于傳統(tǒng)媒體本身具有的服務(wù)于公眾、向政府傳達(dá)民眾的聲音、負(fù)責(zé)社會秩序的穩(wěn)定等社會公器屬性,在傳播信息方面具有絕對的壟斷地位。受眾個(gè)人數(shù)據(jù)也是在公共空間這一“前臺”進(jìn)行收集的,而智能媒體時(shí)代的用戶信息收集是在算法與大數(shù)據(jù)這一“后臺”進(jìn)行的,是一種“溫和”而隱形的方式[5]。用戶的隱私行為與想法被技術(shù)實(shí)時(shí)監(jiān)控,個(gè)人完全暴露在“全景監(jiān)獄”之中,原本用戶的個(gè)人空間對資本集團(tuán)是不可見的,但由于用戶數(shù)據(jù)是實(shí)時(shí)可見的,這就導(dǎo)致了原本存在于用戶個(gè)人與公共之間的界限不再清晰[6]?;ヂ?lián)網(wǎng)和社交媒體雖然豐富了信息內(nèi)容,將公眾聚集到了一個(gè)共同的平臺上,但這本質(zhì)上無法與公共性等同。算法關(guān)注和謀求的是共同性而非公共性。算法技術(shù)基于大數(shù)據(jù)重新建構(gòu)的擬態(tài)環(huán)境具有泛娛樂化、非理性等風(fēng)險(xiǎn),長此以往,便給社會公共空間帶來了一定程度的解構(gòu)。
2.4 算法偏向弱化公共意見
傳統(tǒng)媒體的信息生產(chǎn)和把關(guān)分發(fā)有一套完整穩(wěn)定的管理制度,公共意見得以整合并得到有效保障。對于操縱算法來進(jìn)行內(nèi)容把關(guān)和分發(fā)的自媒體平臺來說,只要符合算法把關(guān)規(guī)則的信息都可以通過自媒體進(jìn)入到公共領(lǐng)域,相比于低成本高報(bào)償?shù)陌素詩蕵沸侣?,具有高度公共性的新聞在生產(chǎn)投放過程中要花費(fèi)的成本更高。因此自媒體人會更多地選擇更具經(jīng)濟(jì)價(jià)值的私人化、個(gè)性化的內(nèi)容。算法的私人定制機(jī)制目前還較為單一,算法取值模式也較為固定。長此以往,會使用戶陷入由自己興趣偏好構(gòu)成的“信息繭房”當(dāng)中,窄化用戶的認(rèn)知,導(dǎo)致“社會被不同的意見極化群體所分隔,社會共識難以凝聚”[7]。用戶長久封閉在自己的“圈層”中,只進(jìn)行群體內(nèi)部意見的交流,隔絕了外部世界的聲音,極易造成“群體極化”現(xiàn)象的發(fā)生。算法表面上提高了信息輸出的效率,增加了信息與用戶的匹配度,實(shí)際上卻把大量不具有公共性的私人話題推送至公共領(lǐng)域,將用戶的注意力集中于公共價(jià)值較低的花邊新聞上,擠占有限的媒介資源,不利于公共意見的良好表達(dá)與收集。在如今的智能媒體階段中,媒體的關(guān)注焦點(diǎn)已從同質(zhì)化的大眾群體轉(zhuǎn)為異質(zhì)化的獨(dú)立個(gè)體,但用戶基于獵奇心理點(diǎn)擊閱讀的文章并不能代表用戶內(nèi)心真正的興趣與需求,只是一種即時(shí)性、淺層化的閱讀。喻國明老師也指出:“算法”定義的“需求”只是人們表露在搜索引擎中的“明確意識需求”[8],算法技術(shù)目前還不能預(yù)測用戶自身不自知的需求,但卻會使用戶沉浸在個(gè)人滿足當(dāng)中,排斥群體外部的觀點(diǎn),消解了主流價(jià)值觀和公共利益。算法在內(nèi)容的生產(chǎn)與分發(fā)過程中往往表達(dá)的是個(gè)人意見,會帶有某些偏見,可能會加劇已經(jīng)存在的不公平現(xiàn)象,那么就會相應(yīng)地弱化公共性意見。
3.1 提升算法設(shè)計(jì)者的倫理意識
算法價(jià)值深度應(yīng)用在傳媒業(yè)的諸多領(lǐng)域,從開始的輔助功能,到如今已經(jīng)可以代替新聞從業(yè)者進(jìn)行信息決策。但算法技術(shù)并不是完全中立的,且作為責(zé)任主體的邊界與發(fā)生問題的追責(zé)較為模糊。作為參與算法編程的程序員,也應(yīng)為算法倫理問題負(fù)責(zé),但是他們在設(shè)計(jì)算法模型時(shí),卻較少從倫理層面進(jìn)行考量。實(shí)證研究表明,道德培訓(xùn)會對算法工程師的道德決策和道德推理產(chǎn)生積極影響,但是工程師所屬機(jī)構(gòu)的道德領(lǐng)導(dǎo)對二者未產(chǎn)生明顯影響,受教育水平在以上兩組關(guān)系中均未起到中介作用[9]。這說明,道德培訓(xùn)對提升算法編程師的倫理意識十分有必要。
3.2 豐富算法取值,優(yōu)化個(gè)性化分發(fā)系統(tǒng)
算法推薦的運(yùn)行原理包括:“用戶模型、內(nèi)容模型、搜素引擎三部分”。其中,用戶模型可以基于算法對用戶偏好數(shù)據(jù)進(jìn)行描述,將其轉(zhuǎn)化為算法機(jī)器可以“解讀”的信息。內(nèi)容模型則是利用固有的模型對“解讀”好的數(shù)據(jù)進(jìn)行建模,從中提取用戶的數(shù)據(jù)特征,使得后續(xù)的推薦策略盡可能匹配特定用戶。所以,算法推薦的精準(zhǔn)度與內(nèi)容模型是正向相關(guān)的。而搜索引擎在算法推薦系統(tǒng)中居于核心,它可以將大數(shù)據(jù)技術(shù)捕捉到的用戶相關(guān)信息應(yīng)用于不同的算法推薦規(guī)則中,形成綜合的內(nèi)容推薦策略。因此,算法工程師在研發(fā)算法系統(tǒng)時(shí)應(yīng)該豐富算法數(shù)據(jù)的取值,進(jìn)一步優(yōu)化分發(fā)系統(tǒng)。例如可以對用戶關(guān)系圖譜中的相關(guān)用戶興趣內(nèi)容進(jìn)行互相推送,適當(dāng)推薦與其既有觀點(diǎn)不同的內(nèi)容,幫助用戶拓寬興趣面。盡可能滿足具有不同興趣愛好用戶的內(nèi)容需求,打破用戶的慣有思維。
3.3 建立算法應(yīng)用監(jiān)督機(jī)制
算法傳播可以對用戶的關(guān)注點(diǎn)進(jìn)行“議程設(shè)置”,在越來越多的領(lǐng)域成為了決定性力量。例如像谷歌、百度、亞馬遜這些掌握最尖端算法科技的頭部公司,在應(yīng)用算法時(shí)有高度的自主權(quán)。當(dāng)發(fā)生倫理失范時(shí),無法從根本上有效對責(zé)任主體進(jìn)行追責(zé)。要想從源頭上解決此類問題,就需要發(fā)揮法律在算法應(yīng)用中的監(jiān)督作用,例如可以對算法代碼的“合法性”或“技術(shù)性”進(jìn)行分析,對可能產(chǎn)生的錯誤進(jìn)行分類,明確代碼錯誤主體,建立相應(yīng)的法律制度[10]。另外,也要不斷完善關(guān)于算法的監(jiān)管體系,這需要算法行業(yè)內(nèi)部增強(qiáng)社會責(zé)任感和信息透明度,來進(jìn)一步促進(jìn)算法行業(yè)的健全良好發(fā)展。
隨著互聯(lián)網(wǎng)即將進(jìn)入到“萬物互聯(lián)”時(shí)代,智能技術(shù)也逐漸從“弱人工智能”發(fā)展為“強(qiáng)人工智能”,不僅可以完成設(shè)計(jì)者發(fā)出的指令,還可以獲得“人的意識”。智能技術(shù)的發(fā)展不僅變革了信息生產(chǎn)模式,帶來了信息消費(fèi)的新方式,也給不同傳播主體在智能傳播過程中的價(jià)值觀塑造和信息傳播倫理帶來了新的挑戰(zhàn)。
但需要注意的是,無論在未來,技術(shù)發(fā)展到何種地步,在使用技術(shù)過程中作為主體的人的決定性地位都是不可撼動的,技術(shù)與機(jī)器只能作為人的身體與感官的延伸,不應(yīng)削弱人的核心價(jià)值。即使處于智能媒體時(shí)代,新聞從業(yè)者都應(yīng)堅(jiān)持新聞專業(yè)主義,發(fā)揮媒體對社會的守望與整合功能,努力提升自身的媒介素養(yǎng)和專業(yè)水準(zhǔn)。在人機(jī)協(xié)同的大趨勢下,對于作為傳播主體的人如何更好的與算法等技術(shù)共生,以及如何使算法更加具有人類的價(jià)值倫理,來打造更完善的新聞傳播格局,也是下一步研究的重要課題。
參考文獻(xiàn)
[1]哈貝馬斯.公共領(lǐng)域的結(jié)構(gòu)轉(zhuǎn)型[M].曹衛(wèi)東,等譯.上海:學(xué)林出版社,1999:224.
[2]波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:北京大學(xué)出版社,2017:42.
[3]譚清華.從人的公共性到公共性的人:論人的公共性及其發(fā)展[M].北京:中國社會科學(xué)出版社,2015:1.
[4]張輝.美國廣播電視媒介公共利益界定的邏輯[J].新聞傳播,2015(5):44.
[5]尚帥.傳播的興趣偏向和渾然不覺的符號暴力:基于今日頭條的算法控制研究[J].現(xiàn)代傳播,2018(10):60.
[6]袁光鋒.政治算法、“幻影公眾”與大數(shù)據(jù)的政治邏輯[J].學(xué)海,2015(4):49-51.
[7]喻國明,陳艷明,普文越.智能算法與公共性:問題的誤讀與解題的關(guān)鍵[J].中國編輯,2020(5):12.
[8]盧迪,韓銀麗,徐玥.移動傳播技術(shù)發(fā)展背景下的傳媒智能化演進(jìn)[J].中國編輯,2018(103):81.
[9]劉志杰.算法把關(guān)失靈與編輯價(jià)值重塑[J].中國編輯,2020(125):19.
[10]全燕,陳龍.算法傳播的風(fēng)險(xiǎn)批判:公共性背離與主體扭曲[J].華中師范大學(xué)學(xué)報(bào),2019(58):154.