劉曉星
摘要:隨著網(wǎng)絡技術的更新迭代,算法技術應用于新聞傳播領域,對新聞傳播行業(yè)帶來了巨大變革,改變了用戶被動接受信息的情況,但同時帶來了一系列新的新聞倫理與法規(guī)失范問題。堅持對算法機制的理性看待,建立起具有人文理性的算法機制是重構新聞倫理規(guī)范的一條路徑。
關鍵詞:算法機制;新聞倫理;法規(guī)失范
一、算法技術與新聞行業(yè)的深度融合滿足用戶的個性化信息需求
移動客戶端的發(fā)展,使用戶獲取信息不再受到時間、空間的約束,信息的生產(chǎn)、傳播及接受呈現(xiàn)碎片化的特點。面對用戶需求及海量信息,如何精準迅速的奪取用戶注意力成為新聞媒體工作的重點。算法技術的主要工作是通過一些數(shù)學算法,推測出用戶感興趣的信息,以實現(xiàn)精準推送的目的。同時會針對受眾的媒介使用行為和閱讀習慣,對受眾實現(xiàn)精準畫像,精準掌握受眾的行為習慣、價值取向甚至是經(jīng)濟水平和消費方式,從而作出預判,迎合受眾的信息取向。在這個資訊過剩的時代,算法技術的應用幫助受眾節(jié)約了獲取信息的時間,同時也滿足了受眾的個性化信息需求。
二、算法技術引發(fā)新的新聞倫理與法規(guī)失范現(xiàn)象
1、算法技術導致低俗劣質新聞泛濫
新媒體背景下,信息傳播碎片化現(xiàn)象加劇,新聞傳播的權力逐漸從新聞媒體下放到全體公民,人人都是“麥克風”,大量信息充斥在媒介環(huán)境之中,而受眼球經(jīng)濟的驅動,在這些信息中有大量虛假、低質的內(nèi)容。算法技術的問題暴露的問題也越來越明顯,在傳統(tǒng)的新聞傳播模式中,專業(yè)的新聞從業(yè)人員會對信息進行把關,盡管帶有一定的立場和價值取向,但算法技術是基于技術理性對信息進行過濾,缺少自主的思考,并會根據(jù)用戶的精準反饋對這種過濾機制不斷深化,”把關人“的權力弱化甚至缺失,這是技術天然的缺點,不會像新聞從業(yè)者一樣恪守職業(yè)道德,在市場利益的驅動之下,大量虛假新聞、色情信息以及標題黨等現(xiàn)象層出不窮,對現(xiàn)存的新聞倫理與法規(guī)產(chǎn)生強烈沖擊,并對整個社會的主流價值觀建構產(chǎn)生極其負面的影響。
2、信息的非法采集和過度分析。
數(shù)據(jù)信息是進入智能傳播時代以來的重要資源,足夠數(shù)量的信息是進行深度挖掘、分析的前提。因此,進行大量的數(shù)據(jù)信息采集成為各家媒體工作的重點之一,而隨著算法技術的介入,信息的采集方式更加隱蔽,無形中就增加了個人數(shù)據(jù)被非法收集和過度分析的風險。
當前社交媒體的普及,受眾產(chǎn)生大量數(shù)據(jù),這就為新聞媒體采集數(shù)據(jù)提供了路徑。技術的進步不僅能夠對大量數(shù)據(jù)進行采集,而且能夠進行深度過濾和精準分析。這就是說看似海量繁雜的信息,在經(jīng)過深度挖掘和分析以后,能夠發(fā)現(xiàn)其中的聯(lián)系,進而對受眾進行定位,從而在后來的數(shù)據(jù)生產(chǎn)中精準捕獲受眾興趣點,迎合受眾興趣取向,盡可能大的創(chuàng)造商業(yè)價值。但是卻在過程中嚴重侵犯了受眾的隱私權、所有權等個人權利,這無疑違背了新聞倫理道德和新聞法規(guī)。
3、算法偏見
算法是技術進步和現(xiàn)實需要雙重驅動下的產(chǎn)物。
自從算法技術進入新聞傳播領域,對媒體生產(chǎn)信息、傳播信息以及受眾接收信息等產(chǎn)生了諸多影響,可以說算法技術對新聞生產(chǎn)的各個環(huán)節(jié)都帶來了巨大變革。算法設計的一條邏輯是學習和模擬人類思維并依靠技術將其智能化,那我們也應該想到,它能模擬人的優(yōu)點,同樣的,也可以模擬人類的缺點。隨著算法技術的普遍應用,“算法偏見”這一問題暴露得越來越明顯,成為新聞從業(yè)者不得不關注的一個現(xiàn)象。
所謂的算法偏見是指在看似客觀中立的算法程序研發(fā)中,其實帶有研發(fā)人員的偏見、歧視等,或者所采用的數(shù)據(jù)帶有偏見或歧視。 算法是通過對數(shù)據(jù)的采集和深度分析來預測受眾價值取向的。首先我們應該注意的是,算法是由作為人類的程序員設計的,且算法背后的技術邏輯是相對不透明的,可以說只有設計者最為清楚算法技術的運行邏輯和行為模式。而算法技術的邏最直接的反應的是設計者的選擇,如果作為設計者的程序員,本身的價值體系中帶有偏見或歧視,那由他設計的程序帶有偏見或歧視就在意料之中了。
算法技術的設計過程以及運作模式都是極其復雜的,再加上其自身的不透明度,對于新聞生產(chǎn)流程的客觀性、公正性都會產(chǎn)生影響。有學者將算法偏見概括為社會偏見在人工智能傳播時代的表現(xiàn)形式,如果算法偏見在新聞生產(chǎn)中一直存在,算法透明度不能得到提升,那對于新聞倫理是一種無形的挑戰(zhàn),甚至通過帶有算法偏見的程序所產(chǎn)生的結果會違背現(xiàn)有的新聞法規(guī)。
4、權力遷移與人本精神的悖論
算法技術應用于新聞傳播領域,帶來便利的同時,也實現(xiàn)了權力的遷移。新聞分發(fā)權由專業(yè)編輯移交到了智能算法,而新聞把關的權力也出現(xiàn)了后移甚至缺失,在某種程度上雖然提高了新聞分發(fā)的效率,但為了追求最大的經(jīng)濟效益,基于技術理性算法技術往往一味迎合受眾的趣味傾向,忽略了人文理性的重要性。看似是在滿足人的需求,但稍加思考就會發(fā)現(xiàn),我們現(xiàn)如今所處的環(huán)境基本上是被建構過的信息環(huán)境,很明顯的趨勢是人在退化,物在崛起。
這群設計算法的陌生人其實在某種意義上具有相當大的權力,如果他們自身的價值觀,邏輯體系出現(xiàn)混亂,那會反映在算法上,而對于包括我在內(nèi)的大多數(shù)根本不了解算法技術邏輯的人,如果自身的媒介素養(yǎng)沒達到一定的程度,依舊不停的接受信息,那潛移默化之下,幾個人的混亂,最終會反映在一個個個體所組成的整體社會上。
如果這幾個人就是人類中道德高尚且不會在價值觀上出現(xiàn)問題的人,那他們所作出的算法邏輯必然在技術理性上和人文理性上及其接近完美,但是有及其接近完美的人嗎,那最后兼具技術理性和人文理性的算法會不會反過來真正的控制人類社會,之所以是說真正的,是因為現(xiàn)階段在某種意義上,人類社會在被缺乏人文理性的技術控制著,我們是不是該慶幸,目前的這種控制以及其帶來的問題被發(fā)現(xiàn)了,且有一大批人在研究并在盡力解決這個現(xiàn)象,甚至有的人能夠通過提升自身來克服這一現(xiàn)象。但是技術能夠突破人類掌控的那一天,我們根本不會察覺到,甚至認為通過算法傳達的信息就是人類本身需要傳遞與接受的?!度w》中,三體人在物理科學層面通過幾個智子打破了物理學現(xiàn)階段的所有理論,實現(xiàn)了對人類科技進步的封鎖,對比一下,人類會不會自己通過所謂的技術進步,來把自己封鎖,只不過這個封鎖是把自己封鎖在一個看似可以自主選擇信息,自由表達實則卻是在特定技術邏輯下的大而閉塞的“蠶繭”之中。技術不再是為人服務的客觀工具,受眾極有可能淪為單方面喂養(yǎng)技術成長的“飼料”,人本精神受到嚴重沖擊,在這種情形之下,新聞倫理與法規(guī)將受到前所未有的挑戰(zhàn)。
結語
如何規(guī)避算法技術帶來的沖擊,一方面要靠技術的不斷完善,另一方面歸根結底還是人本身,新聞從業(yè)人員要怎么做才能使這個媒介環(huán)境、新聞生產(chǎn)流程符合新聞職業(yè)道德與倫理法規(guī),這是一個值得整個行業(yè)都加以深思的問題。研究技術的進步,必須關注技術背后滲透的人類的價值觀。 未來的新聞傳播行業(yè)必將是在人類智慧主導下的人文理性與技術理性以及智能技術高度融合的結果。
參考文獻:
[1]楊磊.智媒時代算法推薦技術的新聞倫理思考[J].新聞世界,2020(11):81-83.
[2]許向東.關于人工智能時代新聞倫理與法規(guī)的思考[J].人民論壇·學術前沿,2018(24):60-66.
[3]許向東,王怡溪.智能傳播中算法偏見的成因、影響與對策[J].國際新聞界,2020,42(10):69-85.
[4]《算法偏見是如何產(chǎn)生的?》新華網(wǎng)2018年3月22日.
[5]陳昌鳳,霍婕.權力遷移與人本精神:算法式新聞分發(fā)的技術倫理[J].新聞與寫作,2018(01):63-66.