文/王學成 任千里
自算法介入新聞傳播過程以來,新聞可見性的決定權(quán)逐漸由人轉(zhuǎn)移給了算法,算法取代新聞守門人,成為算法看門人。在傳播的過程中,人們已經(jīng)賦權(quán)給算法。隨著算法能力的提升,算法的權(quán)力也在不斷擴大,對人類行為自然也會產(chǎn)生越來越多的規(guī)訓,由此學界產(chǎn)生了對“算法黑箱(Algorithm Blackbox)”和“信息繭房(Information Cocoons)”等問題的擔憂。
算法推薦技術(shù)經(jīng)過多年實踐,目前已經(jīng)有大量研究證明人們對于算法推薦機制的擔憂可能遠不像人們當初想象的那般嚴重。通過對于算法推薦機制的研究和觀察,筆者認為,算法推薦的確會在一定程度上對人類的行為和認識產(chǎn)生規(guī)訓,但是,人對于算法的規(guī)訓要遠比算法對人的規(guī)訓大得多。算法的本質(zhì)屬性是工具屬性,作為一種工具,算法能給人類社會造成的負面影響非常有限。算法推薦機制中存在的問題不過是現(xiàn)實社會的反映,真正需要警惕的是現(xiàn)實社會中的極化、偏見以及其他不穩(wěn)定因素。
早期的算法推薦技術(shù)主要包括基于內(nèi)容的推薦、基于知識的推薦以及協(xié)同過濾三種推薦方法。經(jīng)過多年的發(fā)展,目前的算法推薦機制已經(jīng)不能被幾個簡單的名詞概括,但算法推薦機制的本質(zhì)沒有發(fā)生改變。算法掌握的是信息傳播的渠道,決定的是用戶能看到什么內(nèi)容。這是一種非常大的傳播權(quán)力,因此,筆者認為算法推薦對于人的規(guī)訓主要集中在以下幾個方面。
算法對用戶議程的規(guī)訓是最顯見的,當算法決定了內(nèi)容的可見性、可及性時,根據(jù)議程設置理論,也就間接擁有了控制人對議題重要性判斷的能力。依據(jù)關鍵詞和內(nèi)容標簽進行算法推薦是算法推薦最基本的邏輯和最基礎的功能。也就是說,算法能夠在一定程度上規(guī)訓用戶能看到什么、想看到什么,并使之具有同一性。
真正客觀的“零度新聞”是不存在的,新聞學的研究已經(jīng)證實了這一點。算法推薦的任何內(nèi)容它總會或多或少、有意無意地反映某種社會觀念,因此用戶在瀏覽算法推薦的相似內(nèi)容的時候,一定程度上也是在接受算法推薦的觀念。高頻度的有關某一觀念的內(nèi)容接觸總會在一定程度上影響用戶的認知,當這種觀念與使用算法推薦的平臺的龐大用戶基數(shù)相結(jié)合時,某種社會流行觀念也在隨之醞釀。
用戶獲取信息是為了更好地完成改造世界的實踐。擬態(tài)環(huán)境理論指出,媒介向人們呈現(xiàn)的是重新結(jié)構(gòu)化的世界,并通過制約人的認知和行為來對客觀的現(xiàn)實環(huán)境產(chǎn)生影響。因此在算法推薦內(nèi)容的過程中,社會觀念的規(guī)訓遠遠不是終點,對用戶行為的規(guī)訓才是。受到社會觀念規(guī)訓的用戶會將接受到的觀點貫徹于他們的現(xiàn)實生活實踐中,進一步擴大算法對于社會的影響。
雖然當人類賦權(quán)給算法之后,算法會擁有相當大的傳播權(quán)力,會從社會共識塑造、社會議題設置、行為決策判斷等方面對人產(chǎn)生規(guī)訓。筆者認為,人作為算法的創(chuàng)造者,人對算法的規(guī)訓才是人機關系矛盾中的主要方面。
算法并非憑空產(chǎn)生的,而是基于嚴謹?shù)挠脩粜枨笳{(diào)研之后,根據(jù)用戶需要設計的。而當人類認為算法推薦的機制存在問題時,人類有直接要求算法做出改變的權(quán)力和能力。
以“今日頭條”APP為例,早期“今日頭條”的推薦算法非常簡單,算法中存在的問題也非常多。但是當用戶和管理者發(fā)現(xiàn)單純的興趣推薦不能滿足社會的公共性需求時,便會要求算法增加公共信息的推送。算法的生產(chǎn)者和管理者、相關平臺的監(jiān)管者以及用戶三方可以說都直接擁有規(guī)訓算法的權(quán)力和能力。算法生產(chǎn)者和管理者能直接按照自己的觀念調(diào)整算法;相關平臺的監(jiān)管者可以以行政命令等方式直接改變算法推薦模式,使其更加符合社會發(fā)展的需要;而從用戶層面看,個體用戶的力量雖然渺小,但當用戶普遍認為算法推薦機制存在某種問題時,用戶的壓力也會迫使管理者對算法推薦機制做出調(diào)整。在目前市場化運作的內(nèi)容平臺中,用戶的需求可以說就是算法努力的方向,內(nèi)容平臺之所以采用算法推薦機制,也是為了更好地服務于用戶,進而實現(xiàn)良好的效益,因此作為消費者,用戶聲音是不可能被忽視的。從這些方面來看,在算法與人的關系中,人的需要始終是占據(jù)主導地位的。
這證明了人是算法的直接控制者,即使是普通用戶,也擁有直接對算法進行規(guī)訓的權(quán)力,進而證實了人對于算法的規(guī)訓是人機關系矛盾的主要方面。
算法推薦的前提是在后臺形成用戶千人千面的用戶畫像,或稱數(shù)字分身,之后算法推薦的基本邏輯是按照用戶的不同特征,為用戶推送不同的內(nèi)容,從而達到千人千面的傳播效果。
那么,用戶畫像來源于何處?雖然用戶畫像與用戶的性別、年齡、地域、社會關系網(wǎng)絡等具有相關性,但用戶畫像的核心仍然是用戶自身需要。用戶點擊、閱讀、拒絕閱讀、舉報等交互行為都可以看作是用戶與后臺用戶畫像間的自我傳播,通過這些交互行為,算法后臺的用戶畫像會越來越接近于真實的用戶本身。
“自我傳播”并非一個新鮮的概念,傳統(tǒng)的自我傳播又稱人內(nèi)傳播,是指個人接受信息并在人體內(nèi)部進行信息處理的活動。米德關于自我傳播的“主我與客我”理論指出,個人在與他人的互動中形成自我,而在算法推薦機制中,個人在與信息內(nèi)容的互動過程中在算法后臺形成用戶的數(shù)字孿生形象,這可以看作是自我傳播在數(shù)字環(huán)境下的新發(fā)展。
數(shù)字孿生的形象如何,完全取決于用戶的自我傳播,算法本身并不會替用戶做決定。不論是學界的研究,還是相關科技公司的披露,都顯示出用戶自我傳播對于數(shù)字孿生形象的影響遠大于年齡、性別等人口統(tǒng)計學因素和社交網(wǎng)絡等因素對于數(shù)字孿生形象的影響。算法推送的結(jié)果實際上是用戶自我傳播的結(jié)果,在較長的使用時間內(nèi),算法推送可能比用戶自己更能客觀地認識到用戶的信息需要,即使用戶從主觀上認為這些內(nèi)容是低質(zhì)的。
在數(shù)字孿生形象的構(gòu)建中,普通用戶就擁有選擇信息的絕對權(quán)力,用戶可以輕易地對算法推薦的內(nèi)容一鍵選擇屏蔽,給后臺的數(shù)字孿生形象最直接的反饋,改變自身形象,這種“一票否決權(quán)”的存在,是人對于算法規(guī)訓的本質(zhì)體現(xiàn)。
海德格爾指出:“主體性既是人作為主體所具有的性質(zhì),又是人作為主體的根據(jù)和條件。”而人作為主體,其特征包括自為的自律性、自覺的能動性、自由的超越性等。算法看似具有很高的能動性和權(quán)力,實則不然,算法只有在主體價值觀的引導下才能展開活動。
前文已經(jīng)提到,工具屬性是算法的本質(zhì)屬性,一切算法的發(fā)展從本質(zhì)上來看都是“以我為主、為我所用”,算法對人的規(guī)訓不過是算法服務于人的過程中可能產(chǎn)生的副作用。算法推薦的結(jié)果是人主體認識的延伸,即人有什么樣的認識,出于服務人類的目的,算法會為人類推薦與其認識水平相符的內(nèi)容。
目前的算法推薦機制中可能仍然存在一些偏見,諸如各種歧視現(xiàn)象等。但是筆者認為,雖然算法推薦的結(jié)果客觀上使社會偏見擴大化,但并不能武斷地認為算法就是這些問題的制造者,算法中隱含的偏見不過是對社會偏見問題的一種真實反映。認為算法造成或者擴大了這種偏見,是對于算法本質(zhì)和社會現(xiàn)實認識不深刻的表現(xiàn)。算法既不具備產(chǎn)生偏見的能力,也不具備消除偏見的能力,要真正解決算法中存在的偏見問題,必須對現(xiàn)實環(huán)境做出改變,改變算法之上的源頭信息,算法偏見問題才能真正得到解決。算法會直接反映人的偏見,也從另一個側(cè)面證明了在算法推薦的機制中,人是具有主體性地位的,人對于算法的規(guī)訓遠大于算法對人的規(guī)訓。
算法實際上是一種規(guī)則,任何社會中都一定會存在各種各樣的規(guī)則,這些規(guī)則在實施前我們也并不能完全預測規(guī)則可能產(chǎn)生的結(jié)果,這也是一種“黑箱”?!靶畔⒗O房”的反面是社會共識、群體共識,繭房的存在一定程度上也維持了社會和群體的穩(wěn)定,從這個角度看,算法的負面影響似乎并沒有學界、業(yè)界一直以來思考的那般可怕。
更重要的是,人是具有主體性的,即使在算法推薦的規(guī)則之下,人也掌握著馴化算法的主動權(quán)。如果將算法可能造成的負面影響完全看作是算法所做的“惡”,那無疑是從認識上就放棄了人在人工智能時代的主體性地位,這是極為危險的。
人類在使用算法推薦技術(shù)之初,算法可能的確會更主動地給用戶推送娛樂化甚至低俗化的無意義內(nèi)容,但這種推薦傾向的產(chǎn)生本身依據(jù)的就是大多數(shù)人的閱讀行為,本質(zhì)上仍是人對于算法規(guī)訓的結(jié)果。而在使用的過程中,人類有豐富的手段,譬如主動搜索自己感興趣的內(nèi)容,主動拒絕低質(zhì)內(nèi)容,積極舉報不良內(nèi)容等,以此規(guī)訓算法,告訴算法我需要什么、討厭什么,很快就可以使算法推薦的內(nèi)容更接近于人的認知水平。這也是有研究證明使用智能推送越久,越認為算法推送的內(nèi)容來自于人工編輯的原因。
從人類發(fā)展的漫長歷程來看,任何一種新工具的出現(xiàn)都需要人類對其進行規(guī)訓。就像聯(lián)合國門前“鑄劍為犁”的雕像一樣,當鐵器出現(xiàn)后,這種新工具是作為武器還是作為農(nóng)具,體現(xiàn)的就是人類對工具的規(guī)訓。對于任何工具不加規(guī)訓,任其野蠻發(fā)展,都會產(chǎn)生可怕的后果,而算法也僅僅是其中的一種。
單就算法推薦機制而言,算法推薦機制本身并不具有思考能力,用戶對算法推薦機制做出什么樣的行為,算法推薦機制就會做出相應的反饋。因此,算法推薦什么樣的內(nèi)容給用戶,實際上是用戶與用戶畫像間自我傳播的結(jié)果。人應對算法推薦機制有所約束,但也不能因此將人類社會可能出現(xiàn)的群體極化、思維單向度,甚至道德水平滑坡等問題的原因簡單地歸結(jié)于算法推薦帶來的消極后果。
目前有研究表明,愿意通過舉報垃圾信息,或通過隱藏新聞、取消關注、忽略推薦等手段,主動向算法表達他們“不感興趣”的用戶仍然較少,但這屬于用戶對于算法的工具性認識不足、媒介素養(yǎng)較低的問題,不能與算法推薦機制的負面效果混為一談。要促使用戶主動改善目前的內(nèi)容生態(tài),還需要實現(xiàn)全民媒介素養(yǎng)的終身教育。只有撥云見日,真正認識到算法及其相關問題的本質(zhì),我們才能更加客觀地認識算法推薦機制造成的正負面影響,實現(xiàn)技術(shù)和社會的更好發(fā)展。