張冰清,錢 利
(1.合肥學(xué)院 語言文化與傳媒學(xué)院,安徽 合肥 230601;2.蚌埠市廣播電視臺(tái),安徽 蚌埠 233000)
隨著新聞業(yè)的智能化轉(zhuǎn)向,推薦算法開始普遍用于新聞分發(fā)。牛津大學(xué)路透社新聞研究所的《數(shù)字新聞報(bào)告》顯示,基于用戶新聞內(nèi)容消費(fèi)情況而做出的算法推薦比編輯、記者的人工推薦更受大眾喜愛,算法推薦已成為最受歡迎的新聞分發(fā)方式[1]。新聞分發(fā)算法能夠迎合用戶的喜好,但也帶來種種負(fù)面影響,如假新聞肆虐、新聞內(nèi)容低俗化、“信息繭房”(Information Cocoons)問題等。此外,新聞分發(fā)算法根據(jù)用戶偏好推薦新聞內(nèi)容,用戶接收到的信息日趨單一,固有態(tài)度不斷強(qiáng)化,催生“信息繭房”問題。不同群體之間愈發(fā)難以達(dá)成共識(shí),容易造成社會(huì)分裂。
在這樣的現(xiàn)實(shí)狀況下,研究者指出新聞分發(fā)算法構(gòu)成了無法觀察和理解的黑箱(Black Box),而解決新聞分發(fā)算法帶來的現(xiàn)實(shí)問題需要打開算法黑箱,實(shí)現(xiàn)算法透明(Algorithmic Transparency)。算法透明理念雖然描述了一種應(yīng)然的理想狀態(tài),卻缺乏可操作性,難以落地實(shí)行。立足信息技術(shù)革命的時(shí)代背景,聚焦新聞分發(fā)算法黑箱問題不僅為解決種種現(xiàn)實(shí)問題提供了依據(jù),也有助于推動(dòng)新聞業(yè)的智能化發(fā)展,更能夠促進(jìn)新聞業(yè)擔(dān)當(dāng)起守望社會(huì)、整合社會(huì)的責(zé)任。
1984年,圖靈獎(jiǎng)得主唐納德·爾文·克努斯(Donald Ervin Knuth)提出了經(jīng)典的計(jì)算機(jī)算法定義:“(計(jì)算機(jī))算法是一組有窮的規(guī)則,能夠給出解答特定類型問題的運(yùn)算序列[2]?!焙谙涓拍顒t指人們無法了解其內(nèi)部結(jié)構(gòu)、運(yùn)行狀況和原理的輸入輸出系統(tǒng)。現(xiàn)實(shí)實(shí)踐中,包括新聞分發(fā)算法在內(nèi)的諸多計(jì)算機(jī)算法通常令人無法理解,從而構(gòu)成黑箱。1984年,計(jì)算機(jī)科學(xué)家W·E·坎迪夫(W.E.Cundiff)提出算法透明度的概念[3],指的是算法透明、公開的程度。大數(shù)據(jù)和人工智能技術(shù)興起后,計(jì)算機(jī)算法廣泛應(yīng)用于輔助人類決策,參與到公共生活方方面面。決策算法是否公平、是否公開因而成為重要問題,要求算法可見、可知、可解釋的算法透明理念也由此獲得了關(guān)注和認(rèn)同。
隨著信息技術(shù)革命的發(fā)展,新聞業(yè)出現(xiàn)了智能化轉(zhuǎn)向。在新媒體領(lǐng)域,基于人工智能技術(shù)的新聞推薦算法開始取代傳統(tǒng)的人工推薦,成為新聞分發(fā)的主要方式。同時(shí),新聞分發(fā)算法也造成假新聞泛濫、新聞低俗化,帶來“信息繭房”問題,種種負(fù)面影響也日益凸顯。由此,研究者將算法透明理念引入新聞業(yè),希望通過實(shí)現(xiàn)算法透明破解新聞分發(fā)算法的黑箱問題:“要對(duì)無處不在但又不透明的算法權(quán)力加以有效規(guī)制,需要邁出的第一步就是破解算法黑箱、推進(jìn)算法透明?!盵4]算法透明理念無疑為解決算法黑箱問題提供了一種思路。然而,在現(xiàn)實(shí)實(shí)踐中,研究者也發(fā)現(xiàn)算法透明理念面臨著諸多現(xiàn)實(shí)阻礙[5]??傮w而言,算法透明理念目前仍然停留在設(shè)想之中,難以落地實(shí)行。
算法究竟是否可見、可知、可解釋,不僅取決于算法本身,也與認(rèn)知過程有關(guān)。具體到新聞分發(fā)算法,推薦算法自身的特性、公眾的技術(shù)素養(yǎng)以及環(huán)境因素都是導(dǎo)致算法黑箱問題的重要因素。
第一,黑箱是推薦算法自身的特性?;谌斯ぶ悄芗夹g(shù)的推薦算法本身就是黑箱,即便可以公開具體的代碼,其決策機(jī)制仍然不透明,就連算法設(shè)計(jì)者也難以對(duì)其做出明確解釋。這是人工智能算法自身的技術(shù)局限。傳統(tǒng)的計(jì)算機(jī)推薦算法以因果關(guān)系為核心,算法本身展現(xiàn)了推薦決策的內(nèi)在機(jī)制。然而,基于大數(shù)據(jù)和人工智能技術(shù)的推薦算法僅檢驗(yàn)相關(guān)關(guān)系就可以做出預(yù)測(cè)、推薦[6],這類算法并不追究因果關(guān)系,其決策機(jī)制往往無法清晰解釋。
此外,機(jī)器學(xué)習(xí)等人工智能算法也增加了推薦算法的復(fù)雜性,機(jī)器學(xué)習(xí)分為監(jiān)督學(xué)習(xí)(Supervised Learning)和無監(jiān)督學(xué)習(xí)(Unsupervised Learning)兩類。監(jiān)督學(xué)習(xí)算法通過人為標(biāo)注的訓(xùn)練數(shù)據(jù)集進(jìn)行機(jī)器學(xué)習(xí)、建立預(yù)測(cè)模型,其中的人為標(biāo)注尚可解釋。但在無監(jiān)督學(xué)習(xí)算法中,算法直接通過未標(biāo)注過的數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí),算法的決策機(jī)制難以解釋。
近年來,有計(jì)算機(jī)科學(xué)家致力于改進(jìn)算法,試圖通過技術(shù)革新使得人工智能算法能夠進(jìn)行自我解釋,但這方面的研究尚未取得突破性進(jìn)展,更談不上廣泛應(yīng)用。
第二,公眾缺乏理解新聞分發(fā)算法的技術(shù)素養(yǎng)。具體到新聞分發(fā)算法,社會(huì)公眾大多不具備理解算法所需要的技術(shù)素養(yǎng)。計(jì)算機(jī)語言的語法和結(jié)構(gòu)與人類語言迥異,理解特定的程序和代碼需要對(duì)計(jì)算機(jī)語言進(jìn)行專門學(xué)習(xí)。除了算法實(shí)現(xiàn),理解算法的設(shè)計(jì)思路、決策機(jī)制也需要一定的編程知識(shí),公眾卻通常并不具備這樣的技術(shù)素養(yǎng)。有鑒于此,新聞透明理念的推動(dòng)者們提出應(yīng)當(dāng)通過廣泛教育提高公眾的技術(shù)素養(yǎng),使公眾具備理解、評(píng)估和批判算法機(jī)制的能力,但實(shí)際執(zhí)行層面存在諸多困難,短期內(nèi)很難取得成效。
第三,環(huán)境因素的制約難以解決。從環(huán)境因素來看,算法常常作為商業(yè)秘密被保護(hù)而無法公開。對(duì)企業(yè)而言,算法保密能夠維護(hù)自身的競(jìng)爭(zhēng)優(yōu)勢(shì),而實(shí)現(xiàn)算法透明卻需要承擔(dān)經(jīng)濟(jì)負(fù)擔(dān)和商業(yè)風(fēng)險(xiǎn)。因此,算法透明理念很難得到算法所有者的響應(yīng)。如果通過制定政策強(qiáng)制公開算法,算法所有者很容易被競(jìng)爭(zhēng)對(duì)手模仿,可能影響算法所有者的創(chuàng)新動(dòng)力。強(qiáng)制執(zhí)行算法公開并不具備可行性。
推薦算法牽涉到海量數(shù)據(jù),算法透明不僅要求解釋推薦算法的機(jī)制,還需要公開推薦算法使用的數(shù)據(jù),這將帶來嚴(yán)重的隱私問題。2018年1月,今日頭條舉辦題為《讓算法公開透明》的交流會(huì),其中一個(gè)重要部分是介紹今日頭條的新聞分發(fā)算法的輸入數(shù)據(jù)。這些數(shù)據(jù)包括用戶的年齡、性別、職業(yè)等,甚至涵蓋用戶何時(shí)、何地瀏覽過哪些內(nèi)容、停留多長(zhǎng)時(shí)間。離開對(duì)數(shù)據(jù)的了解就談不上真正了解推薦算法,一旦公開數(shù)據(jù),勢(shì)必嚴(yán)重威脅用戶的隱私權(quán)。
面對(duì)算法透明度理念的現(xiàn)實(shí)困境,新聞業(yè)需要尋找解決算法黑箱問題的新思路、新方法。從廣義的算法概念來理解算法,可以發(fā)現(xiàn)算法黑箱不僅在社會(huì)中普遍存在,也長(zhǎng)期存在于新聞生產(chǎn)中。只不過在新聞業(yè)發(fā)生人工智能轉(zhuǎn)向之后,算法黑箱的問題才引起了廣泛關(guān)注。
從詞源上來看,英語中的“Algorithm”源于拉丁語的“Algorismus”,出現(xiàn)于12世紀(jì),來自對(duì)阿拉伯?dāng)?shù)學(xué)家阿爾·花剌子模(Al Khwarizmi)姓氏的拉丁文翻譯[7]。算法一詞在近現(xiàn)代主要用于數(shù)學(xué)領(lǐng)域。實(shí)際上,“千百年來,人類一直在設(shè)計(jì)、修改并分享著算法……算法無需用到高等數(shù)學(xué),甚至可以和數(shù)學(xué)領(lǐng)域無關(guān)?!盵8]計(jì)算機(jī)科學(xué)領(lǐng)域的論文和著作中常將算法闡釋為計(jì)算機(jī)算法,實(shí)際是把算法概念狹義化了,以計(jì)算機(jī)算法為代表的符號(hào)算法只是算法的一種,算法一詞具體指代的對(duì)象并不相同,可以是配方、規(guī)則、過程,是逐步解決問題的一系列方法和步驟。法國科學(xué)院院士瑟格·阿比特博(Serge Abiteboul)指出,“人類的一切活動(dòng)中都有算法的身影”,同時(shí)人類也經(jīng)常無法解釋自己所用的算法:“我們很容易就能辨認(rèn)出貓和狗,卻難以解釋是如何做到的:是計(jì)算腿和耳朵的數(shù)量呢?還是觀察頭的形狀或毛發(fā)的紋理呢?”[9]
傳統(tǒng)新聞生產(chǎn)中,從選擇特定事實(shí)進(jìn)行報(bào)道到篩選、編輯新聞,再到新聞之間的排列和最終分發(fā),新聞生產(chǎn)的所有環(huán)節(jié)都離不開新聞選擇。解決新聞選擇問題的過程就是一種算法,新聞選擇標(biāo)準(zhǔn)是這一算法的核心。由此,新聞價(jià)值成為新聞選擇的標(biāo)準(zhǔn),實(shí)際上也成為了一種新聞選擇算法。從表現(xiàn)上看,新聞價(jià)值的要素是明確的、透明的。但在新聞生產(chǎn)實(shí)踐中,新聞從業(yè)者們所實(shí)際執(zhí)行的新聞選擇算法遠(yuǎn)沒有這么簡(jiǎn)單。新聞從業(yè)者對(duì)新聞價(jià)值的判斷往往始于一種習(xí)得的“直覺”,出自某種“心照不宣”的判斷[10]。除了顯性的、正統(tǒng)的新聞價(jià)值,新聞從業(yè)者也從隱性存在的新聞價(jià)值(如排他性等)習(xí)得新聞直覺的規(guī)則[11]。對(duì)于公眾來說,新聞從業(yè)者進(jìn)行新聞選擇的算法并不透明。事實(shí)上,就連新聞從業(yè)者也很難清楚解釋自己的新聞選擇算法。總之,跳出算法概念的狹義定義重新審視新聞業(yè)就會(huì)發(fā)現(xiàn),新聞生產(chǎn)中一直存在著新聞選擇算法,算法黑箱問題也并非新問題。
從廣義的算法概念來看,算法黑箱廣泛存在于社會(huì)生活之中,傳統(tǒng)新聞生產(chǎn)也存在黑箱問題,因而有可能通過借鑒過往經(jīng)驗(yàn)應(yīng)對(duì)算法黑箱帶來的現(xiàn)實(shí)問題。早在19世紀(jì)末,以《紐約世界報(bào)》《紐約新聞報(bào)》為代表的大眾報(bào)刊大量刊登聳動(dòng)的“黃色新聞”,建立了一套以“震驚,驚奇,驚呆”為準(zhǔn)繩的決策方法[12]。這種決策方法本質(zhì)上是一種新聞選擇算法。
然而,面對(duì)“黃色新聞”風(fēng)潮,19世紀(jì)末的批評(píng)者們并沒有把矛頭指向新聞選擇算法,而是直指算法背后的價(jià)值觀。鋼鐵巨頭安德魯·卡內(nèi)基(Andrew Carnegie)曾經(jīng)設(shè)想建立與大學(xué)、醫(yī)院、慈善組織所享有的捐贈(zèng)基金類似的新聞業(yè)捐贈(zèng)基金,希望借此改變新聞業(yè),使得新聞業(yè)更正派、更負(fù)責(zé)任[13]?!包S色新聞”浪潮已經(jīng)過去了百余年,今天新聞業(yè)的境況又與當(dāng)年頗為相似:互聯(lián)網(wǎng)企業(yè)以盈利為目的,而其盈利方式主要是廣告和內(nèi)容付費(fèi),兩者都與用戶數(shù)量和點(diǎn)擊量正相關(guān)。為了提高用戶數(shù)量和新聞點(diǎn)擊量,互聯(lián)網(wǎng)企業(yè)以迎合用戶喜好為目標(biāo)進(jìn)行新聞生產(chǎn)和新聞分發(fā)。在這樣的背景下,假新聞、低俗新聞泛濫,誤導(dǎo)性標(biāo)題層出不窮,新聞業(yè)呈現(xiàn)出種種亂象。歸根到底,價(jià)值取向決定了新聞選擇算法,帶來各種負(fù)面問題是唯利是圖的新聞價(jià)值觀。
算法所有者決定著算法價(jià)值取向,人工智能算法也是如此。當(dāng)下的人工智能算法還停留在僅能解決特定具體問題的“弱人工智能”(Weak Artificial Intelligence)階段,與具有自主意識(shí)、可以自發(fā)解決各種問題的“強(qiáng)人工智能”(Full Artificial Intelligence)相距甚遠(yuǎn)??傊?,推薦算法體現(xiàn)的是算法所有者的價(jià)值取向。在追求利潤(rùn)最大化的價(jià)值取向驅(qū)使下,能否迎合用戶喜好幾乎成為所有新聞分發(fā)算法的核心評(píng)價(jià)標(biāo)準(zhǔn),由此引發(fā)了假新聞、低俗新聞的泛濫,帶來了“信息繭房”問題。
新聞分發(fā)算法的黑箱問題背后是新聞價(jià)值觀問題。作為新聞分發(fā)算法的所有者和運(yùn)行者,互聯(lián)網(wǎng)企業(yè)已經(jīng)掌握了過去為傳統(tǒng)新聞媒介所有的傳播權(quán)力,也就應(yīng)當(dāng)承擔(dān)起傳統(tǒng)新聞媒介所應(yīng)肩負(fù)的社會(huì)責(zé)任,這是解決新聞分發(fā)算法黑箱問題的根本途徑。大數(shù)據(jù)技術(shù)和人工智能技術(shù)興起之后,新聞業(yè)發(fā)生了智能化轉(zhuǎn)向,新聞生產(chǎn)也產(chǎn)生了變革。曾經(jīng)由新聞媒體、專門的新聞從業(yè)者所掌握的傳播權(quán)力開始消解,部分轉(zhuǎn)移到了搜索引擎、內(nèi)容平臺(tái)和社交媒介平臺(tái)等互聯(lián)網(wǎng)企業(yè)手中。在全球范圍內(nèi)超過40種具備世界范圍影響力的社交媒體網(wǎng)站和應(yīng)用程序提供專門的新聞發(fā)布模塊,新聞分發(fā)算法直接左右了用戶的新聞獲取[14]。借由掌握算法權(quán)力,以臉譜、谷歌(Google)、推特(Twitter)為代表的互聯(lián)網(wǎng)企業(yè)開始成為新聞生態(tài)系統(tǒng)中的關(guān)鍵參與者,主導(dǎo)著新聞的分發(fā)和呈現(xiàn)。
在新媒體日益普及、分發(fā)算法無處不在的當(dāng)代社會(huì)中,算法權(quán)力應(yīng)受到規(guī)范和約束。然而,目前新聞分發(fā)算法缺乏倫理規(guī)范,其價(jià)值取向幾乎完全倒向商業(yè)利益,以公眾利益為優(yōu)先的算法倫理規(guī)范亟待建立。具體來說,新聞分發(fā)算法的倫理規(guī)范應(yīng)當(dāng)包括維護(hù)新聞?wù)鎸?shí)性、保障用戶自主選擇權(quán)、保護(hù)數(shù)據(jù)隱私權(quán)、正面引導(dǎo)公眾等方面的內(nèi)容。
第一,維護(hù)新聞?wù)鎸?shí)性。新聞分發(fā)算法應(yīng)當(dāng)把維護(hù)新聞?wù)鎸?shí)作為基本的算法倫理規(guī)范,將新聞核查納入算法設(shè)計(jì),切實(shí)維護(hù)新聞?wù)鎸?shí)性。需要建立算法核查規(guī)范,新聞內(nèi)容在通過新聞核查之后方能進(jìn)入分發(fā)環(huán)節(jié)。算法工程師需要充分理解新聞?wù)鎸?shí)性的要求,積極發(fā)展算法核查技術(shù),開展智能化核查。
第二,保障用戶自主選擇權(quán)。應(yīng)當(dāng)樹立充分尊重用戶主體性的倫理規(guī)范,為用戶提供多樣化的選擇。首先,應(yīng)當(dāng)在算法推薦之外提供訂閱式新聞分發(fā)、人工推薦新聞等其他新聞分發(fā)方式,由用戶根據(jù)需要自主選擇獲取新聞的方式。其次,應(yīng)該允許用戶設(shè)置算法推薦的參數(shù),譬如算法推薦的話題領(lǐng)域、頻率、次數(shù)等。
第三,保護(hù)數(shù)據(jù)隱私權(quán)。新聞分發(fā)算法應(yīng)當(dāng)尊重和保護(hù)用戶的數(shù)據(jù)隱私權(quán),建立相應(yīng)的倫理規(guī)范。在收集、分析用戶數(shù)據(jù)時(shí),應(yīng)當(dāng)主動(dòng)進(jìn)行提示,征求用戶許可。此外,新聞分發(fā)算法應(yīng)當(dāng)為用戶提供刪除個(gè)人數(shù)據(jù)的選擇,允許用戶在任何時(shí)間刪除存儲(chǔ)于服務(wù)器的個(gè)人隱私數(shù)據(jù)。
第四,正面引導(dǎo)公眾,推動(dòng)社會(huì)進(jìn)步。新聞業(yè)承擔(dān)著守望社會(huì)、整合社會(huì)的重要責(zé)任。新聞分發(fā)算法應(yīng)當(dāng)將判別新聞價(jià)值納入到算法設(shè)計(jì)中,并在執(zhí)行新聞分發(fā)時(shí)優(yōu)先推薦具有積極意義的新聞內(nèi)容,正面引導(dǎo)公眾,發(fā)揮凝聚社情民意的作用。
新聞分發(fā)算法的黑箱問題成因復(fù)雜,難以消除。正如人工智能學(xué)者皮埃爾·巴爾迪(Pierre Baldi)所言,對(duì)黑箱問題不必太過緊張,因?yàn)榫瓦B每個(gè)人的大腦對(duì)自己來說都是黑箱,人們并不知道自己的大腦是如何運(yùn)作的,但這并不妨礙大家使用自己的大腦、信任自己的大腦[15]。其實(shí),新聞分發(fā)算法黑箱問題的背后是算法價(jià)值觀問題。解決假新聞肆虐、新聞低俗化、“信息繭房”等現(xiàn)實(shí)問題的根本途徑在于改變算法的價(jià)值取向。新聞業(yè)應(yīng)積極維護(hù)新聞?wù)鎸?shí)性、保障用戶的自主選擇權(quán)、保護(hù)數(shù)據(jù)隱私、積極引導(dǎo)公眾,建立起公共利益為先的算法倫理規(guī)范,以此更好地實(shí)現(xiàn)智能化發(fā)展,推動(dòng)社會(huì)的發(fā)展和進(jìn)步。