摘要:人工智能技術(shù)目前在新聞業(yè)被廣泛應(yīng)用,技術(shù)利用計(jì)算機(jī)程序生成新聞稿件,大大提高了新聞生產(chǎn)的效率,算法推薦下的新聞分發(fā)也一定程度上幫助用戶緩解了信息過載的壓力,但是技術(shù)的應(yīng)用也伴隨著新聞生產(chǎn)“黑箱化”、編制用戶“信息繭房”、侵犯用戶隱私、引發(fā)人類技術(shù)焦慮等新聞倫理問題,只有平臺推進(jìn)算法透明化、公眾加強(qiáng)媒介素養(yǎng)、國家完善法律建設(shè),才有解決問題的可能。
關(guān)鍵詞:人工智能;新聞生產(chǎn);新聞倫理;困境與破局
中圖分類號:G210.7 文獻(xiàn)標(biāo)志碼:A 文章編號:1674-8883(2021)18-0019-03
21世紀(jì)以來,人工智能技術(shù)飛速發(fā)展,隨著算法的逐漸成熟,人工智能技術(shù)已經(jīng)成為人們感受世界、接收信息、了解環(huán)境的重要中介。新聞傳播過程的各個(gè)階段都有了人工智能技術(shù)的參與,如素材采集、新聞生產(chǎn)、編輯發(fā)布等。VR新技術(shù)的使用、“機(jī)器人寫作”以及人工智能主播(以下簡稱“AI主播”)等應(yīng)用推動了新聞內(nèi)容的智能化生產(chǎn)與播報(bào),解放了部分新聞工作者的勞動力,此外,內(nèi)容深度定制、海量推送及加強(qiáng)互動等方式的應(yīng)用實(shí)現(xiàn)了新聞的個(gè)性化分發(fā)。
一、新聞視域下人工智能技術(shù)的典型應(yīng)用
(一)算法輔助新聞生產(chǎn)
人工智能技術(shù)運(yùn)用算法對數(shù)據(jù)庫和其他數(shù)據(jù)源進(jìn)行識別分類,清洗梳理原始數(shù)據(jù),通過高速運(yùn)算甚至能得出基于大數(shù)據(jù)的探索型發(fā)現(xiàn)或規(guī)律,生成比較有說服力的數(shù)據(jù)新聞,例如往年的“數(shù)說春運(yùn)”,這是以往定性的新聞報(bào)道難以做到的。由此而得出的新聞也被稱作“自動化新聞”“機(jī)器人新聞”“算法新聞”或“計(jì)算新聞”[1]。
具體到新聞實(shí)踐中,很多平臺有自己的寫稿機(jī)器人,比如騰訊的Dreamwriter、今日頭條的xiaomingbot等,寫稿機(jī)器人運(yùn)行第一步是在浩瀚數(shù)據(jù)庫中找出滿足主題要求的或者用戶感興趣的數(shù)據(jù)資源,然后依托云計(jì)算平臺,將數(shù)據(jù)信息清洗、梳理,按照要求格式進(jìn)行組稿,最后將生成完整的新聞信息推送給大眾。簡單來講,“機(jī)器人寫作”就是利用計(jì)算機(jī)程序制作新聞稿件。其優(yōu)勢在于可以大批量、標(biāo)準(zhǔn)化生產(chǎn)新聞信息,因此在財(cái)經(jīng)類、體育類新聞及突發(fā)事件報(bào)道等垂類應(yīng)用較多。
(二)人工智能實(shí)現(xiàn)個(gè)性化分發(fā)
目前,新聞的分發(fā)機(jī)制已經(jīng)歷了三個(gè)階段,依次是專業(yè)化分發(fā)模式、社交關(guān)系分發(fā)模式和人工智能算法分發(fā)模式。人工智能技術(shù)因其優(yōu)勢被廣泛使用,智能算法分發(fā)迅速發(fā)展成為目前的主要分發(fā)模式。
算法推薦的工作流程是先跟蹤記錄用戶的行為數(shù)據(jù),描繪出用戶畫像,再根據(jù)用戶畫像對符合其興趣和需求的內(nèi)容進(jìn)行聚類推薦。隨著機(jī)器學(xué)習(xí)的不斷深入,深度內(nèi)容定制已在多個(gè)新媒體平臺“大顯身手”,內(nèi)容聚合類平臺如今日頭條、騰訊新聞等,通過算法給平臺用戶推薦符合其興趣的專屬定制報(bào)紙;視頻服務(wù)類平臺如西瓜視頻,通過人工智能為用戶推薦其喜愛的視頻類型,同時(shí)幫助視頻創(chuàng)作者找到自己的作品受眾,為作者創(chuàng)收。此外,算法推薦目前在各種生活服務(wù)類平臺的應(yīng)用也越發(fā)普遍,如淘寶的猜你喜歡就是根據(jù)用戶的搜索、加購情況以及商品特點(diǎn)、價(jià)格來推薦類似的商品,以此推動用戶下單,提高用戶的完單率。
(三)AI主播播報(bào)新聞
以媒介技術(shù)為劃分標(biāo)準(zhǔn),當(dāng)前主播類型可包括:傳統(tǒng)媒體主播(廣播電視主持人、播音員)、新媒體主播(網(wǎng)絡(luò)直播主播、短視頻播主)、虛擬主播(AI主播、虛擬偶像)[2]。在新聞?lì)I(lǐng)域,AI主播已經(jīng)屢見不鮮了。在2018年舉辦的世界互聯(lián)網(wǎng)大會上,搜狗聯(lián)合新華社發(fā)布了全球首個(gè)全仿真智能AI主播。
AI主播的優(yōu)勢在于高效率、低成本,只要輸入文本,設(shè)定算法,就可以快速對數(shù)據(jù)進(jìn)行整理歸納然后合成新聞稿件,進(jìn)行新聞輸出,在反應(yīng)速度上會超越真人主播,可以最大限度地滿足新聞時(shí)效性。而且,基于算法的可靠性,AI主播播報(bào)的新聞稿件質(zhì)量比較穩(wěn)定,播報(bào)也不會出現(xiàn)讀錯(cuò)字的情況。所以AI主播不管是在信息處理能力上,還是工作效率和情緒穩(wěn)定上,都有著人類不可超越的優(yōu)點(diǎn)。但AI主播也有其不足,比如創(chuàng)造力不夠,個(gè)性不夠鮮明,缺乏情感溫度等,這也使得目前AI主播只能起到輔助播報(bào)的作用,難以真正替代真人主播[3]。就目前已發(fā)布的AI主播的形式來看,其形態(tài)、語言以及微表情等方面距離人類主播還有較大差距。因此在人工智能背景下,“真人主播+智能輔播”將是一種更長遠(yuǎn)的發(fā)展方式。
二、人工智能技術(shù)應(yīng)用產(chǎn)生的新聞倫理困境
人工智能的應(yīng)用推動了整個(gè)新聞業(yè)的變革。在新聞生產(chǎn)流程中,人工智能在數(shù)據(jù)收集、自動寫稿、編輯發(fā)布等方面都具有獨(dú)特優(yōu)勢,將新聞工作者從煩瑣重復(fù)的勞動中解放出來,讓他們有時(shí)間精力專注到深度創(chuàng)作上。但是與此同時(shí),人工智能創(chuàng)作的新聞其信息性、知識性和公共性出現(xiàn)滑坡,導(dǎo)致受眾對社會公共利益的關(guān)切逐步讓位于個(gè)人興趣。不僅如此,人工智能技術(shù)在新聞業(yè)的應(yīng)用還帶來了一系列的新聞倫理問題。
(一)新聞生產(chǎn)“黑箱化”
工程師設(shè)定完算法體系后,算法就被賦予了生命力和自我學(xué)習(xí)進(jìn)步能力。算法型生產(chǎn)方式的本質(zhì)是一種“無監(jiān)督式學(xué)習(xí)”,“無監(jiān)督式學(xué)習(xí)”是指輸入數(shù)據(jù)和輸出成果之間的過程不透明、不可觀察,即新聞生產(chǎn)的“黑箱化”[4],因此,算法進(jìn)行新聞生產(chǎn)時(shí),收集信息源、清洗線索數(shù)據(jù)、組稿以及把關(guān)的過程都是“暗箱操作”的,人看不到算法的操作邏輯,也沒辦法預(yù)知或者解決一些可能出現(xiàn)的問題。而且因?yàn)樗惴ㄉa(chǎn)采用的新聞源通常來源豐富,鏈路復(fù)雜,所以即便是人工進(jìn)行新聞編審,在工作量及難度等方面都有很大挑戰(zhàn)。新聞生產(chǎn)過程的不確定性以及生產(chǎn)后的核查困難雙重因素導(dǎo)致算法生產(chǎn)的假新聞的出現(xiàn)概率要遠(yuǎn)大于傳統(tǒng)的新聞生產(chǎn)方式。此外,在算法“內(nèi)容聚類排序”的分發(fā)邏輯下,一則假新聞會帶來更多假新聞,加劇假新聞的擴(kuò)散傳播。
而且不管算法通過怎樣的程序生產(chǎn)新聞,單看新聞作品似乎沒有體現(xiàn)人的價(jià)值觀念,用戶接受算法生產(chǎn)的新聞時(shí),也不會覺得跟記者生產(chǎn)的新聞有所不同,然而事實(shí)往往并非如此。算法模型的創(chuàng)造者是工程師,搭建基礎(chǔ)則是人類的行為數(shù)據(jù),那么工程師設(shè)定算法時(shí)是否注入了價(jià)值觀、人類的行為數(shù)據(jù)是否裹挾了主觀觀念,這些都有待考慮。
(二)引發(fā)“信息繭房”效應(yīng)
在依次經(jīng)歷了媒體型分發(fā)、關(guān)系型分發(fā)之后,人工智能技術(shù)支撐的算法型分發(fā)成為媒介應(yīng)用的主要模式,“信息繭房”作為算法型分發(fā)下的必然產(chǎn)物,最先由凱斯·R·桑斯坦在《信息烏托邦》中提出,指的是受眾長期只接收自己感興趣的信息,會被困在這種類型的信息環(huán)境內(nèi)。算法通過跟蹤用戶行為,標(biāo)記用戶對不同類型內(nèi)容的瀏覽情況,包括頻次、穩(wěn)定性等,對用戶喜好進(jìn)行標(biāo)簽、歸類,然后給各類用戶推送符合其喜好的內(nèi)容。因?yàn)樗惴ǖ倪\(yùn)作過程不透明,這種興趣偏好的判斷標(biāo)準(zhǔn)未必準(zhǔn)確,用戶可能只是誤觸了某條信息,就被算法判斷為感興趣然后不斷推送相似內(nèi)容,所以繭房內(nèi)的信息未必是用戶真正感興趣的,而且很容易使用戶偏好轉(zhuǎn)向低趣味和獵奇性。“信息繭房”的內(nèi)容同質(zhì)化,不僅造成用戶接收信息面的窄化,也會在新聞市場產(chǎn)生“劣幣驅(qū)逐良幣”的后果,將有關(guān)公共議題的優(yōu)質(zhì)內(nèi)容逐漸邊緣化[5]。再者,封閉的“信息繭房”內(nèi),用戶的情緒及想法極易被引導(dǎo)操縱,個(gè)體觀點(diǎn)也會被同質(zhì)化內(nèi)容反復(fù)強(qiáng)調(diào),直至根深蒂固,很容易導(dǎo)致用戶形成極端的單一化觀點(diǎn),如果極端觀點(diǎn)“抱團(tuán)”后進(jìn)入公眾視野,會直接造成群體極化,威脅公共領(lǐng)域,驅(qū)逐公眾的理性批判以及言論自由。
(三)出讓用戶個(gè)人隱私
企業(yè)獲取用戶數(shù)據(jù)的手段是多樣的,或者說是悄無聲息的,比如各大平臺的“內(nèi)容搜索框”就是搜集用戶需求數(shù)據(jù)的有效手段,而采用第三方賬號登錄新平臺也是另一種獲取用戶數(shù)據(jù)的方式。媒介經(jīng)營者根據(jù)獲取到的用戶數(shù)據(jù)對用戶進(jìn)行“建檔”、分層,然后基于用戶的“需求數(shù)據(jù)”實(shí)現(xiàn)精準(zhǔn)的內(nèi)容投放,網(wǎng)絡(luò)社會下每個(gè)人都處于信息爆炸的環(huán)境中,而算法推薦在一定程度上幫助用戶緩解了信息過載的壓力,對用戶來說,符合自己口味的個(gè)性化定制報(bào)紙確實(shí)要比面面俱到的報(bào)紙更吸引人、更具可看性。隨著算法的精細(xì)化發(fā)展與廣泛應(yīng)用,各大互聯(lián)網(wǎng)企業(yè)采集用戶數(shù)據(jù)已是常態(tài),甚至很多移動端應(yīng)用已經(jīng)到了不采集個(gè)人信息就不能運(yùn)作的地步,用戶的行為數(shù)據(jù)是提供個(gè)性化服務(wù)的前提,但獲取用戶數(shù)據(jù)后使用不當(dāng)則會侵犯用戶隱私。因此用戶如果想使用服務(wù)就需要對自己的隱私安全邊界做出讓步。
擁有數(shù)據(jù)越多責(zé)任就越大,如果互聯(lián)網(wǎng)公司的數(shù)據(jù)庫泄露,用戶的個(gè)人隱私將直接遭受破壞。近期,國內(nèi)網(wǎng)約車巨頭滴滴出行因違規(guī)收集用戶信息、威脅用戶的人身安全而被整頓,國外的Facebook也因泄露5 000萬用戶信息參與政治引起輿論一片嘩然。當(dāng)今社會,用戶數(shù)據(jù)是一筆價(jià)值不菲的資產(chǎn),同時(shí)也是一種責(zé)任負(fù)擔(dān),如果沒有相匹配的數(shù)據(jù)保護(hù)意識和能力,最終也將失去用戶和市場。
(四)制造人類“技術(shù)焦慮”
人與技術(shù)的關(guān)系是學(xué)界探討的永恒話題,與其他技術(shù)不同的是,人工智能具備優(yōu)異的自我進(jìn)化以及學(xué)習(xí)能力,甚至具備一定的“當(dāng)家作主”的能力,其發(fā)展水平越接近于人類越能發(fā)揮作用從而受人類青睞。但是目前人工智能技術(shù)發(fā)展速度飛快,其帶來的很多問題都走在人的感知與反應(yīng)前面,人類只能被動地修補(bǔ)問題,比如調(diào)整算法、完善立法等,因此很多問題的解決都有些遲鈍,而且整個(gè)反應(yīng)過程體現(xiàn)了人工智能技術(shù)的引領(lǐng)性,人類發(fā)揮主體性的空間較窄。
回顧歷史,焦慮通常誕生于未知,當(dāng)技術(shù)風(fēng)險(xiǎn)及發(fā)展方向可以被人類牢牢把握時(shí),就不會過于焦慮,然而職業(yè)圍棋選手AlphaGo在比賽中取勝的時(shí)間遠(yuǎn)遠(yuǎn)早于專家預(yù)測的20年周期,其超出人類預(yù)測的發(fā)展速度引發(fā)了普遍的技術(shù)焦慮。在新聞?lì)I(lǐng)域,中國地震臺網(wǎng)的地震報(bào)道編寫發(fā)布用時(shí)只需25秒,今日頭條的一篇體育資訊只需2秒,南方都市報(bào)編寫一則春運(yùn)文章只需1秒[6],機(jī)器人可以取代部分新聞工作者的工作也使得“職業(yè)消亡”的論調(diào)甚囂塵上。未來人類與人工智能技術(shù)的相處模式如何,彼此關(guān)系將走向何方引起學(xué)界高度重視。
三、新聞倫理困境的破局之策
智能媒體時(shí)代,傳統(tǒng)的新聞倫理頻繁被人工智能技術(shù)挑戰(zhàn),如何從人類主體性出發(fā)解決人工智能帶來的新聞倫理問題成為學(xué)界的關(guān)注焦點(diǎn),這種思路的根基在于技術(shù)中性論。只有把技術(shù)作為一種中性工具,才有可能去把握技術(shù),解決技術(shù)帶來的問題。盡管在學(xué)界對于“技術(shù)中立論”的看法各有不同,前有芬伯格(Andrew·Feenbeyg)在《技術(shù)批判理論》一書中體現(xiàn)了自己的技術(shù)倫理觀念:“技術(shù)不是道德中立的,具有階級偏見”,后有庫茲韋爾(Ray·Kurzweil)預(yù)言的21世紀(jì)中葉人工智能“奇點(diǎn)”——強(qiáng)人工智能時(shí)代逐漸逼近[7],但是國內(nèi)學(xué)者的實(shí)用派研究基本還是持一個(gè)技術(shù)中立的立場,尤其是善用技術(shù),發(fā)揮人的主體性不被技術(shù)反控制這點(diǎn)上基本達(dá)成了共識。
(一)平臺承擔(dān)責(zé)任推進(jìn)算法透明度
商業(yè)利益與媒體公共性一直都是天平的兩端,市場經(jīng)濟(jì)的高速發(fā)展,使得媒介機(jī)構(gòu)逐漸往利益目標(biāo)傾斜,丟失了部分公共性、獨(dú)立性與客觀性,傷害媒體的立身之本。在這種情況下,平臺更應(yīng)該回歸自身的公共屬性,承擔(dān)社會責(zé)任。技術(shù)中立不是平臺逃脫社會責(zé)任的借口,推進(jìn)算法透明化更需要平臺作為主要行動者。
算法透明化可以有效緩解“新聞生產(chǎn)黑箱化”帶來的焦慮,公眾提前知曉算法中的價(jià)值觀導(dǎo)向有利于公眾更客觀地把握新聞內(nèi)容。不少新聞機(jī)構(gòu)已經(jīng)在推進(jìn)算法透明度方面做出嘗試。例如紐約時(shí)報(bào)就專門開設(shè)了“公開”(Open)的博客,發(fā)表相關(guān)文章來普及新聞技術(shù)[8]。除了推動算法透明化之外,還應(yīng)該在應(yīng)用層面擴(kuò)大算法推薦關(guān)鍵詞的關(guān)聯(lián)范圍,為用戶提供更加廣泛的新聞內(nèi)容,擴(kuò)展信息面,弱化信息繭房的負(fù)面影響。
(二)智媒受眾提高自身媒介素養(yǎng)
尼爾·波茲曼認(rèn)為,新興技術(shù)迅猛發(fā)展的必然結(jié)果是將人置于全面的技術(shù)壟斷之下。信息網(wǎng)絡(luò)疊加人工智能技術(shù),將用戶牢牢地“鎖在”信息繭房內(nèi),越來越多的智媒受眾沉迷于其中,失去了對時(shí)間的判斷尺度,原本只是隨手點(diǎn)進(jìn)了一個(gè)感興趣的內(nèi)容,結(jié)果看完后緊接著推薦了類似的自己感興趣的內(nèi)容,使得用戶深陷其中不能自拔,喪失了自身主體性。
在這種情況下,要想沖出“繭房”還是要靠受眾自身。受眾要學(xué)會判斷信息的真?zhèn)翁搶?shí),了解人工智能技術(shù)的基本邏輯,獨(dú)立判斷數(shù)據(jù)和算法背后的政治、經(jīng)濟(jì)、文化等因素的影響,而不是對信息全盤接收,努力做到從媒介附庸向媒介主人的回歸。此外,受眾應(yīng)培養(yǎng)獨(dú)立、理性和批判的信息接收習(xí)慣,目前使用算法推薦的選擇權(quán)逐步交到用戶手中,比如淘寶APP用戶可以關(guān)閉個(gè)性化推薦商品,騰訊的隱私功能中也提供了關(guān)閉個(gè)性化廣告的選項(xiàng),是否使用智能算法推薦服務(wù),受眾可以在保持批判性的基礎(chǔ)上謹(jǐn)慎作出選擇。最后,要培養(yǎng)主體意識,樹立主人翁觀念,要信息為我所用,而不是我為信息所役[9]。
(三)加強(qiáng)法規(guī)建設(shè)防范倫理風(fēng)險(xiǎn)
新事物新技術(shù)總是以雙刃劍的形式出現(xiàn),推動行業(yè)發(fā)展的同時(shí)會附帶新的問題。人工智能技術(shù)迅速發(fā)展引起的一系列數(shù)據(jù)安全問題,相關(guān)部門迅速響應(yīng),根據(jù)現(xiàn)狀完善了相關(guān)法律法規(guī)。2017年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》指出,要初步建立人工智能技術(shù)相關(guān)的倫理規(guī)范和法律法規(guī)。2019年國家互聯(lián)網(wǎng)信息辦公室發(fā)布《網(wǎng)絡(luò)安全威脅信息發(fā)布管理辦法(征求意見稿)》,把智媒及算法傳播的發(fā)展納入政府監(jiān)管中。
總的來說,盡管相關(guān)部門響應(yīng)快速,但是問題出現(xiàn)后再籌劃解決對策的處理方式多少有些被動,為此,業(yè)界和學(xué)界需要共同努力,未雨綢繆才能在問題出現(xiàn)之前做預(yù)防,發(fā)揮主體作用。
四、結(jié)語
人工智能技術(shù)的應(yīng)用革新了新聞業(yè)態(tài),但是其帶來的新聞生產(chǎn)黑箱化、損害新聞客觀性、侵犯用戶隱私等問題也亟待解決,面對已出現(xiàn)的問題,只有平臺方聯(lián)動受眾以及相關(guān)部門完善法律法規(guī),才能為人工智能技術(shù)的良性發(fā)展保駕護(hù)航。此外,“發(fā)明”與“服從”從來不是必然因果,人類與技術(shù)的關(guān)系也絕不是簡單的利用,未來的人類與人工智能的相處模式一定是人機(jī)協(xié)同,只有人與技術(shù)之間達(dá)到一種和諧統(tǒng)一的狀態(tài),合理、規(guī)范地利用技術(shù)為人類社會服務(wù),才是長久發(fā)展之計(jì)。
參考文獻(xiàn):
[1] 張夢,陳昌鳳.智媒研究綜述:人工智能在新聞業(yè)中的應(yīng)用及其倫理反思[J].全球傳媒學(xué)刊,2021,8(1):63-92.
[2] 喻國明,張珂嘉.重識主播:試論媒介化視域下主播符號內(nèi)涵與影響力觸達(dá)[J].中國出版,2021(11):11-18.
[3] 楊菁菁.試論人工智能背景下的“AI合成主播”[J].新聞世界,2021(5):77-81.
[4] 筠茜,陳昌鳳.黑箱:人工智能技術(shù)與新聞生產(chǎn)格局的嬗變[J].新聞界,2018(1):28-34.
[5] 姚文康.聚合類新聞客戶端的“信息繭房”效應(yīng)及反思——以“今日頭條”為例[J].傳媒論壇,2020,3(3):151,153.
[6] 秦煦,周長城.新聞?lì)I(lǐng)域人工智能應(yīng)用的倫理風(fēng)險(xiǎn)及治理[J].新聞知識,2019(12):37-40.
[7] 李穆清.馬克思科技倫理視域下人工智能時(shí)代人的主體性危機(jī)研究[D].大連:大連理工大學(xué),2021.
[8] 季芳芳.如何認(rèn)識新聞倫理層面的算法透明度[J].中國報(bào)業(yè),2018(5):28-30.
[9] 宮承波,王玉鳳.主體性異化與反異化視角的智能傳播倫理困境及突圍[J].當(dāng)代傳播,2020(6):79-81.
作者簡介:劉玉菡(1994—),女,山東青州人,碩士在讀,研究方向:廣播電視傳媒。