杜 娟
在人工智能時(shí)代,新聞報(bào)道和傳播將更深度地依賴技術(shù)帶來(lái)的革新。從新媒體到未來(lái)的智媒化,在人工智能技術(shù)驅(qū)動(dòng)下,傳統(tǒng)的新聞實(shí)踐面對(duì)著更多元的形式和更為復(fù)雜的規(guī)則,隨之而來(lái)的新聞倫理與新聞道德的討論也將進(jìn)入一個(gè)新的界面。人工智能在改變世界的同時(shí),也對(duì)價(jià)值判斷標(biāo)準(zhǔn)產(chǎn)生了很大影響。越來(lái)越多的人認(rèn)識(shí)到,未來(lái)媒體將是人與機(jī)器的協(xié)同生產(chǎn),這也會(huì)體現(xiàn)在新聞生產(chǎn)到傳播的所有環(huán)節(jié)。構(gòu)建一個(gè)何種內(nèi)涵的新聞倫理觀來(lái)適應(yīng)這一變化?應(yīng)該對(duì)這一問(wèn)題盡快展開學(xué)術(shù)研究和討論。本文試圖從人機(jī)關(guān)系角度入手,來(lái)討論這樣一個(gè)問(wèn)題:人工智能技術(shù)給新聞實(shí)踐帶來(lái)深度革新的同時(shí),也給新聞倫理規(guī)范帶來(lái)更多挑戰(zhàn),我們對(duì)此應(yīng)如何應(yīng)對(duì)。
《算法帝國(guó)》一書早已為我們描繪了“機(jī)器人革命”在人類世界各領(lǐng)域的發(fā)生和發(fā)展,并指出:“未來(lái)屬于算法和它們的創(chuàng)造者。”①新聞生產(chǎn)和傳播中大數(shù)據(jù)的廣泛采集使用和算法大行其道,讓受眾直接感受到更快、更新的傳播體驗(yàn),而一些新的問(wèn)題也開始出現(xiàn)和困擾我們,比如隱私權(quán)和著作權(quán)問(wèn)題、新聞報(bào)道的真實(shí)性和客觀性問(wèn)題,等等。有關(guān)人工智能環(huán)境下新聞倫理方面的反思和討論在近年的一些研究中已有涉及。毫無(wú)疑問(wèn),未來(lái)人工智能與人的關(guān)系對(duì)于新聞倫理的影響將是深遠(yuǎn)的。筆者認(rèn)為,人工智能背景下的新聞生產(chǎn)與傳播,其本質(zhì)是“人-物”之間的信息交互。我們應(yīng)該從人與機(jī)器的關(guān)系切入,來(lái)探討新聞媒體道德倫理所面臨的或即將面臨的整合。這還是一個(gè)值得深度研究的議題。
人工智能技術(shù)在新聞?lì)I(lǐng)域的應(yīng)用在近年內(nèi)獲得了飛速發(fā)展。因?yàn)椤叭斯ぶ悄艿氖滓蝿?wù)是參與繁瑣的初級(jí)任務(wù), 將記者解放出來(lái)從事更復(fù)雜、更高質(zhì)量的報(bào)道和分析。人工智能能夠幫助記者分析數(shù)據(jù),驗(yàn)證模式、趨勢(shì),并從眾多信息來(lái)源中探測(cè)原由和深意,看見(jiàn)肉眼不能看見(jiàn)的關(guān)系?!雹谠谛侣勆a(chǎn)端,最具話題性的就是機(jī)器人寫作。機(jī)器人寫作最早產(chǎn)生于美國(guó)。2006年,湯姆森金融公司開始使用機(jī)器人寫作財(cái)經(jīng)新聞。這項(xiàng)技術(shù)在當(dāng)時(shí)被認(rèn)為“無(wú)法更深入地揭示數(shù)據(jù)背后的含義?!痹谖覈?guó),2015年9月10日,騰訊財(cái)經(jīng)開發(fā)的寫稿機(jī)器人Dreamwriter發(fā)出第一篇稿件《8月CPI漲2%創(chuàng)12個(gè)月新高》,其生產(chǎn)方式是在大數(shù)據(jù)平臺(tái)上,短時(shí)間內(nèi)選出新聞點(diǎn)、抓取相關(guān)資料,在設(shè)定的新聞模板上生成稿件,它適用信息量巨大的財(cái)經(jīng)資訊類新聞,在準(zhǔn)確率和時(shí)效性上都完勝記者編輯。隨后出現(xiàn)的機(jī)器人寫作如今日頭條“張小明”,新華社的“快筆小新”等。其優(yōu)勢(shì)是將記者編輯從一些低級(jí)的資料信息收集和資訊報(bào)道的工作中解脫出來(lái),轉(zhuǎn)向分析性的、深度的采訪報(bào)道工作。
除機(jī)器人寫作外,人工智能的強(qiáng)大算法還發(fā)展演變?yōu)槠毡檫\(yùn)用更多技術(shù)手段的新聞生產(chǎn)和傳播方式,如視頻直播、聊天機(jī)器人、VR/AR新聞、VR(AR)直播、傳感器新聞等,無(wú)不強(qiáng)調(diào)人機(jī)的合作,都正在或?qū)⒁粩嗨⑿率鼙娪脩舻慕邮荏w驗(yàn)。世界經(jīng)濟(jì)論壇全球議程理事會(huì)“軟件與社會(huì)的未來(lái)”議題組的調(diào)查報(bào)告(2015年9月出版)顯示,有80%的受訪者認(rèn)為未來(lái)視覺(jué)將成為新的交互界面。眼鏡式、頭戴式及眼球追蹤設(shè)備都會(huì)變得越來(lái)越智能,谷歌眼鏡只是第一個(gè)成功的嘗試。未來(lái),人眼與視覺(jué)也將成為鏈接互聯(lián)網(wǎng)及數(shù)字設(shè)備的新媒介。通過(guò)視覺(jué)與互聯(lián)網(wǎng)中各種應(yīng)用與數(shù)據(jù)直接鏈接,個(gè)人的感官體驗(yàn)經(jīng)過(guò)調(diào)節(jié)后被加強(qiáng),從而更具身臨其境之感。通過(guò)提供指令、信息可視化及交互作用,可使視覺(jué)成為一個(gè)即時(shí)、直接的交互界面,有助于人們更充分地與世界互動(dòng)。③以VR新聞為例,這種形式強(qiáng)調(diào)的是360度沉浸式和交互性體驗(yàn)。在虛擬場(chǎng)景模擬下,打破時(shí)間和空間的局限,讓受眾“沉浸”在新聞中,這會(huì)讓受眾對(duì)新聞的接受變得更有趣。2013年美國(guó)的《得梅因紀(jì)事報(bào)》首次在新聞中使用VR技術(shù)。2015年,《紐約時(shí)報(bào)》推出了“NYT VR”虛擬現(xiàn)實(shí)APP,VR新聞?wù)狡鸩健R新聞?dòng)捎谄湟杂脩魹榈谝灰暯?,用戶不再是局外人,而成為虛擬場(chǎng)景下的事件“親歷者”。這不但改變了新聞制作方式,也對(duì)新聞從業(yè)者的技術(shù)素養(yǎng)提出了更高要求。
《2017年新聞業(yè)年度發(fā)展報(bào)告》指出,“未來(lái),新聞視頻與AR技術(shù)結(jié)合、與娛樂(lè)消費(fèi)結(jié)合,將進(jìn)一步豐富新聞的呈現(xiàn)形態(tài),更加貼合受眾的閱讀喜好。同時(shí),新聞和資訊視頻的表現(xiàn)形式也將更多樣化,超短視頻、中長(zhǎng)視頻、視頻直播、真實(shí)視頻與虛擬的混合等各種形式的視頻內(nèi)容將呈現(xiàn)出更加井噴的增長(zhǎng)態(tài)勢(shì)?!雹苡杏^點(diǎn)認(rèn)為,人工智能技術(shù)未來(lái)會(huì)在“基于物聯(lián)網(wǎng)傳感器的信息采集與應(yīng)用、語(yǔ)音數(shù)據(jù)的采集與文字化轉(zhuǎn)化、多語(yǔ)言數(shù)據(jù)采集與實(shí)時(shí)翻譯、社交機(jī)器人采訪、新聞現(xiàn)場(chǎng)要素的智能識(shí)別、新聞專題的智能化生成、智能化新聞核查”等領(lǐng)域產(chǎn)生。因而,智能化是具有能量巨大的“核能”,在推動(dòng)媒體系統(tǒng)改造的同時(shí),一旦使用不當(dāng)也會(huì)帶來(lái)巨大風(fēng)險(xiǎn)。⑤
人工智能技術(shù)的快速演進(jìn),給新聞業(yè)帶來(lái)摧毀式的創(chuàng)新。在這一摧枯拉朽的浪潮下,它必須從傳統(tǒng)模式中走出來(lái),進(jìn)行艱難的蛻變。美聯(lián)社在2017年推出的《人工智能使用手冊(cè)》中指出:“人工智能技術(shù)帶來(lái)的影響很大程度上將是一部人工記者如何適應(yīng)人工智能的歷史,而不是智能機(jī)器如何工作的歷史?!薄叭斯ぶ悄懿皇侨f(wàn)能鑰匙,它和人類一樣存在偏見(jiàn),而且容易犯錯(cuò)。”在新聞業(yè)適應(yīng)新模式進(jìn)行不斷調(diào)整的過(guò)程中,當(dāng)技術(shù)介入到新聞生產(chǎn)和傳播實(shí)際操作中時(shí),其自身的機(jī)器屬性(或者說(shuō)物的屬性)也顯現(xiàn)出了某種局限性,一些新的問(wèn)題產(chǎn)生,如新的失范現(xiàn)象出現(xiàn)、價(jià)值體系的解構(gòu)等,新的倫理困境開始顯現(xiàn)。有必要對(duì)于人工智能背景下新聞倫理所遭遇的困境進(jìn)行反思,而人與機(jī)器的關(guān)系是其中一個(gè)重要維度。當(dāng)前的新聞倫理困境主要表現(xiàn)在以下幾方面:
第一, 新聞客觀性、真實(shí)性受到挑戰(zhàn)。技術(shù)在新聞生產(chǎn)中能夠達(dá)到準(zhǔn)確的效果嗎?現(xiàn)在看來(lái),這個(gè)問(wèn)題恐怕不好回答。新聞創(chuàng)作過(guò)程中,技術(shù)確實(shí)仍存在某種局限性:寫作機(jī)器人是建立在計(jì)算機(jī)算法和大數(shù)據(jù)之上的,它能從資料庫(kù)和數(shù)據(jù)信息中抓取資料,尤其是它依賴模板進(jìn)行創(chuàng)作。如果模板的模式選取和數(shù)據(jù)庫(kù)中的信息錄入出錯(cuò),以致機(jī)器人無(wú)法識(shí)別,會(huì)導(dǎo)致新聞報(bào)道“錯(cuò)上加錯(cuò)”,如果未經(jīng)嚴(yán)格審查推送出去,負(fù)面影響的波及面會(huì)更大。而短視頻、VR/AR新聞等形式,也有可能因?yàn)橹圃煺叩膬A向性選擇,主觀的判斷取舍,導(dǎo)致新聞素材的選材偏頗甚至產(chǎn)生目的性導(dǎo)向,使得其實(shí)際報(bào)道效果的客觀性和真實(shí)性減弱。人們擔(dān)憂的是,VR技術(shù)以圖像符號(hào)和沉浸式的表達(dá)方式,取代了傳統(tǒng)的文字與視覺(jué)符號(hào)的思維方式,它創(chuàng)造的是一個(gè)虛擬與現(xiàn)實(shí)合成的世界??赡軙?huì)“進(jìn)一步削弱受眾對(duì)VR新聞信息的理解能力?!薄癡R新聞貌似客觀和真實(shí)的技術(shù)呈現(xiàn)背后,存在著巨大可操控性和人為建構(gòu)的可能性。”⑥為此,我們對(duì)VR新聞模式的使用要更加謹(jǐn)慎和冷靜。
第二,新聞報(bào)道及內(nèi)容推送的導(dǎo)向出現(xiàn)偏失。如果在新聞制造端,出現(xiàn)因設(shè)計(jì)者的主觀偏見(jiàn),而在新聞報(bào)道中出現(xiàn)偏向性的報(bào)道,一旦出現(xiàn)錯(cuò)誤性的引導(dǎo),所造成的負(fù)面影響將難以收拾。而在新聞傳播方式上,偏見(jiàn)將帶來(lái)更嚴(yán)重的情況。2016年,F(xiàn)acebook的“偏見(jiàn)門”事件中,該網(wǎng)站被指責(zé)熱門話題榜(trending topics)受到人為操縱,新聞篩查存在政治偏見(jiàn)。此番消息發(fā)布后引起了軒然大波。人工智能技術(shù)支持下的新聞推送機(jī)制對(duì)傳統(tǒng)媒體的新聞價(jià)值觀造成了挑戰(zhàn)。在社交新聞越來(lái)越占據(jù)重要位置的趨勢(shì)之下,這種算法偏見(jiàn)所帶來(lái)的新聞導(dǎo)向錯(cuò)誤的教訓(xùn)值得所有媒體人警醒。
第三,機(jī)器化生產(chǎn)中人的主觀個(gè)性讓位,即傳統(tǒng)新聞作品中的個(gè)性和情感關(guān)懷缺失。寫作機(jī)器人等人工智能型采編系統(tǒng)依賴數(shù)據(jù)的整合和程序設(shè)定的模板進(jìn)行新聞生產(chǎn),缺乏新聞報(bào)道的現(xiàn)場(chǎng)體驗(yàn),目前來(lái)看它還未能達(dá)到高度類似人類的情感思維能力,尤其難以判斷一個(gè)新聞事件背后的深層意義和主觀性因素,在深度報(bào)道方面其能力還無(wú)法勝任。因此,寫作機(jī)器人等智能采編系統(tǒng)受到頗多質(zhì)疑。當(dāng)對(duì)技術(shù)的追求成為新聞媒介追求的一種普遍性趨勢(shì)時(shí),標(biāo)準(zhǔn)化操作使得新聞越來(lái)越多地向同一性和同質(zhì)化方向發(fā)展。新聞作品越來(lái)越不像“作品”,而成為一種沒(méi)有特點(diǎn)的“產(chǎn)品”。此外,記者和編輯可以創(chuàng)作出不同效果和風(fēng)格的新聞報(bào)道,尤其是在深度報(bào)道和新聞?wù){(diào)查中,受眾能夠感受到生產(chǎn)者的情感和思想。借助人工智能參與新聞生產(chǎn),雖然可以大大減輕人的負(fù)擔(dān),但智能化新聞產(chǎn)品也可能缺乏新聞報(bào)道所需要的個(gè)人風(fēng)格及媒體自身特色。
第四,隱私權(quán)、著作權(quán)與信息安全面臨的風(fēng)險(xiǎn)加大。2018年3月,F(xiàn)acebook“用戶數(shù)據(jù)泄露事件”爆發(fā),引發(fā)了全球?qū)π畔踩年P(guān)注。由于人為操作,超5000萬(wàn)用戶的資料數(shù)據(jù)被非法用于大數(shù)據(jù)心理分析,甚至被使用到政治活動(dòng)中。新聞活動(dòng)本身是一種人類信息的交互,大數(shù)據(jù)技術(shù)的手段使得新聞生產(chǎn)和傳播更加快捷迅速,但同時(shí)也打開了“潘多拉”魔盒。電影《搜索》中,新聞?dòng)浾叱鲇趥€(gè)人的私心,借助媒體互聯(lián)網(wǎng)傳播將他人隱私公之于眾,導(dǎo)致對(duì)方在互聯(lián)網(wǎng)上被“人肉搜索”。新聞?dòng)浾叩膱?bào)道活動(dòng)應(yīng)該符合職業(yè)倫理的規(guī)范。人工智能時(shí)代的新聞生產(chǎn)與傳播,尤其應(yīng)該注重隱私權(quán)、著作權(quán)和數(shù)據(jù)信息安全的防護(hù)。這不僅是基于市場(chǎng)規(guī)范的考慮,同樣是基于職業(yè)倫理道德的要求。新聞生產(chǎn)者和公眾所面臨的風(fēng)險(xiǎn)主要在于以下幾方面:第一,對(duì)信息源數(shù)據(jù)包括公民隱私權(quán)的非法使用和采集。對(duì)數(shù)據(jù)來(lái)源缺乏安全有效保護(hù),對(duì)數(shù)據(jù)來(lái)源造成侵權(quán)行為;第二,對(duì)數(shù)據(jù)的解讀不客觀甚至是錯(cuò)誤、惡意利用,導(dǎo)致錯(cuò)誤導(dǎo)向的輿論報(bào)道;第三,作為新聞報(bào)道的新聞?dòng)浾撸鏅?quán)得不到有效保護(hù)。在傳統(tǒng)媒體和新媒體時(shí)代,有效的新聞立法始終無(wú)法徹底解決新聞版權(quán)保護(hù)問(wèn)題,那么,人工智能時(shí)代,這個(gè)問(wèn)題的解決將會(huì)更加困難。
第五,“信息繭房”效應(yīng)。哈佛大學(xué)法學(xué)院教授凱斯·桑斯坦在《信息烏托邦——眾人如何生產(chǎn)知識(shí)》(2006年)中提出了這一概念。他認(rèn)為,在信息傳播中,因公眾自身的信息需求并非全方位的,公眾只注意自己選擇的東西和使自己愉悅的通訊領(lǐng)域,久而久之,會(huì)將自身桎梏于像蠶繭一般的“繭房”中?;ヂ?lián)網(wǎng)和大數(shù)據(jù)為我們帶來(lái)的,是撲面而來(lái)的海量數(shù)據(jù)信息。無(wú)論寫作機(jī)器人還是智能化的新聞推送,程序的設(shè)計(jì)通常被設(shè)定在某一范圍之內(nèi),受眾容易因個(gè)人興趣所限而陷入自身的狹隘領(lǐng)域,長(zhǎng)久以往將逐步影響受眾對(duì)社會(huì)公共問(wèn)題的認(rèn)知,也將對(duì)人與人、人與社會(huì)的溝通產(chǎn)生影響。從新聞生產(chǎn)者的目的出發(fā),我們有必要考慮,精準(zhǔn)化的“投其所好”是否只是體現(xiàn)了科技的強(qiáng)大優(yōu)勢(shì)?這種目標(biāo)精準(zhǔn)的投放是否本身帶有算法上的某種傾向性或者說(shuō)是“偏見(jiàn)”呢?它帶來(lái)的是個(gè)性的解放,還是更深度的“作繭自縛”?
智能機(jī)器與以往的事物都有所不同,在人類智慧的設(shè)計(jì)下,它具有更高級(jí)的能力。因此,不能單純從技術(shù)層面來(lái)理解人機(jī)之間的關(guān)系。近年來(lái),人工智能成為各個(gè)領(lǐng)域關(guān)注的熱點(diǎn)。從哲學(xué)和倫理學(xué)視角對(duì)人機(jī)關(guān)系進(jìn)行深入研究,也有不少成果問(wèn)世。從傳統(tǒng)哲學(xué)角度來(lái)看,人與機(jī)器的關(guān)系,也被理解為“人-物”關(guān)系,人對(duì)物的控制如何合理地實(shí)現(xiàn),人與物如何共處,比如道家的“天人合一”。1960年,美國(guó)的利克里德(Liklider JCK)提出了“人機(jī)共生”(Human-Computer Symbiosis)的概念??梢钥隙ǎ磥?lái)人機(jī)將共同演進(jìn),人機(jī)關(guān)系從某種程度上說(shuō)就是人與人之間的關(guān)系?!皬娜祟愖陨矶?,應(yīng)該謹(jǐn)慎地避免自己在技術(shù)中迷失,保持獨(dú)立的思考,更多地關(guān)注人之所以為人的本質(zhì)問(wèn)題?!雹哂斜匾獜恼軐W(xué)維度切入展開反思,這是一個(gè)很好的視角。
美聯(lián)社在2017年2月推出了編輯部的人工智能使用指南,用于指導(dǎo)新聞人員如何利用智能機(jī)器從事新聞活動(dòng)。在國(guó)內(nèi),人工智能對(duì)于新聞業(yè)的影響已是有目共睹,但是對(duì)于人工智能與新聞倫理關(guān)系的研究和實(shí)踐還尚未深入展開。作者在“中國(guó)知網(wǎng)”按照文章“主題”進(jìn)行搜索發(fā)現(xiàn):“新聞倫理”主題的文章有1273條搜索結(jié)果,“機(jī)器人寫作”主題的文章有80條搜索結(jié)果,“VR新聞”為主題的文章有241條結(jié)果,而有關(guān)“人工智能+新聞倫理”主題的文章,僅有9條搜索結(jié)果,“智媒體”為主題的文章有110條結(jié)果。在百度搜索引擎上粗略搜索一下“人工智能和新聞倫理”,搜索到110多萬(wàn)條資訊(截止到2018年10月14日)。從搜索的數(shù)據(jù)來(lái)對(duì)比,可以發(fā)現(xiàn),對(duì)人工智能技術(shù)與新聞倫理問(wèn)題的社會(huì)關(guān)注度是很高的,但是國(guó)內(nèi)在這一領(lǐng)域的學(xué)術(shù)性討論研究還遠(yuǎn)未達(dá)到相應(yīng)的“熱度”。也可以說(shuō),鑒于當(dāng)前新聞業(yè)發(fā)展的實(shí)際,從人機(jī)關(guān)系入手來(lái)分析新聞活動(dòng)中的倫理問(wèn)題,相關(guān)的理論研究也還遠(yuǎn)遠(yuǎn)不夠。為了應(yīng)對(duì)當(dāng)前以及未來(lái)新聞倫理在人工智能滲透下所遭遇的困境和難題,有必要盡快對(duì)這一課題展開理論研究。
鑒于人工智能在各領(lǐng)域日益凸顯其重要性的現(xiàn)實(shí),對(duì)于其所產(chǎn)生的不可估量的影響力的分析和反思,已經(jīng)在近年來(lái)轉(zhuǎn)向更加深入的哲學(xué)、技術(shù)倫理學(xué)的向度。在新聞傳播領(lǐng)域,新的傳播手段必將對(duì)傳統(tǒng)新聞媒體的理念和形式帶來(lái)沖擊。鑒于當(dāng)前新聞倫理所出現(xiàn)的困局,從理論層面對(duì)其展開深入思考實(shí)為必需。尤其是,在人工智能環(huán)境下,應(yīng)該重視在新聞傳播過(guò)程中充分考慮人機(jī)之間的關(guān)系。
我們借助德國(guó)著名社會(huì)學(xué)者馬克斯·韋伯有關(guān)“工具理性”和“價(jià)值理性”的概念,來(lái)進(jìn)行這種考察。我們知道,馬克斯·韋伯對(duì)西方發(fā)展起來(lái)的理性主義做出了經(jīng)典的詮釋。在《經(jīng)濟(jì)與社會(huì)》(第一卷)對(duì)社會(huì)行動(dòng)的描述中,他提出了工具理性(Zweckrationalitat)和價(jià)值理性(Wertrationalitat)的概念。工具理性決定于對(duì)客體在環(huán)境中的表現(xiàn)和他人的表現(xiàn)的預(yù)期,行動(dòng)者會(huì)把這些預(yù)期用作“條件”或者“手段”,以實(shí)現(xiàn)自身的理性追求和特定目標(biāo);價(jià)值理性是指對(duì)某種包含在特定行為方式中的無(wú)條件的內(nèi)在價(jià)值的自覺(jué)信仰,無(wú)論該價(jià)值是倫理的、美學(xué)的、宗教的還是其他的什么東西,只追求這種行為本身,而不管其成敗與否。前者重視的是條件和手段為主導(dǎo),后者則重視內(nèi)在價(jià)值為主導(dǎo)。他指出,“完全理性地考慮并權(quán)衡目的、手段和附帶后果,這樣的行動(dòng)就是工具理性的?!眱r(jià)值理性總是“將價(jià)值觀念一以貫之地體現(xiàn)在具體的行動(dòng)進(jìn)程中”。但是他也說(shuō)明,“完全是為了理性地達(dá)到目的而于基本的價(jià)值觀無(wú)涉,這樣的行動(dòng)取向?qū)嶋H上也并不多見(jiàn)?!雹嗨麤](méi)有把兩者完全割裂開,而是肯定了兩者之間的某種互補(bǔ)關(guān)系。但是,看起來(lái)他更加重視的是“工具理性”的作用。
韋伯之后,法蘭克福學(xué)派對(duì)“工具理性”的批判主要指向于此,認(rèn)為它造成了人的異化。確實(shí)如此,技術(shù)手段、算法的優(yōu)勢(shì)及其帶來(lái)的高效率和巨大收益,讓我們忽略了價(jià)值、信仰、倫理的理性思考。問(wèn)題往往隱含在人機(jī)關(guān)系的背后。馬克斯·韋伯的“工具理性”和“價(jià)值理性”的概念,可以被用來(lái)考察在我們?cè)谛侣剬?shí)踐活動(dòng)中的行為,尤其是對(duì)人機(jī)關(guān)系的理解。我們可以由此找到未來(lái)新聞倫理構(gòu)建的一種路徑。
在中國(guó)哲學(xué)體系中,始終把道德倫理作為核心命題??鬃拥摹叭省?,孟子談“性善”,宋明儒學(xué)對(duì)天理這一道德的遵從,對(duì)內(nèi)在心性的探索,始終都圍繞著道德精神這一核心思想不斷地深化。當(dāng)代新儒家的代表人物牟宗三先生在儒家與康德思想的基礎(chǔ)上提出“道德的形而上”的概念,指出人具有“智的直覺(jué)”,即道德本體的直覺(jué),德行優(yōu)先于知識(shí)。在道德與科學(xué)知識(shí)的關(guān)系問(wèn)題上,他指出道德是人之本,也是科學(xué)知識(shí)之本。沒(méi)有道德的根本,科學(xué)會(huì)帶來(lái)罪惡的物欲,但是沒(méi)有科學(xué)知識(shí),道德理性也難以實(shí)現(xiàn)。他認(rèn)為:“故古人首重‘正德’與‘敬慎’。這不但是中國(guó)傳統(tǒng)如此,即在西方,古人明知重智,其目的亦在成德?!雹崴?,“從這個(gè)意義上講,科學(xué)知識(shí)與道德是一個(gè)有機(jī)和諧的統(tǒng)一體,二者合則共存,分則兩亡。”⑩
人工智能技術(shù)顛覆性地改變了新聞傳播的格局。在此格局下新聞倫理所面對(duì)的困境及背后的原因值得探討。本文試圖對(duì)此進(jìn)行分析并認(rèn)為,由于沒(méi)有深刻認(rèn)識(shí)人工智能時(shí)代人機(jī)關(guān)系的本質(zhì),在新聞生產(chǎn)與傳播的過(guò)程中,價(jià)值理性與工具理性關(guān)系失衡,以致傳統(tǒng)的新聞倫理未得到相應(yīng)的調(diào)整,從而導(dǎo)致前述種種新聞行業(yè)失范行為的產(chǎn)生。具體來(lái)說(shuō)有以下幾方面的問(wèn)題:
1.技術(shù)與道德二者間的關(guān)系沒(méi)有得到協(xié)調(diào)和統(tǒng)一
人工智能技術(shù)是現(xiàn)代工業(yè)社會(huì)的新物種,它的快速發(fā)展和普及對(duì)傳統(tǒng)的道德倫理產(chǎn)生的沖擊是巨大的。伴隨人對(duì)人工智能技術(shù)的依賴逐漸加深,人的主導(dǎo)性被弱化,一切讓位于數(shù)據(jù)和算法:為制造新奇刺激的感官體驗(yàn)以吸引客戶,而犧牲了新聞報(bào)道的客觀性和真實(shí)性;為追求市場(chǎng)效應(yīng),新聞在算法的設(shè)定下進(jìn)行分類推送,不利于公眾關(guān)注社會(huì)公共問(wèn)題,新聞的輿論功能和社會(huì)價(jià)值被弱化;為爆料而無(wú)視個(gè)人隱私與公共信息安全的新聞行為,則觸及了新聞倫理和法律的底線。
馬克斯·韋伯的“價(jià)值理性”和“工具理性”概念認(rèn)為,二者都是人的理性的不可分割的重要方面。價(jià)值理性體現(xiàn)人對(duì)價(jià)值問(wèn)題的理性思考,體現(xiàn)人對(duì)自身和世界的終極關(guān)懷;而工具理性則是一種以工具崇拜和技術(shù)主義為生存目標(biāo)的價(jià)值觀,從追求功利的動(dòng)機(jī)出發(fā)考慮,忽視情感和精神價(jià)值。我們借助這一概念來(lái)考察新聞實(shí)踐中人對(duì)技術(shù)的關(guān)系,可以做出新的理解和判斷:如果只堅(jiān)持工具理性而忽視價(jià)值理性,新聞傳播將失去價(jià)值判斷;反之,摒棄技術(shù)手段,新聞價(jià)值也難以得到最大化。兩者關(guān)系的失衡,極易導(dǎo)致新聞倫理失范問(wèn)題的產(chǎn)生。只有二者統(tǒng)一,人與智能機(jī)器之間的關(guān)系協(xié)調(diào)統(tǒng)一,同時(shí)實(shí)現(xiàn)新聞實(shí)踐中技術(shù)的最大化利用和對(duì)倫理價(jià)值的堅(jiān)守,新聞價(jià)值才能最終實(shí)現(xiàn)。
2.“算法偏見(jiàn)”(algorithmic bias)
算法本身是一套解決問(wèn)題的系統(tǒng)機(jī)制,但是程序的設(shè)計(jì)者,有可能在種族、性別、年齡歧視等社會(huì)傾向或其他方面有主觀性偏見(jiàn)。算法反映了設(shè)計(jì)者的主觀認(rèn)識(shí),在應(yīng)用過(guò)程中本身就已經(jīng)附帶了某一類人的價(jià)值理念。反過(guò)來(lái),人們會(huì)擔(dān)心設(shè)計(jì)者和技術(shù)公司會(huì)因?yàn)榫薮蟮睦骝?qū)使而被算法所控制。2017年初,皮尤研究中心聯(lián)合伊隆大學(xué)互聯(lián)網(wǎng)創(chuàng)想中心發(fā)布了名為《代碼依賴:算法時(shí)代的利弊》的報(bào)告。該報(bào)告指出:“有受訪者表示,相較于準(zhǔn)確性和公平性,算法更看重效率,長(zhǎng)此以往,會(huì)更符合算法的創(chuàng)設(shè)者的利益。而且算法只能反映社會(huì)現(xiàn)實(shí),也會(huì)體現(xiàn)現(xiàn)實(shí)中的偏見(jiàn)、加劇不公,于是它們可能有利于白人男性,或許也會(huì)偏袒來(lái)自亞洲的年輕男性,而不利于女性、老年人、單親父母、有色人種、移民、穆斯林、非英語(yǔ)居民等?!彼惴ㄆ?jiàn)體現(xiàn)的是人的偏見(jiàn),在新聞實(shí)踐中直接體現(xiàn)為新聞報(bào)道的傾向和目的,因偏見(jiàn)而產(chǎn)生的偏差進(jìn)而出現(xiàn)導(dǎo)向偏頗,對(duì)受眾的差別化待遇甚至引發(fā)不良的輿論效應(yīng)。前面提到的2016年Facebook的“偏見(jiàn)門”事件即為算法偏見(jiàn)導(dǎo)致的典型案例。
3.新聞實(shí)踐中,尚未確立人工智能技術(shù)的相應(yīng)標(biāo)準(zhǔn)和行業(yè)規(guī)范
工業(yè)革命以來(lái)工具理性的發(fā)展,不斷向前推動(dòng)和刺激著科技的進(jìn)步和社會(huì)經(jīng)濟(jì)的發(fā)展。但是,沒(méi)有價(jià)值理性的指引,僅依靠工具理性也難以更好地推動(dòng)人類社會(huì)的進(jìn)步和發(fā)展。當(dāng)我們進(jìn)行倫理的判斷時(shí),也需要借助一定的量化標(biāo)準(zhǔn)。目前,對(duì)于新聞傳播中人工智能技術(shù)的使用,還沒(méi)有確立明確的標(biāo)準(zhǔn)或者規(guī)則。這就使得人工智能技術(shù)可能被濫用:在新聞生產(chǎn)端,機(jī)器人寫作等技術(shù)手段無(wú)法保證客觀全面地處理數(shù)據(jù);在新聞推送端,受訪者隱私和數(shù)據(jù)庫(kù)的信息安全得不到有效保護(hù);沒(méi)有通用的對(duì)于智能化新聞作品真實(shí)性進(jìn)行審查的相關(guān)標(biāo)準(zhǔn),也沒(méi)有通用的對(duì)新聞社會(huì)效應(yīng)進(jìn)行實(shí)時(shí)跟蹤監(jiān)控的詳細(xì)操作規(guī)則;VR/AR新聞客觀和真實(shí)性沒(méi)有可操作依據(jù),視頻直播頻頻炒作不良低端導(dǎo)向的話題,一再突破社會(huì)倫理的底線,等等。
這是因?yàn)?,人工智能算法和?shù)據(jù)的使用標(biāo)準(zhǔn)無(wú)法緊跟技術(shù)發(fā)展的速度。尤其令人擔(dān)憂的是,人工智能的深度學(xué)習(xí)能力會(huì)一直不斷更新完善,這給相關(guān)的技術(shù)行業(yè)規(guī)范的制定帶來(lái)更大挑戰(zhàn)。
對(duì)于人工智能的反思一直沒(méi)有停止過(guò),相關(guān)的倫理學(xué)反思伴隨著人類力圖控制機(jī)器的努力相伴相生。美國(guó)科幻小說(shuō)家阿西莫夫1940年代人提出了著名的“機(jī)器人學(xué)的三大法則”,目的在于確保人在智能發(fā)展中的主體地位,并確保人的核心利益。這是最早出現(xiàn)的處理人機(jī)關(guān)系的法則。
近年來(lái),世界各國(guó)和公共機(jī)構(gòu)開始積極關(guān)注人工智能的法律、倫理、社會(huì)、經(jīng)濟(jì)等影響。在我國(guó),2017年7月20日,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,涵蓋了從法律法規(guī)、倫理規(guī)范、重點(diǎn)政策、知識(shí)產(chǎn)權(quán)與標(biāo)準(zhǔn)、安全監(jiān)管與評(píng)估、勞動(dòng)力培訓(xùn)、科學(xué)普及等多個(gè)方面的措施。2017年底,IEEE(美國(guó)電氣和電子工程師協(xié)會(huì))宣布了三項(xiàng)新的人工智能發(fā)展標(biāo)準(zhǔn),即:“機(jī)器化系統(tǒng)、智能系統(tǒng)和自動(dòng)系統(tǒng)的倫理推動(dòng)標(biāo)準(zhǔn)”“自動(dòng)和半自動(dòng)系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)”和“道德化的人工智能和自動(dòng)系統(tǒng)的福祉衡量標(biāo)準(zhǔn)”。今年5月,號(hào)稱“史上最嚴(yán)的”歐盟新的數(shù)據(jù)隱私法規(guī)《通用數(shù)據(jù)保護(hù)條例》(簡(jiǎn)稱“GDPR”)已經(jīng)正式生效。該法規(guī)規(guī)定,個(gè)人用戶將擁有更多權(quán)利要求公司披露或刪除他們持有的個(gè)人數(shù)據(jù)。本著技術(shù)服務(wù)人類社會(huì)的核心宗旨,媒介和受眾雙方都需要解決這樣一個(gè)問(wèn)題,即考量人工智能技術(shù)在新聞實(shí)踐中占據(jù)何種地位。解決了這一問(wèn)題后,有關(guān)新聞倫理的問(wèn)題才能展開。
馬歇爾·麥克盧漢認(rèn)為:“任何發(fā)明或技術(shù)都是人體的延伸或自我截除。這樣一種延伸還要求其他的器官和其他的延伸產(chǎn)生新的比率、謀求新的平衡?!苯陙?lái),業(yè)界對(duì)“人機(jī)協(xié)同”理論的討論即是在謀求這種“新的平衡”。
“人機(jī)協(xié)同”,意為人與智能機(jī)器的交互協(xié)作。有人稱其為“人機(jī)共生”“人機(jī)合作”。在人機(jī)協(xié)同模式下,人與機(jī)器攜手合作。由人員控制并監(jiān)控生產(chǎn),而機(jī)器人則負(fù)責(zé)體力工作。兩者發(fā)揮各自的專長(zhǎng)。這種模式將為未來(lái)工業(yè)生產(chǎn)帶來(lái)根本性變革。在技術(shù)層面上,對(duì)人機(jī)協(xié)同的理解有兩個(gè)方面,首先,人始終處于算法回路之中,人的行為調(diào)節(jié)和改善算法,使之不斷完善提高。其次,以機(jī)器來(lái)拓展人的能力。應(yīng)該說(shuō),在人機(jī)協(xié)同中,人是智能的總開關(guān)。在人機(jī)協(xié)同關(guān)系中,人居于統(tǒng)攝地位。
從倫理層面來(lái)看,“人機(jī)協(xié)同”則代表了技術(shù)與人的和諧、統(tǒng)一和平衡狀態(tài)?;蛘哒f(shuō),它真正實(shí)現(xiàn)了工具理性與價(jià)值理性的統(tǒng)一。首先,技術(shù)是人類實(shí)現(xiàn)更好發(fā)展的實(shí)現(xiàn)路徑,而人類作為技術(shù)的創(chuàng)造者,是技術(shù)發(fā)展的源泉,兩者之間互為補(bǔ)充。其次,人的主體性決定著技術(shù)發(fā)展的目標(biāo),人居于主導(dǎo)地位。第三,技術(shù)與人之間的合作關(guān)系處于不斷的變化之中且能夠相互協(xié)調(diào),保持平衡。人工智能永遠(yuǎn)不可能替代人。機(jī)器一定是為人所利用,這是人機(jī)協(xié)同概念的核心。或者說(shuō),“我們必須在與技術(shù)的關(guān)系中形成自身?!比藱C(jī)協(xié)同提供了一個(gè)有關(guān)人機(jī)關(guān)系的解決方案。它是未來(lái)人工智能發(fā)展的方向,也被認(rèn)為是未來(lái)傳媒生產(chǎn)分發(fā)的主流模式。這一概念不僅體現(xiàn)為人機(jī)的協(xié)作,還體現(xiàn)為二者始終維持著動(dòng)態(tài)平衡的關(guān)系。進(jìn)入智媒體時(shí)代,只有構(gòu)建人與技術(shù)平衡共生的局面,才不至失去新聞價(jià)值衡量的準(zhǔn)繩。
對(duì)于如何在技術(shù)運(yùn)用中實(shí)現(xiàn)道德的制約,近年來(lái)也有一些學(xué)者嘗試從技術(shù)倫理學(xué)角度進(jìn)行探討。值得一提的是,荷蘭學(xué)者彼得·保羅·維貝克曾經(jīng)提出了一種解決路徑——技術(shù)調(diào)節(jié)。他認(rèn)為,“所有設(shè)計(jì)中的技術(shù)最終要調(diào)節(jié)人類行動(dòng)和體驗(yàn),這有助于形成我們的道德決策和生活質(zhì)量,因此,技術(shù)設(shè)計(jì)的倫理學(xué)應(yīng)該處理這些未來(lái)的調(diào)節(jié)作用?!辈⑶覍ふ姨幚砑夹g(shù)的合適的中間路徑應(yīng)該是負(fù)責(zé)任的調(diào)節(jié)形式的發(fā)展。比如,選擇者應(yīng)該盡力評(píng)估設(shè)計(jì)產(chǎn)品可能具有的、未被預(yù)期的調(diào)節(jié)能力,設(shè)計(jì)者明確盡力去建立預(yù)期所考慮的調(diào)節(jié)形式,而道德性則成為產(chǎn)品“功能性”的一部分。根據(jù)這一理念,實(shí)現(xiàn)人機(jī)協(xié)同就是不斷在技術(shù)與倫理之間進(jìn)行負(fù)責(zé)任的調(diào)節(jié)。這種技術(shù)調(diào)節(jié)理論體現(xiàn)了“技術(shù)設(shè)計(jì)中的內(nèi)在道德維度”,倫理學(xué)是關(guān)于如何行動(dòng),設(shè)計(jì)者負(fù)責(zé)如何有助于形成技術(shù)并調(diào)節(jié)行為,設(shè)計(jì)則是倫理學(xué)的物質(zhì)化形式。每一個(gè)使用中的技術(shù)物都將調(diào)節(jié)人類行動(dòng),每一個(gè)設(shè)計(jì)行動(dòng)都會(huì)有助于構(gòu)成道德實(shí)踐。因此,未來(lái)傳媒技術(shù)的應(yīng)用發(fā)展需要借助負(fù)責(zé)任的調(diào)節(jié)形式,構(gòu)建正確的倫理觀和價(jià)值理念。
在人工智能時(shí)代,我們?nèi)绾螛?gòu)建一種新的新聞倫理?通過(guò)對(duì)人工智能技術(shù)在新聞傳播中的實(shí)踐,我們需要從哲學(xué)和倫理學(xué)層面對(duì)此進(jìn)行探討。本文嘗試提出一種路徑:在堅(jiān)持“工具理性”與“價(jià)值理性”統(tǒng)一的基礎(chǔ)之上,以“人機(jī)協(xié)同”模式來(lái)進(jìn)行新聞實(shí)踐活動(dòng)。這一路徑的展開,強(qiáng)調(diào)要在繼續(xù)發(fā)展工具理性的同時(shí),秉承一種負(fù)責(zé)任的、以人為本的價(jià)值理性精神。要發(fā)揮人的主體性作用,利用技術(shù)調(diào)節(jié)負(fù)責(zé)任地在人與機(jī)器算法之間確立一種動(dòng)態(tài)和平衡的協(xié)作關(guān)系,通過(guò)最大程度地發(fā)揮技術(shù)的作用,讓新聞生產(chǎn)服務(wù)于受眾。由此,本文認(rèn)為可從以下幾方面來(lái)推進(jìn)新聞倫理的構(gòu)建:
1.人機(jī)協(xié)同首先要明確界定人機(jī)之間的關(guān)系,明確人在新聞實(shí)踐中的主體地位
新聞活動(dòng)是人的活動(dòng)。對(duì)人機(jī)關(guān)系的關(guān)注本質(zhì)上就是對(duì)人的關(guān)注。明確此前提之后,才能展開新聞倫理價(jià)值定位。在發(fā)揮工具理性現(xiàn)實(shí)作用的同時(shí),也要充分重視挖掘價(jià)值理性,后者往往是最本質(zhì)的東西。倫理學(xué)學(xué)者何懷宏認(rèn)為:“人類最好把價(jià)值判斷留給自己,這也是保持一種人類對(duì)機(jī)器人的獨(dú)立性乃至支配性。……如果說(shuō),我們最好不要讓多數(shù)人在人工智能的領(lǐng)域內(nèi)太依賴少數(shù)人,我們就更不要讓全人類在智能、在精神和價(jià)值判斷的領(lǐng)域里依賴機(jī)器?!比绻侣劽襟w為追求人工智能技術(shù)帶來(lái)的利益最大化而降低價(jià)值判斷的標(biāo)準(zhǔn),最終只會(huì)導(dǎo)致新聞價(jià)值的喪失。人必須成為人工智能算法的掌控者。本著這一原則,在新聞實(shí)踐中要明確智能算法是手段而非主體,更非目的。人在這一關(guān)系中居于主導(dǎo)地位,強(qiáng)調(diào)機(jī)器能夠自主配合人的工作,新聞價(jià)值標(biāo)準(zhǔn)的設(shè)定更要限制過(guò)度依賴機(jī)器和算法的推演。為此,新聞媒介主體應(yīng)肩負(fù)倫理責(zé)任。
2.強(qiáng)化社會(huì)責(zé)任與職業(yè)道德建設(shè),堅(jiān)持以社會(huì)主義核心價(jià)值觀和傳統(tǒng)文化為指導(dǎo)思想
有學(xué)者提出應(yīng)該在新聞媒介從事新聞實(shí)踐的過(guò)程中,將價(jià)值觀引入算法?!拔覀儜?yīng)該擁抱人工智能所引發(fā)的算法革命,構(gòu)筑以人為本的人工智能型算法發(fā)展的戰(zhàn)略,強(qiáng)調(diào)智能型算法的價(jià)值觀,為沉浸式產(chǎn)品植入必要的干預(yù)機(jī)制,確保其朝著有益于個(gè)人和社會(huì)的方向發(fā)展?!卑褍r(jià)值觀引入算法,即是突出價(jià)值理性的調(diào)節(jié)作用。
在新聞實(shí)踐中使用人工智能技術(shù),要做到以價(jià)值觀為精神指引,具體來(lái)說(shuō)可以通過(guò)以下幾方面來(lái)進(jìn)行:
第一,從傳統(tǒng)文化和社會(huì)主義核心價(jià)值觀中汲取養(yǎng)料。黨的十九大報(bào)告強(qiáng)調(diào),要深入挖掘中華優(yōu)秀傳統(tǒng)文化蘊(yùn)含的思想觀念、人文精神、道德規(guī)范,結(jié)合時(shí)代要求繼承創(chuàng)新。傳統(tǒng)文化思想,如儒家倡導(dǎo)的“義利觀”“先義而后利者榮,先利而后義者辱”“不義而富且貴,于我如浮云”,道家的“物物而不物于物”等,對(duì)于當(dāng)前新聞倫理的建設(shè)均具有重要指導(dǎo)作用。黨提出的社會(huì)主義核心價(jià)值觀,從國(guó)家層面強(qiáng)調(diào)“富強(qiáng)、民主、文明、和諧”,從社會(huì)層面強(qiáng)調(diào)“自由、平等、公正、法治”,在個(gè)人素養(yǎng)方面強(qiáng)調(diào)“愛(ài)國(guó)、敬業(yè)、誠(chéng)信、友善”,不但可以用于指導(dǎo)傳統(tǒng)新聞實(shí)踐活動(dòng),而且在人工智能尤其是未來(lái)智媒體時(shí)代依然適用。
第二,將價(jià)值觀嵌入到新聞采編技術(shù)操作實(shí)施的全過(guò)程。在新聞采編到推送的過(guò)程中,除記者、編輯、技術(shù)人員和廣告推送商職責(zé)之外,還需要加強(qiáng)人工審查,對(duì)于內(nèi)容導(dǎo)向錯(cuò)誤、虛假、違法等情況的新聞內(nèi)容,包括社交媒體中的互動(dòng)留帖,在發(fā)布前進(jìn)行審查,確保新聞的真實(shí)有效。
3.人機(jī)協(xié)同要求必須充分發(fā)揮智能算法的優(yōu)勢(shì),引導(dǎo)良性社會(huì)輿論,構(gòu)建社會(huì)共同價(jià)值
借鑒貝維克的技術(shù)調(diào)節(jié)理論,我們可以在新聞實(shí)踐中,對(duì)技術(shù)的實(shí)施實(shí)現(xiàn)恰當(dāng)?shù)恼{(diào)節(jié),使之符合倫理道德的要求。新聞傳播行為是一種社會(huì)性的實(shí)踐,具有很強(qiáng)的社會(huì)行為,良性的新聞傳播行為是構(gòu)建良性社會(huì)輿論環(huán)境所必需。我們完全可以利用技術(shù)創(chuàng)造更多形式的傳播互動(dòng)方式,在讓新聞作品提供全新新聞體驗(yàn)快感的同時(shí),還能夠進(jìn)一步通過(guò)技術(shù)來(lái)營(yíng)建一種動(dòng)態(tài)平衡,打造一個(gè)良性的輿論環(huán)境或者社區(qū),構(gòu)建社會(huì)共同價(jià)值體。具體來(lái)說(shuō),可以在人工智能抓取數(shù)據(jù)信息的基礎(chǔ)上,加強(qiáng)對(duì)新聞的分析解讀,引導(dǎo)受眾;在新聞推送中進(jìn)一步增強(qiáng)互動(dòng),設(shè)置關(guān)鍵詞的提示功能等,以此來(lái)構(gòu)建聚合性社交環(huán)境。
4.確立行業(yè)標(biāo)準(zhǔn),規(guī)范職業(yè)素養(yǎng)
作為調(diào)節(jié)手段,還需要考慮規(guī)則和標(biāo)準(zhǔn)的制定與設(shè)計(jì)。美聯(lián)社在2017年推出了《人工智能工作手冊(cè)》,從倫理視角對(duì)人工智能技術(shù)如何輔助新聞業(yè)進(jìn)行了反思和指導(dǎo)。當(dāng)前,新聞工作者應(yīng)該盡快適應(yīng)新的媒體時(shí)代的要求,以新聞專業(yè)素質(zhì)與人工智能技術(shù)的協(xié)同創(chuàng)新來(lái)提高職業(yè)素養(yǎng)。具體來(lái)說(shuō),可以從以下幾方面進(jìn)行探索:首先,明確技術(shù)在新聞生產(chǎn)和傳播中的邊界問(wèn)題,倡導(dǎo)積極的算法透明原則。比如,公開源代碼、程序設(shè)置流程、決策過(guò)程和受眾反饋等信息。第二,提高數(shù)據(jù)管理和保護(hù)意識(shí),主要包括對(duì)數(shù)據(jù)的甄選和利用,以及對(duì)爆料人和受眾的隱私保護(hù)。第三,積極引導(dǎo)第三方評(píng)估進(jìn)入新聞技術(shù)領(lǐng)域,對(duì)媒體公信力、技術(shù)人員的職業(yè)能力、新聞推送方式等進(jìn)行行業(yè)評(píng)估,定期公開發(fā)布評(píng)估報(bào)告。第四,培養(yǎng)規(guī)范新聞從業(yè)人員和技術(shù)人員的職業(yè)素養(yǎng),加強(qiáng)人工智能時(shí)代的新型新聞技術(shù)人才的培養(yǎng)。傳統(tǒng)新聞人員必須向技術(shù)型過(guò)度,技術(shù)人員也必須了解和學(xué)習(xí)新聞生產(chǎn)和傳播流程。為此,有必要設(shè)置專業(yè)化考核,新聞技術(shù)人員參加定期考核,通過(guò)考核后持證上崗。第五,建立完善的心理輔導(dǎo)和評(píng)估體系,針對(duì)技術(shù)型人員的心理健康評(píng)估尤為重要。
5.加強(qiáng)新聞監(jiān)督,完善相關(guān)法律法規(guī)
應(yīng)對(duì)人工智能給新聞倫理帶來(lái)的挑戰(zhàn),關(guān)鍵在于人機(jī)關(guān)系的構(gòu)建。要防止人工智能技術(shù)被濫用,必須完善相關(guān)法律法規(guī)。在這方面,我國(guó)還需要盡快跟進(jìn)。這包括如何通過(guò)法律來(lái)明確新聞活動(dòng)中人工智能技術(shù)使用者的主體權(quán)利和責(zé)任;明確技術(shù)便利給個(gè)人隱私權(quán)、個(gè)人和公共信息安全帶來(lái)的潛在危險(xiǎn);對(duì)于媒介組織已經(jīng)發(fā)生的新聞行為引發(fā)的不正當(dāng)效應(yīng),還缺乏相應(yīng)的法律細(xì)則來(lái)定罪量刑。
雖然目前還沒(méi)有完善的人工智能法,但相關(guān)問(wèn)題在未來(lái)一定會(huì)提上議程。需要考慮以下幾方面:首先,明確界定相關(guān)法律規(guī)范和法律條文,平衡和規(guī)避言論自由的技術(shù)便利所帶來(lái)的對(duì)公共信息安全和個(gè)人信息安全的潛在危險(xiǎn);第二,新聞傳播主體擴(kuò)容,個(gè)人自媒體、技術(shù)媒體、新聞采集編輯算法設(shè)計(jì)者等的主體權(quán)利和責(zé)任,都要納入調(diào)整對(duì)象;第三,人工智能生成的新聞的著作權(quán)保護(hù);第四,人工智能生成新聞過(guò)程中對(duì)個(gè)人和公共安全造成的侵權(quán)行為和責(zé)任承擔(dān);第五,新聞傳播過(guò)程中的輿情預(yù)警機(jī)制和問(wèn)責(zé)機(jī)制的設(shè)計(jì),等等。
“人與技術(shù)之間存在著復(fù)雜的界面。人類是技術(shù)的產(chǎn)物,就像技術(shù)是人類的產(chǎn)物一樣?!薄拔覀儽仨殞W(xué)會(huì)和它(技術(shù))一起生活?!睋Q句話說(shuō),“我們必須在與技術(shù)的關(guān)系中形成自身。”為此,必須以正確和負(fù)責(zé)任的方式來(lái)構(gòu)建人與技術(shù)的關(guān)系。
與其試圖拋棄技術(shù),不如找到與之協(xié)調(diào)的方法。中國(guó)傳統(tǒng)哲學(xué)里有關(guān)“物”的認(rèn)識(shí)或可為新聞倫理中的技術(shù)反思提供解決思路:人機(jī)關(guān)系的和諧是解決倫理困境的出路,人的價(jià)值理性與工具理性的平衡統(tǒng)一,才能使新聞技術(shù)充分激發(fā)新聞的價(jià)值。由此看來(lái),哲學(xué)學(xué)科和新聞傳播學(xué)科在這一領(lǐng)域內(nèi)的綜合研究值得繼續(xù)。
人工智能時(shí)代,數(shù)據(jù)、算法以及智能機(jī)器的深度學(xué)習(xí),無(wú)時(shí)無(wú)刻不在更新我們對(duì)世界的認(rèn)知,也改變著新聞生產(chǎn)者和新聞受眾對(duì)新聞的接受度和感受力,推動(dòng)著新聞實(shí)踐向著更多元、更多樣的方向發(fā)展。技術(shù)給新聞傳播插上了翅膀,但新聞傳播技術(shù)改變了,并不代表新聞價(jià)值會(huì)改變,新聞倫理的討論也不會(huì)因此而停止。相反,在技術(shù)手段愈加重要的今天,新聞倫理要愈加明晰和堅(jiān)定,唯有如此,新聞價(jià)值才得以彰顯,新聞生產(chǎn)者和新聞受眾才不至于在技術(shù)的浪潮中迷失方向。“隨著傳統(tǒng)新聞專業(yè)主義的消解,人工智能時(shí)代的新聞專業(yè)主義應(yīng)當(dāng)?shù)靡灾貥?gòu)。隨著人工智能在新聞生產(chǎn)環(huán)節(jié)中的應(yīng)用越來(lái)越多,新聞價(jià)值也易于被忽視,因此,由專業(yè)的新聞從業(yè)人員把關(guān)新聞生產(chǎn)中的價(jià)值取向,找回‘把關(guān)人’這一角色對(duì)重塑新聞專業(yè)主義來(lái)說(shuō)至關(guān)重要。”人是所有技術(shù)的領(lǐng)導(dǎo)“核心”。這取決于技術(shù)理性的進(jìn)步,也取決于倫理意識(shí)的清醒。人機(jī)協(xié)同是工業(yè)發(fā)展的未來(lái)趨勢(shì),也是雙方關(guān)系的哲學(xué)表述。在技術(shù)浪潮中保持清醒和獨(dú)立思考,用人類的智慧讓人工智能在新聞實(shí)踐中實(shí)現(xiàn)“物盡其用”,才是新聞工作者未來(lái)需要努力的方向。
① 克里斯托弗·斯坦納:《算法帝國(guó)》,李筱瑩譯,北京:人民郵電出版社,2014年,第194頁(yè)。
② 余婷、陳實(shí):《人工智能在美國(guó)新聞業(yè)的應(yīng)用及影響》,《新聞?dòng)浾摺?018年第4期。
③ 〔德〕克勞斯·施瓦布:《第四次工業(yè)革命》,李菁譯,北京:中信出版社,第130頁(yè)。
④ 張志安、李靄瑩:《2017年新聞業(yè)年度發(fā)展報(bào)告》,《新聞界》2018年第1期。
⑤ 彭蘭:《移動(dòng)化、社交化、智能化:傳統(tǒng)媒體轉(zhuǎn)型的三大路徑》,《新聞界》 2018年第1期 。
⑥ 趙雙閣、高旭:《VR技術(shù)應(yīng)用新聞實(shí)踐的倫理困境機(jī)及其突破策略》,《出版發(fā)行研究》2018年8月。
⑦ 陳鵬:《人機(jī)關(guān)系的哲學(xué)反思》,《哲學(xué)分析》2017年第5期。
⑧ 〔德〕馬克斯·韋伯:《經(jīng)濟(jì)與社會(huì)》第一卷,上海:上海世紀(jì)出版集團(tuán),第114-116頁(yè)。
⑨ 牟宗三:《現(xiàn)象與物自身》,長(zhǎng)春:吉林出版集團(tuán)有限責(zé)任公司,2010年,第21頁(yè)。
⑩ 顏炳罡:《整合與重鑄》,北京:北京大學(xué)出版社,2012年,第198頁(yè)。