摘要:算法推薦是指依托互聯(lián)網(wǎng)和大數(shù)據(jù)技術(shù),對用戶的閱讀和行為進(jìn)行跟蹤并分析得出用戶畫像,再根據(jù)用戶需求進(jìn)行個性化信息推送。誠然,這在很大程度上降低了用戶的信息獲取成本,為平臺帶來了可觀的收益,但同時,算法推薦也帶來了諸如隱私侵犯等傳播倫理失范的問題,需要及時進(jìn)行規(guī)制,以促使該技術(shù)更好地服務(wù)于人類。
關(guān)鍵詞:算法新聞;智媒時代;新聞倫理;人性原則
一、算法分類
數(shù)字媒體環(huán)境帶來了媒體生態(tài)的巨大變革,技術(shù)的顛覆性使傳統(tǒng)的新聞倫理遭到質(zhì)疑。[1]以內(nèi)容為基礎(chǔ)的算法主要是尋找受眾喜好與其所關(guān)注內(nèi)容特性之間的關(guān)聯(lián)。算法需要收集并分析用戶的特性以及在線活動的相關(guān)資料來構(gòu)建他們的愛好模型,使用諸如詞匯切割等方法對內(nèi)容文字進(jìn)行特征提取,再選擇那些具有高相關(guān)度的元素組成推薦清單。這種策略有助于提高用戶的黏附力,但可能會引發(fā)隱私信息標(biāo)記處理導(dǎo)致的數(shù)據(jù)保護(hù)問題的討論。例如,斯坦福大學(xué)的研究團(tuán)隊(duì)開發(fā)了一種新穎的技術(shù),可以根據(jù)社交媒體上的互動情況判斷人們的性別傾向,準(zhǔn)確率高達(dá)91%,這立刻引來大眾的不滿,同時,也讓人們開始思考該項(xiàng)技術(shù)的道德問題。
協(xié)作學(xué)習(xí)方法的核心原理是根據(jù)人的特性來劃分他們所屬的人群,再依據(jù)這些特定的人類屬性為其喜好提出相應(yīng)的建議或推介內(nèi)容。這樣一來,就將分析單元有效縮小至社群層面,從而降低了解決問題的難度和所需的數(shù)據(jù)輸入數(shù)量。然而,這一方案也存在一些道德上的問題。比如,它很容易導(dǎo)致信息封閉化現(xiàn)象。另外,將人群劃分為不同的類別,也有可能導(dǎo)致某種形式的社會排斥或種族主義傾向,造成一系列負(fù)面影響等。
這種推薦方法是依據(jù)實(shí)時熱門程度的計算方式,以每個時刻的瞬間瀏覽次數(shù)為主要考慮指標(biāo),向使用者推送那些在某個特定期限內(nèi)熱度極高的文章。這一策略有效地處理了 “標(biāo)題黨”與 “低俗信息”的問題,但對這些內(nèi)容的抵抗力略顯不足。
二、倫理失范在算法新聞實(shí)踐中的原因
由于技術(shù)的進(jìn)步并未完全適應(yīng),導(dǎo)致算法在運(yùn)算中出現(xiàn)了偏差。算法新聞是人工智能時代的產(chǎn)物,對其倫理問題的審視可以追溯至人工智能的倫理問題研究。[2]無論如何介入新聞制作和傳輸?shù)乃须A段,算法的行為始終是不可知的,其所產(chǎn)生的新聞都或多或少地包含主觀性和不公平因素,并且每種特定的計算規(guī)則和排名方法都會突出 “優(yōu)先權(quán)”和 “選擇性”。決定哪種話題成為新聞內(nèi)容,將何種信息放入其中,為每一篇新聞分配多少推薦數(shù)量等計算過程都可能產(chǎn)生偏差。要消除這種偏差,我們可以回到傳統(tǒng)的新聞價值觀 “平衡”和 “混合”上,即通過人為安排的方法來實(shí)現(xiàn),以確保新聞主題和類型的平衡分布,從而讓公眾盡可能多地了解具有重大社會意義的信息。
盡管科技進(jìn)步迅速,但由于缺乏對新聞的人工審核環(huán)節(jié),使得人工智能審核過程中出現(xiàn)的問題愈發(fā)嚴(yán)重。許多算法新聞并未經(jīng)過嚴(yán)格的人工復(fù)核便被發(fā)布至公眾面前,引發(fā)了一系列關(guān)于真實(shí)性和用戶權(quán)益保護(hù)的問題。
現(xiàn)有的法規(guī)系統(tǒng)尚待完善和優(yōu)化,以涵蓋更全面的內(nèi)容監(jiān)督領(lǐng)域。當(dāng)前,對于人工智能科技內(nèi)部的分級管理及外部的監(jiān)控機(jī)制尚未完全建立起來。從內(nèi)部管理的角度來看,盡管許多專業(yè)的傳媒機(jī)構(gòu)已經(jīng)在信息收集和編寫過程中嚴(yán)格控制了新聞內(nèi)容的價值觀和社會效果,但仍有大量劣質(zhì)或虛構(gòu)作品被產(chǎn)出;而在新聞審查和發(fā)布方面,這些專業(yè)媒體并沒有有效的手段來防止信息 “狹隘化”,發(fā)布的內(nèi)容過于相似且缺乏嚴(yán)謹(jǐn)?shù)氖聦?shí)核實(shí)。至于外部監(jiān)管制度,我國目前的法律法規(guī)中有關(guān)人工智能科技的使用規(guī)定和刑事處罰標(biāo)準(zhǔn)還有很多空白,導(dǎo)致法律約束力和政府監(jiān)管力度不夠,從而引發(fā)了一系列道德淪喪現(xiàn)象。
內(nèi)在的不均衡性廣泛存在于數(shù)字化時代的新聞觀念中,這是由馬克斯·韋伯提出的關(guān)于人類理性的分類所揭示出來的。他將人類理性劃分為兩類:一類是工具理性,關(guān)注目標(biāo)導(dǎo)向的行為;另一類則是價值理性,其焦點(diǎn)在于價值觀驅(qū)動的行為。他進(jìn)一步指出:“盡管只有工具理性能夠推動社會生產(chǎn)的進(jìn)步,但是如果過度強(qiáng)調(diào)工具理性,價值理性就會逐漸減弱,人也會被束縛和控制?!?/p>
潘綏銘指出,雖然大數(shù)據(jù)被廣泛應(yīng)用于社會科學(xué)研究,但其并沒有突破傳統(tǒng)的小數(shù)據(jù)框架,即通過對生活的篩選與切割,破壞了人們的生活和人格完整性。他強(qiáng)調(diào),我們不能把個體的人類看作無序的數(shù)據(jù)集合,而應(yīng)該以一種更加真實(shí)、全面的方式去理解并采取行動。大數(shù)據(jù)技術(shù)應(yīng)用于傳媒業(yè),改變了傳統(tǒng)意義上 “新聞是對新近發(fā)生事實(shí)的報道”這一原則,凸顯了數(shù)據(jù)新聞蘊(yùn)含的預(yù)測性。[3]
“把關(guān)人”的概念由盧因于其著作 《群體生活的渠道》中提出,是一種關(guān)鍵性的元素,存在于傳統(tǒng)的傳媒制作與傳輸過程中。然而,隨著互聯(lián)網(wǎng)時代的來臨,“把關(guān)人”這個角色的功能已經(jīng)發(fā)生變化并分散開來:權(quán)限正在逐步由過去的官方機(jī)構(gòu)轉(zhuǎn)移至社交媒體上的領(lǐng)導(dǎo)人物或博客作者,甚至是普通網(wǎng)友手中;而那些主要的大眾通訊社正慢慢失去他們的影響力—尤其是在智能化時代,綜合型的信息提供商越來越受到人們的關(guān)注并擁有廣泛的使用人群,從而使他們對大眾信息的控制力降低了很多。這些整合型報紙或文章發(fā)布器并非專業(yè)的出版物,因此并不太注重道德問題,其內(nèi)容生成更多依賴于機(jī)器學(xué)習(xí)系統(tǒng),而不是人工審核機(jī)制,導(dǎo)致監(jiān)督作用變得越發(fā)模糊不清。
三、算法推薦技術(shù)引發(fā)的傳播倫理失范問題
(一)“工具理性”泛濫,新聞公共性原則被漠視
馬克斯·韋伯曾提出 “工具理性”的概念,這與算法推薦技術(shù)效益至上的價值取向不謀而合。由于受到算法推薦系統(tǒng)的驅(qū)動,新聞制造商為了吸引受眾和獲得盈利,可能會在報道中出現(xiàn)忽略新聞道德規(guī)范或新聞職業(yè)精神的行為。因此,從某個角度來看,算法推薦系統(tǒng)也在一定程度上有助于瓦解傳統(tǒng)的新聞篩選價值觀,更加強(qiáng)調(diào)新聞內(nèi)容中的娛樂元素,以滿足受眾的需求。然而,那些有益于公眾利益的信息卻因?yàn)槿狈蕵沸远槐恢匾暎沟眯侣劃u漸喪失了其公共性質(zhì)。
(二)技術(shù)權(quán)力濫用,收集數(shù)據(jù)侵犯用戶隱私
算法推薦技術(shù)的內(nèi)在邏輯就是抓取用戶日常使用數(shù)據(jù),以分析其興趣愛好和行為習(xí)慣,從而進(jìn)行針對性內(nèi)容推送,其中存在過度收集用戶數(shù)據(jù)、侵犯用戶隱私的情況。例如,此前滴滴出行App違法違規(guī)收集用戶信息,嚴(yán)重侵犯了用戶個人隱私。網(wǎng)絡(luò)時代,用戶信息被實(shí)時記錄,將面臨很大的隱私泄露風(fēng)險,其中離不開算法推薦技術(shù)權(quán)力濫用的助力。
(三)強(qiáng)化刻板印象,加劇社會不平等
算法推薦技術(shù)可以借助機(jī)器學(xué)習(xí)的力量來持續(xù)理解并滿足用戶的需求,進(jìn)而提升推薦內(nèi)容和方式。然而,這可能導(dǎo)致個人自我封閉在信息的 “繭房”中,加深對某些特定人群的固定觀念和偏見。一項(xiàng)相關(guān)調(diào)查顯示,新聞推送中涉及婦女、老人等弱勢群體時,往往容易引起更多的注意。例如,超過六成的被訪者認(rèn)為 “女司機(jī)”“女大學(xué)生”這類帶有性別關(guān)鍵詞的信息更容易登上熱門話題榜,同時,性別問題也常常引發(fā)廣泛的熱烈討論。平臺運(yùn)用 “用戶畫像”及 “打標(biāo)簽”的方法區(qū)分不同用戶,進(jìn)一步強(qiáng)化了現(xiàn)實(shí)生活中存在的刻板印象,妨礙了社會的進(jìn)步和發(fā)展。
(四)“馬太效應(yīng)”與擬態(tài)環(huán)境問題
算法分配策略可能導(dǎo)致部分內(nèi)容的傳輸影響力增強(qiáng),其他內(nèi)容卻變得難以察覺。如果任由這種情況持續(xù)下去,“馬太效應(yīng)”將會逐漸加強(qiáng)。盡管并不是所有內(nèi)容都具有相同的重要性,但它們都需要獲得展示的機(jī)會,特別是涉及 “延遲回報”卻包含重大公眾利益的內(nèi)容,我們需要盡量擴(kuò)大其覆蓋范圍。這樣既是為了防止 “馬太效應(yīng)”的發(fā)生,同時也為了更好地滿足用戶的多層次需求尤其是少數(shù)群體的需求。雖然模擬環(huán)境無法完美地復(fù)制實(shí)際世界,但也必須盡力展現(xiàn)出世界的多樣性。然而,算法在這個過程中并不一定能產(chǎn)生積極的效果。
(五)算法偏見問題
一些研究員認(rèn)為:由于人類文化的偏見特性,大數(shù)據(jù)這個由人造的社會結(jié)構(gòu)構(gòu)成的數(shù)據(jù)集自然會含有深刻的偏見。為了迎合新聞受眾的信息偏好,基于算法的推薦,新聞平臺的算法推薦系統(tǒng)往往會在篩選信息的過程中產(chǎn)生偏頗和非透明性的信息過濾,滋生的 “信息繭房”會導(dǎo)致倫理價值固化。[4]然而,大數(shù)據(jù)算法只是揭示了這些偏見并將其總結(jié)起來。我國大數(shù)據(jù)運(yùn)用領(lǐng)域的重要專家周濤公開表示,他擔(dān)心這種因系統(tǒng)設(shè)計師引入的起始偏見可能會隨著數(shù)據(jù)累積及算法運(yùn)行逐漸增強(qiáng)和擴(kuò)大。
(六)“算法囚徒”問題
倫理是理性的產(chǎn)物,是高度抽象、提煉后的關(guān)于秩序的表達(dá)方式,而個體 (包括專業(yè)新聞生產(chǎn)者、自媒體、公眾、算法程序員)是以感性為前提條件而存在的肉身,因此包含高度理性和道德的傳播倫理理念。[5]盡管 “算法囚徒”和 “信息繭房”的問題并非由算法直接引發(fā),然而,它們卻有可能通過算法得到加強(qiáng)。此外,算法還可能導(dǎo)致人類在其他領(lǐng)域淪為 “囚犯”,如讓個人變成平臺的俘虜,或是讓人們過于沉溺于個性化推薦算法所提供的滿足感和自我約束能力的喪失。而個性化算法正好符合這種人性需求,其也在利用便利與快樂的方式逐漸使人們對其形成依賴,并悄無聲息地被其束縛住??此剖菫榱私o每個人提供個性化服務(wù),實(shí)際上卻成為操控個人的新工具。尼爾·波茲曼在其著作 《娛樂至死》中提到的兩個威脅正逐步融合在一起。
四、算法倫理問題解決思路
從新聞自律的角度來看,我們需要增強(qiáng)記者的 “算法素質(zhì)”,使他們始終保持自律與規(guī)則意識。這意味著他們在處理新聞事件的過程中應(yīng)確保信息的真實(shí)性且不可夸大事實(shí),同時,他們需嚴(yán)格遵照新聞出版的相關(guān)法規(guī)行事,以嚴(yán)謹(jǐn)?shù)膽B(tài)度對待自己的職責(zé),公正而無偏見地解讀和傳播相關(guān)新聞內(nèi)容。盡管算法推薦本身并不具備任何價值,但其設(shè)計人員以及背后的企業(yè)、組織、機(jī)構(gòu)等都具備了某種價值。[6]盡管現(xiàn)在許多媒體已經(jīng)開始使用算法技術(shù),但是,能夠熟練掌握這些技術(shù)的專家并不多,大部分人對于智能算法的理解還僅限于表層。為了解決這個問題,有必要加大對算法教育的投入力度,以此來提升記者在這方面的能力。此外,無論何時何地,恪守自律和規(guī)定都是新聞工作人員必須遵守的基本職業(yè)道德準(zhǔn)則。我們要堅定正確的新聞導(dǎo)向,提高我們的業(yè)務(wù)技能,勇敢面對挑戰(zhàn),持續(xù)自我更新,努力成為專業(yè)的新聞工作者。
利用人工智能來擴(kuò)展人性的深度內(nèi)涵—打破思想框架限制,全方面拓展個人價值觀。在這個數(shù)字化時代,大部分的數(shù)據(jù)傳播都是由智能化系統(tǒng)依據(jù)個人的行為特征所決定的,這使得我們更容易陷入一種 “自我封閉的世界”。這種現(xiàn)象會導(dǎo)致我們的視野變得狹隘而單一化,從而難以跳出自身的認(rèn)知范疇去理解更廣泛的事物和人際關(guān)系。新聞從業(yè)人員依然是主流新聞倫理準(zhǔn)則中最直接有效的倫理主體和踐行者。[7]因此,我們在使用這些系統(tǒng)的時候應(yīng)該保持一定的獨(dú)立思考能力而不是被機(jī)器牽著走,并且要學(xué)會接納不同的觀點(diǎn)以拓寬自己的人文素養(yǎng)和社會視角。例如,美國的 《BuzzFeed》就推出了一款名為 “Outside" Your" Bubble”的軟件,它會在部分熱門文章下添加來自不同渠道 (包括 Twitter 和 Facebook)的一些評價或反饋,以此來幫助讀者從多個角度看待問題及事件的發(fā)展趨勢。總之,我們要強(qiáng)調(diào)的是,作為一個普通的大語言模型的使用者,需要不斷學(xué)習(xí)新知識,擴(kuò)大眼界,提高認(rèn)識水平。同時,還要勇于挑戰(zhàn)傳統(tǒng)觀念,敢于創(chuàng)新求變才能真正發(fā)揮潛在的社會作用和個人魅力。
從人類和機(jī)器的關(guān)系角度來看,我們在堅守人性原則并強(qiáng)化人機(jī)合作。隨著人工智能科技的進(jìn)步,其在日常生活各個領(lǐng)域的運(yùn)用愈加廣泛,然而,在人與機(jī)器交互的過程中,關(guān)于人機(jī)關(guān)系的道德矛盾逐漸凸顯出來。例如,在資訊發(fā)布網(wǎng)站上,大量的人工智能推介信息可能會替代人們的自主決定,從而影響他們的主要角色,這會對人的主體位置產(chǎn)生威脅。行業(yè)協(xié)會、專業(yè)組織等應(yīng)制定相應(yīng)的規(guī)章制度來對設(shè)計者進(jìn)行規(guī)約,督促其在事前盡到合理注意義務(wù),即在知曉算法可能對新聞的生產(chǎn)與傳播產(chǎn)生某種負(fù)面影響或?qū)蟮缹ο螽a(chǎn)生損害時,停止算法設(shè)計,或是對此種情況予以說明,避免有問題的算法在新聞傳播領(lǐng)域的應(yīng)用與推廣。[8]因此,在處理人機(jī)關(guān)系時,我們要遵循人機(jī)聯(lián)合的基本原則:首先,增強(qiáng)對人性準(zhǔn)則的理解,重視人的主動性和重要性,意識到人是信息的創(chuàng)造者、傳輸者和接收者,使算法的技術(shù)應(yīng)用符合人的需求;其次,要加強(qiáng)人工審查與人機(jī)的協(xié)同工作,充分發(fā)揮人力資源和技術(shù)資源的優(yōu)勢,向客戶提供高質(zhì)量的內(nèi)容,以此來推動未來的智能化推薦算法朝著正確的方向發(fā)展,更準(zhǔn)確地反映人的領(lǐng)導(dǎo)力和價值觀念。
五、結(jié)束語
本文深入分析了算法推薦技術(shù)在新聞傳播中引發(fā)的倫理問題,包括缺乏人工審核、法規(guī)系統(tǒng)不完善、大數(shù)據(jù)應(yīng)用問題等,并具體表現(xiàn)為工具理性泛濫、技術(shù)權(quán)力濫用、強(qiáng)化刻板印象、“馬太效應(yīng)”與擬態(tài)環(huán)境問題、算法偏見以及 “算法囚徒”等問題。針對這些倫理失范現(xiàn)象,提出了增強(qiáng)記者算法素質(zhì)、利用人工智能擴(kuò)展人性內(nèi)涵以及堅守人性原則并強(qiáng)化人機(jī)合作等解決思路,以期推動算法技術(shù)在新聞傳播中的健康發(fā)展。
參考文獻(xiàn):
[1] 周雨秋,潘汶奇,王瓊.數(shù)字時代的新聞倫理:話語博弈與發(fā)展路徑[J].新聞愛好者,2024(01):77-79.
[2] 鄭久良.人工智能時代算法新聞倫理治理范式研究[J].青年記者,2024(01):98-102.
[3] 陳檄.數(shù)據(jù)新聞的倫理風(fēng)險及對策分析[J].傳播與版權(quán),2023 (17):1-4.
[4] 張夢溪.智媒時代新聞倫理失范問題與對策探究[J].中國報業(yè), 2023(18):132-133.
[5] 趙澄澄.數(shù)字傳播倫理研究:機(jī)制、價值和理路[J].東南傳播, 2023(09):1-4.
[6] 劉馨懌.新媒體視角下的算法推薦爭議分析[J].國際公關(guān),2023 (11):176-178.
[7] 招君儀,張文科.智媒時代的價值困境及媒介倫理主體性建構(gòu)[J].新聞前哨,2023(10):4-5.
[8] 劉斌,楊志鵬.算法新聞透明性的內(nèi)涵拓展與行動路徑[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2023,45(05):10-20.