国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智媒時(shí)代智能信息推薦算法的缺陷及正向重構(gòu)

2020-12-05 06:29潘紅霞
未來(lái)傳播 2020年5期
關(guān)鍵詞:倫理受眾人工智能

潘紅霞

隨著人工智能的興起,“頭雁”效應(yīng)越來(lái)越凸顯,傳統(tǒng)意義上的媒體也正大步邁進(jìn)智媒時(shí)代。智媒時(shí)代媒體平臺(tái)成為人們獲取信息的重要渠道,基于人工智能的算法技術(shù)作為其中的主要運(yùn)行機(jī)制,進(jìn)行著信息的聚合和傳播。智能信息推薦算法給人們帶來(lái)便利快捷的同時(shí),也帶來(lái)了很多問(wèn)題和煩惱。比如你剛上網(wǎng)搜索一個(gè)商品,你的本意只是想了解一下該商品,并沒有想立即購(gòu)買,但算法認(rèn)為你需要,就自動(dòng)給你推薦該類商品的各種信息,并連續(xù)給你推薦,讓人們不厭其煩。進(jìn)入智媒時(shí)代,人工智能算法技術(shù)、大數(shù)據(jù)不斷得到應(yīng)用和提高,雖然大大提升了信息傳播的覆蓋面和到達(dá)率,受眾對(duì)信息的喜好和需求也相應(yīng)得到加強(qiáng),但其發(fā)展過(guò)程中還是存在一定的缺陷,需要進(jìn)行正向重構(gòu)。

一、智能信息推薦算法發(fā)展現(xiàn)狀及存在的缺陷

人工智能AI概念是在1956年的達(dá)特茅斯會(huì)議上首次提出的。人工智能的發(fā)展可謂歷經(jīng)千山萬(wàn)水,近年來(lái)隨著算法技術(shù)快速發(fā)展以及大數(shù)據(jù)的廣泛應(yīng)用,迎來(lái)新一輪質(zhì)的飛躍,令全世界矚目。時(shí)至今日,作為一門新興的快速發(fā)展學(xué)科,人工智能風(fēng)生水起,逐步成為經(jīng)濟(jì)發(fā)展的強(qiáng)勁引擎。應(yīng)該說(shuō)我們迎來(lái)了最好的時(shí)代,但也考驗(yàn)和挑戰(zhàn)人類應(yīng)對(duì)人工智能的開發(fā)和治理能力,一系列問(wèn)題和沖突值得我們關(guān)注和研究。

(一)智能信息推薦算法研究溯源及發(fā)展現(xiàn)狀

2018年10月31日,中共中央政治局就人工智能發(fā)展現(xiàn)狀和趨勢(shì)開展集體學(xué)習(xí)時(shí),習(xí)近平總書記指出人工智能發(fā)展過(guò)程中的倫理問(wèn)題。他強(qiáng)調(diào),要確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問(wèn)題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。2019年1月25日,習(xí)近平總書記在中共中央政治局就全媒體時(shí)代和媒體融合發(fā)展舉行集體學(xué)習(xí)時(shí),再次強(qiáng)調(diào)要全面提升技術(shù)治網(wǎng)能力和水平,規(guī)范數(shù)據(jù)資源利用,防范大數(shù)據(jù)等新技術(shù)帶來(lái)的風(fēng)險(xiǎn)。黨的十九大報(bào)告明確提出,要加快建設(shè)數(shù)字中國(guó)、網(wǎng)絡(luò)強(qiáng)國(guó)和智慧社會(huì)的建設(shè)。人工智能儼然成為當(dāng)下社會(huì)經(jīng)濟(jì)發(fā)展新的亮點(diǎn)和增長(zhǎng)點(diǎn)。伴隨人工智能與媒體的深入融合、算法技術(shù)的廣泛運(yùn)用推廣,很多學(xué)者對(duì)智能算法技術(shù)帶來(lái)的倫理困境、原因、風(fēng)險(xiǎn)以及技術(shù)使用本身特性展開多方位的有針對(duì)性的研究。張洪忠、石韋穎、韓曉喬(2018)認(rèn)為人工智能改變了傳播渠道的內(nèi)涵,智能算法推薦模式改變了傳統(tǒng)的傳播模式同時(shí)也提出需要規(guī)制的問(wèn)題。阮立、朱利安·華勒斯、沈國(guó)芳(2018)提出算法可能會(huì)創(chuàng)建自己的“過(guò)濾器泡泡”。仇筠茜、陳昌鳳(2018)提出增進(jìn)算法透明度方式有三種:I-T-O的逐步拆解、逆向工程學(xué)、可理解的透明度。趙雙閣、岳夢(mèng)怡(2018)認(rèn)為對(duì)算法推薦的過(guò)度依賴會(huì)帶來(lái)媒介倫理新的風(fēng)險(xiǎn)。蔡夢(mèng)虹(2019)對(duì)人與技術(shù)的關(guān)系、媒介倫理建構(gòu)等問(wèn)題提出從人性層面、技術(shù)層面,以及法制層面來(lái)解決。姜野(2020)提出有必要以算法技術(shù)的迭代更新為背景,將算法的法律規(guī)制作為主要研究對(duì)象,突出當(dāng)前算法呈現(xiàn)出的有限自主性特征,建構(gòu)符合我國(guó)算法應(yīng)用現(xiàn)狀的法律規(guī)制體系。原有的這些研究很好地為智能信息推薦算法正向重構(gòu)提供了基礎(chǔ),對(duì)以此引發(fā)的困境和解決之道帶來(lái)啟發(fā)。

大數(shù)據(jù)、云計(jì)算、人工智能的高速發(fā)展,已經(jīng)對(duì)傳統(tǒng)媒體的發(fā)展造成變革性的巨大影響。[1]人工智能已經(jīng)與媒體深度融合,人類進(jìn)入到萬(wàn)物皆媒、人機(jī)共生的智媒時(shí)代,從發(fā)展的歷程來(lái)看,大致可以分為三個(gè)層級(jí),第一層級(jí)是擁有開放和共享優(yōu)勢(shì)的互聯(lián)網(wǎng)成為快速傳播信息的載體和工具;第二層級(jí)是媒體利用互聯(lián)網(wǎng),增強(qiáng)與受眾的互動(dòng)交流,滿足受眾的個(gè)性化的信息需求和喜好;第三層級(jí)是媒體充分運(yùn)用人工智能、大數(shù)據(jù)、云計(jì)算等新技術(shù),算法技術(shù)成為新的亮點(diǎn)。

人工智能算法技術(shù)對(duì)信息進(jìn)行自動(dòng)化處理并做出相應(yīng)決策。隨著該項(xiàng)技術(shù)的日益成熟以及在媒體平臺(tái)的廣泛應(yīng)用,它的核心就在于把合適的信息推薦給合適的人,媒體平臺(tái)充當(dāng)它的流量分發(fā)器。算法技術(shù)發(fā)展至今大致可以分為三大類:一是基于“受眾畫像”的算法推薦,也就是按內(nèi)容進(jìn)行推薦,這一階段是根據(jù)受眾的信息瀏覽歷史記錄,概況出受眾的喜好和興趣,也就是受眾畫像,再利用算法技術(shù)計(jì)算每個(gè)信息與受眾畫像的相似度,將相似度最高的信息推薦給受眾;二是定位與受眾具有相似興趣和喜好的群體和圈子,然后給這個(gè)受眾推薦這些群體和圈子喜好和偏愛的信息,這是基于協(xié)同過(guò)濾的算法推薦;三是基于熱門的算法推薦,即設(shè)置一個(gè)時(shí)間窗口,統(tǒng)計(jì)在過(guò)去一段時(shí)期信息的點(diǎn)擊評(píng)論量、瀏覽量、轉(zhuǎn)發(fā)量,把關(guān)注高的熱點(diǎn)信息推薦給受眾。此外,采用加權(quán)、并串聯(lián)等混合的方式融合以上算法技術(shù)向受眾推薦信息。智能信息推薦算法正在悄然改變我們的生活,它不僅僅為人們的決策和行動(dòng)提供信息和建議,在很多情況下還在人類的授權(quán)下代替人們進(jìn)行決策和行動(dòng)。相比原先的人工派發(fā),智能信息推薦算法優(yōu)勢(shì)更為突出,但隨著算法技術(shù)的廣泛使用,越來(lái)越凸顯出很多缺陷和倫理法律空白的地方。正如有學(xué)者所言,“大數(shù)據(jù)技術(shù)在彰顯一種道德意義時(shí),也面臨各種倫理問(wèn)題。要使大數(shù)據(jù)的文明指引保持在良性循環(huán)的正面效應(yīng)上,我們就要認(rèn)真對(duì)待大數(shù)據(jù)技術(shù)帶來(lái)的倫理挑戰(zhàn)”。[2]

因此,我們必須立足時(shí)代和社會(huì)的重大發(fā)展路徑和軌跡,全面理性客觀地對(duì)智能信息推薦算法進(jìn)行價(jià)值審視,精準(zhǔn)把握它的特性,深刻思考可能會(huì)引起和導(dǎo)致的困境和后果,提出合理又具有前瞻性、系統(tǒng)性的操作原則,以期構(gòu)建更加公正公平、更具有人性化、具有公共價(jià)值性的新秩序。

(二)智能信息推薦算法存在的缺陷

1.算法技術(shù)認(rèn)知層面的缺陷

智能信息推薦算法是在大數(shù)據(jù)技術(shù)的支持之下對(duì)數(shù)據(jù)、信息進(jìn)行一系列的聚合、分析、預(yù)測(cè)、推薦以及傳播,而正是這種對(duì)于技術(shù)的盲目崇拜和過(guò)度信任,使得受眾容易被信息所奴役、控制,以致過(guò)分依賴于技術(shù),缺乏全面客觀的認(rèn)知,逐漸喪失了對(duì)技術(shù)的漏洞以及技術(shù)可能會(huì)帶來(lái)的不良后果的判斷,進(jìn)而會(huì)出現(xiàn)信息的異化和技術(shù)的異化。目前,對(duì)于算法技術(shù)還存在認(rèn)知層面的盲區(qū),如把“流量”作為受眾認(rèn)可此信息重要的關(guān)鍵指標(biāo),也把“流量”作為算法技術(shù)推薦信息的重要參數(shù),這樣做可能會(huì)導(dǎo)致其推薦的信息內(nèi)容過(guò)度低俗和娛樂化。算法技術(shù)作為人工智能的應(yīng)用,是一種前景非常廣闊、同時(shí)又深刻改變世界的顛覆性技術(shù),同時(shí),它也是一種不夠成熟完善,帶有發(fā)展性、革命性的技術(shù)。算法技術(shù)會(huì)不會(huì)對(duì)未來(lái)人類社會(huì)秩序造成影響?算法技術(shù)有沒有不可控的風(fēng)險(xiǎn)?算法技術(shù)是造福人類還是禍害人類?這些認(rèn)知層面的缺陷都需要進(jìn)行深入研究和跟進(jìn)。

2.算法技術(shù)情感識(shí)別的缺陷

在人工智能算法技術(shù)蓬勃發(fā)展的過(guò)程中,算法技術(shù)也被稱為網(wǎng)絡(luò)神經(jīng),它可以到達(dá)各個(gè)層面的受眾群體和個(gè)體,能到達(dá)每一個(gè)網(wǎng)絡(luò)神經(jīng)末梢,但算法技術(shù)缺少對(duì)人類情感層面的關(guān)注和回應(yīng)的問(wèn)題也隨之凸顯。算法技術(shù)展現(xiàn)出強(qiáng)大的數(shù)據(jù)處理能力,但同時(shí)無(wú)法識(shí)別人類的細(xì)微情感變化,人工智能算法技術(shù)本身是無(wú)法自主做出意思表示的,它沒有情感和表達(dá)能力也無(wú)法識(shí)別和判斷人類的情感變化。比如我們?cè)谧铋_始說(shuō)的算法技術(shù)推薦商品給人們帶來(lái)的煩惱。人們?cè)絹?lái)越依賴人工智能應(yīng)用,受眾隱私、情感需求能否得到客觀公正公平有效對(duì)待和處理,需要在算法技術(shù)發(fā)展過(guò)程中加以攻關(guān)和克服。

3.算法技術(shù)的倫理法律缺陷

智能信息推薦算法有關(guān)倫理法律的問(wèn)題也是我國(guó)人工智能發(fā)展過(guò)程中討論的熱點(diǎn)和焦點(diǎn)。由于算法技術(shù)既有本身商業(yè)機(jī)密所代表的不透明性,又因技術(shù)的專業(yè)性導(dǎo)致具有黑箱特質(zhì)。正是由于具有不透明的黑箱特質(zhì),使得算法技術(shù)的權(quán)利和義務(wù)很難界定。目前對(duì)于算法技術(shù)倫理法律的約束仍屬于后果型,重視算法技術(shù)帶來(lái)的后果而忽略對(duì)其過(guò)程的約束,還停留在事后審查處置階段,一般都是等到發(fā)現(xiàn)問(wèn)題后再采取措施,比如說(shuō)限流、刪帖、下架等。另外,算法技術(shù)具有復(fù)雜性,受眾很難了解算法技術(shù)背后推薦信息的依據(jù)和規(guī)則,因此對(duì)算法技術(shù)帶來(lái)的數(shù)據(jù)濫用、歧視、侵犯隱私、侵犯知識(shí)產(chǎn)權(quán)等倫理和法律問(wèn)題就很難解決。現(xiàn)階段對(duì)于算法技術(shù)的法律法規(guī)還不健全,如算法技術(shù)應(yīng)用所帶來(lái)的各類數(shù)據(jù)的保護(hù)問(wèn)題。數(shù)據(jù)屬于新型的財(cái)產(chǎn)權(quán),數(shù)據(jù)的歸屬和使用,數(shù)據(jù)的安全尤其涉及到國(guó)家安全的數(shù)據(jù)如何進(jìn)行保護(hù)等問(wèn)題還存在一定的缺陷,需要倫理法律層面及時(shí)做出界定。再有如媒體平臺(tái)責(zé)任規(guī)定不夠明晰等問(wèn)題都急需加以完善。

二、智能信息推薦算法倫理失范

智能信息推薦算法這一模式被越來(lái)越多的媒體平臺(tái)所運(yùn)用,這一技術(shù)能從海量的信息海洋中挑選出符合受眾的興趣喜好圖譜進(jìn)行推薦,有著它不可比擬的技術(shù)優(yōu)勢(shì),但現(xiàn)實(shí)使用過(guò)程中也存在很多倫理失范的地方。

(一)對(duì)受眾信息需求存在偏見

施拉姆在《傳播學(xué)概論》中列出一條公式來(lái)解釋個(gè)人如何選擇信息傳播路徑:可能的報(bào)酬/費(fèi)力的程度=選擇的或然率。按照這個(gè)公式,“可能的報(bào)酬”最大化、“費(fèi)力的程度”最小化,“選擇的或然率”最大化是最理想的傳播路徑。進(jìn)入智媒時(shí)代,智能信息算法推薦讓這種傳播路徑實(shí)現(xiàn)最優(yōu)化。根據(jù)受眾的日常瀏覽習(xí)慣、社交朋友圈等大數(shù)據(jù),對(duì)受眾進(jìn)行智能信息推薦服務(wù),雖然加速了信息到達(dá)率和覆蓋面,能夠讓受眾在最短的時(shí)間、花費(fèi)最少的金錢和最小的精力就能獲得這些信息,但也很容易出現(xiàn)把受眾偶然隨意性的行為認(rèn)為是必然性的行為,這樣就有可能造成對(duì)受眾真正的信息需求進(jìn)行錯(cuò)誤的分類和推薦,在一定程度上反而限制了受眾的選擇權(quán),形成對(duì)受眾歧視、偏見性的推薦。算法技術(shù)總是會(huì)或多或少地受到個(gè)人或集體偏見的影響。程序開發(fā)人員在設(shè)計(jì)算法時(shí),或多或少會(huì)受到個(gè)人主觀偏好的影響;受眾在使用媒體平臺(tái)過(guò)程中也會(huì)根據(jù)自己的需求搜索設(shè)置算法應(yīng)用參數(shù)。因此,算法技術(shù)在一定程度上存在設(shè)計(jì)者和受眾的價(jià)值偏好。

(二)易使受眾深陷“信息繭房”

智能信息推薦算法大多是在基于其對(duì)受眾畫像、受眾行為的描繪基礎(chǔ)上進(jìn)行的。受眾也往往會(huì)訪問(wèn)與自己的意見、想法、需求相接近的媒體平臺(tái)。美國(guó)學(xué)者凱斯·桑斯坦在《信息烏托邦》中關(guān)于對(duì)“個(gè)人日?qǐng)?bào)”的論述中提出“信息繭房”,他認(rèn)為生活在“信息繭房”中的人們逐漸形成“回音室效應(yīng)”,將自己圈定在固定的圈子里面、只根據(jù)個(gè)人興趣愛好進(jìn)行個(gè)性化閱讀,從而導(dǎo)致其閱讀面、知識(shí)面十分狹窄,限制其個(gè)人綜合全面發(fā)展。[3]反觀智能信息推薦算法,也是無(wú)形中給受眾畫了一個(gè)信息圈,試圖創(chuàng)建一個(gè)我們每個(gè)人獨(dú)特的全局信息——“過(guò)濾器泡泡”,這從根本上改變了信息傳播的方式,一定程度上阻礙了人與人之間的交流。算法在為人們提供精準(zhǔn)化、個(gè)性化的推薦服務(wù)的同時(shí),由于局限的內(nèi)容、同質(zhì)化的信息,也使受眾容易陷入“信息繭房”的境地,最終掉入“過(guò)濾器泡泡”的陷阱。

(三)對(duì)受眾信息隱私構(gòu)成風(fēng)險(xiǎn)

當(dāng)下,受眾對(duì)隱私安全越來(lái)越關(guān)注。信息隱私主要指?jìng)€(gè)人信息的收集、存儲(chǔ)和傳播,包括社交信息隱私、醫(yī)療信息隱私和工作信息隱私等等。應(yīng)該說(shuō)算法技術(shù)越智能越先進(jìn),它就越需要獲取、存儲(chǔ)更多的個(gè)人數(shù)據(jù)信息??梢哉f(shuō),海量信息數(shù)據(jù)是算法技術(shù)發(fā)展必不可少的基礎(chǔ),這勢(shì)必會(huì)涉及到個(gè)人隱私保護(hù)這一重要倫理問(wèn)題。而當(dāng)下媒體平臺(tái)大多出于商業(yè)利益的驅(qū)使,獲取更多的受眾信息,是很多媒體平臺(tái)追求的目標(biāo)。加之我國(guó)對(duì)個(gè)人隱私保護(hù)方面的法律法規(guī)還不夠完善,一定程度上還留有漏洞,以致受眾隱私和風(fēng)險(xiǎn)難以避免。如未經(jīng)受眾的同意和允許,平臺(tái)自行采集個(gè)人瀏覽和使用信息數(shù)據(jù),并在平臺(tái)之間自行進(jìn)行信息交換和流轉(zhuǎn)。受眾的隱私悄無(wú)聲息地游走在洶涌的數(shù)據(jù)泄露與買賣之中,彷佛置身于隱私“裸奔”的尷尬境地,2018年,涉及泄露一億多名用戶個(gè)人信息的Facebook隱私門事件震驚世界,引爆了廣大網(wǎng)民對(duì)個(gè)人隱私安全隱患的擔(dān)憂。另外,對(duì)數(shù)據(jù)失信、失真以及污染的治理和防范,也是智能信息推薦算法在信息保護(hù)隱私面臨的倫理難題和挑戰(zhàn)。

(四)公共性價(jià)值缺失

媒體平臺(tái)更多關(guān)注的是流量而非內(nèi)容本身,注重商業(yè)現(xiàn)實(shí)利益而非社會(huì)價(jià)值層面。媒體平臺(tái)的價(jià)值指標(biāo)主要以流量、信息的到達(dá)率、受眾停留時(shí)間、轉(zhuǎn)發(fā)評(píng)論量、活躍度等為主,在智能信息推薦算法越來(lái)越精準(zhǔn)的當(dāng)下,社會(huì)主流價(jià)值正慢慢被消解,公共性價(jià)值一定程度上存在缺失,個(gè)人的社會(huì)化發(fā)展也受到一定阻礙。正如有學(xué)者所說(shuō):“由于受到少數(shù)大公司、廣告商和億萬(wàn)富翁的主宰,媒介系統(tǒng)以唯利是圖為目的在瘋狂地運(yùn)轉(zhuǎn),它偏離了公共機(jī)構(gòu)或公共責(zé)任這個(gè)方向。”[4]受眾之間的數(shù)字鴻溝也越來(lái)越顯現(xiàn),體現(xiàn)在受眾對(duì)社會(huì)信息資源占有、使用、收益、分配過(guò)程中的地位、權(quán)利和機(jī)會(huì)存在明顯差距;全球各國(guó)或各地區(qū)貧富之間、男女之間、受教育與未受教育的人群之間,在信息接收、信息應(yīng)用等方面存在不平等和不公平。伴隨算法技術(shù)的發(fā)展,信息生產(chǎn)端“把關(guān)人”的缺失以及算法技術(shù)推薦信息過(guò)程中監(jiān)管缺位,更容易導(dǎo)致倫理失范問(wèn)題。媒體平臺(tái)和算法技術(shù)還是應(yīng)承擔(dān)起社會(huì)性價(jià)值的功能,有責(zé)任讓受眾實(shí)現(xiàn)信息共享,有責(zé)任讓受眾了解事物的全貌,有責(zé)任引導(dǎo)受眾向輿論文明健康方向發(fā)展。

三、智能信息推薦算法正向重構(gòu)

我們看到智能信息推薦算法帶來(lái)的翻天覆地的變化和便利,同時(shí)也應(yīng)更加清晰理性地認(rèn)識(shí)到這一技術(shù)的發(fā)展帶來(lái)的倫理失范問(wèn)題,從原則準(zhǔn)則層面、解決舉措和路徑層面進(jìn)行正向重構(gòu)。

(一)智能信息推薦算法需遵循的倫理原則

我們需要對(duì)智能信息推薦算法應(yīng)用后果進(jìn)行全方位的倫理反思,來(lái)應(yīng)對(duì)人工智能信息技術(shù)的迅猛發(fā)展所帶來(lái)的倫理挑戰(zhàn),有責(zé)任將智能信息推薦算法引入健康發(fā)展的軌道。倫理原則主要依靠人們已經(jīng)形成的習(xí)慣、信念、文化的沉淀,來(lái)調(diào)整受眾和社會(huì)以及受眾相互間的關(guān)系,從而起到約束和調(diào)節(jié)的作用。應(yīng)對(duì)智能信息推薦算法深入發(fā)展導(dǎo)致的倫理風(fēng)險(xiǎn)應(yīng)當(dāng)遵循以下倫理原則:

1.不傷害原則。不傷害原則簡(jiǎn)單地說(shuō)就是不要傷害。這個(gè)不傷害他人的禁令有時(shí)也稱為倫理底線。即使是不同的國(guó)家、民族所選擇的不同的倫理原則,首要的就是不傷害原則。無(wú)論動(dòng)機(jī)和目的如何,如果行為的結(jié)果有害,那就意味著失范和不合理,不傷害原則應(yīng)該成為判別的基本依據(jù)。智能信息推薦算法在媒體平臺(tái)的應(yīng)用有沒有對(duì)受眾、對(duì)社會(huì)造成傷害,是判定它是否造成倫理失范的首要依據(jù)。

2.以人為本原則。以人為本的原則即堅(jiān)持科技的發(fā)展為人類造福的倫理準(zhǔn)則。人工智能本質(zhì)還是由人類的思維和創(chuàng)新來(lái)主導(dǎo)和推動(dòng)的,終極還是要為人類服務(wù)的。強(qiáng)化智能信息推薦算法促進(jìn)人類自由全面發(fā)展、造福人類是人工智能技術(shù)存在的意義,從而產(chǎn)生積極的社會(huì)效應(yīng)。以人為本原則還意味著人類擁有自主性,不隸屬于人工智能,也不受其脅迫。在人機(jī)交互過(guò)程中,人類擁有獨(dú)立的自主性和能動(dòng)性。

3.安全可靠原則。安全、可靠、可控是智能信息推薦算法的倫理要求,要確保國(guó)家、社會(huì)和受眾的安全,以及與此相關(guān)的政治、文化、經(jīng)濟(jì)等各方面的安全穩(wěn)定。如果智能信息推薦算法可能會(huì)帶來(lái)安全穩(wěn)定的問(wèn)題,那么無(wú)論它具有多大的工具性價(jià)值,都應(yīng)果斷停止使用。

4.公平公正原則。智能信息推薦算法在開發(fā)、使用與監(jiān)管過(guò)程中都需遵循公平公正原則。開發(fā)設(shè)計(jì)者和受眾需要確保享有不遭受偏見、侮辱和歧視的權(quán)利,公平公正地享有人工智能算法技術(shù)帶來(lái)的便利和益處。公平公正原則還意味著算法技術(shù)必須提供有效的防范措施和救濟(jì)舉措,以防范數(shù)據(jù)歧視、意外傷害或者“黑箱”操作,最終造福人類。

5.知情同意原則。“同意”是受眾做出意見一致的意思表示。因此前提是受眾知情,然后還需同意。受眾了解準(zhǔn)確信息并了解可能會(huì)帶來(lái)的后果。當(dāng)下媒體平臺(tái)為了獲得更多的流量,對(duì)受眾主體的信息進(jìn)行采集和推薦,就要遵循知情同意原則。比如個(gè)人隱私保護(hù),采集的信息在沒有得到受眾知情同意之前,不能擅自使用。

6.互惠互利原則。每一名受眾既是媒體信息的傳播者和使用者,同時(shí)也是媒體信息的提供者和生產(chǎn)者,受眾享有智媒時(shí)代的一切權(quán)利的同時(shí),也應(yīng)承擔(dān)相應(yīng)的責(zé)任義務(wù)。兩者間的關(guān)系是雙向的,是相互交織的,權(quán)利和義務(wù)呈現(xiàn)出對(duì)等性。互惠互利原則集中體現(xiàn)了權(quán)利和義務(wù)的統(tǒng)一。

7.公共社會(huì)性原則。媒體平臺(tái)和受眾應(yīng)當(dāng)遵守其所在社會(huì)的公共秩序和規(guī)定,不違背當(dāng)下社會(huì)的公序良俗,不違反國(guó)家的公共秩序和公共價(jià)值。隨著媒體平臺(tái)發(fā)展日新月異,有些行為表面上看似符合無(wú)害原則,也得到受眾的許可,沒有對(duì)受眾的利益產(chǎn)生直接或者間接的傷害,甚至有可能為行為的雙方帶來(lái)一定的利益,但在該行為與社會(huì)公序良俗相違背時(shí)就需要用公共社會(huì)性原則加以調(diào)整和規(guī)范。

(二)智能信息推薦算法正向重構(gòu)路徑

1.培育科學(xué)的智能信息推薦算法的認(rèn)知。智能信息推薦算法在發(fā)展過(guò)程中的風(fēng)險(xiǎn)防范需要人類對(duì)此有科學(xué)的認(rèn)識(shí)和意識(shí),以正確的認(rèn)知指導(dǎo)相應(yīng)的行為,所以認(rèn)知觀念和意識(shí)是先行者。人工智能算法技術(shù)無(wú)論表現(xiàn)得如何“像人似的”,終歸是人類創(chuàng)造的產(chǎn)物,是人類在認(rèn)識(shí)世界、改造世界過(guò)程中開發(fā)的人類智力和能力的延伸。無(wú)論算法技術(shù)發(fā)展到何種境地,產(chǎn)生什么樣的影響,都不是技術(shù)自身的力量,而取決于人類的主觀能動(dòng)性,取決于人類如何使用技術(shù)。因此,對(duì)于智能信息推薦算法,我們需要科學(xué)、辯證地認(rèn)知,形成正確的信息倫理觀,積極主動(dòng)防控人工智能算法技術(shù)帶來(lái)的倫理風(fēng)險(xiǎn),最大限度地造福人類。

2.加強(qiáng)制度倫理法律監(jiān)管。斯皮內(nèi)洛在《鐵籠,還是烏托邦》一書中講到:“至關(guān)重要的是在網(wǎng)絡(luò)空間中傳承卓越的人類的善和道德價(jià)值,它們是實(shí)現(xiàn)人類繁榮的基礎(chǔ)。網(wǎng)絡(luò)空間的終極管理者是道德價(jià)值而不是工程師的代碼?!盵5]因此,政府應(yīng)該加強(qiáng)網(wǎng)絡(luò)傳播信息的實(shí)時(shí)監(jiān)測(cè)和監(jiān)管,要切實(shí)承擔(dān)起信息監(jiān)管的職責(zé)和使命,強(qiáng)化對(duì)信息的監(jiān)管與倫理失范的整治,明確智能信息推薦算法應(yīng)用的范圍及標(biāo)準(zhǔn)。媒體平臺(tái)也不能以流量論英雄,不能把單純流量指標(biāo)作為平臺(tái)運(yùn)營(yíng)的價(jià)值追求,應(yīng)在行為上保持高度自覺,不斷增強(qiáng)責(zé)任意識(shí),以實(shí)現(xiàn)智能信息推薦算法的正面導(dǎo)向價(jià)值。國(guó)家應(yīng)加快制定信息傳播、信息安全和信息產(chǎn)權(quán)等方面的法律法規(guī),對(duì)信息的存管、采集、交易、傳播、開放和再次利用等相關(guān)權(quán)利和義務(wù)作出明確規(guī)定。

3.建立智能信息推薦算法價(jià)值觀。德國(guó)社會(huì)學(xué)家馬克斯·韋伯將社會(huì)行動(dòng)的合理性分為工具理性和價(jià)值理性,工具理性的核心是強(qiáng)調(diào)效用性和功利性,只考慮成本最小而收益最大,不在乎社會(huì)在道德、情感或者文化方面的普遍價(jià)值期待。而價(jià)值理性的核心是關(guān)注行動(dòng)本身所代表的價(jià)值,追求的是更加合理而有意義的實(shí)踐路徑。隨著5G的應(yīng)用,智能信息推薦算法是大勢(shì)所趨,智媒和人工智能的聯(lián)合給受眾帶來(lái)更為豐富的媒體信息應(yīng)用場(chǎng)景。當(dāng)工具理性凌駕于價(jià)值理性之上時(shí),建立智能信息推薦算法價(jià)值觀顯得尤為必要。如何實(shí)現(xiàn)智能信息與受眾信息需求完美匹配,是算法技術(shù)層面需攻克的難關(guān)。如何進(jìn)一步優(yōu)化,緊密聯(lián)系受眾,貼近實(shí)際、貼近生活,及時(shí)為受眾提供準(zhǔn)確、客觀、真實(shí)、有價(jià)值的信息,讓受眾在接收信息時(shí)有更好的體驗(yàn),形成更具有公共社會(huì)性、人文關(guān)懷的算法技術(shù),把社會(huì)的需求、價(jià)值、選擇、判斷和個(gè)人的需求、價(jià)值、選擇、判斷有機(jī)結(jié)合,做到個(gè)體性和公共性的統(tǒng)一,讓受眾有機(jī)會(huì)獲得更多的既符合自身需求同時(shí)又體現(xiàn)社會(huì)主流價(jià)值的信息是當(dāng)下價(jià)值理性回歸的訴求。

4.算法推薦與人工編輯相結(jié)合。在算法推薦下,受眾缺乏主動(dòng)的調(diào)整和選擇權(quán),即使對(duì)智能推薦的信息不滿意也缺乏必要的反饋溝通機(jī)制,以至于積累到一定程度對(duì)智媒平臺(tái)產(chǎn)生反感直至棄用。因此,算法技術(shù)需進(jìn)一步優(yōu)化,避免造成同質(zhì)化信息推薦,防止受眾進(jìn)入繭房狀態(tài)。算法技術(shù)不能忽視受眾作為人的復(fù)雜性,應(yīng)從“人的傳播”角度進(jìn)行優(yōu)化設(shè)計(jì),綜合考慮人的行為、情感等要素。此時(shí)就需要扮演人工編輯來(lái)進(jìn)行適時(shí)的調(diào)整和干預(yù),從而降低流量對(duì)算法推薦的影響,加強(qiáng)對(duì)符合社會(huì)性價(jià)值信息的推薦力度。目前,大多數(shù)媒體平臺(tái)運(yùn)用“機(jī)器”審核,對(duì)一些虛假信息、敏感信息、標(biāo)題黨進(jìn)行攔截,但還是會(huì)有漏網(wǎng)之魚。智媒平臺(tái)在內(nèi)容信息核實(shí)上要下真功夫,加大事先核查的力度,算法推薦與人工編輯相結(jié)合是當(dāng)前形勢(shì)下的有效方法。如國(guó)內(nèi)算法資訊公司今日頭條也大幅增加了人工審核編輯人員,加強(qiáng)對(duì)不良信息和虛假內(nèi)容的攔截和處理。算法推薦和人工編輯相配合,可以強(qiáng)化人的主體性、能動(dòng)性,更好地進(jìn)行智能信息推薦。

5.進(jìn)一步提高受眾媒介素養(yǎng)。媒介素養(yǎng)是指人們面對(duì)各種媒介信息時(shí)的選擇、理解、評(píng)估、質(zhì)疑、創(chuàng)造、制作、思辨反應(yīng)以及判斷能力,意味著受眾應(yīng)學(xué)會(huì)理性客觀地辨別信息的真假,要以批判性思辨性思維面對(duì)海量信息,在海量信息中堅(jiān)持倫理操守,不盲目接受,做信息的主人,堅(jiān)守倫理底線,擁有獨(dú)立的人格。對(duì)媒體平臺(tái)信息呈現(xiàn)出的泥沙俱下、真假并存難辨的現(xiàn)象,對(duì)各類非法、暴力、虛假、垃圾、庸俗信息,受眾應(yīng)認(rèn)識(shí)到危害性,提高對(duì)這些負(fù)面信息的辨識(shí)力、判斷力和免疫力。受眾應(yīng)主動(dòng)將媒介素養(yǎng)視為一種能力,積極通過(guò)各個(gè)途徑不斷學(xué)習(xí)和提高。

總之,在人工智能、大數(shù)據(jù)廣泛應(yīng)用的時(shí)代,應(yīng)對(duì)和解決智能信息推薦算法發(fā)展過(guò)程中的缺陷以及倫理失范和風(fēng)險(xiǎn)問(wèn)題,應(yīng)當(dāng)進(jìn)一步規(guī)范健全信息倫理法律制度,確立公共的價(jià)值準(zhǔn)則和底線,提升受眾的認(rèn)知水平和媒介素養(yǎng)。

猜你喜歡
倫理受眾人工智能
《心之死》的趣味與倫理焦慮
再論“聲無(wú)哀樂”——嵇康筆下的聲音與受眾
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
基于受眾需求談電視新聞編輯如何創(chuàng)新
2019:人工智能
人工智能與就業(yè)
倫理批評(píng)與文學(xué)倫理學(xué)
數(shù)讀人工智能
網(wǎng)絡(luò)時(shí)代受眾心理的分析和引導(dǎo)
下一幕,人工智能!
津南区| 泾川县| 南通市| 广丰县| 泰顺县| 阿合奇县| 广昌县| 福海县| 河池市| 屯留县| 金乡县| 读书| 望奎县| 乐陵市| 张家界市| 左贡县| 库尔勒市| 民乐县| 广昌县| 漳浦县| 武川县| 玉田县| 平泉县| 阳城县| 曲麻莱县| 富顺县| 潢川县| 高雄市| 韶关市| 阿勒泰市| 肥城市| 林周县| 治县。| 呼图壁县| 鲁山县| 扶风县| 张家口市| 平江县| 界首市| 西华县| 图们市|