【內容提要】隨著人工智能技術的不斷發(fā)展,AIGC成為新聞傳播領域的一個創(chuàng)造性實踐,它的出現(xiàn)帶來了新聞生產模式和傳播方式的變革,但是由于它目前相對不太完善,無法規(guī)避一些新聞倫理方面的問題,帶來技術、內容和法律層面的沖擊?;诿绹?、歐盟和中國對于AIGC治理的現(xiàn)狀,思考在AIGC不斷發(fā)展的智媒時代,如何對人工智能生成內容進行新聞規(guī)范的引導,使其更好地發(fā)揮自身價值,不斷完善傳媒業(yè)的治理框架,實現(xiàn)AIGC的破局之路。
【關鍵詞】AIGC 新聞倫理 新聞業(yè) 新聞治理
在中國共產黨第二十次全國代表大會上,習近平總書記強調,在建設現(xiàn)代化產業(yè)體系中要“推動戰(zhàn)略性新興產業(yè)融合集群發(fā)展,構建新一代信息技術、人工智能……等一批新的增長引擎”[1]。隨著技術的不斷發(fā)展進步,智能化成為人類社會的主要特征,以ChatGPT為代表的AIGC(人工智能生成內容)越來越成熟并被廣泛應用,成為人們日益關注的焦點。保羅·萊文森的媒介進化論指出隨著技術傳播媒介的發(fā)展,它們更傾向于復制真實世界中的“前技術”或是“人性化”的傳播環(huán)境,不斷地接近人性需求是媒介進化的原動力。[2]在技術理性營造的媒介環(huán)境中,AIGC模式的出現(xiàn)對新聞傳播領域產生了深刻影響,再造新聞生產流程、豐富新聞報道形式、提高新聞傳播速率的同時,也帶來了深層次的新聞倫理失范問題。為了更好地把握AIGC在智媒時代的發(fā)展,需要新聞倫理規(guī)范的引導。
一、倫理危機:以新聞倫理審視AIGC發(fā)展
智能傳播時代,新媒體技術的深入發(fā)展使得輿論格局和媒介生態(tài)發(fā)生了深刻的變化,媒體傳播內容、方式、渠道、范圍也隨之發(fā)生變化,由此引發(fā)的新聞倫理失范問題越來越受到關注。ChatGPT的問世掀起了人工智能生成內容新一輪的浪潮,“文心一言”“盤古”“通義”等AIGC相關產品應運而生,顛覆了傳統(tǒng)的內容生產模式,給新聞傳播領域帶來新的發(fā)展機遇。AIGC在生成文本方面得以應用,通過運用深度學習來理解人類語言,不但能夠進行類人化交流,而且在創(chuàng)作文章、翻譯文本、編寫代碼等內容方面發(fā)揮著重要作用。然而,技術的變革總能引發(fā)新的挑戰(zhàn),技術紅利往往與技術缺陷是相伴而生的,AIGC蓬勃發(fā)展的同時必然會引發(fā)潛在的技術風險、內容危機和法律隱憂,對新聞倫理造成沖擊。
(一)媒介依賴與數(shù)據(jù)偏見的技術風險
TEY3ktlpNx1LYCcshetQ6EvemuEH7x89Ketz08E7IRE=AIGC擁有強大的內容生產能力和數(shù)據(jù)分析能力,以其深度神經(jīng)網(wǎng)絡和大規(guī)模文本訓練技術,能夠快速生成傳播內容,實現(xiàn)內容的跨模態(tài)融合,為新聞從業(yè)者帶來便捷、高效的服務,降低采編成本,提高工作質量和效率。但是每一種技術的出現(xiàn),都既是恩賜,又是包袱,AIGC也不例外。與傳統(tǒng)的人工智能技術相比,AIGC更能夠準確把握使用者需求,做到“有問必答”,但在一定程度上削弱了人的思考能力和判斷能力,陷入盲目的算法崇拜,這使得使用者極易對AIGC表現(xiàn)出過于樂觀的態(tài)度,加深使用者對其的依賴。美國科技新聞網(wǎng)站Cnet就是一個典型的例子,由于過度依賴AIGC,借助ChatGPT自動生成了眾多新聞報道,然而他們不知道的是這些報道的內容破綻百出,有的甚至能夠引發(fā)“新聞災難”,這種由新聞從業(yè)者的自我惰性心理造成對AIGC的高度依賴嚴重損害了新聞的客觀性。
人工智能技術的不斷深入發(fā)展,致使傳統(tǒng)新聞報道的“客觀”“公正”“中立”已然得不到保證。眾所周知,AIGC的前提和基礎是數(shù)據(jù),機器通過從這些數(shù)據(jù)中學習,生成模仿人類行為和創(chuàng)造力的新內容。其理論可以追溯到圖靈時代,圖靈把人的大腦看作離散態(tài)的機器,心靈實質上是信息處理過程,其后關于計算機科學、認知科學領域的相關論述成為21世紀人工智能的理論基礎。[3]以ChatGPT為例,基于傳統(tǒng)機器學習算法的行為,擁有一定的自主性,使用者的生活環(huán)境和知識背景不同,對AIGC的使用也會帶有價值傾向,會注入個人的主觀態(tài)度認知,如果數(shù)據(jù)不夠全面、多樣,那么其生成的內容也很容易出現(xiàn)偏差,可能會生成暗含政治偏見或帶有意識形態(tài)色彩的信息,導致輿論操縱行為的發(fā)生,影響公眾的認知判斷。ChatGPT誕生于美國,暗藏算法黑箱的人類反饋強化學習系統(tǒng)必然會更加強化美國的價值標準,體現(xiàn)美國的價值觀。ChatGPT不僅可以模擬人的思維,改變人類的學習方式和思維模式,而且可以直接進行信息生產和話語建構,容易產生意識形態(tài)方面的風險。例如它在回答使用者提出的問題時,首先對該問題中所包含的信息進行識別,借助算法程序進行信息的過濾篩選,對于符合意識形態(tài)的問題能以極快的速度予以回答,反之則會拒絕回答。這實際上是一種潛在的意識形態(tài)滲透方式,假如用戶缺乏正確的政治判斷力和政治敏銳力,多次使用ChatGPT就很容易被其所左右,進而產生意識形態(tài)上的風險。
(二)真實存疑與機械報道的內容危機
新聞真實性是新聞工作者進行新聞報道的一個基本原則,也是最重要的新聞倫理之一。新媒體時代,傳播主體的增多促進信息的海量傳播,信息來源復雜,基于人類反饋強化學習的AIGC以其信息生產速度快、信息生成自動化的特點,導致虛假信息難以識別并在網(wǎng)絡中快速傳播,公眾識別困難使得新聞真實性得不到保障。2023年2月,由ChatGPT自動生成的假新聞“杭州市政府將取消機動車尾號限行政策”在網(wǎng)絡上出現(xiàn)并被大量轉發(fā),AIGC強大的內容生成能力使得信息偽造成本低下,傳播范圍極其廣泛,損害新聞真實性。此外,專業(yè)把關的缺失和事實核查能力的缺乏容易使AIGC傳播的信息存在事實錯誤或數(shù)據(jù)偏差等行為,專業(yè)媒體背書的新聞信息出現(xiàn)失誤,監(jiān)管體系的不完善模糊了新聞真實的邊界,加大新聞倫理風險。2023年3月,廣州的一名女子在網(wǎng)上發(fā)布自己在地鐵上的照片,后被網(wǎng)友拿去用AIGC“一鍵脫衣”,虛假照片的廣泛傳播對當事人造成巨大傷害,人們對AIGC自動生成的信息難以分辨真?zhèn)?,使得新聞真實性存疑?/p>
由人工智能生成的內容通常是依靠人們原本設定好的程序和數(shù)據(jù)庫資源進行寫作,模式化程度較高,而且只是基于新聞報道的表面現(xiàn)象單純陳述新聞事實,缺乏深度思考和創(chuàng)新的能力,這也就導致生成的新聞內容難以揭示事件的本質,顛覆了新聞內涵的深度挖掘。再者,它們缺少新聞工作者所具備的專業(yè)能力以及文化素養(yǎng),無法突破專業(yè)壁壘,也沒有辦法擁有人類的真情實感,這樣看來,人工智能生成的內容缺乏“情感溫度”,很難讓受眾產生情感共鳴,傳播效果受限。正如麥加所言:“人工智能的創(chuàng)作便利性越來越強,但令人擔憂的是,人似乎因此而變得依賴于機械化?!币訟I虛擬主播為例,它的表情、神態(tài)、動作表達較真人主播顯得很生硬,在聲音表達上機械感較重,無法與用戶建立真實的情感連接,同時缺乏與用戶的實時溝通和雙向互動,一定程度上會降低用戶的參與度,這也就導致它們的適用范圍受到一定的限制。
(三)數(shù)據(jù)泄露與權力侵犯的法律隱憂
數(shù)據(jù)泄露是個人、組織或群體的私人信息或未經(jīng)授權而公開的重要信息被暴露在危險空間之中。當前人類數(shù)字化生存成為現(xiàn)實,數(shù)據(jù)泄露是AIGC面臨的一大難題。AIGC需要依靠海量的數(shù)據(jù)庫來訓練和優(yōu)化,以便能為使用者更好地提供服務,這個數(shù)據(jù)庫將用戶使用行為自動儲存并被納入其中,用戶通過輸入關鍵詞,小到個人的身份信息,大到國家的政治機密都能夠被記錄下來。基于人工智能技術的局限性,AIGC使得數(shù)據(jù)安全遭到威脅,帶來個人信息、國家機密等數(shù)據(jù)泄露的風險,進而給個人和國家安全帶來巨大危機。AI換臉、AI作畫、克隆合成數(shù)字人等可以迅速對個人信息進行搜集、抓取并進行分析,人們在互聯(lián)網(wǎng)上留下的“數(shù)字痕跡”加快了AIGC提供個人隱私的速度,信息的公開傳播使得用戶隱私暴露在網(wǎng)絡空間中,數(shù)據(jù)安全面臨嚴重的法律風險。
AIGC在內容生成方面對權利歸屬造成威脅,如著作權、隱私權、肖像權等。首先,AI合成產品是運用算法、人工智能等技術來對網(wǎng)絡信息素材進行抓取、合成的產品,在這個過程中所用的信息素材來源于互聯(lián)網(wǎng)中的數(shù)據(jù)庫,這些信息素材可能存在著版權風險,而計算機缺乏自主意識,它們不能對這些素材進行及時識別。當用戶輸入指令時,數(shù)據(jù)庫就會對該指令的相關內容進行搜索與編碼,進而生成內容,這極易侵犯他人版權,造成新聞倫理的失范。其次,網(wǎng)絡上流行的AI算命,用戶上傳自己的照片,并輸入自己的名字、生日等個人基本信息,系統(tǒng)提取面部信息并在后臺隨機組合,在識別過程中存在著隱私泄露的風險。還有網(wǎng)上爆火的AI孫燕姿,也恰恰說明AI變聲可以做到以假亂真。最后,隱私權的讓渡和非法采集給數(shù)據(jù)安全保護帶來一系列挑戰(zhàn),一些不法分子極有可能利用用戶上傳的照片冒充照片本人進行一些非法活動。AI換臉被廣泛應用到短視頻的二次創(chuàng)作中,如將電視劇中主角的臉換成自己的臉并在短視頻等平臺大量傳播,還有一些主播利用AI技術換成明星臉進行直播帶貨等,這些行為都是侵犯肖像權的體現(xiàn)。由此可見,數(shù)據(jù)泄露和權利侵犯使得AIGC在法律層面面臨嚴峻挑戰(zhàn)。
二、探索創(chuàng)新:各國AIGC治理現(xiàn)狀分析
由于各國AIGC技術在發(fā)展過程、制度體系、文化背景和價值導向等方面存在顯著差異,對于AIGC的治理也呈現(xiàn)出鮮明的地域性特點,這導致了不同國家在具體治理原則和模式上都各有定論,尚未達成共識。聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》中要求各成員國根據(jù)自愿原則建立本國人工智能倫理框架,確保人工智能技術不被用于大規(guī)模監(jiān)控。針對AIGC帶來的新聞倫理風險,美國、歐盟、中國等都在積極探索適合本國的治理路徑。
(一)美國:先發(fā)展后監(jiān)管的寬松型治理
美國是全球人工智能技術領域的開拓者,它奉行的是先發(fā)展后監(jiān)管的治理原則,即優(yōu)先鼓勵人工智能技術的發(fā)展,而后對人工智能技術所帶來的危機進行監(jiān)管。美國十分注重AIGC的商業(yè)發(fā)展,2020年,美國發(fā)布的《行政部門和機構負責人備忘錄:人工智能應用監(jiān)管指南》中指出聯(lián)邦機構必須避免不必要的監(jiān)管,以免阻礙人工智能產業(yè)的創(chuàng)新。直至去年,美國又提出用1.4億美元來推動人工智能研究所的建設,以此來實現(xiàn)更多新興領域的突破,然而在AIGC技術發(fā)展過程中,美國對于其在國家安全方面的問題較為重視,認為它可能威脅本國利益,因此還成立了首席數(shù)字和人工智能辦公室,出臺了相關法律來確保自身在全球人工智能技術產業(yè)中的領先地位。美國出臺對AIGC監(jiān)管的法律較為遲緩,而且主要采取分散化的監(jiān)管模式。美國國會研究服務部(CRS)發(fā)布的報告顯示,建議立法明確生成式人工智能必須設置通知和披露機制、用戶退出機制、設立個人數(shù)據(jù)收集底線等。[4]美國頒布的《人工智能權利法案藍圖》《人工智能風險框架》形成了對人工智能系統(tǒng)的管理問責體系。此外,美國還對谷歌、OpenAI、Stability等多家人工智能生產商的AI產品進行評估,避免出現(xiàn)數(shù)據(jù)泄露的問題,使得人工智能生成內容更能符合法律法規(guī),更好地促進商業(yè)發(fā)展。拜登發(fā)布e73fdf27f68d73db6ce70616ebcf70ee的“關于安全、可靠、值得信賴地發(fā)展人工智能的行政命令”,為人工智能的安全提供了保障,以便能夠更好地促進AIGC對商業(yè)的發(fā)展。由此可見,美國對于AIGC的治理模式相對來說比較大膽,更加側重于人工智能技術對商業(yè)的發(fā)展以及技術發(fā)展進程中如何能夠穩(wěn)定自己的領先地位,從而滿足國家安全需求。
(二)歐盟:先監(jiān)管后發(fā)展的強制型治理
與美國不同,歐盟國家更重視AIGC所帶來的數(shù)據(jù)安全問題,奉行的是先監(jiān)管后發(fā)展的治理原則,高度重視AIGC在個人數(shù)據(jù)采集、隱私保護方面存在的問題。歐盟在全球推廣其人工智能倫理道德和法律框架,并敦促成員國出臺本國人工智能國家戰(zhàn)略,以歐盟價值觀捍衛(wèi)歐洲在人工智能領域的領導地位。[5]在對AIGC治理時堅持“以人為本”的原則,遵循技術懷疑的前置邏輯,始終保持著較為審慎的態(tài)度。意大利對Open AI提供的ChatGPT服務是否侵犯用戶隱私展開調查,限制處理用戶的個人信息;加拿大數(shù)據(jù)保護機構也啟動對Open AI的聯(lián)合調查。歐盟早在2020年《關于人工智能:歐洲追求卓越和信任的方法》中就表達了對新人工智能技術的擔憂,并開始考慮立法問題。2023年6月,歐盟通過了《人工智能法案》,對人工智能采取分級分類監(jiān)管原則,明確指出對ChatGPT此類生成式人工智能實行特別監(jiān)管,力求“保證AIGC的安全性”和“促進AIGC進一步發(fā)展”兩方面的平衡。同時,歐盟還制定了高風險人工智能禁令,對其進行強制性治理,減少了數(shù)據(jù)泄露的問題,保障了數(shù)據(jù)安全。但是,AIGC的快速發(fā)展不斷沖擊著現(xiàn)有的監(jiān)管框架,過分強調監(jiān)管限制了AIGC的進一步發(fā)展,引發(fā)了部分行業(yè)的深度擔憂。
(三)中國:“軟”引導“硬”監(jiān)管的謹慎型治理
相較于歐盟、美國的治理方式,我國對AIGC的治理一直抱有十分謹慎的態(tài)度,強調“軟”引導和“硬”監(jiān)管相結合。一方面,對AIGC應用范圍與領域進行規(guī)范,通過制定合理的法律法規(guī)和政策監(jiān)管AIGC的開發(fā)和應用;另一方面,為了應對AIGC帶來的新興挑戰(zhàn),中國發(fā)布了《生成式人工智能服務管理暫行辦法》,對AIGC模型訓練、數(shù)據(jù)標注、模型輸出、用戶使用等關鍵環(huán)節(jié)進行了規(guī)范。該法規(guī)是中國首次對生成式人工智能研發(fā)與服務作出明確規(guī)定,也是全球首部針對生成式人工智能進行監(jiān)管的法律文件。同時,中國還發(fā)布了《全球人工智能治理倡議》《新一代人工智能發(fā)展規(guī)劃》《新一代人工智能治理原則:發(fā)展負責任的人工智能》等文件,呼吁要加強對于人工智能的治理,引導人工智能技術應用向善發(fā)展,同時也要做好風險防范,不斷提升人工智能技術的安全性和可控性,力求實現(xiàn)AIGC發(fā)展和治理二者的統(tǒng)一。
放眼全球,各國在AIGC治理上普遍傾向于將法律法規(guī)作為主要手段,為人工智能生成內容的進一步發(fā)展提供了法律基礎,使其在合法和合規(guī)的軌道上得以廣泛應用。[6]但是法律法規(guī)一般存在著滯后性,不能完全應對技術日新月異發(fā)展所帶來的潛在危機與挑戰(zhàn)。AIGC的治理面臨著嚴峻的“科林格里奇困境”,也就是說,技術后果在最初階段難以預見,而消極后果逐漸明朗之時,技術已深度融入社會經(jīng)濟的各個層面,因而管控變得十分困難。[7]基于這種情況,如何在保證AIGC倫理安全的同時又促進其穩(wěn)定發(fā)展,是目前我們面臨的重要問題之一。
三、智媒向善:AIGC規(guī)范新聞倫理的破局策略
通過分析美國、歐盟、中國對于AIGC治理的現(xiàn)狀特點,我們可以看到,無論是美國的“寬松型”治理、歐盟的“強制型”管控,抑或中國的“謹慎型”規(guī)制,都無法避免AIGC在“技術發(fā)展”與“警惕風險”中不斷地糾偏。海勒等指出,“機器和人類共同成為一個二元體系,使得他們成為彼此的衡量尺度”[8]。AIGC的發(fā)展引發(fā)了其在新聞傳播領域中的倫理思考,應對AIGC對新聞倫理的沖擊,是促進AIGC在新聞傳播領域可持續(xù)發(fā)展的重要保障,也是使其更好地適應新時代媒體環(huán)境的重要舉措。我們要確保AIGC技術得以廣泛應用的同時,也要意識到其是否符合新聞倫理的基本要求。針對智能媒體時代AIGC的破局策略,我們需要從多角度進行分析,實現(xiàn)AIGC的創(chuàng)新發(fā)展。
(一)以主流價值體系為導向,加強AIGC風險防范
防范AIGC應用中的數(shù)據(jù)偏見和意識形態(tài)風險問題,最重要的是要符合當今社會的主流價值觀,這不但是技術應用必須遵循的價值原則,也是保障意識形態(tài)安全的重中之重。技術為善服務還是為惡服務,關鍵在于其使用者的價值偏好,因此,要把重視使用者的價值建設擺在首位。一方面,要提升使用者自身的媒介素養(yǎng)和技術素養(yǎng),在利用AIGC提高新聞生產效率的同時,還要充分發(fā)揮創(chuàng)造力和主動性,以“人的智慧”牽引“人工智能”,提高自身的專業(yè)性。只有實現(xiàn)自身對AIGC的掌控,才能確保不被技術異化,使技術更好地服務于新聞內容生產的需要。另一方面,要增強使用者的技術風險防范能力,加強技術安全教育培訓,自覺提高自身的鑒別能力、判斷能力和把關能力,堅守算法透明性、可追責性等原則來使用AIGC。只有這樣,才能防范人工智能生成內容過程中產生數(shù)據(jù)偏見和意識形態(tài)風險問題的發(fā)生。
AIGC的治理面臨著嚴峻的“科林格里奇困境”,它必須符合為社會所公認的價值體系,這是因為AIGC所依靠的算法存在某些傾向,這些傾向直接影響了我們對于它的使用態(tài)度。我們不能僅僅因為AIGC具有數(shù)據(jù)偏見和意識形態(tài)風險就否定并拒絕使用它,相反,我們也不能因為AIGC在全球范圍內的廣泛應用就完全認同并應用它。因此,除了要重視AIGC使用者的價值建設外,還要加強對AIGC的倫理規(guī)范,對其算法進行優(yōu)化,在這個過程中,要全面滲入“公正”“民主”的社會導向,提高算法透明度和準確性,能夠避免出現(xiàn)極端化的內容表達,通過建立可靠的數(shù)據(jù)保障防御機制來減少數(shù)據(jù)偏見的發(fā)生,使AIGC能夠真正為人類服務,而且能夠使他們享受技術優(yōu)勢所帶來的便利和好處。
(二)以多方管理主體為依托,加強AIGC危機治理
信息的選擇與篩選是AIGC在內容生產方面對新聞倫理造成沖擊的主要原因,對于AIGC的危機治理,可以從技術、行業(yè)、新聞工作者三個角度來探討。
首先,從技術層面看,要明確AIGC在新聞傳播領域的應用范圍,借助技術手段對有害信息、敏感詞匯進行有效過濾,最大可能減少AIGC加持下虛假信息的傳播。技術供應商也要促進技術創(chuàng)新,適當公開算法的操作流程,及時對AIGC產品進行技術維護,不斷完善技術解決方案,避免出現(xiàn)技術落后于新聞生產的現(xiàn)象,如開發(fā)AIGC實時翻譯、AIGC信息標注等系統(tǒng)滿足用戶多樣化新聞需求。作為AIGC技術應用的服務對象——用戶,要樹立辯證思維,正確看待人工智能生成內容,重點關注內容的新聞價值層面,避免陷于技術構建的信息繭房而無法自拔。
其次,企業(yè)作為AIGC的開發(fā)者,需要做好對技術標準的制定,并對AIGC帶來的倫理風險問題進行嚴格審查,謹慎處理新聞信息收集過程的各個環(huán)節(jié),始終堅守新聞專業(yè)性原則。如果技術出現(xiàn)問題,要對企業(yè)予以追責,并且要求企業(yè)對AIGC出現(xiàn)的錯誤和疏漏進行彌補,建立多維度的智能計算系統(tǒng),優(yōu)化算法模型,使其在處理過程中更加真實、客觀。除企業(yè)外,相關行業(yè)監(jiān)管部門也要承擔起重要的角色,要完善管理運營模式,避免技術濫用造成更大的社會倫理危機。推動AIGC合理保障新聞業(yè)的發(fā)展,需要在推動技術應用的基礎上建立相應的技術規(guī)范,釋放技術活力,推動新聞傳媒業(yè)高質量發(fā)展。
最后,新聞工作者作為新聞活動的主體,要加強自律,秉持新聞真實性的原則,自覺對自身行為進行約束,在新聞報道時注入人文關懷,避免出現(xiàn)機械化報道。還要積極合理地將智能技術應用于新聞工作當中,可通過打造智能識別虛假內容的工具,例如運用anti-deepfake技術減少虛假信息傳播,加強在新聞內容的生成、審核、完善、發(fā)布這一過程的把關,使新聞內容經(jīng)過人工和技術的雙重把關,以保證AIGC生成內容傳播的真實性和準確性。建立以新聞工作者為主體,與技術良性互動的共生協(xié)作關系,確保AIGC在遵循新聞倫理的基礎上得以應用。
(三)以倫理規(guī)范準則為核心,加強AIGC法律規(guī)制
技術發(fā)展總是先行于法律,隨著AIGC技術的應用與發(fā)展,以數(shù)據(jù)庫作為主要內容來源的AIGC能夠在潛移默化中引發(fā)新聞侵權現(xiàn)象的發(fā)生,目前我國關于規(guī)范AIGC的法律法規(guī)還不是很完善,AIGC生產的新聞產品歸屬權是歸誰所有,是否受著作權保護以及當其生產的新聞內容出現(xiàn)問題時又由誰來承擔責任,這類問題需要運用法律加以界定。《新一代人工智能發(fā)展規(guī)劃》將如何促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范視為核心問題,對于AIGC的規(guī)制需要法律的約束。針對AIGC應用于新聞內容生產的歸屬、場景、范圍以及追責機制等出臺相關法律,對已經(jīng)出臺的相關法律進行細化,厘清相關主體責任,明確規(guī)定使用者利用AIGC創(chuàng)作的內容一經(jīng)發(fā)布,必須對其侵犯著作權、隱私權、肖像權等行為承擔法律責任,最大程度上規(guī)制AIGC帶來的法律危機,推進新聞業(yè)責任意識的樹立和健康內容生態(tài)的建立,維護新聞專業(yè)性。例如在《中華人民共和國著作權法》中完善有關AIGC內容版權保護的法規(guī),根據(jù)當前應用現(xiàn)狀在已有的法律基礎上進一步完善法律規(guī)范,為AIGC的進一步發(fā)展提供法律支撐。針對AIGC的數(shù)據(jù)采集,應健全預防算法偏見的法規(guī)體系,設置偏見評估系統(tǒng),在內容輸出前對其進行偏見評估,從源頭上對內容進行規(guī)范。新聞倫理是法律法規(guī)制定的基礎,AIGC必須遵循為社會所認可的倫理規(guī)范,因此要促進倫理道德規(guī)范的建設,參照《人工智能倫理問題建議書》中的意見,堅持以社會主義核心價值觀為核心,堅持以人為本,智能向善作為基本準則,并將其滲透至AIGC的應用環(huán)節(jié)中,[9]使得AIGC最大限度回應使用者的基本訴求,促進良性發(fā)展。
Gartner曾預測,“到2025年,生成式AI產生的內容將從目前的1%提升到10%”[10],也就是說未來的AIGC擁有廣泛的發(fā)展前景。新聞業(yè)的發(fā)展離不開技術的推動,也離不開對新聞倫理的堅守。因此新聞業(yè)要堅持“工具理性”和“價值理性”二者相輔相成,既要強調AIGC的發(fā)展創(chuàng)新,也要重視對于AIGC的新聞倫理規(guī)范,更好地利用AIGC促進新聞業(yè)轉型升級。
【本文系國家民委共同發(fā)展司專項課題“構建現(xiàn)代傳播矩陣推動共同現(xiàn)代化”(項目編號:20231016000)的階段性成果】
參考文獻:
[1]習近平.高舉中國特色社會主義偉大旗幟為全面建設社會主義現(xiàn)代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[Z].北京:人民出版社,2022.
[2]唐俊.對媒介進化論的再認識:基于感知和權力的雙重維度——兼論Web3.0媒介的平權結構[J].新聞界,2023(01):47-56.
[3]陳昌鳳,張夢.由數(shù)據(jù)決定?AIGC的價值觀和倫理問題[J].新聞與寫作,2023(04):15-23.
[4][5] 朱新梅,周菁.全球主要國家和地區(qū)人工智能治理研究報告[J].聲屏世界,2023(24):14-21+32.
[6]胡兵,鐘思悅.荷蘭預判性技術倫理思潮對AIGC治理的啟示[J].青年記者,2024(02):48-54.
[7]文成偉,汪姿君.預知性技術倫理消解AI科林格里奇困境的路徑分析[J].自然辯證法通訊,2021,43(04):9-15.
[8]凱瑟琳·海勒,黃斐.計算人類[J].全球傳媒學刊,2019(01):28-46.
[9]周鴻,熊青霞.AIGC賦能媒介生產的機遇、隱憂與應對[J].傳播與版權,2024(02):35-38.
[10]鄭滿寧.人工智能技術下的新聞業(yè):嬗變、轉向與應對——基于ChatGPT帶來的新思考[J].中國編輯,2023(04):35-40.
作者簡介:孟艷芳,博士,北京印刷學院副教授;劉伊茗,北京印刷學院碩士研究生;范濤,揚州大學碩士研究生
編輯:徐 峰