◎朱 艷 劉銘宸
(東北農業(yè)大學,黑龍江 哈爾濱 150006)
“網絡文化安全是國家文化安全的最主要形態(tài)之一,是國家安全諸多變量中的最重要因素[1]?!痹贏I 出現(xiàn)之前,傳統(tǒng)的網絡文化監(jiān)測主要通過計算機數據挖掘技術,運用特定的計算機程序搜集互聯(lián)網上的信息,經過文本分析技術,提取文本中的關鍵信息,并與數據庫中的信息進行匹配,來判斷是否存在網絡文化安全問題。
這一種監(jiān)測模式依賴于存有已知威脅和相關關鍵詞的數據庫。把抓取的數據與存有已知威脅和相關關鍵詞的數據庫進行對比。當找到匹配項時,系統(tǒng)會觸發(fā)警報。雖然這種方法對已知威脅有效,但對新的和未知的威脅不適用。此外,這一種模式還可能會產生大量誤報,一旦合法流量恰好與已知威脅具有相似的特征,就可能被標記為惡意的,很多時候需要依賴于人工判斷,由專職或兼職人員承擔起網絡文化安全問題的巡查與監(jiān)測的責任,通過對重點網站、重點論壇進行日常監(jiān)測,及時發(fā)現(xiàn)網絡文化安全問題。
隨著我國互聯(lián)網產業(yè)的快速發(fā)展,網絡空間的信息數量呈現(xiàn)爆發(fā)態(tài)勢。目前,我國網民數量位居世界第一,而且每年以千萬級的數目增長。網絡空間公眾意見數量與密度的爆發(fā)式增長,使得通過傳統(tǒng)方法來監(jiān)測網絡文化安全的模式越來越難以為繼。
當下,AI 算法介入網絡文化安全風險預警主要體現(xiàn)在借助數據挖掘、聚合與清洗,通過技術模型計算風險概率和發(fā)生路徑,分析判斷網絡文化安全風險是否出現(xiàn)。相比傳統(tǒng)的網絡文化預警方法,基于AI 的解決方案在網絡文化預警中具有明顯優(yōu)勢。
人工智能不僅具備精密計算能力和強悍算法,更是可以24 小時持續(xù)提供網絡信息的核查、定位、追蹤、監(jiān)管和治理,徹底改變了網絡安全問題的處理方式。例如在網絡意識形態(tài)風險防控中,人工智能技術能夠全天候收集、整理、歸類數據,并借助語義、語音和視覺識別技術對內容進行有效識別,通過數據模型深度分析,精準得出反主流意識形態(tài)的話語、圖像及視頻的特征,從而在第一時間防止日益隱喻化的反主流意識內容擴散和傳播,利用算法實時監(jiān)測識別出潛在網絡違法者的應用不勝枚舉。
首先,AI 算法技術的運用有效提高了分析網絡信息的效率。傳統(tǒng)的網絡文化安全監(jiān)測中,安全分析師經常面臨著篩選大量日志、警報和報告以識別潛在威脅的挑戰(zhàn)的問題。面對當前的互聯(lián)網規(guī)模,傳統(tǒng)的網絡監(jiān)管模式顯得費力耗時。相比之下,AI 算法可以快速處理和分析大量數據,有效地識別和優(yōu)先處理潛在風險。例如監(jiān)測網絡文化安全事件時,通過“不良網絡文化形成模型”可以對不良網絡文化類型進行有效識別,并通過對網絡內容的情感分析與流量變化,追蹤輿情變化,利用大數據模型來判斷群體情感,來判斷某一網絡群體的情感傾向,及時對相關內容進行限流、刪帖,減少相關信息在網絡上傳播,阻絕不良網絡文化的擴散與蔓延,減輕甚至避免不良網絡文化對于現(xiàn)實的影響。
其次,在準確性方面,AI 利用先進的機器學習算法構建語料模型,可以更準確識別出網絡文化安全威脅。傳統(tǒng)的網絡文化安全監(jiān)測依賴存有已知威脅信息和關鍵詞數據庫來識別威脅,很難識別隱喻化的威脅信息和新興網絡文化安全信息,AI 則顯著提高了準確性。例如2021 年,日本學者用機器學習的方法,對一款社交類游戲進行分析,在不監(jiān)測聊天內容的情況下,僅基于聊天次數、聊天對象、聊天時間等基本信息,就能較為精準地識別出潛在網絡違法者,并預測出違法行為的大概時間[2]。
隨著數字化程度不斷加深,網絡文化安全已經不再只包含網絡空間內的“言論”,更包含更廣意義上的文化概念、文化現(xiàn)象與文化安全。
近年來,隨著大數據和人工智能的發(fā)展,國內外有不少研究人員利用文本分析法進行用戶身心健康評估。如Meta的自殺預警系統(tǒng)使用人工智能技術對海量數據進行梳理,尋找有自殺傾向的人。
在國內,僅2023 年第二季度,抖音就利用人工智能技術,發(fā)現(xiàn)并報警救助安撫用戶773 人,處理慫恿、教唆他人實施極端行為的不當視頻2.7 萬條。在弱勢群體方面,日均對未成年用戶過濾內容20 萬條,處置80 多萬條對中老年人用戶騙取互動的違規(guī)視頻,發(fā)出近7 萬次風險提醒。知乎平臺的算法機器人“瓦力”能在0.3 秒內識別判斷內容是否為不友善、答非所問、陰陽怪氣等多種需被折疊的答案[3]。
在網絡文學領域,AI 技術已經深度嵌入網絡文學生態(tài),不僅在內容審核方面深度運用于網絡文化安全的監(jiān)測,在文本審校上,AI 技術可以輔助編輯迅速檢索文本,實現(xiàn)網絡文學文稿的批量審核、修改和冗余章節(jié)的刪除等任務,有效提升了網絡文學的作品質量。
除了可以預測網絡攻擊威脅、提高危機事件的預測與管理能力,AI 算法在保障金融安全、提高金融監(jiān)管有效性和精準度、推進社會治理智能化建設、提供有效網絡安全防護手段等方面均有不俗建樹。
盡管目前AI 大模型在網絡安全領域的應用面臨在很多挑戰(zhàn),但毋庸置疑的是,AI 助力網絡文化安全風險預警邁向智能化安全的新階段已經開啟。未來5 至10 年,網絡安全市場將成為技術創(chuàng)新的戰(zhàn)場,智能化、數據隱私保護、多維度防御等趨勢將推動網絡文化安全預警領域向更高的水平邁進,為數字世界的安全提供更加堅實的保障。
2021 年12 月31 日,中央網信辦印發(fā)《互聯(lián)網信息服務算法推薦管理規(guī)定》,文中明確提出了算法推薦服務機制對于網絡文化安全的責任。任何技術的應用都有其運營的必要場景,隨著治理客體、治理對象發(fā)生變化,在法律賦權的情況下,AI 算法干預和介入網絡文化風險預警的技術條件已經成熟。筆者認為,若要更好地發(fā)揮AI 算法在網絡文化安全預警領域的作用,需要在監(jiān)管主體、監(jiān)管內容、監(jiān)管方式三方面進行發(fā)力。
實踐證明,水平再高的硬件技術也不敵機構重疊、職能交叉的管理“盲區(qū)”。近年來,我國不斷推動網絡文化安全治理工作,目前具有網絡文化安全監(jiān)管職責的部門就有十幾家之多,但是職責交叉和重疊問題依舊突出,這大大降低了網絡文化安全治理的效率。建設跨平臺、跨部門的統(tǒng)一預警平臺,可以在很大程度上填補這一漏洞,更好地發(fā)揮人工智能技術的治理效能。
當下,國內網絡文化安全監(jiān)測數據孤島問題較為突出,表現(xiàn)在各網絡文化安全監(jiān)管平臺之間數據互通不暢,跨平臺數據流動流程繁瑣。作為網絡信息傳播監(jiān)管的絕對主體,相關部門應努力推動建立能夠促進人工智能正向效能釋放的跨平臺、跨部門的統(tǒng)一預警平臺,這不僅有利于各部門掌握涉及部門本身的網絡文化安全信息,有利于更好地掌握涉及本部門的網絡安全問題情況,還可以避免各部門各自為戰(zhàn),為進一步加強治理提供大數據支持。以文化產品審批為例,如能構建涉及多部門的全國統(tǒng)一的審批平臺,不僅能建立權力清單,加快審批流程,持續(xù)推進文化領域“放管服”改革,大大減少文化產品審批時間,更有利于網絡文化的繁榮。
網絡安全問題發(fā)展快、影響范圍廣,要想充分發(fā)揮人工智能技術賦能網絡安全預警的作用,需要各主體共同參與。不妨借鑒西方國家的做法,建立政府、企業(yè)、公民多方參與的行業(yè)自律協(xié)會,對于新變化、新問題,及時通過行會公約進行約束,充分發(fā)揮行業(yè)自律協(xié)會的作用,建立起溝通政府、互聯(lián)網企業(yè)、個人三方的橋梁。構建相關主體相互配合、協(xié)同聯(lián)動的有效運行機制,及時處理網絡文化安全領域的新問題、新變化,保障人工智能賦能網絡文化安全預警的平穩(wěn)、有序、長效發(fā)展。
2020 年3 月1 日,《互聯(lián)網信息內容生態(tài)治理規(guī)定》正式實施,我國初步確立了黨委領導、政府管理、企業(yè)履責、社會監(jiān)督、網民自律的多主體協(xié)同參與網絡安全治理體系?!秶揖W絡空間安全戰(zhàn)略》《互聯(lián)網信息服務管理辦法》等法律法規(guī)不斷出臺,網絡安全法律體系逐漸完善[4]。與此同時,立法質量上仍顯不足,并存在一定程度上的滯后性。有學者認為,2021 年頒布的《個人信息保護法》雖然因日趨嚴重的個人信息泄露而產生,然而它更多著力于規(guī)制信息服務者對用戶索要信息公開許可的情況,對人工智能領域產生的問題缺乏進一步的研究[5]。這在一定程度上反映出網絡安全法規(guī)滯后的現(xiàn)實縮影。
此外,由于多部門分別具有管理網絡文化安全問題的職責,制定相關政策的背景與目的存在較大差異,這使得部分法律法規(guī)的標準存在一定差異,甚至出現(xiàn)了自相矛盾的情況,影響了立法效能的有效釋放。網絡文化安全的相關標準特別是事先審查標準的不一致和界定模糊,不僅導致同一款產品需要重復審查、修改,更有甚者一些平臺為了免責,審查時層層加碼,從重從嚴,導致大量網絡文化內容無法通過審查,這種情況在醫(yī)療科普等領域尤為明顯。這不僅打擊了網民創(chuàng)作積極性,更極大地制約了網絡文化的生產和繁榮。
在具體實踐中,審查標準的不一致和界定模糊的問題在敏感詞設置方面表現(xiàn)較為突出。雖然對于敏感內容的界定有總體的指導精神,但涉及的具體詞語詞匯需要從上至下的各級平臺自行掌握。為了免責,各類平臺紛紛采取了更加嚴苛的監(jiān)管方式,一封了之,一禁了之,矯枉過正的情況屢見不鮮。因此,作為監(jiān)管主體,政府部門要在現(xiàn)有網絡信息傳播領域法律法規(guī)的基礎上,根據形勢發(fā)展需要,研究出臺人工智能技術應用于網絡信息傳播領域的專項法規(guī)、規(guī)章,明確邊界和規(guī)范,從而切實引導網絡平臺正確使用人工智能技術。
人工智能在網絡安全治理方面擁有廣闊發(fā)展前景,但同時也存在技術風險,如可生成文本技術帶來的虛假信息泛濫、算法推薦技術加劇認知偏倚、信息繭房等問題日益得到關注。近年來,個人信息泄漏事故頻發(fā)更是引發(fā)社會不安,讓人們對人工智能的信任度大打折扣。算法偏見是影響網絡文化安全治理的重要問題,有學者認為:“算法并非完全價值中立的技術,算法偏見是社會偏見在人工智能時代的產物。算法偏見不僅背離了公平公正的新聞職業(yè)規(guī)范、挑戰(zhàn)了用戶知情權和信息選擇權,還會解構社會共識,引發(fā)輿論風險等[5]?!?/p>
算法推薦技術具有一定的意識形態(tài)屬性,影響著網絡空間內的信息把關機制、信息傳播秩序和輿論場格局,加劇了傳播學理論視角下的“把關人離場”效應、“信息繭房”效應和“沉默的螺旋”效應,導致網絡主流意識形態(tài)面臨主導力式微、凝聚力式微和引領力式微的風險。
從個體權利看,算法技術可能侵犯個體的話語權利,形成技術對主體社會生活的僭越。從技術監(jiān)管看,“算法推薦的利用若不受監(jiān)管,將會對主流意識形態(tài)傳播、網絡信息環(huán)境和用戶的價值觀念帶來沖擊”[6]。從信息把關出發(fā),算法推薦下,把關人缺位,使得信息的客觀真實性、價值導向性無法得到保證。從輿論導向看,算法推薦缺乏對信息內容的適宜度和尺度的嚴格規(guī)范,導致缺乏正確價值導向的垃圾資訊充斥網絡空間,破壞網絡輿論生態(tài)。
為了化解算法偏見下的傳播壁壘,一方面,需要優(yōu)化算法推薦技術本身,改進單一化的信息模型,豐富算法模型信息挑選的維度,在滿足個性化需求的同時,增加多樣信息和公共議題的供給,以促進社會多元主體之間的對話。加強主流價值觀對技術的牽引,反對在技術把關上單向度地遵循“唯熱度”論的資本邏輯,注重加強鑒定內容的專業(yè)性、權威性和真實性等,凸顯技術把關的公共性、價值性。創(chuàng)新應用人工智能、云計算、大數據等多樣化的信息技術,精準溯源用戶個性“信息繭房”的成因,發(fā)掘當下用戶“繭房”中缺失但又十分重要的信息內容。
另一方面,要建立“人機協(xié)同”的把關機制,要防范單向度技術把關模式下的風險,在優(yōu)化技術把關的基礎上,加強人工審核信息,尤其加強對信息內容意識形態(tài)導向性審核,發(fā)揮人工把關的價值糾偏作用,保證信息分發(fā)的真實性、有效性和導向性,強化主流價值守望。以人為本,優(yōu)化算法推薦模式,建構“人機共融”的預警體系,會帶來以往無法實現(xiàn)的網絡防御的新水平。
AI 無法輕松搞定所有網絡風險,但在有效提高現(xiàn)有網絡安全和數據保護程序方面潛力無限。根據Marketsand Markets的報告,全球網絡安全中的AI 市場規(guī)模預計將從2020 年的88 億美元增長到2026 年的382 億美元,預測期間的復合年增長率為23.3%。2023 年10 月,人工智能國際治理領域發(fā)生的最重要事件之一,是在第三屆“一帶一路”國際合作高峰論壇上,習近平主席宣布中方《全球人工智能治理倡議》提出的以人為本、智能向善等原則。在推動人工智能技術服務于網絡文化安全治理的實踐中,只有堅持以人為本,充分尊重個人信息知情權、同意權,保護個人隱私權,保障充分自主決策權等,才能更好地發(fā)揮人工智能的技術優(yōu)勢,以管理工具的變革推動網絡文化安全的提效,使公眾充分享受到數字化與人工智能帶來的便利。
未來,隨著社會數字化程度進一步加深,人工智能技術效能在網絡空間中進一步釋放,美國等西方國家進一步升級對我國技術封鎖,如何應對“技術邊緣化”帶來的國家網絡文化安全風險,以及敵對勢力濫用通用人工智能技術對我國展開滲透等安全風險,成為整個國家和社會深入研究的新課題。為此,需要更加重視人工智能賦能文化安全的基礎理論研究,強化研判人工智能發(fā)展趨勢,以供決策者完善國家網絡文化安全新防護機制的頂層設計。只有如此,才能在國際競爭中掌握主動權,加強對不斷演變的網絡安全威脅的防御能力。