張凌寒 賈斯瑤
關鍵詞:生成式人工智能;標識制度;內(nèi)容治理;信息辨認;虛假信息
一、問題的提出:“是否AI 生成”的標識制度無法滿足內(nèi)容治理需求
生成式人工智能已經(jīng)顛覆人類獲取信息方式,并預期2026 年AIGC 將占據(jù)未來互聯(lián)網(wǎng)內(nèi)容的90%。①OpenAI公司推出的對話式人工智能ChatGPT展現(xiàn)出了卓越的語言生成、信息創(chuàng)造能力,其生成的信息在外觀上具有可信賴度,用戶會越來越習慣、依賴和信任人工智能提供的回答。②基于此,對人工智能生成信息進行標識顯得尤為必要。
我國嘗試設立了深度合成內(nèi)容的標識制度?!痘ヂ?lián)網(wǎng)信息服務算法推薦管理規(guī)定》第九條要求,算法推薦服務者建立健全用于識別違法信息、不良信息的特征庫,未作顯著標識的算法生成合成信息的,應當作出顯著標識后方可繼續(xù)傳輸。①《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》提出了內(nèi)容標識管理要求,②《生成式人工智能服務管理暫行辦法》同樣強調(diào)了服務提供者有義務對生成內(nèi)容進行標識。③與此同時,這也是各國共同采取的生成式人工智能內(nèi)容治理方式。如美國白宮《人工智能行動令》第1條強調(diào),要求為人工智能制定新的安全標準,要求人工智能公司與聯(lián)邦政府分享安全測試結果,同時指示商務部為人工智能水印制定指南。其商務部將制定內(nèi)容認證和水印的指南,以明確標記AI 生成的內(nèi)容。④
然而,“是否AI生成”的標識思路遠遠無法應對生成式人工智能帶來的挑戰(zhàn):第一,人工智能生成內(nèi)容具有巨量性,生成速度快、生成內(nèi)容覆蓋領域廣泛,具有可迭代性與可擴展性,人工審核的速度及能力遠遠難以匹敵。第二,人工智能生成內(nèi)容外觀具有高度可信賴性,極易被認為是“知識權威”。人工智能生成內(nèi)容信息外觀仿真度高,人工智能信息的生成邏輯以模擬真實信息為終點,在信息表面的文字表述、語言結構等方面與真實信息無異。在美國乘客Roberto起訴哥倫比亞航空公司的案件中,代理律師Schwartz引用了ChatGPT生成的六個案例,當他向ChatGPT求證這些案例是否屬實時,機器人稱“千真萬確”,然而法官發(fā)現(xiàn)六個案例的判決結果、引用出處均為虛構。⑤不僅在事實信息上出現(xiàn)錯誤,甚至對知識類信息進行虛構。墨爾本西北部地區(qū)Hepburn Shire 議會的現(xiàn)任市長Brian Hood 曾揭發(fā)Securency印鈔公司的行賄行為,但ChatGPT卻稱他“參與向印尼和馬來西亞的官員行賄并被判入獄”⑥。
將人工智能生成內(nèi)容進行無差別貼標,意味著真實信息、虛構信息、虛假信息一并被貼上標簽,是一種形式標識,仍將內(nèi)容質(zhì)量的辨識義務留給了用戶。目前,世界各國普遍采用的加注“是否AI生成”的標識制度無法滿足人工智能時代的內(nèi)容治理需求,未能有效降低虛假信息的擴散風險。本文圍繞生成式人工智能內(nèi)容治理的目標展開研究,首先討論生成式人工智能對內(nèi)容分類治理邏輯帶來的挑戰(zhàn),并提出生成式人工智能服務提供者作為內(nèi)容的生產(chǎn)者與分發(fā)者應承擔信息質(zhì)量安全保障義務與信息披露義務,并基于此提出AIGC內(nèi)容的標識制度的優(yōu)化設計方案。
二、生成式人工智能對內(nèi)容分類治理邏輯帶來的嚴峻挑戰(zhàn)
人工智能生成虛假信息的風險之高在于突破了現(xiàn)行內(nèi)容治理邏輯。用戶生成內(nèi)容時代形成的治理邏輯是價值判斷與真?zhèn)闻袛嗟亩至?,這一階段機器生成的內(nèi)容雖有但少,由人工審核足以完成。人工智能生成內(nèi)容的席卷性出現(xiàn),使得治理重點向生成來源傾斜,導致生成內(nèi)容質(zhì)量完全交由用戶判斷,進而衍生各類問題與風險。就此,應盡快修正并建立信息生成來源與真?zhèn)闻袛嗖⑿械碾p軌制。
(一)治理現(xiàn)狀:價值判斷與真?zhèn)闻袛嗟亩至鳈C制
在用戶生成內(nèi)容為主的時代,根據(jù)生成來源將內(nèi)容分流為機器生成與用戶生成。由于這一階段人工智能生成內(nèi)容在數(shù)量上占比較低,通常將人工智能生成內(nèi)容的真?zhèn)闻袛嗄J為偽,由人工審核對其進行價值判斷。用戶生成內(nèi)容則在“價值判斷+真?zhèn)闻袛唷钡亩诸悪C制中完成篩選。隨著人工智能生成內(nèi)容的信息比例日益提高,信息內(nèi)容分流壓力與日俱增,依據(jù)生成來源將機器生成信息交由人工審核的分類模式產(chǎn)生不適,而價值判斷、真?zhèn)闻袛嗟牟⑿羞壿嫙o法準確定性人工智能生成內(nèi)容,內(nèi)容分類參照存在紊亂與混淆。
在傳統(tǒng)媒體時代,按照信息來源分為專業(yè)生成內(nèi)容(Professional Generated Content,簡稱PGC)和用戶生成內(nèi)容(User Generated Content,簡稱UGC)。這一階段的專業(yè)生成內(nèi)容,指由專業(yè)的創(chuàng)作者或團隊進行創(chuàng)作、編輯、發(fā)布的專業(yè)生成內(nèi)容,常見于報紙、雜志、電視等,創(chuàng)作內(nèi)容的質(zhì)量與專業(yè)度較高,信息篩選、審核工作主要通過創(chuàng)作者所在機構的審校流程完成。隨著web2.0時代社交網(wǎng)絡、在線論壇、博客等平臺的出現(xiàn),由普通用戶參與創(chuàng)作、編輯、發(fā)布的用戶生成內(nèi)容逐漸流行,構筑了用戶生成內(nèi)容為主的信息時代。用戶創(chuàng)作具有主觀性,其內(nèi)容質(zhì)量有賴于價值判斷與真?zhèn)闻袛嗟亩至?。用戶生成?nèi)容時代,已經(jīng)出現(xiàn)了人工智能生成內(nèi)容(Artificial Intelligence Generated Content,簡稱AIGC),指利用人工智能技術和自然語言處理技術進行內(nèi)容生成,創(chuàng)作速度快,質(zhì)量依賴算法精度與模型訓練。但此時人工智能的能力與交互性尚弱,不足以成為生產(chǎn)信息內(nèi)容的主力軍。
在信息內(nèi)容價值判斷的分類邏輯中,按信息內(nèi)容的合法性可將其分為合法信息、不良信息和違法信息?!毒W(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》對違法信息、不良信息進行了分別定義,“禁止”違法信息的傳播、“防范抵制”不良信息的傳播表明了在程度上的區(qū)分。①在《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》中,為加強信息安全管理,對違法信息與不良信息進行了區(qū)分。算法推薦服務提供者發(fā)現(xiàn)違法信息的,應當立即停止傳輸,采取消除等處置措施,防止信息擴散,保存有關記錄,并向網(wǎng)信部門和有關部門報告。發(fā)現(xiàn)不良信息的,應當按照網(wǎng)絡信息內(nèi)容生態(tài)治理有關規(guī)定予以處置。②在《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》中,針對深度合成服務提供者,同樣要求建立健全用于識別違法和不良信息的特征庫,對違法信息與不良信息采取不同應對措施。③
在信息內(nèi)容真?zhèn)闻袛嗟姆诸愡壿嬛校凑招畔?nèi)容的真實性,可將其分為虛假信息和真實信息。《網(wǎng)絡安全法》中使用了“虛假信息”的概念,①《生成式人工智能服務管理辦法(征求意見稿)》中同樣采“虛假信息”②的表述,而2023年7月10日發(fā)布的《生成式人工智能服務管理暫行辦法》中使用的表述是“虛假有害信息”③。本文認為,“虛假有害信息”是復合概念,其中有害信息的危害程度應當高于虛假信息,對有害信息應參照違法信息進行處理,對虛假信息可比照不良信息進行處理。一方面,有害信息與違法信息的危害程度相同,且均高于不良信息。有害信息與違法信息所保護的法律權益均是國家安全、個人尊嚴名譽與隱私、經(jīng)濟秩序安全、信息安全等,在程度上有害信息的有害性程度應高于不良信息,有害信息是指在價值觀、倫理等方面具有嚴重錯誤的信息,這種信息的傳播危害性大,可能涉及國家、社會、個人權益;而不良信息更多指有害性程度相對較低的信息。④另一方面,虛假信息與不良信息在實務當中存在混用,相較于違法性而言更強調(diào)內(nèi)容的真假性。
(二)治理目標:生成來源與真?zhèn)闻袛嚯p軌并行機制
隨著生成式人工智能的廣泛應用,機器生成的信息比例越來越高,生成來源的單軌判斷標準僅具有形式上的判斷功效,不具備信息內(nèi)容治理的實質(zhì)作用。人工智能生成內(nèi)容的治理難點在于虛假信息(false)與虛構信息(fiction)的混淆,僅從信息外觀上無法判定其性質(zhì),精細的人工篩查又難以追趕機器生成信息的速度。在語言模型技術上的優(yōu)化也收效甚微,OpenAI等開發(fā)方一直在通過“基于人類反饋的強化學習”(RLHF)等人工手段來完善過濾機制,但在不依賴外部信息源實時檢索的情況下,提高準確度并未顯著提升。
社會治理思路的慣性決定了目前仍是由政府管控、網(wǎng)站自治、用戶舉報三種管理形式相結合的模式。⑤在此模式中,用戶上傳信息后,由平臺機器進行自動化篩選,再經(jīng)由人工審核后得以發(fā)布?!捌脚_審核+用戶選擇”的雙層篩選邏輯作為內(nèi)置審核標準,可以將其理解為大型信息過濾篩選機制,平臺層面對生成信息的合法性進行初篩,將違法信息、不良信息通過關鍵詞識別實現(xiàn)禁止傳播、防范抵制傳播。而人工智能生成內(nèi)容時代,應當摒棄人工審核為主的治理思路。人工審核的速度及準確性難以追趕人工智能生成的效率,在生成式人工智能實時與用戶對話階段更難以介入。從內(nèi)容審核工作本身看,當前該工作的主要承擔者仍然是人而非機器,機器識別“計算機視覺技術”(computer vision)在技術和資金上尚不支持大規(guī)模全面運用在眾多審核場景中。⑥對于違反法律或平臺規(guī)則的內(nèi)容,審核員運用計算機工具進行大規(guī)模處理,例如運用文本屏蔽詞自動搜索工具搜索違禁詞(常見于文字評論區(qū)的審核),通過“皮膚過濾器”(skin filters)識別圖片和視頻中的大面積裸體來判定色情內(nèi)容(盡管不一定都準確),或者使用一些工具來匹配、標記和刪除侵權內(nèi)容。①人機結合的審核制度被普遍應用,在算法式新聞分發(fā)的新聞資訊類客戶端里,人工編輯主要承擔內(nèi)容審核職責。以“一點資訊”為例,通過事先建立的敏感詞庫和“差文過濾模型”,文章在進入內(nèi)容池之前將首先通過機器審核,機器審核后會優(yōu)先標注觸及敏感詞和質(zhì)量有問題的文章并通知人工編輯優(yōu)先審核。②目前決定用戶最終看到信息的仍是人工審核員,而在人工智能生成信息涌入前,人工審核、人機結合審核的壓力已達飽和。
隨著人工智能生成信息的廣泛應用,大量反檢測技術嘗試進行信息篩選工作。當前基于大型語言模型(large language models,LLMs)的文本檢測技術可分為兩類。一是將機器生成的文本檢測任務比擬為一個二分類問題,根據(jù)文本來源的預定義類別對候選文本進行分類。但該模型傾向于參與訓練的那些文本來源,并且不具備增量學習功能,如果想要使模型能夠識別未知來源的文本,就需要對模型整體重新訓練。另一種檢測技術不需要訓練單獨的分類器,使用目標模型計算的對數(shù)概率和來自另一個通用預訓練語言模型的文章隨機擾動,例如DetectGPT零鏡頭文本檢測,如果平均對數(shù)比高,則樣本可能來自源模型。③在實際應用中,人工智能生成的文本往往位于文本對數(shù)概率的負曲率上,導致識別準確率低。在人工智能生成信息的巨量性面前,反檢測技術猶如蚍蜉撼樹。
人工審核與技術手段均無法解決時,機器主動標識成為信息內(nèi)容治理的必要手段。歐洲議會通過對《人工智能法案》框架的調(diào)整明確“缺乏真實性”是生成式人工智能的首要風險。歐盟委員會在《人工智能法案》中要求人工智能服務提供者使用歐盟信任的CE標志,并向用戶提供內(nèi)容來源、目的、特征等信息。美國聯(lián)邦貿(mào)易委員會在《生成式人工智能服務內(nèi)容標識指南》中要求提供者使用生成式人工智能技術創(chuàng)建或編輯圖像、視頻、音頻或文本時,應當清楚地披露這一事實。我國信息安全標準化技術委員會發(fā)布《網(wǎng)絡安全標準實踐指南——生成式人工智能服務內(nèi)容標識方法》,規(guī)定了四類生成內(nèi)容的具體標識方法。各國雖都十分重視標識制度的作用,但當前的標識設計思路未能滿足營造更真實信息網(wǎng)絡生態(tài)環(huán)境的治理需求。標識需要同時具備來源與真?zhèn)蔚碾p軌判斷邏輯,甚至在人工智能生成內(nèi)容與日俱增、生成內(nèi)容質(zhì)量不斷完善的過程中,為降低用戶信息篩選成本,真?zhèn)闻袛嗟闹匾詫⑦h遠超過價值判斷。
三、人工智能生成內(nèi)容標識制度的法理基礎與邏輯修正
個體的認知能力在人工智能生成內(nèi)容的巨量性、可信賴性、強引導性面前顯得尤為單薄。占據(jù)信息優(yōu)勢地位的人工智能服務提供者應主動進行信息披露,使用戶能夠借助外在的標識進行信息接收與篩選。標識制度的另一層考量是修正用戶對于人工智能生成內(nèi)容的依賴與信任,矯正算法引發(fā)的認知擠壓、心理沖擊等問題。
(一)法理基礎:作為內(nèi)容生產(chǎn)者與分發(fā)者的質(zhì)量安全保障與信息披露義務
信息披露制度體現(xiàn)了公權對私權的限制。公權對在實質(zhì)處于強勢的私權進行限制能較充分地實現(xiàn)實質(zhì)公平?,F(xiàn)代社會之所以從工業(yè)社會向信息社會轉(zhuǎn)型,并不是因為生產(chǎn)已經(jīng)不重要了,而是因為生產(chǎn)決策與交易決策的作出更有賴于充分、有效的信息。①在人工智能時代,信息是一切機器決策和生成內(nèi)容的基礎,亦是機器對人產(chǎn)生影響的主要方式。由于人工智能所占有的信息是巨量的,人類單靠自身智能難以擁有充分的、對稱分布的認知,因此需要借助占據(jù)信息優(yōu)勢地位的人工智能進行信息披露,使人類能夠借助外在的標識進行信息接收與篩選。
信息披露是體現(xiàn)信息性的關鍵。信息的信息性是通過“商”的增加或減少的量進行衡量。而信息的“商”是否增減并不是客觀、外部的測量,應歸根于人類認知與交流結構之中,有意義的、真實的、能夠為人類決策提供價值的信息,才是有效的信息形式。生成式人工智能的標識制度不僅限于信息披露和信息透明度,在用戶獲得知情權的同時也能對內(nèi)容生成主體的生成行為產(chǎn)生倒逼效果。這一點與其他知情權立法邏輯相同。以《食品安全法》中的食品營養(yǎng)標簽制度為例,在信息披露的情形下,經(jīng)由市場的壓力傳導,生產(chǎn)者會主動減少高脂、高糖、高鹽食品的生產(chǎn),最終促進更多健康食品的生成。②
此外,與一般情形下知情權立法邏輯的差異在于,人工智能生成領域的標識制度并不以增強產(chǎn)品的吸引力、易理解性、可信賴度為目的,相反要遏制產(chǎn)品(即生成內(nèi)容)的強引導性與可信賴性。因此,在具體制度設計中,應當反向?qū)π枰鹁璧牡唾|(zhì)量內(nèi)容重點標識,不能對全部生成內(nèi)容進行無差別標識。適當?shù)男畔⑴吨贫饶軌蛟鰪娦畔⒌囊鬃⒁庑?,提升信息使用的便利性,而過度的信息披露反而會造成信息接受的負擔。全部“貼標”在引起注意義務的效果上可以視為全部未經(jīng)標識。生成式人工智能的標識需根據(jù)內(nèi)容質(zhì)量進行分級分類標識,保證內(nèi)容質(zhì)量合格的人工智能生成內(nèi)容可以不進行顯性標識、不影響用戶正常使用。
(二)邏輯修正:標識制度對于人工智能算法風險的矯正功效
“人機交互”構筑了智能性與封閉性正相關的信息環(huán)境,情景化、對話式的交互方式卸下用戶交流中的防備心理,算法的偏好分析使人工智能對不同用戶生成量身定制的回答,與固有認知的高度契合致使用戶自動省略了對信息的篩選辨認,導致用戶極易對人工智能生成信息產(chǎn)生信賴與推崇。根據(jù)麥克盧漢的媒介理論,“媒介”泛指與人有關的一切技術,人造物與技術物的核心是它隱含的訊息,可以理解為一種物質(zhì)意義,包括技術創(chuàng)造出來的環(huán)境、技術帶來的感知形態(tài)和感知模式的變化、技術對人的心理和社會的沖擊。①生成式人工智能突破性的意義在于它的信息生產(chǎn)功能,能夠有計劃、有目的地輸出訊息,作為媒介重塑、調(diào)整人們的感知模式與認知模式,改變信息傳播及接收方式,進而引發(fā)心理后果及社會后果。當人工智能生成信息源源不斷產(chǎn)生時,在短時間內(nèi)人們的感知系統(tǒng)、認知系統(tǒng)、社會環(huán)境將出現(xiàn)“擁擠感”,面對生成式人工智能的高效輸出,人幾乎不具備與之抗衡的篩選能力。人工智能生成內(nèi)容通過對現(xiàn)有知識的排列組合,增加了信息的“商”,但并未產(chǎn)生新的知識,沒有高質(zhì)量信息的產(chǎn)生。人類社會對于信息的需求度、接收度是有限的,而人工智能生成信息的“真假待定”性質(zhì)決定了其無法直接增益于信息社會。相反,人工智能生成信息的便利性替代了人類主動輸出信息的繁復過程,人工智能生成信息的快速性壓縮了人類信息迭代演化的周期性,使得人們的認知忙于“急躁”的辨認和篩選之中。人工智能生成信息的能力越強,“真假待定”的生成信息對人類辨識能力、認知能力的擠壓度就越高。
在心理學上,遺傳性人工智能模型對人類信仰的扭曲不容易被糾正。②人通過對世界上一小部分可用數(shù)據(jù)的抽樣,形成了自己的觀念,一旦這些觀念具有高度確定性、頑固性,就難以再被修改。生成式人工智能以“用戶輸入+機器輸出”的形式提供服務,生成內(nèi)容的性質(zhì)、價值取向在很大程度上取決于用戶輸入指令。③2023年5月25日,新西蘭信息專員辦公室(Office of the Privacy Commissioner)在發(fā)布的《生成式人工智能指南》中提到:“生成式人工智能工具生成的信息經(jīng)常出現(xiàn)事實或邏輯錯誤,但它又對其生成的信息非常自信,這可能進一步導致偏見和歧視永久存在。”生成式人工智能存在模型幻覺風險,在不具有惡意外力驅(qū)使的情況下仍可能會產(chǎn)生虛假信息。例如在Schwartz 律師代理的案件中ChatGPT引用虛假判決、④又如在提供文獻資料時虛構詳細的文獻作者及出處、再如在Eugene Volokh要求其列出法學教授犯罪新聞時編造詳細的犯罪事實。⑤從技術上看,模型幻覺產(chǎn)生的三大來源分別是數(shù)據(jù)缺陷、⑥訓練過程中的架構缺陷、⑦曝露偏差、⑧對齊錯誤,⑨推理階段的抽樣隨機性。⑩固然,人也會傳播錯誤信息或有偏見的信息,但人與人的交流中往往使用“我認為”“我想”這樣的短語,或通過反應延遲、表達不流暢等方式提示不確定性。人工智能模型則不存在表達緩沖區(qū),不僅不會引起信息接收者的遲疑,甚至受到了推崇,即人工智能自信、流暢的表達還會增加其可信賴度。
蘭登·溫納在《自主性技術》中寫道:我們創(chuàng)造的機器剝奪了我們的空間感和觸摸感,它混淆了所有人際關系,使愛狹隘化,變成了一種肉體行為,它麻痹了我們的身體和意志,而且現(xiàn)在它強迫我們崇拜它。人工智能被視為知識淵博、思維敏捷的象征,其提供的信息更容易獲得采納。如果人們基于某種不確定性產(chǎn)生獲取信息的需求,從而與生成式人工智能建立對話,一旦在對話過程中獲得了“答案”,人們的不確定性就會下降。一旦一個錯誤的觀念在人的大腦中固定,特別是相同的錯誤觀念在群體內(nèi)獲得傳播,它就會在這一群體中永久性地傳遞下去。①生成式人工智能每天產(chǎn)生數(shù)百萬的輸出,這種輸出反過來又成為下一代模型訓練數(shù)據(jù)的一部分,在一個連續(xù)的反饋循環(huán)中把算法扭曲和偏見的影響擴大到了未來。
(三)制度優(yōu)勢:推動現(xiàn)實空間與網(wǎng)絡空間信息治理邏輯的統(tǒng)一
人通過獲得、識別自然界和社會的不同信息來區(qū)別不同事物,得以認識和改造世界。無論是在現(xiàn)實社會或是網(wǎng)絡空間中,以人為本都是信息內(nèi)容生產(chǎn)、使用和傳播的最終目的?!皹俗R”根植于人們的辨認習慣,符合以人為本的信息使用目的,是推動現(xiàn)實社會與網(wǎng)絡空間治理邏輯統(tǒng)一的紐帶。在現(xiàn)實社會中,《食品安全法》第67條規(guī)定預包裝食品的包裝上應當有“檢驗合規(guī)”的標簽,《危險化學品安全管理條例》 第13條規(guī)定生產(chǎn)、儲存危險化學品的單位,應當對其鋪設的危險化學品管道設置明顯標志。安全標志能夠提醒人們對某種物品或動作高度警惕,強化管理、維護、運輸流程,從而避免危險的發(fā)生。信息網(wǎng)絡社會中,“tag”養(yǎng)成了用戶分類、標簽、檢索習慣,通過標識的方式引起信息受眾的警惕在網(wǎng)絡服務提供中也屢見不鮮。《電子商務法》第40條規(guī)定的競價排名業(yè)務的廣告標注義務,平臺經(jīng)營者干預算法的客觀搜索排序,屬于平臺經(jīng)營者自主決定用戶搜索結果的排序,被干預后的搜索結果應顯著標明“廣告”。②互聯(lián)網(wǎng)用戶多對標識的提示作用并不陌生,在短視頻平臺、社交媒體平臺中時常會出現(xiàn)帶有“廣告”標識的內(nèi)容,“廣告”二字本身尚不會影響用戶對內(nèi)容的瀏覽,但用戶潛意識中會更加警惕。在未來,現(xiàn)實空間與網(wǎng)絡空間不斷融合的過程中,帶有標識的信息可實現(xiàn)在雙重空間內(nèi)無差別流通,甚至標識可能如同標點符號一樣成為信息內(nèi)容不可或缺的一部分。
四、人工智能生成內(nèi)容標識制度的完善與優(yōu)化
信息披露是現(xiàn)代社會信息公開的重要途徑與手段,標識制度是信息披露義務在人工智能領域的體現(xiàn)。標識制度的優(yōu)化設計應以健康的信息網(wǎng)絡生態(tài)環(huán)境為導向,明確以生成式人工智能服務提供者為核心的主體責任,設置多維度的人工智能生成內(nèi)容質(zhì)量光譜標識。
(一)制度目標:以健康的信息網(wǎng)絡生態(tài)環(huán)境為導向
網(wǎng)絡內(nèi)容的治理遠不止于判斷“是否AI生成”。我國以總體國家安全觀統(tǒng)籌網(wǎng)絡意識形態(tài)安全,在《國家安全法》《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《互聯(lián)網(wǎng)信息服務管理辦法》等法律法規(guī)的框架下,內(nèi)容治理需求有:第一,堅持維護國家網(wǎng)絡空間主權與意識形態(tài)安全;第二,構建多主體協(xié)同治理、相互配合的信息內(nèi)容治理體系;第三,實現(xiàn)“網(wǎng)絡生態(tài)治理和管理”向“網(wǎng)絡生態(tài)建設和發(fā)展”的定位轉(zhuǎn)變,致力于營造真實、健康、可持續(xù)發(fā)展的信息網(wǎng)絡生態(tài)環(huán)境。
人工智能生成內(nèi)容標識制度的短期目的是搭建人工智能生成內(nèi)容進入人類認知的“緩沖帶”,通過對低質(zhì)量內(nèi)容的強制標識,避免人工智能生成內(nèi)容在經(jīng)價值判斷、真?zhèn)闻袛嗲盁o障礙流入信息社會,符合以用戶為核心的制度設計初衷。長期效果是提升AIGC時代的信息內(nèi)容治理能力,減少虛假信息的生成,防止虛假信息污染下一代訓練數(shù)據(jù),優(yōu)化人工智能內(nèi)容生成、篩選、審核機制,夯實模型方與服務提供者的信息披露義務,營造良好的網(wǎng)絡信息生態(tài)環(huán)境。在不影響用戶使用的情況下,還需保證標識的真實性和唯一性,以利于溯源追蹤深度合成信息流向,及時阻斷有害合成信息傳播;同時要求在合理位置、區(qū)域進行顯著標識,防止公眾混淆或誤認,提升公眾識別合成內(nèi)容的能力,降低造謠、詐騙等違法行為的風險。
(二)標識的主體:以生成式人工智能服務提供者為核心
生成式人工智能風險預防與響應機制需要多主體協(xié)作完成,應建立由政府主導、生成式人工智能服務提供者為核心、用戶協(xié)同參與的多元治理體系。以生成式人工智能服務提供者為核心,是因為生成式人工智能大模型作為一種全新的信息內(nèi)容生產(chǎn)和傳播平臺,雖然尚未展現(xiàn)出全貌,但其生成性、集成性、通用性、智能交互性的特征,正在使其成為信息生產(chǎn)和傳播的主要壟斷者①。全球范圍內(nèi)要求人工智能服務提供者履行標識義務已是大勢所趨。在歐盟《人工智能法案》最新草案中指出,鑒于人工智能系統(tǒng)價值鏈的性質(zhì)和復雜性,基礎模型開發(fā)者具有信息披露義務。美國白宮《人工智能行動令》第1條中強調(diào),要求為人工智能制定新的安全標準,要求人工智能公司與聯(lián)邦政府分享安全測試結果,同時指示商務部為人工智能水印制定指南;商務部將制定內(nèi)容認證和水印的指南,以明確標記AI生成的內(nèi)容;聯(lián)邦機構將使用這些工具,使美國民眾能夠更易知道他們從政府收到的通信是真實的,并為私營部門和世界各地的政府樹立榜樣。②
生成式人工智能服務提供者又可依據(jù)不同市場角色分為基礎大模型開發(fā)者、垂直行業(yè)模型開發(fā)者與生成內(nèi)容服務提供者。為避免信息披露義務的形式化履行,披露義務應具體包括:生成來源的強制性標識、責任主體的強制性標識、生成內(nèi)容質(zhì)量應屬于強制性披露范圍。第一,位于上游環(huán)節(jié)的基礎大模型開發(fā)者具有標識義務,應主動對生成內(nèi)容進行標識并為下游的服務提供者提供必要的技術支持?!澳P图捶铡睍r代,上游開發(fā)者對生成式人工智能模型的熟悉度與掌握度最高,有能力對關鍵開發(fā)步驟信息、部署環(huán)境配置說明、模型性能、擴展和調(diào)整性能指導、故障排除、更新維護以及特定應用環(huán)境下的風險警示等內(nèi)容加以披露和說明,為中下游部署者構建適配的風險管理機制加以必要的信息支持。第二,生成式人工智能服務提供者直面用戶,其對提供服務的形式享有決定權。《深度合成管理規(guī)定》中規(guī)定了披露義務的承擔主體是深度合成服務提供者,生成內(nèi)容使用者不需要主動承擔披露義務,但具有不破壞已有標識的義務。當前生成式人工智能的模型開發(fā)方與服務提供者通常是一個主體,密不可分。從信息標識義務的執(zhí)行上看,隱式水印技術一般在模型生成內(nèi)容時實現(xiàn),天然應該是模型方承擔。而顯性標識可以通過內(nèi)容后處理、用戶界面添加等方式實現(xiàn),天然與服務提供形式聯(lián)系。第三,用戶具有不破壞已有標識的義務。模型開發(fā)方與服務提供方已經(jīng)在技術上設置了普通用戶難以篡改和刪除的水印,用戶使用生成內(nèi)容的同時需履行保持水印的義務以便實現(xiàn)對生成內(nèi)容的全平臺檢測追蹤和責任認定。
(三)標識的內(nèi)容:以設置多維度的內(nèi)容質(zhì)量光譜為路徑
全國信息安全標準化技術委員會在《網(wǎng)絡安全標準實踐指南——生成式人工智能服務內(nèi)容標識方法》中給出了內(nèi)容標識方法,或通過在交互界面中添加半透明文字的方式顯示水印標識,或通過人類無法直接感知、但可通過技術手段從內(nèi)容中提取的隱式水印標識,提示內(nèi)容是由人工智能生成的。①顯式水印能夠被直觀察覺,使信息接收者在獲取信息的同時收到警惕提醒,抑制人工智能生成信息對人類辨識能力的擠壓作用。隱式水印通常采用獨創(chuàng)算法,在原文件的基礎上嵌入隱形數(shù)字編碼水印,信息接收者在視覺感知上無法察覺,但在技術層面可用于信息的追根溯源??梢姡珹IGC的標識制度仍停留于信息內(nèi)容來源的表面,缺乏對于來源可靠性的體現(xiàn)。常見結構包含內(nèi)容標簽(Content Labels)、可視化水?。╒isible Watermarks)、署名和披露字段(Bylines and Disclosure Fields)、版權聲明(Acknowledgments)、技術水印和加密簽名(Technical Watermarking and Cryptographic Signatures)五部分。其中,可視化水印、署名和披露字段是用戶能夠看到的標識成分,作用在于表明生成內(nèi)容中含有人工智能的參與,解釋人工智能在共同開發(fā)內(nèi)容中的作用,顯然該標識方式向用戶進行的披露不足以支撐用戶實現(xiàn)真?zhèn)闻袛唷俗R的本質(zhì)是提示內(nèi)容生成來源,在接收內(nèi)容的短時間內(nèi)來源正是判斷真?zhèn)蔚暮诵模欢祟惔竽X分辨信息的習慣決定了來源可靠性必須是個多維度的綜合分析。例如信息來源是否具有權威性,由專家、研究人員證明的可信賴度應顯著提高;信息來源的前后文語境是否具有邏輯性與連貫性,通順的、邏輯周密的表達更容易獲得認可;人工智能對信息來源進行了何種程度的修改,直接引用的內(nèi)容質(zhì)量通常高于斷章取義或多來源組合拼湊。
然而,來源的全部披露顯然是不可取的,對透明度的一味追求與標識在形式上精簡、直觀的要求相悖,會影響用戶對生成內(nèi)容的使用。因此,人工智能服務提供者應將來源的可靠性判斷內(nèi)置于“貼標”的流程中而非“標”本身之中,生成內(nèi)容質(zhì)量光譜的作用是連接來源可靠性與標識程度的樞紐。人工智能服務提供者應將來源可靠性的判斷內(nèi)置于“貼標”的流程而非“標”本身之中,生成內(nèi)容質(zhì)量光譜則發(fā)揮評估是否需要進行標識、應當進行何種標識的作用。生成內(nèi)容的質(zhì)量與生成來源可靠性呈正相關,而標識制度存在的必要性與生成內(nèi)容的質(zhì)量呈負相關。換言之,如果生成來源絕對可靠,應當默認生成內(nèi)容符合質(zhì)量要求,沒有必要額外進行標識以強調(diào)該內(nèi)容是由機器生成的。
生成內(nèi)容質(zhì)量光譜是為提示人工智能服務提供者如何進行標識而設置的,可以理解為一種指引。在標識制度由“是否機器生成”的形式標識向“判斷內(nèi)容真?zhèn)巍钡馁|(zhì)量標識轉(zhuǎn)變時,人工智能服務提供者應當對生成內(nèi)容原則上采取無標識或簡略標識的做法。而對社會危害性高的生成內(nèi)容,依照光譜進行分級分類標識?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第1條明確要求維護國家安全和公共利益,保護公民、法人和其他組織的合法權益,因此必須在標識中予以體現(xiàn)。第一,根據(jù)我國網(wǎng)絡安全的要求,對過濾內(nèi)容的判斷應在算法倫理原則和相關算法、網(wǎng)絡安全規(guī)范的框架下作分段處理,將明確損害國家、社會安全利益的信息內(nèi)容列為“最高敏感級”,對損害國家、社會安全利益存在模糊性的信息內(nèi)容以及損害個體的信息內(nèi)容列為“一般敏感級”。①對危害國家安全、損害社會公共利益的低質(zhì)量生成內(nèi)容應進行強制標識,此類內(nèi)容在真?zhèn)涡耘c價值性雙軌判斷中均處于下象限,若未在預訓練階段進行剔除,要求強制進行顯著標識以提示用戶。第二,應依托不同應用服務場景對教育、公共衛(wèi)生、新聞等關鍵領域進行特殊標識,此類信息內(nèi)容的受眾廣泛、傳播速度極快,甚至可能引起代表官方立場的歧義,一旦生成內(nèi)容中含有虛假有害信息,事后修正效果甚微。第三,當生成內(nèi)容涉及商用或侵犯個人權益時,經(jīng)申請、舉報等程序進入人工審核,審核后則可根據(jù)應用人本人或被侵權人申請,按照特定程序,從應用端到部署端再到建模端,依次進行注明公開。
結語
智能時代又被稱之為后信息時代,智能技術的發(fā)展將重塑信息生產(chǎn)途徑、溝通交流方式與知識表達結構,革新信息社會的內(nèi)容治理邏輯迫在眉睫。標識制度是個體辨別生成內(nèi)容與信息社會優(yōu)化內(nèi)容質(zhì)量的共同需求,生成來源與真?zhèn)闻袛嗟碾p軌制治理邏輯能夠應對現(xiàn)階段的生成式人工智能,在未來高度智能化的通用人工智能場景下,生成來源判斷的必要性將持續(xù)降低,而真?zhèn)伪鎰e會成為內(nèi)容治理的唯一軸心。