国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能風(fēng)險治理元規(guī)則研究

2023-07-25 09:42商建剛
東方法學(xué) 2023年3期
關(guān)鍵詞:人工智能算法

商建剛

關(guān)鍵詞:ChatGPT 生成式人工智能數(shù)據(jù)風(fēng)險元規(guī)則算法大型語言模型

一、引言

生成式人工智能(AIG),也稱生成合成類人工智能,本文采用生成式人工智能的提法。作為一種生成式人工智能,ChatGPT的技術(shù)原理可用“預(yù)訓(xùn)練+微調(diào)”進(jìn)行簡單概括。支持ChatGPT運(yùn)行的是算法與數(shù)據(jù),兩者的不斷優(yōu)化,提升了ChatGPT利用數(shù)據(jù)的能力及輸出內(nèi)容的質(zhì)量,算法與數(shù)據(jù)的疊加效應(yīng)使ChatGPT的智能級別不斷提高。隨著GPT-4的發(fā)布,ChatGPT除輸入輸出文本外,還包括圖像識別、前端設(shè)計等功能。有學(xué)者認(rèn)為,GPT-4可能具備改造人類思想和創(chuàng)造的能力,形成人工智能超越專業(yè)化和大眾化趨勢,可能在某些方面替代人類。對ChatGPT這一新興事物,互聯(lián)網(wǎng)之父Berners-Lee稱,今后每個人都將有類似ChatGPT的個人助理。比爾·蓋茨評價,ChatGPT的出現(xiàn)不亞于互聯(lián)網(wǎng)和個人電腦的誕生??梢哉f,ChatGPT的出現(xiàn)具有劃時代的意義,其進(jìn)一步解放了人類創(chuàng)造力。

關(guān)于生成式人工智能的法律定位尚存爭議。王遷教授認(rèn)為,ChatGPT是“智能搜索引擎+智能文本分析+洗稿器”,智能搜索策略功能可以根據(jù)關(guān)鍵詞找到最相關(guān)的信息;智能文本分析功能支持列舉相同和不同點(diǎn)并進(jìn)行智能組合;智能洗稿功能實現(xiàn)同義詞替換。鄭戈教授則認(rèn)為,GPT-4的出現(xiàn)賦予其更多能力,這種定位具有局限性。根據(jù)2023年1月10日施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,利用深度學(xué)習(xí)、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)統(tǒng)稱為“深度合成技術(shù)”。2023年4月11日,我國網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)采用了近似的定義,將生成式人工智能定義為“基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。故此,本文認(rèn)為以ChatGPT為代表、具有上述生成合成類功能的生成式人工智能,當(dāng)屬于深度合成技術(shù)規(guī)制范圍。

新技術(shù)可能帶來從未有過的新問題, 也可能并未產(chǎn)生新問題而僅是凸顯了原本存在的問題,應(yīng)首先厘清哪些問題是值得研究的“真問題”。有些問題,例如“微調(diào)”環(huán)節(jié)致使部分工作人員產(chǎn)生心理疾病等,還停留在純粹的道德問題層面,并不能作為數(shù)據(jù)法學(xué)研究的客體;而有些問題,例如ChatGPT復(fù)刻人類的偏見和歧視等,則暴露了相應(yīng)的數(shù)據(jù)風(fēng)險。生成式人工智能突破了虛實邊界,帶來的風(fēng)險級別更高、風(fēng)險范圍更為廣泛,其在數(shù)據(jù)收集、加工、生成等方面引發(fā)的一系列風(fēng)險值得關(guān)注。對此,2023年3月29日,著名安全機(jī)構(gòu)生命未來研究所發(fā)布公開信,呼吁暫停開發(fā)比GPT-4還要強(qiáng)大的AI系統(tǒng),并提倡在6個月的暫停期間內(nèi)出臺相應(yīng)治理制度,這份公開信已經(jīng)獲得了包括馬斯克、蘋果聯(lián)合創(chuàng)始人等在內(nèi)一千余名科技領(lǐng)袖和研究人員的簽名,且人數(shù)還在持續(xù)增長,進(jìn)一步體現(xiàn)了生成式人工智能治理的迫切性。

在這種需要應(yīng)急治理的情形下,既往治理措施卻難以為繼。我國行政法、民法、刑法能在某種程度上對生成式人工智能進(jìn)行分散治理,但尚未形成周延的法律體系,表現(xiàn)為對底層技術(shù)治理不足、對技術(shù)提供者監(jiān)管不充分,數(shù)據(jù)與場景分類分級標(biāo)準(zhǔn)繁雜且未形成有機(jī)體系,相應(yīng)的規(guī)則需要作出調(diào)整。同時,在生成式人工智能的現(xiàn)有理論研究中,人工智能的法律主體地位、人工智能生成物的法律地位和“換臉”是核心場景,但研究場景分散。在治理原則方面,以生成式人工智能的上位概念人工智能為主體的研究居多,尚未有學(xué)者針對生成式人工智能進(jìn)行理論統(tǒng)合的研究??傮w上看,生成式人工智能對現(xiàn)有數(shù)據(jù)、算法、算力分而治之的不成體系的治理范式提出了嚴(yán)峻挑戰(zhàn),與網(wǎng)絡(luò)安全、數(shù)據(jù)安全、個人信息保護(hù)、數(shù)據(jù)跨境流動等現(xiàn)有制度存在不適恰性,生成式人工智能的治理范式、現(xiàn)有制度和理論均存在缺失,亟需理論補(bǔ)強(qiáng),以促進(jìn)制度完善。

構(gòu)建生成式人工智能風(fēng)險治理體系,應(yīng)首先提出生成式人工智能風(fēng)險治理的元規(guī)則。所謂元規(guī)則,是指最基本、最具全局影響的規(guī)則。在本文中,元規(guī)則是生成式人工智能風(fēng)險治理中的首要、起始和關(guān)鍵的規(guī)則,被廣泛認(rèn)同和明確定義,可成為生成式人工智能風(fēng)險治理的基本準(zhǔn)則,以至于滲入法律和政治制度層面。簡言之,元規(guī)則是決定規(guī)則的規(guī)則。構(gòu)建元規(guī)則的目的在于對目前分散的治理體系和研究進(jìn)行統(tǒng)合,以形成生成式人工智能的治理框架。元規(guī)則是生成式人工智能風(fēng)險治理規(guī)則譜系中最為基礎(chǔ)的部分,它源于理性、實踐與社會核心價值,反映技術(shù)風(fēng)險治理的客觀規(guī)律、價值選擇和內(nèi)在邏輯,構(gòu)成技術(shù)風(fēng)險治理體系的神經(jīng)中樞。生成式人工智能風(fēng)險治理的現(xiàn)有法律制度和理論研究不能為此提供充分鏡鑒,但目前存在相當(dāng)多的人工智能治理原則,從該視角切入,通過梳理不同國家、地區(qū)、組織、企業(yè)所構(gòu)建的人工智能治理原則,提煉其共性,有針對性地提出生成式人工智能風(fēng)險治理元規(guī)則是可行進(jìn)路。

二、構(gòu)建生成式人工智能風(fēng)險治理元規(guī)則的必要性

生成式人工智能在國家、社會、私權(quán)利三個層面產(chǎn)生的風(fēng)險,具有損害方式隱蔽、損害結(jié)果嚴(yán)重兩大特點(diǎn)。該類型技術(shù)應(yīng)用便捷、場景豐富,生成內(nèi)容具有價值取向和誘導(dǎo)性,通過簡單的人工提示和算法運(yùn)行即可產(chǎn)生高風(fēng)險系數(shù)的輸出,實質(zhì)上起到風(fēng)險放大作用。然而,生成式人工智能的責(zé)任承擔(dān)機(jī)制不明確,相關(guān)法律制度分而治之,不成體系,理論研究呈現(xiàn)缺失,需要在實踐、制度、理論層面形成統(tǒng)一的元規(guī)則,為生成式人工智能的治理提供底層邏輯。

(一)損害方式具有隱蔽性

數(shù)據(jù)與算法是生成式人工智能的核心,但其數(shù)據(jù)固有瑕疵、數(shù)據(jù)處理瑕疵、數(shù)據(jù)標(biāo)注瑕疵,以及算法設(shè)計理念瑕疵、算法模型設(shè)計瑕疵、算法安全保障瑕疵等問題會傳導(dǎo)并生成負(fù)結(jié)果,以人類無法感知的方式造成損害。

在國家層面,以ChatGPT為代表的生成式人工智能基于西方價值觀和思維導(dǎo)向建立,其回答也通常迎合西方立場和喜好,可能導(dǎo)致意識形態(tài)滲透。相較于其他人工智能,ChatGPT能根據(jù)用戶的意愿修正回答,有針對性、選擇性地輸出結(jié)果。并且,在ChatGPT的學(xué)習(xí)語料庫中,中文資料比重過低,根據(jù)GPT-3數(shù)據(jù)倉的語言比例,中文資料僅占0.16012%,而英文資料占比達(dá)92.09864%,不利于真實中文信息的分析。同一問題用不同語言提問,其措辭的激烈程度會明顯不同??梢哉f,ChatGPT具備明顯的偏見,并會潛移默化影響用戶,動搖國民意識形態(tài),形成新的國家安全風(fēng)險。

在社會層面, 類ChatGPT生成式人工智能的輸出內(nèi)容可能會以人類無法察覺的方式對人類進(jìn)行道德操控,從而影響社會整體倫理道德風(fēng)尚。通過對ChatGPT的道德影響能力進(jìn)行社會實驗,〔由研究人員向志愿者提出具體問題,證明ChatGPT缺乏穩(wěn)定的道德標(biāo)準(zhǔn),其道德建議會對人類產(chǎn)生影響,且人類往往會因為“過于自信”而低估了這種影響。換言之,不具備穩(wěn)定道德標(biāo)準(zhǔn)的ChatGPT,以人類難以察覺的方式對人類道德標(biāo)準(zhǔn)產(chǎn)生的影響超過人類預(yù)期。

在私權(quán)利層面, 生成式人工智能的訓(xùn)練數(shù)據(jù)多源自數(shù)據(jù)爬取, 而數(shù)據(jù)爬取行為具有隱蔽性。ChatGPT的訓(xùn)練數(shù)據(jù)似乎并未獲得個人授權(quán),不僅因未列明要收集的信息而違反知情同意原則,也因收集與個人使用ChatGPT無關(guān)的數(shù)據(jù)而違反最小必要原則, 更加違反我國司法實踐中的三重授權(quán)原則。值得說明的是,雖然三重授權(quán)原則受到學(xué)界一致批評,但司法判決是現(xiàn)有個人信息保護(hù)法律制度下“行動的法”,是現(xiàn)有規(guī)則不完善所導(dǎo)致的結(jié)果。除通過數(shù)據(jù)爬取獲取訓(xùn)練數(shù)據(jù)外,ChatGPT的對話數(shù)據(jù)也會被收集并用來“喂養(yǎng)”該模型,員工向類似語言模型中輸入商業(yè)秘密等敏感信息,可能在企業(yè)不可知的情況下侵犯企業(yè)權(quán)利。

(二)損害結(jié)果具有嚴(yán)重性

生成式人工智能及其結(jié)果通過網(wǎng)絡(luò)傳播,能直接或間接對國家、社會、私權(quán)利造成嚴(yán)重?fù)p害。類似深度偽造技術(shù),ChatGPT所生成內(nèi)容具有難以分辨的特征,其算法和數(shù)據(jù)瑕疵可能產(chǎn)生“胡編亂造的真話”,從而造成嚴(yán)重后果。

在國家層面,生成式人工智能可能直接或間接誘發(fā)暴力沖突,被用于煽動暴力與對立。西方政治活動中經(jīng)常使用互聯(lián)網(wǎng)引導(dǎo)輿論,包括美國前總統(tǒng)特朗普的競選,利用了諸如Twitter、Facebook、Telegram等平臺服務(wù)其政治目的,最終導(dǎo)致“國會山”事件。一些聊天機(jī)器人已被惡意編程,用于傳播虛假信息或?qū)嵤┓欠ㄐ袨椋?可見某些生成式人工智能可能被植入惡意程序或被政治和陰謀論所利用,引發(fā)暴力沖突。

在社會層面,生成式人工智能可能形成數(shù)據(jù)壟斷和基于數(shù)據(jù)的壟斷,最終形成信息壟斷,提高信息辨別成本。相較于傳統(tǒng)搜索引擎,ChatGPT可通過對數(shù)據(jù)庫或語料庫的學(xué)習(xí)獲得競爭優(yōu)勢,從而通過應(yīng)用來壟斷數(shù)據(jù),以此形成基于數(shù)據(jù)的壟斷。根據(jù)OpenAI《使用條款》第3(a)條聲明,OpenAI保留了自己對用戶交流與輸出內(nèi)容的使用權(quán),證明了其具有壟斷數(shù)據(jù)的意圖。一旦ChatGPT進(jìn)入“獲得用戶—獲得數(shù)據(jù)—提升模型—再獲得用戶”的正循環(huán),就可能形成數(shù)據(jù)壟斷和基于數(shù)據(jù)的壟斷,通過算法共謀、算法推薦等方式推動企業(yè)進(jìn)一步擴(kuò)大壟斷,甚至采取算法預(yù)警的方式扼殺其他生成式人工智能企業(yè)。一但形成信息壟斷,將導(dǎo)致人類無法真正辨別生成式人工智能所產(chǎn)生的結(jié)果是否真實,從而產(chǎn)生數(shù)字鴻溝。

在私權(quán)利層面,生成式人工智能的強(qiáng)大性能和簡單的操作邏輯,可進(jìn)一步降低犯罪門檻,提高犯罪治理難度。當(dāng)ChatGPT與Codex,一起使用時,可能生成被注入惡意代碼的釣魚郵件。研究人員已構(gòu)建了始于釣魚郵件、終于包含惡意應(yīng)用程序語言(VBA)代碼Excel文檔的完整惡意軟件傳播鏈,這意味著可以將惡意軟件編譯成可執(zhí)行文件并在終端運(yùn)行。ChatGPT可以間接地侵犯個人權(quán)利,而利用ChatGPT進(jìn)行編程直接攻擊網(wǎng)絡(luò)所帶來的風(fēng)險更高。一些黑客已開始使用ChatGPT開發(fā)惡意工具,如用于盜取信息和建立暗網(wǎng)市場。盡管使用ChatGPT應(yīng)用開發(fā)惡意軟件仍需一些技術(shù)手段,但隨著這些應(yīng)用的不斷迭代與學(xué)習(xí),未來可能會為犯罪分子提供更便利的犯罪手段。可以說,ChatGPT通過簡單便捷的交互方式和強(qiáng)大的生成能力,對潛在犯罪分子的惡意起到放大作用,甚至某種程度上促生了犯罪行為。

(三)責(zé)任承擔(dān)機(jī)制不明

生成式人工智能在國家、社會、私權(quán)利層面都可造成損害,然而其損害過程和結(jié)果隱蔽,責(zé)任承擔(dān)可能橫跨國家、地區(qū)、部門、私權(quán)利主體等多層次,如何承擔(dān)責(zé)任難以界定。生成式人工智能仍然是數(shù)據(jù)驅(qū)動型產(chǎn)品,OpenAI的相關(guān)協(xié)議是生成式人工智能治理范式的良好鏡鑒。應(yīng)當(dāng)基于數(shù)據(jù)生命周期,對OpenAI公司的相關(guān)協(xié)議進(jìn)行責(zé)任分析,但其相關(guān)協(xié)議表現(xiàn)出責(zé)任承擔(dān)機(jī)制不明的情況。

首先,生成式人工智能過度收集個人信息,但未明確數(shù)據(jù)挖掘原則。OpenAI可能對其所收集的用戶信息進(jìn)行挖掘,了解用戶喜好甚至突破匿名,從而侵犯用戶權(quán)利,但未明確數(shù)據(jù)利用規(guī)則。如在消費(fèi)領(lǐng)域,可能實現(xiàn)對部分用戶的惡意欺詐或誤導(dǎo)性宣傳,導(dǎo)致用戶的知情權(quán)、公平交易權(quán)等權(quán)利受損;在信息傳播領(lǐng)域,可能引發(fā)“信息繭房”效應(yīng),拉大不同群體的認(rèn)知鴻溝,侵犯用戶自由選擇權(quán)。事實上,數(shù)據(jù)實際控制者和數(shù)據(jù)挖掘者并不滿足于簡單調(diào)取數(shù)據(jù)原始主體資源披露的數(shù)據(jù)和其他必要數(shù)據(jù),而是運(yùn)用智能再識別技術(shù)復(fù)合勾勒零散無序的準(zhǔn)標(biāo)識符屬性值與敏感屬性值之間的特殊關(guān)聯(lián),這很可能打破匿名狀態(tài),侵犯用戶隱私,從而“降低參與者對于數(shù)據(jù)隱私匿名存取的信任與參與熱情”。因此,過度收集行為和尚不明確的數(shù)據(jù)挖掘原則伴隨的侵權(quán)隱患對生成式人工智能產(chǎn)品的數(shù)據(jù)合規(guī)、數(shù)據(jù)挖掘可責(zé)性提出了新的要求。

其次,生成式人工智能對其數(shù)據(jù)共享與傳輸?shù)囊?guī)定語焉不詳,可能造成用戶訪問權(quán)、修正權(quán)等數(shù)據(jù)主體權(quán)利失效。根據(jù)OpenAI《用戶隱私協(xié)議》,OpenAI會向供應(yīng)商、服務(wù)提供商、關(guān)聯(lián)公司共享個人信息;如果發(fā)生合并、重組、破產(chǎn)或其他導(dǎo)致數(shù)據(jù)移交的情況,數(shù)據(jù)會同其他資產(chǎn)被交易至第三方。OpenAI特別說明,加州用戶享有個人信息刪除權(quán)、更正權(quán)、訪問權(quán)等數(shù)據(jù)主體權(quán)利,并表示不會出售加州用戶的信息。然而并未聲明其他州、地區(qū)、國家的用戶是否享有相應(yīng)數(shù)據(jù)主體權(quán)利,反而規(guī)定了“用戶的個人信息將從用戶所在位置傳輸至OpenAI在美國的設(shè)施和服務(wù)器”。換言之,根據(jù)OpenAI現(xiàn)有規(guī)定,其籠統(tǒng)的數(shù)據(jù)共享與傳輸處于無序狀態(tài),大概率會違反以歐盟《通用數(shù)據(jù)保護(hù)條例》為代表的用戶權(quán)利保護(hù)模式,在數(shù)據(jù)跨境流通方面也規(guī)避了許多國家的監(jiān)管程序,可能對數(shù)據(jù)主體的基本權(quán)利造成侵害。類似OpenAI的公司如何承擔(dān)數(shù)據(jù)處理者責(zé)任、數(shù)據(jù)主體如何保障自身權(quán)益的問題,對生成式人工智能的數(shù)據(jù)安全和數(shù)據(jù)主體權(quán)利保障等方面提出了要求,也對不同國家、政府之間的數(shù)據(jù)監(jiān)管協(xié)作提出了要求。

最后,生成式人工智能所輸出的內(nèi)容歸屬不明,容易產(chǎn)生爭議。盡管OpenAI試圖給予用戶Chat-GPT輸出內(nèi)容的所有權(quán),但其自身仍能對輸出內(nèi)容進(jìn)行實際控制,甚至,OpenAI還禁止用戶轉(zhuǎn)讓或委托《使用協(xié)議》中包括控制權(quán)在內(nèi)的權(quán)利或者義務(wù),致使用戶無法行使“輸出內(nèi)容所有權(quán)”。生成式人工智能的輸出內(nèi)容的歸屬仍然是學(xué)界尚存爭議的問題,OpenAI此舉目的在于形成“所有權(quán)”和“使用權(quán)”的二分,將“所有權(quán)”給予用戶實際上是希望用戶承擔(dān)更多責(zé)任,而OpenAI反而能通過“使用權(quán)”實質(zhì)上對數(shù)據(jù)進(jìn)行利用。不明確責(zé)任劃分無疑會助長生成式人工智能企業(yè)對個人權(quán)益的剝削和利用法律漏洞逃避責(zé)任的風(fēng)氣。

總之,OpenAI試圖逃避數(shù)據(jù)侵權(quán)責(zé)任,給用戶施加過高的義務(wù)。《使用條款》聲明用戶對內(nèi)容負(fù)全部責(zé)任,且OpenAI對輸出的可靠性、適用性、質(zhì)量、不侵權(quán)、準(zhǔn)確性等不作任何保證,甚至“在被告知有損害可能性的情況下,也不對間接的、偶然的、特殊的、后果性的或懲戒性的損害負(fù)責(zé),包括對利潤、商譽(yù)、使用或數(shù)據(jù)損失或其他損失的損害承擔(dān)責(zé)任”。這一系列免責(zé)條款幾乎完全免除了Ope-nAI對輸出內(nèi)容的責(zé)任,但同時卻對用戶責(zé)任進(jìn)行了較為詳盡的規(guī)定,如在保密、安全以及數(shù)據(jù)保護(hù)等方面,要求用戶采用“像保護(hù)自身機(jī)密信息的方式一樣”對待OpenAI定義的“機(jī)密信息”;要求用戶發(fā)現(xiàn)安全問題后立即匯報;并且,如果在用戶使用過程中涉及個人數(shù)據(jù)處理,要求用戶已經(jīng)獲得相關(guān)主體同意并提供相關(guān)法律說明。權(quán)利歸屬不明確和責(zé)任承擔(dān)不平衡不利于研發(fā)公司開發(fā)負(fù)責(zé)任的人工智能產(chǎn)品,不利于社會整體效益,這也是人工智能風(fēng)險治理中亟待解決的問題。

(四)生成式人工智能治理范式的缺失

正如上文所述,目前生成式人工智能損害隱蔽、破壞性大,且相關(guān)責(zé)任承擔(dān)機(jī)制不明。然而,我國尚未形成周延的法律體系,對生成式人工智能進(jìn)行規(guī)制。生成式人工智能應(yīng)當(dāng)屬于深度合成技術(shù)的范圍。然而,深度合成相關(guān)的法律規(guī)制也尚未形成體系,仍需進(jìn)行法律體系的構(gòu)建?,F(xiàn)有行政責(zé)任無法進(jìn)行事前規(guī)制,民事責(zé)任不具體且難以落實,刑事條款可能直接適用,但仍存在弊端。理論中的制度構(gòu)建無法涵蓋生成式人工智能的特征,相應(yīng)治理范式研究分散,生成式人工智能的綜合治理范式缺失。

1.現(xiàn)行法律制度不足

在行政責(zé)任方面,政府能對生成式人工智能起到監(jiān)管作用,但僅從政府視角無法充分規(guī)制。行政責(zé)任并不能充分規(guī)制生成式人工智能風(fēng)險。例如在算法層面,由于生成式人工智能通過對數(shù)據(jù)制作標(biāo)簽的方式進(jìn)行微調(diào),難以解釋從“輸入層”到“輸出層”的原理,大大提高了政府的監(jiān)管成本,無法對其進(jìn)行充分治理。此外,數(shù)據(jù)流動涉及多主體,現(xiàn)有機(jī)制無法聯(lián)動不同部門展開數(shù)據(jù)監(jiān)管協(xié)作,更無法在數(shù)據(jù)跨境中同他國機(jī)構(gòu)進(jìn)行協(xié)作,不具有協(xié)同治理的可能。若采取行政責(zé)任路徑,現(xiàn)有事前監(jiān)管、事后處罰的模式不足以應(yīng)對生成式人工智能損害隱蔽、損害結(jié)果嚴(yán)重的特點(diǎn),表現(xiàn)為事前無法偵測損害風(fēng)險、事后損害結(jié)果無法恢復(fù)。

在民事責(zé)任方面,相關(guān)實踐不足,理論研究有所缺失?,F(xiàn)有實踐中的涉數(shù)據(jù)治理范式集中于采用著作權(quán)、反不正當(dāng)競爭等途徑保護(hù)相關(guān)數(shù)據(jù)權(quán)益,這些保護(hù)范式大多基于涉案企業(yè)進(jìn)行了人力、物力等投入,所形成的產(chǎn)品帶來了競爭利益,從而給予相關(guān)數(shù)據(jù)的專門保護(hù)。采取上述模式進(jìn)行風(fēng)險治理無法規(guī)制生成內(nèi)容,以人格權(quán)利益作為保護(hù)路徑可以作為一種嘗試。但生成式人工智能的侵權(quán)行為隱蔽,無法及時進(jìn)行規(guī)制,同時其危害結(jié)果嚴(yán)重,通過人格利益令相關(guān)主體承擔(dān)“停止侵害”“賠償損失”等責(zé)任規(guī)制名譽(yù)權(quán)受損等情況,無法消除業(yè)已產(chǎn)生的影響。此外,如何承擔(dān)民事責(zé)任涉及知識產(chǎn)權(quán)、反壟斷、生成內(nèi)容歸屬等尚未形成結(jié)論的新問題,又涉及數(shù)據(jù)、算法等底層問題,還可能牽涉公平公正等價值判斷問題,而“算法黑箱”下的舉證困難也是導(dǎo)致現(xiàn)有民法體系難以對生成式人工智能進(jìn)行規(guī)制的原因。

刑事法律確有一些具體條款能進(jìn)行規(guī)制,但均有缺陷。例如,“編造、故意傳播虛假信息罪”僅能涵蓋“編造虛假的險情、疫情、災(zāi)情、警情”的行為,然而ChatGPT生成內(nèi)容是通過用戶“提示”自動生成的,并不限于這四種情況,能否追責(zé)尚存疑問。再如,“煽動顛覆國家政權(quán)罪”的構(gòu)成要件要求犯罪嫌疑人以積極、主動的方式實施煽動行為,然而生成式人工智能應(yīng)用通過與用戶互動的形式提供信息,與上述刑法規(guī)定的犯罪構(gòu)成要件不完全吻合,因此即便能起到煽動的有害作用,仍難以用刑法煽動顛覆國家政權(quán)罪予以規(guī)制。同時,刑法作為更謙抑的法,不能越過行政法、民法規(guī)制的可能而直接采取刑事治理模式,過高的刑事責(zé)任和過低的入刑門檻不利于該類技術(shù)的創(chuàng)新。

2.統(tǒng)一治理原則缺失

生成式人工智能的輸出結(jié)果包括文本、圖像、音頻、視頻、虛擬場景等,理論研究多集中于人工智能生成物的權(quán)屬、生物信息保護(hù)、主體地位及其責(zé)任承擔(dān),而未有全場景下的生成式人工智能治理理論,也未形成統(tǒng)一治理原則。

文本、圖像等創(chuàng)作場景下,現(xiàn)有研究集中于著作權(quán)歸屬及其責(zé)任承擔(dān)。有學(xué)者認(rèn)為,生成式人工智能的著作權(quán)應(yīng)歸屬于人工智能的使用者,生成式人工智能的輸出存在侵犯復(fù)制權(quán)、改編權(quán)、信息網(wǎng)絡(luò)傳播權(quán)風(fēng)險,并提出“人工智能創(chuàng)作”合理使用制度來化解風(fēng)險。類似觀點(diǎn)認(rèn)為,在生成式人工智能語境下,人類作者的角色正在淡出,作者中心主義與三步檢驗法限制了生成式人工智能的發(fā)展,構(gòu)建適應(yīng)人工智能的著作權(quán)合理使用制度是必要的。非創(chuàng)作場景下,相關(guān)研究內(nèi)容多樣,但不成體系。不少學(xué)者對規(guī)制“換臉”進(jìn)行了研究,個人生物信息保護(hù)、加工利用、存儲保管往往被作為制度構(gòu)建的重點(diǎn),甚至有學(xué)者將深度合成技術(shù)下的深度偽造與個人生物識別信息的濫用問題畫等號。人工智能的主體資格、責(zé)任承擔(dān)等問題也是研究熱點(diǎn)。從法哲學(xué)視角看,法律主體不限于人,人工智能法律主體化也存在可能,可將人工智能作為自然人、法人和非法人組織之外的“技術(shù)人”。還有學(xué)者提出算法法人的概念,賦予人工智能基于算法構(gòu)架的實體獨(dú)立地位。反對觀點(diǎn)則認(rèn)為人工智能的可解釋性才是解決人工智能主體地位和法律責(zé)任的基礎(chǔ),應(yīng)首先明確人工智能的可解釋性,基于不同場景進(jìn)行算法公開或者算法透明,不應(yīng)考慮將人工智能法律主體化。顯然,現(xiàn)有理論研究局限在權(quán)屬、地位、責(zé)任等生成式人工智能制度構(gòu)建的基礎(chǔ)層面,且研究較為分散,未對生成式人工智能的治理模式進(jìn)行全盤考量,不能解決生成虛假信息、道德操弄、數(shù)據(jù)處理不合規(guī)等問題。

總之,我國行政法、民法、刑法能在某種程度上對生成式人工智能進(jìn)行分散治理,尚未形成周延的法律體系,理論研究無法涵蓋生成式人工智能治理,現(xiàn)有治理范式缺乏統(tǒng)一的元規(guī)則?,F(xiàn)有法律框架下生成式人工智能無法得到妥善規(guī)制, 深度合成技術(shù)理論研究更多聚焦在人工智能主體地位、人工智能生成物著作權(quán)地位、個人生物識別信息保護(hù)等領(lǐng)域,其所形成的制度設(shè)計主要目的在于明確責(zé)任承擔(dān)、降低侵權(quán)風(fēng)險、防止個人生物識別信息濫用等。已有研究過于分散,不能作為生成式人工智能治理的理論基礎(chǔ),亟須以更廣闊的視角構(gòu)建生成式人工智能治理理論,通過整體原則統(tǒng)合分散的治理體系。

三、生成式人工智能的治理原則

生成式人工智能由數(shù)據(jù)和算法驅(qū)動,促進(jìn)社會發(fā)展的同時也帶來巨大隱患,應(yīng)建立相應(yīng)制度對其進(jìn)行規(guī)制。制度構(gòu)建中,最重要、最核心的議題即針對生成式人工智能,建立相應(yīng)的風(fēng)險治理元規(guī)則(Meta-rule)。然而現(xiàn)行制度和研究中并未形成生成式人工智能的體系化思維,需從人工智能治理原則入手進(jìn)行分析。

世界各國針對人工智能數(shù)據(jù)安全與風(fēng)險治理已進(jìn)行了一些探索。美國注重數(shù)據(jù)集質(zhì)量的提升和數(shù)據(jù)風(fēng)險的應(yīng)對。2016年,美國連續(xù)發(fā)布《為人工智能的未來做好準(zhǔn)備》和《國家人工智能研究和發(fā)展戰(zhàn)略規(guī)劃》兩份報告,提出“人工智能公開數(shù)據(jù)計劃”,為人工智能提供高質(zhì)量和可追溯的聯(lián)邦數(shù)據(jù)、模型和計算資源并將其作為訓(xùn)練集;2019年發(fā)布新版《國家人工智能研究和發(fā)展戰(zhàn)略規(guī)劃》,要求所有機(jī)構(gòu)負(fù)責(zé)人審查聯(lián)邦數(shù)據(jù)與模型,確保數(shù)據(jù)安全、隱私和機(jī)密性;2022年,美國政府發(fā)布《人工智能權(quán)利法案藍(lán)圖》,對人工智能數(shù)據(jù)安全、算法歧視、數(shù)據(jù)隱私等方面給予指導(dǎo)??梢娒绹斯ぶ悄軘?shù)據(jù)風(fēng)險治理的元規(guī)則主要圍繞數(shù)據(jù)質(zhì)量與數(shù)據(jù)安全展開。

歐盟在人工智能數(shù)據(jù)治理方面則較為關(guān)注個人數(shù)據(jù)與個人權(quán)益保護(hù)。2018年3月,歐洲政治戰(zhàn)略中心發(fā)布《人工智能時代:確立以人為本的歐洲戰(zhàn)略》,戰(zhàn)略提出要擴(kuò)大人工智能所需的數(shù)據(jù)源,避免數(shù)據(jù)偏見,確保數(shù)據(jù)的收集、使用和共享遵守通用數(shù)據(jù)保護(hù)條例的規(guī)定。2018年4月,歐盟委員會發(fā)布《歐盟人工智能發(fā)展戰(zhàn)略》,鼓勵在遵守個人數(shù)據(jù)保護(hù)相關(guān)法律的基礎(chǔ)上更廣泛地分享私人數(shù)據(jù)。2019年歐盟委員會人工智能高級專家組發(fā)布的《可信AI倫理指南》確立了3項AI道德原則,即遵守所有適用的法律法規(guī)、尊重道德原則和價值觀、技術(shù)和社會效應(yīng)的穩(wěn)定。2020年,經(jīng)過350多人的參與,歐盟委員會人工智能高級專家組發(fā)布了《可信人工智能評估清單》,確定了7項關(guān)鍵評估標(biāo)準(zhǔn)??梢姎W洲人工智能數(shù)據(jù)治理的元規(guī)則以數(shù)據(jù)公平和個人隱私保護(hù)為核心,總體上以保護(hù)人權(quán)為核心進(jìn)行人工智能制度構(gòu)建。

我國也在規(guī)制人工智能方面進(jìn)行了一定的探索。最具代表性的是,2021年9月,新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能管理規(guī)范》,提出“增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)”6項基本倫理要求,以及針對管理、研發(fā)等特定活動的18項具體倫理要求。最新的《征求意見稿》則提出生成式人工智能應(yīng)體現(xiàn)社會主義核心價值觀、避免算法偏見和歧視、尊重平等競爭、內(nèi)容真實、保障個人權(quán)益的5項基本規(guī)定,總體上我國現(xiàn)行的生成式人工智能治理框架比較完善。

除了美國、中國以及歐盟為代表的國家和地區(qū)外,大型企業(yè)與一些世界性組織也曾發(fā)布人工智能治理文件。如2018年,谷歌曾提出7項人工智能應(yīng)用的原則用以自律,分別是:對社會有益、避免制造或加強(qiáng)不公平的偏見、構(gòu)建并測試安全性、對人負(fù)責(zé)、隱私保護(hù)、堅持高標(biāo)準(zhǔn)的科學(xué)追求、使用符合目的。此外,微軟、英特爾、IBM也曾提出過類似AI準(zhǔn)則。2021年5月,經(jīng)合組織(OECD)也確立了5項人工智能基本原則:包容性增長、可持續(xù)發(fā)展和福祉;公平及以人為本的價值觀;透明性和可解釋性;穩(wěn)健性、保護(hù)與安全性;可問責(zé)性。大型企業(yè)與世界性組織所構(gòu)建的規(guī)則為生成式人工智能的治理提供了商業(yè)和人類共同體視角,補(bǔ)足了相關(guān)國家所提出治理原則的缺失之處。

不同國家與國際組織可能制定不同的原則,但不同原則之間又具備一定程度的共性。正如上文分析,人工智能具有不確定的技術(shù)風(fēng)險、偏離設(shè)計應(yīng)用的風(fēng)險、非法使用的風(fēng)險、社會風(fēng)險、倫理風(fēng)險。由此帶來人工智能產(chǎn)業(yè)“代替排擠”“差異擴(kuò)展”“風(fēng)險聚集”3類消極效應(yīng)。為盡量降低人工智能技術(shù)帶來的社會負(fù)效應(yīng),安全、可信、公平、可解釋性、保障數(shù)據(jù)主體權(quán)利等內(nèi)容已經(jīng)成為人工智能治理的基本原則。季衛(wèi)東提出了更多原則,認(rèn)為應(yīng)當(dāng)將共享互信、個人尊嚴(yán)、民主參與、國際合作、相機(jī)規(guī)制、公開透明、雙重規(guī)制、追蹤制裁、預(yù)防響應(yīng)9個方面作為人工智能開發(fā)的主要原則和實施方法。何淵則認(rèn)為,應(yīng)從政府與市場、立法與行政、中央與地方、政府與社會4個維度構(gòu)建授權(quán)與集權(quán)的雙向治理模式,打造以多元、開放、分享為基礎(chǔ)的治理體系。總之,國內(nèi)學(xué)者認(rèn)為在人工智能時代,確立風(fēng)險控制理念,構(gòu)建法律、倫理、行業(yè)、自律等元素下的多元互動規(guī)制體系是人工智能發(fā)展的重要保障。

然而,這些原則或治理范式多是針對人工智能的領(lǐng)域通則,面對不同人工智能應(yīng)用,還應(yīng)具體細(xì)化其原則。例如,對于醫(yī)療健康領(lǐng)域的人工智能應(yīng)用,有學(xué)者提出“數(shù)據(jù)與隱私保護(hù)、可責(zé)性和政府監(jiān)管、可信和可理解、醫(yī)患關(guān)系、衡平”5項原則,前3項原則是通用型原則。醫(yī)患關(guān)系原則是指病人與醫(yī)生之間存在信任關(guān)系,僅用AI診斷無法代替醫(yī)生對病人的心理支撐。衡平原則是指對人工智能應(yīng)用所產(chǎn)出的結(jié)果進(jìn)行利弊分析,衡平考量??梢哉f,治理人工智能應(yīng)用的元規(guī)則除考量數(shù)據(jù)、監(jiān)管、算法等因素,還應(yīng)將應(yīng)用場景、用戶心理和社會效應(yīng)等因素納入考量。還有學(xué)者認(rèn)為現(xiàn)已形成人工智能的多主體、多部門、多學(xué)科的多中心治理模式,社會效益與人工智能系統(tǒng)之間具有三層結(jié)構(gòu)。最下層為技術(shù)層,對該層要利用數(shù)據(jù)管理、數(shù)據(jù)可責(zé)、數(shù)據(jù)標(biāo)準(zhǔn)等進(jìn)行管理;中間層為道德層,需要建立相關(guān)原則;最上層是社會和法律層,需要采取立法、合作等措施進(jìn)行管理。也就是說,構(gòu)建元規(guī)則的過程中要考慮結(jié)構(gòu)性與可行性。總之,盡管現(xiàn)階段已有大量的元規(guī)則對人工智能應(yīng)用進(jìn)行規(guī)范,但仍應(yīng)當(dāng)結(jié)合具體行業(yè)的要求進(jìn)行更為細(xì)致的法律制度設(shè)計,從而將元規(guī)則落地。對生成式人工智能領(lǐng)域,亦應(yīng)當(dāng)構(gòu)建有針對性的元規(guī)則。

四、生成式人工智能治理元規(guī)則

原則導(dǎo)向的治理機(jī)制,能在宏觀道德和微觀原則之間尋找平衡點(diǎn),以平衡技術(shù)發(fā)展和人工智能治理。通過上文對風(fēng)險的梳理,吸取國家、組織、企業(yè)人工智能數(shù)據(jù)風(fēng)險治理的經(jīng)驗,對現(xiàn)有人工智能數(shù)據(jù)風(fēng)險治理的原則進(jìn)行梳理可知,現(xiàn)有國家、組織、企業(yè)實踐中的人工智能治理制度體現(xiàn)了14個原則,這些原則彼此關(guān)聯(lián),可被進(jìn)一步提煉總結(jié),形成普遍適用的生成式人工智能風(fēng)險治理元規(guī)則。

在元規(guī)則的構(gòu)建過程中,要在核心價值上達(dá)成充分共識,保證人類自主性、責(zé)任承擔(dān)的有效性。其中,算法公開透明、數(shù)據(jù)主體權(quán)利保護(hù)是人工智能法律規(guī)制的核心。采取算法解釋、算法審核、非歧視開發(fā)準(zhǔn)則和精準(zhǔn)的數(shù)字平權(quán)行動等治理措施有助于人工智能治理。同時,數(shù)字福祉、內(nèi)生監(jiān)管、合作治理等機(jī)制不可缺失??偟膩碚f,生成式人工智能元規(guī)則的構(gòu)建要以維護(hù)人類主體地位為核心,以算法和數(shù)據(jù)規(guī)制為主要內(nèi)容,保持多元利益的動態(tài)平衡,并時刻防范社會風(fēng)險。對于生成式人工智能,應(yīng)當(dāng)從4個角度進(jìn)行元規(guī)則的構(gòu)建:第一,協(xié)同共治,涵蓋算法監(jiān)管、算法安全、社會效益、算法可責(zé);第二,提升透明度,涵蓋目的正當(dāng)、算法透明、保護(hù)隱私、數(shù)據(jù)安全;第三,保障數(shù)據(jù)質(zhì)量,涵蓋算法可信、算法公平、算法公正;第四,倫理先行,涵蓋以人為本、價值多元、反對歧視。

(一)協(xié)同共治

協(xié)同共治包含國家內(nèi)部不同部門、不同主體間的協(xié)同,也包含國家間的協(xié)同合作。通過對生成式人工智能的風(fēng)險分析可知,跨部門甚至跨國家的治理合作具有必要性。我國《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》強(qiáng)調(diào)網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理的主體是政府、企業(yè)、社會、網(wǎng)民等,體現(xiàn)了國家內(nèi)部多主體參與的協(xié)同治理思路。首先,政府與其他機(jī)構(gòu)相比更具合法性,能確保算法監(jiān)管、算法安全;其次,政府具備強(qiáng)制執(zhí)法能力,能確保數(shù)據(jù)的穩(wěn)定、可靠以及合規(guī);最后,政府能更好地收集信息并開展協(xié)調(diào)工作,保障工作效率。當(dāng)政府調(diào)節(jié)機(jī)制成效不明顯時,可發(fā)揮企業(yè)、社會和個人的能量,讓相應(yīng)主體承擔(dān)更多的自治責(zé)任,特別是在生成式人工智能這樣的新領(lǐng)域,法律法規(guī)尚未充分更新,采用公私結(jié)合的路徑能讓目前的治理手段發(fā)揮更大效用,充分釋放社會效益,而協(xié)同共治的理念也能實現(xiàn)算法責(zé)任合理分配,使算法可責(zé)性落地。

同時,不同國家采用的不同治理方式可能會對人工智能的創(chuàng)新和擴(kuò)散造成阻礙,如數(shù)據(jù)訪問限制、數(shù)據(jù)本地化、歧視性投資等,不同的風(fēng)險分類制度和治理要求會增加全球性企業(yè)的服務(wù)成本與合規(guī)成本,尤其可能對一些小規(guī)模企業(yè)造成致命的打擊。因此,除各國內(nèi)部需促進(jìn)多主體、多部門協(xié)同治理外,還應(yīng)積極推進(jìn)生成式人工智能風(fēng)險治理方面的國際協(xié)同合作。2023年1月27日,歐盟-美國貿(mào)易技術(shù)委員會簽署《公益人工智能管理辦法》,該協(xié)議遵循了《互聯(lián)網(wǎng)未來宣言》中的原則,建立在雙方共同利益和使用數(shù)字技術(shù)手段應(yīng)對新興挑戰(zhàn)的共同需求之上,并規(guī)定雙方會聯(lián)合支持人工智能的社會應(yīng)用,包括農(nóng)業(yè)、醫(yī)療、天氣等領(lǐng)域。協(xié)議簽署后,雙方官員表示美國和歐盟的研究人員將在5個主要領(lǐng)域合作開發(fā)“聯(lián)合模型”。2022年12月,委員會就多項人工智能事項達(dá)成一致,包括承諾制定人工智能國際治理標(biāo)準(zhǔn)以及就人工智能對勞動力的影響開展合作研究。未來,該委員會可成為歐美開展人工智能治理合作的主管機(jī)構(gòu)。美歐這一合作協(xié)議雖然著重于人工智能的應(yīng)用,但未嘗不能作為生成式人工智能風(fēng)險治理國際合作的可參考范例。

2021年10月,人工智能合作論壇(FCAI)發(fā)布的一份中期報告評估了彼時人工智能國際合作的前景,并提出了發(fā)展建議。報告闡述了缺乏合作的國際環(huán)境的消極后果以及加強(qiáng)合作的好處,強(qiáng)調(diào)了人工智能國際合作在應(yīng)對全球挑戰(zhàn)方面的積極影響,認(rèn)為“沒有國家可以單獨(dú)行動”,并展示了合作性國際框架對人工智能的治理和開發(fā)有何種積極影響。在治理合作方面,報告建議將治理合作視為一個循序漸進(jìn)的過程,可從較小的合作逐漸展開,最終形成較為全面的合作。于我國而言,可通過雙邊、多邊合作的形式,與價值取向相近或享有共同利益的國家開展合作,共同制訂人工智能風(fēng)險治理的標(biāo)準(zhǔn)和程序。以促進(jìn)國家安全為基礎(chǔ),人工智能應(yīng)用和數(shù)據(jù)在合作各國間可以流通,并循序漸進(jìn)構(gòu)建較為全面的人工智能風(fēng)險治理合作體系。

互聯(lián)網(wǎng)作為當(dāng)今社會的重大核心技術(shù)已蓬勃發(fā)展60余年,但至今未成立以聯(lián)合國為核心的國際多邊機(jī)構(gòu),這不利于互聯(lián)網(wǎng)行業(yè)的有序發(fā)展及相關(guān)國際合作的展開。目前大部分互聯(lián)網(wǎng)自治委員會和自我監(jiān)管機(jī)構(gòu)都由美國控制,它還阻止了一些國家試圖建立國際互聯(lián)網(wǎng)監(jiān)管機(jī)構(gòu)的努力,只為繼續(xù)利用其科技霸權(quán)地位在政治、社會、商業(yè)領(lǐng)域主導(dǎo)輿論甚至操控不同國家的公民。馬長山認(rèn)為:“掌握了數(shù)據(jù),就意味著掌握了資本和財富;掌握了算法,就意味著掌握了話語權(quán)和規(guī)制權(quán)?!被ヂ?lián)網(wǎng)是國際公共產(chǎn)品,關(guān)系著全人類的共同利益,不能任由個別國家或利益集團(tuán)擺布,因此,以聯(lián)合國為核心構(gòu)建國際多邊互聯(lián)網(wǎng)監(jiān)管機(jī)構(gòu)是各國面臨的緊迫任務(wù)。應(yīng)在開展雙邊或多邊人工智能風(fēng)險治理國際合作的同時,推動建立聯(lián)合國框架內(nèi)的互聯(lián)網(wǎng)監(jiān)管機(jī)構(gòu),以此為包括人工智能在內(nèi)的全球互聯(lián)網(wǎng)活動提供機(jī)構(gòu)保障與制度框架,推動出臺公平、統(tǒng)一的人工智能風(fēng)險治理標(biāo)準(zhǔn),降低不合理的成本,充分利用人工智能進(jìn)一步解放生產(chǎn)力。

(二)提升透明度

為防止人工智能應(yīng)用侵犯各類主體的權(quán)利,應(yīng)提高人工智能工具在算法、挖掘原則及數(shù)據(jù)共享方面的透明度。我國算法治理體系將算法定位為“互聯(lián)網(wǎng)信息服務(wù)算法”和“算法推薦服務(wù)”,要求算法信息服務(wù)應(yīng)公平公正、透明可釋,企業(yè)應(yīng)及時、合理、有效地公開算法基本原理、優(yōu)化目標(biāo)、決策標(biāo)準(zhǔn)等信息,作好算法結(jié)果解釋;鼓勵算法推薦服務(wù)提供者綜合運(yùn)用內(nèi)容去重、打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性。算法監(jiān)管制度中已經(jīng)創(chuàng)新性地提出了針對特征庫、用戶標(biāo)簽、算法機(jī)制機(jī)理等技術(shù)規(guī)范的措施,但這些具體的措施很難應(yīng)對生成式人工智能濫用造成的風(fēng)險,應(yīng)結(jié)合生成式人工智能的新技術(shù)發(fā)展與應(yīng)用場景作出相應(yīng)調(diào)整和改進(jìn)。

算法是人工智能的決策原理,即其使用數(shù)據(jù)的方式。包括ChatGPT在內(nèi)的生成式人工智能均使用了神經(jīng)網(wǎng)絡(luò),因神經(jīng)網(wǎng)絡(luò)技術(shù)的特征,要求這類應(yīng)用達(dá)到算法透明化客觀上非常困難,若強(qiáng)制要求透明化可能會阻礙神經(jīng)網(wǎng)絡(luò)技術(shù)的應(yīng)用。因此,立法者應(yīng)結(jié)合類似的應(yīng)用場景、應(yīng)用效果和受眾等因素,對算法透明度要求進(jìn)行調(diào)整。如用于降低輕型飛機(jī)碰撞率的FLARM系統(tǒng)并未采取任何提升算法透明度的措施,但它在降低飛機(jī)碰撞幾率方面取得了明顯的成效,保護(hù)了大量乘客的生命安全,若僅因算法透明度不達(dá)標(biāo)就禁用該系統(tǒng)顯然有悖常理。目前越來越多的算法開發(fā)機(jī)構(gòu)將算法解釋納入人工智能學(xué)習(xí)的一部分,針對“算法黑箱”的反向推理研究也已展開,算法透明度問題可能隨著技術(shù)的發(fā)展得以解決。

除算法原理解釋外,還應(yīng)增加生成式人工智能挖掘原則方面的透明度。比如ChatGPT“看人下菜碟”的能力昭示了其為西方價值觀服務(wù)的本質(zhì),為防止別有用心的政府或企業(yè)利用類似工具潛移默化向廣大受眾強(qiáng)加己方意圖和觀念,應(yīng)確保各方參與者擁有平等的數(shù)據(jù)表達(dá)機(jī)會,以保障相關(guān)技術(shù)不會完全淪為政治工具。同時,應(yīng)對數(shù)據(jù)挖掘的范圍有所限制,確保數(shù)據(jù)挖掘滿足最小必要原則且具有合法目的,數(shù)據(jù)挖掘的范圍不得超出最初聲明的范疇。此外,數(shù)據(jù)挖掘能長久留存和控制巨量信息,為不侵犯包括數(shù)據(jù)遺忘權(quán)在內(nèi)的數(shù)據(jù)主體權(quán)利,在主體要求、授權(quán)超期、數(shù)據(jù)資源超范圍等情況下,應(yīng)確保相關(guān)數(shù)據(jù)能得到徹底刪除。綜上所述,提升生成式人工智能挖掘原則的透明度是為確保數(shù)據(jù)挖掘的公允、保證不同主體的公平參與、限定挖掘范圍并及時刪除不必要的數(shù)據(jù)以確保數(shù)據(jù)主體的權(quán)利在數(shù)據(jù)挖掘過程中不受侵犯。

提升生成式人工智能數(shù)據(jù)跨境流動方面的透明度能確保國家安全,加深各國政府對人工智能的信任。ChatGPT的一大特點(diǎn)是獲取跨境數(shù)據(jù)流,它可以在不同國家和地區(qū)獲取數(shù)據(jù),不受數(shù)據(jù)跨境流通障礙的束縛。為滿足我國數(shù)據(jù)跨境流動國家安全的要求,生成式人工智能必須明確數(shù)據(jù)跨境流動的原則,確保對一般數(shù)據(jù)和敏感數(shù)據(jù)進(jìn)行區(qū)分,且重要數(shù)據(jù)的流動應(yīng)按照要求進(jìn)行審批。生成式人工智能數(shù)據(jù)跨境流動應(yīng)以數(shù)據(jù)安全主權(quán)為原則,該原則不僅可從規(guī)制風(fēng)險的角度統(tǒng)一各國在人工智能數(shù)據(jù)跨境流動上的思路,還與我國安全與發(fā)展兼顧的規(guī)制進(jìn)路相符,有利于我國發(fā)展獨(dú)立自主的數(shù)據(jù)話語體系,為全球提供促進(jìn)數(shù)據(jù)有序跨境流通的生成式人工智能產(chǎn)品。

(三)保障數(shù)據(jù)質(zhì)量

保障數(shù)據(jù)質(zhì)量應(yīng)關(guān)注原始數(shù)據(jù)的準(zhǔn)確性與產(chǎn)出結(jié)果的準(zhǔn)確性。原始數(shù)據(jù)的準(zhǔn)確性決定了產(chǎn)出結(jié)果的準(zhǔn)確性,而產(chǎn)出結(jié)果的準(zhǔn)確性還受到算法的影響。保障數(shù)據(jù)質(zhì)量是正義的要求,保障正義能預(yù)防人工智能帶來的極端分化。算法透明原則能夠促進(jìn)算法可信,算法公平與公正是輸出質(zhì)量的基石。生成式人工智能設(shè)計人員應(yīng)當(dāng)秉持公平公正的道德觀進(jìn)行數(shù)據(jù)標(biāo)簽工作,并要求結(jié)果符合公平公正的道德標(biāo)準(zhǔn)。

正如《降臨》一書的作者特德·姜所描述的那樣,ChatGPT是網(wǎng)上所有文本的“有損JPEG”,雖然保留了大部分信息,但只能形成原圖片的近似值。特德·姜認(rèn)為,ChatGPT并未從互聯(lián)網(wǎng)逐字引用,而是重新表達(dá)材料,給人ChatGPT已經(jīng)理解了材料的誤解。ChatGPT的輸出結(jié)果只是在模仿人類對信息進(jìn)行壓縮,而非真正理解信息,因此ChatGPT無法保證內(nèi)容的真實性。例如,ChatGPT撰文稱紐約市市長“通過金錢收買權(quán)力”。但經(jīng)核實,該自述為編造,并引用了虛假材料。一方面,ChatGPT會壓縮信息,并可能將經(jīng)壓縮的內(nèi)容收集作為訓(xùn)練素材,使人類信息庫中充滿信息的“有損JPEG”。例如,人類信息庫中本來只有“無損信息”,但隨著ChatGPT使用的增多與數(shù)據(jù)收集,人類信息庫中的“有損信息”會越來越多,最終真正的“無損信息”可能會被淹沒在“有損信息”中。另一方面,ChatGPT在撰寫新聞、論文、社評等文章時生成虛假信息,讓用戶難辨真?zhèn)?,致使人類信息庫變得“模糊”。為避免生成式人工智能可能帶來的人類信息庫“失真”,?yīng)當(dāng)保障數(shù)據(jù)質(zhì)量。

具體而言,生成式人工智能應(yīng)盡可能達(dá)到信息的無損壓縮與復(fù)現(xiàn)。ChatGPT生成的答案是對學(xué)習(xí)文本的壓縮和重新包裝,這也在一定程度上解釋了ChatGPT有時會編造事實并輸出一些“幻覺”,即當(dāng)一個壓縮算法將原件有損壓縮成1%的大小并重建時,原件的內(nèi)容會有很大程度的損失,輸出的結(jié)果就可能是捏造的。保障輸入的真實性是提升數(shù)據(jù)質(zhì)量的關(guān)鍵板塊,應(yīng)增加對所收集信息進(jìn)行真?zhèn)舞b別的模塊。ChatGPT的預(yù)學(xué)習(xí)模型并未鑒別信息的真?zhèn)危煌ㄟ^人工標(biāo)注的方式去除有害信息,而互聯(lián)網(wǎng)本就含有大量的虛假信息,將這些信息作為學(xué)習(xí)材料無疑會降低模型輸出的真實性,從而對用戶造成錯誤印象或財產(chǎn)損失。此外,在復(fù)現(xiàn)階段應(yīng)對生成式人工智能的產(chǎn)出進(jìn)行質(zhì)量把控,可將相關(guān)開發(fā)企業(yè)是否愿意用模型生成的文本作為新模型的訓(xùn)練材料當(dāng)作判斷指標(biāo), 若不能作為訓(xùn)練材料,則意味著模型生成的文本較為模糊(訓(xùn)練價值低),若可以作為訓(xùn)練材料,則意味著生成的文本與原件具有相近的“清晰度”(訓(xùn)練價值高),由此入手管理大型語言模型的數(shù)據(jù)質(zhì)量。

(四)倫理先行

倫理先行的理念作為生成式人工智能設(shè)計、使用時的典范性原則,不能成為空洞的表達(dá),應(yīng)當(dāng)貫穿于公法和私法的法律實踐中,體現(xiàn)以人為本的理論內(nèi)涵,反對技術(shù)濫用帶來的歧視風(fēng)險,最終實現(xiàn)對人類尊嚴(yán)的維護(hù)。現(xiàn)有生成式人工智能缺乏全面的倫理道德過濾機(jī)制。人工智能技術(shù)應(yīng)當(dāng)以最大程度造福全體人類技術(shù)為倫理基石,同時不設(shè)定統(tǒng)一的價值判斷標(biāo)準(zhǔn),促進(jìn)多元價值判斷體系的生成,尤其是不能形成價值立場,潛移默化進(jìn)行文化輸出,其應(yīng)用應(yīng)當(dāng)是客觀的陳述,需要尊重不同人群的國家、地區(qū)、民族、性別、宗教等元素,不良信息甚至違法犯罪信息的輸出可能對社會造成嚴(yán)重影響,倫理先行是必要原則。

開發(fā)人工智能應(yīng)用時,相關(guān)法學(xué)研究與制度構(gòu)建的目的是為了避免引發(fā)人類風(fēng)險與災(zāi)難,其最終目的應(yīng)以人為本。新技術(shù)的出現(xiàn)帶來人類尊嚴(yán)危機(jī),數(shù)據(jù)瑕疵和算法瑕疵都可能導(dǎo)致人格尊嚴(yán)受損,人格尊嚴(yán)等以人為本的理念不能作為空洞的原則性指引要求,而應(yīng)當(dāng)積極融入法律制度構(gòu)建之中,并對公共決策起到規(guī)制等實質(zhì)性作用。另外,還應(yīng)注重對用戶的引導(dǎo)。實踐中存在用戶超授權(quán)使用生成式人工智能的情況,應(yīng)當(dāng)避免用戶通過誘導(dǎo)繞開系統(tǒng)限制,違反相關(guān)準(zhǔn)則,輸出有害內(nèi)容。加強(qiáng)用戶引導(dǎo)不是僅僅提示人工智能有違反倫理的可能性,而是還應(yīng)告知人工智能的能力和局限,確保用戶知曉如何降低倫理風(fēng)險,朝正確的方向使用人工智能,而非突破底線濫用生成式人工智能。

結(jié)論

ChatGPT的驚艷表現(xiàn)昭示了生成式人工智能帶來的技術(shù)革新,市場為之沸騰的同時,生成式人工智能的數(shù)據(jù)風(fēng)險逐漸顯現(xiàn),在國家、社會和私權(quán)利三層面帶來了不確定性?;诂F(xiàn)有企業(yè)、國際組織、國家不同的人工智能治理模式,應(yīng)通過四大元規(guī)則針對生成式人工智能進(jìn)行風(fēng)險治理:協(xié)同共治、提升透明度、保障數(shù)據(jù)質(zhì)量、倫理先行。協(xié)同共治包含國家內(nèi)部不同主體、不同部門之間的協(xié)同,旨在發(fā)揮政府、企業(yè)和個人的不同作用,確保數(shù)據(jù)風(fēng)險處于可控范圍;還應(yīng)開展國際合作,先以價值取向相似的國家為起點(diǎn)展開合作,共同制定人工智能風(fēng)險治理的標(biāo)準(zhǔn)和程序,并循序漸進(jìn)地構(gòu)建范圍更廣、更全面的國際合作。提升透明度意在提升生成式人工智能算法、挖掘原則及數(shù)據(jù)共享方面的透明度,幫助數(shù)據(jù)主體了解數(shù)據(jù)的獲取和處理過程,建立個人、企業(yè)和政府對人工智能應(yīng)用的信任。保障數(shù)據(jù)質(zhì)量,一是要提升生成式人工智能訓(xùn)練數(shù)據(jù)的質(zhì)量;二是要對輸出內(nèi)容進(jìn)行真?zhèn)舞b別,避免人工智能應(yīng)用輸出具有迷惑性的錯誤言論,從而降低侵犯用戶權(quán)利導(dǎo)致用戶損失的可能。倫理先行意味著將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期, 需不斷強(qiáng)調(diào)其實質(zhì)性指引作用, 避免成為空洞表達(dá)。無論技術(shù)怎樣變革,以上四個元規(guī)則是生成式人工智能數(shù)據(jù)風(fēng)險控制方面不能突破的底線,隨著生成式人工智能與社會規(guī)則、倫理規(guī)范、群體意識的融合,未來可對上述元規(guī)則的內(nèi)涵和外延進(jìn)行適當(dāng)?shù)恼{(diào)整和解釋,以適應(yīng)技術(shù)的發(fā)展和社會的變化。

猜你喜歡
人工智能算法
我校新增“人工智能”本科專業(yè)
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
進(jìn)位加法的兩種算法
人工智能與就業(yè)
算法初步兩點(diǎn)追蹤
數(shù)讀人工智能
基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
下一幕,人工智能!