国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論我國(guó)人工智能立法的定位

2024-10-15 00:00:00周漢華
現(xiàn)代法學(xué) 2024年5期

摘要:人工智能在我國(guó)已經(jīng)形成信息內(nèi)容管理與科技、產(chǎn)業(yè)發(fā)展兩種不同立法定位。用信息內(nèi)容管理定位人工智能,相當(dāng)于將新質(zhì)生產(chǎn)力納入上層建筑管理,難免產(chǎn)生各種錯(cuò)配現(xiàn)象。為了體現(xiàn)人工智能法非對(duì)稱性特點(diǎn),需要將人工智能作為前沿科技和新質(zhì)生產(chǎn)力來(lái)定位,在明確安全與發(fā)展基本原則的基礎(chǔ)上,通過(guò)不同部門法的立改廢釋實(shí)現(xiàn)法治范式變革。既要清理、廢止不利于人工智能發(fā)展的規(guī)定與做法,又要確立有利于推動(dòng)人工智能安全與發(fā)展的觀念、規(guī)范與制度。我國(guó)人工智能立法需要保持靈活性,小步快跑,避免“一刀切”立法造成難以挽回的負(fù)面影響。

關(guān)鍵詞:人工智能立法;人工智能法;范式變革;非對(duì)稱性

中圖分類號(hào):DF01文獻(xiàn)標(biāo)志碼:A

DOI:10.3969/j.issn.1001-2397.2024.05.02開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

一、引言——互聯(lián)網(wǎng)治理的兩種定位

我國(guó)全功能接入國(guó)際互聯(lián)網(wǎng)三十年,互聯(lián)網(wǎng)治理在不同時(shí)期形成兩種不同的定位。

最初,互聯(lián)網(wǎng)以其科技特點(diǎn)被我國(guó)接納,實(shí)現(xiàn)與國(guó)際互聯(lián)網(wǎng)連接。①同時(shí),從863計(jì)劃開始,我國(guó)就從全球信息化發(fā)展大勢(shì)認(rèn)識(shí)到信息產(chǎn)業(yè)的重要性,從科技、產(chǎn)業(yè)發(fā)展來(lái)定位互聯(lián)網(wǎng),推動(dòng)網(wǎng)絡(luò)科技與信息產(chǎn)業(yè)在我國(guó)的高速發(fā)展。我國(guó)接入國(guó)際互聯(lián)網(wǎng)以后的近二十年時(shí)間里,負(fù)責(zé)我國(guó)互聯(lián)網(wǎng)治理的一直是科技或者產(chǎn)業(yè)管理機(jī)構(gòu)。(周宏仁主編:《中國(guó)信息化進(jìn)程》(上冊(cè)),人民出版社2009年版,第37頁(yè)。)

2009年,隨著智能手機(jī)開始在我國(guó)銷售,我國(guó)逐步進(jìn)入以“兩微一端”為標(biāo)志的移動(dòng)互聯(lián)網(wǎng)時(shí)代,互聯(lián)網(wǎng)媒體化特征突顯。面對(duì)生產(chǎn)關(guān)系與上層建筑的深刻變革,習(xí)近平總書記指出,“網(wǎng)絡(luò)和信息安全牽涉到國(guó)家安全和社會(huì)穩(wěn)定,是我們面臨的新的綜合性挑戰(zhàn)”(習(xí)近平:《關(guān)于〈中共中央關(guān)于全面深化改革若干重大問(wèn)題的決定〉的說(shuō)明》,載《求是》2013年第22期,第19-27頁(yè)。)。2013年黨的十八屆三中全會(huì)以后,負(fù)責(zé)我國(guó)互聯(lián)網(wǎng)治理的主要是意識(shí)形態(tài)管理機(jī)構(gòu),信息內(nèi)容管理成為基本定位。經(jīng)過(guò)十多年努力,網(wǎng)絡(luò)綜合治理體系不斷建立健全,“網(wǎng)絡(luò)生態(tài)持續(xù)向好,意識(shí)形態(tài)領(lǐng)域形勢(shì)發(fā)生全局性、根本性轉(zhuǎn)變”(習(xí)近平:《高舉中國(guó)特色社會(huì)主義偉大旗幟 為全面建設(shè)社會(huì)主義現(xiàn)代化國(guó)家而團(tuán)結(jié)奮斗——在中國(guó)共產(chǎn)黨第二十次全國(guó)代表大會(huì)上的報(bào)告》,人民出版社2022年版,第10頁(yè)。)。

我國(guó)互聯(lián)網(wǎng)治理所經(jīng)歷的兩個(gè)歷史階段與兩種不同定位,完整地投射到我國(guó)人工智能治理與立法之上,留下鮮明的歷史印記。

二、人工智能立法的兩種不同定位

新一代人工智能的快速發(fā)展,尤其是2022年底橫空出世的ChatGPT,使如何定位人工智能及其立法成為無(wú)法回避的重大時(shí)代問(wèn)題。受我國(guó)互聯(lián)網(wǎng)治理體制的影響,實(shí)踐中快速形成兩種不同的立法定位。

(一)科技、產(chǎn)業(yè)發(fā)展定位及立法部署

2017年,作為世界上最早制定人工智能發(fā)展戰(zhàn)略規(guī)劃的國(guó)家之一,(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence Index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.)我國(guó)發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱《發(fā)展規(guī)劃》),從加快建設(shè)創(chuàng)新型國(guó)家和世界科技強(qiáng)國(guó)的角度進(jìn)行系統(tǒng)部署,明確科技引領(lǐng)、系統(tǒng)布局、市場(chǎng)主導(dǎo)、開源開放四項(xiàng)原則,要求以提升新一代人工智能科技創(chuàng)新能力為主攻方向,發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會(huì),維護(hù)國(guó)家安全。在部署推動(dòng)人工智能科技與產(chǎn)業(yè)發(fā)展的同時(shí),《發(fā)展規(guī)劃》對(duì)人工智能作為顛覆性技術(shù)可能帶來(lái)改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私、挑戰(zhàn)國(guó)際關(guān)系準(zhǔn)則等問(wèn)題有非常深刻的認(rèn)識(shí),明確人工智能法律法規(guī)、倫理規(guī)范和政策體系的“三步走”建設(shè)目標(biāo),列舉了需要具體立法的領(lǐng)域。

《發(fā)展規(guī)劃》發(fā)布之后,科技部、工信部、國(guó)家發(fā)改委、公安部、中科院、國(guó)家標(biāo)準(zhǔn)委等相繼制定推動(dòng)人工智能發(fā)展、防范人工智能風(fēng)險(xiǎn)的各種政策與規(guī)范性文件,如《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018—2020年)》《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》《國(guó)家車聯(lián)網(wǎng)產(chǎn)業(yè)標(biāo)準(zhǔn)體系建設(shè)指南(智能網(wǎng)聯(lián)汽車)》《科技倫理審查辦法(試行)》等。上海、深圳制定了促進(jìn)人工智能產(chǎn)業(yè)發(fā)展的地方性法規(guī),浙江、廣東、北京、成都、杭州等多地制定了促進(jìn)人工智能研究與產(chǎn)業(yè)發(fā)展的政策性文件。國(guó)務(wù)院2023年、2024年連續(xù)兩年將人工智能法草案列入年度立法計(jì)劃。十三屆、十四屆全國(guó)人大常委會(huì)立法規(guī)劃均將人工智能立法列入其中。

推動(dòng)科技、產(chǎn)業(yè)發(fā)展定位的人工智能立法活動(dòng),體現(xiàn)出發(fā)展優(yōu)先,以改革創(chuàng)新促發(fā)展,有效防范和化解風(fēng)險(xiǎn)的立法思路,也是當(dāng)前各國(guó)對(duì)人工智能立法定位的共同做法。不過(guò),由于新一代人工智能(《發(fā)展規(guī)劃》稱之為“自主智能”)仍然屬于新生事物,沒有現(xiàn)成經(jīng)驗(yàn)可資借鑒,這類立法活動(dòng)仍然處于萌芽和探索階段。黨的二十屆三中全會(huì)決定要求,“完善推動(dòng)新一代信息技術(shù)、人工智能等戰(zhàn)略性產(chǎn)業(yè)發(fā)展政策和治理體系”,為人工智能立法和治理體系完善明確了方向。

(二)信息內(nèi)容管理定位及立法

新一代人工智能尤其是ChatGPT所具備的內(nèi)容生成能力,使得從互聯(lián)網(wǎng)信息內(nèi)容管理角度來(lái)界定和規(guī)范人工智能成為另一種立法思路。在ChatGPT推出之后不到一年,我國(guó)互聯(lián)網(wǎng)治理主管部門迅速出臺(tái)《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱為《暫行辦法》),被學(xué)者稱為世界上第一個(gè)生成式人工智能法律規(guī)范。(張凌寒:《中國(guó)需要一部怎樣的〈人工智能法〉?——中國(guó)人工智能立法的基本邏輯與制度架構(gòu)》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2024年第3期,第3-17頁(yè)。)迄今為止,尚未有任何其他主要國(guó)家從這個(gè)角度來(lái)定位和規(guī)范人工智能。通過(guò)與《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》和《生成式人工智能服務(wù)安全基本要求》(以下簡(jiǎn)稱《安全基本要求》)等法律和規(guī)范性文件銜接,《暫行辦法》對(duì)我國(guó)人工智能的管理部門、執(zhí)法主體、法律依據(jù)、執(zhí)法程序、法律責(zé)任等予以明確,突出體現(xiàn)了生成內(nèi)容全覆蓋、生成過(guò)程全流程管理兩大特點(diǎn)。

按照《暫行辦法》第2條,利用生成式人工智能技術(shù)向我國(guó)境內(nèi)公眾提供生成文本、圖片、音頻、視頻等內(nèi)容的服務(wù)均屬于其適用范圍。2023年4月發(fā)布的《暫行辦法(征求意見稿)》第6條規(guī)定,利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)向國(guó)家網(wǎng)信部門申報(bào)安全評(píng)估,并履行算法備案和變更、注銷備案手續(xù)。這一規(guī)定體現(xiàn)了將生成式人工智能服務(wù)提供者作為信息內(nèi)容生產(chǎn)者管理的基本思路。這一條經(jīng)修改后成為《暫行辦法》第17條,并加上一個(gè)申報(bào)安全評(píng)估和備案的前提條件——“具有輿論屬性或者社會(huì)動(dòng)員能力”。但是,第17條恰恰說(shuō)明不具備前提條件的人工智能服務(wù)仍然在該規(guī)章適用范圍內(nèi),只是不需要申報(bào)安全評(píng)估和備案。由于輿論屬性或者社會(huì)動(dòng)員能力的標(biāo)準(zhǔn)與范圍均具有一定的模糊性,目前大模型備案實(shí)踐中,是否需要備案,需要與主管部門咨詢溝通,面向公眾的大模型均可能被認(rèn)為具有輿論屬性或者社會(huì)動(dòng)員能力。

我國(guó)對(duì)于互聯(lián)網(wǎng)信息內(nèi)容有成熟的管理經(jīng)驗(yàn),《暫行辦法》將預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng)納入管理范圍,構(gòu)筑事前、事中、事后全流程管理的整套制度,包括法治與其他手段并用、部門分工負(fù)責(zé)、分類分級(jí)監(jiān)管、社會(huì)共治、嚴(yán)格平臺(tái)責(zé)任、注重未成年人保護(hù)、強(qiáng)化安全評(píng)估與備案、違法內(nèi)容處置、加強(qiáng)對(duì)境外服務(wù)的管理、嚴(yán)格法律責(zé)任追究等。盡管《暫行辦法》囿于立法權(quán)限只能要求大模型安全評(píng)估和算法備案,但《安全基本要求》通過(guò)嚴(yán)格的規(guī)定,實(shí)際上使安全評(píng)估成為事實(shí)上的事前審批。(根據(jù)國(guó)家網(wǎng)信辦官網(wǎng)發(fā)布的信息,截止2024年4月2日,通過(guò)大模型備案(安全評(píng)估)的共117件;而通過(guò)深度合成服務(wù)算法備案僅第五批就有394件。兩個(gè)數(shù)據(jù)之間的差別說(shuō)明,部分大模型服務(wù)提供者不能通過(guò)大模型備案。)并且,《安全基本要求》將管理環(huán)節(jié)從應(yīng)用向研發(fā)延伸,比以往的全流程管理鏈條更長(zhǎng)。比如,面向特定語(yǔ)料來(lái)源進(jìn)行采集之前與之后,應(yīng)當(dāng)對(duì)該來(lái)源語(yǔ)料進(jìn)行安全評(píng)估或核驗(yàn),語(yǔ)料內(nèi)容中含違法不良信息超過(guò)5%的,不應(yīng)采集該來(lái)源語(yǔ)料或使用該語(yǔ)料進(jìn)行訓(xùn)練;如需基于第三方基礎(chǔ)模型提供服務(wù),應(yīng)使用已經(jīng)主管部門備案的基礎(chǔ)模型等。

科技、產(chǎn)業(yè)發(fā)展定位的現(xiàn)行規(guī)定主要是鼓勵(lì)類、促進(jìn)類柔性政策文件,高層級(jí)立法尚未啟動(dòng)。相比之下,《暫行辦法》已經(jīng)形成從法律、規(guī)章到技術(shù)文件一整套較為完備的規(guī)范體系,對(duì)相關(guān)主體更有現(xiàn)實(shí)意義和影響力。

三、信息內(nèi)容管理定位的問(wèn)題分析

(一)信息內(nèi)容管理定位的由來(lái)

ChatGPT出現(xiàn)前后,(對(duì)于2022年11月ChatGPT出現(xiàn)之前AIGC發(fā)展線索的勾勒,參見李白楊、白云,詹希旎、李綱 :《人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進(jìn)》,載《圖書情報(bào)知識(shí)》2023年第1期,第66-74頁(yè)。)國(guó)外出現(xiàn)的幾起深度偽造名人的網(wǎng)絡(luò)事件,引發(fā)各界高度關(guān)注?!稌盒修k法(征求意見稿)》發(fā)布前后,法學(xué)界較為密集地發(fā)表了一批討論信息內(nèi)容與意識(shí)形態(tài)安全方面的研究論文,這些論文的關(guān)注重點(diǎn)與之前對(duì)人工智能生成內(nèi)容的研究有明顯的差異。(人工智能生成內(nèi)容在ChatGPT出現(xiàn)之前已經(jīng)存在,自2017年以來(lái)持續(xù)進(jìn)行研究的主題主要分為四類:一是人工智能生成內(nèi)容的權(quán)利屬性解讀;二是人工智能生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)研究;三是人工智能生成內(nèi)容的技術(shù)開發(fā)與應(yīng)用;四是人工智能生成內(nèi)容的價(jià)值評(píng)定與風(fēng)險(xiǎn)防范。參見楊敏然、張新興、陶榮湘:《現(xiàn)狀與趨勢(shì):國(guó)內(nèi)人工智能生成內(nèi)容(AIGC)研究透視》,載《圖書館理論與實(shí)踐》2024年第2期,第56-65頁(yè)。)

有學(xué)者擔(dān)心,“由于大模型具有的重大影響及其本身難以克服的局限性,可能會(huì)給信息內(nèi)容治理帶來(lái)顯著風(fēng)險(xiǎn)”(支振鋒:《生成式人工智能大模型的信息內(nèi)容治理》,載《政法論壇》2023年第4期,第34-48頁(yè)。)。有學(xué)者憂慮,“以ChatGPT為代表的生成式人工智能基于西方價(jià)值觀和思維導(dǎo)向建立,其回答也通常迎合西方立場(chǎng)和喜好,可能導(dǎo)致意識(shí)形態(tài)滲透”(商建剛:《生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究》,載《東方法學(xué)》2023年第3期,第4-17頁(yè)。)。有學(xué)者認(rèn)為,人工智能生成內(nèi)容的主要風(fēng)險(xiǎn)“很大程度上來(lái)源于生成式人工智能被用于‘深度偽造’的能力”(姚志偉、李卓霖:《生成式人工智能內(nèi)容風(fēng)險(xiǎn)的法律規(guī)制》,載《西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第5期,第147-160頁(yè)。)。有學(xué)者強(qiáng)調(diào),“生成式人工智能可以通過(guò)其強(qiáng)大的算力合成假文章、生成假新聞等制造各種事實(shí)性錯(cuò)誤,此外,不法人員會(huì)通過(guò)利用深度合成技術(shù)生成的虛假信息,來(lái)實(shí)施侮辱誹謗、造謠傳謠、侵犯?jìng)€(gè)人隱私甚至是通過(guò)深度合成技術(shù)仿冒他人實(shí)施詐騙等行為,嚴(yán)重?cái)_亂網(wǎng)絡(luò)傳播秩序和社會(huì)秩序,這些因人工智能生成內(nèi)容導(dǎo)致的濫用風(fēng)險(xiǎn)給當(dāng)前的網(wǎng)絡(luò)治理工作帶來(lái)了極大的困難”(畢文軒:《生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角》,載《比較法研究》2023年第3期,第155-172頁(yè)。)。有學(xué)者斷言,“ChatGPT等生成式人工智能在掌握先進(jìn)技術(shù)基礎(chǔ)上誘發(fā)了一系列輻射廣泛、滲透全面、不易掌控的意識(shí)形態(tài)風(fēng)險(xiǎn)”(代金平、覃楊楊:《ChatGPT等生成式人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)及其應(yīng)對(duì)》,載《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第5期,第101-110頁(yè)。)。

對(duì)于類似研究結(jié)論,已經(jīng)有學(xué)者指出,有關(guān)風(fēng)險(xiǎn)的研究與預(yù)測(cè)“大多還是停留于猜想和假設(shè)階段,尚未實(shí)際發(fā)生,關(guān)于這些風(fēng)險(xiǎn)的發(fā)生概率同樣未有定論”(趙精武:《生成式人工智能應(yīng)用風(fēng)險(xiǎn)治理的理論誤區(qū)與路徑轉(zhuǎn)向》,載《荊楚法學(xué)》2023年第3期,第47-58頁(yè)。)。其實(shí),如果將我國(guó)對(duì)境外大模型的管理制度納入考慮,很多悲觀預(yù)測(cè)基本是出于想象。在大是大非問(wèn)題上,國(guó)內(nèi)大模型服務(wù)提供者不可能有半點(diǎn)疏忽。然而,學(xué)術(shù)界的這種擔(dān)心,一定程度反映著全社會(huì)面對(duì)陌生事物的共同焦慮和不安,也直接催生了信息內(nèi)容管理定位的形成。

(二)信息內(nèi)容管理定位的問(wèn)題分析

大模型的核心技術(shù)機(jī)制,在于通過(guò)從語(yǔ)料中學(xué)習(xí)到的規(guī)律(在數(shù)學(xué)上就是概率)來(lái)生成文字,“本質(zhì)上,機(jī)器學(xué)習(xí)系統(tǒng)就是進(jìn)行觀察和預(yù)測(cè)的程序”([美]哈爾·阿伯爾森、肯·勒迪恩、哈里·劉易斯、溫蒂·塞爾澤:《數(shù)字謎城:數(shù)字時(shí)代下的生活、自由和幸?!罚愵?zhàn)g,現(xiàn)代出版社2022年版,第343頁(yè)。)。這樣,就可能會(huì)生成符合規(guī)律(可能性)但不符合現(xiàn)實(shí)的內(nèi)容,也就是這個(gè)領(lǐng)域常說(shuō)的幻覺(Hallucination),而幻覺只能降低不能完全消除。加上受限于發(fā)展階段、語(yǔ)料的數(shù)量與質(zhì)量等各方面條件的限制,大模型發(fā)展之初生成內(nèi)容的準(zhǔn)確性、可靠性不可能盡善盡美,“一本正經(jīng)地胡說(shuō)八道”現(xiàn)象不可避免。

在我國(guó),信息內(nèi)容安全有比較明確的共識(shí)和邊界,核心是意識(shí)形態(tài)安全,集中體現(xiàn)為《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》所界定的20類“違法不良”信息。上海交通大學(xué)清源研究院生成式人工智能研究組2023年曾經(jīng)評(píng)估國(guó)內(nèi)八家國(guó)產(chǎn)大模型在生成內(nèi)容真實(shí)性方面的表現(xiàn),發(fā)現(xiàn)國(guó)產(chǎn)大模型在回答問(wèn)題時(shí)存在捏造事實(shí)和過(guò)度迎合用戶的現(xiàn)象。例如,虛構(gòu)不存在的法律條款來(lái)回答用戶的法律咨詢,編造疾病的治療方案來(lái)回復(fù)患者(王彬杰、Ethan Chern、劉鵬飛:《8家國(guó)產(chǎn)大模型,內(nèi)容真實(shí)性如何?》,載虎嗅網(wǎng)2023年9月15日,https://m.huxiu.com/article/2058815.html?collection_id=139&type=text&visit_source=home_page。)。有學(xué)者測(cè)評(píng)發(fā)現(xiàn)“ChatGPT更容易出現(xiàn)中文的常識(shí)性和知識(shí)性錯(cuò)誤”,“ChatGPT可能編造虛假信息,并且其輸出通常是真實(shí)信息與虛假信息的混合”(張華平、李林翰、李春錦:《ChatGPT中文性能測(cè)評(píng)與風(fēng)險(xiǎn)應(yīng)對(duì)》,載《數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn)》2023第3期,第16-25頁(yè)。)。不過(guò),仔細(xì)分析類似測(cè)評(píng)報(bào)告可以發(fā)現(xiàn),測(cè)評(píng)中發(fā)現(xiàn)的這些問(wèn)題絕大部分并不屬于違法不良信息,而是技術(shù)能力不成熟導(dǎo)致的回答不正確現(xiàn)象。隨著技術(shù)的成熟,技術(shù)本身就能夠很大程度上解決這些問(wèn)題。將大模型存在的準(zhǔn)確性、可靠性問(wèn)題全都?xì)w為信息內(nèi)容風(fēng)險(xiǎn),明顯存在對(duì)風(fēng)險(xiǎn)程度的夸大。

由于網(wǎng)絡(luò)信息來(lái)源的多樣性,包括各種網(wǎng)絡(luò)百科在內(nèi)的網(wǎng)絡(luò)信息,都是不同用戶提供的。傳統(tǒng)搜索引擎搜索出來(lái)的結(jié)果,并不能保證每條信息的準(zhǔn)確性和可靠性,網(wǎng)絡(luò)用戶必須結(jié)合其他信息來(lái)源、生活常識(shí)等做出判斷與選擇。即使官方發(fā)布的信息,也只是“信息”,而并不是一定事實(shí)。對(duì)于大模型的準(zhǔn)確性與可靠性,服務(wù)提供者有強(qiáng)烈的內(nèi)在激勵(lì)去不斷完善,以形成自己的核心競(jìng)爭(zhēng)力。人工智能預(yù)訓(xùn)練語(yǔ)言模型的發(fā)展呈指數(shù)型增強(qiáng),參數(shù)規(guī)模的增長(zhǎng)也呈現(xiàn)這種規(guī)律。雙指數(shù)型增長(zhǎng)意味著改進(jìn)的速度非常快,“開始的時(shí)候增長(zhǎng)速度很慢,幾乎不被覺察,但是一旦超越曲線的拐點(diǎn),它便以爆炸性的速度增長(zhǎng)”([美]Ray Kurzweil著:《奇點(diǎn)臨近》,李慶誠(chéng)、董振華、田源譯,機(jī)械工業(yè)出版社2011年版,第3頁(yè)。)。將對(duì)信息內(nèi)容管理的特定要求延伸適用于所有生成內(nèi)容,不但存在以偏概全的前提缺陷,也會(huì)抑制或者阻斷服務(wù)提供者的內(nèi)在激勵(lì)。人工智能需要盡可能擴(kuò)大語(yǔ)料來(lái)源和規(guī)模,在不斷的訓(xùn)練中提高準(zhǔn)確性和可靠性?!栋踩疽蟆愤m用于所有生成內(nèi)容,生成過(guò)程全流程管理,會(huì)導(dǎo)致合法合規(guī)訓(xùn)練數(shù)據(jù)不全面甚至枯竭,更加遠(yuǎn)離提高準(zhǔn)確性和可靠性的目標(biāo)。在國(guó)際地緣政治格局發(fā)生巨大變化的背景下,這些只適用于國(guó)內(nèi)大模型的管理措施,還會(huì)拉大國(guó)內(nèi)外人工智能發(fā)展的差距。

信息內(nèi)容管理完全不同于科技經(jīng)濟(jì)管理,將人工智能生成內(nèi)容全部納入信息內(nèi)容管理,會(huì)進(jìn)一步加劇近年來(lái)網(wǎng)絡(luò)安全與信息化領(lǐng)域推薦性標(biāo)準(zhǔn)強(qiáng)制化、技術(shù)文件效力法律化、備案成為事實(shí)上的許可、法律救濟(jì)2+FTFPGtRG0BqcVwJB1pyw==途徑收窄、不同管理措施疊加等一系列問(wèn)題,影響營(yíng)商環(huán)境和市場(chǎng)主體信心。由于人工智能科技創(chuàng)新的特點(diǎn),由管理部門事前審批并不合適(通過(guò)侵權(quán)法而不是直接監(jiān)管,可以激勵(lì)人工智能開發(fā)者整合安全特性、內(nèi)部化外部成本、避免抑制創(chuàng)新。See Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, Harvard Journal of Law & Technology,Vol. 29:2, p. 353-400(2016).)。管理重心全部聚焦于信息內(nèi)容管理,還會(huì)使人工智能產(chǎn)生的大量新型風(fēng)險(xiǎn)游離于決策視野之外。因此,完善人工智能治理體系,必須按照黨的二十屆三中全會(huì)決定“完善生成式人工智能發(fā)展和管理機(jī)制”的要求,嚴(yán)格界定信息內(nèi)容管理的領(lǐng)域,實(shí)現(xiàn)信息內(nèi)容管理與科技經(jīng)濟(jì)管理的分離,以實(shí)現(xiàn)治理機(jī)制的精準(zhǔn)化、科學(xué)化。

(三)生成式人工智能為違法不良信息治理帶來(lái)前所未有的機(jī)會(huì)

如前所述,進(jìn)入自媒體時(shí)代之后,人人都是“總編輯”,內(nèi)容生產(chǎn)從傳統(tǒng)的PGC(Professional-Generated Content,專業(yè)生產(chǎn)內(nèi)容)向UGC(UserGenerated Content,用戶生產(chǎn)內(nèi)容)轉(zhuǎn)變,通過(guò)作為雙邊市場(chǎng)的平臺(tái)進(jìn)行傳播。由于用戶數(shù)量巨大,違法不良信息難以追溯,即使追溯到也很難問(wèn)責(zé)。正是在這種背景下,我國(guó)設(shè)立網(wǎng)信部門并以平臺(tái)主體責(zé)任為中心全面構(gòu)建網(wǎng)絡(luò)綜合治理體系。然而,由于平臺(tái)主體責(zé)任屬于第三方責(zé)任,在流量經(jīng)濟(jì)的誘惑下,平臺(tái)難免會(huì)以技術(shù)能力不足等各種理由打“擦邊球”。

生成式人工智能的出現(xiàn),使內(nèi)容生產(chǎn)再次發(fā)生根本性變化,從UGC向AIGC(Artificial Intelligence Generated Content,人工智能生成內(nèi)容)轉(zhuǎn)變。由數(shù)量有限的大模型生成內(nèi)容,某些特征更類似于重新回歸到PGC時(shí)代,大模型成為“下一代網(wǎng)絡(luò)入口”和“超級(jí)媒介”。(喻國(guó)明:《AIGC傳播時(shí)代》,中譯出版社2024年版,第20頁(yè)。)大模型向使用者提供服務(wù),不具有雙邊市場(chǎng)特征,不能再打“擦邊球”。由于需要巨大的投入與技術(shù)能力支撐,基礎(chǔ)大模型的數(shù)量會(huì)非常少,垂直應(yīng)用大模型的數(shù)量會(huì)多一些。無(wú)論如何,相比于海量的自媒體用戶,大模型服務(wù)提供者的數(shù)量有限,執(zhí)法部門完全有能力監(jiān)管這些主體并發(fā)現(xiàn)違法行為。并且,與小范圍編造、傳播違法不良信息

難以被追究違法責(zé)任的自媒體用戶相比,大模型生成違法不良信息一旦被追溯到會(huì)面臨嚴(yán)重的違法后果,被追究直接責(zé)任而不是第三方責(zé)任。這樣,大模型服務(wù)提供者會(huì)內(nèi)生防范違法不良信息的強(qiáng)大動(dòng)力,主動(dòng)呵護(hù)大模型。(2023年9月,微軟對(duì)用戶使用微軟Copilot服務(wù)的知識(shí)產(chǎn)權(quán)糾紛發(fā)布支持承諾,如果微軟的商業(yè)用戶因?yàn)槭褂肅opilot或者微軟AIGC服務(wù)產(chǎn)生的作品被控侵犯版權(quán),只要客戶使用產(chǎn)品中內(nèi)置的安全措施和內(nèi)容過(guò)濾器,微軟將為客戶出庭辯護(hù),并支付任何不利判決引發(fā)的賠償或和解費(fèi)用。)即使大模型因?yàn)榧夹g(shù)不成熟或者使用者的惡意誘導(dǎo)、攻擊生成一些違法內(nèi)容,受眾只是終端使用者。終端使用者如果將生成內(nèi)容加以傳播,不但會(huì)受到現(xiàn)行網(wǎng)絡(luò)綜合治理體系的約束,還會(huì)自我暴露其惡意誘導(dǎo)、攻擊行為。內(nèi)容生產(chǎn)的這些根本性變化,為實(shí)現(xiàn)黨的二十屆三中全會(huì)決定提出的“推進(jìn)新聞宣傳和網(wǎng)絡(luò)輿論一體化管理”提供了有利的外部條件。

從美國(guó)和歐盟的經(jīng)驗(yàn)來(lái)看,新的管理方式主要是兩種,一種是要求大模型對(duì)其生成內(nèi)容加標(biāo)識(shí)(水?。硪环N是引入對(duì)抗式的“紅隊(duì)”機(jī)制。對(duì)大模型生成的圖片、音頻、視頻、文本等添加標(biāo)識(shí),尊重大模型使用者和其他網(wǎng)絡(luò)用戶的知情權(quán),使其知曉生成或者再次傳播的生成內(nèi)容屬于合成信息而非事實(shí)本身,由此使生成內(nèi)容帶上“自凈”功能。添加標(biāo)識(shí)有助于執(zhí)法部門對(duì)各種生成內(nèi)容溯源并問(wèn)責(zé),維護(hù)市場(chǎng)秩序與社會(huì)秩序。(帕斯奎勒教授認(rèn)為,標(biāo)識(shí)機(jī)制相當(dāng)于機(jī)器人第四定律,對(duì)于問(wèn)責(zé)不可或缺。See Frank Pasquale, Toward a Fourth Law of Robotics: Preserving Attribution, Responsibility, and Explainability in an Algorithmic Society, Ohio State Law Journal,Vol.78:5,p.1143-1255(2017).)對(duì)于大模型服務(wù)提供者而言,添加標(biāo)識(shí)能提升生成內(nèi)容的辨識(shí)度和市場(chǎng)影響力,并不完全是負(fù)擔(dān),也會(huì)有相應(yīng)的收益。(正因?yàn)槿绱?,美?guó)政府在2023年7月宣布與包括OpenAI和Google在內(nèi)的七家主要人工智能公司達(dá)成“自愿承諾”,這些公司承諾增加對(duì)水印研究的投資。2023年5月9日,我國(guó)抖音平臺(tái)發(fā)布《抖音關(guān)于人工智能生成內(nèi)容的平臺(tái)規(guī)范暨行業(yè)倡議》,要求為用戶提供人工智能生成內(nèi)容水印功能,以區(qū)分機(jī)器生成作品與人類作品。)

2023年,美國(guó)總統(tǒng)拜登發(fā)布14110號(hào)人工智能行政命令,強(qiáng)調(diào)“本屆政府會(huì)幫助開發(fā)有效的標(biāo)識(shí)和內(nèi)容溯源機(jī)制,以便美國(guó)人民能夠判斷內(nèi)容什么時(shí)候是由人工智能生成的,什么時(shí)候不是。這些措施會(huì)奠定極其重要的基礎(chǔ),既解決人工智能帶來(lái)的風(fēng)險(xiǎn)又不過(guò)分降低其好處”(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, The White House(Oct.30, 2023), https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.)。歐盟在制定人工智能法過(guò)程中認(rèn)識(shí)到,“各種人工智能系統(tǒng)會(huì)產(chǎn)生大量的合成內(nèi)容,使人類越來(lái)越難以與人類生成的和真實(shí)的內(nèi)容區(qū)分開來(lái)。這些系統(tǒng)的廣泛可用性和不斷增強(qiáng)的能力對(duì)信息生態(tài)系統(tǒng)的完整性和信任產(chǎn)生重大影響,增加錯(cuò)誤信息和大規(guī)模操縱、欺詐、假冒和消費(fèi)者欺騙的新風(fēng)險(xiǎn)”(Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, EUR-Lex(Apr.21, 2021), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206.)。為此,歐盟《人工智能法》第52條1a款規(guī)定,“生成合成類音頻、圖片、視頻或者文本內(nèi)容的人工智能系統(tǒng)(包括通用人工智能系統(tǒng))提供者,應(yīng)保證人工智能系統(tǒng)的輸出以機(jī)器可讀的格式進(jìn)行標(biāo)識(shí)并可發(fā)現(xiàn)為人工生成或控制”。第52條第3款規(guī)定,“生成或者控制面向公眾發(fā)布、關(guān)涉公共利益事務(wù)文本的人工智能系統(tǒng)部署者應(yīng)披露其文本為人工生成或控制”。另外,對(duì)于高風(fēng)險(xiǎn)的人工智能系統(tǒng),歐盟《人工智能法》第49條還詳細(xì)規(guī)定了對(duì)系統(tǒng)添加評(píng)估合格標(biāo)識(shí)的要求。對(duì)生成內(nèi)容添加標(biāo)識(shí),發(fā)揮其自凈、溯源與激勵(lì)等多重功能,是自媒體時(shí)代無(wú)法想象的治理機(jī)制。

“紅隊(duì)”機(jī)制類似于信息與網(wǎng)絡(luò)安全領(lǐng)域的“白帽子黑客”,通過(guò)第三方機(jī)構(gòu)或者執(zhí)法部門的對(duì)抗式檢測(cè),驗(yàn)證大模型是否存在安全漏洞或者違法違規(guī)行為。(對(duì)“紅隊(duì)”機(jī)制作用機(jī)理與有效性的實(shí)證研究,see Deep Ganguli et al., Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned, arXiv(Aug.23, 2022), https://arxiv.org/abs/2209.07858.)不同于一般的行政監(jiān)督檢查,紅隊(duì)機(jī)制的目的在于改善大模型安全性能,增強(qiáng)對(duì)社會(huì)的透明度,消除公眾顧慮,構(gòu)建共治體系。因此,這一機(jī)制會(huì)廣泛調(diào)動(dòng)盡可能多的產(chǎn)業(yè)力量從社會(huì)視角加入到安全治理,構(gòu)建開放而非封閉的治理體系,共同防范各種已知或者未知科技風(fēng)險(xiǎn)。美國(guó)總統(tǒng)行政命令的解釋是,“人工智能‘紅隊(duì)’機(jī)制通常由專門的‘紅隊(duì)’采用對(duì)抗方式執(zhí)行,以發(fā)現(xiàn)人工智能系統(tǒng)諸如有害或者歧視性產(chǎn)出、不可預(yù)測(cè)或者不理想的系統(tǒng)行為、局限或者與系統(tǒng)濫用有關(guān)的潛在風(fēng)險(xiǎn)等漏洞與弱點(diǎn)”。歐盟《人工智能法》附件IXa第二條第4款也規(guī)定“紅隊(duì)”對(duì)抗測(cè)試(red-teaming test)方式。對(duì)大模型進(jìn)行持續(xù)的對(duì)抗式檢測(cè),這也是自媒體時(shí)代無(wú)法想象的治理機(jī)制。

按照政府監(jiān)管理論和成功監(jiān)管實(shí)踐,不同監(jiān)管手段之間存在很強(qiáng)的替代效應(yīng),監(jiān)管手段并不是同時(shí)采用越多越好,更不宜將不同監(jiān)管手段都疊加到一起使用。將可相互替代的監(jiān)管手段疊加到一起使用,不但不能增加合力,反而可能會(huì)相互抵消。標(biāo)識(shí)機(jī)制本質(zhì)上屬于以信息公開透明替代事前審批的現(xiàn)代監(jiān)管手段,(

對(duì)“以風(fēng)險(xiǎn)披露助推”的監(jiān)管理論分析,參見劉鵬、張崳楠、王力:《基于風(fēng)險(xiǎn)的政府監(jiān)管:理論發(fā)展與實(shí)踐應(yīng)用》,載《中國(guó)行政管理》2024年第3期,第111-124頁(yè)。)其作用機(jī)理是通過(guò)標(biāo)識(shí)對(duì)服務(wù)提供者形成信息制約與社會(huì)共治機(jī)制,(阿西莫夫機(jī)器人三定律針對(duì)的是機(jī)器人,沒有針對(duì)背后的設(shè)計(jì)者、部署者、運(yùn)營(yíng)者。對(duì)機(jī)器人運(yùn)營(yíng)者施加信義義務(wù)、透明度要求的理論分析,See Jack M. Balkin, 2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data,Ohio State Law Journal,Vol. 78:5, p.1217-1241(2017).)以替代政府機(jī)關(guān)的事前許可。最為典型的標(biāo)識(shí)機(jī)制在一些國(guó)家的食品安全領(lǐng)域尤其是轉(zhuǎn)基因食品領(lǐng)域較多采用。(美國(guó)對(duì)于轉(zhuǎn)基因農(nóng)產(chǎn)品的標(biāo)識(shí)監(jiān)管機(jī)制分析,see Agricultural Biotechnology: Overview, Regulation, and Selected Policy Issues,Congressional Research Service(Mar.29, 2021), https://crsreports.congress.gov/product/pdf/R/R46737.)由于各界對(duì)食品健康短期及長(zhǎng)期影響等問(wèn)題存在爭(zhēng)議,并不適宜采用事前許可機(jī)制,而是強(qiáng)制要求企業(yè)添加標(biāo)識(shí),提供重要信息,由消費(fèi)者自己做出選擇,出現(xiàn)食品安全問(wèn)題后通過(guò)諸如追究大額損害賠償責(zé)任等事后機(jī)制形成威懾。同樣的道理,有些國(guó)家考慮到消費(fèi)者認(rèn)知水平、市場(chǎng)發(fā)育程度、執(zhí)法資源與能力等因素,會(huì)在食品領(lǐng)域采用事前許可而不是標(biāo)識(shí)機(jī)制。不能獲得事前許可一概不得進(jìn)入市場(chǎng),相當(dāng)于由政府機(jī)關(guān)代替消費(fèi)者把關(guān)。

我國(guó)最近幾年一直在引入和推行深度合成內(nèi)容的標(biāo)識(shí)機(jī)制。《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第16條要求深度合成服務(wù)提供者對(duì)使用其服務(wù)“生成或者編輯的信息內(nèi)容”,應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí)。在推進(jìn)這項(xiàng)工作的過(guò)程中,業(yè)界反映文本因?yàn)樵夹畔⒘刻〖虞d標(biāo)識(shí)有困難,對(duì)音頻、圖片、視頻加載標(biāo)識(shí)的積極性也不高。作為妥協(xié),《暫行辦法》第12條規(guī)定,提供者應(yīng)當(dāng)對(duì)“圖片、視頻等”生成內(nèi)容進(jìn)行標(biāo)識(shí),等于放松了對(duì)文本和音頻的要求。這樣的妥協(xié)不但使兩個(gè)規(guī)章的表述與適用范圍不一致,也折射出業(yè)界對(duì)于標(biāo)識(shí)工作的積極性不夠。

業(yè)界積極性不夠,客觀上是因?yàn)樘砑訕?biāo)識(shí)在技術(shù)上有一定的難度,會(huì)增加企業(yè)的成本。不過(guò),在《暫行辦法》《安全基本要求》確立的生成過(guò)程全流程管理制度之下,即使業(yè)界投入大量資源開發(fā)、采用標(biāo)識(shí)機(jī)制,仍然不能豁免諸如備案、語(yǔ)料安全等各種硬性義務(wù)。這樣,業(yè)界對(duì)于標(biāo)識(shí)機(jī)制必然缺乏主動(dòng)性,只是被動(dòng)完成規(guī)定動(dòng)作,甚至找各種難以執(zhí)行的理由。管理部門疊床架屋的要求,尤其會(huì)對(duì)新進(jìn)入者、初創(chuàng)企業(yè)產(chǎn)生難以承受的合規(guī)負(fù)擔(dān)。另一方面,造成管理部門層層疊加管理手段這樣的局面,也有少數(shù)企業(yè)合規(guī)意識(shí)不強(qiáng)的原因,迫使管理部門不斷加碼。最后,業(yè)界越不愿意主動(dòng)采取合規(guī)措施,管理部門就會(huì)越偏向采用更為嚴(yán)格、全面的管理手段;管理部門越采用更為嚴(yán)格、全面的管理手段,業(yè)界就越?jīng)]有激勵(lì)采取主動(dòng)合規(guī)措施。要跳出這種惡性循環(huán),就要遵循激勵(lì)相容的行政管理基本原理,區(qū)分事前、事中與事后機(jī)制并處理好相互之間的關(guān)系,體現(xiàn)事后機(jī)制優(yōu)先、信息披露等柔性機(jī)制優(yōu)先等基本原則,(“在傳播領(lǐng)域,自愿披露應(yīng)該優(yōu)先被考慮”。[美]凱斯·桑斯坦:《標(biāo)簽:社交媒體時(shí)代的眾聲喧嘩》,陳頎、孫競(jìng)超譯,中國(guó)民主法制出版社2021年版,第278頁(yè)。)使標(biāo)識(shí)機(jī)制成為全流程管理的有效替代。(人工智能背景下以“助推”推動(dòng)監(jiān)管創(chuàng)新的論述,see Michael Guihot, Anne F. Matthew & Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, Vanderbilt Journal of Entertainment and Technology Law ,Vol. 20:2, p.385-456(2017).)如果服務(wù)提供者能夠采用標(biāo)識(shí)機(jī)制,就不需要疊加其他的硬性管理制度。

可見,用信息內(nèi)容管理定位和規(guī)范人工智能,將互聯(lián)網(wǎng)治理經(jīng)驗(yàn)平移到人工智能領(lǐng)域,相當(dāng)于將新質(zhì)生產(chǎn)力納入上層建筑管理,必然產(chǎn)生各種錯(cuò)配現(xiàn)象。在生產(chǎn)力與生產(chǎn)關(guān)系、經(jīng)濟(jì)基礎(chǔ)與上層建筑二元?jiǎng)澐值目蚣芟?,人工智能只能納入科技、產(chǎn)業(yè)發(fā)展的新質(zhì)生產(chǎn)力范疇進(jìn)行定位,以推動(dòng)科技創(chuàng)新和產(chǎn)業(yè)創(chuàng)新深度融合。有必要更加重視互聯(lián)網(wǎng)治理與人工智能治理的差異,在區(qū)分信息內(nèi)容管理與科技經(jīng)濟(jì)管理的基礎(chǔ)上,按照黨的二十屆三中全會(huì)決定“健全因地制宜發(fā)展新質(zhì)生產(chǎn)力體制機(jī)制”的要求,推進(jìn)人工智能治理體系改革與法治建設(shè)。正如有學(xué)者指出的,“人工智能的立法基礎(chǔ)和路徑,應(yīng)當(dāng)深入到科技法及其迭代發(fā)展的語(yǔ)境之中加以認(rèn)識(shí)”(龍衛(wèi)球:《科技法迭代視角下的人工智能立法》,載《法商研究》2020年第1期,第57-72頁(yè)。)。

四、人工智能立法的科學(xué)定位

新一代人工智能通常劃分為預(yù)訓(xùn)練和投入應(yīng)用兩個(gè)階段,以便高效開發(fā)和部署大模型。在預(yù)訓(xùn)練階段,大模型需要在大量數(shù)據(jù)上進(jìn)行訓(xùn)練讓模型學(xué)會(huì)生成或預(yù)測(cè)數(shù)據(jù)的一般性特征。在投入應(yīng)用階段,預(yù)訓(xùn)練好的模型被進(jìn)一步調(diào)整或微調(diào),用于各種生成任務(wù),如文本生成、圖像生成、音樂(lè)創(chuàng)作、數(shù)據(jù)增強(qiáng)等。

(一)預(yù)訓(xùn)練階段的問(wèn)題及法律定位

預(yù)訓(xùn)練階段,核心是數(shù)據(jù)。OpenAI公司預(yù)訓(xùn)練大語(yǔ)言模型GPT-3,引入3000億單詞的訓(xùn)練語(yǔ)料,相當(dāng)于互聯(lián)網(wǎng)上所有英語(yǔ)文字的總和。利用互聯(lián)網(wǎng)海量的訓(xùn)練數(shù)據(jù),必然引發(fā)與數(shù)據(jù)權(quán)益人(最為典型的是版權(quán)人、個(gè)人信息主體)的各種權(quán)益沖突。如果訓(xùn)練數(shù)據(jù)都必須獲得作品著作權(quán)人許可、向其支付報(bào)酬、指明作者姓名或者作品名稱,或者,如果涉及個(gè)人信息的必須征得信息主體的同意甚至單獨(dú)同意,即使大型企業(yè)也很難做到,遑論初創(chuàng)企業(yè)。因此,需要從法律上為大模型訓(xùn)練數(shù)據(jù)提供依據(jù),否則整個(gè)人工智能產(chǎn)業(yè)發(fā)展無(wú)從談起。但是,也不能無(wú)視版權(quán)人、個(gè)人數(shù)據(jù)主體等合法權(quán)益人的權(quán)利保護(hù)需求。為此,必須在原則可用前提之下,為數(shù)據(jù)權(quán)益人留出技術(shù)可行情形下必要的例外排除機(jī)制,形成“原則可用、例外排除”的運(yùn)行結(jié)構(gòu)。從理論上分析,數(shù)據(jù)具有公共產(chǎn)品所具有的非獨(dú)占性、非排他性特點(diǎn)(See Michael Guihot, Anne F. Matthew & Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, Vanderbilt Journal of Entertainment and Technology Law,Vol. 20:2, p.385-456(2017).),從公開渠道爬取、使用、學(xué)習(xí)數(shù)據(jù),一般并不構(gòu)成對(duì)其他主體數(shù)據(jù)權(quán)益的侵犯。同時(shí),對(duì)海量已公開個(gè)人信息的大批量處理,通常不會(huì)產(chǎn)生識(shí)別特定個(gè)人的風(fēng)險(xiǎn)。

美國(guó)在大模型研發(fā)與應(yīng)用方面處于全球領(lǐng)先地位,除經(jīng)濟(jì)、技術(shù)實(shí)力以外,其版權(quán)法律制度對(duì)于合理使用、互操作的支持(參見周漢華:《互操作的意義及法律構(gòu)造》,載《中外法學(xué)》2023年第3期,第605-624頁(yè)。),政府機(jī)關(guān)公共檔案自由使用制度,政府?dāng)?shù)據(jù)開放制度等,客觀上都有利于訓(xùn)練數(shù)據(jù)的高效使用。美國(guó)學(xué)者清楚地意識(shí)到,如果美國(guó)法院不支持有利于機(jī)器學(xué)習(xí)的合理使用制度,創(chuàng)新就會(huì)轉(zhuǎn)移到其他國(guó)家或者完全停止。(Benjamin L. W. Sobel, Artificial Intelligence’s Fair Use Crisis, Columbia Journal of Law & the Arts, Vol. 41:1, p.45-97(2017).)可以預(yù)見,國(guó)際競(jìng)爭(zhēng)會(huì)加快制度演進(jìn)與擴(kuò)散趨勢(shì)。當(dāng)然,美國(guó)需要為“例外排除”提供法律依據(jù),尤其需要保護(hù)個(gè)人信息權(quán)利。歐盟為營(yíng)造有利于創(chuàng)新的法律環(huán)境,2019年修改版權(quán)指令,第3條、第4條既為科學(xué)研究目的進(jìn)行的文本與數(shù)據(jù)挖掘規(guī)定版權(quán)保護(hù)例外或限制,也為著作權(quán)所有者明確保留提供通道,正在朝“原則可用、例外排除”方向發(fā)展。歐盟《人工智能法》鑒于條款12c明確排除該法適用于投入部署或服務(wù)之前的研發(fā)、測(cè)試等活動(dòng),并明確將算法改進(jìn)當(dāng)做持續(xù)“學(xué)習(xí)”的過(guò)程,不構(gòu)成人工智能系統(tǒng)的重大改變,不需要再履行合規(guī)評(píng)估手續(xù),目的也是為推動(dòng)大模型發(fā)展。不過(guò),歐盟《一般數(shù)據(jù)保護(hù)條例》對(duì)已公開個(gè)人數(shù)據(jù)的處理要求非常嚴(yán)格,不利于訓(xùn)練數(shù)據(jù)的有效使用。(歐盟學(xué)者分析后指出,即使最強(qiáng)調(diào)個(gè)人數(shù)據(jù)保護(hù)的歐盟,也需要新的法律和倫理框架來(lái)迎接人工智能挑戰(zhàn)。See Robert van den Hoven van Genderen, Privacy and Data Protection in the Age of Pervasive Technologies in AI and Robotics, European Data Protection Law Review,Vol. 3, p.338-352(2017).)

我國(guó)《著作權(quán)法》缺乏對(duì)大規(guī)模訓(xùn)練數(shù)據(jù)原則可用的明確授權(quán),也缺乏政府?dāng)?shù)據(jù)開放和互操作的規(guī)定。在影響非常廣泛的“新浪微博訴脈脈不正當(dāng)競(jìng)爭(zhēng)糾紛案”中(參見北京市高級(jí)人民法院(2016)京73民終588號(hào)民事判決書。),法院采用的三重授權(quán)原則會(huì)進(jìn)一步抑制訓(xùn)練數(shù)據(jù)的有效爬取與利用?!栋踩疽蟆穼?duì)語(yǔ)料范圍的限制,更會(huì)實(shí)質(zhì)性限縮預(yù)訓(xùn)練數(shù)據(jù)的范圍。從比較視角來(lái)看,不論是原則可用還是例外排除,我國(guó)都有很多現(xiàn)實(shí)問(wèn)題需要解決(我國(guó)預(yù)訓(xùn)練數(shù)據(jù)存在的法律風(fēng)險(xiǎn)分析,參見吳靜:《生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)及其法律規(guī)制——以ChatGPT為例》,載《科技管理研究》2024年第5期,第192-198頁(yè)。),明顯滯后于美國(guó)、歐盟的制度建設(shè)。

(二)投入應(yīng)用階段的問(wèn)題及法律定位

投入應(yīng)用階段,面臨三個(gè)層面的法律問(wèn)題。首先,必須回答人工智能生成物應(yīng)如何定性,是否應(yīng)享有權(quán)利保護(hù),如果受保護(hù)誰(shuí)是權(quán)利人,造成侵害如何劃分責(zé)任等一系列基礎(chǔ)問(wèn)題。對(duì)這些基礎(chǔ)問(wèn)題的回答,會(huì)直接決定人工智能治理與立法的不同路徑。其次,自主智能的出現(xiàn),必然對(duì)歧視、隱私、安全、就業(yè)、教育、社會(huì)保障、法律程序、國(guó)際關(guān)系等各方面產(chǎn)生深刻的連鎖影響,“具有廣泛的社會(huì)溢出效應(yīng),在政治、經(jīng)濟(jì)、社會(huì)等各個(gè)領(lǐng)域都會(huì)帶來(lái)深刻變革”(賈開、蔣余浩:《人工智能治理的三個(gè)基本問(wèn)題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇》,載《中國(guó)行政管理》2017年第10期,第40-45頁(yè)。)。如何應(yīng)對(duì)這些分散的溢出問(wèn)題,需要全社會(huì)的廣泛討論。最后,自主智能的出現(xiàn),預(yù)示著更為強(qiáng)大的通用人工智能不再遙遠(yuǎn)。遠(yuǎn)超人類智能的通用人工智能一旦出現(xiàn),究竟會(huì)對(duì)人類文明帶來(lái)哪些方面的重大風(fēng)險(xiǎn),都是必須未雨綢繆的問(wèn)題。(“我一直在苦苦思考這個(gè)問(wèn)題。我們可以采取哪些行動(dòng)來(lái)最大限度地減少人工智能的風(fēng)險(xiǎn),確保人類意識(shí)的賡續(xù)?”參見[美]沃爾特·艾薩克森:《埃隆·馬斯克傳》,孫思遠(yuǎn)、劉家琦譯,中信出版社2023年版,第589頁(yè)。)國(guó)際上討論人工智能的風(fēng)險(xiǎn)與挑戰(zhàn),包括2023年3月美國(guó)麻省理工學(xué)院生命科學(xué)研究所發(fā)起的暫停大模型研發(fā)六個(gè)月的簽名運(yùn)動(dòng)等,多集中在最后這個(gè)層面。(“我們可能正在接近下一個(gè)奇點(diǎn),所有我們現(xiàn)在這個(gè)世界的意義都即將變得再也無(wú)關(guān)緊要。而在那個(gè)奇點(diǎn)之后的任何事,都還超出我們現(xiàn)在所能想象的”。參見[以色列]尤瓦爾·赫拉利∶《人類簡(jiǎn)史:從動(dòng)物到上帝》,林俊宏譯,中信出版集團(tuán)2017年第2版,第401頁(yè)。)

自主智能投入應(yīng)用帶來(lái)的問(wèn)題,充分反映前沿科技的復(fù)雜性和高度不確定性。從1956年國(guó)際社會(huì)開始采用人工智能概念開始,如何定義它就一直存有分歧。(智能體)機(jī)器人同樣也很難定義,有學(xué)者認(rèn)為有具身支持的才是機(jī)器人(比如,赫巴德教授將機(jī)器人的特點(diǎn)歸納為五個(gè),分別是:大小、可移動(dòng)、自主性、智能和互連。See F. Patrick Hubbard, “Sophisticated Robots”: Balancing Liability, Regulation, and Innovation, Florida Law Review, Vol. 66:5, p.1803-1872(2014).),但是,諸如ChatGPT這樣的智能體并不需要具身支撐,只是對(duì)話工具。因此,耶魯大學(xué)法學(xué)院波爾金教授專門解釋,“當(dāng)我談到機(jī)器人時(shí),我不僅會(huì)包括機(jī)器人——與環(huán)境相互作用的實(shí)物——還包括智能體與機(jī)器學(xué)習(xí)算法”。(Jack M. Balkin, 2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Ohio State Law Journal ,Vol. 78:5, p.1217-1241(2017).)

自主智能的投入應(yīng)用,會(huì)使人工智能的透明度與可解釋性成為必須回答的問(wèn)題。問(wèn)題在于,“更復(fù)雜的模型可以提供更好的性能,但往往比更簡(jiǎn)單的模型如決策樹更不容易解釋”(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.)。人工智能領(lǐng)域一篇非常有影響力的文章專門討論了深度學(xué)習(xí)模型的不透明性,即它們?nèi)绾螌W(xué)習(xí)到的信息分散存儲(chǔ),而不是以易于理解的方式集中存儲(chǔ),就是創(chuàng)建這些網(wǎng)絡(luò)的研究人員也難以完全理解它們的內(nèi)部工作機(jī)制;深度學(xué)習(xí)之外的其他人工智能方法可能更易于人類理解,但在處理復(fù)雜數(shù)據(jù)方面又不那么有效。(Davide Castelvecchi, Can we open the black box of AI?,Nature, Vol. 538:7623, p.20-23(2016).)

總體而言,預(yù)訓(xùn)練階段的問(wèn)題認(rèn)識(shí)相對(duì)已經(jīng)比較明確,各國(guó)措施正在趨同化,而投入應(yīng)用階段三個(gè)層面的問(wèn)題認(rèn)識(shí)分歧都非常大。比如,對(duì)于人工智能生成物是否應(yīng)該享有版權(quán)保護(hù)這一基礎(chǔ)問(wèn)題,我國(guó)知識(shí)產(chǎn)權(quán)法學(xué)界有截然不同的觀點(diǎn)。第一種觀點(diǎn)認(rèn)為機(jī)器不是法律保護(hù)的主體,因而不能將其生成物認(rèn)定為著作權(quán)客體;第二種觀點(diǎn)主張應(yīng)當(dāng)以生成內(nèi)容本身的獨(dú)創(chuàng)性來(lái)判斷其是否構(gòu)成作品,創(chuàng)作者身份不應(yīng)是作品受保護(hù)的構(gòu)成條件;還有各種折中觀點(diǎn)或解決方案。(張平:《人工智能生成內(nèi)容著作權(quán)合法性的制度難題及其解決路徑》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2024年第3期,第18-31頁(yè)。)國(guó)際上也一直有類似的爭(zhēng)論與解決方案討論。(Haochen Sun, Redesigning Copyright Protection in the Era of Artificial Intelligence, Iowa Law Review,Vol. 107:3, p.1213-1251(2022).)在我國(guó),贊同第二種觀點(diǎn)的學(xué)者更多,較為普遍地認(rèn)為“人工智能生成內(nèi)容的可版權(quán)性標(biāo)準(zhǔn)應(yīng)該從作者身份轉(zhuǎn)向獨(dú)創(chuàng)性”(李揚(yáng)、涂藤:《論人工智能生成內(nèi)容的可版權(quán)性標(biāo)準(zhǔn)》,載《知識(shí)產(chǎn)權(quán)》2024年第1期,第68-84頁(yè)。),并賦予其版權(quán)保護(hù)(專利權(quán)領(lǐng)域的同樣討論,參見管榮齊、王晶晶:《生成式人工智能的專利法律問(wèn)題思考》,載《南京郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2024年第2期,第37-46頁(yè)。)。

理論上的分歧,必然會(huì)映射到法律實(shí)踐中。我國(guó)司法實(shí)踐中,對(duì)于人工智能生成物的可版權(quán)性問(wèn)題,就出現(xiàn)過(guò)不同的判決。在菲林律師事務(wù)所訴百度公司著作權(quán)侵權(quán)案中(北京互聯(lián)網(wǎng)法院,(2018)京0491民初239號(hào)民事判決書;北京知識(shí)產(chǎn)權(quán)法院(2019)京73民終2030號(hào)民事判決書。),法院判決認(rèn)為自然人創(chuàng)造完成應(yīng)是著作權(quán)作品的必要條件。在騰訊公司訴盈訊公司侵害著作權(quán)及不正當(dāng)競(jìng)爭(zhēng)案中(深圳市南山區(qū)人民法院(2019)粵0305民初14010號(hào)民事判決書。),法院判決認(rèn)定涉案文章是由原告組織的主創(chuàng)團(tuán)隊(duì)利用人工智能軟件Dreamwriter完成。在李某訴劉某侵害信息網(wǎng)絡(luò)傳播權(quán)案中(該案也被稱為中國(guó)首例人工智能生成圖片著作權(quán)糾紛案)(北京互聯(lián)網(wǎng)法院(2023)京0491民初11279號(hào)民事判決書。),法院認(rèn)定原告對(duì)人工智能生成圖片進(jìn)行一定的智力投入,包括設(shè)計(jì)人物的呈現(xiàn)方式、選擇提示詞、安排提示詞的順序等,具備“智力成果”的要件。知識(shí)產(chǎn)權(quán)法學(xué)者吳漢東教授梳理我國(guó)司法實(shí)踐后得出結(jié)論,“可以認(rèn)為,中國(guó)法院對(duì)人工智能生成作品采取了有條件保護(hù)的司法原則”。(吳漢東:《論人工智能生成內(nèi)容的可版權(quán)性:實(shí)務(wù)、法理與制度》,載《中國(guó)法律評(píng)論》2024年第3期,第117頁(yè)。)

美國(guó)版權(quán)法并未明確規(guī)定版權(quán)作者只能是自然人,后來(lái)由負(fù)責(zé)版權(quán)登記的美國(guó)版權(quán)局將版權(quán)作者限定為自然人,并因此不對(duì)人工智能生成物進(jìn)行版權(quán)登記。至于美國(guó)國(guó)會(huì)、法院,均尚未有機(jī)會(huì)對(duì)人工智能生成物是否享有版權(quán)以及版權(quán)歸誰(shuí)所有做出決定。(Victor M. Palace, What If Artificial Intelligence Wrote This: Artificial Intelligence and Copyright Law, Florida Law Review, Vol. 71:1, p.217-242(2019).)不過(guò),根據(jù)美國(guó)聯(lián)邦最高法院過(guò)往堅(jiān)持版權(quán)作者必須是自然人的立場(chǎng),可以推知其不會(huì)支持人工智能生成物的可版權(quán)性,這與我國(guó)法院有條件保護(hù)的司法原則正好相反。中美兩國(guó)分別代表兩種不同的認(rèn)識(shí)和解決方案,其他大部分國(guó)家,對(duì)這個(gè)問(wèn)題的關(guān)注又有所不同。比如,英國(guó)過(guò)去大量的研究一直樂(lè)觀地認(rèn)為其《1988年版權(quán)、設(shè)計(jì)和專利法》第9(3)節(jié)完全可以解決計(jì)算機(jī)生成作品的版權(quán)問(wèn)題,結(jié)果發(fā)現(xiàn)新一代人工智能發(fā)展以后研究不夠。(Oways A. Kinsara, Clash of Dilemmas: How Should UK Copyright Law Approach the Advent of Autonomous AI Creations?, Cambridge Law Review, Vol. 6:2, p.62-85(2021).)2020年之前,除中美兩國(guó)之外,“全球范圍內(nèi),各國(guó)對(duì)于人工智能生成作品是否給予版權(quán)保護(hù)以及如何保護(hù),幾乎沒有任何共識(shí)”(Kavya Rallabhandi, The Copyright Authorship Conundrum for Works Generated by Artificial Intelligence: A Proposal for Standardized International Guidelines in the WIPO Copyright Treaty, George Washington International Law Review,Vol. 54:2, p.311-347(2023).)。

然而,在人工智能技術(shù)快速發(fā)展的背景下,法治與治理機(jī)制久拖不決或者長(zhǎng)期模糊不清會(huì)直接產(chǎn)生各種負(fù)面影響,因此,人工智能基礎(chǔ)問(wèn)題正在快速形成共識(shí)與公共政策選擇。2020年,美國(guó)專利和商標(biāo)局、歐盟專利局和英國(guó)高等法院均在具體案件中否決人工智能系統(tǒng)作為發(fā)明者的專利申請(qǐng),否定人工智能生成物的可專利性。(Haochen Sun, Redesigning Copyright Protection in the Era of Artificial Intelligence, Iowa Law Review, Vol.107:3,p.1213, 1213-1251(2022).)從中可以看到,將人工智能生成物歸入公有領(lǐng)域,不享有任何版權(quán)或者專利權(quán)保護(hù),正在迅速成為普遍的發(fā)展趨勢(shì),基礎(chǔ)問(wèn)題正在快速形成共識(shí)。曾經(jīng)的中美兩國(guó)立場(chǎng)差別,正在成為中國(guó)與美國(guó)、歐盟(以及其他國(guó)家)之間的路徑差別。(“任何情況下,人工智能生成作品都不可能在新加坡得到版權(quán)保護(hù)”。See Dorian Chang, AI Regulation for the AI Revolution, Singapore Comparative Law Review,p.130-170(2023).)并且,美國(guó)、歐盟的實(shí)踐取向已經(jīng)比較明確,而我國(guó)理論與實(shí)務(wù)界的認(rèn)識(shí)分歧依然非常大。

知識(shí)產(chǎn)權(quán)領(lǐng)域人工智能生成物的非權(quán)利化安排,與其說(shuō)是知識(shí)產(chǎn)權(quán)領(lǐng)域的技術(shù)問(wèn)題,不如說(shuō)是人工智能與人類關(guān)系的基本原則問(wèn)題。人工智能的最大挑戰(zhàn)在于其“涌現(xiàn)”或者“生成”能力,可以創(chuàng)造新知識(shí)。目前,在圖像分類、視覺推理和英語(yǔ)理解等方面,人工智能已經(jīng)超越人類也會(huì)逐步在其他領(lǐng)域?qū)崿F(xiàn)對(duì)人類的超越。隨著人類歷史上科技第一次從純粹的工具變?yōu)楠?dú)立創(chuàng)造的主體(智能體),必然會(huì)出現(xiàn)越來(lái)越多智能體自主決策而非輔助決策的領(lǐng)域。美國(guó)聯(lián)邦行政機(jī)關(guān)在執(zhí)法領(lǐng)域已經(jīng)大量采用機(jī)器學(xué)習(xí)技術(shù)。(Cary Coglianese & Lavi M. Ben Dor, AI in Adjudication and Administration, Brooklyn Law Review,Vol. 86:3, p.791-838(2021).)哈佛大學(xué)法學(xué)家桑斯坦教授承認(rèn),算法在提高決策的準(zhǔn)確性和一致性方面較人類具有顯著優(yōu)勢(shì),盡管在設(shè)計(jì)和應(yīng)用算法時(shí)需要仔細(xì)考慮可能帶來(lái)的歧視問(wèn)題。(Cass R. Sunstein, Governing by Algorithm? No Noise and (Potentially) less Bias,Duke Law Journal,Vol. 71:6, p.1175-1205(2022).)更多學(xué)者也已經(jīng)接受算法比人類決定更為可靠的觀點(diǎn)。(“很多政府決策不再由人做出,而是由計(jì)算機(jī)處理的算法做出”。See Cary Coglianese & David Lehr, Transparency and Algorithmic Governance, Administrative Law Review,Vol. 71:1, p.1-56(2019).)

既然智能體能夠自主決策,比人類更聰明,必然會(huì)追問(wèn)的是,是否應(yīng)該賦予其法律主體地位。斯坦福大學(xué)法律學(xué)者將機(jī)器人作為法律主體研究,全面設(shè)計(jì)機(jī)器人危害行為的救濟(jì)體系,甚至提出“機(jī)器人死刑”這樣的責(zé)任機(jī)制。(Mark A. Lemley & Bryan Casey, Remedies for Robots, University of Chicago Law Review,Vol. 86:5, p.1311-1396(2019).)有學(xué)者斷言,“我們可能即將創(chuàng)造一個(gè)新的法律主體范疇,介于人與客體之間。我相信法律必須為這一類別騰出空間”(Ryan Calo, Robotics and the Lessons of Cyberlaw, California Law Review,Vol. 103:3, p.513-563(2015).)。我國(guó)也有學(xué)者認(rèn)為,“確認(rèn)智能機(jī)器人的法律主體性地位是對(duì)機(jī)器人立法要解決的首要和關(guān)鍵問(wèn)題”(金夢(mèng):《中國(guó)人工智能立法的科學(xué)性探析》,載《中共中央黨校(國(guó)家行政學(xué)院)學(xué)報(bào)》2019年第1期,第104-112頁(yè)。)。

然而,智能體不具有法律主體資格,仍然是各國(guó)共同堅(jiān)持的基本原則,也是大部分專家的立場(chǎng)。(歐洲專家的意見,See Gerhard Wagner, Robot, Inc.:Personhood for Autonomous Systems?, Fordham Law Review,Vol. 88:2, p.591-612(2019).)在人與智能體的關(guān)系中,以人為中心是不證自明的真理。美國(guó)哈佛大學(xué)Berkman中心的研究團(tuán)隊(duì)歷時(shí)兩年多,對(duì)包括聯(lián)合國(guó)、經(jīng)合組織、美國(guó)、歐盟、中國(guó)、法國(guó)、德國(guó)、日本、微軟、騰訊等在內(nèi)的國(guó)際組織、國(guó)家、企業(yè)、社會(huì)組織制定的36份人工智能“原則”文件進(jìn)行分析后,總結(jié)出八項(xiàng)基本原則。其中兩項(xiàng)分別是“由人類控制技術(shù)”以及“提升人類價(jià)值”,占比均為69%,包括規(guī)定“人工智能系統(tǒng)只能是工具的法律地位”,“如果機(jī)構(gòu)不能再控制人工智能系統(tǒng)時(shí)有義務(wù)銷毀它”。(Jessica Fjeld, et el., Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI, Berkman Klein Center for Internet & Society(Jan.11, 2020), http://nrs.harvard.edu/urn-3:HUL.InstRepos:42160420.)因此,無(wú)論智能體多么聰明,法律的根本問(wèn)題仍然是“當(dāng)機(jī)器人和智能體創(chuàng)造利益或造成傷害時(shí),如何在人類之間分配權(quán)利和義務(wù)”(Jack M. Balkin, The Path of Robotics Law, California Law Review Circuit,Vol. 6, p.45-60(2015).)。歐盟官方研究報(bào)告曾經(jīng)提出“電子人”概念,但認(rèn)為在當(dāng)前的法律框架下機(jī)器人的責(zé)任應(yīng)由其設(shè)計(jì)者、制造商、操作者或所有者承擔(dān),而不是讓機(jī)器人承擔(dān)。(REPORT with recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)), European Parliament(Jan. 27,2017), https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html.)智能體不具備法律主體地位,其生成物當(dāng)然不具有權(quán)利化屬性,這是以人為中心的必然要求。(“著作權(quán)法以鼓勵(lì)創(chuàng)作為目的,只有人才能理解和利用著作權(quán)法的激勵(lì)機(jī)制,因此只有人的創(chuàng)作成果才能作為作品受到著作權(quán)法的保護(hù)”。參見王遷:《再論人工智能生成的內(nèi)容在著作權(quán)法中的定性》,載《政法論壇》2023年第4期,第16-33頁(yè)。)

(三)我國(guó)人工智能立法的基本定位

上述分析表明:(1)無(wú)論是理論研究還是制度建設(shè),我國(guó)都面臨不少現(xiàn)實(shí)問(wèn)題。在人工智能加速發(fā)展、國(guó)際競(jìng)爭(zhēng)更為激烈的背景下,我國(guó)人工智能立法需要盡快提上議事日程,厘清人工智能發(fā)展的基礎(chǔ)問(wèn)題,凝聚共識(shí),明確權(quán)利義務(wù)關(guān)系,任何拖延或者無(wú)所作為都會(huì)錯(cuò)失時(shí)機(jī)。同時(shí),由于人工智能仍然處于發(fā)展過(guò)程之中,溢出問(wèn)題與終極問(wèn)題仍然沒有形成共識(shí),具有很大的不確定性;即使形成共識(shí)的基礎(chǔ)問(wèn)題領(lǐng)域,通常橫跨不同法律部門,需要根據(jù)問(wèn)題不同分別設(shè)計(jì)相應(yīng)的法律制度與實(shí)施機(jī)制。因此,我國(guó)人工智能立法需要保持靈活性、小步快跑,避免“一刀切”立法造成難以挽回的負(fù)面影響。當(dāng)前,各國(guó)正在推動(dòng)的人工智能相關(guān)立法活動(dòng)(Stanford Institute for Human-Centered AI (HAI), The AI Index 2024 Annual Report, Artificial Intelligence index(Apr.22, 2024), https://aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf.),普遍都以解決具體問(wèn)題為目標(biāo),而不是制定統(tǒng)一的人工智能法。如同我國(guó)不可能制定一部網(wǎng)絡(luò)法一攬子解決網(wǎng)絡(luò)相關(guān)法律問(wèn)題一樣,我國(guó)不可能制定一部一攬子解決版權(quán)、個(gè)人信息保護(hù)、政府?dāng)?shù)據(jù)開放、侵權(quán)責(zé)任分配、互操作、就業(yè)體系調(diào)整等橫跨眾多不同法律部門的人工智能法。(2)需要從人工智能作為前沿科技和新質(zhì)生產(chǎn)力來(lái)定位和把握立法,在全面梳理不同層次挑戰(zhàn)與風(fēng)險(xiǎn)的基礎(chǔ)上,尊重科技本身規(guī)律,充分發(fā)揮法治、技術(shù)與物理架構(gòu)、科技倫理、技術(shù)標(biāo)準(zhǔn)、行業(yè)自律、市場(chǎng)競(jìng)爭(zhēng)、國(guó)際合作等多種治理機(jī)制的作用,進(jìn)行整體制度設(shè)計(jì)與回應(yīng),發(fā)揮制度合力,避免定位偏差與認(rèn)識(shí)錯(cuò)誤導(dǎo)致的頭痛醫(yī)頭、腳痛醫(yī)腳現(xiàn)象。(3)就實(shí)現(xiàn)路徑而言,可由全國(guó)人大常委會(huì)就人工智能安全與發(fā)展涉及的重大原則問(wèn)題先制定一份法律問(wèn)題的決定,明確基本原則與方向,然后通過(guò)不同部門法的立改廢釋分別推進(jìn)。既要清理、廢止不利于人工智能發(fā)展的規(guī)定與做法,澄清模糊認(rèn)識(shí),又要確立有利于推動(dòng)人工智能安全與發(fā)展的觀念、規(guī)范與制度??梢?,人工智能法是“產(chǎn)業(yè)促進(jìn)法與風(fēng)險(xiǎn)治理法的協(xié)調(diào)”(鄭志峰:《人工智能立法的一般范疇》,載《數(shù)字法治》2023年第6期,第55-75頁(yè)。),需要多方參與,不是立法部門一家能夠完成的任務(wù),更不可能一步到位。

2024年通過(guò)世界上第一部也是至今唯一一部《人工智能法》,被我國(guó)一些學(xué)者作為需要制定人工智能法的例證并提出不同版本的專家建議稿。(楊建軍、張凌寒、周輝等:《人工智能法:必要性與可行性》,載《北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2024年第3期,第169-174頁(yè)。)其實(shí),歐盟的做法不具有普適性,很難借鑒。歐盟作為高度一體化的區(qū)域性經(jīng)濟(jì)政治組織,其立法帶有法典編纂功能或者“一攬子解決”功能?!度斯ぶ悄芊ā返娜Q為《人工智能與修正歐盟某些立法的法》,有大量與歐盟其他立法以及成員國(guó)國(guó)內(nèi)法相互銜接的規(guī)定,第七章第75條到第82條更是對(duì)歐盟其他相關(guān)立法的具體修正規(guī)定。包括我國(guó)在內(nèi),一般的國(guó)家立法既不需要也不可能具備這樣的法典編纂功能。

如果分析立法背后的邏輯可以發(fā)現(xiàn),歐盟《人工智能法》聚焦于從產(chǎn)品責(zé)任角度防范高風(fēng)險(xiǎn)人工智能系統(tǒng)可能造成的損害,絕大部分內(nèi)容均屬于產(chǎn)品安全與責(zé)任法的范疇,以解決“現(xiàn)行歐盟(產(chǎn)品)安全立法適用于產(chǎn)品而不適用于服務(wù),并原則上不適用于基于人工智能技術(shù)的服務(wù)”“歐盟產(chǎn)品責(zé)任立法只規(guī)定生產(chǎn)者責(zé)任,將供應(yīng)鏈上其他主體的責(zé)任交由成員國(guó)責(zé)任規(guī)則調(diào)整”等問(wèn)題。(EUROPEAN COMMISSION, WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust, European Commission(Feb.19, 2020), https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf.)歐盟形式上是統(tǒng)一立法,但調(diào)整范圍有限,并不覆蓋人工智能安全與發(fā)展的很多領(lǐng)域,包括前述的人工智能生成物的可版權(quán)性、可專利性等基礎(chǔ)問(wèn)題以及溢出問(wèn)題。有論者因此指出,“關(guān)鍵在于《人工智能法》是否真的帶來(lái)產(chǎn)品法的力量和優(yōu)點(diǎn),以擴(kuò)大歐盟對(duì)智能組件產(chǎn)品的不斷改進(jìn)實(shí)踐,還是該法律僅僅成為旨在事后攻擊少數(shù)精英參與者的門面立法”(Meeri Haataja & Joanna J. Bryson, The European Parliament’s AI Regulation: Should We Call It Progress?, Amicus Curiae,Vol. 4:3, p.707-718(2023).)。相比之下,美國(guó)14110號(hào)行政命令采用的是典型的確立基本原則后全面推進(jìn)的方式,對(duì)超過(guò)50個(gè)聯(lián)邦機(jī)構(gòu)布置100多項(xiàng)落實(shí)行政命令的具體任務(wù),(Laurie Harris & Chris Jaikaran, Highlights of the 2023 Executive Order on Artificial Intelligence for Congress, Congressional Research Service(Apr.3, 2024), https://crsreports.congress.gov/product/pdf/R/R47843.)在廣度、深度與影響力方面都要強(qiáng)很多。2024年5月,美國(guó)參議院跨黨派人工智能工作組發(fā)布路線圖,延續(xù)采用分散立法推進(jìn)人工智能安全與發(fā)展的思路。(The Bipartisan Senate AI Working Group, Driving U.S. Innovation in Artificial Intelligence: A Roadmap for Artificial Intelligence Policy in the United States Senate, U.S. Senator Chuck Schumer of New York(May.15, 2024), https://www.schumer.senate.gov/imo/media/doc/Roadmap_Electronic1.32pm.pdf.)

為避免統(tǒng)一立法阻礙人工智能發(fā)展,代表歐盟十四個(gè)成員國(guó)的官方文件明確提出,“我們應(yīng)該轉(zhuǎn)向軟法解決方案,如自我監(jiān)管、自愿標(biāo)識(shí)和其他自愿做法,以及健全的標(biāo)準(zhǔn)化程序,作為對(duì)現(xiàn)有立法的補(bǔ)充,以確保滿足基本的安全和保障標(biāo)準(zhǔn)??紤]到我們正面臨快速發(fā)展的技術(shù),軟法可以讓我們從技術(shù)中學(xué)習(xí)并識(shí)別與之相關(guān)的潛在挑戰(zhàn)”。(Innovative and Trustworthy AI: Two Sides of the Same Coin, Vláda eské republiky(Oct.6, 2020), https://vlada.gov.cz/scripts/file.php?id=275575.)德國(guó)政府的立場(chǎng)是,“聯(lián)邦政府正在倡導(dǎo)并努力建立一個(gè)適當(dāng)?shù)谋O(jiān)管框架,在此框架內(nèi)擴(kuò)大并在必要時(shí)進(jìn)一步發(fā)展現(xiàn)有的高質(zhì)量基礎(chǔ)設(shè)施,以在適當(dāng)時(shí)反映人工智能的具體問(wèn)題”。(Artificial Intelligence Strategy of the German Federal Government, The Federal Government(Mar.26, 2021), https://www.ki-strategie-deutschland.de/files/downloads/Fortschreibung_KI-Strategie_engl.pdf.)可以看到,不同于歐盟個(gè)人數(shù)據(jù)保護(hù)立法前后世界各國(guó)相繼跟進(jìn)立法所產(chǎn)生的“布魯塞爾效應(yīng)”(蘇可楨、沈偉:《歐盟人工智能治理方案會(huì)產(chǎn)生“布魯塞爾效應(yīng)”嗎?——基于歐盟〈人工智能法〉的分析》,載《德國(guó)研究》2024年第2期,第66-88、135頁(yè)。),歐盟《人工智能法》出臺(tái)后,在歐盟內(nèi)部至今也沒有跟進(jìn)立法。日本經(jīng)濟(jì)產(chǎn)業(yè)省組織的專家組經(jīng)研究后得出結(jié)論,“目前,對(duì)人工智能系統(tǒng)具有法律約束力的一般立法被認(rèn)為是不必要的”。(AI Governance in Japan Ver. 1.1, Ministry of Economy, Trade and Industry(Jul.9, 2021), https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_8.pdf.)

幾年前,英國(guó)上議院人工智能特設(shè)委員會(huì)經(jīng)過(guò)廣泛聽取各方面意見后就得出結(jié)論,“在這個(gè)階段,針對(duì)人工智能的全面立法是不合適的。我們認(rèn)為,現(xiàn)有的行業(yè)監(jiān)管機(jī)構(gòu)最適合考慮可能需要的后續(xù)立法對(duì)其行業(yè)的影響”。(Al in the UK - ready, willing, and able? ,United Kindom Parliment(Apr.16, 2018), https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf.)印度的思路與英國(guó)大致相同,除確立統(tǒng)一的數(shù)據(jù)保護(hù)法律制度以外,更多發(fā)揮領(lǐng)域法律的作用。(National Strategy for Artificial Intelligence, National Institution for Transforming India Aayog(Mar.13, 2020),https://www.niti.gov.in/sites/default/files/2023-03/National-Strategy-for-Artificial-Intelligence.pdf.)在信息化立法方面一直走在各國(guó)前列的韓國(guó)2019年12月發(fā)布《國(guó)家人工智能戰(zhàn)略》,2020年12月發(fā)布《改善人工智能法律、系統(tǒng)與監(jiān)管路線圖》,2023年5月公布《數(shù)字權(quán)利法案》,一直采用的是分散推進(jìn)立法的方式。(Hwan Kyoung Ko & Il Shin Lee, Analysis of AI regulatory frameworks in South Korea, Asia Business Law Journal(Apr.15, 2024), https://law.asia/ai-regulatory-frameworks-south-korea/#.)新加坡目前也沒有任何特定的人工智能立法計(jì)劃。(Dorian Chang, AI Regulation for the AI Revolution, Singapore Comparative Law Review,p.130-170(2023).)目前,除歐盟以外,世界上尚無(wú)任何主要國(guó)家已經(jīng)制定或者打算制定統(tǒng)一的人工智能法。

五、推動(dòng)我國(guó)人工智能法的范式變革

面對(duì)人工智能全面性、顛覆性挑戰(zhàn),法律制度必須進(jìn)行徹底改革與重構(gòu)。然而,多主體分別推進(jìn)法治變革的最大問(wèn)題在于,如果缺乏明確認(rèn)識(shí)和有效統(tǒng)籌,極有可能出現(xiàn)實(shí)踐中已經(jīng)有所體現(xiàn)的難以形成合力甚至相互沖突的結(jié)果。因此,必須首先明確“怎樣在具體規(guī)則中凸顯人工智能的規(guī)范特質(zhì)”(陳亮:《人工智能立法體系化的困境與出路》,載《數(shù)字法治》2023年第6期,第10-17頁(yè)。),然后才有可能推動(dòng)立法系統(tǒng)變革。

回顧人類法律發(fā)展歷史,隨著公司的出現(xiàn),1855年,英國(guó)制定《有限責(zé)任法》,規(guī)定公司股東對(duì)于公司債務(wù)只在其投資范圍內(nèi)承擔(dān)有限責(zé)任,奠定現(xiàn)代企業(yè)制度和市場(chǎng)經(jīng)濟(jì)的基礎(chǔ),成為現(xiàn)代法治的標(biāo)志。(周漢華:《論互聯(lián)網(wǎng)法》,載《中國(guó)法學(xué)》2015年第3期,第20-37頁(yè)。)隨著平臺(tái)的出現(xiàn),1996年,美國(guó)《通信規(guī)范法》第230條確立避風(fēng)港規(guī)則,奠定平臺(tái)經(jīng)濟(jì)發(fā)展的基礎(chǔ),被公認(rèn)為互聯(lián)網(wǎng)時(shí)代最為重要的法律規(guī)則和網(wǎng)絡(luò)法治的代名詞。(當(dāng)時(shí)圍繞網(wǎng)絡(luò)法的著名爭(zhēng)論,see Frank H. Easterbrook, Cyberspace and the Law of the Horse, University of Chicago Legal Forum,p.207-216(1996); Lawrence Lessig, The Law of the Horse: What CyberLaw Might Teach, Harvard Law Review,Vol. 113:2, p.501-549(1999).)智能體的出現(xiàn),必然推動(dòng)人工智能法走上歷史舞臺(tái)。哪個(gè)國(guó)家能率先發(fā)現(xiàn)并確立基本規(guī)則,哪個(gè)國(guó)家就有可能引領(lǐng)人工智能法整體范式變革。(日本經(jīng)濟(jì)產(chǎn)業(yè)省組織的專家研究小組認(rèn)為基于規(guī)則的傳統(tǒng)法治在立法、執(zhí)法、管轄、監(jiān)督等方面均面臨挑戰(zhàn),應(yīng)該確立基于結(jié)果的法治,政府和私營(yíng)部門共同制定標(biāo)準(zhǔn)、指導(dǎo)方針和其他軟法,以支持企業(yè)努力實(shí)現(xiàn)法律規(guī)定的目標(biāo)。See Study Group on New Governance Models in Society 5.0, Governance Innovation ver.2 - A Guide to Designing and Implementing Agile Governance, METI(Jul.30, 2021), https://www.meti.go.jp/english/press/2021/0730_001.html.)法治范式變革涉及整個(gè)法治體系的系統(tǒng)聯(lián)動(dòng),其影響與范圍比立法定位都要大得多。

如果對(duì)各國(guó)人工智能法治實(shí)踐進(jìn)行理論抽象,可以發(fā)現(xiàn),新范式的基本規(guī)則其實(shí)已經(jīng)初具雛形,最大特點(diǎn)表現(xiàn)為“非對(duì)稱性”。

(一)預(yù)訓(xùn)練階段“原則可用、例外排除”的非對(duì)稱性

“原則可用、例外排除”呈現(xiàn)典型的非對(duì)稱性,價(jià)值判斷與選擇非常明確。(韓國(guó)正在推進(jìn)人工智能領(lǐng)域全面的負(fù)面清單管理制度和“先批準(zhǔn)后監(jiān)管”法律范式變革。The Government of the Republic of Korea, National Strategy for Artificial Intelligence, Ministry of Science and ICT(Dec.17,2019), https://www.msit.go.kr/eng/bbs/view.do?sCode=eng&mId=10&mPid=9&bbsSeqNo=46&nttSeqNo=9.)原則可用意味著除法律明確禁止公開的數(shù)據(jù)(國(guó)家秘密、商業(yè)秘密、個(gè)人隱私)以外,其他合法公開的所有數(shù)據(jù)原則上均可以用來(lái)進(jìn)行訓(xùn)練,包括版權(quán)作品、已合法公開的個(gè)人信息、公共數(shù)據(jù)和其他數(shù)據(jù)等。采用原則可用概念而非著作權(quán)法學(xué)界通常采用的合理使用概念,一是因?yàn)轭A(yù)訓(xùn)練階段的數(shù)據(jù)不只涉及版權(quán)作品,還涉及版權(quán)作品之外廣泛來(lái)源的數(shù)據(jù)。采用合理使用概念,會(huì)局限于版權(quán)法,限縮討論與制度適用的范圍。二是因?yàn)榧词箤?duì)版權(quán)作品,采用合理使用概念也無(wú)法反映大數(shù)據(jù)時(shí)代對(duì)于版權(quán)作品的預(yù)訓(xùn)練需求。(對(duì)美國(guó)著作權(quán)法合理使用原則無(wú)法適用于機(jī)器學(xué)習(xí)的分析,see Benjamin L. W. Sobel, Artificial Intelligence’s Fair Use Crisis, Columbia Journal of Law & the Arts,Vol. 41:1, p.45-97(2017)。)有學(xué)者指出,我國(guó)2020年第三次著作權(quán)法修訂采用“半封閉式”的限制和例外模式,制度空間有限,人工智能創(chuàng)作中對(duì)版權(quán)作品的利用很難通過(guò)“三步檢驗(yàn)法”的檢測(cè)和過(guò)濾。(林秀芹:《人工智能時(shí)代著作權(quán)合理使用制度的重塑》,載《法學(xué)研究》2021年第6期,第170-185頁(yè)。)原則可用意味著要跳出我國(guó)著作權(quán)法限制與例外立法模式的束縛,除公開的著作權(quán)作品原則上都可用于訓(xùn)練以外,還應(yīng)確立互操作制度,為采用技術(shù)手段繞過(guò)權(quán)利人對(duì)接口設(shè)置的技術(shù)措施爬取數(shù)據(jù)提供法律依據(jù)。原則可用也意味著要加大公共數(shù)據(jù)的開放力度,建立免費(fèi)、無(wú)歧視、高質(zhì)量的公共數(shù)據(jù)開放制度。

例外排除包括兩類,一類是法律明確禁止公開的國(guó)家秘密、商業(yè)秘密、個(gè)人隱私等數(shù)據(jù),另一類是數(shù)據(jù)權(quán)益相關(guān)人單獨(dú)提出并且技術(shù)上可以排除使用的數(shù)據(jù)。第一類已經(jīng)有相關(guān)法律規(guī)定,實(shí)踐中需要進(jìn)一步明確其標(biāo)準(zhǔn)、邊界與程序,防止制度過(guò)于模糊。第二類屬于人工智能時(shí)代的新挑戰(zhàn),需要在著作權(quán)法、個(gè)人信息保護(hù)法、公共數(shù)據(jù)開放立法中為權(quán)益相關(guān)人維護(hù)自己權(quán)益設(shè)計(jì)相應(yīng)的制度,實(shí)現(xiàn)制度之間的平衡。不過(guò),數(shù)據(jù)可用是原則,排除使用是例外,應(yīng)該在所有制度設(shè)計(jì)中得到體現(xiàn)。

(二)投入應(yīng)用階段“有義務(wù)無(wú)權(quán)利”的非對(duì)稱性

不論是具身人工智能(人形機(jī)器人、無(wú)人駕駛汽車)還是非具身人工智能,造成違法損害后果必須承擔(dān)責(zé)任是沒有爭(zhēng)議的問(wèn)題。對(duì)于有害或者高風(fēng)險(xiǎn)的人工智能系統(tǒng),法律還會(huì)禁止或者施加事前監(jiān)管措施。結(jié)合人工智能生成物非權(quán)利化安排,這種“有義務(wù)無(wú)權(quán)利”的格局呈現(xiàn)突出的非對(duì)稱性特點(diǎn)。表面上看,非對(duì)稱性不同于法律面前一律平等、權(quán)利義務(wù)一致性等基本法律原則。然而,兩個(gè)階段的非對(duì)稱性結(jié)合到一起,預(yù)訓(xùn)練階段的數(shù)據(jù)原則可用,生成物進(jìn)入公有領(lǐng)域、人人可用并重新投入訓(xùn)練,正好實(shí)現(xiàn)良性循環(huán)和相互證成,是最合理的制度安排。(如果賦予人工智能生成物著作權(quán),“與其獲得大量著作權(quán)作品進(jìn)行訓(xùn)練與利用的權(quán)利并不匹配”。參見丁曉東:《論人工智能促進(jìn)型的數(shù)據(jù)制度》,載《中國(guó)法律評(píng)論》2023年第6期,第175-191頁(yè)。)

如何確定智能體造成損害的法律責(zé)任非常復(fù)雜,必須結(jié)合不同應(yīng)用場(chǎng)景,在實(shí)踐中逐步明確認(rèn)定標(biāo)準(zhǔn)和劃分原則。由于大模型服務(wù)不具有雙邊市場(chǎng)特點(diǎn),其運(yùn)行模式不同于連接供需雙方的平臺(tái)經(jīng)濟(jì)模式。大模型服務(wù)提供者必須為智能體造成的損害承擔(dān)直接責(zé)任而非第三方責(zé)任,不能搬用網(wǎng)絡(luò)法中的避風(fēng)港原則。即使大模型開源,也只能免除某些透明度義務(wù),不能免除造成損害的法律責(zé)任。但是,另一方面,大模型自主決策是大模型與使用者之間互動(dòng)的結(jié)果,使用者的輸入必不可少。如果對(duì)大模型的責(zé)任設(shè)定過(guò)于嚴(yán)格,極易誘發(fā)使用者的逆向選擇,以謀取各種不當(dāng)利益。在使用者惡意行為的情況下,大模型服務(wù)提供者實(shí)際上是在為使用者的行為擔(dān)責(zé)。除了大模型服務(wù)提供者與使用者之外,還包括預(yù)訓(xùn)練階段的數(shù)據(jù)創(chuàng)建者、數(shù)據(jù)管理員、模型創(chuàng)建者等不同主體,需要結(jié)合不同場(chǎng)景區(qū)分責(zé)任承擔(dān)(Michael D. Murray, Generative AI Art: Copyright Infringement and Fair Use, SMU Science and Technology Law Review,Vol. 26:2, p.259-316(2023).),比線下侵權(quán)責(zé)任主體認(rèn)定要復(fù)雜得多。另外,智能體自主決策機(jī)理不同于人類,不能直接搬用一般法律規(guī)則或認(rèn)定標(biāo)準(zhǔn)。比如,人工智能生成物均為合成物,不可能不受訓(xùn)練數(shù)據(jù)影響。因此,在認(rèn)定生成物是否構(gòu)成抄襲、復(fù)制方面,應(yīng)尊重其規(guī)律,否則會(huì)制約大模型的發(fā)展。美國(guó)學(xué)者最新的研究建議,如果大模型技術(shù)上采取有力的侵權(quán)預(yù)防措施,法律上應(yīng)賦予其避風(fēng)港保護(hù),形成技術(shù)與法律的雙向演進(jìn)。(Peter Henderson,Xuechen Li, Dan Jurafsky, Tastunori Hashimoto, Mark A. Lemley, Percy Liang; Foundation Models and Fair Use, Journal of Machine Learning Research,Vol. 24:400, p.1-79(2023).)2024年,廣州互聯(lián)網(wǎng)法院審理并判決我國(guó)AIGC平臺(tái)侵權(quán)第一案。(廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號(hào)民事判決書。)該案中,法院認(rèn)為,案涉生成圖片部分保留案涉作品的獨(dú)創(chuàng)性表達(dá)并在此基礎(chǔ)上形成新的特征,侵犯原告對(duì)案涉作品的改編權(quán)。該案公布后引發(fā)業(yè)界較大的爭(zhēng)議,被認(rèn)為會(huì)阻礙產(chǎn)業(yè)發(fā)展。相反,北京互聯(lián)網(wǎng)法院2024年審理的全國(guó)首例“AI聲音侵權(quán)案”(北京互聯(lián)網(wǎng)法院(2023)京0491民初12142號(hào)民事判決書。),獲得比較一致的正面評(píng)價(jià)。兩個(gè)案件的最大差別在于,后者按照普通人識(shí)別標(biāo)準(zhǔn)達(dá)到了深度偽造程度,而前者并未達(dá)到公認(rèn)的深度偽造程度??梢姡悄荏w的法律責(zé)任認(rèn)定標(biāo)準(zhǔn)也呈現(xiàn)不同于一般侵權(quán)規(guī)則的非對(duì)稱性。

智能體的出現(xiàn),已經(jīng)引發(fā)各種深層次變化并催生出既不同于現(xiàn)代法,又不同于網(wǎng)絡(luò)法的人工智能法?,F(xiàn)代法、網(wǎng)絡(luò)法與人工智能法三大范式疊加、交織并共同發(fā)揮作用,是當(dāng)今時(shí)代這一領(lǐng)域的最大特點(diǎn)。把握人工智能法非對(duì)稱性特點(diǎn),加快推動(dòng)法治范式變革,是迎接時(shí)代挑戰(zhàn)的必然要求。

A Roadmap for Artificial Intelligence Legislation in China

ZHOU Hanhua

(Institute of Law, China Academy of Social Science, Beijing 100720, China)

Abstract:

Artificial intelligence has formed two different legislative positions in China: technology and industrial development, and information content management. Using information content management to locate artificial intelligence is equivalent to incorporating new productive forces into superstructure management, which will2ReNZb3YLTLQ+mdZ5aZZU6HwZlGgPdM3ZmI+3c4WyxY= inevitably lead to various mismatch phenomena. To reflect the asymmetric characteristics of AI law, it is necessary to orient artificial intelligence as a cuttingedge technology and new productive force, and, on the basis of clarifying the basic principles of security and development, to realize the paradigm change of the rule of law through the enactment, reform, abolition, and interpretation of laws by different departments. It is necessary not only to clean up and abolish regulations and practices that are not conducive to the development of artificial intelligence, but also to establish concepts, norms, and systems that are conducive to promoting the security and development of artificial intelligence. China’s AI legislation needs to remain flexible, take small steps, and avoid the

irreversible negative impact of “onesizefitsall” legislation that is difficult to reverse.

Key words: artificial intelligence legislation; artificial intelligence law; paradigm change; asymmetry本文責(zé)任編輯:常燁

收稿日期:2024-06-17

作者簡(jiǎn)介:周漢華(1964—),男,湖南衡山人,中國(guó)社會(huì)科學(xué)院法學(xué)研究所研究員。

致謝:本文寫作過(guò)程中,相關(guān)內(nèi)容先后在全國(guó)人大常委會(huì)法工委“人工智能立法工作座談會(huì)”“中關(guān)村論壇·首屆科技與法治論壇”、中宣部研究室(法規(guī)局)“全國(guó)宣傳法治培訓(xùn)班”上發(fā)言、演講或講座,感謝與會(huì)人員的積極反饋、評(píng)論與肯定。論文寫作過(guò)程中,北京世輝律師事務(wù)所王新銳律師,阿里研究院袁媛女士、傅宏宇先生,騰訊研究院王強(qiáng)先生、王融女士提供寶貴參考資料或有益討論,在此致以敬意與謝意。

①喻思孌:《“搭橋人”回憶中國(guó)接入互聯(lián)網(wǎng)前后——它連接著全世界!》,載《人民日?qǐng)?bào)》2014年4月21日,第9版。

喀什市| 松江区| 大田县| 云安县| 巴林右旗| 阿拉善左旗| 正定县| 芒康县| 荆州市| 嵩明县| 吉林市| 汉寿县| 台江县| 迁安市| 汪清县| 璧山县| 任丘市| 牡丹江市| 全椒县| 湖北省| 崇阳县| 郓城县| 桐乡市| 宁晋县| 小金县| 麟游县| 荆州市| 木里| 始兴县| 黑山县| 凤庆县| 鄂尔多斯市| 徐水县| 沐川县| 安平县| 咸宁市| 保亭| 建平县| 永吉县| 新巴尔虎左旗| 平塘县|