国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的法律規(guī)制

2024-05-09 23:24蔣永傳
關(guān)鍵詞:服務(wù)提供者規(guī)制人工智能

蔣永傳

(上海師范大學(xué) 哲學(xué)與法政學(xué)院,上海 200234)

一、問題的提出

早在1950年,艾倫·圖靈發(fā)表《計(jì)算機(jī)和智能》與《機(jī)器能思考嗎》兩篇論文,為人工智能概念的提出奠定了基礎(chǔ),并由此贏得“人工智能之父”的美譽(yù)。此后,以約翰·麥卡錫(John McCarthy)為代表的學(xué)者于1956年在美國(guó)達(dá)特茅斯大學(xué)召開的學(xué)術(shù)會(huì)議上正式確立了人工智能(Artificial Intelligence)概念[1]。伴隨著人工智能技術(shù)的發(fā)展和創(chuàng)新,運(yùn)用算法邏輯輸出文本、音頻、視頻等數(shù)據(jù)內(nèi)容并非近些年剛興起的新事物,學(xué)界也多以“人工智能生成內(nèi)容”“人工智能生成專利”“人工智能生成成果”“人工智能生成作品”等作為研究對(duì)象,研究焦點(diǎn)集中于知識(shí)產(chǎn)權(quán)領(lǐng)域相關(guān)問題。2022年以ChatGPT(Chat Generative Pretrained Transformer)為代表的集語(yǔ)言交互、圖文生成、音視頻創(chuàng)作、代碼編寫等多種生成模式軟件興起,生成式人工智能類似人類思想的交互能力讓人們感受到極大震撼。比爾·蓋茨稱,人工智能時(shí)代已經(jīng)開始,ChatGPT是自1980年以來(lái)最大的技術(shù)變革;NVIDIA CEO黃仁勛稱,我們正處于AI的iPhone時(shí)刻。

人工智能技術(shù)的發(fā)展催生了新的行為方式,一方面人工智能逐漸成為經(jīng)濟(jì)發(fā)展的重要引擎,另一方面也帶來(lái)了諸多影響深遠(yuǎn)的新問題[2]。數(shù)據(jù)風(fēng)險(xiǎn)成為現(xiàn)階段生成式人工智能無(wú)法規(guī)避的安全風(fēng)險(xiǎn)。然而,在生成式人工智能風(fēng)險(xiǎn)治理研究中,以“生成式人工智能如何監(jiān)管”“生成式人工智能的法律規(guī)制”等概括性研究為主,聚焦于數(shù)據(jù)風(fēng)險(xiǎn)的研究尚有所缺乏。

2022年3月1日《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦管理規(guī)定》)施行;2023年1月10日《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成管理規(guī)定》)施行;2023年8月15日《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《生成式人工智能暫行辦法》)施行。緊密的法律規(guī)定出臺(tái),一方面提升了我國(guó)針對(duì)生成式人工智能法律規(guī)制的力度;另一方面,上述規(guī)定的頒布與征求意見稿的時(shí)間相距較短,最終修改之處亦較多,反映了目前對(duì)于生成式人工智能的認(rèn)識(shí)仍是“管中窺豹,時(shí)見一斑”,成熟度不高,學(xué)界在此基礎(chǔ)上接續(xù)研究,仍有充分的空間。本文通過梳理生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的類型,分析現(xiàn)行法律規(guī)制生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的現(xiàn)狀及不足,并在此基礎(chǔ)上探討完善數(shù)據(jù)風(fēng)險(xiǎn)治理的路徑。

二、生成式人工智能運(yùn)行各階段的數(shù)據(jù)風(fēng)險(xiǎn)梳理

大數(shù)據(jù)時(shí)代,最復(fù)雜的莫過于數(shù)據(jù)的真?zhèn)伪嫖觥?shù)據(jù)是人工智能模型訓(xùn)練和優(yōu)化的基礎(chǔ)養(yǎng)料,是大模型訓(xùn)練的“基礎(chǔ)和命脈”[3]。生成式人工智能所依賴的數(shù)據(jù)源是否可靠直接影響其輸出內(nèi)容的準(zhǔn)確性,算法邏輯如何從已知數(shù)據(jù)范圍內(nèi)識(shí)別獲取可靠數(shù)據(jù)、分析整合數(shù)據(jù)生成所需內(nèi)容,亦關(guān)乎著需求信息的質(zhì)量。相較于傳統(tǒng)搜索引擎獲取信息的渠道,生成式人工智能為用戶提供了全新的數(shù)據(jù)獲取渠道?;谏墒饺斯ぶ悄艿倪\(yùn)行模式的局限,其僅能根據(jù)用戶指令在特定條件下生成邏輯必然結(jié)果,而對(duì)于生成過程用戶無(wú)法探知或無(wú)能力探知。生成式人工智能的運(yùn)作模型依賴大量的數(shù)據(jù)輸入,運(yùn)用已有數(shù)據(jù)分析,處理輸入指令獲得用戶傾向結(jié)果。在收集、存儲(chǔ)、處理、生成這一系列應(yīng)用過程中,不可避免地會(huì)產(chǎn)生諸多風(fēng)險(xiǎn)。

(一)數(shù)據(jù)收集階段

生成式人工智能以出色的語(yǔ)言交互等功能令用戶驚嘆,其每一次回應(yīng)都依據(jù)海量的數(shù)據(jù)支撐,以ChatGPT最為顯著。問題回應(yīng)的全面性,取決于數(shù)據(jù)收集的全面性,由此可能引發(fā)以下兩方面的風(fēng)險(xiǎn)。

第一,數(shù)據(jù)過度收集風(fēng)險(xiǎn)。面對(duì)不確定用戶的不同需求,生成式人工智能設(shè)計(jì)之初或升級(jí)之時(shí),實(shí)際無(wú)法獲知所有的用戶需求。其應(yīng)用范疇涵蓋文本生成、圖像生成、音視頻生成等領(lǐng)域,能夠滿足用戶聊天對(duì)話、創(chuàng)作藝術(shù)作品、生成原創(chuàng)音樂、完成代碼編寫和初步的算法設(shè)計(jì)等多種需求,并且未來(lái)有可能通過利用多模態(tài)數(shù)據(jù)在教育領(lǐng)域取得重大進(jìn)步[4]。因此,在技術(shù)測(cè)試階段需要充分假設(shè)到所有可能的用戶需求并設(shè)計(jì)預(yù)演輸入指令,以防無(wú)法做出準(zhǔn)確回應(yīng)。對(duì)所有可能輸入指令作出回應(yīng)的前提性條件為充分收集各行各業(yè)的數(shù)據(jù)信息,包括但不限于個(gè)人數(shù)據(jù)、企業(yè)數(shù)據(jù)、公共數(shù)據(jù)等,在此過程中,可能侵犯?jìng)€(gè)人信息、企業(yè)商業(yè)秘密、國(guó)家秘密等。

第二,數(shù)據(jù)非法收集風(fēng)險(xiǎn)。生成式人工智能技術(shù)的應(yīng)用通過各類互聯(lián)網(wǎng)軟件或移動(dòng)端APP體現(xiàn),然而用戶在使用上述軟件時(shí)必須進(jìn)行注冊(cè)并同意其預(yù)先設(shè)定的相關(guān)格式條款,其中就包括數(shù)據(jù)收集條款,該條款構(gòu)成使用APP之前提,無(wú)同意條款則無(wú)使用權(quán)限。因此,ChatGPT類APP的使用者無(wú)論是否真正了解到該收集條款,其已經(jīng)默認(rèn)同意或明示同意。而這些數(shù)據(jù)收集條款是否依法依規(guī)進(jìn)行,在如今生成式人工智能管理法律法規(guī)未健全的背景下,多依據(jù)于企業(yè)內(nèi)部規(guī)則。因而,應(yīng)當(dāng)設(shè)立專門的監(jiān)督機(jī)構(gòu)以確保生成式人工智能收集數(shù)據(jù)的流程合規(guī)合法[5]。

(二)數(shù)據(jù)存儲(chǔ)階段

在大數(shù)據(jù)時(shí)代的背景下,信息及數(shù)據(jù)在各行各業(yè)中的作用日漸凸顯,生成式人工智能基于海量數(shù)據(jù)架構(gòu),亟須對(duì)所利用的數(shù)據(jù)進(jìn)行有效存儲(chǔ)。同時(shí),傳統(tǒng)電子數(shù)據(jù)存儲(chǔ)過程中,主要以計(jì)算機(jī)系統(tǒng)硬件為載體,磁盤空間有其限度,因而基于人工智能技術(shù)對(duì)用戶電子數(shù)據(jù)進(jìn)行存儲(chǔ)實(shí)為必要[6]。然而,大量案例表明生成式人工智能數(shù)據(jù)泄露風(fēng)險(xiǎn)已日漸凸顯。2023年3月,OpenAI首席執(zhí)行官Sam Altman承認(rèn)一個(gè)小故障短暫地導(dǎo)致ChatGPT泄露了隨機(jī)用戶的對(duì)話[7]。三星員工在至少三個(gè)不同的場(chǎng)合向OpenAI公司的ChatGPT泄露敏感的機(jī)密公司信息后陷入困境,然而ChatGPT卻保留了它提供的數(shù)據(jù)進(jìn)一步訓(xùn)練,以改進(jìn)其AI模型[8]。意大利也因此成為第一個(gè)禁止ChatGPT的西方國(guó)家,數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)命令OpenAI公司暫時(shí)停止處理意大利用戶的數(shù)據(jù),以調(diào)查涉嫌違反歐洲嚴(yán)格的隱私法規(guī)[9]。在如此眾多的數(shù)據(jù)泄露案例發(fā)生之際,如何通過法律規(guī)制推動(dòng)技術(shù)治理,并建立統(tǒng)一的數(shù)據(jù)安全保障機(jī)制成為關(guān)鍵性問題。

(三)數(shù)據(jù)處理階段

第一,數(shù)據(jù)質(zhì)量風(fēng)險(xiǎn)。數(shù)據(jù)質(zhì)量風(fēng)險(xiǎn)主要由以下三類主體導(dǎo)致。首先,算法設(shè)計(jì)者。算法設(shè)計(jì)者固有的局限性使其可能充斥著價(jià)值偏向、認(rèn)知窄化、算法歧視等問題,因此從演進(jìn)原理來(lái)看,必然導(dǎo)致算法處理數(shù)據(jù)的偏差[10]。其次,數(shù)據(jù)標(biāo)注員。ChatGPT基于人類反饋的強(qiáng)化學(xué)習(xí)機(jī)制,由標(biāo)注員模擬用戶與代理進(jìn)行對(duì)話,生成對(duì)話樣本并對(duì)回復(fù)評(píng)分,將優(yōu)質(zhì)結(jié)果反饋給模型,使其在人類評(píng)價(jià)獎(jiǎng)勵(lì)和環(huán)境獎(jiǎng)勵(lì)中學(xué)習(xí),而人類標(biāo)注員可能存在認(rèn)知和感知層面的局限性,因此使得標(biāo)注的數(shù)據(jù)質(zhì)量參差不齊[11]。最后,個(gè)體使用者。現(xiàn)階段,生成式人工智能的應(yīng)用場(chǎng)景決定其必然傾向與人類的偏好相契合,而個(gè)體使用者的偏好輸入可能與人類整體系統(tǒng)價(jià)值觀偏離,數(shù)據(jù)輸入質(zhì)量未能獲得有效保證,輸出質(zhì)量亦無(wú)法保障其正當(dāng)性,數(shù)據(jù)質(zhì)量風(fēng)險(xiǎn)暗藏于生成式人工智能訓(xùn)練模型之內(nèi)。

第二,數(shù)據(jù)系統(tǒng)性偏差風(fēng)險(xiǎn)。人工智能系統(tǒng)根據(jù)數(shù)據(jù)進(jìn)行訓(xùn)練,數(shù)據(jù)隨著時(shí)間的推移而變化,樣本的偏差可能誘發(fā)算法邏輯計(jì)算結(jié)果之偏差,由此產(chǎn)生系統(tǒng)性偏差[12]。即使是人工智能領(lǐng)域的專家,尚無(wú)法在穩(wěn)定性和可塑性之間找到有效的平衡方法[11]。生成式人工智能應(yīng)盡可能避免無(wú)限制的數(shù)據(jù)處理和利用,合理限制關(guān)于處理數(shù)據(jù)的深度[13]。

(四)數(shù)據(jù)生成階段

第一,數(shù)據(jù)編造風(fēng)險(xiǎn)。有研究表明,ChatGPT 在中文的知識(shí)和常識(shí)問答、學(xué)術(shù)問答等方面可能會(huì)偏離事實(shí),其輸出的內(nèi)容很容易出現(xiàn)錯(cuò)誤,且它會(huì)使用流暢的句子對(duì)編造的虛假事實(shí)進(jìn)行闡述,使真實(shí)信息與虛假信息混合,對(duì)信息來(lái)源受限的群體具有一定的迷惑性[14]。基于生成式人工智能數(shù)據(jù)訓(xùn)練之模型,內(nèi)部算法可能無(wú)法準(zhǔn)確識(shí)別各參數(shù)之間的聯(lián)系與區(qū)別,而出現(xiàn)不同概念之間的混淆,進(jìn)而產(chǎn)生不同數(shù)據(jù)之間交叉編織的情形。如何通過規(guī)范內(nèi)在模型,使生成式人工智能數(shù)據(jù)模型逐漸凸顯專業(yè)性,避免簡(jiǎn)單編造信息的問題,是目前生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)研究中的關(guān)鍵。

第二,意識(shí)形態(tài)風(fēng)險(xiǎn)。在數(shù)字時(shí)代,人工智能成為意識(shí)形態(tài)領(lǐng)域斗爭(zhēng)及滲透的一種主要工具,以美國(guó)為代表的國(guó)家通過生成式人工智能等技術(shù),進(jìn)行意識(shí)形態(tài)的輸出,使其他國(guó)家的意識(shí)形態(tài)安全受到了極大的威脅[15]。生成式人工智能侵蝕意識(shí)形態(tài)的方式往往較為隱蔽,意識(shí)形態(tài)風(fēng)險(xiǎn)不容忽視。其生成內(nèi)容以大量數(shù)據(jù)為依據(jù),然而這些數(shù)據(jù)本身就充滿著西方國(guó)家的思想和價(jià)值觀念,經(jīng)由算法邏輯處理的輸出內(nèi)容亦存在價(jià)值、意識(shí)、信仰等諸多方面的隱蔽內(nèi)容。既有研究已表明,ChatGPT生成內(nèi)容并不回避涉及我國(guó)政治方面的言論,且存在大量對(duì)我國(guó)有偏見的生成內(nèi)容[14]。

綜上所述,生成式人工智能技術(shù)在快速發(fā)展的同時(shí),也帶來(lái)了諸多風(fēng)險(xiǎn),各個(gè)階段皆存在著典型的風(fēng)險(xiǎn),但并不意味著該風(fēng)險(xiǎn)僅存在于該階段,如數(shù)據(jù)泄露風(fēng)險(xiǎn),雖然歸于數(shù)據(jù)存儲(chǔ)階段討論,但此類風(fēng)險(xiǎn)仍存在于其他階段。此外,數(shù)據(jù)披露風(fēng)險(xiǎn)亦貫穿于上述各個(gè)階段。由于針對(duì)生成式人工智能的專門立法世界各國(guó)皆處于初級(jí)探索階段,對(duì)于數(shù)據(jù)披露規(guī)則尚未形成成熟的機(jī)制。合理披露數(shù)據(jù)的收集程序、收集類型、儲(chǔ)存方式、處理過程、生成規(guī)則有利于防范上述數(shù)據(jù)風(fēng)險(xiǎn)的產(chǎn)生。而現(xiàn)階段,法律不完備的背景下,數(shù)據(jù)披露內(nèi)容的選擇權(quán)仍在于各企業(yè),選擇性披露使用戶無(wú)法窺探生成式人工智能的全貌,因此也極易誘發(fā)相關(guān)領(lǐng)域之風(fēng)險(xiǎn)??傮w而言,在生成式人工智能收集、儲(chǔ)存、處理、生成數(shù)據(jù)的過程中,由于涉及數(shù)據(jù)范圍廣、跨度深等特點(diǎn),不可避免地產(chǎn)生諸多風(fēng)險(xiǎn)。鑒于此,應(yīng)當(dāng)規(guī)范生成式人工智能應(yīng)用數(shù)據(jù)的全流程,使生成式人工智能在應(yīng)用數(shù)據(jù)時(shí)確保數(shù)據(jù)效率與數(shù)據(jù)安全之間的平衡。

三、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的法律規(guī)制現(xiàn)狀及其不足

現(xiàn)行人工智能法律規(guī)制的框架,基本僅能應(yīng)對(duì)傳統(tǒng)人工智能所產(chǎn)生的問題,而隨著生成式人工智能的發(fā)展,傳統(tǒng)法律機(jī)制已無(wú)法應(yīng)對(duì)生成式人工智能的顛覆性變化[16]。盡管目前針對(duì)生成式人工智能產(chǎn)生風(fēng)險(xiǎn)的研究愈來(lái)愈多,但世界各國(guó)專門的立法進(jìn)程仍然較為緩慢,例如美國(guó)發(fā)布的《人工智能權(quán)利法案藍(lán)圖》、歐盟發(fā)布的《人工智能責(zé)任指令》《產(chǎn)品責(zé)任指令》、英國(guó)發(fā)布的《一種支持創(chuàng)新的人工智能監(jiān)管方法(白皮書)》,皆非針對(duì)生成式人工智能的專門性法律規(guī)定。與此相反,我國(guó)關(guān)于生成式人工智能法律規(guī)制方面的相關(guān)立法及監(jiān)管已經(jīng)走在世界前列[17]。從廣義的“深度合成”概念角度來(lái)看,《深度合成管理規(guī)定》的適用范圍涵蓋了生成式人工智能的內(nèi)容[18]?!渡墒饺斯ぶ悄軙盒修k法》《深度合成管理規(guī)定》《算法推薦管理規(guī)定》可稱為我國(guó)目前針對(duì)生成式人工智能法律規(guī)制的“三駕馬車”。但不可否認(rèn)的是,目前法律規(guī)制的現(xiàn)狀仍然是處理當(dāng)前突出的算法歧視、隱私和責(zé)任等“灰犀?!眴栴},對(duì)于可能在長(zhǎng)期以及未來(lái)出現(xiàn)的“黑天鵝”問題缺乏了解與關(guān)注[19]。生成式人工智能在運(yùn)行的各個(gè)階段所面臨的數(shù)據(jù)風(fēng)險(xiǎn)諸多,本文將對(duì)我國(guó)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)法律規(guī)制的三大主要問題進(jìn)行梳理和分析。

(一)未形成統(tǒng)一的生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)責(zé)任體系

經(jīng)上文梳理,生成式人工智能運(yùn)行各階段面臨著數(shù)據(jù)過度收集、非法收集、數(shù)據(jù)泄露、數(shù)據(jù)質(zhì)量、意識(shí)形態(tài)、數(shù)據(jù)披露等諸多風(fēng)險(xiǎn),鑒于生成式人工智能從收集數(shù)據(jù)到生成數(shù)據(jù)的整體性,因而需要建立一個(gè)統(tǒng)一的生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)責(zé)任體系。我國(guó)目前關(guān)于生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)法律責(zé)任的規(guī)定仍存在諸多不足。

第一,“依法”“以相關(guān)規(guī)定”等表述導(dǎo)致責(zé)任承擔(dān)未達(dá)到應(yīng)然效果。《生成式人工智能暫行辦法》作為專門性規(guī)制生成式人工智能的法律規(guī)范,針對(duì)法律責(zé)任的條款寥寥可數(shù),且基本使用“依據(jù)某某法律、行政法規(guī)”“不符合法律、行政法規(guī)”之表述;《深度合成管理規(guī)定》僅在第二十二條中規(guī)定了違反該規(guī)定的法律責(zé)任,并使用“依照有關(guān)法律、行政法規(guī)的規(guī)定處罰”之表述;《算法推薦管理規(guī)定》亦在法律責(zé)任章節(jié)中使用“法律、行政法規(guī)有規(guī)定的,依照其規(guī)定”的條文表述,且三部法律中皆出現(xiàn)“依法追究刑事責(zé)任”的條文。由此可見,關(guān)于生成式人工智能法律責(zé)任的具體條款中大量使用“依照有關(guān)規(guī)定”“依法”等表述。然而在法規(guī)范體系中上述語(yǔ)詞并沒有實(shí)際的規(guī)范效力,它未能提供超出語(yǔ)詞本身的指示功能,濫用“依法”等表述也會(huì)帶來(lái)諸多的負(fù)面效果[20]。上述三部法律規(guī)范已經(jīng)作為人工智能領(lǐng)域的專門性法律規(guī)范,卻將法律責(zé)任引至其他相關(guān)法律規(guī)范,只會(huì)增加法律責(zé)任的不確定性。

第二,過于依賴行政責(zé)任的規(guī)制手段。作為規(guī)制生成式人工智能最主要的三部法律規(guī)范,共同的特點(diǎn)是過于依賴行政責(zé)任的規(guī)制。在條文中簡(jiǎn)要規(guī)定構(gòu)成犯罪的,應(yīng)當(dāng)承擔(dān)刑事責(zé)任,實(shí)際上并不能起到立法者預(yù)期的指示作用。對(duì)于相關(guān)主體的民事責(zé)任甚至未進(jìn)行象征性的規(guī)定,完全忽視了生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)可能引發(fā)的民事侵權(quán)問題。例如,生成式人工智能存在數(shù)據(jù)過度收集風(fēng)險(xiǎn),但法律規(guī)范中并未明確數(shù)據(jù)收集原則,容易造成數(shù)據(jù)民事侵權(quán)的問題。

第三,未合理分配相應(yīng)主體責(zé)任。目前關(guān)于生成式人工智能規(guī)制的法律規(guī)范中,過分強(qiáng)調(diào)了服務(wù)提供者的責(zé)任。一般認(rèn)為,我國(guó)人工智能治理基于的現(xiàn)有算法監(jiān)督體系其最終落腳點(diǎn)仍在于服務(wù)提供者的責(zé)任[21]。因此,我國(guó)對(duì)服務(wù)提供者應(yīng)當(dāng)承擔(dān)的責(zé)任進(jìn)行了大量規(guī)定,卻忽視了技術(shù)研發(fā)者、數(shù)據(jù)提供者、系統(tǒng)操作者的責(zé)任,責(zé)任分配并不合理。各責(zé)任主體之間的協(xié)調(diào)及邏輯成為生成式人工智能治理的核心。

綜上所述,我國(guó)目前關(guān)于生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的法律規(guī)制并未形成統(tǒng)一的責(zé)任體系,數(shù)據(jù)風(fēng)險(xiǎn)的治理無(wú)法依據(jù)上述法律規(guī)范形成統(tǒng)一的治理機(jī)制。

(二)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)防范義務(wù)不明確

第一,數(shù)據(jù)披露義務(wù)規(guī)定不足。數(shù)據(jù)披露,指通過一定的標(biāo)識(shí)方法,向外界特別是向公眾揭示特定的內(nèi)容是由人工智能而非人類創(chuàng)造[18]?!渡疃群铣晒芾硪?guī)定》第十六條規(guī)定服務(wù)提供者應(yīng)當(dāng)在生成或者編輯的數(shù)據(jù)中進(jìn)行披露;第十七條規(guī)定了服務(wù)提供者和服務(wù)使用者兩種情形,對(duì)于可能導(dǎo)致公眾混淆或者誤認(rèn)的,服務(wù)提供者應(yīng)當(dāng)進(jìn)行主動(dòng)披露,在條款列舉的情形之外,應(yīng)當(dāng)提供顯著標(biāo)識(shí)功能,提示服務(wù)使用者可以進(jìn)行披露?!端惴ㄍ扑]管理規(guī)定》第九條規(guī)定了服務(wù)提供者發(fā)現(xiàn)未作顯著標(biāo)識(shí)的算法生成合成信息的,應(yīng)當(dāng)作出顯著標(biāo)識(shí)后,方可繼續(xù)傳輸。《生成式人工智能暫行辦法》第八條規(guī)定了清晰、具體、可操作的數(shù)據(jù)披露制度,并確保數(shù)據(jù)的準(zhǔn)確性??傮w來(lái)看,生成式人工智能數(shù)據(jù)披露義務(wù)主要為服務(wù)提供者承擔(dān),對(duì)服務(wù)使用者的披露義務(wù)未作規(guī)定。雖然設(shè)立了任何組織和個(gè)人不得刪改、篡改、隱匿標(biāo)識(shí)之義務(wù),但關(guān)于服務(wù)提供者違反數(shù)據(jù)披露義務(wù)的法律責(zé)任未做細(xì)化規(guī)定,使條款應(yīng)然狀態(tài)無(wú)法有效實(shí)現(xiàn)。此外未就數(shù)據(jù)披露的內(nèi)容進(jìn)行細(xì)化分類,使服務(wù)提供者承擔(dān)的披露義務(wù)過重,不利于生成式人工智能的發(fā)展。

第二,數(shù)據(jù)審核義務(wù)規(guī)定不具體?!端惴ㄍ扑]管理規(guī)定》規(guī)定算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核數(shù)據(jù)制度,但并未就定期的頻率、審核規(guī)避何種數(shù)據(jù)類型做進(jìn)一步具體規(guī)定,導(dǎo)致該條款實(shí)際應(yīng)用效果不佳?!渡墒饺斯ぶ悄軙盒修k法》規(guī)定生成式服務(wù)提供者應(yīng)當(dāng)開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),但未就技術(shù)運(yùn)營(yíng)過程中的審核義務(wù)進(jìn)行規(guī)定,僅規(guī)定了技術(shù)研發(fā)過程中應(yīng)當(dāng)開展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性?!渡疃群铣晒芾硪?guī)定》強(qiáng)調(diào)了對(duì)服務(wù)使用者的輸入數(shù)據(jù)和合成數(shù)據(jù)進(jìn)行審核的制度,但未詳細(xì)規(guī)定審核制度的具體執(zhí)行方式??傮w來(lái)看,三部法律規(guī)范的出發(fā)點(diǎn)皆意在建立服務(wù)提供者的數(shù)據(jù)審核義務(wù),但由于過于籠統(tǒng)的規(guī)定,無(wú)法使條文落地,進(jìn)而導(dǎo)致法律的實(shí)然效果與應(yīng)然效果之間存在較大差距。

綜上所述,我國(guó)現(xiàn)行法律規(guī)范關(guān)于生成式人工智能服務(wù)數(shù)據(jù)風(fēng)險(xiǎn)防范義務(wù)的規(guī)定并不明確。此外,由于生成式人工智能以數(shù)據(jù)、算法、算力等為核心,算法邏輯直接關(guān)聯(lián)數(shù)據(jù)處理的各流程,亦會(huì)產(chǎn)生相應(yīng)數(shù)據(jù)風(fēng)險(xiǎn)。但是,我國(guó)目前算法可解釋義務(wù)規(guī)定亦不足。在ChatGPT類生成式人工智能面世前,算法可解釋義務(wù)在傳統(tǒng)人工智能領(lǐng)域較容易施行,但當(dāng)生成式人工智能的算法邏輯和運(yùn)行模式產(chǎn)生與傳統(tǒng)人工智能不同的重大變化時(shí),算法可解釋義務(wù)可能并不容易發(fā)揮其原有的功能,例如當(dāng)生成式人工智能基于使用者輸入特定數(shù)據(jù)的模式生成特定內(nèi)容,其輸入與生成的邏輯很可能已經(jīng)超出原有算法邏輯設(shè)計(jì)者的本意。

(三)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)督機(jī)制不健全

第一,監(jiān)管方式的滯后性。首先,生成式人工智能技術(shù)的發(fā)展已明顯顛覆傳統(tǒng)人工智能技術(shù)的原有模式,傳統(tǒng)人工智能規(guī)制基于算法可解釋性為核心的監(jiān)管機(jī)制,但生成式人工智能的運(yùn)行邏輯與模式已發(fā)生改變。由于服務(wù)使用者輸入的數(shù)據(jù)差異可能導(dǎo)致不同的輸出內(nèi)容,亦存在不同主體輸入同一數(shù)據(jù)輸出不同結(jié)果的可能性,因而在對(duì)算法進(jìn)行解釋時(shí),監(jiān)管者已無(wú)法預(yù)測(cè)生成式人工智能的運(yùn)行結(jié)果,即難以進(jìn)行與之匹配的監(jiān)管方式。其次,基于生成式人工智能的數(shù)據(jù)訓(xùn)練能力,樣本和數(shù)據(jù)分析不斷發(fā)生動(dòng)態(tài)改變,數(shù)據(jù)內(nèi)容難以基于現(xiàn)行的法律規(guī)制框架進(jìn)行監(jiān)督管理。

第二,投訴舉報(bào)機(jī)制不健全?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法(征求意見稿)》曾規(guī)定了對(duì)于用戶舉報(bào)的不符合該辦法要求的生成內(nèi)容,服務(wù)提供者有內(nèi)容過濾義務(wù)和在3個(gè)月內(nèi)防止再次發(fā)生義務(wù)。雖然該條款在正式施行的辦法中予以刪除,但至少表明了立法者在細(xì)化投訴舉報(bào)機(jī)制方面的努力。目前,《生成式人工智能暫行辦法》僅籠統(tǒng)規(guī)定了服務(wù)提供者建立健全投訴舉報(bào)機(jī)制,相關(guān)條文淪為宣示條款,無(wú)法發(fā)揮實(shí)際的功效;《深度合成管理規(guī)定》中甚至未規(guī)定服務(wù)使用者的投訴舉報(bào)機(jī)制;《算法推薦管理規(guī)定》規(guī)定可以向有關(guān)部門投訴舉報(bào)。由此可以看出,生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的投訴舉報(bào)機(jī)制尚不健全,向服務(wù)提供者投訴舉報(bào)機(jī)制和向行政部門投訴舉報(bào)機(jī)制亦未有效銜接,尚未形成數(shù)據(jù)風(fēng)險(xiǎn)投訴舉報(bào)處理之閉環(huán)。

四、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)法律規(guī)制的完善路徑

(一)建立統(tǒng)一的生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)責(zé)任體系

第一,對(duì)“依法”“以相關(guān)規(guī)定”等條款進(jìn)行一定的刪改。因目前關(guān)于生成式人工智能的法律規(guī)制仍處于初級(jí)探索階段,《生成式人工智能暫行辦法》亦突出“暫行”之特點(diǎn),隨著生成式人工智能的發(fā)展,相關(guān)法律規(guī)范的完善空間仍然較大,可修改性較強(qiáng)。建議在后續(xù)立法或修訂已有法律規(guī)范時(shí),避免或刪改一定的無(wú)實(shí)際規(guī)范效力的“依法”等表述,由此實(shí)現(xiàn)對(duì)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的體系性和精確性治理。

第二,明確造成數(shù)據(jù)風(fēng)險(xiǎn)所應(yīng)承擔(dān)的行政、刑事、民事責(zé)任。由于生成式人工智能涉及數(shù)據(jù)、算法、算力等諸多問題,若將所有問題的法律規(guī)制皆規(guī)定在一部法律之中,以目前的立法技術(shù)尚無(wú)法達(dá)到。但可以實(shí)現(xiàn)的是,細(xì)化行政責(zé)任和刑事責(zé)任的承擔(dān)方式,并在法律規(guī)范中規(guī)定造成數(shù)據(jù)風(fēng)險(xiǎn)的民事責(zé)任。通過行政、刑事、民事責(zé)任的協(xié)同治理,確保數(shù)據(jù)的安全、可信、合規(guī)。采用公私結(jié)合的治理路徑能發(fā)揮更大的治理效用,充分釋放社會(huì)效益,實(shí)現(xiàn)責(zé)任的合理分配[22]。

第三,通過分類手段合理分配相應(yīng)主體責(zé)任。生成式人工智能的責(zé)任主體包括服務(wù)提供者、技術(shù)研發(fā)者、數(shù)據(jù)提供者、系統(tǒng)操作者等相關(guān)主體。通過分類手段合理分配相應(yīng)主體的責(zé)任,實(shí)現(xiàn)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的治理。服務(wù)提供者的相關(guān)責(zé)任為目前法律規(guī)制的重點(diǎn),無(wú)須過多再行贅敘;技術(shù)研發(fā)者對(duì)于數(shù)據(jù)風(fēng)險(xiǎn)應(yīng)當(dāng)承擔(dān)相應(yīng)的技術(shù)研發(fā)責(zé)任、算法偏見責(zé)任;生成式人工智能數(shù)據(jù)收集階段可能侵犯他人合法的數(shù)據(jù)權(quán)利,此種情況的發(fā)生亦可能是數(shù)據(jù)提供者自身侵權(quán)的原因,因此數(shù)據(jù)提供者應(yīng)當(dāng)承擔(dān)相應(yīng)侵權(quán)責(zé)任;系統(tǒng)操作者由于自身原因亦可能造成數(shù)據(jù)侵權(quán)、數(shù)據(jù)泄露等問題,從而承擔(dān)相應(yīng)的過錯(cuò)責(zé)任。在后續(xù)立法或現(xiàn)行法律規(guī)范修訂過程中應(yīng)充分考察各相關(guān)主體的法律責(zé)任,以主體分類方式合理分配相應(yīng)主體責(zé)任。

此外,還應(yīng)當(dāng)考慮到促進(jìn)生成式人工智能科技創(chuàng)新與數(shù)據(jù)風(fēng)險(xiǎn)控制的動(dòng)態(tài)平衡,不應(yīng)過重地規(guī)定相應(yīng)主體的法律責(zé)任,旨在建立統(tǒng)一的生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)責(zé)任體系。

(二)明晰及細(xì)化生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)防范義務(wù)

第一,細(xì)化生成式人工智能數(shù)據(jù)披露義務(wù)。數(shù)據(jù)披露在生成式人工智能健康發(fā)展的進(jìn)程中發(fā)揮著尤為關(guān)鍵的作用,應(yīng)當(dāng)在相關(guān)法律規(guī)范中明晰生成式人工智能主體的義務(wù)。首先,應(yīng)當(dāng)細(xì)化服務(wù)提供者披露數(shù)據(jù)的具體類型,規(guī)避不必要的數(shù)據(jù)披露。例如《深度合成管理規(guī)定》中規(guī)定利用生成式人工智能編輯數(shù)據(jù)也需要進(jìn)行主動(dòng)披露,實(shí)際已超過必要限度。其次,不能要求服務(wù)提供者披露所有數(shù)據(jù),盲目擴(kuò)大披露內(nèi)容可能增加查閱者的負(fù)擔(dān),無(wú)法有效識(shí)別想要查閱的數(shù)據(jù),數(shù)據(jù)披露范圍應(yīng)當(dāng)僅限于有高風(fēng)險(xiǎn)且必要的數(shù)據(jù)。最后,設(shè)置違反數(shù)據(jù)披露義務(wù)的相匹配的法律責(zé)任,以期實(shí)現(xiàn)法律的應(yīng)然狀態(tài)。

第二,明晰生成式人工智能數(shù)據(jù)審核義務(wù)。應(yīng)當(dāng)明確的是數(shù)據(jù)審核義務(wù)的主體為服務(wù)提供者,因此,要防范生成式人工智能各類數(shù)據(jù)風(fēng)險(xiǎn),應(yīng)當(dāng)從服務(wù)提供者的角度建立企業(yè)內(nèi)部的數(shù)據(jù)合規(guī)管理體系[23]。在企業(yè)合規(guī)管理體系的框架下,細(xì)化《算法推薦管理規(guī)定》的定期審核數(shù)據(jù)制度,明確服務(wù)提供者應(yīng)當(dāng)在多長(zhǎng)時(shí)間內(nèi)至少進(jìn)行一次審核的頻率,且對(duì)于具體數(shù)據(jù)審核的類型進(jìn)行詳細(xì)規(guī)定,與數(shù)據(jù)披露義務(wù)一致,無(wú)需審核所有數(shù)據(jù)內(nèi)容,僅需要對(duì)高風(fēng)險(xiǎn)有必要的數(shù)據(jù)內(nèi)容進(jìn)行審核。例如關(guān)于不同國(guó)家相關(guān)政治的言論,需要重點(diǎn)審核,妥善處理數(shù)據(jù)收集及生成數(shù)據(jù)的內(nèi)容,以防發(fā)生干擾他國(guó)內(nèi)政的風(fēng)險(xiǎn),確保生成式人工智能技術(shù)中立的地位,避免成為個(gè)別人違法犯罪的工具。

(三)構(gòu)建生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)督管理機(jī)制

第一,豐富生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)管方式。首先,根據(jù)技術(shù)發(fā)展靈活調(diào)整生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的監(jiān)管方式,由算法可解釋為核心調(diào)整為數(shù)據(jù)可控制為核心,縱深發(fā)展至生成式人工智能數(shù)據(jù)收集、儲(chǔ)存、處理、生成的各個(gè)階段,延伸數(shù)據(jù)控制范圍及方式[16]。其次,通過“實(shí)驗(yàn)性監(jiān)管”,開辟生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)管的緩沖區(qū),引導(dǎo)新技術(shù)在經(jīng)過實(shí)驗(yàn)后確定最適宜的監(jiān)管方式[24]。最后,推動(dòng)構(gòu)建生成式人工智能全球治理的監(jiān)管體系,注重在教育、學(xué)術(shù)、法律等重點(diǎn)領(lǐng)域的使用,有效監(jiān)管意識(shí)形態(tài)風(fēng)險(xiǎn)[25]。此外,需要充分重視數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)管與數(shù)據(jù)技術(shù)發(fā)展的平衡,以監(jiān)管適宜促進(jìn)技術(shù)正軌發(fā)展,以技術(shù)創(chuàng)新豐富監(jiān)管方式。

第二,健全生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)投訴舉報(bào)機(jī)制。雖然正式施行的《生成式人工智能暫行辦法》刪除了服務(wù)提供者的內(nèi)容過濾義務(wù)和防止再次發(fā)生義務(wù),但是仍需要考慮修改完善原征求意見稿中的條款,在日后法律規(guī)范修訂過程中,予以增加具體的投訴舉報(bào)條款,豐富投訴人的投訴舉報(bào)方式,細(xì)化服務(wù)提供者的具體處理措施。同時(shí)在已有的行政機(jī)關(guān)舉報(bào)投訴制度的基礎(chǔ)上,細(xì)化行政機(jī)關(guān)的處理措施及時(shí)限。合理連接私力投訴舉報(bào)處理和公力投訴舉報(bào)處理,提高處理方式的透明度,做到公平、公正、公開。

五、結(jié)語(yǔ)

生成式人工智能技術(shù)的發(fā)展,推動(dòng)了人類生活生產(chǎn)方式的進(jìn)步,但諸多數(shù)據(jù)風(fēng)險(xiǎn)也隨之而來(lái)。存在于生成式人工智能運(yùn)行各個(gè)階段的數(shù)據(jù)風(fēng)險(xiǎn)逐漸成為生成式人工智能技術(shù)發(fā)展的“影子區(qū)”?,F(xiàn)行的生成式人工智能法律規(guī)制現(xiàn)狀仍存在諸多不足,通過建立統(tǒng)一的數(shù)據(jù)風(fēng)險(xiǎn)責(zé)任體系、明晰及細(xì)化數(shù)據(jù)風(fēng)險(xiǎn)防范義務(wù)、構(gòu)建數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)督管理機(jī)制等方式解決目前生成式人工智能技術(shù)發(fā)展中出現(xiàn)的數(shù)據(jù)風(fēng)險(xiǎn)。人工智能技術(shù)的未來(lái)應(yīng)當(dāng)是基于“完全自主的智能”,人工智能通過自身觀察、感知、認(rèn)知、推理、學(xué)習(xí)和執(zhí)行,從大數(shù)據(jù)范式向大任務(wù)范式進(jìn)行轉(zhuǎn)變[26]。盡管本文基于現(xiàn)行生成式人工智能技術(shù)的大數(shù)據(jù)模型提供了諸多解決數(shù)據(jù)風(fēng)險(xiǎn)之建議,但仍希冀未來(lái)生成式人工智能依賴大數(shù)據(jù)的模式能夠徹底得以改變,基于少量數(shù)據(jù)和大任務(wù)的模式,從源頭控制生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的產(chǎn)生,塑造小數(shù)據(jù)風(fēng)險(xiǎn)控制的新態(tài)勢(shì)。

猜你喜歡
服務(wù)提供者規(guī)制人工智能
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任研究
2019:人工智能
人工智能與就業(yè)
論網(wǎng)絡(luò)服務(wù)提供者刑事責(zé)任的歸責(zé)模式一一以拒不履行網(wǎng)絡(luò)安全管理義務(wù)罪為切入點(diǎn)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
數(shù)讀人工智能
論網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
下一幕,人工智能!