国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能服務(wù)提供者的版權(quán)侵權(quán)責(zé)任研究

2024-12-08 00:00袁鋒
湖南大學(xué)學(xué)報(社會科學(xué)版) 2024年6期

[摘 要] 對于以語言模型為代表的生成式人工智能系統(tǒng)而言,在認(rèn)定其服務(wù)提供者版權(quán)侵權(quán)責(zé)任時,首先,應(yīng)綜合考慮人工智能的技術(shù)特征、行業(yè)監(jiān)管等因素,將人工智能服務(wù)提供者作為新型網(wǎng)絡(luò)服務(wù)提供者進行規(guī)制。其次,應(yīng)基于全周期思路,從事前、事中、事后的內(nèi)容生產(chǎn)全過程審視人工智能服務(wù)提供者的注意義務(wù)。從訓(xùn)練數(shù)據(jù)的透明度義務(wù)來看,人工智能服務(wù)提供者必須確保所使用的數(shù)據(jù)來源合法、透明,避免因數(shù)據(jù)侵權(quán)而引發(fā)版權(quán)糾紛。同時,生成過程的內(nèi)容審核義務(wù)意味著服務(wù)提供者需要對生成的內(nèi)容進行必要的審核,確保其不侵犯他人的版權(quán)。若最終生成侵權(quán)內(nèi)容,服務(wù)提供者還需履行相應(yīng)的必要措施,以規(guī)避侵權(quán)內(nèi)容的擴大傳播和再次生成。

[關(guān)鍵詞] 生成式人工智能;服務(wù)提供者;版權(quán)侵權(quán);注意義務(wù)

[中圖分類號] D923.4 [文獻(xiàn)標(biāo)識碼] A [文章編號] 1008-1763(2024)06-0149-09

Research on Copyright Infringement Liability

of Artificial Intelligence Service Providers

YUAN Feng

(School of Journalism and Communication,East China University of Political Science and Law,Shanghai 201600,China)

Abstract:For the generative artificial intelligence system represented by language models,when determining the copyright infringement liability of its service providers,firstly,the technical characteristics of artificial intelligence,industry regulation and other factors should be synthesized,and the artificial intelligence service providers should be regulated as a new type of network service providers. Secondly,the duty of care of AI service providers should be scrutinized based on the full-cycle thinking in the whole process of content production before,during and after the event. From the perspective of the obligation of transparency of training data,AI service providers must ensure that the source of the data used is legal and transparent,so as to avoid copyright disputes caused by data infringement. At the same time,the content audit obligation of the generation process implies that the service provider needs to carry out the necessary audit of the generated content to ensure that it does not infringe the copyright of others. If infringing content is eventually generated,the service provider also needs to fulfill the necessary measures to avoid the expansion of infringing content and its re-generation.

Key words: generative artificial intelligence;service providers;copyright infringement;the duty of care

一 問題的提出

2022年底,OpenAI公司宣布聊天機器人程序ChatGPT正式上線; 2024年,OpenAI又推出了文生視頻模型Sora,人工智能技術(shù)迎來重大突破,極大地提高了人類進行內(nèi)容生產(chǎn)的效率。但從侵權(quán)預(yù)防的角度看,如何使人工智能真正實施有價值的“創(chuàng)作”,而非成為文字垃圾的制造工具,是人們需要迫切思考的問題[1]。人工智能生成內(nèi)容大致分為三類:一類是與先前作品完全不同的新作品,此情形下生成內(nèi)容不構(gòu)成侵犯著作權(quán);一類是與先前作品存在相似性內(nèi)容的新作品,此情形下若生成內(nèi)容與先前作品構(gòu)成“實質(zhì)性相似”,則應(yīng)認(rèn)定其侵犯復(fù)制權(quán);最后一類是在保留先前作品內(nèi)容基礎(chǔ)上形成的具備獨創(chuàng)性的作品,此情形下人工智能生成內(nèi)容明顯侵犯先前作品的改編權(quán)[2]。此外,人工智能為了進行數(shù)據(jù)挖掘或機器學(xué)習(xí),或者為了實現(xiàn)研究結(jié)果的可驗證性,需要將數(shù)據(jù)或文本通過互聯(lián)網(wǎng)進行傳輸,還可能侵犯向公眾傳播權(quán)[3]。事實上,近年已發(fā)生多起人工智能生成內(nèi)容侵權(quán)案件。2023年12月,《紐約時報》對OpenAI公司和微軟公司提起訴訟,指控這兩家公司未經(jīng)授權(quán)使用該媒體多篇文章訓(xùn)練ChatGPT等人工智能聊天機器人[4]。2024年2月,我國廣州互聯(lián)網(wǎng)法院一起關(guān)于生成式AI服務(wù)侵權(quán)判決生效,該案中被告通過Tab(化名)工具有償提供人工智能圖片生成服務(wù),原告將“奧特曼”及相關(guān)關(guān)鍵詞作為指示詞輸入,通過被告Tab可以生成和奧特曼實質(zhì)相似的圖片。法院最終判決認(rèn)定被告侵害復(fù)制權(quán)、改編權(quán),要求被告及時“停止侵害”,盡到合理注意義務(wù)。廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號民事判決書。因此,為切實保護版權(quán)人的合法權(quán)益,推動技術(shù)創(chuàng)新和產(chǎn)業(yè)的健康發(fā)展,對人工智能生成內(nèi)容進行合理且有效地規(guī)制顯得尤為必要。

針對人工智能服務(wù)提供者版權(quán)侵權(quán)責(zé)任,學(xué)界目前的核心爭議集中于以下兩方面:一是人工智能服務(wù)提供者的法律地位問題。由于人工智能服務(wù)提供者的內(nèi)容服務(wù)能力與以往的網(wǎng)絡(luò)服務(wù)提供者不同,其法律地位并不明晰,有學(xué)者否認(rèn)二者的絕對共性,認(rèn)為“人工智能服務(wù)提供者應(yīng)被作為一類新型網(wǎng)絡(luò)服務(wù)提供者來對待”[5];也有相反的觀點認(rèn)為人工智能服務(wù)提供者仍然屬于傳統(tǒng)網(wǎng)絡(luò)平臺[6]。二是人工智能服務(wù)提供者的注意義務(wù)問題。相較于傳統(tǒng)網(wǎng)絡(luò)服務(wù),人工智能展現(xiàn)出更為卓越的創(chuàng)作能力和高度的自主性,其服務(wù)提供者應(yīng)承擔(dān)何種程度的注意義務(wù),仍有待深入探討。有學(xué)者指出,人工智能服務(wù)提供者需要承擔(dān)內(nèi)容管理義務(wù)[7];在數(shù)據(jù)輸出階段,負(fù)有及時采取處置措施以消除侵權(quán)信息的影響,并防止系統(tǒng)再次生成侵權(quán)信息的義務(wù)[8]。還有學(xué)者提出人工智能服務(wù)提供者在規(guī)避版權(quán)侵權(quán)設(shè)計和用戶誘導(dǎo)侵權(quán)治理等方面的更為具體的注意義務(wù)[9]。實踐上,當(dāng)前對人工智能的規(guī)制是全球的重要戰(zhàn)略和趨勢,例如:2024年3月,聯(lián)合國大會通過首個有關(guān)人工智能的決議草案,希望確保人工智能技術(shù)“安全、可靠和值得信賴”;同月,歐盟正式通過《人工智能法案》,以加強對人工智能的監(jiān)管;我國也于去年開始實施《生成式人工智能服務(wù)管理暫行辦法》(下文簡稱《暫行辦法》),從行政管理的角度規(guī)定了人工智能服務(wù)提供者的內(nèi)容提供者地位和部分義務(wù)。據(jù)此,基于人工智能服務(wù)提供者版權(quán)侵權(quán)責(zé)任研究的重要性和迫切性,本文旨在探討人工智能服務(wù)提供者的法律定性,以及人工智能服務(wù)提供者的注意義務(wù)問題,進而提出化解人工智能版權(quán)侵權(quán)風(fēng)險的因應(yīng)之策。

二 人工智能服務(wù)提供者的法律地位

互聯(lián)網(wǎng)的技術(shù)革新促進了新型網(wǎng)絡(luò)服務(wù)的產(chǎn)生,這也意味著出現(xiàn)了新的法律調(diào)整對象。生成式人工智能服務(wù)提供者深度參與內(nèi)容的生成過程,其生成的內(nèi)容存在自主、不可預(yù)測性等特點,是傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者的進階、優(yōu)化版。鑒于我國現(xiàn)行法并未明確人工智能服務(wù)提供者的法律地位,下文將通過現(xiàn)有網(wǎng)絡(luò)服務(wù)提供者和人工智能服務(wù)提供者的差異對比,對人工智能服務(wù)提供者的法律地位展開分析。

(一)網(wǎng)絡(luò)服務(wù)提供者的分類標(biāo)準(zhǔn)

1.技術(shù)特征層面

我國法律對網(wǎng)絡(luò)服務(wù)提供者的規(guī)定主要由《信息網(wǎng)絡(luò)傳播權(quán)保護條例》(下文簡稱《條例》)和《民法典》1194至1197條集中體現(xiàn),其中,《條例》作為特別法,借鑒了美國DMCA的劃分方式。DMCA以服務(wù)提供者技術(shù)上和功能上的差異性為依據(jù)對網(wǎng)絡(luò)服務(wù)提供者進行分類,將其分為四種類型:承擔(dān)傳輸“通道”功能的網(wǎng)絡(luò)服務(wù)、承擔(dān)系統(tǒng)緩存功能的網(wǎng)絡(luò)服務(wù)、履行信息搜索功能的網(wǎng)絡(luò)服務(wù)和履行存儲功能的網(wǎng)絡(luò)服務(wù)Digital Millennium Copyright Act,section 512.。不同類型網(wǎng)絡(luò)服務(wù)提供者技術(shù)特征的差異性主要表現(xiàn)在以下三個方面:

其一,技術(shù)服務(wù)的用戶或場景特定性。接入、自動傳輸及緩存的服務(wù)類型都是基礎(chǔ)網(wǎng)絡(luò)服務(wù)和技術(shù)實現(xiàn)方案,對非特定用戶或場景提供無差別技術(shù)服務(wù)[10]。一般情況下,承擔(dān)傳輸“通道”功能和系統(tǒng)緩存功能的網(wǎng)絡(luò)服務(wù)提供者僅是為了幫助用戶接入網(wǎng)絡(luò)、傳輸數(shù)據(jù)或提高信息訪問效率,其服務(wù)對象具有“普遍性”,個人和互聯(lián)網(wǎng)之間建立了基本的聯(lián)系,用戶可以下載和上傳任何內(nèi)容[11]。而存儲空間服務(wù)和信息定位服務(wù)提供者更側(cè)重于服務(wù)特定的用戶群體和具體的應(yīng)用場景,例如視頻分享網(wǎng)站可以采用多種編碼方案進行視頻轉(zhuǎn)碼,并根據(jù)用戶的請求將視頻內(nèi)容緩存并播放,同時還可將內(nèi)容聚合至第三方平臺,這些服務(wù)的核心對象均為視頻觀看者,業(yè)務(wù)場景主要圍繞視頻的在線傳播與分享U.S. Copyright Office,section 512 of title 17:a report of the register of copyrights (May 21,2020).。信息定位服務(wù)則根據(jù)用戶的要求,利用超文本鏈接為用戶提供搜索信息的在線位置[12],其服務(wù)范圍也更顯針對性和局限性。

其二,信息內(nèi)容的干預(yù)程度。網(wǎng)絡(luò)接入、自動傳輸服務(wù)的提供者為用戶選定的信息提供網(wǎng)上傳輸、引導(dǎo)或鏈接服務(wù),并不改變發(fā)出或接收的信息內(nèi)容;緩存服務(wù)提供者同樣只涉及內(nèi)容的臨時存儲[13],但其能夠自動創(chuàng)建材料的臨時副本,以便提高后續(xù)服務(wù)的效率和響應(yīng)速度。相反,信息存儲空間服務(wù)和信息定位服務(wù)提供者對信息內(nèi)容進行管控處理。當(dāng)用戶發(fā)布的信息通過信息存儲平臺向公眾傳播時,可能會引發(fā)版權(quán)糾紛。以新浪微博為例,平臺會根據(jù)法律規(guī)定對違規(guī)內(nèi)容進行屏蔽、下架,展現(xiàn)出對內(nèi)容在一定程度上的識別和控制能力。而信息定位服務(wù)中,通過鏈接本身的文字描述或其概要,用戶可以大致了解被鏈接對象的內(nèi)容,服務(wù)提供者也可以打開并接觸到被鏈接的內(nèi)容[14]。

其三,審核、干預(yù)信息內(nèi)容的能力和條件。DMCA關(guān)于其512條的立法評估報告指出,網(wǎng)絡(luò)服務(wù)提供者控制侵權(quán)內(nèi)容的能力特征,是確立各類服務(wù)提供者在網(wǎng)絡(luò)侵權(quán)中所承擔(dān)責(zé)任的重要基礎(chǔ)。接入或自動傳輸、緩存這類基礎(chǔ)性網(wǎng)絡(luò)服務(wù)提供者只能實現(xiàn)整個服務(wù)的全有或全無,對侵權(quán)內(nèi)容的判斷識別能力較弱,無法準(zhǔn)確地刪除侵權(quán)內(nèi)容或者切斷與侵權(quán)內(nèi)容有關(guān)的網(wǎng)絡(luò)服務(wù)《條例》第二十條、二十一條的規(guī)定。。信息存儲空間服務(wù)提供者和信息定位服務(wù)提供者能夠選擇、改變以及控制信息內(nèi)容,一旦確認(rèn)侵權(quán)行為成立,平臺能夠迅速對被訴信息進行刪除處理,以遏制侵權(quán)后果的進一步擴大。因此,“避風(fēng)港”規(guī)則適用于信息存儲空間服務(wù)提供者和信息定位服務(wù)提供者《條例》第二十二條、二十三條的規(guī)定。。

2.行業(yè)監(jiān)管層面

在行業(yè)監(jiān)管層面,可以按照主管部門對電信行業(yè)的準(zhǔn)入和監(jiān)管分類標(biāo)準(zhǔn),輔助判斷各類網(wǎng)絡(luò)服務(wù)提供者的區(qū)別。以我國司法實踐中的“阿里云案”為例,法院對其法律地位的判斷即參考了工業(yè)和信息化部公布的《電信業(yè)務(wù)分類目錄》。在“阿里云案”中,法院認(rèn)定阿里云公司提供的云服務(wù)器租賃服務(wù)屬于《電信業(yè)務(wù)分類目錄》第一類增值電信業(yè)務(wù)中的“互聯(lián)網(wǎng)數(shù)據(jù)中心業(yè)務(wù)(B11)”,另外,部分自動接入、自動傳輸服務(wù)(如QQ與微信提供的文件傳輸功能)及部分自動緩存服務(wù)(如網(wǎng)頁瀏覽器及視頻播放器中的緩存加速服務(wù)等)被認(rèn)定為屬于第二類增值電信業(yè)務(wù)中的“信息服務(wù)業(yè)務(wù)(B25)”北京知識產(chǎn)權(quán)法院(2017)京73民終1194號民事判決書。。此外,根據(jù)工業(yè)和信息化部的許可證公開查詢信息,中國移動這類網(wǎng)絡(luò)接入和傳輸服務(wù),其提供的“網(wǎng)絡(luò)接入設(shè)施服務(wù)業(yè)務(wù)”屬于A類“基礎(chǔ)電信業(yè)務(wù)”在工業(yè)和信息化部電信業(yè)務(wù)市場綜合管理信息系統(tǒng)中輸入“中國移動通信集團有限公司”進行許可業(yè)務(wù)信息的查詢,結(jié)果顯示其獲得的是A類業(yè)務(wù)許可。;以新浪微博為代表的信息存儲空間服務(wù),“提供相對開放的網(wǎng)絡(luò)平臺,許可用戶自行上傳信息并對外發(fā)布”,屬于第二類增值電信業(yè)務(wù)中的“信息服務(wù)業(yè)務(wù)(B25)”在工業(yè)和信息化部電信業(yè)務(wù)市場綜合管理信息系統(tǒng)中輸入新浪微博所屬公司“北京微夢創(chuàng)科網(wǎng)絡(luò)技術(shù)有限公司”進行許可業(yè)務(wù)信息的查詢,結(jié)果顯示其獲得的是B2類信息服務(wù)業(yè)務(wù)許可。;百度搜索引擎作為網(wǎng)絡(luò)信息定位服務(wù)提供者的典型代表,根據(jù)其不同服務(wù)種類分別取得“互聯(lián)網(wǎng)數(shù)據(jù)中心業(yè)務(wù)”“內(nèi)容分發(fā)網(wǎng)絡(luò)業(yè)務(wù)”等B類增值電信業(yè)務(wù)經(jīng)營許可,其中百度“為用戶提供網(wǎng)頁信息、文本、圖片、音視頻等信息檢索查詢”的服務(wù)和新浪微博等的信息存儲服務(wù)一樣同屬于“信息服務(wù)業(yè)務(wù)(B25)”的范圍在工業(yè)和信息化部電信業(yè)務(wù)市場綜合管理信息系統(tǒng)中輸入“北京百度網(wǎng)訊科技有限公司”進行許可業(yè)務(wù)信息的查詢,結(jié)果顯示其獲得的是B1、B2類業(yè)務(wù)許可。。

各類網(wǎng)絡(luò)服務(wù)提供者根據(jù)其具體的業(yè)務(wù)形態(tài)取得不同的行業(yè)許可,并根據(jù)對應(yīng)的行業(yè)監(jiān)管規(guī)定承擔(dān)義務(wù),例如,云計算服務(wù)作為“互聯(lián)網(wǎng)數(shù)據(jù)中心業(yè)務(wù)”,需根據(jù)《信息安全技術(shù)云計算服務(wù)安全指南》承擔(dān)確保用戶數(shù)據(jù)和業(yè)務(wù)系統(tǒng)的保密性、完整性和可用性等義務(wù);而新浪微博、百度等“信息服務(wù)業(yè)務(wù)”提供者,由于涉及的服務(wù)內(nèi)容范圍較廣泛、多樣,因此其具體義務(wù)應(yīng)視特定平臺而定,如新浪微博這類信息存儲空間服務(wù)提供者只要進行了身份明示、未改變作品、不知且不應(yīng)知作品侵權(quán)、未從侵權(quán)作品中直接獲利,并在接到權(quán)利人通知后及時刪除侵權(quán)內(nèi)容,就無需承擔(dān)侵權(quán)責(zé)任[15]。

3.獲益水平層面

判斷網(wǎng)絡(luò)服務(wù)提供者的類型,另一重要判斷標(biāo)準(zhǔn)是服務(wù)提供者的獲益水平。不同類型的網(wǎng)絡(luò)服務(wù)提供者,其商業(yè)模式或經(jīng)營方法是否會帶來額外的侵權(quán)風(fēng)險,其中最重要的判斷標(biāo)準(zhǔn)就是網(wǎng)絡(luò)服務(wù)提供者是否從用戶的侵權(quán)行為中獲得直接的經(jīng)濟(財產(chǎn))利益[16]。在有權(quán)利和能力控制侵權(quán)活動的前提下而未從侵權(quán)行為中“直接獲利”,是美國模式中信息存儲空間和信息定位工具兩類網(wǎng)絡(luò)服務(wù)提供者免除替代責(zé)任的條件[17]。從我國現(xiàn)行法律規(guī)定來看,根據(jù)《條例》第二十二條,信息存儲空間服務(wù)提供者進入“避風(fēng)港”的條件之一是未從服務(wù)對象提供的作品、表演、錄音錄像制品中直接獲得經(jīng)濟利益?!蹲罡呷嗣穹ㄔ宏P(guān)于審理侵害信息網(wǎng)絡(luò)傳播權(quán)民事糾紛案件適用法律若干問題的規(guī)定》第十一條則從正面規(guī)定:“網(wǎng)絡(luò)服務(wù)提供者從網(wǎng)絡(luò)用戶提供的作品、表演、錄音錄像制品中直接獲得經(jīng)濟利益的,人民法院應(yīng)當(dāng)認(rèn)定其對該網(wǎng)絡(luò)用戶侵害信息網(wǎng)絡(luò)傳播權(quán)的行為負(fù)有較高的注意義務(wù)?!敝劣诮尤?、自動傳輸及緩存服務(wù)提供者,由于在服務(wù)過程中并未介入用戶傳輸?shù)膬?nèi)容,因此這兩類服務(wù)提供者一般不存在從用戶行為中獲利的情況。

(二)人工智能服務(wù)提供者和傳統(tǒng)服務(wù)提供者的比較分析

在審視人工智能服務(wù)提供者的法律地位時,一種有效的途徑是將其與當(dāng)前法律體系內(nèi)所界定的四類傳統(tǒng)服務(wù)類型進行類比分析。以我國“NFT著作權(quán)第一案”為例,法院在處理此案時便采取了這種策略:鑒于NFT交易平臺并不直接對應(yīng)于現(xiàn)行《條例》中明確列出的服務(wù)類型,在綜合考量該平臺和傳統(tǒng)服務(wù)提供者之間營利模式、技術(shù)特征、控制能力等方面的差異之后,法院最終將其歸類為新型網(wǎng)絡(luò)服務(wù)商杭州互聯(lián)網(wǎng)法院(2022)浙01民終5272號民事判決書。。因此,在判斷人工智能服務(wù)提供者的法律地位時,也可借鑒此種類比方法,從而更準(zhǔn)確地界定其法律屬性。

相比于網(wǎng)絡(luò)接入或自動傳輸服務(wù)提供者、緩存服務(wù)提供者,首先,從技術(shù)特征來看,人工智能服務(wù)提供者具備審核、干預(yù)信息內(nèi)容的能力和條件,注重與用戶的交互對話,使用訓(xùn)練數(shù)據(jù)中的信息來構(gòu)建其認(rèn)為最能響應(yīng)用戶查詢的答案[18];而網(wǎng)絡(luò)接入或自動傳輸、緩存這兩種服務(wù)類型并不針對具體的內(nèi)容,且對內(nèi)容沒有控制能力。其次,在行業(yè)監(jiān)管規(guī)則下,若人工智能服務(wù)提供者僅進行軟件技術(shù)開發(fā),而不涉及其他更具互動性的線上服務(wù)形態(tài),則可能不需要取得前文所述的增值電信業(yè)務(wù)經(jīng)營許可證。而當(dāng)其提供生成式服務(wù)功能時,即允許用戶發(fā)布信息,進行互動,如提供聊天室、即時通信等功能,則可能需要取得“信息服務(wù)業(yè)務(wù)(B25)”的增值電信業(yè)務(wù)經(jīng)營許可證。因此,根據(jù)人工智能服務(wù)提供者的具體服務(wù)和業(yè)務(wù)形態(tài),可能需要取得相應(yīng)類型的經(jīng)營許可。大部分網(wǎng)絡(luò)自動接入或傳輸服務(wù)屬于“互聯(lián)網(wǎng)接入服務(wù)(B14)”,另有部分網(wǎng)絡(luò)緩存服務(wù)則屬于第二類增值電信業(yè)務(wù)中的“信息服務(wù)業(yè)務(wù)(B25)”。最后,從獲益水平層面來看,目前生成式人工智能通過向用戶提供寫作、繪畫等服務(wù),并收取相應(yīng)的平臺服務(wù)費以盈利。一般用戶還可通過付費訂閱使用人工智能創(chuàng)作工具,以獲取更多高級功能和更好的創(chuàng)作成果,如付費使用文心一言等??梢?,人工智能服務(wù)提供者深度介入了用戶行為,從用戶的侵權(quán)行為中獲得直接經(jīng)濟利益的可能性遠(yuǎn)大于傳統(tǒng)的網(wǎng)絡(luò)接入或自動傳輸服務(wù)提供者、緩存服務(wù)提供者。綜上,人工智能服務(wù)提供者與網(wǎng)絡(luò)接入或自動傳輸服務(wù)提供者、緩存服務(wù)提供者在技術(shù)特征、行業(yè)監(jiān)管要求和獲益水平等方面均存在顯著差異,不宜將其歸為同一類服務(wù)提供者。

相比于信息存儲空間服務(wù)和信息定位服務(wù)提供者,首先從技術(shù)特征來看,人工智能服務(wù)從其接收的輸入信息中生成“可影響物理或虛擬環(huán)境的輸出,如預(yù)測、內(nèi)容、建議或決定”,展現(xiàn)出超越常人的強智能Artificial Intelligence Act,Article 3.。信息存儲空間服務(wù)只為用戶提供數(shù)據(jù)的存儲、備份、共享和管理服務(wù);而信息定位服務(wù)按照用戶搜索的關(guān)鍵詞在網(wǎng)絡(luò)中抓取相關(guān)內(nèi)容,并以鏈接列表的形式將最終搜索結(jié)果展示給用戶,與其他技術(shù)服務(wù)比具有較強的信息篩選、識別和呈現(xiàn)能力,其服務(wù)特征與人工智能更具相似性。以百度和ChatGPT為例,二者均根據(jù)用戶輸入的需求,為其提供相應(yīng)的信息,但二者的信息呈現(xiàn)方式有所不同:在百度網(wǎng)站中搜索某一內(nèi)容,百度提供相關(guān)資料鏈接,用戶需要再次點擊方能跳轉(zhuǎn)到第三方網(wǎng)站獲取內(nèi)容;而ChatGPT會直接為用戶提供相關(guān)信息。此外,人工智能服務(wù)提供者與信息定位服務(wù)提供者的生成內(nèi)容參與度存在本質(zhì)不同。以百度為例,信息定位服務(wù)提供者實際上是為用戶提供搜索結(jié)果的鏈接,由第三方網(wǎng)站為用戶提供信息內(nèi)容,百度本身并不參與內(nèi)容生產(chǎn);即使第三方網(wǎng)站出現(xiàn)侵權(quán)內(nèi)容,百度也無權(quán)下架網(wǎng)站內(nèi)容,至多在搜索頁面中下架該網(wǎng)站鏈接。而人工智能服務(wù)提供者直接決定用戶能夠獲取的內(nèi)容,針對用戶的搜索問題,其并非羅列多種答案,而是直接生成特定內(nèi)容供用戶查閱,并且不同用戶針對同一問題獲得的答案可能會存在語序、內(nèi)容的差異。在行業(yè)監(jiān)管標(biāo)準(zhǔn)下,人工智能服務(wù)中的用戶互動、即時通信等功能需要取得“信息服務(wù)業(yè)務(wù)(B25)”的增值電信業(yè)務(wù)經(jīng)營許可,這與信息存儲空間服務(wù)和信息定位服務(wù)所需取得的許可類別相同。此外,根據(jù)前文,人工智能服務(wù)提供者主要通過向用戶收取相應(yīng)的平臺服務(wù)費、訂閱費盈利,這與網(wǎng)絡(luò)存儲空間服務(wù)和信息定位服務(wù)通過提供視頻、文字素材等內(nèi)容以收取費用的盈利模式相似。綜上,人工智能服務(wù)提供者與網(wǎng)絡(luò)存儲空間、信息定位服務(wù)提供者在行業(yè)監(jiān)管、獲益水平等方面存在一定的相似性,但其在技術(shù)特征這一主要對比因素上并不完全相同,因此也不宜將其歸為同一類服務(wù)提供者。

總而言之,起源于美國DMCA的四類服務(wù)提供者類型無法有效指向以ChatGPT、文心一言等為代表的生成式人工智能服務(wù)提供者。美國DMCA于 1998 年通過,其時互聯(lián)網(wǎng)的發(fā)展還處在Web 1.0時代,網(wǎng)絡(luò)服務(wù)提供者的角色仍以被動性(內(nèi)容的傳輸與變動由網(wǎng)絡(luò)用戶發(fā)起)、工具性(服務(wù)提供者僅提供技術(shù)和通道支持)和中立性(服務(wù)提供者不改變標(biāo)準(zhǔn)技術(shù),不干涉權(quán)利保護措施)為特征[19]286。而在Web 2.0時代,互聯(lián)網(wǎng)發(fā)展呈現(xiàn)出交互性、社會性的突出特點,有別于以往網(wǎng)絡(luò)服務(wù)提供者單純提供技術(shù)支持的情況,如今網(wǎng)絡(luò)服務(wù)提供者之間的界限逐漸模糊,如各類視頻聚合平臺即兼具技術(shù)服務(wù)和內(nèi)容服務(wù)。而生成式人工智能的出現(xiàn),更是突破了技術(shù)和內(nèi)容服務(wù)的界限,表現(xiàn)為二者功能的深度融合,因此,應(yīng)將人工智能服務(wù)提供者作為一類新型網(wǎng)絡(luò)服務(wù)提供者。

三 全周期思路下人工智能服務(wù)

提供者注意義務(wù)的認(rèn)定

根據(jù)前文,人工智能服務(wù)提供者應(yīng)被認(rèn)定為新型網(wǎng)絡(luò)服務(wù)提供者。由于生成式人工智能已具有類人化的自主意識和辨認(rèn)控制能力,其與傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者在技術(shù)介入和內(nèi)容控制力上存在根本不同。因此,應(yīng)認(rèn)真審視人工智能服務(wù)提供者在版權(quán)侵權(quán)中的注意義務(wù)問題,并構(gòu)建合理的侵權(quán)風(fēng)險治理模式予以應(yīng)對。

(一)全周期思路引入的必要性

人工智能的版權(quán)侵權(quán)風(fēng)險并非孤立存在,而是深深植根于其技術(shù)設(shè)計、數(shù)據(jù)訓(xùn)練、內(nèi)容生成等多個階段之中,侵權(quán)風(fēng)險相互交織、層層疊加,其中任何一個環(huán)節(jié)的疏忽都可能導(dǎo)致生成內(nèi)容侵犯版權(quán)。自生成式人工智能進入應(yīng)用市場,已發(fā)生多起版權(quán)侵權(quán)案件,多數(shù)涉及作品的非法使用以及服務(wù)者責(zé)任承擔(dān)問題。在此情形下,將人工智能內(nèi)容生成的各階段納入考量的全周期思路是未來治理方案的可能方向。

首先,根據(jù)控制力理論,離危險源越近的主體對風(fēng)險的控制能力越強[20]。人工智能服務(wù)提供者作為技術(shù)的控制者,可通過訓(xùn)練數(shù)據(jù)的選擇和內(nèi)容生成模型的設(shè)計影響內(nèi)容的創(chuàng)作與發(fā)布,在一定程度上影響著最終生成內(nèi)容的合法性。因此,要求人工智能服務(wù)提供者這一“危險源開啟與控制”的主體承擔(dān)排除生成內(nèi)容版權(quán)侵權(quán)風(fēng)險的注意義務(wù),在周期源頭進行把控,能夠有效提高版權(quán)保護的效率。其次,網(wǎng)絡(luò)服務(wù)提供者在經(jīng)營過程中獲取相應(yīng)的利益,即應(yīng)承擔(dān)利益所帶來的風(fēng)險[21]102。人工智能服務(wù)提供者因用戶的使用行為獲得巨大的數(shù)字紅利及數(shù)字權(quán)力,通過訂閱付費、用戶收益分成、投放廣告等方式盈利,但由于其在數(shù)據(jù)挖掘、處理等方面缺乏明確的規(guī)范與準(zhǔn)則,容易出現(xiàn)版權(quán)侵權(quán)問題。依據(jù)收益與風(fēng)險并存理論,人工智能服務(wù)提供者對正在發(fā)生的侵權(quán)有義務(wù)排除,并對未來的妨害負(fù)有審查控制義務(wù)。最后,縱觀全球人工智能侵權(quán)風(fēng)險治理情況,多國立法不約而同地采取全周期思路,對人工智能服務(wù)提供者設(shè)定義務(wù)。以歐盟為例,其于2020年2月發(fā)布的《人工智能白皮書》就明確提出建立涵蓋事前、事中、事后多個環(huán)節(jié)的全面監(jiān)管機制;而后在2024年3月,歐洲議會正式通過了《人工智能法案》,作為全球首部針對人工智能領(lǐng)域的立法,該法案提出的風(fēng)險管理措施覆蓋了人工智能系統(tǒng)的全生命周期。我國同樣重視人工智能的侵權(quán)風(fēng)險治理,2023年10月,我國發(fā)布《全球人工智能治理倡議》,為人工智能的全生命周期治理提供了關(guān)鍵指導(dǎo)。該倡議強調(diào)在部署和應(yīng)用階段要堅持和落實“智能向善”的宗旨,確保人工智能技術(shù)的發(fā)展始終符合社會倫理和法律法規(guī)的要求,避免侵犯他人的版權(quán)等合法權(quán)益。

綜合考慮,基于全周期思路審視人工智能服務(wù)提供者的注意義務(wù),有助于更好地保護創(chuàng)作者的權(quán)益,促進人工智能技術(shù)的健康發(fā)展。無論是從保護權(quán)利人利益的角度,還是根據(jù)技術(shù)水平和國內(nèi)外關(guān)于人工智能服務(wù)規(guī)范的規(guī)定來看,從事前、事中、事后的內(nèi)容生產(chǎn)全過程對生成式人工智能服務(wù)提供者課以相應(yīng)義務(wù)都具備正當(dāng)性。

(二)事前:透明度義務(wù)

當(dāng)人工智能響應(yīng)用戶提示時,它實際上是在綜合多個抽象層級的潛在表示,從而做出一個充分的預(yù)測,判斷問題的回答應(yīng)該是什么[22]。隨著生成式人工智能幫助人類做出更多更重要的決策,人類愈來愈無法理解現(xiàn)代人工智能決策的過程,“算法黑箱”問題愈發(fā)顯著。在人工智能發(fā)展初期,經(jīng)過人工測試算法后,能夠精確定位一個不可預(yù)測的、危及生命的故障[23]。例如1991年,卡內(nèi)基·梅隆大學(xué)的Pomerleau在其自動駕駛實驗中,通過編程計算機改裝悍馬軍車,嘗試讓其自動駕駛;測試中計算機出現(xiàn)誤判,但在Pomerleau的及時干預(yù)下避免了事故發(fā)生。而在當(dāng)今復(fù)雜的人工智能環(huán)境中,人類已無法以這種費時費力的方式測試每個關(guān)鍵決策鏈。如果人工智能模型的生成內(nèi)容類似于受版權(quán)保護的訓(xùn)練數(shù)據(jù),尤其是在涉及市場影響的情境中,那么這些內(nèi)容可能不再適用合理使用制度[24]。基于此,將“透明度義務(wù)”賦予人工智能服務(wù)提供者,實際上是在人類尚未能監(jiān)測人工智能生成過程的現(xiàn)狀下要求服務(wù)提供者從源頭規(guī)避侵權(quán)風(fēng)險,減少甚至完全規(guī)避對在前版權(quán)作品的依賴,倒逼其采取技術(shù)或者人工方式對輸入數(shù)據(jù)進行審核,以合理控制人工智能服務(wù)的算法運行和生成結(jié)果。

目前,人工智能服務(wù)提供者的透明度義務(wù)已在國內(nèi)外多項立法中有所規(guī)定?!稌盒修k法》規(guī)定,人工智能服務(wù)提供者必要時負(fù)有“按要求對訓(xùn)練數(shù)據(jù)來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機制機理等予以說明”的義務(wù)。歐盟治理方面,透明度義務(wù)也一直是其在開發(fā)、部署和使用人工智能系統(tǒng)方面所倡導(dǎo)的社會主義核心價值觀之一。早在2018年,歐盟即公布施行《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR),要求數(shù)據(jù)控制者或處理者必須從數(shù)據(jù)所有者那里獲得明確的授權(quán),并清楚地披露任何數(shù)據(jù)收集和處理的相關(guān)信息。2019年4月,歐盟人工智能高級別專家組制定《值得信賴的人工智能倫理準(zhǔn)則》,2020年2月,歐盟委員會發(fā)布《人工智能白皮書》,均將透明度納入其各自建議的道德或法律框架中。而歐洲議會于2024年3月13日批準(zhǔn)通過的《人工智能法案》仍然沿襲最初草案的規(guī)定,明確通用人工智能系統(tǒng)的透明度義務(wù):“生成式人工智能,如ChatGPT,必須遵守披露內(nèi)容是由 AI 生成的,設(shè)計模型以防止其生成非法內(nèi)容,發(fā)布用于培訓(xùn)的受版權(quán)保護的數(shù)據(jù)摘要?!?sup>[25]

歐盟《人工智能法案》關(guān)于透明度義務(wù)的規(guī)定中,與人工智能版權(quán)侵權(quán)有關(guān)的條款主要指第13條,要求服務(wù)提供者主動披露用于訓(xùn)練的受版權(quán)保護的數(shù)據(jù)摘要Artificial Intelligence Act,Article 13.。關(guān)于人工智能服務(wù)提供者透明度義務(wù)的具體實施標(biāo)準(zhǔn),主要包括以下兩方面:

一方面,在透明度義務(wù)設(shè)計中,當(dāng)服務(wù)提供者處理受版權(quán)保護的訓(xùn)練數(shù)據(jù)時,應(yīng)允許版權(quán)人訪問數(shù)據(jù)集并賦予他們選擇主動退出的權(quán)利;同時,在“選擇退出”機制的基礎(chǔ)上輔以對權(quán)利人的合理補償機制,有效補償權(quán)利人的利益損失[26]。目前已有部分人工智能產(chǎn)品在人工智能訓(xùn)練中采用“選擇退出”機制,版權(quán)人可以采取措施聲明不允許利用自己的版權(quán)作品。如OpenAI在其用戶協(xié)議中明確表示如果用戶不希望使用其內(nèi)容來訓(xùn)練模型,可按步驟選擇退出;Stability AI推出的Stable Diffusion 3.0產(chǎn)品也表示其訓(xùn)練數(shù)據(jù)集允許權(quán)利人退出訓(xùn)練數(shù)據(jù)集。建立“選擇退出”機制的原因在于,目前要求人工智能提供者詳盡地列出其訓(xùn)練數(shù)據(jù)集中所包含的全部或大部分受版權(quán)保護的材料,并逐一向其權(quán)利人尋得使用同意,在實踐中面臨極大障礙。這不僅僅是因為技術(shù)或資源的限制,更在于版權(quán)法本身的復(fù)雜性。首先,版權(quán)的地域性割裂是一個重要的阻礙因素。不同國家和地區(qū)的版權(quán)法規(guī)定存在差異,這導(dǎo)致同一作品在不同地區(qū)的版權(quán)保護情況也可能不同。而人工智能服務(wù)提供者需要考慮到全球范圍內(nèi)的版權(quán)法律規(guī)定,這無疑增加了其訓(xùn)練數(shù)據(jù)合規(guī)的難度。其次,權(quán)利歸屬元數(shù)據(jù)的狀態(tài)也增加了侵權(quán)風(fēng)險[27]。元數(shù)據(jù)是指描述和標(biāo)識作品的關(guān)鍵信息,包括作者、創(chuàng)作時間、版權(quán)歸屬等。然而實踐中很多作品的元數(shù)據(jù)并不完整甚至缺失,使得生成性人工智能提供者難以確定其訓(xùn)練數(shù)據(jù)集中材料的版權(quán)歸屬和授權(quán)情況,更遑論取得權(quán)利人同意。最后,人工智能服務(wù)提供者為了減少開發(fā)成本而擅自使用他人版權(quán)作品,這種有意侵權(quán)的現(xiàn)象客觀存在。因此,采用“選擇退出”機制對訓(xùn)練數(shù)據(jù)“透明度”的實現(xiàn)具有深遠(yuǎn)意義。

另一方面,除了建立權(quán)利人“選擇退出”機制外,透明度義務(wù)的履行還應(yīng)達(dá)到“可追溯性”的標(biāo)準(zhǔn)。由于人工智能生成過程的隱蔽性、“算法黑箱”的客觀存在等因素,普通人難以理解人工智能技術(shù)的復(fù)雜性和高度專業(yè)性。而且人工智能原始訓(xùn)練數(shù)據(jù)往往處于服務(wù)提供者的控制之下,權(quán)利人難以獲得完整的數(shù)據(jù)集,在侵權(quán)訴訟中舉證難度大。此外,還可能存在因數(shù)據(jù)缺失或篡改而導(dǎo)致無法有效地證明其主張的情況。因此,要求人工智能服務(wù)提供者保留訓(xùn)練數(shù)據(jù),保證生成內(nèi)容的可追溯性,這有利于未來進一步審查人工智能系統(tǒng)的開發(fā)方式,確保侵權(quán)訴訟中舉證的順利進行[28]?!度斯ぶ悄芊ò浮冯m未明確人工智能服務(wù)提供者透明度義務(wù)的具體標(biāo)準(zhǔn),但回顧歐盟關(guān)于人工智能的眾多立法舉措和會議內(nèi)容,尚能發(fā)現(xiàn)關(guān)于透明度義務(wù)中可追溯性標(biāo)準(zhǔn)的論述。歐盟發(fā)布的《值得信賴的人工智能的倫理準(zhǔn)則》已將可追溯性作為透明度義務(wù)的要素之一European Commission, AI-HLEG Ethics Guidelines for Trustworthy AI,2018.;而《人工智能白皮書》同樣規(guī)定了透明度的要素之一是保存記錄、文檔和數(shù)據(jù)European Commission,White Paper on Artificial Intelligence:a European Approach to Excellence and Trust,2020.;2020年10月,歐洲議會在《人工智能、機器人和相關(guān)技術(shù)倫理方面的框架》報告中也指出,“人工智能需以透明和可追溯的方式,使其數(shù)據(jù)、過程按照適用標(biāo)準(zhǔn)記錄在冊”European Commission,European Framework on Ethical Aspects of Artificial Intelligence,Robotics and Related Technologies, 2020.。由此可見,將可追溯性作為透明度義務(wù)的要素之一具備可行性。

(三)事中:內(nèi)容審核義務(wù)

早期的網(wǎng)絡(luò)服務(wù)提供者僅扮演“通道”角色,具有被動、工具和中立性質(zhì),處理侵權(quán)內(nèi)容依賴于人工通知和人工審查[29]。但隨著Web 2.0時代的到來,平臺集聚了資金和技術(shù)優(yōu)勢,此時再堅持將其視為“知識產(chǎn)權(quán)保護的被動響應(yīng)者”已不合時宜[30]。一方面,網(wǎng)絡(luò)服務(wù)提供者從用戶行為中直接獲得經(jīng)濟利益的,應(yīng)負(fù)較高的注意義務(wù);人工智能服務(wù)提供者通過生成內(nèi)容獲取巨大的直接經(jīng)濟利益,而其獲取經(jīng)濟利益的同時,也面臨著更大的責(zé)任挑戰(zhàn)。根據(jù)傳統(tǒng)民事責(zé)任的“收益與風(fēng)險一致”報償正義法理,人工智能服務(wù)提供者必須就使用過程中所導(dǎo)致的風(fēng)險承擔(dān)相應(yīng)的責(zé)任,只有建立嚴(yán)格的內(nèi)容審核機制,對生成的內(nèi)容進行實時監(jiān)控和過濾,防止侵權(quán)內(nèi)容的生成與傳播,如此方可實現(xiàn)報償正義[31]453。另一方面,平臺私權(quán)力的崛起,意味著必須建立與其權(quán)責(zé)相一致的法律問責(zé)機制。平臺不應(yīng)將因算法應(yīng)用而產(chǎn)生的侵犯版權(quán)的風(fēng)險轉(zhuǎn)嫁給版權(quán)人,也不應(yīng)借“平臺對侵權(quán)內(nèi)容不具有具體認(rèn)知”這一說法逃避算法追責(zé),一旦平臺對侵權(quán)內(nèi)容有概括性的知情,就應(yīng)該承擔(dān)起對侵權(quán)內(nèi)容的注意義務(wù)[32]。而人工智能服務(wù)提供者融合了技術(shù)平臺和提供內(nèi)容的特征,在內(nèi)容生產(chǎn)過程中起到一定的作用,因此更應(yīng)當(dāng)積極承擔(dān)內(nèi)容管理的義務(wù)?!稌盒修k法》第四條、第九條均提及人工智能提供內(nèi)容應(yīng)“尊重知識產(chǎn)權(quán)”,人工智能服務(wù)提供者應(yīng)承擔(dān)“網(wǎng)絡(luò)信息安全義務(wù)”。在人工智能發(fā)展初期,技術(shù)尚不成熟,容易出現(xiàn)人工智能生成侵權(quán)信息的現(xiàn)象。部分算法只是針對既有作品執(zhí)行同義詞或語序替換,如果人工智能生成內(nèi)容與原作品完全相同,則可以被視為侵權(quán)復(fù)制品。OpenAI公司在其用戶協(xié)議中表示“輸出可能并不總是準(zhǔn)確的”,“服務(wù)可能會提供不完整、不正確或令人反感的輸出”,這從一定程度上說明現(xiàn)階段人工智能服務(wù)提供者也預(yù)見到生成內(nèi)容可能造成侵權(quán)。在人工智能生成內(nèi)容版權(quán)侵權(quán)中,無論是人工智能獨立地產(chǎn)生侵犯版權(quán)的內(nèi)容,還是用戶通過詳細(xì)描述他人作品特征或直接輸入版權(quán)作品的情形,雖然人工智能服務(wù)提供者對內(nèi)容的貢獻(xiàn)程度不同,且無法完全控制具體內(nèi)容,但不能據(jù)此否認(rèn)其內(nèi)容生產(chǎn)能力,其對侵權(quán)內(nèi)容具有概括性的知情。綜合來看,人工智能服務(wù)提供者因其為用戶提供的自動生成服務(wù)而獲得巨大的經(jīng)濟利益,卻屢屢出現(xiàn)生成內(nèi)容侵犯版權(quán)的情況,對其采取過于寬松的規(guī)則,實際上不利于人工智能技術(shù)的可持續(xù)發(fā)展。

人工智能服務(wù)提供者在具體履行內(nèi)容審核義務(wù)時,具體履行一定程度上可以參考網(wǎng)絡(luò)服務(wù)提供者內(nèi)容過濾的要求。在傳統(tǒng)的“通知-刪除”模式下,版權(quán)人通過人工或者借助技術(shù)措施監(jiān)督目標(biāo)網(wǎng)絡(luò)服務(wù)商,發(fā)現(xiàn)侵權(quán)內(nèi)容,準(zhǔn)備和發(fā)送侵權(quán)通知,跟蹤網(wǎng)絡(luò)服務(wù)商的處理進度;網(wǎng)絡(luò)服務(wù)商再人工接收并審查侵權(quán)通知,人工刪除侵權(quán)內(nèi)容或斷開侵權(quán)鏈接[33]。事實上,版權(quán)人無法做到實時監(jiān)控侵權(quán)內(nèi)容并準(zhǔn)備通知,而網(wǎng)絡(luò)服務(wù)提供者處理侵權(quán)通知同樣耗費時間和成本。在人工智能時代,生成內(nèi)容的效率得到了極大的提升,人工智能服務(wù)提供者能夠快速、準(zhǔn)確地完成信息的篩選、整理和加工,并根據(jù)用戶的需求生成高質(zhì)量的內(nèi)容,大幅縮短了內(nèi)容生產(chǎn)的周期。但隨著技術(shù)發(fā)展,版權(quán)內(nèi)容過濾技術(shù)逐步被應(yīng)用于識別和預(yù)防網(wǎng)絡(luò)盜版,網(wǎng)絡(luò)服務(wù)提供者利用成熟的內(nèi)容識別技術(shù)預(yù)防盜版,大大提高了打擊盜版的效率。因此,人工智能提供者在內(nèi)容生產(chǎn)全過程中采取技術(shù)措施進行內(nèi)容審查具有可行性[34]。目前關(guān)于文字作品的分析及對比技術(shù)已經(jīng)較為成熟,在版權(quán)作品特征信息庫所集成的過濾系統(tǒng)中,任何用戶上傳的包含該作品實質(zhì)性內(nèi)容的文字都能被精確且迅速地識別;圖片、音頻的識別技術(shù)雖略顯復(fù)雜,但也在穩(wěn)步發(fā)展,如美國Audible Magic公司宣稱Content Identification系統(tǒng)在處理數(shù)以億計的圖片、視頻和音頻信息時,其過濾準(zhǔn)確性超過99%,且只需要5秒的片段就可以精確識別。OpenAI在其介紹頁面提及“為了確保GPT符合相關(guān)政策規(guī)定,我們現(xiàn)已在產(chǎn)品中內(nèi)置安全措施。除此之外,我們還建立了新的審查系統(tǒng),審查過程包括人工審核和機器審核”。

綜上,對人工智能服務(wù)提供者設(shè)置內(nèi)容審核義務(wù),是對侵權(quán)行為發(fā)生后應(yīng)采取的必要措施的有效補充,能夠形成對生成內(nèi)容全過程的嚴(yán)密監(jiān)管。通過加強內(nèi)容審核,可進一步使生成的內(nèi)容符合版權(quán)法規(guī),從而更好地維護創(chuàng)作者的合法權(quán)益,同時也為人工智能產(chǎn)業(yè)的健康發(fā)展提供有力保障。

(四)事后:必要措施

我國《暫行辦法》第十四條明確規(guī)定:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進行整改,并向有關(guān)主管部門報告?!毕噍^于付出巨額成本全面監(jiān)測人工智能侵權(quán)內(nèi)容生成,必要措施要求侵權(quán)內(nèi)容生成后,服務(wù)提供者及時反應(yīng)和糾正,包括但不限于移除侵權(quán)內(nèi)容,還應(yīng)對模型進行優(yōu)化、整改,避免侵權(quán)范圍的進一步擴大,合力形成全流程的審查監(jiān)管體系。

根據(jù)我國《民法典》關(guān)于網(wǎng)絡(luò)侵權(quán)的規(guī)定,傳統(tǒng)的“避風(fēng)港”規(guī)則主要適用于網(wǎng)絡(luò)服務(wù)提供者因其用戶實施侵權(quán)行為而承擔(dān)的責(zé)任,具體而言,權(quán)利人向網(wǎng)絡(luò)服務(wù)提供者發(fā)出通知,再由網(wǎng)絡(luò)服務(wù)提供者移除通知中指稱侵權(quán)的內(nèi)容或斷開相關(guān)鏈接,這實質(zhì)上是針對“通知”進行“移除”后的法律效果[35]251。在以往“避風(fēng)港”規(guī)則的適用中,網(wǎng)絡(luò)服務(wù)提供者因其內(nèi)容生產(chǎn)的第三方地位,并未直接上傳侵權(quán)內(nèi)容。而人工智能生成內(nèi)容并非來源于第三方,人工智能服務(wù)提供者直接參與內(nèi)容的生成與上傳過程,有觀點據(jù)此認(rèn)為無論是基于訓(xùn)練數(shù)據(jù)生成的內(nèi)容,還是根據(jù)用戶輸入生成的內(nèi)容,其本質(zhì)上都是人工智能系統(tǒng)主動輸出的結(jié)果,而非“網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實施侵權(quán)行為”,因此ChatGPT等生成式人工智能服務(wù)提供者無法適用“避風(fēng)港”規(guī)則予以免責(zé)。然而,現(xiàn)階段生成式人工智能產(chǎn)業(yè)尚處于發(fā)展階段,相關(guān)技術(shù)仍在不斷改進,若在侵權(quán)行為發(fā)生后,即要求人工智能服務(wù)提供者承擔(dān)過重責(zé)任,可能會使中小企業(yè)面臨巨大的法律風(fēng)險,抑制人工智能技術(shù)的發(fā)展[36]。因此,允許人工智能服務(wù)提供者在傳統(tǒng)網(wǎng)絡(luò)侵權(quán)規(guī)則的原理指導(dǎo)下,發(fā)展形成新的適用義務(wù),使其在侵權(quán)事實發(fā)生后采取必要措施彌補過錯,一定程度上視其履行情況減輕其侵權(quán)責(zé)任,對于人工智能產(chǎn)業(yè)發(fā)展來說,不失為一種有益的路徑探索。

針對人工智能服務(wù)提供者在侵權(quán)行為發(fā)生后的事后必要措施,其具體履行內(nèi)容主要包括兩方面:一方面,數(shù)字時代信息內(nèi)容傳播速度極快,當(dāng)人工智能系統(tǒng)產(chǎn)生的內(nèi)容侵犯版權(quán)時,人工智能服務(wù)提供者需要及時移除或屏蔽相關(guān)侵權(quán)內(nèi)容,以防止侵權(quán)行為的進一步擴散和影響[37]。相較于傳統(tǒng)的網(wǎng)絡(luò)接入、傳輸服務(wù)及緩存服務(wù),人工智能服務(wù)提供者對侵權(quán)內(nèi)容具備單獨識別和刪除的能力,與信息定位服務(wù)相似,其直接定位侵權(quán)內(nèi)容并及時移除的成本較低。目前,百度、OpenAI等公司的技術(shù)已經(jīng)能夠支撐其履行事后移除義務(wù)。百度公司開發(fā)的語言模型系統(tǒng)文心一言在會員服務(wù)協(xié)議中承諾,如果百度發(fā)現(xiàn)或收到他人舉報用戶有違反用戶協(xié)議行為的,百度有權(quán)“根據(jù)相應(yīng)規(guī)則立即刪除、屏蔽或斷開相關(guān)的信息”;同樣地,ChatGPT的開發(fā)者OpenAI公司承諾會刪除或斷開涉嫌侵權(quán)的內(nèi)容,并會終止重復(fù)侵權(quán)者的賬戶[38]。

因此,要求服務(wù)提供者承擔(dān)移除責(zé)任,這充分考慮了技術(shù)發(fā)展的現(xiàn)狀,對服務(wù)提供者較為寬容,既有利于激勵創(chuàng)新,也能在一定程度上督促服務(wù)提供者盡到足夠的注意義務(wù)[39]。另一方面,根據(jù)我國《暫行辦法》的規(guī)定,在違法內(nèi)容生成后,人工智能服務(wù)提供者不僅需要移除侵權(quán)內(nèi)容,還應(yīng)當(dāng)采取其他優(yōu)化、整改措施。

本文開篇提到的廣州互聯(lián)網(wǎng)法院的侵權(quán)判決,是全球首例生成式人工智能平臺侵權(quán)責(zé)任判決,要求人工智能服務(wù)提供者停止侵權(quán)行為,并保證不再生成相關(guān)內(nèi)容且要盡到建立投訴舉報機制、提示潛在風(fēng)險以及采取顯著標(biāo)識等注意義務(wù)。綜合來看,該案法院要求人工智能服務(wù)提供者建立投訴舉報機制、提示潛在風(fēng)險以及采取顯著標(biāo)識等注意義務(wù)的做法尚有可取之處。首先,對服務(wù)提供者課以避免侵權(quán)內(nèi)容再次生成的義務(wù),這在技術(shù)上具備一定可行性。人工智能服務(wù)者雖無法預(yù)見具體的生成內(nèi)容,但能夠采取措施限制某些違法內(nèi)容的生成,如ChatGPT已開始對知名IP適用“避讓原則”,限制用戶的生成指令,例如用戶對其發(fā)出生成知名動畫形象“唐老鴨”的指令,只能得到“無法生成受版權(quán)保護的人物形象”的回復(fù)。其次,服務(wù)提供者應(yīng)否負(fù)有事后避免侵權(quán)內(nèi)容再次生成的義務(wù),還需充分考慮行業(yè)的普遍技術(shù)水平。目前,像OpenAI公司這種行業(yè)頭部企業(yè)雖然已擁有較高的技術(shù)水平,然而還應(yīng)當(dāng)整體評估行業(yè)的技術(shù)水平和義務(wù)成本,通過這種全面、均衡的考慮,才能更好地平衡版權(quán)保護和技術(shù)創(chuàng)新之間的關(guān)系。最后,建立投訴機制有利于版權(quán)人及時阻止侵權(quán)行為,服務(wù)提供者也可依據(jù)用戶舉報迅速采取必要措施以避免侵權(quán)范圍擴大;提示潛在風(fēng)險有利于引導(dǎo)用戶明確版權(quán)侵權(quán)風(fēng)險,可以起到教育警示作用,從源頭減少侵權(quán)行為;而采取顯著標(biāo)識能夠進一步保護公眾知情權(quán),《暫行辦法》同樣強調(diào)了服務(wù)提供者有義務(wù)對生成內(nèi)容進行標(biāo)識。

四 結(jié) 論

生成式人工智能的出現(xiàn)在提高內(nèi)容生產(chǎn)效率、降低內(nèi)容生產(chǎn)門檻的同時,也帶來更多版權(quán)侵權(quán)風(fēng)險。由于現(xiàn)有技術(shù)尚未達(dá)到完全規(guī)避侵權(quán)內(nèi)容生成的水平,因此,如何分配人工智能造成的版權(quán)侵權(quán)損害風(fēng)險及認(rèn)定相關(guān)主體的注意義務(wù),是法律層面亟待解決的問題。我國可以在借鑒歐盟、美國等立法實踐的基礎(chǔ)上,結(jié)合我國國情和立法體系對我國《信息網(wǎng)絡(luò)傳播權(quán)保護條例》進行完善。一方面,人工智能服務(wù)提供者的技術(shù)特征、所遵從的行業(yè)監(jiān)管規(guī)定和獲益水平與傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者均存在不同程度的差異,因此應(yīng)當(dāng)將其作為新型網(wǎng)絡(luò)服務(wù)提供者看待,并在此基礎(chǔ)上衡量確定相應(yīng)義務(wù)。另一方面,需對人工智能服務(wù)提供者的具體注意義務(wù)進行法律層面的確認(rèn),換言之,當(dāng)人工智能生成內(nèi)容構(gòu)成版權(quán)侵權(quán)時,如果人工智能服務(wù)提供者采取了合理措施,出于人工智能技術(shù)創(chuàng)新的考慮,不宜要求其承擔(dān)侵權(quán)責(zé)任[40]。考慮到行業(yè)發(fā)展水平和對相關(guān)權(quán)利人的救濟,在全周期思路下以透明度義務(wù)、內(nèi)容審核義務(wù)以及必要措施為基礎(chǔ),檢視服務(wù)提供者的注意義務(wù),有利于維持其與權(quán)利人之間的利益平衡,實現(xiàn)法律與技術(shù)的良性互動。

[參 考 文 獻(xiàn)]

[1] 初萌.人工智能對版權(quán)侵權(quán)責(zé)任制度的挑戰(zhàn)及應(yīng)對[J].北方法學(xué),2021(1):138-150.

[2] 焦和平.人工智能創(chuàng)作中數(shù)據(jù)獲取與利用的著作權(quán)風(fēng)險及化解路徑[J].當(dāng)代法學(xué),2022(4):128-140.

[3] 萬勇.人工智能時代著作權(quán)法合理使用制度的困境與出路[J].社會科學(xué)輯刊,2021(5):93-102.

[4] Grynbaum M M,Mac R. The Times sues OpenAI and Microsoft over A.I. use of copyrighted work [EB/OL].(2023-12-27)[2024-07-02]. https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.

[5] 徐偉.論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023(4):69-80.

[6] MIERS J. Yes,section 230 should protect ChatGPT and other generative AI tools[EB/OL].(2023-03-17)[2024-07-02]. https://www.techdirt.com/yes-section-230-should-protect-chatgpt-and others-generative-ai-tools/.

[7] 韓旭至.生成式人工智能治理的邏輯更新與路徑優(yōu)化——以人機關(guān)系為視角[J].行政法學(xué)研究,2023(6):30-42.

[8] 周學(xué)峰.生成式人工智能侵權(quán)責(zé)任探析[J].比較法研究,2023(4):117-131.

[9] 刁佳星.生成式人工智能服務(wù)提供者版權(quán)侵權(quán)注意義務(wù)研究[J].中國出版,2024(1):25-30.

[10]吳漢東,陳騫.基礎(chǔ)性網(wǎng)絡(luò)服務(wù)提供者內(nèi)容管理義務(wù)的反思與重構(gòu)[J].數(shù)字法治,2023(5):38-52.

[11]Bayer J. Liability of internet service providers for third party content[J]. Victoria University of Wellington Working Paper Series,2008(1):1-110.

[12]Harris D P. Time to Reboot?:DMCA 2.0[J]. Arizona State Law Journal,2015(3):801-856.

[13]Sag M. Internet safe harbors and the transformation of copyright law[J]. Notre Dame Law Review,2017(2):499-564.

[14]司曉.網(wǎng)絡(luò)服務(wù)提供者知識產(chǎn)權(quán)注意義務(wù)的設(shè)定[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(1):78-88.

[15]蘭曉為.網(wǎng)絡(luò)著作權(quán)侵權(quán)主體——“網(wǎng)絡(luò)服務(wù)提供者”之解讀[J].大連海事大學(xué)學(xué)報(社會科學(xué)版),2009(4):48-51+95.

[16]袁鋒.元宇宙時代NFT數(shù)字藏品交易的版權(quán)困境與應(yīng)對研究[J].湖北社會科學(xué),2023(6):128-136.

[17]姚震.網(wǎng)絡(luò)直播平臺著作權(quán)侵權(quán)制度研究[D].北京:中國政法大學(xué),2021.

[18]Haney B S. AI patents:a data driven approach[J]. Chicago-Kent Journal of Intellectual Property,2020(3):407-484.

[19]LaFrance M. Copyright law in a nutshell[M]. St. Paul,MN: West Academic Publishing,2017.

[20]吳漢東.關(guān)于知識產(chǎn)權(quán)基本制度的經(jīng)濟學(xué)思考[J].法學(xué),2000(4):33-41+46.

[21]楊立新.侵權(quán)法論[M].北京:人民法院出版社,2004.

[22]Sag M. Copyright safety for generative AI[J]. Houston Law Review, 2023(2):295-348.

[23]Castelvecchi D. Can we open the black box of AI?[J]. Nature,2016(538):20-23.

[24]Henderson P,Li X C,Dan Jurafsky,et al. Foundation models and fair use[J]. Journal of Machine Learning Research,2023(24):1-79.

[25]European Parliament. Artificial Intelligence Act:MEPs adopt landmark law [EB/OL].(2024-03-08)[2024-07-02].https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law.

[26]梁九業(yè).數(shù)字平臺版權(quán)集中的體系化治理研究[J].南大法學(xué),2023(2):68-86.

[27]Senftleben M,Margoni T,Antal D,et al. Ensuring the visibility and accessibility of European creative content on the world market:the need for copyright data improvement in the light of new technologies and the opportunity arising from article 17 of the CDSM Directive[J]. Journal of Intellectual Property,Information Technology and Electronic Commerce Law,2022(1):67-86.

[28]Yanisky-Ravid S,Hallisey S K.“Equality and privacy by design”:a new model of artificial intelligence data transparency via auditing,certification,and safe harbor regimes[J]. Fordham Urban Law Journal,2019(2):428-486.

[29]萬勇.人工智能時代的版權(quán)法通知—移除制度[J].中外法學(xué),2019(5):1254-1269.

[30]邵紅紅.生成式人工智能版權(quán)侵權(quán)治理研究[J].出版發(fā)行研究,2023(6):29-38.

[31]朱巖.侵權(quán)責(zé)任法通論·總論:上冊:責(zé)任成立法[M].北京:法律出版社,2011.

[32]崔國斌.網(wǎng)絡(luò)服務(wù)商共同侵權(quán)制度之重塑[J].法學(xué)研究,2013(4):138-159.

[33]崔國斌.論網(wǎng)絡(luò)服務(wù)商版權(quán)內(nèi)容過濾義務(wù)[J].中國法學(xué),2017(2):215-237.

[34]高陽.通用人工智能提供者內(nèi)容審查注意義務(wù)的證成[J].東方法學(xué),2024(1):189-200.

[35]王遷.網(wǎng)絡(luò)環(huán)境中的著作權(quán)保護研究[M].北京:法律出版社,2011.

[36]Bathaee Y. The artificial intelligence black box and the failure of intent and causation[J]. Harvard Journal of Law & Technology,2018(2):889-938.

[37]張恩典.數(shù)字時代版權(quán)的算法實施:類型、困境及法律規(guī)制[J].暨南學(xué)報(哲學(xué)社會科學(xué)版),2023(5):35-49.

[38]和軍,楊慧.ChatGPT類生成式人工智能監(jiān)管的國際比較與借鑒[J].湖南科技大學(xué)學(xué)報(社會科學(xué)版),2023(6):119-128.

[39]王利明.生成式人工智能侵權(quán)的法律應(yīng)對[J].中國應(yīng)用法學(xué),2023(5):27-38.

[40]王若冰.論生成式人工智能侵權(quán)中服務(wù)提供者過錯的認(rèn)定——以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)[J].比較法研究,2023(5):20-33.