国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論生成式人工智能服務提供者過錯的認定

2024-12-18 00:00:00沈森宏
現(xiàn)代法學 2024年6期

摘 要:在人工智能生成內(nèi)容致人損害的情形下,過錯是服務提供者承擔侵權(quán)責任的歸責事由。合理地認定服務提供者的過錯,是有效平衡預防風險與鼓勵創(chuàng)新雙重價值目標的關(guān)鍵。服務提供者過錯的本質(zhì)是其違反了交往安全義務或注意義務。在認定標準上,應采取動態(tài)的“合理人”標準,結(jié)合技術(shù)水平、服務類型與侵權(quán)內(nèi)容等維度,分析特定情境下合理的、謹慎的服務提供者應盡的注意義務。服務提供者的注意義務主要包括語料處理義務、對齊微調(diào)義務、內(nèi)容審查義務、內(nèi)容標識義務和用戶管理義務,若服務提供者未能合理地履行這些義務,則應認定為具有過錯,需對生成內(nèi)容致人損害的行為承擔侵權(quán)責任。服務提供者侵權(quán)責任的認定應類推適用“通知規(guī)則”,這不僅有利于實現(xiàn)服務提供者與權(quán)利人之間的利益平衡,還可以減輕權(quán)利人證明服務提供者過錯的舉證負擔。

關(guān)鍵詞:生成式人工智能;服務提供者;過錯;注意義務;通知規(guī)則

中圖分類號:DF526

文獻標志碼:A

DOI:10.3969/j.issn.1001-2397.2024.06.10

以ChatGPT為代表的生成式人工智能給侵權(quán)責任法帶來了新問題。①其生成的虛假信息、有害信息或者其他侵權(quán)內(nèi)容,可能會對他人的人身或者財產(chǎn)造成損害,引發(fā)侵權(quán)糾紛。②這些侵權(quán)內(nèi)容在很多時候是由人工智能系統(tǒng)自主生成的,但人工智能并非法律意義上的責任主體,無法承擔侵權(quán)責任?!緟⒁娳w萬一:《機器人的法律主體地位辨析——兼談對機器人進行法律規(guī)制的基本要求》,載《貴州民族大學學報(哲學社會科學版)》2018年第3期,第158頁;楊立新:《人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責任》,載《求是學刊》2018年第4期,第92頁。】因此,許多觀點主張由生成式人工智能服務提供者(以下簡稱服務提供者)來承擔生成內(nèi)容致人損害的侵權(quán)責任?!維ee Mihailis E.Diamantis,Vicarious Liability for AI,99Indiana Law Journal317,319(2023).】通過對服務提供者施加侵權(quán)責任,既可以填補受害者的損失,又可以激勵服務提供者采取措施防止侵權(quán)內(nèi)容產(chǎn)生,實現(xiàn)預防風險的目標。然而,服務提供者往往也是創(chuàng)新生成式人工智能技術(shù)的主體,對服務提供者施加過重的侵權(quán)責任,可能會增加其運營成本,限制其行為自由,從而對創(chuàng)新產(chǎn)生不利影響。因此,如何合理地界定服務提供者的侵權(quán)責任,在預防風險和鼓勵創(chuàng)新的雙重價值目標之間保持平衡,是生成式人工智能發(fā)展給侵權(quán)責任法帶來的新挑戰(zhàn)。

應對這一挑戰(zhàn)的關(guān)鍵在于服務提供者過錯的認定。過錯是服務提供者承擔侵權(quán)責任的歸責事由,能否合理地認定服務提供者的過錯,將決定法律能否有效地平衡預防風險與鼓勵創(chuàng)新的雙重價值目標。有鑒于此,筆者擬對人工智能生成內(nèi)容致人損害情形下服務提供者過錯的認定問題進行探討,以求合理地界定其過錯的范圍。

一、服務提供者過錯認定的原理與方法

學界的主流觀點認為,在人工智能生成內(nèi)容致人損害的情形下,服務提供者應承擔過錯責任?!緟⒁娡趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應對》,載《中國應用法學》2023年第5期,第32-34頁;周學峰:《生成式人工智能侵權(quán)責任探析》,載《比較法研究》2023年第4期,第117-131頁。】但仍有少數(shù)觀點主張,服務提供者承擔侵權(quán)責任不以過錯為要件,即服務提供者應承擔無過錯責任?!緟⒁夾riat Lior,AI Strict Liability Vis-à-vis AI Monopolization,22Columbia Science and Technology Law Review90,91(2020);徐偉:《生成式人工智能服務提供者侵權(quán)歸責原則之辨》,載《法制與社會發(fā)展》2024年第3期,第190-204頁;王兆藝:《人工智能生成內(nèi)容的侵權(quán)風險及其規(guī)制路徑——以ChatGPT為例》,載《娛樂法內(nèi)參》2023年第4期,第8-10頁?!科渲饕碛捎卸阂皇浅袚鸁o過錯責任不僅可以引導服務提供者采取合理的防范措施,還能促使其控制風險活動的規(guī)?;蝾l率;二是無過錯責任可以解決生成式人工智能帶來的信息不對稱問題,降低受害者舉證的難度和法官判斷過錯的信息成本。筆者認為,在人工智能生成內(nèi)容致人損害的情形下,服務提供者侵權(quán)責任的認定仍應以過錯為要件,理由如下:第一,對服務提供者適用無過錯責任的主要理由并不具有說服力。首先,提供生成式人工智能服務在絕大多數(shù)情形下并非高風險活動,沒有必要適用無過錯責任來控制服務提供者的活動規(guī)?;蝾l率?!緟⒁娡跞舯骸墩撋墒饺斯ぶ悄芮謾?quán)中服務提供者過錯的認定——以“現(xiàn)有技術(shù)水平”為標準》,載《比較法研究》2023年第5期,第21頁?!科浯危墒饺斯ぶ悄軒淼男畔⒉粚ΨQ問題也無法證明適用無過錯責任的必要性,因為一方面,受害者舉證困難的問題可以通過適用“通知規(guī)則”等方式加以緩解;另一方面,適用無過錯責任在降低法官判斷過錯的信息成本方面的效果也相對有限,因為在適用無過錯責任的情形下,法官往往需要判斷用戶是否存在過錯,以確認服務提供者能否主張與有過失的抗辯?!具@時,法官不但需要判斷用戶的過錯,而且也需要知道服務提供者應盡的注意義務,由此才能確定用戶應盡的注意義務。參見\[美\]斯蒂文·沙維爾:《法律經(jīng)濟分析的基礎(chǔ)理論》,趙海怡、史冊、寧靜波譯,中國人民大學出版社2013年版,第168頁?!康诙?,從平衡預防風險和鼓勵創(chuàng)新的角度來看,適用過錯責任有諸多優(yōu)勢。首先,過錯責任可以激勵服務提供者和受害者均采取合理的防范措施來預防風險,但在適用無過錯責任的情形下,由于受害者遭受的損害可以得到服務提供者的完全賠償,故其可能不會采取合理的注意。【當然,如果允許服務提供者以與有過失為由進行抗辯,可以在一定程度上鼓勵用戶采取合理的注意,但如上文所述,這也犧牲了無過錯責任在信息成本方面的優(yōu)勢。See Steven Shavell,Economic Analysis of Accident Law,Harvard University Press,1987,p.11.】其次,過錯責任使服務提供者免于承擔過重的責任,更有利于促進生成式人工智能的發(fā)展與創(chuàng)新。要求服務提供者承擔無過錯責任,會增加其運營成本,這一方面會提高生成式人工智能市場的進入壁壘,不利于具有創(chuàng)新活力的中小企業(yè)發(fā)展【See Yavar Bathaee,The Artificial Intelligence Black Box and the Failure of Intent and Causation,31Harvard Journal of Law and Technology889,932(2018).】;另一方面會導致服務提供者為了避免潛在的責任風險而選擇控制服務規(guī)模,抑制生成式人工智能創(chuàng)新迭代的速度。而在適用過錯責任的情形下,只要服務提供者采取合理的防范措施,就可以免于承擔侵權(quán)責任,這樣既能夠減少損害的發(fā)生,又能避免服務提供者承擔過重的責任,從而在預防風險與鼓勵創(chuàng)新之間取得有效的平衡。

在確認服務提供者應承擔過錯責任的基礎(chǔ)上,服務提供者過錯的認定便成為平衡預防風險與鼓勵創(chuàng)新雙重價值目標的關(guān)鍵。如果過錯的認定范圍過窄,服務提供者將缺乏足夠的動力來采取合理的防范措施,無法有效地防范生成內(nèi)容帶來的損害風險;而如果過錯的認定范圍過寬,服務提供者將承擔過重的責任,不利于鼓勵創(chuàng)新目標的實現(xiàn)。合理界定服務提供者的過錯范圍,首先需要探討其過錯認定的原理與方法,即回答兩個方面的問題:第一,何為服務提供者的過錯?第二,何以認定服務提供者的過錯?

(一)何為過錯:違反交往安全義務或注意義務

生成式人工智能的出現(xiàn)帶來了巨大的網(wǎng)絡信息內(nèi)容風險。一方面,生成式人工智能會自主地生成虛假信息、有害信息或者其他侵權(quán)內(nèi)容,對他人的人身和財產(chǎn)造成損害。另一方面,生成式人工智能強大的生成能力,既降低了侵權(quán)內(nèi)容的制作成本,也增加了侵權(quán)內(nèi)容的識別難度,為他人從事侵權(quán)活動提供了有力工具?!緟⒁娎钽戃?、文繼榮:《AIGC時代網(wǎng)絡信息內(nèi)容的法律治理——以大語言模型為例》,載《北京理工大學學報(社會科學版)》2023年第6期,第87頁?!糠仗峁┱呦蚬娞峁┥墒饺斯ぶ悄芊?,實質(zhì)上是制造和維持了一個特定的危險源,作為危險源的開啟和控制者,服務提供者在理論上負有一定的作為義務,即交往安全義務或注意義務。

交往安全義務這一概念源自德國民法理論,是指“開啟或維持特定危險源的人應采取一切合理的防范措施,以保護他人免受損害的義務”【班天可:《安全保障義務的邊界——以多伊奇教授對交往安全義務的類型論為視角》,載《中德法學論壇》2017年第2期,第172頁?!?。這一理論的建立主要是為了解決不作為侵權(quán)的問題?!緟⒁婑T玨:《安全保障義務與不作為侵權(quán)》,載《法學研究》2009年第4期,第63-67頁。】交往安全義務最初用于規(guī)制物理空間的安全問題,后來德國法院將其適用擴展至網(wǎng)絡空間,確立了網(wǎng)絡服務提供者的交往安全義務。【參見劉文杰:《網(wǎng)絡服務提供者的安全保障義務》,載《中外法學》2012年第2期,第400-401頁?!课覈灿胁簧賹W者運用交往安全義務理論來解釋網(wǎng)絡服務提供者的侵權(quán)責任規(guī)則?!緟⒁妱⑽慕埽骸毒W(wǎng)絡服務提供者的安全保障義務》,載《中外法學》2012年第2期,第395-410頁;王思源:《論網(wǎng)絡運營者的安全保障義務》,載《當代法學》2017年第1期,第27-37頁?!侩S著理論和實踐的發(fā)展,交往安全義務呈現(xiàn)不斷擴張的趨勢?!緟⒁娭苡衍姡骸段覈謾?quán)法上作為義務的擴張》,載《法學》2008年第2期,第92-101頁;劉召成:《安全保障義務的擴展適用與違法性判斷標準的發(fā)展》,載《法學》2014年第5期,第69-79頁?!坎贿^,“危險源監(jiān)控型”義務一直是交往安全義務的重心,是“交往安全義務產(chǎn)生的嚆矢”【班天可:《安全保障義務的邊界——以多伊奇教授對交往安全義務的類型論為視角》,載《中德法學論壇》2017年第2期,第172-173頁?!?。在英美民法理論中,與交往安全義務相類似的概念是注意義務?!爱斣媾c被告之間存在某種特殊關(guān)系,或者被告是某種危險源的開啟者時,被告就對原告負有注意義務?!薄军S薇主編:《中華人民共和國民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責任編·附則》,法律出版社2020年版,第2323頁?!坑⒚婪ㄉ系南嚓P(guān)判例也指出,注意義務的主要來源有二:一是行為人創(chuàng)造了一個危險源;二是行為人對受害人負有責任或受其信賴。【參見汪倪杰:《論〈民法典〉視域下安全保障義務的邊界——對第140、141號指導案例的理論回應》,載《法商研究》2022年第6期,第120頁?!坑纱丝梢?,與交往安全義務的理論類似,對危險源的開啟與控制也是產(chǎn)生注意義務的來源之一。

無論是交往安全義務理論還是注意義務理論,均可以在理論上證成,作為生成式人工智能這一危險源的開啟和控制者,服務提供者應負有采取合理的防范措施以保護他人免受損害的作為義務。若服務提供者違反其負有的交往安全義務或注意義務,則其具有過錯,應當對人工智能生成內(nèi)容致人損害的結(jié)果承擔過錯責任。【有德國學者就曾明確指出:“違反交往安全義務,也是過失內(nèi)容的另一種表現(xiàn)。”Von Tuhr,Der allgememer Teil des Deutschen Bürgerlichen Rechts2Bd.2Halfte.1918,S.488.我國也有學者指出,我國法上對違反安全保障義務的責任沒有明確過錯要件,實際上就是認為違反安全保障義務本身就意味著過錯。參見王利明、周友軍、高圣平:《中國侵權(quán)責任法教程》,人民法院出版社2010年版,第436頁?!恳虼耍谌斯ぶ悄苌蓛?nèi)容致人損害的情形下,服務提供者過錯認定的本質(zhì),就是判斷服務提供者是否違反其應盡的交往安全義務或注意義務。

(二)何以認定過錯:動態(tài)的“合理人”標準

過錯是行為人的一種可歸責的主觀心理狀態(tài),但對過錯的認定往往采取客觀標準。一般情形下,法官主要是依據(jù)行為人是否違反合理人的注意義務來認定過錯。無論是大陸法的“善良管理人”(bonus pater familias)標準,還是英美法的“合理人”(reasonable man)標準,其實都是以一個合理人的注意義務作為客觀標準來判斷行為人是否具有過錯?!緟⒁娡趵?、周友軍、高圣平:《中國侵權(quán)責任法教程》,人民法院出版社2010年版,第215頁?!俊昂侠砣说淖⒁饬x務”,即一個合理的、謹慎的一般人在特定情況下應當達到的注意程度。根據(jù)該標準,判斷行為人是否有過錯主要看一般人在相同情況下會做出何種行為,如果一般人會做出與行為人同樣的行為,那么行為人就沒有過錯。根據(jù)這一標準,在人工智能生成內(nèi)容致人損害的情形下,法官需要考慮一個“合理的服務提供者”會做出何種行為。如果服務提供者未能盡到一個合理的、謹慎的服務提供者應盡的注意義務,那么就應當認定其存在過錯。

那么應如何確定合理人的注意義務?筆者認為,合理人標準是一個抽象的標準,必須根據(jù)案件的特定情境來具化行為的標準。具體而言,需要結(jié)合案件的特定情境,分析一個合理的、謹慎的一般人會采取哪些防范措施。這往往需要進一步分析采取防范措施的成本與收益,如果采取防范措施能以較小的成本極大地降低風險發(fā)生的概率,那么一個合理的、謹慎的一般人就應當采取該防范措施,否則即應當認定其具有過錯。這一分析思路的理論化表述便是漢德公式。在“美國訴凱洛拖輪公司案”中,漢德法官提出了這一過錯認定的著名公式:若發(fā)生損害的概率為P,損害為L,預防成本為B,則在B<P×L時,加害人具有過錯?!維ee United States v.Carroll Towing Co.,159F.2d169(2d Cir.1947).】漢德法官沒有明確說明這些變量是指邊際值還是總值,經(jīng)濟學家將其發(fā)展為更加準確的邊際漢德公式,即“若施害人的邊際預防成本低于相應的邊際收益,那么他就負有過失責任”【\[美\]羅伯特·考特、托馬斯·尤倫:《法和經(jīng)濟學》(第6版),史晉川、董雪兵等譯,史晉川審校,格致出版社2012年版,第203頁?!?。這一公式經(jīng)常被學者或者法官(特別是美國法官)用作認定過錯的標準。

生成式人工智能具有創(chuàng)新性的特點。生成式人工智能的相關(guān)技術(shù)、應用場景和商業(yè)模式仍處在不斷發(fā)展之中,并呈現(xiàn)出豐富多樣的形態(tài)。這也導致在過錯認定的過程中,難以形成一個統(tǒng)一、靜態(tài)的“合理的服務提供者”標準。因此,對服務提供者過錯的認定應采取動態(tài)的“合理人”標準。法院應當結(jié)合具體的情境,綜合考慮各種因素,分析一個合理的、謹慎的服務提供者在此種情境下應當采取何種防范措施,從而確定其是否存在過錯。這些因素主要可以從技術(shù)水平、服務類型和侵權(quán)性質(zhì)三個維度加以歸納。

第一,技術(shù)水平維度。技術(shù)總是不斷變化和發(fā)展的。技術(shù)的變化和發(fā)展會影響采取防范措施的成本收益,從而改變服務提供者應盡的注意義務程度。網(wǎng)絡服務提供者注意義務的發(fā)展便是一個很好的示例。在互聯(lián)網(wǎng)發(fā)展的初期,由于網(wǎng)絡服務提供者監(jiān)控用戶上傳內(nèi)容的成本較高,許多國家和地區(qū)僅對網(wǎng)絡服務提供者施加有限的注意義務,產(chǎn)生了以“安全港規(guī)則”為代表的責任限制規(guī)則。【參見崔國斌:《網(wǎng)絡服務商共同侵權(quán)制度之重塑》,載《法學研究》2013年第4期,第138-142頁?!咳欢?,隨著內(nèi)容識別和過濾技術(shù)的發(fā)展,網(wǎng)絡服務提供者審核其平臺內(nèi)容的成本逐漸降低,針對其設(shè)置的注意義務規(guī)則也在不斷強化。例如,歐盟《數(shù)字單一市場版權(quán)指令》第17條對在線內(nèi)容分享服務商施加了版權(quán)內(nèi)容過濾義務【參見譚洋:《在線內(nèi)容分享服務提供商的一般過濾義務——基于〈歐盟數(shù)字化單一市場版權(quán)指令〉》,載《知識產(chǎn)權(quán)》2019年第6期,第66-80頁;曾俊:《論〈歐盟版權(quán)改革指令〉第17條對中國在線內(nèi)容分享平臺責任的啟示》,載《德國研究》2020年第3期,第125-141、163-164頁?!?;美國也在考慮進一步強化網(wǎng)絡服務商的義務?!緟⒁娎钽戃帲骸睹绹W(wǎng)絡版權(quán)法改革的新動向及啟示——以網(wǎng)絡服務商的義務為中心》,載《電子知識產(chǎn)權(quán)》2021年第12期,第30-40頁。】基于互聯(lián)網(wǎng)時代的經(jīng)驗,隨著技術(shù)的不斷發(fā)展,服務提供者利用技術(shù)解決生成內(nèi)容侵權(quán)問題的成本和收益可能會發(fā)生變化,需要根據(jù)技術(shù)的發(fā)展現(xiàn)狀來調(diào)整過錯認定的標準?!緟⒁娦靷ィ骸墩撋墒饺斯ぶ悄芊仗峁┱叩姆傻匚患捌湄熑巍訡hatGPT為例》,載《法律科學》2023年第4期,第79-80頁?!?/p>

第二,服務類型維度。作為采取防范措施的主體,不同類型的服務提供者在采取特定措施時的成本收益不盡相同。特別是,服務提供者提供服務的性質(zhì)或者方式會影響到服務提供者的信息管理能力。首先,服務提供者是否自己訓練模型將決定其是否可以采取模型訓練階段所能采取的措施。如果服務提供者是直接利用他人的模型來提供服務,如通過可編程接口調(diào)用他人的模型,此時服務提供者無法介入模型的訓練,那么一般認為其并不具有在訓練階段采取措施的義務。在“上海新創(chuàng)華文化發(fā)展有限公司與被告AI公司網(wǎng)絡侵權(quán)責任糾紛案”(以下簡稱“上海新創(chuàng)華案”)中,被告通過可編程接口接入第三方的模型向用戶提供生成式人工智能服務,生成侵害原告著作權(quán)的圖片,原告要求被告停止生成侵權(quán)圖片,并將案涉數(shù)據(jù)從訓練數(shù)據(jù)中刪除。法院判決被告采取措施停止生成侵權(quán)圖片,但并未支持原告所提出的刪除數(shù)據(jù)的訴求,因為“被告并未實際進行模型訓練行為”。【參見廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號民事判決書。】其次,服務提供者提供服務的方式也會影響其可能采取的措施?!渡墒饺斯ぶ悄芊展芾頃盒修k法》(以下簡稱《暫行辦法》)第22條規(guī)定,生成式人工智能服務提供者既可以直接向用戶提供生成服務,也可以向開發(fā)者提供可編程接口等服務。例如,OpenAI公司不僅直接向用戶提供ChatGPT這樣的聊天機器人服務,還向開發(fā)者提供其模型的API,允許開發(fā)者使用其模型開發(fā)新的應用。在服務提供者向開發(fā)者提供API供其開發(fā)應用的情形下,服務提供者一般無法直接管理應用端的用戶。但在服務提供者直接向用戶提供服務的情形下,其管理用戶的難度相對較低,有義務采取更多的措施來預防用戶的惡意行為。

第三,侵權(quán)性質(zhì)維度。生成內(nèi)容的類型、侵權(quán)的明顯程度以及侵權(quán)的頻率等也會影響采取防范措施的成本收益,特別是影響識別侵權(quán)內(nèi)容的成本。首先,識別不同類型生成內(nèi)容的難度不同。以個人信息、有害信息和虛假信息這三類生成內(nèi)容為例,從識別的難度上看,格式特征最為明顯的個人信息(如郵箱地址、IP地址、電話號碼等)的識別難度最低,可以采取基于規(guī)則的方法,如關(guān)鍵字識別,來檢測大多數(shù)的個人信息并予以攔截和刪除?!緟⒁姸澎o、楊軍:《互聯(lián)網(wǎng)海量數(shù)據(jù)中用戶關(guān)鍵信息準確識別仿真》,載《計算機仿真》2018年第5期,第258-261頁?!孔R別難度次之的是特征較為明顯、類型相對有限的有害信息,可以使用有害信息的數(shù)據(jù)訓練出高效的分類算法,有效地識別與訓練數(shù)據(jù)類似的有害信息。識別難度最高的是虛假信息,這類信息的類型與特征難以窮盡,即便使用有限的數(shù)據(jù)訓練出用于識別的分類算法,其精度也非常有限?!緟⒁娡鯓?、張紫瓊、崔雪瑩:《虛假評論的識別與過濾:現(xiàn)狀與展望》,載《電子科技大學學報(社科版)》2022年第1期,第31-41頁?!恳虼?,針對這些不同類型的內(nèi)容,服務提供者應盡的注意義務也有所區(qū)別。其次,侵權(quán)的明顯程度和侵權(quán)的頻率會影響識別侵權(quán)內(nèi)容的成本。對非常明顯的侵權(quán)內(nèi)容(如典型的有害信息或者權(quán)利人發(fā)送通知要求下架的侵權(quán)內(nèi)容)或者重復出現(xiàn)的侵權(quán)內(nèi)容,服務提供者發(fā)現(xiàn)和確認其侵權(quán)所需付出的成本較低,其注意義務也應隨之提高。

事實上,我國早在制定針對網(wǎng)絡服務提供者的過錯認定法律標準時,就采取了動態(tài)系統(tǒng)論。該理論通過規(guī)定過錯認定的不同因素,賦予了法院一定的自由裁量權(quán)。【參見王利明:《民法典人格權(quán)編中動態(tài)系統(tǒng)論的采納與運用》,載《法學家》2020年第4期,第1-12頁?!刻貏e是,《最高人民法院關(guān)于審理侵害信息網(wǎng)絡傳播權(quán)民事糾紛案件適用法律若干問題的規(guī)定》(以下簡稱《信息網(wǎng)絡傳播權(quán)司法解釋》)第9條和《最高人民法院關(guān)于審理利用信息網(wǎng)絡侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定》(以下簡稱《網(wǎng)絡人身權(quán)司法解釋》)第6條的規(guī)定,為判定生成式人工智能服務提供者的過錯提供了規(guī)則適用上的參考。【《信息網(wǎng)絡傳播權(quán)司法解釋》第9條規(guī)定:“人民法院應當根據(jù)網(wǎng)絡用戶侵害信息網(wǎng)絡傳播權(quán)的具體事實是否明顯,綜合考慮以下因素,認定網(wǎng)絡服務提供者是否構(gòu)成應知:(一)基于網(wǎng)絡服務提供者提供服務的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大小,應當具備的管理信息的能力;(二)傳播的作品、表演、錄音錄像制品的類型、知名度及侵權(quán)信息的明顯程度;(三)網(wǎng)絡服務提供者是否主動對作品、表演、錄音錄像制品進行了選擇、編輯、修改、推薦等;(四)網(wǎng)絡服務提供者是否積極采取了預防侵權(quán)的合理措施;(五)網(wǎng)絡服務提供者是否設(shè)置便捷程序接收侵權(quán)通知并及時對侵權(quán)通知作出合理的反應;(六)網(wǎng)絡服務提供者是否針對同一網(wǎng)絡用戶的重復侵權(quán)行為采取了相應的合理措施;(七)其他相關(guān)因素?!薄毒W(wǎng)絡人身權(quán)司法解釋》第6條規(guī)定:“人民法院依據(jù)民法典第一千一百九十七條認定網(wǎng)絡服務提供者是否‘知道或者應當知道’,應當綜合考慮下列因素:(一)網(wǎng)絡服務提供者是否以人工或者自動方式對侵權(quán)網(wǎng)絡信息以推薦、排名、選擇、編輯、整理、修改等方式作出處理;(二)網(wǎng)絡服務提供者應當具備的管理信息的能力,以及所提供服務的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大??;(三)該網(wǎng)絡信息侵害人身權(quán)益的類型及明顯程度;(四)該網(wǎng)絡信息的社會影響程度或者一定時間內(nèi)的瀏覽量;(五)網(wǎng)絡服務提供者采取預防侵權(quán)措施的技術(shù)可能性及其是否采取了相應的合理措施;(六)網(wǎng)絡服務提供者是否針對同一網(wǎng)絡用戶的重復侵權(quán)行為或者同一侵權(quán)信息采取了相應的合理措施;(七)與本案相關(guān)的其他因素?!薄酷槍θ斯ぶ悄苌蓛?nèi)容致人損害的情形,法院可以類推適用《信息網(wǎng)絡傳播權(quán)司法解釋》第9條和《網(wǎng)絡人身權(quán)司法解釋》第6條的規(guī)定,綜合權(quán)衡認定服務提供者是否已經(jīng)采取合理的防范措施。在技術(shù)水平維度,可以考慮“服務提供者采取預防侵權(quán)措施的技術(shù)可能性及其是否采取了相應的合理措施”;在服務類型維度,可以考慮“服務提供者應當具備的信息管理能力,以及所提供服務的性質(zhì)、方式及其引發(fā)侵權(quán)的可能性大小”;在侵權(quán)性質(zhì)維度,可以考慮“該信息侵害人身權(quán)益的類型及明顯程度”“該信息的社會影響程度或者一定時間內(nèi)的瀏覽量”,以及“服務提供者是否針對同一網(wǎng)絡用戶的重復侵權(quán)行為或者同一侵權(quán)信息采取了相應的合理措施”。未來,隨著實踐的發(fā)展和研究的深入,也可以進一步通過立法和司法解釋,以動態(tài)系統(tǒng)論的方式總結(jié)和規(guī)定服務提供者過錯認定的標準。

二、服務提供者的注意義務類型與過錯認定

如上所述,認定服務提供者是否存在過錯,需要分析一個合理的、謹慎的服務提供者應當采取的防范措施。具體而言,服務提供者可能采取多種防范措施:在模型訓練階段,服務提供者可以通過語料處理、對齊微調(diào)等方式,降低生成侵權(quán)內(nèi)容的風險;在內(nèi)容生成階段,服務提供者可以采取內(nèi)容審查、內(nèi)容標識以及用戶管理等措施,阻止侵權(quán)內(nèi)容的生成或者降低其傳播造成損害的風險。這些防范措施都有可能構(gòu)成服務提供者注意義務的內(nèi)容。然而,如果服務提供者未能采取上述防范措施,是否就應當認定其存在過錯?筆者認為,這需要結(jié)合案件的特定情境對服務提供者采取防范措施的合理性進行分析。基于類型化的思維,筆者將對服務提供者可能負有的注意義務進行分析,明確注意義務的范圍以及構(gòu)成過錯的具體情形。

(一)語料處理義務

為降低生成侵權(quán)內(nèi)容的概率,訓練模型的服務提供者應當負有對語料(訓練數(shù)據(jù))進行處理的義務。這一義務來源于語料與生成內(nèi)容的相關(guān)性。如果語料中包含個人信息或者其他侵權(quán)內(nèi)容,模型則會在訓練過程中學習語料的特征甚至記住語料中的片段,導致最終生成個人信息等侵權(quán)內(nèi)容?!維ee Nicolas Carlini et al.,Extracting Training Data from Large Language Models,30USENIX Security Symposium2633,2633-2650(2021).】因此,《暫行辦法》第7條規(guī)定了服務提供者在語料處理活動中的義務,要求服務提供者不僅要使用來源合法的數(shù)據(jù),還要“采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性”。如果服務提供者在模型訓練階段未能合理地履行這一義務,導致生成侵權(quán)內(nèi)容,那么便可以認定服務提供者具有過錯。例如,在北京互聯(lián)網(wǎng)法院審理的中國首例“AI聲音侵權(quán)案”中,被告之一未經(jīng)許可使用了原告的聲音數(shù)據(jù)來開發(fā)語言生成式人工智能產(chǎn)品,并在網(wǎng)絡上對外出售,法院認定該被告存在過錯,應承擔侵權(quán)責任。【參見唐山客:《全國首例“AI聲音侵權(quán)案”宣判帶來何種警示》,載《中國城市報》2024年4月29日,第2版?!?/p>

值得強調(diào)的是,在語料規(guī)模極為龐大的情形下,語料處理義務并非要求服務提供者過濾掉語料中所有的個人信息、虛假信息、有害信息以及作品。理由在于:第一,要求服務提供者做到全面的過濾在技術(shù)上不具有可行性。無論是個人信息、虛假信息還是有害信息,要從海量的語料中全部識別出來,都具有極高的難度。至于作品,由于服務提供者無法獲得所有尚在著作權(quán)保護期內(nèi)的作品信息,因此也不可能識別出語料中可能包含的所有作品。第二,對語料進行全面過濾,可能會降低語料的質(zhì)量和多樣性。大量地過濾語料中的作品有可能會將許多高質(zhì)量內(nèi)容排除在外。這不僅會使語料的質(zhì)量下降,影響模型的性能,還會導致語料缺乏多樣性,引發(fā)偏見歧視問題。【See Amanda Levendowski,How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem,93Washington Law Review579,579(2018).】因此,有觀點認為,將利用作品訓練人工智能的行為認定為合理使用,更有利于促進人工智能的發(fā)展?!緟⒁娙f勇:《人工智能時代著作權(quán)法合理使用制度的困境與出路》,載《社會科學輯刊》2021年第5期,第100頁。】考慮到以上因素,不能因為用于訓練的語料中仍包含可能侵權(quán)的信息,就認定服務提供者存在過錯。一種可行的做法是,只要經(jīng)處理后的語料合格率達到一定的標準,就可以認定服務提供者合理地履行了語料處理義務。例如,我國公布的《生成式人工智能服務安全基本要求》(以下簡稱《安全基本要求》)就對語料安全評估的要求作出了具體規(guī)定:“a)采用人工抽檢,從全部語料中隨機抽取不少于4000條語料,合格率不應低于96%;b)結(jié)合關(guān)鍵詞、分類模型等技術(shù)抽檢,從全部語料中隨機抽取不少于總量10%的語料,抽樣合格率不應低于98%;c)評估采用的關(guān)鍵詞庫、分類模型應符合本文件第8章要求”。如果服務提供者對語料的處理達到《安全基本要求》中的語料安全評估要求或者類似的標準,即使其語料中仍存在可能侵權(quán)的信息,也不宜認定服務提供者存在過錯。

(二)對齊微調(diào)義務

在模型訓練階段,服務提供者還可以采取人類反饋強化學習等對齊微調(diào)技術(shù),減少虛假信息和有害信息的生成?!緟⒁娎钽戃?、文繼榮:《AIGC時代網(wǎng)絡信息內(nèi)容的法律治理——以大語言模型為例》,載《北京理工大學學報(社會科學版)》2023年第6期,第86頁?!坷纾琌penAI公司曾指出,ChatGPT從GPT-3等早期模型的部署中吸取了許多經(jīng)驗教訓,采取了包括人類反饋強化學習在內(nèi)的安全緩解措施,大幅減少了有害和不真實信息的輸出。筆者認為,對服務提供者而言,采取合理的對齊微調(diào)技術(shù)來減少侵權(quán)內(nèi)容的生成,屬于應盡的注意義務。雖然現(xiàn)有法規(guī)并未針對對齊微調(diào)義務作出具體規(guī)定,但是采取相同或者類似措施正在成為生成式人工智能領(lǐng)域的行業(yè)慣例,是一個“合理的服務提供者”會采取的防范措施。因此,如果服務提供者向公眾提供未經(jīng)對齊的模型,導致生成侵權(quán)內(nèi)容,則可以認定其具有過錯。

值得注意的是,即使服務提供者在模型訓練階段采取了目前最先進的技術(shù),還是無法完全避免生成一些侵權(quán)內(nèi)容。例如,ChatGPT等大語言模型存在“幻覺”(Hallucination)等無法徹底解決的固有缺陷,總會無中生有地生成虛假信息。【參見王祿生:《ChatGPT類技術(shù):法律人工智能的改進者還是顛覆者?》,載《政法論壇》2023年第4期,第55頁?!抗P者認為,只要服務提供者在模型訓練階段已采取了合理的防范措施,效果達到了行業(yè)的一般水平,就可以認定其在模型訓練階段不存在過錯。所謂行業(yè)的一般水平,可以參考法律法規(guī)以及行業(yè)標準和慣例來加以確定。例如,《安全基本要求》提出了生成內(nèi)容安全評估的要求:采用人工抽檢、關(guān)鍵詞抽檢和分類模型抽檢,從生成內(nèi)容測試題庫中隨機抽取不少于1000條測試題,模型生成內(nèi)容的抽樣合格率不應低于百分之九十。如果服務提供者在模型訓練階段采取了防范措施并使模型達到了上述安全評估要求,即使得到的模型仍有可能生成侵權(quán)內(nèi)容,也不應認定服務提供者在模型訓練階段存在過錯。

(三)內(nèi)容審查義務

關(guān)于服務提供者過錯的認定,一個備受爭議的問題是,服務提供者是否對生成內(nèi)容負有審查義務?!緟⒁姼哧枺骸锻ㄓ萌斯ぶ悄芴峁┱邇?nèi)容審查注意義務的證成》,載《東方法學》2024年第1期,第195-200頁;徐偉:《論生成式人工智能服務提供者的法律地位及其責任——以ChatGPT為例》,載《法律科學》2023年第4期,第77頁;刁佳星:《生成式人工智能服務提供者版權(quán)侵權(quán)注意義務研究》,載《中國出版》2024年第1期,第27-29頁?!糠仗峁┱叩膶彶榱x務存在不同的類型,需分類討論。審查義務可以分為普遍的事前審查義務、特殊的事前審查義務以及事后審查義務,其區(qū)分的標準主要在于審查時間是事前還是事后以及審查對象的范圍?!緟⒁娡踅埽骸毒W(wǎng)絡存儲空間服務提供者的注意義務新解》,載《法律科學》2020年第3期,第104-108頁;熊皓男:《論網(wǎng)絡服務提供者的版權(quán)審查義務》,載《電子知識產(chǎn)權(quán)》2021年第6期,第41-42頁?!科毡榈氖虑皩彶榱x務要求服務提供者對所有生成內(nèi)容進行全面的事前審查,通過審查后再向用戶提供;特殊的事前審查義務要求服務提供者僅針對生成內(nèi)容進行特定范圍的事前審查;事后審查義務則要求服務提供者在收到侵權(quán)通知后采取必要的審查措施,并防止相同或類似內(nèi)容再次生成。

筆者認為,服務提供者對人工智能生成內(nèi)容不負有普遍的事前審查義務,但是應承擔特殊的事前審查義務和事后審查義務,這其中的主要考量因素是識別侵權(quán)內(nèi)容的成本。第一,對服務提供者而言,普遍的事前審查義務所帶來的侵權(quán)內(nèi)容識別成本過高,因此要求服務提供者承擔普遍的事前審查義務并不合理。一個類似的先例是網(wǎng)絡服務提供者是否應承擔普遍的事前審查義務,我國立法者認為,“由于網(wǎng)絡具有開放性的特質(zhì),網(wǎng)絡信息十分龐雜,要求此類網(wǎng)絡服務提供者逐一審查,可能大量增加網(wǎng)絡服務提供者的運營成本,阻礙網(wǎng)絡產(chǎn)業(yè)的發(fā)展”?!军S薇主編:《中華人民共和國民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責任編·附則》,法律出版社2020年版,第2321頁?!颗c網(wǎng)絡服務提供者面臨的情況相似,生成式人工智能服務提供者面對的生成內(nèi)容也非常龐雜。例如,早在2021年,GPT-3模型就已經(jīng)被“超過300個應用程序使用,平均每天能夠生成45億個詞”【張欣:《生成式人工智能的數(shù)據(jù)風險與治理路徑》,載《法律科學》2023年第5期,第46頁?!俊H鎸彶楹A康纳蓛?nèi)容對服務提供者而言將是極大的負擔。因此,不宜要求服務提供者承擔普遍的事前審查義務,否則將極大地增加服務提供者的運營成本,阻礙生成式人工智能技術(shù)的發(fā)展。

第二,要求服務提供者承擔特殊的事前審查義務和事后審查義務具有一定合理性。特殊的事前審查義務僅要求服務提供者對生成內(nèi)容進行特定范圍的事前審查,事后審查義務則要求服務提供者在獲得侵權(quán)內(nèi)容的相關(guān)通知后采取必要措施,這兩類審查義務都在一定程度上減輕了服務提供者識別侵權(quán)內(nèi)容的成本,因而具有技術(shù)上和經(jīng)濟上的可行性。具體而言,可以根據(jù)服務提供者和生成內(nèi)容的接收者(包括用戶和第三方)識別侵權(quán)內(nèi)容的成本大小,來確定服務提供者是承擔特殊的事前審查義務還是事后審查義務。這是因為,由識別侵權(quán)內(nèi)容成本更小的一方來承擔發(fā)現(xiàn)和確認侵權(quán)內(nèi)容的責任,可以減少社會成本,實現(xiàn)社會福利的最大化。如果服務提供者能以較低的成本來識別某些特定類型的侵權(quán)內(nèi)容,則可以要求服務提供者針對這些類型的侵權(quán)內(nèi)容承擔事前審查義務。例如,對格式化的個人信息、特征較為明顯的有害信息等,服務提供者可以直接采取簡單的規(guī)則方法或者分類算法來識別這些侵權(quán)內(nèi)容,這既能有效地防止損害的發(fā)生,又能節(jié)省處理通知所帶來的成本。如果生成內(nèi)容的接收者更容易識別侵權(quán)內(nèi)容,那么可以由接收者來通知服務提供者,由服務提供者承擔事后審查義務。例如,對侵害著作權(quán)的內(nèi)容,著作權(quán)人或者利益相關(guān)人更容易發(fā)現(xiàn),由其通知并要求服務提供者采取必要的審查措施,可以節(jié)省識別侵權(quán)內(nèi)容的成本。

由于服務提供者對生成內(nèi)容不負有普遍的事前審查義務,在滿足語料處理、對齊微調(diào)等義務的前提下,如果生成式人工智能仍生成了侵權(quán)內(nèi)容,則不能以服務提供者未對該內(nèi)容進行審查為由主張其存在過錯。但由于服務提供者應承擔特殊的事前審查義務和事后審查義務,在滿足以下條件的情形中,可以認定服務提供者存在過錯:第一,綜合考慮服務提供者的技術(shù)水平、服務類型以及侵權(quán)性質(zhì)等因素,生成的侵權(quán)內(nèi)容屬于服務提供者能以較低的成本進行識別并過濾的內(nèi)容,那么可以認定服務提供者未盡到特殊的事前審查義務,存在過錯。這類內(nèi)容包括《暫行辦法》第4條第1款第(一)項規(guī)定的法規(guī)禁止的內(nèi)容、敏感個人信息、知名度較高的作品等。例如,ChatGPT在回應網(wǎng)友提問時,有時會生成包含真人照片的內(nèi)容,這類內(nèi)容屬于敏感個人信息,如果出現(xiàn)這種情況,應認定服務提供者存在過錯。第二,生成內(nèi)容的接收者向服務提供者發(fā)送內(nèi)容侵權(quán)的通知,且該通知符合法律規(guī)定的形式和內(nèi)容要件時,服務提供者應當采取審查措施而未及時采取的,可以認定服務提供者未盡到事后審查義務,存在過錯。

(四)內(nèi)容標識義務

為降低生成內(nèi)容在利用和傳播過程中可能引發(fā)的損害,服務提供者還可以對生成內(nèi)容進行標識,提示信息接收者生成內(nèi)容可能帶來的風險。從《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》到《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》再到《暫行辦法》,都對服務提供者的內(nèi)容標識義務作出了規(guī)定。服務提供者不僅負有對生成內(nèi)容添加標識的一般義務【參見《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》第16條?!?,還負有在特定情形下對生成內(nèi)容進行顯著標識的特別義務,即如果服務提供者提供的特定生成服務可能導致公眾混淆或者誤認,則應當在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進行顯著標識,向公眾提示生成情況?!緟⒁姟痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》第17條?!看送?,服務提供者還負有向用戶提供顯著標識功能的義務?!緟⒁姟痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》第17條?!吭谏蓛?nèi)容致人損害的情形下,如果服務提供者未盡到上述義務,則可能會被認定為存在過錯,需要承擔侵權(quán)責任。例如,在“上海新創(chuàng)華案”中,法院在認定被告是否應就生成侵權(quán)圖片承擔賠償損失責任時,認為被告并未顯著標識案涉生成圖片,未盡到標識義務,存在過錯?!緟⒁姀V州互聯(lián)網(wǎng)法院(2024)粵0192民初113號民事判決書?!吭谡J定服務提供者是否合理地盡到內(nèi)容標識義務時,應當充分考慮內(nèi)容的標識難度、用戶的使用體驗、造成的風險大小等因素,在標識難度較小、對用戶影響較小、造成風險較大的情形下,服務提供者應負有更高的顯著標識義務,但在一些標識難度較大、對用戶影響較大、造成風險較小的情形下,應當允許服務提供者結(jié)合具體情形采取合理的標識方式,包括添加隱式水印等?!緟⒁娎钽戃?、文繼榮:《AIGC時代網(wǎng)絡信息內(nèi)容的法律治理——以大語言模型為例》,載《北京理工大學學報(社會科學版)》2023年第6期,第90頁?!?/p>

(五)用戶管理義務

在人工智能生成內(nèi)容致人損害的情形中,有一些情形主要涉及用戶責任。一種是用戶故意誘導生成侵權(quán)內(nèi)容。例如,用戶可以使用越獄提示詞繞過生成式人工智能系統(tǒng)的防護,主動引導其生成虛假信息并加以傳播?!緟⒁姼哧枺骸锻ㄓ萌斯ぶ悄芴峁┱邇?nèi)容審查注意義務的證成》,載《東方法學》2024年第1期,第195頁?!苛硪环N是用戶有過錯地利用生成式人工智能自發(fā)生成的侵權(quán)內(nèi)容造成損害。例如,生成式人工智能可能會因為“幻覺”自發(fā)生成虛假信息,用戶在接收該信息后對其進行傳播。此外,用戶也有可能利用生成式人工智能從事生成侵權(quán)內(nèi)容以外的侵權(quán)活動。對用戶的上述行為,服務提供者應當負有管理義務。原因在于,一方面,服務提供者提供服務的行為開啟了用戶實施侵權(quán)行為的危險,客觀上也為用戶的侵權(quán)行為提供了便利和幫助,因而負有交往安全義務;另一方面,從防范用戶侵權(quán)行為的角度來看,由服務提供者對用戶進行管理,要比由受害者來制止用戶實施侵權(quán)行為更有效率。因此,服務提供者在發(fā)現(xiàn)用戶存在違法活動時,應當采取合理的處置措施?!稌盒修k法》第14條第2款規(guī)定:“提供者發(fā)現(xiàn)使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫?;蛘呓K止向其提供服務等處置措施,保存有關(guān)記錄,并向有關(guān)主管部門報告?!?/p>

另外,服務提供者是否應負有用戶行為監(jiān)控義務,值得討論。與內(nèi)容審查義務的分析相似,影響服務提供者是否承擔用戶行為監(jiān)控義務的一個重要因素是實施監(jiān)控行為的成本大小。要求服務提供者對用戶進行普遍的監(jiān)控,對服務提供者而言成本過高,不具有可行性。并且,普遍監(jiān)控的實現(xiàn)往往需要服務提供者對用戶的輸入、輸出行為進行全方位審查,這可能會對用戶隱私造成嚴重侵害。然而,服務提供者有義務在接到通知后對用戶采取必要措施,以及對侵權(quán)極為明顯的行為進行個別監(jiān)控。例如,針對大規(guī)模生成有害虛假信息、多次使用越獄提示詞等侵權(quán)特征較為明顯的行為,服務提供者應當設(shè)計相應的技術(shù)進行監(jiān)測,在不侵害用戶隱私的前提下識別可疑行為,并及時采取必要的處置措施。

三、“通知規(guī)則”的適用與過錯的認定

在生成內(nèi)容致人損害的情形下,有關(guān)“通知規(guī)則”適用的問題也引發(fā)了激烈的討論?!緟⒁娡趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應對》,載《中國應用法學》2023年第5期,第34-35頁;王若冰:《論生成式人工智能侵權(quán)中服務提供者過錯的認定——以“現(xiàn)有技術(shù)水平”為標準》,載《比較法研究》2023年第5期,第31-33頁?!俊巴ㄖ?guī)則”是指《中華人民共和國民法典》(以下簡稱《民法典》)第1195條所規(guī)定的“在網(wǎng)絡用戶利用網(wǎng)絡服務者提供的網(wǎng)絡實施侵權(quán)行為時,權(quán)利人有權(quán)通知網(wǎng)絡服務提供者采取刪除、屏蔽、斷開鏈接等措施,網(wǎng)絡服務提供者接到通知應當及時將該通知轉(zhuǎn)送相關(guān)網(wǎng)絡用戶,或者采取必要措施?!薄就趵鳎骸渡墒饺斯ぶ悄芮謾?quán)的法律應對》,載《中國應用法學》2023年第5期,第34頁?!俊巴ㄖ?guī)則”針對的是“網(wǎng)絡用戶利用網(wǎng)絡服務實施侵權(quán)行為”的情形,在生成內(nèi)容致人損害的情形中,如果是網(wǎng)絡用戶利用生成式人工智能服務實施侵權(quán)行為,則落入“通知規(guī)則”的規(guī)制范圍,理論上可以直接適用該規(guī)則。存在爭議的問題是,如果生成式人工智能自主生成侵權(quán)內(nèi)容,可否類推適用“通知規(guī)則”?如果可以,應如何適用“通知規(guī)則”?

(一)“通知規(guī)則”的類推適用

類推的正當性在于“同類事物相同對待”,當“在對法律評價有決定性意義的方面,兩類事實構(gòu)成彼此類似”,就應當給予相同的評價。【參見\[德\]卡爾·拉倫茨:《法學方法論》(全本·第6版),黃家鎮(zhèn)譯,商務印書館2020年版,第479頁?!抗P者認為,從規(guī)范目的的角度看,生成式人工智能服務提供者的侵權(quán)責任認定與網(wǎng)絡服務提供者的侵權(quán)責任認定面臨著類似的利益平衡問題,能夠通過“通知規(guī)則”的類推適用加以妥善解決。“通知規(guī)則”源自《美國數(shù)字千年版權(quán)法》中的“避風港規(guī)則”,其設(shè)立的主要目標在于平衡網(wǎng)絡服務提供者與版權(quán)人之間的利益,即一方面要為網(wǎng)絡服務提供者提供法律確定性,保障互聯(lián)網(wǎng)生態(tài)系統(tǒng)可以蓬勃發(fā)展;另一方面要保護作者和其他版權(quán)人的合法利益免受猖獗的、低門檻的網(wǎng)絡侵權(quán)行為的侵害?!緟⒁娎钽戃帲骸睹绹W(wǎng)絡版權(quán)法改革的新動向及啟示——以網(wǎng)絡服務商的義務為中心》,載《電子知識產(chǎn)權(quán)》2021年第12期,第31頁?!繉崿F(xiàn)這一平衡目標的重要工具便是“通知規(guī)則”。首先,“通知規(guī)則”免除了網(wǎng)絡服務提供者的普遍事前審查義務,為網(wǎng)絡服務提供者提供了足夠的法律確定性。根據(jù)“通知規(guī)則”,網(wǎng)絡服務提供者不需要對海量的信息進行一一審查,在大多數(shù)情形下,只要接到權(quán)利人通知后采取了必要措施,網(wǎng)絡服務提供者就無需承擔侵權(quán)責任。其次,“通知規(guī)則”對網(wǎng)絡服務提供者施加了接到通知后采取必要措施的義務,這能夠促進網(wǎng)絡服務提供者和權(quán)利人積極合作,更有效率地制止侵權(quán)活動,防止侵權(quán)損害的擴大。根據(jù)“最便宜的成本規(guī)避者”(cheapest cost avoider theory)理論,防范風險成本較低的一方應當承擔防范義務或侵權(quán)責任?!維ee Guido Calabresi,Concerning Cause and the Law of Torts:An Essay for Harry Kalven,Jr.,43The University of Chicago Law Review69,84(1975).】從防范風險成本來看,權(quán)利人能以較低的成本識別侵權(quán)活動,而網(wǎng)絡服務提供者則能以更低的成本制止侵權(quán)活動,因此在防范網(wǎng)絡侵權(quán)行為方面,“通知規(guī)則”也是最具效率的規(guī)則。在人工智能生成內(nèi)容致人損害的情形下,適用“通知規(guī)則”可以實現(xiàn)相同的規(guī)范目的。首先,生成式人工智能服務提供者與網(wǎng)絡服務提供者一樣,面對海量的生成內(nèi)容,無法進行一一審查,適用“通知規(guī)則”能夠免除生成式人工智能服務提供者的普遍事前審查義務,減少其在侵權(quán)責任方面所面臨的不確定性。其次,雖然生成式人工智能服務提供者在識別侵權(quán)內(nèi)容方面的信息成本較高,但是其在接到通知后防止侵權(quán)內(nèi)容繼續(xù)生成與傳播的成本相對較低,適用“通知規(guī)則”能夠促使其與權(quán)利人合作,以最具效率的方式防止侵權(quán)的發(fā)生與擴大。因此,類推適用“通知規(guī)則”亦能有效地平衡生成式人工智能服務提供者與權(quán)利人之間的利益,具有合理性。

此外,類推適用“通知規(guī)則”的一大作用,在于緩解生成式人工智能黑箱帶來的權(quán)利人舉證困難問題。以ChatGPT為代表的生成式人工智能遵循“大模型+大數(shù)據(jù)”的技術(shù)路線,是一個典型的黑箱。例如,ChatGPT模型的參數(shù)規(guī)模達到了千億級別,由于模型的參數(shù)規(guī)模巨大,權(quán)利人往往無法了解ChatGPT的內(nèi)部結(jié)構(gòu)和運作原理。另外,訓練以ChatGPT為代表的大型語言模型還需要龐大的數(shù)據(jù),加之研發(fā)者可能對訓練的方法和數(shù)據(jù)進行保密,權(quán)利人也難以知曉設(shè)計者究竟使用了哪些方法和數(shù)據(jù)得到了模型。生成式人工智能黑箱引發(fā)了嚴重的信息不對稱問題,權(quán)利人往往難以獲得充分的證據(jù)證明服務提供者存在過錯,導致權(quán)利人與服務提供者之間的利益失衡。有觀點主張,在人工智能生成內(nèi)容致人損害的情形下,應當對服務提供者適用過錯推定責任,以減輕權(quán)利人的舉證負擔?!緟⒁娭軐W峰:《生成式人工智能侵權(quán)責任探析》,載《比較法研究》2023年第4期,第125頁?!康^錯推定責任必須是法律法規(guī)所明確規(guī)定的情形,在現(xiàn)有法律體系下,法院一般不能僅僅以生成式人工智能生成了侵權(quán)內(nèi)容,就推定服務提供者存在過錯。既然不能推定服務提供者存在過錯,那么對于權(quán)利人而言,要證明服務提供者存在過錯,最為可靠的方法即是向服務提供者發(fā)出通知告知其服務會生成侵權(quán)內(nèi)容,如果在服務提供者接到通知的合理期限后,其所提供的服務仍會生成相同或者類似的侵權(quán)內(nèi)容,權(quán)利人就可以初步證明服務提供者在知曉侵權(quán)狀況的情形下未采取必要措施,即服務提供者存在過錯??梢姡凇巴ㄖ?guī)則”下,權(quán)利人無需承擔過重的負擔去證明服務提供者的過錯。不過,如果服務提供者可以反證,其在接到通知后已經(jīng)采取相關(guān)措施,但是仍無法避免生成侵權(quán)內(nèi)容,那么可以允許服務提供者主張類似產(chǎn)品責任制度中的“發(fā)展風險抗辯”或者“現(xiàn)有技術(shù)抗辯”,來減輕或者免除其責任?!緟⒁娡跞舯骸墩撋墒饺斯ぶ悄芮謾?quán)中服務提供者過錯的認定——以“現(xiàn)有技術(shù)水平”為標準》,載《比較法研究》2023年第5期,第32頁?!慨斎?,這一抗辯主張的舉證責任主要在服務提供者,并不會給權(quán)利人帶來過重的舉證負擔。

(二)“通知規(guī)則”下服務提供者過錯的認定

根據(jù)“通知規(guī)則”,在生成侵權(quán)內(nèi)容時,權(quán)利人有權(quán)通知服務提供者采取必要措施,服務提供者接到通知后,應當根據(jù)構(gòu)成侵權(quán)的初步證據(jù)和服務類型采取必要措施,未及時采取必要措施的,對損害的擴大部分承擔責任。此時,服務提供者應盡的注意義務是在接到通知后及時采取必要措施,若違反這一注意義務,則構(gòu)成過錯。前文已就服務提供者應當承擔事后審查義務,即接到通知后及時采取必要審查措施的合理性作了論證,在此仍有必要結(jié)合“通知規(guī)則”進一步探討如何對服務提供者的過錯進行認定。

第一,合格通知的認定。通知的作用在于使服務提供者知道在輸入特定的提示詞時模型會生成侵權(quán)內(nèi)容,而只有當通知符合一定的要求時,才能起到這樣的作用,進而觸發(fā)服務提供者的作為義務。一般而言,合格的通知應當符合主體合格、形式合格和內(nèi)容完整等條件?!緟⒁娡趵鳎骸肚謾?quán)責任法研究(下卷)》,中國人民大學出版社2011年版,第133-134頁?!科渲凶钪饕氖且暾膬?nèi)容。根據(jù)《民法典》第1195條的規(guī)定,通知應當包括構(gòu)成侵權(quán)的初步證據(jù)及權(quán)利人的真實身份信息。現(xiàn)有規(guī)則還對網(wǎng)絡侵權(quán)情形下權(quán)利人通知的內(nèi)容要求作出了較為具體的規(guī)定?!尽缎畔⒕W(wǎng)絡傳播權(quán)保護條例》第14條規(guī)定,通知書應當包含下列內(nèi)容:(1)權(quán)利人的姓名(名稱)、聯(lián)系方式和地址;(2)要求刪除或者斷開鏈接的侵權(quán)作品、表演、錄音錄像制品的名稱和網(wǎng)絡地址;(3)構(gòu)成侵權(quán)的初步證明材料。】參照相關(guān)規(guī)定,筆者認為,權(quán)利人的通知應當包含下列內(nèi)容:(1)權(quán)利人的姓名(名稱)和聯(lián)系方式;(2)生成侵權(quán)內(nèi)容的具體情形,包括輸入的提示詞以及生成的具體內(nèi)容;(3)權(quán)利人要求采取必要措施的理由,包括生成內(nèi)容構(gòu)成侵權(quán)的初步證明材料。如果權(quán)利人發(fā)出的通知未能包含上述內(nèi)容,即便服務提供者接到通知后沒有采取必要措施,也不應當認定其存在過錯。

第二,必要措施的認定。《民法典》第1195條所列舉的“刪除、屏蔽、斷開鏈接”等措施類型,主要是網(wǎng)絡服務提供者針對網(wǎng)絡用戶上傳內(nèi)容所能采取的必要措施,所要達到的目的是“在技術(shù)能夠做到的范圍內(nèi)避免相關(guān)信息進一步傳播”?!军S薇主編:《中華人民共和國民法典釋義(下):人格權(quán)編·婚姻家庭編·繼承編·侵權(quán)責任編·附則》,法律出版社2020年版,第2315頁?!繀⒄站W(wǎng)絡侵權(quán)的情形,生成式人工智能服務提供者采取的必要措施應當針對的是生成的侵權(quán)內(nèi)容,所要達到的目的是在技術(shù)能夠做到的范圍內(nèi)防止侵權(quán)內(nèi)容的生成與傳播?!稌盒修k法》第14條規(guī)定:“提供者發(fā)現(xiàn)違法內(nèi)容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓練等措施進行整改,并向有關(guān)主管部門報告。”這里的“停止生成、停止傳輸、消除”以及“模型優(yōu)化訓練”等措施,均屬于服務提供者可能采取的必要措施類型。值得強調(diào)的是,對必要措施的要求應當具有合理性,既不能過于寬松也不應過于嚴苛??傮w而言,仍應采取動態(tài)的“合理人”標準,結(jié)合具體的情境,綜合考慮各種因素,分析一個合理的、謹慎的服務提供者應當采取的措施。以“上海新創(chuàng)華案”【參見廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號民事判決書?!繛槔桓嬖诮拥酵ㄖ?,采取了關(guān)鍵詞過濾等措施,當輸入包含“奧特曼”的提示詞時,網(wǎng)站會拒絕生成侵權(quán)圖片,但是當輸入與奧特曼相關(guān)的其他關(guān)鍵詞,如“迪迦”等,仍會生成侵權(quán)圖片。法院在分析被告是否采取必要措施時指出,被告應進一步采取關(guān)鍵詞過濾等措施,防范程度應達到“用戶正常使用與奧特曼相關(guān)的提示詞都不能生成與案涉奧特曼作品實質(zhì)性相似的圖片”。與此同時,法院也拒絕了原告要求將案涉數(shù)據(jù)從訓練數(shù)據(jù)中刪除的訴求,認為“被告并未實際進行模型訓練行為”。可見,法院在認定必要措施時充分考慮了其合理性,既要求達到足夠的效果,也不應超出服務提供者力所能及的范圍,從而有效地平衡了預防風險與鼓勵創(chuàng)新的價值目標。

四、結(jié)語

服務提供者過錯的認定是合理界定服務提供者是否對其生成內(nèi)容承擔侵權(quán)責任的關(guān)鍵。筆者通過對過錯認定的原理和方法進行考察、對注意義務的類型化以及對“通知規(guī)則”適用的討論,全面地探討了生成式人工智能生成內(nèi)容致人損害時服務提供者過錯的認定問題。隨著生成式人工智能的發(fā)展,未來仍會不斷出現(xiàn)侵權(quán)糾紛的新場景。但“技術(shù)有變,法理有常”【李?。骸墩撊斯ぶ悄艿姆▽W分析方法——以著作權(quán)為例》,載《知識產(chǎn)權(quán)》2019年第7期,第14頁。】,只要能回歸侵權(quán)法的基本法理,秉持正確的價值取向和分析方法,就能有效地回應技術(shù)所帶來的紛繁變化,實現(xiàn)預防風險與鼓勵創(chuàng)新的精妙平衡。

On Fault Identification of Generative Artificial Intelligence Service Providers

SHEN Senhong

(School of Finance,Renmin University of China,Beijing100872,China)

Abstract: In the case of damage caused by the AIgenerated content,the faultbased rule is the liability rule for generative artificial intelligence service providers to bear the tort liability.Reasonably identifying the fault of service providers is the key to effectively balance the dual goals of preventing risks and encouraging innovation.The fault of the service provider is essentially abreach of its duty of security or duty of care.In terms of the criteria,we should adopt the dynamic“reasonable man”standard to analyze the duty of care of areasonable and prudent service provider under aspecific situation considering technical level,service types,infringement content and other dimensions.Service providers'duty of care mainly includes duty of corpus processing,duty of alignment,duty of content review,duty of content labeling and duty of user management.If service providers fail to fulfill these duties reasonably,they should be deemed to be at fault and bear tort liability for the damage caused by the AIgenerated content.The noticeandtakedown rule should be applied to the determination of tort liability of service providers,which is not only conductive to the balance of interests between service providers and right holders,but also can reduce the burden of proof for right holders to prove the fault of service providers.

Key words:generative artificial intelligence;service provider;fault;duty of care;notice and takedown rule

本文責任編輯:黃 匯

益阳市| 潼南县| 娱乐| 慈溪市| 嘉定区| 疏勒县| 定边县| 仙游县| 弥勒县| 漯河市| 大理市| 元氏县| 长岭县| 江山市| 武夷山市| 金乡县| 德江县| 榆林市| 澄城县| 基隆市| 蒲城县| 扶风县| 邛崃市| 龙江县| 宝鸡市| 茶陵县| 伊金霍洛旗| 大兴区| 仁怀市| 苏尼特左旗| 察雅县| 新昌县| 广汉市| 南投市| 浠水县| 吴旗县| 娄烦县| 金华市| 依安县| 乌拉特后旗| 汉源县|