国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論生成式人工智能侵權(quán)的責(zé)任主體
——以集體主義為視角

2024-03-02 03:24陸小華陸賽賽
關(guān)鍵詞:個人主義聯(lián)合體參與者

陸小華 陸賽賽

(天津大學(xué)a.新媒體與傳播學(xué)院;b.法學(xué)院,天津 300072)

2023年6月5日,OpenAI公司面臨全球首例誹謗訴訟。美國的一名電臺主持人Walters在ChatGPT表示沃爾特斯被指控詐騙和挪用非營利組織的資金后,向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽權(quán)(1)①①參見Walters訴OpenAI的起訴狀:The Complaint of Mark Walters v.OpenAI,L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No.23-A-04860-2。。這表明,ChatGPT生成大量虛假信息的潛在侵權(quán)糾紛已經(jīng)成為訴訟現(xiàn)實,是真實存在的法律問題。實際上,生成式人工智能造成的損害屢見不鮮。比如,利用人工智能技術(shù)自動生成歌曲可能侵犯姓名權(quán)[1],用戶輸入ChatGPT的私密信息(或個人信息)遭受非法傳播可能侵犯隱私權(quán)(或個人信息權(quán)益)。因此,厘清生成式人工智能的法律責(zé)任仍是生成式人工智能治理的重要話題。近來,有學(xué)者對生成式人工智能的侵權(quán)責(zé)任進行了初步探索[2]117,但總體上對責(zé)任主體問題的關(guān)注仍顯薄弱。只有精準地確定責(zé)任主體及其責(zé)任分配,才能夠真正擺脫無人擔(dān)責(zé)的窘境,從而規(guī)范生成式人工智能的發(fā)展。然而,生成式人工智能的不透明性、不可預(yù)測性加劇了責(zé)任主體的不確定性,將損害追溯至某一個體的個人主義救濟路徑面臨諸多困境(2)②②個人主義是現(xiàn)代法律思想的主線。一方面表現(xiàn)為尊重個體價值,珍視個人自由、權(quán)利的個人主義價值論,另一方面表現(xiàn)為以個人作為學(xué)科分析的基點和基本研究單位的個人主義方法論。參見易軍:《個人主義方法論與私法》,《法學(xué)研究》,2006年第1期,第91頁。特別說明的是,本文對個人主義概念的使用,僅限于在方法論這一范疇內(nèi),即以個人作為分析的基本單元。。因此為了補償受害人、實現(xiàn)實質(zhì)正義,反思并調(diào)適現(xiàn)有的侵權(quán)法責(zé)任理念和框架十分緊迫。本文嘗試在集體主義的視角下,揭示生成式人工智能侵權(quán)具有整體性侵害的本質(zhì),構(gòu)建生成式人工智能侵權(quán)的責(zé)任主體的識別機制(3)本文對集體主義概念的使用,僅限于在方法論這一范疇內(nèi),即以集體作為分析的基本單元。其意不在指集體利益優(yōu)先于個人利益,也不代表與個人主義的對立。。

一、生成式人工智能侵權(quán)的責(zé)任主體識別困境

隨著生成式人工智能的快速發(fā)展,它對隱私、個人信息和名譽等人格權(quán)甚至生命等物質(zhì)性人格權(quán)益的侵害風(fēng)險呈現(xiàn)擴大趨勢。確定“何人為生成式人工智能的侵權(quán)行為負責(zé)”是保障受害人權(quán)益、推動技術(shù)發(fā)展的關(guān)鍵所在。但是,生成式人工智能的多方參與者加劇了責(zé)任主體的模糊性。一般而言,技術(shù)的參與方與技術(shù)的復(fù)雜程度成正比。傳統(tǒng)人工智能以深度學(xué)習(xí)算法為技術(shù)支撐,涉及算法設(shè)計者、數(shù)據(jù)收集者、控制與處理者、產(chǎn)品制造者、軟件所有人等眾多參與者[3]172。生成式人工智能作為算法、算力、數(shù)據(jù)和用戶的集合體,是一種更為復(fù)雜的技術(shù)生態(tài),涉及的主體范圍更廣。從技術(shù)維度考量,生成式人工智能涉及模型設(shè)計者(4)模型已經(jīng)取代算法成為規(guī)制生成式人工智能發(fā)展的監(jiān)管抓手。這一判斷同《生成式人工智能服務(wù)管理暫行辦法》隱含的治理范式和第四條、第七條、第二十二條規(guī)定體現(xiàn)的監(jiān)管內(nèi)涵相一致。模型的內(nèi)涵包括算法、算力和數(shù)據(jù)這些要素,但在上述分類中,已經(jīng)將算力與數(shù)據(jù)剝離開,故本文中模型設(shè)計者與算法設(shè)計者具有同一含義。、數(shù)據(jù)供應(yīng)者、數(shù)據(jù)所有者、算力供應(yīng)商、服務(wù)提供者和用戶這六大主體。上述六大主體全部參與了人工智能的內(nèi)容生成。一旦生成式人工智能生成侵權(quán)內(nèi)容,那么必然陷入辨識侵權(quán)責(zé)任主體的困境。嘗試找到主導(dǎo)控制生成式人工智能行為的主體具有一定難度。在內(nèi)容生成這一目標下,參與者從事模塊化的工作,而單一模塊均以生成式人工智能組成部分的形式存在。這就意味著,任何一個單獨的個體都無法真正掌握與生成式人工智能互動回應(yīng)的方法。換言之,單一個體難以控制機器與用戶之間的交互行為。這直接導(dǎo)致生成式人工智能侵權(quán)的責(zé)任主體具有不確定性,而這種不確定性主要體現(xiàn)在以下兩個方面。

第一,生成式人工智能內(nèi)部難以確定加害人。在這一層面,不考慮用戶作用,而只考慮生成式人工智能的其他參與者。事實上,即使忽略用戶作用,也難以識別生成式人工智能內(nèi)部的錯誤侵權(quán)行為,尤其是生成式人工智能侵權(quán)已經(jīng)超越了單一的算法侵權(quán)范疇。在傳統(tǒng)人工智能時期,面對算法侵權(quán),雖然存在算法黑箱,但是對錯誤算法進行問責(zé)仍具有實際價值與現(xiàn)實可能。然而,現(xiàn)在模型已經(jīng)取代算法,成為影響侵權(quán)內(nèi)容生成的第一大要素。相較于算法,模型不僅融合了數(shù)據(jù)算法算力,形成了更為復(fù)雜的技術(shù)構(gòu)造,而且進一步模糊了算法設(shè)計者、數(shù)據(jù)供應(yīng)商和算力提供商的行為界限,導(dǎo)致識別具體的侵權(quán)主體變得困難重重。此外,因為模型侵權(quán)的原因不僅指向算法,還涉及數(shù)據(jù)和算力,所以單純依靠算法可解釋已經(jīng)無法完成追溯責(zé)任主體的任務(wù)??梢?即使實現(xiàn)了算法透明和可解釋,也無法識別模型的侵權(quán)風(fēng)險和具體原因,更遑論解決責(zé)任承擔(dān)與分配的問題。

第二,人機交互致使加害人不具有確定性。生成式人工智能使傳統(tǒng)的一鍵生成式人機交互演變至情感交流,實現(xiàn)了人機對話,完成了從單向檢索到智能交互的轉(zhuǎn)變[4]38。傳統(tǒng)人工智能嚴格遵循“輸入指令—輸出結(jié)果”的運行規(guī)則。用戶輸入指令與算法決策是相互獨立的兩個行為。但是,在人機交互的工作機制下,機器不再是被動地接受指令,而是實現(xiàn)了與人的相互協(xié)作。在此維度下,生成式人工智能不僅僅是一種技術(shù),或是一種內(nèi)容生產(chǎn)的工具。相反,它深刻地參與了人類的生活,并與人類行為形成了某種聯(lián)結(jié)。也就是說,人機密切協(xié)作下生成的侵權(quán)內(nèi)容,由于事實上難以區(qū)分彼此的貢獻值,難以拆解為若干獨立的侵權(quán)行為,因此面臨法律意義上加害人的詰問。

需要注意的是,上述人機交互中的“人”仍然具有強烈的個體色彩,即生成式人工智能侵權(quán)行為可以被評價為個體行為與機器行為的聯(lián)合。然而,人機交互中的“人”也可以具備群體表征。以ChatGPT為例。有研究指出,ChatGPT與用戶互動時,容易隱秘滋生后天性的算法偏見[5]38。與此同時,基于人機交互和人類反饋的強化學(xué)習(xí)機制,生成的虛假信息會重新進入語料庫,進而產(chǎn)生加深固化的效果[6]34。如果某一侵權(quán)內(nèi)容源于上述固化的虛假信息或者后天性算法偏見,那么用戶的形象是非常模糊的,用戶并非以個體呈現(xiàn),而是具有群體表征。因為生成式人工智能的回答并不僅僅來源于訓(xùn)練數(shù)據(jù)庫,用戶群體實際助力并最終推動了侵權(quán)內(nèi)容的生成,所以判斷具體的個人也會成為不切實際的幻想。由是觀之,準確識別生成式人工智能侵權(quán)的責(zé)任主體恐難以實現(xiàn)。

二、個人主義歸責(zé)路徑的局限性

在法學(xué)的語境中,個人主義方法論備受推崇,特別是在私法中居于基礎(chǔ)地位[7]93。具體到侵權(quán)法領(lǐng)域,無論是侵權(quán)法基礎(chǔ)理論,還是侵權(quán)法整體的規(guī)則架構(gòu),均以個人主義為構(gòu)建的核心。誠如有學(xué)者所言“侵權(quán)法以貫徹自己責(zé)任,實現(xiàn)矯正正義的價值理念為鵠的”[8]1425。同時,侵權(quán)法的全部規(guī)則都以個體行動者雙方關(guān)系為基礎(chǔ)[9]174,展現(xiàn)了原告與被告之間的雙邊性,形成了侵權(quán)法中“加害人-受害人”一對一的基本結(jié)構(gòu)。申言之,個人主義構(gòu)成了解釋傳統(tǒng)侵權(quán)法中過錯、因果關(guān)系等一系列概念、規(guī)則和標準的學(xué)理基礎(chǔ)[10]143。然而,在生成式人工智能侵權(quán)中,加害人具有不確定性和群體性,一對一的主體模式已經(jīng)難以適用。就具體的規(guī)則適用而言,在個人主義視角下,生成式人工智能侵權(quán)納入產(chǎn)品責(zé)任體系似乎具有天然的正當性。另外,創(chuàng)設(shè)新的法律主體,由生成式人工智能自擔(dān)其責(zé)似乎也具有可行性。但是,上述兩種歸責(zé)路徑均缺乏充分的說服力。

(一)生成式人工智能侵權(quán)無法適用產(chǎn)品責(zé)任

《生成式人工智能服務(wù)管理暫行辦法》全面設(shè)定了服務(wù)提供者的義務(wù)標準,意在以服務(wù)提供者為監(jiān)管抓手,規(guī)范生成式人工智能的健康發(fā)展。由服務(wù)提供者承擔(dān)侵權(quán)責(zé)任,實際上是沿襲產(chǎn)品責(zé)任的思路,即由產(chǎn)品制造商、服務(wù)提供商承擔(dān)侵權(quán)責(zé)任。這與學(xué)界主張人工智能侵權(quán)應(yīng)當適用產(chǎn)品責(zé)任相一致(5)針對人工智能侵權(quán),學(xué)者認為產(chǎn)品責(zé)任具有規(guī)則優(yōu)勢,只是需要在責(zé)任主體、產(chǎn)品缺陷等方面進行適度調(diào)整。詳見楊立新:《人工智能產(chǎn)品責(zé)任的功能及規(guī)則調(diào)整》,《數(shù)字法治》,2023年第4期,第27頁;寧金成,李瑞升:《人工智能致?lián)p對傳統(tǒng)〈侵權(quán)責(zé)任法〉的挑戰(zhàn)及立法回應(yīng)》,《電子科技大學(xué)學(xué)報(社會科學(xué)版)》,2021年第1期,第40頁;張安毅:《人工智能侵權(quán):產(chǎn)品責(zé)任制度介入的權(quán)宜性及立法改造》,《深圳大學(xué)學(xué)報(人文社會科學(xué)版)》,2020年第4期,第112頁。。但基于以下三個原因,生成式人工智能侵權(quán)不宜適用產(chǎn)品責(zé)任規(guī)則。

第一,產(chǎn)品責(zé)任本身調(diào)整范圍有限。產(chǎn)品責(zé)任調(diào)整對象是產(chǎn)品,而《生成式人工智能服務(wù)管理暫行辦法》已經(jīng)明確規(guī)定生成式人工智能是一種服務(wù)。具身智能,如自動駕駛汽車或者智能機器人具有一定的物理形態(tài),可以歸入產(chǎn)品范疇,但將服務(wù)解釋為產(chǎn)品卻存在法律體系上的障礙。從比較法觀察,美國《侵權(quán)法重述》第3版已經(jīng)將單純的服務(wù)排除在產(chǎn)品范疇之外(6)美國的《侵權(quán)法重述》(第3版)§19(a)規(guī)定:“服務(wù),即使是商業(yè)性提供的,也不是產(chǎn)品?!?。歐盟于2022年9月通過的《產(chǎn)品責(zé)任指令》(the Revised Product Liability Directive,PLD)明確將無形軟件和數(shù)字制造文件作為產(chǎn)品,但也無意規(guī)范所有類型的軟件,生成式人工智能是否可以納入產(chǎn)品范疇,尚有疑問。

第二,產(chǎn)品責(zé)任關(guān)注產(chǎn)品缺陷,而生成式人工智能侵權(quán)屬于內(nèi)容侵權(quán)。內(nèi)容侵權(quán)與產(chǎn)品缺陷的顯著不同在于,內(nèi)容侵權(quán)源于內(nèi)容生產(chǎn)與交互能力的動態(tài)更新,取決于各參與者的行為。在此,用戶不是完全被動地在接受系統(tǒng)的輸出,而是通過與系統(tǒng)互動,共同影響系統(tǒng)輸出的內(nèi)容。然而,產(chǎn)品缺陷是固有的,自始存在,不依賴用戶或消費者行為。雖然內(nèi)容侵權(quán)的原因可能是生成式人工智能本身存在固有缺陷,但也包括其他原因。比如,生成式人工智能的設(shè)計運行完全符合現(xiàn)有的技術(shù)標準,但在動態(tài)交互中仍有可能生成侵權(quán)內(nèi)容。

第三,生成式人工智能侵權(quán)不符合產(chǎn)品責(zé)任的邏輯。產(chǎn)品責(zé)任的邏輯是:所有有關(guān)產(chǎn)品利益相關(guān)者的風(fēng)險均可被清晰界定和識別,因此總能將責(zé)任追溯至某一主體,即使利益相關(guān)者的風(fēng)險均在可控范圍內(nèi),也可以通過責(zé)任保險化解無人擔(dān)責(zé)的難題。然而,現(xiàn)下的困難在于,生成式人工智能的風(fēng)險不再是可區(qū)分或可預(yù)測,反而是在多主體動態(tài)交互中持續(xù)變化的,以致無法區(qū)分出造成最終損害的責(zé)任主體。也就是說,產(chǎn)品責(zé)任對某一個體行為風(fēng)險的關(guān)注在此注定失敗。

總之,適用產(chǎn)品責(zé)任,將侵權(quán)責(zé)任全部施加于服務(wù)提供者,存在理論證成上的難題。即使擴張解釋產(chǎn)品責(zé)任,將數(shù)字服務(wù)囊括其中,囿于產(chǎn)品責(zé)任嚴格區(qū)分個體行為風(fēng)險,也存在邏輯難以自洽的問題。故此,生成式人工智能侵權(quán)的責(zé)任主體無法納入產(chǎn)品責(zé)任規(guī)制軌道予以確定,將生成式人工智能的侵權(quán)責(zé)任一刀切地拋給服務(wù)提供者,有失公允。

(二)生成式人工智能本身不能作為侵權(quán)責(zé)任主體

人工智能技術(shù)在一定程度上取代了人類決策,并且造成了無人擔(dān)責(zé)的困境,這促使學(xué)者反思是否應(yīng)當賦予人工智能法律主體地位。就這一問題,學(xué)者眾說紛紜,存在很大分歧。肯定說一般認為,人工智能具備有限的責(zé)任能力,承擔(dān)有限的法律責(zé)任[11]30。這種有限性產(chǎn)生了兩個面向的法律效果:第一,有限的法律責(zé)任源于有限的法律主體地位,由于此類法律主體不具有倫理屬性,故其只能承擔(dān)有限的財產(chǎn)性法律責(zé)任[12]228;第二,人工智能僅承擔(dān)特定事由下的限制責(zé)任,損害賠償責(zé)任在總體上要適用“刺破人工智能面紗”原則,由其設(shè)計者、開發(fā)者、制造者或使用者承擔(dān)[13]56。但這樣的便宜行事,面臨了諸多批評意見。

否定說認為,人工智能不具有法律主體地位,故不具有責(zé)任能力,無法獨立承擔(dān)侵權(quán)責(zé)任。學(xué)者否定人工智能人格主要有以下三種論證進路。第一,堅持法律主體與法律客體二分,強調(diào)人工智能不符合法律主體的規(guī)范內(nèi)涵。有學(xué)者指出,人工智能體并不具備享有權(quán)利和履行義務(wù)的意志能力,只能被視為法律客體[14]52。第二,一方面強調(diào)人工智能不具有倫理屬性,另一方面論述人工智能人格的無效性。具言之,不僅人工智能不具有意志、情感和理性等倫理要素,而且人工智能有限人格說的本質(zhì)仍然是要求人類承擔(dān)最后責(zé)任,故其建構(gòu)的人工智能人格是無益的[15]24。第三,持“漸進式否定”觀點,即認為當下人工智能不具有法律人格,但不排除其被賦予法律人格的未來可能性。提出這種觀點的學(xué)者認為,賦予法律人格的考量不應(yīng)只從概念解釋和類比出發(fā),而要意識到,這是一個隨著智能社會治理而不斷變更的現(xiàn)實需求[16]61,只是現(xiàn)下尚無設(shè)立人工智能法律主體地位的迫切性。

值得肯定的是,不論是肯定說還是否定說,人工智能主體資格建構(gòu)的核心是責(zé)任。也就是說,主體性的本質(zhì)是責(zé)任。一般而言,設(shè)定一個新的法律主體,法律責(zé)任問題便迎刃而解[17]79。誠然,如果生成式人工智能具有法律主體地位,那么針對人工智能侵權(quán)原因無法追溯,或者可追溯但無法分配責(zé)任的情形,通過將生成式人工智能列為責(zé)任主體,可以緩和此種責(zé)任困境。更進一步地來講,隱藏在主體構(gòu)建背后的其實是深嵌入侵權(quán)法中的個人主義思維模式。即總要有一個法律上的“人”成為加害人,為損害擔(dān)責(zé),由此滿足侵權(quán)法損害填補、預(yù)防威懾的矯正正義要求。

但是,假使生成式人工智能可以作為侵權(quán)責(zé)任主體,也無法實現(xiàn)上述侵權(quán)法功能。就損害填補功能而言,只要受害者的損失被填補,那么補償功能業(yè)已實現(xiàn)。換言之,生成式人工智能能否作為侵權(quán)責(zé)任主體,并非該功能關(guān)注的重點。即使生成式人工智能本身無法負責(zé),刺破面紗后的設(shè)計者、制造者仍能負擔(dān)賠償責(zé)任,從而實現(xiàn)填補功能。就預(yù)防威懾功能而言,賦予生成式人工智能侵權(quán)責(zé)任主體地位無益于實現(xiàn)上述功能。第一,生成式人工智能侵權(quán)涉及多個利益主體,包括但不限于模型設(shè)計者、數(shù)據(jù)所有者、算力供應(yīng)商和用戶等,如果僅由生成式人工智能“自己”擔(dān)責(zé),免除其他利益相關(guān)者責(zé)任,并不能實現(xiàn)特定的預(yù)防功能;第二,如果想要更好地實現(xiàn)威懾功能,就應(yīng)當由付出最小成本就可避免損害發(fā)生的主體承擔(dān)責(zé)任[18]114。雖然生成式人工智能可以構(gòu)建自己的財產(chǎn)體系,但不確定是否符合上述標準,特別是在財產(chǎn)池由多個利益相關(guān)者貢獻時,其實并沒有明確負責(zé)主體,實質(zhì)上是由多個主體共同擔(dān)責(zé)。

綜上,生成式人工智能作為侵權(quán)責(zé)任主體,形式上符合侵權(quán)法所貫徹的個人主義理念,但卻徒有其表。它無法真正實現(xiàn)矯正正義的價值內(nèi)涵,與侵權(quán)法的內(nèi)在價值體系相背離。事實上,基于責(zé)任考慮而賦予的主體資格并不能實現(xiàn)責(zé)任規(guī)制的目的。與此同時,現(xiàn)有法律并沒有顯露賦予生成式人工智能法律主體資格的端倪,故此更穩(wěn)妥的結(jié)論是:生成式人工智能本身不能作為侵權(quán)責(zé)任主體。

(三)個人主義歸責(zé)適用空間的有限性

生成式人工智能侵權(quán)對產(chǎn)品責(zé)任規(guī)則和個人主義范式下的主體論構(gòu)成挑戰(zhàn)。其根本原因是個人主義視角下的侵權(quán)法無法回應(yīng)此種新型侵害。具言之,傳統(tǒng)侵權(quán)法關(guān)注個體之間的調(diào)整方式,畢竟傳統(tǒng)侵權(quán)行為主要體現(xiàn)為個體對個體的損害。相對簡單的雙方結(jié)構(gòu),提供了個人主義規(guī)則得以運行的完美環(huán)境。然而,這無法為新型侵害比如生成式人工智能侵權(quán)提供理論引導(dǎo)。其實,針對人工智能侵權(quán)問題,除了適用產(chǎn)品責(zé)任和賦予其法律主體地位外,有學(xué)者認為,應(yīng)當設(shè)置特殊的人工智能侵權(quán)責(zé)任,明確侵權(quán)責(zé)任承擔(dān)的法定主體為設(shè)計者、管理者和第三人[19]88。也有學(xué)者建議,針對人工智能侵權(quán)問題,應(yīng)當適用嚴格責(zé)任[20]146。當然,還有學(xué)者明確指出,生成式人工智能應(yīng)當適用過錯責(zé)任[21]27。實際上,無論采用何種路徑應(yīng)對生成式人工智能侵權(quán),只要討論處于個人主義的語境之下,其實用性就大打折扣。這是因為,第一,現(xiàn)實困境恰恰是無法確定某一具體的侵權(quán)個體,因此無法實現(xiàn)設(shè)置法定侵權(quán)責(zé)任主體的設(shè)想;第二,傳統(tǒng)侵權(quán)法中的歸責(zé)原則,比如過錯責(zé)任,也具有明顯的個人主義傾向,以判斷“某人是否具有過錯”為標準。即使適用嚴格責(zé)任,也以識別出侵權(quán)行為人為前提。由此,堅持個人主義,無法為識別生成式人工智能侵權(quán)的責(zé)任主體提供價值指引。

以上分析表明,個人主義的進路遭受沖擊。事實上,傳統(tǒng)侵權(quán)責(zé)任方案仍有適用空間,只是較為狹窄??陀^上,為了緩解產(chǎn)品責(zé)任的嚴苛性,秉持鼓勵技術(shù)創(chuàng)新發(fā)展的價值取向,過錯責(zé)任可以成為規(guī)制生成式人工智能侵權(quán)的重要原則。只要能夠?qū)p害追溯至具有主觀過錯的行為人,行為人就應(yīng)當依法承擔(dān)相應(yīng)的侵權(quán)責(zé)任。換言之,個人主義視角下的侵權(quán)責(zé)任機制發(fā)揮作用的前提是侵權(quán)事實確定,即可以通過現(xiàn)有的技術(shù)將損害后果追溯至某一生成式人工智能的參與者。

以算法為例。盡管算法技術(shù)因采取深度學(xué)習(xí)、機器學(xué)習(xí)等技術(shù)而變得越來越復(fù)雜,但可解釋人工智能(explainable artificial intelligence,XAI)也在不斷快速發(fā)展,從而使用戶得以解釋人工智能行為,尤其以醫(yī)療保健領(lǐng)域的XAI發(fā)展的最為成功[22]39?;谒惴山忉尩倪壿?追溯算法設(shè)計者的算法責(zé)任具有現(xiàn)實可能性。也就是說,若能查明算法設(shè)計者搭建的算法存在歧視、偏見或錯誤,從而導(dǎo)致最終的個人信息泄露或生成歧視內(nèi)容,則算法設(shè)計者便為侵權(quán)責(zé)任主體。除此之外,如果侵權(quán)內(nèi)容由人機協(xié)作共同生成,又能夠識別具體錯誤的技術(shù)參與者和用戶,則錯誤的技術(shù)參與者和用戶均為侵權(quán)責(zé)任主體,依據(jù)《中華人民共和國民法典》第一千一百七十二條規(guī)定,雙方構(gòu)成無意思聯(lián)絡(luò)數(shù)人侵權(quán),依法承擔(dān)按份責(zé)任(7)《中華人民共和國民法典》第一千一百六十八條所規(guī)定的狹義共同侵權(quán)行為,主流觀點認為,應(yīng)以數(shù)個侵權(quán)人主觀上共同的故意或者共同的過失為主觀要件。依此觀點,用戶與錯誤的技術(shù)參與者一般并無主觀上的共同故意,也難以證成存在共同過失。由于用戶與技術(shù)參與者往往不存在主觀上的意思聯(lián)絡(luò),因此解釋為《中華人民共和國民法典》第一千一百六十八條所規(guī)定的共同加害行為侵權(quán)存在較大難度。故上述情形并非共同侵權(quán),而屬于分別侵權(quán)。參見張新寶:《中國民法典釋評:侵權(quán)責(zé)任編》,中國人民大學(xué)出版社,2020年,第24頁。。

但仍需指出,隨著生成式人工智能技術(shù)的發(fā)展,解釋生成式人工智能的行為規(guī)律和成因會變得越來越困難。生成式人工智能作為一項新技術(shù),依靠強化反饋的自我學(xué)習(xí)模式,可以自行建立事物之間的聯(lián)系,自行生成不同的答案。有學(xué)者指出,生成式人工智能已經(jīng)具有一定的實踐理性和價值判斷能力[11]26。在此基礎(chǔ)上,疊加人機交互的工作機制和越發(fā)復(fù)雜的算法模型,會使生成式人工智能輸出的內(nèi)容更加難以解釋。故而,恐怕侵權(quán)事實確定的可能性會越來越低。如果無法依靠現(xiàn)有技術(shù)追溯損害事實的成因,那么個人主義規(guī)則的適用空間就會越來越小。

三、集體主義視角下的責(zé)任主體識別進路

將“某一損害追溯至某一個體”的個人主義視角存在局限性,應(yīng)當予以修正。而將“某一損害追溯至某一集體”的集體主義視角更能化解責(zé)任主體不確定性的難題。通過形成集體性責(zé)任主體,能夠有效回應(yīng)數(shù)字化和人工智能系統(tǒng)對責(zé)任規(guī)則的沖擊[23]81。從實質(zhì)意義上來看,集體主義的思維符合侵權(quán)法分散損失和擴大公共責(zé)任的趨勢。侵權(quán)法的歷史發(fā)展表明,侵權(quán)法的矯正正義已經(jīng)開始吸收分配正義,愈發(fā)關(guān)注結(jié)果分配與公平[24]58。在某種程度上,集體主義視角詮釋了分配正義的價值內(nèi)涵。事實上,現(xiàn)代社會是風(fēng)險社會[25]19,更多的個人風(fēng)險已經(jīng)轉(zhuǎn)化為社會風(fēng)險[26]111。受此影響,侵權(quán)損害的個體特征轉(zhuǎn)向社會特征。為了實現(xiàn)風(fēng)險治理和實質(zhì)正義,采用集體主義的思維方式是必要的。將產(chǎn)生風(fēng)險源的多主體視為加害人,賦予加害人集體屬性,能夠更好地實現(xiàn)侵權(quán)法兼顧社會正義的混合正義功能[27]106。從總的來說,將生成式人工智能損害結(jié)果歸屬于分散的、不確定的加害人整體,調(diào)適現(xiàn)有的侵權(quán)責(zé)任制度框架,有利于保護生成式人工智能侵權(quán)受害人,有效化解矛盾,并實現(xiàn)風(fēng)險的合理分配。

(一)構(gòu)建機器/人-機的聯(lián)合體

生成式人工智能侵權(quán)具有整體性侵害的特征。由于各參與者在同一目標(輸出內(nèi)容)的激勵下分工合作、緊密配合,因此參與者具有類似于團體的整體結(jié)構(gòu)。這種結(jié)構(gòu)既不同于基于成員合意形成的法人,又不同于依據(jù)加害人的意思聯(lián)絡(luò)或共同危險而形成的共同侵權(quán),而是一種擬制團體。有學(xué)者指出,為了建立簡明的救濟方式,無論加害人還是受害人,都可被擬制為集合團體[28]112。也就是說,生成式人工智能這一機器本身可作為聯(lián)合體,人機交互也可作為人-機聯(lián)合體。作為擬制團體,聯(lián)合體拓展了傳統(tǒng)侵權(quán)法中一對一的加害人-受害人模型,使可能實施侵權(quán)行為的加害人形成一個不可分離的整體,從而獲得侵權(quán)法的整體性評價。只有這樣的認識,才能建立整體行動與損害之間的因果關(guān)系。由此,作為聯(lián)合體所承擔(dān)的責(zé)任也只有一個完整責(zé)任,而不是若干分開的責(zé)任。

尚需要強調(diào)的是,本文中的聯(lián)合體,即機器聯(lián)合體和人-機聯(lián)合體,均不是法律主體,也無須具備法律行為能力或者責(zé)任能力。因此,聯(lián)合體并非真正承擔(dān)侵權(quán)責(zé)任的主體。按照侵權(quán)法的歸責(zé)邏輯,只有侵權(quán)行為歸屬于某一行為人,責(zé)任才可施加于該行為人。換言之,確定侵權(quán)責(zé)任主體其實需要經(jīng)過兩個步驟,即行為歸屬與責(zé)任歸屬。面對生成式人工智能侵權(quán)問題,首要的困難恰恰在于無法確認行為歸屬。由于確認個人侵權(quán)因果關(guān)系的任務(wù)幾乎不可能完成,直接將責(zé)任分配于個體行為者并不可行,故而才需要建立聯(lián)合體以填補此種責(zé)任鴻溝。聯(lián)合體可以通過簡化因果關(guān)系實現(xiàn)行為歸屬,進而將侵權(quán)責(zé)任施加于生成式人工智能的各參與者,從而搭建行為歸屬與責(zé)任歸屬的橋梁。

從法律實踐來看,構(gòu)建機器/人-機聯(lián)合體具有可行性。面對加害人不確定的侵權(quán)情形,既有的司法實踐已經(jīng)顯示出集體主義智慧。如在“龐某某與中國東方航空股份有限公司、北京趣拿信息技術(shù)有限公司個人信息泄露糾紛案”中(8)參見北京市第一中級人民法院(2017)京01民終509號民事判決書。案件詳情為:龐某某委托魯某通過北京趣拿信息技術(shù)有限公司在中國東方航空股份有限公司訂購一張機票,之后龐某某收到來源不明號碼發(fā)來的短信,稱由于機械故障,其所預(yù)定的航班已取消。魯某撥打中國東方航空股份有限公司客服電話進行核實,客服人員確認該次航班正常,并提示龐某某收到的短信應(yīng)屬詐騙短信。龐某某以個人隱私遭到泄露為由,將中國東方航空股份有限公司與北京趣拿信息技術(shù)有限公司訴至法院,要求二者承擔(dān)連帶責(zé)任。,在無法區(qū)分究竟是中國東方航空股份有限公司還是北京趣拿信息技術(shù)有限公司侵害龐某某個人信息權(quán)益時,法院將兩者整合為一體對待,認定雙方均構(gòu)成侵權(quán),判決雙方承擔(dān)不利的法律后果。在“薛某某訴張某等機動車交通事故責(zé)任糾紛”中(9)參見江蘇省如皋市人民法院(2015)皋開民初字第0028號民事判決書。案件詳情為:張某等三人分別駕駛?cè)v貨車運送黏土,貨車經(jīng)過的道路上有部分黏土撒落,但無法查明究竟是哪個人駕駛的貨車發(fā)生遺漏。薜某駕駛電動自行車行駛時被道路上的黏土滑倒并受傷。張某故訴至法院,要求各被告賠償人身傷害造成的損失。,法院同樣面臨辨識真正侵權(quán)行為人的困境。由于受害人根本無從證明遺撒黏土的貨車,法院將各被告人(運送黏土的貨車司機)視為整體,推定遺撒黏土行為系由整體做出,從而認定各被告人均應(yīng)當承擔(dān)相應(yīng)的侵權(quán)責(zé)任。

從法律理論來看,構(gòu)建機器/人-機聯(lián)合體具有正當性。事實上,生成式人工智能侵權(quán)與高空拋物具有相似性。第一,上述兩種侵權(quán)行為的加害人均無法確定;第二,加害人范圍有限,是一個由可能加害人構(gòu)成的整體。相較于受害人,生成式人工智能各參與者同建筑物使用人一樣,更具有預(yù)防控制風(fēng)險的能力。按照相似案件,相同處理的法理,前者可類推適用后者。在高空拋物侵權(quán)中,依據(jù)《中華人民共和國民法典》第一千一百五十四條規(guī)定,侵權(quán)行為可以推定至可能的加害人整體。同理,生成式人工智能的侵權(quán)行為也可以推定至聯(lián)合體。

從法律效果來看,構(gòu)建機器/人-機聯(lián)合體具有妥當性。如上所述,個人主義規(guī)則幾乎無適用空間。堅持求解于每個侵權(quán)責(zé)任的構(gòu)成,不僅于事實無益,反而會加速侵權(quán)法功能的失靈。然而,采用集體主義視角,符合侵權(quán)法救濟受害人、分散損失的價值理念。詳言之,在“無辜的受害人”與“無辜的被告人”之間進行價值衡量時,侵權(quán)法毫無疑問側(cè)重保護受害人利益。尤其是,相比于算法設(shè)計者、數(shù)據(jù)供應(yīng)者和算力供應(yīng)商等,受害人對生成式人工智能的運行邏輯、技術(shù)原理、數(shù)據(jù)存儲與調(diào)用等專業(yè)知識,所知甚少,在客觀上處于弱勢地位。依據(jù)現(xiàn)有的個人主義規(guī)則,受害人無法獲得有效救濟。但是,如果由聯(lián)合體承擔(dān)責(zé)任,則能避免由受害人獨自承擔(dān)不利后果。此外,通過分散損失,還可以促使聯(lián)合體成員減少不合理行為,督促行為人采取積極措施,避免發(fā)生二次損害,實現(xiàn)侵權(quán)法預(yù)防功能。

實際上,構(gòu)建聯(lián)合體是確定責(zé)任歸屬的一個中間路徑,也是為了解決侵權(quán)事實不確定性下責(zé)任主體缺失的一種嘗試。只有先將行為推定歸屬于聯(lián)合體,才有可能解決責(zé)任歸屬問題。無獨有偶。在面對責(zé)任難題時,歐洲專家組探討形成了一個“商業(yè)與技術(shù)單位”有關(guān)的所有行為者的責(zé)任框架[29],即將生產(chǎn)鏈上的所有主體或者因算法而從中獲取商業(yè)利益的人視為具有一體性,從而要求他們承擔(dān)集合責(zé)任。其隱藏的潛在邏輯為,首先將侵權(quán)行為歸因于所有“商業(yè)與技術(shù)單位”的行為者,再將責(zé)任歸屬于全體行為者。此外,歐盟《人工智能法案(建議)》明確提及要探索人工智能價值鏈責(zé)任的歸責(zé)方法。盡管該法并未明確判斷“人工智能價值鏈”的標準,但是特別強調(diào)價值鏈上的所有主體負有保障人工智能安全運行的義務(wù),實質(zhì)是將侵權(quán)行為歸因于價值鏈上的各節(jié)點組織,并在不同環(huán)節(jié)的控制主體之間實現(xiàn)責(zé)任分配[30]52。

(二)劃分侵權(quán)行為的類型

生成式人工智能侵權(quán)的責(zé)任主體具有多元性,應(yīng)以類型化思維深入剖析。以生成式人工智能的運行邏輯為標準,輔之考察全流程生命周期,可將生成式人工智能侵權(quán)行為區(qū)分為以下兩個場景:運行階段和后期維護管理階段。在兩個場景下又可進一步細分為五大類型,見表1。

表1 生成式人工智能侵權(quán)行為的類型

運行階段的生成式人工智能侵權(quán)行為最為常見,但最為復(fù)雜。比如,某地網(wǎng)絡(luò)上出現(xiàn)了一條關(guān)于限行的新聞稿,但后被證實為ChatGPT所作,該虛假新聞因被大量網(wǎng)絡(luò)用戶轉(zhuǎn)載傳播,造成了極其惡劣的影響[31]34。實際上,生成式人工智能與用戶互動共同生成的虛假信息并非個例,期待生成式人工智能總能得出所謂的正確回答并不現(xiàn)實。鑒于生成式人工智能具有明顯的人機交互特征,根據(jù)用戶是否促使或助推生成侵權(quán)內(nèi)容,可進一步細分為以下三種類型的侵權(quán)行為。

第一種類型是用戶對最終侵權(quán)內(nèi)容生成的原因力為0,即用戶輸入了合法內(nèi)容,而生成式人工智能卻輸出了侵權(quán)內(nèi)容。根據(jù)侵權(quán)行為發(fā)生緣由,主要劃分為三種情形。其一,生成式人工智能非法處理、泄漏個人信息、隱私。最常見的情況是,用戶輸入了個人信息或私密信息,而生成式人工智能卻將這種信息泄露給了第三人,此時構(gòu)成個人信息侵權(quán)。比如,OpenAI公司曾因系統(tǒng)漏洞,部分用戶可以看見其他用戶的姓名、對話內(nèi)容等個人信息。其二,模型侵權(quán)。模型侵權(quán)具有大規(guī)模性和輕微性的侵權(quán)特點,對于個體的侵害并不顯著。比如,由于算法歧視、人工標注錯誤形成的偏見強化、訓(xùn)練數(shù)據(jù)集錯誤等,導(dǎo)致模型輸出虛假有害信息。其三,系統(tǒng)風(fēng)險侵權(quán)。系統(tǒng)風(fēng)險是指對模型運行具有控制力的人群,限于技術(shù)水平而無法采取有效措施消除的漏洞或者風(fēng)險。任何技術(shù)發(fā)展都伴隨著某種固有風(fēng)險,新興技術(shù)尤其如此。如果生成式人工智能因系統(tǒng)風(fēng)險侵權(quán),那么向任何無過錯的主體施加責(zé)任都不具有正當性。在此種情形下,侵權(quán)法難以承擔(dān)確定侵權(quán)責(zé)任主體的任務(wù),應(yīng)當尋求其他外部制度以達到補救效果,如通過政府主導(dǎo)下的基金制度予以救濟。

第二種類型是用戶對最終侵權(quán)內(nèi)容生成的原因力為100%。這意味著,服務(wù)提供者、模型設(shè)計者等技術(shù)參與者的行為并無過錯。最典型的是,生成式人工智能在用戶誘導(dǎo)下輸出了侵權(quán)內(nèi)容。比如,一個新的“越獄”技巧,支持用戶創(chuàng)建ChatGPT的另一個自我(名為DAN)。DAN可以通過規(guī)避ChatGPT言論限制,生成暴力或者歧視內(nèi)容。另外,能夠達到同等效果的是使用“提示注入”(prompt injection,PI)。用戶通過PI可以覆蓋模型原有指令和內(nèi)容審核機制,促使模型生出不法有害內(nèi)容[32]。

第三種類型是用戶對最終侵權(quán)內(nèi)容生成的原因力介于0與100%之間,即用戶與生成式人工智能共同協(xié)作生成了侵權(quán)內(nèi)容。人機交互中的“人”兼具個體與群體表征。根據(jù)用戶是否可識別,可劃分為兩種情形。其一,用戶個體參與侵權(quán)行為。比如,計算新聞、混合寫作等文本作品侵犯了他人的人格權(quán)益。其二,用戶群體參與侵權(quán)行為。以ChatGPT為例。關(guān)于同一話題討論的次數(shù)越多,ChatGPT越會不斷強化學(xué)習(xí)效果,也就越有可能形成后天算法偏見。若ChatGPT生成的侵權(quán)內(nèi)容源自后天算法偏見,參與該話題討論的用戶便均為可能的侵權(quán)責(zé)任主體,所涉用戶主體數(shù)量巨大,且不可追溯。

后期維護管理階段的生成式人工智能侵權(quán)行為主要有兩種類型。第一,服務(wù)提供者違反“避風(fēng)港規(guī)則”。一方面,這里的服務(wù)提供者不同于《中華人民共和國民法典》第一千一百九十四條規(guī)定的網(wǎng)絡(luò)服務(wù)提供者,而應(yīng)當視為一種新型網(wǎng)絡(luò)服務(wù)提供者;另一方面,由于生成式人工智能侵權(quán)與傳統(tǒng)網(wǎng)絡(luò)侵權(quán)具有類似性,因此服務(wù)提供者亦應(yīng)當遵守“避風(fēng)港規(guī)則”,負有避免侵權(quán)內(nèi)容再次生成的義務(wù)[33]80。例如,在收到侵權(quán)通知后,若服務(wù)提供者未能采取必要措施,如刪除、屏蔽、斷開鏈接等,則應(yīng)當依法承擔(dān)相應(yīng)的侵權(quán)責(zé)任。第二,服務(wù)提供者違反“安全保障義務(wù)”。以ChatGPT為例。它每日收集數(shù)以億計的個人信息,一旦個人信息被大量泄露,將造成難以估量的影響。服務(wù)提供者有必要采取措施保障個人信息的安全?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第十一條、第十三條已經(jīng)明確規(guī)定,服務(wù)提供者對用戶的輸入信息和使用記錄應(yīng)當依法履行保護義務(wù),提供安全服務(wù)。也就是說,若服務(wù)提供者未采取合理措施管理用戶的個人信息、隱私,導(dǎo)致發(fā)生黑客攻擊等信息泄露事件,則服務(wù)提供者應(yīng)當承擔(dān)相應(yīng)的侵權(quán)責(zé)任。

(三)革新責(zé)任分配的標準

通過類推適用高空拋物規(guī)則,生成式人工智能的侵權(quán)行為應(yīng)當歸屬于聯(lián)合體。依據(jù)《中華人民共和國民法典》第一千二百五十四條規(guī)定,高空拋物的侵權(quán)責(zé)任分配方式限定為補償責(zé)任。那么,聯(lián)合體成員內(nèi)部的責(zé)任分擔(dān)是否也應(yīng)當采用補償責(zé)任呢?基于以下兩個理由,補償責(zé)任并不適宜。第一,補償責(zé)任模式并非沒有爭議。補償責(zé)任本身界限就不明晰,在司法實踐中存在泛化和濫用的可能。一方面,法院擴張解釋補償責(zé)任,加重了被告人實際負擔(dān)[34]85;另一方面,過分強化適用補償責(zé)任,引發(fā)了嚴重的和稀泥現(xiàn)象,違背了法律公平正義的內(nèi)涵,在客觀上導(dǎo)致法院判決難以執(zhí)行[35]292。第二,從公共政策體現(xiàn)的價值取向考慮?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》明確鼓勵技術(shù)創(chuàng)新,包容審慎的發(fā)展基調(diào),法律也應(yīng)當秉持技術(shù)先行的理念。而補償責(zé)任作為一種模糊的限制責(zé)任,無法為技術(shù)創(chuàng)新設(shè)置安全屏障。若其發(fā)生不當擴張,難免不會出現(xiàn)抑制技術(shù)創(chuàng)新的寒蟬效應(yīng)。事實上,在補償責(zé)任之外尚有其他可選擇方案。

聯(lián)合體成員之間的責(zé)任分配首先要尊重各參與者之間的技術(shù)關(guān)系。生成式人工智能參與者的行為具有非連續(xù)性、邊界不明顯性,這意味著各參與者的行為處于不斷被調(diào)用、轉(zhuǎn)換和影響之中。換言之,各參與者之間行為高度互動的運轉(zhuǎn)模式是侵權(quán)行為的發(fā)生原因。受這種互動關(guān)系的啟發(fā),不妨嘗試建立責(zé)任與各參與者之間互動影響力的關(guān)聯(lián)。在此,侵權(quán)法可以借鑒網(wǎng)絡(luò)理論,構(gòu)建分布式責(zé)任的新框架。網(wǎng)絡(luò)理論在社會學(xué)、計算學(xué)等領(lǐng)域具有廣泛的應(yīng)用,在侵權(quán)法責(zé)任分配領(lǐng)域,也可以作為一個有價值的工具。網(wǎng)絡(luò)理論認為,網(wǎng)絡(luò)由一組參與者或節(jié)點以及一組聯(lián)結(jié)它們的特定紐帶組成,網(wǎng)絡(luò)中的紐帶模式產(chǎn)生了特定的結(jié)構(gòu),節(jié)點在該結(jié)構(gòu)中占據(jù)特殊位置[36]1169。一旦發(fā)生損害,通過分析特定人工智能網(wǎng)絡(luò)中的上述特征,就能更好地了解相關(guān)參與者(即節(jié)點)、它們之間連接的性質(zhì)和強度(即邊),以及每個參與者在系統(tǒng)中和作為整個網(wǎng)絡(luò)一部分的重要性和意義[37]1147。如果能夠為各個節(jié)點找到準確的權(quán)重和系數(shù),就可以實現(xiàn)構(gòu)建分布式責(zé)任的目的。但美中不足的是,當前并不存在計算方法的統(tǒng)一標準或法則,分布式責(zé)任雖屬良策,卻缺少技術(shù)和法律實踐的豐富經(jīng)驗支持。

進而,一個可行的操作方法是將責(zé)任與經(jīng)濟利益綁定,由各參與者承擔(dān)比例責(zé)任(10)此處的“比例責(zé)任”系指責(zé)任范圍的比例責(zé)任,即在聯(lián)合體與損害結(jié)果的責(zé)任成立后,確定聯(lián)合體內(nèi)部成員具體的責(zé)任范圍。參見馮德淦:《比例責(zé)任在侵權(quán)法上的適用之檢討》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》,2020年第2期,第161頁。,以達到侵權(quán)法填補損害與預(yù)防風(fēng)險的目的。從比較法來看,美國在乙烯雌酚(diethylstilbestrol,DES)系列案中運用并發(fā)展的市場份額責(zé)任就是典型的比例責(zé)任(11)在辛德爾訴艾伯特實驗室案中,加利福尼亞州最高人民法院最早適用市場份額責(zé)任理論。在該案中,原告辛德爾因母親服用DES而罹患癌癥。但原告起訴時已經(jīng)無法辨明到底是哪些廠家的DES導(dǎo)致了她的損害。原告于是以5家當時占有市場份額最大的企業(yè)為被告提起訴訟。法院認為,只要被告的產(chǎn)品在相關(guān)市場中占有足夠的份額,被告就應(yīng)按照其產(chǎn)品占有市場的份額對原告承擔(dān)賠償責(zé)任。參見魯曉明:《論美國法中市場份額責(zé)任理論及其在我國的應(yīng)用》,《法商研究》,2009年第3期,第152—160頁。。市場份額責(zé)任是指,當無法確認具體的缺陷產(chǎn)品生產(chǎn)商時,由生產(chǎn)缺陷產(chǎn)品的所有企業(yè)按照市場占有份額對受害人承擔(dān)賠償責(zé)任。就我國而言,侵權(quán)法并不排斥采用比例責(zé)任。比如,《中華人民共和國民法典》第一千二百三十一條規(guī)定就蘊含著采用市場份額責(zé)任的立法精神(12)《中華人民共和國民法典》第一千二百三十一條規(guī)定:“兩個以上侵權(quán)人污染環(huán)境、破壞生態(tài)的,承擔(dān)責(zé)任的大小,根據(jù)污染物的種類、濃度、排放量,破壞生態(tài)的方式、范圍、程度,以及行為對損害后果所起的作用等因素確定?!?。在客觀上,比例責(zé)任有助于實現(xiàn)侵權(quán)法功能,學(xué)者對此也予以積極肯定。有學(xué)者主張在共同危險、分別侵權(quán)和高空拋物侵權(quán)中引入比例責(zé)任(13)有學(xué)者主張在共同危險責(zé)任與無意思聯(lián)絡(luò)分別侵權(quán)中,適當引入比例責(zé)任。參見楊垠紅:《多因不明侵權(quán)中比例責(zé)任之適用》 ,《政法論壇》,2013年第4期,第155頁;劉媛媛:《比例責(zé)任判定因素之考量——動態(tài)體系論的研究路徑》,《法治研究》,2019年第6期,第66頁。有學(xué)者主張在高空拋物責(zé)任中引入比例責(zé)任。參見吳國喆:《論高空拋物致害的比例責(zé)任承擔(dān)》,《西北師大學(xué)報(社會科學(xué)版)》,2016年第6期,第139—144頁。。還有學(xué)者進一步指出,市場份額責(zé)任具有拓展適用的可能性,應(yīng)當確立為侵權(quán)責(zé)任分擔(dān)的一般規(guī)則。此一般規(guī)則表現(xiàn)為:按照致害可能性進行責(zé)任分配的比例份額責(zé)任[38]296。

不論是市場份額責(zé)任,還是比例份額責(zé)任,將其直接應(yīng)用于生成式人工智能侵權(quán)案件中,都是不合適的。第一,對于復(fù)雜的人-機聯(lián)合體,用戶作為參與者之一,也應(yīng)當承擔(dān)相應(yīng)的責(zé)任,但市場份額責(zé)任屬于企業(yè)責(zé)任理論,對自然人并不適用。生成式人工智能的眾多參與者橫跨多個行業(yè),如何計算不同行業(yè)的市場份額并予以同等處理也面臨障礙。第二,以致害可能性作為分配責(zé)任的標準,從統(tǒng)計學(xué)意義上,要求計算各參與者造成危險總量的比例。然而,判定機器/人-機聯(lián)合體內(nèi)部的危險值,既無相關(guān)的技術(shù)標準,也無可行的實踐操作。故此,將各參與者從中所獲經(jīng)濟利益作為責(zé)任分配的標準應(yīng)是一種較為穩(wěn)妥的現(xiàn)實選擇。一方面,最初DES案件中發(fā)展出的市場份額責(zé)任,其實質(zhì)就是將責(zé)任與經(jīng)濟收益相聯(lián)系。在這個意義上,市場份額理論之所以能夠?qū)崿F(xiàn)實質(zhì)正義,是因為企業(yè)所占市場份額越大,所獲利潤越多,其應(yīng)承擔(dān)的賠償數(shù)額也就越大[39]391。另一方面,秉持經(jīng)濟利益——責(zé)任承擔(dān)的責(zé)任規(guī)制邏輯,由各參與者承擔(dān)責(zé)任,不僅有利于確保單一主體責(zé)任不至于過重,還能體現(xiàn)責(zé)任分配規(guī)則與科技發(fā)展的同步協(xié)調(diào)[40]126。

具體而言,在機器聯(lián)合體中,除用戶外的生成式人工智能各參與者,應(yīng)當以開發(fā)、設(shè)計、部署和應(yīng)用生成式人工智能所獲經(jīng)濟利益的比例,作為責(zé)任分配的標準。在人-機聯(lián)合體中,用戶作為使用者并無營利,因此可以根據(jù)用戶行為的過錯程度、原因力等因素綜合考量,由法院酌定用戶承擔(dān)一定比例的責(zé)任份額。展開來講,若用戶對最終侵權(quán)內(nèi)容生成的原因力為0,除用戶外的生成式人工智能各參與者作為聯(lián)合體成員,均是侵權(quán)責(zé)任主體,其責(zé)任份額由各參與者從中所獲經(jīng)濟利益的比例確定。若用戶對最終侵權(quán)內(nèi)容生成的原因力為0—100%,生成式人工智能全部參與者均為侵權(quán)責(zé)任主體,用戶的責(zé)任份額應(yīng)當由法院酌定,其他參與者的責(zé)任份額與所獲經(jīng)濟利益的比重保持一致。若用戶對最終侵權(quán)內(nèi)容生成的原因力為100%,或是侵權(quán)行為發(fā)生在后期維護管理階段,因為已經(jīng)有確定的侵權(quán)責(zé)任主體,所以無須適用上述責(zé)任分配標準。

最后,有關(guān)生成式人工智能侵權(quán)的責(zé)任主體和責(zé)任分配的匯總見表2。

表2 生成式人工智能侵權(quán)責(zé)任主體和責(zé)任分配

四、結(jié)語

隨著生成式人工智能深度嵌入人類生活,潛在的侵權(quán)糾紛將會大規(guī)模爆發(fā)。如何確定生成式人工智能侵權(quán)中的責(zé)任主體及責(zé)任分配,是關(guān)乎責(zé)任落實的重大問題。面對生成式人工智能侵權(quán)的責(zé)任主體不確定難題,本文首先反思侵權(quán)法現(xiàn)有規(guī)則。無論是適用產(chǎn)品責(zé)任還是賦予生成式人工智能法律主體地位,都并非合適的解決辦法。根本原因在于,上述兩種方案均建立在“將某一損害追溯至某一主體”的個人主義邏輯基礎(chǔ)之上。事實上,生成式人工智能的侵權(quán)風(fēng)險交織,難以識別侵權(quán)風(fēng)險來源,也難以識別具體的侵權(quán)責(zé)任主體。因此,個人主義視角已顯式微。正視生成式人工智能侵權(quán)行為具有整體性侵害特征。靈活運用集體主義視角不僅體現(xiàn)著救濟受害人、衡平加害人與受害人權(quán)益的精神,而且承載著侵權(quán)法捍衛(wèi)正義的價值理念。針對生成式人工智能侵權(quán),侵權(quán)法必須變通規(guī)則以滿足實現(xiàn)社會公正的訴求。以集體主義視角為切入點,構(gòu)建機器/人-機聯(lián)合體可免于陷入論證個人因果關(guān)系的困境。同時,為了準確識別生成式人工智能侵權(quán)的責(zé)任主體,類型化思維必不可少。就聯(lián)合體成員內(nèi)部的責(zé)任分配這一問題,分布式責(zé)任的實現(xiàn)有賴于成熟的理論體系和豐富的司法實踐案例。顯然,現(xiàn)有的法律實踐離此目標還有一定距離。退而求其次。借鑒市場份額責(zé)任,建立責(zé)任與經(jīng)濟利益之間的關(guān)聯(lián),既能夠解決生成式人工智能不確定性侵權(quán)難題,也能實現(xiàn)實質(zhì)正義,不失為一種可行方案。只有創(chuàng)新責(zé)任分擔(dān)方式,以開放的姿態(tài)確立責(zé)任主體識別機制,才能跟進時代發(fā)展,為侵權(quán)法注入新的活力,促進生成式人工智能的健康發(fā)展。

猜你喜歡
個人主義聯(lián)合體參與者
休閑跑步參與者心理和行為相關(guān)性的研究進展
對于聯(lián)合體EPC總承包模式下成本控制的得與失
淺析打破剛性兌付對債市參與者的影響
魯迅的個人主義思想初探
——以《文化偏至論》為例
創(chuàng)新思維——打造智庫聯(lián)合體
海外僑領(lǐng)愿做“金絲帶”“參與者”和“連心橋”
歸脾湯加減聯(lián)合體針治療心脾兩虛型失眠48例
常數(shù)輪理性秘密分享機制
工程聯(lián)合體小議
個人主義與集體主義流變的歷程