主持人:張凌寒*
筆談人:郭 禾**
馮曉青***
張 平****
熊 琦*****
張吉豫******
1
張凌寒:各位專家好,北京互聯(lián)網(wǎng)法院針對AI生成內容的版權保護作出一項富有創(chuàng)新意義的判決,確認了生成式AI作品的可版權性。該判決在全球范圍內引發(fā)廣泛關注。同期,美國版權局再次拒絕為AI生成內容賦予版權,至今已連續(xù)四次駁回AI作品的版權注冊申請。請問為何中美雙方會就AIGC是否應獲得知識產(chǎn)權保護作出迥異的決定?承認或否認AIGC應獲得知識產(chǎn)權保護會對產(chǎn)業(yè)帶來何種影響?
郭禾:顧名思義,人工智能生成內容(以下簡稱“AIGC”)是指利用了人工智能技術所生成的內容。具體而言,其主要包括“基于生成對抗網(wǎng)絡、大型預訓練模型等人工智能的技術方法,通過已有數(shù)據(jù)的學習和識別,以適當?shù)姆夯芰ι傻南嚓P內容”【TE智庫:AIGC詞條,載百度百科,baike.baidu.com/item/AIGC/59988381?fr=ge_ala,2024年1月22日訪問?!?。近年來,隨著ChatGPT的發(fā)布,AIGC成為全球關注熱點。在這一背景下,AIGC與知識產(chǎn)權制度的關系也成了法學領域的熱門話題。在這里所討論的知識產(chǎn)權保護對人工智能產(chǎn)業(yè)的影響,僅限于知識產(chǎn)權作為一種財產(chǎn)權在市場經(jīng)濟環(huán)境中對產(chǎn)業(yè)發(fā)展的作用。
在市場經(jīng)濟環(huán)境中,AIGC的走紅自然會直接引發(fā)資本的關注。毫無疑問,資本的充分注入將直接刺激人工智能產(chǎn)業(yè)的進步與發(fā)展。然而,正常情況下投資行為所追求的目標是市場利潤。如果投資行為的結果得不到法律的承認或保障,資本對產(chǎn)業(yè)的投入就不具有持續(xù)性。這里的“法律的承認或保障”就是承認投資行為與相關市場利潤間的關系,進而用這種關系去決定市場利潤的分配。比如,法律上確立了勞動者對勞動成果的所有權,便保障了勞動者投入其勞動的收獲,進而使勞動的投入具有可持續(xù)性。類似地,確立AIGC的權利歸屬,無疑有利于鼓勵人們利用人工智能技術產(chǎn)生出更多的內容。具體而言,一方面可以促使更多的人工智能系統(tǒng)被人利用,從而產(chǎn)出更多的AIGC;另一方面,人們對人工智能系統(tǒng)的需求也會進而促使人工智能系統(tǒng)開發(fā)者研發(fā)出更優(yōu)秀的人工智能系統(tǒng)。前述推理是從全社會的角度給出的總體效果。要取得這樣的總體效果,就必須確保相關各方在市場中獲得各自的利益。
為了保障前述各方在市場中的利益,仿照勞動成果所有權的設定模式,在AIGC上設定相應的排他性權利,無疑是最為直接和簡單的辦法?;贏IGC的無體屬性和AIGC在產(chǎn)生過程中必然涉及智力活動這兩個因素,以既有的知識產(chǎn)權模式為基礎構筑其法律保護體系當為自然之選。當然,這里所說的知識產(chǎn)權應當包括我國《民法典》中所確立的權利和利益兩方面內容。既有的知識產(chǎn)權制度在權利產(chǎn)生、變動、行使和救濟等各方面已經(jīng)充分考慮到保護對象無體性的自然屬性,進而在制度設計上對知識產(chǎn)權的效力和限制等方面分別作出了較為均衡的規(guī)定。從這種意義上看,選擇知識產(chǎn)權模式作為藍本,可使有關制度的設計和運行成本相對較低。至于AIGC本身所具備的“智力”屬性,更強化了其與既有知識產(chǎn)權制度的聯(lián)系,故選擇知識產(chǎn)權模式具有天然的合理性。在此基礎上,再結合合同法等相關制度,完全可以平衡人工智能系統(tǒng)開發(fā)者、人工智能系統(tǒng)操作者和AIGC使用者等各方在市場環(huán)境中的利益分配。
因此,在市場經(jīng)濟環(huán)境中賦予AIGC相應的知識產(chǎn)權保護,不僅不會使社會運行成本陡增,而且可以引導資本不斷地向人工智能產(chǎn)業(yè)注入,從而對該產(chǎn)業(yè)的發(fā)展起到積極的促進作用。
馮曉青:
從知識產(chǎn)權制度產(chǎn)生的一般規(guī)律來說,知識產(chǎn)權制度是商品經(jīng)濟和科學技術發(fā)展的產(chǎn)物,二者缺一不可。商品經(jīng)濟發(fā)展為知識產(chǎn)權制度的誕生提供了私權觀念基礎和知識產(chǎn)品交易環(huán)境,科學技術發(fā)展則為知識產(chǎn)權制度的誕生奠定了物質技術基礎和條件。隨著商品經(jīng)濟程度不斷提高并發(fā)展到較為成熟的市場經(jīng)濟,知識產(chǎn)權制度作為調整知識產(chǎn)品利益關系的法律保障機制、激勵創(chuàng)新機制和利益協(xié)調機制,對于市場經(jīng)濟發(fā)展的驅動和保障作用日益增強。這尤其體現(xiàn)于知識產(chǎn)權制度促進產(chǎn)業(yè)發(fā)展上,包括產(chǎn)業(yè)創(chuàng)新、產(chǎn)業(yè)轉型升級以及傳統(tǒng)產(chǎn)業(yè)的現(xiàn)代化改造等多方面。知識產(chǎn)權制度是以知識產(chǎn)權的充分和有效保護為基礎和核心的,其作用于市場經(jīng)濟發(fā)展特別是產(chǎn)業(yè)發(fā)展方面的作用也主要體現(xiàn)于知識產(chǎn)權保護的力度和成效。當前知識產(chǎn)權新結構經(jīng)濟學研究的一個重要內容,即是知識產(chǎn)權制度運行與產(chǎn)業(yè)發(fā)展、產(chǎn)業(yè)創(chuàng)新之間的辯證關系。知識產(chǎn)權制度的變革和發(fā)展也深受科學技術發(fā)展的影響。科學技術發(fā)展不僅會影響知識產(chǎn)權保護的主體、客體、內容以及知識產(chǎn)權侵權表現(xiàn)等,而且會通過作用于知識產(chǎn)權保護,影響與技術發(fā)展相關的產(chǎn)業(yè)。簡單而言,知識產(chǎn)權保護與技術進步和產(chǎn)業(yè)發(fā)展之間存在十分密切的互動聯(lián)系。
當前,隨著大數(shù)據(jù)、人工智能技術及其產(chǎn)業(yè)化的迅猛發(fā)展,知識產(chǎn)權保護和產(chǎn)業(yè)發(fā)展方面出現(xiàn)了前所未有的重大課題,其中尤為重要的是AIGC“橫空出世”對現(xiàn)行知識產(chǎn)權制度帶來的巨大挑戰(zhàn)。不過,前述關于知識產(chǎn)權保護與技術進步和產(chǎn)業(yè)發(fā)展關系的原理依然適用。故不妨結合上面的觀點透視給予或不給予AIGC知識產(chǎn)權保護對產(chǎn)業(yè)發(fā)展的影響。
這里首先需要表明一下個人的立場,即承認AIGC可以獲得知識產(chǎn)權保護,給予知識產(chǎn)權保護有利于人工智能相關產(chǎn)業(yè)發(fā)展。AIGC之所以可以獲得知識產(chǎn)權保護,我認為主要是基于以下原因。其一,AIGC符合受知識產(chǎn)權保護的客體的條件。毫無疑問,知識產(chǎn)權保護客體需要滿足一定的條件,如《著作權法》中作品的獨創(chuàng)性要件、《專利法》中發(fā)明和實用新型的“三性”要件。從理論上說,只要AIGC滿足了相應的知識產(chǎn)權客體的條件,就沒有理由不予以知識產(chǎn)權保護。其二,AIGC是人類智力活動和智力勞動的產(chǎn)物,與自然人從事創(chuàng)造性行為所得的結果存在實質性相同。AIGC固然是基于人工智能生成的,但其與自然人從事創(chuàng)作和發(fā)明創(chuàng)造所形成的作品或發(fā)明創(chuàng)造在外觀和內容上并沒有實質性差異。值得注意的是,否認AIGC受知識產(chǎn)權保護的學者的一個重要理由是:受知識產(chǎn)權保護的客體或對象應當是人類或者說自然人從事智力勞動的產(chǎn)物,而不能是借助于人工智能完成的。對此,我認為應當辯證地看待AIGC,它并不是憑空產(chǎn)生的,產(chǎn)生AIGC的人工智能本身是人類智慧勞動的產(chǎn)物。自然人利用人工智能生成的對象,無論是作品還是發(fā)明創(chuàng)造,都留下了人類智慧的足跡,至少在當前總體上屬于弱人工智能的階段,AIGC是人機互動和人機結合的產(chǎn)物。離開人類智慧和智力活動參與,則既不會有人工智能的存在,也相應地不會有AIGC的存在。
需要繼續(xù)探討的是AIGC的知識產(chǎn)權保護對產(chǎn)業(yè)發(fā)展的影響。我認為,知識產(chǎn)權保護促進產(chǎn)業(yè)發(fā)展的上述原理同樣適用于AIGC。具體而言,AIGC知識產(chǎn)權保護有利于鼓勵用戶更多地利用人工智能從事知識創(chuàng)造活動,并促進相關智力成果的傳播和利用,而這反過來又有利于促進對人工智能的研發(fā)和投資,從而促進人工智能技術水平的提高。與此同時,人工智能技術水平的提高,又有利于形成人工智能產(chǎn)業(yè)?!丁笆奈濉眹抑R產(chǎn)權保護和運用規(guī)劃》即提出,要完善知識產(chǎn)權保護政策,健全大數(shù)據(jù)、人工智能、基因技術等新領域新業(yè)態(tài)知識產(chǎn)權保護制度。相反,如果對AIGC不予知識產(chǎn)權保護,在法律上其就可能進入公共領域,不僅對于人工智能使用者而言缺乏使用人工智能的動力,進而使得人工智能技術的運用受到影響,還會直接沖擊現(xiàn)有的受知識產(chǎn)權保護的知識產(chǎn)品市場,影響在知識產(chǎn)權保護之下形成的既有的文化產(chǎn)品和技術產(chǎn)品競爭秩序與市場秩序。從這個意義上講,不承認對AIGC的知識產(chǎn)權保護不僅會影響人工智能產(chǎn)業(yè)本身發(fā)展,也會對相關文化產(chǎn)業(yè)和技術市場產(chǎn)生負面影響。
張平:
生成式AI技術的迅猛發(fā)展給世界各國的法律提出了新的議題,特別是對AIGC或者人類與AI技術合作的生成物能否給予知識產(chǎn)權保護,各國呈現(xiàn)不同立場。之前美國版權局撤銷了利用AI技術完成科幻漫畫的版權登記,給出的結論是,“版權只能保護人類創(chuàng)造的產(chǎn)物,‘作者’一詞不包括非人類”。但是,美國版權局不予登記的理由是該版權登記人給AI系統(tǒng)提供的目標生成圖像的提示和參數(shù)沒有對生成物結果有創(chuàng)造性工作,進而認為,AI生成物能否構成作品取決于具體情況,特別是要根據(jù)AI工具如何運作以及作者如何使用AI工具創(chuàng)建最終作品的情景來決定。所以,我們不能得出美國版權局完全不承認AIGC版權保護的結論。相比美國,英國法律則是旗幟鮮明地給予AIGC版權保護,并在社會上出現(xiàn)質疑時,堅持認為“沒有證據(jù)表明對計算機生成作品的保護是有害的”。
在李某與劉某侵害作品署名權和信息網(wǎng)絡傳播權糾紛案中,北京互聯(lián)網(wǎng)法院為我國在AIGC版權保護問題上給出了初步的立場,也為近期廣泛討論的AIGC能否受《著作權法》保護的話題提供了階段性意見。本案肯定了“人”在AI生成圖中的獨創(chuàng)性工作,確定了利用AI生成的圖片具有作品性,并認可AI使用者以作者身份依法享有著作權。本案向社會明確傳達了使用生成式AI進行創(chuàng)作的技術門檻和獨創(chuàng)性認定標準,糾正了大多數(shù)人對于“自動生成”過程“快速、簡單、機械、沒有創(chuàng)作含量、不特定結果”的誤解。此判決也表明了我國在對待AIGC的著作權保護上充分考慮了“人”在其中的創(chuàng)作貢獻,保護了AI使用者的創(chuàng)作成果。此案例也會在客觀上推動AI技術迭代和產(chǎn)業(yè)投資的積極性。
對于AIGC的非人類創(chuàng)作問題,現(xiàn)行著作權制度確實是以“人”的智力成果作為作品構成邏輯起點的。但是,AI也是人類智力成果的匯集,只不過它學習能力太強,知識積累太多,創(chuàng)作效率太高罷了。生成式人工智能的自主運轉依然屬于人類的“智力活動”,AIGC恰恰是人類智力成果的匯聚,體現(xiàn)的是人類的智力勞動,而不是非人類的信息集合。如同自然人創(chuàng)作,AIGC也是利用之前積累的人類知識進行創(chuàng)作,只不過人工智能是在更廣泛、更龐大的人類知識積累基礎上生成作品而已。所以,人工智能生成物并不違反《著作權法》中“智力成果”這一要件。
當然,并不是所有AIGC都會被賦予著作權保護,具體還要根據(jù)個案不同情景加以判斷,最終要通過作品的“試金石”即獨創(chuàng)性來判斷。作品的著作權歸屬也具有多元并存性,可以按照法定歸屬原則(如法人作品、視聽作品)來歸屬其著作權,也可以按照約定歸屬原則,如約定人工智能開發(fā)商、投資人等作為著作權人。
當下我國人工智能產(chǎn)業(yè)迅猛發(fā)展,面對科技先行于法律的現(xiàn)實局面,對生成式人工智能的法律保護應當立足于促進人工智能發(fā)展的立場。《著作權法》更應當鼓勵公眾利用新型創(chuàng)作工具,創(chuàng)作更多更好的作品,同時也要提供更多的訓練“語料”,讓人工智能訓練數(shù)據(jù)更加豐富,技術迭代更加迅速。至于那些關于人工智能創(chuàng)作泛濫的擔憂,完全可以交由市場加以甄選或淘汰,就如同今天工業(yè)化產(chǎn)品和手工制作品一樣自然會有不同的價格定位和市場選擇。
盡管美國目前在AIGC的版權登記上持保守態(tài)度,但是在白宮2023年10月30日發(fā)布的《關于人工智能的新行政命令》中明確提到,所有類型的政府機構必須確保美國在人工智能技術開發(fā)方面處于領先地位。版權保護對于生成式人工智能產(chǎn)業(yè)發(fā)展就是重要的一個環(huán)節(jié),美國一定會繼續(xù)尋找解決途徑。
熊琦:
當2016年來自谷歌的人工智能AlphaGo戰(zhàn)勝人類頂級圍棋大師時,人類在被人工智能強大算法所震驚的同時,也堅持認為在文學藝術等更多強調主觀個性的領域,人類仍然是不可取代的。但自2022年開始,以ChatGPT和Bard等為代表的生成式人工智能,已經(jīng)能夠在文字、繪畫和軟件等領域以普通人要求的水準完成文本生成,人類認為不會被人工智能攻破的最后堡壘也面臨失守。人工智能生成內容的常態(tài)化,意味著普通網(wǎng)絡用戶都能通過該渠道來進行創(chuàng)作。如何認定這些基于用戶提示語所生成內容的可版權性及其歸屬,就成了《著作權法》不得不面對的問題。
無論是在2016年還是今天,其實人工智能生成內容引發(fā)的著作權問題始終集中在兩點上,即作為人工智能模型訓練的輸入階段以及作為人工智能生成內容的輸出階段。
迄今為止討論最多的部分,是輸出階段。其中包含兩方面的內容:一是人工智能生成的內容是否屬于作品并受《著作權法》的保護;二是如果該內容屬于作品,應如何認定其著作權歸屬。關于這兩個問題,我國司法實踐的結論和其他國家既有相同也有不同。相同之處為,現(xiàn)階段我國和域外都秉承著作權法的立法目的與原則,即使在人工智能時代,也堅持只有人類才能擁有作者身份,認定著作權法只保護自然人的創(chuàng)作,生成式人工智能模型不具備自由意志,不是法律上的主體。同時,對于人工智能所生成的內容是否屬于作品而受到著作權法的保護,仍然應當基于著作權法關于作品的構成要件來加以判斷,獨創(chuàng)性和智力成果等要件的認定不會因內容來源的差異而不同。不同之處在于域外權威機構堅持認為,由于通過用戶提示完成的人工智能內容是不可預測和不可掌控的,用戶的提示行為更類似于建議而非創(chuàng)作,所以用戶不應視為作者;反之,我國司法裁判則認為用戶對提示詞的選取和生成過程中相關參數(shù)的調整都能體現(xiàn)出審美選擇和個性判斷,所以輸入提示語的用戶應視為作者。但無論現(xiàn)今裁判的結論如何,我國和域外的裁判機構都是從既有著作權制度規(guī)范出發(fā)作出的法律判斷。因為不管是從法律的社會功能還是規(guī)制對象來看,基于既有規(guī)范來解釋人工智能生成內容的可版權性及其權利歸屬都是法律適用的重要前提。這一方面是因為法律向來是以“涵攝”的方式去應對新的爭議,以維持法律自身和公眾預期的穩(wěn)定性,不應輕易調整變化;另一方面則是因為人工智能雖然近年來助力生成了大量內容,但與著作權法調整對象的數(shù)量和范圍相比,仍然僅占一部分,如果每種不同的生成方式都設定一種新標準,法律將無法正常適用。
自生成式人工智能服務提供者開始向網(wǎng)絡用戶大規(guī)模提供生成式人工智能服務后,針對輸入階段的討論就逐步增加,其中最重要的問題,就是在未經(jīng)著作權人同意的情況下大規(guī)模使用數(shù)字化的作品用于對AI模型進行訓練是否構成侵權。在這一領域,域外已有一系列的訴訟正在進行,包括Stability AI、OpenAI、Meta、Alphabet等在內的全球頭部生成式人工智能企業(yè)全部在被訴之列,但代表性的判決結果尚未出現(xiàn)。從產(chǎn)業(yè)發(fā)展的角度出發(fā),諸多發(fā)達國家形成了鼓勵人工智能產(chǎn)業(yè)發(fā)展的共識,部分國家已經(jīng)在政策層面形成了“促進生成式人工智能健康發(fā)展”的方案。日本政府官員甚至公開提出不會將人工智能訓練中使用作品的行為視為侵權,并在2024年1月迅速公布了《人工智能運營商指南(草案)》,希望盡快出臺一份全面涵蓋人工智能開發(fā)者、提供者和使用者的指導文件。韓國在其2023年的經(jīng)濟工作計劃中,也提出推進著作權法的修改,將數(shù)據(jù)分析中使用作品納入合法范疇,以此推動人工智能產(chǎn)業(yè)的發(fā)展。但司法上最終會如何認定,還需要等待上述判決的結果來參考。
由此可見,無論是輸入端還是輸出端,人工智能生成內容都給著作權法帶來了新的議題。事實上,這種技術對制度的沖擊,在著作權法的歷史上也曾多次出現(xiàn)。例如,錄音技術、廣播技術和網(wǎng)絡技術的先后到來,都使著作權法的調整和適用過程面臨新舊產(chǎn)業(yè)保護的取舍問題,而且司法上的判決結果往往會對產(chǎn)業(yè)的發(fā)展方向產(chǎn)生重大影響。從“索尼案”將使用錄像設備改變觀看時間和地點的行為認定為合理使用,到針對P2P軟件傳播作品的系列案件中對平臺幫助和教唆侵權責任認定標準的討論,都在很大程度上塑造了新興產(chǎn)業(yè)的未來。這次人工智能帶來的沖擊,本質上也是在技術的幫助下顯著降低了作品創(chuàng)作和傳播中的交易成本,使原來權利范疇和權利限制的設定難以保障著作權人的合法收益,進而弱化了著作權制度對創(chuàng)作與傳播的正向激勵,因此需要在新技術形成的新市場中界定權利范疇及其歸屬。
張吉豫:
這一輪基于大模型的生成式人工智能,具有一些突出的特點。首先,人工智能生成內容類型不斷豐富,質量有了飛躍式發(fā)展,使生成結果具有了產(chǎn)業(yè)實用性。其次,多模態(tài)技術的發(fā)展,使文字、圖像、音頻及視頻等多種類型的內容可以更容易地互相轉化和生成,將進一步革新內容生產(chǎn)模式。目前文生圖、文生音樂等類型的應用已經(jīng)有了顯著發(fā)展,未來可能有更多的多模態(tài)應用發(fā)展。最后,大語言模型等人工智能的發(fā)展,將全面升級信息分發(fā)獲取的方式和人機交互方式,特別是越來越多的普通用戶不需掌握計算機操作的專業(yè)技能,可以僅使用自己熟悉的自然語言等表達方式,就能夠實現(xiàn)原本比較復雜的與機器的互動,獲得自己想要的內容或服務。很多研究預測,人工智能大模型正在成為新一代的基礎設施,對各行各業(yè)都帶來改造升級,產(chǎn)生變革型的影響。
當前生成式人工智能的產(chǎn)業(yè)應用正處于快速發(fā)展階段,具有非常廣闊的前景,產(chǎn)業(yè)發(fā)展情況需要進一步跟蹤觀察。目前看來,在文字生成、圖片生成、語音生成及音樂生成等方面的人工智能服務已經(jīng)有了非常多樣化的應用發(fā)展,如智能寫作助手、PPT制作助手、智能客服及交互式數(shù)字人、智能圖片生成和優(yōu)化、短視頻智能配樂、智能廣告制作等,并且一些應用已經(jīng)具有了龐大的用戶群體。報告顯示,ChatGPT在2023年1月末的月活用戶已經(jīng)突破了1億,成為用戶量增長速度最快的應用。2023年年底百度披露,“文心一言”的用戶數(shù)量已超過1億【鄭新鈺:《百度文心一言用戶數(shù)破1億,專業(yè)級用戶開測智能體模式》,載人民網(wǎng),https://paper.people.com.cn/zgcsb/html/2024-01/15/content_26037244.htm,2024年1月28日訪問?!浚站{用量達數(shù)千萬次,每月服務企業(yè)超過1萬家【AI芯天下:《百度文心大模型率先通過國家大模型標準測試》,載騰訊網(wǎng),https://new.qq.com/rain/a/20231225A08W8C00,2024年1月28日訪問。】。Midjourney的文生圖服務盡管需要付費使用,在Discord上頻道的用戶也已超過1000萬?!綬ok Krivec: Midjourney Statistics(How Many People Use Midjourney), at https://colorlib.com/wp/midjourney-statistics/(Last Visited on Jan. 28th, 2024).】另外,一些企業(yè)專注于向專業(yè)用戶或特定產(chǎn)業(yè)提供生成式人工智能服務,盡管用戶總量不大,也開始有了不菲的收入。可以預見,生成式人工智能將對社會的文化和相關產(chǎn)業(yè)都產(chǎn)生深遠影響,豐富人類的創(chuàng)作方式,并擴展產(chǎn)業(yè)的運作方式和可能性邊界。
很多用戶僅是由于有趣或出于試驗、了解等目的來使用人工智能生成內容,實際上沒有進行作品創(chuàng)作的意愿,也沒有投入多少時間。對于此類用戶,生成內容能否獲得知識產(chǎn)權保護,基本不會對其行為產(chǎn)生直接影響。但對于一些出于創(chuàng)作、商業(yè)化運用等更嚴肅目的而使用的用戶,使用人工智能生成的內容能否獲得知識產(chǎn)權保護,可能影響其愿意為此支付的費用,以及愿意在使用人工智能創(chuàng)作上所花費的精力。對于游戲、動漫、影視等專業(yè)的內容產(chǎn)業(yè)則更是如此。如果使用人工智能生成的內容不能夠獲得知識產(chǎn)權保護或效果相當?shù)钠渌麢嗬Wo,這些專業(yè)內容生產(chǎn)企業(yè)將會在選擇采用此類方式時審慎考慮。這些對于使用人工智能的猶疑,在長期來看可能會抑制生成式人工智能的發(fā)展。
人工智能生成內容能否獲得知識產(chǎn)權保護,還可能影響傳統(tǒng)方式所創(chuàng)作的作品的市場,影響相應作者群體的利益。一些學者曾指出,如果人工智能生成內容不能得到知識產(chǎn)權保護,則會導致大量內容進入公有領域,使?jié)撛诘淖髌肥褂谜邲]有必要去付費使用作品,損害了人類創(chuàng)作者基于著作權可獲得的經(jīng)濟利益,依賴版權經(jīng)濟效益存續(xù)發(fā)展的眾多產(chǎn)業(yè)也將受到抑制?!緟⒁娨桌^明:《人工智能創(chuàng)作物是作品嗎?》,載《法律科學》2017年第5期;曹源:《人工智能創(chuàng)作物獲得版權保護的合理性》,載《科技與法律》2016年第3期;孫那:《人工智能創(chuàng)作成果的可版權性問題探討》,載《出版發(fā)行研究》2017年第12期?!康缜八?,如果人工智能生成內容不能得到知識產(chǎn)權保護,也將影響其生成內容的商業(yè)化運用,進而激勵產(chǎn)業(yè)繼續(xù)選用傳統(tǒng)創(chuàng)作方式產(chǎn)生的作品,有利于相對高質量作品的作者群體。
傳統(tǒng)的作者群體已經(jīng)開始對生成式人工智能強烈不滿,2023年不同作品領域的著作權人針對生成式人工智能的訴訟頻起,彰顯了激烈的利益沖突。很多傳統(tǒng)作者并不是聚焦于人工智能生成內容能否獲得知識產(chǎn)權保護,而是不希望自己的作品被用來訓練生成式人工智能、進而使其能夠生成類似于自己作品的內容。實際上,除了人工智能生成內容本身能否得到知識產(chǎn)權的保護外,目前對產(chǎn)業(yè)影響最大的知識產(chǎn)權問題是使用作品進行模型訓練是否能夠構成合理使用或是否應有其他形式的著作權限制。
2
張凌寒:盡管各國的決定、判決最終結果并不相同,但是對此問題的爭議焦點主要集中在生成式人工智能技術給知識產(chǎn)權中的“思想表達二分法”“實質性相似侵權認定”等原則帶來的挑戰(zhàn),以及對作品認定的“獨創(chuàng)性”和“智力成果”等要件的沖擊。請問法律應如何應對?
郭禾:
這個問題提及了知識產(chǎn)權制度中多個基本原則和概念。這里著重討論“思想與表達二分法”原則。
“思想與表達二分法”在不同語境下會有不同的理解。本問題將該原則置于知識產(chǎn)權框架之下,因此對“思想”或“表達”的理解應當不限于著作權制度。法律是行為規(guī)范,不是思想規(guī)范,因此“思想”絕不可能成為法律調整的對象。知識產(chǎn)權保護的對象只能是“表達”,因為“表達”是能夠為人感知的客觀存在。比如,專利技術或商標都應當是一種表達,也有學者稱其為形式。無論在法理上還是司法實踐中,法律保護的對象只能是客觀化的表達,至于存在于主觀層面的思想,是不能被納入知識產(chǎn)權保護范圍的。具體到AIGC,必須以技術、商業(yè)標志或者非實用的符號組合等形態(tài)成為可以為人感知的“表達”,才能得到法律保護。簡言之,法律絕不可能保護完全以主觀形態(tài)存在于大腦之中的思想。從這種意義上講,目前的人工智能技術尚未對“思想與表達二分法”構成挑戰(zhàn)。
當然,在著作權法框架下的“思想”或“表達”,無不限定在“作品”概念所框定的論域之下。其含義直接通過這些命題得到反映:“表達即作品”和“作品是思想的表達”。在這里,關于“思想”和“表達”概念的理解與前面有所不同。這里的“思想”不被理解成人類大腦的思維,而應將其降格理解為相對具體的“方案”“創(chuàng)意”等;相應地,“表達”也不再被嚴格限定為非實用的符號組合,而是將其升格理解為“情節(jié)”“橋段”等。在此界定下,當下引人關注的人工智能以文生圖的諸多事件中的“文”與“圖”之間的關系,是否屬于“思想”與“表達”的關系,還存疑問。如果“文”被界定為思想,則可進而推出“思想與表達二分法”受到挑戰(zhàn)。
然而,著作權法中關于“思想”與“表達”概念的界定在理論邏輯上原本就存在不甚嚴謹之處。西方著作權理論中的“Idea”在漢語環(huán)境中常被譯作“思想”,更加重了這種形式邏輯上的不嚴謹。只是司法實踐中,法官往往通過各種技術性處理彌補了邏輯上的缺陷。因此,即使針對AIGC,只需在“思想”和“表達”的概念界定或解釋上稍作技術性處理,則“思想與表達二分法”仍然可以適用。至于當思想的表達有限時,則不能對該表達給予保護的問題,因為涉及對“獨創(chuàng)性”概念的理解,即人們常說的“有限表達不具有獨創(chuàng)性”,故也將在后面再進一步探討。
馮曉青:
近年來,人工智能技術發(fā)展速度之快,令人驚奇。以ChatGPT和我國“文心一言”為代表的生成式人工智能技術的出現(xiàn)和應用,為現(xiàn)行知識產(chǎn)權制度帶來了新的巨大挑戰(zhàn)。核心問題還是利用生成式人工智能生成的作品和發(fā)明創(chuàng)造,是否分別屬于著作權法和專利法保護的作品和發(fā)明創(chuàng)造。這里不妨以前者為探討對象。
要明確利用生成式人工智能生成的作品是否受著作權法保護,需要評判其是否符合受著作權法保護作品的條件。如果符合,則可以納入受著作權法保護的作品范疇、受到著作權法保護;反之,則不能納入著作權法保護范圍。根據(jù)我國現(xiàn)行《著作權法》第3條規(guī)定,著作權法所稱的作品“是指文學、藝術和科學領域內具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果”。該規(guī)定表明,受著作權法保護的作品應滿足以下四個要件:(1)屬于文學、藝術和科學領域;(2)具有獨創(chuàng)性;(3)能以一定形式表現(xiàn);(4)屬于智力成果。
就人工智能生成的作品而言,由于其涉及自然科學、社會科學和人文科學的內容,其滿足第一個要件并不存在爭議。人工智能生成的作品在外觀上與自然人創(chuàng)作的作品并無差異。例如,當某人利用“文心一言”生成一篇文章,在其未申明系借助于人工智能生成的情況下,人們一般很難識別是否為自然人創(chuàng)作的作品。上述情況也足以表明,人工智能生成的作品也滿足“能以一定形式表現(xiàn)”的要件。然而,對于上述第二個和第四個要件,則因為認識和理解上的不同而存在不同觀點,實質上也深刻地體現(xiàn)了人工智能技術發(fā)展對作品認定的“獨創(chuàng)性”和“智力成果”要件的巨大挑戰(zhàn),因此值得進一步深入探討。
關于人工智能生成的作品的獨創(chuàng)性,否認人工智能生成物在著作權客體中的地位、排除其受著作權法保護的觀點認為,獨創(chuàng)性強調作品是源自作為自然人的作者獨立完成的,而人工智能生成物借助了人工智能,所生成的“作品”可以說是機器“創(chuàng)作”而形成的結果,缺乏自然人的獨創(chuàng)性智力勞動成果。對此,我認為人工智能生成的作品依然具有著作權法中作品的獨創(chuàng)性,具體理由如下。
首先,作品的獨創(chuàng)性不僅需要考慮自然人創(chuàng)作的過程,而且需要判斷人工智能生成的最終結果是否屬于思想的表達,能夠反映一定的思想、情感,表達一定的信息。就人工智能生成作品而言,不論是誰進行創(chuàng)作,最終生成的結果和通常意義上的作品并無實質性差異【參見楊利華:《人工智能生成物著作權問題探究》,載《現(xiàn)代法學》2021年第4期?!?,人們同樣能夠以一定的形式閱讀或欣賞。這一點是即使是不承認人工智能生成結果作品屬性的學者也予以承認的。其次,在回答前一個問題時已經(jīng)提到,至少在當前的弱人工智能背景下,人工智能生成作品的形成過程并非缺乏人的因素的干預。無論是類似于騰訊案件中人工智能自動生成系列作品,還是前述北京互聯(lián)網(wǎng)法院案例中借助于人機互動,都體現(xiàn)了人的意志因素,即不能完全排除自然人的創(chuàng)作性因素。對此,后面關于生成式人工智能對“創(chuàng)作”的挑戰(zhàn)還將予以探討。最后,人工智能生成物的獨創(chuàng)性還體現(xiàn)在最終產(chǎn)生的結果能夠排除與已公開作品的實質性相似。在人工智能生成物經(jīng)得起類似知網(wǎng)“查重”的檢驗的前提下,人工智能生成物的獨創(chuàng)性可以得到進一步的鞏固。
關于人工智能生成物的智力成果屬性,不承認人工智能生成物在著作權客體中地位的觀點也是以否定該生成物的智力成果屬性為出發(fā)點。這里就存在如何認識智力成果的問題。我認為,人工智能本身是智力創(chuàng)造的結果,人們借助于人工智能創(chuàng)作作品并生成作品的行為,不僅包含了作為人工智能操作者、使用者生成人工智能作品的創(chuàng)作意圖,而且包含了其個性表達的因素。這是因為,人們利用人工智能生成作品,需要多次提出問題、修改或排除主題詞或參數(shù),這都體現(xiàn)了人工智能操作者的選擇和安排。正如張平教授在前一問題中的回答,前述北京互聯(lián)網(wǎng)法院案例也正是基于此,不僅認定涉案圖片屬于受《著作權法》保護的作品,而且認定用戶為作者。當然,對于那些通過輸入非常簡單的提示詞、經(jīng)過簡單的步驟即生成的作品,情況則有所不同。但即便如此,也不能否認人工智能生成物作品的智力成果屬性。這是因為,從人工智能生成作品的運作機理看,其存在所謂前端的數(shù)據(jù)輸入、預訓練和數(shù)據(jù)輸出過程。人工智能生成結果借助了人工智能算法和算力,包含和體現(xiàn)了人類的智力活動過程,能夠滿足一般意義上的作品的要求。
對于上述獨創(chuàng)性和智力成果的認定,我認為應對的策略應當是在《著作權法》中接納人工智能生成作品在著作權客體中的地位,給予著作權保護?!緟⒁婑T曉青、李可:《人工智能生成內容在著作權客體中的地位》,載《武陵學刊》2023年第6期?!窟@樣,既有利于豐富作品的類型和內容,也有利于協(xié)調圍繞人工智能產(chǎn)生的利益關系,通過《著作權法》介入人工智能生成物領域的保護,也有利于著作權制度的現(xiàn)代化。我國《著作權法》在2020年修正時,在其第3條增加了“符合作品特征的其他智力成果”,對于納入人工智能生成作品也提供了制度空間。實際上,著作權制度的發(fā)展歷史就是一部權利客體和權利內容的擴張史。這一擴張,一方面,反映了隨著技術發(fā)展,創(chuàng)作作品的形式和內容日益豐富,有必要新增受著作權法保護的客體;另一方面,也是技術發(fā)展和相應的產(chǎn)業(yè)變革中實現(xiàn)利益平衡的需要。人工智能生成物“擠進”著作權客體的范圍,就是重要體現(xiàn)。
還值得指出的是,無論技術如何發(fā)展及其對著作權制度的影響程度如何,著作權法的基本理念和原理依然具有生命力。其中,用于界定著作權保護范圍的重要原則——“思想表達二分法”就是如此?!八枷氡磉_二分法”意味著思想屬于不受保護的公共領域,而思想的表達才是受著作權法保護的范圍。就人工智能技術發(fā)展而言,在界分人工智能生成物是否受著作權法保護時,該原則同樣適用。只是實踐中,對于如何劃分思想與表達的范疇,人工智能技術的發(fā)展確實帶來了挑戰(zhàn)。例如,用戶在什么情況下輸入主題詞、參數(shù)等獲得的人工智能生成物屬于表達的范疇,在什么情況下屬于思想的范疇,就值得研究。此外,在人工智能預訓練階段,需要大量地涉獵現(xiàn)有同類作品的思想、風格、主題,并通過人工智能算法和模擬人工神經(jīng)網(wǎng)絡生成作品?;诖?,人工智能輸入端利用現(xiàn)有受著作權法保護作品的行為是否屬于著作權侵權,就依然可以從上述二分法的角度加以評判。至于“實質性相似侵權認定”則涉及人工智能生成物侵權責任問題。
張平:
生成式人工智能對著作權法的挑戰(zhàn)不在于作品性和作者的認定,而主要在以下兩方面。第一,人工智能訓練數(shù)據(jù)涉及海量作品的學習,是否還要遵循“事前授權、使用付費”原則?這關系到人工智能開發(fā)者的生存問題。第二,人工智能生成物的侵權認定標準或者抄襲的判斷標準,這關系到著作權法“思想表達二分法”是否成立的問題。第一個問題屬于訓練數(shù)據(jù)合法性問題,在此暫不討論。
對于“思想表達二分法”而言,其創(chuàng)設前提是,過去人們學習既有作品的風格、靈感進而創(chuàng)作出新作品的能力十分有限。即使不保護在先作品中的思想,也并不會導致不同主體之間利益的顯著失衡。然而,生成式人工智能可以在短時間內快速“學完”人類社會海量思想、知識和風格的基礎上,進行無限的、全新的內容生成。當人工智能參與到“創(chuàng)作”中,很容易瞬間學習到他人的創(chuàng)作思想和風格,然后輸出表達完全不同而風格極其相似的結果。例如,針對梵高的《星空》油畫作品,人工智能可以作出無數(shù)的風格一致但表達完全不同的作品。因此,在判斷人工智能生成物是否構成抄襲時,不應機械適用著作權法中的“思想表達二分法”,而應當以誠實信用原則為判斷基礎。
對于“接觸+實質性相似”認定標準問題而言,首先,行為“接觸”原則上由原告承擔證明責任,即原告需要證明被告有“接觸”在先作品的條件和事實,且被告具有非正當性目的。但是,這種證明對原告而言十分困難。生成式人工智能模型訓練中的作品利用,是在模型內部進行的非外顯的作品利用。這就導致了即使自身作品未經(jīng)授權被人工智能模型用于訓練,著作權人實際上也難以發(fā)現(xiàn)并提供相應證據(jù)。另外,著作權人難以進行“實質性相似”標準的比對。生成式人工智能對于內容創(chuàng)作的顛覆性影響在于,其通過對在先作品思想、風格的吸收學習,以一種難以預判的方式,輸出和既有作品相區(qū)分的、全新的內容表達。AIGC會與原作品“似曾相識”但又“似是而非”。
根據(jù)目前實踐,大模型公司并不會完全披露數(shù)據(jù)集的確切來源,原告所能提供的證據(jù)僅為大模型公司在訓練過程中數(shù)據(jù)的權重和偏好,以及與在先作品高度相似的生成內容。例如,在紐約時報訴OpenAI和微軟案中,原告提供ChatGPT侵權行為最重要的證據(jù)是100多個GPT-4輸出內容和《紐約時報》報道文章高度相似的例子。
熊琦:與技術上的日新月異不同,全球著作權法在經(jīng)歷了從機器介入內容生成到人工智能生成內容的漫長歷史后,關于人類與獨創(chuàng)性來源的關聯(lián)性立場卻始終如一。人工智能生成內容對著作權法帶來的挑戰(zhàn),與其說是填補規(guī)則的空白,不如說是研究既有規(guī)則如何針對新問題作出新解釋,包括但不限于在人工智能訓練過程中使用作品是否構成合理使用、人工智能生成內容是否具有可版權性以及在符合作品構成要件的情況下如何認定權利歸屬。已有的著作權規(guī)則并沒有因人工智能的出現(xiàn)而失靈,在判定人工智能生成內容的相關著作權爭議時,無論是我國還是其他國家,都是采取與判定完全由自然人創(chuàng)作的作品相同的規(guī)范和標準。從源起于19世紀末攝影設備介入創(chuàng)作后首次出現(xiàn)的機器與創(chuàng)作關聯(lián)性之爭,到20世紀末“計算機生成作品”(computer-generated works)權利歸屬的成文法定義,再到今天針對人工智能生成內容的著作權認定,司法機關、行政機關和學界的主流判斷都堅持只有人類才能擁有作者身份,無論是機器、計算機還是人工智能,都不得視為作者。借助機器且以隨機或自動運行的機械過程所生成的內容,因為其中缺乏人類智力活動的參與,該內容也不得被視為作品。這一點也在前面的問題中被反復提及。美國版權局在其2023年發(fā)布的《人工智能參與生成作品的版權登記指南》中,專門引用一份1884年針對借助攝影設備進行創(chuàng)作的判決,以此證明判定標準的延續(xù)性和穩(wěn)定性。至于“思想表達二分法”和“獨創(chuàng)性”等傳統(tǒng)的可版權性認定標準,司法機構百年來在處理機器與創(chuàng)作關系時,都集中于判斷作為創(chuàng)作者的自然人對所生成內容結果的可預期性和可控性。這種以既有規(guī)則涵攝機器介入創(chuàng)作時作品獨創(chuàng)性來源的判斷方法,既保持了判定標準的穩(wěn)定性,又靈活地將獨創(chuàng)性來源與自然人對應,堅持將機器視為人類創(chuàng)作的輔助工具這一核心判斷,也間接說明現(xiàn)有著作權法足以應對來自人工智能生成內容的挑戰(zhàn),無需專門設計全新的制度來解決問題。
我國法院在司法實踐中,也明確認可了人類創(chuàng)作在人工智能生成內容可版權性認定中的必要性。但當人工智能生成內容與他人作品構成實質性相似時,侵權行為的歸責又必須追溯到侵權作品的主體。這種技術進步與規(guī)范守成之間的差異,以及拒絕保護和確權需求之間的悖論,都需要我們再次審視現(xiàn)有規(guī)則及其解釋路徑,探尋兼具符合著作權立法目標和滿足技術迭代需求的權利配置安排。但從機器介入創(chuàng)作的技術史與制度史中已經(jīng)可以發(fā)現(xiàn),著作權法之所以堅持以既有的客體判定和權利歸屬來涵攝機器與創(chuàng)作的關系,目的始終是激勵人在作品創(chuàng)作和傳播中的核心作用,并在權利歸屬的認定上確保法律關系的穩(wěn)定性。因此,以既有的獨創(chuàng)性標準認定人工智能生成內容的可版權性,并正確區(qū)分該作品在人工智能算法設計者和使用者之間的權利歸屬,前提都在于認定人與創(chuàng)作行為的關聯(lián)。因此,現(xiàn)階段生成式人工智能討論的重點,在于如何從現(xiàn)有著作權客體和歸屬判定的適用過程中找到自然人在人工智能生成內容中的貢獻及其比例,而不是專門為人工智能創(chuàng)設一個全新的著作權體系。
張吉豫:
生成式人工智能為著作權法中的一些基本概念和原則提供了新的適用場景。
“思想表達二分法”是著作權法中的重要原則,用于劃分作品中受保護的部分與不受保護的部分,以實現(xiàn)著作權人與社會公眾之間的利益平衡,使著作權保護不至于影響后續(xù)作品的創(chuàng)作。抽象的思想往往對應無限的表達,不應使著作權人獲得過寬的保護。
也因此,某個個體可能對自己撰寫的指導人工智能的“提示語”(prompt)擁有著作權,但是如果其中的某些文字是為了實現(xiàn)特定的操作所必需的撰寫方式,則可能因為思想與表達合并而無法得到排他性保護。此外,個體不能對自己編寫的“提示語”可能產(chǎn)生的所有表達擁有著作權,而至多對已通過自己選用大模型、輸入提示語以及進行選擇或調整后得到的表達擁有著作權。
人工智能生成內容是否具有獨創(chuàng)性、是否構成智力成果,目前爭議較大。從目前的法律文本上看,正反兩種觀點都存在解釋可能性。在過去著作權法的發(fā)展過程中,并不需要嚴肅討論一個作品生成過程中人類智力的貢獻模式和程度。因此,我們今天在討論這兩個概念時,不能簡單考察過去的解釋內容,而應當在文義可及的邊界內,探尋何種解釋更加符合著作權法的立法目的,更有利于促進文化的繁榮和人類的福祉。要更好地回答這一問題,還需要對產(chǎn)業(yè)及社會發(fā)展進行更深入的觀察分析。
3
張凌寒:生成式人工智能對“創(chuàng)作”帶來哪些挑戰(zhàn)?應如何開展制度設計?
郭禾:
前一個問題專門提及“獨創(chuàng)性”。獨創(chuàng)性與本題中的“創(chuàng)作”直接相關。無論是獨創(chuàng)性還是創(chuàng)作,都屬于著作權法中的核心概念。獨創(chuàng)性被認為是作品構成要件中的內在要件,而創(chuàng)作則是指作品產(chǎn)生的過程或者行為。因此,只有能夠產(chǎn)生具有獨創(chuàng)性成果的行為才能被視為創(chuàng)作;反過來,創(chuàng)作行為產(chǎn)生的成果就是作品,當然具有獨創(chuàng)性。本問題的核心是要回答AIGC的產(chǎn)生過程能否被視為創(chuàng)作,或者AIGC是否具有獨創(chuàng)性及能否作為作品受到著作權法保護。
創(chuàng)作即指作品的產(chǎn)生過程。作為創(chuàng)造行為的一種類型,創(chuàng)作被認為是只有人類才能完成的。AIGC的誕生讓人們反思機器能否創(chuàng)作。然而,以人本主義的立場為基點,機器只能是人實現(xiàn)其目的的工具,不可能成為法律主體。在法理上,創(chuàng)作作為著作權法律關系產(chǎn)生的要件,行為主體只能是人。雖然法律主體并非僅限于自然人,但要將機器設定為法律主體,在理論上要么改變法律是人的行為規(guī)范的基本范疇,要么就必須重新界定法律上人的概念。顯然,目前都不可能直接作出這兩種選擇。在這樣的條件下,要從著作權法上解釋AIGC的產(chǎn)生過程,便只能歸因于人的創(chuàng)作行為了。盡管這種處理方式存在目的導向之嫌,但從制度成本的角度看,這可能是最經(jīng)濟的路徑。
為了說明人工智能系統(tǒng)被視作人類創(chuàng)作工具的基點,有必要弄清楚人類和人工智能技術在AIGC產(chǎn)生過程中分別發(fā)揮了何等作用。當下的生成式人工智能系統(tǒng)無一不是在特定的算法之下通過大量數(shù)據(jù)訓練或學習而變得“聰明”的。當然,算力在這里也是重要因素之一,但這或與硬件關系密切。在這里,數(shù)據(jù)和算法或居于核心地位。在人工智能系統(tǒng)中,算法往往表現(xiàn)為人類根據(jù)既有的知識、規(guī)則和邏輯體系事先設置的一系列指令的集合,用于實現(xiàn)計算、處理數(shù)據(jù)或推理等目的。這種意義的算法既包括作為計算機運行的底層系統(tǒng),也包括該模型試圖解決的應用層面的規(guī)則。比如,作為語言交互目的的人工智能系統(tǒng)至少應當將特定語種的基本詞匯、語法、讀音乃至語氣等植入其中,否則便無法與用戶進行對話。同樣地,要生成用于商業(yè)目的的文章、圖片及視頻等,撇開各種媒體的相關要求,從法律的角度看至少需將著作權法相關規(guī)范植入算法,以防止生成的內容直接利用他人具有獨創(chuàng)性的表達,從而導致侵權??梢?,算法對著作權規(guī)則的理解是否到位,直接關系到生成內容是否侵犯在先作品的著作權。數(shù)據(jù)則在算法的作用下被分解、整理,最終成為大模型自己的知識庫的一部分。處理數(shù)據(jù)的過程同時也是大模型學習的過程。被處理的數(shù)據(jù)越多,模型在輸出或生成內容時就顯得越“聰明”。當然,數(shù)據(jù)質量的高低也直接影響模型學習后水平的提高程度。AIGC即是按照算法所確立的各類規(guī)則,將若干被分解、整理后的數(shù)據(jù)元素進行重新組合后的輸出。從著作權法角度對其進行審視,這些輸出內容的外在形態(tài)與作品無異,以致由人腦來審查AIGC本身往往無法判定其與人類創(chuàng)作的作品的差異。
人類之所以難以判定AIGC與人類自身創(chuàng)作的差異,歸根結底在于人腦對大數(shù)據(jù)的處理能力極其有限。人腦與電腦相比,最大的弱點在于人腦有遺忘效應。當數(shù)據(jù)量過萬,人腦往往就難以全部記住。對電腦而言,即使是過億的數(shù)據(jù)量,只要有足夠的存儲空間,都可以“過目不忘”。這一差異反映在作品獨創(chuàng)性判定上,就表現(xiàn)為人腦和電腦對于有限表達的判定完全不同。當某種思想的表達有上萬種,對人腦而言,則將其視作表達無限,進而認定特定表達具有獨創(chuàng)性。但對于電腦,這當然屬于有限,只要算力足以支撐,萬億種表達也是可以處理的。所以,AIGC在理論上仍是有限表達的一種,只是這里的有限數(shù)量超過了人腦的處理能力,以至于在人腦看來已經(jīng)具備了獨創(chuàng)性。例如,一部中文長篇小說,由于漢字的數(shù)量是有限的,小說的篇幅也是有限的,因此哪怕長達百萬字,其組合在數(shù)學上也是有限的。
從本質上講,AIGC引發(fā)了我們對創(chuàng)作或創(chuàng)造概念的重新認識。通觀全球各國的著作權法,無論是作者權體系還是版權體系,無不要求創(chuàng)作行為中應當包含創(chuàng)造性,即便只有一點“創(chuàng)造性火花”。法國人所稱“小硬幣”或者美國人所稱的“最低限度創(chuàng)造性”都是對作品創(chuàng)作或者作品獨創(chuàng)性要件的說明??梢?,作品應當具備創(chuàng)造性是世界各國的共識。但這并不能解決AIGC所提出的以下問題:是否只有徹底的“無中生有”才被叫作創(chuàng)造?只要組合的可能選擇多到僅以人腦不易處理,對現(xiàn)有要素的組合是否也可被視作創(chuàng)造?當人工智能技術被普及時,當任何人都可以通過人工智能系統(tǒng)非常容易地生成各種內容時,創(chuàng)作或創(chuàng)造的概念是否需要更新?另外,當AIGC不再稀缺時,它還是財產(chǎn)嗎?其是否需要用法律手段加以保護?這些問題都有待我們回答。
馮曉青:
“創(chuàng)作”在著作權法中具有舉足輕重的地位。我國現(xiàn)行《著作權法》中提及“創(chuàng)作”就有19處之多。《著作權法實施條例》第3條第1款、第2款規(guī)定:“著作權法所稱創(chuàng)作,是指直接產(chǎn)生文學、藝術和科學作品的智力活動?!薄盀樗藙?chuàng)作進行組織工作,提供咨詢意見、物質條件,或者進行其他輔助工作,均不視為創(chuàng)作。”我國《著作權法》1990年頒行以來已修改多次,盡管沒有直接規(guī)定創(chuàng)作行為對于獲得著作權的意義,但通過強調作者是首要的著作權人,以及規(guī)定“為謀取個人名利,在他人作品上署名的”屬于“應當根據(jù)情況,承擔停止侵害、消除影響、賠禮道歉、賠償損失等民事責任”的侵權行為,間接地肯定了著作權法保護的是基于作者的創(chuàng)作行為產(chǎn)生的作品?,F(xiàn)行《著作權法》第9條和第52條第3項即作了相應的規(guī)定。
對于著作權法中“創(chuàng)作”的認識和研究,離不開另一個關鍵性概念——“作者”。所謂作者,就是創(chuàng)作作品的人。結合前述《著作權法實施條例》關于創(chuàng)作的概念界定,可以將作者進一步定義為直接從事產(chǎn)生文學、藝術和科學作品的智力活動的人。從作品創(chuàng)作實踐和各國著作權法的一般規(guī)定來看,能夠成為作者的一般是自然人。這與發(fā)明創(chuàng)造實踐以及各國專利法規(guī)定關于發(fā)明人(或者設計人)只能是自然人的情形有異曲同工之妙。但也應看到,隨著法人概念的提出和法人制度的出現(xiàn),將法人或者非法人組織視為作者的立法例和實踐也已出現(xiàn)。我國現(xiàn)行《著作權法》第11條第3款即規(guī)定:“由法人或者非法人組織主持,代表法人或者非法人組織意志創(chuàng)作,并由法人或者非法人組織承擔責任的作品,法人或者非法人組織視為作者?!边@類作者在著作權法理論上又被稱為“擬制作者”。擬制作者顯然不是作者的主要形式,并且需要滿足嚴格的條件,即由擬制作者(法人或者非法人組織)主持、代表其意志創(chuàng)作并由其承擔責任三個條件缺一不可。即便是擬制作者,也是由具有生命的自然人組成的,在本質上依然是自然人創(chuàng)作的體現(xiàn)。
從著作權制度的發(fā)展來看,創(chuàng)作手段的不斷豐富,是受著作權保護客體不斷擴張、著作權保護內容也日益豐富的重要原因。例如,在攝影技術出現(xiàn)后,人們能夠通過照相機創(chuàng)作攝影作品,豐富了藝術作品的表現(xiàn)形式。在錄音錄像技術出現(xiàn)后,視聽作品逐漸被納入著作權客體的范疇。近些年來,隨著信息網(wǎng)絡技術及其產(chǎn)業(yè)的發(fā)展,“用戶生成內容”(UGC)逐漸普遍,使得“人人成為作者”更加便利。總體上看,創(chuàng)作手段的不斷豐富是以相關技術不斷發(fā)展和進步為標志的。技術發(fā)展和進步,不僅使人們的創(chuàng)作變得更加便利、效率更高,而且能夠創(chuàng)作未曾有的新的作品類型。這自然在一定程度上體現(xiàn)了前述技術發(fā)展對知識產(chǎn)權制度的影響。
然而,在人工智能技術特別是生成式人工智能技術發(fā)展和應用之前,無論技術發(fā)展對于創(chuàng)作的影響有多大,也脫離不了技術作為人類創(chuàng)作手段和工具的屬性。生成式人工智能的出現(xiàn)對“創(chuàng)作”的挑戰(zhàn)可謂具有革命性,因為人們利用生成式人工智能可以輕而易舉地生成具有很高專業(yè)和技術含量的形形色色的作品。在生成式人工智能運用背景下,人們可以利用生成式人工智能批量地自動生產(chǎn)作品。近年騰訊公司主張侵權救濟的人工智能生成作品著作權侵權糾紛案就是體現(xiàn)。
隨著近年來生成式人工智能的迅猛發(fā)展,人工智能用戶借助于人工智能,通過輸入主題詞、參數(shù)和不斷進行調整等方式獲得最終令自己滿意的作品的行為日益普遍。這尤其體現(xiàn)于國外的ChatGPT以及我國“文心一言”等生成式人工智能平臺。前述北京互聯(lián)網(wǎng)法院判決并生效的“李某與劉某侵害作品署名權和信息網(wǎng)絡傳播權糾紛案”就是這方面的典型例子。這類糾紛案件盡管數(shù)量還極少,但其意義是深遠的,深刻反映了生成式人工智能技術發(fā)展對著作權法中創(chuàng)作概念和相應的作者概念及其認定的嚴重挑戰(zhàn)。這些挑戰(zhàn)也對如何修改和完善現(xiàn)行著作權制度、如何從制度設計方面優(yōu)化現(xiàn)行制度提出了嶄新的時代命題,值得深入研究和探討。
關于生成式人工智能對著作權法中創(chuàng)作概念和認定的影響,我認為需要認識到這種創(chuàng)作環(huán)境下“創(chuàng)作”的新內涵和方式。毫無疑問,在前述明確人工智能生成作品符合著作權客體條件、能夠受到著作權法保護的前提下,這種作品的創(chuàng)作離不開操作人工智能的用戶和人工智能本身。至于設計生成式人工智能的技術人員以及開發(fā)人工智能的投資者均應當排除在外。因為根據(jù)前述關于《著作權法》中創(chuàng)作的定義,他們都不直接從事產(chǎn)生文學、藝術和科學作品的智力活動。這樣一來,界定人工智能生成作品的創(chuàng)作行為只能從操作人工智能的用戶和人工智能本身兩方面尋求答案。如前所述,作者是創(chuàng)作作品的人,關于生成式人工智能對創(chuàng)作的挑戰(zhàn),最終還是需要回到“誰是人工智能生成作品的作者”這一關鍵問題上來。
從國內外現(xiàn)有關于界定人工智能生成作品的作者的觀點看,主要有以下幾種。一種觀點基于人工智能生成作品來自于人工智能本身,操作人工智能的用戶只是通過提問和選定主題詞及參數(shù)等“引誘”人工智能生成自身需要的作品而不能視為作者,進而主張應將人工智能擬制為作者。該類觀點還注意到國外有賦予人工智能本身以“電子人”身份的先例。國內的騰訊案件也是在人工智能生成的作品上署了所取的人工智能的名字。另一種觀點則反對賦予人工智能作者身份,主要理由是根據(jù)通常的法律主客體分離的基本法理,認為人工智能只是人類創(chuàng)作的工具,其不可能成為作者或者被視為作者。這種觀點通常認為,應當將操作人工智能的用戶視為人工智能生成作品的作者,如前述北京互聯(lián)網(wǎng)法院案例就是如此。當然,也有個別觀點主張,鑒于人工智能生成作品是“人機結合”的產(chǎn)物,可以視為用戶與人工智能“合作創(chuàng)作”的作品。
對于上述觀點,我認為不能籠統(tǒng)地主張人工智能為作者或用戶為作者,或者二者為合作作者,而是應當基于在人工智能生成的作品中自然人(及其所在的法人或者非法人組織)所發(fā)揮的具體作用具體分析。在涉及基于人工智能生成作品的創(chuàng)作和作者以及相應的著作權歸屬問題上,我認為在制度設計上可以作如下考慮。
其一,對于類似于騰訊公司案件中的在單位開發(fā)出生成式人工智能后,通過相對固定的算法和設計,運用該人工智能自動生成的批量性質的作品,可以按照該案中類似法人作品的界定路徑,將著作權歸屬判定為屬于法人,同時將人工智能明確為非著作權法主體意義上的“作者”,并通過體現(xiàn)人工智能“作者”身份的強制署名,向社會公眾告示該作品乃基于人工智能自動生成,以便于和自然人創(chuàng)作的作品進行區(qū)分。這類作品,實際上缺乏著作權意義上作為自然人或者自然人集合(法人或者非法人組織)的作者,而只有人工智能這一“名義作者”。這正是人工智能技術發(fā)展背景下人工智能生成作品作者身份及其界定的特殊性所在。這一特殊性決定了既不能完全按照傳統(tǒng)著作權法的原理(作者只能是擁有生命的自然人)確定作者身份,也不能完全按照現(xiàn)行《著作權法》規(guī)定來確定作者。基于此,未來應對《著作權法》相關規(guī)定進行修改,以適應人工智能技術發(fā)展需要。
其二,對于類似前述北京互聯(lián)網(wǎng)法院判決案例的人工智能生成作品,由于作品并非人工智能自動生成,而是用戶通過多次提問、設置和調整參數(shù)以及反向排除等多種手段才最終獲得,這類人工智能生成作品中用戶基于提問、安排、取舍、誘導等行為而體現(xiàn)出對作品個性化表達的成分,可以將用戶視為人工智能生成作品的作者?;诖耍@類作品公開和傳播時,可以在作品上將用戶署名為作者。
但應當指出,第一,正如北京互聯(lián)網(wǎng)法院所判決的一樣,要求在作品公開和傳播時表明該作品系借助于人工智能所完成,而不能僅署名用戶,以至于其他任何人難以獲悉該作品系借助于人工智能生成的。這一做法,既符合誠實信用原則,也便于區(qū)分人工智能生成作品與自然人獨立創(chuàng)作的作品,防止人工智能生成作品公開和傳播對正常的作品市場及流通秩序造成負面影響。關于上述要求,應注意用戶署名和基于人工智能獲得的聲明應當被置于相鄰位置,防止突出用戶署名而變相隱匿借助于人工智能生成的信息的情況發(fā)生。
第二,對于操作人工智能的用戶通過過于簡單的提問、提示和調整而產(chǎn)生的人工智能生成作品,應當進行特殊考慮。從前述著作權法保護作品的獨創(chuàng)性要件來說,這種情況并不滿足獨創(chuàng)性要件,缺乏作者個性化表達的因素和貢獻,此時用戶不宜被視為作者。但也應看到,法律制度的實施需要考慮可操作性和經(jīng)濟成本。在社會觀念和改革后的著作權法接納人工智能生成物作為受著作權保護的作品的背景下,要排除上述情況中用戶的作者身份,可操作性問題較大。綜合權衡,一方面,可以考慮賦予其作者身份,同時通過侵權責任等相關制度設計予以制約和限制;另一方面,可以考慮鄰接權保護方式。
第三,在明確用戶作為作者并可以署名的前提下,由于人工智能生成作品要公開和傳播才具有實質性的法律意義,在人工智能生成作品的情況下,需要進一步明確用戶在作品上署名可能承擔的侵害著作權的法律責任風險。這與法理學上權利義務一致性原理相符。因為該原則要求,用戶不能只享有借助于人工智能獲得人工智能生成作品的作者身份和相應的著作權,卻不對可能存在的著作權侵權風險承擔責任。
張平:
生成式人工智能對“創(chuàng)作”帶來的挑戰(zhàn)存在于多種場景,如人工智能繪畫、人工智能音樂創(chuàng)作、人工智能劇本編寫等,都對傳統(tǒng)的“創(chuàng)作”人員構成威脅。例如,利用人工智能繪畫工具很容易將個人肖像轉化為動漫形式,由此很容易形成許多改編的影視作品。再如,數(shù)字人可以進行數(shù)字分身,許多演員可用真人替身,以及文字作品的有聲化、實時翻譯及機器同聲傳譯等,導致復制與演繹行為的邊界越來越不清晰。這些問題都是對著作權法基本原理的挑戰(zhàn)。
就制度設計建議而言,首先,可以考慮為人工智能創(chuàng)作制定特殊的標識義務,如為人工智能創(chuàng)作的作品設立獨特的標識,以區(qū)分人類和人工智能的創(chuàng)作。這可以幫助公眾明確作品的來源,同時保護消費者和使用者的權益。其次,應當對人工智能創(chuàng)作作品的著作權進行重新配置,可能包括建立多方權益共享機制。例如,可以考慮將人工智能創(chuàng)作的作品著作權分配給人工智能開發(fā)者、數(shù)據(jù)提供者和使用者,并建立相應的利益分配機制。最后,可以通過“署名和著作權相分離”的方式來明晰權利歸屬、定分止爭,也即人工智能作品著作權的歸屬可以通過聲明、版權登記確認、標注等方式歸屬給投資人、開發(fā)者或使用者(用戶)等。這種將署名和著作權分離的做法突破了現(xiàn)行著作權法中“在作品上署名的視為作者,進而推定為著作權人”的規(guī)則。如果著作權法稍作調整,署名與著作權的歸屬分離完全可以得到法理上的支持,既符合著作權法中規(guī)定的署名是對“創(chuàng)作者”的宣示作用,同時也符合民法上的誠實信用原則,宣示是人工智能生成作品。此時給人工智能署名并不意味著給它人格或法律主體地位,署名應當是一種標識,表明作品出處,是一種客觀事實的反映。
面對生成式人工智能技術的挑戰(zhàn),考慮如何進行制度設計不僅需要對現(xiàn)行著作權法進行深入分析和適應性改革,還需要技術、社會和法律多方面的合作,以實現(xiàn)對人工智能創(chuàng)作的合理規(guī)制和保護。
熊琦:
從技術上看,人工智能技術其實在20世紀60年代即已被提出和展開研究,但由于硬件算力的不足和大數(shù)據(jù)技術尚未跟上,其技術方案難以實現(xiàn),并未對社會產(chǎn)生巨大影響。進入21世紀后,隨著硬件算力的顯著提升,以及互聯(lián)網(wǎng)帶來的大數(shù)據(jù)技術和產(chǎn)業(yè)繁榮,人工智能的訓練效果突飛猛進,最終形成了今天的產(chǎn)業(yè)態(tài)勢。
但技術的勃興未必需要法律的顛覆性調整。發(fā)達國家和地區(qū)的管理機構與研究機構在近年來關于生成式人工智能知識產(chǎn)權問題的相關報告中,都不約而同地認定現(xiàn)有著作權規(guī)則無需進行結構性調整,完全能夠應對現(xiàn)階段人工智能的挑戰(zhàn)。在創(chuàng)作的來源和認定標準上,更是毫不懷疑地堅持只有自然人才能創(chuàng)作的底線認知。德國馬克斯-普朗克創(chuàng)新與競爭研究所在2021年發(fā)布的一份關于人工智能的立場聲明中提出,版權被認為是一個本質上以人類為中心的法律領域,根據(jù)目前的知識狀況,為人工智能生成內容而創(chuàng)設新的保護制度是不合理的。美國版權局在2023年發(fā)布的《人工智能參與生成作品的版權登記指南》中也提出,“享有作者資格的作品,必須由人類創(chuàng)造”,“由機器創(chuàng)作的作品,或純粹由機械過程隨機或自動生成的作品,如果沒有任何人類作者的創(chuàng)造性貢獻或干預”,就不應進行版權登記。致力于提升全球版權保護水平的國際保護知識產(chǎn)權協(xié)會(AIPPI)早在2019年大會上通過的《人工智能生成物的版權問題決議》中也聲明,只有人類才能擁有作者身份,無論是機器、計算機還是人工智能,都不得視為作者。借助機器且以自動運行的機械過程所生成的內容,因為其中缺乏人類智力活動的參與,該內容不得被視為作品。同時,來自全球版權產(chǎn)業(yè)的會員也一致認為,現(xiàn)有著作權法足以應對來自人工智能生成內容的挑戰(zhàn),無需專門設計全新的制度來解決問題。
之所以堅持既有的著作權規(guī)范,主要是基于兩個原因。從規(guī)范層面出發(fā),在人工智能生成內容的可版權性認定中堅持自然人對獨創(chuàng)性的貢獻,是維持確權和侵權體系穩(wěn)定的需要。如果將人工智能視為著作權主體,未來在權利變動的意思表示來源及侵權責任認定的對象等問題上,機器都將與人享有同樣的法律地位和資格。如何認定機器的真實意思,如何考量機器在侵權行為中的主觀過錯,都是現(xiàn)行法律體系無法解決的問題。從效用層面出發(fā),只有自然人才需要著作權法的激勵來進行更多更好的創(chuàng)作和傳播。無論是機器還是人工智能,其工作效果都不會因為被生成的內容是否受到保護而改變。生成內容的質量取決于人工智能算法和訓練的質量,更與訓練輸入的內容質量相關。將著作權賦予自然人,可保障著作權繼續(xù)激勵人工智能的設計者與所有者對硬件和訓練數(shù)據(jù)的投資以及對算法的改進。
張吉豫:正如之前所言,生成式人工智能帶來了新的“創(chuàng)作”方式,也具有使“創(chuàng)作”進一步普及化的潛力,整體而言有利于增進人類福祉。當然,不同的具體應用情況或不相同,需要具體問題具體分析。從當前的文生圖等應用來看,結合“創(chuàng)作”的問題,我有如下一些基本想法。
首先,創(chuàng)作的方式是不斷發(fā)展的,我們不應當固守對于傳統(tǒng)“創(chuàng)作”模式的認識?;蛟S使用人工智能進行創(chuàng)作短時間內難以被社會普遍接受為一種創(chuàng)作方式,就像攝影是否為創(chuàng)作,也曾受到質疑。產(chǎn)業(yè)的發(fā)展需要和更大范圍的實踐帶來的認知變化,共同為攝影作品得到著作權法認可奠定了基礎。相比攝影,或許使用人工智能進行創(chuàng)作與傳統(tǒng)觀念中的創(chuàng)作具有更大差別。相信隨著更多人真正以創(chuàng)作為目的使用人工智能之后,社會也可能在觀念上認可使用人工智能生成內容構成創(chuàng)作。
其次,創(chuàng)作的普及化、大眾化是有利于促進文化繁榮的。過去我們看到,數(shù)字化技術和互聯(lián)網(wǎng)的發(fā)展,使攝影、攝像、圖片和視頻編輯等曾經(jīng)成本較高的創(chuàng)作領域的創(chuàng)作和傳播成本都大幅度降低,極大地推動了相應領域的創(chuàng)作。當然,成本的降低,必然會使大量“低質量”的內容出現(xiàn),正如我們每個人的手機里恐怕都留存著大量我們自己也不愿意稱為“作品”的照片,但這并不影響攝影能夠成為創(chuàng)作出優(yōu)秀作品的一種方式,也不會因此否定攝影作品作為一個作品類別。創(chuàng)作的普及化也不斷推動著公眾的審美和創(chuàng)作的提升。一種觀點認為,一個人沒有經(jīng)過美術訓練就能產(chǎn)生美術作品是荒謬的。我認為,這恰恰是使用人工智能創(chuàng)作的積極意義之一,可以使更多的人將自己的創(chuàng)作激情和設想轉化為能夠看到的實在作品。Remix等創(chuàng)作方式對于社會的價值很大一部分也在于此。激勵這類創(chuàng)作方式,并不是對傳統(tǒng)創(chuàng)作方式的排斥,而是擴展了一種人類創(chuàng)作的可能性。當然,也同樣需要考慮對其他創(chuàng)作方式的影響。但目前并沒有看到實際證據(jù)表明,認可使用人工智能生成內容構成創(chuàng)作會明顯影響傳統(tǒng)創(chuàng)作方式。
因此,在著作權法框架下開展關于人工智能生成作品的制度設計之時,需要認真考慮制度對于使用者創(chuàng)作的影響,考慮如何對創(chuàng)作進行激勵。創(chuàng)造性的活動是人類美好生活的要素之一。在認可使用人工智能生成的內容構成著作權法保護的作品時,著重考慮的并不只是人工智能產(chǎn)業(yè)的利益和發(fā)展,還同樣包括這種新的創(chuàng)作方式能夠帶來的對于更廣范圍的個體創(chuàng)作意愿的滿足,以及進而對社會文化的促進。
此外,使用者應誠信說明自己的創(chuàng)作方式?!渡墒饺斯ぶ悄芊展芾頃盒修k法》規(guī)定了提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對圖片、視頻等生成內容進行標識,對于一般內容可以采用不影響用戶使用的標識,對于可能導致公眾混淆或誤認的一些特定內容則需要依法進行顯著標識。這也為公眾獲知創(chuàng)作方式提供了一定的條件。
4
張凌寒:目前支持賦予AIGC著作權保護的決定和案例,本質上是認為應當對人工智能生成內容予以一定程度的法律排他性保護。但是,除了著作權之外,是否有其他制度選擇,如鄰接權、財產(chǎn)權抑或其他路徑?
郭禾:
從世界范圍看,有關國家近期分別出現(xiàn)了涉及AIGC的爭議案例或事例。約三個月前,北京互聯(lián)網(wǎng)法院有關案件的判決對AIGC在知識產(chǎn)權法中的地位給予了肯定回答。但美國國會圖書館對于以作品形態(tài)申請版權登記的AIGC卻給出了拒絕登記的答復。與之類似,澳大利亞知識產(chǎn)權局駁回了申請人就AIGC提出的專利申請。如前所述,站在市場經(jīng)濟的角度肯定AIGC的財產(chǎn)地位是必然的。具體采用何種方式保護該類財產(chǎn),前面已經(jīng)述及最為經(jīng)濟的方式是借鑒知識產(chǎn)權模式。至于采用專利權還是著作權,則要根據(jù)保護對象的屬性而定。如果AIGC屬于技術方案,則適合專利法;若為非實用的符號組合,則適用著作權法。
關于能否采用鄰接權模式保護AIGC,從理論角度看答案是肯定的。因為鄰接權制度本就是歐洲作者權體系著作權法中的一部分,其運行機制與關于作品的權利并無本質差異。而在版權體系中,相關國家的版權法則將鄰接權完全與作者權合并,不再區(qū)分鄰接權與作品的權利。所以適用鄰接權保護AIGC只是法律技術的細節(jié)問題,并可以在一定程度上緩和關于AIGC獨創(chuàng)性的爭議。但從財產(chǎn)權的角度看,這一爭議無關緊要。究其原因非常簡單,前面關于有限表達不具有獨創(chuàng)性的討論已經(jīng)說明,那些在自然人看來具有獨創(chuàng)性的AIGC有可能在事實上仍是有限表達的一種,只是該有限表達的數(shù)量已經(jīng)超過人腦可處理的數(shù)據(jù)量上限,比如三十億?,F(xiàn)實中一些自然人完成的、已經(jīng)被貼上具有獨創(chuàng)性標簽的表達,很可能有朝一日被證明這類表達只有三十億種,難道屆時還要反過來否定其獨創(chuàng)性,進而否定以前已經(jīng)給予的著作權保護?答案當然是否定的。市場的力量最終會“逼著”社會承認AIGC的地位。
馮曉青:
如前面所討論的,人工智能生成內容獲得法律保護應當是沒問題的。法律保護人工智能生成內容,不僅體現(xiàn)了法律制度適應人工智能技術及其產(chǎn)業(yè)發(fā)展的需要,而且反映了人工智能生成內容在當代經(jīng)濟社會生活中的重要價值?!緟⒁婑T曉青:《數(shù)字時代的知識產(chǎn)權法》,載《數(shù)字法治》2023年第3期;馮曉青:《數(shù)字環(huán)境下知識產(chǎn)權制度面臨的挑戰(zhàn)、問題及對策研究》,載《社會科學戰(zhàn)線》2023年第9期?!咳绻挥枰苑杀Wo,這一般意味著人工智能生成內容直接進入公共領域,可以由任何人自由利用。即便如此,也并不意味著法律對于人工智能生成內容不予以調整和規(guī)制,這是因為人工智能生成內容一旦公開和傳播,就會對社會生活產(chǎn)生影響。如果人工智能生成內容涉嫌違反國家法律、社會公德或公共利益,也應當受到法律的規(guī)制。實際上,《生成式人工智能服務管理暫行辦法》即對生成式人工智能服務和管理事宜作了規(guī)定。
在承認人工智能生成內容應予以法律保護的前提下,關于是否應賦予其法律的排他性保護,個人認為答案是肯定的。具體而言,如前所述,對于人工智能生成作品,由于其符合受著作權保護的客體的要件,可以給予著作權保護。相關理由不再重述。當然,在學術研究中,也有觀點主張著作權法中的鄰接權保護。由于我國《著作權法》既保護著作權,也保護鄰接權,因此對于鄰接權保護的途徑也有必要探討。從著作權法原理看,鄰接權保護和著作權保護既有密切聯(lián)系,也有重要的差別。就二者的差別而言,在對作品的保護上,鄰接權保護的要求較低,并不要求滿足作品的獨創(chuàng)性要件。從國外立法看,德國著作權法對于攝影作品即規(guī)定,滿足獨創(chuàng)性要件的攝影作品給予著作權保護,反之則給予鄰接權保護。就人工智能生成內容而言,上述原理應當同樣適用。具體來說,對于前述類似于騰訊案件中完全由人工智能生成的“作品”,缺乏用戶投入創(chuàng)作作品中的個性化表達,相應地也缺乏自然人創(chuàng)作行為,但開發(fā)人工智能的單位付出了相關的投資、智力勞動和時間,給予鄰接權保護具有相當?shù)暮侠硇?。至于不分任何情況,一律將人工智能生成作品納入鄰接權保護則不夠合理,因為這樣無法體現(xiàn)和反映操作人工智能的用戶的獨創(chuàng)性勞動,無法以著作權法之激勵機制鼓勵充分使用人工智能造福于社會和文化進步。
關于人工智能生成內容的法律保護,除了上述著作權、鄰接權保護模式外,一般財產(chǎn)權或者財產(chǎn)權益保護也同樣值得考慮。人工智能生成內容承載了一定的財產(chǎn)化利益,在利用人工智能生成內容時,不排除涉及不正當競爭行為的可能,因此在一定條件下也可以受我國《反不正當競爭法》的規(guī)制。當然,由于生成式人工智能在我國剛剛興起,目前這方面案例并不多見。關于人工智能生成內容的《反不正當競爭法》規(guī)制問題,不僅有待于司法實踐中總結經(jīng)驗,而且有待根據(jù)人工智能發(fā)展狀況作出前瞻性的研究。
張平:
結合AIGC的特性,可以根據(jù)AIGC是否具有獨創(chuàng)性以及獨創(chuàng)性的程度高低,視具體情形設計AIGC的著作權保護路徑、鄰接權保護路徑及反不正當競爭法保護路徑等方案,實現(xiàn)對AIGC的多元化保護。
首先,若能滿足獨創(chuàng)性要求,狹義著作權保護路徑是保護人工智能生成內容的最優(yōu)選。作為一種專門保護表達的權利,著作權權利內容比較完整,如發(fā)表權、署名權、保護作品完整權、復制權和發(fā)行權等權利,時限也長達作者終身外加去世后50年。著作權法與科技發(fā)展密切相關,著作權內容的延展體現(xiàn)了對科技進步的容納性,人工智能技術也應驅動著作權法的發(fā)展。
其次,相比狹義著作權更為靈活的著作鄰接權可以為一些不符合著作權保護標準但具有一定獨創(chuàng)性和市場價值的內容提供保護。鄰接權制度相比傳統(tǒng)的著作權制度有許多優(yōu)勢。例如,鄰接權的保護相對較弱,不像著作權那樣強調人格權。鄰接權也主要涉及財產(chǎn)內容,而不涉及人格利益。鄰接權的權能較著作權少很多,保護期也較短。這與人工智能生成的作品相對應,因為人工智能生成的作品不會有生命期限制。鄰接權對獨創(chuàng)性的要求不高,鄰接權制度的初衷是為了保護傳播者的投入,而不是獨創(chuàng)性的表達,因而鄰接權的客體是不構成作品的其他勞動成果。因此,與狹義著作權體系相比,鄰接權是一個開放的制度,可以根據(jù)本國國情的需要創(chuàng)設新的鄰接權類型。但鄰接權制度在設計上也存在一些困難:其一,若人工智能的“自主創(chuàng)作”以鄰接權保護,而與人類“共同創(chuàng)作”的作品可能適用著作權保護,二者難以區(qū)分;其二,鄰接權的權屬難以界定,鄰接權的初衷是保護傳播者的投入,但在AIGC的投資者、研發(fā)者和使用者之間難以確定權利歸屬。
再次,特殊財產(chǎn)權利制度可以應對權屬爭議,為非傳播者的正當利益提供保護。需要保護AIGC背后的行業(yè),因此也需要保護投資者。AIGC具有自身的價值,滿足財產(chǎn)權的核心構成要件。并且,AIGC比數(shù)據(jù)庫更具商業(yè)價值,數(shù)據(jù)庫的匯編與實質性投入對數(shù)據(jù)庫內容本身并未做修改,更沒有獨創(chuàng)性變更。而AIGC是基于大數(shù)據(jù)基礎上的加工分析處理,因此對其內容的保護程度不應當與數(shù)據(jù)庫權的保護程度一樣,理應設置不同的保護制度。
最后,無論如何,對于AIGC之上存在的未上升為權利但具備商業(yè)價值的經(jīng)濟利益應當予以保護,此時《反不正當競爭法》即可發(fā)揮規(guī)制不正當競爭行為、保護市場競爭秩序以及市場主體合法權益的作用。在法律對此未有明確規(guī)定之前,可先以《反不正當競爭法》第2條(“一般條款”)進行保護?!斗床徽敻偁幏ā坊蚩梢宰鳛橹R產(chǎn)權或其他商業(yè)成果類權利的“孵化器”,在特定的創(chuàng)新成果可能成為法定權利之前,先納入《反不正當競爭法》進行過渡性、嘗試性或實驗性的保護。將來能夠對其上升為權利或作為權利保護達成共識時,再適用具體的法律進行保護。
總體而言,針對AIGC的保護,需要綜合考慮獨創(chuàng)性要求、保護范圍和時限、侵權問題以及經(jīng)濟利益等因素,通過適當調整現(xiàn)有法律的適用范圍和標準來實現(xiàn)多元化的保護。
張吉豫:
如前所述,人工智能生成內容是一個比較廣闊的領域。從目前比較常見的一些文生圖等應用模式來看,相應的人工智能生成內容可以在著作權法框架下得到保護。著作權法能夠給予作者人格權意義上的身份認可以及產(chǎn)業(yè)上的經(jīng)濟激勵,并且給予著作權保護存在解釋空間,具有可行性,可以在不修改法律的情況下立即滿足使用者和產(chǎn)業(yè)的需求。同時,著作權法的“獨創(chuàng)性”“智力成果”“思想表達二分法”等要件和原則具有彈性調節(jié)的功能,可以令司法機關隨著產(chǎn)業(yè)和社會發(fā)展,進行合乎著作權法立法目的的解釋,針對新的情況調節(jié)合理的保護范圍。如果隨著進一步的觀察研究和司法實踐發(fā)展,可以論證確有設置特殊條款的必要性,則未來可以在著作權法中進行必要的修改。
在制度設計上,一般應當認定人工智能這一工具的使用者為作者。如果是研發(fā)人工智能的企業(yè)自己使用,或者提供給其他企業(yè)使用,則可以根據(jù)著作權法認定構成法人作品,即如果該作品系由法人或者非法人組織主持,代表法人或者非法人組織意志創(chuàng)作,并由法人或者非法人組織承擔責任,應將法人或者非法人組織視為作者。
主要考慮如下。首先,使用者是一個個具體作品產(chǎn)生的直接原因,很多高質量作品的生成離不開使用者的反復打磨,使用者也是前述繁榮社會文化、激勵創(chuàng)作等目的實現(xiàn)所應當激勵的主體。并且,如果是企業(yè)使用,則可以依據(jù)法律認定法人作品,并不影響相應情況下企業(yè)經(jīng)濟利益的實現(xiàn)。其次,生成式人工智能可能產(chǎn)生無限的表達,將權利“一攬子”賦予人工智能企業(yè),可能給予人工智能企業(yè)過多的對于內容領域的權利,不利于后續(xù)創(chuàng)作的豐富化、多元化。再次,生成式人工智能服務的提供者可以在與用戶的合約中約定著作權財產(chǎn)權的相關許可條款,進而根據(jù)具體的場景實現(xiàn)合理的利益分配,保障自身的權益。通常人工智能的提供者和使用者之間在合約制定中具有不對等性,將著作權默認分配給使用者,有利于利益平衡的實現(xiàn)和交易的達成。最后,將權利賦予使用者,能使其更有動力去審查、修改和調整,使用者也可以將自己的其他作品與一種甚至多種人工智能生成的作品進行融合,進行更豐富的創(chuàng)新,并將優(yōu)秀作品帶入公眾視野,進一步促進其傳播。
5
張凌寒:感謝各位老師的精彩回應。AIGC是否應予以著作權保護的后續(xù)問題,一定就是如果生成物侵害他人著作權,應如何認定用戶、大模型技術和服務提供者侵權責任。請問各位老師對此有何看法?
郭禾:
當AIGC與他人在先享有著作權的作品或者在先享有鄰接權的對象相同或實質性相同時,則涉及侵犯他人著作權。根據(jù)AIGC的產(chǎn)生過程,導致“相同或實質性相同”的情形至少可分為兩種:第一,大模型的用戶知道或者應當知道其指令可能讓系統(tǒng)生成與他人在先成果相同或實質性相同的AIGC,仍然輸入相關指令生成該AIGC并投入商業(yè)利用;第二,大模型在沒有針對特定人或物的一般指令下生成與在先成果相同或實質性相同的AIGC。
針對第一種情形,責任當然在大模型的用戶或者使用者。這就如同知道或應當知道自己的行為構成抄襲卻追求或放任抄襲結果發(fā)生并將抄襲結果投放市場一樣。只是這里的抄襲行為所使用的工具從手中之筆換成了人工智能系統(tǒng)而已。在這種情形下,用戶自當承擔侵權責任。
第二種情形相對復雜。在沒有過錯的前提下,用戶只要在得知侵權情況后停止相關行為,即可不承擔損害賠償責任。這時,相關責任即轉到了大模型提供者身上。但在責任承擔問題上仍需區(qū)分知識產(chǎn)權請求權下的相關責任和損害賠償責任兩類不同的責任形態(tài)。關于第一類,停止侵害之類的禁止令在適用時無需考察行為人的主觀心理狀態(tài),但必須是行為人經(jīng)過努力能夠達到的目標。第二類損害賠償責任則需要判定大模型提供者是否存在過錯。顯然,這里涉及大模型提供者在開發(fā)人工智能系統(tǒng)時的注意程度問題。只要開發(fā)者盡到了應有的注意義務,就可以免除其賠償責任,只是注意程度的高低需要由行業(yè)專家根據(jù)該行業(yè)技術發(fā)展狀況加以確定。當然,模型提供者與使用者之間也可以通過協(xié)議約定相關責任分擔問題,只是該協(xié)議必須符合公平、自愿等原則才能確保協(xié)議的有效性。
馮曉青:
從理論上說,人工智能生成內容涉及的著作權侵權等問題,既包括人工智能生成作品之類的內容被他人侵害,也包括人工智能生成內容侵害他人著作權或者其他民事權利。其中,前者反映的是人工智能生成內容所有者自身維權的問題,前述騰訊公司案、北京互聯(lián)網(wǎng)法院的“李某與劉某侵害作品署名權和信息網(wǎng)絡傳播權糾紛案”就是如此。對這一問題的解決自然需要結合個案,認定涉案人工智能生成內容是否符合受著作權保護的作品的要件以及在符合該要件的前提下相應的作品著作權歸屬,進而判定被訴侵權行為是否成立。后者則是這里需要著重探討的問題。對此,應當區(qū)分不同主體行為的性質,明確相關主體是否存在主觀過錯以及行為相應的后果。
具體而言,在涉及人工智能生成內容侵害他人著作權的案件中,用戶承擔侵害著作權的法律責任是值得首先考慮的重要對象,原因如下。第一,用戶是人工智能生成內容的直接完成者。根據(jù)前面的探討和現(xiàn)行司法實踐的觀點,在用戶涉及個性化表達、對人工智能生成內容的獨創(chuàng)性作出了實質性貢獻的前提下,用戶甚至可以被認定為作者,相應地享有涉案人工智能生成作品的著作權。根據(jù)權利與義務相一致的基本法理,用戶也應承擔其公開享有著作權的作品侵害他人著作權的風險。第二,由用戶承擔侵害他人著作權的責任,有利于敦促用戶慎重公開和傳播,特別是以自己作為作者身份公開和傳播。當前總體上仍然屬于弱人工智能時代,在生成式人工智能出現(xiàn)和推廣后,用戶尚且能夠輕松地借助其生成作品,如果不將用戶行使著作權和承擔相應的侵權責任風險掛鉤,就不利于嚴格控制用戶隨意通過人工智能生成作品并以作者身份公開和傳播這類特殊作品,導致對現(xiàn)行自然人創(chuàng)作的市場造成沖擊。
在涉及人工智能生成內容侵害他人著作權的問題上,大模型技術提供者是否需要承擔相應的著作權侵權責任的問題也值得探討。從原則上說,大模型技術提供者只是為生成人工智能內容提供技術基礎,并不直接參與涉嫌侵害他人著作權的行為。但是,畢竟用戶是利用人工智能獲得生成內容的,在認定相關侵權責任時也并非絕對不考慮模型技術提供者?!痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》即對于互聯(lián)網(wǎng)信息服務深度合成作了具體規(guī)定,違反這些規(guī)定將要承擔相應的責任。
至于人工智能服務提供者,根據(jù)現(xiàn)有的人工智能服務與用戶之間的格式合同,人工智能服務提供者通常會對用戶利用其人工智能生成內容的權利歸屬和法律風險予以明確。如ChatGPT人工智能服務就是如此。對于服務提供者而言,這種做法或許首先考慮的是避免任何因為人工智能生成內容引發(fā)的法律風險。在這種情況下,即使出現(xiàn)人工智能生成內容侵害他人著作權的情況,也會由用戶承擔侵權責任。
當然,從一般意義上說,人工智能生成內容涉及的侵害他人權益,并不完全限于侵害著作權,也可能侵害其他民事權利。這一問題需要進一步研究。
張平:
面對生成式人工智能的新技術挑戰(zhàn),具體到侵權責任制度,應更重視預防損害的作用,而不是一味強調制裁從而抑制企業(yè)的創(chuàng)新動力。當出現(xiàn)AIGC侵權情況時,可能會存在多種可能,可能是用戶輸入了侵權內容導致生成內容侵權,也有可能是AIGC服務提供者在訓練數(shù)據(jù)環(huán)節(jié)輸入了侵權內容從而導致生成內容侵權。因此,就AIGC侵權問題而言,應當分階段、分環(huán)節(jié)、分主體進行討論。
一是訓練數(shù)據(jù)環(huán)節(jié),對服務提供者的侵權責任認定。
按照《生成式人工智能管理暫行辦法》,生成式人工智能服務提供者應當保證訓練數(shù)據(jù)的合法、真實、準確、客觀,但實踐中確實很難達到這一要求,只能是盡可能做到基本的注意義務,根據(jù)《民法典》《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》以及相關的知識產(chǎn)權法的規(guī)定并依照責任原則承擔事后的補償責任。
二是使用環(huán)節(jié),對用戶的侵權責任認定。根據(jù)用戶和服務提供者之間的協(xié)議,目前全球范圍內大多數(shù)AIGC服務提供者通常會將生成內容(Output)的權利轉移給用戶,繼而由用戶承擔責任,這符合權利、責任和利益相一致的原則。然而,鑒于生成式人工智能存在“算法黑箱”及其算法模型的復雜性,普通用戶缺乏對生成內容的預期,并難以理解其運作邏輯,實踐中往往會產(chǎn)生如郭禾教授所談到的更為復雜的第二種情況。在這種情況下,讓用戶承擔全部責任并不公平。因此,在侵權事件發(fā)生時,需考慮用戶是否“故意”、服務提供者是否存在“引誘侵權”以及服務提供者是否采取相關技術措施來識別侵權內容等諸多因素。此外,服務商和用戶之間的免責協(xié)議并不能對抗第三方,服務商還是可能要承擔共同侵權責任。
三是服務提供者的內容審查注意義務。
2020年,歐盟頒布了數(shù)字市場法(Digital Markets Act),首次確立了“數(shù)字守門人”制度。根據(jù)“數(shù)字守門人”理論,通用人工智能的提供者擁有信息生產(chǎn)和控制的重要職能,因此承擔著數(shù)字內容的監(jiān)督責任。這包括必須執(zhí)行內容審查義務,主動發(fā)現(xiàn)和處理違法或侵權內容。人工智能開發(fā)商或者服務商作為一個網(wǎng)絡平臺的構建者、控制者以及受益者,有義務確保人工智能服務平臺安全和合法合規(guī)地運行。服務提供者應對數(shù)據(jù)集進行識別和審查。服務提供者可以利用一些技術措施來識別訓練數(shù)據(jù)和用戶生成內容中是否有違法信息。
在內容生產(chǎn)不斷迭代和完善的背景下,數(shù)據(jù)輸出階段的提供者應建立投訴和舉報機制,以對用戶報告的涉嫌侵權的有害內容進行檢查。若確認內容確實侵犯了版權,提供者就有責任采取必要措施,如移除該內容并停止其生成,以避免侵權行為的再次發(fā)生。
熊琦:
在人工智能生成內容滿足作品構成要件的前提下,認定是否構成侵權以及由誰承擔侵權責任,首先需要確定人工智能生成內容的權利歸屬。與自然人創(chuàng)作作品不同,從內容生成的來源看,人工智能生成內容包括了人工智能軟件的設計者和使用者兩個渠道。
人工智能的設計者通過人工智能的核心代碼、訓練數(shù)據(jù)來源和偏好來影響未來所生成內容的風格,使用者則是通過輸入提示詞來調整所生成的內容。判斷究竟由誰享有著作權,仍然要回歸獨創(chuàng)性來源的判斷。使用者的提示行為,本質上就是對人工智能設計者主導的軟件提出要求。盡管人工智能的使用者通過輸入提示語來調整內容生成的方向,但由于提示語過于抽象且生成結果不可預測,使用者的提示更接近于建議,類似于雇用他人為自己創(chuàng)作,所以使用者不應被視為作者。從人工智能設計者的角度看,人工智能并非如自然人一般去理解語言或圖形的含義,而是通過對海量數(shù)據(jù)的學習來發(fā)現(xiàn)其中的規(guī)律,并以此生成內容。其中探尋規(guī)律和范式的方法,依賴于設計者如何選擇數(shù)據(jù)樣本以及如何標注算法反饋結果,所以把設計者視為作者是現(xiàn)階段更符合智力貢獻來源的判斷。在此基礎上,法院可以類推適用委托作品規(guī)則來處理。在無委托合同約定的情況下,著作權應由決定人工智能核心代碼、訓練數(shù)據(jù)來源和發(fā)展偏好的設計者享有。
另需注意的是,由于生成式人工智能技術尚在發(fā)展完善中,通過提示所獲得的內容可能與他人作品存在實質性相似的問題。為了避免此類著作權風險,提供生成式人工智能服務的平臺往往通過“最終用戶服務協(xié)議”來約定著作權的歸屬,如ChatGPT和Midjourney兩款人工智能都對使用者所生成內容的著作權歸屬作了明確約定。Midjourney的協(xié)議區(qū)分了付費與非付費用戶。針對付費用戶,Midjourney在格式條款中規(guī)定所生成內容的所有權利歸使用者享有。針對免費用戶,Midjourney則規(guī)定使用者不享有所生成內容的著作權,但Midjourney會通過“知識共享許可協(xié)議”(creative commons license)以非商業(yè)使用為限允許使用者自由使用。ChatGPT雖然并未區(qū)分付費和免費用戶,但同樣將所生成內容的所有權利讓與使用者,同時聲明所生成內容可能包含他人作品的風險以及用戶輸入類似提示可能生成同質化內容。這種將著作權讓與使用者和限制商業(yè)性使用的合同條款,旨在幫助人工智能設計者規(guī)避內容生成過程中可能出現(xiàn)的侵權風險。
然而,即使存在上述詳細的權利歸屬約定,也無法阻止法律爭議的大規(guī)模爆發(fā)。實踐中已有很多針對生成式人工智能設計者和平臺的侵權糾紛。在大量已發(fā)生的案件中,人們最為關注的是前面張平教授提到的紐約時報訴OpenAI和微軟案。原告紐約時報是版權產(chǎn)業(yè)最杰出的代表之一,也是“職業(yè)創(chuàng)造內容”的典范。被告OpenAI和微軟則是生成式人工智能的主流締造者和實踐者。原告紐約時報作為大量優(yōu)質原創(chuàng)作品的著作權人,起訴被告OpenAI和微軟在訓練人工智能模型時大量使用了上述作品,侵犯了原告的著作權。當然,這種大規(guī)模訴訟的出現(xiàn),并不意味著生成式人工智能設計者或者平臺一定存在侵權行為。只是每當新興產(chǎn)業(yè)開拓新興市場后,原市場中的權利人都會因既有市場遭遇沖擊和萎縮而奮起捍衛(wèi)自己的利益。從錄音制品到互聯(lián)網(wǎng)介入內容生成的時代,都一再證明了這種因果關系。但司法機構對相關案件的判決結果,卻可能在很大程度上重塑新舊產(chǎn)業(yè)之間的關系,甚至左右新興產(chǎn)業(yè)的發(fā)展。同理,以紐約時報訴OpenAI為代表的系列案件判決結果,將如同當年的決定錄像設備前景的索尼案和左右網(wǎng)絡服務提供者命運的Napster案一樣,為人工智能產(chǎn)業(yè)的發(fā)展帶來決定性的影響。因此,無論是在輸入端未經(jīng)許可利用作品訓練人工智能模型構成侵權還是合理使用,還是在輸出端生成的內容是否具有可版權性的認定,都會對尚未真正獲得盈利能力的人工智能產(chǎn)業(yè)發(fā)展態(tài)勢帶來重大改變。
張吉豫:
人工智能生成內容侵犯他人著作權的情況,需要在相關主體之間進行合理的責任劃分,促進最有效率的風險預防機制的實現(xiàn),并給予相應主體比較明確和穩(wěn)定的預期。生成式人工智能服務提供者應當根據(jù)我國《生成式人工智能服務管理暫行辦法》,建立健全投訴、舉報機制,接受公眾監(jiān)督,并在發(fā)現(xiàn)違法內容或者發(fā)現(xiàn)用戶從事違法活動時,依法采取相應措施。對于侵犯著作權的民事責任而言,可基于損害可能的范圍和主要因果關系,區(qū)分生成內容對他人著作權侵害的不同階段或形式來討論責任。
對于生成式人工智能服務向使用者提供侵權內容的情況,服務提供者一般應當承擔停止侵害的責任。對于損害賠償,則應以過錯責任為主,考慮提供者和使用者是否具有過錯。對基于使用者的提示詞生成侵權內容的生成式人工智能提供者而言,可以參考《最高人民法院關于審理侵害信息網(wǎng)絡傳播權民事糾紛案件適用法律若干問題的規(guī)定》中對于網(wǎng)絡服務提供者的過錯認定規(guī)則,考慮人工智能系統(tǒng)的性質、損害發(fā)生時該領域的技術發(fā)展水平、可以采取的必要措施及其成本和效果、系統(tǒng)使用規(guī)模等因素綜合確定。當提供者能夠證明自己已經(jīng)采取了符合損害發(fā)生時技術水平的必要措施來預防損害,但仍無法防止損害的發(fā)生,則應認定其不具有過錯。使用者也應當注意遵守法律,尊重他人的合法權益,正確使用人工智能系統(tǒng),不得故意誘導。如果使用者的行為導致侵權內容的生成,并具有過錯,則應承擔侵權責任。
對于使用者將侵權內容向外傳播的情況,使用者應承擔直接的侵權責任,傳播平臺則按照“通知—刪除”規(guī)則,在滿足相關條件時可免除損害賠償責任;但若明知或應知侵權行為的發(fā)生卻未采取必要措施,則構成共同侵權。具體情況需結合個案進行判斷。
[責任編輯 榮圓夢]