王仲昀
AI根據(jù)提示詞生成的圖片:戴著VR眼罩的女孩。
AI的進化速度遠超預(yù)期! Sora強大的視頻生成能力,在令I(lǐng)T界、藝術(shù)界和科技愛好者感到興奮的同時,也難逃人類對于最新科技成果的擔(dān)憂。
影視業(yè)也許是最先直面Sora挑戰(zhàn)的行業(yè)。有從業(yè)者表示,可以預(yù)見的是,隨著Sora普及,草根導(dǎo)演會出現(xiàn),中基層的創(chuàng)作群體會很容易被洗牌。除了產(chǎn)業(yè)格局存在被重塑的可能性,Sora是否會進一步對傳統(tǒng)道德倫理及既定法律法規(guī)產(chǎn)生沖擊?為此,《新民周刊》記者采訪了關(guān)注人工智能的法律學(xué)者與從業(yè)律師。他們分享了各自眼中的擔(dān)憂與期許。
Sora出現(xiàn)后,輿論普遍認為影視行業(yè)從業(yè)者應(yīng)該是最先引起重視的群體。畢竟,2023年好萊塢大罷工以抵制“AI入侵”的畫面還歷歷在目。
據(jù)《環(huán)球時報》報道,當(dāng)?shù)貢r間2023年7月13日,代表16萬演藝人員的美國演員工會及廣播電視藝人聯(lián)合工會(SAG-AFTRA)宣布,其與制片公司的談判破裂,確定從即日起進行罷工。當(dāng)時編劇和演員稱,他們組織罷工是為了扭轉(zhuǎn)薪酬下降的趨勢。與傳統(tǒng)的電視、電影相比,人工智能及流媒體使他們的薪水和工作條件惡化,他們要求制片方和流媒體公司保證不會以人工智能技術(shù)生成的面孔和聲音來替代演藝人員。
好萊塢大罷工數(shù)月后,2023年12月27日,美國《紐約時報》又對OpenAI和微軟提起訴訟,指控這兩家企業(yè)未經(jīng)授權(quán)使用該媒體數(shù)以百萬計文章訓(xùn)練ChatGPT等AI聊天機器人。
《紐約時報》稱,在某些情況下,OpenAI和微軟將其刊登的內(nèi)容逐字復(fù)制,提供給向AI聊天機器人尋求答案的用戶,這些新產(chǎn)品為新聞出版商創(chuàng)造了潛在競爭對手,而此種對媒體版權(quán)作品的使用方式是違法的。
國內(nèi)法律界人士認為,美國作為一個判例法國家,該案的判決結(jié)果對后續(xù)AI行業(yè)的同類性質(zhì)產(chǎn)品治理也會帶來“邏輯沿用”,譬如最新的Sora。
Sora和它的同類產(chǎn)品顯然已經(jīng)引起了一些實質(zhì)性爭議,未來可能還會延伸到哪些領(lǐng)域?同濟大學(xué)法學(xué)院副教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員陳吉棟接受《新民周刊》采訪表示,Sora雖然是最新的文生視頻模型,但其本身仍是依賴數(shù)據(jù)處理而運行,本質(zhì)上和過去已有的人工智能產(chǎn)品具有一致性。
“涉及數(shù)據(jù)處理,往往需要解決三方面問題。首先是個人信息和隱私保護;然后是財產(chǎn)權(quán)的利用問題,如數(shù)據(jù)權(quán)益與知識產(chǎn)權(quán);最后是公共利益和各層次的安全保護相關(guān)問題?!标惣獥澱f道。
既然Sora的核心依然是數(shù)據(jù)處理,和過去的人工智能模型沒有發(fā)生根本性變化,為何有人在討論相關(guān)內(nèi)容時會感到非常擔(dān)憂?陳吉棟認為,這需要回到“風(fēng)險”角度。關(guān)于這一點,他曾經(jīng)撰文指出,人工智能法律研究在治理法與責(zé)任法之間游移,未能正確處理人工智能法律制度展開的邏輯起點——風(fēng)險及其治理理論研究與風(fēng)險分配規(guī)范設(shè)計。
“目前我們擔(dān)心Sora等人工智能產(chǎn)品,擔(dān)憂它不安全,會造成新的風(fēng)險與損害。傳統(tǒng)風(fēng)險理論認為,當(dāng)一個事物具有脆弱性,就會有可能被外來威脅利用,造成最終損害”,陳吉棟說,“進一步說,人類內(nèi)心對于人工智能的焦慮,根源在于不信任。人工智能不同于傳統(tǒng)社會信任關(guān)系的形成機制,它超脫時空,建立在計算的基礎(chǔ)上,對于計算過程與結(jié)果的不確定(黑箱)讓人難以捉摸?!?/p>
對此陳吉棟提出,伴隨著人工智能應(yīng)用背后的技術(shù)復(fù)雜程度越來越高,迭代速度越來越快,從而形成了建立在技術(shù)體系及其服務(wù)模式上的結(jié)構(gòu)性的不平等,人類沒有太多選擇。
在玻璃杯碎裂的視頻中,Sora混淆了玻璃破碎和液體溢出的順序。說明AI模擬物理世界的能力還存在著一定的偏差,有可能存在著巨大的誤導(dǎo)。
對于這種結(jié)構(gòu)性的不平等,陳吉棟認為,需要將人工智能系統(tǒng)研發(fā)與應(yīng)用風(fēng)險的認知作為起點,加強事前、事中風(fēng)險治理與民事責(zé)任的溝通,如此在研發(fā)者、生產(chǎn)者、服務(wù)提供者與用戶之間合理分配義務(wù),構(gòu)建以風(fēng)險為基礎(chǔ)的人工智能法律治理體系。
目前Sora還未開啟公測,僅部分藝術(shù)家、OpenAI員工擁有Sora的訪問權(quán)限。一些嘗試過的業(yè)內(nèi)人士在感慨其強大創(chuàng)造力的同時,也發(fā)現(xiàn)各種漏洞和被濫用的風(fēng)險。2024年1月,谷歌發(fā)布AI視頻模型Lumiere時,已經(jīng)宣稱“使用這一技術(shù)時,的確有創(chuàng)建虛假或有害內(nèi)容并被濫用的風(fēng)險”。
假若未來Sora向普通用戶和社交媒體創(chuàng)作者開放,勢必會生產(chǎn)出海量視頻內(nèi)容,潛在的法律問題理應(yīng)得到更多重視。中倫律師事務(wù)所合伙人劉新宇律師接受《新民周刊》采訪表示,Sora等視頻生成模型是AI技術(shù)發(fā)展的重要里程碑,當(dāng)然也在各個領(lǐng)域提出了法律問題。
劉新宇律師認為:“上述法律問題中,首先是對版權(quán)與知識產(chǎn)權(quán)的挑戰(zhàn);其次,是對隱私與數(shù)據(jù)保護的考量;再次,還涉及內(nèi)容責(zé)任與監(jiān)管的機制;最后,還要討論AI道德倫理的邊界。”
劉新宇律師說,在傳統(tǒng)法律框架下,版權(quán)保護的是人的創(chuàng)造性勞動成果,但Sora作為AIGC產(chǎn)品,其生成的視頻內(nèi)容是否應(yīng)被視為“作品”并享有版權(quán)保護,目前尚無明確法律答案。如果AI生成內(nèi)容被認定為作品,版權(quán)歸屬將變得復(fù)雜,可能涉及開發(fā)者、用戶甚至AI本身?!坝捎赟ora目前的創(chuàng)作邏輯是通過在網(wǎng)絡(luò)大數(shù)據(jù)中隨機抓取視頻素材進行‘再創(chuàng)作’,如果未經(jīng)權(quán)利人許可,抓取他人享有著作權(quán)的作品,進行分析、處理、演繹,并在后續(xù)輸出成果中展示,可能侵犯他人著作權(quán)?!?/p>
近期,一起人工智能生成圖片著作權(quán)糾紛案件引發(fā)輿論關(guān)注。案件中,原告利用人工智能模型,通過輸入提示詞的方式生成了一張圖片并發(fā)布在小紅書平臺。而被告人在其他平臺上使用了這張圖片作為文章配圖,并去除了圖片上的水印。原告就此提起侵犯著作權(quán)之訴。北京互聯(lián)網(wǎng)法院作出一審判決,認為在創(chuàng)作中利用了人工智能技術(shù)的涉案圖片具備獨創(chuàng)性,可以被認定為作品,應(yīng)受到著作權(quán)法保護。業(yè)內(nèi)人士指出,相關(guān)判決意味著我國法院對人工智能繪畫大模型使用者在生成圖片上享有創(chuàng)作權(quán)益給出了首次認可。
涉及數(shù)據(jù)處理,往往需要解決三方面問題。首先是個人信息和隱私保護;然后是財產(chǎn)權(quán)的利用問題;最后是公共利益和各層次的安全保護相關(guān)問題。
與此同時,有網(wǎng)友提出,用AI技術(shù)讓《西游記》等作者早已離世的作品文生視頻,是否還會構(gòu)成侵權(quán)?根據(jù)《著作權(quán)法》規(guī)定,自然人的作品,其發(fā)表權(quán)等規(guī)定的權(quán)利的保護期為作者終生及其死亡后五十年,而《西游記》作者逝世遠超五十年。
在劉新宇律師看來,如果使用《西游記》的文本為Sora提供素材,并不一定直接構(gòu)成侵權(quán)?!翱偟膩碚f,使用AI技術(shù)讓《西游記》這種作者早已離世的作品文生視頻,雖然可以明顯識別來自哪個文學(xué)作品,但原作品著作權(quán)在保護期外,作品已經(jīng)進入公共領(lǐng)域,理論上大家都可以使用再次進行創(chuàng)作,但最好能有‘獨創(chuàng)性’的投入?!?/p>
要想理解Sora涉及的版權(quán)問題,就必須討論“獨創(chuàng)性”的定義。據(jù)劉新宇律師介紹,“獨創(chuàng)性”體現(xiàn)在“作品源于作者獨立的、富有個性的創(chuàng)作”,是作者精神與意識的產(chǎn)物。如果生成內(nèi)容與原作品在表達上構(gòu)成“實質(zhì)性相似”,則落入“復(fù)制權(quán)”的規(guī)制范圍;若不構(gòu)成“實質(zhì)性相似”,而是在保留作品基礎(chǔ)表達的前提下形成了新的表達形式,則可能構(gòu)成對訓(xùn)練作品“改編權(quán)”的侵害。
因此,“獨創(chuàng)性”是作品的本質(zhì)屬性與靈魂,也是判斷人工智能生成物是否屬于知識產(chǎn)權(quán)保護客體的關(guān)鍵所在。
至于個人隱私與數(shù)據(jù)安全,劉新宇律師認為,AI模型的訓(xùn)練和優(yōu)化依賴于大量數(shù)據(jù)集,這些數(shù)據(jù)可能包含敏感個人信息,甚至進一步被不法分子利用引發(fā)詐騙。
關(guān)于這一點,陳吉棟在采訪中表示,數(shù)據(jù)安全一旦遭到侵害,因為其天然的虛擬性,使得追責(zé)并不容易。“數(shù)據(jù)的問題在于,其虛擬性、非競爭、易復(fù)制等特性決定了相關(guān)侵害行為通常難以發(fā)現(xiàn)。數(shù)據(jù)存在于系統(tǒng)中,但它的侵害往往是發(fā)生在遠端?!?/p>
近年來陳吉棟在教學(xué)與學(xué)術(shù)研究的同時,也圍繞人工智能、數(shù)字經(jīng)濟發(fā)展等國家戰(zhàn)略和地方需求,積極服務(wù)立法實踐,陸續(xù)參與了《上海市數(shù)據(jù)條例》(學(xué)術(shù)建議稿)、《上海市促進人工智能發(fā)展條例》等起草研究工作。如今Sora等最新模型出現(xiàn),在平臺和政府監(jiān)管層面,又可能會有哪些新要求?陳吉棟告訴記者,監(jiān)管的突出難點在于成本?!叭绻孪仍O(shè)置好完備的護欄,那可能就不會有Sora的誕生;而事后去對生成內(nèi)容進行追責(zé),有時候平臺具備能力,但行使能力需要消耗大量時間和人力成本。”
鑒于上述原因,陳吉棟認為政府層面理應(yīng)盡快建立科學(xué)完備的人工智能風(fēng)險防控機制體制。“關(guān)鍵在于政府要建立風(fēng)險的分級標(biāo)準(zhǔn)。高風(fēng)險產(chǎn)品和低風(fēng)險產(chǎn)品,需要區(qū)別看待。只有這樣,才能避免對人工智能監(jiān)管的極端化,并降低監(jiān)管的成本?!?/p>
劉新宇律師認為,隨著AI技術(shù)的發(fā)展,新型版權(quán)形式如算法版權(quán)、數(shù)據(jù)版權(quán)可能應(yīng)運而生,這將對現(xiàn)有知識產(chǎn)權(quán)法律體系提出更高要求。如何在保護創(chuàng)新與避免過度限制技術(shù)發(fā)展之間找到平衡,是法律制定者面臨的挑戰(zhàn)。
隨著新技術(shù)的快速發(fā)展,目前我國也在加快推進知識產(chǎn)權(quán)建設(shè)。2023年11月,國新辦舉行加快推進知識產(chǎn)權(quán)強國建設(shè)、有效支撐創(chuàng)新驅(qū)動發(fā)展國務(wù)院政策例行吹風(fēng)會提到,適應(yīng)侵權(quán)新的特點,加強技術(shù)支撐?!凹訌娭R產(chǎn)權(quán)信息化、智能化基礎(chǔ)設(shè)施建設(shè),強化互聯(lián)網(wǎng)、人工智能、大數(shù)據(jù)等信息技術(shù)在知識產(chǎn)權(quán)審查和保護領(lǐng)域的應(yīng)用,推動知識產(chǎn)權(quán)保護線上線下融合發(fā)展、一體推進?!?/p>
劉新宇律師告訴記者,科技發(fā)展日新月異,實踐中的知識產(chǎn)權(quán)侵權(quán)行為的確涌現(xiàn)了新的特點?!斑@體現(xiàn)在糾紛形態(tài)與網(wǎng)絡(luò)環(huán)境深度融合,網(wǎng)絡(luò)環(huán)境下的知識產(chǎn)權(quán)保護日益成為重點難題?!?/p>