馮曉青 郝明英
[摘要] 隨著人工智能技術(shù)不斷發(fā)展,人工智能作為“創(chuàng)新主體”生成發(fā)明對(duì)現(xiàn)行專利制度提出了巨大挑戰(zhàn),如人工智能生成發(fā)明是否屬于可專利主題、發(fā)明人主體資格與人工智能生成發(fā)明權(quán)利歸屬如何確定、人工智能生成發(fā)明專利權(quán)保護(hù)對(duì)公共利益是否可能產(chǎn)生損害等。在客體制度中,人工智能生成發(fā)明屬于可專利主題,能夠滿足新穎性、創(chuàng)造性、實(shí)用性要求,其中在創(chuàng)造性判斷中有必要根據(jù)人工智能特點(diǎn)適當(dāng)調(diào)整“本領(lǐng)域普通技術(shù)人員”的判斷標(biāo)準(zhǔn)。在主體制度中,發(fā)明人需為“自然人”,在激勵(lì)理論下探討人工智能生成發(fā)明的權(quán)利歸屬,需要綜合衡量各主體的作用、貢獻(xiàn)度以及激勵(lì)程度來(lái)進(jìn)行確認(rèn)。在限制制度中,有必要考慮人工智能生成發(fā)明專利權(quán)保護(hù)期的設(shè)定、充分公開(kāi)義務(wù)的加強(qiáng)以及防止權(quán)利濫用措施。
[關(guān)鍵詞] 人工智能;發(fā)明專利;可專利性;權(quán)利歸屬;算法;公共領(lǐng)域
[中圖分類號(hào)] ?D923.4[文獻(xiàn)標(biāo)識(shí)碼] A[文章編號(hào)] 1008-1763(2023)02-0143-10
Research on the Patent Protection System
for Inventions Generated by AI
FENG Xiao-qing,HAO ?Ming-ying
(Civil, Commercial and Economic Law School, CUPL, Beijing100088,China)
Abstract:Artificial intelligence(AI)-generated inventions pose great challenges to the patent legal system, such as whether AI-generated inventions belong to the patentable subject, how to determine the inventorship and ?ownership of the right of AI-generated inventions, and whether the damage to the public interest may be caused by the patent protection of AI-generated inventions. In the patent object system, the invention generated by AI is the patentable subject, which can meet the requirements of novelty, creativity and practicability. In the judgment of creativity, it is necessary to adjust the standard of “ordinary technician in this field” appropriately according to the characteristics of AI. In the patent subject system, the inventor should be “human beings”. Under the incentive theory, the attribution of rights genenated by Al inventions requires a comprehensive assessment of the role and contribution of each subject and the degrere of incentive required. In the patent restriction system, it is necessary to consider the setting of patent right protection period, the strengthening of full disclosure obligation and the measures to prevent the abuse of rights.
Key words: artificial intelligence; invention patent; patentability; attribution of rights; algorithm;public domain
一問(wèn)題的提出
作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的前瞻性技術(shù),人工智能成為我國(guó)科技發(fā)展的戰(zhàn)略性部署。人工智能技術(shù)發(fā)展對(duì)知識(shí)產(chǎn)權(quán)法律制度提出了挑戰(zhàn),知識(shí)產(chǎn)權(quán)保護(hù)與制度完善對(duì)于發(fā)展人工智能技術(shù)也至關(guān)重要。我國(guó)《專利法》中對(duì)于“智力活動(dòng)規(guī)則和方法”、社會(huì)倫理道德的理解決定人工智能發(fā)明能否被納入專利客體范疇,發(fā)明人資格的探討亦會(huì)影響人工智能生成發(fā)明的專利保護(hù)。
根據(jù)人工智能技術(shù)發(fā)揮作用的方式不同,人工智能相關(guān)創(chuàng)新成果涉及的專利問(wèn)題可分為兩類,一類是人工智能技術(shù)的發(fā)明涉及的專利問(wèn)題,另一類是人工智能生成的發(fā)明的專利保護(hù)問(wèn)題。前者學(xué)界有多種表述方式,如“智能算法專利”“軟件專利”“計(jì)算機(jī)程序?qū)@钡?,本文稱之為“人工智能算法發(fā)明”,結(jié)合《專利審查指南》中有關(guān)涉及計(jì)算機(jī)程序發(fā)明的界定,人工智能算法發(fā)明指為解決發(fā)明提出的問(wèn)題,全部或部分以人工智能算法為基礎(chǔ),由此編制計(jì)算機(jī)程序,對(duì)計(jì)算機(jī)外部對(duì)象或者內(nèi)部對(duì)象進(jìn)行控制或處理的解決方案;[1]后者為人工智能生成發(fā)明,指的是以人工智能為技術(shù)手段,借助自身算法,通過(guò)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)而生成的技術(shù)方案。本文研究對(duì)象為人工智能生成發(fā)明涉及的專利問(wèn)題。
隨著人工智能技術(shù)的不斷發(fā)展,人工智能將作為“創(chuàng)新主體”進(jìn)行發(fā)明創(chuàng)造,其生成發(fā)明如何定性、是否可以獲得專利法的保護(hù)、人工智能是否可以作為權(quán)利主體,這些問(wèn)題在目前專利法框架下難以直接回答。實(shí)踐中也已經(jīng)產(chǎn)生諸多關(guān)于人工智能發(fā)明專利保護(hù)的法律問(wèn)題,如DABUS(統(tǒng)一感知的自動(dòng)引導(dǎo)設(shè)備,Device for the Autonomous Bootstrapping of Unified Sentience)案涉及發(fā)明人資格的討論。基于此,有必要對(duì)人工智能生成發(fā)明涉及的專利問(wèn)題進(jìn)行探討,并圍繞專利法價(jià)值目標(biāo)與理論基礎(chǔ),探索構(gòu)建人工智能發(fā)明專利保護(hù)制度,包括客體制度、主體制度與限制制度等。
二客體制度:人工智能生成發(fā)明
“可專利性”的判斷
近年來(lái)申請(qǐng)人Stephen Thaler(下稱Thaler)就人工智能DABUS生成發(fā)明向美國(guó)、歐盟、英國(guó)、以色列、南非、澳大利亞等國(guó)家和地區(qū)提出專利申請(qǐng),美、歐、英等專利局均以“發(fā)明人需要為自然人”為理由駁回其專利申請(qǐng),專利申請(qǐng)并未進(jìn)入實(shí)質(zhì)審查階段,也就無(wú)法涉及人工智能生成發(fā)明是否可獲得專利保護(hù)的實(shí)踐討論。有關(guān)人工智能生成發(fā)明的可專利性目前并無(wú)定論。探討這一問(wèn)題,首先需要明確人工智能生成發(fā)明是否屬于可專利的客體范疇,能否滿足新穎性、創(chuàng)造性、實(shí)用性(以下簡(jiǎn)稱“三性”)要求。
(一)人工智能發(fā)明屬于可專利主題
根據(jù)我國(guó)《專利法》的規(guī)定,某一技術(shù)方案要獲得專利法的保護(hù),需要屬于可專利主題,符合《專利法》第二條的定義,同時(shí)又不屬于第五條、第二十五條規(guī)定的排除領(lǐng)域。人工智能生成發(fā)明需要借助程序算法對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)后生成技術(shù)方案,如DABUS在學(xué)習(xí)相關(guān)文獻(xiàn)基礎(chǔ)上自動(dòng)生成的兩個(gè)技術(shù)方案,一種基于分形食物容器和一種以新穎且富有創(chuàng)意的方式閃爍以吸引注意力的警示燈(見(jiàn)圖1和圖2)。分析人工智能生成發(fā)明是否屬于可專利主題,關(guān)鍵在于明確其是否屬于技術(shù)方案,是否屬于《專利法》第五條第一款規(guī)定的“違反法律、社會(huì)公德或者妨害公共利益”的情形,并且不屬于其第二十五條第一款第二項(xiàng)規(guī)定的“智力活動(dòng)的規(guī)則和方法”。
人工智能本質(zhì)是一種計(jì)算機(jī)程序,在算法的指揮下通過(guò)數(shù)據(jù)學(xué)習(xí)模仿人類思維,從而解決問(wèn)題或者制定決策。數(shù)據(jù)是人工智能的學(xué)習(xí)素材,算法是人工智能的智慧源泉和“指導(dǎo)手冊(cè)”,為計(jì)算機(jī)提供行動(dòng)指令。如上所述,人工智能涉及的專利問(wèn)題,包括人工智能算法發(fā)明與人工智能生成發(fā)明的專利問(wèn)題,人工智能算法發(fā)明必然涉及程序算法,而人工智能生成發(fā)明可以包含程序算法,也可能不包含程序算法。若為后者,則一般不涉及智力活動(dòng)規(guī)則和方法的討論;若包含,則需要進(jìn)一步探討其是否屬于智力活動(dòng)規(guī)則和方法而排除在專利法保護(hù)范圍之外。以下將進(jìn)一步討論。
1.人工智能生成發(fā)明并不必然屬于智力活動(dòng)的規(guī)則和方法
根據(jù)《專利法》第二十五條第一款第二項(xiàng)規(guī)定,智力活動(dòng)的規(guī)則和方法不能被授予專利權(quán)。程序算法是否屬于智力活動(dòng)規(guī)則和方法,能否獲得專利法保護(hù)一直存在較大爭(zhēng)議。從計(jì)算機(jī)程序的知識(shí)產(chǎn)權(quán)保護(hù)歷程來(lái)看,最初歐美等國(guó)家和地區(qū)反對(duì)以專利法來(lái)保護(hù)計(jì)算機(jī)程序。例如,Gottschalk v. Benson案明確指出數(shù)學(xué)算法不具有可專利性。不過(guò),該判決也進(jìn)一步明確,程序的專利法保護(hù)具有不確定性,其與政策密切相關(guān)。
Gottschalk, commissioner of patents v. Benson et al.,409 U.S. 63 (1972).與此同時(shí),各國(guó)以及國(guó)際公約開(kāi)始以著作權(quán)法保護(hù)計(jì)算機(jī)程序,如1976年的美國(guó)《版權(quán)法》、1994年的《與貿(mào)易有關(guān)的知識(shí)產(chǎn)權(quán)協(xié)定》等。由于著作權(quán)法并不能保護(hù)計(jì)算機(jī)程序的核心算法,只能保護(hù)表達(dá),對(duì)于計(jì)算機(jī)產(chǎn)業(yè)走在世界前列的美國(guó)而言,保護(hù)力度明顯不足,故其率先探索程序的專利法保護(hù)。在經(jīng)過(guò)“In re Freeman”In re Freeman,573 F.2d 1237 (1978).“Diamand v. Diehr”Diamand v. Diehr, 450 U.S. 175 (1981).“In re Alappat”In re Alappat,33 F.3d 1526 (1994).等一系列司法實(shí)踐之后,美國(guó)在1995年修改專利審查指南時(shí)確認(rèn),如果程序中的算法用于實(shí)踐,能夠產(chǎn)生“有用、具體、有形的后果”,該程序就可以獲得專利法保護(hù)。[2]我國(guó)《專利審查指南》一直強(qiáng)調(diào)計(jì)算機(jī)程序需要與硬件結(jié)合方屬于可專利主題。2017年《專利審查指南》修訂,明確計(jì)算機(jī)程序本身并不等于涉及計(jì)算機(jī)程序的發(fā)明,后者是針對(duì)技術(shù)問(wèn)題的解決方案。2019年《專利審查指南》修訂時(shí),在第二部分第九章增加第6節(jié),明確“包含算法特征或商業(yè)規(guī)則和方法特征”的發(fā)明專利申請(qǐng)審查規(guī)定,逐步認(rèn)可算法發(fā)明的專利保護(hù)。
之所以各國(guó)對(duì)程序算法的專利保護(hù)持較為謹(jǐn)慎的態(tài)度,主要是因?yàn)槌绦蛩惴ㄅc數(shù)學(xué)計(jì)算方法密切相關(guān),容易理解為具有抽象意義的規(guī)則。智力活動(dòng)的規(guī)則和方法不能被授予專利權(quán)這一規(guī)定的目的在于防止針對(duì)智力活動(dòng)規(guī)則的壟斷,阻礙技術(shù)創(chuàng)新,因此程序算法在獲得專利保護(hù)過(guò)程中往往遇到障礙。實(shí)際上,程序算法并不必然是純粹的數(shù)學(xué)算法,其可以與具體的技術(shù)特征相聯(lián)系、解決技術(shù)問(wèn)題。根據(jù)《專利審查指南》第二部分第一章4.2的規(guī)定,如果一項(xiàng)權(quán)利要求僅涉及智力活動(dòng)的規(guī)則和方法,不構(gòu)成技術(shù)方案,不能被授予專利權(quán),如計(jì)算機(jī)的語(yǔ)言及計(jì)算規(guī)則、計(jì)算機(jī)程序本身。如果一項(xiàng)權(quán)利要求除智力活動(dòng)的規(guī)則和方法外,還包括技術(shù)特征,則不能排除其獲得專利保護(hù)的可能性。此時(shí),需要對(duì)程序算法進(jìn)行分類,區(qū)分抽象算法與具體算法,也有學(xué)者稱為抽象思想與具體技術(shù)。[3]計(jì)算機(jī)程序中的抽象算法屬于思維層面,是表述、判斷、記憶的規(guī)則和方法,不屬于可專利主題;具體算法則將規(guī)則和方法與具體技術(shù)特征相結(jié)合,達(dá)到一定技術(shù)效果,可獲得專利保護(hù)。由此可見(jiàn),抽象與具體的界分在進(jìn)行智力活動(dòng)規(guī)則和方法的判斷中至關(guān)重要,但這一界分的標(biāo)準(zhǔn)并非是清晰明確的。
在界分抽象算法與具體算法技術(shù),對(duì)智力活動(dòng)規(guī)則和方法與具體技術(shù)特征進(jìn)行關(guān)聯(lián)過(guò)程中,有學(xué)者指出,某一規(guī)則、方法具有技術(shù)功能或者與物質(zhì)介質(zhì)相聯(lián)系,符合專利的實(shí)質(zhì)性要件,具有獲得專利授權(quán)的可能。[4]需要注意的是,僅提出以計(jì)算機(jī)為載體/介質(zhì)來(lái)實(shí)現(xiàn)某一算法/方法,將算法與計(jì)算機(jī)這一物質(zhì)介質(zhì)相聯(lián)系,并不能說(shuō)明其為具體算法,具體算法需要解決技術(shù)問(wèn)題、產(chǎn)生技術(shù)效果。正如Alice案判決指出,該方法聲明其只需要通過(guò)計(jì)算機(jī)實(shí)現(xiàn),這一說(shuō)明未能將抽象概念轉(zhuǎn)化為符合專利條件的發(fā)明。
Alice Corp. v. CLS Bank International, 573 U.S. 208 (2014).若將程序算法與計(jì)算機(jī)相結(jié)合,通過(guò)計(jì)算機(jī)執(zhí)行的程序算法解決技術(shù)問(wèn)題,則屬于具體算法,具有技術(shù)特征,構(gòu)成技術(shù)方案,屬于可專利主題。如在“信號(hào)處理方法、數(shù)據(jù)處理方法及裝置”(CN200910150720)的專利申請(qǐng)中,其將程序算法應(yīng)用到具體技術(shù)領(lǐng)域,可被授予專利權(quán)。根據(jù)《專利審查指南》的規(guī)定,將程序算法運(yùn)用在工業(yè)控制、數(shù)據(jù)處理、計(jì)算機(jī)系統(tǒng)性能改進(jìn)等領(lǐng)域,可構(gòu)成技術(shù)方案,屬于專利法保護(hù)的客體。
2.解決技術(shù)問(wèn)題的人工智能生成發(fā)明屬于技術(shù)方案
《專利法》第二條第二款規(guī)定,發(fā)明是對(duì)產(chǎn)品、方法或者其改進(jìn)所提出的新的“技術(shù)方案”。探討人工智能生成發(fā)明的可專利性,在專利申請(qǐng)與審查階段,若要求保護(hù)的權(quán)利要求作為整體不屬于智力活動(dòng)的規(guī)則和方法,則需要進(jìn)一步分析其是否屬于技術(shù)方案。根據(jù)《專利審查指南》第二部分第一章對(duì)技術(shù)方案的定義,其是“對(duì)要解決的技術(shù)問(wèn)題所采取的利用了自然規(guī)律的技術(shù)手段的集合”。
探討人工智能生成發(fā)明是否屬于技術(shù)方案,要從整體上看發(fā)明中記載的全部特征,是否采用了利用自然規(guī)律的技術(shù)手段,并由此獲得技術(shù)效果。對(duì)于不包含程序算法的人工智能生成發(fā)明,其判斷方法與普通專利并不存在太大區(qū)別;對(duì)于包含程序算法的人工智能生成發(fā)明,結(jié)合《專利審查指南》對(duì)“包含算法特征或商業(yè)規(guī)則和方法特征的發(fā)明專利申請(qǐng)審查”的相關(guān)規(guī)定,需要分析其是否屬于可專利主題,判斷相關(guān)程序算法是否屬于具體算法、能夠解決具體的技術(shù)問(wèn)題。
3.人工智能生成發(fā)明與社會(huì)公德
由于人工智能具有模仿人類思維的特點(diǎn),對(duì)于其自動(dòng)生成發(fā)明的過(guò)程可能存在有關(guān)倫理的討論,即《專利法》第五條所列出的是否屬于違反法律、社會(huì)公德或者妨害公共利益的發(fā)明創(chuàng)造。人工智能生成發(fā)明是否存在第五條所列情形的判斷與普通發(fā)明并不存在差別。當(dāng)涉及算法時(shí),需要特別考慮程序算法帶來(lái)的倫理與社會(huì)公德、公共利益問(wèn)題。
人工智能生成發(fā)明涉及的倫理問(wèn)題主要包括兩個(gè)層面,一是人工智能生成發(fā)明對(duì)人和公共利益的影響與妨礙問(wèn)題,如發(fā)明創(chuàng)造涉及對(duì)人身或者財(cái)產(chǎn)的損害,發(fā)明創(chuàng)造的實(shí)施對(duì)環(huán)境、資源、公眾健康的損害,這一問(wèn)題在專利審查時(shí)會(huì)考慮,此時(shí)的發(fā)明不能被授予專利權(quán)。二是人工智能發(fā)明專利涉及算法,由算法“歧視”帶來(lái)的一系列不平等問(wèn)題。[5]針對(duì)這一問(wèn)題,在專利審查中通常難以判斷。但是,不能因?yàn)榭赡艽嬖诘纳鐣?huì)公德風(fēng)險(xiǎn)直接否認(rèn)涉及算法的人工智能生成發(fā)明的可專利性。當(dāng)人工智能生成發(fā)明對(duì)社會(huì)公德、公共利益具有現(xiàn)實(shí)、緊迫威脅時(shí),應(yīng)避免其獲得專利法保護(hù);當(dāng)這種威脅僅具有潛在可能性時(shí),不應(yīng)對(duì)其加以限制,仍應(yīng)結(jié)合具體技術(shù)問(wèn)題、具體技術(shù)領(lǐng)域進(jìn)行分析。
(二)人工智能生成發(fā)明對(duì)“三性”的挑戰(zhàn)與標(biāo)準(zhǔn)判斷
明確人工智能生成發(fā)明屬于可專利主題之后,需要進(jìn)一步審查其是否能夠滿足“三性”的要求,這是判斷技術(shù)方案能否被授予專利權(quán)的前提。人工智能生成發(fā)明的過(guò)程包含大量的數(shù)據(jù)學(xué)習(xí),其對(duì)數(shù)據(jù)的收集與分析能力較強(qiáng),對(duì)人力檢索現(xiàn)有技術(shù)以判斷新穎性提出了挑戰(zhàn);同時(shí),人工智能在跨學(xué)科、跨技術(shù)領(lǐng)域的技術(shù)分析與創(chuàng)新能力遠(yuǎn)超某一領(lǐng)域普通技術(shù)人員的水平,對(duì)創(chuàng)造性標(biāo)準(zhǔn)的判斷亦提出了挑戰(zhàn)。
第一,實(shí)用性標(biāo)準(zhǔn)判斷。專利審查中,需要進(jìn)行實(shí)用性審查,即發(fā)明是否能夠在產(chǎn)業(yè)上制造或使用(再現(xiàn)性),并產(chǎn)生積極效果。再現(xiàn)性要求所屬技術(shù)領(lǐng)域人員能夠重復(fù)實(shí)施為解決技術(shù)問(wèn)題采用的技術(shù)方案,且這種重復(fù)實(shí)施不得依賴隨機(jī)因素。就發(fā)明需產(chǎn)生積極效果而言,人工智能生成發(fā)明與普通發(fā)明專利審查不存在差異,實(shí)用性標(biāo)準(zhǔn)在人工智能生成發(fā)明審查中并不存在適用上的障礙。但基于算法運(yùn)算與數(shù)據(jù)學(xué)習(xí),人工智能有可能以較低成本生成大量發(fā)明,此時(shí)需要考慮這些發(fā)明的質(zhì)量以及賦予專有權(quán)保護(hù)是否會(huì)影響“知識(shí)共享”?;趯?duì)人工智能有可能生成海量發(fā)明的擔(dān)憂,有學(xué)者建議可以在實(shí)用性標(biāo)準(zhǔn)審查時(shí)采用更為嚴(yán)格的標(biāo)準(zhǔn),如在特定行業(yè)中的制造、特定產(chǎn)品上的使用。[6]筆者認(rèn)為,基于目前人工智能技術(shù)發(fā)展水平以及應(yīng)用現(xiàn)狀,對(duì)實(shí)用性標(biāo)準(zhǔn)的審查在人工智能生成發(fā)明與普通發(fā)明之間不應(yīng)存在不同,或者目前尚不存在進(jìn)行差異化審查的現(xiàn)實(shí)需求,若適用更為嚴(yán)格的標(biāo)準(zhǔn),需要在對(duì)人工智能生成發(fā)明的數(shù)量、質(zhì)量以及產(chǎn)業(yè)使用情況進(jìn)行充分調(diào)研與論證基礎(chǔ)上,再進(jìn)行相應(yīng)調(diào)整。
第二,新穎性標(biāo)準(zhǔn)判斷。新穎性要求發(fā)明不屬于現(xiàn)有技術(shù),即在申請(qǐng)日以前不為國(guó)內(nèi)外公眾所知。在發(fā)明的新穎性審查與判斷中,是否屬于現(xiàn)有技術(shù),主要以審查員的檢索為限。人工智能以算法為基礎(chǔ),具有超強(qiáng)的數(shù)據(jù)挖掘與分析能力,其生成發(fā)明的過(guò)程可以充分規(guī)避現(xiàn)有技術(shù),從而符合新穎性要求。這種對(duì)現(xiàn)有技術(shù)的收集與分析能力,是人力所不能及的,在由審查員“人工”進(jìn)行審查時(shí),無(wú)疑會(huì)增加新穎性的判斷難度。此時(shí),需要明確對(duì)“現(xiàn)有技術(shù)”檢索與分析的范圍。對(duì)新穎性的判斷難度是人類與人工智能在檢索能力上的差別造成的,并不意味著人工智能生成發(fā)明不能滿足新穎性的要求,只不過(guò)人工智能生成發(fā)明的特點(diǎn)對(duì)現(xiàn)有新穎性的審查與判斷帶來(lái)了困惑。為解決這一問(wèn)題,將人工智能檢索引入專利新穎性審查作為輔助判斷工具,不僅能夠解決人工智能生成發(fā)明新穎性判斷的問(wèn)題,同時(shí)亦能夠在審查自然人發(fā)明的新穎性之中發(fā)揮作用,彌補(bǔ)人力檢索的不足。
第三,創(chuàng)造性標(biāo)準(zhǔn)判斷。創(chuàng)造性要求發(fā)明與現(xiàn)有技術(shù)相比,具有突出的實(shí)質(zhì)性特點(diǎn)與顯著的進(jìn)步。前者指對(duì)本領(lǐng)域普通技術(shù)人員而言,發(fā)明是非顯而易見(jiàn)的,即在現(xiàn)有技術(shù)基礎(chǔ)上不是僅通過(guò)邏輯分析、推理、有限實(shí)驗(yàn)就可以得到的;后者指與現(xiàn)有技術(shù)相比能夠產(chǎn)生有益的技術(shù)效果。創(chuàng)造性判斷固然以“本領(lǐng)域普通技術(shù)人員”為視角,但在具體審查實(shí)踐中仍然由審查員來(lái)進(jìn)行辨別。與新穎性標(biāo)準(zhǔn)判斷相同,人力的信息獲取與處理能力遠(yuǎn)低于人工智能。由于“人”的學(xué)習(xí)能力以及專業(yè)領(lǐng)域的限制,現(xiàn)有關(guān)于創(chuàng)造性審查標(biāo)準(zhǔn)均指出是“本領(lǐng)域”或者“所屬技術(shù)領(lǐng)域”。對(duì)于人工智能而言,其進(jìn)行跨學(xué)科、跨領(lǐng)域的學(xué)習(xí)與組合發(fā)明相對(duì)容易,這就打破了“人”的學(xué)科、知識(shí)局限性,本領(lǐng)域普通技術(shù)人員的理性人假設(shè)失去適用空間,[7]也對(duì)創(chuàng)造性標(biāo)準(zhǔn)的判斷帶來(lái)了挑戰(zhàn)。對(duì)此,可探索更高的判斷基準(zhǔn),不以“本領(lǐng)域普通技術(shù)人員”為限。
綜上,人工智能生成發(fā)明對(duì)專利制度提出了一系列挑戰(zhàn),在審查人工智能生成發(fā)明的可專利性時(shí),可以從智力活動(dòng)規(guī)則與方法、技術(shù)方案、社會(huì)公德三個(gè)層面分析,而后再進(jìn)行“三性”的評(píng)價(jià)。判斷人工智能生成發(fā)明是否屬于智力活動(dòng)的規(guī)則與方法時(shí),只要涉及程序算法的人工智能生成發(fā)明是具體算法,用以解決具體技術(shù)問(wèn)題并產(chǎn)生相應(yīng)的技術(shù)效果,則屬于技術(shù)方案,應(yīng)納入可專利的客體范圍;在社會(huì)公德與公共利益層面的審查方面,應(yīng)考慮人工智能生成發(fā)明的實(shí)施或使用是否具有現(xiàn)實(shí)而緊迫的威脅,若僅因?yàn)榘l(fā)明創(chuàng)造可能被濫用而妨害公共利益,則不能當(dāng)然地拒絕授予專利權(quán)。對(duì)于人工智能生成發(fā)明“三性”的判斷,需特別關(guān)注人工智能對(duì)新穎性與創(chuàng)造性判斷提出的挑戰(zhàn)。在實(shí)踐中,可將人工智能檢索引入專利新穎性審查作為輔助判斷工具,對(duì)創(chuàng)造性標(biāo)準(zhǔn)的判斷也可以考慮不以“本領(lǐng)域普通技術(shù)人員”為限。此外,對(duì)人工智能生成發(fā)明可專利性的判斷,需要結(jié)合法律規(guī)定、產(chǎn)業(yè)實(shí)踐、倫理道德等進(jìn)行綜合評(píng)價(jià)。
三主體制度:人工智能生成發(fā)明的權(quán)利歸屬
人工智能生成發(fā)明可專利性的判斷為專利申請(qǐng)中的實(shí)質(zhì)審查內(nèi)容,在此之前還需要進(jìn)行形式審查,包括發(fā)明人主體資格,這也是目前人工智能生成發(fā)明申請(qǐng)專利保護(hù)首先面臨的障礙。依據(jù)我國(guó)現(xiàn)行《民法典》《專利法》等的規(guī)定,人工智能無(wú)法作為發(fā)明人。上文提及DABUS生成技術(shù)方案在世界各地進(jìn)行的專利申請(qǐng)與訴訟結(jié)果也顯示,不同國(guó)家對(duì)于人工智能的發(fā)明人主體資格存在不同觀點(diǎn)。從知識(shí)產(chǎn)權(quán)法哲學(xué)理論角度分析,比較有影響力的學(xué)說(shuō),如“財(cái)產(chǎn)權(quán)勞動(dòng)學(xué)說(shuō)”“人格理論”“激勵(lì)理論”等,在解釋人工智能發(fā)明人主體資格時(shí)也面臨顛覆性的挑戰(zhàn)。隨著人工智能技術(shù)的應(yīng)用,有必要從理論基礎(chǔ)、專利法價(jià)值目標(biāo)、技術(shù)與產(chǎn)業(yè)發(fā)展等多個(gè)角度探討人工智能生成發(fā)明的權(quán)利歸屬,以建立能夠滿足保護(hù)權(quán)利、激勵(lì)創(chuàng)新、促進(jìn)社會(huì)技術(shù)發(fā)展等三重目標(biāo)的人工智能生成發(fā)明專利保護(hù)主體制度。
(一)各國(guó)對(duì)于發(fā)明人主體資格存在的爭(zhēng)議
有關(guān)人工智能發(fā)明人主體資格的探討,DABUS案提供了全新的實(shí)證分析與研究素材。正如Thaler的法律團(tuán)隊(duì)表示,他們的目的是測(cè)試專利體系的邊界,并推動(dòng)專利制度的改革。DABUS生成兩項(xiàng)發(fā)明后,Thaler于2018年開(kāi)始向歐盟、美國(guó)、英國(guó)、以色列等國(guó)家和地區(qū)專利局提交了專利申請(qǐng),其為專利申請(qǐng)人,DABUS為發(fā)明人。此后部分國(guó)家專利局和法院作出的對(duì)于DABUS能否作為發(fā)明人的決定與判決引發(fā)了激烈討論,核心法律問(wèn)題主要有兩個(gè):一是發(fā)明人是否必須為自然人;二是人工智能生成發(fā)明能否被授予專利權(quán)。針對(duì)這兩個(gè)問(wèn)題,不同國(guó)家有不同的回應(yīng)。主要有三種觀點(diǎn),其中主流觀點(diǎn)是反對(duì)人工智能作為發(fā)明人,少數(shù)國(guó)家支持人工智能可作為發(fā)明人,還有國(guó)家內(nèi)部亦存在爭(zhēng)議,有待司法裁判進(jìn)一步明確。
1.反對(duì)將人工智能作為發(fā)明人的國(guó)家和地區(qū):美國(guó)、歐盟、澳大利亞
2022年8月5日,美國(guó)聯(lián)邦巡回上訴法院聯(lián)邦巡回庭就人工智能是否可以作為專利申請(qǐng)的“發(fā)明人”或者“共同發(fā)明人”作出判決,認(rèn)為只有自然人才具備發(fā)明人的資格。此前,美國(guó)專利商標(biāo)局駁回了Thaler的專利申請(qǐng),理由是該專利申請(qǐng)沒(méi)有自然人作為發(fā)明人,而根據(jù)美國(guó)《專利法》第100條的規(guī)定,“發(fā)明人”應(yīng)限于“自然人”(human beings),機(jī)器無(wú)法成為發(fā)明人。在向地方法院以及上訴法院提起訴訟中,Thaler指出,為了鼓勵(lì)創(chuàng)新和公開(kāi)披露,人工智能生成發(fā)明應(yīng)可以申請(qǐng)專利,否則相關(guān)發(fā)明進(jìn)入公共領(lǐng)域,不利于產(chǎn)業(yè)發(fā)展。對(duì)此,法院認(rèn)為,這種有關(guān)政策的論點(diǎn)是推測(cè)性的,缺乏專利法的依據(jù),
Thaler v. Vidal,Case No. 21-2347 (Fed. Cir. Aug. 5, 2022).而法院的判決應(yīng)“從法定文本開(kāi)始”。
Mohamad v. Palestinian Auth., 566 U.S. 449, 454 (2012).
歐洲專利局對(duì)DABUS案的論證思路與美國(guó)基本一致,認(rèn)為發(fā)明人的適格性是申請(qǐng)專利的必要條件,在未滿足這一形式要求時(shí)無(wú)須開(kāi)展實(shí)質(zhì)審查。關(guān)于專利申請(qǐng)權(quán)問(wèn)題,Thaler認(rèn)為其作為DABUS的擁有者和控制者,可以從發(fā)明人DABUS處承繼專利申請(qǐng)權(quán)。對(duì)此,歐洲專利局認(rèn)為,人工智能不具有法定人格權(quán),不能被雇傭,不能向人類轉(zhuǎn)移權(quán)利。歐洲專利局上訴委員會(huì)亦認(rèn)為,發(fā)明人必須為具有法律行為能力的自然人。
ECLI:EP:BA:2021:J000820.20211221.
澳大利亞專利局也以“發(fā)明人需為自然人”為由駁回Thaler的專利申請(qǐng)。Thaler起訴后,澳大利亞聯(lián)邦法院于2021年7月判決支持了Thaler的主張,理由是發(fā)明人定義并未排除非自然人;將人工智能認(rèn)定為發(fā)明人,有助于鼓勵(lì)發(fā)明與促進(jìn)技術(shù)創(chuàng)新;由于Thaler擁有并控制DABUS,其可以享有發(fā)明,成為專利申請(qǐng)人。
Thaler v. Commissioner of Patents, FCA 879 (2021).該案判決后,澳大利亞專利局提起上訴。2022年4月,聯(lián)邦法院合議庭作出裁決,在一致決定中,法官同意“授予專利的權(quán)利源于人類的努力”,并得出結(jié)論,考慮到專利法的文本規(guī)定、體系結(jié)構(gòu)、歷史發(fā)展以及立法的政策目標(biāo),將DABUS確定為發(fā)明人不符合reg 3.2C(2)(aa)的規(guī)定。
Commissioner of Patents v. Thaler, FCAFC 62 (2022).
2.支持將人工智能作為發(fā)明人的國(guó)家:南非
Thaler在美國(guó)提起的訴訟中將南非專利授權(quán)情況作為訴訟理由之一,法院也明確指出,外國(guó)專利局不能解釋美國(guó)專利法。以DABUS為發(fā)明人、Thaler為申請(qǐng)人的PCT專利申請(qǐng)于2021年5月進(jìn)入南非國(guó)家階段,并于當(dāng)年7月獲得專利授權(quán)。但是,南非沒(méi)有實(shí)質(zhì)性的專利審查系統(tǒng),只要專利申請(qǐng)符合形式要件,填寫專利申請(qǐng)請(qǐng)求書、說(shuō)明發(fā)明名稱及申請(qǐng)人與代理人,滿足最低的形式要求,即可獲得授權(quán)。因此,南非通過(guò)形式審查認(rèn)可了人工智能的發(fā)明人身份,但DABUS生成發(fā)明在南非獲得的專利權(quán)可以受到任何第三方的無(wú)效挑戰(zhàn),這一專利權(quán)的法律狀態(tài)并不穩(wěn)定。
3.人工智能發(fā)明人資格存在爭(zhēng)議的國(guó)家:英國(guó)
對(duì)人工智能發(fā)明人資格的認(rèn)定,英國(guó)高等法院作出判決,“1977 年專利法的規(guī)定非常明確,發(fā)明人必須是個(gè)人,無(wú)論政策需求有多大,法院只能解釋法律,不能自行立法”。
Thaler v. The Comptroller-General of Patents, Designs And Trade Marks, EWHC 2412(Pat) (2020).但法官在案件備忘錄中寫道,雖然目前的法律規(guī)定無(wú)法解決人工智能主體資格問(wèn)題,但這并不意味著人工智能沒(méi)有能力生成發(fā)明,并指出其并不認(rèn)為人工智能的所有者/控制者是“創(chuàng)新的實(shí)際發(fā)明者”的觀點(diǎn)是不恰當(dāng)?shù)摹?/p>
此案上訴后,英國(guó)上訴法院予以駁回,但三位法官并未完全達(dá)成共識(shí)。在核心問(wèn)題上,三位法官一致認(rèn)為,根據(jù)法律規(guī)定,發(fā)明人必須為自然人。此外,Arnold與Laing法官認(rèn)為,根據(jù)英國(guó)《專利法》第13條第2款b項(xiàng)規(guī)定,該專利申請(qǐng)無(wú)法滿足形式要件。Arnold法官認(rèn)為人工智能生成發(fā)明是人工智能的孳息,應(yīng)類比無(wú)形財(cái)產(chǎn),關(guān)于有形財(cái)產(chǎn)孳息的分配方式在此不適用,Thaler無(wú)法獲得該發(fā)明的專利申請(qǐng)權(quán)。Laing法官明確指出,專利權(quán)不能授予非自然人,任何人無(wú)權(quán)就人工智能生成發(fā)明申請(qǐng)專利。Birss法官則存在不同觀點(diǎn),其認(rèn)為Thaler申請(qǐng)專利是善意的,《專利法》第13條第2款b項(xiàng)是對(duì)形式審查的要求,未涉及實(shí)體審查,不能由此對(duì)人工智能主體資格下定論。僅根據(jù)形式要件在申請(qǐng)階段駁回申請(qǐng)并不能解決人工智能生成發(fā)明對(duì)專利制度帶來(lái)的挑戰(zhàn),需要政策與法律共同探討解決這一問(wèn)題。
Thaler v. Comptroller General of Patents Trade Marks And Designs, EWCA Civ 1374 (2021).目前該案已經(jīng)上訴至英國(guó)最高法院。
可見(jiàn),各國(guó)基本認(rèn)同專利發(fā)明人需要為“自然人”。之所以存在有關(guān)發(fā)明人主體資格的諸多爭(zhēng)議,是基于產(chǎn)業(yè)發(fā)展與政策等因素的考量。人工智能技術(shù)發(fā)展引發(fā)諸多倫理問(wèn)題,人工智能主體資格僅是其中之一,需要結(jié)合理論基礎(chǔ)、產(chǎn)業(yè)政策與法律規(guī)定共同探討,以尋求合適的解決之道。
(二)人工智能發(fā)明人主體資格的理論爭(zhēng)議與法律解釋
1.人工智能生成發(fā)明主體資格引發(fā)的理論爭(zhēng)議
洛克的財(cái)產(chǎn)權(quán)勞動(dòng)學(xué)說(shuō)、黑格爾的人格理論常被用以解釋為專利技術(shù)等智慧成果賦予財(cái)產(chǎn)權(quán)的正當(dāng)性,創(chuàng)新激勵(lì)理論更是為專利制度存在的意義與價(jià)值提供理論基礎(chǔ)。人工智能時(shí)代,由于人工智能主體資格缺失,上述理論均無(wú)法為人工智能生成發(fā)明的專利保護(hù)提供圓滿的理論證成。
根據(jù)財(cái)產(chǎn)權(quán)勞動(dòng)學(xué)說(shuō),人們對(duì)于自己擁有所有權(quán),勞動(dòng)是人的身體進(jìn)行的工作,人基于勞動(dòng)可以享有所有權(quán)。[8]這里的勞動(dòng)主要是指人的體力勞動(dòng),以財(cái)產(chǎn)權(quán)勞動(dòng)學(xué)說(shuō)論證賦予專利技術(shù)以財(cái)產(chǎn)權(quán)的正當(dāng)性,則是將勞動(dòng)延伸至人的“腦力勞動(dòng)”,[9]即“勞動(dòng)”概念容納“智慧勞動(dòng)”。人工智能生成發(fā)明的過(guò)程并非“人”的勞動(dòng),無(wú)法以傳統(tǒng)意義上對(duì)“勞動(dòng)”的理解來(lái)證成人工智能生成發(fā)明專利保護(hù)的合理性。有學(xué)者指出,可以將人工智能生成發(fā)明的“勞動(dòng)”解釋為研發(fā)者“勞動(dòng)”的延續(xù),[10]這種解釋的嘗試則僅是將人工智能作為工具,人工智能研發(fā)者的勞動(dòng)成果是人工智能本身,或?yàn)橛?jì)算機(jī)程序,或?yàn)閷@夹g(shù),已經(jīng)屬于知識(shí)產(chǎn)權(quán)保護(hù)客體。人工智能的“勞動(dòng)”是數(shù)據(jù)輸入、自我學(xué)習(xí)與分析、通過(guò)算法進(jìn)行運(yùn)算并輸出相應(yīng)成果的過(guò)程,[11]其勞動(dòng)是復(fù)雜的數(shù)據(jù)計(jì)算,[12]與人的“智慧勞動(dòng)”存在較大差異。
根據(jù)黑格爾的人格理論,意志與自由不可分割,精神自由是人的最大的特征,自由意志主要是通過(guò)私人財(cái)產(chǎn)的所有權(quán)來(lái)表現(xiàn)的,[13]其從強(qiáng)調(diào)個(gè)人人格重要性的角度來(lái)解釋財(cái)產(chǎn)權(quán)。[14]以人格理論證成專利制度,專利權(quán)作為一種財(cái)產(chǎn)權(quán),是對(duì)發(fā)明人自由創(chuàng)造意志的保護(hù),是對(duì)發(fā)明人人格的尊重。在人工智能生成發(fā)明專利之中,人工智能本身并不具有自由意志,生成發(fā)明的過(guò)程也并非其創(chuàng)造意志的體現(xiàn),人工智能并不具備需要財(cái)產(chǎn)權(quán)予以保護(hù)的人格。人工智能“人格”的缺失也是其生成發(fā)明獲得專利保護(hù)的主要障礙。
激勵(lì)理論是論證知識(shí)產(chǎn)權(quán)制度正當(dāng)性最有力的理論基礎(chǔ),其從激勵(lì)知識(shí)生產(chǎn)角度予以論證。人的創(chuàng)造力由積極性的奮斗與惰性兩個(gè)方面組成,人積極性的創(chuàng)造力容易被惰性抵消。[15]因此,人的創(chuàng)造力需要被激勵(lì),知識(shí)產(chǎn)權(quán)通過(guò)賦權(quán)的方式來(lái)激勵(lì)人們的創(chuàng)新活動(dòng),由此激勵(lì)知識(shí)產(chǎn)品這一稀缺性產(chǎn)品的生產(chǎn),從而推動(dòng)社會(huì)生產(chǎn)力的提升以及技術(shù)的進(jìn)步與發(fā)展。人工智能生成發(fā)明的過(guò)程并不需要激勵(lì),如果不需要激勵(lì)也能產(chǎn)生成果,則權(quán)利無(wú)保護(hù)之必要。[16]
由此可見(jiàn),人工智能時(shí)代,知識(shí)產(chǎn)權(quán)的法哲學(xué)基礎(chǔ)均受到了極大挑戰(zhàn),主要問(wèn)題在于人工智能并不具備作為“人”的主體資格,此時(shí)需要對(duì)上述理論進(jìn)行延伸性解釋,探索人工智能生成發(fā)明專利保護(hù)的理論基礎(chǔ)及其合理性。
2.從法律解釋角度分析人工智能發(fā)明人需為自然人
從各國(guó)對(duì)于DABUS案的決定與判決中可以看出,除南非未經(jīng)實(shí)質(zhì)審查直接以DABUS為發(fā)明人授予專利權(quán)、澳大利亞聯(lián)邦法院支持將人工智能認(rèn)定為發(fā)明人外,各國(guó)基本認(rèn)同專利發(fā)明人需要為“自然人”。之所以南非、澳大利亞出現(xiàn)不同的判定,是因?yàn)槠鋵@煞ㄒ?guī)之中并未就發(fā)明人的內(nèi)涵進(jìn)行明確界定。南非《專利法實(shí)施細(xì)則》僅規(guī)定了專利申請(qǐng)的形式要件,沒(méi)有發(fā)明人相關(guān)規(guī)定。澳大利亞《專利法》也未對(duì)發(fā)明人進(jìn)行明確定義,聯(lián)邦法院作出了有利于Thaler的判決,原因是《專利法》第15條第1款b項(xiàng)的規(guī)定缺少主語(yǔ),Beach法官認(rèn)為可以擴(kuò)大解釋發(fā)明人包括非自然人。當(dāng)然,該觀點(diǎn)在上訴后并未得到認(rèn)同。
我國(guó)目前尚未有關(guān)于人工智能生成發(fā)明專利保護(hù)的案例,從現(xiàn)行法律規(guī)定及相關(guān)規(guī)范性文件來(lái)看,《民法典》規(guī)定民事主體包括了自然人、法人和非法人組織,作為機(jī)器的人工智能并不包含在民事主體范疇之中?!秾@ā返谑鶙l明確規(guī)定,發(fā)明人享有署名權(quán),有權(quán)在專利文件中表明發(fā)明人身份;《專利審查指南》則指出,發(fā)明人應(yīng)當(dāng)是個(gè)人。結(jié)合目前人工智能相關(guān)倫理、法律的實(shí)踐與討論,其無(wú)法享有身份權(quán),故應(yīng)將我國(guó)《專利法》中列明的發(fā)明人解釋為“自然人”。人工智能不僅能夠生成發(fā)明,也能夠“創(chuàng)作”作品,[17]類比分析《著作權(quán)法》中的相關(guān)規(guī)定,2018年北京市高級(jí)人民法院發(fā)布《侵害著作權(quán)案件審理指南》,明確規(guī)定“自然人”的創(chuàng)作是判斷構(gòu)成作品的因素之一。同樣作為知識(shí)產(chǎn)權(quán)法律制度,發(fā)明人主體資格與作者的主體資格判斷類似,從現(xiàn)行法律的解釋角度分析,發(fā)明人應(yīng)當(dāng)為“自然人”。
(三)激勵(lì)理論下人工智能生成發(fā)明的權(quán)利歸屬
專利制度的目的之一在于鼓勵(lì)發(fā)明創(chuàng)造、激勵(lì)創(chuàng)新,通過(guò)對(duì)專利權(quán)人賦予一定時(shí)期的壟斷權(quán)以換取市場(chǎng)與經(jīng)濟(jì)回報(bào),從而激勵(lì)產(chǎn)生更多的發(fā)明創(chuàng)造,提高創(chuàng)新能力。人工智能生成發(fā)明的“創(chuàng)新”過(guò)程并不需要賦予壟斷性的財(cái)產(chǎn)權(quán)加以激勵(lì),且不論我國(guó)現(xiàn)行法律要求發(fā)明人為“自然人”,僅依據(jù)創(chuàng)新激勵(lì)理論,將人工智能生成發(fā)明的專利權(quán)賦予人工智能這一主體就不符合專利法的立法宗旨。在DABUS案中,澳大利亞聯(lián)邦法院合議庭作出支持知識(shí)產(chǎn)權(quán)局的判決,除闡明裁判理由外,法官也在判決中提出一些問(wèn)題供政策制定者參考,一是如果可以就人工智能生成發(fā)明進(jìn)行授權(quán),應(yīng)將權(quán)利授予誰(shuí)——人工智能所有者、開(kāi)發(fā)者、計(jì)算機(jī)程序版權(quán)所有者、數(shù)據(jù)提供者或者其他人;二是若人工智能生成的發(fā)明,存在錯(cuò)誤建議或者虛假陳述而撤回,這會(huì)持續(xù)發(fā)生怎樣的作用?
Thaler v. Comptroller General of Patents Trade Marks And Designs, EWCA Civ 1374 (2021).基于這兩個(gè)問(wèn)題,需要探討人工智能生成發(fā)明專利權(quán)的歸屬以及相應(yīng)責(zé)任承擔(dān)。
關(guān)于人工智能生成發(fā)明的專利保護(hù),有學(xué)者指出,基于“先行者優(yōu)勢(shì)”,計(jì)算機(jī)軟件行業(yè)已經(jīng)獲得了足夠多的激勵(lì),不需要特殊保護(hù),否則將損害市場(chǎng)秩序。[18]但多數(shù)學(xué)者認(rèn)為應(yīng)對(duì)人工智能生成發(fā)明提供專利保護(hù)。筆者認(rèn)為,在人工智能等投入多、風(fēng)險(xiǎn)高的產(chǎn)業(yè)中,激勵(lì)理論可以發(fā)揮更大作用,通過(guò)有效的激勵(lì),才能鼓勵(lì)更多主體參與到產(chǎn)業(yè)實(shí)踐中,促進(jìn)創(chuàng)新與發(fā)展。且基于目前人工智能領(lǐng)域的國(guó)際競(jìng)爭(zhēng)態(tài)勢(shì)與我國(guó)產(chǎn)業(yè)政策導(dǎo)向,加強(qiáng)人工智能領(lǐng)域的知識(shí)產(chǎn)權(quán)保護(hù)是必然趨勢(shì)。此外,從可專利性角度分析,人工智能生成發(fā)明可納入專利保護(hù)客體范圍,也能夠滿足專利“三性”的要求。在這種情況下,人工智能不具有發(fā)明人的主體資格,面臨的主要問(wèn)題在于圍繞人工智能生成發(fā)明中涉及的相關(guān)主體分析確認(rèn)專利權(quán)人,明確人工智能生成發(fā)明的權(quán)利歸屬。構(gòu)建人工智能生成發(fā)明的主體制度,需要在現(xiàn)有以“自然人”為發(fā)明人的制度之外,探索“標(biāo)注人工智能生成發(fā)明、權(quán)利歸屬于民事主體、法律責(zé)任由相關(guān)民事主體承擔(dān)”的制度。
首先,需要明確人工智能生成發(fā)明的權(quán)利歸屬。人工智能生成發(fā)明的相關(guān)主體包括人工智能投資者、設(shè)計(jì)者、所有者、使用者、數(shù)據(jù)提供者等,各個(gè)主體在人工智能生成發(fā)明的過(guò)程中均有貢獻(xiàn)?;诩?lì)理論,筆者認(rèn)為,將人工智能生成發(fā)明相關(guān)權(quán)益賦予使用者,更有助于激勵(lì)創(chuàng)新與產(chǎn)業(yè)發(fā)展。人工智能投資者、設(shè)計(jì)者促進(jìn)了人工智能軟件的開(kāi)發(fā),但其成果為人工智能本身,其可以通過(guò)著作權(quán)法保護(hù)計(jì)算機(jī)程序,也可以通過(guò)專利法保護(hù)相關(guān)技術(shù)方案,從而使相關(guān)成果能夠通過(guò)現(xiàn)有法律制度獲得保護(hù)。關(guān)于數(shù)據(jù)提供者,在人工智能生成發(fā)明過(guò)程中,數(shù)據(jù)發(fā)揮著重要作用,但僅有數(shù)據(jù)無(wú)法促成人工智能生成發(fā)明。關(guān)于人工智能所有者與使用者,有學(xué)者認(rèn)為,相較于所有者,使用者更加明確人工智能生成發(fā)明的運(yùn)用場(chǎng)景,并有動(dòng)力對(duì)其進(jìn)行產(chǎn)業(yè)化運(yùn)用。[19]筆者認(rèn)可該觀點(diǎn)。人工智能使用者對(duì)于生成發(fā)明的貢獻(xiàn)固然僅在于“啟動(dòng)”這一動(dòng)作,卻實(shí)際促成了技術(shù)方案的生成。將權(quán)利歸屬于使用者,有助于人工智能的利用、生成更多技術(shù)方案,從而促進(jìn)創(chuàng)新與發(fā)展。
其次,探索通過(guò)特別標(biāo)注的方式明確相關(guān)發(fā)明為人工智能生成。在人工智能生成“作品”的相關(guān)司法實(shí)踐中,法院認(rèn)為,應(yīng)當(dāng)激勵(lì)使用者的使用和傳播行為,將相關(guān)權(quán)益賦予使用者,在相關(guān)成果之上,使用者可采取合適方式表明其享有相關(guān)權(quán)益。
北京知識(shí)產(chǎn)權(quán)法院(2019)京73民終2030號(hào)民事判決書。與著作權(quán)自動(dòng)取得制度不同,專利權(quán)的獲得需要經(jīng)過(guò)明確的審查、授權(quán)。就人工智能生成“作品”而言,使用者可以在成果上標(biāo)注其享有相關(guān)權(quán)益;對(duì)于人工智能生成發(fā)明,從申請(qǐng)階段就需要明確專利申請(qǐng)人。結(jié)合上文分析人工智能生成發(fā)明對(duì)可專利性提出的挑戰(zhàn),可探索通過(guò)特別標(biāo)注的方式明確相關(guān)發(fā)明為人工智能生成,從而與自然人發(fā)明專利相區(qū)別。在此基礎(chǔ)上,再明確權(quán)利歸屬與法律責(zé)任承擔(dān)主體,這樣就可以構(gòu)建較為完整的人工智能發(fā)明專利主體制度。
當(dāng)然,上述主張僅是提出了一種解決方案。在激勵(lì)理論下,激勵(lì)的對(duì)象是人工智能所有者、使用者還是數(shù)據(jù)提供者,抑或是其他主體,仍需要結(jié)合其在人工智能生成發(fā)明中所起到的作用、對(duì)生成發(fā)明的貢獻(xiàn)度、需要?jiǎng)?chuàng)新激勵(lì)的程度進(jìn)行實(shí)證分析與綜合評(píng)價(jià),明確何種主體需要通過(guò)賦予財(cái)產(chǎn)權(quán)形式予以激勵(lì)?;跈?quán)利與義務(wù)相一致原則,無(wú)論將專利權(quán)賦予何種主體,人工智能生成發(fā)明產(chǎn)生的相應(yīng)責(zé)任也需要由其承擔(dān)。
四限制制度:基于利益平衡理論的人工智能生成發(fā)明專利保護(hù)
知識(shí)產(chǎn)權(quán)法具有二元價(jià)值目標(biāo),以激勵(lì)機(jī)制為基礎(chǔ),以利益平衡的調(diào)節(jié)機(jī)制為手段,激勵(lì)機(jī)制可以充分保護(hù)創(chuàng)造者的合法權(quán)益,利益平衡機(jī)制則可以在私益與社會(huì)公共利益之間尋求平衡。[20]構(gòu)建人工智能生成發(fā)明的專利保護(hù)制度,既需要從激勵(lì)創(chuàng)新視角探討相關(guān)權(quán)利的保護(hù),也需要從利益平衡理論出發(fā),平衡私權(quán)與社會(huì)公共利益之間的關(guān)系,防止權(quán)利擴(kuò)張帶來(lái)的系列問(wèn)題。
(一)利益平衡理論下人工智能生成發(fā)明專利保護(hù)的問(wèn)題分析
當(dāng)前,人工智能技術(shù)進(jìn)入蓬勃發(fā)展階段,其生成發(fā)明相關(guān)的專利保護(hù)問(wèn)題逐漸顯現(xiàn)。在探討通過(guò)賦權(quán)的方式對(duì)人工智能生成發(fā)明予以激勵(lì)的同時(shí),權(quán)利限制制度的構(gòu)建同樣重要。在利益平衡理論指導(dǎo)下,明確人工智能生成發(fā)明專利保護(hù)存在的問(wèn)題,有助于構(gòu)建推動(dòng)科技進(jìn)步與社會(huì)發(fā)展的權(quán)利保護(hù)與限制制度。
其一,人工智能生成發(fā)明專有與公有領(lǐng)域平衡問(wèn)題。這主要體現(xiàn)在權(quán)利保護(hù)期限的確定上。通過(guò)設(shè)置合理的保護(hù)期,既能保障權(quán)利人對(duì)發(fā)明創(chuàng)造的實(shí)施,又可以使公眾適時(shí)獲取知識(shí)與信息。由于人工智能生成發(fā)明主要基于數(shù)據(jù)學(xué)習(xí)與算法執(zhí)行,其生成發(fā)明的成本相對(duì)較低,而且基于人工智能的特點(diǎn),其可以在短時(shí)間內(nèi)生成大量發(fā)明。如同人工智能生成發(fā)明需要學(xué)習(xí)大量數(shù)據(jù)、信息,人工智能生成發(fā)明同樣需要站在前人的肩膀上。如果針對(duì)這些發(fā)明規(guī)定較長(zhǎng)的保護(hù)期,則有可能擠占公共領(lǐng)域,不利于技術(shù)進(jìn)步與社會(huì)發(fā)展。
其二,人工智能生成發(fā)明權(quán)利擴(kuò)張引發(fā)的權(quán)能平衡問(wèn)題。知識(shí)產(chǎn)權(quán)權(quán)能設(shè)立需要綜合考慮社會(huì)經(jīng)濟(jì)、文化與科技發(fā)展。人工智能技術(shù)的發(fā)展,引發(fā)了對(duì)人工智能生成發(fā)明專利保護(hù)的激烈討論,也出現(xiàn)為應(yīng)對(duì)技術(shù)發(fā)展有關(guān)權(quán)能擴(kuò)張的討論與實(shí)踐,權(quán)利的擴(kuò)張需要防范對(duì)社會(huì)公共利益的沖擊。依賴算法自動(dòng)生成發(fā)明,將有可能導(dǎo)致利用人工智能進(jìn)行專利“圈地運(yùn)動(dòng)”,[21]需要采取措施警惕權(quán)利擴(kuò)張帶來(lái)的不利影響。
其三,人工智能生成發(fā)明專利權(quán)行使方式的平衡問(wèn)題。這種平衡主要在于權(quán)利的行使不能損害社會(huì)公共利益。對(duì)于人工智能生成發(fā)明專利權(quán)的行使而言,其需要具有一定限度,不能濫用權(quán)利,如獲得授權(quán)后,權(quán)利人濫用訴權(quán),不正當(dāng)?shù)刂\取私利,應(yīng)在法律上予以規(guī)制。
(二)人工智能生成發(fā)明專利保護(hù)的限制制度構(gòu)建
專利制度不僅在于激勵(lì)創(chuàng)新,更在于推動(dòng)科技進(jìn)步與社會(huì)發(fā)展,此時(shí)需要在私權(quán)保護(hù)與公共利益維護(hù)之間尋求平衡,構(gòu)建權(quán)利限制機(jī)制,防止權(quán)利濫用,以實(shí)現(xiàn)在保護(hù)私權(quán)的同時(shí)促進(jìn)社會(huì)共同福祉的提升。
首先,合理設(shè)置人工智能生成發(fā)明專利的保護(hù)期。針對(duì)人工智能生成發(fā)明,有學(xué)者建議,考慮不同專利權(quán)客體的特點(diǎn),可根據(jù)發(fā)明創(chuàng)造性水平、科技發(fā)展速度、技術(shù)生命更替周期,設(shè)置不同的保護(hù)期限,其中軟件專利權(quán)保護(hù)期可以10年為限,以減少“壟斷”帶來(lái)的社會(huì)成本。[22]筆者認(rèn)可該觀點(diǎn),針對(duì)不同權(quán)利客體,有針對(duì)性設(shè)置保護(hù)期,可以有效平衡專有與公有的利益。人工智能生成發(fā)明效率高、速度快、成本低,在普通發(fā)明專利20年保護(hù)期規(guī)定之下,設(shè)置稍短的保護(hù)期,既保護(hù)了權(quán)利人對(duì)發(fā)明的使用可以享有一定時(shí)期的壟斷權(quán);又能夠相對(duì)較早進(jìn)入公有領(lǐng)域,保證公眾及時(shí)獲取知識(shí)、信息,從而促進(jìn)技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展與社會(huì)進(jìn)步。
其次,進(jìn)一步明確人工智能生成發(fā)明專利申請(qǐng)人充分公開(kāi)義務(wù)。專利制度旨在“以公開(kāi)換保護(hù)”。美國(guó)《專利法》強(qiáng)調(diào)專利申請(qǐng)人具有信息披露義務(wù),要求申請(qǐng)人通過(guò)更多的信息披露來(lái)維護(hù)社會(huì)公共利益,[23]我國(guó)《專利法》也規(guī)定發(fā)明專利申請(qǐng)人需要充分公開(kāi)發(fā)明的技術(shù)方案。當(dāng)人工智能生成發(fā)明涉及程序算法時(shí),需要考慮“源代碼”等內(nèi)容的公開(kāi),實(shí)現(xiàn)算法透明,以使本領(lǐng)域技術(shù)人員更好實(shí)現(xiàn)專利,未來(lái)專利進(jìn)入公有領(lǐng)域,也可以更好推動(dòng)在此基礎(chǔ)上的創(chuàng)新與發(fā)展。
最后,強(qiáng)化“禁止專利權(quán)濫用”。禁止權(quán)利濫用是對(duì)權(quán)利人行使權(quán)利的限制和約束。由于人工智能本身的特性,其生成發(fā)明相對(duì)成本低、效率高,權(quán)利人基于人工智能可能擁有大量專利,而相關(guān)專利并不一定用于具體的產(chǎn)業(yè)實(shí)踐。因此,需要在人工智能生成發(fā)明專利保護(hù)制度構(gòu)建中明確禁止專利權(quán)濫用原則的適用。
五結(jié)論
人工智能技術(shù)改變了創(chuàng)新的過(guò)程。隨著人工智能技術(shù)的發(fā)展與應(yīng)用范圍擴(kuò)大,作為機(jī)器的人工智能獨(dú)立性不斷增強(qiáng),人工智能生成發(fā)明是體現(xiàn)其創(chuàng)新能力的成果之一。人工智能生成發(fā)明對(duì)專利制度帶來(lái)了巨大挑戰(zhàn),無(wú)論是專利客體適格性還是發(fā)明人主體資格問(wèn)題,都在一定程度上影響了專利制度的變革與發(fā)展,有關(guān)人工智能生成發(fā)明的司法實(shí)踐也將推動(dòng)專利制度的不斷完善,從而進(jìn)一步促進(jìn)人工智能技術(shù)的發(fā)展與創(chuàng)新能力的提升。正如Thaler的法律團(tuán)隊(duì)表示,其在全球范圍內(nèi)將人工智能生成發(fā)明申請(qǐng)專利、提起行政訴訟,主要目的就是通過(guò)實(shí)踐測(cè)試專利制度的邊界,推動(dòng)專利制度變革。當(dāng)然,人工智能發(fā)展不僅影響專利制度,對(duì)社會(huì)倫理、法律基礎(chǔ)理論都提出了巨大挑戰(zhàn),需要保持持續(xù)的研究與關(guān)注,及時(shí)作出應(yīng)對(duì)。無(wú)論如何,專利制度能夠隨著技術(shù)的發(fā)展而與時(shí)俱進(jìn),這不僅為專利制度的發(fā)展所印證,而且是專利制度現(xiàn)代化的重要體現(xiàn)。
[參考文獻(xiàn)]
[1]劉強(qiáng).人工智能算法發(fā)明可專利性問(wèn)題研究[J].時(shí)代法學(xué),2019(8):17-18.
[2]余翔,劉珊.美國(guó)計(jì)算機(jī)軟件相關(guān)發(fā)明的專利保護(hù)及其與歐盟的比較[J].電子知識(shí)產(chǎn)權(quán),2005(10):32-37.
[3]崔國(guó)斌.專利法上的抽象思想與具體技術(shù)——計(jì)算機(jī)程序算法的客體屬性分析[J].清華大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2005(3):37-51.
[4]吳漢東.計(jì)算機(jī)軟件專利保護(hù)問(wèn)題研究[J].當(dāng)代法學(xué),2022(3):3-16.
[5]孫那.人工智能的法律倫理建構(gòu)[J].江西社會(huì)科學(xué),2019(2):15-23.
[6]Fraser E.Computers as inventors-legal and policy implications of artificial intelligence on patent law[J].SCRIPTed, 2016(3):305-332.
[7]Abbott R.I think,therefore I invent: Creative computers and the future of patent law[J].Boston College Law Review, 2016(4):1079-1126.
[8]易繼明.評(píng)財(cái)產(chǎn)權(quán)勞動(dòng)學(xué)說(shuō)[J].法學(xué)研究,2000(3):106.
[9]Baird D G. Common law intellectual property and the legacy of International News Service v. Associated Press[J].University of Chicago Law Review, 1983(2):411-429.
[10]劉鑫.人工智能生成技術(shù)方案的專利法規(guī)制——理論爭(zhēng)議、實(shí)踐難題與法律對(duì)策[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019(5):82-92.
[11]郝明英.論人工智能生成內(nèi)容的版權(quán)認(rèn)定及法律規(guī)制[J].法大研究生,2019(2):422-440.
[12]楊延超.人工智能對(duì)知識(shí)產(chǎn)權(quán)法的挑戰(zhàn)[J].治理研究,2018(5):120-128.
[13]黑格爾.法哲學(xué)原理[M].范揚(yáng),張企泰,譯.北京:商務(wù)印書館,1961:10.
[14]馮曉青.知識(shí)產(chǎn)權(quán)的人格理論研究[J].河南省政法管理干部學(xué)院學(xué)報(bào),2003(4):28-39.
[15]博登海默.法理學(xué):法律哲學(xué)與法律方法[M].鄧正來(lái),譯.北京:中國(guó)政法大學(xué)出版社,2004:407.
[16]Samuelson p. Allocating ownership rights in computer-generated works[J]. Pittsburgh Law Review,1986(4):1185-1228.
[17]楊利華.人工智能生成物著作權(quán)問(wèn)題探究[J].現(xiàn)代法學(xué),2021,43(4):102-114.
[18]Landes W M,Posner R A. The economic structure of intellectual property law [M].Boston: Harvard University Press,2003:312-313.
[19]劉友華,魏遠(yuǎn)山.人工智能生成技術(shù)方案的可專利性及權(quán)利歸屬[J].湘潭大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(4):84-90.
[20]馮曉青.知識(shí)產(chǎn)權(quán)法的價(jià)值構(gòu)造:知識(shí)產(chǎn)權(quán)法利益平衡機(jī)制研究[J].中國(guó)法學(xué),2007(1):67-77.
[21]李想.人工智能參與發(fā)明的授權(quán)問(wèn)題探究[J].科技進(jìn)步與對(duì)策,2020(15): 144-151.
[22]吳漢東.計(jì)算機(jī)軟件專利保護(hù)問(wèn)題研究[J].當(dāng)代法學(xué),2022(3):3-16.
[23]梁志文.論專利申請(qǐng)人之現(xiàn)有技術(shù)披露義務(wù)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2012(1):134.
DOI:10.16339/j.cnki.hdxbskb.2023.02.019
[收稿日期] 2022-10-27
[基金項(xiàng)目] 國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目:創(chuàng)新驅(qū)動(dòng)發(fā)展戰(zhàn)略下知識(shí)產(chǎn)權(quán)公共領(lǐng)域問(wèn)題研究(17ZDA139)
[作者簡(jiǎn)介] 馮曉青(1966—),男,湖南長(zhǎng)沙人,中國(guó)政法大學(xué)民商經(jīng)濟(jì)法學(xué)院教授,博士生導(dǎo)師,法學(xué)博士,研究方向:知識(shí)產(chǎn)權(quán)法。
湖南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2023年2期