国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代專利制度的實踐挑戰(zhàn)與應(yīng)對策略

2022-11-24 09:53:28李明晶
科技進步與對策 2022年19期
關(guān)鍵詞:專利制度專利人工智能

鄧 鵬,李 芳,李明晶

(國家知識產(chǎn)權(quán)局 知識產(chǎn)權(quán)發(fā)展研究中心,北京 100000)

0 引言

目前,人工智能技術(shù)已經(jīng)邁入感知階段,從輔助工具延伸到自主創(chuàng)新領(lǐng)域。面對全球新一輪科技革命和產(chǎn)業(yè)變革,人工智能將發(fā)揮越來越關(guān)鍵的驅(qū)動作用。同時,以專利為代表的知識產(chǎn)權(quán)越來越成為創(chuàng)新發(fā)展的戰(zhàn)略性資源和激勵性要素,推動人工智能技術(shù)與產(chǎn)業(yè)深度融合發(fā)展。然而,人工智能與知識產(chǎn)權(quán)制度并不十分契合,兩者間存在諸多沖突需要平衡與協(xié)調(diào),特別是在專利、著作權(quán)領(lǐng)域,相關(guān)改革與實踐已經(jīng)成為世界各國普遍關(guān)注的焦點。

1 人工智能時代專利制度的實踐特征

從全球主要國家的實踐來看,各國對人工智能技術(shù)的研究、使用和保護都高度重視,同時,都在積極探索和制定相關(guān)知識產(chǎn)權(quán)保護體系。但鑒于人工智能技術(shù)仍在快速發(fā)展,技術(shù)和產(chǎn)業(yè)尚存在很大不確定性,相關(guān)制度的價值取向和政策立場將更多取決于各自的人工智能技術(shù)水平和產(chǎn)業(yè)需求。具體到專利制度,目前呈現(xiàn)出正向激勵與反向約束兩方面特征。

1.1 明確專利保護客體,在制度內(nèi)部結(jié)構(gòu)設(shè)計上追求獨特性

雖然加強人工智能保護已經(jīng)成為普遍共識,但因其技術(shù)的獨特性,需要設(shè)計一套與之相適應(yīng)的保護體系與規(guī)則,以更有效發(fā)揮專利制度的激勵作用。

以美國為例,美國專利商標局(USPTO)明確承認,人工智能可以通過專利分類中的第 706 類[1]申請專利并受到保護。而且,USPTO提供了兩個技術(shù)審查組專門負責審查針對人工智能算法的申請。從動因來看,USPTO的一個關(guān)鍵優(yōu)先事項是保持美國在創(chuàng)新方面的領(lǐng)先地位,特別是包括人工智能在內(nèi)的新興技術(shù)方面。因此,在授予保護的同時,USPTO也不斷地積極與人工智能領(lǐng)域的創(chuàng)新者和專家接觸,一方面是為了提升對于人工智能技術(shù)相關(guān)知識產(chǎn)權(quán)的理解,另一方面鑒于人工智能在算法、體系結(jié)構(gòu)及應(yīng)用等方面的特殊性,也在努力探尋相適應(yīng)的知識產(chǎn)權(quán)體系與激勵措施,以進一步鼓勵人工智能領(lǐng)域創(chuàng)新[2]。

2020年2月1日新修訂實施的《中國專利審查指南》中也明確了涉及人工智能等新業(yè)態(tài)新領(lǐng)域?qū)@暾垖彶橐?guī)則,并加入了有關(guān)人工智能算法的特別案例,為涉及相關(guān)算法的可專利性提供了指引,同時,明確了相關(guān)權(quán)利要求書、說明書的撰寫規(guī)范[3]。

然而,明確給予專利保護僅是一個開端,未來的道路挑戰(zhàn)重重。學者吳漢東[4]指出,“為回應(yīng)人工智能時代的法律挑戰(zhàn),需要對專利的客體制度、主體制度、授權(quán)制度等內(nèi)部結(jié)構(gòu)進行審視,或維系或調(diào)整或重構(gòu),包括擴充專利授權(quán)客體范圍、保障產(chǎn)業(yè)主體利益、調(diào)整專利授權(quán)的‘三性’判斷標準等”。

1.2 注重“正義”價值指引,探尋構(gòu)建協(xié)同治理體系和安全屏障,消解潛在危害

人工智能系統(tǒng)具有更突出的自主性、壟斷性和隱蔽性,因而引發(fā)了人們對于安全、隱私、誠信、尊嚴、自主權(quán)和數(shù)據(jù)權(quán)利等一系列風險和問題的關(guān)注,如何將人工智能置于安全可信體系中健康發(fā)展成為關(guān)注的焦點。這方面歐盟已經(jīng)進行了一系列探索與實踐,2017年2月16日歐洲議會投票通過向歐盟委員會提出的開發(fā)機器人與人工智能民事法律規(guī)范建議[5],要求制定機器人憲章(Charter on Robotics),為機器人設(shè)計和使用制定倫理框架。機器人憲章要求從事機器人研究領(lǐng)域的人員必須承諾遵循道德和專業(yè)行為的最高標準,包括善良原則、非惡意原則與自主權(quán)保障原則等。目前,關(guān)于憲章范圍仍在進一步討論。雖然建議中僅在介紹的段落涉及專利,但對知識產(chǎn)權(quán),歐洲議會希望歐盟委員會對所有行業(yè)包括機器人和人工智能采用水平和技術(shù)中立的方式,并且在保護和促進創(chuàng)新的硬件、軟件、標準和代碼方面采用激勵與約束相平衡的方式。不難看出,這份建議中針對機器人和人工智能知識產(chǎn)權(quán)保護的議題具有前瞻性,必將對未來知識產(chǎn)權(quán)制度發(fā)展產(chǎn)生深遠影響[6]。2018年5月25日生效的歐盟《統(tǒng)一數(shù)據(jù)保護條例》(GDPR),不僅提供了一系列具象的法律規(guī)則,更重要的是秉持和傳遞出“數(shù)據(jù)正義”(data justice)理念。

從專利角度考量,專利制度對創(chuàng)新的激勵和規(guī)范作用有助于人工智能領(lǐng)域的“創(chuàng)新”與“安全”協(xié)同發(fā)展。吳漢東強調(diào),人工智能相比于其它技術(shù)領(lǐng)域,相關(guān)專利制度設(shè)計更需要秉持法律的安全價值觀,從時代理性和社會理性出發(fā),通過設(shè)置專利客體的排除領(lǐng)域以及適用禁止權(quán)利濫用、限制權(quán)利行使等制度規(guī)則,消解人工智能技術(shù)的潛在危害。

進一步看,安全可信的人工智能涉及3個基本議題:邊界性、可回溯性和可驗證性[7],其中又涉及法律、技術(shù)、規(guī)范和倫理等諸多問題[8]。雖然完全解決上述問題已經(jīng)遠遠超出專利范疇,但是,專利制度可以發(fā)揮十分重要的積極影響。一方面,加強專利制度與道德、規(guī)范、技術(shù)、市場等不同體系間的橋梁和紐帶作用,協(xié)調(diào)人工智能領(lǐng)域創(chuàng)新發(fā)展與有效治理之間的平衡,探索構(gòu)建人工智能領(lǐng)域的協(xié)同治理體系;另一方面,通過內(nèi)部制度優(yōu)化與協(xié)調(diào),促進人工智能透明化與標準化,幫助公眾更好地檢驗、理解和監(jiān)督人工智能決策及發(fā)展,形成創(chuàng)新與應(yīng)用的安全屏障,以增進全社會公眾福祉。

2 人工智能專利制度的實踐挑戰(zhàn)

為適應(yīng)人工智能時代的發(fā)展,全球主要國家都對人工智能技術(shù)的可專利性、審查標準、主體資格和權(quán)利、侵權(quán)責任等開展了廣泛討論,并首先在專利保護客體方面進行了積極探索和實踐。然而,由于人工智能技術(shù)和應(yīng)用的特殊性,其相關(guān)專利制度在實踐中仍然面臨諸多困難與挑戰(zhàn)。

2.1 技術(shù)層面的挑戰(zhàn)

目前,以深度學習為主流的人工智能技術(shù)無論是在算法、模型還是數(shù)據(jù)方面,都對專利制度提出了新的挑戰(zhàn)和訴求。

首先是算法,它在人工智能系統(tǒng)中處于最為關(guān)鍵與核心的地位??v觀人工智能發(fā)展歷程,每次熱潮的更迭都與算法息息相關(guān)。早在20世紀50年代,美國羅森布拉特發(fā)明第一款類神經(jīng)網(wǎng)絡(luò)“感知器”(Perceptron),將人工智能系統(tǒng)推向第一個高峰,但由于無法完成大規(guī)模數(shù)據(jù)訓練和復(fù)雜任務(wù),很快進入了低谷。20世紀80年代,霍普菲爾德神經(jīng)網(wǎng)絡(luò)被提出,使得大規(guī)模神經(jīng)網(wǎng)絡(luò)的訓練成為可能,人工智能系統(tǒng)進入第二個高峰,但由于算力等問題仍然極大地制約了技術(shù)發(fā)展。直到2006年,Hinton提出“深度學習”神經(jīng)網(wǎng)絡(luò),使得人工智能在性能上獲得突破性進展,算法在語音和視覺識別領(lǐng)域取得了巨大成功。2016-2017年谷歌AlphaGo先后戰(zhàn)勝圍棋世界冠軍李世石、柯潔,揭開人工智能的新篇章。

從技術(shù)角度看,深度學習算法與傳統(tǒng)算法的主要區(qū)別在于,傳統(tǒng)算法有著明確的指令、清晰的流程和唯一的邏輯關(guān)系,而深度學習算法大多是基于“大數(shù)據(jù)+深度神經(jīng)網(wǎng)絡(luò)”的機器學習模型系統(tǒng),其實質(zhì)是通過構(gòu)建具有龐大神經(jīng)元的“隱層”自學習模型和海量訓練數(shù)據(jù),使機器學習更有用的特征,從而提升機器的查詢、分類和預(yù)測準確性。這類算法模型在高效模仿人類思維構(gòu)建過程的同時,也具有無法推理、難以解釋、通用性和穩(wěn)定性弱等特性,極易造成黑箱、歧視、不公等問題。本質(zhì)上講,此類算法已經(jīng)完全脫離傳統(tǒng)算法的概念,打破了傳統(tǒng)算法的約定。

從專利角度看,涉及人工智能的發(fā)明創(chuàng)造普遍涉及算法相關(guān)內(nèi)容,在大多數(shù)情況下,算法可能也是整個技術(shù)方案中最具創(chuàng)造性的部分。加強涉及人工智能算法的專利保護與規(guī)范,既滿足現(xiàn)階段技術(shù)發(fā)展的要求,也符合時代發(fā)展的需要。但鑒于此類算法的特殊性,在給予保護的同時,也有必要加強對此類發(fā)明特性的考量與應(yīng)對。

2.1.1 算法黑箱

“黑箱”是控制論中的概念。作為一種隱喻,它是指那些不為人知的不能打開、不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng)[9]?!昂谙洹眴栴}的根源在于深度學習算法的輸入數(shù)據(jù)與輸出結(jié)果之間設(shè)計了眾多無法洞悉的“隱層”,而這些隱層之間還存在難以推理判斷的關(guān)聯(lián)關(guān)系,其決策的規(guī)則已經(jīng)不再是邏輯性而是相關(guān)性,相關(guān)即因果,很多時候這種相關(guān)性體現(xiàn)出來的可能并不是自然法則的規(guī)律,而是基于所提供“自定義數(shù)據(jù)”的規(guī)則。這也直接導(dǎo)致此類算法輸出無法解釋、推導(dǎo),甚至是難以理解。人類理性的發(fā)展歷程顯示,如果判斷或決策過程是可以被解釋的,那么,更容易了解其優(yōu)點、不足,也更容易評估其風險,知道其在多大程度上、在怎樣的場合可以被信賴,以及可以從哪些方面不斷對其進行改善,以盡量增進共識、減少風險,推動相應(yīng)領(lǐng)域不斷發(fā)展[10]。

就專利而言,算法黑箱無論是對相關(guān)技術(shù)方案的審查與授權(quán)還是保護與應(yīng)用都會造成較大沖擊,具體而言,可以從授予專利權(quán)的實質(zhì)性條件即新穎性、創(chuàng)造性和實用性(三性)方面作進一步審視。

(1)導(dǎo)致“新穎性”瑕疵。如果一項發(fā)明的全部技術(shù)特征和方案都是明確的,或者是可被解釋和推導(dǎo)的,那么,就能準確判斷其發(fā)明獲得的技術(shù)效果和解決的技術(shù)問題,也可以明晰改進方向。然而,算法黑箱使得對技術(shù)方案的評判和推導(dǎo)變得極為困難,特別是將人工智能系統(tǒng)應(yīng)用于特定領(lǐng)域場景執(zhí)行特定任務(wù)時,復(fù)雜的算法隱層和相關(guān)性使人們幾乎不可能確切地了解機器的全部思考過程和細節(jié),只知道初始輸入和最終輸出,難以確定系統(tǒng)的整個決策過程,甚至可能連發(fā)明人自己都無法對算法有全面準確的了解和掌握。Douglas教授[11]指出,人工智能專利變得越來越深刻與模糊,以至于沒有人可以徹底明白;吳漢東[4]也指出,這很可能導(dǎo)致對專利新穎性審查的瑕疵,即對現(xiàn)有技術(shù)檢索比對的不完全性,造成新穎性判斷的不確定性,進而增加專利權(quán)的不穩(wěn)定性。為此,學者們提出:一是不拘泥于某一特定技術(shù)領(lǐng)域,對現(xiàn)有技術(shù)進行擴大解釋,包括算法本身及其運行所依賴的原始數(shù)據(jù)、僅靠詞語替換而生成的海量技術(shù)方案等[12]。然而,擴大解釋必然會增加對現(xiàn)有技術(shù)檢索范圍、文獻獲取和特征比對難度,在目前尚缺乏統(tǒng)一、標準的技術(shù)體系支撐的前提下可能很難達到預(yù)期效果。二是要求專利申請材料中完全披露其與人工智能生成發(fā)明有關(guān)的所有數(shù)據(jù)及文獻,除涉及商業(yè)秘密外[12]。這種由專利申請人協(xié)助提供與發(fā)明相關(guān)一切必要信息的舉措似乎更為可行,但其中還需要考慮申請人的意愿,披露的充分性、必要性和有效性,以及對相關(guān)數(shù)據(jù)的管理等,相關(guān)制度和規(guī)則設(shè)計可能十分復(fù)雜,而且必將是一個漫長曲折的過程。

(2)引發(fā)“創(chuàng)造性”鴻溝。其主要體現(xiàn)在對“創(chuàng)造性標準”的把握和判斷上,隨著人工智能在各行業(yè)更廣泛和深入的應(yīng)用,人工智能由特定技術(shù)向通用技術(shù)轉(zhuǎn)變,算法也逐步向通用算法發(fā)展[13]。然而,就目前算法體系來講,距離這一目標仍有很長的路要走,短期改善的可能性也很小。因此,要想進一步評估創(chuàng)造性,可能仍然需要本領(lǐng)域普通技術(shù)人員掌握較高深的算法設(shè)計、調(diào)試、數(shù)據(jù)處理等專業(yè)知識和能力,但這會無形中抬高各技術(shù)領(lǐng)域的整體水平和門檻,相關(guān)的“所屬技術(shù)領(lǐng)域”、“普通技術(shù)人員”和“最接近的現(xiàn)有技術(shù)”可能都需要重塑。對此,學者們提出:一是采取主客觀相結(jié)合的方法,引進不具有創(chuàng)造能力的技術(shù)分析型人工智能[14];二是提高創(chuàng)造性標準,將“一般技術(shù)人員標準”提升至“一般人工智能標準”[4]。然而,實踐中仍然面臨較大困難和阻礙。一方面,隨著人工智能技術(shù)更廣泛的應(yīng)用,提高創(chuàng)造性標準會導(dǎo)致各領(lǐng)域?qū)@膶彶闃藴?、實踐都難以把握與統(tǒng)一,極易造成領(lǐng)域間“鴻溝”。究竟調(diào)整到何處才是最佳標準是一個關(guān)鍵問題,也是一個疑難問題[4]。另一方面,就目前完全依靠“數(shù)據(jù)訓練”實現(xiàn)的人工智能系統(tǒng)來講,其實質(zhì)仍是一種主客觀深度結(jié)合的技術(shù)架構(gòu),極易造成系統(tǒng)性偏差與壟斷,這對于非人工智能領(lǐng)域普通技術(shù)人員或不掌握相關(guān)數(shù)據(jù)的發(fā)明人來講顯然是不公平的。

(3)造成“實用性”隱患。黑箱中的相關(guān)即因果,導(dǎo)致算法決策過程中的高度不可預(yù)測性,或者說不穩(wěn)定,特別是在深度學習和相關(guān)適應(yīng)性學習算法模型體系中,這種不確定性很可能導(dǎo)致發(fā)明缺乏重復(fù)再現(xiàn)性,不具備實用性。具體表現(xiàn)為以下3個方面:一是對專利審查實用性標準中的“實際效果”評價,如何把握實用性所要求的積極效果?對于人們無法理解或難以破解的技術(shù)方案,如何判斷是有害的或是可再現(xiàn)的?學界主要觀點認為應(yīng)將“人類介入”納入考慮因素,并作為判斷該項發(fā)明創(chuàng)造是否具有積極效果的標準之一[14,15]。但是,如何有效識別和理解技術(shù)方案,進而判斷“實際效果”仍然是實踐中的難點。二是不確定性導(dǎo)致價值進一步降低,使得專利轉(zhuǎn)讓/許可的交易風險和交易成本徒增,制約專利技術(shù)的市場交易和產(chǎn)業(yè)應(yīng)用,也將打擊人工智能領(lǐng)域的投資信心[4]。三是阻礙技術(shù)應(yīng)用和進步。一方面,“模糊”的技術(shù)方案無法被發(fā)明人之外的其它人借鑒和使用;另一方面,“封閉”與“復(fù)雜”的算法導(dǎo)致難以明晰技術(shù)問題及改進方向,這也有悖于“促進科學技術(shù)進步和經(jīng)濟社會發(fā)展”的專利法立法宗旨。

2.1.2 模型缺陷

目前主流的人工智能模型仍是基于大規(guī)模歷史數(shù)據(jù)訓練構(gòu)建的技術(shù)體系,雖然其在計算能力上實現(xiàn)了巨大突破,但其本質(zhì)上仍然無法避免穩(wěn)健性、適用性方面的問題。其中,穩(wěn)健性也稱為魯棒性(robustness),是指模型通過訓練數(shù)據(jù)確定的各種參數(shù)對于新輸入作出正確決策的能力;適用性是指模型在領(lǐng)域內(nèi)應(yīng)用的普遍適用與復(fù)用能力。

2015年谷歌推出相冊服務(wù)“Google Photos”,其采用引以為傲的第二代深度學習引擎TensorFlow。這項服務(wù)背后是超1 000臺計算機、16 000個芯片組成的超大型神經(jīng)網(wǎng)絡(luò)。然而,人們在實際應(yīng)用中發(fā)現(xiàn),它會將一些深色皮膚的人標記為大猩猩。為解決這一錯誤,谷歌直接從搜索結(jié)果中刪除了“大猩猩、黑猩猩、猴子”等一類靈長類動物的詞條標簽,但至今尚未有技術(shù)層面的根本性解決方案。無獨有偶,美國法院用以評估犯罪風險和量刑的人工智能系統(tǒng)COMPAS也被證實存在膚色歧視的現(xiàn)象,其針對黑人罪犯的誤報率遠高于白人。2018年3月15日,中國青年調(diào)查聯(lián)合問卷網(wǎng)針對互聯(lián)網(wǎng)消費者的調(diào)研顯示,51.3%的受訪者遇到過互聯(lián)網(wǎng)企業(yè)利用大數(shù)據(jù)“殺熟”的情況[16]。

越來越多的事件表明,一方面人工智能技術(shù)還遠未成熟,在適用領(lǐng)域和穩(wěn)健決策等方面仍然存在難以解決的技術(shù)缺陷;另一方面隨著人們越來越依賴人工智能,相關(guān)應(yīng)用中的錯誤決策很容易、也很隱蔽地轉(zhuǎn)變?yōu)閭?,?dǎo)致更嚴重的社會問題。傳統(tǒng)上,人們對于技術(shù)的認知是天然的、理性的、值得信任的工具,而人工智能時代重塑了人與技術(shù)的關(guān)系,技術(shù)不僅是制造和使用的方式,更是一種人化的自然,如果不解決目前的模型缺陷,那么,“有目的”、“不公正”仍將是系統(tǒng)生態(tài)的固化特征[17]。如何應(yīng)對由此導(dǎo)致的直接或間接風險,目前法學界主要從人工智能系統(tǒng)致人損害的認定方面提出:一是基于行為人過失所產(chǎn)生的產(chǎn)品責任,歸類于機器人制造者和銷售者的過失;二是基于技術(shù)中立原則所產(chǎn)生的替代責任,即機器人本無對錯之分,但其所有人或使用人,或不盡善良管理人之義務(wù),或放任機器人的侵權(quán)行為,則不能以技術(shù)中立原則免除責任[18]。然而,上述兩種方式更多地在于事后補救及威懾,對風險的預(yù)防效果較為有限,多數(shù)還是以“自律”的形式加以約束。因此,人工智能時代公眾對于相關(guān)技術(shù)風險的防范呼聲持續(xù)高漲。

另外,人工智能除受到模型架構(gòu)的客觀因素影響外,還在模型設(shè)計、編程、數(shù)據(jù)選取等諸多環(huán)節(jié)受到人為主觀因素的疊加影響,難以避免地天然具有某種側(cè)向,也必然導(dǎo)致某種偏見或不公。然而,問題的焦點是,人工智能系統(tǒng)模型的“封閉”與“復(fù)雜”性使得其內(nèi)部既難以識別也無法判斷,更難以追溯,大多數(shù)情況下只能不斷依靠外部輸出進行判斷與識別。就專利而言,這種模型缺陷不僅使得專利的實用性大打折扣,而且可能導(dǎo)致嚴重的授權(quán)缺陷,給后續(xù)保護、運用埋下巨大隱患。

2.1.3 數(shù)據(jù)危機

目前,人工智能系統(tǒng)還完全依賴或受限于所提供的數(shù)據(jù)(訓練數(shù)據(jù)、測試數(shù)據(jù)、驗證數(shù)據(jù)等)。雖然知識產(chǎn)權(quán)制度已經(jīng)為數(shù)據(jù)提供了多種類型的確權(quán)和保護,但主要傾向于對產(chǎn)出物的保護,并不會延及數(shù)據(jù)本身[19]。由于缺乏相應(yīng)的保護制度和規(guī)范,多數(shù)數(shù)據(jù)權(quán)利主體傾向于采取技術(shù)秘密形式進行保護。這就導(dǎo)致,一方面不同行業(yè)、領(lǐng)域、企業(yè)間數(shù)據(jù)共享和分發(fā)都受到極大制約,相關(guān)權(quán)利主體按照自己的利益隔離各自數(shù)據(jù),并為數(shù)據(jù)共享設(shè)置障礙,使得獲取數(shù)據(jù)的難度和成本依然巨大,數(shù)據(jù)“孤島”和“壟斷”問題仍是制約人工智能發(fā)展的主要瓶頸。另一方面,低質(zhì)量、不完整、非客觀的數(shù)據(jù)缺陷也會直接導(dǎo)致系統(tǒng)性重大偏頗和錯誤。而且更致命的是這種數(shù)據(jù)缺陷往往十分隱蔽、難以察覺,大多數(shù)情況下,只有形成一定規(guī)模應(yīng)用后才可能逐漸暴露出來。而此時再著手解決,往往需要付出巨大代價,甚至很可能像“Google Photos”一樣是無解的。這也使得技術(shù)問題被無限放大,引發(fā)嚴重的社會問題。尋求人工智能公開透明、可解釋、可追溯的呼聲日漸高漲。

從專利角度看,雖然給予人工智能保護客體已經(jīng)成為普遍共識,但對相關(guān)數(shù)據(jù)的進一步規(guī)定仍是空白。長此以往,不僅會加劇人工智能領(lǐng)域?qū)@蔫Υ煤蜖幾h,還會嚴重制約相關(guān)技術(shù)發(fā)展和應(yīng)用。鑒于數(shù)據(jù)在人工智能領(lǐng)域的關(guān)鍵作用,世界知識產(chǎn)權(quán)組織(WIPO)、歐洲專利局(EPO)和美國專利商標局(USPTO)開展了廣泛討論,焦點主要有3個方面:一是必要性,鑒于人工智能技術(shù)的快速更新迭代,相關(guān)算法、模型、應(yīng)用甚至技術(shù)體系都尚未定型,此時對數(shù)據(jù)進行規(guī)定是否為時尚早或可能阻礙技術(shù)發(fā)展;二是平衡性,出于專利申請的意愿,相關(guān)數(shù)據(jù)規(guī)則需要如何設(shè)計,既能滿足專利充分公開的要求,又能保障申請人的積極性和權(quán)益;三是安全性,數(shù)據(jù)不同于技術(shù),往往涉及大量商業(yè)秘密和個人隱私,如何保障數(shù)據(jù)在安全可信的環(huán)境下公開使用,也是需要重點考量的。

2.2 應(yīng)用層面的挑戰(zhàn)

隨著人工智能技術(shù)邁入感知階段,相關(guān)應(yīng)用已經(jīng)從輔助工具延伸到自主決策與創(chuàng)造方面。長遠來看,隨著知識圖譜等認知技術(shù)的不斷發(fā)展與完善,很可能出現(xiàn)更具創(chuàng)造力的智慧形態(tài)。人工智能創(chuàng)造力的躍升將對專利乃至整個知識產(chǎn)權(quán)生態(tài)造成巨大沖擊和挑戰(zhàn)。

2.2.1 人工智能生成物

2019年8月,名為“達布斯”(DABUS)的人工智能發(fā)明人出現(xiàn)在兩項國際專利申請中。歐洲專利局(EPO)和英國知識產(chǎn)權(quán)局(UKIPO)進行了初步評估,發(fā)現(xiàn)申請已盡可能滿足可專利性的要求,但隨后歐洲、英國和美國專利局均以“發(fā)明人必須是自然人”為由駁回了申請[20]。發(fā)明團隊介紹Dabus時稱其是具有自主設(shè)計能力的系統(tǒng),可根據(jù)提供的信息自主進行綜合分析,設(shè)計具有新穎性的產(chǎn)品方案。雖然發(fā)明申請被駁回,但Dabus的創(chuàng)建者斯蒂芬·泰勒(Stephen Thaler)博士表示未來通過完善Dabus在場景應(yīng)用方面的抽象概念,可以讓Dabus成為真正具有獨立設(shè)計能力的智能系統(tǒng),他堅信人工智能自主發(fā)明總有被接受的時候。英國知識產(chǎn)權(quán)局隨后發(fā)表聲明稱“基于目前的專利制度,人工智能的發(fā)明可能并不適用,但或許未來的專利制度將會進行相應(yīng)修改”。隨著時代的進步,未來許多行業(yè)由于人工智能的出現(xiàn)會產(chǎn)生新的矛盾,甚至一些競技項目會因為人工智能的加入而發(fā)生根本性改變,或許需要提早制定一些共同規(guī)則來應(yīng)對未來變化。

發(fā)明創(chuàng)造的動機是出于解決問題和獲得收益的需要。在這個過程中,可以借助智能工具提供先驗知識、經(jīng)驗和試錯,以供開發(fā)出獨特的解決方案。但如果人工智能工具已經(jīng)達到一定智力水平,可以創(chuàng)造出被認為是獨立開發(fā)的、具有與人類同等質(zhì)量的發(fā)明時,將對現(xiàn)行專利制度體系產(chǎn)生巨大沖擊和影響。學者們提出“類職務(wù)發(fā)明的保護路徑”,但實踐中仍然存在權(quán)利主體、人格要素等難以克服的障礙[21]。也有學者認為,目前討論人工智能權(quán)利還為時過早,當務(wù)之急應(yīng)是確定人工智能諸多參與者之中誰最有資格成為權(quán)利人,這關(guān)系到侵權(quán)責任的認定[22]。

針對人工智能生成發(fā)明,首先面臨的問題是如何有效識別發(fā)明是由人工智能自主完成的。雖然目前出現(xiàn)了署名人工智能發(fā)明人的專利申請,但大部分申請人仍然是“自然人”身份,以便主張權(quán)利。從相關(guān)專利的表現(xiàn)形式上看,人工智能生成的發(fā)明與一般發(fā)明沒有本質(zhì)上的區(qū)別,因此,在沒有使用者提供相應(yīng)信息的情況下很難進行有效辨識。而且,目前各國在專利申請程序中沒有明確規(guī)定必須提交相關(guān)材料或聲明。

從發(fā)展角度看,有效辨識人工智能生成發(fā)明對于規(guī)則制定或監(jiān)管都是十分必要的。如果無法進行有效識別,就無從下手,也無法作進一步規(guī)范和管理。從監(jiān)管角度看,建立一種適合人工智能的制度似乎存在一定合理性。著眼于未來,甚至可能需要某種與人工智能發(fā)明系統(tǒng)相適應(yīng)的激勵制度或程序,以鼓勵對人工智能生成物的聲明或公開。

2.2.2 人工智能發(fā)明人

進一步看,人工智能發(fā)明人的出現(xiàn)將對傳統(tǒng)的發(fā)明創(chuàng)造要素和環(huán)境產(chǎn)生顛覆性影響。以往的知識、經(jīng)驗、領(lǐng)域、工具間鴻溝很可能被迅速填平,使得僅掌握人工智能技術(shù)的人與傳統(tǒng)的發(fā)明家處于同等地位。正如AlphaGo訓練40天就戰(zhàn)勝了人類頂尖圍棋選手一樣,眾多高科技公司越來越普遍地利用人工智能實現(xiàn)跨界發(fā)明創(chuàng)造。試想一下,人類發(fā)明家通過結(jié)合幾種現(xiàn)有技術(shù)教導(dǎo)發(fā)明而可能具備的創(chuàng)造性,利用人工智能可能變得極為輕松,它甚至可以輕松產(chǎn)生包含數(shù)種甚至十余種現(xiàn)有技術(shù)的發(fā)明創(chuàng)造。未來這一趨勢很可能會對傳統(tǒng)人類發(fā)明家的權(quán)利乃至制度本身造成沖擊,悲觀者甚至認為很可能會對人類創(chuàng)造力產(chǎn)生破壞性影響。

人們的憂慮不無道理,知識產(chǎn)權(quán)制度既要保護財產(chǎn)權(quán)也要維護人權(quán)。世界上大多數(shù)國家的知識產(chǎn)權(quán)法律都規(guī)定對個人擁有的知識產(chǎn)權(quán)保護應(yīng)考慮與一定公共利益之間的平衡[23]。人工智能生成發(fā)明可能混淆知識產(chǎn)權(quán)所賦予“自然人”的精神權(quán),削弱道德秩序。促使人工智能使用者將本不屬于自己的創(chuàng)造性工作歸功于自己,并通過改變或降低發(fā)明家創(chuàng)造的意義來貶低其成就。換言之,這可能將本領(lǐng)域人類創(chuàng)造性工作等同于那些簡單的機器系統(tǒng)的輸出,對于大多數(shù)人類發(fā)明家來說顯然是極不公平的[24]。

另外,從專利的創(chuàng)造性看,無論是理論上還是實踐中,創(chuàng)造性或非顯而易見性的評估都是以人類發(fā)明家衡量的,而且是最為困難的環(huán)節(jié)。但是,隨著人工智能發(fā)明的普及,很可能使得大部分腦力勞動轉(zhuǎn)移到機器上,導(dǎo)致人類整體發(fā)明活動變得更容易。這不僅使得評估發(fā)明和授權(quán)變得更加困難,而且長遠來看甚至可能影響專利制度對人類創(chuàng)新的正向激勵作用。

2.2.3 技術(shù)與市場壟斷

從理論上講,人工智能可以瞬間產(chǎn)生無數(shù)新創(chuàng)意與新發(fā)明,這一過程幾乎無需人工過多參與,加之算法共謀、支配地位濫用等問題,人們對于人工智能加劇壟斷的憂慮愈發(fā)強烈[25]。

從技術(shù)角度看,目前主流的深度學習算法天然具有壟斷傾向[26]。大公司可以利用資金與平臺優(yōu)勢,掌握更多數(shù)據(jù)資源,而算法模型接觸到的特定數(shù)據(jù)資源越多,就越能準確選擇模式,更好地識別現(xiàn)實世界中的事物[27]。如果某公司使用的人工智能技術(shù)比競爭對手更好,那么,對手就很難打破這種壟斷局面,使得創(chuàng)新與競爭環(huán)境變得惡劣。同時,還極易造成信息繭房,阻礙更廣泛的技術(shù)創(chuàng)新發(fā)展。

從專利實踐看,人工智能自主發(fā)明創(chuàng)造很可能被專利權(quán)人用于增強自身技術(shù)壟斷,也可能被非專利人用于降低專利技術(shù)效力[28]。2019年6月26日,谷歌對解決基礎(chǔ)算法Dropout(在深度學習、訓練神經(jīng)網(wǎng)絡(luò)時被普遍使用)的過度擬合問題提出的專利申請US14015768正式生效,在人工智能領(lǐng)域引起軒然大波。樂觀者認為谷歌沒有對算法進行限制或者收費的先例,此次谷歌申請專利很可能是為了防止被其它公司起訴,是一種自我保護行為。悲觀者認為谷歌對深度學習底層算法進行專利申請,握住了整個深度學習領(lǐng)域的命脈,所有Dropout算法使用者都面臨“卡脖子”風險。谷歌對于業(yè)界的爭議并沒有給出正面回應(yīng),但事實是2032年12月24日專利到期前,使用Dropout算法的企業(yè)、科研機構(gòu)、從業(yè)人員都可能面臨專利收費和被限制的風險。另外,人工智能自主發(fā)明創(chuàng)造還可能被“非專利實施實體(NPE)”或“別有用心的人”當作大肆斂財?shù)墓ぞ?,造成系統(tǒng)性的創(chuàng)新生態(tài)危機。

可見,無論是微觀層面還是宏觀層面,人工智能技術(shù)的應(yīng)用都對專利制度形成了巨大挑戰(zhàn)。微軟首席執(zhí)行官薩蒂亞·納德拉(Satya Nadella)明確指出,“人工智能可以增強人類的才能和能力,但是涉及知識產(chǎn)權(quán)的創(chuàng)造和保護時,人工智能應(yīng)該被允許與人類發(fā)明家站在同一立場上嗎?”他認為要慎重對待人工智能相關(guān)知識產(chǎn)權(quán)問題,在沒有進行充分討論的前提下,人工智能不應(yīng)享有同等權(quán)益。

2.2.4 安全與可信

目前人工智能技術(shù)在醫(yī)療、交通、生產(chǎn)、金融等風險敏感型領(lǐng)域出現(xiàn)了越來越多的發(fā)明創(chuàng)造,能否有效降低人工智能技術(shù)在這些敏感領(lǐng)域的系統(tǒng)性風險,實現(xiàn)安全可信的人工智能,一定程度上決定人工智能應(yīng)用的廣度和深度[7]。

安全可信的人工智能主要涉及3個基本問題:邊界性、可回溯和可驗證。其中,“邊界性”稱為適用性,指人工智能可以自主判斷可解與不可解問題的范圍,只有明確適用邊界,才能真正確定安全可信的使用場景。從專利角度看,主要涉及技術(shù)領(lǐng)域和應(yīng)用場景,以及相關(guān)技術(shù)方案的實用性等方面,目前人工智能技術(shù)尚未形成統(tǒng)一、規(guī)范的標準,致使實踐中的判斷與評價都較為困難和模糊?!翱苫厮荨笔侵溉斯ぶ悄芟到y(tǒng)在運行中出現(xiàn)問題或錯誤時,能否對出錯原因進行回溯,其目的是進行追責以便設(shè)計出約束人工智能系統(tǒng)應(yīng)用的規(guī)范和技術(shù)。目前在機器學習類技術(shù)的專利中,相關(guān)算法會隨時間演進和數(shù)據(jù)可及性的改善自主發(fā)生變化,考慮到漫長的專利生命周期,僅在申請階段進行公開是否足夠?如何確保技術(shù)方案的穩(wěn)定?如何有效管理以便追溯?這些問題都亟待探索與研究?!翱沈炞C”即第三方保障和背書,一方面設(shè)計者需要對發(fā)明的改進提供反饋和指導(dǎo),另一方面第三方需要衡量指標和評測標準。專利法第五條規(guī)定:“對違反法律、社會公德或者妨害公共利益的發(fā)明創(chuàng)造,不授予專利權(quán)”,專利制度肩負的是技術(shù)排他保護和技術(shù)信息傳播責任,并不為其產(chǎn)品質(zhì)量和使用背書。然而,一再發(fā)生的產(chǎn)品危機蔓延影響專利聲譽和公信力的事件表明,公眾對專利還存在較大誤解,相應(yīng)地,對專利承載的內(nèi)容也提出了更高期望,這一現(xiàn)象在人工智能時代或?qū)⒏油癸@與尖銳。從公共利益的角度考慮,加強涉及人工智能算法發(fā)明的公開、透明和可追溯,使其置于安全可信環(huán)境中運行和發(fā)展,不僅有利于人工智能產(chǎn)業(yè)發(fā)展,而且有助于公眾利益平衡與維護,滿足社會的殷切期望。

3 應(yīng)對策略及建議

人工智能時代,以專利為代表的知識產(chǎn)權(quán)越來越成為創(chuàng)新發(fā)展激勵性要素、市場競爭戰(zhàn)略性資源,推動人工智能技術(shù)與市場、產(chǎn)業(yè)融合發(fā)展。但鑒于人工智能技術(shù)仍處于快速迭代期,專利制度乃至整個知識產(chǎn)權(quán)體系由“僅人系統(tǒng)”過渡到“人與人工智能系統(tǒng)”需要一個循序漸進的過程?,F(xiàn)階段,不宜在“保護客體”、“機器發(fā)明人”等方面“大刀闊斧”,應(yīng)采取“小步快跑”策略,基于現(xiàn)有制度框架,持續(xù)進行“點穴式”優(yōu)化完善。

進一步,可以從相關(guān)專利的申請流程入手優(yōu)化影響發(fā)展的“短板”問題,從公開規(guī)則入手解決制約發(fā)展的“瓶頸”問題,從審查方面入手破除高質(zhì)量發(fā)展的“軟肋”問題,充分發(fā)揮專利制度對人工智能創(chuàng)新和應(yīng)用的激勵作用。同時,積極探索推進各領(lǐng)域相關(guān)專利審查、標準的完善,穩(wěn)步推進“智能介入”的手段和方式,為最終實現(xiàn)與技術(shù)規(guī)制、法律控制、倫理準則相銜接的綜合治理體系積累經(jīng)驗。

3.1 完善專利公開規(guī)則,促進人工智能技術(shù)的創(chuàng)新、應(yīng)用和流動

專利制度的根本作用是促進技術(shù)創(chuàng)新、應(yīng)用和流動,這就要求發(fā)明者以“公開換取保護”,而對技術(shù)方案的公開披露也是發(fā)明獲得授權(quán)的先決條件。世界各國都對專利公開有明確規(guī)定,中國專利法第二十六條三款規(guī)定“說明書應(yīng)當對發(fā)明或?qū)嵱眯滦妥鞒銮宄⑼暾恼f明,以所屬技術(shù)領(lǐng)域的技術(shù)人員能夠?qū)崿F(xiàn)為準”。然而,目前主流的深度學習人工智能技術(shù)無論是在清楚、完整還是可實現(xiàn)方面都存在較大阻礙。而且,就目前申請人普遍采用的“功能性描述”撰寫方式而言,問題愈加突顯。

從積極的角度考量,專利制度理應(yīng)在“公開”方面發(fā)揮更積極的作用,促進人工智能技術(shù)流動和應(yīng)用。然而矛盾的是,加強公開可能壓制一部分發(fā)明人申請專利的積極性和主動性,導(dǎo)致發(fā)明人出于利益考量,更多采取技術(shù)秘密的方式進行保護。但鑒于目前人工智能技術(shù)的復(fù)雜程度和數(shù)據(jù)獲取難度,未進行“適當”公開的技術(shù)方案可能很難被“外人”借鑒和使用,造成公開與保護方面的失衡,長此以往甚至會造成嚴重壟斷,更不利于技術(shù)創(chuàng)新。因此,從公共利益角度考慮,加強涉及人工智能相關(guān)發(fā)明的公開、透明和可追溯,不僅有利于人工智能技術(shù)發(fā)展,而且有助于公眾利益的平衡與維護。

解決問題的思路在于“探尋一種既符合現(xiàn)階段人工智能技術(shù)發(fā)展和保護需求,又適度滿足專利公開要求的平衡方案”。就深度學習人工智能技術(shù)而言,或許可以從算法架構(gòu)、目標函數(shù)、訓練數(shù)據(jù)3個方面入手進行探索。

為了促進人工智能技術(shù)的應(yīng)用,并避免過度調(diào)試,算法相關(guān)模型架構(gòu)與目標函數(shù)對技術(shù)人員來說都是十分關(guān)鍵和必要的。如果將算法比作人,則“目標函數(shù)”是大腦,“架構(gòu)”是骨骼,而“數(shù)據(jù)”是血肉。

3.1.1 架構(gòu)體系

算法的模型架構(gòu)就像是人的“骨骼”。針對不同任務(wù)的算法模型可能存在較大差異,例如,適合處理可視信息、圖像、感知等任務(wù)的“卷積神經(jīng)網(wǎng)絡(luò)(CNN)”,其層數(shù)和排列雖然是任意的,但每層都會設(shè)置不同高度、寬度和深度,隱層的設(shè)計往往都具有獨特性。如果未披露這些特征,技術(shù)人員只能被迫進行漫無邊際的實驗,從近乎無限的可能中尋找正確方案,這無異于大海撈針。而目前廣泛使用的“深度神經(jīng)網(wǎng)絡(luò)(DNN)”更適合處理較復(fù)雜的任務(wù),通常情況下此類算法中隱層越多越有利于任務(wù)的執(zhí)行,然而這也意味著,執(zhí)行過程將變得更加復(fù)雜和不穩(wěn)定,實現(xiàn)起來也更為困難。因此,不同類型算法的發(fā)明可能還需要針對性的額外信息披露,以便指導(dǎo)技術(shù)人員將算法模型置于適當范圍內(nèi),避免大量、漫無邊際的調(diào)試與驗證。

3.1.2 目標函數(shù)

算法的目標函數(shù)就像是人的“大腦”。它從數(shù)學上定義了模型執(zhí)行任務(wù)的方式,以及度量任務(wù)“成功”的級別。對于目標函數(shù)來說,任何變化都意味著算法模型在設(shè)計上針對不同任務(wù)進行的優(yōu)化。因此,為了確保發(fā)明按照預(yù)期的效果執(zhí)行,目標函數(shù)是必不可少的特征。目前,已有很多通用函數(shù)可供基本的任務(wù)需求,但由于專利技術(shù)方案往往都是在特定領(lǐng)域執(zhí)行特定任務(wù),自定義函數(shù)可能也會大量出現(xiàn)。是否應(yīng)該或有必要對目標函數(shù)進行披露,如何披露以實現(xiàn)申請人、發(fā)明人與社會公眾間權(quán)益平衡,這些問題都值得進一步探索與研究。

3.1.3 數(shù)據(jù)

“數(shù)據(jù)是新的石油”已經(jīng)成為人們普遍的共識,而數(shù)據(jù)對于人工智能來講就如同“血肉”,至關(guān)重要。要想實現(xiàn)一個有效的系統(tǒng),如果沒有合適的數(shù)據(jù)相匹配,那么,其僅是一具“沒有靈魂的軀殼”,不具有任何“實用性”。

目前,各國專利制度對于數(shù)據(jù)相關(guān)披露要求還是空白,大多數(shù)申請人都采用技術(shù)秘密的方式不愿主動公開相關(guān)內(nèi)容。對于具體實施來說,僅能通過領(lǐng)域、應(yīng)用等信息猜測或推斷相關(guān)數(shù)據(jù)的特征,再考慮到算法的不確定性,發(fā)明實施難度被無限放大。

另外,數(shù)據(jù)的結(jié)構(gòu)特征以及準備數(shù)據(jù)所進行的收集、整理、處理等各種操作都可能對算法產(chǎn)生決定性影響。例如,針對成百上千個維度的數(shù)據(jù)集進行特征抽取、隨機采樣、標準化等操作,即使發(fā)明人自己也可能難以明確哪些操作對于算法優(yōu)化是必不可少的以及影響如何。鑒于此,為了滿足發(fā)明的實施要求,有必要對相關(guān)數(shù)據(jù)特征或信息進行適當披露。

然而,從可操作的角度考慮,人工智能數(shù)據(jù)集往往規(guī)模龐大,而且多涉及個人隱私、商業(yè)秘密等信息,實踐中很可能面臨較大困難和阻礙。另外,過度的公開要求可能促使發(fā)明人轉(zhuǎn)向技術(shù)秘密等更隱秘的保護形式,也不利于技術(shù)進步。因此,有效且適度的信息披露制度顯得十分重要。

按照披露的程度至少有3種方式可供選擇:

一是公開數(shù)據(jù)收集或處理過程相關(guān)信息。例如,數(shù)據(jù)來源、收集時間與范圍、處理手段及要求等外圍信息。此類信息可以提供基本的方向指引和評估。

二是公開數(shù)據(jù)集相關(guān)特征信息。例如,人臉圖像數(shù)據(jù)集,其特征可能包括人物范圍、人物分類、采集方式、結(jié)構(gòu)特征、過濾和采樣情況等。這些信息有助于指導(dǎo)技術(shù)人員重新創(chuàng)建類似數(shù)據(jù)集,避免隨意猜測和實驗。

三是直接公開脫敏后的數(shù)據(jù)集或樣本數(shù)據(jù),類似于MNIST、WikiText、LibriSpeech等知名開源數(shù)據(jù)集,進一步還可能涉及僅使用開源數(shù)據(jù)集、包含部分定制的數(shù)據(jù)集、完全定制的數(shù)據(jù)集3種情形。

另外,為了有效管理和保護數(shù)據(jù),可能還需要建立某種統(tǒng)一的數(shù)據(jù)存儲或保藏體系,這可能也是一個巨大挑戰(zhàn)。

雖然困難重重,但是,從操作與收益的角度考量,加強對相關(guān)數(shù)據(jù)的公開披露不僅有利于技術(shù)發(fā)展和應(yīng)用,還有利于全社會對數(shù)據(jù)的收集、處理和流動。在數(shù)據(jù)作為核心生產(chǎn)要素的新時代背景下,其值得積極探索與實踐。而且,就專利制度而言,已經(jīng)有化學、醫(yī)藥領(lǐng)域補充實驗數(shù)據(jù)的先例可供借鑒,具備一定基礎(chǔ)和可操作性。

3.2 健全頂層設(shè)計,優(yōu)化申請流程和審查手段,滿足創(chuàng)新保護的迫切需求

目前,專利申請、審查和授權(quán)周期已經(jīng)大幅壓縮,但要適應(yīng)人工智能技術(shù)的創(chuàng)新步伐還需加大力度,進一步優(yōu)化相關(guān)專利申請程序和審查手段。除利用電子網(wǎng)絡(luò)等現(xiàn)代化手段外,在相關(guān)制度和機制上也需要配合完善。一方面,雖然依托國內(nèi)各地方建設(shè)的知識產(chǎn)權(quán)保護中心和快速維權(quán)中心可以滿足一部分人工智能技術(shù)創(chuàng)新主體、市場主體的需求,但仍然存在技術(shù)領(lǐng)域、管轄范圍等諸多方面的條件制約。而面向國家層面、行業(yè)層面的快速預(yù)審、快速確權(quán)、快速維權(quán)“一站式”知識產(chǎn)權(quán)綜合服務(wù)尚處于空白,導(dǎo)致缺少統(tǒng)籌規(guī)劃,各自為戰(zhàn),難以形成合力。健全和完善人工智能領(lǐng)域的知識產(chǎn)權(quán)創(chuàng)、運、保、管、服的頂層設(shè)計應(yīng)是首要任務(wù)。另一方面,在優(yōu)先審查的基礎(chǔ)上,還應(yīng)積極探索人工智能技術(shù)輔助審查的方法和途徑,并通過不斷累積實踐數(shù)據(jù)和經(jīng)驗,逐步構(gòu)建相關(guān)專利審查的技術(shù)圖譜、審查標準和操作規(guī)程,為進一步縮短審查周期提供技術(shù)保障和支撐。同時,有助于明確相關(guān)專利與技術(shù)標準之間的制約和依存關(guān)系,推動人工智能關(guān)鍵技術(shù)專利進入國際和國內(nèi)標準,也推動各領(lǐng)域標準體系建設(shè),為全球人工智能綜合治理體系創(chuàng)新貢獻中國智慧和中國方案。

3.3 建立人工智能生成物標識制度,為有效辨識和管理提供基礎(chǔ)保障

雖然專利領(lǐng)域已經(jīng)出現(xiàn)人工智能生成物的發(fā)明創(chuàng)造,但受限于人工智能技術(shù)水平和能力,現(xiàn)階段討論其法律地位、權(quán)利義務(wù)等為時尚早。目前,更重要的是如何對其進行有效辨識或區(qū)分,確保其始終在安全可控范圍內(nèi)運行,并為后續(xù)政策制定與協(xié)調(diào)管理提供基礎(chǔ)。從專利角度看,為了進行更有效的辨識,可能要提供某種激勵措施,鼓勵申請人對其進行標識或聲明?;诂F(xiàn)有專利發(fā)明人制度框架,有以下4種處理方式:

(1)暫時擱置,仍然維持“自然人”作為發(fā)明者的規(guī)定,待時機成熟再處理。一方面,人工智能發(fā)明人與“自然人”仍然處于混淆的狀態(tài);另一方面,可能導(dǎo)致各國在專利法中對發(fā)明人的概念作出不同定義或解釋。另外,究竟怎樣才算時機成熟,可能永遠也沒有一個定論,隨著時間的推移,管理、協(xié)調(diào)難度可能越來越大。

(2)一步到位,直接允許人工智能發(fā)明人。這種方式雖然可以最大限度地鼓勵創(chuàng)新和商業(yè)化,但是,仍然會導(dǎo)致人工智能發(fā)明權(quán)利不清等問題,而且,會造成嚴重“壟斷”。在目前人工智能未被承認具有獨立法律人格的情況下,“人工智能”不應(yīng)與“自然人”發(fā)明家具有同等地位。

(3)相關(guān)發(fā)明不具有專利權(quán)或增設(shè)一類有限專利權(quán)予以保護。一方面,拒絕人工智能自主創(chuàng)造的發(fā)明獲得專利權(quán)會直接導(dǎo)致申請人轉(zhuǎn)而采用商業(yè)秘密形式,從而限制人工智能技術(shù)發(fā)展和商業(yè)化使用,甚至造成壟斷;另一方面,增設(shè)一類有限專利權(quán)只會增加制度的復(fù)雜性,并不能帶來明顯的益處。

(4)相關(guān)發(fā)明可以視為“一般發(fā)明”,在現(xiàn)有專利制度框架內(nèi)獲得授權(quán),但需要進行額外聲明或標識??梢栽诒A簟白匀蝗恕卑l(fā)明家的前提下,增設(shè)相應(yīng)人工智能發(fā)明的聲明或標識項,并要求設(shè)置至少一位“自然人”發(fā)明者承擔相關(guān)權(quán)利和義務(wù)。這樣既可以避免人工智能發(fā)明人與“發(fā)明家”相混淆,也可以避免相關(guān)權(quán)利沖突。

考慮到對現(xiàn)有專利制度框架的沖擊與影響,第4種處理方式可能更為溫和,操作難度也較低,效果也較明顯,綜合來看可能更符合現(xiàn)階段發(fā)展需要。

3.4 發(fā)揮紐帶作用,助力構(gòu)建技術(shù)規(guī)制與法律控制為主導(dǎo)的風險防控長效機制

人工智能時代的風險防范和治理需要采取技術(shù)規(guī)制與法律控制的綜合治理體系[16]。專利制度作為科技創(chuàng)新向現(xiàn)實生產(chǎn)力轉(zhuǎn)化的重要橋梁和紐帶,理應(yīng)在構(gòu)建人工智能風險防控的長效機制上發(fā)揮積極作用。

(1)發(fā)揮“審查”之問,助力事前預(yù)防。例如,通過對人工智能發(fā)明實用性審查中“可實施性”、“實施效果”等方面的強化,促進相關(guān)技術(shù)方案的透明、控制與監(jiān)管,進而規(guī)制技術(shù)研究,預(yù)防技術(shù)產(chǎn)生的負面效應(yīng)或副作用。有害發(fā)明的“可專利主題排除”與專利申請案中的無害實用性審查,共同組成防范人工智能發(fā)明技術(shù)風險的安全閥[4]。

(2)發(fā)揮“規(guī)則”之尺,明確權(quán)責配置。專利是具有公、私雙重屬性的商品,通過重塑或明確人工智能領(lǐng)域發(fā)明的使用、分配和利益分享等權(quán)責配置,有利于明確從技術(shù)研發(fā)到應(yīng)用過程的各方責任規(guī)制,確保人工智能始終在科學、道義、倫理和法律的體系下安全運行。

(3)發(fā)揮“公正”之基,推動技術(shù)民主。例如,通過對人工智能發(fā)明申請、審查中的程序優(yōu)化,推動技術(shù)信息公開、公眾積極參與和決策。同時,結(jié)合反壟斷、反不正當競爭等監(jiān)管手段,推動各利益主體間平衡,確保公平正義,以實現(xiàn)社會利益最大化。

4 結(jié)語

人工智能從輔助工具到自主決策的發(fā)展已經(jīng)不再局限于技術(shù)層面,而是向著新生產(chǎn)要素的方向邁進,不斷融入整個社會生態(tài)系統(tǒng)中。雖然全面解決人工智能問題已經(jīng)超出專利的范疇,但是,專利制度本身仍然可以發(fā)揮十分重要的積極影響,通過相關(guān)制度的優(yōu)化與協(xié)調(diào),幫助公眾更好地檢驗、理解和監(jiān)督人工智能創(chuàng)新與發(fā)展,進而增進全社會公眾的福祉。

本文主要側(cè)重專利制度實踐,通過分析人工智能時代專利制度面臨的沖擊和挑戰(zhàn),提出我國現(xiàn)階段人工智能相關(guān)專利制度優(yōu)化、完善的對策建議。具體包括:完善專利公開規(guī)則,促進人工智能技術(shù)的創(chuàng)新、應(yīng)用和流動;健全頂層設(shè)計,優(yōu)化申請流程和審查手段,滿足創(chuàng)新保護的需求;建立人工智能生成物標識制度,為有效辨識和管理提供基礎(chǔ)保障;構(gòu)建技術(shù)規(guī)制與法律控制為主導(dǎo)的風險防范控制機制。

未來以專利為代表的知識產(chǎn)權(quán)將越來越成為創(chuàng)新發(fā)展的戰(zhàn)略性資源和激勵性要素,推動人工智能技術(shù)與產(chǎn)業(yè)深度融合。堅持包容審慎的態(tài)度,在安全可控的范圍內(nèi)積極探索,不僅有助于我國人工智能技術(shù)發(fā)展,而且有助于促進全社會高質(zhì)量發(fā)展。

猜你喜歡
專利制度專利人工智能
專利
水運工程(2022年7期)2022-07-29 08:37:38
日本專利制度和中國專利制度的對比分析
法制博覽(2019年19期)2019-12-14 16:05:57
發(fā)明與專利
傳感器世界(2019年4期)2019-06-26 09:58:44
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
專利制度在科技發(fā)展中的作用研究
今日湖北(2015年17期)2015-12-03 15:52:20
社會福利視角下的專利制度問題
學習月刊(2015年4期)2015-07-09 03:51:54
專利制度的兩面性
天全县| 孟连| 商都县| 石城县| 商南县| 温宿县| 万宁市| 白河县| 平泉县| 绥宁县| 承德市| 进贤县| 黔江区| 广灵县| 安徽省| 海丰县| 岳池县| 云安县| 江达县| 东乌珠穆沁旗| 海口市| 库车县| 沙坪坝区| 江北区| 于田县| 中宁县| 贵州省| 鱼台县| 大同县| 益阳市| 淮北市| 特克斯县| 宣汉县| 河曲县| 凤凰县| 武强县| 临朐县| 蕉岭县| 申扎县| 陆河县| 蚌埠市|