陳 蓉
(廣西師范大學(xué)法學(xué)院,廣西 桂林541000)
阿爾法狗戰(zhàn)勝世界圍棋高手、沙特賦予機(jī)器人索菲亞“公民”資格等相關(guān)新聞的頻繁出現(xiàn),“人工智能”一詞引起人們關(guān)注。人工智能自1956年提出后幾經(jīng)沉浮,終在2010年進(jìn)入增長(zhǎng)爆發(fā)期,其所追求的目標(biāo)也在不斷變化。隨著互聯(lián)網(wǎng)、大數(shù)據(jù)時(shí)代的到來,人們追求將機(jī)器、人、網(wǎng)絡(luò)和物相結(jié)合的復(fù)雜的智能系統(tǒng),現(xiàn)今人工智能產(chǎn)品已普遍存在,伴隨而來的也有種種聲音,如日本工業(yè)機(jī)器人切割致死工人;美國(guó)機(jī)器人跟蹤殺死倉庫管理員;德國(guó)大眾汽車制造廠機(jī)器人致人死亡;索菲亞在記者采訪中說出未來會(huì)消滅人類的言論,等等。系列事件讓人們開始思考人工智能發(fā)展是否存在邊界,人工智能發(fā)展應(yīng)遵循哪些倫理規(guī)則以及對(duì)現(xiàn)有人工智能體技術(shù)成果的保護(hù)方式。
大數(shù)據(jù)時(shí)代的到來為人工智能發(fā)展開啟了大門,各國(guó)紛紛加入人工智能研發(fā)的隊(duì)伍。2016年美國(guó)政府連發(fā)三份政府報(bào)告提出人工智能國(guó)家戰(zhàn)略,同時(shí)表示著手解決人工智能潛在的法律、道德和社會(huì)影響。同年,英國(guó)政府也發(fā)布報(bào)告呼吁重視并研究人工智能倫理和法律問題。歐洲議會(huì)同時(shí)發(fā)布關(guān)于人工智能和機(jī)器人的報(bào)告,表示將會(huì)研究如何應(yīng)對(duì)機(jī)器人帶來的諸如安全、隱私等問題。
我國(guó)在2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出人工智能現(xiàn)已成為國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn),在未來創(chuàng)新型國(guó)家建設(shè)和科技強(qiáng)國(guó)的轉(zhuǎn)型進(jìn)程中扮演重要角色。面對(duì)人工智能帶來的新機(jī)遇,我國(guó)應(yīng)盡快在國(guó)家戰(zhàn)略層面系統(tǒng)布局,掌握主動(dòng)權(quán),加強(qiáng)國(guó)際合作,建立全世界通用的人工智能標(biāo)準(zhǔn)化體系來保障人工智能安全、穩(wěn)定的發(fā)展。只有這樣,我國(guó)才能在人工智能領(lǐng)域的國(guó)際舞臺(tái)上搶占一席之地,提升國(guó)際地位。
國(guó)內(nèi)外企業(yè)已紛紛布局人工智能產(chǎn)業(yè)發(fā)展。最典型的便是美國(guó)“301”條款,這一條款曾使日本經(jīng)濟(jì)受到較大影響。2018年,美國(guó)再次對(duì)我國(guó)啟動(dòng)“301”調(diào)查,調(diào)查對(duì)象直指高新技術(shù)產(chǎn)業(yè),[1]我國(guó)應(yīng)當(dāng)加強(qiáng)人工智能領(lǐng)域知識(shí)產(chǎn)權(quán)的保護(hù),提升國(guó)際市場(chǎng)價(jià)值,避免國(guó)際社會(huì)將中國(guó)創(chuàng)造的高端智能產(chǎn)品貼上低端、廉價(jià)和山寨的標(biāo)簽,[2]通過人工智能領(lǐng)域的中國(guó)創(chuàng)造形成國(guó)家產(chǎn)業(yè)布局,在未來人工智能領(lǐng)域的發(fā)展中占據(jù)有利地位。
我國(guó)要在未來實(shí)現(xiàn)從“中國(guó)制造”到“中國(guó)創(chuàng)造”的轉(zhuǎn)變,必須緊抓人工智能這一經(jīng)濟(jì)發(fā)展的新引擎,從整體上提升社會(huì)生產(chǎn)力,營(yíng)造創(chuàng)新氛圍、培養(yǎng)創(chuàng)新型人才、加快技術(shù)創(chuàng)新步伐,才能有效應(yīng)對(duì)美國(guó)的施壓和限制。創(chuàng)新技術(shù)和知識(shí)產(chǎn)權(quán)共同作用才能徹底消除美國(guó)“301”條款對(duì)我國(guó)的影響。因此面向未來的人工智能領(lǐng)域的保護(hù)應(yīng)當(dāng)是全方位的,預(yù)防和救濟(jì)措施同步,不僅包括國(guó)家在宏觀政策方面的引導(dǎo)和規(guī)劃,還應(yīng)當(dāng)包括發(fā)展過程中遵循的倫理規(guī)范、法律制度,建立一套保護(hù)和激勵(lì)共同作用的規(guī)范體系。[3]
生命智能研究所在發(fā)布的公開信中提到:人工智能必須只做我們要它們做的,即“有益于人的人工智能”。根據(jù)2017年阿西洛馬原則的23條規(guī)定,人工智能的應(yīng)用必須堅(jiān)持以人為中心,規(guī)制人工智能的倫理規(guī)范和法律制度也應(yīng)當(dāng)以保護(hù)和實(shí)現(xiàn)人的利益為價(jià)值目標(biāo)。吳漢東教授在一次公開講話中談到人工智能帶來的風(fēng)險(xiǎn)應(yīng)當(dāng)以預(yù)防為主,事后補(bǔ)救機(jī)制不能成為常態(tài)。從技術(shù)研究出發(fā),在研發(fā)和應(yīng)用各環(huán)節(jié)進(jìn)行規(guī)制,降低甚至排除人工智能技術(shù)帶來的負(fù)面效應(yīng)。
科技的發(fā)展是為了更好地服務(wù)人類,人工智能使人類生活更加便捷、舒適,社會(huì)運(yùn)行更加安全、高效,社會(huì)治理水平也不斷提升。通過倫理規(guī)范、法律規(guī)制和政策引導(dǎo)相結(jié)合,秉持以人為本的理念,促進(jìn)人工智能領(lǐng)域健康發(fā)展為目標(biāo),構(gòu)建一套完整的社會(huì)治理體系勢(shì)在必行。
按照現(xiàn)有專利制度和審查模式,人工智能體技術(shù)成果通過專利審查的概率很高,但若給予人工智能體技術(shù)成果與傳統(tǒng)發(fā)明一樣的專利保護(hù)勢(shì)必會(huì)引發(fā)專利泛濫的現(xiàn)象。人工智能體技術(shù)成果生成速度快、數(shù)量多,且技術(shù)成果之間往往是利用與被利用的關(guān)系,盲目的保護(hù)措施和過度保護(hù)會(huì)適得其反,過多專利的出現(xiàn)和過長(zhǎng)的保護(hù)期限會(huì)遏制科技的發(fā)展。
日本已經(jīng)對(duì)人工智能相關(guān)技術(shù)成果設(shè)定了審查標(biāo)準(zhǔn)。指南中明確關(guān)于人工智能的專利申請(qǐng),基本適用計(jì)算機(jī)程序的審查標(biāo)準(zhǔn),特別關(guān)注可實(shí)施性和創(chuàng)造性的審查。這表明相比于傳統(tǒng)的發(fā)明,人工智能在這兩方面應(yīng)當(dāng)具有更高的標(biāo)準(zhǔn)。
日本在胚胎干細(xì)胞方面的專利審查體現(xiàn)的專利審查標(biāo)準(zhǔn)的獨(dú)特性對(duì)人工智能專利的保護(hù)具有重要借鑒意義。日本專利法提出隨著時(shí)代變遷,倫理觀、道德觀也在不斷變化,面對(duì)新科技的出現(xiàn),應(yīng)該采用更多的具體倫理觀,在滿足科技發(fā)展需求的同時(shí)兼顧新科技領(lǐng)域整體發(fā)展?fàn)顩r。日本專利審查部門提出基于生物技術(shù)的不確定性程度高、通用性強(qiáng)和產(chǎn)品多樣性的特點(diǎn),對(duì)涉及胚胎干細(xì)胞的權(quán)利要求的實(shí)用性標(biāo)準(zhǔn)審查方面有所提高。但是在判斷創(chuàng)造性是僅采用“以往型”標(biāo)準(zhǔn),只考慮是否是現(xiàn)有技術(shù)的簡(jiǎn)單疊加,這一判斷標(biāo)準(zhǔn)從某種程度上來說是放寬了胚胎干細(xì)胞的專利審查標(biāo)準(zhǔn),使得胚胎干細(xì)胞能夠較為容易地獲得創(chuàng)造性,滿足專利客體要求,同時(shí)日本政府還出臺(tái)政策引導(dǎo)胚胎干細(xì)胞專利的發(fā)展。[4]
歐盟也對(duì)人工智能相關(guān)專利審查標(biāo)準(zhǔn)作出規(guī)定。2018年歐盟頒布的《專利審查指南》在新增加的“AI與機(jī)器學(xué)習(xí)”一節(jié)中明確規(guī)定其審查標(biāo)準(zhǔn)適用“數(shù)學(xué)方法”審查標(biāo)準(zhǔn),主要內(nèi)容可以概括為兩點(diǎn):1.單純的抽象的數(shù)學(xué)方法不屬于可授予專利權(quán)的主題;2.保護(hù)主題整體上應(yīng)具備技術(shù)性特征。技術(shù)特征體現(xiàn)在技術(shù)方案要解決技術(shù)問題和實(shí)施技術(shù)方案改善了計(jì)算機(jī)的內(nèi)部性能。這一規(guī)定嚴(yán)格限制了人工智能專利保護(hù)的范圍,使得以后有關(guān)人工智能類的技術(shù)成果進(jìn)入歐盟更加困難,而在指南頒布之前,歐盟境內(nèi)的人工智能類專利保護(hù)就少于美國(guó)、日本和中國(guó)。
歐盟已經(jīng)開始著手制定人工智能倫理準(zhǔn)則。2016年發(fā)布的《機(jī)器人倫理初步報(bào)告草案》中指出機(jī)器人首先應(yīng)當(dāng)尊重人類社會(huì)現(xiàn)有的倫理規(guī)范,考慮在機(jī)器人中編入倫理程序。該《草案》提出應(yīng)當(dāng)設(shè)立人工智能倫理準(zhǔn)則,建立指導(dǎo)人工智能研發(fā)、設(shè)計(jì)、應(yīng)用的倫理框架,確保人工智能按照相應(yīng)的倫理、法律和安全等標(biāo)準(zhǔn)進(jìn)行運(yùn)作。同時(shí)對(duì)科研人員提出更高的要求,在技術(shù)水平過硬的前提下應(yīng)當(dāng)具備相當(dāng)高的素質(zhì),不受利益驅(qū)使研發(fā)違背人類發(fā)展進(jìn)程的人工智能。[5]
美國(guó)在專利審查時(shí)首先判斷申請(qǐng)專利的適格性,審查專利申請(qǐng)文件所涉內(nèi)容是否屬于抽象概念、自然現(xiàn)象和自然規(guī)律,因此對(duì)這三種概念的理解至關(guān)重要。在審查實(shí)踐中,人工智能和機(jī)器學(xué)習(xí)的算法被認(rèn)定為是抽象概念,不具有可專利性,單純的算法申請(qǐng)專利在美國(guó)大多以客體不適格為由被駁回專利申請(qǐng)。2019年美國(guó)最新發(fā)布的審查指南中做了規(guī)定,包含司法例外的專利申請(qǐng)關(guān)鍵看這一司法例外是否被整合到實(shí)際應(yīng)用中,若在實(shí)際應(yīng)用中有所體現(xiàn),則被認(rèn)為是適格的專利客體。新修訂的指南中同樣對(duì)抽象概念的范圍作出調(diào)整,包括數(shù)學(xué)概念、組織人類活動(dòng)的特定方法和心理過程。根據(jù)這一概念,很難將算法納入抽象概念的范疇,新指南明顯放寬了適格客體的范圍,促進(jìn)了人工智能領(lǐng)域的專利授予。
專利權(quán)主體包括發(fā)明人與設(shè)計(jì)人、專利申請(qǐng)人,專利申請(qǐng)人可以是自然人,也可以是單位。[6]《專利法實(shí)施細(xì)則》中規(guī)定的發(fā)明人應(yīng)當(dāng)是個(gè)人。由此可見發(fā)明人與設(shè)計(jì)人是可以和專利申請(qǐng)人相分離的。發(fā)明人與設(shè)計(jì)人享有署名權(quán),專利申請(qǐng)人獲得專利后享有的是財(cái)產(chǎn)權(quán),是一種獨(dú)占的、壟斷的權(quán)利。一項(xiàng)發(fā)明專利的申請(qǐng)人只要能提供證明其資格的有效文件即可,一般不會(huì)對(duì)申請(qǐng)人進(jìn)行資格審查。發(fā)明人與設(shè)計(jì)人的署名權(quán)不可以轉(zhuǎn)讓,專利權(quán)人可以就其享有的權(quán)利通過合同約定形式轉(zhuǎn)讓給其他人。這一法律制度的設(shè)置為人工智能體技術(shù)成果在發(fā)明人尚處爭(zhēng)議的情況下直接進(jìn)行專利保護(hù)提供理論支撐。人工智能體技術(shù)成果在法律主體還不明確的情況下探討對(duì)其的保護(hù)模式是可行的。
我國(guó)專利法的客體包括發(fā)明、實(shí)用新型和外觀設(shè)計(jì)。人工智能體技術(shù)成果通過專利審查后可以納入發(fā)明的范疇。發(fā)明的實(shí)質(zhì)是技術(shù)方案,該技術(shù)方案在能夠產(chǎn)生新的產(chǎn)品、方法,或者對(duì)改進(jìn)產(chǎn)品、方法有新的作用。
人工智能的基礎(chǔ)是數(shù)據(jù),核心是算力,本質(zhì)是算法。算法在傳統(tǒng)意義上屬于智力活動(dòng)的規(guī)則和方法,屬于不授予專利權(quán)的情形。但是在審查實(shí)踐中,我國(guó)已有單純的算法被授予專利權(quán)。這一專利授予是否與現(xiàn)有法律制度沖突,關(guān)鍵在于對(duì)算法和智力活動(dòng)的規(guī)則和方法兩個(gè)概念的理解。
智力活動(dòng)的規(guī)則和方法是指指導(dǎo)人們進(jìn)行思維、表述、判斷和記憶的規(guī)則和方法,強(qiáng)調(diào)的是規(guī)則和方法。而人工智能體運(yùn)行的實(shí)質(zhì)是計(jì)算機(jī)程序的運(yùn)行、算法的運(yùn)行,人工智能體根據(jù)特定目的,對(duì)海量數(shù)據(jù)進(jìn)行分析學(xué)習(xí),形成最優(yōu)的技術(shù)方案。自然人對(duì)結(jié)果可以提前預(yù)測(cè),但是對(duì)產(chǎn)生結(jié)果的過程難以描述,這與傳統(tǒng)的智力活動(dòng)的規(guī)則和方法存在差別。人工智能體更傾向于通過對(duì)數(shù)據(jù)的自我學(xué)習(xí)、自我推理,結(jié)合多種方案的優(yōu)點(diǎn)形成一套最優(yōu)技術(shù)方案,在運(yùn)行過程中所使用的規(guī)則和方法是未知的??梢赃@樣理解:人工智能體所依賴的算法不單是一種規(guī)則和方法,其能產(chǎn)生新的技術(shù)成果說明其具備產(chǎn)生新的技術(shù)方案的能力,應(yīng)當(dāng)不屬于智力活動(dòng)的規(guī)則和方法的范疇。
1.新穎性
專利審查標(biāo)準(zhǔn)之一——新穎性是采用單獨(dú)比對(duì)原則,申請(qǐng)專利的技術(shù)成果不屬于現(xiàn)有技術(shù),也沒有在先申請(qǐng)。現(xiàn)有技術(shù)是指申請(qǐng)日前國(guó)內(nèi)外已經(jīng)公布的技術(shù)。單獨(dú)比對(duì)原則是指與每一項(xiàng)現(xiàn)有技術(shù)分別進(jìn)行比對(duì),其中指南第三章3.2.3節(jié)單獨(dú)提出慣用手段的直接置換,其本質(zhì)還是采用現(xiàn)有的技術(shù)手段、解決相同的技術(shù)問題,產(chǎn)生相同的技術(shù)效果,與現(xiàn)有技術(shù)并無差異,因此不具備新穎性。人工智能基于強(qiáng)大的運(yùn)算分析能力可以有效規(guī)避現(xiàn)有技術(shù)、滿足新穎性要求并不困難。但人工智能體技術(shù)成果可能是現(xiàn)有技術(shù)的簡(jiǎn)單綜合,通過單獨(dú)比對(duì)原則難以發(fā)現(xiàn)其與現(xiàn)有技術(shù)隱含的關(guān)系,這樣的技術(shù)成果若獲得保護(hù)就違背了專利保護(hù)的目的,[7]且若將此類技術(shù)成果賦予專利保護(hù),勢(shì)必會(huì)引發(fā)專利叢林現(xiàn)象,導(dǎo)致專利泛濫,專利的質(zhì)量也不能獲得保障。因此對(duì)人工智能體技術(shù)成果僅采用單獨(dú)比對(duì)原則判斷其是否滿足新穎性的條件難以達(dá)到保護(hù)目的,反而會(huì)使有人惡意申請(qǐng)專利作為對(duì)抗其他權(quán)利人的利器。
2.創(chuàng)造性
專利審查標(biāo)準(zhǔn)之二——?jiǎng)?chuàng)造性是專利審查實(shí)踐中最難滿足的,創(chuàng)造性要求申請(qǐng)專利的技術(shù)成果相比現(xiàn)有技術(shù)應(yīng)具有顯著的進(jìn)步和突出的實(shí)質(zhì)性特點(diǎn)。人工智能根據(jù)其作用機(jī)理,擅長(zhǎng)對(duì)現(xiàn)有技術(shù)的大量搜集、整理和分析,將不同的元素進(jìn)行組合形成新的技術(shù),發(fā)揮新的功能,能夠滿足一定程度的創(chuàng)造性,但很難達(dá)到專利法所要提出的創(chuàng)造性高度。創(chuàng)造性的審查工作由所屬領(lǐng)域技術(shù)人員完成,而目前我國(guó)的專利審查員還欠缺審查人工智能體技術(shù)成果專利的相關(guān)技能。[8]
3.實(shí)用性
專利審查標(biāo)準(zhǔn)之三——實(shí)用性。實(shí)用性判斷標(biāo)準(zhǔn)要求技術(shù)成果能夠被制造且產(chǎn)生積極效果,遵循自然規(guī)律,具有可再現(xiàn)性。實(shí)用性審查在我國(guó)專利審查過程中一直處于弱勢(shì)地位,判斷較為容易,申請(qǐng)專利的技術(shù)成果通常會(huì)滿足這一標(biāo)準(zhǔn)。面對(duì)新科技領(lǐng)域的不斷發(fā)展,對(duì)新穎性和創(chuàng)造性標(biāo)準(zhǔn)提出挑戰(zhàn)的同時(shí)也引起對(duì)實(shí)用性標(biāo)準(zhǔn)的思考?,F(xiàn)有專利制度中對(duì)實(shí)用性標(biāo)準(zhǔn)要求過低,只要產(chǎn)品能夠?qū)嶋H制造、方法能夠?qū)嶋H運(yùn)用,能夠產(chǎn)生技術(shù)效果就認(rèn)為通過實(shí)用性標(biāo)準(zhǔn)審查。[9]這一標(biāo)準(zhǔn)直接適用于人工智能體技術(shù)成果,專利審查員只需根據(jù)申請(qǐng)文件判斷其是否具有實(shí)現(xiàn)的可能性及排除明顯不應(yīng)被授予專利權(quán)的情形。人工智能研發(fā)無論在人力、財(cái)力方面還是物力方面都投入巨大,依據(jù)申請(qǐng)順序不排除會(huì)將一些實(shí)用性較低的技術(shù)成果授予專利,而人工智能很多技術(shù)具有相互嵌套的特點(diǎn),按照現(xiàn)有標(biāo)準(zhǔn),在先申請(qǐng)的實(shí)用性低的技術(shù)成果將阻礙實(shí)用性高的技術(shù)成果申請(qǐng)專利,前期專利勢(shì)必會(huì)阻礙后期實(shí)用性更強(qiáng)的專利申請(qǐng)。因此現(xiàn)有的實(shí)用性標(biāo)準(zhǔn)要想在人工智能領(lǐng)域充分發(fā)揮作用,應(yīng)當(dāng)做出適當(dāng)調(diào)整。
4.綜合分析“三性”標(biāo)準(zhǔn)
專利審查標(biāo)準(zhǔn)在實(shí)踐應(yīng)用過程中是有順序限制的,按照實(shí)用性、新穎性、創(chuàng)造性依次進(jìn)行,且前兩項(xiàng)標(biāo)準(zhǔn)的判斷較為容易。面對(duì)新興科技的產(chǎn)物,現(xiàn)有的標(biāo)準(zhǔn)已難以適應(yīng),需要結(jié)合人工智能的特點(diǎn)提出對(duì)策。人工智能體技術(shù)成果發(fā)明數(shù)量多、發(fā)明速度快、發(fā)明創(chuàng)造互相利用和嵌套的特點(diǎn)加大了專利審查過程的難度。對(duì)實(shí)用性標(biāo)準(zhǔn)的判斷不能僅停留在能否實(shí)際產(chǎn)生效果,而應(yīng)當(dāng)結(jié)合前期投入、使用成本、取得效果、應(yīng)用范圍等綜合判斷。若一項(xiàng)人工智能技術(shù)成果的成產(chǎn)成本高于其所創(chuàng)造的價(jià)值,則沒有授予專利的必要性。[10]這類專利現(xiàn)實(shí)存在,應(yīng)該尋求一種新的保護(hù)機(jī)制以實(shí)現(xiàn)對(duì)人工智能領(lǐng)域技術(shù)成果的保護(hù)、促進(jìn)和應(yīng)用。對(duì)新穎性的判斷也如此,利用單獨(dú)比對(duì)原則難以發(fā)現(xiàn)其與現(xiàn)有技術(shù)的關(guān)系,龐大的數(shù)據(jù)和不可預(yù)測(cè)的特點(diǎn)導(dǎo)致生成的結(jié)果超出審查人員的想象,這一問題也是目前在專利審查工作中亟待解決的。是否具備創(chuàng)造性先不討論,通過實(shí)用性、新穎性這兩項(xiàng)較為簡(jiǎn)單的判斷排除無法授予專利的申請(qǐng)后,在之后的審查中將大大減輕審查人員的負(fù)累。
設(shè)置監(jiān)管機(jī)構(gòu)的目的是為了讓人工智能處于人類可控范圍。監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)在宏觀層面制定人工智能發(fā)展應(yīng)當(dāng)遵循的規(guī)則和禁止事項(xiàng),平衡各方利益主體之間的關(guān)系,旨在實(shí)現(xiàn)以安全為核心、以創(chuàng)新為靈魂、以和諧為最高價(jià)值追求的社會(huì)體系。艾薩克·阿西莫夫提出的“機(jī)器人三定律”表達(dá)的觀點(diǎn)本質(zhì)在于機(jī)器人應(yīng)當(dāng)保護(hù)人類,在自身不傷害人類的同時(shí)還要防止外界對(duì)人類的傷害。時(shí)刻要以保護(hù)人類為目的,在滿足這一前提的條件下再追求對(duì)自身的保護(hù)。[11]阿西洛馬會(huì)議達(dá)成的23項(xiàng)人工智能原則已成為人工智能領(lǐng)域廣為接受的基礎(chǔ)性原則,該原則適用于人工智能時(shí)代的各個(gè)階段,明確人工智能的發(fā)展就是為人類的共同倫理理想和共同利益服務(wù)。[12]
人工智能時(shí)代引發(fā)的爭(zhēng)議和反思大多源于其不可預(yù)測(cè)性。20世紀(jì)末出現(xiàn)的克隆技術(shù)曾轟動(dòng)一時(shí),人們擔(dān)憂和自己一樣的克隆人的出現(xiàn)將會(huì)引起世界秩序的混亂。最終克隆技術(shù)在聯(lián)合國(guó)發(fā)布禁止克隆具有生命的自然人后歸于沉寂。[13]人工智能技術(shù)帶來的問題不能僅憑借頒布禁令就可以解決,人工智能技術(shù)的發(fā)展能夠提高人類生活質(zhì)量,為人類帶來利益,因此應(yīng)當(dāng)設(shè)立人工智能領(lǐng)域倫理準(zhǔn)則,設(shè)立監(jiān)管機(jī)構(gòu),實(shí)現(xiàn)宏觀層面的監(jiān)控,確保人工智能技術(shù)健康發(fā)展。
目前人工智能領(lǐng)域的發(fā)展還未達(dá)到要大肆修改我國(guó)專利制度的程度,通過現(xiàn)有的專利制度標(biāo)準(zhǔn)和程序進(jìn)行保護(hù)即可,只需在部分細(xì)節(jié)方面通過專項(xiàng)司法解釋或者指導(dǎo)性文件的形式作出特殊規(guī)定,主要包括以下幾點(diǎn)內(nèi)容:
1.針對(duì)人工智能體技術(shù)成果的專利申請(qǐng)進(jìn)行倫理審查是必要的,將由機(jī)器產(chǎn)生的算法偏差和機(jī)器歧視[14]等不利于人類健康發(fā)展的、與公共秩序和法律規(guī)定相沖突的技術(shù)成果排除在專利保護(hù)客體之外。
2.在實(shí)用性審查標(biāo)準(zhǔn)方面,更加注重判斷授予專利后,該項(xiàng)專利是否能夠帶來某種現(xiàn)實(shí)的、直接的好處,且這種好處是可以再現(xiàn)、值得信賴的。這一點(diǎn)可以借鑒美國(guó)在專利實(shí)用性上的判斷標(biāo)準(zhǔn),權(quán)利要求書中寫明的實(shí)用性應(yīng)當(dāng)明確具體、可信度高、可以轉(zhuǎn)化。[15]同時(shí)對(duì)實(shí)用性的判斷還應(yīng)結(jié)合人工智能領(lǐng)域發(fā)展?fàn)顩r,該項(xiàng)技術(shù)成果產(chǎn)生的成本與實(shí)際效益之間的比例進(jìn)行綜合判斷。
3.在新穎性審查方面,傳統(tǒng)的單獨(dú)比對(duì)原則已不能適應(yīng)人工智能體技術(shù)成果。僅憑人力在數(shù)量龐大的現(xiàn)有技術(shù)資料中搜尋有關(guān)聯(lián)的技術(shù)資料任務(wù)量龐大,可以通過引入人工智能檢索系統(tǒng)輔助查找,在查找結(jié)果中再進(jìn)行人工分析比對(duì),大大提高工作效率。這對(duì)專利審查員就提出了更高的要求,[16]既是人工智能技術(shù)領(lǐng)域的專家,掌握專利申請(qǐng)文件中的術(shù)語,又了解專利審查中的規(guī)定。
4.在審查周期和保護(hù)期限方面也應(yīng)當(dāng)有特別規(guī)定。過長(zhǎng)的審查期限會(huì)導(dǎo)致技術(shù)成果失去利用價(jià)值,可以按照利用價(jià)值的高低給予人工智能體技術(shù)成果不同程度的保護(hù)。利用價(jià)值高的技術(shù)成果審查周期相對(duì)可以延長(zhǎng),但應(yīng)當(dāng)明顯短于傳統(tǒng)發(fā)明的審查周期,同時(shí)可以在傳統(tǒng)發(fā)明20年保護(hù)期范圍內(nèi)規(guī)定較長(zhǎng)的保護(hù)期限,反之亦然。這樣就賦予專利審查部門較大的自由裁量權(quán),也可以將其規(guī)定為前述的監(jiān)管機(jī)構(gòu)的工作之一。
人工智能體雖然可以獨(dú)立產(chǎn)生技術(shù)成果,但目前仍無法完全擺脫人類。目前保護(hù)人工智能體技術(shù)成果需要達(dá)到的目的是對(duì)研發(fā)和控制人工智能的主體進(jìn)行保護(hù)和激勵(lì)。人工智能的發(fā)展是為了更好地服務(wù)人類,永遠(yuǎn)不能代替人類的智慧,人類的智慧才是創(chuàng)新的主要源泉。對(duì)于人工智能,我們應(yīng)該謹(jǐn)慎對(duì)待其授予標(biāo)準(zhǔn),提高專利授予門檻,充分發(fā)揮監(jiān)管、倫理規(guī)范和法律規(guī)制的作用,保護(hù)技術(shù)成果的同時(shí)促進(jìn)科技的發(fā)展。