王瑞玲,周 月
(湖南工業(yè)大學(xué) 法學(xué)院,湖南省包裝標(biāo)準(zhǔn)與法規(guī)重點(diǎn)研究基地,湖南 株洲 412007)
以替代人從事智力性活動(dòng)為目的的人工智能,是人以自身為模板的創(chuàng)造物,天然具有“近人”“類人”的特點(diǎn)。人工智能“與人無(wú)限接近”的發(fā)展態(tài)勢(shì),使得人工智能作為法律主體的必要性與可行性問(wèn)題在法學(xué)界引起持續(xù)討論。取代分析式人工智能,生成式人工智能已經(jīng)被較大范圍運(yùn)用于創(chuàng)作。2022年,美國(guó)人工智能研究公司OpenAI研發(fā)的ChatGPT,不但對(duì)使用者提出的一些專業(yè)問(wèn)題對(duì)答如流,還能在使用者參與下,完成小說(shuō)創(chuàng)作等復(fù)雜任務(wù)。2023年3月,OpenAI公司又進(jìn)一步發(fā)布多模態(tài)大模型GPT-4,作為ChatGPT的升級(jí)版,GPT-4不僅能夠支撐文字、圖片、視頻多種模態(tài),而且比ChatGPT更加接近人類的智力水平。通過(guò)測(cè)試,它在一次試驗(yàn)的律師執(zhí)業(yè)考試中已經(jīng)能夠打敗90%的參試人員[1]。生成式人工智能技術(shù)正在以“加速度”進(jìn)入數(shù)字社會(huì),逐漸深度參與社會(huì)運(yùn)行,強(qiáng)人工智能時(shí)代即將到來(lái),人工智能法律地位定位也將成為數(shù)字時(shí)代法治面臨的結(jié)構(gòu)性難題[2]。
人工智能的民事客體定位,使得人工智能創(chuàng)作物因沒(méi)有創(chuàng)作主體,無(wú)法被認(rèn)定為作品而不能受到法律保護(hù)。因此,對(duì)于人工智能創(chuàng)作物,是否應(yīng)當(dāng)受到法律保護(hù),如何使其受法律保護(hù),是困擾司法實(shí)務(wù)界的一個(gè)典型的涉及人工智能法律地位爭(zhēng)議的問(wèn)題。實(shí)踐中,“菲林訴百度案”和“騰訊訴盈訊案”的判決提供了兩種截然不同的觀點(diǎn)。
“菲林訴百度案”(見(jiàn)北京互聯(lián)網(wǎng)法院(2018)京0491民初239號(hào)判決書及北京知識(shí)產(chǎn)權(quán)法院(2019)京73民終2030號(hào)判決書,以下簡(jiǎn)稱“菲林案”)中,原告菲林律師事務(wù)所(以下簡(jiǎn)稱“菲林”)使用威科先行法律信息庫(kù)的軟件,自動(dòng)生成了一篇圖文并茂的“影視娛樂(lè)行業(yè)司法大數(shù)據(jù)分析報(bào)告”,菲林將這份分析報(bào)告發(fā)布在其微信公眾號(hào)。此后菲林發(fā)現(xiàn),被告北京百度網(wǎng)訊科技有限公司(以下簡(jiǎn)稱“百度”)經(jīng)營(yíng)的百家號(hào)平臺(tái)上也發(fā)布了該報(bào)告,菲林將百度起訴至法院,認(rèn)為被告侵害了其著作權(quán)。法院審理認(rèn)為,創(chuàng)作作品的民事主體為著作權(quán)的享有者。著作權(quán)的產(chǎn)生,必須存在兩個(gè)條件,一是要具備“獨(dú)創(chuàng)性”,二是需由“民事主體創(chuàng)作”。該分析報(bào)告雖然是針對(duì)相關(guān)數(shù)據(jù)的選擇、判斷、分析,具有一定的“獨(dú)創(chuàng)性”,但這份報(bào)告并非由原告創(chuàng)作,原告僅在前期輸入幾個(gè)關(guān)鍵詞,并沒(méi)有對(duì)分析報(bào)告的形成作出過(guò)“實(shí)質(zhì)性智力貢獻(xiàn)”。應(yīng)當(dāng)認(rèn)為,這份報(bào)告是由原告使用的人工智能創(chuàng)作。也正是因?yàn)槲淖謭?bào)告并非民事主體創(chuàng)作完成,捆綁于作品之上的著作權(quán)缺乏“棲息”的民事主體,這份報(bào)告無(wú)法被認(rèn)定為作品,因?yàn)樗鼰o(wú)法滿足作品應(yīng)由“民事主體創(chuàng)作完成”這一必要條件。此外,該判決也否定了將此類權(quán)利歸屬于人工智能的研發(fā)者或者所有者的觀點(diǎn)。
“騰訊訴盈訊案”(見(jiàn)廣東省深圳市南山區(qū)人民法院(2019)粵0305民初14010號(hào)判決書,以下簡(jiǎn)稱“騰訊案”)中,法院卻認(rèn)定人工智能生成物屬于單位作品。該案也是我國(guó)首例認(rèn)定人工智能生成物構(gòu)成作品的案件。原告深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司(以下簡(jiǎn)稱“騰訊”)將使用Dreamwriter智能寫作機(jī)器人完成的《午評(píng):滬指小幅上漲0.11%報(bào)2671.93點(diǎn)通信運(yùn)營(yíng)、石油開(kāi)采等板塊領(lǐng)漲》文章,發(fā)布在騰訊證券網(wǎng)站上,此后被告上海盈訊科技有限公司(以下簡(jiǎn)稱“盈訊”)未經(jīng)原告允許,在其運(yùn)營(yíng)的“網(wǎng)貸之家”網(wǎng)站刊登該文章,原告騰訊發(fā)現(xiàn)后向法院提起訴訟。法院認(rèn)為,Dreamwiter不具備自我意識(shí),Dreamwriter智能寫作機(jī)器人運(yùn)行下生成的文章,凝結(jié)了研發(fā)團(tuán)隊(duì)的創(chuàng)作意圖。因此涉案文章是在原告主持下,由包含編輯團(tuán)隊(duì)、產(chǎn)品團(tuán)隊(duì)、技術(shù)開(kāi)發(fā)團(tuán)隊(duì)在內(nèi)的主創(chuàng)團(tuán)隊(duì)運(yùn)用Dreamwriter軟件完成的,內(nèi)容體現(xiàn)出對(duì)當(dāng)日上午相關(guān)股市信息、數(shù)據(jù)的選擇、分析、判斷,具有一定獨(dú)創(chuàng)性。涉案文章末尾標(biāo)注了“本文由騰訊機(jī)器人Dreamwriter自動(dòng)撰寫”,應(yīng)當(dāng)認(rèn)定該文章是在原告主持下的法人作品。可見(jiàn),這份判決與“菲林案”判決不同,并未區(qū)分文章是否以人工智能方式完成,而將文章的創(chuàng)作智力貢獻(xiàn)歸結(jié)于機(jī)器人Dreamwriter研發(fā)者的程序編程,因而認(rèn)定原告是創(chuàng)作主體,也就承認(rèn)了該文章的作品屬性。
同為人工智能創(chuàng)作物,兩份判決均認(rèn)可創(chuàng)作物符合作品“獨(dú)創(chuàng)性”特征。依照“菲林案”法院的判決邏輯,創(chuàng)作物“獨(dú)創(chuàng)性”的“實(shí)質(zhì)性貢獻(xiàn)”如果由民事主體作出,就可以認(rèn)定為作品,賦予該主體著作權(quán);如果無(wú)法歸屬于民事主體,就不能認(rèn)定為作品。換言之,民事主體的存在與否直接決定了創(chuàng)作物的性質(zhì)與著作權(quán)的有無(wú)。法教義學(xué)上,民事權(quán)利專屬于民事主體享有,人工智能不是民事主體,故人工智能無(wú)法享有著作權(quán)。價(jià)值取向上,著作權(quán)立法通過(guò)認(rèn)定具有獨(dú)創(chuàng)性創(chuàng)作物為作品,賦予創(chuàng)作人著作權(quán)以達(dá)到激勵(lì)創(chuàng)新的目的,但人工智能不存在意識(shí),縱使將之作為民事主體,也無(wú)法實(shí)現(xiàn)著作權(quán)立法的激勵(lì)目的,因而菲林案的審判邏輯似乎完整。然而,如果不承認(rèn)人工智能創(chuàng)作物為作品,社會(huì)上大量存在著無(wú)權(quán)利主體創(chuàng)作物,會(huì)反向鼓勵(lì)抄襲,顯然無(wú)益于當(dāng)下創(chuàng)新發(fā)展理念的貫徹實(shí)施,這顯然有違著作權(quán)立法激勵(lì)創(chuàng)新的宗旨。
“騰訊案”中機(jī)器人的研發(fā)者、所有者、使用者同為騰訊公司,對(duì)于主創(chuàng)團(tuán)隊(duì)包含的編輯團(tuán)隊(duì)、產(chǎn)品團(tuán)隊(duì)、技術(shù)開(kāi)發(fā)團(tuán)隊(duì)使用機(jī)器人形成文章的智力貢獻(xiàn),法院并沒(méi)有在各環(huán)節(jié)中進(jìn)行過(guò)多區(qū)分,而是含糊其詞否定人工智能的智力性貢獻(xiàn),直接將該文章界定為法人作品,將著作權(quán)歸屬于騰訊公司。顯然,在法院看來(lái),文章是作品,應(yīng)當(dāng)通過(guò)賦予著作權(quán)進(jìn)行保護(hù)。但是,法院完全否定機(jī)器人對(duì)文章形成存在實(shí)質(zhì)性智力貢獻(xiàn),也明顯不符合客觀事實(shí)。盡管主創(chuàng)團(tuán)隊(duì)將創(chuàng)作意圖輸入人工智能中才得以形成文章,但至少在人工智能的智力因素參與下,會(huì)極大程度減輕主創(chuàng)團(tuán)隊(duì)的創(chuàng)作壓力。
另外,該案特殊之處在于,機(jī)器人研發(fā)團(tuán)隊(duì)、制造團(tuán)隊(duì)與使用機(jī)器人的編輯團(tuán)隊(duì)為同一主體,因而將其做一體評(píng)價(jià)也無(wú)可厚非,但人工智能研發(fā)者、所有者、使用者分別為不同主體時(shí),如在“菲林案”的案情下,則不宜不加區(qū)分地將人工智能創(chuàng)作物著作權(quán)歸屬于其研發(fā)者或者所有者。因?yàn)橐坏┤绱耍鸵馕吨邪l(fā)者或者所有者可以一勞永逸地享有人工智能創(chuàng)作物的著作權(quán),這將嚴(yán)重背離著作權(quán)授予的“額頭出汗原理”。因此,“騰訊案”的著作權(quán)歸屬于人工智能研發(fā)者的裁判思路隱藏著巨大風(fēng)險(xiǎn),它僅在研發(fā)者、所有者、使用者為同一主體的情況下,能勉強(qiáng)化解糾紛,但這絕不是解決人工智能創(chuàng)作物著作權(quán)歸屬問(wèn)題之有效路徑。
兩個(gè)案例反映出現(xiàn)有法律體系下人工智能創(chuàng)作物作為法律客體的局限性:人工智能創(chuàng)作物,雖然具有獨(dú)創(chuàng)性,但要么因無(wú)權(quán)利主體,不被評(píng)價(jià)為作品,處于法律的灰色地帶,不受法律保護(hù);要么將人工智能創(chuàng)作物著作權(quán)牽強(qiáng)歸屬于特定民事主體,以達(dá)到保護(hù)人工智能創(chuàng)作物的目的。
當(dāng)下人工智能不僅運(yùn)用于創(chuàng)作,也不同程度運(yùn)用于自動(dòng)駕駛領(lǐng)域、診療領(lǐng)域,人工智能的法律客體定位同樣對(duì)以“過(guò)錯(cuò)”為主軸建立起來(lái)的侵權(quán)責(zé)任法律體系形成了挑戰(zhàn)。其一,在無(wú)人駕駛汽車、人工智能診療機(jī)器人基于智能超出了人類控制的范圍,產(chǎn)生致人損害后果,法官囿于復(fù)雜的技術(shù)問(wèn)題,往往無(wú)法判斷損害發(fā)生的具體原因。其二,在無(wú)法辨別過(guò)錯(cuò)的情況下,若將損害一概歸責(zé)于人工智能研發(fā)者、生產(chǎn)者,適用既有的產(chǎn)品責(zé)任,則會(huì)嚴(yán)重挫傷研發(fā)者、生產(chǎn)者的積極性,制約科技創(chuàng)新。其三,若適用危險(xiǎn)責(zé)任,無(wú)論由人工智能的所有者抑或使用者承擔(dān),不僅與支撐危險(xiǎn)責(zé)任的“報(bào)償理論”相左,同樣也有礙于科技創(chuàng)新的推廣運(yùn)用。理論上,正是由于人工智能的“自動(dòng)學(xué)習(xí)和主動(dòng)工作”在某種程度上超出了人類控制和支配范圍,因而其造成的損害無(wú)法合理歸責(zé)于某一主體。
筆者認(rèn)為,賦予人工智能民事主體資格,可以一舉解決人工智能運(yùn)用帶來(lái)的系列問(wèn)題:賦予對(duì)獨(dú)創(chuàng)性作品作出實(shí)質(zhì)貢獻(xiàn)的人工智能著作權(quán),能夠減少抄襲,激勵(lì)創(chuàng)新;由失控的人工智能自身承擔(dān)民事責(zé)任,避免責(zé)任蔓延至人工智能研發(fā)制造者,可以減輕科技創(chuàng)新負(fù)擔(dān)。
對(duì)于賦予人工智能民事主體資格這一觀點(diǎn),目前并未為民法學(xué)界普遍接受。傳統(tǒng)民法體系下,主體和客體被嚴(yán)格區(qū)分,凡是人以外的沒(méi)有精神和意志的物,都是權(quán)利的客體。人與物、主體與客體之間存在著不可跨越的鴻溝[3]。對(duì)于賦予人工智能民事主體資格,不少學(xué)者認(rèn)為:理論上,人工智能非生命體,不具備理性和意志,不能獨(dú)立進(jìn)行價(jià)值選擇和判斷,不具備作為主體的客觀條件[4];制度上,一方面現(xiàn)有法律體系缺乏賦予某一物品以主體地位的相關(guān)制度基礎(chǔ),另一方面現(xiàn)有制度仍然足以應(yīng)對(duì)生成式人工智能所產(chǎn)生的法律問(wèn)題,因而勿須大費(fèi)周折地賦予人工智能民事法律主體資格[5]87。因而,我們應(yīng)剖析反對(duì)人工智能主體地位觀點(diǎn)的核心理由,揭示其片面性,以為人工智能民事主體地位的建構(gòu)掃清理論和制度障礙。
近代西方民事主體制度的建立根源于康德哲學(xué)??档吕^承并發(fā)揚(yáng)了迪卡爾“我思故我在”觀點(diǎn),認(rèn)為“思維”是世界的本原,人具有思維,所以人才是主導(dǎo)世界的主體,而不是被動(dòng)的受制于自然法??档峦ㄟ^(guò)對(duì)“我思”的探索,構(gòu)建了“以人為本,人是目的”的哲學(xué)理論。他將“理性”“自我意識(shí)”“自由”三個(gè)核心概念貫穿于其中。人之所以是“本”“目的”,在于人有理性,其能夠通過(guò)先天所稟賦的認(rèn)知機(jī)能,對(duì)后天的經(jīng)驗(yàn)質(zhì)料進(jìn)行抽象思維,能動(dòng)性地形成知識(shí),判斷行為所能夠產(chǎn)生的后果。理性的存在與否,是人與物的最大區(qū)別。相對(duì)于人以外的其他事物,人具有絕對(duì)價(jià)值,其他事物僅具有相對(duì)價(jià)值,永遠(yuǎn)只能是手段而非目的。因而人不再受制于其他法則,是支配自然的自由主體。在人與大自然的關(guān)系上,人能夠?yàn)樽匀涣⒎āM瑯?,在人與社會(huì)的關(guān)系上,人就是自由自律的倫理主體,具有為自己立法的能力。
康德之后,費(fèi)希特、黑格爾、費(fèi)爾巴哈、馬克思等人進(jìn)一步發(fā)揚(yáng)了“人是目的”的思想。費(fèi)爾巴哈批判了康德主觀唯心主義哲學(xué),認(rèn)為思維不是唯一本源,人是自然世界的一部分,在具有靈魂的同時(shí),人也是血肉之軀,因此人具有思維和存在的雙重屬性,真正的主體不僅僅是思維,而是完整的人。因而,主體和客體處于以人為基礎(chǔ)的統(tǒng)一之中。
與康德、費(fèi)爾巴哈等唯心論者不同,馬克思從一般唯物主義意義上指出,“主體是人,客體是自然”。人的意識(shí),“從現(xiàn)實(shí)的、有生命的個(gè)人本身出發(fā),把意識(shí)看成是他們的意識(shí)”?,F(xiàn)實(shí)中的人不是孤立的存在,也不是與世隔絕的、離群索居的人,而是處于一定社會(huì)條件下可以通過(guò)經(jīng)驗(yàn)予以觀察的人[6]。馬克思主義原理是我國(guó)法律體系建立的哲學(xué)基礎(chǔ),馬克思關(guān)于人的主體地位理論,是我國(guó)法律人格設(shè)立的理論依據(jù)。
法律是維護(hù)社會(huì)秩序的工具,以確?!叭俗鳛橹黧w”這一絕對(duì)價(jià)值的實(shí)現(xiàn)。自然人基于理性、自我意識(shí)而為法律主體,這已經(jīng)成為世界各國(guó)的共識(shí),也是人類文明發(fā)展的必然產(chǎn)物。人工智能盡管存在自我學(xué)習(xí)能力以及一定程度上的自我判斷能力、自我行動(dòng)能力,但與自然人不能等同,無(wú)法成為當(dāng)然的民事法律主體。首先,人工智能不具有獨(dú)立意識(shí)。人工智能中的“智能”,底層邏輯就是算法。人工智能獨(dú)立進(jìn)行“思考”的能力首先來(lái)自開(kāi)發(fā)人員的程序編寫[7],它并未自主地存在意識(shí)。因此,人工智能的智能更像是對(duì)人類智慧的一種演繹。其次,人工智能不具備理解法律的理性,人工智能也無(wú)法參照法律規(guī)定實(shí)施相應(yīng)行為,人工智能所實(shí)施的行為只是基于數(shù)據(jù)演算,而非人類所具有的從經(jīng)驗(yàn)中獲得的主觀理性,無(wú)法理解并考量行為的意義與決策的代價(jià)[8]。再次,人工智能缺乏欲望。英國(guó)法學(xué)家邊沁指出,作為法律的人必須是欲望的人,欲望的人才能夠負(fù)擔(dān)利益[9]。當(dāng)此類欲求被法律承認(rèn)時(shí),形成了法律上的權(quán)利,與之相對(duì)的不利益,則形成了法律上的義務(wù),法律便是通過(guò)對(duì)人的快樂(lè)和痛苦的分配以實(shí)現(xiàn)社會(huì)秩序的操控。自然人因而成為權(quán)利的享有者和義務(wù)的負(fù)擔(dān)者。而人工智能是在無(wú)情感和欲望的基礎(chǔ)上實(shí)施特定的行為,它對(duì)權(quán)利是沒(méi)有訴求的,不會(huì)因?yàn)樽陨砝媸艿綋p害而采取措施,或者因?yàn)榍址杆死娑鲃?dòng)承擔(dān)起相應(yīng)的責(zé)任[10]。
倘若賦予人工智能法律主體地位,就需要法律技術(shù)上的創(chuàng)新,但是,這種創(chuàng)新可能會(huì)造成現(xiàn)有法律主體制度的邏輯混亂。從本體而言,法律主體是法律規(guī)定的權(quán)利和義務(wù)的一體承受者,倫理人天然是主觀權(quán)利的爭(zhēng)取者、法秩序的遵守者?,F(xiàn)代法律主體制度是以“人類”為中心構(gòu)建的,縱觀各國(guó)民法,皆以“人”為開(kāi)端。無(wú)論法國(guó)三編制體例、德國(guó)五編制體例,還是我國(guó)七編制體例,“人”都是法典的邏輯起點(diǎn)。作為人造物的人工智能,如果加入主體行列,就必然會(huì)動(dòng)搖這種根基,造成不可估量的后果,法律的基本原則、法律主體的邏輯框架都將受到破壞[11]127。
揆諸史實(shí),倫理人與法律人從來(lái)都不是對(duì)等的,展現(xiàn)的是從“人可非人”到“人為人”再到“非人可人”的法律人格不斷擴(kuò)張的畫卷。法人制度的出現(xiàn),組織體法律主體地位的確立,似乎可以為人工智能民事主體資格之賦予構(gòu)想找到類比的對(duì)象。然而,多數(shù)學(xué)者認(rèn)為,由于組織體本身仍然是以自然人存在為前提,組織體背后仍是適用自然人的理性而實(shí)施行為,并最終承受利益與不利益。因而,法人等組織體與自然人兩者內(nèi)部存在著實(shí)質(zhì)關(guān)聯(lián),他們共處于人類的范疇,法人等組織體遁入民事主體制度,也并未脫離“人類中心主義”這一主線。而人工智能的“制造原料”雖然包含了人類的程序設(shè)計(jì)和算法,但在制造成功后,便完全脫離了制造者,形成了自我學(xué)習(xí)和自我行動(dòng)的獨(dú)立體,人工智能是人在改造客觀世界過(guò)程中實(shí)踐的產(chǎn)物,無(wú)論如何,它都不屬于人類?!胺芍黧w地位背后是人的厚重底蘊(yùn),也是法律主體制度的一脈淵源?!盵11]127概言之,缺乏有血有肉,有欲望、道德和理性交織的倫理人參與作為底線,人工智能難以進(jìn)入法律主體的位列。
就權(quán)利而言,沒(méi)有欲望的人工智能,即便法律強(qiáng)行將權(quán)利賦予其上,在他人侵犯其權(quán)益時(shí),它沒(méi)有知覺(jué),或者即便是在他人侵權(quán)時(shí),它能夠基于算法而有所觸動(dòng),它也沒(méi)有能力積極主動(dòng)地去維護(hù)權(quán)益,現(xiàn)有程序法也不存在人工智能自主訴訟的配套制度及設(shè)施,得不到救濟(jì)的權(quán)利就無(wú)法認(rèn)定為法律權(quán)利。
就義務(wù)與責(zé)任而言,分析式人工智能或許能夠按照設(shè)計(jì)與制作者的預(yù)期,在算法軌道上,完成其時(shí)代使命;但是生成式人工智能已經(jīng)出現(xiàn)并且代際更迭加速,可以預(yù)見(jiàn),人工智能即將“脫軌”,它更多情況下超越了人的智慧,不為人所控制,侵害其他民事主體、致人損害的情況不可避免,因而也要求其具備相當(dāng)?shù)呢?zé)任能力。但是,如前所述,人工智能如果無(wú)法維護(hù)其權(quán)益,自然就無(wú)法積累自身財(cái)產(chǎn),也就沒(méi)有獨(dú)立對(duì)外承擔(dān)法律責(zé)任的基礎(chǔ)?,F(xiàn)有制度框架下,賦予人工智能主體資格的構(gòu)想難以實(shí)現(xiàn)。
強(qiáng)行去建立一個(gè)配套人工智能的財(cái)產(chǎn)制度,是不經(jīng)濟(jì)也是無(wú)效用的做法。反對(duì)論的多數(shù)學(xué)者認(rèn)為,在法律客體的范疇內(nèi)去規(guī)制生成式人工智能,其權(quán)利可以根據(jù)利益形成的貢獻(xiàn)分屬于生成式人工智能的制造者、設(shè)計(jì)者、使用者、所有者,而其損害賠償責(zé)任的承擔(dān),同樣可以根據(jù)損害的原因力,適用產(chǎn)品責(zé)任、危險(xiǎn)責(zé)任、替代責(zé)任等固有的責(zé)任,在制造者、設(shè)計(jì)者、所有者、使用者或者第三人之間進(jìn)行考量,由有關(guān)責(zé)任人來(lái)承擔(dān),也是責(zé)任最終得以落地的唯一路徑[5]87。
筆者認(rèn)為,人工智能民事主體資格否定論理由經(jīng)不起推敲。賦予人工智能法律主體資格,絕非天方夜譚。早在2017年,在沙特阿拉伯舉行的未來(lái)投資計(jì)劃會(huì)議上,沙特阿拉伯直接賦予存在60多種面部表情、能與人直接交流的社交女性機(jī)器人“索菲亞”公民身份,直接承認(rèn)機(jī)器人的法律主體地位。歐盟議會(huì)在《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議》中,認(rèn)為應(yīng)當(dāng)為機(jī)器人創(chuàng)設(shè)特殊的法律地位,并首創(chuàng)“電子人”概念,以應(yīng)對(duì)侵權(quán)等損害責(zé)任問(wèn)題。緊隨其后,俄羅斯的《格里申法案》同樣肯定了運(yùn)用“機(jī)器人-代理人”的關(guān)系來(lái)調(diào)整人機(jī)關(guān)系的制度嘗試。因而,我們應(yīng)當(dāng)從根本上理解法律主體“是一種經(jīng)濟(jì)生活的客觀現(xiàn)實(shí)與法律技術(shù)運(yùn)用相結(jié)合的產(chǎn)物”[12];面對(duì)人工智能對(duì)既有立法形成挑戰(zhàn)的現(xiàn)狀,我們應(yīng)當(dāng)打破固有民事法律主體“人類中心主義”的認(rèn)知。
與傳統(tǒng)機(jī)器相比,人工智能最顯著的特點(diǎn)是自主性,一旦被啟用或者運(yùn)行,它可以通過(guò)自我學(xué)習(xí),不受人類控制而自主行為?;诖?,不少學(xué)者認(rèn)為其具有“類人”的一面,于是努力從人工智能也是一種“新型硅基生命形態(tài)”、具有與人類似的“具有道德能力”“理性”等方面,證成賦予人工智能民事主體地位存在合理性的觀點(diǎn)[13]。然而,毋庸置疑,如前所述,人工智能是人類的創(chuàng)造物,其智能的產(chǎn)生首先來(lái)自于人類設(shè)計(jì)者、制造者事先編排的數(shù)據(jù)代碼,它所表現(xiàn)出來(lái)的自主行為,是在強(qiáng)大數(shù)據(jù)支撐下、根據(jù)算法進(jìn)一步展開(kāi)深度學(xué)習(xí)而形成的。這些智能的呈現(xiàn),本身就是設(shè)計(jì)者、制造者的預(yù)設(shè),本質(zhì)是人類通過(guò)機(jī)械語(yǔ)言與算法予以落實(shí)的產(chǎn)物。因而,人工智能的一系列行動(dòng)并非人工智能基于理性而作出的自主行為。在“以人為目的”“人具有絕對(duì)價(jià)值”的哲學(xué)命題下,人與物二分,只有具有自覺(jué)能動(dòng)性的倫理人才能作為主體和絕對(duì)目的,客觀存在的自然界、作為人造物的人工智能,無(wú)論多么接近人類的外形、接近人類的智力,它也只能是客體,處于從屬地位。
相對(duì)于哲學(xué)上的“人”而言,法律是維護(hù)社會(huì)秩序的工具,在“以人為目的”的價(jià)值指引下發(fā)揮著調(diào)整特定社會(huì)關(guān)系的功能。在我國(guó),民事法律主體制度必然也為圍繞著特定法律目的而構(gòu)建。法律規(guī)定自然人為民事主體,本身就在于這樣的規(guī)范能夠更好地實(shí)現(xiàn)其服務(wù)于人的價(jià)值[14]。因此,法律上的“自然人”同樣也是規(guī)范建構(gòu)的產(chǎn)物。法律上的“人”,在法律上的資格和能力是法秩序本身所賦予的,是被法律權(quán)利與義務(wù)化了的人格,如果沒(méi)有法律上的權(quán)利義務(wù)歸屬,便無(wú)所謂法律人或者法律人格。法律人或者法律人格為法秩序而存在,法律人是超越了人的自然存在而上升為法律的一種權(quán)利義務(wù)實(shí)體,本質(zhì)上就是權(quán)利義務(wù)的承受者。
在此意義上,法律上的“人”與自然意義上的生物人,與哲學(xué)意義上的倫理人,沒(méi)有太多的關(guān)聯(lián),法律上的“人”,純粹來(lái)源于法律將其定義為“人”?!懊恳环N法律制度都要規(guī)定何種個(gè)人、團(tuán)體或者實(shí)體被作為法律上的人”[15],使他們成為權(quán)利和義務(wù)的集合。換言之,在法律上,人是指這樣的單位和實(shí)體,他們?cè)谔囟ǚ芍贫戎芯哂蟹缮系娜烁?,是法律關(guān)系的主體或者法律權(quán)利的享有者,他們有權(quán)行使法律賦予他們的權(quán)利,并受法律義務(wù)和責(zé)任的約束。
拉德布魯赫更加直白地指出,法律上的“人”,就是指法律擬制、塑造的“人”?!皵M制”,并不是指將一個(gè)非人的動(dòng)物、實(shí)體假定為人,而是指法律人的成立首先是源于法律的抽象建構(gòu)。在此意義上,法律上的任何主體,都可以稱為“法人”,以此區(qū)別于生物人、倫理人[16]。實(shí)證法學(xué)派的代表人物彼得·萊爾歇同樣將法律擬制概念外延進(jìn)行了擴(kuò)展,他指出,“法律是國(guó)家主權(quán)者意志的象征,立法者可以將任何虛擬的事物放進(jìn)法律擬制內(nèi)”[17]。也就是說(shuō),只要立法者愿意,都有能力將除了法律本身之外的任何虛擬事物變成法律。因此,從廣義上理解,法律上的“人”,也是規(guī)范的構(gòu)造物,人工智能即便與生物人、倫理人沒(méi)有任何共性,也不妨礙它成為法律上的主體。其實(shí),當(dāng)下法律人格已經(jīng)擴(kuò)張至理性人之外,以理性為核心的、過(guò)于注重意志、意識(shí)等主觀要素的傳統(tǒng)主體哲學(xué)基礎(chǔ)被動(dòng)搖,以理性意志為標(biāo)準(zhǔn)的藩籬也已經(jīng)被跨越。法律主體客觀化趨向,為人工智能民事主體地位建構(gòu)掃除了理論障礙,技術(shù)發(fā)展的實(shí)用主義立場(chǎng)便可為人工智能民事主體地位的建構(gòu)支起理論空間。
“任何權(quán)利主體,只要人們將其稱為權(quán)利主體時(shí),立即成為法律上的人。”[18]基于此,學(xué)界無(wú)論是通過(guò)與倫理人的對(duì)比,說(shuō)明人工智能與倫理人一樣存在獨(dú)立意識(shí),能夠獨(dú)立承擔(dān)責(zé)任,進(jìn)而肯定其應(yīng)當(dāng)被賦予主體地位的做法,還是通過(guò)論證人工智能類人而非人,否定其主體地位的做法,都是徒勞的,都無(wú)法從根本上解釋人工智能與法律主體地位之間的關(guān)聯(lián)。
法律作為人類社會(huì)主要的行為控制方式和社會(huì)控制手段,是服務(wù)于人這一主體的,理應(yīng)承載著人類的價(jià)值目標(biāo)、價(jià)值理想、價(jià)值追求,因此,立法者應(yīng)當(dāng)通過(guò)立法活動(dòng)或者立法行為實(shí)現(xiàn)價(jià)值賦能。滿足主體的需求,實(shí)現(xiàn)特定的社會(huì)功能,是制度設(shè)置的方向。在人工智能之法律地位選擇上,應(yīng)以現(xiàn)實(shí)的正向社會(huì)功能為主體資格確立與否的圭臬[19]130。馬克思深刻地指出:“不是人為法律而存在,而是法律為人而存在?!比斯ぶ悄艿膽?yīng)用解決了人力難以操作精密化行為的難題,使各行業(yè)領(lǐng)域的生產(chǎn)力得到了大幅提升,創(chuàng)造了重大的社會(huì)經(jīng)濟(jì)價(jià)值。人類社會(huì)發(fā)展應(yīng)是法律改進(jìn)的先導(dǎo),在人工智能法律主客體選擇上,應(yīng)當(dāng)堅(jiān)持實(shí)用主義立場(chǎng),以最大限度保障技術(shù)發(fā)展。因此,是否賦予人工智能民事主體地位,取決于法律制度的設(shè)置是否符合社會(huì)發(fā)展的基本動(dòng)態(tài),對(duì)技術(shù)的發(fā)展能否起到推動(dòng)作用。相反,與人工智能是否為生物人,及其與倫理人、理性人存在多大差距,并沒(méi)有任何關(guān)聯(lián)。法律上的自然人主體只是以倫理人的要求設(shè)計(jì)的產(chǎn)物,其最終服務(wù)于倫理人本身的目的和需要。相對(duì)于倫理人而言,法律上的自然人與人工智能同為工具,他們同樣都指向了“為人服務(wù)”的方向。
既然賦予人工智能主體地位,能夠在“黑箱”狀態(tài)下更為有效率、更為合理地解決人工智能生成物的著作權(quán)權(quán)利歸屬問(wèn)題,更為有效率、更為合理地分配人工智能所造成的侵權(quán)責(zé)任問(wèn)題,就應(yīng)當(dāng)賦予其民事主體資格,這便是承認(rèn)人工智能民事主體地位不可動(dòng)搖的正當(dāng)性。
在理論上,賦予人工智能民事主體資格,并不存在障礙,其可以成為一種區(qū)別于自然人的“非理性”的民事主體。在實(shí)證法上,民事主體必須具有獨(dú)立性,能夠以自己的名義享有權(quán)利、履行義務(wù)并承擔(dān)責(zé)任。因而,賦予人工智能以民事主體資格,需要通過(guò)相應(yīng)的制度供給,使其獨(dú)立于背后的民事主體。
民事權(quán)利的受領(lǐng)資格,通過(guò)抽象的“權(quán)利能力”這個(gè)概念來(lái)表達(dá)?!皺?quán)利能力”概念來(lái)源于《德國(guó)民法典》,是對(duì)法典中“自然人”和“法人”權(quán)利受領(lǐng)資格的抽象?!兜聡?guó)民法典》制定之時(shí),正處于自由資本主義向壟斷資本主義過(guò)渡時(shí)期,企業(yè)團(tuán)體在當(dāng)時(shí)的經(jīng)濟(jì)活動(dòng)中非常活躍,他們推進(jìn)經(jīng)濟(jì)發(fā)展的作用不容忽視,在這樣的社會(huì)經(jīng)濟(jì)背景下,立法者逐漸動(dòng)搖了個(gè)人本位的思想,產(chǎn)生社會(huì)連帶的觀念,最終在法律上承認(rèn)法人的主體地位。為了承認(rèn)法人的主體地位,使法律上的“人”與自然人相區(qū)別,注重邏輯思維、強(qiáng)調(diào)法典美感的德國(guó)立法者使用“權(quán)利能力”這一抽象概念,作為法律中民事主體資格的象征,以適應(yīng)德國(guó)民法以法律關(guān)系為軸心建立的體系。權(quán)利能力概念,為近代民法主體從自然人向非自然人擴(kuò)充提供了通道。因此,在論證人工智能的法律地位時(shí),有學(xué)者提出,權(quán)利能力是認(rèn)定法律主體的形式要件,認(rèn)為并不是現(xiàn)實(shí)生活中的任何物體都是法律上的人,一個(gè)物體若成為法律主體的存在,應(yīng)當(dāng)具備權(quán)利能力的形式要件,這既是成為主體的法律確認(rèn)要求,也是現(xiàn)代法律制度的應(yīng)有之義[19]129。顯然,這是一種倒果為因的認(rèn)識(shí)。拉倫茨深刻地指出,法典中的“人”乃是形式意義上的“人”的概念,人的概念的形式化,可使法律制度將人的概念適用于一些形成物[20]。法律并不以自身規(guī)定為基礎(chǔ),相反,它以社會(huì)需求為基礎(chǔ)。使用“權(quán)利能力”表征民事主體資格,是為了擴(kuò)充一些立法者認(rèn)為適應(yīng)社會(huì)需求的“形成物”為法律主體。無(wú)論是既有制度中的民事主體,還是未來(lái)的民事主體,其權(quán)利能力均來(lái)源于法律的賦予。任何物體,只要是立法者認(rèn)為需要賦予主體地位予以保護(hù)的對(duì)象,它就擁有權(quán)利能力,它就有資格承受法律上的利益。因而,在人工智能主體抑或客體的法律地位認(rèn)定上,取決于代表人民意愿的立法者的決定而非科學(xué)發(fā)現(xiàn)。2017 年3 月,新西蘭旺格努伊河成為了世界上第一條具有法定權(quán)利的河流,印度也給予恒河和亞穆納河相關(guān)權(quán)利,使其具有一定主體資格,這些新近出現(xiàn)的立法例充分表明,如果一個(gè)物品能夠切實(shí)地發(fā)揮自身的實(shí)效,引起社會(huì)領(lǐng)域的重大變革,則可以基于實(shí)用主義的立場(chǎng)進(jìn)行賦權(quán)。
權(quán)利的賦予是一種純獲益,通常情況下也允許主體對(duì)其放棄,因而對(duì)于任何主體而言,權(quán)利的賦予均不存在無(wú)法具體落實(shí)的狀況。比照現(xiàn)有的民法體系,人工智能作為權(quán)利主體,可以根據(jù)人工智能的類型,享有與其特點(diǎn)相關(guān)的特定的人身權(quán)、財(cái)產(chǎn)權(quán)。人身權(quán)通常指人工智能自身具有不受破壞、銷毀的權(quán)利;財(cái)產(chǎn)權(quán)則指人工智能對(duì)自身被利用而換取之對(duì)價(jià),或者對(duì)經(jīng)由其他途徑獲取的財(cái)產(chǎn)進(jìn)行支配的權(quán)利。
人工智能的義務(wù),也應(yīng)與其他主體一致,存在著積極義務(wù)與消極義務(wù)。積極義務(wù)通常指合同義務(wù)上的積極作為,如在其他民事主體有償使用人工智能的場(chǎng)合,人工智能應(yīng)當(dāng)按照其所展示的功能完成任務(wù),若非如此,則相對(duì)人有權(quán)利要求承擔(dān)違約責(zé)任。如某自然人使用自動(dòng)駕駛汽車,在支付了相應(yīng)費(fèi)用后,自動(dòng)駕駛汽車卻無(wú)法到達(dá)使用者所預(yù)定的目的地,則自然人可以要求自動(dòng)駕駛汽車返還支付的使用費(fèi)并承擔(dān)由此造成的其他損失。消極義務(wù)則指遵守法秩序、尊重他人的權(quán)利、不實(shí)施侵權(quán)行為等義務(wù)。違反消極義務(wù)造成損害,則應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。
責(zé)任的承擔(dān)以財(cái)產(chǎn)存在為前提,既然賦予人工智能以權(quán)利,就打通了其獲取利益的通道。如前所述,生成式人工智能的財(cái)產(chǎn)可以來(lái)源于被使用的對(duì)價(jià),部分可能來(lái)源于知識(shí)產(chǎn)權(quán)所衍生的利益等,未來(lái)也不排除人工智能利用自己的財(cái)產(chǎn)出資成為公司股東,獲得股權(quán)營(yíng)利分紅的可能。2014年5月,英國(guó)公司Aging Analytics UK研發(fā)了人工智能工具VITAL,并將該人工智能授權(quán)于香港風(fēng)投公司Deep Knowledge Ventures使用,風(fēng)投公司將VITAL列為公司的投資委員,使得VITAL在公司管理中同公司其他員工一樣享有了投資權(quán)利,參與公司投資業(yè)務(wù)并從中獲得收益[21]。
理論上,人工智能具備獲得財(cái)產(chǎn)的能力,具備獨(dú)立承擔(dān)責(zé)任的可能,但也正如前述,生成式人工智能缺乏自然人的理性,沒(méi)有欲望,也就不會(huì)自動(dòng)自覺(jué)地去維護(hù)自己的權(quán)利,擴(kuò)充自己的財(cái)產(chǎn),進(jìn)而可能影響其責(zé)任能力。這一連鎖反應(yīng),也是反對(duì)賦予生成式人工智能主體地位最為核心的理由。實(shí)際上,無(wú)論民事主體為何,利益和不利益的最終落腳點(diǎn)都必然是背后的自然人。在現(xiàn)有制度下,法人或非法人組織作為民事主體,也都是自然人基于特定目的而設(shè)立的,為了完成其目的,法人或者非法人組織的行為只能由自然人代為實(shí)施,其權(quán)利只能由自然人代為表達(dá),這種代理機(jī)制的設(shè)置,絲毫不影響法人與非法人組織在社會(huì)運(yùn)行中的功能。
人工智能在智慧上可以媲美人類,但它終究不是人類,正如其他民事主體一般,它是法律的主體,但是它是人類改造世界、達(dá)成特定目的的一種特殊工具,是人類的客體。只不過(guò),若法律賦予人工智能非理性民事主體地位,它對(duì)外可以獨(dú)立的身份參與社會(huì)交往,獨(dú)立承擔(dān)責(zé)任,簡(jiǎn)化人工智能所引發(fā)的復(fù)雜法律關(guān)系,避免責(zé)任泛濫,進(jìn)而鼓勵(lì)科技創(chuàng)新。對(duì)此,有反對(duì)觀點(diǎn)提出,“即使法律明確規(guī)定只有在人工智能侵權(quán)行為通過(guò)現(xiàn)有設(shè)計(jì)的改進(jìn)無(wú)法避免或者與管理過(guò)錯(cuò)無(wú)關(guān)的情況下,才由人工智能承擔(dān)侵權(quán)責(zé)任,仍然不能避免人工智能設(shè)計(jì)者和管理者對(duì)于避免相關(guān)侵權(quán)行為的注意義務(wù)的降低”,因?yàn)榉ü倩蛘叩谌綄<乙埠茈y辨別設(shè)計(jì)者和管理者提供的沒(méi)有設(shè)計(jì)和管理過(guò)錯(cuò)的相關(guān)證據(jù)的真?zhèn)?。一旦降低了人工智能設(shè)計(jì)者和管理者的注意義務(wù),所謂的科技創(chuàng)新將凌駕于人的生命財(cái)產(chǎn)安全之上[5]86。這種論斷看似有力,但是實(shí)質(zhì)上陷入了循環(huán)論證,回到了問(wèn)題原點(diǎn)。如果連第三方專家都無(wú)法辨別設(shè)計(jì)者或者管理者的過(guò)錯(cuò),則應(yīng)當(dāng)認(rèn)為設(shè)計(jì)者或者管理者沒(méi)有過(guò)錯(cuò),勿需承擔(dān)責(zé)任。賦予人工智能主體地位,避免在無(wú)正當(dāng)歸責(zé)事由下強(qiáng)行將責(zé)任不合理分配于人工智能研發(fā)者或管理者,方能在公平分配責(zé)任的同時(shí)達(dá)到鼓勵(lì)創(chuàng)新的社會(huì)效果。對(duì)內(nèi),對(duì)于人工智能的權(quán)利,則同樣可以引入代理制度,由自然人代為表達(dá)和行使。至于如何防止自然人與人工智能財(cái)產(chǎn)或者責(zé)任混同的問(wèn)題,仍可以適用“刺破面紗”的原理,交由司法機(jī)關(guān)予以審查。
損害責(zé)任的承擔(dān)以財(cái)產(chǎn)為基礎(chǔ),如果在人工智能形成的初期,還沒(méi)有來(lái)得及形成財(cái)產(chǎn),又或者在人工智能運(yùn)行中屢屢“闖禍”,入不敷出,將如何承擔(dān)法律責(zé)任?反對(duì)人工智能作為民事主體的學(xué)者提出,對(duì)比人工智能,那些擁有充足財(cái)力的生成式人工智能設(shè)計(jì)者和管理者,通常情況下是財(cái)力相當(dāng)雄厚的大型高科技企業(yè)集團(tuán),“具有較為充足的財(cái)產(chǎn),由其承擔(dān)人工智能侵權(quán)行為的賠償責(zé)任”,似乎也“能夠更好地實(shí)現(xiàn)侵權(quán)責(zé)任法對(duì)受害人進(jìn)行充分補(bǔ)償?shù)哪康摹盵5]86-87。因此,賦予人工智能民事主體地位,補(bǔ)足其財(cái)產(chǎn),增強(qiáng)其責(zé)任能力,是制度構(gòu)建中的重點(diǎn),強(qiáng)制保險(xiǎn)或是可以選擇的路徑。配套制度可以規(guī)定,人工智能在其投入使用時(shí),必須附帶第三人強(qiáng)制保險(xiǎn),由其實(shí)際管理者為其購(gòu)買保險(xiǎn),通過(guò)保險(xiǎn),分散科技帶來(lái)的風(fēng)險(xiǎn)。相較于人工智能給社會(huì)帶來(lái)的效益,由社會(huì)整體承擔(dān)該風(fēng)險(xiǎn),不可謂不合理。另外,人工智能是社會(huì)生產(chǎn)力整體躍升的驅(qū)動(dòng)力量,與國(guó)家發(fā)展戰(zhàn)略同行,政府層面應(yīng)當(dāng)加大投入力度,設(shè)立人工智能賠償基金庫(kù)[22],該基金庫(kù)可由政府撥款、制造商繳納相應(yīng)費(fèi)用、社會(huì)捐助等途徑充實(shí),用于續(xù)交保費(fèi)和補(bǔ)充保險(xiǎn)未能覆蓋的范圍。
中國(guó)特色社會(huì)主義法學(xué)只有秉持“以人民為中心”這一馬克思主義法學(xué)最鮮明的品格,著力解決“為了誰(shuí)”的問(wèn)題,及“為誰(shuí)立法”這一根本性、原則性問(wèn)題,才能構(gòu)建具有特色和優(yōu)勢(shì)的法學(xué)體系。人工智能是人類改造世界的工具,自始至終都是為人的全面發(fā)展服務(wù)的。賦予人工智能民事主體地位,設(shè)計(jì)一種綜合化的主體制度,是分配人工智能風(fēng)險(xiǎn),推動(dòng)人工智能技術(shù)發(fā)展、產(chǎn)業(yè)應(yīng)用的有效路徑。