国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能機(jī)器人民事法律責(zé)任制度的反思與重構(gòu)

2020-03-11 23:18:42孫宏濤郭瑩瑩
廣西社會(huì)科學(xué) 2020年1期
關(guān)鍵詞:機(jī)器人主體人工智能

孫宏濤,郭瑩瑩

(華東政法大學(xué) a.經(jīng)濟(jì)法學(xué)院;b.法律碩士教育中心,上海 200042)

人工智能(Artificial Intelligence,簡(jiǎn)稱AI)是計(jì)算機(jī)科學(xué)的一個(gè)分支,該領(lǐng)域的研究包括機(jī)器人、語言識(shí)別、圖像識(shí)別、自然語言處理和專家系統(tǒng)等。目前,人工智能技術(shù)正處于高速發(fā)展階段,醫(yī)學(xué)、交通、文學(xué)、制造等各行業(yè)無不出現(xiàn)人工智能的身影。“智能時(shí)代”的來臨為人類帶來了巨大福利,同樣也產(chǎn)生了許多新問題。就法律問題而論,人工智能的出現(xiàn)使得傳統(tǒng)理論界認(rèn)為的主客體之間不可逾越這一法理基礎(chǔ)開始發(fā)生動(dòng)搖[1]。為使人工智能技術(shù)更好地造福國(guó)民,2017年7月20日,國(guó)務(wù)院正式印發(fā)的《關(guān)于新一代人工智能發(fā)展規(guī)劃的通知》,明確提出了“開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。就民法領(lǐng)域而言,若想通過法律手段對(duì)人工智能機(jī)器人進(jìn)行規(guī)制,最基礎(chǔ)且最關(guān)鍵的問題在于如何對(duì)其法律地位進(jìn)行精準(zhǔn)定位。只有確定了其法律地位,才能正確評(píng)價(jià)其法律行為,合理認(rèn)定因其違法行為引起的歸責(zé)問題,人工智能技術(shù)的發(fā)展也會(huì)更加規(guī)范,該技術(shù)發(fā)展給社會(huì)帶來的風(fēng)險(xiǎn)也能得以有效規(guī)制。

一、人工智能機(jī)器人的相關(guān)法律問題

通過多年人工智能技術(shù)的研究,業(yè)界普遍認(rèn)同人工智能技術(shù)可以分為運(yùn)算智能、感知智能和認(rèn)知智能三個(gè)層次。處于運(yùn)算智能、感知智能層次的機(jī)器人的智能性較低,其優(yōu)勢(shì)主要體現(xiàn)在計(jì)算精準(zhǔn)度和感知能力。因?yàn)槠洳痪邆鋵W(xué)習(xí)能力和思考能力,所以其智能性始終無法與人類相提并論。但處于認(rèn)知智能階段的機(jī)器人已經(jīng)可以做到自主學(xué)習(xí)和思考,且其智能性會(huì)隨著學(xué)習(xí)和思考的深入而不斷提高,與此同時(shí),該階段的機(jī)器人對(duì)社會(huì)造成危害的可能性也在增加。此外,學(xué)界對(duì)于人工智能技術(shù)的發(fā)展階段還有弱人工智能、強(qiáng)人工智能、超人工智能的劃分。弱人工智能機(jī)器是指不能真正地推理和解決問題的智能機(jī)器,而強(qiáng)人工智能機(jī)器能夠真正地推理和解決問題,其被認(rèn)為是有知覺的,有自我意識(shí)的,可以獨(dú)立思考問題并制定解決問題的最優(yōu)方案,有著自己的價(jià)值觀和世界觀體系。超人工智能機(jī)器人在社交能力、科學(xué)創(chuàng)造力等諸多方面都遠(yuǎn)超越了普通人。筆者認(rèn)為,技術(shù)研發(fā)者所說的運(yùn)算智能、感知智能層次的機(jī)器人與弱人工智能機(jī)器人大致等同,而認(rèn)知智能層次的機(jī)器人與強(qiáng)人工智能、超人工智能相對(duì)應(yīng)。據(jù)此可知,人類至今仍停留在弱人工智能階段,強(qiáng)人工智能、超人工智能時(shí)代尚未真正來臨。

“前瞻性”和“穩(wěn)定性”是法學(xué)研究和立法過程中需要考慮的關(guān)鍵因素,面對(duì)日新月異的人工智能技術(shù),法律人必須對(duì)該技術(shù)的發(fā)展歷史以及發(fā)展前景有著較為全面的把握,依據(jù)不同發(fā)展水平下人工智能機(jī)器人的不同特性進(jìn)行科學(xué)立法。具體而言,理論界在人工智能機(jī)器人領(lǐng)域尚存在以下幾個(gè)問題。

(一)不同發(fā)展階段下的人工智能機(jī)器人是否存在法學(xué)意義上的區(qū)別?人物兩分法是現(xiàn)代民法的基本立場(chǎng)。人工智能機(jī)器人應(yīng)歸屬于“人”還是“物”,引起了廣大學(xué)者的熱議。在社會(huì)大眾看來,機(jī)器人自然應(yīng)該歸屬于“物”,這對(duì)于掃地機(jī)器人等不具備高級(jí)智能的機(jī)器人而言毫無疑問。但隨著科技的發(fā)展,進(jìn)入強(qiáng)人工智能甚至是超人工智能階段后,機(jī)器人就被賦予了學(xué)習(xí)能力和思維能力。在“機(jī)器人也是人”[2]這場(chǎng)革命的大趨勢(shì)下,2016年,歐盟議會(huì)法律事務(wù)委員會(huì)向歐盟委員會(huì)提出立法建議,主張賦予高水平的智能機(jī)器人電子人的主體資格,進(jìn)行身份登記,設(shè)立財(cái)產(chǎn)賬號(hào),繳費(fèi)、納稅、領(lǐng)取養(yǎng)老金,與自然人具有同等的主體地位。2017年,沙特阿拉伯授予美國(guó)漢森機(jī)器人公司生產(chǎn)的機(jī)器人索菲亞公民資格[3]。但是賦予機(jī)器人法律意義上的人格是否等同于在為人類的發(fā)展埋下定時(shí)炸彈?畢竟隨著技術(shù)的發(fā)展,超人工智能階段到來的可能性日益增長(zhǎng)。相較于域外立法,我國(guó)現(xiàn)行法律下對(duì)于人工智能機(jī)器人是否享有法律人格尚不明晰,由此造成現(xiàn)實(shí)中的諸多適用困境。

(二)如何評(píng)價(jià)人工智能機(jī)器人的行為?如果承認(rèn)人工智能機(jī)器人的法律主體地位,那么人工智能機(jī)器人的行為就屬于“人”的行為,具有自主性。如果否定人工智能機(jī)器人的法律主體地位,只承認(rèn)其為一般意義上的物,那么人工智能機(jī)器人作為所有者、使用者的工具,其行為只是人的行為的延伸。

(三)如何對(duì)人工智能機(jī)器人的侵權(quán)責(zé)任進(jìn)行歸責(zé)?傳統(tǒng)的智能水平較低的機(jī)器人的法律地位毫無疑問應(yīng)定性為“物”,我國(guó)現(xiàn)行民法對(duì)此沒有適用難題。若因產(chǎn)品質(zhì)量問題對(duì)他人造成人身傷害、財(cái)產(chǎn)損失,應(yīng)相應(yīng)追究產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、銷售者的責(zé)任,若因產(chǎn)品使用過程中造成傷害,則應(yīng)追究產(chǎn)品所有人、使用人的責(zé)任。但對(duì)于新興的人工智能機(jī)器人,例如有著自主學(xué)習(xí)能力,能夠獨(dú)立思考的機(jī)器人,除生理特征外,其與人類并無差異,但其侵權(quán)行為產(chǎn)生的歸責(zé)問題仍是一大難題。這是因?yàn)槿斯ぶ悄軝C(jī)器人在本質(zhì)上不同于自然人,也不同于同樣通過法律擬制手段取得主體資格的法人,其承擔(dān)其行為后果的能力有限,我國(guó)侵權(quán)責(zé)任法第十五條規(guī)定的承擔(dān)侵權(quán)責(zé)任的方式大多在此得不到適用。尤為明顯的是“賠償損失”這一方式,試問如何讓一個(gè)機(jī)器人獨(dú)立承擔(dān)賠償責(zé)任?對(duì)此,學(xué)界產(chǎn)生了類比“代理說”“產(chǎn)品責(zé)任說”等歸責(zé)方法。

二、現(xiàn)有理論對(duì)人工智能機(jī)器人民事法律責(zé)任制度的探討

根據(jù)民法人物兩分原則的基本立場(chǎng),人工智能機(jī)器人在民法中的法律地位要么屬于法律主體,享有法律人格,要么屬于法律客體,其行為完全受人支配。我國(guó)民法明確規(guī)定的法律主體包括自然人主體和法律擬制主體。自然人主體根據(jù)民事行為能力的不同又區(qū)分為無民事行為能力人、限制民事行為能力人和完全民事行為能力人,其法律人格始于出生終于死亡。擬制主體是在商事活動(dòng)的發(fā)展中逐步確立的,擬制主體享有擬制法律人格。除以上兩種法律明文規(guī)定的法律人格外,在法學(xué)理論上,還存在虛擬人格等其他人格。目前,針對(duì)人工智能機(jī)器人的法律地位有以下幾種觀點(diǎn)。

(一)“肯定說 ”。該學(xué)說肯定人工智能機(jī)器人的法律主體地位,人與其他動(dòng)物的區(qū)別在于僅有人類擁有高級(jí)智慧,而隨著科技的發(fā)展,人工智能機(jī)器人也擁有了與人類相似甚至更為敏捷的學(xué)習(xí)思考和更為理性的決策能力,其應(yīng)當(dāng)受到法律的尊重和承認(rèn),成為法律意義上的人[4],享有法律上的權(quán)利。再者,從自然人到法人,民事主體隨著社會(huì)的發(fā)展有著從少到多,逐漸擴(kuò)張的趨勢(shì)。在技術(shù)上賦予人工智能機(jī)器人法律人格,承認(rèn)其民事權(quán)利能力和民事行為能力并非難事。但由于人工智能承擔(dān)行為后果的能力有限,為解決“肯定說”下人工智能機(jī)器人的責(zé)任承擔(dān)問題,大多學(xué)者又相繼提出了不同的主張。如,“有限人格說”認(rèn)為人工智能機(jī)器人享有的法律人格與自然人享有的法律人格有著些許區(qū)別,人工智能機(jī)器人應(yīng)適用特殊的法律規(guī)范與侵權(quán)責(zé)任體系安排,其享有的人格為有限人格[5]?!按碚f”認(rèn)為,人工智能機(jī)器人是其擁有者的代理人,其根據(jù)被代理人的委托依據(jù)其獨(dú)立的意思表示進(jìn)行代理行為,因代理行為產(chǎn)生的侵權(quán)后果應(yīng)由被代理人,即人工智能機(jī)器人的所有者或使用者承擔(dān)[6]?!邦惐热烁裾f”將人工智能機(jī)器人比作兒童,由此,所有者、使用者需對(duì)人工智能機(jī)器人盡到注意義務(wù)[7]。

(二)“否定說”。主張“否定說”的學(xué)者認(rèn)為,人工智能機(jī)器人不具有法律人格。即其不是民事法律關(guān)系中的主體,它只是一個(gè)工具,只不過比以往人們所使用的工具更加智能。根據(jù)楊立新教授的觀點(diǎn),人工智能是具有人工類特性的物,但在本質(zhì)上還是物,仍是民事法律關(guān)系中的客體[8]。此外,還有“電子奴隸說”,該學(xué)說在本質(zhì)上是工具說的延伸,認(rèn)為人工智能不具有人類特殊的情感與肉體特征,在工作時(shí)無休息等現(xiàn)實(shí)需要,可以認(rèn)作不知疲倦的機(jī)器,有行為能力但沒有權(quán)利能力,其引起的后果皆由其擁有者承擔(dān)?!肮ぞ哒f”和“電子奴役說”令人詬病之處相類似,都在于如何解釋人工智能機(jī)器人基于其智能性作出的“獨(dú)立意思表示”。既然其與人類一樣能夠進(jìn)行獨(dú)立學(xué)習(xí)和深度思考,在不久的將來其可能擁有比人類更發(fā)達(dá)的神經(jīng)網(wǎng)絡(luò),為何不能擁有法律主體地位,享有獨(dú)立的法律人格。

(三)僅在一定條件下承認(rèn)人工智能機(jī)器人的法律主體地位。人工智能機(jī)器人只在滿足一定條件的情況下才能成為民事法律關(guān)系上的主體。吳漢東教授曾提出,“受自然人、自然人集合體——民事主體控制的機(jī)器人,尚不足以取得獨(dú)立的主體”[9]。我們將這句話作反面解釋,若人工智能機(jī)器人脫離了民事法律主體的控制,那么其就可以成為法律意義上的人。

一般而言,民事主體必須同時(shí)具備民事權(quán)利能力、民事行為能力和民事責(zé)任能力?!翱隙ㄕf”“否定說”與“有條件說”的爭(zhēng)議焦點(diǎn)應(yīng)當(dāng)歸結(jié)于人工智能機(jī)器人是否具備以上三種能力,從而論證是否應(yīng)該賦予人工智能機(jī)器人法律主體地位??梢钥隙ǖ氖牵煌A段的人工智能機(jī)器人在是否具備以上三種能力這一問題上應(yīng)做分類探討。在民事權(quán)利能力這一方面,理性主義學(xué)派以“是否具備基礎(chǔ)理性特征”作為法學(xué)意義上人與非人的標(biāo)準(zhǔn)[10]。人享有民事權(quán)利能力的主要原因在于我們具有自我意識(shí)、情感、理性以及一定的道德感[11],相較于動(dòng)物或者自然界的其他存在而言,我們更具有理性精神,所以我們應(yīng)獲得支配其他物的權(quán)利以及尊重其他平等的人的義務(wù)的資格。弱人工智能機(jī)器人的智能性較低,不具備基本的理解能力,不具有理性思維能力,這一點(diǎn)足以否認(rèn)其民事主體資格。而與之相反的是,強(qiáng)人工智能機(jī)器人已具備一定的理解能力和理性思維能力,也就是說其已達(dá)到獲得民事權(quán)利能力的基本標(biāo)準(zhǔn),且上文已提到,由于強(qiáng)人工智能機(jī)器人具備一定的學(xué)習(xí)能力,其理性思維能力還將隨著學(xué)習(xí)的深入而不斷提高。從這一點(diǎn)考慮,應(yīng)承認(rèn)強(qiáng)人工智能機(jī)器人具有民事權(quán)利能力。超人工智能機(jī)器人的思辨能力、創(chuàng)造能力等都超過了人類,但超人工智能機(jī)器人擁有的思維能否稱為理性思維?這一問題仍有待考證。民事行為能力強(qiáng)調(diào)的是行為人以自己的行為獨(dú)立進(jìn)行民事活動(dòng)的能力,其核心在于獨(dú)立意思表示在構(gòu)建民事法律關(guān)系中的重要性。于此,能否成功論證人工智能機(jī)器人具備形成并作出獨(dú)立意思表示的能力成了是否可以承認(rèn)人工智能機(jī)器人具備民事行為能力的標(biāo)準(zhǔn)。在這點(diǎn)上,“否定說”認(rèn)為人工智能機(jī)器人受人的支配,其完全不具備形成獨(dú)立意思表示的能力,相比之下,“肯定說”在這一方面的論述較為模糊。不同階段下的人工智能機(jī)器人在能否作出獨(dú)立意思表示這點(diǎn)上的可能性不盡相同,相較之下,強(qiáng)人工智能、超人工智能機(jī)器人的可能性較高,但其作出的意思表示是否具備獨(dú)立性抑或機(jī)械運(yùn)行結(jié)果也有待商討。就民事責(zé)任能力而言,有權(quán)即有責(zé),這是一般的法律邏輯,但是民法總則第一百零四條關(guān)于非法人組織民事責(zé)任的承擔(dān)的規(guī)定是這一基本邏輯的例外。支持“否定說”的學(xué)者否認(rèn)人工智能機(jī)器人的民事主體地位,僅把人工智能機(jī)器人當(dāng)作物,物自然不需要承擔(dān)民事責(zé)任,否認(rèn)機(jī)器人的主體資格也更有利于超人工智能階段下人類的自我保護(hù)。支持“肯定說”的學(xué)者試圖用“代理說”等來解決人工智能機(jī)器人在責(zé)任承擔(dān)上的局限性。但“代理說”成立的前提是能夠完美論證人工智能機(jī)器人具備民事權(quán)利能力和民事行為能力,否則,人工智能機(jī)器人連人都稱不上,又何談代理人一說。此外,若因人工智能機(jī)器人不具備民事權(quán)利能力、民事行為能力和民事責(zé)任能力而否認(rèn)其成為民事法律主體的可能性,那在現(xiàn)行政治經(jīng)濟(jì)發(fā)展水平下,我們又是否有必要通過擬制技術(shù)賦予其主體資格呢?對(duì)于以上爭(zhēng)議,筆者將在下文展開論述。

以上可以看出,人工智能機(jī)器人法律地位的確定與人工智能技術(shù)的發(fā)展水平、人工智能機(jī)器人的智能程度高低等因素有著密切關(guān)聯(lián),人工智能機(jī)器人的法律地位的認(rèn)定需始終秉持發(fā)展的思維。

三、人工智能機(jī)器人民事法律責(zé)任的認(rèn)定

相比之下,學(xué)界對(duì)于弱人工智能機(jī)器人的法律地位、法律責(zé)任的認(rèn)定爭(zhēng)議較小,實(shí)務(wù)中發(fā)生的具體的案例經(jīng)過探討已能得出較為一致的裁判意見,而對(duì)于強(qiáng)人工智能以及超人工智能機(jī)器人相關(guān)法律問題的認(rèn)定仍存在較大的困境。

(一)目前所處的弱人工智能階段不存在法律適用難題。吳漢東教授認(rèn)為,弱人工智能背景下的機(jī)器人雖然具有相當(dāng)智性,但不具有人之心性和靈性,與具有“人類智慧”的自然人和自然人集合體是不能簡(jiǎn)單等同的[12]。筆者對(duì)此持一致觀點(diǎn),即弱人工智能背景下產(chǎn)生的人工智能機(jī)器人不具備成為民事法律主體的可能性。此外,筆者認(rèn)為,現(xiàn)今法律實(shí)務(wù)中存在的與人工智能相關(guān)的疑難法律問題的關(guān)鍵點(diǎn)并不在于“弱人工智能機(jī)器人是否具備成為法律主體資格”,而在于由于法律工作者們未能對(duì)人工智能產(chǎn)品的運(yùn)作原理作出詳細(xì)剖析而誤認(rèn)為較為高級(jí)的弱人工智能機(jī)器人已經(jīng)突破弱人工智能的界限而成了強(qiáng)人工智能產(chǎn)品。目前學(xué)界廣為熱議的自動(dòng)駕駛汽車發(fā)生交通事故后的責(zé)任認(rèn)定問題可以很好地用以論證此觀點(diǎn)。2016年5月7日,Model S 拓速樂牌轎車與一輛拖掛車輛在美國(guó)佛羅里達(dá)州的高速公路上相撞致使駕駛員死亡。事故發(fā)生時(shí),Model S拓速樂牌轎車正處于自動(dòng)駕駛狀態(tài),其自動(dòng)緊急制動(dòng)系統(tǒng)未針對(duì)碰撞事件提供任何警告或者自動(dòng)剎車,駕駛員未采取剎車、轉(zhuǎn)向或其他行動(dòng)來避免碰撞。據(jù)悉,美國(guó)機(jī)動(dòng)車工程師協(xié)會(huì)將自動(dòng)駕駛機(jī)動(dòng)車分為0~5級(jí)共6級(jí)。級(jí)別越高,自動(dòng)化程度越高[13]。本案中的Model S拓速樂牌轎車屬于2級(jí),即部分自動(dòng)化機(jī)動(dòng)車。部分自動(dòng)化機(jī)動(dòng)車的“自動(dòng)性”雖然免去了駕駛員駕駛中的些許勞累,但也給駕駛者帶來了更高的注意義務(wù),因?yàn)樵摰燃?jí)下機(jī)動(dòng)車的傳感器無法感知全部危險(xiǎn),需要駕駛?cè)藭r(shí)刻關(guān)注路面信息,若機(jī)動(dòng)車不能感知危險(xiǎn),駕駛?cè)诵枰⒓唇犹骜{駛,這意味著一個(gè)合格的駕駛者應(yīng)熟悉車輛性能,并以此作出合理安全的安排[14]。可見,該事故的發(fā)生是由于駕駛員沒有盡到注意義務(wù)造成的,應(yīng)按照傳統(tǒng)道路交通事故責(zé)任確定責(zé)任歸屬,由該車駕駛?cè)俗孕谐袚?dān)相應(yīng)損失。

人工智能機(jī)器人的法律地位之所以在學(xué)界引起巨大爭(zhēng)議是因?yàn)槠渚哂信c人相類似的特性,若將其定位為“物”將引起諸多矛盾。而人之所以為人是人符合生理學(xué)、心理學(xué)、社會(huì)學(xué)三個(gè)要素[15]。生理學(xué)要素指的是人體和人腦,心理學(xué)要素指的是人的意識(shí)能力和獨(dú)立意志,社會(huì)學(xué)要素指的是獨(dú)立的社會(huì)角色[16]。很顯然,若將弱人工智能機(jī)器人與人類比,其不符合前兩個(gè)要件,即其沒有人體人腦。然而法人組織也不具有人體和人腦,但其依舊被法律確認(rèn)為法律主體并賦予其擬制人格。更為重要的一點(diǎn)在于弱人工智能機(jī)器人沒有獨(dú)立的意識(shí)和意志,其意識(shí)是人類賦予的,是各種算法的機(jī)械運(yùn)動(dòng),而不是能動(dòng)的、獨(dú)立的,也并非基于先前的學(xué)習(xí)和積累產(chǎn)生,其工作的全過程都受到人類的控制。因此,在民法上賦予其主體地位并不合適。因此,只要法律工作者對(duì)弱人工智能機(jī)器人的運(yùn)行原理作出詳細(xì)剖析,在弱人工智能階段并不存在人工智能機(jī)器人的法律適用難題。

因此,在弱人工智能階段,若因?yàn)槠洚a(chǎn)品質(zhì)量存在問題造成人身傷害、財(cái)產(chǎn)損失,可以適用產(chǎn)品質(zhì)量法、侵權(quán)責(zé)任法的相關(guān)規(guī)定追究產(chǎn)品設(shè)計(jì)者、生產(chǎn)者的責(zé)任,若因?yàn)槭褂谜卟僮鞑划?dāng)引起的人身傷害財(cái)產(chǎn)損失,則由使用者自行擔(dān)責(zé)。

(二)現(xiàn)行民法體系能夠包容人工智能機(jī)器人的發(fā)展。在未來,人工智能機(jī)器人將擁有生物大腦,配備比人類更為豐富的神經(jīng)元,超越人類成為更加優(yōu)秀的社會(huì)工作者。進(jìn)入強(qiáng)人工智能甚至超人工智能階段后,人工智能機(jī)器人的存在、工作以及可能產(chǎn)生的侵權(quán)行為才真正地給學(xué)界帶來了難題。這主要體現(xiàn)在該階段下的機(jī)器人是否具備產(chǎn)生和作出獨(dú)立的意思表示的可能性以及其是否能獨(dú)立地承擔(dān)法律責(zé)任兩大問題上。

人工智能機(jī)器人是人類智慧的產(chǎn)物。人類將自己的思維轉(zhuǎn)化為算法,使得機(jī)器人能夠代替人腦和人的雙手獨(dú)立從事某方面的工作。此外,人工智能機(jī)器人還會(huì)進(jìn)行自主學(xué)習(xí)和積累,以更好地融入人類社會(huì)。雷·庫(kù)茲維爾曾提出,通過深入研究以及長(zhǎng)時(shí)間的與人相處,機(jī)器人還將會(huì)獲得意識(shí)[17]。但筆者認(rèn)為,無論是強(qiáng)人工智能機(jī)器人抑或是超人工智能機(jī)器人,其擁有的意識(shí)都不是獨(dú)立的,這種意識(shí)對(duì)人類工程師有著強(qiáng)大的依賴性。工程師在人工智能產(chǎn)品研發(fā)時(shí)輸入一定參數(shù),使其具備基礎(chǔ)的智能性,之后其學(xué)習(xí)、決策、創(chuàng)作等一系列行為都是原始程序運(yùn)行的結(jié)果。不論人工智能機(jī)器人擁有的意識(shí)與人的意識(shí)多么相似,兩者仍有根本區(qū)別,人工智能機(jī)器人仍然受到人類操控,獨(dú)立意識(shí)并不存在,人工智能機(jī)器人在本質(zhì)上仍是一種人類設(shè)計(jì)的智能產(chǎn)品。

權(quán)利義務(wù)具有統(tǒng)一性,假設(shè)賦予了機(jī)器人主體資格,其便應(yīng)享有作為法律主體應(yīng)有的權(quán)利,也應(yīng)當(dāng)履行法律主體應(yīng)承擔(dān)的義務(wù)和責(zé)任。由于人工智能機(jī)器人責(zé)任承擔(dān)的受限性,各學(xué)說都試圖將責(zé)任承擔(dān)轉(zhuǎn)引至機(jī)器人的設(shè)計(jì)者、生產(chǎn)者、銷售者或使用者,而并非機(jī)器人本身,這與權(quán)責(zé)統(tǒng)一的基本法律有所違背。為使法律責(zé)任的轉(zhuǎn)嫁更具合理性,有學(xué)者試圖用民法總則第十六條和侵權(quán)責(zé)任法第三十二條作為其論據(jù)[18]。民法總則第十六條規(guī)定,胎兒在涉及遺產(chǎn)繼承、接受贈(zèng)予等胎兒利益保護(hù)時(shí)視為具有民事權(quán)利能力,即將其視為民法上的主體,但無須承擔(dān)義務(wù)和責(zé)任。對(duì)此,筆者并不認(rèn)同,首先,該條款是對(duì)胎兒弱勢(shì)利益的特別保護(hù),機(jī)器人是否也處于一個(gè)弱勢(shì)地位,尤其是人工智能技術(shù)發(fā)展到超人工智能階段,該問題有待證實(shí)。此外,胎兒若順利分娩,胚胎即成長(zhǎng)為法律認(rèn)可的法律主體——自然人,在這一點(diǎn)上,機(jī)器人與胎兒完全不同。侵權(quán)責(zé)任法第三十二條是關(guān)于無民事行為能力人、限制民事行為能力人責(zé)任承擔(dān)問題的規(guī)定。筆者認(rèn)為該條規(guī)定也不足以為人工智能機(jī)器人責(zé)任轉(zhuǎn)嫁的正當(dāng)性提供依據(jù)。因?yàn)楸O(jiān)護(hù)人的替代責(zé)任有暫時(shí)性,當(dāng)無民事行為能力人或限制民事行為能力人取得民事行為能力,該替代責(zé)任即刻解除。而人工智能背景下的替代責(zé)任具有永久性質(zhì)。極具“靈性”的機(jī)器人超出機(jī)器發(fā)明者的發(fā)明意圖實(shí)施的侵害行為,若要永久性地歸責(zé)于發(fā)明者制作者,等于為自己埋下不定時(shí)炸彈,這將極大遏制產(chǎn)品創(chuàng)新,不利于社會(huì)發(fā)展。

既然人工智能機(jī)器人不能因其與人類的高度相似性而獲得法律主體地位,那么立法者是否有必要如同賦予法人獨(dú)立人格般,采用擬制手段承認(rèn)人工智能機(jī)器人的財(cái)產(chǎn)權(quán),并承認(rèn)其法律主體地位呢[19]?筆者認(rèn)為無此必要。面對(duì)人工智能技術(shù)的發(fā)展,民法體系表現(xiàn)出了較高的包容度。將人工智能機(jī)器人視為法律客體有其自身合理性,不會(huì)對(duì)現(xiàn)有法律體系造成沖擊。相反,如果強(qiáng)行賦予人工智能機(jī)器人法律主體的地位,就意味著我們不得不承認(rèn)自然人、法人和人工智能機(jī)器人將處于平等的法律地位,一旦發(fā)展到超人工智能階段,人工智能機(jī)器人作出不利于人類的行為,我們將難以通過法律手段保護(hù)我們的自身利益。這與立法的初衷——防范人工智能時(shí)代可能帶來的風(fēng)險(xiǎn)是相違背的。若采取擬制手法,最終,赫拉利在其《未來簡(jiǎn)史》中的預(yù)言可能即將變成現(xiàn)實(shí):人工智能將取得統(tǒng)治地位,大部分人類活動(dòng)被人工智能取代,僅有少數(shù)創(chuàng)造算法、為人工智能編寫核心程序、通過人工智能驅(qū)動(dòng)社會(huì)運(yùn)轉(zhuǎn)的,由智人進(jìn)化而來的“神人”可“獨(dú)善其身”[20]??v觀民事主體制度的發(fā)展史,法律主體資格的產(chǎn)生與消亡在本質(zhì)上取決于人的需求[21]。如果僅僅為了防止人類對(duì)于某些智能機(jī)器人的濫用或歧視,完全可以比照對(duì)于動(dòng)物的保護(hù),將其視為體現(xiàn)人類價(jià)值關(guān)懷的特殊客體[22],使人類承擔(dān)特定的不作為義務(wù)即可實(shí)現(xiàn)調(diào)整目標(biāo),而不必賦予其民事主體地位以實(shí)現(xiàn)自我保護(hù)[23]。

民事權(quán)利能力、民事行為能力和民事責(zé)任能力是評(píng)價(jià)人工智能機(jī)器人能否成為民事法律主體的三大標(biāo)準(zhǔn)。根據(jù)上文所述,即使工程師為人工智能機(jī)器人配備了強(qiáng)大的神經(jīng)元和大腦,但其始終無法擁有與人類相似的能動(dòng)的意識(shí),人工智能機(jī)器人的大腦的運(yùn)轉(zhuǎn)是機(jī)械的[24],不具備人的智性和靈性,其作出的意思表示并不獨(dú)立。此外,現(xiàn)行無論何種理論都無法妥善解決人工智能機(jī)器人的責(zé)任承擔(dān)問題,若如此貿(mào)然承認(rèn)人工智能機(jī)器人的民事主體地位,勢(shì)必會(huì)對(duì)“權(quán)責(zé)一致”的民法原則形成重大沖擊。在此基礎(chǔ)上。雖然筆者同意通過法律擬制手段賦予人工智能機(jī)器人民事法律主體地位在立法技術(shù)上不存在難題這一論述,但這操作有違我們對(duì)人工智能展開探討的初衷,即賦予人工智能機(jī)器人法律主體地位在本質(zhì)上并不利于人類權(quán)利的保護(hù)和現(xiàn)有社會(huì)秩序的維護(hù)。綜上,筆者認(rèn)為,即使強(qiáng)人工智能機(jī)器人擁有高級(jí)智能,但其“智能性”不能改變其作為“物”的本質(zhì)。在強(qiáng)人工智能、超人工智能時(shí)代,我們?nèi)匀粦?yīng)該堅(jiān)持主體地位“否定說”。因其“工作”造成的人身傷害、財(cái)產(chǎn)損失應(yīng)依照按照侵權(quán)責(zé)任法、產(chǎn)品責(zé)任法等法律向相應(yīng)的設(shè)計(jì)者、生產(chǎn)者、銷售者、使用者追責(zé)[25]。

四、人工智能機(jī)器人民事法律責(zé)任制度的完善

雖然人工智能技術(shù)的發(fā)展尚未對(duì)現(xiàn)行法律制度產(chǎn)生根本上的沖擊,但為了減少人工智能技術(shù)在發(fā)展過程中可能對(duì)司法審判、社會(huì)秩序、民眾心理等方面帶來的沖擊,更好地放大人工智能技術(shù)給人類帶來的福利,我們應(yīng)在國(guó)家甚至國(guó)際層面上形成相應(yīng)的監(jiān)管網(wǎng)[26]以及風(fēng)險(xiǎn)預(yù)防措施。對(duì)此,筆者試圖從風(fēng)險(xiǎn)存在的兩個(gè)階段對(duì)人工智能技術(shù)的未來進(jìn)行規(guī)制。

(一)風(fēng)險(xiǎn)發(fā)生前:完善立法,建立全方位監(jiān)管體系。根據(jù)上文所述,我國(guó)現(xiàn)行民法的基本理念和具體規(guī)則具有強(qiáng)大的包容性,可以適應(yīng)人工智能技術(shù)發(fā)展,對(duì)此,我們無須改變民法基本理念尋找新的解決思路。但這并不代表立法上的一成不變,為解決人工智能技術(shù)發(fā)展帶來的諸多法律問題,立法者仍需出臺(tái)相應(yīng)的法律法規(guī),明確對(duì)人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等諸多法律問題,保證人工智能的技術(shù)研發(fā)、產(chǎn)品生產(chǎn)、投入使用等各個(gè)環(huán)節(jié)貫徹“以人為本”的理念,在人工智能技術(shù)的規(guī)制與促進(jìn)人工智能產(chǎn)業(yè)發(fā)展之間尋找平衡點(diǎn)。

在完善立法的同時(shí),要建立一套囊括事前、事中、事后的全方位監(jiān)管體系。由于人工智能技術(shù)的復(fù)雜性和高風(fēng)險(xiǎn)性,監(jiān)管的主體除了需要強(qiáng)大的政府作為權(quán)力保障,也需要專業(yè)人士成立行業(yè)協(xié)會(huì)與政府一起對(duì)人工智能技術(shù)進(jìn)行協(xié)同監(jiān)管。在人工智能產(chǎn)品開始設(shè)計(jì)之前,設(shè)計(jì)者需要進(jìn)行備案,由于此時(shí)尚處于設(shè)計(jì)階段,風(fēng)險(xiǎn)程度較低,故監(jiān)管部門無須對(duì)設(shè)計(jì)者的資質(zhì)展開實(shí)質(zhì)審查。當(dāng)設(shè)計(jì)者完成設(shè)計(jì),設(shè)計(jì)作品即將投入生產(chǎn)之際,設(shè)計(jì)者和生產(chǎn)者需要擇一或一起向政府提起行政許可申請(qǐng)。政府受理后需要連同行業(yè)協(xié)會(huì)或者指定專家團(tuán)對(duì)相應(yīng)的人工智能技術(shù)設(shè)計(jì)開展實(shí)質(zhì)審查,力求在源頭阻斷風(fēng)險(xiǎn),以免不利于人類發(fā)展的人工智能技術(shù)投入生產(chǎn)。獲得行政許可的人工智能技術(shù)投入生產(chǎn),最終進(jìn)入公眾領(lǐng)域后,若出現(xiàn)危害人類的侵權(quán)行為,除了需要追求相應(yīng)主體的民事責(zé)任,還需要在行政法上對(duì)相應(yīng)主體進(jìn)行懲處,以此加強(qiáng)人工智能行業(yè)的自律性。

(二)風(fēng)險(xiǎn)發(fā)生后:準(zhǔn)確歸責(zé),通過保險(xiǎn)制度共擔(dān)損失。人工智能技術(shù)的發(fā)展在給這個(gè)社會(huì)帶來無盡福利的同時(shí)也會(huì)產(chǎn)生巨大的風(fēng)險(xiǎn)。雖然人工智能機(jī)器人極具“智能性”,但在強(qiáng)人工智能背景下,一個(gè)“心地歹毒”的智能機(jī)器人給社會(huì)造成的危害遠(yuǎn)大于一般產(chǎn)品,賠償?shù)姆秶虺潭瓤赡苁且粋€(gè)設(shè)計(jì)者、生產(chǎn)者、銷售者所無法承受的。

眾所周知,在我國(guó),機(jī)動(dòng)車所有人或者管理者應(yīng)投保第三者責(zé)任強(qiáng)制保險(xiǎn),國(guó)家應(yīng)設(shè)立道路交通事故社會(huì)救助基金,保障交通事故受害人依法得到賠償。保險(xiǎn)的本質(zhì)在于以較小的經(jīng)濟(jì)付出獲得共擔(dān)風(fēng)險(xiǎn),降低損失的機(jī)會(huì)。對(duì)此,我們可以借鑒機(jī)動(dòng)車第三者責(zé)任強(qiáng)制保險(xiǎn)而設(shè)計(jì)一個(gè)“機(jī)器人責(zé)任強(qiáng)制保險(xiǎn)”[27]。人工智能機(jī)器人的設(shè)計(jì)者、生產(chǎn)者、銷售者應(yīng)分別強(qiáng)制投?!皺C(jī)器人責(zé)任強(qiáng)制保險(xiǎn)”,國(guó)家應(yīng)建立機(jī)器人責(zé)任社會(huì)救助基金,保證在機(jī)器人設(shè)計(jì)者、生產(chǎn)者、銷售者下落不明或者難以作出賠償時(shí)優(yōu)先對(duì)受害者在承保范圍內(nèi)進(jìn)行賠付,隨后向相應(yīng)責(zé)任主體追償。減少人工智能產(chǎn)業(yè)發(fā)展過程中產(chǎn)生的經(jīng)濟(jì)糾紛,促進(jìn)該產(chǎn)業(yè)的良性發(fā)展。

五、結(jié)語

人工智能時(shí)代必將到來,在法律領(lǐng)域,急迫且重要的問題是對(duì)人工智能機(jī)器人法律地位認(rèn)定、法律責(zé)任歸屬等問題作出回應(yīng),并妥當(dāng)設(shè)置相關(guān)規(guī)則、制度,在有效規(guī)范人工智能技術(shù)的同時(shí),為新興技術(shù)的發(fā)育預(yù)留必要的制度空間[28]。其中,弱人工智能機(jī)器人并不具備成為民事法律主體的可能,因其“工作”產(chǎn)生的相關(guān)民事責(zé)任應(yīng)按照侵權(quán)責(zé)任法、產(chǎn)品責(zé)任法等追究產(chǎn)品生產(chǎn)者、所有者或使用者的責(zé)任。面對(duì)實(shí)務(wù)中產(chǎn)生的諸如自動(dòng)駕駛汽車的責(zé)任認(rèn)定等疑難案例,法律工作者需要對(duì)人工智能產(chǎn)品的運(yùn)作原理作出詳細(xì)剖析,切勿認(rèn)為其已經(jīng)突破弱人工智能的界限而成了強(qiáng)人工智能產(chǎn)品。未來的強(qiáng)人工智能機(jī)器人甚至超人工智能機(jī)器人,其具備強(qiáng)大的學(xué)習(xí)能力,但其作出的意思表示在本質(zhì)上也并不獨(dú)立,仍依賴于人類工程師的原始數(shù)據(jù)輸入。因而其“物”的屬性仍未改變,侵權(quán)責(zé)任法、產(chǎn)品責(zé)任法等相關(guān)法律仍然適用。

總之,人工智能機(jī)器人享有法律主體資格的論斷缺乏普遍共識(shí)性和傳統(tǒng)人格理論的支撐[29]。無論是在強(qiáng)人工智能時(shí)代還是弱人工智能時(shí)代,甚至超人工智能時(shí)代,將其認(rèn)定為“物”都能夠正確揭示本質(zhì)特征,合理解決責(zé)任認(rèn)定問題。此外,我國(guó)現(xiàn)行民法具有強(qiáng)大的包容能力,人工智能的發(fā)展尚未突破民法的調(diào)整范圍,但面對(duì)已經(jīng)到來的人工智能時(shí)代,我們需要作出充分且合理的風(fēng)險(xiǎn)防范措施:一方面出臺(tái)人工智能專門立法,在現(xiàn)有法律中補(bǔ)充人工智能相關(guān)條款,并建立一套囊括事前、事中、事后的全方位監(jiān)管體系,另一方面設(shè)立“機(jī)器人責(zé)任強(qiáng)制保險(xiǎn)”制度,以保險(xiǎn)的方式分散風(fēng)險(xiǎn),促進(jìn)該產(chǎn)業(yè)的良性發(fā)展。

猜你喜歡
機(jī)器人主體人工智能
論自然人破產(chǎn)法的適用主體
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護(hù)主體的思考
機(jī)器人來幫你
認(rèn)識(shí)機(jī)器人
機(jī)器人來啦
認(rèn)識(shí)機(jī)器人
保定市| 鹤峰县| 江北区| 于田县| 巴青县| 南溪县| 沾化县| 大庆市| 青铜峡市| 高青县| 桃园县| 醴陵市| 丹凤县| 洛南县| 恭城| 丽水市| 团风县| 固镇县| 七台河市| 天等县| 新丰县| 宜都市| 福建省| 上杭县| 长汀县| 巩留县| 岐山县| 荣昌县| 安乡县| 磐安县| 清水河县| 六盘水市| 龙江县| 福海县| 古交市| 南江县| 张家川| 云霄县| 永春县| 普兰店市| 阳曲县|