石水元
(貴州財(cái)經(jīng)大學(xué) 文法學(xué)院,貴州 貴陽 550025)
近年來,人工智能發(fā)展迅速,深刻改變?nèi)祟惿鐣?huì)生活、改變世界。特別是在2017年7月20日,國(guó)務(wù)院印發(fā)《關(guān)于新一代人工智能發(fā)展規(guī)劃的通知》,更進(jìn)一步地推動(dòng)人工智能發(fā)展步伐。但是,人工智能迅速發(fā)展的同時(shí)也給現(xiàn)行民事法律制度帶來新的挑戰(zhàn)。2017年10月28日,在被譽(yù)為“沙特達(dá)沃斯”的“未來投資倡議”大會(huì)上,一位女性機(jī)器人索菲婭被授予沙特公民身份,成為世界上首個(gè)獲得公民身份的機(jī)器人。雖然目前尚不清楚她是否會(huì)獲得與沙特阿拉伯人同等或更多的權(quán)利,但這一案例卻在人工智能的法律地位探討方面開辟了先例。我國(guó)現(xiàn)行民事法律未就人工智能作為民事主體進(jìn)行規(guī)定,在民事法律制度中,能夠成為民事法律關(guān)系主體必須由法律賦予其主體資格。因此,人工智能尚不能根據(jù)現(xiàn)行民事法律獲得等同于自然人、法人和其他組織權(quán)利的民事主體資格,但其能否作為新型的民事主體、怎樣為其獨(dú)立實(shí)施的行為承擔(dān)責(zé)任以及通過什么樣的法律規(guī)范調(diào)整人工智能值得深入研究。
目前對(duì)于人工智能是否具有民事權(quán)利能力,理論界、實(shí)務(wù)界主要有以下幾種觀點(diǎn):(1)工具說。工具說認(rèn)為人工智能只不過是普通民事法律關(guān)系客體中物的特殊化,其性質(zhì)仍然屬于物。民事主體利用物之客體所實(shí)施一系列行為,對(duì)于人工智能來說不具有民事權(quán)利能力。(2)代理說。代理說認(rèn)為人工智能是民事權(quán)利人手足的延伸,不能再把人工智能簡(jiǎn)單地看作物之客體。從長(zhǎng)遠(yuǎn)來看,人工智能能夠按照設(shè)定的程序完成一系列指令,替代民事主體實(shí)施具有民事法律關(guān)系的民事法律行為,因此人工智能具有不同于自然人的民事權(quán)利能力。(3)電子人說。電子人說也是認(rèn)為人工智能具有不同于通常意義上的物之客體的屬性。筆者認(rèn)為,人工智能是否可以成為民事法律關(guān)系主體,必須對(duì)人工智能是否具有權(quán)利能力進(jìn)行探討。第一,《中華人民共和國(guó)的民法總則》(以下簡(jiǎn)稱民法總則)規(guī)定了可以作為民事法律關(guān)系的主體為自然人、法人和非法人。[1]《民法總則》規(guī)定的三類民事主體有著共同的特征,也就是都具有權(quán)利能力。人工智能作為新生事物,尚未有具體的法律調(diào)整,因此目前看來是否具有民事主體的資格還要深入探討。第二,《民法總則》明確規(guī)定了自然人、法人和非法人組織的權(quán)利能力的起始時(shí)間,那對(duì)人工智能的民事權(quán)利能力起始時(shí)間如何進(jìn)行界定確實(shí)是個(gè)難題。第三,意思能力是判斷人工智能是否具有民事權(quán)利能力的標(biāo)準(zhǔn)。承認(rèn)人工智能具有民事權(quán)利能力,首先應(yīng)當(dāng)對(duì)人工智能是否具有意思能力進(jìn)行界定。人工智能作為人類社會(huì)發(fā)展到一定階段的產(chǎn)物,雖然具有高度的智慧性,但從民法基本理論和人工智能構(gòu)造原理出發(fā),將人工智能看作具有意思能力確有不妥。
民事權(quán)利是民事主體享有和受法律保護(hù)或?qū)崿F(xiàn)某種行為(行為或不作為)、實(shí)現(xiàn)某種利益的可能性。簡(jiǎn)單地說,主體是否有權(quán)實(shí)施或不實(shí)施某些選擇行為的自由。[2]根據(jù)對(duì)民事權(quán)利的理解,人工智能的實(shí)施是用戶事先設(shè)定的一個(gè)自動(dòng)化程序,其行為不能超過用戶的意愿,其含義是人工智能的使用即使未來人工智能發(fā)展成為可以與人一樣的自主性和獨(dú)立性,可以獨(dú)立作出判斷,采取相應(yīng)的行動(dòng),但是人工智能畢竟是由人設(shè)計(jì)產(chǎn)生的,其行為不可能完全獨(dú)立于人的意志。[3]就目前來看,依舊將人工智能看作民事法律關(guān)系客體中物的特殊化形式更具有合理性。若賦予人工智能以民事權(quán)利,將人工智能規(guī)定為法律擬制上的人,法理上值得商榷。根據(jù)相關(guān)科學(xué)研究可知,人與人工智能在意志方面有很大不同之處,主張人工智能能夠成為民事法律關(guān)系主體,具有相應(yīng)的民事權(quán)利的作者舉出“谷歌人工智能系統(tǒng)AlphaGo擊敗世界圍棋冠軍”的例子。雖然圍棋比賽中人工智能系統(tǒng)打敗了人類,但對(duì)跨領(lǐng)域的狀況不能做出很好地隨機(jī)應(yīng)變,其只能按照所設(shè)定好的特定領(lǐng)域進(jìn)行,對(duì)超出的領(lǐng)域以及含糊不清的信息缺少必要的競(jìng)爭(zhēng)冒險(xiǎn)選擇機(jī)制,主次不分,綜合辨析識(shí)別能力不足,不會(huì)使用歸納推理演繹等方法形成概念或提出新概念,更奢談產(chǎn)生形而上學(xué)的理論形式。鑒于此,賦予人工智能以民事權(quán)利條件尚不具備。
人工智能侵犯他人的合法權(quán)益,能否適用現(xiàn)行《侵權(quán)責(zé)任法》歸責(zé)原則,分以下情況考慮。第一,當(dāng)使用人利用人工智能作為工具實(shí)施侵犯他人合法權(quán)益的行為,其實(shí)質(zhì)是使用人實(shí)施的侵權(quán)行為,與人工智能并不發(fā)生民事法律關(guān)系,應(yīng)當(dāng)根據(jù)現(xiàn)行的過錯(cuò)歸責(zé)原則認(rèn)定使用人的侵權(quán)責(zé)任。第二,若人工智能并沒有按照原先設(shè)置的程序?qū)嵤┬袨槎鴮?dǎo)致侵權(quán),一方面,使用人對(duì)其所有的人工智能盡到善良管理人的注意義務(wù),若使用人明知人工智能實(shí)施或者可能實(shí)施侵犯他人合法權(quán)益的行為,仍然放任不顧,其最后侵權(quán)主體也應(yīng)當(dāng)認(rèn)定為使用人,根據(jù)《侵權(quán)責(zé)任法》規(guī)定的過錯(cuò)侵權(quán)追究使用人的責(zé)任。[4]另一方面,人工智能的設(shè)計(jì)者或銷售者也應(yīng)當(dāng)盡到勤勉的義務(wù),違反此義務(wù)者,應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任。綜上所述,最終責(zé)任的承擔(dān)者還是人工智能的所有者或使用者等,若讓人工智能承擔(dān)相應(yīng)的侵權(quán)責(zé)任,并沒有任何法律上的意義。
人工智能作為影響面廣的顛覆性技術(shù),可能沖擊法律、社會(huì)倫理、侵犯?jìng)€(gè)人隱私等問題。維護(hù)秩序、保障人權(quán)是當(dāng)今社會(huì)的一項(xiàng)基本道義原則。人權(quán)反應(yīng)的是人類最基本的利益與需求,人權(quán)的概念中蘊(yùn)涵著強(qiáng)烈的倫理思想,這一點(diǎn)毫無疑問。[5]所謂人權(quán)倫理,是指人權(quán)本身包含的基本道德體系,體現(xiàn)在一切人權(quán)、人權(quán)活動(dòng)中的道德價(jià)值和倫理關(guān)系,并應(yīng)遵循道德原則和道德標(biāo)準(zhǔn)。人工智能技術(shù)的迅速發(fā)展使得之前只是從事簡(jiǎn)單體力活的智能機(jī)器人具有一定程度的感知能力并被賦予其所謂的“人性”,伴隨著這些“智能生命”的出現(xiàn),使得“人權(quán)”受到了不小的挑戰(zhàn)。若承認(rèn)人工智能在民事法律關(guān)系主體上的地位,人類實(shí)施傷害人工智能的行為該如何規(guī)制、人工智能是否可以成為遺產(chǎn)的繼承者、人工智能是否可以適用《婚姻法》的規(guī)定以及人工智能的人格權(quán)該如何進(jìn)行保護(hù)等涉及倫理性問題。對(duì)于有些主張給予人工智能限制權(quán)利能力的,試圖擴(kuò)大擁有權(quán)利能力的范圍。根據(jù)一些學(xué)者標(biāo)新立異的觀點(diǎn),應(yīng)該保持清醒和警惕,堅(jiān)決反對(duì)人工智能有權(quán)利能力,認(rèn)為其不是人類的道德和法律的主體,應(yīng)注意兩者的目的和利益平衡,把人工智能作為特殊物來對(duì)待。若將人工智能看作具有法律擬制上的人,將會(huì)對(duì)現(xiàn)有權(quán)利能力體系造成沖擊,不利于人與人工智能相處甚至導(dǎo)致違背人類倫理道德出現(xiàn)。[6]
基于人工智能不同于普通物這一特殊性,有必要在《民法總則》中關(guān)于民事法律關(guān)系客體物的種類進(jìn)行區(qū)分。第一,可以借鑒《德國(guó)民法典》的做法。即在我國(guó)民法典應(yīng)該把物分為普通物和特殊物,并明確規(guī)定,對(duì)于人工智能,我們應(yīng)該運(yùn)用人工智能的特別法,體現(xiàn)生態(tài)時(shí)代的綠色精神,有利于未來人與人工智能的關(guān)系,也將普通物與人工智能予以區(qū)分,不同的對(duì)待思想。第二,在《民法總則》中可以設(shè)置一個(gè)特殊物的制度,規(guī)定對(duì)人工智能的特殊保護(hù),尊重并實(shí)現(xiàn)對(duì)人工智能的良好保護(hù)。[7]這樣就使得人工智能在民法典中依然處于權(quán)利客體的地位,只具有法律物格,是對(duì)人工智能法律物格的堅(jiān)持。同時(shí),這也兼顧了人工智能的特殊性,在具體內(nèi)容的設(shè)計(jì)上也體現(xiàn)人工智能的特殊保護(hù)。
在特殊化物之客體制度建立的基礎(chǔ)上,完善現(xiàn)行《產(chǎn)品質(zhì)量法》《合同法》《侵權(quán)責(zé)任法》等,為侵權(quán)責(zé)任的認(rèn)定提供法律依據(jù)。
第一,既然認(rèn)為人工智能作為特殊化的物之客體而非權(quán)利主體,人工智能設(shè)計(jì)的目的是進(jìn)入人們的日常生活,廣泛應(yīng)用于教育、醫(yī)療、養(yǎng)老、環(huán)境保護(hù)、城市運(yùn)營(yíng)、司法服務(wù)等領(lǐng)域,將極大提高公共服務(wù)精準(zhǔn)化水平,有效維護(hù)社會(huì)穩(wěn)定,從而全面提升人民生活品質(zhì),那么有必要從源頭上(設(shè)計(jì)者或制造者)嚴(yán)格規(guī)制人工智能作為產(chǎn)品進(jìn)入消費(fèi)市場(chǎng)的質(zhì)量。國(guó)家應(yīng)該就人工智能這一民事法律關(guān)系客體的質(zhì)量設(shè)置嚴(yán)格的國(guó)家標(biāo)準(zhǔn),若因質(zhì)量產(chǎn)品瑕疵而導(dǎo)致的侵權(quán)或者違反約定,可以要求設(shè)計(jì)者或者制造者承擔(dān)產(chǎn)品瑕疵責(zé)任。在產(chǎn)品的流通銷售環(huán)節(jié),銷售者只對(duì)其過錯(cuò)承擔(dān)相應(yīng)的民事責(zé)任。生產(chǎn)者或制造者的產(chǎn)品責(zé)任的免責(zé)事由,對(duì)于人工智能是否適用也是值得討論的問題。無論實(shí)務(wù)界還是理論界都承認(rèn)現(xiàn)在侵權(quán)歸責(zé)原則主要有三種:過錯(cuò)原則、無過錯(cuò)原則和公平原則。這三種歸責(zé)原則對(duì)于人工智能實(shí)施的侵權(quán)行為具體適用問題應(yīng)該單獨(dú)討論。筆者認(rèn)為,對(duì)于生產(chǎn)者或者制造者的免責(zé)條款仍然適用,但不是像普通產(chǎn)品那樣適用這一免責(zé)條款,應(yīng)該限制適用范圍。
第二,建立獎(jiǎng)勵(lì)和監(jiān)督機(jī)制。嚴(yán)格按照國(guó)家標(biāo)準(zhǔn)和先進(jìn)技術(shù)實(shí)施生產(chǎn)的,給予不同程度的獎(jiǎng)勵(lì)。按照國(guó)家制定的質(zhì)量管理標(biāo)準(zhǔn),實(shí)行企業(yè)質(zhì)量體系認(rèn)證制度。根據(jù)自愿的原則,企業(yè)可以通過認(rèn)證機(jī)構(gòu)向國(guó)務(wù)院產(chǎn)品質(zhì)量監(jiān)督部門認(rèn)可或者國(guó)務(wù)院產(chǎn)品質(zhì)量監(jiān)督管理部門授權(quán)的部門認(rèn)證,企業(yè)通過認(rèn)證的,由認(rèn)證機(jī)構(gòu)頒發(fā)企業(yè)質(zhì)量體系認(rèn)證證書。認(rèn)證機(jī)構(gòu)頒發(fā)的產(chǎn)品質(zhì)量認(rèn)證證書由認(rèn)證機(jī)構(gòu)授予,允許企業(yè)在產(chǎn)品或包裝上使用產(chǎn)品質(zhì)量認(rèn)證標(biāo)志。
人工智能的設(shè)計(jì)、制造和使用應(yīng)當(dāng)進(jìn)行立法,規(guī)定人工智能制造、使用不能違背公序良俗,將《民法總則》中公序良俗這一基本原則納入人工智能立法體系之中,有序地調(diào)整人與人工智能的關(guān)系。在人工智能發(fā)展遇到種種倫理困境的今天,我們要始終貫徹以人為本的原則,人的一切活動(dòng)都是要服務(wù)于人的幸福、人的發(fā)展,人的自由。在人工智能飛速發(fā)展和對(duì)人工智能的倫理地位定位過程中,要堅(jiān)持從人的角度判斷和取舍。在這個(gè)世界中,一切科學(xué)技術(shù)只能“豐富這個(gè)有情的世界,而不能淡化人的感情世界”。在人工智能發(fā)展過程中,不能單單的考慮人的私欲和科學(xué)家的瘋狂求知欲,應(yīng)始終伴隨合乎人性的價(jià)值體系與行為原則。所以,對(duì)于人工智能的倫理領(lǐng)域的研究也要時(shí)刻與其技術(shù)保持同步,要未雨綢繆但要避免過度敏感。在這條走向智慧的路上還會(huì)有更多的問題將接踵而至,而我們要做的就是不偏不倚走在“科技以人為本”的道路上迎接人工智能即將帶給我們的種種福利。此外,《民法總則》中的綠色原則也可以作為人機(jī)共處機(jī)制構(gòu)建過程中所要遵循的原則之一。
人工智能作為新時(shí)代產(chǎn)業(yè),引發(fā)實(shí)務(wù)界、理論界對(duì)法律和倫理廣泛討論。在知識(shí)創(chuàng)新、理論創(chuàng)新和制度創(chuàng)新中,需要用法律人的眼光,去發(fā)現(xiàn)、去探索我們國(guó)家在發(fā)展過程中所需要達(dá)到的一個(gè)理想的法律制度體系。人工智能這一新的事物,將給予我們不僅僅是生活的便利,更是我們內(nèi)心對(duì)美好生活的向往。我們堅(jiān)信,在人工智能與法律制度的交匯下,一切將變得更美好。
安徽職業(yè)技術(shù)學(xué)院學(xué)報(bào)2019年2期