国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

主客體二分法視角下人工智能法律主體地位之否定

2019-02-15 20:15楊易川
關(guān)鍵詞:人格主體人工智能

楊易川,李 娜

(東北財(cái)經(jīng)大學(xué) 法學(xué)院, 遼寧 大連 116025)

1956年美國(guó)達(dá)特茅斯會(huì)議上,“人工智能”概念被正式提出,各界對(duì)人工智能的研究方興未艾,法學(xué)領(lǐng)域內(nèi),伴隨人工智能發(fā)展出現(xiàn)的“達(dá)芬奇”手術(shù)機(jī)器人侵權(quán)的產(chǎn)品責(zé)任與醫(yī)療事故責(zé)任、“微軟小冰”詩(shī)集的著作權(quán)歸屬、Uber無人機(jī)動(dòng)車致人死亡的責(zé)任歸屬與責(zé)任承擔(dān)等一系列問題仍未有明確答案,如何用法律規(guī)制人工智能成為法學(xué)研究界的新興思考方向,將人工智能放在法律層面來研究,脫離不開人工智能如何擔(dān)責(zé)這一基本范疇,而解決這一問題的前提則是對(duì)人工智能應(yīng)為何種法律地位、人工智能是否應(yīng)被賦予人格進(jìn)行界定,法學(xué)學(xué)者對(duì)此的理論和實(shí)踐研究一直未有統(tǒng)一的結(jié)論。

目前來看,法學(xué)學(xué)者針對(duì)“人工智能應(yīng)為何種法律地位”這一問題基本上形成了“主體說”和“客體說”兩種學(xué)派觀點(diǎn),“主體說”對(duì)人工智能的發(fā)展持包容態(tài)度,認(rèn)為人工智能具有法律人格,能夠?yàn)榉梢饬x上之主體[1],又如楊立新所言,人工智能可被歸為主客體之間的第3類[2],亦或賦予其特殊或者受限制的法律人格[3],張玉潔提出可參照法人使其成為法律主體,以降低人類在機(jī)器人應(yīng)用上的成本[4]。“客體說”學(xué)者對(duì)人工智能是否應(yīng)被賦予主體地位持否定態(tài)度,人工智能與人類無法等同[5],存在巨大的鴻溝[6],而擬制路徑采取片段化的類比也不能充分實(shí)現(xiàn)證成[7]。在研究思路與方法上,郭少飛、張建文主要通過反思法律主體的歷史演變過程(1)將人工智能與奴隸制度、法人等擬制主體、動(dòng)物權(quán)利的保護(hù)相比較。、人工智能的發(fā)展現(xiàn)狀下的域外制度研究以及對(duì)人工智能未來情況的預(yù)測(cè)分析人工智能的法律地位[8-9]?!爸黧w說”立論雖有創(chuàng)新性,但相關(guān)學(xué)者無法自證其言,難以真正厘清“人與人工智能”之間的法律關(guān)系,本文試圖基于主客體二分法,對(duì)“主體說”的賦予證成依據(jù)重新審視,進(jìn)而反思“主體說”相關(guān)觀點(diǎn)的理論支撐依據(jù),嘗試對(duì)“主體說”不當(dāng)之處進(jìn)行論證,并通過對(duì)域外法律文本的研究,探求人工智能客體地位確立之可能。

一、主客體二分法視角下的人工智能

現(xiàn)有的基礎(chǔ)法學(xué)理論框架是以“主—客體”二分的形式所構(gòu)建的,笛卡爾完成了主體與客體相區(qū)分的思維模式的建構(gòu),并從哲學(xué)倫理學(xué)流淌到法學(xué)之中,形成了“主—客體”二分的法學(xué)研究范式,將人與人、人與自然的關(guān)系作為基礎(chǔ)研究對(duì)象?!岸址ā睂⑹澜鐒澐譃槿?主體)與物(客體)兩部分,并且將二者之間的關(guān)系作為民法研究的基本問題。在二分法視角下,法律主體被定義為享有權(quán)利并承擔(dān)義務(wù),且具有感知、表達(dá)和訴求能力的法律實(shí)體;法律客體是與法律主體相對(duì)的,具有對(duì)主體有用且受主體所控制的特性,是主體意志行為所指向的客觀對(duì)象。法律將自然界中的人上升為法律中的主體,將其余的一切作為客體是實(shí)證法面對(duì)具體事實(shí)的抽象提煉,是法律技術(shù)所創(chuàng)造的規(guī)制社會(huì)現(xiàn)象的標(biāo)準(zhǔn),與自然法作為一切動(dòng)物的法律有著天然的不同。

法學(xué)對(duì)法律地位的相關(guān)研究往往基于主體、客體二分的思維模式來展開[7,10],這也是相關(guān)法學(xué)理論構(gòu)建的基礎(chǔ),對(duì)人工智能相關(guān)法律制度的回應(yīng)也要順從二分法的理論成果,遵循二分法的基本準(zhǔn)則。具體來看,首先應(yīng)明確人工智能的基礎(chǔ)屬性,它(他)是否具有法律主體所應(yīng)具備的外在及內(nèi)在滿足要素?它(他)是否具有可以被擬制為法律主體的條件?它(他)是否具有享受權(quán)利并承擔(dān)義務(wù)及責(zé)任的客觀基礎(chǔ)?它(他)是作為意志主體還是意志主體所指向的對(duì)象?只有明確這些問題,才能開始探討人工智能的法律地位。其次,在該視角下,還應(yīng)考慮賦予人工智能何種地位方可以滿足法律制度構(gòu)建的原始目的,最重要的是應(yīng)界定“人與人工智能的關(guān)系”。人類是社會(huì)的統(tǒng)治者,是法律制度構(gòu)建的出發(fā)點(diǎn)和歸屬點(diǎn),人類構(gòu)建法律制度以回應(yīng)社會(huì)發(fā)展,保障一切以人類目的為核心的制度運(yùn)行,體現(xiàn)著“人類中心主義”色彩,社會(huì)是不斷發(fā)展變化的,法律也不斷調(diào)整以適應(yīng)其發(fā)展,但以“人類中心主義”的“主—客”格序始終不應(yīng)改變,人類不應(yīng)與其他“智慧體”平權(quán)。人工智能為人類所創(chuàng)造出的服務(wù)于人類的實(shí)體,這一點(diǎn)必須始終明確。于此,法律對(duì)于人工智能法律地位的探討,須符合主客體二分法的構(gòu)建標(biāo)準(zhǔn)。

二、人工智能“主體說”觀點(diǎn)之厘清

學(xué)術(shù)界對(duì)于人工智能法律地位和法律人格的觀點(diǎn)與學(xué)說不盡相同。持“主體說”觀點(diǎn)的學(xué)者認(rèn)為,隨著科學(xué)技術(shù)的發(fā)展,人工智能會(huì)形成與人類所類似之“自我意識(shí)”,并更多地參與、滲透到社會(huì)生活之中,逐步對(duì)人類生活產(chǎn)生影響。為此,法律應(yīng)確立人工智能主體地位,明確其權(quán)利義務(wù)的范圍,這也符合國(guó)家對(duì)于明確人工智能法律主體地位的要求,勢(shì)必為一種最終趨勢(shì)[11]。在“主體說”領(lǐng)域,人工智能具備法律主體地位這一觀點(diǎn)立論鮮明,但不同學(xué)者對(duì)人工智能應(yīng)被賦予何種法律人格、人工智能法律人格是否應(yīng)受到限制,應(yīng)受何種限制等問題時(shí)仍莫衷一是,具而言之,主要包括擬制人格說、電子人格說和有限人格說。

擬制人格說和電子人格說兩種觀點(diǎn)殊途同歸,在認(rèn)定方法上基本相同,均認(rèn)為從法律主體的發(fā)展來看,法律主體的涵蓋范圍呈擴(kuò)大趨勢(shì),擬制人格說更側(cè)重于解決責(zé)任承擔(dān)問題[12],而電子人格說則著眼于人工智能自主程度提高,單純的工具性可能越來越小,因此可以通過賦予電子人格和通過法律人格擬制等方式賦予人工智能法律主體資格[12-14],并提出實(shí)證依據(jù)作為支撐:2016年美國(guó)國(guó)家公路交通安全局在給谷歌公司關(guān)于無人車自動(dòng)駕駛系統(tǒng)是否適用美國(guó)聯(lián)邦機(jī)動(dòng)車安全標(biāo)準(zhǔn)的回函中表明,該自動(dòng)駕駛系統(tǒng)可視為“駕駛員”[15];歐盟議會(huì)于2017年通過決議,使至少最復(fù)雜的自主機(jī)器人被確立為電子人。

有限人格說承認(rèn)人工智能的部分法律人格,強(qiáng)調(diào)人工智能具有法律人格,應(yīng)賦予法律主體的地位,享有權(quán)利并能夠承擔(dān)義務(wù)[3]。雖然其具有獨(dú)立自主的行為能力,有資格享有權(quán)利,但因其承擔(dān)能力的后果有限,其法律人格為有限的法律人格[16]。在有限法律人格下,應(yīng)當(dāng)對(duì)人工智能適用特殊的法律規(guī)制方式,可適用“刺破人工智能面紗”的歸責(zé)原則[17-18]。許中緣認(rèn)為,人工智能應(yīng)被賦予具有優(yōu)先性、技術(shù)性和替代性特點(diǎn)的工具性法律人格,這種賦予并不會(huì)對(duì)以人類為中心的現(xiàn)有法律主體制度產(chǎn)生動(dòng)搖[19]。

盡管“主體說”理論內(nèi)部對(duì)人工智能法律人格的討論仍未達(dá)成共識(shí),但在其法律地位為“主體”這一方向上則保持了一致,下文對(duì)“主體說”的法理論證進(jìn)行梳理,闡述該學(xué)說的立論依據(jù):

1.科技快速發(fā)展為人工智能取得主體地位提供技術(shù)支撐

在“云計(jì)算”“大數(shù)據(jù)”等技術(shù)提供的支持下,按照現(xiàn)有技術(shù)的發(fā)展趨勢(shì),人工智能的智能化水平勢(shì)必會(huì)產(chǎn)生實(shí)質(zhì)性突破,發(fā)生質(zhì)的變革,人工智能從“物”到“智慧人”的演進(jìn)趨勢(shì)具有可預(yù)見性,賦予其法律主體地位可更好地應(yīng)對(duì)未來人工智能高度發(fā)達(dá)的情形。

2.與人類特征進(jìn)行對(duì)比,人工智能在內(nèi)在要素上具備被賦予法律主體的條件

第一,理性條件。人工智能能夠基于程序設(shè)計(jì)規(guī)則,獨(dú)立自主完成所設(shè)定的任務(wù),并且能夠?qū)崿F(xiàn)結(jié)果的最優(yōu)化[20],這是人類因認(rèn)知局限和時(shí)間有限所達(dá)不到并且希望達(dá)到的最好結(jié)果[21]。第二,人工智能具有將道德內(nèi)化的可能。道德并非先天擁有,而是后天養(yǎng)成,因此,道德也并非自然人專屬,人工智能也可基于本身學(xué)習(xí)特性而習(xí)得[22]。第三,人工智能具有財(cái)產(chǎn)權(quán),具有權(quán)利能力與責(zé)任能力基礎(chǔ)。首先,人工智能可基于代理人的身份獲得財(cái)產(chǎn)權(quán);其次,通過類比法人制度,人工智能也具備享有相應(yīng)權(quán)利、承擔(dān)相應(yīng)義務(wù)的制度設(shè)計(jì)可能;最后,人工智能作為擁有意志的法律關(guān)系中的主體,能夠合理做出意思表示行為,進(jìn)行“認(rèn)知—學(xué)習(xí)—?jiǎng)?chuàng)造”過程。

3.“主體說”符合“以人為中心”的法律制度的構(gòu)建

“以人為中心”的理念是構(gòu)建人工智能法律體系的基本要求,目的是在不侵犯人類權(quán)利,維護(hù)人類生存安全的基礎(chǔ)上,解決人工智能在規(guī)制問題上的無所依從,這也是對(duì)現(xiàn)代民法的發(fā)展和民法內(nèi)容的豐富。

三、“主體說”觀點(diǎn)理論支撐依據(jù)之反思

“主體說”以人工智能發(fā)展的客觀情況作為切入點(diǎn),從法律地位、法律人格演變和實(shí)證層面對(duì)人工智能的主體性要素進(jìn)行證成,看似為實(shí)踐層面的法律責(zé)任承擔(dān)提供了解決方案,但是主體說的理論支撐依據(jù)仍然存疑,無法自圓其說,下文將對(duì)主體說的理論依據(jù)提出反思。

(一)人工智能技術(shù)發(fā)展的現(xiàn)實(shí)局限

從20世紀(jì)50年代起,經(jīng)過半個(gè)世紀(jì)的發(fā)展,人工智能技術(shù)依舊停留在弱人工智能發(fā)展階段,時(shí)至今日,研究者也無法對(duì)人工智能是否最終能成為“類人”做出判斷。面對(duì)未來的不可預(yù)期,周志華從3個(gè)層面對(duì)人工智能研究提出觀點(diǎn):在研究方向上,人工智能的研究從來不是朝向強(qiáng)人工智能發(fā)展,且強(qiáng)人工智能的研究方向未知,人類沒有正確的研究方法;在研究技術(shù)上,既有技術(shù)的發(fā)展無法實(shí)現(xiàn)人工智能的“進(jìn)化”;在研究原則上,應(yīng)秉持不觸碰人工智能紅線的原則,即使強(qiáng)人工智能實(shí)現(xiàn)具有可能,也不應(yīng)觸碰[23]。擁有“終極算法”的強(qiáng)人工智能難以出現(xiàn),即使出現(xiàn)也應(yīng)是人類意志的延伸[24]。

法律是社會(huì)現(xiàn)實(shí)問題的解決規(guī)則,而不是對(duì)科幻場(chǎng)景下人類構(gòu)想的預(yù)設(shè),法律需要立足于對(duì)社會(huì)現(xiàn)實(shí)問題的回應(yīng),對(duì)人工智能權(quán)利訴求的滿足,這兩點(diǎn)都是當(dāng)前社會(huì)現(xiàn)實(shí)和立法無法做到的。

首先,法律的回應(yīng)以現(xiàn)實(shí)為對(duì)象。法律固有的滯后性和穩(wěn)定性決定了法律的構(gòu)建從來都是以社會(huì)為基礎(chǔ)構(gòu)建的[25]。給人工智能賦予主體地位必然會(huì)設(shè)定相關(guān)權(quán)利,袁曾試圖為其設(shè)定新型權(quán)利[17],需知人工智能權(quán)利的產(chǎn)生前提是人工智能要參與人類生活、與人類形成穩(wěn)定的社會(huì)關(guān)系。與任何初創(chuàng)期的新興技術(shù)相比,人工智能技術(shù)同樣需要建立在穩(wěn)定的人類社會(huì)關(guān)系之上,尤其要重視與人類的關(guān)系問題,對(duì)其所產(chǎn)生的的未知技術(shù)風(fēng)險(xiǎn),如反制風(fēng)險(xiǎn),要采取評(píng)估、預(yù)防等相應(yīng)規(guī)制措施。在現(xiàn)今社會(huì)條件下,無論是人工智能自身的發(fā)展,還是人類自身對(duì)社會(huì)穩(wěn)定性的建構(gòu),都不具有將人工智能定義為“法律主體”的條件。

其次,人工智能需要有權(quán)利的訴求?!爸黧w說”認(rèn)為人工智能享有權(quán)利,但權(quán)利設(shè)定后能否行使、如何行使訴求也不可忽視。權(quán)利行使的本質(zhì)是意識(shí)的能動(dòng)反映,是合理期望的意思表示,權(quán)利產(chǎn)生的目的在于作為或不作為的行使,無法行使訴求的權(quán)利是否有設(shè)定的必要,這一點(diǎn)值得懷疑。人工智能是否能夠主張權(quán)利尚未可知,盡管有學(xué)者將沙特阿拉伯給與“索菲亞”公民身份作為理論支撐,但此類帶宣傳性質(zhì)的做法夸大了人工智能的客觀實(shí)際情況,當(dāng)前未有任何證據(jù)證明“索菲亞”與人類等量齊觀,退一步說,具有公民身份的“索菲亞”面對(duì)損害依舊無法主張其權(quán)利,也無法對(duì)自己的公民身份做出與產(chǎn)品完全不同的認(rèn)知。

目前,人工智能具有“主體”能力的時(shí)代并未到來,并且短期內(nèi)也無法到來,法律更沒有主動(dòng)賦予其主體地位、保障人工智能權(quán)利的現(xiàn)實(shí)必要。將人工智能賦予主體地位的做法顛倒了法律制定的基本原則,如果背離客觀事實(shí)而進(jìn)行超前立法,不僅無法起到預(yù)先的規(guī)范目的,甚至?xí)c本來目的“背道而馳”。人類與人工智能的關(guān)系,不管人工智能如何發(fā)展,永遠(yuǎn)只能是主體與工具的關(guān)系,人工智能無論如何發(fā)展,都是工具。一旦發(fā)展到與人類搶占主體地位的時(shí)候,那可能就是人工智能來討論是否賦予人類法律人格的問題了,顯然這與人類發(fā)明和利用人工智能的初衷是嚴(yán)重背離的,也是十分恐怖的。

(二)人工智能法律人格要素之否定

法律人格是法律主體的基礎(chǔ),并與權(quán)利能力相對(duì)應(yīng),三者可做互相替換性解釋[26]。在現(xiàn)有“主客體二分法”下賦予人工智能法律主體地位,其實(shí)質(zhì)是對(duì)人工智能是否具有法律人格進(jìn)行探討,目前,我國(guó)基于法律規(guī)范和法學(xué)理論主要認(rèn)可兩類主體,一類是自然人主體,另一類是法律擬制主體。故應(yīng)對(duì)人工智能的法律人格的要素討論與自然人、法人的法律人格要素進(jìn)行對(duì)比,尋求理論基礎(chǔ)與實(shí)踐需求上的合理證明[19]。

1.人工智能無法擁有自然人的法律人格

首先,人工智能是智能科技產(chǎn)物,不具備自然人的生理基礎(chǔ),換言之,不具有生命。大腦是生命的核心,而人類的大腦因其大腦皮層的神經(jīng)元數(shù)量遠(yuǎn)高于其他生物[27],成為統(tǒng)治其他生物的智慧體,大腦是人類溝通、交流等認(rèn)識(shí)世界、改造世界行為的源頭,是理性、自我意識(shí)產(chǎn)生的器官。根據(jù)“腦死亡”學(xué)說,人類大腦的死亡會(huì)被認(rèn)為人的法律人格的喪失。正是于此,人類大腦是人類生命的核心。而無論是無形的人工智能程序,還是有形的人工智能實(shí)體,人工智能都是由無機(jī)體構(gòu)成,其核心在于由“硅”組成芯片,相當(dāng)于人類由“碳”組成的大腦的作用,于此,二者在構(gòu)造上存在顯著不同,且人工智能無向人類構(gòu)造進(jìn)化的可能性。盡管人工智能的構(gòu)造會(huì)使其具有計(jì)算能力上的明顯優(yōu)勢(shì),也有預(yù)測(cè)認(rèn)為未來可能出現(xiàn)的人工智能將擁有“大腦”,甚至可以與人腦的神經(jīng)元數(shù)量相媲美,但其仍不是由“碳”基組成的生物體,是無機(jī)體組成物,人類尚不會(huì)將與人類構(gòu)造類似的其他有機(jī)體動(dòng)物作為法律主體,更何談無機(jī)體的人工智能。因此,人工智能缺乏生理因素。

其次,人工智能不具有理性和意志。理性和意志是人所獨(dú)有的,是專屬于人類的。從理性方面來說,理性不僅包括人感知事物以及規(guī)律的能力,也包括人認(rèn)識(shí)道德要求并遵從道德行為的能力[28]。康德提出,人是理性的,其本身就是目的論斷[29]。黑格爾也認(rèn)同“人因理性而具有目的”[30],可知人因理性而具有自我審視,自我反省的能力。羅素(Russell)等將人工智能定義為“行動(dòng)理性”[21],混淆了人工智能中“智能”與法哲學(xué)中“理性”的概念。人工智能所謂的“理性”是基于“智能”而表現(xiàn)出遵照人類意愿,運(yùn)用自身對(duì)已由人類所編寫的計(jì)算機(jī)規(guī)則的執(zhí)行,其本質(zhì)為邏輯運(yùn)算,不僅無法獲得與人同樣“天賦”的、“先驗(yàn)”的理性,而且人工智能“理性”的目的也是為實(shí)現(xiàn)其他人的意愿、目的,換言之,以人類意愿為目的。另外,在當(dāng)下,人工智能無法對(duì)自身進(jìn)行反省,無法跳出人類設(shè)定的規(guī)則系統(tǒng)進(jìn)行批判性的反思,即使人工智能擁有“深度學(xué)習(xí)”能力后,人工智能可以基于深度學(xué)習(xí)技術(shù)對(duì)自身的運(yùn)算修正,但也無法擁有天然自身?yè)碛械睦硇?,這也是人類所賦予的“智能”能力的表現(xiàn)。

從意志方面來說,意志并非是單純的邏輯演算,意志本身包含欲望和行動(dòng)兩個(gè)方面[31],即能夠把內(nèi)在思想通過外在行為表達(dá)出來。欲望不是簡(jiǎn)單的邏輯推算,人類是在欲望下進(jìn)行倫理價(jià)值判斷,正是因?yàn)槿藫碛幸庵灸芰?,存在欲望,人類才將腦中的幻想變成了現(xiàn)實(shí),通過不斷改造自然以適應(yīng)自我生存。人工智能“無欲無求”,沒有情感的束縛,無法理解人類所面臨像“電車難題”時(shí)難以決定的價(jià)值衡量過程,不知生命的意義為何,其只是在人類的觸發(fā)或者人類觸發(fā)程序的設(shè)定下,依據(jù)算法中得出的概率的大小做出選擇,并始終無法脫離人類的意志而獨(dú)立存在,這與人類意志顯然不同。

此外,Hubbard主張將理性和意志作為具有法律人格的必要不充分條件,以缺乏二者為由否定人工智能的主體地位,可能存在“物種歧視”[32]。其實(shí)并非如此,在人類社會(huì)中理性和意志缺失的特殊人群,如植物人依舊存在恢復(fù)的可能性,對(duì)特殊人群的保護(hù)是人類理性的體現(xiàn),彰顯人類文明的價(jià)值取向。

最后,人工智能無法承擔(dān)責(zé)任。現(xiàn)有責(zé)任制度下,人工智能不具備自然人的責(zé)任能力。賦予主體地位只能在形式上解決責(zé)任的承擔(dān)問題——由人工智能的財(cái)產(chǎn)承擔(dān),但人工智能如何擁有財(cái)產(chǎn),如何控制財(cái)產(chǎn),法律制度上留下了大量缺口需要填補(bǔ),而且為應(yīng)當(dāng)承擔(dān)者留下了規(guī)避法律責(zé)任的空間?!坝邢奕烁裾摗闭J(rèn)為人工智能承擔(dān)的責(zé)任有限[3],并且許中緣認(rèn)為可以同時(shí)建立相關(guān)保險(xiǎn)、信托基金制度[19],這正好表明了賦予人工智能主體地位的不必要性,也無法通過“奧克姆剃刀原則”的檢驗(yàn)。

2.人工智能無法類比法人擬制獲得法律人格

團(tuán)體法律人格是法學(xué)學(xué)者運(yùn)用法的技術(shù)手段,使得人與人格相分離后的產(chǎn)物,賦予當(dāng)時(shí)已經(jīng)大量存在的具有獨(dú)立地位和價(jià)值的團(tuán)體法律主體地位[33],目的是為解決法律關(guān)系中的權(quán)利義務(wù)分配。尤瓦爾·赫拉利認(rèn)為,法律既然能認(rèn)可公司這類實(shí)體,稱為法人并賦予主體地位,也可以同樣認(rèn)可人工智能的法律人格,使之成為法律關(guān)系中的主體[34]。孫占利認(rèn)為,可以等到強(qiáng)人工智能時(shí)代,賦予人工智能擬制的法律人格[35]。法律主體地位可以通過法律授予的方式獲得,但法人因何獲得主體地位,其法律人格要素究竟為何,背后存在怎樣的制度考量,人工智能能否滿足擬制條件,這一系列問題值得思考。

法人人格是法律擬制的法律人格,團(tuán)體被法律擬制為法人并非一蹴而就,而是經(jīng)歷了漫長(zhǎng)的發(fā)展過程。與自然人的法律人格不同,法人非倫理主體,團(tuán)體組織最終獲得法律人格,被賦予主體地位,需要實(shí)體性要素、價(jià)值性要素和法技術(shù)性要素的同時(shí)滿足[36]。而人工智能無法適應(yīng)其中的實(shí)質(zhì)性要素、價(jià)值性要素,從而使其無法獲得類法人法律人格。

法人人格的實(shí)體性要素即存在被賦予法律地位的團(tuán)體——形式實(shí)體要素,且該實(shí)體需要同時(shí)滿足具有獨(dú)立的意志和財(cái)產(chǎn)條件——實(shí)質(zhì)實(shí)體要素。而人工智能的存在形式無論是有形還是無形,均不是以團(tuán)體或組織的形式展現(xiàn),不具備客觀的形式實(shí)體要素。在意志和財(cái)產(chǎn)問題上,法人財(cái)產(chǎn)由法人獨(dú)立控制,無論來源為何,是成員出資、他人贈(zèng)與還是國(guó)家撥付,最終還是由團(tuán)體所有,而不是其中某個(gè)或集體成員共同所有;擬制主體法人的意志源自團(tuán)體成員的共同意志,并與之相獨(dú)立。由此可見,意志同樣也存在于法人之中,而正是以團(tuán)體成員中自然人的存在為基礎(chǔ),才有賦予團(tuán)體被擬制為法律主體的正當(dāng)性。人工智能無法對(duì)財(cái)產(chǎn)擁有所有權(quán),且無法從財(cái)產(chǎn)中獲益,至多只享有類似占有、處理的權(quán)能,意志也如上文所說無法擁有,也難以如法人一般,體現(xiàn)其背后自然人的意志。

法人人格的價(jià)值性要素即存在滿足社會(huì)經(jīng)濟(jì)發(fā)展需要的價(jià)值選擇,獲得法律上的肯定。迪特爾·梅迪庫(kù)斯認(rèn)為價(jià)值性要素是基于推動(dòng)交易和有助于責(zé)任限制兩方面的考量結(jié)果[37]。賦予人工智能主體地位,以其獨(dú)立財(cái)產(chǎn)承擔(dān)責(zé)任,降低了制造者、設(shè)計(jì)者、所有者的風(fēng)險(xiǎn),促進(jìn)人工智能的研究發(fā)展,有助于為市場(chǎng)提供更高質(zhì)量的供給,從這一角度看來,交易價(jià)值是值得肯定的。但在責(zé)任限制方面,法人具有獨(dú)立財(cái)產(chǎn),只有當(dāng)控制者濫用實(shí)際控制地位時(shí)才能對(duì)法人人格進(jìn)行否認(rèn),即“刺破公司面紗”,突破責(zé)任承擔(dān)的一般規(guī)定,法人人格否認(rèn)制度的確立,旨在維護(hù)交易穩(wěn)定和實(shí)質(zhì)公平之間尋求最佳平衡,也有助于推動(dòng)交易進(jìn)行;袁曾提出人工智能可以參照法人,構(gòu)建“刺破人工智能面紗”制度[3],但人工智能與以群體為常態(tài)的法人股東制度不同,其身后是以個(gè)體為常態(tài)的實(shí)際控制人,如果適用法人責(zé)任限制的特殊規(guī)則,反而會(huì)規(guī)避人工智能自身所應(yīng)承擔(dān)的責(zé)任,就算人工智能作出行為可理解成是基于多人的共同意愿,仍應(yīng)將他們視為共同體,是共同意思表示作出的決定,其常態(tài)即與法人“刺破”的特殊條件近似,這也極有可能造成將例外規(guī)則作為原則規(guī)定而引起責(zé)任分配不當(dāng)?shù)暮蠊?,因此,人工智能參照法人?gòu)建“刺破人工智能面紗”制度設(shè)計(jì)欠妥。從另一視角來看,這是否也為人工智能實(shí)際屬于人類所控制的物提供了強(qiáng)有力的佐證?又例如在自動(dòng)駕駛情景下,自動(dòng)駕駛保有人對(duì)人工智能汽車的駕駛行為完全不具有控制能力時(shí),“刺破”條件如何設(shè)定,責(zé)任如何劃分?這些疑問僅僅依靠類法人法律人格說尚不能得到很好解答,將其界定為擬制主體也存在立法技術(shù)所解決不了的問題。

綜上,人工智能雖在客觀上滿足法技術(shù)型要素的要求,但在實(shí)質(zhì)性要素和價(jià)值性要素上皆無法充分適應(yīng),因此無法通過法人的擬制主體理論而成為擬制主體。

(三)主體說存在“人類中心主義”原則的歸謬

傳統(tǒng)的法學(xué)研究是以“主客體二分法”作為研究的理論基礎(chǔ),二分法的核心在于以人為目的,人具有與物截然相反的最高地位,人以外的一切皆以人的需求為導(dǎo)向而設(shè)立,“人類中心主義”原則成為人類法律制度建立遵循的最核心原則,法律人格也是基于此發(fā)生著歷史演變。

因法律主體具有法律性與社會(huì)性的特征[38],因此在不同的社會(huì)、不同的歷史時(shí)期,法律主體的種類并非完全相同。古羅馬將同時(shí)享有自由權(quán)、市民權(quán)、家族權(quán)的個(gè)體認(rèn)定為完整的法律主體,除此之外的其他人具有不完全的法律主體地位或者不具有法律地位[33]。隨著民法不斷發(fā)展,文藝復(fù)興、思想啟蒙等運(yùn)動(dòng)推進(jìn),“人文主義”傳播中“人人平等”“天賦人權(quán)”等思想使得“人類中心主義”的原則得以確立,對(duì)人類社會(huì)和法律制度產(chǎn)生了巨大影響。自然人法律主體地位在1900年《德國(guó)民法典》中得到確立,在近代獲得普遍認(rèn)可,通過法律,自然人被給予了第二次生命[39]。而隨著商品經(jīng)濟(jì)的持續(xù)發(fā)展,從形式上看,法律主體開始向人以外的法人、非法人組織、國(guó)家乃至動(dòng)物進(jìn)行擴(kuò)展[40],表明法律主體的范圍是隨著經(jīng)濟(jì)發(fā)展和社會(huì)文明的程度而不斷變化的,星野英一對(duì)于私法上法律主體的概念也認(rèn)為適用于人以外的“非人”,并能夠得到認(rèn)可[26]。而人格擴(kuò)展的實(shí)質(zhì),并非只有包含實(shí)用主義內(nèi)核的形式上的革新,也應(yīng)遵循“人類中心主義”原則對(duì)人的重視,擬制主體人格擴(kuò)展的背后依然存在人的管理、控制,離不開人的意志。“雙罰制”“法律人格否認(rèn)制度”皆體現(xiàn)了“人類中心主義”的價(jià)值考量。

有主體說學(xué)者對(duì)“人類中心主義”存在理解上的偏差,認(rèn)為賦予人工智能主體地位可以以建立監(jiān)管機(jī)構(gòu)的方式更好實(shí)現(xiàn)“人類中心主義”原則,來促進(jìn)人工智能發(fā)展(2)“有限人格說”學(xué)者提出的“以人為本”價(jià)值的本質(zhì)同樣是“人類中心主義”。[3,19]。人類是自然社會(huì)的統(tǒng)治者,將與人類具有完全不同的內(nèi)在和外在屬性的,且可能完全超過人類能力的人工智能在人類社會(huì)予以提升地位,本質(zhì)上就是“反人類中心主義”的體現(xiàn)?!坝邢奕烁裾f”將人工智能提升到主體地位,卻依然承認(rèn)其具有工具性,稱為“工具性”人格,以監(jiān)管、倫理規(guī)則制定來約束人工智能,實(shí)現(xiàn)人本主義的價(jià)值追求,這種為“自圓其說”而倒果為因的循環(huán)論證,缺乏理論依據(jù)?!坝邢奕烁裾f”承認(rèn)人工智能的工具性,正恰恰說明人工智能具有法律關(guān)系中的客體屬性,賦予人工智能主體地位,未能基于這一客觀事實(shí),只是對(duì)人工智能的主體法律人格進(jìn)行限制,以實(shí)現(xiàn)所稱之“以人為本”。法律應(yīng)對(duì)人工智能發(fā)展最好的態(tài)度是保持其謙抑性,在現(xiàn)有“主客體二分法”制度體系下,將“人類中心主義”作為法律應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的出發(fā)點(diǎn),仍將人工智能作為客體予以對(duì)待,才是實(shí)現(xiàn)“人類中心主義”的真正途徑。

四、從域外法律文本研究探求人工智能客體地位

面對(duì)人工智能快速發(fā)展的現(xiàn)實(shí),域外法學(xué)界對(duì)人工智能法律地位的研究已經(jīng)從理論層面向?qū)嵺`立法層面過渡。2016年,歐盟率先對(duì)人工智能法律地位問題展開立法研究,歐盟議會(huì)法律事務(wù)委員會(huì)提交的歐盟“建議稿”中提出了“電子人”的表述[41],并在2017年的最終決議,即《機(jī)器人民事規(guī)范》中予以確認(rèn)[42]。俄羅斯也緊隨其后,于同年提出了專家建議稿性質(zhì)的草案——《在完善機(jī)器人領(lǐng)域關(guān)系法律調(diào)整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(下文簡(jiǎn)稱“格里申法案”)[9]——提出了對(duì)人工智能分情況套用對(duì)動(dòng)物和法人的調(diào)整規(guī)則的立法設(shè)想。作為主體說學(xué)者依據(jù)的兩部法律草案,都基于不同理念賦予人工智能主體地位。但現(xiàn)階段人工智能所引發(fā)的責(zé)任歸責(zé)仍存在問題,并未得到妥善解決,甚至成為逃避法律責(zé)任的借口[43],遂嘗試對(duì)兩部草案以及歐盟正式文件《機(jī)器人民事規(guī)范》進(jìn)行研究,希望從域外方面獲得裨益。

(一)主體地位賦予必要性與責(zé)任承擔(dān)問題

歐盟對(duì)于人工智能“電子人”的表述,存在于“建議稿”中的第31段之F項(xiàng)和之后的《機(jī)器人民事規(guī)范》的第59段F項(xiàng),這也成為主張“電子人人格說”學(xué)者的主要依據(jù)[2]。通過對(duì)比兩個(gè)條文可以發(fā)現(xiàn),最終決議確定“電子人”法律地位應(yīng)賦予至少最復(fù)雜的自動(dòng)性機(jī)器人,對(duì)“建議稿”予以認(rèn)可,二者在人工智能適用“電子人”的上限標(biāo)準(zhǔn)問題上達(dá)成一致意見,并用“最復(fù)雜”“自動(dòng)性”等詞組作出限定。而在正式文稿中,在F段開頭增加了“從長(zhǎng)遠(yuǎn)來看”的表述,并且刪除了建議稿中對(duì)人工智能“有特殊權(quán)利、承擔(dān)特殊義務(wù)”的法律定位,改變?yōu)椤坝胸?zé)任”彌補(bǔ)損害。

“格里申法案”在人工智能的法律地位上,采用了類型化區(qū)分的觀點(diǎn),將“無人類完全控制”、具有獨(dú)立“感知—獲取—行動(dòng)—評(píng)估”定義為高度自主性和智能性,法律主體地位僅賦予具有此種特性,可以作為“人類代理人”的人工智能,而其他不具有該特性的人工智能則通過修改俄聯(lián)邦法律部分條文,采取法律客體的方式予以規(guī)制。

可以看出,歐盟與俄羅斯在面對(duì)人工智能法律地位的賦予問題上還是持審慎態(tài)度,兩個(gè)文件最終都落腳到責(zé)任承擔(dān)問題上,可知責(zé)任承擔(dān)才是法律應(yīng)該努力的方向,賦予其主體地位并非解決責(zé)任承擔(dān)問題的明智之選。歐盟基于法安定性的考量,將“電子人”適用于未來情況,而“格里申法案”也同樣未將主體地位適用于當(dāng)下的人工智能,均有應(yīng)對(duì)未來發(fā)展的前瞻性考慮。

在賦予的必要性問題上,人類最初對(duì)人工智能主體地位的關(guān)注源自人類對(duì)未來不可知的憧憬和對(duì)科幻作品的幻想,而法律的規(guī)制是對(duì)已發(fā)生的歷史的尊重,是在已有條文、制度的基礎(chǔ)上,對(duì)新興科學(xué)技術(shù)進(jìn)行規(guī)范,而不是對(duì)未來面臨的不確定因素的盲目預(yù)測(cè),僅僅為簡(jiǎn)化操作考慮,而賦予人工智能主體地位的立法缺乏必要性和可行性方面的論證支撐。同時(shí),“電子人”法律人格和人工智能主體地位的確立,會(huì)損害“人類中心主義”原則,造成難以估量的后果,將自然人獨(dú)有的主體地位以及權(quán)利、義務(wù)關(guān)系與不可預(yù)測(cè)、難以預(yù)測(cè)的人工智能共享,極有可能造成人類制度的崩塌,甚至最終導(dǎo)致人類社會(huì)滅亡,這與人類的設(shè)計(jì)初衷南轅北轍。最后,“格里申法案”對(duì)于人工智能的保護(hù)采取了類似羅馬法上的特有產(chǎn)制度,而在特有產(chǎn)制度下的家子是不具有獨(dú)立的人格地位的,這實(shí)質(zhì)也是自相矛盾的自說自話,亦是對(duì)客體地位的間接肯定。

在責(zé)任承擔(dān)方面,《機(jī)器人民事規(guī)范》第56段和“格里申法案”在責(zé)任承擔(dān)問題上均認(rèn)為當(dāng)下的人工智能侵權(quán)責(zé)任應(yīng)當(dāng)由人類承擔(dān),二者的理解基本一致,但仍未對(duì)現(xiàn)有情況下人工智能責(zé)任的合理分配提出具體解決方式。在具有自主性、智能性的人工智能責(zé)任承擔(dān)的具體法律制度構(gòu)建上,《機(jī)器人民事規(guī)范》提出可以通過強(qiáng)制保險(xiǎn)、基金補(bǔ)充的方式補(bǔ)償損失;“格里申法案”更為深入,已經(jīng)進(jìn)入法律技術(shù)性構(gòu)建和理念向條文轉(zhuǎn)化的階段[9],明確規(guī)定,人工智能作為財(cái)產(chǎn)時(shí)發(fā)生的高度危險(xiǎn)致?lián)p的情況,產(chǎn)生的責(zé)任由作為所有權(quán)人、占有人或技術(shù)人員的人類承擔(dān)。可見,無論人工智能如何承擔(dān)責(zé)任,最終的責(zé)任都會(huì)由自然人承擔(dān)[44],這也從法律效果上肯定了人工智能客體地位。

(二)確立人工智能客體地位的合理性

法學(xué)領(lǐng)域?qū)θ斯ぶ悄芊傻匚坏挠懻摚罱K目的是為解決社會(huì)科學(xué)技術(shù)快速發(fā)展的新興產(chǎn)物——人工智能的規(guī)制問題。將人工智能作為主體予以對(duì)待,是人類打破常規(guī)方式、難以自圓其說的做法,會(huì)造成社會(huì)發(fā)展動(dòng)蕩不安、法律制度無法準(zhǔn)確調(diào)整的困境。以現(xiàn)有制度為基礎(chǔ),將人工智能依舊定位為法律地位中的客體,才能切實(shí)實(shí)現(xiàn)人工智能運(yùn)用與規(guī)制的雙重目標(biāo),申言之,具有促進(jìn)人工智能良性發(fā)展和保障人類現(xiàn)有法律制度充分運(yùn)行的合理性。

1.客體定位能促進(jìn)人工智能良性發(fā)展

在未來可能由人工智能研發(fā)、生產(chǎn)、創(chuàng)造人工智能,從而提升工具的利用方式、手段、程度,將目前一部分必須要人類才能完成的工作自行獨(dú)立完成,但人工智能無論處于何種發(fā)展階段,人工智能最初的行為必須由人類來觸發(fā),后續(xù)的觸發(fā)可以無需人類的觸發(fā)行為而由人工智能運(yùn)行,人類是設(shè)定人工智能行為目的之“開啟者”,是以實(shí)現(xiàn)人工智能為人類服務(wù)的需求,這是人類創(chuàng)造人工智能的目的,也是人工智能發(fā)展過程中無法改變的客觀事實(shí)。人工智能是人類改造世界而創(chuàng)造的智能工具,雖因其“智能”而特殊,但人的目的決定了人工智能的行為方式,這與法律客體的定位能夠充分契合,一切以人的目的為導(dǎo)向,一切以人類為中心。阿西莫夫在《I,Robot》中提出的“機(jī)器人三原則”(3)阿西莫夫,美國(guó)科幻小說家。在他的短篇小說《我,機(jī)器人》里提出了“機(jī)器人三原則”。第1條:機(jī)器人不得傷害人類或看到人類受到傷害而袖手旁觀;第2條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾;第3條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。,處處體現(xiàn)了“人類中心主義”的色彩;美國(guó)舉行的阿西洛馬會(huì)議提出的規(guī)制人工智能及其人工智能研發(fā)的23條原則[45],作為研究人員的道德準(zhǔn)則價(jià)值標(biāo)準(zhǔn),同樣要求創(chuàng)造的人工智能必須符合人類多樣性的價(jià)值追求,滿足人類的需要??茖W(xué)技術(shù)在人類社會(huì)只是手段,人的全面發(fā)展才是目的[46]。維護(hù)好千百年來逐漸形成的人類社會(huì)的穩(wěn)定發(fā)展,才是法律最初產(chǎn)生的目的。將人工智能最終定義為法律客體地位,消除了人類對(duì)其“反人類”前景的擔(dān)憂,更好地發(fā)揮了其智能工具價(jià)值。

2.客體定位能保障人類現(xiàn)有法律制度充分運(yùn)行

法律是人類社會(huì)規(guī)范體系中至關(guān)重要的一部分,具有定分止?fàn)幍淖饔?,與道德規(guī)范、職業(yè)規(guī)范等共同調(diào)整人類社會(huì)的正常運(yùn)行。穩(wěn)定、可預(yù)期是法律制度存續(xù)、社會(huì)制度正常運(yùn)轉(zhuǎn)的前提保證。盡管人工智能在外形上表現(xiàn)多樣,如智能機(jī)器人、智能汽車、智能程序等,未來可能還會(huì)有新形式的人工智能出現(xiàn),但其內(nèi)在的實(shí)質(zhì)仍然是人類社會(huì)發(fā)展的工具,屬于法律關(guān)系中的客體。不可否認(rèn)的是,人工智能在現(xiàn)今社會(huì)發(fā)展中已成為不可取代的一部分,我們可以在關(guān)注其“智能”性的基礎(chǔ)上調(diào)整法律的適用規(guī)則,使之適應(yīng)人工智能產(chǎn)生的相關(guān)法律問題。這一點(diǎn),域外文本給了我們很多啟示,在我國(guó)國(guó)務(wù)院于2017年7月發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,“明確人工智能法律主體以及與之相關(guān)的權(quán)利義務(wù)關(guān)系和責(zé)任的承擔(dān)”成為其中重要內(nèi)容之一。在此要求之下,人工智能法律地位的研究應(yīng)當(dāng)在“主客體二分法”下進(jìn)行討論,以維護(hù)人類發(fā)展的穩(wěn)定和滿足人工智能為人類服務(wù)的目的。賦予人工智能法律主體地位錯(cuò)誤理解了其“智能”性的特點(diǎn),人為地將其歸入主體進(jìn)行制度設(shè)計(jì)不僅不能實(shí)質(zhì)上解決責(zé)任承擔(dān)問題,而且會(huì)導(dǎo)致人類法律制度的顛覆。

五、結(jié)語(yǔ)

在“主客體二分法”的理論之下,人工智能的本質(zhì)是人類的工具,賦予法律主體地位不僅未對(duì)客觀事實(shí)予以尊重,也缺乏法理依據(jù)的支撐。雖然對(duì)人工智能是否存在主體性,是否賦予法律主體地位是人類對(duì)人工智能發(fā)展前瞻性的思考,旨在發(fā)展風(fēng)險(xiǎn)的防范,但是法律具有謙抑性,是保守的,超越社會(huì)的法律是沒有意義的,只能被束之高閣,不能以此來指導(dǎo)實(shí)踐。我們應(yīng)從當(dāng)下的現(xiàn)實(shí)作為法律運(yùn)行的出發(fā)點(diǎn)和落腳點(diǎn),并兼顧人工智能發(fā)展中人類行為的規(guī)制,對(duì)人與人工智能的法律關(guān)系深入研究。無論人工智能本體的創(chuàng)造還是人工智能自身所謂的“創(chuàng)造”,其目的仍以人類為中心,服務(wù)于人類以及人類社會(huì),朝著有利于人類的方向發(fā)展,不應(yīng)脫離現(xiàn)有法律關(guān)系中客體的地位。

猜你喜歡
人格主體人工智能
列寧的偉大人格及其當(dāng)代意義
共產(chǎn)黨人的人格力量
論自然人破產(chǎn)法的適用主體
遠(yuǎn)去的平凡背影,光輝的偉大人格
2019:人工智能
人工智能與就業(yè)
技術(shù)創(chuàng)新體系的5個(gè)主體
數(shù)讀人工智能
下一幕,人工智能!
關(guān)于遺產(chǎn)保護(hù)主體的思考
罗甸县| 类乌齐县| 红安县| 永仁县| 甘洛县| 莆田市| 河北区| 青州市| 沙雅县| 余干县| 剑阁县| 皮山县| 宝丰县| 浦县| 阳春市| 息烽县| 崇信县| 永宁县| 漾濞| 玛多县| 平阳县| 齐齐哈尔市| 三明市| 岢岚县| 嘉黎县| 开平市| 无锡市| 成都市| 金华市| 德昌县| 清河县| 金乡县| 乳源| 宝山区| 怀化市| 澎湖县| 怀宁县| 景德镇市| 宿州市| 台北县| 水城县|