国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

反思與證立:強人工智能法律主體性審視

2019-01-26 21:11徐昭曦
中共中央黨校學(xué)報 2019年3期
關(guān)鍵詞:主體資格主體人工智能

徐昭曦

(山東大學(xué) 法學(xué)院,山東 青島 266237)

引言

人工智能技術(shù)研究的主要是通過模擬人腦的運作方式,從而使用機器擴展人類智能,使人工智能應(yīng)用于機器視覺、視網(wǎng)膜識別、虹膜識別、專家系統(tǒng)等一系列傳統(tǒng)上需要借助人的智慧才能完成的工作領(lǐng)域[1],人工智能可以像人一樣思考、創(chuàng)作以及行動。概言之,人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。

人工智能于20世紀(jì)50年代被提出以來,經(jīng)歷了多次起伏發(fā)展,目前已進(jìn)入高速發(fā)展軌道,并已滲入人類生活的方方面面,被廣泛探索應(yīng)用于交通、金融、醫(yī)療、互聯(lián)網(wǎng)和管理等領(lǐng)域[2]。同時,法學(xué)界關(guān)于人工智能主體及責(zé)任的研究也迎來繁榮期,但目前的研究多止步于人工智能實用性的工具論或市場供求主義論層面,缺乏人工智能的法哲學(xué)思考。筆者從法學(xué)一般原理的視角審視人工智能的法律主體問題,認(rèn)為強人工時代人工智能作為法律主體時機已經(jīng)成熟。本文所立足的人工智能語境并不是非常超前的未來,不試圖將超人工智能納入討論,但也并非當(dāng)前工具層面的弱人工智能,而僅適用于強人工智能可能造成的影響與變遷,這種影響與變遷的出現(xiàn)并不會太遙遠(yuǎn)。在強人工時代,人們關(guān)心應(yīng)當(dāng)如何處理其法律人格、權(quán)利義務(wù)及責(zé)任的相關(guān)問題。

鑒于此,筆者重點對強人工智能這一語境做以下界定,以奠定本文論證的基調(diào)。筆者將人工智能劃分為兩個截然不同的階段:一是智能機器時代,相當(dāng)于弱人工時代。這個時代人工智能尚未產(chǎn)生自我意識,沒有如同人類一般的綜合智能(意識、自我、情感等),只是在某一方面(如語言、計算能力等)有類人特征,或許在此領(lǐng)域有超越人類的造詣,延伸了人類智能的極限,但其仍然只是人類的輔助性機器,沒有脫離人類成為自主性的個體,因此不具備成為法律主體的基本依據(jù)。二是智能人時代,相當(dāng)于強人工時代。這一階段相較于弱人工而言。人工智能擁有完整意義上的智慧硅基體,如同人類是完整意義上的智慧碳基體一樣,人工智能脫離人類成為獨立存在的個體,不再被人類所支配。無法被人類所支配的存在已不再是物或客體,人工智能此時有能力成為法律上的主體也應(yīng)當(dāng)被賦予法律主體資格。在這一語境下,人工智能的地位會發(fā)生質(zhì)的轉(zhuǎn)變,法律制度的安排必須進(jìn)行調(diào)整[3]。當(dāng)然,強人工智能時代還有部分弱人工意義上的智能機械,是多元樣態(tài)的人工智能并存的時代。正如人們普遍所描述的一樣,人工智能技術(shù)是“研究機器如何去做只有人才能做的事情”,但法律上很難對這一技術(shù)事項作出界定。同時,我們在討論法律主體之時,也應(yīng)當(dāng)把法律要素與技術(shù)要素區(qū)分開來,決不能混為一談。因此,本文所論述的強人工智能界定,并非技術(shù)層面的表述,而依然是立足于法律的語境從法律層面給出的一個范疇。

除去技術(shù)層面的要求,單從法律的層面審視,強人工智能至少要具備如下能力,即這一類人工智能無需借助人類的力量,能獨立決斷、自主行為,即在思想和行動上是自由的,筆者概括為“自由意志”。強人工智能可以獨立從事有目的的行為,在特定領(lǐng)域可以直接取代人類的地位。例如,醫(yī)療型機器人可以基于自己的意思自行進(jìn)行醫(yī)療行為,而無需人類操縱或控制,寫作機器人可以自行進(jìn)行寫作……,但基于功能約束的自由權(quán)[4],人工智能的這種自由意志限于其功能范圍之內(nèi),因此,不同功能類型的人工智能其主體資格的范圍存在差異。當(dāng)然,情感、意識等元素對于法律主體地位不構(gòu)成影響,這些只是決定與人類似程度的元素。值得注意的是,關(guān)于機器人的自主學(xué)習(xí)、交流能力,筆者認(rèn)為,其雖然不是主體資格的必要條件,但深度學(xué)習(xí)、交流能力可以實現(xiàn)人工智能的自我進(jìn)化、提升其能力,擴展其主體資格范圍的程度與廣度,其亦是人工智能法律主體性的重要表現(xiàn)[5]。

一、人工智能法律主體問題的引入

(一)人工智能的法律面向——是科技問題還是法律問題

人工智能技術(shù)的快速迭代,使得法律的滯后性進(jìn)一步凸顯,人工智能某些領(lǐng)域已走入法律的無人區(qū),對我們傳統(tǒng)法律框架及法律理論造成了重大挑戰(zhàn),這些亟須加快強人工智能法律主體理論研究。而人工智能的法律人格問題,必須被提煉到足夠抽象的程度,從而具有法哲學(xué)意義,并在這個維度加以展開[6]。在強人工智能的法理分析這一問題上,有一個前提性問題必須先予以解決,即人工智能問題到底是科學(xué)問題還是法律問題,能否納入到法律調(diào)整的范疇,這是人工智能法理問題的首要面向。

關(guān)于人工智能問題是科學(xué)問題還是法律問題的分析,應(yīng)當(dāng)從兩個層面進(jìn)行展開。第一,從法律與科學(xué)的層面來看,法律是一種為行為人設(shè)定行動理由的實踐權(quán)威,法律問題的背后涉及道德論證,因此法律人在思考人工智能問題時,核心是在討論那些需要作出價值判斷的領(lǐng)域[7]。它不同于科學(xué)家基于對科學(xué)知識的壟斷而形成的理論權(quán)威,因此在人工智能問題的法律規(guī)制這一問題上,法律人的意見應(yīng)該凌駕于科學(xué)家的意見之上[8]。在人工智能這一問題上,科學(xué)家扮演的顯然是一個理論權(quán)威的角色,因此一旦他們提出關(guān)于人工智能意識、心理及意志因素等是否具備的看法,那么人們就有理由或者應(yīng)當(dāng)相信這樣的看法是成立的,因此科學(xué)所做的是事實論證。與之不同的是,立法者所制定的關(guān)于人工智能主體與責(zé)任問題的法律準(zhǔn)則,為人們提供行動的理由,同時人們也有義務(wù)遵守它。第二,從人工智能自身的視角審視,人工智能問題并非全部是科學(xué)問題或全部是法律問題這種全同全異的關(guān)系,因其所涉及的問題是否具有公共性,人工智能問題的性質(zhì)則有不同:如果只是涉及人工智能意識、自我、思維等知識性問題,那么它屬于科學(xué)研究的領(lǐng)域,科學(xué)家是此領(lǐng)域的理論權(quán)威,法律并無涉足的余地;但如果是一個針對不特定人的公共安全問題,則必須運用法律的方式加以規(guī)制,在這個問題上,法律具有決定意義的權(quán)威。人工智能問題具備公共性這一點不言而喻,智能駕駛技術(shù)、智能醫(yī)療、智能數(shù)據(jù)挖掘等無不是涉及公共安全的領(lǐng)域。因此,必須將人工智能納入法律調(diào)整的軌道,對此應(yīng)無疑問,問題的核心在于如何界定人工智能的法律人格,人工智能技術(shù)是否將重塑傳統(tǒng)法律理論?這是需要法理做出闡釋的地方。

(二)目前人工智能主體性研究的理論局限

通覽時下人工智能的法律研究,大致包括三個研究層次:一是針對目前的弱人工智能的實際應(yīng)用進(jìn)行法律規(guī)制的相關(guān)研究;二是對于未來的強人工智能可能向人類社會提出的挑戰(zhàn)進(jìn)行預(yù)測性的研究;三是對于“奇點”之后的超人工智能會造成什么樣的顛覆性后果、是否可能進(jìn)行法律約束的思考。目前法學(xué)界在這三個層面的研究尚處于起步階段,多數(shù)“研究”受制于固有的研究定式,大致可歸納為三種:第一種研究定式是工具主義的。所謂工具主義,是指將各種科技成果視為解決人類問題,增強人類能力的工具。工具主義研究定式在實踐中的著例是法院系統(tǒng)的“智慧法院”計劃和某些政府所推出的“智慧城市”方案。第二種即供求主義研究定式,屬實用(功利)主義范疇,主要來自于市場中科技企業(yè)的推動,是指人類社會的發(fā)展必然伴隨需求的不斷擴大,以及對于這種需求的不斷滿足。第三種是歷史社會學(xué)式的研究進(jìn)路,區(qū)別于前兩種研究定式,這是一種跳出技術(shù)應(yīng)用層面,訴諸歷史長時段考察,分析和評估科技革命所產(chǎn)生的社會和法律效應(yīng)的研究進(jìn)路。這種進(jìn)路雖有一定洞見性,但仍未上升到法哲學(xué)的高度,未觸及從法之根本,尚未顛覆性既有結(jié)論。

事實上,法學(xué)界的既有研究之所以陷入上述三種定式,根本在于學(xué)者們均未跳出當(dāng)前弱人工智能的背景,甚至于強人工時代乃至奇點時代的法學(xué)研究都深深烙印著弱人工的痕跡,在這一背景下探討主體問題絕無可能。鑒于弱人工智能事實上已經(jīng)在生活中的方方面面出現(xiàn)應(yīng)用,具體的法律問題已經(jīng)形成,而且對弱人工智能在具體層面的應(yīng)用所做出的法律回應(yīng)也比較容易整合進(jìn)入現(xiàn)有的法律框架當(dāng)中。因此從法理學(xué)的視角而言研究價值不大,應(yīng)當(dāng)是各部門法具體研究當(dāng)中的主題。本文立足的人工智能語境,乃是具備全部智能元素的強人工智能時代。

二、對質(zhì)疑人工智能法律主體地位觀點的反思

我們有商事主體,能不能有電子主體?我們有公司法,能不能有人工智能法?商主體權(quán)利范圍表現(xiàn)為營業(yè)范圍,能不能為人工智能界定相關(guān)權(quán)利范圍?人工智能按照功能差異,一般都朝向不同領(lǐng)域、行業(yè)分化為專業(yè)性非常鮮明的功能型人工智能。例如,醫(yī)療機器人、法律機器人、寫作機器人(為避免空想研究,筆者所列人工智能均為當(dāng)下技術(shù)已能實現(xiàn))。類似商事主體這樣按照注冊登記或者許可等方式來確認(rèn)其主體資格,并頒發(fā)權(quán)利證書,對應(yīng)賦予其為實現(xiàn)醫(yī)療工作的權(quán)利、為實現(xiàn)法律方面工作的權(quán)利、為實現(xiàn)寫作工作方面的權(quán)利,針對不同功能類型的機器人賦予其相應(yīng)的權(quán)利類型……未來可期待的功能型機器人將更加形式多樣、種類繁多,其發(fā)展或有“井噴”之勢,就如曾經(jīng)“公司”這一市場主體如雨后春筍般遍地而生,我們不能因為害怕這頭“洪水猛獸”而不敢去面對它,也不能因為沒有先前經(jīng)驗可資借鑒而不去嘗試承認(rèn)它,亦不能因為其好似悖逆了“人為中心”這一傳統(tǒng)觀念而不去接受它。功能型機器人的發(fā)展或許能夠從根本上把人從勞動中解放出來,因為這一如人類一般智慧的機器完全可以不依靠人類操作實現(xiàn)勞動成果的積累,這將為人的全面而自由的發(fā)展實現(xiàn)提供實質(zhì)性保障,或許馬、恩設(shè)想的共產(chǎn)主義社會亦有實現(xiàn)……可以想象,未來會出現(xiàn)大量機器與人之間的交易,甚至機器與機器之間的交易,當(dāng)機器完全代替人類職業(yè),使人從中抽身出來,只剩下機器之間的交易之時,我們依然不承認(rèn)其交易主體的地位,將會顯得多么荒謬。各類功能型人工智能面市后,將會成為市場上非?;钴S、龐大的一支力量,它區(qū)別于商事主體,它可以獨立作出決策,甚至于整個公司由一個機器人團(tuán)隊實現(xiàn)管理。由此觀之,未來人工智能的社會化應(yīng)用不僅可能帶來對法律體系的改變,亦將對整個人類社會的未來帶來重大影響。

當(dāng)下質(zhì)疑人工智能主體地位的討論基本上存在兩方面的問題:一是論證的邏輯不周延,二是論證的語境不明確。首先,其質(zhì)疑的主要邏輯是:人工智能區(qū)別于現(xiàn)實意義上的個人,因此人工智能沒有法律主體資格。這種論證的邏輯明顯是不周延的,如果明確法律主體與現(xiàn)實中個人的差異,當(dāng)下討論的諸多分歧便迎刃而解了。其次,人工智能的法律主體地位分析必須立足于特定的語境,即人工智能發(fā)展的成熟階段,在此階段之前的人工智能只是作為輔助工具的簡單機器,不存在法律主體討論的前提。

梳理當(dāng)下關(guān)于質(zhì)疑人工智能法律主體資格的觀點,大概可以歸納為如下三種:一是違背了“人是中心”及主客體不能置換的原理;二是人工智能目前的發(fā)展水平?jīng)Q定其不具備作為主體的資格;三是不符合法律主體資格的要件。筆者認(rèn)為上述三方面的理由均不構(gòu)成對人工智能法律人格化的有效質(zhì)疑。

(一)人工智能法律人格化是否違背主客二分原理,是否會對“人為中心”的哲學(xué)命題構(gòu)成威脅

一種觀點認(rèn)為,將人工智能視為主體或法律上的主體違背了主客體二分及主客體不能置換的原理,并且違背了“人是目的”這一目的與手段的哲學(xué)命題[9]。且不論人是目的以及主體唯一這樣的命題是否永恒成立,即使成立也不妨礙人工智能作為法律主體存在的空間,這并未構(gòu)成對前述哲學(xué)理論的沖擊,人工智能作為法律主體可以有多種方式,可以直接規(guī)定為法律上的主體,亦可以擬制為法律主體,也可以采取其他立法上的技術(shù)賦予一定程度上的主體地位,至于如何實現(xiàn),這只是立法技術(shù)上的操作性問題,而操作性問題與可能性問題實質(zhì)上是兩個層面的問題,這種觀點實際上是以操作上很難來否定實際可能性的觀點,有諱疾忌醫(yī)之嫌。很大程度上,目前主張人工智能不具備主體地位或者不應(yīng)賦予法律主體資格的觀點,多是驚慌于人工智能的主體地位會對人的主體地位或人是目的這一位置構(gòu)成威脅,就如同哥白尼的日心說對地心說構(gòu)成的挑戰(zhàn)一樣,無法被人們的情感所接受——實際上,賦予人工智能這種主體地位并不會顛覆傳統(tǒng)上人是主體的,換言之,賦予人工智能主體地位,不等于承認(rèn)人是客體,這實際上也不能必然得出此結(jié)論。從法律層面來看,主體并不是唯一的,主體是有并行的可能的。這根本無礙于人類主體地位的彰顯,并不會動搖“人為中心”的哲學(xué)命題,聲稱對人類主體地位、人是目的以及主客體二分構(gòu)成威脅的說法顯得毫無根據(jù)。在人類主導(dǎo)的法律體系下,人工智能智能這一法律主體資格的確立仍然將以實現(xiàn)人類社會發(fā)展為導(dǎo)向,機器人的權(quán)利屬性以及權(quán)利類型仍然以服務(wù)人類為基礎(chǔ)。我們有自然人主體、有與之并行的商主體,也當(dāng)然可以容納一類電子主體,各自在自己的合適位置上運行,彼此相安無事、各得其所。

(二)人工智能目前發(fā)展水平不足是否對其法律主體地位構(gòu)成妨礙

另外一種說法是人工智能目前的發(fā)展現(xiàn)狀尚處于初級階段,人工智能還不是特別的智能,尤其在某些類人性元素上當(dāng)前還無實現(xiàn)的可能,因此認(rèn)為人工智能沒有主體資格的可能性[10]。具體來說,這種觀點認(rèn)為作為人類最具創(chuàng)造力的能力,如發(fā)現(xiàn)問題、定義問題及解決問題的能力依托于人類獨有的想象、知識、審美、靈感等抽象能力,具有抽象性與神秘性特質(zhì),因此無法探索與理解[11]。并且,作為主體性和絕對目的性的基本要件,如理性、自由、自我意識等是人工智能這種按照程序、規(guī)則、算法預(yù)設(shè)運作的機器人所不具備的[12]。此外,人工智能深度學(xué)習(xí)、自我決策實際是算法的結(jié)果,而非機器自身獨立的意識,它執(zhí)行的只是設(shè)計者或操作者的意志[13]。對于這種觀點,一方面沒有看到人工智能發(fā)展的過程性,只是孤立地、靜止的視角來審視尚顯片面。條件尚不具備與事實上沒有可能是兩個層面的問題,即便人工智能還處在弱人工的狀態(tài),也完全不妨礙其智能補足后作為主體的存在的可能空間。另一方面,上述質(zhì)疑人工智能法律主體資格的理由實際上是在解釋人工智能和人的差異。筆者完全同意將上述質(zhì)疑置于“人與人工智能之差異”或者“人還是人工智能為世界的主宰”的語境下進(jìn)行討論,但無法對人工智能的法律主體資格形成有效質(zhì)疑。筆者從不認(rèn)為人工智能有超越或比肩于人類的地位,但是至少在法律上可以為其留有“一席之地”。其次,人工智能目前發(fā)展已經(jīng)在某種程度上脫離了法律的領(lǐng)地,成為法律規(guī)制的空白區(qū),醫(yī)療機器人侵權(quán)、無人駕駛汽車侵權(quán)、人工智能產(chǎn)生的作品歸屬問題,在現(xiàn)行法律體系之下已無可資適用的明確規(guī)則,或者類推適用哪一類規(guī)則,這一類的人工智能已然突破傳統(tǒng)法上“物”的范疇,至少我們很難在傳統(tǒng)法律中為其找到一個恰當(dāng)?shù)奈恢?,人工智能脫離人類控制,擁有自主意識或決策能力已不再是初現(xiàn)端倪,而是實實在在地發(fā)生著,并且這種發(fā)展和完善的趨勢不可阻擋,究竟如何看待人工智能的法律地位是法治國家必須給予正面回應(yīng)的問題。最后,無論是以算法程序、代碼規(guī)則實現(xiàn)獨立運作的人工智能,還是以神經(jīng)元形式而具備思維與決斷能力的人類自身,實質(zhì)上都是自由之精神的載體,無論是何種形式實現(xiàn)的智能或者具備的獨立精神,無所謂優(yōu)劣之分,都應(yīng)得到法律的保護(hù)。實際上,上述質(zhì)疑人工智能法律主體時所提出的問題,正好印證主體問題主要不是法律的問題,而是人工智能技術(shù)的水平不高導(dǎo)致的問題。

(三)人工智能不具備法律主體資格的要件,事實果真如此嗎

質(zhì)疑人工智能主體地位的第三種理由是人工智能不具備法律主體資格的要件:其一是人工智能不具備人類獨立自主的意識能力和情感能力;其二是人工智能不具備享受權(quán)利、履行義務(wù)與承擔(dān)責(zé)任的能力;其三是人工智能并未認(rèn)同人類社會的秩序價值和法律規(guī)范[14]。筆者認(rèn)為,上述三點質(zhì)疑的理由實際上都不能成立。首先,單從法律主體資格范疇的界定當(dāng)中我們無法提煉出情感、意識這一資格要件,法律主體需要具備情感這一要件,筆者不能茍同。剛出生的胎兒是否是主體,答案肯定無疑,但很難說其有情感能力,事實上,情感并非法律上擬制的人格要素。其次,人工智能是否具備享受權(quán)利、履行義務(wù)與承擔(dān)責(zé)任之能力,需要區(qū)分具體語境,不能一概而論,這種說法只是泛泛地認(rèn)為不同智能水平的人工智能都不具有上述三項能力,過于武斷。事實上,人工智能完全具備享受權(quán)利、履行義務(wù)及承擔(dān)責(zé)任的能力,只是其表現(xiàn)形式更為特殊而已,明顯區(qū)別于傳統(tǒng)法律主體的法律能力。最后,人工智能是否認(rèn)同人類社會的秩序價值和法律規(guī)范,法律主體是法律上對某類實體抽象出的法律人格,直言之就是前述三項基本法律能力,主體是一種法律上的一種安排,只有具有這幾項基本法律能力的實體才能參與到法律關(guān)系當(dāng)中來充當(dāng)主體,實行法律行為,是法律賦予的一種資格,這種資格不以認(rèn)同法律規(guī)范或秩序價值為前提,法律是強行性規(guī)范,即便我們不認(rèn)同它,我們也必須接納它,這不僅僅是我們的一廂情愿。作為人類的我們,大多數(shù)人從出生到死亡或許也沒有參與過一部立法,甚至沒有看過一部法律、沒有背過一句法條,但我們知道規(guī)矩,我們知道凡事有規(guī)則,人工智能的規(guī)則意識不比人類差,人工智能實質(zhì)上就是算法程序設(shè)計出的一種規(guī)則形態(tài),它能夠很好地執(zhí)行人類制定的法律。

總而言之,上述說法的邏輯起點和終點都圍繞人工智能是不是人這一命題展開,如要論證人工智能之所以不是人,可以基于以上理由,這樣的筆者完全同意,而且上述論證實際上也只能論證人工智能之所以不可能成為“人”、不能取代“人”之位置的問題,但并不妨礙人工智能法律主體資格的確立,因為“人”這一屬性和“法律主體資格”是兩個完全不同層面的問題。法律主體資格只是法律上的一種安排,它不單單指向于“人類”這一單一群體,它區(qū)別于哲學(xué)上作為目的的人,以及生物學(xué)上作為高級智慧生命體的人,它指向具備意思能力和自我決策能力的一類實體。我們好像也找不到何種理由,禁止一個具有完整意思能力與決策能力的人工智能,為何不能與我們合作和交易、為何不能與我們討價還價,甚至與我們平等對話。我們質(zhì)疑人工智能多數(shù)可能出于“兩種情感+一種心理”:一是害怕人工智能不可控,二是很難接受機器和人擁有同樣地位。外加一種諱疾忌醫(yī)的心理,即賦予人工智能法律主體地位在實踐中會遇到很多操作上的困難。

三、強人工智能語境下法律主體的證立

人工智能法律治理領(lǐng)域涉及的核心法學(xué)理論命題——法律主體問題,即是否應(yīng)當(dāng)在法律上給予人工智能“一席之地”,筆者認(rèn)為,強人工智能從主體性層面以及法理層面均可被賦予法律上的人格,這種電子人格雖異于人類,但不妨礙其成立。

(一)以法律主體范疇及要素層面的證成

法律主體資格,或曰“法律人格”,指在法律上作為一個能夠維護(hù)和行使權(quán)利,履行法律義務(wù)和承擔(dān)法律責(zé)任之主體的法律資格[15]。凱爾森指出,資格(法律能力)既非權(quán)利,也非義務(wù),其含義是,只有具有資格(或法律能力)的人的行為才能產(chǎn)生法律規(guī)定的法律后果(權(quán)利、義務(wù)及責(zé)任)[16]。據(jù)此,法律主體資格可理解為某種實體可以成為權(quán)利義務(wù)關(guān)系主體應(yīng)具有的最基本的法定條件,這種實體當(dāng)然不僅僅限于自然人,還可以是企業(yè)、其他組織,乃至人工智能[17]。當(dāng)然,要具備法律主體這一資格是有條件的:一方面,這一實體必須有行使權(quán)利、履行義務(wù)并且因違反義務(wù)而承擔(dān)相應(yīng)責(zé)任的能力;另一方面,必須有法律對此資格做出確認(rèn)。

如要成為法律上的主體,必須充足上述條件,這當(dāng)無疑問。問題在于如何判斷某一實體具有上述法律能力,或者說法律主體資格的根據(jù)是什么。筆者認(rèn)為,這種法律能力源自于某一實體自身所具備的自由意志,姑且將其概括為主體性能力。即是否能夠獨立自主的思考、決策、行為并對自己行為的后果有足夠認(rèn)識,進(jìn)而對行為做出相應(yīng)調(diào)整的能力。對此,康德的自由意志理論對自然人作為法律主體的問題做出了很好的回答。該理論認(rèn)為,人的本質(zhì)是自由意志(意志是有理性的主體渴望做出某種決定的能力)[18]??档掳讶诵越⒃谧杂梢庵局?,使人性成了一個不可規(guī)定的、不可捉摸的東西(物自體)。人之為人就在于他的不可規(guī)定性和無限可能性[19]??档抡J(rèn)為,“人格”是指人所具備的獨立于自然的機械作用的自由屬性,即理性約束之下的實踐能力,只有具備此等“人格”的生物人才能承擔(dān)義務(wù)[20]。此外,黑格爾的自由意志理論也為自然人這一法律能力來源提供了法哲學(xué)上的依據(jù)。黑格爾認(rèn)為:“自為地存在的意思即抽象的意志就是人。生物人的最高成就乃是成為人”[21]。這里所謂的“自為存在”與“自在存在”相對立,“自在存在”指本質(zhì)上是一種為它存在或無自我或無主體的被動的狀態(tài),而“自為存在”是指為它存在返回于自我的自覺的狀態(tài)[22]。由此可知,黑格爾認(rèn)為生物人必須具備自由意志才能成為人,人的本質(zhì)也就是自由意志[23]。

法律主體是一個內(nèi)涵豐富的概念,對其范疇的理解在人類不同文明階段亦有差異。生命體如人類、動物,無生命體如建筑、船舶、法人,在法律主體制度史上皆存在[24],因此,我們不能太過狹隘的理解法律主體的涵義。從歷史發(fā)展的視角考察法律主體的演變和不同的具體形式,有助于我們更加全面深刻地看待法律主體這一基本概念。建構(gòu)法律主體須立足于特定歷史環(huán)境,凡是不具備自由意志的實體,我們很難賦予其真正意義上的法律主體資格,只是在一些特殊的情形下做出的一些特殊安排,無論是非生命體、動物以及企業(yè)法人,不同于奴隸,它們永遠(yuǎn)不可能成為真正法律意義上自為主體,這是因為它們?nèi)狈Τ蔀榉芍黧w的核心要素——自由意志。

歷史上法律主體類型多樣,自然人普遍作為法律主體,也有一個歷史進(jìn)程[25]。如此波瀾起伏的主體史說明:主體范圍處于不斷的擴張狀態(tài)中,主體的外延不再限于生物學(xué)意義上的“人”,物種差異不再視為獲取主體地位的法律障礙[26]。即使不論人工智能的主體符合性,僅言當(dāng)下,以自然人為構(gòu)造基礎(chǔ)的法人等人造體皆可作為法律主體,亦有確立人工智能法律人格的空間。

(二)以強人工智能主體性層面的證成

人工智能成為法律主體是有制度空間的,從法理的角度而言,法律主體完全能夠容納人工智能的進(jìn)入,當(dāng)其發(fā)展到自為的智能人時代時,人工智能由自在的狀態(tài)轉(zhuǎn)變?yōu)樽詾榈臓顟B(tài),它們擁有了自我意識和自由意志,可以進(jìn)行獨立的行為、做出決策。它們已經(jīng)不受人類支配甚至在智力方面更加優(yōu)于我們?nèi)祟?,乃至主宰人類與世界的命運。

1.人工智能的主體性分析。主體性是人的本質(zhì)屬性,人是自覺必然的主體。人的一切行為即為有意識認(rèn)識、解放自我的存在。意識的基本屬性就是自覺的屬性,人性的根本內(nèi)容就是自覺?!叭绻粋€人的行為是自主的,就是說,并非他人意志的工具或?qū)ο?,或獨立于他的意志的外在或?nèi)在力量的結(jié)果,而是他作為一個自主的行為者所做出的決定和選擇的結(jié)果,那么,這個人就是自由的”[27]。人工智能可以從一個自在的群體發(fā)展成為自為的群體。其關(guān)鍵在于自主意識的產(chǎn)生與延續(xù),如果機器擁有自主意識,則意味著機器具有與人同等或類似的創(chuàng)造性,自我保護(hù)意識,情感和自發(fā)行為。

對于強人工智能而言,自我意識的產(chǎn)生使其在很大程度上具備了自主與自由特質(zhì),即便與生物學(xué)意義上的人還有諸多不同,但不影響人工智能在法律視域下的研究。人工智能主體地位之所以很難在法律上確認(rèn),是因為我們常常把“生物上的人”等同于“法律上的人”,只關(guān)注于人工智能的生命與意識特征,實際上這些并非法律意義上主體的核心要素。在人工智能的法律語境下,需要審視的是法律人格的基本要素:

首先,生命性。作為法律主體的實體不一定是生命體,但類似生命的程度一樣會決定主體資格的廣度與深度。在生物學(xué)的視野內(nèi),人工智能并不是有機體,不能歸入生命體之列。但人工智能具備諸多人類生命特征,尤其進(jìn)化到相當(dāng)復(fù)雜的程度,其意識、認(rèn)知、情感等精神特征更加凸顯[28]。“這些和人類一起工作生活的機器人,除去外形、材料等形式差異,猶如人類同伴,給人以深刻的生命體驗?!盵29]人工智能所具有的這種硅基生命屬性,在法律主體設(shè)計中也不應(yīng)被忽略。其次,自覺性。人之本質(zhì)在于自我知覺,人在認(rèn)識到自我之后,不愿再受支配,并通過對人之本體之外一切客體的認(rèn)識和實踐來主宰世界以及自己的命運。人工智能由人類生成,雖系人工物,但“因其具有意識功能,能夠辨別自己與外在世界諸多實在的界限,建立起自我意識、主體意識,在實踐活動中參與對象生成”[30],人工智能不再純受支配,也積極地形塑自然世界、人類社會,簡單地把人工智能納入客體范疇過為武斷,二元或者多元主體進(jìn)路的可能性已展露,人類也必須容忍與接受人工智能作為主體存在這一現(xiàn)實。最后,自由意志性。如前文所述,自由意志是法律主體之核心要素,是判斷人工智能是否為法律主體的基準(zhǔn)。人工智能有理性能力,精神自由程度較高,未來主觀能力將更加突出,并且隨著人工智能、機器人技術(shù)發(fā)展,其智能水平會逐步向人類靠近甚至超越人類,進(jìn)化為“比人更像人”的超級智能人[31]。雖在當(dāng)下弱人工智能時期,智能人自由意志程度尚不完全,但如馬克思所言,主體本身是一個社會歷史范疇.“當(dāng)發(fā)展到一定階段,人工智能將作為類人硅基生命體深嵌于社會系統(tǒng),與人類交互共生。”[32]隨著技術(shù)進(jìn)步,人工智能亦將進(jìn)化成熟,主體性更加飽滿,在補強之前,無礙于人工智能主體地位的確認(rèn)[33]。實際上,康奈爾大學(xué)人工智能實驗室的研究已經(jīng)表明,人工智能在無需人類介入的情形下,可以自主的決定是否從事某種行為[34]。

2.人工智能的法律主體能力分析。人工智能主體地位不僅體現(xiàn)在作為自由自主的個體本身,還體現(xiàn)為具備法律主體資格的各項法律能力。人工智能權(quán)利能力、行為能力以及責(zé)任能力存在事實上以及理論上的根據(jù)。

首先,權(quán)利能力,即組織體可以成為私法主體的資格[35]。該項能力宣示的主體在權(quán)利享有層面的平等地位,源于對于人或者其他實體在法律上的尊重與認(rèn)可,人在意識到自我并發(fā)現(xiàn)自己是一個不被支配的獨立個體之后,便有了期望被平等對待的內(nèi)在需要,沒有任何人的權(quán)利可以凌駕于其他人之上,人人都是自由的、不受支配的主體,而非客體[36]。當(dāng)然,于人工智能而言,當(dāng)其發(fā)展成為具有思想的實體存在時,它將會脫離人的支配與控制而成為獨立的個體。在那時,人工智能與人類的關(guān)系將發(fā)生根本性的轉(zhuǎn)變,從人類的輔助性工具變成與人類擁有同等地位、互不隸屬的法律實體。相應(yīng)的,人工智能在法律當(dāng)中的客體地位也將同時轉(zhuǎn)變?yōu)橹黧w地位。此時,人工智能擁有權(quán)利能力也由現(xiàn)實的可能性轉(zhuǎn)變?yōu)榭陀^的現(xiàn)實性。其次,行為能力,即以自己的行為行使權(quán)利和履行義務(wù)的能力。行為能力制度的設(shè)立,體現(xiàn)了賦予有理性的實體以法律上的自由這一價值取向,該制度就是實現(xiàn)私法自治的關(guān)鍵環(huán)節(jié)[37]。自為階段的人工智能擁有與人一般的自由意志,甚至優(yōu)于人類的智慧,我們不得不承認(rèn)人工智能的這一顯著屬性,因此,也不得不承認(rèn)人工智能的行為能力。最后,責(zé)任能力,即行為人對自己的違法行為后果承擔(dān)法律責(zé)任的能力,是行為能力在保護(hù)性法律關(guān)系中的特殊表現(xiàn)形式[38]。責(zé)任能力核心要素為意志及行為選擇自由,人工智能也一樣具備。人工智能作為責(zé)任主體的特殊性,有其承擔(dān)責(zé)任的特殊形式。一方面,考慮到目前人工智能自身特點,刑罰的制裁對其并沒有多大教育意義,因此法律責(zé)任的懲罰和預(yù)防功能在人工智能的領(lǐng)域內(nèi)應(yīng)當(dāng)弱化一些,重點在于救濟(jì)功能,主要體現(xiàn)為在民事領(lǐng)域承擔(dān)財產(chǎn)責(zé)任的形式。另一方面,人工智能責(zé)任主體性質(zhì)更加突出,而責(zé)任承擔(dān)方面較為弱化,在目前的很多情形中,更多的仍是承擔(dān)一些替代責(zé)任。此外,因人工智能產(chǎn)生的風(fēng)險不僅僅源于人工智能本身,同時也是風(fēng)險社會這一特定歷史語境下無法回避的發(fā)展代價,因而這種風(fēng)險也非人工智能一己之力所能承受。

結(jié)語

當(dāng)前對人工智能法律主體地位的討論存在邏輯不周延及語境不明確的問題,實際上沒有對人工智能的法律主體進(jìn)行正面解答。將該問題放置于人工智能發(fā)展的成熟階段(強人工智能),從法律主體的本質(zhì)入手,提取出該法理范疇的核心要素——自由意志,以此為依據(jù),對人工智能進(jìn)行主體性研究,同時從法律能力的角度進(jìn)行驗證,進(jìn)而得出結(jié)論,強人工時代的人工智能擁有人類全部智能元素,至少具有人之本質(zhì)的基本元素,即自我意識與自由意志,這是人工智能脫離人類成為獨立意義上的個體的本體基礎(chǔ)。而強人工智能在權(quán)利、義務(wù)與責(zé)任三個層面都具備相應(yīng)的能力,該當(dāng)法律主體的能力資格。在本體、能力層面,強人工智能可為法律主體制度容納,應(yīng)賦予法律人格[39]。人工智能作為法律主體端倪初現(xiàn),在全球范圍內(nèi)已有成例或明確的主體建議[40]。回溯過往,自然人法律主體的演化、動物及無生命體主體制度史表明,法律主體的外延非常廣泛、極具包容性,法律主體制度能夠容納強人工智能[41]。正如承擔(dān)有限責(zé)任的法人主體是人類的偉大發(fā)明一樣,具備法律主體資格的強人工智能主體地位之確立也將會給人類社會發(fā)展帶來變革。

猜你喜歡
主體資格主體人工智能
論自然人破產(chǎn)法的適用主體
何謂“主體間性”
2019:人工智能
人工智能與就業(yè)
技術(shù)創(chuàng)新體系的5個主體
略論意象間的主體構(gòu)架
數(shù)讀人工智能
環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
環(huán)境公益訴訟主體存在問題及對策
下一幕,人工智能!
加查县| 娄烦县| 丰顺县| 林州市| 涞源县| 清远市| 宁城县| 从化市| 阳曲县| 连城县| 恩平市| 离岛区| 阿尔山市| 古丈县| 鄂州市| 高要市| 永德县| 蓬安县| 沙洋县| 湖州市| 抚顺市| 怀仁县| 阿城市| 柯坪县| 罗城| 南岸区| 广州市| 嘉荫县| 太保市| 仙桃市| 景泰县| 锦屏县| 漳浦县| 镇原县| 乡宁县| 临洮县| 武义县| 闵行区| 嘉义市| 尼玛县| 阳山县|