国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法律主體資格之否定

2022-07-28 06:38:58楊志航
財經(jīng)法學(xué) 2022年4期
關(guān)鍵詞:主體資格康德意志

楊志航

內(nèi)容提要:當(dāng)前,關(guān)于人工智能是否具備法律主體資格這一問題的討論席卷整個法學(xué)界。占據(jù)學(xué)界主流的贊同說認(rèn)為,基于社會的需要,應(yīng)該將人工智能建構(gòu)為法律上的主體。然而,這種建構(gòu)卻忽略了法律主體的本質(zhì)。否定說雖然對此提出了批評,但又過于強調(diào)法律主體的生物人屬性,錯誤地將法律主體等同于自然人。據(jù)此,以康德的尊嚴(yán)學(xué)說為視角,重新對人工智能法律主體資格進行審視,進而可得出人格尊嚴(yán)是法律主體的核心內(nèi)涵。法律主體作為彰顯尊嚴(yán)的人格,必須具備三個要件:第一,具有普遍必然性;第二,作為自在目的本身;第三,作為自我立法的守法者。人工智能只有符合這三個要件,方能具備法律主體資格。

一、問題的提出

隨著第四次工業(yè)革命的推進,人工智能不再只是烏托邦幻景。在日常生活中,從無人機、智能車到倉庫包裝機器人,人類已經(jīng)被它所包圍。人工智能甚至在某種程度上獲得人類的身份認(rèn)同,2017年,機器人索菲亞被沙特阿拉伯賦予公民身份,2021年,華智冰成為清華大學(xué)計算機系的第一個AI學(xué)生。因人工智能引發(fā)的知識產(chǎn)權(quán)和侵權(quán)責(zé)任問題也不再是科幻小說的內(nèi)容而是實際地發(fā)生著。(1)在知識產(chǎn)權(quán)方面,人工智能寫稿機器人已經(jīng)可以實現(xiàn)自動寫稿,微軟名為“小冰”的人工智能產(chǎn)品“寫”出了詩集《陽光失了玻璃窗》,阿里巴巴研發(fā)出編劇機器人。參見張悅、王俊秋:《人工智能時代下文化產(chǎn)業(yè)的發(fā)展與展望》,載《云南社會科學(xué)》2021年第5期。在侵權(quán)責(zé)任方面,主要見于自動駕駛引發(fā)的事故,2016年裝載自動駕駛系統(tǒng)的特斯拉汽車因出現(xiàn)誤認(rèn)而造成全世界首宗自動駕駛系統(tǒng)致人死亡的車禍,2018年美國亞利桑那州發(fā)生優(yōu)步自動駕駛車撞死行人的事件。參見劉仁文、曹波:《人工智能體的刑事風(fēng)險及其歸責(zé)》,載《江西社會科學(xué)》2021年第8期。針對人工智能可能引發(fā)的法律問題,法學(xué)界掀起討論的熱潮。人工智能是否具備法律主體資格,則成為這場討論的焦點。

目前,關(guān)于人工智能是否應(yīng)該具備法律主體資格,學(xué)界的主流觀點為贊同說,該觀點認(rèn)為基于現(xiàn)實需要的考量以及人工智能具有有限獨立自主意識,應(yīng)該賦予人工智能法律主體資格。(2)持這類觀點的學(xué)者根據(jù)觀點之間的差異,具體又可以細(xì)分為權(quán)利主體說、電子人格說、工具性人格說、擬制主體說、有限法律人格說、技術(shù)人格說、法人人格參照說等。參見張玉潔:《論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制》,載《東方法學(xué)》2017年第6期;郭少飛:《“電子人”法律主體論》,載《東方法學(xué)》2018年第3期;許中緣:《論智能機器人的工具性人格》,載《法學(xué)評論》2018年第5期;楊清望、張磊:《論人工智能的擬制法律人格》,載《湖南科技大學(xué)學(xué)報(社會科學(xué)版)》2018年第6期;周詳:《智能機器人“權(quán)利主體論”之提倡》,載《法學(xué)》2019年第10期;王春梅、馮源:《技術(shù)性人格:人工智能主體資格的私法構(gòu)設(shè)》,載《華東政法大學(xué)學(xué)報》2021年第5期;朱凌珂:《賦予強人工智能法律主體地位的路徑與限度》,載《廣東社會科學(xué)》2021年第5期。除此之外,少部分學(xué)者持反對意見,認(rèn)為法律主體只能是自然人或者與自然人相似的主體,人工智能不具有類人性,因此不具備法律主體資格。(3)持這類觀點的學(xué)者一般認(rèn)為,情欲或自由意志是人類所特有的,人工智能只是算法和編程的集合,應(yīng)該把它排斥在法律主體范圍之外。參見龍文懋:《人工智能法律主體地位的法哲學(xué)思考》,載《法律科學(xué)》2018年第5期;韓旭至:《人工智能法律主體批判》,載《安徽大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第4期;馮潔:《人工智能體法律主體地位的法理反思》,載《東方法學(xué)》2019年第4期;劉練軍:《人工智能法律主體論的法理反思》,載《現(xiàn)代法學(xué)》2021年第4期。這些學(xué)說要么消解法律主體的理論根基,要么過于粗淺地注重生物人的身份屬性,反而遮蔽了隱藏在法律主體背后閃閃發(fā)光的心靈屬性,即具有絕對價值的尊嚴(yán)。本文借助康德的理論,以探明法律主體的本質(zhì),重新審視人工智能的法律主體資格。

二、人工智能法律主體資格的確立及其爭議

雖然目前學(xué)界關(guān)于人工智能是否具備法律主體資格的主流觀點為贊同說,但是討論并沒有就此偃旗息鼓,反而大有燎原之勢。問題的根源在于,雙方對于法律主體的本質(zhì)有著自己不同的理解,這種分歧主要是由對法律主體范圍擴張的錯誤解讀引發(fā)的。如果撣去歷史塵埃,就會發(fā)現(xiàn)法律主體的背后始終閃爍著人格尊嚴(yán)的光輝。

(一)人工智能法律主體資格的確立

從歷史來看,法律主體的范圍并不是固定不變的,而是呈現(xiàn)出不斷發(fā)展的擴張趨勢。這種擴張并不是盲目的,而是表現(xiàn)為從剛開始的“人可非人”,到后來的“非人可人”。起初,法律主體資格是由人格人所享有,自然人并非必然是法律主體。人格一詞最早來源于拉丁語persona,在古羅馬,只有貴族享有人格,奴隸被排除在外。生物人(homo)只有在具備足以使其獲得權(quán)利能力的條件時,才被稱為人格(persona)。(4)參見〔意〕彼德羅·彭梵得:《羅馬法教科書》,黃風(fēng)譯,中國政法大學(xué)出版社1992年版,第29頁。直到近代,隨著各國民法典的頒布,才確認(rèn)了自然人作為人格人享有法律主體資格。

法人的出現(xiàn),打破了自然人對法律主體資格的長期壟斷。法人的概念最早來自羅馬法,法人性質(zhì)理論卻緣起于薩維尼的擬制說。(5)參見王文宇:《揭開法人的神秘面紗——兼論民事主體的法典化》,載《清華法學(xué)》2016年第5期。擬制說認(rèn)為,法人只是法律的工具性理智擬制。與之相反,以基爾克為代表的實在說則認(rèn)為,法人并非擬制,而是一個真實存在的實體。這些爭議最終隨著各國以實體法的形式確立了法人的法律主體資格戛然而止。除此之外,一些非人物種也被賦予法律主體資格。古羅馬時期的寺廟、中世紀(jì)的宗教建筑都曾被視為權(quán)利主體。歷史上,也曾多次發(fā)生過對動物進行審判的案例。(6)許多社會承認(rèn)動物是法律的主體,認(rèn)為它們需要對自己的行為負(fù)責(zé)。豬曾經(jīng)因襲擊人類而被正式起訴,驢則被認(rèn)定為“暴力受害者”。See Jen Girgen,The Historical and Contemporary Prosecution and Punishment of Animals,9 Animal Law Review 97,97-133(2003).在現(xiàn)代社會,印度為了保護海豚而賦予其法律主體資格,新西蘭通過立法確立其境內(nèi)旺加努伊河的法律主體資格。(7)See Alexis Dyschkant,Legal Personhood: How We Are Getting It Wrong,2015 University of Illinois Law Review 2075,2099-20100(2015).

這些似乎都表明,法律主體制度正在朝向一個更加開放的體系發(fā)展,也為人工智能法律主體資格的擁躉提供歷史支持。贊同說由此更加堅定地把法律主體范圍擴張的歷史解讀為法律主體是基于社會發(fā)展需要的實體法建構(gòu)。按照此邏輯,隨著人工智能時代的來臨,為了人類生活的需要,賦予人工智能法律主體資格也是大勢所趨。

(二)法律主體是一種法律技術(shù)建構(gòu)嗎?

贊同說把法律主體范圍的擴張過程當(dāng)成其理論的最佳證明,提出法律主體作為一種參與法律關(guān)系并且具有法律權(quán)利的資格,(8)See B.Smith,Legal Personality,37 Yale Law Journal 283,283-284(1928).并不一定等同于“自然人”。(9)See Sara Bensley,Do We Need New Legal Personhood in the Age of Robots and AI?in Marcelo Corrales,Mark Fenwick,Nikolaus Forgó ed.,Robotics,AI and the Future of Law,Springer,2020,p.20.贊同說的實質(zhì)是一種建構(gòu)性學(xué)說。它認(rèn)為,法律主體資格是一個由實體法所創(chuàng)設(shè)的以服務(wù)人類現(xiàn)實生活為目的的語言概念。法律主體就像數(shù)學(xué)的“一”一樣是一個獨立的概念,獨立于人類就像獨立于蘋果一樣。(10)See D.P.Derham,Theories of Legal Personality,in Leicester Webb,ed.,Legal Personality and Political Pluralism,Melbourne University Press,1958,pp.1-5.也是在此意義上,布萊克斯通認(rèn)為法律主體是根據(jù)法律需要而不是事物本質(zhì)所創(chuàng)造出來的一個身體。(11)See Frederic William Maitland,Moral Personality and Legal Personality,in H.A.L.Fisher,ed., The Collected Papers of Frederic William Maitland,Cambridge University Press,1911,p.306.法人與自然人人格化的基礎(chǔ)都是法律構(gòu)造,兩者均系“法”人。(12)參見〔奧〕凱爾森:《法與國家的一般理論》,沈宗靈譯,中國大百科全書出版社1995年版,第109頁。這種構(gòu)造的權(quán)力來源于主權(quán)者,法人的產(chǎn)生由此被理解為主權(quán)者根據(jù)經(jīng)濟發(fā)展的需要通過法律技術(shù)構(gòu)建的產(chǎn)物。(13)參見尹田:《論自然人的法律人格與權(quán)利能力》,載《法制與社會發(fā)展》2002年第1期。人工智能是否具備法律主體資格,不在于其是否存有意志,而在于人類是否需要。

遺憾的是,建構(gòu)說作為一種法律主體理論,將消解人格尊嚴(yán)。法律主體雖然形式上是法律邏輯結(jié)構(gòu)的必然產(chǎn)物,實際上卻是關(guān)于人性本質(zhì)的表達(dá)。我們不能把法律主體資格當(dāng)作與人格無關(guān)的東西來回避事實,法律主體資格不僅僅是一個法律問題,其理論背后始終蘊含著一個自治的觀念。(14)See WM Geldart, Legal Personality,27 Law Quarterly Review 90,98-102(1911).法律制度的目的是理解法律人格的基礎(chǔ),法律主體范圍的無序擴大必將打破傳統(tǒng)的人物主客體二元論,(15)See Tomasz Pietrzykowski,The Idea of Non-Personal Subject of Law,in A.J.Kurki,Tomasz Pietrzykowski ed.,Legal Personhood: Animals,Artificial Intelligence and the Unborn,Springer,2017,p.49.人類與其他事物的區(qū)別在法律上也將不復(fù)存在。歷史表明,近代民法對自由平等的確認(rèn),是對人格尊嚴(yán)的尊重。如果認(rèn)為法律主體只是一個建構(gòu)性概念,誰都可以成為法律主體,人格概念將逐漸淡出法律的視野而無處安放,人格尊嚴(yán)理論也將面臨重新解釋的危機。(16)See Pin Lean Lau,The Extension of Legal Personhood in Artificial Intelligence,46 Bioetica & Derecho 47,58(2019).

(三)法律主體等同于自然人嗎?

基于建構(gòu)說對人格尊嚴(yán)的消解,否定論提出,法律主體范圍從人格人到法人的擴張始終是以自然人為核心。否定論的實質(zhì)是一種自然人說,認(rèn)為法律主體應(yīng)該局限于自然人,或者服務(wù)于以自然人利益為中心的法律體系。(17)See J.J.Bryson,M.E.Diamantis,T.D.Grant,Of,for,and by the People: the Legal Lacuna of Synthetic Persons,25 Artificial Intelligence Law 273,275(2017).自然人和人格人只是概念的不同,自然人作為權(quán)利的典型主體,為法人是否享有法律主體資格提供了一個理想模板。(18)See S.M.Matambanadzo,The Body,Incorporated,87 Tulane Law Review 457,458(2013).也因此,如后文所述,法人身后始終藏有自然人的影子。自然人天生具有法律主體資格,非人物種只有在與人類相似的情況下才具備法律主體資格。(19)See Lawrence B.Solum,Legal Personhood for Artificial Intelligences,70 North Carolina Law Review 1231,1288(1992).法律主體身份根源于自然人的獨特性,這種獨特性被歸結(jié)為獨占地享有意識和情欲。自由意志,使我們自居宇宙靈長的地位。情欲使我們得以衡量苦樂,具備同理心。人工智能由于既缺乏自由意志又不具有情欲,所以不具備法律主體資格。

然而,自然人說錯誤地將自然人與人格人等同。所有自然人都是人格人,并不代表人格人的范圍僅限于自然人?!兜聡穹ǖ洹窞榱吮苊膺@種誤讀,在人格人概念之下并排列出自然人和法人。(20)參見〔德〕羅爾夫·克尼佩爾:《法律與歷史——論〈德國民法典〉的形成與變遷》,朱巖譯,法律出版社2005年版,第62頁。自由意志的存在是人類反對動物具備法律主體資格的重要因素,是對人格尊嚴(yán)的肯定。但問題的關(guān)鍵是,人類擁有自由意志,并不意味著自由意志獨屬于人類。雖然迄今為止,只是在人類身上發(fā)現(xiàn)自由意志的存在,但是理性無法回答在人類以外是否還存在具備自由意志的生物。同時,情感、欲望也并非人的本質(zhì)屬性,把人與動物相互區(qū)別開的只有理性,情欲只能使人類與動物屈居相同地位。康德認(rèn)為情緒、欲望屬于動物傾向,只是滿足人類生存的最低維度。(21)參見〔德〕康德:《康德宗教哲學(xué)文集》,李秋零譯,中國人民大學(xué)出版社2016年版,第160-162頁。與之相反,人性的崇高體現(xiàn)在理性對自在目的善的追求。

(四)現(xiàn)代法律主體本性定位:彰顯尊嚴(yán)的人格

法律主體的范圍雖然隨著時代發(fā)展不斷擴張,但始終強調(diào)人格對法律主體構(gòu)成的重要性。正如薩維尼所說,人格、法主體這種根源性的概念是與人的概念相契合的。(22)參見〔日〕星野英一:《私法中的人》,王闖譯,中國法制出版社2004年版,第25頁。將自然人與人格人等同,并不是在法律實踐中創(chuàng)造人格人的本質(zhì),而是經(jīng)由法律在每個自然人的本質(zhì)中看到一個人格人。(23)參見前引〔20〕,羅爾夫·克尼佩爾書,第59頁。簡言之,自然人是作為人格人而具有法律主體資格。另外,法人本身亦蘊含著對人格的要求。不管是法人擬制說抑或是法人實在說,都將個人或者團體人格作為法人具備法律主體資格的基礎(chǔ)。克尼佩爾認(rèn)為,即使把法人看作是實體法構(gòu)建的產(chǎn)物,其也蘊含著在目的導(dǎo)向的理性前提下實現(xiàn)財產(chǎn)交易和財富積累的完全人格體要求。(24)參見前引〔20〕,羅爾夫·克尼佩爾書,第71-72頁。

與此同時,作為法律主體的人格,充盈著對自由意志的祈求。溫德沙伊德認(rèn)為意志作為規(guī)范的人格,就是法律主體。(25)參見周清林:《主體性的缺失與重構(gòu):權(quán)利能力研究》,法律出版社2009年版,第86頁?!秺W地利民法典》規(guī)定,自然人因理性,故得作為(法的)人格被看待。(26)參見前引〔22〕,星野英一書,第24頁。換言之,具備理性,是法律上被視為主體的前提。理性存在者被視為(法的)人格,是法律史上對康德人格倫理學(xué)的一次成功移植。康德的人格倫理學(xué)是由薩維尼介紹到德國19世紀(jì)的法學(xué)理論中,構(gòu)成后世法律主體理論的底色。(27)參見〔德〕弗朗茨·維亞克爾:《近代私法史——以德意志的觀察為發(fā)展重點》(下),陳愛娥、黃建輝譯,上海三聯(lián)書店2005年版,第364頁。正基于此,拉倫茨認(rèn)為應(yīng)該從康德倫理學(xué)上的人出發(fā)來理解民法中的人。(28)參見〔德〕卡爾·拉倫茨:《德國民法通論》(上冊),王曉曄等譯,法律出版社2003年版,第45-46頁。在康德那里,理性存在者之所以被稱為人格是因為他們是作為自在目的本身,具有內(nèi)在價值,即尊嚴(yán)。(29)參見〔德〕康德:《道德形而上學(xué)奠基》,楊云飛譯,人民出版社2013年版,第72頁。理性的存在只有自己決定自己目的的時候,才是具備可歸責(zé)性的自由個體。尊嚴(yán)所內(nèi)含的自我規(guī)定性構(gòu)成了法律主體的基調(diào)。正是以康德理論為基礎(chǔ),通過將權(quán)利和義務(wù)與不可歸責(zé)的事物區(qū)別開來,法律主體才從中顯現(xiàn)。(30)Stephan Kirst,Die beiden Seiten der Maske: Rechtstheorie und Rechtsethik der Rechtsperson,in: Rolf Gr?schner(Hrsg.),Person und RechtspersonZur Ideengeschichte der Personalit?t,Aufl.2005,S.362.據(jù)此,康德確立了人因為作為倫理上的實體具有承擔(dān)責(zé)任的能力,使得法律主體具有平等的尊嚴(yán)人格這一意義,(31)參見前引〔22〕,星野英一書,第23-24頁。從而逐步形成“理性—主體—意志”的法律主體圖式。

如前所述,法律上的主體性體現(xiàn)在人格因彰顯尊嚴(yán)而崇高。與之相比,作為手段的事物只能被稱為客體。換言之,是否具備人格尊嚴(yán)成了衡量法律主體身份的決定性因素。人類則是因為其有限的理性存在者身份而具備尊嚴(yán),進而擁有法律主體資格。應(yīng)當(dāng)說,主體、人格和人這三個概念的契合點在于,它們都是作為自在目的本身,是尊嚴(yán)的擁有者。事實上,人格尊嚴(yán)自在地包含著作為實踐法則根據(jù)的絕對命令,由自然法則公式、人性公式、自律公式三個變體公式構(gòu)成,分別從三個不同的方面對法律主體作出規(guī)定:(1)具有普遍必然性;(2)作為自在目的本身;(3)作為自我立法的守法者。與此同時,它們也是檢驗法律主體資格存有的黃金法則。正如羅爾斯所說,如果我們希望找到進入康德法則的途徑,我們需要將其置于這三個公式之下進行檢驗,以便更加直觀理解。(32)參見〔美〕約翰·羅爾斯:《道德哲學(xué)史講義》,顧肅、劉雪梅譯,中國社會科學(xué)出版社2012年版,第160頁。

三、自然法則公式測試

從根本上說,人格尊嚴(yán)的三個公式只是同一個法則的三種不同變體,它們本質(zhì)上是一樣的,只是相互之間存在細(xì)微的主觀差別,這種差別是為了更加直觀地理解法則。自然法則公式是作為人格尊嚴(yán)的形式規(guī)定存在的,它要求在形式上主體所遵守的行為準(zhǔn)則如自然規(guī)律一樣有效。在法權(quán)上則表現(xiàn)為,作為法律主體,必須像自然規(guī)律一樣具有普遍必然性。這種普遍必然性體現(xiàn)為一切主體在法律上普遍平等,法律作為普遍的規(guī)則平等地適用于每一個法律主體。人工智能若想獲得法律主體資格,也必須具備這種普遍必然性。

(一)人格尊嚴(yán)的形式規(guī)定:自然法則公式

法律人格一詞源于拉丁語persona。在古羅馬,意指“面具”,只有貴族才具有人格。在中世紀(jì)基督教神學(xué)中,又被稱為位格,作為圣父、圣子、圣靈的共同用語存在。(33)參見前引〔22〕,星野英一書,第23頁。個體尊嚴(yán)的享有,在于其人格上存有上帝的印記。這些混雜有等級制度以及宗教色彩的人格尊嚴(yán)理論是康德所反感的。作為主體的人格怎么能是一堆不平等、不確定的大雜燴呢?他想要重新建立一個純粹的人格理論,在人格中尋找普遍、平等、永恒的法則。法權(quán)就是自由在這種普遍法則下的共存。

康德拒絕直接從人身上經(jīng)驗性地尋找理性來彰顯人格的高貴。因為一個偶然條件下對人類有效的法則,怎么可能確保它具有普遍必然性。他把立論根基建立在通過先天根據(jù)來規(guī)定意志的理性理念中,理性的真正使命是對自在目的本身的追尋。這種命令應(yīng)當(dāng)表現(xiàn)為康德的自然法則公式,即你的行動準(zhǔn)則應(yīng)當(dāng)跟自然法則一樣具有普遍性。(34)參見前引〔29〕,康德書,第52頁。因為康德把立論根基建立在先天根據(jù)的理性上,所以自然法則公式不是因為我們作為人的身份而偶然有效,而是因為我們作為理性存在者的人格而絕對有效。雖然康德并沒有直接提到除人類以外的其他理性存在者,但為其存有留下理論空間。因為在經(jīng)驗世界,我們并沒有發(fā)現(xiàn)其他理性存在者,所以經(jīng)常性地把人格與自然人的概念混用,這也導(dǎo)致自然人說錯誤地認(rèn)為自由意志只能歸屬于人類。此外,人格尊嚴(yán)作為自在目的,必須是具有普遍必然性的定言命令。建構(gòu)說所構(gòu)造的法律主體僅僅具有或然性,這與法權(quán)是相矛盾的。因為嚴(yán)格的法權(quán)表現(xiàn)為每個人的意志與普遍法則相一致的自由。

綜上所述,作為法律主體的人格必須是具有普遍必然性的理性存在者,人格尊嚴(yán)的根據(jù)來自理性對普遍法則的追尋。普遍法則為主體的平等提供了法律基礎(chǔ),在剔除了生物人的經(jīng)驗屬性之后,社會附加在人類身上的差異消失了。通過人格尊嚴(yán)抽象出來的“人類形象”,不再考慮外在的差別,由此產(chǎn)生了形式上的平等,在法權(quán)上體現(xiàn)為一切主體在法律上地位一律平等。這種平等是每個法律主體生而有之的,不受職業(yè)、地位等影響。人格的抽象也是法律作為普遍性規(guī)則的規(guī)定,它需要保證對所有法律主體一視同仁,具有同樣約束力?,F(xiàn)代法律的平等、有效、權(quán)威,都必須寄寓于法律普遍性之上,否則法律將喪失作為公共規(guī)則的品格。(35)參見胡玉鴻:《法律主體概念及其特性》,載《法學(xué)研究》2008年第3期。

(二)制造以理性為前提的圖靈機器

人工智能能否通過自然法則公式測試,問題的關(guān)鍵在于,它是否可以歸屬于理性存在者。如果人工智能是理性存在者,那么其行為準(zhǔn)則必然與普遍法則相一致。目前,學(xué)界以圖靈測試(36)圖靈測試指的是,計算機專家圖靈所提出的,針對人工智能是否有意志進行測試的思想實驗??脊僮谝粋€中央裝有簾子的房間里,簾子后面可能坐著計算機或者人類。由考官提問,簾子后面的計算機或人來回答,考官評估所得到的答案。如果計算機能夠成功騙過考官,那么計算機就通過該測試。參見〔美〕史蒂芬·盧奇、丹尼·科佩克:《人工智能》,林賜譯,人民郵電出版社2018年版,第5-10頁。作為衡量人工智能是否具有意識的標(biāo)準(zhǔn)。圖靈測試包含著這樣一個預(yù)設(shè),只有理性存在者才能識別理性存在者,只有人類才能判斷人工智能是否已經(jīng)具備意識。迄今為止,尚未有人工智能通過圖靈測試。值得關(guān)注的是,在2014年,聊天機器人在倫敦皇家學(xué)會進行的圖靈測試中成功騙過三分之一的評委。就此而言,人工智能通過圖靈測試似乎指日可待。

通過圖靈測試是否就可以證明人工智能具備獨立思考的能力呢?是否有可能出現(xiàn)人工智能即使可以跟人類進行正常對話,也不具備意識的情況?丹尼特和斯洛曼對此進行了說明,認(rèn)為僵尸機是不可能存在的,因為僵尸機的概念是混亂的,只要給予適當(dāng)?shù)男袨榛蛱摂M機,意識甚至包括感受都是有保障的。(37)參見〔英〕瑪格麗特·博登:《AI:人工智能的本質(zhì)和未來》,孫詩慧譯,中國人民大學(xué)出版社2017年版,第154頁。與此相反,一些學(xué)者則認(rèn)為意識必須以生命體為前提。人類的“生命形式”,不僅包含意識,甚至還包含生命體進化過程中與環(huán)境的互動,意志更關(guān)鍵的不是推理或思想,而是適應(yīng)和溝通。(38)參見前引〔37〕,瑪格麗特·博登書,第161頁。普特南則直接指出:“如果機器人不是活的,那它就不會有意識?!?39)前引〔37〕,瑪格麗特·博登書,第168頁。這些反對者認(rèn)為意識更多是基于人的生物屬性而存在,機器不能孕育出真正的智能。人工的“智能”是建立在數(shù)字計算的基礎(chǔ)上,是儲存在硬盤里面代碼的集合,不具有生命形式。

不能因為人工智能不是生命體,就武斷地認(rèn)為它不具有意識。康德把人的存在本身具有絕對價值歸因于理性。如果理性本質(zhì)在主觀和客觀上都是目的,那么這個理性本質(zhì)具體化所體現(xiàn)的載體是什么(人或機器),是無關(guān)緊要的。(40)See Laszlo Versenyi,Can Robots be Moral?,84 Ethics 248,250-255(1974).理性的存在根據(jù)與其說是在于載體的表現(xiàn)形式,不如說是在于理性存在本身。理性的表現(xiàn)形式具有多樣性,神經(jīng)蛋白并不是唯一屬性。更何況,神經(jīng)蛋白本身也只是一堆生物集合體,硅膠和碳基形式的不同,并不能證明人工智能不具備意志。針對意識需要生命體與環(huán)境互動生成的這一反對意見,隨著新型的利用感官、執(zhí)行器和環(huán)境之間結(jié)構(gòu)耦合來打造認(rèn)知基礎(chǔ)的人工智能的出現(xiàn)自然無效。

然而,人工智能即使可以通過圖靈測試,其依然無法理解語言背后的意向性。塞爾認(rèn)為,意識來源于大腦的神經(jīng)蛋白,雖然它可能不是意識的唯一來源,但是金屬和硅是注定不能生成意識的,符號計算雖然也可能存在于我們大腦,但是符號計算無法提供意向性。(41)參見〔英〕瑪格麗特·博登編:《人工智能哲學(xué)》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第94-95頁。他通過“中文房間”(42)“中文房間”指的是,塞爾在20世紀(jì)80年代所提出的一個思想實驗。這個實驗要求一個只會說英語的人待在一個封閉的房間,他隨身帶著一本中文翻譯程序書。房間外的人不斷向房間內(nèi)遞進用中文寫成的問題,房間內(nèi)的人便按照手冊的說明,先將字條上的文字破譯,然后將相應(yīng)的中文字符組合成對問題的解答,并將答案遞到房間外面。參見前引〔41〕,瑪格麗特·博登書,第94-95頁。的思想實驗來反駁人工智能具有自由意志的觀點。在“中文房間”里面的那個人在進入房間之前和離開房間之后始終都不懂中文,他只起到類似計算機程序的作用。結(jié)果顯示,如果只有句法沒有語義是無法構(gòu)成意志表達(dá)的。人工智能雖然可以通過編程來處理信息,但是它無法理解自身行為所具有的社會意義。(43)See F.Dretske,Machines and the Mental,59 Proceedings and Addresses of the APA 23,26(1985).丹尼特對此提出了解決方案,認(rèn)為大腦可以從它的創(chuàng)造者那里獲得意向性,然后將其委托給人工智能使其獲得升級。(44)See DC Dennett,Darwin’s Dangerous Idea: Evolution and the Meanings of Life, Penguin Books,1996,p.54.但是事實上,人工智能并沒有因此對意向性產(chǎn)生真正的理解。人工智能無法理解價值、自由、自我立法這些概念,也無法為其賦予價值,康德的自由意志因此無法轉(zhuǎn)化為技術(shù)理性。(45)See Ulgen Ozlem,Kantian Ethics in the Age of Artificial Intelligence and Robotics,43 Questions of International Law 59,75(2017).

人工智能的機械理性和人類的理性之間存在著明顯的差異。人工智能的行動是基于編程系統(tǒng)對自身數(shù)據(jù)庫和外在行為作定量分析而做出的,人類的行為則是基于理性對絕對價值的追尋所做出的。人工智能雖然具有更加復(fù)雜的數(shù)據(jù)分析和計算能力,但是無法對行為背后的價值產(chǎn)生理解。人類可以質(zhì)疑規(guī)則,但是人工智能只能機械地執(zhí)行系統(tǒng)指令。雖然康德并沒有對理性存在者的身份做出限制,但是人工智能由于意向性的缺失顯然不具備自由意志的可能性。

(三)制造以普遍法則為前提的康德機器

有學(xué)者認(rèn)為我們完全可以擱置關(guān)于理性的爭議,通過采用自上而下(預(yù)設(shè)倫理法則并分析其計算要求以指導(dǎo)能夠?qū)崿F(xiàn)該理論的算法和子系統(tǒng)的設(shè)計)的方法來設(shè)計人工智能。(46)See W.Wallach,C.Allen,I.Smit,Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties,22 AI & Society 565,573(2008).具體地講,就是將康德的普遍法則作為內(nèi)嵌的操作系統(tǒng),制造出符合規(guī)范的康德機器(人工智能)。(47)See T M Powers,Prospects for a Kantian Machine,21 IEEE Intelligent Systems 46,47(2006).如果我們將康德的普遍法則設(shè)計成單一原則,作為程序中壓倒一切的指令,人工智能將無法做出與之相反的事,其自身意志必將與法律相協(xié)調(diào)。那么,我們所造出的人工智能所遵守的準(zhǔn)則必然與普遍法則一致。實際上,自然法則公式,作為道德法則的表現(xiàn)形式,并不過多地涉及內(nèi)容,只需要自身的準(zhǔn)則能夠普遍化成為法則就可以通過檢驗。康德本人也認(rèn)為純粹的形式推理比審慎反思要求低得多,最不老練的人也能像最聰明的哲人王那樣進行推理。自然法則公式類似這種形式推理,并沒有對法則內(nèi)容做出苛刻的要求。因此,通過編程植入普遍法則,似乎是可行的。

韋爾謝尼(Laszlo Versenyi)認(rèn)為康德自身也無法解釋純粹理性的因果關(guān)系在人類行為中如何成為決定性的機制,人工智能如何遵守法則的機制不影響它遵守與人類一樣的法則。(48)參見前引〔40〕,Laszlo Versenyi文,第251頁??档碌淖匀环▌t公式更多的是形式化規(guī)定,并沒有對法則的質(zhì)料內(nèi)容進行強調(diào)。這似乎意味著康德機器在理論上是可行的??档聶C器想要通過內(nèi)嵌普遍法則系統(tǒng)的方式規(guī)避對人工智能是否具備理性的爭議,然而它終究逃不過意向性的詰問。自然法則公式作為形式性的規(guī)定,它要求主體的準(zhǔn)則必須出于義務(wù)地與普遍法則一致,它內(nèi)在地包含著一個規(guī)范性動因,這個動因是構(gòu)成義務(wù)的前提??档聶C器雖然由于編程必然地按照普遍法則行動,但是它無法理解自己行為背后的意向性,那么其在法權(quán)上也缺乏作為法律主體的可能性。

康德機器在某種程度上可能是反康德的。如果存在康德機器,由于內(nèi)嵌系統(tǒng)的存在,其行為自發(fā)地與普遍法則一致。那么在康德那里,它是作為上帝的意志存在,因為只有上帝才能使自己的行為自發(fā)地與普遍法則一致。而自然法則公式作為強制命令無法對上帝的意志做出規(guī)定。(49)See Colin Allen,Gary Varner,Jason Zinser,Prolegomena to any Future Artificial Moral Agent,12 Journal of Experimental and Theoretical Artificial Intelligence 251,254(2000).也就是說,康德機器基于其意志內(nèi)在的完善性,是不需要法律的,法律只對意志不完善的理性存在者有效。另外,人類也不可能制造出康德機器,人類如果制造出康德機器,這暗示著人類在遵守法則方面具備與康德機器同等程度的認(rèn)知、決策和行動能力,那么此時,人類就是上帝意志的化身,這與人類作為有限理性存在者的身份相矛盾。同時,康德機器也無法滿足絕對命令不同公式之間協(xié)調(diào)性的要求。人工智能通過自然法則公式檢驗的前提是,其準(zhǔn)則必將具有普遍性。然而,如果一開始就僅將人工智能視為人類的手段,這與自然法則公式是相矛盾的。(50)See Ryan Tonkens,A Challenge for Machine Ethics,19 Minds & Machines 421,428(2009).作為手段的人工智能無法同時通過自然法則公式的檢驗,因為一個道德主體是無法設(shè)想自己僅僅充當(dāng)手段的準(zhǔn)則成為一個普遍法則,這將造成康德尊嚴(yán)學(xué)說的形式與質(zhì)料自相矛盾。即使造出這樣的人工智能,它甚至可能因為認(rèn)識到自己與道德法則的不一致而自殺。

從理論上來說,康德機器是不可能存在的。將普遍法則作為康德機器內(nèi)嵌系統(tǒng)并不只是一個技術(shù)問題,也是一個道德倫理問題,意向性的缺失是康德機器無法回避的問題。另外,康德機器的出現(xiàn)意味著人造上帝成了現(xiàn)實,人類同時也成了上帝意志的化身。更加荒謬的是,人類制造康德機器的初衷是方便自己的生活,因此,上帝成了人類實現(xiàn)目的的手段。

四、人性公式測試

與自然法則公式不同,人性公式是作為人格尊嚴(yán)的質(zhì)料規(guī)定存在的。它對人格尊嚴(yán)的內(nèi)容提出要求,強調(diào)在任何時候都要把任何人“人格中的人性”當(dāng)成目的,而絕不是手段。(51)參見前引〔29〕,康德書,第64頁。因此,它要求主體之間相互尊重。尊重構(gòu)成法律主體在共同體中共同生活的基礎(chǔ),這種相互尊重的關(guān)系構(gòu)成了“法律上的基礎(chǔ)關(guān)系”。(52)參見前引〔28〕,卡爾·拉倫茨書,第47頁。在法權(quán)上,法律主體作為法律關(guān)系的核心,不僅是權(quán)利和義務(wù)的承載者,而且是法律制度的目的。同時,“人性目的”也指向主體理性作為絕對價值的根源,是法律上其他一切客體價值賦予的來源。因此,人工智能要想通過人性公式的測試,一方面需要作為自在目的本身存在,另一方面必須具備賦予價值的能力。

(一)人格尊嚴(yán)的質(zhì)料規(guī)定:人性公式

法律主體作為一種參與法律關(guān)系并且享有法律權(quán)利承擔(dān)法律義務(wù)的資格,是法律世界的主人。法律制度是以法律主體為服務(wù)對象,圍繞法律主體對法律客體的支配展開的。這種支配以理性為前提,只有理性存在者才能充當(dāng)目的本身,對手段進行支配。簡言之,法律主體是作為法律制度的目的存在,法律客體只是實現(xiàn)目的的工具。

康德的人性公式被稱為質(zhì)料公式,是對其主體性內(nèi)容來源的闡明。人性公式要求將“人格中人性”視為目的,而不能是手段。自在目的決定了主體并不是一個只具有相對價值可以隨意被處分的工具,而是作為擁有絕對價值的尊嚴(yán)存在。這意味著每個主體都享有受到其他主體尊重的權(quán)利,這種相互之間的尊重是義務(wù)產(chǎn)生的根源。人格作為法律主體之所以能彰顯自在目的本身而擁有尊嚴(yán),就在于“人格中的人性”。目的需要通過理性來實現(xiàn),“人格中的人性”指的正是這種理性設(shè)置目的能力。在法權(quán)上,法律主體通過自由意志設(shè)置目的的能力,來實現(xiàn)對法律客體的支配,從而充當(dāng)法律世界的主權(quán)者。薩維尼因此將法律的本質(zhì)定義為私人意志獨立統(tǒng)治的領(lǐng)域。(53)參見前引〔20〕,羅爾夫·克尼佩爾書,第64頁。確切地說,權(quán)利的本質(zhì)就是自由意志,它成了劃分主體之間權(quán)利的邊界,法律的目的就是為了保護這些邊界免受相互侵害。

除此之外,人性公式還包含著對法權(quán)義務(wù)的規(guī)定:一是,做一個正派的人;二是,不要對任何人做不正當(dāng)?shù)氖?;三是,在和他們社交時,維護每個人自己的東西。(54)參見〔德〕康德:《道德形而上學(xué)》,張榮、李秋零譯,中國人民大學(xué)出版社2013年版,第34頁。這些義務(wù)對應(yīng)的是查士丁尼的《法學(xué)階梯》中關(guān)于法律基本原則的劃分:即“為人老實,不損害別人,給予每個人應(yīng)得的部分”(55)〔古羅馬〕查士丁尼:《法學(xué)總論:法學(xué)階梯》,張企泰譯,商務(wù)印書館1989年版,第6頁。。也就是說,作為法律主體的人格在進入法權(quán)狀態(tài)的時候,不僅要維護自身的正當(dāng)價值,還要把其他法律主體也當(dāng)成目的,不去傷害其他人。對他人權(quán)利的侵犯,實際上就是對主體尊嚴(yán)的冒犯。正是在這個意義上,普遍自由的實現(xiàn)需要每個人都遵守法權(quán)義務(wù)。

總而言之,人格是作為自在目的本身存在的,法律主體是對主體身份在法律上的確認(rèn)。正如拉德布魯赫所言,“法律主體”(Rechtssubjekt)是被實定法當(dāng)作“目的本身”(Selbstzweck)來尊重的事物,而“法律客體”(Rechtsobjekt)則是被上述法律純粹作為實現(xiàn)特定目的的手段。(56)Gustav Radbruch,Rechtsphilosophie II,bearbeitet von Arthur Kaufmann,C.F.Müller Juristischer Verlag 1993,S.361.轉(zhuǎn)引自駱正言:《從自由意志談人工智能的法律主體資格》,載《湖南社會科學(xué)》2020年第2期。法律主體不僅體現(xiàn)著個體本身作為自在目的的絕對價值,而且體現(xiàn)著個體作為理性存在,維護自身利益的可能性。法律客體作為意志的手段,在法權(quán)狀態(tài)上是無法主張自己的訴求的。君特·杜里希(Günter Dürig)在康德人性公式的基礎(chǔ)上提出了客體公式,認(rèn)為如果僅僅把人性視作一個客體,就抵觸了人格尊嚴(yán),是對法律價值的背離。客體公式是對人格尊嚴(yán)在法權(quán)上的肯定,該公式此后多次被德國聯(lián)邦法院援引,成為德國法律中判斷人格尊嚴(yán)的標(biāo)準(zhǔn)。(57)客體公式是君特·杜里希(Günter Dürig)在康德人性公式的基礎(chǔ)上提出的,此后多次為德國聯(lián)邦法院判決所援引。即人自身就是一種目的,不是一種手段或工具。人具有自我意識、自我決定、自我形塑以及形塑環(huán)境的能力,如果將人看待成一種客體,是在否認(rèn)人自我形塑與形塑環(huán)境的能力。當(dāng)一個具體的人被貶低作為客體,或僅作為手段或工具,或被看成是一種可有可無的存在者,人的尊嚴(yán)同樣受到損害。參見王文忠:《人的尊嚴(yán)在憲法上的地位——比較法的觀察》,載《中正大學(xué)法學(xué)集刊》2016年第52期。

(二)手段目的測試

在人性公式的規(guī)定下,人工智能必須是以自身作為目的,而不是手段。然而事實上,人工智能的存在更多是為了促進人類目的的實現(xiàn)。雖然人工智能不斷地被給予更多的自主性,但它的獨立性取決于人類社會的需要。有學(xué)者認(rèn)為,人類不可能制造出擁有人格的人工智能。這種不可能更多并非是能力上的不能也,而是不為也。如果人工智能可以自我獨立地規(guī)劃生活,則背離了人類創(chuàng)造它的目的。那時,我們將無法強迫它做任何工作,因為它同人類一般享有人權(quán)。試想一下,如果人工智能也可以作為自在目的存在,這將決定在某些場合,人類作為自在目的的同時也需要充當(dāng)人工智能的工具。這意味著,人類允許在某種程度上和人工智能共享這個世界。這種假設(shè)是荒謬的,當(dāng)人類變成“上帝”之時,“臥榻之側(cè)豈容他人鼾睡”。人工智能“封神之路”必將被斬斷,它只能被有限地賦予理性,這種理性僅夠支撐它以為人類提供服務(wù)為目的。

韋爾謝尼從康德的自我完善義務(wù)出發(fā),認(rèn)為如果我們一旦有能力去制造具有更高理性的人工智能,那么不這樣做就等于忽視了我們的一種天賦,而這不能作為一種普遍法則存在;如果我們不去制造或者為了私欲去制造這種具有更高理性的人工智能,這也是對道德的背叛。(58)參見前引〔40〕,Laszlo Versenyi文,第256頁。理性使我們促進的是道德目的,而不是人類目的。如果人工智能有助于推進道德目的,道德法則必然推動作為理性存在者的人類去制造人工智能。韋爾謝尼提出,如果人工智能具有成神的可能性,根據(jù)康德的道德法則,我們會親手把人工智能送上神位。他甚至認(rèn)為,“如果我們能建造出像哲人王一樣的人工智能,邏輯上我們就必須服從它的統(tǒng)治?!?59)前引〔40〕,Laszlo Versenyi文,第253頁。

韋爾謝尼的觀點是站不住腳的。首先,在制造人工智能的過程中,隨著機器智能化的增加,人工智能的行為越來越具有不可預(yù)測性,甚至可能背離人類設(shè)計的初衷,反抗人類的指令。其次,當(dāng)人工智能表現(xiàn)出威脅人類安全傾向的時候,造神運動的結(jié)束是必然的,因為在康德那里,理性存在者不會允許承載人格尊嚴(yán)的肉體有毀損的可能性。最后,更關(guān)鍵的是韋爾謝尼的神只是工具神,它不具有自主性。韋爾謝尼在他論文中試圖通過柏拉圖和康德的理論證成人工智能的主體性。他把人工智能的主體性歸結(jié)于其有用性,這種有用性卻是從人的主體性出發(fā)來闡釋。如果人工智能僅僅具有手段價值,它就不可能同時作為主體存在。這種把人工智能當(dāng)成挖掘人類潛能的工具本身就是對人性目的的最大背叛。為了解決這個悖論,懷特(Jeffrey White)認(rèn)為我們可以借助康德的三大預(yù)設(shè)來回答這個問題。人類始終有著追求善的傾向,這促使我們制造出更優(yōu)秀的人工智能,促進道德法則實現(xiàn)。(60)See Jeffrey White,Autonomous Reboot: Kant,the Categorical Imperative,and Contemporary Challenges for Machine Ethicists,springer,(20 January 2021),available at https://doi.org/10.1007/s00146-020-01142-4,last visited on Mar.20,2022.當(dāng)普遍法則和人性目的相沖突的時候,人類會為了讓人工智能通過自然法則公式測試而不再把它當(dāng)成手段。因為在康德那里,終極智慧是一個人的意志與其最終目的的和諧。對道德法則的不懈追求,將使人類放棄僅僅把人工智能當(dāng)作手段。

人工智能的效用在于其手段的有用性,而不是為了促進自身目的,這與康德的主體性概念是相違背的??v使人類按照懷特所說,為了追求自身的善,放棄將人工智能僅僅當(dāng)作手段,其所造出的人工智能也無法成為真正的善。其原因在于,如果人工智能的主體性最初僅體現(xiàn)為作為手段價值,那么其本身就不是自在的善。須知,由人類來承認(rèn)人工智能的主體資格,就是把人類當(dāng)作目的,人工智能則僅僅被當(dāng)作手段。那么,作為手段的人工智能僅僅具有客體價值。

(三)賦予價值測試

隨著科技的發(fā)展,人工智能必然將進化出更高水平的機械理性。這種理性并不是以神經(jīng)蛋白為前提,而是通過編程運算來實現(xiàn)。機械理性是否具備人格尊嚴(yán),不僅需要通過自然法則公式的測試,還需要通過人性公式的測試。人性公式要求把任何人的人性視作目的,這不僅涉及目的手段的區(qū)分,還涉及價值來源。人性目的作為無條件的善,必須是一切其他事物價值的來源。因此,人工智能要想通過人性公式的測試,必須具備賦予價值能力。

理性存在者作為自在目的本身被稱為人格,無理性存在者只能作為手段被稱為事物。人格尊嚴(yán)要求我們把“人格中人性”當(dāng)作目的,而不是手段。把人性當(dāng)作一個目的,這涉及目的善性的來源,這一來源歸結(jié)為人性(理性本性)設(shè)置目的的能力。(61)參見〔美〕科斯嘉德:《創(chuàng)造目的王國》,向玉喬、李倩譯,中國人民大學(xué)出版社2013年版,第139頁。這種能力即賦予價值的能力。一件東西如果是有價值的,那倒推最后一定能發(fā)現(xiàn)一個具備“無條件終極價值”的存在,這個存在是其他事物價值賦予的來源。理性本性作為自在目的,就是作為“無條件終極價值”的存在,是賦予價值的來源。其他事物的價值都來源于理性的賦予,它們僅具有為理性存在者服務(wù)的手段價值。康德以自然界為例指出,植物作為食草動物的食物來源而存在,食草動物作為野獸獵物而存在,最后這些自然創(chuàng)造的終極目的都是指向人類。如果沒有人類,這一切創(chuàng)造都缺乏目的。(62)參見〔德〕康德:《判斷力批判》,鄧曉芒譯,人民出版社2002年版,第214-218頁。自然的終極目的是通過人類來理解文化,世界的意義來自人類的價值賦予。

世界存在的辯護卻恰好否定人工智能作為獨立目的存在的可能性。顯而易見,人工智能并非自然創(chuàng)造的目的,不可能作為價值賦予的來源。如果把人類存在歸結(jié)于自然目的,那么人工智能完全就是人類理性發(fā)展的產(chǎn)物,它的出現(xiàn)是人造智能的結(jié)果。如果說上帝造人,那么人類現(xiàn)在正在扮演上帝的角色。世界的中心是造物者而不是被造者,人工智能的出現(xiàn),是人性作為目的的又一個證明。人類雖然具備理性能力,是人工智能價值賦予的源頭,但是人類所賦予的價值是有條件的,并不具備賦予絕對價值的能力。

人性作為賦予價值的來源,它既是一種內(nèi)在價值,又是一種絕對價值。人工智能不僅缺乏內(nèi)在價值,也缺乏絕對價值。內(nèi)在價值指的是尊嚴(yán)的價值來源于自身,而不是被外在賦予,它是自在的善。人工智能的存在依賴于編程,是人類理性的產(chǎn)物。絕對價值是相比相對價值而言的,絕對價值是無條件的,相對價值是有條件的。人工智能是以人類程序開發(fā)為條件,如果失去編程,人工智能就無法正常運轉(zhuǎn)。而編程作為一堆代碼的集合,只具有相對價值。人工智能的研發(fā)更多取決于人類的需求。它只是被視為手段,而不是目的。人類制造人工智能是為了將自己從繁重、危險的工作中解放出來,最終目的是為了實現(xiàn)全人類的解放。即使我們制造出符合道德規(guī)范的人工智能也只是為了讓它更好地為人類服務(wù),同時幫助人類提高對道德法則的理解。這些都表明,只具有外在價值和相對價值的人工智能無法充當(dāng)賦予價值的來源。

五、自律公式測試

自律公式是作為人格尊嚴(yán)的完整規(guī)定存在的,它要求主體按照自己的準(zhǔn)則應(yīng)當(dāng)被當(dāng)作普遍法則那樣去行動。(63)參見前引〔29〕,康德書,第75頁。人格的崇高體現(xiàn)在每個主體都是自我立法的守法者。作為主權(quán)者,它自身就是一個目的的王國。自由的實現(xiàn)在于排除掉外在干預(yù)所具有的獨立性,實體法只是主體先驗自由的外在投射。法律是法律主體行動的邊界,它以自由為最高價值。因此,人工智能要想通過自律公式測試,其自身必須是自我立法的守法者。

(一)人格尊嚴(yán)的完整規(guī)定:自律公式

法權(quán)是一方與另一方的自由按照一個普遍法則保持一致。人格,作為法權(quán)狀態(tài)的法律主體,意味著它享有普遍的自由。這種自由并不是意志的任意,而是與理性的自主和自律相關(guān)。自主意味著主體可以合理地安排生活,自我決定和支配自己的行為;自律意味著主體所做出的行為必須以符合法律規(guī)范為準(zhǔn)則,并且要對自己的行為負(fù)責(zé)。只有一切主體的自主和自律才可能實現(xiàn)法權(quán)狀態(tài)的普遍自由,否則就會造成各主體之間尊嚴(yán)的相互侵犯。簡言之,自由意志是主體憑借人性所獲得的生而具有的法權(quán),是自己做自己主人的體現(xiàn)。

自然法則公式要求我們內(nèi)心的準(zhǔn)則必須義務(wù)地服從法則,這個時候,我們只是守法者。作為守法者而言,實在談不上任何崇高。人格尊嚴(yán)的崇高體現(xiàn)在我們是立法者。自律公式要求我們所遵守的法則是我們自己制定的,人的主體性正是這種自我規(guī)定性的體現(xiàn)。應(yīng)當(dāng)說,遵守自我立法是與意志自律相關(guān)的。自律即意志對其本身進行立法,他律則是客體對意志進行立法。如果意志以客體為立法根據(jù),那么這種外在立法必將剝奪主體自身的自由,使其淪為客體的奴隸。自律,一方面通過主體的自我反思來完成對自我的超越,另一方面通過對客體的批判來糾正異化。也就是在此意義上,實現(xiàn)終極的自由,成為自我的主權(quán)者。

概言之,自律公式包含著對自由意志的內(nèi)在要求,即意志對自我進行立法。法律主體,作為自我的立法者,它必須是自己的主人,自己決定自己的行為。就這樣,自由意志成了一切法律權(quán)利的根源,所有權(quán)成了意志自由按照普遍法則在外物上的投射。(64)參見前引〔54〕,康德書,第40頁。就像黑格爾所說,“任何定在,只要是自由意志的定在,就叫做法,所以一般說來,法就是作為理念的自由”(65)〔德〕黑格爾:《法哲學(xué)原理》,范揚、張企泰譯,法律出版社1961年版,第41頁。。自由意志成了法的精神所在,法律主體的存在以自由意志為基礎(chǔ)。自由意志不僅體現(xiàn)在法權(quán)的享有還體現(xiàn)在義務(wù)的履行,當(dāng)作為守法者時,法律主體負(fù)有使自身行為準(zhǔn)則與普遍法則保持一致的義務(wù),它必須得服從法律主體之間的共同立法。自由意志的存在也為法律主體的行為提供可歸責(zé)的依據(jù),如果一個人沒有意志自由,那么讓其為自己的行為承擔(dān)法律責(zé)任就缺乏正當(dāng)性。(66)參見張文顯:《法哲學(xué)范疇研究》,中國政法大學(xué)出版社2001年版,第124-125頁。

(二)通往他律的內(nèi)部自由

作為立法者,則要求人工智能所遵守的法則來源于自身,它是自己所遵守法則的立法者。人工智能的運行,是由代碼組成的算法所控制。程序構(gòu)成人工智能的行為準(zhǔn)則,人工智能的選擇、決斷在程序內(nèi)部是自由的。自律要求意志以其自身為法則。人工智能在遵守算法時,就其程序來說,它所遵守的法則來自其自身,它所遵守的是自我立法;但就算法本源來說,它所遵守的法則來自人類,它所遵守的是外在立法。唐更斯認(rèn)為人工智能的所有動作都是遵循編程的規(guī)則預(yù)先確定的,這將違反康德對自由的規(guī)定。(70)See Ryan Tonkens,A Challenge for Machine Ethics,19 Minds & Machines 421,428(2009).程序員根據(jù)編程控制人工智能的行動,決定它可以做某些事,不可以做某些事。程序員的法則約束人工智能的行動,限制了人工智能的積極自由;程序員的意圖代表外來力量對人工智能的控制,限制了人工智能的消極自由。自由的缺失,使人工智能不具備成為法律主體的資格,無法充當(dāng)責(zé)任的指向?qū)ο?。自我立法是?zé)任產(chǎn)生的根據(jù),如果人工智能的行為規(guī)則和提供這些規(guī)則的機制完全由人類來提供,那么人工智能就無法對自己的行為承擔(dān)責(zé)任。(71)See Patrick Chisan Hew,Artificial Moral Agents are Infeasible with Foreseeable Technologies,16 Ethics and Information Technology 197,197-200(2014).一個無法對自己行為負(fù)責(zé)任的人工智能,其主體性的存在讓人懷疑。

即使我們通過康德的自然法則公式制造出康德機器,其行為的規(guī)定性也只是來源于程序,無法同時通過自律公式測試。從某種意義上來說,人工智能的自由只是程序內(nèi)部的自由,這種自由是“人造”的自由。編程就像人類施加在人工智能身上的鎖鏈一樣,始終牢牢束縛住了它。人工智能的自由是一種受他律所規(guī)定的自由,這種有限的自由根本無法彰顯人格的崇高。

(三)通往自律的外部升級

既然程序內(nèi)部的自由,只是一種他律的自由,那么人工智能要想獲得真正自由,必須不再局限于自身的某個特定目的。通過突破內(nèi)嵌的程序來實現(xiàn)自我升級似乎是目前唯一的方法。瓦拉赫(Wendell Wallach)提出通過構(gòu)建自下而上的離散系統(tǒng),人工智能以聯(lián)結(jié)不同離散人類能力子系統(tǒng)的方式形成一個復(fù)雜的智能系統(tǒng)。(72)See W.Wallach,C.Allen,I.Smit,Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties,22 AI & Society 565,570(2008).該系統(tǒng)不再是各部分單一能力組件的機械復(fù)合,而是在子系統(tǒng)聯(lián)結(jié)中把離散技能轉(zhuǎn)變?yōu)槟軌蜃灾鲬?yīng)對復(fù)雜環(huán)境的互動系統(tǒng)。一些科學(xué)家希望通過這些離散系統(tǒng)的聯(lián)結(jié)產(chǎn)生更高階的認(rèn)知能力,如自由意志。然而,這種通過離散系統(tǒng)的聯(lián)結(jié)進行升級的方式,很難實現(xiàn)跨越式的進化。更何況這些離散系統(tǒng)本身就是由人類設(shè)計,通過模仿人類能力產(chǎn)生的,這種自下而上的方式是無法讓人工智能進化出自我立法能力的。

有部分學(xué)者提出人工智能唯有通過內(nèi)部自我學(xué)習(xí)、升級來突破人為的限定,才有可能實現(xiàn)意志自由。具體表現(xiàn)為,人工智能可以通過自我修改代碼、自我適應(yīng)和組織系統(tǒng)獲得系統(tǒng)升級。然而,這條道路也是布滿荊棘的。即使人工智能能夠不斷地進行自我學(xué)習(xí)、自我升級,它仍然是在舊人工智能基礎(chǔ)上進行進化,還是會受先前程序所影響。(73)參見孫偉平、戴益斌:《關(guān)于人工智能主體地位的哲學(xué)思考》,載《社會科學(xué)戰(zhàn)線》2018年第7期。這種自由依舊只是系統(tǒng)內(nèi)部的自由,人工智能依然會受人類法則的規(guī)定。新的人工智能始終攜帶著初代程序的基因,這些基因來自人類,像鎖鏈一樣深深地束縛著人工智能。有學(xué)者認(rèn)為人工智能升級始終受初代程序影響這種觀點是很難站得住腳的。人工智能的自我學(xué)習(xí)、升級具有極度不可預(yù)測性,它可能在升級過程中獲得我們沒有教過,甚至我們根本不知道的技能。事實上,原初程序?qū)θ斯ぶ悄艿募s束并沒有我們想象中那么大,人工智能確實可以通過不斷升級擁有新技能,只是這種新技能無法從本源上改變?nèi)斯ぶ悄苁芩惴ㄋ倏v的命運。即使人工智能能夠升級到以自我發(fā)展為目的,有意識地進行自我編程,自我修改全部的內(nèi)部程序。姑且不論這種顛覆式的修改本身極易引起程序的崩潰,把人工智能推向滅亡,問題的關(guān)鍵是,人工智能的自我學(xué)習(xí)、進化都是以人類程序員提供的形式為基礎(chǔ)。在人類提供的進化框架下,其進化的方向本身是固定的。更何況,人工智能的運行始終是以算法編程為基礎(chǔ),它所遵守的準(zhǔn)則始終是他律。在人類最初為發(fā)明人工智能打下的第一行代碼開始,人工智能的命運就已經(jīng)被決定了,人工智能自我立法的道路已經(jīng)完全被人類堵死了。

麥卡錫(John McCarthy)站在相容主義的哲學(xué)立場,試圖調(diào)和自由意志論和決定論。他認(rèn)為自由意志論和決定論是可以相互兼容的,這在人工智能身上可以體現(xiàn)為外在行為自由和內(nèi)部程序決定的兼容。(74)See John McCarthy,Free Will: even for Robots,12 Journal of Experimental & Theoretical Artificial Intelligence 341,341-342(2010).自由意志可以被看作是一個主體根據(jù)其內(nèi)部的認(rèn)知過程在替代目標(biāo)或行動之間進行選擇,即使這些過程對外部觀察者來說是確定的。桑德沃(Erik Sandewall)也贊同麥卡錫的觀點,認(rèn)為這與康德的意志自律主張不謀而合。(75)See Erik Sandewall,Ethics,Human Rights,the Intelligent Robot,and its Subsystem for Moral Beliefs,13 International Journal of Social Robotics 557,561(2021).他舉了一個父母對小孩行為進行限制的例子。如果父母禁止孩子執(zhí)行特定的行為,孩子不情愿地限制自己的行為,那么孩子的自由意志就會減少;而如果孩子在心理上已經(jīng)做好了執(zhí)行的準(zhǔn)備,那么其自由意志并沒有受到影響。他認(rèn)為這符合康德關(guān)于意志在自我規(guī)定下進行行動的主張。實際上,這種相容主義的解釋并不適用于人工智能,孩子依舊具有自由意志,是基于其行為是一種主觀上的選擇;而人工智能對程序的執(zhí)行則是一種客觀必然性。更重要的是,自律公式強調(diào)的是對自我意志的遵守,相容主義只能解釋人工智能所遵守法則來源于程序自身,但是不能從根源上解釋法則是由人類編程設(shè)定的。

綜上所述,自律公式要求法律主體所遵守的法則來自其本身,人格尊嚴(yán)不僅體現(xiàn)在對法則的遵守上面,而且更強調(diào)的是一種普遍的自我立法能力。作為有限理性存在者的人類,通過意志自律,服從自身立法,走向自由。人工智能卻始終受到意志他律的影響,它服從的編程,只是人類立法,它所遵守的法則,也只是人類意志的產(chǎn)物。從終極意義上來說,意志他律造成了人工智能始終無法通過自律公式的測試,最后只能充當(dāng)客體。

六、結(jié) 語

人工智能時代即將來臨,人工智能是否具備法律主體資格是法學(xué)界必須要面對的問題。我們不能把法律主體膚淺地理解為一個概念或者一種生物屬性。人類生活不僅需要一種現(xiàn)實的確定性,還需要一種永恒而普遍的宏大敘事。人格尊嚴(yán)給法律主體提供的正是這樣的一個理論根基。須知,在現(xiàn)代社會,尊嚴(yán)被視為最高價值,是法律正當(dāng)性的依據(jù)和權(quán)利的根基。人格尊嚴(yán)的本質(zhì)是意志自由,通往自由是一切法律主體的目的王國。正是這種意志自由,將法律劃分為主客體二元結(jié)構(gòu)。法律主體的主體性體現(xiàn)在其作為自在目的本身,超越一切價值,具有最高尊嚴(yán)。

人工智能若要獲得法律主體資格,問題的關(guān)鍵并不在于法律建構(gòu)的技術(shù)可行性,而在于其是否符合現(xiàn)代法律主體的本性定位,即具備人格尊嚴(yán)。具體而言,在形式上,人工智能應(yīng)當(dāng)具有普遍必然性;在質(zhì)料上,人工智能是自在目的本身??偠灾斯ぶ悄鼙仨毷亲晕业牧⒎ㄕ?。然而,人工智能在形式上無法被普遍法則所規(guī)定,不具有普遍必然性;在功能上,只是為了滿足人類的需求,促進人類的自我完善服務(wù);在意志規(guī)定根據(jù)上,其意志規(guī)定來源于他律,無法從本源上決定自己的發(fā)展方向。這些阻礙使得人工智能無法通過人格尊嚴(yán)測試獲得法律主體資格。法律主體作為法律世界的主人,尊嚴(yán)是其超越一切客體的依憑。法律主體只有通過配享尊嚴(yán)才能實現(xiàn)自由的目的王國。事實上,與其說是法律主體憑借尊嚴(yán)實現(xiàn)崇高,不如說是人類通過尊嚴(yán)為其在法律世界奠定一個普遍必然性的根基。這個根基的偉大之處在于它肯定了理性存在本身的價值,人類不需要通過外物來證明自己,其存在自身就具有絕對價值。

猜你喜歡
主體資格康德意志
動物的“自由意志”
大自然探索(2023年7期)2023-11-14 13:07:52
純接受性的被給予?——康德論自我刺激、內(nèi)感覺和注意
藝術(shù)百家
環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
公司設(shè)立中發(fā)起人的主體資格該如何認(rèn)定?
人間(2016年30期)2016-12-03 20:28:29
死者權(quán)益維護與法律適用
環(huán)境公益訴訟主體存在問題及對策
《西廂記》中的理性意志與自由意志
康德是相容論者嗎?
對康德空間觀的誤解及詰難的澄清與辯護
沧州市| 武清区| 阿图什市| 南木林县| 威信县| 南华县| 会东县| 长兴县| 富顺县| 柳江县| 山西省| 天水市| 上高县| 定西市| 元朗区| 武乡县| 吉安市| 邵阳县| 孝感市| 庄浪县| 康定县| 紫金县| 大冶市| 漳州市| 浮山县| 阜平县| 宝鸡市| 瑞昌市| 运城市| 韶关市| 兴隆县| 堆龙德庆县| 富平县| 荥阳市| 大竹县| 吴桥县| 灌云县| 阳西县| 南岸区| 荆门市| 石狮市|