国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強(qiáng)人工智能作為特殊物的研究

2022-02-16 20:12:39朱程斌
關(guān)鍵詞:權(quán)利主體人工智能

朱程斌

(重慶大學(xué) 法學(xué)院,重慶 400044)

一、概述

近年來,國(guó)際社會(huì)先后制定了人工智能的相關(guān)法律規(guī)范,以規(guī)避防范人工智能對(duì)人們生產(chǎn)生活帶來的不確定性,但這些立法普遍回避人工智能法律地位的討論。美國(guó)采用行政措施而不是立法來規(guī)制人工智能,2016年2月,美國(guó)國(guó)家公路交通安全管理局(NHTSA)承認(rèn)谷歌公司自動(dòng)駕駛系統(tǒng)可以作為合法駕駛員[1]。2017年以來,德國(guó)先后出臺(tái)、修訂了多部法律規(guī)范,以規(guī)范自動(dòng)駕駛汽車。2017年6月,德國(guó)修訂的《道路交通法》(Achtes Gesetz zurnderung des Stra?enverkehrsgesetzes)在明確自動(dòng)駕駛汽車概念的基礎(chǔ)上,規(guī)定了人類駕駛員在自動(dòng)駕駛中的地位、權(quán)利義務(wù);2021年7月,德國(guó)通過頒布了《自動(dòng)駕駛法》(Gesetz zum autonomen Fahren),明確了L4級(jí)自動(dòng)駕駛汽車的定義,將對(duì)自動(dòng)駕駛汽車的責(zé)任和義務(wù)擴(kuò)大到所有人、使用人、技術(shù)監(jiān)督員和制造商[2]。2021年4月,歐盟通過的《人工智能法案》(Artificial Intelligence Act),系統(tǒng)全面地規(guī)定了人工智能風(fēng)險(xiǎn)預(yù)防的保障機(jī)制和風(fēng)險(xiǎn)應(yīng)對(duì)措施,但未明確人工智能的主體地位問題,而按風(fēng)險(xiǎn)程度將人工智能分為4個(gè)等級(jí)[3],按不同等級(jí)確定生產(chǎn)商、開發(fā)者等主體的權(quán)利、義務(wù)、責(zé)任。我國(guó)也立法對(duì)人工智能進(jìn)行規(guī)范,但沒有明確地規(guī)定人工智能的法律地位。2021年8月20日,全國(guó)人民代表大會(huì)常務(wù)委員會(huì)第三十次會(huì)議通過的《中國(guó)人民共和國(guó)個(gè)人信息保護(hù)法》第24條規(guī)定了自動(dòng)化決策處理個(gè)人信息的原則、規(guī)則和注意事項(xiàng)(1)《中華人民共和國(guó)個(gè)人信息保護(hù)法》。https:∥www.pkulaw.com/chl/d653ed619d0961c0bdfb.html?keyword=%E4%B8%AA%E4%BA%BA%E4%BF%A1%E6%81%AF%E4%BF%9D%E6%8A%A4%E6%B3%95。,但尚未對(duì)自動(dòng)化算法地位進(jìn)行規(guī)定。2021年8月20日,國(guó)家市場(chǎng)監(jiān)督管理總局、國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)批準(zhǔn)發(fā)布的《汽車駕駛自動(dòng)化分級(jí)》(GB/T 40429—2021)[4],將自動(dòng)駕駛汽車劃為0~5級(jí),按不同級(jí)別分別規(guī)定生產(chǎn)商、開發(fā)者等主體的權(quán)利、義務(wù)和責(zé)任。

目前,學(xué)界對(duì)強(qiáng)人工智能的看法多數(shù)從主體角度出發(fā),認(rèn)為強(qiáng)人工智能具有獲得法律主體的能力和可能主要有幾種觀點(diǎn)。第一種觀點(diǎn)認(rèn)為,應(yīng)賦予人工智能完全法律主體地位。哈伯德(Hubbard)教授認(rèn)為,人工智能滿足一定條件就可以獲得主體資格,這些條件包括感知周遭環(huán)境、自我意識(shí)指導(dǎo)下進(jìn)行人生規(guī)劃和自我利益主導(dǎo)下同其他人一起生活等的能力[5];莫宏偉教授認(rèn)為,強(qiáng)人工智能應(yīng)該具有人的地位,因?yàn)閺?qiáng)人工智能具有“自我意識(shí)以及人性或人格”,不承認(rèn)強(qiáng)人工智能主體地位的討論“是沒有意義的”[6]。第二種觀點(diǎn)認(rèn)為,人工智能的法律主體地位應(yīng)限制在一定范圍內(nèi)。范進(jìn)學(xué)教授認(rèn)為,“無論是弱人工智能或強(qiáng)人工智能,都具有某種程度或方面的法律主體資格”[7];劉憲權(quán)教授認(rèn)為,雖然強(qiáng)人工智能 “具有辨認(rèn)能力和控制能力”,是法律主體,但設(shè)計(jì)者和使用者負(fù)有“預(yù)見義務(wù)和監(jiān)督義務(wù)”[8]。第三種觀點(diǎn)否定強(qiáng)人工智能法律主體地位。學(xué)者是從人的角度去論證,葉良芳教授認(rèn)為,與人相比,強(qiáng)人工智能只有編程算法而沒有心智意識(shí),強(qiáng)人工智能沒有主體地位[9];杰恩斯(Jaynes)教授認(rèn)為盡管討論人工智能是否具有人的主體地位過早,但是也應(yīng)考慮對(duì)人工智能這種非生物智能的保護(hù)措施[10]。

學(xué)者對(duì)智慧、主體的規(guī)定和討論不能代替對(duì)強(qiáng)人工智能作為物的規(guī)定和討論,法律上對(duì)物的規(guī)定和制度有別于對(duì)主體的規(guī)定和制度,應(yīng)以對(duì)強(qiáng)人工智能的控制力大小為標(biāo)準(zhǔn),確定各主體對(duì)強(qiáng)人工智能作為特殊物的權(quán)利、義務(wù)和責(zé)任。本文從主體角度出發(fā),討論賦予強(qiáng)人工智能以主體地位不足以解決強(qiáng)人工智能的實(shí)踐和理論問題;在承認(rèn)強(qiáng)人工智能具有智能的基礎(chǔ)上,討論智能的有無不是主體地位獲得的必要條件;同時(shí),以各主體對(duì)強(qiáng)人工智能的控制力大小來確定各主體的權(quán)利和義務(wù),并且簡(jiǎn)要討論了強(qiáng)人工智能權(quán)益享有和責(zé)任承擔(dān)問題。

二、強(qiáng)人工智能的法律責(zé)任

我們對(duì)強(qiáng)人工智能的討論不能僅僅停留在主體問題上,也不能僅僅從主體角度出發(fā)考慮強(qiáng)人工智能的所有相關(guān)問題,主體之外的問題也是強(qiáng)人工智能研究的重要方向;對(duì)強(qiáng)人工智能主體的研究最終還是會(huì)回到人承擔(dān)責(zé)任的問題上,無論怎樣擬制強(qiáng)人工智能的法律主體地位,法律責(zé)任終究是人或人組成的社會(huì)的責(zé)任。

(一)賦予強(qiáng)人工智能法律主體地位在應(yīng)用時(shí)難以做到權(quán)責(zé)相適應(yīng)

本文以全自動(dòng)駕駛汽車為例,觀察強(qiáng)人工智能的應(yīng)用,可以看出,賦予強(qiáng)人工智能以主體地位,不足以解決強(qiáng)人工智能應(yīng)用中存在的權(quán)責(zé)問題。全自動(dòng)駕駛對(duì)于半自動(dòng)駕駛來說是強(qiáng)人工智能,但不論是L2級(jí)別的半自動(dòng)駕駛,還是L3及以上的全自動(dòng)駕駛,都不能回答一個(gè)實(shí)踐中的問題,即法律責(zé)任應(yīng)不應(yīng)直接全部最終由汽車本身承擔(dān)。

對(duì)于L3及以上的全自動(dòng)駕駛,本文通過具體例子加以說明。例如,行人不慎跌到了行車道,被行駛過來的全自動(dòng)駕駛汽車撞上,致行人當(dāng)場(chǎng)死亡。該事故責(zé)任承擔(dān)方面,第一,既然全自動(dòng)駕駛汽車是法律主體,就沒有苛責(zé)所有者或使用者責(zé)任的基礎(chǔ),即便受害人家屬起訴,也沒有理由追究所有者或使用者的責(zé)任[11]。第二,全自動(dòng)駕駛汽車生產(chǎn)商承擔(dān)產(chǎn)品責(zé)任。我國(guó)法律規(guī)定,因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任(2)《中華人民共和國(guó)民法典》第一千二百零二條規(guī)定:“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任?!県ttps:∥www.pkulaw.com/chl/aa00daaeb5a4fe4ebdfb.html?keyword=%E6%B0%91%E6%B3%95%E5%85%B8。,受害人近親屬可以以汽車生產(chǎn)商為被告提起訴訟。一旦受害人的近親屬起訴,汽車制造商就有義務(wù)向法官、受害人近親屬和律師,甚至是監(jiān)管機(jī)構(gòu)提供該產(chǎn)品的設(shè)計(jì)標(biāo)準(zhǔn),展示自動(dòng)駕駛汽車的感知系統(tǒng)和決策系統(tǒng),解釋清楚產(chǎn)品的安全保障機(jī)制,并且說明是否在彼時(shí)不能做到安全規(guī)避,等等。

全自動(dòng)駕駛汽車縱然必然無法避讓而造成交通事故,仍舊會(huì)引起大眾、專家倫理上的疑慮。全自動(dòng)駕駛汽車等強(qiáng)人工智能的倫理可以被算法扭曲,致使強(qiáng)人工智能必然為了被設(shè)定的目標(biāo)而侵犯其他主體的權(quán)益[12]。全自動(dòng)駕駛汽車在交通事故不可避免時(shí)甚至可能因?yàn)楦蝗说娜松碡?cái)產(chǎn)安全而選擇撞死窮人,顯然,賠償窮人會(huì)減少訴訟糾紛和經(jīng)濟(jì)損失。換言之,算法會(huì)選擇性地侵害窮人或弱勢(shì)群體,為他們提供更小的緩沖區(qū),并增加他們權(quán)益被侵害的風(fēng)險(xiǎn)。

本文認(rèn)為,全自動(dòng)駕駛汽車交通事故的責(zé)任承擔(dān)不符合大眾和社會(huì)的一般情理判斷。全自動(dòng)駕駛汽車承擔(dān)了責(zé)任,但車輛生產(chǎn)商逃避不了責(zé)任,那全自動(dòng)駕駛汽車作為主體的意義何在?另外,車輛的所有人在全自動(dòng)駕駛車事故中似乎不對(duì)交通事故負(fù)任何責(zé)任,但實(shí)際上,生產(chǎn)商會(huì)利用其他制度,比如增加車輛售價(jià)以購買保險(xiǎn)或成立事故賠償基金,將車輛的責(zé)任轉(zhuǎn)移給汽車所有人或使用人。簡(jiǎn)言之,責(zé)任最終還是由消費(fèi)者承擔(dān),而不是作為主體的汽車。

(二)賦予強(qiáng)人工智能法律主體地位在理論上難以做到權(quán)責(zé)相適應(yīng)

強(qiáng)人工智能不僅應(yīng)用時(shí)難以通過法律主體視角合理公平地分配責(zé)任,而且理論上也不能僅僅靠法律主體理論合理地分配權(quán)利、義務(wù)和責(zé)任。強(qiáng)人工智能主體制度的設(shè)計(jì)有兩種途徑,分別是在現(xiàn)有的法人體系下將強(qiáng)人工智能擬制為法人,以及在現(xiàn)有的主體制度外為強(qiáng)人工智能單獨(dú)地設(shè)立主體地位。

第一,強(qiáng)人工智能主體制度設(shè)計(jì)的第一種途徑,是通過適當(dāng)?shù)脑O(shè)計(jì),使強(qiáng)人工智能獲得法人的主體地位[13]。強(qiáng)人工智能和法人從結(jié)構(gòu)上看極具相似性[14],一方面,二者都圍繞特定的核心協(xié)議設(shè)立,法人的核心協(xié)議是章程,強(qiáng)人工智能的核心協(xié)議是算法[15];另一方面,二者不僅圍繞核心協(xié)議做出意思表示,而且意思表示的生成均都遵從特定的程序,法人根據(jù)公司的章程按程序做出意思表示,強(qiáng)人工智能依據(jù)算法邏輯地做出意思表示;此外,二者都有執(zhí)行核心協(xié)議和意思表示的能力,法人有構(gòu)建完整的意思執(zhí)行機(jī)構(gòu),強(qiáng)人工智能在相應(yīng)輔助設(shè)備完善的情況下也可以直接高效地執(zhí)行算法。

但強(qiáng)人工智能法人的意思表示和意思執(zhí)行實(shí)際上脫離了設(shè)立者、股東的設(shè)想,至少可以說強(qiáng)人工智能法人一旦設(shè)立就脫離了設(shè)立者、股東的控制。也就是說,強(qiáng)人工智能法人意思表示和執(zhí)行其實(shí)是自我表示和執(zhí)行的,股東、股東大會(huì)和其他公司治理制度對(duì)強(qiáng)人工智能法人沒有約束力。除非股東大會(huì)決定中止強(qiáng)人工智能的運(yùn)作,另行寫入其他程序。但是,一旦繼續(xù)允許強(qiáng)人工智能運(yùn)行,強(qiáng)人工智能法人權(quán)利的享有仍舊是脫離約束的。

這會(huì)造成權(quán)利由強(qiáng)人工智能不受約束地享有,法律責(zé)任卻不由強(qiáng)人工智能法人獨(dú)自承擔(dān)的情況出現(xiàn)。我國(guó)對(duì)法人違法犯罪實(shí)行雙罰制(3)《中華人民共和國(guó)刑法》第三十一條規(guī)定:“單位犯罪的,對(duì)單位判處罰金,并對(duì)其直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員判處刑罰。本法分則和其他法律另有規(guī)定的,依照規(guī)定?!県ttps:∥www.pkulaw.com/chl/39c1b78830b970eabdfb.html?keyword=%E5%88%91%E6%B3%95。,由此便可能造成實(shí)際未進(jìn)行公司管理的高級(jí)管理人員或直接責(zé)任人承擔(dān)違法[16]或刑事責(zé)任[17]。實(shí)際被架空的高級(jí)管理人員或直接責(zé)任人,當(dāng)然可以以未參加管理為理由進(jìn)行抗辯,但是這無異于自認(rèn)疏于管理。而一旦法律強(qiáng)制讓強(qiáng)人工智能法人接受高級(jí)管理人員的約束,便會(huì)造成強(qiáng)人工智能法人無法按算法順利地做出、執(zhí)行意思表示,結(jié)果就將背離設(shè)立強(qiáng)人工智能高效、經(jīng)濟(jì)的初衷,導(dǎo)致算力浪費(fèi),造成法律賦予強(qiáng)人工智能法人人格無效或低效配置。

第二,強(qiáng)人工智能主體制度設(shè)計(jì)的第二種途徑,是在現(xiàn)行的法人制度框架外,另外為強(qiáng)人工智能設(shè)置一種主體資格,學(xué)界稱其為“強(qiáng)人工智能電子人”或“電子人”[18]。但電子人僅能承擔(dān)財(cái)產(chǎn)責(zé)任,而不能承擔(dān)人身責(zé)任[19]。電子人這類法律主體的設(shè)置主要是為了滿足人類生活,其權(quán)利和義務(wù)也主要是財(cái)產(chǎn)性的。以刑罰來說,人類會(huì)因?yàn)樯挠邢扌远ε卤慌刑幱衅诨驘o期徒刑,強(qiáng)人工智能卻沒有這種憂慮。一方面,法律責(zé)任的承擔(dān)方式是從人類壽命有限出發(fā)考慮的;另一方面,人類無法做到身體、意識(shí)和靈魂不朽,人的預(yù)期壽命不僅有限,而且一般的也因?yàn)閴勖邢薅邢薜貏?chuàng)造財(cái)富。因此,對(duì)于人類來說,不論是課加財(cái)產(chǎn)罰,還是徒刑罰,都是在限制人和人的可能性。

然而,電子人卻沒有這些擔(dān)心,不論是財(cái)產(chǎn)罰,還是徒刑罰,對(duì)其都沒有規(guī)范的邏輯起點(diǎn)。以往立法者設(shè)置責(zé)任、刑罰考慮和衡量的出發(fā)點(diǎn)有兩個(gè),一個(gè)是違法、犯罪的嚴(yán)重程度;另一個(gè)是懲罰的梯度設(shè)置,良好的立法應(yīng)該做到責(zé)罰相適應(yīng)、罪刑相適應(yīng)[20]?,F(xiàn)代社會(huì)法律價(jià)值追求的責(zé)罰相適應(yīng)、罪刑相適應(yīng)的邏輯起點(diǎn)就在于考慮了人類生命的有限性。例如,人們?nèi)粽J(rèn)為,500萬元的行政處罰過多,或判處20年徒刑過重時(shí),是在說這些懲罰與一個(gè)人一輩子能夠創(chuàng)造的財(cái)富、擁有的壽命相比顯得過多和過重了。由此,這就造成了矛盾,電子人權(quán)利、義務(wù)的享有、負(fù)擔(dān)既然來自于以自然人為主體的規(guī)范體系,但現(xiàn)有規(guī)范體系的責(zé)罰卻因?yàn)殡娮尤藷o生命和實(shí)體,而不能對(duì)電子人做到責(zé)罰相適應(yīng)、罪刑相適應(yīng)。

三、強(qiáng)人工智能的法律意義

強(qiáng)人工智能不能因?yàn)榫哂兄悄芏@得法律主體地位。法律既可以否認(rèn)智能存在的法律主體地位,也可以賦予無智能存在以主體地位。換言之,強(qiáng)人工智能法律主體地位的獲得僅僅是因?yàn)榉杉夹g(shù)而已。無腦兒(anencephaly)或者癡呆兒盡管沒有智能,卻是法律上的主體,享有各種權(quán)利。寵物、動(dòng)物盡管有一定的智能卻是法律上的物。對(duì)于法律上的物而言,是否有智能和占有、處分、收益、管理、責(zé)任承擔(dān)密切相關(guān)。

(一)法律上的智能物

智能不是理解法律的必要條件。人們很難想象一只貓、一匹馬或一只狗能理解人的法律,遵守人類社會(huì)的各種規(guī)范。特定國(guó)家的人如果不懂另一國(guó)的語言、風(fēng)俗習(xí)慣,也很難理解另一國(guó)的法律。至今,生活在亞馬遜雨林深處的毗拉哈人,仍缺少任何能夠理解現(xiàn)代法律的必要文化要素[21],例如紅燈停這種簡(jiǎn)單的認(rèn)識(shí)。

語言不僅是阻礙人類彼此理解的存在,也阻礙了人工智能理解人類法律。人工智能所使用的是形式語言,盡管它們可以在某種程度上模擬人腦產(chǎn)生自我想法[22],但是人類語言的復(fù)雜性遠(yuǎn)非強(qiáng)人工智能能夠理解。形式語言是由命題組成的,命題的最小單位是真值函項(xiàng)[23]。真值函項(xiàng)只有兩種形態(tài),“是”和“否”,計(jì)算機(jī)語言中0表示“否”,1表示“是”。計(jì)算機(jī)所有的判斷都借助電路的斷開、聯(lián)通,0表示電路斷開,1表示電路聯(lián)通。質(zhì)言之,計(jì)算機(jī)的形式語言是固定的。

實(shí)際上,人類語言意義和概念的確定性是在使用中獲得的,是在互動(dòng)交流中確定的[24]。計(jì)算機(jī)的系統(tǒng)性形式語言是描述性的,重視文本、語料庫等已經(jīng)具有的固定含義[25]。人類會(huì)因?yàn)椤半p關(guān)語”的笑話而開懷大笑,計(jì)算機(jī)和強(qiáng)人工智能最多只解釋、了解雙關(guān)語的不同靜態(tài)含義,即“技術(shù)只能幫助人類搜集更多事件信息,卻無法針對(duì)相關(guān)事件給出確切的解釋”[26]。另外,人類以自然語言表現(xiàn)出來的特殊性,不僅在于其所處的語言系統(tǒng),還在于那些被稱為“精神”或“價(jià)值”的系統(tǒng)具有獨(dú)特性,計(jì)算機(jī)形式語言的形式、通用性在應(yīng)對(duì)這種特殊性時(shí)捉襟見肘。

法律是人類附加意義和價(jià)值追求的規(guī)范和規(guī)范體系。當(dāng)前,強(qiáng)人工智能工作最底層邏輯是真?zhèn)蔚呐袛?,而不是這之外的第三種判斷。人類在活動(dòng)時(shí)除了判斷“是”和“否”外,還判斷“應(yīng)該”?!笆恰焙汀胺瘛笔菑?qiáng)人工智能和計(jì)算機(jī)能夠理解的,但是“應(yīng)該”包含的價(jià)值判斷就遠(yuǎn)遠(yuǎn)超出了強(qiáng)人工智能的能力。價(jià)值曾被排除在法律之外,但二戰(zhàn)改變了這一狀況。

如果只有“是”“否”,而沒有“應(yīng)該”,人類社會(huì)也許會(huì)重蹈二戰(zhàn)的悲劇。二戰(zhàn)前,世界各地,尤其是英美法等發(fā)達(dá)資本主義國(guó)家,打著科學(xué)主義的旗幟,打著社會(huì)達(dá)爾文主義和優(yōu)生優(yōu)育的旗號(hào),限制、剝奪低智商、有色人種等特定人群的生育權(quán)、生命權(quán),將倫理價(jià)值排除在法律之外,普遍肆無忌憚地推行種族滅絕的政策、法律,德日納粹是其中最極端的[27]。二戰(zhàn)后,法律和法學(xué)開始著重強(qiáng)調(diào)、遵循倫理和價(jià)值[28]。1946年,拉德布魯赫(Radbruch)在《法律的不法和超法律的法》中提出了被當(dāng)代社會(huì)奉為圭臬的“拉德布魯赫公式”,即不正義和不平等的制定法不僅不是正確的法,“甚至根本就缺乏法的性質(zhì)”[29]。

(二)法律上的無智能主體

法學(xué)界對(duì)強(qiáng)人工智能是否可以具有主體地位的討論一般都從智能角度出發(fā),但實(shí)際上,從中外法制史的角度看,智能從來就不是評(píng)判人、物或觀念是否是主體的標(biāo)準(zhǔn)。從規(guī)范角度看,法律在乎的是主體概念本身[30],沒有智能可以獲得法律主體地位,例如無腦兒有法律主體地位。無腦兒是指嬰兒出生時(shí)沒有大腦和部分頭骨,但出生時(shí)卻有可能倚靠自主呼吸存活一段時(shí)間[31]。美國(guó)是通過以下判例來確定無腦兒的法律主體地位的。1992年3月21日,特蕾莎(Theresa)于美國(guó)佛羅里達(dá)州出生,出生后即被診斷為無腦兒。特蕾莎的父母為了捐獻(xiàn)特蕾莎的器官,要求醫(yī)生宣布特蕾莎死亡,但是醫(yī)生拒絕了。特蕾莎父母于是向法院提交申請(qǐng),請(qǐng)求法院宣告特蕾莎死亡。案件經(jīng)過四次審理,佛羅里達(dá)州最高法院最終還是認(rèn)為特蕾莎的生命權(quán)應(yīng)獲得法律保護(hù),駁回了特蕾莎父母的申請(qǐng)[32]。

但有醫(yī)學(xué)和法學(xué)學(xué)者認(rèn)為,法律上的人和生物人是有區(qū)別的,法律主體所擁有的人格是人類獲得認(rèn)識(shí)能力、精神和意志而形成意識(shí)后才具備的。也就是說,人和法律主體地位不必然產(chǎn)生聯(lián)系,而意識(shí)是道德、法律和憲法賦予人以法律主體和法律人格的最關(guān)鍵標(biāo)準(zhǔn)[33]。這些醫(yī)學(xué)和法學(xué)學(xué)者認(rèn)為,人雖然在受孕后一段時(shí)間即告存在,但直到獲得意識(shí)和精神生活能力才開始在法律上存在,當(dāng)永久失去這種能力時(shí)就在法律上死亡;人格只在大腦結(jié)構(gòu)發(fā)育完整時(shí)才獲得發(fā)展,某些認(rèn)知功能的潛能對(duì)于人格是必要的[34];無腦兒從來沒有發(fā)育出大腦,因此他們不是法律、道德意義上的人。根據(jù)類似的推理,有學(xué)者甚至認(rèn)為,患者如果因?yàn)閯?chuàng)傷或疾病導(dǎo)致大腦功能受到不可逆的損害,也不能算作法律上的人[35]。

我國(guó)現(xiàn)行的法律認(rèn)為,自主呼吸的病患是法律上的主體,享有法律保護(hù)的生命健康權(quán)等在內(nèi)的各種權(quán)利。例如,我國(guó)法律規(guī)定人的權(quán)利能力始于出生,終于死亡(4)《中華人民共和國(guó)民法典》第十三條規(guī)定:“自然人從出生時(shí)起到死亡時(shí)止,具有民事權(quán)利能力,依法享有民事權(quán)利,承擔(dān)民事義務(wù)?!県ttps:∥www.pkulaw.com/chl/aaoodaaeb5a4febdfb.html?keyword=%E6%B0%91%E6%B395%E5%B8。。在自主呼吸的前提下增加是否有自主意識(shí)從根本上說是在挑戰(zhàn)康德主義,挑戰(zhàn)“人是目的,而不是手段”[36]。如果有人認(rèn)為無腦兒太過極端,那么可以將無腦兒換成植物人來思考以上問題。

(三)法律主體是時(shí)代性的法律擬制

強(qiáng)人工智能法律地位的獲得完全可以不因?yàn)槠渚哂兄悄?,但是在賦予其以法律主體地位之前,人類應(yīng)考慮該怎樣去設(shè)置法律規(guī)定它的法律地位,以維護(hù)這個(gè)時(shí)代人類所追求的價(jià)值。

在階級(jí)社會(huì)中,人因?yàn)樯矸?、血緣等因素被分為不同等?jí),人的法律地位因此也不相同[37]。古巴比倫王國(guó)公元前18世紀(jì)頒行的《漢謨拉比法典》(The Code of Hammurabi)第116條直接地體現(xiàn)身份不同處罰不同,即借貸者交給債主的人質(zhì)被毆打或虐待致死時(shí),人質(zhì)“倘為自由民之子,則應(yīng)殺其子,倘為自由民之奴隸,則彼應(yīng)賠償銀三分之一明那”[38]。在古羅馬法中,法律主體身份的獲得,不是因?yàn)槿说纳矸莴@得的,而是通過法律人格獲得的,“當(dāng)一個(gè)人(homo)具備足以使其獲得權(quán)利能力的條件時(shí),在技術(shù)用語上被成為persona(人)[39]?!?/p>

完善基礎(chǔ)建設(shè),促進(jìn)生態(tài)發(fā)展是落實(shí)智慧城市的重要工作,由于城鄉(xiāng)規(guī)劃工作涉及面積較廣,人口和社會(huì)結(jié)構(gòu)的復(fù)雜性導(dǎo)致部分區(qū)域的基礎(chǔ)設(shè)備和公共設(shè)施缺失,智慧城市背景下,既要重視該區(qū)域的基礎(chǔ)設(shè)備與公共設(shè)施的完善,還要注重綠色生態(tài),提高目標(biāo)區(qū)域的宜居性。做好該工作需從以下幾點(diǎn)著手:

理性,尤其是假設(shè)人類普遍具有理性,奠定了近現(xiàn)代人類社會(huì)的價(jià)值基礎(chǔ)。對(duì)理性的確信使得當(dāng)時(shí)的學(xué)者為各學(xué)科構(gòu)建了一系列基本原則,并在這些原則上推演出了比較完備的體系和制度。政治和法律方面,霍布斯、洛克、盧梭等人紛紛從“自然狀態(tài)”出發(fā)構(gòu)建自己的理論:人類計(jì)算自然狀態(tài)的各種得失,紛紛從自然狀態(tài)走出來,運(yùn)用自己的理性,通過社會(huì)契約建立政府、國(guó)家等政治組織,以更好地維護(hù)人的權(quán)利。

但不論在哪個(gè)時(shí)代,賦予物以主體身份都是常見的。人類在不承認(rèn)奴隸和黑奴法律主體地位的同時(shí),卻通過法律大量地將沒有生命的自然物或人類創(chuàng)造物擬制為法律主體。人類文明早期普遍地賦予神祗、祭祀物以特殊的法律主體地位,以維護(hù)身份和血緣社會(huì)的統(tǒng)治秩序。近現(xiàn)代以來為了更高效地組織生產(chǎn)、銷售,為了更大規(guī)模地創(chuàng)造財(cái)富,世界各國(guó)普遍地將公司擬制為法律上的人,賦予公司以權(quán)利和義務(wù)。當(dāng)代社會(huì)對(duì)環(huán)境保護(hù)的重視引發(fā)了賦予自然物以法律主體地位的討論,新西蘭等國(guó)已經(jīng)立法賦予河流以法律主體地位[40]。

四、強(qiáng)人工智能的獨(dú)立自主性

強(qiáng)人工智能的特殊性就在于受多主體控制。既然強(qiáng)人工智能不能完全被特定主體控制,而放任其成為獨(dú)立法律主體又會(huì)導(dǎo)致法律義務(wù)和責(zé)任虛置,那么就應(yīng)該為各控制主體更恰當(dāng)?shù)胤峙錂?quán)利、義務(wù)和責(zé)任。因此,應(yīng)在認(rèn)清強(qiáng)人工智能是何物的前提下,更好地規(guī)制或作為物,或擬制為主體的強(qiáng)人工智能。本文認(rèn)為,強(qiáng)人工智能應(yīng)根據(jù)開發(fā)者、所有者、生產(chǎn)者、使用者和運(yùn)營(yíng)者對(duì)它的控制,來界定各主體的所有權(quán)、使用權(quán)、收益權(quán)和處分權(quán)等權(quán)益,而且相應(yīng)的義務(wù)、責(zé)任承擔(dān)應(yīng)按法律規(guī)定確定,不因?yàn)橐陨细鞣疆?dāng)事人的合同約定被免除。

(一)強(qiáng)人工智能不自由

控制的本質(zhì)在于自由,不受控制或自由是責(zé)任承擔(dān)的基礎(chǔ)。人應(yīng)對(duì)自己的行為負(fù)責(zé),法律以主體不受控制的自由為前提。如果主體不自由,或被命運(yùn)或被其他的主體或物控制,人就成了工具,就無所謂主觀認(rèn)識(shí)和主觀能動(dòng)性,法律尤其是法律責(zé)任的基礎(chǔ)就不復(fù)存在。人工智能的工作原理決定了它是受到控制的,這就使得人工智能單獨(dú)承擔(dān)侵權(quán)責(zé)任沒有理論基礎(chǔ)。

沒有自由,法律就是因果律或神的命令,就無所謂人為自己立法。如果人的選擇是受控制的必然,所有的行為都受因果律或神的絕對(duì)支配,那么行為和結(jié)果之間的因果關(guān)系就和人的主觀能動(dòng)無關(guān),法對(duì)人的規(guī)定就是沒有理論基礎(chǔ)的,或者說人是決定論的奴隸。因此,人受控制的情況下,法律責(zé)任毋寧是被強(qiáng)加給人的。權(quán)利也因?yàn)橹黧w是自由的才是可能的,正如薩維尼所說,“所有的權(quán)利,皆因倫理性的內(nèi)在于個(gè)人的自由而存在[41]?!?/p>

法的“確定地位和出發(fā)點(diǎn)是自由”[42],法律將自由和能夠轉(zhuǎn)述為“應(yīng)”“應(yīng)該”或“應(yīng)當(dāng)”。法律建立的基礎(chǔ)是人可以在“是”和“否”之外自由選擇,即法律除了判斷“是”和“否”之外還判斷“應(yīng)當(dāng)”,而且法律主要以“應(yīng)當(dāng)”為連接詞來賦予權(quán)利、課加義務(wù)或責(zé)任、施加懲罰。權(quán)利的普遍法則就是,主體“意志的自由行使…能夠和其他所有人的自由意志并存”[43],而義務(wù)在于保障主體的權(quán)利和其他主體的權(quán)利并存,責(zé)任和懲罰是對(duì)權(quán)利的救濟(jì)。即權(quán)利、義務(wù)、責(zé)任和懲罰都是和“自由”“能夠”相關(guān),而不是事實(shí)上的“是”和“否”。

強(qiáng)人工智能本質(zhì)上是無自由的存在,應(yīng)被歸類為物。形式邏輯不是法律邏輯。人工智能的基礎(chǔ)是二進(jìn)制的形式邏輯,在“是”和“否”之間做出判斷,而沒有能力做出“應(yīng)該”的判斷,沒有自由選擇的可能。人工智能做出決定和決策的前提是,它們能夠獲得這個(gè)世界的知識(shí),而這些知識(shí)或是人類輸入的,或是它們根據(jù)人類設(shè)置的規(guī)則而生成的[44]。無論是人工輸入還是自動(dòng)生成,人工智能語言、計(jì)算機(jī)語言其實(shí)都是二進(jìn)制的形式語言[45],而不是法律上的規(guī)范因果關(guān)系。法律據(jù)以確立和運(yùn)行的因果關(guān)系是規(guī)范性的[46],即法律規(guī)定的原因在法律主體間引起了法律規(guī)定的結(jié)果。也就是說,原因和結(jié)果都由法律規(guī)定,是不是法律因果關(guān)系的判斷不完全是邏輯上的因果判斷[47],即便邏輯上有特定因果關(guān)系而法律沒有規(guī)定也不成立法律因果關(guān)系。

(二)物的概念能夠涵蓋強(qiáng)人工智能

物是被法律認(rèn)可了的存在,至于是自然存在、社會(huì)存在還是虛擬存在,是人、是山石花鳥,還是寵物、牲畜,法律在所不問。法律關(guān)注的是物這個(gè)概念本身,法律一般不會(huì)詳細(xì)地列舉物具體有哪些,英美法不作明確規(guī)定,大陸法也是如此[48]。但有一點(diǎn)是肯定的,不論是英美法、大陸法還是我國(guó)法律,均認(rèn)為物是受法律主體控制的。

物是被法律認(rèn)可了的存在,是不自由、受控制的存在。理論上,學(xué)者認(rèn)為無論是古羅馬法、法國(guó)法、德國(guó)法還是英國(guó)法,都認(rèn)為對(duì)物的控制是法律上物的必要條件[49]。我國(guó)學(xué)者也認(rèn)為物應(yīng)在人的有效控制之下。史尚寬在《民法總論》中論述,“物者,謂有體物及法律上具能支配之自然力?!盵50]王利民在《中國(guó)民法典草案建議稿及說明》中對(duì)物的定義是,為人力所控制并且具有經(jīng)濟(jì)價(jià)值的有體物[51]。孟勤國(guó)[52]、楊立新[53]等也都表達(dá)了物應(yīng)為人力控制的觀點(diǎn)。

(三)強(qiáng)人工智能的控制主體多樣

完全自主的強(qiáng)人工智能,或者說強(qiáng)人工智能所造成的沖擊是當(dāng)下法律規(guī)范所不能應(yīng)對(duì)的。強(qiáng)人工智能的二進(jìn)制形式語言不能理解對(duì)于人類至關(guān)重要的“應(yīng)當(dāng)”,現(xiàn)階段只會(huì)判斷對(duì)和錯(cuò)、是和否,從對(duì)和錯(cuò)、是和否中產(chǎn)生不了應(yīng)當(dāng),而避免兩次世界大戰(zhàn)和奴隸制這樣的劫難和非人道主義,只能求助于倫理上的應(yīng)當(dāng),只能借助道德和社會(huì)價(jià)值。正如康德在探尋知識(shí)和理性后的感嘆,“我不得不懸置知識(shí),以便給信仰騰出位置[57]。”

因此,本文不認(rèn)同強(qiáng)人工智能當(dāng)然地?fù)碛兄黧w地位,但法律出于一定目的可以在強(qiáng)人工智能是物的基礎(chǔ)上將強(qiáng)人工智能擬制為主體。強(qiáng)人工智能即便被擬制為主體仍舊需要“監(jiān)護(hù)人”,其自身不能完全獨(dú)立承擔(dān)義務(wù)和責(zé)任,且權(quán)益、義務(wù)和責(zé)任均應(yīng)按各主體的控制力大小分配。至于和強(qiáng)人工智能相對(duì)的弱人工智能,不論是否被賦予了法律主體地位,更應(yīng)該強(qiáng)調(diào)它權(quán)利主體的多元性。

強(qiáng)人工智能可以被視作為無體物或有體物,鑒于其權(quán)屬具有特殊性,各控制主體應(yīng)按照控制程度的不同分別承擔(dān)相應(yīng)的義務(wù)和責(zé)任。因?yàn)楫?dāng)下對(duì)人工智能的權(quán)利實(shí)際上是一種“權(quán)利束”,即人工智能的權(quán)利主體多元[58]。人工智能學(xué)習(xí)和做出判斷的前提,在于不斷地獲得各種不同的數(shù)據(jù)和信息,不論強(qiáng)人工智還是弱人工智能均是基于經(jīng)驗(yàn)積累的泛化[59]。算法可以不斷自行收集用戶、使用者的信息和數(shù)據(jù),意味著消費(fèi)者、使用者的權(quán)限是不完善的,用戶一般也只能同意算法收集個(gè)人信息,以供開發(fā)者或運(yùn)營(yíng)者改善或提高人工智能的性能。因此,開發(fā)者或生產(chǎn)商一定程度上擁有控制人工智能的能力,而所有權(quán)人或使用權(quán)人又在實(shí)際地支配、占有、使用或收益。也就是說,人工智能的主體有開發(fā)者、生產(chǎn)者、運(yùn)營(yíng)者、所有者、使用者等全流程參與者。

五、強(qiáng)人工智能的權(quán)益分配

本文認(rèn)為,強(qiáng)人工智能的占有、使用、收益和處分等權(quán)益分配可以遵從各權(quán)利主體之間的約定。在不違背法律、風(fēng)俗習(xí)慣和行業(yè)習(xí)慣等前提下,各權(quán)利主體的權(quán)益分配約定應(yīng)為有效。這意味著,第一,強(qiáng)人工智能的權(quán)利主體是多樣的,即便各權(quán)利主體約定了權(quán)益的分配也不影響權(quán)利主體的多元性,不得以此排除開發(fā)者、生產(chǎn)者等主體的責(zé)任;第二,權(quán)益分配依據(jù)各主體的約定,至于這些約定是否有違公平原則或造成壟斷等由各主體通過其他途徑解決。

強(qiáng)人工智能的義務(wù)、違法犯罪責(zé)任的承擔(dān),應(yīng)按照各主體的控制力分配,控制力大小由生產(chǎn)者或開發(fā)者說明和界定,即由生產(chǎn)者或開發(fā)者分配、說明各主體的控制力,確定控制力比例,而且對(duì)界定有異議的可以提交行業(yè)協(xié)會(huì)判定,也可以訴請(qǐng)人民法院審理。同時(shí),行業(yè)協(xié)會(huì)和立法者應(yīng)按照各人工智能行業(yè)的特點(diǎn)確定人工智能控制者的范圍,法律規(guī)定的控制者應(yīng)包括開發(fā)者、生產(chǎn)者、運(yùn)營(yíng)者、使用者等。

強(qiáng)人工智能確定有控制者,即便由各種原因造成事實(shí)上無主體控制仍按法律規(guī)定確定權(quán)利主體。不論是強(qiáng)人工智能,還是弱人工智能均應(yīng)確定控制者,以避免違法、犯罪責(zé)任無法確定。即便強(qiáng)人工智能是其他人工智能創(chuàng)造的,也應(yīng)追溯源頭上的開發(fā)者或生產(chǎn)者。

猜你喜歡
權(quán)利主體人工智能
論自然人破產(chǎn)法的適用主體
我們的權(quán)利
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
論不存在做錯(cuò)事的權(quán)利
法大研究生(2018年2期)2018-09-23 02:19:50
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護(hù)主體的思考
權(quán)利套裝
Coco薇(2015年12期)2015-12-10 02:43:39
論多元主體的生成
武乡县| 上思县| 荥经县| 邢台市| 天峻县| 筠连县| 吉安市| 青海省| 霍林郭勒市| 高雄县| 临安市| 封丘县| 荔浦县| 和顺县| 惠州市| 大渡口区| 介休市| 翁牛特旗| 左云县| 集贤县| 安吉县| 安泽县| 伽师县| 澎湖县| 金川县| 平邑县| 江阴市| 堆龙德庆县| 合阳县| 瑞安市| 白河县| 丰都县| 彩票| 永修县| 石河子市| 三明市| 衡南县| 吉隆县| 贡嘎县| 方城县| 京山县|