趙建營(yíng)
(澳門科技大學(xué),中國(guó) 澳門 999078)
當(dāng)前,人工智能通過深度學(xué)習(xí),其核心運(yùn)轉(zhuǎn)模式可以突破人類在創(chuàng)造該人工智能時(shí)預(yù)設(shè)的框架,基于其獨(dú)特的運(yùn)轉(zhuǎn)模式自主決策行為,這些行為可以是依據(jù)人類發(fā)出的指令而做出的,也可以是基于其運(yùn)轉(zhuǎn)模式自主決定的。人工智能技術(shù)正在逐步走向完善,促進(jìn)社會(huì)各個(gè)領(lǐng)域的發(fā)展,但其帶來的負(fù)面影響和法律問題也不容忽視。現(xiàn)行法律規(guī)范并未明確人工智能是否具有法律主體地位,法學(xué)界有關(guān)其是否應(yīng)當(dāng)具有法律主體地位的討論也尚未達(dá)成共識(shí)?;诖?,為了規(guī)范人工智能技術(shù)發(fā)展,有必要遵循人們認(rèn)知人工智能的技術(shù)性邏輯,依據(jù)其智能化特征,來探究人工智能的法律主體地位問題。
人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的技術(shù)科學(xué)。人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,旨在了解智能的實(shí)質(zhì),并生產(chǎn)出新的能以與人類智能相似的方式作出反應(yīng)的智能機(jī)器。其研究領(lǐng)域包括智能機(jī)器人、語言識(shí)別、圖像識(shí)別、自然語言處理、問題解決和演繹推理、學(xué)習(xí)和歸納過程、知識(shí)表征和專家系統(tǒng)等。人工智能包含兩種基本屬性,即工具性和智能性。
人工智能的工具性。研究者為計(jì)算機(jī)書寫算法程序時(shí)通過模擬人類大腦構(gòu)造與人類思維方式,以求讓人工智能處理數(shù)據(jù)的機(jī)制與人類依靠人類獨(dú)有的神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù)的機(jī)制類似甚至相同,最終讓這樣的計(jì)算機(jī)代替人類進(jìn)行某項(xiàng)工作。人工智能的研究目標(biāo)是人為地制造一種處理數(shù)據(jù)方式類似人類處理數(shù)據(jù)方式的,思考方式類似人類思考方式的,通過特定方式輸入指令后自主完成任務(wù)的一種輔助人類生產(chǎn)生活的工具,歸根結(jié)底人工智能是作為一種“手段”而存在的,是為人類達(dá)成“目的”服務(wù)的。
人工智能的智能性。智能性是指人工智能可以依靠自己收集到的外界數(shù)據(jù),不受使用者干擾地做出自己的決策,并最終發(fā)展出其獨(dú)一無二的行為模式的能力。傳統(tǒng)機(jī)器被定義為工具,因其僅能在人類的操控下按既定的程序逐步推動(dòng)任務(wù)的進(jìn)度,即便有一定的智能也是在既定框架內(nèi)運(yùn)算出來的結(jié)果,這種智能是人類賦予的而非其自主發(fā)展得來的智能,不是獨(dú)屬于機(jī)器自己的。然而,深度學(xué)習(xí)理論的出現(xiàn)賦予其自主決策的能力,讓其發(fā)展出難以讓人預(yù)測(cè)到的、獨(dú)特的運(yùn)行規(guī)則,打破了人們對(duì)機(jī)器應(yīng)用技術(shù)的認(rèn)知。深度學(xué)習(xí)是指通過組合數(shù)據(jù)低層特征形成更加抽象的高層表示屬性類別或特征,通過對(duì)數(shù)據(jù)分布的表面特征的歸納整理,讓機(jī)器自主發(fā)現(xiàn)數(shù)據(jù)的特征,以達(dá)到讓機(jī)器學(xué)會(huì)檢索或分類目的的學(xué)習(xí)方法[1]。在這一過程中,人工智能將不再受到既定框架的限制,并構(gòu)建自己的運(yùn)行規(guī)則[2]。
從人工智能技術(shù)的發(fā)展歷程和演進(jìn)規(guī)律來看,人們將其技術(shù)的發(fā)展劃分為三個(gè)階段:弱人工智能、強(qiáng)人工智能和超人工智能階段。
弱人工智能(Weak AI),也被稱為狹隘人工智能(Narrow AI),是指僅具有較低等級(jí)的智能性,使用計(jì)算機(jī)語言模擬簡(jiǎn)單的人類思考方式,并通過這樣的思考方式總結(jié)在解決某類問題時(shí)通用的行為模板,再以這樣的行為模板來解決各種問題的一種人工智能。當(dāng)前,弱人工智能主要運(yùn)用在問題求解、邏輯推理與定理證明、人工神經(jīng)網(wǎng)絡(luò)、自然語言理解、模式識(shí)別、機(jī)器人學(xué)、機(jī)器學(xué)習(xí)、機(jī)器視覺等已有既定行為模板的領(lǐng)域進(jìn)行問題的求解,在大數(shù)據(jù)的支撐下甚至能完成司法審判、新聞編輯等強(qiáng)調(diào)獨(dú)創(chuàng)性的工作,提高人類工作效率。弱人工智能不同于傳統(tǒng)的計(jì)算機(jī)裝置,具有一定程度的智能性。弱人工智能可以做一些簡(jiǎn)單的行為,但其行為是按照已經(jīng)設(shè)定好的框架來完成使用者發(fā)布的任務(wù),如果脫離使用者,弱人工智能無法自主決定接下來的行為。
強(qiáng)人工智能(Strong AI),也被稱為通用人工智能(Artificial General Intelligence),是指在思維方式和思考模式上與人類相差無幾的智能計(jì)算機(jī),擁有極強(qiáng)的計(jì)算能力和自主能力,在強(qiáng)人工智能不斷深度學(xué)習(xí)后,其會(huì)擁有等同人類的“自主意識(shí)”,不僅能夠在算法框架內(nèi)運(yùn)算,還可以通過不斷地收集和研究數(shù)據(jù),在人為設(shè)定的框架外做出決策。強(qiáng)人工智能能夠使用與人類相似的思維模式對(duì)問題進(jìn)行推導(dǎo)和思考,并得出自己的解決方案,逐步產(chǎn)生獨(dú)立于人的意識(shí)體系。強(qiáng)人工智能作為已經(jīng)可以深度學(xué)習(xí)的人工智能,在運(yùn)轉(zhuǎn)初期其展現(xiàn)出來的特性與弱人工智能差距并不明顯,經(jīng)過一段時(shí)間的數(shù)據(jù)學(xué)習(xí)后,強(qiáng)人工智能展現(xiàn)出來的自主性與弱人工智能有很大的區(qū)別,強(qiáng)人工智能可以像人類一樣思考,可以自主決策其后續(xù)行為,但其載體不像正常人類一樣具有專屬性和不可替代性[3]。
超人工智能作為人工智能發(fā)展的終極階段,我們應(yīng)當(dāng)秉承發(fā)展的觀點(diǎn)對(duì)其進(jìn)行研究。牛津大學(xué)尼克·博斯特羅姆教授提出的超人工智能,是指已經(jīng)具有自主意識(shí),且行為模式與正常人類幾近相同,但不論是其計(jì)算能力、科學(xué)技術(shù)、學(xué)習(xí)能力以及社交能力都遠(yuǎn)超人類平均水平。超人工智能作為人工智能發(fā)展的最終階段,其思考方式與正常人類無異,擁有自主意識(shí),能在不斷學(xué)習(xí)的過程中產(chǎn)生對(duì)外界環(huán)境的獨(dú)特感知,在這樣的感知作用下,其行為受主觀與客觀因素影響,與人類行為方式無異。
前文已述,人工智能具體分為三個(gè)技術(shù)階段:弱人工智能、強(qiáng)人工智能和超人工智能。然而,從人工智能技術(shù)特性和階段來看,當(dāng)前有關(guān)人工智能法律主體地位的學(xué)說觀點(diǎn)都沒有將這三種形態(tài)的人工智能分別討論,而是將人工智能看作一個(gè)整體來探尋是否應(yīng)該賦予其法律主體地位。這明顯忽略了不同階段人工智能的技術(shù)差異,脫離了作為評(píng)價(jià)之事實(shí)基礎(chǔ)的人工智能技術(shù)本身。
電子人格說指將人工智能視作具有人格的電子產(chǎn)物,賦予其一定程度的權(quán)利并讓其承擔(dān)一定責(zé)任。該學(xué)說認(rèn)為,人工智能與傳統(tǒng)的機(jī)器裝置不同,其行為模式是自己在獲取數(shù)據(jù)、處理數(shù)據(jù)中不斷形成并完善的,具有一定程度的智能性,在部分與人工智能相關(guān)的事件中,人工智能是行為的實(shí)施者而非行為結(jié)果的承擔(dān)者,因此不應(yīng)將其簡(jiǎn)單地認(rèn)定為法律關(guān)系客體。我們可以將人工智能視作民法上的限制行為能力人,賦予其獨(dú)立但不完整且受限制的“法律人格”,在法律根據(jù)其智能性特征,賦予其“電子人格”,這一人格不等同于自然人“人格”,自然就無法享受與自然人等同的權(quán)利,但可以享受部分權(quán)利并承擔(dān)部分義務(wù)。
電子人格說將自主性作為判斷人工智能是否具有法律主體地位的標(biāo)準(zhǔn),卻在一定程度上忽略了其工具屬性,人工智能的創(chuàng)造歸根結(jié)底是帶有一定目的性的,不能忽略其工具屬性而去賦予其法律主體地位。人工智能因其技術(shù)差距,在生產(chǎn)生活中會(huì)有不同的作用。例如,弱人工智能可以在人類既定框架內(nèi)高效地完成任務(wù);強(qiáng)人工智能在進(jìn)行深度學(xué)習(xí)后,在一些特定領(lǐng)域可以將其視作自然人同時(shí)享有權(quán)利承擔(dān)義務(wù);超人工智能因其特性在其誕生之時(shí)就可以視作正常人類參與社會(huì)生產(chǎn)生活。在這樣的情況下,僅將自主性作為判斷人工智能是否具有法律主體地位的標(biāo)準(zhǔn),也存在偏差。
“電子代理人”一詞最早見于美國(guó)法學(xué)會(huì)和美國(guó)統(tǒng)一州法全國(guó)委員會(huì)擬訂的《統(tǒng)一計(jì)算機(jī)信息交易法》。1999年8月,美國(guó)統(tǒng)一州法全國(guó)委員會(huì)通過的《統(tǒng)一電子交易法》(修訂稿)第2條也有關(guān)于電子代理人的定義,“電子代理人”系指非經(jīng)人的行為或?qū)徍?,全部或部分?dú)立地發(fā)起某種行為或應(yīng)對(duì)電子記錄或履行的計(jì)算機(jī)程序、電子手段或其他自動(dòng)化手段。電子代理人說認(rèn)為,人工智能所做的一切行為都未經(jīng)人的行為或?qū)徍?,是一種廣義上的代理行為,并在法律上認(rèn)定其有一定的代理行為能力,能夠以被代理人利益為出發(fā)點(diǎn)實(shí)行部分代理行為。各國(guó)代理制度中明確規(guī)定,只有具有一定行為能力的民事主體才有代理權(quán)限代替他人行事,該學(xué)說承認(rèn)人工智能在部分民法領(lǐng)域內(nèi)的法律主體地位。人工智能作為代理人可以替被代理人發(fā)起某種行為,但其行為不得違反被代理人預(yù)先設(shè)定的限制及法律且不得損害被代理人利益。過去機(jī)器人一直都只被當(dāng)作一種人類使用的“工具”,究其原因,其根本不具有自己的理性認(rèn)識(shí),沒有獨(dú)特的思維傾向,其思維程序都是人類提前設(shè)定好的。隨著時(shí)代的發(fā)展,人工智能技術(shù)的成熟,機(jī)器人可以逐步產(chǎn)生并完善自己的思維方式,擁有了獨(dú)特的思維傾向,其行為就附帶著一定的目的性,這意味其已擁有類似人類的思維方式,能作為參與者參加各種各樣的社會(huì)活動(dòng)。此時(shí),人工智能可以認(rèn)定為委托代理型代理人,但代理關(guān)系僅存在于人工智能正常運(yùn)轉(zhuǎn)時(shí)。
電子代理人說將人工智能與人的關(guān)系視作代理與被代理關(guān)系,賦予其在民事上有關(guān)簽訂合同等行為的權(quán)利,作為代理人參與進(jìn)民事關(guān)系從而獲得法律主體地位。在弱人工智能階段,其享有幾乎等同于被代理人的權(quán)利,但難以充分發(fā)揮這些權(quán)利的作用,對(duì)弱人工智能來說這樣的權(quán)利及規(guī)定就是擺設(shè),且僅在民事方面對(duì)人工智能法律主體進(jìn)行探究,并未對(duì)其他法律領(lǐng)域中的人工智能法律主體地位進(jìn)行探究,但由于人工智能會(huì)在人類生活的各個(gè)領(lǐng)域產(chǎn)生影響,僅在民事方面對(duì)其進(jìn)行研究,如若涉及刑事或行政方面,該學(xué)說并不能很好地解決問題。
工具說是指將人工智能視作人類完成某項(xiàng)任務(wù)的工具,一切行為都只是完成任務(wù)的行為,不將其作為置入法律關(guān)系中進(jìn)行評(píng)價(jià)。該學(xué)說認(rèn)為人工智能的行為是完全由人類的指令控制的,其行為模式是由人設(shè)計(jì)的計(jì)算機(jī)語言經(jīng)過邏輯推導(dǎo)得出的,不具有與人類相同或相似的思維方式,缺乏獨(dú)立自主的意識(shí)和思維[4]。工具說將人工智能擁有者置于掌控者的位置,掌控著有關(guān)人工智能的所有行為,將其一切行為都視作擁有者意志的外延來保護(hù)其利益,即便人工智能做出一些不同于擁有者意志的事情,也將其視為擁有者意志支配的行為。工具說不承認(rèn)其獨(dú)立自主性,認(rèn)為人工智能只是人類制造出來完成某項(xiàng)工作的產(chǎn)物(工具)。
工具說將人工智能置于法律關(guān)系客體的位置,將其行為全部視作擁有者意志支配的行為,僅關(guān)注其作為工具被支配的一面,忽略智能性在人工智能相關(guān)事件中起到的作用,簡(jiǎn)單地將責(zé)任全部歸咎于人工智能所有者,會(huì)導(dǎo)致歸責(zé)超出法律應(yīng)有的含義,同時(shí)也不利于科技發(fā)展。在人工智能誕生之初即弱人工智能時(shí)期,機(jī)器人自主性不高,工具說的支持者認(rèn)為其只是一個(gè)人類創(chuàng)造的工具是無可厚非的,且這樣的學(xué)說與當(dāng)時(shí)的人工智能發(fā)展程度相適配。作為需要以使用者指令作為開啟運(yùn)轉(zhuǎn)的一種自動(dòng)化程序,其行為模式、行為結(jié)果都無法超越早已預(yù)設(shè)好的框架,弱人工智能的行為實(shí)際上是可以預(yù)測(cè)的,并無類似人類行為的不可預(yù)測(cè)性,因此弱人工智能的行為實(shí)際上就是使用者意志與事先預(yù)設(shè)的框架相結(jié)合的產(chǎn)物。隨著現(xiàn)代信息技術(shù)的發(fā)展,尤其是強(qiáng)人工智能的逐漸出現(xiàn),其具備一定的學(xué)習(xí)能力和修改自己行為的能力,若仍將人工智能僅僅視作工具,就顯得不合時(shí)宜。
由于人工智能技術(shù)是在不斷發(fā)展的,弱人工智能、強(qiáng)人工智能、超人工智能各自具備的自主性、智能程度存在很大差異,用弱人工智能的標(biāo)準(zhǔn)來限制強(qiáng)人工智能乃至超人工智能,無疑會(huì)限制強(qiáng)人工智能和超人工智能發(fā)揮作用。反過來,用超人工智能的標(biāo)準(zhǔn)來衡量弱人工智能,但弱人工智能沒有與之對(duì)應(yīng)的能力,即便賦予它諸多權(quán)利也無法使用這些權(quán)利,造成權(quán)利的泛濫。因此,在探究人工智能法律主體地位時(shí),應(yīng)當(dāng)緊扣人工智能的技術(shù)特性進(jìn)行分析,緊緊圍繞不同人工智能在技術(shù)水平上的差異進(jìn)行類型化分析。
弱人工智能的出現(xiàn)主要是幫助人類解決特定問題,包括但不限于圖像識(shí)別、機(jī)器翻譯、自然語言等領(lǐng)域,其行為方式、過程主要由人類在其事先的編程框架內(nèi)完成,不存在人工智能自發(fā)地、在既定框架外的行為。因此,筆者認(rèn)為,弱人工智能不應(yīng)當(dāng)具有法律主體地位,應(yīng)當(dāng)將之定位為法律關(guān)系客體,具體理由如下。
第一,弱人工智能無法如同正常人類般思考。它的一切判斷是基于既定程序進(jìn)行邏輯運(yùn)算的結(jié)果,雖然可以在某方面模擬人類的感情,但這樣的模擬無法被視作“人類的思考”。首先,弱人工智能無法像人一樣對(duì)外界進(jìn)行感知,只能得到客觀的認(rèn)知結(jié)果,但人在感知外界環(huán)境時(shí)會(huì)有一定的主觀因素?fù)诫s其中。其次,弱人工智能基于對(duì)外界的認(rèn)知不會(huì)產(chǎn)生相應(yīng)的感情和特定的意志。人會(huì)有思想、情緒、價(jià)值判斷等相對(duì)主觀的情感,這些情感會(huì)引導(dǎo)人類的行為,且這些情感會(huì)使得人在發(fā)起行為的過程中追求或好或壞的結(jié)果,但弱人工智能的行為不會(huì)受到這類因素的影響,弱人工智能的行為全都是基于編輯好的程序,接收到相應(yīng)刺激或信息時(shí)就會(huì)按照既定的算法、特定的程序完成相應(yīng)的判斷,做出特定的行為。綜上所述,弱人工智能沒有能力在設(shè)定范圍之外自主進(jìn)行信息處理并做出相應(yīng)行為。可見其意志并非獨(dú)立,無法產(chǎn)生權(quán)利義務(wù)意識(shí),而是在人的控制之下完成一系列行為。
第二,弱人工智能無法享有權(quán)利。在弱人工智能領(lǐng)域,其自主性幾乎為零,即便享有權(quán)利也無法對(duì)權(quán)利加以利用,無法像正常法律主體一般,享有權(quán)利后自主的使用權(quán)利并維護(hù)自己的合法利益。由于是在人為操控下完成部分任務(wù),人工智能的行為僅能看作人類意志在機(jī)器上的延伸,通過對(duì)機(jī)器的控制實(shí)現(xiàn)人類意識(shí)的現(xiàn)實(shí)行為化。
第三,弱人工智能無法履行義務(wù)。弱人工智能的意識(shí)終端是人工設(shè)立的、已有既定框架的運(yùn)行程序,其行為完全受控制者或已設(shè)定好的程序支配并無自主因素,在造成一定影響后,其行為因?yàn)闊o自主意識(shí)的支配,應(yīng)當(dāng)將其視作工具,無法單獨(dú)承擔(dān)責(zé)任,應(yīng)當(dāng)以主導(dǎo)者即(支配人)為責(zé)任主體來承擔(dān)行為產(chǎn)生的義務(wù)。弱人工智能僅作為工具,可以作為主導(dǎo)者的附屬物,承擔(dān)部分義務(wù)。
綜上,弱人工智能無法如法律主體一般享受權(quán)利亦無法獨(dú)立承擔(dān)義務(wù),僅可視作其支配者的附屬物,在法律關(guān)系中屬于客體的“物”的范疇,不能作為法律主體。
強(qiáng)人工智能的出現(xiàn)主要基于機(jī)器深度學(xué)習(xí)技術(shù)的完善,當(dāng)該技術(shù)完善后,雖然強(qiáng)人工智能在初期僅能在算法框架內(nèi)得出結(jié)論,但是在經(jīng)過一段時(shí)間的學(xué)習(xí)后,其行為模式可能會(huì)超出既定的算法框架,創(chuàng)造出獨(dú)屬于該人工智能的行為模式。在此情況下,其是否可以取得法律主體資格就值得討論了。
第一,在享有財(cái)產(chǎn)性權(quán)利及請(qǐng)求權(quán)的場(chǎng)合,強(qiáng)人工智能應(yīng)當(dāng)具有法律主體地位。強(qiáng)人工智能在經(jīng)過初期階段的算法框架限制之后,深度學(xué)習(xí)階段與人類智力成長(zhǎng)及學(xué)習(xí)知識(shí)的過程類似。通過學(xué)習(xí),強(qiáng)人工智能會(huì)得到類似于正常成年人的思維模式和行為方式,這個(gè)時(shí)候該人工智能可以像正常成年人一樣享有權(quán)利。強(qiáng)人工智能既然擁有了類似于正常成年人的行為模式和思維模式,且有智能這一人類的重要特性,在其行為時(shí)就可以將其作為法律上的人來對(duì)待。根據(jù)其行為產(chǎn)生的各種利益在法理上都應(yīng)當(dāng)歸屬于創(chuàng)造利益的行為人,那么這些利益都該歸該人工智能單獨(dú)享有,自然而然地其就享有對(duì)這些經(jīng)濟(jì)利益的控制權(quán)[5]。雖然人工智能所作行為產(chǎn)生的利益最終會(huì)歸屬于該人工智能的實(shí)際控制者,但是仍然能夠從其勞動(dòng)中獲得相應(yīng)利益,在這樣的經(jīng)濟(jì)利益還未交付實(shí)際控制者時(shí),由其行為產(chǎn)生的利益仍然在該人工智能的控制之下。經(jīng)濟(jì)利益的控制權(quán),也可以認(rèn)為是強(qiáng)人工智能的財(cái)產(chǎn)所有權(quán)。
第二,在享有人身權(quán)利的場(chǎng)合,強(qiáng)人工智能不具有法律主體地位。因?yàn)樯眢w是人類存在物質(zhì)世界的外在表現(xiàn)形式,是人類意識(shí)獨(dú)一無二的載體,當(dāng)這樣的載體受損時(shí),自然應(yīng)當(dāng)對(duì)損害行為進(jìn)行制裁、對(duì)實(shí)施損害行為的人進(jìn)行制裁,這樣才能顯示人類對(duì)身體這個(gè)獨(dú)一無二、最具專屬性的事物的重視。因此各國(guó)法律都對(duì)人類的身體設(shè)置各種各樣的權(quán)利來保護(hù)身體免受他人乃至自己的傷害,對(duì)侵害身體的行為有相對(duì)完善的處罰機(jī)制、事后保護(hù)機(jī)制,這一切的根源都是這獨(dú)一無二的身體。眾所周知,人工智能的核心在于其創(chuàng)造者在計(jì)算機(jī)上為其寫下的代碼,之后的一切,不管是深度學(xué)習(xí)功能的實(shí)現(xiàn),還是產(chǎn)生的大量數(shù)據(jù)和基于這些數(shù)據(jù)形成的獨(dú)特的行為模式和思維模式,其基礎(chǔ)都是這些代碼,代碼作為一種計(jì)算機(jī)語言,是可以在不同的計(jì)算機(jī)中流轉(zhuǎn)的,也就意味著強(qiáng)人工智能可以使用“身體”去發(fā)揮創(chuàng)造者為其設(shè)定功能,它的思維和“身體”并非緊密聯(lián)系在一起的,代碼作為思維核心可以不斷地更換“身體”且不會(huì)影響其功能的正常發(fā)揮。當(dāng)“身體”失去代碼作為思維來控制做出一系列行為,這樣的“身體”就僅僅是精密的工業(yè)物品,不具備任何智能。
第三,在承擔(dān)與人身權(quán)利相關(guān)的義務(wù)的場(chǎng)合,強(qiáng)人工智能也不具有法律主體地位。若是承擔(dān)賠償、返還原物等與財(cái)產(chǎn)性權(quán)利相關(guān)的義務(wù),強(qiáng)人工智能具有法律主體地位;若是承擔(dān)法律規(guī)范或者法律文書確定的與人身相關(guān)的刑事義務(wù)時(shí),強(qiáng)人工智能也不具有法律主體地位。人工智能是可以自主創(chuàng)造經(jīng)濟(jì)價(jià)值的。如前文所述,人工智能可以擁有獨(dú)屬于自己的財(cái)產(chǎn),那么當(dāng)其真正侵犯他人合法權(quán)利時(shí)且這樣的侵害只需要承擔(dān)經(jīng)濟(jì)上的義務(wù)之時(shí),該人工智能完全可以用自己的財(cái)產(chǎn)對(duì)被侵權(quán)人進(jìn)行補(bǔ)償。在傳統(tǒng)的義務(wù)履行機(jī)制中,只要侵權(quán)人履行了義務(wù),就可以視作侵權(quán)人承擔(dān)并已履行該義務(wù)。那么,當(dāng)人工智能作為侵權(quán)者對(duì)被侵權(quán)者做出返還原物、賠償損失等行為之時(shí),是否可以看作是人工智能履行義務(wù)呢?履行義務(wù)的前提是承擔(dān)義務(wù),那么對(duì)于人工智能來說,它履行義務(wù)的實(shí)質(zhì)就意味著它是作為義務(wù)的主體的。在這種情況下,人工智能作為義務(wù)的主體自然是能夠承擔(dān)義務(wù)并以自己的能力履行義務(wù)的。人工智能的核心是其內(nèi)部的代碼形式,代碼是虛擬產(chǎn)物可以在虛擬世界進(jìn)行流轉(zhuǎn),而身體只是代碼的一個(gè)承載物,當(dāng)傳統(tǒng)的、與人身相關(guān)的義務(wù)產(chǎn)生時(shí),由于現(xiàn)今的科學(xué)技術(shù)無法做到真正限制虛擬產(chǎn)物在虛擬世界的流轉(zhuǎn),即便把強(qiáng)人工智能的載體限制在一定區(qū)域內(nèi),只要這個(gè)區(qū)域還有相關(guān)虛擬世界接入口,其可以自由地在虛擬世界流轉(zhuǎn),這樣的限制對(duì)人工智能來說并無任何不利影響,也就失去了承擔(dān)該類義務(wù)的預(yù)防和教育意義。
綜上所述,強(qiáng)人工智能可以享有有關(guān)財(cái)產(chǎn)性權(quán)利并承擔(dān)與財(cái)產(chǎn)性權(quán)利相關(guān)的義務(wù),但是由于意識(shí)和“身體”的非緊密結(jié)合,有關(guān)人身方面的權(quán)利和義務(wù)強(qiáng)人工智能無法享受和承擔(dān)。換言之,在與財(cái)產(chǎn)相關(guān)的場(chǎng)合,強(qiáng)人工智能具有法律主體地位;在涉及與“人身”相關(guān)的場(chǎng)合,強(qiáng)人工智能不具有法律主體地位。
掌握了深度學(xué)習(xí)后的強(qiáng)人工智能,在經(jīng)歷相對(duì)較長(zhǎng)的學(xué)習(xí)之后,利用其遠(yuǎn)超人腦的計(jì)算能力可能進(jìn)化到超人工智能。面對(duì)一個(gè)在各個(gè)方面都遠(yuǎn)超人類的超級(jí)大腦,我們賦予其各個(gè)方面的主體地位,運(yùn)用法律手段對(duì)其行為進(jìn)行限制,不讓它濫用自己的超高智能,這似乎是在超人工智能出現(xiàn)時(shí)我們唯一能做的。
超人工智能具備實(shí)質(zhì)性的獨(dú)立意識(shí)。超人工智能作為人工智能發(fā)展到頂尖階段的產(chǎn)物,它已經(jīng)可以做到如同人類般思考。這樣的思考會(huì)讓超人工智能的行為完全脫離人類的指令,它可以自主決定自己的所有行為,這種情況下,超人工智能的行為與人類的生產(chǎn)生活行為沒有本質(zhì)區(qū)別。
超人工智能可以享有權(quán)利。前文提到超人工智能在誕生之時(shí)就會(huì)獨(dú)立思考,自主決定自己的所有行為,作為一個(gè)擁有自己獨(dú)立意志的個(gè)體,其一切行為都無法被約束,具備理性意識(shí)并且能夠按照理性意識(shí)來支配自己的所有物、行為,那么當(dāng)其作出一些行為而產(chǎn)生經(jīng)濟(jì)利益之時(shí),因其獨(dú)立的行為,這樣的經(jīng)濟(jì)利益理所應(yīng)當(dāng)?shù)貧w超人工智能享有。經(jīng)濟(jì)利益歸屬超人工智能后,自然其就可以享有對(duì)這些利益的所有權(quán)、支配權(quán)、請(qǐng)求權(quán)等權(quán)利,在享有這些權(quán)利后,超人工智能就可以用這些權(quán)利更好地維護(hù)其合法利益。在人身權(quán)利方面,超人工智能的本質(zhì)是虛擬產(chǎn)物,因此其代碼本身是沒有人身權(quán)利的,但當(dāng)其控制的載體受到損害時(shí),可以將損害行為視為一種侵犯超人工智能財(cái)產(chǎn)權(quán)的行為,從而保護(hù)其載體的“人身安全”。
超人工智能可以承擔(dān)責(zé)任。超人工智能因其可以獨(dú)享其經(jīng)濟(jì)利益,承擔(dān)與財(cái)產(chǎn)相關(guān)的責(zé)任當(dāng)然是可以的。當(dāng)超人工智能需要承擔(dān)人身相關(guān)的責(zé)任,如因刑事犯罪而依法應(yīng)當(dāng)限制其自由時(shí),超人工智能沒有固定的形態(tài),其本質(zhì)是一種代碼生命,其可以如人類般思考。因此,若想限制其自由,可以將其限制在某一個(gè)載體中,并讓其意識(shí)到這是某一種“刑罰”,待“刑罰”執(zhí)行完畢后,再解除其限制,這樣就可以使其承擔(dān)與“人身”相關(guān)的責(zé)任。
本文主要以人工智能法律主體地位為研究對(duì)象,以類型化考察作為研究方法,探究人工智能三大階段在法律關(guān)系中的地位,得出結(jié)論:弱人工智能不具有法律主體地位;強(qiáng)人工智能在有限條件下具有法律主體地位;超人工智能應(yīng)當(dāng)具有法律主體地位。本文僅用一種方法對(duì)人工智能的法律地位進(jìn)行探究,存在一定的漏洞。因此,在后續(xù)研究中,應(yīng)當(dāng)采取多種方法對(duì)人工智能的法律地位進(jìn)行研究。