国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法律主體資格研究

2021-03-04 01:04王蕊王曉星
關(guān)鍵詞:主體資格法律地位人工智能

王蕊 王曉星

[摘 要]人工智能究竟是否能夠具備法律主體資格,是人工智能時代法學界的重要命題。因人工智能在不同發(fā)展階段的科技含量有所不同,其法律主體資格自然不可一概而論。文章對不同類型的人工智能分別進行討論,提出不應(yīng)賦予弱人工智能以法律主體資格,其依然是物,而強人工智能有成為法律主體的可能性,權(quán)利設(shè)置也具有法律上的有限性。同時對強人工智能的法律地位問題提出保護措施與制度規(guī)范,為我國大力發(fā)展人工智能的強國戰(zhàn)略掃清法律難題。

[關(guān)鍵詞]人工智能;主體資格;法律地位;權(quán)利能力

[中圖分類號]D923??? [文獻標志碼]A?? [文章編號]2095-0292(2021)06-0082-06

[收稿日期]2021-09-12

[基金項目]河南省法學會法理法史學研究會一般項目“緊急狀態(tài)下個人隱私權(quán)的限制與保障”(20HNFLFSS011)

[作者簡介]王蕊,鄭州大學法學院(知識產(chǎn)權(quán)學院)碩士研究生,研究方向:法學理論;王曉星,河南警察學院講師,研究方向:民商法。

一、人工智能可否具備法律主體資格

(一)問題的提出

1956年,人工智能一詞第一次被公開提出。AlphaGo在與圍棋大師李世石的圍棋對戰(zhàn)中表現(xiàn)得更勝一籌、歷史上第一位公民機器人索菲亞的誕生、俄羅斯總統(tǒng)普京于2019年10月宣布人工智能領(lǐng)域的國家戰(zhàn)略等等,無不體現(xiàn)了人工智能對當代生活的影響之重大,人工智能在法律、金融、工業(yè)、服務(wù)、醫(yī)療等多個領(lǐng)域的高度關(guān)注之下,正漸漸地對個人、社會和法律產(chǎn)生深刻的影響[1](P152-152)。

自然人若要有效地管制人工智能,除了科技,最重要的就是法律。然而,法律為了保持社會秩序的穩(wěn)定,并不會輕易改變,人工智能發(fā)展快速而產(chǎn)生的一系列不在現(xiàn)有法律調(diào)整范圍內(nèi)的問題亟待解決,具備學習能力和獨立決策能力的人工智能或?qū)⒊霈F(xiàn),向傳統(tǒng)民法的“人—物”二分法發(fā)起了巨大挑戰(zhàn)。

研究法律是否應(yīng)當賦予人工智能主體資格,符合我國全力發(fā)展人工智能的國情。國務(wù)院在2017年提出,應(yīng)當明確界定人工智能主體問題,明確人工智能相關(guān)權(quán)利、義務(wù)和責任。

《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號)提出相關(guān)問題的探討應(yīng)當為新興事物的發(fā)展預(yù)留適當制度空間。在不遠的未來,交通、醫(yī)療、服務(wù)等方面的人工智能例如自動駕駛汽車[2](P168-173),極有可能替代自然人擔任許多職位,成為未來社會的“最強大腦”。在這種情況下,最迫在眉睫的法律問題就是怎樣面對人工智能相關(guān)的法律問題,由人工智能創(chuàng)作的作品知識產(chǎn)權(quán)如何認定?由人工智能造成的損害后果侵權(quán)責任何以劃分?如何將人工智能的發(fā)展與社會主義法治建設(shè)有機融合?問題的解決離不開人工智能機器人之主體資格這一基石性焦點的研究。人工智能可否被賦予主體資格、能否成為法律主體,是否應(yīng)當繼續(xù)作為客體存在,將成為人工智能時代法學界亟待解決的關(guān)鍵問題。

(二)國內(nèi)外研究現(xiàn)狀

對人工智能法律主體資格問題的探討不絕于耳,各學者觀點摩擦碰撞,各有所長。通過查閱大量相關(guān)文獻資料,歸納國內(nèi)學界、司法界、立法界的論爭大致如下:

首先,國內(nèi)外大多數(shù)學者的主流意見是,人工智能不具備擁有法律主體資格的條件。反對論者理由有三,第一是當前人工智能相關(guān)法律困擾足以在現(xiàn)有法律體系下進行解決,把人工智能認定歸納入法律客體范疇足矣;第二是人工智能并不具備生物學上“人”的特性,納入法律主體范圍有違倫理[3](P24-31);第三是人工智能法律問題可以尋求“可替代方案”,而不是重塑現(xiàn)有的法律框架。筆者以為,部分學者并沒有用比較分析的眼光去對待人工智能發(fā)展問題。人工智能自主性特征的具備與否決定著其法律主體資格的賦予,不能簡單地將人工智能機器人歸入法律客體范疇,因其在本體特點上與其余受動客體擁有實質(zhì)性區(qū)別[4](P109-121)。同時,人工智能的發(fā)展突飛猛進,而法律的制定必須具有前瞻性,這就決定了關(guān)于人工智能的法律是一部未來法。現(xiàn)階段人工智能的局限性或許在不遠的將來就會被突破,所以現(xiàn)階段人工智能的局限性并不能成為承認人工智能主體資格的障礙。

其次,不同于反對論者對人工智能保守的看法和觀點,肯定論者和折衷論者認為,人工智能機器人已然具備或未來即將具備與自然人類似思維與行為的可能性[5](P100-110)。但是,學者們在人工智能被賦予法律主體資格的路徑、論證等因素上具有千差萬別的觀點,目前主要包括擬制主體說、電子主體資格說、有限主體資格說等等。這些學說無不提供了先進性研究,但其所提出的“有限主體資格”、“擬制主體”、“行為效力限度”所指何種限度、何種范圍缺乏深刻剖析,須予以進一步圓滿。

人工智能在不同的發(fā)展階段對現(xiàn)有法律造成的沖擊自然不同。以筆者之見,理應(yīng)對不同發(fā)展階段的人工智能主體資格分開討論,基于此的研究和探討,其結(jié)論才更加科學、系統(tǒng)、可行。本文首先對人工智能機器人本身進行解讀,依照國內(nèi)外學界的普遍觀點,對人工智能進行分類,將其劃分為弱人工智能與強人工智能[6](P135-143),接著以其不同類型為切入點,提出弱人工智能僅僅能作為法律關(guān)系的客體,而強人工智能可以有限地賦予其法律主體資格,并對強人工智能法律主體資格的保護提出理論與實踐上的路徑建議,如重視人工智能立法,設(shè)立立案登記制等等。為人工智能在我國更好地發(fā)展而助力,為我國法律體系更加完善更加系統(tǒng)而助力。

二、弱人工智能:不具備法律主體的條件

(一)弱人工智能的界定及特征

由弱人工智能的定義弱人工智能,是指不能真正地推理和解決問題的智能機器,這些機器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識??芍渥畲蟮奶攸c是不具備自主意識。弱人工智能的使用者設(shè)置的程序和發(fā)出的指令是其所有行為動機來源。從某種意義上來講,弱人工智能在生活中隨處可見,例如被歐盟《人工智能白皮書》表示3至5年內(nèi)禁用的人臉識別技術(shù);自2017年12月深圳市首次上路行駛無人駕駛公交車以來發(fā)展得如火如荼的無人駕駛技術(shù);棋類運動中大放異彩的“深藍”系統(tǒng);“阿爾法圍棋”、“智能家電”等軟件;蘋果手機內(nèi)置的智能助手Siri、甚至是能夠根據(jù)使用者不同位置自動調(diào)節(jié)明暗度的照明設(shè)備以及智慧法院中的“AI”法律助手等都是弱人工智能。需要指出的是,弱人工智能具有以下明顯的特征:

第一,依賴指令。弱人工智能沒有獨立的思想,也不跟自然人一樣有很強的行動能力。弱人工智能活動的實施并不是出于類似自然人自主的意志,而是有賴于自然人設(shè)計者、訓(xùn)練者、操作者下達的具體指令[7]。指令依賴所帶來的主要后果是,弱人工智能不能隨著外部環(huán)境的變化而改變由自然人設(shè)定的原定方案,換言之,弱人工智能是承載著自然人思想的“行動機器”。

第二,顯著的人機區(qū)分。弱人工智能因為依賴指令,并不能獨自應(yīng)對復(fù)雜又多變的外部環(huán)境,正因如此,很容易將弱人工智同自然人進行區(qū)分辨別。行為上,弱人工智能無法隨機應(yīng)變,不能做出未被寫入行為系統(tǒng)的行為;思想上,弱人工智能沒有“自主意識”,無法進行等同于自然人的思考過程,進而無法感知物質(zhì)世界與精神世界;理性意義上,弱人工智能不具備意思能力和認知能力,這導(dǎo)致弱人工智能無法能動有效地感知世界,即使表面上做出符合道德規(guī)范的行為,也是出于設(shè)計者、訓(xùn)練者或使用者的干涉,其顯然不可能為自身設(shè)立遵循道德標準的行為準則。

第三,缺乏智力學習能力和自主創(chuàng)新能力。弱人工智能或許可能具備一定的學習能力,但是這種學習往往是自然人共同參與的結(jié)果。關(guān)于人工智能創(chuàng)作行為的本質(zhì),可分為以下三種情形:其一,人工智能的創(chuàng)作過程受自然人主導(dǎo),自然人在此創(chuàng)作過程中扮演著作者的角色,所生成的作品作者也理應(yīng)是自然人;其二,人工智能的創(chuàng)作基于自然人所提供的基礎(chǔ)數(shù)據(jù),此種情形下的作品是計算機程序經(jīng)過數(shù)據(jù)分析和算法完成所生成的運行結(jié)果,從理論層面分析其作者為自然人[8]。

通過對以上特征的分析,可以看出:弱人工智能不具備獨立的思維運轉(zhuǎn)能力,其本質(zhì)是自然人思想或行為在特定載體上的投射。弱人工智能不僅無法替代自然人,同時需要依賴自然人的指令,其本質(zhì)上屬于自然人用以提高自身能力創(chuàng)造社會價值的工具。

(二)弱人工智能法律主體資格的否定

所謂法律主體,是指在一段法律關(guān)系中,既享有權(quán)利又承擔義務(wù)的一方。享有權(quán)利的同時承擔義務(wù)的資格,也就是法律人格。康德主張,有理性的存在稱之為人,無理性而僅僅具有相對價值的存在稱之為物[9]。人與物的劃分標準之理性應(yīng)作何理解?可將其理解為道德能力、自主認知能力和意思表達能力的統(tǒng)一[10](P63-72)。一旦弱人工智能引發(fā)侵權(quán)問題,若由該弱人工智能承擔法律層面的全部責任,從而讓人工智能的發(fā)明創(chuàng)造者、訓(xùn)練者、使用者免于承擔責任,筆者無法贊同。筆者認為弱人工智能仍然只是自然人工具的延伸,并不具備法律人格,不應(yīng)承認其法律主體資格,具體理由體現(xiàn)在以下方面:

1.弱人工智能不具有主觀能動性

當弱人工智能順利結(jié)束一整套動作,它只是在執(zhí)行某種提前植入芯片的毫無意識的動作,而不是通過主觀意愿而做出本身想要做出的行為。向多臺具備同一功能的弱人工智能輸入同一命令,得出的結(jié)果集合將如出一轍,這是因為弱人工智能的運行過程僅僅是一種無意識的、刻板的、機械的運算行為,其并不擁有自然人對客觀世界的主觀能動性。例如,蘋果手機自帶的系統(tǒng)語音助手只會根據(jù)程序的設(shè)定回答指定問題,同一主觀性問題由不同的人問出,得到的回答總是由設(shè)計者寫入的為數(shù)不多的固定回答。這就是弱人工智能機械性的直接體現(xiàn)。

2.弱人工智能不具有自然人的情感

弱人工智能由于其不具備主觀能動性無法理解任務(wù)背后的真正含義,自然人所具備的同理心、對公平正義的追求、對傷害行為的諒解等人類情感均無法在弱人工智能身上得到體現(xiàn)。這導(dǎo)致弱人工智能不能進行非財產(chǎn)性賠償,例如侵權(quán)責任中的賠禮道歉等,再如上海法院推出的三項訴訟智能應(yīng)用,提供掃碼立案、網(wǎng)上調(diào)解、訴訟咨詢等多項智能服務(wù)為一體的訴訟服務(wù)體系,該系統(tǒng)基于程序運行所導(dǎo)出的分析和決策支持,雖極大提高了司法效率,但其決策過程并不具有人類的公平正義、同情、諒解等情感,運算系統(tǒng)不會理解其意義,這僅僅是算法產(chǎn)生的機械性結(jié)果。

綜上所述,弱人工智能由于不具備主觀能動性和自然人的情感而無法處于法律客體之外,其并不具有享有權(quán)利和承擔義務(wù)的能力,在現(xiàn)行法律體系框架下,無需考慮對法律主體資格的賦予。

三、強人工智能:有限地賦予法律主體資格

(一)強人工智能的界定

根據(jù)強人工智能的定義強人工智能,是指智能機器人能夠運用與自然人基本相同的智慧來執(zhí)行任務(wù)。,其與弱人工智能的不同之處在于,強人工智能擁有自身思考能力,可以進行推理進而制作行為計劃,最后執(zhí)行,在某種意義上強人工智能已經(jīng)不屬于自然人的工具。即使當下的人工智能技術(shù)尚未達到強人工智能階段[11],從法理學角度進行剖析,未來發(fā)展出的具有主觀能動性且能夠做出獨立意思表示的強人工智能有條件成為法律主體,一旦滿足相應(yīng)條件,則應(yīng)在一定限度內(nèi)賦予其法律主體資格。

認知能力是界定強人工智能的重要條件。認知能力作為理性的基石性因素,具備認知能力的存在才有資格成為法律主體[12](P10-17)。一旦人工智能擁有了認知能力,便可以如同自然人一般地感知、聯(lián)想、記憶、思考,然而僅僅具備認知能力,對人工智能來說擁有法律主體資格還為時尚早。

不僅如此,意思表示的做出是界定強人工智能的另一核心要素。主張“欠缺論”的學者認為,否認人工智能法律主體資格的重要原因之一是,人工智能身為由人類發(fā)明創(chuàng)造的智能計算機,不具備自主意識、欠缺自由心智、欠缺靈魂、無法享受權(quán)利且無承擔責任的能力,換言之,人工智能欠缺與人類相同的意思表示[13]??梢?,意思表示能力是賦予人工智能法律主體資格的重要因子,一旦具備了意思表示能力,其同時也蘊涵了分析、思考、決策、行動等多個能力要素。

同時具備認知能力和意思表達能力的人工智能,其自主分析做出決策的能力往往會超出設(shè)計者或使用者的預(yù)期,從主觀能動性的角度來看,強人工智能或已達到成為法律主體的程度。值得注意的是,隨著擁有深度學習功能的“阿爾法狗”戰(zhàn)勝人類圍棋冠軍李世石、具備創(chuàng)作功能的人工智能生成了獨具風格、富有商業(yè)價值的“作品”等人類認為其不可能完成之事的發(fā)生,人工智能的發(fā)展逐漸超乎人類的想象。在科技強國的發(fā)展面前,僅就法規(guī)技術(shù)而言,不能單以倫理、道德或者哲學等觀點對強人工智能的界定加以限制,而理應(yīng)注重到人工智能與設(shè)計者、訓(xùn)練者和使用者等自然人所做出的意思表示和蘊涵范圍有其務(wù)實性的一面,這要取決于人工智能在具體應(yīng)用中各個領(lǐng)域的實際運作情況[14](P240-253)。

(二)賦予強人工智能法律主體資格的必要性

日本有部分學者的觀點是承認除自然人之外的法律主體的存在,日本民法學家星野英一在分析法律主體的意義時指出,即使是面對人以外的存在,有關(guān)于適合作為法律上權(quán)利義務(wù)之主體的概念,也應(yīng)當?shù)玫匠姓J[15]。在人工智能迅速發(fā)展的當今時代,一些新出現(xiàn)的事物難免會與現(xiàn)行法律產(chǎn)生沖突,所以,法學研究者應(yīng)當把目光放長遠,考慮到人工智能在今后的發(fā)展狀況。只有這樣,才能為人工智能的良好健康發(fā)展打好法律基礎(chǔ)。承認強人工智能法律地位的必要性可從以下角度展開。

1.人工智能發(fā)展的需要

國務(wù)院已提出,人工智能技術(shù)將引領(lǐng)未來,要加強出臺一系列政策和規(guī)劃,努力在當今國際科技的激烈競爭中占得主導(dǎo)權(quán)《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號)。。伴隨著科學技術(shù)的迅速崛起和廣泛應(yīng)用,人工智能在社會生活中起著越來越重要的作用,人工智能本身的發(fā)展日新月異。盡管已經(jīng)經(jīng)過了半個多世紀的發(fā)展,人工智能依然需要跟進社會發(fā)展得步伐。如上文所述,在不遠的未來,一旦迎來強人工智能時代,人工智能會在許多領(lǐng)域創(chuàng)造出超乎想象的社會效益,如交通、美容、醫(yī)療等領(lǐng)域[16]。因此,有限地賦予強人工智能的法律主體資格,是在為未來人工智能的進一步發(fā)展和科技強國的穩(wěn)步崛起奠定堅實的法律基礎(chǔ)。

2.社會發(fā)展進步的要求

人工智能的快速發(fā)展可以對諸如計算機、物聯(lián)網(wǎng)、互聯(lián)網(wǎng)等行業(yè)起到推波助瀾的作用。二者相互促進,相得益彰[17]。以科技帶動社會的發(fā)展,以法律促進科技的進步。例如將人工智能和互聯(lián)網(wǎng)相結(jié)合的智慧法院,雖然目前智慧法院對人工智能的運用仍處于初級階段,但不排除強人工智能時代由機器人充當律師甚至法官角色的可能性。因此,為了更好地促進社會生產(chǎn)力的增長,更好地適應(yīng)經(jīng)濟社會的發(fā)展趨勢,更好地促進我國智慧司法體系的更新和完善,應(yīng)當在一定限度內(nèi)適當肯定強人工智能的法律主體資格。在如今人工智能相關(guān)的法律法規(guī)調(diào)整跟不上其發(fā)展速度的大背景下,賦予強人工智能以法律主體資格是大力發(fā)展人工智能強國戰(zhàn)略的重要意涵。

3.自然人權(quán)益保護的重要舉措

一旦步入強人工智能時代,自然人與人工智能之間就不再是法律主體與法律客體的關(guān)系了。自然人為了自身的進步,一方面不斷地對人工智能進行更迭換代,另一方面也在逐漸地改變著自己的生活方式。無論是搬運工、快遞員等體力工作者還是法官、會計等腦力工作者,都將面臨被人工智能取代其職位的威脅。與此同時,強人工智能的出現(xiàn)可以代替自然人完成一些我們很難做到的高難度工作??梢?,人工智能發(fā)展并崛起的速度是足夠快的,遠遠超過了自然人自身的進化速度,這令人不得不擔心,是否在不遠的將來,人工智能悄無聲息地改變了我們的思維模式和生活方式。一旦事實如此,人工智能的肆意生長就可能為我們造成無法預(yù)料的威脅。因此,在人工智能尚且處在弱人工智能階段的今天,出于法律的滯后性考慮,在適當限度內(nèi)承認強人工智能的法律地位不僅可以規(guī)制人工智能技術(shù)的健康有序發(fā)展,同時有效地降低人工智能時代對自然人生存帶來的風險。

(三)賦予強人工智能法律主體資格的有限性

強人工智能作為特殊法律主體,具備理性認識以及意思表示能力,在未來發(fā)展?jié)M足相應(yīng)條件的前提下,應(yīng)當有限承認其法律主體地位[18](P20-31),這種有限性主要體現(xiàn)在其所享有的權(quán)利有限。

出于強人工智能特殊性考慮,即使在滿足相應(yīng)條件對其法律主體資格予以承認時,也應(yīng)著重限制其部分權(quán)利,譬如選舉權(quán)和被選舉權(quán)等政治權(quán)利,以避免人工智能對自然人社會造成更大威脅。換言之,即使是擁有法律主體資格的強人工智能,在成為憲法主體時也應(yīng)面臨更嚴謹?shù)姆上拗?。與此同時,出于生物倫理安全的考慮,人工智能在婚姻家庭方面也將面臨著法律限制。

由此看來,即便符合了賦予其法律主體資格的條件,強人工智能的法律主體地位也是十分受限的。作為私法主體,其受到倫理、道德、生物學方面的限制,作為公法主體,強人工智能很難同自然人一樣參與到方方面面的社會生活中。

四、人工智能法律主體資格的規(guī)范路徑

法學是一門實踐的科學[19](P89-99),法律主體資格的賦予與否不能僅局限于理論研究,也應(yīng)當重視在實務(wù)中的可操作性。智能時代的到來極大改變了自然人的生活模式和思維方式,但人們對人工智能的未來發(fā)展很難進行準確的預(yù)測,這不僅會引發(fā)一系列諸如知識產(chǎn)權(quán)、侵權(quán)責任等法律糾紛,也會衍生出相關(guān)的道德問題。綜合上文所述,在人工智能不同的發(fā)展階段中,其所具備的科技性、能動性、主觀性有所不同,因此當人工智能處于不同發(fā)展階段其法律主體資格也不可一概而論,對于弱人工智能不應(yīng)賦予法律上的主體資格,而對于強人工智能有必要賦予其有限的法律主體資格。即便人工智能當前仍處于弱人工智能階段,但為了有效解決時代快速發(fā)展、科技飛速進步可能會產(chǎn)生的法律問題,對有必要具備法律主體資格的強人工智能采取保護及規(guī)范措施,是當前大力發(fā)展人工智能、推進科技強國建設(shè)和法治國家建設(shè)的重要意涵。

(一)重視人工智能相關(guān)立法研究

近幾年來,我國對工業(yè)機器人的消費在國際上一直名列前茅,然而,人工智能使用率的增加并沒有伴隨著相關(guān)法律法規(guī)的規(guī)范與保護,我國迄今為止尚未制定較為完整的人工智能法律規(guī)范。在國務(wù)院提出的發(fā)展規(guī)劃中2017年7月8日,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,將人工智能發(fā)展定位為我國戰(zhàn)略產(chǎn)業(yè),分為三步發(fā)展,第一步就是要加快人工智能核心技術(shù)的研發(fā)應(yīng)用,然后再逐步建立人工智能法律法規(guī)與相應(yīng)監(jiān)管以最大限度降低風險。,我國已經(jīng)提出以分步走的方式建立健全人工智能相關(guān)法律規(guī)范的戰(zhàn)略目標,但并未提出具體的可行性建議。在人工智能越來越普遍且功能越來越強大的今天,如何解決人工智能帶來的法學難題,如何構(gòu)建人工智能體系化法律規(guī)范,成為法學界迫在眉睫的研究焦點。

《數(shù)據(jù)安全法》和《個人信息保護法》先后通過,人工智能相關(guān)立法也已提上日程。在發(fā)展迅速的智能時代,應(yīng)當加快建立健全人工智能相關(guān)法律制度,對不同發(fā)展階段的人工智能分別進行法律上的明確規(guī)定,在法律層面明確承認人工智能的主體地位,從而為人工智能技術(shù)的發(fā)展提供法律保障,為學界對其的研究與探討提供話語基礎(chǔ)。

(二)賦予權(quán)利與限制權(quán)利齊頭并進

綜合上文所述,強人工智能相對而言具有較強的自主性和能動性,其法律主體資格在一定程度上應(yīng)當被承認。在合理范圍內(nèi),其理應(yīng)享有相應(yīng)的法律權(quán)利,面對我國現(xiàn)行法律體系對人工智能相關(guān)規(guī)定的缺乏,強人工智能的法律權(quán)利明確、權(quán)利限度設(shè)置等法學難題亟待解決。強人工智能權(quán)利的賦予應(yīng)當遵循擬人性、必要性原則。

強人工智能在合理范圍內(nèi)被賦予的法律權(quán)利應(yīng)當具有擬人性。其最大特征是享有被尊重對待的權(quán)利,因強人工智能與一般法學意義上的“物”有所不同,除了自我深度學習能力、自主意識、能動性之外,強人工智能具備辨認和控制能力,熟悉人類社會的倫理、規(guī)則,故其不應(yīng)被視作奴隸、犯罪工具等不具尊嚴的存在。

強人工智能法律權(quán)利的賦予應(yīng)當遵循必要性原則。當且僅當人工智能相關(guān)法律關(guān)系亟待其相關(guān)權(quán)利的設(shè)定時,其法律權(quán)利方可被賦予,除此之外,強人工智能的法律權(quán)利應(yīng)當被嚴格設(shè)置限度。無論是當前學界討論的“肯定式例舉”還是“否定式例舉”,對強人工智能法律權(quán)利的周延性都難以作出嚴謹具體的規(guī)定,基于此,筆者認為部分學者提出的“法律保留”的限定方式具有較強可行性。譬如可通過法律保留的做法對人工智能的政治權(quán)利加以限制,如選舉權(quán)和被選舉權(quán)等,通過法律保留將其自由權(quán)限制在對自然人有利的界限以內(nèi)。從人工智能設(shè)計研發(fā)的初衷以及霍金對人工智能與人類未來的預(yù)言角度來看,對強人工智能法律權(quán)利的限制一定程度上避免了人類所憂慮的人工智能危機。

可見,賦予權(quán)利與限制權(quán)利齊頭并進,是研究人工智能法律權(quán)利問題的關(guān)鍵。我們在承認強人工智能法律主體資格的同時,也要意識到對其法律權(quán)利加以限制的必要性。這不僅有利于完善人工智能相關(guān)法的制度設(shè)計,同時為人工智能的長遠發(fā)展構(gòu)建了穩(wěn)固基石。

(三)實施強人工智能備案制

法律基于穩(wěn)定性的需要不可隨意改動,智能時代,其穩(wěn)定性難免導(dǎo)致法律跟不上時代發(fā)展的步伐,這種滯后性導(dǎo)致現(xiàn)行法律體系無法同人工智能等新興事物相契合。在發(fā)展迅速的人工智能時代,出于法律的滯后性考慮,學界需要以預(yù)判的目光審視當下、展望未來。為適應(yīng)我國大力發(fā)展人工智能的需要,推進人工智能技術(shù)健康茁壯發(fā)展,夯實制度基礎(chǔ)是明確人工智能法律主體地位的題中應(yīng)有之義。

在探索與人工智能相關(guān)法律問題的制度構(gòu)建道路中,人工智能備案制無疑是最熠熠生輝的指路牌之一。承認強人工智能的法律主體資格,自然伴隨著相關(guān)法律法規(guī)的建立健全和具體制度的構(gòu)建與實施,實行人工智能備案制度,需要法律法規(guī)及相關(guān)部門設(shè)立標準,以不同的身份識別標識對符合條件的強人工智能逐一登記備案,便于以數(shù)據(jù)或編碼的不同對其進行識別。對強人工智能實施登記備案,不僅有利于明確人工智能相關(guān)法律問題中各方權(quán)利義務(wù),保障法律責任的清晰劃分,同時為人工智能法律主體地位的賦予提供了制度保障。

足以見得,法學學者要正視法律的滯后性特點,用稍具超前的學科眼光審視人工智能的法律主體資格問題,在此基礎(chǔ)上充分認識到賦予人工智能法律地位的必要性和可行性,為人工智能的發(fā)展道路掃清法律障礙。

(四)保護制造強人工智能的核心技術(shù)

現(xiàn)實中,部分人工智能會做出諸多對自然人不利的行為舉動,例如削面機器人突然攻擊自然人,掃地機器人向主人發(fā)出語音恐嚇,智能駕駛汽車脫離控制引發(fā)交通事故等行為。而這些對自然人不利的情況,不排除由于其研發(fā)者動機不純,故意為人工智能設(shè)計出不利舉動的可能性。未來人工智能會如何發(fā)展,很大程度上決定于人工智能研發(fā)者和設(shè)計者的想法。假設(shè)一位致力于違法犯罪的犯罪分子掌握了強人工智能技術(shù),后果簡直不堪設(shè)想。那些存在于科幻片中的畫面或許某天會在現(xiàn)實中上演。當然,這不代表著自然人要抑制人工智能的發(fā)展,而是要在推進人工智能發(fā)展的同時,牢牢保護好核心技術(shù)。我們可以設(shè)立強人工智能核心技術(shù)專門保護機關(guān);對剽竊強人工智能核心技術(shù)的行為予以嚴厲打擊;提高人工智能研發(fā)者的法律意識和道德感等等。與此同時,提高研發(fā)者的法律意識和責任感,對于未來人工智能的建設(shè)十分重要。只有如此,我們才能保障人工智能時代的和平與美好。

五、結(jié)語

人們在享受人工智能所帶來的便利與美好的同時,也要預(yù)料到人工智能的快速發(fā)展可能會帶來的法律風暴,防患于未然,合理防范各種風險的發(fā)生[20](P14-19)。討論人工智能的主體資格賦予問題,不僅有助于為人工智能技術(shù)的發(fā)展道路掃除法律障礙,同時為推進我國法律體系的逐步完善和更新提供助力。多學科多角度的研討分析,一定程度上將促進我國引領(lǐng)世界人工智能新潮流的發(fā)展進程。面對不同發(fā)展階段的人工智能,我們需要制定和完善人工智能相關(guān)的法律法規(guī),對不同類型的人工智能予以明確的區(qū)別,并在法律上賦予二者不同的法律主體資格。一方面繼續(xù)把弱人工智能當作法律上的物,即法律客體,另一方面承認強人工智能有限的法律主體地位,同時承認其法律主體資格的有限性,使其作為法律主體參與到法律關(guān)系中,充分發(fā)揮強人工智能不同于自然人的優(yōu)勢,利用科技的進步帶動自然人社會的發(fā)展,同時促進我國法律體系不斷地更新和完善。與此同時,強人工智能的法律認定標準及其在道德、倫理和哲學層面的剖析,亟待學界開展更深層次的法學研究。

[參 考 文 獻]

[1]紀明政.人工智能與智能機器人探析[J].中國科技縱橫,2013(13).

[2]樸宗根,楊玥.人工智能法律主體資格之刑法評判[J].南京師范大學學報:哲學社會科學版,2019(5).

[3]龍文懋.人工智能法律主體地位的法哲學思考[J].法律科學(西北政法大學學報),2018(5).

[4]驍克.論人工智能法律主體的法哲學基礎(chǔ)[J].政治與法律,2021(4).

[5]徐文.反思與優(yōu)化:人工智能時代法律人格賦予標準論[J].西南民族大學學報:人文社科版,2018(7).

[6]程龍.從法律人工智能走向人工智能法學:目標與路徑[J].湖北社會科學,2018(6).

[7]章琪.人工智能——機器人專題(下):機器人和法律[J].世界科學,2015(1).

[8]李菊丹.“人工智能創(chuàng)作物”有沒有著作權(quán)[N].經(jīng)濟參考報,2018(8).

[9]伊曼努爾·康德.康德著作全集:第4卷[M].李秋零,譯.北京:中國人民大學出版社,2005.

[10]王重堯.人工智能法律主體資格的法理學分析[J].河南財經(jīng)政法大學學報,2019(3).

[11]房紹坤,林廣會.人工智能法律主體適格性之辨思[J].蘇州大學學報:哲學社會科學版,2018(5).

[12]孫占利.智能機器人法律人格問題論析[J].東方法學,2018(3).

[13]GerhardWagner.Robot,Inc:PersonhoodforAutonomousSystems[M].NewYork:fordham.rev,2019(88).

[14]朱凌珂.賦予強人工智能法律主體地位的路徑與限度[J].廣東社會科學,2021(5).

[15]星野英一.私法中的人[M].王闖,譯.北京:中國法制出版社,2004.

[16]尤瓦爾.赫拉利.未來簡史:從智人到智神[M].林俊宏,譯.北京:中信出版集團,2017.

[17]克勞斯·施瓦布.第四次工業(yè)革命:轉(zhuǎn)型的力量[M].李菁,譯.北京:中信出版社,2016.

[18]郭明龍,王菁.人工智能法律人格賦予之必要性辨析[J].交大法學,2019(3).

[19]舒國瀅.法學是一門什么樣的學問?——從古羅馬時期的Jurisprudentia談起[J].清華法學,2013(1).

[20]李帥.人工智能威脅論:邏輯考察與哲學辨析[J].東北大學學報:社會科學版,2019(1).

[責任編輯 孫蘭瑛]

猜你喜歡
主體資格法律地位人工智能
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
完善我國現(xiàn)行合伙制度的構(gòu)想
從“成路15輪”看保險經(jīng)紀人的法律地位和義務(wù)
論間接義務(wù)
環(huán)境公益訴訟主體存在問題及對策
下一幕,人工智能!