国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的角色定位及責任表達

2023-08-29 15:12王瑋
關鍵詞:法律責任人工智能

摘 要:法律上人工智能的主體人格討論是人工智能在法律框架下觸及具體問題的一種理論假設。要真正完成人工智能的角色定位,有必要在傳統(tǒng)法律主體人格的理論下,對現階段人工智能的法律人格學說進行檢視,圍繞物的內涵來確立其本質屬性,以期在法律責任制度的框架下論證人工智能物格地位的現實合理性。現階段,人工智能仍應定位于物,這不僅是法律視域下對人工智能諸多現實問題進行制度表達的實踐考量,更是未來解決人工智能技術在帶給我們便捷歡欣與強人工智能無法約束的二重矛盾的重要理論思考。

關鍵詞:人工智能;主體人格;客體物格;法律責任

一、問題的提出

進入21世紀,全球的科技創(chuàng)新進入高速發(fā)展活躍期,新的產業(yè)變革已經出現,以人工智能為代表的科技革命正在重構全球版圖,經濟結構也發(fā)生了重大變換①。2017年7月8日,《新一代人工智能發(fā)展規(guī)劃》將人工智能的技術發(fā)展分為三步,第二步便是到2025年,人工智能要在基礎理論上實現重大突破,形成較為完備的法律法規(guī)和政策體系,以加強未來對人工智能技術的管控與評估。2022年7月,為進一步落實《新一代人工智能發(fā)展規(guī)劃》,推動經濟高質量發(fā)展,科技部等六部門以場景創(chuàng)新建設為方向,印發(fā)《關于加快場景創(chuàng)新以人工智能高水平應用促進經濟高質量發(fā)展的指導意見》。該文件以人工智能的場景創(chuàng)新為方向,為人工智能多領域的發(fā)展提供了契機,但是文件中并未提及人工智能法律主體人格的地位問題。毫無疑問,面對新技術與舊制度之間可能發(fā)生的適用混亂,從法律框架下對人工智能進行合理的定位已成為緊迫的現實問題。

以發(fā)展的視角看,人工智能的未來應是更為自由的智能體,進而逐步擺脫人機關系的束縛。人類或許終要不可避免地退出人機關系的舞臺,從而讓人工智能獨立地從事社會活動[1]。而人工智能法律主體人格賦予與否的問題,不僅是在法律框架內規(guī)范治理相關智能行為的邏輯起點,亦是解決當下人工智能法律責任問題的“鑰匙”。越來越多的學者(彭誠信[2]、張玉潔[3]、郭少飛[4]等)也開始認為,應當賦予人工智能法律人格并使之成為獨立的法律主體。然而,這一做法是否會對人的主體性地位產生挑戰(zhàn),人工智能這個新型的法律主體能否規(guī)范合理地納入現有的法律規(guī)范體系,仍需進一步論證。據此,有必要認真審視人工智能的法律主體人格,重新對人工智能進行角色定位,并在法律責任制度框架下予以表達,從而達到引導技術應用、增進人類福祉的目的。

二、人工智能的人格否定

在人工智能廣泛應用的今天,賦予人工智能獨立的主體人格究竟是解決行為責任“靈丹妙藥”還是在開啟智能時代無法控制的“潘多拉魔盒”?對此問題,有必要在傳統(tǒng)法律主體人格的理論上做出相應判斷。

(一)傳統(tǒng)法律主體人格理論

自羅馬法發(fā)展以來,法律上就一直存在著法律人格的概念,法律人格乃是法律對高等智慧生物的自然人進行界定從而使之成為法律主體的結果。只有真正具備法律意義上的人格,方可在法律中實現其主體性價值。而主體性又作為現代法律制度的根本基石,始終將人置于至高的法律地位,并強調人是一切社會活動的最終歸宿,一切的社會活動都應當服從“人是目的而非手段”這一道德實踐法則[5]。由此觀之,法律主體人格應當是法律制度為了滿足人類生活的現實需要而設置的一種語言概念,實際上是對社會中人最高地位的間接表達。

從內在的理論要素分析,傳統(tǒng)法律主體人格應當包含主體、行為和責任三種能力。第一,主體要素能力。法律主體應是一種人格人,其特征有三:具有意志;屬于目的性存在;能夠自律[6]。人作為一種具有自我反省與理性思考的高等智慧生物,傳統(tǒng)認識中,只有人才能進行辨別、判斷與選擇。辨別與判斷的過程是一個極為復雜的過程,人獨特的思考能力會在反復思索中通過自己的意志有目的地做出相應的判斷,以此自愿地做出符合內心真意的選擇。第二,行為要素能力。法律主體的行為能力主要是指法律主體可以通過自身的作為或者不作為引起法律關系變動的效果,此種行為是一種有意識的自覺行為,也包含了主體可以行使的權利與應當履行的義務。第三,責任要素能力。獨立法律主體人格的重要特征之一是在做出法律行為的過程中,具備獨立的責任能力,無需借助外力而能夠進行自我答責。

縱觀人格制度的發(fā)展,除自然人的法律人格外,法人的人格實為對傳統(tǒng)法律主體人格制度的另一大創(chuàng)新。理由在于,法人人格獨有的社會功能賦予了其獨立民事主體地位的必要性,在促進物的社會流通、交易便捷和交易安全的功能上,法人人格發(fā)揮著重要作用。不僅如此,自然人與法人二元主體模式也賦予了法律人格創(chuàng)設的正當性理由,即法人的主體并不是憑空捏造,而是由自然人本身的主體性延伸而來。法人一切的權利、行為皆是通過現實中的自然人的權利、行為得以詮釋。換言之,法人始終基于其背后的自然人得以構造與發(fā)展,二者之間具有密不可分的關系并進行了充分的主體性契合。從這一意義上思考,要在當下法律框架內完成其他脫離人的主體性創(chuàng)設是艱巨的。

(二)人工智能法律人格學說

究竟能否賦予人工智能獨立的法律主體人格,有必要對現階段人工智能主體人格的不同學說做進一步分析。當下關于人工智能法律主體人格的學說爭論,主要有以下三種:完全人格說、有限人格說和擬制人格說。

1. 完全人格說

完全人格說認為,應該直接賦予人工智能和一般自然人同等的法律主體資格。自從2017年沙特政府宣布世界上第一個公民身份的機器人索菲亞誕生開始,關于人工智能法律主體人格的爭論從未中止。索菲亞是完全人格說的現實體現,其與自然人具有同等的公民身份,已然可以行使與自然人一樣的權利。周詳認為,現代的人工智能具備了權利主體的智能性這一本質要素,智能機器人“人格化”也并不存在法律方法論上的困難,相反具有適應社會發(fā)展的正向功能性[7]。所謂正向功能性并非法律技術或邏輯的考量,而是以法社會學的視角看,人工智能的發(fā)展趨勢是符合社會目的性的??傊?,完全人格說主要是通過對社會形勢及人類需求的判斷,將人工智能從客體物上升到主體人的地位,進而賦予其法律主體人格。

2. 有限人格說

有限人格說認為,現實中人工智能的法律人格并非完全的,而應當是有一定限度的。有限性分別體現在幾個方面。其一,意識范圍的有限性。人工智能與一般物最大區(qū)別在于其具備了一定的自主意識,但該意識范圍并不能等同于自然人的范圍,尤其在自我決策的問題上,要保持一定的原則底線。其二,個人行為的有限性。人工智能本身實施的行為并非沒有依據,而是應當受到其背后算法的約束,即受到人工智能生產者或使用者的限制。其三,責任能力的有限性。人工智能的責任能力與自然人、法人、非法人組織的獨立責任能力不同,雖然可以獨立自主地參與到民事活動中,但是責任承擔卻是有限的,并不能獨立承擔所有責任,人工智能只具備有限的責任能力[8]。袁曾指出,“人工智能的本質仍是工具,其服務人類社會發(fā)展的屬性并未改變,根據人工智能獨立的行為能力,應賦予其法律人格,由于人工智能承擔行為后果的能力有限,故而其人格應當是有限的法律人格,適用特殊的法律規(guī)范?!盵9]總的來說,有限人格說主張人工智能在意識范圍、個人行為、責任能力存在不同限度的有限性。

3. 擬制人格說

在羅馬法的法學思考中,法律人最重要的一大創(chuàng)制是用法律擬制的思維來處理與人類依附相關但又有別于人類的事物或行為,比如法人人格擬制。當今人工智能革命也可嘗試在法學理論上及法律規(guī)范框架下將人工智能納入擬制的傳統(tǒng),這樣的依據在于,人工智能已經超出了一般物的范疇但是又沒有改變作為工具服務人類的附庸性角色。人格擬制的技術選擇不僅可以走出傳統(tǒng)法律意義對人工智能物的束縛,更通過法律擬制的手段而賦予了一定范圍內的法律主體資格,最終做到人類與人工智能和諧共舞[10]。今天人類社會的發(fā)展,已經逐漸步入非唯人類中心主義的時代,要嘗試摒棄陳舊的功利主義“人之外皆是工具”的認知,認真對待像人工智能一樣的非人實體,在法律擬制問題上要進行多方位的思考與嘗試。擬制人格說通過擺脫傳統(tǒng)僵硬物的認識從而賦予人工智能獨立的法律人格,為解決人類與人工智能復雜的社會生活關系提供了依據,但從理論到實踐是否真正可行,仍需要進一步思考。

(三)人工智能法律人格評價

1. 對完全人格說評價

對于完全人格說,學者們之所以主張完全人格理論,主要有以下幾項依據:(1)人工智能除了自主決策之外,已經能夠從不同的事件經驗中自我更新、自我進步,甚至可以作為義務承擔者的身份參加到民事法律關系中,進而承擔相應的法律責任;(2)人工智能已經初現與人類似的部分道德行為。隨著人工智能技術的不斷提升,在與人的交流互動中,人工智能能夠進行情感交流與釋放,尤其在涉及人與人之間基本的道德倫理,這種認識便愈發(fā)堅定。在大數據信息化智能時代的今天,人工智能不管是否受到人類的支配與約束,亦不能阻止其平等地獲取尊重與行使權利,甚至像人一樣表達同情與關愛;(3)責任平衡的補位。這方面考量出自當侵害事件發(fā)生后,當人工智能不具備獨立的法律主體資格,人工智能的設計者、銷售者、使用者對于責任的承擔是否過重?完全人格理論選擇了應當賦予人工智能法律主體資格的決定,但是作為機器的人工智能,如何具體承擔后續(xù)的責任則值得探索。完全人格說從社會發(fā)展的視角固然將人工智能放置于類似于“自然人”的法律地位,但在現實條件下,人工智能技術仍面臨著諸多技術難題,還不能全面準確地嵌入人類的生活,這是必須進行的現實考量。

2. 對有限人格說評價

有限人格說在一定程度上彌補了完全人格說,已經考慮到其意志范圍、行為義務、責任能力的有限性。但從現有法律視角出發(fā),有限責任說則更給我們帶來一系列的法律難題。依據其本身各項能力的“有限性”,是否應當適用特殊的法律規(guī)范?適用的范圍又應如何界定?在有限人格的視角下權利又應當如何分擔?再如在責任承擔問題上,智慧型人工智能作為一種可以進行獨立意思表示的特殊主體,盡管獨立實施了某一個行為,但由于其算法主體本身的有限性,并不能將所有的責任只歸于一體,是否應當考量背后實際生產者或使用者的責任?不同利益主體之間的責任天平又該如何傾斜?有限人格說盡管在理論上存在可能性,但由于其特殊的有限性,在人工智能發(fā)展尚未成熟穩(wěn)定的今天,在現有法律體系下貿然構造特殊的法律規(guī)范無疑會過分增加立法的負擔。

3. 對擬制人格說評價

擬制人格說是人工智能在面對人物之間矛盾無法調和進而不斷權衡的結果。通過擬制獨立的人格,把人工智能提升到主體的法律地位,然后盡可能地確定與之相關的法律關系及權利義務關系[11]。當然,不同學者對于人工智能擬制人格說的肯定,多數是源自對現代法人人格擬制制度的思考。但與法人不同,對人工智能的法律人格擬制應當考慮到以下兩方面的問題:一是關于社會普遍適用性的問題。當下的人工智能技術只能在特定的范圍和領域為一定行為,并不像法人制度能夠廣泛地適用于社會生活,在社會普適性上仍有不足。第二,與人主體性地位的關系。法人擬制之所以能夠準確順利地契合現有的制度框架,一個重要的原因在于法人并未對自然人的主體性地位提出挑戰(zhàn),法人與自然人二者之間是有機統(tǒng)一的關系。反觀如果直接對人之外的人工智能進行人格擬制,則可能會造成更多的社會矛盾,其帶來的實際效益或法律糾紛并未得到削減??梢哉f,擬制人格說是在考量社會實效的基礎上對現行法律制度的一種變通,其實質是將人工智能放置在了與人等同的主體地位。

三、人工智能的物之確立

通過對傳統(tǒng)法律人格理論及人工智能主體人格的學說分析,當下人工智能仍不具備創(chuàng)設獨立法律主體人格的現實條件。這也進一步將人工智能推向客體物的領域,究竟什么是物,人工智能是否真正屬于客體的范疇并滿足物的基本特征,是否能夠被涵攝進而無縫對接到物的法律世界中,有待深入論證。

(一)傳統(tǒng)法律中物的認識

物這一概念是羅馬法學家抽象思維創(chuàng)造的結果。羅馬法中的物有廣義狹義之別,廣義的物是相對于人的范疇,指人以外的一切。狹義的物指財產。狹義物的概念從廣義物的概念發(fā)展而來。通常所謂羅馬法之物僅指狹義之物,可分有體物和無體物。當下立法中將物作為一個重要概念加以規(guī)定,是大陸法系長久以來的立法傳統(tǒng)。如《德國民法典》第90條規(guī)定:本法所稱物,謂有體的標的?!度毡久穹ǖ洹返?5條規(guī)定:本法所稱之物,為有體物。一般來說,作為“物”應具備以下特征:有體性、可支配性、價值性。

過去十年,對于物的認識一直處在不斷深化之中。為應對當代經濟社會物的種類多極化、復雜化的現實,法律對于物的制度認識應當加以深化,從而來概括不同類型的物。楊立新提出和創(chuàng)設了物格概念和物格制度[12],民法體系中物的世界從此有了新的發(fā)展。物可以分為一般物格、特殊物格、倫理物格三個層次。一般物格為最普通的物,與人的感情較遠。特殊物格則是建立在現代科學技術不斷發(fā)展的前提下,傳統(tǒng)一般意義上的物已經被一般物格所包含,對于新興的尤其是離人的感情較近的物無法判斷,如脫離人之外的器官、人體輔助性器械等具備部分身份性特征的實物是否可以納入物的范疇?特殊物格隨即應運而生,特殊物格在一定程度上更看重物的使用價值,當然其也適用財產的法律規(guī)則。最后的倫理物格則賦予了物最高的法律地位,其與人的感情聯系最為緊密,這個時候的物已經初步具備了倫理屬性,關系到人的利益,一定程度上可以做出與人類似的倫理性活動。

就人類發(fā)展而言,人類走出野蠻時代后,人自然而然成為物的支配主體,人類之外者,本質上皆屬人類的工具。人對于物的掌握,早已隨著科技進步而不斷地提高,羅馬法所確立的物,已經遠遠不能包括現代民法物的范圍,當今民法上物的形態(tài)已經從單一化走向多極化。面對物的認識不斷深化,人工智能要想擺脫自身工具性逃離物的范疇,有必要分析其本身的構造特征。這為人工智能中物的屬性研究提供了導向。

(二)人工智能中物的基本屬性

第一,人工智能的構成屬于物的范疇。人工智能的構成,可以分為硬件與軟件兩種。硬件當然屬于客觀實體物,但由算法系統(tǒng)與大數據構成的軟件是否可以納入物的范圍?盡管數據與系統(tǒng)都是摸不著的無體物,但其仍屬于人類科技進步的產物,屬于產品的范疇,并不能和人大腦的智慧置于同等的地位。近代民法從康德哲學體系中抽象出了“人以外全是物”之理念,導致了人與物的二元對立[13]。人工智能盡管初步具備意識性行為,但其依舊不能打破人物二分的私法格局。人工智能作為科學技術,只能是人類進行社會行為的服務者,自身并不能作為目的,就像人工智能不能擁有與人一樣的自主性,其只是服務于人類社會的一種無形工具。

第二,對人工智能的支配決定其屬于物。人工智能的快速發(fā)展,引發(fā)了人工智能是否受人類支配的討論。盡管人工智能已經高度發(fā)達,但必須承認的是人工智能仍是受人支配的輔助物。追溯物的支配性特征,要回歸物本身的概念,物作為一種被法律認可的存在,法律上并不關注物究竟是自然存在還是社會或虛擬存在,更不會對物作詳細的列舉式說明,法律更多關注的是在適用過程中物的社會價值,即如何通過支配物更好滿足人的社會需求,這是真正意義上物的特征。對于物的支配,史尚寬在《民法總論》中論述,物者,謂有體物及法律上具能支配之自然力[14]。王利明在《中國民法典草案建議稿及說明》中對物的定義是,為人力所控制并且具有經濟價值的有體物[15]。孟勤國[16]、楊立新[17]等也都表達了物應為人力控制的觀點。人工智能作為新興的科技產品,無論如何智能性,終歸要受制于人的支配,從這個認識上,其已經具備了物的支配特征。

第三,人工智能是存在于人身之外能夠滿足人類某種需要的物。物的一個重要特征在于,存在于人身之外并能夠滿足人類的需要。人身之內是不能作為物的,如組成身體的部分器官,因其具有絕對的身份性故不能當成物來看。從現實生活看,人工智能并不具備獨特的身份性,其仍是存在于人身之外的產品,主要目的仍是滿足人類自身發(fā)展的需要,其應當被納入民法物的調整范圍,并以此來確定歸屬和利用的秩序。

(三)人工智能發(fā)展了物的內涵

平等是人類永遠的價值訴求,但差序或許是無法回避又永遠無法消除的現實[18]。人工智能是不是物之所以會引發(fā)學術的爭論,一個重要的原因在于,人工智能實質上發(fā)展了物的內涵。人工智能不同于一般物,人工智能的部分行為已經初具倫理性與可預見性,進而產生了人工智能作為物的理論質疑。比如從人工智能的社會性角度而言,在算法規(guī)則的支撐下,人工智能可以像人一樣進行有效的互動,甚至成為領域的專家,這就傳達出一個錯誤的訊號,即人工智能已經可以真正等同于人。

實質上,人工智能欠缺人獨有的理性。比較人工智能的算法科學,當今法律關于人的界定是建立在以康德為代表的德國古典哲學對人本質的深刻認識基礎之上,有深厚的法哲學基礎[19]。理性使人類認識到,人自己是萬物的尺度,并決心通過構建法律制度來規(guī)范現代生活秩序。人工智能盡管實現了由一般工具到智慧型工具的轉型,具備了人的外觀,但其行為的規(guī)律仍是通過數據背后的算法,算法的難易程度代表著人工智能處理信息的能力。相比較社會中的自然人,人工智能沒有在社會中進行真實的生活,人的喜怒哀樂情緒表達也是通過其背后的算法進行展現,甚至可以說,人工智能本身內在價值觀賦予及其基本行為方式的建構,完全可以追溯至該人工智能的生產者、研發(fā)者。

康德認為:“人雖然有著種種的感性欲望,但人主要的行為并不由這些欲望決定,決定其行為的永遠是理性,正因為這樣,才能對人的行為進行道德評價?!盵20]民事法律制度亦是對“理性本位”的深刻闡釋,通過理性進而對民事法律中的主客體加以區(qū)分辨別??梢哉f,理性作為民事主體的人獨特的認識能力,如同旗幟一樣走在人類社會認知的最前面,指引著人類社會未來的發(fā)展方向。對于人工智能的理性認識應當是,要充分肯定科學技術進步的價值,但也要確保人本身的主體地位、自由和人格尊嚴不受侵害,始終樹立尊重人類人格的法律底線[21]。人工智能發(fā)展了物的范疇,卻不能超越人所特有的理性,究其根本,人工智能的創(chuàng)設始終是以服務人類為目標,而非成為人類社會中自然人中的一員。如果將人工智能通過算法構建實行的部分道德性、法律性的單一行為視為其具備與人同等的法律主體人格的依據,這樣的結論是欠妥的。

四、人工智能的責任表達

通過對人工智能物的角色定位,有必要在現有法律框架下考量其契合性。作為物的人工智能是否能夠真正納入現有的責任體系,實現責任理論的充分表達。有必要對人工智能的責任主體、責任行為、責任承擔做進一步研究,以確證人工智能物的定位合理性。

(一)責任主體的清晰明確

在責任主體的問題上,人工智能作為新興的科學,其中仍包含著諸多不確定的未知領域,貿然將其設置為法律主體,將為現有的法律責任制度帶來顛覆性挑戰(zhàn)。但在客體范圍內對人工智能的責任主體進行分析,可以保證物為人用,實現人工智能的安全穩(wěn)定。梳理與人工智能責任主體的相關事件,大致可以分為三類,即因生產缺陷而發(fā)生的侵害事件、使用者未盡到注意義務而產生的侵害事件和人工智能自主決策模式下的侵害事件。

第一,人工智能生產缺陷而引發(fā)的責任事件。該類責任承擔主體較為簡單,應由制造該產品的生產者來承擔責任。追溯侵權責任法設立的根源,侵權責任法重要功能是對行為自由與權益保護做進一步的平衡。產品責任亦是如此,之所以在法律上規(guī)定產品責任屬于無過錯責任,重要理由在于,通過立法對不同群體的利益進行調試與選擇,顯然,立法者選擇了保護使用者的利益。剖析《民法典》第1166條對無過錯責任的規(guī)定,在適用人工智能產品責任的問題上,受害人自身有無過錯完全不影響侵權責任的成立,僅需證明產品缺陷與受到損害之間存在因果關系即可。其理由在于,正是由于人工智能生產者的過錯而直接導致了損害事件的發(fā)生,作為設計控制整個生產程序的社會生產者,面對社會眾多的智能產品使用者,流通市場之前,其應當具備謹慎的注意義務,擔負起更多的社會責任。

第二,使用者未盡到注意義務而產生的侵害事件。弱人工智能時代的今天,多數人工智能的操作仍需要使用者來主動發(fā)送指令。如此一來,使用者在行為層面上的過錯,也是有效責任機制的重要組成部分。面對侵害事件的發(fā)生,生產者已經盡到了相應的告知義務、產品警示義務后,因使用者沒有盡到合理的注意義務發(fā)生的侵害事件,應當由使用者承擔相應的侵權責任。于使用者而言,盡管智能產品使用風險的增加會對市場需求產生不利影響,但卻盡可能給予了受害者最大的保護,這樣安全權衡的結果是恰當可取的。

第三,人工智能自主決策模式下的侵害事件。從某種意義上說,人工智能的自主決策,往往伴隨著強人工智能時代的到來。這個時代的人工智能由于其本身的智能性,故其所依賴的“算法”會更為復雜。因為“算法”對普通人來說其本身就是一個“黑箱”,要求他們理解人工智能自主決策背后算法的合理性更是難上加難。更為嚴重的是,甚至面對連技術的創(chuàng)造者都無法解釋致害真正原因的事故,人工智能生產者再利用責任豁免條款②進行抗辯將更增加侵害事件中因果關系的證明難度。面對一系列的“復雜算法”,受害人在尋求因果關系的過程中,傳統(tǒng)侵權責任歸責的因果關系鏈條是否會因人工智能高度的自主行為而被打破?反觀,若在此種情形下免除人工智能的生產者等的責任,受害人利益該如何保護?言及至此,自我學習、自我更新、自主決策的人工智能生產者似乎又有不可回避的責任。作為生產者,在處理如此復雜的人工智能算法產品時,其應當具備一定的可預見性,即是否可能會直接威脅到人類安全。這個意義上而言,其不可避免要承擔相應的產品責任,應給予受害者相應物質補償、精神慰藉,這也是人工智能技術進步過程中生產者的社會擔當。

(二)責任行為的可解釋性

探討人工智能的法律責任問題,可以通過人工智能行為可解釋性的全新思路來推進。廖備水指出,隨著對人工智能技術與系統(tǒng)認識的不斷深化,可解釋性已然成為對人工智能系統(tǒng)的新的要求,特別是在一些高風險決策領域[22]。如果對高風險領域中人工智能的決策處于模糊的認識,勢必會引發(fā)人類安全問題。不僅如此,人工智能的可解釋性問題也需要在哲學世界里有章可循,因為哲學賦予了人工智能正當的地位與長久的生命力,未來人工智能的發(fā)展方向,需要我們將更多的精力投入人工智能本身的“思想”中,分析其背后的可解釋性。也只有將人工智能的解釋性問題思慮周全,才能進一步解決人工智能涉及的法律責任問題??傊?,人工智能的可解釋性問題,是處理人工智能法律責任問題的關鍵[23]。

從行為解釋角度上而言,按照拉倫茨的觀點,法律在適用的過程中應當實現事實與規(guī)范二者之間的對向交流,即目光要始終穿梭于案件事實與法律規(guī)范之間,在可能適用的法律規(guī)范中要保證案件事實的未加工性;在已經確定的案件事實中,將能夠適用該事實的法律規(guī)范盡可能精確化[24]。對于人工智能而言,需要做的首先是保證人工智能本身決策背后的數據原始性,要弄清楚這一問題,就必須解釋清楚人工智能是如何在現實環(huán)境中進行判斷進而作出算法決策,對該行為的解釋決定了人工智能能否對自己的行為承擔法律責任。

要研究清楚人工智能主體本身行為背后的決策理由,在當下仍是屬于是技術難題。比較明顯的是,無法找尋在決策行為中是否具有過錯,更無法探尋人工智能背后的善與惡,在法律責任的研究上,具有不可解釋性。顯然,法律責任的核心內涵是行為人的內在精神方面和自我控制能力,最起碼,不能要求一個獨立的法律主體對自己不理解和無法控制的事態(tài)承擔道德或法律責任。這就是法律責任或道德責任中歸責的一個重要條件,即控制力。人工智能要對自己的行為有足夠的控制力,這樣的行為才是真正屬于自己的行為,而不是被外在因素所完全決定的。在這一意義上,現實人工智能還遠遠未達到此程度。人工智能行為的背后主要是生產者的算法介入,遠遠未達到實施自我控制的行為,換言之,人工智能生產者在生產時所設定的目的對其后續(xù)的自主性有決定性的影響。故此,從法律責任上考察作為獨立法律主體的智能機器人的可解釋性是不現實的,只有將其置于客體物的地位,才具備嵌入現有法律責任框架的合理性。

(三)責任承擔的現實可能

責任是否能夠獨立承擔是判斷獨立法律人格的重要依據,人工智能是否可以獨立擔責是必須直面的現實問題。盡管不少學者主張授予人工智能實體法律人格以使之成為獨立的法律主體來對自己的行為實現責任的承擔,但直接賦予其所謂的權利不管是在道德層面還是在法律層面上都是值得商榷的,主張機器人承擔自身“行為”責任更是不可能[25]。人工智能只能被動地輸入指令,而非主動做出理性的選擇,只有將其置于物的地位,才能化解責任承擔的現實困境。

一方面,從民法上看,選擇哪一個主體承擔賠償責任應當符合效率性的功能,直接讓人工智能作為法律主體來承擔責任并不是明智的選擇。在侵權責任法的世界里,主體性法律人格的人工智能與自然人人格是等同的,這意味著人工智能將與生產者、銷售者、使用者等多個主體共同擔責,是否會存在算法黑洞進而造成歸責錯誤?結論是肯定的。因為人工智能本身是由其生產者研發(fā)設計,最了解人工智能本身的是生產者,在利益驅動下極易滋生逃避法律懲罰的投機心理。故而,人工智能的責任承擔應當回歸其產品的屬性,方可提高責任效率、預防法律的適用混亂。

另一方面,即使人工智能的主體責任歸屬明確,證據事實有力,直接對其實施相應的懲罰是否具備現實意義?因人工智能沒有獨立的財產,無法對其執(zhí)行財產性懲罰,即使進一步賦予其經濟能力,該懲罰遠遠不能與社會經濟生活中的人對財產的認知比擬。而將控制人工智能行為的電腦程序進行無害化修改,甚至刪除人工智能的記憶儲存、對相關控制程序采取恢復出廠設置等原始化處理等方式[26]都不能發(fā)揮根本性的作用,不能滿足對自然人道義倫理上的精神補償。在文化極度繁榮,人類精神世界豐富發(fā)展的今天,精神的補償在某些場合、某些時刻要大于物質上的賠償,人與人之間關系的相處并非完全由物質財產來決定。將人工智能定位于物,回歸傳統(tǒng)法律意義上的私法主體或許仍是人工智能時代責任承擔的不二選擇。

五、結語

法律人格的重要使命在于將不同的現實實體與作為主體的人進行區(qū)分。在人格認識不斷深化的過程中,或許會通過一定的標準主動篩選個別物并嘗試建立起新型人格化的特殊主體,進而維護以之為中心的法律秩序[27]。站在智能技術領域的十字路口,對人工智能法律主體人格進行討論之時,是與否的思維容易左右搖擺。當下,人工智能的發(fā)展方興未艾,人工智能作為純粹主體解釋力不足,各種學說觀點又差強人意,這使得人工智能在發(fā)展的過程中不免會產生許多疑慮。我國有學者曾經敏銳地預測到,人工智能的自主意識已經實現了巨大飛躍,并在社會生活中扮演著重要的角色,其擺脫人類的純粹工具地位而獲取主體身份將是一個必然的趨勢,與之相關的法律關系主體制度設計也將面臨重大變革[28]。但人工智能發(fā)展到今天,將其置于客體物格的地位仍是保障人民權利、維護社會安全的必要選擇。因為從法律的價值上看,法律的重要價值是為現實人類的生存和發(fā)展服務,任何一個時代的法律規(guī)則都應以實現該法律的價值為終極目標。人工智能作為新時代科學技術的產物,其存在意義同樣在于服務人類社會。若人的主體性在人工智能時代衰微,則現代文明難以存續(xù)[29]。在這一目標上,人工智能物的定位與現行法律制度是相輔相成的,也只有在現實基礎上將人工智能作為客體嵌入現有的物的法律框架內,才是當今信息時代人工智能的發(fā)展方向。

注 釋:

① 節(jié)選習近平總書記2018年5月28日在中國科學院第十九次院士大會、中國工程院第十四次院士大會上講話。

② 《產品質量法》第41條,產品投入流通時引起損害的缺陷尚不存在或當時的科技水平尚不能發(fā)現缺陷存在,生產者不承擔賠償責任。

參考文獻:

[1] 趙秉志,袁彬.人工智能的刑法主體價值問題研究[J].河北法學,2022,40(9):2-14.

[2] 彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當代法學,2019,33(2):52-62.

[3] 張玉潔.論人工智能時代的機器人權利及其風險規(guī)制[J].東方法學,2017(6):56-66.

[4] 郭少飛.算法法人的理論證立及構成要素探析[J].東方法學,2021(5):93-109.

[5] 鄭智航.平衡論視角下個人免受自動化決策的法律保護[J].政法論叢,2022(4):94-105.

[6] 劉練軍.人工智能法律主體論的法理反思[J].現代法學,2021,43(4):73-88.

[7] 周詳.智能機器人“權利主體論”之提倡[J].法學,2019(10):3-17.

[8] 許中緣.論智能機器人的工具性人格[J].法學評論,2018,36(5):153-164.

[9] 袁曾.人工智能有限法律人格審視[J].東方法學,2017(5):50-57.

[10] 范進學.人工智能法律主體論:現在與未來[J].政法論叢,2022(3):3-17.

[11] 張紹欣.法律位格、法律主體與人工智能的法律地位[J].現代法學,2019,41(4):53-64.

[12] 楊立新.民法物格制度研究[M].北京:法律出版社,2008.

[13] 劉云生.近代人格理論建構與人工智能民法定位[J].人工智能法學研究,2018(1):71-79.

[14] 史尚寬.民法總論[M].北京:中國政法大學出版社,2000.

[15] 王利明.中國民法典草案建議稿及說明[M].北京:中國法制出版社,2004.

[16] 孟勤國.論中國民法典的現代化與中國化[J].東方法學,2020(4):159-169.

[17] 楊立新.我國民事權利客體立法的檢討與展望[J].法商研究,2015,32(4):23-28.

[18] 王春梅,馮源.技術性人格:人工智能主體資格的私法構設[J].華東政法大學學報,2021,24(5):69-80.

[19] 劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.

[20] [德]康德.法的形而上學原理——權利的科學[M].沈叔平,譯.北京:商務印書館,1991.

[21] 楊立新.從民法通則到民法總則:中國當代民法的歷史性跨越[J].中國社會科學,2018(2):72-97.

[22] 廖備水.論新一代人工智能與邏輯學的交叉研究[J].中國社會科學,2022(3):37-54.

[23] 劉艷紅.人工智能的可解釋性與AI的法律責任問題研究[J].法制與社會發(fā)展,2022,28(1):78-91.

[24] [德]卡爾·拉倫茨.法學方法論[M].陳愛娥,譯.北京:商務印書館,2020.

[25] 解正山.對機器人“法律人格論”的質疑——兼論機器人致害民事責任[J].暨南學報(哲學社會科學版),2020,42(8):84-97.

[26] 付其運.人工智能非主體性前提下侵權責任承擔機制研究[J].法學雜志,2021,42(4):83-90.

[27] 江平,龍衛(wèi)球.法人本質及其基本構造研究——為擬制說辯護[J].中國法學,1998(3):71-79.

[28] 馬長山.智能互聯網時代的法律變革[J].法學研究,2018,40(4):20-38.

[29] 陸幸福.人工智能時代的主體性之憂:法理學如何回應[J].比較法研究,2022(1):27-38.

作者簡介:王瑋(1996- ),男,山西懷仁人,華南理工大學碩士研究生,研究方向為民商法。

猜你喜歡
法律責任人工智能
我校新增“人工智能”本科專業(yè)
性騷擾的用人單位法律責任研究
2019:人工智能
人工智能與就業(yè)
數讀人工智能
下一幕,人工智能!
下一幕,人工智能!
強化生產者環(huán)境保護的法律責任
依法治國須完善和落實法律責任追究機制
水資源保護中政府法律責任的完善
华亭县| 厦门市| 鄂伦春自治旗| 繁昌县| 涞水县| 宜川县| 奉贤区| 巴南区| 星座| 黎川县| 瑞丽市| 虹口区| 泉州市| 舞阳县| 会宁县| 大田县| 桐庐县| 固安县| 岫岩| 保山市| 广水市| 阳西县| 安义县| 虹口区| 汽车| 盐源县| 泰顺县| 景泰县| 仪征市| 略阳县| 浦东新区| 宾阳县| 福贡县| 方山县| 洪湖市| 温宿县| 资溪县| 祥云县| 揭西县| 信宜市| 方城县|