黃紹敏
(廣西大學法學院,廣西 南寧 230004)
2016年3月,在同世界著名圍棋選手李世石的對局中,阿爾法狗(AlphaGo)以4:1取勝,成為第一個戰(zhàn)勝圍棋世界冠軍的機器人。這是繼1997年IBM深藍戰(zhàn)勝卡斯帕羅夫后,人類在人工智能領域取得的又一個里程碑式勝利。人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應用系統(tǒng)的技術(shù)科學。人工智能是計算機科學的一個分支,旨在了解智能的實質(zhì),并生產(chǎn)出新的能與人類智能相似的方式作出反應的智能機器。其研究領域包括智能機器人、語言識別、圖像識別、自然語言處理、問題解決和演繹推理、學習和歸納過程、知識表征和專家系統(tǒng)等。目前,人工智能已經(jīng)廣泛應用于自動駕駛汽車、醫(yī)療輔助等領域,直接為普通人的日常生活而服務。然而,人工智能給人類帶來便利的同時,也存在著風險,如果這種潛在風險不加以管控,將會給人類帶來災難性后果。因此,人工智能法律主體資格的法理證成以及相關(guān)法律規(guī)制,已成為當前無法回避的課題。具體而言,明確人工智能的法律地位是進行法律規(guī)制的前提。本文通過參考自然人與法人的賦權(quán)邏輯,對人工智能法律主體資格進行了否定性證成,以構(gòu)建特殊物格視野下的規(guī)制路徑,以期對人工智能法律規(guī)制問題研究有所裨益。
人工智能能否被賦予法律主體資格是學界長久以來爭論的焦點,并由此衍生出“肯定說”“否定說”“折中說”等派別。事實上,對人工智能法律主體資格賦權(quán)的不同態(tài)度反映著“人類中心主義”在面對新生事物的疑慮與恐懼,也是對我國現(xiàn)行法律主體資格賦權(quán)邏輯的一次全面檢視?;诖耍斜匾仁崂韺W界對人工智能法律主體資格的爭議現(xiàn)狀,解讀不同派別學者的論證內(nèi)容,總結(jié)論爭焦點并進行剖析。
持肯定說的學者認為,隨著人工智能技術(shù)的成熟,應賦予人工智能法律主體資格以解決社會矛盾和糾紛,讓人工智能更好地服務于人類。例如,郭少飛(2018)認為,人工智能具有自主性和主動性特征,并非完全受主體支配,因此在法律上應賦予其“電子人”地位[1]。楊清望、張磊(2018)則主張涉及人工智能的法律糾紛,要從人類權(quán)利優(yōu)先的立場出發(fā),運用法律擬制的立法技術(shù)賦予人工智能獨立的法律人格[2]。至于賦予人工智能法律主體資格引發(fā)人們對其風險的擔憂,徐慧麗(2020)認為只要對其進行合理設計,并完善人工智能的倫理規(guī)范,就可以避免人工智能給社會帶來的危險[3]。也有學者從反面論證,拒絕承認人工智能成為法律主體不僅會阻礙人工智能的發(fā)展,也會造成法律秩序的混亂[4]。此外,國際上已有賦予人工智能法律主體資格的先例,2017年沙特阿拉伯賦予“索菲亞”高級智能機器人本國國籍,確認其公民地位[5]。不難發(fā)現(xiàn),持肯定說的學者對人工智能尤其是強人工智能抱有極大的期望,認為其將擁有類似自然人的意志、感情、思考等類人化特征,賦予其法律主體資格正當其時。
持否定說的學者認為,人工智能不具備自由意志、道德感情等人類固有特征,人工智能只能是法律客體,不具備成為法律主體的條件。例如,劉洪華(2019)認為當前的人工智能并不具有理性意識,不能賦予其法律主體資格,即擬制法律人格對社會問題的解決沒有現(xiàn)實意義[6]。馮潔(2019)主張從法理論的角度來看,法律上的“人”一方面應當擁有享有權(quán)利和履行義務的法律資格,另一方面應該事實上具備享有權(quán)利和履行義務的能力,若無法滿足這兩個條件,則不能享有法律主體地位[7]。皮勇(2018)認為人工智能不具有獨立的主體性,不在現(xiàn)行法律所規(guī)制范圍內(nèi),賦予其法律主體地位極易與現(xiàn)有法律體系產(chǎn)生“排異反應”[8]。同時有學者指出,若承認人工智能的法律主體地位,人類將承擔不必要的風險,甚至可能會威脅到人類的生存[9]?,F(xiàn)有法律堅持“人類中心主義”立法理念,陳嘉敏、朱?。?020)指出,法律調(diào)整的對象是人,并沒有為人工智能成為法律主體留有余地[10]。
持折中說的學者既不肯定也不否定人工智能法律主體資格的地位,而是認為其處在一種“中間狀態(tài)”,即有限人格。人工智能具有一定的自主控制能力,可賦予其一定范圍內(nèi)的法律主體資格,即有限的法律人格,但由于人工智能行為能力有限,應適用特殊的法律規(guī)范[11]。司曉、曹建峰(2017)從利益平衡視角,提出賦予人工智能法律主體地位只是解決問題的一種方式,實現(xiàn)法律利益的平衡才是根本目的[12]。質(zhì)言之,人工智能是處在人與物之間的一種特殊存在,根據(jù)其智能化程度的強弱區(qū)分是否具有法律主體資格,弱人工智能屬于一般客體,而強人工智能則應該賦予其有限人格,具備法律主體資格的條件。綜上,折中說只是對強、弱人工智能法律主體資格的類型化設計,其本質(zhì)上依然是肯定說。
綜上,法律主體是指可以享受法律權(quán)利、能夠承擔法律義務的一種資格,當前立法語境中的法律主體主要包含自然人與法人兩種,人工智能是否具備法律主體資格也需要參考上述兩類主體的賦權(quán)邏輯。其一,人工智能是否具有自然人的理性意識,持肯定說的學者從技術(shù)理性角度論證了未來強人工智能會發(fā)展出理性意識從而應該賦予其法律主體資格,而持否定說的學者則從“人是目的”角度反駁人工智能具有理性意識的觀點。其二,基于理解與遵守法律規(guī)范的考量,肯定說學者從人工智能的深度學習能力論證了未來人工智能可以理解和遵守法律規(guī)范,而否定說從人工智能只能機械理解法律,更無法遵守法律方面,駁斥了肯定說。其三,人工智能是否具有社會文化屬性,肯定說觀點從社會文化角度論證人工智能具備社會文化屬性,否定說則從人工智能的機械原理屬性上駁斥這種觀點,人工智能無法具備社會文化意義上的自我意識。
如前所述,賦予人工智能法律主體資格不能理想化,而是應當基于現(xiàn)有法律主體資格的賦權(quán)邏輯,并通過對比人工智能自身的特點,從而實現(xiàn)對其法律主體資格的理性證成。事實上,參考自然人與法人的賦權(quán)進路,人工智能并不具備法律意義上的理性,賦予其擬制人格同樣無法發(fā)揮應有的社會價值,因此,當前并不具備承認其法律主體資格的現(xiàn)實條件。
2.1.1 自然人主體的賦權(quán)邏輯
自然人不僅是具有生物學意義上的人,更是具有社會文化屬性的人,即人具有自然和社會雙重屬性,而社會屬性是人和動物的本質(zhì)區(qū)別。人之所以具有法律主體的資格,在于同時具備資格條件(規(guī)范條件)和能力條件(實體條件)。資格條件是形式要件,賦予法律主體資格需要法律規(guī)范予以確認,但反過來確認法律主體資格又需要具備一定能力條件為前提,即需要主體具備自我意識和自由意志,因此,法律主體資格的取得需要資格條件和能力條件同時具備。需要指出的是,法律中的“人”并不等同于生物學意義上的“人”,因為法背后承載著統(tǒng)治階級的意志。例如,奴隸制社會中的奴隸就不具有法律主體資格,他們只是奴隸主的財產(chǎn)或者工具,并且服從于主人的意志,因而不是法律意義上的“人”。
能力條件則是能否被賦予法律主體資格的關(guān)鍵,法律規(guī)范目的在于調(diào)整人的行為,而法律調(diào)整人的行為則是通過設定權(quán)利和義務來實現(xiàn),只有具備意識和意志的自然人才能享有法律權(quán)利、履行法律義務以及承擔法律后果。因此,具有法律意義的行為,既要以法律規(guī)范為依據(jù),又要以意識和意志為基礎。一方面,由于人具有自我意識和自由意志,能夠理解法律規(guī)范賦予的權(quán)利和義務,行為人可以明白哪些行為能為、不能為及其法律后果,權(quán)利和義務是一個規(guī)范問題,而行使權(quán)利和履行義務卻要以意識和意志為基礎,這是成為法律主體的實質(zhì)要件。另一方面,違反法律義務會產(chǎn)生相應的法律后果,通過法律制裁使行為人知道哪些行為是不能做的,進而規(guī)范自己的行為,并根據(jù)法律規(guī)范作出選擇和反饋。
2.1.2 法人的賦權(quán)邏輯
法人是通過立法技術(shù)由自然人為了某種共同目的而組成的一種擬制法律主體,是立法創(chuàng)造的一個法律概念。雖然法人沒有生命特征,但揭開法人的面紗可以發(fā)現(xiàn),其具有獨立的意志,能獨立承擔權(quán)利義務,因而享有法律主體的資格。
第一,法人具有意志性。人類誕生以來就過著群居生活,因為個人的力量是渺小的,必須聯(lián)合起來才能共同生存,于是在一定范圍內(nèi)就形成部落,部落成員有著共同的目標,部落內(nèi)部會有明確的分工,也會有部落首領,這大概是法人的濫觴。法人盡管是由自然人組成,但法人成立以后就具備獨立于自然人的意志,其意志體現(xiàn)在法人章程里,是自然人意志一致性的結(jié)果,且這種意志具有單一性。如果意志不一致,就如同一盤散沙,便無法實現(xiàn)法人的共同目的。因此,自法人成立之時,法人的意志就與自然人的意志相分離,個人意志必須服從法人的意志,且不能隨意干預法人的運行。
第二,法人可以承載權(quán)利義務。權(quán)利與義務是法律的靈魂,只有法律主體才能承載權(quán)利義務,法人同時具備成為法律主體的資格條件和能力條件。法人的章程規(guī)定了其權(quán)利義務,只不過要通過機關(guān)內(nèi)的自然人來實現(xiàn),但機關(guān)的自然人所實施行為的法律后果卻要歸入法人,即法人的責任和自然人的責任相分離。例如,刑法對單位犯罪的規(guī)定,既處罰直接負責的主管人員和其他直接責任人員,也對單位判處罰金。
第三,法人本質(zhì)是輔助人實現(xiàn)目的。法人是由具有意志的自然人組成的團體,但不是自然人簡單拼湊,而是具有一定目的性的團體組織。社會分工的精細化決定了法律關(guān)系的復雜化,而設立法人制度目的在于簡化法律關(guān)系,即利用法人,收集個人的意志并進行輸出,實現(xiàn)交易效率與群體效益的最大化。再者,法律本身也要追求精簡而非復雜,因為法律需要寫在人的心中而不是文本上,如果法律關(guān)系復雜難懂,那么法律將難以推行。因此,法人本質(zhì)上是為人類利益服務的,能夠創(chuàng)造社會文化價值以實現(xiàn)人的目的,但又不能否認其獨立的法律價值,因而賦予法人主體資格。
2.2.1 人工智能缺乏意志能力
人工智能與法人不同,法人因為立法技術(shù)將自然人的意志凝結(jié)在法人之中從而具備獨立的意志,究其根本是法人背后體現(xiàn)自然人的意志,從而可以獨立承載權(quán)利義務,成為法律主體。其一,人工智能不是虛擬物而是人造物,其行為雖然具有一定自主性,但其貫徹的是人的意志,本質(zhì)上是服務人類的工具。意志是一個綜合性的概念,它涉及認知、情感、道德等方面,更與倫理學、哲學、社會學等息息相關(guān),而人工智能運行邏輯單一,數(shù)據(jù)的輸入與結(jié)果的輸出事實上都是代碼與算法相結(jié)合,無法與復雜無比的人腦相提并論。其二,人工智能最大的迷惑性在于大數(shù)據(jù)使其具有深度學習能力,使人們誤以為人工智能具有理性意志。其實不然,大數(shù)據(jù)來源人的收集和整理,一旦人工智能離開大數(shù)據(jù)的支持,那么人工智能也無法進行深度學習,更談不上意志。其三,情感缺失。情感是先于理智存在的,人工智能只有智力,沒有情感,不是真正的智能[13]。人工智能的誕生就是彌補人類的理性,但卻忽視了情感和道德,因此只有智商沒有情商稱不上真正的意志,充其量也就是機械意志。
2.2.2 人工智能無法實現(xiàn)法律規(guī)制目的
法律規(guī)范通過設定權(quán)利義務及法律后果來維護社會秩序,首先,法律規(guī)制的目的都體現(xiàn)在權(quán)利義務之中,由于人工智能沒有規(guī)范認識和理解能力,讓其承擔法律責任沒有任何意義。例如,讓人工智能機器人賠禮道歉或者判處刑罰,人工智能是機械體,施加懲罰也無法感知,也沒有承擔財產(chǎn)責任的能力,即使對人工智能施加懲罰,仍然無法避免再犯,反而會給自然人利用人工智能規(guī)避法律責任提供渠道。另外,法律規(guī)制的目的在于通過懲罰和預防來實現(xiàn),如果僅有權(quán)利和義務的規(guī)定,卻沒有違反義務的法律后果,那么法律也將成為一紙空文。但人工智能不會認識到所犯錯誤,更無法承擔法律后果,因而不能實現(xiàn)特殊預防和一般預防目的。因此,透過現(xiàn)象看本質(zhì),法律本質(zhì)上是調(diào)整人與人之間的關(guān)系,而非人與人工智能的關(guān)系。
2.2.3 人工智能不能承擔社會責任
基于法人的賦權(quán)邏輯,法人之所以可以成為法律擬制的主體,不僅在于法人具備相對獨立的意志,能夠承載權(quán)利和義務,更重要的是法人在社會中可以扮演重要角色,承擔社會責任。因為法人實質(zhì)上是人的物理組合,由眾人聯(lián)合成為一個法人,這中間發(fā)生的是物理變化而非化學變化[14]。法人擁有獨立的財產(chǎn),在社會中維持社會的高效運轉(zhuǎn),例如通過招聘勞工、發(fā)放薪資、職員管理、社會保障等維護社會穩(wěn)定的價值。人工智能作為人造物,具有一定的自主能力,尤其是超人工智能,但無論其多么智能,它也只能作為一種人類工具,因為人工智能沒有獨立的財產(chǎn),也不具備理性意識承擔社會責任,它更多的是在執(zhí)行人類設計好的程序,是人類工具的延伸,因而無法承擔社會責任,故而不能賦予法律主體資格。
在應然層面,人工智能不具備法律意義上的理性意識,也無法發(fā)揮法人應有的社會價值。在實然層面,目前乃至很久的將來,人工智能也只是人類智商與行為簡單、機械的延伸,屬于工具范疇。因此,基于人工智能法律主體資格的預設破滅,當前應在民法客體范圍內(nèi)為其尋找歸宿,特殊物格便是值得考慮的進路。
隨著人類支配能力的增強,物的種類呈現(xiàn)出多樣化趨勢,物格的內(nèi)涵也在不斷豐富和發(fā)展。物格是相對于人格而提出的一個概念,人格僅有人作為法律的主體能夠享有,除人之外的物只能作為法律的客體為人所支配和利用。物格是指某種物在法律中所享有的資格或者地位,我國現(xiàn)有法律中并無“物格”這一法律概念,但隨著人工智能的興起,期待物格理論的回歸以解決法律困境。根據(jù)物的性質(zhì)和特點賦予其物格,目的在于物的類型化保護,一方面可以使立法者根據(jù)法律主體的需要確定保護程度,制定不同的法律予以規(guī)制。另一方面,對于以人工智能為代表的新興事物不能視而不見,無論是贊成還是否定其法律主體資格,都必須做出法律層面的回應,而特殊物格則為人工智能預留了制度設計的緩沖區(qū),既不至于出現(xiàn)顛覆法律秩序的局面,又可以填補法律漏洞規(guī)制人工智能所帶來的風險。楊立新(2008)根據(jù)物的不同類型,把物劃分為“倫理物”“特殊物”“一般物”三種類型,“倫理物”是指具有生命倫理價值的物;“特殊物”是指具有特殊法律屬性并應建立特殊法律規(guī)則的物;“一般物”是指除倫理物與特殊物以外的其他物[15]。
如前文所述,人工智能不具備成為法律主體的條件,又不同于民法中的普通物,因此,根據(jù)人工智能的性質(zhì)、特征以及它與人的關(guān)系將其納入特殊物格范圍比較妥當。
第一,特殊物格本質(zhì)上仍然屬于法律客體的一種,為人所支配和利用,因為人是目的而非手段,且具有理性和意志,能夠作為法律主體承載法律權(quán)利與義務,將人工智能定位為特殊物格劃清了人與物的界限,既回應了人工智能法律地位的困惑,又能實現(xiàn)對人工智能的特殊保護。
第二,賦予人工智能特殊物格地位,便于區(qū)分人工智能與其他物,因為在人工智能產(chǎn)品上具備人的某些人格要素特征,能在社會中獨立扮演某些角色,如果只簡單將人工智能定性為“一般物”,就會抹殺其獨特作用。因此,特殊物格的屬性定位明顯區(qū)別“一般物”的保護思路,使得人工智能在符合人類最低倫理道德觀的前提下,充分得到應有的重視。
第三,明確人工智能特殊物格地位,便于劃分和明確法律責任。人作為法律主體支配人工智能,意味著最終的法律責任應該由作為主體的設計者、制造者和使用者來承擔,不至于讓人工智能成為違法甚至犯罪的工具,損害人類社會秩序和利益,使人工智能的發(fā)展始終處于安全可控的范圍內(nèi)。
綜上,特殊物格的規(guī)制思路與人工智能“類人性-工具性”的復合屬性高度契合,法律客體的定位不僅可以延續(xù)傳統(tǒng)民法的人物二分理論,又能在保證人類自身權(quán)益的基礎上,實現(xiàn)對人工智能的有效規(guī)制,契合了人工智能的發(fā)展需求。
如前所述,人工智能難以被賦予法律主體資格,而通過特殊物格的定位可以劃清人與物、人工智能與一般物的界限,同時利于明確法律責任。對于特殊物格視野下人工智能法律規(guī)則如何具體設計,筆者以為應從立法嵌入、人工智能利用原則、類型化區(qū)分以及責任分配四個層面予以考量。
傳統(tǒng)民法堅持主客二分理論,即自然人為法律主體,自然人以外的物為法律客體。隨著社會文明進步,法律中的主客體呈現(xiàn)相反的發(fā)展趨勢。一方面,作為主體的人從多層次走向單一化,法律面前人人平等觀念深入人心,法律人格的平等不再把人區(qū)分為三六九等。另一方面,人類的認知能力和創(chuàng)新能力極大增強,不斷涌現(xiàn)出新興事物,物的類型由單一化向多元化發(fā)展,這些具有新特征的事物需要法律作出回應。而物格理論的提出給我們帶來啟發(fā)和借鑒,根據(jù)多元化新興事物的屬性來確定它們在法律中的地位和資格,進而可以確定法律主體對不同物的支配規(guī)則和保護規(guī)則。因此,物格制度可以有效滿足多元化物的規(guī)制需要。
人工智能是被人支配的客體,在這一基本法律定位前提下從物格理論中尋找人工智能的法律定位并據(jù)此構(gòu)建相應規(guī)則,可以實現(xiàn)法律效果和社會效果的統(tǒng)一。然而現(xiàn)行法律中并無特殊物格的規(guī)定,使得人工智能仍等同于一般物,缺乏法治化指引,立法者需要在法律中嵌入特殊的規(guī)則對其進行規(guī)制。需要指出的是,人工智能雖然具有特殊屬性,對是否應該賦予人工智能法律主體資格存在爭議,但人工智能的特殊法律屬性并非要賦予其法律主體資格才能對其規(guī)制[6]。立法者將人工智能定位為特殊物,賦予其特殊物格地位,既保證了法律秩序的統(tǒng)一和穩(wěn)定,又能實現(xiàn)對人工智能的有效規(guī)制。比如,可以在未來修訂《民法典》時,在總則編設專章規(guī)定一般物、倫理物和特殊物,對物的支配和規(guī)制進行類型化區(qū)分,為人工智能發(fā)展預留制度空間,同時在《民法典》各分編中增加更為具體的物權(quán)、侵權(quán)等方面的規(guī)則。
人工智能技術(shù)的發(fā)展可以給人類帶來巨大好處,但也存在風險隱患?;艚鹪啻伪硎?,“徹底開發(fā)人工智能可能導致人類滅亡”。這并非杞人憂天,必須引起高度警覺。人工智能是人類智慧的產(chǎn)物,但生產(chǎn)什么樣的人工智能?怎樣生產(chǎn)人工智能?如何利用人工智能?都必須明確法律底線和利用原則。人工智能作為人造物,人對其應該享有絕對的控制權(quán),絕不能出現(xiàn)凌駕于人之上的人工智能。人工智能的法律規(guī)制不僅是對其本身進行規(guī)制,其本質(zhì)還是在規(guī)制人的行為,因為人工智能是由具有意識的人生產(chǎn)和使用的。而法律規(guī)制人工智能主要在制造和應用兩個方面,其中在制造階段對人工智能的設計將決定其功能和作用。因此,人工智能的設計制造階段的法律規(guī)制極為重要。否則,一旦“潘多拉魔盒”打開,將會造成災難性后果,無論應用階段的人工智能法律規(guī)制多么精確縝密都無濟于事。技術(shù)是中立的,沒有好技術(shù)和壞技術(shù)之分,關(guān)鍵在于人如何利用技術(shù)。愛因斯坦曾指出,“科學是一種強有力的工具。怎樣用它,究竟是給人類帶來幸福還是帶來災難,全取決于人自己,而不取決于工具”[16]。人是主體,主體支配客體,而不能出現(xiàn)客體支配主體的情況,必須確立人工智能以人為本的最高技術(shù)發(fā)展原則[6]。因此,人工智能的發(fā)展必須明確其利用原則,使人工智能造福人類。
人工智能經(jīng)過多年的發(fā)展,已經(jīng)形成形態(tài)和功能各異的智能機器體,因此,對其進行分類才能達到有效法律規(guī)制。人工智能通常劃分為弱人工智能、強人工智能和超人工智能,但并非所有的人工智能都需要特殊規(guī)制,比如像智能掃地機器人等弱人工智能,其技術(shù)原理簡單并不需要特殊法律規(guī)范,根據(jù)“奧卡姆剃刀原則”,只需按照一般物規(guī)制即可。隨著大數(shù)據(jù)、云計算等新技術(shù)的不斷發(fā)展,在不遠的將來,大量強人工智能和超人工智能將充斥在人類社會中。而具備一定自主性和行動自由的人工智能則需要特別的法律規(guī)制。例如,一些秘書助手、情侶機器人、老人陪伴等人工智能與人類生活密切相關(guān)的,而且具備人的外形和某些人格要素,這些高端人工智能宜將列為“特殊物”范疇,屬于最高等級的法律客體。區(qū)分人工智能類型的目的在于有針對性地進行規(guī)制,在法律保護、致人損害的法律責任等方面有所區(qū)別。
人工智能具有驚人的計算、信息存儲等能力,在某些方面超過人類,但由于不具備規(guī)范理解能力,這意味著人工智能不能對其行為負責。在特殊物格定位下,需要對人工智能的侵權(quán)責任進行類型化設計。而承擔法律責任首先要明確責任主體,即人工智能的設計者、使用者以及人工智能本身的法律責任。人工智能侵權(quán)情形可以大致分為三類:一是人工智能的設計者,在交付產(chǎn)品之前就存在缺陷,侵權(quán)損害發(fā)生在使用階段,但使用者不存在過錯,這類侵權(quán)責任應該歸屬設計者,設計者應該對其設計的產(chǎn)品負責,只有產(chǎn)品質(zhì)量責任讓設計制造者承擔,才能最大程度保障人工智能產(chǎn)品的安全可靠[6];二是人工智能設計完全符合規(guī)定的質(zhì)量標準,在應用階段由于使用者操作失誤造成侵權(quán)損害,那么這一類侵權(quán)責任應該歸屬于使用者;三是人工智能在設計和應用上均存在問題,那么這一類侵權(quán)責任應該由設計者和使用者按照各自過錯共同承擔侵權(quán)責任。在這三種侵權(quán)情形下,承擔責任的主體應當有所不同。
基于人工智能的產(chǎn)品屬性,產(chǎn)品質(zhì)量致人損害,應該適用產(chǎn)品質(zhì)量法相關(guān)規(guī)定,當然應由產(chǎn)品制造者承擔最終責任,這是來自產(chǎn)品質(zhì)量法理論的解釋[17]。人工智能產(chǎn)品定位為特殊物格,其侵權(quán)責任應該由設計者或者使用者承擔無過錯責任,而不能把責任轉(zhuǎn)嫁到人工智能本身上。至于未來可能出現(xiàn)的超人工智能,其具有極強的自主能力,如果造成侵權(quán)而把責任完全歸咎于設計者和使用者,勢必會阻礙人工智能的發(fā)展,但可以采取刪除數(shù)據(jù)、永久銷毀等方式使其喪失價值。
雖然人工智能具有過人的能力,但終究是人造物,只能是為人類所支配和利用的客體,不具備成為法律主體的條件。人工智能技術(shù)是一把雙刃劍,關(guān)鍵在于我們該如何理性利用。法律不應滯后于時代發(fā)展,而應主動緊跟時代發(fā)展前沿對可預知的未來做好法律設計。借助特殊物格理論,人工智能可以在法律中找到自己的歸宿,賦予其特殊物格地位,以促使人工智能更好地服務于人類社會。