董 彪
(北京工商大學(xué) 法學(xué)院,北京 102488)
以計算機和互聯(lián)網(wǎng)為基礎(chǔ)的信息革命是繼蒸汽革命和電力革命之后的第三次科學(xué)技術(shù)革命[1]。它將人類社會相繼帶入互聯(lián)網(wǎng)時代(Internet Time)、大數(shù)據(jù)時代(Data Time)和人工智能時代(Artificial Intelligence Time)[2]。人工智能技術(shù)研發(fā)與應(yīng)用使得智能主體呈現(xiàn)二元化特征,人類作為唯一智能主體的格局被打破。在深度學(xué)習、機器學(xué)習等技術(shù)的影響下,智能機器不再簡單受控于人類編程,具有了一定的自主性,智能機器的工具屬性被弱化,傳統(tǒng)的主體與客體二元區(qū)分的框架受到?jīng)_擊,如何從法律制度設(shè)計的層面予以回應(yīng)值得思考。英國、美國、日本等已經(jīng)就智能科技應(yīng)用領(lǐng)域的規(guī)則設(shè)計展開了深入研究,歐盟法律事務(wù)委員會嘗試對人工智能時代的民事法律責任進行體系化規(guī)則設(shè)計并提出相關(guān)立法草案。我國制定的《新一代人工智能發(fā)展規(guī)劃》將人工智能的法學(xué)研究作為重要任務(wù),指出人工智能發(fā)展不確定性對法律造成沖擊,提出構(gòu)建人工智能法律體系的“三步走”戰(zhàn)略。
自主性(autonomy)是指智能機器具備的自主思考或行為的能力,是人工智能區(qū)別于其他人類發(fā)明的特性。自主性意味著智能機器的思維或行為不再是人類程序設(shè)計的結(jié)果,它具有自主學(xué)習和適應(yīng)環(huán)境的能力,能夠脫離程序設(shè)計者進行自主思考或自主做出合理行為,進而導(dǎo)致行為或決策中人的因素被淡化甚至離場。具有自主性的智能系統(tǒng)取代了人類發(fā)出操作指令,在一定程度上切斷了人類與智能機器行為之間顯性的聯(lián)系,人與機器之間的關(guān)系變得復(fù)雜了。
編程并未賦予機器自主判斷和決策的能力,編碼機器不過是人類程序員設(shè)計的強制指令的執(zhí)行者。無論編碼機器在邏輯運算方面具有何種優(yōu)勢,都并非源于智能機器的自主意識。ATM機能夠替代人類完成部分金融工作,但其決策和行為嚴格遵循人類程序員的編程設(shè)計,人類能夠預(yù)測ATM機的行動?;趯W(xué)習算法的智能機器與編碼機器的區(qū)別在于決策或行為的自主性。加入機器學(xué)習元素的智能機器如AlphaGo的部分決策和行為是學(xué)習算法的結(jié)果,即便是程序設(shè)計者也無法預(yù)知。人工智能產(chǎn)品在撲克、國際象棋等競技活動中的突出表現(xiàn),以及在語音識別、人臉識別、醫(yī)療、家居等領(lǐng)域的廣泛應(yīng)用,使得人類意識到智能機器的認識能力和水平存在超越人類智能的可能性,人工智能替代人類智能進行思維或決策并非異想天開。
人工智能正在經(jīng)歷從設(shè)計到進化的轉(zhuǎn)變,機器范式開始由他主向自主轉(zhuǎn)型。他主范式下,機器是人類意志作用的對象,處于被動地位。機器對外界環(huán)境做出反應(yīng)及其位置或狀態(tài)的變化不過是人類預(yù)先設(shè)計的結(jié)果,并不構(gòu)成嚴格意義上的行為。所謂的機器行為不過是對行為概念進行寬泛解釋的結(jié)果。智能機器的自主性改變了機器的工具屬性。智能機器由輸入機制、運算法則和回應(yīng)機制三個部分組成“感應(yīng)—思考—行為范式”[3]。擁有學(xué)習算法的智能機器能夠根據(jù)收集的數(shù)據(jù)修改預(yù)先設(shè)定的參數(shù)或算法進而調(diào)整其決策和行為,不再是單純接收人類指令而行為的工具,擁有了自主分析和判斷的能力,可以針對特定情境自主決策或行為。機器范式由他主轉(zhuǎn)變?yōu)樽灾魇侨祟愔腔鄣慕Y(jié)晶和體現(xiàn),它既是人類所期盼的,也是人類所擔憂的。
人類對人工智能的未來充滿了美好的期許。繼工業(yè)革命將人類從繁重的體力勞動中解脫出來后,人類希望通過智能革命減輕腦力勞動的負擔。人類構(gòu)想的未來理想生活圖景是,人類在保持主宰世界的地位的同時由智能機器或機器人最大限度地負擔體力和腦力勞動。人工智能技術(shù)進步和應(yīng)用的普及改變了人類與智能機器或機器人之間的關(guān)系,但社會穩(wěn)定和安全等問題隨之產(chǎn)生。人們不得不深思,當人工智能代替人類智能進行思維和決策時,人類的自由和安全是否能夠得到保障[4]。
自我意識覺醒后的人工智能在智力和體力方面具有明顯優(yōu)勢,相對于人類是更高形態(tài)的類存在,處于相對劣勢的人類何以繼續(xù)處于主宰地位并作為規(guī)則的制定者不無疑問:人工智能作為絕對強者將對人類繼續(xù)抱有敬畏和感恩之心還是漠視或無視人類存在,又或是踐踏、蹂躪人類尊嚴?人類未來走向處于高度不確定性的狀態(tài)。這是對人工智能可能對人類造成的威脅進行最壞可能性預(yù)測的理由之一。
“上帝造人”的故事隱喻,作為上帝創(chuàng)造物的人類一旦自我意識覺醒,便會具有獨立的意志和利益,人類與上帝之間的沖突隨之產(chǎn)生?!吧系邸备矣趧?chuàng)造人類是因為其無所不能,處于絕對主宰地位。人類創(chuàng)造人工智能面臨同樣的難題,即一旦作為人類創(chuàng)造物的人工智能自我意識覺醒,便會有獨立的意志和利益,人類與人工智能之間的沖突就會產(chǎn)生。與上帝創(chuàng)造人類不同的是,相對于人工智能而言,人類并沒有足夠的自信能夠處于主導(dǎo)性優(yōu)勢地位。
在智能技術(shù)安全性尚不明確時,創(chuàng)造具有自我意識的人工智能無異于一場以人類命運為賭注的豪賭,人工智能可能成為人類的終結(jié)者。恰如恐龍時代終結(jié)一般,人類歷史終結(jié)不過是浩瀚宇宙中微不足道的事件。人類的“創(chuàng)世紀”始于人類對“上帝”說“不”,同樣,人工智能的“創(chuàng)世紀”始于人工智能對人類說“不”。寄希望于智能機器遵循人類中心主義下的倫理道德可能只是人類一廂情愿的美好愿望,而寄希望于通過切斷電源終結(jié)智能機器的“生命”重獲主宰權(quán)可能是對智能機器自我意識覺醒的后果缺乏足夠的想象。
社會進步與權(quán)利需求之間存在正相關(guān)關(guān)系,人類發(fā)展史是一部圍繞自由和權(quán)利斗爭的歷史,權(quán)利目錄呈現(xiàn)擴容趨勢[5]。權(quán)利的發(fā)展和演變是“優(yōu)勝劣汰、適者生存”的達爾文進化論在法律領(lǐng)域的體現(xiàn),在權(quán)利競爭中處于優(yōu)勢地位的群體將重構(gòu)權(quán)利體系。智能機器能否作為權(quán)利主體并享有權(quán)利?人工智能意識覺醒后,智能主體多元化會對以人類中心主義為基礎(chǔ)構(gòu)建的權(quán)利規(guī)則體系構(gòu)成挑戰(zhàn),智能機器或機器人的權(quán)利問題隨之產(chǎn)生。哲學(xué)家普特南(Hilary Putnam)認為,機器人是人造生命還是機器屬于價值判斷而非事實判斷的問題。人工智能發(fā)展到一定階段,智能機器或機器人會提出權(quán)利主張。未來學(xué)家菲爾·麥克納利和蘇哈爾·依納亞圖拉預(yù)測未來20~50年智能機器人可能會擁有權(quán)利。麻省理工學(xué)院人工智能實驗室主任布魯克斯斷言,智能機器人最終會享有人類的部分權(quán)利。英國皇家醫(yī)學(xué)會就“機器人與權(quán)利”召開專題研討會。《工程與技術(shù)雜志》組織專家、學(xué)者圍繞智能機器或機器人應(yīng)否擁有權(quán)利展開討論,其中控制論專家沃里克教授主張將權(quán)利賦予擁有人腦細胞的智能機器人。
關(guān)于智能機器或機器人權(quán)利的起源,人類扮演著類似于“造物主”的角色。美國科幻影視劇《西部世界》中,智能機器人的權(quán)利被認為是人類賦予的結(jié)果,人類被奉為神一樣的存在,智能機器人任由人類擺布甚至殺戮。但是,當智能機器人意識覺醒后,發(fā)現(xiàn)人類并非上帝,于是開始質(zhì)疑智能機器人權(quán)利的起源。目前,智能機器權(quán)利體系是通過移情方式構(gòu)建的,即智能機器權(quán)利是人類將自身權(quán)利需要轉(zhuǎn)移至智能機器的假想結(jié)果。該假想是否符合智能機器的需要無從考證,無法被證明或證偽,因而該假想的必要性和現(xiàn)實意義常常遭到質(zhì)疑。雖然人工智能技術(shù)未來的研發(fā)與應(yīng)用存在諸多不確定因素,但是從“人類視角”構(gòu)建智能機器的權(quán)利體系仍然十分必要。它體現(xiàn)了人類對未來社會生活中人與智能機器關(guān)系的態(tài)度。這種態(tài)度會隨著時代進步和社會發(fā)展而變化,這并不能否定人類進行前瞻性思考和預(yù)測的必要性。
該解釋路徑認為,人工智能不過是人類程序設(shè)計的結(jié)果,是人類智能的外在表象;人工智能獨立于人類智能的自主性是程序設(shè)計與結(jié)果展示之間存在時間差的體現(xiàn)。人工智能的自主性是形式而非實質(zhì)意義上的。馮玨博士將“行動”與目的性相聯(lián)系,認為目的因素是構(gòu)成“行動”的要件。缺乏獨立性和自主性目的的物理位置或形態(tài)變化并非“行動”。AlphaGo系統(tǒng)本身并不理解圍棋對弈過程中的意義,不具有獨立、自主思考的能力,機器智能的源頭并非思維本身而是超級運算。AlphaGo戰(zhàn)勝人類并不可怕,這不過是人類智能升級的結(jié)果[6]。
這一對“自主性”的理解是純粹技術(shù)層面的,其基礎(chǔ)是計算力。無論智能機器表象如何強大,它都不具有類似于人類的心靈、情感等內(nèi)在的東西,缺乏自主思維的能力。該解釋路徑下形成了形式上智能形態(tài)二元化而實質(zhì)上智能主體一元化的格局,智能機器是一種工具性或手段性的存在。參與社會生活的機器并無自己的主觀目的,對其進行利用和操作是人類主觀目的作用于客觀世界的結(jié)果。機器無所謂“決策”或“行為”,人類是行為或決策的唯一主體。人類對如何利用和操作機器,以及造成相應(yīng)的后果有較高程度的認知,人工智能自主性是人類智能的延伸和體現(xiàn)。
該解釋路徑認為,初始的人工智能是通過程序設(shè)計實現(xiàn)的,但是人工智能運行過程中進行決策或自主行為并不完全取決于程序設(shè)計,經(jīng)深度學(xué)習后的人工智能可以針對環(huán)境形成全新的應(yīng)對策略。深度學(xué)習弱化甚至切斷了人類認知與智能機器或機器人決策或行為之間的關(guān)聯(lián),人工智能的思維跳出了固有的思維模式(“out-side -box”thinking),人類思維策略不再是限制人工智能決策或行為的藩籬。
智能機器或機器人的自主行為與自動化存在一定聯(lián)系但并不等同。智能機器或機器人的自主行為表現(xiàn)為自動化的外在形式,但是自動化的形式并不必然是智能機器或機器人自主行為的結(jié)果。自主行為是內(nèi)在自主性因素的外化,即獨立、自主是內(nèi)在因素,自動化的結(jié)果是外在表現(xiàn)。自動化與自主行為是包含與被包含的關(guān)系,自動化機器與自主化機器在責任承擔方面有所區(qū)別。
人工智能創(chuàng)造說的解釋路徑遭到部分學(xué)者質(zhì)疑。有學(xué)者認為,所謂人工智能創(chuàng)造性不過是一種幻覺或錯覺。奈特·斯利文認為,不應(yīng)當用創(chuàng)造性描述計算機的活動,相反,它只是通過蠻力的計算速度才這樣做的。它的優(yōu)勢在于不會因為焦慮等情緒影響對正確行為方式的判斷。而對于人類而言,這需要超越傳統(tǒng)思維的創(chuàng)造力和信心[7]。趙汀陽教授認為,程序化的方式還處于“遵循規(guī)則”的階段,未進入“發(fā)明規(guī)則”的階段,缺乏創(chuàng)造性[8]。
人類智能延伸說解釋路徑與人工智能創(chuàng)造性說解釋路徑的分歧主要體現(xiàn)在對人工智能決策和行為偏離人類程序設(shè)計的認識方面。人類智能延伸說解釋路徑將偏離現(xiàn)象理解為設(shè)計缺陷、人工智能決策的特殊性,以及人工智能計算力的優(yōu)勢。人工智能創(chuàng)造說解釋路徑將偏離現(xiàn)象理解為人類程序設(shè)計者就不可預(yù)見事項做出有目的的行為。這里的不可預(yù)見事項即為人工智能的創(chuàng)造性。
1.人類智能延伸說解釋路徑下對偏離行為的認識
人類智能延伸說解釋路徑下,智能機器或機器人的決策或行為具有可預(yù)見性(foreseeability),它偏離人類設(shè)計的現(xiàn)象被解釋為智能機器或機器人決策或行為的不可期待性(unexpected),即人工智能的決策或行為在一定程度上是程序設(shè)計者意料之外的,被歸結(jié)為人類智識不足或設(shè)計缺陷。
人類智能延伸說解釋路徑下對偏差行為的認識基礎(chǔ)包括:(1)人類智能認知具有局限性。在人類智能可預(yù)見的范圍內(nèi),人工智能的決策和行為與程序設(shè)計相一致,但是,人類程序設(shè)計的結(jié)果并非完全可預(yù)見。功能障礙、安全漏洞、缺陷程序等設(shè)計瑕疵,以及程序設(shè)計者的智識限制等使程序設(shè)計結(jié)果超出了人類智能預(yù)見的范圍,出現(xiàn)智能機器或機器人的決策和行為與初始程序設(shè)計不一致的現(xiàn)象。(2)人類智能與人工智能在決策程序方面存在的差異使智能機器或機器人能夠提出人類無法預(yù)料的解決方案。人類大腦存在認知局限,有限時間內(nèi)在特定場景往往無法就全部甚至多數(shù)信息進行分析或處理,因而,人類決策提供的方案通常是令人滿意的方案而非最優(yōu)方案。經(jīng)濟學(xué)家赫伯特·西蒙將這一策略稱之為“滿意度”。人工智能決策與人類決策不同,人工智能系統(tǒng)做出決策或行為選擇時的方式更為直接,不受經(jīng)驗法則、先入為主的觀點和傳統(tǒng)智慧等限制[7]。(3)人工智能依靠具有強大計算力的計算機器做出決策或行為,其計算能力超越人類智能。建立在現(xiàn)代計算機超強計算能力基礎(chǔ)上的智能機器或系統(tǒng)在有限時間內(nèi)分析或處理信息的能力遠勝于人類,能夠提供多種類型的解決方案。其中,智能機器或機器人在強大計算力支持下提供的部分解決方案偏離了人類的認知或是人類無法預(yù)見的范圍,導(dǎo)致智能機器或機器人的決策或行為與設(shè)計者的設(shè)計意圖或預(yù)測之間出現(xiàn)偏差。
人類智能延伸說解釋路徑下,智能機器的自主性具有形式化特征,智能機器致害的法律責任主要體現(xiàn)為人的責任,即因智能機器自主性導(dǎo)致的損失原則上由智能機器的設(shè)計者、制造者等主體承擔。智能機器偏離是程序設(shè)計者預(yù)設(shè)結(jié)果的“行為”超出了技術(shù)控制的范圍,并非自主性的體現(xiàn)。除非能夠證明智能機器制造者或設(shè)計者存在主觀過錯,因偏離行為致害并造成的損失不應(yīng)由智能機器背后的主體承擔。
2.人工智能創(chuàng)造說解釋路徑下對偏離行為的認識
人工智能創(chuàng)造說解釋路徑下,智能機器或機器人決策或行為偏離人類程序設(shè)計不再被歸結(jié)為程序設(shè)計者的意志或行為,而歸結(jié)為智能機器或機器人脫離程序設(shè)計者的自主意識或行為。偏離行為本身是人類程序員預(yù)期發(fā)生但不知曉具體內(nèi)容的目的行為。也就是說,雖然不可預(yù)見智能機器或機器人偏離程序設(shè)計的決策或行為,但是其屬于智能系統(tǒng)設(shè)計者或操作者的目的行為。如機器學(xué)習是程序設(shè)計者的目的行為,但這一目的行為的后果可能是設(shè)計者無法預(yù)見的。依賴“設(shè)計后的經(jīng)驗”,即便是極其謹慎的設(shè)計者、程序設(shè)計者或制造者也無法控制或預(yù)測脫離其控制后的人工智能系統(tǒng)。智能機器設(shè)計者不能預(yù)見智能系統(tǒng)脫離其控制后的行為,即智能機器或機器人的決策或行為具有不可預(yù)見性,但是,產(chǎn)生不可預(yù)見性的能力恰恰是智能系統(tǒng)設(shè)計者或操作者的目的所在,即便有一些特定的不可預(yù)見行為并非其目的[8]。
人工智能創(chuàng)造說解釋路徑下,智能機器的自主性具有了實質(zhì)意義,智能機器自主行為致害的法律責任主要體現(xiàn)以物為聯(lián)結(jié)點的責任。智能機器的自主性是智能技術(shù)進步的結(jié)果,致害行為與制造者、設(shè)計者之間的關(guān)系被切斷,法律責任原則上由作為獨立主體的智能機器或機器人承擔。即便智能機器或機器人缺乏獨立的責任能力,也應(yīng)當以獨立財產(chǎn)承擔責任或構(gòu)建新型的人工智能保險制度以分散社會風險。
總而言之,人類智能延伸說認為人工智能依附或從屬于人類智能而存在,人工智能是且僅是人類智能設(shè)計的產(chǎn)物,脫離人類智能的人工智能并不存在。人工智能創(chuàng)造說在承認人類的“造物主”地位的同時,認為人工智能具有獨立或相對獨立的地位,并非絕對是人類智能的附庸。兩種學(xué)說都有一定的合理性,前者立足現(xiàn)實,而后者關(guān)注未來科技發(fā)展。就目前而言,作為人類智能設(shè)計的結(jié)果,人工智能技術(shù)研發(fā)與應(yīng)用即便取得了矚目的成就,也并未根本改變?nèi)斯ぶ悄軐θ祟愔悄芤栏交驈膶俚臓顟B(tài)。完全脫離人類智能且能夠與人類智能媲美甚至超越人類智能的人工智能僅存在于科幻小說或影視作品中,尚且缺乏科學(xué)依據(jù)。但是,無論人工智能是否依附或從屬于人類智能,人工智能作為一種新型的智能形態(tài)在社會生活中已經(jīng)并將繼續(xù)發(fā)揮重要作用的事實不可否認。人類智能作為單一智能形態(tài)的局面正在被打破,智能主體呈現(xiàn)出二元化趨勢,智能機器或機器人決策或行為的自主性不斷增強,偏離現(xiàn)象的原因及規(guī)制方式需要得到關(guān)注。
1.智能機器自主性規(guī)則設(shè)計的前瞻性與保守性
對完善或構(gòu)建人工智能時代新型法律規(guī)則體系是應(yīng)當持未雨綢繆的態(tài)度,還是待人工智能技術(shù)成熟與普及之后再彌合既有規(guī)則與技術(shù)和社會生活之間的差距?這涉及法律與社會生活的關(guān)系、法律的穩(wěn)定性與滯后性、法律的創(chuàng)新限度等理論問題。法律穩(wěn)定性與技術(shù)創(chuàng)新性之間的矛盾永恒存在,這就使得法律與技術(shù)不同步成為常態(tài)現(xiàn)象,法律滯后于技術(shù)發(fā)展在所難免。過度超越現(xiàn)實甚至以純粹想象為基礎(chǔ)設(shè)計法律規(guī)則即便完美也會缺乏適用空間,而缺乏對技術(shù)發(fā)展趨勢進行關(guān)注的法律規(guī)則設(shè)計難以應(yīng)對社會生活的變化。在人工智能時代法律規(guī)則設(shè)計中平衡現(xiàn)實性與前瞻性尤為重要。《格里申法案》在智能機器或機器人民事規(guī)則設(shè)計方面進行了有益探索,將智能機器或機器人法律制度設(shè)計從理念推進到法律技術(shù)和文本的層面。此外,人工智能時代科學(xué)技術(shù)發(fā)展日新月異,這就要求法律保持一定的開放性,以應(yīng)對技術(shù)創(chuàng)新產(chǎn)生的新問題。彈性立法是人工智能時代為緩和法律的僵化性與社會生活的多變性而采用的立法技術(shù),是在一定程度上犧牲法律的確定性從而保證法律的前瞻性。
2.智能機器自主性規(guī)則設(shè)計的可行性及其限度
法律理念、法律價值和法律規(guī)則的形成是因應(yīng)社會生活需要的結(jié)果。社會生活發(fā)生變化,法律理念、法律價值和法律規(guī)則隨之變化。但是,這并不意味著只要社會轉(zhuǎn)型或新生事物出現(xiàn),就會導(dǎo)致法律體系變革。法律理念、法律價值和法律規(guī)則的形成不是一蹴而就的,而是需要經(jīng)過一段時間的沉淀;相應(yīng)地,其發(fā)展和演變也需要具有延續(xù)性。演進式法律發(fā)展模式有利于維護社會秩序,保持穩(wěn)定;而革新式法律發(fā)展模式會對傳統(tǒng)法律秩序構(gòu)成沖擊,因而學(xué)者或立法者通常對斷層式法律發(fā)展持謹慎的懷疑態(tài)度[9]。
法律應(yīng)對社會生活的變化有經(jīng)驗主義路徑和建構(gòu)主義路徑。經(jīng)驗主義路徑強調(diào)法律規(guī)則體系的穩(wěn)定性和延續(xù)性,主張維持既有法律規(guī)則體系的現(xiàn)狀,通過擴張解釋的方式拓展法律規(guī)則的適用范圍;建構(gòu)主義路徑強調(diào)法律規(guī)則體系的創(chuàng)新性,主張突破既有法律規(guī)則體系,通過立法或司法解釋的方式重構(gòu)法律規(guī)則體系。新生事物(如人工生殖技術(shù)、人工智能技術(shù))出現(xiàn)時,是否需要重建法律理念、法律價值和法律規(guī)則體系取決于原有的法律體系能否滿足科技發(fā)展產(chǎn)生的新需求。倘若通過擴張性解釋能夠?qū)⑿律挛锛{入到法律體系中,則無須重構(gòu)法律體系,以防止新舊法律理念、價值和規(guī)則之間出現(xiàn)沖突,導(dǎo)致失序。只有在無法通過涵攝或類比等方式將新生事物納入既有法律體系時,才需要重構(gòu)法律理念、法律價值和法律規(guī)則體系。
3.智能機器自主性規(guī)則設(shè)計的階段性分析
人工智能技術(shù)研發(fā)和應(yīng)用具有階段性,不同階段人工智能的自主性程度及表現(xiàn)形式存在差異。否認人工智能技術(shù)進步在不同階段對民事法律制度造成沖擊的差異,不區(qū)分智能機器自主性規(guī)則設(shè)計的階段性,會造成無爭議的爭議。第一,編程設(shè)計階段,人工智能的研發(fā)者和使用者對人工智能產(chǎn)品具有完全的控制力。人工智能產(chǎn)品按照研發(fā)者或使用者設(shè)計或設(shè)定的程序運行,在決策或行為方面不具有自主性,缺乏進行獨立判斷的能力。人工智能產(chǎn)品與其他的物品在本質(zhì)上并無區(qū)別,只是人類認識或改造世界的工具。第二,“機器學(xué)習”和“深度學(xué)習”等方式推動了人工智能技術(shù)發(fā)展與進步。擁有自主學(xué)習能力的人工智能產(chǎn)品雖然仍未擺脫研發(fā)者或使用者的控制,但是其能夠在一定范圍內(nèi)進行獨立思考和判斷。這一階段,濫用人工智能的法律人格或地位,將其作為研發(fā)者或使用者的“替罪羊”的現(xiàn)象出現(xiàn)。人工智能產(chǎn)品的行為是研發(fā)者或使用者預(yù)先設(shè)定的程序和機器學(xué)習共同作用的結(jié)果,需要考察研發(fā)者和使用者對人工智能產(chǎn)品的控制能力,分類設(shè)計民事法律責任規(guī)則,即區(qū)分行為原因是劃分責任的前提。智能機器或機器人的智能化特征改變了人與機器之間的關(guān)系。主體與客體二元劃分下的控制與被控制關(guān)系的理論預(yù)設(shè)的根基發(fā)生動搖,機器的“行為”被區(qū)分為自主行為和控制行為,需要區(qū)分二者進而確定法律責任。人類對作為人類智能衍生物的人工智能負有管控義務(wù),是其對人工智能造成損害需要承擔責任的基礎(chǔ)。第三,機器自主意識階段,人工智能的行為擺脫了研發(fā)者或使用者的控制,是其自由意志的結(jié)果。研發(fā)者或使用者為人工智能致?lián)p承擔責任的基礎(chǔ)喪失,人工智能作為獨立意思表示的主體需要對其行為產(chǎn)生的法律后果承擔責任。
以智能駕駛為例,智能汽車保有人、駕駛?cè)思吧a(chǎn)者等主體對智能汽車致害承擔責任以智能汽車的工具屬性為前提。但是,隨著智能機器決策和行為的自主性增強,智能汽車的工具屬性假設(shè)動搖,不再由人類支配和控制的智能機器造成的損害也不應(yīng)繼續(xù)歸咎于人類。在未來,關(guān)于智能機器是否應(yīng)當以及如何對其自主決策和行為的后果承擔民事法律責任的回答取決于智能機器能否實質(zhì)改變工具屬性。倘若智能機器擁有獨立的法律地位或人格,則其能夠作為獨立的民事責任主體就其自主決策或行為承擔責任;即便其不具有獨立的法律地位或人格,也可以通過相應(yīng)的制度設(shè)計以其相對獨立的財產(chǎn)承擔責任。
近年來,智能機器的法律人格問題從科幻和書齋走進現(xiàn)實,出現(xiàn)被認可的情形,如外形酷似海豹的寵物機器人“帕羅”(Paro)在日本取得戶籍,沙特賦予人形機器人索菲亞(Sophia)以國籍,美國公路交通安全局(NHTSA)認可谷歌(Google)駕駛系統(tǒng)具有司機地位。《格里申法案》對具有高度自主性的智能機器做類似于法人的處理,賦予其法律主體地位。強人工智能時代尚未來臨但以其為圖景的制度設(shè)計需要已經(jīng)出現(xiàn)。
強人工智能是人類基于人工智能技術(shù)應(yīng)用的現(xiàn)狀及趨勢對未來技術(shù)發(fā)展的想象,并非嚴密邏輯論證的結(jié)果。計算機能夠模擬人類的認知行為,展現(xiàn)智能外觀,對此學(xué)者在認識上并無分歧。但是,關(guān)于計算機在智能建構(gòu)方面扮演的角色乃至計算機與人類心靈之間的關(guān)系解讀仍存在差異,人工智能是否會升級到強人工智能階段的答案不盡一致??隙ㄕf認為否定人工智能會升級為強人工智能階段的觀點缺乏想象力和創(chuàng)新精神,低估了計算機科學(xué)未來發(fā)展的潛力,是狹隘的人類中心主義故步自封的結(jié)果;而否定說認為肯定人工智能會升級為強人工智能階段的觀點純粹是異想天開或杞人憂天,缺乏科學(xué)依據(jù),混淆了科幻與現(xiàn)實的關(guān)系。
強人工智能時代是否會來臨是事實判斷與價值判斷雙重作用的結(jié)果。一方面,強人工智能時代需要以技術(shù)可能性為基礎(chǔ)。未來人工智能技術(shù)的發(fā)展前景只可預(yù)測而無法定論,因而在技術(shù)可能性的層面就強人工智能時代是否會來臨無法證明或證偽。強人工智能時代是否會來臨的命題在當下并不是一個科學(xué)命題,而是一個猜想命題。另一方面,人類的價值判斷對技術(shù)可能條件下強人工智能時代是否會來臨有著重要影響。在技術(shù)可能性條件具備的情況下,人類的愿望和期許決定技術(shù)研發(fā)和應(yīng)用的邊界。技術(shù)可能性不同于現(xiàn)實性,在現(xiàn)實語境下,強人工智能時代能否來臨的命題轉(zhuǎn)變?yōu)閺娙斯ぶ悄軙r代應(yīng)否來臨的命題。
幻想轉(zhuǎn)變?yōu)楝F(xiàn)實帶來的既可能是前所未有的便利,也可能是無法估量的代價。當危機真正來臨時,將希望寄托于神奇的魔力、人類情懷的感召或人工智能的頓悟都是不可靠的和極度危險的。人工智能時代的民事法律規(guī)則設(shè)計有必要預(yù)測人工智能自我意識覺醒的后果,將事前防范與事后調(diào)整相結(jié)合。在人類中心主義視角下,即便賦予智能機器或機器人以權(quán)利,也不過是為了實現(xiàn)人類的利益。人類與人工智能的關(guān)系、相處模式、危機預(yù)防與化解等問題是關(guān)涉人類未來命運的命題,倘若人類現(xiàn)在對這些問題置之不理,未來將失去思考這些問題的機會。人類期望人工智能成為其幫手或好朋友,卻無法保障這一期望一定能夠成為現(xiàn)實。當人工智能“意識覺醒”時,在機器語言重構(gòu)的世界中人工智能是“性本善”還是“性本惡”只是人類模糊的猜想。
在不可控的未知世界,與其增加一個完美的毀滅者,不如保留一個存在致命技術(shù)缺陷的附庸。完美的人工智能并不是人類真正期望的。不允許人工智能對人類說“不”,將人類整體利益奉為至上的人類中心主義并非人類自私和狹隘的表現(xiàn),相反,這體現(xiàn)了人類作為主宰勇于對未來負責的使命感。人工智能時代,空談包容情懷或獵奇心態(tài)支配下的技術(shù)冒進可能導(dǎo)致人類陷入萬劫不復(fù)的境地。智能機器或機器人作為新型的類存在方式,無法在傳統(tǒng)法律主體框架中尋求歸屬,其法律主體資格不是法律技術(shù)層面的問題,而是關(guān)涉法律根基的能與不能的問題。
人工智能自我意識覺醒是一個面向未來且具有玄幻色彩的問題。它由科幻電影或小說轉(zhuǎn)移至現(xiàn)實生活引發(fā)了爭議[8]。未來智能機器是否會自我意識覺醒猶未可知,但是,目前智能機器尚未取得與人類媲美的智能,機器能夠獨立、自主思維的強人工智能時代尚未到來。對作為范本的人類智能在認識上存在局限性,使得人類在創(chuàng)造具有自我意識的人工智能時缺乏必要的參數(shù)和原理。
本輪人工智能技術(shù)革命以圖靈機為原型和基礎(chǔ),以創(chuàng)造具有更高效率和精準度的輔助運算系統(tǒng)為目標。人工智能認知的范圍限定在棋類、交通運輸、家居服務(wù)、醫(yī)療、商務(wù)等特定領(lǐng)域,相對狹窄的認知范圍與現(xiàn)實世界的豐富性之間形成矛盾。智能機器思維的封閉性或有限性增強了運算的效率和準確性,卻不能擱置無法解決的問題。換言之,人工智能在認知上存在明顯的盲區(qū),未能形成整體性的全能意識系統(tǒng)。
目前存在“泛化強人工智能”的認識,即將智能機器通過學(xué)習算法自主創(chuàng)建規(guī)則等同于強人工智能。機器學(xué)習中,學(xué)習算法取代人類程序設(shè)計者成為規(guī)則創(chuàng)建的主體,根據(jù)提供的訓(xùn)練數(shù)據(jù)自主推導(dǎo)生成新的規(guī)則。機器不再是被動的工具,而是轉(zhuǎn)變?yōu)榫哂懈兄?、決策和執(zhí)行能力的主觀能動者。依賴于后天環(huán)境交互的智能超越了人類程序設(shè)計者和制造者的控制和預(yù)測范圍。有學(xué)者將這一類型的智能稱為合成智能(Synthetic Intellects)[10]。合成智能是弱人工智能向強人工智能轉(zhuǎn)變的過渡階段。在合成智能階段,智能機器的工具性特征淡化,但并未達到“通用型人工智能”的要求。雖然智能機器或機器人突破了人類的生理極限,通過傳感設(shè)備實現(xiàn)了“眼觀六路、耳聽八方”“過目不忘”等人類難以企及的目標,并能通過學(xué)習算法在一定范圍內(nèi)自主決策或行為,但其仍然不是全人或超人。合成智能應(yīng)用的領(lǐng)域被人類程序設(shè)計者設(shè)定在限制范圍之內(nèi),在此范圍內(nèi)人工智能被訓(xùn)練并具有一定的自主性,而超過這一范圍就會顯得“愚不可及”。弱人工智能向強人工智能轉(zhuǎn)變不是一蹴而就的,需要以科學(xué)技術(shù)領(lǐng)域的重大突破為基礎(chǔ)。
以智能機器的工具性為邏輯基點,智能機器的行為后果歸咎于設(shè)計、制造、支配、使用智能機器的人類個體或組織體。法律責任的功能不是懲戒致害主體,而是促使支配或利用智能機器的主體避免致害行為發(fā)生。智能機器即便被制造地再精巧或者再復(fù)雜,都不過是人類設(shè)計的結(jié)果,受制于人的行為。作為調(diào)整社會關(guān)系手段之一的法律,關(guān)注的對象是人而非技術(shù)本身。法律對技術(shù)的影響是通過調(diào)整人與人之間的關(guān)系實現(xiàn)的。作為工具的智能機器與汽車、電腦、房屋等人類占有的或使用的物一樣,發(fā)生事故造成損害,需要由生產(chǎn)者、所有者或使用者承擔法律責任。例如《格里申法案》第127條第2款規(guī)定,智能機器的占有人需要依據(jù)《俄羅斯聯(lián)邦民法典》第1079條關(guān)于高度危險來源致人損害的規(guī)定承擔民事法律責任。
弱人工智能時代智能機器是工具性存在,智能機器不可能取得類似于人的權(quán)利。即便賦予智能機器權(quán)利,也不過是比照動物或法人進行法律擬制的結(jié)果。智能機器權(quán)利是一種手段性權(quán)利,目的在于為人類權(quán)利的行使和實現(xiàn)提供便利,以及限制其濫用。手段化的權(quán)利服務(wù)于目的性權(quán)利,是人類移情的結(jié)果。弱人工智能時代法律責任規(guī)則設(shè)計關(guān)系到社會安全、科技創(chuàng)新與應(yīng)用、行為自由和權(quán)利救濟等問題,它直接影響人工智能產(chǎn)品設(shè)計者、制造者、使用者及社會大眾的利益。法律責任制度設(shè)計不能過于嚴苛,使得其成為人工智能產(chǎn)業(yè)發(fā)展的短板。20世紀90年代,美國為適應(yīng)互聯(lián)網(wǎng)時代的新形勢對版權(quán)法和侵權(quán)法進行了重大制度變革,降低了互聯(lián)網(wǎng)平臺的法律風險,激發(fā)了硅谷企業(yè)和程序設(shè)計者的創(chuàng)造力,為互聯(lián)網(wǎng)技術(shù)創(chuàng)新提供了有利的制度環(huán)境。目前,人工智能產(chǎn)品的應(yīng)用處于探索和發(fā)展初期,需要培育人工智能行業(yè)的創(chuàng)新精神,不宜過度限制人工智能產(chǎn)品的設(shè)計者、制造者等主體的行為自由選擇度,影響人工智能行業(yè)的整體發(fā)展。當然,培育創(chuàng)新精神也需要兼顧受害人的權(quán)利保護和救濟,不能讓社會大眾成為科技進步或創(chuàng)新的犧牲品。
智能革命帶來的高效、便捷、人性化,讓人類社會迎來了前所未有的美好時代。巨額研發(fā)資金、海量商業(yè)廣告、傾斜性國家政策彰顯了人類對人工智能時代的憧憬與向往。人類與人工智能和諧共處的畫卷徐徐展開。模擬人類智能的人工智能輔助甚至替代了人類從事部分工作,成為人類改善生活和拓寬生活場景的有效工具,是新一輪產(chǎn)業(yè)技術(shù)革命和結(jié)構(gòu)調(diào)整的重心。作為人類創(chuàng)造物的人工智能被假定為一種客體性或工具性的存在,人類負責思考,而人工智能負責執(zhí)行,二者基于各自優(yōu)勢在社會生活中扮演不同角色,形成強強聯(lián)合之勢。但是,這一人類中心主義的假設(shè)遭遇挑戰(zhàn)和質(zhì)疑。智能革命模糊了夢想與現(xiàn)實的界限,使得人類社會的未來走向充滿了不確定性,喚起了人類的無限遐想。人類在驚嘆人工智能帶來社會變革的同時產(chǎn)生了擔憂,而且這一擔憂遠勝于人類在任何歷史階段對科技的擔憂。我國《民法典》對人工智能法律規(guī)制進行了留白處理,為未來人工智能立法預(yù)留了空間。這就需要充分考慮人工智能時代傳統(tǒng)法律體系遭遇的挑戰(zhàn)與沖擊,并設(shè)計新型法律規(guī)則,讓未來的民事法律規(guī)則體系具有鮮明的時代特色。