陳 俊 秀, 李 立 豐
(吉林大學 法學院,吉林 長春 130012)
人工智能技術在給社會經濟發(fā)展創(chuàng)造巨大推動力的同時,也給傳統(tǒng)的刑法學理論提出了許多新課題,主要集中于人工智能的刑事風險與刑法應對、人工智能的刑法地位以及涉人工智能犯罪問題等。人工智能時代社會交往場景的逐步智能化、自動化與無人化,導致傳統(tǒng)侵財犯罪罪名之間的界限劃分日益模糊。傳統(tǒng)刑法理論認為“機器不能被騙”,那么人工智能時代智能機器所具備的“認識能力”和“處分能力”是否突破了傳統(tǒng)的“機器不能被騙”的既有認知;傳統(tǒng)以自然人的“認識錯誤”為要件的詐騙罪,能否有效應對人工智能語境下針對智能機器為犯罪對象的詐騙行為。
刑法中“機器能否被騙”命題的探討主要從詐騙罪的語境展開:詐騙罪的行為基本構造是“行為人實施欺騙行為—受騙方產生(或維持)錯誤認識—基于錯誤認識處分財產—行為人或第三者取得財產—被害人遭受財產損失”[1],即無“錯誤認識”便無詐騙罪適用之空間。按照傳統(tǒng)的“機器不能被騙”這一刑法基本共識,客觀上無認知能力的機器、幼兒、嚴重的精神病患者不能成為詐騙罪的受騙者。在人工智能時代,刑法是否應當繼續(xù)堅守傳統(tǒng)刑法“機器不能被騙”命題?本文在堅守“機器不能被騙”基本立場的同時,從解釋學上論證“機器之管理者被騙”,并對其前提條件予以限定,闡釋刑法規(guī)范背后的正當性依據(jù)。
當前刑法理論界對于“機器能否被騙”問題的論辯可以劃分為“機器不能被騙”和“機器可以被騙”兩大陣營。與此同時,刑事司法層面的相關解釋和適用也混沌不清,有必要對其爭議焦點予以梳理和反思。
持“機器不能被騙”的論者認為,機器是沒有意識的,其不可能被騙。按照詐騙犯罪的基本構造,機器當然不具備認識能力,即不存在認識錯誤,不可能構成詐騙罪的受騙者?!皺C器不能被騙”理論是盜竊罪和詐騙罪得以區(qū)分的重要依據(jù)之一,否則將導致詐騙罪喪失其行為類型化機能[2]。按照“機器不能被騙”立場,行為人利用重量、大小相等的游戲幣冒充硬幣,在自動售賣機中使用,數(shù)額較大的,成立盜竊罪。“機器不能被騙”觀點之實定法依據(jù)在于我國《刑法》第196條第3款規(guī)定:“盜竊信用卡并使用的,依照本法第264條的規(guī)定定罪處罰?!睋?jù)此,無論盜竊信用卡對自然人使用,抑或是對機器使用,均構成盜竊罪。有論者以日本的“使用計算機詐騙罪”為依據(jù),對“機器不能被騙”觀點提出質疑。張明楷認為,日本之所以增設“使用計算機詐騙罪”,其初衷是為了處罰盜竊財產性利益的行為,因為按照日本刑法的規(guī)定,盜竊罪對象僅限于財物,而詐騙罪的對象則包括財物與財產性利益[3]。
除此之外,有學者主張對“機器不能被騙”觀點進行修正,以“預設的同意”理論為視角進行論證,在堅持機器本身不能被騙的前提下,認為機器背后的歸屬者可以被騙,將機器能否被騙問題轉化成探求機器背后的“雇主”被騙問題[4]。于本質上而言,這種針對機器背后的人實施的欺騙行為,與直接對柜臺的自然人實施的欺騙行為并無二致,應當認定為信用卡詐騙罪,而非盜竊罪。因此,“機器不能被騙”理論,僅僅是強調作為機器本身不能陷入認識錯誤,進而受騙交付財物,但并不意味著機器背后的人不能成為詐騙罪的對象。德國司法實踐中均有判例支持“預設的同意”,例如破解賭博機的程序,將賭博機器內的錢幣贏光;冒用他人借記卡在ATM機上輸入正確的密碼取錢的,均不認定為盜竊罪[5]。
持“機器可以被騙”的論者認為,盡管目前的智能機器智能化程度較低,功能也較為有限,但智能機器具有簡單的意識,能夠進行判斷?!皺C器不能被騙”理論不當?shù)財U張了盜竊罪的處罰范圍,而縮小了詐騙罪的處罰范圍,鑒于盜竊罪的處罰較詐騙罪重,因此,盜竊罪之犯罪圈擴大違背了刑法的謙抑性原則[6]。隨著人工智能的出現(xiàn)和廣泛應用,大陸法系國家在立法上逐步開始承認機器作為被騙對象的可行性。如德國《刑法典》第265a條將“意圖免除費用之給付,騙取自動設備或公共通訊網絡之給付”行為納入“騙取給付罪”(Erschleichen von Leistungen)的范疇,間接地肯定了機器可以被騙。我國最高人民法院刑二庭撰文指出,拾得借記卡到銀行柜臺、自動提款機取款的,實質上是采取欺騙手段,冒用銀行卡實際所有人的名義,使銀行產生錯誤認識并支付款項,完全符合詐騙罪“虛構事實、隱瞞真相的手段,使他人陷入錯誤認識從而自愿交付財物”之特征[7]。
在刑事司法中,最高人民檢察院也是間接地認可“機器能夠被騙”的立場。根據(jù)2008年《最高人民檢察院關于拾得他人信用卡并在自動柜員機(ATM機)上使用的行為如何定性問題的批復》,該行為按照信用卡詐騙罪處理。我國司法實踐中也不乏支持機器能夠成為被欺騙對象的判例。例如在“張×信用卡詐騙案”中,法官認為,冒用他人信用卡并在自動柜員機(ATM機)上使用的行為符合信用卡詐騙罪的行為類型[8]。在“鄧瑋銘盜竊案”中,法院認為,利用失靈的網絡第三方支付平臺獲取游戲點數(shù)構成盜竊罪,法官在評析意見中進一步指出,如果人工智能及其操作系統(tǒng)和硬件(設施)處于正常狀態(tài),應當看成是其管理者意志的體現(xiàn),可以在詐騙案件中成為被欺騙的對象[9]。
上述關于“機器能否被騙”論辯的核心分歧在于:機器是否具有意識或認知能力。按照通說觀點,詐騙罪屬于交付型財產犯罪,不僅要求被騙者客觀上具有處分行為,還要求主觀上具有處分意識,即被騙者有意識地交付財產。詐騙罪與盜竊罪的核心區(qū)別在于,前者是基于被騙者有瑕疵的認識處分財產,而后者是完全違背他人的意志取得財產。在詐騙罪“處分意識必要說”的前提下,無論是處分意識嚴格論者還是處分意思緩和論者,均要求對所處分的財物具有基本的認識,即在認識到自己行為社會意義的基礎上轉移財物的占有。因此,對于完全缺乏意思能力的幼兒、嚴重精神病患者,鑒于其無法判斷自己行為性質和后果,行為人“騙取”其財物的,構成盜竊罪。據(jù)此,機器更不能成為詐騙罪的被騙對象,因為機器不存在意識乃至認識錯誤。可見,機器是否具有意識、能否陷入認識錯誤并基于錯誤認識而處分財產,則成為“機器能否被騙”爭議論辯之前置性問題。
涉人工智能的財產犯罪中,既包括單純?yōu)閿U展和延伸財產之交易形式、替代傳統(tǒng)的人對人交易模式的“弱人工智能”機器,如ATM柜員機等,也包括未來可能出現(xiàn)的能夠產生自我意識的“強人工智能”(類人人工智能)或“超人工智能”[10]。在這一背景下,探討“機器能否被騙”這一命題必須面對且無法回避的前提性問題是:所謂“強人工智能”或“超人工智能”之“機器意識”能否實現(xiàn)。故筆者以“舉重以明輕”的論證邏輯,通過探討較ATM等普通機器更為高級的人工智能“機器意識”的存在性,來辯駁“機器被騙”之法理命題。
在事實層面上探討“機器能否被騙”問題,其核心爭論在于機器是否具有意識或認知能力。近年來,關于機器實現(xiàn)“機器意識”(Machine Consciousness)或“人工意識”(Artificial Consciousness)的研究在技術上不斷取得突破性進展。有學者認為,在強人工智能時代,人工智能產品可以產生自主意識和自我意志,智能機器人可以在設計和編制的程序范圍外獨立實施行為[11]。關于人工智能認知狀態(tài)的理論化標準,有部分學者提出,將表達力、想象力、注意力、意志力和情感5項特征作為判斷機器是否具有意識的依據(jù)[12]?,F(xiàn)代腦科學與人工智能的主流觀點認為,機器意識的實現(xiàn)是依靠機器自身來達到包括思維、計算能力、語言能力、想象能力、情感能力與自我反思能力等腦智特征的實現(xiàn)[13]。本文認為,法學視域下的“機器意識”內涵應當與上述基礎科學領域的“機器意識”結論尋求最大通約性,避免陷入法律與科學技術雙重概念范疇分歧的泥潭。據(jù)此,應當按照智能機器本身是否能夠獨立于機器之程序設計者作出意思表示為標準,判斷機器意識的存在與否:如果智能機器所實施的行為以自身意志為轉移,具有相對獨立性或自覺性,便可以視為具備“機器意識”;相反,如果機器只是按照預先設定的程序行事,那么便不符合“機器意識”的最低標準。人工智能是否具有“機器意識”?機器的智能化能否產生類似于自然人的意識?首先,意識是人腦特有的機能,是人腦對客觀事物的主觀反映。人類的神經生物系統(tǒng)是產生意識的特殊系統(tǒng)。迄今為止科學研究尚未發(fā)現(xiàn)生物神經系統(tǒng)之外的能產生意識的存在物[14]102。意識是大腦的產物,是大腦的神經元結構的功能,屬于生物特有的現(xiàn)象,因此,機器無法產生或實現(xiàn)意識。其次,機器只能通過預先設定的程序來運行。美國Haikonen教授認為,當前的人工智能以預先編程的算法為基礎,只能遵循預先設定的程序運行,而機器和程序本身并不能理解其所執(zhí)行的事項[14]。例如,即便機器能夠做到瞬間計算出天文數(shù)字的加減乘除、海量詞匯的存儲記憶,然而由于機器受“無自主意識”的內在局限,其無法真正理解這些“數(shù)字”“符號”“詞匯”所代表的意義。最后,從技術層面而言,目前的腦科學研究結論仍處于必須通過神經系統(tǒng)才能實現(xiàn)意識階段,即以形式化計算為基礎的人工智能無法充分地模擬以“生物算法”為基礎的人的意識。當前的實現(xiàn)機器意識的嘗試均是通過神經網絡或符號編程,而無論是神經網絡,抑或是傳統(tǒng)的符號編程,均無法通過計算術語實現(xiàn)真正的意識模型[15]。人腦約由1012個神經元組成,而每個神經元都有大約103個突觸,人的意識正是建立在這些數(shù)量巨大的且非線性組合的復雜神經細胞基礎上,而目前的科技水平還遠遠未達到通過計算機來模擬的硬件條件[16]。綜上,機器意識在理論上的可能性和技術上的可行性均存有疑問。
塞斯(A.Seth)將智能機器的意識劃分為強人工智能意識(Strong Artificial Consciousness)和弱人工智能意識(Weak Artificial Consciousness)。弱人工智能意識體現(xiàn)在機器外部行為的交互性,能夠實現(xiàn)符合預設程序的輸入和輸出,并不要求機器達到真正的意識;而強人工智能意識接近于人類的意識,即具有主體知覺意義上的意識能力[17]。因此,國內有學者將弱人工智能意識抽象概括為“腦智外現(xiàn)”,即以行為主義和功能主義作為判定標準;強人工智能意識對應為“覺知內顯”[14]103。目前的人工智能研究以及智能機器應用仍局限于弱人工智能意識階段,即行為主義和功能主義僅僅是作為判定弱人工智能意識的標準。然而,以行為主義和功能主義作為判定機器意識的標準飽受許多學者的詬病[17]72。美國哲學家塞爾(J.R.Searle)認為,即使機器在外在表現(xiàn)上使用中文與人類對答如流,但實際上其并沒有理解中文的真正內在含義[17]。這引發(fā)了關于機器意識的判定與檢驗問題:從意識的感知主體上看,第三人難以從外部直觀地覺知到某一特定的機器是否具有意識。作為觀測者的人類如何能夠從外部覺知機器的思維? “物理的神經網絡”與“心靈的意識現(xiàn)象”之間存在著難以逾越的解釋鴻溝(Explanatory Gap)[18]。通過第三人稱視角無法判定或驗證機器這一“意識主體”是否存在意識,這種“解釋鴻溝”導致“機器能否被騙”的命題走向困境,毋寧將“機器能否被騙”的事實判斷命題轉移為“機器是否應該具有意識”的價值判斷命題。
即使人工智能的“意識”實現(xiàn)存在上述難以克服的困難,但是隨著腦神經科學和人工智能的迅猛發(fā)展,機器“意識”的產生在理論上也并非不可能[15]104。陳忠林認為,關于人工智能的未來發(fā)展形態(tài),理論上存在以下3種可能性路徑:第一,將智能機器定位為服務人類發(fā)展的“工具”,排除其擁有獨立于人之“意識”,例如借助人工智能機器人,輔助人類進行月球開發(fā);第二,將智能機器定位為與自然人地位平等的智能形態(tài),即允許其發(fā)展相對獨立于人的認知、控制能力;第三,放開對人工智能機器的限制,任其自我發(fā)展[19]。可以預見的是,在后兩種人工智能的發(fā)展形態(tài)下,智能機器將能夠獨立于自然人的意識與意志,在機器自主意識和意志的支配下獨立實施“行為”,甚至是嚴重危害社會的行為。也許那時我們探討的問題便不是“機器能否被騙”的問題,而是“機器能否詐騙”的問題。
與上述3種發(fā)展形態(tài)相對應的是人工智能在法律上的3種不同定位選擇:第一,將人工智能定位為法律的客體;第二,定位為新的法律主體類型,賦予人工智能機器與人相似的法律地位,享有與自然人相當?shù)臋嗬土x務;第三,任人工智能的自我意識自由發(fā)展。
雖然在目前的“弱人工智能”階段智能機器并不具備威脅人類生存的能力,但我們仍需要警惕未來可能出現(xiàn)的“強人工智能”甚至“超人工智能”對人類的挑戰(zhàn)。當人工智能發(fā)展達到強人工智能的技術奇點(technological singularity)時,人工智能機器便產生獨立的意識和意志,人類將失去規(guī)制和控制超級機器人群體的能力。屆時人工智能機器將呈指數(shù)型爆炸速度自我發(fā)展,并在很短的時間內超過人類水平。同時由于生物學意義上的限制,人類再無法趕上智能機器的發(fā)展速度。正如物理學家史蒂芬·霍金對人工智能無限制發(fā)展的隱憂,“人類由于受到緩慢的生物進化的限制,無法與機器競爭,并會被取代,人工智能的全面發(fā)展將宣告人類的滅亡”,“除非人工智能系統(tǒng)能夠按照人類的意志工作”[20]。2017年7月,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范,建立倫理道德多層次判斷結構及人機協(xié)作的倫理框架。因此,在鼓勵發(fā)展人工智能的同時,必須從前瞻性的視角對未來人工智能可能帶來的風險和挑戰(zhàn)予以重視,確保人工智能規(guī)范、有序、可持續(xù)發(fā)展。
或許有學者會為人工智能的自我意識做辯護,認為限制人工智能的自我意識阻礙人工智能技術的應用與進步。從意識的角度反思人工智能:意識是否是智能的必要條件?如果智能不依賴于意識,那么這種顧慮和擔憂顯然是多余的。人工智能的哲學問題核心在于人工智能意識問題,應警惕“人工意識取代人類意識”[21]。追求智能并不意味著要求以意識為條件,相反,人工意識之危險性不在其能力高低,而在于其意識有無。人類能夠控制任何不具備自我意識的機器,卻難以控制自我意識程度遠低于人類的生物。
有鑒于此,在人工智能發(fā)展的初級階段,我們需要思考人類與人工智能機器未來在宇宙中的地位問題。本文認為,應當將人工智能定位為法律的客體,作為輔助人類發(fā)展的“工具”,以最大限度提高人工智能社會效益為目標;同時,排除其擁有獨立于人之“意識”,防止人工智能具備獨立于人的自我意識和能力。否則,一旦人工智能機器脫離人類意志控制,超級機器人群體將建立起新的世界秩序。屆時通過刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰構想來限制、改造人工智能機器,實則屬于不切實際的期待。人類唯一的理性選擇是將人工智能定位為法律的客體,即服務人類發(fā)展的“工具”,排除其擁有獨立于人之“意識”,以減緩人工智能發(fā)展對現(xiàn)有社會體系的沖擊,降低人類面臨的生存風險。
如上所述,從實然的角度出發(fā),現(xiàn)代腦科學以及人工智能的研究結論表明,機器自我意識的實現(xiàn)尚不具備技術上的可行性,況且由于“物理的神經網絡”與“心靈的意識現(xiàn)象”之間存在著難以逾越的解釋鴻溝,以至于機器意識是否具有可判定性和可驗證性存疑;從應然的價值角度來看,即便人工智能意識可以實現(xiàn),然而人類的主體性感受、情感、需求、厭惡和欲望等意識仍然是維持人之主體性地位的保障,人工智能機器意識的產生將可能給人類社會帶來不可預測的風險。因此,應當將人工智能機器定位為法律的客體,作為輔助人類發(fā)展的“工具”,排除其擁有獨立于人之意識。概言之,既然機器意識之實現(xiàn)與驗證于目前而言無法證成,其將來實現(xiàn)之可能性也無法證偽,它毋寧是一個從人類理性出發(fā),降低人類未來生存風險所必須遵循的假定。
若堅持“機器不能被騙”,那么便不當?shù)財U大了盜竊罪的成立范圍,違背罪責相適應原則;反之,如果承認“機器可以被騙”或者“機器之管理者被騙”,便可以發(fā)揮“處分行為”要素此罪與彼罪之區(qū)分機能,即判斷行為人的行為是違反被害人意思而取得財物的盜竊罪,還是屬于基于被害人意思而取得財物的詐騙罪。從實定法的角度看,刑法第196條將以非法占有為目的,冒用他人信用卡的方式列為信用卡詐騙罪的4種法定行為類型之一。然而,“機器不能被騙”作為建立在應然和實然基礎上的前提預設,唯一合理路徑是在解釋學上論證“機器之管理者被騙”。筆者認為,通過合理地論證“機器之管理者被騙”并對其成立的前提條件予以限定,闡釋刑法規(guī)范背后的正當性依據(jù)。
傳統(tǒng)刑法理論上認為,成立典型的詐騙罪(排除三角詐騙的情形)要求被騙的對象與處分財產的人必須是同一人?!皺C器不能被騙”理論,僅僅是強調作為機器本身不能陷入認識錯誤,基于受騙而交付財物,但并不意味著機器背后的管理者不能成為詐騙罪的對象。據(jù)此,在“機器不能被騙”的前提假定下,唯一的解釋路徑是機器之管理者同時作為被騙的對象與處分財物的人。
管理者為了提高交易行為效率、降低經營成本,采取事先設定交易程序的格式化形式,只要行為人滿足機器管理者預設的程序(同意條件),那么機器代為轉移財物行為便可推定為基于機器之管理者(被害人)意志所實施的事實“處分行為”,至于這一處分行為是否與機器之管理者事后主觀上的真實意志一致在所不問。例如,行為人冒用他人的信用卡,在ATM機上輸入正確的密碼后取錢的,該持卡者就會被推定為是有取錢權限的;如果行為人不滿足機器管理者預設的程序(同意條件),違反機器之管理者的意思取得財產,這種情形下應當認定為盜竊罪。
從人機關系上看,在設計智能機器程序時,目的即讓智能機器代表自然人執(zhí)行特定的行為。就智能機器而言,其完全依據(jù)程序語言的指令,所做出的反饋性行為應當視為“機器管理者的意思和表達”。按照上文提及的“預設的同意”理論,所謂的“機器被騙”,實際上是機器背后的管理者被騙。當ATM機器故障時,行為人利用機器的故障取得財產,則屬于違反機器管理者的意思取得財產的情形,與機器管理者預設的同意條件無關,應直接認定為盜竊罪。最高人民檢察院2017年發(fā)布的第38號指導性案例“董亮等四人詐騙案”,行為人以非法占有為目的,在網約車平臺上采用自我交易方式,虛構提供服務事實,使網約車公司誤認為是符合公司補貼規(guī)則的訂單,騙取網約車平臺墊付車費及訂單補貼。法院認為,其符合詐騙罪的本質特征,是一種新型詐騙罪的表現(xiàn)形式。換言之,在虛構事實“欺騙”網絡平臺的案件中,只要符合網絡平臺預設的支付條件,被騙的是網絡平臺管理人而非網絡平臺本身。
既然機器之管理者同時作為被騙的對象與處分財物的人,那么機器的法律地位及其與機器管理者之間的法律關系是什么?筆者認為,可以借鑒德國的占有輔助者制度,即下位者遵從上位者的指示對財物進行輔助性占有,系上位者的持有工具。雖然下位者直接占有財物,但是按照社會一般觀念,上位者并沒有喪失對其財物的控制和占有,下位者屬于從屬地位,不具有獨立性。經占有人同意,占有輔助者可以代為轉移財物的占有。值得注意的是,此處“代為轉移財物的占有”并非機器的“處分行為”,而是ATM取款機基于其管理者銀行的處分意思,代其履行轉移現(xiàn)金這一“事實行為”,而并非“法律行為”。因為ATM取款機的轉移現(xiàn)金行為欠缺交付意思,對轉移財產占有或財產性利益及其行為后果缺乏認識,不屬于“交付行為”。因此,盜竊信用卡對機器使用的情形,被騙人和受害人均是ATM機之管理者——銀行,行為人、機器、受害人之間也并非三角詐騙的關系。在人機對話中,機器處于工具性從屬地位,通過事先內置特定的指令程序以實現(xiàn)機器管理者的意志,在法律地位上扮演“占有輔助者”的角色。
如上所述,本文將包括強人工智能在內的機器定位為法律的客體,作為輔助人類發(fā)展的“工具”,受人類的意志支配控制,排除其擁有獨立于人之意識。因此,機器作為財產的占有輔助者,客觀上按照機器管理者預設程序的意志和指示實現(xiàn)對財產的實際占有與管領,不能違背上位占有者之指示[22]。盡管德國傳統(tǒng)的占有輔助者均是自然人,并未涉及自然人之外的機器,但承認占有輔助者從自然人向機器延伸并不會對現(xiàn)行法體系造成沖擊,也不會引發(fā)特殊類型案件處理的結論分歧,只要占有輔助者依照上位者的指示框架內運行即可。
在機器管理者“預設的同意”前提下,行為人表面上是對機器實施詐騙行為,實際上是機器背后的管理者被騙,即管理者產生認識錯誤,并在錯誤認識的支配下授權機器交付財產。以ATM機為例,行為人未經持卡人同意或者授權,以非法占有為目的,擅自以持卡人的名義使用信用卡,本質上屬于冒充他人身份的詐騙行為。行為人這一行為掩蓋其不是信用卡所有人的事實,致使機器管理者產生誤認為行為人為有權限的持卡人之錯誤認識,并基于錯誤認識而主動交付財物的行為,正是詐騙罪典型的行為類型。至于取款人是否為信用卡之真實所有人并不在自動取款機程序運行的審核范圍之內,只要行為人輸入正確的密碼,即推定為有權限取款之人。
在具體場合中行為性質的認定應當結合行為人的行為方式和機器程序所預設的內容進行考量。一方面,就行為方式而言,針對智能機器采取物理破壞、利用機器故障或管理漏洞等手段取得財物的,應當認定為盜竊罪;而通過冒用他人身份或使用虛假的信息,利用智能機器判斷上的失誤獲取財物的,則符合詐騙罪的行為特征。另一方面,就機器程序所預設的內容而言,如果行為人取走財物的行為實質上并非基于管理者的意思瑕疵處分財物,而是違背管理者之意愿,突破了管理者事先預設的同意條件范疇,其行為不符合詐騙罪的行為構造,應當評價為盜竊罪。例如,行為人使用詐術騙過門衛(wèi)機器人入戶實施盜竊行為的,應當評價為盜竊罪,或者商場中顧客將高檔衣服的標簽撕掉并穿在身上,偽裝成自己的衣服,通過智能機器門閘逃離商場的情形,只能認定為利用詐術的盜竊。因為按照“預設的同意”理論,門衛(wèi)機器人或智能機器門閘所預設的功能僅限于“開啟或關閉”程序命令,并不包括“交付財物”這一事項。
人工智能的高速發(fā)展給人類社會發(fā)展帶來新的機遇與動力,尤其在大數(shù)據(jù)、云計算乃至機器無監(jiān)督學習等方面取得了顯著進步,但也帶來諸多的挑戰(zhàn)[23]。關于人工智能“機器意識”的研究有必要區(qū)分兩個不同面向的問題:人工智能之“機器意識”何以可能?以及人工智能之“機器意識”是否必要?前者側重于以現(xiàn)代腦科學、人工智能等基礎學科研究結論為導向的事實判斷,后者側重于以倫理學、法學等人文科學為取向的價值判斷。本文認為,既然機器意識之實現(xiàn)與驗證于目前而言無法證成,其將來實現(xiàn)之可能性也無法證偽,則毋寧將“機器不能被騙”基于人類尊嚴以及人類理性的價值考量,作為降低人類未來生存風險所必須遵循的前提假定。要審視科技可能帶來非理性的后果,以及如何通過法治降低科技發(fā)展可能帶來的風險與非理性,防范科技對人類文明、尊嚴與未來的威脅[24]。立足于“人工智能+法律”的交叉學科研究,應當將人工智能定位為“工具”[25],防止人工智能發(fā)展獨立于人的自我意識和能力。未來可行的路徑應當是考慮如何通過干預人工智能機器背后主體的行為,具體包括人工智能機器設計者、制造商、使用者以及監(jiān)督者等主體因故意或過失而導致的具體社會危害性的行為,來防范人工智能技術所帶來的風險與隱患。讓機器的歸機器,讓人類的歸人類,這才是人類發(fā)展人工智能的根本意義和必由之路。