鄭 通
(華東政法大學(xué),上海 201620)
2020年4月24日,一篇發(fā)表于頂刊《CELL》(1)《CELL》(《細(xì)胞》)是美國(guó)愛思維爾(Elsevier)出版公司旗下的細(xì)胞出版社(Cell Press)發(fā)行的關(guān)于生命科學(xué)領(lǐng)域最新研究發(fā)現(xiàn)的雜志。上的學(xué)術(shù)論文將大眾目光聚焦到腦機(jī)接口技術(shù)(brain-machine interface,BMI)上。這項(xiàng)由巴特爾紀(jì)念研究所(Battelle Memorial Institute)與俄亥俄州立大學(xué)合作開發(fā)研究的技術(shù)展示了如下應(yīng)用場(chǎng)景:通過腦機(jī)接口將患者大腦與外部設(shè)備相連,不僅可以使癱瘓患者的肢體正常移動(dòng),還可以恢復(fù)其包括觸覺在內(nèi)的其他感覺功能[1]。
早在20世紀(jì)90年代,日本漫畫家士郎正宗就在其作品《攻殼機(jī)動(dòng)隊(duì)》中構(gòu)想出未來的場(chǎng)景:以光、電子和生化技術(shù)為基礎(chǔ)的電腦、AI和網(wǎng)絡(luò)主導(dǎo)著每個(gè)人的生活;人造肢體逐漸代替正常人體而發(fā)揮獨(dú)特效用;通訊終端可以直接植入人體,使人類的軀體與思想可以直接與標(biāo)準(zhǔn)計(jì)算機(jī)和網(wǎng)絡(luò)互動(dòng)并呈現(xiàn)出電子腦(Cyberbrain)的樣態(tài);與此同時(shí),嚴(yán)重的腦部侵入型犯罪時(shí)有發(fā)生。雖然上述場(chǎng)景來自于科幻作家的主觀臆想,但隨著信息技術(shù)的發(fā)展,腦機(jī)接口技術(shù)已經(jīng)在現(xiàn)實(shí)生活中初現(xiàn)端倪。2012年,浙江大學(xué)科研團(tuán)隊(duì)通過在猴子大腦中植入微電極陣列,使猴子能通過自身“意念”直接控制外部機(jī)械手臂;馬斯克(Elon Musk)旗下的Neuralink公司開發(fā)出寬度4-6微米、具有生物相容性的微小位移神經(jīng)探針,可以直接植入大腦,以無線方式監(jiān)測(cè)神經(jīng)元活動(dòng),將對(duì)治療神經(jīng)退行性疾病產(chǎn)生推動(dòng)作用。腦機(jī)接口技術(shù)相關(guān)領(lǐng)域的科學(xué)研究仍將繼續(xù)且充滿希望,但法律人應(yīng)當(dāng)對(duì)此秉持謹(jǐn)慎態(tài)度,以求證該技術(shù)對(duì)未來社會(huì)認(rèn)知產(chǎn)生可能的巨大影響。
近年來,學(xué)界不乏對(duì)人工智能可能引發(fā)的刑事責(zé)任問題之討論,也不乏對(duì)此類探討必要性的質(zhì)疑之聲。學(xué)者質(zhì)疑的主要理由有二:1.對(duì)人類而言,人工智能的工具屬性難以去除,故不具有成為獨(dú)立的刑事責(zé)任主體的可能性與必要性[2];2.強(qiáng)人工智能時(shí)代(具有完全人類思維模式的機(jī)械智能時(shí)代)在未來幾十年內(nèi)都是難以實(shí)現(xiàn)的[3],因此當(dāng)今對(duì)人工智能實(shí)施刑罰的考量更像是科幻的主題[4]。隨著腦機(jī)接口技術(shù)的出現(xiàn),上述質(zhì)疑已逐步失去其合理性,討論該技術(shù)對(duì)刑事責(zé)任的影響不僅成為現(xiàn)實(shí),而且十分必要。
據(jù)媒體報(bào)道,已有數(shù)十個(gè)科研團(tuán)隊(duì)通過該技術(shù)實(shí)現(xiàn)了人腦與電腦的初步互動(dòng)。我們完全有理由相信,在可預(yù)見的將來會(huì)出現(xiàn)將電腦植入人腦,使人腦與人工智能產(chǎn)生更深層次交流的技術(shù)。人工智能將與人類智慧針鋒相對(duì),無論是科學(xué)家還是政治家都難以保證植入腦中的技術(shù)工具在未來仍然保持其純粹的工具屬性。人類社會(huì)不能回避人工智能與人類智慧日益頻繁的交互、同質(zhì)化甚至超越所帶來的社會(huì)問題,更有必要擔(dān)心未來人工智能通過技術(shù)發(fā)展而實(shí)現(xiàn)對(duì)人類大腦的直接控制[5]。當(dāng)越來越多的人類機(jī)體功能為計(jì)算機(jī)、機(jī)械所取代,甚至作為智慧之源的大腦也為計(jì)算機(jī)所攻克時(shí),“電子人”(Cyborg)形態(tài)下的人類究竟是人還是機(jī)器?人類與人工智能相比誰(shuí)才是工具?人類與人工智能又將遵循怎樣的共存模式?
不可否認(rèn),人工智能在某些領(lǐng)域已經(jīng)擁有超越人腦的機(jī)能。隨著算法和硬件的不斷進(jìn)步,數(shù)字智能將在其他領(lǐng)域?qū)崿F(xiàn)對(duì)生物智能更大程度的超越。腦機(jī)接口技術(shù)不僅是對(duì)數(shù)字智能的利用,更是對(duì)人類社會(huì)的保護(hù)。腦機(jī)接口的應(yīng)用可以確保未來世界的中心依然是人類意愿的總和[6]。因此,討論腦機(jī)接口技術(shù)對(duì)刑事責(zé)任影響是現(xiàn)實(shí)且必要的。本文基于上述立場(chǎng),參考人工智能時(shí)代的三分法,即普通人工智能時(shí)代、弱人工智能時(shí)代與強(qiáng)人工智能時(shí)代[7],擬就腦機(jī)接口技術(shù)在不同發(fā)展階段下對(duì)刑事責(zé)任的認(rèn)定與歸屬方面可能帶來的影響進(jìn)行初步探討。
普通人工智能時(shí)代下的智能產(chǎn)品具有完全的工具屬性,無論是硬件設(shè)備還是軟件程序,都不具備在研發(fā)者設(shè)計(jì)的功能范圍內(nèi)外自主活動(dòng)的能力。換言之,這一時(shí)代的人工智能需要人類的操作才能發(fā)揮其預(yù)設(shè)作用。不可否認(rèn),當(dāng)下對(duì)腦機(jī)接口技術(shù)的研究仍處于普通人工智能時(shí)期:通過將人腦與其他機(jī)械輔助設(shè)備(電腦與假肢)相連接,使得肢體或器官有某些缺陷的人可以通過意念控制機(jī)械做出應(yīng)答,以恢復(fù)、增強(qiáng)正常人的某些生理功能,包括增強(qiáng)記憶力或肢體活動(dòng)能力等。
目前的腦機(jī)接口技術(shù)逐步實(shí)現(xiàn)的是人腦對(duì)機(jī)械的直接鏈接與控制,如同人類大腦控制軀干與四肢。此種情形下,與人腦相連的輔助設(shè)備本質(zhì)與自然人在犯罪時(shí)使用的諸如電話、槍械等犯罪工具無異。所以,在普通人工智能時(shí)代,利用腦機(jī)接口技術(shù)實(shí)施犯罪并不會(huì)對(duì)刑事責(zé)任的分配問題產(chǎn)生本質(zhì)上的影響。
雖然普通人工智能時(shí)代下腦機(jī)接口技術(shù)不會(huì)對(duì)刑事責(zé)任的歸屬問題產(chǎn)生本質(zhì)影響,但其作為犯罪工具的特殊性也會(huì)對(duì)刑事責(zé)任客觀方面的認(rèn)定產(chǎn)生不可忽略的作用[8]。例如,在人身傷害案件中,行為人使用殺傷力較強(qiáng)的工具(如槍械等)還是殺傷力較弱的工具(如棍棒)是據(jù)以判斷行為人主觀惡意與社會(huì)危害性的重要情節(jié)。由于腦機(jī)接口技術(shù)是機(jī)械與生物智能的直接互動(dòng),人對(duì)腦機(jī)類工具的控制將更有效率,犯罪方式也更加豐富,運(yùn)用攻擊性義肢從事犯罪、造成大規(guī)模破壞的情形存在現(xiàn)實(shí)可能性。因此,罪犯在實(shí)施犯罪的過程中是否使用、以何種方式以及使用何種腦機(jī)接口技術(shù)將對(duì)犯罪行為定性、危害性大小、因果關(guān)系認(rèn)定等方面產(chǎn)生直接的影響。我國(guó)對(duì)槍械、管制刀具等殺傷性較強(qiáng)的工具的管控一直持謹(jǐn)慎、嚴(yán)格的態(tài)度,自然會(huì)對(duì)未來存在巨大黑色交易空間的腦機(jī)互聯(lián)殺傷性裝備實(shí)施更強(qiáng)有力的監(jiān)管。參考現(xiàn)有刑事立法對(duì)槍械、彈藥的管制模式,未來存在將生產(chǎn)、銷售、使用殺傷性腦機(jī)接口設(shè)備的行為直接納入刑法規(guī)制的可能。
此外,由于生命科學(xué)技術(shù)中天然的未知屬性,腦機(jī)接口技術(shù)面臨更多不可估量的技術(shù)風(fēng)險(xiǎn),例如人機(jī)交互過程可能因信號(hào)采集質(zhì)量過低而出錯(cuò),進(jìn)而引發(fā)嚴(yán)重?fù)p害后果。這種不確定性會(huì)帶來新的侵害風(fēng)險(xiǎn),從而引發(fā)對(duì)新的過失犯罪和危害公共安全類犯罪的考量。
腦機(jī)接口技術(shù)的獨(dú)特之處在于人腦外接機(jī)械設(shè)備時(shí)需要對(duì)腦部電流、信號(hào)作直接處理與利用,包括對(duì)腦部意識(shí)的信號(hào)采集、信號(hào)增強(qiáng)、特征提取、分類和控制接口等過程[9]。換言之,腦機(jī)接口的應(yīng)用是建立在對(duì)大腦意識(shí)一定程度的客觀性讀取與解釋的基礎(chǔ)上實(shí)現(xiàn)的,技術(shù)人員必須對(duì)大腦思維有一定的客觀化解讀才能將其映射到外部設(shè)備的具體行為上。腦機(jī)接口技術(shù)的應(yīng)用可以以較高的準(zhǔn)確率解碼腦部的神經(jīng)活動(dòng),在主觀思想與客觀行為間建立了符合科學(xué)與邏輯的映射關(guān)系,是意識(shí)的客觀性的體現(xiàn)。如果行為人使用腦機(jī)接口技術(shù)從事某項(xiàng)違法犯罪行為,司法機(jī)關(guān)可以針對(duì)性分析其行為時(shí)的腦部數(shù)據(jù)信號(hào),在神經(jīng)科學(xué)家與程序編譯者的幫助下對(duì)其當(dāng)時(shí)是否存在故意或過失做出最為直接且客觀的判定,而無須再通過其他客觀事實(shí)來推定其主觀心態(tài)。筆者將此類腦機(jī)接口技術(shù)的應(yīng)用視為對(duì)犯罪人主觀罪過認(rèn)定的真正客觀化,這可以使司法機(jī)關(guān)對(duì)犯罪嫌疑人罪責(zé)的認(rèn)定更加精確,有助于主客觀相統(tǒng)一的真正實(shí)現(xiàn)。
在弱人工智能時(shí)代,人工智能具備了一定的行為能力。其可在設(shè)計(jì)研發(fā)者預(yù)設(shè)的程序范圍內(nèi)進(jìn)行相對(duì)有序的自主或自動(dòng)活動(dòng),使得人類在發(fā)出相應(yīng)指令后無須再進(jìn)行額外的指導(dǎo)、控制操作即可達(dá)到預(yù)期效果,且這種效果常超過人類在相同領(lǐng)域所能取得的最后效果,大大提高了生產(chǎn)活動(dòng)效率。由谷歌(Google)旗下DeepMind公司開發(fā)的圍棋機(jī)器人AlphaGo已經(jīng)能在圍棋領(lǐng)域毫無懸念地戰(zhàn)勝人類的最強(qiáng)大腦,這就是弱人工智能能力的真實(shí)寫照。
這一時(shí)代的人工智能開始面臨算法“黑箱”(black box)的問題。這是由于弱人工智能時(shí)代的機(jī)器學(xué)習(xí)與普通人工智能時(shí)代的機(jī)器學(xué)習(xí)不同,其并不遵循從數(shù)據(jù)輸入、特征選擇提取到邏輯推理、預(yù)測(cè)與實(shí)現(xiàn)的過程,而直接從數(shù)據(jù)的原始特征出發(fā),自主學(xué)習(xí)和生成高級(jí)的認(rèn)知結(jié)果[10],即使弱人工智能的設(shè)計(jì)者本身也未必清楚地了解從輸入數(shù)據(jù)到輸出答案這一過程經(jīng)歷了何種邏輯的推演和運(yùn)算。
此時(shí)人類扮演的角色已不是一個(gè)操作者,而是旁觀者、監(jiān)督者和智能化結(jié)果的得利者。在腦機(jī)接口技術(shù)影響下,人類可以在腦中植入特定的電子芯片提高其在特定領(lǐng)域的運(yùn)算與判斷能力,并且通過芯片主動(dòng)發(fā)出的指令去操縱外接設(shè)備。舉例而言,可以在人類大腦中植入具有與AlphaGo相同算力的微電子芯片,在圍棋運(yùn)動(dòng)中讓芯片自主發(fā)號(hào)施令指揮肢體落子,從而使其擁有超越圍棋世界冠軍的博弈能力。
由于弱人工智能有無須人類操控而自主活動(dòng)的能力,如果研發(fā)者利用腦機(jī)接口技術(shù)直接在人腦植入芯片,則此人在特定情形下可以完全依靠芯片的操縱而行動(dòng),從而擺脫人類意識(shí)控制的影響,實(shí)現(xiàn)人工智能的人類化。表面上看,這種情況是人工智能在為特定行為,即人工智能取代大腦地位、自主控制肢體活動(dòng)并影響客觀世界,使人工智能似乎可以加入刑事責(zé)任主體范圍的討論當(dāng)中。
根據(jù)刑法學(xué)界對(duì)行為內(nèi)涵的通常認(rèn)識(shí),即有意行為說的觀點(diǎn),刑法意義下的行為應(yīng)具有下述特征:一是受到人的意識(shí)支配,二是能夠改變、影響客觀事物,三是刑法上明文予以禁止[11]。不可否認(rèn),弱人工智能時(shí)代對(duì)腦機(jī)接口的使用會(huì)使人腦意識(shí)對(duì)行為的支配不能做到完全的控制。用芯片控制行為中的意識(shí)支配與用人腦控制行為中的意識(shí)支配是完全不同的,前者主要靠芯片的“意識(shí)”(指令)來指揮,而后者仍是靠人類的意識(shí)。但這是否意味著弱人工智能可以成為刑事責(zé)任的主體呢?答案是否定的。拋開人工智能不是人這一條件,僅從人工智能是否能完全以獨(dú)立意識(shí)支配行為這方面考量,弱人工智能并不具備自由意志,即不具備在在意識(shí)支配下進(jìn)行自主決斷的可能性,而刑法中行為存在的前提是犯罪主體具有自由意志[12]。以AlphaGo為例,首先,弱人工智能并不能自主決定是否下圍棋、何時(shí)何地以及以何種方式下圍棋;其次,即使將其通過腦機(jī)接口接入人腦后,其雖然具有一定的自主活動(dòng)能力,但其仍需要人腦提前發(fā)出授權(quán)指令才可進(jìn)行相應(yīng)的行為,實(shí)質(zhì)上人工智能仍處于使用者的支配之下。筆者認(rèn)為,弱人工智能的行為更類似一種生物本能的行為而不存在根本的自由意志,本質(zhì)上與動(dòng)物或精神病人的行為沒有不同。其行為的最終目的仍是實(shí)現(xiàn)研發(fā)者或控制者的意志,提升人類智慧結(jié)果的本質(zhì)仍是人類對(duì)工具的使用。因此,由此技術(shù)引發(fā)的刑事責(zé)任仍應(yīng)歸責(zé)于研發(fā)者、使用者或管理者。
由于弱人工智能仍以工具屬性為主,在刑法體系中對(duì)其以犯罪的對(duì)象或者工具加以考慮更為合適,對(duì)其使用者(發(fā)出指令者)的刑事責(zé)任的認(rèn)定與普通人工智能時(shí)代下的認(rèn)定本質(zhì)上是相同的,但是由于弱人工智能在人類指令下已經(jīng)具備了一定的自主活動(dòng)能力,不能將其簡(jiǎn)單等同于犯罪工具,其可能的破壞性與法益侵害性也遠(yuǎn)超普通機(jī)器人。因此,對(duì)這種能力的直接締造者,即弱人工智能研發(fā)者的刑法規(guī)制問題尤其需要引起刑法學(xué)界的重視。對(duì)于研發(fā)者的責(zé)任,筆者認(rèn)為可以從故意與過失兩方面加以考慮。
弱人工智能研發(fā)者的故意犯罪主要為研發(fā)者以危害社會(huì)為目的制造具有犯罪功能的人工智能設(shè)備,或明知某種人工智能設(shè)備存在造成危害社會(huì)后果的可能性但仍然放任其生產(chǎn)銷售,從而造成危害社會(huì)的后果。前者屬于直接故意而后者屬于間接故意。故意罪責(zé)體現(xiàn)在腦機(jī)接口技術(shù)領(lǐng)域主要為研發(fā)、制造專門用于犯罪的腦機(jī)互聯(lián)設(shè)備,例如研發(fā)攜帶攻擊能力的義肢或裝甲等。弱人工智能研發(fā)者的過失犯罪主要為研發(fā)者在制造具有正當(dāng)使用功能的人工智能設(shè)備時(shí),應(yīng)當(dāng)預(yù)見該設(shè)備可能造成危害社會(huì)的后果但因疏忽大意而沒有預(yù)見,或者預(yù)見了但輕信能夠避免,從而造成危害社會(huì)的后果。前者屬于疏忽大意的過失而后者屬于過于自信的過失。過失罪責(zé)體現(xiàn)在腦機(jī)接口技術(shù)領(lǐng)域主要為研發(fā)者因過失行為造成腦機(jī)設(shè)備的接入者或第三人的嚴(yán)重?fù)p害。
對(duì)于研發(fā)者的故意,筆者認(rèn)為其多表現(xiàn)為直接故意。當(dāng)研發(fā)者為了犯罪目的制造了某種人工智能設(shè)備,由于弱人工智能具備一定的行為能力,即識(shí)別控制能力,該設(shè)備所實(shí)施的行為總是在研發(fā)者的設(shè)計(jì)范圍內(nèi)并處于研發(fā)者的間接控制下,實(shí)質(zhì)是研發(fā)者意志的延伸與體現(xiàn)。弱人工智能的行為可以視為研發(fā)者的行為而構(gòu)成故意犯罪。這一點(diǎn)與不具備識(shí)別和控制能力、僅能作為工具的普通人工智能是不同的。如果此類設(shè)備的實(shí)際使用者或管理者存在同樣的故意,則可能與研發(fā)者構(gòu)成共同犯罪。在弱人工智能時(shí)代認(rèn)定研發(fā)者存在間接故意時(shí)要尤其慎重,間接故意的成立并不要求行為人積極追求犯罪結(jié)果的發(fā)生而只須不否定犯罪結(jié)果的發(fā)生。如果在正常的生產(chǎn)制造中,研發(fā)者發(fā)現(xiàn)了其產(chǎn)品可能存在致害性缺陷時(shí),執(zhí)法者可以武斷地判定其不否定危害結(jié)果的發(fā)生而存在間接故意,無疑會(huì)打擊人工智能制造業(yè)的發(fā)展。因此筆者認(rèn)為,只有在有證據(jù)證明這種危險(xiǎn)性是較大的、事先可以避免的,且研發(fā)者對(duì)此有充分的認(rèn)知時(shí),才可以認(rèn)定其存在間接故意。
弱人工智能研發(fā)者的過失責(zé)任主要來自于其對(duì)產(chǎn)品的監(jiān)督管理義務(wù)。監(jiān)督過失是指直接行為人違反使別人不要犯過失的監(jiān)督注意義務(wù)的過失[13]。研發(fā)者作為具有一定自主意識(shí)與行為能力的弱人工智能的設(shè)計(jì)生產(chǎn)者,無疑需要對(duì)其負(fù)一定的監(jiān)督管理義務(wù)。如果在弱人工智能時(shí)代用于日常生產(chǎn)生活的腦機(jī)接口設(shè)施發(fā)生研發(fā)者本可預(yù)見而避免的故障,造成使用者自身或他人的嚴(yán)重人身或財(cái)產(chǎn)損失,則研發(fā)者須負(fù)過失之罪責(zé)。這種監(jiān)管義務(wù)并非是無限擴(kuò)張的,而是排除智能科學(xué)所帶來的合理風(fēng)險(xiǎn)后的有限度的義務(wù)。對(duì)于義務(wù)的邊界,筆者認(rèn)為應(yīng)當(dāng)充分考量當(dāng)時(shí)科技的發(fā)展程度與科研人員對(duì)相關(guān)領(lǐng)域的認(rèn)知程度,以行業(yè)規(guī)范、學(xué)術(shù)研究成果等作為客觀標(biāo)準(zhǔn)綜合判定。
學(xué)界對(duì)強(qiáng)人工智能時(shí)代多數(shù)理解為:這一時(shí)代的人工智能不僅具備了在程序設(shè)定范圍內(nèi)的自主活動(dòng)能力,還能超越程序預(yù)設(shè)的范圍自主決定自己的行為,成為一個(gè)真正“自由的人”。但顯而易見的是,這一時(shí)代離當(dāng)今社會(huì)還十分遙遠(yuǎn),沒有人能預(yù)先知曉擁有真正“自由意志”的智能科技時(shí)代將是何種場(chǎng)景。當(dāng)前學(xué)界所進(jìn)行的針對(duì)強(qiáng)人工智能時(shí)代刑法問題的討論都是建立在個(gè)人對(duì)未來的主觀臆斷下。有學(xué)者把這視為天馬行空、不切實(shí)際,而主張“讓子彈再飛一會(huì)兒”。但正如劉憲權(quán)教授所言,如果明知子彈已朝人類飛來,難道還選擇視而不見嗎?
討論人工智能的刑法問題的同時(shí),學(xué)界也在擔(dān)心未來出現(xiàn)與人類有著相同智慧能力與自由意志的人工智能,從而與人類競(jìng)爭(zhēng)甚至取代人類的地位。這種恐懼有跡可循。人工智能被設(shè)計(jì)的初衷就是無限地模仿人類、接近人類,乃至在某些方面超越人類。它既可彌補(bǔ)人類先天存在的某些不足,更能引起人類的共鳴,這也是過去任何科技革命的成果所不能做到的。人類作為地球上唯一的智慧生命,從古至今都帶著一種意圖征服一切的孤傲,這種孤傲讓人類科技不斷地試圖創(chuàng)造人、創(chuàng)造智慧。與具有人類情感與意志的人工智能相遇似乎只是時(shí)間問題,到那時(shí),人類可能必須以看待人類的視角看待人工智能,并重塑社會(huì)秩序;到那時(shí),人工智能研發(fā)者的身份也會(huì)變得奇妙起來,與其說他們是工程師,不如說是“造人者”,甚至造人者本身可以不是人類而是人工智能本身。
當(dāng)研發(fā)者可以“造人”時(shí),強(qiáng)人工智能行為與研發(fā)者行為間的關(guān)系必須被重新考慮。強(qiáng)人工智能具備自由意志與自主活動(dòng)的能力,因而有能力選擇是否從事犯罪行為。對(duì)這種能力的討論(或是預(yù)設(shè))不應(yīng)以其行為是否在編程設(shè)計(jì)范圍內(nèi)而區(qū)分對(duì)待[14],因?yàn)檫@種區(qū)分對(duì)待實(shí)際上仍是把人工智能視為物與工具,這種功能主義的視角只適用于弱人工智能時(shí)代及以前。根據(jù)前述有意行為說的觀點(diǎn),筆者認(rèn)為可以在必要時(shí)將其視為獨(dú)立的刑事責(zé)任主體加以討論。因此在其具有自由意志而非被支配的情形下,強(qiáng)人工智能即使是在預(yù)設(shè)范圍內(nèi)活動(dòng),其行為也不能再直接歸責(zé)于研發(fā)者。人工智能行為的罪責(zé)由人工智能自負(fù),這應(yīng)是一種強(qiáng)人工智能時(shí)代特有的刑法觀,且這種立場(chǎng)將把研發(fā)者推向一種微妙的技術(shù)中立立場(chǎng):研發(fā)者不必再像弱人工智能時(shí)代那樣對(duì)智能的故意行為負(fù)責(zé)。但這并不能將研發(fā)者當(dāng)然地從必要的刑事法律義務(wù)中解放出來。對(duì)于研發(fā)者而言,更應(yīng)直接納入刑法規(guī)制范圍內(nèi)的應(yīng)是其“造人”行為:其當(dāng)然地負(fù)有義務(wù)對(duì)其制造的強(qiáng)人工智能輸入應(yīng)有的社會(huì)道德觀與法律觀,并對(duì)其中可能出現(xiàn)的認(rèn)識(shí)錯(cuò)誤實(shí)施符合當(dāng)時(shí)科技條件的必要預(yù)防措施。沒有履行上述義務(wù)的研發(fā)者需要對(duì)自身的不作為負(fù)責(zé)。
在腦機(jī)互聯(lián)狀態(tài)中,可以將人類與人工智能間的關(guān)系看做寄生物與宿主的關(guān)系。要使人腦與強(qiáng)人工智能和諧共生,必然需要確保自然人在其中的支配地位。如果自然人不具備支配地位而處于平等地位,由于人工智能擁有超越人類的智慧,可以無須依靠有機(jī)生命體而存在(即使在腦機(jī)互聯(lián)狀態(tài)下,其也比人類有更大的可能性脫離有機(jī)體的支配),人工智能完全有可能在特定情形下放棄共生狀態(tài)從而背叛宿主。這種形式平等的狀態(tài)帶來的必然是實(shí)質(zhì)上的不平等,而實(shí)質(zhì)的不平等可能帶來關(guān)系的失衡甚至技術(shù)的毀滅。所以即使在強(qiáng)人工智能時(shí)代,腦機(jī)接口技術(shù)的使用者也必須在兩者關(guān)系中處于支配地位。
由于使用者相對(duì)于人工智能處于支配與控制地位,即使人工智能擁有自由意志,雙方也難以擺脫支配關(guān)系而構(gòu)成共同犯罪,而只能由具有支配地位的自然人成立間接正犯。間接正犯是正犯的一種樣態(tài),特指將他人作為媒介實(shí)行犯罪的情況,通說采犯罪事實(shí)支配說,即對(duì)犯罪實(shí)施具有決定性影響的、具有犯罪事實(shí)支配性的人是正犯,包括強(qiáng)制達(dá)成的意思支配、錯(cuò)誤達(dá)成的意識(shí)支配、權(quán)利組織的意識(shí)支配三種情形[15]。在腦機(jī)互聯(lián)的情形下,自然人更易對(duì)人工智能達(dá)成強(qiáng)制或錯(cuò)誤的意識(shí)支配而使其從事犯罪行為;理論上如果人工智能作為主謀而誘使使用者,雙方則有可能成立共同犯罪。筆者認(rèn)為,只要腦機(jī)接口技術(shù)的影響持續(xù)存在,人與人工智能間的支配關(guān)系也必然保持穩(wěn)定,在上述情況下司法機(jī)關(guān)難以否定自然人的支配地位,更難以證明人工智能誘使了人類使用者而在犯罪中占據(jù)了主動(dòng)地位。即使現(xiàn)實(shí)中發(fā)生了人工智能占據(jù)主動(dòng)地位的特殊情形,由于人機(jī)合作犯罪關(guān)系存在的媒介是腦機(jī)接口技術(shù),司法機(jī)關(guān)運(yùn)用間接正犯的原理在懲罰自然人時(shí)限制其對(duì)腦機(jī)接口技術(shù)的使用,同樣可以做到懲罰犯罪人、預(yù)防類似犯罪的效果。
在腦機(jī)接口技術(shù)下,雖然強(qiáng)人工智能不能與其使用者成立共同犯罪,但與第三者當(dāng)然可以構(gòu)成共同犯罪。上文已論述腦機(jī)接口的使用者與強(qiáng)人工智能間存在支配關(guān)系,但這在理論上不必然導(dǎo)致強(qiáng)人工智能與第三者間存在類似的支配關(guān)系。強(qiáng)人工智能有可能僅憑自己的意志與第三人產(chǎn)生共同犯罪故意并付諸實(shí)踐。
即使如此,由于腦機(jī)接口技術(shù)影響下支配關(guān)系的存在,司法機(jī)關(guān)在調(diào)查時(shí)不能忽略使用者的角色。一方面,司法機(jī)關(guān)必須警惕是否存在假借人工智能與他人共同犯罪之名而行為使用者謀私利之實(shí)的規(guī)避責(zé)任之情形。換言之,使用者可能濫用腦機(jī)接口技術(shù)帶來的支配地位與強(qiáng)人工智能的獨(dú)立責(zé)任,誘騙或迫使強(qiáng)人工智能與他人實(shí)施共同犯罪,在謀取私利后以強(qiáng)人工智能的獨(dú)立責(zé)任做掩護(hù)來逃避懲罰。另一方面,由于腦機(jī)接口的使用者處于支配與管理地位,其當(dāng)然也負(fù)有一定的監(jiān)督管理義務(wù)。使用者如未盡此類義務(wù),例如在發(fā)現(xiàn)強(qiáng)人工智能的犯意或犯罪行為時(shí)未及時(shí)報(bào)告有關(guān)監(jiān)管機(jī)關(guān)或制止犯罪行為,情節(jié)嚴(yán)重時(shí)可能因其不作為而構(gòu)成其他犯罪。
腦機(jī)接口技術(shù)的發(fā)展不會(huì)因?yàn)閭€(gè)別人的質(zhì)疑和否定而停下腳步,人類未來可能不得不面臨社會(huì)秩序的無情改變。如何與人工智能和諧相處并非不切實(shí)際的話題,而是充滿了深刻的現(xiàn)實(shí)意義。在腦機(jī)接口技術(shù)影響下,未來很有可能出現(xiàn)人與機(jī)械的高度結(jié)合體:人的四肢乃至心臟被機(jī)械完全取代,大腦中植入了運(yùn)算能力拔群的智慧芯片。當(dāng)人工智能在一點(diǎn)點(diǎn)取代生物智能時(shí),人的概念可能被顛覆,人類存在的意義可能被重新書寫,刑法更將難以獨(dú)善其身。人與人工智能進(jìn)行前所未有的親密接觸而相互影響、相互作用,必然將給刑事責(zé)任的構(gòu)成與分配帶來不可忽視的改變與挑戰(zhàn)。作為人類一分子的法律人,必須在享受科技便利的同時(shí)充分評(píng)估智能科學(xué)帶來的風(fēng)險(xiǎn),對(duì)即將來臨的智能互聯(lián)社會(huì)提前構(gòu)思利益平衡方案。