孫道萃,王曉杰
(1.中國(guó)政法大學(xué) 國(guó)家法律援助研究院,北京 100088;2.哈爾濱市中級(jí)人民法院,哈爾濱 150001)
《未來簡(jiǎn)史》曾預(yù)測(cè)未來之法:人工智能在未來將獲得統(tǒng)治地位,人類的法律將變成一種數(shù)字規(guī)則,除無法管理“物理定律”外,將規(guī)范人類的一切行為。[1]人工智能技術(shù)的廣泛應(yīng)用,突顯人工智能技術(shù)倫理及其風(fēng)險(xiǎn)治理等問題的緊迫性與重大性。人工智能與現(xiàn)代法律加速交互乃至沖突。近現(xiàn)代法律體系如何應(yīng)對(duì)人工智能的風(fēng)險(xiǎn)及其不確定性因素,以及能否推動(dòng)法律體系與時(shí)俱進(jìn)等緊迫問題越發(fā)凸顯。刑法制度在整個(gè)法律體系中扮演舉足輕重的作用,它與人工智能的遭遇戰(zhàn)已然上演,迫切需要探討智能時(shí)代可能帶來的嚴(yán)峻挑戰(zhàn)及其對(duì)策。理論上對(duì)當(dāng)代刑法積極回應(yīng)人工智能形成了不少擔(dān)憂與質(zhì)疑。但是,積極樂觀的前瞻性探索亦不甘示弱。盡管人工智能對(duì)法律制度的緩慢“沖洗”是這場(chǎng)巨變的客觀效應(yīng),但也展示出刑法變革的“無限潛能”。人工智能技術(shù)及其應(yīng)用具有雙面性,不能因其潛在的負(fù)面影響而因噎廢食。在挑戰(zhàn)與機(jī)遇并存之際,刑法更加應(yīng)當(dāng)統(tǒng)籌應(yīng)對(duì)人工智能安全問題。人類社會(huì)也應(yīng)重新思考未來的可能性,更理性地塑造和引領(lǐng)人工智能的發(fā)展而“不失位”。當(dāng)代刑法制度正在遭遇多重發(fā)展危機(jī),適時(shí)予以調(diào)整才能彰顯刑法積極變革的時(shí)代氣度。從規(guī)范維度作出前瞻性的應(yīng)對(duì)是根本之路,甚至?xí)诚搿叭斯ぶ悄苄谭▽W(xué)”也是有依據(jù)和意義的前沿探索。[2]譬如,對(duì)人工智能的刑法主體地位,采取更加積極的立場(chǎng),雖會(huì)超前于現(xiàn)階段的技術(shù)水平與認(rèn)識(shí)觀念,卻不失為面向未來的探索。經(jīng)由觀念的調(diào)試與建構(gòu),不僅便于總結(jié)并提煉刑法理論對(duì)人工智能問題的研究共識(shí)與應(yīng)對(duì)經(jīng)驗(yàn),也更加直接“滲入”刑法學(xué)的內(nèi)在與體系,以建構(gòu)性的前瞻思維謀劃與錨定刑法的未來取舍。
人工智能技術(shù)及其應(yīng)用,對(duì)“人的主體性地位”與人類社會(huì)結(jié)構(gòu)的增量沖擊與分離態(tài)勢(shì),已經(jīng)使當(dāng)代刑法制度開始承受諸多挑戰(zhàn)。這是當(dāng)下挑戰(zhàn)的肇始之端。
人工智能時(shí)代首先可能動(dòng)搖人的主體性地位及其命運(yùn),這對(duì)當(dāng)代刑法不免形成釜底抽薪的剝離效應(yīng),也成為人工智能與當(dāng)代刑法交鋒后的首要風(fēng)險(xiǎn)所在。
1.離經(jīng)叛道中的“人的主體性地位”。人工智能技術(shù)可模仿和復(fù)制人腦的智能。雖不是人的智能,但能“類人”地作出價(jià)值判斷。過去被動(dòng)執(zhí)行人設(shè)計(jì)程序命令的智能機(jī)器人,不斷增強(qiáng)自主性和創(chuàng)造性,使“智能主體(智能產(chǎn)品、智能機(jī)器人等)將來能否超越人這一法定宿主”的擔(dān)憂愈演愈烈。人類社會(huì)的“數(shù)字化”程度與“物化”趨勢(shì)遞增,以至于“人”可能被“物化(客體化)”的認(rèn)識(shí)絕非杞人憂天。這觸發(fā)“何以為人,人將何為”的本源“生存”問題。在現(xiàn)階段,人工智能主要是人類主體改造世界的新實(shí)踐工具,現(xiàn)實(shí)社會(huì)基礎(chǔ)仍決定人類未來走向。盡管目前讓人類真正憂慮和恐懼的上述事實(shí),仍缺乏堅(jiān)實(shí)的理論依據(jù)與迫近的大規(guī)模實(shí)踐,甚至還可能夾雜對(duì)人工智能的擬人化威脅的過度擴(kuò)大化。然而,圍繞智能主體是否可以且最終替代人的主體性地位展開的爭(zhēng)論異常激烈[3],充分說明事態(tài)的嚴(yán)峻性。例如,設(shè)計(jì)的人工智能機(jī)器人自主發(fā)展出人類無法理解的獨(dú)特語(yǔ)言,F(xiàn)acebook關(guān)閉引起廣泛爭(zhēng)議的“開發(fā)人類無法理解”的溝通智能對(duì)話機(jī)器人項(xiàng)目,避免陷入道德倫理的“失控”。人工智能對(duì)“人”主體性的沖擊與侵蝕,已經(jīng)從人類語(yǔ)言這一最基礎(chǔ)環(huán)節(jié)開始滲透。未來出現(xiàn)獨(dú)立存在的智能機(jī)器人與人工智能社會(huì)并不意外,而是現(xiàn)實(shí)物理社會(huì)高度“進(jìn)化”的結(jié)果。在沙特阿拉伯舉行的“未來投資倡議”大會(huì)上,高仿真“女性”機(jī)器人——“索菲婭”被授予沙特“公民”身份,成為史上首位獲得“公民”身份的機(jī)器人。[4]“智能人”的最終出現(xiàn)以及難以預(yù)測(cè)的人類危機(jī)、生存危機(jī)與重大社會(huì)問題等,加速“人”的地位和生存語(yǔ)境、“人之何為人”、“人是否還是獨(dú)立的人”等問題相繼迭出,使傳統(tǒng)刑法立足的根基陷入“災(zāi)難”。盡管這種“生存危機(jī)”是面向未來的預(yù)測(cè)。
2.“人本”理念的彌散效應(yīng)。近現(xiàn)代刑法確立了犯罪主體概念,貫穿犯罪(認(rèn)定犯罪)、刑事責(zé)任(刑事歸責(zé))與刑罰(確定刑罰)的全過程。自然人自始至終是犯罪主體的絕對(duì)主導(dǎo)類型,法人也是近幾十年的新生主體。自然人具有相對(duì)的意志自由,以及辨認(rèn)能力與控制能力,是實(shí)施犯罪、承擔(dān)刑事責(zé)任和接受刑事處罰的哲學(xué)基礎(chǔ)與法律基礎(chǔ)。單位或法人擁有的是法律擬制犯罪能力、承擔(dān)刑事責(zé)任能力。作為人類社會(huì)文明的“智力產(chǎn)物”與“社會(huì)治理工具”,法律制度,尤其是刑法等部門法,在脫離“人的主體性”的成立前提與基礎(chǔ)后,必將經(jīng)歷法律是否存續(xù)、法律如何產(chǎn)生、法律為誰(shuí)服務(wù)、法律由誰(shuí)監(jiān)管等重大制度蛻變的潛在危機(jī)。
自從人類社會(huì)有了犯罪與刑罰后,犯罪人、罪犯、行為人等概念便隨之產(chǎn)生。人工智能可能使刑法中習(xí)以為常的自然人地位處于不確定的異常狀態(tài)。它集中在以下兩個(gè)方面:
(1)人的刑法主體格局之替代性。人工智能引發(fā)了“人不再是唯一的統(tǒng)治者”“人是可以被超越的”等擔(dān)憂?!叭恕睆慕^對(duì)的神壇逐漸跌落與人工智能應(yīng)用范圍的擴(kuò)大,將對(duì)人類社會(huì)自古以來形成的“人的主體性”等認(rèn)識(shí)論構(gòu)成根本沖擊。從技術(shù)條件來看,智能主體可以具有獨(dú)立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)責(zé)任義務(wù),也應(yīng)當(dāng)具有法律人格。[5]如此一來,智能主體或?qū)⑷〈匀馍淼淖匀蝗?,甚至演變?yōu)樾谭ㄖ黧w,可以實(shí)施犯罪、承擔(dān)責(zé)任和接受懲罰。[6]譬如,智能駕駛汽車沖擊傳統(tǒng)交通事故犯罪的“共識(shí)”[7],包括“人”不再是法定的駕駛主體與危險(xiǎn)制造者,也不能直接作為責(zé)任主體等。[8]這直接摧毀了當(dāng)代刑法的邏輯起點(diǎn)以及傳統(tǒng)犯罪觀念的整體合理性。“人”不再是犯罪的主體,將摧毀傳統(tǒng)刑法制度的根基。盡管從“圖靈測(cè)試”、神經(jīng)網(wǎng)絡(luò)算法與翻譯程序等技術(shù)來看,當(dāng)前人工智能技術(shù)或產(chǎn)品,仍屬于人類主動(dòng)界定的“擬人智能”。在未來很長(zhǎng)時(shí)間內(nèi)都可能是從屬于人類的工具。但是,量變的基本趨勢(shì)不可阻擋,“以人為本”的刑法立足點(diǎn)將逐漸受到侵蝕。
(2)智能主體的“純粹犯罪工具化”傾向。在現(xiàn)階段,人工智能技術(shù)的非可視化、可控制性偏低、計(jì)算過程的非透明化、運(yùn)行結(jié)果的難逆轉(zhuǎn)性與不可救濟(jì)性等情況,不僅是其技術(shù)危險(xiǎn)的真實(shí)寫照,也使人類社會(huì)面臨巨大的制度危機(jī),更將當(dāng)代法律制度何去何從推向抉擇的關(guān)口。人工智能技術(shù)與智能主體,可能成為人實(shí)施犯罪的新犯罪工具。智能主體的不透明性、規(guī)模效應(yīng)及損害性等特質(zhì),也可能造成歧視、個(gè)體損害等不利后果,甚至異化為“殺傷性數(shù)學(xué)武器”等。這反映出當(dāng)代刑法制度的歷史局限性及其規(guī)定的滯后性。雖然人工智能時(shí)代的整體到來及其對(duì)刑法的滲透是一個(gè)漸進(jìn)的浸入過程,傳統(tǒng)刑法體系仍長(zhǎng)期占據(jù)主導(dǎo)地位。然而,在兩股強(qiáng)大力量的相互角力過程中,傳統(tǒng)刑法堅(jiān)守的“以人為本”立場(chǎng)必然有所弱化。如不改變司法適用策略,并從立法上作出修改,極可能無法有效應(yīng)對(duì)智能時(shí)代的新型犯罪及刑事歸責(zé)問題。
3.刑法“工具屬性”的質(zhì)變?,F(xiàn)代刑法制度是人類社會(huì)有組織反應(yīng)犯罪的“人造物”,是人類社會(huì)控制犯罪的“高級(jí)”手段,是人類治理社會(huì)的重要工具與制度供給措施。[9]近現(xiàn)代刑法以人的主體性為前提、以人的危害行為為調(diào)整對(duì)象,力圖實(shí)現(xiàn)社會(huì)有機(jī)體的團(tuán)結(jié)與安定。但是,這些堅(jiān)固的認(rèn)知體系,在人工智能犯罪時(shí)代,更容易由內(nèi)而外坍塌。
刑法工具屬性的“式弱”之質(zhì)變趨勢(shì),主要表現(xiàn)為:(1)“人”主導(dǎo)刑法治理觀念的脫逸。人工智能正在悄然改變“人”的地位及其所組成的“人類社會(huì)”的進(jìn)化規(guī)律與生存結(jié)構(gòu)。在真正的智能時(shí)代,即使存在作為創(chuàng)生者的“人”,但“人”更可能成為人工智能時(shí)代的附屬物,缺乏完全的獨(dú)立性與主體性,甚至是人工智能社會(huì)的管理(統(tǒng)治、規(guī)制)對(duì)象。這嚴(yán)重沖擊法律制度作為服務(wù)人類社會(huì)的歷史產(chǎn)物與人類法治文明成果的穩(wěn)定性。在人工智能時(shí)代,法律制度很可能是“治理人類”的另類“工具”。包括刑法等傳統(tǒng)法律制度,只是這場(chǎng)人工智能變革時(shí)代緩慢推進(jìn)后的“物化”結(jié)果。究其根源,“人”是創(chuàng)物者的主體性地位之徹底旁落,將不斷加劇刑法制度的“物化”(客體化)。盡管人類制定的任何法律都具有必然的滯后性,但對(duì)法律問題的思考應(yīng)當(dāng)遵從前瞻性;否則,刑法內(nèi)在的滯后性將被進(jìn)一步放大,成為刑法止步不前的累贅。人工智能社會(huì)與智能主體的發(fā)展軌跡趨于清晰,應(yīng)醞釀與智能社會(huì)、智能人相匹配的專屬法律體系,重新認(rèn)識(shí)法律功能與人的地位關(guān)系,重新審定刑法價(jià)值與機(jī)能等問題。(2)人-機(jī)關(guān)系趨于緊張。技術(shù)進(jìn)步往往是人類認(rèn)識(shí)和解放自身的過程。機(jī)器從客體變身主體,也使人類的主體地位更凸顯。這種“人機(jī)友好”模式是技術(shù)與法律相互融洽的良性狀態(tài)。智能技術(shù)的不斷升級(jí)必然“制造”出在智力上可以比肩人類甚至超越人類的新“物種”,破壞人類在世界中心的主體地位。技術(shù)引發(fā)的人的主體性喪失及恐慌,加速消損和諧人機(jī)關(guān)系,更壓制人統(tǒng)領(lǐng)法律與文明的能力,法律制度很可能置換為智能人的“御用工具”?!叭藱C(jī)”的對(duì)立性,疊加主體性的對(duì)峙后,恐?jǐn)噥y刑法遵從立法目的與宗旨進(jìn)行治理的有效性,懲罰犯罪和保障人權(quán)的常態(tài)工作難以為繼,也迫使當(dāng)代刑法以發(fā)展的眼光審慎看待人工智能的工具性與獨(dú)立的治理功能。(3)“智能人”的監(jiān)管難題。在真正的人工智能時(shí)代,智能主體作為未來生產(chǎn)生活的基本主體,極可能最終完全脫離其現(xiàn)存的“宿主”之監(jiān)管,甚至搖身成為“統(tǒng)治”智能社會(huì)的主體。智能機(jī)器人的深度學(xué)習(xí)能力不斷提升,監(jiān)管機(jī)器人極為困難,甚至變成重大的社會(huì)安全問題。面對(duì)“智能人”,可能會(huì)出現(xiàn)技術(shù)的制衡性或“人”的可控性失靈問題。人工智能社會(huì)中的傳統(tǒng)刑法,亦可能成為“智能人”脫離人類社會(huì)管控的“物化”之果。在發(fā)展初期,“強(qiáng)監(jiān)管”仍是刑法保持可控能力的前提;在中期和后期,人的監(jiān)管與“智能人的自治”的相互博弈是主題曲。當(dāng)代刑法與智能主體的關(guān)系定位一旦反向而行,刑法功能的發(fā)揮將受到限制,“工具屬性”也會(huì)被大打折扣。智能時(shí)代使當(dāng)代刑法是否繼續(xù)為“人與人類所用”的功能定位問題搖擺難定。與智能時(shí)代的對(duì)立乃至逆轉(zhuǎn)風(fēng)險(xiǎn)亟待疏解,以避免傳統(tǒng)刑法制度的進(jìn)化與自發(fā)修復(fù)過程被人為地“阻隔”。這需借助理念調(diào)試、立法修正等合法途徑予以實(shí)現(xiàn)。
人工智能不再是純粹方法論層面的技術(shù)優(yōu)勢(shì),“技術(shù)映象”的初始認(rèn)識(shí)開始消退。人的主體性地位開始受到實(shí)質(zhì)動(dòng)搖后,人的自由意志亦受削弱,人類的法治文明喪失“人可以控制和改造”的前提。這侵蝕傳統(tǒng)社會(huì)的固化基礎(chǔ)與關(guān)系紐帶,動(dòng)搖傳統(tǒng)刑法的生存根基與功能設(shè)定。當(dāng)代刑法需自覺或被動(dòng)地如實(shí)反映。
1.傳統(tǒng)刑法功能的縮減。人工智能技術(shù)的超人類屬性,裹挾不確定性風(fēng)險(xiǎn)與潛在的技術(shù)不可逆轉(zhuǎn)性,危及人類的自身安全及其存在地位。傳統(tǒng)法律功能的獨(dú)特性可能正在喪失,諸如法律規(guī)范的穩(wěn)定性、規(guī)范的可期待性、法律類型的興替以及固化的運(yùn)行模式等?,F(xiàn)行刑法功能也可能出現(xiàn)縮減現(xiàn)象,它表現(xiàn)為:(1)刑法制度的位移與刑法體系的變遷。人工智能的發(fā)展,使以“人”為規(guī)制對(duì)象的傳統(tǒng)刑法制度必將發(fā)生質(zhì)變,以滿足規(guī)制人工智能時(shí)代新型主體的現(xiàn)實(shí)需要。犯罪、責(zé)任與刑罰范疇等傳統(tǒng)問題都有待重構(gòu),以應(yīng)對(duì)人工智能技術(shù)犯罪形態(tài)的新需求。否則,刑法的規(guī)制對(duì)象與功能會(huì)完全脫節(jié)。(2)刑法規(guī)范的進(jìn)化與治理思維的蛻變。人工智能技術(shù)引發(fā)犯罪現(xiàn)象及其結(jié)構(gòu)的重大變化,刑法規(guī)范作為法定的公開反應(yīng)機(jī)制,面臨規(guī)制“對(duì)象”的變化,不能套用既有的立法“邏輯”。為了更科學(xué)地治理人工智能社會(huì)的“智能犯罪”現(xiàn)象,傳統(tǒng)立法與司法均應(yīng)進(jìn)行“智能化”修正。(3)智能人的語(yǔ)言體系與刑法規(guī)范表述載體的更迭。人類語(yǔ)言與網(wǎng)絡(luò)技術(shù)的語(yǔ)言相距甚遠(yuǎn)。人工智能與算法必然會(huì)使刑法文本的結(jié)構(gòu)發(fā)生變化。在技術(shù)主導(dǎo)時(shí)代,智能主體加速成長(zhǎng),可能逐漸確立起“技術(shù)統(tǒng)籌(主導(dǎo))型”的智能社會(huì)存續(xù)格局,也會(huì)改變復(fù)雜的人類社會(huì)結(jié)構(gòu)、“人”思維情感等基本元素,以及強(qiáng)調(diào)智能主體行動(dòng)邏輯的智能性、一致性、協(xié)同性。這會(huì)催生“人的物化”效應(yīng),侵蝕刑法規(guī)范的原本生態(tài)。同時(shí),技術(shù)化、標(biāo)準(zhǔn)化、模型化、流水線化以及電子化等內(nèi)容與形式載體成為新的基礎(chǔ)。立足于傳統(tǒng)社會(huì)制定的刑法規(guī)范,受制于語(yǔ)言載體的差異等,在智能時(shí)代可能呈現(xiàn)出高度的“去同質(zhì)化”等動(dòng)向。
2.傳統(tǒng)刑法的結(jié)構(gòu)性量變。人工智能技術(shù)大規(guī)模應(yīng)用的刑事風(fēng)險(xiǎn)問題已經(jīng)臨近。這些微變情狀,使刑法規(guī)范出現(xiàn)了結(jié)構(gòu)性的量變。
(1)人的犯罪主體與刑事責(zé)任主體地位之存留。從趨勢(shì)上來看,“人”可能逐步喪失作為社會(huì)結(jié)構(gòu)中的唯一合法、既定且可以傳承的主體資格與地位。面向未來地看,智能機(jī)器人可能會(huì)被當(dāng)作“法律主體”。智能機(jī)器人可能被賦予法律人格,并因此有能力取得并持有財(cái)產(chǎn)以及訂立合同等。[10]俄羅斯的“格里申法案”認(rèn)為,機(jī)器人很可能發(fā)展成為人類的一種自主代理人,基于機(jī)器人的特殊法律構(gòu)造,允許類推適用統(tǒng)一國(guó)家法人登記簿,創(chuàng)設(shè)機(jī)器人登記簿制度。[11]法律主體身份的巨變,一定意義上可能會(huì)制造出一個(gè)“人是行為對(duì)象”的新階級(jí)。當(dāng)代刑法應(yīng)圍繞“人的主體性”地位下功夫,謀求“人機(jī)和諧”模式的形成與運(yùn)行,保障刑法目的與機(jī)能不異化為“惡法”的來源。否則,可能因調(diào)整對(duì)象的轉(zhuǎn)換而喪失刑法保障功能以及存在的必要性。
(2)智能主體刑法地位的兩極化。人工智能的學(xué)習(xí)能力,使其開始擁有不斷近似于人類的自我學(xué)習(xí)、自我進(jìn)化的超強(qiáng)能力,也使其有可能超越人類思維的極限。人工智能的應(yīng)用也已經(jīng)開始擺脫純粹的“人的指令”時(shí)代,轉(zhuǎn)向“人工智能”的新時(shí)代,直接威脅“人”這一法定主體確立的法律關(guān)系。2016年5月,歐盟委員會(huì)法律事務(wù)委員會(huì)提交一項(xiàng)動(dòng)議并要求歐盟委員會(huì),對(duì)于正在不斷增長(zhǎng)的最先進(jìn)的自動(dòng)化機(jī)器“工人”的身份,應(yīng)定位為“電子人(electronic person)”,并賦予其依法享有著作權(quán)、勞動(dòng)權(quán)等“特定的權(quán)利與義務(wù)”等。[12]一旦智能人獲得法律意義上的“主體身份”,其與“人”的關(guān)系將成為刑法調(diào)整的重大變量。主動(dòng)權(quán)的爭(zhēng)奪背后,是當(dāng)代刑法應(yīng)否“推倒重來”命運(yùn)的真實(shí)寫照。
(3)智能主體的權(quán)利及其保護(hù)。早在20世紀(jì)80年代,美國(guó)規(guī)劃師與未來學(xué)家麥克納利與亞圖拉指出,機(jī)器人將來會(huì)擁有權(quán)利。[13]機(jī)器人權(quán)利問題,迫使重新審視傳統(tǒng)的權(quán)利概念及其意義。人工智能群體的勞動(dòng)性權(quán)利客觀上已經(jīng)出現(xiàn),未來必須正視機(jī)器人是否應(yīng)該擁有權(quán)利等問題。應(yīng)澄清人工智能是否具有法律意義上的“主觀能動(dòng)性”、享有勞動(dòng)權(quán)等基本“人權(quán)”、如何保障“智能主體的權(quán)利”等問題。承認(rèn)機(jī)器人的主體地位與權(quán)利符合社會(huì)歷史發(fā)展的趨勢(shì),但有別于人類的“自然權(quán)利”,具有法律擬制性、利他性、功能性等特定屬性。
(4)智能時(shí)代刑事責(zé)任范疇的獨(dú)立性與專屬性。相比于傳統(tǒng)犯罪的刑事歸責(zé)理論,智能時(shí)代的犯罪主體身份的差異、主體行為的構(gòu)造不同、危害結(jié)果形式有異等因素綜合在一起,二者日漸格格不入。刑法主體地位正在發(fā)生質(zhì)變,導(dǎo)致人工智能時(shí)代的刑事責(zé)任變成全新問題。人工智能主體法律地位與能力逐步提高,“智能人”獨(dú)立承擔(dān)法律責(zé)任也并非不可能。這些不同層面的規(guī)范微變,都對(duì)傳統(tǒng)刑法規(guī)范的有效性乃至合法性、正當(dāng)性提出重大的挑戰(zhàn),客觀上觸發(fā)傳統(tǒng)刑法規(guī)范供給危機(jī),也引發(fā)傳統(tǒng)刑法理論及其教義學(xué)的存續(xù)難題。這迫使傳統(tǒng)刑法體系不得不積極尋求改變。
人工智能極可能超越與替代“人”?!叭恕敝鲗?dǎo)實(shí)施并存在于傳統(tǒng)現(xiàn)實(shí)社會(huì)中的犯罪或?qū)⒂瓉砀拘酝懽?。這必然同步引發(fā)刑法中犯罪論層面的本源性的蛻變。
在量變的過程中,智能機(jī)器人的主體地位與能力不斷強(qiáng)化。弱智能機(jī)器人仍然是人的工具,而強(qiáng)智能機(jī)器人應(yīng)當(dāng)視為刑事責(zé)任主體。[14]“人”的數(shù)字化生存以及真正“數(shù)字人”的到來,很可能使人類社會(huì)面臨重構(gòu)“自我”與“社會(huì)”等重大生存挑戰(zhàn)?;凇叭恕迸c“智能人”之間的主體地位博弈與互換狀態(tài),在由人類社會(huì)到智能社會(huì)的不同演變階段中,“人”或“單位”是實(shí)施犯罪主體的認(rèn)知常態(tài)可能出現(xiàn)迥異的化學(xué)反應(yīng),也左右當(dāng)代刑法應(yīng)對(duì)犯罪問題的基本策略。
目前,人工智能犯罪現(xiàn)象可能包括三種情形:(1)“智能主體”的初始階段。人工智能系統(tǒng)尚未擁有人類的常識(shí)與意識(shí)、無法理解行為及其所處的情境?!爸悄苋恕笨赡艹蔀槿祟悓?shí)施更智能犯罪的高級(jí)技術(shù)工具,也可能成為“人”實(shí)施更復(fù)雜、更智能化犯罪的工具或手段?!笆侄涡汀敝悄芊缸镄螒B(tài)是主要的表現(xiàn)形式。(2)“人”與“智能主體”相互博弈階段。當(dāng)“智能人”作為獨(dú)立的社會(huì)主體、犯罪主體與被害主體后,傳統(tǒng)犯罪現(xiàn)象經(jīng)歷反復(fù)的量變后。智能“對(duì)象型”犯罪開始出現(xiàn),是危害人工智能安全的犯罪,與“人”主導(dǎo)實(shí)施傳統(tǒng)犯罪現(xiàn)象分道揚(yáng)鑣?!笆侄涡汀迸c“對(duì)象型”人工智能犯罪策動(dòng)的大規(guī)模量變及其衍生的極度撕裂效應(yīng)越發(fā)明顯。(3)“智能人”主導(dǎo)“智能社會(huì)”時(shí)代。“人”的地位具有不確定性,甚至明顯下降或喪失,“人”統(tǒng)攝或主導(dǎo)實(shí)施犯罪的格局可能不復(fù)存在。犯罪現(xiàn)象的內(nèi)部元素、主體結(jié)構(gòu)等均發(fā)生劇烈變化,邁向智能“獨(dú)立型”犯罪的新階段。當(dāng)然,以現(xiàn)有技術(shù)水平與應(yīng)用場(chǎng)景等因素來看,“手段型”與“對(duì)象型”人工智能犯罪,也可以認(rèn)為是“依附型”犯罪,在一定程度上依附于現(xiàn)行犯罪內(nèi)。因?yàn)樽罱K的可罰性主體都是操作主體等,現(xiàn)實(shí)中可以接觸的具體的“人”。只有未來出現(xiàn)的“獨(dú)立型”人工智能犯罪,才是全面獨(dú)立的,可罰主體是“人工智能”。
從目前有限個(gè)案及其作案方式來看,利用AI作為犯罪工具的,尚屬于AI犯罪的初級(jí)階段,是弱AI時(shí)代的犯罪情形。在未來,強(qiáng)AI可能通過神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)不斷優(yōu)化行為能力,也強(qiáng)化犯罪能力。當(dāng)AI成為重要犯罪工具或者獨(dú)立的犯罪主體時(shí),必須重構(gòu)治理新型犯罪的理念。在類型化的應(yīng)對(duì)思路上:(1)智能“手段型”犯罪。智能人作為產(chǎn)品或工具,變成“人”實(shí)施犯罪的手段,暫且可以按照傳統(tǒng)罪名規(guī)制,傳統(tǒng)罪名的擴(kuò)張化適用方式仍有效。(2)智能“對(duì)象型”犯罪?!爸悄苋恕钡纳矸?、地位、權(quán)利等內(nèi)容均不明確。這導(dǎo)致是否存在需要保護(hù)的客體與是否作為犯罪論處尚存疑問。刑法規(guī)制更依賴實(shí)質(zhì)的擴(kuò)張解釋以實(shí)現(xiàn)入罪目標(biāo)。但傳統(tǒng)罪名的擴(kuò)張適用空間非常有限。因?yàn)榕c立法原意相差甚遠(yuǎn)。(3)智能“獨(dú)立型”犯罪形態(tài)。作為面向未來的犯罪形態(tài),由于諸多因素難以預(yù)測(cè)和評(píng)估,定罪方向暫時(shí)無從談起。但是,應(yīng)當(dāng)構(gòu)建獨(dú)立的刑法規(guī)制邏輯。
在近現(xiàn)代刑法中,人的主體性地位集中體現(xiàn)在刑事責(zé)任能力上。傳統(tǒng)刑法理論認(rèn)為,沒有法定的刑事責(zé)任能力,無法實(shí)質(zhì)地實(shí)施犯罪行為,也無法自主獨(dú)立承擔(dān)刑事責(zé)任。在人工智能時(shí)代,“智能人”主體地位的爭(zhēng)議,使“智能犯罪”的本質(zhì)和現(xiàn)象充滿未知性、不確定性,在智能犯罪時(shí)代,犯罪主體的嬗變,使刑事責(zé)任能力亦受影響。有觀點(diǎn)認(rèn)為,在程序設(shè)計(jì)和編制范圍內(nèi),智能機(jī)器人是按照人類的意識(shí)和意志實(shí)施危害行為,是人類實(shí)施犯罪行為的“技術(shù)性工具”;更高階段的智能機(jī)器人可能超越程序的設(shè)計(jì)和編制范圍,有意識(shí)地自主實(shí)施犯罪行為,徹底轉(zhuǎn)變?yōu)榉缸镄袨橹黧w,應(yīng)承擔(dān)刑事責(zé)任。[15]這種觀點(diǎn)既在原則上肯定了智能機(jī)器人在未來可以具備刑法意義上的刑事責(zé)任能力,也根據(jù)不同智能應(yīng)用階段區(qū)分了刑事責(zé)任能力的“程度”。有區(qū)別地追究“智能機(jī)器人”的刑事責(zé)任是合理的。
誠(chéng)然,以當(dāng)前的技術(shù)應(yīng)用為準(zhǔn),智能機(jī)器人主要是人工智能產(chǎn)品,根據(jù)是否具有辨認(rèn)能力和控制能力,可以分為弱與強(qiáng)的人工智能產(chǎn)品。前者不具有辨認(rèn)能力和控制能力,僅能在設(shè)計(jì)和編制的程序范圍實(shí)現(xiàn)人類的目的,所實(shí)施的行為是人類的犯罪工具,無法獨(dú)立承擔(dān)刑事責(zé)任。后者具有辨認(rèn)能力和控制能力,可以超越人類設(shè)計(jì)和編制的程序范圍,自主實(shí)施危害行為,具有獨(dú)立的人格和刑事責(zé)任能力,可以獨(dú)立承擔(dān)刑事責(zé)任。但是,根據(jù)“類人”的思維類型,對(duì)智能人的刑事責(zé)任能力展開討論也是“舊瓶裝新酒”。仍未脫去傳統(tǒng)刑法體系的桎梏,可能掩蓋智能人的刑事責(zé)任能力之專屬性及其在內(nèi)容、程度、屬性、功能以及評(píng)價(jià)要素、體系上的整體變化。在技術(shù)上,“智能機(jī)器人”不完全由設(shè)計(jì)、編制程序決定,而主要由算法等決定。而且,以“人工智能產(chǎn)品”代稱“智能機(jī)器人”,從話語(yǔ)體系上仍默認(rèn)“人”的絕對(duì)主體性地位,否定智能機(jī)器人的“主體資格”。
在智能時(shí)代,法定犯罪主體的刑事責(zé)任能力需討論以下問題:一是智能機(jī)器人完全可能具有獨(dú)立的刑事責(zé)任能力,可以承擔(dān)刑事責(zé)任。二是在規(guī)范判斷的方法上,智能機(jī)器人的刑事責(zé)任能力及其類型,參照已有刑法原理和規(guī)則,以及鑒于算法等對(duì)人工智能的重大基礎(chǔ)地位和作用,可考慮根據(jù)算法規(guī)則等因素決定。不過,如何將“算法”擬化成目前通用的“刑事責(zé)任年齡”等類似概念,并可有效對(duì)“智能機(jī)器人”的刑事責(zé)任能力進(jìn)行“定量”分析是關(guān)鍵。目前,它首先是技術(shù)難題,但關(guān)鍵是人工智能的刑法理論能夠同步跟進(jìn)并供給根本支撐。更重要的是,一旦明確了智能主體具有合法的刑法主體地位,刑事責(zé)任能力問題也迎刃而解。
目前,“手段型”智能犯罪問題已經(jīng)出現(xiàn)。[16]它是智能時(shí)代犯罪在初期階段的一種主要形式,與“對(duì)象型”“獨(dú)立型”智能犯罪相互交替演變。人工智能犯罪的不斷增量,會(huì)使犯罪本體在規(guī)范上不斷變動(dòng)。以現(xiàn)行刑法為參照的“腳本”,通過預(yù)測(cè)人工智能時(shí)代犯罪的諸多新因素,宜采取前瞻性的規(guī)范調(diào)試舉措。
具體地講:(1)犯罪原因與犯罪本質(zhì)的重組。自然原因、個(gè)人原因以及社會(huì)原因,被公認(rèn)為是當(dāng)代犯罪原因論的基調(diào)。在以人工智能技術(shù)為前提的智能犯罪形態(tài)中,犯罪原因與技術(shù)濫用、人的主體性與能動(dòng)性喪失、外部環(huán)境改變等新因素聯(lián)系更密切,“意志自由”問題異常復(fù)雜,而“智能技術(shù)決定論”也不盡合理。這就無法繼續(xù)按照犯罪原因“三元論”進(jìn)行分析。反而,可以智能技術(shù)為邏輯起點(diǎn),考察智能機(jī)器人的刑事責(zé)任能力狀態(tài),結(jié)合智能技術(shù)應(yīng)用等情況,綜合確定犯罪的原因。在馬克思主義犯罪學(xué)看來,犯罪的本質(zhì)是人基于意志自由實(shí)施的有意識(shí)性的危害社會(huì)的行為。但是,在人工智能背景下,“人”的主體性地位不斷喪失,甚至覆亡;同時(shí),“智能人”是否具有與“人”毫無差別的意志自由尚不可知。這兩大變量迫使重新認(rèn)識(shí)人工智能犯罪現(xiàn)象及其本質(zhì)。在刑法的法律性質(zhì)上,危害智能社會(huì)安全、危害智能技術(shù)等都是新因素,社會(huì)危害性理論面臨“質(zhì)”與“量”的變化;而階級(jí)性質(zhì)是否繼續(xù)保留也存有疑問。這些本源性的重大變動(dòng),必然對(duì)刑法立法提出修正的要求。(2)犯罪構(gòu)成要件要素的修正。犯罪構(gòu)成是犯罪現(xiàn)象、犯罪概念與犯罪本質(zhì)的法定化載體,會(huì)出現(xiàn)最直觀的微變:一是犯罪主體?!爸悄苋恕弊鳛樾碌姆缸镏黧w,幾乎可以實(shí)施任何形式的犯罪,不限于傳統(tǒng)現(xiàn)實(shí)物理社會(huì)或網(wǎng)絡(luò)智能社會(huì),但引發(fā)一系列后續(xù)問題,合法性地位就首當(dāng)其沖,繼續(xù)立法予以確認(rèn)。二是犯罪的主觀心態(tài)。即使“智能人”被賦予“人”的情感、思維、情緒等,但畢竟與“人”有差異,短期內(nèi)無法擺脫“程序設(shè)定”的最原始特征。即使智能程度達(dá)到頂峰,可以自主繁殖和進(jìn)化,“人的程序設(shè)定”特征仍舊保留。按照“智能”的賦值,“智能人”應(yīng)當(dāng)具備程式化的認(rèn)知能力,其主觀心態(tài)問題更具“機(jī)械化”或“類型化”,不如“人”主觀罪過的豐富、多元、易變。三是刑事違法性認(rèn)識(shí)?!叭恕钡倪`法性的認(rèn)識(shí)及其程度千差萬(wàn)別,受主觀因素影響大。承上所述,基于“智能人”的主觀意識(shí)的類型化等特征,受技術(shù)水平、智能程度等客觀因素影響大。四是危害行為。相比于“人”實(shí)施犯罪的作為、不作為以及持有等樣態(tài),智能犯罪的危害行為、行為類型、結(jié)構(gòu)、屬性等將大變樣,智能技術(shù)成為重要的變量,行為的危險(xiǎn)度有所攀升。五是犯罪結(jié)果及其定量評(píng)價(jià)體系。在人工智能時(shí)代,危害結(jié)果的表現(xiàn)形式以及刑法評(píng)價(jià)因子及其標(biāo)準(zhǔn)都有新的內(nèi)容。例如,實(shí)害結(jié)果(死亡、財(cái)產(chǎn)損失)的主導(dǎo)地位下降;行為危險(xiǎn)、人的危險(xiǎn)以及智能技術(shù)的內(nèi)在危險(xiǎn)等,在數(shù)量、危險(xiǎn)度上都可能增加且地位上升。六是因果關(guān)系。新型智能犯罪的因果關(guān)系的判斷對(duì)象、規(guī)則以及意義等內(nèi)容均有變化,因果關(guān)系變得更復(fù)雜和具有多樣性。對(duì)于犯罪構(gòu)成要件要素可能經(jīng)歷的變動(dòng),應(yīng)從立法上逐一回應(yīng)或確認(rèn),提高規(guī)范的有效性,并奠定理論發(fā)展的基礎(chǔ)。
傳統(tǒng)社會(huì)主體與法律責(zé)任主體的接替嬗變,已經(jīng)動(dòng)搖傳統(tǒng)刑事責(zé)任觀念的基石。傳統(tǒng)責(zé)任的倫理基礎(chǔ)、刑事責(zé)任原則及其歸責(zé)體系均可能遭到擱淺。應(yīng)當(dāng)厘清人工智能時(shí)代相匹配的倫理觀念、罪責(zé)觀念及其刑事歸責(zé)體系與改良方向。
經(jīng)由人工智能的法律地位之演化及其由此引發(fā)的一系列刑法挑戰(zhàn),在傳統(tǒng)刑法體系面臨的罪責(zé)難題上體現(xiàn)得尤為明顯,同時(shí)也提供了可靠的分解素材。
1.刑事歸責(zé)的技術(shù)倫理困題。人工智能時(shí)代將確立“智能人”的社會(huì)地位、權(quán)利義務(wù)等,引發(fā)“智能人”與“人”互換身份。這催生出與“智能人”、智能社會(huì)相契合的新社會(huì)倫理觀,也不免直接影響和動(dòng)搖法律責(zé)任觀與刑法的罪責(zé)觀。舉例而言:(1)智能機(jī)器人作為“產(chǎn)品”的歸責(zé)難題。2014年,瑞士某藝術(shù)家構(gòu)建了一個(gè)“隨機(jī)暗網(wǎng)購(gòu)物者”的AI。AI買到了搖頭丸等商品。因非法購(gòu)買行為,瑞士警察起初沒收涉案物品,但又退還(除毒品外),也未指控應(yīng)負(fù)有責(zé)任的藝術(shù)家。對(duì)被設(shè)定功能的機(jī)器人,既無法承擔(dān)責(zé)任,也不可能直接承擔(dān)責(zé)任,制裁有效性也難以實(shí)現(xiàn)。一律追究“人”的責(zé)任也不合理。這顯示了人工智能會(huì)撕裂責(zé)任主體與罪責(zé)觀念等。(2)突破道德倫理底線的智能應(yīng)用與歸責(zé)困境。《愛與性與機(jī)器人》(2007年)一書預(yù)測(cè),到2055年,人類將會(huì)和機(jī)器人發(fā)生類似于人類社會(huì)的“性關(guān)系”,甚至嫁給機(jī)器人。對(duì)此,支持者與批評(píng)者相持不下。日用型機(jī)器人引發(fā)一系列社會(huì)復(fù)雜問題與倫理道德問題,如“性愛”機(jī)器人對(duì)強(qiáng)奸罪(奸淫幼女犯罪)的存廢等的不可預(yù)期的影響等。這是前所未有的刑事歸責(zé)難題,更面臨人類社會(huì)傳統(tǒng)“倫理底線”與犯罪成立的規(guī)范標(biāo)準(zhǔn)等挑戰(zhàn),如“機(jī)器人”是否可 “類人”地成立犯罪及其判斷標(biāo)準(zhǔn),特別是“人對(duì)自己行為負(fù)責(zé)”的基本歸責(zé)原則不再必然有效等。人類社會(huì)對(duì)“人”確立的一整套倫理規(guī)則,對(duì)“智能人”已不再奏效,相應(yīng)地,“罪責(zé)自負(fù)”“基于行為負(fù)責(zé)”等傳統(tǒng)刑法歸責(zé)原則顯現(xiàn)坍塌跡象,甚至可能攪亂“基于人的意志自由決定實(shí)施的危害行為具有可歸責(zé)性”的傳統(tǒng)命題。為此,應(yīng)以“智能技術(shù)”及算法等建構(gòu)契合智能主體、智能犯罪的新型倫理規(guī)則以及罪責(zé)觀念,根據(jù)智能技術(shù)的應(yīng)用場(chǎng)景予以具化。
2.算法下的歸責(zé)公正隱憂。目前,人工智能系統(tǒng)的支柱是“算法”與深度學(xué)習(xí)能力。然而,以技術(shù)為前提的“算法”有“誤差危險(xiǎn)”,已經(jīng)嚴(yán)重困擾人工智能應(yīng)用過程中的公正問題,也引發(fā)機(jī)器人的錯(cuò)誤如何歸責(zé)、機(jī)器人設(shè)計(jì)者是否負(fù)責(zé)等問題。它包括:(1)技術(shù)壟斷風(fēng)險(xiǎn)。從智能技術(shù)的虛擬性來看,“算法”是“人”幾乎無法充分有效控制的“技術(shù)黑盒子”,算法的開發(fā)者難以解釋算法的真正運(yùn)行機(jī)制和可能造成的后果。盡管在算法規(guī)則設(shè)立之初,應(yīng)該考慮公平性與準(zhǔn)確性問題,但僅依靠技術(shù)人員是無法完成公平性與準(zhǔn)確性的要求。人工智能技術(shù)的發(fā)展性、獨(dú)占性與壟斷性,尤其是“算法黑洞”隱含算法獨(dú)裁等問題,以及人類對(duì)算法往往過度依賴與崇拜等傾向,共同在相當(dāng)程度上容易滋生具有某種“智能技術(shù)”導(dǎo)向的歧視性因素,甚至可能導(dǎo)致新的不公平的結(jié)果。對(duì)于算法獨(dú)裁現(xiàn)象的危機(jī),缺乏內(nèi)部和外部共同形成的監(jiān)督與制約機(jī)制,對(duì)公平正義而言是極大的威脅。(2)不透明性。法律乃善良公正之術(shù)。算法和代碼而非規(guī)則,日益決定關(guān)乎個(gè)體權(quán)益的自動(dòng)化決策系統(tǒng)、算法和人工智能及其決策結(jié)果。人類將公平正義的決定權(quán)交給算法時(shí),可能面臨正義與科技逆向而行的難題。算法的“黑箱”問題及其透明困境一直存在。而且,歧視可能就是算法的副產(chǎn)品,是算法內(nèi)在難以預(yù)料的無意識(shí)的結(jié)果,而非編程人員有意識(shí)的選擇。這會(huì)增加識(shí)別問題根源或者解釋問題的難度。向“算法”問責(zé)是一項(xiàng)全新的挑戰(zhàn)。而算法的不透明性是普遍的問題,解密無法肉眼可視的算法并使其透明化,可能遠(yuǎn)遠(yuǎn)超出能獲得的效益,對(duì)算法進(jìn)行審查可能極其困難。(3)倫理規(guī)則的匱乏問題。在自動(dòng)化決策系統(tǒng)應(yīng)用日益廣泛的互聯(lián)網(wǎng)時(shí)代,很多歧視來源于產(chǎn)品設(shè)計(jì),應(yīng)摒棄算法本質(zhì)必然是公平的誤解,通過設(shè)計(jì)確保算法和人工智能系統(tǒng)的公平性。而且,人類社會(huì)必須提前構(gòu)建技術(shù)公平規(guī)則,通過設(shè)計(jì)技術(shù)正當(dāng)程序,加強(qiáng)自動(dòng)化決策系統(tǒng)的透明性、可責(zé)性、代碼運(yùn)行規(guī)則的準(zhǔn)確性與科學(xué)性,保障技術(shù)統(tǒng)治之下的正義。但僅依靠技術(shù)人員無法達(dá)成,需要國(guó)際層面與國(guó)家層面的協(xié)同協(xié)作。例如,德國(guó)倫理委員會(huì)的報(bào)告指出,算法(即軟件)編寫者應(yīng)遵守一系列倫理法則,核心是將人的生命置于首位。第7條要求在被證明盡管采取各種可能的預(yù)防措施,仍無法避免危險(xiǎn)的,保護(hù)人的生命而非其他受法律保護(hù)的權(quán)益是最高的優(yōu)先考慮;第8條規(guī)定,事先編程無法解決人類的倫理問題,如生命權(quán)之間的權(quán)衡,系統(tǒng)必須設(shè)定請(qǐng)求人工處理的強(qiáng)制性。[17]當(dāng)前,人的利益優(yōu)于智能主體的利益,是遵循“人類中心主義”立場(chǎng)的必然產(chǎn)物。但是,與“智能人”的法律地位、新的價(jià)值沖突與倫理對(duì)立等不相稱。人工智能主體具有“擬主體性”特征,可賦予特有的擬倫理角色,但需要專門的“算法”倫理規(guī)則與法律責(zé)任體系。在價(jià)值審度與倫理調(diào)適上,應(yīng)確保算法依據(jù)的數(shù)據(jù)之真實(shí)性,堅(jiān)守算法決策與算法權(quán)力等內(nèi)容的公開、公正,制定更透明、可理解和可追責(zé)以及公平的審查標(biāo)準(zhǔn)。根據(jù)負(fù)責(zé)任的技術(shù)創(chuàng)新和相關(guān)主體的義務(wù)等內(nèi)容,區(qū)分技術(shù)責(zé)任與“人(智能人)”的責(zé)任。
3.意志自由作為歸責(zé)基礎(chǔ)的存留。在“深度學(xué)習(xí)”下,智能主體(人)的“意識(shí)”與人類不盡相同。是否具有(類似于)當(dāng)代刑法意義上的“人的意志自由”尚需討論。即(1)意志自由是近代倫理學(xué)中的奠基性范疇。沒有意志自由,就失去道德選擇的前提與依據(jù)?!叭绻徽?wù)勊^自由意志、人的責(zé)任、必然和自由的關(guān)系等問題,就不能很好地討論道德和法的問題。”[18]“人”可以控制自己的意志自由。而責(zé)任作為最重要的紐帶,使意志自由與責(zé)任擔(dān)當(dāng)之間的內(nèi)在緊密聯(lián)系逐漸成為常態(tài)。近現(xiàn)代刑法必須解決行為人的刑事責(zé)任有無及其程度問題,而刑事責(zé)任與人的意志自由具有密切聯(lián)系。哲學(xué)上的意志自由論與行為決定論之爭(zhēng),對(duì)近現(xiàn)代刑法學(xué)產(chǎn)生重大影響,意志自由對(duì)刑事歸責(zé)具有重要意義。行為人的意志自由及其程度與定罪量刑活動(dòng)息息相關(guān),并且是定罪準(zhǔn)確、量刑科學(xué)的基本理論根據(jù)。但這并不直接適合人工智能。(2)借助大數(shù)據(jù),基于強(qiáng)大的算法能力,獲得不可估量的學(xué)習(xí)能力,在智力水平上,人工智能與“人”趨于高度的同質(zhì)化。在人工智能技術(shù)的發(fā)展過程中,“人”作為唯一的、天然的、可以永久合法繼承的責(zé)任主體,被不斷“清洗”,導(dǎo)致習(xí)以為常的責(zé)任倫理觀念被顛覆。“人對(duì)自己的行為負(fù)責(zé)”的基本社會(huì)倫理觀,以及“人在社會(huì)有機(jī)體中的責(zé)任”“人應(yīng)當(dāng)承擔(dān)刑事責(zé)任”等觀念的立足點(diǎn)被削弱。智能主體如何兌現(xiàn)“自我擔(dān)責(zé)”、由誰(shuí)可以對(duì)“智能人”依法歸責(zé)、“智能社會(huì)的歸責(zé)是何意義”等基本問題無從參考。除非確立并遵循全新的社會(huì)責(zé)任倫理體系,擺脫傳統(tǒng)罪責(zé)觀念背后的思維桎梏,釋放新的歸責(zé)功能。(3)人工智能社會(huì)將面臨不可視化的技術(shù)風(fēng)險(xiǎn)。“智能人”不僅高度智能化,行為軌跡也更加隱秘。這對(duì)“眼見為實(shí)、耳聽為真”的自然人是致命的“欺騙”。這使刑法中責(zé)任的賦值及其承擔(dān)的正義價(jià)值、社會(huì)有機(jī)體的團(tuán)結(jié)維系、法律權(quán)威的維持、人類社會(huì)有序性的保障等可能逐漸消亡,傳統(tǒng)刑事責(zé)任范疇的本體內(nèi)容則難以存續(xù)。相應(yīng)地,急需重構(gòu)智能時(shí)代的刑事責(zé)任。
從理論上對(duì)上述問題作出解答尤為迫切和重大。從立法修正的角度也可以及時(shí)有效地回應(yīng)現(xiàn)實(shí)問題,從而打通理論和立法在面對(duì)新課題上的互動(dòng)與反哺關(guān)系。
1.類型化的刑事歸責(zé)路徑。人工智能時(shí)代的刑事風(fēng)險(xiǎn)可以初步分為:一是智能應(yīng)用系統(tǒng)的技術(shù)缺陷等引發(fā)的外部危害。二是智能應(yīng)用系統(tǒng)或智能機(jī)器人產(chǎn)品等被非法利用或?yàn)E用,即作為工具時(shí)引發(fā)的危害。三是智能人作為真實(shí)的獨(dú)立刑法主體,實(shí)施的行為可能引發(fā)危害或危險(xiǎn)。除了加害層面的刑事風(fēng)險(xiǎn),也包括智能人作為被害對(duì)象的內(nèi)部風(fēng)險(xiǎn)。
對(duì)此,應(yīng)當(dāng)遵循類型化的解決思維:(1)技術(shù)中立原則與歸責(zé)的例外。人工智能是新型技術(shù),任何技術(shù)都具有相對(duì)的中立性,不宜過于苛責(zé)技術(shù)內(nèi)在的不可控危險(xiǎn)。技術(shù)的危險(xiǎn)是客觀的。目前,利用或?yàn)E用的主體才是真正的風(fēng)險(xiǎn)制造者,才是需要承擔(dān)法律責(zé)任的主體。忽視人工智能技術(shù)的中立性特征,不顧技術(shù)本身的內(nèi)在缺陷與危險(xiǎn),采取過于嚴(yán)格的責(zé)任模式,不利于技術(shù)創(chuàng)新與商業(yè)化。但是,對(duì)技術(shù)中立原則也要客觀對(duì)待,要防止以此為借口,出現(xiàn)放縱犯罪的情況。(2)智能產(chǎn)品質(zhì)量責(zé)任。2016年8月,聯(lián)合國(guó)教科文組織和世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)《關(guān)于機(jī)器人倫理的初步草案報(bào)告》探討了機(jī)器人的責(zé)任,提出采取責(zé)任分擔(dān)的解決途徑,讓所有參與機(jī)器人的發(fā)明、授權(quán)和分配過程中的人分擔(dān)責(zé)任。[10]這在一定程度上肯定了產(chǎn)品責(zé)任。早期的智能機(jī)器人往往是人造產(chǎn)品,傳統(tǒng)的產(chǎn)品責(zé)任有發(fā)揮作用的余地。[20]機(jī)器人造成的傷害,如故意不履行合理的注意義務(wù),不歸責(zé)于機(jī)器人制造者和零售商的過失犯罪。隨著智能應(yīng)用產(chǎn)品的主體性增強(qiáng),傳統(tǒng)產(chǎn)品責(zé)任的適用空間將被壓縮。(3)違反法定監(jiān)督管理義務(wù)的過失責(zé)任。人工智能時(shí)代在一定時(shí)期內(nèi)呈現(xiàn)為“弱智能”,是人的制造品,或高度智能的產(chǎn)品。人仍可以有效控制智能機(jī)器人,人負(fù)有安全監(jiān)管的責(zé)任或義務(wù)。這是安全監(jiān)管責(zé)任的法定義務(wù)來源。對(duì)于智能產(chǎn)品或智能機(jī)器人的潛在風(fēng)險(xiǎn),設(shè)計(jì)者、操作者與所有者負(fù)有一定的監(jiān)管義務(wù),在法定條件下,需要承擔(dān)刑事責(zé)任。(4)法定的嚴(yán)格責(zé)任。人工智能技術(shù)的巨大威力,決定了大規(guī)模應(yīng)用一旦失控,必將引發(fā)更嚴(yán)重的危害。對(duì)于智能產(chǎn)品或智能機(jī)器人導(dǎo)致的危害結(jié)果,根據(jù)保護(hù)法益的基本立場(chǎng),可以在必要時(shí)設(shè)置嚴(yán)格責(zé)任,而不論其主觀罪過等問題,旨在強(qiáng)力規(guī)制重大技術(shù)風(fēng)險(xiǎn)犯罪。(5)獨(dú)立主體地位與“罪過”責(zé)任。當(dāng)智能人作為未來獨(dú)立的社會(huì)主體以及獨(dú)立的犯罪主體時(shí),遵循傳統(tǒng)刑法理論,應(yīng)當(dāng)對(duì)其相應(yīng)的“罪過”承擔(dān)故意或過失犯罪的刑事責(zé)任。但是,智能主體的“罪過”,不能直接按照傳統(tǒng)的故意或過失進(jìn)行認(rèn)定,尚需重新作出界定。(6)“人機(jī)”共同犯罪的責(zé)任問題。在智能技術(shù)的發(fā)展過程中,人與智能主體的關(guān)系與作用是相互交替的。這是智能主體與人共同犯罪的特定背景。當(dāng)人類與人造物共享數(shù)字化的信息空間時(shí),人類與智能主體應(yīng)當(dāng)共同承擔(dān)認(rèn)識(shí)的責(zé)任,對(duì)以人的地位及其認(rèn)識(shí)為基礎(chǔ)的人類傳統(tǒng)責(zé)任觀造成重大的沖擊。從行為邏輯與實(shí)際情況來看,人與智能機(jī)器人會(huì)共存并共同實(shí)傳統(tǒng)犯罪或智能犯罪。但是,實(shí)施的是完全獨(dú)立且性質(zhì)差異巨大的犯罪行為類型。共同責(zé)任的分擔(dān)是全新課題。應(yīng)明確智能時(shí)代刑事責(zé)任的成立條件、歸責(zé)原則、責(zé)任分擔(dān)等基本問題。
2.通過積極的立法適度釋放供需。面對(duì)理論危機(jī)與規(guī)范供給不足的問題,立法增設(shè)新型罪名與專屬的刑事責(zé)任類型有其必要性。應(yīng)加快推動(dòng)一般性、基礎(chǔ)性立法并完善智能法律體系,策動(dòng)刑法立法并擴(kuò)大規(guī)范依據(jù)。(1)遵循一般立法推動(dòng)刑事立法完善的基本路徑。人工智能犯罪主要是法定犯罪,其違法性源自于法律的明文規(guī)定。這形成了遵循行政立法等法律規(guī)定推動(dòng)刑事立法之一般邏輯。只有人工智能的一般立法不斷發(fā)展與豐富,刑事立法可以憑借的規(guī)范來源才會(huì)更全面。工智能的刑事立法也具有獨(dú)特的自主性與獨(dú)立性。應(yīng)當(dāng)根據(jù)實(shí)際需要,出于防控與治理人工智能技術(shù)風(fēng)險(xiǎn)的目的,啟動(dòng)創(chuàng)造性的立法,推動(dòng)人工智能的一般立法之發(fā)展。(2)圍繞人工智能刑事歸責(zé)的重點(diǎn)問題啟動(dòng)類型化的立法。主要包括:一是加強(qiáng)人工智能技術(shù)在研發(fā)階段的立法,規(guī)定研發(fā)者、設(shè)計(jì)者的義務(wù),強(qiáng)化前端的刑法規(guī)制,使研發(fā)者、設(shè)計(jì)者的責(zé)任范圍更為明確,避免替代責(zé)任現(xiàn)象。二是完善人工智能在不同應(yīng)用環(huán)節(jié)上的立法,特別是規(guī)范智能產(chǎn)品的生產(chǎn)和銷售行為,規(guī)定所有者、使用者應(yīng)負(fù)的法定義務(wù)與責(zé)任。這是人工智能大規(guī)模商業(yè)化后的主要刑事歸責(zé)場(chǎng)域。三是完善對(duì)智能技術(shù)及其應(yīng)用的監(jiān)管立法,明確監(jiān)管主體、監(jiān)管職責(zé),規(guī)定智能時(shí)代的監(jiān)管瀆職犯罪。四是對(duì)“算法”進(jìn)行立法,設(shè)置可控化的管理規(guī)則與要求,增加“算法”的透明性與公開性,強(qiáng)化公正價(jià)值的攝入與規(guī)制。五是完善智能安全保障的立法,強(qiáng)化技術(shù)應(yīng)用、產(chǎn)品商業(yè)化中的安全保障義務(wù),建立不同安全維度的保障體系。六是增設(shè)具體罪名。適時(shí)啟動(dòng)一定規(guī)模且適度的活性立法,如增設(shè)濫用人工智能罪或危害智能駕駛安全罪等。
在人工智能時(shí)代,犯罪以及刑事歸責(zé)體系正在深度演變,處于末端的刑事制裁觀念也有所異動(dòng)。理論上應(yīng)當(dāng)形塑獨(dú)立的智能時(shí)代刑事制裁以確保其有效性。
面對(duì)智能機(jī)器人等新型“犯罪主體”,在芯片與算法等作用下,具有強(qiáng)大的“超人”能力。已無人類肉身的束縛與生理上的羈絆,以至于針對(duì)“現(xiàn)實(shí)中的人”的傳統(tǒng)法律制裁,可能會(huì)變得毫無效用。例如,死刑在智能時(shí)代的命運(yùn)與功效并不樂觀,對(duì)“智能人(主體)”實(shí)施槍決或注射甚至是個(gè)不經(jīng)意的“笑話”。對(duì)“智能人”判處自由刑或終身監(jiān)禁,也顯得格格不入。畢竟“智能人”并無“人類壽命”的生理極限問題,可以無限制地“存活”,將其關(guān)押在某個(gè)封閉的物理空間,亦無制裁的針對(duì)性與有效性。反而,物理上切斷電源、終端網(wǎng)絡(luò)鏈接、技術(shù)禁止、系統(tǒng)關(guān)閉等“智能壽命終止”或“智能運(yùn)行終止”等措施,才是對(duì)“智能主體(犯罪人)”形成“最終剝奪”效果的“極刑”措施;對(duì)智能技術(shù)或應(yīng)用產(chǎn)品、系統(tǒng)的限制運(yùn)行措施無疑次之。人工智能對(duì)傳統(tǒng)刑事制裁及有效性形成的重大“顛覆”,絕不是學(xué)術(shù)的“科幻”;反而,深刻地描繪人工智能時(shí)代對(duì)“智能機(jī)器人”的管理、監(jiān)控以及治理變得異常復(fù)雜困難。如果從法律層面對(duì)其進(jìn)行制裁,顯然無法“如法炮制”現(xiàn)有經(jīng)驗(yàn),或者說,適用于人的傳統(tǒng)刑罰措施是難以奏效的。
在人工智能犯罪的演化背景下,基于傳統(tǒng)刑法的框架與邏輯,特別是基于犯罪與刑罰之間的特定關(guān)系,習(xí)以為常的報(bào)應(yīng)、預(yù)防等刑罰目的,以及自由刑、財(cái)產(chǎn)刑組成的刑罰體系及其刑罰結(jié)構(gòu),還有近現(xiàn)代以來確立的類型化之刑事制裁措施等,均無一幸免地處在被“肢解”狀態(tài)。因此,在人工智能時(shí)代,應(yīng)當(dāng)重新審視和定義刑事制裁及其有效性命題。正視近現(xiàn)代刑法確立的刑事制裁體系面臨“整體置換”之命運(yùn),防止適用于人工智能犯罪的刑事有效性徹底化為泡影。
鑒于傳統(tǒng)犯罪與網(wǎng)絡(luò)犯罪的差異等因素,不乏觀點(diǎn)認(rèn)為應(yīng)當(dāng)建構(gòu)全新且獨(dú)立的網(wǎng)絡(luò)刑事制裁范疇與具體措施。[21]這提供了可積極類比的參照物。對(duì)于正在發(fā)展中的人工智能犯罪諸問題,也需要獨(dú)立的刑事制裁措施體系。這一變革旨在針對(duì)新的犯罪情況以及刑事歸責(zé)的新需求,設(shè)計(jì)與配置有效的刑事制裁措施體系。具體而言,應(yīng)注重以下幾個(gè)問題:
(1)人工智能技術(shù)制衡是創(chuàng)設(shè)刑事制裁措施的“制導(dǎo)”前提。一般而言,自然人依靠生理機(jī)能和能量補(bǔ)充維持生命與行動(dòng)能力,死刑、自由刑的“制裁有效性”由此產(chǎn)生。相比之下,“智能主體”依賴外部的物理動(dòng)能或內(nèi)部運(yùn)行程序等,如電源、網(wǎng)絡(luò)以及算法等,對(duì)其予以切換或關(guān)閉,可以起到相似的“終極制裁”的效果。人工智能時(shí)代的犯罪具有鮮明的“技術(shù)關(guān)聯(lián)性”,甚至在一定程度上依附于技術(shù)及其應(yīng)用而存在。針對(duì)智能時(shí)代的新型犯罪,刑事制裁的有效性能否實(shí)現(xiàn),首先取決于對(duì)技術(shù)是否采取了合理控制、限制以及制衡等,以此剝離了人工智能犯罪的前提條件與基礎(chǔ)。只有充分揭示人工智能犯罪的本質(zhì)特征,顧及刑事歸責(zé)的特殊性,才能最終確保刑事制裁的有效性。遏制人工智能技術(shù)的異化風(fēng)險(xiǎn)與有效治理“智能主體”危機(jī)的前提,首先是從技術(shù)制衡層面科學(xué)合理地約束智能主體的失范行為。
(2)圍繞規(guī)范的有效性設(shè)計(jì)刑事制裁措施體系。在人工智能時(shí)代,新的刑事制裁措施體系本質(zhì)上是以刑法規(guī)范的法治方式,承接刑事歸責(zé)后的法律后果,治理新型犯罪。針對(duì)強(qiáng)人工智能產(chǎn)品的犯罪,刑法應(yīng)增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類。[22]該觀點(diǎn)不失為有益的嘗試。但是,重視“技術(shù)制衡”不是簡(jiǎn)單的唯“技術(shù)論”。應(yīng)當(dāng)回到刑法的規(guī)范有效性層面。它是指應(yīng)當(dāng)立足于發(fā)展中的人工智能犯罪及其本質(zhì)特征、危害類型、治理需求等情況,結(jié)合刑事歸責(zé)的法律后果以及責(zé)任形態(tài)等,針對(duì)智能主體及其利益、權(quán)益等內(nèi)容,進(jìn)行刑法意義上的“懲罰”,以期實(shí)現(xiàn)事后的報(bào)應(yīng)、面向未來的預(yù)防以及社會(huì)恢復(fù)效果等多重目的。例如,伴隨“智能人”地位與能力的前移,智能主體不僅具備獨(dú)立承擔(dān)刑罰的能力或可罰能力,也擁有相應(yīng)的法律權(quán)利。對(duì)智能主體的權(quán)利進(jìn)行限制或剝奪,是設(shè)計(jì)制裁措施的有益支點(diǎn)。
(3)動(dòng)態(tài)的發(fā)展觀。刑罰范疇處于刑法運(yùn)作的終端,受前端的犯罪與刑事責(zé)任等因素的直接影響,導(dǎo)致針對(duì)人工智能的刑事制裁反應(yīng)機(jī)制容易呈現(xiàn)出一定的延后性與被動(dòng)性。刑事制裁措施體系的探索存在一定的先天局限性,進(jìn)行前瞻性設(shè)計(jì)的難度更大。傳統(tǒng)刑罰目的、刑罰種類、刑罰體系、刑罰結(jié)構(gòu)以及刑罰裁量、刑罰執(zhí)行等整套知識(shí)體系都處于不確定狀態(tài),既不能作為直接可以援引的“前見”,也可能是創(chuàng)設(shè)專屬刑事制裁措施體系的“障礙”。應(yīng)當(dāng)堅(jiān)持動(dòng)態(tài)的發(fā)展觀。既要容忍刑事制裁措施具有一定的超前性,甚至虛無性,接受這些新的刑罰措施仍處于構(gòu)想階段的事實(shí)。同時(shí),也要科學(xué)地借鑒已有刑事制裁措施,兼顧報(bào)應(yīng)、預(yù)防等刑罰目的。