[德]蘇珊·貝克/著,王德政/譯
(1.德國漢諾威大學(xué) 法學(xué)院,德國 漢諾威 30167;2.中南財經(jīng)政法大學(xué) 刑事司法學(xué)院,湖北 武漢 430073)
“身處變動的時代,最大的危險是以過去的邏輯行事?!盵1]
互聯(lián)網(wǎng)的重要意義在于社交網(wǎng)絡(luò)中的活動,包括智能手機、電子郵件、通過WhatsApp或Viber進行交流——我們正處于數(shù)字時代:到2030年大概會有5億個設(shè)備相互聯(lián)結(jié)在互聯(lián)網(wǎng)中[2]。全球約95%的科技信息容量都是數(shù)字化的[3]。最新的發(fā)展是工業(yè)4.0、醫(yī)學(xué)中的人工智能診斷系統(tǒng)、護理機器人、自動駕駛汽車、自動武器系統(tǒng)等。近年來,自動化——讓機器作出決定以及與人工智能(有時是有形體的)直接互動影響了我們的日常生活[4]。
數(shù)字化意味著全球范圍內(nèi)的迅捷交流和即時信息,涉及幾乎所有的切身問題、聯(lián)網(wǎng)、分工和日常生活[5]。在許多領(lǐng)域,只有機器能處理信息超載(Informationsflut),并且其作出決定時犯的錯誤通常比人類少。
科技的發(fā)展必然改變?nèi)穗H間、人與機器之間以及機器與機器之間的交流和互動。這當(dāng)然會對伴隨并調(diào)控科技發(fā)展的法律產(chǎn)生后果。在數(shù)字化和自動化的背景中,個人的社會地位、互聯(lián)網(wǎng)交際的特殊性、讓機器作出決定、社會和個人實施(以及交由機器實施)數(shù)字化行為產(chǎn)生的結(jié)果,對刑法和以其為基礎(chǔ)的責(zé)任概念而言都是有重要意義的。因此,在下文中可先從刑法視角(尤其是行為人和被害人視角)探討科技的發(fā)展,再闡明該發(fā)展對刑事責(zé)任而言有何意義,以及若有可能的話該發(fā)展是否應(yīng)受到調(diào)整。
數(shù)字化[6]首先意味著為了儲存和再處理而對信息進行處理。作為社會發(fā)展的數(shù)字化不僅包含技術(shù)過程,還包含互聯(lián)網(wǎng)的產(chǎn)生及其持續(xù)的進步。信息發(fā)送人與接收人通過電子方式進行交流,他們之間形成了一個很大的距離。這種交流可以匿名進行。接收人群體(Adressatenkreis)的范圍在理論上是無限的,一般很難被發(fā)送人掌控。交流的內(nèi)容可以長期得到保存,“不會被網(wǎng)絡(luò)忘記”。
傳感器、一些被運用的機器、計算機程序和算法持續(xù)得到發(fā)展。這些系統(tǒng)有時會“自我學(xué)習(xí)”,即自我繼續(xù)發(fā)展,去理解特定的結(jié)構(gòu),如若可能還會在犯錯后改變舉止等。在所謂的“深度學(xué)習(xí)”[7]中,學(xué)習(xí)過程不再是可以理解的,因為該過程是通過神經(jīng)網(wǎng)絡(luò)這種方式發(fā)生的。
我們可以此方式獲得無窮數(shù)量的信息,除了這些信息以外,互聯(lián)網(wǎng)還為網(wǎng)民的交流創(chuàng)造了一個無邊界的基礎(chǔ)設(shè)備。當(dāng)前,為了處理信息超載,要不斷繼續(xù)發(fā)展受到運用的算法。在高頻交易(High-Speed-Trading)中,只有軟件代理能很快作出決定;在醫(yī)學(xué)領(lǐng)域,人類醫(yī)生基本上未充分運用大數(shù)據(jù)和最新的研究成果——與此相對,人工智能支撐的診斷系統(tǒng)似乎具有很大的優(yōu)勢[8]。能進行自我學(xué)習(xí)的機器受到運用的生活領(lǐng)域在不斷擴大,包括股票交易和醫(yī)學(xué)、信用貸款、從許多申請者中進行選擇、翻譯程序等。此外,人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)在機器中與日俱增地受到運用,以至于與改進后的傳感技術(shù)有關(guān)的自動駕駛汽車和智能倉庫管理系統(tǒng)進入了日常生活[9]。甚至在判斷一個罪犯的再犯可能性時,計算機建議已在美國[10]受到采用。
可先通過以下兩個案例說明與上述發(fā)展相關(guān)的潛在的法律問題,再詳細分析其中一個法律問題。
案例1:A在Instagram上變成了一場“狗屎風(fēng)暴”(Shitstorm)的被害人,因為他發(fā)送了一張裸露上身的所謂“下流”照片。無數(shù)網(wǎng)民都評論了該圖片,取笑他并稱之為“韭蔥”和“笨蛋”。這讓A備受精神折磨,因為如此多的人同時攻擊他,以及許多網(wǎng)民包括他的朋友和家人都可以看到這些咒罵之語。甚至該圖片被刪除后,不少相關(guān)的截圖又出現(xiàn)了。評論者并不認為其行為較為惡劣,而認為這是正常的評論,但A不愿他們這樣行事。此外,所有其他的人都進行了類似的評論。
案例2:制造商H從事制造自動駕駛汽車。編程者P對該汽車負責(zé)編程。一輛已編程的自動駕駛汽車通過批準部門的審查后被送交車輛所有人X,隨后被出租車司機A駕駛。A在駕駛過程中看電影,因信任這輛汽車而未注意街道交通。由于陽光照在車篷上并且傳感器未作出反應(yīng),該汽車忽略了一個橫置的白色卡車——P并未想到會有這種可能性。該汽車撞上卡車后反彈回來重傷了一名走在人行道上的行人。
上述案例已展示出數(shù)字化和自動化形成的一種困境。在下文中,從刑法視角考察數(shù)字化和自動化的發(fā)展,依次以行為人和被害人為重點。
通過闡述數(shù)字化和自動化的效果考察行為人。
由于互動是在網(wǎng)絡(luò)中和通常是以機器聯(lián)網(wǎng)的方式發(fā)生的,一般而言,每個參與者對于特定結(jié)果的貢獻只是很小一部分。對此,可引用分布式拒絕服務(wù)攻擊(DDoS-Attcaken[11])的案例:當(dāng)大量網(wǎng)民同時進入一個網(wǎng)站時,為了阻止他們進入而實施攻擊基本上是很有效果的。通過對侮辱行為貢獻了一個很大的組成部分,一場“狗屎風(fēng)暴”[12]對被害人而言獲得了意義[12]。此外,侮辱和傷害在數(shù)量上的巨大性至少建立在以下基礎(chǔ)上:個人彼此間的刺激及其感受[13]。這被忽略了。
不僅很多網(wǎng)民,還有使用虛假身份這種可能性——在論壇中不使用真名而以虛假身份隱藏自己,都給予行為人一種(或多或少是假想的)匿名性[14]。行為人與被害人之間存在巨大距離的現(xiàn)象與此有關(guān)[15]。這種不受時空限制的交流和數(shù)字化的匿名性讓行為人無法直接感受被害人施加的作用。這讓行為人對被害人施加的去人格化(Entpersonalisierung)在程度上得到減輕,尤其是當(dāng)他并非“真的”認識被害人時更是如此。因為這些犯罪(如網(wǎng)絡(luò)釣魚或黑客)通常只是輕微地侵害了個別被害人,行為人主要從侵害的總數(shù)中獲利,因此,相比在現(xiàn)實中,被害人偶然受到的侵害更容易對自己失去作用。還有一種特殊性:行為人在數(shù)字化的領(lǐng)域?qū)嵤┬袨椤_@些犯罪一般只在屏幕前被實施。這減少了羞恥和做“錯事”的感覺。被害人和其他監(jiān)督、評價行為人所實施行為的公民,都直接察覺了行為人的行為。確切地說,互聯(lián)網(wǎng)這一環(huán)境誘發(fā)了無規(guī)則性(Regellosigkeit)即“法外空間”(rechtsfreie Raum)的產(chǎn)生[16]。
此外,網(wǎng)絡(luò)由于可能被大量使用而通常會導(dǎo)致人格分裂的情形。然而,有人強調(diào)其在專業(yè)上具備可信賴性,有人在社交網(wǎng)絡(luò)(比如臉書)中呈現(xiàn)出個人的人格特質(zhì)。這也導(dǎo)致有人具備但同時另外有人欠缺很多特定人格特質(zhì),這些人格特質(zhì)涉及在法律和道德上均存在問題的行為方式,以至于那種受創(chuàng)設(shè)的網(wǎng)絡(luò)身份應(yīng)當(dāng)對犯罪或反社會的行為負責(zé)[17]。
一個特殊而相對較為新穎的難題是系統(tǒng)的自動化。機器作出(至少是部分作出)或預(yù)備作出決定越來越常見。比如,關(guān)于購買或出售有價證券[18]的算法能選擇最好的旅行路線,或在照顧老人者沒有反應(yīng)時呼叫急救醫(yī)生。完全由機器作出決定這種情形以及共同作出決定都不同于傳統(tǒng)的作出決定情形。機器通常在事先確定好的選項中進行選擇,人類行為人對其提供的建議存在偏見。此外,結(jié)構(gòu)和時間上的既定性(Gegebeiheit)通常決定了,以完全負責(zé)的方式進行思考對人類這一合作伙伴而言事實上是不可能的。所以臉書案的被告人只有3秒鐘時間將某條被發(fā)送的信息歸類為仇恨言論或其他不被允許的言論。對此,他們只看到被發(fā)送的具體信息而不顧語境。一名汽車司機(該汽車像特斯拉汽車那樣基本上屬于自動駕駛型,他只需監(jiān)管即可)為了在緊急情況中像非自動駕駛汽車的司機那樣去作出反應(yīng),需要更長時間。人類的反應(yīng)時間通常只有3~26秒[19]。
數(shù)字化和自動化也對(潛在的)被害人產(chǎn)生作用。這種虛擬性在事實上簡化了與他們進行的交流以及關(guān)于他們的交流。此外,可通過群發(fā)電子郵件和社交網(wǎng)絡(luò)聯(lián)系上相當(dāng)一部分被害人,并可增加以下情形發(fā)生的可能性——某些信息接收人如預(yù)期的那樣進行反應(yīng)。虛擬的威脅不如現(xiàn)實的威脅在感知上顯得那么強烈,以至于采取的保護措施較少[20]。
同時,從理論上講,可能在網(wǎng)上看到誹謗信息的人是不受數(shù)量限制的,這就升高了誹謗這一實行行為的不法內(nèi)涵[21]。還存在以下危險:這類侵害行為和其他可罰的交流行為(煽動群眾、兒童色情等)在互聯(lián)網(wǎng)中是長期存在的[22]。最終,在網(wǎng)上不僅很難讓回復(fù)獲得相同的空間,還很難去偵查行為人,證明其實施了實行行為以及處罰他。這只會加劇對被害人的侵害[23]。
數(shù)字化和自動化可能從多個方面改變刑事責(zé)任。我們要注意幾個方面。比如,許多參與者與結(jié)果發(fā)生之間的互動,首先通過個別貢獻的累積,能作用于可歸責(zé)性和個別貢獻的可證明性。這也適用于讓(或部分讓)機器作出決定??萍及l(fā)展對個人可非難性的重要性由此呈現(xiàn),在數(shù)字化和網(wǎng)絡(luò)使用者這種特殊情形中更是如此,但互聯(lián)網(wǎng)中對被害人的大量侵害也可能改變罪責(zé)。
不同的行為人在互聯(lián)網(wǎng)中的互動,比如在相關(guān)平臺上合作制造產(chǎn)品、狗屎風(fēng)暴引發(fā)眾怒或逐漸導(dǎo)致網(wǎng)站被關(guān)閉,已作用于客觀構(gòu)成要件的階層,比如客觀可歸責(zé)性。這適用于案例1中蘊含的問題。這些問題與其他的集體性共同作用完全一致,由此成為我們當(dāng)前考察的重點。然而,數(shù)字化通常的發(fā)展可能作用于個人在刑法上的罪責(zé)。特定的人格分裂、失去作用這一新機制、至少是行為人感受到的不法之減少,以及被害人受侵害程度的加劇,正如案例1中明顯展示的那樣,不僅可能改變罪責(zé)能力,還可能改變罪責(zé)的程度,比如影響量刑。
此外,行為人所處的特定情形是否導(dǎo)致其具備罪責(zé)能力,與如何建構(gòu)罪責(zé)概念有關(guān)。如果這與雅各布斯(Jakobs)[24]的觀點一致,都事關(guān)一種在具體情形中對行為人提出的行為要求(Verhaltensanspruch),互聯(lián)網(wǎng)中規(guī)范的松弛(Lockerung)、社會監(jiān)督微弱的介入和同理心的必然減少就完全可能在個人的罪責(zé)中扮演一個角色。有人可能提出類似于羅克辛(Roxin)[25]的觀點:在數(shù)字化世界中,合規(guī)行為的決定變得更難——我們案例1中的評論者也是這樣爭論的,在此背景中,所有的網(wǎng)民在某種意義上都是“不成熟的”。由于社會監(jiān)督發(fā)生弱化,對規(guī)范適用的信任消失了,這就導(dǎo)致行為人的可回應(yīng)性(Ansprechbarkeit)更加弱化。這無論如何都適用于具備以下特征的行為方式:在網(wǎng)絡(luò)中具備合規(guī)性,同時個別網(wǎng)民只對其作出微弱的貢獻并且對規(guī)范受到侵害和得到適用不知情,比如分布式拒絕服務(wù)攻擊或狗屎風(fēng)暴。同時,上述兩個概念都對以下論斷提供了根據(jù):這對于罪責(zé)的“有無”通常不能改變什么。盡管如此,以下社會一致性是存在的:數(shù)字化的行為要受到刑罰規(guī)范的裁量。盡管存在人格分裂的情形,在數(shù)字化世界中,對于規(guī)范的可回應(yīng)性還是假定其存在的。正是由于對規(guī)范的信任發(fā)生了弱化,似乎強調(diào)以下這一點也很重要:在數(shù)字化場合,一般性的規(guī)范還是適用的。就此而言,積極的一般預(yù)防非常重要。因此,將一般化的罪責(zé)能力或推定有罪責(zé)能力建立在上述論據(jù)的基礎(chǔ)上是不可能的。更確切地講,數(shù)字化本身暫時還未改變行為人在網(wǎng)絡(luò)中的基本責(zé)任。
數(shù)字化對行為人和被害人的影響可能作用于罪責(zé)的范圍和據(jù)以量刑的罪責(zé)(Strafzumessungsschuld)。這里并不完全指的是以下既定類型——行為人具備病理狀態(tài)(德國《刑法》第21條[26])或?qū)嵭行袨榈姆稍u價發(fā)生特定的認識錯誤(德國《刑法》第17條[27])。犯罪事實和不法的程度在整體上可能影響刑度(Strafh?he)。對此,相互作用是存在的,但疑問在于,什么對犯罪的不法提供了根據(jù)?行為方面和結(jié)果方面對此扮演了一個角色,此外,這兩個方面彼此都要受到衡量。
觀察一下行為人實施行為的情形,正如上文中幾個論據(jù)所主張的那樣,都以減少不法為出發(fā)點。不法的程度正是借助于犯罪事實而得以量度。即使我們認為,盡管條件發(fā)生改變,這些條件讓受到限制的、可罰的行為更容易得到實施。有人在互聯(lián)網(wǎng)中還是完全能繼續(xù)實施在刑法意義上負責(zé)的行為,那就可能顯得對個人要求過高,應(yīng)考慮到社會期待、規(guī)范的可回應(yīng)性和違法性認識發(fā)生改變,以及同理心能力減輕等因素,對其減輕處罰。然而,與此相對的是關(guān)于結(jié)果方面的論據(jù)。數(shù)字化導(dǎo)致法益侵害變得更容易并得以擴大,這是持續(xù)且無法逆轉(zhuǎn)的[28]。在很多案件中(最明顯的是公開的、無法刪除的侮辱信息,正如我們的案例1中那樣),從被害人和實行行為的不法這一視角來看,法益侵害的程度升高了。
關(guān)于行為方面的論據(jù)必須與關(guān)于個案情景的(Situationsbezogen)方面相互平衡,案例1中支持罪責(zé)的升高,案例2中卻贊同罪責(zé)的降低。就此而言,要提及一種已知的、被容忍的矛盾或已知的德國《刑法》第46條[29]中實際量刑的個案關(guān)聯(lián)(Einzelfallbezug)。這里僅通過簡要的提示補充一下:這一權(quán)衡在衡量過程中也與被支持的罪責(zé)概念有關(guān)。一個主要以預(yù)防為導(dǎo)向的罪責(zé)概念將注目于行為的結(jié)果,但以進行壓制為核心的、關(guān)于行為的情況將扮演一個很重大的角色。即使網(wǎng)絡(luò)中那些最新的、持續(xù)惡化的情況正好說明網(wǎng)民罪責(zé)降低完全是不可行的,至少有一種意識應(yīng)當(dāng)存在,該意識涉及一個與結(jié)果極其相關(guān)、不太以行為人為導(dǎo)向的論據(jù)。
機器在刑事責(zé)任中扮演一個特殊的角色,本身具有裁量空間,通過傳感器和聯(lián)網(wǎng)以獲取和分析利用信息。在這種情況中,正如我們的案例2,機器在何種情形下將作出何種決定是事先無法預(yù)見的,事后也無法確定其根據(jù)什么來作出決定。尤其是參與者,即編程者、制造者或使用者是否犯了錯誤,通常是無法得到證明的[30]。即使可以證明,常規(guī)的歸責(zé)構(gòu)造(正如我們在下文中將看到的)是無法輕易受到運用的[31]。這并不意味著以下情況無法想到——參與者犯錯可以得到證明,但存在例外[32]。
1.相關(guān)人類行為的選擇
一個首先在實務(wù)中較為重要的問題,根據(jù)在刑法上進行判斷的起點是行為的選擇。原則上要適用的是,任何行為人只要實施了在刑法上具備重要性的行為都要受到處罰,并且任何嫌疑都要受到追訴。因為對自動系統(tǒng)進行在策略上可預(yù)見的處罰是不可想象的。原則上講,以下的人對一種可能存在的可罰性而言是合適的:研究者、編程者、制造者、銷售者或使用者[33]。在集體性事件中,大多數(shù)因素只根據(jù)個別參與者受到調(diào)整,包括可證明性、公示作用(?ffentlichkeitswirkung)等。然而,這種選擇對刑事責(zé)任的具備而言是重要環(huán)節(jié),因此,在多人相互合作以及與機器合作的場合中,應(yīng)當(dāng)批評性地支持該選擇。
存在人的行為對可罰性而言是必要的[34]。即使近幾十年來對行為概念的討論已不再激烈,但像我們所進行的這種思考對新問題的提出仍然很重要。這不是指對機器的可罰性所進行的討論[35],而是指獨立于可非難性問題的以下疑問:何時才能將人類的互動視為行為?如果無法將舉止中人類所實施的部分視為受意志支配或可由意志支配,或者如果機器超越支配(übersteuern)了人類的行為,情況就并非如此[36]。如果一輛自動駕駛汽車的使用者在車內(nèi)睡覺,該汽車承擔(dān)了所有的駕駛功能,則該使用者并未“駕駛”——在討論不作為的可罰性時(若有可能存在的話),自然只剩下討論他是否以及在何種程度上有義務(wù)介入特定情形[37]。此外,如果這輛汽車停在一個紅燈旁邊,盡管該汽車的使用者想進行駕駛操作以通過這個十字路口,但自動系統(tǒng)拒絕他實施該行為,阻止了違法的發(fā)生。
2.結(jié)果的可歸責(zé)性
至少根據(jù)通說,具體結(jié)果必須可歸責(zé)于潛在的行為人[38]。這涉及對人與機器的合作進行刑法上的分析時關(guān)鍵方面中的一個方面[39]??陀^歸責(zé)可能是存在問題的,因為直到結(jié)果發(fā)生時,不同的人都作出了許多關(guān)于設(shè)計和運用機器的決定[40]。在自動系統(tǒng)的制造和運用中也有許多人相互作用[40]。但如上文中所說,該問題與制造其他設(shè)備或其他集體性行為這一問題并無不同[41]。
在機器人學(xué)和人工智能領(lǐng)域中卻存在一個問題:當(dāng)前機器也進入互動之中[42]。在傳統(tǒng)意義上這可能是欠缺“行為”或“決定”的[43]。但通過特定的科技,亦即編程、信息、網(wǎng)絡(luò)活動、訓(xùn)練、從錯誤舉止中進行學(xué)習(xí)等,機器變成與人類共同作出的“決定”中一個重要部分。因此,必須問一下:是否罪責(zé)關(guān)聯(lián)(Zurechnungszusammenhang)不只是通過這種方式被中斷?因為這種決定是緊密交錯、無法輕易分割的,將結(jié)果視為人類行為人的作品非常合理。
這也適用于以下情形:運用人工智能或輔助系統(tǒng)時,人類行為人的最終決定得以保留(比如當(dāng)人類必須同意輔助系統(tǒng)提出的建議時)。在某種程度上,可從這種通常在規(guī)范意義上構(gòu)建的“人機回圈”(human in the loop)[44]之參與中得出結(jié)論:作出決定的后果應(yīng)歸責(zé)于作出決定的人或有監(jiān)督義務(wù)的人。但這不僅可能損害讓機器作出決定這一想法,還在規(guī)范層面上值得懷疑。人工智能的參與正好實現(xiàn)了以下目的:彌補自身的不足(信息太少、作決定太慢)以及至少在部分范圍內(nèi)為自己出罪。這種運用方式為社會所接受可能也是因為機器的缺陷(至少在部分上)越少,就越能進行合理、迅速的判斷。如果使用者對任何錯誤決定都承擔(dān)刑事責(zé)任,則欠缺說服力[45]。這將意味著一種全面的審查和監(jiān)督義務(wù)并且無法實現(xiàn)出罪。在自動駕駛汽車的場合,這可能意味著,司機必須持續(xù)集中注意力——這事實上甚至是更難做到的,如果司機長時間保持消極狀態(tài)[46]。以此方式,人工智能的運用將在許多情形中都沒有意義,或者至少其功能性會受到損害。如果認為司機要負責(zé)任在規(guī)范上是令人信服的,就要接受這一點。但情況并非如此,因為該決定基本上不被視為參與其中的行為人的作品。更確切地講,在大多數(shù)情況中,結(jié)果主要是機器的作品,并且機器這一部分也不重要[47]。通常可能要對一種“有意義的控制”[48]予以贊同。
對此要概括一下:反對機器的精神和身體抑制閾(Hemmschwelle)越大,就越容易否定客觀歸責(zé)[49]。相反,如果可對機器進行重要的監(jiān)督并最終作出決定,這就不適用了。結(jié)果被視為行為人的作品這一論斷是有說服力的。演完(在技術(shù)上可實現(xiàn)的)各種合作劇本,弄清作出的決定在何時可受監(jiān)督,以及在法律上如何定位這些劇本,似乎才有意義。
3.特殊問題:過失
許多難題,尤其是但不僅僅是客觀歸責(zé),都面臨過失的判斷。因此,應(yīng)當(dāng)更詳細地探討一下這些難題的幾個先決條件[50]。然而,過失責(zé)任[51]各方面的教義學(xué)定位或相互之間充滿爭議的關(guān)系不應(yīng)成為焦點。
原則上應(yīng)避免對第三人可預(yù)見的侵害。危險的預(yù)見可能性[52]具備重要意義。一個系統(tǒng)越自動化、越危險,就越容易抽象地預(yù)見到,其在某個時候?qū)⑶趾λ恕D敲丛趯?,必然有人由于自動駕駛汽車的運用而受傷甚至死亡[53]。自動駕駛汽車的制造和運用創(chuàng)設(shè)了一種統(tǒng)計學(xué)上的風(fēng)險[54]。同時該預(yù)見可能性正好是抽象的。特定的情況和結(jié)果由于系統(tǒng)的自動性而變得越來越無法預(yù)見[55]。這是由于復(fù)雜的神經(jīng)網(wǎng)絡(luò)在運行,另外還因為,該系統(tǒng)屬于未知的工具,這種工具的舉止對我們而言還不具備可歸責(zé)性。這種發(fā)展表明,可預(yù)見性在將來還須進一步具體化[56]。換言之,要問一下:是否必須將可預(yù)見性集中于特定的情況、因果關(guān)聯(lián)(kausalzusammenhang)和具體的侵害,或者說,具備預(yù)見他人被侵害的抽象可能性是否足夠?
對此,尤其需要注意的是,根據(jù)對抽象風(fēng)險單純的可預(yù)見性,某人可能由于運用該系統(tǒng)而導(dǎo)致自己具備某種行為能力,這是因為,該系統(tǒng)的運用在將來某個時候?qū)е滤耸軅蛩劳鍪潜厝坏?,制造和運用該系統(tǒng)所蘊含的可罰性風(fēng)險相當(dāng)高[57]。因此,某人無論如何都應(yīng)當(dāng)注意已產(chǎn)生的極大的可罰性風(fēng)險,并應(yīng)詳細地考慮可能性、損害的范圍和具體性等方面。
除了預(yù)見可能性以外,違反“必要的注意義務(wù)”也是不可或缺的[58]。此標準一般由以下因素決定:來自特定社會圈層的、理智的行為人可被期待實施何種舉止?指標在于出自各種背景、非國家制定的規(guī)則,比如ISO或DIN規(guī)范[59]。針對我們所提出的問題,必須注意一個方面:處理該系統(tǒng)的標準很少[60]。對此,只有一種一般性規(guī)則可指導(dǎo)。但這無助于處理就像我們提到的這種復(fù)雜的技術(shù)性事務(wù)[61]。已聯(lián)網(wǎng)的智能學(xué)習(xí)系統(tǒng)也正在發(fā)展中,可能發(fā)生的風(fēng)險基本上是未知的。即使存在這些標準,也要注意:其蘊含的評價通常代表著存在問題的利益,偶爾還出自不透明的控制程序(Regelungsverfahren)。比如,這些標準適用于企業(yè)內(nèi)部的準則,該準則主要涉及企業(yè)的利益。但這是存在問題的,因為刑法至少應(yīng)當(dāng)鞏固關(guān)于符合社會相當(dāng)性之行為的社會規(guī)范性認識[62]。對一個舉止的可罰性而言,除了具備危險性以外,違反一種被社會承認的行為規(guī)范也是必要的[63]。這種規(guī)范必須受到普遍的承認。因此,保護個別或特定群體利益的規(guī)范不可能進入刑法[64]。在自動系統(tǒng)的背景中,獨立于上述特定難題并且未被澄清的是,由于新科技的發(fā)展伴隨著未知的挑戰(zhàn),在這種新情況中,究竟如何在整體社會中確定注意標準?這些法外標準或已提到的其他標準在何種程度上應(yīng)當(dāng)進入刑法?
迄今為止所有的觀點中有這樣一個觀點:自動系統(tǒng)由于具備無法估測、未知的風(fēng)險而面臨全面的禁止,或者說,參與者通常面臨過失的可罰性[65]。該可罰性可能阻礙參與者繼續(xù)進行研究、制造、出售和使用自動系統(tǒng)。鑒于自動系統(tǒng)所允諾的優(yōu)點,上述結(jié)果無法使人信服。不僅基于以上原因,還基于可歸責(zé)性的欠缺,如上文中所說,參與者(比如使用者)對自動系統(tǒng)將來犯的每個錯誤,基于不明確的法律規(guī)定以及相關(guān)實際結(jié)果,似乎基本上要完全承擔(dān)責(zé)任[66]。但對參與者而言,自動系統(tǒng)肯定不可能導(dǎo)致全面的過失和無法容忍的風(fēng)險。
只要參與人自身決定容忍某個風(fēng)險,在他以外的人際圈(Personenkreis)所容忍的風(fēng)險就可能被視為容許該風(fēng)險的標準。但參與人以外的其他人可能被侵害,整體社會層面的風(fēng)險容許標準仍須形成。只要人們普遍接受自動系統(tǒng)的運用,參與人以外的其他人對此也容忍特定的危險,人們就不可能要求制造者和使用者確保一種不成比例的安全性[67]。對查明可容許的風(fēng)險而言,一場透明的討論最終是有必要的。自動系統(tǒng)的優(yōu)點在何處超越了其缺點,可容許的風(fēng)險之邊界就在何處。對此包括以下因素:自動系統(tǒng)的使用者或通過使用獲利的人、參與者對自動系統(tǒng)的掌控、運用所有能想到的實現(xiàn)風(fēng)險最小化的方法[68]。該系統(tǒng)完全威脅到了參與人以外的其他人,容許的危險在以下情形中更小:只有使用者或有意決定冒險的人與自動系統(tǒng)相互作用[69]。
4.小結(jié):智能學(xué)習(xí)系統(tǒng)的刑事責(zé)任
獨立于具體規(guī)范和特定運用類型的問題是,如何應(yīng)對以下情形:智能學(xué)習(xí)系統(tǒng)為某人預(yù)備了一個決定,但此人基于該預(yù)備的存在只有很小的裁量空間(可能基于一個很高的心理抑制閾、作出反應(yīng)的時間太短或機器的建議缺乏透明度而反對機器)。這涉及以下情形:經(jīng)常被要求進行的“人機回圈”最終只有一種象征性的功能[70]。只要這一點得到適用(同時適用各種罪責(zé)理論[71]),社會無論如何都無法對個人作出期待,除非是可以期待的。對于人類與機器人和人工智能系統(tǒng)之間的合作,要在個案中詳細地審查:機器如何參與決定的作出,人類的行為空間如何發(fā)揮作用,以及根據(jù)本文贊同的罪責(zé)概念,個人的罪責(zé)是否被阻卻或至少被極大地減輕。
要記得,刑法向來針對的是對行為的處罰,該行為可能被歸責(zé)于自我負責(zé)的個人。這表明,在機器人學(xué)和人工智能領(lǐng)域,幾乎是不可能做到這一點的。一個具體的、可非難的(比如違反了注意標準)行為通常是可被證明的,可歸責(zé)性在很多情形中都受到懷疑,行為人的罪責(zé)通常也有疑問。完全或在部分范圍內(nèi)讓機器作出決定,會對罪責(zé)概念以及進一步對刑事責(zé)任產(chǎn)生許多問題——過失犯的預(yù)見可能性、客觀歸責(zé)、不當(dāng)行為的可證明性等[72]。
上文中闡述的這些變化可能在刑事責(zé)任方面產(chǎn)生后果,即在數(shù)字化的世界或在智能學(xué)習(xí)系統(tǒng)的背景中,幾乎不可能判處刑罰。然而,如果個人責(zé)任在承擔(dān)上的欠缺導(dǎo)致社會產(chǎn)生不安,以及導(dǎo)致規(guī)范的適用受到懷疑,這就引發(fā)了一些問題。因此,在刑法上進行新的調(diào)整可能是有必要的[73]。但刑法不會由此失去太多特質(zhì)。一部完全以功能為導(dǎo)向的刑法,放棄或至少弱化了個人責(zé)任的要素,很難與德國的法律體系相協(xié)調(diào)。國家認定個人的責(zé)任或個人相互認定責(zé)任基本上是為了我們實現(xiàn)相互感知(Wahrnehmung)以及自我感知。這也反映在德國《基本法》第1條第1款的人性尊嚴和以此為根據(jù)的刑法原則中。同時,不應(yīng)以承擔(dān)這種責(zé)任來苛求個人,或者說要認真審查在個案中誰是合理的被歸責(zé)者。此人不必然是最后作出決定并(若有可能的話)深受人工智能影響的人,更確切地講,根據(jù)不同的情況,編程者、制造者或其他參與者也可能在刑法上負責(zé)。因此,為了恢復(fù)對規(guī)范適用的社會信任,或者說,為了保持個人責(zé)任的優(yōu)點——對自己舉止的責(zé)任感,可能必須尋找刑法以外的其他解決方案??梢栽诒O(jiān)管層面尋找,若有可能的話,還可以首先在道德領(lǐng)域?qū)ふ摇?/p>
從法的視角來看,基本上可以想象的是:責(zé)任的概念在體系性或集體性的角度被構(gòu)想出來。通過集體性責(zé)任主體的形成和安全體系,不但機器或程序得以運用的特定條件(必要條件)預(yù)先受到遵守,在責(zé)任方面還具備回溯性。但這種解決方案更好地存留在其他法域(Rechtsgebiet)中,包括在公法中預(yù)先規(guī)定針對現(xiàn)代科技發(fā)展和運用的適當(dāng)條件,以及在民法中對(若有可能)已發(fā)生的損害進行適當(dāng)?shù)难a償[74]。
然而,轉(zhuǎn)向其他法領(lǐng)域不應(yīng)是唯一的解決方案。尋找既定法律(尤其是刑法)的替代方案或?qū)ζ溥M行變革時,以下方面有重要意義:首先要問一下,社會有哪些規(guī)范性的需求?科技進步所導(dǎo)致的較大的法益侵害可能撼動社會對規(guī)范的信任——僅提到在將來進行彌補或更好地調(diào)整不可能恢復(fù)這種信任。被害人方面也產(chǎn)生了類似的結(jié)果:他們受到的法益侵害可能也不會通過單純的物質(zhì)補償完全獲得彌補。就此而言,完全放棄刑法并非沒有疑問。此外,刑罰規(guī)范、相應(yīng)的刑法判斷和一種規(guī)范性的交流方式甚至都屬于極其強大、令人印象深刻的方式。在此背景中,如果完全放棄刑事責(zé)任,這種方式就會缺失。尋找這樣一種規(guī)范性的交流方式作為替代,無論如何都是有必要的。在此提到其他的法領(lǐng)域還不夠,這是因為,這些既定的社會規(guī)范和價值無法進行類似于刑法規(guī)范和判斷那樣的交流[75]。
如果“人機回圈”[76]這種不適當(dāng)?shù)倪\用(通常與集體機構(gòu)密切相連)沒有進行,刑事責(zé)任如何還能存在?近幾年內(nèi)必須詳細查明這一點。若有可能,必須重新考慮行為和結(jié)果歸責(zé)這些概念[77]??赡艽嬖谀承┨囟ū尘埃诖吮尘爸?,相較于特定行為,從特定情況和發(fā)展的導(dǎo)致過程中,刑事責(zé)任更容易得到判斷。刑事責(zé)任的判斷還可能根據(jù)利益、權(quán)力地位等受到調(diào)整。在此情形下,對刑事責(zé)任提出新構(gòu)想是有必要的,立法者卻沒有作為。此外,一種根據(jù)性的討論(Grundlagenbezogene Diskussion)也是有必要的:這種新構(gòu)想究竟是否可能存在,對刑法將產(chǎn)生何種后果(如果存在該后果)[78]?
數(shù)字化是多面的。一種可能對社會非常重要并對法律提出極大挑戰(zhàn)的發(fā)展是神經(jīng)科技[79]??萍紝θ祟惔竽X的研究甚至影響開創(chuàng)了一個全新的維度。這涉及人與機器之間一種新的、特定的聯(lián)系,該聯(lián)系本身就存在疑問[80]。通過神經(jīng)科技,獲取許多關(guān)于大腦運行過程的詳細信息變?yōu)榭赡?,甚至可能以某種特定方式“讀懂想法”。尤其是與智能學(xué)習(xí)系統(tǒng)和大數(shù)據(jù)相關(guān)的大量重要信息得以產(chǎn)生,影響腦電波的可能性也得到提高。這種影響的發(fā)生可能是侵入性的,也可能是非侵入性的,可能影響的是感覺和舉止,甚至引起運動。完全可以想象的是,人類被大腦·電腦界面控制甚至擺布。這在理論上甚至可能以其他大腦為出發(fā)點,以至于到最后幾個大腦共同行事,以及這種聯(lián)結(jié)可能導(dǎo)致一個行為被實施[81]。
醫(yī)學(xué)影像方法在幾年前就引發(fā)或激活了一場重要的、關(guān)于意志自由的刑法討論[82]。利貝特(Libet)等進行的實驗導(dǎo)致:“意志自由”的前提和概念、人類的決定和行為在神經(jīng)科學(xué)和哲學(xué)領(lǐng)域受到不少質(zhì)問[83]。無論這些實驗是否可能在事實上陳述了一些關(guān)于意志自由的新東西[84],關(guān)于在刑法上進行判斷之條件的最新討論無疑是很有收益的。這場討論的內(nèi)容是,從刑法視角看,意志自由究竟在何種程度上是必要的[85]?或者說,從刑法視角看意志自由具體意味著什么[86]?該討論使我們刑法的基本概念受到以現(xiàn)實為導(dǎo)向的確定變?yōu)榭赡堋?/p>
神經(jīng)科技的最新發(fā)展還改變了刑法的基本概念。比如,打開一個“腦起搏器”以后,可能存在的罪責(zé)能力會受到討論,打開時罪責(zé)能力(在原因自由行為的意義上)可能要前移。同時,在此情形下要思考一下,病人想要對抗某種疾病的癥狀,據(jù)此存在著良好的、可理解的理由,盡管他認識到接下來實施的是一個(潛在的)犯罪舉止,還是打開了起搏器?;诖死碛?,并非所有的考慮(比如醉酒導(dǎo)致罪責(zé)能力減輕)都可以轉(zhuǎn)用到該情形中??赡苡腥藸幷摰溃翰∪瞬⒉粸榇蜷_腦起搏器負責(zé),而是為沒有同時采取有期待可能性的安全措施負責(zé)。他由于實施了不作為而可罰。這種考慮無論如何都是一個機會去重新考慮原因自由行為傳統(tǒng)的歸責(zé)結(jié)構(gòu)[87]。
然而,根據(jù)上文中正在變動發(fā)展的一些概念,比如正犯和共犯或客觀歸責(zé)等,同樣要問一下:究竟何時不再澄清一個特定的行為基于何人的腦電波得以實施這個疑問?刑事責(zé)任的傳統(tǒng)結(jié)構(gòu)明顯無法再輕易受到運用。同樣要注意,該傳統(tǒng)結(jié)構(gòu)發(fā)生過于劇烈的改變可能削弱核心刑法(kernstrafrecht)。此外,在其他的背景中,將來刑法發(fā)生必要的改變時,要在調(diào)整刑法概念與獲得重要的基本前提之間進行衡量。
數(shù)字化將對法提出很特殊的挑戰(zhàn),其另一個特殊性在于所謂阻斷結(jié)構(gòu)(impossibility structures)的產(chǎn)生[88]。這是關(guān)于應(yīng)當(dāng)自動阻止違法的發(fā)生之技術(shù)結(jié)構(gòu)[89]。比如,一輛汽車阻止闖紅燈,或一個上傳過濾器阻止在網(wǎng)站上上傳非法內(nèi)容。有人可能非常懷疑,這種方法是否以及何時在技術(shù)上可以實現(xiàn)?但機器也承認容許的例外并且進行相應(yīng)的利益衡量或比例性審查是有必要的。完全受到容許的是:在某種情形下,一般沒有汽車或其他的交通參與人在街道上,為了救助一名嚴重受傷的人而闖紅燈。但至少在理論上可以想象的是,機器進行這種評估,以及這種技術(shù)由此保證法律得到遵守或阻止違法的發(fā)生。
這首先要討論的是,如果技術(shù)結(jié)構(gòu)失靈,但使用者相信其具備運行能力(Funktionsf?higkeit),誰對此負責(zé)?與關(guān)于自動系統(tǒng)的責(zé)任相比,這基本上不會有特殊性[90]。然而,在技術(shù)結(jié)構(gòu)(其正應(yīng)效勞于人類)的場合阻止違法的發(fā)生,相較于要求使用者監(jiān)督技術(shù)結(jié)構(gòu)并對技術(shù)上有缺陷的決定完全負責(zé),后者當(dāng)然是更加不合情理的。
但要討論一種特殊性,即以下疑問:如果至少在部分范圍內(nèi)讓機器作出遵守法律的決定,責(zé)任、規(guī)范的信任和規(guī)范的適用等一般如何發(fā)生改變?對此,當(dāng)前已有一些人質(zhì)問:是否不必然存在著一種違法的權(quán)利,或者說一種自由決定遵守法律的權(quán)利?該權(quán)利自身應(yīng)當(dāng)允許法律被違反,即使該論斷很奇怪,但以下論斷至少不是不可信的:如果遵守法律只是出于強制,而非基于獨立的決定,那么規(guī)范的適用將受到削弱[91]。
數(shù)字化和人工智能(或?qū)W習(xí))系統(tǒng)在很大程度上作用于刑法中的罪責(zé)并改變了個人責(zé)任的基本概念。刑法必須適應(yīng)這些變化而不能依賴于教義學(xué)上的細節(jié),亦即,要在生活領(lǐng)域質(zhì)問個人的刑事責(zé)任這一概念并對其進行新的調(diào)整。這涉及罪責(zé)、可歸責(zé)性、可證明性和量刑。對于這種發(fā)展不存在唯一正確的答案,而是根據(jù)問題的具體背景存在多樣的答案。所以從特定角度來看,刑事責(zé)任的減輕只是解決問題的第一步,因為通過這種方式,責(zé)任的認定、特定危險科技(或科技的運用)的防護和彌補損害的社會需要都無法得到回應(yīng)。將來必須繼續(xù)尋找解決方案,以持續(xù)防止數(shù)字化和人工智能(或?qū)W習(xí))系統(tǒng)對刑事責(zé)任的擴散。