国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自動駕駛汽車交通肇事的歸責困境及刑法應對

2023-05-05 08:50袁佩君
關鍵詞:黑箱因果關系使用者

袁佩君

(中國社會科學院大學 法學院,北京 102488)

一、問題的緣起

近年來,大數(shù)據(jù)、計算機等信息技術(shù)的成熟,加速了人工智能的發(fā)展,以無人駕駛汽車為代表的智能化產(chǎn)品迅速滲透到人們?nèi)粘I畹牟煌I域,而機器智能化水平不斷提高、接近甚至超越人類的思維水平,成為一種高度自主、脫離人類控制,甚至能獨立做出判斷的新事物,而此種新興事物甫一出現(xiàn)就給當前的法律體系帶來了巨大挑戰(zhàn)。

(一)案例引入

2016年1月20日,一輛特斯拉轎車在京港澳高速河北邯鄲段撞上一輛正在同向車道前方行駛的道路清掃車,司機高某不幸身亡。經(jīng)交警認定,司機高某開啟了自動駕駛模式,事故發(fā)生時特斯拉速度并不快,處于“定速”狀態(tài),但自動駕駛系統(tǒng)未能識別前方障礙物而撞上前車,直接導致了事故發(fā)生。由此,該案成為全球第一例自動駕駛汽車致人死亡的案件[1]。

2018年3月18日,美國亞利桑那州,一輛由沃爾沃XC90改良后的Uber自動駕駛汽車發(fā)生交通事故導致一名女子死亡。據(jù)警方調(diào)查發(fā)現(xiàn),在事故發(fā)生時該名女子突然闖入機動車道企圖推著自行車橫穿馬路,在隨后公布的行車記錄儀的兩段視頻中,一段視頻顯示車輛前方并未出現(xiàn)任何障礙物,幾秒過后,一女子推著自行車突然出現(xiàn)在汽車行駛的前方,而后被撞倒在地。另一段視頻顯示在事故發(fā)生前駕駛員播放社交軟件上的娛樂視頻導致注意力分散,眼睛偏離車道,長期往右下方看。美國國家運輸安全委員會公布的事故報告顯示,在事故發(fā)生的前6秒,汽車已經(jīng)探測到該女子的出現(xiàn),但系統(tǒng)首先將其認定為不明物體,再將其認定為一輛車,最后才將其認定為緩慢移動的自行車,因為智能汽車的目標檢測系統(tǒng)未能準確識別,所以無法預測該物體速度,進而未發(fā)出任何預警信息,也沒有采取減速或轉(zhuǎn)向措施,最終導致事故發(fā)生[2]。

以上都是實踐中自動駕駛汽車發(fā)生的真實案例,除此之外與自動駕駛汽車有關的交通事故在世界范圍內(nèi)也多次發(fā)生,為應對自動駕駛汽車所帶來的技術(shù)風險,許多國家都出臺了相關的法律措施進行規(guī)制,如美國于2017年批準了《自動駕駛法案》(Safely Ensuring Lives Future Deplay and Research In Vehicle Evolution Act,通??s寫為“Self Drive Act”);德國于2017年以第八修正案的形式修改《道路交通法》,制定了關于自動駕駛的第一個法律框架,2021年5月28日,德國聯(lián)邦委員會全體會議通過《自動駕駛法》,允許L4級別(高度自動化駕駛)自動駕駛汽車于2022年在德國公共道路上行使;我國也在2018年頒布《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范(試行)》等法律文件,但是相關法律規(guī)范的制定多停留在行政和民事領域,而對于自動駕駛汽車可能引發(fā)的刑事法律風險卻所涉甚少。

就當前自動駕駛汽車引發(fā)的刑事風險,即自動駕駛汽車引發(fā)交通事故后刑法層面的規(guī)制問題主要涉及以下幾點:

首先,在自動駕駛汽車的行駛過程中人類駕駛員的駕駛行為被全部或者部分剝奪,自動駕駛汽車的肇事使得傳統(tǒng)的交通肇事罪對其束手無策,如何確立犯罪主體,機器是否具有責任主體的資格值得我們進一步深思。

其次,自動駕駛汽車的智能性使得其區(qū)別于傳統(tǒng)工具型的車輛,當系統(tǒng)出現(xiàn)決策失誤和“算法黑箱”等異常介入因素造成交通事故時,如何對此種新型過失犯的因果關系進行判斷也成為我們傳統(tǒng)刑法面臨的一大困惑。

最后,在不同主體的刑事責任分配和承擔上,自動駕駛汽車使用者、自動駕駛系統(tǒng)的研發(fā)、設計人員以及生產(chǎn)制造廠商因為各自角色和分工的不同而不能一概以交通肇事罪定罪處罰,不同主體對自動駕駛汽車交通肇事后的罪名認定也是我們需要探究的問題。

(二)自動駕駛汽車:定義與分級

自動駕駛汽車又被稱為智能網(wǎng)聯(lián)汽車,指機動車與智能技術(shù)的有機結(jié)合,其配備先進的車載傳感器、控制器、執(zhí)行器并與計算機信息技術(shù)、大數(shù)據(jù)、云計算等智能系統(tǒng)相融合,實現(xiàn)車輛對外部環(huán)境的感知分析,進行智能決策實現(xiàn)“高效、安全”的車輛運行,達到解放人類雙手降低交通風險的目標(1)《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設指南(智能網(wǎng)聯(lián)汽車)》的通知,工信部聯(lián)科[2018]109號,網(wǎng)址:http://www.gov.cn/zhengce/zhengceku/2018-12/31/content_5440205.htm。。其他國家對自動駕駛汽車的具體定義可能存在不同,但是在基礎特征和分級標準上基本保持一致。

我國2020年3月由國家工業(yè)和信息化部發(fā)布的《汽車駕駛自動化分級》規(guī)定了汽車駕駛自動化功能的分級,共劃分為6個不同等級,依次為0級(應急輔助)、1級(部分駕駛輔助)、2級(組合駕駛輔助)、3級(有條件自動駕駛)、4級(高度自動駕駛)、5級(完全自動駕駛)[3]。該分類與國際汽車工程師學會(SAE)的劃分標準基本相同,學界和汽車行業(yè)也多以此分類標準為準,如表1。

表1 SAE自動化分級

資料來源:“SAE Levels of Driving Automation”.http://cyberlaw.stanford.edu/blog/2013/12/sae-levels-driving-automation。

根據(jù)表1中自動駕駛汽車的分級標準,我們需要進一步說明:在L1~L2等級,汽車的自動駕駛系統(tǒng)只是作為駕駛員的輔助,目的在于幫助駕駛員更好地判斷路況,尚不在自動駕駛技術(shù)范圍內(nèi),L3是一個重要意義的過渡,進入這個階段后,汽車開始由自動駕駛系統(tǒng)監(jiān)控車輛行駛,但駕駛?cè)藛T應當根據(jù)系統(tǒng)提示隨時接管汽車;真正意義上的無人駕駛特指L4、L5階段,汽車可以在特定和任何條件下完成駕駛?cè)蝿?,而本文對自動駕駛汽車的歸責研究也主要集中在L4、L5這兩種高度自動化的階段。

二、自動駕駛汽車對傳統(tǒng)刑法歸責提出的挑戰(zhàn)

自動駕駛汽車交通肇事所引發(fā)的風險涉及民事、行政、刑事等多個領域,原則上為新興技術(shù)的發(fā)展留足成長的空間,刑法應秉持謙抑的姿態(tài)讓位于行政、民法的規(guī)制,以侵權(quán)損害賠償和強制保險等方式救濟已有損害。但需要注意的是這種科技發(fā)展帶來的風險代價,不能超過人類可能容忍的限度,因此當民事、行政手段不足以迫使生產(chǎn)者改良技術(shù)提升自動駕駛汽車的安全性能時,刑法就須“責無旁貸”地發(fā)揮其在社會治理中的作用。

(一)自動駕駛汽車交通肇事主體地位的爭議

自動駕駛汽車交通肇事主體地位的爭議問題其實是對具有自主性和深度學習性的智能機器能否成為刑法上具有獨立地位能夠承擔刑事責任的主體的探討,對此目前學界呈現(xiàn)出幾種不同的立場。

一種以支持“機器人刑法”為代表的觀點認為人工智能具有犯罪主體資格,對其造成的刑事風險應當通過刑法予以規(guī)制,以自動駕駛汽車為例,支持該觀點的學者認為“自動駕駛汽車具有超強的處理能力、極快的反應能力和精準的控制能力,滿足刑法上行為主體所要求的辨認和控制能力,能夠視為交通肇事罪的責任主體”[4]。但此觀點內(nèi)部也有學者對自動駕駛汽車的刑事責任主體地位存在不同的看法,其支持智能機器具備責任主體地位,但是此時的智能機器不同于當前自動駕駛汽車所處的弱人工智能,是已經(jīng)超過“奇點”,在認知通識、科學創(chuàng)新、社交技能等所有領域都超過人類大腦的超人工智能體,此時智能機器具有自己的辨認和控制能力,即擁有了行為選擇權(quán)等類人性,因此能夠自行承擔刑事責任[5]。如果按照此學者觀點和邏輯,那么確實可以突破傳統(tǒng)刑事歸責的局限性而妥善解決問題,但該主張忽略了人與機器的本質(zhì)區(qū)別。

一種觀點反對智能機器具有刑事責任的主體資格,認為刑法中的犯罪主體是指實施危害社會的行為并依法應當承擔刑事責任的自然人和單位,《中華人民共和國刑法》第十七條、第十八條、第十九條等多處條文也表明我國刑法中的犯罪主體僅包含自然人和單位。該觀點認為,主觀意識和客觀行為作為犯罪行為的構(gòu)成要件,是人類特有的機能,而智能機器并不符合犯罪的主客觀要件,也難以實現(xiàn)預防犯罪的刑罰目的[6]。

還有一種觀點略顯折中,援引法人概念進行類比,認為刑法可以賦予單位主體地位,待時機成熟賦予類人型人工智能體的刑法主體地位也并非不可能[7]。而且“單位”這一刑事責任主體的特性與人工智能體有異曲同工的地方,兩者都是非人非物,社會屬性和主體資格都由法律擬制而成,既然存在這樣的立法先例,那么對人工智能體的擬制也不存在不可逾越的立法障礙。

筆者立足于當下人工智能的發(fā)展現(xiàn)狀,以客觀理性的態(tài)度對自動駕駛汽車等智能機器的刑事主體地位進行分析,反對賦予其刑事責任的主體資格,理由主要有以下幾點:

第一,作為前提性的要件,必須明白當前智能技術(shù)的發(fā)展仍然處于弱人工智能階段。未來是否會出現(xiàn)許多學者口中描述的強人工智能時代,仍屬于不可知,假設真的出現(xiàn)了,那么具有同等乃至超越人類理性與認知的強人工智能體是否還會接受人類為其設定的社會規(guī)則就更加值得討論,縱然今日設計了完美無比的制度框架,屆時人類一旦失去框定人工智能的鎖鏈,反倒會出現(xiàn)“人工智能在思考如何為人類立法”的失控局面[8]。

第二,從“人”的實質(zhì)要義出發(fā),人工智能體不具備“人”的主體性特征,從哲學上溯源,“人”是主觀意識和客觀載體相結(jié)合的產(chǎn)物[9]。有哲學家認為“一個行為是應受獎賞還是處罰,應當要看該行為是否是由自由意志所引起”[10]。而作為人的自由意志應當包含辨認能力(2)辨認能力是指行為人具備對自己的行為在刑法上的意義、性質(zhì)、后果的分辨認識能力。和控制能力(3)控制能力是指行為人具備決定自己是否以行為觸犯刑法的能力。,就辨認能力而言,以自動駕駛汽車為例,其智能駕駛系統(tǒng)對外界事務的辨認來源主要通過電子眼,但電子眼這種器物一來可能會遭到破壞和風化磨損,二來能力也受限于自然環(huán)境以及零件敏感度的高低,收集到的信息能否正確和完整辨認尚不可知,更不要說作出與人類相似的對自己行為意義、后果的確認與理性判斷;就控制能力而言,自動駕駛汽車的智能系統(tǒng)對收集的信息整合分析是建立在人類對程序預先設定的算法邏輯之上,也就是說,智能系統(tǒng)的控制能力完全依賴于人類的程序設定,超出設定外的情況就無法處理,更不要說能夠自我感知、學習知曉自己的行為是否與現(xiàn)行法律相抵觸而作出適法的控制行為。

因此無論是哪種類型的人工智能,其與人類相比可能只是在某一方面擁有超越了人類的某種分析、決策能力,即便如此也不能說人工智能具備了人之理性,能夠賦予其與人類相同的刑事法律主體地位。

第三,從責任的可非難性角度來看,以自動駕駛汽車為代表的人工智能體并不具備受刑能力。刑罰的本質(zhì)是痛苦、是與犯罪相關聯(lián)并給犯罪人帶來痛苦的制裁措施[11]。受刑能力是犯罪人對刑罰這種剝奪性痛苦的感受和承擔,而刑罰的痛苦包括兩個方面的內(nèi)容,其一是直接或間接造成身體感知上的痛苦,其二是剝奪或限制社會活動資格造成的情感痛苦[12]。顯然,作為人工智能體并不具備人類的感官系統(tǒng),更無法體會人類生老病死、怨恨別離等世俗的痛苦;另外,我國當前的刑罰種類包括五種主刑“死刑、無期徒刑、有期徒刑、管制、拘役”,還有三種附加刑“罰金、沒收財產(chǎn)和剝奪政治權(quán)利”,這八種刑罰沒有哪種能對人工智能體實施,即便如一些學者假想的那樣增設“刪除數(shù)據(jù)、修改程序、永久銷毀”等刑罰措施[5],但對于一個沒有思想無法感知痛苦的機器,刑罰對它們來說沒有任何意義。

(二)傳統(tǒng)過失犯理論對自動駕駛汽車交通肇事的歸責空白

在自動駕駛情景模式下,汽車的智能系統(tǒng)不僅存在自動等級的劃分,還存在“算法黑箱”,這些特殊且異常因素的存在使得傳統(tǒng)的過失犯理論(舊過失論)在具體的實踐運用中出現(xiàn)困難。

作為前提性的要素我們需要說明的是,“算法黑箱”的概念是相對于“算法透明”的概念而提出的,它們是兩種截然相反的狀態(tài)。“算法黑箱”中的“黑箱”一詞來自控制論,作為一種隱喻,指“為人所不知的那些既不能打開、又不能從外部直接觀察到其內(nèi)部狀態(tài)的系統(tǒng)”[13]。由此,“算法黑箱”是指算法運行到某個階段由于所涉及的技術(shù)復雜且大多數(shù)人無法了解或者得到解釋的狀態(tài),而造成此種現(xiàn)象的原因主要包括兩方面:

一種是人為原因,人工智能、互聯(lián)網(wǎng)等依靠算法大數(shù)據(jù)的企業(yè)為實現(xiàn)自身的利益訴求和保障商業(yè)競爭優(yōu)勢,人為構(gòu)設這種不透明的“算法黑箱”以確保算法的安全和算法的保密。

另一種是技術(shù)原因,當前算法主要采取的深度神經(jīng)網(wǎng)絡技術(shù)(4)深度神經(jīng)網(wǎng)絡是計算機用來理解世界的方式,也是機器學習的重要算法模型,但該模型的研究人員發(fā)現(xiàn)在神經(jīng)網(wǎng)絡的輸入層和輸出層之間,存在著一個隱藏層(hidden layers),沒有人真正了解計算機在其中是如何工作的,即人們無法弄清機器到底是如何通過輸入的數(shù)據(jù)最終形成決策的。,該技術(shù)的核心部分是通過對數(shù)據(jù)進行自動學習后自動生成指令而非按照人工設計,因此對于所輸出的結(jié)果,具有不確定性和無法預知性(5)參見:https://www.samr.gov.cn/wljys/ptjjyj/202112/t20211210_337980.html.,也即從數(shù)據(jù)的“輸入端”到?jīng)Q策的“輸出端”,這一過程中如何運行和計算,當前的技術(shù)無法作出合理解釋[14]。本文所討論的主要是基于第二種原因產(chǎn)生的“算法黑箱”。

當智能系統(tǒng)等級處于L1~L2情況下,智能汽車的交通肇事處理方式和普通汽車一樣,在L3等級的自動駕駛汽車,由于駕駛員仍被期待隨時接管汽車,因此如果駕駛員疏忽大意或者過于自信未能接管汽車,導致人員傷亡的或者其他法益侵害的,必然由駕駛員承擔過失犯罪的責任。但問題的關鍵在于L4~L5等級,此時人類駕駛員的駕駛行為讓渡于智能機器,但機器的智能系統(tǒng)存在“算法黑箱”,我們無法預知通過智能計算后的汽車在具體行駛場景中作出何種行為決策,如果車輛發(fā)生交通事故造成他人人身或財產(chǎn)法益侵害,那么根據(jù)傳統(tǒng)過失犯的認定路徑:客觀層面的事實因果關系(條件說)+主觀層面預見可能性有無(預見可能性判斷)應當如何解決[15]。

首先,就客觀層面事實因果關系的判斷而言,條件說認為當人類駕駛員開啟L4~L5級的自動駕駛模式后自動駕駛汽車就完全脫離人類掌控,因果流程上的引起與被引起的效果只及于自動駕駛汽車,當其因自身系統(tǒng)故障導致了交通事故時,在條件因果的追溯上只能歸責于自動駕駛汽車本身,可是正如前文所述弱人工智能時代的智能體并不具備犯罪的主體地位,歸責給自動駕駛汽車并不具備任何實質(zhì)意義。

其次,就主觀層面預見可能性而言,自動駕駛汽車從研發(fā)試驗到實際上路要歷經(jīng)無數(shù)次測驗,就算投入運行也仍然會定期檢查和維護,人類駕駛員在購買或者使用該智能駕駛汽車時有充分的理由信賴該智能駕駛汽車具有安全可靠的適航性,并且對智能系統(tǒng)的“算法黑箱”并不知情,因為通常情況下銷售者和生產(chǎn)廠家都會夸大宣傳的效果,隱瞞車輛缺陷,因此原則上人類駕駛員或者車輛的實際控制者在預見可能性上是極低的。

例如,前文所舉的Uber自動駕駛汽車致人死亡的案件,根據(jù)警方調(diào)查資料顯示受害人在被撞倒之前,汽車的智能系統(tǒng)已經(jīng)檢測到受害人的存在,但奇怪的是系統(tǒng)將其識別成“不明物體”之后又經(jīng)歷了“另一輛車”“緩慢移動的一輛自行車”的過程,此時車輛距離被害人太近已經(jīng)錯過了緊急制動的時機,車內(nèi)人類駕駛員事發(fā)前也并未注意到前方行人而采取搶救措施,顯然多方原因的聚合最終導致了受害者死亡的結(jié)果,因此在車輛開啟的自動駕駛模式下由系統(tǒng)識別后進行自主決策的駕駛行為定性成為本案的關鍵。

在高度自動駕駛模式下,基于智能系統(tǒng)“算法黑箱”的異常介入致使因果關系發(fā)生偏離,根據(jù)傳統(tǒng)過失犯的歸責模式既無法對車輛歸責也無法對車輛上的人類駕駛員歸責,那么車輛發(fā)生的法益侵害后果就沒有人承擔了嗎?還是說可以通過對現(xiàn)有刑法教義學知識進一步整合分析發(fā)掘一條妥善解決的路徑更具可行性?此外,智能汽車的制造者、開發(fā)設計人員、銷售者在這場歸責謎團的背后又扮演什么樣的角色,也成為我們當下需要進一步思考和解決的問題。

三、自動駕駛汽車交通肇事歸責困境的刑法應對

正如愛因斯坦所說:“科學決不是也永遠不會是一本寫完了的書,每一項重大成就都會帶來新的問題?!钡侨绻驗榭萍妓鶐淼娘L險而阻礙我們不斷前進的步伐,那么我們燦爛的人類文明可能就停步不前。以自動駕駛汽車為代表的人工智能的發(fā)展也不例外,想要其既與現(xiàn)有社會制度、法律體系有機協(xié)調(diào),又能消融科技創(chuàng)新帶來的風險,那我們就需要發(fā)揮人類的智慧妥善解決問題,在刑事法律上對自動駕駛汽車交通肇事歸責路徑的處理具有以下進路。

(一)教義學維度下傳統(tǒng)刑法歸責路徑的改進方案

前文述及,自動駕駛汽車場景下“算法黑箱”引發(fā)的因果歸責存在適用困境,以“結(jié)果預見可能性”為邏輯起點的傳統(tǒng)過失犯的歸責模式仍不免落入故步自封的境地,因此,從客觀理性的方向出發(fā),擺脫傳統(tǒng)觀念的束縛,重新對自動駕駛汽車交通肇事歸責問題進行思考,通過教義學層面的分析和厘定,尋找一條具有可行性的解決方案。

1.新過失論的嘗試

有鑒于舊過失論的局限,新過失論在以預見可能性為邏輯起點的基礎上加入了結(jié)果回避的義務,即“即便具有預見可能性,但倘若履行了結(jié)果回避的義務,則不成立過失犯罪”[16]。有學者主張在新過失論下,需要考察自動駕駛場景下相關主體客觀注意義務(6)該學者認為的客觀注意義務是以客觀的預見可能性和客觀的結(jié)果回避可能性為基礎。和主觀注意義務(7)該學者認為的主觀注意義務是以主觀的預見可能性作為判斷核心與行為人的預見能力關聯(lián)。的違反情況,客觀注意義務以交通法規(guī)所確立的禁止性規(guī)范為判斷依據(jù),主觀注意義務則需要結(jié)合行為人事故發(fā)生時身體、心理、知識、經(jīng)驗、車輛自身的數(shù)據(jù)狀況等綜合判斷,對于不同的責任主體分別歸屬不同責任[17]。

具體來說,從客觀注意義務內(nèi)容來看,遵守交通法規(guī)所確立的禁止性規(guī)范是判斷是否違反結(jié)果回避義務的重要內(nèi)容,在人工智能場域下,關于智能汽車引發(fā)的交通事故責任可以通過智能車輛技術(shù)參數(shù)、測試標準、駕駛?cè)藛T的資質(zhì)、駕駛系統(tǒng)決策指令等判斷是否達到上路資格以及在正常行駛過程中是否違反交通安全法規(guī)等行政取締性規(guī)范,如相關研發(fā)設計人員在設計之初就已經(jīng)知曉該技術(shù)存在無法解決的缺陷,并且在測試試行階段已經(jīng)表現(xiàn)出明顯的故障傾向,可能會發(fā)生交通事故的,那么設計人員具有回避義務卻未履行的,就應當認定其違反客觀的注意義務。

從主觀注意義務內(nèi)容來看,仍以主觀的預見可能性作為判斷的核心要素,因為就新過失論而言,結(jié)果的預見可能性是結(jié)果回避義務的前提條件,沒有結(jié)果預見義務就沒有結(jié)果回避可能性[18]。而預見能力涉及具體行為人的主觀判斷問題,理論上存在主觀說、客觀說、能力區(qū)分說等,該學者認為能力區(qū)分說能夠具體情況具體分析,對于智能汽車背后的制造者、設計者、駕駛者分別歸責,更能適應人工智能自動駕駛情景下行為人的特殊情況。

對于自動駕駛汽車交通肇事的歸責問題,新過失論的主張雖然提出了一定的解決思路,但仍然存在以下有待思考的地方:

首先,在客觀注意義務中盡管新過失論中加入了結(jié)果回避可能性的判斷,可是判斷的邏輯仍然從預見可能性出發(fā),以預見可能的大小來決定結(jié)果回避的高低,并沒有脫離傳統(tǒng)過失犯理論的束縛,如果僅是車輛非核心的技術(shù)差異造成的事故,那么該理論可能還存在一定的適用空間,但是如果拿來解決自動駕駛系統(tǒng)“算法黑箱”的歸責難題,新過失論與傳統(tǒng)過失論并沒有實質(zhì)的區(qū)別,仍然無法處理自動駕駛系統(tǒng)“算法黑箱”的歸責難題。

其次,假設在L4~L5高度自動化的駕駛模式下,車輛使用者具備安全監(jiān)管的注意義務,可是能否在發(fā)現(xiàn)事故的第一時間車輛切換給人類接管,以及人類接管后是否來得及控制車輛避免事故發(fā)生,這些都難以確定,那么此時車輛使用者的這種安全監(jiān)管的義務是否達到了刑法上可歸責的程度,筆者對此存有疑問,因為此時車輛使用者的結(jié)果回避可能性極低,一系列緊急制動可能超出了一般情況下車輛使用者自身能力的范圍,強行歸責的話會擴大處罰范圍,違反刑法謙抑性的原則。

最后,現(xiàn)在還面臨的特殊情況是自動駕駛汽車是由智能系統(tǒng)全面操縱,而車輛使用者僅是設定完程序然后坐在座位上,就此等情況而言,其實先前的人類駕駛員的角色已經(jīng)轉(zhuǎn)變?yōu)槌丝?,那么自動駕駛汽車上使用者的注意義務是否等同于常規(guī)情況下的人類駕駛?或者在自動駕駛情景下使用者的注意義務發(fā)生下降、轉(zhuǎn)移,車輛本身分擔了使用者部分或全部的注意義務,但分擔了注意義務后的責任如何分配?這些問題新過失論也并沒有解決。

2. 客觀歸責理論的應對

與新、舊過失論不同,客觀歸責理論以其在風險領域的支配性判斷為邏輯起點,以行為人是否偏離注意義務的行為作為判斷依據(jù),繞開預見可能性的理論障礙,對法所不允許的風險的創(chuàng)設與法所不允許的風險的實現(xiàn)進行具體判定,以規(guī)范歸責的模式嘗試對自動駕駛汽車交通肇事的歸責空白提出應對方案。

(1)風險的創(chuàng)設

在客觀歸責理論下解決自動駕駛汽車的歸責問題,前提性的要件是確定在自動駕駛情境下該智能車輛的實際控制主體到底是誰,這是風險管轄領域的支配性判斷,因為只有在落實清楚車輛的控制權(quán)后,才能進一步判斷車輛的實際控制主體是否履行了注意義務。對自動駕駛汽車場景下車輛的控制權(quán)問題,學界存在“支配義務理論”和“控制權(quán)困境”的沖突,以洛曼教授為代表的支配義務理論者認為“駕駛員是車輛的實際控制者并享有支配義務,因此在使用自動駕駛汽車L4級以上時,均應當履行支配義務”[19]。顯然該觀點夸大了駕駛員的能力,忽視了自動駕駛汽車的智能技術(shù)特征,車輛在設定好L4級以上自動駕駛的模式下,駕駛員已經(jīng)不再實質(zhì)參與駕駛操作,其駕駛的主體資格已經(jīng)被虛化,如果讓使用者承擔超過其管轄范圍的注意義務或支配義務,那么不僅會出現(xiàn)法律強人所難的情況,還會不當擴張刑罰的處罰范圍。對此,希爾根多夫提出“控制權(quán)困境”理論,即“在發(fā)生事故時應當判斷是否違反了注意義務,此外在考慮彌補處罰空白的同時,應當承認在路況良好、自動駕駛持續(xù)正常運行的狀態(tài)下,自然人駕駛者的注意義務隨之消失”[20]。筆者一定程度上贊同該學者的主張,該學說進步之處在于沒有將風險控制領域完全歸屬于汽車使用者,而是承認開啟了自動駕駛模式后,車輛本身全部分擔了原本屬于人類的注意義務。前文已述,智能汽車本身是無法作為責任主體承擔刑事責任,那么自動汽車駕駛系統(tǒng)的研發(fā)、設計人員以及生產(chǎn)制造廠商應當承擔哪些注意義務?

自動駕駛汽車生產(chǎn)者(包括程序設計者)的注意義務,作為車輛的制造者天然應當對其所生產(chǎn)出來的產(chǎn)品具有質(zhì)量保障義務,比如嚴格依照國家、行業(yè)標準對車輛狀況進行檢查、測試、保養(yǎng)、維護、召回等。此外,程序設計者作為汽車生產(chǎn)的關鍵環(huán)節(jié),應當保證程序算法的準確、數(shù)據(jù)安全以及行為指令的正確性等。如果違背了上述注意義務并偏離了注意義務的行為基準,那么就屬于制造了法所不允許的風險[21]。

(2)風險的實現(xiàn)

注意義務的違反說明行為存在法所不允許的風險,但風險如何現(xiàn)實化還需要對違反注意義務和損害結(jié)果的發(fā)生進行規(guī)范判斷。因此從合義務的替代行為出發(fā),以其避免結(jié)果發(fā)生可能性的高低所帶來的風險升高程度,在自動駕駛場景下對自動駕駛所有相關的責任主體進行風險檢視。

對于車輛使用者來說,當其開啟自動駕駛模式并在正常路段運行時注意義務確實轉(zhuǎn)移給車輛本身,但是在實際路況并不適合開啟自動駕駛模式或者駛?cè)氲牡缆窐俗R設置缺失,道路指示燈、引導性標志存在障礙的情況下,使用者就應當及時切換或關閉自動駕駛模式,人為降低車輛獨立運行的駕駛風險,如果汽車使用者能介入但未介入,這種情況下就存在行為人合義務的替代行為,此時風險發(fā)生提高,再結(jié)合事后查明的事實,如果汽車使用者及時介入操作雖不能確定地避免結(jié)果的發(fā)生,但只要結(jié)果發(fā)生的概率在50%以上,我們就可以認定行為人違反了注意義務并實現(xiàn)了法所不允許的風險,對車輛上的使用者進行過失歸責[21]。

對于自動駕駛汽車的生產(chǎn)者(包括程序設計者)而言,并非在汽車生產(chǎn)銷售后意味著責任的終結(jié)。自動駕駛汽車作為一種可能嚴重危及人身安全的產(chǎn)品,研發(fā)及生產(chǎn)者應當避免其生產(chǎn)的產(chǎn)品存在缺陷,在汽車自動駕駛過程中因“算法黑箱”自主決策導致了法益損害后果,能否就認為屬于產(chǎn)品缺陷而直接追究生產(chǎn)及研發(fā)者的責任,筆者認為需要再進一步分析:

首先,根據(jù)智能系統(tǒng)的設計特點,能否用其他算法技術(shù)規(guī)避掉這個“算法黑箱”漏洞,如果技術(shù)的進一步發(fā)展可以重設或繞過“算法黑箱”,那么歸責問題迎刃而解。

其次,如果不能解決,那么下一步我們需要知道“算法黑箱”發(fā)生異變的概率,即當其具有高概率、多發(fā)性(8)這里的高概率、多發(fā)性需要人工智能領域綜合多方面數(shù)據(jù)、資料研判確定。而生產(chǎn)及研發(fā)人員在實驗測試階段就已經(jīng)意識到時,未采取合義務的替代行為,仍然為了追逐利益,如為收回投入成本與研發(fā)宣傳費用等外在因素繼續(xù)使用從而使得風險繼續(xù)現(xiàn)實化,那么應當追究生產(chǎn)方及研發(fā)人員的過失責任。

在這里,還需要注意的是我國刑法上并不承認共同過失犯的理論,但作為產(chǎn)品的研發(fā)和生產(chǎn)者必然不可能是一個人而是一個團體,若不將共同過失犯作為共同犯罪論處,那么就會出現(xiàn)因無法查明具體人員的過失行為而導致罪疑惟輕,最終將行為人按照無罪處理的結(jié)果發(fā)生。

最后,如果“算法黑箱”發(fā)生異變的情況具有偶然性和低概率性,那么即使生產(chǎn)和研發(fā)人員有所認識,但也沒有辦法杜絕和科學地解決,在此種意義上并不存在合義務的替代行為,“算法黑箱”發(fā)生異變的風險就像是空中航行的飛機一樣雖然安全可靠,但是總會出現(xiàn)不可預知的意外。

(二)智能因果關系之探究

1.疫學因果關系理論的啟發(fā)

在傳統(tǒng)因果關系理論中,因果性的判斷以科學法則為基礎,但隨著風險社會的到來,環(huán)境污染、傳染病、食品安全等公害案件的增多,這部分案件的因果流程呈現(xiàn)出隱秘性、間接性、多因性以及不確定性等特點,因此想要以傳統(tǒng)因果判斷基準為依據(jù)解決公害案件的歸責問題便困難重重[22]。為解決這類案件的歸責問題,以日本為代表的大陸法系國家引入了疫學因果關系理論,根據(jù)日本學者的觀點疫學因果關系是疫學上所采用的因果認識方法,對某因子與疾病之間的關系,因為不能夠從醫(yī)學、藥理學等方面得出明確的因果關系,而試圖以數(shù)據(jù)統(tǒng)計觀察某種因子與疾病結(jié)果之間存在高度蓋然性從而去推定因果關系的存在。[23]

和公害案件類似,自動駕駛汽車交通肇事的案件與其具有同樣的歸責困境,即自動駕駛汽車智能系統(tǒng)自主決策的“算法黑箱”其實與公害案件誘因的隱秘性、多因性一樣都是因果流程環(huán)節(jié)中異化的一環(huán),我們從科學的途徑無法得知或者說人類的智慧尚且達不到解決該問題的程度,既然疫學因果關系可以通過數(shù)據(jù)統(tǒng)計來推定因果關系的存在,那么此時仿照疫學因果關系的理論,構(gòu)造仿生出專門解決自動駕駛汽車等人工智能所引發(fā)的過失犯罪也未嘗不具有一定可行性,簡單來說,就是在疫學因果關系理論的基礎上進行改造,借用疫學四原則(9)第一,該因子在發(fā)病前的一段時間已經(jīng)發(fā)生作用;第二,該因子的作用程度越明顯則疾病的發(fā)生率越高;第三,根據(jù)該因子的發(fā)生、擴大等情況作的疫學觀察記錄,能說明流行的特性,而沒有矛盾;第四,從該因子為原因的發(fā)生機制上可能予以生物學的說明而不發(fā)生矛盾。的分析原理和定量分析的計算方法,用數(shù)學公式表達出影響因子和危害結(jié)果之間的參數(shù)值,當該數(shù)值超過80%達到高度蓋然性[24],我們可以推測認定影響因子和危害結(jié)果之間存在事實上的因果關系,對此我們將這種改造后的因果關系理論稱為智能因果關系理論(10)智能因果關系理論的概念和設想源自盧有學,竇澤正.論刑法如何對自動駕駛進行規(guī)制——以交通肇事罪為視角[J].學術(shù)交流,2018(4):73-80。,不過為避免不當擴大刑罰的處罰范圍,這種智能因果關系理論只能用于消極判斷,作為人工智能因果關系判斷的最后手段[4]。

2.構(gòu)建智能因果關系理論的可行性分析

首先,在理論層面上,創(chuàng)設智能因果關系理論具有可行性。因為智能因果關系理論依靠數(shù)據(jù)定量分析的計算方法同時遵循“高度存疑即可罰”的理念,并不需要存在特別明確的自然法則意義上的因果關聯(lián),因此,在面對類似于自動駕駛汽車等人工智能產(chǎn)品所帶來的風險而刑事理論體系無法解決因果歸責問題時,可利用智能因果關系計算影響因子與引起損害后果的概率值,從而判斷因果關系的有無。有學者認為“與‘造成’型因果相比,‘概率提升’型因果突出的優(yōu)勢在于,可適用于行為人的行為因素與其他的作用因素無法相分離,科學上無法證明行為與結(jié)果之間存在條件關聯(lián)性的場合,令條件公式束手無策的累積型因果案件,若按‘概率提升’型因果的原理來處理,其歸責難題便迎刃而解”[25]。筆者認為,智能因果關系理論可作為特殊的因果關系判斷方式而對傳統(tǒng)因果關系理論進行一定的補充,這從理論創(chuàng)新與發(fā)展的角度來說具有一定的必要性。

其次,在技術(shù)層面上,對于自動駕駛汽車智能系統(tǒng)“算法黑箱”所導致的歸責困境,智能因果關系理論也可以依靠現(xiàn)代信息技術(shù)做好數(shù)據(jù)收集準備,如有的研究者已經(jīng)實驗成功在人工智能產(chǎn)品中安裝數(shù)據(jù)記錄器(俗稱“黑匣子”)全程無間斷地記錄人工智能產(chǎn)品中的各項數(shù)據(jù),在出現(xiàn)產(chǎn)品事故后,可以調(diào)取和還原事故發(fā)生時的所有數(shù)據(jù),幫助技術(shù)人員記錄產(chǎn)品中的異變因素。此外,智能因果關系從新的邏輯和規(guī)則出發(fā),利用算法輔助理解算法(11)搭建測試分析系統(tǒng)利用算法輔助理解算法,是當前技術(shù)人員破解“算法黑箱”的手段之一。該概念和計算機理論來源于張吉豫.打破人工智能算法黑箱[M]//讓法律人讀懂人工智能.北京:法律出版社,2019:377-383。,建立貝葉斯網(wǎng)絡理論模型(12)貝葉斯網(wǎng)絡理論模型是美國計算機科學家和哲學家朱迪亞·珀爾提出并研發(fā),主要用于研究不確定性的因果關系,貝葉斯網(wǎng)絡包括三個核心概念,即有向無環(huán)圖、條件概率表和馬爾可夫條件。和結(jié)構(gòu)因果模型(13)雖然貝葉斯網(wǎng)絡在因果關系分析中能夠發(fā)揮重要作用,但它無法準確解釋因果關系,為了提升對因果關系描述的精準度,珀爾提出了因果關系的數(shù)理框架——結(jié)構(gòu)因果模型。,用來分析和描述因果關系,這兩種模型和數(shù)據(jù)算法可處理因果流程中存在的潛在信息和干擾信息,最終得出的分析結(jié)果可用于刑法學層面,為其解決人工智能、機器人犯罪等因果追溯難題,因此引入智能因果關系在技術(shù)支撐上也具備可行性。

我國有學者認為“在風險社會,科學技術(shù)手段的發(fā)展所造成的錯綜復雜的難題使得因果關系不可能再單純運用科學的因果法則加以證實,傳統(tǒng)的因果關系理論在認定犯罪時的作用也逐漸減弱甚至歸于消滅,歸責標準則必須被重新構(gòu)建”[26]。而智能因果關系理論無論是在理論的創(chuàng)新上,還是技術(shù)的支撐性上都擁有其自身的優(yōu)勢和特色,在解決未來風險社會(智能社會)的刑法問題上不失為一種“蹊徑”。

(三)不同主體刑事責任的承擔

上文對自動駕駛汽車交通肇事可能的歸責路徑進行了探析,但是責任的具體落實仍然要回歸到刑法罪名的認定上,因此根據(jù)不同的角色分工存在以下幾種不同的認定情況:

1.車輛使用者

在本文探討的L4級別以上的高度自動駕駛模式下,需要先明確的是此時的車輛使用者的責任角色即車輛的使用者究竟是駕駛?cè)藛T、監(jiān)管人員,抑或是乘客?

首先,如果車輛的使用者屬于駕駛?cè)藛T,那么關于駕駛?cè)说男淌仑熑慰梢赃m用《中華人民共和國刑法》第一百三十三條規(guī)定的交通肇事罪和危險駕駛罪,結(jié)合這兩個罪的構(gòu)成要件具體分析,對交通肇事罪而言構(gòu)成本罪的前提是需要駕駛?cè)诉`反交通運輸管理法規(guī);對危險駕駛罪而言構(gòu)成本罪的前提是需要滿足四種特定的危險駕駛形式(14)四種特定的危險駕駛形式即包括追逐競駛、醉酒駕駛、超速、從事校車業(yè)務或者旅客運輸超載以及違反危險化學品安全管理規(guī)定運輸危險化學品危及公共安全的。,但是在本文探討的L4級以上的高度自動駕駛模式下,汽車使用者并不等同于傳統(tǒng)意義上的駕駛員,使用者只能啟動汽車、設定目的地而不能干預車輛的正常行駛,汽車的智能駕駛系統(tǒng)取代了駕駛員對道路狀況、緊急情況的預判與制動,此時車輛使用者的角色定位更貼近于乘客。再者,即使要求車輛的使用者在使用車輛前有審慎的檢查、保養(yǎng)、維修等義務,但未盡到此類義務更多屬于管理過失而非違反交通安全法規(guī)的交通肇事罪,同樣在行為類型上也不符合危險駕駛罪的入罪形式。

其次,L4級別以上的高度自動駕駛模式使用者的警覺接管義務并不明確,按照《中華人民共和國道路交通安全法》(以下簡稱“道路交通安全法”),并未規(guī)定使用者的此類警覺接管義務,但是2017年德國《道路交通法》(stvg)中對使用者的權(quán)利與義務提出了較高的要求,其中就包括了危急狀態(tài)下的警覺接管義務(15)德國《道路交通法》中規(guī)定在自動駕駛系統(tǒng)接管車輛的情況下,使用者可不對交通狀況和車輛進行監(jiān)控,但仍然要時刻保持清醒戒備的狀態(tài)隨時接管,在自動駕駛系統(tǒng)向使用者發(fā)出請求以及使用者自我發(fā)現(xiàn)系統(tǒng)故障時,都應當立刻接管車輛。。筆者對此并不贊同,因為警覺義務的增加不僅會導致使用者過多地承擔原本屬于生產(chǎn)者的責任,也會違背技術(shù)增加人類福祉的目的。此外,其他反對的理由還包括以下幾方面:第一,根據(jù)自動駕駛汽車自動化等級的描述,使用者具備的警覺接管義務應當是集中在L3層級,原因是在L3有條件的自動駕駛模式下保留了人類駕駛員的操作空間,緊急情況下使用者(駕駛輔助人)可以對車輛進行接管。以特斯拉Model X為例,該類車型屬于L3級別有條件的駕駛自動化,其智能系統(tǒng)要求使用者每隔幾秒鐘必須觸摸方向盤一次,以便緊急情況下,使用者能夠做到無遲延的接管車輛,而與此相反L4級別以上的車輛控制權(quán)并不在使用者手中,智能系統(tǒng)并沒留給使用者可以插手操縱的空間,如果此時仍然強行附加警覺接管的義務,那么使用者在操作可能性上微乎其微。第二,基于信賴原則,使用者在市場上購買到L4級別以上的自動駕駛車輛,必然是相信其已然具備“解放雙手”、安全高效、無負擔的產(chǎn)品價值,此時如果仍然要求具備警覺接管義務,使用者在駕駛過程中的所承擔的負擔并不比普通汽車少反而更高,那么購買產(chǎn)品的初衷與科技進步給人帶來的便利效果豈不就南轅北轍了。

但為討論的完整性,我們?nèi)詤^(qū)分兩種不同的情況對待:其一,當前我國《道路交通安全法》并沒有增加警覺接管義務,使用者日常的審慎義務僅是保證自動駕駛汽車安全運行的管理職責,那么使用者就不適用交通肇事罪和危險駕駛罪,而應當成立過失犯罪諸如過失致人重傷、死亡罪等;其二,如果未來我國道路交通安全法規(guī)類比德國的法規(guī)增加了警覺接管義務,那么作為自動駕駛汽車的使用者就理應承擔交通肇事罪的刑事責任。

2.車輛生產(chǎn)者

對于車輛生產(chǎn)者的刑事責任應當貫穿生產(chǎn)和應用兩個階段,但是否對生產(chǎn)者適用嚴格責任仍留有爭論,嚴格責任確立的目的之一就是保護社會重大的公共利益,對某些行為在客觀上導致了危害結(jié)果,但行為人并不具備主觀罪過的情形,為達到不放縱犯罪的目的,在實體法中只強調(diào)客觀行為及后果而對主觀罪過要件不做規(guī)定[27]。一方面有學者認為在生產(chǎn)階段生產(chǎn)者對自動駕駛汽車這一產(chǎn)品的誕生起到完全支配和控制作用,對生產(chǎn)者適用嚴格責任可以強化安全意識、提高產(chǎn)品質(zhì)量并提前為應用階段可能出現(xiàn)的情況做好應急預案;另一方面科技的進步受制于時代的局限,當生產(chǎn)者面臨無法解決的技術(shù)缺陷如“算法黑箱”的存在,適用嚴格責任反而會過度苛責研發(fā)人員,不利于新興技術(shù)的進步,此外,產(chǎn)品應用階段的情況復雜多變,不排除超出研發(fā)人員預期以外的事故肇因,同樣對此適用嚴格責任的話也會出現(xiàn)法律強人所難的情況。

自動駕駛汽車的生產(chǎn)者不同于以往傳統(tǒng)的汽車生產(chǎn)者,其所生產(chǎn)的自動駕駛汽車兼具傳統(tǒng)汽車組件基底與人工智能指揮系統(tǒng)的雙重特點,而傳統(tǒng)汽車組件產(chǎn)品自始具有嚴格的國家、行業(yè)標準,因此如果生產(chǎn)者是在普通的機械組件上違反安全生產(chǎn)標準,那么完全可以按照生產(chǎn)、銷售不符合安全標準的產(chǎn)品罪或者生產(chǎn)、銷售偽劣產(chǎn)品罪處罰,復雜的是作為核心技術(shù)的人工智能系統(tǒng),其中就包括了“算法黑箱”這一當前無法解決的技術(shù)黑洞,那么對于“算法黑箱”的存在是否會成為生產(chǎn)者逃避追責的有利借口?如果不是,那么生產(chǎn)者在整個自動駕駛汽車交通肇事的過程中應該承擔何種責任?

首先,筆者認為應當對“算法黑箱”在法律上的屬性進行定位,就其產(chǎn)生的原因和異化的概率,我們應當認定它是屬于一種技術(shù)風險。根據(jù)刑法中被允許的危險的法理,這種現(xiàn)代智能技術(shù)進步所附帶的技術(shù)風險,能否阻卻刑法上的歸責還需要“行業(yè)內(nèi)普遍接受的技術(shù)規(guī)則”安全標準的檢驗,如果智能車輛通過了這種檢驗標準,那么就具備了規(guī)范的符合性和阻卻刑事責任的可能性,人類或者說社會就應當承擔技術(shù)進步的過程中所必然蘊含的代價,因為科技不可能永遠是安全的,正如第一次工業(yè)革命所誕生的火車、輪船,第二次工業(yè)革命誕生的汽車、飛機。以飛機為例,從實驗起飛到試飛成功再到飛機的產(chǎn)業(yè)化發(fā)展,這一過程除了所付出的經(jīng)濟代價外,還包括了多少已經(jīng)犧牲的飛行員和乘客的生命,假如當?shù)谝黄痫w行事故發(fā)生后,立法者就適用嚴格責任嚴懲并叫停整個產(chǎn)業(yè),那交通工具的更新?lián)Q代如何實現(xiàn)?又會有誰冒著刑事責任的風險為全人類的發(fā)展謀福利?我們不能因噎廢食,正如我們不可能為了避免交通事故的發(fā)生就禁止汽車上路一樣。所以“算法黑箱”并不是生產(chǎn)者逃避責任的理由,它雖然可以作為被允許的風險存在,但要受到行業(yè)內(nèi)技術(shù)標準的檢驗和限制。

其次,從主觀故意的角度出發(fā),對“算法黑箱”研發(fā)人員主觀上明知存在“算法黑箱”且其在一定概率上可能會引發(fā)事故,能否認定研發(fā)人員具備刑法上的故意?筆者認為,應當從故意的本質(zhì)出發(fā)進行分析,在認識因素上研發(fā)人員對自己所制造的智能系統(tǒng)可能會發(fā)生危害社會的結(jié)果確實具備一定的認識,但這種認識是建立在算法數(shù)據(jù)推理的基礎上,并且是以一種極低的偶發(fā)性形式存在,從理論構(gòu)想轉(zhuǎn)化成現(xiàn)實科技,技術(shù)本身的轉(zhuǎn)化風險必然不可能為零,那么在極低的概率性下容忍科技現(xiàn)實化所帶來的社會危害是時代進步和發(fā)展的需要;另外,在意志因素上,研發(fā)人員也必然不會對“算法黑箱”持聽之任之的態(tài)度,除了技術(shù)上不斷攻堅克難,程序上也必然極力降低“算法黑箱”異變的概率,因此從意志因素與認識因素相統(tǒng)一的角度上排除刑法上犯罪故意的存在。

綜上所述,筆者認為對于“算法黑箱”這類技術(shù)風險,如果車輛的生產(chǎn)者對其生產(chǎn)的自動駕駛汽車符合了行業(yè)安全標準的檢測且研發(fā)人員不存在故意利用“算法黑箱”的犯罪故意,那么我們是無法進行刑法上定罪處罰,反之可以作為普通的民事侵權(quán)案件通過民事上的強制保險、賠償基金等方式進行私力救濟。當然,如果有別有用心的研發(fā)人員故意利用自動駕駛汽車的智能系統(tǒng)缺陷進行犯罪,那么也可能構(gòu)成侵犯計算機信息系統(tǒng)罪或者特定的故意犯罪類型。

3.車輛銷售者

作為流通鏈條的重要一環(huán)銷售必不可少,那么銷售者具有在運輸、倉儲等過程中妥善保管自動駕駛汽車的謹慎義務,同時在出售產(chǎn)品的過程中也應準確告知產(chǎn)品規(guī)范操作流程和風險事項,并在發(fā)現(xiàn)產(chǎn)品缺陷時協(xié)助制造商緊急召回等義務,如果銷售者明知生產(chǎn)者生產(chǎn)的商品存在缺陷或者不符合國家行業(yè)標準繼續(xù)銷售的,同樣構(gòu)成銷售不符合安全標準的產(chǎn)品罪或銷售偽劣產(chǎn)品罪。

四、結(jié) 語

自動駕駛汽車歸責困境下的突圍之戰(zhàn),要求我們以教義學的思維和創(chuàng)造性的路徑開辟新的戰(zhàn)場,在享受人工智能技術(shù)發(fā)展所造就的旖旎幻想時切不可迷失方向,返璞歸真以最踏實、嚴謹?shù)膽B(tài)度回歸學術(shù)理性之路,畢竟“人工智能并未對法律基礎理論、法學基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景”[8]。

猜你喜歡
黑箱因果關系使用者
拒絕黑箱
玩忽職守型瀆職罪中嚴重不負責任與重大損害后果的因果關系
失蹤的黑箱
做完形填空題,需考慮的邏輯關系
新型拼插休閑椅,讓人與人的距離更近
抓拍神器
幫助犯因果關系芻議
介入因素對因果關系認定的影響
他汀或增肌肉骨骼不良反應
夢鄉(xiāng)床