胡明艷, 白英慧
(1. 中共中央黨校 哲學教研部, 北京 100091;2. 中國人民大學 哲學院, 北京 100872)
自動駕駛汽車(autonomous vehicles/self-driving cars,以下簡稱AV)作為各項人工智能技術(shù)應用于交通領域的一項成就,預期可以大幅降低交通事故的發(fā)生率,在一定程度上改善交通擁堵狀況,比普通汽車更安全便捷。國外發(fā)達國家已有多年的AV發(fā)展歷史,近年來我國AV的研發(fā)速度也很快。然而,國內(nèi)外發(fā)生的多起AV交通事故(1)自動駕駛汽車近年來頻發(fā)各類交通事故,并造成人員傷亡:如2018年3月,Uber自動駕駛汽車在亞利桑那州撞死一位橫穿馬路的行人;2021年4月,特斯拉自動駕駛汽車在美國德克薩斯州一條公路上撞樹引發(fā)火災,車內(nèi)兩名男子身亡;2021年8月,餐飲連鎖品牌“美一好”創(chuàng)始人林文欽駕駛蔚來自動駕駛汽車于沈海高速涵江段追尾施工車輛,不幸身亡;2022年7月,藝人林志穎駕駛的特斯拉自動駕駛汽車撞到路牌桿并起火,導致林志穎受傷。一再提醒人們,AV事故歸責問題亟待得到妥善解決,否則會降低公眾對這項技術(shù)的信任度與接受度。當前,關(guān)于法律層面上交通事故責任的認定與劃分,各國尚未針對AV不同自動化級別、不同責任主體進行明確區(qū)分。由于“社會是一個道德規(guī)范的聚合系統(tǒng),而法律在當代世俗社會中是上述道德規(guī)范的基本體現(xiàn)”[1],所以,要解決AV交通事故的法律追責問題,我們有必要先關(guān)注AV交通事故的道德歸責問題。
當車輛控制權(quán)被移交給AV系統(tǒng),事故發(fā)生后,如何進行道德歸責?這已成為AV大面積推廣所面臨的核心待解倫理難題之一[2]。對此,我們需要重新考量傳統(tǒng)的道德責任觀。
亞里士多德奠定了西方傳統(tǒng)的道德責任觀,但并未確切定義“責任”一詞,而是通過《尼各馬可倫理學》第三卷中對“意愿行為”的考察,為進一步研究道德責任提供了基礎。亞里士多德認為,判斷某一主體是否應負責的標準在于其行為是否“出于意愿”,“既然違反意愿的行為是被迫的或出于無知的,出于意愿的行為就是行動的始因在了解行為的具體環(huán)境的當事者自身中的行為”[3]?!俺鲇谝庠浮卑瑑蓪雍x,即“控制”與“覺知”自身行為。馬克·科克爾伯格(Mark Coeckelbergh)對亞里士多德的道德責任思想進行總結(jié),認為道德責任主體需要具備兩個條件:控制條件(control condition)與認知條件(epistemic condition)[4]111。一方面,道德責任主體具有能動性,其行為會對他人及社會產(chǎn)生影響,因此當主體所作出的決定與行為在自身控制之中時,應對自身行為負責。自然災害等突發(fā)狀況超出了主體的控制能力,社會上外部勢力的脅迫使主體無法依據(jù)自身意愿行動,因此在這兩種情況下主體無需負責。如在沙塵暴的影響下,高層窗戶被吹落,導致汽車被砸,此種情況下主體無需負責;但如若天氣正常,有人故意將窗戶從高空拋下砸壞汽車,此主體就必須承擔道德責任。另一方面,當?shù)赖仑熑沃黧w知道自己在做什么,并對自身行動相關(guān)的知識背景及行為的后果有所了解,具備解釋其行動的能力時,需承擔道德責任。當然并非主體處于無知狀態(tài)時就一定無需承擔責任,兒童犯錯大多追究其監(jiān)護人責任,但成年人酒后傷人必須承擔責任。
以亞里士多德的道德責任思想為基礎,此后不同的道德責任觀雖豐富了“責任”一詞的內(nèi)涵與外延,但其作為傳統(tǒng)的道德責任觀仍具有相同的特征,具體來說:
第一,責任的認定核心在于個體,大多依照主體的屬性對責任進行界定與分配,責任分配結(jié)果較為清晰,不存在多人或多物責任重疊難以明晰個體責任的狀況。第二,傳統(tǒng)道德責任觀多探討人與人之間的責任關(guān)系,責任主體只涉及人類,雖然有的學者將責任主體由人擴展到動物等生命體,但技術(shù)人工物尤其智能人工物仍被排除在責任探討范圍之外。第三,傳統(tǒng)道德責任觀多從責任主體(agent of responsibility)的視角出發(fā),未將責任放置于社會關(guān)系背景中進行考察,往往忽視責任受體(patient of responsibility)的重要性,側(cè)重于“誰對事故負責”而不是“發(fā)生事故應對誰負責”[5]。第四,傳統(tǒng)的責任分配采取后視性視角,大多在事故后通過當事人、目擊者、監(jiān)控等提供的證據(jù)還原事故發(fā)生前與發(fā)生時的狀況,據(jù)此分析事故原因,以確定相關(guān)道德行為的責任主體并進行道德責任分配。
傳統(tǒng)道德責任觀在一定程度上可以作為AV事故道德歸責的倫理依據(jù),但其適用性是有限的,當AV發(fā)展到高度自動化階段,若仍以傳統(tǒng)道德責任觀的視角進行事故后的道德歸責,就會陷入困境。
2020年3月9日,我國工信部官網(wǎng)對《汽車駕駛自動化分級》進行公示,并于2021年1月1日開始實施。這一標準參考了美國機動車工程師協(xié)會(SAE)制定的相關(guān)標準,并結(jié)合中國實際情況,依據(jù)為自動駕駛系統(tǒng)能夠執(zhí)行動態(tài)駕駛?cè)蝿盏某潭?、在?zhí)行動態(tài)駕駛?cè)蝿罩械慕巧峙湟约坝袩o設計運行條件限制等,將自動駕駛分為0~5級共6個等級。隨著駕駛自動化層級的不斷提升,自動化系統(tǒng)能夠執(zhí)行動態(tài)駕駛?cè)蝿盏某潭炔粩嗵岣?且其受到設計運行條件限制的程度越來越低,5級可完全執(zhí)行動態(tài)駕駛?cè)蝿?并不受設計運行條件的限制[6]。
依據(jù)這一分級,3~4級的AV大多數(shù)決策由自動駕駛系統(tǒng)作出,人類主體只對其進行監(jiān)督,而5級水平的AV根本沒有駕駛員,乘客除了發(fā)布乘車和停車指令以及強行關(guān)閉系統(tǒng)外,沒有其他控制權(quán)力。當前,AV仍處于較低等級,其規(guī)模化應用正處于2級到3級的過渡階段[7],但許多AV企業(yè)為盈利而在宣傳時夸大其詞,許多用戶被不負責任的車企所誤導,盲目信任較低等級的AV,造成不少交通事故。依照現(xiàn)有法律與倫理,此種事故后的責任分配較為清晰,但對于4級以上的高度自動駕駛的汽車來說,若簡單遵循西方傳統(tǒng)的基于個體道德的責任觀,我們會陷入道德歸責困境。
首先,責任主體的認定上存在“責任空缺”(responsibility gap),即無明確責任承擔主體[8]。眾所周知,在傳統(tǒng)交通事故的責任認定中,責任主體是人類駕駛員或車主。德國作為世界上最早規(guī)定允許自動駕駛的少數(shù)幾個國家之一,于2017年批準了《德國道路交通法》,依然遵循傳統(tǒng)的責任分配原則,規(guī)定:即便車輛處于自動駕駛模式,駕駛員和車主仍然要承擔責任[9]。依據(jù)我國現(xiàn)行法律,因輔助駕駛功能失靈造成的交通事故,駕駛?cè)顺袚熑?但可以向車企追償(2)2022年8月1日,《深圳經(jīng)濟特區(qū)智能網(wǎng)聯(lián)汽車管理條例》實施,其所指稱的智能網(wǎng)聯(lián)汽車包括有條件自動駕駛、高度自動駕駛和完全自動駕駛?cè)N類型,該條例第七章明確了AV事故責任。。以上這些法律規(guī)定只適用于目前AV的輔助駕駛階段。然而,在高度自動駕駛的汽車引發(fā)的交通事故中,依照傳統(tǒng)道德責任觀的“控制”條件,人類駕駛員并不具備責任主體的資格:在高度自動駕駛的汽車的行駛過程中,算法系統(tǒng)面對新情況往往會快速作出自主決策,留給人類反應與干預的時間極短,人類駕駛員無法及時介入控制,因此不應對自動駕駛事故負責。此外,根據(jù)傳統(tǒng)道德責任觀的“認知”條件,AV并不具備意識,亦無法成為責任主體。看起來,似乎只有算法工程師與制造商能夠解釋自動駕駛算法系統(tǒng)的行為并對其負責。然而,算法工程師與制造商盡管能夠為自動駕駛算法系統(tǒng)設定目標,了解自動駕駛算法系統(tǒng)所做行為的目的,明白系統(tǒng)的一般運行方式,但他們在解釋系統(tǒng)決策過程中會面臨不透明性和不可解釋性所造成的“算法黑箱”難題,無法確切了解系統(tǒng)在任一時間地點的行為,因此,算法工程師與制造商無法對系統(tǒng)的決策負責[4]115-116。此外,從實際效果上看,如果我們一味地將責任歸到算法工程師與制造商頭上,很可能會挫傷其發(fā)展自動駕駛的積極性。由此,處于高度自動駕駛階段的汽車在發(fā)生事故時會引發(fā)“責任空缺”,即我們在進行AV事故道德歸責時找不到合適的責任主體。
其次,責任承擔上存在“懲罰空缺”(retribution gap)[10]。這指的是,即便從長遠視角出發(fā),自動駕駛系統(tǒng)成為了責任主體,也會因其不具備可懲罰性而產(chǎn)生無法實施懲罰的情況。因為“懲罰的目的既是為了讓他意識到自己的錯誤,也是為了讓所有社會成員知道任何挑戰(zhàn)法律規(guī)范的行為都要付出代價。然而,至少在可見的將來,智能機器不會具有意識,不能反思自己的行為”[11]。所以,對智能機器進行精神懲罰并不現(xiàn)實。同時,機器并無痛感,亦無財產(chǎn),對其進行軀體上的物理懲罰或經(jīng)濟懲罰也毫無意義。這就產(chǎn)生了AV道德責任承擔上的“懲罰空缺”困境。
再次,責任分配時存在“多手問題”(problem of many hands)與“多物問題”(problem of many things)。AV的發(fā)展具有歷史性,其涉及由AV設計、制造、檢測到使用的復雜鏈條,每一階段都會涉及不同的主體。自動駕駛事故發(fā)生后,很難追蹤AV發(fā)展各階段的各人類主體,無法明晰導致事故的因果鏈條,會出現(xiàn)可能不止某一主體有責任的情況,難點在于如何分配各參與主體的責任內(nèi)容與程度,這就是道德責任歸屬和分配上的“多手問題”[12]。與此同時,AV是各種技術(shù)的集合體,其技術(shù)框架可分為感知層、決策層、執(zhí)行層,涉及環(huán)境感知、高精度地圖、人機交互技術(shù)等多種技術(shù)模塊,各個軟件與硬件密切結(jié)合,處于動態(tài)交互之中。這些技術(shù)均具有歷史性,與人類主體產(chǎn)生關(guān)聯(lián),更不要說,作為AV關(guān)鍵技術(shù)之一的算法具有不透明性和不可解釋性。所以,當技術(shù)出現(xiàn)問題造成AV事故時,我們很難確定每項技術(shù)在多大程度上引發(fā)了事故的發(fā)生,因此會產(chǎn)生“多物問題”[5]??梢?無論是具備完全能動性的人類主體還是具備一定能動性的自動駕駛技術(shù),都在某個環(huán)節(jié)具有不可追溯性,難以進行事后的道德責任分配。
總之,隨著基于深度學習的人工智能算法的發(fā)展,自動駕駛系統(tǒng)顯現(xiàn)出了以往人工技術(shù)系統(tǒng)所不具有的自主性和人-物協(xié)同性,對在傳統(tǒng)責任理論下進行相應駕駛事故的道德責任認定提出了挑戰(zhàn)。
AV技術(shù)的發(fā)展突破了傳統(tǒng)道德責任觀是AV事故道德歸責困境出現(xiàn)的關(guān)鍵原因。對歸責困境的消解不能僅僅被動依靠技術(shù)的發(fā)展,更重要的是為傳統(tǒng)道德責任觀注入新鮮血液。消解道德歸責困境的前提是拓展傳統(tǒng)道德責任觀的深度與廣度,在其基礎之上構(gòu)建新型道德責任觀。具體而言,我們需要從以下四個維度對傳統(tǒng)道德責任觀進行拓展。
第一,從關(guān)注人類責任主體拓展到關(guān)注非人類的準責任主體。隨著自動駕駛層級的提高,人類主體與自動駕駛系統(tǒng)之間的角色不斷發(fā)生變化,人類主體的角色會經(jīng)歷“控制者→協(xié)作者→乘客”的變化,而自動駕駛系統(tǒng)會經(jīng)歷“工具→協(xié)作者→能動者”的角色轉(zhuǎn)變。這給傳統(tǒng)的以人類個體為責任承擔主體的道德責任觀構(gòu)成了直接沖擊。思文·尼霍姆(Sven Nyholm)提出,上述角色轉(zhuǎn)變是基于人類主體與自動駕駛系統(tǒng)的交互而產(chǎn)生的。然而,他拘泥于傳統(tǒng)道德責任觀的框架之下識別責任主體,只關(guān)注成為責任主體所應具備的“控制”與“認知”條件,認為即使達到駕駛自動化5級的標準,也不應將自動駕駛系統(tǒng)看作完全獨立的能動者,其本質(zhì)上是協(xié)作能動者,自動駕駛系統(tǒng)作為人的輔助決策者與代理者而存在,所以,自動駕駛事故的責任只能由人類主體承擔,否定了自動駕駛系統(tǒng)承擔責任的可能性[13]。事實上,對于高度自動化的AV,人類主體無法對其進行實時干預,并不完全滿足責任主體所應具備的條件。對此,盧恰諾·弗洛里迪(Luciano Floridi)等建議,在對道德主體(moral agent)的認定上,我們可以區(qū)分道德責任(moral responsiblity)和道德問責(moral accountability)。前者強調(diào)傳統(tǒng)理論對意圖、意識及其他心智的關(guān)注,可評判某個主體是否以及在多大程度上要對某個道德行為負責,后者則只關(guān)注某個主體是否引發(fā)了善或惡[14]。按照道德問責(moral accountability),AV也可以成為道德主體。我們不必關(guān)注道德人格方面的困擾,而可以通過停止其服務、破壞它等方式對自動駕駛系統(tǒng)進行道德問責,改善、規(guī)范其行為[15]。此外,溫德爾·瓦拉赫(Wendell Wallach)等懸置了關(guān)于道德主體的倫理學定義的爭論,將基于工程學進路的“圖靈測試”引入道德領域,提出“對比道德圖靈測試”(comparative moral Turing test,簡稱CMTT),即將一組實際有道德意義的行動作為例子展示給人類評判者,并清除任何識別信息,如果評判者無法明確區(qū)分人與機器,且機器的道德水平并不比人類的道德水平低(即使機器的總體表現(xiàn)包括被判定為道德上錯誤的行為,但只要其總體道德表現(xiàn)超過人類),機器就能夠通過“對比道德圖靈測試”,并被認定為準責任主體[16]。盡管“對比道德圖靈測試”尚未獲得廣泛認可,但它為自動駕駛事故歸責提供了一種新視角:AV的責任表現(xiàn)為角色責任,其無需具備一定的個體特質(zhì),只需在社會性交互中滿足他者的需要與社會預期即可[17]。為此,我們需保持責任主體范圍的開放性,承認自動駕駛系統(tǒng)作為準責任主體的可能性與必要性。
第二,從個人擔責拓展為人-物集體擔責。大科學時代以來,新興科學技術(shù)往往都是多個人工部門、多個技術(shù)系統(tǒng)協(xié)同合作的集體產(chǎn)物,AV更是鮮明地體現(xiàn)出了人-物協(xié)同的特點?!白詣玉{駛汽車是一個集環(huán)境感知、規(guī)劃決策、智能控制等眾多自動駕駛功能為一體的綜合系統(tǒng),涉及傳感、通信、計算機、電子、自動控制、車輛動力學等眾多技術(shù)領域??鐚W科、多交叉的自動駕駛汽車開發(fā)需要相關(guān)技術(shù)人員可以模塊化并行開發(fā)各個子系統(tǒng)。”[18]因此,AV以各項技術(shù)為基礎,涉及技術(shù)研發(fā)部門、設計制造部門、宣傳銷售部門、維修售后部門等多個人工部門的協(xié)調(diào)運行。具體來說,自動駕駛系統(tǒng)的運行是基于自動駕駛制造商、系統(tǒng)工程師、用戶以及自動駕駛系統(tǒng)的共同目標,并在相互作用與相互補充的集體行動中實現(xiàn)的。無論是自動駕駛用戶還是系統(tǒng)工程師,都對自動駕駛系統(tǒng)具有直接或間接的監(jiān)督控制權(quán)。一旦發(fā)生事故,上述主體都可能成為道德上被歸責的對象,因此自動駕駛事故責任主體理應是包括AV用戶、設計者、制造商和AV自身所構(gòu)成的整體。
第三,從關(guān)注責任主體拓展到關(guān)注責任受體。針對以AV為代表的人工智能技術(shù)物是否可以作為道德主體承擔道德責任的問題,科克爾伯格另辟蹊徑,提出了關(guān)系性視角。他認為傳統(tǒng)道德責任觀關(guān)注責任主體,基于自動駕駛算法系統(tǒng)是否具有某些屬性(例如意識)來判斷其是否應承擔責任。這是有問題的。因為我們無法獲知自動駕駛算法系統(tǒng)是否真的具有類人道德屬性,更進一步來說,以懷疑論的視角來看,我們無法確定人類是否具有特定的道德屬性[4]58。實際上,人類現(xiàn)有的社會關(guān)系以及語言為道德歸責提供了可能性??瓶藸柌駥⒇熑无D(zhuǎn)變?yōu)樯鐣P(guān)系性概念,強調(diào)責任受體的重要性。他認為責任與其說是基于責任主體的道德屬性而產(chǎn)生,不如說是基于在社會關(guān)系中存在的責任受體要求作出回應而顯現(xiàn)。責任受體即受責任主體相關(guān)決定或行為影響的存在,其位于責任關(guān)系的反面,是責任主體被要求承擔責任的理由[19]。責任受體可分為直接責任受體與間接責任受體,包括人類與非人類。關(guān)注責任受體的關(guān)鍵在于對“可解釋性”[5]的重視,可解釋性不僅與傳統(tǒng)道德責任觀中的“認知”條件相關(guān),即責任主體了解行動的知識背景,還包括責任主體基于道德要求向責任受體提供自身行動的理由,即可回應責任。可回應責任以自動駕駛系統(tǒng)的可解釋性為基礎,相比于通過技術(shù)手段以增加責任主體對責任受體的可回應性,傾聽責任受體的意見更為重要。
第四,從事后追責拓展為責任前瞻。傳統(tǒng)道德責任觀適用于事故發(fā)生之后,對照責任標準以確定責任主體,僅關(guān)注如何將道德責任施加于責任主體,而忽視了責任主體在事故發(fā)生前對道德責任的主動承擔。彼得-保羅·維貝克(Peter-Paul Verbeek)關(guān)注人類與技術(shù)、主體與客體的相互形塑,認為人具有技術(shù)性,技術(shù)作為中介,調(diào)節(jié)我們與世界的互動[4]43-45。因此,我們應關(guān)注人工智能技術(shù)如何調(diào)節(jié)人與世界的關(guān)系,并在技術(shù)還未成熟之時嘗試進行積極的干預和引導。具體來說,在自動駕駛技術(shù)使用前就進行責任前瞻,將各方形成的倫理共識嵌入AV的構(gòu)建過程之中,以盡量避免陷入事后道德歸責困境。自動駕駛系統(tǒng)的核心在于算法,算法的不透明性、不可解釋性與不確定性導致了事后道德歸責過程中責任的不可追溯性,由此導致責任推諉現(xiàn)象的發(fā)生,各責任主體試圖尋找替罪羊,以免除自身的責任。對這一難題的解決需前瞻性歸責視角的出場,通過對技術(shù)以及社會環(huán)境的塑造以確保自動駕駛系統(tǒng)被負責任地設計、制造和使用,事故未發(fā)生時各責任主體便可意識到并主動承擔起自身的道德責任,即便自動駕駛事故不可避免,也能為事故發(fā)生后道德責任的厘清提供幫助。
鑒于AV自主性凸顯,且屬于人-物協(xié)同集體行為的產(chǎn)物,想要消解AV道德歸責困境,關(guān)鍵在于找到一個可與自動駕駛集體行動者相匹配的道德責任歸屬組織,以合理的方式對自動駕駛系統(tǒng)的自主性予以承認。在現(xiàn)行法律構(gòu)架中,“法人”是“相對自然人而言的一種法律關(guān)系主體”,其具有團體性和獨立人格性的本質(zhì)特征,團體具有獨立人格的關(guān)鍵在于其可以獨立承擔責任[20]。法人不僅是個體行動者的簡單聚合,也不僅是單純的團體集合,更是具備組織性、管理良好的團體[21]。我們不妨設立“AV法人”這樣一種集體擔責組織來消解AV事故的道德歸責困境。
首先,“AV法人”有助于解決“責任空缺”和“懲罰空缺”問題。對于AV事故集體擔責組織的設立,學界其實已經(jīng)提出了各種方案。亞歷山大·赫韋爾克(Alexander Hevelke)等認為,可以通過設立保險公司或通過稅收的方式對AV進行責任分配[22]。王華平認為,應設立專門的“AV安全公司”來消解歸責困境。AV安全公司以法律強制性保證公司成員構(gòu)成的全面性,自動駕駛制造商、系統(tǒng)工程師、用戶、自動駕駛系統(tǒng)四類主體都被認定為合理的歸責對象。AV安全公司可作為被懲罰的對象,當所有行動者無明顯過失時,AV安全公司接受懲罰。當某一人類行動者存在明顯過失時,由其作為個體接受懲罰。當AV自身有重大過失時,可采取降速、強制學習、銷毀等措施對AV進行懲罰[11]。這一提法從責任主體的維度豐富了傳統(tǒng)道德責任觀,既實現(xiàn)了責任主體由個體到集體的轉(zhuǎn)變,也將作為人工物的AV系統(tǒng)本身納入了責任主體范疇,十分有利于解決“責任空缺”和“懲罰空缺”的問題。
其次,利用現(xiàn)有的一些技術(shù)手段,“AV法人”有助于化解AV歸責困境中的“多手問題”和“多物問題”。例如,阿蘭·溫菲爾德(Alan F.T. Winfield)等提出:人工智能系統(tǒng)應配備類似于飛行數(shù)據(jù)記錄器的“倫理黑匣子”(ethical black box),其具有足夠的堅固性。AV包含傳感器、自動駕駛算法系統(tǒng)、執(zhí)行器三個子系統(tǒng),倫理黑匣子對這三個子系統(tǒng)的數(shù)據(jù)進行收集。當事故發(fā)生后,通過整理倫理黑匣子中的數(shù)據(jù),能夠重建事故發(fā)生前與發(fā)生時的時間線,以此為事故歸責提供技術(shù)與數(shù)據(jù)支持[23]。王華平認為,AV安全公司在自動駕駛系統(tǒng)中接入“標準化安全包”,其因果推理模塊能夠追溯實際因果關(guān)系,監(jiān)測模塊負責記錄數(shù)據(jù)并對汽車進行定期測試,還需采用區(qū)塊鏈技術(shù)對安全包所涉及的數(shù)據(jù)進行保護,以此保證數(shù)據(jù)的去中心化與可追溯性[11]。以上技術(shù)手段都能夠在一定程度上追溯AV事故各相關(guān)方的行蹤,為確切的道德責任分配提供依據(jù)。
再次,“AV法人”除了直接進行可追溯的人-物集體擔責,還可從責任受體進一步細化對AV道德歸責困境的消解?!癆V法人”通過搭建對話平臺,關(guān)注自動駕駛事故受害者的道德訴求。根據(jù)新型道德責任觀,責任受體包括直接責任受體與間接責任受體,例如在一場自動駕駛事故中,假設一輛AV因某種原因撞向路上行人,致使行人死亡,并對公共交通設施造成了破壞,自動駕駛用戶無傷亡。此次事故的直接責任受體是行人以及作為非人的公共交通設施,間接責任受體為受此次事故影響降低AV購買積極性甚至抵制AV進一步發(fā)展的事故旁觀者。對此,AV法人扮演各主體間的關(guān)鍵協(xié)調(diào)者角色,搭建起自動駕駛事故利益相關(guān)者的對話平臺,實現(xiàn)多方信息實時、透明交流,使責任主體擁有充足的意愿和能力去理解責任受體的要求及意見,為增強社會層面而非技術(shù)層面的可解釋性提供切實可行的路徑。具體來說,在AV法人的組織協(xié)調(diào)之下,自動駕駛事故的相關(guān)責任主體通過與直接責任受體進行充分的溝通與交流,能夠?qū)ⅰ耙院畏N方式承擔責任”這一抽象問題具體化,在反復磋商的基礎上形成經(jīng)濟賠償、物理懲罰、刑事責任等責任承擔的確切方式,達到雙方滿意的歸責效果。此外,通過社會公開磋商的方式得出道德責任承擔方式的最優(yōu)解,在一定程度上降低公眾作為間接責任受體對AV的排斥度。
最后,“AV法人”通過倫理培訓或道德問責,幫助相關(guān)成員主動承擔責任,實現(xiàn)責任前瞻。對于AV的用戶,應使其認識到自身應承擔的使用責任,即購買AV前的認知責任。2018年3月在美國加州山景城以及2018年5月在加州拉古納海灘,特斯拉汽車均發(fā)生了事故。造成這兩起事故的原因,均為用戶忽視了自動駕駛系統(tǒng)的警告。事實證明,明確告知用戶AV的使用規(guī)則是必要的,應避免因用戶對“自動駕駛”一詞錯誤理解而造成事故這一情況出現(xiàn)[24]。通過對自動駕駛相關(guān)背景知識、使用規(guī)則、倫理知識尤其風險性的介紹,用戶能夠在認識到自身責任的基礎上主動擔責,由此便不會產(chǎn)生用戶因無知而將責任推給自動駕駛系統(tǒng)的情況。對于自動駕駛系統(tǒng)的工程師和設計者,應使其意識到自身所應承擔的預見責任。許多技術(shù)人員將倫理視為一種限制與阻礙,認為重視倫理會導致金錢、時間以及精力方面的額外付出,忽視了重視倫理在促進自動駕駛技術(shù)可持續(xù)發(fā)展、構(gòu)建人類美好生活方面的重要作用[4]174。實際上,人工物并非價值中立,其設計和建造過程被嵌入了人類的道德價值。系統(tǒng)工程師在進行自動駕駛系統(tǒng)設計時,不應只考慮技術(shù)與經(jīng)濟要素,還應將人與社會的長遠發(fā)展考慮在內(nèi)。為此,應著重培養(yǎng)自動駕駛系統(tǒng)工程師的道德想象力。道德想象力能夠幫助工程師在既定的情境中分析采取多種行動的可能性,并預想每一既定行為有可能帶來的積極與消極影響。自動駕駛系統(tǒng)工程師在進行系統(tǒng)設計時充分發(fā)揮道德想象力是其事前主動擔責的重要途徑。對于AV的生產(chǎn)商,應通過培訓使其認識到在AV設計、制造的過程中構(gòu)建開放決策過程的重要性與必要性,強調(diào)各重要決策環(huán)節(jié)應向各利益相關(guān)方征求意見,尊重其權(quán)利及自主性,由此保證各利益相關(guān)方在享受AV所帶來紅利的同時,能夠?qū)V的風險性有一定程度的了解,并在其參與度不斷提高的同時,提高其道德?lián)煹淖栽付?。“通過制度化、規(guī)范化的參與決策,公眾在合理地表達和爭取權(quán)利和利益的同時,也逐步增強責任感,追求利益、權(quán)利和責任的平衡?!盵25]對于AV自身,我們按照道德問責去思考AV系統(tǒng)的設計、使用和控制,通過對自主智能體進行監(jiān)控和譴責,改善和規(guī)范其行為。
專注于人類個體的傳統(tǒng)道德責任觀已經(jīng)無法適應凸顯人工物自主性和人-物協(xié)同性的AV技術(shù)的發(fā)展,這導致了AV道德歸責的困境。技術(shù)發(fā)展挑戰(zhàn)了傳統(tǒng)道德倫理觀念,并非是AV技術(shù)的特例,而是當前諸多新興技術(shù)發(fā)展引發(fā)倫理困境的共性原因。當前我國正在大力推進科技倫理治理,提出在科技發(fā)展的過程中要做到“倫理先行”和“敏捷治理”。所謂“倫理先行”注重的是源頭治理和預防,強調(diào)將科技倫理要求貫穿科學研究、技術(shù)開發(fā)等科技活動全過程,但絕不是用一套陳舊的、固定的倫理原則去約束科技發(fā)展,而是在科技與社會的協(xié)同演化中尋找一種緩沖機制,讓科技快速發(fā)展可能給社會帶來的巨大沖擊實現(xiàn)“軟著陸”。所以,科技倫理治理要能夠及時動態(tài)調(diào)整治理方式和倫理規(guī)范,快速、靈活地應對科技創(chuàng)新帶來的倫理風險,實現(xiàn)“敏捷治理”[26]。自動駕駛汽車道德歸責困境的產(chǎn)生與消解恰恰體現(xiàn)了技術(shù)與倫理之間的良性互動,技術(shù)發(fā)展塑造著倫理規(guī)范,倫理規(guī)范也引導著技術(shù)發(fā)展,由此才能真正實現(xiàn)技術(shù)的向善發(fā)展。