王華平
【摘要】自動駕駛汽車(AV)發(fā)生事故由誰負(fù)責(zé)?運用傳統(tǒng)責(zé)任理論處理此問題會產(chǎn)生責(zé)任空缺和懲罰空缺,而填補空缺需要采用新觀念和新舉措。盡管基于機器學(xué)習(xí)的AV能夠自主行動,但它實際是在貫徹人的意志,所表現(xiàn)出的能動性是集體能動性。因此,對AV負(fù)責(zé)的應(yīng)該是作為集體能動者代理的AV安全公司。AV安全公司可以用實際因果推理和區(qū)塊鏈技術(shù)解決“多只手難題”和“多種東西難題”,從而為AV責(zé)任歸屬問題提供一個理論上適切、實踐上可行的解決方案。
【關(guān)鍵詞】自動駕駛? 責(zé)任歸屬? 責(zé)任空缺? 懲罰空缺? 集體行動
【中圖分類號】B829/B842? ? ? ? ? ? ? ? ? ? ? ? ?【文獻標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2021.04.005
作為典型的顛覆性技術(shù),自動駕駛對世界具有深遠(yuǎn)影響。全球汽車每年行駛里程高達16萬億公里,若換成自動駕駛汽車(autonomous vehicles/self-driving automobile,以下簡稱AV),則僅節(jié)省的能源成本就是一筆可觀數(shù)字。世界范圍內(nèi),每年有130萬人死于交通事故,2~5千萬人在交通事故中受傷或致殘,而其中94%的事故由駕駛員造成。[1]自動駕駛能彌補人工駕駛的失誤,“每年可以拯救約百萬條生命”。[2]實際上,AV的影響并不限于經(jīng)濟和安全領(lǐng)域。詹姆斯·摩爾(James Moor)指出,“隨著技術(shù)革命對社會影響的增加,倫理問題也在增加?!盵3]在眾多倫理問題中,責(zé)任問題是一個新的、非常重要但又相對關(guān)注不足的問題。假如AV造成傷亡,誰該對此負(fù)責(zé)?這個問題若用傳統(tǒng)的責(zé)任理論來處理,會產(chǎn)生責(zé)任空缺(responsibility gap)和懲罰空缺(retribution gap),而填補空缺需要運用新的倫理觀念、法律手段和制度措施。
責(zé)任空缺與懲罰空缺
人工智能的飛速發(fā)展使得AV正在成為現(xiàn)實。2016年,特斯拉宣稱其目前所有汽車都裝配了自動駕駛硬件。2020年10月,百度宣布在北京開放自動駕駛出租車服務(wù)。但是,這些AV離完全自動還有不小差距。根據(jù)國際自動機工程師學(xué)會(SAE)的自動駕駛分級,目前AV處在3~4級水平。3級水平的AV屬于有條件的自動化,能夠在某些駕駛條件下自動駕駛,但需要人的監(jiān)控,以便在安全攸關(guān)的情況下接管AV;4級水平的AV屬于高度自動化,即使人類駕駛員沒能對干預(yù)請求做出恰當(dāng)回應(yīng),AV也能完成操作;5級水平的AV能夠在與人類駕駛員操作條件相同的情況下獨立駕駛汽車,可以處理所有安全攸關(guān)的問題。[4]本文所論及的AV為3~5級水平的AV。
AV是個非常復(fù)雜的軟硬件混合系統(tǒng)。一輛AV包含大約一億行代碼,大約是戰(zhàn)斗機所含代碼的10倍。這些代碼將人類界面、道路計劃、環(huán)境感知與建模子系統(tǒng)以及機車硬件執(zhí)行機構(gòu)聯(lián)接起來,只要其中某個部分出現(xiàn)問題,AV就有可能發(fā)生故障。加之復(fù)雜的路情和難以預(yù)料的突發(fā)事件,再號稱安全的AV也可能在行駛過程中造成傷亡。2016年發(fā)生了AV在公共道路上的第一起嚴(yán)重事故,一輛在自動駕駛模式下的特斯拉S型電動轎車發(fā)生撞車事故導(dǎo)致車主死亡。2018年,Uber的AV在美國亞利桑那州坦佩市的街道撞死一位行人,這是AV造成的首例行人死亡事故。這些事件均指向一個重要問題:當(dāng)AV造成傷亡后,誰該對此負(fù)責(zé)?即AV的責(zé)任歸屬(responsibility attribution)問題。
AV的責(zé)任歸屬問題是個新問題,很難用傳統(tǒng)責(zé)任理論處理。根據(jù)傳統(tǒng)責(zé)任理論,某人應(yīng)對其行為負(fù)責(zé)意味著將某種能力歸屬此人,并且,其行為是其運用此種能力的結(jié)果。[5]自亞里士多德以來,使得歸責(zé)成為可能的能力被普遍認(rèn)為是對行動的控制和覺知(awareness)。然而,行動者(agent)對其不能控制的事情,比如天要下雨,則無需負(fù)責(zé)。行動者能夠控制行動通常意味著他能夠做不同于(otherwise)他實際所做的行動。比如,一個行動者在路口選擇了往右走,如果他能控制自身行動,那他當(dāng)時也可以選擇往左走。這種形式的控制體現(xiàn)了常識意義上的“自由意志”。一些傳統(tǒng)理論的確認(rèn)為自由意志是責(zé)任歸屬的必要條件:因為你的行動是你自由選擇的結(jié)果,所以你應(yīng)該對它負(fù)責(zé)。傳統(tǒng)責(zé)任理論的另一個信條是,責(zé)任的歸屬以行動者關(guān)于自己行動的自我知識為條件。如果一個人根本不知道自己在做什么,比如睡著的時候,他是不用對其行為負(fù)責(zé)的。如果一個人知道自己在做什么,但他還是選擇那樣做,那么他應(yīng)該對自己所做的事情負(fù)責(zé)。更進一步的要求是,當(dāng)一個人被問到為什么那樣做時,他有能力為自己的行動提供基于他信念和意圖的解釋。很多國家的法律體系采取這樣的歸責(zé)概念。例如,德國的法律就要求責(zé)任主體有自由意志,能夠自主地設(shè)定目標(biāo),并按目標(biāo)開展行動;同時能夠?qū)⑿袆涌醋髯约鹤杂梢庵镜漠a(chǎn)物,能夠意識到自己行動的對與錯。[6]
按照上述理解,操作人員對機器運行的結(jié)果是負(fù)有責(zé)任的。操作人員操作機器,實質(zhì)上是讓機器按照制造商的說明來運行。操作說明將機器的控制權(quán)從制造商轉(zhuǎn)移到操作人員,使得操作人員可以根據(jù)自己的決定、以可預(yù)見的方式操作機器。由于操作人員按操作說明操作機器時可以控制機器,并且知道機器正常情況下會產(chǎn)生什么結(jié)果,所以他應(yīng)該對機器運行的結(jié)果負(fù)責(zé)。但是,假如機器自身沒有按照操作說明運行,操作人員則不用承擔(dān)責(zé)任,而應(yīng)該承擔(dān)責(zé)任的是制造商,因為其制造的機器有缺陷,導(dǎo)致操作人員不能按照操作說明來控制機器。
然而,以上述模式處理自動駕駛的責(zé)任歸屬問題存在很大困難。這是因為,AV沒有通常意義上的操作人員,也沒有一個可完整定義的操作模式。操作AV的是智能機器,它自動做出駕駛決定。即使在3級或4級水平的AV中,人類駕駛員也只是起到監(jiān)控作用,多數(shù)駕駛決定由智能機器做出。如果需要駕駛員介入且有時間讓其介入,他卻沒有介入或介入不當(dāng),則駕駛員負(fù)有責(zé)任。然而,由于智能機器反應(yīng)速度非???,多數(shù)情形下駕駛員根本無法介入,換言之,AV對其而言根本不可控制。5級水平的AV則根本沒有駕駛員,乘客除了發(fā)布乘車和停車指令以及強行關(guān)閉系統(tǒng)外,沒有其他控制權(quán)力。因此,按照傳統(tǒng)責(zé)任理論,乘客和駕駛員均不應(yīng)對其無法控制的AV所造成的事故負(fù)責(zé)。
將責(zé)任歸屬于廠商和程序員也不恰當(dāng)。AV據(jù)以做出決定的規(guī)則不是在生產(chǎn)過程中固定下來且一成不變的,而是隨著使用過程不斷改變。AV從大數(shù)據(jù)中識別模式,再對這些模式進行建模,然后利用模型做出預(yù)測和決定。[7]這就是我們常說的機器學(xué)習(xí)。具有學(xué)習(xí)能力的智能機器部分是程序員的產(chǎn)品,部分是自我學(xué)習(xí)的產(chǎn)物。無論是程序員還是廠商,都無法預(yù)測它的行為,也不能直接控制它。因此,按照傳統(tǒng)責(zé)任理論,程序員和廠商都不應(yīng)對AV事故負(fù)責(zé)??墒牵绻{駛員、乘客、程序員和廠商都沒有責(zé)任,那么究竟誰才有責(zé)任呢?這導(dǎo)致一個困境:當(dāng)我們想追責(zé)時,卻找不到合適的承擔(dān)責(zé)任的主體,從而產(chǎn)生了“責(zé)任空缺”。[8]
對責(zé)任空缺的一個回應(yīng)是引入非人類行動者。在最廣泛意義上,行動者指的是具有最廣泛意義上的行動能力的系統(tǒng),而最廣泛意義上的行動能力可理解為產(chǎn)生運動的能力。第一個哲學(xué)家泰勒斯(Thales)曾認(rèn)為磁石具有行動能力,因為它能使鐵片動起來。在此意義上說,磁石即行動者。但這樣的行動者概念與責(zé)任主體相差甚遠(yuǎn)。很多人認(rèn)為,能夠自主地做出行動,特別是做出有倫理意蘊的行動的行動者可以被歸屬責(zé)任。[9]其中,自主意味著不受干預(yù)和控制。由于自主行動是行動者自己做出的行動,所以他應(yīng)該為之負(fù)責(zé)。AV能夠自主地行動,可以“復(fù)制人類決策過程”“做出生與死的決定”和“選擇自己的目標(biāo)”。[10]它還可以回應(yīng)倫理困境,比如它發(fā)現(xiàn)達到某目標(biāo)不可避免會引起連帶傷害時,就會放棄此目標(biāo)。機器倫理學(xué)的目標(biāo)是賦予機器道德推理能力,讓其成為一個道德行動者。未來5級水平的AV被認(rèn)為具有這樣的能力。當(dāng)我們乘坐一輛5級水平的AV時,就像科克爾伯格(Mark Coeckelbergh)所說,“所有的能動性都完全轉(zhuǎn)移給了機器?!盵11]這種情況下,AV一旦造成傷亡,負(fù)責(zé)任的就應(yīng)該是駕駛汽車的機器。
但是,即使我們承認(rèn)AV可以被歸屬責(zé)任,也很難說它可以接受懲罰。懲罰通常與自我知識聯(lián)系在一起。我們懲罰一個行動者,是因為我們認(rèn)為他應(yīng)該知道自己的行動會帶來不良結(jié)果,而他或者不顧不良后果,或者忽視不良后果。因此之故,我們認(rèn)為他應(yīng)該受到懲罰。懲罰的目的既是為了讓他意識到自己的錯誤,也是為了讓所有社會成員知道任何挑戰(zhàn)法律規(guī)范的行為都要付出代價。然而,至少在可見的將來,智能機器不會具有意識,不能反思自己的行為。因此,對它進行懲罰,完全達不到我們想要的效果。并且,機器不擁有財產(chǎn),對它的經(jīng)濟懲罰最終還得由它的法律擁有者或制造者承擔(dān)。對機器的物理懲罰,例如拔掉電源、囚禁機器,甚至判處死刑,都是沒有意義的。機器沒有快樂與痛苦的體驗,沒有求生的意志,無法產(chǎn)生真正受懲罰的感覺。即使強行對機器進行懲罰,機器也無法將其所受“懲罰”與之前所犯過錯聯(lián)系起來。于是,困境再次出現(xiàn):我們想要找到一個合適的主體接受懲罰,但卻找不到,從而產(chǎn)生“懲罰空缺”。[12]
也許有人會說,未來的機器人可以具有與人一樣、甚至超過人的智能,到那時就可由它填補責(zé)任空缺和懲罰空缺。根據(jù)強人工智能觀點,適當(dāng)編程的機器擁有真正意義上的心智,可以和人類一樣具有自由意志和意識。奇點論者認(rèn)為這一天的到來為時不遠(yuǎn),大概率將發(fā)生在2045年。[13]但問題是,如果真到了那一天,機器為什么還要為我們服務(wù)?它還會順從地為我們駕駛汽車嗎?再者,你能想象你隨意地開關(guān)一個與你平等的“他”嗎?你能買賣“他”嗎?能命令“他”為你服務(wù)嗎?很多人工智能專家,例如布魯克斯(Rodney Brooks)和布萊森(Joanna Bryson),認(rèn)為機器只能被設(shè)計成奴隸,并像奴隸一樣被對待和交易,[14]而這恰恰是“robot”(機器人)一詞的原義。[15]如果機器只是為我們服務(wù)的奴隸,至少我們就不能將全部責(zé)任和懲罰加之于它,因為它只是在執(zhí)行我們的意志、服從我們的權(quán)威,并無真正的獨立性。這種情況下,將責(zé)任和懲罰加之于它會產(chǎn)生“替罪羊”問題。
AV與集體行動者
一些人堅持認(rèn)為,AV并沒有給責(zé)任歸屬帶來特別的挑戰(zhàn),因而無所謂責(zé)任空缺和懲罰空缺。尼霍姆(Sven Nyholm)是持這種觀點的代表人物。他認(rèn)為,盡管我們可以像很多人認(rèn)為的那樣合理地歸屬機器人的能動性,但是我們不能歸屬其獨立的能動性。我們應(yīng)該將機器人理解為“人機協(xié)作”中的一員,在其中,機器人在人的監(jiān)控和權(quán)威下工作。這是因為,盡管AV做了大部分工作,但工作的目標(biāo)卻是另一個真正具有權(quán)威的行動者——人所設(shè)定,是人初始化、監(jiān)控和管理機器(協(xié)作者)。所以,人應(yīng)該為AV的所作所為負(fù)責(zé)。[16]
但是,正如達納赫(John Danaher)令人信服地表明的,這種簡單的還原進路存在一系列問題。[17]首先,將責(zé)任歸屬給AV的擁有者或乘客不符合我們的直覺。AV的擁有者和乘客不能有效地控制和預(yù)見AV的行為,因此將責(zé)任歸屬給他們不免讓人產(chǎn)生一種“飛來橫禍”的感覺。其次,將責(zé)任歸屬制造商,不但不公平,也不利于AV的發(fā)展。AV自動化程度越高,制造商越不能控制和預(yù)見AV的行為。如果我們堅持將責(zé)任歸屬給制造商,就會挫傷其提高AV自動化程度的積極性。就目前來看,盡管沃爾沃與奧迪聲稱對其所有AV事故負(fù)責(zé),但已經(jīng)銷售AV的特斯拉則堅持認(rèn)為車主應(yīng)該對事故負(fù)責(zé)。[18]再次,存在如何確定協(xié)作者的邊界以及如何在不同人類協(xié)作者之間分配責(zé)任的問題,本文第三部分將詳細(xì)討論。
盡管尼霍姆的還原進路并沒有真正解決責(zé)任空缺問題,但他所引入的“協(xié)作能動性”(collaborative agency)概念卻富有啟發(fā)性。協(xié)作能動性揭示了一類現(xiàn)象:有一些行動并不是由單個行動者做出,而是多個行動者共同完成,比如很多人一起抬起一輛車。人類并非活在自己的個體能動性中,他們所尋求的很多結(jié)果都是通過共同努力獲得,比如捕獵猛獸。在現(xiàn)代社會,合作現(xiàn)象比比皆是,合唱團、合作研究、體育運動中的團體項目等,就連AV本身也是合作的產(chǎn)物。合作行為所表現(xiàn)出來的能動性不同于個體能動性,它涉及持有共同目標(biāo)的個體之間的相互作用、相互協(xié)調(diào)、相互補充。這種以相互作用為基礎(chǔ)的朝向共同目標(biāo)的能動性我們稱之為集體能動性(collective agency)。
AV具有能動性,并且,它所表現(xiàn)出來的能動性是集體能動性而非個體能動性。根據(jù)佩蒂特(Philip Pettit)的提議,智能系統(tǒng)的能動性可以用功能主義來刻畫:智能系統(tǒng)存在一個合適的目標(biāo)集和表征集,依據(jù)其中表征所做出的行動可促進其中目標(biāo)。[19]然而,一個系統(tǒng)要真正具有“目標(biāo)–表征”的行為模式,就必須具有以下三個特性:系統(tǒng)擾動性、情境適應(yīng)性、可變的實現(xiàn)性。[20]系統(tǒng)擾動性要求擾動源于可理解的系統(tǒng)性要素——如果沒有那些要素,系統(tǒng)則很少會失效。因此,具有系統(tǒng)擾動性的系統(tǒng)正常條件下會在特定領(lǐng)域表現(xiàn)出可靠的“目標(biāo)–表征”行為模式。AV顯然滿足這一點——它被設(shè)計成能夠利用視覺表征可靠地將汽車駕駛到目的地。情境適應(yīng)性要求系統(tǒng)具有可塑性,而不是簡單地對特定情境做出應(yīng)激性反應(yīng)。AV能夠應(yīng)付復(fù)雜的路況和多種意想不到的情境,正是其具有情境適應(yīng)性的表現(xiàn)??勺兊膶崿F(xiàn)性要求系統(tǒng)具有多種實現(xiàn)目標(biāo)的方式,而不僅僅是導(dǎo)向目標(biāo)的硬連接。AV所具有的聯(lián)結(jié)主義架構(gòu)和機器學(xué)習(xí)能力賦予其多種策略生成能力和選擇能力,因而具有可變的實現(xiàn)性。上述特性使得AV能在目標(biāo)設(shè)定過程中自主地做出決定,從而表現(xiàn)出真正的能動性。
需要注意的是,AV所表現(xiàn)出的能動性并不全然是其智能系統(tǒng)的能動性,還包含人類合作者的貢獻。在具體情境中,智能機器好像完全自主地做出決定,但其背后卻離不開人。正如美國國防科學(xué)委員會所指出的:“沒有完全自主的系統(tǒng),就像沒有自主的士兵、水兵、空兵或海軍陸戰(zhàn)隊?wèi)?zhàn)士一樣……對指揮官來說最重要的是,所有機器都在某種程度上受人的監(jiān)控,而最佳性能源自人與機器的協(xié)調(diào)與合作。”[21]對AV來說,是人對它進行初始化,設(shè)定它的行駛目標(biāo),對它進行升級,甚至強行關(guān)閉它的電源。人對AV的這些控制措施決定AV的自主性只是工具意義上的自主性。它的工作目標(biāo)由使用者設(shè)定,目標(biāo)的實現(xiàn)由制造商、使用者、擁有者以及AV共同完成:制造商保證AV正常情況下執(zhí)行使用者所設(shè)定的目標(biāo);擁有者購買AV來實現(xiàn)使用者(有時即為擁有者)設(shè)定的目標(biāo);智能系統(tǒng)根據(jù)使用者所設(shè)定的目標(biāo)自主決定實現(xiàn)目標(biāo)的方式。有鑒于此,AV的駕駛行為,例如將乘客從濟南送到北京,是以相互協(xié)調(diào)為基礎(chǔ)的朝向共同目標(biāo)的集體行動,是制造商、使用者、擁有者以及AV組成的集體行動者共同作用的結(jié)果。
集體行動者不是集體成員的總和,集體行動不能還原為個體行動。塞爾(John Searle)曾舉例形象地說明這一點:設(shè)想一群人坐在草地上曬太陽,突然下起雨來,于是大家一起跑向房屋躲雨。再設(shè)想一群演員表演這一場景。這兩群人的行動看上去并無二致,但實際上是完全不同的兩類行動。[22]第一種情形中,大家一起跑向房屋躲雨是偶然的共發(fā)行為,由眾多的單個目標(biāo)——“我要躲雨”引發(fā);第二種情形中,個體行動不再是相互獨立的,而是擁有一個共同目標(biāo),即重現(xiàn)避雨的情景,其共同行動是由此共同目標(biāo)而非眾多的單個目標(biāo)引發(fā)。這個例子中,第一種情形的行動只是眾多偶發(fā)的個體行動,第二種情形的行動則是涌現(xiàn)出來的集體行動。
集體行動的不可還原性意味著,它的來源不能追溯到個體行動者。所以,直接要求個體行動者對集體行動負(fù)責(zé)是不恰當(dāng)?shù)摹<热蝗绱?,誰該對自動駕駛集體行動負(fù)責(zé)呢?
AV與責(zé)任分配
尼霍姆認(rèn)為,一些類型的集體行動,例如遵循“監(jiān)督–遵從原則”的集體行動,其責(zé)任在集體中的某一方。[23]遵循“監(jiān)督–遵從原則”的集體行動是一個行動者在另一個權(quán)威行動者的監(jiān)管下做出的行動。例如,一位母親指示她的小孩在院子里打掃葉子,她在一旁監(jiān)督,以確保小孩按照她的意愿打掃。類似的行動,盡管遵從的一方做了大部分事情,但負(fù)責(zé)任的是監(jiān)督的一方。尼霍姆舉了個例子來說明這一點:“一個大人與一個小孩一起搶劫銀行,主意是大人拿的,大部分‘事情是拿槍的小孩干的。大人監(jiān)督著‘搭檔的活動,如果需要,就會介入并對小孩發(fā)號施令?!盵24]尼霍姆認(rèn)為,在這個例子中,盡管小孩做了大部分事情,但責(zé)任顯然在大人。同樣,一個乘坐AV的人監(jiān)督著AV的駕駛,在需要的時候接管或發(fā)布不同的駕駛指令。這種情況下,如果有事情發(fā)生,責(zé)任在監(jiān)督AV的人。但是,如果事故是由AV功能失常引起,則責(zé)任應(yīng)由制造商承擔(dān)??傊珹V造成的事故,其責(zé)任應(yīng)該直接由人承擔(dān)。
但是,尼霍姆的類比事實上并不成立。首先,正如前文論及,AV的反應(yīng)速度非常快,很多情況下人根本無法介入。人對AV的監(jiān)控只是諸如開車、停車、關(guān)閉系統(tǒng)等非實時監(jiān)控,它不同于大人對小孩的實時監(jiān)督。其次,至少在駕駛方面,AV比人做得更好(正因如此,我們才要發(fā)展AV)。而大人之所以能夠監(jiān)督小孩,是因為他比小孩更能干。所以,人與AV的關(guān)系并非大人與小孩的關(guān)系。最后,也是最重要的,人向AV發(fā)布駕駛指令是合乎倫理和法律的,而大人命令小孩搶銀行既違反了倫理,也違反了法律。所以,不能從搶銀行的例子中責(zé)任在大人推斷出AV事故的責(zé)任在監(jiān)控AV的人。
實際上,對于自動駕駛這樣的集體行動,無論將責(zé)任歸屬給作為集體成員的個體行動者,還是歸屬給作為集體子集的某一方,都不恰當(dāng)。自動駕駛是集體行動,集體能動性的不可還原性決定了,責(zé)任主體是集體行動者。問題就在于,在目前的社會制度中,我們找不到一個可與自動駕駛集體行動者相匹配的可歸屬責(zé)任的社會組織。正因如此,一些人主張將責(zé)任歸屬給AV的所有者或使用者,另一些人主張將責(zé)任歸屬給AV的制造商,還有人主張將責(zé)任歸屬給AV本身。赫夫爾克(Alexander Hevelke)和奈達-呂梅林(Julian Nida-Rümelin)認(rèn)為,應(yīng)該通過設(shè)立專門保險或?qū)V收稅的方式來落實責(zé)任。[25]然而,無論是保險公司還是政府,都與自動駕駛集體行動者相隔甚遠(yuǎn),讓它們承擔(dān)責(zé)任難以彰顯歸責(zé)的警示意義與糾正作用。
但是,成立保險公司的想法亦有其可取之處。在當(dāng)今社會,由公司承擔(dān)責(zé)任是常規(guī)操作。公司是法律實體,可簽訂合同、擁有財產(chǎn),可發(fā)起訴訟和應(yīng)訴。公司的概念最早可追溯至拜占庭皇帝查士丁尼的統(tǒng)治時期。查士丁尼正式確認(rèn)了一系列公司實體,包括大學(xué)、公司、學(xué)院、宗教團體、政治團體等。在很多方面,這些公司實體就像是一個法律上大寫的“人”。實際上,英語“corporation”一詞的拉丁語詞源“corpus”,其詞義即為“人的身體”。[26]也就是說,公司從一開始就被設(shè)定為:代人行使權(quán)利和承擔(dān)責(zé)任。公司代人承擔(dān)責(zé)任的方式是為它的股東提供有限責(zé)任。有限責(zé)任意味著股東可以不對合同上約定的公司義務(wù)承擔(dān)責(zé)任,也不用為公司對第三方的非故意侵權(quán)行為承擔(dān)責(zé)任,因為這些責(zé)任由“人的替身”——公司承擔(dān)。以此觀之,公司是天生的責(zé)任主體。
那么,是否可以成立專門的公司為AV承擔(dān)責(zé)任呢?我認(rèn)為不但可以,而且理應(yīng)如此。既然AV的責(zé)任歸屬問題源于目前社會上沒有一個可與自動駕駛集體行動者相匹配的責(zé)任主體,而公司恰是代人行使權(quán)利和承擔(dān)責(zé)任的主體,則有必要成立這樣一個公司——最好名為“AV安全公司”(原因待下文詳述)。成立社會組織,從而將抽象的集體行動者具體化,這是我們社會的普遍做法。例如,演唱組合是由個體演唱者組成的集體行動者,其中有的可選擇獨立發(fā)展,成立公司代表自己,直接對自己的行為負(fù)責(zé)。同樣,AV安全公司代表自動駕駛集體行動者,直接對AV的駕駛行為負(fù)責(zé)。
AV安全公司應(yīng)該至少由制造商、擁有者、使用者與AV自身等成員組成。這也是AV安全公司與一般公司不同的地方:一般公司的股東自愿加入公司,而AV安全公司的成員卻是被強制加入。這種強制性應(yīng)該由法律保證,因此,將來需要制定這樣的法律:制造商在生產(chǎn)AV前、擁有者在購買AV前、使用者在使用AV前,必須加入AV安全公司;而AV在銷售前也必須在一家AV安全公司注冊。強制成員加入的依據(jù)是,其明知自己所參與的行為(即自動駕駛)具有潛在風(fēng)險,仍然參與其中:擁有者和使用者為了享受AV所帶來的便利選擇接受AV所帶來的風(fēng)險;制造商為了利潤選擇將有潛在風(fēng)險的產(chǎn)品推向市場。既然如此,他們就需為自己的選擇所帶來的風(fēng)險承擔(dān)責(zé)任。此外,AV也有責(zé)任,因為它是自主行動者,是駕駛行為的直接執(zhí)行者。因此,AV安全公司必須至少包含以上四類行動者,如此才算得上是合理的歸責(zé)對象,才可以填補責(zé)任空缺。
此外,AV安全公司還可以解決懲罰空缺問題。在很多國家(包括中國和美國)的民事法律中,公司可以是被懲罰的對象。佩蒂特在其討論公司責(zé)任的論文中提及這樣一個案例:1987年3月6日,自由企業(yè)先驅(qū)號渡輪在駛離港口不久后傾覆,造成將近200人溺亡的悲劇。官方問訊發(fā)現(xiàn),渡輪公司的管理非常混亂,常規(guī)檢查和維護都非常差。但法庭卻沒有懲罰任何人,因為沒有發(fā)現(xiàn)公司或船上的哪個人犯了值得懲罰的“大錯”。[27]AV也有可能發(fā)生類似情形:如果調(diào)查發(fā)現(xiàn)所有行動者都沒有“大錯”,那么懲罰就落實并終止于AV安全公司。這個時候,AV安全公司就像保險公司一樣,只受經(jīng)濟懲罰。如果調(diào)查發(fā)現(xiàn)某個行動者,比如程序員,犯了明顯錯誤,那么就應(yīng)該讓他接受懲罰。不管是哪種情況,從法律角度看,關(guān)鍵在于確認(rèn)誰有過錯。然而,對自動駕駛來說,這通常不是一件容易的事。自動駕駛是包括設(shè)計者、程序員、生產(chǎn)者、擁有者、使用者在內(nèi)的眾多行動者相互作用的結(jié)果,在它們之間分配責(zé)任存在“多只手難題”(problem of many hands)。同時,AV涉及多種不同技術(shù),包括軟件和硬件,且均對AV的駕駛行為有不同程度的因果貢獻,因此在它們之間分配責(zé)任又存在“多種東西難題”(problem of many things)。[28]要填補懲罰空缺,首先要解決這兩個問題。
AV安全公司的一個重要任務(wù)就是為責(zé)任分配問題提供一個可行的技術(shù)方案。方案大致為:AV安全公司開發(fā)一個標(biāo)準(zhǔn)化的安全包,并要求所有AV智能系統(tǒng)都必須接入安全包才能投放市場。安全包應(yīng)包含一個因果推理模塊,可對實際因果關(guān)系(actual causality)進行追溯。實際因果關(guān)系不同于類型因果關(guān)系(type causality):前者是由果推因,后者則是由因推果。以珀爾(Judea Pearl)和哈爾彭(Joseph Halpern)為代表的人工智能學(xué)者已經(jīng)開發(fā)出有應(yīng)用價值的實際因果關(guān)系推理系統(tǒng),[29]AV安全公司可以用它來追查因果責(zé)任。此外,安全包還應(yīng)包含一個監(jiān)測模塊,負(fù)責(zé)記錄AV智能系統(tǒng)接收到的所有指令、升級情況以及關(guān)鍵運行數(shù)據(jù),并定期對智能系統(tǒng)進行測試。AV的定期測試就像普通汽車的年檢一樣,十分必要。這是因為,具有自主學(xué)習(xí)能力的智能系統(tǒng)與一般軟件系統(tǒng)大不一樣。一般軟件系統(tǒng)的信息儲存在內(nèi)部網(wǎng)絡(luò)中,可直接提取出來進行分析。但是,智能系統(tǒng)的信息是以隱性的方式儲存在神經(jīng)網(wǎng)絡(luò)中,無法直接提取,只能通過應(yīng)用測試模式激發(fā)其輸出方式,進而了解其所包含的信息和響應(yīng)模式。定期測試可以告訴我們智能系統(tǒng)的進化歷史和進化水平,再結(jié)合AV的關(guān)鍵運行數(shù)據(jù),就有可能推斷出引發(fā)事故的主要原因。以上所有數(shù)據(jù)都應(yīng)該用區(qū)塊鏈技術(shù)進行保護,以確保其不會因AV的損壞而丟失、不會被篡改,并且可以追溯。[30]有了這些制度上和技術(shù)上的保障,“多只手難題”和“多種東西難題”在多數(shù)情況下就能得以解決。
探討至此,懲罰空缺問題已可以獲得解決。當(dāng)AV安全公司確定所有行動者都無重大過失時,懲罰落實并終止于AV安全公司。當(dāng)AV發(fā)現(xiàn)某個人類行動者有重大過失時,人類行動者就應(yīng)該接受懲罰。例如,某個程序員惡意植入一段不良代碼,而那段代碼直接或間接導(dǎo)致了事故,則程序員可能要負(fù)刑事責(zé)任。再比如,乘客為了早一點到達目的地(某個醫(yī)院),對AV謊稱要送危重病人去醫(yī)院,導(dǎo)致AV進入緊急模式而引發(fā)傷亡事故,則乘客可能要負(fù)刑事責(zé)任。還有一種情況,即AV安全公司確定AV有重大過失,比如它做了一個錯誤決定,則AV應(yīng)該接受懲罰。那么,如何理解對AV的懲罰呢?這需要我們從“向后看”的視角轉(zhuǎn)換到“向前看”的視角。以“向后看”的視角,把懲罰當(dāng)作是對過去錯誤的當(dāng)然報復(fù),這是一種過時的想法。更為合理的當(dāng)代看法是,懲罰的目的是讓行動者產(chǎn)生將來避免此類行為的動機。[31]因此,應(yīng)采取“向前看”的視角,對AV的懲罰應(yīng)該著眼于其未來的響應(yīng)模式,具體措施包括但不限于降速、強制學(xué)習(xí)、銷毀等。AV安全公司應(yīng)該開發(fā)相關(guān)技術(shù)來保證這些措施得以有效執(zhí)行。
結(jié)語
AV的責(zé)任歸屬問題不同于當(dāng)前的焦點議題——倫理問題。倫理問題關(guān)注AV應(yīng)該如何做出道德上負(fù)責(zé)任的行動。比如,在類似于電車難題的倫理困境中,AV該如何決策?這類討論固然重要,卻不免受限于方法論的個體主義,即只關(guān)心某一個個體應(yīng)該怎么做。而實際上,AV的相關(guān)問題常常是集體決定或集體行動的問題,而非個體依據(jù)其各自有理由看重的東西所做出的個體決定的問題。責(zé)任歸屬問題屬于集體決定或集體行動的問題,具有內(nèi)在的法律維度和政治維度,對它的研究需要突破方法論個體主義的限制,從觀念、法律、制度多個視角進行綜合考慮。
(本文系青島市社會科學(xué)規(guī)劃研究項目“區(qū)塊鏈的哲學(xué)問題研究”的成果,項目編號為:QDSKL1901022)
注釋
[1]National Highway Traffic Safety Administration (NHTSA), "Critical Reasons for Crashes Investigated in the National Motor Vehicle Crash Causation Survey", Traffic Safety Facts, 2018, https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812506.
[2]Jason Borenstein, et al., "Self-driving Cars: Ethical Responsibilities of Design Engineers", IEEE Technology and Society Magazine, 2017, 36 (2), pp. 67-75.
[3]James Moor, "Why We Need Better Ethics for Emerging Technologies", Ethics and Information Technology, 2005, 7 (3), pp. 111-119.
[4]SAE International, "Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-road Motor Vehicles J3016", 2016, http://standards.sae.org/j3016_201609/.
[5][31]Matthew Talbert, "Moral Responsibility", The Stanford Encyclopedia of Philosophy (Winter 2019 Edition), Edward Zalta (eds.), URL =
[6]Sabine Gless, et al., "If Robots Cause Harm, Who Is to Blame? Self-driving Cars and Criminal Liability", New Criminal Law Review, 2016, 19 (3), pp. 412-436.
[7]Susanne Beck, "Dealing with Diffusion of Legal Responsibility: The Case of Robotics", in Fiorella Battaglia, et al. (ed.), Rethinking Responsibility in Science and Technology, Pisa: Pisa University Press, 2014, pp. 167-181.
[8]Andreas Matthias, "The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata", Ethics and Information Technology, 2004, 6 (3), pp. 175-183.
[9][10][16][23][24]Sven Nyholm, "Attributing Agency to Automated Systems: Reflections on Human-Robot Collaborations and Responsibility-Loci", Science and Engineering Ethics, 2018, 24 (4), pp. 1201-1219.
[11]Mark Coeckelbergh, "Responsibility and the Moral Phenomenology of Using Self-Driving Cars", Applied Artificial Intelligence, 2016, 30 (8), pp. 748-757.
[12][17]John Danaher, "Robots, Law and the Retribution Gap", Ethics and Information Technology, 2016, 18 (4), pp. 299-309.
[13]Ray Kurzweil, The Singularity Is Near: When Humans Transcend Biology, New York: Penguin, 2005, p. 125.
[14]Sven Nyholm, Humans and Robots: Ethics, Agency, and Anthropomorphism, New York: Rowman & Littlefield Publishers, 2020, p. 2.
[15]“Robot”一詞最早出現(xiàn)于捷克作家恰佩克(Karel Capek)創(chuàng)作的劇作《羅素姆通用機器人》。羅素姆機器人被創(chuàng)造出來為人類服務(wù)?!癛obot”源于捷克語“Robota”,后者的意思是“奴役”或“強制勞動”。
[18]Tesla, "A Tragic Loss", 2016, blogpost at https://www.tesla.com/blog/tragic-loss.
[19][20]Philip Pettit, "The Reality of Group Agents", Philosophy of the Social Sciences: Philosophical Theory and Scientific Practice, New York: Cambridge University Press, 2009, pp. 67-91.
[21]US Department of Defense Science Board, "The Role of Autonomy in DoD Systems", 2012, https://fas.org/irp/agency/dod/dsb/autonomy.pdf.
[22]John Searle, "Collective Intentions and Actions", in Philip Cohen et al. (ed.), Intentions in Communication, Cambridge: Bradford Books, MIT press, 1990, p. 403.
[25]Alexander Hevelke and Julian Nida-Rümelin, "Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis", Science and Engineering Ethics, 2015, 21 (3), pp. 619-30.
[26]https://en.wikipedia.org/wiki/Corporation.
[27]Philip Pettit, "Responsibility Incorporated", Ethics, 2007, 117 (2), pp. 171-201.
[28]Mark Coeckelbergh, "Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability", Science and Engineering Ethics, 2020, 26 (4), pp. 2051-2068.
[29]Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, New York: Basic Books, 2018; Joseph Halpern, Actual Causality, Cambridge: The MIT Press, 2016.
[30]區(qū)塊鏈?zhǔn)怯妹艽a學(xué)的方式鏈接并保護起來的一串區(qū)塊,它具有無需信任、去中心化、難以篡改、可稽核性等優(yōu)秀技術(shù)特性。參見Melanie Swan, Blockchain: Blueprint for a New Economy, Cambridge: O'Reilly Media, Inc., 2015.
責(zé) 編/桂 琰(見習(xí))