陳禹衡
伴隨人工智能技術(shù)的高速發(fā)展,自動(dòng)駕駛汽車(chē)作為人工智能技術(shù)的具體應(yīng)用成果而大放異彩。蓬勃的人工智能生產(chǎn)力在促進(jìn)自動(dòng)駕駛汽車(chē)產(chǎn)業(yè)進(jìn)一步擴(kuò)張的同時(shí),也激發(fā)了公眾對(duì)自動(dòng)駕駛汽車(chē)處理道德?tīng)?zhēng)議難題的擔(dān)憂(yōu)。傳統(tǒng)的道德?tīng)?zhēng)議難題包括電車(chē)難題(Trolley Problem)(1)“電車(chē)難題”最早由英國(guó)哲學(xué)家菲利帕·福特(Philippa Foot)于1967年提出,是指電車(chē)的鐵軌上站著五個(gè)人,此時(shí)一輛失控的電車(chē)朝他們駛來(lái),若在原軌道上繼續(xù)行駛,電車(chē)將使這五個(gè)人喪失生命。電車(chē)司機(jī)可以選擇使電車(chē)從狹窄軌道轉(zhuǎn)向另一條軌道,那么這五個(gè)人就可以幸免于難,但是另一條鐵軌上也有一個(gè)人。此時(shí),司機(jī)面臨兩難選擇:一是不改道繼續(xù)行駛,使得五人喪生;二是主動(dòng)操作轉(zhuǎn)向另一條軌道,使原本安全的另一人喪生。無(wú)論電車(chē)司機(jī)開(kāi)向哪一條軌道,都會(huì)有人遇害。但是,如何取舍,則會(huì)導(dǎo)致電車(chē)司機(jī)陷入道德困境。當(dāng)電車(chē)變?yōu)樽詣?dòng)駕駛汽車(chē)時(shí),則需要由人工智能系統(tǒng)借助算法做出判斷。Foot P.,“The Problem of Abortion and the Doctrine of the Double Effect,”O(jiān)xford Review,Vol.11,No.5,1967.、隧道難題(Tunnel Problem)(2)“隧道難題”是指當(dāng)乘客坐在一輛行駛在單行道上的自動(dòng)駕駛汽車(chē)上時(shí),汽車(chē)行駛到隧道入口,忽然一個(gè)孩子跑到車(chē)道中間,堵住了隧道的入口。此時(shí),自動(dòng)駕駛車(chē)輛只有兩個(gè)選擇:繼續(xù)行駛撞向孩子,或者轉(zhuǎn)向隧道某一側(cè)的墻壁,從而導(dǎo)致車(chē)上的乘客喪生。Jason M.,“An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.等,這些問(wèn)題在傳統(tǒng)社會(huì)本就難以解決,遑論人工智能技術(shù)的介入增加了問(wèn)題的處理難度。在人工智能時(shí)代,由于人工智能汽車(chē)部分乃至全部剝奪了使用者的駕駛決策權(quán),導(dǎo)致使用者大概率只能任由自動(dòng)駕駛汽車(chē)自身對(duì)交通肇事中的道德?tīng)?zhēng)議難題做出選擇,所以更容易誘發(fā)社會(huì)爭(zhēng)議。有學(xué)者據(jù)此提出,需要在自動(dòng)駕駛汽車(chē)的人工智能系統(tǒng)中植入道德算法,通過(guò)道德算法來(lái)指引自動(dòng)駕駛汽車(chē)做出合理的選擇,以計(jì)算概率的方式來(lái)破解誘發(fā)風(fēng)險(xiǎn)的概率問(wèn)題(3)白惠仁:《自動(dòng)駕駛汽車(chē)的“道德算法”困境》,《科學(xué)學(xué)研究》2019年第1期。。這種全理性架構(gòu)的處理模式具有一定的可行性,但也要面對(duì)道德算法的選擇爭(zhēng)議。
自動(dòng)駕駛汽車(chē)的技術(shù)核心是由算法決定運(yùn)行模式,通過(guò)對(duì)公路交通中可能發(fā)生交通事故的規(guī)模和概率進(jìn)行理性計(jì)算,從而控制車(chē)輛以應(yīng)對(duì)駕駛風(fēng)險(xiǎn)。在自動(dòng)駕駛汽車(chē)行駛過(guò)程中,面對(duì)傳統(tǒng)社會(huì)中的道德?tīng)?zhēng)議難題,需要由算法在行人和使用者之間做出選擇。已有的算法模型主要是基于功利主義和利己主義兩種運(yùn)行邏輯,其中功利主義的算法模型更為公眾所接受。當(dāng)使用者坐在自動(dòng)駕駛汽車(chē)上時(shí),其駕駛的能動(dòng)性就被完全轉(zhuǎn)移到人工智能系統(tǒng)上。(4)Coeckelbergh M.,“Responsibility and the Moral Phenomenology of Using Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.心理測(cè)試結(jié)論顯示,在道德?tīng)?zhēng)議難題中,公眾對(duì)自動(dòng)駕駛的人工智能和傳統(tǒng)駕駛的人腦操作采用了不同的道德評(píng)價(jià)標(biāo)準(zhǔn)。相較于傳統(tǒng)社會(huì)中人類(lèi)的操作標(biāo)準(zhǔn),公眾更希望自動(dòng)駕駛汽車(chē)能做出功利主義取向行為,對(duì)道德算法的功利主義行為評(píng)價(jià)也更高(5)褚華東、李園園、葉君惠等:《個(gè)人—非個(gè)人道德困境下人對(duì)智能機(jī)器道德判斷研究》,《應(yīng)用心理學(xué)》2019年第3期。,所以衍生出了以羅爾斯算法為代表的一系列功利主義算法模型。值得注意的是,雖然公眾表現(xiàn)出了對(duì)功利主義自動(dòng)駕駛汽車(chē)的“偏愛(ài)”,但是當(dāng)涉及自身利益(也就是自身作為使用者)時(shí),其對(duì)于道德算法的功利主義偏好就會(huì)產(chǎn)生反轉(zhuǎn),傾向于讓他人購(gòu)買(mǎi)功利主義算法的汽車(chē),而自己購(gòu)買(mǎi)優(yōu)先保護(hù)車(chē)內(nèi)乘客(自我)的汽車(chē)。(6)趙雷、李園園、葉君惠等:《人對(duì)智能機(jī)器行為的道德判斷:現(xiàn)狀與展望》,《應(yīng)用心理學(xué)》2019年第4期。所以,功利主義的選擇并不一定代表絕大多數(shù)使用者真正的內(nèi)心所想。(7)李偉、華夢(mèng)蓮:《論自動(dòng)駕駛汽車(chē)倫理難題與道德原則自我選擇》,《科學(xué)學(xué)研究》2020年第4期。
對(duì)于算法面對(duì)道德?tīng)?zhēng)議難題時(shí)的選擇,實(shí)際上無(wú)論是利己主義模型還是功利主義模型,都需要從計(jì)算衡量的角度進(jìn)行分析,與其拘泥于算法理論基礎(chǔ)的框架,不如從算法自身特性入手對(duì)爭(zhēng)議難題加以解決。對(duì)于算法模型而言,無(wú)論采用何種理論基礎(chǔ),最終都會(huì)回歸到算法概率計(jì)算的運(yùn)行邏輯上,借助算法的強(qiáng)大算力給出合適方案。以當(dāng)下比較成熟的羅爾斯算法模型為例,在面對(duì)道德?tīng)?zhēng)議難題時(shí),羅爾斯算法采用了“無(wú)知之幕”理論,將公路交通認(rèn)定為原初狀態(tài)(8)約翰·羅爾斯:《正義論》,何懷宏等譯,中國(guó)社會(huì)科學(xué)出版社,2019年,第136頁(yè)。,力求實(shí)現(xiàn)主體收益的最大化,避免純粹利己主義算法模型降低社會(huì)總體的效率。其計(jì)算原理是,利用事故主體(使用者、行人等)與可選操作(轉(zhuǎn)彎、直行等)之間的效用函數(shù)(Utility Function)構(gòu)成一個(gè)笛卡爾積,先在笛卡爾積的映射數(shù)據(jù)集中權(quán)衡出事故主體存活概率的最低收益集,經(jīng)過(guò)循環(huán)窮舉,篩選出將最低收益最大化的操作。如若多種操作收益相同,則使用隨機(jī)數(shù)決定最終操作,從而保障使用者與行人的生存率整體最大,構(gòu)建兩者共生的合作式博弈法,降低使用者對(duì)自動(dòng)駕駛算法安全性的擔(dān)憂(yōu)。(9)陳禹衡:《算法優(yōu)化語(yǔ)境下自動(dòng)駕駛汽車(chē)交通肇事的困境紓解》,《蘇州大學(xué)學(xué)報(bào)(法學(xué)版)》2021年第3期。
鑒于此,自動(dòng)駕駛汽車(chē)道德算法在面對(duì)道德?tīng)?zhēng)議難題時(shí),應(yīng)采用更為公平公正的算法,將自動(dòng)駕駛技術(shù)對(duì)應(yīng)到既有的權(quán)利義務(wù)調(diào)整模式中。(10)駱意中:《法理學(xué)如何應(yīng)對(duì)自動(dòng)駕駛的根本性挑戰(zhàn)?》,《華東政法大學(xué)學(xué)報(bào)》2020年第6期。阿列克西權(quán)衡法則和權(quán)衡公式能夠較為準(zhǔn)確地給出自動(dòng)駕駛汽車(chē)面對(duì)道德?tīng)?zhēng)議難題時(shí)的選擇偏向,在此基礎(chǔ)上通過(guò)利己主義或者功利主義的道德算法做出選擇,因而更容易為公眾所接受。或許有人認(rèn)為通過(guò)阿列克西權(quán)衡公式得出的算法權(quán)衡選項(xiàng)遵循了功利主義算法的“老路”,但實(shí)際上并非如此。因?yàn)椴捎冒⒘锌宋鳈?quán)衡公式作為道德算法的解決框架,是將其置于道德算法的前置環(huán)節(jié),后續(xù)仍然會(huì)采用道德算法模型做出判斷。而不同的理論基礎(chǔ)會(huì)影響阿列克西權(quán)衡公式中的參數(shù)選取,不同的參數(shù)指標(biāo)會(huì)得出不同的結(jié)論,所以阿列克西權(quán)衡公式更多的是提供解決道德?tīng)?zhēng)議難題的框架路徑,并不是直接采用功利主義的道德算法體系。具體的主體權(quán)衡公式的構(gòu)建,需要解決兩個(gè)問(wèn)題:一是對(duì)阿列克西權(quán)衡法則的適用基礎(chǔ)進(jìn)行厘定,基于扎實(shí)的理論架構(gòu)為具體實(shí)踐提供指引;二是對(duì)阿列克西主體權(quán)衡公式的具體框架進(jìn)行創(chuàng)設(shè),結(jié)合人工智能的時(shí)代背景對(duì)原有的阿列克西權(quán)衡公式加以改進(jìn),并且確證其中具體參數(shù)的衡量標(biāo)準(zhǔn),從而以人類(lèi)社會(huì)為中心對(duì)人工智能的算法衡量進(jìn)行解讀。
將阿列克西權(quán)衡公式作為自動(dòng)駕駛汽車(chē)道德?tīng)?zhēng)議難題的解決框架(11)勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》,李旭、沈偉偉譯,清華大學(xué)出版社,2009年,第89頁(yè)。,首先需要明確阿列克西權(quán)衡公式進(jìn)行權(quán)衡的理論基礎(chǔ),即理解并解釋阿列克西權(quán)衡法則(Robert Alexy Abw?gungsgesetz)。阿列克西權(quán)衡法則基于“在某一特定條件下,不能實(shí)現(xiàn)或侵害一種權(quán)益的程度越大,則實(shí)現(xiàn)另一種權(quán)益的重要性必須越高”的理論進(jìn)行展開(kāi)。(12)羅伯特·阿列克西:《論憲法權(quán)利的構(gòu)造》,《法學(xué)家》2009年第5期。在參考不同道德算法模型理論的前提下,阿列克西權(quán)衡法則在選擇行人和使用者的權(quán)益之間加以權(quán)衡,并為后續(xù)道德算法選擇提供分析依據(jù)。
阿列克西權(quán)衡法則秉持“權(quán)益衡量的方法是權(quán)衡”的宗旨(13)羅伯特·阿列克西:《論權(quán)衡與涵攝——從結(jié)構(gòu)進(jìn)行比較》,劉葉深譯,《法哲學(xué)與法社會(huì)學(xué)論叢》2006年第2期。,在不同的主體類(lèi)型之間進(jìn)行權(quán)衡的最終目的,是通過(guò)對(duì)不同要素的分析,衡量出對(duì)目標(biāo)主體類(lèi)型權(quán)益的最優(yōu)配置。參考經(jīng)濟(jì)學(xué)上追求的“帕累托最優(yōu)” (Pareto-Optimality)(14)“帕累托最優(yōu)”是指經(jīng)濟(jì)學(xué)上的一種理想的資源分配狀態(tài),當(dāng)分配主體和可分配資源整體固定時(shí),在分配狀態(tài)的切換過(guò)程中,在沒(méi)有使任何主體的境況變壞的前提下,使得至少一個(gè)主體的境況變得更好即可。而當(dāng)“帕累托最優(yōu)”達(dá)成后,則在該狀態(tài)下沒(méi)有一個(gè)人能夠在不損害其他人利益的前提下,使自身利益得到改進(jìn),即人們沒(méi)有共同改進(jìn)各自利益機(jī)會(huì)的狀態(tài),資源的分配已經(jīng)達(dá)到最大優(yōu)化。參見(jiàn)李紹榮:《西方經(jīng)濟(jì)學(xué)最優(yōu)解概念新思考——納什均衡、帕累托最優(yōu)與一般均衡三大最優(yōu)解透視》,《經(jīng)濟(jì)學(xué)動(dòng)態(tài)》2000年第4期。,阿列克西權(quán)衡法則所追求的目的也是所謂的“最優(yōu)化理念” (Idea of Optimization)。權(quán)益的配置當(dāng)以社會(huì)福祉最大化為鵠的,這一點(diǎn)和自動(dòng)駕駛汽車(chē)所秉持的理念具有內(nèi)在的一致性。自動(dòng)駕駛汽車(chē)技術(shù)的進(jìn)步和革新,本質(zhì)上是為了提高自動(dòng)駕駛汽車(chē)的行駛安全性,所以需要規(guī)避風(fēng)險(xiǎn)并保障安全。其必須堅(jiān)持“最小傷害原則”,即一方面要盡可能使自己所受的傷害最小,另一方面也應(yīng)通過(guò)一定措施減少對(duì)他者的傷害,實(shí)現(xiàn)整體效益的最優(yōu)。(15)高兆明、高昊:《信息安全風(fēng)險(xiǎn)防范與算法法則的價(jià)值原則——自動(dòng)駕駛汽車(chē)研發(fā)的兩個(gè)實(shí)踐哲學(xué)問(wèn)題》,《哲學(xué)動(dòng)態(tài)》2017年第9期。“帕累托最優(yōu)”在這里可以解釋為兩個(gè)層面:第一個(gè)層面是追求被自動(dòng)駕駛汽車(chē)所保護(hù)的主體所受的損害最小。無(wú)論是行人還是使用者,一旦被保護(hù),其受損的利益都應(yīng)當(dāng)降至最小,這也是適用阿列克西權(quán)衡法則的目的。第二個(gè)層面是盡可能保障被犧牲主體的權(quán)利。自動(dòng)駕駛汽車(chē)處理道德?tīng)?zhēng)議難題的優(yōu)勢(shì)在于,其脫離了納什均衡所可能導(dǎo)致的因過(guò)分追求一方利益而導(dǎo)致整體利益降低的困局(16)錢(qián)弘道:《法律的經(jīng)濟(jì)分析》,清華大學(xué)出版社,2006年,第231頁(yè)。,將盡可能地保障被犧牲者的利益,這也是公眾能夠接受自動(dòng)駕駛汽車(chē)的原因所在,即提供一個(gè)更為均衡且更加科學(xué)的措施以解決交通肇事難題。公眾在不涉及自身時(shí)會(huì)追求對(duì)多數(shù)人生命的保護(hù),而在涉及自身時(shí)則傾向于對(duì)自身的保護(hù)(17)Bonnefon J. F., Shariff A., and Rahwan I.,“The Social Dilemma of Autonomous Vehicles,”Science,Vol.352,No.6293,2016.,在這種悖論環(huán)境下,只有推崇“帕累托最優(yōu)”,才能推動(dòng)自動(dòng)駕駛汽車(chē)為公眾所接受的進(jìn)程。
部分學(xué)者所推崇的“卡爾多-??怂剐省?(Kaldor-Hicks Efficiency)理念,認(rèn)為即便采取某項(xiàng)措施也會(huì)導(dǎo)致一些人受益而另一些人受害,但只要總體的社會(huì)利益(或邊際利益)高于總體的社會(huì)成本(或邊際成本),那么就是有效率的。(18)許可:《數(shù)據(jù)爬取的正當(dāng)性及其邊界》,《中國(guó)法學(xué)》2021年第2期。本文則認(rèn)為,這并不適用于自動(dòng)駕駛的算法衡量。因?yàn)椤翱柖?希克斯效率”實(shí)際上建立在假定受益者“有可能”補(bǔ)償受害者的基礎(chǔ)上,但是在面對(duì)道德?tīng)?zhēng)議難題時(shí),很難想象兩者間會(huì)相互補(bǔ)償。尤其是對(duì)于行人而言,其難以接受因?yàn)樽詣?dòng)駕駛汽車(chē)自身的原因?qū)е陆煌ㄊ鹿屎?,在選擇犧牲使用者時(shí)應(yīng)當(dāng)由行人進(jìn)行賠償,而更傾向于認(rèn)為是自動(dòng)駕駛汽車(chē)的問(wèn)題導(dǎo)致使用者陷入困境,因而使用者應(yīng)當(dāng)自負(fù)其責(zé)。在這種語(yǔ)境下,適用“卡爾多-??怂剐省崩砟铒@然難以為一般公眾所接受。在實(shí)際適用中, “卡爾多-希克斯效率”理念中只要“假想的再分配”存在即可的適用邏輯也存在欠缺。 例如以下這種情況:當(dāng)自動(dòng)駕駛汽車(chē)犧牲使用者而保護(hù)行人時(shí),采用“卡爾多-??怂剐省眲t使用者應(yīng)該受到補(bǔ)償,補(bǔ)償后總體的社會(huì)利益達(dá)到了最大化;當(dāng)自動(dòng)駕駛汽車(chē)犧牲了行人而保護(hù)了使用者,那么事后通過(guò)補(bǔ)償行人,總體社會(huì)利益也會(huì)達(dá)到最大化。也就是說(shuō),自動(dòng)駕駛汽車(chē)無(wú)論做出何種選擇,只要經(jīng)過(guò)事后重新分配就都實(shí)現(xiàn)了所謂的“改善”,保護(hù)何種主體就沒(méi)有定論。如此一來(lái),自動(dòng)駕駛汽車(chē)會(huì)因?yàn)闊o(wú)所適從進(jìn)而產(chǎn)生選擇沖突。
總之,追求“帕累托最優(yōu)”能夠?yàn)樽詣?dòng)駕駛汽車(chē)在適用阿列克西權(quán)衡公式進(jìn)行具體運(yùn)算時(shí)提供準(zhǔn)確的價(jià)值指引。道德算法可以借助其強(qiáng)大的算力,在短時(shí)間內(nèi)針對(duì)復(fù)雜的路況得出運(yùn)算結(jié)果,而這一運(yùn)算結(jié)果也能夠?yàn)榈赖滤惴ǖ淖罱K選擇提供參照。圍繞著“帕累托最優(yōu)”的阿列克西權(quán)衡法則,才是道德算法良好運(yùn)行的基礎(chǔ),使得自動(dòng)駕駛汽車(chē)能夠通過(guò)數(shù)據(jù)訓(xùn)練而構(gòu)建起決策邏輯。(19)馮玨:《自動(dòng)駕駛汽車(chē)致?lián)p的民事侵權(quán)責(zé)任》,《中國(guó)法學(xué)》2018年第6期。
運(yùn)用權(quán)衡法則的最終目的是通過(guò)論證得出最優(yōu)化的選擇,也就是條件式優(yōu)先關(guān)系(A conditional relation of precedence)。(20)羅伯特·阿列克西:《法 理性 商談:法哲學(xué)研究》,朱光、雷磊譯,中國(guó)法制出版社,2011年,第295頁(yè)。對(duì)于自動(dòng)駕駛汽車(chē)而言,確定條件式優(yōu)先關(guān)系能夠幫助其更加精準(zhǔn)地確定需要優(yōu)先保護(hù)的主體,并且依照既定程序解決算法面對(duì)的道德?tīng)?zhēng)議難題(21)王琳:《論法律原則的性質(zhì)及其適用——權(quán)衡說(shuō)之批判與詮釋說(shuō)之辯護(hù)》,《法制與社會(huì)發(fā)展》2017年第2期。,和算法的程序運(yùn)行邏輯保持一致。權(quán)衡法則要求一個(gè)權(quán)利或原則不被滿(mǎn)足或被侵犯的程度越大,則與之沖突的另一個(gè)權(quán)利或原則的重要性程度應(yīng)該隨之增大。(22)羅伯特·阿列克西:《法:作為理性的制度化》,雷磊編譯,中國(guó)法制出版社,2012年,第150頁(yè)。這個(gè)權(quán)衡法則使每一個(gè)衡量過(guò)程分為三個(gè)步驟:第一步是確定第一個(gè)原則不滿(mǎn)足或被侵犯的程度,第二步是確定滿(mǎn)足與之競(jìng)爭(zhēng)的原則的重要性程度,第三步是對(duì)兩者進(jìn)行比較并做出選擇。在衡量過(guò)程中,應(yīng)該堅(jiān)持權(quán)衡法則的三項(xiàng)子原則,即適當(dāng)性原則(principle of appropriateness)、必要性原則(principle of necessity)和狹義上的比例原則(principle of proportionality in a narrow sense)(23)徐繼強(qiáng):《衡量的法理——各種利益衡量論述評(píng)》,《法律方法》2009年第2期。,并通過(guò)其得出條件式優(yōu)先關(guān)系加以適用。
首先,通過(guò)衡量法則得出條件式優(yōu)先關(guān)系,需要堅(jiān)持適當(dāng)性原則。適當(dāng)性原則要求當(dāng)自動(dòng)駕駛汽車(chē)面對(duì)是保護(hù)行人還是保護(hù)使用者的選擇出現(xiàn)沖突時(shí),如若某一措施M(如將自動(dòng)駕駛汽車(chē)撞向隧道)試圖以侵害使用者權(quán)益的方式來(lái)保護(hù)行人,而實(shí)際上適用M并不能實(shí)現(xiàn)對(duì)行人的保護(hù)目的,則不必適用M措施。除此以外,如果有可能在不損害行人的前提下放棄M措施,那么為了使行人和使用者的利益最大化,則應(yīng)該放棄M措施。(24)雷磊:《基本權(quán)利、原則與原則權(quán)衡——讀阿列克西〈基本權(quán)利論〉》,《法律方法》2011年第1期。堅(jiān)持適當(dāng)性原則,對(duì)于道德算法的決策而言,能夠在決策的基礎(chǔ)階段對(duì)反應(yīng)措施進(jìn)行判斷,避免過(guò)激的反應(yīng)措施在處理道德?tīng)?zhēng)議難題時(shí)“過(guò)度”保護(hù)一方而忽視另一方的權(quán)利。在行人和使用者的權(quán)利保護(hù)區(qū)分上,應(yīng)該盡可能避免對(duì)一方的過(guò)度傷害,力圖實(shí)現(xiàn)帕累托最優(yōu)的結(jié)果。
其次,為了實(shí)現(xiàn)帕累托最優(yōu)的結(jié)果,需要堅(jiān)持必要性原則,對(duì)道德算法所可能采用的各種措施進(jìn)行比較分析。以道德算法處理隧道難題為例,在面對(duì)撞向隧道中的其他車(chē)輛以制動(dòng)的措施M1和撞向隧道犧牲使用者的措施M2的選擇時(shí),雖然M1和M2這兩個(gè)措施都可以實(shí)現(xiàn)對(duì)行人的保護(hù),但是M1需要撞向隧道內(nèi)的其他車(chē)輛,而M2僅需要犧牲自動(dòng)駕駛汽車(chē)內(nèi)的使用者,在同樣實(shí)現(xiàn)了對(duì)行人保護(hù)的前提下,就沒(méi)必要采用M1的措施。在自動(dòng)駕駛汽車(chē)的運(yùn)行過(guò)程中,算法在進(jìn)行權(quán)衡時(shí),對(duì)于同一目標(biāo)可能有多種實(shí)現(xiàn)路徑,而采用何種實(shí)現(xiàn)路徑,則應(yīng)該采取必要性原則進(jìn)行判斷,將整體損失降至最低,實(shí)現(xiàn)社會(huì)整體利益的增量最大。(25)孫保學(xué):《自動(dòng)駕駛汽車(chē)事故的道德算法由誰(shuí)來(lái)決定》,《倫理學(xué)研究》2018年第2期。
最后,為了避免反復(fù)計(jì)算和比較不同主體的保護(hù)措施導(dǎo)致算法的算力被無(wú)端消耗,需要在不同措施之間劃定分界線(xiàn)。具體而言,就是采用狹義上的比例原則,作為權(quán)衡法則適用中“對(duì)某一原則的侵害越強(qiáng),另一個(gè)原則的重要性程度就應(yīng)當(dāng)越高”的結(jié)果底線(xiàn)。底線(xiàn)的選擇需要比較不同主體之間受保護(hù)程度和被損害程度的差異。比如當(dāng)一個(gè)措施M對(duì)使用者的受保護(hù)程度造成損害時(shí),其損害的程度越高,則相應(yīng)的行人的受保護(hù)程度也應(yīng)該越高;相反,如果措施M對(duì)使用者造成了一定的損害,卻并沒(méi)有帶來(lái)對(duì)行人的有效保護(hù),比例分配就被打破,M措施就是無(wú)效措施而不應(yīng)該被采用。采用狹義上的比例原則能夠有效地解決權(quán)衡中的分配不均衡現(xiàn)象,避免單一措施的使用范圍超過(guò)界線(xiàn),實(shí)現(xiàn)條件式最優(yōu)的最終衡量結(jié)果。
總之,對(duì)于自動(dòng)駕駛汽車(chē)而言,“遵守這些規(guī)則盡管不能保證一切結(jié)論有百分之百的確實(shí)性,但仍然可以把這些結(jié)論稱(chēng)為理性的結(jié)論”(26)羅伯特·阿列克西:《法律論證理論 作為法律證立理論的理性論辯理論》,舒國(guó)瀅譯,商務(wù)印書(shū)館,2019年,第223頁(yè)。。確定條件優(yōu)先式關(guān)系,能夠?yàn)樗惴ㄌ峁┖侠淼臎Q策,并且以此為基礎(chǔ)構(gòu)建自動(dòng)駕駛汽車(chē)面對(duì)道德?tīng)?zhēng)議難題時(shí)的解決框架。權(quán)衡法則具體的子原則會(huì)以參數(shù)的形式在阿列克西主體權(quán)衡公式中進(jìn)一步體現(xiàn),最終實(shí)現(xiàn)算法決策的整體最佳結(jié)果。(27)彭誠(chéng)信:《從法律原則到個(gè)案規(guī)范——阿列克西原則理論的民法應(yīng)用》,《法學(xué)研究》2014年第4期。
自動(dòng)駕駛技術(shù)的發(fā)展改變了人們對(duì)公共交通事故關(guān)注的重心。傳統(tǒng)交通肇事的核心問(wèn)題是法律層面的責(zé)任分配與承擔(dān),而自動(dòng)駕駛汽車(chē)的決策來(lái)源是預(yù)先設(shè)置好的算法程序,并通過(guò)其處理邏輯來(lái)解決道德?tīng)?zhēng)議難題。(28)崔俊杰:《自動(dòng)駕駛汽車(chē)準(zhǔn)入制度:正當(dāng)性、要求及策略》,《行政法學(xué)研究》2019年第2期。因此,自動(dòng)駕駛汽車(chē)交通肇事的核心問(wèn)題是在道德層面對(duì)不同主體的生命安全權(quán)衡分配,需要基于道德算法的衡量解決這一問(wèn)題。(29)Tasioulas J.,“First Steps Towards an Ethics of Robots and Artificial Intelligence,”Journal of Practical Ethics,Vol.7,No.1,2019.在具體的衡量選擇上,為了使權(quán)衡法則的使用理性化、定量化,可以改造阿列克西權(quán)重公式(Robert Alexy Weight Formula)進(jìn)行衡量。阿列克西權(quán)重公式是阿列克西權(quán)衡法則的具象化體現(xiàn),使權(quán)衡法則更具操作性。(30)呂潤(rùn)生:《個(gè)案情形下的法律規(guī)避如何判定?——基于阿列克西法律原則理論的研究》,《法理——法哲學(xué)、法學(xué)方法論與人工智能》2018年第1期。將阿列克西權(quán)衡法則的理念用于自動(dòng)駕駛汽車(chē)算法模型解決道德?tīng)?zhēng)議難題,能夠使結(jié)果相對(duì)更具有客觀性。(31)許可:《數(shù)據(jù)爬取的正當(dāng)性及其邊界》,《中國(guó)法學(xué)》2021年第2期。
在自動(dòng)駕駛汽車(chē)算法適用阿列克西法則對(duì)權(quán)重公式進(jìn)行改造時(shí),一方面,應(yīng)該堅(jiān)持基礎(chǔ)的權(quán)衡法則理念,對(duì)其運(yùn)行機(jī)理進(jìn)行剖析并融入算法系統(tǒng)中;另一方面,需要結(jié)合人工智能的技術(shù)背景對(duì)公式加以解釋?zhuān)怀鰴?quán)衡公式的人工智能因素,增強(qiáng)道德算法的計(jì)算和決策能力。(32)陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,《比較法研究》2018年第2期。
初始的阿列克西權(quán)重公式的基本原理如下:
Wi,j=Ii·Wi·Ri/Ij·Wj·Rj(33)Alexy R.,“Formal Principles: Some Replies to Critics,”International Journal of Constitutional Law,Vol.12,No.3,2014.
在阿列克西權(quán)重公式中,Wi,j是主體i的對(duì)應(yīng)權(quán)益Pi與主體j的對(duì)應(yīng)權(quán)益Pj的具體分量之比,在相同的條件C下,如果Wi,j大于1, 則表明Pi優(yōu)先于Pj,Pi作為權(quán)益更值得保護(hù);如果Wi,j小于1,則表明 Pj比Pi更值得保護(hù);如果Wi,j等于1,則兩者間的權(quán)重相互抵消。在具體參數(shù)上,Ii是指實(shí)現(xiàn)權(quán)益Pj會(huì)對(duì)權(quán)益Pi造成的損害程度(Interference),Ij亦然。Wi和Wj分別是指與具體條件C無(wú)關(guān)的Pi及Pj自身所具有的抽象重要程度(Weight)。Ri是指在具體條件C下,采取措施實(shí)現(xiàn)權(quán)益Pi或者未實(shí)現(xiàn)另一種權(quán)益Pj在規(guī)范上及經(jīng)驗(yàn)上的確定性程度(Reliability),也被稱(chēng)為認(rèn)知確定性。出于技術(shù)性考量的因素,阿列克西用輕度(l)、中度(m)、重度(s)三個(gè)刻度來(lái)分別描述I、W、R的程度,為了得出Wi,j的具體數(shù)值,則必須對(duì) l、m、s 進(jìn)行數(shù)學(xué)賦值,在“邊際替代率遞減規(guī)律”(Law of Diminishing Marginal Rate of Substitution)的作用下,當(dāng)算法偏向于保護(hù)一種權(quán)益時(shí),其在邊際上損害另一種權(quán)益的正當(dāng)性就會(huì)逐漸下降,一般在規(guī)范或者經(jīng)驗(yàn)層面對(duì)確定性的差異排列是從“確定”“可成立”“非明顯錯(cuò)誤”一路下降,所以對(duì)l、m、s的賦值分別是2-2、2-1、20。(34)羅伯特·阿列克西:《法:作為理性的制度化》,雷磊編譯,中國(guó)法制出版社,2012年,第148-167頁(yè)。通過(guò)阿列克西權(quán)重公式,能夠有效地對(duì)各種權(quán)益進(jìn)行衡量,幫助“司法裁判根據(jù)相關(guān)利益在相關(guān)情況下的‘分量’來(lái)‘權(quán)衡’處于競(jìng)爭(zhēng)之中的權(quán)利或法益,從而獲得決定”(35)卡爾·拉倫茨:《法學(xué)方法論》,黃家鎮(zhèn)譯,商務(wù)印書(shū)館,2020年,第509頁(yè)。。
當(dāng)自動(dòng)駕駛汽車(chē)面對(duì)道德?tīng)?zhēng)議難題的選擇時(shí),其算法模型在衡量使用者和行人的保護(hù)權(quán)益價(jià)值時(shí),需要基于自動(dòng)駕駛汽車(chē)制動(dòng)水平、公眾對(duì)自動(dòng)駕駛汽車(chē)的期待、自動(dòng)駕駛汽車(chē)的行車(chē)安全等實(shí)際情況,進(jìn)行現(xiàn)實(shí)的價(jià)值衡量,并改造阿列克西權(quán)重公式進(jìn)行適用。在具體參數(shù)中:u是指使用者,p是指行人,具體條件A(Artificial vehicles)是指人工智能汽車(chē)的使用背景、技術(shù)指標(biāo)等數(shù)據(jù)。Wu, p是使用者的優(yōu)先保護(hù)權(quán)益Pu相對(duì)于行人的優(yōu)先保護(hù)權(quán)益Pp的具體分量,也就是道德算法模型在最終權(quán)衡時(shí)的決定性指標(biāo)。Iu是指因?yàn)楸U闲腥藀的權(quán)益Pp所可能對(duì)使用者u的權(quán)益Pu造成的損害程度。這里I作為衡量指標(biāo),主要受自動(dòng)駕駛汽車(chē)的制動(dòng)能力、安全系數(shù)等機(jī)械數(shù)據(jù)的影響。自動(dòng)駕駛汽車(chē)的安全裝置越完善,那么對(duì)使用者u的保障程度則越高,在出現(xiàn)交通事故時(shí),保護(hù)行人p對(duì)使用者u的影響越小。而具體的參數(shù)選取,則需要生產(chǎn)者在自動(dòng)駕駛汽車(chē)出廠時(shí)進(jìn)行賦值。Wu是指與具體條件A無(wú)關(guān)的Pu自身在整個(gè)交通肇事中所具有的權(quán)益的抽象重要程度,這里權(quán)益的抽象重要程度不能因?yàn)榫唧w的個(gè)體u或者p的個(gè)人特征而改變,即使u是著名的科學(xué)家,也只能視為一般的成年人進(jìn)行賦值。因?yàn)樾枰獏⒖汲橄蟮闹匾潭?,所以需要將個(gè)體分為兒童、老人、成年人等類(lèi)別分開(kāi)賦值,對(duì)兒童和老人應(yīng)該提高保障權(quán)重(36)錢(qián)圓媛:《“道德機(jī)器”的道德偏差與無(wú)人駕駛技術(shù)的倫理設(shè)計(jì)》,《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2021年第3期。,并且進(jìn)行不同主體的賦值累加,得出u和p的重要程度Wu和Wp,最終放入公式中進(jìn)行比較計(jì)算。認(rèn)知確定性Ru是指在具體條件A下,采取措施實(shí)現(xiàn)權(quán)益Pu或者未實(shí)現(xiàn)另一種權(quán)益Pp在規(guī)范上及經(jīng)驗(yàn)上的確定性程度,這種確定性程度R和自動(dòng)駕駛的算法運(yùn)行邏輯有關(guān),在充分參考了A條件下自動(dòng)駕駛汽車(chē)的技術(shù)衡量指標(biāo)之后,選用不同的算法模型在最終保障u和p的確定性程度上存在差異。比如選擇利己主義道德算法模型,對(duì)于保護(hù)u的確定性程度就會(huì)顯著上升,最終體現(xiàn)為衡量公式上的差異。
整合過(guò)后的自動(dòng)駕駛汽車(chē)中不同主體權(quán)益保護(hù)的權(quán)衡公式如下:
Wu,p=Iu·Wu·Ru/Ip·Wp·Rp
道德算法中的權(quán)衡公式將不同主體對(duì)應(yīng)的權(quán)利保障影響要素都涵括在內(nèi),同時(shí)避免了不同要素間的相互影響。(37)呂潤(rùn)生:《個(gè)案情形下的法律規(guī)避如何判定?——基于阿列克西法律原則理論的研究》,《法理——法哲學(xué)、法學(xué)方法論與人工智能》2018年第1期。當(dāng)Wu, p小于1時(shí),則意味著使用者u的權(quán)利保護(hù)權(quán)重低于行人p,此時(shí)道德算法應(yīng)該優(yōu)先保護(hù)行人p而非車(chē)內(nèi)的使用者u,這里行人p的權(quán)益Pp更值得自動(dòng)駕駛汽車(chē)保護(hù),所以必要時(shí)可以犧牲使用者u,道德算法做出這樣的選擇并沒(méi)超出預(yù)期。而當(dāng)Wu, p大于1時(shí),則意味著使用者u的權(quán)利保護(hù)權(quán)重高于行人p,此時(shí)對(duì)于自動(dòng)駕駛汽車(chē)而言,應(yīng)該優(yōu)先保護(hù)自動(dòng)駕駛汽車(chē)中的使用者,為此可以犧牲行人的利益。當(dāng)Wu, p等于1時(shí),則意味著使用者u和行人p的權(quán)利保護(hù)權(quán)重相同,此時(shí)自動(dòng)駕駛汽車(chē)的道德算法可以采用概率運(yùn)算的方法,隨機(jī)決定保護(hù)的對(duì)象是使用者u還是行人p,從而將以代碼為基礎(chǔ)的論證和決策的概率計(jì)算模型引入道德算法系統(tǒng)。(38)余盛峰:《全球信息化秩序下的法律革命》,《環(huán)球法律評(píng)論》2013年第5期。
對(duì)于阿列克西主體權(quán)衡公式的解讀,實(shí)際上可以通過(guò)變換公式的樣態(tài),發(fā)現(xiàn)其所蘊(yùn)含的衡量指標(biāo)趨向,通過(guò)三階度審查密度對(duì)這一權(quán)衡公式進(jìn)行抽象解讀,解讀后如下:
Wu, p=Iu/Ip·Wu/Wp·Ru/Rp
抽象解讀后的阿列克西主體衡量公式可以理解為“實(shí)體損害程度的權(quán)衡”ד權(quán)益抽象重要程度的權(quán)衡”ד認(rèn)知確定性的權(quán)衡”(39)Alexy R.,“On the Structure of Legal Principles,”Ratio Juris,Vol.13,No.3,2000.,這種衡量模式凸顯了實(shí)體損害程度I、權(quán)益抽象重要程度W和認(rèn)知確定性的重要性R,將三者作為衡量指標(biāo)。綜合來(lái)看,將這三者作為衡量指標(biāo),實(shí)際上對(duì)于自動(dòng)駕駛汽車(chē)算法衡量不同主體權(quán)利保護(hù)的優(yōu)先度時(shí)具有現(xiàn)實(shí)價(jià)值,能夠與自動(dòng)駕駛的技術(shù)路徑和事實(shí)處理產(chǎn)生聯(lián)系,其中實(shí)體損害程度和技術(shù)路徑掛鉤,而權(quán)益抽象重要程度以及認(rèn)知確定性和事實(shí)處理掛鉤,從而幫助算法決定優(yōu)先保護(hù)的主體。(40)朱振:《生命的衡量——自動(dòng)駕駛汽車(chē)如何破解“電車(chē)難題”》,《華東政法大學(xué)學(xué)報(bào)》2020年第6期。
在阿列克西權(quán)衡公式中,除了使用者u和行人p作為對(duì)象指標(biāo)外,A是技術(shù)背景指標(biāo),實(shí)體損害程度I、權(quán)益抽象重要程度W和認(rèn)知確定性R則分別是具體的計(jì)算參數(shù)指標(biāo)。其中A作為技術(shù)背景指標(biāo),可以在汽車(chē)生產(chǎn)環(huán)節(jié)由廠商進(jìn)行有限的修訂和影響,否則生產(chǎn)者就會(huì)因?yàn)樵谔幚砉步煌ǖ赖聽(tīng)?zhēng)議中存在的瑕疵而承擔(dān)過(guò)重的責(zé)任,因而傾向遠(yuǎn)離自動(dòng)駕駛產(chǎn)業(yè),最終扼殺產(chǎn)業(yè)發(fā)展的活力。(41)Hevelke A. and Nida-Rümelin J.,“Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis,”Science and Engineering Ethics,Vol.21,No.3,2015.因?yàn)樽詣?dòng)駕駛汽車(chē)必須在選擇保護(hù)主體時(shí)進(jìn)行權(quán)衡,所以只有結(jié)合技術(shù)背景A對(duì)算法權(quán)衡公式中具體的計(jì)算參數(shù)指標(biāo)進(jìn)行解釋和選取,才能在避免生產(chǎn)廠商權(quán)力過(guò)大的同時(shí)保障道德算法的有序運(yùn)轉(zhuǎn),從而為后續(xù)的算法決策提供準(zhǔn)確的衡量參數(shù)。其中,生產(chǎn)廠商最終選擇的理論基礎(chǔ)模式也會(huì)影響參數(shù)的選取。
1. 實(shí)體損害程度參數(shù)的解讀選取
實(shí)體損害程度的參數(shù)選取,應(yīng)該結(jié)合自動(dòng)駕駛汽車(chē)的技術(shù)指標(biāo)進(jìn)行解讀。隨著技術(shù)進(jìn)步,自動(dòng)駕駛汽車(chē)實(shí)際上已經(jīng)分為從Level0到Level5多種類(lèi)型,不同類(lèi)型的自動(dòng)駕駛汽車(chē)對(duì)應(yīng)的技術(shù)手段存在較大差別,整體態(tài)勢(shì)上呈現(xiàn)從弱人工智能汽車(chē)向強(qiáng)人工智能汽車(chē)進(jìn)化的趨勢(shì)。(42)陳禹衡:《人工智能汽車(chē)交通肇事的刑法應(yīng)對(duì)——以Uber交通肇事案為研究視角》,《法治社會(huì)》2020年第3期。技術(shù)手段差異既包括人工智能汽車(chē)算法系統(tǒng)上的差異,也包括算法和自動(dòng)駕駛汽車(chē)硬件銜接上的差異。而這些差異的存在,將在客觀上影響實(shí)體損害程度參數(shù)的選取。
實(shí)體損害程度參數(shù)主要由以下三個(gè)方面構(gòu)成:一是自動(dòng)駕駛汽車(chē)的技術(shù)運(yùn)行指標(biāo)。自動(dòng)駕駛汽車(chē)的類(lèi)型層級(jí)不同,其對(duì)應(yīng)的技術(shù)運(yùn)行指標(biāo)也有差異。比如日本的《自動(dòng)駕駛系統(tǒng)的道路實(shí)證測(cè)試指南》,就規(guī)定了自動(dòng)駕駛汽車(chē)控制系統(tǒng)、傳感器以及算法系統(tǒng)等安全指標(biāo),用以保障自動(dòng)駕駛汽車(chē)的整體安全。(43)張韜略:《自動(dòng)駕駛汽車(chē)道路測(cè)試安全制度分析:中日立法的比較》,《科技與法律》2019年第4期。實(shí)際上,自動(dòng)駕駛汽車(chē)的實(shí)體損害程度和其安全程序密切關(guān)聯(lián),生產(chǎn)廠商將自動(dòng)駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則以量化的方式置入安全程序算法中,并建立對(duì)應(yīng)安全程序的安全度量指標(biāo)體系。(44)李波、尚世亮、郭夢(mèng)鴿等:《自動(dòng)駕駛預(yù)期功能安全(SOTIF)接受準(zhǔn)則的建立》,《汽車(chē)技術(shù)》2020年第12期。二是自動(dòng)駕駛汽車(chē)算法對(duì)使用者的保障程度。這一點(diǎn)和算法程序所采用的理論基礎(chǔ)有關(guān)。當(dāng)采用利己主義作為理論支撐時(shí),對(duì)于使用者u的實(shí)體損害程度Wu的影響較小,因?yàn)樵诶褐髁x算法下自動(dòng)駕駛汽車(chē)的行為決定總是試圖最大化自身的利益,而不顧對(duì)行人所造成的損害(45)韓旭至:《自動(dòng)駕駛事故的侵權(quán)責(zé)任構(gòu)造——兼論自動(dòng)駕駛的三層保險(xiǎn)結(jié)構(gòu)》,《上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第2期。。體現(xiàn)在實(shí)體損害程度層面,雖然諸如惡意傷害的強(qiáng)度和持續(xù)性難以被精確計(jì)算(46)Stahl B. C.,“Information, Ethics, and Computers: The Problem of Autonomous Moral Agents,”Mind and Machines,Vol.14,No.1,2004.,但是依舊可以根據(jù)技術(shù)指標(biāo)得出相對(duì)準(zhǔn)確的參量。三是自動(dòng)駕駛汽車(chē)算法對(duì)行人的保護(hù)程度。這一點(diǎn)主要依托算法程序和汽車(chē)硬件的銜接,主要包括制動(dòng)、剎車(chē)、轉(zhuǎn)彎等硬件程序。道德算法通過(guò)純粹一致性(mere consistency)、共識(shí)實(shí)踐推理(consensus practical reasoning)和連貫性(coherency)的“絕對(duì)命令”來(lái)指引汽車(chē)的行駛。(47)Powers T. M.,“Prospects for a Kantian Machine,”IEEE Intelligent Systems,Vol.21,No.4,2006.以羅爾斯算法模型為例,其遵循“最大化最小值”來(lái)衡量具體的操作程序(48)Leben D.,“A Rawlsian Algorithm for Autonomous Vehicles,”Ethics & Information Technology,Vol.19,No.2,2017.,這里的最大化最小值就是要促使整體的社會(huì)效益損害最低,其中就包含了行人p的實(shí)體損害程度Wp,需要結(jié)合對(duì)Wu數(shù)據(jù)的計(jì)算進(jìn)行反向推導(dǎo)。
2.權(quán)益抽象重要程度參數(shù)的解讀和選取
權(quán)益抽象重要程度參數(shù)的解讀和選取,直接關(guān)系到自動(dòng)駕駛汽車(chē)在決定“犧牲誰(shuí)”時(shí),在不同類(lèi)型的主體間如何進(jìn)行取舍,這種在主體間的權(quán)衡與取舍,和算法的整體價(jià)值取向密切關(guān)聯(lián)。(49)Wintgens L. J.,The Law in Philosophical Perspectives: My Philosophy of Law,Boston:Kluwer Academic Publishers,1999,pp.178-179.實(shí)際上,對(duì)于道德?tīng)?zhēng)議難題的處理,如果道德算法以單一的“生存概率”為維度,不同主體的生存概率只能被平等地分配。如果考慮不同主體的生存價(jià)值,并將“質(zhì)量調(diào)整壽命年”納入對(duì)行為的數(shù)據(jù)表征,那么生存的社會(huì)價(jià)值也需要涵括在內(nèi)。(50)余露:《自動(dòng)駕駛汽車(chē)的羅爾斯式算法——“最大化最小值”原則能否作為“電車(chē)難題”的道德決策原則》,《哲學(xué)動(dòng)態(tài)》2019年第10期。鑒于此,對(duì)于不同主體類(lèi)型的權(quán)益抽象重要程度,不能僅局限于生存概率的角度加以思考,而是要將主體的生存價(jià)值和社會(huì)價(jià)值作為主要參數(shù),避免賦值時(shí)的隨意性、過(guò)度抽象和主觀性。(51)劉權(quán):《均衡性原則的具體化》,《法學(xué)家》2017年第2期。
就使用者和行人的權(quán)益抽象重要程度而言,衡量的指標(biāo)在于生存價(jià)值和社會(huì)價(jià)值。在生存價(jià)值層面,使用者和行人的比較重點(diǎn)在具體的生存可能性系數(shù)。比如在同一場(chǎng)交通事故中,坐在自動(dòng)駕駛汽車(chē)內(nèi)的使用者可能因?yàn)槠?chē)自帶的防護(hù)功能而具有更高的生存可能性,行人則因?yàn)楸┞对诼飞锨覜](méi)有任何防護(hù),可能的生存系數(shù)較低。值得注意的是,算法系統(tǒng)在訓(xùn)練學(xué)習(xí)的過(guò)程中,可能因?yàn)樗惴ǖ牟粩鄼C(jī)器學(xué)習(xí)而衍生出算法偏見(jiàn),對(duì)于保護(hù)主體的生存價(jià)值產(chǎn)生誤判(52)陳禹衡、陳洪兵:《反思與完善:算法行政背景下健康碼的適用風(fēng)險(xiǎn)探析》,《電子政務(wù)》2020年第8期。,如傾向于保護(hù)車(chē)內(nèi)的行駛者等,因此需要在機(jī)器學(xué)習(xí)層面對(duì)算法偏見(jiàn)進(jìn)行消除,校正自動(dòng)駕駛汽車(chē)在生存價(jià)值上的判斷。在社會(huì)價(jià)值層面,對(duì)于使用者和行人的區(qū)分不能依據(jù)其社會(huì)地位的差異,而是應(yīng)該以社會(huì)道德的判斷作為社會(huì)價(jià)值的衡量標(biāo)準(zhǔn),從而將不同類(lèi)型的主體納入考量范圍,并從中找出最小的損害。(53)Bert I. H.,“Law’s Halo and the Moral Machine,”Columbia Law Review,Vol.119,No.7,2019.不能依據(jù)主體的社會(huì)地位作為差異判斷的標(biāo)準(zhǔn),一方面,為了實(shí)現(xiàn)社會(huì)公平,不能因?yàn)橐环骄哂休^高的社會(huì)地位就試圖“犧牲他人”,算法應(yīng)該是公平公正的;另一方面,從技術(shù)上來(lái)說(shuō),不能寄托于算法系統(tǒng)在短時(shí)間內(nèi)對(duì)不同主體的社會(huì)地位做出判斷,這涉及對(duì)公民個(gè)人隱私權(quán)的侵犯,在短時(shí)間內(nèi)也并不具有實(shí)際操作性。將社會(huì)道德判斷作為權(quán)益抽象的重要程度標(biāo)準(zhǔn),是將不同的主體分為小孩、成年人、老年人等為公眾所熟知的道德概念(54)李偉、華夢(mèng)蓮:《論自動(dòng)駕駛汽車(chē)倫理難題與道德原則自我選擇》,《科學(xué)學(xué)研究》2020年第4期。,通過(guò)這一概念分類(lèi)進(jìn)行判斷和分析,不僅能夠遵循社會(huì)的公序良俗,而且能避免對(duì)不同主體的判斷產(chǎn)生爭(zhēng)議。這符合哈特在自然法上的自我保存理論,即大部分人在大部分時(shí)間都希望繼續(xù)生存下去,那么對(duì)于生存主體的選擇,則需要遵循一般的社會(huì)道德規(guī)律。(55)Hart H. L. A.,The Concept of Law,New York:Oxford University Press,2012,p.191.這種對(duì)社會(huì)道德規(guī)律的尊重,實(shí)際上是一種自我預(yù)設(shè)的道德選擇,用于對(duì)不同主體進(jìn)行社會(huì)價(jià)值判斷,進(jìn)而為自動(dòng)駕駛汽車(chē)提供倫理決策。(56)余露:《自動(dòng)駕駛汽車(chē)的事故算法及其限度》,《自然辯證法通訊》2019年第1期。
3.認(rèn)知確定性參數(shù)的解讀選取
阿列克西主體權(quán)衡公式中的認(rèn)知確定性參數(shù),是為了避免自動(dòng)駕駛汽車(chē)算法在進(jìn)行參數(shù)分析時(shí)出現(xiàn)價(jià)值分析的空洞化。(57)戴昕、張永?。骸侗壤瓌t還是成本收益分析:法學(xué)方法的批判性重構(gòu)》,《中外法學(xué)》2018年第6期。隨著自動(dòng)駕駛技術(shù)的進(jìn)步,社會(huì)公眾對(duì)于自動(dòng)駕駛汽車(chē)的要求遠(yuǎn)高于傳統(tǒng)的人類(lèi)駕駛員,并且希望其能夠?qū)崿F(xiàn)傳統(tǒng)社會(huì)未能完全遵照的碰撞倫理,而這需要生產(chǎn)者在制造自動(dòng)駕駛汽車(chē)時(shí)按照技術(shù)標(biāo)準(zhǔn)進(jìn)行預(yù)先設(shè)置。(58)王樂(lè)兵:《自動(dòng)駕駛汽車(chē)的缺陷及其產(chǎn)品責(zé)任》,《清華法學(xué)》2020年第2期。認(rèn)知確定性本身需要在具體條件A下,判斷采取措施“實(shí)現(xiàn)一種權(quán)益或者未實(shí)現(xiàn)另一種權(quán)益”在規(guī)范上及經(jīng)驗(yàn)上的確定性程度,所以認(rèn)知確定性的參數(shù)解讀,需要先從宏觀的人工智能技術(shù)角度進(jìn)行分析,再?gòu)奈⒂^的規(guī)范層面和經(jīng)驗(yàn)層面進(jìn)行分析。
在宏觀視域,對(duì)人工智能技術(shù)背景的分析需要結(jié)合算法的運(yùn)行機(jī)理進(jìn)行判斷。當(dāng)下自動(dòng)駕駛汽車(chē)的算法機(jī)理實(shí)際上是程序代碼的運(yùn)行,而這種機(jī)器學(xué)習(xí)本身就是依托代碼進(jìn)行程序推導(dǎo)和運(yùn)算(59)李德毅、杜鹢:《不確定性人工智能》,國(guó)防工業(yè)出版社,2014年,第287頁(yè)。,而代碼才是人機(jī)共生情景下既規(guī)制“人”又規(guī)制“機(jī)”的公因式,“代碼就是法律”。(60)崔俊杰:《自動(dòng)駕駛汽車(chē)準(zhǔn)入制度:正當(dāng)性、要求及策略》,《行政法學(xué)研究》2019年第2期。鑒于此,當(dāng)人工智能技術(shù)不斷進(jìn)步,認(rèn)知的確定性會(huì)隨之增加,Level5層級(jí)的自動(dòng)駕駛汽車(chē)在認(rèn)知確定性層面的參數(shù)顯然要高于Level3層級(jí)的汽車(chē)。在自動(dòng)駕駛汽車(chē)運(yùn)行時(shí),公路交通決策的能動(dòng)性則被完全轉(zhuǎn)移到機(jī)器上(61)Coeckelbergh M.,“Responsibility and the Moral Phenomenology of Using Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.,由算法做出決策,而對(duì)于道德決策結(jié)果的認(rèn)知確定性判斷,則需要摒除一定的“自主性”誤導(dǎo),所以具有一定的技術(shù)難度。(62)Etzioni A. Etzioni O.,“Incorporating Ethics into Artificial Intelligence,”Journal of Ethics,Vol.21,No.4,2017.
在微觀視域,對(duì)規(guī)范層面和經(jīng)驗(yàn)層面的參數(shù)分析需要圍繞算法技術(shù)展開(kāi)。在規(guī)范層面,認(rèn)知確定性參數(shù)需要結(jié)合已有的規(guī)范性文件進(jìn)行分析。我國(guó)已有的規(guī)范性文件包括2017年發(fā)布的《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國(guó)發(fā)〔2017〕35號(hào))、2020年發(fā)布的《交通運(yùn)輸部關(guān)于促進(jìn)道路交通自動(dòng)駕駛技術(shù)發(fā)展和應(yīng)用的指導(dǎo)意見(jiàn)》(交科技發(fā)〔2020〕124號(hào))、2020年發(fā)布的《智能汽車(chē)創(chuàng)新發(fā)展戰(zhàn)略》(發(fā)改產(chǎn)業(yè)〔2020〕202號(hào))等。這些規(guī)范性文件從制度層面為主體權(quán)衡公式的確定性參數(shù)提供判斷基準(zhǔn),比如提出構(gòu)建“智能交通,研究建立營(yíng)運(yùn)車(chē)輛自動(dòng)駕駛與車(chē)路協(xié)同的技術(shù)體系”,這就為認(rèn)知確定性的判斷提供了趨向性的指引。在經(jīng)驗(yàn)層面,需要通過(guò)對(duì)機(jī)器學(xué)習(xí)的分析,從算法的機(jī)器學(xué)習(xí)過(guò)程入手討論其確定性參數(shù)的選取。自動(dòng)駕駛汽車(chē)算法的機(jī)器學(xué)習(xí)路徑容易形成固有的問(wèn)題處理回路,這種固有回路很多時(shí)候并非機(jī)器天然學(xué)習(xí)形成,而是由人類(lèi)駕駛員的選擇演變而來(lái),并且通常只能習(xí)慣性遵從或默認(rèn)。(63)汪全勝、宋琳璘:《無(wú)人駕駛汽車(chē)與我國(guó)道路交通安全法律制度的完善》,《中國(guó)人民公安大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2020年第3期。人類(lèi)駕駛員潛移默化地影響自動(dòng)駕駛汽車(chē),并導(dǎo)致后者依據(jù)處理回路的慣性在面對(duì)道德?tīng)?zhēng)議難題時(shí)進(jìn)行選擇(64)袁彬、徐永偉:《“人機(jī)共駕”模式下交通肇事罪的適用困境及突圍》,《廣西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第5期。,那么算法的處理慣性就應(yīng)該以量化數(shù)據(jù)的方式作為衡量指標(biāo)供權(quán)衡公式參考,并且以全面且公平的視角克服算法偏見(jiàn)(65)Barocas S. and Selbst A. D.,“Big Data’s Disparate Impact,”California Law Review,Vol.104,No.3,2016.,從而幫助主體權(quán)衡公式在經(jīng)驗(yàn)層面的確定性參數(shù)分析。
自動(dòng)駕駛技術(shù)的“大腦”是算法,而算法在處理復(fù)雜的道路交通安全事故時(shí),可能會(huì)陷入道德?tīng)?zhēng)議難題的處理困境。在這一背景下,優(yōu)化自動(dòng)駕駛道德算法,并基于已有的算法處理模式提供權(quán)衡框架就具有重要性和緊迫性。綜合來(lái)看,通過(guò)阿列克西權(quán)衡法則,結(jié)合自動(dòng)駕駛技術(shù)發(fā)展的實(shí)際狀況,能夠得出契合自動(dòng)駕駛汽車(chē)發(fā)展實(shí)際的阿列克西主體權(quán)衡公式,從而為自動(dòng)駕駛技術(shù)的發(fā)展注入新的動(dòng)力。道德算法只有緊跟時(shí)代的步伐,才能在技術(shù)發(fā)展日新月異的當(dāng)下保持可適性。質(zhì)言之,與其拘泥于不同的道德算法理論基礎(chǔ)對(duì)算法處理道德?tīng)?zhēng)議難題的影響,不如直接以主體權(quán)衡公式為道德算法提供合理的參照標(biāo)準(zhǔn),以自動(dòng)駕駛汽車(chē)算法技術(shù)的不斷優(yōu)化來(lái)解決現(xiàn)有的爭(zhēng)議和困難(66)吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,《法律科學(xué)》2017年第5期。,從而不斷完善自動(dòng)駕駛汽車(chē)技術(shù)。