国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自動(dòng)駕駛汽車的道德算法該如何設(shè)計(jì)

2019-12-30 17:50何禮廣
關(guān)鍵詞:交通事故決策自動(dòng)

譚 艷,何禮廣

(湖南師范大學(xué)道德文化研究中心,湖南長(zhǎng)沙 410006)

目前,無人駕駛技術(shù)在飛速發(fā)展,在未來,就像機(jī)動(dòng)車淘汰畜力車一樣,自動(dòng)駕駛汽車終將逐步淘汰手動(dòng)駕駛汽車,或成為人類未來社會(huì)的主流陸路交通工具。自動(dòng)駕駛汽車也存在面臨交通事故的可能性,盡管無人駕駛技術(shù)和人工智能技術(shù)的使用會(huì)有效降低交通事故的發(fā)生率,然而它也絕不可能做到萬無一失。在交通事故面前,它必然會(huì)面臨眾多道德抉擇,甚至?xí)萑氲赖吕Ь场D敲?,在面臨交通事故時(shí),自動(dòng)駕駛汽車應(yīng)當(dāng)如何抉擇?自動(dòng)駕駛汽車的道德算法又應(yīng)當(dāng)采用什么樣的道德原則呢?

一、電車難題概述

眾所周知,最早的電車難題是由哲學(xué)家菲利帕·福特于1967年提出來的,當(dāng)時(shí)是作為哲學(xué)上的思想實(shí)驗(yàn),它主要用于模擬人在面臨道德兩難問題時(shí)會(huì)做出何種抉擇以及為何如此抉擇。它最初的描述是:電車剎車失靈而前方軌道上有五個(gè)人,如果不變更軌道,這五人將成為交通事故的受害者,但是有一個(gè)旁觀者可以拉動(dòng)改道裝置使電車開往另一條軌道,然而在那條軌道上也有一個(gè)人,變更軌道意味著將原來五個(gè)人面臨的交通事故轉(zhuǎn)嫁給另一個(gè)無辜者。對(duì)于這個(gè)電車難題,每個(gè)人都能給出自己的回答。有些人認(rèn)為五個(gè)人的價(jià)值更大,因此會(huì)選擇改道,這符合功利主義思想,然而功利主義被人詬病之處就是它以整體之名來傷害個(gè)體之利益;所以,反對(duì)功利主義的人便會(huì)強(qiáng)調(diào)一個(gè)人的生命和利益不能為整體所犧牲,個(gè)人的生命神圣而不可侵犯,因此不允許改道,這符合道義論思想,它總是在一定程度上拒斥功利主義。還有人認(rèn)為既然道義論約束了不能轉(zhuǎn)嫁風(fēng)險(xiǎn)、危害他人,那么在原來五人已經(jīng)面臨交通事故的既定事實(shí)下,就應(yīng)該認(rèn)命,這符合宿命論思想,這種思想比較消極,既不敢站在道義論的角度拒斥功利主義,也不敢站在功利主義角度做出犧牲的抉擇,實(shí)質(zhì)上是一種不作為。當(dāng)然,電車難題畢竟只是一個(gè)思想實(shí)驗(yàn),它的解答是開放性的,并無絕對(duì)的對(duì)錯(cuò)之分,也不能憑借回答就評(píng)價(jià)某人道德與否。

隨后電車難題發(fā)生了一系列變種,其中比較著名的就是“胖子”版本。它設(shè)計(jì)旁觀者必須親手把“胖子”推入軌道,用胖子龐大的血肉之軀阻擋火車?yán)^續(xù)前進(jìn),通過犧牲“胖子”這個(gè)無辜者來拯救原來面臨交通事故的五個(gè)人。“胖子”版本最大的改動(dòng)就是決策者在選擇犧牲無辜者時(shí)是否和這個(gè)無辜者發(fā)生了直接的身體接觸。在初始版本中,拉動(dòng)一個(gè)開關(guān),在很多人看來決策者只是間接造成了無辜者的傷亡,反觀“胖子版本”,“親手推倒”的方式讓決策者和無辜者發(fā)生了直接的肢體接觸,直接導(dǎo)致了無辜者的傷亡,這種直接的肢體接觸成為了無辜者變成受害者的決定性因素。實(shí)際測(cè)試結(jié)果表明,這種設(shè)計(jì)差異將在很大程度上影響人們的決策。原本會(huì)有很多人選擇變更軌道,通過犧牲另一個(gè)無辜者來拯救原本面臨交通事故的五個(gè)人,甚至他們?cè)谧龀錾鲜鰶Q策時(shí)還會(huì)有著強(qiáng)烈的自我認(rèn)同感,認(rèn)為自己的決策是絕對(duì)正確的。然而,一旦換成“胖子”版本,他們的自我認(rèn)同感就會(huì)消失殆盡,很大一部分人會(huì)開始質(zhì)疑自己的決策是否真的那么正確,從而會(huì)轉(zhuǎn)向選擇“不作為”,哪怕仍然堅(jiān)持選擇犧牲一個(gè)“胖子”來拯救那五個(gè)面臨交通事故的受害者,決策者的內(nèi)心也會(huì)覺得不太能夠接受這種“親手推倒”的做法。

“電車難題僅僅作為思想實(shí)驗(yàn)是可能出現(xiàn)的,但是很多人都認(rèn)為在現(xiàn)實(shí)生活中不會(huì)出現(xiàn)這樣的情況?!盵1]確實(shí),在現(xiàn)實(shí)生活中,很少會(huì)出現(xiàn)這種極其邊緣情況下的選擇。即使我們碰到一些難以選擇的問題,它給我們提供的選項(xiàng)往往也不僅僅只有兩種,更不會(huì)只是單純的兩個(gè)互斥選項(xiàng),一定會(huì)夾雜許多的可以幫助判斷的內(nèi)、外部因素。雖然在生活中這種極端的兩難決策極其少見,但是人們?nèi)匀粫?huì)面臨許許多多在道德上仍然模糊的決策。

二、自動(dòng)駕駛汽車的道德困境

自動(dòng)駕駛汽車也不具有絕對(duì)的安全性,它也可能參與交通事故。在電車難題的思想實(shí)驗(yàn)上,自動(dòng)駕駛汽車實(shí)際上就是“用一輛自動(dòng)汽車代替電車,用汽車的軟件代替旁觀者”[1]。事實(shí)上,人工智能將在自動(dòng)駕駛模式下代替駕駛者做出后續(xù)的所有決策。人工智能和人在決策權(quán)上的沖突是任何自動(dòng)駕駛系統(tǒng)都首先要解決的問題。2018年10月和2019年3月波音737 MAX 8機(jī)型所發(fā)生的兩起重大墜機(jī)空難震驚國(guó)際,事故調(diào)查人員懷疑錯(cuò)誤的傳感器讀數(shù)觸發(fā)了MCAS,從而迫使飛機(jī)進(jìn)入俯沖狀態(tài),導(dǎo)致了慘案的發(fā)生。中國(guó)首先對(duì)波音737 MAX 8機(jī)型實(shí)施了禁飛限令,隨后引發(fā)了全球禁飛浪潮。無論空難的真實(shí)原因是什么,國(guó)際對(duì)MCAS的擔(dān)憂呈現(xiàn)了這個(gè)案例中的兩個(gè)人機(jī)沖突:一是MCAS的生效不需要飛行員的指令,二是飛行員無法及時(shí)有效阻止MCAS生效后的錯(cuò)誤俯沖。這表明人工智能作為人的附屬品和創(chuàng)造物,它的決策只能是致力于實(shí)現(xiàn)人所能做出的最好決策,它的決策要為人所規(guī)定、約束、修正甚至是否決。自動(dòng)駕駛汽車在電車難題上將創(chuàng)造一種新的情景,即它與傳統(tǒng)電車難題不涉及旁觀者切身利益不同,在自動(dòng)駕駛汽車參與交通事故時(shí),作為旁觀者的乘客一方面變成了當(dāng)事人,另一方面卻將決策權(quán)賦予了人工智能。這種情景下,人工智能是否只能選擇犧牲路邊的無辜者?抑或是能夠選擇犧牲車主?即使如此,車上的乘客又是否愿意選擇犧牲自己?在這個(gè)問題上,想必在當(dāng)事人內(nèi)心至少是猶豫的。

毋庸置疑,自動(dòng)駕駛汽車在面臨一場(chǎng)不可避免的交通事故時(shí)終究還是要做出一個(gè)決策,無論這個(gè)決策是關(guān)涉車上乘客的利益還是關(guān)切社會(huì)利益。那么人工智能系統(tǒng)又會(huì)選擇撞向誰呢?老人或者小孩?男人或者女人?更多的人或者更少的人?是犧牲車主還是路人?這些決策的背后是否具有道德合理性和行為合法性?這些決策又能在何種意義上為廣大人民群眾在“無知之幕”的原初狀態(tài)中所抉擇從而具有公正性呢?電車難題考究的不是人工智能的道德決策能力,而是人的道德決策能力,畢竟人工智能只是遵循人類提前預(yù)設(shè)好的決策規(guī)則罷了。一個(gè)不可否認(rèn)的事實(shí)是:在人工智能的軟件或硬件沒有出現(xiàn)故障的情況下,它的決策遠(yuǎn)遠(yuǎn)比人的決策要高效,它能夠又快又好地按照人類所預(yù)設(shè)的規(guī)則盡可能地做出最佳的決策。自動(dòng)駕駛汽車是人類科技進(jìn)步的成果,不能因噎廢食,是否愿意讓人工智能來替人類做決定,這是自動(dòng)駕駛汽車對(duì)人類發(fā)出的挑戰(zhàn)。要克服這個(gè)挑戰(zhàn),至關(guān)重要的是要解決這個(gè)問題——自動(dòng)駕駛汽車的道德算法應(yīng)當(dāng)如何設(shè)計(jì)?只有設(shè)計(jì)好道德決策規(guī)則,人工智能才能在正常工作情況下遵循人設(shè)計(jì)的規(guī)則做出更好的決策。

自動(dòng)駕駛汽車的道德難題還有一個(gè)更為特殊的地方,那就是在這種道德難題中,我們往往要預(yù)測(cè)一切可能發(fā)生的場(chǎng)景。自動(dòng)駕駛汽車在行駛的過程中所面臨的問題是復(fù)雜多樣的,可能會(huì)因?yàn)樘鞖獾脑虍a(chǎn)生事故,可能會(huì)因?yàn)橥话l(fā)的事件發(fā)生事故,也可能會(huì)因?yàn)槠嚨墓收蠈?dǎo)致不可避免的事故。那么當(dāng)這些突發(fā)情況導(dǎo)致事故發(fā)生無法避免時(shí),又該依據(jù)什么樣的規(guī)則來進(jìn)行決策呢?正是因?yàn)樽詣?dòng)駕駛汽車在做道德決策時(shí)有那么多的不可控因素,所以對(duì)于自動(dòng)駕駛汽車是否能夠商業(yè)化,人工智能的決策是否真的能優(yōu)于人的決策,這些問題目前都存在著很大的爭(zhēng)議。但是不管爭(zhēng)議如何,如果自動(dòng)駕駛汽車將成為未來的主要交通工具是不可避免的,那么我們能做的就是選擇一套盡可能好的道德算法植入到自動(dòng)駕駛汽車中,用來達(dá)到最理想的效果。在用何種方式設(shè)立自動(dòng)駕駛汽車的道德算法問題上,學(xué)界有兩種相互對(duì)立的流派,即“屏蔽信息而依靠道德運(yùn)氣進(jìn)行隨機(jī)選擇和基于完全信息的人工智能系統(tǒng)自主選擇”[2]。前一種方式對(duì)完全信息尚存在質(zhì)疑,它的隨機(jī)性流露出一種簡(jiǎn)樸的平等觀;后一種方式對(duì)人的道德理性以及人類的科學(xué)技術(shù)予以了肯定和信賴,它對(duì)信息的依賴性流露出對(duì)道德理性的推崇。我們同樣推崇道德理性,也堅(jiān)信信息總是會(huì)從不完全朝更完全發(fā)展,這個(gè)變化過程依賴于科學(xué)技術(shù)的發(fā)展進(jìn)程。

三、關(guān)于自動(dòng)駕駛汽車的道德算法設(shè)計(jì)

在設(shè)計(jì)自動(dòng)駕駛汽車的道德算法時(shí),以下幾個(gè)問題總是繞不過去。第一,道德算法由誰來設(shè)計(jì)?第二,道德算法為誰設(shè)計(jì)?第三,應(yīng)當(dāng)采用何種道德原則作為這套道德算法的基本原則?只有正面解決了這幾個(gè)基本問題,才算是進(jìn)入了為自動(dòng)駕駛汽車設(shè)計(jì)道德算法的殿堂,才能進(jìn)一步去探尋自動(dòng)駕駛汽車道德算法設(shè)計(jì)的基本原則。例如,余露曾指出:“我們?cè)谠O(shè)計(jì)自動(dòng)駕駛汽車的事故算法時(shí),我們應(yīng)該遵循兩大原則:綜合化和個(gè)性化?!盵3]

首先,第一個(gè)問題,應(yīng)該由誰來設(shè)計(jì)自動(dòng)駕駛汽車的道德算法?有這樣幾種主體——汽車制造者、個(gè)人車主、政府[4]。如果由汽車制造者來設(shè)計(jì),這些工程師、科學(xué)家會(huì)設(shè)計(jì)一些科學(xué)的程序,并且設(shè)置一些符合消費(fèi)者需求的程序。但是,系統(tǒng)的設(shè)置和倫理規(guī)則的設(shè)置畢竟是兩個(gè)不同的領(lǐng)域。術(shù)業(yè)有專攻,汽車制造廠商更擅長(zhǎng)制造汽車,關(guān)于非正常的、涉及倫理的程序不能只由汽車制造商來設(shè)計(jì)。如果由個(gè)人車主設(shè)計(jì),也就是由使用者來決定。這在一定程度上可以滿足個(gè)人使用者的需求,保障個(gè)人的利益和安全。但是個(gè)體的道德傾向大多數(shù)情況下是不一致的,按照每個(gè)人不同的需求來設(shè)計(jì)不同的道德算法是完全不可取的,也是完全不合理的。如果由政府來設(shè)計(jì),依照我們的國(guó)情也可以說是由集體來決定。大多數(shù)人都會(huì)同意這種方式,并以此來盡可能地保障更多人的社會(huì)利益。但是也有人會(huì)擔(dān)心,政府的干預(yù)是否會(huì)使得效率降低?而且,政府機(jī)構(gòu)分立很多,具體應(yīng)該由什么部門來設(shè)計(jì)也是需要考慮的。因此,由單獨(dú)的某個(gè)主體來設(shè)計(jì)是不太現(xiàn)實(shí)的,最好是采用一種混合制的方式。既要保障企業(yè)的利益,也要滿足個(gè)體的需求,更要最大程度地保障社會(huì)的利益。

第二個(gè)問題,這套道德算法為誰設(shè)計(jì)?如果為車主設(shè)計(jì),也就是設(shè)計(jì)一套在任何情況下都應(yīng)該盡最大可能保護(hù)車主的道德算法。雖然這樣可以最大程度地滿足個(gè)人的需求,但是在個(gè)體自利的本性下,或許會(huì)走向“囚徒困境”,以致交通事故更加混亂,而且在面對(duì)不可控的突發(fā)情況下,是否能有效保證車主利益也是個(gè)未知數(shù),人際之間的利益沖突和矛盾也會(huì)因此轉(zhuǎn)向“車際之間”,交通矛盾與糾紛不可避免。如果為公眾設(shè)計(jì),即盡可能地保障集體的利益,那么在必要的情況下可以犧牲車上乘客的利益。雖然這是我們一直歌頌的品質(zhì),但是沒有人樂意去選購一輛不會(huì)保護(hù)自身利益的自動(dòng)駕駛汽車。所以,道德算法不能完全只為個(gè)人或者完全只為集體設(shè)計(jì)。我們應(yīng)該盡量考慮個(gè)人的利益,更要考慮集體的利益。但這往往是很難衡量的,因?yàn)椤皞€(gè)體訴求與集體利益的沖突之處往往是道德難題的高發(fā)地”[5]。

第三個(gè)問題,應(yīng)該采用什么樣的道德原則作為這套道德算法的基本原則?Noah J. Goodall在這個(gè)問題上具有一定的權(quán)威性,他在一篇名為《遠(yuǎn)離電車問題轉(zhuǎn)向風(fēng)險(xiǎn)管理》(AwayfromTrolleyProblemsandTowardRiskManagement)的文章中提出了自己的見解,那就是采用一種風(fēng)險(xiǎn)管理的方法。風(fēng)險(xiǎn)管理的基本形式包括考慮每個(gè)潛在結(jié)果的大小和可能性。當(dāng)然要進(jìn)行這種分析就需要超大的數(shù)據(jù)支持,這是毋容置疑的。同時(shí),要進(jìn)行這種風(fēng)險(xiǎn)管理,對(duì)于設(shè)計(jì)自動(dòng)駕駛汽車的程序員來說也是一項(xiàng)浩大的工程。或者是設(shè)計(jì)一種具有學(xué)習(xí)能力的人工智能程序,可以讓自動(dòng)駕駛汽車在工作時(shí)不斷通過學(xué)習(xí)迭代更新,從而能夠更智能地分析數(shù)據(jù),在同一情景中做出更為優(yōu)秀的決策。但是無論是哪種方式,都需要一個(gè)浩大的數(shù)據(jù)庫來為這種風(fēng)險(xiǎn)管理的決策方式提供支持。

所以,在給自動(dòng)駕駛汽車設(shè)計(jì)道德算法時(shí),所要考慮的絕不是單純地從某一個(gè)方面出發(fā),更不可能只純粹地保護(hù)某一方的利益,當(dāng)然,要滿足所有人的需求也是不可能的。從目前來看,最終的道德算法設(shè)計(jì)或許只能采取類似功利主義的原則,做到滿足多數(shù)人的需求,保護(hù)多數(shù)人的利益。如果自動(dòng)駕駛汽車能夠做到:(1)在面對(duì)突發(fā)交通事故時(shí),自動(dòng)駕駛汽車可以迅速地進(jìn)行判斷,選擇傷亡最小的方案;(2)在面向電車難題時(shí),能迅速地做出風(fēng)險(xiǎn)評(píng)估,判斷每個(gè)人的生存率和死亡率,最極端的情況下,判斷每個(gè)人能為社會(huì)創(chuàng)造的價(jià)值,并以此作為決策的因素。那么,盡管會(huì)有人反對(duì)這種道德算法,但是保護(hù)多數(shù)人,保護(hù)能為社會(huì)創(chuàng)造更大價(jià)值的人也不失為一種通達(dá)“善”的可取原則。

因此,可以借鑒Noah J. Goodall的風(fēng)險(xiǎn)管理思路,也可以參照羅爾斯在作為公平的正義中對(duì)兩個(gè)正義原則所采取的做法——建立一種詞典序列以確定道德原則之間的優(yōu)先序列,甚至為了克服道德算法中的功利主義成分,也可以汲取羅爾斯正義論中的契約論方法——對(duì)原初狀態(tài)、“無知之幕”的引入。正如羅爾斯所言:“原初狀態(tài)必須具有這樣一種特征:在那里規(guī)定是被廣泛接受的,正義的原則是在一種無知之幕后被選擇的?!盵6]在人工智能可以評(píng)估的情況下,犧牲誰和拯救誰,這本身就蘊(yùn)含著一種關(guān)于合理性、公正性和對(duì)等性的評(píng)價(jià)。因此,一種致力于使自動(dòng)駕駛汽車在電車難題中做出合理、公正、對(duì)等決策的道德算法就具有了正義的德性。這種道德算法便獲得了去功利化的特質(zhì),在形式上采用了一種風(fēng)險(xiǎn)管理的方式,但它要設(shè)置有差序的道德決策原則。

第一原則稱為生命原則。生命是指人的生命,它所依賴的只有那些類似交通事故中所積累出的風(fēng)險(xiǎn)評(píng)估數(shù)據(jù),例如風(fēng)險(xiǎn)系數(shù)、相關(guān)的生存率、某種條件下的傷亡率等,從而綜合決策,實(shí)行保護(hù)存活率更多的那種方案。雖然生命原則可能允許以更多的生命去傷害更少的生命,似乎仍然是功利主義思想,但是它作為優(yōu)先級(jí)最高的道德原則,只允許生命層面的僭越。人工智能遵循生命原則做出的道德抉擇并不是定向犧牲某一個(gè)無辜者(符合道德運(yùn)氣),它的決策更是在“無知之幕”之后做出的,也就是不會(huì)關(guān)涉到交通事故場(chǎng)域中任何個(gè)體的自然因素和社會(huì)因素,這意味著它會(huì)忽視所有人的身體素質(zhì)或身份地位等因素,至于其他動(dòng)物和人造物,無論價(jià)值多高都不在考慮范圍之內(nèi)?;蛟S,在傳統(tǒng)契約論的原初狀態(tài)中,個(gè)人會(huì)拒斥整體對(duì)個(gè)體生命的犧牲,但是傳統(tǒng)契約論中那種基于個(gè)體的原初狀態(tài)只存在于理論之中,那么是否可以將原初狀態(tài)拉回現(xiàn)實(shí),將它設(shè)定在一個(gè)社會(huì)化的場(chǎng)域中?這樣,忽視個(gè)體的自然因素和社會(huì)因素便可以稱得上原初狀態(tài),因?yàn)樵谏鐣?huì)化場(chǎng)域中簽訂契約的已經(jīng)不是一個(gè)獨(dú)在的個(gè)體,也正是這樣,大多數(shù)人都能認(rèn)同現(xiàn)實(shí)境遇下的基于“無知之幕”的生命原則。國(guó)家元首和普通人的生命權(quán)一樣重,在生命原則下,老年人和年輕人的生命權(quán)一樣重,重病者和健康者的生命權(quán)一樣重……人工智能依據(jù)生命原則不會(huì)歧視任何人的生命,它只會(huì)致力于在交通事故中保存更多人的生命,這種優(yōu)秀決策結(jié)果是人類決策難以實(shí)現(xiàn)的,甚至始終站在公正原則立場(chǎng)上也是人類在現(xiàn)實(shí)生活中幾乎無法做到的。人工智能通過大數(shù)據(jù)分析所得出的結(jié)論,很大程度上是比人通過理性分析所得出的結(jié)論要可靠得多的。James H. Moor就說過:“最令人印象深刻的是,一個(gè)明確的道德代理人能夠自主地處理現(xiàn)實(shí)生活中發(fā)生的一系列不可預(yù)知的事件?!盵7]

第二原則稱為價(jià)值原則。它是一種輔助式的原則,它所依據(jù)的恰恰是生命原則所屏蔽的個(gè)體的自然因素和社會(huì)因素,例如社會(huì)價(jià)值、身體健康狀況、學(xué)歷狀況,精神狀況,甚至是財(cái)產(chǎn)狀況等。價(jià)值原則實(shí)際上需要超大的數(shù)據(jù)支持,甚至是追求完全信息。啟用這個(gè)原則的前提條件是人工智能依據(jù)生命原則所評(píng)出的最優(yōu)方案并不唯一,這種時(shí)候需要用價(jià)值原則輔助,以期在生命原則所評(píng)出的多個(gè)同等優(yōu)先級(jí)別的方案中篩選出最優(yōu)的那個(gè)。實(shí)際上,這兩個(gè)道德原則的應(yīng)用是同時(shí)的,也就是說在人工智能的決策中,信息是盡可能地向它開放的,包括所有個(gè)體的自然因素和社會(huì)因素,只是依據(jù)詞典序列,生命原則的優(yōu)先級(jí)別要絕對(duì)高于價(jià)值原則罷了。我們倡導(dǎo)生命原則,設(shè)計(jì)人工智能的決策處于“無知之幕”下,并不是意味著要刻意屏蔽科學(xué)技術(shù)能夠獲得的信息,甚至可以講,價(jià)值原則的應(yīng)用表明了我們對(duì)完全信息的追求。當(dāng)然,生命原則所要求的信息量和信息技術(shù)是目前的科學(xué)技術(shù)水平能夠輕易滿足的,這也意味著,在自動(dòng)駕駛汽車的發(fā)展應(yīng)用過程中,一種應(yīng)用生命原則的道德算法是能夠?qū)崿F(xiàn)的,同時(shí),我們也追求信息技術(shù)所帶來的便利,追求完全信息在人工智能決策中的作用。萬物互聯(lián)互通這項(xiàng)工作無疑是艱巨的,但是當(dāng)有足夠多的數(shù)據(jù)支持時(shí),人工智能才能做出更加完善的決策,人們才能更好地享受自動(dòng)駕駛汽車對(duì)生活帶來的巨大便利。

第三原則稱為人道原則。它是一個(gè)具有鏈?zhǔn)疥P(guān)系的補(bǔ)償原則,也是一種預(yù)先設(shè)定的強(qiáng)制性原則。它的核心精神就是:在人工智能對(duì)電車難題的最終決策方案中,總是會(huì)存在無辜的犧牲者和間接的或直接的事故豁免者,這些被拯救者要按照一定的責(zé)任劃分,向那些犧牲者的家庭予以無條件的相應(yīng)經(jīng)濟(jì)援助。因?yàn)樵谝粋€(gè)交通事故中,人工智能的多種決策方案中總是鏈?zhǔn)降卮?lián)起許多人,這個(gè)鏈?zhǔn)疥P(guān)系上只有最小部分人被選擇為犧牲對(duì)象,剩余的絕大部分人將被選擇為事故的豁免對(duì)象。因?yàn)檫@個(gè)鏈?zhǔn)疥P(guān)系涉及的人群會(huì)比較大,倘若按照一定的責(zé)任劃分方案來劃分經(jīng)濟(jì)援助額,這種責(zé)任分流方式會(huì)使得鏈?zhǔn)疥P(guān)系中的個(gè)體所承受的經(jīng)濟(jì)援助壓力非常小,甚至也可以想象,肯定會(huì)有保險(xiǎn)公司出臺(tái)“補(bǔ)償援助險(xiǎn)”。之所以人道原則是強(qiáng)制性的,一方面是因?yàn)樗鼘?duì)事故豁免對(duì)象而言僅僅造成很小的經(jīng)濟(jì)負(fù)擔(dān),但對(duì)事故對(duì)象的家庭而言卻有著“眾人拾柴火焰高”巨大功效;另一方面是因?yàn)閺?qiáng)制性的補(bǔ)償保障會(huì)讓生命原則更容易被廣泛接受。人道原則對(duì)生命原則的功利主義思想也予以了一定程度的消解,即用補(bǔ)償來消解整體對(duì)個(gè)體的“傷害”。但這并不是說,用經(jīng)濟(jì)補(bǔ)償就能獲得功利主義對(duì)個(gè)體傷害的正義性,生命原則的正義性本質(zhì)上根源于它的決策處于“無知之幕”下,因而獲得了社會(huì)場(chǎng)域原初狀態(tài)下人們的廣泛接受。

四、結(jié)語

在人類社會(huì)的發(fā)展進(jìn)程中,人工智能的發(fā)展不會(huì)停止腳步,人類也不可能讓它停止發(fā)展。自動(dòng)駕駛汽車不是完美的,它也永遠(yuǎn)不可能是完美的。交通事故是無法杜絕的,無人駕駛技術(shù)和人工智能技術(shù)的應(yīng)用只能讓自動(dòng)駕駛汽車以遠(yuǎn)超個(gè)體的能力去盡可能地降低事故的發(fā)生率,降低事故帶來的傷害和損失。甚至可以想象,當(dāng)自動(dòng)駕駛汽車的普及率達(dá)到一定程度后,是否自動(dòng)駕駛汽車在面臨交通事故時(shí)會(huì)協(xié)同決策和協(xié)同處理?信息技術(shù)基礎(chǔ)上的精準(zhǔn)協(xié)同是人類駕駛員無法匹及的。在那些極端和突發(fā)的情況中,特別是涉及到人的生命安全的情況下,應(yīng)當(dāng)讓人工智能遵循三大基本道德原則,并保證生命原則的至高優(yōu)先級(jí)別,從而盡可能地保障更多人的生命不被損害,盡可能使事故中人的傷亡最小化,這是筆者所推崇的。人工智能基于生命原則的道德決策所需的數(shù)據(jù)量和數(shù)據(jù)技術(shù)是目前科學(xué)技術(shù)能夠輕易實(shí)現(xiàn)的,當(dāng)然,自動(dòng)駕駛汽車也追求更好更強(qiáng)的信息技術(shù),更多更快的信息支持。目前,一個(gè)較好的可取態(tài)度便是認(rèn)清人工智能決策的優(yōu)點(diǎn),并給它足夠的發(fā)展空間和信任包容。人工智能作為人之本質(zhì)的對(duì)象化,它的決策依賴于人類對(duì)規(guī)則的把握。在未來,自動(dòng)駕駛汽車能更快地做出比人類更好的事故決策,這便是人工智能的最大價(jià)值之所在。

猜你喜歡
交通事故決策自動(dòng)
基于BPNN-AdaBoost的隧道交通事故數(shù)預(yù)測(cè)研究
為可持續(xù)決策提供依據(jù)
預(yù)防交通事故
自動(dòng)捕盜機(jī)
決策大數(shù)據(jù)
決策大數(shù)據(jù)
諸葛亮隆中決策
搭乘同事車輛下班回家途中發(fā)生交通事故是否認(rèn)定工傷
讓小鴨子自動(dòng)轉(zhuǎn)身
自動(dòng)搖擺的“蹺蹺板”