余澤娜,裴安琪
(中共廣東省委黨校 哲學(xué)教研部,廣東 廣州 510053)
借助機(jī)器人在數(shù)據(jù)和算法的幫助下代替人類從事汽車駕駛工作,正在改變?nèi)祟惖某鲂蟹绞胶蜕罘绞?。但是,?018年3月美國Uber公司的一輛無人駕駛汽車撞死一位行人事件發(fā)生之后,關(guān)于無人駕駛的倫理和道德討論就開始不斷深入起來。其中的關(guān)鍵就在于,無人駕駛?cè)绾伪苊鈾C(jī)器算法和判斷的失靈,而不是只滿足于技術(shù)上的自動(dòng)化。而關(guān)于機(jī)器算法和判斷的失靈的彌補(bǔ),必然是一個(gè)倫理和道德問題,因?yàn)橹挥腥瞬耪嬲哂械赖屡袛嗟淖灾骱蜎Q策能力。但至今的討論顯然過于簡單化和理想化,并沒有深入分析基于無人駕駛技術(shù)帶來的深層次倫理困境問題。無人駕駛技術(shù)之所以陷入倫理兩難困境,在于機(jī)器的道德決策過程是否具備主體性,以及由此產(chǎn)生的道德決策主體問題、事故歸責(zé)問題和隱私問題四大障礙,唯有全面分析這四個(gè)方面,才能進(jìn)一步提出解決這四個(gè)障礙的對策。
“電車難題”是倫理學(xué)中具有代表性的“兩難問題”,最早由Foot提出[1]。關(guān)于這一問題的經(jīng)典描述是電車行進(jìn)前方的鐵軌上有五個(gè)人,此時(shí)一輛剎車失控的電車正朝他們駛來。你可以通過拉動(dòng)拉桿讓電車駛向另一條鐵軌,但另一條鐵軌上也有一個(gè)人,你該如何選擇?在假想的“電車難題”的困境中主要考慮的是人數(shù)的差異,但由于無人駕駛問題的現(xiàn)實(shí)性,其算法內(nèi)置程序關(guān)于相同境遇中應(yīng)該考慮的因素應(yīng)更為細(xì)致,因而其道德決策會(huì)更加復(fù)雜。
比如在年輕人和老人之間如何抉擇,人和動(dòng)物之間如何抉擇以及科學(xué)家和流浪漢之間如何抉擇等等。關(guān)于這些問題的內(nèi)置算法程序在決策的時(shí)候,一旦選擇不慎誤用道德共識(shí),就會(huì)導(dǎo)致自動(dòng)駕駛的倫理問題。為此,美國麻省理工學(xué)院曾做過一個(gè)“道德機(jī)器”實(shí)驗(yàn),這一實(shí)驗(yàn)設(shè)計(jì)了9種不同事故的場景,面向全球隨機(jī)抽取樣本,調(diào)查人們在這些場景中希望無人駕駛機(jī)器應(yīng)做出何種道德選擇。實(shí)驗(yàn)結(jié)果顯示出人們強(qiáng)烈的道德偏好——無人駕駛汽車在面臨兩難困境時(shí)應(yīng)選擇:人類而非寵物、車內(nèi)乘客而非行人、多數(shù)人而非少數(shù)人、女性而非男性、年幼者而非年長者、身體健康而非體弱多病的、社會(huì)地位更高而非更低的、守法的而非鉆法律空子的人[2]。
問題在于這些調(diào)查違反了幾乎所有的倫理流派的道德底線——把人的生命量化考量。自文藝復(fù)興以來“人人平等”成為我們的共識(shí),上述調(diào)查研究把人的性別、身份、社會(huì)地位等后天因素作為道德決策時(shí)的考慮因素,得到的結(jié)論與我們的倫理共識(shí)存在沖突,讓大多數(shù)倫理學(xué)家都難以接受。更有甚者,調(diào)查還把其他物種(比如小狗)考慮進(jìn)去,一旦調(diào)查結(jié)果是無人駕駛可能為救10只小狗的生命而撞人,這將更加違背倫理常識(shí)。
上述違背倫理常識(shí)的問題可能會(huì)讓我們更進(jìn)一步發(fā)問,無人駕駛技術(shù)是否能夠做出自我的、可接受的道德決策?顯然困難巨大。與電車難題中對司機(jī)的要求一樣,對無人駕駛內(nèi)置算法程序在道德選擇方面的要求也是一件頗為棘手的事情。
道德決策的兩難困境焦點(diǎn)最終指向功利主義和義務(wù)論兩種不同的倫理立場。以邊沁為代表的功利主義者認(rèn)為要以“滿足最大多數(shù)人的最大幸?!痹瓌t為道德決策的指導(dǎo),主張“兩害相權(quán)取其輕”;以康德為代表的義務(wù)論者則認(rèn)為不能把人當(dāng)做目的,堅(jiān)持在“普遍律原則”的指導(dǎo)下做出道德決策,但兩者在實(shí)踐的過程中都存在不可避免又無法彌補(bǔ)的缺陷。
功利主義的算法設(shè)置本質(zhì)上是一種算術(shù)行為,看似最為科學(xué)簡明有效,實(shí)則面臨嚴(yán)峻復(fù)雜的算法任務(wù)。以功利主義倫理立場為指導(dǎo)的內(nèi)置算法程序要計(jì)算出所有可能會(huì)出現(xiàn)的結(jié)果并對其進(jìn)行道德排序,以交付人們從中做出正確的即效用最大化的選擇。數(shù)字倫理研究領(lǐng)域著名學(xué)者米歇爾·安德森和蘇珊·安德森依據(jù)功利主義原則建立了簡單的算法程序:通過考量受影響的人數(shù)、每個(gè)人快樂或不快樂的強(qiáng)度和持續(xù)度以及快樂或不快樂在每一個(gè)可能行動(dòng)中出現(xiàn)的可能性,得出最佳行動(dòng)方案[3]。但由于“快樂能否量化”問題存在爭議且其強(qiáng)度和持續(xù)性難以考量,功利主義并不具有現(xiàn)實(shí)的可操作性。更加需要指出的是,功利主義最大的弊端在于他們自始至終都無法解釋“最大多數(shù)人的最大利益”何以能夠成為道德行為正確與否的衡量標(biāo)準(zhǔn),以及利益相關(guān)者人數(shù)最大化和利益最大化何者更為優(yōu)先的問題。如果把道德選擇和利益計(jì)算相等同,那么人的內(nèi)在價(jià)值將不復(fù)存在,道德也就無處存身。這是功利主義無法承認(rèn)的。
義務(wù)論的核心是考量行為本身是否符合道德規(guī)范而不關(guān)注其結(jié)果??档碌牧x務(wù)論要求我們確立具有普遍性的道德規(guī)范,這似乎不難,問題在于嚴(yán)格地執(zhí)行這種理想的普遍性規(guī)范非常困難。每一個(gè)規(guī)范性理論,如果在實(shí)踐中得到完全嚴(yán)格的執(zhí)行,都可能在某些情境下導(dǎo)致人或機(jī)器做出違背直覺的、非常不道德的甚至荒謬的行為。因?yàn)楝F(xiàn)實(shí)的道德情境和道德主體的行為特征往往是復(fù)雜的,這與道德規(guī)范理論所闡述的單一性特征相矛盾。比如在“人應(yīng)該誠實(shí),不能說謊”這一道德規(guī)范中,誠實(shí)所闡述的是單一性的特征。但是在具體的現(xiàn)實(shí)情境中,誠實(shí)的道德品質(zhì)可能會(huì)間接導(dǎo)致無辜的人失去生命。這一結(jié)果明顯不符合我們的道德直覺。同樣,在無人駕駛中,如果嚴(yán)苛地按照事先設(shè)定好的準(zhǔn)則指示內(nèi)置程序做出符合道德規(guī)范的行為,也將會(huì)形成類似“誠實(shí)間接致人死亡”的道德困境,即基于定言命令的道德準(zhǔn)則與現(xiàn)實(shí)情景中的道德直覺發(fā)生沖突。面對現(xiàn)實(shí)的具體情境,我們需衡量堅(jiān)守原則與允許打破原則的“例外”存在何者更符合我們的道德直覺。比如,若堅(jiān)守“誠實(shí)”的道德原則會(huì)致無辜者死亡,那么“善意的謊言”或“描述部分事實(shí)”則應(yīng)該被視為符合道德原則的一種例外。事實(shí)上,做出道德判斷的過程往往是衡量各個(gè)道德原則是否應(yīng)當(dāng)被破例以符合人們的道德直覺的過程,也是人們的理性思維和感性直觀的博弈過程。人類自身面對如此難題尚且無所適從,若把期望寄托在無人駕駛的內(nèi)置算法程序上無疑更是過于天真。
無論是功利主義還是義務(wù)論,二者在這類道德兩難困境中均不具有絕對的道德正當(dāng)性,無人駕駛的內(nèi)置程序無論如何設(shè)計(jì)都有跌入“騎驢困境”的風(fēng)險(xiǎn)。所以,無人駕駛在道德決策過程中的兩難困境是無法避免的現(xiàn)實(shí),若無人駕駛汽車可以避免做出倫理選擇,那么這一困境就可以得到解決。
從邏輯上來說,無人駕駛汽車可以通過兩種途徑避免做出倫理選擇:第一,無人駕駛汽車可以通過技術(shù)發(fā)展實(shí)現(xiàn)零碰撞。第二,若做不到第一,無人駕駛需要做到在碰撞發(fā)生前把決策權(quán)交還給人。問題在于,這兩者都無法實(shí)現(xiàn)。就零碰撞而言,盡管技術(shù)樂觀主義者認(rèn)為科技發(fā)展可以實(shí)現(xiàn)這一目標(biāo),但目前來講這一美好愿景很難達(dá)到。一方面探測系統(tǒng)仍然存在很多局限,部分細(xì)小物體難以識(shí)別;另一方面即便探測系統(tǒng)未來能夠識(shí)別所有物品,但駕駛過程本身復(fù)雜多變,技術(shù)無法預(yù)測道路行人以及路上其他非無人駕駛汽車的動(dòng)態(tài)軌跡。就決策權(quán)的轉(zhuǎn)移而言,在無人駕駛汽車發(fā)生碰撞前把決策權(quán)交還給人,表面看來確實(shí)能避免無人駕駛汽車道德決策的兩難問題,但如果無人駕駛技術(shù)需要人時(shí)刻保持警惕參與駕駛活動(dòng),這不僅是對“無人駕駛”語義直覺的違背,也是對“無人駕駛”本身功能的消解,且對于提升駕駛安全、解放人類駕駛員的作用都有限。因此,在遇到緊急情況時(shí),無人駕駛在道德決策方面面臨的困境是無法通過上述兩種途徑得到根除的。
即使無人駕駛的道德決策不存在倫理爭議,它也面臨另一個(gè)困境,即此時(shí)道德決策的主體是誰?技術(shù)(機(jī)器)還是人?這就是無人駕駛中的道德決策主體問題,這一問題包含兩方面的內(nèi)容。
第一個(gè)方面,汽車無人駕駛技術(shù)是否可以成為道德主體?
既然是機(jī)器在自動(dòng)駕駛,那么人類可否將駕駛過程中道德決策的自主權(quán)讓渡給機(jī)器?這就涉及到機(jī)器人是否具有道德主體地位的問題。隨著科學(xué)技術(shù)的發(fā)展,汽車無人駕駛技術(shù)是否可以成為道德主體進(jìn)而享有道德權(quán)利并且承擔(dān)相應(yīng)道德責(zé)任引發(fā)學(xué)界討論,成為科技倫理的核心問題之一。在討論無人駕駛技術(shù)是否具有道德地位之前,我們有必要明確道德地位的概念,即何為道德地位。
甘紹平對道德地位給出的定義是:“一個(gè)實(shí)體因其自身而獲得人類道德關(guān)懷的資格”[4]207。道德地位往往伴隨著一定的道德權(quán)利(moral right)和道德義務(wù)(moral obligation)。一個(gè)實(shí)體擁有了一定的道德地位,就表明這個(gè)實(shí)體必然可以享受道德權(quán)利,承擔(dān)道德義務(wù)。擁有道德地位的行為主體可以獲得人類道德關(guān)懷,也應(yīng)對道德共同體內(nèi)的其他成員給予道德關(guān)懷。
對于無人駕駛技術(shù)等人工智能,如果人類以自身擁有的道德意識(shí)來對其進(jìn)行規(guī)約,以自身為藍(lán)本,要求其擁有相等的道德地位尤其是承擔(dān)相等的道德責(zé)任和義務(wù),這首先乃是一種對于自然界其他存在物的苛求,是一種道德領(lǐng)域內(nèi)的人類中心主義。但是即便擺脫道德領(lǐng)域的人類中心主義,從技術(shù)工具論角度來看,無人駕駛技術(shù)依舊不能成為道德主體,或者說無法擁有其道德地位。
雖然科技發(fā)展正在影響著人類生活的方方面面,并且科技在發(fā)展的過程中自身呈現(xiàn)出一定的發(fā)展規(guī)律,這種規(guī)律影響著社會(huì)的運(yùn)行方式,無形中改變著社會(huì)原本的形態(tài),包括人、科學(xué)、政治與經(jīng)濟(jì)等諸多層面都會(huì)受到科技的影響??萍际沟萌祟悓ζ溆右蕾?,而且這種影響的發(fā)展往往被大眾認(rèn)為是不可控的。但歸根結(jié)底,技術(shù)由人研發(fā),聽命于人類,并最終服務(wù)于人類。因此人類應(yīng)該明白,技術(shù)僅僅是一種工具,無人駕駛技術(shù)最終是由人制造,由人設(shè)定規(guī)則,并且服務(wù)于人,是人在主導(dǎo)無人駕駛技術(shù)的發(fā)展而不是相反。尤其重要的是,無人駕駛技術(shù)本身不具備道德屬性,它無法理解人類所理解的“善”與“惡”,即使能理解也是人類對其設(shè)定的程序所致,且其所學(xué)習(xí)的道德知識(shí)——如果它有這個(gè)學(xué)習(xí)能力的話——也是來源于人類。而且,即使它習(xí)得了人類的道德規(guī)則,也仍然無法理解這些規(guī)則的真正意蘊(yùn)與背后的形而上理由。
因此,本文認(rèn)為無人駕駛技術(shù)不具有道德屬性,自然,它也就不具有道德地位,無法成為道德主體。如果無人駕駛技術(shù)被人類強(qiáng)行賦予道德地位,人類強(qiáng)行讓無法成為道德主體的無人駕駛技術(shù)成為道德主體,強(qiáng)行讓無法承擔(dān)道德責(zé)任的無人駕駛技術(shù)承擔(dān)道德責(zé)任,不僅會(huì)導(dǎo)致人類產(chǎn)生惡念,導(dǎo)致本應(yīng)承擔(dān)相應(yīng)道德和法律責(zé)任的人利用無人駕駛技術(shù)逃脫法律的制裁和道德指責(zé),更會(huì)影響乃至改變?nèi)祟悗浊陙硇纬傻南鄬Ψ€(wěn)定的責(zé)任歸屬和社會(huì)規(guī)范模式,甚至?xí)?dǎo)致人類社會(huì)形成無責(zé)任歸屬和無社會(huì)規(guī)范的無序社會(huì)模式。
第二個(gè)方面,如果只有人才能成為無人駕駛中道德決策的主體,那么應(yīng)該是誰?
這之所以成為一個(gè)問題或困境,是因?yàn)?,在人類駕駛行為中,駕駛?cè)司褪堑赖聸Q策主體,他依據(jù)自己的利益或者良心做出選擇;而在無人駕駛中,直接的決策者是機(jī)器。但機(jī)器既然不能成為道德主體,人們就必須將自己的道德命令事先灌輸給它,讓它按照人的道德尺度行事。問題是,灌輸給機(jī)器的道德命令應(yīng)該是什么人的?與無人駕駛中的道德決策相關(guān)的人包括但不限于:駕駛?cè)?、乘客、行人、汽車制造商、政府等,在這些人中,誰應(yīng)該成為道德決策的真正主體?這些可能的主體之間由于存在利益或觀念沖突因而可能會(huì)做出不同甚至截然相反的道德決策。所以看起來,在這些不同的人中間尋求某種道德共識(shí)是一種合理的解決方案。上述麻省理工學(xué)院的實(shí)驗(yàn)正是為了在世界范圍內(nèi)征集人們的意愿,以評估跨越不同文化、國家、種族、宗教等背景的人們的道德偏好,從而用以指導(dǎo)制定“道德機(jī)器”所應(yīng)遵循的道德規(guī)范。
然而,正如倫理學(xué)研究早就揭示的,在較大范圍人群中取得道德共識(shí)是一件十分困難的事,范圍越大越艱難。不僅如此,而且,人們在假想的實(shí)驗(yàn)中所表露的道德立場往往并不等同于他身處事件之中時(shí)會(huì)采取的真實(shí)道德立場。前者更多地基于理性推導(dǎo),是抽象的;后者則會(huì)因其身份、利益的變化而變化,是具體的。例如,他在實(shí)驗(yàn)中支持遇到兩難困境時(shí)應(yīng)選擇車內(nèi)乘客優(yōu)先而非行人優(yōu)先,但當(dāng)他真的成為事件中無辜的行人時(shí),他可能會(huì)反對自己原來的立場。同時(shí),是否需要征集利益相關(guān)者意愿以及在多大程度上采取他們的意愿涉及公共政策與道德偏好之間的關(guān)系。收集公眾偏好并不意味著這樣的道德偏好就是我們設(shè)計(jì)無人駕駛汽車的唯一依據(jù)或標(biāo)準(zhǔn)。公共政策作為事實(shí)和價(jià)值的統(tǒng)一體,還要考慮到技術(shù)層面的可行性以及該技術(shù)功用目的的達(dá)成度。并且,以道德偏好作為公共政策制定的依據(jù)暗含“群體歧視”的道德風(fēng)險(xiǎn)。具體到無人駕駛的道德決策問題上,如果以道德偏好作為內(nèi)置算法程序的決策依據(jù),可能暗含歧視或犧牲少數(shù)群體——特定性別、特定族裔、或特定地區(qū)——利益的先置設(shè)定。并且,訴諸直覺的道德偏好由于不同社會(huì)文化背景的差異,具有極強(qiáng)的道德相對主義。同時(shí),道德偏好的選擇僅代表實(shí)然層面的“是”,無法提供具有正當(dāng)性的“應(yīng)當(dāng)”。因此,公眾的道德偏好不能成為公共政策的制定依據(jù)。事實(shí)上,往往不是人們的道德偏好決定公共政策,而是公共政策規(guī)定人們的道德偏好。
但是,如果在無人駕駛過程中遇到緊急情況時(shí)是依據(jù)相關(guān)公共政策做出道德決策,那么,姑且不論這種政策是否能夠窮盡駕駛過程中的一切復(fù)雜情況和細(xì)節(jié),單就政策的制定而言,我們發(fā)現(xiàn)我們?nèi)匀惶幱诶Ь持小叩闹贫ㄕ咚坪醭闪俗罱K的道德決策主體,而制定者是誰?官員或者專家?他們制定的倫理依據(jù)是什么?甚至可能有人會(huì)指責(zé):聽取了公眾意愿了嗎?
于是我們發(fā)現(xiàn)問題又循環(huán)回來了。在眾多利益和價(jià)值觀念相異的可能主體中,我們既不能只采取其中一部分人的立場,又很難取得他們關(guān)于無人駕駛道德決策的共識(shí)。
倫理學(xué)研究者很難幫助公眾做出完美的道德決策,我們能做的只是提出一個(gè)道德底線,在此基礎(chǔ)之上讓公民自由地選擇。問題在于這個(gè)道德底線究竟是什么?這里首先可以參考契約主義的主張。每一種道德選擇都蘊(yùn)含著各自的價(jià)值取向,但我們需要形成一致的解決方案和規(guī)則。契約主義在這里為我們提供了啟發(fā),它認(rèn)為規(guī)則的訂立應(yīng)當(dāng)以所有人為滿足自己利益而自愿簽訂契約為基礎(chǔ),這突出了不同主體利益的平衡性、對等性與相互性。這里最為核心的一點(diǎn)就是,規(guī)則的制定必須是在“無知之幕”下進(jìn)行的,在“無知之幕”下,每一個(gè)主體都不知道自己將會(huì)在無人駕駛的相關(guān)事件中充任什么角色。這也符合康德“普遍立法”的道德律,這條道德律令要求人們做出道德決定不能因?yàn)閳鼍昂蜕矸莸霓D(zhuǎn)變而隨之改變。如此就避免了一種尷尬情形——當(dāng)某人身為自動(dòng)駕駛汽車上的乘客時(shí),認(rèn)為應(yīng)為保護(hù)自己而犧牲行人;但當(dāng)自己身份轉(zhuǎn)換為行人時(shí),又認(rèn)為應(yīng)為保護(hù)行人而犧牲車上的乘客。契約主義為包括駕駛?cè)?、乘客、行人、汽車制造商、政府等在?nèi)的不同主體商談設(shè)立無人駕駛倫理規(guī)則提供了可供參考的方法論。當(dāng)各方在滿足自己利益需求的基礎(chǔ)上自愿達(dá)成共識(shí)并簽署契約,則我們安排機(jī)器按照該契約做出的道德決策就應(yīng)該被視為符合倫理規(guī)范的道德決策。
同時(shí),還可以根據(jù)那些我們無法接受的倫理規(guī)則來確立道德底線。比如無人駕駛內(nèi)置程序不能提供個(gè)性化的道德選擇,因?yàn)槿羧绱?,則每個(gè)人都會(huì)根據(jù)利己主義做出倫理選擇,這將會(huì)損害整體利益并有滑向囚徒困境的風(fēng)險(xiǎn)。
大部分討論,都停留于上述兩種道德困境,即側(cè)重于理論層面的探討。而無人駕駛發(fā)生事故后引發(fā)的歸責(zé)問題以及大數(shù)據(jù)在搜集道路信息乘客信息時(shí)引發(fā)的隱私安全問題則屬于實(shí)踐層面的困境,這同樣需要更為細(xì)致的倫理分析。
傳統(tǒng)駕駛發(fā)生事故后的責(zé)任劃定可以依據(jù)現(xiàn)有的法律規(guī)范得出較為清晰的結(jié)論,一般來說人類是事故的主體。但無人駕駛發(fā)生事故后的歸責(zé)不僅涉及復(fù)雜的技術(shù)認(rèn)定問題,也涉及倫理、法律界對自動(dòng)駕駛系統(tǒng)的主體地位認(rèn)定的爭議。按照我們上面的討論,機(jī)器人道德主體地位的模糊性使得我們對其判罰行為的正當(dāng)性大大削弱。并且,人類歷史上的責(zé)任判罰懲處其執(zhí)行方式通常是剝奪對象某種權(quán)利或價(jià)值,比如剝奪政治權(quán)利、生命權(quán)或者自由。無人駕駛技術(shù)作為人造物本身不具備社會(huì)屬性,不存在自由意志更談不上生命價(jià)值。換言之,無人駕駛技術(shù)不具備人類社會(huì)的可判罰要求。此時(shí),責(zé)任歸屬對象變得復(fù)雜起來。一方面,自動(dòng)駕駛車輛及其技術(shù)可能正是“罪魁禍?zhǔn)住薄罢厥抡摺?;另一方面,它卻無法作為具有自由意志的道德主體承擔(dān)責(zé)任。那么,責(zé)任者是誰?是否僅包括汽車供應(yīng)商和算法設(shè)計(jì)者;乘客應(yīng)不應(yīng)該也被囊括其中?各主體如何認(rèn)領(lǐng)屬于自己的責(zé)任以及如何對責(zé)任進(jìn)行劃分成為需要多方協(xié)商解決的重大問題。
需要強(qiáng)調(diào)的是,責(zé)任劃分要避免出現(xiàn)“道德推脫”的倫理困境。Bandura認(rèn)為,一個(gè)自治的人道的社會(huì)根植于道德自我制裁——人們持續(xù)地控制自己的行為,且必須承擔(dān)自己所做的事情和自我評價(jià)的結(jié)果[5]。無人駕駛事故發(fā)生后的責(zé)任裁定涉及到多方主體且各主體所需承擔(dān)責(zé)任的比重有待商榷,在此過程中要始終對責(zé)任擴(kuò)散現(xiàn)象保持警惕,責(zé)任感可以被分散開來,因?yàn)榉止ざА4蠖鄶?shù)事業(yè)需要很多人參與其中,每一項(xiàng)任務(wù)都被細(xì)分為多種工作,導(dǎo)致大家感覺每種工作本身都是無害的[6]。一方面,汽車供應(yīng)商、算法設(shè)計(jì)者以及乘客都應(yīng)積極承擔(dān)自己的責(zé)任。首先,對汽車供應(yīng)商而言首要的道德責(zé)任就是確保無人駕駛汽車的硬件安全。在無人駕駛汽車出廠之前要嚴(yán)格把關(guān)質(zhì)量安全審查,并且要致力于提高無人駕駛汽車的安全性能研究。其次,算法設(shè)計(jì)者要時(shí)刻謹(jǐn)記阿西莫夫提出的機(jī)器人學(xué)的“三大法則”——安全是最基本的倫理準(zhǔn)則[7],也是人的基本價(jià)值。算法設(shè)計(jì)者要在技術(shù)上盡可能地做到精細(xì)化,以不斷趨近“零碰撞”的美好愿景(盡管可能永遠(yuǎn)無法達(dá)到)。但是,設(shè)計(jì)者更要注意的是避免技術(shù)自負(fù)。當(dāng)代科技的發(fā)展尤其是人工智能技術(shù)的發(fā)展強(qiáng)化了近代理性主義的傳統(tǒng),這導(dǎo)致樂觀主義者關(guān)于技術(shù)萬能的迷信。然而,任何技術(shù)都不可能沒有漏洞和安全隱患,我們更不能盲目相信技術(shù)可以代替人做出合理的價(jià)值判斷。所以,算法設(shè)計(jì)者等技術(shù)人員既需要不斷完善無人駕駛技術(shù),也需要時(shí)刻注意用人類的價(jià)值理性去規(guī)制技術(shù)的開發(fā)與利用。最后,乘客作為無人駕駛技術(shù)的享受者不僅要熟悉無人駕駛技術(shù)的性能和局限,在其能力范圍內(nèi)合理使用無人駕駛技術(shù),而且要對不當(dāng)使用所致的后果負(fù)責(zé)。同時(shí),根據(jù)需要定期對無人駕駛車輛進(jìn)行維護(hù)和保養(yǎng)。
另一方面,加快建立問責(zé)制度是解決責(zé)任劃分難題的有效保障。應(yīng)從責(zé)任倫理的視角出發(fā),明確各責(zé)任主體的權(quán)利和義務(wù),建立清晰有效的問責(zé)制度,避免“道德推脫”的問責(zé)難題。目前無人駕駛技術(shù)基本采用“人機(jī)共駕”模式以應(yīng)對問責(zé)難題,即車內(nèi)搭載安全員在必要時(shí)進(jìn)行人工操作。但該模式仍存在諸多不足,由于旁觀者效應(yīng),安全員難以全神貫注時(shí)刻保持接管操作車輛的心理準(zhǔn)備。2018年美國Uber自動(dòng)駕駛汽車撞人事件充分證明了這一點(diǎn)。并且,“人機(jī)共駕”難以作為消解事故歸責(zé)難題的根本之策,只能作為無人駕駛技術(shù)落地過渡的緩兵之計(jì)。
如果說“人機(jī)共駕”是對“無人駕駛”語義直覺的違背,只能作為責(zé)任劃分的權(quán)宜之計(jì),那么把人類從駕駛?cè)蝿?wù)上剝離但仍然保留其道德和法律上的主體地位,保留人類最終對算法的設(shè)置和接管權(quán),確保人類在事故發(fā)生之后的責(zé)任補(bǔ)位,并最終確定責(zé)任由誰承擔(dān)歸誰負(fù)責(zé),則無疑是我們應(yīng)該劃定的道德底線。
隱私原本指不受他人干擾的自由狀態(tài),后引申為人們的一項(xiàng)特有的權(quán)利,即隱私權(quán)。隱私作為人的一項(xiàng)自然權(quán)利,隨著人類文明的進(jìn)步其內(nèi)涵也在不斷豐富發(fā)展。在日常生活中,隱私即指個(gè)人信息未經(jīng)本人允許禁止被他人收集、處理以及利用。學(xué)界對隱私權(quán)的地位有著幾種不同的理解,Schoeman認(rèn)為隱私是實(shí)現(xiàn)人類尊嚴(yán)的必要條件,是人類生而有之的一種權(quán)利和需要[8]12。有些學(xué)者則認(rèn)為隱私僅僅具有工具價(jià)值或者相對價(jià)值,Volkman認(rèn)為隱私權(quán)僅僅是從基本權(quán)利中派生出來的權(quán)利,反對把隱私權(quán)當(dāng)作一種自然權(quán)利,并且認(rèn)為由于其派生性所以它只是相對于某些人類基本權(quán)益才有價(jià)值,它只是一種工具價(jià)值、相對價(jià)值[9]。
隨著互聯(lián)網(wǎng)大數(shù)據(jù)的發(fā)展,傳統(tǒng)的基于物理空間意義上對隱私權(quán)的保護(hù)已經(jīng)不能滿足網(wǎng)絡(luò)空間面臨的隱私權(quán)的新挑戰(zhàn)。具體到無人駕駛的隱私安全問題主要有以下兩個(gè)方面:第一,對人類網(wǎng)絡(luò)空間的入侵。無人駕駛汽車依賴的是物聯(lián)網(wǎng)與大數(shù)據(jù)共享,做到安全快速的前提是要盡可能多地掌握數(shù)據(jù)信息。這些數(shù)據(jù)信息不僅包括車內(nèi)乘客的行駛、操作記錄,同時(shí)也包括車內(nèi)乘客的交談以及行駛過程中的環(huán)境信息。如此,置身于無人駕駛技術(shù)下的每個(gè)人都有掉入“圓形監(jiān)獄”的可能,我們失去了相對隱匿的移動(dòng)能力,無形之中被“監(jiān)控”起來。并且,在大數(shù)據(jù)時(shí)代這些數(shù)據(jù)信息蘊(yùn)含著巨大的價(jià)值,最終這些資源由誰監(jiān)管,乘客是否擁有監(jiān)督和自治權(quán)等問題都懸而未決。第二,算法精準(zhǔn)推送限制主體選擇,對個(gè)人自我決策產(chǎn)生干擾?;谟脩魯?shù)據(jù)的“預(yù)測性分析”算法推送應(yīng)用已經(jīng)非常普及,具體到無人駕駛技術(shù)上就是,它會(huì)根據(jù)搜集到的乘客信息選擇符合乘客偏好的路線。強(qiáng)大的數(shù)據(jù)預(yù)測功能意味著我們的未來將會(huì)被算法設(shè)計(jì)和限制,置身于“圓形監(jiān)獄”之中,不僅我們的過去是透明的我們的未來也是透明的。這種狀況的直接后果就是我們無法完全按照自己的意志自由地進(jìn)行決策,正如《未來簡史》為我們敲響的警鐘:最終“算法會(huì)成為所有人”[10]108。
大數(shù)據(jù)搜集道路和乘客信息建立數(shù)據(jù)庫會(huì)模糊隱私邊界,若不對此加以防范,會(huì)產(chǎn)生諸多倫理問題。首先,互聯(lián)網(wǎng)大數(shù)據(jù)對隱私權(quán)的壓迫違背了密爾的“傷害原則”——“人類之所以有理有權(quán)可以各別地或者集體地對其中任何分子的行動(dòng)自由進(jìn)行干涉,唯一的目的只是自我防衛(wèi)”[11]10,密爾的“傷害原則”在個(gè)人和社會(huì)之間筑起一道防止對個(gè)人造成傷害的壁壘。在大數(shù)據(jù)時(shí)代,個(gè)體領(lǐng)域不斷被外界“干涉”,基于信息泄漏隱私侵犯所造成的傷害也更為普遍和直接。其次,算法的精準(zhǔn)推送有可能違背“公正”和“平等”原則。根據(jù)沃爾策的觀點(diǎn),每一種善都是特殊的并且有著自己獨(dú)特的分配方式、分配機(jī)制和分配標(biāo)準(zhǔn),所以為了維護(hù)每個(gè)領(lǐng)域的公平,每一種分配原則都應(yīng)該被限制在自己的領(lǐng)域之內(nèi),必須反對一個(gè)領(lǐng)域的善越過、侵入和統(tǒng)治另一個(gè)領(lǐng)域的善。算法獲取信息和數(shù)據(jù),只有在生活便捷的邊界內(nèi)才是善的或者合理的,利用收集的數(shù)據(jù)對個(gè)體實(shí)行精準(zhǔn)推送的行為一旦越過這一邊界(比如為了獲取商業(yè)利益),便會(huì)違反“公平”原則。并且,由于數(shù)據(jù)資源的監(jiān)管和掌控權(quán)的劃分與歸屬尚不明晰,當(dāng)前更需要對個(gè)人數(shù)據(jù)信息的獲取和流通實(shí)施嚴(yán)格的法律與倫理規(guī)制。
然而令法律和倫理規(guī)制感到為難的是,私域與公域、算法推送的便利性與商業(yè)性之間的界限到底在哪?無人駕駛汽車車主的身份、車牌號(hào)碼、辦公地點(diǎn)、家庭住址、常去的地點(diǎn)等信息無疑屬于個(gè)人隱私,但如果這些私人信息不被匯集入公共數(shù)據(jù)平臺(tái),無人駕駛這一惠及社會(huì)的技術(shù)就不能發(fā)揮任何作用;算法推送的行駛路線、車內(nèi)音樂讓我們享受到便利,但這些推送又在多大程度上控制著我們的自主選擇、形成了我們的“信息繭房”?更何況,自由、隱私、便利等價(jià)值中,何者更為優(yōu)先,每一種價(jià)值的權(quán)重是多少,不同的人會(huì)有不同的選擇。有關(guān)隱私安全的此類難題,構(gòu)成了無人駕駛在實(shí)際應(yīng)用層面的又一個(gè)道德困境。
上述無人駕駛道德困境形成的因素是復(fù)雜的,如單一倫理立場的局限性及其之間的相互沖突,人們對新技術(shù)產(chǎn)物的道德地位尚缺乏準(zhǔn)確的認(rèn)知,人們對這一技術(shù)的多種需求之間的倫理沖突,技術(shù)本身還不能達(dá)到像人一樣的自主意識(shí)等等。因此,面對和解決上述倫理困境也將是一個(gè)系統(tǒng)而持久的工程。但無論怎樣,人類絕對不能因?yàn)榧夹g(shù)應(yīng)用的便利而放棄人自身的道德訴求。作為一種道德的存在物,人類需要平衡自身對于技術(shù)的多種利益需求并在必要的時(shí)候放棄某些利益。我們需要審慎對待無人駕駛技術(shù)的任何突破性的進(jìn)展,加強(qiáng)對技術(shù)發(fā)展的法律規(guī)制、倫理審視和人文關(guān)懷。我們要筑牢無人駕駛內(nèi)置算法程序的倫理屏障,讓無人駕駛技術(shù)在研發(fā)、試用以及推廣的過程中多一些倫理審視和倫理關(guān)懷。汽車可以無人駕駛,但社會(huì)之車在前行過程的任何時(shí)刻,其方向盤都應(yīng)牢牢掌握在人類的道德之手中。