国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

電車難題、隱私保護(hù)與自動(dòng)駕駛

2019-03-16 03:20唐興華郭喨唐解云
關(guān)鍵詞:電車倫理乘客

唐興華 郭喨 唐解云

[摘要]自動(dòng)駕駛將深刻改變我們的生活形態(tài),其帶來的倫理困境與隱私?jīng)_突也將集中呈現(xiàn)。倫理困境在個(gè)體層面體現(xiàn)為事故時(shí)的“電車難題”等倫理選擇問題,可以通過在危機(jī)處理時(shí)“量化價(jià)值”并預(yù)先嵌入“道德代碼”,使軟件的行為邏輯符合人類社會(huì)的倫理準(zhǔn)則;就社會(huì)層面而言,可以通過考察和建立多元化協(xié)作平臺(tái)的方式處理自動(dòng)駕駛車輛事故及其責(zé)任分配問題。在隱私保護(hù)方面,乘客需要向自動(dòng)駕駛這一“透明監(jiān)獄”交付大量重要的個(gè)人信息以換取足夠的便利,涉及網(wǎng)絡(luò)隱私保護(hù)和信息泄露等問題。可通過成立數(shù)據(jù)管理組織管理信息的合法使用,從而實(shí)現(xiàn)乘客、數(shù)據(jù)管理組織、政府以及軟件供應(yīng)商等共同努力保護(hù)信息安全和乘客隱私,克服軟件脆弱性導(dǎo)致的信息泄露等問題。自動(dòng)駕駛的到來難以抗拒,但這些問題必須優(yōu)先得到解決。

[關(guān) 鍵 詞]自動(dòng)駕駛 ?電車難題 ?價(jià)值量化 ?道德代碼 ?倫理困境 ?隱私保護(hù)

[基金項(xiàng)目]本文系安徽省社會(huì)科學(xué)創(chuàng)新發(fā)展研究課題攻關(guān)項(xiàng)目“人工智能革命及其社會(huì)治理”(2018CX125)階段性成果。

[作者簡介]唐興華(1992-),女,山東煙臺(tái)人,清華大學(xué)科學(xué)史系博士生,研究方向:技術(shù)哲學(xué)、STS、自動(dòng)駕駛問題;郭喨(1986-),男,湖北鄖陽人,科技哲學(xué)博士,浙江大學(xué)光華法學(xué)院博士后,研究方向:自動(dòng)駕駛治理; 唐解云(1994-),男,湖南邵陽人,中國人民大學(xué)哲學(xué)院博士生,研究方向:馬克思主義與STS。

[中圖分類號(hào)]U1;B829 ? ?[文獻(xiàn)標(biāo)識(shí)碼]A ? ?[文章編號(hào)]1008-7672(2019)06-0073-07

自動(dòng)駕駛正在重塑我們現(xiàn)在習(xí)以為常的生活。

近年來,“自動(dòng)駕駛”已成為全社會(huì)最為關(guān)注的人工智能具體應(yīng)用之一。自動(dòng)駕駛汽車將取代“智能手機(jī)”成為人們生活中“最大的移動(dòng)通訊工具”,人們可以在自動(dòng)駕駛汽車上辦公、娛樂、生活,自動(dòng)駕駛汽車將成為人類新的移動(dòng)生活空間。自動(dòng)駕駛汽車正帶來顛覆性、革命性的影響,它將重構(gòu)我們的生活方式和價(jià)值理念。正如人們所預(yù)見的,自動(dòng)駕駛將給人類帶來顯著的利益:(1)在交通方面:減少車禍發(fā)生率,從而減少傷亡和污染;(2)在公共資源優(yōu)化配置方面:自動(dòng)駕駛汽車及共享自動(dòng)駕駛汽車的廣泛使用,將促使我們更加有效地重新配置車輛,減少資源浪費(fèi),提高資源利用效率;(3)在社群空間方面:將改變?nèi)藗儗?duì)空間的認(rèn)知,住所位置將進(jìn)一步外延,城市面積將進(jìn)一步擴(kuò)大,室內(nèi)停車場將會(huì)重新被規(guī)劃為住宅和商業(yè)空間;(4)在價(jià)值觀等“軟性”方面:人類的娛樂、工作、購物習(xí)慣將被全面顛覆,整個(gè)社會(huì)面臨著人工智能的重新洗牌。?譹?訛我們應(yīng)當(dāng)合理預(yù)判自動(dòng)駕駛可能帶來的問題并尋求解決方案,以期為近幾年內(nèi)即將開啟的“自動(dòng)駕駛時(shí)代”作好準(zhǔn)備。

自動(dòng)駕駛已在法律制度、社會(huì)安全方面帶來諸多挑戰(zhàn),也將在價(jià)值、道德等方面引發(fā)某些倫理癥候——這意味著一系列復(fù)雜的問題。我們有必要前瞻性地討論自動(dòng)駕駛帶來的機(jī)遇和可能引發(fā)的問題。例如:在制度層面,自動(dòng)駕駛發(fā)展將促進(jìn)道路安全、汽車生產(chǎn)及責(zé)任事故認(rèn)定等相關(guān)法律法規(guī)的修改或制訂;在社會(huì)層面,自動(dòng)駕駛汽車將帶來能源和制造行業(yè)轉(zhuǎn)型、保險(xiǎn)和汽車產(chǎn)業(yè)變革等;在道德倫理方面,自動(dòng)駕駛汽車促使我們重新思考事故責(zé)任分配、用戶隱私保護(hù)、人類駕駛員失業(yè)等問題。以上問題中外研究者多已論及,而一種基于深入理解技術(shù)的內(nèi)在主義視角會(huì)提出更多值得思考的“真問題”:自動(dòng)駕駛的“駕駛權(quán)”如何在人類與機(jī)器之間分配?如何才能相信其他車輛實(shí)時(shí)生成的高精度地圖?實(shí)際上,隨著時(shí)間的流逝,這種“前瞻”已經(jīng)變得越來越緊迫、越來越不那么“前瞻”了。

有必要對(duì)自動(dòng)駕駛技術(shù)所引發(fā)的新的倫理問題進(jìn)行全方位思考,提出可操作的建議以促進(jìn)自動(dòng)駕駛的良性發(fā)展,這是人工智能技術(shù)進(jìn)行社會(huì)治理的“核心試點(diǎn)”。自動(dòng)駕駛目前得到較多討論的是其倫理考量。自動(dòng)駕駛汽車作為一種“技術(shù)人工物”(Technical Artifact),面臨著至少兩種類型的倫理考量。其一是自動(dòng)駕駛汽車與人類之間的道德沖突;其二是自動(dòng)駕駛汽車自身產(chǎn)生的道德沖突。在此,暫不探討此類人工物是否終將具備類似于人類的道德推理能力,以及自動(dòng)駕駛汽車作為汽車本身是否能夠成為自主的道德體等話題。這種終極討論雖有其必要性,但就目前而言太過遙遠(yuǎn),應(yīng)該先從自動(dòng)駕駛汽車與人類關(guān)系角度去探討自動(dòng)駕駛汽車普遍上路后引發(fā)的人類生活、人車關(guān)系中的倫理問題。

自動(dòng)駕駛技術(shù)發(fā)展的具體路徑難以精準(zhǔn)預(yù)測,我們也無力完整預(yù)測未來的技術(shù)會(huì)引發(fā)哪些具體倫理問題。隨著科學(xué)技術(shù)的更新迭代,某些事前看似嚴(yán)重的倫理問題會(huì)“自然解決”抑或根本不會(huì)發(fā)生。實(shí)際上,“社會(huì)—科學(xué)”是個(gè)復(fù)雜的巨系統(tǒng),我們根本無力完整模擬、詳細(xì)描述其相互作用、相互影響的具體細(xì)節(jié);然而好在我們可以對(duì)其整體演化的方向和核心機(jī)制予以較為精確地預(yù)測(事實(shí)上我們已經(jīng)對(duì)其大致可能的技術(shù)路線及其核心問題進(jìn)行了預(yù)測?譺?訛)。在此,筆者從個(gè)體層面和社會(huì)層面對(duì)自動(dòng)駕駛可能引發(fā)的倫理問題進(jìn)行探討。個(gè)體層面的倫理問題主要是倫理選擇難題;社會(huì)層面的倫理爭議包括事故的責(zé)任歸屬、網(wǎng)絡(luò)隱私保護(hù)和信息泄露問題。

一、 事故責(zé)任、“電車難題”與倫理選擇

事故責(zé)任問題是自動(dòng)駕駛被討論最多的問題。這不僅是倫理問題,更是技術(shù)設(shè)計(jì)中需要應(yīng)對(duì)的重點(diǎn)。?譻?訛自動(dòng)駕駛汽車面臨的突發(fā)事件大致可分為兩種:人類目前可以解決的和人類尚不能解決的。自動(dòng)駕駛汽車首先要面對(duì)的是人類目前可以解決的突發(fā)事件(第一種情況),只有自動(dòng)駕駛汽車在處理問題的“能力”上等于或者超過人類時(shí)才會(huì)得到大眾的認(rèn)可。?譼?訛人類駕駛員在駕駛時(shí)會(huì)面臨諸多突發(fā)情況,諸如拐角處沖出來的小黑狗,兩車交匯迎面而來的“遠(yuǎn)光狗”等。人類駕駛員必須很好地處理此類情況。不過,即便操作軟件通過學(xué)習(xí)和模擬能夠準(zhǔn)確靈活地處理了人類駕駛員所能處理的各種突發(fā)情況(第一種情況),面對(duì)人類駕駛員也無力處理的情況(第二種情況),機(jī)器又該如何應(yīng)對(duì)?例如,如何面對(duì)人類也無力解決的“電車難題”和“隧道難題”??譹?訛

“電車難題”(Trolley Problem)最早由英國哲學(xué)家菲利帕·福特(Philippa Foot)于1967年提出,其完整表達(dá)如下:

電車的鐵軌上站著五個(gè)人,此時(shí),一輛失控的電車朝他們駛來,若在原軌道上繼續(xù)行駛,電車將使這五個(gè)人喪失生命。但是電車司機(jī)可以選擇拉動(dòng)電車從狹窄軌道轉(zhuǎn)向另一條軌道,那么這五個(gè)人就可以幸免于難。問題在于,另一條鐵軌上也有一個(gè)人。此時(shí),司機(jī)面臨著兩難選擇:一是不改道繼續(xù)行駛,這將使五人喪生;二是主動(dòng)操作轉(zhuǎn)向另一條軌道,使原本安全的一人喪生。矛盾很明顯:無論電車司機(jī)開向哪一條軌道,都會(huì)有人遇害。面對(duì)這種情況,司機(jī)應(yīng)當(dāng)做何選擇??譺?訛

面對(duì)這種人類駕駛員都難以抉擇的情況,自動(dòng)駕駛車輛又將如何處置?另一個(gè)相似的情況是“隧道難題”(Tunnel Problem),可以理解為更具“自動(dòng)駕駛”意味的“電車難題”。隧道難題如下:

乘客正坐在一輛行駛在單行道上的自動(dòng)駕駛汽車上,當(dāng)汽車行駛到隧道入口時(shí),忽然一個(gè)小孩跑到車道中間,堵住了隧道的入口。此時(shí),自動(dòng)駕駛車輛只有兩個(gè)選擇:繼續(xù)行駛撞向孩子,或者轉(zhuǎn)向隧道某一側(cè)的墻壁,從而導(dǎo)致車上的乘客喪生。?譻?訛

“電車難題”在一般意義上表征了“自動(dòng)駕駛”在面對(duì)外部目標(biāo)時(shí)的選擇困境,“隧道難題”則把這一困境引向了“車內(nèi)乘客”(這一情境中同時(shí)為“車主”)這一“選擇的選擇”之主體。畢竟,如果一輛車總是試圖“舍己為人”,誰會(huì)去買它就成了大問題。這意味著自動(dòng)駕駛車輛的“困境選擇”將影響消費(fèi)者的選擇?!八淼离y題”與“電車難題”是自動(dòng)駕駛終將面臨的現(xiàn)實(shí)挑戰(zhàn),但無論如何取舍都會(huì)陷入兩難的處境。和鴻鵬認(rèn)為,“隧道難題”凸顯了車內(nèi)人員與路人之間的利益沖突,將倫理選擇指向駕駛?cè)藛T的自我犧牲。?譼?訛這種倫理問題是人類需要面對(duì)的,同樣也是自動(dòng)駕駛汽車需要面對(duì)的。更為關(guān)鍵的是,這種兩難并不再只是哲學(xué)上的“思想實(shí)驗(yàn)”,而是每天都真實(shí)地在我們身邊上演著。?譽(yù)?訛

無論是電車難題還是隧道難題,共同點(diǎn)都是面對(duì)人類目前無法解決的倫理問題,自動(dòng)駕駛?cè)绾翁幚??;蛟S可以先借鑒人類的“處理方案”:當(dāng)面對(duì)突發(fā)情況的“責(zé)任事故”時(shí),人類駕駛員通常迅速綜合考慮多方因素,并憑借“直覺”做出“下意識(shí)”的判斷,自動(dòng)駕駛汽車則可使用數(shù)據(jù)和軟件來計(jì)算出“最佳方案”。具體做法是價(jià)值量化,對(duì)人類道德推理中不可量化、不容量化的要素,比如“價(jià)值”進(jìn)行量化。與此同時(shí),對(duì)生命、財(cái)產(chǎn)進(jìn)行賦值,程序員按照大家普遍接受的倫理規(guī)范將量化的數(shù)值進(jìn)行編碼形成“道德代碼”,預(yù)置到汽車駕駛軟件中。當(dāng)然,這種預(yù)置并不是將情境固定化,而是充分利用深度學(xué)習(xí)軟件,以大數(shù)據(jù)為依托,對(duì)可能遇到的各種生命體和財(cái)產(chǎn)進(jìn)行賦值,根據(jù)具體面對(duì)的緊急情境進(jìn)行“冷靜”而快速的處理。需要培養(yǎng)機(jī)器軟件的“直覺”,使其在各種復(fù)雜情況下利用數(shù)據(jù)做出最佳選擇。“即在車禍發(fā)生的瞬間,經(jīng)過程序員的提前預(yù)設(shè),軟件的決策邏輯也會(huì)發(fā)生作用。經(jīng)過特別的設(shè)計(jì),軟件能針對(duì)事故做出妥善回應(yīng),把破壞程度降到最低?!保孔q?訛如果不能完美設(shè)計(jì)出方案,那就退而求其次追求“損失最小”。

實(shí)際上,就事故責(zé)任中的倫理選擇而言,在發(fā)生緊急情況時(shí)自動(dòng)駕駛在反應(yīng)速度上有很大優(yōu)勢?!霸谖覀兊闹鞲傻郎?,我們通常與我們前方的車輛保持約1.5秒的時(shí)間距離。自動(dòng)駕駛汽車能夠?qū)⒃摃r(shí)間距離減少更多,因?yàn)橛?jì)算機(jī)能夠立即做出反應(yīng),這與人類駕駛員不同。”?譺?訛這主要?dú)w功于5G更快的傳輸速度,?譻?訛以及更好性能的傳感器件和計(jì)算能力更強(qiáng)大的GPU。然而,速度上的優(yōu)勢并不能直接轉(zhuǎn)化為道德上的優(yōu)勢,技術(shù)上的成熟并不意味著必然被人們所接受,否則我們就該在每年的8月21日紀(jì)念尤塞恩·博爾特(Usain Bolt)而不是在每年1月的第三個(gè)星期一來紀(jì)念馬丁·路德·金(Martin Luther King)了。因此,我們必須繼續(xù)提高自動(dòng)駕駛技術(shù)的安全性,使其事故發(fā)生率遠(yuǎn)低于人類駕駛的對(duì)應(yīng)比率,為普及自動(dòng)駕駛汽車奠定基礎(chǔ)。

存在這樣一種合理質(zhì)疑:人類憑什么相信機(jī)器做出的決定就是最佳決策呢?除非自動(dòng)駕駛汽車具有遠(yuǎn)超人類的認(rèn)知和智能,否則我們不會(huì)輕易信任它。然而,事實(shí)上自動(dòng)駕駛技術(shù)的安全性的確可以遠(yuǎn)遠(yuǎn)高于人類駕駛員。同時(shí),自動(dòng)駕駛的車禍發(fā)生率很快將遠(yuǎn)低于人類駕駛。數(shù)據(jù)顯示,全世界每年大約有160萬人死于車禍,這個(gè)死亡率相當(dāng)于每年釋放10個(gè)廣島級(jí)別的原子彈爆炸。如果路面上的汽車90%能夠換成無人駕駛車輛的話,將減少三分之二的死亡人數(shù)。?譼?訛隨著技術(shù)的進(jìn)步,自動(dòng)駕駛所致的車禍可以無限趨近于零。另外,人類駕駛員在面臨緊急情況時(shí)依靠直覺和“習(xí)慣”做出價(jià)值判斷或決定。這通常是無意識(shí)的動(dòng)作操作,然而其實(shí)質(zhì)依然是“比較和計(jì)算”,畢竟“智能的本質(zhì)就是計(jì)算”。羅伯特·特拉普(Robert Trappl)指出,人類駕駛員和自動(dòng)駕駛的一個(gè)重要區(qū)別在于:“人類駕駛員做出錯(cuò)誤的決定會(huì)被寬恕或原諒,然而自動(dòng)駕駛汽車做出錯(cuò)誤的決定就會(huì)被指責(zé)和懷疑,即便自動(dòng)駕駛汽車做出錯(cuò)誤決定的比率遠(yuǎn)遠(yuǎn)低于人類駕駛員?!??譽(yù)?訛為什么憑借人類直覺所做出的判斷能被接受,而自動(dòng)駕駛的計(jì)算邏輯就要被質(zhì)疑?我們?cè)徣祟愸{駛員的錯(cuò)誤、相信人類的直覺而質(zhì)疑軟件邏輯并沒有特別的原因,有的只是我們的“習(xí)慣”。大衛(wèi)·休謨(David Hume)認(rèn)為,“習(xí)慣是人生的偉大指南”,而人類經(jīng)常誤把“習(xí)慣”當(dāng)作“因果必然性”。?譾?訛同理,在道德問題上,人類傾向于把習(xí)慣視為“最優(yōu)的選擇”,樂于依據(jù)直覺做出判斷。如果去除對(duì)人類“習(xí)慣”的先天信任,理性地分析人類與自動(dòng)駕駛車輛面對(duì)緊急情況的兩種方式,就會(huì)發(fā)現(xiàn)自動(dòng)駕駛汽車的決策可能更為合理。胡迪·利普森(Hod Lipson)和梅爾芭·庫曼(Melba Kurman)指出:“自動(dòng)駕駛汽車的駕駛更為合理是因?yàn)樗軌蚩焖俚剡M(jìn)行風(fēng)險(xiǎn)和利益分析,這比一個(gè)自私、疲憊的醉漢的決策要好很多;自動(dòng)駕駛擁有360度的感知器,掌握的信息也更全面?!??譿?訛事實(shí)上,道德問題并非一定要依賴人類直覺才能更好地處理。問題的關(guān)鍵也并非自動(dòng)駕駛車輛是否有道德,而在于它們處理緊急情況的內(nèi)在邏輯是否符合倫理。自動(dòng)駕駛汽車“危機(jī)處理”的邏輯是:根據(jù)發(fā)生事故的概率以及其后果的嚴(yán)重程度確定對(duì)應(yīng)行動(dòng)。對(duì)事故大小的認(rèn)定某種程度上是由各利益相關(guān)者洽談和商討確定的,符合“商談邏輯”。有學(xué)者提議不借助預(yù)置的“道德代碼”,而是在具體判斷中使用隨機(jī)數(shù)生成器來做出“公平”的決策,?譹?訛駕駛者或者行人則服從“內(nèi)在隨機(jī)”的命運(yùn)裁決。人人都接受“隨機(jī)”的決定,這也是一種公平(就像隨機(jī)選擇的雙色球一樣)。?譺?訛比較而言,還是“道德代碼”更為可靠。顯然,經(jīng)過良好“倫理設(shè)計(jì)”的自動(dòng)駕駛車輛的“危機(jī)處理”可以比人類駕駛員“更理性、更可靠”。

二、 自動(dòng)駕駛汽車的責(zé)任歸屬問題

與“危機(jī)處理”緊密相關(guān)的一個(gè)問題是“責(zé)任判斷”,即自動(dòng)駕駛汽車“危機(jī)處理”時(shí)或者處理后的責(zé)任歸屬問題。當(dāng)人類駕駛者駕駛的汽車發(fā)生責(zé)任事故時(shí),責(zé)任可以被清晰地劃歸于人類的某一方或者雙方甚至多方;人類是事故的責(zé)任主體,相關(guān)法律法規(guī)對(duì)責(zé)任的認(rèn)定是比較清晰的。但是,一旦自動(dòng)駕駛車輛在道路上馳騁時(shí),發(fā)生事故的責(zé)任認(rèn)定就變得復(fù)雜了。當(dāng)沒有司機(jī)、方向盤的汽車出現(xiàn)交通事故時(shí),這個(gè)責(zé)任具體歸屬方是車主(乘客)、自動(dòng)駕駛汽車的制造商、自動(dòng)駕駛軟件的提供者還是道路的基礎(chǔ)設(shè)施建設(shè)者呢?在人類駕駛的車輛中,人類行為導(dǎo)致的后果是有承擔(dān)者的,而自動(dòng)駕駛車輛的“肇事主體”是作為整體的“車”,對(duì)事故的發(fā)生存在“多因一果”的效應(yīng)。既然汽車的軟件供應(yīng)商和硬件供應(yīng)商可以認(rèn)領(lǐng)屬于自己部分的責(zé)任,那么分別認(rèn)領(lǐng)多大的責(zé)任以及對(duì)責(zé)任如何進(jìn)行具體劃分呢?杰弗里·格尼(Jeffrey K. Gurney)認(rèn)為:“承擔(dān)責(zé)任的適當(dāng)方將根據(jù)自動(dòng)駕駛汽車使用者的性質(zhì)以及該人防止事故的能力而有所不同。”?譻?訛這也是一個(gè)亟待解決并需要多方代表集體協(xié)商的事情。

自動(dòng)駕駛汽車的責(zé)任歸屬問題,應(yīng)從多維度權(quán)衡。筆者主張:在汽車軟件設(shè)計(jì)之初就應(yīng)該將倫理道德嵌入,使得軟件成為承載著“道德代碼”的道德載體,即將道德“物化”。對(duì)人和物同時(shí)進(jìn)行倫理考察,正如彼得保羅·維貝克(Peter-Paul Verbeek)所呼吁的:“將裝置道德化,并認(rèn)為人類應(yīng)該停止人類之間長久以來的互相道德化,而去開啟技術(shù)的道德化。”?譼?訛由于機(jī)器人駕駛員會(huì)不打折扣地執(zhí)行計(jì)算機(jī)程序,因此,程序員在設(shè)計(jì)程序時(shí)就要事先考慮到一切不良后果,而不是事后采取補(bǔ)救措施。

筆者主張,在布蘭登·英格拉姆(Brandon Ingram)所提出的“機(jī)器人工程師的倫理準(zhǔn)則”的基礎(chǔ)上,具體分析各方的責(zé)任。首先,對(duì)于自動(dòng)駕駛汽車硬件供應(yīng)商而言,應(yīng)該在汽車出廠之前經(jīng)過多方面的審查,保證出廠的汽車在特定程度和范圍內(nèi)沒有質(zhì)量問題(特殊情況難以全面考察)。其次,對(duì)于軟件供應(yīng)商而言,需要不斷提高汽車的安全性能(即便只是將1萬小時(shí)可靠性提高0.01%,對(duì)于未來“自動(dòng)駕駛統(tǒng)治”的世界地面交通系統(tǒng)而言,依然意義重大),同時(shí)對(duì)自動(dòng)駕駛系統(tǒng)進(jìn)行多次檢驗(yàn)并不斷根據(jù)新情況進(jìn)行修正。建立應(yīng)急反饋系統(tǒng),一旦出現(xiàn)軟件做出的決定引發(fā)傷亡的情形,必須保證信息及時(shí)傳送到周圍的可施救場所,盡量減少人類傷亡;再次,就后期安全維護(hù)而言,建立健全道路全網(wǎng)反饋系統(tǒng),對(duì)于道路的改造等規(guī)劃及時(shí)上傳,敦促自動(dòng)駕駛汽車及時(shí)更新路況信息。最后,還應(yīng)建立多維合作平臺(tái)的責(zé)任認(rèn)定組織,對(duì)引發(fā)交通事故原因進(jìn)行全面深刻的分析,以確定責(zé)任承擔(dān)者(責(zé)任承擔(dān)者可以是一方,也可以是多方)。

正如菲利普·布瑞(Philip Brey)所言:我們應(yīng)尋求一種新的方式進(jìn)行討論,這種方式包含利益相關(guān)群體的訴求;同時(shí),采取一種更為深思熟慮的方法,這種方法將尊重相關(guān)的道德爭論。?譽(yù)?訛未來自動(dòng)駕駛汽車責(zé)任的“分擔(dān)”,必然是各方利益相關(guān)方“協(xié)商”的結(jié)果。高奇琦建議搭建一個(gè)傳統(tǒng)汽車制造商、自動(dòng)駕駛技術(shù)提供商和出行服務(wù) (共享服務(wù)) 提供商的“三維”合作平臺(tái),從而解決事故擔(dān)責(zé)、事故賠償主體和獲利的問題。?譹?訛這是一個(gè)有價(jià)值的提議,不過也不排除現(xiàn)有的成熟的汽車市場自己就能在責(zé)任明確的情境中消化此類問題。

三、 自動(dòng)駕駛汽車的新型網(wǎng)絡(luò)隱私問題

在自動(dòng)駕駛汽車中,另一個(gè)亟待解決的問題是自動(dòng)駕駛的網(wǎng)絡(luò)隱私安全問題。自動(dòng)駕駛汽車依賴的是物聯(lián)網(wǎng)與數(shù)據(jù)共享,想要做到安全快速,就要盡可能多地掌握乘客個(gè)人信息。自動(dòng)駕駛汽車會(huì)成為人類乘客的“透明空間”,無論你在選擇路線還是進(jìn)行消費(fèi)都會(huì)被記錄在案,甚至你與女友聊天的內(nèi)容都可能會(huì)被收集存儲(chǔ)起來。此外,自動(dòng)駕駛車輛使人喪失了相對(duì)隱匿的移動(dòng)能力,這在無形之中將乘車人“監(jiān)控”起來,形成了“透明監(jiān)獄”。?譺?訛與自動(dòng)駕駛車輛相關(guān)聯(lián)的數(shù)據(jù)包括乘客上下車的地點(diǎn)、生活習(xí)慣、行車時(shí)間與行車路線的信息。這些信息極具價(jià)值,同時(shí)也是巨大的數(shù)據(jù)資源。不過,最終這些資源由誰監(jiān)管,乘客是否擁有自治的權(quán)利等相關(guān)問題亟待解決,這就對(duì)乘客、數(shù)據(jù)管理組織、政府以及軟件供應(yīng)商提出了新的要求。

首先,對(duì)乘客而言,應(yīng)當(dāng)允許乘客根據(jù)自己的意愿查看自動(dòng)駕駛汽車收集的數(shù)據(jù)內(nèi)容、數(shù)據(jù)流通的情況和數(shù)據(jù)流向等,并有權(quán)自主決定數(shù)據(jù)去向。乘客應(yīng)有維護(hù)自己隱私的意識(shí)、積極參與制定數(shù)據(jù)管理規(guī)則并有權(quán)決定是否將個(gè)人數(shù)據(jù)用于商業(yè)用途。麗莎·柯林伍德(Lisa Collingwood)強(qiáng)調(diào):“個(gè)人具有保護(hù)隱私和做出選擇的自治權(quán),乘客有權(quán)利對(duì)是否乘車、乘車路線以及數(shù)據(jù)使用進(jìn)行自主選擇,避免被入侵者操縱和控制”。?譻?訛其次,對(duì)于公眾和公共組織而言,可由接受監(jiān)督的非營利組織(數(shù)據(jù)管理組織)來負(fù)責(zé)數(shù)據(jù)的收集、使用等問題。我們應(yīng)將收集來的人臉、指紋等生物特征數(shù)據(jù)交由數(shù)據(jù)管理組織,而非數(shù)據(jù)采集者負(fù)責(zé)。再次,對(duì)于監(jiān)管機(jī)構(gòu)和立法部門而言,應(yīng)建立監(jiān)督數(shù)據(jù)管理組織使用數(shù)據(jù)的監(jiān)管機(jī)構(gòu),對(duì)數(shù)據(jù)的用途進(jìn)行監(jiān)管。立法部門應(yīng)針對(duì)隱私問題提供適當(dāng)?shù)姆杀Wo(hù)。最后,對(duì)于軟件供應(yīng)商和管理車隊(duì)的企業(yè)而言,要嚴(yán)格遵守個(gè)人隱私保護(hù)指引,加強(qiáng)網(wǎng)絡(luò)安全性建設(shè),防止信息泄露。當(dāng)前,美國加利福尼亞州要求所有自動(dòng)駕駛車輛保存事故發(fā)生前30秒的詳細(xì)記錄,同時(shí)也要求自動(dòng)駕駛技術(shù)的輸出方提供保證及報(bào)告。乘客、軟件供應(yīng)商、網(wǎng)絡(luò)公司和車隊(duì)企業(yè)等要在數(shù)據(jù)管理組織的主導(dǎo)下協(xié)商構(gòu)建數(shù)據(jù)保護(hù)和使用規(guī)則,并由政府和公眾根據(jù)相關(guān)行業(yè)乘客數(shù)據(jù)的用途嚴(yán)格監(jiān)督數(shù)據(jù)的使用,數(shù)據(jù)管理組織、政府和公眾共同對(duì)數(shù)據(jù)負(fù)責(zé)。這雖然會(huì)增加一些麻煩,但此類數(shù)據(jù)對(duì)許多利益相關(guān)行業(yè)極具價(jià)值。例如運(yùn)營自動(dòng)駕駛車隊(duì)的公司,他們利用這些數(shù)據(jù)來分析市場需要投放多少車輛、車輛的實(shí)時(shí)位置以及何時(shí)應(yīng)該對(duì)其充電或加油。

軟件的脆弱性所導(dǎo)致的信息泄露是另一個(gè)需要關(guān)注的問題。隨著自動(dòng)駕駛汽車硬件和軟件復(fù)雜性的增加,會(huì)出現(xiàn)更多的漏洞。任何軟件操作系統(tǒng)都有一定的脆弱性,容易受到錯(cuò)誤操作影響和惡意入侵的攻擊。至少存在這樣幾種技術(shù)解決方案,有助于避免因軟件故障而導(dǎo)致的信息泄露。(1)應(yīng)當(dāng)注意在軟件的操作系統(tǒng)中加入適當(dāng)?shù)娜哂嘣O(shè)計(jì),添加備用系統(tǒng)和防護(hù)設(shè)計(jì),使得軟件在遇到危險(xiǎn)及信息盜取情況下自動(dòng)啟動(dòng)備用系統(tǒng)進(jìn)行防護(hù)。(2)在無人駕駛車輛中采用雙操作系統(tǒng),這兩個(gè)系統(tǒng)之間相互備份、同時(shí)運(yùn)行,以便保障車輛在出現(xiàn)錯(cuò)誤時(shí)仍能平穩(wěn)行駛。?譼?訛(3)借鑒魯特·布里奇斯(Rutt Bridges)在《我們自動(dòng)駕駛的未來:天堂還是地獄?》(Our Driverless Future: Heaven or Hell)中給出的解決方案:在無人駕駛汽車中安裝一個(gè)智能屏,每位乘客在上車時(shí)可以將智能屏抬起,選擇屬于自己的信息存儲(chǔ)區(qū),將自己的行車信息進(jìn)行存儲(chǔ),并對(duì)其進(jìn)行加密;乘客下車時(shí)選擇將智能屏關(guān)閉,即每位乘車者將自己的行程等敏感信息獨(dú)立存儲(chǔ)。

有人也許會(huì)質(zhì)疑,如果用戶的信息具有獨(dú)立性和隱秘性,是否就增加了更新地圖和發(fā)生緊急情況救助的困難?這并不具有必然性。首先,無人駕駛汽車收集到的所有信息都直接到達(dá)數(shù)據(jù)管理組織那里,數(shù)據(jù)管理組織負(fù)責(zé)信息的隱私保護(hù),并結(jié)合以“黑盒”方式存儲(chǔ)數(shù)據(jù),以便在發(fā)生碰撞或其他事件時(shí)進(jìn)行檢查。?譹?訛數(shù)據(jù)管理組織在進(jìn)行“把關(guān)”之后,將信息交給相關(guān)行業(yè),如地圖公司、軟件開發(fā)商、消費(fèi)公司等。(當(dāng)然,乘客可以自己選擇是否將這些信息交給相關(guān)部門。)其次,建立緊急事故救助站,這些緊急事故救助站將全面掌握乘客的行程信息,只要行程未結(jié)束,他們就會(huì)收到完整的信息——其實(shí)飽經(jīng)批評(píng)之后“滴滴出行”這方面已經(jīng)有很大提升。最關(guān)鍵的是,隨著科技新時(shí)代的技術(shù)發(fā)展,未來的自動(dòng)駕駛技術(shù)其實(shí)不會(huì)讓這種“緊急情況”頻繁發(fā)生。

關(guān)于自動(dòng)駕駛,應(yīng)采用一種以未來為導(dǎo)向的思維方式對(duì)這些問題進(jìn)行深刻而全面的分析。本文所探討的是自動(dòng)駕駛汽車發(fā)展可能帶來的個(gè)體層面和社會(huì)層面的倫理問題,這有益于我們對(duì)自動(dòng)駕駛汽車時(shí)代所產(chǎn)生的主要倫理問題形成科學(xué)認(rèn)識(shí)和深刻理解,有利于“以技術(shù)的手段解決倫理的問題”,有助于促進(jìn)人工智能時(shí)代倫理規(guī)則的設(shè)立與技術(shù)治理的進(jìn)步。

無論如何,與自動(dòng)駕駛相關(guān)的倫理問題是我們無法繞開、必須解決的問題;自動(dòng)駕駛將是一個(gè)可期的技術(shù)(在我國有望于2020年正式啟動(dòng)),未來將是一個(gè)更加智能的時(shí)代。

(責(zé)任編輯:亞立)

Abstract?Automatic driving will profoundly change our life style, in the meantime, the ethical dilemma and privacy conflict of “automatic driving” will also emerge. The ethical dilemma is embodied at the individual level as ethical choices such as "trolley problem" in accidents. In privacy protection, passengers need to deliver a large amount of personal important information to the prison of automatic driving for sufficient convenience, involving issues such as network privacy protection and information disclosure. By establishing a data management organization to manage the legitimate use of information, passengers, data management organizations, governments, and software suppliers can work together to protect information security and passengers privacy, thus overcoming information leakage caused by software vulnerabilities. The arrival of automatic driving is hard to resist, but these problems must be solved first.

Key words?automatic driving; trolley problem; value quantification; moral code; ethical dilemma; privacy protection

猜你喜歡
電車倫理乘客
“風(fēng)的乘客”
淺談我國社會(huì)工作倫理風(fēng)險(xiǎn)管理機(jī)制的構(gòu)建
停車原因
親組織非倫理行為研究
親組織非倫理行為研究
由電車引出的故事
非倫理領(lǐng)導(dǎo)對(duì)員工職場非倫理行為的作用機(jī)制研究
電車奶奶