国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

能將倫理準則嵌入人工智能機器嗎?

2018-05-31 09:15蘇令銀
理論探索 2018年3期

蘇令銀

〔摘要〕 人工智能技術的發(fā)展帶來了一系列倫理問題,其中能否將人類價值觀和規(guī)范嵌入人工智能系統(tǒng),從而賦予人工智能機器以人性的光輝,成為當前人工智能機器面臨的突出倫理問題。人工智能機器在做出倫理決策時,面臨自上而下和自下而上的將倫理準則嵌入人工智能機器的方法論困境。從目前來看,人們不需要也不可能把倫理準則嵌入人工智能機器。為應對人工智能機器的倫理挑戰(zhàn),我們可以采取法律規(guī)制、技術監(jiān)管、倫理建模和程序正義等綜合策略。

〔關鍵詞〕 人工智能機器,倫理準則,無人駕駛汽車,倫理選擇方法

〔中圖分類號〕B829 〔文獻標識碼〕A 〔文章編號〕1004-4175(2018)03-0038-08

無人駕駛汽車又稱自動駕駛汽車、電腦駕駛汽車或輪式移動機器人,是一種通過電腦系統(tǒng)實現無人駕駛的智能汽車。無人駕駛汽車技術的研發(fā)已經有數十年的歷史,21世紀初呈現出接近實用化的趨勢。谷歌無人駕駛汽車于2012年5月獲得美國首個無人駕駛車輛許可證。無人駕駛汽車依靠人工智能、視覺計算、雷達、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動操作下自動安全地操作機動車輛。同樣國內的一些互聯(lián)網公司也積極跟進, 2014年百度已經啟動無人駕駛汽車計劃,2016年5月16日百度宣布與安徽省蕪湖市聯(lián)手打造首個全無人車運營區(qū)域,這也是國內第一個無人車運營區(qū)域。根據現有已經發(fā)布的各種聲明,那些配備了人工智能且已經行駛了幾百萬英里的無人駕駛汽車能夠讓這些車自主地作決策。這些決策具有倫理和社會意義,尤其是無人駕駛汽車可能會造成嚴重傷害時。本文以無人駕駛汽車為例來初步探討人工智能機器所產生的倫理問題。

一、人工智能機器帶來的倫理問題

面對無人駕駛汽車的飛速發(fā)展,對它的爭論一直就沒有停過。支持者認為車輛無人駕駛技術的優(yōu)點是使出行更安全(因為去除了人為失誤因素),緩解交通壓力,并減少環(huán)境污染。一些喜歡駕車的人認為,駕駛會讓人感到輕松愜意,無人駕駛技術還得解決許多問題。無人駕駛技術永遠是將保護車輛和車內人員作為第一要務。而一個駕駛員則可能寧愿犧牲自己的車來保護他人。這些問題涉及到無人駕駛的倫理選擇、倫理風險等問題。在現實社會中,無人駕駛汽車和其他配備人工智能機器的廣泛應用帶來了一系列倫理問題。

是否應該賦予機器倫理地位一直困擾著人工智能的倫理研究。機器人是純粹的機器,還是具有應有的倫理地位?它們是被看作“物”,還是應該被加入到之前被排除在外的諸如奴隸、外國人和動物等之列?倫理主體只屬于人類?或者機器能被視為倫理主體嗎?有“機器倫理”嗎?智能機器只能被看作工具嗎?它們的倫理地位是實實在在的嗎?以往的觀點往往伴隨著一種常識,至少當人們被問到機器人是否具有倫理地位,大多數傾向于消極甚至否定的回答。然而,與機器人(有時是計算機)互動的人們同時經常以另外的方式提出建議。他們把機器人不是看作“物”或“純粹的機器”,而是比這些“更多”。

人工智能機器倫理地位爭論的核心和出發(fā)點是關于倫理主體兩個根本不同理念之間的對立,反過來似乎也產生了對人工倫理主體概念完全不同的預期。這就是各自不同的所謂標準觀點 〔1 〕和實用主義觀點 〔2 〕。在某種程度上這兩個不同的變體可能有理由去爭論這些真正的沖突。然而,爭論的出發(fā)點是這兩種倫理主體觀點的一般概念首先是沖突的,而且這也為作出人工智能機器倫理地位不同的結論留下了空間。

人工智能機器倫理地位的標準觀點認為,人類倫理主體需要滿足特定的條件,如理性、自由意志或自治、非凡的意識。而實用主義的觀點認為,對人工智能機器而言只需要存在某些行為和反應就可以。有人可能會說,實用主義的觀點只需要模擬或展現行為的全部或部分標準,而標準的觀點實際上需要全部標準。

黛博拉·約翰遜(Johnson, D.)就是機器倫理標準觀點的主要支持者之一。她認為,人工智能機器E要成為倫理主體必須具備下列條件:(1)E能夠以自己的身體引起物理事件;(2)E有一個內在的規(guī)定I,它組成了自己的欲望、信仰和其他有意圖的規(guī)定,這些規(guī)定共同組成了E以某種方式(理性和意識)行動的原因;(3)規(guī)定I是導致第一個條件的直接原因;(4)條件(1)中的物理事件對倫理存在重要性的影響。當計算機系統(tǒng)運轉時,它們的行為對表達世界其他方面產生影響,這些表達效果有害或有益?!? 〕 這些條件中(1)也可能是(2)保證E是一個主體。一般來說,(2)和(3)往往被我們賦予人類倫理主體的存在。條件(4)則確保一個特定情況的行為是倫理上相關的,這是一個主體成為倫理主體的關鍵。然而,沒有關于人工智能機器倫理地位這方面的進一步爭論。約翰遜通過描述主體是如何把行為和存在區(qū)分來總結這個定位:“一切行為(人類和非人類;自愿和非自愿)都可以用其原因來解釋,但只有行動能被解釋為一系列內部心理狀態(tài),我們才能解釋為什么一個主體的行動總是關乎他們的信仰、欲望和其他有意圖的規(guī)定?!?〔3 〕 約翰遜反對人工智能機器具有倫理地位的主要理由直接取決于條件(2)和(3)的觀點。人工智能機器不能成為倫理主體,因為它們缺乏可能導致它們行為發(fā)生的內在心理規(guī)定。盡管它們可能從外部角度提醒人類行為表現出“行動”的感覺,但這些行為由于缺乏這些內在的心理規(guī)定而無法具有倫理品質。

人工智能機器倫理地位實用主義觀點的代表人物是弗洛里迪(Floridi)和桑德斯(Sanders)。他們想要重新考慮像意識這樣的標準,并主張一個“非意圖的倫理” 〔4 〕。他們的出發(fā)點是當我們根據所謂的典型實例推斷一般的標準時,我們所選擇的抽象程度取決于我們所選擇的抽象層次。適用于標準觀點的抽象級別是非常低的,保持接近成年人標準,不以人類為中心對倫理主體可能會實現,同時觀察與倫理主體基本結構特點相關的一致性和相似性。弗羅里迪和桑德斯提出人工智能機器倫理地位的抽象層次。在這個層次中,人工智能機器E的倫理標準:(1)交互性,E與環(huán)境互動;(2)獨立性,E有能力改變自身和它的相互作用,而不受外部條件的直接影響;(3)適應性,E可能會基于(1)的結果而改變在(2)中的實現方式 〔4 〕。雖然條件(1)與標準觀點大致對應,但條件(2)看似與標準觀點中內部精神狀態(tài)的需要有很大差異。條件(3)也是不同的,兩者都較弱,因為不要求E的相互作用直接由條件(2)引起,通過添加條件(1)和(2)的聯(lián)合響應,從而使得條件變得更強。弗洛里迪和桑德斯認為,“隨著倫理主體概念的修正,人工智能機器的倫理地位概念規(guī)避了約翰遜所說的爭論” 〔4 〕。

然而,正如前面提到的,人工智能機器倫理地位爭論的前景要比這兩種對立的倫理主體哲學概念的應用更為復雜。琳達·約翰遜(Johansson, L.)提出人工智能機器具有倫理地位的標準,其中包括與標準觀點所要求的狀態(tài)相似的精神狀態(tài),但同時也建議應該從實用主義的角度來理解這些標準。琳達·約翰遜理解的人工智能機器需要具備辨別倫理相關信息的能力(如動機、后果等),基于這些信息作出倫理判斷,并根據這些判斷發(fā)起行動。雖然約翰遜承認這些條件需要意識,但是她主張一個不可知論者的身心問題,因此提出了一個“虛擬”方法:凡表現出來的功能,通常存在相關性能力的展示。因此,雖然人工智能機器的倫理地位不是嚴格(概念上或本體論上)由這些功能決定,但它們在實踐中(從認識論上來說)是由它們的存在所標示。面對一臺表現得像倫理主體的機器,我們應該得出結論:它是人工倫理主體,這就是我們能得到的所有理由。

還有一種觀點認為,人工智能機器的倫理地位可能會被摧毀。除了基于標準觀點的論據之外,琳達·約翰遜還認為,由人工智能機器設計的特征會侵蝕一個智能的倫理體,即使它可能具有意圖性的特征或表現出內在精神狀態(tài)的跡象?!盁o論將來的行為如何獨立自治和交互式計算機系統(tǒng),它們都是人類行為(直接或間接)、人類社會制度和人類決策的產物……計算機系統(tǒng)和其他人工物都有意向,意向嵌入他們設計師的有意識行為。人工物的意向性與它們的功能密切相關?!?〔3 〕

弗朗西絲·S.格勞森斯基(Frances S. Grodzinsky)和同事運用類似的觀點,認為沒有任何機器可以基于標準觀點和實用主義觀點聲稱這種獨立性的程度。無論故意狀態(tài)或實用主義的對應物,可能歸因于機器,這些條件都不能與人類創(chuàng)造者完全分離開來?!叭绻幸粋€抽象層次的低等人工智能機器的倫理地位,可以將主體行為明確歸因于它的設計者,這樣的主體則不是一個倫理主體。因此,主體本質上變成了它的設計者的延伸。顯然,該主體有可能遠離最初設計,并與設計人員走得很遠。在這種情況下,設計、實現和部署軟件程序之后的某個時候,可能沒有一個抽象級別,原始設計者和實現者最初意圖是可以被識別的。這種情況似乎滿足了弗洛里迪和桑德斯所說的倫理主體的條件。然而,正如我們在上面所說的那樣,這種情況并不能削弱設計者的責任,在這種情況下人工智能機器的倫理地位受到了它的設計者的限制?!?〔5 〕

如果這個論點有效,那么它實際上似乎對任何為人工智能機器提供空間的主張都同樣有力,不管它與標準或實用主義觀點有什么聯(lián)系。這個論點的核心似乎并不是僅僅存在于這個或那個特性(例如意圖或獨立性),而是關于這個特殊主體特征的屬性。因此,即使我們接受這樣的概念機器是有意圖的狀態(tài),或者功能取代了這些意圖狀態(tài),這些機器將屬于它的設計者(或用戶)而不是機器。同時,也不確定琳達·約翰遜的認知轉折在多大程度上也適用于此。她聲稱,只要人工智能機器相關特征的屬性與典型案例相同,我們就應該以務實方式假定人工智能機器倫理地位的存在。

被視為典型自主性機器的無人駕駛汽車是一種學習機器。它們依據程序收集處理信息并得出結論,并在沒有人的干預和指導的情況下相應地改變它們自己的行為方式。因此,這樣一輛汽車可能被設置了一個程序,其中包含不超過速度限制的指令。只知道其他汽車不能超過這些速度限制,從而得出結論它也應該不超過速度限制。比如,導致乘客死亡的特斯拉汽車在行駛過程中就是超速9英里??紤]到這些車輛可能造成傷害,研究者認為無人駕駛汽車需要作出“錯誤的”和“正確的”選擇。換句話說,計算機應該被制造成或成為“明確的倫理推理者”。正如蘇珊·李·安德森和邁克爾·安德森(Susan Leigh Anderson and Michael Anderson)所指出的,“在理想的情況下,我們希望能夠信任自主機器自行作出正確的倫理決策,這就要求我們?yōu)闄C器創(chuàng)建一個倫理準則框架?!?〔6 〕1許多人工智能研究人員似乎認為,如果這些機器能夠自行作出成千上萬的信息驅動和認知決策——何時減速,何時停止,何時避讓,等等——它們也應該能夠作出倫理選擇。這種假設對那些認為事實問題和倫理問題之間沒有本質區(qū)別的人來說是特別合理的。因為他們認為這兩者都可以視為受到理性驅動的心理過程。正像約翰·斯圖亞特·密爾曾指出的,“我們的倫理能力是我們的理性的一個分支” 〔7 〕330??傊?,能夠自行作出決策的無人駕駛汽車以及其他配備了人工智能的機器似乎都需要倫理指導。

二、人工智能機器倫理選擇的方法論困境

無人駕駛汽車和其他類似的人工智能機器作出倫理選擇時,需要遵循人類倫理偏好。但人工智能機器倫理選擇的兩種主要方法(自上而下與自上而下)使得無人駕駛汽車中的“電車難題”面臨新的困境。機器倫理倡導者主張可以通過倫理準則嵌入使人工智能機器成為倫理能動者。為此,他們致力于探討將倫理準則嵌入人工智能機器之中,使其通過成長性的學習培育出倫理判斷能力的可能性。自上而下和自下而上將倫理準則嵌入人工智能機器被 認為是使無人駕駛汽車或其他人工智能機器自行作出倫理選擇的主要途徑。但是這兩種途徑存在缺陷。

(一)自上而下將倫理準則嵌入人工智能機器的缺陷。自上而下方法,即在人工智能機器中預設一套可操作的倫理準則,如自動駕駛汽車應將撞車對他人造成的傷害降到最低。在自上而下方法中,倫理準則是被編程到汽車的指導系統(tǒng)中。這些倫理準則可能是阿西莫夫的“機器人三定律”、《摩西十誡》及其他宗教戒律或者一般的倫理準則。比如康德的絕對命令、功利主義或結果論的某種形式。主要不是一個程序員指示汽車在特定條件下以最正確的方式行駛,汽車能夠根據植入其人工智能程序的倫理準則作出倫理選擇。

自上而下方法的批評者(以及一些支持者)認識到,堅持任何特定的倫理準則所固有的困難。因為在某種程度上它們其中任何一個意圖都會導致在倫理上不可接受的行動和結果。在無人駕駛汽車方面,人們對“電車難題”的應用給予了極大關注。就像許多學者那樣,媒體經常把它們作為一種討論手頭問題的框架。兩個常見的例子:(1)本杰明·康斯坦特(Benjamin Constant)指出,絕對命令將迫使某人告訴殺人犯他的獵物位置,因為在任何情況下都禁止說謊 〔8 〕1774-1799。(2)如果遵循結果論就會得出結論認為作為一種減少造成不可避免損失的方法,一輛汽車最好選擇撞向相鄰車道內兩輛車中比較便宜的那輛汽車,這顯然引起人們的擔憂 〔9 〕58-65。

事實上,這些(和其他)倫理準則已經發(fā)展出試圖解決這些“缺陷”的變形體。盡管如此,在一些倫理學說中仍有一些重要的辯論,突出在特定哲學體系中所面臨的困境,這些哲學體系是為具有人工智能機器提供倫理指導的系統(tǒng)。例如,對于 “效用”是否可以量化以及如何被量化,存在眾所周知的重大分歧,邊沁和穆勒就對是否有不同水平的效用(快樂的“高”和“低”)存在分歧。結果論者繼續(xù)面臨這些挑戰(zhàn)。例如,估計長期后果和決定應該為誰考慮后果等。電車難題的大部分思想實驗認為,每一個生命都是生命,因此殺死五個人顯然比殺死一個人更糟糕。然而,人們并沒有像對待幼兒園里的孩子那樣,對身患絕癥的老年公民給予同樣的倫理價值,也沒有將特蕾莎修女視為罪犯。

沒有必要在這里反復討論各種倫理學說之間的重大分歧。這就足以表明,考慮到這些差異無論是使用一種或結合這些倫理準則,人們都很難設計出一種能夠自行作出倫理選擇的機器。像“電車難題”并非一無是處,像其他心理實驗一樣它們可以作為一個具有挑釁性的對話起動器。它們可以被用來作為一種有效的教學工具。例如用于說明結果論和義務論的區(qū)別。然而,它們對人工智能機器的選擇模式來說尤其會適得其反?!半娷囯y題”是非常做作的,它們通常只留下兩個選擇,而且這兩個選項和其他條件都不能被修改。例如選擇的框架要么是殺死一個孩子,要么造成毀滅性災難。為了進一步簡化這個場景,它假設殺死兩個人“顯然”比殺死一個人更糟糕,這無視大多數人對不同人的生命的不同看法。比如將一個95歲的晚期癌癥患者與25歲的退伍老兵或者孩子相比較。詹姆斯·奧康納補充道:“電車理論的錯誤之處在于它被含蓄地設計但卻帶有明顯的教條主義,它規(guī)定救援者不是處在一個位置,或者沒有這種傾向,或者真的需要幫助。只有通過選擇一個或另一個斯巴達式的選擇范圍,所有的選擇都在倫理上令人厭惡,電車哲學家已經預先設定好了介入場景方案。由此可見,電車方法是以一種高度貧困的人性觀為前提的。” 〔10 〕芭芭拉·弗里德(Barbara Fried)指出,“電車學的‘知識壟斷鼓勵一些哲學家把更多的注意力放在‘邊緣性的古怪案例上,而不是現實生活中發(fā)生意外傷害風險的大多數案例?!?〔11 〕 法學界一個重要的格言:“艱難的案件會導致更糟糕的法律”,由于特別極端情況而引起注意的案件往往是由某些法律或規(guī)則而導致的,而這些法律或規(guī)則只適用于貧乏規(guī)則。因此,“定時炸彈”的情景被用來證明功利主義的倫理規(guī)范是對酷刑的辯護 〔12 〕211-228。

但是有人可能會問,“如果人類可以做到這一點,為什么智能機器不能呢?”作為回應,人們首先注意到人類能夠應付細微差別和處理模糊的決策,但計算機程序員發(fā)現這樣的決策特別費力。此外,當一個人認為可以基于這個或那個哲學基礎而作出倫理選擇時,實際上人類首先從撫養(yǎng)他們的人那里獲得他們自己的倫理價值觀,然后,當他們接觸到來自新的群體、文化和亞文化的各種投入并逐步發(fā)展他們自己的個人倫理組合時,修改他們自己的這些價值觀。此外,這些價值受到特殊的社會原則影響,這些社會原則并不局限于任何一個倫理準則。簡而言之,自上而下的方法是非常難以置信的。

(二)自下而上將倫理準則嵌入人工智能機器的缺陷。自下而上方法,讓人工智能機器運用反向強化學習等機器學習技術研究人類相關現實和模擬場景中的行為,使其樹立與人類相似的價值觀并付諸行動,如讓自動駕駛汽車研究人類的駕駛行為。在機器倫理學的第二種方法即自下而上的方法中,機器將學習如何通過觀察人類在實際情況下的行為,而不是被教授任何形式的規(guī)則或具有任何特定的倫理準則來作出倫理選擇。這種方法已經被應用于無人駕駛汽車學習的非倫理方面。例如,卡內基梅隆大學研究人員發(fā)明早期自動駕駛汽車,能夠經過2-3分鐘人類駕駛員的培訓之后在高速公路上行駛。其普遍化能力允許在四車道的道路上行駛,盡管它只是在一條或兩車道的道路上被訓練的 〔13 〕。機器學習也被一些研究人員用來改善和提高汽車的行人檢測能力 〔14 〕。此外,來自英偉達公司的一個團隊最近展示一輛無人駕駛汽車,它使用“端到端”的機器學習,即在觀察了72小時的人類駕駛數據之后,它就可以自主駕駛?!?3 〕然而,將這些視為機器學習倫理行為的先例,就假定學習紅綠燈的不同反應沒有顯著的差異,并學習理解、欣賞倫理命令,以便必須要特別注意不要撞到與汽車在同一車道行駛的騎自行車的人,更不要說不去干擾或故意傷害騎車的人 〔15 〕88-114。然而,汽車被要求處理的各種倫理問題是非常罕見的。比如,在不可避免的碰撞事故中誰能殺死或傷害誰這些問題。根據2013年美國交通部的數據,每行駛1億英里只導致了77人受傷和1.09人死亡 〔16 〕。而且,每一個這樣的挑戰(zhàn)情況都與下一個不同:有時是一只小貓導致事故,有時是一輛校車導致的事故,等等。無人駕駛汽車必須以這種方式經歷幾個生命周期跟隨一個人去學習倫理。

可見,這是統(tǒng)計學上機器學習程序的一個廣泛問題,以及更廣泛的統(tǒng)計推斷。當從某一概率分布中抽取樣本時就會出現異常事件,這一結果是很難預測的,有一些反應是正常的。首先,根據定義這些是“異常值”,其罕見出現的頻率是有邊界的。第二,人類司機面臨同樣的問題,通常以不可預測的方式作出反應,有時會導致所謂的“人為錯誤”。第三,先進的機器學習系統(tǒng)從以往的經驗作出概括,并通常涵蓋前所未有的情況。對機器學習來說,這仍然是一個具有挑戰(zhàn)性的研究課題,但它并不是這個領域唯一的研究課題。大多數時候人工智能機器可以與法律手段保持一致。在其他情況下,它們可以被要求遵守它們用戶的倫理偏好。當然,這兩種倫理的指導方式將揭示無人駕駛汽車百萬英里下的情況(每一個都是獨特的和往往難以預測的)下,總是會有一些無法預見的事件和程序會發(fā)生。例如,當一個金屬氣球正好飛到無人駕駛汽車的前面時,把它搞混了。在這些情況下,最好的選擇是隨機地決定哪一方會受到傷害(包括無過錯保險)。如果這些情況是重復的,法律的指導原則或倫理機器人將需要被人類更新。

因此,人們建議無人駕駛汽車可以通過某種作為一種集體思維或利用群體智能的聚合系統(tǒng),并從數百萬人的倫理決策中學習。然而,人們應該注意,這可能會導致汽車習得一些不倫理的偏好。如果他們知道許多人所做的,智能汽車可能會加速、尾隨并參與到路怒中。還必須注意到,當面對類似“電車難題”帶來的選擇時,人們可能會作出自動反應,而不是在倫理討論和決策上。也就是說,觀察人們不會教給這些機器是什么倫理,而是什么是普遍的。這個問題是由簡·弗朗西斯(Jean-Francois)、博納豐(Bonnefon)、阿奇姆·謝里夫(Azim Shariff)和伊亞德·拉萬(Iyad Rahwan)等所做的實驗支持。他們測試了參與者對無人駕駛汽車是否應該作出實用的倫理選擇的態(tài)度,即使這意味著為了拯救更多的行人而犧牲乘客的生命。他們發(fā)現大多數受訪者希望無人駕駛汽車在沒有參與的情況下作出實用的選擇。對他們自己來說,他們希望汽車能以他人為代價而優(yōu)先考慮自己的幸福。正如哲學家帕特里克·林(Patrick Lin)所說,“沒有人想要一輛汽車關心更大的善,他們想要一輛車關心他們自己?!?〔17 〕對于谷歌、特斯拉或任何其他汽車制造商來說,這幾乎不可能成為符合倫理標準的汽車,它們最不聽從大眾的意見。

簡言之,自上而下和自下而上方法都面臨非常嚴重的困難。此進路在技術上存在極大困難,理論上也受到不少質疑。這些困難更多的不是技術上的,而是與倫理哲學的內在結構有關。尤其是相比于人工智能機器能否一開始就成為倫理主體的問題,這些困難顯得蒼白無力。實際上,不論是自上而下地在自動駕駛汽車等人工智能系統(tǒng)中嵌入倫理代碼,還是自下而上地讓其從環(huán)境中學習倫理規(guī)范,在近期都很難實現。正如信息哲學家弗洛里迪(L.Floridi)所指出的,“為機器制定一套倫理無異于白日夢,更為負責任的策略是在智能機器內部嵌入一定的安全措施,同時在機器自動操作時,人可以作為‘共同決策人發(fā)揮監(jiān)管作用?!?〔18 〕28-29但是,假若真能將合乎倫理的倫理準則嵌入機器人和人工智能系統(tǒng)之中,是否意味著也可以輕而易舉地將非倫理準則和反倫理準則嵌入其中呢?

這樣看來,似乎人們不需要也不可能把倫理嵌入人工智能機器,機器也不能像孩子那樣習得倫理準則,這樣它們就能自己作出倫理選擇。在很多情況下,社會可以對人工智能機器所作的事情設置法律限制。或許未來,用戶可以為它們提供倫理指導,雇傭倫理機器人來使得配備了人工智能的機器保持正常運轉,但目前這一愿望很可能還遙遙無期。

三、應對人工智能機器倫理挑戰(zhàn)的策略選擇

人工智能機器倫理選擇的現實困境表明,人們不需要也不可能把倫理嵌入人工智能機器。但對人工智能機器的倫理選擇實施監(jiān)管仍是必不可少的。為此,社會可以對人工智能機器帶來的倫理挑戰(zhàn)和“技術性風險”采取法律規(guī)制、技術監(jiān)管、倫理建模、程序正義等綜合策略選擇。

(一)人工智能選擇的法律規(guī)制。法律規(guī)制是社會風險治理的重要手段,也是倫理和社會價值在人類世界中實現的主要方式。許多倫理和社會價值觀都體現在法律 (以及它們在法規(guī)中的表達)中,即它們是集體制定和實施的。例如,為了提高安全性,汽車必須在停車標志上停放。那些不接受這些價值觀的人將被禁止行駛、處罰(如簽發(fā)罰單)或被監(jiān)禁(如醉駕者)。實現社會和倫理價值的法律強制是至關重要的。因為通過由立法機關制定的法律來執(zhí)行的許多價值,由法院解釋并由國家執(zhí)行,原則上不受個人的審議和選擇。它們需要集體審議和決定。社會不讓每個人決定他或她是否認為它在倫理上合適的不是速度也不是要剎車,而是靠左邊行駛 (通常),避免闖紅燈、窗外扔垃圾、不戴安全帶、離開事故現場、醉酒駕駛或在法定年齡以下開車。因此,智能機器能夠做出倫理選擇的觀點只考慮了它們的主人或者用戶應該做什么,并沒有考慮到汽車應該做什么。

把所有這些選擇作為本質上是合乎倫理的,但是無視人類行為和決策的許多方面不受個人審議和決定,機器倫理的支持者看到對于配備了人工智能的機器而言,更大領域的倫理決策比實際存在的要多。就像所有其他汽車一樣,無人駕駛汽車必須遵守法律,如果他們認為速度、污染等問題是合乎倫理的,就沒有必要去考慮。確實,這些法律可能會考慮到這些車的特殊性。不過,像所有其他車輛一樣,無人駕駛汽車需要遵守集體同意的法律,否則就會被從馬路上拖走。它們的所有者、程序員和制造商需要對所造成的任何傷害承擔責任 〔19 〕。

對人工智能機器的倫理指導應該利用一個新的人工智能程序,它將“讀取”其擁有者的倫理偏好,然后指導這些機器留意它們,它們被稱為“倫理機器人”。倫理機器人是一個人工智能程序,它能夠分析成千上萬條的信息(不僅是在互聯(lián)網上公開的信息,而且包含從本地計算機存儲和其他存儲設備收集的信息),這些信息是關于特定行為的個體為了確定個人倫理偏好。然而,倫理機器人的方法并不要求機器學會接受任何一種倫理,或任何倫理能動者具有的屬性。倫理機器人僅僅是“讀取”用戶的倫理偏好并指示機器注意它們。也許有人會問:假如這些偏好有害呢?如果汽車從個人那里學會如何行進,它們可能學會“壞”的行為。因此,倫理機器人最終也需要在法律規(guī)定的范圍內解決問題。

因此,將倫理嵌入機器或教授倫理給機器是非常繁重的工作。人工智能機器所作的許多倫理選擇都是被迫作出,不需要也不應該由它們作出。因為這些選擇是由社會、立法機構和法院作出。剩下的許多或許可以由“倫理機器人”來選擇,這讓汽車的“行為”與車主的倫理偏好保持一致。當然,法律和倫理機器人都不能完全克服某些決策困境,比如一些極端異常的情況。

考慮到人類對現有技術和制度認知的局限性,立法者和政策制定者當前提出對人工智能的管制必然需要經過提出、試錯和總結經驗才可能完善?,F階段我國開展對人工智能的法律規(guī)制可以先從發(fā)現和確認全世界應當共同遵守的原則開始。2017年簽署的阿西洛馬人工智能原則就為設計一套保障與人類價值觀一致的AI安全發(fā)展指南作出了有益的嘗試。

(二)人工智能機器選擇的技術監(jiān)管。技術監(jiān)督是人工智能機器倫理選擇風險治理的重要手段。風險社會理論指引下的技術監(jiān)管有以下特點:風險規(guī)避的主要路徑是事先預防而不是事后補救;風險規(guī)避的基礎范式是從技術研發(fā)到應用過程的責任制度;風險規(guī)避的重要措施是奉行技術民主原則。解鈴還須系鈴人。人工智能機器的倫理選擇風險本質上是由技術本身造成的。因此,要有效應對人工智能機器的倫理決策風險問題,實施技術上的監(jiān)管不失為一種行之有效的方法。比如,為了防止無人駕駛汽車作出不倫理的行為選擇,可以借助大家比較認同的倫理準則設計智能算法和“倫理的機器人”對人工智能機器或系統(tǒng)施加“技術性”監(jiān)管,也就是以人工智能技術系統(tǒng)來監(jiān)管人工智能技術系統(tǒng)。這種技術監(jiān)管機制可以借助兩種途徑來實施:一是外部監(jiān)管。隨著智能機器學習能力的不斷增強,人工智能機器的倫理選擇可能會偏離初始設置,因此監(jiān)管機構需要定期審查其智能機器的倫理算法是否還能通過倫理水平測試,是否有必要進行倫理算法的升級。二是內部監(jiān)管。即從算法上設置一種二階程序實時地監(jiān)控人工智能系統(tǒng)或機器的運行,也就是用人工智能系統(tǒng)監(jiān)管人工智能機器的倫理選擇。

(三)人工智能機器選擇的倫理建模。在人工智能機器選擇的過程中,嘗試開發(fā)一些計算軟件能夠在倫理需要的情況下提供指導。實際上已經有這樣軟件開發(fā)的嘗試。第一個例子是一個實用的軟件工具叫杰里米 〔20 〕368。這個程序通過使用簡單的產品結果的效用強度、持續(xù)時間和概率(其中的每一項都由用戶來估算)來測量任何行動的效用結果。在無人駕駛汽車的環(huán)境中,效用可以被定義為安全或者損害成本的反面,它是基于強度、持續(xù)時間和概率的基礎上來自于倫理模型的估計。這個模型主要缺陷是它單獨使用功利主義倫理學理論,這種理論忽視了情景、美德和個體傷害的限制。

麥克拉倫(McLaren)開發(fā)了兩個工具來幫助倫理決策,第一個工具是“講真話者”,這是一個能夠分析兩個案例主題并決定是否告訴真相的程序 〔21〕。程序標識案例之間的異同,列出在每一種情況下贊成或反對說真話的理由。這是詭辯推理的例子,一個通過比較相似情況下的問題而不是使用從另一組被試中習得的規(guī)則達到結論。案例研究使用符號而不是輸入自然語言處理更容易被機器可讀。類似的程序來自麥克拉倫的SIROCCO 〔21 〕,使用詭辯從國家專業(yè)工程師學會中與工程倫理問題相關的倫理規(guī)范來識別原則,像“講真話者”和“SIROCCO”避免倫理判斷,而是提出可以幫助用戶做出決策的與倫理相關的信息。

無人駕駛汽車甚至更復雜的例子將會繼續(xù)出現碰撞事故。為了減少損失,車輛必須持續(xù)不斷地評估對其自身和其他的風險。甚至簡單的演習將要求車輛確定本身及其他可以接受的風險。這些風險的計算、驗收和分攤是倫理選擇,人類司機將無法監(jiān)督這些選擇。車輛有時必須通過明確預先設置的程序指令、機器學習的方法或者兩者的某種結合自主地作出倫理選擇。倫理建模已經取得了一些進展,但仍留有大量的工作要去做。

(四)人工智能機器選擇的程序正義。確立人工智能機器選擇的正義程序也非常必要。人類社會中的制度規(guī)范、法律準則和司法決策受程序正義的約束。基于智能算法基礎上的人工智能機器選擇理應受到程序正義的約束。正如希特輪(Danielle Keats Citron)在其論文《技術正當程序》中所指出的:鑒于智能算法日益決定著各種決策的結果,人們需要建構技術公平規(guī)范體系,通過程序設計來保障公平的實現,并借助于技術程序的正當性來強化人工智能機器決策系統(tǒng)的透明性、可審查性和解釋性。為了避免倫理算法歧視,2016年12月美國頒布的白宮人工智能報告將“理解并解決人工智能的倫理、法律和社會影響”列入國家人工智能發(fā)展戰(zhàn)略。英國下議院科學技術委員會呼吁成立一個專門的人工智能委員會,對人工智能當前以及未來發(fā)展中的社會、倫理和法律影響進行研究。

近年來,國際人工智能界日趨重視人工智能中的倫理規(guī)范與法律規(guī)制問題,并推動相關技術標準及社會規(guī)范的研討和制定。如我國出臺的《新一代人工智能發(fā)展規(guī)劃》,專門提出人工智能倫理與法律的“三步走”規(guī)劃,IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則。但是,將人類倫理準則或法律規(guī)范嵌入到人工智能機器中,仍是當今世界面臨的前沿性科學難題,這需要技術、倫理、法律等控制手段配合使用、高度融合和跨學科領域合作。從目前來看,機器不能像孩子那樣習得倫理準則,人們不需要也不可能把倫理嵌入人工智能機器。社會可以對人工智能機器決策帶來的倫理挑戰(zhàn)和“技術性風險”采取法律規(guī)制、技術控制、倫理建模和監(jiān)管機制。

應該承認,相當數量的決策都涉及倫理和法律兩方面的要素。例如,法律規(guī)定在許多情況下車輛必須給行人讓路。要求汽車在許多情況下要避讓行人是由法律規(guī)定的。盡管如此,那些對他人有強烈尊重的人更有可能采取額外的預防措施,甚至比那些對這個價值的承諾更弱的人更不愿意靠近行人。因此,汽車需要在由倫理機器人來指導,以確定它們是否接近法律規(guī)定的界限,或者給予它更大的余地。除了遵守倫理和社會價值觀之外,其他許多因素(比如通過對現實和情感的解釋)都會影響無人駕駛汽車的倫理選擇。將人類驅動的汽車和無人駕駛汽車進行比較很可能會發(fā)現,許多人對無人駕駛汽車的評價要比人駕駛汽車高得多。隨著相關技術的進一步發(fā)展,這種情況尤其可能會發(fā)生。這一發(fā)現具有重大的倫理意義,因為在可預見的未來,人們預期無人駕駛汽車將比人類駕駛的汽車安全得多。

參考文獻:

〔1〕Eshleman, A. Moral Responsibility. In E. N. Zalta (Ed.). The Stanford Encyclopedia of Philosophy〔EB/OL〕.http://plato.stanford.edu/archives/sum2014/entries/moral-responsibility/.

〔2〕Levin, J. Functionalism. In E. N. Zalta (Ed.)〔J〕. The Stanford Encyclopedia of Philosophy,2013(12).

〔3〕Johnson, D. Computer systems: Moral entities but not moral agents〔J〕. Ethics and Information Technology, 2006(4).

〔4〕Floridi, L., Sanders, J. W. On the morality of artificial agents〔J〕. Minds and Machines, 2004(3).

〔5〕Grodzinsky, F. S., Miller, K. W.,Wolf, M. J. The ethics of designing artificial agents〔J〕. Ethics and Information Technology,2008(3).

〔6〕Michael Anderson, Susan Leigh Anderson (eds). Machine ethics〔M〕. Cambridge: Cambridge University Press,2011.

〔7〕John Stuart Mill.On liberty and other essays〔M〕. Oxford: Oxford University Press,2008.

〔8〕Constant, Benjamin. Des re actions politiques〔M〕. Oeuvres comple`tes ,1797.

〔9〕Noah Goodall. Ethical decision making during automated vehicle crashes〔M〕. Transportation research record: journal of the transportation research board,2014.

〔10〕OConnor, James. The trolley method of moral philosophy〔J〕. Essays in Philosophy, 2012(13).

〔11〕Fried, Barbara H. What does matter? The case for killing the trolley problem (or letting it die) 〔J〕. The Philosophical Quarterly ,2012(62).

〔12〕Lucas Jr., George R. Engineering, ethics and industry: the moral challenges of lethal autonomy In Killing by remote control: the ethics of an unmanned military〔M〕.New York: Oxford University Press,2013.

〔13〕Bojarski, Mariusz, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D. Jackel et al. End to end learning for self-driving cars〔EB/OL〕. https://arxiv.org/ abs/1604.07316.

〔14〕Harris, Mark. New pedestrian detector from Google could make self-driving cars cheaper〔EB/OL〕.http://spectrum.ieee.org/cars-that-think/transportation/self-driving/new-pedestrian-detector-from-google-could-make-selfdriving-cars-cheaper.

〔15〕McDermott, Drew. What matters to a machine. In Machine ethics, ed. Michael Anderson, and Susan Leigh Anderson〔M〕 .Cambridge: Cambridge University Press,2011.

〔16〕National Highway Traffic Safety Administration. Traffic safety facts 2013: A compilation of motor vehicle crash data from the fatality analysis reporting system and the general estimates system. US Department of Transportation〔EB/OL〕. https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812139.

〔17〕Metz, Cade. Self-driving cars will teach themselves to save lives—but also take them. WIRED〔EB/OL〕. http://www.wired.com/2016/06/self-driving-cars-will-power-kill-wont-conscience/.

〔18〕朗伯·魯亞科斯,瑞尼·凡·伊斯特.人機共生:當愛情、生活和戰(zhàn)爭都自動化了,人類該如何相處〔M〕.北京:中國人民大學出版社,2017.

〔19〕Etzioni, Amitai, Oren Etzioni. AI assisted ethics〔J〕. Ethics and Information Technology ,2016(1).

〔20〕M. Anderson, S. L. Anderson, C. Armen.Towards Machine Ethics: Implementing Two Action-Based Ethical Theories〔C〕// in Proceedings of the AAAI 2005 Fall Symposium on Machine Ethics, Arlington,VA,2005.

〔21〕B. M. McLaren.Computational Models of Ethical Reasoning: Challenges, Initial Steps, and Future Directions〔J〕. IEEE Intelligent Systems, 2006(21).

責任編輯 蘇玉娟