于雪 段偉文
〔摘要〕 人工智能2.0時代標志著人機一體化新一代技術(shù)革命的來臨,這種背景下建構(gòu)人工智能倫理不僅重要而且必要。人工智能技術(shù)具有不確定性、隱象性和系統(tǒng)復雜性,其倫理建構(gòu)需要遵循整體性、過程性、適應性、相容性、靈活性和魯棒性等原則。人工智能倫理的框架建構(gòu)可以通過明晰人工智能倫理的基本價值、確定人工智能倫理的基本標準,以及落實人工智能倫理的相關(guān)責任這三方面得以實現(xiàn),并且通過嵌入設計、合理使用、合作管理和多元參與這四條實踐進路來推進。
〔關(guān)鍵詞〕 人工智能,倫理體系,價值,實踐智慧,彈性倫理
〔中圖分類號〕N01?? ?〔文獻標識碼〕A〔文章編號〕1004-4175(2019)06-0043-07
隨著人工智能2.0時代的來臨,“人工智能+互聯(lián)網(wǎng)+區(qū)塊鏈”的技術(shù)合作模式激發(fā)了人工智能技術(shù)在各個領(lǐng)域的應用,掀起了人機一體化的新一代技術(shù)革命 〔1 〕。2017年,國務院出臺《新一代人工智能發(fā)展規(guī)劃》,提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力” 〔2 〕。理論上看,對人工智能技術(shù)進行倫理規(guī)約有兩種可能的路徑。一種路徑是使人工智能的設計符合現(xiàn)有的倫理規(guī)范,但人工智能技術(shù)的發(fā)展無論是深度上還是廣度上都表現(xiàn)出一種開放性的態(tài)勢,其發(fā)展與倫理應對都處于一種未完成的狀態(tài),現(xiàn)有的倫理規(guī)范可能無法完全回應人工智能技術(shù)帶來的潛在風險。這就需要采取另外一種路徑,即通過制定新的倫理規(guī)范為人工智能的發(fā)展劃出合理的倫理邊界,以實現(xiàn)人工智能技術(shù)的“向善”目的。誠如亞里士多德所說:“一切技術(shù),一切研究以及一切實踐和選擇,都是以某種善為目標?!?〔3 〕因此,建構(gòu)適合人工智能技術(shù)發(fā)展的倫理框架不僅重要,而且必要。
一、人工智能倫理的內(nèi)涵及其建構(gòu)原則
(一)人工智能倫理的內(nèi)涵。建構(gòu)人工智能倫理,首先需要回答“什么是人工智能”。目前關(guān)于人工智能的定義可以總結(jié)為三種類型:一是將人工智能定義為與人類行為相似的計算機程序;二是將人工智能定義為會自主學習的計算機程序;三是將人工智能定義為能夠根據(jù)對環(huán)境的感知,采取合理的行動,并獲得最大收益的計算機程序 〔4 〕。這三種定義分別傾向于模擬人的行動能力、人的思維能力或?qū)W習能力以及人的理性能力。這三種人工智能的界定都在一定程度上涉及到倫理問題,因此需要將其作為一個整體來考察。以此為起點,闡釋人工智能倫理的內(nèi)涵可以按照“界定→理解→表述”的邏輯順序展開:(1)界定人工智能倫理的基本概念,這意味著需要對現(xiàn)有人工智能的概念、基本范疇、主要問題進行解釋和整合,從中提煉出與人工智能倫理相關(guān)的基本議題;(2)在把握人工智能倫理基本概念的基礎上,獲得對人工智能倫理話語體系的一致性理解,即能夠?qū)θ斯ぶ悄軅惱淼暮诵母拍詈拖嚓P(guān)用法達成共識;(3)建構(gòu)適合人工智能倫理的表述體系,例如是應當以人類為主導建構(gòu)倫理表述體系,強調(diào)當設計、發(fā)明、使用人工智能的時候,你(人類)應當……,還是以人工智能技術(shù)為主導建構(gòu)倫理表述體系,即你(人工智能,AI)應當……。基于這一思路,為了便于討論,我們可以提出人工智能倫理的定義:在人工智能產(chǎn)品、服務、應用與治理中,智能體(人與智能機器)所應該遵循的一般倫理原則和行為規(guī)范。
(二)建構(gòu)人工智能倫理的基本原則。人工智能技術(shù)的發(fā)展表現(xiàn)出三個明顯的特征:一是不確定性,即人工智能技術(shù)發(fā)展過程中可能出現(xiàn)的新情況以及可能產(chǎn)生的后果難以確定。二是隱象性,基于大數(shù)據(jù)和機器學習的人工智能技術(shù)難以從直觀上把握,出現(xiàn)問題前可能沒有明顯的征兆。三是系統(tǒng)復雜性,人工智能技術(shù)的研發(fā)需要各學科、各行業(yè)、各部門的人員相互配合,在復雜大系統(tǒng)中協(xié)同工作,彼此之間的溝通與協(xié)作可能存在一定的困難。
基于以上特征,要想建構(gòu)恰當?shù)娜斯ぶ悄軅惱?,須以基于“實踐智慧”的彈性倫理思想為宗旨 〔5 〕1-3。具體看來,建構(gòu)人工智能倫理過程應當遵循以下基本原則:(1)整體性原則。人工智能倫理的建構(gòu)應當體現(xiàn)宏觀視角,能夠?qū)θ斯ぶ悄馨l(fā)展的整體規(guī)律有一定的掌握和預見,從整體的高度建構(gòu)人工智能倫理。(2)過程性原則。人工智能倫理的建構(gòu)應當關(guān)注人工智能技術(shù)發(fā)展的全過程,從設計、生產(chǎn)、操作、應用等各個環(huán)節(jié)共同參與建構(gòu)。(3)適應性原則。人工智能倫理的建構(gòu)應當體現(xiàn)出可適應性,即為了更好地實現(xiàn)其倫理規(guī)約的功能,而適當?shù)馗淖兤鋬r值要素或者增加新的價值要素以適應倫理價值本身的變化。(4)相容性原則。人工智能倫理的建構(gòu)應當體現(xiàn)整體與局部、一般與個別、當下與未來的相容性,在倫理建構(gòu)的過程中應當考慮一般性與特殊性,以保證倫理價值在不同情境中的相容性。(5)靈活性原則。人工智能倫理在保證尊重核心倫理價值的前提下,要體現(xiàn)具體案例具體分析的彈性處理辦法,以適應人工智能技術(shù)自身的隱象性、不確定性和復雜性。(6)魯棒性原則。這里指的是“價值魯棒性”,即通過設計的方式調(diào)整價值的合適域,使價值能夠在一定范圍內(nèi)保持穩(wěn)定,不會隨著外在環(huán)境的變化徹底顛覆。遵循以上基本原則建構(gòu)人工智能倫理,可以在充分考慮人工智能技術(shù)自身的特點和發(fā)展趨勢的基礎上,實現(xiàn)對人工智能技術(shù)的倫理治理。
二、人工智能倫理建構(gòu)的基本框架
在充分考慮人工智能技術(shù)需求和社會需求的基礎上,可以從明晰人工智能倫理的基本價值、確定人工智能倫理的基本標準,以及落實人工智能倫理的相關(guān)責任這三個方面實現(xiàn)人工智能倫理的框架建構(gòu)。
(一)明晰人工智能倫理的基本價值。建構(gòu)人工智能倫理的一個核心環(huán)節(jié)是確定人工智能技術(shù)應當遵循的倫理價值。價值指的是“人們普遍認為應該為之奮斗的持續(xù)的信念或者事件,這種奮斗不僅僅是為了他們個人,而是為了能夠獲得一種好的生活或?qū)崿F(xiàn)一個好的社會” 〔6 〕72。在科技倫理領(lǐng)域內(nèi),價值有其特定的范式。一般而言,科技活動的倫理價值可以從核心層、基礎層和實踐層三個層面來理解。實踐層面的科技倫理價值指的是科技活動中具體的行為規(guī)范,基礎層面的科技倫理價值指的是指導這些科技活動一般性的倫理原則和基礎性的倫理價值,而核心層面的科技倫理價值則建基于人類的核心價值,即建立在主體理性之上的人的尊嚴、幸福、自由、關(guān)愛等內(nèi)在價值。這三個層面的價值之間的關(guān)系是:實踐層的倫理價值受基礎層的倫理價值指導,而基礎層的倫理價值來自于核心層的人類價值。三個層面的倫理價值層層推進。具體而言,按照當代科技倫理學家瑞斯·尼克(David B. Resnik)的觀點,科技倫理行為應該體現(xiàn):“誠實、審慎、公開性、自由、信用、教育、社會責任、合法、機會、相互尊重、效率與尊重主體” 〔7 〕63-88這十二項倫理價值。在科技活動中,專業(yè)人員所遵循的基本價值訴求是公眾利益優(yōu)先,即以負責任的專業(yè)服務造福社會。弗雷德曼等人針對信息通訊技術(shù)(ICT)同樣提出了十二條倫理價值,分別是:“人類福祉、財產(chǎn)權(quán)、隱私、無偏見、普遍可用性、信任、自主性、知情同意、可解釋性、同一性、平衡和環(huán)境可持續(xù)性?!?〔8 〕55-59 這些科技倫理的價值可以劃分為指標性價值和實踐性價值兩類,前者體現(xiàn)了科技活動的宗旨,是科技活動應有的與人類價值相一致的基本價值;后者指的是基于指標性原則的要求、在科技實踐中的具體行動所遵循的價值 〔9 〕。由是觀之,基于科技倫理價值的倫理構(gòu)建策略是:首先將指標性價值與人類一般倫理價值保持一致,進而通過實踐性價值規(guī)制具體的科技活動。這一策略為建構(gòu)人工智能的倫理價值框架提供了指南。人工智能技術(shù)的指標性價值應為人類福祉,這里既包含了積極實現(xiàn)人類福祉的公共福祉優(yōu)先和客觀性價值,也包含了被動實現(xiàn)人類福祉的尊重和無害原則。而人工智能技術(shù)的實踐性價值應該在以人類福祉為核心的前提下,對涉及人工智能技術(shù)的具體行為進行價值設定,其本質(zhì)是促進人工智能的創(chuàng)新與發(fā)展。
具體看來,以人類福祉為核心,以人工智能的創(chuàng)新和發(fā)展為要旨,人工智能倫理價值的設定可以總結(jié)為三個方面,分別是:觀念化價值、經(jīng)驗化價值和技術(shù)化價值。觀念化價值指的是從概念框架出發(fā)理論上應當被關(guān)注的價值,其來源既包括與人工智能技術(shù)直接相關(guān)的直接利益相關(guān)者,也包括受人工智能技術(shù)影響的間接利益相關(guān)者。無人駕駛汽車的直接利益相關(guān)者(如設計者、企業(yè)、銷售商等)會將安全、人類控制、隱私等價值作為訴求,間接利益相關(guān)者(如行人或受該技術(shù)影響的其他人)則會將公正、責任、可持續(xù)性等價值作為訴求,這些價值都應當在觀念上被考慮。經(jīng)驗化價值指的是從“理解、語境和經(jīng)驗”中對觀念化價值的實踐體認,如可信任、尊嚴等。技術(shù)化價值指的是與人工智能技術(shù)的特殊性相關(guān)的價值,這一方面包括了當前人工智能技術(shù)所涉及的價值(比如透明性、可解釋性等),也包括了未來人工智能技術(shù)可能出現(xiàn)的新的價值(可能需要的價值例如AI產(chǎn)品的可識別性、可解釋性等)。
從當前關(guān)于人工智能技術(shù)的倫理準則看,大多準則提到了上述的部分價值。歐盟委員會發(fā)布的由人工智能高級專家組編制的《可信任人工智能的倫理指南》(Ethics Guidelines For Trustworthy AI)提出了尊重人類自主性、預防傷害、公正性、可解釋性這四個價值旨歸;“阿西洛馬人工智能原則”(Asilomar AI Principles)中提出了13點倫理價值,分別是:安全性、故障透明性、司法透明性、責任、價值歸屬、人類價值觀、個人隱私、自由和隱私、分享利益、共同繁榮、人類控制、非破壞、避免人工智能軍備競賽;北京智源人工智能研究院聯(lián)合北京大學、清華大學、中國科學院自動化研究所等高校、科研院所和產(chǎn)業(yè)聯(lián)盟,共同發(fā)布了《人工智能北京共識》,從研發(fā)、使用和治理三個方面提出了造福、服務于人、負責、控制風險、合乎倫理、多樣與包容、開放共享、善用與慎用、知情與同意、教育與培訓、優(yōu)化就業(yè)、和諧與合作、適應與適度、細化與落實、長遠規(guī)劃共15條準則;2019年6月,我國科技部國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則》,指出通過和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理這八個方面建設,有助于實現(xiàn)負責任的人工智能。這些倫理價值的提出有著重要的借鑒意義。但是這些報告中關(guān)于價值的討論主要是將其視為無差別的價值序列,未能體現(xiàn)人工智能技術(shù)自身的指標性價值和實踐性價值之區(qū)別??傮w看來,人工智能的價值體系可以從體現(xiàn)人類福祉的指標性價值和體現(xiàn)AI創(chuàng)新與發(fā)展的實踐性價值入手,從而實現(xiàn)其可視化和可嵌入化過程。
(二)確定人工智能倫理的基本標準。標準指的是為了實現(xiàn)價值而采取的具體規(guī)范,因此,標準是由價值轉(zhuǎn)化而來的。價值是標準的來源,同時標準需要以設計需求作為支撐,這也是價值-標準-設計需要之間的內(nèi)在關(guān)系 〔10 〕253-266。如圖1所示,價值-標準-設計需要三者之間的關(guān)系表現(xiàn)為:頂層是價值,中層是為實現(xiàn)價值而設定的標準,底層是為了實現(xiàn)標準而設定的具體的設計要求。
圖1 價值-標準-設計需要之轉(zhuǎn)化模式
確定人工智能倫理的基本標準,首先,需要確定人工智能技術(shù)所體現(xiàn)的基本價值。根據(jù)上一部分的論證,人工智能倫理的基本價值包括人類福祉與AI創(chuàng)新和發(fā)展,這兩個基本價值分別體現(xiàn)了人與技術(shù)這兩個維度。其次,需要將人類福祉和AI創(chuàng)新發(fā)展這兩個價值還原為標準并繼而還原為設計需要。AI創(chuàng)新和發(fā)展的價值可以還原為安全、可解釋性、可持續(xù)性等標準,繼而被還原為安全可中斷性、故障透明性、環(huán)境友好等設計要求;人類福祉的價值可以被還原為公正、隱私、多元包容、責任、人類控制等標準,繼而被還原為避免算法歧視、敏感信息處理、通用設計、數(shù)據(jù)追蹤與審查、可追蹤系統(tǒng)、可追溯系統(tǒng)等設計要求(如圖2所示)。
需要特別說明的是,人工智能倫理的建構(gòu)既可以采用自上而下的方式,即根據(jù)價值而設定標準和設計要求,也可以采用自下而上的方式,即根據(jù)具體的設計要求來尋找這些設計要求所依據(jù)的標準和價值,或者它們有可能對其起作用的標準和價值。這對于人工智能倫理的建構(gòu)而言,可以用來說明通用人工智能(AGI)和狹義人工智能(ANI)之間的互相作用關(guān)系。通用人工智能的倫理建構(gòu)可以采用自上而下的方式,先設定符合通用人工智能的一般價值,繼而對此提出標準要求和設計要求;而狹義人工智能的倫理建構(gòu)可以采用自下而上的方式,先從各個領(lǐng)域的人工智能的具體設計要求出發(fā),繼而尋找這些設計要求符合的中層標準,從而上升為一般的倫理價值(如圖1所示)。
(三)明確人工智能倫理的相關(guān)責任。為了建構(gòu)人工智能倫理,還需要考慮的一個重要維度就是責任問題,落實責任有助于人工智能倫理治理的法治化建構(gòu)。對人工智能技術(shù)的責任反思有助于人工智能倫理的落實,以責任促進倫理,是保障倫理實踐有效性的重要舉措。責任可以分為法律責任和道德責任兩類。按照現(xiàn)有的法律制度,人工智能可能引發(fā)的法律問題主要涉及四種情況:(1)過失行為責任,指的是因為疏忽而引起的過失,這要考慮是否在人工智能的設計、操作、管理等方面履行了避免過失的義務,并以此追究責任;(2)產(chǎn)品責任,指的是生產(chǎn)商或者銷售商對其產(chǎn)品負有責任,如果因為人工智能產(chǎn)品的質(zhì)量問題而導致的事故可以追究其生產(chǎn)商或銷售商的責任;(3)轉(zhuǎn)承責任或替代責任,指的是在特定關(guān)系中責任者(如雇主)要為行為者(如雇員)負責任,比如警察雇傭智能機器人作為他的代替巡邏者,如果該機器人在巡邏過程中產(chǎn)生了錯誤從而導致事故,那么雇傭該機器人的警察需要承擔這種轉(zhuǎn)承責任;(4)無過失意外賠償責任,指的是不考慮行為人是否有過失,都應當對受害人進行賠償,可以考慮推行因人工智能技術(shù)導致事故的意外賠償計劃 〔11 〕83-119。目前看來,涉及人工智能的法律責任還是以人為主要的責任者,而人工智能本身無法承擔責任。但是隨著人工智能逐漸被設計為具有決策能力的行為者,其本身有可能因為錯誤決策而產(chǎn)生事故,這種情況就需要提前做好相應的法律對策。
另一方面,人工智能涉及的道德責任問題也應當引起重視。根據(jù)傳統(tǒng)道德理論的定義,道德責任指的是對由個體行為引起的后果在道義上所承擔的責任,這是一種后置性責任。按照康德哲學的要旨,道德責任只能由作為道德能動者的人來承擔,而道德能動者則需要滿足自主性和自由意志這兩個條件。因為人工智能客體無法滿足自主性和自由意志這兩個條件,所以無法承擔相應的道德責任。但也有學者指出,盡管人工智能體無法具有與人類相同的道德責任,但因其在行動中體現(xiàn)出與人類相似的自主行為能力和決策能力,因此應當將人工智能的道德責任視為“擬責任”(quasi-responsibility)或“第二責任”(second-order responsibility),這兩種意義上的道德責任承認人工智能客體具有承擔道德責任的能力,它們作為個體單獨承擔道德責任。但是,這種觀點也存在著局限性,人工智能客體不具有承擔道德責任的情緒能力(如不會產(chǎn)生愧疚等道德情緒),因而將這類后置性道德責任單獨地賦予人工智能客體似乎是沒有意義的。然而,必須要承認的是,人工智能客體在人類道德決策活動中的重要作用使其承擔了一定的道德角色,由此有必要對其進行道德意義上的責任分配。這就需要將人工智能客體與人類主體作為一個聯(lián)合體,承擔“共同責任”(joint responsibility)。共同責任的概念并不陌生,艾倫·漢森(Allan Hanson)將這一概念應用到人與技術(shù)人工物的關(guān)系上。漢森指出,行動中的人和技術(shù)人工物共同承擔道德能動性,是聯(lián)合的道德能動者(joint moral agent),因此在道德情境中人與技術(shù)人工物具有共同責任。這一觀點受到了海倫·尼森鮑姆(Helen Nissenbaum)的“多面手”(many hands)理論啟發(fā)。按照“多面手”理論,在復雜系統(tǒng)的事故中,由多方因素共同承擔責任,難以追究其中某個個體的單一責任 〔12 〕25-42。與之相似的觀點還包括大衛(wèi)·岡克爾(David Gunkel)提出的“混合責任”(hybrid responsibility)、喬爾·芬堡(Joel Feinberg)提出的“集體責任”(collective responsibility)以及克里斯蒂安·約豪瑟(Christian Neuhuser)提出的“責任網(wǎng)絡”(responsibility network)等。以上對人工智能的道德責任歸因主要是將其視為一種后置性責任,是針對已發(fā)生事實的道德追究??紤]到人工智能技術(shù)的不確定性,不僅要從后置性的角度反思如何恰當?shù)刈肪康赖虑榫持械娜祟愔黧w與人工智能客體之間的道德責任分配,而且要基于一種前瞻性的視角盡可能地預防道德事故的發(fā)生。這是將道德責任視為一種前置性的責任,從預防的角度考察責任的歸屬問題,即能夠有效地預防事故的發(fā)生就體現(xiàn)出道德責任。因此,建構(gòu)人工智能倫理不僅需要對已發(fā)生事故的法律責任展開追究,更需要對未發(fā)生事故進行預防性責任建構(gòu),盡可能減輕倫理問題產(chǎn)生的后果。
三、人工智能倫理建構(gòu)的實踐進路
人工智能的倫理建構(gòu)可以通過嵌入設計、合理規(guī)制、合作管理和多元參與這四種方式及其互動,全方位多角度地踐行人工智能的倫理建構(gòu),即通過嵌入設計和規(guī)范使用方式體現(xiàn)人工智能倫理的價值和標準,通過多方合作與大眾參與形式實踐人工智能倫理的責任建設和評價機制建設。
(一)嵌入設計。首先,建構(gòu)人工智能倫理的一條有效路徑就是嵌入設計,即將倫理價值和倫理準則嵌入到人工智能技術(shù)之中,以實現(xiàn)在技術(shù)層面建構(gòu)人工智能倫理? 〔13 〕。嵌入設計的方法路徑可以采用價值敏感性設計、機器倫理、負責任創(chuàng)新等理論模型,以AI創(chuàng)新和發(fā)展以及人類福祉這兩個主要價值為宗旨,以與之相關(guān)的安全性、可解釋性、可持續(xù)性、公正、隱私、人類控制等標準為目標,具體的設計要求可以體現(xiàn)為如下四個方面:
其一,人工智能的設計要體現(xiàn)可識別性。在對人工智能的倫理反思中,一個主要的擔憂是:如果人工智能(特別是機器人)與人無異,那么該如何對待這類人工智能產(chǎn)品呢?以何種方式與其交流互動?如何將其區(qū)別于人類能動者?比較典型的例子是人形機器人,作為幾乎和人一模一樣的機器人,一旦被應用到社會生活中,按照恐怖谷理論所說的,在某些情況下會引起人們的恐懼心理 〔14 〕222。對于這些情況,可以通過設計人工智能產(chǎn)品作出可識別性的標識,就像某些食品的包裝上會提示“注意!該產(chǎn)品含有堅果!”以提示對堅果過敏的人們避免食用,那么也可以在人工智能產(chǎn)品上標注“注意!該產(chǎn)品含有人工智能!”以區(qū)別于非人工智能產(chǎn)品,如無人駕駛汽車可以作出顯著提示以區(qū)別人類駕駛汽車。
其二,人工智能設計要體現(xiàn)可解釋性。一方面可以將可解釋性作為一種工具以改善人工智能的性能或者修正錯誤;另一方面可解釋性的內(nèi)在價值體現(xiàn)了人們對自由意志和可控性的需要。例如,歐盟《通用數(shù)據(jù)保護條例》(General Data Protection Regulation, GDPR)要求算法具備可解釋性(The Right to Explanation of Automated Decision),數(shù)據(jù)主體對于自動決策不滿意時,可以采取人工干預,要求對相關(guān)數(shù)據(jù)進行解釋。Upol Ehsan, Brent Harrison等人據(jù)此提出了一種技術(shù)方案“合理化人工智能”(AI rationalization),該方法可以生成對自動系統(tǒng)行為的解釋 〔15 〕。
其三,人工智能設計要盡可能避免偏見。人工智能系統(tǒng)被要求從一定的數(shù)據(jù)當中挑選出合適的數(shù)據(jù),那么挑選的過程就會產(chǎn)生數(shù)據(jù)偏見。主要的偏見類型包括:“交互偏見”(用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見)、“潛意識偏見”(算法錯誤地把觀念與種族和性別等因素聯(lián)系起來)、“選擇偏見”(用于訓練算法的數(shù)據(jù)被傾向性地用于表示某個群體或者分組)和“確認偏見”(數(shù)據(jù)驅(qū)動偏向于那些先入為主的信息)。谷歌公司的研究人員發(fā)明了一種“硬性糾錯”,就是把系統(tǒng)判斷出的對應關(guān)系放到一個論壇平臺上去發(fā)布并詢問是否合適。如果有一半的人認為不合適,那么這個類比就不恰當,就要糾正過來。還有一種更加智能化的方式,即來自哥倫比亞大學的Kexin Pei等人研發(fā)的“DeepXpolre” 〔16 〕軟件,即在神經(jīng)網(wǎng)絡中通過欺騙系統(tǒng)從而使其暴露自身缺陷,據(jù)稱這個軟件能夠激活系統(tǒng)中幾乎百分之百的神經(jīng)元,從而讓整個神經(jīng)網(wǎng)絡去掃描錯誤。
其四,人工智能的設計要預留“切斷開關(guān)”(kill switch)?!発ill switch”,專業(yè)術(shù)語叫“安全可中斷性”,即必要時通過人類決策或者系統(tǒng)自動決策來關(guān)閉該系統(tǒng),以防止產(chǎn)生不可逆的后果。例如,人工智能公司Deep Mind在其程序中設計了“切斷開關(guān)”以防止人工智能帶來的毀滅性后果。
(二)合理規(guī)制。人工智能倫理的建構(gòu)不僅需要依靠技術(shù)嵌入的方法,還需要在技術(shù)使用和技術(shù)操作層面對其進行規(guī)制。要明確人工智能可以使用和不可以使用的范圍,以確?!坝幸饬x地人類控制”(Meaningful Human Control,MHC)?!坝幸饬x地人類控制”最初針對的是自動武器,強調(diào)自動(武器)系統(tǒng)必須保留在有意義的人類控制之中,即人類應當對其道德行為及后果作出終極決策并負有相應的道德責任,而不是自動機器或與此相關(guān)的算法程序。意大利學者Filippo Santoni De Sio和荷蘭學者Jeroen van den Hoven對此進行了細化,提出了自動系統(tǒng)滿足有意義的人類控制兩個必要條件:(1)“追蹤”條件,系統(tǒng)應當能夠回應人類設計和發(fā)展該系統(tǒng)所涉及的相關(guān)道德理由以及該系統(tǒng)運行環(huán)境中的相關(guān)事實;(2)“追溯”條件,系統(tǒng)應當總是能夠允許在設計或使用的鏈條中有至少一個人對其操作的結(jié)果進行追溯 〔17 〕?!坝幸饬x的人類控制”基于菲舍爾(Fischer)和里瓦扎(Ravizza)提出的“引導控制”(guidance control)。“引導控制”強調(diào)兩個條件,一是對決策機制的恰當?shù)睦碛苫貞怯尚袆诱咦约簺Q定的決策機制 〔18 〕207-239。這里的根本問題是道德決策的歸屬。道德決策指的是在道德情境中對現(xiàn)有可能性作出選擇的行動過程。人工智能技術(shù)為非人因素作出道德決策提供了可能性,因為決策的過程可以通過數(shù)據(jù)計算的方式展現(xiàn),比如自動駕駛汽車不得不面對“電車難題”(Trolley Dilemma)以及由此變型的“頭盔難題”(Helmet Dilemma)? 〔19 〕58-65。
對人工智能展開“有意義的人類控制”意味著嚴格控制人工智能的自我決策權(quán),在人類主體與人工智能客體的交互活動中,人類在人工智能技術(shù)使用中應當擁有最后的決策權(quán)。“有意義的人類控制”對限制人工智能的合理使用具有重要的參考意義,對于超出人類控制的自動系統(tǒng)應當限制其應用。例如,美國太空探索技術(shù)公司首席執(zhí)行官馬斯克在內(nèi)的全球116名機器人和 AI領(lǐng)域的專家、企業(yè)家以及技術(shù)領(lǐng)袖共同簽署了公開信,呼吁禁止研發(fā)使用Killer Robots。2016年12月,聯(lián)合國《特定常規(guī)武器公約》的123個成員國同意正式討論這類自主武器,其中19個成員國已要求徹底禁止這種武器。
(三)合作管理。人工智能倫理的建構(gòu)還需要多方的合作管理 〔20 〕。合作方主要包括政府、企業(yè)、行業(yè)委員會、學術(shù)共同體和AI倫理委員會。具體體現(xiàn)為:(1)政府方面,英國上議院頒布了《人工智能倫理準則》(AI codes)、日本內(nèi)閣政府提出了“AI ready社會”等;(2)企業(yè)方面,美國英特爾公司發(fā)布了《人工智能—公共政策的機遇》、微軟發(fā)布了人工智能倫理的六條準則、我國騰訊公司提出了“科技向善”的口號;(3)行業(yè)委員會方面,日本人工智能學會發(fā)布了《日本人工智能學會倫理準則》,美國電子電氣工程學會(IEEE)發(fā)布了《人工智能設計的倫理準則》;(4)學術(shù)共同體方面,美國的未來社會、科學、法律與社會機構(gòu)提出了《人工智能治理原則》,加拿大蒙特利爾大學發(fā)布了《可靠的人工智能草案蒙特利爾宣言》,全球網(wǎng)絡聯(lián)盟(UNI Global Union)發(fā)布了《人工智能倫理的十大原則》;(5)AI倫理委員會方面,谷歌公司設立了AI倫理委員會對其AI產(chǎn)品進行倫理審查。2019年7月24日,中央全面深化改革委召開第九次會議通過《國家科技倫理委員會組建方案》。在共同原則的指導下,這五個方面的組織機構(gòu)應當共同參與政策制定、監(jiān)督、管理、反饋等環(huán)節(jié),以實現(xiàn)五位一體的管理模式。合作管理有助于促進人工智能的制度建設和法律建設。
(四)多元參與。學術(shù)共同體、企業(yè)、管理機構(gòu)、設計者和使用者等利益相關(guān)者都應當參與到建構(gòu)人工智能倫理的過程中。主要參與形式包括三種:(1)建立相應的國際倫理機構(gòu),提倡各行業(yè)、各領(lǐng)域、各環(huán)節(jié)的利益相關(guān)者共同參與治理。這可以參考現(xiàn)有的各行業(yè)國際組織,如國際海事組織的目的是創(chuàng)建一個監(jiān)管公平和有效的航運業(yè)框架,以確保在船舶設計、施工、設備、人員配備、操作和處理等方面體現(xiàn)安全、環(huán)保、節(jié)能等價值。以此類機構(gòu)為借鑒,可以建構(gòu)相應的國際人工智能倫理機構(gòu),在人工智能設計、操作、應用和反饋等各環(huán)節(jié)提出供參考的價值,包括AI創(chuàng)新和發(fā)展、人類福祉和可持續(xù)性等共同價值,以及各行業(yè)、各領(lǐng)域所涉及的具體價值。(2)推動自下而上的調(diào)查方法。開放機器人倫理機構(gòu)采用調(diào)查問卷和訪談的形式對諸如無人駕駛汽車、護理機器人或者致死性自動武器等進行調(diào)研,曾經(jīng)在其網(wǎng)站上發(fā)布了“你是否會信任機器人來照顧你的奶奶”?麻省理工大學(MIT)制作了一個“道德機器”的模擬平臺,旨在收集人們對由機器智能(如無人駕駛汽車)作出的道德決策的看法。(3)廣泛開展人工智能倫理的相關(guān)教育活動,例如開設相關(guān)課程或相關(guān)講座,召開相關(guān)的專題研討會等。多元參與有助于拓寬人工智能倫理的建構(gòu)渠道,從而完善人工智能倫理的評價機制,使人工智能倫理真正地發(fā)揮其倫理承載力、倫理建構(gòu)力和倫理兼容力的治理作用。
總之,人工智能技術(shù)對人類社會生活的普遍滲透和內(nèi)在嵌入使得我們不得不面對這樣一個事實:人類無法退回到?jīng)]有人工智能的時代,而是必須要與之共存。那么,我們就需要認真思考該以何種方式與人工智能共存?目前看來,一種可行的路徑是建構(gòu)適宜的人工智能倫理以規(guī)約人工智能技術(shù)的發(fā)展,從而最大程度地實現(xiàn)技術(shù)“向善”的目的。建構(gòu)適宜的人工智能倫理并非易事,需要各方的共同努力,在秉承基本價值理念的前提下,靈活地調(diào)整人工智能倫理的適用域,從而實現(xiàn)人工智能服務于人類的終極目的,進而有助于實現(xiàn)人機共生的未來圖景。
參考文獻:
〔1〕于 曉. 中國工程院院士潘云鶴:人工智能正處邁向2.0的關(guān)鍵期〔EB/OL〕. http://www.chinanews.com/cj/2018/07-18/8571804.shtml.
〔2〕國務院.新一代人工智能發(fā)展規(guī)劃〔EB/OL〕.http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
〔3〕亞里士多德.尼各馬可倫理學〔M〕.苗力田,譯.北京: 商務印書館,1999.
〔4〕蔡自興,劉麗鈺,蔡競峰,等.人工智能及其應用(第五版)〔M〕.北京:清華大學出版社,2016.
〔5〕段偉文. 人工智能時代的價值審度與倫理調(diào)適〔J〕.中國人民大學學報,2017(06):98-108.
〔6〕I. Van de Poel,& L. Royakkers. Ethics,technology and engineering〔M〕. Oxford: Wiley-Blackwell,2011.
〔7〕瑞斯尼克.科學倫理的思索〔M〕.何畫瑰,譯.臺北:韋伯文化公司,2003.
〔8〕B. Friedman,P.H. Kahn,A. Borning,A. Huldtgren. “Value sensitive design and information systems”〔C〕//Doorn N,Schuurbiers D,van de Poel I,Gorman ME (eds) Early engagement and new technologies: opening up the laboratory,vol 16,Springer series: philosophy of engineering and technology. Dordrecht: Springer,2013.
〔9〕段偉文.科技倫理: 從理論框架到實踐建構(gòu)〔J〕. 天津社會科學,2008(04):36-41.
〔10〕I.Van de Poel. “Translating Values into Design Requirements”〔C〕// Diane P. Michelfelder,Natasha McCarthy,David E. Goldberg(eds.): Philosophy and Engineering: Reflections on Practice,Principles and Process.Dordrecht: Springer,2013.
〔11〕Jacob Turner. Robot Rules: Regulating Artificial Intelligence〔M〕. Switzerland:Palgrave Macmillan imprint,2019.
〔12〕F. A. Hanson.? Beyond the skin bag:On the moral responsibility of extended agencies〔J〕.? Ethics and Information Technology,2009(1):91-99.
〔13〕于 雪,王 前. “機器倫理”思想的價值與局限性〔J〕.倫理學研究,2016(04):109-114.
〔14〕約瑟夫·巴-科恩,大衛(wèi)·漢森著.機器人革命——即將到來的機器人時代〔M〕. 潘俊,譯. 北京: 機械工業(yè)出版社,2015.
〔15〕U.Ehsan,B.Harrison,L.Chan,et al. Rationalization: A Neural Machine Translation Approach to Generating Natural Language Explanations〔J〕.Artificial Intelligence,Ethics,and Society,2017(12):1-11.
〔16〕K. Pei,Y. Cao ,J.Yang,et al. DeepXplore: Automated Whitebox Testing of Deep Learning Systems〔J〕.Association for Computing Machinery,2017(10):1-11.
〔17〕Filippo Santoni de Sio,Jeroen van den Hoven. Meaningful human control over autonomous system: A philosophical account〔J〕. Frontiers in Robotics and AI,2018(05):1-14.
〔18〕J.Fischer,M.Ravizza . Responsibility and Control:A Theory of Moral Responsibility〔M〕. Cambridge, UK:Cambridge University Press,1998.
〔19〕N.J.Goodall. Ethical Decision Making During Automated Vehicle Crashes〔J〕. Transportation Research Record: Journal of the Transportation Research Board,2014.
〔20〕蘇令銀.能將倫理準則嵌入人工智能機器嗎?——以無人駕駛汽車為例〔J〕.理論探索,2018(03):38-45.
責任編輯 蘇玉娟