于 雪
責任的原意是對某事的回應,負責任意味著回答某件事的狀態(tài)或事實,這是對某個行為提供解釋的能力。因而,它涉及主體的特定心理動機和溝通、判斷、反思等能夠承擔責任的主體能力[1](350-376)?;诖?,責任一直被視為人類語境中獨有的概念,并且承擔責任被視為人類獨有的能力。但是,智能機器的崛起正在改變這種傳統(tǒng)意義上的責任觀念,有些學者開始試圖將責任歸因于這些智能機器。例如,溫德爾·瓦拉赫(Wendell Wallach)和科林·艾倫(Colin Allen)通過提出一種功能等價的思路來對人工系統(tǒng)進行責任歸因。這種觀念轉變的假設一方面是由于數(shù)字化時代促發(fā)了關于“人”本質(zhì)的新認識,這些新認識主要來自信息技術和智能技術對“人”自身的深刻影響。另一方面,由于機器人化、自動化、數(shù)字化等時代特征帶來的挑戰(zhàn),人們在社會、政治和經(jīng)濟系統(tǒng)的組織形式中對責任的理解也發(fā)生了根本性的轉變[2](1-20)。盡管這種責任范式的轉變會導致責任鴻溝(responsi?bility gap)①責任鴻溝的概念是安德烈亞斯·馬蒂亞斯(Andreas Matthias)提出的。在他看來,傳統(tǒng)意義上機器的制造商/操作者(在道德上和法律上)要對其操作的后果負責,但基于神經(jīng)網(wǎng)絡、遺傳算法和自主體架構的自主學習機器,創(chuàng)造了一種新的情況,即機器的制造商/操作者原則上不能夠預測未來機器的任何行為,因此不能承擔責任,這就是“誰應該為智能機器的后果負責”的責任鴻溝。參見MATTHIAS A,“The responsibility gap:Ascribing responsibility for the actions of learning automata,”Ethics and Information Technology,2004,6(3),pp.175-183.的出現(xiàn),但是這種轉變?nèi)匀辉诔掷m(xù)。并且,隨著智能機器在道德情境中參與度的提升,這種責任范式的轉變也涵蓋了道德責任?;谶@種對責任范式轉變的接納以及對責任鴻溝的彌合,本文試圖為智能機器的責任歸因(responsibility ascription 或responsibility attribution)提供新的解決思路,其中道德設計是解決該問題的關鍵環(huán)節(jié)。據(jù)此,本文首先回應智能機器為何需要道德設計,并且在現(xiàn)有道德設計進路的基礎上,提出道德交互設計的理念,將責任置于動態(tài)的交互環(huán)境中以實現(xiàn)人機交互過程中的責任歸因。
智能機器指的是以智能系統(tǒng)和智能平臺為依托的自動機器,其核心特征是自動化和智能化①本文關于智能機器自動化和智能化特征的強調(diào)來自我國封錫盛院士對機器人的分類,即根據(jù)機器人的智能化程度將其分為無智能機器人(1.0 機器人)、智能機器人(2.0 機器人)和生物機器人(3.0 機器人)。1.0 機器人是基于自動化技術的機械電子裝置,其核心特征是自動化,而2.0 機器人是在1.0 機器人的底層之上增加了智能頂層,因此其核心特征是智能化。本文所談及的智能機器是技術層面的2.0 機器人,其行為過程表現(xiàn)為“既定使命和被感知的環(huán)境信息經(jīng)過智能頂層的分析、決策和規(guī)劃過程,產(chǎn)生由底層執(zhí)行的行為指令”。參見封錫盛:《機器人不是人,是機器,但須當人看》,《科學與社會》2015 年第2 期。。自動化指的是機器設備或系統(tǒng)在沒有人或較少人的直接參與下,經(jīng)過一系列操作而實現(xiàn)預期目標的過程。自動化是機器的基本特征,是機器區(qū)別于一般的工具(如手工工具)的根本特征。智能化指的是機器設備或系統(tǒng)通過模擬個人智慧或群體智慧而體現(xiàn)出的“計算”、“思考”和“創(chuàng)造”能力。智能機器的自動化水平與智能化程度不斷提升,促使其更加頻繁和深入地參與到人類的道德場景中,甚至包括道德決策、道德行動等場景,因而在其設計中加入道德關懷(moral consideration)的呼吁也越發(fā)強烈。這一方面是因為智能機器自身的道德涉入程度在不斷加深,另一方面則是因為隨之而來的道德風險的擴散。
隨著智能機器的算力提升和算法優(yōu)化,其道德涉入程度也在加深。根據(jù)詹姆士·摩爾(James Moor)的倫理能動者劃分方式②摩爾根據(jù)不同的倫理涉入程度,將倫理能動者分為四種類型,分別是有倫理影響的能動者(ethical impact agents)、隱性的倫理能動者(implicit ethical agents)、顯性的倫理能動者(explicit ethical agents)和完備的倫理能動者(full ethical agents)。摩爾對倫理能動者的劃分(參見于雪、王前:《“機器倫理”思想的價值與局限性》,《倫理學研究》2016 年第4 期)比較經(jīng)典,本文據(jù)此對智能機器的道德涉入程度加以區(qū)分。,智能機器的涉入程度呈現(xiàn)出遞進式的加深過程。
第一階段是“有道德影響的智能機器”,其功能相對簡單,由人類進行操作,機器基于既定目標執(zhí)行任務。這類機器體現(xiàn)出一定的道德作用,表現(xiàn)為影響人們的道德觀念或行為。例如,工業(yè)生產(chǎn)中的機械臂可以代替人類在高溫、危險和需長時間工作的環(huán)境中作業(yè),以降低人類死亡的可能性。
第二階段是“道德隱性的智能機器”。從功能上看,這類機器可以在人類輔助操作下實現(xiàn)一些相對復雜的功能。這類機器的道德影響往往是隱性的,既包括無意識設計行為導致的間接道德后果,如使用超聲波機器增加了因為胎兒性別而選擇流產(chǎn)的可能性,也包括有意識設計行為導致的直接道德后果,如設計一種仿制鈔票的機器會有可能導致制造假鈔的作惡行為。不同于有道德影響的智能機器,道德隱性的智能機器在其被設計的過程中已經(jīng)蘊含著道德訴求,只是需要操作的人通過一定的方式將其中的道德因素解析出來。
第三階段是“道德顯性的智能機器”。從功能上看,這一類智能機器與前面兩類智能機器最大的不同是具有決策功能,能夠在復雜環(huán)境中基于一定的程序算法作出判斷和決策,并據(jù)此實施行動。這種決策能力體現(xiàn)在道德情境中則表現(xiàn)為道德決策能力,通過內(nèi)在的道德機制,機器能夠評估道德情境中的可能性,并依據(jù)道德原則和規(guī)范作出最優(yōu)的道德選擇。例如,邁克爾·安德森(Michael Anderson)和蘇珊·安德森(Susan Leigh Anderson)將羅斯的顯見義務作為道德原則設計到機器的算法程序中,使用者可以利用程序來判定在不同道德情境中道德選擇的不同后果[3](476-492)。更多的設計方法參見表1①筆者依據(jù)約翰-斯圖亞特·戈登(John Stewart Gordon)對道德機器的分類整理而成。參見GORDON J S,“Building moral robots:Ethical pitfalls and challenges,”Science and Engineering Ethics,2020,26(1),pp.141-157.。
表1 道德機器的四種設計路徑
第四階段是“道德完備的智能機器”,其在功能上無須人類介入,自身能夠完全地實現(xiàn)判斷、決策和行動的過程。這一階段的智能機器在道德上被賦予了完備道德能力,能夠在道德情境中作出基于考量的道德選擇和行為,目前還只存在于科幻電影中,如《2001 太空漫游》中的HAL②HAL(型號為HAL9000)是《2001 太空漫游》中的一臺具有人工智能的高級電腦系統(tǒng),它為了執(zhí)行任務,選擇“殺死”飛船中的三位科學家和二位宇航員。之所以將HAL 視為道德完備的智能機器,是因為在丹尼爾·丹尼特(Daniel Dennett)看來,HAL 比一般的計算機系統(tǒng)(如“深藍”)更加完備。按照丹尼特的術語,如果“深藍”是“意向系統(tǒng)”,那么HAL 就是“高階意向系統(tǒng)”(a higher-order intentional system),即它“能夠建構關于自身信念的信念,建構關于自身欲望的欲望,建構關于自身害怕或希望的信念”。參見GORDON J S,“Building moral robots:Ethical pitfalls and challenges,”Science and Engineering Ethics,2020,26(1),pp.141-157.。智能機器道德涉入程度的加深表明其在道德場景中起作用的程度也在加強,這意味著智能機器有可能承擔越來越多的道德角色,因此要在其設計中嵌入道德考量。
道德風險(moral risk)指的是道德活動或決策帶來的可能傷害。隨著智能機器道德涉入程度的加深,其引發(fā)的道德風險也在不斷擴散。一方面,智能機器依賴于復雜的操作系統(tǒng),某個細微因素的變化就有可能導致整個操作系統(tǒng)的不穩(wěn)定甚至崩潰,一些黑客也有可能通過攻擊操作系統(tǒng)的某個程序來控制智能機器從事不道德的行為;另一方面,智能機器在社會中的滲透與嵌入也會引發(fā)社會脆弱性,比如就業(yè)結構、家庭結構、社會組織結構等重要社會關系的結構性調(diào)整。
此外,智能機器道德風險的擴散還會引起關于其能否在道德意義上被接受的問題,即道德接受性(moral acceptance)。道德接受性強調(diào)在關于道德行動的情境中主體是否自愿地同意、接納或贊成客體的行為,包括道德接受主體、道德接受客體以及道德接受語境這三個方面[4](621-640)?;谶@三個方面,智能機器的道德接受性可以分為客體導向和主體導向??腕w導向主要涉及智能機器自身的特征、智能機器的發(fā)展前景及潛在影響、與此相關的法律責任和道德責任等因素。主體導向主要涉及接受主體對智能機器的態(tài)度、判斷、期待、主觀動機等方面??腕w導向與主體導向都與接受語境相關,不同語境下的接受性和可接受程度是不同的。這種不同源自智能機器的道德風險,而道德風險的擴散會降低智能機器被接受的可能性。為了應對這種情況,轉向一種道德設計的實踐路徑是必要的。以設計的方式將道德內(nèi)嵌于機器之中,使機器在有限的可能性中預防由其不確定性導致的道德風險,能夠更好地應對潛在的風險后果并提升其易感性(susceptibility)和回彈力(resilience)。
智能機器的道德設計是以設計的方式將道德內(nèi)嵌于機器之中。根據(jù)道德嵌入的不同程度,本文將當前的道德設計進路總結為“強進路”與“弱進路”?!皬娺M路”旨在設計具有道德決策能力的智能機器(如“道德顯性的智能機器”)使其有可能成為道德行為的發(fā)起者。“弱進路”則旨在設計無道德決策能力的機器(如“道德隱性的智能機器”),通過嵌入道德價值的方式使其有可能成為道德行為的承受者。這兩條道德設計進路都面臨著能否對其責任歸因的困境,前者涉及能否將智能機器視為責任主體(the subject of responsibility),后者涉及能否將智能機器視為責任客體或責任對象(the object of responsibility)。
“強進路”強調(diào)通過設計的方法將道德決策能力嵌入到機器之中,使其成為道德情境中行為的發(fā)起者。這種設計進路中的智能機器也被瓦拉赫和艾倫稱為“人工道德能動者”(Artificial Moral Agents,AMAs)[5](4)。AMAs 的設計想法來自“為機器增加倫理維度”的機器倫理,即“創(chuàng)建一類能夠遵循一種正當?shù)膫惱碓瓌t或者一套準則的機器”[6](109-114)。因此,該進路主要關注何種道德原則或倫理標準應當被賦予智能機器。關于這個問題,當前的研究相對豐富,總體上可以分為四種路徑:自下而上路徑、自上而下路徑、混合式路徑、其他路徑。不同路徑的核心釋義及其代表觀點詳見表1。
該進路的核心是通過將道德原則嵌入機器算法的過程使其具備道德決策能力從而成為道德行為的發(fā)起者,它試圖讓智能機器成為道德情境中的行為主體。該進路面臨著是否以及如何使智能機器成為責任主體的問題,換句話說,該不該讓智能機器負責?這種觀點比較激進,而直接承認智能機器的責任主體地位至少要先回答以下兩個問題。
一是,作為主體承擔道德責任意味著該主體應當是“道德能動者”(moral agents),那么具有道德決策能力的智能機器能否成為道德能動者?
道德能動者是能動者(agents)的一個子集,能動者指的是能夠根據(jù)其意向主動實施某種行動的實體或主動的行動者(actors)[7](35-45),而道德能動者則強調(diào)該行動處于道德情境中。具體而言,實體X 可以被認為是道德能動者需要滿足以下四個條件:(1)X 具有能力;(2)根據(jù)該能力,X 可以自由選擇;(3)X 審慎地考慮該做什么;(4)在實際情況中,X 能夠正確地理解并且應用道德規(guī)則[8](19-29)。簡化之,道德能動者可以按照道德規(guī)則自由地行動。傳統(tǒng)的哲學觀點(如康德哲學)認為道德能動者只能是人,動物、人工物、環(huán)境等非人因素都不能是道德能動者。盡管被嵌入道德決策能力的智能機器通過程序算法同樣也展現(xiàn)出了按照道德規(guī)則自由行動的能力,但是這里的“自由”在何種意義上與人類的自由等同仍有待澄清,因而將其視為道德能動者的想法仍然是難以被接受的。盡管有一些主張承認人工道德能動者的呼吁,但這些呼吁無法解釋人工物如何作為責任主體承擔道德責任。
二是,作為主體承擔道德責任意味著該主體應當具有“道德自主性”(moral autonomy),那么具有道德決策能力的智能機器是否具有道德自主性?
斯蒂芬·達沃爾(Stephen Darwall)對四種自主性的區(qū)分可以回應這個問題,即“個體自主性”(per?sonal autonomy)、“道德自主性”、“理性自主性”(rational autonomy)和“能動自主性”(agential autono?my)[9](263-284)。“個體自主性”是從個人價值和個體目標出發(fā)考慮行動的自主性,“道德自主性”則依據(jù)道德規(guī)范和倫理準則??档碌摹癮utonomy”實際上同時體現(xiàn)了這兩種自主性,即依據(jù)高級(道德)律令作出的自我決定。因此,這兩種自主性一直被認為是人類所獨有的?!袄硇宰灾餍浴币罁?jù)的是“最重要的理由”(weightiest reason),而“能動自主性”則依據(jù)“真正的行動”(genuine action),根據(jù)達沃爾的解釋,這二者從某種意義上說可以通過算法賦予人工系統(tǒng)。因此,盡管對具有決策能力的智能機器而言,它們滿足實現(xiàn)理性選擇和自主行動的條件,但也僅能體現(xiàn)理性自主性和能動自主性,而無法體現(xiàn)使其能夠成為責任主體的道德自主性。
綜上,“強進路”試圖設計一種道德機器使其成為責任主體是很有爭議的,如果不能清楚地解釋機器如何體現(xiàn)道德自主性并成為道德能動者,是無法將其視為責任主體而將責任歸因于其的。
與“強進路”不同,“弱進路”并不試圖將道德決策能力“寫入”機器算法中,而是將道德價值賦予智能機器,使其有可能成為道德關懷對象。這種想法來自“為了價值的設計”(design for values)[10](27-31),通過將價值設計到技術中以使技術最大限度地符合社會大眾的價值預期。那么道德是否也可以作為一種價值被嵌入智能機器的設計之中呢?
伯特倫·馬萊(Bertram Malle)從寬泛的意義上提出了利用道德能力(moral competence)將道德價值賦予機器。道德能力的五個核心要素分別是:道德詞匯(a moral vocabulary)、道德規(guī)范(moral norms)、道德認知和影響(moral cognition and affect)、道德決策和行動(moral decision making and action)、道德溝通(moral communication)。把道德詞匯設計到智能機器中可以使機器構建出對規(guī)范的概念化理解、學習和使用,如可以將“懲罰”“原諒”“訓斥”等對違規(guī)行為的回應設計到機器的道德詞匯中。道德規(guī)范的設計可以通過同時賦予機器規(guī)范獲?。╪orm acquisition)和規(guī)范表征(norm rep?resentation)兩種能力實現(xiàn)。賦予機器以道德認知能力指的是使機器能夠基于分割視覺和語言的事件流識別違反道德規(guī)范的現(xiàn)象,從被分割的事件中識別出有意圖的行為,從而以反事實推理能力阻止事件的發(fā)生。為機器嵌入道德決策和行動能力與“強進路”十分相似。最后,智能機器應當增加道德交流的維度,即通過交流的方式來修正道德判斷和決策[11](243-256)。
該進路的核心是通過將道德價值賦予智能機器使其成為道德情境中的行為對象而被道德關懷,該進路面臨著是否以及如何使智能機器成為責任客體的問題,即該不該對智能機器負責?該不該關懷智能機器?這條進路相對比較溫和,但仍然有兩個問題需要回答。
一是,將道德價值賦予智能機器,并且承認它們是應當被負責的責任客體是否意味著機器真的能夠被道德關懷?
將智能機器視為道德關懷對象有一個預設的前提,即人類很容易與世界上的事物建立一種情感聯(lián)系,也很容易將某種仿佛存在的能動性(as-ifagency)歸因于事物。比如,人們對擬人化機器人有一種天然的好感,這在理論上可以得到社會心理學家弗里茨·海德(Fritz Heider)的歸因理論(attribu?tion theory)的支持。該理論是從人自身出發(fā)解釋其對象的行為,所以是作為人類的我們決定了我們想要與作為機器的“它們”建立道德關系,那就等同于“它們”有了道德狀態(tài)。換句話說,如果我們決定將某物視為道德關懷對象去回應它,那么就等同于該物是道德對象。這里有一個簡化的關系式:我感覺X 是道德關懷對象→X 是道德關懷對象。將這個關系式置于責任框架中,則改為:我感覺X 有責任→X 有責任。但是,這個關系式顯然有待澄清,因為若X 表示一支鉛筆,則該結論就顯得荒謬了。因此,承認智能機器的責任客體地位的理由也尚不充分。
二是,將智能機器視為責任客體并納入責任考量的范圍,對機器而言有什么意義?
將智能機器視為責任客體意味著將其視為行為的承受者,并且承認該行為將導致一個后果。這是將智能機器納入責任網(wǎng)絡(responsibility networks)的做法,責任網(wǎng)絡是克里斯蒂安·紐豪澤爾(Christian Neuh?user)提出的,包括六個特征:(1)規(guī)模龐大;(2)責任主體或規(guī)范標準、權限等其他相關要素難以界定;(3)責任網(wǎng)絡是在不清楚如何定義具體責任時出現(xiàn)的;(4)責任網(wǎng)絡結合了幾種不同的責任;(5)當事人通常有不同的立場(例如,他們是一種責任的主體,但卻是另一種責任的客體);(6)責任網(wǎng)絡中的關系元素經(jīng)常重疊[12](269-286)。紐豪澤爾的責任網(wǎng)絡將關涉某行為的所有利益相關者都納入其中,這當然也包含了智能機器。在責任網(wǎng)絡中,智能機器是作為責任客體被納入的,并且是一個應當被道德關懷的對象。這里的論證依據(jù)是智能機器作為人類道德世界的一部分且在道德上值得考慮,因此就是責任網(wǎng)絡中的道德關懷對象。但是,通過將智能機器納入責任網(wǎng)絡的方式承認其責任客體的地位對于機器自身而言究竟有什么意義?如果不能合理地回答這個問題,那么這種論證就僅是隱喻意義上的。
總的看來,“弱進路”相對柔和,僅主張智能機器應當是被負責任的對象,但該進路也尚未澄清對其負責和道德關懷究竟意味著什么,因而將智能機器視為責任客體而對其責任歸因的理由也是不充分的。
上述兩條道德設計進路都試圖對智能機器進行責任歸因,“強進路”試圖回答“該不該讓智能機器負責”,而“弱進路”則試圖回答“該不該對智能機器負責”。然而,這兩條進路都遇到了困難,前者無法解釋智能機器如何具備道德自主性和道德能動性以負責,而后者也無法解釋對智能機器負責任究竟有什么意義。在本文看來,這些困難在于把目光置于智能機器本身,更關注作為設計產(chǎn)品的機器,在一定程度上忽視了設計中的智能機器與人之間的交互關系。本文提出一種道德交互設計理念,以人與智能機器的設計關系作為框架來理解責任。道德設計的責任歸因應當是人與智能機器的交互關系,而責任歸因的目的也在于更好地塑造智能機器與人的交互關系。
交互設計是設計活動中的一個重要方向,通過不同的形式促成人與機器之間的交流互動。隨著交互模型的優(yōu)化,交互設計也呈現(xiàn)出從“輸入—反饋”的單向關系到“推薦—選擇”的雙向關系的變化。正是基于這種變化,本文提出一種道德交互設計的理念。該理念指的是在人機交互過程中實現(xiàn)道德設計,強調(diào)人與智能機器之間的道德信息交換,人為智能機器提供可計算的道德理論,智能機器為人提供計算過程和可供選擇的計算結果,在人和智能機器的互動過程中實現(xiàn)一種“推薦—選擇”的道德設計。這既不是簡單地為智能機器輸入固定的道德理論,也不是人被動地接受智能機器的道德輸出,而是在人與智能機器的動態(tài)關系中實現(xiàn)道德設計,如通過設計一些動態(tài)情境使智能機器獲得關于情境的敏感性,從而在道德行動中提供恰當?shù)妮o助。智能機器需要“處于”這樣一個交互情境中,以促成道德行為,這是因為“道德行為是一個主體間動態(tài)的交互過程”[13](104-116)。
這種貫穿在人機交互過程中的道德設計也許能夠回應上面提及的責任歸因困境,其回應方法是不再將責任歸因于作為實體的智能機器(無論是責任主體歸因還是責任客體歸因),而是將責任歸因于人與智能機器的交互關系,因為“[責任]主體不再是感知者或觀察者,而是一個積極與環(huán)境聯(lián)系的行為者”[14](50)。這種思路的核心就在于以人機之間的動態(tài)關系來應對道德分歧(moral disagree?ment)[15](591-608),因為盡管人們在特定的道德理論上存在分歧,但他們可以在良好道德行為的例子上達成一致,雖然在面臨道德困境時,彼此的道德判斷有可能會大相徑庭[16](2105-2108)。
本文所提出的道德交互設計是一種設計理念,是為了回應現(xiàn)有道德設計進路的責任困境,目前還未有成熟案例。不過,從技術上嘗試基于人機交互的設計有很多種方法,比如機器人專家羅德尼·布魯克斯(Rodney Brooks)設計的情境機器人,因其具身化特征可以與它所處的環(huán)境相互作用?;谇榫趁舾行缘牡赖聭斒窃谌藱C交互的過程中生成的,這種嘗試為道德交互設計提供了方法論層面的可能性,即通過交互設計的方法將道德嵌入機器,使機器在與人互動的過程中實現(xiàn)道德選擇和道德生成。
道德交互設計理念對責任歸因困境的回應在于將傳統(tǒng)的基于主客二分的實體性責任重構為基于關系的交互性責任。實體性責任是指將責任建立在實體上,強調(diào)責任主體和責任客體之間的關系。道德設計中的“強進路”與“弱進路”所涉及的責任都是這種實體性責任,將智能機器或者視為責任主體或者視為責任客體,都是在主客二分的框架下理解責任的,因而產(chǎn)生了責任歸因的困境。
實體性責任的一個理論依據(jù)是行為主義,即從可觀測行為(observable performance)出發(fā)判定行為中的責任。約翰·達納赫(John Danaher)提出了“倫理行為主義”(Ethical Behaviourism)來論證機器人的道德責任歸因。他的論證結構是:
(1)如果一個機器人在行為上大致等同于另一個被廣泛認為具有重要道德地位的實體,那么為機器人提供同樣的地位是正確和適當?shù)模?/p>
(2)機器人可以大致等同于其他實體,人們普遍認為,這些實體具有重要的道德地位;
(3)因此,賦予機器人重要的道德地位是正確和恰當?shù)?。?7](2023-2049)
有意思的是,行為主義在20 世紀70 年代左右就已經(jīng)受到了抨擊,因為它不能解釋內(nèi)在的心理活動,那么為什么在當前的機器人倫理討論中又一次被提出來了呢?[18](1-9)達納赫的解釋是“倫理行為主義論證了一個可靠的認知基礎或保證——相信我們對其他實體負有責任和義務——可以在可觀察到的行為關系和對我們(以及周圍環(huán)境)的反應中找到”[17](2028)。倫理行為主義的建議是有價值的,因為智能機器的外在行為表現(xiàn)可以直接決定其責任分配,但是這更多地表現(xiàn)為法律責任、經(jīng)濟責任等外在責任關系,而不是道德責任這種必須涉及內(nèi)在心理活動的責任關系。因此,本文建議在吸納倫理行為主義合理成分的基礎上,轉回對基于關系的交互性責任的尋求以化解責任歸因困境。
責任本就是一種關系性存在,但是這種關系是一種外在的關系,即主客二分的關系。本文所提倡的交互性責任建立在主體間的交互關系上,表現(xiàn)為一種內(nèi)在的關系,即動態(tài)的、生成性的責任。道德交互設計理念所涉及的責任更多地表現(xiàn)為這種交互性責任,即在這種動態(tài)生成的交互關系中理解人與智能機器的責任。交互性責任有兩個特點:一方面,責任主體和責任客體既不是一元的也不是自足的,而是與其他人類和非人類相互作用的主體或客體;另一方面,責任產(chǎn)生于與人類和非人類的互動中,由人類和非人類共同構成的“主體—客體”的框架來承擔。艾倫·漢森(Allan Hanson)的聯(lián)合責任(joint responsibility)就是一種基于延展能動性(extended agency)和交互能動性(interaction agency)的責任類型。在漢森的責任框架中,責任不是作為屬性或特性,而是作為“主體—客體”之間的交互作用和聯(lián)結方式[19](91-99)。道德交互設計理念將責任視為一種交互性責任,將責任置于動態(tài)的交互環(huán)境中并將其歸因于人機交互關系。需要說明的是,在交互性責任的歸因問題上,不是對已發(fā)生事件的懲罰性追責,而是對尚未發(fā)生事件的預防性責任,它不是一種后置責任而是一種前置責任。
智能機器的蓬勃發(fā)展帶來了諸多問題,其中的責任問題尤為顯著。通過設計的方式將道德嵌入智能機器的做法在一定程度上得到了認可,但是隨之而來的責任困境尚未得到普遍關注。無論是“強進路”引出的“該不該讓智能機器負責”還是“弱進路”引出的“該不該對智能機器負責”,都是在尋求一種基于主客二分的實體性責任。本文提出一種道德交互設計理念,構想在人機交互過程中實現(xiàn)道德設計。該設計理念下的責任將呈現(xiàn)為一種動態(tài)的、生成的交互性責任。這種預防性的前置責任方式將有助于跨越“責任鴻溝”,從而實現(xiàn)人機交互過程中的責任歸因。這種構想只是一次新的嘗試,希望能夠?qū)θ藱C之間的責任歸因提供新的解釋思路。但無論如何,解決人機之間責任問題的構想和解析都將有助于建構未來的人機共生社會。