鄔 桑
人工智能(簡(jiǎn)稱“AI”)正在前所未有地參與到人們的生活當(dāng)中,它們不僅能夠認(rèn)出人的臉孔、管理家居,甚至能夠駕駛汽車(chē)、操縱殺傷性武器。這使得人工智能的倫理問(wèn)題同樣前所未有地引起了人們的擔(dān)憂。人工智能的倫理爭(zhēng)議究其根本是一個(gè)技術(shù)社會(huì)化的問(wèn)題,但它與其他的技術(shù)社會(huì)化問(wèn)題又有所不同:首先,以人工智能的自主程度而言,它的社會(huì)化涉及一個(gè)新社會(huì)主體——人工道德能動(dòng)者的存在論;同時(shí),由于人工智能背后的大數(shù)據(jù)技術(shù)支持,人工智能將具有其他技術(shù)所不能及的廣泛性。這二者的結(jié)合給哲學(xué)社會(huì)科學(xué)造成了這樣的困境,如果我們拒絕承認(rèn)人工智能的道德能動(dòng)者地位,將會(huì)有大量的責(zé)任問(wèn)題處于無(wú)責(zé)任主體的空缺中;而如果我們予以認(rèn)可,人工道德能動(dòng)者作為一種新的社會(huì)主體又將帶來(lái)更多的倫理問(wèn)題。本文通過(guò)對(duì)人工智能作為人工道德能動(dòng)者的特征考查,對(duì)以上困境此提出了一種出路,認(rèn)為在相當(dāng)長(zhǎng)一段時(shí)間內(nèi),人機(jī)混合能動(dòng)者是解決人工智能的倫理問(wèn)題的關(guān)鍵主 體。
機(jī)器、機(jī)器人或者人工智能被視為能動(dòng)者已經(jīng)得到了廣泛的認(rèn)可。事實(shí)上,早在塞爾用“中文屋”論證來(lái)反駁強(qiáng)人工智能觀點(diǎn)時(shí),該理論背后就蘊(yùn)含了這樣一種立場(chǎng):人工智能可以在一種最小化的意義上具備和人類能動(dòng)性一樣的解釋、預(yù)測(cè)和表征的能力,這也意味著認(rèn)可人工智能的能動(dòng)者地位。隨著人工智能在近年的急速發(fā)展,它突出的決策力和行動(dòng)力也使越來(lái)越多的學(xué)者認(rèn)為人工智能不僅是一個(gè)理論上的能動(dòng)者,而且是一個(gè)現(xiàn)實(shí)世界中的理性能動(dòng)者①參見(jiàn)Paul Verschure & Philipp Althaus,“A Real-world Rational Agent:Unifying Old and New AI”,Cognitive Science,Vol.27,No.4,pp.561—590,2003;Sven Nyholm,“Collective Agency,Responsibility,and Corporate vs. Private Self-driving Cars:Who’s Doing the Driving?”,collective intentionality X conference,The Hague,2016。,被稱為人工能動(dòng)者。這一立場(chǎng)可謂貫徹了拉圖爾的“行動(dòng)者”概念,“我使用actor、agent 或actant,并不對(duì)他們可能是誰(shuí)和他們有什么特征做任何假設(shè),他們可以是任何東西”②Bruno Latour,The Pasteurization of France,London:Harvard University Press,1988,p.252.。
人工智能被設(shè)定為一種人工能動(dòng)者,這引發(fā)了兩個(gè)合理的追問(wèn):既然如此,人工能動(dòng)者是自主的能動(dòng)者嗎?人工能動(dòng)者是道德能動(dòng)者嗎?從倫理的邏輯上來(lái)講,第一個(gè)問(wèn)題的答案是第二個(gè)問(wèn)題的前提條件,因此,有必要在此簡(jiǎn)要地回答。目前,人工能動(dòng)者的自主性在不同研究路徑上有不同策略的論證,從基本立場(chǎng)上看,是支持人工能動(dòng)者的自主性的。利斯特和佩蒂特通過(guò)能動(dòng)者的概念來(lái)建立一個(gè)能動(dòng)者的BDI(belief-desire-intention)模型,論證了符合該模型的能動(dòng)者都是自主的能動(dòng)者,人工能動(dòng)者也位列其中;③Christian List & Philip Pettit,Group Agency:The Possibility,Design,and Status of Corporate agents,London:Oxford University Press,2011,p.26,p.20.弗洛里迪和桑德斯④Luciano Floridi & J.W. Sanders,“On the Morality of Artificial Agents”,Minds and Machine,Vol.14,2004,pp.349—379.,以及哈格⑤Jaap Hage,“Theoretical Foundations for the Responsibility of Autonomous Agents”,Artificial Intelligence and Law,Vol.25,No.3,2017,pp.255—271.對(duì)能動(dòng)者采取了去心靈化研究策略,認(rèn)為意向性、自由意志是行動(dòng)的附加屬性,并沒(méi)有在行動(dòng)中影響到真實(shí)的世界,以此來(lái)反對(duì)康德主義者“只有擁有理性和自由意志的存在才能具備自主性”的批判,支持人工能動(dòng)者成為自主的能動(dòng)者;筆者也曾就主流的人的自主性理論展開(kāi)討論,認(rèn)為人的自主性理論中并沒(méi)有拒斥非人主體成為自主主體的可能,人工能動(dòng)者的自主性問(wèn)題實(shí)質(zhì)是在決定論世界中能動(dòng)者自主的可能性,而理性回應(yīng)論能夠支持人工能動(dòng)者實(shí)現(xiàn)這一可能。①鄔桑:《人工智能的自主性與責(zé)任》,載《哲學(xué)分析》2018 年第4 期。
如果說(shuō)第一個(gè)問(wèn)題還比較理論化、距離現(xiàn)實(shí)較遠(yuǎn),第二個(gè)問(wèn)題則是人工能動(dòng)者在現(xiàn)實(shí)應(yīng)用中迫切需要答案的,也是本文研究的出發(fā)點(diǎn)。道德能動(dòng)者,簡(jiǎn)而言之,“是互動(dòng)的、自主的、有適應(yīng)能力的并可以實(shí)施有道德資質(zhì)的行動(dòng)的”實(shí)體。②盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海:上海譯文出版社2018 年版,第197 頁(yè)。從能動(dòng)者到道德能動(dòng)者,這一延伸對(duì)于人工能動(dòng)者來(lái)講必須謹(jǐn)慎。公眾常常認(rèn)為,人工能動(dòng)者所帶來(lái)的倫理困擾是由于人工智能發(fā)展得越來(lái)越復(fù)雜、越來(lái)越“聰明”,或者說(shuō)越來(lái)越像人類,這使得人工能動(dòng)者能夠完成許多困難的工作,甚至是人類無(wú)法完成的工作。然而,這些困擾與其說(shuō)是人工智能的復(fù)雜性帶來(lái)的,毋寧說(shuō)是人工能動(dòng)者的自主性帶來(lái)的。系統(tǒng)復(fù)雜性的增加并不僅僅增加了人工能動(dòng)者的可操作性,也增加了它的自主性,隨著自主性的增加,意味著人工能動(dòng)者越來(lái)越多地參與到人的社會(huì)生活和社會(huì)工程之中。這就使得人、制度和環(huán)境等社會(huì)要素都參與到了可能的倫理決策當(dāng)中來(lái)。正如瓦萊赫所指出的,技術(shù)帶來(lái)的問(wèn)題“通常由那些要素(特定的技術(shù)、人、制度、環(huán)境等等)與社會(huì)技術(shù)(socialtechnical)系統(tǒng)的其他要素的相互影響而產(chǎn)生”③W. Wallach,A Dangerous Master:How to Keep Technology from Slipping Beyond our Control,New York:Basic Books,2015,p.34.。因此,如果承認(rèn)人工能動(dòng)者的道德能動(dòng)者地位,隨之而來(lái)的問(wèn)題就不再是人工能動(dòng)者本身的問(wèn)題,而是社會(huì)技術(shù)系統(tǒng)的復(fù)雜問(wèn)題。問(wèn)題的復(fù)雜性也不是人工能動(dòng)者系統(tǒng)本身的復(fù)雜性,是通過(guò)社會(huì)技術(shù)系統(tǒng)的種種要素相互作用而呈幾何數(shù)量增長(zhǎng)的復(fù)雜 性。
既然承認(rèn)人工能動(dòng)者是道德能動(dòng)者要面對(duì)如此復(fù)雜的前景,最簡(jiǎn)單方便的策略似乎就是直接否定它:不要讓人工能動(dòng)者走向道德能動(dòng)者,一些學(xué)者形象地稱之為“no-go”立場(chǎng)。④Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”,In SSS-16 Symposium Technical Reports,Association for the Advancement of Artificial Intelligence,AAAI,2016.他們的基本觀點(diǎn)是認(rèn)為非人類的能動(dòng)者不能駕馭“善”或者認(rèn)為它們?nèi)鄙俪蔀榈赖履軇?dòng)者的必要條件之一,即道德責(zé)任。他們的理由基本上是基于康德主義的,認(rèn)為規(guī)范的能動(dòng)者需要自由意志、意向性、道德上可問(wèn)責(zé)、動(dòng)機(jī)和理性,因此,不適于加諸人工能動(dòng)者。⑤J. H. Moor,“The Nature,Importance,and Difficulty of Machine ethics”,Intelligent Systems,IEEE,Vol.21,No.4,2006,pp.18—21.人工能動(dòng)者總是受制于人類的,它們根本算不上真正的能動(dòng)者,只是人類的代理能動(dòng)者。理性解釋對(duì)于道德能動(dòng)者來(lái)說(shuō)至關(guān)重要,“對(duì)它來(lái)說(shuō)行為并不是檢驗(yàn)它的重點(diǎn)——不論是自然行為還是機(jī)器行為,當(dāng)理性解釋不存在的時(shí)候,道德能動(dòng)者也就不存在”①D. G. Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,Vol.8,No.4,2006,pp.195—204.。
No-go 立場(chǎng)無(wú)疑在理論上延續(xù)了人類中心主義的倫理學(xué)傳統(tǒng),企圖以人類能動(dòng)者與非人類能動(dòng)者為界建立一堵柏林墻。但是,這兩者都不能讓no-go 立場(chǎng)站穩(wěn)腳跟。首先,元倫理的可能性并不應(yīng)當(dāng)僅限于人類,人們的思維中對(duì)萬(wàn)物有一種普遍的倫理期待。試想,當(dāng)隕星即將撞擊地球的時(shí)候,人們依然會(huì)希望隕星能“大發(fā)慈悲”來(lái)避免災(zāi)難。也就是說(shuō),是否具備心靈并不應(yīng)當(dāng)影響人們對(duì)相關(guān)的行動(dòng)做出道德評(píng)價(jià),將倫理話語(yǔ)局限于個(gè)人能動(dòng)者妨礙了倫理學(xué)在當(dāng)今社會(huì)多領(lǐng)域中的發(fā)展,例如,集體責(zé)任和全球性道德行為。且早在能動(dòng)者概念擴(kuò)展至自然人和法人時(shí),人類中心主義就失去了它的主導(dǎo)地位。更重要的是,哲學(xué)的劃界并非生物學(xué)的劃界,如果按照人類與非人類的區(qū)分來(lái)鑒別能動(dòng)者,倘若有朝一日人類遇見(jiàn)了另外一種智慧生物,那么這種智慧生物將毫無(wú)懸念地被認(rèn)為是非能動(dòng)者。人工智能在哲學(xué)上的劃界也不應(yīng)該是固定的抽象層次,它“使得一個(gè)能動(dòng)者在這個(gè)抽象層次上的行為可以被明白地賦予其設(shè)計(jì)者,則人們應(yīng)當(dāng)斷定那個(gè)能動(dòng)者不會(huì)是一個(gè)道德能動(dòng)者”②盧恰諾·弗洛里迪:《信息倫理學(xué)》,第198 頁(yè)。。因?yàn)椋绻凑者@樣的劃界方式,任何尚未出現(xiàn)卻同樣重要的能動(dòng)者特征都不會(huì)出現(xiàn)在這一抽象層次當(dāng)中,那么具備該特征的能動(dòng)者都將被排除在外,正如“可觀察性”的標(biāo)準(zhǔn)曾經(jīng)將量子力學(xué)置于尷尬之地一樣。也就是說(shuō),道德能動(dòng)者的判定不應(yīng)該基于對(duì)事物本質(zhì)下定義的方 式。
基于以上的駁論,對(duì)人工智能是否可以成為道德能動(dòng)者這一問(wèn)題,哲學(xué)家們開(kāi)辟了一條以道德可替代性為目標(biāo)的計(jì)算主義路徑。道德可替代性指的是計(jì)算機(jī)的道德行動(dòng)能夠在原則上等同于人類能動(dòng)者,從而能夠替代人類的道德行動(dòng)。這條路徑的實(shí)現(xiàn)方式則是將行動(dòng)看成是一個(gè)變化的互動(dòng)過(guò)程,通過(guò)追問(wèn)行動(dòng)過(guò)程來(lái)人工地進(jìn)行行動(dòng)設(shè)計(jì)。它要回答的問(wèn)題事實(shí)上與心靈哲學(xué)關(guān)心的問(wèn)題有一定的相似性:“心靈”是一個(gè)計(jì)算過(guò)程嗎?道德也是可計(jì)算的嗎?如果是,我們?cè)趺礃釉谝粋€(gè)人工能動(dòng)者上實(shí)現(xiàn)呢?這一設(shè)計(jì)需要怎樣的基本要素?基于這些問(wèn)題可以看出,可替代性“并不是一個(gè)能夠通過(guò)描述已有的能動(dòng)者來(lái)解決的純經(jīng)驗(yàn)問(wèn)題,它是一個(gè)‘如何可能’的問(wèn)題,需要將探討延伸到可能的道德能動(dòng)者領(lǐng)域,不論它們是否存在,迫使我們?nèi)ソ⒎侨祟惖哪軇?dòng)性的計(jì)算模型”③Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”.。
因此,計(jì)算主義路徑的首要工作就是使道德行動(dòng)去心靈化,使道德行為成為可計(jì)算的。簡(jiǎn)要來(lái)講,這個(gè)過(guò)程通過(guò)模型化,將道德行動(dòng)看作一個(gè)信息進(jìn)程,信息的兩端聯(lián)系著能動(dòng)者和受動(dòng)者,能動(dòng)者和受動(dòng)者同樣被視為信息化的實(shí)體,它們依賴于所采用的抽象層次以及相應(yīng)的可觀察量的集合。道德行動(dòng)變成了由能動(dòng)者所發(fā)出的一系列信息,這些信息導(dǎo)致了受動(dòng)者的狀態(tài)轉(zhuǎn)換。這使得對(duì)于道德行動(dòng)的關(guān)注點(diǎn)從推敲能動(dòng)者的“邏輯”(也就是研究人的心靈)轉(zhuǎn)變?yōu)閷?duì)象間的數(shù)據(jù)結(jié)構(gòu)關(guān)系以及它們的行為。①盧恰諾·弗洛里迪:《信息倫理學(xué)》,第152—154 頁(yè)。這就使得道德行動(dòng)不再是人類中心主義的,也不再依賴于人的心靈和心靈產(chǎn)生的目的、意向性、自由等。去心靈化使人工信息化實(shí)體有成為道德能動(dòng)者的可能,并且在道德功能主義的意義上能夠?qū)崿F(xiàn)可替代人類道德行動(dòng)的目 標(biāo)。
在此基礎(chǔ)上,信息倫理學(xué)論證了人工能動(dòng)者成為道德能動(dòng)者的哲學(xué)抽象方式。被視為信息倫理學(xué)創(chuàng)始人的弗洛里迪提出,所有實(shí)體作為信息化實(shí)體具有固有的道德價(jià)值,這一點(diǎn)是通過(guò)提升分析對(duì)象的抽象層次來(lái)論證的。②同上書(shū),第160—164、175—178 頁(yè)。對(duì)抽象層次的提升,可以這樣來(lái)理解:例如象棋中的“相”,它必然具有顏色、質(zhì)地、形狀等性質(zhì),在考慮這些性質(zhì)時(shí),它的抽象層次是比較低的,但這些性質(zhì)對(duì)于“相”的本質(zhì)來(lái)講是相對(duì)不重要的。當(dāng)我們將它作為象棋的代表性、行進(jìn)方式等進(jìn)行信息化的抽象,也就是提升它的抽象層次,那么即使它只是一個(gè)點(diǎn),我們?nèi)匀怀姓J(rèn)它是“相”。以抽象層次來(lái)看,倫理的人類中心論就是抽象層次比較低的。它對(duì)無(wú)生命的實(shí)體的拒斥即使是在傳統(tǒng)倫理學(xué)中也不盡人意——如果上帝存在,人們毫無(wú)疑問(wèn)會(huì)認(rèn)為上帝是道德能動(dòng)者。這意味著,選擇不同的抽象層次會(huì)得到不同的道德能動(dòng)者劃界。那么在選擇合適的抽象層次時(shí),信息化實(shí)體成為道德能動(dòng)者完全是可以接受的。因此,就信息化實(shí)體可以成為能動(dòng)者而言,它們也可以成為可問(wèn)責(zé)的道德能動(dòng) 者。
機(jī)器倫理論述了人工能動(dòng)者成為道德能動(dòng)者的實(shí)證研究路徑。對(duì)機(jī)器倫理的研究者而言,重要的不是“誰(shuí)”(who)是道德能動(dòng)者,而是“怎么”(how)實(shí)現(xiàn)道德能動(dòng)者。瓦萊赫和艾倫在《道德機(jī)器——如何讓機(jī)器人明辨是非》中探討了人類的道德如何能在人工能動(dòng)者上實(shí)現(xiàn)的問(wèn)題。③Wendell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,New York:Oxford University Press,2009,pp.58—62.他們認(rèn)為雖然人工能動(dòng)者尚不足以成為完全倫理主體,即像人類一樣思考的倫理實(shí)體,但是能夠通過(guò)設(shè)計(jì)來(lái)實(shí)現(xiàn)顯性倫理主體,即通過(guò)內(nèi)置倫理范疇和道義邏輯實(shí)現(xiàn)倫理的實(shí)體??赡軐?shí)現(xiàn)的人類道德理論有三種:道義論、效果論和德性倫理。這三者對(duì)應(yīng)了在人工能動(dòng)者上設(shè)計(jì)道德行為的方式:自上而下的、自下而上的和混合型。“自上而下”指的是以某種特定的倫理理論作為切入點(diǎn),用它來(lái)分析和指導(dǎo)算法與子系統(tǒng)的計(jì)算要求,從而實(shí)現(xiàn)需要的結(jié)果?!白韵露稀敝傅氖怯酶鞣N性能指標(biāo)(例如圖靈測(cè)試)來(lái)測(cè)試,通過(guò)試錯(cuò)的方式逐步調(diào)整性能,最終使系統(tǒng)達(dá)到指標(biāo)要求。在這個(gè)過(guò)程中,是將倫理價(jià)值規(guī)范隱藏在行動(dòng)當(dāng)中,而非明確地描述出來(lái)。混合型,顧名思義是前兩者的混合。由于前兩者過(guò)于簡(jiǎn)單化和理想化,因此,在實(shí)踐中工程師們往往采用混合型的算法設(shè)計(jì)。這一策略有效地使得人工道德能動(dòng)者成為現(xiàn) 實(shí)。
可以看到,在人工智能(可能)需要做出倫理決策這一現(xiàn)實(shí)需求下,人工能動(dòng)者成為道德能動(dòng)者在理論上已經(jīng)做好了準(zhǔn) 備。
然而,瓦萊赫和艾倫對(duì)人工能動(dòng)者不能成為完全倫理主體的想法至今依然是正確的。就目前而言,它們要成為像人類一樣獨(dú)立發(fā)揮作用的主體還為時(shí)尚早,人工道德能動(dòng)者要面臨的困境還有很 多。
“好”的決策問(wèn)題。人工道德能動(dòng)者和所有的道德能動(dòng)者一樣,在做決定的時(shí)候面臨幾個(gè)可供選擇的決策,必須要從中挑選出哪一個(gè)是最好的?!昂谩钡臎Q策對(duì)于人工智能而言,可能被定義為在多大程度上接近一個(gè)該領(lǐng)域內(nèi)技能優(yōu)秀的人。但是對(duì)于道德決策而言,很難評(píng)選出一個(gè)可以學(xué)習(xí)模仿的對(duì)象,因?yàn)榈赖骂I(lǐng)域的許多決策都是“好”的,而不是完美的。要做出“好”的決策需要三個(gè)前提,首先,人工道德能動(dòng)者需要一個(gè)基本的倫理立場(chǎng)(也許是功利主義或者康德主義等)。其次,它要能夠分辨出在一定情況下,出現(xiàn)了哪些沖突的選項(xiàng)。最后,它需要認(rèn)識(shí)到在特定的情境下,一般的概念或原則需要特定的解釋。①M(fèi)ichael S. Pritchard,“Moral Machines?”,Science and Engineering Ethics,Vol.18,No.2,2012,pp.411—417.也就是說(shuō),瓦萊赫和艾倫賴以設(shè)計(jì)道德能動(dòng)者的自上而下的方式并不是算法,而是理解語(yǔ)境、獲取信息、進(jìn)行預(yù)測(cè)等等的綜合。對(duì)于人類來(lái)說(shuō)做出“好”的決策依賴于通過(guò)經(jīng)驗(yàn)進(jìn)行內(nèi)化的判斷力,算法則無(wú)法做到。甚至,為了達(dá)成“好”的決策,人們可能會(huì)臨時(shí)轉(zhuǎn)換倫理立場(chǎng),這挑戰(zhàn)了人工道德能動(dòng)者的基本設(shè)計(jì)思 路。
倫理觀契合問(wèn)題。作為一個(gè)道德能動(dòng)者,必然有它的受動(dòng)者。對(duì)于人工智能而言,它的受動(dòng)者有很大幾率是人。這就涉及道德能動(dòng)者之間的互動(dòng)?;?dòng)帶來(lái)的第一個(gè)困難在于如何解決道德維度不同的問(wèn)題。通常,即使是人類的道德考慮也是因人而異的,人們需要從童年開(kāi)始學(xué)習(xí)如何與不同道德標(biāo)準(zhǔn)的人相處,學(xué)習(xí)在何種程度上做出妥協(xié)和讓步,同時(shí)不損害自己的正直。但是,對(duì)于人工道德能動(dòng)者來(lái)說(shuō),什么是正直呢?它能被算法實(shí)現(xiàn)嗎?這一點(diǎn)對(duì)人工道德能動(dòng)者來(lái)說(shuō)恐怕還很困難。人工能動(dòng)者與人的互動(dòng)中的道德維度問(wèn)題也會(huì)使人感到困擾,這就是倫理契合的問(wèn)題。人們通常傾向于選擇道德觀念契合的人作為合作者,當(dāng)這個(gè)合作者是人工道德能動(dòng)者的時(shí)候,人們?nèi)绾蝸?lái)確定與它的道德觀念的契合程度呢?這對(duì)普通大眾提出了過(guò)高的要求,大眾不會(huì)像哲學(xué)家一樣明確自己的道德立場(chǎng)是某某主義的,我們很難想象一個(gè)人走進(jìn)一家機(jī)器人公司,要求買(mǎi)一臺(tái)康德主義的或者多元主義的機(jī)器人。如此,對(duì)于個(gè)人的使用者而言,人工道德能動(dòng)者很可能成為一個(gè)高深莫測(cè)又不善妥協(xié)的道德主體,讓人望而卻 步。
具身化問(wèn)題。徐英瑾提出:“機(jī)器倫理學(xué)的核心關(guān)涉將包括對(duì)人工智能的‘身體’——而不僅僅是‘心智’——的設(shè)計(jì)規(guī)范,即必須嚴(yán)肅考慮‘怎樣的外圍設(shè)備才被允許與中央語(yǔ)義系統(tǒng)進(jìn)行恒久的接駁’這一問(wèn)題?!雹傩煊㈣骸毒呱硇?、認(rèn)知語(yǔ)言學(xué)與人工智能倫理學(xué)》,載《上海師范大學(xué)學(xué)報(bào)》2017 年第6 期。倫理規(guī)范本身就具有身體的圖式,倫理表達(dá)也在各種意義上與身體相關(guān)。例如,“不許殺人”意味著禁止一個(gè)身體對(duì)另一個(gè)身體機(jī)能的終結(jié)。一旦無(wú)視身體圖式的預(yù)設(shè),可能就會(huì)臆造出無(wú)意義的倫理規(guī)范,例如,“禁止人在周五飛翔”。那么對(duì)于承載人工智能的機(jī)體,同樣需要設(shè)計(jì)與“身體”相關(guān)的倫理規(guī)范,而不能僅僅考慮算法。需要保證人工道德能動(dòng)者對(duì)它的身體圖式的理解與人類對(duì)它的身體圖式的要求相一致。例如,對(duì)于微型自動(dòng)攝影機(jī)器人,它的倫理設(shè)計(jì)就應(yīng)當(dāng)包括“禁止進(jìn)入私人住宅”。但是,當(dāng)人工道德能動(dòng)者的機(jī)體與人類的身體差別過(guò)大時(shí),這種對(duì)應(yīng)的倫理設(shè)計(jì)就會(huì)變得異常困難,它們很可能因?yàn)闊o(wú)法理解人類的身體圖式而無(wú)法理解倫理規(guī)則。因此,在具身化問(wèn)題的局限之下,人工道德能動(dòng)者恐怕只能在有限的情景和技能上是可問(wèn)責(zé)的,難以成為完全倫理主 體。
在種種限制人工道德能動(dòng)者問(wèn)責(zé)范圍的問(wèn)題之下,可以看到,在許多涉及人工道德能動(dòng)者的情況下,仍然存在倫理主體缺失的情況。要解決主體缺失的情況,有兩種方式,一種依賴于人工智能和機(jī)器倫理發(fā)展到能夠讓人工道德能動(dòng)者成為完全倫理主體,但這似乎需要長(zhǎng)久的努力;另一種則是在此之前尋找一種合理的倫理主體作為代替,使在算法設(shè)計(jì)中無(wú)法實(shí)現(xiàn)的問(wèn)題在現(xiàn)實(shí)中得到補(bǔ) 強(qiáng)。
筆者認(rèn)為,無(wú)論以上哪兩種方式,都意味著要給人機(jī)混合道德能動(dòng)者足夠的關(guān)注,使它作為倫理主體發(fā)揮作用。人機(jī)混合道德能動(dòng)者(以下簡(jiǎn)稱“混合能動(dòng)者”),顧名思義是由人與計(jì)算機(jī)、機(jī)器、人工智能等非人類能動(dòng)者共同組成的行動(dòng)主體,它屬于一種多行動(dòng)者系統(tǒng)(multi-agent system)。事實(shí)上,混合能動(dòng)者已經(jīng)有相當(dāng)長(zhǎng)的歷史,例如,駕駛員和汽車(chē),從外部看來(lái)就是一個(gè)混合能動(dòng)者。隨著人工智能在各種終端設(shè)備上的普及,混合能動(dòng)者也越發(fā)普遍。在本文中,混合能動(dòng)者特指由人與人工智能相關(guān)的能動(dòng)者所組成 的。
混合能動(dòng)者作為人工智能的倫理研究中的一個(gè)倫理主體有其必要 性。
首先,如果人工智能真的能夠發(fā)展到完全倫理主體,那么人類與人工智能的合作與融合將成為社會(huì)中普遍的情況,二者將以合作的方式成為混合能動(dòng)者,這意味著混合能動(dòng)者是一個(gè)必要的倫理主 體。
其次,在人工智能尚不能夠成為完全倫理主體時(shí),混合能動(dòng)者能夠作為替代的倫理主體承擔(dān)責(zé)任。上文所提及的三個(gè)使人工道德能動(dòng)者不能成為完全主體的問(wèn)題,其根本所在都是機(jī)器倫理與人的倫理接駁所產(chǎn)生的問(wèn)題。當(dāng)我們將視角拉遠(yuǎn),把倫理主體從人工物延伸到混合能動(dòng)者,這些問(wèn)題就會(huì)暫時(shí)地被回避,等待技術(shù)進(jìn)一步發(fā)展來(lái)予以解決。混合能動(dòng)者的道德行動(dòng)是由人機(jī)共同做出的(如何實(shí)現(xiàn)將在下一節(jié)闡述),這一過(guò)程中,人在其中就扮演了倫理指導(dǎo)的角色。因此,諸如解決“好”的決策問(wèn)題、倫理觀契合的問(wèn)題將會(huì)交予人類。這并不是說(shuō)完全剝奪了人工道德能動(dòng)者的決策權(quán),對(duì)于多能動(dòng)者系統(tǒng)來(lái)說(shuō),整個(gè)系統(tǒng)的輸出本身就是由多能動(dòng)者共同完成的。在此考慮一個(gè)案例,女兒被綁架的母親和她的私人偵探共同來(lái)做出營(yíng)救計(jì)劃,此時(shí),假設(shè)母親有可能因?yàn)橛H緣問(wèn)題而向綁匪屈服,但偵探建議依據(jù)成功的經(jīng)驗(yàn)和理智來(lái)做決定,那么最終做出的決定無(wú)論是怎樣的都是兩人的共同決定,由兩者共同承擔(dān)責(zé)任。那么,當(dāng)我們把偵探換成一個(gè)人工智能,也是同樣由兩者共同承擔(dān)責(zé)任。具身化問(wèn)題也是如此,將機(jī)器無(wú)法衡量的倫理問(wèn)題交由它的合作者,以此來(lái)彌補(bǔ)目前設(shè)計(jì)不能實(shí)現(xiàn)的缺憾。正如,徐英瑾在討論具身化問(wèn)題之后指出的,“我們必須在硬件構(gòu)造上就使機(jī)器人產(chǎn)生對(duì)其他機(jī)器人特別是人類的‘需要’,就像人類社會(huì)中的任何一個(gè)成員在生物學(xué)意義上需要他人才能夠生存一樣”①徐英瑾:《具身性、認(rèn)知語(yǔ)言學(xué)與人工智能倫理學(xué)》。,機(jī)器人與人組成混合能動(dòng)者本身就是順應(yīng)期待且有必要 的。
混合能動(dòng)者作為倫理主體符合技術(shù)與社會(huì)高度融合的現(xiàn)實(shí)對(duì)倫理研究的需求。人工能動(dòng)者在具備了高度智能以后,應(yīng)當(dāng)被視為一個(gè)社會(huì)—技術(shù)—認(rèn)識(shí)高度糾纏的人造物,這就意味著它將會(huì)與人、與社會(huì)密不可分。筆者認(rèn)同目前的人工智能哲學(xué)中將人工能動(dòng)者作為研究主體的思路,這是因?yàn)槿斯ぶ悄苷軐W(xué)與人工智能科學(xué)本身高度相關(guān),且研究在一定程度上正是為了指導(dǎo)人工智能本身的研發(fā)。但是,跳出人工智能本身,以一種外部的倫理視角來(lái)看,我們討論倫理主體的時(shí)候,討論的是采取社會(huì)行動(dòng)的那個(gè)主體,不論它的本體論是什么。例如,在公共場(chǎng)合遇到令人討厭的“熊孩子”,我們會(huì)認(rèn)為整個(gè)家庭缺乏社會(huì)責(zé)任感,因?yàn)槭沁@個(gè)家庭造成了相應(yīng)的社會(huì)行動(dòng)。因此,筆者認(rèn)為,在混合能動(dòng)者已經(jīng)成為現(xiàn)實(shí)的當(dāng)今社會(huì),有必要分給混合能動(dòng)者一些關(guān)注,進(jìn)行相關(guān)的倫理研究。一方面,關(guān)注如何將人機(jī)的知識(shí)、情感圖式結(jié)合起來(lái),另一方面,也應(yīng)當(dāng)關(guān)注結(jié)合后產(chǎn)生的新型主體對(duì)社會(huì)的種種影響。許多研究者將對(duì)人工物的使用方式當(dāng)作是使用者的本身倫理問(wèn)題,但是,社會(huì)—技術(shù)—認(rèn)識(shí)的觀點(diǎn)認(rèn)為如何使用人工物本身就是技術(shù)的社會(huì)整合問(wèn)題,不應(yīng)該與技術(shù)拆分開(kāi)來(lái),因此,將混合能動(dòng)者作為倫理主體來(lái)看待是有必要 的。
混合能動(dòng)者是促進(jìn)分布式道德在信息社會(huì)更好地發(fā)揮作用的重要一環(huán)。分布式道德是這樣一種道德行動(dòng),系統(tǒng)所造成的有道德承載的行動(dòng)結(jié)果,其背后是由多個(gè)能動(dòng)者的道德行動(dòng)造成的,它們的道德行動(dòng)可能是道德中性的或者可以忽略的。①Luciano Floridi,“Distributed Morality in an Information Society”,Science and Engineering Ethics,Vol.19,No.3,2013,pp.727—743.例如,某支付網(wǎng)站承諾,它的消費(fèi)者每購(gòu)物一筆,就向綠化事業(yè)捐獻(xiàn)出一分錢(qián),這使得消費(fèi)者本來(lái)是道德中性的購(gòu)物行動(dòng)匯聚起來(lái)產(chǎn)生了道德上善的行動(dòng)。這個(gè)系統(tǒng)中的能動(dòng)者顯然并不局限于單純的人類或者非人類,因?yàn)?,要駕馭分布式道德的力量,需要集聚可能是善的行動(dòng),同時(shí)碎片化可能是惡的行動(dòng),為了實(shí)現(xiàn)以上兩點(diǎn),需要一種作為“道德促成者”的技術(shù)機(jī)制。筆者認(rèn)為,這種技術(shù)機(jī)制可能實(shí)現(xiàn)的方式在于由人工智能“輔助”人類,通過(guò)人機(jī)結(jié)合的方式來(lái)促進(jìn)善的行動(dòng)。例如,共享單車(chē)和它的使用者,事實(shí)上是系統(tǒng)中的底層的一個(gè)混合能動(dòng)者。更進(jìn)一步,整個(gè)系統(tǒng)本身也是一個(gè)多能動(dòng)者系統(tǒng),它本身是一個(gè)更大的混合能動(dòng)者。只有給予混合能動(dòng)者更多的研究關(guān)注,建立更有力的能動(dòng)者系統(tǒng),才能夠推進(jìn)“道德促成者”的及技術(shù)機(jī)制,借助它們基于分布式道德處理信息時(shí)代的倫理問(wèn) 題。
基于以上分析,混合能動(dòng)者不僅在人工智能的發(fā)展階段中是有重要作用的倫理主體,而且也將在人工智能實(shí)現(xiàn)了完全倫理主體的飛躍以后仍然長(zhǎng)期存在,因此針對(duì)混合能動(dòng)者的哲學(xué)研究是必要的。筆者認(rèn)為目前對(duì)于人機(jī)混合能動(dòng)者的關(guān)注還遠(yuǎn)遠(yuǎn)不夠,有必要加強(qiáng)以它為主體的相關(guān)哲學(xué)研究,以促進(jìn)其作為倫理主體承擔(dān)道德責(zé)任的路 程。
早在1996 年,圖梅勒就指出“人工智能……和多能動(dòng)者系統(tǒng)理論屬于社會(huì)行動(dòng)理論的范圍”,設(shè)計(jì)人工智能的目標(biāo)本身就包括使它成為“社會(huì)化世界”中的智能機(jī)器。②Raimo Tuomela,“Philosophy and Distributed Artificial Intelligence:the Case of Joint Intention”,in N. Jennings,& G. O’Hare(eds.),F(xiàn)oundations of Distributed Artificial Intelligence,New York:Wiley,1996,pp.487—503.因此,人工能動(dòng)者與人共同構(gòu)成混合能動(dòng)者是有其社會(huì)行動(dòng)理論基礎(chǔ)的。③筆者認(rèn)為不需要論證人類處于完全指揮權(quán)中的人機(jī)混合能動(dòng)者(例如駕駛員和汽車(chē)),它們顯然是可能而且現(xiàn)實(shí)的,此處開(kāi)始論證的是人機(jī)各自具備道德能動(dòng)性的混合能動(dòng)者。這里,社會(huì)行動(dòng)理論基礎(chǔ)指的不僅是人工能動(dòng)者是按照“社會(huì)化”的標(biāo)準(zhǔn)來(lái)設(shè)計(jì)的,也指它與人類是以社會(huì)化的方式進(jìn)行合作,而不是以人與工具的方式相結(jié)合。這意味人機(jī)融合與其他的技術(shù)社會(huì)化過(guò)程不同,它是一個(gè)人類能動(dòng)者與人工能動(dòng)者之間的互動(dòng)問(wèn)題,而不是單純的人類接納技術(shù)的問(wèn) 題。
這一轉(zhuǎn)變使得我們?cè)诶斫馊斯ぶ悄軙r(shí),僅僅意識(shí)到“人—技術(shù)—社會(huì)”的聯(lián)系是不夠的,而需要進(jìn)一步地理解為“主體—主體—社會(huì)”的聯(lián)系。理解混合能動(dòng)體的建構(gòu),需要跳出技術(shù)哲學(xué)的視角,進(jìn)入社會(huì)哲學(xué)的視 角。
因此,人機(jī)混合能動(dòng)者可以被看作一個(gè)多能動(dòng)者協(xié)作的集體能動(dòng)者。建構(gòu)混合能動(dòng)者的哲學(xué)理論來(lái)源是集體行動(dòng)理論。集體行動(dòng)理論認(rèn)為,構(gòu)成一個(gè)集體能動(dòng)者需要,首先,形成一個(gè)獨(dú)立的集體意向,以及,集體成員有效地協(xié)作使集體能夠采取意向行動(dòng)。因此,下面將針對(duì)前文所述的人機(jī)各自作為倫理主體的不同之處來(lái)考察混合能動(dòng)者的建構(gòu)方 式。
人工智能不能理解“我們”的概念,因此,在所有的集體行動(dòng)理論中,只有個(gè)人主義路徑的集體行動(dòng)理論才能夠使人機(jī)形成混合能動(dòng)者,超個(gè)人主體路徑的集體行動(dòng)理論不適用于混合能動(dòng)者。在這里,個(gè)人主義路徑指的是對(duì)于每一個(gè)具體的行動(dòng)來(lái)說(shuō),實(shí)現(xiàn)它的是個(gè)體的意向性,而不是集體的意向性。也就是說(shuō),每一個(gè)參與者持有的意向是“我要(和其他人)完成某事(的一部分)”。超個(gè)人主義路徑則相反,參與者持有的意向是“我們要完成某事”。超個(gè)人主義路徑要求每一個(gè)參與的能動(dòng)者持有并理解“我們”的理念,而根據(jù)第二節(jié)人工能動(dòng)者不能成為完全道德能動(dòng)者的理由,人工能動(dòng)者暫時(shí)不能夠處理自己的具身性問(wèn)題,更不能夠去理解人與自己聯(lián)合而產(chǎn)生的具身性問(wèn)題。因此,超個(gè)人主義路徑對(duì)人工智能來(lái)說(shuō)是無(wú)法完成的。對(duì)于人工智能,我們最多只能要求人工能動(dòng)者在行動(dòng)中具備以“我”為基礎(chǔ)的意向,因此,人機(jī)混合能動(dòng)者只能采取個(gè)人主義路徑的集體行動(dòng)理論來(lái)建 立。
個(gè)人主義路徑的集體行動(dòng)理論在形成集體意向時(shí)也有兩種不同的方式,一種是聯(lián)合意向(joint intention),另一種是共有意向(share intention)。聯(lián)合意向的特征在于,它的聯(lián)合行動(dòng)旨在實(shí)現(xiàn)一個(gè)集體的結(jié)果(collective end),該集體結(jié)果是由多個(gè)參與者共同持有的個(gè)體結(jié)果,由相關(guān)的參與者的行動(dòng)來(lái)實(shí)現(xiàn)。因此,米勒也將其稱為聯(lián)合行動(dòng)的集體結(jié)果理論。①Seumas Miller,Social Action:A Teleologicial Account,Cambridge:Cambridge University Press,2004,pp.56—57.簡(jiǎn)單來(lái)講,聯(lián)合行動(dòng)至少包括行動(dòng)者A 和行動(dòng)者B,以及它們?cè)谇闆rs 下各自的行動(dòng)x 和y,雙方都持有一個(gè)結(jié)果e,在相信對(duì)方會(huì)行動(dòng)并且確實(shí)行動(dòng)的時(shí)候會(huì)自己也相應(yīng)地行動(dòng),從而實(shí)現(xiàn)e,雙方在這個(gè)過(guò)程中持有的行動(dòng)意向就是聯(lián)合意向。共有意向與聯(lián)合意向較為相近,同樣要求參與者在情況s 下各自的行動(dòng)x 和y,但是,不同之處在于參與者需要考察其他人的行動(dòng)計(jì)劃,并且以自己的角度考察該行動(dòng)計(jì)劃,據(jù)此對(duì)自己的行動(dòng)做出調(diào)整,以完成整個(gè)集體的目標(biāo)。②Michael E. Bratman,Shared Agency:A Planning Theory of Acting Together,New York:Oxford University Press,2014,p.248.
基于本文的分析,混合能動(dòng)者的實(shí)現(xiàn)依賴聯(lián)合意向的建構(gòu)方式,人工能動(dòng)者能實(shí)現(xiàn)與人類形成聯(lián)合意向,從而建構(gòu)混合能動(dòng)者。這是因?yàn)?,?lián)合意向只需要參與者明確其要完成的部分,并且信賴其他參與者也會(huì)完成各自的部分。人工能動(dòng)者在行動(dòng)上依靠設(shè)計(jì)能夠完成所需的工作,在自主性上能夠?qū)崿F(xiàn)自主(道德)選擇。因此,即使它尚未成為一個(gè)完全倫理主體,也可以與人共同形成聯(lián)合意向。相對(duì)地,人工能動(dòng)者無(wú)法形成共有意向。因?yàn)椋灿幸庀蛞笕斯つ軇?dòng)者考量合作者的計(jì)劃和意圖,而這些計(jì)劃和意圖都是與參與者的能動(dòng)性掛鉤的。如果要人工能動(dòng)者去理解參與者的能動(dòng)性,就必須理解參與者的具身性,這又觸及了人工能動(dòng)者的短板。舉例來(lái)說(shuō),一個(gè)機(jī)器人和人共同搬運(yùn)一個(gè)箱子,人類的計(jì)劃是用手抬箱子或是用肩膀抗箱子,對(duì)機(jī)器人來(lái)說(shuō)完全不同,機(jī)器人必須理解手和肩的位置與力量才能夠進(jìn)行合作。因此,聯(lián)合意向是更現(xiàn)實(shí)的建構(gòu)人機(jī)混合能動(dòng)者的方 式。
要使混合能動(dòng)者形成聯(lián)合意向并實(shí)現(xiàn)它,有兩個(gè)關(guān)鍵點(diǎn)。其一,是集體結(jié)果的可分解性?;旌夏軇?dòng)者的行動(dòng)需要靠參與者的多個(gè)聯(lián)合意向共同指向結(jié)果,因此,集體結(jié)果可分解程度越高、對(duì)過(guò)程分解得越精細(xì),就越適合人工能動(dòng)者采取行動(dòng)。人工能動(dòng)者能夠完成復(fù)雜的單個(gè)行動(dòng),但無(wú)法完成模糊的指令,因而對(duì)集體結(jié)果的分解至關(guān)重要。其二,是人機(jī)的相互信任度。人類能動(dòng)者和人工能動(dòng)者必須相互信任,相信彼此有能力完成各自要完成的決策和行動(dòng)。這一點(diǎn)并不是顯而易見(jiàn)的,許多人工智能的設(shè)計(jì)者都沒(méi)有認(rèn)真地考慮人工智能在何種程度上應(yīng)該信任人類。例如,在2018 年3 月波音737MAX 墜毀事件中,駕駛員注意到機(jī)頭過(guò)低的問(wèn)題,企圖修正,但自動(dòng)駕駛?cè)哉J(rèn)為應(yīng)當(dāng)壓低機(jī)頭,最終導(dǎo)致了空難。人和人工智能之間應(yīng)當(dāng)有一種信任機(jī)制,或者一種信任的維度,這決定了混合能動(dòng)者能否成功實(shí)現(xiàn)目標(biāo)。在較為簡(jiǎn)單的目標(biāo)面前,人機(jī)信任是比較容易實(shí)現(xiàn)的,但在面對(duì)復(fù)雜的目標(biāo)時(shí),這種信任的維度究竟如何,仍是值得研究 的。
拋開(kāi)建構(gòu)分析中仍需進(jìn)一步研究的細(xì)節(jié)來(lái)看,混合能動(dòng)者是能夠完成目標(biāo)并且被問(wèn)責(zé)的。如果按照?qǐng)D梅勒的集體能動(dòng)者模式來(lái)分,混合能動(dòng)者是一個(gè)I-mode 能動(dòng)者。圖梅勒根據(jù)個(gè)體能動(dòng)者所處的狀態(tài)將集體能動(dòng)者分為we-mode 和I-mode。他認(rèn)為集體是以一個(gè)基礎(chǔ)的理念(ethos)開(kāi)始的,集體成員在集體理念的指導(dǎo)下,形成共同的集體目標(biāo)。將自己作為集體成員而思考、行動(dòng)并使集體的所得最大化,這種思考方式被稱為we-thinking,基于這種集體思考方式行動(dòng)的成員被稱為wemode 模式。①Raimo Tuomela,Social Ontology:Collective Intentionality and Group Agency,New York:Oxford University Press,2013,pp.21—23.很顯然,人工能動(dòng)者無(wú)法實(shí)現(xiàn)we-mode 模式,“使集體所得最大化”的決策就應(yīng)當(dāng)是“好”的決策,這是它的短板。I-mode 則是以“我”能夠如何完成目標(biāo)而作為思考模式參與集體行動(dòng)的模式。這種模式在社會(huì)和自然界都十分常見(jiàn)。人工能動(dòng)者以“我”要做什么作為計(jì)算的目標(biāo),與人類進(jìn)行共同行動(dòng),使得混合能動(dòng)者成為可能。明確這一點(diǎn)的意義在于,I-mode 中的能動(dòng)者是能夠拆分、各自承擔(dān)道德責(zé)任的。這使得混合能動(dòng)者既能作為整體承擔(dān)責(zé)任,也能夠各自被問(wèn)責(zé),這是符合日常對(duì)于人工智能的認(rèn)知和期待的,也使得人機(jī)間的責(zé)任問(wèn)題有了較清晰的解決方 向。
混合能動(dòng)者的行動(dòng)哲學(xué)分析不僅給責(zé)任問(wèn)題提供了解決思路,也給人工智能的倫理規(guī)則設(shè)計(jì)提出了新的要求。在形成聯(lián)合意向的分析中,可以看到,以混合能動(dòng)者為分界,與受動(dòng)者相關(guān)的意向有多個(gè):從混合能動(dòng)者外部來(lái)看,它具備一個(gè)整體地指向受動(dòng)者的意向;從其內(nèi)部來(lái)講,人、機(jī)各自有一個(gè)指向受動(dòng)者的意向,同時(shí),人、機(jī)互相之間存在各自的合作意向。也就是說(shuō),總共存在五個(gè)意向:混合能動(dòng)者→受動(dòng)者、使用者→受動(dòng)者、AI →受動(dòng)者、使用者→AI、AI →使用者。考慮到這五個(gè)意向方向,當(dāng)我們考慮人工智能相關(guān)的倫理設(shè)計(jì)時(shí),不能僅僅思考人工智能本身,而是應(yīng)盡力保證形成這五個(gè)意向的過(guò)程和方式都沒(méi)有(公認(rèn)的)倫理問(wèn)題。這才能在源頭上阻止有倫理爭(zhēng)議的結(jié)果。因此,基于這五個(gè)意向方向,人工智能的設(shè)計(jì)者與規(guī)范制定者需要考慮的倫理維度(至少)有六個(gè):人工智能本身、AI—使用者、AI—受動(dòng)者、混合能動(dòng)者—受動(dòng)者、使用者—受動(dòng)者、使用者—AI。
從行動(dòng)哲學(xué)的角度對(duì)混合能動(dòng)者進(jìn)行建構(gòu)分析,論證了混合能動(dòng)者的存在論可能性、可問(wèn)責(zé)性。同時(shí),也推論出了當(dāng)前人工智能在倫理設(shè)計(jì)中存在某些問(wèn)題的哲學(xué)根 源。
在大數(shù)據(jù)、云計(jì)算、深度學(xué)習(xí)技術(shù)的支持下,人工智能參與人類事務(wù)的情況越來(lái)越多,隨之產(chǎn)生的許多責(zé)任困境又無(wú)法讓人工智能完全地承擔(dān),因此,社會(huì)和學(xué)術(shù)研究對(duì)人工智能的倫理主體的需求是迫切而重要的。在人工智能尚不足以成為完全倫理主體的過(guò)渡時(shí)期,以人機(jī)混合能動(dòng)者作為替代的倫理主體是有其現(xiàn)實(shí)需求和理論基礎(chǔ) 的。
開(kāi)展以人機(jī)混合能動(dòng)者為主體的哲學(xué)研究不僅是倫理上的權(quán)宜之計(jì),也有其必要性。僅以本文尚不甚深入的剖析來(lái)看,以混合能動(dòng)者入手來(lái)研究所提出的問(wèn)題正是人工智能社會(huì)面臨挑戰(zhàn)的關(guān)鍵問(wèn)題,例如,合作問(wèn)題、信任問(wèn)題和倫理維度問(wèn)題。但是,以混合能動(dòng)者為主體的研究尚未引起廣泛的關(guān)注,有待加強(qiáng)。以混合能動(dòng)者作為切入點(diǎn),是為了更好地應(yīng)對(duì)人工智能時(shí)代所產(chǎn)生的倫理挑戰(zhàn),以人工物社會(huì)化的研究方式來(lái)前瞻性地構(gòu)筑一系列的戰(zhàn)略方針,化解傳統(tǒng)問(wèn)責(zé)機(jī)制的困境,發(fā)揮人工智能帶來(lái)的技術(shù)進(jìn)步優(yōu)勢(shì),減低人工智能的倫理風(fēng) 險(xiǎn)。