程海東,陳 凡
東北大學(xué) 馬克思主義學(xué)院哲學(xué)系,沈陽 110169
隨著人工智能體智能能力的凸顯,其道德能力也成為一個亟待明確的問題,而對這一問題的探討涉及到對道德關(guān)系和人工智能的基本定位:即道德關(guān)系是否可以拓展到人之外的其他存在,以及人工智能體是否是真正的智能體。從邏輯上看,這種基本定位會形成四種研究傾向:(1)道德關(guān)系是人與人之間的關(guān)系,人工智能體只是道德客體;(2)道德關(guān)系是人與人之間的關(guān)系,人工智能體具有一定的道德功能;(3)道德關(guān)系可以拓展到人之外的其他存在,但人工智能體不具有獨立的道德地位;(4)道德關(guān)系可以拓展到人之外的其他存在,人工智能體也能夠逐步獲得獨立的道德地位。在討論人工智能體道德能力和功能的過程中,這四種研究傾向中的(1)不認為人工智能體具有道德功能,(2)(3)(4)則認為人工智能體能夠?qū)崿F(xiàn)一定的道德化行為,具有一定的道德功能。本文在追問后三種研究傾向的基礎(chǔ)上,認為超越其中的決定論思維局限,將人工智能體的道德實踐置于實踐語境中,以互動構(gòu)建思維理解人工智能體的道德實踐將更具有深刻性、針對性和實效性。
道德實踐只屬于有理性的人,這是人類社會對道德實踐關(guān)系采取的最為基本和主要的立場。持該立場的人認為道德實踐源于人的內(nèi)在意識,只有具備意識的人才能夠自由決定自己的行為并承擔(dān)相應(yīng)的后果,因此內(nèi)在意識是道德主體從事道德實踐的必要條件。人工智能體因不具備這一必要條件而不能滿足道德實踐要求,也就不能成為道德實踐的主體。例如,美國哲學(xué)家希瑪(K.E.Himma)提出了道德主體的兩個必要條件:“一是自由選擇的能力,即行為者必須有能力自由選擇自己的行為,行為的發(fā)生是出于自身的意愿而非外力脅迫;二是明辨是非的能力,即智能體能夠知道哪些事情是應(yīng)該做的,哪些事情是不應(yīng)該做的,能夠根據(jù)自己習(xí)得的道德準則應(yīng)用到具體的判斷中?!?1)② K.E.Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties must an Artificial Agent have to be a Moral Agent?”,Ethics and Information Technology,2009,11(1),pp.22-24,24.具體來說,自由選擇是指行為的發(fā)生要源于行為者自身的理性思考且“出于自身的意愿”,也即是說只有經(jīng)過理性考量的行為才是有意愿的行為,因為行為者在行動之前就明確地知道行為的是非對錯;而不滿足這一條件的任何行為,只要不是出于行為者自身的意愿,無論是源于某種外在的強制性力量,還是源于對環(huán)境或后果的無知,都不是行為者自由選擇的行為,也就不能對其作出道德評價和歸責(zé)??梢?,這兩個必要條件暗含了一個前提,即“智能體必須具備‘意識’”(2)① K.E.Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties must an Artificial Agent have to be a Moral Agent?”,Ethics and Information Technology,2009,11(1),pp.22-24,24.。因為只有具備了“意識”這種內(nèi)在的心理狀態(tài),才能保證行為的實施是出于主觀意愿的自由選擇和行為者自身的信念,也才能對行為作出道德評價,并保證行為者對道德歸責(zé)有相應(yīng)的反饋態(tài)度,由此確認其是否具備道德情感,能否承擔(dān)道德責(zé)任。
美國弗吉尼亞大學(xué)的榮譽教授約翰遜(Deborah G.Johnson)的基本觀點與?,?shù)南囝愃?,她同樣認為道德主體需具備一定的必要條件(3)④ D.G.Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,2006,8(4),pp.198,203.。由于人工智能體無法具備表現(xiàn)為信念、欲望和意向性的心理狀態(tài),即便其外在行為看似具有了一定的“意向性”,但實際上這樣的“意向性”是由設(shè)計者、使用者和人工智能體組成的“派生的意向性”,“即使我們可以將計算機的狀態(tài)解釋為心理狀態(tài),計算機系統(tǒng)也沒有因自由而采取行為的意向”(4)③ D.G.Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,2006,8(4),pp.198,203.。約翰遜認為可以將人工智能體看作人類主體道德性的拓展或者延伸,而不能將其視為獨立的道德主體,因為基于自由意志的“意欲行為”只能為人類所獨有。
盡管人工智能體目前還達不到“內(nèi)在心靈”這一道德主體標準,但人工智能體與其他技術(shù)人工物存在著明顯的不同。對此,有學(xué)者主張根據(jù)智能體的能力對道德主體進行區(qū)分,在將具有完全智能能力和道德能力的人視為道德主體的同時,將具有部分智能能力和道德能力的人工智能體視為“擬”道德主體。例如,荷蘭學(xué)者布瑞(Philip Brey)提出道德主體需具備的三個條件:“(1)具備根據(jù)對和錯進行推理、判斷和行動的能力,(2)期望自己的行為遵守相應(yīng)的道德準則,(3)承擔(dān)自己行為及其后果的道德責(zé)任?!?5)⑥ P.Brey,“From Moral Agents to Moral Factors:The Structural Ethics Approach”,The Moral Status of Technical Artifacts,2014,17,pp.135-136.在他看來,這些僅限于個人道德領(lǐng)域,在個人道德領(lǐng)域之外,還存在著一個由人和技術(shù)人工物共同建構(gòu)的道德領(lǐng)域;盡管不能像法國哲學(xué)家拉圖爾(Bruno Latour)那樣,為所有參與網(wǎng)絡(luò)建構(gòu)的行動者賦予道德主體的身份,但這些行動者確實能夠在人的道德建構(gòu)中發(fā)揮重要的作用,尤其是在人與技術(shù)人工物構(gòu)成的系統(tǒng)中,技術(shù)人工物作為輔助角色參與道德建構(gòu)。布瑞對于什么樣的技術(shù)人工物可以承擔(dān)起這種輔助性角色也提出了三個標準:(1)能夠?qū)W習(xí)人類的道德原則、道德品質(zhì)和道德行為,(2)能夠?qū)θ祟惖男袨椤⑴袛嗪推焚|(zhì)進行道德評價并將其歸因為道德責(zé)任感,(3)能夠準確地判斷道德行為者的行為是否出于其自身的道德品質(zhì)和道德判斷(6)⑤ P.Brey,“From Moral Agents to Moral Factors:The Structural Ethics Approach”,The Moral Status of Technical Artifacts,2014,17,pp.135-136.。人工智能體由于能夠接受一定的道德輸入,其行為也能夠作出一定的道德解釋,可以被看作具備了某種類型的道德責(zé)任感。因此,盡管人工智能體不具有完全的道德能力,但是它具備了道德決策能力,甚至能夠通過自己的行為實現(xiàn)某種道德反饋,可以被稱為準道德主體。
與上述將心理活動、理性、自由意志等內(nèi)在心靈視為意識和道德源頭的立場不同,還有很多學(xué)者認為需要突破將道德關(guān)系局限于人與人之間的觀念,主張根據(jù)智能體的外在表現(xiàn)來判斷其行為是否屬于道德實踐。
在人工智能體的工程技術(shù)實踐領(lǐng)域,研究者堅持用行為的外在表現(xiàn)來印證意識和道德,認為道德的實現(xiàn)方式是多樣化的,人工智能體的行為只要承載著一定的道德功能,就可以被看作是道德實踐行為,人工智能體也能夠被看作是道德主體。對于人工智能體的道德身份問題,比利時技術(shù)哲學(xué)家科克爾伯格(Mark Coeckelbergh)試圖用“表象倫理”來解釋。首先,他否定了道德源于內(nèi)在心靈的必然性?!爸灰覀儼逊侨祟惖?、人工智能體的道德主體性和責(zé)任問題定義為心靈(‘他心’)問題,那么人類如何能夠以道德和負責(zé)任的方式行事也仍然是一個謎,而且我們將永遠無法從概念上掌握人類和非人類之間在道德方面已經(jīng)發(fā)生的事情。”(7)② M.Coeckelbergh,“Virtual Moral Agency,Virtual Moral Responsibility:On the Moral Significance of the Appearance,Perception,and Performance of Artificial Agents”,AI & Society,2009,24(2),pp.183,182-183.其次,他認為從內(nèi)在心靈的角度描述道德的構(gòu)成并不完整,強調(diào)只有意識和道德想象等內(nèi)在狀態(tài)才能夠預(yù)見行為產(chǎn)生的潛在后果的做法顯然排除了一切非人類行為者的道德地位,因為實踐中的技術(shù)和人工物也能夠產(chǎn)生顯而易見的道德作用,如公路上的減速帶(8)① M.Coeckelbergh,“Virtual Moral Agency,Virtual Moral Responsibility:On the Moral Significance of the Appearance,Perception,and Performance of Artificial Agents”,AI & Society,2009,24(2),pp.183,182-183.。最后,他認為即便是在哲學(xué)的討論中,意識、意向性等心理狀態(tài)也沒有定論,如有人主張意識的自然化(9)T.Bontly,“Should Intentionality be Naturalized?”,Royal Institute of Philosophy Supplements,2001,(49),pp.43-60.,有人甚至根本否定心理狀態(tài)的存在(10)P.M.Churchland,“Eliminative Materialism and Propositional Attitudes”,The Journal of Philosophy,1981,78(2),pp.67-90.。因此,科克爾伯格主張從觀察入手,以人類道德智能體的表象為標準,并將該標準投射到人工智能體的行為中,根據(jù)它們在人—機、機—機交互中的表現(xiàn)來做出道德評價和責(zé)任認定。
在這種從外在表現(xiàn)的角度闡述意識與道德關(guān)系的基礎(chǔ)上,有學(xué)者借鑒了演化心理學(xué)的研究成果,將人工智能體的發(fā)展過程與人類個體的道德成熟過程進行類比,認為既然人類的道德判斷是后天習(xí)得的,是在與環(huán)境的互動中逐漸建構(gòu)起來的,那么人工智能體也是如此,這就將道德主體的范圍擴大到人之外的人工智能體。享負盛名的意大利技術(shù)倫理學(xué)家弗洛里迪(Luciano Floridi)認為,道德判斷需要考慮語境,而且不同語境中的行為可以進行層次區(qū)分。關(guān)于這里所說的層次,弗洛里迪稱之為抽象層次(levels of abstraction,簡稱LoA),并提出了三條標準:一是互動性。通過輸入與輸出,行為者能與其環(huán)境相互作用;二是自主性。行為者能夠不受外部環(huán)境的影響來改變自己的狀態(tài),并具有與環(huán)境變化互動的能力;三是適應(yīng)性。行為者能根據(jù)輸出的變化改變行為的實現(xiàn)方式(11)⑦⑧ 〔意〕盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海:上海譯文出版社,2018年,第206-207、199、198頁。。在這三條標準中都不需要內(nèi)在的狀態(tài)作為行動的原因,行為者就能夠在環(huán)境中實時調(diào)整自己的行動。對人工智能體而言,在初級抽象層次(LoA1)上并不具備道德屬性,而在高級抽象層次(LoA2)上,其行為可以被評價為善的或惡的,并被稱為道德主體,因為LoA2符合了這樣的標準:“一種行為在道德上是可評議的,當(dāng)且僅當(dāng)它能夠?qū)е碌赖律系纳?,或者道德上的惡……一個智能體是一個道德智能體當(dāng)且僅當(dāng)它能夠?qū)嵤┑赖律峡稍u議的行為”(12)L.Floridi and J.W.Sanders,“On the Morality of Artificial Agents”,Minds and Machines,2004,14(3),p.364.,弗洛里迪還將這種被履行的道德稱為“無心靈的道德”(13)⑤⑧ 〔意〕盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海:上海譯文出版社,2018年,第206-207、199、198頁。,人工智能體在這個意義上“不但可以作為道德受動者——作為可以受到善的或惡的作用的實體——也作為道德能動者——作為可以實施善或惡的行為的實體”(14)⑤⑧ 〔意〕盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海:上海譯文出版社,2018年,第206-207、199、198頁。。
如上所述,基于“內(nèi)在心靈”或“外在表現(xiàn)”來判斷人工智能體的道德實踐,蘊含著一種決定論式的思維方式,必然導(dǎo)致針鋒相對的結(jié)論?!皟?nèi)在心靈”說堅持道德實踐的意識基礎(chǔ),認為即便人工智能體的智能再強大,也不會獲得專屬于人的“意識”,不是出于完整意識的道德行為不能被稱為真正的道德實踐;“外在表現(xiàn)”說則希望將意識科學(xué)化,堅持道德行為的可觀察性,認為既然人工智能能夠在行為中表現(xiàn)出具有意識的某些方面,那么對這些行為也就可以做出道德化的解釋,而且隨著技術(shù)的成熟,人工智能在意識和道德實踐上都能夠?qū)崿F(xiàn)完全的主體地位。
在人類認識世界和解釋世界的發(fā)展歷程中,意識長期以來被看作是“內(nèi)在的、質(zhì)的和主觀的特征”(15)〔美〕約翰·塞爾:《心靈、語言與社會》,李步樓譯,上海:上海譯文出版社,2006年,第41頁。,不可還原為物理現(xiàn)象,只為人類所獨有,所以意識也是人區(qū)別于機器的重要特征。但是以人類意識為對象進行考察,懸擱意識的這種內(nèi)在特性,通過觀察對象的行為,也可以對對象的意識作出相應(yīng)的判斷。因此,二者的針鋒相對源于判斷道德實踐的不同標準:從較為嚴格的標準看,道德實踐超越于行為者的感覺和情緒,由經(jīng)過理性判斷的道德律令來支配,道德行為要服從于理性的預(yù)設(shè);從較為寬泛的標準看,如果行為者的行為表現(xiàn)為遵守了某種外在的道德要求(如“殺人是錯誤的”),或表現(xiàn)為對審慎理由的反饋(如對懲罰的畏懼),這樣的行為也可以被認為是道德實踐??梢姡咧g的差異源于人類認識世界和解釋世界的不同立場,是可以融合的。例如,美國哲學(xué)家丹尼特(Daniel Dennett)認為人類解釋世界的角度主要有三種:物理角度、設(shè)計角度和意向角度(16)D.Dennett,The Intentional Stance,Cambridge:MIT Press,1987,pp.340-342.。物理角度從因果自然律出發(fā),依據(jù)事物所具備的物理構(gòu)成來對其做出解釋和預(yù)言,主要應(yīng)用于自然科學(xué)領(lǐng)域;設(shè)計角度依據(jù)設(shè)計時所確定的功能和機制出發(fā),在無需知曉事物的物理構(gòu)成的情況下,對輸出的現(xiàn)象作出判斷和解釋;意向角度是將對象“看作”是“意向系統(tǒng)”(intentional system),“心靈……是人們?yōu)榻忉尩男枰咏o人、歸屬于人的”(17)高新民、沈?qū)W君:《現(xiàn)代西方心靈哲學(xué)》,武漢:華中師范大學(xué)出版社,2010年,第98頁。。針對“內(nèi)在心靈”說堅持人工智能體的意向性只是人類心靈生物的立場,丹尼特認為,“人的心靈本身是人們在重構(gòu)人腦時為了方便而創(chuàng)造出來的一種人工制品”(18)B.Dahlbom,Dennett and His Critics,Oxford:Wiley-Blackwell,1993,p.12.,人工智能體只要能夠從錯誤中學(xué)習(xí),調(diào)整自己的行為,其意向性可以被視為內(nèi)在的。
無論是從“內(nèi)在心靈”還是“外在表現(xiàn)”的視角來考察人工智能體的道德實踐,都蘊含著決定論的意味,這在一定程度上遮蔽了人工智能體道德實踐關(guān)系的復(fù)雜性和不確定性。
一方面,從人類主體的角度看,意識和道德實踐是支撐人之為人的重要支點,而人類要能夠更好地運用這兩種能力,則需要科技的不斷發(fā)展來支持。近代以來的科技發(fā)展,從某種程度上說是一個“祛魅”的過程,即便是對于人類的意識和道德領(lǐng)域,人類也希望借助科技的力量進行準確的認識和操控。但是這里的認識和操控并非線性的決定,而是在實踐語境中通過互動構(gòu)建而不斷成熟的。人工智能體作為實踐語境的構(gòu)成要素之一,必然全面參與到人類意識和道德實踐的成熟過程中。
另一方面,從人工智能體的角度看,其道德實踐的目標是實現(xiàn)人工智能體的向善維度。人工智能體在“輸出”自身能量推動社會不斷進步的同時,也會接受到其他要素的“輸入”和反饋。因此,從實踐語境的角度看,人工智能體的道德實踐是在與其他語境要素的互動中逐漸形成和實現(xiàn)的,這一過程既是“智能”不斷成熟的過程,也是人工智能體在與人類、社會規(guī)制、人工非智能體、人工智能體、技術(shù)規(guī)范的互動中發(fā)揮其道德潛能從而實現(xiàn)其向善性的過程。因此,只有從互動構(gòu)建的視角出發(fā),才能在復(fù)雜的道德實踐領(lǐng)域,明確人工智能體的道德功能和角色,也才有可能助推人與人工智能體共在共生關(guān)系的實現(xiàn)。
人機互動始于通過人機界面的人機信息交流,最初使用的是按鍵、屏幕、鼠標、鍵盤等實體,現(xiàn)已轉(zhuǎn)向更為高效和自然的語音交流、手勢交互、語義分析等。但是早期的人機界面“主要是靜態(tài)的,即用戶完全控制計算機”(19)J.M.Hoc,“From Human-machine Interaction to Human-machine Cooperation”,Ergonomics,2000,43(7),p.833.,強調(diào)機器的設(shè)計應(yīng)該適應(yīng)人類的需求,即以人類的行為模式為設(shè)計理念。隨著人工智能的進步,人類與人工智能體的聯(lián)系越來越直接和深入,二者都能夠適應(yīng)復(fù)雜的現(xiàn)實環(huán)境且能夠進行適時調(diào)整,早期的靜態(tài)交互模式已經(jīng)不能適應(yīng)復(fù)雜的人工智能體道德實踐。
從一般意義上看,在不考慮人工智能體獨特性的情況下,道德實踐的互動建構(gòu)主要有三類要素組成:“社會規(guī)制、人類、技術(shù)人工物?!?20)P.Kroes,M.Franssen,I.Van de Poel and M.Ottens,“Treating Socio-technical Systems as Engineering Systems:Some Conceptual Problems”,Systems Research and Behavioral Science,2006,(6),p.803.但隨著人工智能技術(shù)的發(fā)展,如果將技術(shù)人工物納入人工智能體,則將無法對二者進行區(qū)分并凸顯人工智能體的獨特性,“傳統(tǒng)的技術(shù)人工物并不包括具有自主性、交互性和適應(yīng)性的人工智能體”(21)I.van de Poel,“Embedding Values in Artificial Intelligence(AI) Systems”,Minds and Machines,2020,(3),p.386.。因此,為了將傳統(tǒng)的技術(shù)人工物與人工智能體相區(qū)分,可稱前者為人工非智能體。由于人工智能體無法與人工非智能體一樣,直接承受社會規(guī)制的約束,需要將社會規(guī)制轉(zhuǎn)化為人工智能體能夠“聽懂、看懂”的技術(shù)規(guī)范,才能對其道德實踐發(fā)揮作用,也即是說,人工智能體需要相應(yīng)的技術(shù)規(guī)范。這樣,人工智能體道德實踐互動構(gòu)建涉及到的要素可擴展到五個方面,即社會規(guī)制、人類行為者、人工非智能體、人工智能體和技術(shù)規(guī)范。
第一,社會規(guī)制用于規(guī)范具體語境中行為者的行為,既包括成文的正式法律制度和道德規(guī)范,也包括約定俗成的規(guī)則。它有其適用的領(lǐng)域,在這些不同的領(lǐng)域也必然有與之相應(yīng)的道德價值。對于人工智能體而言,社會規(guī)制是其誕生和應(yīng)用的文化環(huán)境,規(guī)范和約束其行為。人工智能體在應(yīng)用過程中,面對新的使用意向和社會需求,會產(chǎn)生新的使用功能,從而突破舊的社會規(guī)制束縛,推動新社會規(guī)制的形成,這也為人工智能體新功能的廣泛應(yīng)用創(chuàng)造了適宜的文化環(huán)境。
第二,人類行為者在人工智能體的道德實踐中具有多個角色,是人工智能體的設(shè)計者、制造者、管理者和使用者。在人工智能體的道德實踐中,人類行為者與人工智能體之間形成的是一種意向—因果關(guān)系。人類行為者在社會規(guī)制的范圍內(nèi),通過理性能力來設(shè)計、制造人工智能體,并監(jiān)控和評估其道德實踐的運行過程和結(jié)果,將人類的價值訴求與人工智能體輸出的價值結(jié)果進行比對。如果差異較大,人類行為者將調(diào)整體現(xiàn)社會規(guī)制的價值訴求,對人工智能體及其相應(yīng)技術(shù)系統(tǒng)進行修改或重新設(shè)計。
第三,人工非智能體作為一般技術(shù)人工物,具有相應(yīng)的物理結(jié)構(gòu)和設(shè)計意向,如機械鐘表既有齒輪、彈簧等物理結(jié)構(gòu),也承載著報時的設(shè)計意向。就人工非智能體的設(shè)計意向而言,可以用物理結(jié)構(gòu)來描述,也可以用因果關(guān)系解釋其運作方式。因此,在被使用的過程中會產(chǎn)生不同的使用價值,而這種使用價值并不完全由設(shè)計意向所決定,其物理結(jié)構(gòu)還會助推人工智能體和人類使用者形成新的使用意向和新的使用功能,并推動設(shè)計意向的更新。
第四,人工智能體具有一定的自主性、交互性和適應(yīng)性,可以根據(jù)外部的輸入以及對環(huán)境的適應(yīng)來實時調(diào)整自己的行為。當(dāng)下人工智能體的行為主要取決于設(shè)計者的意圖和價值觀,在功能上遵守社會規(guī)制。實際上,根據(jù)美國計算機倫理學(xué)創(chuàng)始人摩爾(James Moor)的分層模式,道德實踐中的人工智能體可分為三個層次:一是在設(shè)計過程中被嵌入了倫理規(guī)則的隱性倫理智能體;二是顯性倫理智能體。設(shè)計者通過道義邏輯等手段將倫理規(guī)則轉(zhuǎn)換為智能體的內(nèi)置程序,就可以對其將要作出的行動進行倫理評估,以規(guī)范其作出符合倫理決策的行動;三是完備性倫理智能體。從理論上看,該形式的人工智能體已經(jīng)可以作出獨立的道德決策,因此可被看作是獨立的道德主體(22)James H.Moor,“The Nature,Importance and Difficulty of Machine Ethics”,IEEE Intelligent Systems,2006,(4),pp.18-21.。第一層次的人工智能體與一般技術(shù)人工物一樣,只能執(zhí)行設(shè)計意向或者以其物理結(jié)構(gòu)助推使用者形成新的使用意向,而不具備根據(jù)使用語境自主調(diào)整自身行為的能力。第二層次則是現(xiàn)階段人工智能體的發(fā)展現(xiàn)狀,也是人工智能體區(qū)別于其他一般技術(shù)人工物的獨特之處。這一層次的人工智能體能夠根據(jù)使用語境在一定程度上實現(xiàn)自主決策,而且隨著技術(shù)規(guī)范的不斷進展,其自主決策能力也會不斷提升。第三個層級是工程技術(shù)領(lǐng)域的終極目標,這時人工智能體將獲得完全的獨立決策能力,但這一終極目標目前只存在于理論層面,并不一定能實現(xiàn)。
第五,技術(shù)規(guī)范用于約束人工智能體的行為,是通過對社會規(guī)制進行語義轉(zhuǎn)譯、道義邏輯等技術(shù)性處理,轉(zhuǎn)換成人工智能體可以識別并分析的道德規(guī)范。目前來看,這種技術(shù)性手段主要有三種路徑:一是自上而下式的分析型進路,由設(shè)計者將價值嵌入人工智能體中;二是自下而上式的學(xué)習(xí)型進路,由人工智能體在與人類行為者、人工非智能體以及其他人工智能體的互動中習(xí)得,如顯性人工智能體;三是混合式的聯(lián)結(jié)型進路,綜合了前兩種進路的優(yōu)點,通過自上而下和自下而上式的混合來創(chuàng)建一個行為和功能上等價于人類的人工智能體,目前還處于探索之中。
從互動構(gòu)建的視角考察人工智能體的道德實踐,就是要闡明這五類要素在人工智能體的實踐過程中如何實現(xiàn)互動構(gòu)建。這五類要素要能夠在不同的實踐語境中實現(xiàn)互動的前提是,人工智能體的道德實踐需要尊重價值判斷的多元性和文化觀念的差異性,而不能局限于某種文化語境,也就是說,人工智能體雖然誕生于某種文化語境,卻要面對多元價值和文化的開放世界。在此意義上,人工智能體道德實踐的基本準則應(yīng)包容世界不同類型的文化語境和價值觀,這就要求不同的文化觀念和價值觀都能夠在人工智能體的道德實踐中得到尊重和實現(xiàn)。這一基本原則已基本達成全球共識,下一步的實踐目標是要將這些原則和共識體系轉(zhuǎn)化為能夠落實到具體應(yīng)用場景的“一套完整的監(jiān)督治理規(guī)定”(23)陳小平:《人工智能倫理體系:基礎(chǔ)架構(gòu)與關(guān)鍵問題》,《智能系統(tǒng)學(xué)報》,2019年第4期。。
人工智能體的基礎(chǔ)是算法,它被“限定在一個形式化的、離散的和算法式的世界里。人類通過語義的概念連接到那個世界?!?24)〔美〕愛德華·阿什福德·李:《柏拉圖與技術(shù)呆子》,張凱龍、馮紅譯,北京:中信出版社,2020年,第259頁。實踐語境中的道德原則、規(guī)范和訴求都必須轉(zhuǎn)化為形式化的計算機語言,它才能“看懂”、“聽懂”。看懂和聽懂只是輸入,人工智能體還需要輸出,即能夠在互動中實現(xiàn)信息交換,這就要求人工智能體具備相應(yīng)的算法,能夠?qū)⒌赖聠栴}進行符號化轉(zhuǎn)化,并通過內(nèi)在算法的運作,將輸入的內(nèi)容轉(zhuǎn)換成“善”的輸出。目前,工程技術(shù)領(lǐng)域正就其中的兩個核心問題——道德推理的邏輯規(guī)律和形式倫理對道德決策的影響方式(25)王淑慶:《面向人工智能的形式倫理及其邏輯基礎(chǔ)》,《倫理學(xué)研究》,2018年第4期?!归_積極的研究,主要采取了三種技術(shù)進路。
第一,自上而下式的進路。這一進路將實踐語境中的社會規(guī)制轉(zhuǎn)換為算法程序,將寬泛的道德準則應(yīng)用到具體的事例中:即先選取適當(dāng)?shù)牡赖聹蕜t,并對其加以分析并轉(zhuǎn)換為算法,應(yīng)用到人工智能體之中,在人工智能體面臨道德抉擇時按照輸入的道德準則進行決策。
美國塔夫茨大學(xué)的計算機科學(xué)家布里格斯(Gordon Briggs)和蘇爾茨(Matthias Scheutz)開發(fā)了一款基于道義論的DIARC/ADE認知機器人,DIARC采取的是一種分布式的組合架構(gòu)模式,綜合了認知、情感和反思等;ADE是一種動態(tài)的計算框架,允許機器人在適當(dāng)?shù)臅r候拒絕來自人類的指令。該類型的機器人具備以下條件(26)G.Briggs and M.Scheutz,“Sorry,I Can’t Do That:Developing Mechanisms to Appropriately Reject Directives in Human-robot Interactions”,Paper presented at the 2015 AAAI Fall Symposium Series.:
1.知識:我知道該怎么做X嗎?
2.能力:當(dāng)前我的身體能夠這樣做X嗎?通常我的身體能這樣做X嗎?
3.目標優(yōu)先級和時間:我現(xiàn)在能做X嗎?
4.社會的規(guī)則和義務(wù):根據(jù)我的社會規(guī)則,我有義務(wù)做X嗎?
5.規(guī)范的可允許性:X是否違背任何規(guī)范性原則?
這種讓機器人拒絕執(zhí)行非道德指令的設(shè)計思路符合道義論的邏輯。當(dāng)機器人遇到違背這些條件的指令時,它會拒絕執(zhí)行下一步的操作,即條件滿足則會執(zhí)行下一步的行為,條件不滿足則會拒絕執(zhí)行或者返回初始狀態(tài)。
美國南加州大學(xué)的學(xué)者德加尼(Morteza Dehghani)等人建模了一種道德決策的認知模式——MoralDM(Moral Decision-Making),使用第一原則推理和類比推理來完善人工智能體的道德決策。它能存儲之前的決策,以便在遇到適合的情景時直接被使用。其工作流程是這樣的:先將需要處理的事件用自然語言處理的方式轉(zhuǎn)換成機器語言,再以心理刺激形式來表征,如果分析的事件不涉及神圣的價值(sacred values),那么MoralDM就會運用功利主義決策規(guī)則,提供功利總量最大化的行動;如果MoralDM確定存在神圣的價值,那么它就以道義論的模式運行,對行動的效用變得不敏感,甚至寧可不采取行動(27)Morteza Dehghani,et al.,“MoralDM:A Computational Model of Moral Decision-making”,in Proceedings of the 30th Annual Conference of the Cognitive Science Society(CogSci),2008.。
第二,自下而上式的進路。這一進路沒有將道德理論作為人工智能體實施道德決策的預(yù)設(shè),而是采取“習(xí)得”的模式,即并不為人工智能體預(yù)置道德規(guī)則,而是讓其模擬兒童的道德習(xí)得過程,將實踐語境中的大量道德抉擇轉(zhuǎn)換為算法,讓人工智能體去學(xué)習(xí)這些道德抉擇事例,并以這種習(xí)得的道德規(guī)則來指導(dǎo)其行為。
伊朗學(xué)者霍納瓦爾(A.R.Honarvar)和卡西姆·阿加伊(N.Ghasem-Aghaee)設(shè)計的基于案例推理(CBR)的BDI智能體,即Casuist BDI(信念-愿望-意向)智能體模型(28)A.R.Honarvar and N.Ghasem-Aghaee,“Casuist BDI-Agent:A New Extended BDI Architecture with the Capability of Ethical Reasoning”,International Conference on Artificial Intelligence and Computational Intelligence,2009.,能對道德行為進行調(diào)整:智能體感知到環(huán)境并作出一個當(dāng)前狀態(tài)的表征,這些狀態(tài)由當(dāng)前智能體的信念、愿望和語境中的詳細信息所構(gòu)成;然后智能體會將當(dāng)前狀態(tài)傳遞給案例檢索器模塊,該模塊負責(zé)檢索與當(dāng)前情況相似的先前案例,如果檢索到案例,那么智能體應(yīng)該接受部分解決方案,并使其行為調(diào)整為類似于所檢索案例的解決方案部分。如果沒有檢索到案例,Casuist BDI智能體體系結(jié)構(gòu)的評估器(Case-Evaluator)將開始發(fā)揮作用;評估器會評估智能體行為的結(jié)果,并將評估結(jié)果發(fā)送到案例更新器(Case-Updater),案例更新器會創(chuàng)建新的案例,以保存案例的當(dāng)前狀態(tài),這一狀態(tài)由案例的解決方案部分中的智能體行為以及案例的結(jié)果部分中的評估所組成。
第三,混合式的進路。這一進路是前兩種進路的結(jié)合,即預(yù)先給人工智能體植入道德律令,同時還需要使其具備對后天經(jīng)驗加以總結(jié)和整合的能力,并能夠在具體的事例中習(xí)得道德規(guī)則。
澳大利亞學(xué)者馬德爾(Tamas Madl)和美國哲學(xué)家富蘭克林(Stan Franklin)設(shè)計的CareBot智能體,是一種基于LIDA,即“受限制的漸進式道德決策采用自上而下(基于顯性規(guī)則)和自下而上(基于隱性啟發(fā)式策略)的組合模式?!?29)④ T.Madl and S.Franklin,“Constrained Incrementalist Moral Decision Making for a Biologically Inspired Cognitive Architecture”,in R.Trappl(ed),A Construction Manual for Robots’ Ethical Systems,Cham:Springer,2015,pp.137,148-150.LIDA認知結(jié)構(gòu)框架為人工智能體提供了對象、人、語境、行動、處境,以及特定感受及其效價(積極的或消極的)之間的聯(lián)系,這些是在智能體的心靈中形成價值準則和行為傾向的主要構(gòu)成。
CareBot智能體的運作模式如(30)③ T.Madl and S.Franklin,“Constrained Incrementalist Moral Decision Making for a Biologically Inspired Cognitive Architecture”,in R.Trappl(ed),A Construction Manual for Robots’ Ethical Systems,Cham:Springer,2015,pp.137,148-150.:1.感覺記憶模塊會周期性識別環(huán)境;2.將識別到的信息傳遞給知覺聯(lián)合存儲器模塊(PAM),PAM節(jié)點用來表征環(huán)境中的概念或?qū)ο蟮恼Z義知識;CareBot智能體使用自身所具備的知識構(gòu)筑了當(dāng)前狀態(tài)的新模型;3.將識別的感知(已可靠識別的PAM節(jié)點,即超過特定的激活閾值)復(fù)制到工作空間中,從而構(gòu)成前意識(preconscious)工作存儲;4.注意力模塊(Attention Codelets)會在工作的空間中尋找自己關(guān)注的知覺表征并與這些表征形成結(jié)合體,這些已被關(guān)注的表征為了有意識的傳播就需要相互競爭;5.如果與內(nèi)容相關(guān)的長期記憶(瞬時情景和陳述性記憶)包含與當(dāng)前感知相關(guān)的記憶,這些記憶也將作為地域群集(local associations)被復(fù)制到全局工作空間;6.全局工作空間模塊是一種短期存儲能力,它可以使得內(nèi)容具有功能意識(31)在LIDA模型中,功能意識是用來描述全局工作空間理論的,指的是在全局工作空間中“廣播”并提供給諸如行動選擇之類的認知過程的信息,而不是僅本地可用的非意識信息。它的特點是:不對現(xiàn)象(主觀)意識做出承諾。,在競爭中占上風(fēng)的結(jié)合體會進入功能意識并幫助智能體決定下一步的行動;7.之后,有意識傳播的內(nèi)容將會被傳輸?shù)竭^程存儲模塊,滿足當(dāng)前語境的所有方案都將被激活,并根據(jù)語境的匹配程度來選擇行為方案;8.所選擇的方案還需要通過與其結(jié)果狀態(tài)匹配的目標或動力來接受自上而下的激活;9.動作選擇模塊的任務(wù)是從所有可能的方案和行動中選擇智能體可以執(zhí)行的單個相關(guān)動作。
第一,在人工智能體的設(shè)計階段,意向價值的寫入和評估是人工智能體道德實踐的基礎(chǔ),形成了人工智能體道德輸出的腳本。這一過程需要經(jīng)過概念分析、原型開發(fā)、價值引導(dǎo)預(yù)測和評估、試驗評估等環(huán)節(jié)。概念分析是對意向價值的合理性、可行性、相容性進行澄清;原型開發(fā)是將意向價值落實到人工智能體的工作機制中;價值導(dǎo)引預(yù)測和評估是對意向價值的輸出方式、效果進行預(yù)測和評估,并根據(jù)結(jié)果反饋進行方案調(diào)整、修改或確定;試驗評估是在更大范圍內(nèi)對人工智能體可能產(chǎn)生的價值效應(yīng)進行預(yù)測和評估,如可能出現(xiàn)的價值矛盾(如隱私問題、公平問題)以及如何達成價值共識框架。這里需要為共識框架的達成提供一個開放、透明、知情的協(xié)商平臺,以實現(xiàn)不同價值訴求之間的充分的表達、理解和包容,也為下一步的推廣使用創(chuàng)造適宜的社會氛圍。
第二,在人工智能體的推廣應(yīng)用階段,道德實踐過程逐漸展開,其意向價值功能的順利實現(xiàn)“必須充分考慮社會因素的影響,尤其是其規(guī)劃價值需要依據(jù)社會主流價值進行調(diào)適,增強與社會主流價值的相容性”(32)賈璐萌、程海東、王鈺:《人工智能的價值矛盾與應(yīng)對路徑探究》,《自然辯證法通訊》,2020年第8期。,而且也需要營造有利于發(fā)揮其價值調(diào)節(jié)功能的社會氛圍,如制度規(guī)范、輿論引導(dǎo)和教育塑造。制度規(guī)范是社會規(guī)制的剛性表現(xiàn),依靠的是國家強制力。制定相應(yīng)的制度可確保人工智能體的設(shè)計研發(fā)、生產(chǎn)應(yīng)用和消費使用過程符合社會主流價值觀。通過輿論引導(dǎo),一方面可正向宣傳人工智能發(fā)展的價值取向與社會主流價值之間的一致性,引導(dǎo)社會的正面評價和積極態(tài)度;另一方面可反向監(jiān)督糾正明顯偏離主流價值觀的人工智能體價值傾向,拓展人工智能體的價值實踐。教育塑造是對與人工智能體相關(guān)的決策者、設(shè)計者、建造者和使用者在價值觀上進行持續(xù)性的宣教,將社會主流價值目標融入他們的思想觀念中,以形成共同的價值選擇,從而在與人工智能體的良性互動中實現(xiàn)人工智能體道德實踐的社會化。
第三,在人工智能體的使用階段,人工智能體的道德實踐需要與使用者共同構(gòu)建,意向價值與實現(xiàn)價值在這一階段的互動中實現(xiàn)整合。意向價值是使用前的價值預(yù)想,但實現(xiàn)價值是使用者以個體化的方式進行的規(guī)劃和要求,當(dāng)然可以遵循意向價值,也可以發(fā)揮個體的創(chuàng)造性重新規(guī)劃,在日常的互動中塑造著人工智能體的個性化行為模式和道德實踐。在這個過程中,個體既要充分發(fā)揮自己的創(chuàng)造性,又要以審慎的方式建立與人工智能體的關(guān)系,對其進行符合個體自身價值訴求的改進。使用者并非僅僅接受人工智能體的意向價值,而是以此為基礎(chǔ)進行改寫,從而形成具有個人風(fēng)格的創(chuàng)造性的人工智能使用價值。人工智能體呈現(xiàn)出面向使用者群體的開放性特征,使用者群體共同為“建構(gòu)一種健康、全面n 的技術(shù)使用語境”(33)陳多聞:《技術(shù)使用的哲學(xué)研究》,沈陽:東北大學(xué)出版社,2011年,第123頁。而努力。
當(dāng)然,人工智能體的道德實踐還需要避免人類行為者對人工智能體的依賴,使其在互動構(gòu)建中保持自身的獨立性。人類行為者與人工智能體在道德實踐中是以彼此的優(yōu)勢為基礎(chǔ),在有效分工中實現(xiàn)互動的。人工智能體對技術(shù)規(guī)范的習(xí)得也是一個過程,需要在與人類行為者、人工非智能體以及其他人工智能體的互動過程中不斷推進,而技術(shù)規(guī)范在這一過程中也會越來越完善。人類行為者的優(yōu)勢在于理解、想象力等方面,當(dāng)然也有局限性,但快速成熟的人工智能體,既能夠在一定程度上彌補人類行為者的某些局限,也能夠支持人類行為者作出更準確的道德判斷。正如美國普利策獎得主馬爾科夫(John Markoff)所言,“當(dāng)機器變得足夠復(fù)雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴”(34)〔美〕約翰·馬爾科夫:《與機器人共舞》,郭雪譯,杭州:浙江人民出版社,2015年,第208頁。。人工智能體能通過學(xué)習(xí)理解人類的道德意圖,因而不能被看作是一個冷冰冰的工具,或是一個從工業(yè)領(lǐng)域走出來的奴隸,而應(yīng)被視為與人類行為者各自成就的合作伙伴。二者只有相互理解、相互學(xué)習(xí),才能共同推動道德實踐的成熟完善,在“良性互動過程中創(chuàng)造出更加美好的人類未來”(35)歐陽英:《從馬克思的異化理論看人工智能的意義》,《世界哲學(xué)》,2019年第2期。。