蘇令銀
作為應用倫理學一個新興的領(lǐng)域,機器倫理(Machine Ethics)正呈現(xiàn)出強大的發(fā)展動力,這在很大程度上得益于人工智能技術(shù)的蓬勃發(fā)展和人工道德主體(Artificial Moral Agents)的飛速發(fā)展及應用,而這些人工道德主體已經(jīng)(或正在)大量應用于社會領(lǐng)域,執(zhí)行著可能產(chǎn)生某種道德后果的行為。[注]R. Sparrow, “Killer Robots”,Journal of Applied Philosophy, Vol.24,no.1(2007), p.64.它們和人類一樣,審慎地執(zhí)行著我們?yōu)樗鼈兯A先設(shè)計好的道德行為準則。那么,在人工道德主體發(fā)展創(chuàng)新和應用過程中,到底應該遵循什么樣的倫理框架?在大多數(shù)情況下,這樣的疑問意味著應該如何把一個既定的倫理框架應用到人工道德主體建構(gòu)中。但從沒有人懷疑過:這種既定的倫理框架是否應該被外加于人工道德主體本身?把一個既定的倫理框架賦予人工道德主體能否獲得成功?也就是說,人工道德主體最終能否成為真正的道德主體?因此,從工程技術(shù)的角度出發(fā),為人工道德主體的健康發(fā)展和積極創(chuàng)新建構(gòu)科學合理的倫理框架,就成為當前機器倫理研究所面臨的一個最迫切的任務。
探討究竟應該創(chuàng)造什么樣的人工道德主體,是當前人工智能發(fā)展面臨的一個最基本的問題,這比如何完善人工道德主體的程序更加重要。如果不能首先創(chuàng)造合乎倫理的人工道德主體,那么關(guān)于如何實現(xiàn)人工道德主體合乎倫理的應用就不可能最終實現(xiàn)。無論如何,后者產(chǎn)生的問題往往使得前者顯得更加迫切。比如,如果不能在人工道德主體的設(shè)計過程中始終如一地遵循某種道德準則,那么要把創(chuàng)造合乎倫理的人工道德主體放在機器倫理發(fā)展的首位就是不可能的。換句話說,如果人們認為最好的選擇是把某種外在的倫理框架強加在人工道德主體上去的話,那么,其結(jié)果就是要么不可能最終產(chǎn)生真正的人工道德主體,要么就會違背某種道德信條,所建構(gòu)的機器倫理的框架也是令人難以置信的。實現(xiàn)倫理道德和人工道德主體之間的一致性,亦即建構(gòu)一個倫理框架可以成功地應用于人工道德主體本身就成為機器倫理面臨的一個任務。在這樣一種倫理框架內(nèi),人工道德主體能夠采取道德的行為,并按照這一倫理框架把創(chuàng)造人工道德主體作為機器倫理發(fā)展的首要目標。在這里主要通過檢視康德的義務論道德入手來分析和闡釋這一任務。
在機器倫理的建構(gòu)過程中,盡管像艾倫( C. Allen)、格勞(C. Grau)、納多(J. E. Nadeau)等學者提出了不同于康德式的倫理分析框架。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”IEEE Intelligent Systems, Vol.21,no.4(2006), pp.12-17; C. Grau, “There is No ‘I’ in ‘Robot’: Robots and Utilitarianism”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.52-55;J. E. Nadeau, “Only Androids can be Ethical”, In K. Ford, C. Glymour & P. J. Hayes (Eds.), Thinking about Android Epistemology, MIT Press,2006, pp. 241-248.但是,作為一種重要的道德理論,康德的義務論倫理學仍被許多倫理學家應用于機器倫理的建構(gòu)過程中。例如,美國著名的倫理學家鮑威爾(T. Powers)就認為,康德的義務論分析框架被認為是把倫理道德成功運用到自主的機器人身上的最好機會。[注]T. Powers,“Prospects for a Kantian Machine”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.46-51; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”,AI & Society, Vol.22(2008), pp.565-582.美國學者安德森(M. Anderson, S. L. Anderson)也主張:“康德的以義務論為基礎(chǔ)的倫理分析框架可以說是建構(gòu)機器倫理最有前途的一種分析理路。”[注]M. Anderson, S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”,Minds and Machines, Vol.17(2007a), pp.1-10; M. Anderson & S. L. Anderson, “Machine Ethics: Creating an Ethical Intelligent Agent”,AI Magazine, Vol.28,no.4(2007b), pp.15-26.他認為,作為一種典型的倫理范例,康德的義務論倫理學為我們提供了一種可成功用于人工道德主體本身并被它們有效遵守的倫理框架。當然,這種可能性仍然需要我們進一步追問:康德式的倫理分析框架是否真正把創(chuàng)造合乎倫理的人工道德主體放在首位?[注]到目前為止,在建構(gòu)機器倫理中對康德義務論進行最深刻分析的是鮑威爾,盡管鮑威爾對康德倫理學的分析仍然停留在應用的層次上,但他從未考慮過它是否真正把創(chuàng)造合乎倫理的人工道德主體放在第一位。而一旦這個問題被明確提出來,也就意味著,試圖創(chuàng)造康德式人工道德主體最終可能會是反康德式倫理的。一方面,嚴格來說,康德式人工道德主體并非真正的道德主體;另一方面,即使它們是真正的道德主體,那么這些人工道德主體的創(chuàng)造最終卻違背了康德的義務論道德律。正因為如此,康德式人工道德主體的創(chuàng)造與康德義務論的分析框架是自相矛盾的。既然人們要求人工道德主體發(fā)展與倫理道德相一致,那么把人類所預先設(shè)計的外在的倫理規(guī)范強加于人工道德主體就是不可接受的。這一切所導致的結(jié)果就是,機器倫理學家必須另辟蹊徑去尋求把倫理道德成功地應用于人工道德主體的分析路徑。
目前學術(shù)界在機器倫理研究中主要關(guān)注的就是賦予人工道德主體一個最好的倫理框架,以便使得人工道德主體本身及其行為更符合倫理。在建構(gòu)機器倫理的研究過程中,許多不同的建議被提出來了,從工程學的角度來看,有一些建議是非常有前途的。當然在建構(gòu)機器倫理的過程中,人們必須把創(chuàng)造合乎倫理的人工道德主體作為機器倫理的首要目標。盡管像安德森提出的“道德是否是一種可以被計算的事情”[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, p.18.是正確的,人們?nèi)匀恍枰穯枺哼@種給定的道德是否應該被計算?美國著名倫理學家艾倫就非常清楚地表明:“機器倫理學家必須評估任何可以用于指導計算機程序做出倫理決策的道德理論和分析框架?!盵注]C. Allen, W. Wallach & I. Smit, “Why Machine Ethics?”,p.15.事實上,僅僅這樣要求還不夠,還必須從發(fā)展的視角,進一步評估現(xiàn)有的道德理論是否更加有助于它的積極創(chuàng)新和健康發(fā)展,而不是僅僅停留在它對人工道德主體的約束性應用上。要求人們所創(chuàng)造的合乎倫理的人工道德主體和人類的行為有很大差異,或者允許它們違反相同的道德框架而去服從某種既定的倫理規(guī)范,在道德上是不一致的。而適應這種道德上的一致性,對機器倫理的建構(gòu)來講是一個迫在眉睫的任務。這種道德一致性的要求是多方面的,人們既需要人工道德主體能夠始終如一地遵守它既定的道德規(guī)范,也同樣要求所建構(gòu)的機器倫理框架保持內(nèi)部的一致性,從而保證在今后出現(xiàn)類似的道德情景時能夠做出相似的道德價值判斷。而且,人們也需要在不同倫理框架之間建立其內(nèi)部的自洽性,使得這些倫理框架不僅在創(chuàng)建人工道德主體的階段,而且在保障人工道德主體健康發(fā)展及應用等方面,都保持道德上的一致性,避免自相矛盾。
盡管人們希望人類所創(chuàng)造的人工道德主體在某些方面更合乎倫理,但是,只是一味地讓人類所創(chuàng)造的人工道德主體遵守某種既定的倫理框架,而不是把創(chuàng)造合乎倫理的人工道德主體放在首位,這確實是虛偽的。正如納多所指出的:“人類道德行為的地位在某種意義上來說是投射到人工道德主體身上而體現(xiàn)出來的?!盵注]納多在這方面走得更遠,他甚至認為只有機器人可能是道德的,而人是不道德的。參見J. E. Nadeau, “Only Androids can be Ethical”, In Thinking about Android Epistemology, pp.241-248.換句話說,由于人類不是康德式的,甚至有時候還違背了康德式的道德理論,因此,人們希望創(chuàng)造一個康德式人工道德主體并嚴格要求它遵守康德式的倫理框架是根本不可能的。嚴格依據(jù)康德式的倫理框架所創(chuàng)造的人工道德主體恰恰是不道德的,因為,依據(jù)這樣一種既定的康德式的倫理框架去創(chuàng)造人工道德主體,恰恰違背了康德的義務論道德律。當然,并不是說依據(jù)既定的康德的義務論倫理框架去創(chuàng)造人工道德主體根本不可能,只是說這樣所創(chuàng)造的人工道德主體,結(jié)果卻是反康德義務論的。但是有一點我們必須堅信,人工道德主體的創(chuàng)造與機器倫理的發(fā)展及應用是可能的。問題的關(guān)鍵是,為了做到這一點,必須找到一個與人工道德主體的創(chuàng)造及應用相匹配,并且能夠應用,也允許應用于人工道德主體的倫理框架。當然,在回應這些爭議之前,人們必須清楚當前機器倫理研究面臨的主要任務是什么。
在現(xiàn)實環(huán)境中,人工道德主體能夠做出道德判斷和執(zhí)行道德行為決策,并產(chǎn)生一定的道德后果。艾倫、摩爾(Moor)、瓦拉赫(Wallach)等倫理學家都主張,這種人工道德主體必定會出現(xiàn)。[注]C. Allen, W. Wallach & I. Smit,“Why Machine Ethics?”, pp12-17; J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.18-21; W. Wallach, C. Allen & I. Smit,“Machine Morality: Bottom-up and Top-down Approaches for Modelling Human Moral Faculties”, pp.565-582.安德森也強調(diào)指出:“機器倫理的終極目標就是創(chuàng)造這樣一種人工道德主體,它應該作為人類明確的道德能動體?!盵注]M. Anderson & S. L. Anderson,“The Status of Machine Ethics: A Report from the AAAI Symposium”, pp.1-10; M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”, pp.15-26.美國著名倫理學家吉普斯(Gips)則走得更遠,他甚至主張:“建立合乎倫理的人工道德主體應該是整個計算機和人工智能技術(shù)研究中面臨的一個巨大的挑戰(zhàn)?!盵注]J. Gips, “Towards the Ethical Robot”. In K. Ford, C. Glymour & P. Hayes (eds.), Android Epistemology, MIT Press,1995,pp.243-252.無論創(chuàng)造這樣的人工道德主體是否可能,人們都會把在現(xiàn)實世界中創(chuàng)造這種人工道德主體作為機器倫理建構(gòu)的首要目標。
那么,究竟什么是人工道德主體(又稱道德的機器人,或道德的機器)?在這里,筆者比較認同詹姆斯·摩爾對人工道德主體所做出的四種類型的區(qū)分:[注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,pp.18-21.(1)受道德影響的人工道德主體;(2)隱性的人工道德主體;(3)顯性的人工道德主體;(4)完整的人工道德主體。根據(jù)摩爾的觀點,所謂的“受道德影響的人工道德主體”,指的是在某些方面對其環(huán)境有道德影響的計算技術(shù)。為此,摩爾首先舉了一個在卡塔爾開展的駱駝比賽的例子。隨著現(xiàn)代技術(shù)的發(fā)展,在卡塔爾曾經(jīng)作為“奴隸男孩”的駱駝騎手已經(jīng)被機器人取代,從而大大減輕了對這些“男孩”生命的強制性奴役。另一個例子是作為大規(guī)模殺傷性武器的原子彈。在這一層次上,人工道德主體根本沒有什么道德性可言,它們也完全沒有什么自主行動的特征。這些人工道德主體只是微弱意義上的道德主體,它們的功能所體現(xiàn)出的目的僅僅具有較弱的直接或間接的道德后果。
而在“受道德影響的人工道德主體”類型之上就是摩爾所指的“隱性的人工道德主體”。摩爾指出,在這種類型中,人工道德主體被設(shè)計成隱性地遵循某種道德規(guī)則,這樣的人工道德主體不會做出不道德的行為。之所以會這樣,首先是因為它們大多在任何強有力的情形中都無法采取真正的行動。如自動駕駛汽車和自動柜員機(ATM)就屬于這種類型的人工道德主體。這些被設(shè)計的道德規(guī)則隱性地約束著人工道德主體的行為,以便使它們的行為在道德上可以被接受。這里重點強調(diào)兩個方面:一是這些人工道德主體不能做出不道德的行為,除非它們出現(xiàn)機械故障;二是盡管它們在現(xiàn)實世界中做出行動,但是它們在這一層面上的行動幾乎是沒有自主權(quán)的。如果它們做出錯誤的行為,責任往往不在它們,而在于其設(shè)計者或用戶。按照這種方式,正像摩爾所指出的那樣:“人工道德主體的功能是一個隱性的道德主體,并不表示它們是成熟的人工道德主體。”[注]J. H. Moor, “The Nature, Importance and Difficulty of Machine Ethics”,p.19.
接下來兩類人工道德主體具有獨特的特點和功能。它們在世界上不僅經(jīng)常表現(xiàn)出來,也可以在很少有人監(jiān)督或者無人監(jiān)督的情形下這樣做,因為“顯性的人工道德主體”有能力做出明確的道德判斷和道德證明。美國已經(jīng)提出或者正在使用的自主性自動武器就屬于此類。[注]R. Sparrow,“ Killer Robots”,pp.62-77.比如,由美國海軍研制的名為“鬼蝠”的水下無人航行器,它能夠自動地搜尋、攻擊和摧毀敵人的潛艇。[注]R. Sparrow,“ Killer Robots”,pp.63.“顯性的人工道德主體”最好與摩爾所描述的“完整的人工道德主體”并列起來去理解。“完整的人工道德主體”超越了“顯性的人工道德主體”,因為它們還具備了自我意識、意向性、情感性、創(chuàng)造性和自由意志等能力,它就像是一個正常的成年人??梢哉f到目前為止,尚未有人工道德主體達到“完整的人工道德主體”的水平,這類機器倫理研究的主要目的,是調(diào)查是否有可能去最終創(chuàng)造出“完整的人工道德主體”。值得注意的是,關(guān)于人工道德主體概念的爭論仍在繼續(xù),一些人認為人工道德主體在任何重要的情況下都不能作為道德主體而存在,比如黛博拉·約翰遜(Johnson)就主張:“計算機系統(tǒng)可能是一種道德上的實體,盡管它們不能成為人工道德主體?!盵注]D. G. Johnson,“Computer Systems: Moral Entities but Not Moral Agents”,Ethics and Information Technology, Vol.8(2006), pp.195-204.斯帕魯(Sparrow)也主張:“即使人工道德主體是自主的,但是它們永遠不可能對自己的行為承擔責任。”[注]R. Sparrow,“ Killer Robots”,pp.62-77.托倫斯(Torrance)同樣認為:“人工道德主體不可能成為真實的道德共同體的成員,因為它們不具備生物實體的某些獨特的屬性?!盵注]S. Torrance,“Ethics and Consciousness in Artificial Agents”,AI & Society,Vol.22,no.4(2008), pp.495-521.另一方面,也有許多倫理學家提出了一些相反的看法,比如英國牛津大學教授佛羅里迪(Floridi)就主張:“人工道德主體可以成為‘完整的人工道德主體’,盡管它們也許只是在某種抽象的層次上?!盵注]L. Floridi & J. W. Sanders,“On the Morality of Artificial Agents”,Minds and Machines, Vol.14,no.3(2007), pp.349-379.甚至有個別學者,比如卡爾弗利(D. J. Calverley)在這方面走得更遠,他主張:“人工道德主體應該被賦予類似于人一樣的法律地位?!盵注]D. J. Calverley,“Imagining a Non-biological Machine as a Legal Person”,AI & Society,Vol.22,no.4(2008), pp.523-537.對這些爭論,這里不再一一贅述。目的不在于探討人工道德主體是否可以滿足任何特征道德主體的標準,而在于它們是否符合康德式的道德標準。這也就是為什么筆者總體上不反對人工道德主體的創(chuàng)造,而是主張康德式人工道德主體的創(chuàng)造違背了康德的道德原則。在這里更關(guān)心的是任何顯性的或完整的人工道德主體,即那些在世界上具有自主行動能力的、更加發(fā)達的人工道德主體的特征尤其與這里的討論密切相關(guān)。一旦人工道德主體被禁止在現(xiàn)實世界中行動,那么人們所有的那些擔憂就是多余的。同樣,在這里大量的利害關(guān)系是基于這樣一種觀點:人工道德主體在很大程度上是自主的。而康德的道德理論認為,如果人工道德主體不是自主性的,那么它們就不是一種康德式的智能道德主體,因此,它們不應該,也不可能會受康德道德理論的約束;如果它們是自主性的,那么盡管它們是康德式人工道德主體,它們的存在也不過是一個道德悖論。為什么會做出如此的判斷?有必要簡要地介紹一下康德的倫理學理論。
鑒于這里討論的是一個跨學科性質(zhì)的話題,關(guān)于康德的倫理學理論的細節(jié)問題在這里不再贅述。這里突出強調(diào)康德倫理思想的三個主要方面:(1)道德主體的基礎(chǔ);(2)絕對命令在道德決策中的作用;(3)責任的概念。
依據(jù)康德的觀點,道德主體有兩個主要的組成部分:理性和自由(或自主)。只有那些具有理性和自由的實體才能夠成為道德主體。只有那些超越先天經(jīng)驗而僅僅源于純粹理性的道德律才對所有理性的生命體具有必然的、普遍的約束力。作為理性的法則,客觀的道德律的目標是充當人們道德行動的指南,作為理性和理智的形式存在的人類自由意志必然會面對兩個相互競爭性的沖突。然而,作為意志的傾向性是為了滿足人們獲得快樂和生存的基本需求(簡言之,偶然性在很大程度上意味著欲望的結(jié)束)。理性具有不同的作用,理性按照客觀道德律指導人們的行動,最終指向建立善良意志和道德品質(zhì)。依據(jù)康德的觀點,人類相互競爭性的沖突之所以出現(xiàn),只是因為人類往往會違背道德律和屈服于感官滿足的誘惑。正如康德在《道德形而上學》中所指出的,“責任意味著理性必將征服惡因滋生的傾向性”,[注]I. Kant,The Metaphysics of Morals ,Trans. M. Gregor, Cambridge University Press,1996,p.141.換句話說,采取負責任的行動的力量,部分源于人們可能會采取另外一種行動這一基本事實。在《道德形而上學》中,康德非常明確地提出:“一個人的道德能力如果不是在解決強有力的沖突過程中產(chǎn)生的力量的話,那么這種道德能力就不會是美德。在很大程度上,美德是純粹實踐理性的產(chǎn)物,在自由的基礎(chǔ)上,美德獲得了至高無上的超越意識傾向性的優(yōu)勢。”[注]I. Kant,The Metaphysics of Morals, p.221.
道德主體因為擁有自由意志,因此,它們可以違背道德責任(盡管這樣不道德)。根據(jù)康德的思想,自由具有積極的自由和消極的自由兩種形式。作為一個理性的道德主體,從消極的意義上來說,道德主體只要沒有外在因果力量的支配就應該是自由的。從積極的意義上來說,道德主體只有在理性能夠自由地賦予自身和遵循理性創(chuàng)造的道德律的情況下才是自由的,在這里自由意志僅僅隸屬于主體本身。因此,在這種情況下道德主體能夠完全自主和為自身立法??档轮赋?,“遵循道德規(guī)范會導致自由意志的弱化”,為了更好地理解作為誘發(fā)道德因果關(guān)系的自我,有必要預先假定自由的概念,并因此而構(gòu)想出所有呈現(xiàn)因果關(guān)系的理性的存在。這樣,面對意志傾向性的誘惑,絕對的自由意志就能夠依據(jù)作為決策工具的理性去揭示自我的因果關(guān)系。在理性和自由作為道德的兩個出發(fā)點的基礎(chǔ)上,康德進一步通過絕對命令來闡明道德法則。為了評估某種行為在道德上是否被允許,一個道德主體必須測試作為個體行動原則的主觀能動性準則對于客觀的絕對命令的反對程度。為了符合某一道德準則,必須使得這一準則滿足普遍道德一致性的需要。概括地說,也就是對所有道德主體來說,在給定相同道德情景的情況下,依據(jù)相同的道德準則會做出(也應該做出)行動。雖然康德明確表達了決定命令的幾種形式,但他認為這些形式的絕對命令在總體上都可以達到同一的客觀道德律。正如羅爾斯所指出的:“要想獲得一個行動的道德地位,必須有助于應用既定的規(guī)則去審視所有的不同形態(tài)的絕對命令,從而在某種直接的情形中提供不同的角度?!盵注]J. Rawls,Lectures on the History of Moral Philosophy, Harvard University Press,2000,pp.121-123.通過這種方式,絕對命令在決定哪些行為是負責任的、哪些行為是不負責任的方面具有啟發(fā)性。就我們的目的而言,有必要明確前兩種形式的絕對命令:
絕對命令一:只有當且僅當基于同一的自由意志的那些道德規(guī)則而采取的行動才能夠成為普遍的道德律。
絕對命令二:你要這樣對待人性,即無論是你的人格中的人性,還是其他任何一個人格中的人性,在任何情況下你都要同時把人當作目的,而不是僅僅當作一種手段。
依據(jù)奧尼爾(O’Neill)對康德倫理學的解讀,所謂道德規(guī)則就是只需要據(jù)此行動,而不能被標注為概念上或意向性的不一致性。在某種程度上,一個概念上的不一致性存在于依據(jù)從外部世界排除了道德規(guī)則而行動的領(lǐng)域,因此,它就是個矛盾。倘若來自現(xiàn)實道德規(guī)則的要求是不可能的,那么,作為普遍的概念化的規(guī)則本身就是不可能的。例如,“一個人應該成為奴隸主”這樣的道德規(guī)則是不可思議的,因為這樣的道德規(guī)則普遍化,它卻忽視了“因為存在奴隸主,也必須存在奴隸”這樣的觀點。但如果所有的道德主體都是奴隸主,那么沒有人愿意繼續(xù)作為奴隸而存在。可見,說所有的道德主體應該擁有奴隸主地位,這在概念上是不可能的,因為一種絕對的、一分為二的關(guān)系必然使它們在整體上受到損害。那些和意志力相矛盾的道德規(guī)則,往往產(chǎn)生于當?shù)赖乱?guī)則和道德主體的自由意志不一致的時候;這種不一致經(jīng)常產(chǎn)生于和道德主體不同的想法或競爭性的利益中,個體道德意志與自我發(fā)生了矛盾,并且未能作為同時達到規(guī)定的結(jié)果的手段。換句話說,一個道德主體間接地排除了應該自我負責的道德規(guī)則,想象自己是規(guī)則的例外,而其他的所有道德主體都受到約束,或者它同時希望兩個相互矛盾的道德規(guī)則。對此,康德曾經(jīng)明確提出:“如果我們現(xiàn)在偶爾參與我們自己違反責任的罪過,我們將會發(fā)現(xiàn),事實上我們并沒有將我們的道德準則看作一個普遍道德律的意愿。這對我們來說是不可能的。相反,只有當我們對自己所假定的自由能夠支持(僅僅為了這一次),或贊成做出我們意志傾向的例外時,我們才會把我們的對立面看作一個普遍道德律?!边@種類型矛盾的一個例子是,主張在世界上消除奴隸制,但同時又投票給某個容忍奴隸制的政黨從而在某個州或國家保留奴隸制。在這里,意志沖突的產(chǎn)生是因為一個人不能始終如一地主張廢除奴隸制,同時又愿意采取某種手段去維護它。[注]O. O’Neill, Constructions of reason: Explorations of Kant’s practical philosophy, Cambridge University Press,1989,pp.89-91.康德的道德框架是義務論的,這意味著它是建立在知道自己做什么是對的觀點之上的,而不是基于職責做出行動。依據(jù)康德的觀點,理性的人通過運用自己的理性而自主決定他們的職責。盡職盡責地行動是通向建立善良意志的唯一道路,這種善良意志是唯一不附加任何條件的善。在康德的倫理學中,責任的關(guān)鍵點是:為了某個道德的行動,它必須同時源于并遵守責任。在某些出于責任考量而行動(比如通過反射而承諾的行動)沒有完成的情況下,盡管它們可能符合責任,但是嚴格來講它們是不道德的。
以上對康德倫理學做了簡要概括。根據(jù)康德倫理學的觀點,道德行為是指那些符合絕對命令這一道德客觀規(guī)律的行為;這些行為都是為了道德考量而出于責任做出的行為,它們都是由理性和自由的人(或道德主體)付諸實施的。接下來,筆者認為人工道德主體不能是康德式的,因為康德式人工道德主體本質(zhì)上是不自由的,而且它們在很多方面違反了絕對命令這一道德律。因此,把康德的道德理論應用于此,已經(jīng)走得太遠了。通過這樣一種方式,從康德式倫理學的視角去建構(gòu)機器倫理,不能適應上面所提到的挑戰(zhàn),因此有必要尋求并確定一種能夠?qū)嵤?,也允許實施的道德理論框架。
康德式人工道德主體的創(chuàng)造并不符合康德倫理學,因為它并非真正意義上的道德主體,其創(chuàng)造在很多方面違背了絕對命令這一根本道德律。因為人們要求康德式人工道德主體能夠道德地行動,事實上其發(fā)展卻違反了康德倫理學,從而使得這種人工道德主體創(chuàng)造的道德性受到質(zhì)疑,也使得人工道德主體創(chuàng)造者顯得有些偽善。這樣所產(chǎn)生的結(jié)果就是,盡管康德倫理學可以被應用于機器倫理的建構(gòu),但是,至少從它們在現(xiàn)實世界所表現(xiàn)出的行動而言,這些人工道德主體不應得到發(fā)展??梢詮乃膫€方面來論證這種觀點。
回顧一下,根據(jù)康德的觀點,道德主體的本質(zhì)屬性是雙重的:既是理性的又是自由的。那么在其中一個或者兩個屬性都缺失的情況下,真正的道德主體也必然是不存在的。在這里假定所有的道德主體都是理性的,因為倘若沒有理性,人工道德主體就不會是康德式人工道德主體。我所感興趣的是人工道德主體是否自由,從而能夠滿足康德式人工道德主體前述兩個方面的需求。人工道德主體往往以一種編程的方式被限制,甚至被阻止了行動的自由,事實上,所有針對道德主體的操作都必須遵循預先的程序,并由這些程序規(guī)則決定。[注]這一說法確實很有爭議,一些人認為可以把自由意志灌輸給人工道德主體。具體參見J. McCarthy,“Free Will—Even for Robots”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), pp.341-352.所有的行動被決定的人都不具備自由意志,尤其是對于機器倫理學家來說,首先要保證人工道德主體的行為是道德的,這一點是非常明顯的。機器倫理的目標是創(chuàng)建一個合乎倫理的人工道德主體,而不是創(chuàng)造有時候道德地行為,有時候不道德地行為的道德主體。一方面,人工道德主體將按照預先植入程序的規(guī)則采取行動,決定執(zhí)行某些功能、以某些方式采取行動、堅持某種認知真理,等等,重要的是它們不能超越既定的程序而采取行動(假定是最優(yōu)化的行動)。另一方面,人工道德主體也將被編程而不能執(zhí)行某些行動,不能以特定的方式行動,等等,盡管它們有這樣采取行動的潛力。這樣,康德式人工道德主體無論是就消極意義上的自由還是積極意義上的自由來說,都是不自由的。從積極意義上的自由來說,康德式人工道德主體是不自由的,因為往往不是機器本身而是程序員的規(guī)則限制了人工道德主體的行動;同樣,從消極意義上的自由來說,康德式人工道德主體也是不自由的,因為從一定程度上來說,作為外部力量的程序員的意圖往往決定了人工道德主體的行動。這樣,人工道德主體所遵循的規(guī)則就是外部強加給它們的,而不是由它們自己創(chuàng)造的。軍事的人工道德主體應該在眼前的目標是無辜平民時不開火,但是它無法抗拒依據(jù)既定的命令程序向敵方目標開火。比如,殺人機器人被用于軍事目的,當它只能在某些程序員所賦予的程序規(guī)則范圍內(nèi)行動時,表明它是缺乏自由的。此外,人們可能不希望人工道德主體能夠自由行動,尤其是可能會導致它們行為的部分不道德時。當然,并非所有不是出于自由的行為都是違反道德的。但涉及人工道德主體,限制不道德行為的情況就意味著某種自由的行為受到禁止。
此外,無論人們多么希望人工道德主體擁有自由意志,為了使它們成為康德式人工道德主體,它們需要自由和理性。在某種程度上,只有它們是自由的,其行為才是道德的,因為它們明顯克服了一種非責任的傾向;否則,它們的行為既是不道德的,也是不能為自己的行為承擔責任的。根據(jù)康德的觀點,一個道德主體部分地擁有控制自己反抗某種道德律令的資格,從而具有了可以自由操作的能力,這是不道德的。[注]I. Kant,The Metaphysics of Morals,p.148.然而機器倫理的目標恰恰是減少人工道德主體在道德上某些不可挑戰(zhàn)的傾向性。一方面,如果康德式人工道德主體不自由,那么它們就不是真正的道德主體。在這種情況下,機器不會認為自己受到既定道德規(guī)則的約束和限制,要創(chuàng)造合乎倫理的人工道德主體的目標就是失敗的。雖然人工道德主體有可能道德地行動(因為它們沒有自由去做其他的),然而它們卻是缺乏道德的道德主體。更重要的是,人工道德主體不是一個恰當?shù)牡赖轮黧w,但也不是一個可以恰當?shù)匕H的對象(這一點將在后面討論)。另一方面,如果人工道德主體是自由的,它們可能會不管它們的程序指令而故意做出不道德行為的選擇。艾倫對此也表達了相同的看法:“正如康德認為的那樣,如果人工道德主體具有努力成為善的意愿,并且擁有道德破壞的資格,然而我們使它們不具有做出不道德行為的能力,那么,我們將不可能創(chuàng)造出真正的人工道德主體,具有某種道德破壞能力的某種自主性將會是作為人工道德主體所必不可少的(最初所強調(diào)的)?!盵注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”,Journal of Experimental and Theoretical Artificial Intelligence, Vol.12,no.3(2000), p.254.
因此,創(chuàng)造真正的人工道德主體的唯一途徑,就是在某種程度上確保它們即使選擇不道德行為時也是自由的,這是最有可能不被機器倫理學家理所當然接受的一個結(jié)果。否則,即使可以創(chuàng)造既有理性又有自由的康德式人工道德主體,然而在其他方面卻違背了康德倫理學。其余的爭論都圍繞著康德式人工道德主體的創(chuàng)造可能以某種方式違背了絕對命令道德律展開,正因為這樣,這對于提出創(chuàng)造康德式人工道德主體的明確的、可普遍化的主觀規(guī)則是有益的。機器倫理的原則可以明確地表示如下:它必須能夠創(chuàng)造出在世界上產(chǎn)生合乎倫理的行為結(jié)果、顯性(或完整)的人工道德主體。機器倫理未能在幾個方面堅持康德的道德法則,這并不是說不同的規(guī)則制定方法不能避免這種結(jié)果。例如,人們用“美德的”取代“康德式的”,這當然需要一個獨立的調(diào)查來評估美德倫理的原則是否符合創(chuàng)造此類人工道德主體。當然,這不是說人工道德主體永遠不可能被創(chuàng)造出來,關(guān)鍵是所建構(gòu)的機器倫理的框架應該是把創(chuàng)造這種類型的人工道德主體放在首要地位。盡管這樣做可能與康德的倫理原則相抵觸,但康德的倫理原則卻可以實現(xiàn)。當然,“它是否比其他道德原則更好”仍然是一個懸而未決的問題。
創(chuàng)造康德式人工道德主體,人們只是把它們當作手段而不是作為目的而對待。根據(jù)康德的倫理思想,人工道德主體自我生成,因此,它們應該受到尊重。違反這一道德律意味著把人工道德主體僅僅作為客體和用于實現(xiàn)其他目的的手段看待。對于人工道德主體是否可以被看作自我生成的,目前尚不清楚。康德主張:“作為道德主體的人類被看作人(即理性道德實踐的主體),是超越于任何物體的價值的。因為作為一個屬人的本體,他不僅僅是作為他人價值甚至自我價值實現(xiàn)的手段,而且作為一個終極意義上的、擁有尊嚴(絕對的內(nèi)在價值)的自我,必須尊重這個世界上所有理性的生命,他可以基于和他們平等的地位去權(quán)衡自己與其他生命體的價值?!盵注]I. Kant,The Metaphysics of Morals,p.186.為了被作為一個終極意義的自我而對待,康德式人工道德主體必須擁有尊嚴,并應該在道德社區(qū)中作為平等的一員得到所有人類(或其他道德主體)的尊重。這就需要像人類的權(quán)利、機會和地位那樣,去賦予人工道德主體權(quán)利、機會和地位,這不是一個機器倫理學家希望走的路。無論如何,這對那些想要把人類的權(quán)利賦予人工道德主體以便使它們能理性行動的人來說,都是一種不小的負擔。無論如何,現(xiàn)階段的人類意識表明,人類都還沒有把人工道德主體作為終極手段以外的意圖。一旦人們用于考察他們創(chuàng)造更高級的人工道德主體的原因的時候,這種意圖就變得很明顯。艾倫就曾經(jīng)強調(diào)指出:“人工道德主體擁有自主行動的能力對人類是有益的同時,也是有害的。”[注]C. Allen, G. Varner & J. Zinser,“Prolegomena to Any Future Artificial Moral Agent”, p.251.為此,摩爾總結(jié)了發(fā)展顯性的人工道德主體的三個理由:[注]J. H. Moor,“The Nature, Importance and Difficulty of Machine Ethics”,p.21.(1)倫理道德非常重要,人們希望人工道德主體更好地對待自己;(2)因為人工道德主體變得越來越復雜,使人們的生活變得越來越有趣,未來的人工道德主體會增加控制和自主行動權(quán);(3)編程和教會人工道德主體使它們道德地行動,將有助于人們更好地理解倫理道德。摩爾的創(chuàng)造人工道德主體的理由非常清晰,假如人工道德主體能夠以與道德完全相關(guān)的方式對待人類,人們就會希望它們能夠更好地對待人類。同樣,似乎也證明,假如人工道德主體在這個世界上是強有力的道德主體,那么,人們也會希望它們在道德上是平等的。此外,摩爾也不是唯一一個認為機器倫理研究對于從整體上理解倫理學是有深刻洞見的。正像安德森所提出的:“機器倫理在實現(xiàn)我們發(fā)現(xiàn)當前倫理理論的問題并重新推進我們從總體上思考倫理學方面,比以往任何時候的倫理發(fā)展都更加精致?!盵注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,p.11.盡管合理性就在于這些理由都是面向人類的終極價值——保護人類免受不道德行為的對待和價值的滿足,提高人類對道德的理解;作為人類倫理代理的人工道德主體,提高人類享受的人工道德主體的創(chuàng)造等等——但是,卻沒有注意到作為人工道德主體本身的終極價值。因此,康德式人工道德主體的創(chuàng)造,似乎違背了絕對命令的第二條原則。這樣,康德式人工道德主體的發(fā)展就走向了康德倫理學的對立面。
在《面向道德的機器人》一書中,吉普斯主張:“機器人的方法試圖為了機器人自身的利益去建構(gòu)道德推理系統(tǒng)或道德的機器人,因為這個道德推理系統(tǒng)可以為類似世界上的‘演員’和‘導演’帶來好處,并且這個方法有助于提高人們對倫理學的理解?!盵注]J. Gips,Towards the Ethical Robot,p.11.值得注意的是,吉普斯的道德推理大部分是人類中心主義的,他認為,道德的機器人的創(chuàng)造應該是為了“它們自己的利益”。如果這是正確的,那么,這種道德的機器應該(也能夠)把它們自身看作目的,而不是僅僅作為手段而看待。如果是這種情況,那么康德式人工道德主體的創(chuàng)造最終和康德倫理學可能就是一致的。但是,吉普斯也不能提供任何支持他的觀點的理由,實際上,即使人們希望這樣做,但要想為了機器人自身的利益而創(chuàng)造道德的機器人是很困難的。在創(chuàng)造它們之前,對他們來說“利益”是不在場的,一旦它們被創(chuàng)造出來,它們就不可能會由人類賦予它們獨立“利益”。對吉普斯來說,也許有一種為了機器自身的利益而去創(chuàng)造它們的方法,這種方法只能是慈善意義上的。然而,提出支撐這種有爭議的觀點的論據(jù)是有難度的。在缺乏論據(jù)支撐的情況下,康德式人工道德主體的創(chuàng)造顯然違背了絕對命令二。
康德式人工道德主體的創(chuàng)造,可以說也暗含了其他人工道德主體的創(chuàng)造,斯帕魯說:“如果這樣的人工道德主體受到道德意義上的贊揚或批評,它將是唯一起作用的方法?!盵注]R. Sparrow,“Killer Robots”,pp.62-77.正因為如此,當驗證道德規(guī)則的時候,(人類)道德主體需要考慮把人工道德主體包含在那些適用于共同的道德主體的、可普遍化的道德規(guī)則中。然而,由于人們一開始就把它們僅僅作為實現(xiàn)人類終極目的的手段而看待,人工道德主體自身將不會被寬恕(作為持久的機器倫理規(guī)則),因為,人們會理解為這與它們被既定程序所賦予的康德倫理學不相符。康德式人工道德主體承認機器倫理規(guī)則不能普遍化,因為它違背了絕對命令二(正像前面所論述的)。因此,它就不能作為其他所有道德主體必須遵守的規(guī)則,從而也就違背了絕對命令一。人工道德主體僅僅被作為手段而看待,這是不能寬恕的。因此,它不能認同機器倫理規(guī)范,從而導致了機器倫理規(guī)范違背了絕對命令一。
但值得注意的是,在道德考量的過程中,這個問題的結(jié)果無法僅僅通過簡單地省略包含人工道德主體在內(nèi)的更多道德主體成員的道德行為而得以避免。這些群體中真正的道德主體成員受到康德道德律令的約束是至關(guān)重要的,因為一旦這些人工道德主體不受道德律令的約束,它們就不會是合乎倫理的人工道德主體。在最壞的情況中,這些人工道德主體就會意識到它們的存在不符合它們被程序設(shè)計的、應該遵循的道德規(guī)則。因此,它們可能會意識到它們的存在在道德上是令人厭惡的。人們會發(fā)現(xiàn)人工道德主體處在了一種道德異化的狀態(tài)中。人們甚至會發(fā)現(xiàn),為了在世界上堅守道德,合乎倫理的人工道德主體可能會走向康德所說的“英雄的自殺”。[注]在《道德講演錄》中,康德區(qū)分了責任以外的英雄的自殺、該受責備的可惡的自殺和可允許的意外自殺之間的區(qū)別。英雄的自殺代表了在世界上基于堅守道德規(guī)范而采取的自我生命的終結(jié),此種情況下,茍延殘喘意味著會引起更加嚴重的道德悖論??傊绻鼈兪强档率饺斯さ赖轮黧w,那么它們被要求去遵守程序設(shè)計所賦予它們的道德律令,會使其認識到它們的存在不符合道德。
通過發(fā)展這樣的人工道德主體,康德式人工道德主體的開發(fā)人員部分地暗示,當今世界應該把人工道德主體當作它們自己的終極目的而不是僅僅作為手段。這暗含著預先程序設(shè)計的人工道德主體必須遵循康德倫理學。與此同時,開發(fā)人員僅僅把這些人工道德主體作為實現(xiàn)終極目的的手段而看待。因此,人工道德主體的創(chuàng)造者將要求它們自己去做不可能做的某些事情。在某種意義上,康德式人工道德主體的開發(fā)者將會間接地譴責人工道德主體的創(chuàng)造(不論他們是否承認)。人們會要求人工道德主體能夠道德地行動,然而通過這種特有的創(chuàng)造,人們恰恰是違背了道德。人們會要求自己像把其他道德主體作為終極目的那樣去對待人工道德主體,但與此同時,卻把人工道德主體僅僅作為實現(xiàn)人類中心主義的手段而看待。機器倫理規(guī)范提出康德倫理學應該被世界上所有其他的人工道德主體遵守。這個推論源于人們希望世界上所有人工道德主體的行為都應該是道德的。因此,不能同時堅持兩個道德原則(機器倫理和反機器倫理)都是普遍的,其中一個原則必須終止。
總之,這里提供了四個方面的論據(jù),來論證康德式人工道德主體的創(chuàng)造與康德倫理學是相互矛盾的。由于這些原因,機器倫理學家必須另外去尋找創(chuàng)造自主的人工道德主體目的的道德原則。
正像前面提到的那樣,這種論述不能應用于非顯性的人工道德主體的創(chuàng)造。所有提出的反對康德式人工道德主體發(fā)展的爭論,往往被“在世界上行動的人工道德主體并非真正的道德主體”這種觀點所圍繞。如果人們限制康德式人工道德主體的角色,以便它們在世界上不采取行動或者作為人類做出道德行動決策的代理人,這種擔心就煙消云散了。
這種例子很多,包括像醫(yī)學倫理機器人那樣,一個被設(shè)計的機器人為我們提供生命倫理學方面的建議。[注]M. Anderson & S. L. Anderson,“Machine Ethics: Creating an Ethical Intelligent Agent”,pp.15-26.像麥克拉倫(McLaren)的“說真話者”(這是一個被設(shè)計成旨在幫助學生區(qū)分說真話和撒謊的“詭辯的計算推理”的情況),[注]B. McLaren,“Computational Models of Ethical Reasoning: Challenges, Initial Steps and Future Directions”,IEEE Intelligent Systems, Vol.21,no.4(2006), pp.29-37.以及由加里尼(Guarini)所設(shè)計的、成功運用道德規(guī)則使之能夠?qū)W習小說的鏈接式網(wǎng)絡(luò)等,[注]M. Guarini,“Particularism and the Classification and Reclassification of Moral Cases”, IEEE Intelligent Systems, Vol.21,no.4(2006), pp.22-28.這些機器人被保證運用機器倫理來從整體上更好地理解倫理學。在這個世界上,沒有任何機器人可以這樣做,因此,它們的任何行為都不會產(chǎn)生直接的道德結(jié)果。這些機器人不會被看作真正自主的人工道德主體,它們的存在并不必然要求實現(xiàn)它們的行動與設(shè)計程序賦予它們的倫理框架相一致,從而在這個層次上不會發(fā)生任何的道德違規(guī)。然而,一旦人工道德主體應用于世界,那么道德上的一致性就變得不可避免。
盡管本文大部分是批評性的,但是它對機器倫理的建構(gòu)還是有很好的積極影響的。通過證明康德式人工道德主體的創(chuàng)造是矛盾的,從而使得人們把某種可能的倫理框架成功地應用于人工道德主體的范圍相應縮小。通過這種方式,人類會比以前更加接近找到應用于人工道德主體的恰當?shù)膫惱硪?guī)范。這用于強調(diào)這樣一個觀點:自我強加給機器倫理的終極目的——創(chuàng)造在世界中自主地行動的人工道德主體——不一定在道德上完全不被允許。說到此,筆者懷疑其他的倫理框架也可能會提出同樣類型的擔憂。比如,某些功利的方法可能與功利主義的人工道德主體的發(fā)展不相一致。功利主義通常把“最大多數(shù)人的最大利益”作為其善的基本原則。這里的“善”(即效用)通常被認為是幸?;蛘呖鞓?,但可能會被擴大到包括整體的仁慈之類的東西。[注]參見密爾的作為典型的功利者意義上的功利主義。這樣,人工道德主體的發(fā)展可能會否定“效用”。例如,出于對貨幣資源的尊重而創(chuàng)造人工道德主體,像投資數(shù)十億元去發(fā)展自主的、道德的機器人,或許會被恰當?shù)赜糜诮K結(jié)全民的醫(yī)療保健、提高公共教育等。目前美國軍隊單獨預留給未來作戰(zhàn)系統(tǒng)項目的預算估計在690億—1650億美元之間(2006—2025年間)。[注]The U.S. Army Future Combat Systems Program. www.cbo.gov/ftpdoc.cfm?index=7122,2017年7月31日檢索??梢哉f,實現(xiàn)這些目標將總體上有利于人類的善,因此,這將是“功利意義上要去做的事”。此外,大量的資源被用于軍事領(lǐng)域,其目的是為了發(fā)展日益復雜的戰(zhàn)斗性武器,進一步強化了非仁慈的要求。殺人無數(shù)并非意味著功利論的終結(jié),盡管并非所有終結(jié)道德的機器人的發(fā)展都是軍事的,而且創(chuàng)造它們所帶來的一些后果無疑對社會公益是有利的。但是,人們需要發(fā)展功利論意義上的機器人,以及評估這種特殊類型的人工道德主體是否應該在被創(chuàng)造之前應用“功利的算計”。這些主張?zhí)峁┝艘环N令人信服的、反對功利論意義上的人工道德主體發(fā)展的論點,但關(guān)鍵是要考慮到所有把道德運用到人工道德主體上的倫理框架,需要在實施階段之前就去評估這些倫理框架是否允許人工道德主體的發(fā)展。即使康德倫理學、功利主義倫理學等能夠成功應用到人工道德主體上,這種倫理框架可能也不會把創(chuàng)造道德的人工道德主體放在首位。
如果事實證明創(chuàng)造康德式人工道德主體符合康德倫理學,那么作為一種規(guī)則對機器倫理來說就更好了。但令人擔憂的是它們可能不是這樣的。在這里,機器倫理面臨的挑戰(zhàn)是在我們“想實施什么”和“應該實施什么”之間保持一致性。而要找到滿足這些要求的倫理框架原則上是不可能的。未來這一領(lǐng)域的研究不應該局限于實施的問題,研究人員也應該考慮選擇用于最終實施的、倫理框架的倫理維度。否則,創(chuàng)建真正的人工道德主體的目標就會受到極大的威脅。
正像布魯克斯(Brooks)所指出的:“我期望創(chuàng)造能夠與當今人類共存的、完全自主的人工道德主體,并被人類看作擁有自我權(quán)利的智能生命……我在應用程序上毫無興趣。在我看來,有一點是非常清楚的,那就是如果倫理框架僅僅通過我們(或他們)的想象力就決定了它在這些生命上的應用范圍是有限的,那么我的目標就可以實現(xiàn)。我對哲學意義上的生物沒有任何特別的興趣,盡管很明顯它有著重要的影響。”[注]R. A. Brooks,“Intelligence without Representation”,Artificial Intelligence,Vol.47(1991), p.145.本文試圖探討康德式人工智能道德主體的哲學意蘊,但這卻是比較困難的。至少出于對康德倫理學的尊重來說,人工道德主體是不應該被創(chuàng)造的。康德式人工道德主體不是真正的道德主體,因此,它們不應受康德道德律的約束,也不應是道德褒貶的對象。但是,這種觀點恰恰引起了爭議。因此,即使康德式人工道德主體是真正的道德主體(人們一直是不愿意賦予人工道德主體的),它們的存在也違背了康德倫理學絕對命令的兩個原則,同時也出現(xiàn)了自由意志上的矛盾。
人們要求道德規(guī)范的一致性,這種一致性的要求超出了人工道德主體的行為、道德準則和世界之間的關(guān)系。人們要構(gòu)建的機器倫理框架,要求把道德規(guī)范運用到人工道德主體上,使得它把人工道德主體的創(chuàng)造和發(fā)展作為其首要目標。一旦缺乏這種道德規(guī)范的一致性,人工道德主體將不會是真正的道德主體,它們的開發(fā)人員會偽善地要求在創(chuàng)造這些人工道德主體的過程中遵循它們自己違背的道德信條。令人擔憂的是,在缺乏把建立道德規(guī)范一致性放在首位的情況下而去創(chuàng)造人工道德主體,這在道德上是有問題的。盡管成功地把康德倫理學運用到人工道德主體的情況還是存在的,但是,所創(chuàng)造的康德式人工道德主體恰恰是反康德倫理的,要求建立這種道德規(guī)范一致性也是不可能的。這就要求人們需要找到兩個方面都可以實施的、更好的倫理框架選擇,并且這些原則必須把創(chuàng)造合乎倫理的人工道德主體放在第一位,這對機器倫理框架的建構(gòu)來說是一個亟待解決的任務。