李 楠
隨著人工智能時代的來臨,機器倫理成為研究熱點。作為計算機、認知科學(xué)、哲學(xué)、社會心理學(xué)均有涉及的交叉學(xué)科,機器倫理研究的目的之一是使人工智能做出有道德的行為,換言之,使其行為可以得到倫理理由的支持。機器倫理在實踐上的重要性不言而喻:在自動駕駛、機器人看護等涉及人類生命安全的領(lǐng)域,隨著人工智能愈加強大,甚至有希望在新場景表現(xiàn)出自主行為,我們當然要求這些行為不僅僅是后果最優(yōu)的,而是需要合乎道德,可以被人類社會在倫理上接受。讓人工智能成為倫理行為主體,有工程技術(shù)方面的障礙,亦有理論方面的難題,而兩方面的問題又往往相互關(guān)聯(lián)。從工程設(shè)計的方向考慮,程序設(shè)計者會考慮自上而下或者自下而上的方案[1](P565),自頂向下又稱基于規(guī)則(principle based)的方案,即以某種方式將人類認可的道德準則編碼為機器可以處理的產(chǎn)生式規(guī)則(production rules),讓機器的行動方案可以考慮到倫理價值;自下而上的方案又被認為是基于實例的(case based),不預(yù)設(shè)任何理論,而是試圖通過設(shè)計滿足局部功能的模塊,進而最終產(chǎn)生符合要求的行動方案,而設(shè)計過程則通過對具體測試樣例的各種試錯和調(diào)整來推進。
在哲學(xué)家眼中,這兩個方案大致對應(yīng)了元倫理學(xué)的一般論(generalism)與特殊論(particularism)之爭[2]。我們都知道,哲學(xué)問題鮮有無異議的答案,不過,樂觀的或者更為實際的考慮恐怕是先從容易的、爭議少的地方做起來再說——先別讓機器替我們決定電車難題,給老年人端水送藥還可行。機器倫理學(xué)最重要的思想家之一和實踐先驅(qū)是M.An?derson 和S.L.Anderson(以下簡稱A&A),他們著眼于機器人醫(yī)療看護這一領(lǐng)域,設(shè)計的機器倫理系統(tǒng)使用的是基于規(guī)則的方案,倫理規(guī)則被編碼為可計算的規(guī)則,然后整合入機器人的“大腦”,最終在機器人面臨實際情景時,產(chǎn)生行動指令。
一個自然的問題是:我們?nèi)绾螞Q定哪些規(guī)則或者價值、目標被編碼為機器指令,誰或者什么說了算?機器倫理該從哪里來?
需要注意的是,基于規(guī)則并不意味著不使用案例,案例可以用于規(guī)則提取,只不過在機器人決策時直接使用的是規(guī)則而非案例。A&A 的系統(tǒng)中,規(guī)則就是基于案例的,而案例的最優(yōu)解由倫理學(xué)家的一致意見提供。Hooker 和Kim(以下簡稱H&K)則對A&A 的方式提出質(zhì)疑,并提出一種所謂“非基于直覺的”[3](P130)機器倫理,以基于道義論的規(guī)范信條為基礎(chǔ),分析其計算需求,以指導(dǎo)算法和子系統(tǒng)的設(shè)計。
H&K 認為基于專家直覺來提取倫理規(guī)則是不合理的,筆者對此立場持同情態(tài)度,然而對基于道義論的機器倫理系統(tǒng)有更多質(zhì)疑。這將會在下文具體闡述。另外,筆者認為機器倫理的“規(guī)則”應(yīng)從海量普通人的行為樣本中使用機器學(xué)習(xí)方法得出,進而得到一個最接近普通人的道德平庸的人工智能行為主體。
A&A 設(shè)計的系統(tǒng)全稱是“源于案例的基于規(guī)則的行為范式”(Case-Supported Principle-Based Behavior Paradigm)[4](P526),其表征要素有:(1)倫理相關(guān)的特征及其相關(guān)義務(wù),例如,健康是個倫理相關(guān)的正面特征,而促進健康或者使健康程度最大化則是其相關(guān)義務(wù);(2)用整數(shù)序列作為編碼的行動選項,每個數(shù)值表示該行動達成相應(yīng)義務(wù)的程度,例如,行動a1=(2,0,-1),意思是相關(guān)的義務(wù)有三項,a1對第1 項義務(wù)有+2 的效果,對第2 項義務(wù)有0效果,對第3 項義務(wù)有-1 的效果;(3)案例由兩個行動對每項義務(wù)達成程度的差異表示,例如考慮機器人給病人喂藥a1與不喂藥a2這兩個行動,在病人到了吃藥時間這個場合下,可以構(gòu)成一個正例,其中a1與a2對于促進病人康復(fù)這個義務(wù)的差異為一個正整數(shù),其取值可以與病人病的程度等其他因素相關(guān)。這些表征要素最終用于定義倫理傾向規(guī)則p(a1,a2),形式是一個析取范式u1∨u2∨…∨un,每個析取支是從案例中歸納的義務(wù)滿足差異的下界,形如ui:Δd1≥-1∧Δd2≥-4∧Δd3≥0∧Δd4≥1,假設(shè)有四項義務(wù)d1、d2、d3、d4,而這里的意思是選擇a1比a2有更多倫理價值,需要a2滿足義務(wù)d1的程度不比a1多1度,d2不多于4 度,d4不小于1 度。直觀上,每個這樣的析取支表達的是在兩個行動之間,選擇前者比后者在倫理上更合理的條件是需要在何種程度上更滿足一系列相關(guān)的義務(wù)。
從案例抽取出規(guī)則使用的是歸納邏輯的方法,特指一種基于實例的概念學(xué)習(xí)方式。每個案例都被設(shè)定為涉及兩個行為的比較,正面案例被定義為行為1 比2 更合乎道德,反之則為負面案例。具體的學(xué)習(xí)流程是從最寬容的規(guī)則出發(fā),即將析取范式中所有義務(wù)的下限設(shè)為最低,然后對每一個例子,調(diào)整各個義務(wù)的下限,使之最終與所有例子的倫理取向相符,即,對于所有的正例,規(guī)則中存在一個析取支使之為真,對于所有的負例,規(guī)則中沒有析取支使之為真。
這些技術(shù)細節(jié)并不是我們的關(guān)注重點,我們需要考慮的是這些案例或者倫理問題的答案是由誰提供的,其中涉及的倫理特征和相關(guān)義務(wù)是如何選擇的。在A&A 的系統(tǒng)中,這些都由職業(yè)倫理學(xué)家提供。A&A 寫道:“我們利用倫理學(xué)家的直覺來告訴我們,在特定義務(wù)的滿足和違反程度,以及在足夠具體的案例中哪些行動是可取的,機器學(xué)習(xí)程序從中得出一個一般的準則……我們相信,專業(yè)知識來自于對道德問題的長期深入思考。對于在倫理困境中該如何選擇,普通人不大可能有最佳判斷?!保?](P479-482)在他們及其合作者最近的理論和實踐進展中,倫理學(xué)家的直覺仍然被自動地當作一切進展的前提——“具有道德價值的自主系統(tǒng)的行為應(yīng)以明確的、通過倫理學(xué)家的共識確定的倫理原則為指導(dǎo)”[6](P337),甚至優(yōu)勢——“[另一項相關(guān)工作]沒有考慮這些優(yōu)先級的來源,而在本文中,不同行為的倫理后果之間的優(yōu)先級關(guān)系來自一系列實例,由倫理學(xué)家的判斷作為指導(dǎo)”[7](P13)??傊?xùn)練樣本反映了職業(yè)倫理學(xué)家的直覺,更準確地說,是他們的直覺中蘊含的針對特定領(lǐng)域的道德規(guī)范和倫理原則。
依賴專家的倫理直覺顯然是有爭議的,例如H&K 就提出四點批評:一是實驗哲學(xué)家發(fā)現(xiàn)人們的直覺并非總是自洽;二是即使專家的直覺也不比普通人好多少;三是機器倫理的動機不應(yīng)該只是符合人類直覺,反而應(yīng)該避免人類易犯的錯誤;四是專家直覺也會有分歧,此時機器倫理系統(tǒng)無從選擇[3](P131)。這些批評大體上可以分為兩個方面,一是對人類倫理直覺本身的自洽性的質(zhì)疑,二是對人類倫理直覺的指導(dǎo)性或者規(guī)范性的質(zhì)疑。
盡管筆者也對使用倫理學(xué)家的直覺作為機器倫理的唯一基礎(chǔ)持懷疑態(tài)度,但對于H&K 的論點卻并不完全認同。
首先,問題的關(guān)鍵,并不在于直覺是否自洽,而是,直覺來自誰?專家的直覺,或者稱為精英直覺更為妥當,如何就足以、有資格成為機器倫理系統(tǒng)的唯一依據(jù)?A&A 援引了道德哲學(xué)家羅斯(W.D.Ross)的觀點,后者認為“有思想和受過良好教育的人的道德信念是倫理學(xué)的數(shù)據(jù),就像感覺知覺是自然科學(xué)的數(shù)據(jù)一樣”[8](P41)。令人尷尬的是,對于任何一種觀念,從哲學(xué)史上找到(可以是經(jīng)過特定解讀的)支持似乎都是可能的。所以這種論證并沒有什么分量。事實上,在當代興盛的實驗哲學(xué)領(lǐng)域,對依賴于專家直覺的哲學(xué)方法論已有種種質(zhì)疑,甚至“諸多的經(jīng)驗證據(jù)表明,在涉及到直覺時,專家會犯和大眾一樣的錯誤,專家直覺并不比外行直覺優(yōu)越”[9](P100)。即使我們不踏入實驗哲學(xué)領(lǐng)域的具體紛爭,而是站在一個機器人的潛在使用者角度考慮,不難心懷疑慮:憑什么我家的機器人保姆的倫理規(guī)范要被在遙遠的某所大學(xué)政治哲學(xué)系的某幾位白人男性決定了?也許他們聰明、理性,也許在他們的語境下也是品德高尚,可是想象一下,如果這是二戰(zhàn)時期德國的納粹知識分子呢?而我又恰好是個猶太人。又或者,這是基地組織的倫理哲學(xué)家,而我又恰好是個異教徒,還崇拜偶像。
另外,人類倫理直覺本身是否有規(guī)范性,與如何設(shè)計機器倫理規(guī)則其實并不直接相關(guān)。一個人工智能的倫理行動者,是否必須能夠規(guī)避人類的錯誤?在路上行駛/行走的時候,如果我不會冒著遲到的風(fēng)險停下來幫助別人,是否非要機器做到呢?①另外,如果在某個問題上,專家尚不能達成一致,我們憑什么要求機器給出明確結(jié)果,而且這種結(jié)果怎么可能被認為是合乎倫理的,畢竟總會有一批人反對,不是嗎?因此,筆者認為,機器倫理研究的目標應(yīng)該弱化或者謙虛地表達為讓機器像個普通人一樣行事,限定在多數(shù)人能達成一致的領(lǐng)域。而不是像H&K 宣稱的,能夠比人做得更好,或者能解決人都不能達成一致的爭議。這將在下文進行更具體闡述。
H&K 主張基于康德式的道義論為機器倫理奠基,動機就是完全擺脫不靠譜的人類倫理直覺。他們使用的“道義論”是廣義上的,并非限于康德的學(xué)說,而是指通過康德式的推理得出的精確的倫理法則。首要原則就是“普遍化原則(generalization principle)”[3](P133)——行動的理由可以被理性地普遍推廣,我行動的理由必須滿足這樣的條件,即每個人都可以憑此理由同樣行事。以“為上進而無償加班到深夜”這個行為為例,假設(shè)人人都如此行事,那么就不存在誰比誰更上進了,因此這種行為動機是不理性的,采取這種行動違背普遍化原則。
H&K 還列出兩項原則,一是“尊重自主權(quán)(re?specting autonomy)”[3](P133),即自己的行為不能妨礙到別人的,特別強調(diào)對他人合理意愿、身體自由的干涉。這個原則可以由普遍化原則得出,人人互相妨礙則無行為可成功實施。另一個是“功利主義原則(utilitarian principle)”[3](P134),H&K 認為功利主義原則可以用道義論表達,該原則要求采取行動出自這樣一種理性信念,即該行動能帶來最大化的功利,而功利需是內(nèi)在善的。以此為出發(fā)點,下面的工作就是選擇合適的表征方式,將這些道德律編碼為機器指令,使其可以產(chǎn)生機器人的行動方案。具體地,H&K 使用了模態(tài)量詞邏輯對這三項規(guī)則編碼,作為機器倫理設(shè)計的起點,并宣稱這個系統(tǒng)雖然沒有完全去除人的因素,但是完全去掉了對人類道德直覺的依賴。此中技術(shù)細節(jié)并非本文關(guān)注重點。
筆者對H&K 系統(tǒng)的批評主要有兩方面。首先,它并沒有像宣稱的那樣完全脫離人類直覺;其次,道義論產(chǎn)生的行動方案是有爭議的。
首先,這些所謂的道義論原則是否真地不依賴于人類直覺?它們自然不屬于數(shù)學(xué)定理或者自然律,那么這些原則的根基在哪里?此處不想涉及哲學(xué)史上圍繞康德學(xué)說的種種爭議,亦無意涉足所謂先天/后天知識來源。我們僅考慮一下第二個原則“尊重自主”,這個原則被H&K 特意挑選出來,其實有些令人生疑,這里的自主與康德的“為自我立法”概念完全不同,反而,更強調(diào)的是不要干涉他人。事實上,H&K 后面討論的例子表明,這個原則中的自主特別適用于是否違背病人意愿讓他吃藥的例子;而這個例子恰恰也是A&A 詳細討論過的,“自主”這種倫理相關(guān)的特征,其實正是根據(jù)倫理學(xué)家的一致意見抽取和設(shè)定出來的。也許H&K 會說,通過普遍化原則指導(dǎo)下的推理過程,“尊重自主”這樣的原則就不是僅僅依賴于專家直覺或者任何人的直覺,而是有了邏輯和理性的依據(jù)。但是,概念的存在和被認可,恐怕就已經(jīng)依賴于直覺了:在古希臘,對于女性,甚至不存在讓其自主的概念。H&K 也意識到,在工程師用代碼實現(xiàn)這種系統(tǒng)時,哪些與倫理價值相關(guān)的特征被編碼、如何編碼,都依賴于人的經(jīng)驗知識和理性推斷,但他們卻宣稱這些只是客觀事實,而不是價值判斷本身。這個觀點并不可靠,因為特征選取很可能也是依賴于人類道德直覺的。病人拒絕服藥,按照道義論系統(tǒng),機器人通知其監(jiān)護人并沒有妨害病人的自主權(quán),所以在倫理上是可接受的,那么假設(shè)病人相信其監(jiān)護人給的藥品有害無益,且事實上監(jiān)護人會從病人的死亡中獲得暴利呢?這些特征是否應(yīng)該以及如何被編碼?這些決定都考驗著工程師的知識和倫理直覺。
H&K 的另一重論證似乎是,對于某個特定場景的行動選擇,合理性并不直接由專家給出(沒有標注樣本),相反,當下的結(jié)論是由機器根據(jù)規(guī)則自行推理得出的,所以人類的直覺并沒有干預(yù)機器的選擇。這種推理十分牽強。類比一下,假如我按照自己的直覺寫了一條規(guī)則“永遠不要和十二個人同席”并給了機器人編寫了這種程序,那么機器人在某次看到有十二個人的時候,就堅持不要落座,這種行為當然沒有被我當場參與或干預(yù),我甚至完全不需要知情,但是這不能說機器的這種行動方案是不依賴于人類直覺的。
另外,H&K 系統(tǒng)的缺陷還表現(xiàn)在有爭議的問題上。一個反復(fù)出現(xiàn)的例子是:病人拒絕服藥,機器人是否該通知其監(jiān)護人。而且設(shè)定在此情景中藥不是救命的,所以一次不吃不會有生命危險或重大健康隱患。據(jù)稱,倫理學(xué)家的一致意見是不通知,因為這違背了病人的自主;然而,據(jù)H&K 的道義論系統(tǒng)分析,通知監(jiān)護人并沒有違背病人的自主權(quán)??墒牵@怎么能表現(xiàn)出道義論的優(yōu)勢呢?很容易想象,A&A 可以依此說道義論給出了不正確的結(jié)論。至少,我們可以公允地說,在這個倫理問題上,存在兩種對立的意見,也許我們不應(yīng)該完全相信專家直覺,可是我們又憑什么相信機器給出的明確無疑的答案呢?存在爭議本身,恐怕就是道義論系統(tǒng)的一個缺陷,因為它沒有空間容納分歧;可是直覺,似乎總是可以得到不同的澄清和釋義。
基于專家直覺的規(guī)則和完全不用案例的道義論系統(tǒng)都不盡如人意,前者讓人質(zhì)疑為什么少數(shù)幾個人的直覺就決定了機器應(yīng)該做什么,后者又過于空泛抽象,似乎不足以反映人們在鮮活世界中的復(fù)雜決策。一個替代方案是從大量樣本中通過機器學(xué)習(xí)方法提取出規(guī)則,或者說,構(gòu)造一個能夠擬合大多數(shù)人決策的模型。但這并不是自下而上的方法,因為在預(yù)測階段,機器所使用的還是習(xí)得的規(guī)則。或許可以稱為從眾的機器倫理系統(tǒng)。
原則上,如果我們對于涉及倫理行為的廣泛場景都搜集了大量的數(shù)據(jù)作為訓(xùn)練樣本,使用機器學(xué)習(xí)或者深度學(xué)習(xí)的方法,我們總可以對多數(shù)人的行為選擇做出預(yù)測,或許,隨著模型復(fù)雜度的增加,預(yù)測的準確性也會得到提升,甚至不難設(shè)想一個幾近完美擬合手上所有樣本數(shù)據(jù)的模型。
確實,這種方案在數(shù)據(jù)采集、特征工程方面都會有實際的困難,但是這些困難都不是原則性的。一個真正的難題來自解釋性,或者在當前場景中,我們可稱為如何提取人們可以理解并接受的倫理規(guī)則。
首先我們可以盡量選擇具有可解釋性的模型,例如決策樹②這種每次分支都相當于一個規(guī)則的模型,又如基于單個特征或特征的線性變換的各種模型、樸素貝葉斯模型。而參數(shù)量巨大的模型,例如多層感知機,在這方面就具有劣勢??墒?,即使是最簡單的線性模型,假如我們發(fā)現(xiàn)其參數(shù)值不可理解或者反直覺怎么辦?舉個(可能很不現(xiàn)實的)例子,假如在電車困境中,用x1 表示因變量體重,x2 表示因變量年齡,用y 表示選擇犧牲個體的傾向,假如模型完美擬合的結(jié)果就是x1*1.2+x2*5=y怎么辦?如果非要用語言表述,那么大概可以說體重越重、年齡越長的人,就越該死來救其他人。也許我們會覺得這是不合理的,但是問題并不在于模型不具有可解釋性,而是我們不認可這個解釋,那么我們后續(xù)的工作是尋找哪里出了問題,也許是特征選擇的問題,也許是樣本的問題,也許我們的倫理規(guī)范就是這樣的,只不過我們嘴上都是偽君子而已。無論如何,模型是可以解釋的。
當然,也許我們最終選擇的效果好的模型恰恰就是目前被認為是黑盒的深度神經(jīng)網(wǎng)絡(luò),將大量的特征經(jīng)過層層線性和非線性的復(fù)雜到令人頭暈的變換,在遠超過普通人空間想象力的高維空間找到一個函數(shù)。這種函數(shù)的參數(shù)量可能達到千百萬計,不能被人理解?,F(xiàn)在效果最佳的各種巨無霸式的語言模型就是如此,而對其一大詬病就是失去了解釋性。這樣看來,如果倫理模型也是如此,那么就完全背離了機器倫理的初衷,畢竟我們本意是讓機器的行為有倫理理由的支持。但是,即使這種極不可能的情況——這個模型遠超其他所有簡單模型并且完美地預(yù)測大多數(shù)人對任意倫理場景的選擇——真地發(fā)生了,那么這種不可解釋性,一方面可以借鑒對深度神經(jīng)網(wǎng)絡(luò)可解釋性的研究成果,畢竟這已經(jīng)不是倫理模型自己的問題了;另一方面,這種完美預(yù)測本身就帶來一些合理性,或許,就是存在種種我們尚且沒有意識到的特征以人類難以用自然語言表征的方式對倫理選擇產(chǎn)生了影響,這本身也可以稱為倫理原則,只不過不是可以被人類目前的概念框架和自然語言系統(tǒng)所表征的。
更多的質(zhì)疑可能來自理論上。
(1)這種“規(guī)則”只是描述性的,不具有規(guī)范性。甚至可能有人說這是犯了“自然主義謬誤”,這是出自摩爾的著名批評,指的是從關(guān)于X 的自然屬性的任何命題中推斷出X 是好的。例如,假設(shè)愉快是一種自然屬性,有人從喝啤酒是愉快的前提下推斷出喝啤酒是好的,就應(yīng)該犯了自然主義謬誤。直觀的想法是,評價性結(jié)論至少需要一個評價性前提——關(guān)于事物自然性特征的純粹事實前提并不包含甚至支持評價性結(jié)論。
回應(yīng):在這里我們并不是為倫理原則本身尋求來自自然屬性的根據(jù),相反我們是想找到機器倫理的根據(jù),而后者最自然的來源就是我們自己遵守的規(guī)范。因而,這里的論證并不是“大多數(shù)人認為A是可欲的,所以A 是好的”,而是“大多數(shù)人認為A是好的,所以機器也可以認為A 是好的”,一個從規(guī)范性前提推導(dǎo)出規(guī)范性結(jié)論。
(2)這種機器倫理并不是我們想要的。如前所述,H&K 就持有這種看法。舉個更為極端的例子,以一群納粹分子的行為選擇為樣本,很可能得出的倫理規(guī)則蘊含殺死所有的猶太人,或者說,當猶太人全部死亡時,對所有人最有好處(按照功利主義的話)。但是,顯然,關(guān)于某個群體常態(tài)應(yīng)該是有對錯的,相反,模型只關(guān)乎擬合與否,從來不關(guān)乎善惡。而這樣的機器倫理系統(tǒng)是我們應(yīng)該避免的,即使它真實反映了一種群體倫理規(guī)范。
回應(yīng):納粹機器人的倫理原則只是從納粹群體的數(shù)據(jù)得到的,如果擴大采樣范圍,很難想象人類普遍的原則會有這種滅絕種族的價值觀。不過,我們可以假設(shè),即使這種原則算是個倫理規(guī)范,那么受審的應(yīng)該是納粹分子,或者我們自己,而不是機器人。
這種反對意見背后是對機器倫理的目的、動機的不切實際的要求,這種誤解是要求機器比人更有道德,機器看護必須是所有人心目中道德完美的行動者④。之所以說是誤解,我們可以想想到底需要什么樣的機器人。核心要求是其行為動機可被理解,并且在道德上可以被接受,也就是說是倫理上可接受的,并不是說倫理上優(yōu)越的、能成圣的。
(3)一個相關(guān)的質(zhì)疑是,這種大多數(shù)人的選擇算不上有導(dǎo)向意義的倫理原則。反對者也許會說,即使機器按照大多數(shù)人的行為行事是可以接受的,但這不等于說它不是不受譴責(zé)的,而我們需要一個能夠做出道德免責(zé)行為的機器人。畢竟,大多數(shù)人都棄路人不顧,也許機器人也可以這么干,但它如果這么干了,那么還是需要負責(zé)。在這個意義上,大多數(shù)人的選擇是沒有價值的。
回應(yīng):一個辯護是,機器人負責(zé)的程度就應(yīng)該和大多數(shù)人一樣,不應(yīng)被苛責(zé)。事實上,從眾的機器倫理恐怕恰恰是最符合實際情況的,對普通人群的倫理行為是最貼切的刻畫。一個來自實驗哲學(xué)的有趣觀察是絕大多數(shù)人都是道德平庸的,意思是“人們的目標是和周圍的人在道德水平上持平,既不要太好,也不能太壞”[10](P347)。而且,我們有理由認為,大多數(shù)人都算不上是道德敗壞的③。如果是這樣,那么機器人作為一個道德平庸的行動者,正好擁有人的道德水平,既不是圣人,也不是惡人。這樣的機器人參與人際交往、開車上路、看護老人,正如普通的你我他一樣。其行動的可解釋性來自人類群體的傾向,其合理性和可接受度最終會基于我們?nèi)绾卧u價自己的行動。
至此,我們的結(jié)論是,在理論上和原則上,從眾的規(guī)范是可以被接受的機器倫理系統(tǒng)。而令人欣慰的是,在工程實踐方面,這種想法也不是完全空想的。最近,一個有趣的嘗試由Kim et al.給出,他們使用了“Moral Machine”④收集的樣本作為訓(xùn)練數(shù)據(jù),用層級貝葉斯模型將特定人群對倫理困境的答案建模為一個功利函數(shù),關(guān)鍵設(shè)定是:個體決策是基于其個體道德原則的,而道德原則是D 維特征空間的權(quán)重值;功利值就是特征值的加權(quán)和,決定了輸出決策的概率;而個人道德原則則服從其所屬群體道德原則的正態(tài)分布。這個模型使用了很少量的樣本(樣本數(shù)量范圍從4 到128)就取得了很好的擬合效果,而且研究者認為模型預(yù)測的信度正確反映了倫理決策的困難程度[11](P199-202)。當然,這項工作的有效性是在很小的范圍內(nèi)的,比如,他們只選取了電車困境這一個特定的倫理問題,并且樣本全都來自同一個地區(qū),這似乎預(yù)設(shè)不同地區(qū)居民的群體道德規(guī)范可能是不同的。這幾位作者并沒有將自己的工作稱為機器倫理規(guī)則的設(shè)計和提取,而只是謙虛地聲稱提供了人們?nèi)绾芜M行道德選擇的描述。不過,如果這種工作可以擴展和完善,根據(jù)本文到目前為止的討論,或許我們可以說,如果機器具有了這樣的大腦,那么他已然是一個普通的道德行動者了。
假設(shè)在未來,我們得到了可以幾乎完美描述人類倫理選擇的模型,那么下一步工作可以由理論家對特征值或模型參數(shù)給出可解釋的說法,如果這些選擇恰好于某些已知的理論相符,或者可被歸約到某種價值取向,那么皆大歡喜;如果不能找到,那么最起碼我們可以說這就是最多人選擇的倫理行為,也許這不是圣人之選,但起碼也不應(yīng)受到嚴厲責(zé)備。簡言之,從眾的機器倫理系統(tǒng)最差,也和我們一樣,是道德平庸的。
[注 釋]
①此處指情境主義用來批評美德倫理學(xué)的著名心理學(xué)實驗“善良的撒馬利亞人”,其中被試被要求盡快趕到指定地點,途經(jīng)有研究者安排的需要幫助的路人,實驗結(jié)果表明多數(shù)人都不會對路人伸出援手,無論是否接受了較高的倫理道德教育。具體爭議可參見李楠(2015)[12]。
② A&A 的CPB 系統(tǒng)也使用了決策樹模型,但并不是用于提取規(guī)則,而是用于模型預(yù)測階段。
③感謝梅劍華教授提醒筆者注意這篇文章。
④感謝葉云峰教授對此處表述的指導(dǎo)。
⑤Moral Machine 是一個MIT 設(shè)計的一個網(wǎng)站https://www.moralmachine.net/hl/zh,上面有各種關(guān)于自動駕駛車輛的場景,使用眾包的方式收集用戶關(guān)于其中道德困境的選擇。感興趣的讀者可以一試。