顏青山
摘 要: 人工智能的道德地位問題是一個(gè)真正新的道德難題。解決這個(gè)難題將涉及既有的“他心難題”和其變種“機(jī)心難題”?,F(xiàn)有解決他心難題的諸方案中,類比推論、最佳說明理論和判據(jù)論都遇到了各自難以克服的困難。改造“態(tài)度方案”,可以得到純粹態(tài)度-推論消除的方案:以純粹態(tài)度方式直接經(jīng)驗(yàn)他心,但以推論排除無心靈實(shí)體確認(rèn)他心。然而,這個(gè)方案對(duì)人工智能的機(jī)心難題是失效的,間接推論無法將那些通過了圖靈測試但并不具有心靈能力的人工智能排除出去,由此也就無法確認(rèn)任何有心靈的人工智能實(shí)體?!皺C(jī)心難題”作為一個(gè)元倫理學(xué)或道德形而上學(xué)問題,可以在規(guī)范倫理學(xué)的層次上回避或繞過。大致在康德倫理學(xué)的范圍內(nèi),在確立關(guān)于手段或工具的諸位倫理學(xué)規(guī)則之后,我們可以根據(jù)人格倫理學(xué)和手段倫理學(xué)的規(guī)則確立如下對(duì)待人工智能的“選言命令式”。一個(gè)實(shí)體及其運(yùn)行,要么冒犯了人,要么尊重了人。應(yīng)該將一個(gè)冒犯人的實(shí)體看作既非目的也非手段的實(shí)體:當(dāng)它是心靈實(shí)體時(shí),限制其自由;當(dāng)它是非心靈實(shí)體時(shí)中止其運(yùn)行。應(yīng)當(dāng)尊重一個(gè)尊重你的實(shí)體的運(yùn)行規(guī)則:當(dāng)它是心靈實(shí)體時(shí),尊重其本身;當(dāng)它是一個(gè)非心靈實(shí)體時(shí),尊重制造它的人。
關(guān)鍵詞: 人工智能;他心難題;機(jī)心難題;手段倫理學(xué);選言命令式
中圖分類號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):0257-5833(2018)12-0110-11
最近幾年,人工智能在實(shí)際應(yīng)用方面產(chǎn)生了引人注目的成果,例如AlphaGo對(duì)圍棋高手的決定性勝利,由此,關(guān)于人工智能的倫理討論突然變得興奮起來。顯而易見的問題是,我們是否應(yīng)該限制某些人工智能的技術(shù)發(fā)展以防止其超越人類,并反過來控制人類?
這是一個(gè)相當(dāng)技術(shù)性的倫理學(xué)討論,但并不是一個(gè)新的倫理問題,猶如任何其他技術(shù)的發(fā)展所產(chǎn)生的倫理問題一樣。翟振明對(duì)此問題的回答是,如果人工智能是機(jī)器,那么它就是工具,我們應(yīng)當(dāng)以對(duì)待工具的方式對(duì)待它;如果人工智能已經(jīng)是人,那么我們就應(yīng)該以對(duì)待人的方式對(duì)待它;如果人工智能還只是機(jī)器卻“控制”了人類,應(yīng)當(dāng)被視作事故 。
目前尚未深入展開但人們實(shí)際上更為擔(dān)心的問題是,如果人工智能已經(jīng)是人,并有可能控制人類的時(shí)候,我們?cè)撛趺崔k?許多禁止人工智能發(fā)展到總體上超過人類能力的倫理建議,最終的擔(dān)憂可能都來自于此。
這個(gè)問題的答案也許并不復(fù)雜。如果人工智能真的已經(jīng)是人,并且有可能控制人類,那么人類就應(yīng)該同它們展開談判,制定相處的規(guī)范和準(zhǔn)則,就像一個(gè)弱國與強(qiáng)國之間達(dá)成協(xié)議一樣。如果不幸的事情發(fā)生,即我們無法與之達(dá)成協(xié)議,那么我們就只好制造能力更強(qiáng)大但確定不是人類的人工智能與之戰(zhàn)斗——這在邏輯上是可能的。即使在此情況下,人工智能并沒有產(chǎn)生全新的道德難題,這與基于傳統(tǒng)道德難題的政治沖突并沒有本質(zhì)區(qū)別。
一、人工智能向倫理學(xué)提出的全新難題
如果人工智能造成了如上述科幻般設(shè)想的困境,當(dāng)然是一個(gè)嚴(yán)重的實(shí)踐問題。因此,即使理論上不是新的問題,對(duì)可能的實(shí)際情況作出研究和防范,仍然具有實(shí)踐重要性,例如,像一些技術(shù)化研究者設(shè)想的那樣如何在人工智能的程序中嵌入合道德的算法或程序。只是這樣的問題不是本文關(guān)注的目標(biāo),本文的主要旨趣在于更基本的理論問題。
對(duì)本文而言,根本的問題在于,我們?nèi)绾未_定人工智能已經(jīng)是人,如果我們?cè)谠瓌t上無法確定人工智能是人,而它的行為又表現(xiàn)得非常像人,那我們將如何與之相處?這個(gè)問題涉及人工智能的道德地位問題。
現(xiàn)有的主流道德哲學(xué)規(guī)范,無論是功利主義(或后果論),還是義務(wù)論(或道義論),都是處理人與人的關(guān)系的,前者強(qiáng)調(diào)最大多數(shù)人的最大利益或幸福,后者強(qiáng)調(diào)不能將人僅僅作為手段。這些倫理規(guī)范運(yùn)用的前提是:我們有能力確定什么樣的主體是人,或者說,它們都假定了處于道德關(guān)系中的主體是具有人格的。
誠然,人格認(rèn)定或其假定如何可能的問題并不是規(guī)范倫理學(xué)的任務(wù),規(guī)范倫理學(xué)的任務(wù)只是論證或辯護(hù)規(guī)范的合理性。這種認(rèn)定和假定之可能性的討論屬于元倫理學(xué)或道德形而上學(xué)的范疇,它并不直接相關(guān)于規(guī)范,而是相關(guān)于規(guī)范成為可能的條件。
人工智能是否是人的問題雖然更理論化,但決不是一個(gè)與實(shí)際事務(wù)無關(guān)而只滿足理智好奇心的純思辨問題,如果人工智能真的已經(jīng)接近人類,其緊迫性將會(huì)突顯出來。其相關(guān)于規(guī)范成為可能的條件,可以以如下方式關(guān)聯(lián)于現(xiàn)存規(guī)范性原則。
對(duì)后果論者來說,它關(guān)注的是最大多數(shù)人的最大效用,這里關(guān)注的主體是人。誠然,根據(jù)后果論,如果你是最大多數(shù)人之外的那些少數(shù)人,你的效用是可以不考慮的,甚至是可以犧牲的,假如人工智能不是人,我們就沒有必要考慮它的效用。但是,如果人工智能本身也是人,那么,我們就得公允地考慮它是否可以納入最大多數(shù)人之列。一般而言,人工智能創(chuàng)造的效用能力總是要大于人的,后果論或功利主義在此將面臨一個(gè)兩難:根據(jù)最大效用原則,對(duì)某一行動(dòng)的效用配置而言,作為人的人工智能應(yīng)該優(yōu)先被考慮入最大多數(shù)人的行列,而那些設(shè)計(jì)和制造出人工智能的人恰恰可能被排除在外。看起來,功利主義者似乎極有理由擔(dān)憂人工智能成為人;但從效用最大化的角度又似乎更有理由擁抱人工智能。
對(duì)義務(wù)論來說,按照其經(jīng)典的教條,必須始終把人看作目的而不僅僅是手段。如果人工智能不是人,那就只能作為手段,但如果是人,就必須作為目的。因?yàn)榻?jīng)典義務(wù)論并沒有考慮程度或量的問題,似乎情況要比后果論簡單明了。這也是我們后面尋求規(guī)范性解決方案時(shí)首選義務(wù)論的理由之一。
既然我們討論的是人工智能是否具有人格的問題,那么,那些在生活和生產(chǎn)中解決特定任務(wù)的人工智能所產(chǎn)生的倫理問題就不在我們的討論范圍內(nèi),我們要討論的是類人人工智能,即,僅僅憑一般直覺(甚至是現(xiàn)有的某些測試技術(shù)標(biāo)準(zhǔn))無法將其同人區(qū)分開來的人工智能。
倫理規(guī)范運(yùn)用的主體是具有人格的主體,而這樣的主體一個(gè)必要的特征便是,它應(yīng)當(dāng)具有心靈。因此,如何確定行為上類似人的人工智能已經(jīng)是人,理論上需要面對(duì)或克服兩個(gè)著名的與心靈有關(guān)的哲學(xué)困難:他心難題和圖靈測試的失效。
這兩個(gè)問題可以以如下方式同人工智能聯(lián)系起來:
第一,假如我們可以憑直接經(jīng)驗(yàn)確定我們自己有心靈,那么,我們?nèi)绾未_定自己以外的他人具有心靈?如果我們不能確定他人有心靈,我們也就無法確定人工智能有心靈,即使人工智能表現(xiàn)得同我們無法區(qū)分,我們也無法確定其是否有心靈。
第二,如果我們能夠通過某種方式確定他人有心靈,我們是否能夠確定一個(gè)與人的行為無法區(qū)分的人工智能有心靈?根據(jù)塞爾對(duì)圖靈測試的反駁,一個(gè)其行為與人類不可區(qū)分的人工智能很可能是沒有心靈的,因?yàn)樗狈斫饽芰Α?/p>
這兩個(gè)問題是不同程度的懷疑論問題,第一個(gè)問題是強(qiáng)懷疑論的,即我們是否可以確定他人有心靈;第二個(gè)問題是弱懷疑論的,即如果我們可以確定他人有心靈,我們能否因此確定人工智能有心靈。
為了在文字上有所區(qū)別,我們可以參照前者所稱的“他心難題”,將后者稱為“它心難題”,因?yàn)檫@個(gè)“它”主要指機(jī)器,且為了在語音上有所區(qū)別,我們可以稱后者為“機(jī)心”難題。如果說人工智能有新的道德難題的話,那么“機(jī)心難題”這樣一個(gè)元倫理學(xué)問題就算得上是一個(gè)新的問題。
不過,這個(gè)問題的新穎之處是有條件的:傳統(tǒng)道德哲學(xué)也有他心難題,但由哲學(xué)家已經(jīng)給出的方案或人們的日常直覺可以基本上解決這樣的困難,因此,如果傳統(tǒng)的他心難題解決方案適合于機(jī)心難題的解決,那么,這里就沒有新的難題;但如果傳統(tǒng)他心難題的解決方案不適應(yīng)于機(jī)心難題,那么,機(jī)心難題將構(gòu)成一個(gè)新的道德難題。
我們后面的論證將表明,傳統(tǒng)解決他心難題的方案不能直接解決機(jī)心難題,也就是說,人工智能的道德地位問題,不能直接由解決他心難題的既有方案來得到解決。另一方面,機(jī)心難題雖然對(duì)心靈哲學(xué)不是一個(gè)新的難題,但目前心靈哲學(xué)卻無法解決這個(gè)問題,但如果我們引進(jìn)某種道德哲學(xué)的規(guī)范性原則,這個(gè)問題卻是有希望得到解決的,因此,對(duì)道德哲學(xué)而言,機(jī)心難題將是一個(gè)全新的問題。
解決上述問題貌似有一個(gè)更強(qiáng)的懷疑論策略,我們可以稱為徹底懷疑論,即我們根本沒有心靈。既然“我”本人沒有心靈,他人和人工智能也沒有心靈,也因此,他人或人工智能是否有心靈的問題是一個(gè)假問題。這種解決方案也是賴爾式行為主義的核心觀點(diǎn) 。
然而,即使這種強(qiáng)行為主義的解決方案在形而上學(xué)上是經(jīng)濟(jì)的,但在道德哲學(xué)上卻于事無補(bǔ),也不可接受。因?yàn)?,它要么意味著我們的道德?guī)范應(yīng)該擴(kuò)展到世界上所有沒有心靈能力的存在物上,要么我們因?yàn)槿狈ψ杂梢庵荆ㄐ撵`)而無須承擔(dān)道德責(zé)任,即道德規(guī)范不可能。在本文的討論中,道德規(guī)范的存在性和可能性將作為一個(gè)先天基礎(chǔ)或預(yù)先的承諾被接受下來,也就是說,我們將拒絕任何懷疑人類心靈之存在性的方案,即使我們接受,人類心靈之不存在可以作為一個(gè)發(fā)生學(xué)的起點(diǎn)。
二、他心難題及其解決方案
在日常直覺中,我們知道自己擁有感知、信念、希望、愿望,也能夠作出判斷,它們的內(nèi)容構(gòu)成思想或命題,這就是我們的心靈。我們對(duì)自己擁有心靈的知識(shí)是直接的,不需要推論,甚至也不需要內(nèi)省。但是,我們不太可能直接擁有他人的感知、信念、希望、愿望或判斷,因此,我們不可能直接知道他人有心靈。關(guān)于他人的心靈,我們只能從行為的類似性推斷出來。他心難題的全部困難就在于這種非對(duì)稱性,我們似乎總是直接知道自己有心靈,而間接獲知(推論)他人有心靈 。
目前解決這一難題的方式主要有三種方案:類比推論、最佳說明和判據(jù)論。
密爾(S. T. Mill)是類比推論(Analogical Inference)的創(chuàng)始者,密爾原本關(guān)注的是心靈與行為之間的因果關(guān)聯(lián)。我的行為作為結(jié)果,必定由其他原因引起,根據(jù)笛卡兒的二元論,這個(gè)原因只能是我的心靈,這是我能夠覺察到的;同樣地,他人也有作為結(jié)果的行為,那么,他的行為也只能由他的心靈狀態(tài)引起,雖然我不能直接觀察到這個(gè)原因。
對(duì)類比推論的重大挑戰(zhàn)出現(xiàn)于20世紀(jì)中葉,維特根斯坦反駁私人語言的論證使得他心問題成為分析哲學(xué)的一個(gè)焦點(diǎn),私人語言的失效也就意味著他心類比推論的困難。不過對(duì)類比論證作出明晰反駁的是賴爾,他作出了兩點(diǎn)相當(dāng)有力的反駁:第一,他心類比無法檢驗(yàn),我不可能經(jīng)驗(yàn)他人的內(nèi)在狀態(tài),這在邏輯上是原則性的;第二,這個(gè)類比基于歸納的一般化,但只有一個(gè)樣本即我的心靈,這在推理上是不可接受的。賴爾本人采取的策略是徹底懷疑論的,即否認(rèn)笛卡兒幽靈式的心靈,采取哲學(xué)行為主義的方案,心理活動(dòng)只是行為傾向。于是,他心難題的非對(duì)稱性被消除,整個(gè)問題被徹底消解。
最佳說明理論采取的方式是科學(xué)說明的方式,首先消除自我經(jīng)驗(yàn)中心,忽略我對(duì)我的心靈的直接性,把心靈當(dāng)作理論實(shí)體,接受密爾關(guān)于心靈與行為的因果鏈關(guān)系,但不只是訴諸內(nèi)在因果鏈,而訴諸普遍的因果關(guān)聯(lián):是什么原因?qū)е挛覀內(nèi)缥覀兯龅哪菢尤?dòng)作(behave)?心靈可以作為解釋我們行為的最佳說明。這是一種科學(xué)推論方式,科學(xué)研究中并不要求觀察心靈的直接證據(jù)(無論是我的心靈還是他人心靈),而只要求證據(jù)的相關(guān)性,并以外部視角解釋心靈。正如我們并沒有直接觀察到萬有引力,但萬有引力是說明引力相互作用及其規(guī)律的最佳理論實(shí)體。
最佳說明理論是不同于行為主義的,行為主義完全消除了心靈實(shí)體的存在性,但最佳說明則保留了心靈實(shí)體,只不過是從第三人稱的角度去觀察??墒?,最佳說明理論完全回避了心靈的直接性問題,會(huì)遇到同類比推論一樣的問題,即無法解決我對(duì)他心的非直接性經(jīng)驗(yàn)困難。
判據(jù)(criteria)論則將行為看作心靈狀態(tài)的判據(jù),認(rèn)為心靈與行為之間是一種概念性關(guān)系,而不是一種歸納推論,行為是心靈之呈現(xiàn)的判據(jù),它們之間具有某種概念性關(guān)系(就像哲學(xué)中的先天綜合關(guān)系),例如,“癢”這種心靈狀態(tài)與“搔”就具有概念性關(guān)聯(lián),“搔”的總是“癢”,而一個(gè)人感知了“癢”總意味著“搔”的行為傾向于發(fā)生。判據(jù)論認(rèn)為,心靈與心靈的關(guān)系是直接的而不是推論性的。判據(jù)論既不同于行為主義,也不同于最佳說明理論。行為主義完全否定了心靈的存在,在“搔癢”的例子中,行為主義可能只承認(rèn)“搔”的外部行為而不承認(rèn)“癢”的內(nèi)在狀態(tài),而最佳說明理論雖然承認(rèn)“癢”的存在,但只將其看作一個(gè)推測的理論實(shí)體假設(shè),而“搔”和“癢”也不具有必然的概念性關(guān)系,只是一種高概率發(fā)生的偶然的經(jīng)驗(yàn)關(guān)聯(lián)。
判據(jù)論更接近心靈的依隨說明,即心靈狀態(tài)(“癢”)與物理屬性(“搔”)具有先天必然的關(guān)聯(lián),不同的是,依隨說明不承認(rèn)心靈狀態(tài)與物理屬性之間的因果關(guān)系,而判據(jù)論則可以承認(rèn)概念關(guān)系中包含了因果關(guān)聯(lián),“癢”不僅僅意味著“搔”,也可能導(dǎo)致了“搔”,只是因果關(guān)聯(lián)未必是必然的。
維特根斯坦的態(tài)度方案(attitudinal approach)是判據(jù)論的最好形態(tài)。態(tài)度方案認(rèn)為,我們對(duì)他人的觀念和態(tài)度是被建構(gòu)起來的,他人是有心靈有經(jīng)驗(yàn)的形象,我們依據(jù)這樣的形象去感知他人,與他人互動(dòng)。這種態(tài)度是直接的,沒有任何推論,在任何信念之前。
然而,包括態(tài)度方案在內(nèi)的判據(jù)論,無法說明我們?cè)诨?dòng)時(shí)為什么不把沒有心靈的物體建構(gòu)為有心靈的實(shí)體。其實(shí),我們應(yīng)當(dāng)接受,當(dāng)我們擁有心靈時(shí),確實(shí)是將世界上所有實(shí)存物都直接建構(gòu)為有心靈的存在的,只有當(dāng)我們處于特定階段之后,我們才采取消除的方式把一些實(shí)存物排除于心靈存在之外的。因此,態(tài)度方案或判據(jù)論是可以挽救的。
我們支持態(tài)度方案的核心論證是:推論是心靈的能力,在沒有心靈之前,我們的經(jīng)驗(yàn)必定是非推論性的、直接的;因此,當(dāng)我們一開始意識(shí)到自己有某種心靈狀態(tài)(例如疼痛信念)時(shí),必然是直接的,如果此時(shí)我們也同時(shí)意識(shí)到他者的相同狀態(tài),也只能是直接的。我們不同于判據(jù)論的地方在于,這種經(jīng)驗(yàn)雖然直接的,但是可錯(cuò)的,因此不是概念關(guān)系。
因?yàn)榻鉀Q他心難題不是本文的主旨,限于篇幅,我們將對(duì)他心難題解決的具體過程區(qū)分為如下幾個(gè)階段:
(1)存在主義階段。在這個(gè)階段中,我們與世界處于無心靈的行為或純粹態(tài)度互動(dòng)。此階段沒有明確的意識(shí),屬于無信念或前信念階段,只有生物學(xué)意義上的非條件反射或條件反射,無法區(qū)分自我與世界。例如,有“看”的行為(純粹態(tài)度),但沒有“所看”的內(nèi)容(信念),即有意向態(tài)度而無意向內(nèi)容。這種與世界的純態(tài)度互動(dòng)會(huì)形成一種順暢的習(xí)慣。
(2)形而上學(xué)階段。正是在這個(gè)階段中,我們開始形成因果觀念。我們開始有具體心靈狀態(tài)信念(如疼痛信念),并逐漸形成萬物運(yùn)動(dòng)都有原因的形而上學(xué)觀念:目的(靈魂)是萬物運(yùn)動(dòng)的終極原因,由此開始直接領(lǐng)受到世界心靈(萬物有靈)。在上一階段,在對(duì)事物(包括身體)由A到B運(yùn)動(dòng)的直接經(jīng)驗(yàn)中,我們形成習(xí)慣性預(yù)期(并不明晰),當(dāng)運(yùn)動(dòng)受到障礙時(shí),B將被領(lǐng)會(huì)為“目的”而不是結(jié)果,即運(yùn)動(dòng)“受挫”。當(dāng)這種障礙經(jīng)常發(fā)生時(shí),“目的”意識(shí)將會(huì)產(chǎn)生,而且“目的”將被明晰地理解為物體運(yùn)動(dòng)的原因。這個(gè)階段會(huì)形成兩個(gè)直接而非推論的觀念:實(shí)體的運(yùn)動(dòng)都是有原因的,目的就是啟動(dòng)萬物運(yùn)動(dòng)的原因。在這個(gè)階段,我們形成了我和萬物都有心靈的觀念,這個(gè)觀念由直接領(lǐng)受逐漸明晰為信念。
(3)經(jīng)驗(yàn)主義階段。在這個(gè)階段,由于對(duì)工具的使用,歸納地排除了人造物的意識(shí)性,并最終縮小意識(shí)主體范圍到人類。人類開始明確意識(shí)到非心靈實(shí)存是在工具使用之后,因?yàn)楣ぞ呤褂猛耆怯梢粋€(gè)自然物(我自己)的目的(靈魂)引導(dǎo)和控制的運(yùn)動(dòng),這種狀態(tài)表明,工具本身并沒有目的或靈魂,因此,最重要的是把自然物(包括自己)與人造物區(qū)分開來,而不是自我與世界區(qū)分開來。這個(gè)過程是一個(gè)推論過程,一個(gè)使用排除法的歸納推論過程。
在原始經(jīng)驗(yàn)主義階段,我們還只是通過工具使用排除非心靈實(shí)存,到了科學(xué)的經(jīng)驗(yàn)主義階段,我們通過科學(xué)理論最終排除所有非人類存在物作為心靈實(shí)體的可能性:除了人類,世界上任何實(shí)體都是沒有心靈的。
我們把上述解決方案稱為純粹態(tài)度-消除推論方案,是直接經(jīng)驗(yàn)和推論經(jīng)驗(yàn)的某種結(jié)合方式。
在上述解決方案中,自我意識(shí)或己心是不重要的,將工具排除于心靈之外才是重要的。因此,他心難題解決過于關(guān)注自我是沒有出路的,“己心”可能同他心一樣是一個(gè)難題。自我同他人或世界的分離過程,不必先于自然物與工具的分離過程,在第二階段開始,我的運(yùn)動(dòng)與世界運(yùn)動(dòng)的失調(diào),才導(dǎo)致自我與世界的區(qū)分,形成自我意識(shí)。
三、圖靈測試的失效與機(jī)心難題
現(xiàn)在的問題是,上述在自然狀態(tài)下解決他心難題的方案是否適應(yīng)于人工智能?表面上看似乎是適應(yīng)的,因?yàn)槿绻斯ぶ悄苤皇枪ぞ?,我們就可以通過排除法將其排除于心靈實(shí)體之外。
然而,有兩種情況可能會(huì)導(dǎo)致排除法失效。第一種情況是,有心靈的實(shí)體模仿無心靈的實(shí)體與人類互動(dòng),從而人類將其直接經(jīng)驗(yàn)為無心靈的實(shí)體;第二種情況是,無心靈的實(shí)體模仿有心靈實(shí)體的行為與人類互動(dòng),從而人類將其直接經(jīng)驗(yàn)為有心靈的實(shí)體。
第一種情況似乎是可以排除的。如果是一個(gè)有心靈的實(shí)體,其心靈有一個(gè)發(fā)生過程,而這個(gè)發(fā)生過程要求其通過行為來逐漸實(shí)現(xiàn),我們很難設(shè)想一個(gè)實(shí)體會(huì)突然間擁有心靈;當(dāng)它通過行為而成為有心靈的實(shí)體時(shí),它就已經(jīng)被人類直接經(jīng)驗(yàn)為有心靈的實(shí)體了,而此后它的模仿將被戳穿——除非有可推論的原因使得其突變?yōu)闊o心靈實(shí)體,例如大腦受損。
第二種情況是可能的,這就是基于圖靈機(jī)原理而能夠通過圖靈測試的人工智能、由人控制的主從機(jī)器人或虛擬現(xiàn)實(shí)中的人替(avatar)。這里主要討論基于圖靈機(jī)原理的人工智能。
著名的圖靈測試設(shè)想(標(biāo)準(zhǔn)版),將基于圖靈機(jī)原理的機(jī)器與人同時(shí)關(guān)在兩個(gè)房子里,并讓測試人員分別向房子里的人和機(jī)器提出問題,如果測試者從回答中無法區(qū)分出哪個(gè)房間是人、哪個(gè)房間是機(jī)器——這種測試可以無限進(jìn)行下去——那么,機(jī)器就是能夠思考的。這個(gè)結(jié)論以大眾化的方式被理解為,這樣的機(jī)器已經(jīng)是人。如果我們對(duì)圖靈測試稍加修改,把房間里的機(jī)器做得跟人在形象上無法區(qū)分,并讓它們依據(jù)程序活動(dòng),拆掉房子后,其行為也就與人無法區(qū)分,那么,人類在與這樣的機(jī)器互動(dòng)時(shí)將把它直接經(jīng)驗(yàn)為有心靈的實(shí)體。
這樣的機(jī)器是否真的就是心靈實(shí)體呢?確實(shí),圖靈本人認(rèn)為通過了圖靈測試的機(jī)器就可以看作是能夠思維的;但問題是圖靈所說的思維是否是我們所說的心靈能力,這一點(diǎn)至少在當(dāng)時(shí)是不清楚的。至于機(jī)器行為與人類行為無法區(qū)分,機(jī)器就必定存在心靈能力,這個(gè)說法最初是針對(duì)自然狀態(tài)的生命體而言的,其在人工智能上并沒有充分的根據(jù)。
至少從許多局部事實(shí)上看,我們可以把一臺(tái)機(jī)器的行為構(gòu)造得與人類行為無法區(qū)分,但該機(jī)器仍然可以在整體上很容易被判定為沒有心靈能力,因?yàn)樗谄渌矫婵赡芘c人類完全無法比擬。當(dāng)然,辯護(hù)此類機(jī)器有心靈的人仍然可以說,機(jī)器的局部能力與人類無法區(qū)分并不符合圖靈測試的要求,因?yàn)閳D靈測試要求該測試可以無限制運(yùn)行而達(dá)到無法區(qū)分的程度。不過這種回應(yīng)在邏輯上已經(jīng)消除了圖靈測試的可能性,因?yàn)槿魏螠y試在時(shí)間上都是有限制的,不可能是真正無限長時(shí)間。因此,我們只能將圖靈測試的無限制時(shí)間理解為足夠長的時(shí)間。
不過,即使上述對(duì)圖靈測試的反駁是有缺陷的或可反駁的,也沒有關(guān)系,因?yàn)檫€有一個(gè)更重要的致命性反駁,即來自基于思想實(shí)驗(yàn)的邏輯演繹。
1980年,塞爾提出了一個(gè)名為“漢字屋”的著名思想實(shí)驗(yàn)。該思想實(shí)驗(yàn)設(shè)想,塞爾本人被關(guān)在一個(gè)房子里,其中充滿了各種漢字筆畫,塞爾本人完全不懂漢語,但他是懂英語的?,F(xiàn)在,他有一本關(guān)于如何取得這些筆畫構(gòu)成漢字的英語說明書,通過這本說明書,他可以直接為從屋子外面遞進(jìn)來的漢語問題給出漢語答案。注意,這本書并不是英漢字典或漢英字典,而只是一本如何取得筆畫構(gòu)成漢字并安排漢字順序構(gòu)成漢語句子的規(guī)則說明書。假如塞爾的速度足夠快,那么,在屋子外面的懂漢語的人看來,屋子里的塞爾是懂漢語的;但事實(shí)上,塞爾并不懂漢語 。
塞爾論證道,圖靈機(jī)基于程序的人工智能只是一種語法程序,并沒有語義學(xué)內(nèi)容,即使它們?cè)谛问缴夏軌蚰7氯说乃季S,但它們實(shí)際上沒有理解能力。因此,理解能力是基于圖靈機(jī)原理一類的人工智能所不具備的。在這種意義上,理解能力是人類心靈的關(guān)鍵能力 。
接下來的問題是,理解能力是一種內(nèi)在能力,是第一人稱的,并不能夠由外部特征或第三人稱視角加以判斷。而且,塞爾的反駁只是表明,通過圖靈測試的機(jī)器不足以認(rèn)定為心靈實(shí)體,但它并不意味著通過圖靈測試的實(shí)體不是心靈實(shí)體。準(zhǔn)確地說,塞爾只是反駁了基于圖靈機(jī)原理而通過圖靈測試的機(jī)器具有心靈能力的可能性。另一方面,一個(gè)有心靈能力的普通人就能夠通過圖靈測試;也就是說,圖靈測試可以成為心靈實(shí)體的必要而非充分條件。
圖靈測試并不能排除基于其他原理而制造的機(jī)器具備心靈能力之可能性。例如,一些人主張,利用量子糾纏原理制造的量子計(jì)算機(jī)就有可能具備心靈能力,因?yàn)榱孔蝇F(xiàn)象本身就具備意識(shí)特征。本文討論的是一般性的人工智能,而不是基于圖靈機(jī)原理的人工智能。因此,人工智能在未來是否具有心靈能力是未知的。
于是,他心難題轉(zhuǎn)變?yōu)榱藱C(jī)心難題:如果一個(gè)一般性人工智能產(chǎn)生出來,我們?nèi)绾闻袛嗨欠袷切撵`實(shí)體?這個(gè)難題可以區(qū)分為兩個(gè)層次。
第一個(gè)層次是邏輯上的,即僅僅以圖靈測試顯然是無法區(qū)分心靈實(shí)體和非心靈實(shí)體的。當(dāng)然,我們似乎可以依照塞爾的反駁,看該人工智能是否是依據(jù)圖靈機(jī)原理構(gòu)建起來的,如果是,那么它就是非心靈實(shí)體。然而,圖靈機(jī)原理只是構(gòu)建人工智能的一種方式,邏輯上還可以有其他無窮多種方式(例如筆者曾經(jīng)推薦圖靈機(jī)動(dòng)物,類似于后來由馬斯克提出的人機(jī)接口),那么,那些以其他方式構(gòu)建起來的人工智能是否是心靈實(shí)體呢?顯然,憑借圖靈測試是不夠的。僅憑借內(nèi)部構(gòu)造是否可以判斷呢?例如,依賴量子原理構(gòu)建起來的人工智能就可能是心靈實(shí)體,等等。然而,這種評(píng)判標(biāo)準(zhǔn)的確立有賴于科學(xué)上的理論預(yù)測,任何理論預(yù)測都必須經(jīng)受證據(jù)的檢驗(yàn)。但如果關(guān)于心靈能力的經(jīng)驗(yàn)證據(jù)必須包含理解能力之存在性的證實(shí),那么,這種證實(shí)就必須訴諸第一人稱,可是科學(xué)證實(shí)最終要訴諸第三人稱;如果采取第一人稱轉(zhuǎn)換為第三人稱的方式,則一個(gè)即使是基于圖靈機(jī)原理構(gòu)建起來(從而沒有理解能力)的人工智能也完全可以冒充自己具備理解能力。因此,這樣的證實(shí)在邏輯上就是不可能的。
第二層次是日常經(jīng)驗(yàn)上的。在日常經(jīng)驗(yàn)中,我們是通過對(duì)工具的順暢控制將工具排除于心靈實(shí)體之外的。然而,人工智能可以表現(xiàn)出像我們?nèi)祟愐粯拥男袨樘卣?,尤其是,它們看起來似乎擁有“自主”能?如果我們一生下來就與這樣的人工智能相處,我們是無法以排除法的方式將其排除于心靈實(shí)體之外的。誠然,如果這樣的人工智能本身是有心靈能力的,因?yàn)槲覀兊闹苯咏?jīng)驗(yàn)?zāi)軌驅(qū)⑵湔J(rèn)定為心靈實(shí)體,似乎我們就能夠確認(rèn)其為心靈實(shí)體。然而,這種認(rèn)定卻是偶然的,不過是碰巧認(rèn)定了一個(gè)心靈實(shí)體。因此,確認(rèn)一個(gè)人工智能是心靈實(shí)體,我們必須擁有兩種能力:第一種是直接將其經(jīng)驗(yàn)為心靈實(shí)體;第二種是排除其為心靈實(shí)體的嘗試是失敗的。
如果我們?cè)谶壿嬌虾腿粘I钪卸紵o法確定人工智能是否屬于心靈實(shí)體,那么,我們就無法確定人工智能的道德地位,從而,人工智能是否屬于心靈實(shí)體的機(jī)心難題就對(duì)道德哲學(xué)構(gòu)成了一個(gè)嚴(yán)重的挑戰(zhàn)。
四、一組手段倫理學(xué)規(guī)則
上述論證已經(jīng)表明,我們無法從一般認(rèn)識(shí)論的角度確定人工智能是否是心靈實(shí)體,從而從道德形而上學(xué)的角度無法確定人工智能的道德地位。那么,我們是否可以另辟蹊徑,從規(guī)范倫理學(xué)的角度來解決這個(gè)問題?準(zhǔn)確地說,我們是否可以從規(guī)范倫理學(xué)的角度繞開機(jī)心難題?下面本文將展示這樣一個(gè)有希望的路徑。
首先,我們需要確立一種關(guān)于手段或工具的倫理學(xué)。
在兩種主要的規(guī)范倫理學(xué)理論中,功利主義原則中的“最大多數(shù)人的最大幸?!蹦J(rèn)了其道德目標(biāo)是人的幸福或快樂,但并沒有在道德原則中明晰區(qū)分目的和手段,在其經(jīng)典的原則中,特定情景下,少數(shù)人是可以作為最大多數(shù)人的手段的,因此,功利主義無法將目的(人)和工具(手段)原則性地區(qū)分開來。誠然,功利主義在形式上也需要考慮人工智能是否是人的問題,即如果人工智能是人,它就應(yīng)該具備適應(yīng)于效用原則的形式資格,不過實(shí)質(zhì)上,即使人工智能已經(jīng)是人,也可能被排除于最大多數(shù)人之外,僅僅作為手段。于是,在功利主義那里,人工智能的實(shí)質(zhì)道德地位是不確定的。道義論(康德式的)則不一樣,它明確地將人和手段區(qū)分開來了:不能僅僅將人作為手段,而應(yīng)當(dāng)同時(shí)作為目的。如果人工智能已經(jīng)是人,它就具備作為人的道德地位并必須作為目的而不僅僅是手段。
然而,由于康德倫理學(xué)的主要目標(biāo)是確立處理人的關(guān)系的道德準(zhǔn)則,其對(duì)手段本身需要什么道德規(guī)則并沒有展開討論。對(duì)手段問題,我們可能會(huì)一般性地持有自由份子論的立場,即,手段總是服務(wù)于目的的,只要目的合理,手段如何使用在道德上都是被允許的;因此,我們可以任意改變工具的用途,任意銷毀、閑置或過度使用工具,只要不冒犯人的尊嚴(yán)。但是,這種自由份子論立場可能無法通過一個(gè)延伸到手段的康德式可普遍化檢驗(yàn)。
將康德可普遍化原則運(yùn)用于手段或工具倫理學(xué)的總原則是:如此使用手段或工具,除非你也意愿使役某手段或工具的規(guī)則成為普遍的規(guī)則 。應(yīng)該說,關(guān)于工具的任何使用規(guī)則都只是道德上允許的,而不是道德上要求的,因此它們本身都不是道德規(guī)則。道德上要求的規(guī)則,邏輯上有一個(gè)重要特征:其否定規(guī)則(即不道德規(guī)則)會(huì)導(dǎo)致該規(guī)則的自我抵牾(self-defeated),例如,“應(yīng)該不說謊”是道德上要求的,因?yàn)槠浞穸ㄒ?guī)則“(不)應(yīng)該(不)說謊”會(huì)導(dǎo)致該規(guī)則“說話”沖突于其先天默認(rèn)的“說話”應(yīng)傳遞信息的功能,從而自我抵牾。
既然工具的使用規(guī)則并不是道德規(guī)則,只是道德上允許的,那么,其否定規(guī)則也是允許的,例如,“吃米飯”和“不吃米飯”都是道德上允許的,既然如此,為什么我們還應(yīng)該遵循它呢?
一個(gè)工具之為工具,具有特定的使用價(jià)值,這些使用價(jià)值將蘊(yùn)含在其使用規(guī)則中,而一簇特定使用規(guī)則將確定它是這樣的工具,而不是另外的工具,這些規(guī)則規(guī)定了工具的自我同一性或“身份”(猶如簇摹狀詞確定專名的指稱)。工具倫理學(xué)的這種特征不同于人的倫理學(xué),人的倫理學(xué)只關(guān)注人作為理性存在者的這個(gè)形式特征,而不關(guān)心其社會(huì)角色和職務(wù)等實(shí)質(zhì)規(guī)定性。
當(dāng)我們獲得一個(gè)工具的時(shí)候,我們已經(jīng)接受了這些使用規(guī)則,這種接受相當(dāng)于一個(gè)承諾或契約。因此,實(shí)際上工具倫理學(xué)是基于承諾而確立起來的,而“不違背承諾”是一個(gè)道德規(guī)則。也就是說,雖然使用規(guī)則只是道德上允許的,但當(dāng)它們作為一個(gè)承諾的內(nèi)容時(shí),它們就具有假言的約束力了。例如,“吃米飯”只是道德上允許的,但當(dāng)你在飯店點(diǎn)一份米飯時(shí),你實(shí)際上就向飯店承諾了你這頓飯的主食應(yīng)該是米飯。
根據(jù)上述工具倫理學(xué)的原則和契約論說明,我們可以得到如下規(guī)則:
第一,不應(yīng)當(dāng)制造僅僅將人當(dāng)作手段的工具,即任何手段或工具都不應(yīng)該冒犯人的尊嚴(yán);
第二,既不應(yīng)當(dāng)過度使用工具,也不應(yīng)當(dāng)閑置工具;
第三,不應(yīng)當(dāng)制造銷毀其他尚具有使用價(jià)值之工具的工具;
第四,改變工具的用途需要辯護(hù)。
上述四個(gè)規(guī)則總體概括起來可以稱為“物盡其用”原則。其中第一條規(guī)則規(guī)定了手段倫理學(xué)的道德邊界,即首先必須尊重人;這個(gè)規(guī)則也是人格道德原則(不應(yīng)該僅僅將人當(dāng)作手段)在手段或工具上的運(yùn)用。
第二到第四規(guī)則都是與工具的使用規(guī)則相關(guān)的,相關(guān)于處于承諾下的內(nèi)容。
第二規(guī)則中的“過度使用”顯然應(yīng)該包括過于頻繁的使用和超過工具有效期的使用。這個(gè)規(guī)則可以以這樣的方式得到辯護(hù):一個(gè)工具被過度頻繁使用將導(dǎo)致工具損壞,而損壞工具是使得該工具不再成為該工具的行為,與工具的同一性沖突;當(dāng)一個(gè)工具超過其使用壽命時(shí),它本身已經(jīng)不再是符合原有使用規(guī)則的合格工具,而閑置的工具也不再被當(dāng)作工具看待,等價(jià)于被(暫時(shí))廢棄。當(dāng)然,具體的程度問題是一個(gè)實(shí)際的技術(shù)問題,這里不必深究。
第三規(guī)則包含了對(duì)沖突規(guī)則的禁止。一方面,一個(gè)使用中的工具根據(jù)規(guī)則二,它必須處于正常使用中,不該被銷毀;另一方面,銷毀該工具的工具則包含了中止其正常使用,因此,兩者是沖突的,不可普遍化。
第四規(guī)則體現(xiàn)了對(duì)工具制造者的尊重,是可普遍化的。如前已述,每種工具被制造時(shí)都具有特定的用途,這種特定的用途被制造者明確或默認(rèn)在其使用規(guī)則中,當(dāng)我們遵守這些規(guī)則使用工具的時(shí)候就是對(duì)工具制造者的尊重,同時(shí)也是在履行某種工具契約(你在獲得工具時(shí)已經(jīng)明確或默認(rèn)了這些契約)。但是,我們也應(yīng)該意識(shí)到,工具的使用規(guī)則都是假言規(guī)則,與目的相關(guān),其本身并不具有強(qiáng)制性的道德地位,在緊迫情景中需要改變假言規(guī)則,這些規(guī)則就是可以改變的。不過,這種改變是需要辯護(hù)的,例如,當(dāng)其用途由A轉(zhuǎn)化為B時(shí),如果現(xiàn)場存在充裕的符合B用途的工具,這種轉(zhuǎn)化就是不合理的。
五、基于手段倫理學(xué)的選言命令式對(duì)機(jī)心難題的解決
那么,上述手段或工具倫理學(xué)如何解決或避免機(jī)心難題呢?
上述倫理學(xué)規(guī)則幾乎都是用道德禁止的方式表述的。其實(shí),即使是康德人格道德原則,也可以用禁止的方式表述,即,不應(yīng)該僅僅將人當(dāng)作手段。這種禁止性表述邏輯上要求我們對(duì)違背禁止性規(guī)則的人或行動(dòng)作出回應(yīng),然而,遺憾的是,康德倫理學(xué)無法直接回答這個(gè)問題,因?yàn)檫@將涉及懲罰,而在康德那里,道德與賞罰無關(guān),只是每個(gè)人應(yīng)當(dāng)遵守的內(nèi)在要求。
不過,幸運(yùn)的是,康德也在其法哲學(xué)中承認(rèn),懲罰雖然不可能使得行動(dòng)出自道德法則,卻可以使得行動(dòng)符合道德法則。因此,我們似乎可以處理違背禁止性規(guī)則的行動(dòng)了。很顯然,這種行動(dòng)應(yīng)當(dāng)被禁止,即它們應(yīng)當(dāng)被阻止或中止,如果是人作出這樣的行動(dòng)則應(yīng)當(dāng)受到懲罰,例如限制自由。這里涉及“道德禁止”和“法律禁止”的語義學(xué)差別,但很顯然,一種法律禁止必須基于道德禁止。
既然一個(gè)違背禁止性規(guī)則的行為應(yīng)該被阻止或中止,那么,人工智能可以通過本身的技術(shù)做到這一點(diǎn),例如,將一個(gè)凍結(jié)人工智能運(yùn)行的程序或技術(shù)嵌入人工智能中,當(dāng)其行為沖突于上述規(guī)則時(shí),由特定執(zhí)法者從外部啟動(dòng)該程序或技術(shù)中止人工智能違背禁止性規(guī)則的行為。
在這樣的處理中,我們實(shí)際上并不需要關(guān)注人工智能是心靈實(shí)體還是非心靈實(shí)體,如果是心靈實(shí)體,該插入處理就是一個(gè)限制其自由的懲罰;而如果是非心靈實(shí)體,該處理就是一項(xiàng)機(jī)械故障凍結(jié)辦法。
在這里,我們還必須對(duì)康德原則中關(guān)于目的與手段的關(guān)系做一個(gè)說明??档略瓌t表述到,你不應(yīng)當(dāng)把你和他人人格(person)中的人本(humanity)僅僅作為手段,而應(yīng)當(dāng)同時(shí)作為目的。根據(jù)這個(gè)表述,我們似乎會(huì)把在上述處理方式中違背道德規(guī)則(人格道德規(guī)則和工具道德規(guī)則)的人工智能僅僅當(dāng)作手段。如果是這樣,那就會(huì)同手段倫理學(xué)產(chǎn)生輕微的沖突,因?yàn)槭侄蝹惱韺W(xué)中的工具必須是符合手段倫理學(xué)的工具。一件工具如果冒犯了人的尊嚴(yán)或者違背了工具倫理學(xué)規(guī)則,它就不再是一件工具;同時(shí),當(dāng)一件工具因?yàn)槭褂弥羞`背手段倫理學(xué)規(guī)則而被中止使用時(shí),它也就不再作為工具(即使是暫時(shí)的);更重要的是,當(dāng)一個(gè)心靈實(shí)體在違背道德規(guī)則時(shí),我們也不可能將其僅僅當(dāng)作手段。在倫理學(xué)上,一個(gè)手段或工具只有在符合人的合理目的(即尊重人)而被使用時(shí),才應(yīng)該被稱為手段或工具,正如一個(gè)人只有在合乎道德地行動(dòng)時(shí),我們才稱其為人,否則就不算一個(gè)人。因此,在康德原則中,除了是目的實(shí)體和手段實(shí)體之外,還有第三種可能,即作為既非目的也非手段的實(shí)體。也因此,當(dāng)我們對(duì)一個(gè)違背道德規(guī)則的實(shí)體進(jìn)行處理(懲罰或排除故障)時(shí),我們是在將其當(dāng)作既非目的也非手段的實(shí)體看待。這也解釋了為什么我們此時(shí)可以持有中立的實(shí)踐態(tài)度。
上述方式只涉及消極的方面,即懲罰問題。但還有積極的方面,即更為重要的尊重問題。對(duì)消極方面的處理似乎相對(duì)容易,而對(duì)積極方面的處理則難度很大。
很顯然,如果人工智能是心靈實(shí)體,那么,我們?nèi)祟惥蛻?yīng)該尊重它,而如果不是,我們就沒有必要尊重它——尊重一個(gè)工具顯然是荒謬的。現(xiàn)在的問題是,如果我們不知道人工智能是否是心靈實(shí)體,我們將如何對(duì)待它,是尊重還是不尊重?
在消極處理時(shí),我們實(shí)際上是將處理方式中立化,不涉及態(tài)度,我們不必對(duì)一個(gè)冒犯人類尊嚴(yán)的實(shí)體持鄙視或憤怒的態(tài)度。根據(jù)康德主義的精神,這些態(tài)度是情感性的,并不影響行為的道德價(jià)值。但是,對(duì)這個(gè)中立的處理卻可以有兩種不同的詮釋:一種是限制自由;另一種是解除故障。很顯然,該處理的道德哲學(xué)意義在于詮釋。
對(duì)積極的方面,我們也可以采取詮釋的方式,但尊重行為本身并不是中立的技術(shù)處理,而是一種實(shí)踐態(tài)度或道德態(tài)度,具有道德哲學(xué)意義。
首先,我們確立人工智能對(duì)人的尊重。那些不違背道德準(zhǔn)則的人工智能必定尊重了人:如果人工智能是心靈實(shí)體,那么它本身就尊重了人;如果人工智能不是心靈實(shí)體,那么其設(shè)計(jì)和制造者尊重了人。然后,我們可以如此詮釋對(duì)不違背道德規(guī)則的人工智能的尊重行為:任何一個(gè)不違背道德規(guī)則的人工智能,其行為總是由一系列規(guī)則指導(dǎo)完成,同時(shí),它也會(huì)存在或產(chǎn)生一系列要求人們?nèi)绾螌?duì)待它的規(guī)則——由于人工智能總體上是尊重人的(不冒犯人的尊嚴(yán)),因此,這些規(guī)則和要求也不會(huì)冒犯人類。
如果這樣的人工智能是心靈實(shí)體,那么其自主性也將體現(xiàn)在這樣的規(guī)則中,正像人的自主性行動(dòng)必定遵循一組行動(dòng)準(zhǔn)則(maxim)一樣。這里需要特別說明的是,為了與工具的規(guī)則主義或原則主義立場(即將特定工具的身份看作一簇特定的使用規(guī)則)一致,我們這里也將人看作是一組普遍的道德規(guī)則構(gòu)成體,而不是去規(guī)則的德性實(shí)體。
當(dāng)我們依照這些要求或規(guī)則對(duì)待人工智能時(shí),我們將體現(xiàn)出一種實(shí)踐上的尊重態(tài)度:如果人工智能已經(jīng)是心靈實(shí)體,那么,我們就是在尊重其本身;而如果人工智能不是心靈實(shí)體,那么,我們就是在尊重制造該人工智能的工程師。
對(duì)上述論證一個(gè)明顯的反駁是,尊重是一種明確的態(tài)度,應(yīng)該包含了對(duì)待被尊重對(duì)象的形象認(rèn)定。例如,對(duì)方應(yīng)該明確是一個(gè)人,否則就談不上尊重。關(guān)于這一點(diǎn),我們必須區(qū)別作為情感態(tài)度的尊重和作為實(shí)踐態(tài)度的尊重。康德以《圣經(jīng)》里“愛鄰人”和“愛敵人”的態(tài)度為例區(qū)分了情感態(tài)度(病理學(xué)態(tài)度)和實(shí)踐態(tài)度,前者屬于自發(fā)的沒有道德價(jià)值的情感態(tài)度,后者屬于理性的具有道德價(jià)值的實(shí)踐態(tài)度 。作為情感態(tài)度,可能一個(gè)人對(duì)被尊重者什么也不做,也可以擁有這種內(nèi)部的心理態(tài)度(例如,當(dāng)一個(gè)人暗戀另一個(gè)人時(shí));但另一方面,即使一個(gè)人的行動(dòng)處處表現(xiàn)為尊重另一個(gè)人,但他的內(nèi)部感情態(tài)度依然可以是鄙視態(tài)度。這就是說,情感態(tài)度與行動(dòng)表現(xiàn)可以是沒有因果關(guān)系的。
然而,實(shí)踐態(tài)度不一樣,它必須表現(xiàn)在行動(dòng)上,實(shí)踐態(tài)度與行動(dòng)本身是一種先天的概念關(guān)系。當(dāng)一個(gè)人在行動(dòng)上處處表現(xiàn)為尊重另一個(gè)人時(shí),我們就說,這個(gè)人實(shí)際上持有一種尊重他人的實(shí)踐態(tài)度或道德態(tài)度。誠然,這里會(huì)遇到另一個(gè)反駁,當(dāng)一個(gè)非心靈實(shí)體行為上表現(xiàn)為尊重人時(shí),它是否就是擁有了一種尊重的實(shí)踐態(tài)度或道德態(tài)度了呢?當(dāng)然不是,因?yàn)檫@個(gè)非心靈實(shí)體并沒有完成一個(gè)真正意義上的行動(dòng),它沒有行動(dòng)意圖或動(dòng)機(jī)。因此,只有心靈實(shí)體才可能擁有一個(gè)尊重態(tài)度及其行動(dòng)。也就是說,我們對(duì)尊重的說明不可能采取行為主義的方案。
回到前面的例子。假如一個(gè)人內(nèi)心鄙視另一個(gè)人,這還僅僅是一種情感態(tài)度,但是他的每個(gè)行動(dòng)都表現(xiàn)出尊重時(shí),這些行動(dòng)必然由動(dòng)機(jī)來發(fā)動(dòng),而這些行動(dòng)的動(dòng)機(jī)本身必須是包含尊重意圖的,否則不可能作出尊重的行動(dòng)。在道德哲學(xué)的意義上,我們可以責(zé)備這個(gè)人偽善或虛偽,但我們不能否認(rèn)他持有一個(gè)尊重的道德或?qū)嵺`態(tài)度。
因此,當(dāng)一個(gè)人以滿足某些要求或規(guī)則而行動(dòng)時(shí),這些行動(dòng)必然包含了尊重這些規(guī)則的意圖,如果這些規(guī)則或要求是作為心靈實(shí)體的人工智能提出的,我們就顯然尊重了它本身;而如果是工程師加諸非心靈實(shí)體的人工智能,那么,我們就尊重了工程師。
根據(jù)上述所有論證,我們可以將上述繞過或解決機(jī)心難題的倫理學(xué)說明總結(jié)為“選言命令式(或析取命令式)”。這個(gè)選言命令式的析取將基于道德事實(shí)的析?。阂粋€(gè)實(shí)體及其運(yùn)行,要么冒犯了人,要么尊重了人。而析取命令式本身則可以包含兩個(gè)層次:第一個(gè)層次是態(tài)度的析?。▽?duì)待冒犯者的消極態(tài)度和對(duì)尊重者的積極態(tài)度),第二個(gè)層次是態(tài)度下對(duì)不同主體的析取。于是,我們得到如下析取(選言)命令式:
永遠(yuǎn)將一個(gè)冒犯人的實(shí)體看作既非目的也非手段的實(shí)體:當(dāng)它是心靈實(shí)體時(shí),限制其自由;當(dāng)它是非心靈實(shí)體時(shí)中止其運(yùn)行。應(yīng)當(dāng)尊重一個(gè)尊重人的實(shí)體的運(yùn)行規(guī)則:當(dāng)它是心靈實(shí)體時(shí),尊重其本身;當(dāng)它是一個(gè)非心靈實(shí)體時(shí),尊重制造它的人。
很顯然,由于這個(gè)命令式是選言的,我們并不需要確定地知道人工智能是人或不是人。于是,我們通過對(duì)道德態(tài)度的實(shí)踐詮釋而成功地繞過了人工智能究竟是不是人的問題。在解決人工智能道德地位的問題上,即使這種方式不是強(qiáng)有力,但也算是成功的。
A Disjunctive Imperative to Treat Artificial Intelligence:
“The Problem of Machinery Mind” and A Normative Solution
Yan Qingshan
Abstract:? What moral status should be allocated to AIs is a really new problem in ethics, which deals with ?the problem of other mind ?and its variant, the one of machinery mind . Several solutions, i.e. analogical inference, theory of best explanation and criteria theory, have encountered difficulties. Modify the attitudinal approach, we can get a new approach named ‘pure attitudes/inferential eliminations: We directly experience other mind by pure attitudes and eliminate those entities without minds by inferences. But with such an approach we cant eliminate those AIs passed the Turing Test. The problem of machinery mind as a mataethical or moral metaphysical one, can be avoided on the level of normative ethics. Within Kantianism, we can establish an ethics of means, and then by combination with Kantian ethics of persons, we can deduce a disjunctive imperative to treat AIs as follows. We should regard any entity offending persons as neither end nor means: when it is a one with mind, we should limit its freedom; when it is a one without mind, we should stop its working. We should respect any entity respecting persons: when it is a one with mind, we should respect itself; when it is a one without mind, we should respect the person who makes it.
Keywords:? Artificial Intelligence; Problem of Other Mind; Problem of Machinery Mind; Ethics of Means; Disjunctive Imperative