戴益斌
隨著科學(xué)與技術(shù)的發(fā)展,越來越多的科技成果逐步進入我們的社會,深刻地影響并改變著我們的生活。一方面,人們對這些技術(shù)成果的發(fā)展感到欣喜,認為它們能更好地服務(wù)于人類,提高生產(chǎn)與工作效率,促進人的自由與健康發(fā)展。另一方面,有些人對技術(shù)的發(fā)展表示擔(dān)憂,害怕這些技術(shù)成果不但會造成大量失業(yè),對社會造成一系列負面影響,更擔(dān)心這些技術(shù)成果會帶來一系列的社會倫理道德問題。很多學(xué)者在反思科學(xué)技術(shù)發(fā)展時,都曾思考過兩個問題:(1)發(fā)展或使用這項技術(shù)是否合乎道德;(2)如何看待這種技術(shù)產(chǎn)品。這兩個問題往往都出現(xiàn)在相關(guān)技術(shù)還未成熟或者相關(guān)技術(shù)產(chǎn)品還無法量產(chǎn)應(yīng)用的階段。雖然它們之間存在緊密聯(lián)系,但各自的關(guān)注點并不完全相同。前者重視技術(shù)本身所帶來的倫理道德問題,比如20 世紀(jì)末的克隆技術(shù);后者則更重視產(chǎn)品本身帶來的倫理道德問題,比如一些智能無人操作系統(tǒng)。由于人工智能是當(dāng)今社會討論的重點,而其中的典型代表是智能機器人,因此,本文試圖以智能機器人為例,從第二個問題的視角討論人工智能倫理何以可能。
以智能機器人為例考慮人工智能產(chǎn)品本身帶來的倫理問題有很多種不同的視角,本文選取的視角是道德領(lǐng)域中一個常見的概念區(qū)分,即道德主體(agent)和道德接受者(patient)。之所以選取這一視角,主要是因為,判斷智能機器人的倫理地位可能是一個十分緊迫的問題,尤其考慮到沙特已經(jīng)授予類人機器人索菲亞公民身份。
一般來說,從道德主體的角度思考某事物的倫理問題主要考慮的是它是否具有倫理責(zé)任,從道德接受者的角度思考該事物的倫理問題大多考慮的是該事物是否具有某些倫理權(quán)利。比如說,在見義勇為的具體案例中,我們往往傾向于認為案例中的獲益者應(yīng)向施救者表達感謝;而在討論寵物狗時,很多愛狗人士傾向于認為狗不應(yīng)該被虐待。在前一個案例中,獲益者被當(dāng)作一個道德主體,具有向施救者表達感謝的責(zé)任與義務(wù);而在后一個案例中,寵物狗被視為道德接受者,具有不被虐待的權(quán)利。當(dāng)然,這種區(qū)分并沒有暗示同一個事物要么是道德主體,要么是道德接受者。因為在很多情況下,同一個事物既可以是道德主體,也可以同時是道德接受者,比如具有完全行事能力的成年人。
學(xué)界思考智能機器人的道德倫理問題時一般首先考慮的是這些問題,比如:“我們應(yīng)如何看待智能機器人?”“智能機器人是機器,還是人,或者說一半是機器,一半是人?”“智能機器人能否承擔(dān)相應(yīng)的道德責(zé)任與義務(wù)?”等等。這些問題表明,關(guān)于智能機器人的倫理道德問題,我們往往首先考慮的是智能機器人是否具有道德主體地位,而不是智能機器人能否成為一個道德接受者。因為“是機器還是人”以及“是否能承擔(dān)責(zé)任與義務(wù)”的問題追問的是智能機器人的主體特征,屬于主體性范疇。因此,我們主張首先從道德主體的角度思考智能機器人的倫理道德問題。
根據(jù)鮑威爾斯(Thomas M.Powers)的觀點,歷史上的主體可以分為四類:因果式的主體、亞里士多德式的主體、康德式的主體和戴維森式的主體[1](P229-230)。因果式的主體指的是,存在于因果鏈條之中并導(dǎo)致某一事件的充分原因;在一定意義上,它可以被視為主體,但并不承擔(dān)我們通常意義上的“責(zé)任”。比如暴雨導(dǎo)致某些人死亡,但我們不能要求暴雨為這些人的死亡負責(zé)。它只是自然發(fā)生的事件,不具備承擔(dān)責(zé)任的能力。亞里士多德式的主體指的是能夠?qū)徤魉伎?、擁有實踐智慧的主體。在智慧這一層面上,亞里士多德式的主體已經(jīng)超出了因果鏈條的束縛,合乎理性成為此種類型的主體考慮的重點??档率降闹黧w以自由意志代替實踐智慧,以實踐理由代替審慎的思考。對于康德式的主體而言,重要的是在自由實踐領(lǐng)域通過普遍性的理性能力獲得自律。因此,在康德那里,合乎理性的主體是自由且自律的主體。戴維森式的主體建立在當(dāng)代大眾心理學(xué)的發(fā)展基礎(chǔ)之上。對戴維森(Donald Davidson)而言,主體是與行動聯(lián)系在一起的,而一個主體之所以會行動,是因為他有首要理由。首要理由是由前態(tài)度和相關(guān)信念組成的,是行動的原因。根據(jù)戴維森的解釋,前態(tài)度指的是朝向某種行動的意向狀態(tài),包括欲望、渴求甚至道德觀念等;而擁有相關(guān)信念意味著主體知道、相信、感知到他的行動是前態(tài)度朝向的行動[2]。這些都體現(xiàn)為一種心智狀態(tài)和意向能力。因此,要想成為戴維森式的主體,必須首先擁有相關(guān)的心智狀態(tài)和意向能力。
上述四種主體,只有因果式的主體無法恰當(dāng)?shù)貞?yīng)用于道德領(lǐng)域,其他三種主體都能夠在道德領(lǐng)域中承擔(dān)起相應(yīng)的道德責(zé)任和義務(wù)。亞里士多德式的主體和康德式的主體之所以能承擔(dān)起道德責(zé)任和義務(wù),因為他們所說的實踐智慧和道德自律的立足之地恰恰就是道德領(lǐng)域的實踐活動;而戴維森式的主體,雖然在一開始并沒有應(yīng)用于道德領(lǐng)域,但該主體的行動毫無疑問可以具有道德屬性。在我看來,在這三種不同的道德主體中,選擇戴維森式的主體作為智能機器人能否成為道德主體的判斷標(biāo)準(zhǔn)是一個比較合適的選擇。理由有以下幾點。
首先,戴維森式的主體所依賴的根基是大眾心理學(xué),而大眾心理學(xué)在一定程度上被視為科學(xué),得到了經(jīng)驗的檢驗,相比較而言,亞里士多德式的主體和康德式的主體可能缺少這種科學(xué)根基。其次,在行動中,審慎的思考和實踐理性可以轉(zhuǎn)化為主體的前態(tài)度和信念,因為主體通過審慎的思考和實踐理性最終必然會形成一些前態(tài)度和信念。這些前態(tài)度和信念可以用來解釋主體的行動。這也就是說,滿足亞里士多德式的或康德式的判斷標(biāo)準(zhǔn),必定會滿足戴維森式的判斷標(biāo)準(zhǔn)。再者,與亞里士多德式的和康德式道德主體相比較而言,戴維森式的主體對道德主體的要求似乎最低。在戴維森的理論體系中,行動的原因是前態(tài)度及其相關(guān)信念。雖然在很多場合中,戴維森認為,由前態(tài)度及其相關(guān)信念組成的系統(tǒng)是理性的,但他對理性的要求比較低,允許理性系統(tǒng)中出現(xiàn)錯誤的可能,只要這種錯誤不影響整個系統(tǒng)的穩(wěn)定。而審慎的思考和實踐理性的要求似乎比較高,不太可能允許一系列錯誤的介入。這表明,滿足戴維森式的道德主體的判斷標(biāo)準(zhǔn),不一定能滿足亞里士多德式的或康德式的判斷標(biāo)準(zhǔn)。戴維森式的道德主體似乎是衡量一個事物能否成為道德主體最低的判斷標(biāo)準(zhǔn)。
如果以上觀點是合理的,戴維森式的判斷標(biāo)準(zhǔn)是我們衡量一個事物能否成為道德主體的恰當(dāng)選擇,那么這意味著,具有心智狀態(tài)是智能機器人擁有道德主體地位的一個必要條件。因此,我們需要判斷的是,智能機器人能否具有心智狀態(tài)。
智能機器人是否具有心智狀態(tài)?在我看來,雖然心智狀態(tài)和智能機器人一樣,都依附于物理性的存在,但是二者之間仍然存在著巨大的差異。我們可以從三個方面論證這一點。
從本體論的角度來看,心智狀態(tài)與物理存在之間有著本質(zhì)性的區(qū)別。首先,心智狀態(tài)的一個基本特點是具有意向性,即總是關(guān)于對象的;而通常情況下,我們認為,物理性的存在并不具備意向能力。智能機器人也是如此,它無法具備意向能力。智能機器人大體可以分為兩個部分,即大腦與軀體。其大腦部分的核心是算法程序,而軀體部分則是由一系列物理性存在構(gòu)成。物理性存在不具備意向能力,因此,我們需要討論的核心是算法本身是否具備意向能力。目前學(xué)界流行的算法大概有五大類,即規(guī)則和決策樹、神經(jīng)網(wǎng)絡(luò)、遺傳算法、概率推理和類比推理。這些算法本身雖然運行模式各異,但仍然遵從“輸入—輸出”模式。也就是說,只有當(dāng)有信息輸入時,智能機器人才會有輸出,而且這種信息正常情況下應(yīng)該是真實的信息,但這明顯與我們所說的意向能力不同。因為心智狀態(tài)所意向的對象可以是虛擬對象,并非一定在現(xiàn)實世界中存在,比如孫悟空。其次,心智狀態(tài)往往不受嚴(yán)格的物理規(guī)則的限制,但智能機器人和物理事件一樣往往受相應(yīng)的物理規(guī)律的限制。通常情況下,我們可以將任意命題指派給某人,甚至是錯誤的命題內(nèi)容,比如太陽繞著地球轉(zhuǎn)。用物理規(guī)律,我們很難解釋心智狀態(tài)的這一特性。但所有的智能機器人都應(yīng)遵從物理規(guī)律的限制,都無法違反物理規(guī)律。深度學(xué)習(xí)技術(shù)的出現(xiàn)雖然在一定程度上使得這一點變得更難以發(fā)現(xiàn),但這并非不可能。因為我們總是可以通過分析代碼發(fā)現(xiàn)智能機器人的運行所依賴的機制。而這些機制本身毫無疑問受物理規(guī)律的限制。
從認識論的角度來看,心智狀態(tài)通過理解總是體現(xiàn)出語義特征,但智能機器人無法達到真正的理解。塞爾的中文屋思想試驗明確地表達了這一論點。塞爾的中文屋思想試驗大體可以表達如下:塞爾不懂中文,但是通過一本中英文對照手冊可以將中文輸入按照一定的規(guī)則輸出中文,在外人看來,塞爾似乎懂中文,因為他的中文輸出和懂中文的人的輸出類似,但根據(jù)前提假設(shè),塞爾本人不懂中文。塞爾認為,這一過程其實就是計算機的運行過程。因此,我們不能認為計算機具備理解的能力。有些學(xué)者如科爾(David Cole)、丹尼特(Daniel Dennett)、查爾默斯(David Chalmers)等人并不同意塞爾的論證。他們認為,目前的智能機器人并不能等同于計算機[3-5]。在一定程度上,這一反駁是合理的,但是這并不能反駁我們的最終結(jié)論,即智能機器人不具備語義理解能力。在塞爾的中文屋思想試驗中,計算機程序被視為符號的輸入與輸出;而目前的智能機器人比計算機程序更復(fù)雜,其根本特征在于,它不但有符號的運行,還能與外界發(fā)生因果聯(lián)系。問題在于,這兩者都不能體現(xiàn)出語義特征。符號的輸入與輸出只有句法特征,沒有語義特征,這一論點已被塞爾所論證。而因果關(guān)系同樣無法體現(xiàn)出理解的語義特征。因為首先,根據(jù)塞拉斯(Wilfrid Sellars)、羅蒂等人的觀點,語義特征屬于理由的邏輯空間,與證據(jù)、辯護相關(guān),而因果關(guān)系與之截然不同,不具備辯護能力。其次,因果關(guān)系總是有現(xiàn)實的對象,但語義對象并非總是現(xiàn)實的,比如前文已提到的孫悟空。再者,如果認為因果關(guān)系具備語義表征能力,那么自然界中的很多事物都具有語義表征能力,比如動物甚至植物,因為這些對象本身受因果關(guān)系的限制,如樹的年輪。
從價值論的角度來看,心智狀態(tài)總是自由的狀態(tài),不受特定目的的限制,比如它可以思考數(shù)學(xué)系統(tǒng)中的命題,也可以表征經(jīng)驗對象;但智能機器人不能如此,它總是受限于它所從屬的系統(tǒng)。以智能無人駕駛汽車為例,智能無人駕駛汽車雖然可以在其系統(tǒng)內(nèi)實現(xiàn)自由選擇,比如從某地到某地的路線規(guī)劃,但是它不能超出這一系統(tǒng),去自由地選擇完成別的事情,比如拿一個盒子,寫一篇論文等。因為智能機器人總是為了某一個特定的目的被設(shè)計出來的,總是受到它的算法程序的限制。在適用于所有一切事項的終極算法被創(chuàng)造出來以前,智能機器人永遠不可能突破它所屬的系統(tǒng)。因此,智能機器人不可能實現(xiàn)真正的自由。
提高語文課堂教學(xué)效率,是當(dāng)今語文教學(xué)的迫切要求,是語文教師不可推卸的責(zé)任。教師只有從培養(yǎng)學(xué)生良好的課堂學(xué)習(xí)習(xí)慣、激發(fā)學(xué)生學(xué)習(xí)語文的興趣、引導(dǎo)學(xué)生將學(xué)與練結(jié)合、指導(dǎo)學(xué)生學(xué)習(xí)的方法等方面著手,才能真正提高語文課堂教學(xué)的效率,減輕學(xué)生的課業(yè)負擔(dān),讓學(xué)生樂于學(xué)習(xí)。
以上三個方面的考慮表明,智能機器人無論如何都不具備心智狀態(tài)。因為它不能像心智狀態(tài)一樣,具備意向能力,無法獲得真正的理解能力,也不具備超出自己所屬系統(tǒng)的自由選擇的能力。即便在將來的某個時刻,它表現(xiàn)出來的行為模式在某些方面和人類一樣,甚至超過人類,它也無法擁有完整的心靈。這也就是說,智能機器人不會成為完全意義上的道德主體。因為它不具備道德主體所要求的必要條件,即擁有心智狀態(tài)[6]。
通過上述分析,我們可以明確,從道德主體的角度思考智能機器人的倫理問題是不可能的,因為智能機器人不具備心智狀態(tài),無法成為真正意義上的道德主體。但這并不意味著智能機器人無法在倫理領(lǐng)域中占據(jù)一席之地。從道德主體的對立面即道德接受者的角度思考智能機器人,可能是一個合適的選擇。
從歷史的角度來看,道德接受者的范圍在不斷擴大。比如在之前很長一段時間內(nèi),犯人、奴隸、動物等都被認為不是道德接受者,不能享受道德主體善意的對待;但目前,很多倫理學(xué)者都在為犯人和動物的權(quán)利吶喊,甚至有些生態(tài)倫理的支持者認為,生態(tài)環(huán)境也是道德接受者,也應(yīng)該享有相應(yīng)的權(quán)利。在這種情況下,智能機器人成為道德接受者似乎是理所當(dāng)然的。因為看起來,我們沒有理由認為動物和生態(tài)環(huán)境是道德接受者,卻否認智能機器人的道德接受者地位。就像托發(fā)凱尼(Niklas Toivakainen)在解釋特克爾(Sherry Turkle)的采訪者時所說的那樣:“他所要求的至少或者應(yīng)該在某種意義上,機器人自身應(yīng)該至少被視為道德接受者,即應(yīng)該被合乎道德地尊重或?qū)Υ@看起來非常像動物權(quán)利或環(huán)境權(quán)利的問題。”[7](P270)在我看來,因為動物和生態(tài)環(huán)境在倫理領(lǐng)域中的道德地位發(fā)生過轉(zhuǎn)變,因而追問智能機器人的道德接受者地位,這種解題思路可能會涉及很多問題。為方便起見,我們應(yīng)首先追問,某物到底為何能成為道德接受者?
嚴(yán)格來說,這個問題可以說是仁者見仁、智者見智。最近,學(xué)術(shù)界有兩種新觀點值得我們注意。第一種觀點由弗洛里迪(Luciano Floridi)提出,被稱為“信息倫理學(xué)(Information Ethics)”。這種觀點認為,世界上存在的所有事物都至少值得一定程度的尊重。第二種觀點借助了列維納斯(Emmanuel Levinas)對他者的思考,這種觀點認為,所有的倫理道德的問題都是關(guān)于他者的問題,因此他者一開始就應(yīng)受到尊重。我們首先來考察第一種觀點。
根據(jù)信息倫理學(xué),所有存在的事物,不論是有生命的還是無生命的,都是信息對象。因為所有的事物都是由數(shù)據(jù)構(gòu)成的,都是信息的集合體。為了更清楚地說明這一點,弗洛里迪給出了一個簡單的類比。他指出,在抽象的化學(xué)層次上,每一個實體或過程都滿足一個特定的化學(xué)描述。比如人是由70%的水和30%的其他物質(zhì)構(gòu)成。同樣,在抽象的信息層次上,每個實體或過程都是由信息構(gòu)成的,都滿足某個特定的信息描述[8](P46)。比如某個東西表達出某些信息,或者用某些信息作為資源產(chǎn)生出另一些信息作為產(chǎn)品。因此,在信息抽象的層次上,所有事物都可以被視為信息的集合體。進一步,弗洛里迪指出,信息具有自身的固有價值。因為任何信息實體都有權(quán)利堅持自己的狀態(tài),發(fā)展和豐富自己的存在和本質(zhì)。弗洛里迪將前者稱為“斯賓諾莎式的權(quán)利(Spinozian right)”,將后者稱為“構(gòu)建主義的權(quán)利(Constructionist right)”。如果弗洛里迪對信息固有權(quán)利的說明是有效的,那么聯(lián)合他的第一個論斷即事物都是由信息構(gòu)成的,似乎就很容易得出這樣的結(jié)論,即所有事物,不論多么卑微,都有權(quán)利要求被尊重。這即是信息倫理學(xué)的核心思想。
信息倫理學(xué)有不少優(yōu)點。比如從本體論的角度來看,它把所有事物都囊括在倫理道德領(lǐng)域之中,這打破了許多其他種類的倫理學(xué)的局限,如動物倫理學(xué)、生態(tài)倫理學(xué)。其次,信息倫理學(xué)是以道德接受者的角度為出發(fā)點的,似乎并沒有受到人類中心主義的影響。這在當(dāng)今越來越強的反人類中心主義的視域之下,可能也是一個優(yōu)點。問題在于,信息倫理學(xué)自身存在的問題,并沒能給出很好的說明。比如說,為什么信息倫理學(xué)一定要將倫理領(lǐng)域擴展到所有事物之上?信息具有自身的價值,但這并不等同于它一定會得到他人的尊重。因為它的這種固有價值很有可能被人忽視。其次,如布賴(Philip Brey)所言,信息對象只有相對于接受者的概念框架而言才是可能的,但它本身又被要求具有固有價值,二者之間并不融貫[9](P112-113)。因為前者表明,信息依賴于主觀接受者;而后者則表明,信息具有獨立地位,二者之間相互沖突。在我看來,如果不回答這些問題,信息倫理學(xué)將始終難以令人信服。
第二種觀點試圖借助列維納斯對他者問題的思考承認他者的道德接受者地位。在列維納斯的哲學(xué)思想中,他者與自我的關(guān)系是他思考的重點。不過和很多哲學(xué)家不一樣,他并沒有從認識論的角度思考這個問題,而是將這個問題納入到本體論的思考領(lǐng)域之中,并且將這種關(guān)系視為主體結(jié)構(gòu)和自我結(jié)構(gòu)的基礎(chǔ)。和一般的觀點不同,列維納斯并不承認自我相對于他者而言的優(yōu)先性,而是認為他者是自我的前提。比如他曾明確指出,“一個富有意義的世界是一個其中有他人的世界,由于他人,我的享受的世界就變成了一個具有含義的主題”[10](P194);他也曾說過,“我的條件,或無條件性,并不是始于擁有主權(quán)的自我的自發(fā)影響,這種自我將會在事件之后‘同情’他者。相反:只有處于被他者困繞之中,在先于任何自動同一所遭受的創(chuàng)傷之中,在之前的未表現(xiàn)中,有責(zé)任的自我的獨特性才是可能的”[11](P123)。按照列維納斯的思路,貢克爾(David Gunkel)曾這樣解釋到:“自我或我,并不構(gòu)成前存在的自我斷定的條件……相反,它是作為不可控制和不可理解地面向他者之臉的一個副產(chǎn)品。”[12](P177)也就是說,他者不是作為他者之心顯現(xiàn)的,而是作為他者之臉顯現(xiàn)的。在列維納斯那里,“臉”是一種隱喻,它通過“拒絕被包含在內(nèi)”而顯現(xiàn)出來。他者作為他者之臉顯現(xiàn)出來,意味著他者拒絕被自我包含在自我之中。因為,對于自我而言,他者是一種無限。“世界由于他人才具有意義”“自我只有處于被他者的困繞之中才是可能的”,這些都表明,面向他者之臉是自我和他者關(guān)系的基礎(chǔ),自我只有在這種關(guān)系中才存在。由于自我與他者之間的關(guān)系被列維納斯看作是一種倫理關(guān)系,因此,當(dāng)列維納斯承認他者在二者關(guān)系中起基礎(chǔ)地位時,他實際上從一開始就肯定了他者是倫理可能性的基礎(chǔ)條件。
列維納斯對自我與他者之間關(guān)系的闡述似乎表明他并沒有從道德接受者的角度思考他者的問題,而且他關(guān)于他者問題的思考看起來擺脫了道德主體與道德接受者二者之間的區(qū)分。但是如果我們能夠仔細分析“面向他者之臉”這樣一種表述,就可以發(fā)現(xiàn)列維納斯實際上并沒有逃避人類中心主義的影響。因為只有人類才能有意識地面向他者之臉,才能發(fā)現(xiàn)他者之臉。其次,列維納斯所說的他者指的也是人,而非其他事物。在他看來,非人的他者不能建立起倫理關(guān)系。從這個角度來看,列維納斯關(guān)于他者的思考恰恰就是從道德接受者的角度來處理他者的倫理問題,只不過他是以人作為他者,并且將他人視為道德接受者,從而提升了道德接受者的倫理地位。
貢克爾和伊索納(Lucas Introna)等人認為,列維納斯理解倫理關(guān)系的思路為我們理解動物、機器以及自然生態(tài)的倫理地位提供了很好的思想資源,可以將“他者”的外延擴展到動物、自然生態(tài)以及機器之上[12-13]。在我看來,不假思索地將他者的范圍擴展到其他事物身上,進而判斷這些事物的倫理屬性,可能會面臨一些困難。因為首先,他人與動物、生態(tài)以及機器之間存在著種類上的不同,將他者的外延擴展到這些事物之上可能會影響列維納斯討論自我與他者之間的關(guān)系。其次,列維納斯關(guān)于自我與他者關(guān)系的論述并不是一個嚴(yán)格的倫理問題,而應(yīng)該被看作是一種前倫理的討論,其目的是為倫理關(guān)系提供合適的基礎(chǔ)。因為倫理考慮的是責(zé)任與義務(wù)之類的問題,但很明顯列維納斯沒有給出任何倫理原則,也沒有思考“應(yīng)該”如何對待他者。當(dāng)然,這并不是說列維納斯的思想不能為思考智能機器人的倫理問題提供思想資源;而是說,在利用列維納斯的理論時,我們需要慎重一些。
上一節(jié)的分析表明,理解某物的道德接受者地位可能會非常復(fù)雜。立足于信息倫理學(xué)為智能機器人指派道德接受者地位是不可能的,因為信息倫理學(xué)的根基并不牢固,有待進一步澄清;至于列維納斯的倫理思想,如果想要利用它來說明智能機器人的倫理地位,則需要補充更多理由。我們接下來嘗試從列維納斯的思路出發(fā),闡述智能機器人作為道德接受者是如何可能的。
首先,列維納斯關(guān)于自我和他者關(guān)系的說明為我們提供了一個合適的框架。雖然在這個框架中,他者主要指的是人類,沒有包含智能機器人此類人工事物,但是他的框架本身并不能阻止我們在理想情況下將智能機器人這樣的事物看作是另一種“他者”,一種不同于人類但“有意識地”面向他者的“他者”,我們稱其為“準(zhǔn)他者”。列維納斯關(guān)于語言的論述,為這種準(zhǔn)他者的存在提供了基礎(chǔ)。他說道:“絕對的差異,無法根據(jù)形式邏輯來想象,只能憑借語言創(chuàng)立。語言在那些打破了屬之統(tǒng)一體的諸項之間實現(xiàn)一種關(guān)系。這些項,這些對話者,從關(guān)系中脫離出來,或者,在關(guān)系中保持絕對。語言或許可以被界定為打破存在或歷史之連續(xù)性的權(quán)能本身。”[10](P179)這也就是說,語言是將自我與他者隔離開的一個關(guān)鍵因素,它創(chuàng)造了自我與他者之間絕對的差異,表明了他人在倫理上的不可侵犯性。在現(xiàn)實生活中,很多智能機器人都能使用人類語言,具備自然對話功能。雖然在塞爾的意義上,這些智能機器人無法“理解”語言,但我們不能否認的是,它們的確能夠使用語言從事對話活動。在對話過程中,智能機器人使用的語言可以為人與智能機器人之間實現(xiàn)一種關(guān)系。在這種關(guān)系中,人作為一個項,保持著絕對;而智能機器人作為另一個項,在一定程度上,也保持著獨立。只不過智能機器人的這種獨立不像他者的獨立一樣,它在很大程度上依賴于人類。如果這個思路是可行的,那么這將表明,在倫理領(lǐng)域中至少存在兩種關(guān)系,一是自我與他者的關(guān)系,一是自我與準(zhǔn)他者的關(guān)系。在自我與他者的關(guān)系中,他者是基礎(chǔ);而在自我與準(zhǔn)他者的關(guān)系中,自我是基礎(chǔ)。自我與準(zhǔn)他者的關(guān)系依附于自我與他者之間的關(guān)系。
其次,在自我與他者之間的關(guān)系中,自我不得不面向他者之臉,這是列維納斯一再強調(diào)的;但在自我與準(zhǔn)他者之間的關(guān)系中,自我并不必然地面向準(zhǔn)他者之臉。因為準(zhǔn)他者之臉并沒有他者之臉的本原性。根據(jù)列維納斯的看法,“他人的他異性并不依賴于任意一種會把他與我區(qū)別開來的性質(zhì),因為這樣一種區(qū)分恰恰意味著在我們之間存在著這種屬的共同體,后者已經(jīng)取消了他異性”[10](P178)。這也就是說,他者與我的這種差異是在屬的共同體之下的差異,并不是在屬的基礎(chǔ)上的差異。因為自我與他者屬于同一個屬,即人類。但準(zhǔn)他者與我之間的這種他異性,既存在于屬的共同體之內(nèi),也存在于屬的共同體之上。因為智能機器人并不是完全的人類。更重要的是,準(zhǔn)他者是以自我作為基礎(chǔ)的,只有將自我作為前提,準(zhǔn)他者才能成為自我與準(zhǔn)他者關(guān)系之中的一個項,才有可能作為個體而存在。換句話說,如同自我是面向他者之臉的副產(chǎn)品一樣,準(zhǔn)他者是面向自我之臉的副產(chǎn)品。
綜上考慮,如果自我與準(zhǔn)他者之間存在一定的倫理關(guān)系,那么準(zhǔn)他者即智能機器人只能處于道德接受者的地位,并且這種智能機器人必須是會語言的,擁有對話能力。因為只有會語言的智能機器人才能建立起自我與準(zhǔn)他者之間的差異,才能在準(zhǔn)他者與自我建立起的關(guān)系中,保持一定程度的獨立性。當(dāng)然,需要注意的是,在此意義上,我們只能證明會語言的智能機器人具有成為道德接受者的可能性,即成為準(zhǔn)他者;而我們需要進一步證明的是,會語言的智能機器人的確能夠成為準(zhǔn)他者。
列維納斯在分析自我與他者的關(guān)系時認為,面向他者之臉是自我與他者倫理關(guān)系的基礎(chǔ)。由于自我也可以成為他者的他者,因此,相對于他者而言,自我也是一種他者之臉。也就是說,在自我與他者的關(guān)系中,只要存在一方不得不面向他者之臉,倫理關(guān)系的基礎(chǔ)便可以建立起來。因此,智能機器人要想成為準(zhǔn)他者與自我之間發(fā)生倫理關(guān)系,需要有一方面向他者之臉。在我看來,至少存在兩種情況,會語言的智能機器人能成為準(zhǔn)他者。
第一種情況是,會語言的智能機器人不得不面向他者之臉。在這個關(guān)系中,會語言的智能機器人是準(zhǔn)他者,而他者指的是自我。也就是說,會語言的智能機器人不得不面向自我之臉。比如說,在老人與智能護理機器人之間,智能護理機器人不得不面向老人之臉。因為如果智能護理機器人不面向老人之臉,那么它將不能成為真實的個體,不能在與老人的關(guān)系中存在,甚至不能成為一個副產(chǎn)品。而不直接面向自我之臉的一些智能機器人可能將不具備道德接受者地位,比如為了生產(chǎn)某種產(chǎn)品而設(shè)計的智能機器人,如果它的任務(wù)僅僅只是生產(chǎn),那么它將只會面向生產(chǎn)線,因而無法擁有道德接受者地位。
第二種情況是,自我面向會語言的智能機器人之臉。同樣地,在這種情況下,會語言的智能機器人是準(zhǔn)他者。與之不同的是,自我面向智能機器人之臉,并不是自我的無奈之舉,而是他的一個主動選擇。因為自我并不需要通過面向智能機器人之臉實現(xiàn)自我。自我主動選擇面向智能機器人之臉,很可能是因為自我與該智能機器人之間已經(jīng)發(fā)生過有意義的關(guān)聯(lián)?;蛘咦晕覍€人感情投入到該機器人身上,如某人特別喜歡某智能機器人,甚至有保護它的意愿;或者,該機器人能夠激起自我的回憶、情緒或思想,比如某人通過面向某智能機器人之臉能回憶起他的父親。在我看來,在這些情況下,自我主動面向智能機器人是可理解的,這些會語言的智能機器人也因為自我的主動面向而成為準(zhǔn)他者,并獲得道德接受者地位。
智能機器人是人工智能的典型代表,它和其他人工智能產(chǎn)品的本質(zhì)是一樣的,都是通過利用計算機、數(shù)學(xué)、邏輯、機械等來理解、模擬甚至超越人類智能的技術(shù)產(chǎn)品。因此,關(guān)于智能機器人的討論適用于其他的人工智能產(chǎn)品。這表明,人工智能倫理要想成為可能,不能從道德主體的角度來思考,因為人工智能產(chǎn)品不可能擁有心智狀態(tài),不能成為真正的道德主體。也就是說,我們只能從道德接受者的角度來思考人工智能的倫理地位。人工智能成為道德接受者有兩種方式。要么,它能主動地面向人類,這要求它能夠自主地為人類服務(wù);要么,它和某人之間發(fā)生了有意義的關(guān)聯(lián),并被賦予了一定的意義,因而具有道德接受者的地位。當(dāng)然,人工智能擁有道德接受者地位還有一個必要前提,即它必須具備對話能力,會使用某種語言。