李志祥
(南京師范大學(xué) 公共管理學(xué)院,江蘇 南京 210023)
在人工智能(體)出現(xiàn)之前,倫理學(xué)理論提供的是以人為主體、面向人類行為的道德圖景。在這幅人類中心式的道德圖景中,人類既享有道德權(quán)利又承擔(dān)道德義務(wù),非人類存在物要么只享有道德權(quán)利而不承擔(dān)道德責(zé)任(如動物),要么既不享有道德權(quán)利也不承擔(dān)責(zé)任(如人造工具)。人工智能體的出現(xiàn),對人類中心式道德圖景提出了挑戰(zhàn):考慮到人工智能具有與人類智能相似的高級智能,我們的倫理學(xué)理論應(yīng)該如何對待人工智能體?人工智能體可能造成的道德傷害,是否僅由人工智能體背后的人負(fù)責(zé)?對于這些問題,信息倫理學(xué)創(chuàng)始人弗洛里迪的回答是:“人工能動者——不僅僅是數(shù)字能動者,也包括社會能動者,諸如公司、政黨或是由人和機器形成的混合系統(tǒng),或者是在技術(shù)上得到加強的人類——應(yīng)當(dāng)被認(rèn)作對其行動負(fù)有職責(zé)的能動者?!盵1]這就意味著,在人工智能時代,倫理學(xué)理論需要做出相應(yīng)的調(diào)整,以便將人工智能體納入其中。
面對人工智能體引發(fā)的倫理問題,機器人學(xué)家形成了兩條不同的機器人倫理學(xué)思路:一條思路認(rèn)為機器人倫理學(xué)是關(guān)于人的倫理學(xué),機器人本身不涉及倫理問題;另一條思路認(rèn)為機器人倫理學(xué)是關(guān)于機器的倫理學(xué),機器人本身也進入到倫理問題之中。意大利學(xué)者帕加羅從機器人法角度總結(jié)了這兩條思路。他指出:“根據(jù)以主格或是賓格方式來理解公式的屬格關(guān)系,‘機器人法’可以從兩個方面來解讀。如果將公式理解為賓格,則提醒了我們將這些機器人視為法律規(guī)制對象的傳統(tǒng)觀點,這些法律制度明確了機器人造成損失或損害時人類責(zé)任的條件。相反的,如果將公式理解為主格,公式強調(diào)機器人作為采取行動的主體,應(yīng)當(dāng)受到法律的規(guī)制?!盵2]
人的倫理學(xué)就是將“將公式理解為賓格”的倫理學(xué),認(rèn)為機器人倫理學(xué)的本質(zhì)是人的倫理學(xué)。這種倫理學(xué)有三個核心觀點:第一,人是唯一的道德主體,機器人不可能成為道德主體;第二,機器人引發(fā)的一切倫理問題,責(zé)任不在機器人本身,而在于與機器人相關(guān)的人——設(shè)計者、生產(chǎn)者和使用者;第三,應(yīng)對機器人倫理問題,唯一的路徑是提升機器人相關(guān)人員的道德素養(yǎng)。很多學(xué)者都持這種觀點,北京大學(xué)國家機器人標(biāo)準(zhǔn)化總體組編寫的《中國機器人倫理標(biāo)準(zhǔn)化前瞻(2019)》就強調(diào)“把機器人倫理理解為關(guān)于設(shè)計、生產(chǎn)和使用機器人的人員的倫理”[3];創(chuàng)造了roboethics(“機器人倫理學(xué)”)一詞的意大利學(xué)者吉安馬可·維魯喬,同樣認(rèn)為機器人倫理學(xué)“不是面向‘人造的’或‘自然的’機器人倫理學(xué),而是面向機器人產(chǎn)業(yè)的研究人員、生產(chǎn)者和機器人使用者的倫理學(xué)”[4]。
人的倫理學(xué)是一種相對傳統(tǒng)也更為現(xiàn)實的倫理學(xué)思路。說它更為傳統(tǒng),是因為它持一種非常嚴(yán)格的、康德式的道德主體觀,認(rèn)為只有具備自由意志和實踐理性的存在物才能成為道德主體。從這個意義上說,機器人無論多么高級,它在本質(zhì)上仍然是機器,不具備真正的意識能力,因而無法成為道德主體。人工智能專家阿爾德里奇如此指出:“我們不應(yīng)該試圖聲稱人工智能系統(tǒng)本身要對決策‘負(fù)責(zé)’,責(zé)任方應(yīng)該是部署該系統(tǒng)的個人或者組織?!盵5]說它更為現(xiàn)實,是因為它擱置了機器人技術(shù)的未來爭議,僅從機器人現(xiàn)有的技術(shù)水平或者可預(yù)見的發(fā)展水平出發(fā),討論機器人倫理問題。從現(xiàn)有的和可預(yù)見的發(fā)展水平來看,機器人終歸是一種機器,人工智能在本質(zhì)上屬于邏輯運算,無法達到真正的人類思維水平。萊昂哈德極具代表性地指出:“在現(xiàn)在以及可預(yù)見的未來,哪怕是最偉大的技術(shù)也只能以某種方式模仿人類,而不能真正成為人類?!盵6]據(jù)此,人的倫理學(xué)認(rèn)為機器人的道德世界里只有人,沒有機器。
機器的倫理學(xué)就是“將公式理解為主格”的倫理學(xué),認(rèn)為機器人倫理學(xué)不僅僅是人的倫理學(xué),同時也是機器的倫理學(xué)。這種倫理學(xué)堅持另外三個核心觀點:第一,擁有自由意志和實踐理性的人可以成為道德主體,擁有一定自主行為能力的機器人也可以成為道德主體,哪怕是一種準(zhǔn)道德主體;第二,機器人引發(fā)的倫理問題,一部分道德責(zé)任應(yīng)該由相應(yīng)的人員來承擔(dān),另一部分道德責(zé)任應(yīng)該由機器人自己來承擔(dān);第三,應(yīng)對機器人倫理問題,最終的落腳點在機器人身上,應(yīng)該努力提升機器人的道德素質(zhì)。相比較而言,一些更具想象力和創(chuàng)新沖動的學(xué)者傾向于機器的倫理學(xué),最有代表性的觀點來自溫德爾·瓦拉赫的《道德機器:如何讓機器明辨是非》。該著作提出:“即使最高級的AMAs或許永遠不會真的成為與人類道德主體同樣意義上的道德主體,但是不管人們將機器能否真正有道德(或甚至真正自主)這個問題歸結(jié)到哪里,依然面臨一項工程挑戰(zhàn):如何讓人工智能體就像道德自主體那樣去行動?如果給予多功能機器以信任,讓它們脫離其設(shè)計者或主人去運行,并設(shè)計程序,使之靈活地對真實或虛擬世界中的環(huán)境做出反應(yīng),那么我們就需要相信它們的行為會滿足適當(dāng)目的。”[7]
如果說人的倫理學(xué)是一種更為傳統(tǒng)也更為現(xiàn)實的機器人倫理學(xué)思路,那么機器的倫理學(xué)就是一種更為現(xiàn)代也更具想象力的機器人倫理學(xué)思路。將道德主體嚴(yán)格局限于人,是自蘇格拉底以來的倫理學(xué)傳統(tǒng),這種傳統(tǒng)觀念在現(xiàn)代社會被逐漸打破,道德主體標(biāo)準(zhǔn)逐步放松,婦女、兒童、動物甚至自然都開始獲得道德主體地位。將機器人納入到道德主體行列,正是道德主體擴大化趨勢的現(xiàn)代進程之一。人的倫理學(xué)以現(xiàn)有的或可預(yù)見的機器人技術(shù)為基礎(chǔ),而機器的倫理學(xué)則以未來的或更具想象力的機器人技術(shù)為基礎(chǔ)。盡管足夠支撐機器倫理學(xué)的科學(xué)技術(shù)還沒有出現(xiàn),但根據(jù)“集成電路芯片上電路數(shù)目每18個月增加一倍”這個摩爾定律和庫茲韋爾所說的“技術(shù)的發(fā)展持續(xù)呈指數(shù)級增長”這一技術(shù)加速主義理論,具有更高自主能力的機器人遲早都會出現(xiàn)。一旦更為高級的人工智能(更不用說超級人工智能)問世,機器人就應(yīng)該具有自身的倫理學(xué)。
機器人倫理學(xué)到底應(yīng)該是人的倫理學(xué)還是機器的倫理學(xué),關(guān)鍵在于機器人的自主能力。作為一種人工智能,機器人具有類似于人的智能,這種智能使得機器人能夠進行一定的智能計算,做出一定的自主行為。但問題在于,在這些智能計算和自主行為中,機器人究竟具有多高的自主性,尤其是機器人是否具有一定的道德自主能力?對于道德能力與自主能力的密切相關(guān)性,查夫斯潘的說法是:“倘若給予機器人更多的自主性,那么機器人就會被要求更多的道德(倫理敏感性)”[8]。也就是說,如果機器人擁有道德自主能力,能夠自己給自己下達道德命令,那么機器人就應(yīng)該有自己的倫理學(xué);如果機器人不具有道德自主能力,一切道德決定都由機器之外的人完成,那么機器人就不應(yīng)該有自己的倫理學(xué);如果機器人具有一點點道德自主能力,能夠在一定的范圍內(nèi)脫離人類的控制,那么機器人就應(yīng)該有一點點自己的倫理學(xué)。
需要注意的是,我們這里所說的“自主能力”和“道德自主能力”,類似于康德所說的“自由意志”,其根本特征在于,無論是否存在外在原因,一定有一些決定是由主體自己做出的,而不是由外在于自己、先在于自己的其他事物所決定。馬爾科夫?qū)@種自主能力的解釋是:“今天,機器已經(jīng)可以在沒有人類干預(yù)或很少干預(yù)的情況下運轉(zhuǎn),這才是我們所要思考的自主?!盵9]從這個意義上說,那些通過代碼方式設(shè)定道德法則的機器人,并不具有真正的道德自主能力。阿西莫夫?qū)ⅰ皺C器人學(xué)三大法則”嵌入機器人,其本質(zhì)就是人為機器人立法,機器人只會服從而不會違背或質(zhì)疑被設(shè)定的法。“機器人學(xué)三大法則”與其說是機器人的道德法則,不如說是機器人的自然法則,因為機器人并沒有是否遵從的選擇余地,“他取悅你只是因為他必須這么做”[10]。
無論如何理解人工智能體具有的(道德)自主能力,我們都應(yīng)該承認(rèn),這個(道德)自主能力可以也應(yīng)該為人工智能體贏得相應(yīng)的道德權(quán)利和道德義務(wù)。在這個意義上,“面向人工智能體開放的倫理學(xué)”更側(cè)重于機器的倫理學(xué),它主要涉及兩類問題:一類問題是人工智能體的道德權(quán)利問題,這是人工智能體應(yīng)該受到何種道德對待、應(yīng)否享有道德關(guān)懷的問題;另一類問題是人工智能體的道德義務(wù)問題,這是人工智能體能否被視為道德主體、是否需要承擔(dān)道德責(zé)任的問題。美國學(xué)者貢克爾總結(jié)了這兩類問題:“什么時候機器人、算法或其他自動系統(tǒng)可以為它所做的決定或采取的行動負(fù)責(zé)?什么時候我們可以說‘這是機器人的錯’?反之,什么時候機器人、智能人工制品或其他可與人類進行社交互動的機器可以擁有某種程度的社會地位、獲得某種程度的尊重?換言之,發(fā)出‘機器人能且應(yīng)當(dāng)擁有權(quán)利嗎?’這樣的問題,什么時候才不會被視為無稽之談?”[11]因此,“面向人工智能體開放的倫理學(xué)”具有兩個開放層面:一個層面就是將人工智能體作為道德關(guān)懷的對象予以開放,另一個層面就是將人工智能體作為道德行為的主體予以開放。
將人工智能體作為道德關(guān)懷的對象予以開放,只需要討論人工智能體應(yīng)否作為道德關(guān)懷的對象,而不需要討論人工智能體能否作為道德行為的主體,因為同一訴求的權(quán)利與義務(wù)并不屬于同一個主體,而是分別屬于不同的主體。貢克爾認(rèn)為權(quán)利問題是將機器視為行動的接受者(即受動者),責(zé)任問題是將機器視為行動的發(fā)起者(即行動者),進而指出:“面向受動者的探究要問的操作性問題不再是‘機器人能且應(yīng)當(dāng)做什么?’,而是‘我們能且應(yīng)當(dāng)怎樣對這些人工制品做出反應(yīng)?’,即面對機器人,尤其是越來越親切友善的類人社交機器人,我們能且應(yīng)當(dāng)怎樣對待它們?上述問題也可以表述為‘機器人能且應(yīng)當(dāng)擁有權(quán)利嗎?’”[11]單純從道德權(quán)利角度看,人工智能體能否進入人類的道德關(guān)懷名單呢?
從道德關(guān)懷的對象層面看,人工智能體是否應(yīng)該被道德關(guān)懷,是否具有要求道德關(guān)懷的資格,取決于人類設(shè)定的道德關(guān)懷標(biāo)準(zhǔn)。從道德發(fā)展史角度看,人類道德關(guān)懷的標(biāo)準(zhǔn)一直在變化或者放松,道德關(guān)懷的范圍始終在擴大。在古希臘時期,道德關(guān)懷的標(biāo)準(zhǔn)是理性能力。是否具有理性能力,成為能否擁有道德關(guān)懷的標(biāo)準(zhǔn);所具理性能力的水平高低,意味著應(yīng)被道德關(guān)懷的程度高低。依據(jù)這個標(biāo)準(zhǔn),在古希臘人看來,具有完全理性能力的成年男性(即公民)享有完全的道德關(guān)懷,具有部分理性能力的婦女和兒童只享有部分的道德關(guān)懷,不具有任何理性能力的奴隸和動物不享有任何道德關(guān)懷。亞里士多德的說法是,奴隸“能夠感到別人的理性而自己并沒有理性”,動物“甚至不能理解到別人的理性”,所以,“使用奴隸與使用家畜的確沒有什么很大的區(qū)別。因為兩者都是用身體提供生活必需品”[12]。
此后,理性道德關(guān)懷標(biāo)準(zhǔn)沿著兩條線不斷變化。一條線沿著對人類理性能力的認(rèn)識發(fā)展而變化。在傳統(tǒng)社會看來,不同的人具有不同的理性能力,女性、奴隸、部分有色種族的理性能力較弱,因而享有的道德關(guān)懷就比較少。但隨著科學(xué)知識的發(fā)展,人們不斷認(rèn)識到性別、種族、社會地位并不是構(gòu)成理性能力差異的依據(jù),女性、低階層、少數(shù)種族和其他人具有完全相同的理性能力。現(xiàn)代女權(quán)主義奠基人沃斯通克拉夫特的說法極具代表性。她指出:“女人不僅應(yīng)該被視為有道德的人,而且應(yīng)該被視為有理性的人,她們應(yīng)該通過與男人同樣的手段,來竭盡全力獲取人類的美德(或者是完美),而不應(yīng)該被教育成那種沉溺于幻想中的半個人——正如盧梭所描寫的野蠻的怪物一樣?!盵13]因此,在各種平權(quán)運動的反復(fù)沖擊下,享有同等道德關(guān)懷的對象在不斷擴大,其發(fā)展趨勢是,所有的人,不分性別,不分種族,不分地位,都將因其具有同等理性能力而享有同等的道德關(guān)懷。
另一條線沿著對道德關(guān)懷標(biāo)準(zhǔn)的認(rèn)識發(fā)展而變化。無論是以霍布斯為代表的近代契約論倫理學(xué),還是以康德為代表的近代義務(wù)論倫理學(xué),都堅持以理性能力作為道德關(guān)懷的標(biāo)準(zhǔn)。功利主義倫理學(xué)出現(xiàn)以后,道德關(guān)懷的標(biāo)準(zhǔn)發(fā)生了變化,理性標(biāo)準(zhǔn)變成了感覺標(biāo)準(zhǔn),即是否擁有苦樂感覺,成為能否獲得道德關(guān)懷的重要依據(jù)。彼得·辛格很清晰地指出:“如果一個生命能夠感知痛苦,道德上便沒有理由拒絕考慮這個痛苦?!绻粋€生命不能感知痛苦或者快樂和幸福,就無須考慮。就是說,唯有感知力(用感知力一詞只是為了簡便,雖然不能十分準(zhǔn)確地代表感知痛苦或快樂的能力)的界限才是關(guān)懷他者利益的正當(dāng)合理的劃界?!盵14]這樣一來,具有苦樂感知能力的動物就進入了道德關(guān)懷名單。而當(dāng)施韋澤提出“敬畏生命”概念,并且認(rèn)為“敬畏生命不僅適用于精神的生命,而且也適用于自然的生命”[15]之后,感覺標(biāo)準(zhǔn)又被放大為生命標(biāo)準(zhǔn),一切生命物都被納入進來。此后,環(huán)境倫理學(xué)家又接納了諸如“荒漠”“大地”“生態(tài)系統(tǒng)”等更廣泛的生命體,進一步豐富了人類的道德關(guān)懷名單。羅爾斯頓明確指出:“一種倫理學(xué),只有當(dāng)它對動物、植物、大地和生態(tài)系統(tǒng)給予了某種恰當(dāng)?shù)淖鹬貢r,它才是完整的?!盵16]
按照既有的道德關(guān)懷標(biāo)準(zhǔn),人工智能體很難獲得人類的道德關(guān)懷。從理性標(biāo)準(zhǔn)看,作為道德關(guān)懷標(biāo)準(zhǔn)的理性并不是一般的理性,而是一種特殊的理性,即“實踐理性”,這種實踐理性的根本標(biāo)志在于它能夠“自己給自己立法”,即“我如何想,便如何吩咐”[17]。也就是說,實踐理性是一種價值理性,而不是工具理性,它需要給人自身確立生存的終極意義和價值目標(biāo),而不僅僅是提供完成某種指定任務(wù)的合理手段。人工智能體盡管具有超級強大的邏輯計算能力,但它并沒有真正的自我意識,更沒有基于自我意識之上的實踐理性。因此,人工智能體無法獲得基于實踐理性標(biāo)準(zhǔn)的道德關(guān)懷。
從感覺標(biāo)準(zhǔn)看,作為道德關(guān)懷標(biāo)準(zhǔn)的感覺主要是苦樂感覺,它要求存在物具有一定的苦樂感知能力。無論從目前的技術(shù)水平還是可預(yù)見的技術(shù)發(fā)展來看,人工智能體可以模擬由某種苦樂感覺引發(fā)的外在表情和行為,甚至達到以假亂真的程度,但并不能產(chǎn)生真正的苦樂感覺。盡管有一些科學(xué)家和哲學(xué)家從進化論的角度為這種可能性尋找理由,認(rèn)為人工智能可能會在進化過程中“涌現(xiàn)”出高級的感覺能力,但大多數(shù)學(xué)者都不相信這一點,認(rèn)為純粹物質(zhì)性的機器不可能產(chǎn)生非物質(zhì)性的感覺。正如人工智能哲學(xué)家瑞希所說:“這個機器人只是一堆電線和馬達,被設(shè)計成行為舉止像你一樣,并模仿你。所以機器人和真實的你的區(qū)別在于意識?!盵18]如果人工智能體不具備苦樂感知能力,人類和其他人工智能體的任何行為都不能增減它的苦樂量,那么人工智能體也不可能獲得基于感覺標(biāo)準(zhǔn)的道德關(guān)懷。
從生命標(biāo)準(zhǔn)看,作為道德關(guān)懷標(biāo)準(zhǔn)的生命具有有死性,會經(jīng)歷從出生到成長再到死亡的過程。在亞里士多德看來,“也為植物所有”的生命活動主要體現(xiàn)為“營養(yǎng)和生長活動”[19],人工智能體具有類似的生命活動嗎?很顯然,作為一種人造物,人工智能體不可能具有自然存在物那種意義上的生命,而只具有一種功能意義上的生命。對于功能意義上的生命來說,能夠完成指定任務(wù)就意味著具有一定的生命,不能完成指定任務(wù)就意味著喪失自己的生命。但很遺憾的是,功能意義上的生命并不能為存在物贏得人類的道德關(guān)懷,因為所有的人造工具,包括一切生產(chǎn)工具和生活工具,都具有這種功能意義上的生命,但它們只能贏得工具式的物的關(guān)注,卻無法贏得目的性的道德關(guān)懷。因此,不具有自然生命的人工智能體,同樣無法獲得基于生命標(biāo)準(zhǔn)的道德關(guān)懷。
盡管目前的道德關(guān)懷標(biāo)準(zhǔn)無法容納人工智能體,但我們真的不關(guān)懷人工智能體嗎?面對非人形的人工智能體、工業(yè)用的機器人及以軟件形式存在的人工智能,我們可能不會激起多少道德同情心,但是,面對那些服務(wù)型的人形機器人,當(dāng)它們越來越深入地介入我們的日常生活,與我們有著越來越密切的交往關(guān)系,我們真的能夠無動于衷嗎?在這個問題上,我們仿佛再次碰到了要求道德關(guān)懷的動物,那么,我們?nèi)绾文軌蛳褚郧百x予動物以道德關(guān)懷一樣,繼續(xù)賦予人工智能體以道德關(guān)懷呢?
要想賦予人工智能體以道德關(guān)懷,唯一的可行路徑是調(diào)整道德關(guān)懷標(biāo)準(zhǔn),特別是在現(xiàn)有道德關(guān)懷標(biāo)準(zhǔn)的基礎(chǔ)上進行抽象提升,這樣既能保存現(xiàn)有的道德關(guān)懷對象,又能容納新興的人工智能體。從抽象提升的意義上看,理性也好,感覺也好,生命也好,都是人類與道德關(guān)懷對象共同具有的相似性能力,因此,相似性可以視作理性、感覺和生命等現(xiàn)有標(biāo)準(zhǔn)的抽象提升,是一種比現(xiàn)有標(biāo)準(zhǔn)更為寬松的標(biāo)準(zhǔn)。但問題在于,相似性能否成為獲得道德關(guān)懷的標(biāo)準(zhǔn)呢?從哲學(xué)上看,相似性是共情和同情的基礎(chǔ)。一方面,相似性提供了理解對象的可能性,只有在相似關(guān)系基礎(chǔ)上,“設(shè)身處地”“將心比心”“己所不欲勿施于人”,同情機制才能運行。另一方面,相似性提供了同情對象的可能性,只有在相似關(guān)系基礎(chǔ)上,人類才能將對象視為自己同類,才有可能產(chǎn)生“惺惺相惜”“同病相憐”等道德同情心。斯密的解釋是:“這就是我們對他人遭受苦難的同情感的根源所在,正是通過在想象中與受難者交換位置,我們要么能設(shè)想出他的感覺,要么會被他的感覺所觸動。”[20]正是在這個意義上,相似性標(biāo)準(zhǔn)可能成為比理性標(biāo)準(zhǔn)、感覺標(biāo)準(zhǔn)和生命標(biāo)準(zhǔn)更為寬松的道德關(guān)懷標(biāo)準(zhǔn)。
如果相似性能夠成為獲得道德關(guān)懷的標(biāo)準(zhǔn),那么人工智能體能夠憑借哪一方面的相似性獲得道德關(guān)懷呢?人工智能體與人類最相似的地方,莫過于智能,因為人工智能的初衷就為了模擬人類智能。其他人造物沒有任何智能,非人存在物沒有高級智能,在這個意義上,高級智能是人工智能體與人類共有的能力,人工智能體的智能甚至在某些方面還超過了人類智能。現(xiàn)在的問題是,智能上的相似性能否為人工智能體贏得道德關(guān)懷呢?按照庫茲韋爾的理解,智能就是“對有限的資源(包括時間)進行最優(yōu)化利用以達成各種目標(biāo)”[21]。根據(jù)這種理解,人工智能可以和人類智能一樣進行以效率為標(biāo)準(zhǔn)的自主思考,人工智能體可以和人類一樣進行自主性的行為。在此基礎(chǔ)上,人工智能體與人類可以互相理解,互相交流,互相尊重。按照理性主義者的解讀,與感覺上的相似和生命上的相似相比,智能上的相似是一種更為高級的相似。法學(xué)教授哈列維曾分析指出:“如果使用感性衡量,相較于機器,動物和人類更加接近。但是,如果使用純理性衡量,相較于動物,機器可能和人類更加接近?!盵22]如果感覺和生命上的相似性能夠為生物贏得道德關(guān)懷,那么智能上的相似性也應(yīng)該能夠為人工智能體贏得相同的道德關(guān)懷。
在解決了人工智能體應(yīng)否具有道德權(quán)利的問題之后,我們就可以面對人工智能體應(yīng)否具有道德義務(wù)的問題。在傳統(tǒng)倫理學(xué)理論看來,只有人才能成為道德主體,才能承擔(dān)道德責(zé)任。韋弗從法學(xué)層面揭示過這個傳統(tǒng)。他指出:“這包括我們法律所依賴的假設(shè)。在美國,我們地方、州和聯(lián)邦層面的幾乎所有法律都有一個共同的假設(shè),即所有決定是由人類做出的。”[23]新興的人工智能體能夠做出一定的自主行為,并且有可能給人類造成一定的傷害或損失,這就引發(fā)了一個全新的問題:人工智能體能否被視為一種道德主體,是否需要承擔(dān)一定的道德責(zé)任?
面對新興的人工智能體,反對擔(dān)責(zé)者并不關(guān)注它們能做什么,而是聚焦于它們不能做什么。在反對者看來,人工智能體盡管具有人類的部分智能,但它仍然欠缺人類具有的很多重要能力。正是人工智能體欠缺的那些重要能力,使得人類能夠成為真正的道德主體,能夠?qū)ψ约旱牡赖滦袨樨?fù)責(zé),也使得人工智能體無法成為真正的道德主體,無需對自己的行為承擔(dān)道德責(zé)任。
第一個問題:機器人沒有苦樂感覺和幸福欲求能力。在反對者看來,人工智能體無論如何智能,它在本質(zhì)上仍然是一種機械性、物質(zhì)性的機器,而不是生物意義上的肉身,因而不具有各種涉身性的苦樂感覺、情感體驗及幸福欲求。德雷福斯強調(diào)指出:“我們已經(jīng)看到,我們的身體以及我們的情感和情緒,在我們區(qū)分事物相關(guān)性的能力、讓事情變得對我們重要并獲取技能的能力、我們對事物真實性的感覺、我們對他人的信任、我們做出無條件信責(zé)以給予生命確定意義的能力、培養(yǎng)交互的物理性以使得有意義的焦點事件變得可能的能力之中,都扮演了關(guān)鍵的角色。”[24]沒有苦樂感覺、情感體驗及幸福欲求,意味著人工智能體的一切行為都是被動的,它沒有自我利益,沒有對幸福生活的體驗和追求,因而也就沒有主動行為的動機和意圖。沒有動機和意圖推動的行為,只能是亞里士多德所說的“被迫的行為”,很難稱為真正的道德行為,無法要求人工智能體為這樣的行為負(fù)責(zé)。
第二個問題:機器人沒有真正的理解和思考能力。在反對者看來,人工智能體能夠做出看起來像人類一樣的反應(yīng)、交流和行為,但這些反應(yīng)、交流和行為只是看起來像人類一樣,并不完全跟人類一樣,因為在這些反應(yīng)、交流和行為的背后并不包含真正的理解。塞爾通過“中文屋”思想實驗做出了說明,“中文屋”里的人可以借助字典做出正確的回應(yīng),但他并不真正理解中文。弗洛里迪稱此為“意向論異議”。他指出:“意向論異議論證說,對于一個人工能動者之成為一個道德能動者,使得該能動者能夠?qū)嵤┯心康牡男袨槭遣粔虻?。要成為一個道德能動者,該能動者必須把自己與它的行動以一種更為意味深長的方式相關(guān)聯(lián),使之意味著,想要或意欲以某種方式行動,并且在認(rèn)識上意識到它的行動。”[1]這就是說,人工智能具有一定的邏輯運算能力,但并不具有真正的理解和思考能力。人工智能體的行為缺乏理解,只能是亞里士多德所說的“無知的行為”,因而無須人工智能體為之擔(dān)責(zé)。
第三個問題:機器人沒有自由意志。在康德那里,自由意志是道德的前提,自由意志可以掙脫自然因果規(guī)律的束縛,為人類提供了基于自由的道德可能性。作為人工制造出來的存在物,人工智能體在本質(zhì)上是一種受造物。盡管上帝有可能賦予人類以自由意志,但人類無法賦予人工智能體以自由意志。沒有自由意志,意味著人工智能體只能服從外在的、創(chuàng)造者的意志。對于人工智能體來說,這個外在的、創(chuàng)造者的意志就像具有決定論意義的自然因果規(guī)律一樣,不可選擇,不可拒絕,只能服從。阿布尼對這類反對意見的總結(jié)是:“機器人通常被認(rèn)為與具有理性的人類能動主體完全不一樣,盡管機器人可能具有道德所需的推理能力,但機器人沒有自由意志,缺乏真正道德主體所必需的自由?!盵4]因此,沒有自由意志的人工智能體不可能成為自我立法的道德主體,也無須為自己的行為承擔(dān)道德責(zé)任。
盡管有這么多的反對意見,仍然有學(xué)者認(rèn)為人工智能體能夠成為道德主體,需要為自己的行為負(fù)責(zé)。與反對者不同,支持者并不關(guān)心人工智能體不能做什么,而是聚焦于人工智能體能夠做什么。支持者主要由兩部分組成。一部分支持者是基于進化論的未來主義者。他們從兩個方面批判了反對者的觀點:一方面,他們將人工智能與人類大腦相比,要么懷疑人類具有真正的理解能力和自由意志,要么像丹尼爾·丹尼特那樣對意識和意志進行自然主義的解釋;另一方面,他們以進化論為基礎(chǔ),認(rèn)為人工智能必然會超越人類智能,最終演化為擁有感覺、欲望、理解、思考和自由意志能力的超級智能。另一部分支持者則是基于可預(yù)期科技發(fā)展的現(xiàn)實主義者。他們承認(rèn)機器人不具有感覺、欲望、理解、思考和自由意志,現(xiàn)在不具有,在可預(yù)見的將來也不具有,即便如此,他們?nèi)匀徽J(rèn)為機器人可以被視為道德主體,需要為自己的行為負(fù)責(zé),因為人工智能體與人類一樣具有自主能力。
事實上,人工智能體能否被視為道德主體,是否需要承擔(dān)道德責(zé)任,關(guān)鍵在于人工智能體具有什么樣的自主能力。盡管狂熱的智能進化論者認(rèn)為“人類最終會接受非生物實體也是有意識的”[25],但大多數(shù)現(xiàn)實主義者并不相信超級智能。在大多數(shù)理性的學(xué)者看來,即使將超級智能的技術(shù)可能性擱置一邊,僅僅從人類意愿的角度看,具有完全自主能力的人工智能體也不可能出現(xiàn)。人工智能體作為人類為了自身利益而創(chuàng)造出來的人造物,其存在意義和終極價值只能由人類這個造物者指定,而不可能由人工智能體自行決定。從保障人類安全的角度看,人類同樣需要人工智能體具有一定的可控性,這就要求剝奪機器人的部分自主能力。也就是說,人工智能體的終極存在意義和根本行為規(guī)范只能出自人類的自由意志。既然人工智能體不具有真正的自由意志,不能自己給自己立法,那么,人工智能體就不可能成為一種完全的道德主體。
盡管人工智能體無法成為一種完全的道德主體,但它卻有可能成為一種不完全的道德主體,或者叫“準(zhǔn)道德主體”。在兩種意義上,人工智能體具有需要為之負(fù)責(zé)的自主性。第一,人工智能體盡管不能自己給自己立法,但仍然需要自主執(zhí)行人類給自己立的法。也就是說,人類給人工智能體設(shè)定了行為的目標(biāo),但仍然需要人工智能體自主設(shè)計行為的過程。既然行為過程是人工智能體自主設(shè)計的,它就需要為這種自主設(shè)計負(fù)責(zé)。第二,人工智能體盡管不能在根本意義上為自己立法,但仍然需要并可能為自己立部分法。因為道德不同于法律,一個國家往往具有所有人都認(rèn)可的法律規(guī)范,但很難存在所有人都認(rèn)可的道德規(guī)范。那些獲得廣泛共識、具有底線倫理意義上的道德規(guī)范,可以通過自上而下的代碼方式設(shè)定在人工智能體之中;但那些本身就存在爭議的道德規(guī)范,連人類自身都沒有辦法取得共識,恐怕只能留給人工智能體了。人工智能體可以通過自主學(xué)習(xí)方式解決有爭議的道德規(guī)范,即通過學(xué)習(xí)人類提供的相關(guān)數(shù)據(jù),以及與人類和其他人工智能體交流互動,最終形成自己獨特的道德規(guī)范。這種通過自主學(xué)習(xí)獲得的道德規(guī)范,往往擺脫了人類的控制,需要人工智能體自己為之負(fù)責(zé)。莫拉維克曾明確指出:“自主學(xué)習(xí)的功能使機器對外部的不可預(yù)測因素有了更強的適應(yīng)力。那種認(rèn)為計算機以及由其控制的機器人是人類程序員的工具的錯覺該結(jié)束了?!盵26]
人工智能體盡管不能自主設(shè)定根本的行為規(guī)范,但仍然需要自主設(shè)定部分行為規(guī)范和行為過程,正是在這個意義上,我們可以把人工智能體視為“準(zhǔn)道德主體”,認(rèn)為其需要承擔(dān)與之相應(yīng)的有限道德責(zé)任。阿莎羅將機器人視為類似于兒童的準(zhǔn)人類。她指出:“……因此,兒童可以被視為準(zhǔn)人類,或者法律意義上的法人?!覀円菜坪跤欣碛烧J(rèn)為,一些機器人在實現(xiàn)完全法律意義上的人格之前,最終可能會被法律賦予準(zhǔn)法人的身份?!盵4]這種人工智能體所應(yīng)具有的道德,不可能是康德式的完全自主道德,而只能是瓦拉赫式的“功能性道德”,或摩爾式的“外顯式道德”。瓦拉赫曾經(jīng)明確指出:“盡管如此,人工道德行動體的研究項目開發(fā)得越快,就越能將其定位于‘被操控的道德’與真正的道德行動體之間——這個空間我們將其標(biāo)記為‘功能性道德’?!盵4]
面向人工智能體開放的倫理學(xué),并不是要替代或取消現(xiàn)有的倫理學(xué)理論,而是對現(xiàn)有倫理學(xué)理論的一種調(diào)整或補充。其根本意圖在于,適當(dāng)降低道德的門檻,將更多的存在物納入到道德中來,從而進一步擴大倫理學(xué)理論的范圍。在這種擴大的倫理學(xué)理論之中,我們既可以保留最完全、最嚴(yán)格的倫理學(xué),也可以容納不完全、較寬松的倫理學(xué)。這種經(jīng)過調(diào)整的倫理學(xué)理論,可以具有更大的倫理解釋力,能夠解決更多的現(xiàn)實倫理問題。韋弗的這段話對于倫理學(xué)同樣適用:“這就是理想。修改我們的法律以便讓機器人也成為人絕不僅僅是讓中產(chǎn)階級壯大的方法,盡管我們適當(dāng)修改法律的話,這種效果會發(fā)生的。如果我們把機器人當(dāng)成人類一樣對待,它們也會使我們更具人性?!盵23]