王東浩
(南開(kāi)大學(xué) 哲學(xué)院, 天津 300071)
人工智能體的道德確立與倫理困境
王東浩
(南開(kāi)大學(xué) 哲學(xué)院, 天津 300071)
人工智能體道德的出現(xiàn)引發(fā)了人們對(duì)傳統(tǒng)倫理體制的思考。隨著技術(shù)不斷革新,人工智能體的內(nèi)涵也不斷豐富,它的自由性和獨(dú)立性日趨進(jìn)步。人工智能體的安全性凸顯,在設(shè)計(jì)和應(yīng)用人工智能體的過(guò)程中,傳統(tǒng)的研發(fā)進(jìn)路已然落后。人們對(duì)人工智能體有無(wú)道德以及道德去向提出了質(zhì)疑。人工智能體走向人機(jī)一體化可能更有助于人工智能體道德的確立,人機(jī)之間的互動(dòng)與交流對(duì)于人工智能體道德所引發(fā)的倫理困境而言具有進(jìn)步意義。人機(jī)之間的和諧相處可能是未來(lái)人工智能體道德邁出困境的一條路徑。
人工智能體; 道德沖突; 倫理困境; 人機(jī)關(guān)系
人工智能體已經(jīng)充斥在我們生產(chǎn)、生活與學(xué)習(xí)的各個(gè)角落,它們給人類世界提供了極大的便利,但同時(shí)人工智能體尤其是機(jī)器人的廣泛應(yīng)用也沖擊著傳統(tǒng)的倫理和道德體制,從而進(jìn)一步引發(fā)了人類對(duì)人工智能體道德存在與否的爭(zhēng)論。人工智能體以其不可或缺的便利而獨(dú)立存在,這已成為不容人類忽視的一個(gè)事實(shí),那么理所當(dāng)然,人工智能體所承載的倫理和道德規(guī)范也必然占據(jù)一席之地。當(dāng)下的人工智能體尤其是機(jī)器人已有一定的意識(shí),可以依據(jù)一定的程序行使其判斷力,但這與人類的獨(dú)立意識(shí)仍相差甚遠(yuǎn)。我們期待人工智能體可以發(fā)展成完全的道德主體,那么這個(gè)主體的道德內(nèi)涵如何詮釋呢?其道德責(zé)任又歸屬何處呢?人工智能體道德沖擊著人類傳統(tǒng)的倫理體制,它所表現(xiàn)出來(lái)的倫理困境正是人類所需面對(duì)的問(wèn)題。盡管人們對(duì)于智能體道德這一概念已經(jīng)廣泛接受,但是也有很多人對(duì)此研究進(jìn)路提出了反對(duì)意見(jiàn),尤其是在設(shè)計(jì)機(jī)器人做出道德決定的能力方面。
計(jì)算機(jī)科學(xué)家Rosalind Picard指出“機(jī)器的自由化程度越高,就越需要道德標(biāo)準(zhǔn)”[1],因此,人工智能體的道德建構(gòu)與發(fā)展就變得尤為必要。隨著技術(shù)革新的加快,人工智能體在人類關(guān)系中的滲透已越來(lái)越深入,這種情況下就更需要開(kāi)發(fā)智能體道德決策方面的能力。但人工智能體道德的提出對(duì)于人類傳統(tǒng)的倫理體制無(wú)疑是一個(gè)挑戰(zhàn)?;诖?,處于道德兩難境地的倫理學(xué)家虛構(gòu)的“失控電車案例”[2]可能代表了人工智能體道德在目前所應(yīng)承受的最大問(wèn)題。
那么人工智能體道德“向善的一面”究竟是什么?眾所周知,在軟件運(yùn)行中計(jì)算機(jī)病毒已經(jīng)對(duì)人類造成了傷害。以信用卡支付系統(tǒng)(自動(dòng)儲(chǔ)存貿(mào)易系統(tǒng))為例,它是自動(dòng)化系統(tǒng)的一個(gè)典型,但由于它缺乏道德決策方面的能力,從而已經(jīng)對(duì)我們的倫理生活產(chǎn)生了很大的影響。在當(dāng)今社會(huì),電腦信息處理方面的技術(shù)應(yīng)用已經(jīng)深入到我們生產(chǎn)生活的各個(gè)領(lǐng)域,包括在家庭中負(fù)責(zé)照顧老年人的服務(wù)型機(jī)器人,以及具有射擊功能的軍用機(jī)器人,它們?nèi)狈惱砭S度的考量,從而可能會(huì)對(duì)人類造成傷害。
在嚴(yán)格意義上的自動(dòng)化系統(tǒng)中,其道德表現(xiàn)完全掌控在設(shè)計(jì)者或使用者的手里。隨著技術(shù)的更新,機(jī)器變得更為復(fù)雜。這時(shí),人工智能體就朝向“功能型道德體”機(jī)器人發(fā)展,這類機(jī)器人有能力對(duì)與道德挑戰(zhàn)相關(guān)的情況進(jìn)行評(píng)估和做出反應(yīng)。而功能型機(jī)器的創(chuàng)造者同樣也面臨著許多限制,這從根本上歸咎于當(dāng)前技術(shù)的發(fā)展。然而,我們也應(yīng)該認(rèn)識(shí)到,至少在理論上,人工智能體最后可能會(huì)成為具有權(quán)利和義務(wù)的,能夠與人類相媲美的真正意義上的道德主體。
我們是否想讓計(jì)算機(jī)做出道德決定?人工智能體自主做出道德決定是否有益?人類對(duì)這一問(wèn)題的擔(dān)憂正是技術(shù)與人類文化相互影響的一個(gè)非常普遍的狀況?;趥鹘y(tǒng)技術(shù)哲學(xué)的人工智能,特別是人工智能體在現(xiàn)實(shí)生產(chǎn)生活諸領(lǐng)域的應(yīng)用也引起了一些倫理方面的憂慮。例如,擬人化的機(jī)器人娃娃,機(jī)器人寵物、家庭用機(jī)器人、伙伴機(jī)器人、性玩具、甚至軍用機(jī)器人,這些人造體在與人類的交互關(guān)系中逐步替代了傳統(tǒng)的人際關(guān)系,這是否會(huì)造成一些問(wèn)題。諸如,人工智能體面臨的責(zé)任如何分配?另外,從現(xiàn)在機(jī)器的發(fā)展趨勢(shì)來(lái)看,人類的發(fā)展前景會(huì)受到機(jī)器的奴役,而技術(shù)進(jìn)步所帶來(lái)的利益與相關(guān)風(fēng)險(xiǎn)所引起的災(zāi)難更有待于評(píng)估?;蛘撸?dāng)風(fēng)險(xiǎn)相對(duì)較低時(shí),我們是否要考慮一個(gè)預(yù)防性的策略?從歷史的觀點(diǎn)來(lái)看,技術(shù)哲學(xué)家的主要任務(wù)是批判,但是社會(huì)的發(fā)展卻催生了哲學(xué)家的轉(zhuǎn)向,也就是幫助把人類所具有的敏感性價(jià)值介紹進(jìn)設(shè)計(jì)系統(tǒng),從而進(jìn)一步實(shí)現(xiàn)技術(shù)與哲學(xué)的交叉融合。
機(jī)器人真的能有道德嗎?人工智能體如何才能更進(jìn)一步,缺乏人類意識(shí)和情感方面特質(zhì)的機(jī)器人是否會(huì)成為道德主體?包括哲學(xué)家在內(nèi)的很多人相信,一個(gè)“純粹”的機(jī)器不能稱之為道德主體。在此,對(duì)這一問(wèn)題我們保持中立的態(tài)度。然而,我們相信對(duì)于人工智能體的現(xiàn)實(shí)需求會(huì)促成一個(gè)更加務(wù)實(shí)的研究進(jìn)路。我們接受一個(gè)完全成熟的道德主體(它依靠強(qiáng)有力的人工智能)或即使是弱的人工智能體,但它必須具備通過(guò)圖靈測(cè)試的能力——這一程序由Alan Turing設(shè)計(jì)[3],也就是用智能化的人類語(yǔ)言對(duì)機(jī)器進(jìn)行等量的自由測(cè)試——可能會(huì)超越當(dāng)前甚至未來(lái)的技術(shù)。目前來(lái)說(shuō),這一技術(shù)是需要時(shí)間和實(shí)踐來(lái)驗(yàn)證的。然而,人工智能體發(fā)展得越迅速,我們就越能夠把它置于“操作型道德體”與真正的道德體之間。我們把它標(biāo)識(shí)為“功能型道德體”。我們相信基于人工智能和更多建立在人工神經(jīng)網(wǎng)絡(luò)與體驗(yàn)認(rèn)知基礎(chǔ)上的最新進(jìn)路與傳統(tǒng)的符號(hào)處理方法進(jìn)路的結(jié)合,能夠?yàn)椤肮δ苄偷赖麦w”的發(fā)展提供更多的技術(shù)支持。
人工智能體道德的設(shè)計(jì)通常有兩條進(jìn)路:自上而下的理論體系與自下而上的理論體系。任何“自上而下”的倫理理論的實(shí)施都會(huì)帶來(lái)計(jì)算和應(yīng)用兩方面的挑戰(zhàn)。這一倫理體系的中心原則均以規(guī)則和義務(wù)為基礎(chǔ)的倫理觀念以及功利主義構(gòu)造為背景條件。當(dāng)設(shè)計(jì)機(jī)器人的相關(guān)標(biāo)準(zhǔn)時(shí),Asimov的三條規(guī)則已經(jīng)滲透到我們的思維觀念中,但即便如此,在智能體道德的程序設(shè)計(jì)方面,這些表面上明確的原則也無(wú)法應(yīng)用到實(shí)踐中去。高標(biāo)準(zhǔn)的規(guī)則,諸如黃金律則,康德的道義論,或?qū)Y(jié)果論的普遍要求,也會(huì)由于一些簡(jiǎn)單的計(jì)算而失效。然而,從諸多倫理標(biāo)準(zhǔn)中衍生出的倫理原則對(duì)于人工智能體道德的設(shè)計(jì)有可能起到導(dǎo)向的作用,或者這些原則本身就成為了人工智能體行動(dòng)過(guò)程中的效果評(píng)估標(biāo)準(zhǔn)。
另一條關(guān)于人工智能體道德的設(shè)計(jì)和發(fā)展進(jìn)路為“自下而上”的理論體系。它試圖去仿效學(xué)習(xí)、啟發(fā)和評(píng)價(jià)這樣一個(gè)過(guò)程。像諸多倫理理論的形成和發(fā)展過(guò)程一樣,人工智能體道德的理論來(lái)源也根植于實(shí)踐,諸如人工生命的發(fā)展、機(jī)器人技術(shù)的應(yīng)用以及眾多智能體應(yīng)用過(guò)程中所表現(xiàn)出來(lái)的不同道德能力。自下而上的進(jìn)路也堅(jiān)持這樣的發(fā)展觀念,即道德習(xí)慣是一種自我培養(yǎng)的模式,它主要是在與其它個(gè)體的合作和分享中實(shí)現(xiàn)的。然而,自下而上的理論體系同時(shí)也面臨著挑戰(zhàn),即如何預(yù)防學(xué)習(xí)和進(jìn)化中不好的行為習(xí)慣,并促使其向好的方面發(fā)展?
人工智能體道德的設(shè)計(jì)有其深刻的理論根源,這可以追溯到以美德為基礎(chǔ)的亞里士多德的道德觀念。它混合了自上而下和自下而上的兩個(gè)理論體系,并對(duì)美德進(jìn)行了清晰的描述(或者近似完美的描述),而建立在亞里士多德道德觀念之上的個(gè)體實(shí)質(zhì)上是自下而上的理論體系的產(chǎn)物。人工智能體道德的設(shè)計(jì)綜合了這兩條進(jìn)路,但從根本上說(shuō),它應(yīng)該以自下而上的理論體系為根本,這有助于解決人工智能體在道德設(shè)計(jì)過(guò)程中所面臨的困難。試想如果把這一混合體系融入到計(jì)算程序中,那么具有類似于神經(jīng)網(wǎng)絡(luò)連接機(jī)制的機(jī)器人很有可能具備道德判斷力[4]。
人工智能體道德的設(shè)計(jì)進(jìn)路都強(qiáng)調(diào)了推理能力在倫理體制中的重要性。尤其是一些文學(xué)作品在對(duì)道德心理的描述時(shí)也多表現(xiàn)在理性的推理方面。相比之下,直觀感性領(lǐng)域卻很少涉及,但不可否認(rèn),諸如情感,情緒,語(yǔ)義理解和意識(shí)等也對(duì)人類道德決定的做出起到了重要作用。那么,對(duì)于人工智能體而言,哪方面因素才是必要的呢?并且,如果它是必要的,那么又如何在機(jī)器中實(shí)現(xiàn)。眾所周知,關(guān)于情感計(jì)算,身體認(rèn)知和機(jī)器意識(shí)等這些前沿的科技研究,它的目標(biāo)是設(shè)計(jì)具有超越理性能力并具有潛在社會(huì)技能的計(jì)算機(jī)和機(jī)器人。從這一角度來(lái)講,對(duì)于復(fù)雜的人機(jī)交互來(lái)說(shuō),感性因素有必要寫(xiě)入計(jì)算機(jī)運(yùn)行程序中。然而,到目前為止,這一程序在機(jī)器人設(shè)計(jì)中還沒(méi)有實(shí)現(xiàn),也沒(méi)有這樣一個(gè)鏈接情感的機(jī)制,因此具備道德能力的兼具社會(huì)技能或身體認(rèn)知的人工智能體還沒(méi)有出現(xiàn)。
最近,出現(xiàn)了這樣一個(gè)研究思路——人類認(rèn)知的綜合模型,它的目標(biāo)是解釋高階認(rèn)知功能,諸如思考和計(jì)算。對(duì)于高階認(rèn)知的計(jì)算程序來(lái)說(shuō),道德決定的做出在眾多具有挑戰(zhàn)性的任務(wù)中是可論證的,并且可以應(yīng)用到人工認(rèn)知領(lǐng)域比較復(fù)雜的計(jì)算模型中。迄今為止,關(guān)于人工智能體道德的介紹最為特別的是Stan Franklin的LIDA模型[5]。LIDA同時(shí)提供了一系列計(jì)算工具和人類認(rèn)知的模型,并衍生出具有解釋能力的機(jī)械裝置,即面對(duì)某一形勢(shì)時(shí),具有在從自下而上的進(jìn)程中收集感性數(shù)據(jù)而做出決定和通過(guò)自上而下的進(jìn)程做出決定這兩者之間選擇的能力。LIDA模型也支持與人類情感的互動(dòng)與融合,同時(shí)也會(huì)考慮到相關(guān)的倫理與道德因素,這進(jìn)一步論證了人工智能體在未來(lái)某個(gè)時(shí)間可以做出道德決定的可能。
當(dāng)然,計(jì)算機(jī)做出道德決定也包含了許多難以預(yù)測(cè)的風(fēng)險(xiǎn),因此,它仍舊需要進(jìn)行檢測(cè)和控制。這樣以來(lái),在其安全性、發(fā)展方向和速度等方面就需要國(guó)家政策和社會(huì)監(jiān)督機(jī)制發(fā)揮作用,并據(jù)此約束人工智能體朝向一種規(guī)范的進(jìn)路發(fā)展。當(dāng)然這并非是基于對(duì)未知的恐懼而阻止科學(xué)探究,而是為了在科學(xué)研究中摒惡揚(yáng)善,從而激發(fā)和促進(jìn)對(duì)人類有益的科學(xué)探索。另外,科幻小說(shuō)和影視中對(duì)于人工智能體的描述,以及人工智能體在其中演繹出來(lái)的善惡表現(xiàn)對(duì)于我們防范真正的危險(xiǎn)也是很有必要的??茖W(xué)探究中難免會(huì)出現(xiàn)風(fēng)險(xiǎn),因此對(duì)于機(jī)器人和它們的設(shè)計(jì)者來(lái)說(shuō),有必要在其權(quán)利和義務(wù)的關(guān)系之間進(jìn)行制約和維護(hù),賦予其權(quán)利的同時(shí)更要求他們履行為人類服務(wù)的義務(wù)。這就需要在人工智能和人類智能之間尋求一個(gè)可能的“技術(shù)奇異點(diǎn)(technological singularity)”*技術(shù)奇異點(diǎn)是一個(gè)根據(jù)技術(shù)發(fā)展史總結(jié)出的觀點(diǎn),認(rèn)為未來(lái)將要發(fā)生一件不可避免的事件──技術(shù)發(fā)展將會(huì)在很短的時(shí)間內(nèi)發(fā)生極大而接近于無(wú)限的進(jìn)步。,從而使人工智能體向具有道德意識(shí)的半機(jī)械人狀態(tài)發(fā)展,而非超越人類,控制人類。
盡管在此我們強(qiáng)調(diào)的是人工智能體道德的發(fā)展前景,但是我們也相信它的實(shí)現(xiàn)是建立在技術(shù)進(jìn)步的基礎(chǔ)上[6]。人工智能體的道德是以作為道德主體和具有倫理特性的人類的一種自我反饋,而當(dāng)前發(fā)展人工智能體道德的倫理體系存在一定的局限性,這也促使一些深層問(wèn)題進(jìn)一步突出。
人工智能體道德的出現(xiàn),大概引發(fā)了以下五類爭(zhēng)議:(1)對(duì)于人工智能體道德而言,專家還沒(méi)有就其研究范圍與特征進(jìn)行充分詳當(dāng)?shù)恼撌觯?2)人工智能體的道德屬性在計(jì)算機(jī)系統(tǒng)和機(jī)器人中不可能付諸實(shí)施;(3)人們提出的關(guān)于發(fā)展人工智能體道德的進(jìn)程太過(guò)于強(qiáng)調(diào)人的作用。機(jī)器人需要道德規(guī)則的約束,但不一定要完全和人類道德相一致;(4)研究者工作的焦點(diǎn)集中在確保對(duì)人類有益的技術(shù)創(chuàng)新而非人工智能體的道德內(nèi)涵;(5)從人工智能體道德的現(xiàn)狀分析,我們?cè)谑褂脵C(jī)器人的過(guò)程中所遇到的危險(xiǎn)是可以解決的,然而,許多危險(xiǎn)卻不能提前預(yù)防。換句話來(lái)說(shuō),人工智能體道德給人這樣一個(gè)幻覺(jué),就是存在一個(gè)技術(shù)修正,可以延緩或阻止有害系統(tǒng)的發(fā)展。
基于人工智能體所引發(fā)的一系列爭(zhēng)議,我們從以下幾個(gè)方面做出回應(yīng):
(一)獨(dú)立的人工智能體道德主體
人工智能體道德決定的做出有很多途徑,分別體現(xiàn)在自上而下的理論推導(dǎo)規(guī)則、自下而上的聚合方法、不斷學(xué)習(xí)積累的進(jìn)程以及對(duì)超理性能力塑造等方面。那么人工智能體的道德屬性如何劃分和定義呢?圍繞這個(gè)問(wèn)題有人提出“完全的道德主體所要求是”。這個(gè)空格需要具有美德以及道德社會(huì)共同特征的詞語(yǔ)來(lái)填充。發(fā)問(wèn)者認(rèn)為專家可能忽略了這一問(wèn)題,或者對(duì)這一問(wèn)題缺少必要且充分的論證,從而以“同情心”或“良心”予以代替。
另外,還有這樣一些批判,特別是來(lái)自于康德的觀點(diǎn)認(rèn)為我們談?wù)摰呐c主體相關(guān)的道德是由于對(duì)潛在的不道德行為的選擇而生成的。對(duì)于這一觀點(diǎn),我們認(rèn)為人類道德的關(guān)鍵是在利己主義行為和對(duì)他人負(fù)責(zé)的行為之間進(jìn)行斗爭(zhēng),甚至反對(duì)利己主義。通常人類道德生活包括兩個(gè)方面,即自由選擇自己的行為和接受因此而產(chǎn)生的責(zé)任。這一道德觀念對(duì)于人類社會(huì)的運(yùn)行是必要的,同時(shí)對(duì)于機(jī)器的發(fā)展也具有促進(jìn)的作用。另外,我們認(rèn)為機(jī)器的道德觀念可以在哲學(xué)上描述,并應(yīng)用到工程設(shè)計(jì)。
同時(shí),我們認(rèn)為把人工智能體看作是完全的道德主體是非常有趣的事情。在不同的社會(huì)形式中,人工智能體也會(huì)以一個(gè)完全的道德主體的形式而讓人接受,甚至于機(jī)器人也會(huì)被看作是道德主體。但是,無(wú)論是人工智能體或者是機(jī)器人,它們?cè)诂F(xiàn)實(shí)世界中以道德主體的形式出現(xiàn)還需要一定的時(shí)間。我們認(rèn)為,人工智能體道德決定能力的做出會(huì)隨著自動(dòng)化系統(tǒng)的進(jìn)步和優(yōu)化而發(fā)展。但這個(gè)優(yōu)化的過(guò)程是基于哪一個(gè)平臺(tái)或策略卻是一個(gè)未知數(shù)。完全道德主體是一個(gè)迷人的主題,鑒于現(xiàn)在或未來(lái)技術(shù)的發(fā)展,我們期望它能夠成為一個(gè)更安全,更尊重道德價(jià)值觀,越來(lái)越自主的機(jī)器人。
(二)現(xiàn)有計(jì)算機(jī)平臺(tái)的內(nèi)在限制
從約翰·塞爾(John Searle)的中文房間(Chinese Room)的實(shí)驗(yàn)思想,到羅杰·彭羅斯(Roger Penrose)提出的電腦中純粹智能的可能性提議。有人據(jù)此得出人類的智力基本上是依靠超越計(jì)算機(jī)能力的量子力學(xué)原理。但不少理論家認(rèn)為,現(xiàn)有的計(jì)算平臺(tái)根本無(wú)法捕捉到人類智力和心理活動(dòng)的基本特征。盡管如此,最近的一些批評(píng)人士仍舊認(rèn)為,人類在直覺(jué)上理解數(shù)學(xué)概念的能力與純粹智能體進(jìn)行創(chuàng)造性工作的能力本質(zhì)上是相同的。人類的理解力超越基于規(guī)則的系統(tǒng)不會(huì)引起爭(zhēng)論,也就是它超越了所有基于規(guī)則和演算的系統(tǒng)對(duì)于我們而言都是正常的。但對(duì)于機(jī)器而言卻未必如此,因?yàn)橐?guī)則不能夠直接復(fù)制到機(jī)器中——只有完全的道德主體是以規(guī)則為基礎(chǔ)的。此外,即使我們?cè)趯?lái)接受基于規(guī)則的系統(tǒng)(也就是機(jī)器能否擁有我們研究中的多種策略,比如自下而上的認(rèn)知方法,或超越理性的能力等),人工智能主體也不會(huì)輕易就范,因?yàn)槠襁€沒(méi)有一個(gè)成功的推理和判斷的系統(tǒng)模型。盡管人類是聰明的并具有創(chuàng)造性,但是在多重認(rèn)知任務(wù)中,仍舊存在超越規(guī)則和演算系統(tǒng)的情況。事實(shí)上,有很多任務(wù)仍舊超越我們當(dāng)前在計(jì)算機(jī)設(shè)計(jì)方面的能力,我們只是察覺(jué)到了這些問(wèn)題,但對(duì)于敏感的計(jì)算機(jī)程序的開(kāi)發(fā)我們現(xiàn)在仍然無(wú)能為力。盡管如此,基于人類固有的創(chuàng)造力,在將來(lái)也可能會(huì)找到協(xié)調(diào)的方法,從而能夠復(fù)制人類的判斷力,實(shí)現(xiàn)機(jī)器人向功能型道德的轉(zhuǎn)向。
(三)人工智能體道德與人類道德并不完全一致
在對(duì)人工智能體道德的研究設(shè)計(jì)中,我們提到借助“自上而下”或“自下而上”等倫理體系去發(fā)展類人型道德。這樣的結(jié)果如何暫且不論,我們先開(kāi)展一下自我批評(píng)。也就是說(shuō)我們的方法是否太專注于對(duì)機(jī)器人的道德建設(shè)。我們不妨轉(zhuǎn)變一下思維模式,例如,Peter Danielson[7]提出一個(gè)非常合理的可能,即機(jī)器的不斷進(jìn)步與復(fù)雜化對(duì)于人工智能體道德而言,其表現(xiàn)形式的實(shí)現(xiàn)可能會(huì)更加困難,限制也可能會(huì)更多。在這一點(diǎn)上,我們同意Danielson的觀點(diǎn),雖然上面談到了關(guān)于人工智能體美德方面的問(wèn)題,但是我們應(yīng)該認(rèn)識(shí)到這與Danielson等類似的批評(píng)者所提出的問(wèn)題還存在很大的差異??少F的是,我們?cè)诖藢?duì)這一問(wèn)題的討論可能會(huì)開(kāi)啟人工智能體道德主體設(shè)計(jì)方面所忽略的一些細(xì)節(jié)問(wèn)題。因此,假設(shè)技術(shù)繼續(xù)發(fā)展,機(jī)器人具有人類可能沒(méi)有的感知能力、計(jì)算能力和機(jī)動(dòng)能力,那么我們相信對(duì)于人工智能體道德主體進(jìn)行適當(dāng)?shù)南拗瓶赡軇龠^(guò)對(duì)其一味的批判。
(四)技術(shù)革新的目標(biāo)是創(chuàng)建友愛(ài)的人工智能體
人工智能體是由保守的計(jì)算機(jī)科學(xué)家建立,在其道德屬性上他們僅限于基本的挑戰(zhàn)而未超越某一閾值。相比之下,激進(jìn)一些的人則相信在未來(lái)某個(gè)時(shí)間類人機(jī)器和超人系統(tǒng)將會(huì)出現(xiàn),那么人類如何應(yīng)對(duì)未來(lái)這些復(fù)雜的計(jì)算機(jī)和機(jī)器人系統(tǒng)呢?對(duì)此學(xué)術(shù)界已經(jīng)有相關(guān)的理論和評(píng)價(jià),并進(jìn)一步認(rèn)為這些將在未來(lái)二十至五十年間實(shí)現(xiàn)。從道德力的不同表現(xiàn)來(lái)分析,在不同的閾之間,機(jī)器人安全性的維護(hù)方面,我們有兩個(gè)分組:機(jī)器倫理組織和奇點(diǎn)研究機(jī)構(gòu)(singularitarians)(友善的人工智能),以后者為例,奇點(diǎn)研究機(jī)構(gòu)的人工智能(Singularity Institute for Artificial Intelligence)(SIAI)其系統(tǒng)存在一定的危險(xiǎn)性,但它們比人類要聰明。
基于數(shù)學(xué)模型的SIAI能夠?qū)θ斯ぶ悄茉谖磥?lái)發(fā)展中所體現(xiàn)出來(lái)的利弊進(jìn)行有效預(yù)測(cè)。Eliezer Yudkowsky*埃利澤:什洛莫(Eliezer Yudkowsky)(出生于1979年9月)美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)和人工智能專家,倡導(dǎo)友好人工智能,在2000年共同創(chuàng)立了非營(yíng)利性的奇異人工智能研究所(機(jī)器智能研究所)。創(chuàng)建的SIAI其中一個(gè)項(xiàng)目是穩(wěn)定人工智能系統(tǒng)先進(jìn)形式的目標(biāo)。如果預(yù)期模型和策略能夠在目標(biāo)體系內(nèi)穩(wěn)定發(fā)展,那么人工智能體作為道德主體的價(jià)值就是顯而易見(jiàn)的。但是它們是否能夠進(jìn)一步發(fā)展,并且這一策略在人工智能應(yīng)用之前,是否要超越其它的技術(shù)閾值?沒(méi)有人會(huì)質(zhì)疑機(jī)器在學(xué)習(xí)的過(guò)程中會(huì)促進(jìn)人工智能其它技術(shù)的發(fā)展,包括道德決定的做出。但機(jī)器設(shè)計(jì)理論是不斷革新與進(jìn)步的,而其應(yīng)用卻具有推測(cè)性。因此在此我們強(qiáng)調(diào)不同組織之間的協(xié)調(diào)與合作,從而推動(dòng)友善人工智能的發(fā)展。
(五)對(duì)于危險(xiǎn)的人工智能系統(tǒng)幻想存在技術(shù)修正
在所有的批評(píng)家中,Deborah Johnson對(duì)于我們建構(gòu)人工智能體道德中技術(shù)上的缺陷反應(yīng)最為強(qiáng)烈——在沒(méi)有人類的直接控制下,人工產(chǎn)品假定可以自主做出道德控制的決定——而不是依賴嵌入其整個(gè)技術(shù)系統(tǒng)中人類的運(yùn)作。Johnson還認(rèn)為,機(jī)器人所承載的能力應(yīng)該考慮到潛在的危險(xiǎn)。然而,機(jī)器人不是孤立的,人類在進(jìn)行機(jī)器道德設(shè)計(jì)的過(guò)程中是以復(fù)雜而相互連接的機(jī)制為中心,并以整個(gè)社會(huì)運(yùn)行系統(tǒng)為基礎(chǔ)的設(shè)計(jì)理念。
同樣,David Wood和Erik Hollnagel認(rèn)為機(jī)器人和它們的操作者是一個(gè)聯(lián)合認(rèn)知系統(tǒng)(JCSs)。如果對(duì)機(jī)器自主性進(jìn)行孤立的關(guān)注則會(huì)扭曲JCSs系統(tǒng)中設(shè)計(jì)的價(jià)值。隨著人工智能復(fù)雜性的強(qiáng)化,當(dāng)一個(gè)JCS失敗時(shí),就會(huì)出現(xiàn)責(zé)備人類作為一個(gè)弱連接的事實(shí),從而建議進(jìn)一步增加機(jī)器設(shè)備自主性的解決方案。而且會(huì)出現(xiàn)這樣一個(gè)錯(cuò)覺(jué),即增加機(jī)器設(shè)備的自主性將允許設(shè)計(jì)者逃避人工智能體行為所產(chǎn)生的責(zé)任。機(jī)器在遭遇新的或驚奇的挑戰(zhàn)時(shí),往往會(huì)變得較為脆弱。這就需要人類操作者對(duì)于機(jī)器在新的形勢(shì)下做出的行為具有預(yù)見(jiàn)性,并能有效協(xié)調(diào)機(jī)器人的行為使其發(fā)揮到最佳狀態(tài)。然而,因?yàn)橄到y(tǒng)變得越來(lái)越復(fù)雜,人們對(duì)機(jī)器人行為的預(yù)測(cè)就變得很困難,從而潛在地增加了JCSs的不穩(wěn)定性。所以,關(guān)注孤立的自主性會(huì)導(dǎo)致JCSs方向迷失。因此,Woods與Hollnagel提議對(duì)于JCSs的設(shè)計(jì)更為關(guān)注的是它的彈性和協(xié)調(diào)性[8]。
對(duì)于這些批判,專家們感到非常遺憾。在設(shè)計(jì)機(jī)器人的過(guò)程中確實(shí)應(yīng)該考慮一下人類在這個(gè)過(guò)程中所應(yīng)擔(dān)負(fù)的責(zé)任。機(jī)器人在從工廠制造到發(fā)展成自由漫步的人工智能體的過(guò)程中發(fā)展過(guò)快,這就使得人工智能體道德在設(shè)計(jì)的過(guò)程中無(wú)法與潛在系統(tǒng)的發(fā)展相協(xié)調(diào)?;诖耍谌斯ぶ悄荏w道德主體發(fā)展的未來(lái),我們應(yīng)該反思整個(gè)生產(chǎn)和使用它們的體系,從而建立一個(gè)良好的機(jī)器人應(yīng)用機(jī)制。
我們希望那些忽略由自動(dòng)化系統(tǒng)所產(chǎn)生危險(xiǎn)的機(jī)器人專家把敏感的道德情感注入到機(jī)器人設(shè)計(jì)中去。如果對(duì)保障措施進(jìn)行充分嚴(yán)格的設(shè)計(jì)和檢查,那么相關(guān)危險(xiǎn)就不會(huì)出現(xiàn)在實(shí)踐過(guò)程中,所以,我們應(yīng)該把從依賴自動(dòng)化系統(tǒng)的注意力轉(zhuǎn)移到社會(huì)系統(tǒng)中。
人工智能體道德的出現(xiàn)和發(fā)展進(jìn)一步凸顯了人類倫理的不完全性、以及人類對(duì)于道德完全性的追求。我們應(yīng)該從人工智能體道德設(shè)計(jì)中反思人類倫理體系,并進(jìn)一步完善它。人工智能體在近期不會(huì)也不可能發(fā)展成完全的道德主體。然而,我們對(duì)那些批評(píng)家所提出的人工智能體在道德屬性上潛在的危險(xiǎn)問(wèn)題還是應(yīng)該予以關(guān)注。
首先,人工智能體的設(shè)計(jì),尤其是機(jī)器人的設(shè)計(jì)和應(yīng)用必須遵守“機(jī)器人的三大定律”。以此為法則,在“不傷害”*甘紹平關(guān)于應(yīng)用倫理學(xué)最核心的價(jià)值原則是“不傷害”原則的思想給了我們以較大的啟發(fā)。的前提下[9],培養(yǎng)人工智能體的自我決策能力。
其次,人工智能體的道德問(wèn)題涉及倫理和哲學(xué)等層面。在這些理論問(wèn)題的實(shí)踐應(yīng)用中,人工智能體與人類和大自然之間的關(guān)系必須秉承“和諧”的原則,這有利于人工智能體深化服務(wù)質(zhì)量,滿足人類需求。
再次,人工智能體的道德屬性根源于人類自身的道德認(rèn)識(shí)。從根源上健全人類自身的倫理體系是必須而緊迫的,同時(shí)構(gòu)筑有效的權(quán)力保障措施也是道德標(biāo)準(zhǔn)得以實(shí)現(xiàn)的必由路徑。除此之外,對(duì)于人工智能體自身的發(fā)展而言,也需要一個(gè)與其相適應(yīng)的倫理道德體系。
最后,人工智能體的發(fā)展必須有一個(gè)相對(duì)應(yīng)的倫理道德體系。
新技術(shù)的開(kāi)拓和應(yīng)用革新了人類的生產(chǎn)生活方式,提高了人類的文明標(biāo)準(zhǔn)。但技術(shù)上的進(jìn)步并非人類生活的全部,更為重要的是人類精神文化方面的追求和滿足。因此,人工智能體的發(fā)展乃至成熟,需要有完善的道德倫理體系予以支撐。這樣不僅可以彌補(bǔ)人工智能體發(fā)展過(guò)程中所面臨的諸多漏洞,對(duì)于人類整體的善惡標(biāo)準(zhǔn)也是一種維護(hù)和更新,從而有助于加速“良心的革命和倫理學(xué)范式的轉(zhuǎn)換”[10]。在人機(jī)和諧與一體化的未來(lái),聚焦于人工智能、人工生命或機(jī)器人的倫理問(wèn)題研究,有助于和諧人類、和諧自然與社會(huì)的出現(xiàn)。
[1]PICARD, ROSALIND.Affective Computing[M].Cambridge MA: MIT Press, 1997:19.
[2]FOOT, PHILIPPA.The Problem of Abortion and the Doctrine of Double Effect[J].Oxford Review, 1967,(5):5-15.
[3]TURING, ALAN.Computing Machinery and Intelligence[J].Mind, 1950,59:434-460.
[4]DEMOSS DAVID.Aristotle, Connectionism, and the Morally Excellent Brain [EB/OL].(2010-05-18).http:∥www.bu.edu/wcp/Papers /Cogn/CognDemo.htm.
[5]FRANKLIN, STAN, BERNARD BAARS, UMA RAMAMURTHY, MATTHEW VENTURA.The Role of Consciousness in Memory[J].Brains, Minds and Media, 2005,(1):1-38.
[6]WALLACH, WENDELL.Robot Minds and Human Ethics: the Need for a Comprehensive Model of Moral Decision Making[J].Ethics and Information Technology, 2010,12(3):243-250.
[7]DANIELSON, PETER.Can Robots Have a Conscience[J].Nature,2009:457-540.
[8]WOODS, DAVID D, ERIK HOLLNAGEL.Joint Cognitive Systems: Patterns in Cognitive Systems Engineering[M].Boca Raton, FL: Taylor and Francis Group, 2006:23.
[9]甘紹平.應(yīng)用倫理學(xué)前沿問(wèn)題研究[M].南昌:江西人民出版社,2002:19.
[10]盧 風(fēng).應(yīng)用倫理學(xué)——現(xiàn)代生活方式的哲學(xué)反思[M].北京:中央編譯出版社,2004:504.
TheEthicalDilemmasRaisedbyArtificialIntelligence
WANG Dong-hao
(FacultyofPhilosophy,NankaiUniversity,Tianjin300071,China)
The emergence of artificial intelligence unlocked people’s thoughts on traditional ethical ideas.With technology innovation, artificial intelligence has enriched its connotation; it’s freer and more independent, which has protruded the problem of safety.While in the process of design and application, the traditional developing approaches have fell behind.People are beginning to question the morals and the whereabouts of the related ethical issues.Human-computer integration may be helpful in establishing artificial intelligence ethics and human-computer interaction and exchange may have a positive role in solving the ethical dilemmas raised by artificial intelligence.Harmonious coexistence between man and machine may be a path taking artificial intelligence out of moral dilemma in the future.
artificial intelligence; moral conflict; ethical dilemma; human-computer relationship
2013-09-30
國(guó)家社科基金重點(diǎn)項(xiàng)目(11AZD056)
王東浩(1982—),男,河北衡水人,南開(kāi)大學(xué)哲學(xué)院博士研究生,主要研究方向?yàn)榭萍颊軐W(xué)、邏輯學(xué)。E-mail:wangdhnk@163.com
B82
A
1672-0202(2014)01-0116-07
華南農(nóng)業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2014年1期