閆坤如, 馬少卿(華南理工大學(xué) 馬克思主義學(xué)院, 廣州 廣東 510640)
人工智能(artificial intelligence,簡稱AI)經(jīng)過半個多世紀(jì)的發(fā)展,取得了眾多理論與實踐成果,AiphaGo戰(zhàn)勝職業(yè)圍棋選手,蘋果公司的人工智能產(chǎn)品通過機(jī)器學(xué)習(xí)撰寫的論文獲得CVPR 2017最佳論文等,人工智能促進(jìn)了社會的發(fā)展和人類的進(jìn)步,但是人工智能作為新興技術(shù)也存在著潛在風(fēng)險,人工智能的發(fā)展拉大了社會貧富差距,人工智能的發(fā)展引起新的倫理問題,可能影響社會穩(wěn)定,等等。我們將通過分析人工智能的社會效應(yīng)及人工智能發(fā)展引發(fā)的新倫理沖突,在此基礎(chǔ)上分析人工智能的倫理規(guī)約。
人工智能的產(chǎn)生可以追溯到1956年在美國達(dá)特茅斯(Dartmouth)召開的人工智能會議,美國科學(xué)家明斯基(M.Minsky)、西蒙(H.Simon)及麥卡錫(J. Mccarthy)等人工智能先驅(qū)參加了會議,這次會議正式宣告了人工智能的誕生。
人工智能的發(fā)展經(jīng)歷了三次跨越式發(fā)展階段:第一次發(fā)展是使智能系統(tǒng)基本實現(xiàn)了問題求解,實現(xiàn)了人工智能簡單的邏輯推理功能;第二次發(fā)展是實現(xiàn)了智能系統(tǒng)與機(jī)器及外部環(huán)境進(jìn)行自動交互的功能,可以實現(xiàn)從陌生的環(huán)境中獲取有用信息完成設(shè)定的推理工作;第三次發(fā)展是追求類人的思維和認(rèn)知能力,使得智能系統(tǒng)與機(jī)器能夠發(fā)現(xiàn)、創(chuàng)造和運用新知識,能夠?qū)?shù)據(jù)進(jìn)行分析和挖掘等功能。一般來講,人工智能技術(shù)分為三種:弱人工智能技術(shù)(artificial narrow intelligence,簡稱ANI)、強(qiáng)人工智能技術(shù)(artificial general intelligence,簡稱AGI),以及超人工智能技術(shù)(artificial super intelligence,簡稱ASI)。弱工智能技術(shù)指的是在嚴(yán)格的程序規(guī)定下,只對設(shè)定刺激作出反應(yīng),目前大多數(shù)人工智能產(chǎn)品都屬于弱人工智能技術(shù),如下棋程序、導(dǎo)航系統(tǒng)等等;強(qiáng)人工智能技術(shù)完全依靠機(jī)器自身就能做出決斷,機(jī)器能夠自主進(jìn)行推理和判斷,強(qiáng)人工智能的程序具有人類的理解能力?!俺斯ぶ悄苤傅氖窃诟鱾€方面都比人類具有優(yōu)勢的智能系統(tǒng)?!盵1]超人工智能是智能機(jī)器,能夠制造新的人工智能系統(tǒng)。
人工智能以聯(lián)結(jié)主義(connectionism)、符號主義(symbolicism)與行為主義(actionism)為理論基礎(chǔ)。符號主義學(xué)派主要依靠計算機(jī)邏輯符號來模擬人的認(rèn)知過程,認(rèn)為智能系統(tǒng)可以像人類一樣通過邏輯推理認(rèn)識事物,符號主義學(xué)派的主要代表人物為西蒙、明斯基等人;聯(lián)結(jié)主義認(rèn)為神經(jīng)元是人類智能的基本構(gòu)成和傳遞單元,人工智能的重要來源是人類大腦本身,人工智能的核心議題是對人腦模型深入研究,代表人物是魯梅爾哈特(David Everett Rumelhart);行為主義學(xué)派的研究進(jìn)路在于人工智能技術(shù)產(chǎn)品的行為可以根據(jù)搜集的外部數(shù)據(jù)來調(diào)整,可以主動適應(yīng)外部環(huán)境,而不是依賴于人類的算法和預(yù)先設(shè)定的程序?qū)ν饨缱鞒龇磻?yīng),行為主義學(xué)派的代表人物是維納(N.Wiener)。
人工智能是強(qiáng)大生產(chǎn)力,它改變了人類的生活方式,提高了人類的生活質(zhì)量。首先,人工智能改變?nèi)祟惿睢,F(xiàn)在人類的生活從簡單的外賣自動下單到證券市場的股價分析都離不開人工智能,人工智能產(chǎn)品已經(jīng)把人類從繁重的勞動中解脫出來;其次,人工智能改變了社會結(jié)構(gòu),推動了社會的轉(zhuǎn)型升級,提高了勞動生產(chǎn)效率,促進(jìn)了產(chǎn)業(yè)結(jié)構(gòu)的優(yōu)化發(fā)展;再次,人工智能的發(fā)展改變了人類的思維方式。人工智能出現(xiàn)之前人類的主要思維模式是因果式的思維模式,人工智能出現(xiàn)之后人類思維模式從因果式思維方式向相關(guān)性思維方式轉(zhuǎn)變。人們?nèi)粘I钪杏龅降囊恍﹩栴}可以向智能機(jī)器尋求幫助,而不再像以前一樣尋求人類幫助,如家庭智能安防系統(tǒng),當(dāng)房主離開房屋后房屋內(nèi)出現(xiàn)生命體,安防系統(tǒng)會自動識別生命體的性質(zhì),如果是蠢賊入室盜竊,系統(tǒng)會自動通知轄區(qū)派出所,從而達(dá)到防盜的目的。以人工智能為核心技術(shù)的智能革命給人類社會帶來前所未有的影響,甚至影響到未來世界格局的變化。
人工智能也有消極方面的影響。首先,人工智能可能導(dǎo)致工人失業(yè)。人工智能機(jī)器具有效率高、錯誤率低、勞動時間長、維護(hù)成本低、操作智能等特點,這相比較人類的效率低、錯誤率高、勞動時間短等特點具有明顯優(yōu)勢,人工智能可能取代某些人的工作,導(dǎo)致某些行業(yè)的工人失業(yè)。例如,隨著機(jī)器翻譯的發(fā)展,同聲傳譯面臨著被機(jī)器翻譯取代的可能性。其次,人工智能會進(jìn)一步拉大社會的貧富差距。擁有和使用人工智能將創(chuàng)造更大的物質(zhì)財富,而沒有掌握與使用人工智能的行業(yè)會日漸衰落,失業(yè)工人將更加貧苦,富者越富,窮者越窮,貧富差距增大。再次,智能技術(shù)被濫用的風(fēng)險,“網(wǎng)絡(luò)面前無隱私”,在網(wǎng)絡(luò)上,個人信息和發(fā)言記錄都可以被查到,如果被不懷好意的國家和企業(yè)濫用先進(jìn)的技術(shù)可能會導(dǎo)致個人的生命安全、財產(chǎn)安全、信息安全都受到威脅和挑戰(zhàn)。最后,人工智能可能導(dǎo)致人的異化。人類研制與發(fā)展人工智能的初衷是想擺脫被自然界奴役的命運與繁重勞動,但隨著人工智能的發(fā)展,人的主體性地位面臨喪失的危險,人類越來越依賴人工智能,甚至受制于人工智能。
人工智能既有促進(jìn)社會發(fā)展等積極的社會效應(yīng),也有引發(fā)新社會問題等消極方面的社會效應(yīng)。除此之外,人工智能可能引發(fā)新的價值沖突與倫理困境。
人工智能在產(chǎn)生伊始就出現(xiàn)了人工智能倫理問題,圖靈(Alan M.Turing)在《智能機(jī)器》中表達(dá)了對于人工智能的技術(shù)快速發(fā)展,而相對應(yīng)的倫理發(fā)展與制約相對滯后的擔(dān)憂。人工智能作為現(xiàn)代重要的科技成果所帶來的社會影響和倫理問題也逐漸引起了人們的普遍關(guān)注與廣泛重視,除了對傳統(tǒng)倫理規(guī)范提出新挑戰(zhàn)之外,人工智能發(fā)展可能引發(fā)以下價值沖突與倫理困境。
20世紀(jì)初,漢斯·喬納斯(Hans Jonas)、喬爾·費因伯格 (Joel Feinberg)、漢斯·昆 (Hans Kǜng)、漢斯·倫克 (Hans Lenk)建立了責(zé)任倫理學(xué)。責(zé)任倫理學(xué)基于對責(zé)任主體行為的目的、后果、手段等因素進(jìn)行全面、系統(tǒng)的倫理考量,對當(dāng)代社會的責(zé)任關(guān)系、責(zé)任歸因、責(zé)任目標(biāo)及價值標(biāo)準(zhǔn)等進(jìn)行倫理分析和研究。責(zé)任倫理的目的是更好地規(guī)范人類社會的責(zé)任關(guān)系,避免人工智能產(chǎn)品對人類社會帶來風(fēng)險和挑戰(zhàn),責(zé)任倫理的原則是“絕對不可拿整個人類的存在去冒險”[2]。人工智能的責(zé)任問題是現(xiàn)代社會不可回避的重要議題,由人工智能引發(fā)事故或設(shè)計、操作失誤后的追責(zé)問題是人工智能發(fā)展中人類必須面對的問題。目前為止沒有一個算法和程序是絕對安全的。塞爾(John R. Searle)提出“中文屋”的思想實驗來區(qū)分智能機(jī)器與人類,在“中文屋”中,盡管機(jī)器人能夠通過中文屋測試,但它并未真正理解中文,并且機(jī)器人自身也不能具有人類的意向性?!皺C(jī)器人根本沒有意向狀態(tài),它只是受電路和程序支配的簡單的來回運動而已。”[3]隨著醫(yī)學(xué)、生物學(xué)及計算機(jī)等學(xué)科關(guān)于意向性研究的突破,意向性在一定程度上可以通過程序自主生成,這會使得責(zé)任的劃分更加困難。這說明人工智能發(fā)展給責(zé)任倫理理論提出新的問題,特別是責(zé)任主體的界定、主體責(zé)任的范疇界定等等,這或許成為人類正在面臨或者即將面臨的難題。人工智能的設(shè)計者、使用者、監(jiān)督者、維護(hù)者的責(zé)任及人工智能企業(yè)的倫理責(zé)任等會進(jìn)入學(xué)者的研究視域。例如,哲學(xué)家菲利帕·福特(Philippa Foot)提出的電車難題(Trolley Problem)會隨著無人駕駛汽車的研究與應(yīng)用重新進(jìn)入學(xué)者的研究視野,無人駕駛車輛遇到不可避免的危險時,是選擇保護(hù)行人還是保護(hù)車內(nèi)人員呢?決策的理論依據(jù)是什么呢?這些道德沖突與倫理問題又將引起學(xué)者關(guān)注。
人工智能產(chǎn)品特別是智能機(jī)器人的使用在帶來方便快捷的同時也會有潛在的風(fēng)險,“風(fēng)險”(risk)是“一種應(yīng)對現(xiàn)代化本身誘發(fā)并帶來災(zāi)難和不安全的方法;具有威脅性的現(xiàn)代力量及現(xiàn)代化造成的懷疑全球化所引發(fā)的結(jié)果”[4]。風(fēng)險指的是遭受某種損失、傷害、不利后果的可能性。從風(fēng)險產(chǎn)生根源可以分為“外部風(fēng)險”(external risk)與“被制造出來的風(fēng)險 ”(manufactured-risk)兩種形式?!八^外部風(fēng)險,就是來自外部的、因為傳統(tǒng)或者自然的不變性和固定性所帶來的風(fēng)險?!^被制造出來的風(fēng)險(人為風(fēng)險),指的是由我們不斷發(fā)展的知識對這個世界的影響所產(chǎn)生的風(fēng)險,是指在我們沒有多少歷史經(jīng)驗的情況下所產(chǎn)生的風(fēng)險?!盵5]人工智能產(chǎn)品的風(fēng)險隨著相關(guān)產(chǎn)品的使用而引發(fā),人工智能帶來風(fēng)險的原因主要有以下幾個方面。
其一,技術(shù)的不確定性帶來的風(fēng)險。人工智能的技術(shù)具有不確定性,人工智能究竟是造福人類還是毀滅人類或未可知,迅速發(fā)展的人工智能技術(shù)使人們產(chǎn)生了恐慌心理,人類感覺到自身能力的局限性,開始擔(dān)憂人工智能的發(fā)展,“人正面臨著一股自己根本無法控制的力量,與這股力量相比,人只是一粒塵埃罷了”[6]。人工智能技術(shù)的不確定性可以理解為人工智能技術(shù)后果的難以量化、難以評估性。從上個世紀(jì)簡單的圖靈機(jī)到不久前第一位有國籍的機(jī)器人索菲亞的誕生,人工智能飛速發(fā)展,很難預(yù)測未來人工智能將會發(fā)展到何種程度,人工智能的規(guī)范與治理沒有任何經(jīng)驗或者教訓(xùn)可供借鑒?!罢菬o法預(yù)見的東西創(chuàng)造了曾經(jīng)未知的情境?!盵7]迄今為止,人工智能技術(shù)不再局限于符號系統(tǒng)的簡單性,人工智能產(chǎn)品越來越趨于復(fù)雜化,隨著大數(shù)據(jù)、云處理、人機(jī)交互、人腦互聯(lián)等人工智能技術(shù)的發(fā)展,人工智能技術(shù)與其他學(xué)科的融合和滲透更加緊密,這些人工智能技術(shù)的發(fā)展對于人類來說“是福是禍”還是未知數(shù)。
其二,人類認(rèn)知能力的局限性。由于社會歷史條件的局限性,人類在每一個特定的歷史階段所取得的知識成果都受到時代條件的局限。20世紀(jì)60年代,西蒙提出了物理符號系統(tǒng)的思想,提出對于一般智能行為而言,物理符號系統(tǒng)是必要手段,并提出了儲存程序的概念和表處理的方法,這些都是基于經(jīng)驗的假設(shè)。西蒙的思想對人工智能的發(fā)展有巨大的推動作用,但是在今天看來,把一切智能行為都?xì)w結(jié)為物理符號系統(tǒng)并嘗試建立人類一切行為的符號化模型的想法是荒謬的。人類行為具有復(fù)雜性,并不能簡單地還原為大腦的結(jié)構(gòu),人類的大腦到現(xiàn)在為止還是一個未知的“黑箱”。隨著現(xiàn)代科技進(jìn)一步發(fā)展,人工智能會快速發(fā)展,但是人類自身的認(rèn)知能力在特定的歷史條件和階段總是受到局限的。“這個社會在技術(shù)上越來越完善,它甚至能夠提供越來越完美的解決辦法,但是,與此息息相關(guān)的后果和種種危險卻是受害人根本無法直覺到的。”[8]由于人類認(rèn)知能力的局限性,我們可能并不能準(zhǔn)確評估和預(yù)測人工智能發(fā)展可能給人類帶來的風(fēng)險及風(fēng)險發(fā)生的概率。
在人工智能發(fā)展初期,人工智能機(jī)器只是按照人類設(shè)定的程序運行,人工智能機(jī)器并不能自己設(shè)置程序,未超出人類的控制。然而在經(jīng)濟(jì)全球化的今天,任何國家和地區(qū)在某些方面所帶來的影響勢必將對其他國家和地區(qū)帶來直接或間接的影響,人工智能的發(fā)展也會引起在政治、經(jīng)濟(jì)、文化等社會各方面的變化。風(fēng)險所帶來的影響也并不局限于特定時刻與特定領(lǐng)域,人工智能風(fēng)險具有較強(qiáng)的時間延續(xù)性與空間廣延性。目前在醫(yī)療領(lǐng)域、商用博弈、軍事戰(zhàn)爭模擬等領(lǐng)域都廣泛使用了人工智能且取得了豐碩成果。人工智能的使用會使一些事情的處理更加高效、準(zhǔn)確和科學(xué),人類很容易對這種先進(jìn)的技術(shù)產(chǎn)生依賴性,但人工智能系統(tǒng)操作不當(dāng)容易出現(xiàn)問題,影響社會的生產(chǎn)和生活秩序,甚至引發(fā)社會恐慌。例如無人駕駛汽車可以解放司機(jī)雙手、避免交通擁堵,但是,無人駕駛汽車在測試階段事故頻發(fā),谷歌、特斯拉、Uber都曾出現(xiàn)過汽車傷人致死事件,無人駕駛汽車安全問題引起人們關(guān)注。
根據(jù)人工智能的發(fā)展速度和規(guī)模,人工智能或許在未來能夠研發(fā)出具有自我意識的智能產(chǎn)品,這樣的人工智能產(chǎn)品將有怎樣的道德地位呢?針對這個問題,不同的倫理學(xué)理論家嘗試著給出了自己的答案:“人類中心主義”者反對給予智能機(jī)器道德主體地位,認(rèn)為道德主體只能屬于人類,人的道德地位是基于人類本身所獨有的精神特點而存在的,人類所獨有的精神特點主要表現(xiàn)為有思維的能力、交流的能力等,這些特點機(jī)器均不具備,只有人類具有道德主體地位,智能機(jī)器只是高級工具與設(shè)備。塞爾認(rèn)為人工智能產(chǎn)品沒有意向性,不可能成為道德主體,“從沒有一種純形式的模型,足以憑借自身而產(chǎn)生意向性,因為形式特性自身不足以構(gòu)成意向性,同時它們自身也沒有因果能力,它們的能力不過是在例示過程中隨著計算機(jī)的運行而產(chǎn)生下一步的形式體系”[3]。動物倫理學(xué)家沒有完全否認(rèn)機(jī)器人擁有道德主體地位的可能性,他們提出除人類之外的其他生命體也可能具有道德主體地位。目前關(guān)于人工智能機(jī)器的道德主體地位的爭論尚無定論。美國研究機(jī)械和人工智能倫理的著名哲學(xué)學(xué)者帕特里克(Patrick Lin)曾對機(jī)器人的“自制能力”作出這樣闡述:“一旦機(jī)器的一部分啟動,那么該機(jī)器就根據(jù)外部環(huán)境進(jìn)行自我反饋運行,而具備在一定時間內(nèi)不受外部控制的能力。”[9]人工智能發(fā)展引發(fā)新的道德沖突與倫理困境,需要修正傳統(tǒng)的倫理原則來規(guī)范與約束人工智能機(jī)器的發(fā)展。
一般來講,對于人工智能的倫理規(guī)約分為三個不同的維度:自上而下的倫理規(guī)約、自下而上的倫理規(guī)約及復(fù)合型的倫理規(guī)約之路。所謂自上而下的倫理規(guī)約指的是從倫理學(xué)的基礎(chǔ)理論或者倫理規(guī)約的原則出發(fā)針對人工智能給出規(guī)約路徑,以普遍性的倫理學(xué)理論指導(dǎo)具體的人工智能領(lǐng)域的實踐;自下而上的倫理規(guī)約指的是通過具體的倫理規(guī)約的場景和情境給出規(guī)約路徑,從具體的人工智能的實踐分別給出人工智能的規(guī)約路徑,自下而上的倫理規(guī)約也可以稱為歸納式的倫理規(guī)約路徑;所謂復(fù)合型的倫理規(guī)約路徑指的是綜合運用自上而下的演繹規(guī)約路徑和自下而上的歸納規(guī)約路徑來對人工智能倫理問題進(jìn)行規(guī)約分析。
2017年12月12日,匯集了來自全球各行業(yè)專家的意見,美國電氣電子工程師學(xué)會(IEEE)提出了《人工智能設(shè)計的倫理準(zhǔn)則》(第二版)白皮書,在白皮書中,提出了人工智能設(shè)計的八大原則,包括問責(zé)在內(nèi)的法律框架、準(zhǔn)則制定的倫理基礎(chǔ)及人工智能的未來關(guān)注議題等內(nèi)容。2017年1月,人工智能研究者在美國加州的阿西洛馬召開了“阿西洛馬會議”,會議的重要成果是提出規(guī)范人工智能發(fā)展的《阿西洛馬人工智能原則》(AsilomarArtificialIntelligencePrinciples),目的是為全球從事人工智能的專家提供倫理準(zhǔn)則,以保證人工智能能夠為人類福祉而服務(wù)。
《阿西洛馬人工智能原則》對人工智能和機(jī)器人發(fā)展規(guī)范的主要包括三個方面的內(nèi)容:研究主題(research issues)、倫理與價值(ethics and values)與長期議題(longer-term issues)。研究主題主要討論了人工智能的發(fā)展方向、發(fā)展主題等事項;倫理與價值主要關(guān)注人工智能涉及隱私、價值觀、道德地位、價值歸屬、故障追責(zé)等方面的問題;長期議題立足于人類發(fā)展與人工智能的長遠(yuǎn)發(fā)展,對人工智能發(fā)展?jié)撛诘奈C(jī)與挑戰(zhàn)進(jìn)行了集中討論與統(tǒng)一規(guī)約,主要包括能力警惕、風(fēng)險及公共利益等核心主題[10]。
首先,針對人工智能加劇的責(zé)任倫理方面的規(guī)約。隨著人工智能的發(fā)展,其中的責(zé)任倫理問題日益凸顯,傳統(tǒng)的責(zé)任倫理理論不能完全適應(yīng)人工智能發(fā)展的需要,現(xiàn)代技術(shù)是塑造世界、改造世界的重要工具,在技術(shù)領(lǐng)域的變化突出了責(zé)任倫理問題。在《人工智能倫理設(shè)計準(zhǔn)則》(第二版)白皮書當(dāng)中,明確提出了人工智能的設(shè)計者和操作者要負(fù)責(zé)任并且可以問責(zé)的基本原則,提出建立和完善人工智能的問責(zé)法律框架,增加個人權(quán)利的透明度,減少算法歧視等由于設(shè)計者的價值傾向?qū)е碌娜斯ぶ悄墚a(chǎn)品不完善的問題?!栋⑽髀羼R人工智能原則》嘗試著解決由人工智能帶來的責(zé)任倫理問題。在倫理與價值部分提出人工智能系統(tǒng)的開發(fā)者和設(shè)計者是這個高級系統(tǒng)的實際應(yīng)用、造成誤用等行為所產(chǎn)生的重要影響的間接參與者,有責(zé)任與能力去消除人工智能的負(fù)面影響。值得特別說明的是,第一部分直接提出了研究人工智能的要求,從而進(jìn)一步提出了人工智能的研究目標(biāo)是發(fā)展有益于人類的人工智能系統(tǒng),而不是不受人類控制的人工智能系統(tǒng)。第二部分提出設(shè)計者是首要責(zé)任人,使用者是直接責(zé)任人,相關(guān)利益者有不可或缺的間接責(zé)任?!度斯ぶ悄軅惱碓O(shè)計準(zhǔn)則》與《阿西洛馬人工智能原則》對人類責(zé)任的肯定和確認(rèn)在一定程度上也是對人在人類社會中的主導(dǎo)地位的肯定,既是對傳統(tǒng)責(zé)任倫理理論的有效回應(yīng),也對解決人工智能責(zé)任倫理規(guī)范作出了有益的嘗試。早在1942年人工智能尚未誕生的年代,阿西莫夫(Isaac Asimov)在《我,機(jī)器人》中給出了三條機(jī)器人定律:“第一條,機(jī)器人不得傷害人類個體,不能目睹人類受到傷害而不干預(yù);第二條,機(jī)器人必須服從人類的命令,命令與第一條沖突除外;第三條,機(jī)器人在不違反第一條、第二條原則的情況下,要保護(hù)自身安全”[11]。2016年,英國標(biāo)準(zhǔn)協(xié)會(BSI)通過《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》,提出機(jī)器人的設(shè)計不應(yīng)該以殺害或者傷害人類為唯一或首要目的;責(zé)任主體應(yīng)該是人類而非機(jī)器人;任何機(jī)器人都應(yīng)該有責(zé)任人,這個責(zé)任人應(yīng)該為機(jī)器人的行為負(fù)責(zé)。
其次,針對風(fēng)險倫理問題和風(fēng)險社會擴(kuò)大的問題。為了減少或者降低人工智能風(fēng)險,人類應(yīng)該對人工智能采取慎用的原則,在建立相關(guān)的法律體系中也應(yīng)體現(xiàn)人類知情權(quán),在人工智能產(chǎn)品中嵌入價值原則,人工智能在研制階段就應(yīng)該接受風(fēng)險評估,廣泛推廣應(yīng)用前應(yīng)該接受風(fēng)險測試,人工智能產(chǎn)品產(chǎn)生的數(shù)據(jù)要接受審核。人工智能需要完全可靠并且不受影響的安全環(huán)境來運行,同時其風(fēng)險性需要人類檢驗與確認(rèn)。為了規(guī)避人工智能風(fēng)險,人工智能的故障應(yīng)該堅持透明性原則,任何運行當(dāng)中的人工智能系統(tǒng)一旦給人類或人類社會造成了損害,那么它所造成損害的原因必須經(jīng)過認(rèn)真查實和確認(rèn),并及時進(jìn)行補(bǔ)救。我們可以看出,《人工智能倫理設(shè)計準(zhǔn)則》與《阿西洛馬人工智能原則》都十分重視風(fēng)險與安全問題,尤其是強(qiáng)調(diào)人工智能風(fēng)險性必需要可接受驗證。在關(guān)于隱私保護(hù)方面,人工智能在分析人類的隱私數(shù)據(jù)時,人類有權(quán)去訪問、查看和管控人工智能系統(tǒng)所產(chǎn)生的數(shù)據(jù),只有這樣才能保障數(shù)據(jù)安全,保護(hù)人類的隱私?!栋⑽髀羼R人工智能原則》的長期議題比較關(guān)心技術(shù)的未來發(fā)展,重點關(guān)注自主武器發(fā)展的倫理規(guī)范,提出了若干控制自主武器失控的倫理要求,同時對于情感計算提出了發(fā)展要求。重點提及人工智能可能造成災(zāi)難性或者威脅人類生存的風(fēng)險,《人工智能倫理設(shè)計準(zhǔn)則》與《阿西洛馬人工智能原則》從近期和遠(yuǎn)期兩個層面對安全問題作出了重要的強(qiáng)調(diào)。
再次,針對人工智能道德地位的倫理問題。道德具有相對性與非強(qiáng)制性,道德因個人知識水平、所處位置的不同而有所差異,因此對于人工智能的道德倫理問題難有一個普遍認(rèn)可和廣泛接受的標(biāo)準(zhǔn),讓人工智能產(chǎn)品奉行人類普遍認(rèn)可的價值觀是可行的解決途徑。在人工智能的發(fā)展過程中,人工智能機(jī)器應(yīng)該與人類普遍認(rèn)可的價值觀相一致,人工智能的發(fā)展應(yīng)該服務(wù)于人類的公共利益,服從于人類的共同價值,人工智能機(jī)器的研究和應(yīng)用的目的是為了服務(wù)于人類,而不是危害或者毀滅人類,應(yīng)該受人類所普遍認(rèn)可和廣泛接受的基本的倫理原則的約束。人工智能應(yīng)該合乎倫理地設(shè)計、開發(fā)與應(yīng)用,人工智能技術(shù)應(yīng)該遵循包括人權(quán)、福祉、問責(zé)、透明等基本倫理原則并且將價值嵌入人工智能的自主系統(tǒng)當(dāng)中。英國標(biāo)準(zhǔn)協(xié)會(BSI)在《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》中指出,機(jī)器人的設(shè)計要保證透明,同時要避免人類對研究使用機(jī)器人上癮。
在《阿西洛馬人工智能原則》中也體現(xiàn)了司法的透明性,任何高級人工智能系統(tǒng)參與各級司法審判都需要提供令人類完全認(rèn)可的、符合現(xiàn)行法律的司法說明和依據(jù),同時其法律依據(jù)和證明都要得到相關(guān)領(lǐng)域的人類專家的認(rèn)可。高級人工智能被人類法律或權(quán)力機(jī)關(guān)、國家機(jī)器所授予的權(quán)利應(yīng)該僅用于改進(jìn)健康社會的秩序,而不是顛覆人們的認(rèn)知,從這一點上我們可以發(fā)現(xiàn),人工智能被賦予的特定權(quán)利是歷史發(fā)展和技術(shù)發(fā)展的必然趨勢。人工智能獲得一定法律地位是十分必要的,這既有利于提高法律事務(wù)的辦理效率,又有助于保證法律執(zhí)行的公正,促進(jìn)社會的公平正義。為人工智能立法,促進(jìn)人工智能法律體系的建設(shè)則更是具有重要意義,如果人類違背法律必定要被司法系統(tǒng)追責(zé)一樣,人工智能系統(tǒng)若是違背法律同樣需要追究責(zé)任。
綜上所述,人工智能的發(fā)展不應(yīng)只是滿足實現(xiàn)功能性目標(biāo)與解決技術(shù)問題,更應(yīng)該造福人類,服務(wù)于人類整體的價值目標(biāo)與倫理準(zhǔn)則。智能機(jī)器的開發(fā)應(yīng)該尊重用戶的價值,不剝奪人類的權(quán)利,智能機(jī)器的設(shè)計和應(yīng)用應(yīng)該以人類福祉為最終目標(biāo)。人工智能的發(fā)展必須從責(zé)任倫理、安全風(fēng)險、法律法規(guī)等多維視角去規(guī)約才能促進(jìn)人工智能的規(guī)范發(fā)展,才能更好地發(fā)揮人工智能的積極作用。