褚浩宇
(中原工學(xué)院,鄭州 450007)
自1962 年第一臺工業(yè)機(jī)器人在美國誕生,到現(xiàn)在與脫胎于計(jì)算機(jī)技術(shù)的人工智能高度結(jié)合,機(jī)器人的智能化程度越來越高,實(shí)現(xiàn)了自行捕捉、分析、決策、運(yùn)轉(zhuǎn)的高自主自治性運(yùn)作的質(zhì)的飛躍。智能機(jī)器人不但改變了人類的生活、思維及認(rèn)知,而且展現(xiàn)出更多“人”的特征,其數(shù)據(jù)捕獲、分析和處理能力不斷發(fā)展,并以一種“人”的角色參與到人類生活中,由此也衍生了諸多倫理問題。因此,謹(jǐn)慎對待智能機(jī)器人“雙刃劍”特性帶來的問題,思考如何緊握這把“前行利器”并提出針對性策略十分必要。
智能機(jī)器人為人類分擔(dān)了諸多高風(fēng)險(xiǎn)和高難度的工作。在工業(yè)方面,智能機(jī)器人接手了大量的簡單重復(fù)性工作,在運(yùn)用和普及率方面呈上升趨勢。在制造業(yè)方面,智能機(jī)器人替代了越來越多的人工作業(yè)。在金融業(yè),智能機(jī)器人被逐步運(yùn)用到銀行與客戶、信貸房貸等互動環(huán)節(jié)。在醫(yī)療方面,智能機(jī)器人的應(yīng)用促使了手術(shù)低誤差甚至是零誤差的實(shí)現(xiàn),并且其類“人”性也運(yùn)用于精神類患者的陪同和治療上。在軍事上,軍用智能機(jī)器人的研究和運(yùn)用仍是時下熱點(diǎn),如“黑熊”、“獵犬”等軍用智能機(jī)器人可幫助人類完成較危險(xiǎn)、艱難的任務(wù),其自動化、高運(yùn)算、實(shí)時反饋等優(yōu)勢成為各國軍事發(fā)展的重要內(nèi)容。在服務(wù)業(yè),智能機(jī)器人不受人類生理局限以及時間和空間的限制,能為人類創(chuàng)造更多的價值。
智能機(jī)器人是對人類的表征行為(包含對人類語言、動作)進(jìn)行捕獲,通過內(nèi)設(shè)的計(jì)算機(jī)運(yùn)算程序,調(diào)用適合的預(yù)設(shè)算法和函數(shù),對捕獲到的信息進(jìn)行處理、分析并以既定方式對人或周圍行為做出反饋的一類機(jī)器。其主要特征有:一是能自主捕獲外在信息;二是具有自主“判定”和“思維”的能力,能對捕獲信息進(jìn)行獨(dú)立的判斷、分析和抉擇;三是能根據(jù)預(yù)設(shè)原則對情景實(shí)況做出相應(yīng)的語言、行動和具體表征上的反饋。
馬克思主義哲學(xué)認(rèn)為意識是人類大腦特有的機(jī)能。人類可以能動地改造世界和認(rèn)識世界,與其他生物的主要區(qū)別是人腦具有意識。道德主體包含獨(dú)立人格、主體意識、獨(dú)立性和能動性。如今人工智能技術(shù)發(fā)展迅猛,智能機(jī)器人的智能化水平也在逐年提高,符號奠基與語義識別技術(shù)得到不斷突破,智能機(jī)器人在技術(shù)足夠發(fā)達(dá)的情況下能否產(chǎn)生類人的獨(dú)立“意識”,這是值得思考的問題。采用邏輯學(xué)演繹推理中的三段論推理:R 代表智能機(jī)器人,D 代表獨(dú)立意識等相關(guān)條件,Z 代表社會地位或道德主體性;如果主體R 具有條件D,任何具有條件D 的主體都具有Z,那么主體R也應(yīng)具有Z。依照目前情況來看,具備條件D 的只有人類。但依照現(xiàn)今人工智能技術(shù)的發(fā)展速度,在不遠(yuǎn)的將來如果智能機(jī)器人R 實(shí)現(xiàn)足夠智能化并具備條件D,其對社會地位Z 的享有就非常值得人類思考。[1]雖然目前人類對智能機(jī)器人的使用大多讓其作為助手和工具無償提供便利和幫助,但當(dāng)人工智能與智能機(jī)器人的發(fā)展水平足夠高時,具備了類人的獨(dú)立意識與思維判斷能力,那如何對待智能機(jī)器人以及給予其何種地位就非常值得我們思考。[2]依照目前的價值判斷,當(dāng)智能機(jī)器人具備了上述能力,人類理應(yīng)給予智能機(jī)器人尊重,但地球生存空間和可用資源有限,若繼續(xù)將智能機(jī)器人視作工具,這很可能與我們的價值判斷和普世價值觀相違背,我們需要界定這些行為是否會造成新的奴役與壓迫。[3]另外,隨著技術(shù)的不斷發(fā)展,科學(xué)家有望通過“人機(jī)結(jié)合”方式實(shí)現(xiàn)人的“永生”或“強(qiáng)化”。就好比一些影視作品中表現(xiàn)的那樣,當(dāng)科學(xué)發(fā)展到能對人類大腦信息進(jìn)行研究、儲存和轉(zhuǎn)移的水平,高度智能化的機(jī)器人就成了一個可寄宿的客體,人類就有可能脫離肉體的窠臼,實(shí)現(xiàn)精神層面的“永生”。但真到了這種程度,這種存在能否被稱為人類還很難說,而且這涉及對人類尊嚴(yán)的褻瀆,這種存在是對人類生命的延續(xù)還是對人類的囚禁或物種的毀滅有待探討。[4]隨之也帶來諸多問題,如對人類記憶智能機(jī)器人的銷毀行徑是否構(gòu)成現(xiàn)有意義上的謀殺;對機(jī)器人的常態(tài)化操作是否會變?yōu)樾碌慕d或囚禁。這種類似甚至超越基因編輯的行為絕不是實(shí)現(xiàn)了人類的進(jìn)化,而是一種病態(tài)甚至是對人類異化的危險(xiǎn)行徑。
雖然目前智能機(jī)器人尚未大范圍投入使用,但按其發(fā)展趨勢,我們必須關(guān)注其極有可能帶來的價值判斷和責(zé)任認(rèn)定問題。如將智能機(jī)器人應(yīng)用于軍事,顯然人類實(shí)時操控所有機(jī)器人不太現(xiàn)實(shí),這就需要智能機(jī)器人進(jìn)行自我操作。而根據(jù)情景、環(huán)境、立場等因素,對目標(biāo)以及是否符合世界人道主義精神的判定就是擺在人類面前的一大難題。如何不傷及無辜或放棄抵抗的士兵,如何不造成大范圍的冰冷屠戮,如何將其自身陣營立場與人道主義精神相結(jié)合,做到與人類主觀識別相同的程度,并有定量的標(biāo)準(zhǔn)或數(shù)據(jù)來保證其做出精確的價值判斷是十分必要的。[5]智能機(jī)器人未來能達(dá)到的認(rèn)知水平和判斷水平尚不可知,在復(fù)雜情景條件下捕捉的信息能否支撐其做出完全正確的判斷存在質(zhì)疑。如恐怖主義者利用威逼、脅迫等方式把無辜者偽裝成敵對目標(biāo)、陣營立場的傾向性、黑客或恐怖主義的控制入侵等,這些問題人類都難以抉擇,所以作為目前主觀判斷性尚不如人類的智能機(jī)器人,在這些問題解決前不應(yīng)得到大范圍使用。
此外,倘若智能機(jī)器人由于各種原因在價值判斷上出現(xiàn)了問題,進(jìn)行了錯誤的行為并帶來了一系列連鎖反應(yīng)和后果,這些損失如何追責(zé)以及向誰追責(zé)也是一大難題。如用于醫(yī)用和軍用的智能機(jī)器人在未受到人類實(shí)時控制或遠(yuǎn)程監(jiān)控下進(jìn)行自主工作時,其做出的判斷和行動是否可靠應(yīng)引起重視。醫(yī)療機(jī)器人對待非麻醉狀態(tài)的病人能否正確捕捉病患實(shí)時狀態(tài),像人類醫(yī)生一樣酌情恰當(dāng)?shù)販贤?、引?dǎo)等操作;手術(shù)中因特殊情況導(dǎo)致病人手術(shù)失敗或死亡等情況,責(zé)任判定如何劃分。[6]該責(zé)任認(rèn)定就存在是追究機(jī)器人的責(zé)任進(jìn)行重構(gòu)改良或銷毀,還是追究負(fù)責(zé)操縱監(jiān)管的操作員,亦或是生產(chǎn)智能機(jī)器人的制造者和廠商的難題。這些對象是否負(fù)責(zé)、負(fù)多少責(zé)任、如何懲處都是擺在現(xiàn)有人類法律、安全和穩(wěn)定方面的大難題。
相比人類醫(yī)生,人工智能醫(yī)療對病人隱私考慮得不太周全。機(jī)器醫(yī)療會將接觸到的病人信息保存于云端或存儲器,即使人工刪除也有辦法尋回;機(jī)器的“保密性”也不像人類一樣存在情感,任何人都有可能獲取,即使有加密措施也不能完全阻止,這樣病人隱私就有可能被非法竊取。同時,智能機(jī)器人能捕獲外在信息,并對其進(jìn)行相應(yīng)的分析和運(yùn)算,這勢必會將其捕獲的信息進(jìn)行保存或儲存至服務(wù)器,這些信息就會存在被非法竊取、非正常調(diào)取、保密性差、易受攻擊等問題。
智能機(jī)器人對社會也存在沖擊。一是對社會公平的沖擊。智能機(jī)器人運(yùn)用在醫(yī)療中讓以往難以攻克的領(lǐng)域取得了長足進(jìn)步,也給諸多病患帶來生的希望,但其受眾仍只是經(jīng)濟(jì)能力較高的小部分人群。人類在發(fā)現(xiàn)智能機(jī)器人醫(yī)學(xué)價值的同時,也應(yīng)考慮如何推廣和普及這項(xiàng)技術(shù),以及在逐步大眾化的過程中可能造成的社會問題。如富人和窮人由于收入水平的差距影響其治愈情況和壽命,導(dǎo)致他們今后的社會競爭加劇,進(jìn)而造成更大的貧富差距并激化社會矛盾,甚至引起國家和社會的動蕩。此外,對于專業(yè)工作如醫(yī)療智能機(jī)器人的使用也可能使醫(yī)生對其精準(zhǔn)的數(shù)據(jù)和高效的運(yùn)算產(chǎn)生依賴,從而以一種“智能機(jī)器人+”的方式降低或削弱行業(yè)內(nèi)技術(shù)人員的專業(yè)水平和實(shí)際操作水準(zhǔn)。[7]二是對社會就業(yè)的沖擊。智能機(jī)器人在簡單重復(fù)性工作上相比人類具有極大優(yōu)勢,很可能完全取代現(xiàn)有大量的流水線工作,進(jìn)而增加就業(yè)壓力。特別是其大量應(yīng)用于手工業(yè),勢必對傳統(tǒng)手工業(yè)者和工廠工人造成沖擊。失業(yè)者相比智能機(jī)器人處于絕對的弱勢地位,而其再就業(yè)也將成為不可忽視的社會問題,諸如社會無業(yè)游民增加、失業(yè)者心理健康甚至威脅社會治安穩(wěn)定,這些都是我們在發(fā)展智能機(jī)器人的過程中不可忽視的問題。
社會倫理標(biāo)準(zhǔn)是不斷發(fā)展的,不同時期有不同的倫理標(biāo)準(zhǔn)。評判是否發(fā)展和怎樣發(fā)展智能機(jī)器人應(yīng)站在歷史的角度,與時俱進(jìn)地看待。要注重人民群眾才是歷史的主體,從世界“人民”的角度和人類自身的倫理構(gòu)建出發(fā)來評判智能機(jī)器人的發(fā)展,并建立在人類對其絕對控制之上,在現(xiàn)有研究成果如阿西莫夫三定律、美國《Robot Ethics》等有關(guān)智能機(jī)器人倫理問題的基礎(chǔ)上積極汲取營養(yǎng)。即使智能機(jī)器人發(fā)展到具有獨(dú)立思考的水平,人類也有方法與手段對其進(jìn)行控制,如“絕對開關(guān)”、“禁令代碼”等強(qiáng)制措施。在緊握這把“雙刃劍”,保證其不傷害人類利益的前提下,適度公正地對待智能機(jī)器人,在可控范圍內(nèi)造福人類。
智能機(jī)器人在設(shè)計(jì)時應(yīng)考慮其潛在的可能性,將人類可接受的道德價值和倫理規(guī)范轉(zhuǎn)化為智能機(jī)器人的技術(shù)功能,最大可能壓縮其不可控性和威脅性,使其各項(xiàng)功能的發(fā)展符合人類設(shè)計(jì)的“初心”。同時,遵從道德價值和“倫理物化”的設(shè)計(jì)方式,在價值判斷設(shè)計(jì)中,將倫理學(xué)觀點(diǎn)從以往的“旁觀者”化為人工智能學(xué)科技術(shù)設(shè)計(jì)的“合作者”和“共同體中的醫(yī)院”,將道德價值與倫理規(guī)范整合嵌入到具體的智能機(jī)器人設(shè)計(jì)過程中,將倫理觀念“外化于物”。[8]另外,技術(shù)設(shè)計(jì)者如科學(xué)家、工程師、設(shè)計(jì)師等更要將道德價值與倫理規(guī)范“內(nèi)化于心”。當(dāng)前人們在享受科技快速發(fā)展帶來便利的同時也逐漸對其發(fā)展有了失控的恐慌,因此技術(shù)設(shè)計(jì)者更應(yīng)牢記其作為技術(shù)創(chuàng)造者的責(zé)任與使命,時刻銘記發(fā)展技術(shù)的目的是為了造福人類,從技術(shù)的起步、發(fā)展階段投入更多關(guān)注,引導(dǎo)其潛在的發(fā)展方向指向安全化、道德化,規(guī)避危害人類的潛在趨勢。加強(qiáng)技術(shù)工作者的倫理教育培訓(xùn),形成與倫理觀念相契合的知識和思維體系,以達(dá)到更高層次的“道德嵌入”。
政府要充分發(fā)揮制度與政策的作用,指導(dǎo)智能機(jī)器人技術(shù)朝著公平、利民的方向發(fā)展,不斷提高技術(shù)的可行性,并通過適當(dāng)?shù)膭討B(tài)調(diào)整發(fā)揮科技政策的推動作用。同時,不局限于理論框架,把目光投向現(xiàn)實(shí)世界,善于運(yùn)用學(xué)科結(jié)合、社會調(diào)研等方法,聽取群眾心聲,了解群眾期待的“好技術(shù)”,并利用政策手段約束不良發(fā)展態(tài)勢,引導(dǎo)其朝正確方向發(fā)展,解決其所帶來的社會問題,為科技政策的制定提供倫理基礎(chǔ)和道德辯護(hù)。