王 東 浩.
(南開大學 哲學院,天津 300071)
機器人是當今社會技術成就上非常成功的一個典型。人類對這個領域的研究開始于20世紀30年代,最初,機器人主要應用在工業(yè)和制造業(yè)部門,后來擴展到社會服務部門和個人生活領域。近年來,機器人在軍事領域發(fā)揮著越來越重要的作用。可以說,機器人應用范圍越來越廣泛,甚至我們在報紙、雜志等媒介中經??梢钥吹接嘘P機器人的介紹。
然而先進技術的快速發(fā)展,往往會帶來一些負面影響。機器人技術的發(fā)展也是如此。隨著機器人應用領域和范圍的逐步深入和廣泛,它所表現(xiàn)出來的社會和倫理方面的問題也日益突出。基于此,人們開始關注機器人倫理問題。并逐步從技術和倫理相結合的角度研發(fā)機器人。在本文中,我們從機器人的概念出發(fā),就機器人在工業(yè)、醫(yī)療和軍事等領域的應用,以及它所表征的倫理問題進行分析,進而說明機器人在未來的發(fā)展趨勢。
對于機器人的定義,國際上較為統(tǒng)一的觀點為:“一種可編程和多功能的操作機;或是為了執(zhí)行不同的任務而具有可用電腦改變和可編程動作的專門系統(tǒng)?!钡@一定義卻不能涵蓋當今機器人所具有的內涵特征。更不能引起機器人專家及其使用者的共鳴。因此,我們需要一個更精確化、更合理的定義。
隨著機器人感知能力的出現(xiàn)并加強,機器人所具有的模擬與“認知”能力也越來越精細。這樣以來,具有自主意識的機器人就有可能出現(xiàn)。而這種自主意識的前提是具備“思考”的能力。即通過“思考”,機器能夠借助傳感器或其他途徑來做出自主決策。機器人的自主決策能力在此解釋為:一旦機器的一部分被啟動,那么該機器就能夠根據(jù)現(xiàn)實環(huán)境進行自我反饋運作,而在一定時間內不受外部控制的一種能力。
據(jù)此,我們認為傳統(tǒng)的對于機器人的定義已不能詮釋現(xiàn)代機器人的內涵。那些完全遠程或遙控的機器不具有自主決策能力,它們基本上依賴于外部控制,沒有獨立“思考”的能力,也不能進行獨立行動,因此它不能稱為機器人。生產力的發(fā)展,社會的進步要求機器人必須具備自主決策能力,而這正是人類社會發(fā)展的必然趨勢。
從第一臺機器人誕生距今短短幾十年間,機器人技術不斷革新。從當前和未來發(fā)展的前景看,伴隨著新系統(tǒng)頻繁研發(fā)問世,機器人功能會更加明顯和多樣化。具體表現(xiàn)在:
·人機交互
·機器人的情感顯示和識別
·類人型機器人
·多樣化的機器人系統(tǒng)
·自主體系
新型技術的發(fā)展和應用帶來了巨大的生產力,而同時生產力的發(fā)展也促進了技術研發(fā)的飛躍。然而,人們更多關注的是它在技術層面的快速發(fā)展,對于機器人發(fā)展所帶來的社會影響人們卻很少關注。事實上,從機器人出現(xiàn)并且融入到社會生活中的時候,倫理問題就會出現(xiàn)在相關領域。從人機交互最先出現(xiàn)的工業(yè)領域開始,然后擴展到健康護理和醫(yī)療保健等領域。例如,在今天,社交型機器人(尤其是類人型機器人)已然參與到我們的家庭或社會聚會;另外,無論是現(xiàn)在或將來軍用機器人都會發(fā)揮著重要的作用??梢哉f在所有可能的應用領域,機器人與人類的互動已非常廣泛和深入。
機器人廣泛應用在各類型的實驗室中。除此之外,伴隨著 Unimate(第一代工業(yè)機器人)機器人的出現(xiàn),它已開始在制造業(yè)中發(fā)揮作用。
在早期,機器人應用于制造業(yè)的時候,首先引起人們對倫理問題的關注是通過一個死亡事件。1979年 1月 25日,事發(fā)密歇根(Michigan)的弗林特(Flint)福特制造廠,在一次罷工中有位工人試圖從倉庫取回一些零件而被機器人“殺死”;另外,在 1981年也發(fā)生了一起死亡事件,一個日本維修工人在對機器進行維修的時候也被機器人“殺死”。繼這兩個事件之后,制造業(yè)部門開始在一些重大和存在潛在危險的環(huán)節(jié)安裝防護措施。即使如此,在 1984年,還是發(fā)生了工人致死的案例。很明顯,工廠的雇傭工人和機器人是以合作者的關系出現(xiàn),這種合作本身就包含了倫理責任,那么就需要確保工人的安全和幸福。然而,卻沒有一個安全的防護能夠保證人們遠離危險。
設置防護確實在很大程度上緩解了機器人在工作中給人類帶來的傷害。然而,在使用它們的過程中卻帶來了很多其他方面的倫理問題,尤其體現(xiàn)在人類的情感問題上。
機器人進入工廠,雇傭工人就會減少,從而導致失業(yè),這必然要引起擔憂和恐懼。因此,這就需要管理人員有責任去阻止或至少是減少這些恐懼。例如,在工廠中對機器人和工人進行一定數(shù)量比例的限制。另外,既然機器人在重復性的動作上具有很大的優(yōu)勢,那么在其缺乏判斷和決策的位置上就應該充分發(fā)揮工人的力量。
原則上,在制造業(yè)領域,科學家應該盡可能地設計能夠完成枯燥和危險任務的機器人,同時,對于一些需要判斷和解決問題的任務由人類工作者完成。然而,在自動化工廠發(fā)展的過程中,在與機器人一起工作時,人類工作者可能會產生自卑情緒。更進一步來說,他們可能擔心工廠的管理者會進一步用機器人代替他們,因為他們認為機器人(原則上來說)可以完全代替人類的工作。在這樣一種信念的引導下,他們可能會不高興甚至對機器人進行一些破壞性活動。與此相關的一個案例是 19世紀英國工人破壞機器的一個事件。所以管理者應該具有倫理方面的義務以允許工人在一定的任務范圍內去工作,并充分利用他們極高的機器人所不具有的認知能力。
在當前生產生活領域一個重要的發(fā)展趨勢是人機合作,以及機器人在工作時要和人類一起分擔責任。在 20世紀 90年代初期,美國西北大學教授 Peshkin& Colgate首先研發(fā)這樣一個機器人系統(tǒng)[1]。這種具有合作性的機器人稱為“Cobots”?;旧?,“Cobots”和人類可以共同完成某一項任務,但是行動的能量完全由人類提供,“Cobots”提供向導,并可以控制行動方向。因為人類為這個過程提供了能量,那么這個系統(tǒng)的作用還表現(xiàn)在它能夠進一步解決人類在機器人行動過程中所面臨的危險。
在最近幾年,人機合作在很多場合的增加已經引起了人們的注意。新的感應器的出現(xiàn)更加增進了人機關系,從而將潛在危險降低。這樣,當機器人和人類在工作的過程中接近的時候,傳感器就會發(fā)出預警。同時,為了降低任何可能的危險,未來的制造業(yè)機器人將具有識別人類手勢和行動而后運作的能力。這一合作也意味著機器人能夠向人類學習一些限制性的活動。最終,這一效果的目標是通過吸取機器人和人類各自的優(yōu)勢,為最大可能地實現(xiàn)機器人和人類之間的分享和合作而創(chuàng)造更多的機會。
顯然,人機之間的分享和合作可能會優(yōu)化工作環(huán)境,但是也可能會降低他們之間的互動與交流。因此,在工廠開始提高機械化的過程中,這些倫理問題就需要先行處理。
健康護理方面的機器人應用是另一個人機交互快速發(fā)展的領域。它主要包括護理、手術、理療和康復等??梢哉f,這個領域的機器人應用極大地拉近了人與機器之間的距離。對此,我們能夠推測,機器人在這一領域的應用有助于減弱其對人類的潛在危險。在此我們就機器人在這個領域的快速發(fā)展指出一些典型的應用。
健康護理方面的工作通常是病人和護理者之間一對一的關系,這種人機交互的工作模式是非常重要的。因此,這也就是很多實驗室正在發(fā)展“護理助理”機器人的原因。這方面最早的機器人是由 Pyxis公司制造的輪式助理機器人(Wheeled Helpmate)。HelpMate旨在幫助護士或醫(yī)院工作人員運送藥物、實驗樣本、設備、食物等工作。HelpMate還能夠為醫(yī)院的各個地點導航,從而避免人員間的碰撞。除此之外,它還能夠使用電梯以及鎖定某個特定的病房。Carnegie Mellon 大學和Pittsburgh大學已經制成了命名為Pearl的“機器人護士(nurse-bot)”。它能夠從一個助理的角度來檢查醫(yī)院的老年病人,從而為醫(yī)護人員提供信息,提醒病人用藥,記錄相關信息以及引導相關人員就醫(yī)等。這種機器人的形狀大體是在滑動的輪子上安裝直立的身軀,并具有類似于人類的頭部一樣的物體,上面裝有便于交流的攝像頭和聲音識別與記錄裝置。在頭部或腰部的位置,它們通常也會有數(shù)字顯示的功能,從而提示某些信息。
在助理機器人(Aassistive robots)中有這樣一個設備,它可以提供口頭引導、鼓勵,使中風和脊髓損傷的人在與機器的交互中走向恢復。同時它還可以幫助患有自閉癥的孩子進行治療。這一類型的機器人不會與對象進行身體上的接觸,而是通過聲音和示范予以交流。例如圖1。
圖 1 助理機器人
在諸如這些護理型或助理型機器人中,經常存在這樣一些倫理方面的問題:
·病人可能會對機器人產生感情,這樣如果撤回機器人就可能會觸發(fā)病情甚至加重。
·除了遵守人類的指令之外,機器人自身不能就病人的情緒,諸如生氣或失望等做出回應。例如,一個病人可能拒絕機器人喂藥,并把藥片扔到地板上,甚至試圖打擊機器人。
·機器人會面對很多病人而不是唯一,而且它不能優(yōu)先考慮一些特殊情況,這就會引起病人的生氣和失望情緒。
圖 2 da Vinci外科機器人
另外,我們經常提到的“機器人外科手術”,通常指的是外科手術中的人機合作活動。在今天,著名的 da Vinci外科機器人[2]已經廣泛應用在很多醫(yī)院。參見圖2。實際上da Vinci是一個遙控機器人,因為它通過外科手術專家進行遠程操作,但并不是全自動化的。外科手術專家通過一個遠程的控制臺,用兩個手柄把握內窺鏡的位置以及手術儀器。事實上,他對計算機發(fā)送指令來控制機器人的手臂,使得機器人可以完成外科手術。手術的工具裝有感應器,從而可以把實時情況反饋到外科醫(yī)生的手上,以防過度操作。這樣可以消除醫(yī)生在手術過程中手臂抖動的現(xiàn)象,并能夠提供及時的反饋從而確保手術順利進行。因此,使用da Vinci機器人進行手術已成為治療中的一個趨勢。在此,我們設想這樣一個場景:當外科手術機器人變的更具自主性并且和人類外科專家成為真正的合作者,但其行動卻不是來自于簡單的遠程控制,那么其結果如何?
我們再來考慮這樣一個情況。機器人完成了一個手術操作,然后病人出現(xiàn)很多并發(fā)癥并且較之之前病情加重。那么誰來為這個責任負責?如果這一外科手術可能存在一個眾所周知的潛在問題,那么由此出現(xiàn)的倫理責任又由誰來承擔?還有,傷害在什么樣的情況下可以定義為不道德?或者換句話說,傷害的程度在什么范圍內是道德所允許的?
借助機器人做手術存在一定的風險,或者它獨立完成,或者與外科醫(yī)生合作完成,手術所面臨的風險也許要比獨立的人工操作低。另外,從手術費用上來看,機器人手術要比純粹的人類醫(yī)生所做的手術費用要低。然而,如果這一情況變?yōu)楝F(xiàn)實,那么必然會在手術中增加機器人的應用,我們可能就會在醫(yī)院看到更多的“Luddite” 分子。那么,對于機器人的破壞是否也是倫理方面的問題,或者說機器人是否應該得到尊重?
我們期望在未來的 10年里,能有更多的機器人出現(xiàn)在我們的家庭里,幫助我們打掃衛(wèi)生,處理內務,照顧孩子,或者處理文秘工作等等。協(xié)作者機器人這一發(fā)展趨勢開始于 Roomba真空吸塵器機器人的問世,此類機器人是2002年由iRobot公司生產的。從那時開始,超過400萬個此類型的機器人在世界各地銷售。因此在很多情況下,我們把它定義為一個商品,而不是奢侈品。然而,Roomba在一些重要的事情上還不能與人進行交流。這極大地限制了具有類人屬性的機器人與人之間的交互。換句話來說,類人型機器人,諸如真空吸塵器和割草機可能是機器人,但是它們卻不是當前意義上的類人機器。
類人型機器人在一些方面具有人類的特征。它們可能有兩個手臂但是沒有腿(通過輪子移動);它們可能有一個或多個手臂或者甚至沒有;它們可能有一個類似于人類的頭,并裝配視覺和聽覺工具;并且它們可能具有說話的能力以及辨識語音的能力。
饒有興趣但仍需注意的是類人型機器人為了取得人類的信任而不會與人類完全一致。眾所周知,人類可以與玩偶、雕塑相互作用,并且玩具只具有與人類最低限度的相似性。事實上,與人類能力相關的類人型動物已然惡化,因為它們在發(fā)展的過程中與人類的差別已很小,直到這個相似性完全變成等同。這種矛盾的結果被Mori稱為“詭異之谷(Uncanny Valley)”[3],參看圖 3。這個圖示表明當它們變得越來越像人類的時候人類的情緒反應,直到它們達到一個相似點,也就是它們和人類之間的相似度近乎完美,但實際上可怕的是兩者根本不同,以至于我們不再信任它們——曲線滑到谷底代表這種關系的突然改變。
圖 3 詭異之谷(Uncanny Valley)
機器人分享人類空間的能力對人類的居住環(huán)境不會構成威脅,當然這主要依靠技術上的改進。包括新的或更好的感應器(它能夠使機器人充分了解周圍環(huán)境),這種能力可以通過聲音、手勢與人類進行交流,并可及時控制制動器來控制運動的速度和可能造成的危險。另外還有很多待改進的軟件,包括社會和人類相互影響的能力。這些都是高階的命令,但是機器人滿足這些要求的能力逐漸顯露。例如:日本三菱公司的機器人Wakamaru以及法國Aldebaran Robotics的機器人Nao,參見圖4。
Wakamaru是以人類伙伴的角色出現(xiàn)的,我們稱之為“伙伴機器人(Companion Robot)”。它大概有 4英尺的高度,有頭和大大的眼睛,有可移動的手臂但是沒有腿,它的移動是靠輪子,因此它的運動需要相對平整的路況。它可以識別1萬個單詞,能夠打電話和使用互聯(lián)網。它備有一個攝像裝置,如果通過互聯(lián)網聯(lián)系的話,它可以拍攝圖像,并且能夠識別 10張臉譜,以及可以按照程序完成相應的任務。它可以讀郵件和瀏覽新聞,并通過聲音傳遞信息。它可以同時運用語言和手勢予以交流。
Nao也是一個機器人,當前主要應用在許多大學的實驗室里。它只有 2英尺的高度,也就是Wakamaru的一半。它的行進主要是通過慣性測量裝置和超聲測量儀來保證的(或者是借助一個持續(xù)計量位置、速度和方向的系統(tǒng)并使用感應器和陀螺儀裝置)。它的手有抓住物體的能力。它具有兩個攝像機。它能夠通過4個麥克風進行全方位的試聽。它有兩個揚聲器。和 Wakamaru一樣,它能夠進入互聯(lián)網。它的處理器是一個嵌入式的操作系統(tǒng)。它能夠識別很多手勢和肢體動作。
另外,類人型機器人在我們家庭中占有一定的地位,參考圖 5,這是機器人在德國的新發(fā)展,主要是在廚房中提供幫助。
圖 4 Nao機器人
圖 5 類人型機器人
很明顯,這些機器人是復雜的類人型機器人,它具有和人類交流的各種能力??梢哉f,伙伴型機器人技術即將到來,而相應的風險和倫理問題業(yè)已提出。如下:
·如果此類機器人可以自由進入人類房間,就會暴露很多隱私。
·機器人識別命令的能力會引起不道德的行為。(例如,盜取鄰居的攝像或盜聽電話)。
·機器人的權力和責任。例如,當機器人把盤子或食物掉在地板上時,它如何感應人的憤怒或語言?換句話來說,對機器人進行吼叫是否屬于倫理方面的問題?我們能夠或是否應該對機器人的過失行為進行懲罰?而又如何懲罰?
·機器人如何應對來自不同人發(fā)出的復雜的指令并做出反應?例如,孩子招喚一個機器人過來玩耍,同時媽媽又對該機器人下達了到廚房洗刷盤子的命令,機器人如何面對?
·機器人計算機能否被黑客侵入,并窺測和發(fā)送圖片給潛在的竊賊?
很明顯,在當前我們不能就這一系列問題給出明確的答案。
上面我們已經討論過機器人是“社會交互式”的。就人機交互而言它本質上是行為之間的一種結合。正如大量調查研究[4]中所指出的那樣,這個短語涵蓋了一個關于機器人更寬泛的范圍。廣義上來說它需要一個共同的甚至多個機器人系統(tǒng)(機器人可能會彼此合作)。這就需要機器人能識別彼此并盡可能地出現(xiàn)交互行為,這包括彼此之間的互相學習。同時對這個領域的大量調查研究正在發(fā)生,由于篇幅限制我們不能在此予以討論。然而,很明顯的是,這樣一個共同的關系將引發(fā)一些倫理問題的思考。例如,某個機器人毀壞或摧毀小組里的另一個機器人是不是倫理問題?如果不是,那么我們如何能確保這種情況不會再次發(fā)生?
從長遠來看,對于社會型機器人的發(fā)展,我們期待高水平編程語言的出現(xiàn),可以使機器人具有自己個性,相互間可以進行交流。以至于我們可以通過思考機器人的社會性來研究其社會行為的一面。比如,在完成一項任務中,其中一個機器人可以無私地幫助另一個機器人,即便助人者最后可能會受到損害[5]。
在交互式機器人中還涉及到另一個主題,那就是機器人自身的情感問題。在機器人實驗室里這是一個深度研究的主題。關于機器人所揭示的“人工情感”存在廣泛的討論。如果人類和機器人都可以表達憤怒、高興、厭煩和其他一些情感,那么對于人機交互應該是有利的。例如,感情可能會通過數(shù)字顯示器上人造的臉或三維立體的頭而表現(xiàn)出來。臉或頭部可能會有翹動的眉毛、嘴,可以變成某種形狀,或者通過眼睛的張閉來表達情感。麻省理工學院最早設計出稱為Kismet機器人的頭部[6],它與人類有細微的相似之處,但是卻存在很多可以調整的面部形狀。同時我們可以證明機器人表達情感并不是真實的,而人類作用于它之后的反應可能更加顯著[7]。人類有賦予機器人人性的趨勢,然而,機器人所表現(xiàn)出的任何情感(真的或人造的),可能不會被人類接受。
機器人在軍事領域的應用已成為很多書①或報告②的主題。從其中可以看出,我們不會討論自主性或半自主性的無人飛行機(UUVs),無人駕駛機(UGVs)或者臨時的爆炸裝置(IEDs)和地雷。很明顯,這些裝置可以保護士兵和海員的安全,參見圖 6。成千上萬個這樣的機器人出現(xiàn)在伊拉克和阿富汗戰(zhàn)爭中。這些防護型機器人也同樣被普通人使用,諸如就家庭安全、政府設施、商業(yè)設施、廠房檢查等。警察部門也可能會用到這些機器人,以進入某一可能危及人員的建筑物。
圖 6 軍用機器人
為了解決軍事領域中機器人所面臨的日益升溫的道德困境,我們考慮以下場景:
1) 智能信息顯示,GPS定位到某一個房子中存在危險的敵對分子。因此一個軍用機器人接到命令去接近這個房子,其目的是殺掉這個房子里的所有敵對分子。可是當機器人接近房子時,它檢測(從幾個聯(lián)合的感應器,包括視覺、X射線、聽覺和嗅覺等)到房子里除了有敵對分子外還有一些孩子。因為機器人具有戰(zhàn)爭中所應遵守的規(guī)則和法律程序,所以它應避免或至少最小化無辜人員傷亡。當面對這一矛盾的指令時,機器人可能會把這一困境反饋到指揮中心,以求解決之道。但是這可能不具有可行性,因為此時機器人可能會被敵對分子發(fā)現(xiàn),以致傷害自己的力量。更為特別的是,當機器人面對這一矛盾的指令時,運行中的計算機可能會被“凍結”或“鎖定”。
2) 另一個場景涉及到一個高性能的無人駕駛機。這個無人機突然遭到不明身份的由人操縱的飛機攻擊。這種情況下,機器人只能通過傷害人類來保全自己。而這個決定反饋到遠程控制臺以及做出相關決定的時間是用毫秒計算的,在這種情況下控制臺不可能迅速做出反應,那么無人機應該如何做出決定?
因此,軍用機器人的應用帶來了很多倫理方面的問題。就此,Arkin試圖發(fā)明一個可控制的程序,即嵌入一個機器人控制軟件來解決這個問題。原則上來講,這個軟件可以確保機器人遵守交戰(zhàn)規(guī)則。但這能否保證機器人在所有情況下都能具有倫理道德?答案肯定是否定的,Arkin僅僅就此宣稱這樣的機器人較之純粹的戰(zhàn)士“更具有倫理道德”。事實上,可悲的是,具有更高道德素養(yǎng)的機器人在機器人倫理方面不可能有更大的進步。很明顯,在之前的討論中就軍事機器人還存在很多未解決的倫理問題。具體如下:
·如果一個機器人進入建筑物,我們如何確保它不會侵犯居住者的權利?
·該機器人是否有權利進入?哨兵損壞或摧毀該機器人是否是犯罪?
·如果一個機器人在保護人類或逮捕罪犯的過程中對財產構成破壞,誰為這一損失負責?
·既然可以減少自己一方的人員傷亡,那么是否可以增加軍用機器人的自主權?
·軍用機器人技術的普遍應用要多久才可以擴展到其它國家?它們具有了這項技術后的影響是什么?
·對于編程此類遵守戰(zhàn)爭規(guī)則或交戰(zhàn)規(guī)則的軟件是否過于困難?
·軍用機器人技術的充分發(fā)展是否能夠保證它們可以區(qū)分戰(zhàn)斗人員和平民?
·自動防故障裝置是否與計劃外的使用相沖突?例如,我們能否確定敵人的“黑客”不會控制我們的機器人并轉而對付我們?
學者 Arkin,Asaro,Sharkey,Sparrow 以及Weber對這些問題進行了深層的探討,并出版了相應的著作。
在本文中,我們對機器人倫理總的發(fā)展趨勢已經做了分析。另外,在當前的研究中,我們揭示了機器人倫理領域的一些變化。隨著這一領域的快速發(fā)展,我們意識到機器人群體中所面臨的倫理方面遲遲未能解決,其主要原因是缺乏關注?;诖?,本文就這一領域發(fā)展過程中所出現(xiàn)的問題拋磚引玉,以期能有學者在這方面有更加深入的研究。
注釋:
① 參見 Singer P,Wired for War,New York: Penguin Press,2009。
② 參見 Lin P, Bekey G A, Abney K. Autonomous Military Robotics: Risk, Ethics and Design,Office of Naval Research-funded report. San Luis Obispo: California Polytechnic State University, 2008。
[1] Peshkin M A, Colgate J E. Cobots[J]. Industrial Robot,1999(5):335-341.
[2] Taylor R H, Lavallée S, Burdea G S. Computer Assisted Surgery[M]. Cambridge, MA: MIT Press, 1995:12.
[3] Mori M. Bukimi no tani: The uncanny valley[J]. Energy,1970(4):33-35.
[4] Fong T I, Nourbakhsh, Dautenhahn K. A survey of socially interactive robots[J]. Robotics and Autonomous System,2003(3-4):143-166.
[5] Clark C M, Morton R, Bekey G A. Altruistic relationships for optimizing task fulfillment in robot communities[M].Berlin: Springer-Verlag, 2009:261-270.
[6] Breazeal C. Designing Sociable Robots[M]. Cambridge,MA:MIT Press, 2002:35.
[7] Ogata T, Sugano S. Emotional communication between humans and the autonomous robot WAMOEBA-2(Waseda Amoeba)which has the emotion model[J]. JSME Intenational Journal. Series C, Mechanical Systems, Machine Elements and Manufacturing, 2000(3):568-574.