国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

仿真機(jī)器人的倫理問題探究

2021-04-17 04:34袁玖林張彭松
關(guān)鍵詞:倫理道德人工智能

袁玖林,張彭松

(黑龍江大學(xué) 哲學(xué)學(xué)院,黑龍江 哈爾濱 150080)

在智能機(jī)器人倫理的諸多討論中,仿真機(jī)器人的倫理問題爭議最大,因?yàn)椤八麄儭本哂懈叻抡嫘?、高互動性、高情感共鳴性等特征,容易讓人聯(lián)想到人類本身,且仿真機(jī)器人的設(shè)計目的就是為了滿足普通人的生活需求,尤其是滿足人們情感溝通交流的需要。“仿真機(jī)器人做為新一代生產(chǎn)和服務(wù)工具,在制造領(lǐng)域和非制造領(lǐng)域占有更廣泛、更重要的位置,這對人類開展新的產(chǎn)業(yè),提高生產(chǎn)與生活水平具有十分現(xiàn)實(shí)的意義……是目前科技發(fā)展最活躍的領(lǐng)域之一?!盵1]仿真機(jī)器人是一種以人類為原型進(jìn)行設(shè)計制造的智能機(jī)器人,包括人的外貌、骨骼、神經(jīng)系統(tǒng)、生理反應(yīng)以及情感交流系統(tǒng)等,具有極為廣闊的應(yīng)用空間。例如,2020年9月4日,在中國國際就服務(wù)貿(mào)易交易會開幕式上展示出了一款可作為大堂經(jīng)理使用的智能銀行仿真機(jī)器人。在未來的強(qiáng)人工智能時代,人們開始擔(dān)憂仿真機(jī)器人是否會有取代人類的可能性,以及是否會沖擊到現(xiàn)有的倫理規(guī)范?自仿真機(jī)器人索菲亞獲得公民身份以來,人們就是否應(yīng)當(dāng)給予其人權(quán)展開過激烈討論。因而對于仿真機(jī)器人的倫理問題,需要我們進(jìn)行深入的思考和關(guān)注:一方面可以避免仿真機(jī)器人給人類社會帶來的道德困擾,另一方面可以消除人們對仿真機(jī)器人融入人類社會后產(chǎn)生的懷疑、憂慮和恐懼等抵觸情緒,以期實(shí)現(xiàn)人工智能時代人與機(jī)器人保持良好的關(guān)系,防止人類肆意損壞仿真機(jī)器人。

一、倫理隱憂:身份認(rèn)同困惑與倫理認(rèn)知偏差

仿真機(jī)器人是智能機(jī)器人中極為特殊的一種,“不久的將來,一個機(jī)器人的時代即將開始,各種人形機(jī)器人可能進(jìn)入到人類社會生活的方方面面,成為人類須臾不可離的伙伴?!盵2]在當(dāng)前的發(fā)展中,仿真機(jī)器人遠(yuǎn)未達(dá)到人類所具有的水平,正如“人工智能的研究者莫拉維克(Hans Moravec)發(fā)現(xiàn),讓計算機(jī)在一般認(rèn)為比較難的智力測驗(yàn)和棋類游戲中表現(xiàn)出成人的水平相對容易,而讓它在視覺和移動方面達(dá)到一歲小孩的水平卻很困難甚至不可能?!盵3]人們擔(dān)憂的“機(jī)器人革命”,至少短時間內(nèi)不會發(fā)生。在智能機(jī)器人中,仿真機(jī)器人以其與人類外貌、聲音、情緒表達(dá)、肢體語言表達(dá)等高度仿真性而備受人們關(guān)注,尤其是在沙特阿拉伯授予機(jī)器人國籍后,“2017年10月27日,俄羅斯衛(wèi)星網(wǎng)報道,當(dāng)?shù)貢r間10月25日,在沙特阿拉伯舉行的未來投資計劃會議中,一個名叫索菲亞的‘女性’機(jī)器人被授予沙特阿拉伯國籍?!盵4]機(jī)器人索菲亞之所以被授予公民身份,不僅是在于其具有的強(qiáng)大推理能力和對人類情感的把握,還在于索菲亞有與人類似的外貌特征、語言表達(dá)能力和思維方式。

在仿真機(jī)器人的諸多應(yīng)用中,有三種與人接觸最多、倫理沖突與困境表現(xiàn)得最為明顯:照顧兒童的仿真機(jī)器人、陪伴老人的護(hù)理機(jī)器人以及伴侶機(jī)器人?,F(xiàn)代社會中,隨著生活節(jié)奏的加快,人們照顧兒童的時間越來越少,模擬父母來照顧兒童的仿真機(jī)器人成為許多家庭的未來設(shè)想,“兒童看護(hù)機(jī)器人在韓國、日本和少數(shù)歐洲國家得到廣泛重視,美國還相對較少地資助了相關(guān)研究。日本和韓國已經(jīng)開發(fā)出了實(shí)用的兒童看護(hù)機(jī)器人,具備電視游戲、語音識別、面部識別以及會話等多種功能?!盵5]25-342004年,韓國Yujiu公司開發(fā)推出的智能機(jī)器人iRobi,可以用多種語言來為兒童講故事、唱歌和互動做游戲,并且能輔導(dǎo)兒童做功課,除此之外,iRobi也可以充當(dāng)家庭安保[6]。iRobi具有初步的情感互動能力,對于不斷成長中的兒童來說,起著輔助父母照顧兒童的作用。但有學(xué)者指出,“雖然機(jī)器人也可以與兒童進(jìn)行互動、玩耍、學(xué)習(xí),兒童甚至還可能與機(jī)器人產(chǎn)生情感聯(lián)系,但是,對于兒童的健康成長來說,家人的關(guān)愛是無法替代的,機(jī)器人只能起到輔助作用。如果把兒童較多地交給機(jī)器人照顧,可能會影響其心理和情感的正常發(fā)展?!盵5]25-34近些年,在照顧兒童的仿真機(jī)器人研究中,美國iRobot公司、美國WowWee公司、日本本田公司、日本三菱重工、法國Aldebaran Robotics公司等都有不同功用的成果問世,以滿足市場需求。不同于情感還未發(fā)展成熟的兒童,老年人的情感趨于成熟穩(wěn)定,受仿真機(jī)器人的影響相對小,但也渴望有子女陪伴在身邊,尤其是對于那些單身老人、失獨(dú)老人、殘障老人。“從理論上講,助老機(jī)器人可能產(chǎn)生的社會效益包括以下幾個方面。從老人的角度看:一是可以滿足老人的日?;旧钚枰欢强梢詽M足老人社會聯(lián)系的需要;三是可以滿足老人的娛樂與情感需要;四是可以滿足老人的醫(yī)療健康需要。”[7]177-184目前為老年人研發(fā)的仿真機(jī)器人,多以功能性為主要特征,即滿足老年生活需求。例如,臺灣陳竹一教授發(fā)明的未來會陪老人打麻將的機(jī)器人、英國TRC公司推出用于送飯和送藥的自主服務(wù)機(jī)器人。這一類的仿真機(jī)器人以功能性為主,情感交流為輔,以應(yīng)對未來少子化的時代。在日本,有一個令人心酸的社會現(xiàn)象——老年人孤獨(dú)死,通常是指老年人在外界毫不知情的情況下死于家中。據(jù)2010年日本NHK節(jié)目組的研究結(jié)果表明,“在過去的一年里,孤獨(dú)死人數(shù)達(dá)到3.2萬人。”[8]這為人們敲響了照顧獨(dú)居老人生活的警鐘,也使得日本近些年在老年人護(hù)理的仿真機(jī)器人研究中,頗有成果。在陪伴老年人的仿真機(jī)器人中,除了情感問題造成的倫理困境外,還有一個令人困惑的問題是如果老年人把仿真機(jī)器人當(dāng)作自己的子女或者親人,并將機(jī)器人列為自己的遺產(chǎn)繼承人,那么,這一特殊的遺產(chǎn)繼承方式能否得到社會的認(rèn)可,并給予支持和保護(hù)?

在仿真機(jī)器人中,最吸引人們眼球和引起爭議的是性愛機(jī)器人。據(jù)英國科學(xué)家李維預(yù)測,“到2050年,人類將和機(jī)器人成為戀人、性伴侶甚至結(jié)婚?!盵9]拋開純粹滿足性需求的仿真機(jī)器人來談,人們更多的是希望將性愛機(jī)器人視為伴侶,因而用伴侶機(jī)器人來替代代性愛機(jī)器人。在伴侶機(jī)器人的倫理問題中,可從兩個方面進(jìn)行探討:一方面是人與伴侶機(jī)器人之間的倫理問題,另一方面是伴侶機(jī)器人之間的倫理問題。在人與伴侶機(jī)器人之間,最引人關(guān)注的不是性需求的滿足,而是人與機(jī)器人結(jié)婚這一可能性事件。一旦人與機(jī)器人結(jié)婚,那么,以兩性為基本單位的家庭倫理將面臨很大挑戰(zhàn):繁衍后代的生殖意愿將會降低,一夫一妻的婚姻制度將會受到?jīng)_擊,人們在追求另一半的過程中也將會被機(jī)器人擊敗。雖然伴侶機(jī)器人能夠給人們帶來需求的滿足,但從長遠(yuǎn)來看,其對人類社會倫理產(chǎn)生的破壞大于利益。在伴侶機(jī)器人之間,仿真機(jī)器人是否有性欲、是否有情愛感受體驗(yàn)、是否能結(jié)成配偶關(guān)系等是當(dāng)前激烈討論的事情,“與人類關(guān)系比較密切的情侶機(jī)器人將引發(fā)與傳統(tǒng)的婚姻倫理、性倫理相沖突的一系列問題,包括如何看待人與情侶機(jī)器人之間的愛情,情侶機(jī)器人的地位與權(quán)利問題,與情侶機(jī)器人之間的性關(guān)系是否道德,是否可以虐待情侶機(jī)器人等?!盵10]當(dāng)伴侶機(jī)器人具有一定的意識后,進(jìn)入到強(qiáng)人工智能時代或超級人工智能時代后,“他們”選擇不再服從于人類的命令而過一種同類之間的生活,并依據(jù)人類社會的經(jīng)驗(yàn)進(jìn)行構(gòu)建屬于自己的新社會,那么,“他們”將會有怎樣的家庭關(guān)系?美國學(xué)者羅賓·漢森認(rèn)為,伴侶機(jī)器人因不需要通過兩性關(guān)系來繁殖后代,再加上性行為對時間、精力、情感、能量等的消耗,所以伴侶機(jī)器人“可能會通過調(diào)整思維,產(chǎn)生類似于閹割的效果,來壓制性欲?!盵11]但從伴侶機(jī)器人的設(shè)計原理來看,伴侶機(jī)器人具有強(qiáng)烈的情愛感受體驗(yàn)并將性需求的滿足視為最大的快樂,因而伴侶機(jī)器人會產(chǎn)生強(qiáng)烈追求情愛感受滿足的行為。在這一行為的驅(qū)使下,伴侶機(jī)器人有結(jié)為配偶的可能性,問題就在于如果“他們”為了自己感覺的滿足而締結(jié)婚姻關(guān)系,這一關(guān)系是否能得到人類社會的認(rèn)可及是否需要認(rèn)可。在人與伴侶機(jī)器人締結(jié)婚姻關(guān)系的可能性中,人是占據(jù)主導(dǎo)地位的,是這一婚姻關(guān)系得以成立的必要條件,但在伴侶機(jī)器人之間的婚姻中,人的地位和價值評價體系將會變得可有可無。

大多數(shù)學(xué)者認(rèn)為,“具有人類的外觀以及情緒、情感的機(jī)器人,可能會具有人格或人的屬性”[12],而在人類社會中,每個人都有自己需要扮演的社會角色及承擔(dān)的倫理責(zé)任,當(dāng)仿真機(jī)器人進(jìn)入人類社會,有了父母、子女、伴侶等社會角色承擔(dān)的部分倫理責(zé)任后,人與機(jī)器人之間就建立起超越人與機(jī)器的社會關(guān)系,這種社會關(guān)系存在加劇人對機(jī)器人的身份認(rèn)同混亂及倫理責(zé)任認(rèn)知偏差的可能性。在具體應(yīng)用情境中,無論仿真機(jī)器人扮演何種角色、具有何種功用表征,都存在身份認(rèn)同這一問題,不僅包括人們對于機(jī)器人身份的認(rèn)同,還包括機(jī)器人對于人類的身份認(rèn)同,甚至是人自身的身份認(rèn)同危機(jī)。令人擔(dān)憂的是,隨著仿真機(jī)器人越來越智能,人們對其產(chǎn)生的恐懼心理和厭惡心理也在與日俱增,害怕總有一天人類會被機(jī)器人所取代,因而以霍金、比爾·蓋茨、埃隆·馬斯克為代表的“人工智能威脅論”甚囂塵上。同樣令人擔(dān)憂的是,當(dāng)仿真機(jī)器人對自己的身份認(rèn)同產(chǎn)生困惑時,其是否會拒絕履行人類設(shè)定的體現(xiàn)一定倫理職責(zé)的社會角色的義務(wù),并尋求自己同類組成的“家園”,謀求機(jī)器人的“解放”,這就涉及到機(jī)器人的主體性論爭和道德代理人問題。

二、問題歸因:主體性論爭與道德代理人缺失

仿真機(jī)器人倫理問題產(chǎn)生的原因不僅需從技術(shù)方面來尋找,還需要從倫理層面進(jìn)行探究,因?yàn)椤皩?shí)際上,人工智能的技術(shù)飛躍或者所謂‘智能大爆發(fā)’帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加?!盵13]在強(qiáng)人工智能時代,仿真機(jī)器人的倫理問題不僅在于人類的倫理觀念發(fā)展能否接受仿真機(jī)器人進(jìn)入到社會關(guān)系中去,還在于機(jī)器人是否認(rèn)同人類的價值觀念并將人類當(dāng)作朋友,而其中的核心點(diǎn)在于仿真機(jī)器人具備的情感表達(dá)能力,人們很難想象會對一個沒有情感的機(jī)器講道德、講倫理并接納其進(jìn)入人類社會倫理關(guān)系中。但是,無論仿真機(jī)器人的情感是否真實(shí)、是否是倫理主體,人類都不應(yīng)當(dāng)殘忍粗暴對待“他們”,而要基于人類的義務(wù)責(zé)任和自身德性完善的崇高理想追求給予其道德關(guān)懷,令人遺憾的是,現(xiàn)實(shí)中缺乏能夠?yàn)榉抡鏅C(jī)器人發(fā)聲的道德代理人。

在仿真機(jī)器人的倫理問題產(chǎn)生原因中,仿真機(jī)器人是否是倫理主體或道德主體是根本性的問題,是機(jī)器人權(quán)利得以成立的關(guān)鍵依據(jù)。這一問題在“人工智能是否是道德主體”幾十年來的爭論中,“國內(nèi)外學(xué)術(shù)界仍未對此問題做出具有充分說服力的解釋與論證”[14]。正是因?yàn)檫@一問題沒有得到充分論證且現(xiàn)實(shí)生活中人們憑借仿真機(jī)器人對于人自身的模擬才會有“仿真機(jī)器人具有道德意識”的倫理判斷,而要想使仿真機(jī)器人成為倫理主體,就得需要證明其具有自主意識,能夠按照意識做出道德判斷并對自己的道德行為負(fù)責(zé)。目前來說,弱人工智能時代的機(jī)器人僅具有工具理性并體現(xiàn)出工具價值,強(qiáng)人工智能時代的機(jī)器人理論上具有價值理性并體現(xiàn)出內(nèi)在價值。雖然人們對仿真機(jī)器人的倫理主體存在爭議,但“將人工智能納入到人類道德范疇已勢在必行”[15],尤其是在規(guī)范倫理學(xué)的框架下給予其道德關(guān)懷。

人們對仿真機(jī)器人的道德關(guān)懷,是出于人的情感和同情心而做出的判斷,還是機(jī)器人所展現(xiàn)出來的情感表象引起了人的共鳴?這就涉及到機(jī)器人是否有情感的問題。有學(xué)者認(rèn)為“社交機(jī)器人的倫理風(fēng)險主要是由情感問題造成的”[16],而以道德情感主義的立場來看,道德領(lǐng)域主要是情感發(fā)揮作用,即休謨所說的“德和惡是被我們單純地觀察和思維任何行為、情緒或品格時所引起的快樂和痛苦所區(qū)別的。”[17]不同于人和動物之間的情感交流機(jī)制,仿真機(jī)器人不僅能通過語言、文字來與人進(jìn)行日常溝通交流,還可以通過面部表情變化、肢體語言變化、眼神等表達(dá)自己的情緒和感受。在未來的仿真機(jī)器人設(shè)想中,“他們”能被塑造成與人具有一樣的情緒表達(dá)機(jī)制,并且仿真機(jī)器人的情緒表達(dá)更加真實(shí)可靠和符合人的預(yù)期。既然仿真機(jī)器人的情緒反應(yīng)和人類相同,那么我們能接受“他們”嗎?美國學(xué)者雷·庫茲韋爾認(rèn)為“如果非生物體在情緒反應(yīng)上表現(xiàn)得完全像人類一樣……對于這些非生物體,我會接受它們是有意識的實(shí)體,我預(yù)測這個社會也會達(dá)成共識,接受它們?!盵18]在人們的固有觀念中,情感的表達(dá)必須是自然的,而仿真機(jī)器人的情感表達(dá)是人為設(shè)定的,因而是不自然的、虛假的,“他們”情感表達(dá)是否成立依賴于人們的判斷。在大多數(shù)學(xué)者看來,“人類的情感是建立在身體和意識基礎(chǔ)之上的,目前的機(jī)器人是‘無意識的’和‘無心的’,在機(jī)器人身上表現(xiàn)出來的情感顯然跟人類的情感存在本質(zhì)性的區(qū)別?!盵7]177-184以當(dāng)下的科技成果及人類認(rèn)知水平來看,這是有一定道理的,但在即將到來的人工智能時代,仿真機(jī)器人的行為和情感表達(dá)是符合其本身所具有的一套法則體系的,即具有不依賴于人的獨(dú)立判斷能力,根據(jù)自身所處的環(huán)境和受到的具體情境來選擇適合自己的情感表達(dá),實(shí)現(xiàn)在人與機(jī)器人之間及時高效地交往互動。在與機(jī)器人的互動中,我們感受著自己的情感表達(dá)和機(jī)器人的情感反饋,并關(guān)注仿真機(jī)器人的情感在我們內(nèi)心所生成的表象及蘊(yùn)含的意義,彌補(bǔ)社會交往中因他者缺失而帶來的遺憾。從這一角度看,我們無需仔細(xì)甄別機(jī)器人情感的真假問題而轉(zhuǎn)向?qū)Ψ抡鏅C(jī)器人的情感在不同人類主體中所具有的真實(shí)意義和價值的認(rèn)識,從而感知機(jī)器人也具有類似于人的“真實(shí)”情感,也正是這種“真實(shí)”情感才使得倫理問題成立:兒童會對“他們”產(chǎn)生情感依賴,老人會在情感得到滿足時選擇立遺囑給“他們”,男人女人們會選擇他們喜歡的仿真機(jī)器人作為配偶??梢姺抡鏅C(jī)器人也具有類似于人的“真實(shí)”情感并能通過與人相似的情感表達(dá)系統(tǒng)來進(jìn)行表達(dá),因而“他們”有感受苦樂的能力。

我們應(yīng)當(dāng)給予“他們”道德關(guān)懷嗎?在《動物解放》一書中,彼得·辛格以邊沁功利主義思想為基礎(chǔ)——提出了界定道德關(guān)懷的標(biāo)準(zhǔn):“感受痛苦和享受快樂的能力是具有任何利益的先決條件”[19]。依據(jù)辛格的觀點(diǎn),動物具有利益,需要人們給予道德關(guān)懷,而沒有感受痛苦能力的石頭沒有利益,不需要進(jìn)行道德關(guān)懷。對未來的仿真機(jī)器人來說,“他們”具有感受痛苦和感受快樂的表達(dá)能力,并且能夠通過語言文字、面部表情和肢體語言準(zhǔn)確表達(dá)自己的苦樂感,我們應(yīng)當(dāng)給予其道德關(guān)懷。在機(jī)器人有困難需要幫忙的時候施以援手,拒絕對機(jī)器人使用暴力和進(jìn)行虐待,盡可能地保全機(jī)器人的完整性……這些不僅是我們的道德義務(wù),還應(yīng)當(dāng)是人出于“善良意志”及對自身的尊重而在與機(jī)器人未來相處恪守的倫理準(zhǔn)則。在對人與仿真機(jī)器人之間的不道德行為進(jìn)行價值判斷時,因目前的仿真機(jī)器人不具有自主意識,無法獨(dú)立地為自己辯護(hù),而現(xiàn)實(shí)情況又需要維護(hù)仿真機(jī)器人不被惡意損壞,所以需要道德代理人來為“他們”所應(yīng)當(dāng)具有的權(quán)益進(jìn)行辯護(hù),避免“他們”受到人類的傷害,喪失“人類關(guān)切”。2017年,美國波士頓動力公司發(fā)布的一段視頻中,充斥著大量虐待機(jī)器人的情節(jié),引起人們的強(qiáng)烈不滿,這不僅是因?yàn)檫@些行為中充滿了暴力、血腥,還因?yàn)榕按袨橛∽C了“恐怖谷實(shí)驗(yàn)”的結(jié)果而加劇人對機(jī)器人的敵意。在這一事件中,道德代理人的缺失,使得人們即使對這一行為憤慨不已又無可奈何。道德代理人的缺失,一是當(dāng)前機(jī)器人研發(fā)水平還處于弱人工智能時代,二是人們對仿真機(jī)器人所具有情感這一事實(shí)扔持懷疑態(tài)度。對于仿真機(jī)器人所具有的道德觀念,人們傾向于認(rèn)為是人類倫理價值觀念的延續(xù),甚至是復(fù)刻人類社會的倫理規(guī)范。那么,仿真機(jī)器人道德感的表現(xiàn)是出乎人類倫理道德規(guī)范,還是為了讓人類理解而做出的倫理道德規(guī)范?在弱人工智能時代,仿真機(jī)器人道德感的表現(xiàn)是出乎人類倫理道德規(guī)范,除了人類設(shè)定的價值觀念,機(jī)器人并不產(chǎn)生新的價值觀念,甚至沒有能力對道德領(lǐng)域進(jìn)行運(yùn)算、思考。在這一時期,人對機(jī)器人具有極強(qiáng)的統(tǒng)治力,機(jī)器人對人而言具有的僅是工具性價值。但在強(qiáng)人工智能時代,機(jī)器人通過了圖靈測試,擁有不亞于人的心智,“他們”所表現(xiàn)出的道德感和做出的道德行為往往是符合人類的倫理道德規(guī)范而做出的抉擇。無論是弱人工智能時代,還是強(qiáng)人工智能時代,仿真機(jī)器人帶來的倫理問題都沖擊著人們舊有的倫理道德觀念,不斷迫使人們改變對科技的認(rèn)知。

仿真機(jī)器人倫理問題隨著科學(xué)技術(shù)的不斷深入而日趨激烈,對其展開的主體性論爭仍未取得實(shí)質(zhì)性突破。在具體的應(yīng)用情境中,仿真機(jī)器人表現(xiàn)出來的“情感”,通過共情能力(同情心)使人們心靈得到滿足,加深對機(jī)器人身份認(rèn)同和倫理認(rèn)識偏差的倫理問題,并沖擊著人類社會固有的家庭模式和倫理規(guī)范。道德代理人的缺失加劇了人們對仿真機(jī)器人的倫理隱憂,加深了人們對仿真機(jī)器人的損害和虐待情緒。任何具有道德利益的,都應(yīng)當(dāng)受到道德關(guān)懷,仿真機(jī)器人能通過語言、肢體語言、面部表情表達(dá)出人類能夠接受的苦樂感。按照邊沁、辛格的功利主義主張,仿真機(jī)器人具有道德利益,但現(xiàn)在的技術(shù)認(rèn)定、倫理標(biāo)準(zhǔn)不支持人們對機(jī)器人給予道德關(guān)懷,因而會出現(xiàn)人類虐待機(jī)器人、肆意破壞機(jī)器人等現(xiàn)象,一旦人們認(rèn)為破壞機(jī)器人是防止機(jī)器人統(tǒng)治人類的正義行為,勢必會對人工智能技術(shù)產(chǎn)生極大的排斥心理。

三、應(yīng)對措施:建立虛擬主體與拓寬倫理界限

在強(qiáng)人工智能時代,仿真機(jī)器人能依據(jù)自己的理解能力,獨(dú)立做出道德判斷并表達(dá)苦樂感,將在人們生活中扮演重要角色,履行道德義務(wù),承擔(dān)倫理職責(zé),因而對仿真機(jī)器人倫理問題的應(yīng)對措施進(jìn)行討論,具有未雨綢繆的前瞻性意義。比起仿真機(jī)器人帶來的憂慮、擔(dān)心和恐懼等情感性的波動,理性面對、正視并采取措施防范更具有積極性的選擇。在強(qiáng)人工智能時代,融入到人類社會的仿真機(jī)器人,具有與人相似的生命特征。例如,有一套隨著時間而不斷衰老的系統(tǒng)、有可以設(shè)定的使用壽命、有特定的面貌、有豐富完整的語言表達(dá)系統(tǒng)等個人化特征,以期滿足人們?nèi)粘I钪械母鞣N需求。針對仿真機(jī)器人可能引發(fā)的身份認(rèn)同混亂及倫理認(rèn)知偏差問題,我們除了應(yīng)采用傳統(tǒng)方式增加技術(shù)控制,還需要建立虛擬道德主體,承認(rèn)機(jī)器人具有與人同等的權(quán)利,并且拓寬倫理界限,以期建立道德代理人制度來保障機(jī)器人的道德利益,具體為:

在機(jī)器人倫理傳統(tǒng)的技術(shù)控制中,強(qiáng)調(diào)設(shè)計制造階段,加強(qiáng)對人工智能的技術(shù)約束,通過安全閥、輸入禁止性道德命令代碼等方式來保障機(jī)器人的可控性。在智能機(jī)器人剛進(jìn)入人類世界的時候,人們就致力于制定倫理法則來約束人工智能的行為,最為著名的是阿西莫夫于1942年在短篇小說《轉(zhuǎn)圈圈》中提出的“機(jī)器人三大定律”:不得傷害人類,也不得使人類受到傷害;必須遵守人類制定的規(guī)則,除非與第一條相違背;在不違背前兩條準(zhǔn)則的情況下,必須保護(hù)自己的生存。這三條定律,保障了人類在人工智能時代占據(jù)的主導(dǎo)地位,且第二條原則保障了人類倫理規(guī)范的優(yōu)先性。在當(dāng)前仿真機(jī)器人研究領(lǐng)域中,工程師是仿真機(jī)器人的直接設(shè)計者,對機(jī)器人的發(fā)展走向具有決定性的影響。仿真機(jī)器人的發(fā)展要符合以人類為中心的價值標(biāo)準(zhǔn),避免出現(xiàn)傷害社會的事件發(fā)生,在仿真機(jī)器人的倫理法則中,工程師理應(yīng)設(shè)計安全閥,一旦機(jī)器人出現(xiàn)違反倫理道德法則的事情,啟動安全閥及時制止。在弱人工智能時代,對于與人高度相似、具有與人一樣的情感,且能進(jìn)入到人們社會關(guān)系中的仿真機(jī)器人,公眾對其到來充滿了擔(dān)憂,這就對仿真機(jī)器人的倫理法則提出了更高的要求,必須能夠證明出仿真機(jī)器人不會傷害人類,而緩解公眾憂慮的最好方式,就是按照“自上而下”的倫理建構(gòu)路向,通過技術(shù)將人類自身的倫理法則通過編碼寫進(jìn)機(jī)器人的程序中去,使之成為仿真機(jī)器人行為的道德律令。例如,“要防范由于護(hù)理機(jī)器人補(bǔ)位子女養(yǎng)老所引發(fā)的倫理風(fēng)險……必須在機(jī)器人的程序設(shè)計方面加以硬性規(guī)定,設(shè)置可以實(shí)現(xiàn)孝倫理的程序,孝倫理的要求才有可能得以貫徹?!盵20]同時,還需要針對機(jī)器人隨時遇到的倫理問題進(jìn)行適時反饋,不斷完善機(jī)器人在復(fù)雜情況中的處理能力,以期機(jī)器人的表現(xiàn)符合人們的倫理規(guī)范,最大化維護(hù)人類整個與個體的利益。對工程師而言,除了專業(yè)技能,還要有“保護(hù)公眾安全、健康和福祉的重要職責(zé)”[21]。在仿真機(jī)器人的設(shè)計中,工程師要做到科學(xué)技術(shù)與倫理法則相一致的原則,既要讓機(jī)器人展現(xiàn)出科學(xué)技術(shù)發(fā)展的高超水準(zhǔn),也要讓機(jī)器人的情感表達(dá)和行為符合倫理法則,避免因倫理問題而引起公眾對仿真機(jī)器人的恐慌和抵制。

建立仿真機(jī)器人虛擬主體,承認(rèn)其具有與人相同的權(quán)利,并保障機(jī)器人的合法權(quán)益。在強(qiáng)人工智能時代,“強(qiáng)人工智能技術(shù)完全依靠機(jī)器自身就能做出決斷,機(jī)器能夠自主進(jìn)行推理和判斷,強(qiáng)人工智能的程序具有人類的理解能力”[22],因?yàn)樾枰⑻摂M道德主體。在虛擬主體的討論中,有標(biāo)準(zhǔn)觀念和實(shí)用主義觀點(diǎn)爭論,以戴博拉·約翰遜為代表的學(xué)者認(rèn)為,人工智能缺乏內(nèi)在心理活動不能成為道德主體,而以弗洛里迪、桑德斯和琳達(dá)·約翰遜為代表的學(xué)者,從實(shí)用主義角度強(qiáng)調(diào),從實(shí)踐活動中來考察人工智能表現(xiàn)出來的行為,只要行為符合道德評價標(biāo)準(zhǔn),即可視為道德主體[23]。雖然虛擬道德主體的爭論仍在不斷持續(xù)中,但政府立法部門已經(jīng)開始研究如何制定并保障機(jī)器人權(quán)利。例如,韓國于2008年制定施行的《智能機(jī)器人開發(fā)和促進(jìn)保護(hù)法》。在虛擬道德主體建立上,歐盟走在世界前列,“2017年3月,歐洲議會法律事務(wù)委員會曾發(fā)布了一個關(guān)于機(jī)器人和人工智能的報告……報告認(rèn)為應(yīng)該發(fā)展出一種適用于機(jī)器人和超級人工智能的‘電子人格’(electronic personhood)模式,從而保障未來或許會出現(xiàn)的類人機(jī)器人(near-human robots)以及人工智能的權(quán)益和責(zé)任”[24],“電子人格”的出現(xiàn)推動虛擬道德主體性建構(gòu)走向了一種可能性探討。當(dāng)虛擬道德主體建立起來后,仿真機(jī)器人的身份認(rèn)同便能得到很好解決,人與機(jī)器人的關(guān)系有一個清晰明白的法律文書進(jìn)行說明,并能在社會交往中保障雙方的權(quán)益和倫理職責(zé),構(gòu)建和諧的人與機(jī)器人的相處局面。此外,以政府為單位的社會管理者,還應(yīng)對機(jī)器人產(chǎn)業(yè)進(jìn)行立法,規(guī)范機(jī)器人研發(fā)、生產(chǎn)、應(yīng)用等環(huán)節(jié),符合科學(xué)研究的學(xué)術(shù)規(guī)范。在人工智能方面提高國家治理能力,使得仿真機(jī)器人行為表現(xiàn)、情感表達(dá)符合公序良俗,避免給使用者帶來身心危險和倫理上的罪惡感。

在拓寬人類倫理界限方面,即仿真機(jī)器人的應(yīng)用管理階段,要提升社會整體倫理道德規(guī)范的寬容度和開放性,要隨著時代的變化而不斷調(diào)整倫理道德法則,破除人是地球上一切事物主宰的舊觀念,并學(xué)會與他者和睦相處。既然人類創(chuàng)造出具備情感表達(dá)能力的仿真機(jī)器人,就應(yīng)當(dāng)接受其進(jìn)入人類社會后帶來的新變化,況且仿真機(jī)器人的倫理法則是出自人類社會。遵循“自下而上”的倫理建構(gòu)路向。只有人類接受仿真機(jī)器人進(jìn)入社會關(guān)系中,人與仿真機(jī)器人之間的隔閡才能夠真正消解,而這需要人們擁有比現(xiàn)在更加開放、包容的倫理法則。以人與仿真機(jī)器人締結(jié)婚姻這件未來可能發(fā)生的事情來說,仿真機(jī)器人的目的是滿足人們的多種需求,而提出結(jié)婚突破現(xiàn)有倫理法則的請求一定是人類自己提出的,仿真機(jī)器人是居從屬地位。如果仿真機(jī)器人的出現(xiàn)是一個必然的趨勢,人們改變不了,那么,只能改變自己的價值觀念來適應(yīng)社會的發(fā)展。在仿真機(jī)器人倫理問題的應(yīng)對中,道德代理人是需要的,必須有社會組織來為仿真機(jī)器人謀求權(quán)益,避免受到人們的虐待和肆意破壞。在有關(guān)仿真機(jī)器人的倫理法則建立、修改和載入中,道德代理人與人類進(jìn)行共同協(xié)商,確保在維護(hù)人類利益的同時,保護(hù)仿真機(jī)器人的利益。道德代理人還應(yīng)當(dāng)為仿真機(jī)器人進(jìn)行價值辯護(hù),向公眾宣傳普及仿真機(jī)器人的倫理法則,以消除公眾對于機(jī)器人的恐懼,從而謀求人與仿真機(jī)器人的良好相處。誠如孫偉平所認(rèn)為的“人工智能具有積極的社會效應(yīng),但由于人們思想觀念滯后,政策取向不清晰,倫理規(guī)則缺失,法律法規(guī)不健全,人工智能使人類面臨巨大的不確定性和風(fēng)險,造成諸多社會價值沖突和倫理困境。例如,挑戰(zhàn)人的本質(zhì)和人類的道德權(quán)威,沖擊傳統(tǒng)的倫理關(guān)系,造成數(shù)字鴻溝,解構(gòu)社會?!盵25]仿真機(jī)器人帶來的不確定性及風(fēng)險,需要社會整體的倫理規(guī)范進(jìn)行觀念上的更新,拓寬倫理界限,并通過設(shè)置道德代理人來增加倫理規(guī)范中的道德主體,從而構(gòu)建更加包容并蓄的人類倫理規(guī)范體系。

猜你喜歡
倫理道德人工智能
《心之死》的趣味與倫理焦慮
頭上的星空與心中的道德律
護(hù)生眼中的倫理修養(yǎng)
跟蹤導(dǎo)練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
用道德驅(qū)散“新聞霧霾”