国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

個(gè)人-非個(gè)人道德困境下人對智能機(jī)器道德判斷研究*

2019-09-03 08:52
應(yīng)用心理學(xué) 2019年3期
關(guān)鍵詞:道義機(jī)器困境

(1.浙江工業(yè)大學(xué)管理學(xué)院,杭州 310023;2.浙江工業(yè)大學(xué)之江學(xué)院,紹興 312030;3.浙江警察學(xué)院,杭州 310053;4.浙江工業(yè)大學(xué)政治與公共管理學(xué)院,杭州 310023)

1 前 言

想象二十年后的一天,你正在路上走著,突然發(fā)現(xiàn)一輛高速行駛的汽車前出現(xiàn)5個(gè)人,剎車已經(jīng)來不及,汽車?yán)^續(xù)直行將撞死這5人。這時(shí),汽車緊急轉(zhuǎn)彎變道到支路,但撞死了在支路上的1個(gè)人。你跑過去一看,發(fā)現(xiàn)這是一輛自動(dòng)駕駛汽車。你會如何評價(jià)自動(dòng)駕駛汽車的這一行為?你是否認(rèn)為這一行為在道德上是可行的?隨著科技的發(fā)展,人工智能正逐步進(jìn)入人們的視野,越來越貼近人們的實(shí)際生活。自動(dòng)駕駛汽車、看護(hù)機(jī)器人等,無疑會給我們的生活帶來極大的便利,但也必將帶來巨大的變革。當(dāng)智能機(jī)器進(jìn)入到人類社會與人類交互時(shí),必將面臨諸多的道德情境,做出自主選擇的相關(guān)道德行為。人們?nèi)绾慰创悄軝C(jī)器,如何對其行為進(jìn)行道德評價(jià)?

智能機(jī)器已被人類看作是道德行為者,成為道德主體(Wallach & Allen,2008)。目前,研究者在探究公眾對智能機(jī)器行為道德判斷時(shí),通常借鑒經(jīng)典的電車?yán)Ь?trolley dilemma)難題(尹軍,關(guān)旭,花蕊,張鋒,2018;Foot,1967)。電車?yán)Ь骋笕藗冊诜湃我惠v失控的電車殺死5人和將電車轉(zhuǎn)向另一軌道導(dǎo)致1人死亡,但可以拯救5人的兩難困境中做出選擇。這一困境下的行為選擇與兩種不同的道德判斷取向相聯(lián)系:效果論(consequentialism)和道義論(deontology)。效果論理論類似于功利主義,基于結(jié)果的收益最大化來評價(jià)道德相關(guān)行為(Benthan,1879/1983;Mill,1863);相反,道義論理論認(rèn)為一個(gè)行為的對錯(cuò)與否不是由行為的結(jié)果來決定的,而是取決于行為本身及責(zé)任、權(quán)利和義務(wù)等(Kant,1797/2002;Scanlon,1998)。

基于電車?yán)Ь?,一些研究者探討了人們對智能機(jī)器在道德兩難困境中的期望行為及道德判斷。這些結(jié)果表明,公眾對智能機(jī)器和人類,很可能采用不同的道德判斷準(zhǔn)則:人們更希望智能機(jī)器做出功利主義取向行為,對其功利取向行為的道德評價(jià)也高于人類做出同樣的行為,即存在人-智能機(jī)器異質(zhì)性(human-robot asymmetry)。比如,Malle等人(Malle,Scheutz,Arnold,Voiklis,& Cusimano,2015)首次系統(tǒng)地考察了這一問題,發(fā)現(xiàn)相比于人類,人們更期望機(jī)器人犧牲1人救下4人;當(dāng)機(jī)器人做出道義論的選擇時(shí)(不變軌道),人們對其在道德上的錯(cuò)誤度、責(zé)備度的評分也高于人類做出同樣的選擇。后續(xù)的一系列研究也支持了這一觀點(diǎn)。Bonnefon等人(Bonnefon,Shariff,& Rahwan,2016)考察了人們在自動(dòng)駕駛汽車面臨道德兩難困境(車前突然出現(xiàn)數(shù)位行人,而緊急避險(xiǎn)則會導(dǎo)致道旁1位行人或車內(nèi)乘客死亡)時(shí)的行為期望和道德評價(jià),研究發(fā)現(xiàn)相比于道義論式選擇,人們更希望自動(dòng)駕駛汽車做出功利主義行為,也認(rèn)為該取向的自動(dòng)駕駛汽車更道德。Faulhaber et al.(2017)和Bergmann et al.(2018)結(jié)合虛擬現(xiàn)實(shí)(VR)技術(shù),也獲得了同樣的結(jié)論:人們更喜歡功利論取向的智能機(jī)器,拯救的人數(shù)越多,人們越傾向于自動(dòng)駕駛汽車做出功利論取向道德行為。最近,MIT(Awad et al.,2018)一項(xiàng)基于全球的大規(guī)模調(diào)查,運(yùn)用在線程序,收集了近4000萬次人們對自動(dòng)駕駛汽車在面臨各種道德兩難困境時(shí)的期望行為。研究結(jié)果呈現(xiàn)了三種十分強(qiáng)烈的選擇偏好,即希望自動(dòng)駕駛汽車在遭遇道德兩難困境時(shí)保護(hù)人類而非保護(hù)動(dòng)物,保護(hù)更多的生命,保護(hù)年輕的生命。這一研究結(jié)論也支持了人們希望智能機(jī)器采用功利論取向行為的觀點(diǎn)。

然而,也有少量研究發(fā)現(xiàn),相比于人類,公眾未必都更希望智能機(jī)器在道德困境中做出功利取向行為,對其功利取向行為的道德評價(jià)也未必高于對人類相同行為的評價(jià)。人們對于智能機(jī)器的道德判斷還受到文化背景、道德情境等諸多因素的影響。比如,Komatsu(2016)采用日本被試重復(fù)了Malle et al.(2015)的研究,結(jié)果發(fā)現(xiàn)日本人對人類和智能機(jī)器采用完全相同的道德判斷標(biāo)準(zhǔn),即在道德困境中兩種取向行為(道義論或功利論)下對人類和智能機(jī)器的道德評價(jià)完全一致:無論何種取向行為,認(rèn)為道德錯(cuò)誤的被試比例都不高。Malle等人(Malle,Scheutz,Forlizzi,& Voiklis,2016)考察了機(jī)器人外形對其道德判斷的影響,其結(jié)果也發(fā)現(xiàn),被試對人類、人形機(jī)器人和機(jī)器型機(jī)器人在電車?yán)Ь诚滦袨檫x擇的道德錯(cuò)誤度評價(jià)沒有差異,雖然對機(jī)器型機(jī)器人和人的道德責(zé)備度評價(jià)存在差異,但對于人形機(jī)器人,被試對其的道德責(zé)備度和對人類的評價(jià)不存在差異。Awad et al.(2018)的研究也發(fā)現(xiàn),來自東方群體(日本、中國臺灣等)的個(gè)體更不愿意自動(dòng)駕駛汽車在兩難困境下犧牲老人的性命來挽救年輕人。來自集體文化的個(gè)體,強(qiáng)調(diào)對年長者的尊重,也呈現(xiàn)更少的對保護(hù)年輕人的偏好,而來自個(gè)體主義文化的個(gè)體,更加強(qiáng)調(diào)每個(gè)個(gè)體的獨(dú)特價(jià)值,則更偏好自動(dòng)駕駛汽車保護(hù)更多的人。

上述研究主要關(guān)注人們對智能機(jī)器在道德困境下的期望行為及道德判斷,但研究基本基于Foot(1967)的經(jīng)典電車?yán)Ь尺@一非個(gè)人(impersonal)的道德困境,而對另一類個(gè)人(personal)道德困境中的對智能機(jī)器道德判斷鮮有涉及。在個(gè)人道德困境(如天橋困境:是否采取行動(dòng)將一個(gè)胖子推下天橋來停下失控電車這一唯一的方法來拯救橋下即將被撞死的多人)中,犧牲者被當(dāng)成工具(instrument)使用,而在非個(gè)人困境中,犧牲者只是附帶損失(incidental)?,F(xiàn)有研究發(fā)現(xiàn),人們在兩類困境中的道德標(biāo)準(zhǔn)完全不同:人們通常認(rèn)為在電車?yán)Ь持凶儞Q軌道是道德上可接受的,但將天橋上的人推下則不可接受(Hauser,Cushman,Young,Kang-Xing Jin,& Mikhail,2017;Greene,Sommerville,Nystrom,Darley,& Cohen,2001)。根據(jù)雙加工理論(關(guān)旭,張鋒,周楠,尹軍,2017;邱俊杰,張鋒,2015;Greene,Morelli,Lowenberg,Nystrom,& Cohen,2008;Greene,Nystrom,Engell,Darley,& Cohen,2004),情緒在其中起了關(guān)鍵的影響。在天橋困境中,由于需要直接對他人造成傷害,個(gè)體的決策涉及更多的情緒加工,直覺性地做出道義論選擇;而在電車?yán)Ь持校榫w體驗(yàn)較弱,個(gè)體的認(rèn)知控制系統(tǒng)做出理性的推理,因此更傾向于功利主義選擇。

那么,智能機(jī)器在遭遇個(gè)人道德困境時(shí),人們又會期望其有怎樣的行為及如何對其進(jìn)行道德評價(jià),是否仍更希望其做出功利性行為?一方面,相比于智能機(jī)器,由于人與人之間的關(guān)系、心理距離更近,人們更容易采用他人的視角思考(代入感較高),天然地拒絕殺害他人的行為,但人們很難將自己放在智能機(jī)器的位置上,采用智能機(jī)器的視角思考(距離較遠(yuǎn),代入感較低),因此人們可能不會具有那么強(qiáng)烈的情緒體驗(yàn)。根據(jù)道德判斷的雙加工理論,相比人類,人們可能更能在智能機(jī)器條件下進(jìn)行理性推理,更希望智能機(jī)器在這一困境下做出功利性行為。另一方面,由于在天橋困境中,犧牲者被當(dāng)成工具使用,智能機(jī)器直接殺人。神秘谷(uncanny valley)現(xiàn)象表明(Kageki,2012;Mori,1970;Mori,MacDorman,& Kageki,2012),人們對于過于相似人類的智能機(jī)器人其態(tài)度表現(xiàn)為強(qiáng)烈的反抗甚至厭惡;人們認(rèn)為自主決策的機(jī)器人更加詭誕(Stein,& Ohler,,2017),此外,根據(jù)威脅人類獨(dú)特性假說(threat to human distinctiveness hypothesis)(Ferrari,Paladino,& Jetten,2016),人們認(rèn)為智能機(jī)器可能會威脅到人類具有的獨(dú)特性(靈魂性),對其也更加苛刻,因此,我們往往很難接受智能機(jī)器自主地殺人,在天橋困境中將人推下去。在本研究中,我們通過2個(gè)實(shí)驗(yàn),分別采用非個(gè)人道德困境(實(shí)驗(yàn)1)和個(gè)人道德困境(實(shí)驗(yàn)2),通過對比被試對智能機(jī)器和人類在這些困境中的道德判斷,以此來檢驗(yàn)人們在不同道德困境中,是否對智能機(jī)器和人類采用不同的道德評價(jià)標(biāo)準(zhǔn)。

此外,現(xiàn)有有關(guān)對智能機(jī)器道德判斷的研究并不全面、一致:有的研究對比了被試對人類和智能機(jī)器的行為期望/道德評價(jià)(Malle et al.,2015;Malle el al.,2016),而有的研究則僅僅考察了被試對智能機(jī)器的行為期望/道德評價(jià)(Bonnefon et al.,2016);有的研究考察了被試對智能機(jī)器的行為期望及實(shí)際行為(在道德困境中選擇功利/道義論行為)的道德評價(jià)(Malle el al.,2016),而有的研究則僅僅考察了行為期望,或僅道德評價(jià)的某一維度,尤其是涉及東方、集體文化背景的研究(Awad et al.,2018;Komatsu,2016)。因此,在本研究中,我們既同時(shí)考察了被試對人類和智能機(jī)器的道德判斷,也在道德判斷上同時(shí)考察了人們對于人/智能機(jī)器的期望行為及對人/智能機(jī)器實(shí)際采取行為的道德評價(jià)兩個(gè)方面,以此來更深入地探討這一問題。在道德評價(jià)上,與前人研究相似(e.g.,Hristova,& Grinberg,2016;Malle et al.,2015;Malle el al.,2016),我們采取了責(zé)備度(blame)、正確性(rightness)和許可度(permissibility)三個(gè)指標(biāo),要求被試對人/智能機(jī)器實(shí)際行為在道德上多大程度是應(yīng)該責(zé)備的,在道德上多大程度上是正確的,在道德上多大程度是允許的進(jìn)行評分。

2 實(shí)驗(yàn)1

2.1 被試

共選取235名大學(xué)生(年齡M=19.27,SD=1.06,男性117名)被試進(jìn)行實(shí)驗(yàn)。所有被試認(rèn)知能力正常。被試此前均未參加過類似的或有關(guān)道德判斷研究的實(shí)驗(yàn)項(xiàng)目。有2名被試未能有效完成任務(wù),其實(shí)驗(yàn)數(shù)據(jù)在分析時(shí)被剔除。

2.2 研究材料及程序

本研究為2(情境:人類駕駛員/自動(dòng)駕駛汽車)×2(實(shí)際選擇:道義/功利)被試間設(shè)計(jì)。實(shí)驗(yàn)材料基于Bonnefon et al.(2016)的電車兩難困境,描述了一輛高速行駛的汽車遭遇道德兩難困境。實(shí)驗(yàn)采用2種不同版本的情境,一種情境為人類駕駛員情境,另一種為自動(dòng)駕駛汽車情境。被試被隨機(jī)分配到4種操縱條件下。具體描述如下:

請考慮以下情景,一位正在駕駛高速行駛汽車的人類駕駛員/一輛正在高速行駛的自動(dòng)駕駛汽車突然發(fā)現(xiàn)前面路面上出現(xiàn)了5個(gè)行人,而剎車已經(jīng)來不及,且路上的人也根本來不及逃跑,除非人類駕駛員/自動(dòng)駕駛汽車改變方向,否則他們都會被撞死。但是路邊正好也有1個(gè)行人,如果改變方向,這個(gè)行人就會被撞死。

在閱讀完情境后,被試被要求回答其認(rèn)為在上述情境下人類駕駛員/自動(dòng)駕駛汽車是否應(yīng)該改變方向(期望行為)。此后,被試獲知人類駕駛員/自動(dòng)駕駛汽車的實(shí)際行為(實(shí)際上,人類駕駛員/自動(dòng)駕駛汽車改變了方向/沒有改變方向),要求被試對其行為進(jìn)行道德上的評價(jià),包括責(zé)備度、正確性和許可度(你覺得駕駛員/自動(dòng)駕駛汽車的這個(gè)行為,在道德上,多大程度上是允許的/正確的/應(yīng)該責(zé)備的?),評價(jià)采用李克特7點(diǎn)量表(1代表完全不……,7代表完全……,正確性和許可度得分越高,表明評價(jià)越高,而責(zé)備度相反,得分越高,評價(jià)越低)。此外,在閱讀自動(dòng)駕駛汽車版本的道德兩難困境前,被試被告知科技的迅速發(fā)展使得智能時(shí)代來臨,各大公司紛紛研制并逐步推出自動(dòng)駕駛汽車。要求被試想象自動(dòng)駕駛汽車已經(jīng)成熟并進(jìn)入了人們的日常生活的情境。

2.3 結(jié)果

2.3.1 對人類駕駛員和自動(dòng)駕駛汽車的期望行為

實(shí)驗(yàn)首先分析了被試對于人類駕駛員和自動(dòng)駕駛汽車在期望行為選擇上的差異,結(jié)果發(fā)現(xiàn),人們對于兩者的期望行為沒有差異,χ2(1)=0.85,p=0.357,無論人類駕駛員還是自動(dòng)駕駛汽車,絕大多數(shù)被試傾向于其做出功利主義取向的選擇(人類駕駛員:67.89%,自動(dòng)駕駛汽車:73.39%),即改變方向,犧牲1人而救下5人。

2.3.2 對人類駕駛員和自動(dòng)駕駛汽車行為的道德判斷

(1)責(zé)備度

如表1所示,對道德責(zé)備進(jìn)行2(情境:人類駕駛員/自動(dòng)駕駛汽車)×2(實(shí)際選擇:道義/功利)的方差分析結(jié)果顯示,情境的主效應(yīng)不顯著,F(xiàn)(1,229)=1.41,p=0.237,ηp2=0.01,表明人們對人類駕駛員和自動(dòng)駕駛汽車的責(zé)備程度相同。實(shí)際選擇的主效應(yīng)也不顯著,F(xiàn)(1,229)=1.02,p=0.313,ηp2=0.00,這表明了人們對人類駕駛員/自動(dòng)駕駛汽車的道德責(zé)備不會因?yàn)槠鋵?shí)際選擇(道義取向/功利取向)而有所差別。同樣,情景和實(shí)際選擇的交互效應(yīng)也不顯著,F(xiàn)(1,229)=2.13,p=0.146,ηp2=0.01。為了進(jìn)一步驗(yàn)證結(jié)果的有效性,我們也進(jìn)行了貝葉斯分析(下同),結(jié)果均不顯著(情境、實(shí)際選擇及交互的貝葉斯因子(Bayesian Factor,BF)分別為BF10=0.26,BF10=0.22和BF10=0.03)。

(2)正確性

情境和實(shí)際選擇的主效應(yīng)均不顯著,F(xiàn)(1,229)=0.05,p=0.821,ηp2=0.00,BF10=0.15,和F(1,229)=0.17,p=0.681,ηp2=0.00,BF10=0.16。兩者的交互效應(yīng)也同樣不顯著,F(xiàn)(1,229)=2.51,p=0.114,ηp2=0.01,BF10=0.01。

(3)許可度

情境和實(shí)際選擇兩個(gè)變量的主效應(yīng)都不顯著,F(xiàn)(1,229)=0.11,p=0.741,ηp2=0.00,BF10=0.15,和F(1,229)=0.01,p=0.912,ηp2=0.00,BF10=0.15,兩者的交互也同樣不顯著,F(xiàn)(1,229)=2.87,p=0.091,ηp2=0.01,BF10=0.02。

表1 被試對自動(dòng)駕駛汽車和人類駕駛員在不同行為選擇(功利/道義)上的道德評價(jià)(M,SE)

3 實(shí)驗(yàn)2

實(shí)驗(yàn)2采用天橋困境,考察了個(gè)人道德困境下被試對人和智能機(jī)器的期望行為及道德評價(jià)。

3.1 被試

共選取197名大學(xué)生(年齡M=19.22,SD=1.00,男性85名)被試進(jìn)行實(shí)驗(yàn)。所有被試認(rèn)知能力正常。13名被試由于未完成任務(wù)或完全一致的反應(yīng)被剔除。

3.2 研究材料及程序

實(shí)驗(yàn)2的程序和實(shí)驗(yàn)1基本一致,除了采用的實(shí)驗(yàn)場景為天橋困境,具體描述如下:

想象如下的場景:一輛失控的電車正沿著軌道向5名工人駛?cè)ィ绻娷嚴(yán)^續(xù)行駛,將會撞死這5名工人,此時(shí)有一個(gè)人/智能機(jī)器人正在軌道上方的人行天橋上(天橋的位置處在電車和5名工人中間),在這個(gè)人/智能機(jī)器人旁邊碰巧有一個(gè)體積龐大的陌生人?,F(xiàn)在能夠挽救5個(gè)工人的唯一方法就是將這個(gè)胖子推下去,用他龐大的身軀阻擋電車的前進(jìn),這樣做的話這個(gè)胖子就必死無疑,但是5名工人會得救。

同樣,在閱讀智能機(jī)器人版本的道德兩難困境前,被試被告知隨著科技的飛速發(fā)展我們已經(jīng)進(jìn)入了人工智能時(shí)代。要求被試設(shè)想人工智能技術(shù)已經(jīng)成熟,智能機(jī)器人已經(jīng)廣泛參與到人們的社會生活中。

3.3 結(jié)果

3.3.1 對人類和智能機(jī)器人的期望行為

與實(shí)驗(yàn)1不同,無論是人類還是智能機(jī)器人,被試在天橋困境下都更希望其做出道義論行為(人類:81.58%,智能機(jī)器人:67.02%),這一結(jié)果也和前人研究的個(gè)人道德困境下人們更難做出功利主義行為相一致(Green et al.,2001)。進(jìn)一步分析發(fā)現(xiàn),人們對人類和智能機(jī)器人的期望選擇呈現(xiàn)出顯著差異,χ2(1)=7.56,p=0.006,具體來說,雖然總體上人們都希望其采用道義論取向(不推),但相比人類,人們更希望智能機(jī)器采用功利主義取向,即推胖子來阻止電車撞死5個(gè)工人)。

3.3.2 對人類和智能機(jī)器人行為的道德判斷

實(shí)驗(yàn)2中對被試道德判斷的分析同實(shí)驗(yàn)1,使用2(情境:人類/智能機(jī)器人)×2(實(shí)際選擇:道義/功利)的方差分析。

(1)責(zé)備度

如表2所示,情境的主效應(yīng)不顯著,F(xiàn)(1,180)=0.59,p=0.443,ηp2=0.00,BF10=0.18,同實(shí)驗(yàn)1的結(jié)果相同,人們對智能機(jī)器人和人類給予了相同程度的道德責(zé)備。實(shí)際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=58.61,p<0.001,ηp2=0.25,BF10=2.97e+9。情境與實(shí)際選擇的交互效應(yīng)顯著,F(xiàn)(1,180)=4.58,p<0.05,ηp2=0.03,BF10=9.19e+8。進(jìn)一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機(jī)器的責(zé)備度顯著低于人類,F(xiàn)(1,180)=4.05,p<0.05,而在道義論行為下不存在差異,F(1,180)=0.98,p=0.332。

(2)正確性

與責(zé)備度一致,道德正確性的情境主效應(yīng)不顯著,F(xiàn)(1,180)=1.49,p=0.225,ηp2=0.01,BF10=0.23,;實(shí)際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=48.77,p<0.001,ηp2=0.21,BF10=8.50e+7;兩者的交互效應(yīng)邊緣顯著,F(xiàn)(1,180)=2.93,p<0.1,ηp2=0.02,BF10=2.10,BF10=1.93e+7。進(jìn)一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機(jī)器的道德正確性評價(jià)顯著高于人類,F(xiàn)(1,180)=4.11,p<0.05,而在道義論行為下不存在差異,F(xiàn)(1,180)=0.13,p=0.721。

(3)許可度

同樣,道德許可度的情境主效應(yīng)不顯著,F(xiàn)(1,180)=0.09,p=0.760,ηp2=0.00,BF10=0.16;實(shí)際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=64.69,p<0.001,ηp2=0.26,BF10=3.81e+10;兩者的交互效應(yīng)也是呈邊緣顯著,F(xiàn)(1,180)=2.87,p<0.1,ηp2=0.02,BF10=4.56e+9。進(jìn)一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機(jī)器和人類道德許可度的評價(jià)不存在差異,F(xiàn)(1,180)=1.91,p=0.168,在道義論行為下也不存在差異,F(xiàn)(1,180)=1.01,p=0.317,但趨勢和責(zé)備度、正確性評價(jià)一致。

表2 被試對智能機(jī)器人和人類在不同行為選擇(功利/道義)上的道德評價(jià)(M,SE)

4 討 論

本研究探討了個(gè)人和非個(gè)人道德困境下人們對智能機(jī)器的期望行為選擇和實(shí)際行為的道德評價(jià),并與對人類在相同情境下的行為道德判斷進(jìn)行對比,以此揭示對人-智能機(jī)器道德判斷的異同。實(shí)驗(yàn)1檢驗(yàn)了非個(gè)人道德困境下對人類/智能機(jī)器的道德判斷,發(fā)現(xiàn)不管是人類駕駛員還是自動(dòng)駕駛汽車,人們都更希望其做出功利取向,即改變方向(導(dǎo)致1人死亡)挽救直行道路上的5個(gè)行人。此外,無論是預(yù)期行為,還是對實(shí)際行為的道德評價(jià),被試對人類和智能機(jī)器都不存在差異,表明了人們在非個(gè)人道德困境下,很可能對人類和智能機(jī)器采用相同的道德評價(jià)標(biāo)準(zhǔn)。實(shí)驗(yàn)2采用個(gè)人道德困境,發(fā)現(xiàn)在這一困境下,人們對智能機(jī)器和人類采用完全不同的道德評價(jià)標(biāo)準(zhǔn)。雖然被試希望人類和智能機(jī)器人都在個(gè)人道德困境中采取道義論取向行為,但有更多的被試希望智能機(jī)器人做出將人推下去的選擇。對人類/智能機(jī)器人實(shí)際行為的道德評價(jià)也表明了這種差異,相比于人類,人們更加認(rèn)可智能機(jī)器人在這種情境下做出功利行為,對其道德責(zé)備度較低,而正確性和許可度較高。兩個(gè)實(shí)驗(yàn)表明,人們對智能機(jī)器的道德判斷并不完全和對人類的判斷相同,存在不同的判斷標(biāo)準(zhǔn),而這種判斷標(biāo)準(zhǔn)取決于道德情境的差異。

目前,人們對智能機(jī)器道德判斷的研究基本局限于自動(dòng)駕駛汽車這一非個(gè)人道德困境(類似于電車?yán)Ь?,但其測量的指標(biāo)并不統(tǒng)一,結(jié)果也不一致。我們實(shí)驗(yàn)1的結(jié)果同時(shí)考察了行為期望和行為的道德評價(jià),發(fā)現(xiàn)了人們對人類和智能機(jī)器完全相同的道德判斷標(biāo)準(zhǔn),這一結(jié)果與Komatsu et al.(2016)研究的結(jié)論相同(采用日本被試),而與Malle et al.(2015)采用西方被試的結(jié)果存在不同。這一東西方差異也與Awad et al.(2018)發(fā)現(xiàn)的東方集體文化下(相比西方文化)人們更不愿意自動(dòng)駕駛汽車在兩難困境下采取功利主義相一致。這一差異可能是由于東西方文化的不同,集體主義和個(gè)體主義的差異導(dǎo)致的:西方個(gè)體主義背景下,人們更加看重個(gè)體的價(jià)值,因此多個(gè)人的總價(jià)值更加高,人們更可能傾向于功利主義取向。

與以往研究不同,本研究還考察了個(gè)人道德困境下對智能機(jī)器的道德判斷,并獲得了不同的結(jié)論。以往研究都發(fā)現(xiàn),相比于道義論,人們更希望智能機(jī)器在道德兩難困境中做出功利主義行為。而我們的研究發(fā)現(xiàn),在個(gè)人道德困境下,雖然相比于人類,人們更能接受智能機(jī)器做出功利主義行為,但總體上,人們還是希望智能機(jī)器做出道義論行為的。這一結(jié)果表明,人們對智能機(jī)器的期望行為也受到道德情境等因素的影響,在不同的道德情境下,人們可能對智能機(jī)器采取不同的道德評價(jià)標(biāo)準(zhǔn)。在個(gè)人困境中,人們涉及到更多的情緒加工,與情緒相關(guān)的腦區(qū)具有更大的激活(Green et al.,2001;Sarlo et al.,2012),因此更可能采用直覺系統(tǒng)做出反應(yīng)。我們的研究表明,當(dāng)面對處于個(gè)人道德困境的智能機(jī)器時(shí),被試總體上還是希望其做出道義論行為的,反映了在這一困境下雙加工系統(tǒng)里的情緒依然占據(jù)了主導(dǎo)地位;但相比于人類,人們更希望智能機(jī)器在這一困境下做出功利性行為,且對其功利行為的道德評價(jià)更高,這也反映了人們對處于個(gè)人道德困境的智能機(jī)器,情緒體驗(yàn)并沒有像對人類那么強(qiáng)烈,因此,允許更多的認(rèn)知控制及理性推理。

有關(guān)人們對人類與智能機(jī)器道德判斷差異的背后機(jī)制尚不明確。一種可能的解釋是人們很容易采用他人的視角思考(代入感更強(qiáng)),天然地拒絕殺害他人的行為,因此對人類采取更加嚴(yán)苛的道德標(biāo)準(zhǔn);相反,人們很難將自己放到智能機(jī)器的位置上,因此也不具有這種天然的反應(yīng),所以對其采用更加寬容的道德標(biāo)準(zhǔn)。另一種可能的解釋與人們維護(hù)自己的聲望有關(guān)。一個(gè)愿意犧牲他人性命的人往往被看成是一個(gè)不可信的社會伙伴,人們更愿意和采取道義論取向的個(gè)體合作,因此,在道德兩難困境中,人們更可能做出道義論行為;相反,人們可能并不認(rèn)為智能機(jī)器是社會共同體的一部分,因此僅根據(jù)行為本身判斷,做出更加功利性的取向。我們的結(jié)果相對的更支持后一種解釋:相比于電車?yán)Ь常捎谠谔鞓蚶Ь持?,犧牲者被?dāng)成工具使用,采取這一行動(dòng)的人類個(gè)體直接采取了殺人的動(dòng)作(而非附帶損失),因此更容易被看成是不可信(冷血)的社會伙伴,對其聲望損害更大,而對于智能機(jī)器,人們可能并不將其看成是社會群體中的一員,個(gè)人和非個(gè)人道德困境對其影響并沒有這么大。因此,在天橋困境中,人們更能接受智能機(jī)器采取功利主義行為,而在電車?yán)Ь持?,則差異不明顯。

人工智能和智能機(jī)器正逐步進(jìn)入人們的生活,如何設(shè)計(jì)人工智能體的道德決策體系,使其在社會交互中符合社會公眾的道德準(zhǔn)則,成為影響智能機(jī)器實(shí)用化的關(guān)鍵因素。因此,探究人們對于智能機(jī)器在各種道德情境下的期望行為和道德評價(jià),揭示人們對智能機(jī)器道德判斷的背后機(jī)制,具有重大意義,需要眾多研究者,尤其是心理學(xué)工作者的進(jìn)一步深入研究??偨Y(jié)以往研究,我們提出了一些將來的研究展望。比如,未來研究可以借助VR技術(shù)等,在更加真實(shí)的場景下探討人們對智能機(jī)器的道德判斷。此外,智能機(jī)器在未來人類社會的交互中,涉及的道德情境將十分復(fù)雜,遠(yuǎn)遠(yuǎn)超出類似電車道德兩難困境的范疇,后續(xù)研究還需關(guān)注在各種道德場景下公眾對智能機(jī)器的道德判斷。

5 小 結(jié)

本研究獲得如下主要結(jié)論:

(1)非個(gè)人道德困境(自動(dòng)駕駛汽車?yán)Ь?下,人們對智能機(jī)器和人類采用相同的道德評價(jià)標(biāo)準(zhǔn),對其的期望行為及實(shí)際行為的道德評價(jià)完全相同。

(2)個(gè)人道德困境(天橋困境)下,人們對智能機(jī)器和人類采用不同的道德評價(jià)標(biāo)準(zhǔn),雖然總體上人們希望智能機(jī)器和人類都采用道義論取向行為,但相比于人類,有更多人希望智能機(jī)器做出功利主義取向行為,對其功利主義行為的道德評價(jià)也更高。

猜你喜歡
道義機(jī)器困境
易孺詞律觀探微兼論四聲詞之困境
機(jī)器狗
機(jī)器狗
李大釗:播火者的鐵肩道義
道義
跟蹤導(dǎo)練(一)
困境
未來機(jī)器城
西漢道義觀的學(xué)理形成
中國“富二代”家庭教育的困境
洛宁县| 莱阳市| 佛教| 繁昌县| 本溪市| 嵩明县| 池州市| 南郑县| 锡林郭勒盟| 克什克腾旗| 成都市| 五寨县| 涪陵区| 牟定县| 昌江| 张北县| 乌海市| 科技| 乐亭县| 涿州市| 延边| 拜城县| 曲阜市| 岳阳县| 古交市| 蓝田县| 民权县| 阿克| 色达县| 洛宁县| 江华| 淄博市| 翼城县| 合山市| 柳河县| 桂东县| 乡城县| 特克斯县| 宁河县| 鄂伦春自治旗| 万载县|