国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法決策趨避的過程動機(jī)理論*

2023-01-07 05:16:04謝才鳳鄔家驊許麗穎張語嫣謝瑩瑩
心理科學(xué)進(jìn)展 2023年1期
關(guān)鍵詞:動機(jī)決策道德

謝才鳳 鄔家驊 許麗穎 喻 豐 張語嫣 謝瑩瑩

(1 武漢大學(xué)哲學(xué)學(xué)院心理學(xué)系,武漢 430072) (2 清華大學(xué)馬克思主義學(xué)院,北京 100084)(3 靈山縣那隆鎮(zhèn)中心校,廣西 欽州 535414)

1 算法決策或趨或避

算法常用于提供建議、判斷和預(yù)測,因之產(chǎn)生算法決策(Burton et al.,2020;Silva & Kenney,2018)。其為增強(qiáng)決策、輔助決策、專家系統(tǒng)和診斷輔助等概念的總稱,主要載體包括機(jī)器(人)、自動化和人工智能(Bigman & Gray,2018;Malle et al.,2015;Araujo et al.,2020)。舊有研究對算法決策主體未加細(xì)致區(qū)分(Lee,2018;M?hlmann & Zalmanson,2017),其可被視為以軟件、計算機(jī)、自動化系統(tǒng)、機(jī)器(人)或其它人工智能體的形式基于決策規(guī)則或統(tǒng)計模型所執(zhí)行的判斷、預(yù)測、建議、輔助決策、決策等功能。通常決策主體為人類,但人類決策囿于客觀信息不足與主觀偏見(Gilovich et al.,2002),不及算法決策客觀(Lindebaum et al.,2020)、精確(Donnelly,2017)、迅速(Bonnefon et al.,2016)與低廉(Esteva et al.,2017)。算法決策因之應(yīng)用于醫(yī)療(Biró et al.,2021)、司法(Grgi?-Hla?a et al.,2019)、經(jīng)濟(jì)(Harvey et al.,2017)、交通(Badue et al.,2020)和招聘(Cheng & Hackett,2021;Raisch & Krakoswki,2021)等場景。當(dāng)算法漸入生活,民眾將如何看待?

對決策者的反應(yīng)取決于形態(tài)感知與關(guān)系類型。算法基于無形代碼,雖非人類,但通過擬人化感知可誘發(fā)主體知識(elicited agent knowledge),使人視之為社會成員(喻豐,許麗穎,2020)。擬人化是將人類獨(dú)有的特征、動機(jī)、意向或心理狀態(tài)賦予非人對象的過程(許麗穎 等,2017;Epley et al.,2007)。人們可以通過將姓名、性別、肢體等人類屬性賦予自動駕駛汽車和機(jī)器人(Malle et al.,2016;Waytz et al.,2014),亦可將自由意志、能動性和體驗性等心智歸因于算法而將其擬人化(許麗穎 等,2022;Bigman& Gray,2018;van der Woerdt & Haselager,2019)。擬人化之算法在社會認(rèn)知存在鏈(social cognitive chain of being)上位置升高(Brandt & Reyna,2011),然仍與人相去甚遠(yuǎn)。原住民將外來者視為威脅而抗拒,白種人將黑種人當(dāng)作奴仆而欺壓,其實(shí)質(zhì)是群體間的非人化(dehumanization;Cooley & Payne,2017,2019;Hehman et al.,2018;Stewart & Morris,2021)。算法同樣被感知為缺乏完整心智(Bigman & Gray,2018),或被視為“人類生存最大的威脅”(Bostrom,2014;McFarland,2014),此亦非人化。接受新異之物而將之視作人之過程與人類認(rèn)知外群體可進(jìn)行比較。

人類對待外群體的態(tài)度以及非人化過程受意識形態(tài)影響(Jost et al.,2003;Jost et al.,2019)。保守主義指傾向于選擇安全、傳統(tǒng)和常規(guī)形式的制度和行為(Wilson,1973),與保持傳統(tǒng)、追求穩(wěn)定、抵制變革的偏好相關(guān)(Graham et al.,2009;Jost et al.,2003)。而自由主義則與追求創(chuàng)新、倡導(dǎo)變革和接受平等的偏好有關(guān)(Jost et al.,2008a)。自由主義者主張優(yōu)待弱勢群體,對移民等社會地位較低的外群體持更積極的態(tài)度和更高的接受度(趨近),而保守主義者則有更強(qiáng)烈的內(nèi)群體偏好,對穆斯林、外國人和非法移民等外群體的敵意和歧視也更強(qiáng)烈(回避) (e.g.,Iacoviello & Spears,2021;Jost et al.,2003;Kugler et al.,2014;Stewart et al.,2019)。有證據(jù)表明,當(dāng)聽聞黑人被警察槍殺時,自由主義者更能將此事與種族主義聯(lián)系起來(Cooley et al.,2019)。而面對移民,保守主義者更傾向把外群體當(dāng)作威脅,從而表現(xiàn)出更強(qiáng)烈的偏見(Stewart & Morris,2021)。

既然意識形態(tài)區(qū)分了人類于心理和行為層面對外群體的趨避反應(yīng),那么這種社會認(rèn)知存在鏈上的由高視低亦將算法包括在內(nèi)(Grgi?-Hla?a,Zafar,et al.,2018;Wetherell et al.,2013;Stewart et al.,2019)。算法(或機(jī)器人)因其自主性構(gòu)成潛在的風(fēng)險(Bostrom,2014) 與威脅(McFarland,2014;McClure,2018)。而當(dāng)威脅信號出現(xiàn),人便會有“戰(zhàn)或逃”反應(yīng)(fight or flight response),并體現(xiàn)在生理喚醒與防御行為中(Blanchard et al.,2001;Suresh et al.,2014)。研究顯示,人在感知到機(jī)器人或自動駕駛汽車即將危及自身時會出現(xiàn)踢打、輕拍或躲避等戰(zhàn)或逃反應(yīng)(Mahadevan et al.,2018)。然而,戰(zhàn)或逃反應(yīng)與算法趨避不盡相同。不同之處在于,算法決策能造成的威脅類型更為多樣(Lasota et al.,2017),人除了生理與無意識行為之外,還會產(chǎn)生認(rèn)知、情感方面的反應(yīng)(Mahadevan et al.,2018)。相同處則體現(xiàn)在二者均反映對刺激來源趨近或回避的態(tài)度。

進(jìn)化觀認(rèn)為物種若不能辨別環(huán)境刺激的利弊,便會遭到淘汰,因此趨避是有機(jī)體對環(huán)境刺激最基本的反應(yīng)(Schneirla,1959;Zajonc,1998)。被認(rèn)為是積極的、期待的事件會激發(fā)人的趨近行為,反之則引起回避行為(Bargh et al.,1996;Elliot,1999)。以外群體導(dǎo)致的趨避反應(yīng)為例:黑人因表現(xiàn)出與消極刻板印象(如學(xué)業(yè)不良)相反的特征時,會被指控為飾偽而成為威脅信號(Neal-Barnett et al.,2010),白人的回避便隨之出現(xiàn)(Cooley & Payne,2017,2019;Hehman et al.,2018;Stewart & Morris,2021);相反,人們也會在意識到同性戀群體不構(gòu)成威脅后表現(xiàn)出趨近的態(tài)度(Turner et al.,2013)。算法決策是更為復(fù)雜的刺激源,對其風(fēng)險和利弊的判斷決定人們的趨避反應(yīng)。一方面,現(xiàn)有的算法決策安全、高效、低廉的優(yōu)點(diǎn)能使民眾產(chǎn)生趨近反應(yīng),并表現(xiàn)為信任與接納(Parasuraman& Riley,1997)。另一方面,因技術(shù)所限,算法決策仍存在風(fēng)險,甚至引起失業(yè)危及社會導(dǎo)致回避反應(yīng),表現(xiàn)為質(zhì)疑或抵制(Nolan et al.,2016)。

另有計算機(jī)作為社會參與者理論(computers are social actors theory)認(rèn)為,人們會以對待社會成員的方式對待計算機(jī),將規(guī)范、類屬和期望代入人機(jī)交互過程,并表現(xiàn)出與人際交互相似的社交反應(yīng)和社會聯(lián)系(Nass et al.,1997;Nass & Moon,2000)。據(jù)此似乎可以推測,鑒于算法與人類思維的相似性,民眾僅根據(jù)決策內(nèi)容做出趨避反應(yīng)。但與上述推斷不符的是,多數(shù)研究發(fā)現(xiàn),即便內(nèi)容相同的決策經(jīng)由不同主體(人類或算法),受眾在對決策主體的公平感、信任度和道德責(zé)備方面表現(xiàn)出明顯的差異——對算法決策無論趨避均有更強(qiáng)烈的反應(yīng)傾向(Langer et al.,2021;?tting & Maier,2018;Suen et al.,2019;Scheutz & Malle,2021)。

因現(xiàn)有研究無法概括這一不對稱現(xiàn)象,本文稱之為算法決策趨避,即相較于人類決策,人們對算法做出同樣的決策產(chǎn)生更明顯的趨近或回避反應(yīng)。具體而言,算法決策趨近指經(jīng)比較后認(rèn)為算法決策含有更少的偏見和歧視、更為公平,也更容易產(chǎn)生信任和接受的態(tài)度;算法決策回避則反之。需說明的是,定義中含有對人類和算法的比較,而非僅對算法單一主體決策的趨近或回避反應(yīng)。且因研究采用不同計分方式而無法使用統(tǒng)一標(biāo)準(zhǔn)來明確和衡量算法單一決策趨避的具體程度大小(e.g.,Acikgoz et al.,2020;Bigman et al.,2020;Voiklis et al.,2016),只能暫且將人們對算法決策和人類決策的反應(yīng)進(jìn)行比較而得出趨避傾向。

一些情況下,相比于人類決策人們更趨近算法決策。如在面試推薦(Jago & Laurin,2021)、申請休假(Schlicker et al.,2021)、大學(xué)錄取(Marcinkowski et al.,2020)、司法或健康決策(Araujo et al.,2020)以及撰寫或?qū)徍诵侣?Waddell,2019;Wang,2021)等情境下,多數(shù)人認(rèn)為算法決策比人類決策具有更少的偏見和歧視,更多的公平。當(dāng)意識到面試官在招聘中存在歧視的可能后,人們更傾向于接受來自算法的評估,也更容易忽略算法決策所包含的歧視(Bonezzi & Ostinelli,2021)。算法決策產(chǎn)生的歧視較之人類決策引發(fā)了更少的道德憤慨(Bigman et al.,2020)。人們也更信任機(jī)器審核的新聞(Wang,2021),認(rèn)為算法撰寫的新聞比人類撰寫的更專業(yè)和可信(Graefe et al.,2018),尤其是體育新聞(W?lker & Powell,2021)或需要大量信息處理的新聞(Liu & Wei,2019)。在涉及對個人身體狀況、吸引力、獎金評估的情境中,用戶對算法的接受程度更高(Logg et al.,2019),即便將算法和人類的建議相結(jié)合也難以改變這種單純對算法的偏好(Logg,2017;Logg et al.,2019)。

在另一些情況下,人們則會產(chǎn)生更為回避的反應(yīng)。例如人們不放心將關(guān)系重大的決策委托給人工智能(Leyer & Schneider,2019)。在涉及人力資源管理的面試、裁員、升職和績效審查等環(huán)節(jié)中,員工認(rèn)為算法決策更不公平(Acikgoz et al.,2020;Diab et al.,2011;Newman et al.,2020;N?rskov et al.,2020)。在醫(yī)療健康領(lǐng)域,患者更信任人類醫(yī)生而非醫(yī)療算法(Promberger & Baron,2006),難以接受來自人工智能的醫(yī)療服務(wù)和建議,為人工智能支付醫(yī)療費(fèi)用的意愿也更弱(Longoni et al.,2019)。在金融投資領(lǐng)域,人們更信任人類的預(yù)測而非算法統(tǒng)計的結(jié)果(?nkal et al.,2009),以消極行為反抗算法決策(Filiz et al.,2021),或是在算法出錯后堅信自己的判斷(Dietvorst et al.,2015)。在司法領(lǐng)域,算法提供的錯誤信息使當(dāng)事人在敗訴后傾向采取羞辱、報復(fù)和抗議手段表達(dá)不滿,并造成更嚴(yán)重的負(fù)面情感反應(yīng)(Ireland,2020),如失望、憤怒和沮喪等(Lee,2018)。

算法決策趨避在道德場景中表現(xiàn)得更為復(fù)雜。人們通常認(rèn)為算法不適合做出道德決策,即使人類和算法的能力無異(Jago,2019)。處在兩難困境下,機(jī)器只被允許做出犧牲少數(shù)人以拯救多數(shù)人的決策,若不如此,它會受到更多的道德錯誤指責(zé)與責(zé)備(Voiklis et al.,2016)。相比之下,人類做出不作為和義務(wù)論的決定將受到比機(jī)器人更少的道德責(zé)備,但當(dāng)選擇作為和功利論時,人類受到的道德責(zé)備反而與機(jī)器人無異或比機(jī)器人更多(Malle et al.,2015;Scheutz & Malle,2021)。當(dāng)自動駕駛汽車和人類司機(jī)因同樣的過錯而造成無法避免的事故時,人們給自動駕駛汽車分配更少的責(zé)任,將更多責(zé)任歸因于制造商和政府(Li et al.,2016)。在由人和機(jī)器共同控制的情況下,機(jī)器駕駛員對錯誤決策所負(fù)的責(zé)任也始終都低于人類(Awad et al.,2020)。

2 算法決策趨避之源

人們?yōu)楹伪憩F(xiàn)出算法決策趨避?類比人對外群體的態(tài)度,意識形態(tài)可能是算法決策趨避的影響因素。具體而言,自由主義與算法決策趨近相關(guān),而保守主義則與算法決策回避有關(guān)。

民眾的保守主義或自由主義傾向主要取決于相互關(guān)聯(lián)的兩個方面:倡導(dǎo)還是抵制社會變革,以及拒絕還是接受不平等(Jost et al.,2003;Jost et al.,2009)。自由主義者對不平等制度更敏感和反感(Jost et al.,2009;Napier & Jost,2008),也更支持社會變革(e.g.,Anderson & Singer,2008;Jost et al.,2008a)。保守主義者則有更強(qiáng)的系統(tǒng)合理化信念(Jost et al.,2008b),會為了降低威脅和不確定性而抵制變革和接受不平等(Graham et al.,2009;Jost et al.,2003)。

自由主義者更相信算法決策(Gauchat,2012),更支持推廣無人駕駛汽車以服務(wù)于兒童、老年人和殘疾人(Dixon et al.,2020),也更贊成立法保護(hù)人工智能和機(jī)器人(Lima et al.,2020;Martínez & Winter,2021)。另有研究表明,在控制機(jī)器啟發(fā)式先驗信念后,自由主義者認(rèn)為由算法撰寫的反對特朗普的新聞具有更少的偏見(Jia & Liu,2021)。保守主義者則常將機(jī)器人視為威脅(Oleksy & Wnuk,2021)。由于機(jī)器人介入醫(yī)療或法律領(lǐng)域會對人類獨(dú)特性(human uniqueness)構(gòu)成威脅,保守主義者持更消極的評價與看法(Han et al.,2021)。保守主義者也會認(rèn)為醫(yī)療人工智能和自動駕駛汽車有更大的風(fēng)險而不予信任、拒絕使用,并支持出臺限制人工智能的政策(Castelo & Ward,2021;Peng,2020)。保守主義者也認(rèn)為由算法撰寫的新聞具有更多的偏見(Jia & Liu,2021;Waddell,2019)。而意識形態(tài)居于中間者則沒有對決策者明顯的趨避傾向(Waddell,2019)。

算法決策趨避與意識形態(tài)有關(guān),而意識形態(tài)又受動機(jī)性因素影響。動機(jī)社會認(rèn)知理論(Motivated Social Cognition Model)認(rèn)為,意識形態(tài)由三類動機(jī)塑造,即認(rèn)知動機(jī)、關(guān)系動機(jī)和存在動機(jī)(Jost et al.,2003;Jost et al.,2008a;Jost et al.,2009;Jost& Amodio,2012)。該理論解釋了人們?nèi)绾卧诓煌榫持羞x擇自身的意識形態(tài)。比如經(jīng)歷過9·11 恐怖襲擊事件的人會出于存在動機(jī)而趨向于支持保守主義(Bonanno & Jost,2006)。面對算法這樣的新興決策主體,人們也會出于認(rèn)知、關(guān)系和存在動機(jī)而形成態(tài)度及信念,既而選擇趨避。

人機(jī)關(guān)系類型也會影響算法決策趨避。類社會互動理論(parasocial interaction theory)認(rèn)為,與虛擬人物的互動,會產(chǎn)生虛幻的社會關(guān)系(Hartmann,2008,Horton & Wohl,1956;Stern et al.,2007)。人們會以處理人際互動相似的方式去處理類社會互動中的問題,兩類關(guān)系是平行發(fā)展的 (Horton & Wohl,1956;R.B.Rubin & A.M.Rubin,2001)。比如顧客與購物網(wǎng)站、語音助手及推薦系統(tǒng)進(jìn)行類社會互動并建立類社會關(guān)系,并接受對方建議(Chung& Cho,2017;Tran et al.,2019;Whang & Im,2021)。

人際關(guān)系中的吸引、相似性感知和移情等因素同樣作用于類社會關(guān)系,如長期且深入的接觸能加強(qiáng)對虛擬人物的親密感知(Davis,1973;Horton & Whole,1956;R.B.Rubin & A.M.Rubin,2001)。當(dāng)人們不滿足于虛幻的關(guān)系時,便試圖通過實(shí)際接觸來建立更為真實(shí)的聯(lián)系(Horton & Whole,1956)。因此人們與計算機(jī)之間會產(chǎn)生強(qiáng)烈的相似性感知(Nass et al.,1996),而感知相似性有助于建立心理聯(lián)結(jié)(Amiot et al.,2020),并形成社會身份認(rèn)同(van Vugt & Hart,2004)。認(rèn)同的過程是動態(tài)的,其產(chǎn)生于人際交互中,由與其他人、群體或文明的關(guān)系來界定,反映了自我與他人、群體或文明之間的關(guān)系(Tajfel,1974;Tajfel,2010)。由此可推斷,在人與算法的類社會互動中,民眾大致會經(jīng)歷三個階段,即原初行為互動階段、建立類社會關(guān)系階段和形成身份認(rèn)同階段。

人與算法交互的三個階段是依次遞進(jìn)的,人們會出于認(rèn)知、關(guān)系和存在動機(jī)需要來應(yīng)對風(fēng)險和權(quán)衡利弊,最后選擇趨近或回避算法。在原初行為互動階段,人們會感知算法決策存在并與之接觸,從而產(chǎn)生減少不確定性、復(fù)雜性和模糊性的認(rèn)知動機(jī)需要(Jost et al.,2009),機(jī)器啟發(fā)式、對算法決策的準(zhǔn)確性和客觀性認(rèn)知以及熟悉度可以滿足這種需要,進(jìn)而使人們趨近算法決策,反之則回避。在互動過程中,人們也會渴望與算法建立“人際關(guān)系”而產(chǎn)生關(guān)系動機(jī)(Jost et al.,2009)。在建立類社會關(guān)系過程中,算法心智缺乏意味著其道德地位和道德能力的缺失,使用不僅存在風(fēng)險還減少將決策責(zé)任或責(zé)備轉(zhuǎn)移給算法的可能。而且算法決策雖能減少偏見和不公平等(Bigman et al.,2021;Howard et al.,2020),但也導(dǎo)致了人際接觸的減少,于人們兼具利弊,使得人們表現(xiàn)出算法決策趨避。隨著類社會關(guān)系的建立,人與算法產(chǎn)生心理聯(lián)結(jié)進(jìn)而形成身份認(rèn)同。然而,算法對人類構(gòu)成了現(xiàn)實(shí)威脅和身份威脅(Huang et al.,2021;Yogeeswaran et al.,2016)。出于應(yīng)對威脅的需要(Jost et al.,2009),存在動機(jī)也影響對算法決策的趨避?;谝陨?構(gòu)建出算法決策趨避的過程動機(jī)理論,見圖1。

圖1 算法決策趨避的過程動機(jī)理論框架

3 算法決策趨避過程

3.1 原初行為互動階段

在與算法互動之初,人們會因信息缺乏而認(rèn)為算法決策是高深莫測的(Yeomans et al.,2019),出于減少不確定性、復(fù)雜性或模糊性的需要而感知風(fēng)險和權(quán)衡利弊,進(jìn)而產(chǎn)生算法決策趨避。

3.1.1 認(rèn)知負(fù)荷

機(jī)器啟發(fā)式(machine heuristic)以節(jié)省認(rèn)知資源與降低認(rèn)知負(fù)荷的方式處理信息,并降低不確定性,從而產(chǎn)生算法決策趨近(Fiske & Taylor,1991;Gary & Wood,2011;Todd & Benbasat,1994)。機(jī)器啟發(fā)式指人在接觸機(jī)器后會自動啟動刻板印象,認(rèn)為機(jī)器沒有感覺、思想和情感,更加客觀中立,能以更精確安全的方式處理信息和執(zhí)行任務(wù),從而對機(jī)器產(chǎn)生積極反應(yīng)(Sundar,2008;Sundar & Kim,2019)。形態(tài)–媒介–交互性–適航性(Modality-Agency-Interactivity-Navigability)模型表明,媒介可以觸發(fā)認(rèn)知啟發(fā)式,幫助人們對信息來源及其內(nèi)容做出可信度判斷(Sundar,2008)。因此當(dāng)機(jī)器作為信息媒介,便能觸發(fā)機(jī)器啟發(fā)式,將算法決策知覺為客觀且無偏見的,進(jìn)而認(rèn)為算法決策比更加公平可信(Grgi?-Hla?a,Redmiles,et al.,2018;Helberger et al.,2020;Wang,2021)。

啟發(fā)式也可能先于交互,以認(rèn)知圖式出現(xiàn)(Sundar et al.,2020)。人們通常認(rèn)為算法決策較之人類決策快速、一致、準(zhǔn)確,而更加客觀公正(Haenssle et al.,2018;Jago & Laurin,2021)。認(rèn)為算法建議更專業(yè)有效的信念也會增加信任進(jìn)而提高算法決策的利用度(Kramer et al.,2018)。在新聞和交通等領(lǐng)域中,算法決策通常因無主觀意圖和偏好、決策過程標(biāo)準(zhǔn)化的印象被認(rèn)為中立客觀,人們對其公平性感知和信任度因此提升(Howard et al.,2020;Miller & Keiser,2021;Tandoc et al.,2020)。但對人類是實(shí)用、合法、全面、專業(yè)和一致的啟發(fā)式加工,也能使由人主導(dǎo)的面試獲取更高的接受度(Diab et al.,2011)。

對算法的熟悉度可以激活啟發(fā)式認(rèn)知,從而降低認(rèn)知負(fù)荷(Kahneman,2003)。比如熟悉導(dǎo)航網(wǎng)站的用戶信息處理的速度更快,關(guān)聯(lián)的認(rèn)知負(fù)荷也更低(Hu et al.,2017)。在熟悉算法并習(xí)慣由算法主導(dǎo)的特定決策之后(Kramer et al.,2018),人們會一改最初對新技術(shù)的排斥態(tài)度,轉(zhuǎn)而趨近算法決策(Parasuraman & Riley,1997),如更能接受機(jī)器人的道德決策(Komatsu,2016)和司法裁決(Ireland,2020)。

3.1.2 決策透明

人對決策的反應(yīng)也取決于決策者所提供的信息以及是否加以解釋(Dodge et al.,2019),因此透明性也是算法決策趨避的原因,即可解釋性和可理解性,指人們對算法決策過程和結(jié)果相關(guān)信息的可獲取程度(Shin & Park,2019;Shin,2020)。算法不會呈現(xiàn)足夠的信息并解釋的特點(diǎn)會引起人的不安與回避(Acikgoz et al.,2020;Langer et al.,2018)。倘若完全缺乏關(guān)于決策的解釋,人們認(rèn)為自動化決策比人類決策的信息公平和程序公平感更強(qiáng)(Schlicker et al.,2021)。但提供解釋會讓人們覺得自動化決策比人類決策更公平(Schoeffer et al.,2021),繼而減少對算法的拒絕(Yeomans et al.,2019)。對決策結(jié)果進(jìn)行解釋也會產(chǎn)生減輕算法責(zé)任或增強(qiáng)對算法決策公平感知的極端后果(Lee et al.,2019)。研究表明,呈現(xiàn)數(shù)據(jù)會給人以公平的感知,隱瞞或不對數(shù)據(jù)加以解釋則會降低決策的透明性,破壞原本公平的印象(Dodge et al.,2019)。

算法決策中的可解釋性也指算法應(yīng)用中的方法和技術(shù)被人們理解的程度(Ehsan & Riedl,2019),人們通常很難理解算法或推薦系統(tǒng)是如何運(yùn)作的(Kroll et al.,2017),也因?qū)λ惴ㄈ狈α私舛a(chǎn)生不信任,進(jìn)而拒絕使用算法(Logg et al.,2019;Prahl & van Swol,2017)。Yeomans 等人(2019)指出推薦系統(tǒng)僅僅做到準(zhǔn)確是不夠的,它們還必須被理解。相比之下,醫(yī)生經(jīng)與患者溝通后能使其理解決策,而這也造成患者抵制算法診斷皮膚癌的結(jié)果(Cadario et al.,2021)。少量研究也表明,當(dāng)人們了解算法的工作原理并意識到其中潛在的偏見后,原先的算法偏好就會消失,即對算法學(xué)習(xí)的擔(dān)憂會破壞算法沒有偏見的固有啟發(fā)式,從而引起算法決策回避(Jago & Laurin,2021)。

3.2 建立類社會關(guān)系階段

在與算法實(shí)際互動后,人們可能出于滿足歸屬感和社會認(rèn)同的需要而產(chǎn)生關(guān)系動機(jī),并與之建立類社會關(guān)系(Han & Yang,2018)。而在建構(gòu)關(guān)系的過程中,算法道德地位以及人際接觸影響了算法決策趨避。

3.2.1 道德地位

算法通常由于缺乏心智而被認(rèn)為不具備完全的道德地位(Bryson,2020)。道德的本質(zhì)是心智知覺,即道德被認(rèn)為需要完整的人類心智,人們通過目標(biāo)的心智水平來判斷其是否有完全的道德地位(Bastian et al.,2012;Gray et al.,2012)。心智知覺理論(mind perception theory)認(rèn)為,心智通過兩個維度被感知,即能動性(agency) 和體驗性(experience;Gray et al.,2007)。能動性包括思考、計劃、記憶、行動等能力,體驗性則對應(yīng)饑餓、恐懼、愉悅、欲求等能力(Gray et al.,2012)。機(jī)器具有一定的思考、計劃、記憶和自控的能力,比如它們可以進(jìn)行大量的復(fù)雜計算、與人溝通或下棋等(Silver et al.,2017),因此具有一定的能動性(Gray et al.,2007;Gray & Wegner,2012)。但是與人類相比,機(jī)器因為不具體驗性而缺乏完整的心智(Brink et al.,2019;Reinecke et al.,2021;Swiderska& Kuster,2020),因此機(jī)器被認(rèn)為是有限道德主體,道德地位低于人類。具體而言,由于缺乏自主性、道德推理、溝通與判斷行為后果等能力(Cushman,2008;Malle,2016),機(jī)器被認(rèn)為不具備做出道德決策的能力。

由于無法感知算法的完整心智和道德能力,人們產(chǎn)生算法決策趨避。一方面,人們更喜歡由人類而非機(jī)器做出關(guān)乎生死的道德決策,即使意識到機(jī)器專業(yè)性顯著優(yōu)于人類,或機(jī)器決策可以帶來積極的結(jié)果,這種算法拒絕仍然存在(Bigman & Gray,2018)。另一方面,對算法缺乏情感和體驗的認(rèn)知反而使得人們認(rèn)為算法決策具有更少的歧視,進(jìn)而認(rèn)為算法決策更公平(Helberger et al.,2020;Jago & Laurin,2021;Noble et al.,2021)。心智缺乏決定了算法僅具有一定的道德地位,這讓人們覺得算法的道德能力有所缺失。也正因如此,在與道德相關(guān)的領(lǐng)域中,人們更可能將影響第三方的決策任務(wù)委托給人類而不是機(jī)器,并給予人類的決策以更高的評價(Gogoll & Uhl,2018),在涉及道德的投資中也是如此(Niszczota & Kaszás,2020)。

道德地位的缺失也意味算法不能作為完整的責(zé)任主體,這會減少人類將決策責(zé)任或責(zé)備轉(zhuǎn)移給算法的可能,進(jìn)而使得人們可能回避算法決策。人類有能力承擔(dān)決策責(zé)任或負(fù)最終決策責(zé)任,而算法卻缺乏承擔(dān)責(zé)任的相應(yīng)能力(Promberger & Baron,2006)。對責(zé)任分配的考量也會影響人們對決策主體的選擇(Steffel et al.,2016;Steffel & Williams,2018)。作為決策主體,算法不能承擔(dān)決策失誤的責(zé)任而人類卻可以,出于將部分責(zé)任轉(zhuǎn)移至他人而使得自己無需承擔(dān)全部責(zé)任的考慮,人們會出現(xiàn)算法回避反應(yīng)(Bonaccio & Dalal,2006;Promberger & Baron,2006)。然而,人們也可能故意使用診斷輔助或以計算機(jī)遴選員工的方法逃避責(zé)任,因為在決策產(chǎn)生負(fù)面結(jié)果后,他們將受到了更少的批評和指責(zé)(M.V.Pezzo & S.P.Pezzo,2006;Nolan et al.,2016)。責(zé)任轉(zhuǎn)移顯然是算法決策趨避的影響因素之一,但會因具體情境而不同,未來可以就此做更深入的探討。

3.2.2 人際接觸

由于人與算法之差異,人們可能會在人機(jī)交互中感受到更少的接觸而導(dǎo)致算法決策回避。與人類相比,算法因決策過程缺乏協(xié)商溝通,致使人們感受到更多的不平等(Acikgoz et al.,2020;Glikson & Woolley,2020;Helberger et al.,2020;Noble et al.,2021)。例如,面試者被算法遴選后,會報告自己的人性化下降、缺乏雙向溝通、沒有表現(xiàn)和復(fù)議的機(jī)會及更差的待遇,進(jìn)而認(rèn)為算法決策不及人類公平(Acikgoz et al.,2020;Kaibel et al.,2019;Noble et al.,2021)。自動化面試也會減少溝通,降低應(yīng)聘者的存在感,造成不接受的態(tài)度(Langer et al.,2019)。

交互雙方的特征也會通過影響人們在決策過程中的互動性感知,進(jìn)而導(dǎo)致算法決策趨避。研究表明,在人際互動中有影響力者會認(rèn)為人類的調(diào)解比算法更公平 (Lee & Baykal,2017)。人們會覺得算法決策缺少溫情、善意和對使用者的尊重,進(jìn)而認(rèn)為算法決策不如人類決策公平(Wang,2018;Kaibel et al.,2019;Langer et al.,2021)。Jago (2019)的研究表明,人們覺得算法在音樂與繪畫創(chuàng)作中的表現(xiàn)不如人類工作真實(shí),這種真實(shí)性的差異使他們認(rèn)為算法做出的道德決策比之人類更不道德,也更喜歡人類決策。與算法交互中產(chǎn)生的不適感也會造成算法決策回避,但決策的效用也能在一定程度上抑制回避(Castelo et al.,2019)。遭遇歧視的經(jīng)歷,也會使個體認(rèn)為算法的篩選和選拔過程更為合理,給予自己更多表現(xiàn)的機(jī)會,并認(rèn)為所要加入組織更具吸引力(Kaibel et al.,2019)。

3.3 形成身份認(rèn)同階段

群際關(guān)系研究表明,人們將人類視為內(nèi)群體,將動植物或算法等視為外群體(Turner et al.,1987),并傾向視外群體為威脅的來源。當(dāng)機(jī)器人的現(xiàn)實(shí)威脅和身份威脅凸顯,出于應(yīng)對威脅、尋求安全感的存在動機(jī)需要,人們可能對算法決策產(chǎn)生相應(yīng)的趨避反應(yīng)(Huang et al.,2021;Yogeeswaran et al.,2016;Z?otowski et al.,2017)。

3.3.1 現(xiàn)實(shí)威脅

現(xiàn)實(shí)威脅涉及對內(nèi)群體的資源、工作或安全的威脅,也是群際偏見的預(yù)測因素(Riek et al.,2006)。因此,將機(jī)器人視為現(xiàn)實(shí)威脅會產(chǎn)生算法決策回避。

使用新技術(shù)可能會帶來失業(yè)等社會問題(Benzell et al.,2015),這會迫使民眾回避算法決策。對技術(shù)性失業(yè)(technological unemployment)的擔(dān)憂會放大算法的威脅(Headrick,2009;McClure,2018;Radinsky,2015)。例如職員會在算法主導(dǎo)的評價體系下難以感知自身價值,因而抵制計算機(jī)的標(biāo)準(zhǔn)化決策(Meehl,1986)。在Nolan 等人的研究中發(fā)現(xiàn),雖然使用計算機(jī)程序進(jìn)行雇傭決策可以使招聘被認(rèn)為是穩(wěn)定且可靠的,但關(guān)于雇傭者認(rèn)為雇員對雇傭決策過程的因果關(guān)系(或掌控感)更少的擔(dān)憂,會使得雇員自己對雇傭決策感知價值(即對技術(shù)性失業(yè)的恐懼)的關(guān)注增加,隨后降低雇員使用這些標(biāo)準(zhǔn)化決策的意圖(Nolan et al.,2016;Nolan et al.,2020)。

機(jī)器人的能力也會引起人的警惕,進(jìn)而導(dǎo)致算法決策趨避。研究表明,機(jī)器人的能力越強(qiáng),在任務(wù)中的表現(xiàn)越好,對人類構(gòu)成的現(xiàn)實(shí)威脅就越大(Yogeeswaran et al.,2016),人們的信任程度也越低(Hancock et al.,2011)。比如,在做出關(guān)乎生命安全的手術(shù)決策中,人們幾乎寧愿選擇一個普通的醫(yī)生而非專家機(jī)器(Bigman & Gray,2018)。然而機(jī)器的能力并非僅是構(gòu)成威脅,也可能造成偏好。有證據(jù)顯示,普通民眾更重視、信任和接受來自算法而非普通人的建議(Logg et al.,2019;Madhavan & Wiegmann,2007),未來研究應(yīng)進(jìn)一步探討算法能力影響算法決策反應(yīng)的邊界條件。

當(dāng)算法在交互過程中掌握大量的個人隱私后,可能會成為一種現(xiàn)實(shí)威脅。譬如,購物和瀏覽新聞的過程需要依靠算法進(jìn)行數(shù)據(jù)收集 (Kozyreva et al.,2021),出于對隱私泄露的擔(dān)心,以及害怕被持續(xù)監(jiān)控或成為個性化營銷犧牲品的擔(dān)憂,人們會回避算法決策(Auxier et al.,2019;Krupp et al.,2017)。個體對隱私泄露的擔(dān)憂越高,其越懷疑算法決策的道德性進(jìn)而認(rèn)為算法決策更不公平,但當(dāng)人們相信自己可以保護(hù)自身的在線隱私或?qū)υ诰€信息擁有更多控制權(quán)時,就更有可能認(rèn)為自動化決策是公平且有用的(Araujo et al.,2020)。此外,堅信機(jī)器在處理隱私信息方面比人類更安全、更值得信任的消費(fèi)者在預(yù)訂機(jī)票時也更愿意授權(quán)個人信息(Sundar & Kim,2019)。

3.3.2 身份威脅

身份威脅指對自身特殊性、價值觀和獨(dú)特性被忽視的擔(dān)憂(Riek et al.,2006)。高度擬人化的機(jī)器人融入社會后,人與機(jī)器的區(qū)別便會模糊,并對人類身份構(gòu)成威脅,致使民眾難以接受(Castelo et al.,2019;Ferrari et al.,2016;Yogeeswaran et al.,2016)。人通常自認(rèn)是獨(dú)特而不同于其他事物的(Brewer,1991),而機(jī)器只能按照標(biāo)準(zhǔn)化和模式化的方式運(yùn)作,以同樣的方式處理所有情況(Haslam,2006)。機(jī)器在決策過程中的考量不同于人類,人們因之擔(dān)心機(jī)器決策時忽視自己的獨(dú)特特征和境遇,比如患者擔(dān)心人工智難以考慮到其性格和癥狀的特殊性,從而抵制醫(yī)療人工智能(Longoni et al.,2019)。而在日常的個性化推薦場景中,即使算法推薦的準(zhǔn)確性勝過人類,人們也不相信算法的推薦能夠貼合個人品味(Yeomans et al.,2019)。

算法會將不能被量化的信息刪除或簡單表征,從而簡化信息處理過程,使整個處理過程去情境化(Choi et al.,2007;Nisbett et al.,2001),但去情境化的決策方式往往忽略人的獨(dú)特性(Longoni et al.,2019;Sloan & Warner,2018)。所以在社會化水平較高的任務(wù)中,算法因只能分析可量化的指標(biāo),而難以辨識品質(zhì)、態(tài)度等指標(biāo),而被認(rèn)為不如人類決策公平和可信(Lee,2018;Newman et al.,2020)。

擬人化使機(jī)器人具備與人相似的外表和相近的能力,構(gòu)成對人類獨(dú)特性的威脅,進(jìn)而影響算法決策趨避 (Yogeeswaran et al.,2016;Z?otowski et al.,2017)。倘若區(qū)分人類與機(jī)器在能力方面的情感相似性,便可以增強(qiáng)人們在主觀任務(wù)中對算法決策的信任(Castelo et al.,2019)。Hristova 和Grinberg (2015)在道德困境研究中引入擬人化因素,人們更允許形似人類的機(jī)器人而不是人類做出功利主義決策,并給予其更少的道德責(zé)備(Hristova & Grinberg,2015;Hristova & Grinberg,2016)。有意思的是,同樣是選擇作為,人類受到的道德責(zé)任比機(jī)械外觀機(jī)器人更多,選擇不作為時則相反;但人們對類人外觀機(jī)器人選擇作為或不作為的道德指責(zé)模式與對人類的極其相似(Malle et al.,2016)。機(jī)器的擬人化程度可能存在一個閾值使得人們對它與人類的道德判斷模式幾乎無異,這個閾值具體為何,仍需探尋。

4 算法決策趨避未盡

試想一下,若有一人A 面試一家公司,發(fā)送簡歷后不久便收到郵件回復(fù)。在該郵件中,XC-4110 明確表示自己是人工智能算法HR,負(fù)責(zé)評判A 的簡歷并決定是否進(jìn)入面試環(huán)節(jié),另有4 位人類HR 負(fù)責(zé)其他求職者的簡歷篩選。在面試階段,算法HR 將與4 位人類HR 一起對通過簡歷篩選的求職者進(jìn)行面試考核。當(dāng)A 了解到負(fù)責(zé)篩選自己簡歷的HR 是人工智能算法,機(jī)器啟發(fā)式便可能會激活,進(jìn)而認(rèn)為算法比人類更客觀、準(zhǔn)確、無偏見等,然后趨近算法決策。但倘若A 不理解算法如何做出決策或得不到有關(guān)決策過程的解釋時,便會回避算法決策。當(dāng)A 通過簡歷篩選進(jìn)入面試階段,便會與算法HR 面對面交流等。在這一過程中,A 可能認(rèn)為算法HR 并非真正人類,相較于其他4 位人類HR 缺乏心智,難以充分交流,不具備做出招聘決策的能力,并懷疑其能否擔(dān)任相應(yīng)的后果責(zé)任,從而回避算法HR 的面試決策。但倘若A 之前有過被歧視的經(jīng)歷,他可能認(rèn)為算法HR 更一視同仁,因而趨近算法HR 決策。當(dāng)然,面對算法和人類HR 時,A 可能會覺得算法HR 憑借其能力搶占了部分人類工作,算法與人類有著相似的外表、言語和動作等,其便會感到現(xiàn)實(shí)威脅和身份威脅,從而回避算法HR 決策。但當(dāng)A 認(rèn)為算法能力強(qiáng),會忽視導(dǎo)致歧視的個人相關(guān)信息等時,便會趨近算法決策。

如上所示,算法決策趨避的過程動機(jī)理論模擬了人們面臨算法和人類做出同一決策時的心理動機(jī)框架,并將其嵌入到人機(jī)交互的三個階段中。盡管我們概括現(xiàn)有研究,提出了該理論框架,但關(guān)于算法決策趨避的研究領(lǐng)域仍有可供討論之處。

其一,過程動機(jī)理論成立有兩個重要條件,一是算法擬人化;二是人與算法進(jìn)行類社會互動。首先,擬人化能將算法類比于人,是算法趨近或回避的核心,若無擬人化,人們便難以將算法視為社會認(rèn)知的對象。其次,在擬人化出現(xiàn)后,人們可能會根據(jù)言語或外貌等非言語特征來判斷算法或機(jī)器人的性別、年齡和種族(Makatchev et al.,2013;Saunderson & Nejat,2019),進(jìn)行類社會互動并受三種動機(jī)作用而對算法產(chǎn)生反應(yīng)。值得注意的是,人們會將算法擬人化,也會對其非人化。研究表明,無論是人類還是機(jī)器人做出傷害行為,均會降低外界對其心智的感知(Swiderska & Küster,2020),未來的研究可以探討在傷害情境下,非人化對算法決策趨避的影響。

即使人們無差別地對待人類和算法,過程動機(jī)理論同樣適用,人際交往中尚且有喜好厭惡之分,在與算法進(jìn)行類社會互動中也可能如此。就像并非所有白人自由主義者都主張優(yōu)待弱勢群體般,其中有些人對黑人或少數(shù)群體抱有偏見和施以傷害(Bradley-Geist et al.,2010)。在某些決策情境下,人們可能覺得算法與其他人類并無不同,但會因自身教育水平(Thurman et al.,2019;van Berkel et al.,2021;Saha et al.,2020)、人工智能技術(shù)水平(Schoeffer et al.,2021)而更好地理解或更質(zhì)疑復(fù)雜決策過程,以及對結(jié)果抱有預(yù)期和偏好(Jago & Laurin,2021;Wang et al.,2020)而產(chǎn)生傾向性,最后表現(xiàn)出算法決策趨避。

其二,因缺乏研究證據(jù),在身份認(rèn)同形成階段只討論現(xiàn)實(shí)威脅和身份威脅的影響。這可能會導(dǎo)致忽視這樣一種情況,即人們并非總是將算法或機(jī)器人視為威脅。有研究發(fā)現(xiàn),人們也會為機(jī)器人舉辦葬禮(Burch,2018),這表明人們可能將機(jī)器人視為關(guān)系密切的群內(nèi)成員,算法決策趨避可能會受此影響。因為人們會對內(nèi)群體或共同群體表現(xiàn)出內(nèi)群體偏好(Tajfel & Turner,1896;Gaertner et al.,1993)。社會認(rèn)同也包含人類以外的事物(Amiot et al.,2020),當(dāng)個體將機(jī)器人視為內(nèi)群體成員后,會更喜歡與之接觸并給予更積極的評價(Eyssel & Kuchenbrandt,2012)。在人機(jī)交互頻繁的實(shí)現(xiàn)中(Beane,2019;Newman et al.,2020),對群內(nèi)成員的積極態(tài)度是否成為趨近算法決策的原因,對此還需進(jìn)一步探討。

其三,除理論的三個過程階段外,應(yīng)當(dāng)還考慮是否存在算法決策由回避轉(zhuǎn)為趨近的干預(yù)措施。Langer 等(2021)研究表明,人們最初更信任人類決策而非自動化系統(tǒng)決策,在出現(xiàn)信任違反并進(jìn)行修復(fù)干預(yù)后,人們對自動化系統(tǒng)決策的信任增量更少。犯錯也同樣會讓人們從最初對無差別的信任轉(zhuǎn)為更加抗拒算法決策(Prahl & van Swol,2017)。但后續(xù)研究可以此開展進(jìn)行對干預(yù)手段的探討。

決策本身的內(nèi)容和適用的情境也可能對算法趨避產(chǎn)生影響。研究表明,人們會在人力資源管理、股市投資、醫(yī)療健康和司法等不同決策情境下來表現(xiàn)出算法決策趨避,而這似乎與決策內(nèi)容或情境所涉及的復(fù)雜性、重要性和主觀性有關(guān)。在教育決策、新聞撰寫以及體重估計、吸引力預(yù)測等需要進(jìn)行數(shù)據(jù)處理、相對客觀的場景下(Logg et al.,2019;Marcinkowski et al.,2020),人們會偏好客觀、準(zhǔn)確、快速的算法決策(Bonnefon et al.,2016;Donnelly,2017;Lindebaum et al.,2020)。但在金融投資、戰(zhàn)略規(guī)劃以及道德決策等相對復(fù)雜重要需要進(jìn)行主觀考量的情境(?nkal et al.,2009;Leyer & Schneider,2019;Bigman & Gray,2018),去語境化決策的算法決策便會被認(rèn)為難以勝任(Longoni et al.,2019;Sloan & Warner,2018;Lee,2018;Newman et al.,2020)。除此之外,趨近或回避算法決策也可能與自身具體情況有關(guān),即人們從自身利益出發(fā)進(jìn)行考量,從而選擇趨避。比如人們認(rèn)為算法面試推薦更少偏見、歧視和更公平(Jago & Laurin,2021),但人們更不信任和拒絕關(guān)乎自身安全和利益的算法醫(yī)療診斷建議和司法犯罪預(yù)測決策等(Bigman & Gray,2018;Promberger & Baron,2006)。后續(xù)研究還更應(yīng)探討決策情境和個性差異對的算法決策趨避的影響。

其四,除理論所概括的三種動機(jī)外,人們也可能出于控制等其他動機(jī)而選擇趨避。目前算法仍可能處于不透明的“黑箱”階段(Burrell,2016;Castelvecchi,2016),民眾難以了解其運(yùn)行原理(Kroll et al.,2017),從而感到極大的不確定性(Acikgoz et al.,2020)。不確定和無序引發(fā)焦慮并降低控制感,人們在失控后會通過找尋其他途徑來補(bǔ)償或恢復(fù)控制感(Kay et al.,2009;Kay & Eibach,2013)。研究表明,人們厭惡不聽人類指令而自主做出決策的機(jī)器人(Z?otowski et al.,2017),但若人們能自行調(diào)整或控制算法以掌握最終決策權(quán),他們會更愿意接受算法決策(Berger et al.,2021;Dietvorst et al.,2018)。這表明,控制感在一定程度上能逆轉(zhuǎn)人們的算法絕決策回避。然而究竟采用何種策略可以補(bǔ)償控制感并實(shí)現(xiàn)成功逆轉(zhuǎn)是亟需探討的。同時也要警惕個體長期經(jīng)歷控制感缺失從而最終放棄重拾控制感(Alloy et al.,1984),這可能會導(dǎo)致人們一直回避算法決策。除了控制動機(jī)外,人們也可能會出于成就動機(jī)而選擇顯著優(yōu)于人類的算法決策,是否如此還需要進(jìn)一步驗證。

其五,本文基于現(xiàn)有實(shí)證研究提出自由主義與算法決策趨近有關(guān),而保守主義與算法決策回避有關(guān)的觀點(diǎn)。但不可否認(rèn)的是,如同自由主義者也會歧視和傷害黑人和其他少數(shù)群體一樣(Bradley-Geist et al.,2010),自由主義者也可能比保守主義者對算法決策帶來的隱私風(fēng)險、現(xiàn)實(shí)或身份威脅等問題更為敏感,從而使他們回避算法決策。自由主義并不一定使人們趨近算法決策,可能存在某些因素使自由主義者回避算法決策,保守主義亦然。

最后,在算法決策趨避理論的基礎(chǔ)上,應(yīng)繼續(xù)完善理論框架,并不斷尋找干預(yù)措施以遏制其造成的不良影響。張語嫣等(2022)提出的算法拒絕的三維動機(jī)理論聚焦于算法拒絕這一現(xiàn)象,歸納了人們會基于算法主體懷疑、道德地位缺失和人類特性湮沒這三個主要原因而拒絕算法決策,分別對應(yīng)信任/懷疑、擔(dān)責(zé)/推責(zé)、掌控/失控三種動機(jī)。本研究涉及的動機(jī)理論則基于廣泛的認(rèn)知、關(guān)系和存在動機(jī)探討人們對算法決策的趨避傾向反應(yīng),將算法拒絕涵蓋于算法決策回避。除了過程動機(jī)理論中所提及的原因,算法決策趨避必然還由多種復(fù)雜因素而造成,未來還要繼續(xù)探討其中因素,并不斷完善現(xiàn)有理論或提出新的理論。丹尼爾·卡尼曼等人(2021)的《噪聲》一書中指出,人們通過采用決策衛(wèi)生策略或使用一套既定的算法等進(jìn)行降噪處理而優(yōu)化決策,但大眾對這些降噪策略或接納或排斥。人們代之降噪策略的態(tài)度似乎與本文中人們對于算法決策或趨近或回避的態(tài)度十分相近,但兩者卻又不同。前者旨在基于原有基礎(chǔ)優(yōu)化決策而減少噪聲,只涉及人類或算法單一決策主體;后者則旨在比較人們面對同樣的算法決策和人類決策而產(chǎn)生的反應(yīng)傾向,包含了算法和人類兩個決策主體。兩者雖略不同,但倘若比較人們對降噪處理方式完全一致的人類和算法決策的反應(yīng),便可得出人們的算法決策趨避傾向。因此,未來研究可以噪聲為切入點(diǎn)來進(jìn)一步探究算法決策趨避,借鑒降噪策略中的深刻見解、處理原則等來干預(yù)、優(yōu)化算法決策,使之更好服務(wù)人類,增進(jìn)人類福祉。

猜你喜歡
動機(jī)決策道德
Zimbabwean students chase their dreams by learning Chinese
頭上的星空與心中的道德律
十幾歲(2021年24期)2021-11-18 02:18:40
為可持續(xù)決策提供依據(jù)
二語動機(jī)自我系統(tǒng)對動機(jī)調(diào)控策略及動機(jī)行為的影響研究
跟蹤導(dǎo)練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
決策為什么失誤了
動機(jī)不純
用道德驅(qū)散“新聞霧霾”
新聞前哨(2015年2期)2015-03-11 19:29:31
論幼兒的動機(jī)特點(diǎn)與良好動機(jī)的培養(yǎng)
通化市| 科尔| 昌江| 渭源县| 林周县| 丽水市| 大名县| 龙口市| 山丹县| 磐石市| 都兰县| 常山县| 资源县| 武山县| 安吉县| 许昌县| 沈丘县| 巫溪县| 东安县| 徐州市| 高碑店市| 丘北县| 水城县| 湘乡市| 泉州市| 临猗县| 达州市| 宁波市| 盐池县| 建始县| 鸡泽县| 太康县| 巍山| 德化县| 锦屏县| 永清县| 德州市| 灵山县| 黄梅县| 诸城市| 溧阳市|