董文莉 方衛(wèi)寧
得益于人工智能(Artificial intelligence,AI)技術(shù)的發(fā)展,自動化的能力大幅提升.許多自動化機器都具有一定的自主能力,它們能夠執(zhí)行諸如計劃和決策等復雜的高級認知任務,它們有能力成為人類的合作伙伴,甚至取代人類.自動化的應用也達到了前所未有的廣度和深度.自動化機器被廣泛部署到各種工作環(huán)境之中,自動駕駛汽車、自主機器人以及決策輔助設備等已經(jīng)被廣泛集成到軍事[1]、交通運輸[2]、過程控制[3]及醫(yī)療保健[4]等領(lǐng)域;自動化機器被更加多樣化的最終用戶群體所使用,最具代表性的就是類似于自動駕駛汽車的駕駛員這類快速增長的非專業(yè)用戶[5].在其工作環(huán)境中,人與自動化機器協(xié)同控制的效能得到不斷改善,人機協(xié)作系統(tǒng)變得更加安全有效.
盡管如此,由于作為智能自動化系統(tǒng)基礎的AI 技術(shù)[6]的不足,自動化的發(fā)展及應用面臨著一些嚴峻的問題.從AI 的發(fā)展歷史來看,第二次AI 技術(shù)浪潮目前正處于全盛階段,它由執(zhí)行統(tǒng)計對象識別以及在大量數(shù)據(jù)中尋找模式的統(tǒng)計系統(tǒng)組成,典型范例如人工神經(jīng)網(wǎng)絡系統(tǒng),這些統(tǒng)計系統(tǒng)已經(jīng)在多個領(lǐng)域取得重大進展[7].然而,以“統(tǒng)計學習”為特征的AI 系統(tǒng)存在固有缺陷.首先,雖然這些系統(tǒng)對特定問題具有較強的推理和判斷能力,但它們沒有實時的交互式學習能力,不能處理動態(tài)目標和情境[8].因此,在不久的將來實現(xiàn)在動態(tài)和非結(jié)構(gòu)化環(huán)境中運行的完全自主的自動化系統(tǒng)是非常困難的,并且,出于道德考慮和責任需要,人們可能不希望賦予自動化系統(tǒng)完全的自主權(quán)[9].其次,作為統(tǒng)計系統(tǒng)核心的機器學習模型和學習過程不透明且輸出結(jié)果難以解釋[10],這使得用戶尤其是非專業(yè)用戶理解自動化變得非常困難.
完全自主的自動化系統(tǒng)在未來很長一段時間內(nèi)都不會出現(xiàn),自動化系統(tǒng)的主要作用仍然是作為人機團隊成員與人共享控制而不是取代人,人將繼續(xù)參與或至少在某種程度上參與自動化系統(tǒng)的決策循環(huán).目前的人機協(xié)同控制主要遵循兩種交互范式:決策支持和監(jiān)督控制[11].決策支持是指自動化為操作者提供可能的選擇,而監(jiān)督控制則是指操作者監(jiān)督自動化運行并在其失效或出現(xiàn)意外事件時及時接管控制權(quán)進行適當干預.在這兩種交互范式中,操作者在很大程度上是基于他們對自動化意圖及行為的理解做出正確選擇.然而,由于自動化系統(tǒng)所采取的底層技術(shù)的限制,期望操作者完全理解其自動化伙伴是不切實際的.人難以理解自動化機器已經(jīng)成為限制人機協(xié)同控制安全實施及效能發(fā)揮的一個瓶頸,如何解決該問題從而將人的認知能力與自動化機器的計算能力緊密結(jié)合來實現(xiàn)更加安全有效的人機協(xié)同控制成為目前自動化機器開發(fā)和部署的難點.
既然人對自動化的理解與自動化的實際能力之間總是存在差距,人缺乏客觀評估自動化能力的缺陷只能用信任來彌補[12].信任是發(fā)展有效關(guān)系的關(guān)鍵因素,信任在人類合作中的重要性也得到了廣泛認可[13],自動化信任(Trust in automation),即人對自動化的信任,已經(jīng)被確定為調(diào)節(jié)人與自動化之間關(guān)系的關(guān)鍵因素[14],其作用方式與人類之間的信任相似[15].操作者的自動化信任水平與自動化的實際能力之間的匹配關(guān)系稱為自動化信任校準[16],如圖1 所示.自動化系統(tǒng)本身的復雜性使得操作者幾乎總是處于不當?shù)淖詣踊湃涡薁顟B(tài),要么高估自動化的能力對其過度信任,不加判別地依賴自動化導致誤用;要么低估自動化的能力對其缺乏信任,導致停用[17].誤用和停用都可能導致災難性的后果.例如,2018 年3 月,一輛特斯拉汽車的車主去世,事故調(diào)查將該起事故歸咎于駕駛員對自動駕駛汽車的過度信任[18].特斯拉透露,在自動駕駛儀沒有識別出道路前方的混凝土障礙物并加速撞上障礙物之前,駕駛員有足夠的時間進行干預,以防止撞車,但他沒有采取行動.在隨后對該起事故的補充說明中,特斯拉認為,與非自動駕駛汽車相比,自動駕駛汽車的安全性預計將提升10 倍,如果公眾對自動駕駛汽車缺乏信任并因此拒絕使用,自動駕駛汽車可靠性提高所帶來的安全性提升將無法實現(xiàn),這將造成每年全世界約有90 萬本可以被挽救的生命因此損失[19].操作人員不能正確使用自動化對人機協(xié)同控制的有效性和安全性造成巨大損害,因此,自動化信任問題應該至少與技術(shù)問題受到同等程度的重視.在自動化設計和部署過程之中著重考慮自動化信任問題,設計具有信任意識的人機系統(tǒng)至關(guān)重要,它有助于人機系統(tǒng)最大限度地發(fā)揮人與自動化機器的潛力,改善人機協(xié)同控制的績效和安全性.
圖1 自動化信任校準示意圖Fig.1 Diagram of calibration of trust in automation
目前,自動化信任相關(guān)研究主要集中在四個方面:自動化信任概念與內(nèi)涵、自動化信任模型、自動化信任影響因素、自動化信任測量方法.自動化信任研究的目標是在明確自動化信任概念及內(nèi)涵的基礎之上,通過構(gòu)建自動化信任模型、探究自動化信任影響因素、發(fā)展自動化信任測量方法,最終實現(xiàn)合適的自動化信任校準.因此,本文按照上述四個方面對迄今為止自動化信任研究的主要理論及實證工作進行綜述.
明確相關(guān)概念與內(nèi)涵是開展自動化信任理論及實證研究工作的基礎.已有文獻對自動化概念與內(nèi)涵的探究經(jīng)歷了以下三個階段:1)總結(jié)其他領(lǐng)域的信任研究,例如,人際信任[20?21]、虛擬團隊中的信任[22]、電子商務中的信任[23?25]、對信息系統(tǒng)的信任[26]等,綜合人機交互背景下的相關(guān)理論以及實證研究成果,探索自動化信任的本質(zhì),明確自動化信任定義及相關(guān)概念,發(fā)展自動化信任概念體系[14,27];2)總結(jié)人機交互領(lǐng)域的信任研究,例如,人?計算機交互中的信任[28?29]、人?機器人交互中的信任[30?31]、對決策支持系統(tǒng)的信任[32]、對車輛技術(shù)的信任[33]以及對人工智能算法的信任[34]等,在自動化信任概念及實證研究成果的基礎上,對已有自動化信任概念體系進行補充和完善[35?36];3)在一般自動化信任概念體系的基礎上,綜合特定人?自動化交互的特點,如人?機器人交互、人?自動駕駛汽車交互等,發(fā)展特定類型的自動化信任概念體系[30].三種類型的自動化信任概念研究相輔相成,層層遞進,向發(fā)展明確的、可操作的自動化信任概念體系的目標逐步前進,并為其他方面的自動化信任研究奠定理論基礎.下面,本文將對一般自動化信任概念及內(nèi)涵進行闡述.
1.1.1 自動化
自動化的發(fā)展和復雜化使自動化信任對人機協(xié)同控制效能的影響日益突出,明確自動化信任概念與內(nèi)涵需要建立在充分理解自動化的基礎之上.
自動化信任文獻中已經(jīng)出現(xiàn)了常用的自動化定義.Lee 和See 總結(jié)了自動化執(zhí)行任務的過程,將自動化定義為“主動選擇數(shù)據(jù)、轉(zhuǎn)換信息、做出決策或控制流程的技術(shù)”[27],該定義在自動化信任研究中得到廣泛應用.
然而,當前自動化信任文獻中的自動化內(nèi)涵并不清晰.在自動化信任主題相關(guān)文獻中,術(shù)語自動化(Automation)、自治(Autonomy)和自主系統(tǒng)(Autonomous system)經(jīng)常被互換使用,但它們的含義是存在差異的,明確三者之間的關(guān)系是深入理解自動化內(nèi)涵的關(guān)鍵.
自動化和自治的目的都是在很少或沒有人工干預的情況下完成任務,但早期自動化系統(tǒng)通常采用基于邏輯的編程,在實現(xiàn)這一目標的能力上是有限制的;自主系統(tǒng)則是基于計算智能和學習算法,根據(jù)操作和情境信息的輸入進行學習和進化以更好地適應不斷變化的情況,可以在不需人工干預的情況下長期、良好地完成目標[11],但是隨著時間的推移,系統(tǒng)的行為也必然變得更加不確定.自主系統(tǒng)自治水平的提高依賴于其自動化等級的增加,一個特定的自主系統(tǒng)可以包含部分或全部的自動化等級[37].然而,實現(xiàn)完全的系統(tǒng)自治是相當困難的,在未來很長一段時間內(nèi),大多數(shù)自主系統(tǒng)都將以某種程度的半自治(Semi-autonomy)存在,即只有系統(tǒng)的某些方面發(fā)展為自治.因此,自動化和自治這兩個術(shù)語并不存在一定形式的對立或矛盾,它們代表了連續(xù)的技術(shù)進化的不同階段[38],自治是自動化的后期發(fā)展,自主系統(tǒng)是能力更強且更加復雜的自動化系統(tǒng).本文綜述的自動化信任研究所涉及的自動化對象是指處于半自治程度的自動化系統(tǒng).
1.1.2 自動化信任
信任在眾多領(lǐng)域廣泛存在.信任及其在合作關(guān)系中的調(diào)節(jié)作用已經(jīng)在心理學、社會學、哲學、政治學、經(jīng)濟學等領(lǐng)域得到廣泛研究,在不同的研究領(lǐng)域存在超過300 個信任定義[39].然而,信任是一個復雜而模糊的概念,目前研究者們對信任的定義尚無共識[40].如何定義信任對于研究自動化信任具有重要的理論和實踐意義,不一致的信任描述會導致研究者們無法在先前研究的基礎上建立自動化信任的研究體系.
社會心理學中的人際信任研究可以為定義自動化信任提供重要借鑒.許多實證研究結(jié)果已經(jīng)表明,自動化信任與人際信任之間存在很多相似之處.人對技術(shù)的反應與對他人的反應密切相關(guān)[41],在人際信任與自動化信任之間有著很強的相似性,特別是在復雜環(huán)境下任務完成過程中持續(xù)的信任動態(tài)之間的對應關(guān)系[15],這種關(guān)系中的信任通常表現(xiàn)為受托者特征和行為的函數(shù)[42].神經(jīng)學研究也已證明,人際信任與人對技術(shù)的信任使用一些相同的神經(jīng)機制[43?44],其相似之處的一個潛在原因是,在某種程度上,人們對技術(shù)系統(tǒng)的信任代表了他們對這些系統(tǒng)的設計者的信任[17].
Billings 等回顧了302 個信任定義,包括220個人際信任定義以及82 個自動化信任定義,發(fā)現(xiàn)大量的自動化信任定義具體涉及期望、信心、風險、脆弱性、依賴、態(tài)度及合作等特征[45],如圖2 所示,其中橫坐標表示重要特征,縱坐標表示涉及該重要特征的自動化信任定義數(shù)量.
圖2 自動化信任定義涉及的重要特征Fig.2 Important characteristics involved in the definitions of trust in automation
大量的信任定義揭示了在人與自動化的合作關(guān)系中完成某項任務時所需的自動化信任的核心特征.首先,必須有一個委托者(操作人員)來給予信任,必須有一個受托者(自動化)來接受信任,必須有一些事情處在危險之中;其次,受托者必須具有某種執(zhí)行任務的動機,在人與自動化機器進行協(xié)同作業(yè)時,動機通常是基于設計者對機器的預期用途;最后,受托者必須有可能無法完成任務,帶來不確定性和風險.Lee 和See 通過全面考察信任對依賴自動化的影響,提出了一個包含信任核心特征的自動化信任定義,即在以不確定性和脆弱性為特征的情況下,代理將幫助實現(xiàn)個體目標的態(tài)度[27],它是迄今為止在自動化信任研究中使用最為廣泛的自動化信任定義.
在過去的幾十年中,研究人員已經(jīng)建立了許多自動化信任的定性和定量模型.然而,信任在人機交互中的普遍存在似乎掩蓋了這樣一個事實 — 自動化信任的發(fā)展機制以及量化計算并沒有得到充分研究.在本文考察的文章范圍內(nèi),雖然近年來自動化信任模型相關(guān)研究在持續(xù)增長,尤其是計算模型,但總體文獻數(shù)量仍然較少,如圖3 所示,其中橫坐標表示文獻數(shù)量,縱坐標表示文獻發(fā)表時間.
圖3 自動化信任模型文獻的時間分布Fig.3 Time distribution of the literature on models of trust in automation
1.2.1 自動化信任的定性概念模型
準確描述自動化信任的動態(tài)發(fā)展過程是正確研究自動化信任對人機協(xié)同控制效能影響的前提.研究人員已經(jīng)建立了許多自動化信任的定性概念模型來描述其動態(tài)發(fā)展過程,捕獲可能影響該過程的重要變量.這類模型的范圍很廣,從被認為或已知有因果關(guān)系而影響自動化信任的因素列表,到表示自動化信任與操作者對自動化行為的預測之間的因果關(guān)系的概念圖.這里將按照時間順序選取其中為該領(lǐng)域的發(fā)展做出重要貢獻的模型進行闡述.
1994 年,Muir 將Barber 對人際信任的定義[46]和Rempel 等的信任發(fā)展模型[47]擴展到人機關(guān)系中,明確了在復雜的、層次化的監(jiān)督控制環(huán)境中自動化信任的內(nèi)涵和動態(tài)性質(zhì),開發(fā)了一個研究自動化信任的綜合框架[14].為了檢查操作者的信任校準狀態(tài),Muir 等在該框架的基礎上提出了描述自動化、操作人員的信任和對自動化行為的預測之間關(guān)系的定性模型.隨后,Muir 等進行了過程控制仿真中信任與人工干預的實驗研究,發(fā)現(xiàn)自動化信任與使用之間高度正相關(guān)[48].Muir 等提出的概念模型是自動化信任研究領(lǐng)域的一個里程碑,它為計劃、解釋和整合自動化信任的研究提供了一個理論框架,但是隨著后續(xù)研究的不斷深入,該模型已經(jīng)被Lee 和See 提出的管理信任及其對依賴影響的動態(tài)過程的模型、Hancock 等提出的自動化信任的三因素模型以及Hoff 和Bashir 的三層自動化信任模型等重要模型所取代,新的模型可以更好地概述操作者與更加復雜的自動化系統(tǒng)協(xié)同作業(yè)時的自動化信任.
2004 年,Lee 和See[27]基于理性行動理論[49]考慮了影響信任的因素以及信任在調(diào)節(jié)對自動化的依賴中的角色,對Dzindolet 等的預測自動化使用的框架[50]進行了補充,提出了管理信任及其對依賴影響的動態(tài)過程的概念模型.該模型指出,自動化信任及其對行為的影響取決于操作者、環(huán)境、自動化和界面之間的動態(tài)交互.環(huán)境因素影響信念,而信任態(tài)度就是從信念演變而來的;信任與其他態(tài)度(例如,主觀工作負荷)相結(jié)合,形成依賴自動化的意圖;一旦意圖形成,時間限制或配置錯誤等因素以及自動化性能可能會影響人是否會將依賴的意圖轉(zhuǎn)化為行為,進而使用自動化;在使用自動化之后,通過自動化顯示來評估有關(guān)任務績效的信息,并反饋到關(guān)于自動化的信念之中.該模型是自動化信任領(lǐng)域影響最為深遠的模型之一,在此之后的自動化信任研究幾乎都達成了這樣一個共識:自動化信任取決于操作者、自動化和環(huán)境因素之間的動態(tài)交互.然而,由于信念、態(tài)度和意圖之間的區(qū)別很難在實驗環(huán)境中確定,所以該模型并沒有被廣泛用作實證研究的基礎.
2011 年,Hancock 等在人?機器人信任模型[30]的基礎上,通過回顧自動化信任相關(guān)文獻,發(fā)展出了自動化信任的三因素模型[40].該模型將影響自動化信任的因素分為與人、自動化和環(huán)境相關(guān)這三種類型,并進行了進一步的詳細分類.將與人相關(guān)的因素進一步分類為操作者特質(zhì)、操作者狀態(tài)、認知因素和情感因素這四種類型;將與自動化相關(guān)的因素進一步分類為自動化特性和自動化能力;將與環(huán)境相關(guān)的因素分類為與任務相關(guān)和與團隊相關(guān).Schaefer 等隨后又對該模型進行了大量的修改,三個主要因素被保留,但具體的調(diào)節(jié)因素發(fā)生了變化,信任的前因發(fā)生了重組[35].Hancock 等最初構(gòu)建自動化信任三因素模型的目的是通過考慮自動化信任的實證研究成果,進一步增強對人?機器人信任的理解,但該模型已經(jīng)得到更加廣泛的應用.
2015 年,Hoff 和Bashir 通過分析近年來自動化信任影響因素的實證研究,提出了一個綜合已有知識的三層信任模型[36].由于自動化信任變化的三個來源分別為操作者、自動化和環(huán)境,因此,他們將自動化信任的復雜性歸結(jié)為三個層次:傾向信任(Dispositional trust)、情境信任(Situational trust)和習得信任(Learned trust).傾向信任是個體信任自動化的持久傾向;情境信任依賴于交互的特定情境;而習得信任則是基于與特定自動化系統(tǒng)相關(guān)的過去經(jīng)驗,存在兩種類型的習得信任:初始習得信任和動態(tài)習得信任.決定傾向信任、情境信任和初始習得信任的因素決定了初始自動化信任水平,而動態(tài)習得信任則表示隨著操作者與自動化交互的繼續(xù)其自動化信任水平的后續(xù)變化.雖然影響每一層信任的因素各不相同,但這三層信任是相互依賴的.環(huán)境對情境信任有很強的影響,但操作者心理狀態(tài)的情境依賴變化也會改變信任;習得信任與情境信任密切相關(guān),因為它們都是由過去的經(jīng)驗所導致的,所不同的是導致信任的過去經(jīng)驗是與自動化系統(tǒng)相關(guān)(習得信任)還是與環(huán)境相關(guān)(情境信任).該模型可能是目前最全面的自動化信任概念模型,它適用于一系列自動化系統(tǒng)和情況,為未來的自動化信任研究提供了一個非常有用的框架.
目前,自動化信任概念模型正在從一般模型向針對性模型發(fā)展.在上述較為全面且影響深遠的概念模型的基礎上,一些研究者已經(jīng)提出了建模自動化信任特殊方面的自動化信任概念模型[51?53]以及與特定類型自動化相關(guān)的自動化信任概念模型[54].
1.2.2 自動化信任的定量計算模型
理解自動化信任本身并不是自動化設計人員的最終目標,他們的最終目的是改進人機系統(tǒng)設計從而消除其對人機協(xié)同控制效能的負面影響.因此,研究人員已經(jīng)提出了許多可以預測自動化信任水平或校準狀態(tài)的定量計算模型來為自動化設計及部署階段的改進工作提供指導依據(jù).
自動化信任的計算模型可以根據(jù)不同的維度進行分類,如概率性[55?57]和確定性[58?59]模型、認知[60?61]和神經(jīng)[62]模型等.從解決自動化開發(fā)各個階段的自動化信任問題的角度出發(fā),本文根據(jù)用于生成預測的輸入數(shù)據(jù)種類將自動化信任計算模型分為兩種類型:離線模型(Offline models)和在線模型(Online models)[63],自動化信任計算模型總結(jié)如表1 所示.
表1 自動化信任計算模型總結(jié)Table 1 Summary of computational models of trust in automation
1)離線模型
離線信任模型使用一組先驗設置的參數(shù)作為輸入來生成預測.這類模型通?;诜答佈h(huán),在給定時刻根據(jù)系統(tǒng)的變量值確定下一時刻的人機系統(tǒng)狀態(tài),包括信任水平、對自動化的依賴程度以及任務績效等.研究者們已經(jīng)提出了許多離線信任模型.
許多早期模型都屬于離線模型,例如,Lee 等使用時間序列分析方法來建模自動化系統(tǒng)故障對操作者信任動態(tài)的影響[64],該模型將故障發(fā)生情況以及自動化和人的績效作為輸入,通過構(gòu)建信任傳遞函數(shù)來預測操作者的自動化信任水平,其預測結(jié)果表現(xiàn)為手動控制和自動控制的選擇;Gao 等擴展了決策場理論來描述在監(jiān)督控制情況下操作者依賴自動化的多重連續(xù)決策,建立了描述自動化信任和依賴行為之間關(guān)系的模型[58],該模型將操作者的自動化信任和自信的初始水平以及自動化和操作者的能力作為輸入,信任和自信分別根據(jù)隨時間感知的自動化和人的績效而變化,利用信任和自信之間的差距來估計依賴于自動化的決策,依賴的決策決定了下一時刻任務是由操作者手動完成還是由自動化系統(tǒng)自動完成.
然而,早期離線模型對自動化信任動態(tài)的描述并不全面,例如,自動控制和手動控制的簡單描述并不適用于許多復雜自動化系統(tǒng).最近,一些研究者提出了更加全面的離線信任模型.例如,Akash等在現(xiàn)有的心理學文獻的基礎上確定了信任與經(jīng)驗直接相關(guān),并利用灰箱系統(tǒng)辨識技術(shù)基于500 多名被試的行為數(shù)據(jù)建立了較為簡單的、適用于反饋控制系統(tǒng)的三階線性自動化信任模型[65],該模型將經(jīng)驗和期望偏差作為輸入,將信任及累積信任水平作為模型輸出.它可以很好地捕獲自動化信任的復雜動態(tài),描述不同人口統(tǒng)計特征之間信任行為的差異.隨后,Hu 等在此模型的基礎上引入更多參數(shù)構(gòu)建了二階線性自動化信任模型,并使用大量人類受試者數(shù)據(jù)對模型進行參數(shù)化,該模型可以更準確地獲得自動化信任動態(tài)[66].
自動化信任的離線計算模型適用于評估人機系統(tǒng)在不同初始條件下的績效趨勢和總體績效,幫助研究人員獲得對不同因素如何相互作用以及決定人類行為的深入了解.由于離線信任模型能夠僅基于一組初始參數(shù)生成預測,它們可以用于在自動化系統(tǒng)尚未投入運行時預測被建模系統(tǒng)的行為,因此它們自然地適合被用于自動化系統(tǒng)開發(fā)的設計階段.
2)在線模型
除了使用一些先驗設置的參數(shù)值之外,在線模型還利用系統(tǒng)運行過程中觀察到的數(shù)據(jù)生成基于情境證據(jù)的預測,因此,它們可以用于實時估計信任水平.事實上,大多數(shù)現(xiàn)有的自動化信任計算模型都屬于在線模型.
一些研究者根據(jù)操作者行為數(shù)據(jù)來構(gòu)建在線信任模型.例如,Xu 等建立了在線概率信任推理模型[55],該模型基于行為數(shù)據(jù)和任務績效使用動態(tài)貝葉斯網(wǎng)絡來推斷操作者的實時信任狀態(tài),并且模型可以針對各個操作者進行訓練,從而對操作者的行為和態(tài)度進行可解釋和個性化的描述,與以往模型相比,它在預測精度和響應能力上都有很大進步;Akash 等在操作者與自動化決策輔助系統(tǒng)交互的背景下,建立了一個部分可觀察的馬爾科夫決策過程模型來描述自動化信任和工作負荷的動態(tài)變化[57],利用被試者數(shù)據(jù)來估計模型的轉(zhuǎn)換和觀察概率,研究系統(tǒng)透明度和操作者的經(jīng)驗對自動化信任和工作負荷的影響,隨后,他們將模型的直觀獎勵函數(shù)集成到研究框架中,用于評估自動化信任和工作負荷[67],該模型可以幫助操作者制定出近乎最優(yōu)的控制策略,通過改變自動化系統(tǒng)透明度來實現(xiàn)人機協(xié)作績效的改善.
另外一些研究者則使用操作者生理及神經(jīng)數(shù)據(jù)來構(gòu)建在線信任模型.例如,Hu 等采用五種機器學習分類算法將連續(xù)的腦電圖和皮膚電反應數(shù)據(jù)分類到不同的自動化信任水平,推導出多個自動化信任模型[68],這些模型的平均準確率為71.57 %,證明了心理生理學測量可以實時感知自動化信任水平.隨后,在此基礎上,Akash 等還進一步提出了另外兩種方法來構(gòu)建基于分類算法的自動化信任傳感器模型[69]:第一種方法是考慮一組常見的心理生理特征作為輸入變量,并使用該特征集訓練得到一個通用自動化信任傳感器模型;第二種方法是考慮為每個個體定制一個特征集,并使用該特征集訓練得到一個個性化自動化信任傳感器模型.雖然使用個性化模型測量自動化信任水平的績效優(yōu)于通用模型,但訓練個性化模型需要更長的時間,因此,這兩種方法的選擇需要權(quán)衡模型的訓練時間和績效.
最近,有學者同時使用操作者的行為數(shù)據(jù)和生理及神經(jīng)數(shù)據(jù)構(gòu)建在線信任模型,并取得了更高的準確率.例如,Akash 等在使用生理及神經(jīng)數(shù)據(jù)構(gòu)建的在線信任模型的基礎上,提出了一種自適應概率分類算法[70],該算法使用馬爾科夫決策過程來模擬先驗概率,采用自適應貝葉斯二次判別分類器模擬條件概率,以腦電和行為數(shù)據(jù)為基礎,實現(xiàn)了自動化信任的實時測量,并證明了模型的有效性,該分類算法的準確率明顯高于其他未考慮過程時間動態(tài)的分類算法.
自動化信任的在線計算模型使用可用的實時數(shù)據(jù)來提供信任水平的估計,該模型可用于自動化系統(tǒng)部署階段,依據(jù)實時信任結(jié)果通過調(diào)整自動化行為、自動化透明度以及自動化等級來改善操作者行為從而提高人機協(xié)同控制任務績效.
了解自動化信任影響因素對于預防不適當?shù)男湃涡适鞘直匾?在人機協(xié)同控制過程中,不同的操作者通常具有不同水平的自動化信任[71],這是因為信任校準過程受到除自動化本身之外的另外兩個來源特性影響的結(jié)果.大量的自動化信任實證研究揭示了自動化信任變化性的三個來源:操作者、自動化和環(huán)境[27,36].因此,存在三種類型的自動化信任影響因素:操作者因素、自動化因素和環(huán)境因素.自動化信任影響因素總結(jié)如圖4 所示.
圖4 自動化信任影響因素總結(jié)Fig.4 Summary of factors influencing trust in automation
1.3.1 自動化因素
在自動化信任的研究中,研究者們很自然地將重點放在人機系統(tǒng)的自動化因素上,目前已經(jīng)有一系列與自動化相關(guān)的信任影響因素被確定,它們主要分為兩種類型:與自動化能力相關(guān)和與自動化特性相關(guān).
1)與自動化能力相關(guān)
與自動化能力相關(guān)的自動化信任影響因素主要有可靠性、可預測性、故障等.
可靠性是指自動化系統(tǒng)功能的一致性.大量的證據(jù)表明,在各種任務環(huán)境下,高度可靠的自動化系統(tǒng)會促進操作者信任的增加[72?75],例如,始終表現(xiàn)良好的自動化比表現(xiàn)不佳的自動化更容易被信任[76?78].然而,自動化可靠性的增加可能會導致操作者監(jiān)視行為的減少[79].
可預測性是指自動化以符合操作者期望的方式執(zhí)行的程度.當操作者可以依據(jù)使用自動化的經(jīng)驗來預測自動化的表現(xiàn)時,他會持續(xù)信任自動化[14];當自動化出現(xiàn)操作者意料之外的反應時,操作者的信任水平可能會迅速下降,這通常會導致操作者對自動化提供的信息的不使用或忽視[51].
故障是特定的系統(tǒng)事件,與自動化的整體可靠性無關(guān).一般來說,系統(tǒng)故障對自動化信任有負面影響,故障發(fā)生通常會導致信任水平急劇下降,即使在故障恢復后系統(tǒng)的表現(xiàn)是持續(xù)可靠的,信任的恢復也比較慢[76,80].系統(tǒng)故障對信任的影響也大于系統(tǒng)可靠運行[81],在系統(tǒng)故障之后,信任的恢復要緩慢得多,并且通常不會達到以前的水平[64].
2)與自動化特性相關(guān)
與自動化特性相關(guān)的自動化信任影響因素主要有自動化的物理特征、自動化等級、系統(tǒng)透明度等.
自動化的物理特征如界面的擬人性會使操作者表現(xiàn)出更強的信任彈性[82?83].人們對被描述為專家系統(tǒng)的自動化的信任程度更高[84],但當自動化出錯時,這種信任可能會迅速降低[51].
自動化等級可能會使自動化信任的發(fā)展和改變復雜化[85].自動化等級越高,操作者就越難理解,這可能會導致其信任水平的降低[86].與自動化等級較高的系統(tǒng)相比,操作者可能會因為對自動化的控制程度較高而更傾向于信任自動化等級較低的系統(tǒng)[87].在某些情況下,自適應自動化可以有效地解決涉及不同自動化等級的權(quán)衡問題[88].
透明度是指自動化行為可以被理解和預測的程度[89],設計更加透明的自動化系統(tǒng)可以更好地促進適當?shù)男湃?提高任務執(zhí)行績效.例如,向操作者提供自動化可靠性的信息可以促進其自動化信任校準[90];向操作者解釋自動化故障發(fā)生的原因也可以提高其信任水平[91].
1.3.2 操作者因素
雖然目前的自動化信任影響因素研究對操作者因素的關(guān)注遠不及自動化因素[30],但自動化信任是一個以人為中心的結(jié)構(gòu),操作者因素是最重要的自動化信任影響因素.目前研究關(guān)注的影響信任的操作者因素主要有兩種類型:較為穩(wěn)定的操作者特性以及動態(tài)的操作者狀態(tài)[92].雖然操作者的自動化信任取決于其動態(tài)狀態(tài),但狀態(tài)的預測價值往往會受到其易變性、難測性以及由大量具有交互作用的變量引起的復雜性的限制,因此,現(xiàn)有文獻中對較為穩(wěn)定的操作者特性研究較多.
1)與操作者狀態(tài)相關(guān)
與操作者狀態(tài)相關(guān)的自動化信任影響因素主要有情緒、注意力控制等.
情緒與信任發(fā)展之間可能存在直接的關(guān)系.積極的情緒可以顯著增加信任水平[93?94],但可能導致過度依賴[79,95];與積極情緒相比,消極情緒的影響可能更大,它可能會導致信任下降[96]及隨后的停用[97].
注意力控制水平通常取決于操作者的工作負荷[78],但可能受到動機、疲勞、壓力或無聊等的影響[98].與注意力控制水平較高的操作者相比,水平較低的操作者可能會更加依賴自動化,即使系統(tǒng)的可靠性較低[99?100].
2)與操作者特性相關(guān)
與操作者特性相關(guān)的自動化信任影響因素主要有文化、年齡、性格特質(zhì)、經(jīng)驗知識、專業(yè)水平、自信等.
文化對人際信任具有顯著影響[101],一些研究證實了文化也影響自動化信任[102?103],但很少有研究表明文化對自動化信任的具體影響.
針對車輛自動化(如駕駛員預警系統(tǒng)[104?105])和決策輔助自動化(如藥物管理系統(tǒng)[106])的研究表明,老年人比年輕人更信任自動化.然而,不同年齡的操作者或用戶對自動化信任的評估策略可能有所不同,年齡對信任的具體影響可能會隨著情境的不同而變化[107].
操作者的某些性格特質(zhì)如內(nèi)向或外向[108?109]與其總體信任傾向高度相關(guān)[110].性格特質(zhì)對信任傾向的影響在信任發(fā)展初期占主導地位[21].與信任傾向較低的個體相比,信任傾向高的個體更可能信任可靠的系統(tǒng),但隨著自動化故障的出現(xiàn),他們的信任可能會顯著下降[71].操作者的總體信任傾向與其對特定系統(tǒng)的信任是不同的[17],性格特質(zhì)對自動化信任的影響可能會隨著自動化和任務的不同而變化[111].
對自動化的理解是影響信任的最強因素,其影響大于自動化的可靠性和能力[112].經(jīng)驗知識可以促進對自動化的理解[112],它對自動化信任的發(fā)展有著直接的影響[71,113].
提高操作者的專業(yè)水平通常會有助于其自動化信任的提高[113].專業(yè)水平越高,操作者就越不可能依賴自動化[114?115].然而,較高的專業(yè)知識水平可能會削弱操作者在與高可靠系統(tǒng)交互時監(jiān)控未預期狀態(tài)的能力[79].
自信已經(jīng)被證明是使用自動化的重要決定因素[116].自信在與控制分配相關(guān)的決策過程中發(fā)揮著重要的作用,早期研究提出了關(guān)于自信與信任的簡單關(guān)系:當信任超過自信時,就會使用自動控制;當自信超過信任時,就會使用手動控制[84,117].
1.3.3 環(huán)境因素
環(huán)境因素通常復雜多變且大部分不可控.雖然環(huán)境因素在一般自動化應用方面研究較多,但與自動化信任相關(guān)的研究仍然較少.已有研究表明,可能影響自動化信任的環(huán)境因素主要包括風險、工作負荷及組織設置等.
風險可能是影響自動化信任的最重要的環(huán)境因素之一,對自動化的依賴是由交互過程中固有的風險水平調(diào)節(jié)的[86].與低風險情況相比,一旦信任水平降低,操作者在高風險情況下重新使用自動化需要更長的時間[116],然而有關(guān)系統(tǒng)行為的預先信息可能會改變操作者對風險的看法,當操作者知道自動化何時以及可能會如何失敗時,他們的信任不會減少[118].
工作負荷通過影響操作者監(jiān)視自動化所需的時間和注意力來影響自動化信任[119].已經(jīng)證實,工作負荷會影響自我報告信任和依賴行為[119],信任和依賴之間的正相關(guān)關(guān)系也會受到工作負荷的調(diào)節(jié),當工作負荷很高時,無論信任水平如何,操作者都更依賴自動化[120].
當多個操作者共同承擔監(jiān)視自動化的責任時,單個操作者的自動化信任形成過程可能不同[36];某個操作者或主管的意見和期望可能會影響其他操作者對自動化的態(tài)度[121].
除了通過定量計算模型來預測自動化信任水平,獲得信任水平的另一種途徑就是借助某種手段及工具發(fā)展測量方法來量化信任.然而,自動化信任是一種純粹的心理結(jié)構(gòu)[14],對自動化信任進行測量是非常困難的.已有實證研究出現(xiàn)的自動化信任測量方法主要有三種:自我報告測量、行為測量和生理及神經(jīng)測量.如圖5 所示,在這篇文章所考查的實證研究中,大約64 %的研究使用某種形式的主觀自我報告量表,大約10 %的研究使用行為結(jié)果來推斷信任,而剩余研究則使用生理及神經(jīng)指標來測量信任.某些實證研究同時采用多種測量方法.
圖5 三種自動化信任測量方法的應用比例Fig.5 Application ratio of three trust in automation measures
1.4.1 自我報告測量
自我報告測量是唯一一種可以直接評估自動化信任水平的方法.
自動化信任的自我報告量表往往由1~10 個量表項組成,量表的范圍通常從“根本不(信任)”到“完全(信任)”.量表通常采用奇數(shù)項,這允許被試報告中立的信任水平.到目前為止,最常用的主觀驗證量表是Jian 等開發(fā)的7 分制12 項量表[122],該量表旨在衡量對自動化的總體信任程度,具有良好的內(nèi)部效度[123].另外,針對不同的研究對象,有學者開發(fā)了適用于不同研究目的自我報告量表,例如Mayer 等的信任傾向量表[124]、Lee 等的主觀評分量表[117]、Madsen 等的人機信任量表[125]、Chien 等的跨文化自動化信任量表[126]以及針對自動駕駛汽車[127]和機器人[128]等的自動化信任量表.
自我報告測量方法易于使用,如果研究者正確構(gòu)建了問卷或量表,那么該方法可以有效地反映操作者的自動化信任水平.然而,該方法對交互作業(yè)具有干擾性并且難以實時捕獲自動化信任的動態(tài)變化,它在實際環(huán)境中的應用受到很大限制.此外,該方法具有不可避免的缺陷,即被試可能不能或不愿意準確報告他們的真實態(tài)度,并且他們無法描述隱性態(tài)度對其信任水平的影響[95].
1.4.2 行為測量
為了彌補自我報告測量的缺陷,一些研究者開始從可見的行為中來推斷自動化信任水平.使用行為度量自動化信任主要是依據(jù)遵從和依賴的概念,即當操作員更傾向于遵從或依賴系統(tǒng)時,其自動化信任水平較高,反之則較低[129?131].遵從是指當自動化系統(tǒng)發(fā)出信號時,操作者做出響應;依賴則是指當自動化系統(tǒng)處于沉默狀態(tài)或正常運行狀態(tài)時,操作者不響應[132].常用測量行為及其典型例子的歸納如表2 所示.
表2 常見的自動化信任行為測量方法總結(jié)Table 2 Summary of common behavioural measures of trust in automation
行為測量方法旨在間接評估自動化信任水平,不具有干擾性,并且它提供了更加一致的測量手段,因此,行為測量結(jié)果可以更容易地被用作建模和預測的基礎.然而,在正常的自動化操作階段,某些用來推斷自動化信任水平的行為可能是不可見的,在這些情況下,行為測量方法有一定的局限性[140].此外,與自我報告測量一樣,行為測量很難捕獲自動化信任的實時動態(tài)變化.
1.4.3 生理及神經(jīng)測量
生理及神經(jīng)測量旨在通過測量與自動化信任相關(guān)的生理及神經(jīng)指標來對其進行實時測量,雖然該方法尚處于起步階段,但已有文獻表明它在獲取自動化信任的實時動態(tài)變化方面非常有效.
目前已被證明非常具有潛力的自動化信任生理及神經(jīng)測量方法主要使用眼動追蹤、腦電圖(Electroencephalogram,EEG)以及皮膚電活動(Electrodermal activity,EDA)等測量技術(shù),測量方法及其依據(jù)總結(jié)如表3 所示.
表3 重要的生理及神經(jīng)測量方法及其依據(jù)Table 3 Important physiological and neural measures of trust in automation and their basis
此外,一些研究者也探索了其他可以用于自動化信任測量的生理及神經(jīng)指標或測量技術(shù),包括外源性催產(chǎn)素[136]、面部表情[141]、聲音[141]、心率[141]及功能性磁共振成像[52]等.
生理及神經(jīng)測量具有連續(xù)、實時的特點,使用眼動追蹤、EEG 及EDA 等技術(shù)的測量方法非常具有前景,但目前尚不清楚在使用這些方法時,自動化信任對生理及神經(jīng)指標的影響可以在多大程度上與工作負荷、壓力或疲勞等其他因素產(chǎn)生的影響加以區(qū)分[152].因此,研究者們通常將多個生理及神經(jīng)指標相結(jié)合并且使用自我報告測量和行為測量方法來校準和驗證生理及神經(jīng)測量的結(jié)果.
理解自動化信任并將其融入到人機系統(tǒng)的設計和應用中對于提高人機協(xié)同控制的績效和安全性非常重要.本文在自動化信任文獻分析的基礎上,結(jié)合詳盡的研究現(xiàn)狀綜述,提煉出自動化信任研究趨勢及現(xiàn)存問題,從人機系統(tǒng)設計角度出發(fā),為未來的自動化信任研究提供一些建議.
國內(nèi)已有一些學者開始關(guān)注信任在智能時代的人機關(guān)系中的重要作用.北京郵電大學的劉偉認為,人機融合智能中的一個重要課題是如何解決人與機器之間的信任問題[153];浙江大學的許為在其探討以用戶為中心的設計的一系列文章中指出,智能時代的人機關(guān)系已經(jīng)演變?yōu)槿藱C組隊式合作,信任是人機組隊合作的基本特征之一,如何在人與自主系統(tǒng)之間維持適當?shù)男湃问俏磥砣藱C交互的研究重點之一[154].然而,國內(nèi)學者目前針對自動化信任的研究非常少,通過中國知網(wǎng)、維普、萬方三個中文文獻檢索平臺進行檢索,僅有兩篇中文文獻與自動化信任主題直接相關(guān),它們主要論述了自動化信任對航空安全的危害及相關(guān)改進分析[155?156].
針對上述情況,本文選擇以英文自動化信任文獻為基礎展開文獻分析.獲得本文所綜述的文獻范圍的具體步驟如下:1)確定研究主題為“trust in automation/automated system/autonomous system”,使用該主題在數(shù)據(jù)庫Web of Science 核心合集中對1980 年1 月至2020 年4 月的文獻進行檢索,獲得2 271 篇文獻;2)對2 271 篇文獻進行篩選,刪除重復及無關(guān)文獻,獲得415 篇文獻;3)基于415 篇文獻所引用的全部參考文獻,對其中不在本地文獻范圍內(nèi)的文獻進行篩選,選取以下兩類文獻:i)不包含檢索關(guān)鍵詞的相關(guān)文獻、ii)與檢索主題相關(guān)但不在Web of Science 核心合集數(shù)據(jù)庫中的相關(guān)文獻;4)通過互聯(lián)網(wǎng)英文文獻檢索平臺Web of Science、Google Scholar、Engineering Village 等來檢索上述兩類文獻并添加到本地文獻中,最終獲得472 篇文獻.其中,期刊論文301 篇,會議論文171 篇,語言為英語.在所調(diào)查的文獻范圍內(nèi),本文對自動化信任的總體發(fā)展趨勢、重點應用背景及研究對象進行文獻分析,結(jié)果如圖6 所示.
2.1.1 自動化信任的總體趨勢
從圖6 中的年文獻發(fā)表數(shù)量統(tǒng)計數(shù)據(jù)可以看出,自動化信任研究論文始現(xiàn)于1987 年.在1987年至2000 年間,自動化信任文獻年發(fā)表數(shù)量較少,共計20 篇,這表明在此期間的自動化信任研究處于萌芽階段,僅有少數(shù)研究者對其進行了零星探索.之后的2001 年至2010 年間,自動化信任年文獻發(fā)表數(shù)量總體呈現(xiàn)上升的趨勢,但數(shù)量仍然較少,共計84 篇,這表明在此期間的自動化信任研究正處于起步階段,發(fā)展較為緩慢.最近十年以來,自動化信任年發(fā)文量開始迅速增長,2011 年至2020 年4月的自動化信任研究論文總數(shù)增加到368 篇,自動化信任研究迎來其加速發(fā)展階段,自動化信任的研究范圍迅速擴大,自動化信任也已經(jīng)成為許多人機交互領(lǐng)域?qū)W者關(guān)注的熱點問題,可以預見,未來的自動化信任研究將保持持續(xù)快速增長的態(tài)勢.
圖6 與文獻發(fā)表趨勢、重點應用領(lǐng)域及研究對象相關(guān)的自動化信任文獻分析結(jié)果Fig.6 Results of literature analysis related to literature publication trends,key application areas and research objects of trust in automation
2.1.2 自動化信任的重點應用背景
自動化信任的研究涉及眾多領(lǐng)域,主要有軍事、醫(yī)療以及交通運輸?shù)?
在軍事領(lǐng)域,自動化信任問題尤為突出,因為軍事環(huán)境產(chǎn)生了最高形式的風險、脆弱性和不確定性,與此同時,高風險和高節(jié)奏的情境對軍事指揮和控制人員的精神和身體要求非常高,他們經(jīng)常處于極度不適和疲勞的狀態(tài),需要高度依賴自動化系統(tǒng)完成團隊任務[157],錯誤使用自動化系統(tǒng)的代價可能是致命的.因此,隨著武器裝備智能化、無人化趨勢日趨明顯,軍事領(lǐng)域?qū)ψ詣踊湃螁栴}越來越重視.
在醫(yī)療領(lǐng)域,由于輔助決策自動化系統(tǒng)如報警系統(tǒng)和建議系統(tǒng)被大量使用來提高決策效率,對這些決策支持系統(tǒng)的不當信任很可能會導致醫(yī)護人員做出錯誤的決策,造成嚴重的醫(yī)療事故.因此,為了保證相關(guān)操作人員對決策支持系統(tǒng)保持合適的信任,大量研究者在醫(yī)療背景下展開了與決策支持系統(tǒng)相關(guān)的自動化信任研究.
與交通運輸相關(guān)的自動化信任研究主要集中在航空領(lǐng)域和汽車領(lǐng)域.在航空領(lǐng)域,長期以來,飛行員、空中交通管制員或其他操作人員的自滿和對自動化系統(tǒng)的過度依賴所導致的自動化誤用一直被認為是造成航空事故的主要原因,這些事故具有嚴重的經(jīng)濟和安全后果,而許多實證研究已經(jīng)證明,自滿和依賴與過度的自動化信任密切相關(guān)[78],因此,為了保證航空事業(yè)安全健康地發(fā)展,航空領(lǐng)域率先開展了自動化信任相關(guān)研究.在汽車領(lǐng)域,近年來,隨著軟硬件平臺、人工智能和傳感器技術(shù)等的進步,自動駕駛技術(shù)得到飛速發(fā)展.汽車制造商如特斯拉等已經(jīng)制造出了商用的半自動和全自動駕駛汽車.然而,在全世界推廣自動駕駛汽車的一個主要挑戰(zhàn)是,消費者對自動駕駛汽車高度不信任.駕駛員的自動化信任對于接受和正確使用自動駕駛汽車至關(guān)重要,因此,以自動駕駛汽車為研究對象的自動化信任研究急速增長.
目前,由于自動化信任相關(guān)研究仍然停留在理論階段,許多研究只針對特定類型的自動化系統(tǒng),而沒有強調(diào)其應用背景,與軍事領(lǐng)域和醫(yī)療領(lǐng)域直接相關(guān)的自動化信任文獻數(shù)量較少.
2.1.3 自動化信任的重點研究對象
對自動化信任實證研究的調(diào)查表明,自動化信任研究對象主要有以下三類:自動決策輔助系統(tǒng)、機器人和自動駕駛汽車.
自動決策輔助系統(tǒng)是在復雜環(huán)境中支持人類決策的自動化系統(tǒng),這些系統(tǒng)旨在通過提供自動生成的線索來支持人類信息分析或響應選擇的認知過程,以幫助用戶正確評估給定的情況或系統(tǒng)狀態(tài),并做出適當?shù)捻憫?自動決策輔助系統(tǒng)主要有兩種功能:報警和建議.報警功能是簡單報警系統(tǒng)的主要功能,它通常被嵌入到更復雜的決策輔助系統(tǒng)中,使用戶了解可能需要采取行動的情況變化,例如,汽車導航設備為駕駛員提供駕駛建議;飛機駕駛艙預警系統(tǒng)(如交通沖突和警報系統(tǒng)和近地警告系統(tǒng))為飛行員提供特定的指令;醫(yī)療專家系統(tǒng)提供關(guān)于病人治療方案和藥物劑量選擇的建議.自動決策輔助系統(tǒng)對提高人員決策效率具有重要價值,尤其是在錯誤決策會對經(jīng)濟和安全造成嚴重后果的領(lǐng)域.如果要實現(xiàn)決策輔助的好處,就需要適當?shù)厥褂盟?然而,在實際應用中,由于操作人員不適當?shù)男湃涡?決策輔助系統(tǒng)經(jīng)常被錯誤使用,與自動決策輔助系統(tǒng)相關(guān)的自動化信任研究很有必要.
機器人經(jīng)常被用于人無法到達或不安全的環(huán)境,從事會對人造成危險的活動如行星探索、軍事打擊、城市搜索與救援等,或者需要復雜技能和信息整合的活動如外科手術(shù)等.機器人的使用正在滲透到許多不同的應用領(lǐng)域,并且,機器人與其他大多數(shù)自動化系統(tǒng)有著許多不同之處.它們是可移動的,有時它們的外觀被制造為接近人類或動物,而且它們通常被設計成在一定距離內(nèi)執(zhí)行動作.這些差異可能表明,與其他形式的自動化機器相比,人對機器人的信任可能有所不同.因此,許多研究者致力于探索人對機器人的信任這種特殊類型的自動化信任.
與自動駕駛汽車相關(guān)的自動化信任研究主要分為兩種類型:1)針對自動駕駛汽車整體;2)針對自適應巡航控制系統(tǒng)[142,158]和車載導航系統(tǒng)[159?160]等具體子系統(tǒng).在消費者購買自動駕駛汽車之前,針對自動駕駛汽車整體的自動化信任研究主要關(guān)注用戶對自動駕駛汽車的初始信任程度對其接受程度與購買意愿的影響[148,161?162],以及影響初始信任的因素[123,163];在用戶與自動駕駛汽車的交互過程中,用戶對具體子系統(tǒng)的信任決定了其能否正確使用自動駕駛汽車,研究該過程的自動化信任動態(tài)、影響因素、信任量化與測量等[164]有助于汽車設計者改進相關(guān)子系統(tǒng)設計,確保駕駛員建立適當?shù)淖詣踊湃?以預期的方式正確使用自動駕駛汽車.
2.1.4 自動化信任的主要研究團體
通過文獻分析可知,共有36 個國家及地區(qū)的422 個研究機構(gòu)發(fā)表了自動化信任研究論文.自動化信任主要研究團體及其研究貢獻總結(jié)如表4 所示.
表4 自動化信任的主要研究團體及其研究貢獻Table 4 Main research groups of trust in automation and their research contributions
自動化信任對于解決人與自動化機器團隊合作中的模糊性和不確定性問題,從而最大限度地發(fā)揮人與自動化機器各自的優(yōu)勢具有直接意義,在人機系統(tǒng)設計中充分考慮自動化信任的影響是實現(xiàn)更加安全有效的人機協(xié)同控制的關(guān)鍵.近年來,自動化信任相關(guān)研究數(shù)量快速增長,研究范圍迅速擴大,研究內(nèi)容也越來越多地涉及眾多應用背景下的多種自動化對象及用戶,自動化信任已經(jīng)成為復雜人機系統(tǒng)設計中的焦點問題.然而,目前的自動化信任研究仍然處于理論研究階段,并沒有被用于解決人機系統(tǒng)設計中存在的實際問題,確保操作者保持合適自動化信任校準狀態(tài)的人機系統(tǒng)設計方法體系還處于起步階段,這主要是由于自動化信任相關(guān)理論及實證研究尚不充分.本文在詳盡的研究綜述及文獻分析的基礎上,從人機系統(tǒng)設計的角度出發(fā),提煉出現(xiàn)有自動化信任研究存在的共性問題并給出可能的解決方案.
目前,自動化信任研究尚不充分,在自動化信任的理論研究、量化計算及實證研究三個方面仍然存在如下問題:
1)在自動化信任的理論研究方面.目前,雖然已經(jīng)出現(xiàn)了常用的自動化信任定義和影響深遠的一般自動化信任概念模型,但自動化信任定義仍然缺乏清晰性和一致性,自動化信任概念模型也缺乏針對性和可操作性.自動化信任是一種隱藏的心理結(jié)構(gòu),研究者們通常在明確信任定義的基礎上建立某些假設來推斷其動態(tài)發(fā)展過程,為后續(xù)的計算建模、影響因素及測量方法研究奠定理論基礎,模糊以及不一致的自動化信任定義會對后續(xù)研究方向產(chǎn)生根本性影響,這使得學者在綜合先前工作的基礎上建立研究變得困難.自動化信任對情境及自動化對象高度敏感,一般自動化概念模型可操作性較差,只能對某種應用背景下的、針對特定類型自動化對象的人機系統(tǒng)設計提供有限指導,而具有針對性的特殊自動化信任概念模型較少且研究者們尚未達成共識.
2)在自動化信任的量化計算方面.目前研究主要通過在發(fā)展自動化信任測量方法的基礎上建立定量計算模型對信任水平進行預測.如前所述,自動化信任計算模型可以分為兩種類型:用于在人機系統(tǒng)設計階段評估系統(tǒng)績效以確定可能的改進或干預措施的離線模型、用于在人機系統(tǒng)部署階段估計實時信任狀態(tài)以觸發(fā)自動化機器適應行為的在線模型,這些計算模型為開發(fā)具有信任意識的人機協(xié)同控制框架開辟了道路.然而,三種主要的自動化信任測量方法都存在其不足之處,這對以此為基礎的計算模型預測結(jié)果的準確性產(chǎn)生嚴重危害.更重要的是,現(xiàn)有計算模型具有高度的情境和對象依賴性,離線模型的預測能力非常有限,而大多數(shù)在線模型也無法滿足實時準確地預測自動化信任的現(xiàn)實需求.
3)在自動化信任的實證研究方面.自動化信任的實證研究主要與探究自動化信任影響因素有關(guān).自動化信任的量化計算用于評估操作者信任狀態(tài)確定是否改進人機系統(tǒng)設計或行為,而影響因素的實證研究則提供改進人機系統(tǒng)以實現(xiàn)自動化信任校準所需調(diào)整的設計要素.在自動化信任影響因素的實證研究中,與自動化相關(guān)的影響因素研究占據(jù)很大比例,但這些研究工作的重心集中在與自動化能力相關(guān)的因素上,隨著自動化能力的提高,與自動化特性相關(guān)的因素以及與操作者相關(guān)的因素在自動化信任校準中的重要性日益突顯,而與此相關(guān)的實證研究并不充分.
針對上述問題,未來的自動化信任研究工作可以考慮從以下方面著手:
1)在現(xiàn)有研究的基礎上,結(jié)合認知心理學、腦科學以及人機交互領(lǐng)域的最新進展,對自動化信任這一隱藏的心理狀態(tài)的本質(zhì)及其動態(tài)發(fā)展過程做出更加合理的推斷,明確自動化信任定義,完善一般自動化信任概念模型,并在此基礎上充分考慮人機協(xié)同控制應用背景、任務情境、自動化對象以及操作人員特點,發(fā)展更具針對性和可操作性的自動化信任概念模型.
2)在現(xiàn)有測量方法的基礎上,識別多種測量方法結(jié)果之間的不一致,尋找行為指標和生理及神經(jīng)指標與主觀信任水平的對應關(guān)系,確定更加準確的實時測量指標,以識別動態(tài)自動化信任的基本狀態(tài)(適當?shù)男湃?、信任不足和過度信任).在準確的自動化信任測量方法的基礎上,根據(jù)計算模型的預期用途,準確表示模型作用條件,涵蓋產(chǎn)生重要影響的環(huán)境及個體因素,并且考慮未建模因素對模型性能的不良影響,構(gòu)建滿足不同設計階段需求的自動化信任計算模型以改進人機系統(tǒng),使操作者達到合適的自動化信任校準狀態(tài).
3)目前的實證研究關(guān)注構(gòu)建“透明”的自動化系統(tǒng)和個性化的自動化信任校準.操作者對自動化的理解是最為重要的自動化信任影響變量,而提高自動化系統(tǒng)透明度可以顯著增強理解,因此,研究者對系統(tǒng)透明度這個自動化特性的興趣日益增加,最近的研究特別強調(diào)了反饋、反饋的透明度與自動化信任校準之間的相互作用,并且致力于尋找合適的透明度水平以在達到自動化信任校準的同時消除透明度提高給其他人類認知變量如工作負荷等帶來的負面影響,未來的實證研究仍然應該繼續(xù)將系統(tǒng)透明度作為研究重點.個性化的自動化信任校準主要用于針對用戶廣泛且多樣化的自動化機器如自動駕駛汽車等的設計改進之中,這使得定制化的自動化設計成為可能.由于動態(tài)的操作者狀態(tài)預測價值較差,較為穩(wěn)定的操作者特質(zhì)成為個性化自動化信任校準的關(guān)鍵,雖然此類影響因素如文化、年齡等已經(jīng)被證明會影響自動化信任,但具體影響效應尚不明晰,一些實證研究甚至會得出相互矛盾的結(jié)論,需要進一步明確與個體特質(zhì)相關(guān)的因素對自動化信任的影響效應.此外,開發(fā)可靠有效的操作者特質(zhì)測量工具如心理學量表等對實證研究工作非常重要,測量工具應能解釋與自動化信任相關(guān)的個體特征的大部分差異,預測和突出與自動化交互的個體可能出現(xiàn)的重要問題,針對性地改進人機系統(tǒng)設計以及制定個性化的人員培訓策略,實現(xiàn)更加精確的個性化自動化信任校準.