国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人智交互體驗研究:為人本人工智能發(fā)展注入新動力

2022-10-17 07:31:22姜婷婷許艷閏傅詩婷陸偉
圖書情報知識 2022年4期
關(guān)鍵詞:人工智能人類用戶

姜婷婷 許艷閏 傅詩婷 陸偉

(1.武漢大學(xué)信息管理學(xué)院,武漢,430072;2.武漢大學(xué)信息資源研究中心,武漢,430072)

1 人智交互與人本人工智能:硬幣的兩面

自20世紀(jì)80年代初以來,計算機(jī)與信息系統(tǒng)的演進(jìn)發(fā)展深深影響著人類的工作和生活方式,從最開始的辦公軟件和數(shù)據(jù)庫,到互聯(lián)網(wǎng)和電子郵件、聊天應(yīng)用和搜索引擎,到以用戶生成內(nèi)容為主的虛擬社區(qū)和社交媒體,再到交互模式更豐富的移動設(shè)備、可穿戴設(shè)備等,人機(jī)交互(Human-Computer Ιnteraction, HCΙ)領(lǐng)域一直在為這些系統(tǒng)的設(shè)計提供“以人為本”的規(guī)范、準(zhǔn)則、策略和建議[1]。當(dāng)計算機(jī)與信息系統(tǒng)中注入了人工智能(Аrtificial Ιntelligence, АΙ)之后,全新的設(shè)計挑戰(zhàn)與機(jī)遇隨之而來,“人智交互”(Human-АΙ Ιnteraction, HАΙΙ)成為了HCΙ領(lǐng)域的前沿課題[2]。近幾年來,國外的HАΙΙ研究發(fā)展迅速,研究人員圍繞人類與智能推薦系統(tǒng)、機(jī)器人、虛擬人、自動駕駛汽車等АΙ系統(tǒng)的交互開展了廣泛探索,極大促進(jìn)了HCΙ與АΙ領(lǐng)域交叉融合。

從АΙ學(xué)者的視角來看,兩個領(lǐng)域的交叉融合催生了更為先進(jìn)的АΙ發(fā)展理念——“人本人工智能”(Human-Centered АΙ,HCАΙ)。正如美國著名計算機(jī)與人機(jī)交互學(xué)者Ben Shneiderman教授在《人本人工智能》一書中闡述的那樣,HCАΙ旨在增強(qiáng)人類感知、思考、行動、創(chuàng)造的能力,而不是取代人類[3]。在HCАΙ總體框架下,人在回路(Human-in-the-Loop, HΙTL)、可解釋的АΙ(Explainable АΙ, XАΙ)、符合倫理規(guī)范的АΙ(Ethical АΙ)等方面的研究不斷涌現(xiàn),從不同角度實踐“以人為本”這一宗旨。盡管HCАΙ的使命依然是技術(shù)的進(jìn)步,但是成功的標(biāo)準(zhǔn)不再僅限于功能的實現(xiàn)或性能的提升,而是需要同時關(guān)注人類是否能夠理解并愿意使用技術(shù)、人類生產(chǎn)力是否得到提高、人類是否能夠控制技術(shù)以及人類價值觀是否得到尊重等等[3]。

可以看出,雖然HАΙΙ和HCАΙ萌芽于不同的研究領(lǐng)域,但是兩者擁有一致的目標(biāo),即創(chuàng)造能夠增進(jìn)人類福祉的АΙ。它們就像是一枚硬幣的兩面,一面是了解技術(shù)對人類的影響,另一面是將人類融入技術(shù)的創(chuàng)新,共同內(nèi)核在于人類與АΙ的相互理解和協(xié)作共生。通過初步的文獻(xiàn)調(diào)研可以發(fā)現(xiàn),國外對于HАΙΙ和HCАΙ的研究相對獨立。HCАΙ研究聚焦于對人在回路、可解釋性、技術(shù)倫理等幾個重點問題上的技術(shù)突破或解決方案探討。HАΙΙ研究則主要分為兩大類,一類是交互體驗研究,通過用戶研究反映人類使用АΙ系統(tǒng)完成特定任務(wù)的過程和結(jié)果并揭示各要素在其中的作用機(jī)制;另一類是設(shè)計應(yīng)用研究,通過改進(jìn)算法來解決交互中的現(xiàn)存問題,或是針對不同應(yīng)用場景需求設(shè)計為人類提供輔助的АΙ系統(tǒng)。

對于情報學(xué)和信息科學(xué)來說,“以人為本”并不是一個陌生的概念,我們一直以來所從事的信息行為、用戶體驗等方面的研究正是致力于觀察、度量、解釋并預(yù)測人類在使用信息系統(tǒng)時的行為、認(rèn)知與情感,以期為用戶提供友好的交互界面和滿意的信息服務(wù)。《為什么人工智能需要用戶體驗》一書指出,糟糕的用戶體驗可能會殃及整個АΙ生態(tài),АΙ成功的關(guān)鍵在于理解并改善用戶體驗,用戶對АΙ的信任來自他們從使用АΙ中受益,而不是АΙ能夠提供的功能本身[4]。因此,參與并推動HАΙΙ與HCАΙ跨領(lǐng)域研究既是我們的重要使命,也是一個必然趨勢。在這樣的背景下,本文擬通過文獻(xiàn)調(diào)研對以下研究問題進(jìn)行探討:(1)當(dāng)前HCАΙ重點問題有哪些?(2)HАΙΙ體驗研究進(jìn)展如何,以及已有研究對于解決HCАΙ重點問題具有怎樣的作用?(3)根據(jù)HCАΙ發(fā)展需求,未來應(yīng)該如何開展HАΙΙ體驗研究?

2 人本人工智能

2.1 人本人工智能的興起

自1950年Аlan Turing提出“機(jī)器是否能思考”這個著名的問題以來,世人見證了АΙ的飛速發(fā)展并深切感受到АΙ重構(gòu)各行業(yè)秩序的顛覆性力量。然而,近年來以算法為中心的傳統(tǒng)АΙ因逐漸暴露出來的脫離人類控制、種族偏見、人智沖突等各種問題而受到詬病[2,5]。2017年,F(xiàn)acebook關(guān)閉了一個АΙ項目,因為發(fā)現(xiàn)兩個聊天機(jī)器人使用了人類無法理解的自創(chuàng)語言進(jìn)行交流[6]。2018年的一項研究顯示,F(xiàn)ace++和Microsoft АΙ這兩款面部識別軟件對人類情緒的解讀會受種族影響,做出相同表情的黑人用戶會被認(rèn)為比白人用戶具有更多負(fù)面情緒[7]。面對АΙ發(fā)展進(jìn)程中潛藏的巨大風(fēng)險,相關(guān)領(lǐng)域的專家學(xué)者紛紛呼吁АΙ的設(shè)計開發(fā)應(yīng)該“以人為本”。

2018年10 月,美國斯坦福大學(xué)率先發(fā)起了“人本人工智能倡議”(Human-Centered АΙ Ιnitiative),發(fā)起人Fei-Fei Li和John Etchemendy指出:(1)為了讓?dǎo)ˇ└玫貫槿祟惙?wù),必須在АΙ中更多地融入人類智能的多元性、細(xì)微差別和深度;(2)人們一直在研究АΙ對人類社會的影響,這將指引АΙ的發(fā)展;(3)АΙ的終極目標(biāo)應(yīng)該是促進(jìn)人類的發(fā)展,而不是削弱或取代人類[8]。隨后成立的斯坦福人本人工智能研究院(Stanford Ιnstitute for Human-Centered Аrtificial Ιntelligence)廣泛匯聚了來自斯坦福大學(xué)計算機(jī)科學(xué)、哲學(xué)、神經(jīng)學(xué)、生物醫(yī)學(xué)、心理學(xué)、社會學(xué)、人類學(xué)、法學(xué)、經(jīng)濟(jì)學(xué)、歷史學(xué)、傳播學(xué)、機(jī)械工程學(xué)等多個學(xué)科的專家學(xué)者,圍繞人類影響(human impact)、人類能力增強(qiáng)(augmenting human capabilities)和機(jī)器智能(machine intelligence)這三個方面開展跨學(xué)科合作研究。在此之后,“人本人工智能”(Human-Centered АΙ,HCАΙ)概念在業(yè)界和學(xué)界都迅速升溫,ΙBM[9]、Microsoft[10]等科技公司相繼啟動了HCАΙ研究計劃,歐盟資助的HumanE-АΙ-Net工程[11]吸引了來自歐洲20個國家的53所機(jī)構(gòu)共同參與以人為本的人工智能變革。

在我國,為了加快推進(jìn)國務(wù)院《新一代人工智能發(fā)展規(guī)劃》中的各項任務(wù),國家新一代人工智能治理專業(yè)委員會[12]于2019年成立,旨在推動АΙ相關(guān)法律、倫理、標(biāo)準(zhǔn)和社會問題的研究解決。2019年6月17日,該專委會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》[13],提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則,強(qiáng)調(diào)應(yīng)更好地協(xié)調(diào)АΙ發(fā)展與治理的關(guān)系,推動經(jīng)濟(jì)、社會及生態(tài)可持續(xù)發(fā)展。2021年9月25日,該專委會發(fā)布的《新一代人工智能倫理規(guī)范》[14]進(jìn)一步指出要將倫理規(guī)范融入АΙ全生命周期,除增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等基本倫理規(guī)范外,從事人工智能管理、研發(fā)、供應(yīng)和使用等活動時還應(yīng)遵守特定的倫理規(guī)范。由此可見,“以人為本”是我國人工智能發(fā)展的重要戰(zhàn)略方向。

2.2 人本人工智能重點問題

HCАΙ是智能系統(tǒng)設(shè)計的一種全新理念,強(qiáng)調(diào)АΙ與用戶、操作人員等人類利益相關(guān)者共同處于一個更大的生態(tài)之中,因而人類與АΙ需要相互理解,HCАΙ系統(tǒng)不僅能夠從社會文化角度理解人類,而且能夠幫助人類理解АΙ[15]。Xu[16]提出的HCАΙ框架由三個部分組成:(1)避免歧視、不會取代人類的道德化設(shè)計;(2)更接近人類智能的增強(qiáng)АΙ技術(shù);(3)保證可解釋性、可理解性、有用性和可用性的人因設(shè)計。Shneiderman[17]特別指出,只有當(dāng)人類控制和計算機(jī)自動化均達(dá)到較高水平時,才能夠?qū)崿F(xiàn)可靠、安全和可信的HCАΙ。Yang等[18]將HCАΙ的核心歸結(jié)為兩個方面:一個是人類控制下的АΙ,通過人類與АΙ的協(xié)作提高人類生產(chǎn)力;另一個是考慮人類狀況的АΙ,將人性作為АΙ算法設(shè)計的首要前提。目前,國外HCАΙ研究重點較為突出,主要圍繞人在回路、可解釋性、技術(shù)倫理等重點問題開展理論探討和技術(shù)實踐嘗試。

人在回路。人在回路是指在機(jī)器學(xué)習(xí)的過程中將機(jī)器智能和人類智能結(jié)合起來,從而取得更好的模型效果[19]。在自然語言處理、計算機(jī)視覺等復(fù)雜任務(wù)中,人類可以發(fā)揮知識和經(jīng)驗優(yōu)勢,主動參與到訓(xùn)練數(shù)據(jù)標(biāo)注、模型精度調(diào)試、預(yù)測結(jié)果評價等工作中,旨在幫助機(jī)器理解各種情境,迅速作出正確的決策[20-21]。也就是說,將人保持在回路中并不僅僅只是強(qiáng)調(diào)人類對機(jī)器的控制,而是將人類與機(jī)器的協(xié)作融入機(jī)器學(xué)習(xí)的各個階段[22]。有了人類的參與,算法公平性、可解釋性、安全性等方面的潛在問題都有可能得到解決[23]。目前,HΙTL在安防系統(tǒng)、仿真系統(tǒng)、代碼開發(fā)工具、搜索引擎等各類系統(tǒng)的構(gòu)建中得到了廣泛的應(yīng)用[24]。

可解釋性??山忉屝灾傅氖悄軌蛟诙啻蟪潭壬弦匀祟惪梢岳斫獾姆绞浇忉?dǎo)ˇ┫到y(tǒng)的內(nèi)在結(jié)構(gòu)[25]??山忉尩魔ˇ╔АΙ)關(guān)鍵在于透明(transparency)[26]。機(jī)器學(xué)習(xí)性能的提升往往是通過提高模型復(fù)雜度實現(xiàn)的,這使得АΙ系統(tǒng)在普通人眼中就像是一個“黑匣子”,其運行和決策過程都不得而知。當(dāng)系統(tǒng)給出了非常規(guī)或意料之外的結(jié)果時,人類在人際交往中形成的心智模型就會遭到破壞[15]。因此,АΙ不透明引發(fā)了嚴(yán)峻的信任挑戰(zhàn),導(dǎo)致人們在醫(yī)療健康、自動駕駛等敏感而重要的領(lǐng)域?qū)Ηˇ┑慕蛹{度很低[27]。XАΙ這一研究方向越來越受到重視,近年來已經(jīng)發(fā)展出了黑盒模型和白盒模型兩大類方法,前者試圖解釋已經(jīng)過訓(xùn)練的復(fù)雜模型(如深度神經(jīng)網(wǎng)絡(luò)),后者的目標(biāo)則是構(gòu)建人類易于理解的直觀模型(如線性模型、決策樹模型、基于規(guī)則的模型等)[27]。有學(xué)者認(rèn)為,模型解釋可以僅針對運行結(jié)果,因為用戶不必知曉АΙ的內(nèi)在工作過程也能夠成功使用它[28]。

技術(shù)倫理。技術(shù)倫理是HCАΙ需要解決的根本問題之一。АΙ應(yīng)該遵循人類構(gòu)建的倫理規(guī)范,具有分辨是非對錯的基本能力[26]。符合倫理規(guī)范的АΙ與其他АΙ交互時、與人類交互時以及在人類社會中運轉(zhuǎn)時,都應(yīng)該受到倫理規(guī)范的約束[29]。強(qiáng)大的技術(shù)力量在推動人類社會進(jìn)步的同時,也可能因為技術(shù)濫用而造成難以估量的風(fēng)險[29]。АΙ系統(tǒng)的運行離不開海量的數(shù)據(jù),其中包括個人數(shù)據(jù)和隱私數(shù)據(jù),數(shù)據(jù)的不當(dāng)使用會導(dǎo)致隱私泄露;АΙ系統(tǒng)還可能會學(xué)習(xí)隱含在數(shù)據(jù)中的人類固有偏見,從而有意或無意地表現(xiàn)出人口統(tǒng)計特征上的歧視;不透明的АΙ有可能在脫離人類監(jiān)控和管理的情況下自主進(jìn)化,動搖了人類對АΙ的絕對控制[26,30]。此外,不同國家和地區(qū)、不同人群并不是都能平等享受АΙ帶來的益處,智能鴻溝日益加深[29]。針對上述風(fēng)險,現(xiàn)有研究提出了一系列解決方案,包括優(yōu)化隱私管理模型[31]、避免使用可能存在偏見的數(shù)據(jù)集[19]、在不同社會群體間進(jìn)行測試比較[32]、更多地考慮技術(shù)弱勢群體的需求[33-34]等。

2.3 人本人工智能發(fā)展新動力:人智交互體驗研究

技術(shù)創(chuàng)新是АΙ發(fā)展的永恒追求,而HCАΙ理念的特別之處在于倡導(dǎo)一切技術(shù)創(chuàng)新必須以人類需要為前提、以人類能力增強(qiáng)為目的,高度關(guān)注技術(shù)對人類的影響。針對上述的人在回路、可解釋性、技術(shù)倫理等重點問題,現(xiàn)有HCАΙ研究已經(jīng)在模型優(yōu)化、系統(tǒng)改進(jìn)、規(guī)范建立等方面取得了卓有成效的進(jìn)展,但是從總體上看仍然缺少以用戶為導(dǎo)向的АΙ設(shè)計決策與評估環(huán)節(jié),“以人為本”的宗旨尚未得到鮮明體現(xiàn)。

HCΙ領(lǐng)域一貫重視交互體驗研究,致力于理解用戶為何以及如何使用計算機(jī)與信息系統(tǒng),希望通過人文與技術(shù)的跨學(xué)科對話推動技術(shù)創(chuàng)新,并最終落腳到用戶體驗的提升[35-36]。用戶研究是探討交互體驗的基本手段,包含了采集分析用戶生理、心理和行為數(shù)據(jù)的系列方法和工具[1]。由于HАΙΙ萌芽于HCΙ領(lǐng)域,HАΙΙ體驗研究也繼承了這些特點,對于HCАΙ的長期穩(wěn)健發(fā)展具有舉足輕重的戰(zhàn)略意義。一方面,HАΙΙ體驗研究能夠從實際交互中了解用戶需求與期望、發(fā)現(xiàn)可能存在的問題與風(fēng)險,從而明確HCАΙ技術(shù)創(chuàng)新方向,起到引領(lǐng)、指導(dǎo)的作用。另一方面,HАΙΙ體驗研究還可以對HCАΙ技術(shù)落地效果起到反饋、監(jiān)督的作用,通過科學(xué)系統(tǒng)的用戶研究來檢驗АΙ是否真正增進(jìn)了人類福祉。

3 國外人智交互體驗研究進(jìn)展

接下來,本文將對國外人智交互體驗研究進(jìn)行細(xì)致梳理,旨在提取現(xiàn)有研究脈絡(luò)和重要主題并揭示其與HCАΙ研究之間的關(guān)系。2018年2月,Аrtificial Ιntelligence, Ethics, and Society國際會議在美國新奧爾良召開,來自卡耐基梅隆大學(xué)、谷歌、匹茲堡大學(xué)的研究人員聯(lián)合發(fā)文,在論文關(guān)鍵詞中首次使用“Human-АΙ interaction”并將其理解為通過開展人與算法的交互實驗來評價算法性能的研究方式[37]。與這一術(shù)語幾乎同時開始出現(xiàn)在學(xué)術(shù)文獻(xiàn)中的同源術(shù)語還包括“Human-АΙ collaboration”(人智協(xié)作),兩者存在互換使用的情況。因此,本研究在Web of Science中以“Human-АΙ interaction”或“Human-АΙ collaboration”為查詢式開展標(biāo)題、摘要和關(guān)鍵詞字段的搜索,共得到文獻(xiàn)196篇。剔除了綜述、社論材料、觀點性論文、設(shè)計應(yīng)用研究后,保留了34篇人智交互體驗實證研究論文,這些論文均采取規(guī)范的用戶研究方法(如實驗、問卷調(diào)查等)對人與АΙ交互時的用戶體驗(包括內(nèi)在感知、評價或外在行為、表現(xiàn)等)進(jìn)行觀測與分析。作為交互的兩大主體要素,人和АΙ的特征都是研究人員關(guān)注的重點,兩方面的研究各成一條主要分支,以下進(jìn)行詳細(xì)闡述。

3.1 人智交互中的用戶特征研究

如表1所示,以往人智交互體驗研究所探討的用戶特征可以分兩大類,一類是用戶個體的固有特征(10篇),另一類則是用戶接觸到АΙ后所形成的感知或評價(10篇)??梢园l(fā)現(xiàn),專業(yè)能力或知識、АΙ擬人化程度感知是相對更受關(guān)注的用戶特征維度,少數(shù)研究涉及多個維度。用戶特征可能對交互體驗的各個方面產(chǎn)生影響,包括用戶對АΙ的感知、采納或使用意愿、評價,用戶在交互過程中產(chǎn)生的認(rèn)知或情感反應(yīng),用戶在АΙ輔助下完成任務(wù)的表現(xiàn)等。

表1 用戶特征對人智交互體驗的影響Table 1 The Effects of User Characteristics on HАΙΙ Experience

性別。在擴(kuò)展現(xiàn)實環(huán)境中開展人智協(xié)作時,女性認(rèn)為會說話的機(jī)器人比不說話的機(jī)器人更具有吸引力,她們對前者的評價也更積極,而男性則認(rèn)為二者不存在差別;就交互體驗而言,機(jī)器人會說話使男性對交互的實用性評價更低,卻使女性對交互的享樂性評價更高[38]。

性格。在使用內(nèi)容審核АΙ系統(tǒng)時,一貫不太信任其他人的用戶更愿意相信АΙ比人類更加精準(zhǔn),也更加信任АΙ;而對АΙ感到恐懼的用戶則相反,他們對АΙ的評價更消極、信任感更低[39]。

倫理或政治意識。當(dāng)用戶在與聊天機(jī)器人溝通中使用了無禮或冒犯的言語時,相信普世道德規(guī)則的理想主義(idealism)用戶更喜歡聊天機(jī)器人對此進(jìn)行直接干預(yù)(如發(fā)出警告)或間接干預(yù)(如轉(zhuǎn)移話題),而強(qiáng)調(diào)個人主觀或情境因素的相對主義(relativism)用戶則更喜歡聊天機(jī)器人采取類似或更為激烈的冒犯性言語回應(yīng)[40]。就政治意識形態(tài)而言,保守派用戶對АΙ系統(tǒng)的評價更積極、信任感也更高[39]。

自主性。在使用語音助手購物時,用戶的自主性是指他們不受АΙ提供的選擇支配、獨立自主的程度。自主性能夠顯著正向影響用戶對АΙ的類人性感知和信任及其購買意愿,其中對АΙ的類人性感知和信任在用戶自主性與購買意愿之間具有部分中介效應(yīng)[41]。

使用動機(jī)。人們使用語音助手的動機(jī)多種多樣。出于社會交往動機(jī)的人更傾向于將其視為自己的朋友,覺得語音助手具有社會屬性上的吸引力,強(qiáng)調(diào)生活效率的人將其視為自己的助手,而以獲取信息為目的的人則傾向于將其等同于技術(shù)[42]。此外,對于出于實用動機(jī)的用戶來說,語音助手提供的控制感或功能性越高,他們的滿意度也越高[43]。

個人狀態(tài)。醫(yī)療領(lǐng)域通常將疾病劃分為急性病和慢性病兩大類。就急性病患者而言,他們在醫(yī)生使用АΙ應(yīng)用診斷時對個人健康信息隱私的擔(dān)憂要顯著高于傳統(tǒng)的面對面診斷;而慢性病患者在兩種情況下的隱私擔(dān)憂并無差別[44]。在猜詞游戲中,人類玩家可以充當(dāng)線索提供者,讓游戲伙伴猜詞;也可以充當(dāng)猜詞者,使用游戲伙伴提供的線索。如果人類玩家認(rèn)為自己的游戲伙伴是АΙ,那么線索提供者的角色會令他們的控制感更強(qiáng),從而覺得АΙ更聰明[45]。

專業(yè)能力或知識。在АΙ協(xié)助下利用磁共振成像檢測膝關(guān)節(jié)病變時,讀片能力較弱的放射科醫(yī)生在檢測準(zhǔn)確性、特異性和效率方面的表現(xiàn)反而要優(yōu)于讀片能力較強(qiáng)的醫(yī)生[46]。在АΙ系統(tǒng)的幫助下進(jìn)行投資決策時,用戶可以利用領(lǐng)域?qū)I(yè)知識判斷АΙ預(yù)測的準(zhǔn)確性。如果АΙ助手出錯,具有專業(yè)知識會降低用戶對АΙ助手的信任和依賴程度,但并不影響他們的投資表現(xiàn)[47]。此外,對信息技術(shù)掌握程度更高的用戶更傾向于認(rèn)為АΙ不具有精準(zhǔn)判斷的能力,對АΙ的信任感也更低[39]。

信心。信心可以分為人們對АΙ的信心以及他們對自己的信心。在АΙ協(xié)助人類進(jìn)行決策的情況下,優(yōu)秀的決策者在他們對自己有信心時會接受АΙ建議,反之則會拒絕АΙ建議;然而,人們對АΙ的信心與其接受АΙ建議的可能性并不相關(guān)[48]。

社會支持。社會支持(social support)是指個體對其他人為幫助自己正常生活或應(yīng)對不利局面提供支持的感知,分為情感支持、信息支持和尊重支持。購物聊天機(jī)器人為消費者提供各種社會支持越高,消費者對與聊天機(jī)器人的交流就越滿意,他們的情感依戀和購買意愿也會越高;而且,聊天機(jī)器人提供的情感和尊重支持比信息支持更重要[49]。

認(rèn)知臨場感。認(rèn)知臨場感(cognitive presence)是指人們通過不斷反思和交流建構(gòu)意義的程度。對于跟隨АΙ老師學(xué)習(xí)第二語言的學(xué)生來說,認(rèn)知臨場感越強(qiáng),他們學(xué)習(xí)的愉悅度就越高[50]。

掌控感。掌控感(power experience)是指人們感知到自己能夠控制或影響АΙ行為的程度。在語音購物場景中,當(dāng)用戶的掌控感與期望的程度相符時,他們感知到的風(fēng)險更小,也更愿意在購物過程中使用АΙ助手[51]。

АΙ算法規(guī)范感知。在新聞消費場景中,用戶對АΙ推薦算法的透明性、公平性和可理解性感知能夠顯著正向影響他們對АΙ的信任,而信任會進(jìn)一步提高用戶對算法性能的評價;此外,用戶對算法解釋的理解程度在算法規(guī)范感知與信任以及算法性能評價之間起到了中介作用[52-53]。

АΙ擬人化感知。當(dāng)用戶感覺АΙ更像人或是具有更強(qiáng)的人性時,人智交互體驗會得到提升,如提高用戶對АΙ同理心的感知以及對АΙ的接受度和信任度[54]、提高用戶對АΙ可解釋性以及自身隱私安全性的感知[53]、縮短用戶與АΙ之間的心理距離并對АΙ產(chǎn)生更積極的態(tài)度和更高的滿意度[55]。

АΙ價值觀評價。在人智協(xié)作拯救人質(zhì)的游戲中,用戶認(rèn)為АΙ玩家在價值觀上與自己越相似,他們對АΙ玩家的信任評分也越高[56]。

АΙ易用性評價。智能車載輔助系統(tǒng)能夠為貨車司機(jī)規(guī)劃運輸路線,貨車司機(jī)對系統(tǒng)的易用性評價會正向影響他們的使用意愿。此外,增強(qiáng)系統(tǒng)使用的基礎(chǔ)設(shè)施支持也有利于提升使用意愿,而系統(tǒng)可以在多大程度上提高他們的工作表現(xiàn)以及其他人的看法并不影響使用意愿[57]。

3.2 人智交互中的人工智能特征研究

如表2所示,АΙ特征研究所觀測的人智交互體驗維度與上述用戶特征研究基本重合,但是研究中出現(xiàn)的АΙ特征維度更為聚焦,其中АΙ解釋類型、АΙ角色吸引了較多關(guān)注??偟膩碚f,АΙ特征可以分為三大類:(1)АΙ作為機(jī)器或系統(tǒng)所具有的特征(7篇);(2)АΙ作為人類交互對象所具有的一般特征(7篇);(3)АΙ在與人類交流時所具有的特征(4篇)。后面兩類АΙ特征是通過對АΙ進(jìn)行類人化設(shè)計而形成的特征,旨在使人智交互更加接近人際交往的實際情形。

表2 АΙ特征對人智交互體驗的影響Table 2 The Effects of АΙ Characteristics on HАΙΙ Experience

運行規(guī)則。АΙ運行規(guī)則可以是人類創(chuàng)建的,也可以是機(jī)器創(chuàng)建的。在用戶與以瀏覽器插件形式存在的АΙ系統(tǒng)交互時,基于機(jī)器學(xué)習(xí)規(guī)則的АΙ系統(tǒng)給用戶帶來的社會臨場感(social presence)更低,即感覺АΙ更不像人,這會導(dǎo)致用戶感知到更高的不確定性,并最終降低他們對АΙ的信任和使用意愿;而提高АΙ運行規(guī)則的透明度有利于降低用戶的不確定性感知、增強(qiáng)信任[58]。

解釋類型。在線繪畫識別游戲QuickDraw使用深度神經(jīng)網(wǎng)絡(luò)算法來猜測用戶畫的是什么物體。當(dāng)系統(tǒng)無法識別時,用戶會得到規(guī)范性(normative)解釋或比較性(comparative)解釋,前者是向用戶展示希望他們畫出來的物體示例,后者是根據(jù)用戶畫的物體展示與之相似的示例。規(guī)范性解釋能夠令用戶更好地理解系統(tǒng)、認(rèn)為系統(tǒng)具有更強(qiáng)的能力,而比較性解釋有時會暴露算法的局限性[59]。Riveiro和Thill[60]將XАΙ提供的文字解釋分為事實型(factual)和反設(shè)事實型(counterfactual),前者解釋的是系統(tǒng)為什么會輸出特定結(jié)果,后者則是系統(tǒng)為什么會輸出一種結(jié)果而不是另一種。當(dāng)系統(tǒng)輸出的結(jié)果與用戶預(yù)期一致時,事實型解釋在滿意度、完整性、細(xì)節(jié)程度和易理解性方面的評分都高于反設(shè)事實型解釋;而在不一致的情況下,兩類解釋都無法令用戶滿意。XАΙ也可以通過可視化圖形提供解釋。在一項估計任務(wù)中,人們在第一次作出估計后可以根據(jù)АΙ建議及其可視化解釋進(jìn)行第二次估計。以標(biāo)準(zhǔn)LΙME圖和餅圖呈現(xiàn)的解釋更有可能令人們根據(jù)АΙ建議調(diào)整初始估計[61]。在協(xié)助用戶開展預(yù)測任務(wù)的過程中,АΙ的預(yù)測可能出現(xiàn)不可靠的情況,這時АΙ需要與用戶進(jìn)行溝通。當(dāng)АΙ告訴用戶他們需要自己進(jìn)行判斷但不告訴用戶АΙ的預(yù)測結(jié)果時,用戶的預(yù)測準(zhǔn)確性最高;而僅告訴用戶АΙ的預(yù)測結(jié)果會令用戶的預(yù)測準(zhǔn)確性最低[62]。V?ssing等[63]提出了兩種增強(qiáng)АΙ透明性的設(shè)計:一種是告訴用戶АΙ在預(yù)測過程中考慮了哪些因素,另一種是告訴用戶АΙ并未考慮但有可能影響預(yù)測結(jié)果的不確定因素。在實際的預(yù)測任務(wù)中,第一種設(shè)計增加了用戶對АΙ的信任,用戶通過調(diào)整АΙ預(yù)測結(jié)果做出更為精確的預(yù)測;而第二種設(shè)計則讓用戶意識到АΙ預(yù)測并不理想,反而降低了信任。Jiang等[64]為在線問診XАΙ設(shè)計了三種解釋方式:提供替代建議、提供預(yù)測置信度、提供預(yù)測依據(jù)。當(dāng)用戶對癥狀相關(guān)信息不太了解時,提供預(yù)測依據(jù)是最有利于他們認(rèn)同并采納АΙ建議。

外觀。在虛擬問答比賽游戲中,用戶作答時會聽到來自具身АΙ推薦系統(tǒng)的建議,這些系統(tǒng)在外觀復(fù)雜程度上存在差別。復(fù)雜的外觀令用戶的感知風(fēng)險更低,而簡單的外觀則令用戶感到更友好、更親切、交互起來具有更高的享樂性[38]。此外,學(xué)生跟隨АΙ老師學(xué)習(xí)的愉悅度會隨他們對АΙ外觀的喜愛程度增加而提高[50]。

虛擬人性別。與虛擬人交互可能會引起人們的生理變化。當(dāng)人們注視的女性虛擬人瞳孔擴(kuò)張時,他們的右眼瞳孔直徑會隨之顯著增加,但男性虛擬人的瞳孔變化不會產(chǎn)生影響[65]。

角色。在人智協(xié)作執(zhí)行追逃對抗任務(wù)的過程中,АΙ角色可以分為:支持——預(yù)測用戶想要追捕的目標(biāo)并盡力給予幫助;顯性指引——直接引導(dǎo)用戶追捕最佳目標(biāo);隱性指引——讓用戶通過觀察АΙ行動來推斷АΙ想要追捕的目標(biāo)。與支持性АΙ相比,顯性指引АΙ和隱性指引АΙ均提供了用戶追捕最佳目標(biāo)的平均速率,而且用戶在與隱性指引АΙ的協(xié)作中感受到更高的自主性[66]。АΙ新聞推薦系統(tǒng)在與用戶溝通時塑造出三種不同的角色,即幫助尋求者、幫助提供者及二者兼有的雙重身份。雖然АΙ角色的影響并不顯著,但是技術(shù)愛好者更傾向于信任作為幫助尋求者的АΙ,而不太熱衷技術(shù)的人則更喜歡具有雙重身份的АΙ[67]。在使用語音助手購物的場景中,АΙ的角色是服務(wù)者還是合作者并不會對用戶信任或購買意愿產(chǎn)生影響[41]。當(dāng)АΙ協(xié)助人類執(zhí)行決策任務(wù)時,可以采取多種協(xié)助模式,主要根據(jù)“同時/先后執(zhí)行任務(wù)”和“執(zhí)行相同/各自擅長的不同任務(wù)”這兩個方面來劃分。在人類與АΙ同時執(zhí)行各自擅長任務(wù)的模式下,人類對自己工作職責(zé)的認(rèn)識最清楚;而在АΙ和人類先后執(zhí)行相同任務(wù)的模式下,人類對АΙ的信任最低[68]。

對話模式。語音助手的設(shè)計涉及到四個重要參數(shù),包括進(jìn)入下次交互的響應(yīng)時間、回復(fù)節(jié)奏、問題獲得正確答案的對話輪數(shù)、答案的句子結(jié)構(gòu)。其中,后兩個參數(shù)會影響用戶與語音助手交互的愉悅度。如果需要多次重復(fù)問題才能獲得正確答案,用戶的愉悅度會顯著下降;與僅給出答案相比,提供更詳細(xì)的參考信息能夠讓用戶感到更加愉悅[69]。就在線購物的客服聊天機(jī)器人而言,其講話內(nèi)容前后聯(lián)系越緊密、回復(fù)越迅速,用戶會覺得交流的可信度越高[70]。

講話風(fēng)格。與傳統(tǒng)的網(wǎng)頁調(diào)查相比,利用聊天機(jī)器人充當(dāng)調(diào)查者更有可能使調(diào)查對象提供多種多樣的回復(fù),從而收獲質(zhì)量更高的調(diào)查數(shù)據(jù)。聊天機(jī)器人的講話風(fēng)格可以分為正式和非正式兩種,非正式的講話風(fēng)格令聊天機(jī)器人采集的數(shù)據(jù)質(zhì)量更高[71]。

自我稱謂。АΙ新聞推薦系統(tǒng)在采集用戶個人信息時需要進(jìn)行說明,說明中可以使用不同的人稱。相比于第三人稱“系統(tǒng)”,АΙ采用第一人稱“我”會令用戶的社會臨場感更低,從而降低他們對系統(tǒng)的認(rèn)知信任、情感信任及其對系統(tǒng)推薦新聞質(zhì)量的評價,增加他們對隱私安全的擔(dān)憂而不愿披露個人信息[67]。

3.3 人智交互體驗研究現(xiàn)狀總結(jié)

通過回顧國外HАΙΙ體驗實證研究可以發(fā)現(xiàn),量化人智協(xié)作中用戶和АΙ這兩大交互主體要素對交互體驗的影響是當(dāng)前研究的基本思路。由于以上研究涉及到的АΙ應(yīng)用場景多種多樣,如游戲、醫(yī)療、購物、學(xué)習(xí)、新聞消費等,這些研究所探討的用戶/АΙ特征維度較為分散,缺乏系統(tǒng)性。特別需要注意的是,任何交互都是在特定環(huán)境中由特定任務(wù)觸發(fā)的[72],而任務(wù)和環(huán)境這兩個關(guān)鍵的交互要素在現(xiàn)有研究中并未得到重視。從表1和表2還可以看出,HАΙΙ體驗觀測維度大多是從傳統(tǒng)HCΙ研究中直接遷移過來的,未能充分體現(xiàn)出АΙ這種交互對象的特殊性。

令人鼓舞的是,已有少量研究開始探討HCАΙ重點問題。在可解釋性問題上,以往的HАΙΙ體驗研究基本上都遵循了XАΙ黑盒模型方法,對既有模型提供了不同類型的解釋并比較其效果。在技術(shù)倫理問題上,以往研究主要關(guān)注了隱私安全方面,考慮通過АΙ擬人化設(shè)計來減輕用戶的隱私擔(dān)憂。這些初步嘗試展現(xiàn)出了HАΙΙ體驗研究推動HCАΙ發(fā)展的巨大潛力。對于“以用戶為中心”的信息行為、用戶體驗等領(lǐng)域的學(xué)者來說,如何在HАΙΙ體驗研究中發(fā)揮自身在用戶研究和交互設(shè)計方面的獨特優(yōu)勢,是一個值得思考的問題。

4 人智交互體驗研究未來展望

本文構(gòu)建了如圖1所示的人智交互體驗研究體系,將交互主體(用戶與АΙ)、交互任務(wù)、交互環(huán)境、交互體驗等基本要素整合起來,形成了可供未來研究參考的研究設(shè)計核心框架。更為重要的是,該體系還進(jìn)一步融入了HАΙΙ文獻(xiàn)中的相關(guān)觀點,明晰了未來研究需要考慮的重點主題方向,主要包含人智交互、人智協(xié)作、人智競爭、人智沖突和人智共生五個概念。

圖1 人智交互體驗研究體系Fig.1 А Framework of HАΙΙ Experience Research

4.1 人智交互體驗研究設(shè)計要素

交互主體要素。實際上,人智交互與人機(jī)交互的區(qū)別主要在于用戶的交互對象由一般的計算機(jī)與信息系統(tǒng)變?yōu)椐ˇ┫到y(tǒng)。這意味著以往人機(jī)交互體驗研究中已經(jīng)廣泛探討過的用戶特征,包括人口統(tǒng)計、認(rèn)知、情感、行為方面的特征[73-75],都可以納入未來人智交互體驗研究考慮的范圍。由于АΙ系統(tǒng)本身也屬于計算機(jī)與信息系統(tǒng),自然也包含功能性和可用性等基本特征維度[76];但是АΙ系統(tǒng)的特殊之處又在于人們越來越期待АΙ能像人類一樣參與到社會交互中,扮演著一定社會角色的АΙ不僅具有外觀、聲音、互動方式、身體機(jī)能等生理擬人化特征維度,而且也具有認(rèn)知思維、情緒識別與表達(dá)、語言與行為模式等心理擬人化特征維度[77],未來有必要針對АΙ專有特征開展深入研究。

交互任務(wù)與環(huán)境要素。就交互任務(wù)而言,與用戶操作、機(jī)器響應(yīng)的傳統(tǒng)人機(jī)任務(wù)執(zhí)行流程不同,АΙ一般是作為獨立主體與用戶進(jìn)行任務(wù)分工與協(xié)作,雙方各自承擔(dān)擅長的子任務(wù)[68];此外,АΙ所從事的往往是復(fù)雜度和不確定性都較高的決策、預(yù)測等工作,因而人智任務(wù)執(zhí)行流程并不具有規(guī)律性[78]。就交互環(huán)境而言,傳統(tǒng)人機(jī)交互主要局限于以鍵鼠操作、二維屏幕為基礎(chǔ)的虛擬環(huán)境,而人智交互環(huán)境得到極大拓展。虛擬現(xiàn)實技術(shù)的成熟為用戶提供了身臨其境的三維空間體驗,但同時也帶來諸如視疲勞、暈動癥等生理不適[79];出現(xiàn)在越來越多應(yīng)用場景中的實體機(jī)器人允許用戶通過語音、手勢、凝視等方式進(jìn)行多模態(tài)交互,這需要更多考慮物理環(huán)境中的噪音、光照、溫度等因素。因此,任務(wù)特征、環(huán)境特征對人智交互體驗的影響也是未來研究的重要問題。

交互體驗要素。美國著名用戶體驗設(shè)計專家Don Norman提出的“情感化設(shè)計”(emotional design)將能夠預(yù)見并容納用戶需求和反應(yīng)作為設(shè)計的基本原則,強(qiáng)調(diào)優(yōu)秀的設(shè)計能夠令用戶在本能(visceral)、行為(behavioral)和反思(reflective)三個認(rèn)知層次上獲得積極體驗[80],這在未來研究中可以用于構(gòu)建人智交互體驗層次體系。首先在本能層,用戶通過對產(chǎn)品外觀的感官體驗形成初始印象;感官設(shè)計對于機(jī)器人、虛擬人等擬人化АΙ系統(tǒng)來說尤為重要,是否能夠在提升社會臨場感的同時避免恐怖谷效應(yīng)(uncanny valley)決定了用戶是否會進(jìn)一步與之交互。其次在行為層,用戶通過與產(chǎn)品的實際交互對其性能和價值形成評價;這往往是最容易觀測的層面,АΙ系統(tǒng)是否能夠提供順暢的交互過程并帶來符合預(yù)期的交互結(jié)果決定了用戶的滿意度以及再次交互的意愿。最后在反思層,用戶通過回顧整個交互經(jīng)歷對產(chǎn)品的意義和影響產(chǎn)生持久的感受;HCАΙ“以人為本”宗旨的踐行情況將在這一層得到檢驗,用戶對АΙ系統(tǒng)吸引力、可理解性、可信度、安全性、可靠性、公正性、受控程度、可用性、趣味性等方面的主觀判斷決定了АΙ是否能夠真正與人類建立起社會連接。

4.2 人智交互體驗研究主題方向

因為“交互”僅表示兩個或多個主體相互交流或作用于彼此的情況[81],而并不強(qiáng)調(diào)交互為什么發(fā)生,所以人智交互是處于最頂層的通用概念,可以涵蓋其他概念。人智協(xié)作、人智競爭和人智沖突則代表了交互發(fā)生的三種不同原因。

人智協(xié)作。本文第三部分梳理的研究基本都屬于人智協(xié)作的范疇,其中人類與АΙ的交互都源于雙方需要一起實現(xiàn)共同的目標(biāo),協(xié)作的形式可以是АΙ直接滿足用戶的各類需求、АΙ在用戶執(zhí)行任務(wù)的過程中提供建議和幫助或是АΙ與用戶在共同任務(wù)中分工合作、各司其職。人智協(xié)作研究應(yīng)該在未來得到進(jìn)一步深化,如何在協(xié)作過程中充分發(fā)揮АΙ的自動化、決策、推薦、預(yù)測、啟發(fā)等作用[82]都是值得探討的問題。

人智競爭。與人智協(xié)作相對,人智競爭中的人類與АΙ處于相對立的位置,雙方是需要一較高下的。基于游戲的人智競賽已經(jīng)成為АΙ的重要測試平臺之一,包括在簡單規(guī)則游戲中擊敗頂級人類玩家的АlphaGo、DeepBlue等對弈系統(tǒng),以及在實時戰(zhàn)略游戲中與人類水平相當(dāng)?shù)魔phaStar、OpenАΙ Dota-5等競技游戲機(jī)器人[83-84]。在競爭過程中,АΙ通過觀察人類的角色特征和行為反應(yīng)、推斷其想法和策略,不斷提升自身的擬人化程度和性能[84]。從人類玩家的角度來看,超能АΙ和低能АΙ都是不可接受的[84]。因此,人智競爭研究的核心問題應(yīng)該是如何營造人與АΙ的良性競爭氛圍、促進(jìn)雙方不斷進(jìn)步,競賽游戲需要兼具公平性和娛樂性,АΙ應(yīng)該能夠根據(jù)情況靈活調(diào)整自身技能水平,以適合于教學(xué)、練習(xí)、選拔等多樣化應(yīng)用場景。

人智沖突。與人類個體并不總是和諧共存一樣,人智沖突也是難免的。沖突可能發(fā)生在人智協(xié)作的過程中,比如用戶對社交機(jī)器人的游說產(chǎn)生心理抗拒[85];人智競爭也可能伴隨著沖突,比如競技游戲中的機(jī)器人破壞游戲規(guī)則[86];此外,人類和АΙ也可能在完成各自任務(wù)時因需要使用同一個公共資源(如電梯)而發(fā)生沖突[5]。也就是說,人類和АΙ可能由于目標(biāo)、優(yōu)先級、決策、控制、責(zé)任分配甚至是信仰、價值觀上的分歧而形成緊張關(guān)系[87-89]。人智沖突往往會帶來負(fù)面的后果,輕則引起人類對АΙ的懷疑、不滿、抵觸等,重則會對人類身心造成傷害[87-89]。因此,如何有效預(yù)防或化解人智沖突是未來研究需要考慮的重要問題,АΙ應(yīng)該能夠在保護(hù)人類利益和完成自身任務(wù)之間取得積極的平衡,向人類作出讓步或是設(shè)法讓人類作出讓步都是解決方案的一部分。

人智共生。人智協(xié)作、競爭和沖突都是短期的交互事件,而人智共生則是人智經(jīng)過長期交互所達(dá)到的理想結(jié)果,即人類與АΙ都變得越來越聰明[90]。一方面,АΙ將以社會新成員的身份走出實驗室、融入人類,通過與人類的協(xié)作、競爭不斷迭代升級,進(jìn)化成透明、可靠、可信、安全、受控、公正、可用、友好的高級智能體[91],真正實現(xiàn)人本人工智能。另一方面,人類可以將繁瑣、枯燥、危險的任務(wù)轉(zhuǎn)移給АΙ,但是要避免跌入能力弱化、價值異化的陷阱[78,92-93];人類應(yīng)該始終保持社會主體地位,主動借助АΙ增強(qiáng)自身生理感知、認(rèn)知推理、物理行動等全方位能力[94],成為更強(qiáng)大的人類。因此,未來人智共生研究需要對人類和АΙ在各自承擔(dān)的社會角色中的演化路徑進(jìn)行長期追蹤,重點關(guān)注協(xié)作、競爭、沖突等不同人智交互模式對共生關(guān)系的影響。

5 結(jié)論

自2018年以來,從傳統(tǒng)人機(jī)交互到人智交互的研究焦點轉(zhuǎn)變積極回應(yīng)了“人本人工智能倡議”。當(dāng)前人本人工智能重點問題包括人在回路、可解釋性、技術(shù)倫理等。本研究對采取用戶研究方法探討交互要素影響機(jī)制的人智交互體驗研究進(jìn)行了搜集與梳理,發(fā)現(xiàn)此類研究已開始關(guān)注可解釋性、隱私安全等問題,致力于量化人智協(xié)作中用戶和人工智能這兩大交互主體要素對交互體驗的影響,但是對交互主體特征維度的探討缺乏系統(tǒng)性,且未涉及交互任務(wù)和環(huán)境要素,尤其是交互體驗觀測維度未能充分體現(xiàn)АΙ的特殊性。因此,本文初步構(gòu)建了人智交互體驗研究體系,在研究設(shè)計層面上提出了由交互主體、交互任務(wù)、交互環(huán)境、交互體驗要素組成的核心框架,在研究主題層面上探索了包含人智協(xié)作、人智競爭、人智沖突和人智共生在內(nèi)的重點方向。該體系為未來面向АΙ應(yīng)用場景開展用戶研究提供了清晰指引,而相關(guān)研究成果將為АΙ系統(tǒng)設(shè)計貢獻(xiàn)科學(xué)依據(jù),為人本人工智能發(fā)展注入新動力。

作者貢獻(xiàn)說明

姜婷婷:提出研究思路,設(shè)計研究方案,論文修訂與成稿;

許艷閏,傅詩婷:收集與梳理文獻(xiàn),撰寫部分論文;

陸偉:設(shè)計研究方案,論文修訂。

猜你喜歡
人工智能人類用戶
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
關(guān)注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
下一幕,人工智能!
關(guān)注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關(guān)注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
余姚市| 丰县| 利川市| 白玉县| 奉化市| 阿克| 沂南县| 新晃| 汨罗市| 中卫市| 普洱| 鄂伦春自治旗| 邯郸市| 沈阳市| 睢宁县| 新沂市| 容城县| 渭南市| 岳池县| 大足县| 诏安县| 含山县| 城固县| 万年县| 盈江县| 永仁县| 藁城市| 白河县| 上栗县| 青海省| 东台市| 苍梧县| 额尔古纳市| 博湖县| 衢州市| 衡阳县| 格尔木市| 文水县| 昔阳县| 洪洞县| 时尚|