国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

無(wú)以信,何以立:人機(jī)交互中的可持續(xù)信任機(jī)制

2024-04-28 06:19向安玲
未來(lái)傳播 2024年2期
關(guān)鍵詞:人機(jī)交互影響因素

基金項(xiàng)目:國(guó)家自然科學(xué)基金青年項(xiàng)目“面向人工智能生成內(nèi)容的風(fēng)險(xiǎn)識(shí)別與治理策略研究”(72304290)。作者簡(jiǎn)介:向安玲,女,講師,博士。

摘? 要:可持續(xù)信任是保障人機(jī)高頻交互和高效協(xié)作的關(guān)鍵要素。基于計(jì)算扎根理論,文章針對(duì)7235條ChatGPT用戶反饋進(jìn)行編碼分析,并由此提煉可持續(xù)信任的影響因素。研究發(fā)現(xiàn),機(jī)器因素(可用性、易用性、可供性和安全性等)占比最大,其次為用戶要素(技術(shù)恐懼、需求適配、媒介素養(yǎng)、心理預(yù)期),而任務(wù)因素(關(guān)鍵性失誤、任務(wù)復(fù)雜度、違規(guī)成本)占比偏低。關(guān)鍵任務(wù)失敗、機(jī)器安全性、用戶需求適配度對(duì)用戶信任水平影響最為顯著。在人機(jī)之間建立清晰而互補(bǔ)的職責(zé)界限,用算法的可解釋性對(duì)沖輸出的不確定性,同時(shí)通過(guò)獎(jiǎng)懲機(jī)制的“界面化”,引導(dǎo)用戶調(diào)整心理預(yù)期,有助于可持續(xù)信任的動(dòng)態(tài)校準(zhǔn)。

關(guān)鍵詞:生成式人工智能;人機(jī)交互;可持續(xù)信任;影響因素

中圖分類號(hào):TP18-02文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2096-8418(2024)02-0029-13

從蒸汽時(shí)代、電氣時(shí)代,到信息時(shí)代,再到智能時(shí)代,人類歷史上每一次技術(shù)革命和社會(huì)范式變革都伴隨著人機(jī)交互關(guān)系的演化和人機(jī)交互場(chǎng)景的躍遷。機(jī)器從替代人力勞動(dòng)、輔助工業(yè)生產(chǎn),也逐步進(jìn)化到延伸人的感知、激發(fā)創(chuàng)意思維。在這個(gè)過(guò)程中,人機(jī)交互逐步趨向人機(jī)協(xié)同,甚至人機(jī)共生。伴隨著智能體的指數(shù)級(jí)增長(zhǎng)與全行業(yè)滲透,人機(jī)交互場(chǎng)景將進(jìn)一步拓展,人與智能系統(tǒng)之間的交互關(guān)系也將重新被定義。機(jī)器是否會(huì)替代人?多大程度上能取代人力工作?如何在挖掘技術(shù)紅利的基礎(chǔ)上規(guī)避技術(shù)濫用?如何建構(gòu)可持續(xù)的人機(jī)協(xié)作關(guān)系?這一系列問(wèn)題都有待學(xué)界和業(yè)界回應(yīng)。如果說(shuō)技術(shù)能力迭代是回應(yīng)以上問(wèn)題的“硬變量”,那么人機(jī)信任關(guān)系就是影響以上問(wèn)題的“軟變量”。

信任程度直接影響人機(jī)交互強(qiáng)度和可持續(xù)性,進(jìn)一步影響人機(jī)協(xié)作效能和生產(chǎn)效率。在智能技術(shù)加速發(fā)展的當(dāng)下,過(guò)度信任帶來(lái)的技術(shù)濫用和信任不足衍生的技術(shù)棄用普遍存在。尤其是對(duì)于人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)這類大眾級(jí)智能交互產(chǎn)品,機(jī)器能力的通用化和實(shí)用場(chǎng)景的泛化,使得人機(jī)交互成為一個(gè)常態(tài)化的需求。在持續(xù)性、高頻次的交互中,人機(jī)信任也在不斷演變,從信任產(chǎn)生到信任波動(dòng),再到信任校準(zhǔn),人對(duì)機(jī)器的依賴性或排斥性也在動(dòng)態(tài)變化??沙掷m(xù)交互中的人機(jī)信任在很大程度上影響了生產(chǎn)力輸出,同時(shí)也滋生了錯(cuò)誤信息、虛假信息、學(xué)術(shù)倫理、技術(shù)偏見(jiàn)等一系列社會(huì)問(wèn)題。

在AIGC火爆出圈,迅速滲透各行各業(yè)的當(dāng)下,我們應(yīng)該如何理性地去看待和使用它?如何調(diào)整信任水平以避免濫用或棄用?有哪些因素可以干預(yù)信任水平?信任又如何影響到人機(jī)協(xié)作結(jié)果?這些問(wèn)題都有待學(xué)界和業(yè)界進(jìn)一步探討和實(shí)踐。

一、文獻(xiàn)回顧

(一)從感性到理性:人機(jī)協(xié)作中的信任生成

哲學(xué)視角下的傳統(tǒng)信任研究強(qiáng)調(diào)信任的情感內(nèi)核,認(rèn)為信任是一種基于對(duì)方品德而產(chǎn)生的心理依賴。[1]這種感性驅(qū)動(dòng)的信任側(cè)重于建構(gòu)人與人之間的深層次連接。相比于基于道德準(zhǔn)則的人際信任,人機(jī)交互過(guò)程中的電子信任(e-trust)更多基于實(shí)踐結(jié)果,也即機(jī)器完成某項(xiàng)既定任務(wù)的能力和價(jià)值產(chǎn)出。[2]從這個(gè)角度來(lái)看,人機(jī)信任是一種從(機(jī))客觀能力到(人)主觀感知的生成機(jī)制,是人對(duì)機(jī)器執(zhí)行特定目標(biāo)可控性的主觀評(píng)估。具體而言,當(dāng)人們認(rèn)為機(jī)器的行動(dòng)能力在可控范圍內(nèi),其執(zhí)行任務(wù)有益或至少不會(huì)對(duì)人產(chǎn)生危害時(shí),人們會(huì)選擇信任它們。[3]可以說(shuō),信任的生成是一種感性判斷和理性標(biāo)準(zhǔn)的融合,既包含了對(duì)誠(chéng)信和仁愛(ài)的心理期望[4],對(duì)機(jī)器道德和行為規(guī)范的倫理期待[5],又包含了對(duì)機(jī)器可靠性和可替性的理性判斷[6],對(duì)機(jī)器決策和產(chǎn)出結(jié)果的現(xiàn)實(shí)評(píng)估[7]。

從信任生成與演化階段來(lái)看,人機(jī)信任可劃分為初始信任(initial trust)和可持續(xù)信任(sustainable trust)。[8]其中,初始信任是指雙方初次互動(dòng)或協(xié)作時(shí),在沒(méi)有直接經(jīng)驗(yàn)的前提下所產(chǎn)生的信任。[9]而可持續(xù)信任則是用戶在反復(fù)交互和使用過(guò)程中對(duì)機(jī)器產(chǎn)生的信任,通過(guò)對(duì)其行為的熟悉和理解來(lái)減少不確定性,進(jìn)一步調(diào)節(jié)信任程度。[10]可持續(xù)信任是人機(jī)協(xié)作過(guò)程中的一種適應(yīng)性過(guò)程。人類對(duì)人工智能的信任水平可根據(jù)情境和任務(wù)的變化而自適應(yīng)地調(diào)整,相比于先驗(yàn)經(jīng)驗(yàn)或既有判斷,這種信任是一種動(dòng)態(tài)評(píng)估與調(diào)節(jié)機(jī)制[11]。

如果說(shuō)初始信任反映的是人類對(duì)機(jī)器的先驗(yàn)印象,可持續(xù)信任則反映了人對(duì)人機(jī)協(xié)同過(guò)程和結(jié)果的現(xiàn)實(shí)評(píng)估。前者更多指向感性判斷,是人在信息不充分的情形下基于自身既有認(rèn)知衍生的信任。而后者更多依賴于理性決策,是將合作行為的結(jié)果加入到信任的反饋環(huán)節(jié)中所形成的判斷。[12]從初始信任到可持續(xù)信任的演化,既是人機(jī)交互頻次深化的結(jié)果,也是人機(jī)協(xié)作目標(biāo)趨于一致的過(guò)程。[13]

(二)從相似到差異:人機(jī)信任的影響因素

從傳統(tǒng)信任生成機(jī)制來(lái)看,熟悉度、期望值和風(fēng)險(xiǎn)共同決定了信任的強(qiáng)弱。其中,熟悉度指向了信任主體之間的關(guān)系構(gòu)建,期望值指向了任務(wù)完成的預(yù)期程度,風(fēng)險(xiǎn)則指向了決策失敗的機(jī)會(huì)成本。[14]甚至可以說(shuō),信任就是一種風(fēng)險(xiǎn)投資。[15]對(duì)“投資對(duì)象”的熟悉度、對(duì)“投資結(jié)果”的預(yù)期值以及“投資環(huán)境”的風(fēng)險(xiǎn)度都會(huì)影響信任的生成。

人機(jī)信任相比于人際信任,其生成與演化具備更強(qiáng)的不確定性和不穩(wěn)定性。因?yàn)闄C(jī)器本身的行動(dòng)存在不確定性,限于人們?cè)诮?jīng)驗(yàn)和認(rèn)知上的局限,無(wú)法對(duì)機(jī)器行動(dòng)進(jìn)行預(yù)測(cè)和評(píng)估。這就使得信任處于可控和不可控的雙重關(guān)系中。[16]一方面,人們希望機(jī)器更接近人類行為邏輯,具備一定擬人性,以增強(qiáng)其可控性和可解釋性;另一方面,人們也希望機(jī)器在任務(wù)執(zhí)行和決策過(guò)程中具備超人性,尤其是在復(fù)雜任務(wù)執(zhí)行中突破既有模式。具體而言,對(duì)“相似”的期待主要體現(xiàn)在:(1)透明度(transparency)。機(jī)器(AI)算法模型和內(nèi)部規(guī)則越清晰,與人的預(yù)期越相似,人們對(duì)其信任度往往越高;[17](2)可解釋性(interpretability)。“黑箱算法”所衍生的非線性和復(fù)雜決策過(guò)程往往很難被人為理解,機(jī)器邏輯和人類邏輯的差異阻礙了信任生成;[18](3)擬人性(anthropomorphism)。類似人的說(shuō)話方式、聲音、面部特征、自我意識(shí)和情感表達(dá)往往會(huì)增加人對(duì)機(jī)器的信任感[19],但也需警惕擬人化過(guò)程中“恐怖谷”(uncanny valley)效應(yīng)對(duì)信任的削弱;[20](4)即時(shí)行為(immediacy behaviors)。類似于人類的即時(shí)反應(yīng)會(huì)激發(fā)情感上的信任,此外會(huì)犯錯(cuò)的機(jī)器人比完美無(wú)缺的機(jī)器人往往更受歡迎。[21]

相較而言,信任生成過(guò)程中的人機(jī)“差異”體現(xiàn)在:(1)智能性(intelligence)。機(jī)器在決策效率、產(chǎn)出規(guī)模、產(chǎn)出效能等方面均具備一定“超人”性,尤其是在復(fù)雜任務(wù)解決過(guò)程中人往往更加依賴于算法;[22](2)接觸方式。人際信任往往受到身體、視覺(jué)層面的物理接觸影響,而人機(jī)信任基于數(shù)字界面交互,介質(zhì)差異也會(huì)干預(yù)信任程度;[23](3)倫理規(guī)范。數(shù)字環(huán)境與現(xiàn)實(shí)社會(huì)倫理規(guī)約差異也會(huì)影響信任生成[24],規(guī)范人工智能向“善”發(fā)展是建立人機(jī)之間信任關(guān)系的前提條件。[25]

無(wú)論是初始信任,還是可持續(xù)信任,其影響因素均可劃分為三個(gè)類別:用戶特性、機(jī)器特性和環(huán)境特性。綜合相關(guān)學(xué)者[26]-[31]對(duì)人機(jī)信任的歸因研究,將相關(guān)因素梳理如表1所示。

(三)從抑制到修復(fù):適度信任下的效能激發(fā)

人機(jī)合作信任是一個(gè)動(dòng)態(tài)演化過(guò)程,人對(duì)機(jī)器表現(xiàn)的心理預(yù)期和機(jī)器自身實(shí)際效能不斷混合交互。[32]期望水平、實(shí)際表現(xiàn)和交互程度三方面原因共同導(dǎo)致了人機(jī)之間信任不足或信任過(guò)度的問(wèn)題,通過(guò)自適應(yīng)校準(zhǔn)實(shí)現(xiàn)最優(yōu)信任水平有利于提升人機(jī)協(xié)作安全性和效率。[33]一方面,信任過(guò)度會(huì)導(dǎo)致技術(shù)的誤用和濫用,從而衍生安全、質(zhì)量、倫理等問(wèn)題;[34]另一方面,信任不足又可能導(dǎo)致技術(shù)的低效能甚至是棄用,在帶來(lái)負(fù)面情感體驗(yàn)的同時(shí)影響團(tuán)隊(duì)績(jī)效,進(jìn)一步影響人機(jī)持續(xù)性合作。[35]而要充分挖掘技術(shù)紅利,實(shí)現(xiàn)人機(jī)協(xié)作效能最優(yōu)化,就需要建構(gòu)信任再定位(trust re-orientation)和信任校準(zhǔn)機(jī)制(trust calibration)。

從“人”的角度來(lái)看,在持續(xù)合作中不斷調(diào)整自身的認(rèn)知兼容性、情感兼容性、價(jià)值兼容性,可實(shí)現(xiàn)信任水平校準(zhǔn)。[36]從“機(jī)”的角度來(lái)看,通過(guò)引入可解釋的“白箱”系統(tǒng),采用持續(xù)性強(qiáng)化學(xué)習(xí)模型,可實(shí)現(xiàn)協(xié)作優(yōu)化與信任修復(fù)。[37]從“交互”的角度來(lái)看,可通過(guò)動(dòng)態(tài)修改信息呈現(xiàn)方式、重新分配任務(wù)、增加操作權(quán)限、明確操作邊界等方式來(lái)調(diào)整人機(jī)合作中的信任水平。[38]

綜合而言,適度信任是保障人機(jī)可持續(xù)協(xié)作的關(guān)鍵要素。當(dāng)下包括ChatGPT內(nèi)在的AI交互產(chǎn)品逐漸滲透信息生產(chǎn)與傳播各個(gè)環(huán)節(jié),過(guò)度信任導(dǎo)致的技術(shù)濫用和信任不足導(dǎo)致的技術(shù)棄用普遍存在。挖掘影響可持續(xù)信任的影響要素,優(yōu)化信任校準(zhǔn)機(jī)制,在適度信任下才能充分激活人機(jī)協(xié)作效能和技術(shù)應(yīng)用紅利。在此背景下,本文從ChatGPT用戶的使用體驗(yàn)切入,通過(guò)對(duì)“失望”“失信”與“棄用”等評(píng)價(jià)進(jìn)行計(jì)算扎根分析,由此提煉影響可持續(xù)信任生成和演變的關(guān)鍵因素,進(jìn)一步探討信任校準(zhǔn)機(jī)制及其對(duì)人機(jī)協(xié)作的影響。具體來(lái)看,主要針對(duì)以下三大問(wèn)題展開(kāi)研究:

研究問(wèn)題1:影響人機(jī)可持續(xù)信任的因素有哪些?具體可劃分為哪些維度和指標(biāo)?

研究問(wèn)題2:不同影響因素的重要性如何?哪些因素對(duì)用戶持續(xù)使用行為影響更大?

研究問(wèn)題3:如何實(shí)現(xiàn)人機(jī)可持續(xù)信任的動(dòng)態(tài)校準(zhǔn)?如何避免用戶對(duì)技術(shù)的過(guò)度信任和信任不足?

二、研究設(shè)計(jì)

(一)研究方法:計(jì)算扎根理論

計(jì)算扎根理論(computational grounded theory)是一種利用計(jì)算機(jī)技術(shù)和大數(shù)據(jù)進(jìn)行扎根理論研究的方法,旨在通過(guò)大規(guī)模數(shù)據(jù)計(jì)算提取出關(guān)鍵概念、關(guān)系和主題,從而建構(gòu)新的理論模式。[39]其核心思想和應(yīng)用邏輯延承于傳統(tǒng)的扎根理論,但不同于傳統(tǒng)扎根的定性研究范式與主觀解讀取向[40],計(jì)算扎根理論更多地應(yīng)用計(jì)算機(jī)輔助手段對(duì)數(shù)據(jù)資料進(jìn)行量化處理,并從大規(guī)模數(shù)據(jù)中提取出客觀的模式和關(guān)系,進(jìn)一步生成具有理論性的解釋和結(jié)論。

綜合相關(guān)學(xué)者的理論研究和實(shí)證探討,本文將計(jì)算扎根理論的實(shí)現(xiàn)梳理為五大步驟:(1)大規(guī)模數(shù)據(jù)收集.包括社交媒體數(shù)據(jù)、新聞媒體數(shù)據(jù)、開(kāi)源網(wǎng)絡(luò)數(shù)據(jù)、圖書資料數(shù)據(jù)、訪談數(shù)據(jù)等多源異構(gòu)數(shù)據(jù)。(2)數(shù)據(jù)預(yù)處理。如去除重復(fù)項(xiàng)、過(guò)濾無(wú)關(guān)信息、標(biāo)準(zhǔn)化與結(jié)構(gòu)化等。(3)文本分析?;谟?jì)算機(jī)程序?qū)?shù)據(jù)進(jìn)行編碼和分類,包括詞頻統(tǒng)計(jì)、文本聚類、主題模型等,從而提出數(shù)據(jù)中的關(guān)鍵概念、關(guān)系和主題。(4)模式發(fā)現(xiàn)?;谠碚摰暮诵乃枷牒筒僮鞣椒ǎY(jié)合機(jī)器計(jì)算和經(jīng)驗(yàn)解釋來(lái)挖掘數(shù)據(jù)中的規(guī)律和模式。(5)理論生成。根據(jù)前期從數(shù)據(jù)中發(fā)現(xiàn)的模式和規(guī)律,建構(gòu)新的理論或驗(yàn)證現(xiàn)有理論,并將其轉(zhuǎn)化為可操作的知識(shí)。

(二)研究對(duì)象與數(shù)據(jù)采樣

相比于基于先驗(yàn)印象的初始信任,可持續(xù)信任來(lái)自于用戶對(duì)人機(jī)協(xié)作過(guò)程和結(jié)果的現(xiàn)實(shí)評(píng)估。受心理預(yù)期和使用體驗(yàn)的影響,在采樣時(shí)需選取有實(shí)際使用體驗(yàn)的現(xiàn)實(shí)用戶。本文以ChatGPT作為研究對(duì)象,探討用戶對(duì)其可持續(xù)信任的影響因素。采樣對(duì)象限定為有產(chǎn)品使用經(jīng)驗(yàn)并基于使用體驗(yàn)對(duì)其發(fā)表評(píng)價(jià)的用戶。為了精準(zhǔn)篩選樣本用戶,本文以AppleStore和GooglePlay應(yīng)用市場(chǎng)作為采樣平臺(tái)。這兩個(gè)平臺(tái)分別為蘋果(IOS)系統(tǒng)和安卓(Android)系統(tǒng)應(yīng)用產(chǎn)品下載的主流渠道,完成下載和安裝的用戶可在平臺(tái)上進(jìn)行產(chǎn)品評(píng)分(分五級(jí))和評(píng)價(jià)。

截至2023年11月15日,本文通過(guò)網(wǎng)絡(luò)爬蟲從兩大應(yīng)用市場(chǎng)共采集了55100條ChatGPT的用戶評(píng)價(jià)數(shù)據(jù),包括6900條蘋果系統(tǒng)評(píng)價(jià)和48200條安卓系統(tǒng)評(píng)價(jià)。綜合來(lái)看,評(píng)分在4-5分的用戶對(duì)產(chǎn)品持較高評(píng)價(jià),而評(píng)分在3分及以下的用戶往往存在負(fù)面使用體驗(yàn),并可能對(duì)其后續(xù)產(chǎn)品使用造成影響。相比于正面使用體驗(yàn),負(fù)面體驗(yàn)中往往更能反映用戶的使用痛點(diǎn)與核心需求。為了探索影響產(chǎn)品可持續(xù)信任的因素,本文從用戶使用評(píng)價(jià)中篩選了7235條中差評(píng)(3分及以下評(píng)論),包括1565條(占比22.68%)蘋果系統(tǒng)產(chǎn)品評(píng)價(jià)和5670條(占比11.76%)安卓系統(tǒng)產(chǎn)品評(píng)價(jià)。其中包括6938條英文評(píng)價(jià)(95.89%),71條中文評(píng)價(jià)(0.98%)和其他語(yǔ)種評(píng)價(jià)(包括西班牙語(yǔ)、意大利語(yǔ)、法語(yǔ)等)。在此基礎(chǔ)上,通過(guò)計(jì)算扎根理論來(lái)提煉影響產(chǎn)品可持續(xù)信任及可持續(xù)使用的因素及維度。

(三)基于LDA的主題聚類

為了更進(jìn)一步探索影響用戶信任及可持續(xù)使用的因素,對(duì)采樣數(shù)據(jù)進(jìn)行LDA主題聚類,得到5個(gè)主題在文本中的分布概率及相關(guān)高頻詞。結(jié)合實(shí)際應(yīng)用場(chǎng)景可將主題歸納為五方面:

第一,錯(cuò)誤響應(yīng)與內(nèi)容質(zhì)量問(wèn)題(如wrong、bad、answer)。占比約為24.19%,主要是針對(duì)AI輸出內(nèi)容的準(zhǔn)確性和響應(yīng)質(zhì)量的評(píng)價(jià),包括錯(cuò)誤回答和不符合預(yù)期的內(nèi)容響應(yīng)。

其二,交互功能與計(jì)算性能(如version、bug、text)。占比約為15.77%,主要針對(duì)文本交互、插件功能和版本迭代后的功能升級(jí)所發(fā)表的評(píng)價(jià),包括功能缺陷和交互界面相關(guān)問(wèn)題。

其三,內(nèi)容時(shí)效性與數(shù)據(jù)處理(如time、update、2021)。占比約為16.67%,主要針對(duì)產(chǎn)品底層數(shù)據(jù)庫(kù)的更新問(wèn)題及錯(cuò)誤數(shù)據(jù)反饋,包含過(guò)時(shí)回答、單位時(shí)間內(nèi)交互頻次限制和無(wú)法響應(yīng)等情況。

其四,個(gè)人信息安全與終端使用體驗(yàn)(如phone number、email、safe)。占比約為10.97%,主要是針對(duì)產(chǎn)品存在的隱私泄露風(fēng)險(xiǎn)、終端適配性、操作安全性等問(wèn)題進(jìn)行討論。

第五,登錄限制與操作門檻(如login、account、sign、cant) 。占比約為32.40%,主要是針對(duì)注冊(cè)和登錄的區(qū)域限制、產(chǎn)品及部分功能的使用門檻限制進(jìn)行討論。

(四)范疇提煉與模型建構(gòu)

為了對(duì)相關(guān)影響因素進(jìn)行結(jié)構(gòu)化分析,基于聚類結(jié)果和細(xì)化編碼對(duì)核心概念、范疇和關(guān)系進(jìn)行提煉。首先是對(duì)原始語(yǔ)料進(jìn)行開(kāi)放式編碼,也即扎根理論中的第一層級(jí)編碼,側(cè)重于將原始文本抽象為概念并進(jìn)行范疇化的歸納。在具體操作過(guò)程中,剔除部分無(wú)效數(shù)據(jù)(如語(yǔ)意不清的模糊表達(dá))后,針對(duì)剩余7201條文本進(jìn)行逐句編碼和統(tǒng)計(jì),最終得到20個(gè)次要范疇。

主軸編碼是扎根理論中的第二層編碼,也即針對(duì)開(kāi)放式編碼結(jié)果進(jìn)行聚類處理,根據(jù)其內(nèi)在邏輯關(guān)聯(lián)構(gòu)建更高維度的獨(dú)立范疇,從而形成更具概括性、抽象化、結(jié)構(gòu)性的編碼維度。結(jié)合前期文獻(xiàn)調(diào)研,本文將次要范疇進(jìn)一步歸類為13項(xiàng)主要范疇。

理論編碼是扎根理論中的第三層編碼,根據(jù)主要范疇之間的歸屬關(guān)系進(jìn)一步歸納核心維度,從而建構(gòu)整體的理論框架。本文將前期編碼結(jié)果抽象為用戶因素、任務(wù)因素、機(jī)器因素三大核心范疇。這三大核心范疇的確定,旨在捕捉影響可持續(xù)信任的關(guān)鍵變量,是對(duì)前期編碼工作的進(jìn)一步提煉和總結(jié),最終編碼結(jié)果如表1所示。由此回應(yīng)了本文研究問(wèn)題1:影響人機(jī)可持續(xù)信任的因素包括用戶、任務(wù)、機(jī)器三大維度,具體又涉及需求適配度、任務(wù)復(fù)雜度、技術(shù)安全性等13項(xiàng)細(xì)分指標(biāo)。

三、研究發(fā)現(xiàn)

(一)機(jī)器因素:從可供可用到可信可控

相比于用戶因素(16.43%)與任務(wù)因素(4.08%),機(jī)器因素(79.49%)成為影響用戶對(duì)AI可持續(xù)信任的核心變量。也就是說(shuō),不同于冷啟動(dòng)階段主觀感知因素的主導(dǎo)性影響,在持續(xù)性使用過(guò)程中客觀技術(shù)因素始終是關(guān)鍵因子。在諸多技術(shù)性因素中(圖1),AI的可用性成為當(dāng)下占比最大的范疇。尤其是AI幻覺(jué)、數(shù)據(jù)時(shí)效性、內(nèi)容準(zhǔn)確性上的技術(shù)瓶頸,成為人機(jī)可持續(xù)交互的最大桎梏。其中,內(nèi)容可信度也成為當(dāng)下AIGC的核心詬病。功能易用性及交互界面友好度也對(duì)用戶使用體驗(yàn)帶來(lái)了較大影響,這在一定程度上受到了用戶對(duì)既有產(chǎn)品(如搜索引擎、社交媒體等)功能界面的技術(shù)固著性影響。當(dāng)用戶對(duì)既有技術(shù)工具的產(chǎn)生使用慣性與模式依賴,對(duì)交互式AI的對(duì)話模式、信息篩選模式、提示語(yǔ)結(jié)構(gòu)會(huì)形成一定不適應(yīng),這種多平臺(tái)之間的模式轉(zhuǎn)換和遷移成本也會(huì)影響用戶感知易用性。相較之下,在生成式AI應(yīng)用門檻逐步降低的當(dāng)下,關(guān)于可供性的負(fù)面感知逐漸降低,算力資源對(duì)使用頻次所構(gòu)成的限制也成為部分高粘性用戶持續(xù)性使用的硬性阻礙。此外,雖然用戶隱私、數(shù)據(jù)安全、意識(shí)形態(tài)安全問(wèn)題作為技術(shù)底線成為媒體和學(xué)界所關(guān)注焦點(diǎn),但對(duì)于用戶持續(xù)性使用而言并未構(gòu)成重要影響(<5%)。從AI的可供到可用,也對(duì)應(yīng)著創(chuàng)新擴(kuò)散從早期采用者逐步滲透到早期大眾,而要從早期大眾擴(kuò)散到穩(wěn)定大眾使用,則還需要進(jìn)一步在可信和可控性上持續(xù)優(yōu)化。

根據(jù)信任閾值理論(Trust Threshold Theory),人機(jī)之間的持續(xù)性信任建立在特定閾值之上。當(dāng)機(jī)器某一行為或事件超過(guò)了該性能閾值,信任就會(huì)迅速崩塌。雖然安全性指標(biāo)在人機(jī)交互過(guò)程中顯著性較低,較少被用戶提及,但研究發(fā)現(xiàn)(圖2),安全因子對(duì)用戶可持續(xù)使用行為的影響程度大于其他因子,也即信任閾值更低。一旦在人機(jī)交互過(guò)程中出現(xiàn)了涉及隱私安全和意識(shí)形態(tài)安全的問(wèn)題,用戶對(duì)AI的信任度會(huì)迅速降低,對(duì)后續(xù)交互會(huì)產(chǎn)生持續(xù)性影響。相比之下,雖然可用性、易用性是當(dāng)下阻礙用戶持續(xù)信任的主導(dǎo)性因素,但用戶對(duì)其容錯(cuò)度更高,信任閾值也更高。此外,與終端和其他產(chǎn)品的兼容性雖然也影響了用戶的持續(xù)性信任,但對(duì)用戶的使用行為一般不會(huì)造成實(shí)質(zhì)性影響。結(jié)合現(xiàn)實(shí)場(chǎng)景來(lái)看,安全性問(wèn)題可能會(huì)導(dǎo)致用戶的永久性“棄用”,而技術(shù)性問(wèn)題則更多會(huì)形成階段性“失信”。對(duì)低閾值因素的信任修復(fù)需要花費(fèi)更多成本和時(shí)間,加強(qiáng)安全類因素的脆弱性和魯棒性研究是維系人機(jī)長(zhǎng)期信任的關(guān)鍵。

(二)用戶因素:從感性技術(shù)恐懼到理性需求適配

在初始信任形成過(guò)程中,用戶對(duì)產(chǎn)品的認(rèn)知多源于他者的間接評(píng)價(jià)和品牌背書,用戶主觀感知因素占據(jù)主導(dǎo)地位。包括個(gè)體既有偏見(jiàn)、媒體負(fù)面宣傳、低需求動(dòng)力和信息不對(duì)稱等都會(huì)降低個(gè)體對(duì)AI的初始信任度。而在可持續(xù)信任形成過(guò)程中,用戶既有主觀感知會(huì)被實(shí)際使用經(jīng)驗(yàn)放大或逆轉(zhuǎn)。尤其是當(dāng)用戶本身對(duì)AI存在恐懼或抵觸等負(fù)面情緒時(shí),在確認(rèn)偏誤影響機(jī)制下,其會(huì)傾向于尋找、解釋并記錄可以確認(rèn)自己的先入之見(jiàn)的信息,而忽略或低估與之相反的證據(jù)。[41]研究發(fā)現(xiàn)(圖3),技術(shù)恐懼成為影響人機(jī)可持續(xù)信任的核心主觀因素。這種感性層面的技術(shù)恐懼通常源于對(duì)AI復(fù)雜性、不可預(yù)測(cè)性以及潛在影響的不確定感。作為一種基于大量數(shù)據(jù)和復(fù)雜算法運(yùn)作的系統(tǒng),生成式AI的決策過(guò)程和內(nèi)部邏輯對(duì)于普通用戶而言,往往是“黑盒子”。這種不透明性可能引發(fā)對(duì)其可能產(chǎn)生的未知后果的擔(dān)憂,包括AI對(duì)人類工作的替代性擔(dān)憂也加劇了部分用戶的技術(shù)恐懼。而要減輕這種主觀層面的恐懼,增強(qiáng)系統(tǒng)的透明度和可解釋性并確保以人類福祉為核心導(dǎo)向的技術(shù)發(fā)展觀都必不可少。

除了主觀認(rèn)知性因素,客觀層面的需求匹配度也是影響可持續(xù)信任的重要因素。當(dāng)產(chǎn)品不能滿足用戶核心業(yè)務(wù)需求,或者不能有效解決用戶切實(shí)問(wèn)題時(shí),低需求動(dòng)力和低適配度均會(huì)降低用戶的使用頻次和粘性,進(jìn)一步弱化主觀期待和可持續(xù)性信任。此外,用戶媒介素養(yǎng)也會(huì)限制可持續(xù)信任的生成,包括操作層面的障礙和使用熟練度都會(huì)降低用戶使用體驗(yàn),影響人機(jī)信任維系。同時(shí),過(guò)高的心理預(yù)期則會(huì)對(duì)用戶實(shí)際使用體驗(yàn)帶來(lái)負(fù)面影響。預(yù)期確認(rèn)理論(Expectation Confirmation Theory)表明,用戶的滿意度是由他們的預(yù)期與實(shí)際使用體驗(yàn)之間的差異決定的。如果用戶對(duì)AI技術(shù)抱有過(guò)高的期望,而實(shí)際使用體驗(yàn)未能達(dá)到這些期望,這種不匹配可能導(dǎo)致信任的削弱。

進(jìn)一步對(duì)不同因素的影響程度進(jìn)行分析(圖4),可見(jiàn)需求適配度對(duì)用戶信任及持續(xù)使用的影響程度最大。在人機(jī)交互過(guò)程中實(shí)用主義導(dǎo)向仍占據(jù)主導(dǎo),當(dāng)AI能高度契合現(xiàn)實(shí)需求場(chǎng)景時(shí),依賴度和信任度都會(huì)顯著增高。其次為心理預(yù)期,一方面過(guò)高的預(yù)期往往會(huì)強(qiáng)化負(fù)面感知,另一方面當(dāng)AI表現(xiàn)超出預(yù)期時(shí)也能強(qiáng)化正向評(píng)價(jià)與后續(xù)信任度。相比之下,用戶媒介素養(yǎng)和技術(shù)恐懼雖然占比較高,但在影響產(chǎn)品評(píng)價(jià)和持續(xù)使用行為上的作用有限。綜合來(lái)看,用戶的需求場(chǎng)景、心理預(yù)期、媒介素養(yǎng)伴隨著人機(jī)交互頻次的深化而變化。且相比于機(jī)器因素,用戶層面的變動(dòng)更具可控性,這也使得可持續(xù)信任成為一個(gè)可形塑、可引導(dǎo)的動(dòng)態(tài)過(guò)程。在技術(shù)變量達(dá)到階段性瓶頸時(shí),用戶心理感知、認(rèn)知態(tài)度和使用行為層面的干預(yù)和引導(dǎo)就成為提升人機(jī)協(xié)作效率的關(guān)鍵抓手。

(三)任務(wù)因素:從軟性情境邊界到硬性合規(guī)約束

除了機(jī)器和用戶因素,任務(wù)作為人機(jī)交互的內(nèi)置目標(biāo)與外部情境,更多地關(guān)注用戶與機(jī)器之間具體的交互內(nèi)容,其復(fù)雜度、意圖和理解的清晰度、任務(wù)失敗的機(jī)會(huì)成本、潛在損失等都會(huì)直接影響可持續(xù)信任程度。任務(wù)因素可被視作一種外部調(diào)節(jié)變量,可動(dòng)態(tài)干預(yù)用戶對(duì)機(jī)器的信任程度。例如,當(dāng)面對(duì)低復(fù)雜度、低風(fēng)險(xiǎn)、低試錯(cuò)成本的常規(guī)性質(zhì)任務(wù)時(shí),用戶往往會(huì)展現(xiàn)出較高的信任度;相反,在面對(duì)那些要求精確控制、專業(yè)知識(shí)和高度判斷力的復(fù)雜任務(wù)時(shí),用戶的信任水平可能會(huì)顯著降低。研究發(fā)現(xiàn)(圖5),在任務(wù)因素中關(guān)鍵性失誤出現(xiàn)頻次最高,違規(guī)成本其次,而任務(wù)復(fù)雜度被提及頻次相對(duì)較低。尤其是在關(guān)鍵性任務(wù)中技術(shù)失誤所帶來(lái)的后果超出用戶承受閾值時(shí),用戶對(duì)機(jī)器的有效性普遍會(huì)持保留態(tài)度。一次關(guān)鍵任務(wù)失敗所帶來(lái)的信任損失,往往需要眾多成功任務(wù)經(jīng)驗(yàn)來(lái)彌補(bǔ),甚至?xí)?lái)永久性的“失信”。當(dāng)然,任務(wù)因素的調(diào)節(jié)效應(yīng)也與用戶的風(fēng)險(xiǎn)承受能力和容錯(cuò)度直接相關(guān)。在技術(shù)創(chuàng)新擴(kuò)散初期,包容性試錯(cuò)是提升技術(shù)接受度的關(guān)鍵。而隨著用戶對(duì)新技術(shù)的使用經(jīng)驗(yàn)和累積信任的增加,其會(huì)動(dòng)態(tài)調(diào)整自己的期望偏差,抗風(fēng)險(xiǎn)能力和對(duì)復(fù)雜任務(wù)的嘗試意愿一般也會(huì)提升。[42]

用戶、機(jī)器、任務(wù)三大影響因素共同構(gòu)成了“人”“機(jī)”“交互”中可持續(xù)信任機(jī)制。雖然任務(wù)因素當(dāng)下被提及頻次較低,但其對(duì)用戶負(fù)面感知的作用(M=1.40)卻強(qiáng)于機(jī)器特性(M=1.67)和用戶因素(M=1.76)。也即,交互任務(wù)所帶來(lái)的負(fù)面體驗(yàn)和現(xiàn)實(shí)損失,對(duì)人機(jī)持續(xù)信任會(huì)帶來(lái)更大影響。部分關(guān)鍵任務(wù)失敗甚至可能導(dǎo)致用戶較長(zhǎng)時(shí)期內(nèi)對(duì)技術(shù)的回避行為或過(guò)度謹(jǐn)慎。而在任務(wù)因素中(圖6),涉道德倫理和意識(shí)形態(tài)問(wèn)題上的違規(guī)成本成為用戶的重要考量,其對(duì)信任水平的影響略高于任務(wù)復(fù)雜度和關(guān)鍵性失誤。也即一旦機(jī)器在特定任務(wù)上可能出現(xiàn)有違“政治正確”的表現(xiàn),用戶對(duì)其信任程度和使用意愿會(huì)明顯降低。在強(qiáng)化意圖理解和任務(wù)拆解的基礎(chǔ)上探尋人機(jī)價(jià)值對(duì)齊,也是從人機(jī)高頻交互到人機(jī)有效協(xié)作轉(zhuǎn)化的動(dòng)力。

綜上,回應(yīng)了本文研究問(wèn)題2:在人機(jī)可持續(xù)信任的影響因素中,機(jī)器因素占比最大,其次為用戶要素,任務(wù)因素占比偏低。而在對(duì)用戶持續(xù)使用行為的影響程度上,關(guān)鍵任務(wù)失敗、機(jī)器安全性、用戶需求適配度影響最為顯著。

四、研究結(jié)論與啟示

信任是一種涉及期望、風(fēng)險(xiǎn)和不確定性的復(fù)雜社會(huì)心理現(xiàn)象,而人機(jī)信任更是凸顯了人類與機(jī)器交互與協(xié)作的內(nèi)在驅(qū)動(dòng)力。作為主觀感知變量,對(duì)信任的測(cè)量與研究通常依賴于量表設(shè)定,對(duì)相關(guān)因素的陳列也受到研究者既有理論框架的局限。不同于傳統(tǒng)定量和定性分析方法的既定框架,本研究基于計(jì)算扎根理論探討人機(jī)交互中可持續(xù)信任的影響因素,綜合開(kāi)源數(shù)據(jù)挖掘和機(jī)器編碼,將人機(jī)信任置于一種開(kāi)放性框架中進(jìn)行探討。一方面,在研究樣本的規(guī)模性和精準(zhǔn)性上做了有效控制,通過(guò)對(duì)AIGC深度用戶的評(píng)價(jià)與評(píng)分進(jìn)行多維篩選,提升了扎根文本的信息價(jià)值密度。另一方面,通過(guò)開(kāi)展系統(tǒng)性的內(nèi)容分析和分層范疇提煉,實(shí)現(xiàn)了從開(kāi)放數(shù)據(jù)到規(guī)范模型的理論建構(gòu)。這種基于海量數(shù)據(jù)的計(jì)算扎根,可以被視作一種綜合定量與定性要素的混合研究范式,對(duì)于多維理解人機(jī)可持續(xù)信任的形成和演變過(guò)程具備重要價(jià)值,也為未來(lái)人機(jī)交互系統(tǒng)的設(shè)計(jì)和優(yōu)化提供實(shí)質(zhì)性的參考和指導(dǎo)。

整體來(lái)看,在生成式人工智能的交互應(yīng)用中,機(jī)器因素(可用性、易用性、可供性和安全性等)帶來(lái)的負(fù)面感知相對(duì)明顯,其次為用戶要素(技術(shù)恐懼、需求適配、媒介素養(yǎng)、心理預(yù)期),而任務(wù)因素(關(guān)鍵性失誤、任務(wù)復(fù)雜度、違規(guī)成本)的感知顯著性相對(duì)最低。人、機(jī)與交互任務(wù)三方面的因素共同作用于信任水平,其中任務(wù)因素作為一種外部調(diào)節(jié)因素,對(duì)持續(xù)信任的影響相對(duì)最大。尤其是關(guān)鍵任務(wù)失敗所帶來(lái)的現(xiàn)實(shí)損失或機(jī)會(huì)成本會(huì)顯著降低用戶信任水平,甚至在后續(xù)交互使用中形成應(yīng)激障礙。此外,機(jī)器安全性(會(huì)不會(huì)損害自身現(xiàn)實(shí)利益)和用戶需求適配度(現(xiàn)實(shí)場(chǎng)景中是否用的上)都會(huì)對(duì)用戶使用頻次和持續(xù)信任產(chǎn)生較大影響。可見(jiàn),雖然人機(jī)交互是一種跨越虛實(shí)的對(duì)話場(chǎng)景和協(xié)作模式,但其對(duì)信任的影響仍根植于用戶的現(xiàn)實(shí)利益,現(xiàn)實(shí)增益所帶來(lái)的信任增強(qiáng)和現(xiàn)實(shí)損失所帶來(lái)的信任損耗均普遍存在。

適度信任是保障人機(jī)可持續(xù)協(xié)作的關(guān)鍵要素。面對(duì)根植于外部技術(shù)環(huán)境的“硬性”因素和源自于內(nèi)部主觀感知的“軟性”因素,有效調(diào)節(jié)信任水平、規(guī)避濫用和棄用,既需要從宏觀層面創(chuàng)建包容審慎的技術(shù)發(fā)展環(huán)境,在推進(jìn)人機(jī)價(jià)值對(duì)齊的過(guò)程中尋找技術(shù)的可持續(xù)發(fā)展之路,又需要從微觀層面提升個(gè)體媒介素養(yǎng)和AGI時(shí)代的生存技能,探索并從人機(jī)交互到人機(jī)協(xié)同再到人機(jī)共生的進(jìn)程。

首先,在交互任務(wù)層面,需要建立清晰的職責(zé)界限,確保人機(jī)之間存在清晰而明確的任務(wù)和責(zé)任分配,通過(guò)“互補(bǔ)式”協(xié)作規(guī)避機(jī)器局限性和關(guān)鍵任務(wù)風(fēng)險(xiǎn)。一方面,對(duì)于不同類型任務(wù)需要給出對(duì)應(yīng)風(fēng)險(xiǎn)提示,并對(duì)用戶的風(fēng)險(xiǎn)承受能力進(jìn)行量化分級(jí),從而實(shí)現(xiàn)精細(xì)化的風(fēng)險(xiǎn)管理和選擇性響應(yīng)。當(dāng)然在對(duì)高違規(guī)成本采取提示和回避策略的同時(shí),也需要避免“一刀切”式的粗放化管理,平衡任務(wù)的響應(yīng)率和風(fēng)險(xiǎn)控制。另一方面,在面向?qū)I(yè)領(lǐng)域的人機(jī)協(xié)作任務(wù)中,可引入透明化的運(yùn)作流程和決策機(jī)制,除了輸出最終結(jié)果,提供任務(wù)中間過(guò)程要素(包括代碼實(shí)現(xiàn)邏輯、計(jì)算流程、推理過(guò)程等),為用戶提供任務(wù)核查和排錯(cuò)的渠道,通過(guò)提升協(xié)作過(guò)程的信任度來(lái)增強(qiáng)任務(wù)結(jié)果的可控性。

其次,在機(jī)器性能層面,限于生成式人工智能的概率性輸出機(jī)制,很難完全規(guī)避隨機(jī)性所帶來(lái)的幻覺(jué)問(wèn)題,如何用可解釋性對(duì)沖不確定性,在人機(jī)價(jià)值對(duì)齊中實(shí)現(xiàn)信任動(dòng)態(tài)校準(zhǔn),還需要在底層算法和交互應(yīng)用層面做多重優(yōu)化。除了在產(chǎn)品可供性、內(nèi)容可用性、功能易用性上不斷迭代,補(bǔ)足技術(shù)短板、優(yōu)化用戶體驗(yàn),提升機(jī)器的“實(shí)際可信度”。在既有技術(shù)條件約束下,也可通過(guò)運(yùn)作機(jī)制優(yōu)化來(lái)提升機(jī)器的“感知可信度”。一方面,在傳播層面提升算法的透明度和可解釋性,讓用戶認(rèn)知系統(tǒng)的運(yùn)作方式和決策過(guò)程,可在一定程度上校準(zhǔn)過(guò)高期待及過(guò)度信任。另一方面,根據(jù)失誤恢復(fù)理論,當(dāng)系統(tǒng)在發(fā)生錯(cuò)誤后能迅速并有效地恢復(fù)時(shí),用戶的信任可能不僅不會(huì)下降,反而可能因?yàn)閷?duì)恢復(fù)能力的認(rèn)可而提高。錯(cuò)誤發(fā)現(xiàn)和修復(fù)的及時(shí)性也是信任校準(zhǔn)的關(guān)鍵因素,實(shí)證研究發(fā)現(xiàn),機(jī)器人在發(fā)生錯(cuò)誤后立即道歉比完成任務(wù)后再道歉跟更有利于信任修復(fù)。[43]特別是對(duì)于“黑箱”計(jì)算的人工智能模型而言,當(dāng)算法可解釋性和生成隨機(jī)性很難受控時(shí),及時(shí)的錯(cuò)誤發(fā)現(xiàn)、校準(zhǔn)響應(yīng)與迭代輸出對(duì)于可持續(xù)信任維系更為重要。

最后,在用戶操作層面,除了長(zhǎng)期視角下的媒介素養(yǎng)提升和使用經(jīng)驗(yàn)積累,就短期內(nèi)的優(yōu)化而言,通過(guò)在交互場(chǎng)景中引導(dǎo)用戶動(dòng)態(tài)調(diào)整心理預(yù)期、技術(shù)恐懼并找到供需連接點(diǎn),也有助于可持續(xù)信任的平衡與校準(zhǔn)。對(duì)于生成式人工智能而言,基于用戶反饋的強(qiáng)化學(xué)習(xí)機(jī)制——RLHF(Reinforcement Learning from Human Feedback)使得AI與人類在預(yù)期目標(biāo)和價(jià)值觀點(diǎn)上趨于對(duì)齊,在具體交互場(chǎng)景下的功能性缺陷也能被較好的糾偏與“馴化”。但多數(shù)情況下這種獎(jiǎng)懲機(jī)制需要由用戶主動(dòng)反饋,對(duì)于能動(dòng)性相對(duì)較低的用戶未能充分發(fā)揮效應(yīng),這就使得獎(jiǎng)懲機(jī)制的“前臺(tái)化”“界面化”展示成為必要。也即讓機(jī)器引導(dǎo)用戶進(jìn)行反饋,進(jìn)一步根據(jù)用戶正向或負(fù)向反饋進(jìn)行后續(xù)交互的優(yōu)化。目前部分AIGC產(chǎn)品已引入相關(guān)機(jī)制,通過(guò)同時(shí)提供用戶多個(gè)答案進(jìn)行比較,來(lái)推測(cè)用戶意圖、優(yōu)化響應(yīng)策略。這種雙向交互的反饋機(jī)制可降低信息熵和不確定性,幫助用戶調(diào)整心理預(yù)期和增強(qiáng)能動(dòng)性。

誠(chéng)然,可持續(xù)信任是一個(gè)包含多維變量的動(dòng)態(tài)過(guò)程,其生成、維系與演變均涉及各方面復(fù)雜因子的影響。本文雖力圖對(duì)其影響因素進(jìn)行扎根分析與實(shí)證測(cè)量,但仍有部分理論局限與技術(shù)操作缺陷需進(jìn)一步完善。首先,從理論層面,可持續(xù)信任的階段與生成機(jī)制需進(jìn)一步細(xì)化剖析。從冷啟動(dòng)到高頻交互再到穩(wěn)定協(xié)作,在人機(jī)交互的不同階段可持續(xù)信任的影響因素差異分化,不同因子之間的相互作用與重要性也在不斷演變。限于操作復(fù)雜性,本文未對(duì)信任的演變過(guò)程進(jìn)行劃分與追蹤,理論框架的適配性難免存在缺漏。其次,從測(cè)量方法來(lái)看,本文針對(duì)AIGC用戶的評(píng)論數(shù)據(jù)進(jìn)行扎根編碼,將“低評(píng)價(jià)分?jǐn)?shù)”等同于“低信任水平”,兩者在一定程度上存在關(guān)聯(lián)映射,但后續(xù)研究中對(duì)信任水平的操作定義仍需精細(xì)化。最后,由于扎根樣本均源自于網(wǎng)絡(luò)渠道和公開(kāi)表達(dá),忽略了其他“沉默用戶”的信任水平及其影響因素,高表達(dá)意愿的用戶群體其信任生成機(jī)制與其他群體是否存在差異?這也有待后續(xù)測(cè)量樣本的擴(kuò)充與論證,以提升結(jié)論的代表性。除此之外,當(dāng)下AIGC產(chǎn)品迭代與功能優(yōu)化不斷加速,影響用戶信任的因素也不斷在發(fā)生變化,本文分析樣本中的部分因素(如時(shí)效性、服務(wù)穩(wěn)定性等)在成文時(shí)均得到了優(yōu)化。伴隨著技術(shù)的普及擴(kuò)散,用戶的認(rèn)知、需求和持續(xù)使用行為也在轉(zhuǎn)變,這也為后續(xù)階段性、跟蹤性、對(duì)比性研究提供了方向。

參考文獻(xiàn):

[1] Baier, A.(1986).Trust and antitrust.Ethics,96(2):231-260.

[2] Taddeo, M .(2011). Defining trust and e-trust. International Journal of Technology and Human Interaction,5(2):23-35.

[3] Gambetta, D.(2000). Can we trust trust. Trust: Making and Breaking Cooperative Relations, 13(2000): 213-237.

[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2): 530-549.

[5] Ryan ,M.(2020) In AI we trust: Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5): 2749-2767.

[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,? 19(4): 7-11.

[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2): 627-660.

[8] Siau,K.& Wang ,W.(2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Gournal,31(2): 47-53.

[9] Gao, L.& Waechter, K .A.(2017) Examining the role of initial trust in user adoption of mobile payment services: An empirical investigation. Information Systems Frontiers, 19: 525-548.

[10] Hoehle, H.,Huff, S.& Goode ,S. (2012).The role of continuous trust in information systems continuance. Journal of Computer Information Systems,? 52(4): 1-9.

[11]Okamura, K. (2020). Adaptive trust calibration in human-AI cooperation, Ph.D. Dissertation. Kanagawa: The Graduate University of Advanced Studies.

[12] 朱翼.行為科學(xué)視角下人機(jī)信任的影響因素初探[J].國(guó)防科技,2021(4):4-9.

[13]Cabiddu, F., Moi, L., Patriotta, G.& Allen, D. G. (2022). Why do users trust algorithms? A review and conceptualization of initial trust and trust over time. European Management Journal, 40(5), 685-706.

[14] Luhmann, N.(1982). Trust and power. Studies in Soviet Thought .23 (3):266-270.

[15] Luhmann, N. (1979). Trust and power. Chichester: John Wiley.

[16] Durante ,M.(2010).What is the model of trust for multi-agent systems? Whether or not e-trust applies to autonomous agents. Knowledge, Technology & Policy, 23: 347-366.

[17] Hoff, K. A.& Bashir, M.(2015). Trust in automation: Integrating empirical evidence on factors that influence trust. Human factors, 57(3): 407-434.

[18] von Eschenbach ,W.J.(2021) Transparency and the black box problem: Why we do not trust AI. Philosophy & Technology, 34(4): 1607-1622.

[19] Gursoy, D., Chi ,O. H., Lu ,L., et al.(2019). Consumers acceptance of artificially intelligent (AI) device use in service delivery. International Journal of Information Management, 49: 157-169.

[20] Troshani, I., Rao ,H. S., Sherman ,C., et al. Do we trust in AI? Role of anthropomorphism and intelligence. Journal of Computer Information Systems, 61(5): 481-491.

[21] Glikson E. & Woolley, A.W. (2020).Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2): 627-660.

[22] Bogert, E., Schecter ,A.& Watson ,R. T.(2021 ). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific Reports, 11(1): 1-9.

[23] Taddeo ,M.(2009). Defining trust and e-trust: From old theories to new problems. International Journal of Technology and Human Interaction (IJTHI), 5(2): 23-35.

[24] Nissenbaum ,H.(2001). Securing trust online: Wisdom or oxymoron?Boston University Law Review, 81(3): 635-664.

[25] 何江新,張萍萍.從“算法信任”到“人機(jī)信任”路徑研究[J].自然辯證法研究,2020(11):81-85.

[26] Siau ,K.& Wang, W.(2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Gournal,? 31(2): 47-53.

[27] Dorton, S .L.& Harper, S. B.(2022). A naturalistic investigation of trust, AI, and intelligence work. Journal of Cognitive Engineering and Decision Making, 16(4): 222-236.

[28] Sheridan, T .B.(2019). Individual differences in attributes of trust in automation: Measurement and application to system design. Frontiers in Psychology, 10: 1117.

[29] Kim ,J., Giroux ,M.& Lee ,J. C. (2021).When do you trust AI? The effect of number presentation detail on consumer trust and acceptance of AI recommendations. Psychology & Marketing, 38(7): 1140-1155.

[30] 楊子瑩. 人機(jī)交互關(guān)系中的信任問(wèn)題研究[D].大連理工大學(xué),2022.

[31] 董文莉,方衛(wèi)寧.自動(dòng)化信任的研究綜述與展望[J].自動(dòng)化學(xué)報(bào),2021(6):1183-1200.

[32]Hoffman, R. R. (2017). A taxonomy of emergent trusting in the human–machine relationship. In Philip, J. & Robert, R.(eds.). Cognitive systems engineering: The future for a changing world. Leiden: CRC Press, 137-164.

[33] Okamura ,K.& Yamada ,S.(2020). Adaptive trust calibration for human-AI collaboration. Plos One, 15(2): e0229132.

[34]Jacovi,A., Marasovi,A., Miller,T., et al. (2021). Formalizing trust in artificial intelligence: Prerequisites, causes and goals of human trust in AI. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. New York: Association for Computing Machinery, 624-635.

[35] 齊佳音,張亞.人—機(jī)器人信任修復(fù)與信任再校準(zhǔn)研究[J].機(jī)器人產(chǎn)業(yè),2021(4):26-38.

[36] 何貴兵,陳誠(chéng),何澤桐等.智能組織中的人機(jī)協(xié)同決策:基于人機(jī)內(nèi)部兼容性的研究探索[J].心理科學(xué)進(jìn)展,2022(12):2619-2627.

[37] 于雪.基于機(jī)器能動(dòng)性的人機(jī)交互信任建構(gòu)[J].自然辯證法研究,2022(10):43-49.

[38]Ezer,N., Bruni,S., Cai,Y., et al. (2019). Trust engineering for human-AI teams. In Proceedings of the human factors and ergonomics society annual meeting. Los Angeles: Sage Publications, 322-326.

[39]Berente, N.& Seidel, S. Big data & inductive theory development: Towards computational Grounded Theory? Retrieved March 5, 2024, from https://core.ac.uk/reader/301361940.

[40] Glaser, B.& Strauss ,A.(1967). Grounded theory: The discovery of grounded theory. Sociology the Journal of the British Sociological Association, 12(1): 27-49.

[41] alikli, G.& Bener, A.(2013). Influence of confirmation biases of developers on software quality: An empirical study. Software Quality Journal, 21: 377-416.

[42] Hu, W.-L., Akash, K., Reid, T.& Jain, N.(2019). Computational modeling of the dynamics of humantrust during human–Machine interactions. IEEE Transactions on Human-Machine Systems, 49:485-497.

[43]Robinette, P., Howard, A. M.& Wagner, A. R. (2015). Timing is key for robot trust repair. In Proceedings of 7th international conference on social robotics. Paris: Springer International Publishing, 574-583.

[責(zé)任編輯:高辛凡]

Without Trust, without Cooperation: A Study on Sustainable Trust Mechanisms in Human-Computer Interaction

XIANG An-ling

Sustainable trust is a crucial element in ensuring high-frequency interactions and efficient collaboration between humans and machines. This paper, grounded in the computational grounded theory, conducts a coding analysis of 7235 user feedback from ChatGPT to distill the influencing factors of sustainable trust. The findings reveal that machine factors (such as usability, accessibility, availability, and security) have the highest proportion, followed by user elements (technological fear, demand adaptation, media literacy, and psychological expectations), while task factors (critical errors, task complexity, violation costs) have a relatively lower proportion. Critical misstep, machine security, and user demand adaptability significantly impact user trust levels. Establishing clear and complementary responsibilities between humans and machines, leveraging algorithmic interpretability to mitigate output uncertainty, and guiding users to adjust psychological expectations through a “gamified” reward and penalty mechanism contribute to the dynamic calibration of sustainable trust.

猜你喜歡
人機(jī)交互影響因素
某型柴油機(jī)虛擬維修系統(tǒng)研究
基于虛擬現(xiàn)實(shí)技術(shù)的九江城市交通事故模擬系統(tǒng)設(shè)計(jì)
人機(jī)交互課程創(chuàng)新實(shí)驗(yàn)
突發(fā)事件下應(yīng)急物資保障能力影響因素研究
環(huán)衛(wèi)工人生存狀況的調(diào)查分析
農(nóng)業(yè)生產(chǎn)性服務(wù)業(yè)需求影響因素分析
村級(jí)發(fā)展互助資金組織的運(yùn)行效率研究
基于系統(tǒng)論的煤層瓦斯壓力測(cè)定影響因素分析
多點(diǎn)噪聲遠(yuǎn)程自動(dòng)采集系統(tǒng)設(shè)計(jì)
庐江县| 饶阳县| 七台河市| 耒阳市| 白城市| 海晏县| 龙川县| 兴城市| 常宁市| 独山县| 太仆寺旗| 渑池县| 綦江县| 山阴县| 郎溪县| 驻马店市| 炉霍县| 错那县| 昌宁县| 恩平市| 南澳县| 宁阳县| 沂南县| 杭锦旗| 绿春县| 丰城市| 南和县| 仁怀市| 平陆县| 宜黄县| 镇宁| 灵山县| 柏乡县| 东平县| 兴义市| 香河县| 宜都市| 理塘县| 钟山县| 那坡县| 崇仁县|