陳奕延 李 曄
1(北京理工大學(xué)管理與經(jīng)濟(jì)學(xué)院 北京 100081) 2(南開大學(xué)經(jīng)濟(jì)與社會發(fā)展研究院 天津 300071) 3(河北省公共政策評估研究中心 河北 秦皇島 066004)
技術(shù)的發(fā)展始終伴隨著人類文明前進(jìn)的步伐,Norman[1]認(rèn)為技術(shù)的目的是通過設(shè)備簡化人類的生活,但同時也使得這些設(shè)備變得更難被人類學(xué)習(xí)或使用,這是技術(shù)的悖論。在許多技術(shù)的發(fā)展過程中都可以明顯觀察到指數(shù)化變化以及雪球效應(yīng)[2]。新興技術(shù)的成本會隨著技術(shù)規(guī)模的擴(kuò)張而降低[3]。相比技術(shù)的發(fā)展速度,人類的認(rèn)知發(fā)展則相對緩慢,無法及時適應(yīng)或?qū)W習(xí)所有這些技術(shù)。
當(dāng)一個國家或組織普及推廣新技術(shù)時必將給人們帶來新的挑戰(zhàn),持續(xù)的技術(shù)擴(kuò)散將迫使人們在很短時間內(nèi)接受并適應(yīng)新技術(shù),但這種技術(shù)變革的引入會對人類情感和認(rèn)知反應(yīng)形成刺激[4]。當(dāng)個體受到正向(負(fù)向)的刺激后,其情緒會迅速上升(下降)[5],雖然隨著時間推移個體會慢慢適應(yīng)這種刺激,且個體的情緒會回歸基準(zhǔn)線并達(dá)到以前的水平[6],但在短期內(nèi)由于缺乏清楚的理解與認(rèn)知,個體容易對新技術(shù)產(chǎn)生消極抵觸行為[7],這種行為會給國家或組織的發(fā)展與創(chuàng)新造成消極影響,比如導(dǎo)致企業(yè)業(yè)績不佳[8]。技術(shù)恐懼癥的表述尚未統(tǒng)一,我們通常將這種因使用新技術(shù)引發(fā)的消極、恐懼、排斥甚至厭惡情緒稱為“技術(shù)恐懼癥”。技術(shù)恐懼癥會給員工、組織,乃至國家的發(fā)展與創(chuàng)新帶來負(fù)面影響,特別是在人工智能技術(shù)飛速發(fā)展的今天,其復(fù)雜程度以及由此帶來的創(chuàng)新資源已經(jīng)不是單獨個體可以輕易掌握并加以控制的[9],而科學(xué)家們卻往往忽視人們對技術(shù)的態(tài)度,一往直前地致力于開發(fā)新技術(shù)[10],這樣必然會導(dǎo)致短時間內(nèi)人們對人工智能技術(shù)的恐懼。因此,找出克服人工智能技術(shù)恐懼癥的路徑顯得尤為重要。
本文研究的主要貢獻(xiàn)如下:(1) 提出人工智能技術(shù)恐懼癥的定義及誘因;(2) 借鑒以往研究,提出包括技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏五個指標(biāo)的衡量人工智能技術(shù)恐懼癥的指標(biāo)體系;(3) 采用5W模式并通過系統(tǒng)文獻(xiàn)綜述的方式,利用文獻(xiàn)定性分析法,分別提出克服技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏的路徑,為今后進(jìn)一步研究提供了理論依據(jù)。
人工智能技術(shù)是當(dāng)前全球關(guān)注度最高的技術(shù)之一,1956年的達(dá)特茅斯會議(Dartmouth Conference)上首次明確提出了“人工智能”的基本概念。人工智能領(lǐng)域的先驅(qū)Minsky[11]認(rèn)為人工智能是“讓機(jī)器去做本來需要人類智慧才能做到的事情的一門學(xué)科”;另外一位人工智能領(lǐng)域的先驅(qū),斯坦福大學(xué)的Nilsson[12]則認(rèn)為人工智能是由知識的表示、知識的獲取和知識的運用構(gòu)成的知識科學(xué)。在外形設(shè)計上,人工智能不僅可以與人類擁有相似的外形,比如本田公司制造的ASIMO機(jī)器人,也可以模仿其他生物,比如波士頓動力公司(Boston Dynamics)研發(fā)的機(jī)器狗Spot、SpotMini等。人工智能從能力范圍上來說可以分成廣義和狹義[13]兩類,廣義的人工智能要求具備完成復(fù)雜目標(biāo)的能力,而狹義的人工智能則要求具備人的大腦一般的復(fù)雜智力。另外,按照發(fā)展代際和是否擁有自我意識的角度來劃分,則人工智能還可以分為弱人工智能、強(qiáng)人工智能[14]和超級人工智能[15],當(dāng)前全球的人工智能發(fā)展水平尚處于“弱人工智能”階段。
面對“人工智能”等新興技術(shù),人們會根據(jù)對待新興技術(shù)的態(tài)度衍生出兩類人群:被技術(shù)所吸引的一類人群可以稱為“技術(shù)愛好者”(Technophile),他們以積極的態(tài)度接受大多數(shù)或所有的技術(shù),熱衷于使用新的技術(shù)形式,并將新技術(shù)視為改善生活條件和解決社會問題的一種方式[16]。然而,隨著現(xiàn)代技術(shù)在人類社會生活中的不斷擴(kuò)散,對技術(shù)表現(xiàn)出恐懼的人數(shù)正在逐步增加,這種對技術(shù)的恐懼可以從簡單的對新技術(shù)的回避行為,例如拒絕使用新技術(shù),發(fā)展為生理上的有機(jī)癥狀,比如出汗和心悸。這種現(xiàn)象將影響大約世界三分之一的人口[17],這種癥狀被稱為“技術(shù)恐懼癥”(Technophobia),患有“技術(shù)恐懼癥”的人是相對于“技術(shù)愛好者”的另外一類人群。
技術(shù)恐懼癥超越了國界限制,它是一種針對技術(shù)問題衍生的行為,與技術(shù)共存但不考慮物理位置[18],技術(shù)恐懼癥并非單純意義的恐懼癥(例如“廣場恐懼癥”),它可以被描述為一些針對先進(jìn)技術(shù)消極、恐懼的想法或不愿意使用先進(jìn)技術(shù)的態(tài)度[19];Osiceanua[17]則將技術(shù)恐懼癥定義為對現(xiàn)代技術(shù)和復(fù)雜技術(shù)設(shè)備的恐懼、厭惡或感到不適,它由兩個主要部分組成:(1) 對使用技術(shù)的恐懼;(2) 對技術(shù)給社會帶來的影響的擔(dān)憂。Korukonda[20]認(rèn)為技術(shù)恐懼癥是教育和培訓(xùn)系統(tǒng)以及商業(yè)組織中計算機(jī)技術(shù)快速普及發(fā)展的結(jié)果。由于技術(shù)在人類生活的各個方面廣泛存在,從職業(yè)工作、教育培訓(xùn)到娛樂休閑,人類每天都在和技術(shù)進(jìn)行著不同程度的接觸,因此,對接觸技術(shù)產(chǎn)生的恐懼在很大程度上影響著人們的生活質(zhì)量[21]。
過去幾十年對技術(shù)恐懼癥的研究大多集中在信息通信技術(shù)上,信息通信技術(shù)產(chǎn)生的技術(shù)焦慮癥有“計算機(jī)恐懼癥”[22]、“計算機(jī)焦慮癥”[23]和“網(wǎng)絡(luò)恐懼癥”[24]等多種稱呼,這些稱呼并沒有本質(zhì)意義上的區(qū)別[25]。許多學(xué)者對此進(jìn)行了詳細(xì)研究:Salamzadeh等[19]通過定性研究的方法調(diào)查研究了伊朗大學(xué)里的講師和高等教育學(xué)生的技術(shù)恐懼癥,將技術(shù)恐懼的原因歸結(jié)為缺乏個人技能等共14個原因;Nimrod[25]認(rèn)為技術(shù)恐懼癥與用戶的教育程度、健康狀況和幸福感相關(guān),幸福感的缺失與技術(shù)恐懼癥之間呈現(xiàn)顯著的正相關(guān)性;Hogan[26]在研究中發(fā)現(xiàn)技術(shù)恐懼癥與性別和經(jīng)驗有關(guān),相關(guān)專業(yè)的經(jīng)驗越高,則技術(shù)恐懼癥的水平越低;Bozionelos[27]研究了認(rèn)知的自發(fā)性與計算機(jī)焦慮的關(guān)系以及對計算機(jī)使用的態(tài)度,結(jié)果表明認(rèn)知的自發(fā)性與計算機(jī)焦慮之間存在顯著的負(fù)相關(guān);Tekinarslan[28]研究了106名荷蘭和土耳其大學(xué)生的計算機(jī)焦慮水平及差異,結(jié)果顯示不論國籍,當(dāng)學(xué)生的計算機(jī)經(jīng)驗增加后他們的計算機(jī)焦慮水平會顯著下降;Rosen等[29]對澳大利亞等共10個國家高校大學(xué)生的計算機(jī)焦慮結(jié)構(gòu)進(jìn)行了比較分析,從文化特征、計算機(jī)教育、計算機(jī)軟硬件等方面探討了計算機(jī)焦慮的結(jié)構(gòu)性異同;Weil等[30]對美國等一共23個國家38所大學(xué)的3 992名一年級學(xué)生的技術(shù)恐懼癥進(jìn)行了調(diào)查,結(jié)果顯示大多數(shù)國家的樣本中計算機(jī)領(lǐng)域的經(jīng)驗技術(shù)越豐富,技術(shù)恐懼癥的程度越低。
人工智能技術(shù)作為一種新興技術(shù),同樣可以引發(fā)人們的“技術(shù)恐懼癥”。由于人工智能技術(shù)的出現(xiàn)與興起較互聯(lián)網(wǎng)技術(shù)更晚,因此針對人工智能技術(shù)引發(fā)的“技術(shù)恐懼癥”的研究目前較少。以自動駕駛汽車(Autonomous Vehicles)為例,它是承載了人工智能技術(shù)的智能工業(yè)載體,Hudson等[31]的研究表明,人們在對待自動駕駛汽車的態(tài)度上呈現(xiàn)出分化態(tài)勢。例如,20歲的年輕人群體對自動駕駛汽車感到不舒服的比例為73.4%,而在65歲的老年人群中這一比例則為82.6%。另外一項來自德勤科技、傳媒和電信行業(yè)中心[32](Center for Technology,Media & Telecommunications,Deloitte)的調(diào)查報告顯示雖然在微觀層面上有近三分之二的早期人工智能應(yīng)用者認(rèn)為人工智能技術(shù)對企業(yè)取得商業(yè)上的成功“非?!被颉疤貏e”重要,但在多數(shù)國家中,企業(yè)對潛在的人工智能風(fēng)險的擔(dān)憂程度高于他們追趕或緊跟競爭對手的意愿程度,如圖1所示。
圖1 各國企業(yè)對人工智能技術(shù)的意愿與擔(dān)憂程度
顯然,即便是對人工智能技術(shù)持最樂觀態(tài)度的中國也存在對于人工智能的擔(dān)憂,這說明“技術(shù)恐懼癥”是普遍存在的,為與傳統(tǒng)的信息通信技術(shù)(ICT)引發(fā)的技術(shù)恐懼癥相區(qū)別,將這種由人工智能技術(shù)引發(fā)的技術(shù)恐懼癥命名為“人工智能技術(shù)恐懼癥”(Artificial Intelligence-based Technophobia)。人工智能技術(shù)恐懼癥使人類無法完全與人工智能在社會生活和科技活動中進(jìn)行協(xié)作,人們對人工智能在安全隱私、道德倫理等方面均有或多或少的擔(dān)憂。另一方面,即便人類消除了技術(shù)層面上對于人工智能的擔(dān)憂,單純就外觀設(shè)計或行為上人類對人工智能依然存在恐懼。Mori等[33]提出的“恐怖谷”理論闡述了這一觀點,即當(dāng)人工智能在外形或動作上與人類的相似程度超出一定閾值時,人類對人工智能的認(rèn)同感反而開始下降,甚至出現(xiàn)“排斥情緒”(認(rèn)同感為負(fù)),以工業(yè)六軸機(jī)器人、COG類人機(jī)器人、Aldebaran NAO機(jī)器人、Geminoid成人型機(jī)器人、玩具人偶等物體為例,可以看出人類對類人形人工智能的認(rèn)同感甚至不如玩具人偶高,如圖2所示。
可見,人工智能技術(shù)恐懼癥與傳統(tǒng)的技術(shù)恐懼癥(比如信息通信技術(shù)(ICT)的恐懼癥)不同,患者不僅對使用人工智能技術(shù)以及人工智能技術(shù)帶來的社會問題產(chǎn)生消極、排斥、恐懼甚至厭惡的情緒和行為,對人工智能技術(shù)載體的外觀或行為也存在不認(rèn)同感,二者的區(qū)別如表1所示。
表1 兩種技術(shù)恐懼癥的區(qū)別
由于人工智能技術(shù)恐懼癥與傳統(tǒng)的ICT技術(shù)恐懼癥不同,想要克服人工智能技術(shù)恐懼癥,則必須找到誘發(fā)人工智能技術(shù)恐懼癥的恐懼因素,進(jìn)而針對不同的恐懼因素提出不同的克服路徑,這樣的研究需要在一定的背景條件下進(jìn)行。人工智能的社會接納問題是一個具有挑戰(zhàn)性的開放問題,Mori等[33]和Kaplan[44]都認(rèn)為應(yīng)該把人工智能與人類環(huán)境的社會融合問題作為一項關(guān)鍵任務(wù),對人類而言,與人工智能的合作不僅要保障生理的安全,在心理上也應(yīng)該是舒適的[45],如果人類確實了解人工智能的意圖,那么他們就可以更好地開展合作[46],并使得人工智能可以按照人類認(rèn)為的安全方式執(zhí)行任務(wù)[47]。
在保障生理安全方面,人們對于人工智能的擔(dān)憂主要來自于兩方面。一方面是人工智能高度進(jìn)化后可能會對人類造成的“背叛”,這是一種來自人工智能主觀意志(如果人工智能具備主體性和足夠的智慧,則自然擁有主觀意志)的威脅,目前尚未出現(xiàn)相關(guān)案例報道,但一經(jīng)發(fā)生則后果會相當(dāng)嚴(yán)重。另外一方面,則是使用人工智能過程中由于機(jī)械或系統(tǒng)故障帶來的那些威脅人類生命健康安全的隱患,比如空間機(jī)器人因長期重復(fù)執(zhí)行控制指令發(fā)生的系統(tǒng)崩潰[48-49]。這種威脅不會以人工智能的主觀意志為轉(zhuǎn)移,而是一種客觀存在的現(xiàn)象,就像人類會生病一樣,這些隱患可以通過技術(shù)手段加以解決,即只需要對人工智能進(jìn)行升級改進(jìn),而不需要特別關(guān)注患有人工智能技術(shù)恐懼癥的人們(通常為用戶群體)的感受。只要降低了人工智能技術(shù)的故障率,則出現(xiàn)危害人類生命健康安全的事件的概率也會相應(yīng)降低,人們自然無須再擔(dān)心技術(shù)安全造成的生命健康威脅。正如19世紀(jì)末汽車問世至今,人們對駕駛汽車的態(tài)度變化一樣。據(jù)此提出背景假設(shè):(1) 研究討論的人工智能是與人類智慧相當(dāng)或更高的強(qiáng)人工智能或超級人工智能;(2) 研究討論的人工智能技術(shù)恐懼癥的恐懼因素,不包括人工智能因發(fā)生客觀故障對人類造成的生理安全威脅。
要找到克服人工智能技術(shù)恐懼癥的路徑,則必須首先找到人們產(chǎn)生人工智能技術(shù)恐懼的各種恐懼因素,即導(dǎo)致人工智能技術(shù)恐懼癥發(fā)生的因素,用它們構(gòu)建一套合理、客觀的指標(biāo)體系,在此基礎(chǔ)上進(jìn)行探討分析。在心理方面,很多學(xué)者也做出過對于技術(shù)恐懼癥的相關(guān)的研究,大多數(shù)都是用量表來測試并分析技術(shù)恐懼癥的程度,常用的有KHASAWNEH技術(shù)恐懼癥量表[50]、技術(shù)接受模型[51](Technology Acceptance Model,TAM)、特質(zhì)元情緒量表[52](Trait Meta-Mood Scale,TMMS)、組織氛圍問卷[53](Litwin and Stringer Organizational Climate Questionnaire,LSOCQ),這些量表主要發(fā)放給受試者,讓受試者根據(jù)不同的項目進(jìn)行打分,然后利用統(tǒng)計工具對調(diào)查結(jié)果進(jìn)行分析,屬于定量分析。雖然這些定量研究較為客觀合理,且貼近實際生活,但信息的收集容易受到問題和受試者差異的影響,故調(diào)查的結(jié)論通常也會不同,因此,參考KHASAWNEH技術(shù)恐懼癥量表并結(jié)合人工智能技術(shù)恐懼癥的特點,在此基礎(chǔ)上構(gòu)建誘發(fā)人工智能技術(shù)恐懼癥的指標(biāo)體系。KHASAWNEH[40]設(shè)計的量表用五個指標(biāo)來衡量分析技術(shù)恐懼癥,包括技術(shù)偏執(zhí)(Techno-Paranoia)、技術(shù)擔(dān)憂(Techno-Fear)、技術(shù)焦慮(Techno-Anxiety)、控制反叛(Cybernetic Revolt)、手機(jī)回避(Cellphone Avoidance),這五個指標(biāo)的具體釋義如表2所示。
表2 KHASAWNEH技術(shù)恐懼癥量表的指標(biāo)及釋義
顯然,前4項指標(biāo)的適用對象不限于特定的技術(shù),所以也可用于解釋人工智能技術(shù)恐懼癥,而第5項指標(biāo)具有較強(qiáng)的針對性,針對的是信息通信技術(shù)(ICT)。由于研究對象是人工智能技術(shù)恐懼癥,加之人工智能技術(shù)恐懼癥與ICT技術(shù)恐懼癥有所區(qū)別(詳見表1),故第5項指標(biāo)并不適用于此。結(jié)合Mori等[33]的“恐怖谷”理論,將第5項指標(biāo)“手機(jī)回避”替換為“認(rèn)同感匱乏”(Less Sense of Identitiy),可以構(gòu)建一個用于衡量人工智能技術(shù)恐懼癥的指標(biāo)體系如表3所示。
表3 衡量人工智能技術(shù)恐懼癥的指標(biāo)體系
由于以往的研究都是通過含有不同指標(biāo)的量表,從不同的受訪群體中抽取樣本進(jìn)行調(diào)查并收集信息,最后利用統(tǒng)計的方法對信息進(jìn)行處理分析,這些研究方法存在一定局限性,易受到指標(biāo)選取、調(diào)查對象選取、樣本容量大小等因素的影響,方法雖然客觀,但研究的魯棒性較差,容易得到不一致甚至相矛盾的結(jié)論,加之人工智能技術(shù)恐懼癥的成熟研究較少,數(shù)據(jù)匱乏不易獲取,采用定量分析的方法存在困難。
由于文獻(xiàn)分析法具有工作效率高、信息獲取簡單、分析成本低的優(yōu)勢,而定性分析可以在宏觀層面用邏輯清晰揭示各種現(xiàn)象的內(nèi)在聯(lián)系[54],文獻(xiàn)定性分析法則結(jié)合了兩種分析方法的優(yōu)勢,故研究采用文獻(xiàn)定性分析法,利用Lasswell[55]的5W模式,利用系統(tǒng)文獻(xiàn)綜述(Systematic literature review)的方式針對人工智能技術(shù)恐懼癥的每一個指標(biāo)進(jìn)行指向性的文獻(xiàn)搜集,然后通過梳理分析搜集的研究文獻(xiàn),提出客觀科學(xué)的克服人工智能技術(shù)恐懼癥的有效路徑。另一方面,雖然在短時間內(nèi)無法克服所有患者的人工智能技術(shù)恐懼癥,但人類個體可以通過情緒放大的方式影響整個群體,即個體可以通過傳播感知、經(jīng)驗、態(tài)度、信念、信息編碼和目標(biāo)尋求來改變整個群體對上述因素的態(tài)度[56-58],如果少部分人群克服了人工智能技術(shù)恐懼癥,通過情緒放大的途徑,則可以緩解剩余患者的人工智能技術(shù)恐懼癥,使整個群體的情緒趨于凝聚和穩(wěn)定[59-60],對進(jìn)一步克服人工智能技術(shù)恐懼癥起到積極作用。
對于人工智能技術(shù)的偏執(zhí)來源于對技術(shù)不合理的懷疑或不信任,這是因為人類對人工智能的出現(xiàn)抱有一種敏感的兩面情緒,一方面人類對于創(chuàng)造人工智能這件事而言是自大且自信的,認(rèn)為自己扮演了造物主的角色,可以認(rèn)為人工智能的出現(xiàn)是人類第一次親手創(chuàng)造出了擁有高智慧及自主性的事物,所以人類對人工智能抱有一種“自大”情緒,但這種情緒并不完全等同于心理學(xué)上典型的“自戀型人格”(Narcissistic Personality)。自戀是一種帶有傲慢和權(quán)力感,并喜歡剝削他人意愿有關(guān)的人格特質(zhì)[61],具有崇拜需要[62],而這種崇拜需要來源于扭曲的自我觀點和自我提升[63],但人類清楚人工智能強(qiáng)大的能力,也沒有信心百分之百能夠讓人工智能崇拜自己,否則就不會對人工智能抱有恐懼情緒,所以這種“自大”并非純粹的“自戀”。人類除了身為造物主的“自大”之外,對于人工智能還帶有“自卑心理”,這是因為人類的進(jìn)化具有排他性,雖然人類經(jīng)常標(biāo)榜自己是熱愛和平的生物,但自從人類祖先誕生這幾十萬年以來,人類卻滅絕了地球上90%的物種,且人類滅絕生物的速度是自然界創(chuàng)造新生物種速度的1 000倍[64],但人工智能不同于以往的自然演化生物,人類是無法徹底消滅人工智能的,除非人類放棄發(fā)展人工智能,而人工智能的智慧水平卻隨著人類的需求變得越來越高,甚至在未來會有超越人類的一天。人類對人工智能強(qiáng)大的能力有一種渴望,同時還混雜著自卑情緒。因此,可以認(rèn)為人類對人工智能抱有復(fù)雜的感情,但這種感情使人類進(jìn)入了一種“雙重自我否定”的悖論情結(jié):一方面人類之于人工智能扮演著“造物主”的角色,認(rèn)為自己理應(yīng)擁有高于人工智能的社會位置;而另一方面,人工智能所具有的能力又遠(yuǎn)遠(yuǎn)強(qiáng)于人類,在能力范疇上人類無法企及,人類出于本能對人工智能擁有一種防御心態(tài)[65]。由此可知,人類無法完全信任人工智能技術(shù)。由于這種技術(shù)偏執(zhí)導(dǎo)致的不信任并非因為信息匱乏或者知識結(jié)構(gòu)不對稱,而是一種不合理的懷疑或不信任,所以它無法通過簡單的科學(xué)普及或知識學(xué)習(xí)來解決,必須從心理或組織管理的角度中尋找相應(yīng)的克服路徑。
克服技術(shù)偏執(zhí)的路徑是提升自我效能。自我效能是指個體對自己能否順利完成任務(wù)的信念或信心[66],人工智能技術(shù)的發(fā)展是不可回避的,因此可以把人工智能的出現(xiàn)視作一種挑戰(zhàn)性壓力(Challenge Stress)[67],個體在面對壓力時更傾向于改變環(huán)境[68],比如通過創(chuàng)新的方式[69]。當(dāng)人類面臨人工智能帶來的壓力時,如果能夠?qū)⑦@種壓力視作挑戰(zhàn)性壓力,則可以提升人類的自我效能,而自我效能的增加也可以促進(jìn)對他人的信任感,特別是在團(tuán)隊中員工之間的彼此信任[70],而人機(jī)協(xié)作的環(huán)境中,人類和機(jī)器人需要共同作業(yè)組成一個團(tuán)隊組織,又因為在之前的假設(shè)中認(rèn)為人工智能具有和人類相當(dāng)甚至更高的智慧(強(qiáng)人工智能或超級人工智能),所以可以將研究中的人工智能臨時賦予人類的“主體性”,即將人工智能作為人類來看待。當(dāng)人類的自我效能增加時,在團(tuán)隊氛圍中對人工智能的信任也自然會增加;另一方面,根據(jù)壓力交易理論[71],當(dāng)個體承擔(dān)了過多的工作任務(wù)和工作職責(zé)時,他們會更多地關(guān)注個人投入是否得到合理的補(bǔ)償,即是否存在“分配公平”的組織管理機(jī)制,若不存在這樣“分配公平”的機(jī)制,組織內(nèi)的成員無法通過多勞多得的方式獲得自我肯定感和勝任感,則個體完成任務(wù)的動力和自信都會大打折扣,自我效能反而會因此降低[72]。分配可能會致使自我效能下降,但由于人工智能提高了社會生產(chǎn)效率,使得社會的供給增加,分配問題的重要性相對而言有所下降。Graetz等[35]利用1993年至2007年17個國家的工業(yè)面板數(shù)據(jù)研究了工業(yè)機(jī)器人與發(fā)達(dá)國家取得的經(jīng)濟(jì)成果之間的關(guān)系,發(fā)現(xiàn)工業(yè)機(jī)器人的使用量的增加與勞動生產(chǎn)率的提高有關(guān),機(jī)器人使用量的增加對每年的勞動生產(chǎn)率增長貢獻(xiàn)了大約0.36%,對整體經(jīng)濟(jì)生產(chǎn)力增長的貢獻(xiàn)達(dá)到了15%,不僅增加了供給降低了產(chǎn)出價格,而且提高了全要素生產(chǎn)率。所以,當(dāng)人工智能充斥社會各個工作崗位后,不必過度擔(dān)心分配問題,因為物質(zhì)會變得極豐富。既然分配公平不會過多影響個體自我效能的提升,因此有理由認(rèn)為提升自我效能可以克服技術(shù)偏執(zhí)。
對于人工智能的技術(shù)擔(dān)憂來自不想被人工智能改變現(xiàn)有生活模式的固執(zhí)心理,而著名心理學(xué)家Festinger[36]認(rèn)為固執(zhí)心理被認(rèn)為是由認(rèn)知失調(diào)(Cognitive Dissonance)引起的,認(rèn)知失調(diào)就是由于兩種認(rèn)知在環(huán)境、個人行為、信仰、意志、信念等不一致而使人滋生的緊張心理,情況嚴(yán)重時會導(dǎo)致人格失常與離軌行為。人們不想改變現(xiàn)有的生活狀態(tài),是因為現(xiàn)有的生活環(huán)境形成了一個符合自身心理舒適的“舒適區(qū)間”(Comfort Zone)。舒適區(qū)最早來源于安全旅行和交通心理學(xué)領(lǐng)域,Gibson等[75]將它定義為駕駛過程中使司機(jī)感到舒適的行為。后來這一概念逐步拓展延伸至社會心理學(xué)和管理心理學(xué),它代表了個體表現(xiàn)出來的習(xí)慣性行為模式和認(rèn)知狀態(tài),習(xí)慣處于舒適區(qū)間的人們不希望改變現(xiàn)有的行為狀態(tài)或固有認(rèn)知,因此會不自覺地排斥外來介質(zhì)的干擾,如果行為超過舒適區(qū),則會產(chǎn)生焦慮不安。長期處于舒適區(qū)環(huán)境下的人們會產(chǎn)生認(rèn)知失調(diào),他們對待新鮮事物會習(xí)慣從主觀意愿出發(fā),采用自己習(xí)慣的固有認(rèn)知,習(xí)慣性地排斥和拒絕與固有認(rèn)知相悖的情況,當(dāng)新鮮事物與固有認(rèn)知不符時,就會對新鮮事物產(chǎn)生排斥[38],最嚴(yán)重的情況會發(fā)展為“認(rèn)知閉合”,即個體會過度利用某些社會線索,通過“以偏概全”的方式說服自己,避免再次面對認(rèn)知的模糊性(固有認(rèn)知與新鮮事物兩種認(rèn)知造成的模糊性),且不愿吸收與原有信息不一樣的新信息,很難被他人說服[39]。面對人工智能,人們會用習(xí)慣的固有認(rèn)知去衡量這一新鮮事物,在兩種認(rèn)知產(chǎn)生不一致后就會形成擔(dān)憂情緒,擔(dān)憂人工智能作為外來介質(zhì)會改變個體原有的心理舒適區(qū),從而產(chǎn)生技術(shù)擔(dān)憂。
克服技術(shù)擔(dān)憂的路徑是走出心理舒適區(qū)或拓展心理舒適區(qū)。走出舒適區(qū)域要通過激勵的措施來激發(fā)人們不畏艱險、努力嘗試的情緒。當(dāng)個體接收的信號較為積極時,人們會感受到更多對自我社會判斷能力的確定性,從而產(chǎn)生積極情緒[40],而正確的引導(dǎo)也可以激發(fā)個體的勇氣[41],而個體在面對壓力時更傾向于改變環(huán)境[68],因此,采用適當(dāng)?shù)姆椒ㄊ强梢源偈谷藗冏叱鲂睦硎孢m區(qū),克服技術(shù)擔(dān)憂的。另一方面,擴(kuò)展個體的心理舒適區(qū)也是一個好方法,這種方法通常被用于心理治療,目的是增強(qiáng)自我認(rèn)知和情感體驗[80]。在人工智能的設(shè)計上也要更加注重工效學(xué)和用戶體驗,Ciuha等[43]研究了男性和女性皮膚區(qū)域?qū)囟却碳さ拿舾行裕m然結(jié)論并沒有呈現(xiàn)出因性別不同導(dǎo)致的顯著的熱敏性差異,但研究發(fā)現(xiàn)手臂的熱敏感性相比其他軀體部位更高。在設(shè)計人工智能散熱性功能的時候,可以將上述因素納入考慮,提高客戶群體對產(chǎn)品的體驗感,使客戶對該產(chǎn)品的自我認(rèn)知得到強(qiáng)化,并形成該產(chǎn)品使用起來非常舒適的固有認(rèn)知,這在無形中拓展了心理舒適區(qū)。顯然,不論是引導(dǎo)人們走出心理舒適區(qū),或者通過工效學(xué)和用戶體驗的知識拓展心理舒適區(qū),都可以成為克服技術(shù)擔(dān)憂的路徑。
對于人工智能技術(shù)的焦慮來自于對人工智能技術(shù)的不熟悉以及缺少使用人工智能技術(shù)的相關(guān)經(jīng)驗。這種技術(shù)焦慮與技術(shù)擔(dān)憂和技術(shù)偏執(zhí)不同,按照Osiceanua[17]對技術(shù)恐懼癥的定義,這種技術(shù)焦慮并非單純針對人工智能技術(shù)本身的恐懼,而是對人工智能技術(shù)已經(jīng)或未來可能給社會帶來的影響產(chǎn)生的焦慮,其中最主要的焦慮來自于因無法掌握或熟練應(yīng)用新技術(shù)而失業(yè)[72],事實上這種焦慮并非毫無根據(jù),很多學(xué)者都認(rèn)為人工智能技術(shù)的推廣和普及會導(dǎo)致一部分群體失業(yè)。Zemtsov[73]認(rèn)為使用無人技術(shù)可能會導(dǎo)致就業(yè)水平下降,以俄羅斯為例,大約44%的工人會被無人技術(shù)替代,在從事制造業(yè)的發(fā)達(dá)地區(qū),工人被無人技術(shù)的替代率要高于不發(fā)達(dá)地區(qū)。Gomes[74]拓展了新古典增長模型,用它分析了自動化對總體經(jīng)濟(jì)的影響,認(rèn)為當(dāng)前社會出現(xiàn)的創(chuàng)新浪潮面臨著失業(yè)以及機(jī)器人替代勞動力帶來的潛在社會動蕩。Frey等[75]利用高斯過程分類器估計了702個詳細(xì)職業(yè)的計算機(jī)化的概率,基于這些概率估計研究了未來計算機(jī)化對美國勞動力市場的影響效果,得到了工資和教育成就與計算機(jī)化的可能性之間呈現(xiàn)強(qiáng)烈的負(fù)相關(guān)的結(jié)論,認(rèn)為資本將深化對技能勞動力的需求。通過預(yù)測可以發(fā)現(xiàn),有170個職業(yè)被計算機(jī)技術(shù)替代的概率在90%以上,大多數(shù)運輸工人、后勤崗位人員、大量的辦公室和行政部門助理人員、生產(chǎn)部門的勞動力人員都存在工作崗位被計算機(jī)技術(shù)替代的風(fēng)險。按照馬斯洛的需求理論,生理需求位于最低的層級,這其中就包括對于水和食物的需求,如果勞動者失業(yè),則他們的可支配收入必然下降,這在一定程度上將會影響他們最為基本的生理需求,使他們的生活質(zhì)量下降。因此,有理由認(rèn)為擔(dān)憂因無法掌握人工智能技術(shù)而失業(yè),從而導(dǎo)致生活質(zhì)量下降甚至影響生存是技術(shù)焦慮的根源。
克服技術(shù)焦慮的路徑是針對人工智能技術(shù)教育培訓(xùn)的模式開展技術(shù)創(chuàng)新。人工智能技術(shù)是一項非常復(fù)雜的技術(shù),需要掌握數(shù)學(xué)、計算機(jī)、自動化等多個領(lǐng)域的專業(yè)知識。傳統(tǒng)的面授式培訓(xùn)和教育方式有較多限制,且流程上較為碎片化,應(yīng)該將其進(jìn)行系統(tǒng)化、集成化、靈活化、平臺化整合,不僅要滿足專業(yè)人士的教育培訓(xùn)需求,也要滿足一些興趣愛好者的自學(xué)需要,通過技術(shù)創(chuàng)新的方法提高培訓(xùn)設(shè)施或軟硬件設(shè)備的科技附加值,從而進(jìn)一步提升教育培訓(xùn)的整體效率。Deniz等[76]提出一種為工業(yè)機(jī)器人離線編程而設(shè)計的新穎的互動式訓(xùn)練平臺,其目標(biāo)是支持機(jī)器人教育、實用機(jī)器人學(xué)習(xí)、工業(yè)機(jī)器人科學(xué)這三項教育培訓(xùn)任務(wù),通過該交互式機(jī)器人平臺,客戶可以創(chuàng)建所有商用機(jī)器人品牌的機(jī)械手幾何配置和新的機(jī)械手幾何設(shè)計。該平臺涵蓋了如編程、基本運動類型(線性、關(guān)節(jié)、重新定向)、操縱器工作空間定義、刀具中心點和軸速度、加速度等所有參數(shù)和功能,能夠提供可插入到工作區(qū)中的實體組件并進(jìn)行編程演示,同時具備真正的編程邏輯控制器和離線編程的機(jī)器人連接裝置。平臺體積小,是基于開源庫設(shè)計和開發(fā)的,能夠在所有操作系統(tǒng)(如Windows、Mac和Linux)上工作。Perez等[77]研究了虛擬現(xiàn)實與機(jī)器人技術(shù)之間的協(xié)同作用,提出了利用商業(yè)游戲技術(shù)來創(chuàng)造一個基于虛擬現(xiàn)實的完全沉浸式環(huán)境。該環(huán)境包括一個連接到機(jī)器人控制器的接口,在該接口上實現(xiàn)了控制虛擬機(jī)器人所需的數(shù)學(xué)模型,該系統(tǒng)可用于訓(xùn)練、仿真和更具創(chuàng)新性的功能。該系統(tǒng)對于機(jī)器人控制而言具有集成性、非昂貴性和獨特性的優(yōu)點,可滿足機(jī)器人愛好者進(jìn)行自學(xué)的需求。Borrero等[78]在機(jī)器人學(xué)的實驗訓(xùn)練領(lǐng)域提出了一個新的現(xiàn)實和新的教學(xué)/學(xué)習(xí)概念,這是一種基于增強(qiáng)現(xiàn)實的遠(yuǎn)程實驗室系統(tǒng),能夠使教授和學(xué)生在當(dāng)前的課堂實驗室即時交流,系統(tǒng)中包括與真實實驗室交互的虛擬元素,相比傳統(tǒng)的課堂實驗室,這種遠(yuǎn)程實驗室系統(tǒng)提供了更多的功能。諸如此類的研究還有很多,顯然,要克服技術(shù)焦慮就必須改善外來就業(yè)前景,增強(qiáng)人們的就業(yè)期望,通過技術(shù)創(chuàng)新改善教育培訓(xùn)流程可以完成這一任務(wù)。
人們對“控制反叛”的擔(dān)憂源自于人工智能不斷演化,且最終擁有超越人類智慧的情境,當(dāng)人工智能的能力徹底超越人類后(強(qiáng)人工智能或超級人工智能階段),人們擔(dān)心沒有辦法有效約束人工智能,而人工智能也未必會像現(xiàn)在一樣(弱人工智能)甘心被人類支配管束。在短期內(nèi),人工智能還無法達(dá)到人類的思維水平。雖然人工智能擁有遠(yuǎn)超人類的物理運算能力和邏輯推理能力,但人類擁有的敘事力和共情力仍然是難以復(fù)制和被替代的[79],所以短期內(nèi)人工智能不會具備自我意識和復(fù)雜思維,它只是一種執(zhí)行或從事輔助決策的工具,無法凌駕于身為使用者的人類之上,加上有諸如“機(jī)器人三定律”[80]一樣的規(guī)則約束,短期內(nèi)人工智能確實不會對人類造成威脅,人們對人工智能“控制反叛”的憂慮并不來自于當(dāng)前人工智能的發(fā)展階段。
但在未來數(shù)十年后,當(dāng)人工智能進(jìn)一步進(jìn)化到強(qiáng)人工智能或超級人工智能階段,人們對人工智能“控制反叛”的憂慮則變得合乎情理。Campa等[81]認(rèn)為人類未來會將太空殖民地化,但由于人類在外層空間無法長期生存,所以這一太空殖民地化的過程將由機(jī)器人輔助,或完全由機(jī)器人完成。另一方面,基于機(jī)器學(xué)習(xí)的人工智能發(fā)展將會導(dǎo)致奇點的出現(xiàn),人類和敵對的人工智能之間將會爭奪有限的資源。Last[82]則認(rèn)為人工智能技術(shù)的發(fā)展可能使人類在2020年至2025年之間出現(xiàn)大規(guī)模的勞動力市場混亂,這會進(jìn)一步加速收入和財富的不平等。另外,人工智能帶來的技術(shù)變革預(yù)示著人類社會將出現(xiàn)一個超越市場和國家的控制組織,比如“全球腦”自組織巨型網(wǎng)絡(luò),它擁有分布式組織和開放式組織功能,使得那些封閉人類思想和潛在性的等級集中型組織趨于瓦解。雖然上述觀點較為悲觀,但顯然人工智能反叛甚至統(tǒng)治人類的可能性是存在的。
克服“控制反叛”的路徑是文明備份(Civilization Backup)。當(dāng)人工智能深入人類社會后,人類在日常生活中將對人工智能產(chǎn)生深度依賴,為此人類將不具備單獨面對自然界的生存能力,也無法利用自身知識另外復(fù)制一套人工智能體系,人類自身的物種更新和族群界定可能也會被迫改變[65]。因此,研究認(rèn)為:當(dāng)人工智能高度進(jìn)化后,人類通過進(jìn)攻性的手段主動毀滅那些可能存在反叛意識的人工智能是不現(xiàn)實的,亦不具備那種能力。另一方面,當(dāng)人類壓制人工智能的一切方法失效后,為防止種群滅絕的最后防御性手段就是文明備份,這種文明備份可以使人類在滿足最低生存能力的前提下進(jìn)行種群繁衍和文明傳承,防止因大篩選理論(Great Filter)[83]而導(dǎo)致種群毀滅。早在2006年,挪威政府就開始在斯瓦爾巴群島建立了斯瓦爾巴全球種子庫(Svalbard Global Seed Vault)[84],為150萬種人類最重要的農(nóng)作物儲存種子,該設(shè)施也將備份一些獨立的藏品,以保護(hù)其不受戰(zhàn)爭式的毀滅影響,但這種備份方式仍然不夠安全,容易受到氣候變暖和海平面上升等氣候影響。Chu[85]提出了一個人類文明的備份系統(tǒng),該系統(tǒng)由備份服務(wù)器組成來存儲和分散人類文明和移動終端的知識,并將智能手機(jī)和平板電腦等移動終端作為接收和顯示那些存儲在服務(wù)器中的知識的終端設(shè)備。Shapiro[86]提出為防止災(zāi)難對文化信息和人類知識庫的影響,應(yīng)該選擇月球作為地點,建立一個配備人員的數(shù)據(jù)備份設(shè)施,當(dāng)?shù)厍蛉丝诒淮輾r可以通過月球上的數(shù)據(jù)備份設(shè)施來重建地球文明。通過文明備份,可以把人類社會的部分人口、生態(tài)環(huán)境、科學(xué)技術(shù)、歷史、文化等在人工智能尚難以觸及的環(huán)境中完整地留存,預(yù)防人工智能對人類的毀滅,也是克服“控制反叛”的最優(yōu)路徑。
認(rèn)同感的匱乏主要來源于Mori等[33]的恐怖谷理論。人類對于人工智能的認(rèn)同感會隨著人工智能與人類的相似度的提升而增加,但當(dāng)相似度超過一個閾值時則這種認(rèn)同感會突然下降至谷底,只有當(dāng)人工智能的外表、動作相對于人類的相似度繼續(xù)回升并超過一定閾值時,人類對人工智能才能恢復(fù)正面認(rèn)同感[33]。這種認(rèn)知差異感的失真現(xiàn)象本質(zhì)上被認(rèn)為是人類對不同強(qiáng)弱關(guān)注度信息處理的結(jié)果[87],人類的生理結(jié)構(gòu)決定了在觀察事物的同時眼睛會對信息進(jìn)行選擇性提取[88],對于高度關(guān)注的信息會在腦中加強(qiáng)其印象,而對于關(guān)注度低的信息則會在腦中被減弱,而高度關(guān)注的信息則會被大腦再加工并進(jìn)行信息表征,表征結(jié)果會被用于與心理預(yù)期進(jìn)行對比,若超過預(yù)期則認(rèn)同感會上升,反之則下降。進(jìn)一步的研究表明,即便外觀與人類高度相似的人工智能,當(dāng)人類在觀察它們時,人工智能的異常行為舉動會降低人類的關(guān)注度,使得人類對該行為的心理綜合感受呈現(xiàn)出較低水平[89],這與Damasio[90]的軀體標(biāo)識理論相符。
克服“認(rèn)同感匱乏”的路徑是情感培育,即通過培育人類與人工智能之間的情感來克服“認(rèn)同感匱乏”。有研究表明認(rèn)知程度會直接影響認(rèn)同感,即認(rèn)同程度[91],而情感因素則可以影響認(rèn)知,促進(jìn)或阻止人類認(rèn)知過程中的工作記憶、推理規(guī)劃等活動,不論這種情感是恒?;驎簳r,都會對認(rèn)知過程中的信息加工起到組織和協(xié)調(diào)作用,幫助人類進(jìn)行信息選擇[92-93]。另外,根據(jù)心境一致性假說[94],當(dāng)人們處于一種情感狀態(tài)時,則會傾向于選擇加工與該情感效用一致的信息,例如人們在處于高興狀態(tài)時,會傾向于對事物啟發(fā)積極的認(rèn)知,但當(dāng)人們處于悲傷狀態(tài)時,則會對事物產(chǎn)生消極的認(rèn)知。俗話說“睹物思人,日久生情”,通過培育人類與人工智能之間的情感能夠消除認(rèn)知差異感,增加人對人工智能的認(rèn)同感,在理論上是可以克服“認(rèn)同感匱乏”的。目前可借鑒的做法是放棄直接在軟硬件上賦予人工智能各型能力,而是在社會上引入一批“發(fā)展型人工智能”并加以培育。發(fā)展型人工智能[95](Developmental Artificial intelligence)是一種由人類嬰兒獲得啟發(fā),可以融入生活環(huán)境中像嬰兒一樣進(jìn)行模仿學(xué)習(xí)、自我成長的人工智能。通過建立兒童心智程序,可以使發(fā)展型人工智能最終成長為成人型人工智能,這樣能使人工智能在人類社會的生活中自然而然地接觸人類、理解人類,從而培育出與人類相處的思維方式和共情感,這樣不僅可以使人工智能變得更加“人性化”,也可以加深人類對人工智能的情感,利用積極的情感影響認(rèn)知,從而避免認(rèn)知差異感,克服“認(rèn)同感匱乏”。
當(dāng)一部分人群通過上述路徑成功克服了人工智能技術(shù)恐懼癥之后,這部分人群能夠通過情緒放大的方式降低剩余人群人工智能技術(shù)恐懼癥的恐懼程度,最終完全克服人工智能技術(shù)恐懼癥,使得人類對人工智能持高度接納態(tài)度,充分擁抱人工智能帶來的技術(shù)變革,從而最終引發(fā)整個社會的變革。另一方面,隨著人工智能對人類經(jīng)濟(jì)社會的不斷滲透,當(dāng)人們逐步克服技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏后,人和人工智能之間將會形成一個“人機(jī)共享”的社會[96],人與人工智能將各盡其職、各取所需、平等協(xié)作、共榮共存,兩者將共同分享資源和發(fā)展機(jī)遇。
研究詳細(xì)梳理了關(guān)于技術(shù)恐懼癥的大量文獻(xiàn),在分析了ICT技術(shù)恐懼癥的基礎(chǔ)之上進(jìn)一步提出人工智能技術(shù)恐懼癥的定義。然后提出研究的背景假設(shè),厘清了研究的邊界,借鑒已有研究和人工智能的技術(shù)特征,構(gòu)建了涵蓋技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏五個指標(biāo)的衡量人工智能技術(shù)恐懼癥的指標(biāo)體系。最后,利用文獻(xiàn)定性分析法,根據(jù)5W模式分別檢索搜集了與技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏相關(guān)的研究文獻(xiàn),通過系統(tǒng)文獻(xiàn)綜述(Systematic literature review)的方式深度剖析了這現(xiàn)象產(chǎn)生的原因,并據(jù)此分別提出克服人工智能技術(shù)恐懼癥的五條路徑,填補(bǔ)了以往研究的空白。通過研究可以得到以下研究結(jié)果:(1) 人工智能技術(shù)恐懼癥是人們對人工智能技術(shù)以及技術(shù)載體、引發(fā)或可能引發(fā)的社會問題的擔(dān)憂、排斥與厭惡情緒;(2) 與傳統(tǒng)的ICT技術(shù)恐懼癥不同,人工智能技術(shù)恐懼癥對技術(shù)載體的外觀或行為也存在一定程度的恐懼;(3) 可以用技術(shù)偏執(zhí)、技術(shù)擔(dān)憂、技術(shù)焦慮、控制反叛、認(rèn)同感匱乏這五個指標(biāo)來衡量人工智能技術(shù)恐懼癥;(4) 克服技術(shù)偏執(zhí)的路徑是提升自我效能;(5) 克服技術(shù)擔(dān)憂的路徑是走出或拓展心理舒適區(qū);(6) 克服技術(shù)焦慮的路徑是教育培訓(xùn)的技術(shù)創(chuàng)新;(7) 克服“控制反叛”的路徑是文明備份;(8) 克服“認(rèn)同感匱乏”的路徑是情感培育。
研究使用了定性分析的方法,未來可進(jìn)一步細(xì)化用于衡量人工智能技術(shù)恐懼癥的指標(biāo)體系,在已有指標(biāo)的基礎(chǔ)上構(gòu)建二級指標(biāo)、三級指標(biāo),根據(jù)指標(biāo)體系設(shè)計調(diào)查問卷,通過電話訪談、面談、網(wǎng)絡(luò)會議等方式搜集相關(guān)信息,然后對信息進(jìn)行提煉匯總并進(jìn)行定量分析。另外,對于人工智能技術(shù)恐懼癥的研究也可以考慮不同區(qū)域、不同性別、不同職業(yè)、不同學(xué)歷人群的具體特征,在現(xiàn)有研究的基礎(chǔ)上進(jìn)一步細(xì)化。