陳 強,賈 婷,敦 帥
(1.同濟大學(xué) 經(jīng)濟與管理學(xué)院,上海 200092;2.中共上海市委黨校,上海 200233)
伴隨著“深度學(xué)習(xí)”的不斷進(jìn)化,計算機抽取數(shù)據(jù)特征量的廣度、深度、精度大幅提升,人工智能技術(shù)(Artificial Intelligence,簡稱AI)逐漸成為第四次工業(yè)革命的核心技術(shù)驅(qū)動力。疫情常態(tài)化背景下AI 實現(xiàn)了對多種應(yīng)用場景的廣泛賦能,通過解析“萬物入網(wǎng)”產(chǎn)生的強大數(shù)據(jù)來創(chuàng)新產(chǎn)品和服務(wù),進(jìn)而重構(gòu)了傳統(tǒng)產(chǎn)業(yè)發(fā)展的邊界與業(yè)務(wù)形態(tài),并推動了金融、醫(yī)療與制藥、交通、能源等產(chǎn)業(yè)實現(xiàn)高度自動化和智能化,人工智能的產(chǎn)業(yè)規(guī)模大幅提升。不斷豐富的應(yīng)用場景和強烈的轉(zhuǎn)型沖擊使得人工智能潛在倫理風(fēng)險成為社會關(guān)切的焦點問題?!犊尚湃斯ぶ悄馨灼分赋觯斯ぶ悄芗夹g(shù)暴露出“系統(tǒng)可靠性難保障、算法黑箱導(dǎo)致決策不透明、數(shù)據(jù)偏見帶來決策歧視、系統(tǒng)復(fù)雜導(dǎo)致責(zé)任主體難界定、數(shù)據(jù)濫用導(dǎo)致隱私泄露”[1]等風(fēng)險隱患,AI倫理失范事件頻發(fā)(如表1所示),風(fēng)險發(fā)生概率及損失的不確定性更是引發(fā)了全球范圍內(nèi)的信任焦慮,這也使得發(fā)展“可信人工智能”逐漸成為全球共識,并逐步探索實踐可能。2022 年1 月1 日起施行的《中華人民共和國科學(xué)技術(shù)進(jìn)步法》拓展了科技倫理審查的范圍,將倫理審查從生物醫(yī)學(xué)研究領(lǐng)域擴展到更廣泛的科技活動領(lǐng)域,并將人工智能技術(shù)作為科技倫理治理的重要對象,可見國家對這一問題的關(guān)切。
表1 AI負(fù)面事件列表
“可信”反映了人工智能系統(tǒng)、產(chǎn)品和服務(wù)在安全性、可靠性、可解釋性、可問責(zé)等一系列內(nèi)在屬性的可信賴程度,發(fā)展“可信AI”成為保證人工智能技術(shù)底線合規(guī)、向善發(fā)展的重要基石。歐盟委員會AI 高級專家組在《可信AI 倫理指南》(Ethics Guidelines for TrustworthyAI,2019)中提出可信AI 的三大特征,即“人工智能技術(shù)本身可信;開發(fā)、部署和使用人工智能的行動者和組織可信;人工智能生命周期中涉及的社會技術(shù)系統(tǒng)可信”。但也有學(xué)者對人工智能技術(shù)本身可以信任或被認(rèn)為值得信任的說法提出異議,認(rèn)為將人工智能人格化,轉(zhuǎn)移了開發(fā)和使用它們的“人”的責(zé)任。[2]可信AI對技術(shù)的研發(fā)應(yīng)用提出了“公平性、可解釋性、可問責(zé)、隱私保護(hù)和倫理可接受”等基本要求,各項要求的滿足須綜合考量“人類參與程度、控制點介入、解決方案選擇和技術(shù)挑戰(zhàn)”等多個具體方面,如公平性要求可細(xì)分為“個體公平和群體公平”,導(dǎo)致偏見和歧視的原因可歸結(jié)為“數(shù)據(jù)偏差、模型偏差、評估偏差”,[3]進(jìn)而需要區(qū)分不同程度的人類參與和分階段的審查控制節(jié)點,以選擇適合的檢測或縮小偏差的方法和工具包。這在一定程度上加劇了可信AI 實踐的復(fù)雜性,提出了實踐行為的有效性要求。
本研究中,“可信AI實踐”指從事人工智能研究開發(fā)、設(shè)計制造、部署應(yīng)用的組織與個人所實施的旨在控制技術(shù)倫理風(fēng)險,增強人工智能技術(shù)、產(chǎn)品及服務(wù)信任和接受度的行動。從內(nèi)涵上來看,可信AI 實踐對組織職能與個人能力要求維度不同,但兩者不可分割;可信AI 實踐雖強調(diào)技術(shù)全生命周期的治理,但不同技術(shù)階段的治理路徑和參與主體也必然不同;可信AI 實踐要與多元應(yīng)用形態(tài)緊密結(jié)合,以推進(jìn)治理的敏捷。截至2020 年底,中國人工智能相關(guān)企業(yè)數(shù)量已經(jīng)達(dá)到6 425 家;其中,22.3%的企業(yè)分布在人工智能產(chǎn)業(yè)基礎(chǔ)層,18.6%的企業(yè)分布在技術(shù)層,59.1%的企業(yè)分布在應(yīng)用層,[4]企業(yè)必然成為可信人工智能實踐的核心主體,但企業(yè)組織天然具有逐利屬性,在瞬息萬變的市場機遇選擇中為倫理挑戰(zhàn)留出空間是不經(jīng)濟的行為,因而有必要從微觀視角深入探究企業(yè)可信AI 實踐的內(nèi)外部影響因素及其作用機制,以推動人工智能企業(yè)有效防范人工智能倫理風(fēng)險,塑造產(chǎn)業(yè)良性發(fā)展生態(tài)。
2017 年以后,人工智能倫理在全球范圍內(nèi)引起廣泛討論并成為研究的核心議題之一。學(xué)術(shù)界的研究范疇包含了可信AI 技術(shù)研發(fā)、AI 倫理治理、底層數(shù)據(jù)治理等多方面的內(nèi)容。前期研究普遍認(rèn)為,實現(xiàn)可信AI的前提是解決三個基本問題:一是如何定義人工智能?二是人工智能倫理風(fēng)險的生成機理是什么?三是如何應(yīng)對人工智能倫理風(fēng)險?必須對這三個問題形成基本判斷,才能進(jìn)一步探索可信AI在實踐中的應(yīng)用。
人工智能術(shù)語的提出源于1956 年的達(dá)特茅斯(Dartmouth)會議。但由于人工智能基礎(chǔ)支撐技術(shù)的多樣性,[5]4其標(biāo)準(zhǔn)定義始終處于不斷演進(jìn)探索之中。1936 年,Alan Turing定義“可計算性”,并提出著名的“圖靈機”設(shè)想;1950 年,他在《計算機器與智能》(“Computing Machinery and Intelligence”)一文中論證了“機器模仿人類思維的可能并可以通過測試方案表現(xiàn)出來”。[6]2007 年,被譽為“人工智能之父”的John McCarthy 將人工智能定義為:“制造智能的機器,特指計算機實現(xiàn)智能的程序。”[7]他還認(rèn)為“智能”關(guān)乎機器完成某種目標(biāo)的行為“機制”,[8]41這種機制可以通過模仿人來實現(xiàn),也可以有創(chuàng)造和突破。于是,自動創(chuàng)造出新程序或數(shù)據(jù)并自主獲取知識的技術(shù)——“機器學(xué)習(xí)”被提出,進(jìn)而根據(jù)輸入數(shù)據(jù)自動抽取特征量的“深度學(xué)習(xí)”技術(shù)被進(jìn)一步發(fā)展。
隨著AI研究開發(fā)與應(yīng)用的不斷推進(jìn),人工智能的概念由寬泛逐漸變得細(xì)化,其概念表述由凸顯機器具有智能這一屬性,如“具有智能的機械”(日本人工智能學(xué)會)、“顯示智能行為的系統(tǒng)”(歐盟)等,開始轉(zhuǎn)變?yōu)閺娬{(diào)機器對人類思想過程的模擬,如“人工智能是利用計算機或其控制的設(shè)備,通過感知環(huán)境、獲取知識、推導(dǎo)演繹等方法,對人類智能的模擬、延伸或拓展”,[9]其主要任務(wù)是建立智能信息處理理論,進(jìn)而設(shè)計可展現(xiàn)某些近似于人類智能行為的計算系統(tǒng)。[10]也有學(xué)者在定義中進(jìn)一步強化了算法與數(shù)據(jù)在人工智能發(fā)展與應(yīng)用中的重要作用。[8]41此外,根據(jù)技術(shù)基礎(chǔ)、核心功能及應(yīng)用領(lǐng)域的差異,人工智能的概念被進(jìn)一步細(xì)分為“弱人工智能”(weak AI)和“強人工智能”(strong AI),[11][12]目前廣泛獲得應(yīng)用并能夠提供觀測數(shù)據(jù)的應(yīng)用場景以弱人工智能為主。[5]5綜上所述,對人工智能的理解和定義還處于多維呈現(xiàn)、廣泛探究的階段,具體使用哪一種定義,取決于問題焦點及討論語境。
目前,學(xué)界普遍認(rèn)為,人工智能倫理風(fēng)險是人工智能技術(shù)負(fù)向效應(yīng)的表現(xiàn),特指與人類社會倫理發(fā)展相沖突的問題,[13]須采用公認(rèn)的價值判斷標(biāo)準(zhǔn)來指導(dǎo)人工智能技術(shù)研發(fā)和應(yīng)用中的道德行為。[14][15]依據(jù)對人工智能倫理價值標(biāo)準(zhǔn)的認(rèn)知,現(xiàn)有文獻(xiàn)以“人工智能應(yīng)該做什么,不該做什么”為理論基準(zhǔn),為風(fēng)險的分析提供了指引,形成了關(guān)于人工智能倫理風(fēng)險的基本判斷,并從不同學(xué)科和業(yè)務(wù)領(lǐng)域?qū)@一議題進(jìn)行了回應(yīng)。當(dāng)前人工智能倫理挑戰(zhàn)主要取決于在封閉條件下AI 技術(shù)在實際應(yīng)用場景中使用的合理性,包括技術(shù)誤用和技術(shù)濫用兩種類型,[16]13整體存在安全性難保證、算法歧視、人類主體權(quán)利受侵害等倫理風(fēng)險。[17]前期研究也表明在人工智能技術(shù)所引發(fā)的倫理問題中,算法倫理引起了重點關(guān)注和討論。算法復(fù)雜難懂、不可解釋等黑盒特性成為人工智能倫理風(fēng)險生成的主要機理,數(shù)據(jù)不可信成為夯實可信人工智能底層基礎(chǔ)的缺口,數(shù)據(jù)和算法的不透明性反映了數(shù)據(jù)權(quán)利之間的失衡現(xiàn)象,將不可避免導(dǎo)致算法歧視,[18]可見,算法與數(shù)據(jù)不僅是人工智能技術(shù)發(fā)展的基石,也是治理的對象和關(guān)鍵。[8]41[19]此外,價值理性和工具理性難以協(xié)調(diào),風(fēng)險認(rèn)知與應(yīng)對能力的有限性,[20]尤其是公眾對于AI倫理風(fēng)險的感知與參與治理意愿不高[21]以及不同利益相關(guān)者價值沖突[22]等方面都被認(rèn)為是引致人工智能倫理風(fēng)險的重要因素。
1.人工智能倫理治理共識的演進(jìn)
隨著人工智能技術(shù)在研發(fā)及應(yīng)用中的廣泛性和成熟度增強,其在主要應(yīng)用場景中的潛在倫理風(fēng)險逐漸暴露,引發(fā)了各國政府、重要國際組織及大型科技公司對人工智能倫理治理的廣泛討論。2016 年至今,各界紛紛提出或制定了AI 倫理原則并初步構(gòu)建AI倫理治理框架,進(jìn)而嘗試將共識性AI倫理原則嵌入產(chǎn)業(yè)發(fā)展的實踐機制,針對人工智能技術(shù)在具體應(yīng)用領(lǐng)域的指引原則和標(biāo)準(zhǔn)開始出臺并付諸實施(如圖1所示)。
圖1 重要人工智能治理共識性文件(2016-2021)
這些共識呈現(xiàn)出由嘗試?yán)斫怙L(fēng)險走向解決風(fēng)險,由強調(diào)技術(shù)安全轉(zhuǎn)向技術(shù)可信,由關(guān)注倫理價值判斷走向?qū)嵅賾?yīng)用,倫理干預(yù)由設(shè)計階段拓展到全周期,治理主體由單一擴展到多元,倫理治理領(lǐng)域由寬泛逐漸聚焦的變化,這些變化體現(xiàn)了人工智能倫理風(fēng)險應(yīng)對及治理的關(guān)鍵走向,既肯定了人工智能技術(shù)全領(lǐng)域應(yīng)用給社會帶來的巨大變革,也充分表達(dá)了對依托數(shù)據(jù)、算法和算力的人工智能技術(shù)應(yīng)用的潛在倫理隱憂,并廣泛尋求共識以實現(xiàn)規(guī)范發(fā)展。這就要求在人工智能技術(shù)研發(fā)及應(yīng)用過程中嵌入關(guān)于倫理的考慮,將倫理原則、行業(yè)規(guī)制、企業(yè)自律等軟性約束與法律結(jié)合以共同應(yīng)對風(fēng)險挑戰(zhàn)。
2.可信人工智能的實踐
2017 年,中國科學(xué)院何積豐院士最早從技術(shù)端視角提出“可信人工智能”的概念,并得到G20 會議各參會國認(rèn)可,成為關(guān)注人工智能發(fā)展的核心議題之一。我國AI 頭部企業(yè)依托技術(shù)優(yōu)勢及長期發(fā)展戰(zhàn)略,對標(biāo)歐盟、美國的AI 技術(shù)發(fā)展和治理實踐,積極探索技術(shù)升級、制度構(gòu)建及行業(yè)規(guī)制等方面的可信AI 實踐方案。如京東開發(fā)可信AI 度量標(biāo)準(zhǔn)和技術(shù)工具,百度設(shè)置了AI Group、數(shù)據(jù)隱私保護(hù)委員會等機構(gòu),商湯參與制定了多項行業(yè)標(biāo)準(zhǔn);騰訊研究院對歐盟發(fā)布的《可信AI 倫理指南》中可信AI 在研發(fā)與應(yīng)用中落地需要遵循的倫理價值、關(guān)鍵要求和治理路徑進(jìn)行了深入剖析,[23]并對國外主流科技公司的AI倫理實踐做了梳理,認(rèn)為“可信AI”是贏得未來市場競爭優(yōu)勢的核心引擎之一。
在此基礎(chǔ)上,本文對國內(nèi)外大型科技公司可信AI 實踐的相關(guān)探索作了進(jìn)一步總結(jié)(如圖2所示),可以看出,現(xiàn)階段企業(yè)可信AI實踐行為具體可劃分為“發(fā)布可信原則、建立治理機構(gòu)、提供技術(shù)解決方案及出臺行動指南”四個主要方面,在企業(yè)內(nèi)部形成AI 倫理嵌入的良性生態(tài)。此外,大型AI企業(yè)還通過“發(fā)布AI倫理報告、參與制定行業(yè)標(biāo)準(zhǔn),發(fā)布企業(yè)間共識性倡議、參與國際國內(nèi)合作聯(lián)盟及開展外部專家倫理審查”等活動,探索建立面向全球、全行業(yè)、多主體協(xié)同治理的外部生態(tài)。這些嘗試為分析可信AI 實踐行為提供了重要導(dǎo)向,也為在業(yè)務(wù)層面進(jìn)行人工智能轉(zhuǎn)型的傳統(tǒng)中小企業(yè)和基于人工智能創(chuàng)生的小微企業(yè)[16]90等各類企業(yè)實體提供了可借鑒的經(jīng)驗。
圖2 大型科技企業(yè)可信AI實踐匯總
從研究現(xiàn)狀看:(1)由于人工智能議題的新穎性,對人工智能復(fù)雜的技術(shù)原理、發(fā)展規(guī)律的認(rèn)知存在局限,對人工智能倫理、人工智能倫理風(fēng)險及治理重點等方面的研究都還處于探索階段,這也導(dǎo)致相關(guān)研究判斷多是基于專家先驗經(jīng)驗對人工智能預(yù)期應(yīng)用場景的推理和評述;高度概括的人工智能倫理治理原則和標(biāo)準(zhǔn)也給可信AI 實踐的量化表征和指標(biāo)解釋增加了難度,且缺乏現(xiàn)實數(shù)據(jù)和典型案例可供挖掘,難以實現(xiàn)產(chǎn)學(xué)聯(lián)動。(2)通過文獻(xiàn)梳理可以發(fā)現(xiàn),關(guān)于人工智能倫理治理重要性的認(rèn)識在不斷深化,可信AI原則逐漸成為全球共識,人工智能倫理風(fēng)險被分級認(rèn)知,風(fēng)險治理的階段重點逐漸清晰,多元參與主體的角色和參與形式逐漸明朗。當(dāng)人工智能技術(shù)發(fā)展的底線劃定后,將打破一直以來的宏觀演繹評述的價值判斷狀態(tài),轉(zhuǎn)向探索可信AI實踐的落地機制,但相關(guān)理論研究較為缺乏。本研究立足可信AI 實踐這一范疇,試圖探索影響企業(yè)可信AI實踐的關(guān)鍵性因素,以尋求對這些影響因素的作用路徑進(jìn)行進(jìn)一步實證檢驗的可能。
扎根理論(Grounded theory)是探索性研究、情境化研究方法論的代表,較適用于分析全新社會現(xiàn)象,出現(xiàn)理論真空或理論體系不完善,很難有效解釋實踐現(xiàn)象的領(lǐng)域,[24]而人工智能技術(shù)的發(fā)展及治理恰處于探索性研究的重要階段,新情景、新現(xiàn)象大量涌現(xiàn)但規(guī)律難尋,新思想、新理念廣泛迸發(fā)但不成體系,可信AI 的復(fù)雜實踐與扎根理論“自數(shù)據(jù)中去發(fā)現(xiàn)理論”[25]的研究范式較為契合。扎根理論又進(jìn)一步發(fā)展出以Glaser為代表的經(jīng)典扎根理論、以Strauss 為代表的程序化扎根理論及以Charmaz 為代表的建構(gòu)型扎根理論三個理論學(xué)派,并因頂層認(rèn)識論差異而在技術(shù)層面呈現(xiàn)出不同的研究思路和編碼程序,[26]在“是否提前或延遲文獻(xiàn)評述、是否預(yù)設(shè)類屬及是否對研究者的主動性作用評價”等方面存在爭論和分歧。基于對“扎根精神”的基礎(chǔ)性意義的深入挖掘,中國學(xué)者賈旭東等探索性地提出了“中國管理扎根研究范式”,進(jìn)一步豐富了理論源流。
結(jié)合本文研究議題,選擇運用研究程序和理論表達(dá)更側(cè)重因果關(guān)系提煉的“程序化扎根理論”,通過開放式編碼和主軸編碼兩個步驟對數(shù)據(jù)進(jìn)行抽象化處理和分析,將數(shù)據(jù)維度化并聚合形成主次范疇;再通過選擇性編碼來挖掘出核心范疇,找到范疇間所隱含的聯(lián)結(jié)關(guān)系,作為構(gòu)建影響因素模型的理論基礎(chǔ),并通過持續(xù)比較,不斷提煉和修正理論,直至達(dá)到理論飽和,不再出現(xiàn)新的概念指向。
對于還處于初步探索階段的可信AI 實踐來說,目前還缺乏成熟的理論假設(shè)、變量范疇和測量量表,如直接設(shè)計無差異的結(jié)構(gòu)化問卷進(jìn)行大樣本量化研究,其信效度易受到質(zhì)疑。在扎根理論研究中,“訪談法”被應(yīng)用于收集一手?jǐn)?shù)據(jù),訪談過程要求不預(yù)設(shè)前提,而要從與參與者開放的交流情境中迸發(fā)“靈感”;扎根理論也強調(diào)數(shù)據(jù)廣泛性,認(rèn)為“一切皆為數(shù)據(jù)”,[27]要盡可能擴大理論構(gòu)建素材的范圍。其數(shù)據(jù)形式包括研究者在研究過程中獲得的一切客觀資料,[28]如研究對象的觀點、有關(guān)研究對象的圖片和音像、訪談記錄和文獻(xiàn)資料等。
鑒于此,本研究數(shù)據(jù)來源分為兩個部分:
第一部分:通過非結(jié)構(gòu)化問卷(開放式問卷)對代表性人工智能從業(yè)者、政府工作人員、高??蒲泄ぷ髡哌M(jìn)行訪談以收集一手資料。其中,AI 從業(yè)者包括企業(yè)管理人員及技術(shù)研發(fā)人員,高??蒲泄ぷ髡叩难芯糠较蚓劢笰I或有交叉,政府工作人員面向科技政策、產(chǎn)業(yè)發(fā)展等管理領(lǐng)域。選取的受訪對象基本都是碩士或以上學(xué)歷,其職業(yè)或興趣與人工智能基礎(chǔ)理論研究、產(chǎn)業(yè)應(yīng)用及管理實踐有關(guān)聯(lián),對人工智能技術(shù)本身的復(fù)雜性和前沿性特征有一定的理解和認(rèn)識,以保證觀點的權(quán)威性,盡可能滿足定性研究對數(shù)據(jù)質(zhì)量的嚴(yán)格要求。扎根理論研究強調(diào)資料搜集、編碼和理論構(gòu)建融合進(jìn)行、持續(xù)往返,[29]當(dāng)訪談中不再出現(xiàn)新的類屬、概念指向時達(dá)到理論飽和,即停止理論抽樣,最終共選擇了16 個受訪對象,按訪談順序依次編號為A01-A16,包括AI 從業(yè)者9 人(其中AI 企業(yè)CEO 4 人,AI 工程師2 人),高校研究人員2人,公務(wù)員4 人,其他職業(yè)1 人。為節(jié)省篇幅,受訪者基本情況未逐個列出。
我們采用個人深度訪談和小組座談相結(jié)合的方式獲取數(shù)據(jù)。一對一深度訪談共進(jìn)行了10 人次,平均每次訪談時間約50 分鐘,小組座談共進(jìn)行了2 組(平均每個小組4人),平均每次座談時間約2小時。這兩種探測式調(diào)查方法都能實現(xiàn)訪談雙方的互動交流,相互思辨與啟迪,可以更有效地實現(xiàn)訪談目標(biāo)。訪談時,我們征得受訪者同意,對訪談進(jìn)行了適度錄音,并在訪談結(jié)束后對錄音資料進(jìn)行整理,完成訪談記錄和備忘錄,最終得到共3.8 萬余字的訪談記錄。我們按比例隨機抽取了11 份訪談記錄(包括10 份個人深度訪談和1 份小組座談)進(jìn)行編碼分析,將剩余訪談記錄留作理論飽和度檢驗的數(shù)據(jù)。
第二部分:運用扎根理論的編碼技術(shù)對“2021 年世界人工智能大會(WAIC)——‘可信AI論壇’”及“2021年清華大學(xué)人工智能合作與治理國際論壇——‘如何構(gòu)建一個平衡包容的人工智能治理體系’”兩次會議發(fā)言人的觀點進(jìn)行數(shù)據(jù)處理。兩次會議的參會人員包括國內(nèi)外高校及研究機構(gòu)人工智能領(lǐng)域的知名學(xué)者、頭部科技企業(yè)的創(chuàng)始人及首席技術(shù)官、政府主管部門代表,代表了現(xiàn)階段人工智能技術(shù)發(fā)展走向、學(xué)術(shù)研究指向、企業(yè)探索方向及政府治理導(dǎo)向,在一定程度上是專家話語權(quán)的體現(xiàn)。鑒于此,本研究選取了兩次會議中學(xué)術(shù)界發(fā)言人8 人(B01-B08),產(chǎn)業(yè)界發(fā)言人10人(C01-C10),政界發(fā)言人2 人(D01-D02),梳理了2.3 萬字的發(fā)言內(nèi)容,將此數(shù)據(jù)作為持續(xù)比較和理論驗證的數(shù)據(jù)來源,與訪談數(shù)據(jù)相結(jié)合,以豐富研究的概念基礎(chǔ)。
在不預(yù)設(shè)任何假設(shè)的前提下,本研究將“可信AI實踐”這一現(xiàn)實問題代入研究情境,在現(xiàn)有研究條件下盡可能全面地完成了數(shù)據(jù)收集、記錄及整理工作。后續(xù)基礎(chǔ)性研究步驟嚴(yán)格按照程序化扎根理論的“三級編碼”程序,從數(shù)據(jù)中“抽取”出相互聯(lián)系的概念并發(fā)展出核心關(guān)系命題,完成范疇提煉和理論初構(gòu),再通過飽和性檢驗來驗證范疇的核心性并在必要時補充新迸發(fā)的范疇。通過三次編碼過程逐級逐層提升抽象程度,凸顯出研究現(xiàn)象的核心要素,保證了研究結(jié)論的客觀性;通過持續(xù)比較樣本維度,重復(fù)檢驗內(nèi)在理論邏輯,合理詮釋了研究現(xiàn)象和問題的發(fā)展規(guī)律,展示出研究過程的科學(xué)性。各研究步驟邏輯嚴(yán)謹(jǐn),在完整呈現(xiàn)研究過程的同時也確保了過程的可追溯性。
開放式編碼(一級編碼)是將離散化的原始數(shù)據(jù)進(jìn)行概念化與抽象化的過程,是編碼程序的第一步。在人工剔除非實質(zhì)性信息記錄后,對原始訪談資料(盡量使用受訪者的原話)逐詞逐句逐段進(jìn)行編碼,發(fā)掘出句段中的初始概念并進(jìn)行標(biāo)注,按照概念維度重新分類組合形成新的類屬,進(jìn)而發(fā)現(xiàn)概念范疇。本研究一共得到335條原始語句及對應(yīng)的初始概念,并以重復(fù)頻率為3 次作為閾值,剔除重復(fù)頻次少于3次及個別前后矛盾的初始概念,我們進(jìn)一步對獲得的初始概念進(jìn)行范疇化,最終共得到17個范疇。表2為得到的初始概念和若干范疇,為了節(jié)省篇幅,僅列出部分原始資料語句及對應(yīng)的初始概念。
表2 一級編碼范疇化
主軸編碼(二級編碼)是沿著開放式編碼范疇指向的現(xiàn)象脈絡(luò),根據(jù)不同范疇在概念層次上的相互關(guān)系和邏輯次序?qū)ζ溥M(jìn)行歸類,[30]發(fā)現(xiàn)其中呈現(xiàn)出來的表征和隱藏的客觀規(guī)律,所抽象出的更高層級的類屬即主范疇。這一編碼過程結(jié)合“可信AI實踐”提出的社會背景,利用思維導(dǎo)圖等編碼工具將打散的17個初始范疇進(jìn)行內(nèi)涵挖掘、邏輯推演及類屬重組,進(jìn)而抽取出關(guān)系和規(guī)律導(dǎo)引下更具概括性的理論維度,并將其范疇化。本研究共歸納出4個主范疇,各主范疇、所對應(yīng)的開放式編碼范疇及具體關(guān)系內(nèi)涵如表3所示。
表3 二級編碼形成主范疇
選擇性編碼(三級編碼)通過明確主范疇間的關(guān)系線索進(jìn)而提煉出核心范疇,詳盡分析核心范疇與主范疇及其他范疇間的因果邏輯線條,并將彼此關(guān)系結(jié)構(gòu)和互動路徑串聯(lián)成“故事線”,初步搭建出理論架構(gòu)。本研究中,由主軸編碼抽取出的4 個主范疇——“可信AI實踐”的“意愿、使命、制度環(huán)境、實踐能力”都明顯指向了“行為驅(qū)動”的核心關(guān)系邏輯,各主范疇的典型關(guān)系結(jié)構(gòu)內(nèi)涵清晰,邏輯合理,但作用路徑各不相同,如表4所示。
表4 主范疇的典型關(guān)系結(jié)構(gòu)
經(jīng)過對原始數(shù)據(jù)的系統(tǒng)編碼和逐級抽象,將原數(shù)據(jù)中重復(fù)出現(xiàn)頻率較高的初始概念指向范疇化,形成了“技術(shù)地位、企業(yè)類型”等17 個初始范疇;通過厘清初始范疇間的邏輯關(guān)系并對應(yīng)歸類后,發(fā)展出“可信AI實踐意愿、可信AI 實踐使命、可信AI 實踐制度環(huán)境和可信AI實踐能力”4個主范疇,進(jìn)一步明確各主范疇與相對應(yīng)的若干副范疇間的關(guān)系內(nèi)涵;通過綜合考量各類范疇屬性的核心性、相關(guān)性及對數(shù)據(jù)的最優(yōu)解釋度,挖掘出“企業(yè)可信AI實踐行為的影響因素及作用機制”這一核心范疇,圍繞核心范疇的“故事線”可以概括為:可信AI 實踐意愿、使命、制度環(huán)境和能力4 個主范疇對企業(yè)可信AI實踐行為存在顯著影響;可信AI實踐意愿和實踐能力是內(nèi)驅(qū)因素,它直接決定企業(yè)可信AI實踐行為的強度和效率;可信AI實踐制度環(huán)境調(diào)節(jié)著意愿—行為之間的強度關(guān)系、可信AI 實踐使命則調(diào)節(jié)著能力—行為之間的聯(lián)結(jié)關(guān)系。以此“故事線”為基礎(chǔ),本研究建構(gòu)和發(fā)展出可信AI實踐理論構(gòu)架——“可信AI實踐行為的影響因素模型”,簡稱“雙因素驅(qū)動模型”,如圖3 所示。至此,范疇提煉和理論初構(gòu)過程基本結(jié)束。
圖3 雙因素驅(qū)動理論模型
根據(jù)扎根理論研究流程,研究用預(yù)留的另外5 份訪談記錄(包括4 份個人深度訪談和1 份小組座談)和會議數(shù)據(jù)進(jìn)行同一流程的逐級編碼,完成理論飽和度檢驗。檢驗結(jié)果同樣反映出“可信AI實踐行為的影響因素模型”中4個主范疇的核心性,且沒有形成新的重要范疇和關(guān)系,4 個主范疇內(nèi)部也沒有新的構(gòu)成因子出現(xiàn)??梢员砻鞲拍罘懂犚堰_(dá)到相對飽和狀態(tài)(即新獲取的數(shù)據(jù)不再對理論建構(gòu)產(chǎn)生新貢獻(xiàn))。
通過分析發(fā)現(xiàn),現(xiàn)階段用雙因素驅(qū)動理論模型可以有效地解釋“可信AI 實踐意愿、可信AI 實踐能力、可信AI 實踐制度環(huán)境和可信AI 實踐使命”四個因素對企業(yè)可信AI實踐行為的影響機理,但它們實施影響的方式和路徑并不一致。本研究通過與數(shù)據(jù)、文獻(xiàn)及相關(guān)理論的進(jìn)一步對話,對模型做出具體闡釋。
可信AI 實踐意愿(受企業(yè)類型、業(yè)務(wù)場景、主體地位、產(chǎn)業(yè)階段等因子影響),是產(chǎn)生可信AI 實踐動機或愿望的內(nèi)驅(qū)因素。預(yù)計未來5 到10 年,產(chǎn)品的倫理品質(zhì)將成為新一輪市場洗牌的核心動力,企業(yè)的倫理能力將成為企業(yè)生存的決定性因素之一,[16]15這將在很大程度上推動企業(yè)可信AI的實踐意愿。企業(yè)規(guī)模的大小與網(wǎng)絡(luò)聯(lián)接強度會影響企業(yè)可信AI實踐意愿的形成,龔克等學(xué)者的研究表明,中國15家核心平臺企業(yè)呈現(xiàn)的高聯(lián)接性,在資金、技術(shù)、人才等方面形成了緊密的關(guān)系網(wǎng)及強大的支撐力,大平臺企業(yè)憑借市場占有率優(yōu)勢優(yōu)先享有規(guī)則制定權(quán),更有可能產(chǎn)生可信AI實踐的意愿。由此可見,相比于在業(yè)務(wù)層面進(jìn)行AI轉(zhuǎn)型的傳統(tǒng)中小企業(yè)和基于AI創(chuàng)生的小微企業(yè),大型的平臺企業(yè)更具備技術(shù)能力和行為動機來實踐可信AI。
人工智能技術(shù)研發(fā)與應(yīng)用的加速迭代特征,對企業(yè)具有技術(shù)倫理治理主體意識并主動承擔(dān)治理責(zé)任的要求提升,但在訪談中不乏此類觀點,如“目前AI產(chǎn)業(yè)正在發(fā)展期,企業(yè)更多會從產(chǎn)業(yè)發(fā)展、利潤、市場占領(lǐng)等角度出發(fā),奔著機遇不斷向前,如果真的不合規(guī)、不能做,等政府叫停就好了,就像人臉識別,很少有公司會提前考慮這樣的問題(A02)”,這反映出因企業(yè)對技術(shù)治理主體地位的認(rèn)知度不高而出現(xiàn)的“先發(fā)展后治理”的消極意愿。同時,差異化的業(yè)務(wù)場景所附著的風(fēng)險等級不同,不同產(chǎn)業(yè)發(fā)展階段的風(fēng)險暴露程度不同,這些因子都會影響到企業(yè)可信AI實踐的意愿。
可信AI 實踐能力(受機構(gòu)職能、技術(shù)手段、合作方容錯度、研發(fā)人員意識等因子影響),是可信AI 實踐的內(nèi)驅(qū)因素,是將可信意圖轉(zhuǎn)變?yōu)榭尚沤Y(jié)果之間的重要推力,直接影響實踐效率。對企業(yè)來說,探索可信AI實踐本質(zhì)上是減速的行為,要額外支付運行及管理成本,卓越的實踐能力有利于提升效率、沖抵成本,并保持持續(xù)實踐的意愿。首先,企業(yè)內(nèi)部倫理管理及審核機構(gòu)職能的發(fā)揮是可信AI 實踐能力提升的組織基礎(chǔ)。如微軟內(nèi)設(shè)負(fù)責(zé)任人工智能辦公室,人工智能、倫理與工程研究委員會,以及負(fù)責(zé)任AI戰(zhàn)略管理團隊(Responsible AI Strategy in Engineering,RAISE)三大機構(gòu)來負(fù)責(zé)AI 倫理實踐方面的事務(wù),呈現(xiàn)出頂層建立規(guī)則、審查敏感用例,中層協(xié)作推進(jìn)、建言獻(xiàn)策,底層研發(fā)負(fù)責(zé)任AI 工具及操作系統(tǒng)、幫助團隊實施的全面管理架構(gòu)。其次,人工智能技術(shù)手段的綜合發(fā)展是可信AI 實踐能力提升的重要保障。為了在當(dāng)前的人工智能系統(tǒng)和產(chǎn)品中嵌入AI 治理的原則,開發(fā)AI 安全測試、驗證以及倫理評估的人工智能治理技術(shù)至關(guān)重要,[31]要推動著力于保障算法可解釋性、穩(wěn)定性的應(yīng)用型技術(shù)手段及著力于保障隱私、公平性的聯(lián)邦學(xué)習(xí)、隱私計算、區(qū)塊鏈技術(shù)等治理型技術(shù)手段的共同迭代升級。再次,合作方容錯程度是促進(jìn)可信能力提升的關(guān)鍵推力。技術(shù)合作方(企業(yè)及個體用戶)能承受的容錯率較低,就會促進(jìn)AI 企業(yè)優(yōu)化算法模型、保障訓(xùn)練數(shù)據(jù)全面可靠,不斷提升可信AI 的實踐能力,從長遠(yuǎn)來看,將容錯率控制在合理范圍內(nèi)是可信AI 生態(tài)的創(chuàng)設(shè)和發(fā)展的重要條件。最后,研發(fā)人員倫理意識的增強是促進(jìn)可信AI 實踐能力的核心抓手。AI 研究開發(fā)人員對技術(shù)發(fā)展所產(chǎn)生的社會影響及風(fēng)險的預(yù)判和認(rèn)知,會促進(jìn)其改進(jìn)治理型技術(shù)手段、提升應(yīng)用技術(shù)方案的實操能力,進(jìn)而保證AI 產(chǎn)品符合社會期望。
保證底線合規(guī)的制度環(huán)境(受法律法規(guī)、行業(yè)規(guī)制、技術(shù)標(biāo)準(zhǔn)和問責(zé)機制等因子影響)是可信AI 實踐的外驅(qū)因素,它間接影響企業(yè)可信AI 實踐的方向,調(diào)節(jié)可信AI 實踐的意愿與可信AI 實踐行為之間的關(guān)系。正如受訪者A15 提到的:“對于企業(yè)而言,它靈活的余地并不大,就是遵守所有的規(guī)則?!睍h發(fā)言人C09也談及:“企業(yè)的經(jīng)營會是在法律法規(guī)允許的框架中進(jìn)行,這是一個基礎(chǔ)性的要求,但在這個框架里面,企業(yè)可以做很多自己的選擇?!睆倪@個角度出發(fā),制度環(huán)境也可以被看作是可信AI實踐的啟動因素,是不同層級治理工具協(xié)調(diào)發(fā)揮作用的結(jié)果。其中,權(quán)責(zé)清晰的法律法規(guī)和質(zhì)效兼?zhèn)涞闹贫纫?guī)范是可信AI實踐必須遵從的底線,是可信AI實踐制度環(huán)境的權(quán)威構(gòu)成;自律共建的市場交易規(guī)則、行業(yè)標(biāo)準(zhǔn)/行業(yè)倡議等行業(yè)規(guī)制是AI產(chǎn)業(yè)生態(tài)良性發(fā)展的標(biāo)志,是可信AI實踐制度環(huán)境的必要補充;具有權(quán)威性且被廣泛認(rèn)可的技術(shù)標(biāo)準(zhǔn)是檢測現(xiàn)階段AI 技術(shù)和產(chǎn)品是否存在風(fēng)險問題的基準(zhǔn),是企業(yè)自治和行業(yè)規(guī)制的依據(jù),是可信AI實踐制度環(huán)境的微觀表現(xiàn);行之有效的問責(zé)機制是人工智能產(chǎn)品缺陷和風(fēng)險事故責(zé)任劃分的前提,是實現(xiàn)問題溯源的制度基礎(chǔ)??梢?,多元人工智能倫理治理工具的組合應(yīng)用,技術(shù)發(fā)展整體規(guī)則環(huán)境和基礎(chǔ)條件的完善,有利于界定具體技術(shù)應(yīng)用的法律責(zé)任和范圍,是引導(dǎo)企業(yè)可信AI實踐行為的重要驅(qū)動力。
具有確保AI向善發(fā)展的使命(受技術(shù)地位、國際信任、價值原則、風(fēng)險認(rèn)知等因子影響)是可信AI 實踐的外驅(qū)因素,它間接影響AI企業(yè)長遠(yuǎn)發(fā)展的格局,調(diào)節(jié)著可信AI實踐能力與行為之間的聯(lián)接關(guān)系。一方面,在第四次科技革命進(jìn)程中,中美兩國處于人工智能技術(shù)發(fā)展的第一梯隊,科技創(chuàng)新的競合關(guān)系微妙。不同于技術(shù)追趕時期的有“規(guī)”可循,AI技術(shù)領(lǐng)域需要我國自主摸索發(fā)展經(jīng)驗并制定治理規(guī)則。尤其是處于尖端技術(shù)發(fā)展鏈條上的AI 頭部企業(yè)有責(zé)任立足國際視野,搶占開創(chuàng)性先機并掌握規(guī)則話語權(quán),向世界展現(xiàn)值得信任的AI 治理能力。另一方面,人工智能具有全球戰(zhàn)略性技術(shù)屬性,伴隨著技術(shù)封鎖與制裁常態(tài)化,構(gòu)建跨文化國家對我國AI產(chǎn)品的信任,在國家間利益博弈中贏得主動權(quán)的重要使命會促使企業(yè)主動提升可信AI 實踐能力,以贏得國際競爭優(yōu)勢。再一方面,全球范圍內(nèi)達(dá)成的AI治理共識越清晰,越能引導(dǎo)企業(yè)結(jié)合業(yè)務(wù)主動對標(biāo),按照相關(guān)治理標(biāo)準(zhǔn)做出可信AI實踐的戰(zhàn)略部署,企業(yè)可信AI實踐的使命感越強。此外,對AI 技術(shù)研發(fā)及應(yīng)用的高風(fēng)險、低風(fēng)險及不可接受風(fēng)險等級形態(tài)的判斷會推進(jìn)企業(yè)進(jìn)行自我審視,通過夯實可信AI能力來控制倫理風(fēng)險??梢?,可信AI實踐的使命感越強,企業(yè)越趨向于通過能力建設(shè)來指導(dǎo)和落實實踐行為,具有較強的調(diào)節(jié)效應(yīng)。
通過上文對可信AI實踐“雙因素驅(qū)動模型”的相關(guān)闡釋,我們發(fā)現(xiàn),企業(yè)可信AI實踐行為的產(chǎn)生,實踐意愿和實踐能力是內(nèi)在驅(qū)動力,是AI 企業(yè)提升產(chǎn)品倫理品質(zhì)、打造企業(yè)整體倫理能力的基本要素?;檠a充的可信AI 制度供給體系和參與國際技術(shù)有序競合的使命,是驅(qū)動可信AI實踐探索的外部壓力。但需要強調(diào)的是,雖然目前國內(nèi)外大型科技公司的可信AI 實踐發(fā)揮著重要示范作用,但從根本上來說是要打造對行業(yè)內(nèi)不同企業(yè)實體都產(chǎn)生正向影響的可信AI生態(tài);企業(yè)是可信人工智能實踐的核心主體,但不是唯一主體,建立以企業(yè)為核心的全流程多方共建的治理機制是發(fā)展共識。在2022年3月印發(fā)的《關(guān)于加強科技倫理治理的意見》中也進(jìn)一步明確了開放合作,建立多方協(xié)同合作機制的治理要求。基于以上認(rèn)識,本文構(gòu)建了可信AI 實踐生態(tài)框架(如圖4 所示),嘗試為多主體在可信AI 實踐中的作用發(fā)揮提供一把“量尺”,使可信AI實踐成為有本之木。
圖4 可信AI實踐生態(tài)框架
“安全、可靠、可釋”是可信人工智能的基礎(chǔ),只有更精確地解釋AI決策背后的技術(shù)機理,夯實可信AI 實踐的理論基礎(chǔ),提升AI模型的魯棒性和可解釋性,才能發(fā)展求真、向善、可擔(dān)責(zé)的AI。這一方面有賴于產(chǎn)業(yè)界與學(xué)術(shù)界協(xié)同研究深度學(xué)習(xí)及人工智能相關(guān)數(shù)學(xué)理論,匹配適用的數(shù)學(xué)工具進(jìn)行推演,增強AI 模型的可解釋性。另一方面,數(shù)據(jù)可信是保證人工智能技術(shù)“安全、可靠”的基石,數(shù)據(jù)的“采集、傳輸、存儲、使用及銷毀”的全周期安全保障需要提供可控、可視、可追溯的數(shù)據(jù)安全解決方案,迫切需要產(chǎn)業(yè)界與學(xué)術(shù)界聚力探索差分隱私和聯(lián)邦學(xué)習(xí)等治理型技術(shù),奠定數(shù)據(jù)安全的發(fā)展根基。此外,產(chǎn)業(yè)界與學(xué)術(shù)界還應(yīng)加強溝通,根據(jù)AI技術(shù)發(fā)展的不同階段及差異化應(yīng)用場景,進(jìn)一步深化人工智能技術(shù)倫理共識、潛在倫理挑戰(zhàn)、社會規(guī)則沖突等方面的前沿研究,進(jìn)而合理劃分安全風(fēng)險等級體系并完善人工智能細(xì)分領(lǐng)域的倫理標(biāo)準(zhǔn)。
在技術(shù)革新易變性、不確定性、復(fù)雜性和模糊性特征日趨明顯的烏卡時代,政府制度供給要具備敏捷性和國際性。首先,要統(tǒng)籌發(fā)展與治理之間的關(guān)系,構(gòu)建人工智能倫理治理的整體框架,健全人工智能發(fā)展法規(guī)體系、標(biāo)準(zhǔn)體系及監(jiān)管體系,進(jìn)一步明確國家、地方及行業(yè)主管單位科技倫理監(jiān)管的組織結(jié)構(gòu)、隸屬關(guān)系、管理權(quán)限和職能。推動人工智能相關(guān)行業(yè)標(biāo)準(zhǔn)、技術(shù)標(biāo)準(zhǔn)的建立,兼顧處于不同發(fā)展階段、應(yīng)用場景的各類企業(yè)實體的利益需求,搭建公共服務(wù)平臺幫助行業(yè)發(fā)聲,完善專業(yè)機構(gòu)管理職能,探索采用試點、沙箱等監(jiān)管方式,形成動態(tài)敏捷的風(fēng)險防控和監(jiān)管體系。其次,要從國際共治的角度出發(fā),研究借鑒歐美等國家在科技倫理治理方面的傳統(tǒng)理念、治理慣例及治理程式,深挖其背后的文化傳統(tǒng)基礎(chǔ),在推進(jìn)中國制度方案的同時也對標(biāo)國際,通過制度間的國際聯(lián)接消除技術(shù)地緣不信任根源,增強預(yù)測性治理能力,為AI企業(yè)跨國合作和國際共治創(chuàng)造有利的制度環(huán)境。
企業(yè)在可信AI 實踐生態(tài)中處于核心地位,是多方共建的鏈接中心。首先,人工智能頭部企業(yè)要深刻認(rèn)知全球人工智能的技術(shù)戰(zhàn)略地位,深入理解全球AI 發(fā)展的價值共識,重視構(gòu)建跨文化互信的機制,將企業(yè)利益與國家科技競合博弈聯(lián)系起來,在戰(zhàn)略層面重視科技倫理及企業(yè)社會責(zé)任,積極參與到治理規(guī)則和標(biāo)準(zhǔn)制定過程,增強可信AI 實踐使命意識。其次,要推動建立企業(yè)內(nèi)部可信AI 管理機構(gòu)和內(nèi)部管理制度,建立專業(yè)技術(shù)與管理團隊,開發(fā)可信AI 的工具和系統(tǒng),制定業(yè)務(wù)行動指南,塑造負(fù)責(zé)任的文化內(nèi)核,并促使研究開發(fā)人員充分認(rèn)同與理解;推動完善企業(yè)內(nèi)部監(jiān)管審查體制機制,建立內(nèi)部敏感用例的審查制度,完善倫理失范問責(zé)制度,將可信AI 原則融入人工智能開發(fā)應(yīng)用各個環(huán)節(jié),保證安全合規(guī)。最后,要最大限度發(fā)揮人工智能領(lǐng)域行業(yè)協(xié)會的作用,發(fā)布相關(guān)行業(yè)倡議和技術(shù)標(biāo)準(zhǔn),制定從業(yè)人員行為規(guī)范,加強倫理教育和培訓(xùn),推動人工智能行業(yè)自律自治;進(jìn)一步促進(jìn)AI 企業(yè)間的互信合作,如通過算法協(xié)議在平臺之間搭建互聯(lián)互通的可信的生態(tài),實現(xiàn)平臺互認(rèn)的同時相互監(jiān)督,構(gòu)建良性競合關(guān)系。
人工智能技術(shù)信任的構(gòu)建最終要與技術(shù)使用者建立聯(lián)接,要與技術(shù)應(yīng)用所產(chǎn)生的社會影響持續(xù)交互,強化社會參與是其中非常重要的一環(huán)??尚臕I 實踐社會參與主要包括兩大層面:一是社會組織層面,要充分利用社會組織廣泛資源動員的優(yōu)勢,利用其獨立于政府和企業(yè)的組織特性,以現(xiàn)階段人工智能技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)范為依據(jù),構(gòu)建權(quán)威第三方檢測認(rèn)證平臺,實現(xiàn)對人工智能產(chǎn)品安全性、公平性的評估,確保不出現(xiàn)嚴(yán)重風(fēng)險事故,進(jìn)一步強化社會監(jiān)督。此外,還應(yīng)鼓勵社會組織開展科普教育,多形式搭建前沿技術(shù)與應(yīng)用者之間的橋梁,幫助社會公眾理性認(rèn)識并合理使用AI。二是社會公眾層面,應(yīng)督促建立企業(yè)與公眾間的良性溝通機制。企業(yè)應(yīng)及時告知公眾AI 技術(shù)應(yīng)用的邊界及可信的邊界,以及現(xiàn)階段AI產(chǎn)品能夠解決的問題及不同應(yīng)用場景的風(fēng)險附著,并為公眾提供替代性選擇的機會;同時,公眾也要主動提高對技術(shù)風(fēng)險的認(rèn)知,了解參與科技活動可以行使的基本知情權(quán)和選擇權(quán),明確數(shù)據(jù)權(quán)力的正當(dāng)性,關(guān)注國家對人工智能技術(shù)不同應(yīng)用場景的底線規(guī)定,提升科技倫理意識。
本研究仍具有一定局限性:一是本研究提出的“可信AI 實踐行為的影響因素模型”是基于探索性研究得出的,理論具有一定的普適性,但還需要通過實證檢驗進(jìn)一步驗證其信效度和理論適用度。二是受研究問題發(fā)展階段的限制,本研究所面向的實踐對象主要以大型人工智能企業(yè)為主,對在業(yè)務(wù)層面進(jìn)行人工智能轉(zhuǎn)型的傳統(tǒng)中小企業(yè)和基于人工智能創(chuàng)生的小微企業(yè)等企業(yè)實體的行為影響有待進(jìn)一步探究。