国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

產品創(chuàng)新的人工智能精準治理

2018-06-28 05:21謝康
人民論壇·學術前沿 2018年10期
關鍵詞:產品創(chuàng)新人工智能信息技術

【摘要】 人工智能的工具性與社會性交互構成人工智能發(fā)揮精準治理的基礎。其中,人工智能的社會嵌入結構、社會威懾和問責的感知,構成其實現精準治理功能的兩種方式。人工智能的制度構建、社會制度演化中嵌入人工智能思維和技術信任、人工智能治理規(guī)則與社會治理制度的動態(tài)匹配,構成人工智能精準治理的三個主要路徑。明確人工智能精準治理邊界,對人工智能精準治理的技術信任與制度信任的信任傳遞,以及技術信任與人際信任的信任傳遞,是構成人工智能精準治理的制度條件。本文從產品創(chuàng)新角度探討人工智能精準治理,結論具有較好的普適性,對于企業(yè)、產業(yè)政策,乃至公共管理領域的人工智能治理都具有理論啟示與參考價值。

【關鍵詞】人工智能 精準治理 產品創(chuàng)新 信息技術

【中圖分類號】 F203 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.10.005

前言

盡管人工智能技術仍然處于早期的擴散階段,其對經濟和社會發(fā)展的影響僅為冰山一角,但其對全球經濟社會的影響卻倍受國際學術界重視,學者們普遍認為人工智能的發(fā)展可能會極大驅動經濟快速增長。[1]據2017年埃森哲發(fā)布的報告,到2035年,人工智能可能會使中國經濟的年增長率上升1.6%,勞動生產率上升27%。尤其在制造業(yè)領域,人工智能極大改變了中國制造業(yè)在全球的競爭格局。在產品創(chuàng)新智能化不斷增強的同時,也形成了產品創(chuàng)新的人工智能精準治理的諸多問題和挑戰(zhàn)。本文擬就產品創(chuàng)新中的人工智能精準治理涉及的理論基礎和前沿問題進行初步探討。

現有對人工智能精準治理的研究多側重其特征和影響的剖析,缺乏針對人工智能精準治理的理論基礎的深入探討。同時,現有人工智能治理研究中提煉出來的問題,或源于對實踐現象的觀察和總結,或源于邏輯演繹的分析,缺乏從人工智能治理的理論基礎角度提出科學研究問題。誠然,人工智能首先表現為新一代信息技術的特征,自然率先受到計算機科學、信息技術等工程技術領域學者的重視。與其他信息技術不同的是,人工智能的智能化過程還表現出強烈的社會特性,但現有研究對人工智能社會化特征的深入剖析不足,導致人工智能理論研究出現“重理輕文”、工程技術占據人工智能主導話語權的現象。這種現象在人工智能發(fā)展的初期是正常的,但隨著人工智能技術的迅速擴散和社會化發(fā)展,從社會科學領域建構人工智能治理的理論基礎,為推動人工智能治理研究及行動提供理論依據和策略分析框架,是一項重要而亟待探討的社會科學學術前沿課題。

誠然,可以從多個社會科學角度探討人工智能的精準治理問題。本文擬從產品創(chuàng)新角度探討人工智能精準治理,因為互聯網、大數據情境下的產品創(chuàng)新亟待人工智能精準治理。企業(yè)與用戶互動創(chuàng)新成為企業(yè)開放式創(chuàng)新的主流模式,在企業(yè)與用戶互動創(chuàng)新過程中,委托人與代理人之間的多重互動關系隱含的信息非對稱,為雙方的機會主義行為提供了新的環(huán)境和可能。同時,互聯網環(huán)境下消費者從“烏合之眾”變成了權力不斷增強的特征化群體,[2]使領先用戶或特殊消費者有更多的可能實施機會主義行為,反之,企業(yè)借助大數據形成的知識優(yōu)勢也更有可能對用戶實施機會主義行為。[3]面對互聯網、大數據情境下形成的新型機會主義,產品創(chuàng)新亟待通過構建人工智能精準治理等新型的治理模式來推動研發(fā)管理創(chuàng)新,以適應企業(yè)開放式創(chuàng)新發(fā)展的新要求。

產品創(chuàng)新主要由創(chuàng)意涌現、產品驗證、市場驗證、新品主流化驗證及新品全生命周期管理五個階段組成。產品創(chuàng)新的人工智能精準治理,指基于人工智能實現對產品創(chuàng)新全過程利益相關者的機會主義行為進行精準約束、規(guī)范,或威懾與問責感知。與管制不同,治理主要針對機會主義行為。從信息非對稱角度分析,機會主義行為可以分為事前機會主義行為(如逆向選擇等簽訂委托代理合同前的機會主義)以及事后機會主義行為(如道德風險等簽訂委托代理合同后的機會主義)。在產品創(chuàng)新全過程中,無論是企業(yè)還是用戶,都存在著事前與事后機會主義的可能,尤其是涉及信任的產品研發(fā)更是如此。因此,如何解決產品創(chuàng)新中的各種機會主義問題,成為研發(fā)創(chuàng)新管理中一個長期探討但仍未有效解決的難題。

隨著人工智能技術的迅速擴散和應用,借助人工智能構建治理體系成為一個重要的理論探討方向,[4]但現有研究對人工智能為什么具有精準治理功能缺乏強有力的學理解釋。近期,從責任式創(chuàng)新范式角度剖析人工智能的創(chuàng)新治理,[5]從技術邏輯與公共政策選擇角度探討人工智能的治理價值,[6]為本文研究奠定了基礎。據此,本文擬從產品創(chuàng)新角度探討三個問題:一是為什么人工智能具有精準治理的功能,或者人工智能發(fā)揮精準治理的機制是什么;二是人工智能怎樣才能發(fā)揮精準治理的作用,或者人工智能發(fā)揮精準治理的主要路徑有哪些;三是人工智能發(fā)揮精準治理的條件是什么,或者什么因素會使人工智能精準治理的功能失靈。

人工智能發(fā)揮精準治理的機制

此部分主要從人工智能的工具性與社會性、人工智能社會性的治理價值以及人工智能實現精準治理的具體機理三個方面,探討人工智能在產品創(chuàng)新中發(fā)揮精準治理功能的機制。

人工智能的工具性與社會性。要解釋清楚為什么人工智能具有精準治理的功能,需要先從人工智能的工具性與社會性開始探討。人工智能本質上屬于一種信息技術,或者說,是信息技術在當今互聯網、大數據時代最新成果的一種集成化體現,因而人工智能擁有信息技術的工具性與社會性兩種屬性。從技術哲學角度分析,基于技術工具論發(fā)展起來的技術社會建構理論強調,技術具有工具性和社會性兩種特征。[7]

信息技術工具性的探討認為,信息技術的工具作用讓人們對其產生信任,如認為信息技術處理數據的操作穩(wěn)定性和有用性是信任的主要來源。[8]從這個角度看,信息技術是提高效率的一種現代工具,其工具性作用通過功能示能性來實現,功能示能性指信息技術為用戶提供的可能功能集合。[9]這一概念來源于知覺心理學中個體與物理實體交互時對通過該物體可以實現某種行為的感知。[10]例如,信息技術基礎設施和控制機制為用戶提供了及時、準確、完整的數據傳輸以保障交易的完成。用戶對交易過程中信息技術的加密機制、數據傳輸協議和認證機制的感知,構成其對技術可依賴性信念的來源。[11]

在產品研發(fā)中,產品數據管理(PDM)系統、客戶關系管理(CRM)系統、呼叫中心(Call-Center)系統等為研發(fā)人員與用戶互動創(chuàng)新提供了實時、準確和系統的數據基礎,且通過各種報表、圖形、三維動畫等形式呈現出未來新產品多個維度的特征,從而為用戶刻畫出新產品的全景畫像。信息技術為企業(yè)或用戶提供的這種可能的功能集合,就體現出產品創(chuàng)新中信息技術的工具性。然而,信息技術還存在制度建構意義的社會性,因為信息技術可以用多種方式來設計,且技術發(fā)展的方向存在多種選擇。例如,人工智能實踐應用往往是各種用戶在社會利益驅動下的選擇過程,或者說是一種社會集體行動的結果。具體地說,社會群體將價值意義或制度選擇賦予人工智能的技術選擇和存在形式,不同的社會環(huán)境塑造出不同的人工智能特征,且人工智能技術與不同社會情境之間相互構建,形成人工智能技術與社會制度之間的動態(tài)匹配過程,使人工智能技術及應用影響到當代社會的制度發(fā)展。

在產品研發(fā)中,海爾、美的等制造企業(yè)通過搭建與用戶互動創(chuàng)新平臺,廣泛吸收全球用戶、創(chuàng)客等社會力量參與產品創(chuàng)新,尤其騰訊、阿里、百度、京東、酷狗音樂等互聯網企業(yè),通過大數據平臺實現新產品或服務的“灰度測試”或“預售”,在產品創(chuàng)意階段和產品驗證階段充分吸收用戶或潛在用戶的意見和創(chuàng)新貢獻,使信息技術或產品創(chuàng)新從源頭上就被賦予了社會屬性或社會群體的集體選擇特征。例如,微信技術開發(fā)的“不要讓我等、不要讓我想、不要讓我煩”三原則,不僅迅速擴散為中國社交平臺和終端體驗開發(fā)的基本原則,而且構成不少企業(yè)產品創(chuàng)新中的制度規(guī)范,甚至影響到現實中男女朋友交流的潛規(guī)則或體驗感。因此,互聯網、大數據、人工智能等新一代信息技術,使當代產品創(chuàng)新更加體現出創(chuàng)新的社會性,這源于人工智能技術的社會性對當代制度建構的影響,也成為人工智能社會性具有治理價值的基礎。

人工智能社會性的治理價值。近年來,在信息技術的眾多社會性研究中,信息技術的治理功能越來越得到學術界的重視。[12]理論上,人工智能技術能夠發(fā)揮治理作用的前提,是人工智能技術被理解為一個社會對象,其制度意義被社會環(huán)境定義,因為信息技術系統是緊密因果關系的工具安排,能夠將人際關系約束鎖定在緊密的關系中。[13]因此,人工智能的存在具有物質性,人工智能的物質性是社會的,因為信息技術存在的物質性是通過社會過程創(chuàng)建的,也正是由于這些物質性,社會行動或集體選擇才是可行的。[14]從結構化理論視角來看,人工智能等信息技術的構建使操作以一種標準化、結構化和可預測的方式展開。在這個結構化過程中,信息技術代表規(guī)則集和資源集,主體在日常行為中利用這些規(guī)則和資源,[15]將制度、規(guī)范或標準嵌入人工智能技術中。人工智能通過內嵌的前提、特征和標準化流程控制主體或利益相關方行動的內容和方式,而不再依賴于人腦中的知識或現實制度。因此,人工智能等信息技術不僅是工具性的,也是社會物質性的,從而具有約束機會主義的治理功能。

概括地說,人工智能社會性具有治理價值主要源于三個方面。首先,人工智能是由具備不同功能的不同類型技術模塊組合而成,具有多維度技術特征,如大數據運算特征、深度學習特征等。信息技術各功能模塊之間特定的邏輯聯系規(guī)定了用戶行為的特定序列和界限,[16]從而客觀上形成了對事前或事后可能的機會主義行為的多維度刻畫。其次,信息技術具有特定的保證結構,促進各個主體以平等的身份參與到互動或交易活動中。例如,在線個人信息的披露增強了以互聯網為溝通媒介的可控制性,使用戶可以有選擇地查看和編輯信息,考慮如何回應,從而對委托人或代理人的機會主義行為構成第三方的保證結構,或第三方的客觀存在。這種第三方的社會客觀存在,對產品創(chuàng)新中的事前或事后機會主義行為構成潛在威脅或問責感知。最后,從技術結構論角度看,人工智能等信息技術不僅是由人類設計與創(chuàng)造的,也會對人類行為具有約束作用。這體現在隨著信息技術創(chuàng)新和技術使用過程中累積學習,技術的約束作用逐漸對象化,從而對產品創(chuàng)新中的機會主義行為進行對象化約束。

與公司治理等社會制度構建的治理功能不同,人工智能的治理功能對社會關系的塑造,是基于信息技術“計算”中的因果關系。這種因果關系一旦被嵌入或配置出來,人工智能就會具體化和制度化,失去其與社會主體的主動性之間的聯系,因為信息技術中嵌入“特定的符號和物質屬性”,物質屬性作為技術的內在屬性,不受環(huán)境影響。[17]作為規(guī)則的“承載者”,信息技術使得一些行為是可能的,而其他行為是不可能的,或者是很難達成的。[18]例如,在深度學習形成的人工智能中,出現所謂人類理性不可能形成的策略或算法,因為所謂人類理性本質上都是局部理性而非真正意義上的全局理性,但人工智能的理性一方面是大數據學習累積的理性,另一方面是理性結構上的全局理性,可以形成人類治理理性中難以構造的治理策略。

人工智能實現精準治理的具體機理。如前述,人工智能發(fā)揮精準治理的核心機制在于人工智能的工具性與社會性,且社會性特征構成其發(fā)揮精準治理的核心基礎。具體地,人工智能的社會性能夠發(fā)揮精準治理功能的機理有二:一是人工智能具有社會嵌入結構,可以通過算法嵌入治理規(guī)則;二是人工智能具有社會威懾和問責感知,可使機會主義行動者具有精準威懾和問責的感知性。

首先,人工智能實現精準治理的功能,可以通過技術嵌入人工智能算法規(guī)則中,即事先將約束產品研發(fā)中機會主義行為的規(guī)則嵌入在人工智能技術中,將因果序列委托給機器序列,客觀和強制性地實現對產品研發(fā)中的事前和事后機會主義行為進行約束。或者說,基于算法自動化生成的各種深度學習技術,成為治理機會主義行為的有力工具,并且以不明顯的方式實現。[19]其中,不同類型的信息技術在應用中會引發(fā)不同類型的規(guī)則,正式的或非正式的規(guī)則均由不同嵌入特征的信息技術設計所決定。[20]

理論上,信息技術沿著功能簡化和功能閉合兩個方面將任務和操作程序化,實現對現實世界復雜性的簡化。[21]在功能簡化上,信息技術將現實世界的復雜關系重構為一個簡化的數字化因果關系或工具性關系集合,以一種新的方式建構和耦合主體行為的邏輯序列。具體地,信息技術將現實情境中的不確定性和復雜度轉化為一種邏輯化的操作聯系固化在“計算”中,這種邏輯結構為主體的社會互動提供了標準化的實現方式。[22]同樣地,產品研發(fā)中的人工智能對于機會主義行為的治理規(guī)則也如此被“固化”在技術體系中,成為制約機會主義行為的一種新型治理工具。在功能閉合上,信息技術將社會因果關系鎖定在技術執(zhí)行流程中,使信息技術脫離了主體而獨立運行,且在運行過程中不受外界干擾,從而確定了信息技術處理社會復雜度的邊界,使治理機制更加理性化。因此,人工智能的技術功能閉合構成其發(fā)揮治理功能的重要基礎,使人工智能的精準治理具有其自身的規(guī)范。

其次,信息技術具有對違規(guī)行為被問責的感知。[23]人工智能實現精準治理的功能,是以提升針對機會主義行為者的精準威懾或精準問責的感知水平來實現的。類似地,在針對交通超速等機會主義行為的治理中,交警部門或者設置超速違規(guī)測速告知,或者設置明顯的車速檢測裝置,提升機會主義者的精準威懾和問責感知,從而提高交通管理的治理水平。具體而言,人工智能精準治理對機會主義的精準威懾和問責主要來自兩個方面:一是人工智能的監(jiān)控和自動實施,使機會主義者感知到如果違規(guī)就會受到確定的、精準的、迅速的問責或懲罰,使機會主義者快速“計算”出預期的收益與成本之間的結果,或快速“算出”機會主義的得失;二是人工智能平臺使機會主義者感知第三方的客觀社會存在,在實施機會主義行為時增加對第三方社會存在“獨立評估”的成本,人工智能由此提高機會主義的成本而對其構成約束。

產品研發(fā)中,尤其是新產品推出的初期階段,產品可靠性或工藝設計普遍存在不足,這些不足既有可能誘發(fā)用戶的機會主義行為,也有可能誘發(fā)生產企業(yè)的機會主義行為。缺乏第三方實時數據的強有力證據,往往誘惑企業(yè)或用戶大量采取機會主義行為。例如,在某個全屋定制新產品中,用戶以甲醛超標為由向商家進行索賠,商家以出廠評估報告進行反駁,用戶則以自己購買的儀器數據為索賠依據,最后經過第三方檢測機構介入,發(fā)現用戶是在關閉房間一個月后再進入房間檢測,而廠家則是在通風三天后進行檢測,二者結果自然不同。針對類似的情境,人工智能可以作為第三方介入,發(fā)揮精準治理的重要作用。

人工智能怎樣才能發(fā)揮精準治理的作用

無論是在產品創(chuàng)新領域,還是在其他社會經濟領域,人工智能發(fā)揮精準治理的作用,主要通過人工智能的制度構建、社會制度演化中嵌入人工智能思維和技術信任以及人工智能治理規(guī)則與社會治理制度的動態(tài)匹配三個主要途徑來實現。

首先,產品創(chuàng)新的人工智能要發(fā)揮精準治理的作用,需要對人工智能的制度構建進行設計。人工智能的制度構建,指人工智能主體或設計者根據社會治理的目的和技術可行性構建計算規(guī)則和決策規(guī)則,通過計算規(guī)則和決策規(guī)則實現與現實制度中的治理規(guī)范一致的技術治理體系??梢?,人工智能的制度構建是其發(fā)揮精準治理作用的關鍵一環(huán),構成人工智能實現技術性“制度治理”的基礎。例如,追蹤員工的互聯網使用過程,記錄網絡行為,開展安全審計,能夠提升機會主義者對問責或懲罰的精準性感知,傳遞出管理者重視系統使用活動的信號,進而減少信息系統的濫用。又如,電子處方系統嵌入的約束是由治理目標決定的,對專業(yè)人員進行身份認證,對行為邏輯的鑒定,對處方和配藥的審計追蹤等,都能夠促進主體對治理規(guī)則的服從,這些都屬于人工智能的制度構建過程或治理結果。通過人工智能的制度構建,人工智能在產品研發(fā)中發(fā)揮精準治理的作用,可以體現在產品研發(fā)的創(chuàng)意涌現、產品驗證、市場驗證、新品主流化驗證以及新品生命周期管理各個階段。例如,在產品驗證階段,企業(yè)借助人工智能,就新產品工藝和技術路線選擇推動用戶廣泛參與,或在大數據平臺上實現高效的企業(yè)與用戶互動創(chuàng)新,或借助社會創(chuàng)客平臺參與產品創(chuàng)新,從而在工藝選擇和技術選擇等研發(fā)初期階段就規(guī)避用戶使用階段的機會主義風險。實踐中,模擬未來銷售情境中的制度環(huán)境,反向改進新產品技術性能或工藝,正在成為企業(yè)借助人工智能實現精準治理的重要方式之一,如西門子、波音、通用等大型企業(yè)基于大數據和人工智能產品研發(fā)仿真系統,實現對產品創(chuàng)新的全項目建模和全流程虛擬現實管理,推動產品創(chuàng)新領域人工智能精準治理的發(fā)展。

其次,人工智能在產品研發(fā)中要發(fā)揮精準治理的作用,需要在現實的制度演化中嵌入人工智能思維和技術信任。制度本質上是一種治理工具或形式,人工智能環(huán)境下的制度演化需要構建技術信任,并實現對技術信任的有效轉移。[24]人工智能技術與產品研發(fā)技術之間具有相互依賴性,治理規(guī)則與機會主義行為之間會產生各種隨機波動或耦合,由此形成的制度演化需要培育企業(yè)與用戶雙方逐步以人工智能的規(guī)則思維和方式來行事,以委托人與代理人雙方基于人工智能達成的社會信任——技術信任來實現互動創(chuàng)新,這就需要滿足企業(yè)與用戶互動創(chuàng)新的參與約束和激勵相容條件。從制度經濟學視角看,培育對于人工智能精準治理的社會共識,形成對產品創(chuàng)新的人工智能精準治理流程、規(guī)則與結果的技術信任,并基于技術信任持續(xù)完善人工智能精準治理的多種選擇結果,是人工智能發(fā)揮精準治理作用的關鍵要素之一。需要指出的是,人工智能精準治理不存在最優(yōu)或最理想的結果,而是多項可供選擇的最優(yōu)治理結果的組合,需要主體根據情境或治理目標在可供選擇的最優(yōu)治理預期結果中進行選擇或抉擇。

在產品研發(fā)中,人工智能精準治理是一種特殊形式的制度化治理,通過將治理規(guī)則或規(guī)范嵌入產品研發(fā)的技術設計與開發(fā)中,將治理的制度化實施過程直接委托給人工智能系統,由人工智能系統自動執(zhí)行本應由主體完成的治理行動。像信息技術成為現實中的治理技術一樣,[25]過程規(guī)范是任何制度結構的一部分,人工智能形成的技術規(guī)范構成社會治理中機械化的制度結構,將人工智能思維和規(guī)則嵌入現實社會治理中,促使現實社會的治理“機械地執(zhí)行”原本由制度設計者執(zhí)行或委托他人執(zhí)行的治理過程。

最后,人工智能在產品研發(fā)創(chuàng)新中要發(fā)揮精準治理的作用,需要推動人工智能治理規(guī)則與社會治理制度之間的動態(tài)匹配。人工智能技術形成“制度治理”與人工智能技術參與的社會治理之間需要實現動態(tài)的匹配。一方面,社會主體或設計者對人工智能的制度構建的設計,需要與現實社會制度相匹配,同時,社會導入人工智能精準治理也需要與既有的治理制度相匹配;另一方面,人工智能的精準治理與現實社會治理制度之間也需要動態(tài)匹配。要實現上述兩個層面上的動態(tài)匹配,需要社會逐步構建起人工智能精準治理的能力—制度—方法—平臺(Capability-Mechanism-Methodology-Platform, CMMP)的社會框架。[26]其中,人工智能精準治理能力和治理制度是實現精準治理的關鍵因素,人工智能精準治理方法體系和大數據平臺是實現精準治理的技術基礎。在人工智能精準治理能力與制度設計的動態(tài)匹配(簡稱CM匹配)過程中,僅僅強調主體具備人工智能精準治理的能力是不夠的,還需要將這種能力與治理制度設計相匹配。同時,主體如何通過人工智能精準治理方法體系與大數據平臺相匹配(簡稱MP匹配)來支持治理的實現,也是人工智能精準治理發(fā)揮作用的重要一環(huán)。在此基礎上,通過CM匹配與MP匹配之間的再匹配,構成CM—MP匹配,提升人工智能精準治理的成效。目前,對于這四個方面的動態(tài)匹配關系研究處于起步階段,甚至對于這四個主體的研究也如此,但這四者的關系及各自特征,將深刻地影響到人工智能精準治理的發(fā)展及應用成效。對這四個主題科學問題的研究,將成為人工智能精準治理的熱點問題。

在產品創(chuàng)新中,企業(yè)研發(fā)人員在與用戶互動創(chuàng)新過程中,需要基于大數據平臺逐步建立起與用戶互動創(chuàng)新的動態(tài)能力,但用戶事前或事后機會主義行為往往使研發(fā)人員難以判斷某個意見或建議的真實價值,即使與領先用戶的合作創(chuàng)新,也存在類似問題。另外,企業(yè)研發(fā)人員如何獲取產品創(chuàng)意,或者,在與用戶互動創(chuàng)新過程中,如何甄別欺騙、誘惑、侵占、轉售用戶創(chuàng)意或創(chuàng)新原型等機會主義行為,都需要通過人工智能精準治理來逐步規(guī)范。同時,無論是研發(fā)人員還是用戶都需要從更廣泛的社會責任視角重新審視產品創(chuàng)新,將人工智能精準治理納入企業(yè)責任式創(chuàng)新的范疇中,產品創(chuàng)新不僅需要獲得產品驗證和市場驗證,未來也需要獲得社會責任的驗證,這都是人工智能參與市場治理可以發(fā)揮作用的空間。但是,要使人工智能精準治理在產品創(chuàng)新中發(fā)揮這些作用,需要不斷提高人工智能精準治理的CM—MP匹配,否則,難以實現針對產品創(chuàng)新中委托人或代理人機會主義的精準治理。

人工智能發(fā)揮精準治理的條件

人工智能是否能夠對產品創(chuàng)新中的機會主義行為發(fā)揮精準治理的作用,需要考慮具體的情境條件。在不同的情境下,人工智能發(fā)揮精準治理的作用不同,本文不準備就不同情境下人工智能發(fā)揮精準治理的不同作用進行探討,擬重點剖析人工智能發(fā)揮精準治理的一般制度條件,尤其是分析在什么樣的制度條件下人工智能精準治理會失靈。[27]從技術角度看,人工智能具有計算智能、感知智能和認知智能三個層面的能力。相應地,可以從人工智能精準治理所需要的“計算智能”“感知智能”和“認知智能”三個方面分別探討人工智能精準治理的社會制度失靈條件。

首先,無論是將治理的規(guī)則或制度嵌入人工智能技術中,還是在現實治理制度中納入人工智能技術推動精準治理,都必定存在著治理失靈的空間或區(qū)域。對于人工智能精準治理失靈的探討,將加深人們對于人工智能精準治理的認識。對于制度失靈的探討,本質上就是刻畫制度有效性的邊界。

在產品創(chuàng)新中,無論是現實中還是人工智能干預下,對于創(chuàng)意涌現或與此相關的創(chuàng)新活動中的機會主義行為,都是難以實現精準治理的。也就是說,對于深刻隱藏在人類腦海中的高度非結構化活動,人工智能與現實中的治理制度安排一樣,都存在失靈的可能。例如,我們對人工智能企業(yè)的調研發(fā)現,人工智能模型可以高效地實現從1到10的功能性或技術性創(chuàng)新,但對于從0到1的創(chuàng)意涌現與模糊判斷存在著相當大的智能盲區(qū)。從這個角度看,保障人工智能精準治理的第一個制度條件,就是社會制度需要明確、清晰、簡要地規(guī)劃出人工智能發(fā)揮精準治理作用的邊界,避免人工智能精準治理的泛化和庸俗化。通俗地說,一個文明健全的人工智能社會,不是人工智能無所不能的社會,也不是一個純粹技術工具的社會,而是一個有限邊界的人工智能社會——內嵌多個平行的人工智能小社會的智能社會。誠然,這個邊界會隨著人工智能技術與制度之間的動態(tài)匹配而不斷延伸擴展。

其次,社會主體對人工智能的技術信任與制度信任形成信任的傳遞,是保障人工智能精準治理的第二個制度條件。主體對于人工智能的技術信任,指其對信息技術基礎設施和控制機制促進治理行為完成的信念?;蛘哒f,主體對人工智能精準治理的信任和對其治理機制的信任,構成現實制度中對主體治理行為的信任。主體對于人工智能的制度信任,指其對基于人工智能社會構建的程序、約定、協議或規(guī)則等促進治理行為完成的信念?;蛘哒f,人工智能精準治理的制度信任,就是主體對于人工智能精準治理形成的一系列規(guī)則和程序能夠保障實現預期治理的信念。

在產品創(chuàng)新中,企業(yè)研發(fā)人員對人工智能模型建構的新產品模型及市場模擬結果不僅具有技術信任,而且具有制度信任。同時,在創(chuàng)新迭代過程中,企業(yè)研發(fā)人員對人工智能實現精準治理的預期結果在不同情境下相互傳遞,本質上是人工智能精準治理的CM—MP匹配迭代過程,當企業(yè)與用戶、企業(yè)與企業(yè)之間,或用戶與用戶之間形成機會主義行為時,依靠社會主體對人工智能精準治理的技術信任與制度信任的信任傳遞,將主體基于對人工智能的技術信任轉變?yōu)閷χ卫淼闹贫刃湃?,或將對制度的信任轉變?yōu)閷θ斯ぶ悄艿募夹g信任,從而使人工智能實現對現實中機會主義行為的精準治理。因此,社會主體對人工智能精準治理的技術信任與制度信任之間的信任轉移,是構成其有效性的條件之一。

最后,技術信任不能代替人際信任,技術信任只是補充了人際信任。人際信任是一種關系治理的形式,當人際信任水平較高時,即使不依靠正式契約的約束,也不會使一方遭受機會主義行為的損失。[28]基于此,社會主體對人工智能的技術信任與人際信任之間的信任傳遞,是保障人工智能精準治理的第三個制度條件。隨著人工智能的擴散和普及,社會出現多個平臺提供第三方人工智能治理服務,或人工智能精準治理成為支持、促進產品創(chuàng)新治理的一種常態(tài)形式,社會主體需要將對人工智能的技術信任轉變?yōu)槿穗H信任,或將人際信任轉變?yōu)榧夹g信任,使人工智能成為社會主體之間的治理關系之一。

在企業(yè)與用戶的互動創(chuàng)新中,互聯網及大數據平臺為企業(yè)與用戶互動創(chuàng)新提供了新的即時通訊與交流工具,使企業(yè)與用戶的聯接實現時空壓縮效應,無論是企業(yè)還是用戶都可以低成本地實現與全球目標主體的聯接,這種聯接隱含了彼此雙方的平等條件,就像網絡語言所說的那樣,在互聯網上你不知道與你對話的是人還是狗,但對話身份都是平等的。因此,產品創(chuàng)新中的機會主義主體或者是個體,或者是機構,或者僅僅是人工智能的機器,在這種情境下,產品研發(fā)過程中的機會主義行為部分可能是一種計算機算法行為,或者說是一種無意識的集體計算行為,純粹依靠人類大腦或現實制度難以計算和判斷,需要借助人工智能來促進大數據時代的治理。此時,人工智能在產品創(chuàng)新中發(fā)揮精準治理的作用,需要社會主體對其的技術信任與其對社會主體的“人際信任”之間存在信任轉移,即社會主體需要相信其他社會主體也對人工智能實現精準治理具有同樣的信念。否則,人工智能精準治理難以實現。例如,當某種新產品被企業(yè)作為主流化產品進行推送時,人工智能模型分析結果表明該新產品有高風險侵權的特征,企業(yè)因此而終止或修改該新產品的主流化方案。但是,市場上其他企業(yè)借助人工智能模型也獲得同樣結果卻依然推廣,且因侵權而未受到實質上的損失,如果這樣的現象反復出現,人工智能就難以發(fā)揮對機會主義行為的精準治理。

在產品創(chuàng)新治理領域,第一個條件提出的社會需要清晰規(guī)劃出人工智能發(fā)揮精準治理作用的邊界,避免人工智能精準治理的泛化和庸俗化,確定了人工智能的計算智能的失靈條件;第二個條件提出的社會主體對人工智能精準治理的技術信任與制度信任之間的信任傳遞,確定了人工智能的感知智能的失靈條件;第三個條件提出的社會主體對人工智能精準治理的技術信任與人際信任之間的信任傳遞,確定了人工智能的認知智能的失靈條件。這三個條件從社會制度層面共同刻畫了人工智能精準治理的有效性邊界。例如,在波音787的研發(fā)與市場擴展中,通過智能裝配、智能駕駛、智能飛控、智能維護、智能材料及標簽等領域新品研發(fā)與市場拓展,波音787從高技術集成的寬體機邁向準智能飛機,[29]由此需要社會主體通過創(chuàng)新研發(fā)、駕駛、運維、飛控、維護與供應鏈創(chuàng)新等多項制度來保障,才可以實現波音787的全球化應用,從而推動航空運輸邁進智能飛機時代的門檻。但是,如果社會主體缺乏對波音787的計算智能、感知智能和認知智能的有效性邊界的共識,也缺乏對其技術信任、制度信任和人際信任的信任傳遞,那么,對于該產品研發(fā)創(chuàng)新和市場推廣活動,就缺乏了人工智能精準治理的制度條件。因此,人工智能發(fā)揮精準治理的條件,本身就是人工智能需要解決的一個技術與制度交互影響的難題。

結論與政策含義

本文從產品創(chuàng)新角度探討三個問題。一是為什么人工智能具有精準治理的功能?研究表明,人工智能不僅是工具性的,也是社會性的,從而具有約束機會主義的治理功能,因此,人工智能的工具性與社會性交互構成人工智能發(fā)揮精準治理的基礎。其中,人工智能的社會嵌入結構、社會威懾和問責的感知,構成其實現精準治理功能的兩種方式。二是人工智能怎樣才能發(fā)揮精準治理的作用?結果表明,人工智能的制度構建、社會制度演化中嵌入人工智能思維和技術信任、人工智能治理規(guī)則與社會治理制度的動態(tài)匹配,構成人工智能精準治理的三個主要路徑。三是人工智能發(fā)揮精準治理的條件是什么?探討表明,明確人工智能精準治理邊界,對人工智能精準治理的技術信任與制度信任的信任傳遞,以及人工智能精準治理的技術信任與人際信任的信任傳遞,構成人工智能精準治理的三個制度條件。

本文的研究結論有兩個主要的政策含義:其一,產品創(chuàng)新的人工智能精準治理同樣遵循從認知到行動的制度演化邏輯。推動產品研發(fā)的人工智能精準治理,不僅依然需要遵循“人沒有想清楚,計算機一定想不清楚”的信息技術開發(fā)與應用規(guī)則,而且需要遵循技術與業(yè)務戰(zhàn)略匹配原則,推動人工智能精準治理與現實制度治理之間的動態(tài)匹配。其二,人工智能精準治理的邊界與現實制度治理之間的邊界既有可能重疊,也有可能相互脫節(jié),如何通過人工智能精準治理壓縮現實制度治理的失靈空間,或通過現實制度治理彌補人工智能精準治理的失靈空間,對于推動人工智能精準治理均具有重要的實踐意義。最后,本文從產品創(chuàng)新角度探討人工智能精準治理,結論具有較好的普適性,對于企業(yè)、產業(yè)政策,乃至公共管理領域的人工智能治理,也具有理論啟示與參考價值。

注釋

[1]Aghion, P. et al., "Artificial intelligence and economic growth", NBER Working Paper, 2017, No.23928.

[2]吳瑤、肖靜華、謝康、廖雪華:《從價值提供到價值共創(chuàng)的營銷轉型——企業(yè)與消費者協同演化視角的雙案例研究》,《管理世界》,2017年第4期;肖靜華、吳瑤、劉意、謝康:《消費者數據化參與的研發(fā)創(chuàng)新——企業(yè)與消費者協同演化視角的雙案例研究》,2017年中國企業(yè)管理案例與質性研究論壇最佳論文。

[3][26]謝康、肖靜華、王茜:《大數據驅動的企業(yè)與用戶互動研發(fā)創(chuàng)新》,《北京交通大學學報(社科版)》,2018年第2期。

[4]陳偉光:《關于人工智能治理問題的若干思考》,《人民論壇·學術前沿》,2017年10月下。

[5]梅亮、陳勁、吳欣桐:《責任式創(chuàng)新范式下的新興技術創(chuàng)新治理解析——以人工智能為例》,《技術經濟》,2018年第1期。

[6]賈開、蔣余浩:《人工智能治理的三個基本問題:技術邏輯、風險挑戰(zhàn)與公共政策選擇》,《中國行政管理》,2017年第10期。

[7]張成崗:《西方技術觀的歷史嬗變與當代啟示》,《南京大學學報(社科版)》,2013年第4期。

[8]Mcknight D. H.; Carter M., Thatcher J. B., et al, "Trust in a Specific Technology: An Investigation of Its Components And Measures", ACM Transactions on Management Information Systems, 2011, 2(2): pp. 12-25.

[9]Markus M.L.and Silver M. S., "A Foundation for the Study of IT Effects: A New Look at DeSanctis and Poole's Concepts of Structural Features and Spirit", Journal of the Association for Information Systems, 2008, 9(10/11): pp.609-632.

[10]Gibson J.,"The Theory of Affordances. Hillsdale", NJ:Lawrence Erlbaum Associates,1977.

[11]Ratnasingam P. and Pavlou P., "Technology Trust in Internet-Based Interorganizational Electronic Commerce", Journal of Electronic Commerce in Organizations, 2003, pp. 17-41.

[12]Jinghua Xiao; Kang Xie and Qing Hu., "Inter-firm IT Governance in Power-imbalanced Buyer–supplier Dyads: Exploring How It Works and Why It Lasts", European Journal of Information Systems, 2013, 22(5), pp. 512-528.

[13]Luhmann N., The Sociology of Risk, Berlin: de Gruyter, 1993.

[14]Leonardi P. M., Materiality, Sociomateriality, and Socio-technical Systems: What do These Terms Mean? How Are They Different? Do We Need Them? UK: Oxford University Press, 2012, pp. 25-48.

[15]Orlikowski W. J., "The Duality of Technology: Rethinking The Concept of Technology in Organizations", Organization Science, 1992, 3(3), pp. 398-427.

[16]Kallinikos J.; Hasselbladh H. and Marton A., "Governing Social Practice: Technology and Institutional Change", Theory & Society, 2013, 42(4), pp. 395-421.

[17]Leonardi P M., "Theoretical Foundations for the Study of Sociomateriality", Information and Organization, 2013, 23, pp. 59-76.

[18]Orlikowski W. J., "Using Technology and Constituting Structures: A Practice Lens for Studying Technology in Organizations", Organization Science, 2000, 11(4), pp. 404-428.

[19]Napoli P. M., "Automated Media: An Institutional Theory Perspective On Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.

[20]Bartelt V. L. and Dennis A. R., "Nature and Nurture: The Impact of Automaticity and the Structuration of Communication on Virtual Team Behavior and Performance", MIS Quarterly, 2014, 38(2), pp. 521-538.

[21]Luhmann N, The Sociology of Risk, Berlin: de Gruyter,1993.

[22]Contini F. and Cordella A., "Assembling Law and Technology in the Public Sector: the Case of E-justice Reforms//Proceedings of the 16th Annual International Conference on Digital Government Research", ACM, 2015, pp. 124-132.

[23]Vance A.; Lowry P. B. and Eggett D. L., "Increasing Accountability through the User Interface Design Artifacts: A New Approach to Addressing the Problem of Access-Policy Violations", Social Science Electronic Publishing, 2015, 39(2), pp. 345-366.

[24]謝康、楊文君、肖靜華:《在線品牌社區(qū)中技術信任促進電子商務初始信任的轉移機制》,《預測》,2016年第2期。

[25]Mohr R. and Contini F., "Reassembling The Legal: The Wonders of Modern Science'in Court-Related Proceedings", Griffith Law Review, 2011, 20(4), pp. 994-1019.

[27]對于人工智能發(fā)揮精準治理作用一般條件的刻畫,需要建立相應的規(guī)范模型來實現,這是未來有待完成的工作。

[28]Poppo L. and Zenger T., "Do Formal Contracts and Relational Governance Function as Substitutes or Complements?" Strategic Management Journal, 2002, 23(8), pp. 707-725.

[29]張新苗、余自武、楊雨綺:《人工智能在波音787上的應用與思考》,《工業(yè)工程與管理》,2017年第6期。

責 編/樊保玲

猜你喜歡
產品創(chuàng)新人工智能信息技術
新一代信息技術征稿啟示
新一代信息技術征稿啟示
新一代信息技術征稿啟示
人工智能與就業(yè)
銀行業(yè)金融產品創(chuàng)新:現狀、效應與策略