国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

社會治理智能化倫理問題的技術(shù)之維

2023-09-15 17:33王海建
貴州省黨校學(xué)報 2023年4期
關(guān)鍵詞:公平正義

摘 要:社會治理智能化是國家治理體系和治理能力現(xiàn)代化的重要內(nèi)容。社會治理智能化的發(fā)展,推動了社會治理現(xiàn)代化的進程,但同時也衍生出許多倫理問題,影響社會治理的效能。從智能技術(shù)應(yīng)用的維度分析發(fā)現(xiàn),智能技術(shù)的化約主義、情感計算、錯誤學(xué)習(xí)、不透明性等在應(yīng)用于社會治理過程中生成了不公平、不公正、不透明、情感缺失等倫理問題。這些倫理問題的產(chǎn)生,部分是由智能技術(shù)自身的不成熟引發(fā)的,部分是由智能技術(shù)的濫用誤用造成的。在實踐中,可通過內(nèi)外結(jié)合的方式,開發(fā)出更加符合社會治理需要的智能技術(shù)、加強對智能技術(shù)應(yīng)用于社會治理的規(guī)制以及構(gòu)建與社會治理智能化相適應(yīng)的倫理秩序等,推動社會治理智能化為公眾提供高品質(zhì)的公共服務(wù)供給,真正追求社會治理的公平正義。

關(guān)鍵詞:社會治理智能化;公平正義;技術(shù)生成;負責(zé)任

中圖分類號:D630文獻標(biāo)識碼:A文章編號:1009 - 5381(2023)04 - 0065 - 08

黨的二十大報告指出,“到二〇三五年,我國發(fā)展的總體目標(biāo)是:經(jīng)濟實力、科技實力、綜合國力大幅躍升,人均國內(nèi)生產(chǎn)總值邁上新的大臺階,達到中等發(fā)達國家水平;實現(xiàn)高水平科技自立自強,進入創(chuàng)新型國家前列;建成現(xiàn)代化經(jīng)濟體系,形成新發(fā)展格局,基本實現(xiàn)新型工業(yè)化、信息化、城鎮(zhèn)化、農(nóng)業(yè)現(xiàn)代化;基本實現(xiàn)國家治理體系和治理能力現(xiàn)代化”[1]24。要想順利實現(xiàn)這一目標(biāo),需要加快推進社會治理智能化進程,即把人工智能、算法、大數(shù)據(jù)等智能技術(shù)應(yīng)用于社會治理之中,提升治理效能,追求社會治理的公平、正義等。目前,全國各地的數(shù)字政府建設(shè)、“一網(wǎng)通辦”“一網(wǎng)通管”等,都是社會治理智能化發(fā)展的具體形式。從已有的社會治理智能化實踐看,智能技術(shù)在社會治理過程中的應(yīng)用,的確提升了社會治理的效能,推動著國家治理體系和治理能力朝著現(xiàn)代化的方向發(fā)展。然而,智能技術(shù)的應(yīng)用也并非有百利而無一害。智能技術(shù)本身的缺陷,以及人們在進行社會治理時對智能技術(shù)的使用不當(dāng)?shù)?,都會產(chǎn)生社會治理智能化的倫理問題,影響社會治理的效果。因此,需要盡快從智能技術(shù)的角度,分析社會治理智能化倫理問題產(chǎn)生的技術(shù)生成、技術(shù)歸因,進而提出技術(shù)規(guī)制之道,從而更好地發(fā)揮智能技術(shù)的社會治理功能,推進社會治理智能化高質(zhì)量、高效能發(fā)展。

一、社會治理智能化倫理問題的技術(shù)生成

從智能技術(shù)應(yīng)用于社會治理所要追求的倫理目標(biāo)看,智能技術(shù)的應(yīng)用無疑是為了增進社會治理的公平正義,讓治理對象能夠公平地被看待、公正地獲取公共產(chǎn)品,進而推動整個社會朝著良性發(fā)展的方向進步。但是,“技術(shù)的勝利,似乎是以道德的敗壞為代價換來的?!盵2]通過考察智能技術(shù)在社會治理中的應(yīng)用發(fā)現(xiàn),智能技術(shù)在推動社會治理智能化高質(zhì)量發(fā)展的同時,也帶來了許多倫理問題。

(一)智能技術(shù)的“化約主義”引發(fā)社會治理的不公平

智能技術(shù)之所以能高效、快速處理數(shù)據(jù)信息,是因為其算法邏輯中的“化約主義”,即把復(fù)雜、多元、多樣的數(shù)據(jù)信息通過一定的輸入規(guī)則,簡化為智能機器可以處理的數(shù)據(jù)信息。正是這個“化約”的過程,會引發(fā)社會治理中出現(xiàn)不公平的倫理問題。智能技術(shù)之所以被應(yīng)用于社會治理領(lǐng)域,是因為它能夠“客觀、公正地處理數(shù)據(jù)信息并得出相關(guān)結(jié)論”[3],即在處理治理對象的數(shù)據(jù)信息時,因為智能技術(shù)對數(shù)據(jù)的處理是依據(jù)既定的程序、邏輯、規(guī)則,且能夠獨立對數(shù)據(jù)進行處理,這樣得出的結(jié)論會更加科學(xué)、公平,規(guī)避了以往社會治理過程中可能出現(xiàn)的徇私舞弊、個人偏好等不公平現(xiàn)象。但是,在采集和處理治理對象的數(shù)據(jù)信息時,智能技術(shù)的“化約”過程,會引發(fā)社會治理的不公平。

一種是無法量化的數(shù)據(jù)信息會在“化約”過程中丟失,導(dǎo)致治理方案或者行為的不公平。智能技術(shù)對治理對象數(shù)據(jù)信息的處理,只會對符合既定標(biāo)準(zhǔn)的輸入數(shù)據(jù)進行量化處理。“一些非量化或者無法記錄的數(shù)據(jù)會被算法簡化”[4]。在社會治理過程中,智能技術(shù)所要處理的治理對象的數(shù)據(jù),既有可以量化的、標(biāo)準(zhǔn)化的數(shù)據(jù),還有許多無法量化、無法記錄的數(shù)據(jù)。如,社區(qū)的約定俗成、村民的行為習(xí)慣等。如果這些數(shù)據(jù)信息未被識別,智能技術(shù)所形成的治理方案很難達到真正的公平。另一種是無數(shù)據(jù)輸入會導(dǎo)致“化約”失敗,造成治理方案或者行為的不公平。智能技術(shù)對治理對象的判斷,需要治理對象相關(guān)的數(shù)據(jù)輸入,但是,在有的情況下是沒有數(shù)據(jù)可以參考的。第51次《中國互聯(lián)網(wǎng)發(fā)展?fàn)顩r統(tǒng)計報告》顯示,截至2022年12月,中國網(wǎng)絡(luò)用戶為10.67億戶,互聯(lián)網(wǎng)普及率為75.6%[5]。也就是說,在中國還有近四分之一的人群是不上網(wǎng)的。如果采用智能技術(shù)對這部分人的事項進行治理決策,那么,他們的需求和權(quán)益很難被真正考慮到,顯然,這對他們來講是不公平的。

(二)智能技術(shù)的“情感計算”導(dǎo)致社會治理的情感缺失

智能技術(shù)在社會治理中的應(yīng)用,會產(chǎn)生另外一個倫理問題,即情感缺失的問題。早在20世紀(jì)80年代,圖靈獎獲得者馬文·明斯基教授就提出在計算機應(yīng)用時可以開發(fā)情感計算技術(shù)[6],以提升技術(shù)的親和力。近年來,智能技術(shù)發(fā)展的一個重要方向就是情感計算技術(shù)開發(fā),人們期望通過這一技術(shù)進步,使智能機器人能夠理解人的情感,從而推動智能機器與人類的高質(zhì)量交互。目前,情感計算技術(shù)被廣泛應(yīng)用于社會治理的各個領(lǐng)域。如,因為智能機器對人們“情感極性和強度的計算,可以反映人們對公共服務(wù)的文化感知情況”[7]。在政府進行城市公園建設(shè)、社區(qū)休閑場所規(guī)劃等公共設(shè)施建設(shè)時,用情感計算技術(shù)對公眾的感知、意向進行采集計算,使方案更符合公眾意愿,建設(shè)出的公共設(shè)施也更具親和力。

從本質(zhì)上看,當(dāng)前的情感計算仍然遵循情感信號識別(對人的面部表情、肌肉變化、血壓變化等)-情感信號建模-情感信號理解-情感信息表達的邏輯。在這一過程中,情感計算技術(shù)并不能對個體的性格特征、情感情緒有全部的把握,也不能對人的腦神經(jīng)網(wǎng)絡(luò)的運行情況進行識別??茖W(xué)研究表明,即使是當(dāng)前最先進的腦機接口技術(shù),也沒辦法用“意念控制智能機器人”[8]。也就是說,智能技術(shù)還沒有辦法與人的大腦實現(xiàn)“無縫銜接”。因此,可以說,目前的智能技術(shù)仍舊是“沒有意識和價值觀念的”[9]技術(shù)工具,它既不能擁有像人類一樣的情感,也沒有辦法真正“理解”人類的情感。正是這樣,使得智能技術(shù)在社會治理中應(yīng)用時,既“不能代替領(lǐng)導(dǎo)干部親歷親為的調(diào)查研究”,也不能代替多元治理主體之間面對面的交流互動,成為只會根據(jù)工程師設(shè)定的技術(shù)邏輯程序回答用戶提問的冷冰冰的機器。把這樣的情感計算技術(shù)應(yīng)用到社會治理領(lǐng)域,治理主體用智能技術(shù)的情感工具替代原本面對面的溝通交流,會割裂政府與社會、治理主體與對象、官員與群眾之間原本的“魚與水”般的親密關(guān)系,從而造成社會治理中的情感缺失問題。

(三)智能技術(shù)的“錯誤學(xué)習(xí)”致使社會治理的不公正

智能技術(shù)中的機器學(xué)習(xí)在實踐中常被用來改善社會治理流程,以達到更為公正的治理效果。然而,智能機器真的就如人們所愿,能夠通過學(xué)習(xí)不斷提升賦能社會治理的能力,從而推動社會治理更為公正嗎?答案是不確定的。如,前幾年發(fā)生的美聯(lián)航超售事件。因美聯(lián)航超售機票,在乘客登機結(jié)束后,沒有乘客自愿改簽的情況下,由電腦隨機抽取了4名乘客強制改簽。結(jié)果,抽中了3名亞裔乘客,并把其中一名乘客強行拖下飛機。在亞裔乘客占乘客總數(shù)的比例很低的情況下,為什么電腦會抽中多達3名亞裔乘客呢?顯然是電腦中的參數(shù)和機器學(xué)習(xí)起了作用。因為在美國,人們一般會認為,亞裔脾氣溫和、不愛惹事,智能機器顯然是學(xué)習(xí)到了美國社會對亞裔這種性格的對應(yīng)行為模式,故在隨機抽取時,抽中了更多的亞裔乘客。

實際上,智能技術(shù)中的機器學(xué)習(xí)只有在很嚴苛的條件下才能夠真正學(xué)到有用的知識,提升自身的功能。這些條件包括:高質(zhì)量的數(shù)據(jù)輸入、外界的“雜音”很低、機器的建模與工作契合性高等。社會治理作為一種非常復(fù)雜的社會工作,很難達到機器學(xué)習(xí)所需要的嚴苛條件。那是因為,社會治理過程不僅是多元主體共同參與的過程,還需要考慮治理范圍內(nèi)的社會政治經(jīng)濟條件、風(fēng)俗文化傳統(tǒng)、對象群體特征、社會制度規(guī)范以及其他流動性的變化因素等。在這樣復(fù)雜的情況下,機器學(xué)習(xí)很容易偏離正確的方向,并不能總是“做正確的事”[10],由此便產(chǎn)生了諸如上述例子里的性別歧視、群體歧視等社會治理過程中的不公正問題。

(四)智能技術(shù)的“不透明性”引致社會治理的不透明

運用智能技術(shù)增進社會治理過程的透明,是社會治理智能化的倫理目標(biāo)之一。《中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標(biāo)綱要》明確提出,要提升國家數(shù)據(jù)共享交換平臺功能,推動高價值數(shù)據(jù)集向社會開放。[11]即要通過智能技術(shù)賦能,將更多決策信息、決策流程向公眾開放,增進社會治理的透明度。目前,智能技術(shù)賦能社會治理的應(yīng)用主要體現(xiàn)在通過精準(zhǔn)預(yù)測需求,進而精準(zhǔn)滿足治理對象的個性化需求等方面。借助于智能技術(shù),治理主體可以根據(jù)治理對象的數(shù)據(jù)信息,預(yù)測出其個性化的需求。隨著“計算機的運算速度和內(nèi)存容量以指數(shù)級速度增長”[12],以及算法技術(shù)的不斷更新迭代,精準(zhǔn)預(yù)測出“治理對象”的需求似乎已經(jīng)成為智能技術(shù)一項必備功能。如,算法通過對大樣本治理對象數(shù)據(jù)的計算賦值,從中找出治理對象需求的一般規(guī)律。根據(jù)這樣的邏輯,智能技術(shù)可在社會治理的許多領(lǐng)域進行用戶需求預(yù)測、治理決策制定、治理方案完善等,以提升社會治理效能,推動社會治理的智能化發(fā)展。

但是,在這個過程中智能技術(shù)有一個缺陷,就是其“不透明性”。也就是說,智能技術(shù)在應(yīng)用于社會治理過程中,其做出的治理決策、產(chǎn)生的治理方案,所依據(jù)的邏輯是什么、決策的過程是什么,是不透明的。在現(xiàn)實的社會治理中,一項治理決策或者方案的達成,需要遵循一定的價值取向,經(jīng)過多元治理主體的共同商討才能形成。如果一項治理決策或者方案是“暗箱操作”的結(jié)果,那么,其在應(yīng)用于社會治理實踐時,會衍生出巨大的社會風(fēng)險。治理對象可能質(zhì)疑這一決策或方案的合理性、合法性,進而釀成社會輿論危機,削弱治理主體的權(quán)威性和合法性。從實踐角度看,即使是處在弱人工智能的當(dāng)下,智能技術(shù)在社會治理中做出的許多決策和行為仍然是不透明的。比如算法黑箱問題,即使是治理主體,也不能說清楚算法究竟是依據(jù)什么樣的前提或者程序做出某一決策的,這就會給社會治理帶來風(fēng)險。隨著技術(shù)的發(fā)展,這種“不透明”會進一步加劇。比如隨著人工智能向深度學(xué)習(xí)的演化,將產(chǎn)生具有主體意識的智能體,他們做出的治理決策或者方案,不僅是不透明的,還可能對人類本身產(chǎn)生威脅。最壞的結(jié)果可能會像科幻電影《阿麗塔》里面的劇情一樣,智能機器人戰(zhàn)勝人類,導(dǎo)致人類的滅亡。

二、社會治理智能化倫理問題的技術(shù)歸因

從智能技術(shù)的視角分析,社會治理智能化產(chǎn)生的倫理問題,有部分是因為智能技術(shù)自身存在的缺陷造成的。智能技術(shù)的不成熟和原生性問題等的存在,會造成其在社會治理應(yīng)用時產(chǎn)生技術(shù)倫理問題。同時,人們對智能技術(shù)的誤用、濫用,也是產(chǎn)生倫理問題的重要原因。

(一)智能技術(shù)自身缺陷所致

智能技術(shù)自身缺陷導(dǎo)致其在應(yīng)用于社會治理時,無法確保治理決策、治理行為等社會治理的公平正義,造成社會治理智能化過程中出現(xiàn)倫理問題。這些倫理問題產(chǎn)生的原因集中體現(xiàn)在兩個方面。

首先,智能技術(shù)自身不成熟所致。從智能技術(shù)的發(fā)展看,盡管摩爾定律[13]仍然在起作用,以算力、算法、大數(shù)據(jù)等為主要內(nèi)容的智能技術(shù)在21世紀(jì)迎來了井噴式的發(fā)展,人們把其稱之為“第四次工業(yè)革命”。然而,一個不可否認的事實是,智能技術(shù)仍然沒有達到“隨心所欲”的程度。以大規(guī)模語言模型Chatgpt為例,這款被稱之為當(dāng)前最先進的智能技術(shù)工具,能根據(jù)人們輸入的信息輸出較為符合人們需要的結(jié)果,但它輸出的結(jié)果常被用戶詬病為“一本正經(jīng)地胡說八道”。就連Open AI公司也提醒Chatgpt的用戶,要注意其產(chǎn)品輸出內(nèi)容的真實性和安全性。此外,社會治理領(lǐng)域常用的情感計算、腦機接口、機器學(xué)習(xí)等智能技術(shù)尚處在較為低級的階段。當(dāng)這樣的智能技術(shù)應(yīng)用于社會治理時,勢必會產(chǎn)生倫理問題。如,智能技術(shù)的情感計算還不能夠真正理解人類的情感,只能根據(jù)人們的表情、神態(tài)變化予以相應(yīng)的反應(yīng),其應(yīng)用于社會治理時,如果無法對治理對象的情感需求作出正向的情感反應(yīng),就會產(chǎn)生情感缺失的倫理問題。

其次,智能技術(shù)存在原生性問題所致。馬科庫塞認為,“不管科學(xué)現(xiàn)在如何確定自然客觀性及其各部分間的相互關(guān)系,它都不能按照‘終極因來科學(xué)地設(shè)想它。”[14]而智能技術(shù)應(yīng)用于社會治理之所以產(chǎn)生倫理問題,在很大程度上是因為智能技術(shù)用“終極因”來科學(xué)地設(shè)想復(fù)雜社會問題的解決流程、解決方案。在科學(xué)研究上,把復(fù)雜問題簡單化有助于科學(xué)問題的解決和人類科學(xué)事業(yè)的進步。但是,在社會治理領(lǐng)域,把復(fù)雜問題用“終極因”來簡單地解決,則有可能會漏掉解決問題的關(guān)鍵要素,導(dǎo)致不一樣的治理結(jié)果,因而會產(chǎn)生倫理問題。這實際上就是智能技術(shù)原生性問題所導(dǎo)致的倫理問題。從本質(zhì)上看,智能技術(shù)仍然是一種基于程序邏輯、機械邏輯的技術(shù)工具。也就是說,智能技術(shù)對數(shù)據(jù)信息的處理,只能根據(jù)“輸入”的信息得出一定的結(jié)論,得出結(jié)論的過程是基于程序員已經(jīng)給定的程序。即便是目前有的智能體能夠通過機器學(xué)習(xí)、深度學(xué)習(xí),形成一定的自主觀點,然而智能體的學(xué)習(xí)過程,仍然是遵循程序員已經(jīng)給定的程序。因此,智能技術(shù)應(yīng)用于社會治理,把復(fù)雜的社會治理問題簡單化為一定的程序、一定的流程,這必然會造成一系列倫理問題。

(二)智能技術(shù)濫用誤用所致

作為一種快速發(fā)展且功能強大的技術(shù)工具,智能技術(shù)在推動社會治理的智能化發(fā)展進程中具有重要的現(xiàn)實意義。但是,在智能技術(shù)推動社會治理智能化的過程中,因智能技術(shù)的濫用和誤用,產(chǎn)生了倫理問題。習(xí)近平指出,“治國有常,利民為本?!盵1]46這里是說,無論是國家治理,還是社會治理,最根本的目標(biāo)是為了“利民”,即讓人民群眾過上幸福生活。因此,社會治理智能化發(fā)展,根本的目標(biāo)是通過智能技術(shù)賦能,讓人民群眾享受到智能技術(shù)帶來的高品質(zhì)公共產(chǎn)品供給,使其工作更加便利、生活更加舒心。然而,在現(xiàn)實中,智能技術(shù)在社會治理領(lǐng)域濫用、誤用的現(xiàn)象比較突出,不僅沒有起到賦能社會治理的功能,反而會起到相反作用,解構(gòu)人民群眾對政府的信任,造成社會信任危機和倫理風(fēng)險。智能技術(shù)在社會治理中的濫用誤用,主要有三種情況。

第一種是智能技術(shù)的過多使用。在《中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標(biāo)綱要》《國務(wù)院關(guān)于加強數(shù)字政府建設(shè)的指導(dǎo)意見》等政府文件中,均把智能技術(shù)應(yīng)用作為推動社會治理智能化發(fā)展的一項重要指標(biāo)。各地的社會治理智能化實踐表明,智能技術(shù)的應(yīng)用確實推動了社會治理智能化的快速發(fā)展。然而,因在社會治理中把智能技術(shù)運用作為一項重要考核指標(biāo),催生出各地政府不顧當(dāng)?shù)貙嶋H情況,過度上馬各種智能政務(wù)數(shù)據(jù)庫、智能政務(wù)平臺的情況。如,在2022年第四季度國務(wù)院政務(wù)新媒體檢查中就發(fā)現(xiàn),部分省份的政務(wù)新媒體長期不更新、沒有互動交流等[15]。這種過多使用智能技術(shù),最終導(dǎo)致在實踐中把許多智能政務(wù)平臺當(dāng)作擺設(shè),不僅會割裂政府與人民群眾之間的密切關(guān)系,還會產(chǎn)生技術(shù)形式主義,影響社會治理的公平正義。

第二種是智能技術(shù)的過度使用。智能技術(shù)在社會治理應(yīng)用中產(chǎn)生倫理問題,還有一個原因是智能技術(shù)的過度使用。城市社區(qū)里到處都是攝像頭,老百姓的日常生活長期處在被監(jiān)控狀態(tài)。智能天眼的使用,在讓不法分子無處可逃的同時,也讓普通老百姓暴露在視頻當(dāng)中,而且隨著智能家居、智能機器人、智能汽車的使用,這種情況會進一步加劇。人們不僅在住所之外會受到智能技術(shù)的監(jiān)控,在原來的私密空間也會被智能家居、智能機器人、智能汽車收集數(shù)據(jù)信息,為別人所掌握。智能技術(shù)帶來安全、便利的同時,因過度使用,也會造成人們信息的泄露、尊嚴的喪失等倫理問題,還會造成人內(nèi)心的恐懼[16],進而產(chǎn)生心理問題,影響社會穩(wěn)定。

第三種是智能技術(shù)的過界使用。智能技術(shù)開發(fā)遵循技術(shù)理性、利益至上的邏輯,即智能技術(shù)要在使用過程中為擁有者創(chuàng)造出最大的財富,只有這樣,智能技術(shù)才能不斷創(chuàng)新,開發(fā)出新的技術(shù)和應(yīng)用。但是,在社會治理領(lǐng)域,公共產(chǎn)品的供給、公共決策的執(zhí)行等是治理主體為公眾提供服務(wù)的過程,是追求公共利益、公共價值的。智能技術(shù)與社會治理之間在價值追求上的內(nèi)在張力,決定了智能技術(shù)在社會治理領(lǐng)域的使用是有邊界的,不能過界使用,否則就會消融社會治理的公共價值,造成倫理問題。在實踐中,哪些智能技術(shù)可以應(yīng)用于社會治理,哪些不能使用,并沒有明確的界限,這就造成智能技術(shù)可以沒有門檻地隨意進入社會治理領(lǐng)域,用智能技術(shù)的技術(shù)理性、利益至上等邏輯“規(guī)訓(xùn)”社會治理過程,使社會治理成為追求利益最大化的治理行為,最后造成社會治理過程中的不透明、不公平、不公正等倫理問題。

三、社會治理智能化倫理問題的技術(shù)規(guī)制

因為智能技術(shù)應(yīng)用于社會治理所產(chǎn)生的倫理問題,需要通過規(guī)范智能技術(shù)發(fā)展的過程予以解決,所以在推動社會治理智能化發(fā)展過程中,可采用內(nèi)外結(jié)合的方式,對智能技術(shù)進行規(guī)制,引導(dǎo)智能技術(shù)發(fā)展“向善”。

(一)引入多元主體參與智能技術(shù)開發(fā),確保智能技術(shù)公平、透明和負責(zé)任

開發(fā)“公平、透明和負責(zé)任的人工智能”[17]是解決社會治理智能化進程中,因智能技術(shù)的應(yīng)用產(chǎn)生倫理問題的最直接的途徑。在具體的操作層面,可以從四個方面著手。

一是引入多元主體參與智能技術(shù)開發(fā)。智能技術(shù)與社會治理不適配,出現(xiàn)倫理問題,主要產(chǎn)生于技術(shù)開發(fā)環(huán)節(jié)。即智能技術(shù)在開發(fā)之初,沒有社會力量的介入,也沒有相應(yīng)的價值導(dǎo)向,只是單純從技術(shù)應(yīng)用、技術(shù)效率最大化等邏輯出發(fā)開發(fā)新技術(shù)。這樣開發(fā)出來的智能技術(shù)固然能夠提升社會治理的效率,卻不能保障社會治理朝著公平正義的方向發(fā)展。因此,要在智能技術(shù)開發(fā)之初就引入社會力量,共同參與技術(shù)開發(fā)。具體來說,就是構(gòu)建包括工程師、社會工作者、公眾、學(xué)者、政府等在內(nèi)的多元主體共同參與的智能技術(shù)開發(fā)協(xié)同機制,推動智能技術(shù)開發(fā)“向善”。

二是將公平正義、社會規(guī)范等倫理原則嵌入智能技術(shù)。智能技術(shù)在社會治理時出現(xiàn)錯誤學(xué)習(xí)、算法歧視等問題,原因在于人工智能在機器學(xué)習(xí)、深度學(xué)習(xí)等過程中,學(xué)習(xí)到人類社會的偏見、歧視等錯誤的觀念,且沒有正確的倫理原則、價值原則予以規(guī)制。因此,在智能技術(shù)的開發(fā)過程中,要把公平正義、價值原則等社會倫理規(guī)范嵌入其中,以規(guī)避在使用過程中可能出現(xiàn)的倫理問題。如,Chatgpt在開發(fā)過程中,把相關(guān)的社會倫理、社會規(guī)范納入考量范圍,在一定程度上規(guī)避了許多可能出現(xiàn)的偏見、歧視等倫理問題。

三是用技術(shù)革新推動智能技術(shù)追求公平正義。智能技術(shù)在社會治理應(yīng)用時出現(xiàn)倫理問題,一個很重要的原因在于技術(shù)本身還不夠完善,存在缺陷。如,智能技術(shù)助力社會治理決策出現(xiàn)不公平的倫理問題,原因可能是智能技術(shù)所使用的數(shù)據(jù)統(tǒng)計模型出了問題,沒有辦法對復(fù)雜多元、多價值背景的數(shù)據(jù)信息進行有效的處理。因此,要進行技術(shù)革新,開發(fā)出能有效識別不同文化背景、不同價值背景的數(shù)據(jù)信息的智能技術(shù),特別是要開發(fā)出能夠真正識別人類情感的智能技術(shù)。這樣,才會在社會治理智能化進程中,真正追求社會治理的公平正義。

四是開發(fā)社會治理專用的智能技術(shù)以確保其追求公平正義。為規(guī)避智能技術(shù)的技術(shù)理性、利益最大化邏輯對社會治理所追求的公平、透明、負責(zé)任等倫理原則的消融,可以嘗試根據(jù)社會治理的具體需要,開發(fā)真正適合社會治理應(yīng)用的智能技術(shù)工具,用于智能政務(wù)數(shù)據(jù)中心、智能政務(wù)平臺等的建設(shè),從源頭上解決社會治理智能化出現(xiàn)的倫理問題。

(二)構(gòu)建多維體系規(guī)范智能技術(shù)的應(yīng)用,確保智能技術(shù)追求公平正義和善

要想發(fā)揮智能技術(shù)的最大功能推動社會治理智能化的發(fā)展,確保社會治理智能化追求公平正義,需要對智能技術(shù)進行“規(guī)訓(xùn)”,而不是讓智能技術(shù)“規(guī)訓(xùn)”社會治理。具體來說,可以從三個層面著手。

一是從法律層面“規(guī)訓(xùn)”智能技術(shù),使其在社會治理應(yīng)用中追求公平正義。首先,要針對智能技術(shù)應(yīng)用中已經(jīng)出現(xiàn)的問題,有針對性地對立法進行規(guī)范。如,近年來,國家針對智能技術(shù)應(yīng)用時對個人利益的損害、對社會規(guī)范的沖擊,制定了《中華人民共和國個人信息保護法》《網(wǎng)絡(luò)安全法》等一系列法律法規(guī),規(guī)范智能技術(shù)在社會治理領(lǐng)域的應(yīng)用。其次,要有前瞻性的立法對智能技術(shù)的應(yīng)用進行規(guī)范。近幾年,智能技術(shù)發(fā)展速度加快,不斷有新的智能技術(shù)被開發(fā)和應(yīng)用,且很快被引入社會治理領(lǐng)域進行使用。這就要求國家立法時,要有前瞻性,針對可能出現(xiàn)的新技術(shù),或者智能技術(shù)在社會治理中使用可能出現(xiàn)的問題,進行前瞻性立法予以規(guī)制。

二是從行業(yè)領(lǐng)域“規(guī)范”智能技術(shù),使其在社會治理應(yīng)用中追求公平正義。從智能技術(shù)視角分析社會治理智能化的倫理問題發(fā)現(xiàn),部分倫理問題是智能技術(shù)使用不規(guī)范所造成的,因此要從行業(yè)領(lǐng)域?qū)χ悄芗夹g(shù)的使用進行規(guī)范。首先,要設(shè)置行業(yè)標(biāo)準(zhǔn)。通過設(shè)置行業(yè)標(biāo)準(zhǔn),規(guī)范智能技術(shù)的應(yīng)用邊界,防止智能技術(shù)在社會治理中過多、過度、過界使用,從而避免社會治理智能化倫理問題的生成。其次要建立行業(yè)規(guī)范。如,2021年國家新一代人工智能治理委員會發(fā)布了《新一代人工智能倫理規(guī)范》。在此基礎(chǔ)上,應(yīng)該更進一步設(shè)置更多的行業(yè)倫理規(guī)范,使智能技術(shù)在社會治理中的應(yīng)用,真正起到增進群眾福祉、追求公平正義的作用。

三是從具體實踐“管理”智能技術(shù),使其在社會治理應(yīng)用中追求公平正義。在具體的社會治理實踐中,要通過內(nèi)外結(jié)合的方式,加強對智能技術(shù)應(yīng)用于社會治理過程的管理。從內(nèi)部看,政府部門、公共服務(wù)機構(gòu)要定期審查智能技術(shù)在推進社會治理進程中出現(xiàn)的倫理問題,及時予以糾正和解決。從外部看,要引入社會組織、企業(yè)、公眾參與智能技術(shù)應(yīng)用于社會治理的過程監(jiān)督,建立反饋監(jiān)督機制,讓受眾對社會治理智能化的效能進行評價,推動智能技術(shù)在社會治理中應(yīng)用的“向善”。

(三)超越既有倫理歸因思維模式,構(gòu)建與社會治理智能化相適應(yīng)的倫理秩序

恩格斯指出,“每一歷史時代的經(jīng)濟生產(chǎn)以及必然由此產(chǎn)生的社會結(jié)構(gòu),是該時代政治的和精神的歷史的基礎(chǔ)”[18]。智能技術(shù)的快速發(fā)展和應(yīng)用,已經(jīng)對原有的社會倫理、社會秩序、社會規(guī)范產(chǎn)生了強有力的沖擊,在經(jīng)濟社會進入智能化時代的當(dāng)下,解決社會治理智能化產(chǎn)生的倫理問題,還應(yīng)該從社會倫理的自身著手,構(gòu)建符合智能技術(shù)應(yīng)用的新的倫理秩序。

一是嘗試打破傳統(tǒng)因果關(guān)系的倫理思維模式。傳統(tǒng)倫理秩序強調(diào)因果關(guān)系,有因才有果。根據(jù)傳統(tǒng)倫理因果思維模式,社會治理智能化出現(xiàn)倫理問題,是因為智能技術(shù)存在缺陷或者原生性問題,所以會造成其在使用時產(chǎn)生倫理問題。這種思維模式固然是人類觀察認識世界的一種思維方式,但并不是任何時候用這一思維模式得出的結(jié)論都是正確的。事實上,智能技術(shù)正是在相關(guān)關(guān)系思維模式下發(fā)展起來的。如,對治理對象需求的數(shù)據(jù)搜集分析,就是把不同治理對象的不同需求進行比對,找出其中最大的相關(guān)性,進而確定治理對象的需求。因而,在社會治理實踐中,可以嘗試綜合運用因果關(guān)系思維模式、相關(guān)關(guān)系思維模式進行治理決策,進而嘗試構(gòu)建基于智能技術(shù)發(fā)展現(xiàn)實的新型社會倫理規(guī)范。

二是嘗試構(gòu)建“集體人格”破解社會治理智能化的倫理難題。在智能技術(shù)推動社會治理智能化發(fā)展的進程中,之所以出現(xiàn)倫理問題,責(zé)任歸屬不清是一個很重要的原因。一旦發(fā)生倫理問題,治理主體把責(zé)任推給智能政務(wù)平臺,治理對象認為是治理主體的責(zé)任,智能政務(wù)平臺會把責(zé)任推到技術(shù)供應(yīng)的公司,公司會把責(zé)任推給開發(fā)平臺的工程師。顯然,這樣是不能有效推動倫理問題解決的。因此,在具體的社會治理智能化發(fā)展實踐中,可以嘗試構(gòu)建“治理主體+治理對象+人工智能公司+工程師”的新型的集體人格,加強參與社會治理智能化各主體之間的協(xié)同,推動社會治理智能化追求公平正義和善。

四、結(jié)語

社會治理智能化倫理問題的產(chǎn)生具有多重因素,既涉及智能技術(shù)方面的因素,也涉及社會經(jīng)濟發(fā)展?fàn)顩r和治理對象群體等因素,更關(guān)涉到國家的社會治理目標(biāo)、相關(guān)法律制度規(guī)范以及治理實操者運用智能技術(shù)的水平等。社會治理智能化的展開,智能技術(shù)的發(fā)展和應(yīng)用無疑是其中最直接的推動力量。因此,從智能技術(shù)應(yīng)用于社會治理的視角,考察社會治理智能化倫理問題的發(fā)生、歸因、規(guī)制,具有重要的學(xué)術(shù)價值和現(xiàn)實意義。值得注意的是,目前社會治理智能化發(fā)展尚處在早期階段,人們對社會治理智能化的倫理問題認識還不夠深入,這一方面意味著人們可能會忽略社會治理智能化的倫理問題;另一方面則意味著可以盡早采取相應(yīng)的措施,把問題處理在萌芽階段。因此,全面系統(tǒng)分析社會治理智能化產(chǎn)生的倫理問題,將成為學(xué)術(shù)界義不容辭的責(zé)任,只有這樣,才能把社會治理智能化的倫理問題集中呈現(xiàn)出來,為進一步地解決存在的問題提供智力支持。

參考文獻:

[1]習(xí)近平.高舉中國特色社會主義偉大旗幟 為全面建設(shè)社會主義現(xiàn)代化國家而奮斗——在中國共產(chǎn)黨第二十次全國代表大會上的報告[M].北京:人民出版社,2022.

[2]馬克思,恩格斯.馬克思恩格斯選集:第一卷[M].北京:人民出版社,2012:776.

[3]王海建.算法治理的倫理風(fēng)險及其紓解[J].深圳大學(xué)學(xué)報(人文社會科學(xué)版),2023,40(1):152-160.

[4]Newman D T,F(xiàn)ast N J,Harmon D J. When eliminating bias isn't fair: Algorithmic reductionism and procedural justice in human resource decisions [J]. Organizational Behavior and Human Decision Processes, 2020(160):149-167.

[5]中國互聯(lián)網(wǎng)絡(luò)信息中心.中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告[EB/OL].(2023-03-03)[2023-04-06]. https://www.cnnic.net.cn/n4/2023/0303/c88-10757.html.

[6]Minsky M. The Society of Mind[M].New York:Simon and Schuster,1986:5.

[7]Koblet O, Purves R S. From online texts to landscape character assessment: collecting and analyzing first-person landscape perception computationally[J]. Landscape and Urban Planning,2020,197(5):1037.

[8]Musk E. An integrated brain-machine interface platform with thousands of channels [J]. J Med Int Res, 2019(21):161.

[9]郝宇青,王海建.人工智能進入基層社會治理的限度[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2021,42(5):18-25.

[10]Packin N G. Regtech, Compliance and Technology Judgment Rule[M].New York:Social Science Electronic Publishing,2017:91.

[11]中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標(biāo)綱要[EB/OL].(2021-03-13)[2023-04-07].www.gov.cn/xinwen/content/2021-03/13/content_5592681.htm.

[12]梅拉妮·米歇爾.AI3.0[M].成都:四川科學(xué)技術(shù)出版社,2021:62.

[13]盧西亞諾·弗洛里迪.第四次革命:人工智能如何重塑人類現(xiàn)實[M].杭州:浙江人民出版社,2016:8.

[14]赫伯特·馬爾庫塞.單向度的人:發(fā)達工業(yè)社會意識形態(tài)研究[M].上海:上海譯文出版社,2008:117.

[15]統(tǒng)計局關(guān)于2022年第四季度政府網(wǎng)站與政務(wù)新媒體檢查情況及全年總體情況的通報[EB/OL].(2023-02-04)[2023-04-06].www.gov.cn/xinwen/2022-02/03/content_5739835.htm.

[16]胡鍵.大數(shù)據(jù)技術(shù)條件下的城市治理:數(shù)據(jù)規(guī)訓(xùn)及其反思[J].華東師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2019,51(5):53-59+237.

[17]楊立昆.科學(xué)之路:人、機器與未來[M].北京:中信出版社,2021:308.

[18]馬克思,恩格斯.馬克思恩格斯全集:第二十八卷[M].北京:人民出版社,2018:8.

The Technical Dimension of Ethical Issues in Intelligent Social Governance

Wang Haijian

(East China Normal University,Shanghai? 200241,China)

Abstract:The intelligence of social governance is an important part of the modernization of the national governance system and governance capacity. The development of intelligent social governance has promoted the modernization of social governance, but at the same time, it has also derived many ethical issues that affect the effectiveness of social governance. From the perspective of the application of intelligent technology, it is found that the reductionism, affective computing, false learning, and opacity of intelligent technology have generated such ethical problems as unfairness, injustice, opacity, and lack of emotion in the process of applying them to social governance. The emergence of these ethical issues is partly caused by the immaturity of intelligent technology itself, and partly by the abuse and misuse of intelligent technology. In practice, intelligent technologies that are more in line with the needs of social governance can be developed through a combination of internal and external means, and regulations for the application of intelligent technologies in social governance can be strengthened. An ethical order that is compatible with the intelligence of social governance can be constructed to promote the intelligence of social governance and provide high-quality public service supply to the public, truly pursuing fairness and justice in social governance.

Key words:social governance intelligence;fairness and justice;technology generation;responsible

責(zé)任編輯:劉有祥 李祖杰

猜你喜歡
公平正義
統(tǒng)一賠償標(biāo)準(zhǔn)促進公平正義
審判執(zhí)行不停擺 公平正義不止步
推進“類案同判”構(gòu)筑司法公平正義
選任好人民陪審員 讓群眾感受更多公平正義
堅持公平正義 增強裁判效果
讓公平正義在“最后一公里”提速
司改正向著維護社會公平正義方向前行
論自由人聯(lián)合體與公平正義
滄縣人民法院:堅持司法為民保障公平正義
關(guān)愛弱勢群體 維護公平正義