張 鋌
近年,人工智能技術(shù)發(fā)展迅猛,掀起和引領(lǐng)著第四次工業(yè)革命,正深刻改變社會(huì)、改變世界,人工智能時(shí)代已經(jīng)提前到來。新冠肺炎疫情期間,從病毒分析、疫苗開發(fā)、藥物研發(fā)到診斷輔助、智能測溫、AI消毒,人們已經(jīng)能感受到人工智能技術(shù)給社會(huì)生產(chǎn)和生活方式帶來的廣泛影響。然而,與此同時(shí),人工智能技術(shù)的復(fù)雜性和不確定性也帶來了倫理風(fēng)險(xiǎn)。作為一種具有顛覆性影響的技術(shù),人工智能的倫理風(fēng)險(xiǎn)開始顯現(xiàn)。面對人工智能的倫理風(fēng)險(xiǎn)挑戰(zhàn),不同的學(xué)者基于不同的視角進(jìn)行了分析和探討,推動(dòng)了人工智能倫理風(fēng)險(xiǎn)治理的研究,但仍有一些值得商榷之處。一是對人工智能倫理風(fēng)險(xiǎn)的界定不夠清晰,有的研究將人工智能的“一般風(fēng)險(xiǎn)”視為“倫理風(fēng)險(xiǎn)”;二是對人工智能倫理風(fēng)險(xiǎn)形成機(jī)理的揭示有待深化;三是對人工智能倫理風(fēng)險(xiǎn)治理對策的系統(tǒng)性把握有待加強(qiáng)。為此,本文聚焦人工智能的倫理風(fēng)險(xiǎn),擬在描繪人工智能倫理風(fēng)險(xiǎn)鏡像的基礎(chǔ)上,分析人工智能倫理風(fēng)險(xiǎn)的生成邏輯,探討人工智能倫理風(fēng)險(xiǎn)的協(xié)同治理之道。
人工智能技術(shù)的興起不僅是技術(shù)和產(chǎn)業(yè)領(lǐng)域的重大革命,更引發(fā)了社會(huì)治理等眾多領(lǐng)域的深刻變革,帶來了不可忽視的倫理風(fēng)險(xiǎn)。了解人工智能技術(shù)的倫理風(fēng)險(xiǎn)是規(guī)范人工智能的研發(fā)和應(yīng)用、有效治理其倫理風(fēng)險(xiǎn)的前提,亦是人工智能技術(shù)可持續(xù)發(fā)展的基礎(chǔ)。
1.人機(jī)邊界模糊:倫理關(guān)系失調(diào)風(fēng)險(xiǎn)
人工智能技術(shù)的快速發(fā)展和不斷突破,有朝一日,有可能研發(fā)出具有自我意識的智能產(chǎn)品,人機(jī)邊界將變得模糊。那么屆時(shí),人與有自我意識的智能產(chǎn)品之間是什么關(guān)系?此種智能產(chǎn)品是否應(yīng)具有道德主體地位?由此,引發(fā)了“心智邊界之爭”。面對該問題,倫理學(xué)者的解答不盡相同。人類中心主義者認(rèn)為,道德主體資格是人類獨(dú)有的,人的道德地位是基于人類的精神特點(diǎn)存在的,智能機(jī)器是人創(chuàng)造的高級工具和設(shè)備而已,“它們的能力不過是在例示過程中隨著計(jì)算機(jī)的運(yùn)行而產(chǎn)生下一步的形式體系”。持此類觀點(diǎn)的學(xué)者不贊成智能機(jī)器具有道德主體資格。也有一些學(xué)者要求重新定位人工智能產(chǎn)品的道德地位,認(rèn)為人類之外的生命體具有道德主體資格的可能性。如果賦予智能機(jī)器人道德主體資格,智能機(jī)器人參與到人類的政治、經(jīng)濟(jì)和社會(huì)活動(dòng)中,那么,該如何界定人與智能機(jī)器人的關(guān)系呢?智能機(jī)器人具有道德主體資格的同時(shí),能承擔(dān)相應(yīng)的道德責(zé)任嗎?總之,人工智能時(shí)代如何界定人和智能機(jī)器的關(guān)系是一大難題。人工智能的發(fā)展將挑戰(zhàn)人類文明已經(jīng)形成的倫理關(guān)系,引發(fā)新的道德沖突和倫理困境。
2.責(zé)任追究困境:倫理規(guī)范失效風(fēng)險(xiǎn)
人工智能技術(shù)的算法生產(chǎn)和運(yùn)作過程的“黑箱化”不僅對有效監(jiān)管造成困難,而且因?yàn)槠湓趯?shí)際應(yīng)用中往往居于“幕后”,其運(yùn)行過程的不透明和治理規(guī)則的不易解釋,造成責(zé)任追究的倫理難題。英國《衛(wèi)報(bào)》專欄作家Ben Goldacre將算法比喻為一系列的“黑盒子”。面對這樣一個(gè)知之甚少的數(shù)字世界,“人類并不清楚什么是安全的、什么是有風(fēng)險(xiǎn)的”。需要指出的是,人工智能技術(shù)環(huán)境中治理規(guī)則的難以解釋并非完全因?yàn)楣净騻€(gè)人的隱瞞,其深刻原因在于算法和機(jī)器學(xué)習(xí)的復(fù)雜性。進(jìn)入人工智能時(shí)代,人們發(fā)現(xiàn)傳統(tǒng)的技術(shù)責(zé)任倫理和制度規(guī)范已無法有效應(yīng)對智能技術(shù)應(yīng)用中的風(fēng)險(xiǎn)責(zé)任界定和追究。基于傳統(tǒng)的技術(shù)責(zé)任倫理和制度規(guī)范,設(shè)計(jì)者應(yīng)承擔(dān)技術(shù)風(fēng)險(xiǎn)的主要責(zé)任。然而,人工智能時(shí)代如果將智能機(jī)器導(dǎo)致的侵權(quán)行為完全歸責(zé)于設(shè)計(jì)者,則并不具有說服力。倘若歸責(zé)人工智能本身,又該如何問責(zé)一個(gè)機(jī)器呢?由此,長久以來基于行為和后果之因果關(guān)系的技術(shù)責(zé)任倫理和法律制度,遇到嚴(yán)重挑戰(zhàn)。簡言之,責(zé)任追究困境問題是人工智能技術(shù)的又一倫理風(fēng)險(xiǎn)。
3.價(jià)值鴻溝擴(kuò)大:倫理價(jià)值失衡風(fēng)險(xiǎn)
人工智能時(shí)代權(quán)力的性質(zhì)及其實(shí)現(xiàn)形式發(fā)生了變化。人工智能技術(shù)嵌入社會(huì)系統(tǒng)中,一方面,人工智能技術(shù)的算法催生出隱形權(quán)力。算法黑箱為權(quán)力的隱性運(yùn)行提供了條件。算法作為以計(jì)算機(jī)代碼表達(dá)的意見,算法的設(shè)計(jì)、目的、標(biāo)準(zhǔn)必然體現(xiàn)設(shè)計(jì)者和開發(fā)者的主觀意志和價(jià)值取向。算法的設(shè)計(jì)者和開發(fā)者很可能將其主觀偏見帶入算法系統(tǒng),從而形成算法偏見、算法歧視,導(dǎo)致種族、性別、年齡和階層區(qū)域歧視,使得社會(huì)運(yùn)行過程中缺失公共價(jià)值,技術(shù)的工具理性與價(jià)值理性失衡。例如,弗吉尼亞·尤班克斯(Virginia Eubanks)指出,大數(shù)據(jù)與算法應(yīng)用于窮人和工人階層,“強(qiáng)化和延續(xù)了近代的濟(jì)貧措施中的道德主義傾向和懲罰性后果”。另一方面,人工智能技術(shù)通過重構(gòu)產(chǎn)業(yè)結(jié)構(gòu)和社會(huì)分工模式,可能引發(fā)結(jié)構(gòu)性失業(yè),危及社會(huì)公平和正義。智能化、高效化的人工智能機(jī)器不僅會(huì)替代人做“臟累差”的工作,甚至可能取代一些職業(yè)。雖然人工智能的發(fā)展會(huì)創(chuàng)造新的就業(yè)崗位,但并非所有人都能跨越技術(shù)鴻溝,適應(yīng)人工智能時(shí)代的工作變革。
4.技術(shù)過度依賴:倫理行為異化風(fēng)險(xiǎn)
人工智能技術(shù)的應(yīng)用給人類生活帶來便利的同時(shí),也可能造成對智能技術(shù)的過度依賴,導(dǎo)致倫理行為異化。一方面,智能機(jī)器的精準(zhǔn)化、個(gè)性化信息推送可能削弱人的甄別能力,強(qiáng)化人的行為偏見,使人盲從某些錯(cuò)誤觀點(diǎn)。在社交媒體中,應(yīng)用智能機(jī)器可分析人的觀點(diǎn)、興趣愛好等,然后根據(jù)這些數(shù)據(jù)分析實(shí)現(xiàn)個(gè)性推薦,造成人們的行為偏見和甄別能力削弱。另一方面,人工智能在社會(huì)系統(tǒng)中的應(yīng)用可能造成人對技術(shù)的嚴(yán)重依賴,甚至社會(huì)治理的角色替代。對技術(shù)治理的迷信和過度依賴會(huì)造成社會(huì)治理創(chuàng)新不足、缺乏實(shí)質(zhì)增長的“內(nèi)卷化”現(xiàn)象。例如,有關(guān)部門對信息技術(shù)資源不斷投入的同時(shí),條塊結(jié)構(gòu)越來越復(fù)雜,對技術(shù)工具的依賴也越來越大。嚴(yán)重依賴技術(shù)工具的社會(huì)治理模式勢必會(huì)逐漸消解治理主體的主動(dòng)意識和創(chuàng)新精神,造成智能技術(shù)的算法“決策”代替治理主體的自主決策。在此境遇下,人不再是治理主體,反而可能成為算法權(quán)力中被計(jì)算的客體。當(dāng)前雖然人工智能技術(shù)總體上處于“弱人工智能”階段,智能機(jī)器尚不具備社會(huì)治理主體資格,但是,隨著“強(qiáng)人工智能”和“超人工智能”的開發(fā)和應(yīng)用,社會(huì)治理主體有可能被人工智能取代,這并非危言聳聽。
技術(shù)是一把“雙刃劍”。作為一種新興技術(shù),人工智能技術(shù)在增進(jìn)社會(huì)福祉和社會(huì)進(jìn)步的同時(shí),其潛藏的倫理風(fēng)險(xiǎn)也逐漸顯現(xiàn)。人工智能倫理風(fēng)險(xiǎn)的生成遵循技術(shù)演變的規(guī)律,有其內(nèi)在邏輯。揭示人工智能倫理風(fēng)險(xiǎn)的生成邏輯,可為有效治理其風(fēng)險(xiǎn)提供科學(xué)依據(jù)。
1.內(nèi)源性邏輯:算法黑箱與智能技術(shù)的不確定性
技術(shù)本質(zhì)是一種解蔽方式,然而,解蔽的過程暗藏風(fēng)險(xiǎn)。人工智能技術(shù)的算法背后隱藏了“技術(shù)黑箱”,人們在應(yīng)用人工智能技術(shù)的過程中有可能被技術(shù)“綁架”。算法是人工智能技術(shù)的基礎(chǔ),開發(fā)者有可能將其自身所持有的價(jià)值偏見植入算法中,甚至存在非法篡改算法參數(shù)的風(fēng)險(xiǎn)。算法的本質(zhì)是一系列指令,這些指令很難轉(zhuǎn)化為通俗易懂的語言。一方面,人們很難理解、預(yù)測和評估人工智能技術(shù)背后的決策邏輯。近些年,人工智能與大數(shù)據(jù)、物聯(lián)網(wǎng)、云計(jì)算和腦科學(xué)等技術(shù)深度結(jié)合后,其背后的算法邏輯更加復(fù)雜,導(dǎo)致技術(shù)系統(tǒng)的潛在風(fēng)險(xiǎn)擴(kuò)大。另一方面,人工智能技術(shù)的道德算法并非完全獨(dú)立運(yùn)行。人工智能的算法運(yùn)作具有高度的復(fù)雜性,其依存的道德算法需與其他系統(tǒng)結(jié)合完成深度學(xué)習(xí),才能發(fā)揮應(yīng)有的作用。換言之,人工智能技術(shù)的道德算法不是一個(gè)獨(dú)立的運(yùn)作體系,其依賴于代碼和數(shù)據(jù)樣本的機(jī)器學(xué)習(xí)具有較大的不確定性。多次重復(fù)使用的樣本數(shù)據(jù)容易誤導(dǎo)智能機(jī)器,導(dǎo)致智能機(jī)器做出錯(cuò)誤的道德決策,人工智能的倫理風(fēng)險(xiǎn)由此產(chǎn)生。
2.功能性邏輯:技術(shù)賦權(quán)與技術(shù)約束的雙重效應(yīng)
技術(shù)并不是價(jià)值無涉的,人工智能技術(shù)在賦能社會(huì)和公民的同時(shí),也呈現(xiàn)出技術(shù)約束性的“另一面”。當(dāng)人工智能技術(shù)與公共權(quán)力結(jié)合時(shí),如果公共權(quán)力使用不合理,人工智能技術(shù)的約束效應(yīng)就會(huì)被放大。例如,維護(hù)安全穩(wěn)定是社會(huì)治理的重要目標(biāo)之一,掌握公共權(quán)力的政府部門在應(yīng)用人工智能技術(shù)方面具有顯著優(yōu)勢,然而,個(gè)別政府部門會(huì)以公共安全為由過度收集和使用公民信息,不合理使用人工智能技術(shù)工具,對公民隱私權(quán)利造成侵犯。作為一種治理技術(shù),人們在應(yīng)用人工智能技術(shù)的過程中應(yīng)重視技術(shù)價(jià)值理性的發(fā)揮。如果過多關(guān)注人工智能技術(shù)的工具理性而忽視其價(jià)值理性和人文關(guān)懷,那么,人工智能技術(shù)的“異化”和倫理風(fēng)險(xiǎn)的生成就不可避免。進(jìn)而言之,人工智能的發(fā)展不應(yīng)脫離倫理道德和制度規(guī)范的約束。當(dāng)前,傳統(tǒng)的技術(shù)倫理道德和制度難以適應(yīng)新興技術(shù)的發(fā)展。面對人工智能技術(shù)的迅猛發(fā)展態(tài)勢,必須建立和完善新的技術(shù)倫理道德和制度,以規(guī)約人工智能的倫理風(fēng)險(xiǎn)??傊斯ぶ悄艿陌l(fā)展和應(yīng)用需堅(jiān)持以人為本,“重視對人的尊嚴(yán)、自由和社會(huì)民主、平等、公正等重要價(jià)值的維護(hù)”,保持技術(shù)工具理性和價(jià)值理性的平衡。
3.現(xiàn)實(shí)性邏輯:風(fēng)險(xiǎn)研判與防控能力的相對不足
人工智能的倫理風(fēng)險(xiǎn)是主觀認(rèn)知性和客觀實(shí)體性的結(jié)合,前者主要指人類對其倫理風(fēng)險(xiǎn)的認(rèn)知心理、感知判斷等主觀元素,后者主要指人工智能技術(shù)自身存在的復(fù)雜性、深層性和不確定性等客觀現(xiàn)實(shí)。然而,囿于現(xiàn)實(shí)條件,人類對人工智能技術(shù)風(fēng)險(xiǎn)的研判和防控能力有一定的局限。一方面,作為復(fù)雜的技術(shù)系統(tǒng)之一,人工智能技術(shù)背后的算法數(shù)據(jù)極為龐雜,當(dāng)前人類尚未能有效解決算法邏輯的不確定性,因此無法全面預(yù)測人工智能的潛在風(fēng)險(xiǎn)。另一方面,對智能技術(shù)認(rèn)知的有限性影響公眾應(yīng)對人工智能倫理風(fēng)險(xiǎn)的能力。這是人工智能倫理風(fēng)險(xiǎn)產(chǎn)生的現(xiàn)實(shí)原因。近些年,人工智能的快速發(fā)展和深度應(yīng)用已帶來一系列倫理風(fēng)險(xiǎn)問題,對人類的法律制度、倫理規(guī)則和技術(shù)規(guī)范產(chǎn)生挑戰(zhàn)。例如,智能機(jī)器是否具有倫理道德主體地位,人工智能技術(shù)應(yīng)用導(dǎo)致的法律責(zé)任如何界定,人工智能技術(shù)發(fā)展帶來的價(jià)值鴻溝失衡該如何彌合。然而,相較于發(fā)展迅速的人工智能技術(shù),人類社會(huì)應(yīng)對其倫理風(fēng)險(xiǎn)的研判和防控能力則稍顯薄弱,還亟待提升。
面對人工智能技術(shù)帶來的倫理風(fēng)險(xiǎn)和挑戰(zhàn),眾多國家提出了治理措施,但無論是“無須批準(zhǔn)式監(jiān)管”還是“審慎監(jiān)管”治理路徑,仍然停留在原則、準(zhǔn)則和戰(zhàn)略框架層面。實(shí)踐證明,人工智能的倫理風(fēng)險(xiǎn)具有復(fù)雜性和深層性,僅憑政府一方難以有效治理。再則,人工智能的發(fā)展和應(yīng)用涉及多元利益主體,因此對其倫理風(fēng)險(xiǎn)的治理亦要求多元主體參與共治,正如“技術(shù)治理需要利用自由、分權(quán)和參與營造的社會(huì)空間”,技術(shù)風(fēng)險(xiǎn)的治理也應(yīng)倡導(dǎo)社會(huì)合作,而不是由政府單一治理。人工智能倫理風(fēng)險(xiǎn)的治理應(yīng)構(gòu)建一種組織網(wǎng)絡(luò),通過協(xié)商合作重構(gòu)治理主體間關(guān)系,以超越傳統(tǒng)的技術(shù)風(fēng)險(xiǎn)治理模式。人工智能倫理風(fēng)險(xiǎn)的深層性、復(fù)雜性等特征契合了協(xié)同治理的內(nèi)在要求。協(xié)同治理范式的理論基礎(chǔ)是協(xié)同理論,協(xié)同理論強(qiáng)調(diào)不同子系統(tǒng)以目標(biāo)共識為基礎(chǔ),通過互動(dòng)和合作推進(jìn)整體性治理。協(xié)同治理范式是人工智能倫理風(fēng)險(xiǎn)治理具有可行性的新探索。
1.構(gòu)建人工智能倫理風(fēng)險(xiǎn)協(xié)同治理組織
對人工智能倫理風(fēng)險(xiǎn)的治理是政府的職能之一。人工智能的倫理風(fēng)險(xiǎn)給現(xiàn)代政府管理帶來了挑戰(zhàn)。政府擁有技術(shù)風(fēng)險(xiǎn)治理方面的資源和權(quán)力優(yōu)勢,是人工智能倫理風(fēng)險(xiǎn)治理的核心主體。例如,2019年,美國啟動(dòng)“AI計(jì)劃”,成立國家標(biāo)準(zhǔn)技術(shù)研究院(NIST)等政府機(jī)構(gòu)規(guī)范人工智能產(chǎn)業(yè)發(fā)展。然而,由于人工智能的倫理風(fēng)險(xiǎn)涉及面廣,其治理具有高度的復(fù)雜性,政府單一主體難以實(shí)現(xiàn)有效治理。人工智能倫理風(fēng)險(xiǎn)的有效治理應(yīng)發(fā)揮多元社會(huì)主體作用,搭建合作共治框架。構(gòu)建多元協(xié)同組織是人工智能倫理風(fēng)險(xiǎn)協(xié)同治理的基礎(chǔ)。為此,要以制度規(guī)范明確多元治理主體在人工智能倫理風(fēng)險(xiǎn)治理中的權(quán)利和義務(wù),實(shí)現(xiàn)政府單一治理向多元共治模式的轉(zhuǎn)變,構(gòu)建政府、技術(shù)專家、社會(huì)組織、研究機(jī)構(gòu)和公眾等共同參與的技術(shù)風(fēng)險(xiǎn)治理組織網(wǎng)絡(luò)。該組織網(wǎng)絡(luò)有助于克服單一主體治理人工智能技術(shù)風(fēng)險(xiǎn)的局限性,形成合作共治的風(fēng)險(xiǎn)治理格局。在具體實(shí)踐中,要打破傳統(tǒng)“命令—控制”式的技術(shù)風(fēng)險(xiǎn)治理范式,倡導(dǎo)政府與技術(shù)專家、社會(huì)組織、研究機(jī)構(gòu)和公眾的互動(dòng)交流和民主協(xié)商,形成風(fēng)險(xiǎn)治理主體之間緊密的合作關(guān)系,共同防范和化解人工智能倫理風(fēng)險(xiǎn)。要暢通社會(huì)參與機(jī)制,積極引導(dǎo)多元社會(huì)主體參與人工智能倫理風(fēng)險(xiǎn)治理規(guī)則的制定,必要時(shí)可引入第三方監(jiān)管機(jī)構(gòu)。總之,構(gòu)建多元協(xié)同組織,實(shí)現(xiàn)人工智能倫理風(fēng)險(xiǎn)的協(xié)同治理,應(yīng)形成以政府為核心,技術(shù)專家、社會(huì)組織、研究機(jī)構(gòu)和公眾等共同參與的風(fēng)險(xiǎn)治理自組織系統(tǒng)。需要指出的是,構(gòu)建協(xié)同組織僅是人工智能倫理風(fēng)險(xiǎn)協(xié)同治理的必要條件之一,要實(shí)現(xiàn)人工智能倫理風(fēng)險(xiǎn)的協(xié)同治理,還需夯實(shí)協(xié)同治理?xiàng)l件,增強(qiáng)協(xié)同治理參量。
2.夯實(shí)人工智能倫理風(fēng)險(xiǎn)協(xié)同治理?xiàng)l件
夯實(shí)協(xié)同治理?xiàng)l件有助于提升人工智能倫理風(fēng)險(xiǎn)治理的效能。具體而言,要完善四個(gè)層面的協(xié)同治理?xiàng)l件。一是提高技術(shù)倫理風(fēng)險(xiǎn)認(rèn)識。面對人工智能技術(shù)的飛速發(fā)展,一種過于樂觀的觀點(diǎn)認(rèn)為,技術(shù)發(fā)展本身孕育著技術(shù)風(fēng)險(xiǎn)的解決方案。因此,目前遇到的人工智能的倫理風(fēng)險(xiǎn)治理難題,在未來自然會(huì)解決。核技術(shù)發(fā)展等事實(shí)充分證明,這種對于技術(shù)發(fā)展的盲目樂觀和過度自信并不可取。因此,加強(qiáng)人工智能倫理風(fēng)險(xiǎn)認(rèn)知教育很有必要。一方面,要面向社會(huì)開展人工智能技術(shù)科普活動(dòng),讓公眾更好地了解人工智能技術(shù)的發(fā)展趨勢及其潛在風(fēng)險(xiǎn);另一方面,要加強(qiáng)人工智能研究共同體的責(zé)任倫理教育,對人工智能研發(fā)人員開展科技法律和科研倫理方面的宣傳教育,增強(qiáng)其技術(shù)風(fēng)險(xiǎn)責(zé)任意識,提升人工智能研究共同體的社會(huì)責(zé)任感,使其做到“負(fù)責(zé)任創(chuàng)新”地開展人工智能研究。二是強(qiáng)化技術(shù)倫理規(guī)范建設(shè)。當(dāng)前,世界上掌握人工智能技術(shù)的主要國家相繼成立人工智能倫理委員會(huì),制定相應(yīng)倫理標(biāo)準(zhǔn),規(guī)范人工智能倫理風(fēng)險(xiǎn)。例如,2018年,歐盟發(fā)布了人工智能倫理準(zhǔn)則。我國應(yīng)結(jié)合實(shí)際,借鑒國外先進(jìn)經(jīng)驗(yàn)與做法,成立多方參與的人工智能倫理委員會(huì),進(jìn)一步完善人工智能倫理準(zhǔn)則和道德規(guī)范,強(qiáng)化負(fù)責(zé)任的智能技術(shù)創(chuàng)新。三是完善相關(guān)法律法規(guī)。一方面,要厘清智能機(jī)器人的法律主體地位,充分討論和論證智能機(jī)器人法律人格創(chuàng)設(shè)的可能性,健全人工智能研發(fā)和應(yīng)用的問責(zé)機(jī)制;另一方面,要完善人工智能產(chǎn)業(yè)發(fā)展相關(guān)法律法規(guī),細(xì)化人工智能研發(fā)、市場等準(zhǔn)入規(guī)范,明確人工智能開發(fā)主體的法律責(zé)任。在發(fā)揮市場競爭和市場機(jī)制優(yōu)勝劣汰作用的同時(shí),加強(qiáng)人工智能產(chǎn)業(yè)的制度規(guī)范。政府部門要成立相關(guān)監(jiān)管機(jī)構(gòu)加強(qiáng)對算法的治理與監(jiān)管,彰顯算法正義,避免人工智能技術(shù)應(yīng)用被“資本”綁架,促進(jìn)人工智能產(chǎn)業(yè)的健康有序發(fā)展。四是加大社會(huì)政策支持。人工智能技術(shù)的發(fā)展將導(dǎo)致就業(yè)結(jié)構(gòu)、就業(yè)方式的深刻變革,因此,在人工智能發(fā)展相關(guān)公共政策的考量中,不僅要關(guān)注人工智能發(fā)展的產(chǎn)業(yè)和經(jīng)濟(jì)政策,也要關(guān)注人工智能發(fā)展的社會(huì)政策。要堅(jiān)持以人為本,完善社會(huì)保障制度,建立終身學(xué)習(xí)和就業(yè)培訓(xùn)體系,有效應(yīng)對人工智能發(fā)展可能帶來的結(jié)構(gòu)性失業(yè)等社會(huì)問題。
3.增強(qiáng)人工智能倫理風(fēng)險(xiǎn)協(xié)同治理參量
增強(qiáng)協(xié)同治理參量對促進(jìn)人工智能倫理風(fēng)險(xiǎn)整體性治理具有積極作用。一是完善技術(shù)風(fēng)險(xiǎn)治理協(xié)同機(jī)制。人工智能倫理風(fēng)險(xiǎn)的治理涉及多方利益。因此,要構(gòu)建技術(shù)風(fēng)險(xiǎn)治理的利益表達(dá)、補(bǔ)償及協(xié)調(diào)機(jī)制,搭建技術(shù)風(fēng)險(xiǎn)信息共享平臺(tái),促進(jìn)技術(shù)風(fēng)險(xiǎn)信息分享。二是建立技術(shù)風(fēng)險(xiǎn)評估機(jī)制。人工智能技術(shù)發(fā)展具有較大的不確定性,因此需要運(yùn)用多種手段和工具,對其倫理風(fēng)險(xiǎn)進(jìn)行科學(xué)評估,開展人工智能技術(shù)倫理風(fēng)險(xiǎn)預(yù)警。一方面,政府可聯(lián)合高校、智庫和企業(yè)等對人工智能技術(shù)進(jìn)行安全等級評估,有針對性地采用安全防護(hù)技術(shù),規(guī)避人工智能技術(shù)可能出現(xiàn)的故障、失控和被入侵等風(fēng)險(xiǎn),確保人工智能技術(shù)在安全、可控的范圍內(nèi)發(fā)展和運(yùn)用。另一方面,要積極開展人工智能社會(huì)實(shí)驗(yàn)研究。積極開展人工智能社會(huì)實(shí)驗(yàn)研究有助于科學(xué)研判人工智能技術(shù)的社會(huì)風(fēng)險(xiǎn),“準(zhǔn)確識別人工智能對人類社會(huì)帶來的挑戰(zhàn)和沖擊,深入理解人工智能的社會(huì)影響特征與態(tài)勢,深刻把握人工智能時(shí)代社會(huì)演進(jìn)的規(guī)律”。三是構(gòu)建技術(shù)風(fēng)險(xiǎn)治理共同體。作為全球性技術(shù),人工智能的倫理風(fēng)險(xiǎn)治理是跨國家和地區(qū)的。由于不同國家和地區(qū)之間技術(shù)標(biāo)準(zhǔn)、準(zhǔn)入制度等不盡相同,人工智能風(fēng)險(xiǎn)治理的體制和機(jī)制也存在差異。因此,要在人類命運(yùn)共同體理念的指引下,建立和完善跨國家和地區(qū)的技術(shù)風(fēng)險(xiǎn)治理協(xié)調(diào)和聯(lián)動(dòng)機(jī)制,形成技術(shù)風(fēng)險(xiǎn)治理共同體,促進(jìn)人工智能風(fēng)險(xiǎn)的協(xié)同治理。
綜上所述,人工智能技術(shù)是一種尚未成熟的革命性技術(shù)。人工智能技術(shù)在增進(jìn)社會(huì)福祉和社會(huì)進(jìn)步的同時(shí),伴隨著人機(jī)邊界模糊、責(zé)任追究困難、價(jià)值鴻溝擴(kuò)大和技術(shù)過度依賴等倫理風(fēng)險(xiǎn)。對此,要統(tǒng)籌兼顧,多維并舉,通過協(xié)同治理有效防范和化解其風(fēng)險(xiǎn)。隨著數(shù)據(jù)驅(qū)動(dòng)算法的升級和優(yōu)化,人工智能技術(shù)的發(fā)展和應(yīng)用具有廣闊的前景。我們要因勢而為,在人工智能倫理風(fēng)險(xiǎn)的協(xié)同治理中構(gòu)建技術(shù)與人、技術(shù)與社會(huì)的和諧生態(tài),推動(dòng)社會(huì)治理變革和創(chuàng)新,促進(jìn)國家治理體系與治理能力現(xiàn)代化。
①Searle JR. Minds, Brains and Programs., 1980, Vol.3, No.3, p.417.②閆坤如、馬少卿:《人工智能倫理問題及其規(guī)約之徑》,《東北大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2018年第7期。③Goldacre, B. When Data Gets Creepy: The Secrets We don't Realise We're Giving Away,, 2014-12-05.④Virginia Eubanks.:-,. St. Martin's Press, 2018, p.37.⑤譚九生、楊建武:《智能時(shí)代技術(shù)治理的價(jià)值悖論及其消解》,《電子政務(wù)》2020年第9期。⑥張鋌、程樂:《技術(shù)治理的風(fēng)險(xiǎn)及其化解》,《自然辯證法研究》2020年第10期。⑦賈開、蔣余浩:《人工智能治理的三個(gè)基本問題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇》,《中國行政管理》2017年第10期。⑧彭亞平:《照看社會(huì):技術(shù)治理的思想素描》,《社會(huì)學(xué)研究》2020年第6期。⑨蘇竣、黃萃:《探索人工智能社會(huì)治理的中國方案》,《光明日報(bào)》2019年12月26日。