国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

合作規(guī)制:基于元規(guī)制模式的人工智能安全倫理規(guī)制優(yōu)化

2023-01-04 03:11:38魏光禧
關(guān)鍵詞:規(guī)制準(zhǔn)則倫理

魏光禧

(重慶警察學(xué)院 重慶國(guó)家安全與社會(huì)治理研究院,重慶 401331)

人工智能是模擬、延伸和擴(kuò)展人類智能的理論、方法、技術(shù)。人工智能的發(fā)展跌宕起伏,先后經(jīng)歷了三次浪潮。第一次浪潮是1956年到20世紀(jì)70年代初,人工智能從理論走向?qū)嵱?,人們看到了人工智能與具體應(yīng)用相結(jié)合的巨大魅力,主要標(biāo)志性成果是專家系統(tǒng)。第二次浪潮出現(xiàn)在20世紀(jì)80年代初到90年代初,其特點(diǎn)是對(duì)分門別類的大量知識(shí)的多種處理方法,標(biāo)志是日本政府推出的“第五代機(jī)”項(xiàng)目。第三次浪潮出現(xiàn)在21世紀(jì),其主要原因是深度學(xué)習(xí)技術(shù)的出現(xiàn),解決了“梯度消失”“梯度爆炸”和自動(dòng)提取并表征復(fù)雜的特征等問(wèn)題。特別是在2016年3月,基于搜索技術(shù)和深度學(xué)習(xí)方法的人工智能圍棋系統(tǒng)AlphaGo戰(zhàn)勝了世界圍棋冠軍李世乭,人工智能引起了全世界的廣泛關(guān)注。

烏爾里?!へ惪酥赋觯茖W(xué)技術(shù)不僅是解決問(wèn)題的源泉,也是制造新的問(wèn)題的原因,甚至科學(xué)技術(shù)的安全風(fēng)險(xiǎn)會(huì)以更高的比例增長(zhǎng)[1]。近年來(lái),此起彼伏的人工智能傷人事件也拷問(wèn)著人們,這個(gè)技術(shù)是給人類帶來(lái)福祉,還是反過(guò)來(lái)破壞原有的生存和安全體系。人工智能對(duì)人類的安全帶來(lái)嚴(yán)峻挑戰(zhàn),也使人與機(jī)器、人與人、人與自然之間的倫理關(guān)系變得更加復(fù)雜。這正如尼克·博斯特羅姆所言:人工智能不僅是一項(xiàng)顛覆性技術(shù),也是人類目前遇到的最具破壞性的技術(shù)[2]。

人工智能作為一種新技術(shù),既有安全賦能效應(yīng),也具有安全問(wèn)題伴生效用。所謂安全賦能效應(yīng),就是提升安全領(lǐng)域的勢(shì)能:一方面是賦能攻擊,讓安全問(wèn)題變得更加嚴(yán)峻;另一方面是賦能防御,通過(guò)新技術(shù)解決安全問(wèn)題。所謂安全伴生效應(yīng),就是新技術(shù)的出現(xiàn)往往伴生著新的安全問(wèn)題:一方面,新技術(shù)的脆弱性導(dǎo)致新技術(shù)系統(tǒng)自身出現(xiàn)安全問(wèn)題,稱之為“內(nèi)生安全”;另一方面,新技術(shù)的脆弱性被攻擊者利用從而引發(fā)其他領(lǐng)域的安全問(wèn)題,稱之為“衍生安全”。根據(jù)引發(fā)安全問(wèn)題的內(nèi)因,可以將人工智能安全分為三類:人工智能助力安全(Artificial Intelligence for Security)、人工智能內(nèi)生安全(Artificial Intelligence Security)和人工智能衍生安全(Artificial Intelligence Safety)[3]。人工智能助力安全主要是指利用人工智能技術(shù)突破其原有攻擊能力而引發(fā)的安全問(wèn)題;人工智能內(nèi)生安全是指人工智能的脆弱性導(dǎo)致的自身受損的安全問(wèn)題;人工智能衍生安全是指人工智能的脆弱性導(dǎo)致的危害其它領(lǐng)域的安全問(wèn)題。人工智能助力安全體現(xiàn)的是人工智能技術(shù)的賦能效應(yīng),而人工智能內(nèi)生安全和人工智能衍生安全都是人工智能技術(shù)的伴生效應(yīng)引起的。從賦能攻擊的角度看,違法犯罪分子可能利用人工智能提升原有的破壞力,帶來(lái)更多的安全隱患和災(zāi)難。例如,可能實(shí)施自動(dòng)挖掘漏洞、生成高仿假視頻、生成智能惡意代碼、在神經(jīng)網(wǎng)絡(luò)模型植入后門、大面積投放釣魚(yú)郵件等行為。人工智能在框架和組件、算法、數(shù)據(jù)、模型等方面就存在一些脆弱性、不可靠的問(wèn)題。例如,深度學(xué)習(xí)難以確保算法的正確性,無(wú)人駕駛汽車的很多安全事故就是不正確的算法所造成的。而數(shù)據(jù)的丟失、變形以及噪音數(shù)據(jù),都可能影響人工智能生成正確的推理判斷。同樣,模型也難以保證不被盜竊或者污染。人工智能的一些脆弱性并不影響自身的安全,但是可能被違法犯罪分子利用,引發(fā)其他領(lǐng)域的安全問(wèn)題。例如,無(wú)人駕駛汽車的智能化判斷高度依賴輸入數(shù)據(jù),這種脆弱性并不影響汽車本身的運(yùn)行,但違法犯罪分子可能利用這種脆弱性對(duì)傳感設(shè)備進(jìn)行干擾,從而制造交通事故。讓科學(xué)家和倫理學(xué)家最為擔(dān)憂的是,人工智能具有自主學(xué)習(xí)和自我進(jìn)化的能力,當(dāng)發(fā)展到強(qiáng)人工智能時(shí)代時(shí),人工智能行為體可能會(huì)脫離人類的控制,甚至可能會(huì)傷害人類,這也是人工智能衍生的安全問(wèn)題。

作為人工智能安全風(fēng)險(xiǎn)的回應(yīng),倫理規(guī)制這一路徑引起廣泛關(guān)注。正如格倫瓦爾德所言:當(dāng)科學(xué)技術(shù)的開(kāi)發(fā)應(yīng)用帶來(lái)規(guī)范標(biāo)準(zhǔn)的不確定性問(wèn)題時(shí),就有倫理反思的必要[4]??茖W(xué)技術(shù)是人類認(rèn)識(shí)和改造客觀物質(zhì)世界的產(chǎn)物,因此從最開(kāi)始其就內(nèi)就嵌著人類倫理道德的基因。在持續(xù)不斷的倫理反思中,科技倫理與科技進(jìn)步實(shí)現(xiàn)矛盾的統(tǒng)一,在防范和控制科技安全風(fēng)險(xiǎn)上發(fā)揮著道德的導(dǎo)向和約束作用。即使是那些主張科技與倫理無(wú)涉論的學(xué)者,也并不否認(rèn)科技工作者的職業(yè)道德和科技應(yīng)用中的道德性[5]。人工智能的倫理是人類倫理體系下的具象化的科技倫理,包括實(shí)現(xiàn)人與機(jī)器、人與人、人與自然和諧發(fā)展的,與人工智能活動(dòng)相關(guān)的觀念、情感、意志、信念、原則、規(guī)范、范疇以及價(jià)值判斷標(biāo)準(zhǔn)[6]。人工智能不僅能代人勞動(dòng)、代人思考和記憶,甚至能夠代人決策。在深度參與人類社會(huì)實(shí)踐活動(dòng)時(shí),會(huì)深刻影響人與機(jī)器、人與人、人與自然的倫理關(guān)系。特別是在人工智能的研發(fā)和應(yīng)用中,用途和目的往往導(dǎo)致了規(guī)范標(biāo)準(zhǔn)的不確定性和道德?tīng)?zhēng)議,還會(huì)產(chǎn)生不確定的倫理負(fù)效應(yīng),例如倫理關(guān)系失調(diào)、社會(huì)失序、機(jī)制失控、行為失范等。這就是弗洛里迪所描述的,人類希望人工智能提高人類的能力、幫助人類實(shí)現(xiàn)自我,讓人工智能代理自己,但同時(shí)也隱藏著侵蝕人類自決能力、失控、責(zé)任缺失、鴻溝加劇等風(fēng)險(xiǎn)[7]。人工智能倫理的表現(xiàn)形式取決于技術(shù)條件及其與人類社會(huì)的結(jié)合程度。因此,人工智能安全的倫理規(guī)制需要從人工智能技術(shù)和社會(huì)制度的具體環(huán)境中,去考察倫理規(guī)制與其他規(guī)制路徑的互動(dòng)關(guān)系。本文將著眼于人工智能產(chǎn)業(yè)發(fā)展的現(xiàn)實(shí)和未來(lái),聚焦人工智能安全的倫理議題,闡述人工智能安全倫理規(guī)制的主體、準(zhǔn)則和機(jī)制,進(jìn)而在元規(guī)制模式下探索人工智能安全倫理規(guī)制的優(yōu)化路徑。

一、 人工智能安全的倫理規(guī)制

近代以來(lái),科學(xué)技術(shù)的革命性突破引發(fā)了大量安全風(fēng)險(xiǎn),促使人們以倫理為主題發(fā)展出一套自我規(guī)制的治理架構(gòu)。法律的確認(rèn),使之前自愿性質(zhì)的治理架構(gòu)在一定程度上被強(qiáng)制化,這稱之為“倫理規(guī)制”[8]。對(duì)人工智能行為進(jìn)行倫理規(guī)制,發(fā)揮道德的導(dǎo)向和約束作用,是防范和控制人工智能安全風(fēng)險(xiǎn)的重要手段。

(一)人工智能安全倫理規(guī)制的主體

無(wú)論是采用強(qiáng)力法還是訓(xùn)練法,現(xiàn)有的人工智能技術(shù)都是在封閉性的應(yīng)用場(chǎng)景實(shí)施的,因此與人工智能安全相關(guān)的規(guī)制主體是人類,而人工智能尚不具備道德地位,也不具有規(guī)制的主體地位。但與其它技術(shù)不同的是,人工智能具有高度的自主性,有自我學(xué)習(xí)、自我約束的能力。因此,將倫理價(jià)值和倫理準(zhǔn)則嵌入到人工智能技術(shù)中,讓人工智能自主或者半自主地實(shí)現(xiàn)規(guī)制目標(biāo),也是人工智能安全倫理規(guī)制的重要途徑[9]。例如,在人工智能的設(shè)計(jì)中嵌入“切斷開(kāi)關(guān)”,當(dāng)存在危害人類的重大風(fēng)險(xiǎn)時(shí)由系統(tǒng)自動(dòng)決策來(lái)關(guān)閉該系統(tǒng),防止發(fā)生不可逆的嚴(yán)重后果??傊?,只要將倫理規(guī)范具體化為封閉性條件的一部分,那么,在該場(chǎng)景中,人工智能就能夠自主地執(zhí)行這些倫理規(guī)范。對(duì)于未來(lái)可能出現(xiàn)的非封閉性的場(chǎng)景,則不能依靠人工智能的自主性,必須堅(jiān)持人類的介入。人,作為責(zé)任主體,永遠(yuǎn)都不能放棄自己的規(guī)制責(zé)任。

具體到實(shí)踐中,人工智能安全倫理規(guī)制的主體主要是社會(huì)主體,包括行業(yè)協(xié)會(huì)、社會(huì)團(tuán)體、研究機(jī)關(guān)、企業(yè)、科學(xué)家、公眾等。人工智能安全的倫理規(guī)制,更多是依靠行業(yè)和技術(shù)的力量。據(jù)初步統(tǒng)計(jì),全球范圍內(nèi)的企業(yè)、社會(huì)組織、國(guó)際組織、學(xué)術(shù)團(tuán)體等利益相關(guān)者,已經(jīng)制定了160多個(gè)原則或者倡議,構(gòu)成了人工智能安全倫理規(guī)制的“軟法體系”[10]。建立行業(yè)、企業(yè)的人工智能安全倫理審查組織,制定行業(yè)、企業(yè)倫理規(guī)范,是保證人工智能產(chǎn)業(yè)健康發(fā)展的必要條件。倫理規(guī)范一般都是軟措施,缺少國(guó)家強(qiáng)制力的保障,需要各個(gè)主體的共同參與,形成倫理共識(shí),并作為共同的行為規(guī)范。

(二)人工智能安全倫理規(guī)制的準(zhǔn)則

早在1950年,阿西莫夫就在其科幻小說(shuō)中提出了著名的“機(jī)器人學(xué)三大法則”,即機(jī)器人不得傷害人類、機(jī)器人必須服從人類的命令以及在不違背前兩條法則的情況下機(jī)器人必須保護(hù)自己。之后,各國(guó)以及有關(guān)組織都在積極發(fā)展人工智能技術(shù)的同時(shí),不斷探索人工智能倫理建設(shè)。筆者對(duì)主要組織和國(guó)家制定的倫理準(zhǔn)則進(jìn)行了梳理(見(jiàn)表1)。

表1 主要國(guó)家及組織人工智能安全倫理準(zhǔn)則

續(xù)表1

可以看到,各國(guó)及有關(guān)組織在人工智能安全倫理準(zhǔn)則上的要求基本一致,已經(jīng)初步達(dá)成了共識(shí)。有學(xué)者將主要國(guó)家及組織的人工智能安全倫理準(zhǔn)則進(jìn)行了對(duì)比研究,按照出現(xiàn)頻率排序分別是透明、公正、不傷害、責(zé)任、隱私、有益、自由與自主、信任、可持續(xù)、尊嚴(yán)[11]??傮w來(lái)講,人工智能安全倫理準(zhǔn)則主要包括三個(gè)方面:一是人類根本利益原則,即人工智能應(yīng)以實(shí)現(xiàn)人類的福祉為終極追求。人工智能應(yīng)促進(jìn)人類向善,避免人工智能軍備競(jìng)賽。在算法上要保障人的基本權(quán)利和自由,并加強(qiáng)對(duì)數(shù)據(jù)的控制。二是風(fēng)險(xiǎn)原則,即盡可能降低人工智能的安全風(fēng)險(xiǎn)。對(duì)人工智能始終保持審慎的原則,只有在封閉性應(yīng)用場(chǎng)景中才能開(kāi)展研發(fā)和應(yīng)用。要體現(xiàn)人類的知情權(quán)和控制權(quán),當(dāng)人工智能系統(tǒng)給人類造成損害時(shí),可追溯查實(shí)并及時(shí)補(bǔ)救的。三是責(zé)任原則,即人類要對(duì)人工智能負(fù)責(zé)任并且可以問(wèn)責(zé)。人工智能的設(shè)計(jì)者、使用者和相關(guān)利益者都要對(duì)人工智能行為產(chǎn)生的損害負(fù)責(zé),并有責(zé)任去消除這些負(fù)面影響。

(三)人工智能安全倫理規(guī)制的機(jī)制

規(guī)制機(jī)制就是要選擇合適的規(guī)制工具,并根據(jù)實(shí)施效果來(lái)不斷調(diào)整[12]。學(xué)界對(duì)人工智能倫理準(zhǔn)則的討論較多,但對(duì)人工智能倫理規(guī)制機(jī)制的探索才剛剛起步[13]。倫理準(zhǔn)則不可能自我實(shí)施,只有借助于規(guī)制工具才能得到落實(shí)。這如同法律條文一樣,如果缺乏實(shí)施的機(jī)制,制訂得再好也沒(méi)有任何意義。人工智能的應(yīng)用非常廣泛,不同的場(chǎng)景,有不同的倫理準(zhǔn)則和相應(yīng)的規(guī)制機(jī)制。例如,無(wú)人駕駛汽車和醫(yī)療機(jī)器人的情況就各不相同。但總體來(lái)講,有這些規(guī)制工具可供選擇:一是嵌入設(shè)計(jì)。將倫理準(zhǔn)則嵌入到人工智能算法中,實(shí)現(xiàn)技術(shù)層面的倫理規(guī)制。例如,哥倫比亞大學(xué)開(kāi)發(fā)的DEEPXPLORE系統(tǒng)就具有“糾錯(cuò)”的功能,當(dāng)數(shù)據(jù)出現(xiàn)偏離有關(guān)倫理準(zhǔn)則的情況時(shí),嵌入神經(jīng)網(wǎng)絡(luò)的誘導(dǎo)系統(tǒng)能夠夠讓這些缺陷暴露出來(lái),并自動(dòng)進(jìn)行掃描和糾錯(cuò)[14]。二是技術(shù)標(biāo)準(zhǔn)。將倫理準(zhǔn)則融入技術(shù)標(biāo)準(zhǔn),來(lái)規(guī)范人工智能的研究和開(kāi)發(fā)。研發(fā)人員在適用這些技術(shù)標(biāo)準(zhǔn)時(shí),自動(dòng)遵守了倫理準(zhǔn)則。例如,電氣和電子工程師協(xié)會(huì)就在P7000系列技術(shù)標(biāo)準(zhǔn)中體現(xiàn)了可解釋性等大量倫理準(zhǔn)則。三是倫理審查。國(guó)家、組織和企業(yè)等各個(gè)層面設(shè)置人工智能安全的倫理審查委員會(huì),在研發(fā)計(jì)劃、研發(fā)過(guò)程和產(chǎn)品上市等各個(gè)環(huán)節(jié)進(jìn)行倫理審查,對(duì)不符合倫理準(zhǔn)則的人工智能采取取消投入、禁止研發(fā)、不予批準(zhǔn)上市等措施。四是第三方認(rèn)證。由獨(dú)立的第三方進(jìn)行人工智能的倫理認(rèn)證,符合相關(guān)倫理準(zhǔn)則的才能頒發(fā)許可證,不符合的則不能頒發(fā)。沒(méi)有獲得倫理認(rèn)證的產(chǎn)品則難以進(jìn)入有關(guān)市場(chǎng)領(lǐng)域,或者難以取得保險(xiǎn)公司的投保。五是輿論約束。通過(guò)教育和社會(huì)輿論進(jìn)行引導(dǎo),宣揚(yáng)人工智能安全道德規(guī)范,形成人工智能安全文化。吸納公眾參與,對(duì)違反人工智能安全倫理準(zhǔn)則的行為進(jìn)行監(jiān)督。完善人工智能安全社會(huì)評(píng)價(jià)機(jī)制,使具有更高安全可靠性的人工智能產(chǎn)品獲得更多的認(rèn)可和更高的聲譽(yù)。

二、 元規(guī)制模式下人工智能安全倫理規(guī)制的透視

如上所述,人工智能安全的倫理規(guī)制是一種自我規(guī)制,依賴行業(yè)協(xié)會(huì)、社會(huì)團(tuán)體、研究機(jī)關(guān)、企業(yè)、科學(xué)家、公眾等社會(huì)主體對(duì)自身施加約束。在通常情況下,規(guī)制主體與被規(guī)制者為同一主體或者有緊密關(guān)系,而且倫理準(zhǔn)則又缺乏強(qiáng)制執(zhí)行力的保障,因此人工智能安全的倫理規(guī)制只是一種“軟約束”。隨著人工智能安全風(fēng)險(xiǎn)日益嚴(yán)峻,國(guó)家政府也開(kāi)始釋放出強(qiáng)化規(guī)制的信號(hào)。但考慮到人工智能安全倫理問(wèn)題的復(fù)雜性,以及人工智能技術(shù)創(chuàng)新的自由空間的需要,行政規(guī)制介入的程度和方式還需要深入分析探討。

(一)人工智能安全倫理規(guī)制的“軟約束”

1.從內(nèi)源性邏輯看,倫理準(zhǔn)則多為原則性、抽象性的規(guī)定,操作性不足。原則性、抽象性的規(guī)定不夠清晰明確,難以形成應(yīng)對(duì)各種具體情形的規(guī)范體系。實(shí)踐中必須根據(jù)經(jīng)驗(yàn)和專業(yè)素養(yǎng)進(jìn)行主觀判斷,容易陷入“各執(zhí)一詞”的分歧。以《新一代人工智能倫理規(guī)范》為例,該倫理準(zhǔn)則首先在第三條提出了“增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)”6條原則。之后,分別從管理規(guī)范、研發(fā)規(guī)范、供應(yīng)規(guī)范和使用規(guī)范三個(gè)方面,提出了若干原則,缺乏明確的責(zé)任義務(wù)規(guī)定。其中,第十二條是“增強(qiáng)安全透明”的原則,規(guī)定“在算法設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性”,“逐步實(shí)現(xiàn)可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測(cè)、可信賴”。這些寬泛的概念都缺乏明確的定義,留給規(guī)制者的自由裁量空間過(guò)大。

2.從功能性邏輯看,倫理準(zhǔn)則缺少?gòu)?qiáng)制力的保障,執(zhí)行力不足。倫理準(zhǔn)則大多是軟法,其執(zhí)行主要依靠?jī)?nèi)部力量。而且在實(shí)踐中,有些行業(yè)組織、企業(yè)成立了倫理審查委員會(huì),但審查的對(duì)象是同行或者同事,很難保證能夠中立且嚴(yán)格地執(zhí)行審查程序?,F(xiàn)實(shí)經(jīng)驗(yàn)也表明,倫理審查大概率都是順利通過(guò),很多是做做樣子、走走形式。

3.從現(xiàn)實(shí)性邏輯看,倫理規(guī)制與經(jīng)濟(jì)利益之間存在沖突。對(duì)人工智能的研發(fā)提出倫理的要求,往往意味著企業(yè)需要投入大量的財(cái)力和人力進(jìn)行試驗(yàn)或者尋找替代方案,這就必然導(dǎo)致經(jīng)濟(jì)成本的增加。企業(yè)也會(huì)傾向于將倫理審查簡(jiǎn)單化,盡可能地節(jié)約成本。而且,倫理規(guī)制也可能與科學(xué)研究之間產(chǎn)生沖突,減緩技術(shù)開(kāi)發(fā)的進(jìn)度,影響技術(shù)進(jìn)入市場(chǎng)的時(shí)間。特別是人工智能是新興產(chǎn)業(yè),不確定性很多,有些領(lǐng)域還存在叢林法則,嚴(yán)格進(jìn)行自我規(guī)制的企業(yè)反而會(huì)因?yàn)槌杀镜脑黾佣诟?jìng)爭(zhēng)中處于不利地位,出現(xiàn)“劣幣驅(qū)逐良幣”的情況,因而企業(yè)主動(dòng)進(jìn)行倫理規(guī)制的意愿有限。

(二)人工智能安全行政規(guī)制的“硬約束”

如上所述,人工智能安全倫理規(guī)制的“軟約束”存在失靈的問(wèn)題,行政規(guī)制的介入非常有必要。簡(jiǎn)單來(lái)講,行政規(guī)制一般是指政府為了保護(hù)公共利益的需要,在市場(chǎng)失靈的情況下,而實(shí)施對(duì)市場(chǎng)行為的干預(yù)。行政規(guī)制有國(guó)家資源和強(qiáng)制力作為保障,規(guī)制的力度大、效率高[15]。政府多采用一些命令控制型規(guī)制工具,被規(guī)制者必須服從,能夠談判的空間很小。行政規(guī)制的后果包括消極的,例如刑事處罰、吊銷許可證、罰金、警告等;也包括積極的,例如政府補(bǔ)貼、政府獎(jiǎng)勵(lì)等。無(wú)論是被處罰,還是相比競(jìng)爭(zhēng)對(duì)手而言失去了獎(jiǎng)勵(lì)的機(jī)會(huì),都對(duì)被規(guī)制者有重大的影響。因此,行政規(guī)制的威懾很大,約束力很強(qiáng)。

但是,人工智能安全行政規(guī)制的“硬約束”也面臨失靈的問(wèn)題。一方面,倫理規(guī)制針對(duì)未來(lái)可能發(fā)生的風(fēng)險(xiǎn),而行政規(guī)制主要是基于既定的制度和社會(huì)實(shí)踐,政府的過(guò)度干預(yù)可能會(huì)遏制人工智能的發(fā)展。人工智能倫理是基于一定的價(jià)值觀念,但在多元化的社會(huì),價(jià)值觀念很難統(tǒng)一。而且,隨著人工智能技術(shù)的發(fā)展,人與機(jī)器、人與人、人與自然之間的關(guān)系總在不斷演變。在此背景下,政府過(guò)度強(qiáng)化某一種倫理主張,反而會(huì)引起社會(huì)的分裂,也無(wú)法及時(shí)回應(yīng)人工智能倫理的變遷,影響人工智能技術(shù)的創(chuàng)新。另一方面,人工智能具有技術(shù)鴻溝,政府獲取信息的成本過(guò)高。行政規(guī)制要求規(guī)制者獲取并理解人工智能安全的信息,這個(gè)需要消耗大量的成本。特別是有些人工智能算法具有不可解釋性,不具有很強(qiáng)技術(shù)背景的政府工作人員很難理解。因此,完全從外部監(jiān)管人工智能安全存在信息成本過(guò)高的問(wèn)題,影響了人工智能安全行政規(guī)制的效益。

(三)基于元規(guī)制理論的人工智能安全倫理規(guī)制優(yōu)化邏輯

如上所述,倫理規(guī)制的“軟約束”和行政規(guī)制的“硬約束”都存在失靈的問(wèn)題。因此,不應(yīng)該簡(jiǎn)單地在自由和控制兩個(gè)極端中選擇,要么把自由裁量權(quán)完全交給社會(huì)主體任由其自我規(guī)制;要么剝奪社會(huì)主體的自由裁量權(quán)來(lái)實(shí)施威懾性的命令控制。而應(yīng)該建立一種合作規(guī)制架構(gòu),使政府和社會(huì)主體能夠持續(xù)的交換資源、相互溝通,發(fā)揮規(guī)制空間的系統(tǒng)性作用。元規(guī)制模式為人工智能安全倫理規(guī)制的優(yōu)化提供了進(jìn)路。

元規(guī)制是指外部規(guī)制者根據(jù)公共規(guī)制目標(biāo),促使被規(guī)制者自身針對(duì)公共問(wèn)題,作出內(nèi)部的、自我規(guī)制性質(zhì)的回應(yīng)[16]。外部規(guī)制者是根據(jù)公共規(guī)制目標(biāo)有意而為,包括對(duì)不采取自我規(guī)制的被規(guī)制者給予處罰,或者對(duì)采取自我規(guī)制的被規(guī)制者給予獎(jiǎng)勵(lì)。因此,元規(guī)制也經(jīng)常被稱之為“約束性自我規(guī)制”。元規(guī)制的特點(diǎn)是外部規(guī)制與內(nèi)部規(guī)制的結(jié)合,被規(guī)制者自身可以構(gòu)成規(guī)制自身活動(dòng)的來(lái)源。一般來(lái)講,政府發(fā)現(xiàn)某一公共問(wèn)題時(shí),命令相關(guān)被規(guī)制者自己制定方案來(lái)解決問(wèn)題,在被規(guī)制者作出回應(yīng)后,政府對(duì)這個(gè)過(guò)程進(jìn)行規(guī)制,也可以說(shuō)元規(guī)制是對(duì)自我規(guī)制的再規(guī)制。在人工智能安全的倫理規(guī)制中,元規(guī)制可以發(fā)揮它的優(yōu)勢(shì),表現(xiàn)為:

1.將倫理規(guī)制納入法治化軌道?;谠?guī)制,政府對(duì)社會(huì)主體的地位及其制定的倫理準(zhǔn)則進(jìn)行行政確認(rèn),而社會(huì)主體將自己定位為公共事務(wù)規(guī)制者角色,履行相應(yīng)的行政法責(zé)任。這種行政確認(rèn)將倫理規(guī)制納入法治化規(guī)定,賦予其公法的效力和權(quán)威。

2.確保倫理規(guī)制符合公共利益。在元規(guī)制模式下,政府承擔(dān)公共利益的擔(dān)保責(zé)任[17]。一方面,政府制定確保社會(huì)主體履行公共事務(wù)的法律制度,通過(guò)框架設(shè)定、引導(dǎo)、監(jiān)督等擔(dān)保責(zé)任實(shí)現(xiàn)方式,保障人工智能安全倫理規(guī)制的質(zhì)量和效果;另一方面,在社會(huì)主體的倫理規(guī)制失靈并危害公共利益時(shí),由政府承擔(dān)接管責(zé)任。

3.成本最低。元規(guī)制模式給予人工智能行業(yè)組織、企業(yè)、科研人員等相當(dāng)大的自由裁量空間,以便于回應(yīng)人工智能技術(shù)和倫理觀念的變化,畢竟他們對(duì)市場(chǎng)和技術(shù)的發(fā)展最為敏感。這種對(duì)倫理規(guī)制的吸納的益處在于,社會(huì)主體掌握更多的信息,更有可能找到以最低的成本實(shí)現(xiàn)最有效規(guī)制的方案。而且,相對(duì)于硬性的強(qiáng)制性命令,社會(huì)主體更加有積極性遵守自己制定的倫理準(zhǔn)則,進(jìn)一步減少了對(duì)立沖突的成本。

三、 邁向合作規(guī)制:人工智能安全倫理規(guī)制的優(yōu)化

基于元規(guī)制理論,人工智能安全倫理規(guī)制需要在合作規(guī)制框架下,合理分配行政規(guī)制和倫理規(guī)制的權(quán)力和責(zé)任。行政規(guī)制重點(diǎn)關(guān)注對(duì)人類發(fā)展和社會(huì)公眾人身安全有實(shí)質(zhì)性影響的重大倫理議題,而一般的倫理問(wèn)題則充分依賴自我規(guī)制。從國(guó)家層面進(jìn)行合作規(guī)制的框架性立法,將倫理規(guī)制納入法治化軌道。行政規(guī)制介入的范圍、程度和方式都需要慎重考慮,如果干預(yù)過(guò)多,不僅擠占了自我規(guī)制的空間,而且執(zhí)法成本也過(guò)高。社會(huì)主體可以有充分的自由裁量權(quán),根據(jù)實(shí)際情況將規(guī)制程序和要求具體化。

(一)規(guī)制主體的優(yōu)化:從自我規(guī)制邁向公私合作

在合作規(guī)制框架中,承擔(dān)人工智能安全倫理規(guī)制這個(gè)公共事務(wù)的主體,是分散的、多中心的任務(wù)實(shí)現(xiàn)結(jié)構(gòu),既包括政府,也包括社會(huì)主體,例如行業(yè)組織、企業(yè)、科研院所、公眾等。無(wú)論是政府,還是社會(huì)主體,只要承擔(dān)維護(hù)人工智能安全的公共任務(wù),都具有公法主體地位和權(quán)力。社會(huì)主體的這一主體地位和權(quán)力,不是來(lái)自于行政組織法上的授權(quán)或者委托,而是基于元規(guī)制精神。政府應(yīng)當(dāng)尊重社會(huì)主體在人工智能安全倫理規(guī)制中的優(yōu)先規(guī)制和平等主體地位,讓社會(huì)主體分享合作規(guī)制權(quán)力、承擔(dān)合作規(guī)制義務(wù),并在此基礎(chǔ)上,重新定位政府的角色——不僅是人工智能安全倫理規(guī)制的合作者,還需扮演框架設(shè)計(jì)者、監(jiān)督者、評(píng)估者等角色,承擔(dān)擔(dān)保責(zé)任。

1.政府對(duì)倫理規(guī)制活動(dòng)的監(jiān)管是合作規(guī)制的關(guān)鍵,它是外部規(guī)制與內(nèi)部規(guī)制兩個(gè)系統(tǒng)之間建立耦合關(guān)系的聯(lián)結(jié)點(diǎn)。通過(guò)監(jiān)管制度的設(shè)計(jì),行政規(guī)制的目標(biāo)被輸送到倫理規(guī)制系統(tǒng)中,與自我規(guī)制形成共振。它通過(guò)對(duì)自我規(guī)制的引導(dǎo)、監(jiān)督,確保倫理規(guī)制能夠?qū)崿F(xiàn)人工智能安全的公共利益。政府的監(jiān)管活動(dòng)具有“四兩撥千斤”的作用,既達(dá)到了規(guī)制目標(biāo),也節(jié)約了大量的行政成本。當(dāng)然,政府必須履行最后的擔(dān)保責(zé)任,當(dāng)自我規(guī)制存在徇私舞弊,或者出現(xiàn)規(guī)制漏洞時(shí),必須走上前臺(tái)接管規(guī)制活動(dòng)并修正自我規(guī)制行為,這也稱之為“后設(shè)規(guī)制”[18]。例如,在人工智能產(chǎn)業(yè)聯(lián)盟中,大企業(yè)往往掌握著倫理準(zhǔn)則的制定權(quán)。因此,可能會(huì)忽視小企業(yè)的利益,甚至可能借助倫理準(zhǔn)則來(lái)打壓競(jìng)爭(zhēng)對(duì)手,這就需要政府的介入。后設(shè)規(guī)制既包括對(duì)自我規(guī)制的規(guī)制程序的監(jiān)督,也包括對(duì)作為規(guī)制者的社會(huì)主體的監(jiān)督,使其具有可問(wèn)責(zé)性。雖然政府可以通過(guò)強(qiáng)制措施、行政處罰等命令控制型手段來(lái)維護(hù)人工智能安全的倫理底線,但也需要更多地利用激勵(lì)措施來(lái)引導(dǎo)倫理秩序和倫理文化。例如,可以給予建立了完善的倫理審查機(jī)構(gòu)和倫理審查程序的企業(yè)更多的財(cái)政資金支持,在項(xiàng)目評(píng)審上予以政策性傾斜,這將極大激發(fā)企業(yè)進(jìn)行倫理規(guī)制的主動(dòng)性。政府還要幫助社會(huì)主體規(guī)制者完善自我規(guī)制程序,并為利益相關(guān)者設(shè)計(jì)抗辯、糾紛解決機(jī)制??傊?,在人工智能安全的倫理規(guī)制中,社會(huì)主體必須意識(shí)到,在自己的規(guī)制不合法時(shí),就會(huì)面臨行政規(guī)制的接管。

2.人工智能安全的倫理規(guī)制不僅要有合法性的監(jiān)管,也要有合理性的考量,這就是對(duì)倫理規(guī)制效果的評(píng)估,目標(biāo)是追求“更好的規(guī)制”?!案玫囊?guī)制”涉及不同利益和社會(huì)性目標(biāo)之間的權(quán)衡和取舍。對(duì)于人工智能安全倫理規(guī)制的評(píng)估,不同的視角,會(huì)有不同的評(píng)估基準(zhǔn)。一般而言,主要包括:是否有清晰的安全目標(biāo),并能夠有效實(shí)現(xiàn)這個(gè)目標(biāo);是否有堅(jiān)實(shí)的倫理基礎(chǔ);考慮到人工智能產(chǎn)業(yè)的發(fā)展,所產(chǎn)生的的收益是否大于所付出的成本;盡量減少對(duì)人工智能科學(xué)研究的限制;通過(guò)市場(chǎng)激勵(lì)和基于安全的進(jìn)路促進(jìn)創(chuàng)新;是否透明公正;人工智能的用戶是否能夠理解這樣的倫理準(zhǔn)則并充分表達(dá)意見(jiàn)。很清楚的一點(diǎn)就是,以成本最低、干預(yù)程度最低的方式實(shí)現(xiàn)所規(guī)定的安全目標(biāo)。典型的倫理規(guī)制效果的評(píng)估程序包括評(píng)判倫理準(zhǔn)則選擇的影響,擬定的規(guī)制方案的風(fēng)險(xiǎn)、收益和成本,以及被規(guī)制者如何實(shí)現(xiàn)合規(guī)、被規(guī)制者的意見(jiàn)等。倫理規(guī)制效果的評(píng)估不是“一次性”的靜態(tài)評(píng)價(jià),而是要促進(jìn)形成一種漸進(jìn)式的規(guī)制進(jìn)路,允許不同主體相互協(xié)商,并調(diào)整不同規(guī)制者的作用。這種反思性、動(dòng)態(tài)性進(jìn)路,使得能夠根據(jù)人工智能技術(shù)的發(fā)展和安全偏好的變化,對(duì)安全倫理準(zhǔn)則進(jìn)行不斷的修正和調(diào)適。

(二)規(guī)制規(guī)則的優(yōu)化:從軟法規(guī)制邁向軟硬并舉

之前已經(jīng)論證,人工智能安全的倫理準(zhǔn)則作為軟法,其約束力有限。因此,應(yīng)當(dāng)在合作規(guī)制框架下,將倫理準(zhǔn)則與法律法規(guī)相銜接,保持軟法與硬法的平衡和一致,實(shí)現(xiàn)軟硬并舉??梢酝ㄟ^(guò)立法技術(shù)推動(dòng)軟法的硬法化,使倫理準(zhǔn)則能夠產(chǎn)生硬法上的效力,打通倫理規(guī)制與行政規(guī)制之間的通道。我國(guó)法律一定程度上注意到了倫理規(guī)制的重要性,但難以直接適用。例如,我國(guó)《民法典》第1008條、第1009條規(guī)定了在有關(guān)醫(yī)學(xué)和科研活動(dòng)中開(kāi)展倫理規(guī)制的要求,《科學(xué)技術(shù)進(jìn)步法》第29條規(guī)定“國(guó)家禁止違反倫理道德的科學(xué)技術(shù)研究開(kāi)發(fā)活動(dòng)”??梢钥闯?,法律是宣示性地要求有關(guān)活動(dòng)要遵守倫理準(zhǔn)則,但是沒(méi)有明確要遵守哪些倫理準(zhǔn)則以及違法這些倫理準(zhǔn)則的不利后果。法律應(yīng)該采用“轉(zhuǎn)介條款”“引致條款”等銜接法律規(guī)則與倫理準(zhǔn)則的立法技術(shù)。通過(guò)“轉(zhuǎn)介條款”“引致條款”,指向具體的倫理準(zhǔn)則,并從法律上賦予該倫理準(zhǔn)則以法律效力,明確相關(guān)的權(quán)利義務(wù)和責(zé)任。進(jìn)行個(gè)案的裁決時(shí),先引用“轉(zhuǎn)介條款”“引致條款”,再按圖索驥找到具體的倫理準(zhǔn)則來(lái)進(jìn)行判斷。這樣既保障了倫理準(zhǔn)則的法律效力,又保留了其靈活性。

(三)規(guī)制機(jī)制的優(yōu)化:從線形規(guī)制邁向規(guī)制空間

我國(guó)目前人工智能安全的倫理規(guī)制還處于線形規(guī)制狀態(tài),規(guī)制主體與被規(guī)制者是單一的、單向的線形關(guān)系,規(guī)制主體之間也是缺少合作和互相監(jiān)督的平行線關(guān)系。根據(jù)元規(guī)制原則,應(yīng)當(dāng)形成所有主體共同參與的規(guī)制空間。在該規(guī)制空間中,政府、行業(yè)組織、企業(yè)、科研院所、公眾等不同主體各占據(jù)一個(gè)節(jié)點(diǎn),共同織成一張人工智能安全倫理規(guī)制的網(wǎng)絡(luò)。每個(gè)節(jié)點(diǎn)根據(jù)其掌握的規(guī)制資源,分配相應(yīng)的規(guī)制權(quán)力和責(zé)任。每個(gè)節(jié)點(diǎn)都有自身的利益訴求,但相互作用之下的共同目標(biāo)是實(shí)現(xiàn)公共利益的最大化。因此,還應(yīng)當(dāng)設(shè)計(jì)相關(guān)的機(jī)制,使他們之間能夠互相監(jiān)督。例如,可以要求充分的信息披露,說(shuō)明倫理審查的程序、依據(jù)和結(jié)論,并接受同行互查和第三方獨(dú)立機(jī)構(gòu)的復(fù)審。另外,還需要制定程序規(guī)定來(lái)規(guī)范規(guī)制行為,使政府和社會(huì)主體能夠持續(xù)的交換資源、相互溝通,發(fā)揮規(guī)制空間的系統(tǒng)性作用。

猜你喜歡
規(guī)制準(zhǔn)則倫理
《心之死》的趣味與倫理焦慮
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
具非線性中立項(xiàng)的二階延遲微分方程的Philos型準(zhǔn)則
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
基于Canny振蕩抑制準(zhǔn)則的改進(jìn)匹配濾波器
一圖讀懂《中國(guó)共產(chǎn)黨廉潔自律準(zhǔn)則》
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
內(nèi)容規(guī)制
南涧| 郯城县| 禄丰县| 宁强县| 怀柔区| 麻江县| 通州区| 桦甸市| 天峨县| 女性| 嘉兴市| 宿州市| 景洪市| 南京市| 邵阳市| 鹤庆县| 老河口市| 和田市| 大安市| 旬邑县| 清原| 甘南县| 九台市| 江阴市| 盈江县| 五华县| 九江县| 麻栗坡县| 石阡县| 措勤县| 驻马店市| 鹤壁市| 剑阁县| 依安县| 涞源县| 黄大仙区| 鄢陵县| 崇义县| 青冈县| 姜堰市| 太康县|