国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能風(fēng)險(xiǎn)規(guī)制的困境與出路

2019-03-24 12:43郭傳凱
法學(xué)論壇 2019年6期
關(guān)鍵詞:規(guī)制人工智能實(shí)驗(yàn)

郭傳凱

(山東大學(xué) 法學(xué)院,山東青島 266237)

引 言

人工智能通過完成高難度任務(wù)不斷加深著對(duì)人類社會(huì)的影響:無人駕駛已經(jīng)在美國四個(gè)州獲得上路批準(zhǔn),未來很可能引發(fā)道路交通運(yùn)輸?shù)母锩蝗四樧R(shí)別系統(tǒng)在反恐等領(lǐng)域發(fā)揮著重要作用;電腦程序擊敗了世界最強(qiáng)圍棋運(yùn)動(dòng)員;谷歌研發(fā)的翻譯系統(tǒng)則可以獨(dú)自翻譯報(bào)紙上的長篇文章。(1)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 353 (2016).與此同時(shí),人工智能的商業(yè)前景激發(fā)了大型企業(yè)投資與開發(fā)的熱情,谷歌、臉書、亞馬遜等公司通過資助研發(fā)、設(shè)立試驗(yàn)機(jī)構(gòu)、收購新興企業(yè)的方式開展人工智能競(jìng)賽。人工智能飛速發(fā)展之勢(shì)已不可阻擋。

然而,技術(shù)進(jìn)步引發(fā)恐慌情緒和監(jiān)管預(yù)警(2)本研究在以下層面區(qū)別使用監(jiān)管、規(guī)制與管制:監(jiān)管強(qiáng)調(diào)監(jiān)督與管理的并存,在常規(guī)狀態(tài)下以監(jiān)督為主,在出現(xiàn)特定問題時(shí)才以特定的限制與禁止措施進(jìn)行管理。強(qiáng)調(diào)監(jiān)督時(shí),本文則傾向于使用監(jiān)管一詞。規(guī)制則泛指規(guī)制者通過制定規(guī)則、實(shí)施強(qiáng)制性措施的方式對(duì)被規(guī)制者進(jìn)行限制或禁止的過程。而管制一詞則帶有感情色彩,多指缺乏靈活性,難以滿足市場(chǎng)經(jīng)濟(jì)發(fā)展需求的僵化措施。具體到風(fēng)險(xiǎn)領(lǐng)域,學(xué)界多以風(fēng)險(xiǎn)規(guī)制作為通用名詞,因此本文不使用風(fēng)險(xiǎn)監(jiān)管的概念。并不是人類社會(huì)的新鮮現(xiàn)象。(3)參見戚建剛:《風(fēng)險(xiǎn)認(rèn)知模式及其行政法制意蘊(yùn)》,載《法學(xué)研究》2009年第5期。盡管有些人工智能風(fēng)險(xiǎn)與以往技術(shù)創(chuàng)新引發(fā)的風(fēng)險(xiǎn)相類似,但更多體現(xiàn)人工智能獨(dú)特性的新興風(fēng)險(xiǎn)及相應(yīng)法律問題將在未來接踵而至。如果放任人工智能在監(jiān)管真空的狀態(tài)下快速發(fā)展,風(fēng)險(xiǎn)發(fā)生的可能性及危害性很可能伴隨時(shí)間的推移呈現(xiàn)指數(shù)式的增長。(4)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 400,401 (2016).另一方面,風(fēng)險(xiǎn)規(guī)制是否阻礙技術(shù)創(chuàng)新成為相伴而生理論與實(shí)務(wù)難題,短期視野下采取的規(guī)制措施很可能損害技術(shù)創(chuàng)新帶來的長遠(yuǎn)效益。人工智能風(fēng)險(xiǎn)的獨(dú)特性與現(xiàn)行規(guī)制的局限性導(dǎo)致風(fēng)險(xiǎn)規(guī)制始終處于緊張的矛盾狀態(tài)之下,認(rèn)真對(duì)待人工智能的風(fēng)險(xiǎn)規(guī)制勢(shì)在必行。

一、人工智能風(fēng)險(xiǎn)規(guī)制的現(xiàn)實(shí)需求

理解人工智能是進(jìn)行風(fēng)險(xiǎn)規(guī)制的第一步,(5)如何界定人工智能是需要考察的重要問題。目前我國法學(xué)界對(duì)人工智能存在以下界定:馬長山教授認(rèn)為,人工智能是通過模擬人腦思維,由機(jī)器或軟件所表現(xiàn)出來的具有推理、記憶、理解、學(xué)習(xí)和計(jì)劃的類人化智能,它能夠思考自己的目標(biāo)并進(jìn)行適時(shí)調(diào)整,甚至將擁有足以匹敵人的智慧和自我意識(shí)的能力。劉憲權(quán)教授認(rèn)為,人工智能技術(shù)通過模擬人類的神經(jīng)網(wǎng)絡(luò),讓計(jì)算機(jī)系統(tǒng) 對(duì)數(shù)據(jù)庫進(jìn)行深度學(xué)習(xí),使得計(jì)算機(jī)系統(tǒng)能夠進(jìn)行分析、判斷以及決策。參見馬長山:《人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制》,載《法律科學(xué)》2018年第6期;劉憲權(quán):《人工智能時(shí)代的刑事風(fēng)險(xiǎn)與刑法應(yīng)對(duì)》,載《法商研究》2018年第1期。人工智能復(fù)雜性、靈活性的特點(diǎn)致使其無法形成統(tǒng)一的概念界定。(6)參見John McCarthy, What is Artificial Intelligence?, JOHN MCCARTHY'S HOME PAGE 2-3, http://www-formal.stanford.edu/jmc/whatisai.pdf.第一個(gè)使用人工智能概念的計(jì)算機(jī)科學(xué)家麥卡錫將人工智能界定為“有關(guān)智能機(jī)器特別是智能電腦程序的科學(xué)技術(shù)與工程系統(tǒng)”,(7)Id.其可以通過自身行動(dòng)實(shí)現(xiàn)復(fù)雜的目標(biāo)。作為偏正短語,“人工智能”的核心部分在于“智能”二字,如何界定“智能”對(duì)解讀人工智能而言意義重大。依照學(xué)界通說,“人類智能”主要關(guān)涉具備知覺、存在自我意識(shí)、可以使用語言、掌握抽象思維、能夠調(diào)整適應(yīng)環(huán)境以及進(jìn)行復(fù)雜推理等要素。(8)參見Francis Crick & J. Clark, The Astonishing Hypothesis, 1 J. CONSCIOUS STUD, 10-16 (1994).因此有學(xué)者參照“智能”的概念將人工智能分為人性化思考、人性化行動(dòng)、理性思考和理性行動(dòng)等四種類型,并最終認(rèn)為人工智能是自動(dòng)運(yùn)行、能感知周圍環(huán)境、可在一段時(shí)間內(nèi)持續(xù)存在的、具有適應(yīng)能力,并創(chuàng)造和追求最佳結(jié)果的機(jī)器或者程序。(9)[美]斯圖爾特·羅素、皮特·諾維格:《人工智能:一種現(xiàn)代的方法》,殷建平等譯,清華大學(xué)出版社2013年版,第1-5頁。

通過比較,不難發(fā)現(xiàn)理性行為特別是追求最優(yōu)結(jié)果的能力是被廣泛認(rèn)同的人工智能關(guān)鍵屬性,其決定了人工智能的兩大特征:其一,人工智能的行為后果具備較弱的可預(yù)見性。盡管人工智能的理性能力在一定程度上可以通過初始程序進(jìn)行控制,但其自主完成復(fù)雜任務(wù)的過程亦容易導(dǎo)致人類難以預(yù)見的后果。其二,人工智能具有較弱的可控性。人工智能可控性上的局限并不是由于機(jī)器故障或人工智能對(duì)人類指令理解能力的不足,而是源自其對(duì)設(shè)計(jì)者主觀意圖的隔離與漠視。特別當(dāng)人工智能認(rèn)定的最優(yōu)結(jié)果與人類社會(huì)期待的最優(yōu)結(jié)果發(fā)生偏差的時(shí)候,人工智能的可控性成為需要解決的重要難題。(10)以寡頭壟斷市場(chǎng)上出現(xiàn)的算法通謀為例,大型企業(yè)開發(fā)的數(shù)據(jù)算法很可能彼此撮合進(jìn)而形成壟斷價(jià)格,這種價(jià)格對(duì)寡頭企業(yè)而言是有利的,但對(duì)于有效競(jìng)爭(zhēng)的實(shí)現(xiàn)和消費(fèi)者利益的維護(hù)是有害的。此時(shí)就出現(xiàn)了人工智能目標(biāo)函數(shù)上的分歧。此外,人工智能在研發(fā)上的獨(dú)特性與其理性行為能力密切相關(guān):(1)集約化。相較于新能源技術(shù)、航天科技等領(lǐng)域,人工智能并不需要大規(guī)模的機(jī)構(gòu)設(shè)施即可開展研發(fā)工作。(11)參見John O. McGinnis, Accelerating AI, 104 NW. U. L. Rev. 1253, 1262 (2010).(2)分散化。在人工智能領(lǐng)域,不同的機(jī)構(gòu)組織,不同的私人企業(yè)往往進(jìn)行分散化的研究。相同的人工智能技術(shù)亦可以在不同行業(yè)不同領(lǐng)域進(jìn)行分散化的運(yùn)用。(3)非連續(xù)性。特定技術(shù)的開發(fā)者不能預(yù)見該技術(shù)的后繼者將如何使用該技術(shù)進(jìn)行進(jìn)一步研發(fā)。(12)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 369 (2016).某一階段的技術(shù)開發(fā)者往往無法長遠(yuǎn)預(yù)見該技術(shù)發(fā)展的未來走勢(shì)。(4)不透明性。人工智能技術(shù)開發(fā)往往是多種現(xiàn)有技術(shù)的復(fù)雜組合,這使人工智能很難采用反向還原工程進(jìn)行拆解分析。這導(dǎo)致人工智能開發(fā)中的缺陷不僅對(duì)消費(fèi)者而言是不可測(cè)度的,對(duì)下游生產(chǎn)商和分銷商而言亦是難以檢測(cè)的。

人工智能的上述特征從根本上決定了風(fēng)險(xiǎn)規(guī)制的現(xiàn)實(shí)需求。在風(fēng)險(xiǎn)規(guī)制的視野下,一些具備理性能力的人工智能(如象棋軟件)暫時(shí)不具備引發(fā)公共風(fēng)險(xiǎn)的可能性,而一些機(jī)器學(xué)習(xí)系統(tǒng)盡管不具備理性行為能力,但卻可能引發(fā)相關(guān)風(fēng)險(xiǎn),進(jìn)而也可被納入到人工智能的規(guī)制范疇中來。(13)參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 395 (2017).由此可見,規(guī)制視野下的人工智能是一個(gè)譜系化的概念,其包括并不具備目標(biāo)追求能力但卻可以完成復(fù)雜任務(wù)的機(jī)器系統(tǒng)或軟件(即不嚴(yán)格的人工智能),(14)不嚴(yán)格的人工智能是指以機(jī)器結(jié)算為代表的產(chǎn)業(yè)技術(shù)與裝備,其展現(xiàn)出來的“自主意識(shí)”只不過是被人類固定設(shè)置的特定程式。以及符合理性標(biāo)準(zhǔn)具備目標(biāo)追求能力的人工智能,甚至還包括目前尚未出現(xiàn)但卻被學(xué)界普遍關(guān)注的強(qiáng)人工智能(Artificial General Intelligence,也可譯作人工普遍智能)。所謂強(qiáng)人工智能,是指具備相當(dāng)程度的自我理解和自我控制能力,可在多變復(fù)雜的環(huán)境下解決不同的復(fù)雜問題,并能夠?qū)W習(xí)掌握解決新問題的相關(guān)技能與知識(shí)的實(shí)體。(15)參見Amnon H. Eden; James H. Moor; ohnny H. S?raker; Eric Steinhart, Singularity Hypotheses A Scientific and Philosophical Assessment, Berlin: Springer, 2012,p.161.關(guān)注強(qiáng)人工智能對(duì)人工智能的風(fēng)險(xiǎn)規(guī)制具備警示意義:強(qiáng)人工智能已經(jīng)給人類社會(huì)造成較深層次的擔(dān)憂,(16)參見Nick Bostrom, When Machines Outsmart Humans, 35 FUTURES 759, 763-64 (2003).原因在于人工智能的發(fā)展具備蟄伏期較長與指數(shù)級(jí)增長相結(jié)合的特點(diǎn),(17)Supra note 5.其一旦結(jié)束蟄伏期而達(dá)至特定的臨界點(diǎn),隨即將開啟指數(shù)級(jí)增長的階段,人類很可能面臨被強(qiáng)人工智能馴服的風(fēng)險(xiǎn)。因此,對(duì)人工智能規(guī)制而言,真正的問題是目前人工智能已經(jīng)發(fā)展至何種階段,以及距離前述的臨界點(diǎn)還有多遠(yuǎn)。法律的規(guī)制應(yīng)當(dāng)指引人工智能的發(fā)展,風(fēng)險(xiǎn)預(yù)防理念下的防控型規(guī)制應(yīng)當(dāng)成為主流的規(guī)制策略。

截至目前,人工智能的應(yīng)用已經(jīng)造成了一些難以應(yīng)對(duì)的風(fēng)險(xiǎn)。(1)人工智能歧視。大數(shù)據(jù)與人工智能技術(shù)的結(jié)合使復(fù)雜問題的分析往往伴隨著種族主義和性別歧視等傾向。(18)參見Kate Crawford, Can an Algorithm Be Agonistic?Ten Scenes from Life in Calculated Publics, 41. TECH. & HUM. VALUES 77, 82-83 (2016).且人工智能技術(shù)使歧視往往難以察覺,如不及時(shí)克服則極易固化為數(shù)據(jù)算法的內(nèi)在邏輯。例如在法律實(shí)施的人工智能程序中,黑人被誤判犯罪的概率已然高于其他人種。(19)參見Julia Angwin et al., Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks. PROPUBLICA (May 23, 2016),https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing歧視問題在數(shù)據(jù)算法設(shè)計(jì)之時(shí)就應(yīng)當(dāng)被盡量排除。(2)安全風(fēng)險(xiǎn)。自動(dòng)駕駛等智能技術(shù)可以通過減少人為失誤的方式提高出行安全,但軟件缺陷等原因亦可造成新的安全風(fēng)險(xiǎn)。在及時(shí)的風(fēng)險(xiǎn)選擇時(shí),無人駕駛技術(shù)可能面臨著道德困境。(20)以無人駕駛技術(shù)為例,該技術(shù)在面臨一個(gè)人的生命與一群人生命的兩難選擇時(shí),很可能遭遇道德困境。此外,個(gè)人信息安全問題則在疾病診斷智能應(yīng)用方面比較突出。(3)人工智能在司法裁判中的應(yīng)用風(fēng)險(xiǎn)。人工智能在裁判、法律解釋中的運(yùn)用可以提高司法過程的透明度與一致性,(21)參見Maria Jean J. Hall et al., Supporting Discretionary Decision-Making with Information Technology: A Case Study in the Criminal Sentencing Jurisdiction, 2 U. OTTAWA L. & TECH. J. 1, 31 (2005)但其一直遭受著自由裁量與具體案件具體分析能力不足的批判。(22)參見Paul Lippe, Daniel Martin Katz & Dan Jackson, Legal by Design: A New Paradigm for Handling Complexity in Banking Regulation and Elsewhere in Law, 93 OR. L. REV. 833, 849 (2015).在缺乏明確法律規(guī)范作為依據(jù)的場(chǎng)合下,法律原則及價(jià)值理念的考量需要較強(qiáng)的自由裁量能力。與此同時(shí),司法裁判的做出需要推理能力和直覺判斷能力并考察判決的社會(huì)效果,這些皆不是人工智能的強(qiáng)項(xiàng)。歐盟2016年頒布的《一般數(shù)據(jù)保護(hù)條例》第22條第一款則直接創(chuàng)設(shè)了一種新型的數(shù)據(jù)權(quán)利,即不必遵循純粹人工智能程序做出的決定的權(quán)利,(23)參見歐盟《一般數(shù)據(jù)保護(hù)條例》(中文譯本),丁曉東譯,http://www.zhichanli.com/article/6398.html。這直接要求司法判決中必須有人力的參與。(4)非獨(dú)特性風(fēng)險(xiǎn),以結(jié)構(gòu)性失業(yè)為典型。人工智能帶來的高效率、高安全性很可能徹底改變用工狀態(tài),(24)參見Carl Benedikt Frey & Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, 114 TECH. FORECASTING & SOC. CHANGE. 254, 261 (2017).造成結(jié)構(gòu)性失業(yè),一些人力勞動(dòng)將徹底被人工智能取代,由此造成的社會(huì)影響是需要認(rèn)真分析的。

通過對(duì)人工智能主要特征及應(yīng)用狀況的分析,人工智能風(fēng)險(xiǎn)規(guī)制的現(xiàn)實(shí)需求得以充分展現(xiàn)。風(fēng)險(xiǎn)規(guī)制必須進(jìn)一步厘清人工智能風(fēng)險(xiǎn)的獨(dú)特屬性及其規(guī)制困境,才能對(duì)癥下藥,分析尋找人工智能風(fēng)險(xiǎn)規(guī)制的可行出路。

二、人工智能的風(fēng)險(xiǎn)屬性及其規(guī)制困境

基于人工智能及其研究開發(fā)的相應(yīng)特征,人工智能風(fēng)險(xiǎn)呈現(xiàn)出如下獨(dú)特屬性。首先,私人企業(yè)在人工智能開發(fā)中的主導(dǎo)作用導(dǎo)致了信息的嚴(yán)重不對(duì)稱,多學(xué)科交叉與前沿知識(shí)的運(yùn)用使相關(guān)風(fēng)險(xiǎn)在現(xiàn)有的認(rèn)知水平下具有不可知性。其次,不同人工智能可造成不同種類的風(fēng)險(xiǎn),相同人工智能在不同領(lǐng)域的應(yīng)用亦可能造成不同種類或不同程度的風(fēng)險(xiǎn)。與此同時(shí),風(fēng)險(xiǎn)具備較強(qiáng)的可變性,在規(guī)制真空的狀態(tài)下,低水平風(fēng)險(xiǎn)很可能在短時(shí)間內(nèi)發(fā)展為較強(qiáng)的風(fēng)險(xiǎn),這種多樣性與變動(dòng)性對(duì)規(guī)制提出了嚴(yán)峻挑戰(zhàn)。再次,人工智能風(fēng)險(xiǎn)還是一種典型的系統(tǒng)性風(fēng)險(xiǎn)。(25)參見Ortwin Renn & Andreas Klinke, Systemic Risks: A New Challenge for Risk Management, 5 EUR. MOLECULAR BIOLOGY ORG. REP. 41, (2004).人工智能的應(yīng)用被嵌入在非常復(fù)雜且相互影響的社會(huì)、金融等系統(tǒng)之中,系統(tǒng)與系統(tǒng)之間、系統(tǒng)內(nèi)部諸要素之間的關(guān)聯(lián)性擴(kuò)大了風(fēng)險(xiǎn)的潛在影響。系統(tǒng)環(huán)境越是復(fù)雜與非線性,相應(yīng)風(fēng)險(xiǎn)就越容易被系統(tǒng)的關(guān)聯(lián)效應(yīng)放大,以致影響多方面的利益相關(guān)者。最后,人工智能風(fēng)險(xiǎn)亦具備兩面性。規(guī)制失敗造成的風(fēng)險(xiǎn)應(yīng)當(dāng)被充分考量。企業(yè)家與技術(shù)開發(fā)者往往對(duì)規(guī)制懷有一定程度的恐懼,其認(rèn)為除非技術(shù)創(chuàng)新對(duì)社會(huì)發(fā)展造成嚴(yán)重的損害,否則創(chuàng)新不應(yīng)當(dāng)被阻止。(26)參見Adam Thierer, Technopanics, Threat Inflation, and the Danger of an Information Technology Precautionary Principle, 14 MINN. J.L. SCI. & TECH. 309, 339, 375 (2012).此外,規(guī)制措施的采取在很大程度上受到民眾意見的影響,這種影響很可能錯(cuò)誤地左右了規(guī)制機(jī)關(guān)的相應(yīng)選擇。人工智能的風(fēng)險(xiǎn)屬性決定了風(fēng)險(xiǎn)規(guī)制的具體困境。

(一)規(guī)制的滯后性

人工智能風(fēng)險(xiǎn)的不可知性與多樣性使規(guī)制者的步伐滯后于技術(shù)開發(fā)與運(yùn)用的腳步。風(fēng)險(xiǎn)的可變性與系統(tǒng)性亦導(dǎo)致規(guī)制者難以對(duì)風(fēng)險(xiǎn)的發(fā)展變化做出充足的預(yù)估與反應(yīng)。規(guī)制的滯后性往往具備正反饋效應(yīng),一時(shí)的滯后往往對(duì)技術(shù)開發(fā)者形成進(jìn)一步規(guī)避監(jiān)管的不當(dāng)激勵(lì),繼而造成規(guī)制的進(jìn)一步滯后。此外,規(guī)制者面向未來的監(jiān)管,往往因立法的缺失或模糊而難以及時(shí)采取行動(dòng),這在一定程度上造成了規(guī)制的掣肘。

規(guī)制的滯后性是造成規(guī)制對(duì)抗的重要原因?!翱屏指窭锲胬Ь场苯沂玖诉@一過程:在技術(shù)發(fā)展的早期,規(guī)制者往往因信息匱乏而無法采取行動(dòng);而伴隨時(shí)間的推移,相應(yīng)技術(shù)很可能根植于人類的日常生活,以至于規(guī)制者一旦采取行動(dòng)即遭受來自使用者、開發(fā)者、投資者的抵抗。(27)參見Graeme Laurie, Shawn HE Harmon & Fabiana Arzuaga,Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 6 (2012).人工智能技術(shù)的廣泛應(yīng)用使上述困境成為規(guī)制者面臨的主要難題。以“無人駕駛”技術(shù)為例,其廣告宣傳的主要亮點(diǎn)都是幫助用戶克服傳統(tǒng)汽車帶來的風(fēng)險(xiǎn),這使政府部門在面對(duì)新興風(fēng)險(xiǎn)時(shí)往往缺乏規(guī)制的積極性。新興產(chǎn)品的確對(duì)傳統(tǒng)產(chǎn)品形成了明顯的替代效應(yīng),但其很可能只在短期之內(nèi)或者某一方面具有克服風(fēng)險(xiǎn)的功效。長遠(yuǎn)或者通盤考慮,其可能造成新的風(fēng)險(xiǎn)。以目前的檢驗(yàn)、檢測(cè)技術(shù)難以直接高效地分析風(fēng)險(xiǎn)內(nèi)容及其發(fā)生的可能性。風(fēng)險(xiǎn)認(rèn)知上的挑戰(zhàn)極大地增加了規(guī)制的難度,盲目進(jìn)行全面禁止很可能阻礙技術(shù)創(chuàng)新。隨著無人駕駛技術(shù)的推廣,利益相關(guān)者特別是被規(guī)制者的俘獲或阻撓將成為新興風(fēng)險(xiǎn)難以規(guī)制的重要原因。當(dāng)規(guī)制者以相對(duì)消極的方式進(jìn)行信息收集時(shí),新興產(chǎn)業(yè)也在采取應(yīng)對(duì)措施。(28)在新興技術(shù)研發(fā)運(yùn)用的初始階段,相應(yīng)規(guī)制的拖延容易導(dǎo)致兩種類型的政治阻力。最常見的是利益集團(tuán)的媾和。奧爾森在《集體行動(dòng)的邏輯》中指出,規(guī)模較小但集中化的利益集團(tuán)比規(guī)模大而分散的社會(huì)公眾更能對(duì)規(guī)制政策產(chǎn)生影響。與此同時(shí),規(guī)制立法及其實(shí)施往往以犧牲利益集團(tuán)的利益為代價(jià),換取社會(huì)公眾的利益實(shí)現(xiàn)。正反兩個(gè)方面相互結(jié)合,規(guī)制成敗在很大程度上受利益集團(tuán)特別是被規(guī)制企業(yè)的干擾。參見[美]曼瑟爾.奧爾森:《集體行動(dòng)的邏輯》,上海人民出版社1995年版。即使未來規(guī)制主體可以為規(guī)制措施構(gòu)建正當(dāng)化基礎(chǔ),被規(guī)制對(duì)象也很可能已經(jīng)獲取了與規(guī)制者討價(jià)還價(jià)的“政治資本”。(29)在這個(gè)過程中,被規(guī)制企業(yè)可以通過收集信息、進(jìn)行有利于自己的實(shí)驗(yàn)甚至采取擴(kuò)張雇傭規(guī)模的方式獲得抵抗規(guī)制的籌碼。此外,社會(huì)公眾對(duì)風(fēng)險(xiǎn)的認(rèn)知更傾向于“體驗(yàn)——情感模式”,(30)對(duì)公眾風(fēng)險(xiǎn)認(rèn)知模式的總結(jié),參見戚建剛:《風(fēng)險(xiǎn)認(rèn)知模式及其行政法制意蘊(yùn)》,載《法學(xué)研究》2009年第5期。其風(fēng)險(xiǎn)的判斷更多立足于感官刺激,對(duì)新興風(fēng)險(xiǎn)的認(rèn)知更加缺乏理性的判斷。(31)不論是日本福島核電站放射性泄露,還是恐怖分子襲擊,有些風(fēng)險(xiǎn)是可以帶給民眾比較直接的感官刺激。不僅政府規(guī)制的積極性較高,民眾的規(guī)制呼聲也比較高漲。而對(duì)以技術(shù)創(chuàng)新為表現(xiàn)形式的“新興風(fēng)險(xiǎn)”而言,盡管風(fēng)險(xiǎn)發(fā)生的蓋然性很可能遠(yuǎn)遠(yuǎn)高于放射性泄露的發(fā)生概率,危害亦可能高于恐怖襲擊等風(fēng)險(xiǎn)形式,政府與民眾依舊對(duì)其不夠重視。這正反映了一種尷尬的局面——“大量的資源被消耗在微笑或者主觀猜測(cè)的風(fēng)險(xiǎn)上,而其他應(yīng)當(dāng)關(guān)注的風(fēng)險(xiǎn)卻未啟動(dòng)相應(yīng)的程序”。參見楊小敏、戚建剛:《風(fēng)險(xiǎn)最糟糕情景認(rèn)知模式及行政法制之改革》,載《法律科學(xué)》2012年第2期。國外學(xué)者亦分析了這一現(xiàn)象,以飛機(jī)失事事件為例,可以生動(dòng)形象地引起公眾生理反應(yīng)的風(fēng)險(xiǎn)常常引發(fā)較強(qiáng)的規(guī)制訴求。See Timur Kuran & Cass R. Sunstein, Availability Cascades and Risk Regulation, 51 STAN. L. REV. 683, 706 (1999).當(dāng)新興技術(shù)博取了社會(huì)公眾足夠認(rèn)可時(shí),規(guī)制很可能面臨來自社會(huì)公眾的對(duì)抗,這種對(duì)抗往往成為影響規(guī)制成敗的重要因素。

規(guī)制的滯后與規(guī)制的對(duì)抗在很大程度上形成了封閉的惡性循環(huán)。規(guī)制的滯后導(dǎo)致了規(guī)制對(duì)抗的出現(xiàn),而規(guī)制的對(duì)抗又反過來加劇規(guī)制的滯后性。如何打破規(guī)制的惡性循環(huán)成為人工智能風(fēng)險(xiǎn)規(guī)制的主要困境之一。

(二)傳統(tǒng)規(guī)制的僵化與失靈

目前風(fēng)險(xiǎn)規(guī)制主要依賴事前與事后兩種模式解決問題:以準(zhǔn)入規(guī)制為代表的事前規(guī)制模式主張,當(dāng)風(fēng)險(xiǎn)因素造成對(duì)人類健康或生存環(huán)境的威脅,預(yù)防性的措施就應(yīng)當(dāng)被采取,即使有些因果關(guān)系尚未被充分科學(xué)地建立。以司法裁判和行政處罰為代表的事后模式則只在造成實(shí)際損害,或有切實(shí)證據(jù)證明相應(yīng)行為一旦持續(xù),將很可能造成損害結(jié)果時(shí)才能啟動(dòng)相應(yīng)的程序。而在人工智能的視野下,傳統(tǒng)規(guī)制面臨著僵化與失靈的困境。

規(guī)制者在進(jìn)行人工智能產(chǎn)品的準(zhǔn)入規(guī)制時(shí),往往無法在準(zhǔn)入與否與準(zhǔn)入條件等方面進(jìn)行準(zhǔn)確的判斷。規(guī)制者很可能傾向于禁止新產(chǎn)品的商業(yè)化以回應(yīng)公眾擔(dān)憂,即使沒有證據(jù)證明這種擔(dān)憂有可靠依據(jù)。準(zhǔn)入規(guī)制上“全有或全無”的僵化做法為企業(yè)的發(fā)展造成了不確定性,很容易損害技術(shù)創(chuàng)新效益。桑斯坦通過總結(jié)新技術(shù)發(fā)展過程中的管制狀況指出,人們總是傾向于過分擔(dān)憂技術(shù)創(chuàng)新造成的損失。(32)參見Cass R. Sunstein, Beyond the Precautionary Principle, 151 U. PA. L. REV. 1003, 1009(2003).他認(rèn)為規(guī)制者應(yīng)當(dāng)避免對(duì)尚未認(rèn)定清楚的未來風(fēng)險(xiǎn)進(jìn)行過度嚴(yán)苛的管制。

人工智能風(fēng)險(xiǎn)規(guī)制在很大程度上是進(jìn)行取舍的過程。即使具備一定依據(jù),嚴(yán)格的風(fēng)險(xiǎn)預(yù)防措施亦難以符合效益原則。此時(shí),風(fēng)險(xiǎn)規(guī)制似乎陷入悖論之中:風(fēng)險(xiǎn)的不確定性已然賦予規(guī)制主體較大的自由裁量權(quán),如果依舊進(jìn)行舉證責(zé)任的倒置,則會(huì)使行政相對(duì)人處于非常不利的位置,致使規(guī)制主體更容易擺脫程序的制約,而如果舉證責(zé)任由規(guī)制機(jī)構(gòu)承擔(dān),則畸高的成本使預(yù)防原則難以發(fā)揮作用。盡管健康、安全、生態(tài)環(huán)境的重要性不言而喻,但大部分風(fēng)險(xiǎn)并非真正不可逆,以該模式對(duì)創(chuàng)新活動(dòng)進(jìn)行禁止或嚴(yán)格的限制將形成規(guī)制的路徑依賴,進(jìn)行糾正的難度是相當(dāng)大的。

另一方面,事后規(guī)制則面臨著失靈的困境。支持事后規(guī)制的觀點(diǎn)認(rèn)為,賠償責(zé)任的追究可以提供充足的威懾。但風(fēng)險(xiǎn)規(guī)制的不確定性,導(dǎo)致事后機(jī)制的發(fā)揮遭受較大的阻力。因果關(guān)系的證明上存在較大的難度,舉證責(zé)任的倒置也只能在有限的范圍發(fā)揮作用。人工智能風(fēng)險(xiǎn)往往涉及諸多利益相關(guān)者,事后責(zé)任的分配不僅繁瑣,更存在理論上的困難。在訴訟程序上,小額集團(tuán)訴訟等制度短板亦限制了事后責(zé)任追究機(jī)制的發(fā)揮。(33)即使在美國,發(fā)散性的風(fēng)險(xiǎn)侵害亦難以通過司法機(jī)制進(jìn)行權(quán)益的維護(hù)。See Christopher H. Schroeder, Lost in the Translation: What Environmental Regulation Does that Tort Cannot Duplicate, 41 WASHBURN L.J. 583, 601 (2002).風(fēng)險(xiǎn)的潛伏性,不僅增加了調(diào)查取證的難度,侵害的不可預(yù)知性亦常常作為被告的辯解理由。(34)以我國《產(chǎn)品質(zhì)量法》第29條為例,該條列舉的生產(chǎn)者不承擔(dān)賠償責(zé)任的具體情形中包括“將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的”,這樣的規(guī)定在風(fēng)險(xiǎn)規(guī)制領(lǐng)域很容易成為生產(chǎn)者推卸責(zé)任的理由。被告的償付能力亦是風(fēng)險(xiǎn)規(guī)制中需要考察的環(huán)節(jié),被告出現(xiàn)財(cái)務(wù)困難以致破產(chǎn)的情況將導(dǎo)致受害人清償難以實(shí)現(xiàn)。即使在訴訟機(jī)制相對(duì)健全的美國,環(huán)境侵權(quán)等案件中私法責(zé)任追究機(jī)制亦只能發(fā)揮較弱的威懾作用。(35)參見Troyen A. Brennan, Environmental Torts, 46 VAND. L. REV. 1, 6 (1993).

行政處罰等規(guī)制措施在信息不足的情況下亦面臨著失靈困境。首先,大量與規(guī)制有關(guān)的信息被掌握在作為信息源的創(chuàng)新主體手中,市場(chǎng)創(chuàng)新主體亦有強(qiáng)烈的動(dòng)機(jī)選擇性地披露對(duì)自己有利的信息。即使證明創(chuàng)新的益處遠(yuǎn)遠(yuǎn)超過其弊端,開發(fā)企業(yè)亦不愿意披露克服弊端的方法或其他信息,原因在于弊端的克服對(duì)于創(chuàng)新者而言往往意味著新的商機(jī)。其次,事后規(guī)制為被規(guī)制者留下充足的時(shí)間進(jìn)行聯(lián)合對(duì)抗,規(guī)制者很容易錯(cuò)失規(guī)制良機(jī)。從根本上看,處罰措施構(gòu)建起的規(guī)制對(duì)壘無法為人工智能風(fēng)險(xiǎn)防控營造合適的規(guī)制氛圍。

(三)合作規(guī)制的現(xiàn)實(shí)困境

規(guī)制合作問題是困擾新興技術(shù)行業(yè)監(jiān)管的主要問題。(36)參見Stuart Minor Benjamin & Arti K. Rai, Fixing Innovation Policy: A Structural Perspective, 77 GEO. WASH. L. REV. 1, 3-5 (2008);首先,人工智能技術(shù)開發(fā)本身具有強(qiáng)烈的跨學(xué)科屬性,且相同的人工智能技術(shù)很可能在不同行業(yè)進(jìn)行應(yīng)用,這在根本上決定了規(guī)制機(jī)構(gòu)之間合作的必要性。其次,行業(yè)內(nèi)部已經(jīng)發(fā)展起一些行為準(zhǔn)則或產(chǎn)業(yè)標(biāo)準(zhǔn),規(guī)制機(jī)構(gòu)應(yīng)當(dāng)兼顧行業(yè)內(nèi)部的行為準(zhǔn)則與自我規(guī)制,形成公私規(guī)制的良性互動(dòng)。最后,人工智能風(fēng)險(xiǎn)規(guī)制應(yīng)當(dāng)更加強(qiáng)調(diào)問題導(dǎo)向性,并成立專門的委員會(huì)以處理規(guī)制機(jī)構(gòu)之間、公共規(guī)制與自我規(guī)制之間、硬法與軟法之間、法律與道德之間、經(jīng)濟(jì)發(fā)展與其他效益之間的矛盾問題。由此可見,合作機(jī)制成為人工智能規(guī)制必須解決的重要問題。其反映了規(guī)制“去中心化”的趨勢(shì)——沒有哪一方主體可以在人工智能風(fēng)險(xiǎn)規(guī)制中居于絕對(duì)的主動(dòng)地位或中心位置。(37)參見Julia Black, Critical Reflections on Regulation, 27 AUSTL. J. LEGAL PHIL. 8 (2002).人工智能風(fēng)險(xiǎn)規(guī)制的諸多困境與規(guī)制資源的分散化決定了人工智能風(fēng)險(xiǎn)規(guī)制只能是多方主體平等參與的開發(fā)性場(chǎng)域。當(dāng)然,合作規(guī)制的過程中亦應(yīng)當(dāng)防止規(guī)制俘獲。規(guī)制者和被規(guī)制者的頻繁互動(dòng)大大增加了規(guī)制俘獲的可能性。相較于其他技術(shù)創(chuàng)新領(lǐng)域,人工智能領(lǐng)域則更加容易出現(xiàn)交叉任職的情況。人工智能技術(shù)知識(shí)與專家意見被人工智能企業(yè)的高級(jí)雇員掌握,這使得規(guī)制者傾向于雇傭前述人員參與規(guī)制。這種交叉任職的情況,大大增加了規(guī)制俘獲的可能性。

綜上所述,人工智能風(fēng)險(xiǎn)的獨(dú)特屬性決定了規(guī)制的多重困境。現(xiàn)行規(guī)制主要依托法律命令和行政制裁等手段的直接應(yīng)用,政府部門被認(rèn)為是合理壟斷規(guī)制資源和規(guī)制權(quán)力的規(guī)制中心,由此造成了規(guī)制的滯后與失靈,難以滿足合作規(guī)制的現(xiàn)實(shí)需要。尋求規(guī)制思路的變革成為走出規(guī)制困境的關(guān)鍵。

三、實(shí)驗(yàn)型規(guī)制:人工智能風(fēng)險(xiǎn)規(guī)制的可行出路

在過去20年間發(fā)展形成的回應(yīng)型規(guī)制理論,在很大程度上對(duì)傳統(tǒng)規(guī)制形成了變革與替代,其能否為人工智能風(fēng)險(xiǎn)規(guī)制提供相應(yīng)的理論指導(dǎo)是需要探討的問題?;貞?yīng)型理論的出現(xiàn)展現(xiàn)了單一命令型規(guī)制向可控性和適應(yīng)性更強(qiáng)的復(fù)合型規(guī)制體系變遷的整體趨勢(shì),但該理論的局限性決定了其無法成為人工智能風(fēng)險(xiǎn)規(guī)制的理論基礎(chǔ)。

(一)回應(yīng)型規(guī)制理論及其局限性

典型的回應(yīng)型規(guī)制理論從法社會(huì)學(xué)與經(jīng)濟(jì)學(xué)的角度倡導(dǎo)規(guī)制手段的譜系化,以此實(shí)現(xiàn)政府規(guī)制與非政府規(guī)制的合作與互動(dòng)。(38)參見John Braithwaite, The Essence of Responsive Regulation, 44 U.B.C. L. REV. 475, 480-83 (2011).其遵循以下原則:(1)任何規(guī)制措施應(yīng)當(dāng)是針鋒相對(duì)的選擇,(2)首先考慮使用說服教育和自我監(jiān)管的措施,(3)政府的強(qiáng)制性措施作為最后選擇,(4)規(guī)制強(qiáng)度應(yīng)當(dāng)逐步提升。(39)參見Ayers, J. Braithwaite. Responsive Regulation : Transcending the Deregulation Debate. Oxford: Oxford University Press,1992,p.6,37,38.與之對(duì)應(yīng),整體規(guī)制策略則可分為自我規(guī)制、強(qiáng)化型自我規(guī)制和命令強(qiáng)制型規(guī)制三種類型,具體規(guī)制手段也形成了由弱及強(qiáng)的金字塔體系。在此基礎(chǔ)上,“聰明監(jiān)管”理念的提出使原有單面的金字塔體系演化為三面金字塔體系,第一面是政府監(jiān)管,第二面是企業(yè)自我監(jiān)管,第三面是第三方監(jiān)管。(40)參見Dirk A. Zetzsche; Ross P. Buckley; Janos N. Barberis; Douglas W. Arner, Regulating a Revolution: From Regulatory Sandboxes to Smart Regulation, 23 Fordham J. Corp. & Fin. L. 94-98 (2017).在具體的規(guī)制任務(wù)面前,規(guī)制者不僅可以增加直接監(jiān)管的強(qiáng)度,還可以強(qiáng)化企業(yè)的自我監(jiān)管與第三方監(jiān)管。還有學(xué)者基于回應(yīng)型理論提出了雙層監(jiān)管的構(gòu)想,將建立有效內(nèi)部監(jiān)管體系的企業(yè)放入第一層級(jí),政府部門可以減少對(duì)它們的直接規(guī)制轉(zhuǎn)而對(duì)企業(yè)內(nèi)部監(jiān)管體系進(jìn)行補(bǔ)充監(jiān)督;而尚未建立起嚴(yán)密監(jiān)管體系的企業(yè)則被放入第二個(gè)層級(jí),對(duì)之保持著傳統(tǒng)的命令型規(guī)制。(41)參見楊炳霖:《監(jiān)管治理體系建設(shè)理論范式與實(shí)踐路徑研究——回應(yīng)性監(jiān)管理論的啟示》,載《中國行政管理》2014年第6期。由此可見,回應(yīng)型規(guī)制理論旨在轉(zhuǎn)變政府自身定位,由原來的直接規(guī)制者轉(zhuǎn)變?yōu)橐?guī)制體系的構(gòu)建者,通過制度構(gòu)建保證其他非政府組織的主體地位,并激發(fā)自我監(jiān)管的意愿和能力。立足回應(yīng)型理論,一些專門針對(duì)現(xiàn)代風(fēng)險(xiǎn)的規(guī)制理論得以提出。(42)參見Julia Black & Robert Baldwin, Really Responsive Risk-Based Regulation, 32 LAW POL'Y 181, 193, 210 (2010).如“真正風(fēng)險(xiǎn)回應(yīng)型理論”主張風(fēng)險(xiǎn)規(guī)制應(yīng)當(dāng)對(duì)被規(guī)制企業(yè)的態(tài)度、行為、文化氛圍、機(jī)構(gòu)環(huán)境、交互控制等方面作出回應(yīng),規(guī)制者應(yīng)當(dāng)積極探查不服從行為,并以不斷發(fā)展變化的策略和手段積極應(yīng)對(duì)這些行為,在確保規(guī)制措施得以實(shí)施的前提下,評(píng)估規(guī)制措施的成效并積極進(jìn)行相應(yīng)的調(diào)整。(43)Id.

不可否認(rèn),這些理論在風(fēng)險(xiǎn)規(guī)制領(lǐng)域發(fā)揮著重要作用,但依舊無法因應(yīng)人工智能風(fēng)險(xiǎn)規(guī)制的困境。

首先,人工智能風(fēng)險(xiǎn)面臨的規(guī)制信息匱乏與不對(duì)稱的程度遠(yuǎn)遠(yuǎn)超過以往風(fēng)險(xiǎn),政府部門已經(jīng)不再位于信息獲取與發(fā)布的中心位置。人工智能的飛速發(fā)展為規(guī)制者勾畫出急劇上升的學(xué)習(xí)曲線,這些因素都使風(fēng)險(xiǎn)規(guī)制具備很強(qiáng)的不可預(yù)見性,而回應(yīng)型規(guī)制實(shí)際依舊以風(fēng)險(xiǎn)的可預(yù)見性為依托。(44)以往風(fēng)險(xiǎn)規(guī)制往往以相對(duì)明確的科學(xué)依據(jù)和經(jīng)驗(yàn)事實(shí)作為支撐,因此那些方面的風(fēng)險(xiǎn)規(guī)制相當(dāng)于“預(yù)防相對(duì)確定的危害結(jié)果出現(xiàn)”。面粉添加劑的存廢之爭(zhēng)就是很好的例子,參見沈巋:《風(fēng)險(xiǎn)預(yù)防原則與食品添加劑準(zhǔn)入裁量》,載《北京行政學(xué)院學(xué)報(bào)》2012年第6期。盡管回應(yīng)型規(guī)制強(qiáng)調(diào)多元規(guī)制主體的廣泛參與,但這種規(guī)制的多元化實(shí)際是政府部門在一定風(fēng)險(xiǎn)分析基礎(chǔ)上主動(dòng)對(duì)規(guī)制權(quán)力進(jìn)行再次分配的結(jié)果,充足的風(fēng)險(xiǎn)分析與政府主導(dǎo)的多元化在人工智能領(lǐng)域皆難以實(shí)現(xiàn)?;貞?yīng)型規(guī)制倡導(dǎo)的教育、激勵(lì)等手段亦建立在信息相對(duì)充分、行業(yè)透明度較高的前提下,這與人工智能行業(yè)的發(fā)展現(xiàn)狀與未來趨勢(shì)頗為不符,回應(yīng)型理論在很大程度上無助于解決規(guī)制滯后的困境。

其次,盡管回應(yīng)型理論旨在形成立體化的規(guī)制工具體系,但其形成的規(guī)制體系依舊以政府規(guī)制為絕對(duì)中心。而人工智能風(fēng)險(xiǎn)規(guī)制在知識(shí)層面上的割裂以及相關(guān)技術(shù)的多樣性、分散性,導(dǎo)致該領(lǐng)域風(fēng)險(xiǎn)規(guī)制難以實(shí)現(xiàn)政府規(guī)制的絕對(duì)中心化,相應(yīng)的規(guī)制應(yīng)當(dāng)是多方主體基于信息反饋而互相合作的結(jié)果?;貞?yīng)型理論難以為風(fēng)險(xiǎn)規(guī)制構(gòu)建起平等合作的開放式場(chǎng)域。

再次,盡管在人工智能領(lǐng)域也可使用自我規(guī)制的概念去形容企業(yè)進(jìn)行風(fēng)險(xiǎn)防控的過程,但人工智能領(lǐng)域的自我規(guī)制與政府主導(dǎo)下的雙層規(guī)制體系有很大的不同,前者是在政府規(guī)制真空的狀態(tài)下由開發(fā)者自發(fā)形成的規(guī)制,盡管這種自發(fā)性往往源自對(duì)政府規(guī)制滯后的無奈與擔(dān)憂。(45)以2014年谷歌并購深思科技為例,并購一經(jīng)獲批,谷歌公司就宣布成立人工智能監(jiān)管理事會(huì)以應(yīng)對(duì)人工智能風(fēng)險(xiǎn)。參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 387 (2017).這種自我規(guī)制與回應(yīng)型理論下由政府設(shè)定相應(yīng)規(guī)制目標(biāo)的自我規(guī)制相比更加具備能動(dòng)性與不可控性。若政府部門可以找尋平等合作的途徑,則可能出現(xiàn)規(guī)制雙贏的結(jié)果,否則很可能導(dǎo)致規(guī)制資源的消耗與規(guī)制對(duì)抗。在自我規(guī)制的過程中,相應(yīng)的知識(shí)、信息、規(guī)則、原則亦通過自我規(guī)制的過程進(jìn)行自下而上的創(chuàng)造,這在很大程度上消解了政府規(guī)制的權(quán)威性,(46)以發(fā)達(dá)國家人工智能的自我規(guī)制為例,在美國,谷歌、亞馬遜、微軟、蘋果以及美國人工智能發(fā)展協(xié)會(huì)通力合作,制定了一系列的人工智能發(fā)展備忘錄。無獨(dú)有偶,美國電子電器工程師協(xié)會(huì)則提出了《道德化設(shè)計(jì):人工智能時(shí)代人機(jī)相處的信任機(jī)制》文件,以促進(jìn)人工智能的自我規(guī)制。Id.at 431-433.規(guī)則制定權(quán)的分化無形中為政府規(guī)制制造了外在壓力。在這樣的背景下,雙層規(guī)制等策略當(dāng)然是難以實(shí)現(xiàn)的。最后,回應(yīng)型規(guī)制在人力物力、組織能力等方面的水平與人工智能的規(guī)制需求不相匹配,這直接限制了回應(yīng)型規(guī)制的適用空間。

在此背景下,美國學(xué)界提出一些新的規(guī)制策略以應(yīng)對(duì)快速發(fā)展的新興風(fēng)險(xiǎn)。例如,(1)以暫時(shí)性規(guī)制措施強(qiáng)化風(fēng)險(xiǎn)規(guī)制的靈活性,通過實(shí)驗(yàn)性立法與落日條款的方式確定可調(diào)整的規(guī)制手段與目標(biāo),通過法律規(guī)范與規(guī)制措施的調(diào)整以適應(yīng)不斷發(fā)展變化的整體環(huán)境。(47)參見Shawn HE Harmon & Fabiana Arzuaga, Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 1, 3 (2012).(2)以“規(guī)制沙箱”的方式允許企業(yè)實(shí)施與檢驗(yàn)新的規(guī)制思路,在這一過程中不必受已有法律規(guī)制的嚴(yán)格限制。(48)參見Luke G. Thomas, The Case for a Federal Regulatory Sandbox for Fintech Companies, 22 N.C. Banking Inst. 257 (2018).(3)積極借助信息反饋實(shí)現(xiàn)預(yù)期立法,以適應(yīng)規(guī)制過程中的偶然性。(49)參見Wendy Wagner; William West; Thomas McGarity; Lisa Peters, Dynamic Rulemaking, 92 N.Y.U. L. Rev. 192-194 (2017).人工智能風(fēng)險(xiǎn)規(guī)制必須處理好靈活性與可預(yù)見性的關(guān)系。受上述策略的啟發(fā),實(shí)驗(yàn)型的規(guī)制策略成為人工智能風(fēng)險(xiǎn)規(guī)制思路的可行之選。

(二)作為可行出路的實(shí)驗(yàn)型規(guī)制

實(shí)驗(yàn)型規(guī)制通常分為四個(gè)階段。首先,規(guī)制機(jī)關(guān)應(yīng)當(dāng)通過其掌握的初始信息,做出“初步可規(guī)制”的決定。第二,規(guī)制主體應(yīng)當(dāng)考察被規(guī)制者和相關(guān)民眾的意見,以決定實(shí)驗(yàn)的具體條件,實(shí)施相應(yīng)的實(shí)驗(yàn)。第三,必要之時(shí),規(guī)制主體可暫停某些特定活動(dòng),以確保實(shí)驗(yàn)的順利進(jìn)行;依據(jù)實(shí)驗(yàn)結(jié)果規(guī)制者可確定暫時(shí)性規(guī)制措施,以防止風(fēng)險(xiǎn)發(fā)生。第四,實(shí)驗(yàn)過程必須被合理地限制,以確保其具備合法性。

1.“初步可規(guī)制”決定的做出。如果現(xiàn)有的科學(xué)證據(jù)表明存在可置信的重大風(fēng)險(xiǎn)或潛在損害,那么該風(fēng)險(xiǎn)就具備初步的可規(guī)制性。規(guī)制者很難制定出初步可規(guī)制風(fēng)險(xiǎn)的量化標(biāo)準(zhǔn),也無法計(jì)算出相應(yīng)風(fēng)險(xiǎn)出現(xiàn)的具體概率。因此只能依靠以下的標(biāo)準(zhǔn)對(duì)人工智能風(fēng)險(xiǎn)進(jìn)行規(guī)制篩選:(1)技術(shù)具有革新甚至顛覆屬性,對(duì)傳統(tǒng)技術(shù)或產(chǎn)品有明顯的替代效應(yīng);(2)該技術(shù)以克服或減輕相關(guān)傳統(tǒng)產(chǎn)品的風(fēng)險(xiǎn)或危害為主要的宣傳依據(jù);(3)該技術(shù)問世前相關(guān)市場(chǎng)中并不存在類似的產(chǎn)品和技術(shù);(4)新興技術(shù)正在以較快的速度推廣,或者有可預(yù)見的較大的推廣空間。由于不同領(lǐng)域的風(fēng)險(xiǎn)往往由不同的部門進(jìn)行規(guī)制,因此風(fēng)險(xiǎn)規(guī)制并不需要統(tǒng)一的部門對(duì)新興風(fēng)險(xiǎn)進(jìn)行排序,不同領(lǐng)域的規(guī)制者可依照上述標(biāo)準(zhǔn)確定各自的規(guī)制任務(wù),并交由人工智能委員會(huì)進(jìn)行統(tǒng)籌安排。(50)人工智能委員會(huì)見本章第三節(jié)的論述。

初步可規(guī)制性的明確很可能遭遇疑難案件。首先,決定的做出需要克服科學(xué)實(shí)驗(yàn)的局限性問題??茖W(xué)本身是由無數(shù)次的失敗的結(jié)果,因此在哲學(xué)上常被人作為證偽過程的結(jié)果。(51)關(guān)于科學(xué)知識(shí)的可證偽性,參見[英]卡爾.波普爾:《開放社會(huì)及其敵人》,中國社會(huì)科學(xué)出版社1999年版?!霸诟叨炔淮_定性的領(lǐng)域,專家們無論如何調(diào)動(dòng)自己的學(xué)識(shí)和經(jīng)驗(yàn),作出推測(cè)、假定或者建議,也不一定能達(dá)到或者逼近絕對(duì)的真實(shí)?!?52)陳春生:《核能利用與法之規(guī)制》(增訂版),月旦出版社股份有限公司1995年版,第379頁。對(duì)目前的科學(xué)技術(shù)還難以進(jìn)行監(jiān)測(cè)分析的技術(shù)或人類行為,即使進(jìn)行實(shí)驗(yàn)亦難以開啟規(guī)制程序??茖W(xué)認(rèn)知水平的制約往往使初期的規(guī)制活動(dòng)都難以符合成本收益分析的要求,因此對(duì)實(shí)驗(yàn)周期較長、耗費(fèi)資金較大、同行評(píng)議或?qū)W界共識(shí)普遍認(rèn)為危害較小或不存在危害的創(chuàng)新活動(dòng),只能采取觀望的態(tài)度。其次,如何協(xié)調(diào)民意與專家意見之間的關(guān)系是急需解決的問題。有學(xué)者認(rèn)為,民眾意見在風(fēng)險(xiǎn)規(guī)制中承擔(dān)價(jià)值目標(biāo)確定的職能,而專家智識(shí)則決定了具體的規(guī)制措施和規(guī)制策略。(53)參見戚建剛:《風(fēng)險(xiǎn)規(guī)制過程合法性之證成——以公眾和專家的風(fēng)險(xiǎn)知識(shí)運(yùn)用為視角》,載《法商研究》2009年第5期。但在人工智能風(fēng)險(xiǎn)領(lǐng)域,民意對(duì)規(guī)制目標(biāo)的選定作用應(yīng)當(dāng)受到限制,規(guī)制主體應(yīng)當(dāng)在新興技術(shù)特別是具備顛覆性意義的技術(shù)創(chuàng)新面前保持警惕,在規(guī)制目標(biāo)的選擇上不應(yīng)完全順從民意而將規(guī)制資源集中在民眾關(guān)注的領(lǐng)域,而應(yīng)更加倚重科學(xué)分析的結(jié)果。

2.實(shí)驗(yàn)的具體實(shí)施。實(shí)驗(yàn)實(shí)施是風(fēng)險(xiǎn)規(guī)制的核心環(huán)節(jié),其有助于規(guī)制主體在確定規(guī)制策略前獲取充足的信息。實(shí)驗(yàn)型規(guī)制在克服規(guī)制的“確認(rèn)偏誤”(54)確認(rèn)偏誤是指認(rèn)識(shí)主體不論事實(shí)真相為何,都偏好于支持自己的成見或猜想的心理傾向。方面存在明顯的優(yōu)勢(shì)。受實(shí)驗(yàn)影響,規(guī)制主體更易具備開放性的視野。(55)規(guī)制過程中的確認(rèn)偏誤實(shí)際與規(guī)制的路徑依賴緊密相關(guān)。以往的規(guī)制措施在很大程度上影響規(guī)制主體看待新興風(fēng)險(xiǎn)的視角與方式,容易使規(guī)制主體運(yùn)用以往確定的規(guī)制路徑解決問題。特別是規(guī)制信息匱乏或較強(qiáng)的不確定性影響下,規(guī)制者在面對(duì)新興風(fēng)險(xiǎn)時(shí)不是選擇過分嚴(yán)格的事前管制就是放任不管。多元主體的平等參與和合作使信息獲取更加充分,規(guī)制者亦可構(gòu)建起反思規(guī)制措施可行性的場(chǎng)域。

具體而言,實(shí)驗(yàn)對(duì)象被分配至實(shí)驗(yàn)組、對(duì)照組等不同的組別。當(dāng)實(shí)驗(yàn)規(guī)模、實(shí)驗(yàn)次數(shù)達(dá)到一定要求,實(shí)驗(yàn)中采取的控制措施將有效地解釋不同分組出現(xiàn)差異的原因,進(jìn)而逐步積累有效的規(guī)制信息。在此過程中規(guī)制主體盡管沒有義務(wù)按照被規(guī)制者的風(fēng)險(xiǎn)規(guī)制方案進(jìn)行相應(yīng)的實(shí)驗(yàn),但實(shí)際上規(guī)制者往往有動(dòng)機(jī)考察被規(guī)制者的提議。原因不僅在于人工智能風(fēng)險(xiǎn)規(guī)制對(duì)平等合作的需求,還在于一旦規(guī)制主體依照實(shí)驗(yàn)結(jié)果制定了相應(yīng)的具體規(guī)則,規(guī)制的失敗將面臨被規(guī)制者以訴訟的方式而發(fā)起的挑戰(zhàn),在實(shí)驗(yàn)過程中參考被規(guī)制者的實(shí)驗(yàn)方案或者相關(guān)建議可以減少來自訴訟等方面的摩擦。此外,實(shí)驗(yàn)對(duì)象的選擇實(shí)現(xiàn)了民眾的參與,其不僅有助于增進(jìn)民眾對(duì)風(fēng)險(xiǎn)認(rèn)知結(jié)果的認(rèn)同和對(duì)規(guī)制措施的理解,還可以發(fā)揮民主監(jiān)督的重要作用。

在實(shí)驗(yàn)過程中,規(guī)制者將面臨著來自實(shí)踐和倫理上的雙重挑戰(zhàn)。來自實(shí)踐方面的挑戰(zhàn)包括:(1)實(shí)驗(yàn)對(duì)象中途退出實(shí)驗(yàn),(2)實(shí)驗(yàn)對(duì)象從一個(gè)組別轉(zhuǎn)換至另一組別,(3)交叉影響,即實(shí)驗(yàn)對(duì)象被其他組別采取的規(guī)制措施影響。實(shí)驗(yàn)主體的退出,可以通過擴(kuò)大樣品數(shù)量和預(yù)先進(jìn)行樣品配對(duì)的方式進(jìn)行解決。所謂預(yù)先配對(duì),是指將實(shí)驗(yàn)組與控制組之中的樣品提前進(jìn)行配對(duì),若一組中實(shí)驗(yàn)主體退出實(shí)驗(yàn),則與其匹配的對(duì)應(yīng)組中的主體亦被跟進(jìn)剔除的解決策略。而另外兩方面的問題則需通過跟蹤監(jiān)控的方式進(jìn)行一定程度上的克服。此外,實(shí)驗(yàn)還面臨著倫理層面的批判。實(shí)驗(yàn)對(duì)象的分組將直接影響不同組別主體的相應(yīng)待遇,特別是長期實(shí)驗(yàn)的存在,很可能使實(shí)驗(yàn)對(duì)象在試驗(yàn)條件下遭受的差別待遇長期存在。特別在醫(yī)學(xué)實(shí)驗(yàn)中,實(shí)驗(yàn)對(duì)象可能獲得較好的醫(yī)療條件或者新研制的藥物。因此,如果在醫(yī)學(xué)實(shí)驗(yàn)中對(duì)比組實(shí)驗(yàn)對(duì)象遭受了比較明顯的不利益,則實(shí)驗(yàn)措施應(yīng)當(dāng)及早停止。當(dāng)然,實(shí)驗(yàn)的實(shí)施必須符合成本收益原則,這集中體現(xiàn)在實(shí)驗(yàn)規(guī)模的確定上。即使實(shí)驗(yàn)規(guī)模的最佳邊際值難以精準(zhǔn)地確定,對(duì)實(shí)驗(yàn)的大致規(guī)模進(jìn)行科學(xué)謀劃是實(shí)施實(shí)驗(yàn)的必要條件。

3.暫停權(quán)與暫時(shí)性規(guī)制措施。暫停權(quán)的行使主要服務(wù)于兩個(gè)目標(biāo):確保合理的實(shí)驗(yàn)條件與防止利益集團(tuán)的對(duì)抗。首先,在確保有足夠多的實(shí)驗(yàn)對(duì)象參與實(shí)驗(yàn)的前提下,還應(yīng)按照實(shí)驗(yàn)計(jì)劃對(duì)不同組別的實(shí)驗(yàn)條件進(jìn)行控制,以對(duì)照組為例,規(guī)制者應(yīng)當(dāng)暫停該組實(shí)驗(yàn)對(duì)象對(duì)相應(yīng)產(chǎn)品的接觸,否則實(shí)驗(yàn)結(jié)果將受相關(guān)因素的干擾。其次,利益集團(tuán)特別是被規(guī)制企業(yè)的對(duì)抗能力主要由以下兩個(gè)因素決定:資金水平和組織能力。規(guī)制主體的暫停中止權(quán)可以有效減小企業(yè)聯(lián)合對(duì)抗的可能性:其一,暫停權(quán)的行使有助于限制風(fēng)險(xiǎn)創(chuàng)新企業(yè)的盈利能力。這種對(duì)盈利能力的限制可能是依據(jù)實(shí)驗(yàn)要求暫停相應(yīng)的技術(shù)開發(fā)或產(chǎn)品銷售的直接結(jié)果,亦有可能是向投資者釋放風(fēng)險(xiǎn)規(guī)制的政府傾向進(jìn)而導(dǎo)致投資熱情冷卻的間接結(jié)果。其二,對(duì)人工智能企業(yè)而言,經(jīng)驗(yàn)的缺失使其原本就難以形成企業(yè)之間的聯(lián)合。此時(shí)規(guī)制實(shí)驗(yàn)的出現(xiàn),將有效減緩被規(guī)制企業(yè)溝通與聯(lián)合的速率。

依據(jù)實(shí)驗(yàn)過程的階段性成果,規(guī)制者在必要之時(shí)可以采取暫時(shí)性的規(guī)制措施。規(guī)制者可為被規(guī)制企業(yè)的技術(shù)開發(fā)、產(chǎn)品銷售等經(jīng)營活動(dòng)設(shè)置時(shí)間、空間、強(qiáng)度或預(yù)防措施等方面的要求,與此同時(shí),規(guī)制者還可以限制風(fēng)險(xiǎn)產(chǎn)品的銷售,特別是向易受傷害的消費(fèi)者群體的銷售。鑒于暫時(shí)性規(guī)制措施對(duì)被規(guī)制企業(yè)的重大影響,規(guī)制俘獲的可能性是比較大的。利益俘獲理論早已指出,在位企業(yè)有俘獲規(guī)制者以提高相關(guān)行業(yè)市場(chǎng)準(zhǔn)入門檻、阻礙新興企業(yè)發(fā)展的動(dòng)機(jī),暫停權(quán)的俘獲則有助于傳統(tǒng)行業(yè)抵制新興技術(shù)的發(fā)展、削弱潛在的競(jìng)爭(zhēng)。因此,實(shí)驗(yàn)的實(shí)施亦要防止規(guī)制俘獲的出現(xiàn)。

4.合法性問題。風(fēng)險(xiǎn)規(guī)制在很大程度上對(duì)法律保留原則、比例原則形成了挑戰(zhàn),(56)參見趙鵬:《風(fēng)險(xiǎn)社會(huì)的自由與安全》,載《交大法學(xué)》2011年第1期。但這并不意味著風(fēng)險(xiǎn)規(guī)制可以擺脫合法性的制約。目前來看,我國并沒有嚴(yán)格法令制定程序(57)我國規(guī)制機(jī)關(guān)的規(guī)章制定并沒有可以遵循的嚴(yán)格的規(guī)則制定程序,而在美國,規(guī)制機(jī)構(gòu)從20世紀(jì)80年代開始就可以采取商談式的規(guī)則制定程序,1990年通過的《商談式法令制定法》對(duì)這種法令制定程序進(jìn)行了確認(rèn)。依據(jù)該法案,即使各方在規(guī)則制定中取得一致,通過商談方案制定的規(guī)則依舊要經(jīng)過公告與評(píng)議程序,特別是成本收益分析程序。參見Jody Freeman & Laura I. Langbein, Regulatory Negotiation and the Legitimacy Benefit, 9 N.Y.U. ENVTL. L.J.60 (2000).,針對(duì)人工智能的實(shí)驗(yàn)規(guī)制制定政府規(guī)章的可能性也比較小。替代性方案應(yīng)當(dāng)被提出,以滿足規(guī)制實(shí)驗(yàn)合法性的需要。首先,具體規(guī)制部門可制定臨時(shí)性規(guī)則對(duì)實(shí)驗(yàn)的合法性進(jìn)行確認(rèn);(58)具體規(guī)制部門主要指人工智能各個(gè)領(lǐng)域的監(jiān)管部門,如無人駕駛技術(shù)的監(jiān)管應(yīng)當(dāng)交由交通部門負(fù)責(zé),在制定實(shí)驗(yàn)方案時(shí),則應(yīng)主要參考相應(yīng)企業(yè)的意見與方案。其次,事后的司法審查機(jī)制可以為實(shí)驗(yàn)型規(guī)制提供一定制約。

臨時(shí)性規(guī)則方案是指具體規(guī)制部門針對(duì)規(guī)制實(shí)驗(yàn)制定臨時(shí)性具體規(guī)則的一種方案。首先,規(guī)制部門必須結(jié)合初始可規(guī)制風(fēng)險(xiǎn)的標(biāo)準(zhǔn),論證實(shí)驗(yàn)的必要性和可行性,制定具體的實(shí)驗(yàn)方案。此時(shí)向誰論證,由誰應(yīng)答成為風(fēng)險(xiǎn)規(guī)制需要解決的重要難題。由于民眾參與積極性以及科學(xué)知識(shí)儲(chǔ)備上的不足,向民眾進(jìn)行論證的可行性與有效性都比較弱。因此,實(shí)驗(yàn)方案的制定應(yīng)當(dāng)向人工智能委員會(huì)負(fù)責(zé)。實(shí)驗(yàn)方案應(yīng)當(dāng)包括初步可規(guī)制性分析、實(shí)驗(yàn)措施、實(shí)驗(yàn)對(duì)象分組、實(shí)驗(yàn)起止時(shí)間、預(yù)防補(bǔ)救措施等內(nèi)容。其次,在實(shí)驗(yàn)取得階段性成果后,規(guī)制部門應(yīng)當(dāng)制定臨時(shí)性規(guī)范文件,以確定針對(duì)某種新興風(fēng)險(xiǎn)的規(guī)制措施。該規(guī)制措施應(yīng)當(dāng)伴隨著規(guī)制實(shí)驗(yàn)的進(jìn)行不斷進(jìn)行調(diào)整或補(bǔ)充,并向前述委員會(huì)進(jìn)行定期的總結(jié)分析。最后,結(jié)合人工智能行業(yè)的自身特點(diǎn),相應(yīng)的行業(yè)標(biāo)準(zhǔn)、行為規(guī)范應(yīng)當(dāng)被充分采納進(jìn)規(guī)范性文件的制定之中。伴隨著風(fēng)險(xiǎn)認(rèn)知的不斷深化,待時(shí)機(jī)成熟之時(shí),規(guī)制主體可制定正式的規(guī)范性文件為常規(guī)規(guī)制提供合法性依據(jù),并結(jié)合新興產(chǎn)業(yè)的發(fā)展制定一系列有關(guān)市場(chǎng)準(zhǔn)入等方面的產(chǎn)業(yè)發(fā)展政策。

實(shí)驗(yàn)過程具備較強(qiáng)的不確定性,對(duì)其進(jìn)行制約還要發(fā)揮司法審查的作用。以時(shí)限性為例,實(shí)驗(yàn)過程中的限制性措施只能是暫時(shí)性的。脫離司法機(jī)制的制約,這些規(guī)制措施很容易對(duì)創(chuàng)新型企業(yè)造成持續(xù)損害。(59)規(guī)制措施的暫時(shí)性和永久性問題實(shí)際在深化改革的進(jìn)程中并不罕見。《行政許可法》第15條規(guī)定了地方政府創(chuàng)設(shè)臨時(shí)許可的權(quán)力,但臨時(shí)性行政許可實(shí)施滿一年的,應(yīng)當(dāng)提請(qǐng)本級(jí)人民代表大會(huì)及其常務(wù)委員會(huì)制定地方性法規(guī)。而正是由于司法審查機(jī)制的不暢,導(dǎo)致許多地方政府創(chuàng)設(shè)的暫時(shí)性行政許可長期存在。盡管基于尊重規(guī)制能動(dòng)性的司法克制理念,具體實(shí)驗(yàn)中的技術(shù)問題一般不屬于司法審查的范疇,但實(shí)驗(yàn)及相關(guān)限制性措施的起止時(shí)間、適用對(duì)象等方面應(yīng)當(dāng)接受司法審查。目前來看,被規(guī)制者及其他利益相關(guān)者提起行政訴訟是進(jìn)行司法審查的主要途徑。

(三)人工智能委員會(huì)的設(shè)立與實(shí)驗(yàn)權(quán)力的配置

權(quán)力配置問題是實(shí)驗(yàn)型規(guī)制必須解決的重要問題。規(guī)制的合作性決定了規(guī)制權(quán)力必須在政府部門與人工智能開發(fā)者之間,以及中央與地方政府部門之間進(jìn)行合理的配置。國外人工智能風(fēng)險(xiǎn)規(guī)制已經(jīng)為我國提供了比較成熟的借鑒經(jīng)驗(yàn),主管部門、人工智能大型企業(yè)、獨(dú)立科研機(jī)構(gòu)與民眾代表應(yīng)當(dāng)協(xié)同籌建人工智能委員會(huì),作為決定實(shí)驗(yàn)權(quán)力配置等重大問題的決策機(jī)構(gòu)。

一般而言,人工智能研究開發(fā)的相關(guān)信息掌握在開發(fā)者手中,實(shí)驗(yàn)樣本的選擇與具體方案的確定可以由開發(fā)者作為主要的策劃者,政府部門則更多從風(fēng)險(xiǎn)的系統(tǒng)性及其他偶行性因素的角度進(jìn)行相應(yīng)的補(bǔ)充。而實(shí)驗(yàn)的具體實(shí)施權(quán)則需要委員會(huì)權(quán)衡地方試點(diǎn)型與中央主導(dǎo)型兩種模式的利弊。規(guī)制實(shí)驗(yàn)可以大致分為有關(guān)技術(shù)可行性的規(guī)制實(shí)驗(yàn)與實(shí)踐反饋的規(guī)制實(shí)驗(yàn)兩種類別,盡管兩種類別并不存在涇渭分明的界限。(60)以無人駕駛為例,技術(shù)可行性與實(shí)踐的反饋是緊密結(jié)合的兩個(gè)部分。盡管在技術(shù)開發(fā)初期,技術(shù)可行性主要是通過科技人員進(jìn)行技術(shù)攻關(guān)的方式實(shí)現(xiàn)的,但隨著技術(shù)開發(fā)的深入,技術(shù)可行性的提升與實(shí)踐反饋越來越緊密結(jié)合在一起。前者一般由中央級(jí)別的規(guī)制機(jī)構(gòu)與企業(yè)集團(tuán)的母公司負(fù)責(zé)組織實(shí)施,原因在于地方試點(diǎn)型的實(shí)施模式具有以下局限性。

首先,風(fēng)險(xiǎn)規(guī)制較弱的可預(yù)見性與可控性使地方政府在進(jìn)行規(guī)制時(shí)面臨不小的難度,這就產(chǎn)生了“搭便車”與“規(guī)制觀望”的可能性,(61)以網(wǎng)約車規(guī)制為例證,新生事物從產(chǎn)生到被賦予合法地位總要經(jīng)歷漫長的“等待期”。特別是中央政策尚不明朗或新生事物具備較強(qiáng)群眾基礎(chǔ)的情形中,地方政府在進(jìn)行規(guī)制時(shí)不僅面臨經(jīng)驗(yàn)和理論缺失的困難,更滋生“等待觀望”的心理動(dòng)機(jī)。直至上海市頒發(fā)第一張經(jīng)營許可證,全國各地才紛紛對(duì)網(wǎng)約車的監(jiān)管進(jìn)行初步的表態(tài)就是最好的例證。在具體監(jiān)管的過程中,規(guī)制措施的選擇亦展現(xiàn)了較強(qiáng)的模仿性。繼北京上海出臺(tái)有關(guān)司機(jī)、車輛的準(zhǔn)入限制后,昆明、青島、杭州等地市亦紛紛確立了事前管制的監(jiān)管思路。參見郭傳凱:《共享經(jīng)濟(jì)屬性的回歸與網(wǎng)約車監(jiān)管思路的選擇》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第1期。以致風(fēng)險(xiǎn)規(guī)制的低效。被規(guī)制的企業(yè)只要在規(guī)制相對(duì)寬松的地域范圍獲得了成功經(jīng)營,便可以此為“根據(jù)地”向其他領(lǐng)域進(jìn)行擴(kuò)張發(fā)展,進(jìn)而形成更強(qiáng)的規(guī)制對(duì)抗。其次,民眾對(duì)風(fēng)險(xiǎn)規(guī)制的認(rèn)知很可能被感性認(rèn)識(shí)裹挾。在類似霧霾治理等可察覺性風(fēng)險(xiǎn)上,民眾的訴求常常使政府花費(fèi)大量風(fēng)險(xiǎn)規(guī)制資源,而對(duì)人工智能風(fēng)險(xiǎn)則視而不見。在缺乏中央政府強(qiáng)有力的督促、引導(dǎo)之時(shí),地方層面很可能形成規(guī)制的真空狀態(tài)。第三,規(guī)制競(jìng)次(62)規(guī)制的競(jìng)次是美國學(xué)界從20世紀(jì)90年代就開始著力研究的問題。參見Richard L. Revesz, Rehabilitating Interstate Competition: Rethinking the "Race-to-the-Bottom" Rationale for Federal Environmental Regulation, 67 N.Y.U. L. REV. 1210 (1992).是不得不考察的因素。地方政府享有相應(yīng)的規(guī)則制定權(quán),這使得規(guī)制主體享有較大的自由裁量權(quán)。自由裁量使準(zhǔn)入監(jiān)管、標(biāo)準(zhǔn)設(shè)置、行政處罰等規(guī)制措施具備了較強(qiáng)的靈活性與機(jī)動(dòng)性,這就為創(chuàng)新型企業(yè)尋找合適的、規(guī)制寬松的經(jīng)營研發(fā)地域留下了空間。招商引資、納稅金額、社會(huì)關(guān)注度、民眾需求、就業(yè)機(jī)會(huì)等因素亦能誘使地方規(guī)制主體制定寬松的規(guī)制政策。對(duì)風(fēng)險(xiǎn)規(guī)制而言,這些都是需要提防的潛在因素。第四,地方主體規(guī)制相比中央政府規(guī)制更容易遭受被規(guī)制的俘獲,也更容易在上級(jí)黨政機(jī)關(guān)的“高壓”之下以對(duì)待相關(guān)傳統(tǒng)技術(shù)或產(chǎn)品的規(guī)制路徑管制新興技術(shù)的發(fā)展,從而造成規(guī)制路徑上的嚴(yán)重依賴。最后亦是最重要的原因,地方試點(diǎn)模式往往在人力物力、專家知識(shí)、組織能力等方面不及中央主導(dǎo)型模式,不利于規(guī)制實(shí)驗(yàn)的實(shí)施。

中央主導(dǎo)型模式在科研實(shí)力和數(shù)據(jù)分析等方面的優(yōu)勢(shì),使其在規(guī)制信息的獲取方面有著地方規(guī)制主體不具備的優(yōu)勢(shì)。此外,中央規(guī)制主體具備地方主體不具備的權(quán)威性,這對(duì)抵御被規(guī)制者的聯(lián)合對(duì)抗有重要意義。中央層面的規(guī)制措施亦具備較高的公信力,這有利于爭(zhēng)取民眾對(duì)規(guī)制的支持和理解。但中央主導(dǎo)型模式在實(shí)踐反饋性實(shí)驗(yàn)的實(shí)施方面亦具有一定劣勢(shì)。以司法大數(shù)據(jù)與人工智能技術(shù)為例,對(duì)該技術(shù)進(jìn)行實(shí)踐反饋實(shí)驗(yàn)則不宜在中央層面進(jìn)行。原因不僅在于中央一級(jí)的司法案件遠(yuǎn)離地方基層多樣實(shí)踐,更在于中央一級(jí)的司法案件往往需要更加審慎的考量,將之作為人工智能的實(shí)驗(yàn)對(duì)象于理不合。此時(shí)地方型實(shí)驗(yàn)可以進(jìn)行富有地方特色的試點(diǎn),中央政府可選擇最有效的、最符合成本收益原則的規(guī)制措施在全國適度推廣。盡管中央政府亦有能力進(jìn)行多種規(guī)制措施的嘗試,但地方性實(shí)踐更有可能進(jìn)行高效的知識(shí)積累。原因在于不同的地方規(guī)制主體有不同的思維方式和實(shí)踐土壤,有利于獲得了更加契合地方實(shí)踐的知識(shí)來源。此外,以地方試點(diǎn)的方式進(jìn)行反饋性實(shí)驗(yàn)還可以避免中央級(jí)別的系統(tǒng)性或大規(guī)模風(fēng)險(xiǎn)。綜上所述,有關(guān)技術(shù)可行性的規(guī)制實(shí)驗(yàn)應(yīng)當(dāng)盡量在中央層面進(jìn)行實(shí)施,而實(shí)踐反饋實(shí)驗(yàn)則應(yīng)當(dāng)在地方政府與企業(yè)集團(tuán)分公司或子公司的層面進(jìn)行開展。

結(jié)語

實(shí)驗(yàn)型規(guī)制的本質(zhì)是政府與人工智能開發(fā)者攜手構(gòu)建開放性場(chǎng)域的過程。從初步可規(guī)制決定的做出開始,規(guī)制機(jī)關(guān)就與人工智能開發(fā)者共同決定了人工智能的風(fēng)險(xiǎn)等級(jí)與規(guī)制次序。人工智能委員會(huì)的設(shè)立形成了雙層協(xié)作式的規(guī)制結(jié)構(gòu),確保了平等合作的規(guī)制方式貫穿實(shí)驗(yàn)型規(guī)制的始終,多學(xué)科知識(shí)和各方面信息在這一過程中得以融合,從而形成漸進(jìn)性的規(guī)制:規(guī)制主體依據(jù)一定的初始信息采取一定的實(shí)驗(yàn)措施,并以前述措施獲取更多的規(guī)制信息,再以獲得的信息為基礎(chǔ)采取更有效的規(guī)制措施,以此良性循環(huán),實(shí)現(xiàn)信息與規(guī)制之間的互動(dòng)與“攀援”,從而有效地化解了規(guī)制滯后的難題。

規(guī)制過程中暫時(shí)性規(guī)制措施的采取有利于提升規(guī)制的靈活性。特別對(duì)系列實(shí)驗(yàn)而言,不同技術(shù)發(fā)展階段的不同狀況導(dǎo)致不同的實(shí)驗(yàn)結(jié)果,采取的暫時(shí)性規(guī)制措施亦各不相同,規(guī)制者可以及時(shí)調(diào)整規(guī)制目標(biāo)以適應(yīng)不斷變化的規(guī)制環(huán)境。此外,及時(shí)依據(jù)實(shí)驗(yàn)狀況調(diào)整相應(yīng)的規(guī)制措施可以有效避免相應(yīng)規(guī)制對(duì)技術(shù)創(chuàng)新的阻礙作用。實(shí)驗(yàn)?zāi)J叫纬傻拈_放式場(chǎng)域有利于發(fā)揮民主意見的作用,在最大限度上克服確認(rèn)偏誤導(dǎo)致的對(duì)傳統(tǒng)規(guī)制模式依賴的同時(shí),盡可能通過民眾參與和被規(guī)制者意見的咨詢化解規(guī)制對(duì)抗的難題。專家學(xué)者、實(shí)驗(yàn)人員、被規(guī)制企業(yè)、社會(huì)公眾等積極參與,不僅擴(kuò)充了知識(shí)來源的渠道,更能通過商談的方式進(jìn)行臨時(shí)性規(guī)則的制定,為實(shí)驗(yàn)的實(shí)施提供合法性來源。

通過規(guī)制實(shí)驗(yàn),政府部門可以潛移默化地影響人工智能研發(fā)與運(yùn)用的整體環(huán)境,并將相應(yīng)的政策精神內(nèi)化為企業(yè)行動(dòng),實(shí)現(xiàn)規(guī)制與調(diào)控的結(jié)合。這一過程往往節(jié)約了規(guī)制成本,并使風(fēng)險(xiǎn)預(yù)防原則得以最大化的實(shí)現(xiàn),避免了實(shí)際損害的發(fā)生和錯(cuò)誤的規(guī)制路徑形成。實(shí)驗(yàn)型規(guī)制的漸進(jìn)性與開放性不僅有助于資源設(shè)備的改良完善,更有助于科學(xué)知識(shí)的積累與風(fēng)險(xiǎn)認(rèn)知的遞進(jìn)化。這一過程不僅具備風(fēng)險(xiǎn)防控的面向,亦同時(shí)具有促進(jìn)技術(shù)發(fā)展和便捷人類生存的面向,這與以往任何風(fēng)險(xiǎn)規(guī)制形成了重要區(qū)別。因此,作為人工智能風(fēng)險(xiǎn)規(guī)制可行出路的實(shí)驗(yàn)型規(guī)制不僅可以回應(yīng)人工智能風(fēng)險(xiǎn)規(guī)制的多重困境,亦能最大限度地實(shí)現(xiàn)新興技術(shù)的自由發(fā)展與人類社會(huì)的繁榮進(jìn)步。

猜你喜歡
規(guī)制人工智能實(shí)驗(yàn)
記一次有趣的實(shí)驗(yàn)
主動(dòng)退市規(guī)制的德國經(jīng)驗(yàn)與啟示
論我國民間借貸法律規(guī)制的發(fā)展和完善——從抑制性規(guī)制到激勵(lì)性規(guī)制
做個(gè)怪怪長實(shí)驗(yàn)
2019:人工智能
人工智能與就業(yè)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
數(shù)讀人工智能
下一幕,人工智能!
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)