国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智能算法的刑法保護(hù)與規(guī)制路徑研究

2021-01-28 23:10唐逸倫
關(guān)鍵詞:黑箱智能算法法益

□唐逸倫

(武漢大學(xué),武漢 430072)

一、問題的提出

工業(yè)社會以來,科技革命便愈發(fā)呈現(xiàn)出自反性特征:解決方案和解放許諾在付諸實(shí)施時(shí)明顯暴露出成問題的一面,而這些又反過來成了科學(xué)密集分析的對象。[1]人工智能時(shí)代,科技革命的這種自反性更為明顯——帶有“人為制造的不確定性”的人工智能技術(shù),無疑是對人類算力和決策力的巨大解放,但大數(shù)據(jù)技術(shù)、深度學(xué)習(xí)技術(shù)的大量運(yùn)用使得人工智能的可解釋性及可預(yù)測性日漸淡化,這暗合了貝克對風(fēng)險(xiǎn)社會的描述,成為了擔(dān)憂與反思的起點(diǎn)——風(fēng)險(xiǎn)和焦慮總是相伴而生、如影隨形。[2]在人工智能技術(shù)已得到廣泛運(yùn)用的今天,如何面對人工智能應(yīng)用過程中引發(fā)的社會問題,已成為當(dāng)代法學(xué)研究的重要使命。

近年來的人工智能刑法學(xué)研究基本圍繞以下三個(gè)命題展開:第一,人工智能刑法學(xué)研究意義,即是否有必要在當(dāng)下開展人工智能的刑法研究;第二,人工智能體的刑法地位,即人工智能體能否具有刑事責(zé)任主體地位;第三,涉人工智能犯罪中的歸責(zé)問題,包括如何在人工智能體及其研發(fā)者、使用者間配置刑事責(zé)任和新型罪名的設(shè)立討論。討論過程中,學(xué)界基本形成了三種截然不同的研究思路,即“將來視角”“當(dāng)下視角”及“統(tǒng)合視角”;不同的研究思路導(dǎo)致了學(xué)界研究重心的分歧。認(rèn)同“未來視角”的學(xué)者往往立足于“強(qiáng)人工智能”的概念,對技術(shù)進(jìn)步抱持極高的期待與信念,試圖構(gòu)建面向未來的、能夠兼容強(qiáng)、弱兩種人工智能體的新刑法體系。[3]與之相對,“當(dāng)下視角”則堅(jiān)持刑法對未來的謙抑品質(zhì),試圖挖掘傳統(tǒng)刑法教義學(xué)在當(dāng)下及短期未來的適用潛力。[4]103“統(tǒng)合視角”則認(rèn)為“將來視角”與“當(dāng)下視角”無法兼顧涉人工智能犯罪及刑法教義學(xué)的現(xiàn)狀與未來,因此主張以“算法安全犯罪”的概念同時(shí)指稱弱人工智能時(shí)代的涉人工智能犯罪及強(qiáng)人工智能時(shí)代的涉人工智能犯罪,進(jìn)行合并研究。[5]

考察“將來視角”及“統(tǒng)合視角”,以下問題值得注意:首先,人工智能領(lǐng)域刑事立法的過早啟動違背了刑法謙抑性的基本品格。作為一項(xiàng)新興的技術(shù)類型,人工智能與法治的耦合應(yīng)肇始于民商事及行政領(lǐng)域的法治實(shí)踐?!皩硪暯恰睂?qiáng)人工智能體犯罪的討論將刑事立法置于法治實(shí)踐以前,可能有使立法陷入“一遇到社會失范現(xiàn)象,首先想到的就是動用刑法進(jìn)行干預(yù)和調(diào)整”的刑法工具主義風(fēng)險(xiǎn)之中。[6]其次,“將來視角”及“統(tǒng)合視角”對技術(shù)進(jìn)步抱持的極強(qiáng)信念本質(zhì)上反映的仍是“進(jìn)步共識的社會構(gòu)想”,即“技術(shù)進(jìn)步等于社會進(jìn)步”的社會共識;然則此種觀念隨著科技革命的不斷深化及現(xiàn)代化的不斷迭代,已經(jīng)遭到了較為普遍的質(zhì)疑;因此,以擁抱技術(shù)進(jìn)步的態(tài)勢對未來涉人工智能犯罪作出樂觀預(yù)期的觀點(diǎn)并非是當(dāng)代社會的文化共識。

因此,筆者贊同“當(dāng)下視角”的研究思路,刑法面對人工智能問題的當(dāng)務(wù)之急是挖掘傳統(tǒng)刑法教義學(xué)在當(dāng)下及短期未來的適用潛力。而在當(dāng)下,人工智能的本質(zhì)仍“在于算法和數(shù)據(jù)處理”,“類人化”的物理形體并非構(gòu)成人工智能的必備要素,即使是人形機(jī)器人,也只不過是算法主導(dǎo)下的一個(gè)硬件系統(tǒng)。[7]由此,刑法教義學(xué)對人工智能技術(shù)的觀審應(yīng)圍繞智能算法這一核心概念展開。

二、智能算法的教義學(xué)觀審

(一)智能算法的現(xiàn)狀考察

算法,是指一種獲得所需結(jié)果的機(jī)械過程;即在有限步內(nèi),從一定類型的數(shù)據(jù),導(dǎo)出一定類型的結(jié)果。[8]不論是古典的傳統(tǒng)算法還是時(shí)興的智能算法,均是數(shù)據(jù)輸入至結(jié)果輸出的過程。傳統(tǒng)算法的運(yùn)行過程具有透明性,其運(yùn)算的每一環(huán)節(jié)均在算法設(shè)計(jì)者的掌控之下,因此刑法學(xué)界往往將其納入工具的范疇,關(guān)注較少。

在傳統(tǒng)算法向智能算法迭代的過程中,兩項(xiàng)技術(shù)起到了至關(guān)重要的作用:大技術(shù)數(shù)據(jù)和機(jī)器學(xué)習(xí)(尤其是無監(jiān)督學(xué)習(xí))技術(shù);智能算法也因此被賦予了傳統(tǒng)算法所不具有的技術(shù)特征,即數(shù)據(jù)前置、自我適應(yīng)和高速迭代。首先,大數(shù)據(jù)技術(shù)的運(yùn)用使得人類認(rèn)知模式從對即有事物的描述和對未知事物的創(chuàng)構(gòu),轉(zhuǎn)化為對物的數(shù)據(jù)化和數(shù)據(jù)的物化過程。[9]“數(shù)據(jù)”這一本來作為認(rèn)知結(jié)果的概念成為了認(rèn)知的原料與要素,并日益居于認(rèn)知過程的核心地位。由此,傳統(tǒng)以因果關(guān)系為支撐、強(qiáng)調(diào)必然性和方向性的認(rèn)知模式被突破,而作為一種全新認(rèn)知方法的算法過程也日漸呈現(xiàn)出“黑箱”姿態(tài),產(chǎn)生了“算法黑箱”問題。其次,機(jī)器學(xué)習(xí)的運(yùn)用,導(dǎo)致了智能算法的自我適應(yīng)與高速迭代?!巴ㄟ^從數(shù)據(jù)中推斷,自己學(xué)會做事的方法……掌握的數(shù)據(jù)越多,它們的工作就越順利”,憑借自我適應(yīng)的特征,智能算法得以自主適應(yīng)人類社會的需要,自主取得問題最優(yōu)解。[10]同時(shí),無監(jiān)督學(xué)習(xí)技術(shù)的廣泛運(yùn)用也為智能算法的高速迭代提供了技術(shù)基礎(chǔ)。自我適應(yīng)和高速迭代不僅使得智能算法的可解釋性降低,更使得其對人類決策的可替代性日益增強(qiáng),產(chǎn)生了“算法操縱”問題。

(二)智能算法核心爭議的教義學(xué)評價(jià)

如前所述,智能算法的技術(shù)特征引申出“算法黑箱”和“算法操縱”兩大核心爭議;因此,教義學(xué)對智能算法的觀察亦應(yīng)圍繞這兩個(gè)問題展開。誠如法國哲學(xué)家卡斯托利阿達(dá)斯所說:“技術(shù)將世界分為兩個(gè)基礎(chǔ)的領(lǐng)域:絕對抵制人類能力的和以某種方式抵制人類能力的。技術(shù)創(chuàng)造就是在這兩者之間找出差異,并在世界的合理性以及不確定的空間中進(jìn)行。”[11]人工智能時(shí)代下,“算法黑箱”和“算法操縱”均帶有極強(qiáng)的兩面性特征,而這種兩面性刻畫了人工智能社會的基本面貌,應(yīng)當(dāng)?shù)玫椒傻娜嬖u價(jià)。

當(dāng)下刑法學(xué)對智能算法的研究,往往以風(fēng)險(xiǎn)社會理論為討論原點(diǎn),通過分析智能算法的刑事風(fēng)險(xiǎn)類型,討論如何對其進(jìn)行刑事規(guī)制??偨Y(jié)來看,智能算法蘊(yùn)含的刑事風(fēng)險(xiǎn)貫穿于其設(shè)計(jì)、輸入、計(jì)算、輸出的各個(gè)環(huán)節(jié):(1)在算法設(shè)計(jì)環(huán)節(jié),由于智能算法對人類決策的可替代性,如何在設(shè)計(jì)階段規(guī)避目的不良算法的產(chǎn)生成為問題;(2)在數(shù)據(jù)輸入環(huán)節(jié),如何確保數(shù)據(jù)安全值得討論;(3)在算法運(yùn)行過程中,由于智能算法的黑箱特性,現(xiàn)有的刑法教義學(xué)體系如何回應(yīng)由此帶來的危害行為、因果關(guān)系、主觀罪過、刑事責(zé)任等方面的異化;(4)在結(jié)果輸出環(huán)節(jié),算法歧視、算法集權(quán)的風(fēng)險(xiǎn)不容忽視。

風(fēng)險(xiǎn)以外,“算法黑箱”和“算法操控”并不天然無價(jià)值。智能算法與人類生活日益綁定的同時(shí),其與法益的關(guān)系也日漸密切。然而,既往的研究在探尋智能算法與法益的關(guān)系時(shí)往往更傾向從規(guī)制角度論證未來涉人工智能犯罪所侵犯的法益。這或許忽視了其本身蘊(yùn)含的巨大技術(shù)價(jià)值——智能算法亦含有值得保護(hù)的法益:例如,作為設(shè)計(jì)者的競爭優(yōu)勢,智能算法可被作為商業(yè)秘密看待;再如,由于智能算法運(yùn)用過程中牽涉大量數(shù)據(jù),其運(yùn)作的穩(wěn)定性在未來或許牽涉公共安全,小型的數(shù)據(jù)泄露事件亦可能侵犯個(gè)體的隱私權(quán)等。

通過對智能算法核心爭議“算法黑箱”及“算法操縱”兩面性的完整分析,在智能算法與刑法體系耦合的過程中,應(yīng)當(dāng)兼顧對刑事風(fēng)險(xiǎn)的規(guī)制與對算法本身蘊(yùn)含法益的刑法保護(hù)。在刑事規(guī)制層面,應(yīng)當(dāng)跳出規(guī)制企業(yè)行為、規(guī)制人工智能本身的傳統(tǒng)思維,樹立起數(shù)據(jù)安全保障、算法規(guī)制為核心的人工智能刑法評價(jià)模式。[12]而在刑法保護(hù)層面,則應(yīng)準(zhǔn)確厘清智能算法本身包含的法益,對智能算法內(nèi)含的法益進(jìn)行復(fù)歸。

三、法益復(fù)歸思路下智能算法的刑法保護(hù)

(一)智能算法內(nèi)含法益的復(fù)歸

作為刑事立法的一項(xiàng)基本指導(dǎo)原則,法益保護(hù)原則是現(xiàn)代刑法教義學(xué)展開的基礎(chǔ)?!艾F(xiàn)代法益概念使國家動用刑罰具有正當(dāng)化根據(jù),同時(shí)劃定了處罰界限:只有當(dāng)某種行為具有法益侵害性時(shí),對之設(shè)置處罰規(guī)定才是正當(dāng)?shù)??!盵13]因此,對智能算法的教義學(xué)審查應(yīng)起步于對智能算法內(nèi)含法益的分析——這也是部分以智能算法為對象的失范行為能夠被認(rèn)定為刑事犯罪而非民事、行政失范的根源所在。有論者曾對涉人工智能失范行為的刑事可罰性起點(diǎn)做出如下論述:“在假設(shè)人工智能(AI)已經(jīng)成為民商事法律主體的前提下,應(yīng)當(dāng)承認(rèn)AI具備刑法可譴責(zé)性的條件。”[14]此種觀點(diǎn)將涉人工智能失范行為的可罰性前提與民商事立法綁定,看似嚴(yán)格遵循了刑法的謙抑性品格,實(shí)際卻消解了刑法的獨(dú)立性地位。刑法的最后手段性并不意味著其對其他部門法的體系性依賴,只有完成了對智能算法內(nèi)含法益的分析,才能對智能算法的刑法保護(hù)與刑事規(guī)制展開行之有效的討論。

目前學(xué)界對智能算法內(nèi)含法益問題主要有以下三種觀點(diǎn):

1.新生法益論。有論者指出,隨著智能時(shí)代的到來,新型經(jīng)濟(jì)關(guān)系和社會關(guān)系得以涌現(xiàn),產(chǎn)生了許多“既有法律規(guī)范難以有效涵蓋和調(diào)整”的“新生法益”。此種“新生法益”的具體類型無法在傳統(tǒng)刑法理論中找到歸屬,立足當(dāng)下對“新生法益”進(jìn)行解讀,即便是“通過修改法律條款、擴(kuò)張性解釋或者類比適用,也會遭遇捉襟見肘的困境”。[15]新生法益論克服了當(dāng)下涉人工智能法律問題討論中泛濫的“空想化”姿態(tài),但也忽視了智能算法已被大量應(yīng)用于社會活動的實(shí)踐樣貌。將智能算法的內(nèi)涵歸納為籠統(tǒng)的“新生法益”的論述,雖然能夠獲得一個(gè)方向正確但界限模糊的答案,卻無法對當(dāng)下及可見未來智能算法與法治實(shí)踐耦合過程中發(fā)現(xiàn)的刑法問題提供具體的教義學(xué)指引。

2.安全型法益論。此為一系列觀點(diǎn)的統(tǒng)稱,具體來看包括“社會秩序說”“數(shù)據(jù)安全說”與“算法安全說”?!吧鐣刃蛘f”對智能算法蘊(yùn)含法益的描繪較為模糊,大致認(rèn)為智能算法的穩(wěn)定性關(guān)乎社會倫理、法律秩序、社會風(fēng)險(xiǎn)治理秩序等多方面秩序的維護(hù)。此種觀點(diǎn)的缺陷與新生法益說類似,即無法更進(jìn)一步地對智能算法與刑事法耦合過程提供具體指引。與之相對,“數(shù)據(jù)安全說”與“算法安全說”的觀點(diǎn)則更為具體。“數(shù)據(jù)安全說”主張將數(shù)據(jù)安全作為人工智能犯罪保護(hù)的法益:大數(shù)據(jù)與深度學(xué)習(xí)的技術(shù)背景下,數(shù)據(jù)是智能算法決策的原料與素材;面臨信息犯罪日漸嚴(yán)峻的異化態(tài)勢,受侵害的數(shù)據(jù)質(zhì)量、規(guī)模與危害性后果都愈發(fā)嚴(yán)重。[16]“算法安全說”提出了算法安全概念,認(rèn)為算法自主性是智能算法的核心要義。該說認(rèn)為,盡管智能算法本身與數(shù)據(jù)的聯(lián)系十分緊密,然而數(shù)據(jù)安全本質(zhì)上是一種混合法益,包含了虛擬數(shù)據(jù)權(quán)利(即虛擬空間數(shù)據(jù)指向的權(quán)利,如虛擬財(cái)產(chǎn))、真實(shí)數(shù)據(jù)權(quán)利(即以數(shù)據(jù)為載體的現(xiàn)實(shí)世界中的身份性、財(cái)產(chǎn)性利益)和人工智能數(shù)據(jù)權(quán)利(即智能算法的安全與穩(wěn)定)。其中,虛擬數(shù)據(jù)權(quán)利與真實(shí)數(shù)據(jù)權(quán)利均為網(wǎng)絡(luò)時(shí)代便已存在的法益,其與智能算法間不具有唯一關(guān)聯(lián)性,我國已經(jīng)通過諸如破壞計(jì)算機(jī)信息系統(tǒng)罪等信息網(wǎng)絡(luò)犯罪的立法活動完成了對此類法益的初步保護(hù);因此,智能算法蘊(yùn)含的獨(dú)特法益應(yīng)為數(shù)據(jù)安全中人工智能數(shù)據(jù)權(quán)利指向的算法安全。[17]

3.混合法益論。持該說的學(xué)者認(rèn)為:人工智能時(shí)代,隨著數(shù)據(jù)在社會生活的多個(gè)領(lǐng)域得以體現(xiàn),數(shù)據(jù)犯罪侵害的法益也更加多元。[18]單純以某種社會秩序作為智能算法蘊(yùn)含法益的觀點(diǎn)忽視了這種多元性:人工智能技術(shù)的發(fā)展與國家發(fā)展戰(zhàn)略聯(lián)系日益密切,智能算法的穩(wěn)定可能關(guān)乎國家安全;大數(shù)據(jù)時(shí)代,公民的人格、信息均呈現(xiàn)出數(shù)據(jù)化傾向,因此,智能算法的穩(wěn)定亦關(guān)乎公民個(gè)人隱私。由此,該說認(rèn)為智能算法蘊(yùn)含的法益應(yīng)是包含個(gè)人隱私權(quán)、商業(yè)秘密權(quán)、社會秩序與國家安全的混合法益。

如前所述,新生法益論、安全型法益論中的社會秩序說及算法安全說,均由于其自身表述的模糊性或非專屬性而不應(yīng)采納。因此,值得進(jìn)一步權(quán)衡的是算法安全說與混合法益論。支持算法安全說的學(xué)者對混合法益論提出的主要批評意見為:即使是混合法益論,仍需要運(yùn)用復(fù)合法益論來確定其中法益的主次關(guān)系,并以搶劫罪規(guī)定于侵財(cái)罪中為例證。[17]然而在筆者看來,此種批評并不能成立:首先,使用復(fù)合法益理論分析混合法益說本身便承認(rèn)了智能算法蘊(yùn)含法益的多元化與復(fù)雜性。同樣以搶劫罪為例,公民的人身權(quán)利是本罪當(dāng)然保護(hù)的法益——這是本罪區(qū)別于搶奪罪的根本特征;不能因?yàn)槠渚哟我匚欢裾J(rèn)其本身的法益屬性。其次,算法安全說展示了當(dāng)下學(xué)界對智能算法考察側(cè)重刑事規(guī)制、忽視刑法保護(hù)的現(xiàn)狀。將智能算法蘊(yùn)含的法益限定在算法安全這一社會秩序的觀點(diǎn)實(shí)質(zhì)上是將智能算法看做一項(xiàng)未來的風(fēng)險(xiǎn)加以規(guī)避。然而如前所述,當(dāng)我們聚焦于智能算法的巨大技術(shù)價(jià)值時(shí),其作為開發(fā)者的一項(xiàng)巨大競爭優(yōu)勢亦應(yīng)得到包括刑法在內(nèi)的法律保護(hù)。

因此,較之算法安全論,混合法益論的觀點(diǎn)更為全面地揭示了智能算法的兩面性特征;需要思考的問題也由此轉(zhuǎn)化為對智能算法所蘊(yùn)含混合法益的具體界定。正如李斯特所言:“法益概念,也必然包含著對某種干涉的禁止?!盵19]在混合法益的具體界定上,應(yīng)抱持謹(jǐn)慎的態(tài)度,進(jìn)行法益衡量。由于智能算法的數(shù)據(jù)前置特性,其運(yùn)算過程以大量數(shù)據(jù)的輸入為前提,而作為輸入源的大數(shù)據(jù)可能涵蓋了公民的個(gè)人隱私,這是部分混合法益論者主張混合法益中包括個(gè)人隱私權(quán)的重要原因。然而,智能算法本質(zhì)上僅是“數(shù)據(jù)輸入-結(jié)果輸出”的一個(gè)中間環(huán)節(jié),由于“算法黑箱”的特性,數(shù)據(jù)在輸入后的可解性變差,前述對個(gè)人隱私泄露的擔(dān)憂往往只能發(fā)生于“數(shù)據(jù)輸入”即算法啟動以前。除此之外,有論者亦主張如目的不良的算法設(shè)計(jì)及智能算法的穩(wěn)定性遭到破壞,則可能導(dǎo)致個(gè)人隱私泄露。我們需要追問的是,此時(shí)被泄漏的個(gè)人隱私信息,是以個(gè)人法益的形式存在,還是以公共法益組成部分的形式存在?對于目的不良或穩(wěn)定性遭破壞的智能算法,雖然結(jié)果上可能導(dǎo)致個(gè)人隱私信息的泄露,然而這種泄露顯然可以歸屬于教義學(xué)對“公共安全”所謂“不特定多數(shù)”的理解,實(shí)際上仍應(yīng)在“算法安全”這一公共法益的涵射范疇。然而,當(dāng)將智能算法作為一項(xiàng)競爭優(yōu)勢加以考量時(shí),其價(jià)值便有了特定的歸屬,不能一概劃分至“不特定多數(shù)”的“公共安全”內(nèi),而應(yīng)屬于一種“算法權(quán)利”。

綜上所述,智能算法蘊(yùn)含的混合法益應(yīng)包括作為公共法益的“算法安全”及作為開發(fā)者競爭優(yōu)勢的“算法權(quán)利”。面向“算法安全”時(shí),刑法保護(hù)的是智能算法不被濫用的穩(wěn)定性;而面向“算法權(quán)利”時(shí),刑法保護(hù)的是智能算法本身的技術(shù)價(jià)值。

(二)智能算法刑法保護(hù)的具體展開

1.算法安全的刑法保護(hù)

在討論刑法保護(hù)算法安全的具體舉措之前,首先應(yīng)對“算法安全的刑法保護(hù)”與“智能算法的刑事規(guī)制”做出一定辨析。“算法安全”是指智能算法內(nèi)蘊(yùn)含的指向社會秩序的公共法益,因此,“算法安全的刑法保護(hù)”強(qiáng)調(diào)的是防止外界對算法穩(wěn)定性及用途的破壞。與此相對,“智能算法的刑法規(guī)制”雖也主要保護(hù)的是指向社會秩序的公共法益,強(qiáng)調(diào)的卻是對算法本身蘊(yùn)含風(fēng)險(xiǎn)的甄別和規(guī)避。對于智能算法的刑事規(guī)制,筆者將在下一部分詳細(xì)論述,故不在此展開。而刑法對算法安全的保護(hù),可以從以下幾方面展開:

第一,對智能算法穩(wěn)定性的保護(hù)。如前所述,人工智能的結(jié)果輸出以前置的海量數(shù)據(jù)為前提。兩項(xiàng)內(nèi)部風(fēng)險(xiǎn)可能影響智能算法的穩(wěn)定性,進(jìn)而危及算法安全:首先,智能算法的內(nèi)部缺陷可能導(dǎo)致結(jié)果輸出的不合理;其次,大數(shù)據(jù)本身攜帶的偏見亦會加劇人工智能結(jié)果輸出的偏見,即算法歧視現(xiàn)象。由此,必須設(shè)立智能算法的自我糾正機(jī)制;對于某些關(guān)乎算法安全的自我糾正機(jī)制缺位(尤其是涉及醫(yī)療衛(wèi)生、軍事用途等重要領(lǐng)域時(shí)),刑法可以考慮在必要時(shí)進(jìn)行介入,防止此種機(jī)制缺位的內(nèi)部風(fēng)險(xiǎn)演變成外部的危害結(jié)果。[4]109具體到弱人工智能的當(dāng)下,對智能算法穩(wěn)定性的刑法保護(hù)可以考慮破壞計(jì)算機(jī)信息系統(tǒng)罪的適用空間,將破壞智能算法穩(wěn)定性的行為解釋為本罪“對計(jì)算機(jī)信息系統(tǒng)功能進(jìn)行刪除、修改、增加、干擾,造成計(jì)算機(jī)系統(tǒng)不能正常運(yùn)行”“對計(jì)算機(jī)信息系統(tǒng)中存儲、處理、傳輸?shù)臄?shù)據(jù)和應(yīng)用程序進(jìn)行刪除、修改、增加的操作”的情形。

第二,對智能算法用途的保護(hù)。有論者指出,人工智能時(shí)代背景下,濫用人工智能行為的社會危害性遠(yuǎn)超過許多傳統(tǒng)的犯罪行為,鑒于此,有必要以兜底條款的形式將濫用人工智能的行為納入刑法處罰范圍。[20]此類犯罪與現(xiàn)行刑法條文的適配性較差,只能采用另立新法的方式進(jìn)行規(guī)制。在人工智能技術(shù)發(fā)展前景仍不甚明確的當(dāng)下,采用兜底條款的立法技術(shù)不失為一種行之有效的規(guī)制手段,但在具體立法、適用過程中仍應(yīng)審慎把握本罪的適用空間,注意本罪保護(hù)法益“算法安全”的公共屬性。

2.算法權(quán)利的刑法保護(hù)

“算法權(quán)利”是指智能算法內(nèi)蘊(yùn)含的指向算法設(shè)計(jì)者、使用者的私人法益。具有獨(dú)創(chuàng)性價(jià)值的智能算法可視情形納入知識產(chǎn)權(quán)的文義范疇,以這種算法為對象的犯罪可以以侵犯知識產(chǎn)權(quán)犯罪定罪量刑。由于知識產(chǎn)權(quán)本身可被分為以著作權(quán)、專利權(quán)為代表的傳統(tǒng)知識產(chǎn)權(quán)和以商業(yè)秘密權(quán)為代表的新型知識產(chǎn)權(quán),我國關(guān)于知識產(chǎn)權(quán)犯罪規(guī)定有假冒專利罪、侵犯著作權(quán)罪、侵犯商業(yè)秘密罪等罪名。以具有獨(dú)創(chuàng)性價(jià)值的智能算法為犯罪對象的行為究竟應(yīng)當(dāng)被評價(jià)為哪種罪名,取決于智能算法的類型定位,總結(jié)來看,作為私人法益的“算法權(quán)益”,存在以下三種不同的保護(hù)路徑:著作權(quán)保護(hù)路徑、專利權(quán)保護(hù)路徑及商業(yè)秘密保護(hù)路徑。

著作權(quán)保護(hù)路徑強(qiáng)調(diào)算法作為計(jì)算機(jī)軟件組成部分之一的結(jié)構(gòu)特征。該種觀點(diǎn)的支持者主張:由于我國《著作權(quán)法》第3條第(八)項(xiàng)及《計(jì)算機(jī)軟件保護(hù)條例》第5條均將計(jì)算機(jī)軟件蘊(yùn)含的知識產(chǎn)權(quán)歸屬于著作權(quán),因此,作為人工智能軟件重要組成部分的智能算法亦應(yīng)當(dāng)按照著作權(quán)進(jìn)行保護(hù)。在筆者看來,此種觀點(diǎn)忽視了算法與傳統(tǒng)文學(xué)、美術(shù)作品的區(qū)別。盡管在形式上,算法亦可以被視為一串符號的特殊組合形式;然而,由于機(jī)器語言的根本價(jià)值在于代碼功能的運(yùn)行與實(shí)現(xiàn),行為人完全可以在窺知智能算法的決策思路、技術(shù)手段后選用與原算法截然不同的機(jī)器語言形式實(shí)現(xiàn)同樣的效果。此時(shí),盡管原權(quán)利確認(rèn)的代碼并未受到著作權(quán)意義上的侵犯,但該算法蘊(yùn)含知識產(chǎn)權(quán)的損失已然發(fā)生。此外,隨著技術(shù)進(jìn)步,算法侵權(quán)的形式也日漸多樣、隱蔽,著作權(quán)保護(hù)路徑并不能充分保護(hù)智能算法的價(jià)值。

專利權(quán)保護(hù)路徑與商業(yè)秘密保護(hù)路徑是學(xué)界爭議較大的兩種模式。支持專利權(quán)保護(hù)路徑的學(xué)者指出,由于智能算法本身蘊(yùn)含有諸如“算法黑箱”“算法歧視”等不透明性弊端,采取商業(yè)秘密保護(hù)路徑會放大智能算法的不透明性;在此前提下,專利保護(hù)路徑明確強(qiáng)調(diào)“以公開換保護(hù)”的觀念有利于通過公開算法而避免其蘊(yùn)含的社會風(fēng)險(xiǎn)。[21]專利權(quán)和商業(yè)秘密權(quán)的核心區(qū)別在于:由于要求對知識產(chǎn)權(quán)的絕對壟斷,專利權(quán)以公開知識產(chǎn)權(quán)的具體細(xì)節(jié)為原則;商業(yè)秘密權(quán)不追求對知識產(chǎn)權(quán)的絕對壟斷,因此以不公開知識產(chǎn)權(quán)的具體細(xì)節(jié)為原則。[22]在筆者看來,專利權(quán)保護(hù)路徑的支持者過于聚焦于“算法黑箱”的負(fù)面潛能,以致忽視了“算法黑箱”本身的技術(shù)價(jià)值——在專利保護(hù)路徑之下,算法黑箱的打破成為原則,這不僅為算法設(shè)計(jì)者設(shè)定了過高義務(wù),阻礙了技術(shù)進(jìn)步的積極性;更是對智能算法與傳統(tǒng)算法區(qū)別即“算法黑箱”技術(shù)價(jià)值的誤讀與消解。出于對智能算法內(nèi)含技術(shù)價(jià)值的保護(hù),筆者支持商業(yè)秘密保護(hù)路徑,以具有獨(dú)創(chuàng)性價(jià)值的智能算法為犯罪對象的行為可以依照我國現(xiàn)有刑法第219條即侵犯商業(yè)秘密罪定罪處罰。需要補(bǔ)充的是,支持商業(yè)秘密保護(hù)路徑的觀點(diǎn)并不似部分學(xué)者擔(dān)憂的那樣排斥所有公開智能算法細(xì)節(jié)的情形,相反,在一定的場合下,即使是商業(yè)秘密保護(hù)路徑論者也承認(rèn)應(yīng)當(dāng)對算法進(jìn)行適當(dāng)公開。

四、智能算法的刑法規(guī)制

(一)智能算法刑法規(guī)制的基本立場

通過內(nèi)含法益的復(fù)歸,智能算法的技術(shù)價(jià)值得以獲得刑法的保護(hù)。在此基礎(chǔ)上,智能算法的刑事風(fēng)險(xiǎn)不容忽視,只有對智能算法的刑事風(fēng)險(xiǎn)進(jìn)行合理的規(guī)制,我們才能在權(quán)利保障、技術(shù)發(fā)展與風(fēng)險(xiǎn)防控間取得平衡。具體來說,智能算法的刑事規(guī)制應(yīng)遵守以下兩個(gè)基本立場:

1.風(fēng)險(xiǎn)預(yù)防原則

聯(lián)合國環(huán)境署1992年通過的《關(guān)于環(huán)境與發(fā)展的里約宣言》第15條曾就未來國際社會的發(fā)展問題指出:“在嚴(yán)重的或不可逆轉(zhuǎn)的損害威脅存在的領(lǐng)域,缺乏充分的科學(xué)確定性不應(yīng)成為暫緩采取有成本效益的措施來防止環(huán)境惡化的理由?!盵23]此宣言雖主要為規(guī)制技術(shù)發(fā)展帶來的環(huán)保問題而生,但其對待技術(shù)問題的態(tài)度可以推而廣之,即對于技術(shù)前景尚不明朗的領(lǐng)域,人類社會往往傾向采取審慎的態(tài)度,對其中可能的風(fēng)險(xiǎn)采取預(yù)防的態(tài)勢——這便是風(fēng)險(xiǎn)預(yù)防原則的基本內(nèi)涵。

有論者援引客觀歸責(zé)理論中“允許的風(fēng)險(xiǎn)”理論,認(rèn)為智能算法的風(fēng)險(xiǎn)“在一定程度上應(yīng)當(dāng)被刑法所容忍”。[24]那么如何理解“允許的風(fēng)險(xiǎn)”與風(fēng)險(xiǎn)預(yù)防原則的關(guān)系呢?應(yīng)當(dāng)注意,此處援引的“允許的風(fēng)險(xiǎn)”理論更多立足于立法政策而非刑事違法性判斷,其與風(fēng)險(xiǎn)預(yù)防原則是要求立法者進(jìn)行法益衡量的一體兩面——立法者當(dāng)然不能由于風(fēng)險(xiǎn)的存在而一概否定人工智能的應(yīng)用圖景;與此同時(shí),亦不能否認(rèn)部分對侵害法益的智能算法應(yīng)用行為可以被出罪化。一種更為合理的邏輯是:在立法層面,應(yīng)當(dāng)堅(jiān)持風(fēng)險(xiǎn)預(yù)防原則,以審慎的態(tài)勢確保智能算法運(yùn)用過程中重大法益的穩(wěn)定性;而在教義學(xué)指引的界定不法及行為歸責(zé)層面,則可以靈活運(yùn)用“允許的風(fēng)險(xiǎn)”理論,對智能算法應(yīng)用過程中造成的部分具有法益侵害的行為予以出罪化。

2.正當(dāng)程序原則

在討論“算法操縱”帶來的刑事風(fēng)險(xiǎn)時(shí),不少論者均強(qiáng)調(diào)算法的“可解釋性”或者透明化是解決算法操縱的必由之路。并援引2018年由“谷歌大腦團(tuán)隊(duì)”研發(fā)出的“可解釋性的基礎(chǔ)構(gòu)件”技術(shù),論證人類意圖對人工神經(jīng)網(wǎng)絡(luò)算法進(jìn)行可視化操作,使算法的工作狀態(tài)回到“人類尺度”。[25]然而,“可解釋性的基礎(chǔ)構(gòu)件”僅是人類技術(shù)對智能算法運(yùn)算過程的一種擬合,并不意味著真正打破了智能算法的黑箱。一個(gè)必須正視的技術(shù)現(xiàn)實(shí)是,盡管人工神經(jīng)網(wǎng)絡(luò)算法技術(shù)已經(jīng)較為成熟,然而目前對其解釋的嘗試仍停留于運(yùn)算過程的淺表。[26]算法的可解釋性已經(jīng)出現(xiàn)了遲滯于人工智能技術(shù)應(yīng)用的現(xiàn)實(shí)窘境。由此,遲滯的算法解釋嘗試已經(jīng)無法對前置的人工智能技術(shù)應(yīng)用產(chǎn)生的刑事風(fēng)險(xiǎn)發(fā)揮預(yù)防效果。法律實(shí)踐者也逐步發(fā)現(xiàn),算法黑箱在法律上所能被轉(zhuǎn)譯的內(nèi)容,一點(diǎn)兒也不支持算法透明性的要求。

基于算法解釋的遲滯性,正當(dāng)程序原則成為一條更為優(yōu)越的規(guī)制思路。正當(dāng)程序原則可從形式與實(shí)質(zhì)上進(jìn)行展開。形式的正當(dāng)程序原則要求算法權(quán)利的擁有者公開其算法運(yùn)作的程序或者過程,來證明算法權(quán)利行使的正當(dāng)性,這通常體現(xiàn)為雙重要求:第一,程序本身是公開的;第二,程序的設(shè)計(jì)本身是正當(dāng)?shù)模源伺懦康牟涣嫉闹悄芩惴?。[27]在對智能算法進(jìn)行規(guī)制時(shí),公開性原則產(chǎn)生了一定的形變:由于智能算法本身的黑箱屬性與算法解釋的遲滯性,僅僅將算法程序公開顯然無法滿足風(fēng)險(xiǎn)預(yù)防原則的要求。因此,形式的正當(dāng)程序原則第二項(xiàng)要求即“程序設(shè)計(jì)本身是正當(dāng)?shù)摹?,便成為?guī)制智能算法刑事風(fēng)險(xiǎn)的重要思路。與之相對,實(shí)質(zhì)的正當(dāng)程序原則追求智能算法實(shí)質(zhì)的正當(dāng)性,這往往表現(xiàn)為通過對涉及人身安全、公共安全等重要法益的保留,強(qiáng)化對目的不良及結(jié)果不良算法的篩選及剔除,即部分論者表述的“重大利益保留原則”。

(二)智能算法刑法規(guī)制的具體展開

智能算法的決策過程可被劃分為數(shù)據(jù)輸入、數(shù)據(jù)運(yùn)算及結(jié)果輸出三個(gè)階段,即輸入端、運(yùn)算端及輸出端三個(gè)運(yùn)算端口。在智能算法決策的不同階段,可選擇的刑事規(guī)制方式并不相同,刑法的介入難度也有所差異。因此,通過對不同端口特征的把握,智能算法的刑法規(guī)制方案可以進(jìn)行更為具體的展開。

1.輸入端。作為大數(shù)據(jù)技術(shù)應(yīng)用的產(chǎn)物,智能算法的決策過程離不開數(shù)據(jù)的輸入,“有數(shù)據(jù)方有人工智能”。[28]在智能算法的輸入端,刑法規(guī)制的重點(diǎn)便在于對輸入數(shù)據(jù)的風(fēng)險(xiǎn)把控,具體而言包括以下兩個(gè)方面:第一,由于智能算法及其設(shè)計(jì)、使用者對作為決策原料的數(shù)據(jù)來源在所不問,所輸入的數(shù)據(jù)可能混入未經(jīng)公民授權(quán)的隱私數(shù)據(jù),從而侵犯公民的隱私權(quán)利;第二,由于輸入數(shù)據(jù)本身的片面性及智能算法運(yùn)行的功利導(dǎo)向,輸入端極易成為算法歧視產(chǎn)生的根源,從而侵犯公民的人格平等權(quán)。[29]對于第一種情況,現(xiàn)有刑法可以通過侵犯公民個(gè)人信息罪進(jìn)行有效規(guī)制;而對于第二種情況,現(xiàn)行刑法體系尚不能做出有效回應(yīng),需要進(jìn)行進(jìn)一步完善。除此之外,在智能算法的啟動環(huán)節(jié),必須堅(jiān)持對目的不良算法的篩選及限制。2019年4月,歐盟委員會通過了《可信賴人工智能道德準(zhǔn)則》,該準(zhǔn)則規(guī)定:“可靠的人工智能應(yīng)提供關(guān)于人工智能系統(tǒng)影響和塑造組織決策過程的程度、系統(tǒng)的設(shè)計(jì)選擇以及開發(fā)合理性的解釋?!惫P者贊同此種規(guī)制思路,即在智能算法設(shè)計(jì)完成后、運(yùn)算開始前的輸入端口便進(jìn)行開發(fā)合理性的審查,通過重大利益事項(xiàng)的保留,防止風(fēng)險(xiǎn)的啟動。

2.運(yùn)算端。與輸入端不同,刑法規(guī)制在運(yùn)算端的開展面臨著較大的技術(shù)困境。前文對算法黑箱的論述已證明:智能算法的不透明性與其技術(shù)價(jià)值是一體兩面的關(guān)系,對智能算法進(jìn)行解釋嘗試的過程必然伴隨著對其技術(shù)價(jià)值的消解;況且,隨著人工智能技術(shù)的高速迭代,智能算法的可解釋性已經(jīng)產(chǎn)生了遲滯現(xiàn)象。因此,出于對智能算法技術(shù)價(jià)值的保護(hù)及人工智能技術(shù)現(xiàn)狀的考察,刑法不應(yīng)在未發(fā)生法益侵害的情況下,過度介入智能算法的運(yùn)算環(huán)節(jié)。當(dāng)然,這并不意味著任何情況下都不應(yīng)對智能算法進(jìn)行解釋——恰如部分論者所主張的,“算法的可解釋性是算法進(jìn)入法律的前提”。[12]但筆者認(rèn)為,此種解釋的嘗試不應(yīng)在運(yùn)算端頻頻展開,智能算法的解釋嘗試可留待輸出端解決。

3.輸出端。智能算法的運(yùn)算過程終止于結(jié)果的輸出,但對智能算法的刑法規(guī)制不能僅止于此。結(jié)果不良算法的存在表明,即使是目的良好的算法也可能由于各種原因,輸出不良的決策與結(jié)果。此時(shí),若一味堅(jiān)持智能算法決策的獨(dú)立性,放任此種不良結(jié)果的輸出與傳播,則可能導(dǎo)致法益侵害后果的擴(kuò)散。因此,針對輸出不良結(jié)果導(dǎo)致法益侵害的的智能算法,有必要在制止其結(jié)果傳播的基礎(chǔ)上,向其決策過程的前端回溯,打開智能算法的技術(shù)黑箱,考察此算法的設(shè)計(jì)思路與價(jià)值取向,從而在算法的設(shè)計(jì)者、使用者與社會公眾間合理配置不良結(jié)果引發(fā)的刑事責(zé)任。對比在運(yùn)算端對智能算法進(jìn)行實(shí)時(shí)解釋的方案,此種方案不僅較好地考慮了智能算法解釋的遲滯性,更堅(jiān)守了刑法的謙抑性本位,有利于抑制刑法對新興技術(shù)的過度介入,從而理順在規(guī)制智能算法問題上刑法與其他部門法的關(guān)系,促進(jìn)人工智能技術(shù)的進(jìn)一步發(fā)展。

(三)智能算法刑事合規(guī)制度引入的探討

鑒于智能算法解釋的遲滯性,當(dāng)下有論者主張應(yīng)在智能算法的刑事規(guī)制領(lǐng)域引入刑事合規(guī)制度,以構(gòu)建智能算法內(nèi)部與外部、預(yù)防與刑罰并重的風(fēng)險(xiǎn)防控系統(tǒng),并從“算法設(shè)計(jì)上對人工智能的識別能力、決策能力和行為方式預(yù)先進(jìn)行合規(guī)性審查”。[25]

刑事合規(guī)制度起源于20世紀(jì)60年代的美國,是企業(yè)合規(guī)管理制度的組成部分。1987年頒布的《聯(lián)邦量刑指南》在1991年增加了“組織體量刑”章,正式建立了通過刑事合規(guī)計(jì)劃審查進(jìn)行刑罰減免的量刑機(jī)制。[30]作為一種預(yù)防、發(fā)現(xiàn)犯罪而主動實(shí)施的內(nèi)部機(jī)制,刑事合規(guī)計(jì)劃可以在刑事訴訟的各個(gè)環(huán)節(jié)產(chǎn)生深遠(yuǎn)的影響:在審前環(huán)節(jié),涉案企業(yè)可以依據(jù)自身制定的刑事合規(guī)計(jì)劃與檢察官達(dá)成不起訴協(xié)議以免于刑事訴訟;在審判環(huán)節(jié),涉案企業(yè)也可以通過制定形式合規(guī)計(jì)劃尋求刑罰的減免。[31]

筆者贊同智能算法規(guī)制領(lǐng)域刑事合規(guī)制度的引入,理由有三:

第一,刑事合規(guī)制度的引入是對人工智能時(shí)代刑事風(fēng)險(xiǎn)的合理配置。如前所述,“算法黑箱”因其蘊(yùn)含的技術(shù)價(jià)值而值得刑法保護(hù),但與此同時(shí),此種技術(shù)價(jià)值的最大受益者即為算法的設(shè)計(jì)者與使用者,因此,作為算法設(shè)計(jì)者與使用者的相關(guān)企業(yè)亦應(yīng)承擔(dān)起人工智能時(shí)代風(fēng)險(xiǎn)防控的職責(zé),與國家一同形成智能算法刑事風(fēng)險(xiǎn)的共同治理者。在此前提下,刑事合規(guī)計(jì)劃通過正當(dāng)化事由的規(guī)定與量刑減免引導(dǎo)智能算法設(shè)計(jì)、使用者參與到對智能算法刑事風(fēng)險(xiǎn)的治理過程中,有利于其更好地履行自身的合規(guī)義務(wù),確立其對智能算法刑事風(fēng)險(xiǎn)的保證人地位。

第二,刑事合規(guī)制度的引入是對人工智能時(shí)代預(yù)防刑法轉(zhuǎn)向的回應(yīng)。當(dāng)下,人工智能技術(shù)的應(yīng)用已經(jīng)領(lǐng)先于對人類社會智能算法的解釋力,在此情形下,預(yù)防刑法的轉(zhuǎn)向更為明顯;刑事合規(guī)制度的建立恰是對此種預(yù)防傾向的回應(yīng)與補(bǔ)強(qiáng)。

第三,刑事合規(guī)制度的引入,有利于解決智能算法帶來的歸責(zé)難題。由于人工智能技術(shù)的復(fù)雜性、裁量的獨(dú)立性和行為自控性等特點(diǎn),使得現(xiàn)實(shí)中會出現(xiàn)人工智能因過失導(dǎo)致的法益侵害,存在無法歸責(zé)的空白地帶。[32]誠然,前文中提到的“允許的風(fēng)險(xiǎn)”理論可以對部分法益侵害予以出罪化,然而,由于智能算法刑事規(guī)制風(fēng)險(xiǎn)預(yù)防原則的基本立場,“允許的風(fēng)險(xiǎn)”理論應(yīng)當(dāng)受到一定限制。刑事合規(guī)制度通過對各方風(fēng)險(xiǎn)預(yù)防責(zé)任的事先配置,完善了歸責(zé)制度,有利于減少由于智能算法刑事風(fēng)險(xiǎn)帶來的歸責(zé)難題。

猜你喜歡
黑箱智能算法法益
神經(jīng)網(wǎng)絡(luò)智能算法在發(fā)電機(jī)主絕緣狀態(tài)評估領(lǐng)域的應(yīng)用
拒絕黑箱
失蹤的黑箱
淺談刑法中的法益
論刑法中的法益保護(hù)原則
從雞群算法看群體智能算法的發(fā)展趨勢
改進(jìn)的多目標(biāo)快速群搜索算法的應(yīng)用
基于Robocode的智能機(jī)器人的設(shè)計(jì)與實(shí)現(xiàn)
二元法益觀新論——以利益與法律的關(guān)系為視角
這道電學(xué)黑箱題有誤嗎?