黃陳辰
人工智能產(chǎn)品(1)人工智能產(chǎn)品是指運(yùn)用大數(shù)據(jù)、機(jī)器學(xué)習(xí)、云計(jì)算、語(yǔ)音與圖像識(shí)別等人工智能技術(shù)的產(chǎn)品,例如具有自動(dòng)駕駛功能的交通工具、手術(shù)機(jī)器人、智能金融代理等。另外,部分學(xué)者根據(jù)自主意識(shí)的有無(wú),提出弱人工智能與強(qiáng)人工智能的劃分。但由于目前尚未產(chǎn)生且在可預(yù)見(jiàn)的相當(dāng)長(zhǎng)時(shí)間內(nèi)不會(huì)產(chǎn)生所謂的強(qiáng)人工智能,因此本文僅在弱人工智能視角下進(jìn)行研究。與傳統(tǒng)產(chǎn)品不同,因此人工智能缺陷產(chǎn)品生產(chǎn)者(2)本文所述“生產(chǎn)者”,指的是包括研發(fā)、設(shè)計(jì)、制造等各部門(mén)在內(nèi)的集合體,并不僅限于進(jìn)行組裝、制造的部門(mén)。的刑事責(zé)任的判斷與傳統(tǒng)缺陷產(chǎn)品生產(chǎn)者相比亦具有明顯區(qū)別。例如算法黑箱導(dǎo)致因果關(guān)系的認(rèn)定更加困難、信息網(wǎng)絡(luò)技術(shù)使得生產(chǎn)者對(duì)流通領(lǐng)域內(nèi)的產(chǎn)品具有更高的支配力等。這些區(qū)別導(dǎo)致傳統(tǒng)缺陷產(chǎn)品生產(chǎn)者刑事責(zé)任的相關(guān)結(jié)論無(wú)法直接適用,必須加以調(diào)整。而這也正是本文研究的核心,即人工智能缺陷產(chǎn)品生產(chǎn)者的刑事責(zé)任應(yīng)如何認(rèn)定與承擔(dān)。
根據(jù)我國(guó)《刑法》第146條的規(guī)定,生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪的構(gòu)成要件之一為“產(chǎn)品不符合國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)”。因此,相關(guān)產(chǎn)品的國(guó)家標(biāo)準(zhǔn)與行業(yè)標(biāo)準(zhǔn)成為判斷生產(chǎn)者行為構(gòu)罪與否的重要依據(jù)。
1.人工智能產(chǎn)品安全標(biāo)準(zhǔn)體系尚未形成
2.增補(bǔ)針對(duì)人工智能產(chǎn)品的安全標(biāo)準(zhǔn)
產(chǎn)品安全標(biāo)準(zhǔn)等規(guī)范性文件的內(nèi)容往往是針對(duì)已經(jīng)發(fā)生的社會(huì)現(xiàn)實(shí),故其制定具有一定的滯后性。但科技的不斷發(fā)展,尤其是從弱人工智能到強(qiáng)人工智能再到超人工智能的進(jìn)程,既不可避免,也無(wú)法叫停。若不能及時(shí)更新、完善相關(guān)規(guī)范,則會(huì)造成規(guī)制上的空白與漏洞。因此,相關(guān)部門(mén)應(yīng)緊跟時(shí)代發(fā)展,保持對(duì)科技進(jìn)步的敏感性與前瞻性,及時(shí)增補(bǔ)針對(duì)人工智能產(chǎn)品的國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),以構(gòu)建人工智能產(chǎn)品安全標(biāo)準(zhǔn)體系。
1.“算法黑箱”導(dǎo)致因果判斷失靈
2.“理論+技術(shù)+政策”破解“算法黑箱”困境
(3)政策層面。技術(shù)的發(fā)展并不是隨心所欲的,其必須在一定的規(guī)范框架之下進(jìn)行,故各國(guó)人工智能技術(shù)發(fā)展的具體方向與樣態(tài),很大程度上取決于各國(guó)在該領(lǐng)域內(nèi)的政策導(dǎo)向。因此,要破解“算法黑箱”困境,則需要在政策層面對(duì)人工智能技術(shù)的可解釋性提出要求。目前,部分國(guó)家已經(jīng)開(kāi)始探索并做出了一定的回應(yīng),值得我們借鑒。例如,美國(guó)電氣和電子工程師協(xié)會(huì)(IEEE)發(fā)布的《人工智能及自動(dòng)化系統(tǒng)倫理設(shè)計(jì)白皮書(shū)》中,提出了人工智能及自動(dòng)化系統(tǒng)設(shè)計(jì)的五項(xiàng)基本原則,其中第四項(xiàng)原則為“透明性原則”,即要求一個(gè)特定的自主和智能系統(tǒng)的決策基礎(chǔ)應(yīng)該始終是可發(fā)現(xiàn)的,強(qiáng)調(diào)了人工智能算法的可發(fā)現(xiàn)性(13)“Ethically Aligned Design”, https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf. 訪問(wèn)日期:2020年1月20日。;美國(guó)計(jì)算機(jī)協(xié)會(huì)(USACM)發(fā)布了關(guān)于算法透明和可責(zé)性的七項(xiàng)原則,其中第四項(xiàng)原則為“可解釋性原則”,鼓勵(lì)使用算法決策的組織和機(jī)構(gòu)對(duì)算法所遵循的程序和所做出的具體決策進(jìn)行解釋(14)Simson Garfinkel, Jeanna Matthews, Stuart S. Shapiro, and Jonathan M. Smith, “Toward Algorithmic Transparency and Accountability”, Communications of the ACM, 2017, 60(9), p.5.。
產(chǎn)品一經(jīng)銷(xiāo)售,即移轉(zhuǎn)為消費(fèi)者占有,生產(chǎn)者隨即喪失對(duì)其的物理控制。但若該產(chǎn)品具有危及人身、財(cái)產(chǎn)安全的缺陷,生產(chǎn)者需要及時(shí)采取公告、召回等措施,否則將承擔(dān)相應(yīng)的法律責(zé)任,這一點(diǎn)在民法上已經(jīng)明確(15)參見(jiàn)《侵權(quán)責(zé)任法》第46條、《消費(fèi)者權(quán)益保護(hù)法》第19條、《食品安全法》第63條等。,在刑事責(zé)任領(lǐng)域也有所探討。理論界對(duì)缺陷產(chǎn)品不召回行為(16)為方便表述,本文將生產(chǎn)者不及時(shí)消除缺陷產(chǎn)品所造成的法益侵害危險(xiǎn)的行為統(tǒng)稱為“不召回行為”。刑事責(zé)任的研究,主要集中在處理模式的選擇上。目前共有三種模式,即將不召回行為與生產(chǎn)行為進(jìn)行一體評(píng)價(jià)的故意作為犯模式、將作為義務(wù)消解于注意義務(wù)之中的過(guò)失犯模式,以及不真正不作為犯模式。其中,不真正不作為犯模式更加符合不召回行為的本質(zhì),且其能夠有效填補(bǔ)前兩者處罰范圍有限與難以解釋積極義務(wù)的弊端,因此屬于相對(duì)合理的選擇。需要注意的是,人工智能產(chǎn)品亦屬于刑法所稱的“產(chǎn)品”,故生產(chǎn)者不召回人工智能缺陷產(chǎn)品的行為同樣構(gòu)成不真正不作為犯。但與傳統(tǒng)產(chǎn)品相比,人工智能產(chǎn)品能夠依托大數(shù)據(jù)進(jìn)行深度學(xué)習(xí)與自主決策,智能化程度更高,因此生產(chǎn)者不作為責(zé)任的具體認(rèn)定具有其特殊性。
1.作為義務(wù)的來(lái)源
生產(chǎn)者承擔(dān)不作為責(zé)任的最重要前提是存在作為義務(wù),在不召回缺陷產(chǎn)品情形中則為召回義務(wù)。理論界對(duì)召回義務(wù)的來(lái)源具有不同觀點(diǎn),主要有安全確保義務(wù)說(shuō)、支配領(lǐng)域說(shuō)、先行行為說(shuō)等(17)呂英杰:《風(fēng)險(xiǎn)社會(huì)中的產(chǎn)品刑事責(zé)任》,《法律科學(xué)》2011年第6期。。本文考慮到生產(chǎn)者在信息方面的優(yōu)勢(shì)地位、缺陷產(chǎn)品可能危害的對(duì)象范圍、繼任生產(chǎn)者的責(zé)任承擔(dān)等因素,采取對(duì)因果進(jìn)程的排他支配說(shuō),即由于生產(chǎn)者對(duì)損害后果發(fā)生的因果進(jìn)程處于排他性支配地位,因此其具有防止損害發(fā)生的作為義務(wù)。
當(dāng)然,產(chǎn)品一經(jīng)銷(xiāo)售即在物理上脫離生產(chǎn)者的控制,例如生產(chǎn)廠商將汽車(chē)銷(xiāo)售之后,汽車(chē)的占有即移轉(zhuǎn)給購(gòu)買(mǎi)者,生產(chǎn)廠商不再對(duì)汽車(chē)具有實(shí)際的支配權(quán)。因此,在傳統(tǒng)缺陷產(chǎn)品場(chǎng)合,只能將生產(chǎn)者對(duì)因果進(jìn)程的排他支配限定在對(duì)“產(chǎn)品處于流通領(lǐng)域并隨時(shí)可能引發(fā)事故”這一危險(xiǎn)狀態(tài)的支配,即生產(chǎn)者利用自己對(duì)產(chǎn)品質(zhì)量的信息優(yōu)勢(shì),通過(guò)左右消費(fèi)者對(duì)缺陷產(chǎn)品危險(xiǎn)性的認(rèn)知來(lái)控制其是否繼續(xù)使用該缺陷產(chǎn)品,進(jìn)而達(dá)到對(duì)損害結(jié)果發(fā)生之因果進(jìn)程的支配(18)黎宏、??邓骸度毕莓a(chǎn)品不召回的刑事責(zé)任》,《上海政法學(xué)院學(xué)報(bào)》2018年第5期。。產(chǎn)品購(gòu)買(mǎi)即是為了使用,但絕大多數(shù)的產(chǎn)品缺陷都不易被消費(fèi)者發(fā)現(xiàn)。因此,若生產(chǎn)者不告知其該產(chǎn)品存在缺陷,消費(fèi)者便會(huì)繼續(xù)使用,而產(chǎn)品事故都是在這種“無(wú)知”狀態(tài)下發(fā)生的。但對(duì)于人工智能產(chǎn)品而言,其缺陷主要在于系統(tǒng)漏洞,而人工智能系統(tǒng)雖內(nèi)置于相關(guān)產(chǎn)品,但仍未完全脫離研發(fā)端的總服務(wù)器,生產(chǎn)者可以通過(guò)該服務(wù)器對(duì)其生產(chǎn)的所有產(chǎn)品中的人工智能系統(tǒng)進(jìn)行調(diào)試與更新。因此可以說(shuō),其對(duì)流通領(lǐng)域內(nèi)的產(chǎn)品以及產(chǎn)品事故發(fā)生的因果進(jìn)程具有更高的支配力,并且這種支配是直接的、具有物質(zhì)載體的,相較于傳統(tǒng)產(chǎn)品而言,排他性效果更強(qiáng)。例如,自動(dòng)駕駛汽車(chē)的生產(chǎn)者能夠遠(yuǎn)程對(duì)自動(dòng)駕駛系統(tǒng)進(jìn)行操作,且其技術(shù)與算法具有保密性,因此不用借助于信息的不對(duì)稱,生產(chǎn)者可直接對(duì)因系統(tǒng)缺陷導(dǎo)致的產(chǎn)品事故具有排他性支配。
2.作為義務(wù)的內(nèi)容
對(duì)于傳統(tǒng)缺陷產(chǎn)品而言,生產(chǎn)者的作為義務(wù)即召回義務(wù)的內(nèi)容,主要有對(duì)消費(fèi)者提出警示與公告、及時(shí)召回市場(chǎng)上的全部缺陷產(chǎn)品、對(duì)缺陷產(chǎn)品進(jìn)行修理等。但由于人工智能缺陷產(chǎn)品具有智能性等特征,其生產(chǎn)者的召回義務(wù)在上述內(nèi)容的基礎(chǔ)上還應(yīng)增加以下兩項(xiàng):
其一,生產(chǎn)者可以通過(guò)主服務(wù)器禁用存在缺陷的人工智能系統(tǒng)。例如自動(dòng)駕駛汽車(chē)的自動(dòng)駕駛系統(tǒng)存在漏洞,則生產(chǎn)者可以直接在后臺(tái)進(jìn)行操作,禁止裝配有該系統(tǒng)的汽車(chē)使用自動(dòng)駕駛模式,而只能由人類(lèi)駕駛員親自駕駛。這樣的措施與傳統(tǒng)被動(dòng)的警示、公告相比,具有主動(dòng)性,生產(chǎn)者能夠及時(shí)停止缺陷系統(tǒng)的使用,防止事故的繼續(xù)發(fā)生。若生產(chǎn)者在得知系統(tǒng)存在缺陷之后未能及時(shí)禁用該系統(tǒng),則應(yīng)對(duì)擴(kuò)大的損害后果承擔(dān)不作為責(zé)任(19)牛天寶:《通過(guò)現(xiàn)有規(guī)范解決自動(dòng)駕駛汽車(chē)肇事之刑事責(zé)任歸屬問(wèn)題》,《法學(xué)雜志》2020年第3期。。
要認(rèn)定人工智能缺陷產(chǎn)品生產(chǎn)者的不作為責(zé)任,除具有作為義務(wù)以外,還需要具備作為的可能性,即在客觀上能夠有所作為。若由于不可抗力等因素導(dǎo)致生產(chǎn)者無(wú)法采取相應(yīng)措施,則其不對(duì)損害后果承擔(dān)不作為責(zé)任。人工智能產(chǎn)品的特殊屬性,使得其生產(chǎn)者在召回措施的作為可能性上與傳統(tǒng)產(chǎn)品生產(chǎn)者有所不同:其一,生產(chǎn)者能夠利用無(wú)線技術(shù)對(duì)各人工智能系統(tǒng)進(jìn)行實(shí)時(shí)監(jiān)控,因此無(wú)論產(chǎn)品的流通范圍多廣,也無(wú)論是否有其他渠道獲取信息,一旦系統(tǒng)出現(xiàn)故障,生產(chǎn)者能在第一時(shí)間發(fā)現(xiàn)并采取相應(yīng)措施。其二,傳統(tǒng)產(chǎn)品出廠銷(xiāo)售以后,由于經(jīng)手各經(jīng)銷(xiāo)商、分銷(xiāo)商等中間環(huán)節(jié),生產(chǎn)者很難了解產(chǎn)品的具體去向,且某些產(chǎn)品的市場(chǎng)覆蓋面廣,甚至遠(yuǎn)銷(xiāo)海外,故召回的成本高、難度大,即使最基本的警示與公告等措施,也很難保證所有購(gòu)買(mǎi)者都能得知。但基于通信手段與互聯(lián)網(wǎng)技術(shù)的發(fā)展,對(duì)于人工智能產(chǎn)品,生產(chǎn)者只需在總服務(wù)器上進(jìn)行操作,即可將產(chǎn)品故障信息準(zhǔn)確送達(dá)每一位產(chǎn)品使用者,并且還可以對(duì)故障系統(tǒng)實(shí)施遠(yuǎn)程禁用與修復(fù)。因此,人工智能缺陷產(chǎn)品生產(chǎn)者具有更高程度的作為可能性。
并非所有因人工智能產(chǎn)品缺陷導(dǎo)致的損害后果均應(yīng)歸屬于生產(chǎn)者。在下列情形中,生產(chǎn)者的刑事責(zé)任受到阻卻:
導(dǎo)致?lián)p害后果的產(chǎn)品缺陷除了由生產(chǎn)者的生產(chǎn)行為引起外,還有可能歸因于某些介入因素。在此情況下,生產(chǎn)者的刑事責(zé)任得以阻卻,轉(zhuǎn)而由介入因素主體承擔(dān)。此處所說(shuō)的介入因素有以下兩類(lèi):
其二,犯罪人非法侵入系統(tǒng)。人工智能技術(shù)的發(fā)展在便利社會(huì)生活的同時(shí),也為犯罪分子實(shí)施新型犯罪提供了條件。當(dāng)前與人工智能有關(guān)的犯罪中,除利用人工智能技術(shù)作為犯罪手段外,還有另一種類(lèi)型,即以人工智能系統(tǒng)為犯罪對(duì)象,犯罪人非法侵入人工智能系統(tǒng)并進(jìn)行相應(yīng)的操作,以實(shí)現(xiàn)犯罪目的。例如電影《速度與激情》中的“僵尸汽車(chē)”情節(jié),即是黑客利用無(wú)線網(wǎng)絡(luò)侵入自動(dòng)駕駛汽車(chē)的操作系統(tǒng)并阻斷人工接管功能,使汽車(chē)只能在自動(dòng)駕駛模式下運(yùn)行。在這種情況下,自動(dòng)駕駛系統(tǒng)的漏洞并非由生產(chǎn)者的生產(chǎn)行為導(dǎo)致,而應(yīng)歸咎于黑客的侵入與修改行為,因此生產(chǎn)者無(wú)須對(duì)損害后果承擔(dān)刑事責(zé)任。但需要注意的是,生產(chǎn)者在開(kāi)發(fā)自動(dòng)駕駛系統(tǒng)時(shí)應(yīng)添加相應(yīng)的安全模塊以防止黑客入侵,若生產(chǎn)者怠于采取上述措施進(jìn)而導(dǎo)致黑客侵入自動(dòng)駕駛系統(tǒng),則生產(chǎn)者需要承擔(dān)相應(yīng)的刑事責(zé)任。