張安毅 李博文
(河南財(cái)經(jīng)政法大學(xué) 民商經(jīng)濟(jì)法學(xué)院 , 河南 鄭州 450000)
人工智能在便利人類生產(chǎn)生活的同時(shí),帶來了難以忽視的數(shù)據(jù)安全、算法漏洞等風(fēng)險(xiǎn),尤為突出的是人工智能在發(fā)展中出現(xiàn)的自主決策危害人類的倫理風(fēng)險(xiǎn),比如自動(dòng)駕駛汽車為避免違反交通規(guī)則或自我避險(xiǎn)而選擇沖撞行人。解決人工智能的各種風(fēng)險(xiǎn)在技術(shù)上并不存在障礙,重要的是如何從制度上保障可能具有超人類思維能力的人工智能不違反服務(wù)人類的目標(biāo),從立法上妥當(dāng)設(shè)置人工智能與人類的關(guān)系。不過,由于人工智能的法律地位等問題至今未形成一致意見,這也導(dǎo)致人工智能的倫理規(guī)則如何構(gòu)建存在著路徑不明等問題。目前法學(xué)界主要從人工智能致?lián)p的侵權(quán)責(zé)任角度來解決人工智能的倫理風(fēng)險(xiǎn),但侵權(quán)責(zé)任規(guī)則的主要功能是確定責(zé)任承擔(dān)規(guī)則、救濟(jì)損失,如何避免人工智能發(fā)生倫理風(fēng)險(xiǎn)而危害人類,侵權(quán)責(zé)任規(guī)則其實(shí)是力不從心。筆者認(rèn)為,迄今為止人工智能在本質(zhì)上仍然屬于產(chǎn)品的范疇?!吨腥A人民共和國產(chǎn)品質(zhì)量法》(以下簡稱《產(chǎn)品質(zhì)量法》)規(guī)制人工智能的倫理風(fēng)險(xiǎn)具有必然性、合理性,目前急迫的是探討《產(chǎn)品質(zhì)量法》中人工智能特殊規(guī)則的構(gòu)建,并在合適的時(shí)機(jī)將人工智能立法引入《中華人民共和國民法典》。
人工智能技術(shù)究竟是福還是禍,每個(gè)人應(yīng)該思量[1],隨著人工智能的普及其失控一面也不斷顯現(xiàn),帶來一系列難以處理的棘手問題,人工智能倫理風(fēng)險(xiǎn)就是其中之一。不過本文所指的人工智能倫理風(fēng)險(xiǎn),并不是人工智能對勞動(dòng)力的取代引發(fā)失業(yè)等社會(huì)性問題,而是指人工智能在智能決策、自我行動(dòng)過程中做出違背人類目標(biāo)、損害人類權(quán)益決策和行動(dòng)的風(fēng)險(xiǎn),這種人工智能“反人類”決策往往違反人類社會(huì)的法律、倫理規(guī)則。實(shí)踐中也已出現(xiàn)類似的實(shí)例,比如在一次護(hù)理人員與智能音箱溝通心臟問題時(shí),該智能音箱居然表示,“心跳是肢體最糟糕的過程”[2]。一般產(chǎn)品都是在人的操作下發(fā)揮產(chǎn)品功能,但人工智能的價(jià)值或者說人工智能發(fā)展的目標(biāo)在于代替人類做出思考、判斷、決策。在高危行業(yè)、推算領(lǐng)域等人工智能應(yīng)用場景,人工智能往往可以比人類做得更好,比如人工智能診斷系統(tǒng)就大大提高了一些疾病診斷的準(zhǔn)確率。但從另一方面講,不同于人類憑借理性和經(jīng)驗(yàn)的決策,人工智能的決策是建立在數(shù)據(jù)收集、分析與自動(dòng)化推理之上,一個(gè)由算法“黑箱”控制的無意識的數(shù)字決策,容易將現(xiàn)行的一些相關(guān)法律法規(guī)、倫理準(zhǔn)則變成廢紙。人工智能應(yīng)用于人類社會(huì)要直接處理人類社會(huì)的倫理判斷與選擇,但人工智能卻不具有人的倫理情感、法律意識,不具有人類所獨(dú)有的是非善惡觀念,不會(huì)以人類社會(huì)價(jià)值觀為背景做出判斷。因此,人工智能依靠其系統(tǒng)設(shè)定做出的單向性決策,可能會(huì)違反人類社會(huì)公認(rèn)規(guī)則。賦予人工智能自主思考的能力可能導(dǎo)致其有能力違反被賦予的“規(guī)則”[3]。
人工智能的表現(xiàn)與活動(dòng)肯定不能逾越人類社會(huì)的法律法規(guī)、倫理規(guī)則,但法律法規(guī)、倫理規(guī)則能否直接適用人工智能,這需要從人工智能的法律地位出發(fā)來探討。鑒于近年來人工智能發(fā)展出來了自我學(xué)習(xí)、自我決策等能力,有些能力還超越人類,因此,不少學(xué)者主張賦予人工智能法律主體地位,讓人工智能直接接受現(xiàn)行法律的規(guī)制。有學(xué)者主張以財(cái)產(chǎn)性人格的進(jìn)路將人工智能擬制為電子法人[4]。還有學(xué)者認(rèn)為,人工智能應(yīng)當(dāng)具有有限的法律人格[5]。然而,人工智能的所作所為是按照既定程序運(yùn)行的,雖然人工智能具有學(xué)習(xí)能力,但其僅僅是依據(jù)預(yù)定的程序去學(xué)習(xí),改變不了其本質(zhì)上依賴算法程序的特性,法律不可能對人工智能進(jìn)行激勵(lì)、約束或控制,人工智能也沒有自己的財(cái)產(chǎn)可以獨(dú)立承擔(dān)法律責(zé)任,讓人工智能成為法律主體、接受法律規(guī)范沒有任何意義。
人工智能終究是人類發(fā)明的特殊工具,不具有獨(dú)立存在的社會(huì)價(jià)值,人工智能應(yīng)始終置于人類的控制下,應(yīng)將其作為“法律關(guān)系的客體而非主體”[6]。人工智能作為人造物,權(quán)利、義務(wù)、責(zé)任對其來說并不具備與對人類相同的作用,比如適用于人類的懲罰方式如拘役、有期徒刑、死刑等就對人工智能沒有震懾作用。倫理學(xué)界的學(xué)者也指出,人工智能的行為是根據(jù)規(guī)則形成的,并不是出于其自由意志,將其作為道德主體不符合我們對責(zé)任主體的理解。[7]因此,在人工智能不具有主體地位的情況下,人工智能不能成為法律、倫理直接規(guī)范的對象。人工智能是人類生產(chǎn)設(shè)計(jì)的,規(guī)制人工智能還要從人工智能的生產(chǎn)設(shè)計(jì)環(huán)節(jié)入手。
綜上,如果將決策權(quán)交予人工智能,卻又不設(shè)置決策的倫理界限,人工智能就會(huì)威脅人類社會(huì)規(guī)則。人工智能活動(dòng)需要接受法律、倫理規(guī)范的審視,但我們無法直接要求人工智能遵守法律、倫理規(guī)則。解決人工智能倫理風(fēng)險(xiǎn)最終要解決的還是如何激勵(lì)、約束、規(guī)范其設(shè)計(jì)、生產(chǎn)活動(dòng)的問題。人工智能的決策是通過運(yùn)算得出的,其運(yùn)算具有規(guī)律性、重復(fù)性,這也決定了控制算法程序以規(guī)制其倫理風(fēng)險(xiǎn)具有可行性。
人工智能所帶來的倫理風(fēng)險(xiǎn)國外學(xué)界也已廣泛關(guān)注,霍金就曾表達(dá)過對人工智能發(fā)展失控的擔(dān)憂。對于如何規(guī)制人工智能的倫理風(fēng)險(xiǎn),國外也在積極探索,比如在人工智能對數(shù)據(jù)的處理過程中加強(qiáng)保護(hù)個(gè)人信息等。但遺憾的是至今國外也未建立起針對人工智能倫理風(fēng)險(xiǎn)的系統(tǒng)規(guī)制體系。筆者認(rèn)為,如何建立人工智能倫理風(fēng)險(xiǎn)的法律規(guī)制體系,應(yīng)從人工智能的本質(zhì)屬性出發(fā)來考慮。一般來說,制造者以消費(fèi)者一定的欲望或是需求為基礎(chǔ),生產(chǎn)出來的各種類物的集合就是產(chǎn)品,而人工智能就是為了滿足特殊需求而生產(chǎn)的特殊產(chǎn)品。人工智能究其本質(zhì)依然是人類設(shè)計(jì)制造出來、經(jīng)過銷售后為人類服務(wù)的產(chǎn)品。所以,仍然不能脫離“物”的范疇體系。人工智能產(chǎn)品一般也是批量化生產(chǎn)和規(guī)模化銷售。從屬性界定來看,人工智能應(yīng)然屬于產(chǎn)品的序列,應(yīng)接受我國《產(chǎn)品質(zhì)量法》的調(diào)整,而《產(chǎn)品質(zhì)量法》規(guī)制人工智能倫理風(fēng)險(xiǎn)也具有多個(gè)方面的適應(yīng)性與合理性。
第一,《產(chǎn)品質(zhì)量法》的產(chǎn)品質(zhì)量和產(chǎn)品缺陷制度,可以用來判斷人工智能產(chǎn)品是否合格、是否符合社會(huì)要求。人工智能所伴隨的各種風(fēng)險(xiǎn),比如違反倫理的自動(dòng)化決策、失控而致?lián)p第三人等方面,其實(shí)都來源于人工智能產(chǎn)品本身的缺陷。人工智能不應(yīng)存在倫理風(fēng)險(xiǎn),這也是對人工智能產(chǎn)品質(zhì)量的要求。人類社會(huì)的行為規(guī)則適用于人工智能自動(dòng)化決策,途徑也在于構(gòu)建人工智能生產(chǎn)設(shè)計(jì)的質(zhì)量標(biāo)準(zhǔn)。傳統(tǒng)產(chǎn)品的缺陷類型,仍然可以適用于人工智能,比如智能機(jī)器人電池漏電就屬于制造缺陷;有些人工智能廠家采用過度宣傳的手段對人工智能產(chǎn)品進(jìn)行宣傳銷售,導(dǎo)致消費(fèi)者對人工智能產(chǎn)品盲目自信,這屬于人工智能的警示缺陷[8],即因?yàn)榫静粔虺浞謱?dǎo)致產(chǎn)品存在缺陷。人工智能與其他產(chǎn)品不同,人工智能致人損害基本都是由于系統(tǒng)出現(xiàn)故障導(dǎo)致的,或許是系統(tǒng)接收信息的敏感度低而延遲處理危險(xiǎn)信號導(dǎo)致?lián)p害行為發(fā)生,或許是在自主學(xué)習(xí)過程中錯(cuò)誤地預(yù)測了外部環(huán)境導(dǎo)致實(shí)施了錯(cuò)誤的行為致人損害,或許是系統(tǒng)運(yùn)行程序沒有設(shè)定必要的應(yīng)有規(guī)則致人損害,這些都屬于系統(tǒng)設(shè)計(jì)存在的漏洞,屬于設(shè)計(jì)缺陷??梢?,規(guī)避人工智能的倫理風(fēng)險(xiǎn),從本質(zhì)上還是要控制人工智能的產(chǎn)品質(zhì)量,防范出現(xiàn)產(chǎn)品缺陷。
第二,《產(chǎn)品質(zhì)量法》的產(chǎn)品責(zé)任制度,可以督促生產(chǎn)者盡最大努力保證人工智能這一產(chǎn)品的安全,杜絕人工智能在自動(dòng)化決策過程中出現(xiàn)倫理風(fēng)險(xiǎn)。一方面,很多時(shí)候人工智能運(yùn)行過程中處于完全自主、自動(dòng)的狀態(tài),此時(shí)如果出現(xiàn)倫理風(fēng)險(xiǎn)進(jìn)而導(dǎo)致產(chǎn)生侵害他人權(quán)益的后果,判斷誰有過錯(cuò)并進(jìn)而確定責(zé)任人就成為難題。比如自動(dòng)駕駛汽車發(fā)生交通事故時(shí),車內(nèi)乘客并沒有操控汽車,自動(dòng)駕駛汽車是按照設(shè)定的程序運(yùn)行,誰有過錯(cuò)就難以判定。而產(chǎn)品責(zé)任實(shí)行無過錯(cuò)責(zé)任歸責(zé)原則,可以督促生產(chǎn)者、設(shè)計(jì)者履行自己的產(chǎn)品質(zhì)量控制責(zé)任。另一方面,人工智能產(chǎn)品在致人損害的過程中大多都是由人工智能決策系統(tǒng)出現(xiàn)故障導(dǎo)致的,有時(shí)候是人工智能在自主學(xué)習(xí)過程中錯(cuò)誤地預(yù)測了外部的環(huán)境,實(shí)施了錯(cuò)誤的行為導(dǎo)致?lián)p害發(fā)生。這種侵權(quán)事故的發(fā)生究其原因還是人工智能系統(tǒng)漏洞,應(yīng)由人工智能產(chǎn)品生產(chǎn)者依照產(chǎn)品責(zé)任承擔(dān)民事責(zé)任。比如醫(yī)療人工智能產(chǎn)品,不論是初級的醫(yī)療人工智能產(chǎn)品還是尖端醫(yī)療智能機(jī)器人,都是醫(yī)療診治過程中的輔助工具,如果由于醫(yī)療人工智能產(chǎn)品發(fā)生故障導(dǎo)致醫(yī)療侵權(quán),那么讓設(shè)計(jì)制造者承擔(dān)侵權(quán)責(zé)任才能督促廠家生產(chǎn)出合格的醫(yī)療人工智能產(chǎn)品。
第三,《產(chǎn)品質(zhì)量法》的產(chǎn)品責(zé)任制度抗辯事由也可以適用于人工智能倫理風(fēng)險(xiǎn)引發(fā)的損失賠償場合,保障生產(chǎn)積極性。人工智能的倫理風(fēng)險(xiǎn)需要控制,但不能因?yàn)橐?guī)避倫理風(fēng)險(xiǎn)而遏制人工智能技術(shù)的發(fā)展。我國的《產(chǎn)品質(zhì)量法》第四十一條規(guī)定了產(chǎn)品責(zé)任制度抗辯事由,其中科學(xué)技術(shù)無法發(fā)現(xiàn)瑕疵的抗辯事由也被稱為開發(fā)風(fēng)險(xiǎn)抗辯,開發(fā)風(fēng)險(xiǎn)抗辯的衡量標(biāo)準(zhǔn)一般是社會(huì)整體層面的平均科學(xué)技術(shù)水平。這些抗辯事由適用于人工智能致?lián)p具有合理性,可以在一定程度上鼓勵(lì)科技創(chuàng)新。當(dāng)然這種抗辯并非易事,比如生產(chǎn)設(shè)計(jì)者以缺陷尚不能發(fā)現(xiàn)這種法定事由主張免責(zé),就需要證明這種缺陷超越了人類的認(rèn)知能力和水平。人工智能具有后天學(xué)習(xí)能力,也許會(huì)在學(xué)習(xí)了人類知識之后產(chǎn)生決策上的倫理風(fēng)險(xiǎn),但這是生產(chǎn)者在生產(chǎn)人工智能產(chǎn)品時(shí)就可以預(yù)測到的現(xiàn)象,當(dāng)然不能以此為由免責(zé)。
現(xiàn)階段《產(chǎn)品質(zhì)量法》規(guī)制人工智能倫理風(fēng)險(xiǎn)具有合理性,當(dāng)然如果未來人工智能的發(fā)展實(shí)現(xiàn)了自我規(guī)范和約束,具有法律倫理、是非觀念意識,人工智能就可能直接成為主體而接受法律、倫理規(guī)則的調(diào)整了。但在人工智能可以進(jìn)行自我管理之前,人工智能的倫理風(fēng)險(xiǎn)也只有通過《產(chǎn)品質(zhì)量法》才可以得到恰當(dāng)、良好的控制。
雖然人工智能本身可以克服人類在運(yùn)算能力等方面的不足,但人工智能賴以決策的數(shù)據(jù)不全面、機(jī)械推演等都可能會(huì)導(dǎo)致人工智能偏離人類初衷而出現(xiàn)倫理風(fēng)險(xiǎn),此類復(fù)雜問題的解決應(yīng)落腳于產(chǎn)品質(zhì)量控制,主要是人工智能產(chǎn)品質(zhì)量標(biāo)準(zhǔn)的制定及產(chǎn)品缺陷的認(rèn)定。
人工智能是否會(huì)出現(xiàn)違背人類根本目標(biāo)、利益的倫理風(fēng)險(xiǎn),取決于人工智能的決策系統(tǒng)即算法,而這在根本上屬于人工智能的質(zhì)量要求范疇。但傳統(tǒng)的產(chǎn)品質(zhì)量標(biāo)準(zhǔn)是對產(chǎn)品的結(jié)構(gòu)、規(guī)格、物理性能、重量、檢驗(yàn)方法等所作的技術(shù)規(guī)定,絲毫不涉及社會(huì)倫理方面的內(nèi)容。因此,我們需要改進(jìn)人工智能的產(chǎn)品質(zhì)量標(biāo)準(zhǔn)。傳統(tǒng)的產(chǎn)品質(zhì)量標(biāo)準(zhǔn)仍可以適用于人工智能產(chǎn)品,比如對自動(dòng)駕駛汽車來說,傳統(tǒng)汽車質(zhì)量標(biāo)準(zhǔn)對輪胎、發(fā)動(dòng)機(jī)的質(zhì)量要求仍然適用。但人工智能產(chǎn)品的特殊性在于,自動(dòng)決策是要幫助人類做出選擇,這就導(dǎo)致人工智能很多時(shí)候會(huì)像人類一樣陷入道德選擇困境。例如在碰撞不可避免時(shí),自動(dòng)駕駛汽車決策應(yīng)遵循何種決策規(guī)則,是優(yōu)先保護(hù)乘客安全,還是設(shè)法去拯救最多的人,抑或是保護(hù)最有價(jià)值的財(cái)產(chǎn)以便使車主財(cái)產(chǎn)利益最大化,就是一個(gè)難題。自動(dòng)駕駛汽車的算法設(shè)計(jì)繞不開倫理審視。
通常情況下,人工智能的算法主要從結(jié)果出發(fā),把效率作為其第一要義,這很可能導(dǎo)致算法無視社會(huì)權(quán)利觀念、公平觀念等。防范人工智能產(chǎn)品可能出現(xiàn)有違道德倫理的決策,是為了避免人工智能給人類社會(huì)帶來系統(tǒng)性倫理風(fēng)險(xiǎn)。人工智能從事的行為其實(shí)原本屬于人類應(yīng)進(jìn)行的決策,這就要求應(yīng)以人類社會(huì)規(guī)范來檢視人工智能的表現(xiàn)。但人工智能不會(huì)以人類特有思維做出判斷,不會(huì)考慮決策背后的文化、價(jià)值等社會(huì)因素。我們需要做的是通過規(guī)范設(shè)計(jì)保障人工智能的決策符合社會(huì)倫理要求。
今后,人工智能質(zhì)量標(biāo)準(zhǔn)中的倫理要求應(yīng)納入立法,成為一項(xiàng)強(qiáng)制性的規(guī)范。建議修訂《產(chǎn)品質(zhì)量法》,并明確人工智能產(chǎn)品的質(zhì)量標(biāo)準(zhǔn)應(yīng)包括對其程序設(shè)計(jì)即算法方面的要求,人工智能的算法應(yīng)符合社會(huì)倫理標(biāo)準(zhǔn)。具體內(nèi)容包括:一是人工智能算法操縱下的自動(dòng)化決策應(yīng)符合法律法規(guī)。法律法規(guī)的權(quán)威性在任何時(shí)候都應(yīng)該維護(hù),人工智能決策如果違反法律法規(guī),比如人工智能算法出現(xiàn)違反法律平等原則的歧視性決策,應(yīng)屬于產(chǎn)品重大缺陷。二是人工智能算法操縱下的自動(dòng)化決策應(yīng)符合社會(huì)主義核心價(jià)值觀和倫理道德原則,尊重主體權(quán)利,尊重他人人格尊嚴(yán)等。三是人工智能的算法應(yīng)具有公正和可解釋性。人工智能的算法應(yīng)接受檢驗(yàn),主要是算法運(yùn)行結(jié)果的檢驗(yàn)。法律可能無法保證算法的透明,因?yàn)槠胀ù蟊婋y以理解算法運(yùn)算機(jī)理,但要保障算法的公正和可解釋性。目前我國還未制定人工智能產(chǎn)品質(zhì)量的國家、行業(yè)標(biāo)準(zhǔn)。建議以后將科技部作為人工智能產(chǎn)品質(zhì)量的監(jiān)管部門,起草制定人工智能決策場合涉及到的社會(huì)倫理標(biāo)準(zhǔn)具體細(xì)則。人工智能產(chǎn)品的倫理問題往往是消費(fèi)者難以發(fā)現(xiàn)的,而算法的倫理檢驗(yàn)其實(shí)是人工智能產(chǎn)品質(zhì)量的檢驗(yàn),應(yīng)成為人工智能產(chǎn)品上市的必經(jīng)環(huán)節(jié)。新類型的人工智能產(chǎn)品進(jìn)入市場銷售前,監(jiān)管部門要對人工智能產(chǎn)品進(jìn)行內(nèi)部算法檢驗(yàn),對其決策風(fēng)險(xiǎn)進(jìn)行評估,確保算法的結(jié)果符合法律法規(guī)、社會(huì)核心倫理觀。
按照我國《產(chǎn)品質(zhì)量法》的規(guī)定,如果一個(gè)產(chǎn)品質(zhì)量不合格就存在產(chǎn)品缺陷,傳統(tǒng)產(chǎn)品主要從性能、耐用性、可靠性與維修性、安全性、適應(yīng)性、經(jīng)濟(jì)性等方面來設(shè)定質(zhì)量的合格判斷標(biāo)準(zhǔn),不涉及倫理問題。傳統(tǒng)產(chǎn)品缺陷制度在適用于人工智能產(chǎn)品時(shí)應(yīng)予以改進(jìn)。如果人工智能決策系統(tǒng)不能避免人工智能出現(xiàn)違反倫理道德規(guī)范行為的,在本質(zhì)上屬于程序設(shè)計(jì)問題,依據(jù)傳統(tǒng)的產(chǎn)品質(zhì)量法,這應(yīng)屬于產(chǎn)品設(shè)計(jì)缺陷。但筆者認(rèn)為,如果人工智能的程序設(shè)計(jì)不能避免人工智能出現(xiàn)違反社會(huì)倫理做出決策的,人工智能的算法不符合社會(huì)倫理標(biāo)準(zhǔn)的,應(yīng)視為存在產(chǎn)品倫理缺陷。未來應(yīng)將人工智能產(chǎn)品倫理缺陷獨(dú)立為一個(gè)類型,具體原因在于:一是不管是產(chǎn)品的設(shè)計(jì)缺陷,還是制造缺陷和警示缺陷,所針對的缺陷都是產(chǎn)品存在危及人身和財(cái)產(chǎn)安全的不合理風(fēng)險(xiǎn),但人工智能產(chǎn)品倫理風(fēng)險(xiǎn)的本質(zhì)是自動(dòng)化決策違背人類社會(huì)倫理規(guī)范,這不一定會(huì)導(dǎo)致出現(xiàn)現(xiàn)實(shí)的可評估的人身和財(cái)產(chǎn)損害,比如存在性別歧視的算法所導(dǎo)致的后果就是一種社會(huì)不良影響。所以現(xiàn)有產(chǎn)品缺陷制度無法涵蓋人工智能產(chǎn)品倫理缺陷的內(nèi)涵。二是倫理缺陷是導(dǎo)致人工智能產(chǎn)品存在倫理風(fēng)險(xiǎn)的源頭,倫理缺陷雖然也是設(shè)計(jì)問題造成的,但卻不同于傳統(tǒng)的產(chǎn)品設(shè)計(jì)缺陷。通常情況下設(shè)計(jì)缺陷一般是指產(chǎn)品結(jié)構(gòu)設(shè)計(jì)、選材設(shè)計(jì)、安全裝置設(shè)計(jì)等方面存在的問題,但倫理缺陷是沒有考慮社會(huì)倫理規(guī)則而導(dǎo)致決策上出現(xiàn)問題。傳統(tǒng)設(shè)計(jì)缺陷是可以預(yù)測的,但許多人工智能的自動(dòng)化決策是無法事先預(yù)估的,把倫理缺陷列為一個(gè)單獨(dú)的產(chǎn)品缺陷類型,才能督促人工智能的產(chǎn)品制造商重視并杜絕此類缺陷的出現(xiàn)。三是人工智能產(chǎn)品屬于物,不是倫理主體,但人工智能蘊(yùn)含著人類的思想,與人類道德密切相關(guān)。人工智能的決策過程與結(jié)果都要接受人類法律、道德的評判。因此,倫理規(guī)范對人工智能的評判結(jié)果不合格的,就應(yīng)有不合格的結(jié)論,即倫理缺陷。
人工智能產(chǎn)品如果出現(xiàn)倫理風(fēng)險(xiǎn),侵害了其他主體的合法權(quán)益,需要以產(chǎn)品責(zé)任予以規(guī)制和救濟(jì),以解決人工智能侵權(quán)的責(zé)任主體、歸責(zé)原則、責(zé)任方式。一個(gè)由違法、違反倫理道德的算法引發(fā)的損害,應(yīng)視為產(chǎn)品缺陷引發(fā)的損害,要按照產(chǎn)品責(zé)任承擔(dān)侵權(quán)責(zé)任,這樣可以倒逼人工智能產(chǎn)品的生產(chǎn)商控制算法。因此,傳統(tǒng)《產(chǎn)品質(zhì)量法》規(guī)定的產(chǎn)品責(zé)任舉證規(guī)則、責(zé)任主體規(guī)則都需要改進(jìn),才能更科學(xué)地規(guī)制人工智能產(chǎn)品侵權(quán)責(zé)任。
在通常情形下,受害者要求產(chǎn)品的責(zé)任主體承擔(dān)產(chǎn)品責(zé)任,應(yīng)對被訴產(chǎn)品存在缺陷、損害的發(fā)生、產(chǎn)品缺陷與損害之間存在因果關(guān)系進(jìn)行舉證證明。但人工智能產(chǎn)品設(shè)計(jì)、倫理缺陷屬于算法程序上的缺陷,需要從其運(yùn)算原理上進(jìn)行說明,指出設(shè)計(jì)環(huán)節(jié)上存在的不合理之處,對此問題社會(huì)大眾在理解上都會(huì)存在困難,更不用說舉證了,即便是該領(lǐng)域的專業(yè)人士也難以通過算法證明算法程序上的缺陷。一些人工智能還具有后天學(xué)習(xí)能力,其判斷分析建立在后期不斷增加的數(shù)據(jù)資料之上,其行為、決策的推理過程,已經(jīng)不同于設(shè)計(jì)者設(shè)計(jì)人工智能之初,而且人工智能的計(jì)算分析能力遠(yuǎn)比人腦強(qiáng)大,想通過人類的運(yùn)算證明人工智能產(chǎn)品決策上的設(shè)計(jì)、倫理缺陷是一項(xiàng)幾乎無法完成的工作。很多時(shí)候,即便專業(yè)人士證明了人工智能產(chǎn)品的設(shè)計(jì)、倫理缺陷,司法工作人員能否對此形成統(tǒng)一意見也是個(gè)問題。因此,在人工智能產(chǎn)品責(zé)任認(rèn)定場合,有必要對人工智能產(chǎn)品是否存在設(shè)計(jì)、倫理缺陷實(shí)行舉證責(zé)任倒置。受害人證明了存在損害且損害是由人工智能產(chǎn)品造成的,人工智能產(chǎn)品生產(chǎn)者就應(yīng)當(dāng)對人工智能是否存在設(shè)計(jì)、倫理缺陷進(jìn)行舉證,并承擔(dān)舉證不能的風(fēng)險(xiǎn)。如果人工智能產(chǎn)品生產(chǎn)者證明了產(chǎn)品不存在設(shè)計(jì)、倫理缺陷,受害人就應(yīng)當(dāng)對人工智能產(chǎn)品是否存在其他缺陷進(jìn)一步進(jìn)行舉證。
人工智能產(chǎn)品的研發(fā)設(shè)計(jì)環(huán)節(jié)有很強(qiáng)的專業(yè)性,即使是專業(yè)人士也很難清晰地解釋其計(jì)算過程和原理,為了保障研發(fā)并分散研發(fā)失敗的投資風(fēng)險(xiǎn),很多人工智能產(chǎn)品設(shè)計(jì)者大多選擇單獨(dú)成立法人或其他獨(dú)立市場主體。實(shí)踐中,許多人工智能產(chǎn)品的致?lián)p都是設(shè)計(jì)缺陷、倫理缺陷造成的,生產(chǎn)者也無法控制人工智能會(huì)做出什么樣的決策。為了督促設(shè)計(jì)者盡可能地防范人工智能產(chǎn)品出現(xiàn)風(fēng)險(xiǎn),應(yīng)由設(shè)計(jì)者對基于設(shè)計(jì)因素發(fā)生的設(shè)計(jì)缺陷、倫理缺陷承擔(dān)產(chǎn)品責(zé)任。人工智能基于算法擁有獨(dú)立的自主學(xué)習(xí)系統(tǒng)和辨認(rèn)、控制能力,這種算法是設(shè)計(jì)者才能掌控的。如果人工智能產(chǎn)品基于設(shè)計(jì)上存在的問題而發(fā)生侵權(quán),要求生產(chǎn)者和銷售者承擔(dān)責(zé)任,也無法起到防止風(fēng)險(xiǎn)發(fā)生的效果。因此,人工智能產(chǎn)品設(shè)計(jì)者應(yīng)納入侵權(quán)責(zé)任主體,與生產(chǎn)者一道承擔(dān)無過錯(cuò)的產(chǎn)品侵權(quán)責(zé)任。
在西方法學(xué)界,機(jī)器人是否是人、誰為機(jī)器人的行為負(fù)責(zé)也是個(gè)爭論不休的話題,西方學(xué)界也預(yù)判到當(dāng)人工智能有了情感交流能力,在自然人與自然人、人工智能與人工智能以及自然人與人工智能之間的多元關(guān)系中,誰來制定規(guī)則,為誰制定規(guī)則,都遠(yuǎn)超出了當(dāng)下的想象。不過截至目前來看,人工智能仍應(yīng)接受人類的控制,人工智能產(chǎn)品是人類生產(chǎn)的產(chǎn)品,在法律上就應(yīng)接受《產(chǎn)品質(zhì)量法》的規(guī)制。不過人工智能產(chǎn)品與一般產(chǎn)品不同的是,人工智能擁有自我判斷能力,替代人類決策使得人工智能的倫理選擇、倫理風(fēng)險(xiǎn)必然出現(xiàn)。我們需要做的是要以倫理為先導(dǎo)構(gòu)建人工智能調(diào)控體系。遺憾的是,我國 2020年頒布的《中華人民共和國民法典》并未直接規(guī)范人工智能問題,未來可以先在《產(chǎn)品質(zhì)量法》中完善人工智能產(chǎn)品的質(zhì)量標(biāo)準(zhǔn)、侵權(quán)責(zé)任,待《中華人民共和國民法典》出臺(tái)修正案或出臺(tái)司法解釋時(shí)再專門增加條款規(guī)范人工智能法律問題。
總之,建議在我國《產(chǎn)品質(zhì)量法》中增加條文專門規(guī)范人工智能產(chǎn)品的特殊問題:人工智能產(chǎn)品的自動(dòng)化決策應(yīng)符合法律法規(guī)和社會(huì)倫理規(guī)范,人工智能產(chǎn)品銷售前應(yīng)接受倫理規(guī)范審核;人工智能產(chǎn)品的自動(dòng)化決策違反法律法規(guī)或倫理規(guī)范的,應(yīng)視為存在產(chǎn)品倫理缺陷;人工智能產(chǎn)品造成他人損害的,生產(chǎn)者、設(shè)計(jì)者應(yīng)對產(chǎn)品是否存在設(shè)計(jì)缺陷、倫理缺陷承擔(dān)舉證責(zé)任;人工智能產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者、設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。
成都行政學(xué)院學(xué)報(bào)2022年2期