內(nèi)容提要:人工智能的發(fā)展有賴于用戶能夠?qū)ζ淅斫?、信任和管理,但人工智能算法的潛在不透明性?dǎo)致用戶與人工智能產(chǎn)品的信任危機(jī)日益加重。人工智能算法可能會(huì)帶來(lái)法律風(fēng)險(xiǎn),如侵犯用戶的知情權(quán)、決策權(quán)與隱私權(quán),以及算法歧視、算法對(duì)抗等不利后果。目前,我國(guó)已初步具備算法規(guī)范,但人工智能算法信任機(jī)制還未成體系。以信義法規(guī)范調(diào)整人工智能與用戶間的權(quán)利義務(wù)關(guān)系,具有制度優(yōu)越性。同時(shí),應(yīng)從算法備案制度著手,完善算法授權(quán)機(jī)制,及時(shí)進(jìn)行算法糾偏,保障用戶的算法選擇權(quán)。在宏觀層面,建立可解釋性人工智能規(guī)范體系亦是核心舉措??偠灾?,人工智能算法信任機(jī)制應(yīng)是系統(tǒng)性規(guī)范體系,并能促進(jìn)人工智能產(chǎn)業(yè)健康有序發(fā)展。
關(guān)鍵詞:算法信任 信義義務(wù) 算法監(jiān)督 可解釋人工智能
在數(shù)字經(jīng)濟(jì)飛速發(fā)展的今天,人工智能已成為各個(gè)領(lǐng)域重要的生產(chǎn)工具。人工智能產(chǎn)品不斷創(chuàng)新和普及,改變了人類社會(huì)的運(yùn)行模式,也帶來(lái)了巨大經(jīng)濟(jì)效益。一般而言,人工智能主要借助機(jī)器學(xué)習(xí)自主進(jìn)行信息獲取、感知、學(xué)習(xí)、決策以及行動(dòng),算法是其重要的底層邏輯。當(dāng)前,我國(guó)算法技術(shù)發(fā)展已達(dá)到關(guān)鍵節(jié)點(diǎn),成為建設(shè)數(shù)字中國(guó)的重點(diǎn)發(fā)展領(lǐng)域。我國(guó)不斷創(chuàng)新發(fā)展人工智能產(chǎn)品的同時(shí),也意識(shí)到了一些潛在問(wèn)題:鑒于人工智能潛在的不透明性,用戶難以理解算法的運(yùn)作過(guò)程時(shí),就無(wú)法充分信任該合作伙伴,新的法律風(fēng)險(xiǎn)及倫理問(wèn)題由此產(chǎn)生。人工智能的廣泛應(yīng)用,很大程度上取決于用戶能夠?qū)ζ淅斫?、信任和有效管理。因此,人工智能算法信任機(jī)制如何構(gòu)建,已成為實(shí)務(wù)界和學(xué)術(shù)界均亟待解決的問(wèn)題。為了化解人工智能用戶與算法設(shè)計(jì)者、算法服務(wù)提供者間的信任危機(jī),在現(xiàn)有規(guī)范體系的框架之下,本文基于算法的本質(zhì),討論我國(guó)人工智能算法信任機(jī)制構(gòu)建,并從不同視角討論法律上的可行路徑,以期為化解算法信任危機(jī)提供些許建議。
一、問(wèn)題的提出
一般而言,算法是應(yīng)用于數(shù)學(xué)與計(jì)算機(jī)科學(xué)領(lǐng)域的、為解決某一特定問(wèn)題而采取的有限且明確的操作步驟,具有通用性、有效性、有窮性及確定性的特征。參見(jiàn)劉友華:《算法偏見(jiàn)及其規(guī)制路徑研究》,載《法學(xué)雜志》2019年第6期?!孔詣?dòng)駕駛、醫(yī)療機(jī)器人、智能投顧、社交應(yīng)用等人工智能產(chǎn)品,均需要算法作為其技術(shù)核心。但是,人工智能算法有其自身局限性:一方面,算法可能存在技術(shù)缺陷,決策錯(cuò)誤的可能性始終存在;另一方面,由于算法模型的復(fù)雜性,用戶可能無(wú)法理解算法的運(yùn)行流程,抑或?qū)ζ渲幸恍┎襟E和潛在的風(fēng)險(xiǎn)并不明晰,從而對(duì)人工智能系統(tǒng)的輸入數(shù)據(jù)和輸出結(jié)果之間存在無(wú)法洞悉的“隱層”,【參見(jiàn)許可:《人工智能的算法黑箱與數(shù)據(jù)正義》,載《社會(huì)科學(xué)報(bào)》2018年3月29日,第6版。】算法黑箱、算法偏見(jiàn)等諸多問(wèn)題由此產(chǎn)生,并進(jìn)一步造成算法信任危機(jī)。從法律的角度看,算法信任危機(jī)會(huì)帶來(lái)如下法律風(fēng)險(xiǎn)。
第一,算法黑箱侵犯用戶的知情權(quán)與自主決策權(quán)。一般而言,人們自主對(duì)私人與公共生活作出選擇,但不透明的算法可能無(wú)意中成為決策主體?!緟⒁?jiàn)丁曉東:《論算法的法律規(guī)制》,載《中國(guó)社會(huì)科學(xué)》2020年第12期?!坑杏^點(diǎn)認(rèn)為,算法透明是消費(fèi)者知情權(quán)的一部分,而算法黑箱實(shí)際上是一種信息不對(duì)稱,無(wú)形中會(huì)導(dǎo)致消費(fèi)者知情權(quán)受損,從而影響其自主決策權(quán)。【徐鳳:《人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開(kāi)》,載《東方法學(xué)》2019年第6期?!客瑫r(shí),當(dāng)算法的開(kāi)發(fā)者與消費(fèi)者存在利益沖突時(shí),算法黑箱可能作出更有利于開(kāi)發(fā)者的決定,難以保證獨(dú)立和客觀。不過(guò),人工智能的算法模型何時(shí)能夠算作黑箱,并沒(méi)有明確的閾值。具有易于理解的結(jié)構(gòu)以及有限數(shù)量和參數(shù)的簡(jiǎn)單模型,如線性回歸或決策樹,通常并不需要額外解釋算法。相比之下,復(fù)雜的模型較容易被視為黑箱。因此,黑箱模型必須借助于事后解釋,通過(guò)全局解釋或局部解釋的方式,提高自動(dòng)化算法的透明度,破解潛在的黑箱問(wèn)題。
第二,算法侵犯?jìng)€(gè)人隱私權(quán)風(fēng)險(xiǎn)。例如,在數(shù)據(jù)畫像領(lǐng)域,為盡可能使數(shù)據(jù)畫像精確,商業(yè)機(jī)構(gòu)需收集和處理大量個(gè)人數(shù)據(jù)。商業(yè)機(jī)構(gòu)依賴自動(dòng)化算法作出決策時(shí),算法的運(yùn)行過(guò)程很多時(shí)候?qū)τ脩舳际呛谙洌涸跀?shù)據(jù)收集環(huán)節(jié),用戶對(duì)此環(huán)節(jié)常不知情,商業(yè)機(jī)構(gòu)可能過(guò)度收集與其服務(wù)無(wú)關(guān)的信息;在數(shù)據(jù)處理環(huán)節(jié),對(duì)個(gè)人信息挖掘和對(duì)比可能會(huì)分析出用戶不愿披露的全新信息。這些行為都存在侵犯用戶個(gè)人隱私的風(fēng)險(xiǎn)。
第三,算法歧視風(fēng)險(xiǎn)。算法是由人類開(kāi)發(fā)的,因而幾乎無(wú)可避免地帶有開(kāi)發(fā)者的判斷和價(jià)值衡量。據(jù)報(bào)道,自動(dòng)招聘工具存在歧視申請(qǐng)軟件開(kāi)發(fā)工作女性的情況,因?yàn)檫^(guò)去的數(shù)據(jù)表明,從事類似職位的男性表現(xiàn)更優(yōu)?!綵iad Obermeyer et al. ‘Dissecting racial bias in an algorithm used to manage the health of populations’ (2019) 366 Science 447, 453.】為了使算法更為客觀,人工智能算法開(kāi)發(fā)者近年來(lái)致力于制定檢測(cè)和減輕偏見(jiàn)的具體標(biāo)準(zhǔn),盡可能地避免偏見(jiàn)。同時(shí),常識(shí)在多大程度上可能屬于偏見(jiàn)這一問(wèn)題也并未解決。例如,在智能投顧產(chǎn)品中,算法可能認(rèn)為年輕且精通技術(shù)的投資者對(duì)智能產(chǎn)品有所偏好,這種常識(shí)可以在推銷新產(chǎn)品時(shí)發(fā)揮作用,但同時(shí)使違反人工智能倫理的可能性大大上升。
第四,算法權(quán)力導(dǎo)致人與技術(shù)對(duì)抗性增強(qiáng)。目前,算法已經(jīng)逐步具備了一定的公共、行政力量的特征,超越了傳統(tǒng)意義上政府才能具備的權(quán)力,并使以國(guó)家為中心的縱向權(quán)力模式向橫向權(quán)力模式發(fā)展,進(jìn)一步加強(qiáng)權(quán)力主體去中心化傾向。【參見(jiàn)郭哲:《反思算法權(quán)力》,載《法學(xué)評(píng)論》2020年第6期。】這種算法權(quán)力會(huì)通過(guò)算法的執(zhí)行形成對(duì)人類社會(huì)的規(guī)訓(xùn),網(wǎng)絡(luò)監(jiān)視、信息繭房就是算法權(quán)力的現(xiàn)實(shí)映射?!緟⒁?jiàn)袁康:《可信算法的法律規(guī)制》,載《東方法學(xué)》2021年第3期。】如果人類與技術(shù)之間的權(quán)威地位發(fā)生偏移,就會(huì)導(dǎo)致二者間出現(xiàn)對(duì)抗,甚至導(dǎo)致人與人之間的對(duì)抗。
目前,各地均試圖通過(guò)提高人工智能算法的透明度來(lái)提升用戶對(duì)算法的信任程度。從技術(shù)上看,解決算法黑箱、算法歧視等不可信任問(wèn)題可以通過(guò)數(shù)據(jù)管理、模型訓(xùn)練、模型預(yù)測(cè)等方式提高算法的透明度。與此同時(shí),法律規(guī)制亦是破解人工智能算法無(wú)法被信任、理解和控制的必由之路。我國(guó)于2021年相繼出臺(tái)了《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,在算法規(guī)制方面有了長(zhǎng)足發(fā)展,也是世界范圍內(nèi)對(duì)算法挑戰(zhàn)作出全面回應(yīng)的體系性嘗試?!緟⒁?jiàn)許可:《算法規(guī)制體系的中國(guó)建構(gòu)與理論反思》,載《法律科學(xué)》2022年第1期。】如上規(guī)范為我國(guó)人工智能算法規(guī)制奠定了良好的規(guī)范性基礎(chǔ),但對(duì)構(gòu)建我國(guó)人工智能算法信任機(jī)制尚未作出全面部署。實(shí)際上,人工智能算法信任機(jī)制應(yīng)當(dāng)包括完整的體系化治理。首先,從私法角度看,符合標(biāo)準(zhǔn)的人工智能需要承擔(dān)一定的信義義務(wù),這種義務(wù)是法定義務(wù),信義法調(diào)整權(quán)利義務(wù)責(zé)任的框架可以因此適用;其次,從行政法角度看,行之有效的算法監(jiān)督制度能夠?yàn)槿斯ぶ悄芩惴ūO(jiān)管提供基本框架,同時(shí)應(yīng)賦予用戶一定的算法選擇權(quán);最后,從體系性規(guī)范角度看,應(yīng)當(dāng)在宏觀上構(gòu)建可解釋性人工智能治理體系和人工智能倫理機(jī)制。
二、人工智能算法的信義法治理
人工智能算法與用戶之間的不信任,實(shí)際源于二者交互時(shí)可能產(chǎn)生的利益沖突。這種利益沖突可能隱藏在算法中,且沒(méi)有被合理披露。為提高人工智能算法的透明度和高效性,應(yīng)明確人工智能算法服務(wù)提供者應(yīng)當(dāng)履行的信義義務(wù)。目前,我國(guó)人工智能算法規(guī)范多從產(chǎn)業(yè)政策促進(jìn)、扶持和發(fā)展的角度提供指導(dǎo),采用分散式立法模式,【楊東:《監(jiān)管科技:金融科技的監(jiān)管挑戰(zhàn)與維度構(gòu)建》,載《中國(guó)社會(huì)科學(xué)》2018年第5期?!可形瓷钊肷婕八椒ㄖ卫砟J?。實(shí)際上,信義法治理模式是一種基于權(quán)利義務(wù)責(zé)任的私法治理模式,可在監(jiān)管前優(yōu)先適用,以彌補(bǔ)傳統(tǒng)監(jiān)管方式在人工智能時(shí)代的應(yīng)對(duì)乏力?!維imon Chesterman,‘Artificial Intelligence and the Limits of Legal Personality’(2020) 69 ICLQ 819-844.】本部分討論人工智能算法服務(wù)提供者與用戶間的信義關(guān)系?!颈疚挠懻摰膶?duì)象不包括超人工智能?!?/p>
(一)信義關(guān)系的產(chǎn)生機(jī)理
歷史上,“受信人”一詞起源于拉丁語(yǔ)“fiducia”,有信任之意。從羅馬法的角度來(lái)看,“fiducia”的字面意思是財(cái)產(chǎn)持有人對(duì)財(cái)產(chǎn)的義務(wù)。直到20世紀(jì)70年代,信義關(guān)系才被定義為在一方處理另一方財(cái)產(chǎn)時(shí)雙方間獨(dú)立的法律關(guān)系。一般而言,信義關(guān)系是信義責(zé)任的前提,實(shí)踐中,法院也常將信義關(guān)系作為承擔(dān)信義責(zé)任的關(guān)鍵因素。【汪慶華:《人工智能的法律規(guī)制路徑:一個(gè)框架性討論》,載《現(xiàn)代法學(xué)》2019年第2期?!坎贿^(guò),判斷信義關(guān)系是否產(chǎn)生,一直呈現(xiàn)多元化特征,且未形成統(tǒng)一標(biāo)準(zhǔn)。一般而言,典型的信義關(guān)系包括代理人與委托人、受托人與受益人、監(jiān)護(hù)人與被監(jiān)護(hù)人、董事/高管與公司、律師與委托人以及醫(yī)生與患者等。還有人試圖區(qū)分法律上的信義關(guān)系和現(xiàn)實(shí)中的受信關(guān)系,以擴(kuò)大信義關(guān)系的范圍。近年來(lái),人們提出了多種檢驗(yàn)信義關(guān)系的方法,但或多或少存在缺陷,難以適配多元的信義關(guān)系。同時(shí),將這些檢驗(yàn)方式應(yīng)用于適用人工智能算法的場(chǎng)景中,由于技術(shù)性因素的存在,可能面臨更多障礙。
現(xiàn)階段,美國(guó)學(xué)者彼得·米勒教授提出的受信權(quán)力理論或可在一定程度上提供參考。在該理論中,信義關(guān)系是一種基于授權(quán)產(chǎn)生的獨(dú)立法律關(guān)系,既可基于事實(shí)產(chǎn)生,也可基于法律產(chǎn)生,其結(jié)果是受信人對(duì)委托人的利益行使自由裁量權(quán),且在程度上有所差異。受信人的權(quán)力來(lái)源較為多元,如締結(jié)合同、收購(gòu)和投資資產(chǎn)、許可、承擔(dān)責(zé)任等,并根據(jù)受信人的自由裁量權(quán)大小確定受信人的法律行為能力?;谶@種邏輯結(jié)構(gòu),當(dāng)用戶具有完全民事行為能力時(shí),這種權(quán)力就會(huì)在其委托相關(guān)活動(dòng)時(shí)轉(zhuǎn)移給人工智能算法服務(wù)提供者。這種信義關(guān)系雖源頭上屬于事實(shí)關(guān)系,但仍需要法律加以確認(rèn),使該種信義關(guān)系成為法定關(guān)系,且當(dāng)事人不能通過(guò)合同約定解除。
此外,受信權(quán)力理論在判斷人工智能算法服務(wù)提供者能否作為受信人上有很大幫助。只有當(dāng)人工智能算法服務(wù)提供者擁有自由決策權(quán)時(shí),受信關(guān)系才會(huì)產(chǎn)生,即如果其只是提供建議而沒(méi)有獲得處理具體事務(wù)的自由裁量權(quán),則不能被視為受信人。例如,在金融領(lǐng)域,券商型的智能投顧就不能歸入受信人范疇,而能夠作出可持續(xù)金融活動(dòng)決策的智能投顧才可被視為受信人。因此,具有不同功能的人工智能算法服務(wù)提供者承擔(dān)著不同程度的信義義務(wù)內(nèi)容。判斷人工智能算法服務(wù)提供者能否承擔(dān)信義義務(wù),并在多大程度上承擔(dān)信義義務(wù),對(duì)建立人工智能的信義法治理路徑具有重要意義。
(二)信義義務(wù)的主要內(nèi)涵
一般而言,信義義務(wù)的主要內(nèi)容包括忠實(shí)義務(wù)和注意義務(wù),以及延伸出的勤勉義務(wù)等其他內(nèi)涵。具體在人工智能算法服務(wù)提供者的場(chǎng)景下,忠實(shí)義務(wù)和注意義務(wù)具體體現(xiàn)為如下方面。
忠實(shí)義務(wù)通常體現(xiàn)為禁止性規(guī)定,包括禁止自我交易、禁止奪取機(jī)會(huì)和禁止私密獲利。在人工智能算法應(yīng)用的場(chǎng)景之下,算法服務(wù)提供者通過(guò)算法黑箱隱秘地進(jìn)行自我交易、奪取用戶的交易機(jī)會(huì),難以被察覺(jué),違反忠實(shí)義務(wù)的風(fēng)險(xiǎn)相對(duì)較高。例如,智能投顧平臺(tái)可能通過(guò)同時(shí)扮演理財(cái)產(chǎn)品銷售者、資產(chǎn)管理者或券商中介的角色,將交易規(guī)則隱秘地隱藏在算法中,從而使投資者選擇特定的理財(cái)產(chǎn)品。因此,現(xiàn)有規(guī)范通常要求算法平臺(tái)全面、客觀、公正地披露信息,特別是具有利益沖突的內(nèi)容,以及人工智能模型參數(shù)、算法功能描述、關(guān)聯(lián)風(fēng)險(xiǎn)等,【參見(jiàn)狄行思:《論數(shù)字金融平臺(tái)的信義體系構(gòu)建》,載《金融理論與實(shí)踐》2022年第4期?!康@類規(guī)范在許多領(lǐng)域尚未細(xì)化,是立法者亟待解決的問(wèn)題。
注意義務(wù)則是對(duì)受信人工作提出盡職盡責(zé)的要求,包括審慎經(jīng)營(yíng)義務(wù)、適當(dāng)性義務(wù)及按照委托人最佳利益行事義務(wù)等?!就蹒骸顿Y管業(yè)務(wù)中受托人信義義務(wù)的內(nèi)涵與功能》,載《經(jīng)濟(jì)法論叢》2020年第1期?!孔⒁饬x務(wù)的落實(shí)有賴于人工智能算法服務(wù)提供者的數(shù)據(jù)收集和分析判斷能力,這與人工智能算法模型的質(zhì)量密切相關(guān)。目前,注意義務(wù)的標(biāo)準(zhǔn)僅表現(xiàn)為一定的原則性規(guī)范,有待落實(shí)到具體的應(yīng)用場(chǎng)景中。因此,如何明確人工智能算法履行注意義務(wù)的標(biāo)準(zhǔn),還需結(jié)合具體案例判斷。
(三)人工智能算法的信義治理路徑
傳統(tǒng)上的信義原則屬于軟法范疇,受信人可以在基本理解原則的前提下,根據(jù)實(shí)際情況作出具體判斷,調(diào)整自己的行為方式。但在人工智能場(chǎng)景下,該問(wèn)題變得十分復(fù)雜。因此,需要采納原則與具體規(guī)則相結(jié)合的方法實(shí)現(xiàn)治理。實(shí)際上,信義法治理模式與算法監(jiān)管模式有相通之處,因而可借鑒算法監(jiān)管中的原則監(jiān)管和規(guī)則監(jiān)管,盡可能創(chuàng)造有利的人工智能發(fā)展環(huán)境。
一般來(lái)說(shuō),信義規(guī)則通常包括禁止行為(不能)和允許行為(應(yīng)該或必須),分別適用于不同情形。這種要求具體到人工智能中,則表現(xiàn)為當(dāng)人工智能算法服務(wù)提供者了解到用戶出現(xiàn)意外情況時(shí),需要及時(shí)作出反應(yīng)。例如,在金融領(lǐng)域,如果投資者出現(xiàn)需要大筆額外支出的情況,那么算法就應(yīng)當(dāng)自動(dòng)選擇風(fēng)險(xiǎn)較低的投資計(jì)劃。此外,信義原則可以間接轉(zhuǎn)移到其他監(jiān)管要求。從比較法上看,歐盟《通用數(shù)據(jù)保護(hù)條例》第22條規(guī)定了知情同意原則,指出“數(shù)據(jù)主體應(yīng)有權(quán)不受僅基于自動(dòng)化過(guò)程的決定的約束”,即在一定程度上表達(dá)了忠實(shí)義務(wù);美國(guó)則在特定領(lǐng)域規(guī)定了信義義務(wù)的標(biāo)準(zhǔn),例如,2016年美國(guó)通過(guò)的《利益沖突最終規(guī)則》,其中包括智能投顧被視為受信人的標(biāo)準(zhǔn),表現(xiàn)出監(jiān)管機(jī)構(gòu)對(duì)人工智能算法服務(wù)提供者采取了審慎的態(tài)度。
同時(shí),需要明確人工智能算法服務(wù)提供者在違反信義義務(wù)時(shí)應(yīng)承擔(dān)信義責(zé)任。在“電子代理人”的框架之下,信義責(zé)任應(yīng)當(dāng)由人工智能算法服務(wù)提供者來(lái)承擔(dān)。信義責(zé)任呈現(xiàn)出私法責(zé)任(經(jīng)濟(jì)性賠償)與公法責(zé)任(行政責(zé)任)相結(jié)合的特征,正是這種混合型責(zé)任,在人工智能治理的道路上將發(fā)揮著不可或缺的作用,既能充分重視市場(chǎng)主體間的私法法律關(guān)系,又充分發(fā)揮監(jiān)管作用,及時(shí)矯正人工智能市場(chǎng)中可能出現(xiàn)的不安全、不誠(chéng)信和消費(fèi)欺詐問(wèn)題。
三、人工智能算法監(jiān)督體系的多層次構(gòu)建
縱觀我國(guó)現(xiàn)行的規(guī)范性文件,有關(guān)算法的規(guī)范主要關(guān)注兩類原則:一類是公平公正原則、誠(chéng)實(shí)信用原則、合法原則、尊重社會(huì)公德原則及遵守商業(yè)道德等普遍適用于所有民商事法律行為的原則;另一類則是特別適用于算法領(lǐng)域的原則,包括透明性原則及可解釋性原則。這些原則不僅包括調(diào)整平等民事主體法律關(guān)系的私法原則,也包括從公共利益角度出發(fā)的行政監(jiān)管原則。為增強(qiáng)算法透明度、破解算法黑箱,算法公開(kāi)必不可少。作為算法運(yùn)用過(guò)程中的重要一環(huán),算法公開(kāi)同樣應(yīng)當(dāng)遵循前述兩類原則,尤其是特別適用于算法的透明性原則及可解釋性原則。例如,我國(guó)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第4條指出,“提供算法推薦服務(wù)應(yīng)當(dāng)遵守法律法規(guī),尊重社會(huì)公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開(kāi)透明、科學(xué)合理和誠(chéng)實(shí)信用的原則?!蓖瑫r(shí),該規(guī)定第12條鼓勵(lì)算法推薦服務(wù)提供者優(yōu)化規(guī)則的透明度和可解釋性。此外,我國(guó)《個(gè)人信息保護(hù)法》第24條第1款規(guī)定:“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正?!边@些原則為算法公開(kāi)提供了規(guī)范性基礎(chǔ),并由此延伸至具體的算法監(jiān)督制度。
(一)建立算法備案制度
我國(guó)算法備案制度目前還未成體系,但是在部分規(guī)范性文件中已有規(guī)定。《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》規(guī)定,具有輿論屬性或者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者需要履行算法備案的義務(wù)。之后,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》又重申了此項(xiàng)要求,后者還專門規(guī)定了“提供具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)”的主體應(yīng)當(dāng)進(jìn)行算法備案。算法備案制度即要求算法開(kāi)發(fā)者或者服務(wù)提供者在一定范圍內(nèi)備案其服務(wù)領(lǐng)域、算法類型、算法自評(píng)估報(bào)告、擬公示內(nèi)容等,以達(dá)到對(duì)算法的有效監(jiān)管。算法備案實(shí)際是通過(guò)披露算法運(yùn)算和分析過(guò)程中的因果透明及程序透明,來(lái)證明算法決策的正當(dāng)性?!緟⒁?jiàn)唐林垚:《人工智能時(shí)代的算法規(guī)則:責(zé)任分層與義務(wù)合規(guī)》,載《現(xiàn)代法學(xué)》2020年第1期。】該制度以明確算法使用主體的告知義務(wù)為起點(diǎn),通過(guò)算法參數(shù)報(bào)備,標(biāo)準(zhǔn)化數(shù)據(jù)收集和處理的標(biāo)準(zhǔn),再到適度可理解的源代碼公開(kāi),為事前透明提供程序化、標(biāo)準(zhǔn)化的路徑遵循。
算法備案的規(guī)范價(jià)值是保障遭受算法侵害主體的救濟(jì)權(quán)利。被侵權(quán)人有權(quán)要求算法服務(wù)提供者進(jìn)行算法公開(kāi),進(jìn)而能夠向算法服務(wù)提供者對(duì)其損害主張承擔(dān)賠償責(zé)任。該制度不僅有助于保障公眾的算法知情權(quán),還可以督促算法運(yùn)營(yíng)者主動(dòng)進(jìn)行算法風(fēng)險(xiǎn)評(píng)估,并保留算法運(yùn)行記錄,有效督促算法開(kāi)發(fā)者和服務(wù)提供者從研發(fā)到運(yùn)行的全周期內(nèi)關(guān)注算法合規(guī)問(wèn)題。當(dāng)糾紛發(fā)生時(shí),在訴訟舉證方面,算法備案還可以起到減輕信息主體舉證負(fù)擔(dān)的作用,在一定程度上固定侵權(quán)的證據(jù),保護(hù)用戶的知情權(quán)。實(shí)踐爭(zhēng)議中,監(jiān)管部門可以通過(guò)算法備案標(biāo)準(zhǔn)來(lái)認(rèn)定算法服務(wù)提供者是否履行了解釋算法以滿足用戶知情權(quán)的義務(wù):對(duì)于涉及用戶不利影響的算法,算法服務(wù)提供者應(yīng)證明其已經(jīng)向監(jiān)管部門進(jìn)行算法備案,同時(shí)應(yīng)盡最大的努力,以通俗的語(yǔ)言向用戶說(shuō)明算法的運(yùn)行邏輯以及可能的算法決策結(jié)果;對(duì)于不涉及用戶不利影響的算法,算法服務(wù)提供者僅需證明其已經(jīng)向監(jiān)管部門進(jìn)行算法備案。
(二)完善算法授權(quán)機(jī)制
目前,大多數(shù)人工智能的算法授權(quán)是默認(rèn)可以使用用戶同意授權(quán)之前的數(shù)據(jù)信息的,即用戶在某個(gè)時(shí)間點(diǎn)允許某算法的運(yùn)行時(shí),該算法使用的數(shù)據(jù)不僅包括了該授權(quán)節(jié)點(diǎn)之后,還涵蓋了授權(quán)節(jié)點(diǎn)之前。此處的矛盾顯而易見(jiàn):對(duì)于民事法律行為而言,同意只能意味著待當(dāng)事人雙方達(dá)成合意后生效,并不具有向前的溯及力。因此,人工智能算法的授權(quán)行為很多并沒(méi)有受到有效監(jiān)管,導(dǎo)致算法服務(wù)提供者侵犯用戶權(quán)益的情況時(shí)有發(fā)生,雙方的信任危機(jī)日益加劇。
這一問(wèn)題在生成式人工智能算法領(lǐng)域尤為突出。生成式人工智能算法可以通過(guò)爬取互聯(lián)網(wǎng)上的已有數(shù)據(jù)對(duì)自身進(jìn)行訓(xùn)練,并借助互聯(lián)網(wǎng)上已有的數(shù)據(jù)進(jìn)行創(chuàng)作。例如,網(wǎng)易圖片社區(qū)LOFTER曾于2023年3月上線了具備人工智能繪圖功能的“老福鴿畫畫機(jī)”,用戶可以通過(guò)關(guān)鍵字詞生成繪畫作品。該產(chǎn)品上線后,受到了許多創(chuàng)作者的質(zhì)疑:平臺(tái)人工智能繪圖功能會(huì)使用創(chuàng)作者的繪畫作品作為素材,創(chuàng)作者的著作權(quán)無(wú)法得到保護(hù)。實(shí)際上,創(chuàng)作者對(duì)人工智能算法的擔(dān)憂并非僅僅局限于著作權(quán)問(wèn)題,他們還擔(dān)心人工智能算法利用自己已有風(fēng)格作品進(jìn)行創(chuàng)作,從而取代自己依靠創(chuàng)作生存的權(quán)利,這比傳統(tǒng)的剽竊著作權(quán)危害性更為巨大,對(duì)行業(yè)的影響也更為深遠(yuǎn)。目前,平臺(tái)創(chuàng)作者僅能在現(xiàn)有的算法授權(quán)機(jī)制下,聲明拒絕人工智能使用自己的作品達(dá)到訓(xùn)練目的,但這種拒絕效力微乎其微。人工智能算法上線后創(chuàng)作者的抵制與聲明,至少可以看作是一種意思表達(dá)。但對(duì)于在人工智能算法上線前已經(jīng)在互聯(lián)網(wǎng)上流傳的作品,平臺(tái)幾乎是可以不經(jīng)過(guò)任何同意和授權(quán)就進(jìn)行使用,這種使用往往伴隨著平臺(tái)的收益行為。因此,構(gòu)建針對(duì)算法特性的、具有明確時(shí)間節(jié)點(diǎn)屬性的授權(quán)機(jī)制,對(duì)于保護(hù)仍然在著作權(quán)保護(hù)期限內(nèi)的作品至關(guān)重要。目前,哥倫比亞大學(xué)開(kāi)發(fā)了一種名為“GLAZE”的工具,可以對(duì)上傳至互聯(lián)網(wǎng)的畫作進(jìn)行數(shù)據(jù)處理。該工具可以在不影響藝術(shù)家原作品的情況下為作品施加一層“隱形風(fēng)格水印”,進(jìn)而限制AI機(jī)器的模仿和學(xué)習(xí),保護(hù)作者的創(chuàng)作風(fēng)格不被模仿?!尽斗磽羧斯ぶ悄?!藝術(shù)家新工具防止畫風(fēng)被AI“抄襲”》,載《游民星空》,https://www.gamersky.com/tech/202303/1577619.shtml,2023年12月28日訪問(wèn)?!看祟惞ぞ呖梢酝茝V應(yīng)用于算法授權(quán)領(lǐng)域,也就是說(shuō),在算法授權(quán)時(shí)間節(jié)點(diǎn)上,可以由技術(shù)實(shí)現(xiàn)對(duì)拒絕授權(quán)的信息加上“數(shù)字標(biāo)識(shí)”,這類授權(quán)將比簽署冗長(zhǎng)的用戶知情同意書更具有可實(shí)施性。
由此可見(jiàn),算法授權(quán)機(jī)制需要引入技術(shù)性手段、以更高級(jí)別的算法管理手段予以解決,真正實(shí)現(xiàn)“通過(guò)算法管理算法,通過(guò)算法管理數(shù)據(jù)”。該機(jī)制并不應(yīng)僅局限于部分人工智能算法平臺(tái),還應(yīng)當(dāng)通過(guò)建立由國(guó)家掌控的高級(jí)別算法及高級(jí)別數(shù)據(jù)庫(kù),對(duì)一些有過(guò)高風(fēng)險(xiǎn)的商業(yè)算法進(jìn)行一定程度的限制,促進(jìn)用戶對(duì)算法的信任,減少用戶對(duì)創(chuàng)新的后顧之憂。
(三)落實(shí)算法糾偏體系
在大數(shù)據(jù)環(huán)境下,數(shù)據(jù)、算力、人工智能框架和模型框架均對(duì)人工智能系統(tǒng)運(yùn)作起著關(guān)鍵作用,也會(huì)在很大程度上影響算法結(jié)果。【參見(jiàn)劉澤剛:《論算法認(rèn)知偏差對(duì)人工智能法律規(guī)制的負(fù)面影響及其矯正》,載《政治與法律》2022年第11期。】因此,有效的人工智能算法監(jiān)督需要借助算法糾偏機(jī)制予以輔助,即在算法有效評(píng)估的基礎(chǔ)上,及時(shí)矯正算法,并落實(shí)相關(guān)主體的責(zé)任。一般而言,算法糾偏機(jī)制應(yīng)當(dāng)由常態(tài)化和特殊化兩部分組成。常態(tài)化的糾偏建立在算法備案的基礎(chǔ)之上,備案與監(jiān)管部門可以定期通過(guò)輸入數(shù)據(jù)檢測(cè)輸出結(jié)果,判斷某人工智能算法是否存在違規(guī)問(wèn)題,如價(jià)格歧視與算法默示共謀等。特殊化的糾偏機(jī)制是指在算法侵害用戶合法權(quán)益時(shí),被侵權(quán)人和主管部門有權(quán)要求算法主體對(duì)算法進(jìn)行更正。從責(zé)任角度看,算法糾偏機(jī)制的責(zé)任性質(zhì)并非民事責(zé)任,而是具有強(qiáng)制性和公共性的特征,其責(zé)任主體是算法的開(kāi)發(fā)者、服務(wù)提供者、關(guān)聯(lián)使用者。
算法糾偏機(jī)制實(shí)質(zhì)上是從源頭對(duì)算法權(quán)力進(jìn)行前瞻性、強(qiáng)制性和全程化的約束,且借助算法治理的基本原則及時(shí)予以糾偏。例如,算法開(kāi)發(fā)者可將道德規(guī)范具體化為固定標(biāo)準(zhǔn),以代碼形式寫入模型源頭,結(jié)合機(jī)器深度學(xué)習(xí)功能,促使算法不斷進(jìn)化,打造具備道德敏感性的算法審核系統(tǒng)。與此同時(shí),在技術(shù)上植入兜底性、保護(hù)性的算法代碼,以實(shí)現(xiàn)暢通的算法糾偏路徑,達(dá)到對(duì)算法相對(duì)人的保護(hù),維護(hù)全社會(huì)對(duì)算法技術(shù)的信任。
(四)保障用戶算法選擇權(quán)
在算法誕生初期以及相當(dāng)長(zhǎng)的一段時(shí)間里,由于訓(xùn)練和改進(jìn)算法的需要,算法適用一直處于“全有或全無(wú)的狀態(tài)”,使用者在使用某一算法工具時(shí),只能完全接受或拒絕全部條款,不能選擇接受其中部分條款而拒絕另一部分。當(dāng)使用者注銷某平臺(tái)賬號(hào)時(shí),平臺(tái)并不會(huì)徹底刪除該賬號(hào)曾經(jīng)上傳的信息。由此可見(jiàn),構(gòu)建人工智能算法與用戶的信任機(jī)制,還需從用戶角度出發(fā),賦予其選擇算法的權(quán)力,真正建立起人工智能算法與用戶的平等關(guān)系。本文認(rèn)為,用戶的算法選擇權(quán)應(yīng)包括如下方面。
第一,自動(dòng)化決策拒絕權(quán)。在數(shù)字社會(huì),個(gè)人對(duì)特定數(shù)字化應(yīng)用或結(jié)果享有抵制的權(quán)利?!緟⒁?jiàn)韓旭至:《認(rèn)真對(duì)待數(shù)字社會(huì)的個(gè)人拒絕權(quán)》,載《華東政法大學(xué)學(xué)報(bào)》2023年第1期。】個(gè)人拒絕權(quán)一般包括個(gè)人信息刪除權(quán)、被遺忘權(quán)、離線權(quán)等,自動(dòng)化決策拒絕權(quán)亦是其中之一。我國(guó)目前對(duì)自動(dòng)化決策拒絕權(quán)的規(guī)定,主要體現(xiàn)在《個(gè)人信息保護(hù)法》第24條第3款。同時(shí),該法第25條規(guī)定用戶可以拒絕“通過(guò)自動(dòng)化算法決策進(jìn)行信息推送、商業(yè)營(yíng)銷”。此二條確立了自動(dòng)化決策拒絕權(quán)的請(qǐng)求權(quán)基礎(chǔ),但是在規(guī)范解釋上較為模糊,有待完善具體的實(shí)踐路徑?!緟⒁?jiàn)王苑:《完全自動(dòng)化決策拒絕權(quán)之正當(dāng)性及其實(shí)現(xiàn)路徑——以〈個(gè)人信息保護(hù)法〉第24條第3款為中心》,載《法學(xué)家》2022年第5期。】目前,只有一部分算法服務(wù)提供者對(duì)用戶的拒絕權(quán)進(jìn)行了嘗試,但實(shí)質(zhì)上只在算法推薦作了部分掩蓋處理,并非真正賦予用戶算法拒絕權(quán)。這就意味著當(dāng)前算法對(duì)于數(shù)據(jù)分類獲取、管理并未細(xì)化,自動(dòng)化決策拒絕權(quán)規(guī)范尚不成熟。
用戶的自動(dòng)化決策拒絕權(quán)是提升其對(duì)人工智能算法信任度的重要途徑。自動(dòng)化決策權(quán)拒絕的對(duì)象,應(yīng)包括算法本身及其結(jié)果。首先,在自動(dòng)化決策開(kāi)始之前,算法服務(wù)提供者應(yīng)當(dāng)將用戶的隱私保護(hù)融入產(chǎn)品設(shè)計(jì),具體可參考?xì)W盟《通用數(shù)據(jù)保護(hù)條例》中要求的“在最小必要原則的指引下設(shè)定默認(rèn)選項(xiàng)”。不過(guò),該條款仍為原則性規(guī)范,在解釋上較為模糊,還需要在更為具象的層面增加可操作性。其次,對(duì)于個(gè)人使用者而言,算法服務(wù)提供者應(yīng)當(dāng)對(duì)其提供細(xì)化的、多元化的算法服務(wù)選擇協(xié)議,允許用戶自主選擇部分算法功能,而非“全有或全無(wú)”。如果用戶在使用之前未能了解自動(dòng)化決策方式,而是在使用過(guò)程中知道的,這一處理則需要暫時(shí)停止。算法服務(wù)提供者進(jìn)行解釋說(shuō)明后,用戶仍然拒絕的,需要尊重用戶的選擇。最后,在自動(dòng)化決策已經(jīng)作出后,根據(jù)《民法典》相關(guān)規(guī)定,完全的自動(dòng)化決策方式在一定情況下會(huì)導(dǎo)致某些決策不能發(fā)生民事法律效力,產(chǎn)生無(wú)效或可撤銷的后果,這就間接保障了用戶的自動(dòng)化決策拒絕權(quán)。
第二,算法退出機(jī)制。該機(jī)制是算法拒絕權(quán)延伸出的應(yīng)有之義,能夠轉(zhuǎn)變算法服務(wù)提供者因用戶“不知情同意”授權(quán)而一勞永逸的行為,有利于提升算法服務(wù)的合規(guī)性?!緟⒁?jiàn)李丹:《算法歧視消費(fèi)者:行為機(jī)制、損益界定與協(xié)同規(guī)制》,載《上海財(cái)經(jīng)大學(xué)學(xué)報(bào)》2021年第2期。】其不僅應(yīng)當(dāng)從數(shù)據(jù)收集的源頭來(lái)規(guī)制,還應(yīng)當(dāng)包括算法禁用的規(guī)范機(jī)制,從多角度賦予用戶選擇退出特定算法的權(quán)利。具體而言,在數(shù)據(jù)采集階段,盡管絕大多數(shù)人工智能算法機(jī)構(gòu)使用的是“默示同意規(guī)則”,但應(yīng)確保用戶確實(shí)知悉且未明確反對(duì)收集數(shù)據(jù)的行為。在算法的適用階段,人工智能算法服務(wù)提供者應(yīng)為用戶提供“選擇退出”的選項(xiàng)。同時(shí),用戶在感知到自身權(quán)利受侵害時(shí),應(yīng)當(dāng)保障其可以要求有關(guān)平臺(tái)或者算法相關(guān)方刪除或者禁止他人訪問(wèn)這些信息,如果數(shù)據(jù)積累到一定數(shù)量時(shí),還可以通過(guò)物理銷毀存儲(chǔ)介質(zhì)以實(shí)現(xiàn)完全意義上的數(shù)據(jù)銷毀。例如,據(jù)報(bào)道,某大學(xué)男生盜用女生照片造謠侵害其名譽(yù),雖然該案件已經(jīng)定案,但該女生圖片依然在某些社交平臺(tái)被不正當(dāng)傳播。因此,人工智能算法服務(wù)提供者應(yīng)當(dāng)建立過(guò)濾與識(shí)別機(jī)制,在個(gè)人使用者注銷其賬號(hào)時(shí),也應(yīng)當(dāng)對(duì)相關(guān)信息進(jìn)行相似處理,而不僅是停留于用戶主頁(yè)的無(wú)法訪問(wèn),其賬號(hào)之前所產(chǎn)生的信息數(shù)據(jù)均應(yīng)當(dāng)被過(guò)濾屏蔽。對(duì)于涉及人數(shù)眾多、數(shù)據(jù)量巨大的特殊情形,應(yīng)當(dāng)進(jìn)行公開(kāi)的、專業(yè)的數(shù)據(jù)銷毀。對(duì)于某些影響力巨大的不良算法本身,應(yīng)當(dāng)限制該算法作為財(cái)產(chǎn)權(quán)的轉(zhuǎn)讓和適用,甚至是予以封禁和銷毀,以算法退出作為最嚴(yán)厲的手段,建立高級(jí)別、強(qiáng)有力的算法信任機(jī)制。
四、發(fā)展可解釋性人工智能與人工智能倫理
除從多個(gè)方面加強(qiáng)人工智能算法監(jiān)管及保障算法相對(duì)人權(quán)益外,本文最后一部分提出宏觀框架方面應(yīng)當(dāng)作出的改進(jìn),即發(fā)展可解釋性人工智能的路徑(Explainable AI,又稱XAI),并輔之以人工智能倫理??山忉屝允潜磉_(dá)人工智能系統(tǒng)為何作出特定決定、建議或預(yù)測(cè)的能力,其對(duì)于實(shí)現(xiàn)人工智能模型的可解釋性和問(wèn)責(zé)機(jī)制至關(guān)重要,是社會(huì)解釋權(quán)的重要實(shí)現(xiàn)路徑。發(fā)展可解釋性人工智能,實(shí)際上是風(fēng)險(xiǎn)預(yù)防原則的體現(xiàn),【參見(jiàn)鄭戈:《算法的法律與法律的算法》,載《中國(guó)法律評(píng)論》2018年第2期?!恳彩菍?shí)現(xiàn)算法可解釋性的實(shí)體化路徑。人工智能倫理可以在法律規(guī)范之前起到先導(dǎo)性作用,為人工智能產(chǎn)品本身或其開(kāi)發(fā)者進(jìn)行倫理指引,同時(shí)可為后續(xù)規(guī)范形成提供法源?!緟⒁?jiàn)吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,載《法律科學(xué)》2017年第5期。】
(一)可解釋性人工智能概述
人工智能的可解釋性指“讓人工智能系統(tǒng)的結(jié)果可以理解,并提供闡釋說(shuō)明”,也包括“各個(gè)算法模塊的輸入、輸出和性能的可解釋性及其如何促成系統(tǒng)結(jié)果”?!韭?lián)合國(guó)教科文組織:《人工智能倫理問(wèn)題建議書》,載https://unesdoc.unesco.org/ark:/48223/pf0000381137_chi,2022年11月23日?!繌姆诸惪?,事前解釋指可被人類直接查看和理解的算法模型,如決策樹、回歸模型等,而事后解釋通常由其他軟件工具或人工方式生成,旨在描述、說(shuō)明特定算法模型如何運(yùn)作或特定輸出結(jié)果如何得出。事后解釋可以讓相對(duì)人了解決策的規(guī)則和因素,在排查具體決策適用的規(guī)則是否包含歧視或非法問(wèn)題的同時(shí),還可以讓相對(duì)人知道作出相關(guān)決策的原因,在破解算法黑箱上起到關(guān)鍵作用?!緟⒁?jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2018年第3期?!堪l(fā)展可解釋性人工智能,對(duì)增強(qiáng)用戶與人工智能系統(tǒng)間的信任、減少或消除算法黑箱帶來(lái)的負(fù)面影響、建立可持續(xù)且可靠的人工智能系統(tǒng),均具有重要意義。從解釋內(nèi)容看,英國(guó)《解釋人工智能的決策》率先提出了解釋的主要內(nèi)容,包括原理解釋、責(zé)任解釋、數(shù)據(jù)解釋、公平性解釋、安全和性能解釋以及影響解釋。這一標(biāo)準(zhǔn)對(duì)具體化人工智能的解釋領(lǐng)域提供了參考。
目前,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院制定了人工智能可解釋性的四項(xiàng)原則,方便人們更好理解人工智能模型的工作原理。這些原則相互獨(dú)立適用,并以其自身的權(quán)利進(jìn)行評(píng)估。具體包括:(1)人工智能系統(tǒng)應(yīng)該提供有證據(jù)支持的解釋;(2)解釋應(yīng)該以人工智能系統(tǒng)用戶可以理解的方式進(jìn)行;(3)解釋應(yīng)該準(zhǔn)確描述人工智能系統(tǒng)運(yùn)作的過(guò)程;(4)人工智能系統(tǒng)應(yīng)在其設(shè)計(jì)的范圍內(nèi)運(yùn)行。對(duì)于有證據(jù)支持的解釋,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院概述了幾個(gè)類別予以判斷:旨在通過(guò)告知用戶輸出結(jié)果使用戶受益的解釋、旨在獲得社會(huì)信任和接受的解釋、旨在滿足監(jiān)管和合規(guī)要求的解釋、有助于維護(hù)和開(kāi)發(fā)AI算法的解釋以及對(duì)系統(tǒng)所有者有利的解釋。有效性和準(zhǔn)確性原則,則在不同層面對(duì)解釋的內(nèi)容作出了具體要求。上述原則中最后一項(xiàng),“可限制性”是為了防止系統(tǒng)超出其限制時(shí)可能出現(xiàn)的不準(zhǔn)確的結(jié)果。這些原則可以為其他地區(qū)制定自身可解釋性原則提供指引。
(二)人工智能倫理的立法進(jìn)展
為了應(yīng)對(duì)人工智能倫理問(wèn)題帶來(lái)的挑戰(zhàn),目前,許多地區(qū)都提出了人工智能道德準(zhǔn)則。歐盟《可信賴人工智能倫理指南》將可解釋性作為可信賴人工智能的四個(gè)倫理原則之一。聯(lián)合國(guó)發(fā)布的首個(gè)全球性人工智能倫理協(xié)議《人工智能倫理問(wèn)題建議書》,將可解釋性亦列入人工智能系統(tǒng)生命周期的所有行為者都應(yīng)遵守的四個(gè)原則之一。該準(zhǔn)則通過(guò)人為控制人工智能的方法提供相關(guān)的法律保護(hù),以人為參與、人為干預(yù)和人為掌控的方式予以治理。這類準(zhǔn)則成為創(chuàng)設(shè)人工智能倫理軟法的基礎(chǔ),在一定程度上有助于創(chuàng)建人工智能硬法,但仍然缺乏具有可操作性的規(guī)則和標(biāo)準(zhǔn)。由此,各地區(qū)試圖創(chuàng)設(shè)出人工智能倫理的具體政策和規(guī)范。
以歐盟為例,2017年以來(lái),歐洲議會(huì)在《關(guān)于人工智能技術(shù)的民法規(guī)則委員會(huì)建議的決議》[2015/2103(INL)]中明確指出,“指導(dǎo)道德框架應(yīng)基于善意、無(wú)惡意、自治正義的原則”,引入了《歐盟運(yùn)作條約》中的價(jià)值觀,包括“尊嚴(yán)、平等、正義和公平、不歧視、知情同意、隱私、數(shù)據(jù)保護(hù)”,以及歐盟法中的其他原則,包括“非污名化、透明化、自主、個(gè)人責(zé)任和社會(huì)責(zé)任”等。不過(guò),該決議僅簡(jiǎn)單列出了人工智能監(jiān)管中的關(guān)鍵倫理要素。2018年《歐洲人工智能》文件出臺(tái)之后,人工智能高級(jí)別專家組于2019年制定了《可信賴人工智能倫理準(zhǔn)則》,并于2020年制定了歐盟關(guān)于識(shí)別可信賴人工智能的方法。2020年2月,歐盟委員會(huì)發(fā)布的《人工智能白皮書——追求卓越和信任的歐洲方案》則更為先進(jìn),其中寫明了人工智能治理的政策框架和未來(lái)監(jiān)管框架的關(guān)鍵要素?!吨贫ㄈ斯ぶ悄芙y(tǒng)一規(guī)則和修改特定歐盟法案》于2021年4月出臺(tái),其中智能顧問(wèn)等產(chǎn)品被歸入高風(fēng)險(xiǎn)人工智能類別。
我國(guó)亦采取了類似的做法。目前,我國(guó)關(guān)于可解釋人工智能立法主要體現(xiàn)在《個(gè)人信息保護(hù)法》第7條的公平、透明原則,第44條的知情權(quán)、決定權(quán),以及第24條對(duì)基于個(gè)人信息的算法自動(dòng)化決策的專門規(guī)定。2017年7月,國(guó)務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,提出了人工智能“三步走”戰(zhàn)略目標(biāo),其中第一步是到2020年“初步建立人工智能倫理規(guī)范和部分領(lǐng)域的政策法規(guī)”。除了官方文件外,中國(guó)人工智能行業(yè)組織也有所貢獻(xiàn),并在許多自律性文件中提出了人工智能倫理基本原則。這些文件包括《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》《新一代人工智能治理原則——負(fù)責(zé)任人工智能的發(fā)展(2019)》《新一代人工智能倫理(2021)》等。
此外,實(shí)務(wù)界也在嘗試將倫理原則解釋為實(shí)用指南,積極建立內(nèi)部人工智能倫理委員會(huì),并且在人工智能倫理審查標(biāo)準(zhǔn)和認(rèn)證、最佳實(shí)踐和技術(shù)工具方面已經(jīng)取得了一些進(jìn)展,以下為其中的典型案例(見(jiàn)表1)。
從上述實(shí)例可見(jiàn),監(jiān)管機(jī)構(gòu)、行業(yè)組織和企業(yè)均致力于發(fā)展人工智能倫理。毋庸置疑,建立具體可靠的人工智能倫理監(jiān)管架構(gòu)還有很長(zhǎng)的路要走。有人指出,這些原則過(guò)于寬泛且無(wú)法解決實(shí)際問(wèn)題,而關(guān)于理解負(fù)責(zé)任的人工智能的定性研究則更多建立在對(duì)各種公司和行業(yè)工作的人工智能從業(yè)者的采訪基礎(chǔ)上。【Pin Lean Lau,‘The Extension of Legal Personhood in Artificial Intelligence’ (2019)46 Revista de Bioetica Derecho 47.】不過(guò),許多看似可行的建議很難落地,因?yàn)榭赡軙?huì)使企業(yè)在實(shí)踐中承擔(dān)過(guò)于繁重的義務(wù)。因此,如何平衡人工智能創(chuàng)新發(fā)展和企業(yè)應(yīng)履行的義務(wù),是值得深究的課題。
(三)可解釋性人工智能及人工智能倫理的規(guī)范路徑
可解釋性人工智能的規(guī)范構(gòu)建是當(dāng)下亟待解決的重大法律問(wèn)題,防范人工智能的技術(shù)性風(fēng)險(xiǎn),不僅涉及技術(shù)升級(jí)和優(yōu)化,還需要建立起以社會(huì)監(jiān)管為核心的政策體系。我國(guó)目前對(duì)可解釋性人工智能及人工智能倫理的規(guī)范體系還不健全,應(yīng)在制度構(gòu)建上作出如下努力:第一,應(yīng)在國(guó)家層面統(tǒng)籌人工智能發(fā)展戰(zhàn)略,盡快制定人工智能倫理章程,借鑒比較法上的相關(guān)規(guī)范,結(jié)合國(guó)情制定我國(guó)人工智能規(guī)范;第二,適時(shí)進(jìn)行可解釋性人工智能專門立法,明確解釋主體、解釋的內(nèi)容及原則,保障用戶的知情權(quán)和公平交易權(quán)。盡管算法黑箱等問(wèn)題難以避免,但通過(guò)事前風(fēng)險(xiǎn)防范機(jī)制和事后問(wèn)責(zé),提高算法透明度,設(shè)立合理有效的機(jī)器倫理制度,可以有效建立起人工智能技術(shù)和倫理的評(píng)價(jià)體系,健全事后問(wèn)責(zé)機(jī)制,從而化解用戶權(quán)利無(wú)從救濟(jì)的困境。
五、結(jié)語(yǔ)
數(shù)字中國(guó)建設(shè)過(guò)程中的人工智能算法信任機(jī)制,是一場(chǎng)數(shù)字革命下深刻的、全方位的社會(huì)變革,更是社會(huì)力量的重新分配與社會(huì)架構(gòu)的重新組建。以數(shù)字技術(shù)為基礎(chǔ)發(fā)展起來(lái)的互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能必然帶有政治性。【黎敏:《人工智能時(shí)代的法律與政治問(wèn)題慎思》,載《中國(guó)社會(huì)科學(xué)報(bào)》2023年12月6日,第A07版?!炕谶@樣的嚴(yán)肅政治性特征,法律規(guī)范必不可少。人工智能算法的法律規(guī)范進(jìn)路,實(shí)質(zhì)上是通過(guò)相應(yīng)的公私法手段,使算法變得可理解、可控、可靠。因此,必須從監(jiān)管者和用戶層面雙向入手,建立起人工智能算法服務(wù)提供者和用戶的信任機(jī)制。一方面,需逐步建立起一整套組織架構(gòu)完善的、理念先進(jìn)包容的、可靠信任的管理型算法體系;另一方面,應(yīng)當(dāng)全方位確保用戶對(duì)算法的拒絕和退出的權(quán)利。同時(shí),宏觀上建設(shè)可解釋性人工智能體系必不可少。面對(duì)人工智能算法帶來(lái)的挑戰(zhàn),法律界應(yīng)致力于促進(jìn)技術(shù)發(fā)展和信任建立,鼓勵(lì)公民遵守法律、維護(hù)自身權(quán)益,協(xié)同各方力量,共同促進(jìn)算法社會(huì)健康發(fā)展。
Abstract:The development of artificial intelligence depends on users being able to understand, trust and manage it, but the potential opacity of artificial intelligence algorithms has led to an increasing crisis of trust between users and artificial intelligence products. Artificial intelligence algorithms may bring about legal risks, such as infringing users' right to be informed, decision-making and privacy, as well as algorithmic discrimination, algorithmic confrontation and other adverse consequences. Although China has initially had the algorithm regulatory regime," trust mechanism of artificial intelligence algorithm has not yet been established. Regulating the relationship of rights and obligations between artificial intelligence and users by fiduciary law has many merits. At the same time, we should start with algorithm filing system, improve the algorithm authorization mechanism and timely algorithm correction, and ensure the user's algorithm choice. The establishment of an explainable AI specification system at the macro level is also a core initiative. The trust mechanism of artificial intelligence algorithm should be a systematic normative system, and can promote the healthy and orderly development of the artificial intelligence industry.
[責(zé)任編輯 邢峻彬]