国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

公共服務領(lǐng)域算法解釋權(quán)之構(gòu)建

2021-06-17 23:33李婕
求是學刊 2021年3期
關(guān)鍵詞:個人信息保護法商業(yè)秘密公共利益

摘要:算法自動決策侵犯公民的隱私權(quán)、知情權(quán)和救濟權(quán),違反正當程序原則。歐盟和美國對算法解釋權(quán)分別采取內(nèi)部監(jiān)管模式和外部問責模式,這兩種模式在解釋對象、解釋標準、解釋時間方面存在差異,目的都在于促進技術(shù)安全發(fā)展、限制政府權(quán)力和保護個人權(quán)利。算法應用到公共服務領(lǐng)域時帶有公共利益屬性,不得以“商業(yè)秘密”為由拒絕公開。我國《個人信息保護法(草案)》設立了事前解釋原則,以透明性和公正合理為解釋標準,賦予個人對自動化決策的拒絕權(quán),比GDPR保護個人權(quán)利更進一步。中國特色算法解釋權(quán)在規(guī)范上應進一步明確透明性的內(nèi)容、規(guī)范定期審計以加強監(jiān)管;在技術(shù)層面公開算法模型,公開源代碼、公開算法運算基本規(guī)則、因素及權(quán)重;同時由政府主導核心領(lǐng)域算法開發(fā)以促進算法造福社會。

關(guān)鍵詞:算法解釋權(quán);商業(yè)秘密;《個人信息保護法(草案)》;公共利益

作者簡介:李婕,安徽大學法學院副教授(合肥? 230039)

基金項目:國家社科規(guī)劃基金一般項目“改革開放以來中國司法體制中‘人民群眾話語的歷史變遷與實踐影響研究”(20BFX006)

DOI編碼:10.19667/j.cnki.cn23-1070/c.2021.03.012

大數(shù)據(jù)時代,算法在類案類判系統(tǒng)、智慧檢務軟件、征信評級、“扶貧云”等公共服務領(lǐng)域的應用不但提高了效率,而且發(fā)揮著分配資源、形塑社會秩序的建構(gòu)角色。由于算法系統(tǒng)的輸出數(shù)據(jù)影響個人基本權(quán)利,算法自動化決策問題日益受到法學研究者的關(guān)注。我國法學界關(guān)于算法的研究主要集中在算法倫理審查1、算法確權(quán)困境2、算法共謀的法律規(guī)制3、算法解釋權(quán)與算法治理路徑4等問題,尚未立足我國的法律規(guī)范(尤其是《個人信息保護法(草案)》)和司法案例探討算法解釋權(quán)的制度構(gòu)建。在科技革命撲面而來的當下,公眾對算法決策理性的呼吁催生了算法解釋權(quán),如何立足我國實踐和立法,科學審視算法解釋權(quán),這不僅是人工智能技術(shù)發(fā)展的當代之問,也是未來之問。

一、算法自動化決策對公共服務領(lǐng)域的挑戰(zhàn)

“互聯(lián)網(wǎng)+”已經(jīng)廣泛應用于公共服務領(lǐng)域,與此同時算法自動化決策的運行也悄無聲息地侵蝕著公民的基本法律權(quán)利。例如,2016年美國康斯威星州State v. Loomis案件中,被告認為州法院使用COMPAS算法模型量刑違反了正當程序原則,1 K.W.Ex rel.D.W.v.Armstrong 一案中,2愛達荷州眾多居民認為算法缺陷致使救濟金計算錯誤,嚴重影響個人生活。從法律的視角看,算法自動化決策對公共服務領(lǐng)域主要有以下挑戰(zhàn):

(一)算法自動化決策侵犯公民的基本權(quán)利

首先,算法自動化決策侵犯個人隱私權(quán)。無論是征信評級系統(tǒng),還是福利金計算系統(tǒng),都要根據(jù)當事人的個人數(shù)據(jù)進行分析。算法系統(tǒng)對個人數(shù)據(jù)的整合和挖掘囊括個人的行動軌跡、敏感信息等涉及隱私的數(shù)據(jù),個人隱私不知不覺地被嵌入算法系統(tǒng)的運算分析中。而作為分析基礎的數(shù)據(jù),往往來源于政府在教育、醫(yī)療、交通、視頻監(jiān)控等途徑收集的數(shù)據(jù)。在電子化政府的建設過程中,政府通過人工智能設施的部署逐漸形成對公民活動的全面監(jiān)控,并基于此進行治安預測和公共安全等必要活動。政府加強對社會的監(jiān)控無可厚非,但政府將各部門的資料庫互相串聯(lián),使得資料在政府部門內(nèi)部互相流通,將不可避免地導致數(shù)據(jù)濫用。32013年,美國前國安局雇員愛德華·斯諾登事件曝光,公眾才發(fā)現(xiàn)“老大哥正在看著你”并非著作中的科幻想象。4在“任務偏離效應”5之下,政府為了公共安全將個人數(shù)據(jù)信息用于洗錢防治、犯罪地圖等其他違法行為調(diào)查中,而公眾并不知道自己的基本權(quán)利受到了侵犯。

其次,算法運算規(guī)則不透明侵犯了個人知情權(quán)。中國互聯(lián)網(wǎng)絡信息中心在《2016年中國互聯(lián)網(wǎng)新聞市場研究報告》中指出,“算法分發(fā)”逐漸成為網(wǎng)絡新聞主要的分發(fā)方式,如果任由算法向用戶推送同質(zhì)的信息而不加以節(jié)制,可能會導致用戶陷入“信息繭房”的束縛之中——即公眾只注意自己選擇的東西和使自己愉悅的領(lǐng)域,久而久之會將自身束縛于像蠶繭一般的“繭房”中。從技術(shù)的角度看,算法規(guī)則轉(zhuǎn)化為計算機代碼時不可避免地會產(chǎn)生翻譯錯誤,由于硬件、軟件、外圍設備的局限性導致難以對某詞匯進行寬窄適宜的翻譯,難以將社會意義的詞匯準確嵌入算法編程中,導致算法的輸出數(shù)據(jù)不可避免地出現(xiàn)偏差。公眾不但不知道自己的信息用于商業(yè)領(lǐng)域,而且不知曉算法的運行規(guī)則,面對不可思議的算法結(jié)論往往一臉茫然。

最后,算法自動化決策錯誤難以進行救濟。我國政府大力支持人工智能技術(shù)發(fā)展,算法系統(tǒng)的設計和應用幾乎在法律真空中進行。在COMPAS案件中,Loomis認為COMPAS屏蔽加權(quán)和計算再犯風險得分的公式,致使其沒有“糾正”和“沒有否認或解釋”的救濟機會;Billy Ray Johnson案件中,被告人比利對檢測犯罪現(xiàn)場DNA的True Allele系統(tǒng)的輸出結(jié)果表示懷疑,專家證人試圖檢驗該軟件的源代碼時,被True Allele系統(tǒng)的所有者即Perlin公司以“商業(yè)秘密”的理由拒絕,6導致被告人無從獲得救濟。目前我國尚無明確的法規(guī)和程序?qū)θ斯ぶ悄芟到y(tǒng)的輸出結(jié)論進行審查,當事人即使對算法自動化決策產(chǎn)生質(zhì)疑也難以獲得法律救濟。

(二)算法自動化決策阻礙公平公正

首先,算法自動化決策不可避免地產(chǎn)生歧視。例如,美國針對犯罪傾向性預測的人工智能系統(tǒng)(COMPAS)應用中,無論技術(shù)人員如何調(diào)整機器學習的策略和算法,人種和膚色都是無法抹去的高優(yōu)先識別變量,導致有色人種的犯罪傾向遠遠高于非有色人種。據(jù)學者分析,美國司法領(lǐng)域廣泛使用的犯罪評估軟件COMPAS對黑人評估的累犯分數(shù)高于處于同樣困境的白人。1美國國防專家對紐約市犯罪實驗室中的統(tǒng)計軟件(“FST”)的源代碼審查后認為,“FST軟件輸出數(shù)據(jù)的正確性應該受到嚴重質(zhì)疑”2,建議紐約犯罪實驗室停止使用“FST”。由于當前人工智能系統(tǒng)多由私人企業(yè)研發(fā),利益驅(qū)動下的研發(fā)難以保障算法系統(tǒng)的客觀公正,私人企業(yè)追逐利潤的目標亦與公平公正的要求南轅北轍。在人工智能技術(shù)實踐先行的模式下,目前各地大張旗鼓地出臺促進人工智能發(fā)展應用的政策規(guī)劃,卻鮮見對算法問題監(jiān)管進行立法,導致算法歧視的危害難以糾偏。

其次,算法運作的“黑箱”特征難以對因果關(guān)系進行認定。算法技術(shù)分為黑箱、白箱、感知、奇異等類型。目前大多數(shù)算法系統(tǒng)采用“黑箱類型”,那么影響結(jié)果的每個因素占多大權(quán)重,或如何相互疊加影響最終結(jié)果,公眾無從知曉,這就導致具體案件中個人的權(quán)利難以救濟。在Loomis案件中,被告提出量刑軟件的運作過程不能“排除合理懷疑”,要求對其源代碼進行檢測,試圖驗證算法運作是否有問題,但被法院駁回這一請求。從技術(shù)角度看,機器在無窮無盡的數(shù)據(jù)堆中具有不受限制的識別巨量數(shù)據(jù)的能力,很容易掩蓋層層的鏡面和運算中的非法歧視。美國辛辛那提大學刑事司法研究中心的報告表明,只有30%的人工智能系統(tǒng)在廣泛使用之前對算法進行了驗證。3當案件關(guān)鍵證據(jù)的取得不合法、證據(jù)的證明力無法驗證時,法治的根基不再牢固,司法公正將蕩然無存。在不清楚算法系統(tǒng)運作模式的情況下,法律根本無法對算法進行有效監(jiān)督。其結(jié)果是,只講效率不問因果、只重結(jié)論不講目的的算法發(fā)展,將走入技術(shù)工具主義的死胡同。

二、歐美算法解釋權(quán)的模式及比較分析

以算法為核心的人工智能技術(shù)對公民個人權(quán)利造成了不可忽視的影響,算法解釋權(quán)成為當前法律研究的熱點?!靶畔r代的法律媒介是信息性和溝通性的”4,美國針對算法自動化決策問題采取個案救濟的外部問責機制,歐盟頒布《通用數(shù)據(jù)保護條例》(下文簡稱GDPR)確立了內(nèi)部監(jiān)管模式,逐步將算法規(guī)制納入法治軌道,這兩種模式對我國算法解釋權(quán)的構(gòu)建都有借鑒意義。

(一)歐美算法解釋權(quán)的模式考察

算法自動化決策系統(tǒng)能夠處理高度復雜和多層面的數(shù)據(jù),是世界各國大力發(fā)展的新技術(shù)。為了避免算法這種新興技術(shù)的消極作用,美國和歐盟分別形成了模式不同、特色各異的算法解釋權(quán)機制。

1. 美國的外部問責模式

美國的人工智能技術(shù)發(fā)展迅速,IEEE(電氣和電子工程師協(xié)會)率先發(fā)布《人工智能設計的倫理準則》白皮書對人工智能技術(shù)進行規(guī)制,隨后美國公共政策委員會2017年發(fā)布《算法透明性和可問責性聲明》,通過公民個人申請這種外部問責的方法提供算法解釋。例如,Pich v. Lightbourne5案是個人申請法院對算法進行問責的典型案例,原告提起訴訟認為“Calwin自動福利管理系統(tǒng)有編程缺陷,導致對個人福利的錯誤計算和利益自動終止”。法院經(jīng)審查認為,司法不需要對評估軟件每次運行過程都進行干預,除非程序出現(xiàn)“嚴重失敗”。原告福利自動終止是由于人為錯誤而不是Calwin錯誤,故算法程序并未出現(xiàn)“重大失敗”,不必進行審查。1與之相對,在K.W.Exrel.D.W. v. Armstrong 一案中2,法院判定,州政府需要充分告知民眾救濟金數(shù)目發(fā)生變化的具體原因,如問卷特定項目的答案發(fā)生變化,或者是其他解釋和根據(jù)。個案審查模式通過訴訟開啟了算法解釋權(quán),但這種“不告不理”的外部問責提供的救濟范圍畢竟有限,難以全面保護公民個人權(quán)利。

2. 歐盟的內(nèi)部監(jiān)管模式

歐盟很早就關(guān)注人工智能發(fā)展的法律治理問題,GDPR通過敦促數(shù)據(jù)控制者、處理者建立內(nèi)部問責制度對算法進行持續(xù)性和系統(tǒng)性的規(guī)制。首先,GDPR第22條賦予個人對算法自動化決策的反對權(quán),僅在合同履行、經(jīng)歐盟或者成員國法律授權(quán)以及基于數(shù)據(jù)主體明確同意三種情況下,數(shù)據(jù)控制者才能對個人數(shù)據(jù)分析形成自動決策。3其次,GDPR對數(shù)據(jù)控制者、管理者的內(nèi)部監(jiān)管模式側(cè)重事前和事中控制,GDPR在第13條、14條要求數(shù)據(jù)控制者通過告知算法邏輯、運算后果的方式賦予權(quán)利人知情權(quán)?!皵?shù)據(jù)控制者收集信息和獲取個人數(shù)據(jù)時應當履行事前通知義務”、“向數(shù)據(jù)主體提供自動化處理過程中運用的邏輯以及該種數(shù)據(jù)處理對數(shù)據(jù)主體的重要性和可能產(chǎn)生的后果”。GDPR第15條規(guī)定賦予個人訪問權(quán),即“數(shù)據(jù)主體有權(quán)向控制者確認與其相關(guān)的個人數(shù)據(jù)是否正在被處理,以及有權(quán)要求訪問與其相關(guān)的個人數(shù)據(jù)并獲知詳細信息”。最后,GDPR第35條確立了數(shù)據(jù)保護影響評估制度以加強數(shù)據(jù)控制者的隱私風險管理責任意識。

(二)歐美算法解釋權(quán)的差異之處

1. 算法解釋權(quán)的對象不同。在美國的外部問責模式中,法院對算法審查的對象是算法的具體決策,即當算法決策出現(xiàn)“嚴重失敗”時才需要進行審查;歐盟GDPR中規(guī)定的算法解釋權(quán)包括算法決策的重要性、運算邏輯以及該算法決策可能對個人產(chǎn)生的結(jié)果等內(nèi)容,很明顯要求對算法系統(tǒng)進行解釋。算法解釋權(quán)的對象究竟是算法系統(tǒng)還是具體的算法決策,對個人權(quán)利的影響差異很大。如果算法解釋權(quán)的對象是算法系統(tǒng),那么解釋的內(nèi)容應當包括算法系統(tǒng)的編程規(guī)范、預定義模型、訓練參數(shù)、輸入數(shù)據(jù)摘要、運行邏輯、模型測試、訓練或篩選等相關(guān)信息等;如果算法解釋權(quán)的對象是具體的算法決策,則應當對該具體決策產(chǎn)生的因果關(guān)系、運算邏輯等問題進行解釋。如果立法者將算法解釋的對象確認為二者兼有的模式,那么立法者需要以精細化的場景設置確定何種情況下對什么進行解釋。很明顯,美國算法解釋權(quán)的對象是具體決策,僅對算法系統(tǒng)進行部分審查,歐盟算法解釋權(quán)的對象是算法系統(tǒng),因此規(guī)定了對公民知情權(quán)、異議權(quán)等權(quán)利進行事前審查機制。

2. 算法解釋權(quán)的標準不同。歐盟GDPR傾向于易讀性標準,即算法解釋的義務主體對算法的解釋不應當僅僅是將影響算法做出決策的相關(guān)因素進行公布,而且對相關(guān)因素的公布必須要使用相對人易于理解的方式,這與GDPR要求的算法解釋可理解性的基本原則是一脈相承的,對算法解釋的義務主體提出了較高的義務要求,加強了對弱勢地位相對人的權(quán)利保護。美國的個案審查模式對算法解釋權(quán)的標準則需根據(jù)不同訴訟類型的證明標準而定,例如,State v. Loomis案的訴訟請求是COMPAS量刑軟件的決策過程,就需要采取刑事訴訟案件“排除合理懷疑”的證明標準;Pich v. Lightbourne案的訴訟請求是Calwin自動福利管理系統(tǒng)的決策過程,采取的是行政訴訟“舉證倒置”的證明標準。但是,由于算法的復雜性、專業(yè)性等原因,訴訟中無論國家機構(gòu)還是個人對算法運算的舉證均難以使訴訟雙方(尤其是陪審團)清楚地理解,這是算法解釋權(quán)構(gòu)建中必須考慮的問題。

3. 算法解釋的時間不同。歐盟GDPR通過賦予個人知情權(quán)、數(shù)據(jù)訪問權(quán)、異議權(quán)以及數(shù)據(jù)保護影響評價制度采取事前規(guī)制的模式,以降低算法決策對個人權(quán)利的消極影響。與之相對,美國的個案審查模式則是事后對算法的決策進行解釋,更多地側(cè)重對公民權(quán)利的補救。歐盟和美國對算法解釋有著事前解釋和事后解釋的區(qū)別,直接導致公民權(quán)利保護范圍的差異。例如,很多民眾因沒有時間、精力進行訴訟,即使其對算法決策的結(jié)論心生懷疑也往往不會向法院提起訴訟要求解釋算法的決策過程,更何況美國現(xiàn)行的司法判例并非支持所有申請算法解釋的訴訟請求。隨著人工智能技術(shù)不斷發(fā)展,算法會應用到越來越多的領(lǐng)域,事前解釋會使算法開發(fā)者、使用者審慎對待個人數(shù)據(jù)的處理和決策問題,事后解釋可能使算法開發(fā)者、使用者抱著僥幸心理,放任決策偏差現(xiàn)象。

(三)歐美算法解釋權(quán)的共同之處

1. 促進技術(shù)安全發(fā)展

在全球第三次科技革命浪潮中,美國率先出臺了《人工智能設計的倫理準則》白皮書、《算法透明性和可問責性聲明》對算法進行規(guī)制,歐盟也頒布GDPR強化個人數(shù)據(jù)控制者、處理者的責任以加強算法決策的科學性,都是為了促進人工智能技術(shù)安全發(fā)展、造福人類。如果算法應用到分類預警、信用評估、資格鑒定等公共服務領(lǐng)域出現(xiàn)重大錯誤,輕則損害國家機關(guān)公信力,重則引發(fā)廣泛的社會抗議,甚至部分人工智能倫理學者以“某算法違反技術(shù)倫理”為由要求禁止該技術(shù)應用。因此,認真審視算法應用中出現(xiàn)的問題,通過法律規(guī)范尋求解決問題的對策是促進技術(shù)發(fā)展的正確方法,無論美國事后對算法決策進行解釋,還是歐盟事前對算法進行規(guī)制都體現(xiàn)了以法律規(guī)制促進技術(shù)安全發(fā)展的宗旨。

2. 限制政府權(quán)力

算法在公共服務領(lǐng)域的決策往往作為行政許可、行政處罰等行政行為的參考依據(jù),一定程度上發(fā)揮著行政行為單方行為性、強制性效果,無形中掩蓋了程序瑕疵、甚至出現(xiàn)錯誤行政行為問題,導致政府權(quán)力難以監(jiān)管。State v. Loomis案和State v. Andrews案凸顯了公權(quán)力對犯罪風險的嚴密監(jiān)控,Pich v. Lightbourne案表明政府對個人福利計算的非公開性與排他掌控,表明算法系統(tǒng)的應用帶有明顯的公權(quán)力監(jiān)控色彩。美國人工智能技術(shù)發(fā)展走在世界前列,人工智能研究人員及IEEE一直呼吁算法黑箱問題應受到監(jiān)管,因此美國公共政策委員會頒布《人工智能設計的倫理準則》對算法提出透明度要求。歐盟GDPR適用于歐盟各個成員國,除了通過對數(shù)據(jù)控制者、處理者的行為加強監(jiān)管以限制算法自動決策的消極作用,還對不同成員國之間數(shù)據(jù)跨境流動作出規(guī)制,實際上限制了政府以概括的“公共利益”為由濫用公民個人數(shù)據(jù)的權(quán)力,是人工智能時代限制政府權(quán)力邁出的重要步伐。

3. 加強個人權(quán)利保護

算法解釋權(quán)始于個人數(shù)據(jù)收集,通過監(jiān)管個人數(shù)據(jù)的處理來影響個人在社會生活領(lǐng)域方方面面的權(quán)利。例如,疫情防控預警系統(tǒng)可能把某人列為高危人群進而限制其行動自由,征信評級系統(tǒng)可能把某人列入失信名單而限制其報考公務員。歐盟GDPR從個人數(shù)據(jù)的收集、處理階段就通過對相關(guān)人員權(quán)利告知、賦予自動化決策反對權(quán)等內(nèi)容保護其個人權(quán)利,并且在事中賦予個人訪問權(quán)以保證相關(guān)權(quán)利人的知情權(quán)。美國通過個案審查的模式賦予公民救濟權(quán),雖然時間上相對滯后,但提供的權(quán)利保護具有強制力。從這一點來看,歐盟和美國的算法解釋權(quán)在加強個人權(quán)利保護方面殊途同歸。

三、我國構(gòu)建算法解釋權(quán)的法理基礎

《個人信息保護法(草案二次審議稿)》(以下簡稱《個人信息保護法(草案)》)第25條明確提出,“通過自動化決策方式對個人權(quán)益有重大影響的決定,個人有權(quán)要求信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定”,這一規(guī)定奠定了我國算法解釋權(quán)的法律依據(jù)。那么算法解釋權(quán)在公共服務領(lǐng)域如何克服“商業(yè)秘密”保護的抗辯?

(一)公共服務領(lǐng)域算法解釋之必要

1. 算法具有公共服務屬性

伴隨“互聯(lián)網(wǎng)+”的發(fā)展,算法日益應用到公共服務領(lǐng)域,那么當算法治理事關(guān)公共利益時,重新審視算法定位及其屬性是必要的。《政府信息公開條例》第2條規(guī)定“本條例所稱政府信息,是指行政機關(guān)在履行行政管理職能過程中制作或者獲取的,以一定形式記錄、保存的信息”,因此公共服務領(lǐng)域的算法應用也具有公共服務屬性,應當提出與政府信息同等程度的透明度要求。開發(fā)、應用征信評級、風險評估軟件的企業(yè)實際上行使著“準公權(quán)力”的角色——當COMPAS算法程序作為量刑的參考依據(jù)時,風險評估工具肩負著公共利益職能,而非僅僅是私人企業(yè)的產(chǎn)品。就像上市公司定期披露財務報告一樣,私營公司在決定將算法系統(tǒng)作為公共服務的輔助工具時,應承擔維護公共利益的隨附義務。如果算法決策的結(jié)論涉及公民福利、社會安全等公共利益,此時算法已經(jīng)從技術(shù)工具的角色轉(zhuǎn)化為公權(quán)力服務的一部分。1美國1996年頒布《信息自由法》授予個人獲得政府檔案的權(quán)利,在Chrysler Corp.v. Brown案件中,私人企業(yè)反對根據(jù)《信息自由法》的要求公布商業(yè)秘密記錄時,法院駁回其主張并認為“當信息獲取對于保護公共利益必要時,一些平衡和調(diào)節(jié)是可取的”2。所以,提供公共服務的私營公司應與公共機構(gòu)保持相同的透明度要求,并應擴大信息披露,包括算法系統(tǒng)的運行過程,以此來實現(xiàn)這一要求。

2. 商業(yè)秘密披露之必須

算法的運作過程是其開發(fā)企業(yè)維持市場競爭力的關(guān)鍵,因此很多科技企業(yè)以“商業(yè)秘密”為由拒絕對算法進行解釋,導致算法運作呈現(xiàn)“秘密性”“商業(yè)價值性”和“需保密性”特點。然而,當算法的運作過程侵犯了個人基本權(quán)利、甚至影響到了社會公共利益時,如何對算法進行解釋呢?

“允許公司通過商業(yè)秘密保護來保持競爭優(yōu)勢的想法,必須讓位于公共利益,因為公司的私人利益不能與公共利益相對抗?!?公共利益對商業(yè)秘密的抗辯原則是英美法律中的慣例,最初適用于非法利用商業(yè)秘密行為的抗辯,后來逐漸發(fā)展為公共利益抗辯原則,并對基于公共利益應當公開的事項作了特別要求。4英國法律委員會在“商業(yè)秘密濫用咨詢報告”提出“為維護公共利益,以下情形不構(gòu)成商業(yè)秘密侵權(quán):(1)向合適之人披露保密信息是出于制止、發(fā)覺或揭露(a)一項已經(jīng)或按計劃將要發(fā)生的犯罪行為、欺詐行為或違反法定義務的行為;(b)一項本質(zhì)上屬于欺詐社會公眾的行為;(c)現(xiàn)在或?qū)頃<肮娊】祷蚋@氖马?(2) 依據(jù)保密法律制度具有公共利益這一正當理由的任何使用或披露信息的行為”5。之后英國《1998年公共利益披露法》將上述情況納入立法條文。美國判例確定的公共利益披露事由包括國家安全(Republic Aciation Corporation v.Schenk)1、方便公眾利用公共設施(Westcode Inc v. Daimler Chrysler Rail Systems)2、維護商業(yè)道德和自由競爭秩序(Pepsi Co Inc v. Kitsonas)3以及保護憲法賦予的基本權(quán)利(Preminger v. Principi)4等理由。從確保公平正義的角度來看,人工智能算法系統(tǒng)的運作過程應盡早披露。由于公共服務的受眾數(shù)量眾多、影響力大,政府也投入了大量資源來購買和學習人工智能技術(shù);如果不在事前檢測算法系統(tǒng)的準確性、可靠性,而在被告對算法系統(tǒng)提出質(zhì)疑時再進行源代碼檢測,則可能造成大量的資源浪費,也會對個人權(quán)利造成不利影響。所以,算法研發(fā)者不能以“商業(yè)秘密”為由拒絕披露算法運算過程。我國《個人信息保護法(草案)》第25條明確規(guī)定“利用個人信息進行自動化決策,應當保證決策的透明度和處理結(jié)果的公平合理”;第48條賦予“個人有權(quán)要求信息處理者對其個人信息處理規(guī)則進行解釋說明”的權(quán)利,都是“商業(yè)秘密”披露的法律基礎。

(二)算法解釋權(quán)的技術(shù)要求

《個人信息保護法(草案)》第55條要求信息處理者對個人信息處理活動在事前進行風險評估,包括:“1.個人信息的處理目的、處理方式等是否合法、正當、必要;2.對個人的影響及其風險程度;3.所采取的安全保護措施是否合法、有效并與風險程度相適應”。為增強信息處理者風險評估的準確性,有必要公開算法運算過程的關(guān)鍵參數(shù)以使公眾相信算法輸出結(jié)論的可靠性,提高風險評估的公信力。

1. 公開算法模型

公共服務領(lǐng)域應用的算法事關(guān)公民基本權(quán)利,不應被置于秘密黑箱之中,而應在投入使用之前公開算法模型接受公眾檢驗。提前公開算法模型能夠為公眾提供知情權(quán),在應用廣泛的算法決策領(lǐng)域,應該公開算法解釋的模型以避免黑箱模型的使用。中國人民銀行頒布《金融分布式賬本技術(shù)安全規(guī)范》(JR/T 0184—2020)中明確規(guī)定,“在可計算性理論中,一系列操作數(shù)據(jù)的規(guī)則可以用來模擬單帶圖靈機”,即通過圖靈完備原則進行算法模擬。我國《數(shù)據(jù)安全法(草案)》中提出了重要數(shù)據(jù)處理者的風險評估制度,以及政務數(shù)據(jù)委托處理的批準程序也是公開算法模型的法律依據(jù)。在Loomis案件中,COMPAS軟件的設計者ProPublica曾發(fā)布報告對該軟件的決策邏輯進行解釋,明確提出“COMPAS軟件的輸出數(shù)據(jù)可能存在種族歧視的算法偏差”1。通過立法的方式限制黑箱算法的使用范圍,規(guī)定對黑箱算法設計者和控制者的法律責任,才能從事前和事中對人工智能的算法邏輯進行實質(zhì)的監(jiān)管和追溯。

2. 公開源代碼

歐美學者提出,“公開模型對算法邏輯進行解釋無法完全避免算法歧視,披露計算機源代碼增強算法決策程序透明度是降低算法風險的最佳措施”2。源代碼保密不僅對刑事被告和司法公正造成危害,而且不利于技術(shù)創(chuàng)新。Loomis案件中,盡管開發(fā)COMPAS軟件的Northpointe公司已經(jīng)公開測試算法決策的過程,但它拒絕透露數(shù)據(jù)是如何加權(quán)得出的再犯風險評分,仍然有悖司法公正。美國明尼蘇達州使用的酒精呼吸測試系統(tǒng)Intoxilyzer的源代碼經(jīng)過驗證后顯示,“缺陷系統(tǒng)”不能輸出準確的結(jié)論。3因此,公開源代碼確保算法公平公正具有重要作用。

當人工智能系統(tǒng)應用于公共領(lǐng)域時,公開源代碼并接受公眾的驗證,是企業(yè)承擔社會責任的必然要求。美國俄勒岡州要求算法設計者公開算法源代碼,并提供犯罪風險評估的“16個變量及其權(quán)重”4。谷歌大腦團隊將算法比喻成“人工神經(jīng)網(wǎng)絡的核磁共振成像”,并公布“可解釋性的基礎構(gòu)件”的研究成果,這種開源化處理使得其他技術(shù)人員能夠在此基礎上編寫適用于不同算法和場景的解釋性算法。我國《政府信息公開條例》第9條規(guī)定,“涉及公民、法人或其他組織切身利益的信息應主動公開”,是算法系統(tǒng)公開源代碼信息的法律依據(jù)。從技術(shù)角度看,應用于公共服務領(lǐng)域算法系統(tǒng)的開發(fā)者應在事前將算法運行信息公開披露,以便及時發(fā)現(xiàn)和糾正算法偏差,并通過持續(xù)審查算法更新后的情況,作為算法系統(tǒng)進一步創(chuàng)新的動力,開發(fā)出更加完善的算法系統(tǒng)。

3. 公開算法運算基本規(guī)則和因素權(quán)重

2020年4月加拿大生效的《自動化決策指令》要求使用算法決策的公共部門應就其決策向受影響的個人提供有意義的解釋,包括決策中使用的變量因素。德國法律也要求政府部門使用的算法必須公布:(1)有關(guān)程序輸入和輸出數(shù)據(jù)的數(shù)據(jù)類別的信息;(2)算法所涉及的邏輯,尤其是使用的計算公式,包括輸入數(shù)據(jù)的權(quán)重,基本的專業(yè)知識以及用戶部署的個人配置;(3)最終決策的范圍以及程序可能產(chǎn)生的后果。1由此可見,針對行政相對人提供具體的算法解釋已逐漸成為各國的實踐做法,如果政府機構(gòu)僅僅以算法運行不能直觀地作出解釋就拒絕公開算法系統(tǒng)的基本規(guī)則和因素權(quán)重,則違反了行政行為公開透明的基本原則。1992 年美國聯(lián)邦公路管理局拒絕披露用于計算運營商安全評級的算法,但法庭認為這違反了《信息自由法》中政府披露政府信息的要求,判決聯(lián)邦公路管理局必須披露計算中所用因素的權(quán)重。2因此,公開算法運算基本規(guī)則和因素權(quán)重是公共服務領(lǐng)域算法決策遵循信息公開原則的必然要求。

(三)政府主導核心領(lǐng)域算法開發(fā)

為避免私人企業(yè)以商業(yè)秘密為由拒絕披露源代碼,政府可在國計民生領(lǐng)域通過自己開發(fā)算法系統(tǒng)來滿足公民基本權(quán)利保障的要求。在犯罪風險評估、征信評級、稅收、醫(yī)療等公共服務領(lǐng)域,政府實際上是這些技術(shù)的主要(或唯一)購買者,與其強制私人企業(yè)公開算法過程,不如政府主導人工智能軟件開發(fā),以實現(xiàn)算法開發(fā)時公開源代碼和公開算法模型的技術(shù)要求,維護公共利益。

1. 自主開發(fā)

國計民生核心領(lǐng)域的算法運行事關(guān)公共利益,必須由政府自主開發(fā)人工智能系統(tǒng)。例如,美國俄亥俄州的康復與矯正科就建立了自己的全州風險評估系統(tǒng),以“改善一致性,促進刑事司法機構(gòu)之間的溝通”3。我國各地正在如火如荼建設的大數(shù)據(jù)產(chǎn)業(yè)集團就是政府自主開發(fā)人工智能的典例。為貫徹算法解釋權(quán),算法開發(fā)時需要法律人員和技術(shù)人員合作,通過法律人員向技術(shù)人員解釋法律規(guī)則的要求,技術(shù)人員根據(jù)要求設計出符合法律要求的算法——法律技術(shù)工程師這一職業(yè)正在悄然興起。

2. 資助企業(yè)研發(fā)

在國計民生核心領(lǐng)域外的公共服務領(lǐng)域,政府可通過資助企業(yè)研發(fā)的形式獲得算法系統(tǒng)的產(chǎn)權(quán)。例如,政府以項目招標的方式為承擔者提供資金,同時要求研發(fā)者公開源代碼或其他相關(guān)信息。政府資助企業(yè)研發(fā)人工智能系統(tǒng)可采取直接資助和間接資助的方式,最簡單的途徑是通過合同支付研發(fā)費用,以獲得被開發(fā)產(chǎn)品的產(chǎn)權(quán)。此時政府研發(fā)可采取類似監(jiān)管的專賣政策,或采取政府采購與單獨的來源協(xié)議相結(jié)合,即購買某種特定技術(shù)或服務的協(xié)議的方式資助人工智能研發(fā),這實際構(gòu)成了一種排他性監(jiān)管的形式。此外,政府購買算法系統(tǒng)時,為補償研發(fā)企業(yè)公開商業(yè)秘密的損失,可通過稅收、獎勵等途徑進行補償,如為算法開發(fā)者提供更高的購買價格或更長的單一來源合同條款;或者政府為這種技術(shù)的發(fā)展設立獎勵。

結(jié)? ?語

如果說前兩次人工智能浪潮以技術(shù)研究為主導,那么第三次人工智能浪潮是以實踐應用為目的。算法系統(tǒng)已經(jīng)悄無聲息地應用到公共服務的各行各業(yè),“‘大數(shù)據(jù)時代背后所隱藏的商業(yè)價值驅(qū)動著企業(yè)、個人不斷地借助數(shù)據(jù)挖掘等現(xiàn)代科技手段實現(xiàn)其商業(yè)利益的最大化”1,但“商業(yè)秘密”保護下的算法侵犯個人的隱私權(quán)和知情權(quán),妨礙公平公正已經(jīng)成為不容忽視的問題。算法應用于公共服務領(lǐng)域時具有公共服務屬性,此時算法系統(tǒng)的商業(yè)秘密應讓位于公民基本權(quán)利保障。我國《個人信息保護法(草案)》設立了以算法系統(tǒng)為解釋對象、以事前監(jiān)管為原則、以透明性和公正合理為標準的算法解釋權(quán)體系,比GDPR更進一步保護了個人基本權(quán)利。在中國特色算法解釋權(quán)的構(gòu)建中,應從規(guī)范上明確“易讀性為標準,反設事實為例外”的透明性內(nèi)涵,完善算法事后審計制度,加強算法監(jiān)管;在技術(shù)上公開算法模型、公開源代碼、公開算法運算基本規(guī)則和因素權(quán)重,確保公眾知情權(quán);在實踐上由政府主導國計民生核心領(lǐng)域的算法開發(fā)以保障數(shù)據(jù)安全,走向算法應用公開公正的新時代。

[責任編輯 李宏弢]

猜你喜歡
個人信息保護法商業(yè)秘密公共利益
談談個人信息保護和公共利益維護的合理界限
個人信息的法律保護
個人信息保護法在大數(shù)據(jù)時代的適用和域外效力
個人信息保護法域外效力研究
美國《保護商業(yè)秘密法》的立法評價
論專利行政執(zhí)法對公共利益的保護
美國對涉華商業(yè)秘密的“337調(diào)查”及國內(nèi)行業(yè)的應對做法
表達自由語境中的“公共利益”界定
論公共利益的界定與情況判決的重構(gòu)
平潭县| 宁阳县| 香河县| 广州市| 平昌县| 昆山市| 若尔盖县| 无锡市| 昌吉市| 扶沟县| 桑日县| 漠河县| 平度市| 九龙县| 太仆寺旗| 孝昌县| 湛江市| 巩义市| 得荣县| 渭源县| 彰武县| 朝阳区| 札达县| 永德县| 宜宾县| 永州市| 宣城市| 宜君县| 湖南省| 辽源市| 平武县| 托克托县| 江油市| 东丽区| 仙游县| 威远县| 牙克石市| 随州市| 潍坊市| 宝山区| 鄄城县|