国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

構(gòu)造算法決策之解釋請求權(quán)初論

2020-07-16 03:54劉蓓孫世擎
關(guān)東學(xué)刊 2020年1期

劉蓓 孫世擎

[摘要]隨著近些年人工智能的快速發(fā)展與應(yīng)用,人類進(jìn)入了信息數(shù)據(jù)化的科技時代,越來越多的領(lǐng)域依靠大數(shù)據(jù)的算法決策來做出決定,大到銀行業(yè)的貸款許可,小到網(wǎng)絡(luò)平臺的購物選擇,人們生活在巨大的數(shù)據(jù)網(wǎng)鏈下,各種信息被匯總、分析、排序,并用于決策,形成了一張關(guān)于相對人進(jìn)入特定領(lǐng)域的通行證。然而需要考量的是,如果算法化決策是錯誤的,那么在相對人無從知曉具體決策過程的情況下又該如何維護(hù)自己的權(quán)益呢?這一點我國相關(guān)法律制度并無規(guī)定,而單純援用合同違約責(zé)任、侵權(quán)責(zé)任、知情權(quán)等無法達(dá)到救濟效用。通過理論衡量,唯有配置獨立的解釋請求權(quán)才能平衡算法化決策使用者與相對人之間失衡的權(quán)力關(guān)系。而在構(gòu)建“解釋請求權(quán)”中需要對其稱謂進(jìn)行統(tǒng)一,同時對解釋請求權(quán)的權(quán)利義務(wù)主體予以準(zhǔn)確界定,闡述權(quán)利義務(wù)相互印證的法律內(nèi)容,對其適用范圍進(jìn)行限制,為“解釋請求權(quán)”的構(gòu)建提供學(xué)理儲備。

[關(guān)鍵詞]算法決策;解釋請求權(quán);權(quán)力衡平;權(quán)利構(gòu)造

[作者簡介]劉蓓(1983-),女,法學(xué)博士,長春工業(yè)大學(xué)計算法學(xué)研究所副教授;孫世擎(1995-),女,長春工業(yè)大學(xué)公共管理學(xué)院碩士研究生(長春130022)。

一、算法解釋請求權(quán)之稱謂統(tǒng)一

(一)解釋權(quán)請求權(quán)出世:配置新型權(quán)利,衡平權(quán)力關(guān)系

隨著人工智能發(fā)展水平的提升,人工智能對人類生活的影響日益深入。2016年著名棋手李世石與阿爾法狗的人機大戰(zhàn),最終以1:4的比分落下帷幕,該事件的發(fā)生使得人工智能話題被推上了熱搜,也讓更多的人認(rèn)識到了人工智能的重要性。而現(xiàn)今,人工智能已經(jīng)應(yīng)用到生產(chǎn)生活的諸多領(lǐng)域,基于此,一些商業(yè)性企業(yè)開始運用大數(shù)據(jù)的算法來進(jìn)行商業(yè)決策,比如,銀行業(yè)利用數(shù)據(jù)算法來計算貸款人的誠信度、還款能力等,進(jìn)而辨別貸款方是否符合貸款條件;上海市法院于2019年首次在庭審中運用了人工智能輔助辦案系統(tǒng),通過人工智能的協(xié)助保證案件證據(jù)的真實可靠以提高審判效率,加之智能量刑系統(tǒng)和法律文書智能系統(tǒng)的運用,一定程度上實現(xiàn)了司法審判智能化。不僅如此,就連在網(wǎng)絡(luò)平臺購物,智能系統(tǒng)都會根據(jù)消費者平時瀏覽記錄數(shù)據(jù)進(jìn)行分析、判斷,進(jìn)而推送相關(guān)產(chǎn)品。

人工智能之所以能夠針對相對人做出信息決策,依據(jù)的就是系統(tǒng)背后的大數(shù)據(jù)算法,網(wǎng)絡(luò)系統(tǒng)收集了大量的相對人信息,然后進(jìn)行匯總、分析、判斷,直至做出影響相對人的決策,這一過程又稱之為算法決策。在這一過程中,由于算法方式具有一定的隱蔽性,技術(shù)手段又極具專業(yè)性特征,相對人根本無從得知并理解決策的依據(jù),一旦所做出的算法決策系錯誤的,將對相對方產(chǎn)生不利影響,魏則西事件就是一起典型案例。由于百度公司競價排名,推送錯誤的信息鏈接,導(dǎo)致魏則西被誘導(dǎo),并為此付出了慘重的代價。在這種情況下,相對人處于被動的封閉狀態(tài),更遑論對算法計算過程的認(rèn)知。而諸如此類的事件更是頻繁出現(xiàn),2019年,美國佛羅里達(dá)州高速公路上發(fā)生了一起交通事故,起因在于一車主在使用特斯拉Model S電動轎車時,啟動了自動駕駛模式,由于系統(tǒng)在探測路況時自動忽略了前方帶有泊車標(biāo)識的半掛車,導(dǎo)致兩輛車發(fā)生了碰撞,特斯拉車主也在此次事故中身亡。車主家屬認(rèn)為對于此次事故特斯拉公司應(yīng)負(fù)主要責(zé)任,其生產(chǎn)的自動化轎車存在產(chǎn)品缺陷,但美國監(jiān)查部門則認(rèn)為特斯拉在本次事故中無責(zé)。美國高速公路安全管理局(NHT-SA)經(jīng)檢測后聲稱,并未發(fā)現(xiàn)自動駕駛轎車存在產(chǎn)品設(shè)計、質(zhì)量性能上的缺陷,自動化系統(tǒng)作為一種智能載體其本身存在一定的局限性和不可預(yù)測性,因此要求使用者具備高度注意義務(wù),車主在發(fā)現(xiàn)障礙后未及時采取行為制止,存在責(zé)任。該事件的發(fā)生讓人們對自動化駕駛的安全性能產(chǎn)生懷疑,同時對自動化決策帶來的損害而受害人卻無法得以維權(quán)的現(xiàn)象陷入沉思,以法律規(guī)制自動化決策的呼聲在學(xué)理界蔓延開來。因此,需要構(gòu)建算法解釋權(quán)對算法決策進(jìn)行規(guī)制,也是為相對人配置符合現(xiàn)實所需的新型權(quán)利,以衡平算法決策使用者與相對人之間失衡的權(quán)力關(guān)系。

(二)解釋權(quán)請求權(quán)稱謂:選擇與統(tǒng)一

在理論探討中,關(guān)于“算法解釋”的權(quán)利稱謂不盡相同,包括算法受解釋權(quán)、算法可解釋權(quán)、算法解釋權(quán)、算法解釋請求權(quán)等不同表述。研究的開始有必要對相關(guān)稱謂與權(quán)利內(nèi)涵進(jìn)行銜接、界定、統(tǒng)一。

張凌寒教授認(rèn)為,“算法解釋權(quán)”是指當(dāng)算法化決策的結(jié)果對相對人產(chǎn)生不利影響時,相對人有權(quán)要求做出該決策的使用者給出合理解釋并更正錯誤。承擔(dān)解釋義務(wù)的主體是算法決策使用者,享有算法解釋權(quán)的主體是相對人,然而“算法解釋權(quán)”稱謂本身似乎使權(quán)利主體模糊難辨。其次,“算法解釋權(quán)”具有強制性意味,是法律賦予相對人的一種絕對性權(quán)利,也意味著是算法決策使用者的義務(wù),如若不予履行將會受到懲處。賦予相對人絕對解釋權(quán),將會導(dǎo)致以下問題:1.權(quán)利主體范圍泛濫。如果賦予解釋權(quán),是不是在文義解釋上可以理解為,凡是算法決策使用者做出的決定,任何人都享有主張解釋的權(quán)利?2.權(quán)利范圍無法界定。是不是不管算法決策使用者做出何種決定,都必須提供相應(yīng)的算法計算說明?3.算法使用者負(fù)擔(dān)過重?!八惴ń忉寵?quán)”如果具有絕對性特征,不管相對人是否主張解釋權(quán),使用人都具有絕對解釋義務(wù)。雖然使用者較之相對人掌握更多的算法技術(shù),但由于算法領(lǐng)域具有復(fù)雜性、模糊性等特征,導(dǎo)致使用者并不能全面提供明確的解釋,而“算法解釋權(quán)”的存在會給使用者施加額外的壓力,打擊其使用算法的積極性。由此,針對算法決策配置以絕對“解釋權(quán)”尚存有瑕疵,無法合理地分配權(quán)利義務(wù)體系,難以實現(xiàn)算法決策使用者與相對人之間權(quán)力衡平的初衷。

“算法可解釋權(quán)”的稱謂源自“算法的可解釋性”,系美國加州伯克利大學(xué)的研究者們所提出,其含義是指在算法計算過程中另行設(shè)計一款算法方式來對該計算過程進(jìn)行監(jiān)督記錄,以達(dá)到對計算結(jié)果的解讀,突破原計算過程的不可知性特征?!翱山忉寵?quán)”的稱謂從語義上講強調(diào)的是“解釋”的可行性特征,是賦予算法解釋的手段,是法律對于解釋行為的認(rèn)可,其實質(zhì)在于強調(diào)解釋的必要,但無法從本質(zhì)上辨別其權(quán)利屬性,無法判定是絕對權(quán)還是請求權(quán),因此,如若配置“可解釋權(quán)”將導(dǎo)致權(quán)利的內(nèi)涵從根本上產(chǎn)生模糊,適用上將產(chǎn)生歧義。

“算法受解釋權(quán)”。按照法律用語規(guī)范來講,“受”字表示的是“接受”,其本身帶有被動性特征,雖然在算法決策的權(quán)利體系中相對方確實屬于接受解釋的一方,其權(quán)利定位也明確,但是按照行為延續(xù)合理性出發(fā),應(yīng)首先需要發(fā)生“解釋請求權(quán)”,對應(yīng)的才是相對方的“接受解釋權(quán)”。在我國現(xiàn)行法律關(guān)系中,與之類似的如“優(yōu)先受償權(quán)”,首先就需要發(fā)生“賠償請求權(quán)”,然后才對應(yīng)發(fā)生“優(yōu)先受償權(quán)”。我國在法律上很少采用“受”的權(quán)利稱謂,而且按照我國語法使用習(xí)慣,“受”帶有后續(xù)性,要以一定法律關(guān)系的產(chǎn)生為基礎(chǔ)。因此,“算法受解釋權(quán)”無法作為算法決策相對方的先行救濟性權(quán)利予以適用,不予考慮。

“算法解釋請求權(quán)”。“請求權(quán)”一說來源于德國民法典,我國作為大陸法系國家,法律體系的構(gòu)成深受德國民法典的影響。無論是薩維尼的法律關(guān)系理論,亦或溫德沙伊德的請求權(quán)體系,德國民法典體系突出的本質(zhì)在于個人主義,以人與人之間的特定行為出發(fā)去分析所衍生的法律關(guān)系以及權(quán)利關(guān)系。而本文旨在探討請求權(quán)性質(zhì)的權(quán)利體系,因此暫且拋開對薩維尼理論的研究,著重分析溫德沙伊德理論下的請求權(quán)之概況。所謂的請求權(quán)在其觀點理論中被認(rèn)為是一種法律秩序的轉(zhuǎn)讓,因特定法律事實的發(fā)生進(jìn)而作為一種命令發(fā)布出去,要求實施特定的行為,針對的對象既可以是特定主體亦可以是不特定主體。

按照溫德沙伊德理論的觀點,請求權(quán)適用的主體是人,規(guī)范著人與人之間的特定行為,而作出算法決策的則是人工智能,即機器,是否可受請求權(quán)之規(guī)制?例如2017年10月26日,沙特阿拉伯授予香港漢森機器人公司生產(chǎn)的機器人索菲亞公民身份。作為史上首個獲得公民身份的機器人,突破了傳統(tǒng)公民之法律意義,擁有了法律意義上的“人”的權(quán)利義務(wù),那么機器產(chǎn)生的行為被納入法律規(guī)制的范疇是否合理?當(dāng)下智能系統(tǒng)應(yīng)用廣泛、頻繁,但是機器化并不能代表精準(zhǔn)化,時而出現(xiàn)的算法錯誤現(xiàn)象也從客觀層面上侵害著權(quán)利人的利益。雖然在表現(xiàn)形式上體現(xiàn)為智能算法造成相對人的損害,而非“人”這個主體形態(tài),也并非法律秩序中發(fā)布命令的指向?qū)ο螅悄軝C器的運行還需要人為地輸人指令,因此要揭開算法的面紗探尋指令者與相對人之間的請求權(quán)基礎(chǔ)。

請求權(quán)其實質(zhì)屬于救濟性權(quán)利,深入研究請求權(quán)的范疇可知,其救濟的權(quán)利包含兩類:一是針對權(quán)利本身的救濟,又稱之為“原權(quán)請求權(quán)”,是依附權(quán)利本身所衍生出來的,即對于法律賦予民事主體之權(quán)利相伴隨的;二是針對權(quán)利受有損害時,賦予此種救濟權(quán)以抵抗損害,請求加害方對其侵權(quán)行為采取一定的補救措施,使相對方破損的權(quán)利恢復(fù)到不受侵害的圓滿狀態(tài)?!八惴ń忉屨埱髾?quán)”稱謂之合理性在于,不僅可以間接在法律體系上對“解釋權(quán)”存在的合法性、獨立性予以承認(rèn),針對“解釋權(quán)”即“原權(quán)”本身賦予一定的保護(hù)性功能,同時又可以提供相應(yīng)救濟措施,使受損害權(quán)利恢復(fù)到圓滿狀態(tài)。在法理基礎(chǔ)之上,請求權(quán)系相對權(quán),針對的主體是特定的,之所以為“算法解釋權(quán)”配置“請求權(quán)”之特性,其根本在于互聯(lián)網(wǎng)所面對的是不特定的眾多民事主體,因其具有廣泛性特征,如果不加以一定的要件限制,極易造成權(quán)利體系的混亂,直接影響整個法律體系的穩(wěn)定。解釋請求權(quán)“出世”的目的就在于建立自動化決策相對人數(shù)據(jù)權(quán)的救濟機制。

綜合上述對四種“算法解釋”稱謂之法理分析,從語義角度剖析,本質(zhì)都是賦予相對人一定的“解釋”之權(quán)利,但各稱謂在其表述的內(nèi)涵及性質(zhì)上的側(cè)重點仍存有重大差別。在此辨析上,本文傾向“解釋請求權(quán)”之稱謂?!八惴ń忉屨埱髾?quán)”實質(zhì)就是為了保護(hù)因不利或錯誤算法決策受損害的相對方,在立法上構(gòu)建新型“解釋請求權(quán)”,請求算法使用者對算法決策過程、結(jié)果予以解釋解讀,使相對方明晰損害產(chǎn)生的因果關(guān)系,進(jìn)而維護(hù)自身的合法權(quán)益。同時由于請求權(quán)在學(xué)理上屬于相對權(quán),指向主體特定,權(quán)利義務(wù)內(nèi)容特定,因此將其定義為“解釋請求權(quán)”更能充分反映立法的核心目的。

二、算法解釋請求權(quán)之權(quán)利內(nèi)容

算法解釋請求權(quán)的關(guān)注點在于使用者、開發(fā)者與相對方之間明顯失衡的權(quán)利義務(wù)關(guān)系,目的在于限制自動化決策使用者、開發(fā)者較為強勢的地位,使博弈雙方處于相對平衡的狀態(tài),使錯誤決策而溢出的負(fù)外部性通過風(fēng)險內(nèi)部化的手段得以解決,據(jù)此,算法解釋請求權(quán)適用的權(quán)利義務(wù)主體應(yīng)針對決策類算法的使用人、設(shè)計者和相對人。

(一)權(quán)利、義務(wù)主體

1.權(quán)利主體:決策類算法的相對人。算法解釋請求權(quán)作為一種“請求,,.j生質(zhì)的權(quán)利,在債法理論中是屬于特定雙方主體之間的權(quán)利義務(wù),即相對人請求與之具有法律關(guān)系的主體實施一定行為的權(quán)利,要求權(quán)利義務(wù)主體具有明確性。按照權(quán)利義務(wù)的走向,相對人作為經(jīng)濟地位、知識信息不對稱的弱勢一方,其權(quán)利應(yīng)予以特別的保護(hù),應(yīng)該賦予其算法解釋權(quán)權(quán)利主體的身份,在算法化決策錯誤或者對自身造成不利影響的時候相對人有權(quán)向使用者請求解釋,但權(quán)利主體的范圍應(yīng)予以限定。由于網(wǎng)絡(luò)平臺受眾廣,如果將解釋權(quán)授予任意相對人的話,則加劇了算法決策使用者的責(zé)任負(fù)擔(dān),因此應(yīng)將權(quán)利義務(wù)限定在具備法律關(guān)系的雙方主體之間,即雙方之間產(chǎn)生法律權(quán)益方可適用,否則將造成該權(quán)利的濫用。

2.義務(wù)主體:決策類算法的使用人、開發(fā)者??v觀我國互聯(lián)網(wǎng)領(lǐng)域的發(fā)展態(tài)勢,真正精尖的技術(shù)手段大多壟斷在算法決策使用者手中,由于其具備雄厚的資金以及掌握著算法的核心技術(shù),在開發(fā)、使用算法決策中扮演著領(lǐng)導(dǎo)者的角色,而且能夠通過算法決策影響相對方的權(quán)益。很明顯,在此過程中使用者始終保持裁判者的地位,為了權(quán)利義務(wù)之平衡,也為了保護(hù)相對方的權(quán)益,不得不將使用者納人義務(wù)人之范疇。

與此之外,還存在一種情況,即算法化決策使用者與開發(fā)者之間的角色分離,使用者也不一定詳盡地掌握該決策的計算過程,在相對人主張解釋時,算法化決策使用者無法予以明確的釋明,導(dǎo)致未及時妥善履行相應(yīng)的義務(wù)。為了避免此現(xiàn)象的發(fā)生,應(yīng)當(dāng)將算法決策開發(fā)者也納人權(quán)利義務(wù)體系中,在算法決策使用者無法提供完善詳盡的解答時,開發(fā)者應(yīng)承擔(dān)該項義務(wù)的補充責(zé)任,而在開發(fā)者不盡職履行此補充義務(wù)時也要追究其相應(yīng)的法律責(zé)任,以衡平算法化決策使用者、開發(fā)者、相對人三者之間的關(guān)系。

(二)權(quán)利、義務(wù)內(nèi)容

1.權(quán)利內(nèi)容。眼下越來越多的領(lǐng)域引入算法決策對相對方的社會需求予以干涉,依據(jù)算法決策給相對方貼上了數(shù)據(jù)標(biāo)簽。從信息匯總、篩選、分析,到自動化排序,直至最終的決策這一過程都是不透明的,相對方無法判斷信息的準(zhǔn)確度,對決策正確與否也無法掌握,“算法解釋請求權(quán)”就是要賦予相對方知悉算法決策依據(jù)的權(quán)利,相對方基于此有權(quán)向算法使用者、開發(fā)者請求公開自動化決策所依據(jù)的信息。但是需要考慮的是,采用自動化決策的主體通常為擁有數(shù)以億計用戶的互聯(lián)網(wǎng)企業(yè)或大型公司,其面對的相對方數(shù)量是無法預(yù)估的,如果不對權(quán)利主體的權(quán)利范圍進(jìn)行清晰準(zhǔn)確的界定,那么將會給自動化決策使用者、設(shè)計者帶來過重的解釋負(fù)擔(dān)。因此,需明確在“算法解釋請求權(quán)”項下配備何種權(quán)利內(nèi)容。

首先,相對方要求解釋的算法內(nèi)容要與自身權(quán)益受損具有相關(guān)性。自動化決策使用者、開發(fā)者創(chuàng)建算法系統(tǒng)是為了通過采集信息,進(jìn)行數(shù)據(jù)加工、分析,以得出個體的綜合特征。針對商業(yè)領(lǐng)域來說,自動化決策便于在商業(yè)運營過程通過信息識別篩選客戶,獲得更大的商機;針對生活服務(wù)機構(gòu)領(lǐng)域,通過對個人信息的匯總從而評價個人基本信用信息,以便在提供相關(guān)服務(wù)時采取有效的措施。因此,針對相對方權(quán)益產(chǎn)生損害的算法決策,包括錯誤的決策以及對其自身利益造成不利影響的決策,才能有權(quán)向使用者和開發(fā)者主張解釋。

其次,相對方有權(quán)要求自動化決策使用者、開發(fā)者針對算法決策提供可理解性的回復(fù)。自動化決策本身就要求使用者和創(chuàng)建者具備專業(yè)的知識體系和掌握科學(xué)的技術(shù)方法,對于自動化決策運行的規(guī)則、方式、整個系統(tǒng)的框架有清晰的認(rèn)知;而相對方大多是普通個體,沒有機會亦沒有能力接觸到專業(yè)的算法領(lǐng)域,對于科技算法晦澀難懂的語法公式更是難以理解,在知識力量懸殊的情況下,如若相對方提出解釋的請求,而使用者、開發(fā)者利用其具備算法知識和掌握的科學(xué)技術(shù)之優(yōu)勢地位,提供較為復(fù)雜的解釋,相對方對此并不理解,“算法解釋請求權(quán)”僅僅要求使用者、開發(fā)者給予決策解釋,而現(xiàn)實卻是相對方行使了權(quán)利卻沒有獲得充足的保障,這與構(gòu)建“算法解釋請求權(quán)”的目的背道而馳。而使用者、開發(fā)者在提供相應(yīng)的解釋后已然完成了法律義務(wù),這就導(dǎo)致相對方權(quán)利用盡而無法通過其他救濟手段維權(quán)。因此,要對解釋的標(biāo)準(zhǔn)進(jìn)行明確的界定,以便相對方易于理解自動化決策的依據(jù)。

最后,相對方有權(quán)針對自動化決策提起雙重結(jié)構(gòu)解釋權(quán),即事后具體解釋和事后更新解釋?!八惴ń忉屨埱髾?quán)”究其本質(zhì)屬于一種事后救濟手段。在決策作出之前,個人信息只是儲存在自動化系統(tǒng)中,使用者、開發(fā)者并沒有根據(jù)信息而做出任何對相對方不利的行為,相對方也無法主張解釋請求權(quán)。只有在決策作出之后對相對方自身利益產(chǎn)生影響的前提下,方可請求對方予以解釋。事后具體解釋可以使相對方知悉做出不利決策依據(jù)的具體事項,排查是否存在數(shù)據(jù)引用誤差或者算法方式偏差,相對方可以針對具體錯誤來主張整改修正,此為相對方第一次權(quán)利之行使。由于不利決策具有可補正性,通過更新數(shù)據(jù)信息和改變算法方式來使決策得以修正,但存在一個問題,即修正后決策的準(zhǔn)確程度是否可信?;诖藛栴},應(yīng)該賦予相對方第二次救濟的權(quán)利,即針對更新后的決策請求使用者、開發(fā)者提供必要的解釋說明的義務(wù)。

2.義務(wù)內(nèi)容。我國《憲法》明確規(guī)定了公民的人格尊嚴(yán)不受侵犯,雖未曾細(xì)致闡述,但根據(jù)“雖然并不以原則的形態(tài)為憲法或法律所明定。但在憲法或法律之規(guī)定中,終究已有規(guī)定以該原則為其規(guī)范基礎(chǔ)”。對于算法解釋的相對方來說,自動化決策所采集的信息屬于個人隱私,相對方有權(quán)對個人數(shù)據(jù)信息享有知悉的權(quán)利,有權(quán)保護(hù)自己的隱私權(quán)、捍衛(wèi)平等地位。而對于算法使用者及開發(fā)者來說,對相對方的個人化需求享有絕對的話語權(quán),這就意味著,算法決策的使用者、開發(fā)者在自動化決策領(lǐng)域勢必要擔(dān)負(fù)起義務(wù)主體的責(zé)任。在針對相對方作出決策,尤其是可能對相對方的權(quán)益產(chǎn)生重大影響時,使用者、開發(fā)者就負(fù)有解釋說明的義務(wù)。但是這也并不意味著使用者、設(shè)計者的義務(wù)就是絕對無條件的,正如上述對主體權(quán)利范疇的細(xì)化,基于權(quán)利義務(wù)具有相對性,因此也應(yīng)當(dāng)對義務(wù)范疇予以明確界定,以防止使用者、設(shè)計者承擔(dān)無限制的義務(wù)重?fù)?dān)。第一,在解釋標(biāo)準(zhǔn)化上要對應(yīng)權(quán)利內(nèi)容,要求解釋具有相關(guān)性和可理解性。第二,自動化決策使用者、設(shè)計者負(fù)有雙重解釋之義務(wù)。

三、算法解釋請求權(quán)適用范圍與限制

(一)公法領(lǐng)域

在行政領(lǐng)域中,國家倡導(dǎo)科技創(chuàng)新、堅持創(chuàng)新引領(lǐng),主張在行政服務(wù)領(lǐng)域中引進(jìn)大數(shù)據(jù)和人工智能,力求打造數(shù)據(jù)政務(wù)服務(wù)平臺,深入推進(jìn)政務(wù)數(shù)據(jù)匯聚,實現(xiàn)信息的全覆蓋,甚至通過算法決策來對相對方作出行政處罰。一方面,在權(quán)利地位上行政機關(guān)與相對人本身就處于不平等地位,行政機關(guān)屬于國家的管理機構(gòu),法律賦予其決策職能,有權(quán)針對相對人實施一定的決策行為;另一方面,行政機關(guān)本身所具有的法律專業(yè)性以及威懾性,使得處于弱勢地位的相對方無法完全保障自身權(quán)益。為了避免出現(xiàn)這種現(xiàn)象,我國早在行政立法時就明確規(guī)定正當(dāng)程序原則,其涵義在于要求行政機關(guān)在行使行政職權(quán)時遵守法律規(guī)定的正當(dāng)性程序。正當(dāng)性原則最早源于英國的“自然正義”這一概念,要求行政機關(guān)要以最低限度的公正作為行使權(quán)力的底線,在行政機關(guān)作出不利于公民的行政決定時需要充分聽取公民的意見,同時公民有權(quán)要求行政機關(guān)示明該行政決定的依據(jù)。我國行政法領(lǐng)域中也規(guī)定了正當(dāng)程序原則,在行政機關(guān)實施行政行為時加以法律限制,必須按照法定程序辦理,尤其在對相對方作出不利行政決策時,要充分提供解釋說明,如若沒有提供合理的解釋,相對方可以依此提起行政復(fù)議,審查行政決策的正確性。正當(dāng)程序原則與解釋請求權(quán)在功能上具有一些重合效用,都是相對方在面對不利決策時,有權(quán)向做出決策者主張解釋說明之權(quán)利。換言之,一些情況下“解釋請求權(quán)”可以被正當(dāng)程序原則所覆蓋,如此一來,相對方可以直接援用現(xiàn)有的正當(dāng)程序原則的救濟手段。

司法領(lǐng)域中,一直在研發(fā)人工智能法律系統(tǒng),也對此進(jìn)行了深刻的法理學(xué)探討,不僅為了適應(yīng)人工智能的發(fā)展熱潮更是在于對法律實踐本身的迎合。法院正在嘗試引入了人工智能輔助審判系統(tǒng)來協(xié)助司法工作者處理訴訟案件事宜,通過將案件事實、法律法規(guī)條文、指導(dǎo)案例等信息輸入智能系統(tǒng),通過大數(shù)據(jù)的對比分析從而做出相應(yīng)的判決裁定。那么面臨的一個問題就是,在數(shù)據(jù)信息存在錯誤或算法分析存有瑕疵的情況下,導(dǎo)致做出的決策損害了相對方權(quán)益時,又有何救濟舉措?針對這一問題,我國現(xiàn)有法律規(guī)定了相對方在對司法機關(guān)的行政行為存有異議,認(rèn)為損害自身合法權(quán)益時,有權(quán)提起司法審查,司法機關(guān)有義務(wù)針對行為的準(zhǔn)確性予以審查,并給出合理的解釋。司法審查之法律效能在維護(hù)相對方因自動化決策受有損害方面與“算法解釋請求權(quán)”效用存在部分重合,因此,司法審查當(dāng)然也可以部分代替解釋請求權(quán)予以援用。

雖然一些情況下,“算法解釋請求權(quán)”可以被行政復(fù)議審查以及司法審查所替代,但是法律并不是包羅萬象的,而司法實務(wù)中的復(fù)雜性更是無法預(yù)料,針對行政復(fù)議以及司法審查來說,由于審查之后的結(jié)果可能并不能充分滿足相對方的需求,導(dǎo)致相對方在援用現(xiàn)有救濟途徑后仍無法保護(hù)其受損權(quán)益,那么此時構(gòu)建“算法解釋請求權(quán)”就具有必要性。諸如“知情權(quán)”,既含有民事屬性又具有公法屬性,但無法以“知情權(quán)”匹配“算法解釋請求權(quán)”,原因在于“知情權(quán)”對應(yīng)的系誠信告知義務(wù),告知范圍僅包含鏡面表象,其實質(zhì)原因仍隱藏于陰影之后,無法探析。更遑論針對算法決策形成的復(fù)雜理論、晦澀難懂的專業(yè)術(shù)語,即使使用者履行了告知義務(wù),相對方也難以理解算法領(lǐng)域的奧秘。反觀“算法解釋請求權(quán)”對應(yīng)的則是解釋義務(wù),不僅要求使用者針對算法決策的結(jié)果予以解釋,還包含決策形成的過程、依據(jù)、數(shù)據(jù)信息、公式算法等內(nèi)容。“算法解釋請求權(quán)”較“知情權(quán)”的優(yōu)勢在于,其救濟目的是使受有損害方知悉致?lián)p原因,進(jìn)而采取一定的補救措施,以期衡平算法決策使用者與相對方之間不對等的權(quán)利義務(wù)法律關(guān)系。綜上所述,在公法領(lǐng)域中設(shè)立“算法解釋請求權(quán)”以作為補充性權(quán)利是必要的,這些可能存在的情形都是需要在設(shè)立新型權(quán)利之前必須全面考慮的問題。

(二)私法領(lǐng)域

算法決策除了在公法領(lǐng)域適用外,在私法領(lǐng)域更是普遍適用,例如對公民信用要求最為嚴(yán)格的金融領(lǐng)域,普遍搭建了大數(shù)據(jù)平臺,通過對相對方信息的匯總,利用一定的算法公式從而得出相對方的信譽等級,以確定是否為其提供金融服務(wù);有的高校為了驗證獲取貧困獎學(xué)金的學(xué)生情況是否屬實,通過校園網(wǎng)絡(luò)對貧困學(xué)生的在線消費予以實時監(jiān)控,對比分析出貧困學(xué)生的整體消費水平,以確定是否符合發(fā)放獎學(xué)金的條件;醫(yī)療領(lǐng)域通過將病理信息、醫(yī)藥配方、治療技術(shù)等輸入到數(shù)據(jù)庫中,數(shù)據(jù)系統(tǒng)通過自動識別分析得出相應(yīng)的診斷。

以上實例表明,人工智能已經(jīng)滲入到社會生活的方方面面,算法決策更是成為一種普遍化的現(xiàn)象。當(dāng)一種新生現(xiàn)象盛行時隨之而來的將會是一系列法律問題。對于算法領(lǐng)域我國目前并沒有相關(guān)法律法規(guī)可以援用,而因為算法錯誤導(dǎo)致決策損害相對方權(quán)益的情況確是與日俱增。權(quán)利的空缺、利益的侵蝕,影響著法治的平衡,構(gòu)建新型權(quán)利體系,應(yīng)提上日程。

(三)適用限制——從人機關(guān)系切入

當(dāng)然,算法解釋請求權(quán)的適用范圍亦會隨著人工智能時代的到來而不斷調(diào)整,但在人工智能發(fā)展方興未艾之時,仍應(yīng)嚴(yán)格把握算法解釋請求權(quán)的適用范圍,以避免算法開發(fā)者和使用者背負(fù)過于沉重的解釋成本而遏制創(chuàng)新動機。

算法開發(fā)者、使用者與相對方在算法解釋的相互對抗過程中逐漸形成了一種普遍規(guī)則,衍生出一種行業(yè)自治規(guī)制,為人工智能的發(fā)展奠定了相對安全的自治環(huán)境。這也意味著當(dāng)人工智能發(fā)展至特定“風(fēng)險拐點”,必須介入公權(quán)力予以制止和修正,其手段、尺度應(yīng)在不妨礙創(chuàng)新的范圍內(nèi)保護(hù)相對方的權(quán)利。

1.主要限制人參與不足的決策類算法。根據(jù)當(dāng)下人工智能發(fā)展態(tài)勢預(yù)期,人工智能的最終發(fā)展走向?qū)崿F(xiàn)無人操縱,在開啟人工智能系統(tǒng)后,無需開發(fā)者或是使用者向系統(tǒng)內(nèi)輸入進(jìn)一步的算法指令,系統(tǒng)憑借其所儲存的數(shù)據(jù)庫信息,自行辨別分析并運行,甚至針對所存在的錯誤予以自主修正,從而實現(xiàn)完全的個體獨立化。但是由于算法本身存在系統(tǒng)漏洞、程序瑕疵、數(shù)據(jù)不完整等特點,會導(dǎo)致決策無法把控,可能造成出乎意料甚至無法挽回的安全性問題,這也是眾多學(xué)者擔(dān)憂的一點。而“算法解釋請求權(quán)”的構(gòu)建正是為了遏制此類問題的發(fā)生,如果不限制人工智能任其肆意發(fā)展,而人類算法決策的監(jiān)控力度并不能與其發(fā)展速度相適應(yīng),那么勢必會出現(xiàn)算法決策錯誤的問題,而“算法解釋請求權(quán)”是在適當(dāng)介入干預(yù)的前提下,對人工智能的發(fā)展規(guī)律予以風(fēng)險防控。

“算法解釋請求權(quán)”構(gòu)建的目的在于防止完全自動化決策現(xiàn)象的發(fā)生,避免因機器自由化而產(chǎn)生無法預(yù)測的風(fēng)險,通過相應(yīng)公權(quán)力的介入賦予相對方一定的解釋請求權(quán),從而保護(hù)相對方利益。為了防止智能自由化而出現(xiàn)無法防控的風(fēng)險,歐盟理事會于2016年4月在《一般數(shù)據(jù)保護(hù)條例》中針對自動化決策作出了特別規(guī)定,即自動化決策的使用者、開發(fā)者在運營數(shù)據(jù)系統(tǒng)作出決策時,要采取適當(dāng)?shù)拇胧┍Wo(hù)數(shù)據(jù)主體的個人合法權(quán)利及自由,數(shù)據(jù)主體有權(quán)向數(shù)據(jù)控制者實施人為干預(yù)、表達(dá)自身觀點,并針對決策結(jié)果享有同意與否的權(quán)利。但這并不意味著人為參與的合理程度不受任何限制,采取事先審查規(guī)制,數(shù)據(jù)主體在實施干預(yù)行為前需要對自動化決策的依據(jù)、結(jié)果進(jìn)行一定的審查后,針對明顯不合理的決策方有權(quán)主張決策使用者、開發(fā)者予以修正。另外,人為審查義務(wù)應(yīng)作為算法解釋請求權(quán)相對應(yīng)的重要義務(wù)之一,不能由于審查主體自身持有的“算法依賴"而使審查僅具有表面特征,應(yīng)深入充分審查決策結(jié)果,并依據(jù)對自動化決策合理性的審查決定是否針對決策結(jié)果采取同意、修正、廢除的表意,防止以“走過場”的心態(tài)敷衍了事。

2.主要限制對相對方的權(quán)益影響較大的決策類算法。算法(Algorithm)是指解題方案的準(zhǔn)確而完整的描述,是一系列解決問題的清晰指令,算法代表用系統(tǒng)的方法描述解決問題的策略機制。據(jù)算法應(yīng)用的場景和具備的功能來看,體現(xiàn)評價、排序、過濾、推送功能的算法較為常見。占據(jù)壟斷地位的互聯(lián)網(wǎng)企業(yè)幾乎構(gòu)成了現(xiàn)代人生活不可或缺的一部分,但其服務(wù)主要是根據(jù)用戶自身的瀏覽記錄和后臺數(shù)據(jù)庫存儲的信息,僅對用戶的選擇產(chǎn)生細(xì)微的影響。用戶在面對此種算法時,可以通過調(diào)整自身的瀏覽記錄信息從而改變網(wǎng)絡(luò)推送信息的類型。這種可以通過自身行為得到救濟的算法并不是算法解釋請求權(quán)關(guān)注的重點,其權(quán)利的目的更多的在于為博弈雙方提供平衡的法律地位,更多的關(guān)注處于弱勢地位的相對方,賦予相對方法律武器維護(hù)自身的權(quán)益,據(jù)此算法解釋請求權(quán)暫時應(yīng)適用于決策類算法的使用人。例如銀行針對貸款人的信用評價算法、保險機構(gòu)針對參保人的保險精算算法、司法智能審判系統(tǒng)所做出的裁判以及犯罪預(yù)警系統(tǒng)的智能執(zhí)法等等,這些算法的決策直接影響相對方的特定權(quán)力,而對于相對方來說,有些權(quán)利一旦喪失造成的傷害可能會是永久性的。在關(guān)于保護(hù)相對方權(quán)益的法律內(nèi)容上,歐盟理事會在《一般數(shù)據(jù)保護(hù)條例》第22條第1款中有明確規(guī)定:“對于僅基于自動化數(shù)據(jù)處理的決策,包括特征分析,若其產(chǎn)生的法律效力涉及數(shù)據(jù)主體,或?qū)λ蛩蓄愃频闹匾绊?,則他或她有權(quán)不成為此決策的對象”??芍谧詣踊瘺Q策對自身產(chǎn)生重大影響,相對方有權(quán)直接對該決策結(jié)果予以否定,從而避免受其結(jié)果的約束。

名山县| 阳山县| 惠水县| 天水市| 丹寨县| 秭归县| 昭苏县| 饶河县| 娄底市| 离岛区| 无锡市| 芜湖县| 鲁甸县| 罗平县| 道孚县| 溆浦县| 永州市| 开封市| 顺昌县| 泊头市| 日土县| 上思县| 苏州市| 义乌市| 石景山区| 眉山市| 浙江省| 贡嘎县| 鄂伦春自治旗| 宁国市| 渝中区| 吴堡县| 枣强县| 文登市| 三亚市| 伊吾县| 宿迁市| 庐江县| 临汾市| 左云县| 天水市|