国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法歧視法律規(guī)制的法理分析

2022-07-06 23:49:08陳星辰陳雅琪
客聯(lián) 2022年4期

陳星辰 陳雅琪

摘 要:算法的迅速發(fā)展使得法律對算法的規(guī)制制度迅速滯后,算法逐漸暴露出歧視性的特征,已經(jīng)嚴(yán)重問題,不僅體現(xiàn)在商業(yè)領(lǐng)域,現(xiàn)如今已經(jīng)向公權(quán)力域滲透,嚴(yán)重影響了算法正義的實(shí)現(xiàn)。算法歧視產(chǎn)生源自于人類社會(huì)本身的歧視和算法權(quán)利人的利用目的,并通過數(shù)據(jù)的量化展現(xiàn)出來。算法歧視是為對人的尊嚴(yán)的侵犯,對平等原則的違背,對正義價(jià)值的僭越。反觀我國現(xiàn)行的法律規(guī)制尚未形成完備的體系,呈現(xiàn)出監(jiān)管困難、責(zé)任落實(shí)不到位、法律適用尺度不一等問題,因此,應(yīng)當(dāng)堅(jiān)持以人為本位,建立算法規(guī)制的法律體系,維護(hù)算法正義。

關(guān)鍵詞:算法歧視;平等原則;正義價(jià)值;算法規(guī)制

近幾年,隨著移動(dòng)終端的迅速普及,互聯(lián)網(wǎng)在數(shù)據(jù)來源拓寬,加之現(xiàn)代計(jì)算機(jī)的數(shù)據(jù)傳播、收集、運(yùn)算能力的加強(qiáng),算法發(fā)展勢頭迅猛,特別是人工智能的出現(xiàn),計(jì)算機(jī)程序超越了傳統(tǒng)的被動(dòng)、機(jī)械運(yùn)算的層次,開始具有大范圍的自主深度學(xué)習(xí)的能力,并且具有了輔助決策功能。

但是,隨著科技的迅猛發(fā)展,監(jiān)管和規(guī)制制度迅速滯后。2020年,復(fù)旦大學(xué)孫金云教授帶領(lǐng)團(tuán)隊(duì)提交了一份大數(shù)據(jù)報(bào)告,揭示了一個(gè)非經(jīng)大樣本調(diào)查無法發(fā)現(xiàn)的問題——價(jià)格歧視。大數(shù)據(jù)“殺熟”問題出現(xiàn),意味著科技樹點(diǎn)亮之后,科技“雙刃劍”的不公平、不合理應(yīng)用的發(fā)現(xiàn)、監(jiān)督、管理和規(guī)制的問題將成為一個(gè)巨大的挑戰(zhàn)。

為了適應(yīng)大數(shù)據(jù)時(shí)代的到來和算法的發(fā)展,以及規(guī)制算法的不正當(dāng)應(yīng)用的問題,2021年8月,全國人大常委會(huì)表決通過了《個(gè)人信息保護(hù)法》,以調(diào)整信息交流、信息保護(hù)、信息使用等方面的關(guān)系。2021年10月29日,最高人民法院發(fā)布了《關(guān)于加強(qiáng)新時(shí)代知識(shí)產(chǎn)權(quán)審判工作為知識(shí)產(chǎn)權(quán)強(qiáng)國建設(shè)提供有力司法服務(wù)和保障的意見》。

一、算法的概述

根據(jù)中國科學(xué)技術(shù)協(xié)會(huì)關(guān)于算法的定義:“算法是指解題方案的準(zhǔn)確而完整的描述,是一系列解決問題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問題的策略機(jī)制。也就是說,能夠?qū)σ欢ǖ囊?guī)范輸入,在有限的時(shí)間內(nèi)獲得所要求的輸出”。本文中所說的算法值得是以計(jì)算機(jī)為載體的智能算法,不僅包括源代碼,也包括算法運(yùn)行的計(jì)算網(wǎng)絡(luò)以及算法賴以決策的大數(shù)據(jù),不論是算法還是現(xiàn)代意義的智能算法,都是通過某一特定規(guī)則處理信息,并輸出為特定結(jié)果。由于算法的不透明性和自主性,侵權(quán)事實(shí)的發(fā)現(xiàn),以及侵權(quán)事實(shí)發(fā)生后侵權(quán)責(zé)任分配成為難題,算法“黑箱”也可能成為責(zé)任機(jī)構(gòu)推諉的工具和屏障。

二、算法歧視的產(chǎn)生與表現(xiàn)

科技本身具有中立性,但是在實(shí)行過程中,算法卻表現(xiàn)出歧視性。根據(jù)現(xiàn)在通說的觀點(diǎn),“算法歧視的根源是人類本身”,人工智能歧視和威脅都并非來自人工智能,而是設(shè)計(jì)者和支配者的思維的衍射。在設(shè)計(jì)算法的過程中,設(shè)計(jì)者往往根據(jù)自身的需要、立場以及利益等因素,使得算法的運(yùn)行能夠滿足符合預(yù)期目的。其次,算法學(xué)習(xí)和依據(jù)決策的大數(shù)據(jù)本身,也會(huì)反應(yīng)算法設(shè)計(jì)者和數(shù)據(jù)產(chǎn)生、收集者的價(jià)值偏好,算法實(shí)際處理處理數(shù)據(jù)的過程中,看似客觀中立實(shí)際區(qū)別對待的。第三,算法具有社會(huì)歷史性,牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域?qū)<疑5吕?沃撤說:“世界存在偏見,歷史數(shù)據(jù)就存在偏見,因此,我們得到帶有偏見的結(jié)果,不足為奇?!比祟惿鐣?huì)本身是潛藏偏見性的,算法通過數(shù)字量化的方式,使得偏見以更直觀的方式顯化出來。

算法嵌入商業(yè)領(lǐng)域、社會(huì)生活領(lǐng)域甚至公權(quán)力領(lǐng)域,已經(jīng)對社會(huì)方方面面產(chǎn)生深遠(yuǎn)的影響。因此,當(dāng)算法歧視的問題影響的范圍也非常廣泛,本文將從社會(huì)生活領(lǐng)域和公權(quán)力領(lǐng)域?qū)λ惴ㄆ缫暤谋憩F(xiàn)進(jìn)行分析。

首先,算法歧視表現(xiàn)在社會(huì)生活領(lǐng)域。在算法建立的基礎(chǔ)上,算法的支配者和適用對象之間的地位注定不平等。在用戶加入企業(yè)平臺(tái)初期,往往會(huì)要求用戶簽訂“隱私協(xié)議”、“用戶協(xié)議”等格式條款作為使用軟件的前置條件。對客戶的年齡、瀏覽記錄、價(jià)格區(qū)間等信息進(jìn)行收集,是平臺(tái)在算法的幫助下,利用雙方的的信息差,重新制定具有針對性的定價(jià)、制定營銷策略。

其次,算法歧視的的問題滲透進(jìn)公權(quán)力領(lǐng)域,近年來從中央到地方大力推進(jìn)“智慧法院”、“法律輔助系統(tǒng)”,例如北京市高院的“睿法官”,最高院的“類案智能推送系統(tǒng)”,這些智能系統(tǒng)都表現(xiàn)出強(qiáng)大的數(shù)據(jù)處理和分析能力,在應(yīng)對“訴訟爆炸”方面提高司法效率,輔助裁判具有重要的意義。但是算法的弊端隨之而來,司法系統(tǒng)數(shù)據(jù)量龐大,系統(tǒng)建設(shè)發(fā)展迅速,使得算法歧視在司法領(lǐng)域表現(xiàn)得尤為明顯。

三、法律規(guī)制算法的法理證成

我們在依賴算法的同時(shí),不得不承受伴隨著算法的特性而來的巨大風(fēng)險(xiǎn)。因此我們應(yīng)當(dāng)充分了解算法帶來的影響,對算法歧視的規(guī)制的研究具有重要意義。

(一)算法歧視的法理違背

首先,算法歧視對人的尊嚴(yán)造成侵犯,“雖然尊嚴(yán)不是一種美德,卻是許多美德之母”,人的尊嚴(yán)是任何時(shí)代、任何國家都應(yīng)當(dāng)尊重和捍衛(wèi)的底線,也必須成為算法時(shí)代倫理以及法律的至高原則。我國《憲法》明確規(guī)定,“中華人民共和國公民人格尊嚴(yán)不受侵犯”,但是算法歧視的對人的尊嚴(yán)提出了挑戰(zhàn)。首先,在當(dāng)代互聯(lián)網(wǎng)的“監(jiān)視”下,用戶在個(gè)人信息和隱私不得不做出一定的退讓。算法利用收集來的用戶信息對用戶進(jìn)行分析、畫像,并作出相應(yīng)的營銷對策和定價(jià)時(shí),是在未經(jīng)用戶的知情同意的情況下,已經(jīng)打破了平臺(tái)和用戶基本的平等和尊重。針對用戶個(gè)人信息進(jìn)行分析的時(shí)候,性別、年齡、民族、職業(yè)等進(jìn)入分析模型,難免對各種變量進(jìn)行加權(quán),種種明碼標(biāo)價(jià)的行徑很難說不是在挑戰(zhàn)尊嚴(yán)的底線。人民在社會(huì)關(guān)系中應(yīng)當(dāng)占據(jù)主體地位,人民主體性的基礎(chǔ)基本要求就是人的意思自由,能夠按照自己的意志自由行動(dòng)。人工智能的算法是最初的定位是服務(wù)和輔助人類,而現(xiàn)在人工智能正在脫離工具性地位,正在形成算法權(quán)力對人產(chǎn)生支配作用,人在交易中從獨(dú)立自主地位變成了被支配地位。算法應(yīng)當(dāng)維護(hù)人的尊嚴(yán),而不是漠視和凌駕于人的價(jià)值之上,這種對人本主義的漠視是不可取的。

其次,算法歧視明顯違背了平等原則。平等原則是主體的法律地位一律平等的準(zhǔn)則,是現(xiàn)代法律的精髓。我國憲法明確規(guī)定:“中華人民共和國公民在法律面前一律平等”,在算法歧視造成的差別中,往往在限度和事項(xiàng)上是不合理的,是違背公序良俗的。消費(fèi)者在以讓渡部分個(gè)人隱私換取服務(wù)時(shí),并不意味著與商家交易接受差別對待。而且算法具有不透明性,算法歧視往往具有隱蔽性,用戶無法獲得大量數(shù)據(jù)來查證是否被差別對待。用戶和平臺(tái)的對抗處于實(shí)力懸殊的地位,平臺(tái)擁有強(qiáng)大的數(shù)據(jù)支撐,用戶缺少能力和專業(yè)知識(shí)對抗,但是為了使用便利只能妥協(xié)。平臺(tái)和用戶之間已經(jīng)從信息不對等轉(zhuǎn)化為實(shí)質(zhì)的權(quán)利義務(wù)的不平等。當(dāng)算法歧視滲透進(jìn)公權(quán)力領(lǐng)域,公民的平等權(quán)將會(huì)受到進(jìn)一步剝削,使得公民在保障權(quán)利的“最后一道防線”這里仍無法尋求到公正的對待。將引發(fā)更為嚴(yán)重的社會(huì)后果。

(二)規(guī)制算法歧視的合理性

法律與科技的關(guān)系一直是法理學(xué)界重點(diǎn)討論的話題,根據(jù)韓大元教授的觀點(diǎn),法學(xué)的使命不是要對科技發(fā)展所帶來的輝煌成就的贊成,而是要審視科技可能帶來的非理性后果,以及如何通過法治降低科技發(fā)展帶來的風(fēng)險(xiǎn)。v不能因?yàn)榭萍荚斐煞抢硇院蠊鸵虼酥萍s科技的發(fā)展,但是要引導(dǎo)科技在正當(dāng)?shù)能壍腊l(fā)展并運(yùn)行是法律應(yīng)有之義。

技術(shù)的發(fā)展可能對法律造成沖擊和挑戰(zhàn),但是法律仍應(yīng)當(dāng)對技術(shù)發(fā)展進(jìn)行保護(hù)。法律也是力量對比的體現(xiàn),因此當(dāng)科技的力量發(fā)展的足夠壯大,應(yīng)當(dāng)對其進(jìn)行規(guī)制,處理好技術(shù)的保護(hù)和規(guī)制的關(guān)系,才能達(dá)到調(diào)整社會(huì)力量平衡,實(shí)現(xiàn)社會(huì)公平正義,維護(hù)社會(huì)秩序的穩(wěn)定。

四、現(xiàn)行算法規(guī)制模式

近年來,我國明顯加強(qiáng)了對個(gè)人信息的保護(hù),2021年11月《個(gè)人信息保護(hù)法》正式開始實(shí)行,通過個(gè)人信息保護(hù)法,對公民個(gè)人信息的收集、處理和使用做了嚴(yán)格的限制。同樣于2021年施行的《民法典》也明確規(guī)定了公民的“隱私權(quán)與個(gè)人信息保護(hù)”。其他關(guān)于個(gè)人電子信息的規(guī)定還散見于《關(guān)于加強(qiáng)網(wǎng)絡(luò)信息保護(hù)決定》、《網(wǎng)絡(luò)安全法》、《消費(fèi)者權(quán)益保護(hù)法》等,對于嚴(yán)重侵犯公民個(gè)人信息權(quán)的行為,《民法典》中明確規(guī)定了網(wǎng)絡(luò)侵權(quán)責(zé)任,《刑法》與《刑法修正案(九)》中也具體明確規(guī)定了“侵犯公民個(gè)人信息罪”和“編造、故意傳播虛假信息罪”,作為保障公民個(gè)人信息權(quán)落實(shí)的底線。

在我國的立法實(shí)踐中,真正對算法、深度學(xué)習(xí)及個(gè)性化定制等內(nèi)容進(jìn)行規(guī)定是近兩年才開始的。2019年實(shí)施的《電子商務(wù)法》首先針對用戶畫像并個(gè)性化推送商品的行為做出規(guī)制。隨后陸續(xù)出臺(tái)的《數(shù)據(jù)安全管理辦法》、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》分別就“定推”的相關(guān)規(guī)定,圍繞著“定推”標(biāo)識(shí)義務(wù)、“定推”的人工干預(yù)和用戶自主選擇機(jī)制做出了明確規(guī)定。2020年,國家標(biāo)準(zhǔn)《個(gè)人信息安全規(guī)范》對信息安全保障做出更加詳細(xì)的規(guī)定,針對“多項(xiàng)業(yè)務(wù)功能自主選擇”,“用戶畫像的使用限制”、“個(gè)性化展示的使用”、“獲取個(gè)人數(shù)據(jù)”及“算法自動(dòng)決策”的權(quán)利進(jìn)行嚴(yán)格限制。指定個(gè)人信息保護(hù)方面的標(biāo)準(zhǔn)有可能成為作用于法律與實(shí)踐之間的“潤滑劑”,對動(dòng)態(tài)發(fā)展的個(gè)人信息提供動(dòng)態(tài)保護(hù)建議。

我國現(xiàn)行的算法的法律規(guī)制重視對算法輸出結(jié)果的規(guī)制,對過程的規(guī)制較少,責(zé)任平臺(tái)的責(zé)任承擔(dān)不夠明確,而且條文散見于法律法規(guī)之中,缺乏體系性。雖然我國諸多法律里已經(jīng)提及算法的規(guī)制和公民權(quán)利的保護(hù),但是涉及的法律法規(guī)眾多,且分處與不同的層級(jí),缺乏體系性會(huì)導(dǎo)致使用的困難、立法和裁判尺度難以統(tǒng)一,不利于市場監(jiān)管等。其次,如果無法把責(zé)任落實(shí)到位,則權(quán)利保護(hù)就無從談起。在對于我國現(xiàn)行的算法規(guī)制的法律規(guī)范來說,我國對于平臺(tái)責(zé)任并未作出明確的規(guī)定,特別是電子數(shù)據(jù),由于流通的便利,隱患就更為嚴(yán)重,我國在數(shù)據(jù)的濫用、泄露、流通方面的義務(wù)、責(zé)任沒有明確具體的規(guī)定,而且處罰手段單一,只能動(dòng)輒使用刑罰處罰,這樣的手段實(shí)際上是無法調(diào)動(dòng)企業(yè)合規(guī)運(yùn)營的積極性的vi。面對技術(shù)發(fā)展的需求,執(zhí)法部門需要更為及時(shí)有效、多樣的規(guī)制方法。

五、建議

我國對于算法的研究不足,但是算法本身的發(fā)展和應(yīng)用的傳播卻異常迅猛,法律規(guī)范該如何訂立需要長期的探索。但是算法的侵權(quán)問題迫在眉睫,因此,本文從以下三個(gè)環(huán)節(jié)做出建議,試圖對算法運(yùn)行的各個(gè)環(huán)節(jié)進(jìn)行全面制約和監(jiān)督。

首先,明確信息的授權(quán)邊界,因?yàn)樗惴ㄆ缫暤幕A(chǔ)是數(shù)據(jù)歧視,因此防止算法對公民權(quán)利的侵害,首先應(yīng)當(dāng)明確個(gè)人信息的授權(quán)邊界。企業(yè)希望盡可能的從個(gè)人手中獲得信息的支配權(quán),算法強(qiáng)大的數(shù)據(jù)依賴性決定了對信息喪失主動(dòng)權(quán)的一方會(huì)被至于被支配地位。企業(yè)因此往往以格式條款的形式讓信息授權(quán)成為用戶使用平臺(tái)的前置條件。為了保護(hù)用戶權(quán)利,信息的管理應(yīng)分等級(jí)進(jìn)行授權(quán),必要信息和非必要信息采取分類的授權(quán)方式。而且信息的獲取的內(nèi)容和時(shí)間等都應(yīng)當(dāng)分類做出具體規(guī)定,而且應(yīng)當(dāng)授予用戶更多的選擇權(quán),實(shí)現(xiàn)授權(quán)范圍明確化,授權(quán)選擇多樣化。

第二,提高算法程序的準(zhǔn)入門檻,算法程序在正式投入前,有必要進(jìn)行針對性的測試實(shí)驗(yàn),通過審查部門的審查并進(jìn)行備案,算法的由于其可變性,運(yùn)行過程中需要及時(shí)報(bào)備,以達(dá)到算法及時(shí)監(jiān)管的目的,保障公民權(quán)利不被長期侵害。與此同時(shí),要對算法的報(bào)備必將帶來商業(yè)風(fēng)險(xiǎn),要完善算法保護(hù)機(jī)制,對公權(quán)力予以規(guī)制,以維護(hù)經(jīng)濟(jì)秩序的穩(wěn)定性。

第三,要完善算法的監(jiān)督機(jī)制,公權(quán)力應(yīng)當(dāng)加強(qiáng)對算法的監(jiān)管,各領(lǐng)域的監(jiān)管部門應(yīng)當(dāng)重視算法的侵權(quán)狀況,對于算法歧視的問題要及時(shí)規(guī)制。其次,要加強(qiáng)社會(huì)監(jiān)管,企業(yè)和個(gè)人都應(yīng)當(dāng)參與到算法歧視的監(jiān)管中,社會(huì)各界的監(jiān)管對算法歧視的規(guī)制具有極其重要的意義。在監(jiān)管方式上,應(yīng)當(dāng)以算法檢測算法和人工檢測算法相結(jié)合,因?yàn)樗惴ㄆ缫暤碾[蔽性、運(yùn)算能力和運(yùn)算步驟的復(fù)雜性,需要借助算法的輔助來規(guī)制算法,涉及到核心的算法,仍應(yīng)當(dāng)由人工進(jìn)行監(jiān)測,以防范重大風(fēng)險(xiǎn)的出現(xiàn)。

我們要充分意識(shí)到,歧視也會(huì)隨著數(shù)字化的過程被直觀顯化甚至數(shù)字量化,算法歧視會(huì)成為公平、正義價(jià)值的阻礙。鑒于人工智能的發(fā)展階段,算法規(guī)制的應(yīng)對策略應(yīng)當(dāng)綜合法律、技術(shù)、道德等多方規(guī)制,使得算法在相對健康的方向上長足發(fā)展,使得科技真正實(shí)現(xiàn)造福人類。

參考文獻(xiàn):

[1]張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019,36(04):63-75.DOI:10.16390/j.cnki.issn1672-0393.2019.04.006.

[2]於興中.算法社會(huì)與人的秉性[J].中國法律評論,2018(02):57-65.

[3]丁曉東.論算法的法律規(guī)制[J].中國社會(huì)科學(xué),2020(12):138-159+203.

[4]姜野. 算法的法律規(guī)制研究[D].吉林大學(xué),2020.DOI:10.27162/d.cnki.gjlin.2020.000629.

[5]鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2021,39(01):14-26.DOI:10.16290/j.cnki.1674-5205.2021.01.017.

[6]程堯,蔡一軍.人工智能背景下算法演進(jìn)的風(fēng)險(xiǎn)及其法律規(guī)制——以域外模式為視角[J].山西大同大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020,34(02):33-39.

[7]韓德陽. 算法歧視的法理分析[D].湖南工業(yè)大學(xué),2021.

[8]汪建.智能社會(huì) 公平為先——試評人工智能算法歧視問題[J].中國電信業(yè),2020(01):10-11.

[9]雷震文. 算法偏見對“智慧司法”的影響及其防范[N]. 法制日報(bào),2017-12-27(011).DOI:10.28241/n.cnki.nfzrb.2017.000369.

[10]張文顯.“無數(shù)字,不人權(quán)”[N]. 北京日報(bào),2019-09-02(015).DOI:10.28033/n.cnki.nbjrb.2019.004929.

[11]周漢華.探索激勵(lì)相容的個(gè)人數(shù)據(jù)治理之道——中國個(gè)人信息保護(hù)法的立法方向[J].法學(xué)研究,2018,40(02):3-23.

[12]欒群,王夙,張浩,徐丹.《人工智能創(chuàng)新發(fā)展道德倫理宣言》解讀和思考[J].人工智能,2019(04):133-136.DOI:10.16453/j.cnki.issn2096-5036.2019.04.016.

[13]左亦魯.算法與言論——美國的理論與實(shí)踐[J].環(huán)球法律評論,2018,40(05):122-139.

[14]張帆. 人工智能時(shí)代下算法歧視的法理分析和法律規(guī)制[D].廣州大學(xué),2019.

[15]馬長山.智慧社會(huì)背景下的“第四代人權(quán)”及其保障[J].中國法學(xué),2019(05):5-24.DOI:10.14111/j.cnki.zgfx.2019.05.001.

[16]劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019,40(06):55-66.DOI:10.16092/j.cnki.1001-618x.2019.06.006.

[17]韓大元.當(dāng)代科技發(fā)展的憲法界限[J].法治現(xiàn)代化研究,2018,2(05):1-12.

皮山县| 长汀县| 姚安县| 康定县| 门源| 玉田县| 古田县| 大庆市| 犍为县| 洪泽县| 舟曲县| 乳山市| 襄樊市| 沙雅县| 长乐市| 十堰市| 屯留县| 万安县| 郎溪县| 北流市| 永仁县| 铜川市| 金川县| 仙桃市| 松江区| 阳春市| 南安市| 西和县| 理塘县| 喀喇沁旗| 宝坻区| 哈密市| 固始县| 安平县| 张家界市| 清河县| 民权县| 临高县| 安顺市| 永昌县| 大埔区|