国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

強(qiáng)人工智能時(shí)代的算法規(guī)制

2019-01-13 01:34尤佳君
克拉瑪依學(xué)刊 2019年5期
關(guān)鍵詞:風(fēng)險(xiǎn)預(yù)防去中心化法律規(guī)制

摘 要: 人類終將來(lái)到強(qiáng)人工智能時(shí)代,人工智能技術(shù)推動(dòng)社會(huì)變革,也帶來(lái)前所未有的社會(huì)風(fēng)險(xiǎn)。規(guī)制人工智能算法十分必要,因?yàn)榧夹g(shù)中立無(wú)法實(shí)現(xiàn),反而會(huì)產(chǎn)生算法黑箱,而經(jīng)由去中心化形成的新秩序仍需國(guó)家主導(dǎo)。文章認(rèn)為對(duì)算法的法律規(guī)制要處理不同主體的自由、自由與秩序的價(jià)值取向問(wèn)題,具體實(shí)現(xiàn)路徑應(yīng)轉(zhuǎn)變?yōu)轱L(fēng)險(xiǎn)預(yù)防的規(guī)制模式,并構(gòu)建多層次規(guī)制體系。

關(guān)鍵詞: 人工智能;算法;去中心化;風(fēng)險(xiǎn)預(yù)防;法律規(guī)制

中圖分類號(hào):TP18;D920.0 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.13677/j.cnki.cn65-1285/c.2019.05.11

歡迎按以下方式引用:尤佳君.強(qiáng)人工智能時(shí)代的算法規(guī)制[J].克拉瑪依學(xué)刊,2019(5)75-79.

一、問(wèn)題的提出

世界各國(guó)對(duì)人工智能的研究日益加深,使該領(lǐng)域得以迅猛成長(zhǎng),相關(guān)技術(shù)以指數(shù)級(jí)的速度發(fā)展,強(qiáng)人工智能時(shí)代的到來(lái)不可避免。正如馮·諾依曼強(qiáng)調(diào)的加速與奇點(diǎn)概念:“一旦超越了這個(gè)奇點(diǎn),我們現(xiàn)在熟知的人類社會(huì)將變得大不相同?!盵1]2然而,在享受人工智能紅利的同時(shí),倫理風(fēng)險(xiǎn)、極化風(fēng)險(xiǎn)、異化風(fēng)險(xiǎn)、規(guī)制風(fēng)險(xiǎn)、責(zé)任風(fēng)險(xiǎn)等相伴而生,[2]47給人類社會(huì)帶來(lái)全新而嚴(yán)峻的挑戰(zhàn),法律必須對(duì)此作出回應(yīng)。

萊斯格認(rèn)為在未來(lái)“代碼就是法律”[3]6,對(duì)此觀點(diǎn)學(xué)者們雖有不同意見(jiàn),但至少都承認(rèn)算法是社會(huì)學(xué)意義上的法。[4]139算法驅(qū)動(dòng)著人工智能進(jìn)行數(shù)據(jù)處理和資源分配,人工智能時(shí)代可能產(chǎn)生的一系列社會(huì)風(fēng)險(xiǎn),究其根本,都是算法運(yùn)行的結(jié)果,因而規(guī)制算法是法律管控上述風(fēng)險(xiǎn)的重要方面。

既有的規(guī)制模式僅針對(duì)算法所造成的結(jié)果,而在近年的相關(guān)案件中,此種模式越來(lái)越暴露出其缺陷,并不足以應(yīng)對(duì)未來(lái)強(qiáng)人工智能算法失控所引發(fā)的風(fēng)險(xiǎn)。可以預(yù)見(jiàn),在強(qiáng)人工智能時(shí)代必然要呼喚新的算法規(guī)制模式。由此,在構(gòu)建強(qiáng)人工智能時(shí)代算法規(guī)制模式的問(wèn)題上,不得不深入探究為何需要規(guī)制、怎樣取得新秩序下的價(jià)值平衡、如何構(gòu)建實(shí)現(xiàn)路徑等問(wèn)題。

二、算法規(guī)制的理由

(一)技術(shù)中立背后的算法黑箱

技術(shù)中立原則起源于環(huán)球城市制片公司訴美國(guó)索尼公司案(Universal City Studios, Inc. v. SONY Corp. of America)所確立的“實(shí)質(zhì)性非侵權(quán)用途規(guī)則”,在中國(guó)諸如“快播案”等涉及算法責(zé)任的案件中,它常被援用作為抗辯理由,強(qiáng)調(diào)技術(shù)本身價(jià)值無(wú)涉,如果一項(xiàng)技術(shù)具備廣泛的合法應(yīng)用功能,則即使它被用于非法活動(dòng),也應(yīng)當(dāng)豁免技術(shù)開發(fā)者的責(zé)任。但技術(shù)中立是一種理想狀態(tài),算法不可避免地會(huì)摻雜程序員的主觀偏好與企業(yè)商業(yè)利益的考量。從代碼編寫到應(yīng)用的整個(gè)流程,它始終存在在人類所賦予的內(nèi)在價(jià)值之中,“AI的技術(shù)設(shè)計(jì)與定位決定了其不可能成為一個(gè)排除價(jià)值和利益的純粹的合理系統(tǒng)”[5]74,技術(shù)中立原則在現(xiàn)實(shí)世界中猶如空中樓閣。故而在我國(guó)的司法實(shí)踐中,大部分主張因技術(shù)中立而免責(zé)的抗辯未被法院采納,[6]63但許多技術(shù)開發(fā)者仍秉持信奉技術(shù)中立的觀念。

技術(shù)中立觀念和結(jié)果監(jiān)管機(jī)制成為了算法黑箱生長(zhǎng)的土壤,法律不直接介入算法內(nèi)部,給予了技術(shù)開發(fā)者暗箱操作的機(jī)會(huì)。算法黑箱有三種典型形式:其一,輸入和輸出側(cè)公開,只有算法的處理過(guò)程不為人知;其二,只有最終輸出的結(jié)果可知,算法輸入的數(shù)據(jù)及處理過(guò)程不透明;其三,算法能夠通過(guò)自主學(xué)習(xí)自動(dòng)選擇數(shù)據(jù),并進(jìn)行不同于模板化的輸出,使輸入、處理、輸出三個(gè)階段形成黑箱閉環(huán)。[7]50在強(qiáng)人工智能時(shí)代,由于人工智能具備神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)以及超強(qiáng)的運(yùn)算能力,第三種形式的黑箱會(huì)更常見(jiàn),也最危險(xiǎn)——因?yàn)樵撍惴ǖ男纬蛇^(guò)程如此復(fù)雜,以至于連開發(fā)者都可能無(wú)法理解其運(yùn)行邏輯。隨著人工智能行業(yè)的井噴式發(fā)展,算法黑箱內(nèi)的社會(huì)風(fēng)險(xiǎn)因素越來(lái)越隱蔽,人類有限的能力也越發(fā)難以發(fā)覺(jué)和理解它們。有鑒于此,不能囿于技術(shù)中立的幻想,而應(yīng)積極規(guī)制算法以防范未知的風(fēng)險(xiǎn)。

(二)法律的定位:去中心化、再中心化與國(guó)家主導(dǎo)

新一輪科技革命將會(huì)打破人類社會(huì)長(zhǎng)期以來(lái)的中心化結(jié)構(gòu),重新塑造社會(huì)資源的分配方式,實(shí)現(xiàn)去中心化。人工智能技術(shù)的研究由企業(yè)等私主體主導(dǎo),它們掌握了通過(guò)算法在部分領(lǐng)域建構(gòu)規(guī)則和調(diào)整社會(huì)關(guān)系的能力,國(guó)家卻無(wú)法觸及算法內(nèi)部,甚至在做某些決策時(shí)要依賴于算法的自動(dòng)決策,這意味著傳統(tǒng)由政治國(guó)家所享有的部分權(quán)力將轉(zhuǎn)移到社會(huì)中。國(guó)家通過(guò)縱向權(quán)力管理社會(huì)的時(shí)代一去不復(fù)返,取而代之的是多中心、扁平化的新社會(huì)秩序。

去中心化的格局實(shí)現(xiàn)后,權(quán)力分散于社會(huì)之中的狀態(tài)并不穩(wěn)固,再中心化趨勢(shì)悄然降臨。馬太效應(yīng)使得資源向著少數(shù)率先收集數(shù)據(jù)、掌握核心算法、經(jīng)濟(jì)實(shí)力雄厚的主體傾斜,經(jīng)由去中心化所分散的權(quán)力重新聚集到這些主體手中,形成新的中心——與中心化不同的是,再中心化所形成的中心是私主體而非國(guó)家。區(qū)塊鏈技術(shù)的演變提供了參考,把區(qū)塊鏈作為底層技術(shù)的比特幣,以消解具有記賬權(quán)與貨幣發(fā)行權(quán)的社會(huì)信用中心為己任,起初個(gè)人電腦也能通過(guò)算法計(jì)算獲得比特幣,而隨著技術(shù)演進(jìn)和比特幣總量限制,僅靠個(gè)人電腦挖掘比特幣的難度顯著提高,比特幣資源愈發(fā)流向大型“挖礦”公司,比特大陸公司甚至已控制了42%的算力,儼然成為比特幣世界的中心。

人工智能導(dǎo)致國(guó)家功能變遷,作為國(guó)家制定或認(rèn)可之行為規(guī)范體系的法律,從預(yù)防人工智能風(fēng)險(xiǎn)角度究竟應(yīng)如何定位尤其值得深思。在人工智能沖擊社會(huì)秩序的過(guò)程中,國(guó)家應(yīng)始終處于超然地位,通過(guò)法律主導(dǎo)新秩序的重構(gòu)和人工智能風(fēng)險(xiǎn)的防控。國(guó)家中心地位的弱化并不妨礙其主導(dǎo)社會(huì)新秩序,其公共屬性能夠最大程度上實(shí)現(xiàn)公平,避免開發(fā)者或使用者兼具選手和裁判的雙重身份,使得對(duì)算法的規(guī)制被商業(yè)利益左右,從而于再中心化后危害公共利益。國(guó)家主導(dǎo)的超然性體現(xiàn)為兩方面:第一,立法者不直接創(chuàng)設(shè)技術(shù)規(guī)則,而是從宏觀層面原則性地指導(dǎo)人工智能技術(shù)發(fā)展;第二,國(guó)家重視行業(yè)內(nèi)部自發(fā)形成的普遍性規(guī)則,并適時(shí)將其中的規(guī)則轉(zhuǎn)化為法律。人們的認(rèn)知也會(huì)隨著社會(huì)秩序的重構(gòu),相應(yīng)地發(fā)生“從行為中心論向溝通中心論轉(zhuǎn)變, 從國(guó)家中心論向社會(huì)中心論轉(zhuǎn)變, 從規(guī)則中心論向代碼中心論轉(zhuǎn)變” [8]102。

三、算法規(guī)制中價(jià)值困境及重新衡量

部分國(guó)家權(quán)力的社會(huì)化所帶來(lái)的結(jié)果是私主體在某些領(lǐng)域中代替國(guó)家行使權(quán)力,當(dāng)算法爭(zhēng)議產(chǎn)生于這些領(lǐng)域時(shí),傳統(tǒng)的秩序與自由的沖突即轉(zhuǎn)化為不同私主體之間自由的沖突,價(jià)值取向問(wèn)題相應(yīng)地轉(zhuǎn)變?yōu)樵搩A向于保護(hù)誰(shuí)的自由。同時(shí),在這些領(lǐng)域之外,國(guó)家出于公共利益等目的仍然需要直接規(guī)制算法的涉及與應(yīng)用,秩序與自由的齟齬依然存在。

(一)私主體內(nèi)部:自由之間的沖突

憲法和法律保護(hù)算法開發(fā)者和使用者的自由,包括技術(shù)自由、言論自由、商業(yè)自由等,其主要防御對(duì)象是公權(quán)力的任意干涉。但近年相關(guān)案例呈現(xiàn)的結(jié)果卻是,掌握算法的企業(yè)與普通個(gè)人的糾紛成為法院探討這些自由的主流情形,自由直接的沖突亟待法律加以平衡。

首先,法律所保護(hù)的自由,應(yīng)當(dāng)根據(jù)主體差異加以區(qū)分。美國(guó)法院往往將算法歸入言論自由范疇,甚至認(rèn)為算法本身是言論自由的主體,使得個(gè)人在與互聯(lián)網(wǎng)公司的訴訟中鎩羽而歸,“每個(gè)試圖規(guī)制算法的嘗試,都必須先通過(guò)‘算法是不是言論或‘規(guī)制算法是否侵犯言論自由這道門檻。到目前為止,算法的言論自由主張取得了全部法庭交鋒的勝利”[9]123。美國(guó)司法實(shí)踐不區(qū)分主體而一味保護(hù)企業(yè)言論自由的做法并不合理,在保護(hù)開發(fā)者和使用者的自由時(shí),與普通主體不能適用同一種保護(hù)標(biāo)準(zhǔn),否則法院只會(huì)關(guān)注到企業(yè)的自由是否受到威脅,而忽略了個(gè)人的權(quán)利和自由正被企業(yè)侵害的事實(shí)。

其次,主體事實(shí)上的不平等,需要法律給予傾斜保護(hù)。人工智能去中心化進(jìn)程帶來(lái)的是部分國(guó)家權(quán)力的社會(huì)化,利用算法進(jìn)行自動(dòng)決策不僅是開發(fā)者和使用者按自己意愿行動(dòng)的自由、還是使用權(quán)力配置社會(huì)資源的行為。相比這些主體,個(gè)人處于弱勢(shì)地位,其權(quán)利與自由更易受侵害,法律應(yīng)當(dāng)通過(guò)傾斜保護(hù)來(lái)修正事實(shí)上的不平等。

最后,權(quán)利功能觀應(yīng)作調(diào)整,賦予基本權(quán)利對(duì)抗算法開發(fā)者和使用者的功能。濫用與異化風(fēng)險(xiǎn)跟隨權(quán)力轉(zhuǎn)移到算法開發(fā)者和使用者身上,“個(gè)體自由和個(gè)體權(quán)利面臨的侵害風(fēng)險(xiǎn)已不獨(dú)是國(guó)家,憲法基本權(quán)利主要防御國(guó)家的功能也將擴(kuò)展到防御機(jī)構(gòu)、組織和公司侵權(quán)上來(lái)”[10]44。因此,擴(kuò)展憲法基本權(quán)利的防御范圍,形成以個(gè)人權(quán)利對(duì)抗算法控制者的格局,是化解自由之間沖突的有力保障。

(二)國(guó)家與私主體:秩序與自由的齟齬

法律對(duì)秩序價(jià)值的維護(hù)在強(qiáng)人工智能時(shí)代更為重要。人工智能具備深度學(xué)習(xí)和強(qiáng)大的運(yùn)算能力,缺乏法律規(guī)制的算法都存在破壞秩序的潛在威脅。數(shù)據(jù)是萬(wàn)物互聯(lián)的媒介,一旦有害算法輸出污染數(shù)據(jù),容易引起其他算法錯(cuò)誤決策的連鎖反應(yīng),進(jìn)而引發(fā)系統(tǒng)性風(fēng)險(xiǎn)。

但是過(guò)度限制算法設(shè)計(jì)者與使用者的自由不利于人工智能的技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展。美國(guó)信息技術(shù)與創(chuàng)新基金會(huì)發(fā)布的《歐盟新的數(shù)據(jù)保護(hù)規(guī)定對(duì)人工智能的影響》分析認(rèn)為:《一般數(shù)據(jù)保護(hù)條例》(GDPR)第22條賦予公司人工審查重要算法決策的義務(wù)會(huì)極大地阻礙歐盟人工智能產(chǎn)業(yè)的發(fā)展。[11]75嚴(yán)格的算法規(guī)制固然能夠最大限度地防控風(fēng)險(xiǎn)、維護(hù)個(gè)人權(quán)利,但它建立在限制商業(yè)自由的基礎(chǔ)上,給公司增加了過(guò)高的成本負(fù)擔(dān),也無(wú)形中提高了行業(yè)準(zhǔn)入門檻,其結(jié)果是人工智能產(chǎn)業(yè)會(huì)因?yàn)檎^(guò)度監(jiān)管的外部壓力而舉步維艱。

平衡秩序與自由價(jià)值的最佳方案是注重國(guó)家權(quán)力的謙抑性,讓法律對(duì)算法的規(guī)制充當(dāng)控制社會(huì)風(fēng)險(xiǎn)的安全閥。充分保障算法設(shè)計(jì)者與使用者的自由,只有當(dāng)行使此種自由觸及危害社會(huì)的紅線時(shí),法律才更加側(cè)重秩序價(jià)值的維護(hù),“當(dāng)AI負(fù)面效應(yīng)因子產(chǎn)生,安全閥開啟,法律的秩序價(jià)值走上前臺(tái),技術(shù)的自由價(jià)值退居幕后”[5]75。

四、算法規(guī)制的實(shí)現(xiàn)路徑

(一)選擇風(fēng)險(xiǎn)預(yù)防模式

傳統(tǒng)規(guī)制模式是“對(duì)算法造成的結(jié)果進(jìn)行監(jiān)管,事后追究責(zé)任”[12]53的結(jié)果導(dǎo)向模式,它在面對(duì)互聯(lián)網(wǎng)技術(shù)相關(guān)的案件時(shí)愈發(fā)顯現(xiàn)出缺陷。誠(chéng)如吳漢東所言:“人工智能發(fā)展的政策考量,其實(shí)是基于風(fēng)險(xiǎn)的制度選擇和法律安排。”[13]130人工智能風(fēng)險(xiǎn)如果實(shí)際發(fā)生,造成損失的規(guī)模和破壞力難以估量,因此算法規(guī)制模式必須轉(zhuǎn)變?yōu)轱L(fēng)險(xiǎn)預(yù)防。

第一,風(fēng)險(xiǎn)預(yù)防的途徑是事先審查和結(jié)果監(jiān)管并重。在傳統(tǒng)模式的基礎(chǔ)上,將法律對(duì)算法的規(guī)制提前;將人工智能行業(yè)的機(jī)器倫理共識(shí)轉(zhuǎn)化為法律,用以指導(dǎo)和約束算法的編寫和使用;審查算法的設(shè)計(jì)目的是否違反法律和倫理;檢測(cè)代碼成品是否存在容易被黑客、惡意程序攻擊的漏洞,以阻止可能產(chǎn)生的外部風(fēng)險(xiǎn)。

第二,風(fēng)險(xiǎn)預(yù)防的衡量標(biāo)準(zhǔn)應(yīng)以人性尊嚴(yán)為尺度。任何技術(shù)都以服務(wù)人類為出發(fā)點(diǎn)和落腳點(diǎn),算法的設(shè)計(jì)不得有損人類的主體性。阿西洛馬人工智能原則提出:“人工智能應(yīng)符合一般的‘人的價(jià)值之類的尊嚴(yán)、權(quán)利、自由和文化等多樣性?!盵14]28維護(hù)人性尊嚴(yán)是法律設(shè)置的底線,一旦算法越過(guò)了這條底線,即背離了人工智能技術(shù)的初衷,使得人類的地位與價(jià)值受到威脅,監(jiān)管者就應(yīng)當(dāng)強(qiáng)制停止開發(fā)或使用該算法。

第三,風(fēng)險(xiǎn)預(yù)防的必要前提是保證算法透明度?;诰S護(hù)商業(yè)秘密和技術(shù)自由的考量,透明度原則只要求公開披露重要決策信息,盡可能減少算法黑箱,而不深入技術(shù)細(xì)節(jié);同時(shí)賦予個(gè)人算法解釋權(quán),以個(gè)人權(quán)利和企業(yè)義務(wù)的形式實(shí)現(xiàn)算法處理特定數(shù)據(jù)信息的透明。

(二)構(gòu)建多層次規(guī)制體系

馬長(zhǎng)山指出:規(guī)制人工智能風(fēng)險(xiǎn)需要構(gòu)建“多元互動(dòng)的風(fēng)險(xiǎn)規(guī)制體系”,[2]53具體落實(shí)到算法規(guī)制領(lǐng)域則需要以法律為中心,構(gòu)建覆蓋國(guó)家、行業(yè)、開發(fā)者和使用者、社會(huì)的多層次規(guī)制體系。

首先,國(guó)家規(guī)制。這包括三方面內(nèi)容:其一是立法者宏觀、原則性地指導(dǎo)人工智能技術(shù)的發(fā)展方向,規(guī)定算法編寫的目的不得損害人性尊嚴(yán)之底線;其二是給設(shè)計(jì)者和使用者設(shè)定適當(dāng)?shù)牧x務(wù),對(duì)某些關(guān)鍵的技術(shù)指標(biāo)適用強(qiáng)制標(biāo)準(zhǔn),如為防止算法的高速自動(dòng)決策輸出錯(cuò)誤結(jié)果的風(fēng)險(xiǎn),將運(yùn)算速度限制在可控范圍內(nèi);[15]169其三是強(qiáng)化監(jiān)管部門的事先審查,除了在編寫之初審查算法目的是否合法,亦可采用以算法規(guī)制算法的方式,在其投入應(yīng)用前進(jìn)行強(qiáng)制性檢驗(yàn),排除存在違法內(nèi)容或重大安全漏洞的算法,只有通過(guò)算法測(cè)試才符合商業(yè)利用的合格標(biāo)準(zhǔn)。

其次,行業(yè)規(guī)制。在國(guó)家難以監(jiān)管的算法技術(shù)細(xì)節(jié)部分,應(yīng)當(dāng)交由行業(yè)規(guī)范進(jìn)行規(guī)制。人工智能行業(yè)是從業(yè)人員的共同體,具有其他實(shí)體無(wú)法比擬的技術(shù)熟悉度和專業(yè)性;行業(yè)由諸多企業(yè)組成,不會(huì)被個(gè)別企業(yè)的商業(yè)利益左右,保證相當(dāng)程度的公平;行業(yè)的范圍往往跨越一國(guó)邊界,形成政治權(quán)力與社會(huì)權(quán)力交叉的局面,行業(yè)規(guī)范更能滿足全球化、精細(xì)化的算法規(guī)制需求。行業(yè)規(guī)制一方面能夠?qū)⒎傻暮暧^原則轉(zhuǎn)化為可操作的技術(shù)規(guī)范;另一方面也能發(fā)展機(jī)器倫理,為立法提供資源。

再次,開發(fā)者和使用者自我規(guī)制。針對(duì)算法編寫和運(yùn)行部分,需要依靠開發(fā)者和使用者的自我約束。開發(fā)者編寫的代碼應(yīng)當(dāng)符合法律、行業(yè)規(guī)范和機(jī)器倫理,不偏離公開的算法設(shè)計(jì)目的等重要決策信息。使用者須主動(dòng)承擔(dān)審查義務(wù),包括審查算法運(yùn)行狀態(tài)、監(jiān)控算法運(yùn)行結(jié)果和審計(jì)算法數(shù)據(jù)。[16]151若開發(fā)者和使用者因疏于履行自我規(guī)制的義務(wù)而引發(fā)人工智能風(fēng)險(xiǎn),則應(yīng)當(dāng)要求其承擔(dān)算法責(zé)任。

最后,社會(huì)規(guī)制。社會(huì)規(guī)制由非營(yíng)利性組織主導(dǎo),如德國(guó)的算法監(jiān)控(AlgorithmWatch),其宗旨是評(píng)估和揭示具有社會(huì)相關(guān)性的算法決策過(guò)程。非營(yíng)利性組織相對(duì)具有中立性,通過(guò)招募“白帽子”①之類人工智能和網(wǎng)絡(luò)安全領(lǐng)域的專業(yè)人士,能夠匯集社會(huì)力量,起到監(jiān)督企業(yè)算法的作用。

五、結(jié)語(yǔ)

人工智能技術(shù)終將推動(dòng)社會(huì)變革,也會(huì)帶來(lái)前所未有的社會(huì)風(fēng)險(xiǎn)。國(guó)務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》強(qiáng)調(diào):“必須高度重視可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展。”既有的法學(xué)體系面臨挑戰(zhàn),法律應(yīng)當(dāng)順勢(shì)而為,轉(zhuǎn)變?yōu)轱L(fēng)險(xiǎn)預(yù)防的算法規(guī)制模式,以適應(yīng)強(qiáng)人工智能時(shí)代的變局。

公權(quán)力的適當(dāng)管制不會(huì)減緩或阻礙科技進(jìn)步, 相反,技術(shù)中立觀念下暗藏的算法黑箱卻可能引發(fā)危機(jī)。法律應(yīng)保持前瞻性和謙抑性,平衡自由與自由、自由與秩序的價(jià)值沖突,避免公權(quán)力對(duì)技術(shù)發(fā)展不必要的束縛,讓人工智能技術(shù)能在多層次規(guī)制體系內(nèi)自由成長(zhǎng)。

注釋:

①“白帽子”:指研究或從事網(wǎng)絡(luò)安全與計(jì)算機(jī)技術(shù)防御的專業(yè)人士,他們會(huì)尋找計(jì)算機(jī)系統(tǒng)或網(wǎng)絡(luò)系統(tǒng)中的安全漏洞,并提交給相關(guān)企業(yè),幫助企業(yè)發(fā)現(xiàn)計(jì)算機(jī)安全問(wèn)題,促使企業(yè)在黑客攻擊前修補(bǔ)漏洞。

參考文獻(xiàn):

[1][美]Ray Kurzweil.奇點(diǎn)臨近[M].李慶誠(chéng),董振華,田源,譯.北京:機(jī)械工業(yè)出版社,2017.

[2]馬長(zhǎng)山.人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(6).

[3][美]萊斯格.代碼2.0:網(wǎng)絡(luò)空間中的法律[M].李旭,沈偉偉,譯.北京:清華大學(xué)出版社,2009.

[4]陳景輝.人工智能的法律挑戰(zhàn):應(yīng)該從哪里開始?[J].比較法研究,2018(5).

[5]吳梓源,游鐘豪.AI侵權(quán)的理論邏輯與解決路徑——基于對(duì)“技術(shù)中立”的廓清[J].福建師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(5).

[6]邱遙堃.法院如何規(guī)制算法——從快播案切入[J].

法律和社會(huì)科學(xué),2017(1).

[7]張淑玲.破解黑箱:智媒時(shí)代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制[J].中國(guó)出版,2018(7).

[8]魯楠.科技革命、法哲學(xué)與后人類境況[J].中國(guó)法律評(píng)論,2018(2).

[9]左亦魯.算法與言論——美國(guó)的理論與實(shí)踐[J].環(huán)球法律評(píng)論,2018(5).

[10]齊延平.論人工智能時(shí)代法律場(chǎng)景的變遷[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(4).

[11]吳沈括,唐巧盈.歐盟數(shù)據(jù)保護(hù)新規(guī)對(duì)人工智能的影響報(bào)告述評(píng)[J].信息安全與通信保密,2018(7).

[12]張凌寒.風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究[J].交大法學(xué),2018(4).

[13]吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制[J].

法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5).

[14]彭蘭.假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時(shí)代的新風(fēng)險(xiǎn)[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),

2018(5).

[15][美]皮埃羅·斯加魯菲.智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題[M].任莉,張建宇,譯.北京:人民郵電出版社,2017.

[16]姜野.算法的規(guī)訓(xùn)與規(guī)訓(xùn)的算法:人工智能時(shí)代算法的法律規(guī)制[J].河北法學(xué),2018(12).

猜你喜歡
風(fēng)險(xiǎn)預(yù)防去中心化法律規(guī)制
中小學(xué)體育傷害的責(zé)任承擔(dān)與風(fēng)險(xiǎn)預(yù)防
大型無(wú)動(dòng)力船舶靠泊的風(fēng)險(xiǎn)預(yù)防
淺談我國(guó)民營(yíng)企業(yè)家的刑事法律風(fēng)險(xiǎn)問(wèn)題研究
商業(yè)預(yù)付卡經(jīng)營(yíng)行為的法律規(guī)制
我國(guó)網(wǎng)絡(luò)經(jīng)濟(jì)中不正當(dāng)競(jìng)爭(zhēng)行為的法律規(guī)制
農(nóng)地三權(quán)分置視域下新型農(nóng)業(yè)經(jīng)營(yíng)主體的素質(zhì)要求和培育途徑
我國(guó)著作權(quán)集體管理組織壟斷行為的法律規(guī)制
淺析移動(dòng)互聯(lián)語(yǔ)境下中小成本電影去中心化的創(chuàng)作趨向
論企業(yè)社會(huì)責(zé)任的法律規(guī)制
“去中心化”電子商務(wù)背景下大學(xué)生網(wǎng)絡(luò)創(chuàng)業(yè)前景分析
德昌县| 元谋县| 盈江县| 根河市| 西和县| 新余市| 洛扎县| 肃宁县| 桂阳县| 同心县| 互助| 新余市| 濮阳县| 武胜县| 哈巴河县| 孝义市| 芷江| 浦北县| 棋牌| 沧源| 米泉市| 临西县| 华亭县| 洛隆县| 磐安县| 襄汾县| 噶尔县| 五大连池市| 天峨县| 永丰县| 南涧| 大兴区| 武鸣县| 麻阳| 霍州市| 瑞昌市| 东安县| 万源市| 广水市| 玉山县| 宝山区|