国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的法律挑戰(zhàn)及其應(yīng)對

2024-01-23 11:27:31錢燕娜儲召鋒
關(guān)鍵詞:挑戰(zhàn)人工智能法律

錢燕娜,儲召鋒

(1.國防大學(xué)政治學(xué)院 馬克思主義理論系,上海 201602 2.國防大學(xué)國際關(guān)系學(xué)院 國際關(guān)系與戰(zhàn)略系,江蘇 南京 210000)

人工智能技術(shù)的發(fā)展,引發(fā)了一場新的產(chǎn)業(yè)浪潮,推動了全球互聯(lián)網(wǎng)企業(yè)的戰(zhàn)略轉(zhuǎn)型,并在實踐與理論層面給法律帶來巨大挑戰(zhàn)。為此,我們必須采取預(yù)防措施,并在法律制度上進行適當?shù)幕貞?yīng)。

一、人工智能的法律挑戰(zhàn)的實踐層面

從實際應(yīng)用的角度來看,人工智能給法律界帶來了四個方面的挑戰(zhàn)。

(一)個人信息保護問題

雖然人工智能在法律上未有明確定義,但因人工智能技術(shù)的發(fā)展需要收集、分析和使用海量數(shù)據(jù),其中必然涉及具有直接或間接的身份識別性的個人信息。因人工智能實踐應(yīng)用引發(fā)的個人信息保護問題大體上可以分為兩類:一是人工智能技術(shù)本身侵犯個人信息;二是利用人工智能技術(shù)侵犯個人信息。目前兩類問題均已產(chǎn)生了諸多實踐案例。關(guān)于人工智能侵犯個人信息的案例,當前主要集中于人臉識別系統(tǒng)方面。2019年,“人臉識別第一案”引發(fā)了全國的關(guān)注,這一案件的審理重點在于如何正確地評估野生動物世界收集和使用人臉信息的行為。近年來,類似的案例層出不窮,這些案例不僅說明了個人權(quán)利亟須法律保障,也是對人工智能技術(shù)下的個人信息安全的強有力警示。

(二)算法面臨的法律挑戰(zhàn)問題

目前,基于大規(guī)模的數(shù)字化信息處理和機器自主決策的人工智能算法已經(jīng)被普遍采用,并在各領(lǐng)域都取得了巨大的成就。人工智能算法能夠通過收集數(shù)據(jù)和設(shè)定指令對人的行為進行預(yù)測和評價。用戶在網(wǎng)購、智能診療、新聞推薦等領(lǐng)域都能享受到算法帶來的便利。但是,人工智能算法獨特的運行邏輯也帶來了諸多法律問題。例如,信用評價算法和保險精算算法等,曾經(jīng)被用來幫助人們做出正確的決策,但隨著人工智能技術(shù)的發(fā)展,這些算法已經(jīng)不再僅僅被用作工具,而是根據(jù)大量的數(shù)據(jù),自動生成有效的決策,從而改變了“算法權(quán)威”的原有模式,在應(yīng)用中反客為主[1]。同時,人工智能算法的自我決策過程存在許多不確定因素,形成算法黑箱,又引發(fā)行政風險、算法歧視、信息繭房與隱私泄露等問題,甚至在無形中構(gòu)成了算法與人類間的技術(shù)支配關(guān)系,造成“算法權(quán)力”。

(三)人工智能作品的知識產(chǎn)權(quán)保護問題

從目前的實踐來看,人工智能作品的知識產(chǎn)權(quán)保護主要涉及人工智能的名稱、形象、數(shù)據(jù)的知識產(chǎn)權(quán)保護,對于人工智能創(chuàng)作作品的版權(quán)所有者和算法的知識產(chǎn)權(quán)保護。其中,人工智能創(chuàng)作作品的著作權(quán)歸屬已經(jīng)出現(xiàn)爭議。隨著技術(shù)的進步,機器人不僅可以自主創(chuàng)作音樂和繪畫作品,而且還可以創(chuàng)作詩歌,其作品甚至被出版成專業(yè)的詩歌集。因此,傳統(tǒng)“算法”的版權(quán)保護已經(jīng)不能滿足智能化時代的需求,人工智能算法的知識產(chǎn)權(quán)保護已經(jīng)成為一個迫切需要解決的法律問題。

(四)人工智能監(jiān)管及其引發(fā)的責任分配問題

隨著人工智能技術(shù)在醫(yī)療、運輸、金融等領(lǐng)域的不斷應(yīng)用,涉及的個人敏感數(shù)據(jù)也越來越多,因此,政府在設(shè)計監(jiān)管模式時,必須采取“高準入、嚴許可”的有效措施,以確保數(shù)據(jù)的安全性和可靠性。從市場發(fā)展實踐看,人工智能監(jiān)管不力所引發(fā)的責任問題也與日俱增。美國在2018年發(fā)生的首例自動駕駛汽車撞人致死事件,使人工智能監(jiān)管及其引發(fā)的責任分配矛盾日趨尖銳,由此延伸出亟須明確的法律問題是:人工智能因系統(tǒng)故障、決策失誤等原因引起的致人傷害或死亡的侵權(quán)責任、刑事責任等應(yīng)當如何認定,法律是否有必要為因人工智能引起的責任分配問題制定專門的規(guī)則等。

二、人工智能的法律挑戰(zhàn)的理論層面

從人工智能的法律挑戰(zhàn)的理論層面看,可以概括為四個方面:人工智能對主體制度的挑戰(zhàn)、對權(quán)利制度的挑戰(zhàn)、對法律原則的挑戰(zhàn)及對責任制度的挑戰(zhàn)。

(一)對主體制度的挑戰(zhàn)

大多數(shù)學(xué)者認為人工智能沒有自主意識,但隨著科技的進步,其擬人化和智能化水平日益提升,外觀、行動和語言也越來越接近人類。我們不得不思考這樣一個問題:人工智能在法律上的地位如何?盡管理論界已對此問題展開探索,分別主張賦予智能機器人以法律人格或次等法律人格等,但仍需從理論上徹底明確該問題,這對傳統(tǒng)法律中的主體制度造成極大的沖擊。人工智能對主體制度的挑戰(zhàn)主要表現(xiàn)在兩方面:一是應(yīng)否賦予人工智能法律主體地位,人工智能能否以其身份獨立地設(shè)立、變更和終止法律關(guān)系。二是為了確保人工智能獲得合法的法律地位,我們必須清楚地確定其主體類型,因為這涉及它的權(quán)利、義務(wù)、法律責任、權(quán)利能力和行為能力。

(二)對權(quán)利制度的挑戰(zhàn)

在實踐中,人工智能的運用涉及個人信息保護、知識產(chǎn)權(quán)保護等問題,反映到理論層面可以概括為對權(quán)利制度的挑戰(zhàn)。結(jié)合當前人工智能在研發(fā)、應(yīng)用與發(fā)展過程中產(chǎn)生的法律問題,人工智能對隱私權(quán)、知識產(chǎn)權(quán)及勞動與社會保障權(quán)三類權(quán)利造成挑戰(zhàn)。

1.人工智能對隱私權(quán)的挑戰(zhàn)。人工智能對隱私權(quán)的挑戰(zhàn)主要體現(xiàn)在個人信息收集與安全方面。一方面,隨著人工智能產(chǎn)業(yè)化應(yīng)用的推進,智能語音機器人、人臉識別技術(shù)、人工智能推薦系統(tǒng)等已經(jīng)深深融入人類的日常生活,這使得人工智能系統(tǒng)獲取數(shù)據(jù)變得易如反掌,如醫(yī)療保健、在線交易、通信以及飲食等個人信息,在人們毫不知情的情況下即被相關(guān)的人工智能應(yīng)用程序頻繁收集,此類個人信息收集行為是否合法值得我們深思。另一方面,智慧醫(yī)療、智慧教育、自動駕駛、智能家居等人工智能應(yīng)用的落地在為人類社會帶來極大便利的同時,亦使人們極易遭受攻擊。攻擊者入侵人工智能系統(tǒng)可能導(dǎo)致用戶信息泄露,甚至演變?yōu)槿后w性用戶信息泄露。如果想要在技術(shù)層面預(yù)防攻擊者入侵人工智能系統(tǒng),最根本的方法是確保人工智能系統(tǒng)的穩(wěn)健性。雖然我國一直在積極研發(fā)相關(guān)安全保護系統(tǒng),但目前的技術(shù)還無法滿足實踐中人工智能應(yīng)用程序的安全性要求。如何通過立法保障人工智能系統(tǒng)中的個人信息安全,規(guī)范人工智能應(yīng)用程序的數(shù)據(jù)收集和使用行為,切實保障用戶的隱私權(quán),是當前人工智能帶來的又一法律挑戰(zhàn)。

2.人工智能對知識產(chǎn)權(quán)的挑戰(zhàn)。主要的挑戰(zhàn)在于如何保護人工智能的創(chuàng)新成果、算法和數(shù)據(jù)的知識產(chǎn)權(quán)。首先,關(guān)于人工智能作品的版權(quán)維護,其核心是對版權(quán)法的挑戰(zhàn),這涵蓋了作品的版權(quán)所有、版權(quán)的運用和權(quán)益的約束等問題。要解決這些問題,先要明確權(quán)利主體,即機器人能否成為法律主體。除此之外,人工智能創(chuàng)作物是否具有“獨創(chuàng)性”亦是值得探討的問題,這屬于權(quán)利客體研究范疇。其次,算法被定義為“智力規(guī)則”還是“技術(shù)方案”,對于其能否獲取專利保護至關(guān)重要。算法作為人工智能的核心,其是否可以申請專利以及是否應(yīng)當納入《專利法》的保護范圍及延伸的法律救濟將會影響人工智能產(chǎn)業(yè)的整體發(fā)展。最后,人工智能數(shù)據(jù)的知識產(chǎn)權(quán)保護。當前世界各國對數(shù)據(jù)(數(shù)據(jù)庫)的保護主要呈現(xiàn)以下三種路徑:一是大數(shù)據(jù)的版權(quán)保護路徑。此種路徑在《與貿(mào)易有關(guān)的知識產(chǎn)權(quán)協(xié)定》和我國《著作權(quán)法》中都有所規(guī)定。二是《反不正當競爭法》的保護路徑。此種路徑主要用于保護無獨創(chuàng)性的數(shù)據(jù)庫。三是歐盟的“特殊權(quán)利”保護路徑。歐盟于1996年發(fā)布《關(guān)于數(shù)據(jù)庫的法律保護指令》,建立了關(guān)于數(shù)據(jù)庫的“特殊權(quán)利”,并在歐盟成員國內(nèi)實施。數(shù)據(jù)是人工智能研發(fā)、應(yīng)用過程中不可或缺的要素,因為人工智能是以海量數(shù)據(jù)為支撐的,機器自我學(xué)習和深度思考都需要以大數(shù)據(jù)運算作為基礎(chǔ),所以,尋求契合人工智能產(chǎn)業(yè)發(fā)展的人工智能數(shù)據(jù)知識產(chǎn)權(quán)保護方法成為當前需要重點商榷的法律問題。

3.人工智能對勞動與社會保障權(quán)的挑戰(zhàn)。人工智能技術(shù)能夠通過實現(xiàn)自動化提高社會生產(chǎn)力水平,這意味著相同生產(chǎn)率輸出所必需的勞動力減少。對于我國來說,盡管到2037年,近40%的工作崗位可能會受到自動化的影響,但在這段時間內(nèi),現(xiàn)有工作崗位中只有約1/4會真正被取代,而其所創(chuàng)造的就業(yè)崗位的比例為38%[2]。目前,無論人工智能是將創(chuàng)造大量工作機會還是造成廣泛失業(yè),其必將擾亂就業(yè)市場,但我國現(xiàn)有法律法規(guī)體系尚無法應(yīng)對人工智能帶來的就業(yè)市場革命。盡管我們已經(jīng)頒布實施了很多關(guān)于市場監(jiān)管、勞動就業(yè)方面的法律規(guī)定,但是如何保障人類勞動權(quán)利,機器人勞動是否應(yīng)該受到法律保護,機器人是否應(yīng)該享有合理的工作時間和良好的工作環(huán)境等問題仍是法律空白區(qū)。因此,需要結(jié)合人工智能技術(shù)的特點,不斷完善勞動與社會保障立法,提前預(yù)設(shè)人工智能可能帶來的勞動影響和變化,為強人工智能時代的到來引發(fā)的全球經(jīng)濟變革做好準備。

(三)對法律原則的挑戰(zhàn)

平等原則一直被視為社會主義法治體系的核心原則,它強調(diào)法律面前人人平等。人工智技術(shù)對這一原則的適用挑戰(zhàn)也越來越明顯,主要體現(xiàn)在兩個方面。一是機器人內(nèi)部的平等原則如何適用。在機器人的內(nèi)部平等問題上,不同類型、算法、數(shù)據(jù)、功能、智能化程度的機器人如何能保證在適用法律上平等,這個標準如何界定,它們能否平等地受到相關(guān)法律的保護?二是機器人與人類間的平等原則如何適用。如果將人工智能視為一個法定的實體,那么它和我們的法定實體的地位是否一樣,它擁有的權(quán)益和需要履行的責任是否和我們一樣?在人工智能背景下,必須對這些問題做出相應(yīng)的反饋。

(四)對責任制度的挑戰(zhàn)

隨著人工智能技術(shù)的發(fā)展,一些侵權(quán)行為也隨之發(fā)生,比如“殺人”機器人的侵權(quán)行為在日本、美國、德國等國家日趨普遍。這些侵權(quán)行為的發(fā)生,是由人工智能系統(tǒng)的故障和系統(tǒng)本身的缺陷所造成的。這也使得人工智能產(chǎn)品的責任和侵權(quán)行為成為全球關(guān)注的焦點,人們無法回避且亟須解決。人工智能對責任制度的挑戰(zhàn)可以從以下三方面概述:一是責任主體認定方面。法律責任的歸屬前提是明確責任主體,這涉及人工智能是否擁有法律實體的問題。如果人工智能沒有法律實體身份,可以在當前法律框架內(nèi)處理這個問題。但人工智能從研發(fā)到應(yīng)用涉及人工智能的生產(chǎn)者、設(shè)計者、所有者及使用者等,應(yīng)當由誰承擔法律責任,相關(guān)法律責任應(yīng)當如何分配等一系列問題仍然有待進一步厘清。倘若人工智能或特定條件下的人工智能具有法律主體資格,則在現(xiàn)行法律框架內(nèi)無法確定人工智能的責任能力問題,存在立法缺失。二是歸責原則方面。傳統(tǒng)歸責原則主要以行為人的故意、過失和無過錯為核心要素,但這些要素在人工智能系統(tǒng)中難以準確判斷。因人類具有完全自主意識,而人工智能系統(tǒng)以算法為運行邏輯,不僅難以判斷其中是否具有算法設(shè)計者的主觀意識,而且如何判斷一個計算機系統(tǒng)是否存在故意、過失或無過錯也尚無可供借鑒的經(jīng)驗。三是責任形式方面。傳統(tǒng)的法律責任形式無法適用于人工智能。傳統(tǒng)的法律責任分為人身責任和財產(chǎn)責任,機器人能否承擔賠禮道歉、消除影響的人身責任,其是否擁有自身的財產(chǎn),如何行使支配財產(chǎn)的行為等,都是現(xiàn)行法律無法解決的問題。此外,是否應(yīng)當創(chuàng)設(shè)適用于人工智能的責任形式,例如更換芯片、重新設(shè)置算法等問題亦有待斟酌。

三、人工智能的法律挑戰(zhàn)的立法應(yīng)對

全球的法律架構(gòu)及其相關(guān)條例受到了人工智能技術(shù)的巨大沖擊,這種沖擊與當前的法律框架產(chǎn)生了矛盾,使得法律框架的落后性問題再一次浮出水面。在應(yīng)對人工智能科技進步帶來的挑戰(zhàn)時,我們應(yīng)從理念、原則與措施三方面尋求應(yīng)對方法。

(一)立法理念

面對人工智能發(fā)展引發(fā)的法律問題,立法回應(yīng)顯然是必要的,相關(guān)問題也得到了各國的高度關(guān)注。然而,各國在人工智能方面的立法大多是應(yīng)對性的,也可以稱之為“反應(yīng)性立法”。反應(yīng)性立法,是指當法律被用于處理當前存在的社會混亂行為。它只是把規(guī)范現(xiàn)存的行動和解決現(xiàn)存的沖突視為核心職責,卻沒有把設(shè)計能夠徹底消除這些混亂行動和潛在行動的方案視為優(yōu)先考慮的事項,因此,就形成了一個立法總是針對特定行動的新形態(tài)進行管理并不斷演化的狀態(tài)[3]。就人工智能領(lǐng)域的立法而言,即當人工智能應(yīng)用在實踐中出現(xiàn)問題且傳統(tǒng)法律體系無法規(guī)制后,再從具體場景出發(fā),試圖以較低層級的法律法規(guī)對承擔各種特定功能的人工智能產(chǎn)品加以規(guī)制,確保相應(yīng)規(guī)則具有科學(xué)性、合理性、可行性。此后,將具體規(guī)則抽象化為一般規(guī)則,從而形成人工智能的相應(yīng)立法。此種“實踐問題觀察-具體場景應(yīng)對-抽象規(guī)則制定”的回應(yīng)性立法理念勢必導(dǎo)致立法進程滯后于技術(shù)發(fā)展。由回應(yīng)性立法理念轉(zhuǎn)變?yōu)榍罢靶粤⒎ɡ砟钍墙鉀Q人工智能時代的立法滯后問題的首要前提。人工智能時代的前瞻性立法理念要求立法者在系統(tǒng)論的理論指引下,結(jié)合科技發(fā)展的現(xiàn)狀,深入調(diào)研高新科技對現(xiàn)代社會的影響,充分把握科技的發(fā)展規(guī)律以及社會的現(xiàn)實與潛在需求,進而提煉出具有普適性與法理學(xué)意義的法律問題,再通過立法加以規(guī)制。因此,人工智能的發(fā)展帶來的不僅是科學(xué)技術(shù)的創(chuàng)新,也是經(jīng)濟模式的變革,更是社會價值觀的重構(gòu)。

(二)立法原則

1.安全原則。人工智能技術(shù)的研發(fā)與應(yīng)用具有復(fù)雜性,涉及數(shù)據(jù)、算法等,在各領(lǐng)域的應(yīng)用越來越廣泛[4]。因此,確保人工智能的安全性對于個體、社會乃至人類都具有重大意義。理論層面,學(xué)界已經(jīng)認識到在人工智能時代,遵守安全準則的重要性。吳漢東認為,在人工智能的背景下,安全被視為主要的法律價值,它的作用在于保障社會的穩(wěn)定性,這也是相關(guān)法律機構(gòu)的目標。這種目標可以通過各種不同的體系或者調(diào)節(jié)手段達成。比如,刑法、行政法利用刑事責任或者行政責任的形式確保社會秩序的安寧,而民法則利用侵權(quán)法確保商業(yè)和財產(chǎn)安全[5]。實踐層面,安全原則在科技企業(yè)中體現(xiàn)得尤為明顯。如微軟公司提出“隱私與安全原則”,谷歌公司提出“保障建立與測試中安全性原則”,騰訊公司提出“可控原則”,百度公司提出“人工智能的最高原則是安全可控”等。因此,有必要將安全原則作為人工智能時代的立法原則。按照該原則,立法者在立法進程中應(yīng)當確保相關(guān)條款能夠維護人工智能的安全,不僅是人工智能技術(shù)的安全,還要確保人工智能的應(yīng)用與發(fā)展不會影響個人的生命財產(chǎn)安全和國家安全,不得危害社會經(jīng)濟和文化安全、環(huán)境安全。

2.協(xié)同原則。人工智能的發(fā)展離不開協(xié)同性的資源配置和運行合作。人工智能開發(fā)和應(yīng)用需要的協(xié)同,包括基礎(chǔ)方面的協(xié)同,如數(shù)據(jù)協(xié)同、平臺協(xié)同、管理協(xié)同,也包括具體應(yīng)用功能和主體的協(xié)同,還包括人機協(xié)同,等等[4]。在私法領(lǐng)域,協(xié)作關(guān)系體現(xiàn)在權(quán)力、義務(wù)和責任的劃分方式中。以數(shù)據(jù)為例,數(shù)據(jù)作為人工智能的“營養(yǎng)”,其收集與利用會直接影響人工智能的發(fā)展,但數(shù)據(jù)的合法取得和權(quán)屬與個人隱私保護存在沖突與協(xié)調(diào)問題,需要在立法過程中進行巧妙的制度協(xié)同設(shè)計,平衡各方當事人的利益,其中也包括立法、行政執(zhí)法以及司法部門的協(xié)同。在公法層面的職責落實上,政府通過嵌入人工智能應(yīng)用,減少信息不對稱,實現(xiàn)扁平化的智能治理。在此過程中,個人數(shù)據(jù)隱私保護可能與政府權(quán)力行使、職責履行存在沖突。因此,各方面應(yīng)高效協(xié)同聯(lián)動,實現(xiàn)人工智能時代的多元共治的社會治理。在社會法的勞動關(guān)系、社會保障、特殊群體權(quán)益保障以及社會組織的架構(gòu)上,人工智能可能導(dǎo)致大規(guī)模的結(jié)構(gòu)性失業(yè)的問題,我國勞動法需要前瞻性地進行立法預(yù)防。勞動法已經(jīng)超越了傳統(tǒng)的范疇,它不僅要求我們在處理勞動關(guān)系時遵循人性化原則,還應(yīng)從保護公眾的合法權(quán)利和未來的發(fā)展趨勢出發(fā),探索如何實現(xiàn)人與機器的和諧共存。

3.創(chuàng)新原則。隨著第四次科技革命在世界范圍內(nèi)的展開,以互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能、5G等信息科技及其融合應(yīng)用等為標志,“四新”的原創(chuàng)性突破正在開辟新的發(fā)展方向,甚至會引發(fā)顛覆性變革。對于我國而言,當前正是實現(xiàn)“彎道超車”的難得的歷史機遇。人工智能技術(shù)的研發(fā)與發(fā)展作為國際競爭中搶占制高點的核心要素,已經(jīng)受到我國的高度重視。早在2017年,我國就發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,以推動人工智能技術(shù)的發(fā)展,并將“提升新一代人工智能科技創(chuàng)新能力作為主攻方向”,力爭到2030年,使中國成為全球最具創(chuàng)新力的人工智能中心。因此,立法工作必須與國家對于人工智能創(chuàng)新的策略相一致,我們不只需要加速對法學(xué)理論的創(chuàng)新,并且需要對適應(yīng)人工智能的法律價值進行重塑,還需要促進法律體系的創(chuàng)新。

(三)具體措施

1.成立人工智能立法工作組。歐盟在人工智能立法上取得的成就與其成立了專門的人工智能高級小組有直接關(guān)系。該高級專家小組主要針對與人工智能相關(guān)的中長期挑戰(zhàn)和機遇提出建議,且相關(guān)建議將被納入人工智能政策制定流程、立法評估流程及歐盟數(shù)字戰(zhàn)略的制定。為加快我國人工智能時代的立法修法工作,有必要成立專門的人工智能立法工作組,集中優(yōu)勢資源對關(guān)系國家與民生重大利益的人工智能法律難題協(xié)同攻關(guān),保障國家安全,促進行業(yè)發(fā)展,降低人工智能的負面影響。根據(jù)人工智能立法工作組提出的建議,國家可以制訂人工智能的專項立法修法計劃,動態(tài)跟蹤實踐問題和及時立法修法,適時進行立法解釋和司法解釋,利用立法技術(shù)為可能產(chǎn)生的新問題留下解釋和適用空間。

2.設(shè)立人工智能的試驗性立法先行試驗區(qū)。盡管前瞻性立法是必要的,但是在未能充分把握人工智能技術(shù)的發(fā)展規(guī)律及其對人類社會可能帶來的深刻影響的前提下就匆匆立法是不科學(xué)的。綜觀世界各國對于人工智能的制度回應(yīng),大多采取政策引導(dǎo)、粗放式立法模式。通過試驗性立法,可以更好地構(gòu)建人工智能法律體系,這不僅可以幫助政府收集信息、積累經(jīng)驗,從而更加主動地調(diào)整人工智能相關(guān)法律,還可以為相關(guān)理論的研究和改進提供科學(xué)的理論支撐[6]。因此,可以選取幾個人工智能技術(shù)發(fā)展較好的地區(qū)作為先行試驗區(qū),在遵循人本主義核心理念的基礎(chǔ)上,對人工智能技術(shù)研發(fā)、應(yīng)用中的各方主體的權(quán)利義務(wù)及責任進行立法試驗。在試驗性立法前,有必要采用實驗分析模型來判斷其可行性并預(yù)測實施效果。在試驗性立法期屆滿前,應(yīng)當就立法的實施效果進行全面科學(xué)的評估,并基于評估結(jié)果作出相應(yīng)的立法決策。

3.以智慧立法保障科學(xué)、民主、依法立法?;ヂ?lián)網(wǎng)、大數(shù)據(jù)、人工智能融入和推動科學(xué)立法、民主立法、依法立法,是時代大勢[7]。以科技賦能立法工作,建立健全以大數(shù)據(jù)、人工智能等技術(shù)為核心的智慧立法系統(tǒng)有助于加快立法進程。在科學(xué)立法層面,主要是運用大數(shù)據(jù)和人工智能對立法實踐經(jīng)驗、相關(guān)立法的爭議關(guān)鍵點、相關(guān)司法判例等進行梳理、對比,并通過引入結(jié)構(gòu)方程模型分析法、SWOT矩陣分析法、貝葉斯網(wǎng)絡(luò)分析法等對相關(guān)問題進行分析,建立系統(tǒng)模型對法律實施效果進行預(yù)評估。在民主立法方面,可通過在互聯(lián)網(wǎng)平臺設(shè)置意見征集渠道,廣泛征集各方意見,之后運用大數(shù)據(jù)匯總意見和生成分析報告,切實推動民主立法。在依法立法方面,主要是運用大數(shù)據(jù)、人工智能等技術(shù)實現(xiàn)對立法草案的上位法的智能檢索和預(yù)警,防止與上位法沖突。同時,實時動態(tài)審查已有的立法是否與新通過的上位法相沖突,以現(xiàn)代化手段高效、便捷實現(xiàn)依法立法。

4.多元規(guī)范共治破解立法滯后現(xiàn)象。隨著區(qū)塊鏈技術(shù)的發(fā)展,一種新的、具有共識性的自治模式正在出現(xiàn),它不僅可以取代傳統(tǒng)的自治章程、村規(guī)民約、居民公約,而且可以將法治、德治、自治有機融合,從而形成一種更加完善的自治體系。區(qū)塊鏈可以彌補法律的不足,或者與之相輔相成。然而,兩者都存在各自的管理限制,應(yīng)將它們有效整合起來,這種整合可以通過將法律轉(zhuǎn)化為代碼的方式來完成[8]。區(qū)塊鏈技術(shù)通過將數(shù)據(jù)加密(state machine)來保護數(shù)據(jù)的安全性、完整性和準確性。任何未經(jīng)授權(quán)的人都不能篡改數(shù)據(jù),除非他們已經(jīng)獲得50%以上的網(wǎng)絡(luò)節(jié)點的授權(quán)。區(qū)塊鏈技術(shù)不僅可以提供一種新型的數(shù)據(jù)存儲方式,而且可以在沒有任何中介機構(gòu)或清算系統(tǒng)的情況下實現(xiàn)自動化?,F(xiàn)代區(qū)塊鏈技術(shù)具有極強的安全性和穩(wěn)定性,它支持大規(guī)模的代碼文件,可以實現(xiàn)快速、安全的傳輸,極大地減少了人工成本。通過將代碼應(yīng)用于合同,可以有效地維護雙方的信譽,并且讓智能合約可以獨立運作,既可以極大地提高交易的效率,又可以降低傳統(tǒng)合同的不確定性。雖然智能合同也需要被編程,但它們與第三方或者中立的區(qū)塊鏈系統(tǒng)不同。智能合約具有卓越的可擴展性和靈活性,用戶可以輕松地調(diào)整或修訂類似的協(xié)議,而且,區(qū)塊鏈技術(shù)不受中央服務(wù)器的限制,無論在何處,都可以實現(xiàn)跨越地域的傳輸[9]。將智能合約部署到分布式節(jié)點網(wǎng)絡(luò)中,不僅可以有效降低被提起訴訟的風險,而且可以提前實施技術(shù)規(guī)范,加強對代碼的管控,因此,區(qū)塊鏈技術(shù)可以更有效地保護當事人的權(quán)益,更好地執(zhí)行法律規(guī)則。在重新審視法律的過程中,必須深入思考以下關(guān)鍵性問題:一是科技的進步可能會對法律的定義產(chǎn)生影響,但它們無法替代立法機構(gòu)在制定法律時所需要的民主討論,以確保法律的公平、合理、有效。二是采用最前沿的軟件技術(shù),不僅有助于立法者更有效地審核和修正法律條款,而且也能夠激發(fā)人們的創(chuàng)造力。采取先進的立法手段,能夠極大地降低法律的模糊性,避免出現(xiàn)任何形式的歧視。三是智能合約雖然可以有效地處理復(fù)雜的交易,但是為了保證其準確性,許多交易活動都必須建立在真實的社會和政府框架之上。四是通過編寫代碼,可以有效地將法律與合同條款融為一體,從而達到最佳效果。立法者應(yīng)該努力將法律規(guī)范擴展到更廣泛、更靈活的領(lǐng)域,以滿足社會各階層的需求。

法律的價值不僅僅表現(xiàn)在它的參與程度和覆蓋面上,更多的是通過保持社會的穩(wěn)定,推動社會的安定、高效、協(xié)調(diào),以此來實現(xiàn)相應(yīng)功能,并突出它的關(guān)鍵性[10]。多元共建、共享、共治的觀念,主張在法律的框架下,通過多樣化的規(guī)則來協(xié)同管理,這種方式為網(wǎng)絡(luò)社區(qū)帶來了一種特殊的價值指南,從而推動社會的和諧與穩(wěn)定發(fā)展[11]73。

猜你喜歡
挑戰(zhàn)人工智能法律
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
嘰咕樂挑戰(zhàn)
嘰咕樂挑戰(zhàn)
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
嘰咕樂挑戰(zhàn)
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質(zhì)疑聲背后的法律困惑
永和县| 光山县| 甘德县| 包头市| 龙川县| 德安县| 会宁县| 靖西县| 安图县| 慈利县| 石楼县| 会昌县| 屏东市| 东明县| 安岳县| 三穗县| 罗平县| 新竹县| 长白| 米泉市| 河间市| 壶关县| 威信县| 衡东县| 临江市| 贡山| 增城市| 五寨县| 通江县| 临猗县| 陆良县| 苏尼特右旗| 鹿泉市| 禄丰县| 瑞安市| 贵德县| 滦南县| 武义县| 垣曲县| 西青区| 巴林右旗|