司偉攀
(中國科學(xué)技術(shù)信息研究所,北京 100038)
隨著人工智能嵌入社會發(fā)展結(jié)構(gòu)程度的日益加深,其在給人類生活帶來變革性影響的同時,也在國家安全、社會穩(wěn)定、個人權(quán)益保護等方面帶來了新的風險與挑戰(zhàn)。面對這種形勢,世界主要國家紛紛加強人工智能立法研究與實踐,通過法律手段破解治理難題,最大限度地發(fā)揮人工智能惠益社會的功能。2017 年,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出建立人工智能法律法規(guī)、倫理規(guī)范和政策體系的“三步走”戰(zhàn)略。當前,中國正處在2025 年初步建立該體系的關(guān)鍵階段,也正在向2030 年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系邁進。但立法探索中,中國在人工智能的法律定義、立法類型和模式和具體制度等方面尚有待厘清之處。通過考察分析歐盟和美國在這些方面的立法實踐,可為中國進一步開展相關(guān)工作提供鏡鑒。
如何定義人工智能,一直是理論研究關(guān)注的重點。歐盟委員會聯(lián)合研究中心指出,各種類型的人工智能定義達50 余種[1]。從社會治理的角度出發(fā),如何在法律層面界定人工智能,避免因過于抽象的學(xué)術(shù)概念影響法律的可理解性與可操作性,既是確定立法調(diào)整范圍的前提,也是立法中的難點與爭議焦點,更是構(gòu)建一部面向未來的人工智能立法的重要組成部分。
2021 年4 月,歐盟公布了全球第一部人工智能法律——《人工智能法案(草案)》,目前該法案已經(jīng)進入有待表決通過的最后階段。法案基于“盡可能保持技術(shù)中立和面向未來”的理念確定人工智能的法律定義,但對于定義的具體表述和調(diào)整范圍,歐盟成員國之間存在明顯分歧。法案最初將“人工智能系統(tǒng)”規(guī)定為“基于一種或多種技術(shù)方法開發(fā)的軟件,且針對一組特定人工定義的目標,可以生成如內(nèi)容、預(yù)測、建議或決策等影響其互動環(huán)境的輸出”,同時還在法案的附件Ⅰ中解釋了人工智能的技術(shù)要素和使用的方法[2]。但該定義并未在歐盟成員國之間達成共識,并呈現(xiàn)出對定義進行限縮和擴張兩種傾向。有觀點認為,當前的定義過于寬泛,存在將簡單類型的軟件或一般技術(shù)不當納入規(guī)制范圍的風險,其應(yīng)當被定義為“通過學(xué)習(xí)、推理或建模推斷實現(xiàn)一組給定的人類定義目標的方法”[3]。而另一種主張則指出,基于法案面向未來的需要,應(yīng)制定一個更為寬泛的人工智能定義,并刪除法案附件Ⅰ中所列舉的人工智能的技術(shù)要素和使用的方法[4]。經(jīng)過多輪磋商,歐盟立法者之間雖然就人工智能的法律定義仍存在分歧,但卻實現(xiàn)了由“寬泛”向“限縮”的轉(zhuǎn)變。2023 年3 月,歐盟達成最終妥協(xié)方案,基于法律確定性和人工智能的關(guān)鍵功能特征,將定義縮小為“機器學(xué)習(xí)或基于邏輯和知識的系統(tǒng)”,以更好地區(qū)分人工智能系統(tǒng)與傳統(tǒng)軟件系統(tǒng)、編程方法,并通過新設(shè)條款對“機器學(xué)習(xí)方法”“基于邏輯和知識的方法”等概念進行解釋。同時,法案還規(guī)定可以通過出臺實施細則的方式進一步明確人工智能系統(tǒng)定義的技術(shù)要素,以確保人工智能定義適應(yīng)未來技術(shù)的發(fā)展[5]。
美國在人工智能立法探索中,也表現(xiàn)出了審慎界定人工智能法律定義的態(tài)度。當前,除某些行政命令外,美國聯(lián)邦政府層面尚未就人工智能有關(guān)問題正式頒布立法,但美國國會作為聯(lián)邦立法機構(gòu)已經(jīng)收到議員提出的一系列人工智能立法提案,其中一些提案明確提出了人工智能的法律定義。例如,2017 年12 月,美國眾議員約翰·德萊尼(John K.Delaney)向第115 屆美國國會提交《人工智能未來法案(提案)》,指出人工智能具有“能夠不經(jīng)人類特別干預(yù)即可在復(fù)雜多變的環(huán)境下完成任務(wù),并能夠通過機器學(xué)習(xí)不斷優(yōu)化決策和行動”“可以像人類一樣思考、認知、規(guī)劃、學(xué)習(xí)、交流或采取行動”等重要特征[6]。2020 年12 月,美國眾議員埃迪·伯尼斯·約翰遜(Eddie Bernice Johnson)向第116 屆美國國會提交《國家人工智能倡議法案(提案)》,指出人工智能是“一種基于機器的系統(tǒng),它可以針對一組給定的人類定義的目標,做出影響真實或虛擬環(huán)境的預(yù)測、建議或決策”,并強調(diào)人工智能能夠通過自動分析將這種感知抽象到模型中,進而做出決策或行動方案[7]。這兩部法案中的定義都共同聚焦了人工智能應(yīng)具有的技術(shù)特征,即不需人的監(jiān)督或較少監(jiān)督,可以像人類一樣思考、行事。以此將一般的信息技術(shù)排除在調(diào)整范圍之外。
歐盟和美國的人工智能法律定義雖然在具體表述上存在一定的差異,但都重點強調(diào)了可以將人工智能與傳統(tǒng)軟件系統(tǒng)、信息技術(shù)或編程方法區(qū)別開的技術(shù)方法和要素,防止規(guī)制范圍的不當泛化。
立法類型與模式是人工智能立法中具有緊密聯(lián)系的重要事項,前者主要表達法律的具體性質(zhì),后者則重點反映立法體系的構(gòu)建,但在國家治理導(dǎo)向的指引下,可以實現(xiàn)二者的相互銜接與有機統(tǒng)一。
在全球范圍內(nèi),人工智能立法主要可以分為兩大類型:促進型立法和規(guī)范型立法。
促進型立法側(cè)重于鼓勵、引導(dǎo)人工智能的發(fā)展,如在技術(shù)研發(fā)、投資、應(yīng)用和人才培養(yǎng)等方面,將支持性、促進性的舉措或政策以法律形式予以固化,并不過多設(shè)置限制性制度,能夠發(fā)揮有利于技術(shù)創(chuàng)新的重要作用。在美國,自奧巴馬政府時期至今,其以市場為導(dǎo)向、以監(jiān)管促發(fā)展和重視創(chuàng)新的人工智能發(fā)展理念得到了貫徹和延續(xù)。2016 年,奧巴馬政府連續(xù)發(fā)布《為人工智能的未來做好準備》《國家人工智能研究發(fā)展戰(zhàn)略計劃》《人工智能、自動化與經(jīng)濟報告》3 份報告,在分析人工智能可能帶來相關(guān)影響的基礎(chǔ)上,布局和提出促進人工智能發(fā)展的重點領(lǐng)域及重要舉措。這種促進發(fā)展的理念在特朗普政府時期也得到了體現(xiàn),如2019 年2 月,時任美國總統(tǒng)特朗普簽署《維護美國在人工智能領(lǐng)域領(lǐng)導(dǎo)地位的行政命令》,從國家層面布局人工智能技術(shù)的研究、推廣和培訓(xùn),在聯(lián)邦政府、工業(yè)界和學(xué)術(shù)界推動人工智能的技術(shù)突破,制定適當?shù)募夹g(shù)標準,減少對人工智能技術(shù)安全測試和部署方面的障礙,培訓(xùn)工人掌握開發(fā)和應(yīng)用人工智能技術(shù)的技能等[8]。2022 年10 月,拜登政府發(fā)布《人工智能權(quán)利法案藍圖》,通過“指導(dǎo)”的方式提出減少人工智能危害的5 項原則,但這些原則并不具有約束力且未釋明可能采取的執(zhí)法行動,其目的仍是促進發(fā)展[9]。據(jù)此可以看出,在共和黨或民主黨執(zhí)政的美國政府中,就促進人工智能發(fā)展這一問題上具有政策和法律的一致性。同時,在一些立法提案中也體現(xiàn)了促進發(fā)展的傾向,如2019 年10 月眾議員丹尼爾·利平斯基(Daniel Lipinski)提出《人工智能增長研究法案(提案)》,旨在建立一個協(xié)調(diào)的聯(lián)邦倡議,加速人工智能的研究和開發(fā)。倡議內(nèi)容包括:實施國家人工智能計劃,加大戰(zhàn)略投資,制定具體優(yōu)先發(fā)展事項,健全體制機制,以及從小學(xué)階段就開始設(shè)置人工智能課程等[10]。
規(guī)范型立法則具有明顯的“監(jiān)管”特征,重視以命令性、禁止性規(guī)定治理有關(guān)風險,而較少設(shè)置直接鼓勵、支持人工智能發(fā)展的條款,違反法律規(guī)定的主體將承擔相應(yīng)的行政、民事或刑事責任。規(guī)范型立法的主要目的在于確保人工智能在法治軌道上發(fā)展,保護人工智能環(huán)境下社會秩序的穩(wěn)定和其他主體的合法權(quán)利。代表性立法如歐盟的《人工智能法案(草案)》,該法案基于人工智能應(yīng)用場景,以風險為導(dǎo)向,結(jié)合風險的發(fā)生原因、發(fā)生領(lǐng)域和影響范圍等要素,設(shè)計了一個審慎的監(jiān)管框架,將風險精細劃分為由“不可接受、高風險、有限風險、低風險”組成的階梯式風險等級,每個風險等級都對應(yīng)針對性的監(jiān)管措施,風險等級越高適用的監(jiān)管措施越嚴格。風險等級具體為:(1)不可接受風險。此類風險等級的人工智能(如社會評分、某些類型的生物識別技術(shù)等)因?qū)癜踩?、基本?quán)利、日常生活構(gòu)成明顯威脅和違反歐盟價值觀,而被禁止應(yīng)用。(2)高風險。此類風險等級的人工智能在某些重點領(lǐng)域應(yīng)用時(如執(zhí)法、關(guān)鍵基礎(chǔ)設(shè)施、公民教育、產(chǎn)品的安全組件和招聘等),可能給人的健康、安全或基本權(quán)利等帶來重大影響,法案對此類人工智能的開發(fā)、部署和應(yīng)用設(shè)置了嚴格的市場準入條件和義務(wù)要求。(3)有限風險。此類風險等級的人工智能應(yīng)用(如情緒檢測、聊天機器人等與人互動的應(yīng)用),提供者應(yīng)履行透明度義務(wù),當用戶生成或操作圖像、音頻、視頻內(nèi)容的人工智能時,須告知或使用戶意識到他們正在與人工智能互動,保障用戶的知情和選擇權(quán),以便用戶能夠?qū)嵤├^續(xù)或中止互動的權(quán)利。(4)低風險。此類風險等級的人工智能(如智能游戲和垃圾郵件過濾系統(tǒng)等),對公民基本權(quán)利、安全產(chǎn)生的風險極小或不會產(chǎn)生風險,一般不設(shè)置干預(yù)措施,無須承擔額外的法律義務(wù)[11]。
立法類型的選擇與歐盟、美國各自的人工智能發(fā)展戰(zhàn)略、目標、產(chǎn)業(yè)發(fā)展實際水平及技術(shù)實力存在密切關(guān)系,但最終目標都是為加強自身的競爭力和技術(shù)主導(dǎo)權(quán)??傮w而言,歐盟重視以監(jiān)管為手段治理有關(guān)技術(shù)風險,美國則強調(diào)監(jiān)管應(yīng)以促進發(fā)展與創(chuàng)新為目的。2022 年9 月,中國科學(xué)技術(shù)信息研究所發(fā)布《2021 全球人工智能創(chuàng)新指數(shù)報告》,指出全球人工智能發(fā)展呈現(xiàn)中美兩國引領(lǐng)、主要國家激烈競爭的總體格局,并將人工智能全球競爭形勢劃分為了四大梯隊,中國和美國位于第一梯隊,而第二梯隊的9 個國家中,包括英國在內(nèi)只有德國、法國3 個歐洲國家入圍。相較于中美兩國,歐盟在全球人工智能領(lǐng)域內(nèi)發(fā)展和運用均沒有處在領(lǐng)先地位,其制定《人工智能法案(草案)》也是希望通過監(jiān)管優(yōu)勢彌補技術(shù)短板不足,并成為中美之外的第三支力量[12]。因此,歐盟以較為強硬的監(jiān)管手段引導(dǎo)人工智能發(fā)展,力圖通過高標準的立法實現(xiàn)發(fā)展與安全的平衡,樹立全球數(shù)字治理標桿。但歐盟《人工智能法案(草案)》至今未能正式出臺,核心爭議問題也正是“監(jiān)管是否會阻礙創(chuàng)新”,且最具爭議的領(lǐng)域是決定哪些人工智能系統(tǒng)屬于“高風險”[13]。
美國則強調(diào)監(jiān)管應(yīng)有助于創(chuàng)新和發(fā)展,監(jiān)管舉措應(yīng)具有科學(xué)性和靈活性,以減少人工智能技術(shù)研發(fā)應(yīng)用中的障礙,維護和強化其在人工智能科學(xué)、技術(shù)和經(jīng)濟等方面的全球領(lǐng)先地位[14]。但美國聯(lián)邦政府的監(jiān)管制度也正向歐盟貼近,即積極主動監(jiān)管人工智能有關(guān)風險,歐盟與美國的人工智能監(jiān)管政策趨向一致。如2020 年12 月,參議員克里斯托弗·庫恩斯(Christopher A.Coons)提出《算法公平法案(草案)》,要求提高在公眾獲得教育、就業(yè)、信貸、醫(yī)療保險和住房等重要機會中的算法公平性[15]。2021 年9 月,參議員羅伯·波特曼(Rob Portman)等人提出《平臺責任和透明度法案(草案)》,要求社交媒體公司向經(jīng)過審查的獨立研究人員和公眾提供訪問某些平臺數(shù)據(jù)的權(quán)限,研究人員將檢查數(shù)據(jù)并發(fā)布有關(guān)平臺對公眾影響的調(diào)查結(jié)果[16]。
立法模式的具體選擇主要分為制定統(tǒng)一的人工智能綜合性立法、分散式立法和附屬立法3 種。第一,綜合性立法,是指制定在人工智能各領(lǐng)域具有普遍適用性,對人工智能相關(guān)問題進行全面規(guī)范,能夠發(fā)揮基本法作用的法律。其優(yōu)勢是有利于人工智能各領(lǐng)域監(jiān)管規(guī)則的協(xié)調(diào)統(tǒng)一,維護法律體系的穩(wěn)定性,但也存在立法內(nèi)容龐雜、成本較高、周期長和規(guī)定較為原則等弊端。第二,分散式立法,是指在多部法律中分別規(guī)定人工智能各制度安排的立法模式。其特點是存在規(guī)定不同人工智能領(lǐng)域內(nèi)容、位階可能是平行的多部法律,如自動駕駛、算法推薦等。其優(yōu)勢在于能夠更加貼合人工智能在不同應(yīng)用場景、技術(shù)領(lǐng)域下的特點,制定具有較強針對性、可操作性的制度。不足之處則是不利于保持人工智能領(lǐng)域立法體系的統(tǒng)一,且由于涉及領(lǐng)域較廣,導(dǎo)致部分領(lǐng)域不能實現(xiàn)周延規(guī)制。第三,附屬立法,是指以現(xiàn)行其他相關(guān)法律規(guī)范為依托,將對人工智能的規(guī)制融入其中。如在個人信息保護法、知識產(chǎn)權(quán)法法律規(guī)范中,設(shè)置人工智能環(huán)境下保護個人信息、知識產(chǎn)權(quán)的具體條款。附屬立法模式雖具有針對性強、易操作的特點,但也呈現(xiàn)出明顯的碎片化弊端,不利于實現(xiàn)人工智能領(lǐng)域立法的系統(tǒng)性、全面性。
歐盟人工智能立法具有突出的“綜合性立法+分散式立法”的特點,構(gòu)建了以《人工智能法案(草案)》為核心,以《數(shù)字市場法》《數(shù)字服務(wù)法》《數(shù)據(jù)治理法》《通用數(shù)據(jù)保護條例》《算法問責及透明度監(jiān)管框架》等為支撐的人工智能立法體系。與歐盟不同,美國人工智能立法則呈現(xiàn)出明顯的“分散式立法”特點。目前,美國聯(lián)邦層面尚未正式出臺統(tǒng)一的人工智能法案,但其圍繞人工智能環(huán)境下的數(shù)據(jù)安全、算法推薦、就業(yè)招聘和自動駕駛等具體領(lǐng)域提出了一系列立法提案。而在州層面,以加利福尼亞州《隱私權(quán)法》為例,其在保護加利福尼亞州居民數(shù)據(jù)隱私權(quán)的同時,也強調(diào)了人工智能自動化決策下的隱私安全問題。由此而言,美國人工智能立法也兼具“附屬立法”的特點。歐盟和美國的立法實踐表明,人工智能立法模式之間并非對立的關(guān)系,根據(jù)自身發(fā)展和治理需求的不同,可以同時采用多種類型的立法模式,以建立健全人工智能領(lǐng)域的法律體系,實現(xiàn)不同立法模式的功能互補。
孕婦去戶外運動,陽光中的紫外線為身體制造出了活化的維生素D3,它可以促進體內(nèi)鈣、磷的吸收和利用。既有利于寶寶骨骼的發(fā)育,又可防止孕媽媽發(fā)生骨質(zhì)疏松。
ChatGPT 軟件推出以后火爆全球,有科技從業(yè)者認為其是通用人工智能的奇點,強人工智能的拐點,甚至將很快產(chǎn)生意識[17]。人工智能法律權(quán)責的認定主要表現(xiàn)為:一是人工智能是否可以成為法律責任主體;二是生成式人工智能完成的作品是否具有可版權(quán)性;三是人工智能侵權(quán)責任如何認定和舉證。
一般認為,根據(jù)智慧等級的高低可以將人工智能劃分為強人工智能與弱人工智能兩類。自1956 年在美國東部城市達特茅斯召開的會議上首次提出“人工智能”一詞以來,經(jīng)過60 余年的發(fā)展,人工智能技術(shù)取得了突飛猛進的發(fā)展。但當前人類社會仍處于弱人工智能時代,即人工智能只可以在人為事先設(shè)定的程序內(nèi)對某些事項獨立做出判斷和決策,并不具有基于自由意志而產(chǎn)生的法律意義上的辨認能力和控制能力,盡管人工智能在某些事項中做出決策的效率和準確性超越了人類,但其之所以能夠?qū)嵤┠承┬袨榛蚧顒?,實質(zhì)上仍是基于人工編程設(shè)計開展的數(shù)學(xué)運算,所體現(xiàn)的是研發(fā)設(shè)計人員或使用人員的意志,無法擁有超越編程之外的自由意志,不具有像人一樣進行理性與感性分析的能力;而強人工智能則是在弱人工智能能力之外,擁有自主意識,能夠根據(jù)自己的意志實施某些行為[18]。本質(zhì)上,弱人工智能只是幫助人類完成某種行為的工具,其并不能成為法律意義上的承擔責任主體。但由于強人工智能“自主意識”的存在,出現(xiàn)了是否應(yīng)賦予強人工智能法律主體地位的爭議。
2016 年5 月,歐盟委員會法律事務(wù)委員會提出“電子人格”動議。2017 年2 月,歐盟議會發(fā)布《歐盟機器人民事法律規(guī)則》,其第59 條f 項指出,從長遠來看,要為機器人確立如電子人(electronic persons)一樣的法律地位,以使機器人可以為其造成的損害負責[19]。賦予機器人“電子人格”實際上就是將其當作“擬制的人”看待,承認其民事法律主體地位,并以此作為機器人承擔相關(guān)法律責任的基礎(chǔ)。但《機器人民事法律規(guī)則》并沒有進一步闡述建構(gòu)機器人法律人格的具體方法和法理依據(jù),該“電子人格”動議也受到了來自多方的質(zhì)疑。
1999 年7 月,美國發(fā)布的《統(tǒng)一計算機信息交易法》提出了“電子代理人”概念,即不需要人的審查或操作,而能用于獨立地發(fā)出、回應(yīng)電子記錄,以及部分或全部的履行合同的計算機程序或其他自動化手段[20]。同年8 月通過的《統(tǒng)一電子交易法》也延續(xù)了“電子代理人”這一概念,在此之前該法使用的是“電子設(shè)施”(electronic device)一詞,但根據(jù)這兩部立法中的“定義”條款,法律所指稱的“人”為自然人或法人,并不包括“電子代理人”[21]。2005 年11 月聯(lián)合國通過的《國際合同使用電子通信公約》中,對能夠完成上述“電子代理人”功能的系統(tǒng)采用了“自動電文系統(tǒng)”的表述[22]。
以ChatGPT 為代表的生成式人工智能以大模型、大數(shù)據(jù)為基礎(chǔ),能夠根據(jù)關(guān)鍵詞或少量描述語句自動生成文章、圖片等多種類型的生成物。但在知識產(chǎn)權(quán)層面如何認定此類生成物的版權(quán),成為國際社會面臨的共同問題。
2020 年10 月,歐洲議會通過《關(guān)于人工智能技術(shù)發(fā)展知識產(chǎn)權(quán)的決議》,對相關(guān)人工智能知識產(chǎn)權(quán)問題進行了解釋。其中第15 條指出,在遵守與自然人相關(guān)的原創(chuàng)性原則的前提下,因“智力創(chuàng)作”的概念涉及作者的人格,由機器人自主創(chuàng)作的作品可能不符合版權(quán)保護的條件[23]。可以看出,歐洲議會傾向于認定人工智能創(chuàng)作的作品不具有可版權(quán)性,但其在條文中使用了“可能”(might)一詞,這也說明最終是否具有可版權(quán)性,還存在一定的不確定性。
2023 年3 月16 日,美國版權(quán)局發(fā)布《版權(quán)登記指南:包含人工智能生成材料的作品》文件,依據(jù)人工智能生成作品的創(chuàng)作過程是否存在人類的關(guān)鍵介入,將版權(quán)問題的討論分為了兩種類型[24]:一是完全由人工智能生成的作品不受版權(quán)法保護。美國《憲法》和《版權(quán)法》中使用的“作者”一詞范圍并不包括非人類,所登記作品的作者應(yīng)當為人類。如果作品的傳統(tǒng)身份要素(如對文學(xué)、藝術(shù)、音樂內(nèi)容的表達、選擇、編排等)是由機器構(gòu)思和完成時,就不滿足作者應(yīng)是“人類”的法定要求。同時,完全由人工智能自動生成的作品在創(chuàng)作的整個過程中,也缺乏人工在關(guān)鍵創(chuàng)作步驟中的參與,并指出之所以通過圖像處理軟件(Adobe Photoshop)進行創(chuàng)作的圖片作品受版權(quán)保護,是因為體現(xiàn)了人從作品構(gòu)思到完成的全流程參與。早在2018 年美國版權(quán)局就已經(jīng)收到關(guān)于人工智能作品版權(quán)的登記申請,但最終其以作品完全沒有體現(xiàn)人的創(chuàng)新性作用而拒絕了申請。二是由人和人工智能共同完成的作品存在納入版權(quán)法進行保護的空間。如人類可以具有足夠創(chuàng)造性的方式編排人工智能生成的內(nèi)容,進而產(chǎn)生一個整體構(gòu)成原創(chuàng)的作品。在此情況下,版權(quán)只保護由人類創(chuàng)作的、“獨立于”且“不影響”人工智能生成內(nèi)容本身版權(quán)狀態(tài)的部分。版權(quán)的認定應(yīng)強調(diào)人創(chuàng)造性地控制了作品的表達程度和實際形成作者身份的傳統(tǒng)要素的程度。
隨著人工智能技術(shù)在社會各領(lǐng)域的廣泛應(yīng)用,產(chǎn)生的侵權(quán)問題也逐漸增多,有關(guān)如何劃分責任、修復(fù)受破壞社會關(guān)系的爭議不斷出現(xiàn)。作為歐盟打造人工智能法律體系的重要組成部分,2022 年9 月歐盟通過了《人工智能責任指令(草案)》(AILD)和《產(chǎn)品責任指令(修訂草案)》(PLD)。AILD擬就人工智能導(dǎo)致的侵權(quán)責任提供認定規(guī)則,并允許消費者對造成的相關(guān)損害提出索賠,PLD 則將產(chǎn)品責任的適用范圍指向所有人工智能產(chǎn)品。AILD 規(guī)定,人工智能產(chǎn)品的開發(fā)者、提供者和使用者應(yīng)對其導(dǎo)致的損害承擔賠償責任,承擔責任的形式主要包括過錯責任、產(chǎn)品責任、嚴格責任和替代責任,值得注意的是,在嚴格責任情況下,行為人即使沒有違反任何注意義務(wù)或也非因產(chǎn)品缺陷導(dǎo)致事故,亦應(yīng)對受害方進行賠償,該責任類型主要適用于高風險類別的人工智能,但目前對于高風險的劃分標準尚不是很清晰[25]。
同時,AILD 還引入了“因果關(guān)系推定”和“獲取證據(jù)權(quán)利”兩項保障規(guī)則。
“因果關(guān)系推定”需要滿足兩個方面的條件:一是受害人能夠證明被告人沒有盡到法定的謹慎義務(wù)時,即可認定被告人存在過錯;二是在被告人存在過錯的情況下,受害人又能夠證明損害是由人工智能所導(dǎo)致的。此時,法院即可推定被告人的過錯與人工智能造成的損害之間存在合理的因果關(guān)系?!矮@取證據(jù)權(quán)利”則為當損害是由高風險人工智能造成時,在受害人請求下,法院可以要求系統(tǒng)制造者、提供者和使用者等披露相關(guān)證據(jù);當向被告收集證據(jù)未果時,原告也可要求非被告的系統(tǒng)供應(yīng)者、使用者提供證據(jù)[26]。但有觀點指出,根據(jù)指令(特別是AILD),受害人仍承擔舉證責任,復(fù)雜的人工智能系統(tǒng)故障難以被證明,相應(yīng)的損害因果關(guān)系假設(shè)也不易被建立,AILD 只為受害人提供了有限的程序上的便利;而根據(jù)PLD,發(fā)生物質(zhì)性損害是尋求賠償?shù)那疤幔@就導(dǎo)致因智能信用評分系統(tǒng)導(dǎo)致?lián)p害時,可能因不能滿足“物質(zhì)性傷害”的要求而使得受害人難以獲得賠償[27]。
為引導(dǎo)人工智能健康的可持續(xù)發(fā)展,在治理技術(shù)研發(fā)、應(yīng)用的相關(guān)風險方面,中國也在積極開展立法探索。從2020 年至2022 年,人工智能立法已經(jīng)連續(xù)3 次被納入全國人大常委會年度立法工作計劃,體現(xiàn)了國家層面對人工智能立法工作的持續(xù)推動。同時,通過人工智能具體領(lǐng)域和地方立法實踐,也積累了較為豐富的經(jīng)驗。整體上,中國人工智能立法呈現(xiàn)以人工智能具體領(lǐng)域分散式立法與附屬立法相結(jié)合、地方立法先行先試、促進型立法與規(guī)范型立法兼具的特點。
第一,人工智能尚未得到綜合性立法。在當前人工智能綜合性立法缺失的情況下,中國圍繞自動駕駛、算法技術(shù)、數(shù)據(jù)安全、個人信息保護及人工智能司法應(yīng)用等領(lǐng)域頒布實施了一系列法律法規(guī),具有明顯的分散式立法與附屬立法相結(jié)合的特點。例如,在自動駕駛和數(shù)據(jù)安全領(lǐng)域,2021 年8 月,國家互聯(lián)網(wǎng)信息辦公室、國家發(fā)展和改革委員會、工業(yè)和信息化部、公安部、交通運輸部聯(lián)合發(fā)布《汽車數(shù)據(jù)安全管理若干規(guī)定(試行)》,對涉及智能(網(wǎng)聯(lián))汽車的數(shù)據(jù)安全問題進行了規(guī)定。在個人信息保護領(lǐng)域,2021 年11 月1 日,中國正式施行了首部專門的《個人信息保護法》,其中對自動化決策環(huán)境下的個人信息保護提出了重要要求。
第二,人工智能地方立法先行先試。2022 年9 月6 日,深圳市公布了中國首部人工智能產(chǎn)業(yè)專項立法——《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》(以下簡稱《深圳人工智能條例》);9 月22 日,上海市通過中國首部省級人工智能產(chǎn)業(yè)發(fā)展立法——《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》(以下簡稱《上海人工智能條例》)。這兩部立法為破解人工智能產(chǎn)品落地難問題做出了重要努力,并將倫理治理作為促進產(chǎn)業(yè)可持續(xù)發(fā)展的關(guān)鍵舉措,是人工智能立法探索形成的有益成果。
第三,以技術(shù)要素為特點的人工智能法律定義。盡管中國國家層面對于人工智能法律定義尚未做出規(guī)定,但以《深圳人工智能條例》和《上海人工智能條例》為代表的地方性立法對此進行了探索。前者將人工智能界定為“利用計算機或者其控制的設(shè)備,通過感知環(huán)境、獲取知識、推導(dǎo)演繹等方法,對人類智能的模擬、延伸或者擴展”;后者則指出人工智能是“利用計算機或者計算機控制的機器模擬、延伸和擴展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)”。二者皆強調(diào)了人工智能的技術(shù)特征,具有防止規(guī)制范圍泛化的特點,這與歐盟和美國人工智能法律定義的傾向具有相似性。
第四,規(guī)范型立法與促進型立法兼具。2022 年3 月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,對利用算法技術(shù)向用戶提供互聯(lián)網(wǎng)信息服務(wù)的算法推薦活動做出相應(yīng)規(guī)制。同年11 月,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,進一步劃定了深度合成服務(wù)的“底線”和“紅線”,以加強對新技術(shù)、新應(yīng)用、新業(yè)態(tài)的管理,推進深度合成技術(shù)依法合理規(guī)范發(fā)展和有效利用。而《深圳人工智能條例》和《上海人工智能條例》則具有顯著的“促進”和“發(fā)展”特點,是關(guān)于人工智能產(chǎn)業(yè)的促進型立法。
第五,人工智能不具有法律主體地位。盡管在理論上,中國一些學(xué)者認為未來應(yīng)賦予人工智能法律主體地位,但根據(jù)現(xiàn)行的法律制度,人工智能并不具有這種主體地位。因此,其在法律上既不享有相關(guān)權(quán)利,也不承擔相關(guān)義務(wù),完全由人工智能創(chuàng)作的作品不具有可版權(quán)性,因人工智能應(yīng)用而導(dǎo)致的各種侵害責任均由自然人或法人承擔。
歐盟和美國作為全球開展人工立法的典型代表,擁有較為豐富的立法研究和實踐經(jīng)驗。同歐盟和美國相比,中國人工智能立法實踐既與二者具有一定的相似性(如人工智能法律定義的界定思路),也具有明顯的差異性(如立法模式的選擇)。中國應(yīng)立足國情和人工智能立法發(fā)展現(xiàn)狀,在完善人工智能法律體系、制定綜合性立法和合理確定涉人工智能法律權(quán)責等方面做出努力。
人工智能的法律定義事關(guān)立法的調(diào)整范圍。歐盟和美國關(guān)于人工智能法律定義的界定,為中國提供了重要思考:既要避免定義的不當寬泛和限縮,也要保證定義具有一定的前瞻性、靈活性。過于寬泛的定義可能將一般性的傳統(tǒng)信息技術(shù)不當納入人工智能立法的調(diào)整范圍,沒有體現(xiàn)人工智能的技術(shù)本質(zhì)。而過于限縮的定義則可能使得監(jiān)管范圍局限于人工智能全生命周期中的部分階段,缺乏對人工智能全流程、全生命周期的監(jiān)管覆蓋。同時,具有一定前瞻性、靈活性的人工智能法律定義,能夠較好地適應(yīng)人工智能技術(shù)未來快速發(fā)展的需求。
因此,在中國人工智能立法探索中,應(yīng)以深圳、上海等既有人工智能立法經(jīng)驗為基礎(chǔ),從人工智能的本質(zhì)及其未來發(fā)展兩個方面入手,以人工智能技術(shù)本質(zhì)特征為核心,防止調(diào)整范圍的“一刀切”,結(jié)合人工智能發(fā)展和社會治理需求,構(gòu)建合理、邏輯嚴密又具有適當靈活性的人工智能法律定義。同時,為保障人工智能領(lǐng)域法律定義適用的穩(wěn)定性、協(xié)調(diào)性,建議參照歐盟的立法策略,綜合運用不同位階的法律法規(guī)和政策,做好“人工智能”定義在人工智能法律法規(guī)以及相關(guān)政策制度體系中的銜接和協(xié)調(diào)。
當前,在立法類型上,中國已經(jīng)具備了促進型立法和規(guī)范型立法兼具的立法體系雛形。但根據(jù)中國人工智能發(fā)展的現(xiàn)實情況、未來發(fā)展需求以及世界科技競爭形勢,為維護發(fā)展與安全的協(xié)調(diào),促進型與規(guī)范型立法體系應(yīng)進一步完善。
一是繼續(xù)堅持人工智能立法既是規(guī)范也是保障的理念。從法律功能來看,立法既具有禁止、限制行為主體實施某些行為的規(guī)范作用,也具有固根本、穩(wěn)預(yù)期、利長遠的保障作用。立法可為人工智能提供發(fā)展邊界上的指引,防止出現(xiàn)粗放式生長和灰色地帶,促進其健康可持續(xù)發(fā)展。促進型立法與規(guī)范型立法的出現(xiàn)與“人工智能發(fā)展與治理需求共存”這一特征密切相關(guān)。人工智能既具有賦能社會數(shù)字化轉(zhuǎn)型和高質(zhì)量發(fā)展的巨大作用,同時也可能引發(fā)一些新的風險或加劇已有的風險,從惠益社會發(fā)展和帶來風險挑戰(zhàn)兩個方面重塑了社會發(fā)展結(jié)構(gòu),提出了新的治理要求。因此,基于國家發(fā)展需求,兩種類型的人工智能立法都具有存在的現(xiàn)實依據(jù)。
二是進一步完善促進型與規(guī)范型立法兼具的人工智能法律體系。從歐盟和美國已有的大量人工智能法律(提案)來看,二者都沒有采取單一的促進型立法或規(guī)范型立法,而是采取兩種立法類型并存的形式。同時,僅依靠一部或少數(shù)幾部人工智能立法難以滿足現(xiàn)實及未來發(fā)展的需求,以致出現(xiàn)“促進有余而規(guī)范不足”或“規(guī)范有余而促進不足”的情況。應(yīng)通過構(gòu)建涵蓋整個人工智能領(lǐng)域、覆蓋人工智能全生命周期的立法體系,形成不同性質(zhì)法律的功能互補。
三是通過兩種類型的立法維護發(fā)展與安全的協(xié)調(diào)。發(fā)展是最大的安全,發(fā)展中的問題應(yīng)在發(fā)展中解決,立法應(yīng)具有適當?shù)那罢靶浴.敱O(jiān)管與人工智能的快速發(fā)展相沖突時,可能會破壞人工智能惠益社會,甚至阻礙中國人工智能蓬勃發(fā)展的勢頭。在規(guī)范發(fā)展方面,可借鑒歐盟《人工智能法案(草案)》經(jīng)驗,以風險為導(dǎo)向,合理劃分風險等級,構(gòu)建可以動態(tài)調(diào)整的治理機制,實現(xiàn)發(fā)展靈活性和監(jiān)管確定性需求的平衡。在促進發(fā)展方面,對于人工智能領(lǐng)域的新技術(shù)和應(yīng)用,既要給予一定的發(fā)展時間,根據(jù)實際發(fā)展現(xiàn)狀和其他政策適用情況總結(jié)經(jīng)驗,再考慮是否需要法律介入的問題。同時,也要積極通過立法固化成熟治理經(jīng)驗,為人工智能健康可持續(xù)發(fā)展營造良好法治環(huán)境。
綜合性立法、分散式立法和附屬立法3 種立法模式各具特色,但單一模式并不能完全契合人工智能現(xiàn)實發(fā)展需求,實現(xiàn)3 種立法模式的綜合,構(gòu)建“總(綜合性立法)+分(重點領(lǐng)域立法、附屬立法)”(“1+N”)的立法模式,較符合中國的國情。
基于人工智能不同領(lǐng)域立法需求的差異性,應(yīng)積極通過建立健全分散式立法,及時、有效地防控領(lǐng)域內(nèi)的重大風險,且按照急用先行原則,可先行結(jié)合人工智能領(lǐng)域的特點,開展交通、醫(yī)療、算法和數(shù)據(jù)等領(lǐng)域的專門立法。而鑒于人工智能的影響力和覆蓋領(lǐng)域的廣泛性,其也存在諸多共性治理問題,如立法價值取向、基本定義、治理原則、治理框架和法律一般適用程序等,涉及人工智能基礎(chǔ)研究、設(shè)計制造、場景應(yīng)用和法律責任等諸多內(nèi)容。因此,為維護整個人工智能領(lǐng)域立法體系的穩(wěn)定性與協(xié)調(diào)性,制定一部具有人工智能基本法地位的綜合性法律,符合中國人工智能立法的戰(zhàn)略部署要求。同時,還可通過完善其他既有法規(guī)規(guī)范,如在個人信息保護、數(shù)據(jù)安全和知識產(chǎn)權(quán)等領(lǐng)域進行附屬立法,進一步強化人工智能環(huán)境下具體領(lǐng)域中有關(guān)權(quán)益的保護力度,共塑人工智能領(lǐng)域法律體系。
建立健全人工智能問責制是構(gòu)建人工智能法律治理邏輯閉環(huán)的重要環(huán)節(jié)。在未來有關(guān)人工智能侵權(quán)責任問題的認定上,可從以下幾個方面進行考慮:
一是繼續(xù)秉持人工智能不應(yīng)成為法律責任主體的立場,由其導(dǎo)致的任何法律責任都應(yīng)由自然人或法人承擔,不應(yīng)通過立法賦予人工智能法律責任主體地位。否則,當前以“人”為主體建立的法律關(guān)系將面臨顛覆的危險,影響現(xiàn)行法律框架,并可能對人類社會未來可持續(xù)生存發(fā)展的安全帶來威脅。二是完全由人工智能創(chuàng)造的作品權(quán)利不能歸屬于人工智能本身,但在現(xiàn)行知識產(chǎn)權(quán)法框架下,有關(guān)權(quán)利是否能夠直接歸屬于研發(fā)設(shè)計、擁有、控制或使用人工智能的自然人或法人也不能一概而論,可借鑒美國版權(quán)局的做法,通過個案分析人在創(chuàng)作過程中的參與程度,確定是否享有相關(guān)權(quán)利。三是應(yīng)結(jié)合不同主體在人工智能全生命周期中參與的方式和發(fā)揮的作用,讓所有參與人工智能設(shè)計研發(fā)、制造和使用等過程的主體分擔責任,建立清晰的法律責任主體認定機制,準確界定研發(fā)者、生產(chǎn)者、銷售者、使用者和監(jiān)管者等不同主體的責任。四是探索人工智能(尤其是高風險人工智能)侵權(quán)責任認定時的合理舉證機制,個人對復(fù)雜人工智能系統(tǒng)的認識程度一般較低,受到傷害時可能難以及時有效舉證,通過舉證責任倒置等途徑降低對用戶的舉證要求。
目前,全球人工智能發(fā)展進入新一輪躍升期,人工智能立法也已被列入《國務(wù)院2023 年度立法工作計劃》,制定一部具有前瞻性、可操作性和指引性,且符合中國人工智能現(xiàn)實發(fā)展需求的法律正當其時。作為人工智能立法中的關(guān)鍵問題,人工智能的法律定義界定、立法類型和模式選擇以及法律權(quán)責認定,將對鼓勵人工智能技術(shù)健康發(fā)展,以及探索人工智能法治化治理路徑產(chǎn)生重要影響。■