国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論歐盟《人工智能法案》中的標準化模式及對我國啟示

2024-06-19 16:03:52張辛鑫冀瑜
標準科學 2024年5期

張辛鑫 冀瑜

摘 要:2024年3月13日,經(jīng)歐盟議會全會投票,正式通過了全球首個人工智能領域的綜合性立法《人工智能法案》。本文對該法案的制定背景、規(guī)范體系與其中涉及標準化的內(nèi)容進行了分析。該法案通過設置1025/2012號條例準用性條款,為法律適用提供了大范圍、開放的標準“接口”,一方面可一定程度彌合人工智能技術與法律條款之間的鴻溝,另一方面標準化法規(guī)也為歐盟未來人工智能的標準化治理提供了法律保障。此外,本文結合該法案中標準與法律的互通機制提出了我國未來人工智能的治理建議,以供參考。

關鍵詞:《人工智能法案》,人工智能治理,準用性條款,人工智能技術標準

DOI編碼:10.3969/j.issn.1674-5698.2024.05.006

0 引 言

近年來,人工智能技術助推了人類的生產(chǎn)力發(fā)展,也挑戰(zhàn)著傳統(tǒng)社會規(guī)范中的各類固有倫理與價值取向。例如:OpenAI推出的生成式人工智能正在重塑人類的創(chuàng)作方式,卻導致了作品權屬混亂;而“不透明”的神經(jīng)網(wǎng)絡嵌入各類私權領域雖然有利于社會效益,也同樣引發(fā)了隱私焦慮、歧視、產(chǎn)品安全等問題。如何精準引導人工智能技術于可控、符合人類價值的“安全屋”中參與良性市場競爭、有序提高生產(chǎn)力水平、引領數(shù)字經(jīng)濟發(fā)展已是我國人工智能領域的重要議題。2021年10月中共中央、國務院《國家標準化發(fā)展綱要》提到我國需要“建立健全大數(shù)據(jù)與產(chǎn)業(yè)融合標準,推進數(shù)字產(chǎn)業(yè)化和產(chǎn)業(yè)數(shù)字化。”數(shù)字經(jīng)濟時代,人工智能伴隨著規(guī)模拓展可持續(xù)賦能各產(chǎn)業(yè),推動數(shù)字化變革,其應用不僅可加速信息傳遞,提高整體社會經(jīng)濟運行效率,也可通過需求端刺激提高供給端品質,以數(shù)字化賦能助推我國供給側結構性改革[1]。因此,落實產(chǎn)業(yè)數(shù)字化離不開健全的人工智能生態(tài),這有賴于法律、標準等社會規(guī)范的保障。

1 歐盟《人工智能法案》概

述歐盟委員會執(zhí)行副主席兼競爭專員瑪格麗特·維斯塔格(Margrethe Vestager)評價人工智能時曾表示:“在人工智能領域,公眾信任是必須存在的,而對其進行監(jiān)管和規(guī)制是建立這些信任的最佳方式。只有存在具有里程碑式的監(jiān)管規(guī)則,才能確保人工智能值得信任。”正是在這種邏輯之下,《人工智能法案》提案應運而生,充分體現(xiàn)了歐盟在人工智能領域試圖引領全球秩序的意圖[2]。

1.1 歐盟《人工智能法案》的制定背景

《人工智能法案》首次提出可追溯至2021年4月。其宗旨是以全面、符合人類倫理的方式監(jiān)管人工智能,法案內(nèi)容包括對人工智能系統(tǒng)安全性、透明度、可追溯性、公平性、道德標準的評估,同時涉及人工智能系統(tǒng)合規(guī)監(jiān)管、執(zhí)法與司法審查等[3]。在研討初期,部分業(yè)內(nèi)人士曾就該法案的“超前監(jiān)管”傾向產(chǎn)生過較大分歧,如:有觀點認為人工智能仍處于極速發(fā)展階段,過早進行綜合性立法落實嚴苛的法律責任有礙技術的創(chuàng)新與發(fā)展,根據(jù)“比利時智庫歐洲國際政治經(jīng)濟中心(EuropeanCentre for International Political Economy)”2018年數(shù)據(jù)顯示,歐盟因為科技公司的事前監(jiān)管已導致了850億歐元的GDP和10 0 0億歐元的消費者福利損失[4]。除此之外也有觀點指出該法案中的許多合規(guī)要求在當前歐盟根本沒有技術土壤,其出臺嚴格的綜合性立法只是為了打造全球“示范效應”削弱其他國家在人工智能領域的領先優(yōu)勢[5]。例如:德國工業(yè)聯(lián)合會(Bundesverband derDeutschen Industrie,BDI)認為,歐洲在人工智能技術領域面臨落后風險,其負責人艾里斯·普洛格也表示,該法案并不成熟,給市場主體只會帶來更多的不確定性[6]。這些觀點也與部分國家類似,英國即表現(xiàn)出不急于在綜合性立法層面采取措施的姿態(tài),而是傾向于在現(xiàn)有個人隱私、數(shù)據(jù)安全等法律下尋求治理人工智能。然而,至2022年末,隨著ChatGP T迅速風靡全球,加快推進了該法案的立法進程。歐盟委員會認為以人工智能風險為導向,落實分級監(jiān)管有助于消弭綜合立法嚴苛責任帶來的負面影響。經(jīng)過長時間談判,2023年6月,歐洲議會以高票通過了《人工智能法案》草案。2024年1月19日,歐盟委員會、歐洲議會和歐盟理事會公布了定稿的《人工智能法案》(朱悅,2024),并于2024年2月2日經(jīng)歐盟27國代表一致通過。2024年3月13日,隨著該法案最終于法國斯特拉斯堡歐盟議會全會上取得523票贊成,46票反對,49票棄權的壓倒性結果,正式開啟了全球人工智能領域綜合立法的序幕。

《人工智能法案》距離真正生效僅余程序性流程,包括:歐盟理事會正式批準、刊憲公布、刊憲20日后生效等,這些對《人工智能法案》已不再有實質影響[7 ]。換言之,以當前版本的《人工智能法案》在整個歐盟分階段實施只是時間問題。

1.2 歐盟《人工智能法案》的規(guī)范體系

作為平衡技術創(chuàng)新與合規(guī)監(jiān)管的產(chǎn)物,《人工智能法案》以基于現(xiàn)行歐盟法律、準用現(xiàn)有產(chǎn)品質量標準的規(guī)范體系得以出臺。前者表現(xiàn)為法案立法說明存在大量宣示遵循歐盟現(xiàn)行法律的表述。例如:(9)指出“……根據(jù)其采取的新立法框架的方法,不應影響現(xiàn)有的聯(lián)盟法律?!币约埃?5)“數(shù)據(jù)保護法、非歧視法、消費者保護法和競爭法等歐盟立法所禁止的實踐不受本條例影響?!?/p>

而后者的產(chǎn)品質量標準準用機制,主要體現(xiàn)于以下3點。(1)第4 0條準用1025/2012號條例范圍內(nèi)的標準,旨在為人工智能的合規(guī)審查提供替代性選擇,如果人工智能系統(tǒng)提供者能夠證明自己符合準用的現(xiàn)行歐洲標準或其他通用規(guī)則,可以被視為符合法案規(guī)定[8];(2)第48條提出通過傳統(tǒng)“CE”標識,代表高風險人工智能技術取得合規(guī)認證;“CE”指“Conformite-Europeenne”,以往用作宣示產(chǎn)品安全性已達到歐盟《技術協(xié)調(diào)與標準化新方法》(T he New Appr oa ch totechnical harmonization and standardization)指令要求,也是歐盟境內(nèi)產(chǎn)品流通的基本資格;(3)法案允許人工智能提供者的質量管理體系與歐洲現(xiàn)行質量管理體系認證內(nèi)容(例如:ISO 9 0 0 0標準族)可存在交叉與互補。例如:法案立法說明(81)指出“如果相關的歐盟部門法有義務構建質量管理體系,本條例規(guī)定的質量管理體系要素可作為其他歐盟部門法規(guī)定的現(xiàn)有質量管理體系的一部分。在未來的標準化與歐盟委員會出臺的相關指南中,應從本條例與現(xiàn)行歐盟部門法的內(nèi)容互補層面予以考慮?!?/p>

2 《人工智能法案》中標準化的主要功能

歐盟《人工智能法案》作為全球首個人工智能領域的綜合性立法,以“硬規(guī)制”模式吸納了標準與法律的互通機制:其不僅從法律層面針對人工智能風險分級、人工智能技術創(chuàng)新、人工智能產(chǎn)品安全等方面進行了詳細規(guī)定,條款也涉及大量的標準化措施。標準與法律在該法案中處于相互融合、彼此支撐的狀態(tài),顯示出了較強的具體化傾向。

2.1 通過準用標準化法規(guī)落實人工智能風險分級

《人工智能法案》風險分級主要基于人工智能技術對公民權利的影響力評估展開,分為“低風險”“中風險”“高風險”以及“不可接受風險”。

其中,“低風險”指的是如:AI 電子郵箱垃圾過濾,電子游戲AI腳本等,此類人工智能技術不受法案干預;“中風險”包括與人類行為相關的情緒識別,生物特征分類等,法案要求該風險層次的實施者或部署者應當履行明確、詳盡的透明度義務,以確保消費者或技術使用人事前的風險規(guī)避與監(jiān)管部門的事后問責;“高風險”則為有關人體生命安全、健康以及其他公民基本權利等內(nèi)容,法案要求這類技術投放前必須經(jīng)過嚴格的認證評估并張貼“CE”標識、使用高質量的數(shù)據(jù)集訓練、全程記錄可追溯等,“不可接受風險”被完全禁止任何形式的實踐與投放,如:運用歧視性、欺騙性等明顯不可接受傾向性的技術或相關技術已超越了人類意識等(寧宣鳳,吳涵等,2023)。

在落實風險分級機制中,《人工智能法案》立法說明(9)提出人工智能系統(tǒng)的市場投放、所遵循的“協(xié)調(diào)規(guī)范”應適用于各個部門;而(121)直接明確“標準化應當發(fā)揮至關重要的作用——‘統(tǒng)一標準是判定人工智能符合該法案要求的手段之一。”根據(jù)法案第3條(27)“統(tǒng)一標準”為依據(jù)歐洲1025/2012號條例制定的“協(xié)調(diào)標準”,即歐盟委員會提出的,應用于歐盟協(xié)調(diào)立法要求而被采用的歐洲標準。法案準用的1025/2012號條例整合了歐洲標準化中的制定機構(如:CEN、CENELEC、ETSI等),審議流程、標準管理以及經(jīng)費資助等一系列從標準立項、起草、咨詢、發(fā)布等相關細則[9]。所謂準用,是指法律本身并未詳細規(guī)定假定條件或行為模式,而是設置指向性條款援引或參照其他規(guī)范[10]?!度斯ぶ悄芊ò浮愤\用1025/2012號條例設置準用性條款,可將現(xiàn)有標準與新標準予以涵攝。例如:2023年5月22日,歐盟委員會發(fā)布了一項涉及歐洲標準化委員會(CEN)和歐洲電工標準化委員會(CENELEC)的新標準請求,其中附件2就包含“人工智能風險管理體系”[11]。如果該標準得以出臺,也可屬于《人工智能法案》的標準準用范圍。因此,這種覆蓋范圍極廣的準用性規(guī)則有助于充分整合標準、通用規(guī)則資源支撐《人工智能法案》具體適用,從而作為人工智能風險分級與合規(guī)監(jiān)管的重要依據(jù)之一。

2.2 通過標準的補充與延伸作用劃分法律概念的邊界

標準對法律概念邊界劃分作用在歐盟《人工智能法案》中充分體現(xiàn)。法律和標準本質均為追求社會秩序的規(guī)范,這是標準對法律產(chǎn)生作用的基礎,法律通過應為或不應為調(diào)整人的行為,而標準則是從科學的角度以秩序化方法對事物進行客觀性解釋,可用作補充與延申法律概念的工具[12]。在《人工智能法案》中,標準起到了“但書”作用,明晰了法律概念的邊界。例如:立法說明(29)認為禁止實踐的人工智能操縱性技術如:運用于心理疾病的治療、精神病康復等符合醫(yī)療標準的,則不屬于禁止情形;標準劃分法律概念并不限于第5條這類較為概括性的條款,在“高風險人工智能技術”這類列舉式條款中也在列。例如:其附件3雖然已運用大量列舉的方式盡可能窮盡“高風險人工智能”概念的內(nèi)涵與應用領域,但鑒于法律的一般抽象性,執(zhí)行中仍需運用標準術語明確法律概念的邊界:因而在(53)中,法案可委任歐盟委員會進一步提供具體的執(zhí)行細則,并附上全面、可實踐的高風險人工智能案例清單,以排除“高風險人工智能”法律概念中的例外情形。通過標準細則對法律概念的補充與延申,能依據(jù)實踐需要精準劃定法律概念的邊界,將法律要求落實到具體場景,避免“一刀切”式監(jiān)管阻礙技術創(chuàng)新。

2.3 靈活適用“統(tǒng)一標準”與“共同規(guī)格”形成動態(tài)、開放的技術規(guī)范

《人工智能法案》主要通過設置兩種準用性條款實現(xiàn)統(tǒng)一的人工智能技術規(guī)范。(1)借助1025/2012號條例第2條第1款c項“協(xié)調(diào)標準”形成的“統(tǒng)一標準”。(2)指向1025/2012號條例第2條第4款的“共同規(guī)格”——指規(guī)定產(chǎn)品、過程、服務或系統(tǒng)的技術規(guī)范,可包括產(chǎn)品所要求的特征,包括質量、性能、互操作性、環(huán)境保護、健康、安全或尺寸水平,以及產(chǎn)品的名稱、術語、符號、測試等。不過兩者并非全有或全無般適用,而是包含了動態(tài)的實踐考量。其中,“共同規(guī)格”的規(guī)范性效力可能后置于“統(tǒng)一標準”。例如:立法說明(121)提到如果“統(tǒng)一標準”不適用于解決人工智能法律中的問題時,“共同規(guī)格”作為次級規(guī)范應為備選方案,同時第41條(6)允許各成員國可提議調(diào)整“共同規(guī)格”相關法案的實施。此外,由于現(xiàn)行標準于人工智能領域可能存在適用障礙且難以一一對應至最新技術,因此法案還授予歐盟委員會可另行制定標準或其他次級規(guī)范的權限,為多種技術細則的靈活嵌入保留了法律層面的“接口”。

2.4 構建統(tǒng)一標準的人工智能沙盒,探索“剛柔并濟”的規(guī)制手段

人工智能監(jiān)管沙盒作為支持人工智能技術創(chuàng)新的主要內(nèi)容,是《人工智能法案》一項創(chuàng)新性舉措,法案要求生效后24個月內(nèi)歐盟各成員國都應于本國境內(nèi)至少建立一個沙盒,并要求各成員國互認測試結果。沙盒遵循統(tǒng)一的標準向歐盟境內(nèi)人工智能技術主體開放,鼓勵人工智能技術主體(特別是中小微企業(yè))參與測試技術風險,以便技術主體能通過自評估獲悉實施風險。該措施一方面尊重了人工智能技術主體的創(chuàng)新訴求,避免法案的直接干預。另一方面也為監(jiān)管部門提供了靈活的監(jiān)管手段。例如:法案規(guī)定了沙盒測試應接受監(jiān)管部門的“柔性”指導,如果人工智能實施主體積極根據(jù)沙盒測試結果履行相應的風險規(guī)避義務并接受指導,則不應再受到行政處罰;不過法案并不放棄“硬規(guī)制”,提到監(jiān)管部門的強制手段不受到沙盒測試內(nèi)容的影響,如果沙盒內(nèi)的人工智能技術風險已顯著超越了法案的可接受范圍,監(jiān)管部門可單方面宣布暫時或永久終止沙盒測試,并允許直接依法給予相應的處罰。

3 歐盟《人工智能法案》對我國人工智能治理的啟示

3.1 我國人工智能算法領域的法律適用仍需具體細則支撐

2021年8月,我國通過《個人信息保護法》樹立了“以人為本”、監(jiān)管人工智能算法的核心框架。同年9月《新一代人工智能倫理規(guī)范》、12月《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》以及2023年8月七部門聯(lián)合出臺的《生成式人工智能服務管理暫行辦法》共同構成了我國針對人工智能算法的基本法律體系。然而,與歐盟立法相比,我國在具體實施中仍有可完善空間。例如:在透明度方面,《人工智能法案》立法說明(2)指出,人工智能系統(tǒng)的開發(fā)和使用應當具有一定的可追溯性與可解釋性,部署者或開發(fā)者需要將人工智能交互、交流過程中的風險性與局限性告知受影響者。同時法案在附件11、12中針對通用人工智能系統(tǒng)透明度提出了具體、詳盡的要求,包括完整的技術指標與保存義務等。而我國《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》第4條雖然也明確了透明度義務,同時第24條規(guī)定了具有輿論屬性或社會動員能力的算法推薦服務提供者應在法定期限內(nèi)通過互聯(lián)網(wǎng)信息服務算法備案系統(tǒng)履行備案手續(xù)。但是我國當前資訊推薦類算法服務備案更似單純形式審查,備案內(nèi)容并未得到監(jiān)管部門實質認可;而且,部分備案過程為了兼顧商業(yè)秘密保護,信息收集多采用“選項式”,所致技術細節(jié)“顆粒度”較大[13]。從備案平臺部分公開信息來看,與透明度關聯(lián)的算法原理與運行機制介紹存在寬泛的“術語堆砌”現(xiàn)象,例如:“Transformer 架構”“tf-serving服務”“i 2i 召回”“onli ne l ear ni ng+分鐘級”等。不僅可能導致普通公眾難以理解,也不利于監(jiān)管部門問責時的可追溯性與可解釋性。隨著我國已完成各類立法,實現(xiàn)其中的法律宗旨不宜僅依賴法律規(guī)范,面向標準化實踐探索可實施細則將更有實際價值[14]。

3.2 制定通用人工智能技術標準需具備一定的普適性與靈活性

(1)由于通用人工智能技術(AGI)的衍生性可應用于不同領域,其標準化需要具有一定普適性?!度斯ぶ悄芊ò浮氛J為通用人工智能系統(tǒng)有能力服務于各種目的,除了本身風險也可能作為其他高風險人工智能的組成部分,在風險分級方面需要考慮通用人工智能的預期用途。例如:自然語言處理(NLP)Bert與XLnet模型既可應用于智能家居、移動設備也可應用于車輛控制。雖然所涉領域風險不同,但AGI使用的神經(jīng)網(wǎng)絡規(guī)律很可能具有相似性。鑒于我國當前立法模式已趨向依據(jù)算法的不同應用領域(例如:有學者認為《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》第2條定義的“應用算法推薦技術”非技術本身,應是算法技術的應用領域之一[15]。)落實分類監(jiān)管。如果標準化繼續(xù)采用分類模式,一方面易產(chǎn)生重復性指標,引起標準立項、起草、評估等資源的虛耗;另一方面也可能增加人工智能系統(tǒng)實施者于不同應用領域的合規(guī)成本。

因此,2024年1月17日,由工信部發(fā)布的《國家人工智能產(chǎn)業(yè)綜合標準化體系建設指南(征求意見稿)》中,擬將未來待完善的人工智能標準體系分為“基礎共性”“基礎支撐”“關鍵技術”“智能產(chǎn)品與服務”“行業(yè)應用”“安全/治理”6個大類(如圖1所示)?!白匀徽Z言處理”等AGI被置于“關鍵技術”范疇。然而,如何協(xié)調(diào)“關鍵技術”作為不同“智能產(chǎn)品與服務”或“行業(yè)”的技術組成部分后維持標準體系的簡潔、有效,仍需進一步明確。歐盟《人工智能法案》通過對1025/2012號條例的準用,旨在將現(xiàn)有標準通過“符合性評估”大規(guī)模適用于人工智能,如此可一定程度避免通用技術標準于不同應用領域的重復制定,也能為技術主體提供多種可以互相替代的合規(guī)準則。對采用分類式監(jiān)管的我國具有一定的參考價值。

(2)人工智能技術標準化需要兼顧技術的快速發(fā)展,基于傳統(tǒng)產(chǎn)品質量邏輯構建人工智能標準有一定滯后性,需要依據(jù)具體實踐靈活更新技術規(guī)范條款。例如:歐盟《人工智能法案》暫時將超越人類思維、潛意識的人工智能技術定義為“不可接受風險”。但據(jù)《Nature》2023年10月的一項研究成果顯示,運用特殊方法ML C(Met a-Learning for Compositionality)訓練的神經(jīng)網(wǎng)絡已經(jīng)具有類似人類思維的“系統(tǒng)泛化”能力,可實現(xiàn)“舉一反三” [16 ]。由此產(chǎn)生的決策可進一步逼近人類,未來甚至可能參照人類思維產(chǎn)生欺騙性意圖,從而脫離產(chǎn)品開發(fā)者的掌控。責任落實層面,具備強大“系統(tǒng)泛化”能力的人工智能技術已不屬于單純的“產(chǎn)品”范疇。所以,人工智能相關規(guī)范制定需要依據(jù)技術發(fā)展予以及時調(diào)整。歐盟《人工智能方案》的應對措施是制定法定審查節(jié)點推進整體條款的持續(xù)修訂,例如:立法說明(174)將法案整體的審查、評估節(jié)點定為初次生效后5年與此后的每4年。而我國則可考慮合理運用推薦性標準修改、制定較寬松的特點,滿足人工智能技術變化的監(jiān)管需求。

3.3 加強人工智能治理領域標準與法律的互通機制人工智能領域的標準與法律的互通可以有兩種模式,一是以法律直接引用標準賦予單個標準強制力;二是如《人工智能法案》與1025/2012號條例一般通過法律準用標準化法規(guī),此模式不僅可以推動現(xiàn)行各類標準的準用,還能拓展出一條開放的標準化路徑,使法律融合標準以進一步適應AGI適用范圍廣、技術變化快等特點。

(1)可考慮運用法律引用標準,落實部分特殊應用領域標準的強制執(zhí)行力,促成“剛柔并濟”

的規(guī)制模式。歐盟《人工智能法案》要求“中、高風險人工智能”必須履行強制的透明度義務。其中“高風險”涉及公民生命、健康的部分與我國《標準化法》第10條第1款具有相似性。在我國《標準化法》第10條語境中,涉及人身健康和生命財產(chǎn)安全人工智能產(chǎn)品理應制定強制性標準。然而,即如前文所述由于人工智能系統(tǒng)的通用性特征,針對某一特定應用領域制定強制性標準宜采取審慎態(tài)度。同時我國GB/T 1.1-2020《標準化工作導則 第1部分:標準化文件的結構和起草規(guī)則》[17]也指出,標準不應涉及條款使用者的權利義務或法律責任。所以,結合人工智能技術動態(tài)的標準強制力需求與落實法律責任兩方面考量,構建合理的法律引用“柔性”標準模式是兼顧人工智能應用領域多樣化的最佳選擇。因為在我國標準化實踐中“當法律規(guī)定國家標準、行業(yè)標準、地方標準或者籠統(tǒng)地表述為國家有關標準時,其中的推薦性標準依法也具有與強制性標準一樣的效力[18]?!崩纾骸短胤N設備安全法》第8條規(guī)定“特種設備生產(chǎn)、經(jīng)營、使用、檢驗、檢測應當遵守有關特種設備安全技術規(guī)范及相關標準,”其中“相關標準”為GB/T 7588.2-2020[19]此類國家推薦性標準賦予了法律的強制力。

(2)我國在未來人工智能立法中,可考慮構建《標準化法》相關細則的準用機制,落實更廣泛的標準化治理并通過法律保障人工智能標準化的實施。根據(jù)《標準化法》第3條,標準化是“制定標準、組織實施標準以及對標準的制定、實施進行監(jiān)督?!蓖ㄟ^準用《標準化法》于人工智能領域的相關細則(例如:《國家人工智能產(chǎn)業(yè)綜合標準化體系建設指南(征求意見稿)》中的6類標準),一可協(xié)調(diào)現(xiàn)有標準于人工智能領域的實施,落實標準準用機制;二可將人工智能領域新標準制定相關的立項、起草、咨詢等注意點予以明確,為人工智能未來的標準化工作提供法律保障。此時,被準用的《標準化法》相關細則在我國人工智能治理領域可與1025/2012號條例產(chǎn)生類似的作用,為法律適用保持開放機制以便于技術規(guī)范的嵌入。

3.4 發(fā)揮現(xiàn)代標準治理中的協(xié)同性優(yōu)勢

現(xiàn)代標準治理主要邏輯之一即協(xié)同性,在標準制定(不同主體協(xié)商形成共識)與實施中都發(fā)揮著重要作用(因“外部壓力”下對共識的自覺遵守)[20]。而人工智能治理同樣是需要不同層次主體協(xié)同參與的現(xiàn)代事務,其中的風險分級、透明度等問題不僅涉及技術主體的市場競爭,還可能包含平衡私權保護與公共利益、創(chuàng)新型國家政策落實等多重因素。歐盟《人工智能法案》立法說明(121)指出“法案鼓勵所有利益相關主體,尤其是小微型企業(yè)、消費者組織以及環(huán)境和社會利益相關方共同參與到標準制定,以落實多方利益平衡?!诼鋵崢藴驶髸r,委員會應充分咨詢?nèi)斯ぶ悄茏稍冋搲c理事會,收集相關專業(yè)知識。”這種鼓勵各方主體充分參與標準制定的做法能調(diào)動各類人工智能技術主體的積極性,使之充分參與凝聚“共識”,從而制定認可度更高的“最佳秩序”。這也與我國《標準化法》第2條第2款的立法宗旨,以及《國家人工智能產(chǎn)業(yè)綜合標準化體系建設指南(征求意見稿)》中“加強人工智能全產(chǎn)業(yè)鏈標準化工作協(xié)同,加強跨行業(yè)、跨領域標準化技術組織的協(xié)作,打造大中小企業(yè)融通發(fā)展的標準化模式?!钡囊笠恢?。一方面鼓勵多方參與形成的“柔性”標準既能在特定法律場景中運用法律引用賦予強制力,且不影響其他場景中的各類主體的自主意愿;另一方面也可依靠標準協(xié)商落實我國人工智能風險分級、透明度程度、合規(guī)審計細則等內(nèi)容。從而避免自上而下的“剛性”法律或強制性標準過度介入,尊重人工智能技術主體的創(chuàng)新訴求。

4 結 語

歐盟《人工智能法案》標準化治理圖景非常豐富,(1)該法案充分發(fā)揮了標準對法律概念的補充與延申作用,為人工智能法律概念的界分與細化提供了具體規(guī)則;(2)通過法律層面對標準化法規(guī)的準用機制也貫通了歐盟未來人工智能技術領域的標準化路徑。作為全球第一個人工智能領域的綜合性立法對于我國具有一定參考價值。

首先,人工智能治理需要關注技術的發(fā)展,考慮到法律法規(guī)的普遍滯后性與一般抽象性,實現(xiàn)立法宗旨難以僅依靠法律規(guī)范。而標準與法律同屬社會規(guī)范工具,兩者在促進人工智能技術創(chuàng)新、風險分級、合規(guī)審查等領域可發(fā)揮協(xié)同作用。因此,我國在未來出臺人工智能相關立法時可參考《人工智能法案》體例,為技術標準保留準用性“接口”,以便在必要時可通過標準術語界分與銜接法律概念,支撐法律適用。其次,宜將推薦性標準作為我國人工智能領域標準制定的優(yōu)先層級,運用推薦性標準配合部分場景的法律引用可滿足人工智能于不同場景、不同強制力的動態(tài)治理需求,在保障法制穩(wěn)定的基礎上兼容人工智能技術的發(fā)展與創(chuàng)新。最后,可考慮在未來人工智能相關立法中準用《標準化法》于該領域的相關細則,為人工智能標準化治理提供堅實的法律保障。

參考文獻

肖旭,戚聿東. 產(chǎn)業(yè)數(shù)字化轉型的價值維度與理論邏輯[J].

改革, 2019(08):61-70.

吳沈括,胡然. 歐盟《人工智能法》提案的背景與意義[EB/

OL].(2021-05-07)[2024-03-05],https://www.secrss.com/

articles/31034.

高榮偉. 歐盟推出《人工智能法案》[J]. 檢察風云, 2024

(04): 44-45.

曾雄,梁正,張輝. 歐盟人工智能的規(guī)制路徑及其對我國

的啟示——以《人工智能法案》為分析對象[J]. 電子政務,

2022,(09):63-72.

張伯超. 歐盟《人工智能法案》簡析及對我國的啟示[J].上

海信息化, 2023,(08):51-53.

賈平凡. 歐盟人工智能立法取得進展[N]. 人民日報海外

版, 2023-12-14(006).

朱悅譯. 2021/0106 (COD) 關于歐洲議會和歐盟理事會制

定有關人工智能的統(tǒng)一規(guī)則(《人工智能法》)以及修訂

若干聯(lián)盟立法的建議[Z]. 2024.

寧宣鳳,吳涵,等. 路未央, 花已遍芳——歐盟《人工智能法

案》主要監(jiān)管及激勵措施評述[EB/OL]. (2023-08-03)[2024-

03-01], https://mp.weixin.qq.com/s/VMSAOuWYlg4U8_

LcJocIGw.

杜曉燕,王益誼,劉輝. 歐洲議會和歐盟理事會1025/2012

號歐洲標準化法規(guī)解析[J]. 標準科學, 2013(3):88-92.

張鵬. 概括準用規(guī)則的合法性研判與規(guī)范化設置——以

燃放煙花爆竹行為的拘留處罰為例[J]. 政治與法律, 2018

(05):65-75.

洪延青. 歐盟AI法案中的標準化需求和制定流程簡

述[EB/OL].(2023-11-14)[2024-03-02],https://mp.weixin.

qq.com/s/l59M-8zt_bWsAx1sowUtyw.

柳經(jīng)緯. 標準與法律釋論[M]. 廈門:廈門大學出版社,

2022:8-20.

程瑩. 面向監(jiān)管的算法透明及其實現(xiàn)[C].//算法治理之算

法透明度編委會.算法治理制度之算法透明度(張凌寒

主編)北京:中國工商出版社,2023:67-75.

劉維.算法透明度和可解釋性的理論與制度之辯[C].//算

法治理之算法透明度編委會.算法治理制度之算法透明

度(張凌寒主編)北京:中國工商出版社,2023:32-45.

靳雨露. 算法透明的演進歷程與制度構建[C].//算法治理

之算法透明度編委會.算法治理制度之算法透明度(張

凌寒主編)北京:中國工商出版社,2023:14-31.

Lake, B.M., Baroni, M. Human-like systematic generalization

through a meta-learning neural network[J].Nature623, 115–

121 (2023).

GB/T 1.1-2020, 標準化工作導則 第1部分:標準化文件的

結構和起草規(guī)則[S].

柳經(jīng)緯. 標準的類型劃分及其私法效力[J]. 現(xiàn)代法學,

2020,42(02):157-170.

GB/T 7588.2-2020, 電梯制造與安裝安全規(guī)范 第2部分:

電梯部件的設計原則、計算和檢驗[S].

王平,侯俊軍,梁正. 標準的力量—工業(yè)和社會治理的規(guī)則

[M]. 湖南:湖南大學出版社,2023:103-107.

上林县| 仁怀市| 高雄县| 台南市| 大悟县| 北宁市| 安西县| 安溪县| 张掖市| 璧山县| 海城市| 安丘市| 南投县| 永吉县| 龙江县| 方正县| 日照市| 桐梓县| 西安市| 陕西省| 乃东县| 璧山县| 宜州市| 大冶市| 泰顺县| 繁峙县| 哈密市| 平塘县| 诏安县| 中宁县| 肇东市| 合山市| 葫芦岛市| 永仁县| 潜山县| 东安县| 德钦县| 玉树县| 日喀则市| 房山区| 萨嘎县|