国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

歐美人工智能監(jiān)管模式及政策啟示

2025-02-20 00:00:00張文康薛周一
新西部 2025年1期
關(guān)鍵詞:人工智能監(jiān)管系統(tǒng)

近年來,隨著人工智能技術(shù)的快速更新迭代發(fā)展,尤其是以美國OpenAI公司為首的人工智能企業(yè)推出ChatGPT、Sora等生成式人工智能后,人工智能的工作效率、創(chuàng)造力與日俱增。然而,由高性能AI衍生出的人工智能風險,諸如對個人權(quán)利的僭越、草莽式的信息收集、愈發(fā)突出的倫理問題等,也帶來了行政管理領(lǐng)域新的監(jiān)管難題。由于歐美人工智能發(fā)展領(lǐng)先的客觀原因,其監(jiān)管模式也領(lǐng)先于其他國家。因此,期望通過詳細討論歐美人工智能監(jiān)管模式,著重解析歐盟于2024年2月通過的《人工智能法》[1],從原則目標、監(jiān)管模式、監(jiān)督機制和促進發(fā)展等角度,總結(jié)歐美模式的優(yōu)勢,取長補短形成新式的人工智能監(jiān)管的中國方案。

各國的人工智能監(jiān)管模式往往是通過一個或多個法律性文件構(gòu)建起來的,而中國在人工智能監(jiān)管方面的相關(guān)法律較少,僅有2023年8月15日由國家互聯(lián)網(wǎng)信息辦公室牽頭開始實施的《生成式人工智能服務(wù)管理暫行辦法》這一法律法規(guī)以及《新一代人工智能治理原則》和《人工智能產(chǎn)業(yè)發(fā)展三年行動計劃》兩份倡導性文件,且《暫行辦法》過于籠統(tǒng),存在監(jiān)管漏洞。為了促進中國現(xiàn)有人工智能產(chǎn)業(yè)規(guī)范化發(fā)展,未來孵化更多新興的人工智能企業(yè),吸收“窮舉無遺”的歐盟監(jiān)管模式和“大力推動創(chuàng)新”的美國監(jiān)管模式的經(jīng)驗是必要的,期望在歐美各有側(cè)重的監(jiān)管模式之中探尋出一條適合中國本土的中庸之道。

人工智能發(fā)展及其監(jiān)管的濫觴

人工智能(Artificial Intelligence,縮寫為AI)是一門新興的技術(shù)科學,旨在研究和開發(fā)能夠模擬、延伸和擴展人類智能的理論、方法、技術(shù)及應用系統(tǒng)。它結(jié)合了計算機科學、數(shù)學、心理學、哲學等多學科的理論和技術(shù),通過讓計算機模擬人類的思考和行為過程,實現(xiàn)人機交互,提高計算機的智能水平,以更好地服務(wù)于人類社會。

人工智能的發(fā)展及其監(jiān)管的演進是一個相輔相成的動態(tài)過程。隨著人工智能技術(shù)的快速發(fā)展,其在各個領(lǐng)域的應用也愈發(fā)廣泛,從而引發(fā)了對人工智能可能帶來的風險和挑戰(zhàn)的關(guān)注,進而推動了監(jiān)管措施的制定和完善。有60多個國家發(fā)布了人工智能政策文件[2],重新審視這些人工智能政策并分析其差異是必要的,其可以幫助我國人工智能監(jiān)管政策迅速渡過幼稚期。

(一)傳統(tǒng)人工智能與生產(chǎn)式人工智能

歐盟委員會的《通信報告》將人工智能定義為:“人工智能(AI)是指通過分析環(huán)境并采取具有一定程度的自主性的行動來實現(xiàn)特定目標來展示智能行為的系統(tǒng)”[3]。傳統(tǒng)人工智能主要依賴編程指令來執(zhí)行特定的任務(wù)。例如,一個圖像識別系統(tǒng)可能被訓練成只識別特定的圖像類型,如貓或狗。一旦這個系統(tǒng)遇到它從未見過的圖像,它就無法做出正確的判斷。這是因為傳統(tǒng)AI的學習方式和能力有限,它們通常只能在其訓練數(shù)據(jù)的范圍之內(nèi)進行工作,無法適應和處理新的或復雜的數(shù)據(jù)類型。

然而,生成式AI則展現(xiàn)出了完全不同的特性。國家網(wǎng)信辦《生成式人工智能服務(wù)管理暫行辦法》將生成式人工智能技術(shù)定義為具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)[4]。它并不依賴于預先定義的規(guī)則或模式,而是通過自我學習和適應來改進其性能。即使面對從未見過的數(shù)據(jù)類型,生成式AI也可以通過分析大量的類似數(shù)據(jù)來學習如何處理這種數(shù)據(jù)。這種自我學習和適應的能力使得生成式AI在許多復雜的任務(wù)中表現(xiàn)出色。

隨著人工智能的跨越式發(fā)展,基于人工智能的產(chǎn)品和服務(wù)的市場也在快速膨脹,人工智能賦能其他產(chǎn)業(yè)具有龐大的未來市場。據(jù)市場情報公司The International Data Corporation估計,全球人工智能市場將在2022-2026年期間達到18.6%的復合年增長率(CAGR),到2026年達到9000億美元的峰值[5]。

(二)人工智能產(chǎn)品或服務(wù)潛在的風險

除了人工智能的潛力之外,它也正在成為具有威脅的技術(shù)應用的一個突出例子,尤以法律風險及倫理風險為甚。法律風險主要體現(xiàn)在“數(shù)據(jù)來源合法性問題、生成不良虛假或違法信息問題、數(shù)據(jù)泄露的法律風險等”[6];倫理風險主要來源于少數(shù)群體歧視問題、公民自由意志的不良誘導問題、無序監(jiān)控與無端揣測問題等。

(三)歐美等國現(xiàn)行人工智能監(jiān)管模式

歐盟《人工智能法案》秉持了歐洲一貫的法律的詳盡性追求及對人權(quán)倫理的關(guān)切,該法案經(jīng)國內(nèi)法學領(lǐng)域相關(guān)學者翻譯后長達14萬字,《法案》對生產(chǎn)生活中的方方面面都進行了預演與討論,力求構(gòu)建出一個具體的、可持續(xù)的、可執(zhí)行的人工智能監(jiān)管模式。自人工智能興起以來,歐洲學者對于人工智能倫理的爭論不絕于耳,《法案》也能體現(xiàn)出歐洲學者的倫理追求,主要集中在如何確保人工智能技術(shù)的研發(fā)和應用過程中,能夠充分尊重和保護人權(quán)、隱私,同時避免產(chǎn)生不公平、歧視等倫理問題。

美國的監(jiān)管風格強調(diào)“弱”監(jiān)管和“軟”治理,旨在增強美國在人工智能領(lǐng)域的科技和經(jīng)濟領(lǐng)導地位,為人工智能技術(shù)的發(fā)展掃除不必要的障礙。這種策略允許更多的創(chuàng)新和靈活性,同時也為AI發(fā)展提供了更大的空間。美國的監(jiān)管法案更加注重行業(yè)自律和自我監(jiān)督。為此,美國政府鼓勵企業(yè)制定自己的AI倫理準則并通過內(nèi)部審核和自我監(jiān)督的方式來減少人工智能的倫理風險,同時美國還注重與學術(shù)機構(gòu)和非營利組織的合作,期望這些組織機構(gòu)能夠推動人工智能產(chǎn)業(yè)的系統(tǒng)性、透明性監(jiān)管。

我國法律學者關(guān)于人工智能法律的觀點可將其大致區(qū)分為“人工智能法律”(AI法律)和“法律人工智能”(法律AI)兩大類型,厘清它們的不同立場、方向和路徑,進而探討“第三道路”的可行性,對推進當下人工智能與法律的深入研究無疑具有重要意義[7]。

目前世界上一部分主流國家的人工智能監(jiān)管法案(如表1):

歐美人工智能監(jiān)管模式的內(nèi)容

人工智能是恐懼的來源,特別是對人權(quán)的尊重需要一個非常精細的法律和道德環(huán)境,以避免減緩人工智能的發(fā)展[8],細致恰當?shù)谋O(jiān)管往往可以促進技術(shù)的發(fā)展。歐盟逐步形成《人工智能法》為核心的監(jiān)管模式,美國則由《人工智能政策法案》《人權(quán)法案》《數(shù)字權(quán)利法案》共同構(gòu)成了人工智能領(lǐng)域的監(jiān)管框架。

(一)歐盟《人工智能法》

2024年1月19日,歐盟委員會、歐洲議會和歐盟理事會共同完成了《人工智能法》的定稿,對全球范圍內(nèi)人工智能乃至整個數(shù)字經(jīng)濟的發(fā)展來說,這一立法具有非同尋常的重要性[9]。

1、原則及目標

《人工智能法案》(以下簡稱《法案》)系為改善市場的運作而制定的統(tǒng)一的法律框架,歐盟期望該法案可促成遵循倫理原則,即透明度;正義、公平和平等;非惡意;責任和問責制的人工智能應用[10],同時確保對健康、安全和對《歐盟基本權(quán)利憲章》所規(guī)定的基本權(quán)利的高度保護,包括民主、法治以及環(huán)境的保護,防止人工智能系統(tǒng)在歐洲內(nèi)產(chǎn)生有害的影響,并且支持人工智能領(lǐng)域的創(chuàng)新與就業(yè),從而使得歐盟成為采用可信人工智能的領(lǐng)導者,使歐洲在AI浪潮中最大獲利。

《法案》認為AI投放不應影響現(xiàn)有的法律法規(guī),尤以數(shù)據(jù)保護、消費者保護、基本權(quán)利、就業(yè)與工人保護、產(chǎn)品安全為重。為了從人工智能中獲利并實現(xiàn)民主的控制,“人工智能素養(yǎng)”應當為提供者、部署者、受影響者具備,以便他們就人工智能系統(tǒng)做出“知情”的決定?!叭斯ぶ悄芩仞B(yǎng)”可包括了解人工智能系統(tǒng)開發(fā)階段技術(shù)要素的正確應用、使用過程中應采取的措施、解釋人工智能系統(tǒng)輸出結(jié)果的適當方式,了解在人工智能協(xié)助下做出的決定將如何影響他們所需的知識。同時,為了確保正確地執(zhí)行本條例,人工智能素養(yǎng)應是人工智能價值鏈中的所有相關(guān)參與者的必備素質(zhì)。未來,人工智能賦能的信息檢索將成為用戶獲取信息的主導模式[11]??深A見的是,廣泛普及人工智能素養(yǎng)是公民在人工智能時代生活的必備素質(zhì),極大改變各行各業(yè)及居民的衣食起居。

本世紀以來,人工智能在軍事領(lǐng)域最具革命性,被認為將推動新軍事變革[12],歐盟為保證人工智能在國防軍事領(lǐng)域的充分發(fā)展,被用于國防軍事領(lǐng)域的AI不在本法案管理范圍之內(nèi),但相關(guān)活動仍須遵守國際公法及其余法律條約。

《法案》同樣注重科技創(chuàng)新,充分尊重學術(shù)自由,不應損害人工智能研發(fā)活動,因此,有必要將專門為科學研究和開發(fā)目的而開發(fā)和投入使用的人工智能系統(tǒng)和模型排除在其范圍之外,為其適時適度“開綠燈”。

2、約束力規(guī)則

約束力規(guī)則系《法案》構(gòu)建人工智能監(jiān)管的核心,為了對人工智能系統(tǒng)采用一套成比例和有效的具有約束力的規(guī)則,應遵循明確界定的基于風險的方法?!斗ò浮犯鶕?jù)人工智能系統(tǒng)可能產(chǎn)生的風險的強度和范圍,采用基于風險評估等級的方法,明確界定出三級具體的監(jiān)管方法:(1)有必要明令禁止某些不可接受的人工智能實踐活動。(2)規(guī)定高風險領(lǐng)域人工智能系統(tǒng)的要求和相關(guān)AI運營商的必須遵守的義務(wù)。(3)規(guī)定人工智能系統(tǒng)都應具有的透明度義務(wù)。

歐盟期望通過分級別的約束力規(guī)則促成值得人類信賴的、符合倫理道德的以人為本的人工智能,為此歐盟高級別專家組制定了七項人工智能倫理原則,包括:人類主體和監(jiān)督;技術(shù)穩(wěn)健性和安全性;隱私和數(shù)據(jù)治理;透明度;多樣性、非歧視和公平;社會和環(huán)境福祉以及問責制。

一是明令禁止的人工智能活動。歐盟首先在法案中嚴令禁止了人工智能在多個領(lǐng)域的不當應用,具體包括:利用人工智能進行操縱、剝削及社會控制,這些活動嚴重侵犯人的尊嚴、自由、民主與法治等價值觀;誘導人們做出違背自我意志的行為或決定,損害人們的自主決策和自由選擇權(quán);基于個人生物識別數(shù)據(jù)進行政治觀點、宗教或哲學信仰、種族、性取向等方面的推斷,嚴重侵害個人隱私權(quán);為自然人提供社會評分,可能導致歧視性結(jié)果,侵犯人的尊嚴和不受歧視的權(quán)力;在公共場合對自然人進行“實時”生物鑒別,破壞個人隱私權(quán)及自由;在沒有客觀事實證明的情況下,使用人工智能對自然人進行犯罪風險評估,違反“無罪推定”原則;在教育、工作領(lǐng)域利用人工智能進行情緒推斷,可能導致人們受到有害或不利的待遇。此外,還禁止了其他法律法規(guī)所禁止的實踐行為。

在詳盡無遺的狹義列舉外,只有在相關(guān)部門審核授權(quán)后,才可在相關(guān)領(lǐng)域進行實踐活動。例如實時生物監(jiān)控,只能用于特定被事實驗證的目標對象,并且對監(jiān)控行為進行嚴格的規(guī)定。

二是高風險領(lǐng)域人工智能系統(tǒng)活動。高風險人工智能系統(tǒng)只有在符合特定的強制性要求的情況下才能投入市場或使用。高風險人工智能應用主要集中在可能對人的健康和安全產(chǎn)生不利影響及對《憲章》所保護的基本權(quán)利產(chǎn)生不利影響的領(lǐng)域。

具體的高風險人工智能應用場景,包括生物識別技術(shù),特別是遠程生物識別系統(tǒng),以及基于敏感或受保護屬性或特征進行生物鑒別分類和情感識別的人工智能系統(tǒng)。此外,還有服務(wù)于供水、供電、供暖管理和運行的安全組件,以及用于道路交通的人工智能系統(tǒng),這些都被視為重要數(shù)字基礎(chǔ)設(shè)施的關(guān)鍵組成部分。教育和職業(yè)培訓、就業(yè)及工人管理、自然人獲得和享受基本公共服務(wù)和福利等領(lǐng)域也廣泛涉及高風險人工智能應用。同時,執(zhí)法部門及移民、庇護和邊境控制管理部門活動領(lǐng)域,以及司法和民主進程領(lǐng)域也是高風險人工智能應用的重要方面。

三是透明度義務(wù)。為了確??勺匪菪耘c透明度,人工智能系統(tǒng)的開發(fā)者、部署者應當履行透明度義務(wù),在人工智能系統(tǒng)投入使用前向行政主管機構(gòu)提交此系統(tǒng)的評估文件、使用說明,且有義務(wù)在歐盟數(shù)據(jù)庫中登記該系統(tǒng),以便后續(xù)由人工智能委員會進行指導與監(jiān)管。

非高風險領(lǐng)域的人工智能系統(tǒng)的提供者應確保將與自然人直接互動的人工智能系統(tǒng)的設(shè)計和開發(fā)方式應使有關(guān)自然人知道他們正在與一個人工智能系統(tǒng)互動。應確保從一個合理知情、善于觀察和謹慎的自然人的角度來看,考慮到使用的情況和場景,使得自然人能夠意識到“自己正與人工智能交互”。

高風險領(lǐng)域的人工智能系統(tǒng)應至少確保其操作具有足夠的透明度,使部署者能夠解釋系統(tǒng)的輸出并加以適當使用。同時應當提交使用說明,包括提供者及其授權(quán)代表的身份和聯(lián)系方式;公布高風險人工智能系統(tǒng)的特點、能力和性能限制;其預期目的;所需的計算和硬件資源,高風險人工智能系統(tǒng)的預期壽命,以及任何必要的維護和保養(yǎng)措施,以確保該人工智能系統(tǒng)的正常運行;按規(guī)定適當?shù)厥占Υ婧徒忉屓斯ぶ悄芟到y(tǒng)的工作日志。

3、各主體的監(jiān)管措施

為了落實約束力規(guī)則的方方面面,真正實現(xiàn)對人工智能系統(tǒng)的監(jiān)管,歐盟的監(jiān)管模式主體分為各國政府或行政組織,人工智能系統(tǒng)價值鏈各參與者以及第三方監(jiān)督。

一是國家政府或行政組織的監(jiān)督。各國政府應當設(shè)立一個專業(yè)的機構(gòu)用以人工智能監(jiān)管,包括審核人工智能系統(tǒng)的市場準入審查、長期監(jiān)督、高風險領(lǐng)域人工智能使用場景許可的發(fā)放、公開數(shù)據(jù)的集中存儲管理等等;建設(shè)“監(jiān)管沙盒”,用于人工智能在開發(fā)和上市前階段建立受控實驗和測試環(huán)境來促進人工智能創(chuàng)新,以確保創(chuàng)新的人工智能系統(tǒng)符合本條例?!氨O(jiān)管沙盒”模型起源于英國金融監(jiān)督管理局在2015年提出的新監(jiān)管理念,近年來英法等國已相繼展開數(shù)據(jù)監(jiān)管沙盒空間的嘗試?!氨O(jiān)管沙盒”可以真實地模擬人工智能的應用環(huán)境,進而為人工智能系統(tǒng)提供進行創(chuàng)新迭代實驗及監(jiān)督實驗的安全的測試空間。發(fā)放“CE”標志。此行動類似于羅斯福行政時期推行《全國工業(yè)復興法》時期的“藍鷹標志”,符合《法案》要求的高風險人工智能系統(tǒng)應當懸掛“CE”標志,從而便于被人工智能系統(tǒng)受眾辨別。標注“CE”也更有利于人工智能系統(tǒng)在市場中的流通,不得對帶有“CE”標志的人工智能系統(tǒng)設(shè)置不合理的市場準入障礙。

二是人工智能系統(tǒng)價值鏈各參與者(即開發(fā)者、分銷者、部署者等)。任何一個人工智能系統(tǒng)都需要一個自然人作為法人為其負責。人工智能系統(tǒng)價值鏈參與者應當在系統(tǒng)開發(fā)同時設(shè)計出風險管理系統(tǒng),其應當是個長期的可重復的系統(tǒng)。風險管理系統(tǒng)需識別風險或不利影響,并針對已知和可預見的不利情況預設(shè)應急措施。保存記錄和提供技術(shù)文件,尤其包含評估人工智能系統(tǒng)是否符合相關(guān)要求和促進市場后監(jiān)測所需的信息。掌握關(guān)于高風險人工智能系統(tǒng)如何開發(fā)及其在整個生命周期中如何運行的信息,對于實現(xiàn)這些系統(tǒng)的可追溯性、核實是否符合本條例的要求以及監(jiān)測其運行情況和市場后監(jiān)測至關(guān)重要。

三是第三方監(jiān)督。此處的第三方機構(gòu)是較于行政機關(guān)與人工智能企業(yè)外的第三方監(jiān)測機構(gòu),鑒于高風險人工智能系統(tǒng)的風險程度,需要為其制定一套適當?shù)暮细裥栽u估程序,即所謂的第三方合格性評估。因此,作為一般規(guī)則,此類系統(tǒng)的合格性評估應由提供者自行負責進行。

(二)美國2018人工智能政策法案

2018年美國頒布了人工智能政策法案[13],旨在通過建立一個專門的人工智能中心來協(xié)調(diào)和推動聯(lián)邦政府在人工智能領(lǐng)域的活動,并提供相關(guān)培訓、資源和技術(shù)援助。

1、核心內(nèi)容

一是新興技術(shù)政策實驗室。法案SEC.3授權(quán)在總務(wù)管理局(GSA)內(nèi)設(shè)立新興技術(shù)政策實驗室來建議和促進聯(lián)邦政府的努力,以確保政府使用新興技術(shù),包括人工智能,符合公眾的最大利益以及提高聯(lián)邦機構(gòu)規(guī)則制定和新興技術(shù)使用的凝聚力和能力。該部分第一條職責規(guī)定新興技術(shù)政策實驗室定期召集來自行政機構(gòu)、工業(yè)界、聯(lián)邦實驗室、非營利組織、高等教育機構(gòu)和其他實體的個人,討論新興技術(shù)的最新發(fā)展,包括傳播有關(guān)聯(lián)邦機構(gòu)的項目、試點和其他倡議的信息,以及這些技術(shù)的最新趨勢和相關(guān)信息。此舉旨在促進不同部門和機構(gòu)之間的合作和信息交流,以推動新興技術(shù)的發(fā)展和應用。

二是咨詢委員會。法案SEC.4要求署長設(shè)立一個咨詢委員會,就與政策實驗室的使命和職責相關(guān)的問題向署長提供咨詢意見,并告知政策實驗室的優(yōu)先事項和項目。每年,該咨詢委員會應在一個公開網(wǎng)站上公布一份清單,列出聯(lián)邦政府內(nèi)部需要改進的領(lǐng)域,這些領(lǐng)域?qū)⑹芤嬗陬~外的技術(shù)或技術(shù)政策專門知識。

三是職業(yè)體系。SEC.6向人事管理廳下達指令,其必須確定與人工智能相關(guān)職位所需的關(guān)鍵技能和能力,并且建立一個職業(yè)體系,或修改現(xiàn)有的職業(yè)體系,以包括與人工智能相關(guān)的主要職責的職位。

2、爭議與策略

目前,美國關(guān)于人工智能監(jiān)管的爭論主要集中在是否需要成立一個全新的聯(lián)邦機構(gòu)來專門負責。OpenAI和微軟支持成立一個新的監(jiān)管機構(gòu),認為這有助于更系統(tǒng)、更全面地監(jiān)管人工智能技術(shù)的發(fā)展和應用。而谷歌傾向于反對成立新機構(gòu),認為應該利用現(xiàn)有的機構(gòu)來進行人工智能的監(jiān)管。

《人工智能政策法案》旨在通過設(shè)立實驗室來協(xié)調(diào)和促進聯(lián)邦政府在人工智能領(lǐng)域的努力,強調(diào)增強已有機構(gòu)的功能而非創(chuàng)造全新的管理機構(gòu)實體。不難看出,對比歐盟采取的更為嚴格和全面的監(jiān)管方法,美國政府在人工智能監(jiān)管方面的立場仍然較為保守,強調(diào)采取非監(jiān)管措施,如政策指南或框架、行業(yè)內(nèi)自愿的共識標準等,而不是法律強制性措施。這種策略旨在保持技術(shù)創(chuàng)新的靈活性與自由,同時試圖通過現(xiàn)有的機構(gòu)和結(jié)構(gòu)來應對新興技術(shù)帶來的挑戰(zhàn)。

與聯(lián)邦政府不干預的做法相反,一些美國城市已經(jīng)推出了自己的措施來減輕人工智能的潛在道德危害。最近備受矚目的例子包括舊金山弗朗西斯科2019年暫停政府使用面部識別技術(shù),以及波特蘭私營部門禁止使用相同的技術(shù)[14]。這些地方性法規(guī)的出臺顯示了各州在道德和安全方面的積極努力。然而,由于缺乏統(tǒng)一的國家法規(guī),各州之間的標準存在巨大差距,人工智能監(jiān)管力度在不同地區(qū)存在顯著差異。

對中國的政策啟示

2024年3月18日,中國初創(chuàng)公司月之暗面官宣其旗下的Kimi智能助手啟動內(nèi)測,該公司系2023年10月首次推出該助手,僅僅半年便成長為國內(nèi)第一款AI大模型,中國本土人工智能公司迎頭追上,相關(guān)鼓勵與監(jiān)管措施應當跟進。

(一)激勵政策

人工智能大模型的算法編寫、模型迭代、運行成本等每一步都需要多產(chǎn)業(yè)多資源配合,因此激勵政策即基于人工智能模型投入運行的全過程提出。

一是鼓勵大模型算法開發(fā)。對于人工智能模型而言,算法是其最根本的內(nèi)核,算法的發(fā)展需要充足的技術(shù)沉淀。現(xiàn)階段,國內(nèi)的人工智能算法發(fā)展并不成熟,仍與世界一流水平存在差距。歐美的人工智能企業(yè),如OpenAI、XAI,已經(jīng)開始開源部分大模型算法,監(jiān)管層面應當允許國內(nèi)公司在保證算法安全的情況下使用國際開源的算法模型,以促進襁褓中的國內(nèi)人工智能的算法迭代升級。同時,為追求算法安全,鼓勵中國本土的算法發(fā)展,可以設(shè)置國家級獎金用以激勵人工智能開發(fā)者。根據(jù)indeed統(tǒng)計的百份薪資報告為準,算法工程師年薪大約在30萬元,可由國家級部委牽頭,參考行業(yè)平均年薪設(shè)立激勵基金,以推動國產(chǎn)大模型的發(fā)展。

二是建立國家級優(yōu)質(zhì)數(shù)據(jù)庫。人工智能模型的運行需要算法,而人工智能的迭代進化則需要大量的數(shù)據(jù)。原始數(shù)據(jù)的準確性決定了產(chǎn)出結(jié)果的準確性,而產(chǎn)出結(jié)果的準確性還受到算法的影響。保障數(shù)據(jù)質(zhì)量是正義的要求,保障正義能預防人工智能帶來的極端分化[15]。人工智能初創(chuàng)企業(yè)與目前大型科技公司間最大的區(qū)別就在于獲取優(yōu)質(zhì)數(shù)據(jù)的難易程度,大型科技公司有海量的數(shù)據(jù)可用以訓練人工智能模型,而初創(chuàng)企業(yè)則面臨獲取數(shù)據(jù)數(shù)量少、質(zhì)量差、成本高的困境。出于促進創(chuàng)新及反壟斷的需要,應當建立國家統(tǒng)一的優(yōu)質(zhì)數(shù)據(jù)庫,并且以低成本向人工智能初創(chuàng)公司開放,以發(fā)揮中國數(shù)據(jù)量龐大的優(yōu)勢,促進國內(nèi)人工智能模型的快速迭代。

三是加大能源支持。荷蘭國家銀行數(shù)據(jù)科學家Alex de Vries估計,到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力,這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發(fā)電量[16]。人工智能的發(fā)展一定會消耗大量能源,為了跟上世界前沿腳步,應當對相關(guān)企業(yè)優(yōu)先供能或優(yōu)惠供能,在人工智能發(fā)展后期可以逐步取消這些優(yōu)惠政策。人工智能發(fā)展需要能源,鼓勵光伏、太陽能等清潔能源發(fā)展需要更大的市場,二者形成良性循環(huán)。

(二)監(jiān)管措施

人工智能濫用的風險是不可承受的,然而過多的監(jiān)管政策又會制約初創(chuàng)時期的人工智能發(fā)展,需要在風險與發(fā)展之間尋求公平?,F(xiàn)階段需要針對已出現(xiàn)的問題及時做出規(guī)制,同時降低執(zhí)行成本,為企業(yè)減負。

一是設(shè)計用于人工智能數(shù)據(jù)監(jiān)管的區(qū)塊鏈系統(tǒng),形成“數(shù)據(jù)賬本”。區(qū)塊鏈技術(shù)通過提供去中心化和防篡改的賬本來安全地傳輸、存儲和驗證數(shù)據(jù),為解決數(shù)據(jù)安全提供了強大且穩(wěn)定的解決方案。[17]區(qū)塊鏈的不變性功能通過創(chuàng)建無法更改或篡改的數(shù)據(jù)交易的永久記錄來減輕這些風險。當數(shù)據(jù)記錄在區(qū)塊鏈上時,它被存儲在網(wǎng)絡(luò)中的所有節(jié)點上,形成一個去中心化和同步的賬本。利用區(qū)塊鏈的數(shù)據(jù)完整性,人工智能系統(tǒng)可以維護所用訓練數(shù)據(jù)的可靠和可驗證的記錄,由此提供一種方法來驗證AI大模型是否在準確且未篡改的數(shù)據(jù)上進行訓練,此舉將有力作用于數(shù)據(jù)安全、隱私權(quán)的監(jiān)管。同時,區(qū)塊鏈技術(shù)因其去中心化的不可篡改性,運行日志的記錄將更加真實且可追溯,此舉將提升相關(guān)部門對于AI大模型的監(jiān)管效率,可及時對違反監(jiān)管規(guī)則的AI模型進行查處求證。

二是為生成式人工智能的產(chǎn)出打上“機械水印”,以避免“以假亂真”式的誤導。人工智能的生成內(nèi)容愈發(fā)難以辨認,目前互聯(lián)網(wǎng)社交媒體上已經(jīng)陸續(xù)出現(xiàn)大量生產(chǎn)式人工智能產(chǎn)出的文字、圖片、視頻,其中不乏誤導網(wǎng)民的內(nèi)容。比如使用AI生成一段毫無根據(jù)的名人發(fā)表聲明或接受采訪的視頻,極有可能在互聯(lián)網(wǎng)上引起不利影響,誤導不知情的普通網(wǎng)民,此類情況的根本原因在于難以辨認這些子虛烏有的生成視頻。為了區(qū)分生成式內(nèi)容與真實內(nèi)容同時不影響生成內(nèi)容的質(zhì)量,給人工智能生成的文本添加標識符或是訓練能夠檢測出人工智能生成內(nèi)容的人工智能是可行的監(jiān)管方案[18]。為提高識別效率,可要求生成式人工智能企業(yè)在其模型產(chǎn)出內(nèi)容上作出一種可供電腦機器識別的水印,此水印將不影響生成內(nèi)容的呈現(xiàn),并且在企業(yè)將其投入至公開互聯(lián)網(wǎng)時,投放者需要注明此內(nèi)容系A(chǔ)I生成產(chǎn)品,從而為受眾注明風險,保障受眾的知情權(quán)、自由決定權(quán)。

三是設(shè)立專業(yè)的人工智能管理部門,建設(shè)“監(jiān)管沙盒”。面對快速迭代、高不確定性的人工智能產(chǎn)業(yè),設(shè)立一個專業(yè)的人工智能監(jiān)管部門是必要的,當前許多人工智能算法存在黑箱操作的問題,缺乏透明度和可解釋性。為增強算法透明度,同時實現(xiàn)準確的分級監(jiān)管,“監(jiān)管沙盒”是有效的措施,其本質(zhì)是為了平衡科技的創(chuàng)新性和監(jiān)管滯后性之間的矛盾[19]。作為一個基于可控環(huán)境構(gòu)建而營造出的安全空間,監(jiān)管沙盒營造了真實的市場環(huán)境,給予其中的主體進行迭代驗證的空間及受監(jiān)督的測試區(qū)域,在設(shè)立限制性條件并嚴防風險外溢的前提下,可以有效限制風險,并對人工智能系統(tǒng)進行風險等級劃分,以便后續(xù)監(jiān)管。[20]

四是成立第三方評估機構(gòu),綜合審查人工智能模型。建立獨立的第三方評估機構(gòu)對算法進行審查和評估,確保其公正性和準確性。同時,許多人工智能研究發(fā)生在大型科技公司中,這些公司通常沒有適當?shù)膫惱韺彶榱鞒蘙21],因此在行業(yè)環(huán)境中建立第三方評估機構(gòu)是必要的。第三方評估機構(gòu)的設(shè)計參考美國公共圖書館等級評價系統(tǒng)及我國慈善組織第三方評估框架[22][23],該機構(gòu)應當被視為政府財政預算的“守門員”,即為了節(jié)省監(jiān)督成本而對人工智能系統(tǒng)進行初篩,將明顯不符合監(jiān)管要求的AI拒之門外。

該委員會應當吸納各個專業(yè)領(lǐng)域的專家學者,尤其是具有高大的學科壁壘的行業(yè),例如醫(yī)療健康、教育、保險金融等。總之,盡管現(xiàn)階段已有大量的規(guī)則對人工智能應用進行規(guī)范,但仍應當結(jié)合具體行業(yè)的要求進行更為細致的制度設(shè)計,從而將具體監(jiān)管規(guī)則落地[24]。生命科學技術(shù)的高速發(fā)展常常在挑戰(zhàn)人類倫理,因此該領(lǐng)域成立了許多倫理審查機構(gòu),同樣在人工智能領(lǐng)域倫理審查組織也是不可或缺的。倫理委員會負責制定各類人工智能倫理原則和倫理指南,并根據(jù)這些原則和指南對各種機構(gòu)擬開展的研究和機構(gòu)用戶的應用進行倫理審查。[25]

結(jié)束語

世界潮流浩浩湯湯,在人類社會的發(fā)展中,科技的重大突破往往帶來整個社會的變革,人工智能的發(fā)展尤以生成式人工智能ChatGPT始,其更新迭代速度令人嘖嘖稱奇,作為第四次工業(yè)革命的焦點,各主流國家都在積極介入AI領(lǐng)域。中國具有人工智能發(fā)展的后發(fā)優(yōu)勢,收集開源算法,迅速實現(xiàn)大模型的從無到有,總結(jié)已有監(jiān)管模式,快速度過監(jiān)管的幼稚期,尋找“規(guī)制”與“創(chuàng)新”的平衡點,刻不容緩。

“這里就是羅陀斯,就在這里跳吧!”

參考文獻

[1]European Commission. (n.d.). Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain UnionLegalActs. https://artificialintelligenceact.eu/the-act/.

[2]OECD.AI. (n.d.). The OECD Artificial Intelligence (AI) principles. https://www.oecd.ai/ai-principles.

[3]European Commission's High-Level Expert Group on Artificial Intelligence.Definition of AI, 2018.

[4]《生成式人工智能服務(wù)管理暫行辦法》,《中華人民共和國公安部公報》,2023(5):2-5頁。

[5]IDC:Worldwide Semiannual Artificial Intelligence Tracker. 2022.

[6]鄧建鵬、朱懌成:《ChatGPT模型的法律風險及應對之策》,《新疆師范大學學報(哲學社會學版)》,2023(5):91-101+2頁。

[7]馬長山:《AI法律、法律AI及“第三道路”》,《浙江社會科學》,2019(12):4-11+155頁。

[8]Alain Duflot. Artificial intelligence in the french law of 2024. Legal Issues in the Digital Age, 2024(1):37-56.

[9]朱悅(譯):《歐盟〈人工智能法〉定稿版本:全文中譯本》,https://aisg.#edu.cn/info/1005/1192.htm。

[10]Eleftherios Chelioudakis. Unpacking ai-enabled border management technologies in greece: to what extent their development and deployment are transparent and respect data protection rules? Computer Law amp; Security Review: The International Journal of Technology Law and Practice, 2024, 53:105967.

[11]陸婷婷:《從智慧圖書館到智能圖書館:人工智能時代圖書館發(fā)展的轉(zhuǎn)向》,《圖書與情報》,2017(3):98-101+140頁。

[12]Thornton Rod, Miron Marina.Towards the 'third revolution in military affairs' . The RUSI Journal, 2020(3):12-21.

[13]U.S. Congress. AI in Government Act of 2018. 2018.

[14]Simonite, T. Portland's face-recognition ban is a new twist on 'smart cities'. https://www.wired.com/story/portlands-face-recognition-ban-twist-smart-cities/.

[15]李曉輝:《如何面對“無用階層”:人工智能與未來正義》,《華東政法大學學報》,2019(6):68-77頁。

[16]de Vries Alex. The growing energy footprint of artificial intelligence. Joule, 2023(10):2191-2194.

[17]Changqiang Zhang, Cangshuai Wu, Xinyi Wang. Overview of blockchain consensus mechanism. Big data Engineering, 2020:7-12.

[18]王悠然:《警惕人工智能的誤導性風險》,《中國社會科學報》,2023-03-06(03)。

[19]江翠君:《淺析金融科技“監(jiān)管沙盒”在我國的適用》,《中國價格監(jiān)管與反壟斷》,2023(2):69-72頁。

[20]龐林源:《國外數(shù)據(jù)監(jiān)管沙盒建設(shè)實踐及啟示》,《軟件和集成電路》,2023(12):22-24頁。

[21]Ufert F and Goldberg ZJ. How SMEs ought to operationalize AI risk assessments under the AI act. Proceeding of the workshops at the second international conference on hybrid human-artificial intelligence co-located with the second international confer ence on hybrid human-artificial intelligence, 2023.

[22]劉波、宋茂榮:《美國第三方教育評估機構(gòu)治理現(xiàn)狀與啟示》,《上海教育評估研究》,2023(6):53-57+64頁。

[23]任雯、李景平:《我國慈善組織第三方評估框架的理論構(gòu)建》,《江蘇師范大學學報(哲學社會科學版)》,2024(2):42-57+123-124頁。

[24]Donnelly DustyLee. First do no harm: legal principles regulating the future of artificial intelligence in health care in south africa. Potchefstroom electronic law journal, 2022, 25.

[25]程新宇、楊佳:《人工智能時代人權(quán)的倫理風險及其治理路徑》,《湖北大學學報(哲學社會科學版)》,2024(3):159-166頁。

作者簡介

張文康 北京化工大學文法學院本科生,研究方向為公共管理理論與實踐

薛周一 昆明理工大學信息工程與自動化學院本科生,研究方向為人工智能

猜你喜歡
人工智能監(jiān)管系統(tǒng)
Smartflower POP 一體式光伏系統(tǒng)
WJ-700無人機系統(tǒng)
ZC系列無人機遙感系統(tǒng)
北京測繪(2020年12期)2020-12-29 01:33:58
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
監(jiān)管
監(jiān)管和扶持并行
巨鹿县| 德庆县| 辛集市| 乌什县| 和田县| 惠州市| 青田县| 满城县| 内乡县| 伊春市| 兴仁县| 嵊泗县| 田阳县| 拉萨市| 大名县| 肃南| 宜兴市| 桃江县| 仁布县| 若羌县| 铜川市| 卓尼县| 宝坻区| 景泰县| 南陵县| 肥乡县| 宕昌县| 南漳县| 襄垣县| 万盛区| 文水县| 桂东县| 城市| 临沭县| 怀柔区| 汕头市| 阿合奇县| 宜阳县| 广南县| 泊头市| 娱乐|