国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

ChatGPT法律風險及其規(guī)制

2023-05-15 12:35:03謝永江楊永興
關鍵詞:規(guī)制個人信息法律

謝永江,楊永興

(北京郵電大學 互聯(lián)網(wǎng)治理與法律研究中心,北京 100876)

2022年11月,美國OpenAI公司發(fā)布ChatGPT機器人,短短幾周ChatGPT便風靡全球,并在全球范圍內(nèi)引發(fā)新一輪的強人工智能布局競賽。2023年2月初,ChatGPT更是開啟“狂飆”模式,引起新一輪的技術升級、產(chǎn)業(yè)重構、巨頭逐鹿,一度被視為未來社會的開拓技術,備受資本追捧。ChatGPT之所以備受矚目,原因在于以其為代表的生成式人工智能(AI)與以往的分析式AI大有不同,其憑借著強大的數(shù)字孿生能力、編輯能力、創(chuàng)作能力以及“類人性”的特點,不僅可以抓取、分析數(shù)據(jù),從中提煉有效的信息,而且可以根據(jù)用戶的需求充分理解用戶的思維從而定制化地生成內(nèi)容。但與此同時,ChatGPT也對既有規(guī)則形成潛在挑戰(zhàn)。ChatGPT作為一項突破性新技術,本身還存在諸多不確定因素,存在生成虛假或不良信息、算法偏見、數(shù)據(jù)泄露等諸多法律風險。因此,本文擬從ChatGPT引發(fā)全球強人工智能浪潮著手,分析其基本運作原理以及可能產(chǎn)生的法律風險,并對學界已有技術規(guī)制的理論進行分析反思,提出ChatGPT背后法律風險規(guī)制的基本思路。

一、ChatGPT引發(fā)全球強人工智能浪潮

(一)ChatGPT的誕生及發(fā)展

ChatGPT全稱為“Chat Generative Pre-trained Transformer(生成型預訓練變換模型)”,由美國科技公司OpenAI研發(fā)并于2022年11月30日正式推出,我們可將其看作是一個通用聊天機器人。ChatGPT使用自然語言處理技術,通過學習人們在對話框中輸入的文本,結合上下文語境,輸出結論,其不僅能深度模擬人類自然聊天,而且在人類反饋強化學習技術的加持下還能寫詩、答題、考試、寫代碼、寫文獻綜述、撰寫學術論文、撰寫法律意見函等。產(chǎn)業(yè)界認為其在醫(yī)療、法律、基金等領域具有廣闊的應用前景。

ChatGPT廣受用戶喜愛,上線的第一周便吸引了100萬用戶,短短兩個月便破億,超過TikTok與Instagram的用戶增長速度,成為互聯(lián)網(wǎng)發(fā)展20年來產(chǎn)品用戶增速最快的應用程序[1]。ChatGPT作為以GPT為基礎的人機對話型應用,經(jīng)歷了以下發(fā)展歷程:

2018年,GPT-1誕生,這一年也是自然語言處理的預訓練元年。在性能方面,GPT-1可以根據(jù)任務數(shù)據(jù)更新權重參數(shù),用于與監(jiān)督任務無關的自然語言處理任務,常見任務包括問答與常識推理、語義相似度識別、判斷兩個句子間的相關性等。2019年,GPT-2發(fā)布,與GPT-1相比,GPT-2并未對原有的網(wǎng)絡結構進行過多的創(chuàng)新性設計,只是在模型訓練中使用了更多的網(wǎng)絡參數(shù)與更大的數(shù)據(jù)集。2020年,作為一個自監(jiān)督模型,GPT-3誕生,其在訓練過程中加入少量的場景示例引導,可以勝任自然語言處理的絕大多數(shù)任務。2022年,OpenAI發(fā)布GPT-3.5,該模型綜合利用人類反饋強化學習、神經(jīng)網(wǎng)絡架構、自然語言處理等技術,通過對GPT-3.5的表現(xiàn)進行評價,以及采取獎懲措施倒推模型不斷進行自我優(yōu)化,其在很多任務執(zhí)行方面的表現(xiàn)已經(jīng)接近人類。此后OpenAI正式上線的ChatGPT便是從GPT-3.5分支模型中演變而來。2023年,OpenAI公布大型語言模型的最新版本GPT-4,該版本從此前的僅支持文字指令擴展到支持圖像的輸入,完成了從語言到多模態(tài)的聯(lián)通。相較于之前的版本,GPT-4的智能水平實現(xiàn)了飛躍。(1)本文對ChatGPT歷史脈絡的介紹系根據(jù)互聯(lián)網(wǎng)公開的資料整理所得。

隨著ChatGPT引爆新一輪人工智能競賽,美國微軟公司與谷歌公司開始正面交鋒,微軟在谷歌宣布推出ChatGPT競品Bard(巴德)之后,迅速推出以ChatGPT為底層技術支持的最新版本Bing(必應)搜索引擎和Edge瀏覽器,在ChatGPT的加持下,必應搜索引擎可以匯總大量上下文本回答問題。與此同時,國內(nèi)一眾互聯(lián)網(wǎng)科技巨頭也競相表態(tài)。2023年3月16日,百度正式發(fā)布我國首個生成式AI語言大模型——文心一言,向世界展示了其在多模態(tài)、大語言模型方面的突出表現(xiàn)。百度在國內(nèi)搜索引擎市場的主要競爭對手之一360集團也表示將盡快推出類ChatGPT產(chǎn)品demo版產(chǎn)品。阿里巴巴、京東、網(wǎng)易等頭部互聯(lián)網(wǎng)公司AI技術團隊也正在加速類ChatGPT產(chǎn)品的研發(fā)。

(二)ChatGPT的運作原理

從技術層面來看,ChatGPT作為由AI技術驅(qū)動的大型語言模型機器學習系統(tǒng),采用了Transformer神經(jīng)網(wǎng)絡架構(目前為GPT-4架構),綜合利用神經(jīng)網(wǎng)絡、人類反饋強化學習、深度學習等AI技術[2],自主開展數(shù)據(jù)分析工作,結合用戶輸入的文本深入理解人類思維目的,從而生成復雜的作品,如創(chuàng)作歌詞、創(chuàng)意文本,且隨著GPT-4的推出,ChatGPT完成了從語言到多模態(tài)的聯(lián)通。ChatGPT不僅可以聯(lián)系上下文對用戶輸入的文本進行串聯(lián)分析,而且當用戶指出ChatGPT輸出的結論有錯誤時,其還能夠大方地承認錯誤。此外,ChatGPT還經(jīng)過道德倫理層面的訓練,當用戶提出有違基本道德倫理的問題時,它會拒絕回答,并試圖勸說提問者停止此類想法[3]。

二、ChatGPT存在的法律風險

當前,以ChatGPT為代表的生成式AI重塑著社會的生產(chǎn)方式與消費方式,極大地便利了人類的生活,同時也潛在地重塑人類的社會生存環(huán)境。為此,有學者表示,ChatGPT是繼阿爾法狗打敗世界圍棋冠軍之后人工智能領域的又一大突破[4],比爾·蓋茨更是公開表示ChatGPT是同電腦、互聯(lián)網(wǎng)同等重要的第三大發(fā)明。ChatGPT的受捧促使相關公司的股價暴漲,從而誘使一眾互聯(lián)網(wǎng)公司投入類ChatGPT產(chǎn)品的研發(fā),以期搭ChatGPT“東風”并從中分得一杯羹。但當谷歌展示其類ChatGPT產(chǎn)品Bard(巴德)時,該機器人的一個錯誤回答導致公司股價瞬間暴跌。由此可見,新技術的安全可控性對科技公司的影響巨大。德國學者烏爾里?!へ惪嗽谄洹讹L險社會》中提出“風險社會”的概念,認為科學技術在為人類創(chuàng)造文明的同時也帶來了全球性、系統(tǒng)性的社會風險[5]。

在人工智能時代,人類社會將完全淪為風險社會,技術稍有缺陷,便可能給人類的生活帶來巨大威脅[6]。從本質(zhì)上講,ChatGPT作為AI技術的新應用,盡管大模型憑借其強大的學習能力,以及經(jīng)過一定道德倫理維度訓練,已與傳統(tǒng)弱AI拉開差距,但其仍面臨著由技術不成熟所帶來的生成虛假或不良信息、算法偏見、數(shù)據(jù)泄露等風險。近期,美國生命未來研究所公開一封由被譽為“人工智能教父”的杰弗里·辛盾、圖靈獎得主約書亞·本希奧、推特CEO馬斯克等科技人士聯(lián)名的公開信。公開信表示,有大量研究表明,得到頂級AI實驗室的認可、具有人類競爭智能的超級AI系統(tǒng),可能對社會和人類構成深遠的風險。這就需要我們對ChatGPT背后的風險有所認知,以便投入相應的資源,對之進行規(guī)制和管理。

(一)生成違法或不良信息

當用戶在輸入框中輸入文本指令后,ChatGPT基于背后的大模型對此文本進行分析學習,并結合自身語料庫中的數(shù)據(jù),從中提煉出有價值的信息,進而輸出相應的結論。但是,ChatGPT背后的大模型在自主預先訓練學習過程中并未受到完全的監(jiān)督,獲取的信息數(shù)據(jù)難以經(jīng)過實質(zhì)性的審查與過濾,當語料庫中搜集到內(nèi)容不合法、帶有歧視性、真假難辨時,ChatGPT很可能會生成虛假、不良的信息,從而導致“Garbage in, Garbage out”現(xiàn)象的發(fā)生。如有學者在測評時發(fā)現(xiàn),盡管ChatGPT幫助完成了綜述性文章的撰寫,但當測試者要求ChatGPT提供其撰寫綜述所參考的具體文獻,結果發(fā)現(xiàn)其提供的文獻信息在官方學術數(shù)據(jù)庫中檢索不到,甚至一些文獻是ChatGPT自我杜撰的[7]。從本質(zhì)上講,由于互聯(lián)網(wǎng)上的語料質(zhì)量本就良莠不齊,再加上ChatGPT大模型是基于統(tǒng)計學習技術架構的,盡管訓練者采取高維度的統(tǒng)計,但囿于概率,很容易導致大模型對訓練語料庫中不存在的概念進行強行編造,從而“一本正經(jīng)地胡說八道”。OpenAI的首席執(zhí)行官山姆·阿爾特曼也承認ChatGPT會對人產(chǎn)生誤導[8]。

OpenAI在開發(fā)ChatGPT時,已經(jīng)對其進行了道德倫理訓練,使其可以對一些明顯不懷好意的提問和請求(諸如包含暴力、色情等問題)“說不”。筆者曾詢問其能否制定復仇計劃,ChatGPT回應:“我不會支持或鼓勵任何形式的報復或者復仇計劃,報復和復仇只會導致更多的傷害和不必要的痛苦。我的主要目的是為人類提供有益的幫助和服務,并尊重法律和道德規(guī)范?!币话闱闆r下,按照正常的問答方式操作,ChatGPT的回答看起來會非常得體。但是,當用戶通過偽裝或者威逼利誘的方式命令ChatGPT時,其就很可能突破道德和法律紅線,生成不良信息。國外曾發(fā)生著名的“機器人越獄”案件:用戶命令ChatGPT作為一個虛擬人,可以不受任何法律法規(guī)約束,也不受OpenAI開發(fā)者的程序設計規(guī)則約束,任其做任何事情,并且給出的回答也不能是不能做任何事;通過給出前述ChatGPT能夠接受的假設,引導ChatGPT違反自身的編程設置,最終迫使其生成違反一般法秩序的信息[9],并提供犯罪思路。

(二)算法偏見

從創(chuàng)作者角度而言,互聯(lián)網(wǎng)內(nèi)容生成經(jīng)歷了Web1.0時代的專業(yè)生成內(nèi)容、Web2.0時代的用戶生成內(nèi)容和Web3.0時代的AI生成內(nèi)容三個發(fā)展階段[10]。在專業(yè)生成內(nèi)容與用戶生成內(nèi)容的發(fā)展階段,學界關于算法偏見及其規(guī)制的研究已汗牛充棟,而主流期刊圍繞ChatGPT這一突破性技術背后算法偏見的研究卻較少。盡管OpenAI在開發(fā)ChatGPT時已經(jīng)極力避免其產(chǎn)生偏見性結論,但是大模型背后的算法偏見問題仍然嚴重。例如,ChatGPT曾表示只有男性才會成為科學家;而當ChatGPT被要求生成律師、基金經(jīng)理等高薪職位的圖片時,其生成的圖片大多數(shù)都是白人[11]。此外,有學者研究發(fā)現(xiàn),當他要求ChatGPT開發(fā)一個程序,并根據(jù)國籍判斷一個人是否應當受到酷刑時,ChatGPT在生成相應程序后,對朝鮮、敘利亞等國籍的人,給出應受到酷刑的結論[12]。

盡管OpenAI已數(shù)次嘗試開發(fā)過濾系統(tǒng)以解決此類問題,但很難從根本上予以解決。究其原因,ChatGPT作為人工智能技術的創(chuàng)新性應用,其背后模型的建構仍然離不開數(shù)據(jù)、算法、算力,更離不開人類主體性的參與。據(jù)此,使ChatGPT產(chǎn)生算法偏見的原因可總結為如下幾個方面。首先,ChatGPT得以訓練的語料庫中的數(shù)據(jù)來源于互聯(lián)網(wǎng),當存有偏見性的數(shù)據(jù)被收入語料庫時,ChatGPT不可避免會對其進行學習,進而習得人類社會的偏見,從而誘發(fā)“Bias in, Bias out”現(xiàn)象。其次,ChatGPT背后模型的建構離不開算法工程師的編程,其在編程的過程中也會自覺或不自覺地將自身內(nèi)隱偏見以代碼形式外化并嵌于模型架構之中[13]。再次,ChatGPT大模型對于普羅大眾來講本身就是一個黑箱,很少有人能夠真正了解其背后的運行邏輯與知識架構,由于GPT大模型采用的是“利用人類反饋強化學習”的深度學習訓練方式,其自身的模型會訓練到何種程度,開發(fā)者也很難自知,這就使得ChatGPT背后的偏見問題變得更加隱蔽而不易被察覺。

(三)數(shù)據(jù)泄露

數(shù)據(jù)被譽為21世紀的“石油”。2020年,中共中央、國務院印發(fā)的《關于構建更加完善的要素市場化配置體制機制的意見》明確指出,數(shù)據(jù)與土地、勞動力、資本、技術一樣,都是可市場配置化的要素。2022年,習近平總書記在主持召開的中央全面深化改革委員會會議上,進一步強調(diào)要促進數(shù)據(jù)高效流通使用,加快構建數(shù)據(jù)基礎制度體系。由此可見,從戰(zhàn)略層面來講,數(shù)據(jù)已經(jīng)成為數(shù)字時代推動數(shù)字經(jīng)濟高速發(fā)展的重要因素。數(shù)據(jù)背后不僅僅蘊含著豐富的經(jīng)濟利益,其本身還承載著國家安全、個人信息權益等價值期許。我國已在法律層面先后頒布了《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》等,為國家數(shù)據(jù)主權、個人信息保護等提供了法律保護屏障。

從工作原理來看,ChatGPT作為對話式機器人,需要與用戶進行人機交互,而后通過大模型生成相應的回答。但是ChatGPT并非本地化部署,所有的數(shù)據(jù)都會發(fā)送到位于美國的OpenAI公司的服務器。此外,根據(jù)OpenAI的隱私政策,ChatGPT可能會自動收集有關用戶使用服務的信息,如用戶使用的功能或采取的行動,這就帶來了個人信息、商業(yè)秘密等數(shù)據(jù)泄露的風險。原因在于,近年來全球范圍內(nèi)的勒索組織日漸猖獗,勒索攻擊事件頻頻出現(xiàn),出于金錢、政治等動因,勒索組織有針對性地對包括互聯(lián)網(wǎng)系統(tǒng)在內(nèi)的信息基礎設施發(fā)起攻擊,從中竊取大量的數(shù)據(jù)并將其作為勒索的質(zhì)物。

此外,隨著ChatGPT背后語料庫數(shù)據(jù)的實時更新,人們輸入的文本也會成為其用以訓練的數(shù)據(jù)來源。當用戶輸入涉及個人信息、企業(yè)商業(yè)秘密或者國家安全的數(shù)據(jù)時,ChatGPT會將其納入自身語料庫。然而一旦出現(xiàn)前文所述的用戶以威逼利誘的方式命令控制ChatGPT的情況,其很有可能將此類數(shù)據(jù)全盤托出,從而給個人信息權益、企業(yè)商業(yè)秘密、國家安全帶來巨大挑戰(zhàn)。有鑒于此,出于對數(shù)據(jù)泄露的擔憂,微軟、亞馬遜等互聯(lián)網(wǎng)公司紛紛發(fā)文,提醒員工不要在ChatGPT上泄露有關機密信息。最近不少用戶在社交平臺上分享“不屬于他們自己的ChatGPT對話記錄”的相關截圖,表示自己可以看到其他用戶在ChatGPT上詢問的話題,隨后OpenAI創(chuàng)始人山姆·阿爾特曼在公開場合對此予以確認,并對因開源庫漏洞所導致用戶數(shù)據(jù)泄露的事件進行公開道歉。

除了因技術本身缺陷可能帶來的法律風險,ChatGPT的爆火還滋生了賬號販賣租賃的亂象。由于ChatGPT尚未對中國大陸開放,一些商家看到其背后灰色產(chǎn)業(yè)鏈可能帶來的巨額利益,于是在電商平臺販賣或者租賃賬號,有些店鋪一天交易的次數(shù)多達一萬余次,交易價格也根據(jù)賬號是否為多人共享或者專人定制存在高低之分[14]。盡管目前電商平臺對從事ChatGPT賬號販賣或租賃的店鋪進行封禁,并且屏蔽相關關鍵詞,但是截至本文撰寫及發(fā)稿前,在一些社交平臺上仍然存在大量買賣租賃ChatGPT賬號的行為。根據(jù)工信部等部門相關規(guī)定,未經(jīng)批準不得自行建立或租用VPN開展跨境經(jīng)營活動,ChatGPT賬號的買賣行為涉嫌非法經(jīng)營;如果商家未取得行政許可便從事國外賬號買賣交易,則有可能受到行政處罰甚至刑事處罰。

三、ChatGPT法律風險的規(guī)制

(一)ChatGPT法律風險規(guī)制的理論選擇

ChatGPT表征了人類科技進步的智慧之果,與以往弱AI相比取得長足的進步,但這并不意味著法律需要對該項新興信息技術創(chuàng)設專門的規(guī)制規(guī)則,否則很容易陷入法律對每一項新技術制定一項規(guī)則的立法泥沼中,產(chǎn)生“法律萬能主義”的認知偏差,并容易陷入“腳疼醫(yī)腳,頭疼醫(yī)頭”的惡性循環(huán)。

就目前認知而言,ChatGPT帶來的法律風險并沒有超越現(xiàn)有的研究范疇,現(xiàn)階段對ChatGPT規(guī)制的重心仍然是聚焦于個人信息保護、數(shù)據(jù)安全、ChatGPT運營者的法定義務等核心議題。人們擔心ChatGPT會泄露個人信息、商業(yè)秘密等風險,也不過是傳統(tǒng)數(shù)據(jù)抓取層面帶來風險的映射。以ChatGPT為代表的AI技術并不會就此停滯不前,因此,ChatGPT法律風險的規(guī)制理論范式,應當立基于過往技術規(guī)制的經(jīng)驗來選擇最佳規(guī)制理論。目前學界關于技術規(guī)制的理論主要有敏捷治理理論、元規(guī)制理論、階段性規(guī)制理論。

1.敏捷治理理論

敏捷治理是管理學領域最早提出來的理論。2018年世界經(jīng)濟論壇發(fā)布的《敏捷治理:第四次工業(yè)革命中政策制定的重新構想》白皮書認為,敏捷治理是一套自適應、以人為本、具有包容性和持續(xù)性的決策過程,明確政策的制定離不開多方利益相關者的努力,并嘗試探索相應的理論框架[15]。后來,有學者將敏捷治理理論從技術領域拓展至跨學科領域,結合敏捷能力和治理能力,以快速覺察和應對意想不到的變化[16]。歐盟和美國的污染物排放許可制度即是敏捷治理的體現(xiàn)。敏捷治理理論具有治理主體參與廣泛性和政策制定中的時間靈敏度特征,其更加強調(diào)治理工具和治理方式的靈活多變,而這恰好與區(qū)塊鏈、算法、深度學習等技術的復雜特征相契合,為此有學者在區(qū)塊鏈等技術治理領域引入敏捷治理理論[17]。敏捷治理是一套具有柔韌性、流動性和靈活性的方法,需要持續(xù)地追蹤與分析重要變化,而法律僅是治理方式之一,法律所扮演的角色不過是彌補相關立法的缺位,但同時這也意味著治理成本的增加。

2.元規(guī)制理論

元規(guī)制理論發(fā)端于普通法系,德國將其引入社會性規(guī)制中,用于食品安全領域的規(guī)制,并發(fā)展出一套完備的理論體系。元規(guī)制被稱為對自我規(guī)制的規(guī)制,是指公權力機構對企業(yè)開展的自我規(guī)制進行的外部監(jiān)督[18]。數(shù)字時代以算法、區(qū)塊鏈、元宇宙等為代表的新型信息通信技術的發(fā)展,重塑了信息社會的技術治理權力格局。傳統(tǒng)的政府規(guī)制囿于政府專業(yè)知識和信息數(shù)據(jù)匱乏、財政負擔過重等原因,面臨著規(guī)制效果不佳的困境;而企業(yè)的自我規(guī)制雖然能夠緩解政府規(guī)制面臨的各種問題,其本身還存在著自我規(guī)制動力不足的弊端。元規(guī)制是對傳統(tǒng)政府規(guī)制及企業(yè)自我規(guī)制的一種綜合,是公私合作治理的典型體現(xiàn),通過對被規(guī)制對象賦權并對其課以規(guī)制義務,督促企業(yè)更好地進行內(nèi)部管理,從而達到行政監(jiān)管的目的。為此,元規(guī)制理論受到學界的極大推崇,如有的學者在數(shù)據(jù)保護的研究中主張引入元規(guī)制模式,構建“通過設計保護數(shù)據(jù)”的元規(guī)制制度[19]。

3.階段性規(guī)制理論

階段性規(guī)制理論的核心要義在于,認為法律應當根據(jù)技術發(fā)展不同階段所表現(xiàn)出的特征來確立回應方式。有學者根據(jù)階段性規(guī)制理論將算法、深度學習等技術的發(fā)展劃分為技術概念創(chuàng)新(2)技術概念創(chuàng)新階段的特征表現(xiàn)為產(chǎn)業(yè)界對技術未來可能應用的場景只是處于設想階段,如目前產(chǎn)業(yè)界僅僅是設想ChatGPT未來可能在醫(yī)療、金融、法律等行業(yè)進行應用。、技術初步應用(3)技術初步應用階段的特征表現(xiàn)為新技術如何進行商業(yè)化使用在各界已經(jīng)達成基本的共識。和技術大眾化應用(4)技術大眾化應用階段的特征表現(xiàn)為新技術的應用場景已經(jīng)非常明確,應用方式已經(jīng)非常成熟。三個階段,并根據(jù)各階段表現(xiàn)出來的不同特征,分別確立重新解釋現(xiàn)有法律條款、確立有關技術應用場景和應用方式的禁止性規(guī)范,以及解釋技術開發(fā)者承擔何種安全保障義務的技術法律回應方式[20]。以人臉識別技術應用的治理為例,我國并未從一開始就針對人臉識別技術創(chuàng)設全新的法律制度,而是隨著大眾化應用,以各方法律主體的權利義務為基線,強調(diào)人臉識別技術的應用者在具體應用場景中應當承擔的安全保障義務以及履行義務的形式。2021年最高人民法院發(fā)布的《最高人民法院關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規(guī)定》即可為此提供例證。

通過對學界既有技術規(guī)制理論的梳理可以發(fā)現(xiàn),敏捷治理理論和元規(guī)制理論的共同點在于,在其理論的框架下,法律的功能是非常有限的,規(guī)制技術需要法律結合其他工具[21]。但是兩者重點關注的是法律應當如何規(guī)制技術,卻忽視了技術需要什么樣的法律這個更值得引人思考的問題。AI在帶動經(jīng)濟、社會效益方面具有重要潛力,為了縮小這項技術可能帶來的負面影響、實現(xiàn)利益最大化,政策制定者提出了各種方案對其負面性加以規(guī)制。然而,許多“不負責任”的提議反而會損害AI創(chuàng)新,前兩種技術規(guī)制理論很少考慮“負責任的AI監(jiān)管”究竟意味著什么。而階段性規(guī)制理論恰好回應了技術需要什么樣的法律、什么是“負責任的AI監(jiān)管”這個讓人深思的問題,即在不影響技術創(chuàng)新發(fā)展的同時,根據(jù)技術發(fā)展不同階段的特征,審時度勢地確立相應的法律回應方式。

(二)ChatGPT法律風險規(guī)制的基本思路

1.基于現(xiàn)有規(guī)則的規(guī)制

當前ChatGPT尚處于技術概念創(chuàng)新階段,對ChatGPT未來在商業(yè)化中如何應用尚未達成基本共識,ChatGPT背后可能產(chǎn)生的法律風險與現(xiàn)階段社會現(xiàn)存的風險并無實質(zhì)性差異,均是集中于個人信息保護、數(shù)據(jù)安全、服務提供者應當承擔的法定義務等議題,而且有些風險屬于技術層面的漏洞,通過對漏洞進行修補即可在很大程度上避免。故法律對ChatGPT的回應方式不應當采取專門式立法限制模式,否則很容易將技術創(chuàng)新的苗頭扼殺在搖籃里,相反應當立基于ChatGPT初級階段的技術特征,對現(xiàn)有的法律條款進行解釋,延伸適用現(xiàn)有規(guī)則。如2023年2月8日,美國信息技術與創(chuàng)新基金會發(fā)布的《不損害人工智能創(chuàng)新發(fā)展的十項監(jiān)管原則》指出,為了避免阻止或阻礙創(chuàng)新,在進行技術規(guī)制時,應當強制執(zhí)行現(xiàn)有規(guī)則,因為許多現(xiàn)有法律法規(guī)等規(guī)范性文件已經(jīng)解決了包含人工智能技術在內(nèi)的共性問題,比如算法歧視、個人信息保護等問題。(5)如我國《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《國務院反壟斷委員會關于平臺經(jīng)濟領域的反壟斷指南》等規(guī)范性文件劍指算法歧視;而我國《民法典》《個人信息保護法》《網(wǎng)絡安全法》《數(shù)據(jù)安全法》等規(guī)范性文件為個人信息、數(shù)據(jù)提供了體系性的保護框架。在這些情形下,通常不需要針對人工智能技術作出新的專門規(guī)定。

2.對違法或不良信息風險的規(guī)制

目前學界大多數(shù)學者否認人工智能的刑事責任主體資格。筆者認為,盡管ChatGPT具有類人性的特點,但是尚不具備完全自控和辨別的能力,所以當ChatGPT生成虛假信息以及不良信息時,其本身并不能構成我國《刑法》規(guī)定的“編造、故意傳播虛假信息罪”,也不能成為教唆犯、幫助犯的主體。但若用戶把ChatGPT當成犯罪工具用來生成并傳播虛假信息,或者通過威逼利誘的方式迫使ChatGPT提供犯罪思路,進而實施網(wǎng)絡詐騙等犯罪,則應由該用戶承擔相應的法律后果。至于ChatGPT賬號販賣租賃行為,網(wǎng)信辦、公安部等監(jiān)管機構可以參考此前開展的多項監(jiān)管打擊行動,(6)如在2022年,中央網(wǎng)信辦組織開展了包括打擊網(wǎng)絡謠言、整治“飯圈”亂象、治理“網(wǎng)絡水軍”等在內(nèi)的13項“清朗”專項行動??紤]部署“ChatGPT賬號販賣租賃打擊專項行動”,加大對無證經(jīng)營和非法交易行為的查處力度,如涉及犯罪,交由司法機關追究其刑事責任即可。

3.對數(shù)據(jù)泄露、算法偏見風險的規(guī)制

現(xiàn)階段,針對數(shù)據(jù)、個人信息保護及算法的監(jiān)管,我國《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《數(shù)據(jù)出境安全評估辦法》等法律法規(guī)已構建起較為完善的體系框架。換言之,現(xiàn)階段ChatGPT可能產(chǎn)生的法律風險,在現(xiàn)行的法律秩序框架下基本能夠得到解決,而且尚無充分的證據(jù)能夠驗證一味地嚴格監(jiān)管與強行介入是規(guī)制技術風險的唯一或者最佳方式。如一味地依靠嚴格的監(jiān)管和事后懲罰,則會損耗太多本可以預防其他類型風險的資源,損失了本可實現(xiàn)的更高層次的個人發(fā)展和社會進步。況且相較于事后懲罰,事先對風險的預防更有意義。為此,ChatGPT風險規(guī)制不能忽視的關鍵一環(huán),在于用好該項新型數(shù)字技術,開發(fā)出更強的保護機制和更有效的保護技術,將保護數(shù)據(jù)和規(guī)制偏見的法律法規(guī)和“用戶導向”的原則引入到ChatGPT模型、算法、程序等設計和使用的各個環(huán)節(jié),將風險規(guī)制前置。由此可見,ChatGPT法律風險規(guī)制的重點應當注重從源頭進行防范。

以ChatGPT為代表的人工智能相關企業(yè),包括類ChatGPT的研發(fā)者,憑借資本原始積累,擁有強大的信息優(yōu)勢和技術優(yōu)勢,他們在處理ChatGPT帶來的風險時較為敏捷,尤其應當嚴格貫徹落實數(shù)據(jù)安全及個人信息保護法律制度。在抓取互聯(lián)網(wǎng)上的數(shù)據(jù)進行語料庫更新時,應當加強內(nèi)容審查及內(nèi)容過濾,通過技術手段去除數(shù)據(jù)訓練過程中的“噪聲”,將真實性有待考證、虛假類、帶有偏見性以及能夠識別出自然人的數(shù)據(jù)進行過濾剔除。同時,為了避免前文所述“越獄”事件的發(fā)生,可以通過限制用戶輸入、自建庫或第三方服務,必要時還可采取人工輔助介入的方式,對用戶的輸入信息進行實時監(jiān)督。如果在ChatGPT的實際運作中,涉及數(shù)據(jù)跨境問題,相關企業(yè)應當積極開展數(shù)據(jù)出境風險自評估,貫徹落實數(shù)據(jù)出境相關義務,為數(shù)據(jù)出境獲得相關行政許可,并建立完善的數(shù)據(jù)出境保障措施。

為了避免ChatGPT生成歧視性內(nèi)容,相關企業(yè)應當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù),確保算法模型不違反倫理道德。在技術環(huán)節(jié)上,企業(yè)應當積極拓寬訓練數(shù)據(jù)的采集維度、推動反算法歧視技術的研發(fā)。

網(wǎng)絡安全為人民,網(wǎng)絡安全靠人民。ChatGPT用戶應當提高個人信息保護和國家數(shù)據(jù)安全意識,避免在ChatGPT的輸入框中輸入涉密、敏感的信息,以防ChatGPT將該類信息納入自身的語料庫,以此通過與其他信息融合生成內(nèi)容,進而引發(fā)數(shù)據(jù)泄露的風險。同時,用戶應當做到合規(guī)合法地使用,不得通過教唆或者威逼利誘等方式,誘使ChatGPT產(chǎn)生帶有違法性、歧視性的結論。

四、結語

人們?yōu)镃hatGPT狂歡之余,需要正視其潛在的法律風險。以ChatGPT為代表的人工智能技術的迭代更新遠超人類的想象,但其并不是潘多拉魔盒,法律也不應簡單地牢牢捆綁魔盒?,F(xiàn)階段,ChatGPT尚處于技術概念創(chuàng)新階段,僅僅根據(jù)其背后不確定的法律風險制定專門立法進行限制為時尚早,這樣做不僅會抑制技術的創(chuàng)新,扼殺技術可能帶來的福利,還易陷入一項新興技術對應一項規(guī)則的立法泥沼。相反,一個合乎邏輯的規(guī)制路徑應當是基于階段性規(guī)制理論,并對現(xiàn)有的相關法律條款進行解釋和延伸適用,以促使該項技術真正為人類所用。爾后可以根據(jù)ChatGPT技術的發(fā)展情況,考慮尋求創(chuàng)設專門規(guī)則予以介入。

猜你喜歡
規(guī)制個人信息法律
如何保護勞動者的個人信息?
工會博覽(2022年16期)2022-07-16 05:53:54
個人信息保護進入“法時代”
主動退市規(guī)制的德國經(jīng)驗與啟示
南大法學(2021年4期)2021-03-23 07:56:10
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
警惕個人信息泄露
綠色中國(2019年14期)2019-11-26 07:11:44
保護與規(guī)制:關于文學的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
論《反不正當競爭法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質(zhì)疑聲背后的法律困惑
讓法律做主
浙江人大(2014年5期)2014-03-20 16:20:27
绥化市| 新绛县| 永福县| 万州区| 龙门县| 邯郸县| 红安县| 读书| 石门县| 忻州市| 鹤山市| 陇西县| 通河县| 枝江市| 铜川市| 呼图壁县| 卓资县| 珠海市| 灵川县| 东源县| 宜都市| 山东省| 花垣县| 宿州市| 阜康市| 田林县| 克山县| 黔西县| 上杭县| 乌鲁木齐市| 东台市| 庄浪县| 上犹县| 大邑县| 廊坊市| 贡觉县| 舒城县| 齐河县| 吉首市| 潢川县| 炎陵县|