吳 靜
(吉林大學(xué)理論法學(xué)研究中心,吉林長(zhǎng)春 130012)
隨著以ChatGPT 為代表的生成式人工智能技術(shù)的快速發(fā)展,其直觀易用、高效低耗的技術(shù)優(yōu)勢(shì)為社會(huì)經(jīng)濟(jì)帶來(lái)了新的發(fā)展機(jī)遇,同時(shí)也引發(fā)了數(shù)據(jù)安全風(fēng)險(xiǎn)、虛假信息傳播、偏見(jiàn)歧視等諸多問(wèn)題。目前,生成式人工智能技術(shù)正處于技術(shù)概念演進(jìn)豐富的階段,其未來(lái)究竟能在生產(chǎn)進(jìn)步、產(chǎn)業(yè)應(yīng)用、商業(yè)化演繹中發(fā)展到何種地步尚未達(dá)成基本共識(shí),有鑒于此,我國(guó)可以考慮從順應(yīng)產(chǎn)業(yè)發(fā)展、平衡安全與效率的角度出發(fā),立足數(shù)據(jù)這一人工智能和算法模型的基礎(chǔ)原料,厘清義務(wù)邊界,完善規(guī)制措施,形成有針對(duì)性的規(guī)范體系,從而抓住數(shù)字經(jīng)濟(jì)時(shí)代借助人工智能技術(shù)發(fā)展“彎道超車(chē)”的機(jī)會(huì)。
艾倫·圖靈在《計(jì)算機(jī)器與智能》中提出了著名的“Turing test”,即判定機(jī)器是否具智能的試驗(yàn)方法,就是機(jī)器是否能夠模仿人類(lèi)的思維方式來(lái)生成內(nèi)容繼而與人交互[1]。隨著數(shù)據(jù)快速積累、算力性能提升和算法效力增強(qiáng),生成式人工智能(以下簡(jiǎn)稱(chēng)AIGC)發(fā)展到今天不僅能夠與人類(lèi)進(jìn)行互動(dòng),還可以進(jìn)行寫(xiě)作、編曲、繪畫(huà)、視頻制作等創(chuàng)意工作,ChatGPT 就是其中的典型代表。
2022 年11 月30 日,美國(guó)人工智能公司OpenAI發(fā)布了其開(kāi)發(fā)的大型語(yǔ)言模型ChatGPT,全稱(chēng)“Chat Generative Pre-Trained Transformer”,意為聊天生成型預(yù)訓(xùn)練變換模型。這是一款人工智能技術(shù)驅(qū)動(dòng)的自然語(yǔ)言處理工具,以對(duì)話的形式與用戶(hù)進(jìn)行自然交互,能夠根據(jù)用戶(hù)的文本輸入,產(chǎn)生相應(yīng)的智能回答,完成在線搜索、翻譯、代碼編輯、文本生成、表格圖像生成、數(shù)學(xué)計(jì)算、數(shù)據(jù)分析等任務(wù)[2]。
自首次公開(kāi)后,ChatGPT 就受到全球矚目,成為歷史上活躍用戶(hù)增長(zhǎng)速度最快的信息應(yīng)用技術(shù)。3 月14 日,OpenAI 再次發(fā)布新版本的GPT-4。與此前的版本相比,GPT-4 在開(kāi)源合作、模型參數(shù)、算法算力、人工反饋、芯片性能、資金投入等維度進(jìn)行了全方位創(chuàng)新升級(jí),處理文本的長(zhǎng)度擴(kuò)展到25 000 個(gè)詞,創(chuàng)作能力提升,并新增圖片處理能力,多模態(tài)數(shù)據(jù)處理能力升級(jí),性能迭代之迅速令人稱(chēng)奇,微軟創(chuàng)始人比爾蓋茨評(píng)價(jià)ChatGPT 與互聯(lián)網(wǎng)的發(fā)明一樣重要[3]。隨著ChatGPT 的爆火,諸多科技類(lèi)企業(yè)如谷歌、英偉達(dá)、奧多比等紛紛推出生成式AI 模型、產(chǎn)品和相關(guān)底層基礎(chǔ)設(shè)施及服務(wù),我國(guó)則有百度公司推出“文心一言”、360 公司推出“360智腦”、阿里巴巴推出“通義千問(wèn)”等生成式人工智能產(chǎn)品,騰訊公司的混元大模型也在2023 年9 月首批通過(guò)備案,陸續(xù)面向公眾開(kāi)放。
作為生成式人工智能算法模型,雖然OpenAI 并未公開(kāi)ChatGPT 具體技術(shù)原理,但通過(guò)Instruct GPT的說(shuō)明提示,可以推證其技術(shù)路徑主要是“模型+學(xué)習(xí)機(jī)制+算法+人工反饋”的深度學(xué)習(xí)訓(xùn)練方式。即通過(guò)獎(jiǎng)勵(lì)模型、基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)機(jī)制和近段端略?xún)?yōu)化算法進(jìn)行迭代,在流暢性和連貫性方面優(yōu)化輸出結(jié)果。相較于傳統(tǒng)的智能聊天機(jī)器人,GPT-4 擁有更強(qiáng)大的模型演進(jìn)能力、通用能力、多輪對(duì)話能力和復(fù)雜推理能力,能生成更加自然、更像人類(lèi)口語(yǔ)化的對(duì)話內(nèi)容,在語(yǔ)義理解的精準(zhǔn)度、信息輸出的準(zhǔn)確率、邏輯性及語(yǔ)言流暢自然度方面優(yōu)于競(jìng)品。
作為一個(gè)大型的自然語(yǔ)言處理模型,ChatGPT在其訓(xùn)練過(guò)程中使用了大規(guī)模的數(shù)據(jù)分析及基于人類(lèi)反饋的數(shù)據(jù)標(biāo)注訓(xùn)練,無(wú)論是模仿能力、編輯能力、還是創(chuàng)造能力都需要在數(shù)據(jù)提煉、分析、學(xué)習(xí)的基礎(chǔ)上才能得出智能化結(jié)論、作出趨勢(shì)性預(yù)測(cè)。因此,從數(shù)據(jù)角度分析生成式人工智能的潛在風(fēng)險(xiǎn),遏制生成式人工智能在技術(shù)發(fā)展中的潛在隱患,并從法律規(guī)制角度為新興人工智能技術(shù)發(fā)展消除負(fù)面影響、配合技術(shù)發(fā)展趨勢(shì),有著迫切的現(xiàn)實(shí)意義。
目前,我國(guó)已經(jīng)形成了以《民法典》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》《電子商務(wù)法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律法規(guī)和《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《網(wǎng)絡(luò)音視頻服務(wù)管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等部門(mén)規(guī)章為框架的規(guī)范體系[4]。2023 年4 月中旬,國(guó)家網(wǎng)信辦公布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱(chēng)《征求意見(jiàn)稿》),全面規(guī)范了生成式人工智能的研發(fā)、利用。三個(gè)月后,國(guó)家網(wǎng)信辦等7 部門(mén)聯(lián)合公布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)《暫行辦法》),并于2023 年8 月15日正式實(shí)施。與《征求意見(jiàn)稿》相比,《暫行辦法》做出了較大改動(dòng),對(duì)于一些爭(zhēng)議較大的條款做出了調(diào)整修改,從安全治理與責(zé)任分配出發(fā),梳理了服務(wù)提供者、算法、內(nèi)容、用戶(hù)、監(jiān)管機(jī)制等方面的義務(wù),并強(qiáng)調(diào)了與《網(wǎng)絡(luò)安全法》等上位法,以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(自2022 年3 月1 日起施行,以下簡(jiǎn)稱(chēng)《算法推薦管理規(guī)定》)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(自2023 年1 月10 日起施行,以下簡(jiǎn)稱(chēng)《深度合成管理規(guī)定》)等規(guī)范的銜接與承繼關(guān)系。作為全球首部針對(duì)生成式人工智能的立法,短短三個(gè)月時(shí)間,從征求意見(jiàn)稿到正式稿的出臺(tái),體現(xiàn)了國(guó)家對(duì)于人工智能技術(shù)飛速發(fā)展的關(guān)切,彰顯出中國(guó)以人為本、安全發(fā)展并重的治理理念。
但是,相關(guān)規(guī)范在規(guī)制生成式人工智能方面面臨兩個(gè)問(wèn)題:一是受到應(yīng)用場(chǎng)景的限制,無(wú)法直接對(duì)其進(jìn)行有效規(guī)制;二是規(guī)范效力不統(tǒng)一,導(dǎo)致在治理目標(biāo)、治理機(jī)制和治理尺度上存在不一致的現(xiàn)象[5]。比如在算法備案方面,《算法推薦管理規(guī)定》《深度合成管理規(guī)定》及《暫行辦法》都明確了具有輿論屬性或者社會(huì)動(dòng)員能力的提供者應(yīng)當(dāng)履行備案手續(xù),但后二者要求相關(guān)服務(wù)提供者在變更、注銷(xiāo)時(shí)也應(yīng)當(dāng)履行備案手續(xù)。又如在安全評(píng)估方面,《算法推薦管理規(guī)定》和《暫行辦法》要求具有輿論屬性或者社會(huì)動(dòng)員能力的服務(wù)提供者應(yīng)當(dāng)按照國(guó)家有關(guān)規(guī)定開(kāi)展安全評(píng)估,《深度合成管理規(guī)定》則將安全評(píng)估范圍擴(kuò)大為開(kāi)發(fā)上線具有輿論屬性或者社會(huì)動(dòng)員能力的新產(chǎn)品、新應(yīng)用新功能的都應(yīng)當(dāng)按照國(guó)家有關(guān)規(guī)定開(kāi)展安全評(píng)估。在內(nèi)容標(biāo)識(shí)方面,《算法推薦管理規(guī)定》沒(méi)有做出具體的規(guī)定?!渡疃群铣晒芾硪?guī)定》要求服務(wù)提供者采取技術(shù)措施對(duì)使用其服務(wù)生成或者編輯的信息內(nèi)容添加不影響用戶(hù)使用的標(biāo)識(shí),并保存日志信息;明確了五種應(yīng)當(dāng)向公眾提示深度合成情況的具體情形,同時(shí)要求凡可能導(dǎo)致公眾混淆或者誤認(rèn)的情況,都應(yīng)當(dāng)作出顯著標(biāo)識(shí)。《暫行辦法》要求提供者在研發(fā)生成式人工智能技術(shù)研發(fā)過(guò)程中制定清晰、具體、可操作的標(biāo)注規(guī)則,開(kāi)展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估、抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性,并對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn)和監(jiān)督指導(dǎo),提升其遵法守法意識(shí),規(guī)范標(biāo)注工作。鑒于相關(guān)規(guī)定在具體文本表述及提供者履行相關(guān)義務(wù)的邊界界定上不盡相同,立足數(shù)據(jù)這一基礎(chǔ)依托開(kāi)展風(fēng)險(xiǎn)分析、法律回應(yīng)和技術(shù)規(guī)制,對(duì)形成有針對(duì)性的人工智能法律規(guī)范體系有著重要的現(xiàn)實(shí)價(jià)值。
從工作原理來(lái)看,ChatGPT 作為對(duì)話式機(jī)器人,需要與用戶(hù)進(jìn)行人機(jī)交互,而后通過(guò)大模型生成相應(yīng)的回答。整個(gè)大模型運(yùn)行過(guò)程中涉及的數(shù)據(jù)可分為四類(lèi),即預(yù)訓(xùn)練數(shù)據(jù)、人工標(biāo)注數(shù)據(jù)、抓取數(shù)據(jù)、人機(jī)交互數(shù)據(jù)。在應(yīng)用過(guò)程中,各種類(lèi)型的數(shù)據(jù)所面臨的法律風(fēng)險(xiǎn)是有所差異的,因此我們需要結(jié)合具體場(chǎng)景加以分析。
根據(jù)OpenAI 的介紹,ChatGPT 作為一種語(yǔ)言模型,擁有大量被訓(xùn)練過(guò)的文本數(shù)據(jù),并通過(guò)學(xué)習(xí)這些數(shù)據(jù)完成對(duì)自然語(yǔ)言語(yǔ)法、結(jié)構(gòu)、詞語(yǔ)之間的關(guān)系和上下文理解的習(xí)得。但是ChatGPT 未公開(kāi)其用于預(yù)訓(xùn)練的語(yǔ)料數(shù)據(jù)集來(lái)源。根據(jù)公開(kāi)報(bào)道和業(yè)界人士的反向推證,ChatGPT 訓(xùn)練數(shù)據(jù)60%來(lái)自于C4語(yǔ)料庫(kù)(2016 至2019 年)、22%來(lái)自于由OpenAI收集整理的WebText2(數(shù)據(jù)更新至2020 年4 月)和美國(guó)政府公開(kāi)數(shù)據(jù)庫(kù)數(shù)據(jù)、15%來(lái)自于書(shū)本、3%來(lái)自于維基百科,以英文數(shù)據(jù)為主,中文訓(xùn)練數(shù)據(jù)少。一方面,巨量語(yǔ)料數(shù)據(jù)的來(lái)源合法性存疑,張學(xué)博等[6]學(xué)者甚至直言ChatGPT 目前仍屬于算法黑箱,其是否有權(quán)獲取和使用這些數(shù)據(jù)目前仍然是存在疑問(wèn)的。另一方面,針對(duì)海量數(shù)據(jù)的真實(shí)完整性開(kāi)展審核,不僅工作量巨大而且經(jīng)濟(jì)效益低,出于成本與收益的考慮,開(kāi)發(fā)者并未將預(yù)訓(xùn)練數(shù)據(jù)視作事實(shí)材料,而是將其視為語(yǔ)料,即更注重的是其符合語(yǔ)言規(guī)則和文本理解,而并不強(qiáng)調(diào)事實(shí)的真實(shí)性、客觀性、準(zhǔn)確性與科學(xué)性。數(shù)據(jù)來(lái)源不明、數(shù)據(jù)格式混雜、內(nèi)容缺失、核查困難、可控性較低等諸多問(wèn)題,使得生成式人工智能在開(kāi)發(fā)過(guò)程的過(guò)程中就埋下了失實(shí)、錯(cuò)誤、偏見(jiàn)的隱患與缺陷。
OpenAI 招募人類(lèi)訓(xùn)練師扮演用戶(hù)和人工智能助手角色,訓(xùn)練ChatGPT 以更像人類(lèi)的方式和用戶(hù)持續(xù)進(jìn)行多輪模擬對(duì)話,并組建專(zhuān)門(mén)的人工反饋團(tuán)隊(duì),糾正回答中不符法律規(guī)范、道德約束的內(nèi)容,提升溝通的真實(shí)性、無(wú)害性和有用性,對(duì)標(biāo)人類(lèi)預(yù)期答案。以語(yǔ)料數(shù)據(jù)訓(xùn)練為基礎(chǔ)的ChatGPT 并不具備真正意義的創(chuàng)新能力和價(jià)值判斷能力,所產(chǎn)生的文字是對(duì)現(xiàn)有語(yǔ)料的深層次重組再造,呈現(xiàn)的價(jià)值觀是對(duì)其訓(xùn)練數(shù)據(jù)所蘊(yùn)含價(jià)值的反映。數(shù)據(jù)標(biāo)注正是機(jī)器學(xué)習(xí)和自然語(yǔ)言處理領(lǐng)域中非常重要的一環(huán)。一方面,作為大模型背后的算法構(gòu)建離不開(kāi)算法工程師的編程,其在編程的過(guò)程中也會(huì)自覺(jué)或不自覺(jué)地將自身內(nèi)隱偏見(jiàn)以代碼形式外化并嵌于模型架構(gòu)之中[7]。ChatGPT 的投資公司Microsoft 和開(kāi)發(fā)公司OpenAI 均為美國(guó)高科技企業(yè),西方資本主義價(jià)值觀對(duì)模型架構(gòu)的影響幾乎無(wú)可避免。另一方面,人類(lèi)訓(xùn)練師及數(shù)據(jù)標(biāo)注員的文化價(jià)值觀、專(zhuān)業(yè)知識(shí)、語(yǔ)言和地理背景,直接影響對(duì)數(shù)據(jù)的解讀,其價(jià)值觀對(duì)數(shù)據(jù)標(biāo)注結(jié)果起著決定性影響。機(jī)構(gòu)效應(yīng)與意識(shí)形態(tài)可以通過(guò)影響人工標(biāo)注與排序的一致性,進(jìn)而形成人的語(yǔ)義世界的價(jià)值或意識(shí)形態(tài)的重構(gòu)。ChatGPT 的訓(xùn)練數(shù)據(jù)來(lái)源于英語(yǔ)語(yǔ)料庫(kù),其在中文等其他語(yǔ)種的對(duì)話能力、常識(shí)積累、文化儲(chǔ)備、文本輸出準(zhǔn)確度和精度方面存在明顯不足,文化與價(jià)值觀的兼容性差,客觀上加大了價(jià)值觀的數(shù)字鴻溝,也加大了危害我國(guó)的意識(shí)形態(tài)安全的可能性。
人工智能的社會(huì)化應(yīng)用在很大程度上依賴(lài)于大數(shù)據(jù)、決策技術(shù)和算法的交互使用[8]。ChatGPT 之所以迭代速度驚人,與其具有高度的智能化特征,能夠自主地利用互聯(lián)網(wǎng)收集全球開(kāi)發(fā)者及用戶(hù)的反饋數(shù)據(jù)來(lái)調(diào)整參數(shù),循環(huán)優(yōu)化、高效迭代模型有關(guān)。在“實(shí)際應(yīng)用-數(shù)據(jù)回流-模型改進(jìn)”模式中,ChatGTP 可以自發(fā)地通過(guò)網(wǎng)絡(luò)抓取的方式將互聯(lián)網(wǎng)上所有相關(guān)字段進(jìn)行采集與處理,且ChatGPT 在獲取數(shù)據(jù)方面是無(wú)差別的,可以不受人類(lèi)干預(yù)與控制。這意味著,一方面ChatGPT 獲取的數(shù)據(jù)很難進(jìn)行實(shí)質(zhì)性的甄別與篩選,存在來(lái)源不清、信息缺失、內(nèi)容虛假甚至是全然錯(cuò)誤等問(wèn)題,具有真實(shí)性存疑的風(fēng)險(xiǎn)。另一方面,雖然互聯(lián)網(wǎng)上存在大量可以自由訪問(wèn)的信息,但抓取行為可能會(huì)因?yàn)閿?shù)據(jù)來(lái)源的不同而產(chǎn)生不同的法律風(fēng)險(xiǎn)。
這些風(fēng)險(xiǎn)包括但不限于:(1)如果獲取的是已整合公布的國(guó)家數(shù)據(jù)、政務(wù)數(shù)據(jù)。鑒于相關(guān)數(shù)據(jù)即便公開(kāi)亦需要遵循法定的利用規(guī)范流程的特殊性,ChatGPT 在沒(méi)有獲得授權(quán)的情況下收集、使用并深度加工國(guó)家數(shù)據(jù)、政務(wù)數(shù)據(jù)有不合規(guī)之虞。(2)如果獲取的是公共數(shù)據(jù)中已開(kāi)放的個(gè)人信息,ChatGPT雖然可以根據(jù)《個(gè)人信息保護(hù)法》第27 條的規(guī)定進(jìn)行收集和處理,但其利用個(gè)人信息進(jìn)行算法訓(xùn)練的行為是否屬于合理范圍以及該行為對(duì)個(gè)人權(quán)益有重大影響的認(rèn)定仍然存在很大的爭(zhēng)議和不確定性。而且ChatGPT 的隱私條款中既沒(méi)有對(duì)收集到的個(gè)人信息全部?jī)H用于訓(xùn)練使用作出實(shí)際承諾,也沒(méi)有明確其收集數(shù)據(jù)時(shí)僅限于最低限度以及合理使用范圍,對(duì)應(yīng)于《個(gè)人信息保護(hù)法》第6 條“處理個(gè)人信息應(yīng)當(dāng)限于實(shí)現(xiàn)目的的最小范圍”而言,這無(wú)疑存在極大的合規(guī)隱患。(3)如果獲取的數(shù)據(jù)來(lái)自對(duì)受著作權(quán)保護(hù)作品的挖掘。由于我國(guó)著作權(quán)法和司法實(shí)踐中并未承認(rèn)文本挖掘構(gòu)成合理使用,ChatGPT 如果在沒(méi)有獲得作者授權(quán)的情況下就對(duì)文本數(shù)據(jù)進(jìn)行收集、處理、深加工,將觸及挖掘行為授權(quán)、二次創(chuàng)作許可、著作權(quán)侵權(quán)等法律風(fēng)險(xiǎn)。(4)如果是通過(guò)網(wǎng)絡(luò)爬蟲(chóng)從具有禁止第三方爬取數(shù)據(jù)條款的網(wǎng)站獲取的數(shù)據(jù)。依據(jù)2022 年12 月公布的《中華人民共和國(guó)反不正當(dāng)競(jìng)爭(zhēng)法(修訂草案征求意見(jiàn)稿)》第18 條“經(jīng)營(yíng)者不得違反約定或者合理、正當(dāng)?shù)臄?shù)據(jù)抓取協(xié)議,獲取和使用他人商業(yè)數(shù)據(jù)”,這類(lèi)數(shù)據(jù)屬于企業(yè)的競(jìng)爭(zhēng)性財(cái)產(chǎn)權(quán)益,在未告知的情況下抓取此類(lèi)信息將構(gòu)成不正當(dāng)競(jìng)爭(zhēng)。(5)如果獲取的是非法來(lái)源的數(shù)據(jù)。如用戶(hù)在合法網(wǎng)站上傳侵權(quán)作品、盜版書(shū)籍或非法信息,甚至直接創(chuàng)建非法網(wǎng)站,則ChatGPT的抓取、處理行為本身即是侵犯他人權(quán)益,甚至可能構(gòu)成非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪[9]。
ChatGPT 作為生成式人工智能技術(shù)的里程碑式產(chǎn)品,在“大數(shù)據(jù)+大算力+強(qiáng)算法=大模型”的技術(shù)路線基礎(chǔ)上,向“基礎(chǔ)大模型+指令微調(diào)”的方向進(jìn)行持續(xù)探索,成功開(kāi)創(chuàng)了全新的技術(shù)應(yīng)用范式[10]。利用大模型技術(shù),推動(dòng)人工智能技術(shù)落地模式變革,構(gòu)建“低門(mén)檻、高效率、高情商”的人機(jī)共創(chuàng)新模式,不僅對(duì)應(yīng)用場(chǎng)景、基礎(chǔ)設(shè)施等各層面產(chǎn)生深刻影響,更給人類(lèi)社會(huì)帶來(lái)了真實(shí)而緊迫的安全風(fēng)險(xiǎn)和法律挑戰(zhàn)。
(1)數(shù)據(jù)泄露隱患大。ChatGPT 會(huì)對(duì)用戶(hù)使用過(guò)程中輸入的信息進(jìn)行迭代訓(xùn)練,一經(jīng)上線便被大量應(yīng)用于公文寫(xiě)作、代碼編寫(xiě)等工作領(lǐng)域,產(chǎn)出能力極快。在使用過(guò)程中,用戶(hù)可能會(huì)向大模型披露個(gè)人信息、商業(yè)秘密甚至是國(guó)家安全信息,ChatGPT強(qiáng)大的推理能力導(dǎo)致個(gè)人、企業(yè)和政府?dāng)?shù)據(jù)存在泄露風(fēng)險(xiǎn)。三星DS 部門(mén)于2023 年3 月11 日允許員工使用ChatGPT,20 天內(nèi)出現(xiàn)3 起機(jī)密資料外泄事件,半導(dǎo)體設(shè)備測(cè)量資料、產(chǎn)品良率等內(nèi)容已被存入ChatGPT 數(shù)據(jù)庫(kù)中,并傳輸至美國(guó)公司。目前,微軟已宣布將Office 與ChatGPT 整合,推出Microsoft Teams 高級(jí)版,可自動(dòng)生成會(huì)議筆記,加大政府及企業(yè)辦公數(shù)據(jù)泄露隱患。
(2)數(shù)據(jù)跨境流動(dòng)風(fēng)險(xiǎn)高。ChatGPT 并非本地化部署,根據(jù)ChatGPT 隱私政策第8 部分(security and retention)及 第9 部 分(international users),Open AI 所收集的個(gè)人信息將存儲(chǔ)于美國(guó),而且在存儲(chǔ)期限維度沒(méi)有進(jìn)行明確約定。這意味著,如果國(guó)內(nèi)主體使用ChatGPT 輸入個(gè)人信息、商業(yè)秘密或者國(guó)家安全信息等數(shù)據(jù)時(shí),這些數(shù)據(jù)將先被傳輸至境外數(shù)據(jù)處理中心,再由應(yīng)用反饋回復(fù)。相關(guān)數(shù)據(jù)將被存儲(chǔ)到ChatGPT 自身的語(yǔ)料庫(kù)中,且存儲(chǔ)期限不明確[11]。當(dāng)數(shù)據(jù)傳輸量達(dá)到一定規(guī)模,大概率在事實(shí)上構(gòu)成數(shù)據(jù)出境。如果未能得到及時(shí)有效的審批、監(jiān)管,則不僅會(huì)引發(fā)極大的商業(yè)風(fēng)險(xiǎn),而且可能通過(guò)滲透數(shù)字安全進(jìn)而影響國(guó)家安全。
以ChatGPT 為代表的生成式人工智能不單能完成自然語(yǔ)言的處理與輸出,其在撰寫(xiě)演講稿、寫(xiě)代碼、寫(xiě)專(zhuān)利、寫(xiě)論文、做翻譯、編劇本等各種跨行業(yè)的業(yè)務(wù)上幾乎無(wú)所不能。人工智能生成數(shù)據(jù)能否獲得專(zhuān)利權(quán)、著作權(quán)等知識(shí)產(chǎn)權(quán)的保護(hù)也成為理論界與實(shí)務(wù)界熱議的話題之一。
(1)關(guān)于人機(jī)互動(dòng)過(guò)程中生成物的可專(zhuān)利性。對(duì)于符合專(zhuān)利法條件的人工智能技術(shù)可以獲得專(zhuān)利保護(hù)目前在域內(nèi)外的學(xué)界和實(shí)務(wù)已基本達(dá)成共識(shí)。但是,利用人工智能技術(shù)所發(fā)明出的生成物能否獲得專(zhuān)利權(quán),在實(shí)踐中還存在較大分歧。如自2019 年開(kāi)始,人工智能系統(tǒng)DABUS 的創(chuàng)造者Stephen Thaler陸續(xù)在全球發(fā)起專(zhuān)利申請(qǐng),將DABUS 指認(rèn)為專(zhuān)利發(fā)明人,并引發(fā)持續(xù)至今的一系列案件。美國(guó)、英國(guó)、澳大利亞、新西蘭等國(guó)家相繼否認(rèn)了DABUS 的發(fā)明人地位,僅有南非將其登記為發(fā)明人。關(guān)于人機(jī)互動(dòng)過(guò)程中生成物的可專(zhuān)利性分歧產(chǎn)生點(diǎn)在于人工智能發(fā)明創(chuàng)造主體的身份資格認(rèn)定問(wèn)題,以美國(guó)專(zhuān)利法35U.S.C.為例,第100 條、第111(a)條都明確要求發(fā)明人和共同發(fā)明人必須是人[12]。這里的人不僅僅是指生理上的人類(lèi),而是指被專(zhuān)利法認(rèn)可有資格的自然人,不認(rèn)可機(jī)器具有發(fā)明人身份資格[13]。而南非由于其專(zhuān)利法并未定義發(fā)明人一詞,對(duì)專(zhuān)利采用的是無(wú)實(shí)質(zhì)審查制度,不會(huì)在授予專(zhuān)利權(quán)前審查有關(guān)申請(qǐng)是否具有新穎性和創(chuàng)造性,只有在他人對(duì)專(zhuān)利進(jìn)行申請(qǐng)撤銷(xiāo)時(shí)才會(huì)審查相關(guān)專(zhuān)利的實(shí)質(zhì)性問(wèn)題。從我國(guó)的專(zhuān)利保護(hù)實(shí)踐來(lái)看,我國(guó)專(zhuān)利法《實(shí)施細(xì)則》第13 條明確規(guī)定專(zhuān)利法所稱(chēng)發(fā)明人或者設(shè)計(jì)人,是指對(duì)發(fā)明創(chuàng)造的實(shí)質(zhì)性特點(diǎn)作出創(chuàng)造性貢獻(xiàn)的人,即從文義解釋出發(fā),如果相關(guān)主體以生成式人工智能技術(shù)作為專(zhuān)利的發(fā)明人申請(qǐng)專(zhuān)利,恐難以通過(guò)實(shí)質(zhì)審查,即便是人工智能技術(shù)高度自主研發(fā)的生成物也因技術(shù)本身不具備專(zhuān)利法上的發(fā)明人資格而不能獲得專(zhuān)利權(quán)。
(2)關(guān)于人機(jī)互動(dòng)過(guò)程中生成物的著作權(quán)保護(hù)。傳統(tǒng)的分析式人工智能大多提供信息檢索或單句對(duì)話服務(wù),學(xué)界和實(shí)務(wù)界基本達(dá)成了此類(lèi)作品不符合版權(quán)注冊(cè)的要求、不受版權(quán)法保護(hù)的共識(shí)。而ChatGPT 類(lèi)人工智能通過(guò)與人類(lèi)的互動(dòng)產(chǎn)生了大量的交互數(shù)據(jù),其中既涉及文本內(nèi)容的自動(dòng)化編纂、智能化潤(rùn)色處理、表達(dá)范式的轉(zhuǎn)換,也存在呈現(xiàn)內(nèi)容的多模態(tài)轉(zhuǎn)換、視覺(jué)元素的重新編排,甚至代碼模型的組織架構(gòu)。反對(duì)將生成式人工智能生成的內(nèi)容視作《著作權(quán)法》中作品的學(xué)者認(rèn)為,對(duì)于人工智能生產(chǎn)的內(nèi)容雖然在表現(xiàn)形式上與傳統(tǒng)智力成果幾乎沒(méi)有區(qū)別[14],但本質(zhì)上更多的是應(yīng)用算法、規(guī)則和模板的結(jié)果,不具有個(gè)性特征,不符合作品獨(dú)創(chuàng)性的要求,因此不能構(gòu)成作品[4]。而深圳市南山區(qū)法院在裁判騰訊訴上海盈訊公司著作權(quán)侵權(quán)案中則認(rèn)為從涉案文案的外在形式與生成過(guò)程分析,該文章的特定表現(xiàn)形式及其源于創(chuàng)作者個(gè)性化的選擇和安排,并由Dreamwriter 軟件在技術(shù)上生成的創(chuàng)作過(guò)程均滿(mǎn)足著作權(quán)法對(duì)文字作品的保護(hù)條件,本院認(rèn)定涉案文字屬于我國(guó)著作權(quán)法所保護(hù)的文字作品[15]。上述兩種觀點(diǎn),無(wú)論是支持還是反對(duì),其結(jié)論都是基于一個(gè)共同的前提,即人工智能缺乏自主意識(shí)。然而隨著生成式人工智能技術(shù)的迭代,也有學(xué)者指出目前ChatGPT 類(lèi)人工智能已經(jīng)發(fā)展到能夠在生產(chǎn)中注入自主意識(shí),通過(guò)神經(jīng)卷積形成深度學(xué)習(xí)能力,具有類(lèi)人的智慧和自我反省能力,建議應(yīng)當(dāng)基于技術(shù)模型剖析生成式人工智能的知識(shí)產(chǎn)權(quán)屬性,對(duì)ChatGPT 的生成物賦予知識(shí)產(chǎn)權(quán)加以保護(hù)[16]。
康德[17]指出在自然界中,每一物件都是按照規(guī)律起作用。唯獨(dú)有理性的東西有能力按照對(duì)規(guī)律的觀念,也就是按照原則而行動(dòng),或者說(shuō),具有意志。因此,從自由意志的哲學(xué)思考和社會(huì)制度構(gòu)建考慮出發(fā),筆者認(rèn)為ChatGPT 雖然在接收端受到了用戶(hù)的直接指令要求和控制,但其基于獎(jiǎng)勵(lì)模型、人類(lèi)反饋的強(qiáng)化學(xué)習(xí)機(jī)制和近段端略?xún)?yōu)化算法進(jìn)行自主迭代并自發(fā)在流暢性和連貫性方面優(yōu)化輸出結(jié)果,事實(shí)上具備了一定的自主創(chuàng)作能力,人機(jī)互動(dòng)過(guò)程中的生成物具有獨(dú)創(chuàng)性與創(chuàng)新性,應(yīng)當(dāng)受到著作權(quán)保護(hù),生成式人工智能技術(shù)可以作為共同創(chuàng)作者受到著作權(quán)法的保護(hù)。
ChatGPT 的前端是數(shù)據(jù)集的所有者和研發(fā)者,中端是算法模型,后端是模型的使用者。ChatGPT線上實(shí)時(shí)交互的過(guò)程中,用戶(hù)與大模型的投喂操作一方面豐富了開(kāi)發(fā)者的數(shù)據(jù)集,另一方面也使得部分別有目的的用戶(hù)和組織可以利用生成式人工智能的算法原理來(lái)對(duì)大模型產(chǎn)生偏向性訓(xùn)練,通過(guò)投放存在事實(shí)性錯(cuò)誤和常識(shí)偏差等問(wèn)題的內(nèi)容,誤導(dǎo)人工智能的算法模型,從而生成含有暴力、種族歧視、淫穢內(nèi)容、毒品和犯罪等傾向的不良、虛假甚至違法信息。輕則擾亂信息的真實(shí)性、客觀性與準(zhǔn)確性,誤導(dǎo)普通用戶(hù)。重則若是被一些不法分子利用其高產(chǎn)能的便利性、大模型的偏向性,快速產(chǎn)生出不利我國(guó)健康穩(wěn)定發(fā)展的虛假信息,并大批量投放至網(wǎng)絡(luò)上,將嚴(yán)重影響社會(huì)穩(wěn)定,危害國(guó)家安全。
ChatGPT作為生成式人工智能技術(shù)的重大突破,使得人工智能產(chǎn)業(yè)迎來(lái)拐點(diǎn),提升了人類(lèi)生產(chǎn)生活效率并為智能化社會(huì)帶來(lái)更大的想象空間,也為經(jīng)濟(jì)社會(huì)發(fā)展帶來(lái)諸多問(wèn)題和風(fēng)險(xiǎn)。這些風(fēng)險(xiǎn)看似是新技術(shù)帶來(lái)的挑戰(zhàn),但實(shí)質(zhì)上仍沒(méi)有超越現(xiàn)有的研究范疇[18]。無(wú)論是數(shù)據(jù)來(lái)源的合法性風(fēng)險(xiǎn)、信息泄露的現(xiàn)實(shí)挑戰(zhàn)還是不良、虛假或違法信息的生成問(wèn)題,本質(zhì)上還是傳統(tǒng)數(shù)據(jù)管理帶來(lái)的風(fēng)險(xiǎn)映射,根源仍然在于科學(xué)技術(shù)的進(jìn)步與數(shù)據(jù)監(jiān)管滯后之間的沖突。因此,筆者認(rèn)為可以基于過(guò)往技術(shù)規(guī)制的經(jīng)驗(yàn)來(lái)選擇最佳規(guī)制理論和法律路徑。
隨著ChatGPT 這類(lèi)生成式人工智能技術(shù)的變革性發(fā)展的到來(lái),越來(lái)越多的企業(yè)、組織、國(guó)家意識(shí)到人工智能技術(shù)未來(lái)將深刻影響科技產(chǎn)業(yè)、社會(huì)經(jīng)濟(jì)發(fā)展,甚至各國(guó)經(jīng)濟(jì)科技和軍事等綜合實(shí)力對(duì)比。目前,全球人工智能發(fā)展呈現(xiàn)出中美兩國(guó)引領(lǐng)、其他國(guó)家激烈競(jìng)逐的總體格局,新技術(shù)重塑世界競(jìng)爭(zhēng)新格局的情形正在當(dāng)下發(fā)生。對(duì)于監(jiān)管者而言,傳統(tǒng)監(jiān)管體系和監(jiān)管手段已經(jīng)無(wú)法完全適應(yīng)新模式、新產(chǎn)業(yè)、新業(yè)態(tài)不斷涌現(xiàn)帶來(lái)的規(guī)制不確定性,必須要用前瞻性視角去審視科技創(chuàng)新,改進(jìn)傳統(tǒng)法治手段,摒棄運(yùn)動(dòng)式執(zhí)法或運(yùn)動(dòng)式治理,轉(zhuǎn)向更為靈活、敏捷的“包容審慎監(jiān)管”路徑。
國(guó)務(wù)院辦公廳2017 年發(fā)布《關(guān)于創(chuàng)新管理優(yōu)化服務(wù)培育壯大經(jīng)濟(jì)發(fā)展新動(dòng)能加快新舊動(dòng)能接續(xù)轉(zhuǎn)換的意見(jiàn)》,首次明確提出探索動(dòng)態(tài)包容審慎監(jiān)管制度。2020 年1 月,隨著《優(yōu)化營(yíng)商環(huán)境條例》正式實(shí)施,包容審慎監(jiān)管這一最初作為公共政策話語(yǔ)的概念演變?yōu)檎降姆尚g(shù)語(yǔ)。對(duì)于生成式人工智能這種一時(shí)看不準(zhǔn)發(fā)展趨勢(shì)的新技術(shù)、新模式,筆者認(rèn)為監(jiān)管者應(yīng)當(dāng)在法治軌道上推進(jìn)理性的包容審慎監(jiān)管,一方面要包容監(jiān)管,即對(duì)人工智能發(fā)展中可能存在或者產(chǎn)生的錯(cuò)誤持寬容態(tài)度,特別是在這種新業(yè)態(tài)發(fā)展的初期階段,要給技術(shù)和市場(chǎng)的發(fā)展留足必要的發(fā)展時(shí)間和試錯(cuò)空間[19];另一方面要審慎監(jiān)管,即著眼于維護(hù)國(guó)家權(quán)益、公共利益及公民個(gè)人合法權(quán)益的價(jià)值取向,持續(xù)地追蹤與分析技術(shù)的重要變化,對(duì)興新技術(shù)發(fā)展帶來(lái)的潛在風(fēng)險(xiǎn)進(jìn)行積極預(yù)防和控制,發(fā)展中規(guī)范、在規(guī)范中發(fā)展,實(shí)現(xiàn)效率與安全的平衡。
《暫行辦法》對(duì)生成式人工智能發(fā)展提出了分類(lèi)分級(jí)監(jiān)管的思路,一是在第三條明確了對(duì)生成式人工智能服務(wù)進(jìn)行分類(lèi)分級(jí)監(jiān)管的原則;二是在第六條強(qiáng)調(diào)了必須要有序推動(dòng)公共數(shù)據(jù)的分類(lèi)和分級(jí)開(kāi)放,并擴(kuò)大高質(zhì)量的公共訓(xùn)練數(shù)據(jù)資源;三是在第十六條中指出由國(guó)家有關(guān)主管部門(mén)根據(jù)生成式人工智能服務(wù)適用的不同領(lǐng)域制定相應(yīng)的分類(lèi)分級(jí)監(jiān)管規(guī)則或者指引,進(jìn)行行業(yè)部門(mén)監(jiān)管。數(shù)據(jù)分類(lèi)分級(jí)的監(jiān)管思路在《中華人民共和國(guó)數(shù)據(jù)安全法》的二十一條已有類(lèi)似體現(xiàn),行業(yè)主管部門(mén)參與監(jiān)管政策的制定可以使人工智能監(jiān)管法規(guī)具有更強(qiáng)的針對(duì)性,二者相輔相成,共同促進(jìn)立法對(duì)生產(chǎn)人工智能的監(jiān)管體系的強(qiáng)化。但是目前我國(guó)并未提出進(jìn)一步的數(shù)據(jù)或者生成式人工智能技術(shù)分類(lèi)分級(jí)依據(jù)以及操作辦法??梢钥紤]由各行業(yè)主管部門(mén)根據(jù)行業(yè)特點(diǎn)或需求,依據(jù)生成式人工智能應(yīng)用的服務(wù)場(chǎng)景,制定分類(lèi)分級(jí)規(guī)范指引。對(duì)應(yīng)用中可能出現(xiàn)的風(fēng)險(xiǎn)及影響從高到低進(jìn)行排序,再根據(jù)不同風(fēng)險(xiǎn)等級(jí)劃定不同的監(jiān)管方式,在強(qiáng)調(diào)技術(shù)治理與規(guī)范的基礎(chǔ)上,厘清義務(wù)邊界。
相較于《算法推薦管理規(guī)定》《深度合成管理規(guī)定》兩部規(guī)范,《暫行辦法》不少條款從數(shù)據(jù)監(jiān)管出發(fā)積極回應(yīng)了生成式人工智能帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)。如《暫行辦法》第四條從國(guó)家社會(huì)、主體平等及隱私安全3 個(gè)角度回應(yīng)了生成數(shù)據(jù)的價(jià)值取向和真實(shí)性、合法性、安全性要求;第七條至第十七條厘清了預(yù)訓(xùn)練數(shù)據(jù)、標(biāo)注數(shù)據(jù)、生成數(shù)據(jù)的責(zé)任主體和基本要求,對(duì)生成式人工智能服務(wù)提供者作了安全評(píng)估、算法備案、內(nèi)容標(biāo)識(shí)等方面的義務(wù)規(guī)制[20]。特別是《暫行辦法》第七條明確了對(duì)預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng)應(yīng)當(dāng)遵循的原則。但相關(guān)標(biāo)準(zhǔn)界定仍處于模糊地帶,如第七條第四款要求采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性。從法律術(shù)語(yǔ)來(lái)看,這條對(duì)服務(wù)提供者所提供的要求非常高。目前的技術(shù)實(shí)踐中,大眾搜索引擎甚至學(xué)術(shù)研究提供的內(nèi)容都很難保證其真實(shí)準(zhǔn)確及客觀多樣性。再比如,第七條要求生成式人工智能服務(wù)提供者必須確保訓(xùn)練數(shù)據(jù)來(lái)源的合法性,然而卻未明確規(guī)定提供者應(yīng)承擔(dān)的具體責(zé)任程度,僅是提示性地要求生成式人工智能服務(wù)提供者使用的訓(xùn)練數(shù)據(jù)如果包含個(gè)人信息,應(yīng)當(dāng)征得個(gè)人信息主體的同意或符合法律、行政法規(guī)規(guī)定的其他情形。由于《暫行辦法》效力階層所限,其本身無(wú)法為個(gè)人信息處理的合法性基礎(chǔ)設(shè)置例外條款,且2023 年度國(guó)務(wù)院立法工作計(jì)劃已將《人工智能法草案》列為預(yù)備提請(qǐng)全國(guó)人大常委會(huì)審議的法律草案,可以考慮今后參照知識(shí)產(chǎn)權(quán)制度中的權(quán)利用盡原則,在《人工智能法》中增加數(shù)據(jù)責(zé)任豁免制度,明確提供者通過(guò)公開(kāi)的數(shù)據(jù)交易所進(jìn)行數(shù)據(jù)交易獲得的數(shù)據(jù),只要能證明其有合法來(lái)源,就可以對(duì)數(shù)據(jù)原權(quán)利人免除侵權(quán)責(zé)任。引入大數(shù)據(jù)產(chǎn)品供給的形式,既能厘清責(zé)任邊界、解決數(shù)據(jù)來(lái)源合法性問(wèn)題,又能提高生成式人工智能技術(shù)提供者獲取數(shù)據(jù)的效率,還能打通數(shù)據(jù)與人工智能交互的上下游產(chǎn)業(yè)鏈條,可以形成多贏的良性循環(huán)。
ChatGPT 作為人工智能技術(shù)的重大突破,在極大地提高人類(lèi)工作效率的同時(shí)也對(duì)傳統(tǒng)法律體系帶來(lái)了一系列挑戰(zhàn)。從數(shù)據(jù)角度分析生成式人工智能的潛在風(fēng)險(xiǎn),遏制生成式人工智能在技術(shù)發(fā)展中的潛在隱患,并從法律規(guī)制角度為新興人工智能技術(shù)發(fā)展消除負(fù)面影響是確保ChatGPT 等人工智能技術(shù)良性發(fā)展的必然選擇[21]。目前我國(guó)已針對(duì)人工智能技術(shù)建立起了初步的規(guī)范體系,但為了更好地抓住數(shù)字經(jīng)濟(jì)時(shí)代借助人工智能技術(shù)發(fā)展的機(jī)遇,我們應(yīng)該以包容審慎的態(tài)度,從順應(yīng)產(chǎn)業(yè)發(fā)展、平衡安全與效率的角度出發(fā),對(duì)生成式人工智能的專(zhuān)門(mén)立法進(jìn)行優(yōu)化,以科學(xué)的技術(shù)治理配合技術(shù)發(fā)展趨勢(shì),形成有針對(duì)性的規(guī)范體系。