嚴(yán) 馳
(武漢理工大學(xué)法學(xué)與人文社會(huì)學(xué)院 武漢 430070)
自1956年約翰·麥卡錫首次提出人工智能(AI)概念以來,AI技術(shù)已經(jīng)取得了令人矚目的發(fā)展.近年來以ChatGPT為代表的大模型項(xiàng)目在AI領(lǐng)域炙手可熱,GPT4作為ChatGPT的升級(jí)版,在圖像輸入、文字處理、推理能力等方面有了全方位地提升,展現(xiàn)出顛覆性的技術(shù)能力.同時(shí),GPT4的出現(xiàn)也引發(fā)了數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)、核心算法方面的若干問題,有必要對其進(jìn)行全面檢視與系統(tǒng)思考,確保科技創(chuàng)新工作平穩(wěn)有序開展.
近年來,AI技術(shù)所引發(fā)的技術(shù)風(fēng)險(xiǎn)和社會(huì)風(fēng)險(xiǎn)日益凸顯,引發(fā)了學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注.如吳漢東[1]認(rèn)為AI技術(shù)已經(jīng)全面介入人類生活并在全球范圍內(nèi)建立起獨(dú)特的生態(tài)格局,應(yīng)重視AI引發(fā)的負(fù)面影響,形成規(guī)范的社會(huì)治理體系;譚毓安[2]指出以深度學(xué)習(xí)為代表的AI技術(shù)在和人類社會(huì)生活的融合過程中面臨著多種新型安全攻擊,今后應(yīng)探索更多具備可解釋性的攻擊防御方法;彭長根[3]從技術(shù)、標(biāo)準(zhǔn)和法律的維度提出了加強(qiáng)AI安全治理技術(shù)體系研究、構(gòu)建AI技術(shù)標(biāo)準(zhǔn)與應(yīng)用規(guī)范、健全AI領(lǐng)域法規(guī)及制度體系等治理對策.
如今圍繞生成式AI大模型的研究已頗為豐富,主要是以GPT4的ChatGPT為分析對象,關(guān)于GPT4的特定研究較少.如鄭世林等人[4]研究了新一代生成式AI技術(shù)對經(jīng)濟(jì)和社會(huì)的影響,指出ChatGPT雖然加速了傳統(tǒng)社會(huì)體系的重塑,但與此同時(shí)也帶來了科技與學(xué)術(shù)倫理、價(jià)值滲透、信息泄露等問題;叢立先等人[5]以ChatGPT為對象分析了聊天機(jī)器人數(shù)據(jù)挖掘、內(nèi)容生成以及內(nèi)容完成后的版權(quán)風(fēng)險(xiǎn),提出了涵蓋技術(shù)標(biāo)準(zhǔn)、司法保護(hù)、行政監(jiān)管和平臺(tái)治理的綜合體系構(gòu)建方案;鄧建鵬等人[6]將目前ChatGPT模型引發(fā)的問題概括為生成內(nèi)容知識(shí)產(chǎn)權(quán)歸屬爭議、數(shù)據(jù)相關(guān)法律風(fēng)險(xiǎn)和挑戰(zhàn)學(xué)校及學(xué)術(shù)倫理規(guī)范3個(gè)方面并提出了相應(yīng)的規(guī)制對策,為生成式AI大模型的法律風(fēng)險(xiǎn)應(yīng)對提供了參考.2023年3月,OpenAI公司正式發(fā)布新一代生成式AI大模型GPT4.2023年4月,OpenAI創(chuàng)始人山姆·阿爾特曼在接受采訪時(shí)表示將專注于GPT4的技能提升,短期內(nèi)并無開發(fā)GPT-5的計(jì)劃.換言之,GPT-4將是未來較長一段時(shí)間內(nèi)生成式AI大模型的領(lǐng)軍者.在此背景下,有必要以GPT4為研究對象,更新對生成式AI大模型技術(shù)的認(rèn)識(shí),分析GPT4的潛在風(fēng)險(xiǎn)并提出相應(yīng)的規(guī)制方案.
如今AI正在經(jīng)歷從感知智能到認(rèn)知智能的范式轉(zhuǎn)變,一系列AI大模型的興起不斷刷新著大眾對AI技術(shù)的認(rèn)知邊界.大模型的背后是自然語言處理(NLP)、機(jī)器學(xué)習(xí)(ML)、計(jì)算機(jī)視覺(CV)、圖形學(xué)習(xí)(GL)等技術(shù)數(shù)十年的研究和發(fā)展.本文關(guān)注的GPT4是NLP領(lǐng)域最具代表性的生成式AI大模型之一.NLP領(lǐng)域的大型語言模型分為GPT和BERT 2種主流技術(shù)路線.OpenAI公司的初代模型GPT1誕生于2018年6月.GPT1發(fā)布之初并未引起足夠的重視,直至2022年11月ChatGPT推出后才引發(fā)社會(huì)廣泛關(guān)注.GPT的特點(diǎn)是“自回歸”,通過“預(yù)訓(xùn)練+提示”的方式,在語言生成上更具優(yōu)勢.2018年10月,谷歌開發(fā)的BERT模型問世.BERT的特點(diǎn)是“雙向”,通過“預(yù)訓(xùn)練+微調(diào)”的方式,激發(fā)了大量關(guān)于BERT模型的改進(jìn)與應(yīng)用研究.GPT和BERT的共性是均采用了大規(guī)模的預(yù)訓(xùn)練.預(yù)訓(xùn)練技術(shù)最早出現(xiàn)于CV領(lǐng)域的遷移學(xué)習(xí)中,如今正被廣泛應(yīng)用于增強(qiáng)其他領(lǐng)域的模型性能.以BERT,ChatGPT為代表的生成式AI大模型憑借著高效的Transformer模型架構(gòu)以及參數(shù)量、數(shù)據(jù)量的指數(shù)級(jí)增長,已經(jīng)可以完成NLP領(lǐng)域的絕大部分任務(wù),同時(shí)在CV,GL等領(lǐng)域也表現(xiàn)出巨大的發(fā)展?jié)摿?
在基于GPT3.5調(diào)整而來的ChatGPT中,研究人員通過加入基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)、提示優(yōu)化、思想鏈等技術(shù),大大提升了模型的語言理解和分析能力.GPT4擁有強(qiáng)大的神經(jīng)網(wǎng)絡(luò)預(yù)測功能,在ChatGPT的基礎(chǔ)上實(shí)現(xiàn)了從單模態(tài)向多模態(tài)的轉(zhuǎn)變,將生成式AI大模型的安全性、創(chuàng)造性、邏輯性等提升到一個(gè)新高度.人類從真實(shí)世界中接收到的信息往往呈現(xiàn)出多模態(tài)的來源,由單模態(tài)向多模態(tài)的轉(zhuǎn)變有利于引入更多元的數(shù)據(jù)信息,增強(qiáng)模型的通用性和泛化能力[7].因此,GPT4展現(xiàn)出的信息收集處理能力比ChatGPT更勝一籌,進(jìn)一步提高了人機(jī)交互的效率和體驗(yàn).GPT4的顛覆性不僅體現(xiàn)在技術(shù)層面,還體現(xiàn)在對人類社會(huì)的影響.GPT4在SAT,GRE等考試中擁有超越絕大多數(shù)人的表現(xiàn),其強(qiáng)大的文本和圖像理解能力、突出的模型表達(dá)能力甚至有望取代部分基礎(chǔ)性勞動(dòng)崗位如電話接線員、數(shù)據(jù)庫錄入員等.
目前GPT4在文本生成、互動(dòng)交流等方面成熟度較高,但技術(shù)上尚存在一些缺陷.如對文本形式外的輸入輸出處理能力不足、容易產(chǎn)生不準(zhǔn)確或不相關(guān)的回答等.GPT4在感知和判斷方面已經(jīng)逐漸接近甚至超越了人類,但還無法向人類一樣進(jìn)行邏輯推理、決策分析,且GPT4更依賴于通過訓(xùn)練數(shù)據(jù)集進(jìn)行模仿回答,不擅長信息來源驗(yàn)證和文本的真實(shí)性核查.雖然GPT4可以輸出令人印象深刻的內(nèi)容,但理解模型的生成邏輯仍然是一個(gè)挑戰(zhàn).尤其是在GPT4的輸出內(nèi)容未能達(dá)到預(yù)期目的時(shí),可解釋性的缺乏使得控制輸出內(nèi)容十分困難.目前,GPT4等生成式AI大模型的開發(fā)主要集中于預(yù)訓(xùn)練階段,相應(yīng)的技術(shù)也較為成熟.與從零開始訓(xùn)練模型不同,之后應(yīng)進(jìn)一步探索如何為下游任務(wù)進(jìn)行模型的微調(diào)和優(yōu)化,在原有的基礎(chǔ)能力和對新任務(wù)的適應(yīng)性能之間進(jìn)行權(quán)衡.
GPT4的前作ChatGPT自2022年底發(fā)布以來,短短2個(gè)月內(nèi)注冊用戶就超過1億,引發(fā)了世界范圍內(nèi)的廣泛關(guān)注[8],如今世界科技巨頭正在熱火朝天地開展AI領(lǐng)域的軍備競賽.人們應(yīng)清醒地認(rèn)識(shí)到AI技術(shù)是一把“雙刃劍”,在披荊斬棘的同時(shí)也存在自傷的風(fēng)險(xiǎn).本文重點(diǎn)探討了GPT4在數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)、算法規(guī)制等重點(diǎn)方面存在的風(fēng)險(xiǎn)和問題,希望在充分發(fā)揮GPT4強(qiáng)大功能的同時(shí)引導(dǎo)AI技術(shù)向更有利于促進(jìn)社會(huì)進(jìn)步的方向發(fā)展.
數(shù)據(jù)是AI技術(shù)發(fā)展的基礎(chǔ),生成式AI大模型的構(gòu)建和優(yōu)化需要大量的數(shù)據(jù)支持,掌握更多數(shù)據(jù)的一方將在未來的AI競爭居于優(yōu)勢地位.盡管OpenAI公司未公布GPT4模型的參數(shù)量及預(yù)訓(xùn)練的數(shù)據(jù)來源,但從GPT4全方位的能力提升來看,GPT4的參數(shù)量不會(huì)少于GPT3的1750億.GPT4的數(shù)據(jù)大多來源于可公開使用的互聯(lián)網(wǎng)數(shù)據(jù)或第三方許可提供的數(shù)據(jù),GPT4的訓(xùn)練數(shù)據(jù)庫中掌握了全面且細(xì)致的個(gè)人數(shù)據(jù),如社交互動(dòng)數(shù)據(jù)、消費(fèi)交易數(shù)據(jù)、身份信息類數(shù)據(jù)以及其他更為私密和具化的數(shù)據(jù)[9].其中部分?jǐn)?shù)據(jù)來源于使用過程中用戶主動(dòng)提供的數(shù)據(jù),如在社交軟件賬號(hào)申請時(shí),一些用戶會(huì)主動(dòng)提供個(gè)人信息.還有部分?jǐn)?shù)據(jù)來源于用戶的被動(dòng)“讓渡”.大量社交軟件在用戶協(xié)議或隱私政策中強(qiáng)制性要求用戶在使用軟件時(shí)授權(quán)運(yùn)營方進(jìn)行個(gè)人信息的收集和處理[10],GPT4亦存在類似的要求.OpenAI官網(wǎng)隱私政策第10條規(guī)定,如果用戶不提供使用服務(wù)所需的個(gè)人信息,則將無法使用相關(guān)功能.
2.1.1 設(shè)定數(shù)據(jù)存儲(chǔ)期限
隨著數(shù)據(jù)規(guī)模的擴(kuò)大,對數(shù)據(jù)承載和保護(hù)能力的要求也在不斷提高,數(shù)據(jù)泄露的風(fēng)險(xiǎn)逐漸顯現(xiàn),可能會(huì)侵犯到用戶的隱私權(quán)和個(gè)人信息權(quán)益或企業(yè)的商業(yè)秘密等.近日,OpenAI創(chuàng)始人山姆·阿爾特曼在推特上承認(rèn),由于系統(tǒng)的漏洞,部分用戶能夠看到不屬于自己的對話歷史記錄.OpenAI官網(wǎng)隱私政策第3條指出,在業(yè)務(wù)轉(zhuǎn)讓、法律要求等特定情況下會(huì)向包括關(guān)聯(lián)公司、供應(yīng)商和服務(wù)提供商等在內(nèi)的第三方提供用戶的個(gè)人信息.但是,上述情況明顯不屬于該個(gè)人信息披露范圍,不由讓人懷疑用戶使用GPT4時(shí)個(gè)人信息的安全性.目前部分對數(shù)據(jù)安全重視程度較高的企業(yè)和國家已經(jīng)開始限制GPT4的使用,如摩根大通禁止員工在工作場合使用GPT4,以保護(hù)公司機(jī)密和客戶信息的安全.意大利則已經(jīng)宣布禁止ChatGPT在意大利境內(nèi)的使用,并將對OpenAI公司開始立案調(diào)查.目前針對GPT4背后海量數(shù)據(jù)的管理和保護(hù)成本頗高,可以通過設(shè)定信息存儲(chǔ)期限構(gòu)建更安全的數(shù)據(jù)環(huán)境.從技術(shù)的可行性角度來說,設(shè)定數(shù)據(jù)存儲(chǔ)期限是較為容易實(shí)現(xiàn)的.現(xiàn)實(shí)中這種功能框架早已存在,如電腦經(jīng)過設(shè)置會(huì)每隔一段時(shí)間自動(dòng)清理過期或重復(fù)文件.從可欲性角度來說,設(shè)定數(shù)據(jù)存儲(chǔ)期限可以顯示GPT4對數(shù)據(jù)安全和隱私保護(hù)的重視,提升用戶信任度.
2.1.2 探尋中國發(fā)展方案
從長遠(yuǎn)角度考慮,美國、歐盟、日本已經(jīng)相繼把數(shù)據(jù)安全提升到國家戰(zhàn)略高度.在數(shù)據(jù)的資源屬性越發(fā)凸顯的時(shí)代背景下,數(shù)據(jù)安全將關(guān)系到國家經(jīng)濟(jì)和政治安全[11].GPT4的開發(fā)者OpenAI是一家位于美國的AI公司,且模型訓(xùn)練時(shí)的主要語言為英語,更容易偏向西方意識(shí)形態(tài).此前美國等西方國家長期利用技術(shù)上的優(yōu)勢對我國進(jìn)行科技霸凌,在推廣本國技術(shù)產(chǎn)品的同時(shí)阻撓我國相關(guān)產(chǎn)業(yè)的發(fā)展[12].申言之,新一輪AI領(lǐng)域技術(shù)競爭中暗含著全球話語主導(dǎo)權(quán)和意識(shí)形態(tài)領(lǐng)導(dǎo)權(quán)的爭奪,AI技術(shù)背后是國家在數(shù)據(jù)、算法、算力等“硬實(shí)力”的博弈,也是戰(zhàn)略、思想、文化等“軟實(shí)力”的對抗.目前國內(nèi)的AI研究在理論層面已經(jīng)有了高水平的產(chǎn)出,實(shí)際落地層面的產(chǎn)品如百度開發(fā)的“文心一言”等雖然在技術(shù)層面與GPT4相比還存在一定的距離,但在數(shù)據(jù)安全上嚴(yán)格遵循了國內(nèi)相關(guān)法律法規(guī),強(qiáng)化了對用戶數(shù)據(jù)和隱私的保護(hù),開創(chuàng)了具有中國特色的發(fā)展模式.數(shù)據(jù)安全是技術(shù)發(fā)展的前提,如何在保障數(shù)據(jù)安全的同時(shí)提升技術(shù)水平將是我國AI產(chǎn)業(yè)未來發(fā)展中亟待解決的議題.
2.2.1 版權(quán)侵權(quán)訴訟頻發(fā)
GPT4所體現(xiàn)出的創(chuàng)造力和創(chuàng)新性對傳統(tǒng)知識(shí)產(chǎn)權(quán)法律制度形成了極大的挑戰(zhàn),特別是在版權(quán)方面.GPT4輸出的文本屬于人工智能生成內(nèi)容(AIGC)的范疇,其生成過程中大量學(xué)習(xí)、模仿了人類先前創(chuàng)作的文字作品,其中很有可能涉及受版權(quán)保護(hù)的作品.實(shí)踐中相關(guān)案例已有發(fā)生,在2023年1月的Andersen v. Stability案中,3位藝術(shù)家提起了對知名AI繪畫工具開發(fā)公司Stable AI,Midjourney和DevianArt平臺(tái)的版權(quán)侵權(quán)集體訴訟.盡管GPT4的復(fù)述形式并非原封不動(dòng)地照搬照抄,但也是對已有知識(shí)的重組,若將其應(yīng)用于商業(yè)用途,可能會(huì)構(gòu)成對原作者版權(quán)的侵犯.2023年3月,美國新聞集團(tuán)因其新聞內(nèi)容被無償用于ChatGPT等模型的訓(xùn)練中,而擬對OpenAI等技術(shù)制造商提起了版權(quán)侵權(quán)訴訟,這并非OpenAI首次被卷入版權(quán)侵權(quán)風(fēng)波,早在2022年11月,開源程序員兼律師馬修·巴特里克就曾對Github及其母公司微軟和合作伙伴OpenAI提起集體訴訟,指控其開發(fā)的AI編程工具Copilot大規(guī)模侵犯版權(quán).
2.2.2 挑戰(zhàn)作者主體地位
隨著GPT4的發(fā)展、應(yīng)用與普及,關(guān)于“GPT4是否具備版權(quán)法中作者資格”的討論甚囂塵上,還有學(xué)者提出對AI產(chǎn)生自我意識(shí)乃至取代人類的擔(dān)憂[13].在私權(quán)體系中,權(quán)利主體和客體的法律地位相互對應(yīng)且永遠(yuǎn)無法轉(zhuǎn)換.受“客體的非主體性”的制約,盡管GPT4通過不斷學(xué)習(xí)已經(jīng)逐漸具備“主體”的雛形,但“人”才能成為知識(shí)產(chǎn)權(quán)主體的基本規(guī)則不會(huì)改變[14].有學(xué)者指出,隨著數(shù)據(jù)訓(xùn)練的加強(qiáng),GPT4在簡單的三段論、歸納推理、演繹推理等方面可以部分替代人類,但是在理解法律并完成負(fù)責(zé)任的判斷上,尤其是在面對特定的情境判斷時(shí)還力有不逮[15].管見以為,在本體論上堅(jiān)持人類中心主義是有必要的.AI作為一種需要人類參與引導(dǎo)與訓(xùn)練的技術(shù),是人類智慧物化的體現(xiàn).盡管GPT4具有一定的信息編排和自主創(chuàng)作能力,但其不應(yīng)該也不可能具備法律主體資格.國內(nèi)外多家學(xué)術(shù)期刊出于學(xué)術(shù)倫理的考慮,已經(jīng)開始禁止或限制使用GPT4等大型語言模型撰寫學(xué)術(shù)論文的行為.如2023年1月,“Science”的主編霍爾頓·索普就發(fā)文明確禁止將大型語言模型列為文章作者[16].不管今后GPT4發(fā)展到多么強(qiáng)大和智能的程度,其技術(shù)屬性始終不會(huì)改變.人類群星閃耀時(shí)命運(yùn)依然攥在人類手中.
2.2.3 引發(fā)作品認(rèn)定爭議
GPT4的“智能”來源于RLHF訓(xùn)練,技術(shù)人員在收集反饋數(shù)據(jù)的基礎(chǔ)上通過人工標(biāo)注、強(qiáng)化學(xué)習(xí)進(jìn)一步增強(qiáng)了GPT4模型的理解能力和交互表現(xiàn).由于在預(yù)訓(xùn)練過程中大量學(xué)習(xí)了人類的語言結(jié)構(gòu)、創(chuàng)作模式和表達(dá)技巧,GPT4不僅可以快速制造出語言流暢的語句,而且在內(nèi)容上幾乎與人類創(chuàng)作的文本難以區(qū)分.當(dāng)GPT4的創(chuàng)作內(nèi)容具備商業(yè)價(jià)值時(shí)就會(huì)引申出一個(gè)問題,即在GPT4不具備作者資格的前提下,是否應(yīng)將GPT4生成物視為版權(quán)法意義上的“作品”?對此,有學(xué)者認(rèn)為應(yīng)建立一種獨(dú)創(chuàng)性判斷的客觀標(biāo)準(zhǔn),將AI創(chuàng)作物視為作品[17].也有學(xué)者認(rèn)為缺乏人的創(chuàng)造性思維體現(xiàn)的AI創(chuàng)作物不能構(gòu)成作品[18].在“菲林訴百度案”中,法院亦認(rèn)為未體現(xiàn)人類獨(dú)創(chuàng)性表達(dá)的AI生成內(nèi)容即使具有獨(dú)創(chuàng)性也不應(yīng)視為版權(quán)法意義上的“作品”.雖然GPT4生成物的作品屬性在現(xiàn)有的版權(quán)制度中還存在較大的爭議,但其作為“物”的價(jià)值屬性無疑已經(jīng)得到了認(rèn)可,未來是否將其納入版權(quán)保護(hù)還有很大的可探討空間.GPT4提供了爭議十足的新話題場域,但還不構(gòu)成對現(xiàn)行版權(quán)規(guī)范的挑戰(zhàn)和重塑.今后須保持對GPT4在知識(shí)產(chǎn)權(quán)領(lǐng)域潛在風(fēng)險(xiǎn)的關(guān)注,防患于未然.
2.3.1 算法歧視風(fēng)險(xiǎn)暗涌
GPT4的“智能”來源于程序員為達(dá)到特定目的而編寫的代碼和算法[19],其本身不具有道德和倫理的觀念.依托于標(biāo)準(zhǔn)化程序和公式運(yùn)行的算法被賦予客觀、中立的表象,但絕對的算法中立是不存在的.GPT4訓(xùn)練中接收到的信息魚龍混雜,缺乏篩選和過濾機(jī)制,在種族、宗教、性別等敏感話題上存在算法歧視的風(fēng)險(xiǎn),可能會(huì)引發(fā)人格權(quán)、名譽(yù)權(quán)等方面的輿論爭議和法律糾紛.現(xiàn)階段,GPT4的預(yù)訓(xùn)練數(shù)據(jù)投入和算法設(shè)計(jì)工作主要依靠OpenAI公司技術(shù)人員的把關(guān).因此,在GPT4的算法中不可避免地會(huì)帶有一定的意識(shí)形態(tài)偏向,不夠客觀和中立[20].如在內(nèi)容生產(chǎn)程序開發(fā)、資源調(diào)配和結(jié)果呈現(xiàn)的“流水線”中夾帶主觀偏好等[21].但是,GPT4算法的保密性讓隱藏于其算法中的歧視和偏見難以被發(fā)現(xiàn)和糾正.
2.3.2 算法透明的可行性
從商業(yè)應(yīng)用角度而言,GPT4的前幾代產(chǎn)品都存在一定的缺陷或?qū)嶒?yàn)性質(zhì),GPT4是OpenAI自2019年轉(zhuǎn)變?yōu)闋I利性AI公司后推出的首款成熟產(chǎn)品.目前GPT4沒有免費(fèi)版本,OpenAI也并未公開GPT4的底層算法、具體架構(gòu)、訓(xùn)練方式等技術(shù)細(xì)節(jié),這讓其招致了大量批評之聲.對此,有學(xué)者認(rèn)為應(yīng)推出提升算法透明度的硬性規(guī)定,通過公開源代碼來實(shí)現(xiàn)更好的算法規(guī)制[22].也有學(xué)者指出算法透明在可行性和必要性上都存在瑕疵[23].管見以為,算法透明并非應(yīng)對GPT4中算法歧視問題的良策.公開GPT4的底層算法雖然可以防止算法“黑箱”的濫用,更好地監(jiān)督算法,但可能會(huì)導(dǎo)致算計(jì)、算法抄襲、知識(shí)產(chǎn)權(quán)侵權(quán)等問題.禁止在算法中加入對特定種族、信仰、性別群體的惡意歧視是理所應(yīng)當(dāng)?shù)?但是否應(yīng)在算法中實(shí)現(xiàn)身份中立,完全消除身份因素運(yùn)用的問題仍值得商榷.過于中立、客觀的規(guī)則實(shí)際上并不合理,可能反而會(huì)加重歧視和不平等的現(xiàn)象,因?yàn)闊o論算法如何修正,都會(huì)產(chǎn)生有利于一部分群體而不利于另一部分群體的結(jié)果.很多身份因素引發(fā)的所謂“歧視”,只是為了克服信息不對稱而進(jìn)行的一種理性篩選[24].隨著社會(huì)的發(fā)展,原本不合理的統(tǒng)計(jì)數(shù)據(jù)會(huì)得到修正,算法歧視也會(huì)逐漸消弭[25].如果反算法歧視只是為了維持固有的社會(huì)觀念,那也就放棄了利用算法來矯正不合理的社會(huì)價(jià)值觀的可能.
2.3.3 邁向通用人工智能
根據(jù)埃米爾·波雷爾提出的“無限猴子定理”,如果讓一只猴子在打字機(jī)上持續(xù)敲擊鍵盤敲擊無限長的時(shí)間,它就能在某一時(shí)間打出任何特定的文本.GPT4也可以被視為這樣一只“猴子”.GPT4的模型是基于統(tǒng)計(jì)學(xué)建立的,早期GPT4的能力曲線會(huì)隨著數(shù)據(jù)量的增長而持續(xù)上升.但是任何模型都有其能力邊界,不可能實(shí)現(xiàn)無限拓展.在數(shù)據(jù)積累到一定規(guī)模后必然會(huì)遇到發(fā)展瓶頸.從促進(jìn)AI技術(shù)發(fā)展的角度考慮,OpenAI公司應(yīng)持續(xù)優(yōu)化算法,把GPT4的未來發(fā)展目標(biāo)定為真正的通用人工智能(AGI).技術(shù)樂觀者認(rèn)為GPT4是通往AGI的“康莊大道”,如微軟在對GPT4早期版本進(jìn)行系統(tǒng)調(diào)查后,認(rèn)為GPT4在功能的廣度和深度上已經(jīng)大大超過了從前包括ChatGPT在內(nèi)的所有AI大模型,可以將其視為早期版本的AGI[26].也有學(xué)者指出,目前NLP領(lǐng)域仍存在一些無法逾越的鴻溝,GPT4的表現(xiàn)機(jī)械性有余但靈活性不足,討論AGI或許還為時(shí)尚早[27].圖靈測試是AI智能程度判斷的重要標(biāo)準(zhǔn),阿蘭·圖靈認(rèn)為如果機(jī)器能夠在模仿游戲中表現(xiàn)得和人類無法區(qū)分,就應(yīng)被認(rèn)為具備人類智能[28].但是根據(jù)約翰·賽爾提出的“中文屋”論證,即使GPT4通過了圖靈測試也不必然代表其已經(jīng)擁有人類級(jí)別的智能[29].GPT4雖然比AlphaGO這樣的專用AI更為全面,但還不具備在無監(jiān)督條件下自行根據(jù)人物和語境切換工作知識(shí)域的能力,無法像人類一樣勝任各種任務(wù)[30].為了讓GPT4更接近于人類思維,通過代碼和算法上的改變讓GPT4具備元學(xué)習(xí)的能力,以已有的經(jīng)驗(yàn)來指導(dǎo)新任務(wù)的學(xué)習(xí)[31],或許能讓雷蒙德·庫茲韋爾提出的“奇點(diǎn)”時(shí)刻早日到來.如今關(guān)于元學(xué)習(xí)的研究方興未艾,參考類腦AI的研究思路,借鑒腦科學(xué)研究中人腦的神經(jīng)回路和運(yùn)行機(jī)制[32],也有助于打破傳統(tǒng)馮·諾依曼架構(gòu)體系的局限性,引導(dǎo)GPT4走向真正的AGI.
社會(huì)制度的相對穩(wěn)定性與技術(shù)發(fā)展的超前性之間一直存在著無法調(diào)和的矛盾.AI技術(shù)的飛速發(fā)展使社會(huì)陷入了“科林格里奇困境”,即在技術(shù)發(fā)展的早期尚無法預(yù)見其社會(huì)后果.當(dāng)技術(shù)控制的需求變得強(qiáng)烈時(shí)它已經(jīng)融合為社會(huì)結(jié)構(gòu)的一部分,對其控制將極為困難.GPT4的“潘多拉魔盒”已經(jīng)打開,人們需要客觀地認(rèn)識(shí)到開弓沒有回頭箭,避免“寸板不許下?!钡腻e(cuò)誤重演[33].《禮記·中庸》有云:“凡事豫則立,不豫則廢”,在GPT4的伴生風(fēng)險(xiǎn)變得復(fù)雜和不可控之前,有必要未雨綢繆進(jìn)行事前規(guī)制.做到防微杜漸、謹(jǐn)慎發(fā)展,引導(dǎo)科技向善.
在諸如GPT4之類生成式AI大模型的規(guī)制方案上,國內(nèi)外多領(lǐng)域的專家學(xué)者都進(jìn)行了深入的研究,并提出了獨(dú)特的觀點(diǎn)和見解.有學(xué)者指出,現(xiàn)階段的AI監(jiān)管重點(diǎn)仍應(yīng)放在傳統(tǒng)AI模型上,但為更好地適應(yīng)生成式AI大模型帶來的具體風(fēng)險(xiǎn),有必要充分發(fā)揮技術(shù)中立型法律的作用,不斷更新技術(shù)監(jiān)管規(guī)則[34].也有學(xué)者建議靈活組合“先發(fā)展,再治理”和“邊發(fā)展,邊管理”2種節(jié)奏,秉承審慎包容的管理思維與邏輯,逐步建立針對性的多元治理體系[35].還有學(xué)者認(rèn)為,討論GPT4的監(jiān)管方案時(shí)需要審慎考量監(jiān)管手段,實(shí)時(shí)評估技術(shù)創(chuàng)新與強(qiáng)監(jiān)管間的關(guān)系,探索通過監(jiān)管沙盒的技術(shù)試點(diǎn)方式,在鼓勵(lì)發(fā)展的同時(shí)將可能產(chǎn)生的負(fù)面效應(yīng)控制在一定范圍內(nèi)[36].淺見以為,AI技術(shù)的發(fā)展給現(xiàn)有法律制度帶來的挑戰(zhàn)并未超出數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)、算法規(guī)制等常見風(fēng)險(xiǎn)問題的范疇.考慮到GPT4的數(shù)據(jù)規(guī)模、運(yùn)算效率、模型精度等仍在不斷進(jìn)步和完善,且GPT4目前并未面向我國開放,設(shè)計(jì)具體詳盡的規(guī)制方案為時(shí)尚早.GPT4本質(zhì)上是一種為人服務(wù)的輔助性工具,在規(guī)制時(shí)應(yīng)以AI技術(shù)的發(fā)展現(xiàn)狀為根本,貫徹“以人為本”的核心理念,讓其更好地為人服務(wù).在當(dāng)前的發(fā)展階段,先切實(shí)做好頂層設(shè)計(jì)性質(zhì)的總體性法律規(guī)制方案,把技術(shù)裝進(jìn)制度的“籠子”里才是更符合實(shí)際需求的規(guī)制思路.
從立法角度來說,世界范圍內(nèi)已就AI領(lǐng)域的專門立法形成共識(shí),2017年至今已有近70個(gè)國家出臺(tái)了AI領(lǐng)域的專門法規(guī),如歐盟的《人工智能法案》、美國的《國家人工智能倡議法案》等[37].2017年7月國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中提出了AI領(lǐng)域立法“三步走”的戰(zhàn)略目標(biāo):2020年,部分領(lǐng)域的AI倫理規(guī)范和政策法規(guī)初步建立;2025年,初步建立AI法律法規(guī)、倫理規(guī)范和政策體系;2030年,形成較為成熟的新一代AI理論與技術(shù)體系.目前我國AI專項(xiàng)立法規(guī)制體系尚付闕如,2022年9月我國首部AI產(chǎn)業(yè)專項(xiàng)立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》才姍姍來遲.法律規(guī)范數(shù)量少、層級(jí)低,缺乏頂層設(shè)計(jì)和統(tǒng)籌規(guī)劃的問題較為突出,應(yīng)正視我國在AI監(jiān)管上與歐美發(fā)展水平存在的現(xiàn)實(shí)差距,盡快把GPT4的應(yīng)用發(fā)展納入法制化軌道.數(shù)字時(shí)代新技術(shù)與舊傳統(tǒng)碰撞下形成的中國問題具有其特殊性,很難簡單地通過對西方國家已有方案的“移植”或“比附”來解決.今后應(yīng)拓寬立法視野、完善立法內(nèi)容,尋求數(shù)字時(shí)代的自主創(chuàng)新.淺見以為,法律是需要順時(shí)而變的.考慮到GPT4實(shí)踐中產(chǎn)生的隱私泄露、版權(quán)侵權(quán)、算法歧視等風(fēng)險(xiǎn)問題,應(yīng)通過AI專項(xiàng)立法的頂層設(shè)計(jì)為GPT4的應(yīng)用場景和產(chǎn)出內(nèi)容劃定紅線、標(biāo)明底線.同時(shí),借助媒體、企業(yè)等渠道做好全方位的GPT4使用指引,讓社會(huì)公眾認(rèn)清GPT4的技術(shù)本質(zhì),理性、客觀、審慎地使用GPT4,堅(jiān)持守住底線、不越紅線,通過法律賦能社會(huì)治理.
在GPT4的規(guī)制上不能一味地盲目追求創(chuàng)新,應(yīng)考慮擴(kuò)展我國已有的算法治理規(guī)范.2023年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法》).《管理辦法》第16條指出,生成式AI服務(wù)提供者應(yīng)根據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《管理規(guī)定》)對生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識(shí).2023年1月10日起施行的《管理規(guī)定》第23條中以開放式的規(guī)定將“深度合成”技術(shù)定義為利用生成合成類算法制作網(wǎng)絡(luò)信息的技術(shù).《管理規(guī)定》在效力位階上屬于部門規(guī)章,其上位法有《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個(gè)人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律、行政法規(guī),監(jiān)管機(jī)構(gòu)包括中央和地方網(wǎng)信部門、電信主管部門和公安部門,自上而下織起了一張系統(tǒng)完備的法律監(jiān)管網(wǎng)絡(luò).盡管以預(yù)訓(xùn)練為基礎(chǔ)的生成式AI大模型和《管理規(guī)定》的適用對象DeepFake并非完全匹配[38],但是淺見以為,從技術(shù)屬性出發(fā)對GPT4作出探究和定義難有定論.在探討法律角度對GPT4的規(guī)制方案時(shí)應(yīng)具有一定的前瞻性和預(yù)見性,把目光更多集中于GPT4的宏觀經(jīng)濟(jì)價(jià)值,即它對于公眾、經(jīng)濟(jì)、社會(huì)的影響[39].當(dāng)下處于AIGC頂端的GPT4正在推動(dòng)制造業(yè)、金融科技、投資營銷等諸多領(lǐng)域的轉(zhuǎn)型升級(jí)[40],盡快將其納入法治軌道是推動(dòng)我國經(jīng)濟(jì)社會(huì)高質(zhì)量發(fā)展的應(yīng)有之義.從技術(shù)特點(diǎn)和原理上看,生成式AI與深度合成技術(shù)高度重合.未來應(yīng)進(jìn)一步厘清《管理辦法》和《管理規(guī)定》的銜接與適用方式,通過對《管理規(guī)定》中深度合成技術(shù)概念上的細(xì)微調(diào)整,將生成式AI納入深度合成技術(shù)的范疇[41].
如今GPT4正在無孔不入地滲透到人們?nèi)粘I畹母鱾€(gè)層面,AI時(shí)代已經(jīng)悄然來臨.AI時(shí)代的到來是科技發(fā)展到一定歷史階段的必然結(jié)果,可以預(yù)想今后接近乃至超越GPT4的模型會(huì)接連不斷地涌現(xiàn).黨的二十大報(bào)告指出,要推動(dòng)新興產(chǎn)業(yè)融合發(fā)展,構(gòu)建信息技術(shù)、AI等新一批增長引擎.我國AI產(chǎn)業(yè)正駛在發(fā)展的快車道上,AI已成為制造強(qiáng)國和網(wǎng)絡(luò)強(qiáng)國建設(shè)的新動(dòng)力引擎.人們在享受AI技術(shù)帶來的便利時(shí)也應(yīng)警惕其背后的風(fēng)險(xiǎn)與挑戰(zhàn).以GPT4應(yīng)用時(shí)數(shù)據(jù)、產(chǎn)權(quán)、算法等方面的內(nèi)生風(fēng)險(xiǎn)為切入點(diǎn),探討GPT4發(fā)展中存在的問題具有其理論意義與實(shí)踐價(jià)值.GPT4未來發(fā)展充滿不確定性,今后應(yīng)進(jìn)一步結(jié)合市場發(fā)展情況和我國國情,從技術(shù)和制度層面強(qiáng)化對GPT4風(fēng)險(xiǎn)治理的研究[42].在我國已有實(shí)踐成果的基礎(chǔ)上尋求自主創(chuàng)新,積極探索趨利避害的可行路徑,協(xié)調(diào)好長遠(yuǎn)與當(dāng)下的關(guān)系,構(gòu)建更符合技術(shù)發(fā)展的制度環(huán)境.