鮑 磊,楊 靜,趙文渲
(淮陰師范學(xué)院 商學(xué)院,江蘇 淮安,223001)
ChatGPT 是美國(guó)人工智能研究中心OpenAI于2022 年11 月發(fā)布的新型聊天機(jī)器人,其本質(zhì)上是人工智能技術(shù)驅(qū)動(dòng)的自然語(yǔ)言處理工具,不但能夠通過(guò)學(xué)習(xí)和理解人類(lèi)的語(yǔ)言來(lái)進(jìn)行對(duì)話(huà),還能根據(jù)聊天的上下文進(jìn)行互動(dòng),真正像人類(lèi)一樣與人聊天交流,甚至能完成信息咨詢(xún)、文檔翻譯、郵件撰寫(xiě)、程序代碼編寫(xiě)和修改等任務(wù)。與其他聊天機(jī)器人相比,ChatGPT 能更好地理解對(duì)話(huà)語(yǔ)境,并在生成文本時(shí)考慮到先前的對(duì)話(huà)內(nèi)容,輸出更符合語(yǔ)言邏輯與人類(lèi)價(jià)值觀(guān)的高質(zhì)量文本,同時(shí)還增加了代碼理解和生成能力,極大地提高了實(shí)用性,拓寬了應(yīng)用場(chǎng)景。
目前,ChatGPT 的技術(shù)應(yīng)用雖處在初步階段,但已經(jīng)產(chǎn)生了極為震撼的影響。發(fā)布僅僅兩個(gè)月,全球活躍用戶(hù)數(shù)量就達(dá)到1 億,是人類(lèi)歷史上增長(zhǎng)速度最快的應(yīng)用程序。①網(wǎng)易:https://www.163.com/dy/article/I6HSJMMJ0556 32CI.html.在談及ChatGPT 等人工智能工具將如何改變?nèi)祟?lèi)的工作方式時(shí),微軟CEO 薩蒂亞·納德拉認(rèn)為,對(duì)于知識(shí)型工作者來(lái)說(shuō),這就完全等同于工業(yè)革命。各行各業(yè)都在暢想ChatGPT 可能的應(yīng)用場(chǎng)景,進(jìn)一步推高了互聯(lián)網(wǎng)科技巨頭布局人工智能應(yīng)用的熱度。早在2019 年微軟就向ChatGPT 母公司OpenAI 投資了10 億美元,并在2023 年繼續(xù)投資100 億美元,將ChatGPT 整合到旗下必應(yīng)搜索引擎和辦公軟件Office 等產(chǎn)品中。②搜狐網(wǎng):https://www.sohu.com/a/627563434_115565.我國(guó)科技巨頭百度、阿里巴巴隨后也推出了類(lèi)似于ChatGPT 的產(chǎn)品——“文心一言”和“通義千問(wèn)”,并已經(jīng)做好了商用計(jì)劃。
當(dāng)前,ChatGPT 已經(jīng)成為互聯(lián)網(wǎng)上的熱門(mén)話(huà)題。但是,隨著ChatGPT 的流行,一系列新的挑戰(zhàn)和問(wèn)題也暴露了出來(lái)。
ChatGPT 目前尚未推出國(guó)內(nèi)版本,正常情況下訪(fǎng)問(wèn)ChatGPT 存在一定困難,于是網(wǎng)上出現(xiàn)了一些非正規(guī)的訪(fǎng)問(wèn)方式。一是部分技術(shù)論壇和社交媒體鼓動(dòng)用戶(hù)“翻墻”訪(fǎng)問(wèn)ChatGPT。由于Chat-GPT 的爆火,不少年輕人特別是高校學(xué)生在好奇心的驅(qū)使下試圖嘗試這款神奇的人工智能工具,因此,一些技術(shù)論壇和社交媒體的帖文鼓動(dòng)用戶(hù)“翻墻”,并提供詳細(xì)的技術(shù)講解。這增加了年輕人接觸境外非法信息的機(jī)會(huì),對(duì)我國(guó)信息安全也構(gòu)成了威脅。二是在微信公眾號(hào)、閑魚(yú)等平臺(tái)上出現(xiàn)出售非法訪(fǎng)問(wèn)方式的服務(wù)。由于國(guó)內(nèi)用戶(hù)注冊(cè)、登錄ChatGPT 有一定門(mén)檻,于是不少商家通過(guò)微信公眾號(hào)、閑魚(yú)等端口向用戶(hù)提供ChatGPT 賬號(hào)和登錄教程,或者提供各種代問(wèn)、代注冊(cè)等服務(wù)。這些商家通常提供一兩次免費(fèi)使用機(jī)會(huì),然后就開(kāi)始要求用戶(hù)支付費(fèi)用注冊(cè)會(huì)員,并且不支持退款。這些以營(yíng)利為目的,利用國(guó)外服務(wù)器搭建VPN,大多數(shù)情況下未經(jīng)國(guó)家信息產(chǎn)業(yè)部門(mén)許可,涉嫌非法經(jīng)營(yíng)。如果消費(fèi)者購(gòu)買(mǎi)了此類(lèi)服務(wù)或充值成為會(huì)員,事后可能面臨維權(quán)難、退款難的情況。
首先,存在侵犯著作權(quán)的法律風(fēng)險(xiǎn)。ChatGPT能夠利用文本挖掘技術(shù)將語(yǔ)料庫(kù)中的內(nèi)容復(fù)制到自有數(shù)據(jù)庫(kù)中進(jìn)行信息提取研究,并使用了Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)訓(xùn)練模型,以便能夠更好地理解人類(lèi)語(yǔ)言。文本挖掘的對(duì)象可能是受著作權(quán)法保護(hù)的文字作品,因此可能侵犯這些文字作品的復(fù)制權(quán)、改編權(quán)、署名權(quán)等著作權(quán)。即使是出于科學(xué)研究的目的進(jìn)行文本挖掘,也可能因?yàn)檫^(guò)度復(fù)制而觸犯現(xiàn)行法律。
其次,ChatGPT 是否可以享有著作權(quán)尚存爭(zhēng)議。一般而言,著作權(quán)歸屬于作者,但在計(jì)算機(jī)自動(dòng)生成作品的情況下,作者的身份可能不明確。如果類(lèi)似于ChatGPT 的人工智能工具生成了具有獨(dú)創(chuàng)性的新聞、報(bào)告、論文等,那么ChatGPT 能夠成為獨(dú)立著作人,還是應(yīng)當(dāng)由使用ChatGPT 生成內(nèi)容的個(gè)人或?qū)嶓w享有相應(yīng)的知識(shí)產(chǎn)權(quán)?按照我國(guó)《著作權(quán)法》,著作權(quán)人只包括作者或者其他依法享有著作權(quán)的自然人、法人或者非法人組織,因此人工智能機(jī)器人的法律主體地位尚未得到我國(guó)法律的承認(rèn)。如果ChatGPT 生成的作品不能獲得法律承認(rèn),那么將產(chǎn)生大量無(wú)主作品,是否意味著任何人都有權(quán)利用這些作品獲得收益,未來(lái)隨著人工智能機(jī)器人的廣泛應(yīng)用,必然需要一個(gè)明確的回答。
首先,教育工作者將不得不面對(duì)更加嚴(yán)重的剽竊和作弊現(xiàn)象。過(guò)去,學(xué)生需要大量閱讀,進(jìn)行深度思考,并提出創(chuàng)新性的觀(guān)點(diǎn)和解決方案,才能完成作業(yè)、撰寫(xiě)論文。一直以來(lái),教育界都是按照這種方式培養(yǎng)學(xué)生進(jìn)行研究、思考和寫(xiě)作。但是,ChatGPT 的出現(xiàn)徹底顛覆了這一傳統(tǒng),因?yàn)閷W(xué)生再也不需要花費(fèi)時(shí)間思考老師布置的任務(wù),只需把問(wèn)題提交給ChatGPT。美國(guó)在線(xiàn)課程網(wǎng)站Study.com 開(kāi)展的一項(xiàng)調(diào)查顯示,超過(guò)89%的學(xué)生使用ChatGPT 來(lái)完成家庭作業(yè),48%的學(xué)生用ChatGPT完成小測(cè)驗(yàn),53%的學(xué)生用ChatGPT 寫(xiě)論文,22%的學(xué)生用ChatGPT 生成論文大綱。①新浪科技:https://finance.sina.com.cn/tech/csj/2023-01-29/doc-imycvtrp5626485.shtml.因此,ChatGPT給教育界帶來(lái)了兩個(gè)方面的挑戰(zhàn):一方面,如何確保學(xué)生學(xué)會(huì)獨(dú)立思考,進(jìn)而如何培養(yǎng)學(xué)生的思辨能力和創(chuàng)新能力;另一方面,如何防止學(xué)生在課程學(xué)習(xí)和考試中作弊,以保證人才培養(yǎng)的公平公正。
其次,科研領(lǐng)域?qū)hatGPT 在學(xué)術(shù)研究中的應(yīng)用充滿(mǎn)困惑。最近的一項(xiàng)研究發(fā)現(xiàn),將大量由ChatGPT 創(chuàng)建的論文摘要提交給學(xué)術(shù)審稿人,但被發(fā)現(xiàn)比例不超過(guò)63%。[1]預(yù)計(jì)今后這種由人工智能生成的科研論文將會(huì)更多。ChatGPT 的應(yīng)用對(duì)科研領(lǐng)域造成不小的沖擊:一是無(wú)法保證ChatGPT 等人工智能工具撰寫(xiě)的論文的原創(chuàng)性,ChatGPT 在集成歷史數(shù)據(jù)庫(kù)方面擁有較高的能力,但是由于不具備真正意義上的人類(lèi)意識(shí),因此既無(wú)法像人類(lèi)一樣提出原創(chuàng)性的問(wèn)題,也不能做出具有原創(chuàng)性的回答;二是人工智能無(wú)法承擔(dān)相應(yīng)的學(xué)術(shù)責(zé)任,在學(xué)術(shù)論文出版領(lǐng)域,作者需要對(duì)所發(fā)表的作品承擔(dān)責(zé)任,例如,作者需要確保論文的原創(chuàng)性和正確性,而類(lèi)似于ChatGPT 的人工智能工具無(wú)法做到這點(diǎn),一旦學(xué)術(shù)論文存在違背學(xué)術(shù)道德的情況,或者論文的科學(xué)性和正確性存在疑問(wèn),責(zé)任應(yīng)該由誰(shuí)來(lái)承擔(dān)成為難題。
ChatGPT 基于人工智能背后已有的自然語(yǔ)言文本信息(語(yǔ)料庫(kù))進(jìn)行概率統(tǒng)計(jì),返回的答案也是“統(tǒng)計(jì)結(jié)果”,這就導(dǎo)致ChatGPT 在許多問(wèn)題上會(huì)“一本正經(jīng)地胡說(shuō)八道”,②光明網(wǎng):https://m.gmw.cn/2023-02/23/content_130329 2513.htm。這種看似真實(shí)、實(shí)則離譜的虛假信息具有一定的誤導(dǎo)性。在紙質(zhì)新聞時(shí)代,每個(gè)事實(shí)都必須包含權(quán)威的一手或二手資料來(lái)源。在當(dāng)今的信息爆炸時(shí)代,以人為媒介傳播的虛假信息尚且讓審核機(jī)構(gòu)“頭疼”,很難想象由人工智能編造的謊言會(huì)帶來(lái)多大的挑戰(zhàn)。
ChatGPT 本身無(wú)法精確判斷什么才是真正的事實(shí),只要在互聯(lián)網(wǎng)上多次傳播這些謠言,就可能被ChatGPT 學(xué)習(xí),并作為“答案”反饋給用戶(hù)。因此,如果任由ChatGPT 生成的大量看似合理但不正確的內(nèi)容在互聯(lián)網(wǎng)上傳播,必將淹沒(méi)事實(shí)的真相。特別需要警醒的是,ChatGPT 有可能成為某些別有用心的個(gè)人、團(tuán)體利用網(wǎng)絡(luò)攻擊他人‘散布遙言的廉價(jià)卻非常有效的工具。
2023 年2 月初,研究人員警告稱(chēng),ChatGPT 將可能被用于人工智能網(wǎng)絡(luò)攻擊。作為OpenAI 的創(chuàng)始人之一,埃隆·馬斯克也曾發(fā)出先進(jìn)的人工智能可能對(duì)人類(lèi)社會(huì)構(gòu)成威脅的警告。2022 年12 月,馬斯克在社交媒體推特上發(fā)文,稱(chēng)ChatGPT 是“可怕的好東西”,并補(bǔ)充說(shuō),“我們離危險(xiǎn)的強(qiáng)大人工智能不遠(yuǎn)了”。①網(wǎng)易:https://www.163.com/dy/ar/article/HSVVS2FS 0511A6N9.html.
事實(shí)上,在ChatGPT 發(fā)布幾周后,全球多家網(wǎng)絡(luò)安全公司發(fā)布了一系列報(bào)告,證明該人工智能工具可能被用于幫助黑客更快發(fā)現(xiàn)網(wǎng)絡(luò)數(shù)據(jù)庫(kù)漏洞,加速惡意軟件的開(kāi)發(fā)。美國(guó)威脅情報(bào)公司Recorded Future 在暗網(wǎng)中已經(jīng)發(fā)現(xiàn)1500 多條關(guān)于使用ChatGPT 開(kāi)發(fā)惡意軟件、創(chuàng)建概念驗(yàn)證代碼的參考資料,其中大部分代碼都公開(kāi)可用。②同花順財(cái)經(jīng):http://stock.10jqka.com.cn/20230207/c644666820.shtml.這使得偽造可信的網(wǎng)絡(luò)釣魚(yú)郵件、提高網(wǎng)絡(luò)攻擊的復(fù)雜性、加速新的社交網(wǎng)絡(luò)攻擊變得更加容易,將網(wǎng)絡(luò)犯罪推向了規(guī)模化時(shí)代。
首先,應(yīng)依法嚴(yán)厲打擊各類(lèi)非法“翻墻”行為。我國(guó)《計(jì)算機(jī)信息網(wǎng)絡(luò)國(guó)際聯(lián)網(wǎng)管理暫行規(guī)定》要求,計(jì)算機(jī)信息網(wǎng)絡(luò)直接進(jìn)行國(guó)際聯(lián)網(wǎng),必須使用郵電部國(guó)家公用電信網(wǎng)提供的國(guó)際出入口信道。任何單位和個(gè)人不得自行建立或者使用其他信道進(jìn)行國(guó)際聯(lián)網(wǎng),對(duì)于經(jīng)營(yíng)者一般由公安機(jī)關(guān)責(zé)令停止聯(lián)網(wǎng),給予警告,并處15 000 元以下的罰款;有違法所得的,沒(méi)收違法所得,情節(jié)嚴(yán)重、涉案金額較大、構(gòu)成犯罪的,要追究刑事責(zé)任。
其次,應(yīng)依法要求各類(lèi)電商平臺(tái)、社交平臺(tái)做好自查自檢工作。依據(jù)《中華人民共和國(guó)電信條例》,作為消費(fèi)者獲得信息、購(gòu)買(mǎi)服務(wù)的各類(lèi)電商平臺(tái)、社交平臺(tái),有義務(wù)配合政府相關(guān)部門(mén)的工作,做好自查自檢工作,主動(dòng)刪除相關(guān)技術(shù)帖文,防止消費(fèi)者通過(guò)非法路徑瀏覽法律、行政法規(guī)禁止的內(nèi)容;《消費(fèi)者權(quán)益保護(hù)法》也要求,相關(guān)企業(yè)有義務(wù)保護(hù)消費(fèi)者的利益,防止消費(fèi)者因?yàn)樯碳业姆欠ń?jīng)營(yíng)活動(dòng)受到損害。因此,相關(guān)企業(yè)應(yīng)嚴(yán)厲禁止各種鼓動(dòng)“翻墻”的宣傳,關(guān)停非法提供VPN服務(wù)和ChatGPT 賬號(hào)的商家運(yùn)營(yíng)權(quán)限。
面對(duì)人工智能機(jī)器人ChatGPT 對(duì)著作權(quán)的挑戰(zhàn),有下述兩個(gè)方面的問(wèn)題需要明確。
一是人工智能生成的作品能否成為法律意義上的著作。根據(jù)一些國(guó)家的著作權(quán)法,人工智能生成的內(nèi)容能夠被視為“著作物”,例如美國(guó)聯(lián)邦著作權(quán)法規(guī)定,人工智能生成的內(nèi)容被視為“非人類(lèi)著作物”。但是,由于當(dāng)前人工智能生成成果的法律依據(jù)不充分,導(dǎo)致2019 年我國(guó)司法界兩例關(guān)于人工智能生成成果侵權(quán)的判決呈現(xiàn)出截然不同的結(jié)果,引發(fā)了學(xué)術(shù)界的激烈爭(zhēng)論。[2]人工智能生成了不少令人印象深刻的內(nèi)容,甚至可以與人類(lèi)藝術(shù)家的作品相媲美,例如,微軟的智能機(jī)器人小冰“創(chuàng)作”的詩(shī)集《陽(yáng)光失去了玻璃窗》。因此,筆者認(rèn)為,作品本身的獨(dú)創(chuàng)性應(yīng)當(dāng)作為著作權(quán)法意義上的作品的重要判別標(biāo)準(zhǔn),對(duì)于具有獨(dú)創(chuàng)性的人工智能作品應(yīng)當(dāng)受到知識(shí)產(chǎn)權(quán)的保護(hù),反之則不予保護(hù)。
二是應(yīng)當(dāng)明確誰(shuí)享有人工智能生成作品的著作權(quán)。目前,學(xué)術(shù)界主流觀(guān)點(diǎn)認(rèn)為,人工智能生成成果的著作權(quán)主體只能在其創(chuàng)造者和使用者之間做出選擇。一些學(xué)者認(rèn)為,人工智能的創(chuàng)造者應(yīng)該是人工智能作品的著作權(quán)主體,因?yàn)槿斯ぶ悄艿闹悄艹潭葲Q定于編程者的程序設(shè)計(jì)。但是,這將導(dǎo)致未來(lái)人工智能公司手握巨量作品著作權(quán)的局面,必然打壓人類(lèi)創(chuàng)作者的創(chuàng)作熱情,抑制人類(lèi)創(chuàng)造性的發(fā)揮。從創(chuàng)作的智力貢獻(xiàn)來(lái)看,人工智能工具的使用者發(fā)揮著至關(guān)重要的作用,是他們通過(guò)關(guān)鍵詞的設(shè)定和程序指令的輸入引導(dǎo)人工智能指令的執(zhí)行,進(jìn)而生成作品,所以人工智能生成作品體現(xiàn)了使用者的智力勞動(dòng)和主觀(guān)意志。將人工智能工具的使用者確立為著作權(quán)主體,有利于實(shí)現(xiàn)人工智能生成成果的文化價(jià)值和經(jīng)濟(jì)價(jià)值,也有利于著作權(quán)侵權(quán)問(wèn)題的責(zé)任劃分。
雖然國(guó)內(nèi)高校學(xué)生訪(fǎng)問(wèn)ChatGPT 存在較大困難,但在互聯(lián)網(wǎng)上已經(jīng)存在許多類(lèi)似的人工智能工具。鑒于學(xué)校中已經(jīng)出現(xiàn)學(xué)生使用人工智能生成的內(nèi)容作為個(gè)人作業(yè),而這種剽竊行為在當(dāng)下的學(xué)術(shù)規(guī)則中很難得到明確的證明,因此筆者建議,在找到有效應(yīng)對(duì)策略之前應(yīng)禁止學(xué)生使用ChatGPT 完成作業(yè)。西方發(fā)達(dá)國(guó)家已經(jīng)開(kāi)始行動(dòng),包括美國(guó)、法國(guó)在內(nèi)的諸多國(guó)家教育部門(mén)均出臺(tái)了相關(guān)政策,禁止在學(xué)校使用ChatGPT。紐約教育局已經(jīng)對(duì)ChatGPT 下了封殺令,在紐約公立學(xué)校的網(wǎng)絡(luò)和設(shè)備上無(wú)法使用ChatGPT;美國(guó)一些高校也已經(jīng)將新技術(shù)納入其學(xué)術(shù)誠(chéng)信中,例如,華盛頓大學(xué)和佛蒙特大學(xué)等將使用ChatGPT 等人工智能工具納入剽竊等學(xué)術(shù)不端范圍。面對(duì)ChatGPT對(duì)學(xué)生的學(xué)習(xí)成果評(píng)估造成的沖擊,教育工作者也應(yīng)對(duì)教學(xué)和評(píng)估的方式做出根本性的改變。例如,嘗試采用口試、小組合作和社會(huì)實(shí)踐等作為組織學(xué)習(xí)和考核的方式,以此督促學(xué)生學(xué)會(huì)獨(dú)立思考,真正提高他們的學(xué)習(xí)能力和創(chuàng)造能力。
在學(xué)術(shù)出版方面,目前已有數(shù)千種科學(xué)期刊明令禁止或限制投稿人使用ChatGPT 撰寫(xiě)或編輯論文。例如,《科學(xué)》雜志明確禁止將ChatGPT 列為合著者,且不允許在論文中使用ChatGPT 所生產(chǎn)的文本;[3]《自然》雜志則表示,可以在論文中使用包含ChatGPT 等大型語(yǔ)言模型生成的文本,但不能將其列為論文合著者。[4]事實(shí)上,《科學(xué)》雜志正在更新編輯規(guī)則。該雜志主編霍爾頓·索普強(qiáng)調(diào),不能在論文中使用由ChatGPT(或任何其他人工智能工具)生成的文本、數(shù)字、圖像或圖形。但是,筆者認(rèn)為,人工智能機(jī)器人在設(shè)計(jì)論文提綱、撰寫(xiě)文獻(xiàn)綜述等方面存在一定的優(yōu)勢(shì),通過(guò)ChatGPT的輔助完成科學(xué)研究可能成為不可阻擋的趨勢(shì)。因此,應(yīng)規(guī)范ChatGPT 在科研領(lǐng)域的使用,而不是完全禁止??梢砸笞髡咴诔霭鎱f(xié)議中聲明是否使用以及如何使用ChatGPT,并要求使用者承擔(dān)全部的學(xué)術(shù)責(zé)任,確保研究過(guò)程和結(jié)論符合學(xué)術(shù)規(guī)范和科學(xué)倫理,保證發(fā)表成果的原創(chuàng)性、科學(xué)性和正確性。
與過(guò)去的機(jī)器人不同,ChatGPT 可以模仿人類(lèi),針對(duì)各種主題產(chǎn)生無(wú)限的具有連貫性和細(xì)微差別的獨(dú)特內(nèi)容。這些機(jī)器人賬戶(hù)不僅會(huì)主動(dòng)發(fā)帖,還會(huì)對(duì)其他用戶(hù)的帖子做出響應(yīng),并展開(kāi)長(zhǎng)期的對(duì)話(huà)。換言之,ChatGPT 能在極短的時(shí)間內(nèi)改編信息,產(chǎn)生大量令人信服卻無(wú)信源的內(nèi)容,而且目前似乎沒(méi)有可行的方法有效解決這一問(wèn)題。但至少可以從三個(gè)方面增強(qiáng)社交媒體平臺(tái)和搜索引擎的審核能力,以減少虛假信息的傳播。一是改進(jìn)平臺(tái)的審核技術(shù),開(kāi)發(fā)更高級(jí)的算法,用以區(qū)分機(jī)器人和真實(shí)的人類(lèi)發(fā)表的內(nèi)容,降低錯(cuò)誤信息傳播的概率。二是改變當(dāng)前的商業(yè)模式,從原來(lái)依靠廣告盈利的免費(fèi)使用模式轉(zhuǎn)變?yōu)橐揽坑嗛営氖召M(fèi)模式,增加人工智能機(jī)器人的使用成本。三是完善相關(guān)審核機(jī)制,例如,辨別是否多個(gè)賬號(hào)通過(guò)同一IP 發(fā)表內(nèi)容、多個(gè)賬號(hào)是否綁定同一張支付卡等,降低識(shí)別機(jī)器人賬號(hào)的難度,用以集中關(guān)注此類(lèi)賬號(hào)發(fā)布的內(nèi)容。
如果人工智能可以用于進(jìn)攻,那么相對(duì)地,它也可以用來(lái)防守。ChatGPT 能夠幫助軟件工程師完成一部分代碼編寫(xiě)工作,并且能夠挖掘人類(lèi)設(shè)計(jì)的代碼中存在的漏洞,進(jìn)行安全檢查。企業(yè)也可以使用ChatGPT 或類(lèi)似的語(yǔ)言模型以多種方式改進(jìn)其網(wǎng)絡(luò)安全計(jì)劃,例如,釣魚(yú)檢測(cè)、密碼破解、惡意軟件檢測(cè)、網(wǎng)絡(luò)威脅情報(bào)預(yù)警、自動(dòng)事件響應(yīng)等,以此降低網(wǎng)絡(luò)釣魚(yú)成功的機(jī)會(huì)、測(cè)試密碼強(qiáng)度、檢測(cè)新的惡意軟件及其變體、識(shí)別潛在的網(wǎng)絡(luò)威脅、對(duì)某些網(wǎng)絡(luò)事件自動(dòng)響應(yīng)等。隨著ChatGPT 等人工智能產(chǎn)品的普及,人工智能安全市場(chǎng)將進(jìn)一步爆發(fā),引發(fā)新技術(shù)研發(fā)熱潮和新安全產(chǎn)業(yè)增長(zhǎng)。據(jù)Research And Markets 報(bào)告預(yù)測(cè),2030 年網(wǎng)絡(luò)安全中人工智能產(chǎn)值將突破千億美元,2020 年至2030 年這十年間將達(dá)到25.7%的年復(fù)合增長(zhǎng)率。①搜狐網(wǎng):https://www.sohu.com/a/638329667_12090 2492.
同時(shí),提升監(jiān)管水平也是解決網(wǎng)絡(luò)安全的重要路徑[5]。面對(duì)類(lèi)似于ChatGPT 的人工智能工具,歐盟和美國(guó)的立法機(jī)構(gòu)及研究者已經(jīng)開(kāi)始推動(dòng)對(duì)人工智能軟件的監(jiān)管。2020 年2 月,歐盟發(fā)布了一份關(guān)于人工智能的白皮書(shū),倡議構(gòu)建歐洲共同人工智能監(jiān)管框架,按照風(fēng)險(xiǎn)分級(jí)監(jiān)管。隨后,在2021 年提出了一項(xiàng)提案——《人工智能法案》(AIA,目前尚未通過(guò))。2022 年9 月,歐盟通過(guò)了《人工智能責(zé)任指令》提案,擬就人工智能引發(fā)的損害設(shè)定責(zé)任規(guī)則,以便相關(guān)受害者能夠依法獲得賠償。同時(shí)通過(guò)了《產(chǎn)品責(zé)任指令》修訂版提案,將配有人工智能的產(chǎn)品明確納入其適用范圍,以期完善數(shù)字時(shí)代和循環(huán)經(jīng)濟(jì)背景下的產(chǎn)品究責(zé)機(jī)制。