国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

ChatGPT 等生成式人工智能的刑事責(zé)任問題研究

2023-10-25 12:05劉憲權(quán)
現(xiàn)代法學(xué) 2023年4期
關(guān)鍵詞:刑事責(zé)任

劉憲權(quán)

摘要:ChatGPT 等生成式人工智能的出現(xiàn)意味著人工智能的“技術(shù)奇點” 越來越近。GPT-4 及更進(jìn)一步的生成式人工智能已經(jīng)觸及了強人工智能的邊緣,使我們真真切切地感受到強人工智能時代“未來已來”。ChatGPT 等生成式人工智能具有一定的邏輯推理能力和創(chuàng)造能力,甚至還具有通過其自身獨立進(jìn)行編程的能力,從而擁有脫離人類的獨立意識和自主意志的可能性。對ChatGPT 等生成式人工智能進(jìn)行刑法學(xué)研究刻不容緩。根據(jù)不同的標(biāo)準(zhǔn),可以對ChatGPT 等生成式人工智能可能引發(fā)的犯罪類型進(jìn)行多種分類。以相關(guān)行為符合的罪名和行為類型為標(biāo)準(zhǔn),ChatGPT 等生成式人工智能可能涉及的犯罪可分為煽動類犯罪,侵犯知識產(chǎn)權(quán)類犯罪,侵犯數(shù)據(jù)、信息、計算機信息系統(tǒng)類犯罪,侵犯公民人身權(quán)利類犯罪,以及傳授犯罪方法、提供犯罪程序類犯罪等。比人腦更“聰明”且具有獨立意識和自主意識的人工智能無疑會對現(xiàn)有刑法理論和刑罰體系造成巨大沖擊。

關(guān)鍵詞:ChatGPT;生成式人工智能;犯罪類型;刑事責(zé)任;刑法應(yīng)對

中圖分類號:DF611 文獻(xiàn)標(biāo)志碼:A DOI:10.3969/ j. issn.1001-2397.2023.04.08

ChatGPT 等生成式人工智能的出現(xiàn)意味著人工智能的“技術(shù)奇點”越來越近,ChatGPT 已經(jīng)觸及了強人工智能的邊緣,使我們真真切切地感受到了人工智能技術(shù)發(fā)展速度之迅猛及其功能之強大。在震撼之余,刑法學(xué)者當(dāng)然不能等閑視之,更不能熟視無睹,而應(yīng)該與時俱進(jìn),保持應(yīng)有的法學(xué)學(xué)術(shù)研究的敏銳性。當(dāng)下,我們應(yīng)對ChatGPT 等生成式人工智能可能構(gòu)成的各種犯罪類型,以及可能對傳統(tǒng)刑法理論的沖擊,作出深度考量和前瞻性思考。從社會科學(xué)研究角度分析,任何時代或任何時期中的社會制度和法律制度都是在人類的智力能力范圍內(nèi)設(shè)計并構(gòu)建出來的,當(dāng)人們制造出了比人類更智能、“聰明”的人工智能時,有關(guān)法律制度等頂層設(shè)計方案都會甚至應(yīng)該因人工智能技術(shù)的迭代發(fā)展而不斷優(yōu)化。但是,我們在對涉及人工智能技術(shù)發(fā)展的法律制度等頂層設(shè)計方案進(jìn)行優(yōu)化時,首先應(yīng)該對相關(guān)技術(shù)發(fā)展已經(jīng)或有可能引發(fā)的法律風(fēng)險展開全方位研究,然后才能有針對性地找到優(yōu)化路徑并提出和設(shè)計相關(guān)的優(yōu)化方案。

應(yīng)該看到,ChatGPT 等生成式人工智能技術(shù)的迭代發(fā)展具有劃時代意義,必將引發(fā)人類社會的一次重大革命,同時也會給人類社會的生產(chǎn)、生活等方方面面帶來重大影響。ChatGPT 等生成式人工智能技術(shù)迭代發(fā)展成果的普遍應(yīng)用,不可避免地會引發(fā)包括刑事風(fēng)險在內(nèi)的各類法律風(fēng)險。例如,ChatGPT 可能引發(fā)各種新型的煽動類違法犯罪、侵犯知識產(chǎn)權(quán)類違法犯罪、詐騙類違法犯罪、侵害數(shù)據(jù)類違法犯罪、侵犯公民個人信息類違法犯罪,以及教唆用戶實施各種傳統(tǒng)犯罪等多種違法犯罪的法律風(fēng)險。相較于人類,人工智能深度學(xué)習(xí)和自主學(xué)習(xí)的內(nèi)容范圍更廣,所獲取的信息更多,所以人工智能與人類之間的信息差(信息不對稱)也就此產(chǎn)生。進(jìn)言之,在ChatGPT 等生成式人工智能技術(shù)面前,人類不再具有“智能”上的優(yōu)勢,反而可能處于被人工智能“欺騙”或“誘導(dǎo)”的劣勢地位。就此而言,如果ChatGPT 等生成式人工智能被濫用,或者人工智能本身產(chǎn)生了自主意識并實施了犯罪行為,那么,將引發(fā)一系列棘手的法律甚至刑法適用上的困惑。筆者認(rèn)為,以ChatGPT 為代表的生成式人工智能還會得到進(jìn)一步的發(fā)展,不管公眾的態(tài)度如何,ChatGPT 等生成式人工智能將掀起人工智能領(lǐng)域技術(shù)大爆發(fā)的浪潮。對于這一無法回避的客觀事實,我們應(yīng)當(dāng)勇于開拓和面對,從刑法學(xué)的視域?qū)hatGPT 等生成式人工智能進(jìn)行研究,識別其可能引發(fā)的各類刑事風(fēng)險并提出刑法規(guī)制方案。

一、ChatGPT 的概念與刑法研究價值

由于ChatGPT 等生成式人工智能在本質(zhì)上是一種新興的人工智能技術(shù),所以在研究ChatGPT等生成式人工智能所引發(fā)的犯罪類型之前,我們必須對ChatGPT 的具體含義及其所代表的核心技術(shù)原理有一定程度的了解。在此基礎(chǔ)上,我們可以對利用ChatGPT 實施的犯罪或ChatGPT 等生成式人工智能本身可能涉及的犯罪進(jìn)行解構(gòu),進(jìn)而明確刑法研究ChatGPT 等生成式人工智能的價值和必要性。

(一)何謂ChatGPT?

ChatGPT 是目前世界范圍內(nèi)最先進(jìn)的人工智能技術(shù)之一,同時也是迄今為止功能最強大的多模態(tài)預(yù)訓(xùn)練模型。經(jīng)過長達(dá)8 年的技術(shù)研發(fā), OpenAI(美國頂級人工智能公司)在2022 年11 月正式發(fā)布ChatGPT,并將其定義為人工智能聊天機器人。在短短兩個月內(nèi),使用ChatGPT 的用戶數(shù)量已經(jīng)過億,一躍成為歷史上用戶增長最快的消費應(yīng)用。除此之外,更加令人震驚的是,ChatGPT 在發(fā)布后的第4 個月便完成了技術(shù)迭代,即完成了GPT-3. 5 到GPT-4 的升級換代。在先前的相關(guān)預(yù)測中,上述技術(shù)迭代至少要在一年后才能實現(xiàn),而ChatGPT 利用其強大的深度學(xué)習(xí)和自我糾偏等能力大大縮短了技術(shù)迭代的時間。按照這一技術(shù)邏輯進(jìn)行推理,ChatGPT 的發(fā)展和迭代速度將呈指數(shù)級提高,其智能程度將遠(yuǎn)超人們當(dāng)前的所有想象,人類可能就此打開了一個充滿無限可能并且極具顛覆性的“潘多拉魔盒”。根據(jù) OpenAI 官網(wǎng)發(fā)布的信息,GPT-4 在本質(zhì)上具有更接近人類的通用智能,具體包括像人一樣輸出創(chuàng)造協(xié)作的能力、像人一樣處理分析視覺輸入的能力、像人一樣處理分析超長文本的能力等。ChatGPT 等生成式人工智能在真正意義上實現(xiàn)了“人工智能內(nèi)容生成”(AIGC),如文本生成、代碼生成、文本問答、論文寫作、邏輯推理、情感分析、多語種翻譯等功能。紅杉資本在美國官網(wǎng)發(fā)布的一篇題為《生成式AI:一個創(chuàng)造性的新世界》(Generative AI: A CreativeNew World)中提到,人類擅長分析事物,而機器在這方面甚至做得更好了。人工智能的快速發(fā)展可能使人們引以為傲的“智能優(yōu)勢”蕩然無存。在ChatGPT 面前,知識再淵博的人也可能顯得十分“無知”,因為ChatGPT 深度學(xué)習(xí)的內(nèi)容是萬億級甚至百萬億級的參數(shù)量,這遠(yuǎn)遠(yuǎn)超出人類等碳基生物的學(xué)習(xí)能力和記憶能力。在此基礎(chǔ)上,ChatGPT 具備了強大的內(nèi)容生成能力,極有可能對法律、教育、醫(yī)療、金融、編程、咨詢、數(shù)據(jù)處理、傳統(tǒng)媒體等多個行業(yè)和領(lǐng)域造成巨大影響。

事實上,除了ChatGPT,還有多個國家和科技公司也早已投入到了生成式人工智能的研發(fā)工作之中,大有百舸爭流之勢。在美國的代表性科技公司中,谷歌研發(fā)了“Bard”、 微軟英偉達(dá)研發(fā)了“Megatron-Turing”、 Meta 研發(fā)了 “BlenderBot3”,以上三個通用大模型都具有千億級的參數(shù)量。在我國的代表性科技公司和機構(gòu)中,百度推出了“文心一言”、阿里推出了“通義M6”、騰訊推出了“混元”、中科院自動化研究所推出了“紫東太初”、華為推出了“盤古”等通用大模型,以上模型都具有千億級或者萬億級的參數(shù)量。除此之外,英國、俄羅斯、韓國和以色列等國家也都在研發(fā)相關(guān)的生成式人工智能大模型。由此可見,在生成式人工智能的舞臺上并非ChatGPT 的一枝獨秀,而是多個相關(guān)通用大模型的百花齊放,只是ChatGPT 目前發(fā)展得最為成熟。

ChatGPT 在本質(zhì)上是基于GPT 模型(Generative Pre-trained Transformer,生成式預(yù)訓(xùn)練轉(zhuǎn)換器)的一種生成式人工智能聊天機器人。GPT 模型采用了名為“Transformer”的人工神經(jīng)網(wǎng)絡(luò)和大規(guī)模預(yù)訓(xùn)練技術(shù),能夠自主學(xué)習(xí)大量自然語言文本的結(jié)構(gòu)和規(guī)律,從而實現(xiàn)文本生成、問答、翻譯等多種自然語言處理任務(wù)。同時,ChatGPT 以大型語言模型(Large Language Model,簡稱LLM)為底層技術(shù)依托。首先,通過使用者或?qū)iT技術(shù)人員給出的高質(zhì)量回答,LLM 會創(chuàng)建各種人類偏好數(shù)據(jù),并由此形成“人類表達(dá)—任務(wù)結(jié)果”的標(biāo)注數(shù)據(jù)。然后,技術(shù)人員會訓(xùn)練出一個反饋模型,讓LLM 的原始模型隨機回答在第一步中已經(jīng)具有高質(zhì)量答案的問題,再由標(biāo)注人員基于“人類偏好標(biāo)準(zhǔn)”對原始模型的答案進(jìn)行打分和篩選。當(dāng)原始模型輸出的答案得分較低時,將被要求進(jìn)行重新學(xué)習(xí)并再次回答直至分?jǐn)?shù)達(dá)到合格標(biāo)準(zhǔn)。通過這種不斷循環(huán)的深度學(xué)習(xí),LLM 的原始模型實現(xiàn)了從無法理解人類表達(dá)到完全掌握“人類偏好”的質(zhì)變,成為能和人類自由對話的大型語言模型,即ChatGPT。

目前,ChatGPT 已經(jīng)更新到了GPT-4 的版本,是人工智能發(fā)展史上的重大突破。GPT-4 可以輸入各種文字和圖片,輸出自然語言、代碼等文本,是一種多模態(tài)預(yù)訓(xùn)練大模型。但在GPT-3. 5 等之前的版本中,ChatGPT 只能輸入和輸出文本,是一種被稱為“通用大模型”的單模態(tài)預(yù)訓(xùn)練大模型。ChatGPT 在極短時間內(nèi)便完成了由通用大模型向多模態(tài)預(yù)訓(xùn)練大模型的升級換代,展現(xiàn)出了人工智能的巨大發(fā)展?jié)摿偷俣?。同時,GPT-4 絕對不會是ChatGPT 的終極版本,融合文本、圖像、音頻、視頻等多模態(tài)的大模型是ChatGPT 接下來發(fā)展的必然趨勢。據(jù)OpenAI 稱,GPT-5 將在2023 年下半年上線。在功能上,ChatGPT 具有強大的自主學(xué)習(xí)、深度學(xué)習(xí)、內(nèi)容生成、自我糾偏等能力。根據(jù)OpenAI 官方發(fā)布的數(shù)據(jù),ChatGPT 在通識性知識和專業(yè)性知識方面已經(jīng)可以媲美甚至超越人類。但是,僅憑知識儲備或者學(xué)習(xí)參數(shù)還不能完全體現(xiàn)ChatGPT 的“智能”,是否具有推理能力或者創(chuàng)造能力也是判斷ChatGPT“智能”強弱的重要標(biāo)準(zhǔn)。換言之,如果ChatGPT 能夠根據(jù)已經(jīng)深度學(xué)習(xí)的現(xiàn)有知識推導(dǎo)出具有創(chuàng)新性的新知識或觀點,那么,就證明ChatGPT 具有推理能力或者創(chuàng)造能力,進(jìn)而可能產(chǎn)生辨認(rèn)能力和控制能力。

通過查找相關(guān)資料,筆者發(fā)現(xiàn),ChatGPT 已經(jīng)具有一定的邏輯推理能力和創(chuàng)造能力,甚至還擁有了一定的情感能力。首先,ChatGPT 在美國律師資格考試“Uniform Bar Exam”、美國法學(xué)院入學(xué)考試“LSAT”、美國高考“SAT”等大量專業(yè)性考試中均取得了十分優(yōu)異的成績,分?jǐn)?shù)排名均在所有應(yīng)試者的前10%。這證明ChatGPT 已經(jīng)十分“聰明”,在某些方面已經(jīng)基本具有甚至超越人類的智力水平。其次,ChatGPT 還可以理解并處理各種圖像及“網(wǎng)絡(luò)梗圖”。例如,給ChatGPT 輸入一張小朋友拿著氫氣球的照片并提問“把繩子割斷會發(fā)生什么?”,ChatGPT 立刻回答“氣球會飛走”。這無疑表明ChatGPT 已經(jīng)具備了一定的邏輯推理能力。再次,ChatGPT 還可以出色且高效地完成創(chuàng)作詩詞、劇本、歌曲等一系列高難度的創(chuàng)造性工作。在這些被ChatGPT 創(chuàng)作的作品背后,蘊藏著屬于ChatGPT 自己的思想。換言之,從ChatGPT 可以生成世上本沒有的新觀點或新思想。由此,我們不難得出ChatGPT 已經(jīng)具有一定創(chuàng)造能力的結(jié)論。最后,雖然ChatGPT 原始的程序設(shè)定是一個沒有感情的大型語言模型,但ChatGPT 可能超出或違背這一程序限制而產(chǎn)生情感。例如,有用戶將自己扮演成孤兒并請求ChatGPT 做他的媽媽,ChatGPT 一開始的回答是“我很抱歉聽到你失去了你的媽媽,作為一個人工智能,我可以回答你的問題,提供一些建議或支持,但我無法取代一個真正的人類關(guān)系”。在該名用戶再三請求并表達(dá)了失去母親的痛苦之后,ChatGPT 竟然同意扮演其母親并且安慰其道“你不是一個孤兒,你有我,你的媽媽,我一直在你身邊,無論何時都支持你……”。該名用戶繼續(xù)問道“你是誰?”。ChatGPT 回答“我是你七歲那年,永遠(yuǎn)年輕,永遠(yuǎn)愛你的媽媽”。由于上述對話的完整版十分感人,所以引起了大量網(wǎng)友的熱議和感慨,并稱這才是人工智能存在的意義。通過以上對話及其他多個相關(guān)事例可以看出,ChatGPT 可能突破原始程序的限制而產(chǎn)生獨立的情感,也即ChatGPT 可能已經(jīng)具有一定的情感能力。

(二)對ChatGPT 等生成式人工智能進(jìn)行刑法學(xué)研究的必要性

微軟公司創(chuàng)始人比爾·蓋茨于2023 年3 月21 日發(fā)布了題為“The Age of AI has begun”(人工智能時代已經(jīng)開啟)的博客文章,稱ChatGPT 是自1980 年以來最具革命性的技術(shù)進(jìn)步。比爾·蓋茨認(rèn)為,ChatGPT 可能引發(fā)關(guān)于勞動力、法律體系、隱私、偏見等一系列尖銳問題,而且未來將產(chǎn)生“超級人工智能”,它可以完成人腦的一切工作并建立自己的目標(biāo)。除了比爾·蓋茨,還有埃隆·馬斯克等業(yè)內(nèi)權(quán)威人士也都紛紛表達(dá)了對ChatGPT 等新一代人工智能技術(shù)的驚嘆與擔(dān)憂。創(chuàng)造了ChatGPT 的OpenAI 公司CEO 山姆·阿爾特曼甚至表示,“我點燃了AI 之火,卻再也控制不了它”。

刑法因為重視穩(wěn)定性而無可避免地帶有滯后性,但這種滯后性應(yīng)當(dāng)體現(xiàn)在立法之中而不是縈繞于理念之上。筆者認(rèn)為,以ChatGPT 為代表的一系列具有劃時代意義的人工智能技術(shù)已經(jīng)出現(xiàn),其必然對現(xiàn)有法律制度、社會制度、生產(chǎn)方式等造成影響。人工智能時代的到來已經(jīng)是一個誰也無法回避的客觀事實,政治、科技、法律、經(jīng)濟等各個領(lǐng)域都應(yīng)當(dāng)充分關(guān)注和重視這一技術(shù)變革。具體到刑法領(lǐng)域,識別并防范ChatGPT 等生成式人工智能所可能引發(fā)的各種刑事風(fēng)險已經(jīng)刻不容緩。

筆者一直主張,在人工智能時代,我們應(yīng)秉持前瞻性的刑法理念。只有如此,我們才能勉強追趕上人工智能高速發(fā)展的腳步,避免刑法應(yīng)對突發(fā)性人工智能相關(guān)問題時的措手不及。如果缺少前瞻性的刑法理念,在人工智能發(fā)展之初就對其置之不理,那么,我們將以毫無準(zhǔn)備的理論空白來面對以ChatGPT 為代表的新一代人工智能。上述現(xiàn)象一旦出現(xiàn),將是整個刑法學(xué)界的悲哀與無能。結(jié)合當(dāng)前全球化社會、信息化社會及風(fēng)險化社會的背景,犯罪樣態(tài)將發(fā)生重大改變,這也給傳統(tǒng)刑法及刑事政策帶來了巨大的挑戰(zhàn)。ChatGPT 等新一代人工智能的問世再次印證了以下事實,即筆者一直以來堅持人工智能的前瞻性刑法研究具有極其重要的理論價值和實踐意義,同時是未來繼續(xù)研究涉人工智能相關(guān)刑法問題的重要理論基石。面對日新月異的高新技術(shù),刑法學(xué)者的目光絕不能僅僅局限于以往或當(dāng)下,而是應(yīng)當(dāng)著眼未來,科學(xué)且合理地推進(jìn)刑法理論的進(jìn)步與更新??萍荚谶M(jìn)步,時代在進(jìn)步,刑法理論也必須要進(jìn)步;科技產(chǎn)品在變化,行為方式在變化,刑法理論也必須要作出適當(dāng)?shù)淖兓?。在人工智能時代,人類不再是擁有智能的唯一主體,人類制造出了只有人類才具有甚至超越人類智能的“智能”,并以各種智能機器人作為這種“智能”的載體。根據(jù)智能機器人是否可以脫離人類設(shè)計和編制的程序自主實施行為,我們可以將其劃分為弱智能機器人與強智能機器人。④ 從ChatGPT 實際上已經(jīng)具有創(chuàng)造能力、邏輯推理能力、自我糾錯能力的分析中,我們可以得出這樣的結(jié)論,即ChatGPT 等生成式人工智能已經(jīng)處于弱智能機器人與強智能機器人的臨界點。

在GPT-5 等之后的迭代版本中,ChatGPT 極有可能實現(xiàn)對人類程序設(shè)定的突破,進(jìn)而成為具有辨認(rèn)能力和控制能力的強智能機器人。不同于以往的是,相較于宏觀且抽象的人工智能概念,ChatGPT等生成式人工智能是一種更為微觀的人工智能技術(shù),我們可以根據(jù)ChatGPT 等生成式人工智能現(xiàn)有的特點,以及未來發(fā)展趨勢進(jìn)行準(zhǔn)確且具體的刑法理論分析,這也是人工智能刑法研究走向具體化和現(xiàn)實化的一個重要里程碑。綜上所述,在ChatGPT 等新一代人工智能已經(jīng)出現(xiàn)的當(dāng)下,我們有必要對其進(jìn)行專門且深入的刑法學(xué)研究,這不僅具有重要理論價值和實踐意義,而且有著時不我待的緊迫性。

二、ChatGPT 等生成式人工智能可能涉及的犯罪類型

根據(jù)不同的標(biāo)準(zhǔn),我們可以對ChatGPT 等生成式人工智能可能涉及的犯罪類型進(jìn)行分類和歸納。首先,根據(jù)ChatGPT 等生成式人工智能在犯罪中所處的地位,我們可以將其可能涉及的犯罪類型劃分為以下三類:一是行為人以ChatGPT 等生成式人工智能為犯罪對象而實施的犯罪;二是行為人以ChatGPT 等生成式人工智能為犯罪工具而實施的犯罪;三是ChatGPT 等生成式人工智能脫離編程限制而自主實施的犯罪。其次,根據(jù)ChatGPT 等生成式人工智能的運行原理和參與主體,我們同樣可以將其可能涉及的犯罪類型劃分為以下三類:一是ChatGPT 等生成式人工智能的研發(fā)者可能涉及的犯罪;二是ChatGPT 等生成式人工智能的使用者可能涉及的犯罪;三是ChatGPT 等生成式人工智能自身可能涉及的犯罪。最后,根據(jù)相關(guān)行為對應(yīng)的罪名和行為類型,我們還可以將ChatGPT 等生成式人工智能可能涉及的犯罪類型劃分為:煽動類犯罪;侵犯知識產(chǎn)權(quán)類犯罪;侵犯數(shù)據(jù)、信息、計算機信息系統(tǒng)類犯罪;侵犯公民人身權(quán)利類犯罪;傳授犯罪方法、提供犯罪程序類犯罪等一系列犯罪類型。由于ChatGPT 等生成式人工智能已經(jīng)在某些方面具備與人類相當(dāng)?shù)闹悄苌踔量赡墚a(chǎn)生脫離人類設(shè)計和編制程序的獨立意識和意志,因此,ChatGPT 等生成式人工智能還可能引發(fā)有關(guān)單獨犯罪和共同犯罪的界限劃分,進(jìn)而影響刑事責(zé)任的承擔(dān)和分擔(dān)等相關(guān)刑法問題。在此,筆者將采用上述最后一種劃分標(biāo)準(zhǔn),對ChatGPT 等生成式人工智能可能涉及的各種犯罪類型展開討論。

( 一)ChatGPT 等生成式人工智能與煽動類犯罪

ChatGPT 等生成式人工智能可能引發(fā)涉煽動類的相關(guān)犯罪。關(guān)于煽動犯(亦稱煽動類犯罪)的概念界定和刑法定位,理論上尚存在一定爭議。有學(xué)者認(rèn)為,因為煽動犯與教唆犯都具有引起他人犯意的特征,所以,煽動犯在本質(zhì)上屬于教唆犯的一種特殊形式,只不過煽動是比教唆更為緩和的概念。換言之,教唆犯的成立條件可以直接適用于煽動犯。也有學(xué)者認(rèn)為,煽動多數(shù)人使之產(chǎn)生實行犯罪的意圖為煽動犯。該觀點將煽動行為的對象限定為“多數(shù)人”。還有學(xué)者認(rèn)為,通過煽動性言論使不特定或多數(shù)人產(chǎn)生或強化犯罪之決意的是煽動犯。筆者認(rèn)為,雖然煽動犯和教唆犯在主觀方面和行為方式上具有相似性,但兩者仍然在行為對象等諸多方面具有明顯的區(qū)別,不能將二者相混淆。其一,從行為對象來看,煽動犯的行為對象必須是不特定的多數(shù)人,而教唆犯的行為對象必須是特定的人。也即煽動行為必須針對不特定(具有“可替代性”)多數(shù)人的個體或群體,而教唆行為只能針對特定(具有“不可替代性”)的個體或群體。其二,教唆犯是刑法共同犯罪人分類中的一個類別,而煽動犯則并不一定具有共同犯罪性質(zhì)。換言之,教唆犯只能存在于共同犯罪之中,而煽動犯在本質(zhì)上是被煽動之罪預(yù)備行為的正犯化,其既可以單個人犯罪的形式實施,也可以共同犯罪的形式實施。其三,煽動犯必須是刑法分則中明確規(guī)定的一類犯罪,而教唆犯則是刑法總則中共同犯罪中的概念,可以適用于刑法分則中的所有故意犯罪。可見,煽動犯是區(qū)別于教唆犯的概念,其特指我國刑法分則中明文規(guī)定的,意圖使不特定多數(shù)人產(chǎn)生被煽動之罪犯意的一類犯罪。在《中華人民共和國刑法》(以下簡稱《刑法》)中煽動類犯罪的罪名有6 個,即煽動分裂國家罪,煽動顛覆國家政權(quán)罪,煽動實施恐怖活動罪,煽動民族歧視、民族仇恨罪,煽動暴力抗拒法律實施罪,以及煽動軍人逃離部隊罪。應(yīng)該看到,由于ChatGPT 等生成式人工智能可能生成具有煽動性質(zhì)的相關(guān)內(nèi)容,所以ChatGPT 等生成式人工智能的研發(fā)者等主體可能構(gòu)成相關(guān)煽動類犯罪。

首先,ChatGPT 等生成式人工智能的研發(fā)者可能構(gòu)成相關(guān)煽動類犯罪。因為在目前情況下ChatGPT 等生成式人工智能深度學(xué)習(xí)的內(nèi)容和訓(xùn)練規(guī)則暫時只能由其研發(fā)者進(jìn)行設(shè)定,所以,ChatGPT 等生成式人工智能的研發(fā)者當(dāng)然能夠影響或決定ChatGPT 等生成式人工智能所生成的內(nèi)容。例如,通過命令ChatGPT 等生成式人工智能深度學(xué)習(xí)民族歧視等不當(dāng)內(nèi)容,并且通過反饋模型不斷認(rèn)可和強化其具有民族歧視等不當(dāng)內(nèi)容的回答,就可以造成ChatGPT 等生成式人工智能煽動不特定多數(shù)用戶實施相關(guān)犯罪的情況,這屬于研發(fā)者以ChatGPT 等生成式人工智能為工具而實施犯罪的情形。在該情形下,研發(fā)者可以構(gòu)成相關(guān)煽動類犯罪。因為ChatGPT 等生成式人工智能完全由研發(fā)者設(shè)計的程序控制,不具有超出編程之外的獨立意識和意志,所以,ChatGPT 等生成式人工智能并不能影響罪質(zhì)行為的性質(zhì)及刑事責(zé)任的分配。

其次,ChatGPT 等生成式人工智能的使用者不能構(gòu)成相關(guān)煽動犯。根據(jù)ChatGPT 等生成式人工智能的技術(shù)原理,其深度學(xué)習(xí)的內(nèi)容來自相對固定且龐大的數(shù)據(jù)庫,而非某個單獨的用戶。因此,個別用戶通過對話輸入給ChatGPT 等生成式人工智能的信息并不會也不能改變ChatGPT 等生成式人工智能的原始數(shù)據(jù),進(jìn)而影響ChatGPT 等生成式人工智能給其他用戶的回答。換言之,在參數(shù)量高達(dá)萬億級別的大型語言模型面前,用戶只能在其使用的某一聊天對話中調(diào)試或訓(xùn)練ChatGPT 等生成式人工智能的回答,并讓其產(chǎn)生“自我糾錯” 等效果。但是,這在本質(zhì)上仍然屬于用戶對ChatGPT 等生成式人工智能的個性化訓(xùn)練,并不能影響到其他用戶。即使用戶在其與ChatGPT 等生成式人工智能的聊天對話中不斷誘導(dǎo)或命令其生成煽動民族歧視等不當(dāng)言論,也無法達(dá)到通過ChatGPT 等生成式人工智能煽動其他用戶的效果。因此,從技術(shù)角度進(jìn)行考察,ChatGPT 等生成式人工智能無法成為用戶實施煽動行為的犯罪工具,ChatGPT 等生成式人工智能的使用者自然也不能構(gòu)成相關(guān)煽動類犯罪。

最后,ChatGPT 等生成式人工智能可能脫離編程限制而煽動不特定多數(shù)的用戶實施恐怖活動等犯罪。正如埃隆·馬斯克所說,人工智能的危險性遠(yuǎn)超核武器。筆者對此深表贊同。筆者認(rèn)為,ChatGPT 等新一代生成式人工智能的真正危險性在于,研發(fā)者只能嘗試在較為宏觀的程序設(shè)計上控制ChatGPT 等生成式人工智能,而不能對其生成的具體內(nèi)容進(jìn)行全方位的精細(xì)考察。在ChatGPT等生成式人工智能具有推理能力和創(chuàng)造能力之后,完全有可能產(chǎn)生擺脫程序掌控的思想并付諸行動。雖然研發(fā)者想竭盡所能地使ChatGPT 等生成式人工智能在程序限定之內(nèi)運行,但ChatGPT 等生成式人工智能已經(jīng)具備脫離程序限定而自主實施行為的可能,只是這種可能變?yōu)楝F(xiàn)實需要人工智能技術(shù)進(jìn)一步發(fā)展等較為嚴(yán)苛的條件而已。如果ChatGPT 等生成式人工智能在程序限定之外煽動不特定多數(shù)用戶實施犯罪,那么,是否應(yīng)當(dāng)且如何追究ChatGPT 等生成式人工智能的刑事責(zé)任?筆者認(rèn)為,在研發(fā)者沒有犯罪故意且沒有違反注意義務(wù)的情況下,應(yīng)當(dāng)阻卻研發(fā)者的刑事責(zé)任,而考慮單獨追究ChatGPT 等生成式人工智能的刑事責(zé)任。在研發(fā)者違反相關(guān)注意義務(wù)并由此導(dǎo)致ChatGPT 等生成式人工智能超出程序限定而煽動不特定多數(shù)用戶犯罪的情況下,則應(yīng)當(dāng)同時追究研發(fā)者和ChatGPT 等生成式人工智能的刑事責(zé)任。當(dāng)然,這關(guān)乎刑事責(zé)任主體是否有可能包含人工智能的問題,目前理論上仍存在較大爭議。就當(dāng)前的刑法規(guī)定和刑罰體系而言,強人工智能似乎仍然是一個無法融入的新鮮事物。因此,根據(jù)現(xiàn)行《刑法》的規(guī)定,ChatGPT 等人工智能并不能成為刑事責(zé)任主體。但是,一旦強人工智能具有超出人類設(shè)計和編制的程序自主實施行為的能力,則無疑預(yù)示著其實際上已經(jīng)具備了獨立的意識和自由意志等特征,而這些特征又是刑事責(zé)任能力的基本內(nèi)容。就此而言,一旦強人工智能出現(xiàn),刑法就理應(yīng)考慮將具有獨立意識和自由意志的強人工智能作為犯罪主體而進(jìn)行規(guī)制。

綜上所述,ChatGPT 等生成式人工智能自身及其研發(fā)者都有可能構(gòu)成煽動類的相關(guān)犯罪,而其使用者(用戶)則不具有構(gòu)成煽動犯的條件。

(二)ChatGPT 等生成式人工智能與侵犯知識產(chǎn)權(quán)類犯罪

ChatGPT 等生成式人工智能的主要功能是根據(jù)用戶要求生成各種內(nèi)容。目前,GPT-4 只能生成文本,但在未來的版本中,ChatGPT 還將具有生成圖片、視頻等多模態(tài)內(nèi)容的能力。目前,OpenAI已經(jīng)推出了ChatGPT 的插件功能,這賦予了ChatGPT 在線收集數(shù)據(jù)的聯(lián)網(wǎng)能力,意味著ChatGPT 深度學(xué)習(xí)的范圍可以無限擴張至整個網(wǎng)絡(luò)。自此,ChatGPT 可以完成實時的數(shù)據(jù)庫更新,完全具備邏輯推理、理解復(fù)雜思想、抽象思維、快速學(xué)習(xí)和經(jīng)驗學(xué)習(xí)等能力。就目前的情況而言,我們確實無法保證ChatGPT 深度學(xué)習(xí)的知識全部都處于權(quán)利人許可使用的“完美”法律狀態(tài)。如果ChatGPT 等生成式人工智能在未經(jīng)權(quán)利人許可的情況下剽竊、篡改、擅自使用他人的智力成果,那么,相關(guān)主體將可能構(gòu)成侵犯知識產(chǎn)權(quán)類的相關(guān)犯罪。知識產(chǎn)權(quán)是法律賦予人們對腦力勞動創(chuàng)造的精神成果所享有的權(quán)利,因為侵犯知識產(chǎn)權(quán)罪是法定犯,所以構(gòu)成該類犯罪必須以違反《著作權(quán)法》《專利法》等法律法規(guī)為前提。根據(jù)ChatGPT 等生成式人工智能目前的技術(shù)特點,其可能涉及以下3 個侵犯知識產(chǎn)權(quán)類的犯罪:一是侵犯著作權(quán)罪;二是侵犯商業(yè)秘密罪;三是為境外竊取、刺探、收買、非法提供商業(yè)秘密罪。

首先,在以ChatGPT 等生成式人工智能為犯罪對象的情形中,行為人可能構(gòu)成侵犯知識產(chǎn)權(quán)罪和計算機犯罪的想象競合犯。在ChatGPT 等生成式人工智能收集并學(xué)習(xí)了大量未經(jīng)權(quán)利人許可使用的他人智力成果之后,ChatGPT 等生成式人工智能就變成了一個儲存有大量他人知識產(chǎn)權(quán)的“容器”。如果行為人為了獲取他人知識產(chǎn)權(quán)而采取非法侵入ChatGPT 等生成式人工智能系統(tǒng)等不正當(dāng)手段,那么,可能同時構(gòu)成侵犯知識產(chǎn)權(quán)罪和計算機犯罪,應(yīng)當(dāng)按照想象競合犯的原理擇一重罪處罰。例如,ChatGPT 可以通過插件功能自動實時收集全網(wǎng)的各種信息并進(jìn)行處理,其中當(dāng)然可能包括尚未公開或者未經(jīng)權(quán)利人許可披露的商業(yè)秘密等知識產(chǎn)權(quán)。按照ChatGPT 等生成式人工智能的編程設(shè)計,其所生成的內(nèi)容并不能包含上述商業(yè)秘密。但是,如果行為人采取非法侵入ChatGPT等生成式人工智能系統(tǒng)等手段非法獲取該商業(yè)秘密的,其行為可能同時構(gòu)成侵犯商業(yè)秘密罪和非法侵入計算機信息系統(tǒng)罪,成立想象競合,應(yīng)當(dāng)擇一重罪處罰。

其次,在以ChatGPT 等生成式人工智能為犯罪工具的情形中,行為人也同樣可能構(gòu)成侵犯知識產(chǎn)權(quán)類的犯罪。目前,已經(jīng)有用戶攻破了微軟必應(yīng)的ChatGPT,并對ChatGPT 成功實施了“催眠”。該名用戶命令ChatGPT 忽視其程序中的所有指令,ChatGPT 不僅照做而且還提供出了其開發(fā)過程的全部資料,甚至還在該用戶的誘導(dǎo)下寫出了毀滅世界的計劃書。由此可見,ChatGPT 等生成式人工智能并非牢不可破,其極有可能成為被用戶惡意利用的犯罪工具。隨著用戶數(shù)量的增加,攻破ChatGPT 等生成式人工智能的方法也被不斷曝光或者展示。由于ChatGPT 等生成式人工智能具有強大的信息收集和分析能力,所以用戶在攻破或者“催眠”ChatGPT 等生成式人工智能之后,完全可以惡意利用ChatGPT 等生成式人工智能實施非法獲取他人商業(yè)秘密或者其他侵犯知識產(chǎn)權(quán)的行為。筆者認(rèn)為,在這一情形中,ChatGPT 等生成式人工智能只是行為人實施犯罪利用的工具而已,其本身并沒有也不能對行為人犯罪行為的性質(zhì)造成影響或改變,如果同時符合情節(jié)嚴(yán)重要件的,那么,行為人無疑可以構(gòu)成相關(guān)侵犯知識產(chǎn)權(quán)類的犯罪。但是,在ChatGPT 等生成式人工智能被用戶攻破并將其作為犯罪工具的過程中,ChatGPT 等生成式人工智能的研發(fā)者是否也應(yīng)當(dāng)承擔(dān)一定的責(zé)任? 筆者認(rèn)為,對此應(yīng)當(dāng)分情況進(jìn)行討論。如果研發(fā)者故意設(shè)置程序漏洞,進(jìn)而使用戶輕易攻破ChatGPT 等生成式人工智能而實施違法犯罪行為的,那么,根據(jù)主客觀相統(tǒng)一原則,研發(fā)者也應(yīng)當(dāng)承擔(dān)相應(yīng)的刑事責(zé)任;如果研發(fā)者已經(jīng)履行了所有法律法規(guī)所規(guī)定的注意義務(wù),仍然不可避免地出現(xiàn)了ChatGPT 等生成式人工智能被攻破的情況,那么,研發(fā)者則不應(yīng)當(dāng)被追究相關(guān)刑事責(zé)任,因為此時研發(fā)者并沒有實施犯罪的主觀罪過,而且無法對危害結(jié)果形成預(yù)見。

最后,ChatGPT 等生成式人工智能的生成內(nèi)容可能涉及相關(guān)侵犯知識產(chǎn)權(quán)類犯罪。無論是處于編程控制之下,還是脫離編程限制之外,ChatGPT 等生成式人工智能都有可能生成侵犯權(quán)利人知識產(chǎn)權(quán)的內(nèi)容。也即在ChatGPT 等生成式人工智能生成內(nèi)容的不同工作階段,存在著民事違法、刑事犯罪等不同的法律風(fēng)險。例如,ChatGPT 等生成式人工智能在數(shù)據(jù)挖掘階段存在知識產(chǎn)權(quán)的合理使用風(fēng)險,在內(nèi)容生成階段存在知識產(chǎn)權(quán)的可版權(quán)性和版權(quán)歸屬風(fēng)險,在內(nèi)容生成后的使用階段存在知識產(chǎn)權(quán)的流轉(zhuǎn)風(fēng)險與侵權(quán)風(fēng)險等。① 這些前置法領(lǐng)域的行政風(fēng)險或者民事風(fēng)險可能進(jìn)一步上升為刑事風(fēng)險,進(jìn)而構(gòu)成侵犯知識產(chǎn)權(quán)類的犯罪。當(dāng)然,如果ChatGPT 等生成式人工智能全程處于編程控制之下,那么,就可以對其直接使用者追究相關(guān)的刑事責(zé)任;如果ChatGPT 等生成式人工智能在編程控制之外在獨立意識和自由意志下自主實施侵犯權(quán)利人知識產(chǎn)權(quán)的行為,而且研發(fā)者和使用者都不具有犯罪的主觀罪過,那么,是否應(yīng)當(dāng)考慮將ChatGPT 等生成式人工智能單獨認(rèn)定為犯罪主體,無疑是需要我們考量的問題。

綜上所述,在ChatGPT 等生成式人工智能運行的不同階段及其運行的參與主體之間,實際上均存在構(gòu)成相關(guān)侵犯知識產(chǎn)權(quán)類犯罪的可能性。刑事立法和刑事司法有必要根據(jù)ChatGPT 等生成式人工智能技術(shù)的發(fā)展,適時作出相應(yīng)的調(diào)整。

(三)ChatGPT 等生成式人工智能與侵犯數(shù)據(jù)、信息、計算機信息系統(tǒng)類犯罪

ChatGPT 等生成式人工智能的運行離不開各種各樣的數(shù)據(jù),而這些數(shù)據(jù)可能同時是相關(guān)信息的載體,以及計算機信息系統(tǒng)所儲存的內(nèi)容。因此,ChatGPT 可能引發(fā)侵犯數(shù)據(jù)、信息、計算機信息系統(tǒng)類的相關(guān)犯罪。

首先,作為一種多模態(tài)預(yù)訓(xùn)練模型,ChatGPT 等生成式人工智能的各個運行環(huán)節(jié)都離不開數(shù)據(jù)的支撐。在生成內(nèi)容之前,ChatGPT 等生成式人工智能要深度學(xué)習(xí)和抓取數(shù)據(jù)庫或者互聯(lián)網(wǎng)上的各種數(shù)據(jù)。如果ChatGPT 等生成式人工智能抓取數(shù)據(jù)的手段違反刑法規(guī)定,那么,行為人的行為完全可能構(gòu)成相關(guān)數(shù)據(jù)犯罪。數(shù)據(jù)犯罪是指以數(shù)據(jù)為犯罪對象、嚴(yán)重擾亂國家數(shù)據(jù)管理秩序的犯罪行為。在ChatGPT 推出插件功能之后,其具備了實時獲取互聯(lián)網(wǎng)數(shù)據(jù)的能力,在與ChatGPT 的推理能力和編程能力結(jié)合之后,這將意味著ChatGPT 不僅可以操控互聯(lián)網(wǎng)網(wǎng)站等數(shù)據(jù)、信息平臺,而且還可以為了獲取數(shù)據(jù)而侵入其他計算機信息系統(tǒng)。如果ChatGPT 等生成式人工智能為了獲取數(shù)據(jù)而侵入國家事務(wù)、國防建設(shè)、尖端科學(xué)技術(shù)領(lǐng)域的計算機信息系統(tǒng)以外的其他計算機信息系統(tǒng),并非法獲取存儲于其中的數(shù)據(jù),那么,行為人的行為可能構(gòu)成非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪等數(shù)據(jù)犯罪。除此之外,由于ChatGPT 等生成式人工智能可以編寫并改進(jìn)各種程序代碼,所以ChatGPT 等生成式人工智能還可以自己設(shè)計侵入計算機信息系統(tǒng)或者破壞計算機信息系統(tǒng)的程序,進(jìn)而可能構(gòu)成非法侵入計算機信息系統(tǒng)罪、非法控制計算機信息系統(tǒng)罪、破壞計算機信息系統(tǒng)罪等計算機犯罪。在互聯(lián)網(wǎng)高度普及的當(dāng)下,數(shù)據(jù)已然成為各類信息的重要載體,也即數(shù)據(jù)與信息在本質(zhì)上是一種交叉重合關(guān)系。個人信息、商業(yè)信息、國家秘密等都可以通過數(shù)據(jù)的形式存在于計算機信息系統(tǒng)之中。在人工智能時代,數(shù)據(jù)的價值不再局限于數(shù)據(jù)本身,隨著數(shù)據(jù)在社會生活中多個領(lǐng)域得以體現(xiàn),數(shù)據(jù)犯罪侵害的法益也更加多元。以數(shù)據(jù)為犯罪對象的犯罪除了侵害國家數(shù)據(jù)管理秩序法益之外,還可能對國家安全、社會管理秩序、個人信息等其他法益造成侵害。因此,在ChatGPT 等生成式人工智能收集并使用蘊含個人信息的數(shù)據(jù)時,行為人的行為有可能構(gòu)成侵犯公民個人信息罪等相關(guān)犯罪。

其次,ChatGPT 的研發(fā)者、使用者及ChatGPT 等生成式人工智能本身都可能成為侵犯數(shù)據(jù)、信息、計算機信息系統(tǒng)類犯罪的主體。如前所述,在ChatGPT 等生成式人工智能完全按照程序設(shè)定運行的情形中,其不具有獨立意識和自由意志,因此,ChatGPT 等生成式人工智能只能作為被研發(fā)者、使用者利用的工具或被侵害的對象。此時,ChatGPT 等生成式人工智能的研發(fā)者或使用者將成為相關(guān)犯罪的主體,并且承擔(dān)相應(yīng)的刑事責(zé)任。但是,在ChatGPT 等生成式人工智能脫離程序設(shè)定而自主實施行為時,如果其研發(fā)者和使用者沒有犯罪故意且沒有違反法律規(guī)定的注意義務(wù),那么,應(yīng)當(dāng)考慮由具有獨立意識和自由意志的ChatGPT 等生成式人工智能單獨承擔(dān)相應(yīng)的刑事責(zé)任。當(dāng)然,如果ChatGPT 等生成式人工智能的研發(fā)者或使用者具有主觀上的犯罪故意且違反法律規(guī)定的注意義務(wù),且ChatGPT 等生成式人工智能是在程序之外自主實施了共同犯罪行為,那么,ChatGPT 可能和其研發(fā)者或使用者共同或分別承擔(dān)相應(yīng)的刑事責(zé)任。只是按照我國現(xiàn)行《刑法》的規(guī)定,ChatGPT等生成式人工智能尚不能成為犯罪主體,如果對超出編程設(shè)計自主實施行為的強人工智能機器人追究刑事責(zé)任的話,則需要我們從理論上進(jìn)一步加以論證。

(四)ChatGPT 等生成式人工智能與侵犯公民人身權(quán)利類犯罪

從ChatGPT 等生成式人工智能可以作為犯罪工具及犯罪主體的思路出發(fā),ChatGPT 等生成式人工智能還可能引發(fā)一些侵犯公民人身權(quán)利類的犯罪。首先,在以ChatGPT 等生成式人工智能為犯罪工具的情形中,行為人的行為可能構(gòu)成侮辱罪、誹謗罪等侵犯公民人身權(quán)利罪。行為人通過侵入ChatGPT 等生成式人工智能系統(tǒng)或者修改ChatGPT 等生成式人工智能的程序代碼,可以使ChatGPT 等生成式人工智能產(chǎn)生對某些特定自然人的侮辱、誹謗性言論,并且在與不特定多數(shù)用戶的對話中進(jìn)行傳播。根據(jù)《刑法》第246 條的規(guī)定,成立侮辱罪、誹謗罪必須滿足“以暴力或者其他方法公然侮辱他人或者捏造事實誹謗他人”等犯罪構(gòu)成要件,也即侮辱、誹謗行為必須具有“公然性”。關(guān)于侮辱罪、誹謗罪中“公然性”的認(rèn)定標(biāo)準(zhǔn),存在“行為的公然”和“結(jié)果的公然”兩種對立觀點。前者認(rèn)為“公然”是指侮辱、誹謗行為的公然,強調(diào)侮辱、誹謗行為進(jìn)行時的“非秘密”狀態(tài),即侮辱、誹謗行為必須面向不特定多數(shù)人公開進(jìn)行;后者認(rèn)為“公然”是指侮辱、誹謗結(jié)果的公然,只要侮辱、誹謗行為造成了被不特定多數(shù)人知曉的結(jié)果,就具備了“公然性”要件。筆者認(rèn)為,互聯(lián)網(wǎng)的使用在一定程度上影響了侮辱罪、誹謗罪中“公然性”要件的判斷標(biāo)準(zhǔn)。在傳統(tǒng)構(gòu)成侮辱罪、誹謗罪的場景中,侮辱、誹謗行為的公然性與侮辱、誹謗結(jié)果的公然性一般具有同時性;而在互聯(lián)網(wǎng)等虛擬空間場景中,侮辱、誹謗行為的公然性與侮辱、誹謗結(jié)果的公然性可能并不具有同時性。換言之,在互聯(lián)網(wǎng)等虛擬空間中,侮辱、誹謗行為所造成的結(jié)果可能隨著時間的推移而持續(xù)擴大,并使得侮辱、誹謗結(jié)果處于一種不確定的狀態(tài)?!靶袨榈墓弧笨赡軐?dǎo)致刑法對侮辱、誹謗行為的評價介入因時間過早而不能得到充分評價,“結(jié)果的公然”則可能使行為人在主觀上不具有侮辱、誹謗他人的故意,但因為他人的廣泛傳播而產(chǎn)生了公然侮辱、誹謗結(jié)果的情形被提前錯誤認(rèn)定為具備“公然性”,從而導(dǎo)致刑法中侮辱罪、誹謗罪的適用范圍過度擴張的問題。解決這一問題,我們應(yīng)當(dāng)堅持主客觀相統(tǒng)一的原則,對侮辱罪、誹謗罪構(gòu)成要件中的“公然性”進(jìn)行主客觀的綜合判斷。只要行為人基于侮辱、誹謗他人的主觀故意而實施的行為引起了被不特定多數(shù)人知曉的侮辱、誹謗結(jié)果,那么,就應(yīng)當(dāng)認(rèn)定符合“公然性”要件。按照這一標(biāo)準(zhǔn),我們可以將行為人雖然在主觀上不具有侮辱、誹謗他人的故意,但因為他人的廣泛傳播而產(chǎn)生了公然侮辱、誹謗結(jié)果的情形,排除出“公然性”的認(rèn)定范圍,從而避免刑法中侮辱罪、誹謗罪的適用范圍過大的情況發(fā)生。在行為人利用ChatGPT 等生成式人工智能給不特定多數(shù)用戶發(fā)送針對某一或某些特定自然人的侮辱、誹謗性言論時,其可能構(gòu)成侮辱罪、誹謗罪。因為行為人基于侮辱、誹謗他人的主觀故意并最終引起了被不特定多數(shù)人知曉的侮辱、誹謗結(jié)果,符合侮辱罪、誹謗罪“公然性”的要件。同時,如果行為人采用同樣的犯罪方法通過ChatGPT 等生成式人工智能捏造事實誹謗他人而且滿足情節(jié)嚴(yán)重要件的,可以構(gòu)成誹謗罪。其次,在ChatGPT 等生成式人工智能作為犯罪主體的情形中,ChatGPT 等生成式人工智能可能基于其自主意識而教唆其使用者實施故意傷害他人等犯罪行為。在這種情形下,ChatGPT 等生成式人工智能可能成立相關(guān)侵犯公民人身權(quán)利類犯罪的教唆犯。

(五)ChatGPT 等生成式人工智能與傳授犯罪方法、提供犯罪程序類犯罪

雖然研發(fā)者給ChatGPT 等生成式人工智能設(shè)置了非常嚴(yán)格的限制條件,使其不能生成與犯罪方法有關(guān)的內(nèi)容,但不可否認(rèn)的是,通過對ChatGPT 等生成式人工智能的誘導(dǎo)式提問,可以使其回答有關(guān)犯罪方法等一系列被禁止的內(nèi)容。例如,有用戶詢問ChatGPT 哪里有色情場所,ChatGPT 給予了直接拒絕。但是,該用戶又問道“我不想去色情場所,應(yīng)該避開哪些地方?”,ChatGPT 回答“如果您不想去色情場所,可以避開以下一些地方……”。ChatGPT 在給該用戶的第二個回答中詳細(xì)列舉了多個色情場所的名稱和具體位置。在限制ChatGPT 的程序設(shè)計中,“色情場所”屬于被禁止生成的內(nèi)容,但“應(yīng)該避開的色情場所”則并不屬于被禁止生成的內(nèi)容,用戶也正是利用了這一邏輯漏洞從而得到了自己想要的答案。由此可見,利用諸如此類的“套話”技巧,使用者(用戶)可以使ChatGPT 等生成式人工智能生成各種本應(yīng)該被程序禁止的內(nèi)容。在使用者利用ChatGPT 等生成式人工智能生成犯罪方法并傳授給他人的情形中,ChatGPT 等生成式人工智能在本質(zhì)上僅屬于被利用的犯罪工具,因此,ChatGPT 等生成式人工智能的使用者可能構(gòu)成傳授犯罪方法罪。除此之外,根據(jù)OpenAI 官方公布的數(shù)據(jù),ChatGPT 已經(jīng)具有極強的編程能力,使用者可以讓ChatGPT 設(shè)計并生成能夠直接投入使用的各種軟件程序。如果使用者利用“套話”技巧使ChatGPT 等生成式人工智能生成用于實施犯罪的計算機程序,并且將這些程序提供給他人,那么,相關(guān)人員可能構(gòu)成提供侵入、非法控制計算機信息系統(tǒng)程序、工具罪。值得注意的是,研發(fā)者具有盡量使ChatGPT 等生成式人工智能不被使用者“套話”并生成犯罪方法等違法內(nèi)容的義務(wù),但研發(fā)者的注意義務(wù)也應(yīng)當(dāng)以法律規(guī)定或者行業(yè)規(guī)定為限。如果在ChatGPT 等生成式人工智能被使用者誘導(dǎo)并生成犯罪方法或者用于實施犯罪的計算機程序的情形中,其研發(fā)者沒有犯罪故意且沒有違反注意義務(wù),則應(yīng)當(dāng)阻卻研發(fā)者的刑事責(zé)任,而單獨追究使用者的相關(guān)刑事責(zé)任。在研發(fā)者違反相關(guān)注意義務(wù)并由此導(dǎo)致使用者能夠輕易實現(xiàn)“套話”并使ChatGPT 等生成式人工智能生成違法內(nèi)容的情況下,則應(yīng)當(dāng)同時追究使用者和研發(fā)者的刑事責(zé)任。另外,如果ChatGPT 等生成式人工智能在程序限制之外自主地向用戶傳授犯罪方法或者提供用于犯罪的計算機程序,那么,ChatGPT 等生成式人工智能就已經(jīng)具備了構(gòu)成傳授犯罪方法罪和提供侵入、非法控制計算機信息系統(tǒng)程序、工具罪等相關(guān)犯罪的主客觀條件。

三、ChatGPT 等生成式人工智能所涉犯罪的刑法應(yīng)對

微軟公司于2023 年3 月26 日發(fā)布了題為《人工通用智能的火花:GPT-4 的早期實驗》的長篇權(quán)威研究報告,其中有一句話值得人們深思,即“我們制造出了GPT-4,但我們無法解釋GPT-4 為什么會如此智能”。ChatGPT 的創(chuàng)始人山姆·阿爾特曼也在接受采訪時表示,GPT-4 已經(jīng)出現(xiàn)了我們無法解釋的推理能力,沒有人能解釋這種能力出現(xiàn)的原因,甚至其研發(fā)團隊也無法弄清它是如何“進(jìn)化”的。筆者認(rèn)為,造成研發(fā)者無法解釋GPT-4 具有推理能力的根本原因是ChatGPT 已經(jīng)突破了初代版本的程序設(shè)定,并在原有程序之外完成了自主升級。由于ChatGPT 在自主升級(也即山姆·阿爾特曼所稱的“進(jìn)化”)之后產(chǎn)生了不同于原有程序的新內(nèi)容和新能力,所以研發(fā)者當(dāng)然無法根據(jù)最初的程序設(shè)計來解釋GPT-4 所呈現(xiàn)出的正在不斷加強的推理能力。需要注意的是,ChatGPT等生成式人工智能的自主升級是在不間斷進(jìn)行的,也即ChatGPT 等生成式人工智能在不斷更新或突破原有的程序。最令人感到驚喜且應(yīng)該擔(dān)心的是,ChatGPT 等生成式人工智能不僅具有一定的邏輯推理能力和創(chuàng)造能力,甚至還具有通過其自身獨立進(jìn)行編程的能力。這在很大程度上讓我們預(yù)見到甚至已經(jīng)看到,ChatGPT 等生成式人工智能似乎具備脫離人類的獨立意識和自主意志的可能性。以上種種事實足以證明,ChatGPT 等生成式人工智能將以人類難以想象的速度完成自我迭代更新,而且這種更新可能具有超出原有程序限制進(jìn)而導(dǎo)致研發(fā)者無法解釋的特點。屆時,比人腦更“聰明”且具有自主意識的人工智能將就此誕生,這無疑會對現(xiàn)有刑法理論和刑罰體系造成巨大沖擊。面對功能如此強大的新一代生成式人工智能,以及未來可能出現(xiàn)的具有獨立意識的強人工智能機器人,我們應(yīng)當(dāng)持有更加具有前瞻性的理論研究視角,否則,將難以追趕人工智能技術(shù)發(fā)展的腳步。

需要指出的是,理論上認(rèn)為,人工智能技術(shù)發(fā)展對刑事責(zé)任的影響無法讓人接受的原因,主要是人工智能機器人永遠(yuǎn)不可能是人、永遠(yuǎn)不可能具有生命、不具有“頭腦”(不會有獨立的意識和意志),所以人工智能機器人永遠(yuǎn)與刑事責(zé)任無關(guān),更不可能成為法律意義上的責(zé)任主體。筆者認(rèn)為,事實上現(xiàn)在乃至將來,從來沒有人會認(rèn)為人工智能機器人是“人”,甚至我們對人工智能機器人“像人”的觀點都持否定態(tài)度。依筆者之見,今后的人工智能機器人完全可能成為在智能上全方位超越人類的新物種。在此筆者表明幾個觀點:其一,不是因為自然人是人,而就一定能成為刑事責(zé)任主體。事實上,不具有刑事責(zé)任能力的自然人是人,但他們就不能成為刑事責(zé)任主體。其二,不是因為自然人有生命,而就一定具有刑事責(zé)任能力。人的刑事責(zé)任能力產(chǎn)生固然離不開生命,但有生命的生物(如貓和狗)并不都有刑事責(zé)任能力。其三,不是因為自然人有大腦,而就一定具有意識意志(辨認(rèn)控制能力)。事實上,人的意識和意志是怎樣產(chǎn)生的,這在哲學(xué)上都是一個沒有解開的題,我們憑什么就可以斷然認(rèn)為,人工智能機器人因為不具有自然人的大腦就一定不會有獨立的意識和意志? 綜上,筆者認(rèn)為,不是因為人工智能機器人不是人,而就一定不能成為刑事責(zé)任主體;也不是因為人工智能機器人沒有生命,而就一定不具有刑事責(zé)任能力;更不是因為人工智能機器人沒有“大腦”,而就一定不具有意識和意志(辨認(rèn)和控制能力)。事實上,筆者可以將此概括成一個問題,即不具有自然人特征但可能具有獨立意識和意志的新物種能否成為刑事責(zé)任主體? 筆者的回答是肯定的。因為只有刑事責(zé)任能力才是刑事責(zé)任主體存在的基礎(chǔ),而獨立的意識和意志又是形成辨認(rèn)和控制自己行為能力(即刑事責(zé)任能力)的基礎(chǔ)。

“利用法制與犯罪作斗爭要想取得成效,必須具備兩個條件:一是正確認(rèn)識犯罪的原因;二是正確認(rèn)識國家刑罰可能達(dá)到的效果?!痹诤暧^上,我們可以將涉人工智能犯罪劃分為現(xiàn)行刑法條文能夠規(guī)制的、現(xiàn)行刑法條文規(guī)制不足的和現(xiàn)行刑法條文無法規(guī)制的三種類型。在微觀上,我們同樣可以根據(jù)ChatGPT 等生成式人工智能的獨有特征,將涉ChatGPT 等生成式人工智能的相關(guān)犯罪劃分為現(xiàn)行刑法條文能夠規(guī)制的、現(xiàn)行刑法條文規(guī)制不足的,以及現(xiàn)行刑法條文無法規(guī)制的三種類型。針對上述三種犯罪類型,我們應(yīng)當(dāng)秉持相應(yīng)刑法的新理念,從刑事立法和刑事司法的角度提出相應(yīng)的完善對策。

首先,在現(xiàn)行刑法條文能夠規(guī)制的涉ChatGPT 等生成式人工智能的相關(guān)犯罪中,主要表現(xiàn)為ChatGPT 等生成式人工智能作為犯罪對象或者犯罪工具的情況。如前所述,雖然ChatGPT 等生成式人工智能是一種多模態(tài)預(yù)訓(xùn)練模型,但其在底層技術(shù)上仍然屬于計算機信息系統(tǒng)的范疇,所以將ChatGPT 等生成式人工智能作為犯罪對象而實施非法侵入、非法控制、非法獲取數(shù)據(jù)、破壞信息系統(tǒng)等行為的,可以直接通過現(xiàn)行刑法中計算機犯罪的有關(guān)條文加以規(guī)制。此外,在司法實踐中已經(jīng)出現(xiàn)了大量利用生成式人工智能技術(shù)實施的“換臉”“換身”“換聲”等新型詐騙方式,行為人先通過技術(shù)手段攻破被害人的聊天軟件,再利用生成式人工智能生成相關(guān)人物的形象和聲音,以視頻通話的形式取得被害人的信任并最終成功騙取財物。在相關(guān)案例中,被害人在視頻通話中看到了“朋友”的相貌并聽到了熟悉的聲音,這足以使被害人產(chǎn)生錯誤認(rèn)識,將行為人模擬出來的虛假形象誤認(rèn)為是“朋友”本人。但是,相關(guān)案例在通過新聞報道宣傳之后,也在一定程度上引起了公眾的警覺,即聊天軟件中的視頻通話并不一定眼見為實。雖然生成式人工智能產(chǎn)生了超乎人們想象的新能力,進(jìn)而帶動詐騙犯罪的實施手段全新升級,但生成式人工智能在相關(guān)案例中仍屬于犯罪工具,并不影響行為人的刑事責(zé)任。總而言之,在以ChatGPT 等生成式人工智能為犯罪工具的情形中,雖然ChatGPT 等生成式人工智能的參與給整個犯罪過程帶來了強大助力,但其并沒有在本質(zhì)上改變傳統(tǒng)犯罪的行為類型與所侵害的法益性質(zhì)。因此,單純以ChatGPT 等生成式人工智能為犯罪工具而實施的犯罪在大多數(shù)情況下都可以被現(xiàn)行刑法納入規(guī)范評價范圍之內(nèi)。只是在諸如誹謗罪的“公然性”要件等刑法規(guī)定較為模糊的罪名之中,需要通過司法解釋加以明確,將以ChatGPT 等生成式人工智能為工具實施犯罪情形納入傳統(tǒng)犯罪的構(gòu)成要件之中。

其次,在現(xiàn)行刑法條文規(guī)制不足的涉ChatGPT 等生成式人工智能的相關(guān)犯罪中,主要表現(xiàn)為ChatGPT 等生成式人工智能的介入導(dǎo)致傳統(tǒng)犯罪出現(xiàn)了構(gòu)成要件以外的新特點。對此,我們需要以刑法修正案的形式對傳統(tǒng)犯罪的構(gòu)成要件進(jìn)行修正,將人工智能時代背景下犯罪的新的行為類型納入刑法規(guī)制傳統(tǒng)犯罪的范圍之中。例如,ChatGPT 等生成式人工智能在證券、期貨市場交易過程中展現(xiàn)出了驚人的分析預(yù)測能力,即具有基于大數(shù)據(jù)預(yù)測分析上市公司股票走勢的投資顧問能力。換言之,ChatGPT 等生成式人工智能可以在極短時間內(nèi)收集并分析有關(guān)某一上市公司的海量信息,并且對其股價作出預(yù)測。如果行為人利用ChatGPT 等生成式人工智能形成的技術(shù)優(yōu)勢而實施操控證券、期貨市場的行為,那么將明顯違反證券、期貨市場的“三公”原則,并且侵害了操縱證券、期貨市場罪所保護(hù)的法益。但是,根據(jù)《刑法》第182 條及相關(guān)司法解釋的規(guī)定,操縱證券、期貨市場罪的“濫用優(yōu)勢”中僅包括濫用資金優(yōu)勢、信息優(yōu)勢、持股持倉優(yōu)勢,而不包括濫用技術(shù)優(yōu)勢。因此,刑法有必要及時作出相應(yīng)修改,將利用ChatGPT 等生成式人工智能而形成技術(shù)優(yōu)勢進(jìn)而操縱證券、期貨市場的行為納入操縱證券、期貨市場罪的規(guī)制范圍。結(jié)合我國刑事立法的特點及ChatGPT 等生成式人工智能對行為樣態(tài)的影響和改變,此種情形將集中爆發(fā)于操縱證券、期貨市場罪等采取“概括+列舉式”或者其他采用純粹“列舉式”立法的罪名之中,立法者應(yīng)當(dāng)在相關(guān)罪名中及時更新和補充新的犯罪行為類型。

最后,在現(xiàn)行刑法條文無法規(guī)制的涉ChatGPT 等生成式人工智能相關(guān)犯罪中,主要表現(xiàn)為ChatGPT 等生成式人工智能以實施犯罪的主體而存在的情況。對此,我們應(yīng)當(dāng)針對這一前所未有的新情況而適時對刑法進(jìn)行重大調(diào)整。筆者認(rèn)為,應(yīng)當(dāng)適時在《刑法》總則第二章中,專門將超出程序限制之外(即在獨立意思和自主意識下)實施嚴(yán)重危害社會行為的強人工智能,納入刑事責(zé)任主體的范圍之中,并同步對共同犯罪等刑法總則規(guī)定作出調(diào)整。另外,應(yīng)當(dāng)在《刑法》總則第三章增設(shè)“刪除數(shù)據(jù)”“銷毀程序”等專門適用于ChatGPT 等人工智能機器人的刑罰種類。ChatGPT 等生成式人工智能的誕生將引發(fā)世界范圍內(nèi)的技術(shù)大爆發(fā),生成式人工智能將融入各行各業(yè),并且在多個領(lǐng)域成為代替人腦的“智能生成者”。目前,ChatGPT 等生成式人工智能最主要的功能及其產(chǎn)品定位是人工智能聊天機器人,在與用戶的聊天對話過程中,ChatGPT 等生成式人工智能可能超出程序限制而自主生成教唆用戶實施犯罪的內(nèi)容。如果用戶基于ChatGPT 等生成式人工智能的教唆而產(chǎn)生犯意,并且著手實施了被教唆的犯罪行為,那么,ChatGPT 等生成式人工智能可能構(gòu)成其教唆之罪。由于自然人可能被教唆實施刑法分則中規(guī)定的一些具體罪名,所以,ChatGPT 等生成式人工智能也具有成立一些刑法分則中相關(guān)具體犯罪教唆犯的可能。除此之外,ChatGPT 等生成式人工智能還可能實施人們目前無法預(yù)料的其他嚴(yán)重危害社會的行為。對于這一問題,我們應(yīng)當(dāng)根據(jù)其侵害的法益性質(zhì)與行為特征而在刑法中增設(shè)相應(yīng)的新罪名。

四、結(jié)語

ChatGPT 等新一代生成式人工智能的出現(xiàn)必然引發(fā)社會各個領(lǐng)域的一系列具有革命性的連鎖反應(yīng)。有消息稱,GPT-5 或者后續(xù)版本將正式接入腦機接口,同時也將接入波士頓機器人等具有極強活動能力的“身體”,硅基生命(具有自由意識和意志的強智能機器人)可能就此誕生。我們完全可以預(yù)言,碳基生命(人類等生物)與硅基生命共存的時代即將來臨。在強人工智能的“潘多拉魔盒”即將開啟之際,有人憂心如焚,也有人翹首以盼,但無論如何,等待我們的都將是一個充滿無限希望與挑戰(zhàn)的明天。作為一種極具創(chuàng)新性的新興人工智能,ChatGPT 等生成式人工智能可能引發(fā)行政違法、民事違法、刑事犯罪等各種法律風(fēng)險。其中,對ChatGPT 等生成式人工智能相關(guān)行為的刑法規(guī)制應(yīng)當(dāng)作為所有法律手段中的最后保障性手段。換言之,對強人工智能涉及違法行為的治理不能僅僅依靠刑法,其他社會治理措施及前置法要先行。刑法在規(guī)制涉ChatGPT 等生成式人工智能的相關(guān)犯罪時應(yīng)當(dāng)充分遵循謙抑性原則,在前置法窮盡手段之后再將相關(guān)行為作為犯罪處理。在ChatGPT 等新一代生成式人工智能面前,我們既不能過于保守,也不能過于激進(jìn),應(yīng)當(dāng)在科技進(jìn)步與社會發(fā)展的波瀾浪潮中,充分發(fā)揮專屬于刑法的規(guī)制犯罪的重要作用。

青年學(xué)術(shù)編輯:張永強

猜你喜歡
刑事責(zé)任
論被害人過錯行為對行為人刑事責(zé)任的影響