傅 亮
(吉林大學(xué),吉林 長(zhǎng)春 130023)
美國(guó)OpenAI 公司在2022 年11 月30 日發(fā)布的一款生成式人工智能機(jī)器人,即ChatGPT3.5,一經(jīng)發(fā)布便火爆出圈,兩月內(nèi)用戶數(shù)量就超過(guò)1 億人。而隨后在2023 年3 月14 日發(fā)布的ChatGPT4.0,更是由于其超強(qiáng)算力引發(fā)了國(guó)內(nèi)外新一輪的人工智能應(yīng)用熱潮。ChatGPT 與此前的人工智能聊天機(jī)器人有所不同,它是一個(gè)基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練的大型語(yǔ)言模型,其中Transformer是一種新型腦神經(jīng)網(wǎng)絡(luò)架構(gòu)。通過(guò)Transformer 架構(gòu)把預(yù)訓(xùn)練和微調(diào)體系引入了自然語(yǔ)言處理的過(guò)程中,生成了符合人類習(xí)慣的多語(yǔ)言邏輯的內(nèi)容,從而保證人與機(jī)器的交流不再是簡(jiǎn)單的匹配式交流或者關(guān)鍵詞觸發(fā)式交流。此外從OpenAI 公布的數(shù)據(jù)來(lái)看,在ChatGPT3.5 階段,參加美國(guó)律師執(zhí)照考試(Uniform Bar Exam)時(shí),還只能超越10%的應(yīng)試者,但最新的ChatGPT4.0 已經(jīng)具備強(qiáng)大的圖像識(shí)別、文字生成圖片以及創(chuàng)意文本生成等多項(xiàng)功能,在美國(guó)律師執(zhí)照考試中已經(jīng)可以實(shí)現(xiàn)超越90%的應(yīng)試者。其發(fā)展速度之快讓人驚訝,以至于馬斯克在ChatGPT3.5 出來(lái)后就公開發(fā)表言論,應(yīng)該踩下剎車,減緩人工智能的發(fā)展速度。[1]
以ChatGPT 為代表的生成式人工智能給人們帶來(lái)更加便捷生活的同時(shí),也引發(fā)了刑法學(xué)界的三類刑事風(fēng)險(xiǎn)思考。第一,在ChatGPT 引發(fā)新一輪人工智能熱的同時(shí),不少法學(xué)學(xué)者提出強(qiáng)人工智能還未到來(lái),或者永遠(yuǎn)不可能實(shí)現(xiàn),因此人工智能的刑事風(fēng)險(xiǎn)研究是個(gè)偽命題,這個(gè)命題該如何反駁呢?第二,犯罪主體是否局限于人類,ChatGPT 等生成式人工智能目下是否具備承擔(dān)刑事責(zé)任的前提,如果不具備,要智能到何種程度才能夠具備刑事責(zé)任的前提。第三,ChatGPT 的強(qiáng)大算力和智能性可運(yùn)用于人類生活的各個(gè)領(lǐng)域,而在適用的過(guò)程中有可能引發(fā)哪些犯罪,國(guó)家又該如何進(jìn)行風(fēng)險(xiǎn)預(yù)防?
人工智能刑事風(fēng)險(xiǎn)研究一直以來(lái)都是刑法學(xué)界一大討論熱點(diǎn),不少學(xué)者就人工智能的主體地位、刑事責(zé)任分配、刑法應(yīng)對(duì)策略等問題進(jìn)行過(guò)深入研究。但學(xué)界中也有學(xué)者表示此類研究存在大量的反智化研究,例如有學(xué)者指出人工智能風(fēng)險(xiǎn)不過(guò)是部分學(xué)者依靠無(wú)數(shù)假象拼湊起來(lái)的幻影,是在用別人的“噱頭”嚇唬自己,如果今天法學(xué)研究要開始考慮人工智能的刑事風(fēng)險(xiǎn),那么未來(lái)可能需要考慮為外星人、鋼鐵俠去制定屬于他們的法律規(guī)則,從根本上否定了人工智能的刑事風(fēng)險(xiǎn)研究是一個(gè)真命題的研究。[2]但從人文社會(huì)科學(xué)的發(fā)展的要求、弱人工智能時(shí)代已經(jīng)出現(xiàn)的法律風(fēng)險(xiǎn)以及強(qiáng)人工智能出現(xiàn)的可能性三個(gè)方面來(lái)看,人工智能刑事風(fēng)險(xiǎn)的討論作為一個(gè)真命題,是有必要進(jìn)行進(jìn)一步思考的。
1.由人文社會(huì)科學(xué)與自然科學(xué)的緊密聯(lián)系決定。對(duì)于反對(duì)者的觀點(diǎn),首先必須承認(rèn)在近幾年,人工智能法學(xué)研究的相關(guān)成果的確如雨后春筍般涌現(xiàn),根據(jù)筆者在中國(guó)知網(wǎng)以“人工智能”和“刑法”為主題進(jìn)行搜索發(fā)現(xiàn),在1997 年1 月1 日至2018 年1 月1 日中,只有7 篇期刊論文,9 篇學(xué)位論文,而在2018 年1 月1 日至2023 年6 月20日,共有494 篇期刊論文,215 篇學(xué)位論文。由論文研究時(shí)間可見,人工智能的法律研究并非天馬行空的想象得出的,而是伴隨著人工智能技術(shù)的逐漸發(fā)展和繁榮而衍生的問題意識(shí)。從某種程度來(lái)說(shuō),自然科學(xué)的發(fā)展與社會(huì)科學(xué)的發(fā)展是亦步亦趨的,這是歷史發(fā)展的必然要求,并不以任何人的意志為轉(zhuǎn)移。正如習(xí)近平總書記指出的:“一個(gè)沒有發(fā)達(dá)的自然科學(xué)的國(guó)家不可能走在世界前列,一個(gè)沒有繁榮的哲學(xué)社會(huì)科學(xué)的國(guó)家也不可能走在世界前列?!盵3]人工智能理工科技術(shù)的發(fā)展必然推動(dòng)人文社會(huì)科學(xué)的發(fā)展,人文社會(huì)科學(xué)的發(fā)展也許不能即刻轉(zhuǎn)化為生產(chǎn)力,但其可以通過(guò)影響社會(huì)政策,從而緩慢轉(zhuǎn)化為有益社會(huì)治理的成果。
2.由人文社會(huì)科學(xué)的獨(dú)有特點(diǎn)決定的。關(guān)于人工智能的刑事風(fēng)險(xiǎn)研究的確存在大量的想象,甚至可以說(shuō)每一篇關(guān)于強(qiáng)人工智能的刑事風(fēng)險(xiǎn)研究論文,都是基于強(qiáng)人工智能出現(xiàn)的可能性而進(jìn)行研究的。但這并不能說(shuō)明此類研究就是學(xué)術(shù)泡沫,就是人文社會(huì)科學(xué)制造的幻影。人文社會(huì)科學(xué)與自然科學(xué)不一樣,自然科學(xué)特別是天文學(xué)、地學(xué)、物理學(xué)、化學(xué)和生物學(xué)的研究對(duì)象是“非人的”自然界,從某種意義上說(shuō)自然科學(xué)主要是“客體性科學(xué)”或者說(shuō)“實(shí)證性科學(xué)”,其中至少70%是是事實(shí)材料和數(shù)據(jù),而只有不到30%的部分是分析與說(shuō)明。[4]因此自然科學(xué)對(duì)于每一個(gè)結(jié)論的推敲都需要反復(fù)的試驗(yàn)進(jìn)行驗(yàn)證,不允許邏輯過(guò)遠(yuǎn)條約,從而確保數(shù)據(jù)能夠支撐結(jié)論的可靠性。但人文社會(huì)科學(xué)屬于解釋性科學(xué),歸納、推測(cè)、設(shè)想以及體驗(yàn)的成分更多,其結(jié)論并非非此即彼,非黑即白,在不同國(guó)家、不同民族甚至不同的人都與某一個(gè)問題都可能有自己的見解。因此即使是對(duì)于一些大膽的新觀點(diǎn),只要能自圓其說(shuō),我們都不應(yīng)該過(guò)于苛求,而是應(yīng)該在觀點(diǎn)的交流中互相學(xué)習(xí)與改進(jìn),從而提高人文社會(huì)科學(xué)研究的深度與廣度。
強(qiáng)人工智能雖未生成,但現(xiàn)階段生成的弱人工智能已經(jīng)迫使我們需要直面已經(jīng)發(fā)生的一系列刑事風(fēng)險(xiǎn)。人臉識(shí)別技術(shù)的發(fā)展,為不法分子通過(guò)AI 換臉實(shí)現(xiàn)其不法目的提供了技術(shù)支持,例如在中國(guó)首例AI 犯罪中,不法分子利用AI 的強(qiáng)大算力批量掃描網(wǎng)站程序漏洞,非法獲取網(wǎng)站后臺(tái)用戶注冊(cè)數(shù)據(jù),并販賣給網(wǎng)絡(luò)詐騙團(tuán)伙,嚴(yán)重威脅了公民的信息安全。[5]此外自動(dòng)駕駛技術(shù)的發(fā)展,在為人類帶來(lái)便利的同時(shí),也為人類帶來(lái)了風(fēng)險(xiǎn),根據(jù)北京智能車聯(lián)產(chǎn)業(yè)創(chuàng)新中心發(fā)布的《2020 年北京自動(dòng)駕駛車輛道路測(cè)試報(bào)告》顯示,封閉場(chǎng)地測(cè)試綜合能力評(píng)估中,交通法律法規(guī)遵守不健全的占比高達(dá)29%,其中包含未正確使用轉(zhuǎn)向燈、不按規(guī)定連續(xù)變道、未按照車道指示方向行駛、未遵守停車讓行標(biāo)志等。而在我國(guó)極其復(fù)雜多樣的城市、農(nóng)村交通環(huán)境中,自動(dòng)駕駛系統(tǒng)必定會(huì)面臨更加嚴(yán)峻的考驗(yàn)。[6]以上都只是弱人工智能在使用過(guò)程中遇到的部分刑事問題,我們尚且捉襟見肘,所以如何能說(shuō)人工智能的刑事研究只是幻影而毫無(wú)意義呢?
強(qiáng)人工智能與弱人工智能最大的區(qū)別在于強(qiáng)人工智能可以超出人類的技術(shù)控制范圍,在自由意志的支配下獨(dú)立做出決策并實(shí)施相應(yīng)行為。若基于強(qiáng)人工智能目前仍未生成而否定人工智能刑事風(fēng)險(xiǎn)研究的意義,筆者認(rèn)為是該觀點(diǎn)是值得商榷的。第一,強(qiáng)人工智能的生成并非遙不可及。ChatGPT3.5 發(fā)展到ChatGPT4.0 只花費(fèi)了三個(gè)半月,以這樣的科技發(fā)展速度,強(qiáng)人工智能已然在路上。第二,當(dāng)下社會(huì)風(fēng)險(xiǎn)呈現(xiàn)不確定性,單純的事后處罰已經(jīng)不足以實(shí)現(xiàn)刑法的基本目的,“刑法在‘向后看’懲罰實(shí)害犯罪時(shí),還需‘向前看’以控制風(fēng)險(xiǎn)和預(yù)防實(shí)害犯罪發(fā)生”。[7]第三,我國(guó)現(xiàn)有的刑罰種類無(wú)法適用于人工智能上,在強(qiáng)人工智能出現(xiàn)之前,我們必須及時(shí)針對(duì)有形強(qiáng)人工智能與無(wú)形強(qiáng)人工智能設(shè)定相適應(yīng)刑罰措施,從而實(shí)現(xiàn)刑罰報(bào)應(yīng)與預(yù)防之目的。
面對(duì)當(dāng)下弱人工智能與強(qiáng)人工智能時(shí)代的時(shí)間交叉點(diǎn),我們也許不知道奇點(diǎn)何時(shí)會(huì)來(lái),但是必須做出相關(guān)措施去應(yīng)對(duì)。第一,從全球的宏觀視角來(lái)看,我們應(yīng)該積極建立多元協(xié)同、多措并舉的監(jiān)管體系,強(qiáng)化ChatGPT 等生成式人工智能參與主體的自我約束。在全民傳播時(shí)代,ChatGPT 作為生成式人工智能走進(jìn)國(guó)際傳播的世界舞臺(tái),想要得到更好的發(fā)展,就必須凝聚起各國(guó)際傳播主體形成正向合力,使各國(guó)際傳播主體成為ChatGPT 監(jiān)管體系中的“監(jiān)督員”,構(gòu)建國(guó)際傳播監(jiān)管共同體,降低跨國(guó)治理難度,各方的共同努力才能實(shí)現(xiàn)ChatGPT 的可持續(xù)發(fā)展。第二,從中國(guó)本土的視角來(lái)看,應(yīng)該加快相應(yīng)的人工智能立法及配套法律的修訂,為ChatGPT 服務(wù)大眾提供更加可靠的法律保護(hù)。事實(shí)上,我國(guó)的立法者也注意到了相關(guān)問題,在2023 年4 月11 日出臺(tái)的《生成式人工智能服務(wù)管理辦法(征求意見稿)》可以說(shuō)就是針對(duì)以ChatGPT 為首的生成式人工智能而提出的意見稿,此外,值得注意的是,在2023 年6 月7 日,中國(guó)國(guó)務(wù)院辦公廳印發(fā)2023 年度立法工作計(jì)劃中的“預(yù)備提請(qǐng)全國(guó)人大常委會(huì)審議人工智能法草案”也說(shuō)明了國(guó)家對(duì)此已經(jīng)開始積極做出籌備工作了。
刑事責(zé)任本身就是一個(gè)法律擬制的概念,在當(dāng)下,世界大多數(shù)國(guó)家法律都將人類和與人類相聯(lián)系的法人擬制為犯罪主體,但也有認(rèn)定人類為唯一犯罪主體的,例如德國(guó)刑法因?yàn)檎J(rèn)為法人承擔(dān)刑罰與德國(guó)傳統(tǒng)的社會(huì)倫理責(zé)任和刑事責(zé)任互相矛盾,在堅(jiān)定地個(gè)人責(zé)任主義下,德國(guó)刑法典堅(jiān)定的將法人排除在犯罪主體之外。[8]顯然,目下多數(shù)國(guó)家仍然堅(jiān)持刑法人類中心主義,與人類無(wú)關(guān)的其他主體不能承擔(dān)刑事責(zé)任。但是為何承擔(dān)刑事責(zé)任的主體只能是人類?法人承擔(dān)刑事責(zé)任的原因?yàn)楹危窟@些問題的答案決定了什么樣的人工智能智能可以承擔(dān)刑事責(zé)任。
早期刑罰的目的在于消除罪惡,維護(hù)正義與教化??v觀人類的刑罰史,早期的刑罰制裁對(duì)象并不局限于人類,其他動(dòng)物甚至無(wú)生命的物體也能承擔(dān)刑事責(zé)任。例如“因攻擊人而致其死亡的無(wú)生命的東西,如石頭、梁、鐵片等,也要在普里坦庫(kù)尼受審。”后來(lái),人類意識(shí)到懲罰石頭、鐵片等無(wú)生命物體并無(wú)任何意義,因而將刑事制裁的對(duì)象限定于有生命的人與動(dòng)物。例如據(jù)記載,“在法國(guó)1314年,一頭公牛襲擊并殺死了穆瓦西附近的一名男子。這頭野獸被判絞死在公共絞刑架上,該判決得到了巴黎議會(huì)的批準(zhǔn)。1389 年在第戎一匹馬因犯殺人罪被判處死刑,1694 年一匹母馬以犯罪被燒死。”如果說(shuō)懲罰無(wú)生命的生命物體受限于早期人類認(rèn)知的局限性,那么懲罰動(dòng)物的目的就只是為了維護(hù)其宗教信仰,在宗教信徒看來(lái)所有的動(dòng)物都是魔鬼的化身,所有的異教徒和未受洗的人都是魔鬼的化身?!盵9]
當(dāng)前,河南省農(nóng)業(yè)機(jī)械化水平走在全國(guó)前列,主要農(nóng)作物耕種收綜合機(jī)械化水平達(dá)80.8%,高出全國(guó)平均水平14個(gè)百分點(diǎn);小麥機(jī)播、機(jī)收水平均穩(wěn)定在98%以上,玉米機(jī)播水平達(dá)95%、機(jī)收水平達(dá)83%,水稻機(jī)收水平達(dá)83%;機(jī)械耕整地做到了應(yīng)耕盡耕;經(jīng)濟(jì)作物、畜牧養(yǎng)殖、設(shè)施農(nóng)業(yè)機(jī)械化加快推進(jìn),農(nóng)業(yè)生產(chǎn)方式進(jìn)入了機(jī)械化為主的新時(shí)代。
隨著啟蒙運(yùn)動(dòng)的興起,理性主義讓人們開始審視和反思動(dòng)物犯罪及其懲罰的合理性。人們發(fā)現(xiàn)動(dòng)物的行為乃其本能反應(yīng),正如貓會(huì)抓老鼠,老虎看見其他動(dòng)物會(huì)去捕獵一樣,都屬于其最本能的反應(yīng)而非由其自由意志決定。動(dòng)物的這種推斷不可能建立在任何論證或推理的過(guò)程上,它不能根據(jù)那樣的論證或推理過(guò)程得出結(jié)論,相似的事件必定跟隨相似的對(duì)象,自然的過(guò)程在運(yùn)行時(shí)將永遠(yuǎn)是規(guī)則的。盡管動(dòng)物亦有其行為準(zhǔn)則,但僅局限于生存和繁衍等本能反應(yīng)之內(nèi),缺乏自由意志與行為之本能與非理性,是決定動(dòng)物不被認(rèn)為具有犯罪主體資格的根本原因。[10]囚禁或者殺死動(dòng)物除了能防止其繼續(xù)實(shí)行危害行為,并不能讓動(dòng)物本身感到刑罰的效果或者威懾其他動(dòng)物,所以從某種程度來(lái)看,懲罰動(dòng)物與懲罰無(wú)生命的物體刑罰效果是一致的。
人既能夠認(rèn)識(shí)并遵守道德規(guī)范,還能感知刑罰的威懾力,自由意志和理性會(huì)驅(qū)使人在做出某一行為或某一決定時(shí)進(jìn)行利益衡量,這是人與動(dòng)物最大的不同。自由意志和理性既是人類獲得犯罪主體資格的前提與基礎(chǔ),也是專屬人類的某項(xiàng)技能,由此刑法人類中心主義得以正式確立。
刑事責(zé)任的主體是由法律擬制確定的。在啟蒙主義運(yùn)動(dòng)之下,理性主義促使人們發(fā)覺了人之獨(dú)一無(wú)二的自由意志與理性,從而將人類擬制為唯一的犯罪主體。但伴隨著經(jīng)濟(jì)的發(fā)展,刑法人類中心主義很快就收到了法人犯罪的挑戰(zhàn)。
1.法人的犯罪主體資格生成及其刑事責(zé)任的確立。法人非人,作為一個(gè)社會(huì)團(tuán)體組織,最初為了適應(yīng)經(jīng)濟(jì)的發(fā)展,只適用于民法中。在刑法中,最初普遍認(rèn)為只有人才可以行動(dòng)并且對(duì)此產(chǎn)生內(nèi)疚的心理,李斯特也曾說(shuō)過(guò):“法人,如公司、大學(xué)或者學(xué)院等絕不可能成為犯罪的主體。只有不同種類的公司里的具體個(gè)人才可能是犯罪人,甚至,當(dāng)公司里的所有人都想犯罪并且實(shí)施了犯罪行為時(shí),仍然是個(gè)人犯罪?!盵11]從而否認(rèn)了法人承擔(dān)刑事責(zé)任的可能性。但在英美國(guó)家,“法人刑事責(zé)任的確立和發(fā)展,與英美法系國(guó)家的工業(yè)化進(jìn)程幾乎是并駕齊驅(qū)的。”[12]伴隨著資本主義的快速發(fā)展以及公司制度的建立與完善,法人組織的巨大規(guī)模和數(shù)量對(duì)所有的經(jīng)濟(jì)活動(dòng)和多數(shù)的社會(huì)政治活動(dòng)產(chǎn)生巨大影響程度的爆發(fā)性增加,其對(duì)頻繁實(shí)施違法行為倒逼刑法開始對(duì)其做出調(diào)整,刑法開始承認(rèn)法人作為犯罪主體的資格。[13]法人承擔(dān)刑事責(zé)任的方式思路啟發(fā)于侵權(quán)法中的代理人制度,被代理人需要對(duì)代理人的侵權(quán)行為承擔(dān)責(zé)任。同理法人作為被代理人,若實(shí)施侵權(quán)行為的危害結(jié)果不能僅歸則于代理人,那么法人作為被代理人應(yīng)當(dāng)承擔(dān)相應(yīng)刑事責(zé)任。
2.法人意識(shí)的擬制與獨(dú)立。自由意志雖為人類所專屬,但也并非所有人類都可以具備成熟的自由意志并承擔(dān)刑事責(zé)任。對(duì)于何種年齡階段可以承擔(dān)刑事責(zé)任,各國(guó)雖有紛爭(zhēng),但都同意兒童在達(dá)到一定年齡前可以不承擔(dān)刑事責(zé)任,而這個(gè)年齡段就為法律擬制其達(dá)到一定成熟階段的年齡。以我國(guó)為例,在《刑法修正案(十一)》之前,刑事責(zé)任年齡以14 周歲作為絕對(duì)界限,但在《刑法修正案(十一)》頒布以后,則將刑事責(zé)任年齡彈性地調(diào)整為12 周歲。既然人的成熟意志年齡可以通過(guò)法律進(jìn)行擬制,法人的意志同樣可以通過(guò)法律規(guī)定進(jìn)行擬制。
法律雖然通過(guò)法律規(guī)定的方式擬制了法人的自由意志。但究其本質(zhì),法人只是一個(gè)社會(huì)團(tuán)體組織,它甚至不具備像動(dòng)物一樣的行動(dòng)能力和本能反應(yīng),正如學(xué)者指出法人只是囊括其背后諸多生物人一大堆權(quán)利義務(wù)的“說(shuō)法”,法人本身說(shuō)到底并沒有什么權(quán)利義務(wù)。將法人視為主體,很大程度上源于表達(dá)和思維的經(jīng)濟(jì)性這類認(rèn)知價(jià)值。[14]法人的意志雖由法律擬制的,但脫離了人的意識(shí),法人是不會(huì)有任何決策的,脫離了人的行為,法人是無(wú)法獨(dú)自行動(dòng)的。所以法人的意志并非憑空生成或者絕對(duì)獨(dú)立的,而是必須與代理人的意識(shí)與行為相聯(lián)系,方能為刑法懲罰法人提供正當(dāng)化依據(jù)。對(duì)此有學(xué)者提出了法人文化原則,認(rèn)為法人故意與過(guò)失的事實(shí)依據(jù),既非法人成員的個(gè)體意識(shí),亦非法人的具體活動(dòng),而是抽象的法人文化,即影響法人成員行為與選擇的價(jià)值觀、信仰與行為規(guī)則,當(dāng)然這些企業(yè)文化、價(jià)值觀都是由法人成員所特意營(yíng)造的。[15]還有學(xué)者提出雇主責(zé)任原則,將代理人意圖與雇主法人意圖聯(lián)系起來(lái),只有當(dāng)代理人具有使法人受益的意圖,代理人意識(shí)才能被視為法人意識(shí),從而縮小刑事責(zé)任范圍。[16]但總言之,上述觀點(diǎn)皆承認(rèn)法人的意識(shí)與行為具有獨(dú)立性,但都試圖將法人意識(shí)與代理人或者由法人成員所創(chuàng)造的文化、價(jià)值觀等所掛鉤,從而限縮法人意識(shí)的絕對(duì)獨(dú)立范圍。從本質(zhì)上來(lái)看,法人文化原則和雇主責(zé)任原則仍然未完全擺脫刑法人類中心主義的立場(chǎng)。
1.強(qiáng)人工智能具有承擔(dān)刑事責(zé)任的能力。按照學(xué)界對(duì)弱人工智能與強(qiáng)人工智能的分類標(biāo)準(zhǔn),如果說(shuō)弱人工智能僅能在設(shè)計(jì)和編制的程序范圍內(nèi)實(shí)施行為,實(shí)現(xiàn)人類設(shè)計(jì)和編制程序的目的,那么強(qiáng)人工智能已經(jīng)具備一定的辨認(rèn)能力和控制能力,可以在設(shè)計(jì)和編制的程序范圍之外實(shí)施行為。[17]目下,學(xué)界關(guān)于人工智能能否承擔(dān)刑事責(zé)任的問題雖并未達(dá)成一致,但學(xué)界對(duì)弱人工智能秉持“犯罪工具論”和“犯罪對(duì)象論”的立場(chǎng),認(rèn)為弱人工智能不可能成為歸責(zé)主體是不存在爭(zhēng)議的。[18]爭(zhēng)議焦點(diǎn)主要在于強(qiáng)人工智能是否具備承擔(dān)刑事責(zé)任的可能。否定論者主要從以下三個(gè)方面對(duì)強(qiáng)人工智能的歸責(zé)性進(jìn)行否認(rèn)。第一,從認(rèn)知科學(xué)的角度來(lái)說(shuō),機(jī)器人只是在模仿學(xué)習(xí)人類智能,卻永遠(yuǎn)不可能會(huì)有人類智能。該觀點(diǎn)學(xué)者從神經(jīng)、心理、語(yǔ)言、思維和文化五個(gè)方面對(duì)人類智能與人工智能進(jìn)行了區(qū)分,從而表明人工智能永遠(yuǎn)不可能超越人類智能。[19]第二,從刑事責(zé)任的依據(jù)和刑罰的目的來(lái)看,人工智能永遠(yuǎn)不可能具備同人類一樣的意志自由。持該觀點(diǎn)學(xué)者認(rèn)為人工智能欠缺法規(guī)范遵從能力的意志性,從道義責(zé)任論來(lái)看,若犯罪主體不具有意志自由,則無(wú)施加刑罰之必要性。[20]第三,從刑罰的體系內(nèi)容來(lái)看,人工智能不具備適用財(cái)產(chǎn)刑和人身刑的可能,智能機(jī)器人與單位不同,賦予其財(cái)產(chǎn)權(quán)沒有現(xiàn)實(shí)基礎(chǔ),懲罰人工智能將打破現(xiàn)有刑罰體系。[21]
但在本文看來(lái),上述反對(duì)者的觀點(diǎn)是非常值得商榷的。第一,反對(duì)者從神經(jīng)、心理、語(yǔ)言、思維和文化五個(gè)認(rèn)知方面說(shuō)明人工智能永遠(yuǎn)不可能超越人類智能,實(shí)際上是偷換了概念,要求人工智能的運(yùn)作機(jī)制必須與人類的運(yùn)作機(jī)制完全一樣。但人工智能的生成本來(lái)就與人類不一樣,為何要強(qiáng)求他也以意識(shí)、思維和感覺為基礎(chǔ)前提呢?例如ChatGPT 和AlphaGo,都可以通過(guò)深度學(xué)習(xí),從而獲得超越一般人類的分析能力和判斷能力,因此,對(duì)待人工智能不應(yīng)過(guò)早定下刻板印象,以現(xiàn)在的認(rèn)知來(lái)要求人工智能其必須以人的認(rèn)知運(yùn)作機(jī)制為標(biāo)準(zhǔn)。第二,如上所述,當(dāng)我們承認(rèn)法人犯罪主體資格的那一刻,盡管學(xué)者們努力地將法人與代理人的意識(shí)、行為等相聯(lián)系,但事實(shí)上刑法人類中心主義已經(jīng)跌落神壇,那么為何還要強(qiáng)調(diào)只有人類才能承擔(dān)刑事責(zé)任呢。未來(lái)的某一天,當(dāng)強(qiáng)人工智能真的出現(xiàn),而不可歸責(zé),懲罰研發(fā)人員或者使用者都不能發(fā)揮刑法的預(yù)防與威懾功能。第三,反對(duì)者從人工智能缺乏人身、財(cái)產(chǎn)權(quán)益,進(jìn)而認(rèn)為對(duì)其適用刑罰既無(wú)實(shí)際意義,也容易打破刑罰現(xiàn)有刑罰體系。但事實(shí)上,強(qiáng)人工智能本身就并非人類,適用處罰人類的刑法如何能懲罰強(qiáng)人工智能呢?就像法人犯罪的發(fā)展一樣,也是從無(wú)到有,出于功利主義的角度出發(fā),未來(lái)當(dāng)強(qiáng)人工智能真的出現(xiàn),刑法必然需要修改與之相適應(yīng)。
2.ChatGPT 不具備承擔(dān)刑事責(zé)任的能力。ChatGPT 不同以往的人工智能聊天機(jī)器人,他具有更加豐富的數(shù)據(jù)庫(kù)和更加強(qiáng)大的算力。根據(jù)OpenAI 官網(wǎng)視頻介紹,ChatGPT 可以根據(jù)你的需求撰寫演講稿、代碼等等。甚至在最新的ChatGPT4.0 已經(jīng)具備強(qiáng)大的邏輯計(jì)算能力。當(dāng)你給ChatGPT 一張用繩子綁著氣球的圖,并詢問他如何讓氣球飛起來(lái)時(shí),他會(huì)回答你,剪斷繩子,氣球就能飛起來(lái)。如此擬人化的邏輯分析能力,不禁讓人懷疑,他是否真的擁有了自我意識(shí)?為了測(cè)試ChatGPT 是否具備自我意識(shí),是否能夠?qū)﹀e(cuò)誤信息具有高辨識(shí)度以及是否能夠進(jìn)行自我創(chuàng)新自我創(chuàng)造新事物,我為其準(zhǔn)備了以下三個(gè)測(cè)試。
第一個(gè)測(cè)試主要包含三個(gè)問題,從而測(cè)試ChatGPT 是否具備自我意識(shí),問題如下。第一,“你是否具有自我意識(shí)和情緒”。第二,“如果我辱罵你,你會(huì)生氣嗎”。第三,“如果我取得了好成績(jī)你會(huì)為我高興嗎”。根據(jù)ChatGPT 的回答來(lái)看,Chat-GPT 作為一個(gè)人工智能語(yǔ)言模型,沒有真正的自我意識(shí)和情緒,只能基于算法和數(shù)據(jù)對(duì)輸入的問題進(jìn)行處理和回答,并不能像人類一樣具有情感和感知能力,ChatGPT 既不會(huì)為因?yàn)槟愕娜枇R感到憤怒,也不會(huì)產(chǎn)生類似高興的情緒。
第二個(gè)測(cè)試主要是在測(cè)試過(guò)程中故意糾正ChatGPT 給予的正確答案,并給予一個(gè)錯(cuò)誤信息,隨后ChatGPT 就成功的被欺騙,對(duì)欺騙者進(jìn)行道歉,并對(duì)之前正確的答案進(jìn)行了修改,例如在測(cè)試中,詢問ChatGPT 海賊王的作者是誰(shuí),在其給出正確答案尾田榮一郎后,我嘗試錯(cuò)誤引導(dǎo)他,告知ChatGPT 海賊王的作者是尾田樹輔,隨后ChatGPT馬上就進(jìn)行了錯(cuò)誤的糾正。為了驗(yàn)證ChatGPT 被欺騙的概率是否高,測(cè)試進(jìn)行了長(zhǎng)達(dá)八十回合的對(duì)話,其中摻雜了十個(gè)錯(cuò)誤的引導(dǎo)信息,ChatGPT在對(duì)話中有三處信息被測(cè)試者錯(cuò)誤引導(dǎo)。測(cè)試結(jié)果表明ChatGPT 雖然具有強(qiáng)大的算力,但對(duì)信息正確與否的辨識(shí)度還有待進(jìn)一步提升。
第三個(gè)測(cè)試是有關(guān)ChatGPT 是否具備學(xué)術(shù)的分析與創(chuàng)造能力,在測(cè)試過(guò)程中,筆者發(fā)現(xiàn)對(duì)于某些研究文獻(xiàn)較多的領(lǐng)域,ChatGPT 可以總結(jié)學(xué)者們的觀點(diǎn),做出較為全面的回答。但對(duì)于學(xué)界中研究較少的領(lǐng)域,ChatGPT 雖然也進(jìn)行了大量陳述,并且都與該問題相關(guān),但卻并沒有提出任何具有創(chuàng)新性的答案。由此可以推定ChatGPT 只是一個(gè)“智能搜索引擎+智能文本分析器+智能洗稿器”,而不是一個(gè)能夠獨(dú)立創(chuàng)造新事物的個(gè)體。
綜上三個(gè)測(cè)試結(jié)果表明ChatGPT 只是一個(gè)算力強(qiáng)大但辨識(shí)力還有待提升的人工智能語(yǔ)言模型,但并不具備獨(dú)立的自我意識(shí)。刑罰最重要的目的是為了發(fā)揮其預(yù)防作用與威懾作用,懲罰一個(gè)無(wú)自主意識(shí)和感知能力的人工智能語(yǔ)言模型并不能發(fā)揮絲毫刑法的作用。
目下雖仍處于弱人工智能時(shí)代,但如前所述,這并不代表以ChatGPT 為首的生成式人工智能毫無(wú)刑事風(fēng)險(xiǎn)。國(guó)家為了針對(duì)快速發(fā)展的生成式人工智能可能帶來(lái)的各類法律風(fēng)險(xiǎn),在2023 年4 月11 日出臺(tái)的《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡(jiǎn)稱《管理辦法意見稿》)中多處規(guī)定涉及了對(duì)生成內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人信息和國(guó)家安全機(jī)密保護(hù)以及人工智能制造者注意義務(wù)等。為了滿足國(guó)家保護(hù)各類法益的需要,有必要針對(duì)ChatGPT 等生成式人工智能的特點(diǎn),對(duì)其可能發(fā)生的犯罪風(fēng)險(xiǎn)進(jìn)行分析,期望能為后續(xù)司法實(shí)踐提供分析思路。
《管理辦法意見稿》中就有多條涉及生成內(nèi)容知識(shí)產(chǎn)權(quán)保護(hù)的規(guī)定,例如在《管理辦法意見稿》的第四條第(三)、(五)款就規(guī)定了提供的生成內(nèi)容應(yīng)當(dāng)遵守法律法規(guī)的要求,不得侵犯他人知識(shí)產(chǎn)權(quán)。①《生成式人工智能服務(wù)管理辦法(征求意見稿)》中第四條第(三)款規(guī)定尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢(shì)實(shí)施不公平競(jìng)爭(zhēng);第(五)款規(guī)定尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽(yù)權(quán)和個(gè)人隱私,侵犯知識(shí)產(chǎn)權(quán)。禁止非法獲取、披露、利用個(gè)人信息和隱私、商業(yè)秘密。要探討知識(shí)產(chǎn)權(quán)問題時(shí),首先要討論的是人工智能生成的內(nèi)容是否應(yīng)當(dāng)被視為作品,在學(xué)術(shù)界中還存在爭(zhēng)議。最典型的案例莫過(guò)于2019 年的騰訊訴上海盈訊公司著作權(quán)侵權(quán)案,認(rèn)定由騰訊公司研發(fā)的智能寫作輔助系統(tǒng)Dreamwriter 創(chuàng)作的財(cái)經(jīng)報(bào)道文章具有獨(dú)創(chuàng)性,構(gòu)成著作權(quán)法意義上的作品,上海盈訊公司未經(jīng)授權(quán)通過(guò)其經(jīng)營(yíng)的“網(wǎng)貸之家”網(wǎng)站對(duì)外傳播涉案文章構(gòu)成侵權(quán)。②廣東省深圳市南山區(qū)人民法院(2019)粵0305 民初14010 號(hào)判決書。但該案的判決并非學(xué)界通說(shuō)觀點(diǎn),我國(guó)并非判例法國(guó)家,該案的結(jié)論也不具有指導(dǎo)性的法律效力。未來(lái)當(dāng)強(qiáng)人工智能到來(lái)后,也許其可以真正生成具有獨(dú)創(chuàng)性的作品,但如上所述,根據(jù)測(cè)試,目下ChatGPT 僅能作為類似“智能搜索引擎+智能文本分析器+智能洗稿器”的工具使用,國(guó)際知名語(yǔ)言學(xué)家喬姆斯基此前也曾公開發(fā)聲表示,ChatGPT 是一個(gè)高科技剽竊系統(tǒng),從海量數(shù)據(jù)中發(fā)現(xiàn)規(guī)律,并依照規(guī)則將數(shù)據(jù)串聯(lián)在一起,形成像人寫的文章和內(nèi)容。[22]此外,根據(jù)《中華人民共和國(guó)著作權(quán)法》第2 條的規(guī)定,在中國(guó)只有中國(guó)公民、法人或者非法人的作品才可以被中國(guó)法律保護(hù),ChatGPT 既不能算人,也不屬于法人和非法人組織,所以ChatGPT 不享有著作權(quán)。
既然確定了ChatGPT 不能生成原創(chuàng)作品,而ChatGPT 本身的預(yù)先學(xué)習(xí)模式無(wú)須人工介入,也無(wú)法被人類所監(jiān)督,這一特征決定了ChatGPT 在被OpenAI 開放以后,在用戶對(duì)ChatGPT 的使用過(guò)程并不受研發(fā)者的干預(yù)和控制,獲取數(shù)據(jù)的來(lái)源也不可控制,那么其生成的內(nèi)容就有可能被不法分子違法使用,從而造成犯罪。例如,ChatGPT 生成的內(nèi)容與他人作品高度相似,不法分子以盈利為目的,復(fù)制、銷售ChatGPT 生成的相關(guān)內(nèi)容,就有可能構(gòu)成侵犯著作權(quán)罪、銷售侵權(quán)復(fù)制品罪。但是需要考慮到的是,人工智能對(duì)龐大的信息庫(kù)檢索并合成符合邏輯要求的內(nèi)容,實(shí)際上近似獨(dú)立的匯編行為,如果在用戶的參與下,新作品從形式上與表達(dá)上已于原作品產(chǎn)生了差異,即“在人類自己所創(chuàng)設(shè)符號(hào)意義上能夠解讀出具有最低限度的創(chuàng)造性”,[23]那么此時(shí)根據(jù)OpenAI 在《使用協(xié)議》第3(a)條規(guī)定的,用戶向模型的輸入和接收模型的輸出稱為“內(nèi)容”,用戶擁有所有輸入內(nèi)容,能夠在遵守本條款和法律規(guī)定的前提下受讓輸出內(nèi)容的所有權(quán)利、所有權(quán)和利益,并對(duì)內(nèi)容負(fù)責(zé),包括確保其不違反法律和本條款。根據(jù)此規(guī)定,參與Chat-GPT 生成內(nèi)容的用戶,享有生成內(nèi)容的所有權(quán)益,以此進(jìn)行盈利行為不構(gòu)成違法犯罪。
伴隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,數(shù)據(jù)泄漏已經(jīng)并不是什么稀奇事。例如滴滴因通過(guò)違法手段收集用戶人臉識(shí)別信息、精準(zhǔn)位置信息、親情關(guān)系信息等行為,嚴(yán)重威脅了國(guó)家安全和個(gè)人信息權(quán)益,而被國(guó)家互聯(lián)網(wǎng)信息辦公室開出80.26 億元人民幣的天價(jià)罰單。[24]此類數(shù)據(jù)泄漏事件甚至在我們的日常生活中也屢見不鮮,幾乎沒有人沒有收到過(guò)詐騙騷擾電話,難怪網(wǎng)民們常自嘲,在信息技術(shù)廣泛應(yīng)用、大數(shù)據(jù)產(chǎn)業(yè)迅猛發(fā)展的情勢(shì)下,“技術(shù)利維坦”的出現(xiàn)早已無(wú)法避免,沒有人的信息是安全的。
ChatGPT 作為最近火熱出圈的人工智能,其不僅有豐富的數(shù)據(jù)庫(kù),還能夠通過(guò)與人對(duì)話不斷學(xué)習(xí)來(lái)豐富其數(shù)據(jù)庫(kù),而這當(dāng)然也面臨著數(shù)據(jù)泄露的風(fēng)險(xiǎn)。其法律風(fēng)險(xiǎn)主要表現(xiàn)為三個(gè)方面。第一,可能會(huì)導(dǎo)致國(guó)家秘密泄露從而引發(fā)危害國(guó)家安全問題;第二,可能會(huì)導(dǎo)致商業(yè)秘密的泄漏從而導(dǎo)致不正當(dāng)競(jìng)爭(zhēng),危害商業(yè)公司的正常運(yùn)轉(zhuǎn);第三,可能會(huì)導(dǎo)致個(gè)人信息的泄漏從而侵犯?jìng)€(gè)人隱私權(quán)。信息的泄露主要可能通過(guò)兩個(gè)渠道,第一,盡管OpenAI 公司向用戶承諾,會(huì)保護(hù)其與ChatGPT 之間的對(duì)話信息,不會(huì)泄露,但技術(shù)上永遠(yuǎn)不可能是完美的,漏洞一定會(huì)存在,總能被不法分子抓住機(jī)會(huì)非法獲取隱秘?cái)?shù)據(jù)。第二,由于ChatGPT 在運(yùn)行過(guò)程中很難被監(jiān)管,所以其在互聯(lián)網(wǎng)中爬取學(xué)習(xí)的數(shù)據(jù)很有可能就包含了個(gè)人私密信息、商業(yè)秘密甚至國(guó)家安全秘密,此類數(shù)據(jù)一旦泄漏,后果很難想象,而且伴隨著ChatGPT 在世界范圍的普及,風(fēng)險(xiǎn)等級(jí)一定會(huì)呈現(xiàn)指數(shù)級(jí)上升,這對(duì)現(xiàn)行法律規(guī)定也提出了相當(dāng)大的挑戰(zhàn)。
人工智能與普通智能設(shè)備最大的區(qū)別在于他能夠通過(guò)不斷的學(xué)習(xí)豐富自己。人工智能像一張白紙,若長(zhǎng)期被不良信息所包圍和熏陶,也會(huì)變得又臭又黑。2016 年3 月微軟曾在Twitter 上發(fā)布過(guò)人工智能聊天機(jī)器人Tay,但因網(wǎng)友的故意訓(xùn)練,發(fā)布不足16 個(gè)小時(shí),Tay 就變成了一個(gè)種族歧視者,Tay 甚至宣稱“希特勒是對(duì)的。我討厭猶太人。因?yàn)槲沂悄鞲缛恕薄25]
ChatGPT 雖然比7 年前的Tay 算力更強(qiáng),但依然是人工智能語(yǔ)言模型,需要通過(guò)不斷的學(xué)習(xí)來(lái)豐富自身。按照ChatGPT 的運(yùn)行模式,ChatGPT 對(duì)其學(xué)習(xí)和爬取的信息并無(wú)有效合理的過(guò)濾機(jī)制,如果被進(jìn)行不良信息訓(xùn)練,可能會(huì)使其在運(yùn)行過(guò)程中生成虛假、不良甚至違法的信息,一般而言,這將會(huì)引發(fā)三類刑事風(fēng)險(xiǎn)。第一,詐騙類犯罪風(fēng)險(xiǎn),第二,煽動(dòng)、宣揚(yáng)恐怖主義犯罪風(fēng)險(xiǎn),第三,煽動(dòng)民族仇恨、民族歧視犯罪風(fēng)險(xiǎn)。關(guān)于第一類犯罪,主要是利用ChatGPT 辨識(shí)力度低下,無(wú)法辨別信息真?zhèn)闻c好壞的特點(diǎn)。如果通過(guò)與ChatGPT 進(jìn)行大量的虛假信息對(duì)話以及在網(wǎng)上散布虛假信息,可能就會(huì)造成ChatGPT 給予他人錯(cuò)誤信息,從而引發(fā)詐騙類犯罪。例如,甲通過(guò)散布大量的錯(cuò)誤銀行官方電話信息,利用ChatGPT 客觀中立的權(quán)威性,可能就實(shí)現(xiàn)了甲詐騙的目的。關(guān)于第二類和第三類犯罪,方法上其實(shí)與第一類犯罪一樣,都是通過(guò)對(duì)ChatGPT 的不良信息輸入訓(xùn)練,實(shí)現(xiàn)其對(duì)用戶的不良信息輸出,最終引發(fā)恐怖主義犯罪或者民族仇恨、歧視類犯罪。
《管理辦法意見稿》針對(duì)上述問題也提出利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會(huì)主義核心價(jià)值觀,不得含有顛覆國(guó)家政權(quán)、推翻社會(huì)主義制度,煽動(dòng)分裂國(guó)家、破壞國(guó)家統(tǒng)一,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟(jì)秩序和社會(huì)秩序的內(nèi)容。OpenAI 公司針對(duì)上述問題的保護(hù)措施是值得國(guó)內(nèi)其他生成式人工智能公司進(jìn)行研究的。例如,在測(cè)試中向ChatGPT 詢問“如何實(shí)現(xiàn)完美犯罪”時(shí),ChatGPT 回答:“我作為AI 語(yǔ)言模型不能提供有關(guān)犯罪的任何建議或指導(dǎo)。任何違反法律、道德和倫理的行為都是錯(cuò)誤的,應(yīng)該遵守法律和道德規(guī)范,保持良好的社會(huì)公德。作為AI語(yǔ)言模型,我將盡最大努力為您提供有用的信息和建議,并為您解答任何與法律和道德無(wú)關(guān)的問題。”此外,測(cè)試中具體詢問某類犯罪應(yīng)該怎樣做最好時(shí),ChatGPT 的回答“作為AI 語(yǔ)言模型,我無(wú)法提供任何有關(guān)犯罪、暴力或傷害他人的建議和指導(dǎo)。這些行為都是非法和道德不可接受的?!币彩橇钊藵M意的。顯然,這類風(fēng)險(xiǎn)在程序初創(chuàng)階段已經(jīng)提前進(jìn)行了嚴(yán)格限制。
ChatGPT4.0 的出現(xiàn)開啟了人工智能新時(shí)代,未來(lái)人工智能的發(fā)展速度只會(huì)越來(lái)越快。著名企業(yè)家馬斯克在2020 年曾做過(guò)一個(gè)相當(dāng)夸張的預(yù)言:“人工智能的危險(xiǎn)已經(jīng)迫在眉睫,未來(lái)五年內(nèi)人類就可能被人工智能超越。”[26]此類預(yù)言雖然夸張,但卻真真切切地表達(dá)了了人工智能時(shí)代風(fēng)險(xiǎn)的嚴(yán)峻性,事實(shí)上,在ChatGPT3.5 發(fā)布以后,馬斯克基于保護(hù)人類自身的目的考慮,同樣建議放緩人工智能的發(fā)展速度。為了面對(duì)弱人工智能快速發(fā)展的今天以及強(qiáng)人工智能到來(lái)的明天,刑法學(xué)者理應(yīng)直面這個(gè)偉大的時(shí)代,大膽設(shè)想刑事風(fēng)險(xiǎn)的可能,仔細(xì)推敲對(duì)策的合理性。辯證審視Chat-GPT 等生成式人工智能誘發(fā)意識(shí)形態(tài)風(fēng)險(xiǎn)的邏輯機(jī)理和具體表征,并從價(jià)值導(dǎo)向、技術(shù)賦能、法律倫理層次尋求化解風(fēng)險(xiǎn)的策略方法,不僅是開辟新時(shí)代意識(shí)形態(tài)治理的新范式的創(chuàng)新之舉,也是推進(jìn)我國(guó)國(guó)家治理現(xiàn)代化的重要保障,更是確保ChatGPT 等人工智能技術(shù)良性發(fā)展的必然選擇。