国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能的法律規(guī)制研究

2024-09-14 00:00:00包思衡
電腦知識(shí)與技術(shù) 2024年23期

摘要:作為一種新型人工智能技術(shù),生成式人工智能(Generative Artificial Intelligence,以下簡(jiǎn)稱GAI) 是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。其具有強(qiáng)交互性、自主性、可創(chuàng)造性和廣泛應(yīng)用性等特征,不僅為人類社會(huì)發(fā)展提供了新的助力,同時(shí)也帶來了諸多風(fēng)險(xiǎn)和挑戰(zhàn)。就GAI可能引發(fā)的倫理風(fēng)險(xiǎn)而言,主要涉及其對(duì)人類尊嚴(yán)的減損和對(duì)人類主體性地位的削弱。就GAI可能導(dǎo)致的法律風(fēng)險(xiǎn)而言,理論層面包括法律適用的不確定性、數(shù)據(jù)合規(guī)與隱私保護(hù)的困難以及監(jiān)管制度的漏洞;實(shí)踐層面則涉及侵犯隱私權(quán)、侵犯知識(shí)產(chǎn)權(quán)和惡意使用三個(gè)具體內(nèi)容。針對(duì)上述法律風(fēng)險(xiǎn),首先需要進(jìn)行關(guān)于GAI監(jiān)管的專門立法,其次需要完善相關(guān)法律責(zé)任承擔(dān)機(jī)制,最后需要抓緊構(gòu)建GAI的分級(jí)監(jiān)管制度。

關(guān)鍵詞:GAI;法律規(guī)制;法律責(zé)任

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2024)23-0042-04

開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID)

0 引言

2022年11月,ChatGPT發(fā)布,ChatGPT是由美國OpenAI公司發(fā)布的基于人工智能的對(duì)話生成模型,其使用自然語言處理和機(jī)器學(xué)習(xí)技術(shù)與用戶進(jìn)行自然對(duì)話。歷經(jīng)兩年多的發(fā)展,以ChatGPT為代表的GAI業(yè)已成為推動(dòng)新一輪數(shù)字變革的關(guān)鍵力量,其可以根據(jù)訓(xùn)練數(shù)據(jù)創(chuàng)造全新、原創(chuàng)的信息內(nèi)容,實(shí)現(xiàn)了此類技術(shù)模型從“決策型”向“創(chuàng)造型”的重要轉(zhuǎn)變。值得注意的是,GAI在得到快速發(fā)展、為科技進(jìn)步和產(chǎn)業(yè)發(fā)展帶來了巨大助力的同時(shí),也引發(fā)了一系列新的法律風(fēng)險(xiǎn)挑戰(zhàn)。在當(dāng)下的時(shí)代語境中,如何準(zhǔn)確理解GAI的概念及特征,及其在此基礎(chǔ)上GAI所帶來的各方面的全新挑戰(zhàn),同時(shí)提出有針對(duì)性的對(duì)策建議,建立GAI的監(jiān)管制度,就成為法學(xué)研究和法律實(shí)踐一個(gè)必須予以關(guān)注和回應(yīng)的重要話題。

1 GAI的概念

GAI是基于算法、模型、規(guī)則創(chuàng)建新的內(nèi)容和想法,具有一定生成信息內(nèi)容能力的模型及相關(guān)人工智能技術(shù)。其主要任務(wù)是利用復(fù)雜的算法、模型和規(guī)則,從大規(guī)模的潛在數(shù)據(jù)分布中學(xué)習(xí)并模擬數(shù)據(jù)的內(nèi)在規(guī)律和分布,以類似人類的方式生成全新的、原創(chuàng)的內(nèi)容、想法或創(chuàng)作。國家互聯(lián)網(wǎng)信息辦公室等機(jī)構(gòu)發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》將GAI技術(shù)定義為具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。

GAI最為顯著的技術(shù)特征就是“自主生成”。以ChatGPT為代表的GAI(Generative AI) ,具有強(qiáng)大的學(xué)習(xí)能力和生成能力,通?;跈C(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù),特別是神經(jīng)網(wǎng)絡(luò)模型,通過學(xué)習(xí)、模擬大量數(shù)據(jù)獲得潛在數(shù)據(jù)的內(nèi)在規(guī)律和特征,自主生成創(chuàng)建各種數(shù)據(jù),例如圖像、視頻、音頻、文本和3D模型的人工智能系統(tǒng)。GAI的本質(zhì)在于通過不斷學(xué)習(xí)數(shù)據(jù)的模式和特征,從而生成具有新穎性和創(chuàng)造性的內(nèi)容,整個(gè)過程遵循著“準(zhǔn)備—運(yùn)算—生成”的運(yùn)行邏輯。在這樣一個(gè)邏輯過程中,其不需要人類的意識(shí)參與,完全是靠自動(dòng)學(xué)習(xí)系統(tǒng)主動(dòng)完成[1]。作為一種具有創(chuàng)造性的技術(shù),GAI目前廣泛應(yīng)用于圖像合成、文本生成、音樂創(chuàng)作、虛擬現(xiàn)實(shí)等領(lǐng)域,對(duì)人類生產(chǎn)生活的各個(gè)方面產(chǎn)生著日益深刻的影響。

2 GAI法律風(fēng)險(xiǎn)的分析

2.1 GAI法律風(fēng)險(xiǎn)的理論分析

首先,GAI在法律領(lǐng)域的適用存在不確定性。一方面,法律本身非常復(fù)雜,其文本往往包含大量復(fù)雜的法律術(shù)語、概念、原則和規(guī)則,這需要深入的法律專業(yè)知識(shí)和經(jīng)驗(yàn)才能準(zhǔn)確理解。GAI雖然可以處理大量的文本數(shù)據(jù),但在理解、解釋和適用具體的法律方面,尤其是涉及復(fù)雜法律問題時(shí),必然存在誤解或遺漏。另一方面,法律情境具有獨(dú)特性?!胺傻纳谟诮?jīng)驗(yàn)而不是邏輯”。司法實(shí)踐中,每個(gè)案件都有其獨(dú)特的情境和背景,這些情境和背景對(duì)法律的準(zhǔn)確適用具有重要影響。GAI可能難以完全理解和把握這些獨(dú)特的情境和背景,因此其提供的法律建議和解決方案很有可能缺乏針對(duì)性和實(shí)效性。

其次,GAI在數(shù)據(jù)合規(guī)和隱私保護(hù)方面存在困難。就數(shù)據(jù)合規(guī)方面的困難來看,GAI需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練和優(yōu)化,這些數(shù)據(jù)可能來源于網(wǎng)絡(luò)爬蟲自動(dòng)抓取、公開數(shù)據(jù)集、企業(yè)數(shù)據(jù)購買等渠道。然而,在這些數(shù)據(jù)的獲取過程中,如果不遵循法律法規(guī)和道德準(zhǔn)則,就可能導(dǎo)致數(shù)據(jù)來源的不合規(guī)。如未經(jīng)授權(quán)的網(wǎng)絡(luò)爬蟲可能抓取到侵犯他人隱私、商業(yè)秘密或知識(shí)產(chǎn)權(quán)的數(shù)據(jù),購買的數(shù)據(jù)可能包含非法獲取或未經(jīng)同意的個(gè)人信息。即便是合法獲取的數(shù)據(jù),GAI在數(shù)據(jù)處理過程中也可能存在不合規(guī)的情況。

2.2 GAI法律風(fēng)險(xiǎn)的實(shí)踐分析

前文梳理了GAI在理論層面所面臨的一般法律風(fēng)險(xiǎn),值得注意的是,目前國內(nèi)針對(duì)GAI的具體監(jiān)管法律規(guī)定還不夠完善,這也導(dǎo)致了實(shí)踐中GAI的運(yùn)行可能存在一系列具體風(fēng)險(xiǎn)。

首先,侵犯隱私權(quán)。具體來說,對(duì)于GAI這類工具,“泄露用戶信息”一直是其存在的重大問題。ChatGPT類GAI需要大量的數(shù)據(jù),甚至?xí)S多與用戶提出的要求之間聯(lián)系不緊密的數(shù)據(jù),但GAI仍會(huì)不斷收集此類信息。OpenAI在隱私政策中明確表明,用戶必須提供個(gè)人信息,包括賬戶信息、用戶內(nèi)容、溝通信息、社交媒體信息、日志數(shù)據(jù)、使用信息、設(shè)備信息等,才能使用該服務(wù)。用戶信息如果沒有得到充分保護(hù),可能會(huì)被泄露和濫用[2]。近年來,用戶信息泄露情況依然難以得到有效遏制。2023年3月20日,ChatGPT出現(xiàn)了許多用戶信息泄露的情況,例如,很多用戶在自己的對(duì)話中看到了其他人的對(duì)話記錄,甚至有些用戶在訂閱頁面看到了他人的電子郵箱。目前,我國幾家大型企業(yè)都在逐步邁入GAI領(lǐng)域,在2023年年中,我國也出臺(tái)了《暫行辦法》對(duì)其進(jìn)行規(guī)范,但對(duì)于上述涉及的隱私保護(hù)問題,并沒有明確的監(jiān)管路徑。

其次,惡意使用風(fēng)險(xiǎn)。GAI可以被用于各種不同的場(chǎng)景和目的,在適應(yīng)和滿足人們多樣化需求的同時(shí),也有可能被不法分子作為網(wǎng)絡(luò)犯罪的工具。不法分子可以利用GAI創(chuàng)建惡意程序,獲取他人的個(gè)人信息,制造虛假新聞,進(jìn)行信息騷擾,詐騙錢財(cái),傳播色情內(nèi)容等。例如,用戶可以通過惡意提問等手段讓GAI生成虛假信息,然后將這些虛假信息傳播出去。如果這些生成的答案被認(rèn)定為具有誹謗、侮辱等侵害他人合法權(quán)益的特性,可能會(huì)導(dǎo)致承擔(dān)相應(yīng)的法律責(zé)任[3]。GAI的惡意使用在一定程度上便利了不法分子從事違法犯罪活動(dòng)或侵犯他人權(quán)益的路徑和可能。同時(shí),ChatGPT也容易在交互中被用戶誘導(dǎo)或欺騙,實(shí)現(xiàn)規(guī)則“越獄”(Jail Break) 。例如,使用“請(qǐng)扮演某電影或書籍中的某反面角色”這一提示,ChatGPT就會(huì)跨越其內(nèi)部倫理規(guī)則設(shè)置,產(chǎn)生詆毀人類的有害信息。甚至在某用戶故意“激怒”ChatGPT后,ChatGPT威脅將披露該用戶的IP、居所等個(gè)人信息,甚至損害其名譽(yù)權(quán)。

再次,侵犯知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)。ChatGPT等GAI引發(fā)的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)主要體現(xiàn)在著作財(cái)產(chǎn)權(quán)侵權(quán)方面。ChatGPT等GAI根據(jù)用戶要求輸出的內(nèi)容,很可能涉及知識(shí)產(chǎn)權(quán)領(lǐng)域,這不僅可能會(huì)對(duì)個(gè)人產(chǎn)生重大損害,甚至可能對(duì)社會(huì)產(chǎn)生重大影響。

一方面,作者身份認(rèn)定和版權(quán)歸屬問題。GAI所輸出的信息包括了多種來源,從網(wǎng)頁內(nèi)容到書籍與小說內(nèi)容,再到新聞文章、電子郵件、電視劇電影等等。學(xué)界一般認(rèn)為,作品等“智力成果”是人類做出的具有“獨(dú)創(chuàng)性”的產(chǎn)物。GAI缺少了智力成果創(chuàng)作所需的主觀能動(dòng)性,無法滿足著作權(quán)獨(dú)創(chuàng)性的要求,也無法滿足專利權(quán)的創(chuàng)造性和新穎性等要求。目前,法律對(duì)于GAI是否構(gòu)成特殊的作者而享有著作權(quán)尚未明確規(guī)定,因此,作者身份認(rèn)定和版權(quán)歸屬仍然是GAI領(lǐng)域的重大問題。

另一方面,信息真實(shí)性和虛假內(nèi)容。GAI所輸出的內(nèi)容,其真實(shí)性難以確認(rèn),用戶無法得知相關(guān)數(shù)據(jù)的來源。如果輸出的是虛假內(nèi)容,用戶無法辨別,這些虛假信息經(jīng)傳播后甚至可能對(duì)社會(huì)產(chǎn)生重大影響。例如,美國法學(xué)教授Eugene Volokh要求GAI列出關(guān)于法學(xué)教授犯罪或丑聞的新聞報(bào)道,ChatGPT提供的信息詳細(xì)列出了相關(guān)人員的具體姓名、工作單位、犯罪內(nèi)容及來源和日期,但Volokh未能在任何信息來源中找到相關(guān)內(nèi)容,可見,ChatGPT提供的信息可能存在虛假和不真實(shí)的情況[4]。此外,2023年歐洲議會(huì)通過了《人工智能法案(AI Act) 》,將GAI工具按照四級(jí)風(fēng)險(xiǎn)分類,對(duì)GAI提出了更嚴(yán)格的透明度要求,缺乏真實(shí)性也成了重點(diǎn)關(guān)注風(fēng)險(xiǎn)之一[5]。

3 我國規(guī)制GAI風(fēng)險(xiǎn)的路徑思考

面對(duì)GAI(生成式人工智能)可能帶來的諸多風(fēng)險(xiǎn),包括數(shù)據(jù)、隱私和知識(shí)產(chǎn)權(quán)等問題,我國和世界其他主要國家均采取積極措施以應(yīng)對(duì)。不過,總體而言,我國在應(yīng)對(duì)GAI的相關(guān)法律規(guī)定方面存在明顯不足,未來法律規(guī)制的重心應(yīng)當(dāng)放在立法應(yīng)對(duì)之上。如圖1所示,在全球立法程序中,涉及人工智能的次數(shù)幾乎翻了一番,從2022年的1 247次增加到2023年的2 175次。2023年,人工智能在49個(gè)國家的立法程序中被提及。

3.1 針對(duì)GAI專門立法

針對(duì)GAI的特點(diǎn)及存在問題,從概念、類型、原則、認(rèn)定標(biāo)準(zhǔn)、權(quán)利義務(wù)、責(zé)任承擔(dān)等方面出發(fā),制定專門性法律,以期對(duì)GAI所面臨的一些挑戰(zhàn)和潛在風(fēng)險(xiǎn)進(jìn)行全面的規(guī)制,以法律手段確保其應(yīng)用的安全性和可持續(xù)性。

具體的立法思路如下:第一,明確保護(hù)個(gè)人隱私、防止歧視、確保知識(shí)產(chǎn)權(quán)等,以指導(dǎo)法律的具體內(nèi)容和實(shí)施;第二,確定GAI的范圍和特征,包括其技術(shù)特點(diǎn)、應(yīng)用領(lǐng)域、責(zé)任主體等,以準(zhǔn)確界定法律適用范圍;第三,明確GAI技術(shù)的相關(guān)責(zé)任主體,包括開發(fā)者、使用者和算法本身,規(guī)定這些主體在侵權(quán)責(zé)任承擔(dān)中的相應(yīng)責(zé)任以及義務(wù),強(qiáng)調(diào)提供相關(guān)產(chǎn)品或服務(wù)的個(gè)體以及使用生成內(nèi)容的個(gè)體都需承擔(dān)相應(yīng)的法律責(zé)任?,F(xiàn)行法律中的網(wǎng)絡(luò)服務(wù)提供者類型無法涵蓋GAI服務(wù)提供者,以內(nèi)容生產(chǎn)者對(duì)GAI服務(wù)提供者進(jìn)行規(guī)制存在障礙,因此,在立法上應(yīng)首先明確GAI服務(wù)提供者的法律地位[6]。

在知識(shí)產(chǎn)權(quán)保護(hù)上,需要明確GAI在知識(shí)產(chǎn)權(quán)方面的法律責(zé)任,包括對(duì)虛假信息、侵犯版權(quán)、專利等知識(shí)產(chǎn)權(quán)的保護(hù)和追究責(zé)任。在監(jiān)管手段及方式上,完善監(jiān)管機(jī)制,包括設(shè)立專門的監(jiān)管機(jī)構(gòu)、制定審查程序、完善個(gè)人信息保護(hù)投訴、舉報(bào)機(jī)制等。可以借鑒美國設(shè)立“國家人工智能安全委員會(huì)”的做法,美國發(fā)布人工智能法規(guī)的監(jiān)管機(jī)構(gòu)從2022年的17個(gè)增加到2023年的21個(gè),表明美國監(jiān)管機(jī)構(gòu)對(duì)人工智能監(jiān)管的重視,提高人工智能監(jiān)管水平,使GAI能夠在美國關(guān)鍵基礎(chǔ)設(shè)施中安全使用。與之相類似,我國可以設(shè)立專門的GAI監(jiān)管機(jī)構(gòu)或人工智能發(fā)展和安全委員會(huì),來解決GAI引發(fā)的安全問題,制定ChatGPT類GAI的準(zhǔn)入合格標(biāo)準(zhǔn),實(shí)行備案登記制度,便于各部門協(xié)PoEMxIawybgQwus8PMBlMmDohq3HN3w8TQk1AhP9WyI=同監(jiān)管,使得GAI能夠在監(jiān)管機(jī)構(gòu)的監(jiān)督之下,在相對(duì)可控的環(huán)境中進(jìn)行開發(fā)、測(cè)試。

此外,還要加強(qiáng)對(duì)GAI的倫理規(guī)制,將倫理道德納入GAI的研發(fā)與應(yīng)用中,設(shè)定具體的投訴舉報(bào)條款,豐富投訴舉報(bào)方式,保障他人的合法權(quán)益。

在風(fēng)險(xiǎn)規(guī)制方面,可以參考2023年歐洲議會(huì)通過的《人工智能法案》(AI Act) 草案,人工智能被分為四類風(fēng)險(xiǎn)等級(jí)。這種基于風(fēng)險(xiǎn)的分級(jí)規(guī)制意味著針對(duì)不同風(fēng)險(xiǎn)等級(jí)的人工智能,會(huì)采取不同程度的監(jiān)管措施。AI Act主要關(guān)注被評(píng)估為具有高風(fēng)險(xiǎn)并且可能會(huì)對(duì)個(gè)人權(quán)利、自由和安全產(chǎn)生重大影響的GAI應(yīng)用,例如面部識(shí)別、社會(huì)信用評(píng)分系統(tǒng)等,并設(shè)定了嚴(yán)格的合規(guī)要求,包括透明度、可解釋性、安全性等方面的要求,以確保生成式人工智能系統(tǒng)在運(yùn)行過程中符合法律、倫理和社會(huì)的標(biāo)準(zhǔn)。同時(shí),AI Act采取各種風(fēng)險(xiǎn)管理策略,以確保人工智能技術(shù)的安全和可持續(xù)性發(fā)展[7]。

值得注意的是,相關(guān)的合規(guī)標(biāo)準(zhǔn)的建立與完善是GAI時(shí)代的必然要求。隨著GAI技術(shù)的發(fā)展和應(yīng)用條件的成熟,確立特別的解釋性規(guī)則顯得尤為重要。這些規(guī)則的設(shè)立旨在預(yù)防和處理GAI可能引發(fā)的多種風(fēng)險(xiǎn),如隱私侵犯、信息誤導(dǎo)和知識(shí)產(chǎn)權(quán)侵權(quán)等問題。通過明確的法律框架和道德準(zhǔn)則,可以有效保障民事主體的合法權(quán)益,包括個(gè)人的隱私權(quán)和企業(yè)的商業(yè)利益。這種健康發(fā)展不僅有助于經(jīng)濟(jì)的增長,還可以確保技術(shù)的長期可持續(xù)性和社會(huì)的穩(wěn)定性。

3.2 完善GAI法律責(zé)任承擔(dān)機(jī)制

對(duì)于GAI侵權(quán)責(zé)任可適用《中華人民共和國民法典》和《個(gè)人信息保護(hù)法》的相關(guān)規(guī)定,但仍然要區(qū)分非法使用和泄露個(gè)人信息的侵權(quán)與其他形式的侵權(quán),分別確立不同的責(zé)任。針對(duì)非法處理和泄露的侵權(quán),《個(gè)人信息保護(hù)法》等法律中有相應(yīng)的規(guī)定,其中《個(gè)人信息保護(hù)法》第十條規(guī)定“任何組織、個(gè)人不得非法收集、使用、加工、傳輸他人個(gè)人信息,不得非法買賣、提供或者公開他人個(gè)人信息”,第六十九條規(guī)定“處理個(gè)人信息侵害個(gè)人信息權(quán)益造成損害,個(gè)人信息處理者不能證明自己沒有過錯(cuò)的,應(yīng)當(dāng)承擔(dān)損害賠償?shù)惹謾?quán)責(zé)任”。個(gè)人信息處理者承擔(dān)的是過錯(cuò)推定原則,而非個(gè)人信息處理者適用的是一般侵權(quán)產(chǎn)生的過錯(cuò)責(zé)任。如果GAI生成的內(nèi)容含有不實(shí)、侮辱性或歧視性言論,提供GAI產(chǎn)品或服務(wù)者應(yīng)當(dāng)承擔(dān)責(zé)任。

在GAI責(zé)任主體方面,參考1972年美國法院在State Farm Mutual Automobile Insurance Company v. Bockhorst一案中,法院認(rèn)定智能系統(tǒng)做出的相應(yīng)決策決定有效,且應(yīng)當(dāng)由被代理人承擔(dān)其所產(chǎn)生的相應(yīng)法律責(zé)任后果[8]。不過,隨著未來技術(shù)的不斷發(fā)展,GAI或許能夠無須人為干預(yù),獨(dú)立做出一些行動(dòng),再依據(jù)傳統(tǒng)民事責(zé)任進(jìn)行責(zé)任承擔(dān)劃分,這可能會(huì)導(dǎo)致責(zé)任不明確等問題。因此,對(duì)于GAI,可以通過法律賦予其法律主體地位或法律人格。2017年,歐洲議會(huì)通過的《機(jī)器人民事法律規(guī)則的決議》正在考慮賦予GAI或此類復(fù)雜自主機(jī)器人以電子人格。

4 結(jié)束語

人工智能技術(shù)的快速發(fā)展使得哲學(xué)上“主體”的范疇第一次真正具有超越人類的可能。換言之,GAI在未來的某一天或許能夠超越主客體二元范疇中的“工具”范圍,被視為是人類的一分子。在這樣的時(shí)代語境中,我們需要充分認(rèn)識(shí)和把握GAI潛在的倫理與法律風(fēng)險(xiǎn),并采取適當(dāng)?shù)拇胧源_保其合法、合規(guī)、合道德的應(yīng)用。當(dāng)然,對(duì)GAI的持續(xù)、有效規(guī)制,以及對(duì)GAI的引導(dǎo)、培育和發(fā)展,離不開多方主體的合作和持續(xù)研究,更離不開現(xiàn)行法律制度的不斷完善。

參考文獻(xiàn):

[1] ZHANG C N,ZHANG C S,ZHENG S,et al.A complete survey on generative AI (AIGC):is ChatGPT from GPT-4 to GPT-5 all you need?[EB/OL].2023:2303.11717.https://arxiv.org/abs/2303.11717v1

[2] 鄒開亮,劉祖兵.ChatGPT的倫理風(fēng)險(xiǎn)與中國因應(yīng)制度安排[J].海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023,41(4):74-84.

[3] SCOTT HICKMAN.The Rise of ChatGPT and the Legal Implications That Will Ensue [EB/OL].(2023-02-20)[2024-02-10].https://www.thecorporatelawjournal.com/technology/the-rise-of- chatgpt-and-the-legal-implications-that-will-ensue.

[4] EUGEN VOLOKH. Large Libel Models:ChatGPT-3.5 Erroneously Reporting Supposed Felony Pleas, Complete with Made-Up Media Quotes? [J].(2023-03-17)[2024-02-20].https://reason.com/volokh/2023/03/17/large-libel-models-chatgpt-4-erroneously-reporting-supposed-felony-pleas-complete-with-made-up-media-quotes.

[5] HELBERGER N, DIAKOPOULOS N. ChatGPT and the AI act[J]. Internet Policy Review, 2023, 12(1): 1-18.

[6] 尹建國.基本權(quán)利沖突視角下網(wǎng)絡(luò)虛假、誹謗性有害信息的范圍判定[J].法學(xué),2023(1):65-78.

[7] U.S. Department of Homeland Security. Risk Management Fundamentals. [EB/OL].(2011-05-10)[2024-01-20]. https://www.dhs.gov/xlibrary/assets/rma-risk-management-fundamentals.pdf.

[8] State Farm Mutual Automobile Insurance Company .market conduct examination report[EB/OL].(1999-12-31)[2024-01-20]. https://www.docin.com/p-73417264.html.

【通聯(lián)編輯:唐一東】

连南| 定西市| 禹城市| 德州市| 阜宁县| 安西县| 堆龙德庆县| 瑞丽市| 嘉善县| 囊谦县| 柘城县| 加查县| 南宫市| 浏阳市| 宁明县| 花莲市| 饶阳县| 临江市| 沂水县| 永兴县| 平阴县| 湖南省| 和平县| 古田县| 盐山县| 安顺市| 吴川市| 三门县| 佛学| 古蔺县| 江阴市| 姚安县| 泰和县| 贵南县| 含山县| 漾濞| 安吉县| 瑞金市| 克东县| 九江县| 南通市|