葉露晨 范 淵 王 欣 阮文波
(杭州安恒信息技術(shù)股份有限公司 杭州 310051)
ChatGPT是OpenAI于2022年11月30日發(fā)布的聊天機(jī)器人,上線2個(gè)月用戶數(shù)就突破了1億,在全世界掀起一股颶風(fēng).人們可以利用ChatGPT解釋復(fù)雜理論和話題,提供生活建議,優(yōu)化簡歷.除基礎(chǔ)對話外,ChatGPT還通過了圖靈測試、美國醫(yī)學(xué)執(zhí)照考試、沃頓商學(xué)院MBA考試和4門法學(xué)院的考試.沃頓大學(xué)教授Christian Terwiesch甚至聲稱“ChatGPT展示了一種非凡的能力,可以使高薪工人的某些技能自動化”[1].
使用ChatGPT雖然可以促進(jìn)生產(chǎn)力,但利用ChatGPT投機(jī)取巧進(jìn)行欺詐也成了研究人員最大的擔(dān)憂,例如代寫作業(yè)、偽造新聞稿等.在網(wǎng)絡(luò)安全方面,ChatGPT會成為生成惡意軟件、釣魚郵件的強(qiáng)大工具.網(wǎng)絡(luò)安全公司CheckPoint就在ChatGPT上線不久后,利用它生成能攜帶惡意載荷、編寫巧妙的網(wǎng)絡(luò)釣魚郵件.CheckPoint安全專家表示“ChatGPT有顯著改變網(wǎng)絡(luò)威脅格局的潛力,代表著日益復(fù)雜的網(wǎng)絡(luò)能力在危險(xiǎn)演化上又向前邁進(jìn)了一步”[2].威脅情報(bào)公司Recorded Future的研究人員也在最新報(bào)告中表示,只要對網(wǎng)絡(luò)安全行業(yè)有基礎(chǔ)知識,就可以借助ChatGPT的能力進(jìn)行網(wǎng)絡(luò)惡意行為,實(shí)施網(wǎng)絡(luò)攻擊[3].
因此,如何鑒別ChatGPT生成的文本成為一個(gè)熱門問題.本文團(tuán)隊(duì)經(jīng)過研究,發(fā)現(xiàn)一些ChatGPT生成文本的檢測思路,同時(shí),從網(wǎng)絡(luò)攻防的視角嘗試給出了一些繞過技巧.
文本相似度計(jì)算是自然語言處理領(lǐng)域中的一個(gè)熱門研究方向.其中,TF-IDF算法和余弦相似度的結(jié)合被廣泛應(yīng)用于文本相似度計(jì)算.TF-IDF算法用于評估詞語在文檔或語料庫中的重要程度[4],詞頻(TF)指在文檔中出現(xiàn)的術(shù)語頻率,而逆文檔頻率(IDF)是術(shù)語對于文檔集的重要性指標(biāo),TF-IDF向量可以通過TF×IDF計(jì)算.將2個(gè)目標(biāo)文本使用TF-IDF算法表示為文檔向量a,b后,再利用余弦相似度評估2個(gè)文本之間的相似程度,計(jì)算公式如下[5]:
在相關(guān)研究中,Gomaa等人[6]在文本分類和信息檢索中使用了基于TF-IDF和余弦相似度的文本相似度計(jì)算方法.結(jié)果顯示,該方法在文本分類和信息檢索任務(wù)中表現(xiàn)良好,并且與其他傳統(tǒng)的基于向量空間模型的文本相似度計(jì)算方法,例如BM25算法和樸素貝葉斯算法相比具有更好的性能.此外,Wang等人[7]提出了一種基于改進(jìn)的TF-IDF和LDA的文本相似度計(jì)算方法,并將其與其他常用方法進(jìn)行了比較.研究結(jié)果表明,他們提出的方法在不同數(shù)據(jù)集上均取得了更好的性能,尤其是對于長文本和短文本之間的相似度計(jì)算,在某些數(shù)據(jù)集上相較于其他方法可以提高5%~10%的準(zhǔn)確度.
數(shù)據(jù)挖掘技術(shù)是指通過自動或半自動的方式從大量數(shù)據(jù)中發(fā)現(xiàn)有用的規(guī)律或知識的過程.數(shù)據(jù)挖掘技術(shù)包括聚類分析、分類分析、分布分析、特征工程等多個(gè)方面.本文主要使用分布分析和特征工程:分布分析可以更深入地了解數(shù)據(jù)的特征和分布情況,以便更好地為數(shù)據(jù)建模和分析作準(zhǔn)備,分布分析涉及數(shù)據(jù)分布的可視化、摘要統(tǒng)計(jì)和相關(guān)分析等方法,它可以用于描述單變量或多變量數(shù)據(jù)集中的分布情況,發(fā)現(xiàn)數(shù)據(jù)的異常值、偏態(tài)分布和相關(guān)性等[8-9];特征工程是利用領(lǐng)域知識,創(chuàng)造出新的特征,用于機(jī)器學(xué)習(xí)算法.
大型語言模型(large language model, LLM),是指具有數(shù)十億甚至數(shù)百億參數(shù)的神經(jīng)網(wǎng)絡(luò)模型,其目標(biāo)是通過學(xué)習(xí)大量語言數(shù)據(jù)自動閱讀并回答問題或者生成新的文字,并且能夠依據(jù)輸入的參數(shù)做其他事情,如生產(chǎn)代碼和影像等.LLM的研究主要分為以下4個(gè)方面:模型設(shè)計(jì)、數(shù)據(jù)預(yù)處理、模型訓(xùn)練及優(yōu)化和應(yīng)用場景.LLM的模型設(shè)計(jì)是研究的重點(diǎn)之一,其旨在提高模型的效率和性能.目前最流行的LLM是Transformer模型,可以端到端地直接解決最終任務(wù),有效處理長文本序列.LLM的應(yīng)用場景非常廣泛,包括但不限于:1)語言生成,如文本摘要、機(jī)器翻譯、對話系統(tǒng)等;2)文本分類,如情感分析、垃圾郵件過濾、新聞分類等;3)信息檢索,如問答系統(tǒng)、語義搜索等;4)語音識別,如語音轉(zhuǎn)寫、聲紋識別等.
在相關(guān)研究中,Chen等人[10]使用了2種不同的代碼數(shù)據(jù)集對2種不同的LLM(GPT-2和CodeBERT)進(jìn)行評估,包括代碼注釋和代碼片段.通過比較LLM的代碼補(bǔ)全和注釋生成能力與基線方法的性能,研究人員發(fā)現(xiàn)基于代碼訓(xùn)練的LLM在代碼注釋和補(bǔ)全方面表現(xiàn)出色,但在代碼片段的生成上表現(xiàn)較差.
本文研究的ChatGPT是由OpenAI提出的基于Transformer架構(gòu)的LLM,其參數(shù)規(guī)模達(dá)到了1750億,是目前最大的公開可用LLM.
ChatGPT是OpenAI推出的基于轉(zhuǎn)換器的生成式預(yù)訓(xùn)練(generative pre-trained transformer, GPT)對話生成模型.GPT模型是一種基于Transformer架構(gòu)的語言模型,能夠在大規(guī)模語料庫上進(jìn)行預(yù)訓(xùn)練,并通過微調(diào)的方式應(yīng)用于各種自然語言處理任務(wù)中,例如問題回答、語言翻譯和文本總結(jié).傳統(tǒng)的序列模型、語言模型通常采用RNN,LSTM或GRU等結(jié)構(gòu),這些結(jié)構(gòu)在處理長序列時(shí)會出現(xiàn)梯度消失等問題.與傳統(tǒng)語言模型相比,Transformer架構(gòu)使得GPT可以更好地捕捉序列中的長距離依賴關(guān)系.
2020年,OpenAI發(fā)布了一個(gè)擁有1750億個(gè)參數(shù)的強(qiáng)大語言模型GPT-3.隨后1年,OpenAI推出了基于GPT-3的Codex模型,可以從自然語言提示中生成功能上正確的代碼.2022年,OpenAI發(fā)布了另一個(gè)基于GPT-3的模型InstructGPT,它融合了人類反饋,能夠遵循人類的指令.ChatGPT是InstructGPT的兄弟模型,可以遵循提示并根據(jù)人類價(jià)值觀提供詳細(xì)的回答[11].
本文收集了具有代表性的人類文本和AI文本.針對不同的先決條件設(shè)計(jì)了4種文本檢測場景,分別是文本相似度分析策略、數(shù)據(jù)挖掘分析策略、LLM生成方式對抗策略以及AI模型分析策略,統(tǒng)一稱為Anti-ChatGPT方案.在每種策略指導(dǎo)下,設(shè)計(jì)并實(shí)驗(yàn)了4種檢測模型,分別為Simi-Detector,Stats-Analyzer,LLM-Detector,OpenAI-Detector,如表1所示:
表1 4種檢測模型
假設(shè)使用在線檢測的環(huán)境,可以通過訪問ChatGPT網(wǎng)頁或者API接口頻繁獲取ChatGPT文本,本文提出的方案是使用文本相似度匹配的方法區(qū)分人類文本和AI文本.在可行性分析實(shí)驗(yàn)中,使用經(jīng)典的TF-IDF算法生成對應(yīng)的文本向量,再使用余弦相似度作為文本距離度量,具體步驟如下:
1) 同一問題下,使用人類文本集構(gòu)成文檔庫,進(jìn)行TF-IDF向量化,兩兩進(jìn)行余弦相似度計(jì)算;
2) 同一問題下,抽樣人類文本數(shù)據(jù),與AI文本集混合構(gòu)成文檔庫,進(jìn)行TF-IDF向量化,兩兩進(jìn)行余弦相似度計(jì)算;
3) 同一問題下,使用AI文本集構(gòu)成文檔庫,進(jìn)行TF-IDF向量化,兩兩進(jìn)行余弦相似度計(jì)算;
4) 比較全部問題統(tǒng)計(jì)結(jié)果,查看相似度分布圖是否存在差異.
如果在可行性分析實(shí)驗(yàn)中,發(fā)現(xiàn)3類相似度分布圖存在明顯差異,設(shè)計(jì)以下模型:
模型1.Simi-Detector檢測模型.
1) 給定一段文本和它對應(yīng)的主題(問題),將該文本作為待測樣本x;
2) 讓ChatGPT針對該主題進(jìn)行n次回答,獲得參照樣本y1,y2,…,yn;
3) 構(gòu)建文檔集合D={x}∪{y1,y2,…,yn},使用TF-IDF算法生成文檔向量集合{x,y1,y2,…,yn};
假設(shè)沒有在線檢測環(huán)境,無法針對特定的主題獲得參照樣本,但是可以預(yù)先獲得一部分AI文本.
本文使用特征工程進(jìn)行數(shù)據(jù)挖掘,通過發(fā)現(xiàn)人類文本和AI文本在特定特征上的統(tǒng)計(jì)差異性進(jìn)行AI文本識別.在可行性分析實(shí)驗(yàn)中,構(gòu)建了下面8個(gè)統(tǒng)計(jì)指標(biāo)項(xiàng).
1) 不重復(fù)單詞的比例:將文本單詞去重后的數(shù)量/文本單詞總數(shù);
2) 句子平均長度:文本單詞總數(shù)/(文中句號、問號、嘆號之和);
3) 單詞平均字母數(shù):文本英文字符總數(shù)/文本單詞總數(shù);
4) 空格頻率:文本空格數(shù)/單詞總數(shù);
5) 數(shù)字頻率:文本數(shù)字字符數(shù)/單詞總數(shù);
6) 問號頻率:文本問號數(shù)/單詞總數(shù);
7) 嘆號頻率:文本嘆號數(shù)/單詞總數(shù);
8) 其他的特殊符號頻率:其他特殊字符數(shù)/單詞總數(shù).
如果在可行性分析實(shí)驗(yàn)中,發(fā)現(xiàn)8類統(tǒng)計(jì)指標(biāo)存在明顯差異,設(shè)計(jì)以下模型:
模型2.Stats-Analyzer檢測模型.
1) 預(yù)先獲得人類文本統(tǒng)計(jì)特征模板H(θ)和AI文本統(tǒng)計(jì)特征模板A(θ);
2) 給定一段文本,作為待測樣本x;
3) 計(jì)算待測樣本的統(tǒng)計(jì)特征S(x);
4) 使用KL散度、門限閾值等方式分別衡量待測樣本統(tǒng)計(jì)特征S(x)同人類文本統(tǒng)計(jì)特征模板H(θ)、AI文本統(tǒng)計(jì)特征模板A(θ)的距離,計(jì)算:d1=DKL(H‖S),d2=DKL(A‖S);
5) 如果d1>d2,判定為AI文本,否則為人類文本.
假設(shè)沒有在線檢測環(huán)境,無法針對特定的主題獲得參照樣本,甚至對具體的AI文本樣本一無所知.
這個(gè)檢測策略原始算法來源于2023年1月26日斯坦福團(tuán)隊(duì)的一篇論文,如圖1所示[12].主要基于以下2個(gè)假設(shè):
圖1 檢測策略原始算法模型
1) LLM的單詞選擇策略是最優(yōu)解、近似最優(yōu)解,也就是概率越高的詞匯組合一般越容易出現(xiàn).相反,人類選擇的語句通常不是局部最優(yōu)解.
2) 不同AI模型之間的概率圖譜相似度很高,可以用由此及彼的方式獲得這個(gè)圖譜.即使ChatGPT沒開源也可以用BERT,T5等模型近似ChatGPT.
利用這個(gè)原理,設(shè)計(jì)以下模型:
模型3.LLM-Detector檢測模型.
1) 給定一段文本,作為待測樣本x;
2) 計(jì)算待測樣本本身的概率Poriginal(x);
6) 對給定閾值t, 如果z-score>t,判定為AI文本,否則為人類文本.
該檢測方式不再局限于ChatGPT,理論上它對目前大部分LLM模型都有效.
假設(shè)沒有在線檢測環(huán)境,無法針對特定的主題獲得參照樣本,但是有大量該AI模型產(chǎn)生的AI文本樣本.
通過利用這些AI文本樣本和人類文本樣本訓(xùn)練一個(gè)二分類模型,可以用于文本檢測任務(wù).2023年1月底,OpenAI開放了AI文本檢測接口https://platform.openai.com/ai-text-classifier,這是一個(gè)微調(diào)的GPT模型,用于完成AI文本的識別.本文利用它進(jìn)行AI模型分析策略的效果驗(yàn)證,設(shè)計(jì)以下模型:
模型4.OpenAI-Detector檢測模型.
1) 給定一段文本,作為待測樣本x;
2) 調(diào)用OpenAI的API對x進(jìn)行檢測;
3) API測試返回內(nèi)容為possibly的,判定為AI文本,返回內(nèi)容為unlikely的,判定為人類文本.
本文的研究課題數(shù)據(jù)采樣于某互聯(lián)網(wǎng)社交平臺,實(shí)驗(yàn)分析過程如圖2所示:
圖2 實(shí)驗(yàn)分析過程
爬取平臺2022年3月統(tǒng)計(jì)的Top熱度的問題,實(shí)際獲得問題數(shù)合計(jì)107個(gè),每個(gè)問題約80~100個(gè)答案.鑒于目前大部分語言模型都是英文比較成熟,用Google translate API將數(shù)據(jù)統(tǒng)一翻譯為英文,并從數(shù)據(jù)集中刪除了150個(gè)英文單詞以內(nèi)的短文本數(shù)據(jù).向ChatGPT發(fā)送問題,每個(gè)問題使用新建會話的模式生成5次回答,可以認(rèn)為是5次獨(dú)立的實(shí)驗(yàn).合計(jì)獲得問題數(shù)107個(gè),社交平臺回答數(shù)據(jù)8475條,ChatGPT回答數(shù)據(jù)535條,分別代表人類文本集和AI文本集,二分類數(shù)據(jù)集比例接近16∶1.
評估分類模型的性能時(shí),通常會使用以下4個(gè)指標(biāo)度量其性能:準(zhǔn)確率、精準(zhǔn)率、召回率和F1-score.這些指標(biāo)是評估二元分類和多元分類問題的標(biāo)準(zhǔn)度量方式.
1) 準(zhǔn)確率(Accuracy).指分類器正確分類的樣本數(shù)與總樣本數(shù)的比例.準(zhǔn)確率計(jì)算公式為Accuracy=(TP+TN)/(TP+FP+TN+FN),其中TP表示實(shí)際為正例的樣本被預(yù)測為正例的數(shù)量,TN表示實(shí)際為負(fù)例的樣本被預(yù)測為負(fù)例的數(shù)量,FP表示實(shí)際為負(fù)例的樣本被預(yù)測為正例的數(shù)量,FN表示實(shí)際為正例的樣本被預(yù)測為負(fù)例的數(shù)量.
2) 精準(zhǔn)率(Precision).指分類器在所有預(yù)測為正例的樣本中真正為正例的樣本數(shù)所占的比例.精準(zhǔn)率計(jì)算公式為Precision=TP/(TP+FP).
3) 召回率(Recall).指分類器在所有實(shí)際為正例的樣本中真正預(yù)測為正例的樣本數(shù)所占的比例.召回率計(jì)算公式為Recall=TP/(TP+FN).
4)F1分?jǐn)?shù)(F1-score).指精準(zhǔn)率和召回率的調(diào)和平均數(shù),它綜合了精準(zhǔn)率和召回率的表現(xiàn).F1分?jǐn)?shù)計(jì)算公式為F1-score=2(Precision×Recall)/(Precision+Recall).
3.3.1 文本相似度分析結(jié)果
可行性分析實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如表2所示.表2中實(shí)驗(yàn)使用問題數(shù)合計(jì)107個(gè).
表2 可行性分析實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果
根據(jù)所有問題答案的相似度數(shù)值繪制的KDE如圖3所示.
圖3 問題答案相似度KDE圖
在本文構(gòu)建的數(shù)據(jù)集上,發(fā)現(xiàn)同一個(gè)問題下,人類文本之間的相似度平均為0.078,人類文本與ChatGPT文本之間的相似度平均為0.038,ChatGPT文本之間的相似度平均為0.265.可行性實(shí)驗(yàn)的結(jié)論是ChatGPT回答5次答案的相似度會遠(yuǎn)高于5個(gè)人回答問題的答案相似度.
利用可行性實(shí)驗(yàn)的結(jié)果,經(jīng)過計(jì)算,本文將Simi-Detector采樣次數(shù)n設(shè)定為5,相似度閾值設(shè)定為0.16,待測樣本與對照樣本ChatGPT集合相似度均值超過0.16的為ChatGPT生成的文本,否則為人類文本.在整個(gè)數(shù)據(jù)集上的檢測結(jié)果如圖4所示,Simi-Detector將約1%的人類文本誤判為AI文本,將約2%的ChatGPT文本誤判為人類文本.
3.3.2 數(shù)據(jù)挖掘分析結(jié)果
可行性分析實(shí)驗(yàn)中,人類文本數(shù)據(jù)分析統(tǒng)計(jì)結(jié)果如表3所示.表3中實(shí)驗(yàn)使用人類文本樣本數(shù)合計(jì)8475個(gè).
表3 人類文本數(shù)據(jù)分析統(tǒng)計(jì)結(jié)果
AI文本數(shù)據(jù)分析統(tǒng)計(jì)結(jié)果如表4所示.表4中實(shí)驗(yàn)使用AI文本樣本數(shù)合計(jì)535個(gè).
表4 AI文本數(shù)據(jù)分析統(tǒng)計(jì)結(jié)果
本文觀察了人類文本和ChatGPT的統(tǒng)計(jì)結(jié)果,AI文本在以下幾個(gè)方面與人類文本差異較小:
1) ChatGPT使用不重復(fù)單詞的比例比人類使用不重復(fù)單詞的比例高8個(gè)百分點(diǎn);
2) 兩者句子平均長度基本上均為15,16個(gè)單詞;
3) 單詞平均長度均為5個(gè)字母左右;
4) 標(biāo)準(zhǔn)差、分位數(shù)也沒有明顯的區(qū)分意義.
唯一比較明顯的差異是人類文本使用感嘆號和問號的比例是ChatGPT的5倍以上.本文分析這種情感扁平化的語言風(fēng)格可能是問答機(jī)器人特有的,另一方面人類文本嘆號、問號比例50%分位數(shù)也是0,說明無法僅憑借這些特征識別AI文本.可行性實(shí)驗(yàn)結(jié)果分析表明Stats-Analyzer可能很難區(qū)分AI文本和人類文本.
3.3.3 LLM生成方式對抗結(jié)果
LLM-Detector的算法參數(shù)本文選擇分組長度設(shè)置為256,mask百分比為20%,采樣次數(shù)n設(shè)置為30,z-score閾值設(shè)定為0.7,在整個(gè)數(shù)據(jù)集上的檢測結(jié)果如圖5所示,LLM-Detector將約1%的人類文本誤判為AI文本,將約48%的ChatGPT文本誤判為人類文本.
圖5 LLM-Detector模型檢測結(jié)果
3.3.4 AI模型分析結(jié)果
在整個(gè)數(shù)據(jù)集上的檢測結(jié)果如圖6所示,OpenAI-Detector將約30%的人類文本誤判為AI文本,將約30%的ChatGPT文本誤判為人類文本.
圖6 OpenAI-Detector模型檢測結(jié)果
3.3.5 結(jié)果對比
從表5可知,Simi-Detector檢測條件最苛刻,但是效果最好;LLM-Detector性能較低,且存在召回率偏低的問題;OpenAI-Detector整體表現(xiàn)欠佳;Stats-Analyzer無法完成檢測任務(wù).
表5 4種模型檢測結(jié)果對比
本文從網(wǎng)絡(luò)攻防的視角模擬攻擊者,針對Anti-ChatGPT的幾種AI文本檢測模型,如何有效地進(jìn)行檢測對抗,讓AI生成文本可以繞過Anti-ChatGPT分析,從而做到AI文本免殺呢?Simi-Detector, LLM-Detector模型都屬于白盒檢測,可以通過修改AI文本,對算法的檢測模式、敏感參數(shù)進(jìn)行特定攻擊,取得很好的效果.OpenAI-Detector模型則屬于黑盒檢測,可能需要多次嘗試互動在線進(jìn)行免殺.
要想繞過文本相似度匹配檢測,其中一種辦法就是多選擇幾個(gè)LLM,將生成的AI文本進(jìn)行拼接、融合.
繞過LLM-Detector的方法就是在部分詞匯上優(yōu)先選擇出現(xiàn)概率偏低的同義詞.
針對LLM-Detector,構(gòu)造繞過算法如下:
1) 給定一段AI生成的文本x;
2) 隨機(jī)對文本中的單詞進(jìn)行mask;
4) 步驟2)和3)重復(fù)n次,對n個(gè)Pi倒排序,從倒數(shù)10名中隨機(jī)選1個(gè),將這個(gè)填空的結(jié)果作為混淆后的輸出;
5) 可根據(jù)需要將輸出結(jié)果返回到步驟1),進(jìn)行多次混淆操作.
這種免殺方式可以極大降低LLM-Detector計(jì)算出的z-score,成功繞過檢測算法.
OpenAI-Detector的檢測算法是黑盒化的,需要進(jìn)行在線測試完成免殺.測試過程中,發(fā)現(xiàn)OpenAI-Detector對人類文本出現(xiàn)大量誤報(bào),而且對同一個(gè)待測文本,只需要增加一個(gè)回車符可能就會引起檢測結(jié)果的劇烈抖動.因此OpenAI-Detector免殺需要嘗試性地對AI文本進(jìn)行局部修改,在線測試完成免殺.或者建議直接選擇放棄免殺,畢竟OpenAI-Detector對人類文本接近30%的誤報(bào)率,很難讓人單獨(dú)依賴其檢測結(jié)果作出決策.
大型語言模型在文本生成上同人類文本越來越相似,如何識別AI生成文本,防止AI生成文本的濫用成為一個(gè)富有挑戰(zhàn)的課題.本文通過構(gòu)建人類文本和AI文本數(shù)據(jù)集,設(shè)計(jì)了4種不同場景下的檢測策略,對AI文本識別課題進(jìn)行探索.一方面本文進(jìn)行了實(shí)驗(yàn)分析并對檢測結(jié)果進(jìn)行橫向評估,另一方面,站在攻防角度,進(jìn)行了對抗檢測的繞過分析.本文認(rèn)為簡單的數(shù)據(jù)挖掘和特征工程分析已經(jīng)很難區(qū)分出AI生成文本和人類文本之間的差異,同時(shí)訓(xùn)練一個(gè)AI模型來識別AI文本目前也存在諸多困難,例如檢測結(jié)果不穩(wěn)定、誤報(bào)率偏高等引起的檢測效果欠佳的問題;目前效果較好的方法是使用文本相似度分析策略和LLM生成方式對抗策略設(shè)計(jì)檢測算法,兩者可以保持在一個(gè)較高的水平上,有效識別出AI生成文本.但是,這2種都是白盒檢測算法,攻擊者可以根據(jù)算法原理,有針對性地對AI生成文本進(jìn)行加工,達(dá)到繞過檢測算法的目的.