国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)

2024-04-30 08:07鐘圣華
自動(dòng)化學(xué)報(bào) 2024年4期
關(guān)鍵詞:示例卷積節(jié)點(diǎn)

鐘圣華 張 智,2

圖像隱寫(xiě)者檢測(cè)技術(shù)是一項(xiàng)通過(guò)對(duì)用戶傳播的圖像進(jìn)行綜合分析、偵測(cè),來(lái)發(fā)現(xiàn)那些試圖將隱秘信息隱藏在圖片中進(jìn)行隱秘通信的隱寫(xiě)者的信息安全技術(shù).在真實(shí)的社交網(wǎng)絡(luò)中,隱寫(xiě)者檢測(cè)十分困難.一方面,基于圖像的隱寫(xiě)算法可以幫助隱寫(xiě)者在不改變圖像外觀的前提下,將隱秘信息嵌入圖像中.另一方面,隱寫(xiě)者使用隱寫(xiě)術(shù)和有效載荷[1]等相關(guān)參數(shù)往往是無(wú)法預(yù)知的,這進(jìn)一步增加了隱寫(xiě)者檢測(cè)的難度.與試圖捕獲載密圖像和載體圖像之間的差異的隱寫(xiě)分析方法不同,隱寫(xiě)者檢測(cè)更關(guān)注隱寫(xiě)者與非隱寫(xiě)者之間的差異.

現(xiàn)有的隱寫(xiě)者檢測(cè)方法中,為了模擬真實(shí)場(chǎng)景中隱寫(xiě)者數(shù)量遠(yuǎn)遠(yuǎn)少于正常用戶的情況,常常假設(shè)在測(cè)試的過(guò)程中,用戶中只有一個(gè)隱寫(xiě)者存在,采用異常檢測(cè)或排序的方法將預(yù)測(cè)的隱寫(xiě)者概率最高的用戶作為隱寫(xiě)者進(jìn)行輸出.

因此,通用的隱寫(xiě)者檢測(cè)方法通常由兩部分組成: 特征提取和基于特征的聚類或離群值檢測(cè).Ker 等[1]首次將隱寫(xiě)者檢測(cè)轉(zhuǎn)換為聚類問(wèn)題進(jìn)行研究,從每張圖像中提取PEV-274 特征[2],并使用最大平均差異計(jì)算每對(duì)用戶之間的距離,再通過(guò)層次聚類算法來(lái)區(qū)分隱寫(xiě)者與非隱寫(xiě)者.此后,Ker等[3-4]進(jìn)一步改進(jìn)之前的工作,用局部離群值因子方法代替層次聚類算法,計(jì)算用戶的異常程度并進(jìn)行排序,異常值最高的用戶被檢測(cè)為隱寫(xiě)者.2016 年,Li 等[5]提出使用高階聯(lián)合特征作為圖像的隱寫(xiě)分析特征,并集成多個(gè)層次聚類器來(lái)檢測(cè)隱寫(xiě)者.2017 年,Zheng 等[6]首次提出一種基于深度學(xué)習(xí)方法的隱寫(xiě)者檢測(cè)框架,使用深度殘差網(wǎng)絡(luò)來(lái)提取圖像特征,最后使用聚合性層次聚類算法識(shí)別隱寫(xiě)者.2018 年,Zheng 等[7]進(jìn)一步改進(jìn)特征提取模型,并提出一種用于隱寫(xiě)者檢測(cè)任務(wù)的多分類深度神經(jīng)網(wǎng)絡(luò),與傳統(tǒng)方法和其他深度學(xué)習(xí)方法相比,該模型在標(biāo)準(zhǔn)數(shù)據(jù)集上實(shí)現(xiàn)了最好的性能.盡管這些方法的特征提取部分有所不同,但是在用戶表征、用戶之間相似性的度量和可疑用戶的檢測(cè)等步驟沒(méi)有本質(zhì)差異.在這些方法中,每名用戶的表征由其所分享的所有圖像的特征分布拼接而成,在此基礎(chǔ)上,計(jì)算用戶的特征分布之間的相似度,找出與其他用戶差異較大的用戶,進(jìn)而確定隱寫(xiě)者.2020 年以來(lái),Zhang 等[8-9]將用戶分享的圖像及其相關(guān)關(guān)系建模成圖,提出相似性累積圖卷積單元,能夠增強(qiáng)相似特征分布,從而發(fā)現(xiàn)載密圖像構(gòu)成的子圖,對(duì)其進(jìn)行加權(quán),以獲得更有效的用戶表征,這也是迄今為止唯一使用圖神經(jīng)網(wǎng)絡(luò)模型進(jìn)行隱寫(xiě)者檢測(cè)的方法.

本文將隱寫(xiě)者檢測(cè)形式化成多示例學(xué)習(xí)(Multiple-instance learning,MIL)任務(wù),并提出基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)算法(Steganographer detection algorithm based on multiple-instance learning graph convolutional network,MILGCN).該算法通過(guò)共性增強(qiáng)圖卷積網(wǎng)絡(luò)(Graph convolutional network,GCN) 有效增加正示例的共性特征,通過(guò)注意力示例包表征模塊自適應(yīng)地構(gòu)建更具有區(qū)分力的示例包表征,并設(shè)計(jì)多示例學(xué)習(xí)損失約束.與現(xiàn)有算法相比,提升了空域和頻域、已知和未知隱寫(xiě)術(shù)等多種隱寫(xiě)策略情況下的隱寫(xiě)者檢測(cè)準(zhǔn)確率.相比于Zhang 等[8-9]的工作,本文提出一種新的基于圖的用戶表征模型,能夠針對(duì)不同嵌入策略做到對(duì)分享的圖像數(shù)量魯棒.相比于文獻(xiàn)[8-9]中基于規(guī)則構(gòu)建的圖重建和邊池化方法,本文提出自適應(yīng)的圖構(gòu)建和歸一化方法,并通過(guò)損失進(jìn)行約束,自適應(yīng)地攻擊不同隱寫(xiě)策略;相比于文獻(xiàn)[8-9]中將節(jié)點(diǎn)視為同等重要的展平讀出和平均讀出,本文進(jìn)一步設(shè)計(jì)新的圖讀出方式,能夠載密圖像構(gòu)建具有區(qū)分力的圖表征.

本文內(nèi)容安排如下: 第1 節(jié)回顧圖神經(jīng)網(wǎng)絡(luò)的相關(guān)工作;第2 節(jié)給出基于多示例學(xué)習(xí)的通用隱寫(xiě)者檢測(cè)方法的詳細(xì)介紹;第3 節(jié)給出一系列實(shí)驗(yàn),以驗(yàn)證提出方法的有效性;第4 節(jié)對(duì)全文工作進(jìn)行總結(jié),并給出進(jìn)一步的研究思路.

1 圖神經(jīng)網(wǎng)絡(luò)的相關(guān)工作

最近,基于深度學(xué)習(xí)的方法已經(jīng)在圖結(jié)構(gòu)數(shù)據(jù)的分類和聚類任務(wù)上獲得了成功的應(yīng)用,實(shí)際應(yīng)用領(lǐng)域包括惡意軟件分析、圖像分類、動(dòng)作識(shí)別、物體分類等[10].其中,圖卷積網(wǎng)絡(luò)通過(guò)將適用于分析歐氏數(shù)據(jù)結(jié)構(gòu)的傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)泛化到圖等非歐結(jié)構(gòu)數(shù)據(jù)上,實(shí)現(xiàn)了圖結(jié)構(gòu)上的卷積運(yùn)算,取得了顯著的研究進(jìn)展并獲得了廣泛的關(guān)注.在這些方法中,圖卷積方法通常被分為兩類,即基于譜域的圖卷積方法和基于空域的圖卷積方法[9].

譜域圖卷積方法源于譜圖理論,可以看作傅立葉變換在圖上的推廣[11].該類方法通過(guò)對(duì)拉普拉斯矩陣的特征分解,定義了圖上的拉普拉斯變換和拉普拉斯逆變換.該工作通過(guò)傅立葉變換將圖變換到譜域進(jìn)行卷積,再通過(guò)傅立葉逆變換將卷積結(jié)果變換回圖.在此基礎(chǔ)上,Defferrard 等[11]進(jìn)一步提出一種卷積核的多項(xiàng)式近似方法,將節(jié)點(diǎn)聚合信息的范圍限制在k階鄰居節(jié)點(diǎn)內(nèi).在此基礎(chǔ)上,Kipf 和Welling[12]將節(jié)點(diǎn)聚合信息的范圍限制在一階鄰域內(nèi),再次對(duì)卷積計(jì)算進(jìn)行近似,提出最為常用的圖卷積網(wǎng)絡(luò).

與基于譜域的方法不同,基于空域的方法并未將圖映射到傅立葉域,而是將卷積操作形式化為一種“塊級(jí)操作”,基于這種塊級(jí)操作,卷積操作通過(guò)聚合塊級(jí)區(qū)域(圖上的每個(gè)節(jié)點(diǎn)及其鄰域) 的信息構(gòu)建新的節(jié)點(diǎn)特征表示.2017 年,Hamilton 等[13]提出GraphSAGE 并將圖結(jié)構(gòu)數(shù)據(jù)上的卷積操作形式化為三個(gè)主要步驟,利用對(duì)節(jié)點(diǎn)排列具有不變性的函數(shù)(如均值、和、極大值等) 聚合節(jié)點(diǎn)的鄰域信息.2018 年,Ying 等[14]提出一個(gè)可微分的圖池化網(wǎng)絡(luò)DiffPool,來(lái)生成層次化的圖的表征.通過(guò)可微分的方式,模型能夠自適應(yīng)地對(duì)圖中的節(jié)點(diǎn)進(jìn)行池化,從而得到新的表征.最近,注意力機(jī)制在圖深度學(xué)習(xí)領(lǐng)域取得了突出的成就,這類方法使用注意力機(jī)制為重要的節(jié)點(diǎn)、鄰居節(jié)點(diǎn)和特征賦予更高的權(quán)重.2018 年,Veli?kovi? 等[15]提出圖注意力網(wǎng)絡(luò)(Graph attention network,GAT),在該模型中,注意力機(jī)制被用于計(jì)算在聚合來(lái)自鄰居節(jié)點(diǎn)的信息時(shí)不同鄰居節(jié)點(diǎn)的權(quán)重值.近年來(lái)的研究表明,基于譜域的圖卷積方法和基于空域的圖卷積方法并不是完全對(duì)立的,一些譜域的方法能夠形式化為在空域應(yīng)用某種卷積核進(jìn)行卷積.

2 基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)框架

多示例學(xué)習(xí)是有監(jiān)督學(xué)習(xí)中的一種特殊形式.相比于對(duì)一系列獨(dú)立標(biāo)注的樣本進(jìn)行分類,在多示例學(xué)習(xí)任務(wù)中,學(xué)習(xí)器以一系列被標(biāo)注的包(Bag)作為輸入,每個(gè)包包含若干個(gè)未標(biāo)注的樣本,即示例(Instance)[16-19].如果包中的所有示例都為負(fù)樣本,那么這個(gè)包則被標(biāo)注為負(fù)包.另一方面,如果包中含有至少一個(gè)正示例,則包被標(biāo)記為正包.在隱寫(xiě)者檢測(cè)任務(wù)中,只要用戶分享的圖像中包含至少一張載密圖像,則這個(gè)用戶就應(yīng)當(dāng)被檢測(cè)為隱寫(xiě)者.只有當(dāng)用戶分享的所有圖像都為載體圖像時(shí),用戶應(yīng)當(dāng)被判別為正常用戶.毋庸置疑,隱寫(xiě)者檢測(cè)任務(wù)的目標(biāo)和多示例學(xué)習(xí)在本質(zhì)上是一致的.因此,本文將隱寫(xiě)者檢測(cè)任務(wù)形式化為多示例學(xué)習(xí)任務(wù).

本文提出的基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)算法,將社交網(wǎng)絡(luò)中的用戶及其分享的圖像作為輸入,區(qū)分隱寫(xiě)者和正常用戶.如圖1 所示,在多示例學(xué)習(xí)的框架下包含4 個(gè)主要組成部分,即特征提取網(wǎng)絡(luò)、共性增強(qiáng)圖卷積網(wǎng)絡(luò)、注意力示例包表征網(wǎng)絡(luò)和分類網(wǎng)絡(luò).需要注意的是,本文提出的模型在訓(xùn)練和測(cè)試過(guò)程中有所不同.在訓(xùn)練過(guò)程中,以示例包的分類作為目標(biāo),所以構(gòu)建的是分類網(wǎng)絡(luò).在測(cè)試過(guò)程中,采用與以往隱寫(xiě)者檢測(cè)一致的實(shí)驗(yàn)設(shè)置,即將預(yù)測(cè)的隱寫(xiě)者概率最高的用戶作為隱寫(xiě)者輸出.

圖1 基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)框架Fig.1 Steganographer detection framework based on multiple-instance learning graph convolutional network

首先使用基于多類別深度神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)(Multiclass deep neural networks based steganographer detection,MDNNSD)[7],針對(duì)用戶分享的每一張圖像提取特征,得到用戶對(duì)應(yīng)的特征集合 {x1,···,xn}.這里,將提取到的特征表示為橙色圓角矩形,其中第i個(gè)圓角矩形表示用戶分享的第i張圖像所對(duì)應(yīng)的特征.接著,將特征作為示例包中的示例,將特征集合作為示例包,構(gòu)建圖結(jié)構(gòu).其中,紫色圓柱表示示例所對(duì)應(yīng)的特征,圓柱的高度表示特征的維度,紫色圓柱之間的連線代表圖結(jié)構(gòu)中的連接示例特征的邊.在圖結(jié)構(gòu)上進(jìn)行卷積,實(shí)現(xiàn)示例特征的分析和降維,降維的過(guò)程使用箭頭指示.在多次卷積后,可以得到分析和降維后的特征集合 {t1,···,tn}.這里,將得到的示例特征按順序排列,繪制為新的紫色圓柱.在此基礎(chǔ)上,使用注意力圖讀出計(jì)算每個(gè)示例特征的重要程度,并根據(jù)重要程度對(duì)示例特征進(jìn)行加權(quán),加權(quán)后的結(jié)果使用不同深淺的紫色圓柱表示.最終,對(duì)加權(quán)后的示例特征進(jìn)行匯總,得到圖的表征,并使用箭頭指示得到的示例包表征ux.之后,將示例包表征輸入由藍(lán)色示意圖表示的多層感知器中,得到隱寫(xiě)者和正常用戶.在表1 中,給出了模型中使用的主要變量的介紹.

表1 使用的變量符號(hào)及對(duì)應(yīng)說(shuō)明Table 1 The variable symbols and their corresponding descriptions

2.1 基于多分類擴(kuò)張殘差網(wǎng)絡(luò)進(jìn)行示例表征

本文致力于設(shè)計(jì)新的隱寫(xiě)者檢測(cè)方法,而對(duì)單張圖像的表征,本文直接使用目前最前沿隱寫(xiě)者檢測(cè)中的特征提取方法,即MDNNSD[7],來(lái)從每張分享圖像中提取特征向量.具體來(lái)說(shuō),在Zheng 等[7]的工作中,使用包含特征提取器μ:Mcha×h×w(R)→M1×d(R) 和分類器π:M1×d(R)→M1×cls(R) 的多分類擴(kuò)張殘差網(wǎng)絡(luò).其中,c ha,h,w分別表示輸入多分類擴(kuò)張殘差網(wǎng)絡(luò)的圖像的通道數(shù)、高度和寬度,d表示MDNNSD 提取的特征維度數(shù),cls 表示MDNNSD 預(yù)測(cè)得到的樣本屬于某類的概率中的類別數(shù).這里,本文使用MDNNSD 中的特征提取器μ對(duì)用戶x分享的第i張圖像Ii進(jìn)行特征提取,得到用戶x分享的第i張圖像Ii的特征xi=μ(Ii).對(duì)于分享了n張圖像的用戶x,本文使用用戶分享的所有圖像對(duì)應(yīng)的特征向量 {x1,···,xn} 共同構(gòu)成用戶x所對(duì)應(yīng)的示例包的表征.

2.2 使用共性增強(qiáng)圖卷積網(wǎng)絡(luò)進(jìn)行示例分析

隱寫(xiě)者嵌入秘密信息的過(guò)程中有多種批量隱寫(xiě)策略.對(duì)于固定的有效載荷,隱寫(xiě)者可能將有效載荷分散在多數(shù)分享圖像中,以降低每張載密圖像的嵌入信息量,從而降低被發(fā)現(xiàn)的可能;也可能挑選少數(shù)分享圖像,集中嵌入秘密信息,通過(guò)大量的載體圖像遮掩載密圖像的存在.然而,現(xiàn)有的隱寫(xiě)者檢測(cè)工作通常將用戶分享的每張圖像視為從相同分布中獨(dú)立采樣的個(gè)體,用戶分享的所有圖像的特征分布作為用戶的特征表征,從而計(jì)算用戶之間的差異并將異常用戶作為隱寫(xiě)者.而當(dāng)載密圖像占比較小或是載密圖像包含的嵌入信息較少時(shí),隱寫(xiě)者的表征將與正常用戶的表征極為相近,無(wú)法有效檢測(cè)出隱寫(xiě)者.

為了解決該問(wèn)題,依托于本文對(duì)隱寫(xiě)者檢測(cè)的多示例學(xué)習(xí)的形式化,提出共性增強(qiáng)圖卷積網(wǎng)絡(luò)進(jìn)行示例分析,利用批量圖像間的相關(guān)關(guān)系增強(qiáng)用戶表征中的正示例的模式特征.相關(guān)工作已經(jīng)表明,在多示例學(xué)習(xí)任務(wù)中,示例包中的示例并不是獨(dú)立存在的,每個(gè)示例都和包中的其他示例有千絲萬(wàn)縷的聯(lián)系.對(duì)示例間的依賴關(guān)系進(jìn)行建模,有利于提取并增強(qiáng)相互關(guān)聯(lián)的正示例的共性特征,凸顯出其與負(fù)示例共性特征的差異.在隱寫(xiě)者檢測(cè)任務(wù)中,示例(用戶所分享圖像)相關(guān)關(guān)系無(wú)疑也是客觀存在的,例如,隱寫(xiě)者傳播的載密圖像也可能共享相似的隱寫(xiě)方法或者有效載荷.利用這一特點(diǎn),本文提出一種示例分析方法,增強(qiáng)示例包(用戶)中正示例(載密圖像) 的共有模式特征,使之與負(fù)示例(正常圖像)的模式特征區(qū)分開(kāi),進(jìn)而能夠簡(jiǎn)化發(fā)現(xiàn)包含正示例的正示例包(隱寫(xiě)者)的任務(wù).

然而,這些關(guān)聯(lián)關(guān)系屬于非歐的數(shù)據(jù)結(jié)構(gòu),無(wú)法使用基于歐氏空間的深度學(xué)習(xí)方法進(jìn)行建模.因此,目前仍鮮有基于深度學(xué)習(xí)的相關(guān)工作利用這種關(guān)聯(lián)關(guān)系完成多示例學(xué)習(xí)任務(wù).

本文提出用圖對(duì)這種數(shù)據(jù)結(jié)構(gòu)進(jìn)行表示,將包Bx中的示例 {x1,···,xn} 作為節(jié)點(diǎn),將節(jié)點(diǎn)之間的關(guān)聯(lián)關(guān)系建模為邊,進(jìn)而使用圖卷積來(lái)處理節(jié)點(diǎn)間的關(guān)聯(lián)信息.在此基礎(chǔ)上,提出共性增強(qiáng)圖卷積模塊,并使用λb個(gè)共性增強(qiáng)圖卷積模塊對(duì)示例包中的示例進(jìn)行分析.具體而言,共性增強(qiáng)圖卷積模塊的結(jié)構(gòu)如圖2(a)所示,下面將具體介紹共性增強(qiáng)圖卷積模塊的構(gòu)成.

圖2 隱寫(xiě)者檢測(cè)框架中兩個(gè)模塊((a) 共性增強(qiáng)圖卷積模塊;(b) 注意力讀出模塊)Fig.2 Two modules in steganographer detection framework ((a) The commonness enhancement graph convolutional network module;(b) The attention readout module)

1) 構(gòu)建示例包的圖結(jié)構(gòu)

共性增強(qiáng)圖卷積模塊的第一步是構(gòu)建示例包的圖結(jié)構(gòu).示例包的圖結(jié)構(gòu)可以分為兩部分: 一部分是選取示例表征中與特定模式相關(guān)的特征作為圖結(jié)構(gòu)中的圖節(jié)點(diǎn),另一部分是根據(jù)圖節(jié)點(diǎn)之間的關(guān)聯(lián)關(guān)系創(chuàng)建圖結(jié)構(gòu)中的邊.只有構(gòu)建的圖結(jié)構(gòu)準(zhǔn)確表達(dá)示例間關(guān)聯(lián)關(guān)系時(shí),圖卷積模塊才能利用示例間的關(guān)聯(lián)關(guān)系完成學(xué)習(xí)任務(wù).

目前,圖卷積領(lǐng)域的研究已經(jīng)在圖構(gòu)建問(wèn)題上取得了一定進(jìn)展,大多數(shù)工作將給定的特征向量作為節(jié)點(diǎn),致力于針對(duì)節(jié)點(diǎn)特征提出相似度度量方法,例如歐氏距離、余弦相似度、熱核函數(shù)等方法,從而構(gòu)建節(jié)點(diǎn)間的邊.然而,相似度度量方法的設(shè)計(jì)往往依賴于先驗(yàn)知識(shí)和專家系統(tǒng),面對(duì)復(fù)雜多樣的數(shù)據(jù)特征,很難通過(guò)事先設(shè)計(jì)來(lái)表達(dá)不同語(yǔ)義、含義抽象的多種關(guān)聯(lián)關(guān)系.因此,本文提出一種可學(xué)習(xí)的節(jié)點(diǎn)表征和相似度度量方法,通過(guò)反向傳播訓(xùn)練模型自適應(yīng)地構(gòu)建圖結(jié)構(gòu).

具體而言,對(duì)于共性增強(qiáng)圖卷積模塊的第i個(gè)輸入示例特征vi,首先設(shè)計(jì)特征提取函數(shù)f:M1×d(R)→M1×d′(R) 對(duì)d維特征向量vi進(jìn)行變換,得到d′維特征向量hi=f(vi) 作為節(jié)點(diǎn)i的特征表示.其中,特征提取函數(shù)f包括一個(gè)全連接層和一個(gè)線性整流單元(Rectified linear unit,ReLU).在訓(xùn)練過(guò)程中,通過(guò)優(yōu)化函數(shù)f中的參數(shù),模型將自適應(yīng)地提取vi中與檢測(cè)目標(biāo)相關(guān)的模式特征.

接著,使用向量?jī)?nèi)積計(jì)算不同節(jié)點(diǎn)中與任務(wù)相關(guān)的模式特征的交互,作為節(jié)點(diǎn)間關(guān)聯(lián)關(guān)系的表征.具體來(lái)說(shuō),對(duì)于節(jié)點(diǎn)i和節(jié)點(diǎn)j,使用f(vi)fT(vj) 表示節(jié)點(diǎn)之間的關(guān)聯(lián)關(guān)系,并且使用Sigmoid 函數(shù)將其歸一化到(0,1)范圍內(nèi).數(shù)學(xué)上,對(duì)于一個(gè)有n個(gè)示例的示例包,本文使用n×n維的鄰接矩陣A表示圖結(jié)構(gòu)中的邊.對(duì)于不同示例之間可能存在不同程度的關(guān)聯(lián)關(guān)系,本文使用Aij表示邊的權(quán)重

由上式可知,Aij是一個(gè)0 到1 之間的實(shí)數(shù),其中0表示示例i與示例j完全不相關(guān),而1 表示兩節(jié)點(diǎn)完全相關(guān).

2) 利用圖卷積聚合示例間的共性特征

共性增強(qiáng)圖卷積模塊的第二步是根據(jù)步驟1)中構(gòu)建的圖結(jié)構(gòu),對(duì)示例包中的示例進(jìn)行卷積運(yùn)算,聚合當(dāng)前示例和具有相近模式特征的示例,并提取公共的模式特征.

參照現(xiàn)有圖卷積領(lǐng)域的研究成果[12],本文類比歐氏空間中的卷積運(yùn)算定義了示例包對(duì)應(yīng)的圖結(jié)構(gòu)上的卷積運(yùn)算.具體而言,將與當(dāng)前示例節(jié)點(diǎn)處于同一包內(nèi)的其他示例節(jié)點(diǎn)定義為卷積運(yùn)算的鄰域.接著,使用上文中計(jì)算得到的示例節(jié)點(diǎn)之間邊的權(quán)重作為權(quán),對(duì)鄰域內(nèi)的示例節(jié)點(diǎn)的特征向量進(jìn)行加權(quán)平均,將得到的新特征向量作為當(dāng)前示例節(jié)點(diǎn)的表征.由式(1) 可知,與當(dāng)前節(jié)點(diǎn)模式特征相關(guān)聯(lián)的鄰居節(jié)點(diǎn)將具有更大的權(quán)重.為了在卷積運(yùn)算中保留當(dāng)前節(jié)點(diǎn)自身的特征,本文在卷積運(yùn)算的基礎(chǔ)上,以常數(shù) 1 作為權(quán)重,為當(dāng)前節(jié)點(diǎn)添加了自環(huán),共同參與卷積運(yùn)算.最終,節(jié)點(diǎn)i的聚合結(jié)果ri可以由下式計(jì)算得到

其中,Ni表示節(jié)點(diǎn)i的一階鄰居節(jié)點(diǎn).不難發(fā)現(xiàn),式(2)等價(jià)于

其中,H表示用戶分享圖像的特征構(gòu)成的矩陣,R為聚合后的特征矩陣.在式(3)中,如果示例節(jié)點(diǎn)i與示例包中的較多示例相關(guān),那么ri將會(huì)較大.否則,如果示例節(jié)點(diǎn)i與其他示例節(jié)點(diǎn)都不相關(guān),那么ri將會(huì)較小.相關(guān)工作表明,在這種情況下,特征矩陣H與鄰接矩陣A相乘會(huì)使得特征向量hi的尺度發(fā)生變化.經(jīng)過(guò)多次卷積之后,這種數(shù)值變化可能會(huì)造成數(shù)值不穩(wěn)定、梯度爆炸或彌散等問(wèn)題.因此,本文限制了hi的數(shù)值區(qū)間,并對(duì)聚合結(jié)果進(jìn)行歸一化.在式(3)的基礎(chǔ)上,卷積層被形式化為

其中,D是圖上的度矩陣,,通過(guò)使用度矩陣進(jìn)行對(duì)稱歸一化,能夠消除示例包中與當(dāng)前示例相關(guān)的數(shù)量對(duì)卷積運(yùn)算結(jié)果的數(shù)值范圍產(chǎn)生的影響,從而有利于模型收斂.

最后,參照現(xiàn)有圖卷積領(lǐng)域的研究成果[12],本文類比歐氏空間中卷積運(yùn)算的權(quán)重共享機(jī)制,使用一個(gè)參數(shù)矩陣W對(duì)聚合結(jié)果進(jìn)行仿射變換,提取聚合結(jié)果中與隱寫(xiě)者檢測(cè)相關(guān)的示例間共享的模式特征,數(shù)學(xué)上可以表示為

其中,W表示對(duì)聚合結(jié)果進(jìn)行仿射變換的可訓(xùn)練的參數(shù)矩陣,特別地,本文使用Xavier 方法對(duì)其進(jìn)行了初始化.

3) 使用圖歸一化解決深層圖卷積過(guò)平滑問(wèn)題

相比于單層圖卷積網(wǎng)絡(luò),多層圖卷積網(wǎng)絡(luò)能夠顯著地大幅度提高模型性能.然而,多層圖卷積會(huì)導(dǎo)致輸出的特征產(chǎn)生過(guò)平滑的問(wèn)題,使得不同類別的節(jié)點(diǎn)特征變得不可區(qū)分.在深度學(xué)習(xí)領(lǐng)域中,現(xiàn)有工作普遍認(rèn)為歸一化技術(shù)能夠有效解決深層網(wǎng)絡(luò)的訓(xùn)練問(wèn)題.其中,批量歸一化被廣泛應(yīng)用在深度學(xué)習(xí)模型中,在批量維度進(jìn)行歸一化操作.然而,這些方法無(wú)法被直接應(yīng)用在圖卷積網(wǎng)絡(luò)中.近年來(lái),一些現(xiàn)有工作提出了圖上的歸一化方法.目前,圖歸一化被認(rèn)為能夠有效地抑制深層圖卷積過(guò)程中的過(guò)平滑問(wèn)題.因此,本文使用一種用于多示例學(xué)習(xí)的新型圖歸一化方法.

一方面,本文不希望在圖卷積運(yùn)算后,示例包內(nèi)的節(jié)點(diǎn)表征趨于一致,即示例包內(nèi)的節(jié)點(diǎn)的特征分布塌縮到向量空間中的一點(diǎn),因此本文提出在圖卷積運(yùn)算后對(duì)包內(nèi)示例節(jié)點(diǎn)的特征分布進(jìn)行重整,重新將示例包中示例的特征向量縮放到模長(zhǎng)為1 的向量空間內(nèi).另一方面,為防止均值偏移過(guò)大導(dǎo)致出現(xiàn)神經(jīng)元壞死現(xiàn)象,本文同時(shí)矯正示例特征向量所處向量空間的均值.數(shù)學(xué)上,歸一化后的示例節(jié)點(diǎn)的特征向量si可以表示為

其中,Ni為圖中第i個(gè)示例節(jié)點(diǎn)的所有鄰居節(jié)點(diǎn).

實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn),在多示例學(xué)習(xí)中,示例包內(nèi)示例特征的均值信息和尺度信息分別獨(dú)立地對(duì)模型性能產(chǎn)生影響.在一個(gè)示例包內(nèi),當(dāng)所有或大多數(shù)示例的特征向量都帶有正示例的模式或者負(fù)示例的模式時(shí),示例特征的均值能夠有效幫助區(qū)分該示例包.在一個(gè)示例包內(nèi),當(dāng)其同時(shí)包含數(shù)量相當(dāng)?shù)恼纠拓?fù)示例時(shí),示例包內(nèi)示例特征的方差較大,則說(shuō)明示例包內(nèi)同時(shí)包含兩種示例,即必然包含正示例,因此示例包的方差也能夠有效區(qū)分該示例包.綜合上述兩點(diǎn),相比于傳統(tǒng)的先進(jìn)行均值歸一化,再將均值歸一化的結(jié)果進(jìn)行尺度歸一化的圖歸一化方法,本文將均值歸一化和尺度歸一化解耦,同時(shí)基于輸入節(jié)點(diǎn)特征向量rj進(jìn)行歸一化.

接著,本文使用ReLU 對(duì)示例包內(nèi)歸一化后的示例節(jié)點(diǎn)特征si進(jìn)行激活,得到示例包和示例表征,S=[ReLU(s1),···,ReLU(sn)]T.

4) 使用殘差連接計(jì)算新的示例表征

由于圖像內(nèi)容的差異,圖中的一些節(jié)點(diǎn)與其他同類節(jié)點(diǎn)特征的相似度較小,因此,其對(duì)應(yīng)的特征可能會(huì)在多層卷積中丟失.為緩解該問(wèn)題,本文參照相關(guān)工作構(gòu)建一個(gè)殘差連接層,將共性增強(qiáng)圖卷積模塊的輸入特征H直接與圖歸一化的輸出特征S相連.數(shù)學(xué)上,可以將殘差連接層定義為

其中,T表示殘差連接操作的輸出特征矩陣,T=[t1,···,tn]T,其中ti為共性增強(qiáng)圖卷積模塊輸出的第i個(gè)示例特征.

2.3 基于注意力的示例包表征

在使用共性增強(qiáng)圖卷積網(wǎng)絡(luò)進(jìn)行示例分析后,為對(duì)示例包進(jìn)行正確檢測(cè),還需要根據(jù)示例特征構(gòu)建示例包的特征表示.本文將用戶x經(jīng)過(guò)共性增強(qiáng)圖卷積模塊的輸出表示為Zx=[z1,···,zn]T.其中,zi對(duì)應(yīng)于第i張圖片進(jìn)行示例分析后的特征表示.現(xiàn)有的隱寫(xiě)者檢測(cè)工作通常將用戶分享的每張圖片視為同等重要的個(gè)體,根據(jù)用戶分享的所有圖像的特征分布作為用戶的特征分布,計(jì)算用戶之間的差異并檢測(cè)異常用戶作為隱寫(xiě)者.然而,在載密圖像占比較小或是載密圖像包含的嵌入信息較少的情況下,隱寫(xiě)者的表征將與正常用戶的表征極為相近,無(wú)法有效檢測(cè)出隱寫(xiě)者.

為解決該問(wèn)題,本文依托對(duì)隱寫(xiě)者檢測(cè)任務(wù)的多示例學(xué)習(xí)形式化,提出注意力示例包表征模塊,自適應(yīng)地構(gòu)建更具有區(qū)分力的示例包表征.與多示例學(xué)習(xí)的定義一致,只要示例包中包含至少一個(gè)正示例,該示例包就應(yīng)當(dāng)被判定為正示例包.因此,帶有正示例模式特征的示例包,在表征和示例包檢測(cè)的過(guò)程中應(yīng)當(dāng)被予以更多的關(guān)注.基于上述考慮,本文設(shè)計(jì)注意力讀出模塊(圖2(b)),根據(jù)示例中包含的正負(fù)示例模式對(duì)示例包中的示例賦予不同權(quán)值,形成示例包的表征.

為自適應(yīng)地識(shí)別示例包中符合正示例模式特征的示例,并對(duì)其施加更顯著的注意力,本文使用注意力計(jì)算函數(shù)g(·) 來(lái)根據(jù)示例的特征分布計(jì)算其對(duì)應(yīng)示例在示例包表征過(guò)程中的重要程度.其中注意力計(jì)算函數(shù)g(·) 包括兩個(gè)全連接層,在第一個(gè)全連接層后,使用ReLU 作為激活函數(shù).在訓(xùn)練過(guò)程中,模型通過(guò)調(diào)整g(·) 中的訓(xùn)練參數(shù),將能夠針對(duì)符合正示例模式特征的示例輸出更高的數(shù)值.

在此基礎(chǔ)上,使用Softmax 函數(shù)對(duì)示例包中所有示例的重要程度進(jìn)行歸一化,得到每個(gè)示例在表征示例包過(guò)程中的權(quán)重得分pi

接著,使用式(8)中計(jì)算得到的權(quán)重值作為權(quán),以示例包中每個(gè)示例特征的加權(quán)平均作為示例包的表征ux

相比于現(xiàn)有工作中使用平均、合并等方法建立的示例包表征,本文提出的示例包表征方法能夠自適應(yīng)地學(xué)習(xí)并對(duì)正示例賦予更高的權(quán)重,從而提高示例包表征的區(qū)分能力.

2.4 基于多種損失約束的示例包分類

在得到基于注意力的示例包表征ux之后,將其送入由一個(gè)全連接層和一個(gè)Softmax 激活函數(shù)構(gòu)成的分類器,最終完成示例包的分類任務(wù).需要注意的是,本文提出的模型其訓(xùn)練過(guò)程和測(cè)試過(guò)程有所不同,在訓(xùn)練過(guò)程中,以示例包的分類作為目標(biāo),而在測(cè)試的過(guò)程中,采用與以往隱寫(xiě)者檢測(cè)一致的實(shí)驗(yàn)設(shè)置,即將預(yù)測(cè)的隱寫(xiě)者概率最高的用戶作為隱寫(xiě)者輸出.

本文設(shè)計(jì)的模型MILGCN 在優(yōu)化過(guò)程中是端到端的,即,使用多個(gè)損失函數(shù)加權(quán)求和,并將得到的損失進(jìn)行反向傳播,更新網(wǎng)絡(luò)中的所有模塊.在訓(xùn)練分類模型的過(guò)程中,所使用的損失函數(shù)由三部分構(gòu)成

其中,Lbag為多示例分類損失,Lentropy為熵正則損失,Lcontrastive為對(duì)比學(xué)習(xí)損失.λ1,λ2,λ3為三個(gè)超參數(shù),分別表示多示例分類損失、熵正則損失和對(duì)比學(xué)習(xí)損失作為訓(xùn)練目標(biāo)的權(quán)重.下面分別介紹三個(gè)損失函數(shù).

多示例分類損失: 多示例分類損失用于指導(dǎo)模型對(duì)隱寫(xiě)者和正常用戶進(jìn)行正確分類.復(fù)雜的樣本特征可能會(huì)導(dǎo)致這些示例(圖像)的預(yù)測(cè)結(jié)果有較大偏差,對(duì)于最終分類結(jié)果的意義有限,并不能得到令人滿意的包的預(yù)測(cè)結(jié)果.與此相反,相比于注重示例的準(zhǔn)確性,多示例學(xué)習(xí)更注重包的預(yù)測(cè)標(biāo)簽是否符合真實(shí)標(biāo)簽.因此,本文提出一個(gè)多示例分類損失來(lái)優(yōu)化圖卷積神經(jīng)網(wǎng)絡(luò).如式(11)所示,使用包(用戶)的二分類邏輯損失來(lái)優(yōu)化模型,使最終輸出結(jié)果能夠?qū)﹄[寫(xiě)者和正常用戶進(jìn)行分類

其中,Yi表示第i個(gè)用戶(包)的標(biāo)簽,模型預(yù)測(cè)其為隱寫(xiě)者的概率為ρi,m表示用戶(包)的總數(shù)量.多示例分類損失忽略單個(gè)示例類別的不確定性,而更重視全局信息,這增強(qiáng)了整個(gè)框架的魯棒性.

熵正則損失: 熵正則損失用于指導(dǎo)模型在根據(jù)示例表征構(gòu)建示例包表征的過(guò)程中,利用先驗(yàn)信息抓取帶有正示例模式特征的示例,構(gòu)建示例包的表征.現(xiàn)有的隱寫(xiě)者檢測(cè)相關(guān)工作已經(jīng)表明,隱寫(xiě)者在分享圖像和嵌入秘密信息的過(guò)程中有多種策略選擇.對(duì)于固定的有效載荷,隱寫(xiě)者可能將有效載荷分散在多數(shù)分享圖像中,每張載密圖像的嵌入信息較少,這時(shí),關(guān)注盡可能多的分享圖像,即使用分享圖像特征的均值作為用戶表征能夠更有效地檢測(cè)隱寫(xiě)者.隱寫(xiě)者也可能將有效載荷分散在少數(shù)分享圖像中,每張載密圖像的嵌入信息較多,這時(shí),關(guān)注盡可能少的分享圖像,使用最有嫌疑的圖像特征作為用戶表征則更為高效.

盡管本文設(shè)計(jì)的注意力模塊能夠自適應(yīng)地學(xué)習(xí)攻擊不同的隱寫(xiě)策略,能夠通過(guò)學(xué)習(xí)判別應(yīng)當(dāng)關(guān)注的示例,但是,當(dāng)隱寫(xiě)者檢測(cè)人員明確知曉訓(xùn)練集合中隱寫(xiě)者使用的嵌入策略時(shí),本文也提供了損失函數(shù)融入隱寫(xiě)者檢測(cè)人員對(duì)于嵌入策略的先驗(yàn)知識(shí),幫助模型更快收斂,提升模型性能

其中,λe為超參數(shù),當(dāng)隱寫(xiě)者檢測(cè)人員認(rèn)為隱寫(xiě)者更可能將有效載荷分散在較少的分享圖像中時(shí),λe將被設(shè)置成+1.通過(guò)最小化Lentropy,模型將學(xué)習(xí)給出低熵的示例包構(gòu)建方式,即,以更大的概率對(duì)盡可能少的正示例賦予更大權(quán)重,作為示例包的表征.這種損失設(shè)計(jì)有利于模型在正示例占比較低時(shí),仍能分辨出其中正示例的模式特征.反之,當(dāng)隱寫(xiě)者檢測(cè)人員認(rèn)為隱寫(xiě)者更可能將秘密信息以較低有效載荷分散在較多的分享圖像中時(shí),λe將被設(shè)置成-1.通過(guò)最小化Lentropy,模型將學(xué)習(xí)給出高熵的示例包構(gòu)建方式,即,使用盡可能多的正示例特征相互佐證,檢測(cè)隱寫(xiě)者.

對(duì)比學(xué)習(xí)損失: 對(duì)比學(xué)習(xí)損失用于引導(dǎo)模型在提取示例特征、構(gòu)建示例包的過(guò)程中,盡量保留示例間的關(guān)聯(lián)關(guān)系和差異性.對(duì)比學(xué)習(xí)旨在將包含同類模式特征(例如正示例特征)的示例表征映射到向量空間中相近的區(qū)域,對(duì)包含不同類別模式特征的示例表征進(jìn)行區(qū)分,映射到相距較遠(yuǎn)的區(qū)域,從而幫助構(gòu)建有效的圖結(jié)構(gòu)進(jìn)行示例分析和示例包表征.

正如上文中提到的,由于圖像特征的復(fù)雜性,直接對(duì)示例的模式特征進(jìn)行約束可能會(huì)導(dǎo)致因圖像內(nèi)容的差異而得到不令人滿意的映射函數(shù).因此,相比于直接使用示例特征進(jìn)行引導(dǎo),本文受到多示例學(xué)習(xí)的啟發(fā),通過(guò)引導(dǎo)模型保留同類示例包間的相似性、不同類示例包間的差異性,間接地迫使模型保留作為示例包組成部分的主要示例特征間的相似性和差異性.最終,提出對(duì)比學(xué)習(xí)損失

其中,?(i,j) 為指示函數(shù),用于指示示例包i和示例包j是否為同一類別的示例包.當(dāng)示例包i和示例包j同時(shí)為正示例包或負(fù)示例包時(shí),?(i,j)=1;當(dāng)示例包i和示例包j中的一個(gè)為正示例包、一個(gè)為負(fù)示例包時(shí),?(i,j)=0.當(dāng)示例包屬于同一類別時(shí),對(duì)比學(xué)習(xí)損失最小化兩示例包表征間的歐氏距離‖ui-uj‖2,提高同類示例包特征及其包含示例特征的相似性.當(dāng)示例包不屬于同一類別時(shí),對(duì)比學(xué)習(xí)損失最小化兩示例包表征間的歐氏距離的相反數(shù)-‖ui-uj‖2,提高不同類別示例包特征及其包含示例特征的差異性.因此該損失可以最大化不同類別示例包間的差異,最小化相同類別示例包間的差異,以區(qū)分不同類別的示例和示例包.

3 實(shí)驗(yàn)評(píng)估

為驗(yàn)證所提出的模型,本文在兩個(gè)隱寫(xiě)者檢測(cè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行一系列驗(yàn)證實(shí)驗(yàn).首先,使用隱寫(xiě)者檢測(cè)基準(zhǔn)數(shù)據(jù)集對(duì)所提出的MILGCN 模型在隱寫(xiě)者使用不同隱寫(xiě)術(shù)時(shí)的檢測(cè)性能進(jìn)行驗(yàn)證.在空域中,本文在標(biāo)準(zhǔn)數(shù)據(jù)集BOSSbase ver 1.01[20]上進(jìn)行實(shí)驗(yàn),對(duì)不同方法檢測(cè)使用空域隱寫(xiě)術(shù)的隱寫(xiě)者的性能進(jìn)行對(duì)比分析.在頻域中,使用JPEG算法在80 質(zhì)量因子的參數(shù)下對(duì)BOSSbase ver 1.01上的圖像進(jìn)行壓縮,將其中的圖像轉(zhuǎn)換為JPEG 圖像,并在得到的BOSSbase ver 1.01 JPEG 基準(zhǔn)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)[21],對(duì)不同方法檢測(cè)使用頻域隱寫(xiě)術(shù)的隱寫(xiě)者的性能進(jìn)行對(duì)比分析.與之前隱寫(xiě)者檢測(cè)的已有工作一致,本文使用的方法和對(duì)比方法都采用真陽(yáng)性率進(jìn)行評(píng)估.

本文在實(shí)驗(yàn)過(guò)程中對(duì)比分析了大量不同隱寫(xiě)者檢測(cè)算法.其中包括: 結(jié)合傳統(tǒng)隱寫(xiě)分析模型SRMQ1[22]與層次聚類的隱寫(xiě)者檢測(cè)框架SRMQ1_SD,目前最前沿的隱寫(xiě)者檢測(cè)方法MDNNSD,結(jié)合基于生成對(duì)抗網(wǎng)絡(luò)(Generative adversarial network,GAN) 的隱寫(xiě)方法SSGAN[23]與層次聚類的隱寫(xiě)者檢測(cè)框架得出的SSGAN_SD,多示例學(xué)習(xí)任務(wù)中的前沿方法MILNN[24],著名的基于圖的模型GAT[15]、GraphSAGE[13]、AGNN[25]、GCN[12]和DiffPool[14],以及迄今為止唯一用于隱寫(xiě)者檢測(cè)任務(wù)的基于圖的深度學(xué)習(xí)模型SAGCN.其中,MDNNSD 是基于深度學(xué)習(xí)提取特征,再與傳統(tǒng)的聚類方法結(jié)合的隱寫(xiě)者檢測(cè)方法[7].相比于其他現(xiàn)有隱寫(xiě)者檢測(cè)方法,例如PEV_SD 和基于最前沿隱寫(xiě)分析方法XuNet[26]構(gòu)建的隱寫(xiě)者檢測(cè)框架XuNet_SD,MDNNSD 取得了最好的隱寫(xiě)者檢測(cè)性能.因此,本文選取MSD 作為代表,進(jìn)行著重的對(duì)比分析.近年來(lái),基于GAN 的隱寫(xiě)術(shù)和隱寫(xiě)分析技術(shù)取得了巨大的成功,因此,本文將已有的基于GAN 的隱寫(xiě)方法SSGAN 與層次聚類的隱寫(xiě)者檢測(cè)方法結(jié)合,得到隱寫(xiě)者檢測(cè)框架SSGAN_SD,來(lái)對(duì)本文提出的模型與基于GAN 的隱寫(xiě)者檢測(cè)模型進(jìn)行對(duì)比.特別地,在對(duì)比過(guò)程中,本文使用GAN 方法學(xué)習(xí)得到的判別器被用作特征提取器,用來(lái)從用戶分享的圖像中提取隱寫(xiě)分析特征,并在此基礎(chǔ)上使用MMD 距離度量用戶表征之間的差異,并使用層次分析算法來(lái)檢測(cè)隱寫(xiě)者.為說(shuō)明本文設(shè)計(jì)的MILGCN 在圖結(jié)構(gòu)和圖卷積方向上的性能提升,本文對(duì)比了Zhang 等[8-9]設(shè)計(jì)的SAGCN 模型,并使用著名的基于圖的方法(例如GAT、GraphSAGE、AGNN、GCN 和DiffPool) 中的圖卷積層替換SAGCN框架中的核心部分——相似度累積圖卷積單元,來(lái)與其他基于圖的深度學(xué)習(xí)算法進(jìn)行比較.

就實(shí)驗(yàn)設(shè)置而言,在對(duì)本文提出的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行驗(yàn)證時(shí),將MILGCN 中共性增強(qiáng)圖卷積模塊的數(shù)量λb設(shè)置為2 個(gè),并使用λ1=1.0 作為多示例分類損失的權(quán)重,λ2=0.01 作為熵正則損失的權(quán)重,λ3=0.01作為對(duì)比學(xué)習(xí)損失的權(quán)重.這三種損失函數(shù)的權(quán)重設(shè)置遵循重要性原則,多示例分類損失是為之后的檢測(cè)服務(wù)的,是本文的任務(wù)目標(biāo),因此其權(quán)重比其他兩種大.另外,將權(quán)重值在{-10,-1,-0.10,-0.01, 0.01, 0.10, 1, 10}范圍中進(jìn)行搜索,選取較好的結(jié)果.在訓(xùn)練階段,本文使用隨機(jī)梯度下降法來(lái)最小化損失函數(shù),初始學(xué)習(xí)率設(shè)置為0.001,動(dòng)量設(shè)置為0.9.本文還使用L2 正則化以避免過(guò)擬合并提高泛化能力,并將正則化項(xiàng)的權(quán)重設(shè)置為0.01.本文的實(shí)驗(yàn)設(shè)置與基于圖卷積的隱寫(xiě)者檢測(cè)方法SAGCN[8-9]基本相同,唯一的區(qū)別是本文中設(shè)計(jì)的MILGCN 模型無(wú)須使用序列訓(xùn)練方法,即可有效收斂并檢測(cè)使用不同有效載荷的隱寫(xiě)者.在實(shí)驗(yàn)過(guò)程中,給定基準(zhǔn)數(shù)據(jù)集BOSSbase ver 1.01 和BOSSbase ver 1.01 JPEG,首先使用實(shí)驗(yàn)中所探究的隱寫(xiě)術(shù),從0.5 到0.05 的嵌入率,生成載體圖像對(duì)應(yīng)的載密圖像.對(duì)于每種嵌入率,分別有20 000張載體圖像和載密圖像.每個(gè)批次的訓(xùn)練中生成50 個(gè)正常用戶,每個(gè)用戶分享200 張從20 000 張載體圖像中有放回抽樣得到的載體圖像;生成50 個(gè)隱寫(xiě)者,每個(gè)隱寫(xiě)者分享200 張從20 000 張載密圖像中有放回抽樣得到的載密圖像.本文在訓(xùn)練集上訓(xùn)練80 輪,每輪訓(xùn)練包含600 個(gè)批次,每個(gè)批次包含100 個(gè)用戶樣本,因此共60 000 個(gè)用戶混合在一起隨機(jī)打亂,作為訓(xùn)練集訓(xùn)練MILGCN.在測(cè)試階段,每次實(shí)驗(yàn)中的用戶數(shù)量被設(shè)置為100,包括1 名隱寫(xiě)者和99 名正常用戶,每個(gè)用戶分享200 張圖像.該實(shí)驗(yàn)設(shè)置模擬了真實(shí)環(huán)境中經(jīng)常出現(xiàn)的現(xiàn)象,即在眾多用戶中只有1 名隱寫(xiě)者或者不存在隱寫(xiě)者.在不同實(shí)驗(yàn)中,使用不同的隱寫(xiě)術(shù)和有效載荷生成隱寫(xiě)者分享的載密圖像,使用的隱寫(xiě)術(shù)包括: SUNIWARD[27]、HUGO-BD[28]、WOW[29]、MiPod[30]、J-UNIWARD[27]、nsF5[31]、UERD[32]等.與之前已有的隱寫(xiě)者檢測(cè)工作一致,所有的統(tǒng)計(jì)實(shí)驗(yàn)都重復(fù)100 次,并在文中匯報(bào)平均的檢測(cè)準(zhǔn)確率,即真陽(yáng)率.衡量嵌入率的單位分為空域的bpp (Bit per pixel)和頻率域的bpnzAC (Bit per non zero DCT coefcient),前者表示每像素嵌入的比特?cái)?shù),后者表示每個(gè)非零的DCT 系數(shù)中嵌入的比特?cái)?shù).此外,本文中的全部模型及實(shí)驗(yàn)使用PyTorch 在4 張Tesla V100上完成.

3.1 基于空域的隱寫(xiě)者檢測(cè)性能評(píng)估與對(duì)比

3.1.1 已知隱寫(xiě)術(shù)情況下的隱寫(xiě)者檢測(cè)

在本節(jié)中,本文在最常使用的隱寫(xiě)者檢測(cè)基準(zhǔn)數(shù)據(jù)集BOSSbase ver 1.01 上進(jìn)行初步實(shí)驗(yàn),在已知測(cè)試階段圖像隱寫(xiě)者所使用的隱寫(xiě)術(shù)的條件下,對(duì)所提出的模型的效率和效果進(jìn)行檢驗(yàn).具體而言,隱寫(xiě)者檢測(cè)基準(zhǔn)數(shù)據(jù)集BOSSbase ver 1.01 中包含10 000 張自然圖像的灰度圖,其尺寸為512×512像素.根據(jù)之前隱寫(xiě)分析和隱寫(xiě)者檢測(cè)任務(wù)的通用實(shí)驗(yàn)設(shè)置[7-9,33],本文將數(shù)據(jù)集中的每張圖像切分為4 個(gè)互相不重疊子圖,其中子圖的尺寸為256×256像素.與前文描述的將所有載荷的樣本進(jìn)行訓(xùn)練不同,在此實(shí)驗(yàn)的訓(xùn)練階段,只使用S-UNIWARD 隱寫(xiě)術(shù)在給定有效載荷下對(duì)每張載體圖像嵌入秘密信息得到對(duì)應(yīng)的載密圖像,進(jìn)而將得到的載體圖像和載密圖像組合為用戶作為訓(xùn)練樣本.在訓(xùn)練階段的每個(gè)批次中,本文采樣50 名正常用戶,每名正常用戶分享200 張載體圖像,并采樣50 名隱寫(xiě)者,每名隱寫(xiě)者分享200 張載密圖像,每輪訓(xùn)練采樣100 個(gè)批次的用戶對(duì)模型進(jìn)行優(yōu)化.

同樣地,測(cè)試樣本由剩余的20 000 張圖像使用同樣的方法構(gòu)成.在測(cè)試階段的每次實(shí)驗(yàn)中,被測(cè)方法被要求從100 名用戶中檢測(cè)出1 名隱寫(xiě)者.特別地,本文在20 000 張載體圖像中隨機(jī)選擇200 張載體圖像對(duì)應(yīng)的載密圖像,構(gòu)成1 名圖像隱寫(xiě)者,剩余的19 800 張載體圖像被隨機(jī)選擇并分配給99個(gè)正常用戶.為驗(yàn)證在隱寫(xiě)者檢測(cè)人員已知隱寫(xiě)者使用的圖像隱寫(xiě)術(shù)時(shí)本文提出方法的有效性,在本節(jié)實(shí)驗(yàn)中保持測(cè)試階段隱寫(xiě)者使用的圖像隱寫(xiě)術(shù)與訓(xùn)練階段相同.即,在訓(xùn)練階段,本文隱寫(xiě)者使用SUNIWARD 作為圖像隱寫(xiě)術(shù)嵌入秘密信息生成載密圖像,在生成的60 000 個(gè)用戶中,隱寫(xiě)者使用的有效載荷包括0.05 bpp、0.1 bpp、0.2 bpp、0.3 bpp、0.4 bpp 和0.5 bpp.在測(cè)試階段,隱寫(xiě)者分享的每張圖像中同樣只包含使用S-UNIWARD 圖像隱寫(xiě)術(shù)嵌入的秘密信息.本文分別在5 種不同的有效載荷上進(jìn)行測(cè)試,其中包括0.05 bpp、0.1 bpp、0.2 bpp、0.3 bpp 和0.4 bpp.

如表2 所示,本文首先對(duì)比隱寫(xiě)者檢測(cè)中的相關(guān)工作.根據(jù)相關(guān)工作[7],MDNNSD 和XuNet_SD這些隱寫(xiě)分析方法直接用于隱寫(xiě)者檢測(cè)任務(wù)的檢測(cè)結(jié)果對(duì)比,會(huì)取得更好的檢測(cè)效果.然而,與現(xiàn)有的在實(shí)驗(yàn)環(huán)境中進(jìn)行研究的隱寫(xiě)者檢測(cè)任務(wù)不同,在實(shí)際應(yīng)用中,圖像隱寫(xiě)者通常會(huì)使用批量隱寫(xiě)術(shù),將秘密信息分散在多張圖像中,使用較小的嵌入率在每張圖像中嵌入秘密信息,從而隱蔽自己.所以本文更關(guān)注在困難情況下,即當(dāng)有效載荷較低時(shí),不同方法是否能夠檢測(cè)出圖像隱寫(xiě)者.因此,本文進(jìn)一步對(duì)比圖卷積神經(jīng)網(wǎng)絡(luò)在隱寫(xiě)者檢測(cè)中的應(yīng)用效果.正如上文所提到的,當(dāng)有效載荷小于0.1 bpp時(shí),SAGCN、MILGCN 和其他基于圖深度學(xué)習(xí)的模型都能夠取得比MDNNSD 更好的性能.與之相對(duì)的是,本文提出的MILGCN 進(jìn)一步超越了SAGCN,在有效載荷為0.05 bpp 的困難情況下取得了更好的隱寫(xiě)者檢測(cè)效果.盡管生成對(duì)抗網(wǎng)絡(luò)在很多領(lǐng)域取得了突破進(jìn)展[34-41],但SSGAN_SD 效果較差,這主要是因?yàn)镾SGAN 原本設(shè)計(jì)的目的是通過(guò)對(duì)抗訓(xùn)練得到一種自適應(yīng)的隱寫(xiě)術(shù)而不是得到隱寫(xiě)分析模型,因此在設(shè)計(jì)過(guò)程中,相對(duì)于其他工作,SSGAN_SD 的判別器結(jié)構(gòu)簡(jiǎn)單、判別能力差.

表2 已知隱寫(xiě)者使用相同圖像隱寫(xiě)術(shù)(S-UNIWARD) 時(shí)的隱寫(xiě)者檢測(cè)準(zhǔn)確率(%),嵌入率從0.05 bpp 到0.4 bppTable 2 Steganography detection accuracy rate (%)when steganographers use the same image steganography(S-UNIWARD),while the embedding payload is from 0.05 bpp to 0.4 bpp

正如上文所提到的,本文創(chuàng)新性地提出將隱寫(xiě)者檢測(cè)任務(wù)形式化為多示例學(xué)習(xí)問(wèn)題,從而開(kāi)辟了將現(xiàn)有多示例學(xué)習(xí)方法應(yīng)用于隱寫(xiě)者檢測(cè)任務(wù)的路徑.因此,本文進(jìn)一步將此前Pevny 等[24]提出的最優(yōu)的多示例學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)應(yīng)用在隱寫(xiě)者檢測(cè)問(wèn)題中進(jìn)行對(duì)比.具體而言,一方面,本文沿用Pevny 等[24]在論文中匯報(bào)的設(shè)置,自行在隱寫(xiě)者檢測(cè)問(wèn)題上復(fù)現(xiàn)其提出的方法,將該方法稱為MILNN-self,并提供了MILNN-self 的隱寫(xiě)者檢測(cè)性能.另一方面,本文也參考并應(yīng)用Github 社區(qū)中實(shí)現(xiàn)的Pevny 等[24]提出的方法,并提供了其在隱寫(xiě)者檢測(cè)任務(wù)上的實(shí)驗(yàn)結(jié)果,后者稱其為MILNN-git.值得注意的是,MILNN-git 中的模型實(shí)現(xiàn)與Pevny 等[24]的工作略有不同,其模型包含了一個(gè)隱藏層、一個(gè)平均最大池化層和兩個(gè)輸出單元,除了最后一個(gè)輸出單元使用Tanh 作為激活函數(shù)外,所有隱藏層使用Sigmoid作為激活函數(shù),模型在訓(xùn)練過(guò)程中最小化交叉熵?fù)p失.實(shí)驗(yàn)結(jié)果表明,MILNN-git 能夠在隱寫(xiě)者檢測(cè)問(wèn)題上取得比MDNNSD 更好的效果.同時(shí),無(wú)論隱寫(xiě)者使用的有效載荷如何變化,本文提出的多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)都強(qiáng)于任何版本的MILNN 多示例學(xué)習(xí)模型.

除此以外,本文還比較了傳統(tǒng)圖歸一化方法和本文提出的新型圖歸一化方法.具體而言,將本文中使用的歸一化方法修改為傳統(tǒng)圖歸一化方法(即先進(jìn)行均值歸一化再將均值歸一化的結(jié)果進(jìn)行尺度歸一化),得到MILGCN-MF 模型作為對(duì)比方法.從表2 中可以看出,在隱寫(xiě)者使用的有效載荷較高時(shí)(大于等于0.1 bpp),MILGCN-MF 和MILGCN 的性能沒(méi)有差異,都能夠有效檢測(cè)出100 名用戶中包含的隱寫(xiě)者,這表明在簡(jiǎn)單情況下,兩種歸一化方法都能夠有效地幫助模型構(gòu)建具有區(qū)分能力的示例表征.但是,當(dāng)有效載荷較低時(shí)(為0.05 bpp),MILGCN-MF 的性能產(chǎn)生了約 30% 的下滑.當(dāng)隱寫(xiě)者分享的有效載荷較低時(shí),正示例包和負(fù)示例包分布相近,特征差異不明顯.在這種情況下,使用原有的圖歸一化方法導(dǎo)致性能下降,意味著先進(jìn)行均值歸一化再進(jìn)行方差歸一化使得部分特征的區(qū)分能力丟失.與此相對(duì),本文提出的圖歸一化方法能夠記錄原始特征中的均值和方差,在歸一化的過(guò)程中保留和識(shí)別特征分布間的差異,得到更好的檢測(cè)效果.

最近還有一些新的隱寫(xiě)分析方法被提出,如果不采用層次聚類的方法將其改造為隱寫(xiě)者檢測(cè)方法,而是使用其隱寫(xiě)分析模型的輸出概率作為每張圖像是載密圖像的概率,并使用用戶的所有圖像預(yù)測(cè)為載密圖像的平均概率作為該用戶為隱寫(xiě)者的概率,也可以得到與最新的隱寫(xiě)分析方法相比較的結(jié)果.具體而言,在訓(xùn)練階段,隱寫(xiě)者使用S-UNIWARD作為圖像隱寫(xiě)術(shù),隱寫(xiě)者檢測(cè)模型學(xué)習(xí)在正常用戶中檢測(cè)使用0.2 bpp 嵌入率對(duì)分享圖像嵌入秘密信息的隱寫(xiě)者.這里,隱寫(xiě)者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.在測(cè)試階段,模型需要從100 名用戶中找出1 名隱寫(xiě)者.其中,每名用戶分享200 張圖像,隱寫(xiě)者仍然使用SUNIWARD 作為圖像隱寫(xiě)術(shù),使用0.2 bpp 嵌入率對(duì)分享圖像嵌入秘密信息.根據(jù)實(shí)驗(yàn)的不同,隱寫(xiě)者分享的載密圖像可能占比其分享的所有圖像的10%、3 0%、5 0%、9 0% 或 1 00%.本文進(jìn)行100 次實(shí)驗(yàn),并記錄模型在隱寫(xiě)者檢測(cè)過(guò)程中的平均準(zhǔn)確率,如表3 所示.在SRNet-AVG 方法中,本文將SRNet[42]直接用于隱寫(xiě)者檢測(cè),預(yù)測(cè)用戶分享的每一張圖像可能是載密圖像的概率,并使用該用戶的每一張圖像預(yù)測(cè)為載密圖像的平均概率作為該用戶為隱寫(xiě)者的概率.在SRNet-MILGCN 方法中,使用本文提出的MILGCN 作為隱寫(xiě)者檢測(cè)算法,將SRNet 提取的特征作為MILGCN 的輸入預(yù)測(cè)用戶為隱寫(xiě)者的概率.由表3 可見(jiàn),無(wú)論使用哪種方法,模型都能夠在載密圖像占比超過(guò) 1 0% 的情況下有效檢測(cè)出隱寫(xiě)者.這是由于隱寫(xiě)者使用的隱寫(xiě)術(shù)和有效載荷已知,訓(xùn)練好的SRNet 能夠較為準(zhǔn)確地檢測(cè)出使用該隱寫(xiě)術(shù)和載荷嵌入秘密信息的載密圖像.當(dāng)隱寫(xiě)者分享的載密圖像較多時(shí),數(shù)量眾多的載密圖像容易被SRNet 檢測(cè)到,從而使得隱寫(xiě)者區(qū)別于正常用戶.而當(dāng)載密圖像占其分享的所有圖像比例較低時(shí),SRNet-AVG 和SRNet-MILGCN 都產(chǎn)生了較大的性能下滑,相比于SRNet-AVG,本文提出的SRNet-MILGCN 取得了接近 1 0% 的性能提升,表明本文設(shè)計(jì)的模型能夠更好地對(duì)抗將隱秘信息嵌入較少圖像的批量隱寫(xiě)策略.這是由于MILGCN 能夠利用共性增強(qiáng)圖卷積網(wǎng)絡(luò)和注意力圖讀出模塊自適應(yīng)地突出示例包中正示例的模式特征,構(gòu)建示例包表征進(jìn)行分類.在這種設(shè)計(jì)下,正示例所對(duì)應(yīng)的載密圖像的模式特征更容易被模型發(fā)現(xiàn).

表3 當(dāng)測(cè)試階段隱寫(xiě)者使用相同隱寫(xiě)術(shù)(S-UNIWARD)和分享的載密圖像數(shù)量占總圖像數(shù)量為10%到100%時(shí),SRNet-AVG 和SRNet-MILGCN 的檢測(cè)成功率 (%)Table 3 The accurate rate (%) of SRNet-AVG and SRNet-MILGCN when the number of shared secret images is from 10% to 100% of the total number of images and the steganographer uses the same steganography(S-UNIWARD) in test

3.1.2 對(duì)用戶分享圖像數(shù)量變化的探究

在真實(shí)應(yīng)用場(chǎng)景的社交網(wǎng)絡(luò)中,用戶分享的圖像數(shù)量是海量的.因此,本文進(jìn)一步松弛現(xiàn)有工作在實(shí)驗(yàn)中對(duì)用戶分享的圖像數(shù)量的約束,在隱寫(xiě)者檢測(cè)任務(wù)上進(jìn)行實(shí)驗(yàn)來(lái)研究用戶分享的圖像數(shù)量對(duì)隱寫(xiě)者檢測(cè)性能的影響.具體而言,本節(jié)保持其他設(shè)置與第3.1.1 節(jié)中的實(shí)驗(yàn)設(shè)置相同,驗(yàn)證當(dāng)用戶分享圖像的數(shù)量為100、200、400 和600 張時(shí),模型檢測(cè)使用不同有效載荷在分享圖像中嵌入秘密信息的隱寫(xiě)者的性能.

如表4 所示,當(dāng)隱寫(xiě)者使用大于0.1 bpp 的有效載荷在分享圖像中嵌入秘密信息時(shí),無(wú)論隱寫(xiě)者分享的圖像數(shù)量如何變化,本文提出的MILGCN和Zhang 等[8-9]設(shè)計(jì)的SAGCN 都能夠準(zhǔn)確地檢測(cè)出隱寫(xiě)者,這說(shuō)明本文提出的方法對(duì)用戶分享圖像數(shù)量的變化具有魯棒性.當(dāng)有效載荷等于或小于0.1 bpp 時(shí),發(fā)現(xiàn)所有方法對(duì)隱寫(xiě)者的檢測(cè)性能隨著用戶分享圖像數(shù)量的減少而下降.這種現(xiàn)象是由于當(dāng)隱寫(xiě)者分享的圖像數(shù)量或有效載荷較少時(shí),隱寫(xiě)者在分享圖像中嵌入的秘密信息的總量較少,這使得隱寫(xiě)者的特征分布與正常用戶的特征分布差異較小,更加難以區(qū)分.同時(shí),由于隱寫(xiě)者和用戶都分享了較少的圖像,圖像數(shù)量的不足使得圖像間的關(guān)聯(lián)信息十分有限,模型難以利用這些關(guān)聯(lián)關(guān)系增強(qiáng)用戶所對(duì)應(yīng)的示例包中正示例的公共特征,進(jìn)而導(dǎo)致模型無(wú)法區(qū)分隱寫(xiě)者與眾多正常的用戶.

表4 當(dāng)用戶分享不同數(shù)量的圖像時(shí),使用MILGCN和SAGCN 進(jìn)行隱寫(xiě)者檢測(cè)的準(zhǔn)確率(%),嵌入率從0.05 bpp 到0.4 bppTable 4 Steganography detection accuracy rate (%)of MILGCN and SAGCN when users share different numbers of images,while the embedding payload is from 0.05 bpp to 0.4 bpp

盡管如此,無(wú)論用戶分享的圖像數(shù)量如何變化,本文設(shè)計(jì)的MILGCN 都能夠超過(guò)此前最佳隱寫(xiě)者檢測(cè)算法SAGCN,取得令人滿意的效果.值得注意的是,當(dāng)用戶分享的圖像數(shù)量為600 張時(shí),即使隱寫(xiě)者使用非常低的有效載荷,即0.05 bpp 的有效載荷嵌入秘密信息,本文提出的MILGCN 依然能夠聚合分散在示例包中正示例的模式特征,對(duì)用戶形成具有區(qū)分能力的示例包表征,并對(duì)隱寫(xiě)者進(jìn)行正確檢測(cè).

3.1.3 隱寫(xiě)術(shù)未知情況下對(duì)使用比例嵌入策略的隱寫(xiě)者檢測(cè)

在本節(jié)中,進(jìn)一步放寬兩個(gè)基礎(chǔ)假設(shè).一方面,檢測(cè)者在對(duì)社交網(wǎng)絡(luò)中用戶分享的圖像進(jìn)行分析時(shí),無(wú)法預(yù)知隱寫(xiě)者使用的圖像隱寫(xiě)術(shù).因此,本文放寬了圖像隱寫(xiě)者在訓(xùn)練階段和測(cè)試階段使用的圖像隱寫(xiě)術(shù)為相同隱寫(xiě)術(shù)的假設(shè),探討在隱寫(xiě)術(shù)錯(cuò)配情況下本文提出模型的隱寫(xiě)者檢測(cè)性能.另一方面,在真實(shí)應(yīng)用場(chǎng)景中,隱寫(xiě)者可能使用批量圖像隱寫(xiě)策略,在分享的圖像中同時(shí)分享載體圖像和載密圖像以防止自己被發(fā)現(xiàn).因此,本文放寬了隱寫(xiě)者分享的圖像都是載密圖像的假設(shè),探究隱寫(xiě)者分享的圖像中載密圖像占某一比例時(shí)模型的隱寫(xiě)者檢測(cè)性能.

具體而言,在訓(xùn)練階段,隱寫(xiě)者仍使用S-UNIWARD 作為圖像隱寫(xiě)術(shù).S-UNIWARD 在隱寫(xiě)、隱寫(xiě)分析、隱寫(xiě)者檢測(cè)任務(wù)中被認(rèn)為是更為通用的設(shè)置,常常用來(lái)作為訓(xùn)練模型中載密數(shù)據(jù)所使用的隱寫(xiě)術(shù),在本文對(duì)比方法SAGCN 中,也采用其作為隱寫(xiě)術(shù)未知情況下的實(shí)驗(yàn)設(shè)置.隱寫(xiě)者檢測(cè)模型學(xué)習(xí)在正常用戶中檢測(cè)使用0.5 bpp、0.4 bpp、0.3 bpp、0.2 bpp、0.1 bpp 或0.05 bpp 嵌入率對(duì)分享圖像嵌入秘密信息的隱寫(xiě)者.這里,隱寫(xiě)者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.

在測(cè)試階段,隱寫(xiě)者將其使用的圖像隱寫(xiě)術(shù)替換為與訓(xùn)練階段不同的隱寫(xiě)術(shù),特別地,本文中研究探討的錯(cuò)配隱寫(xiě)術(shù)包括現(xiàn)階段圖像隱寫(xiě)術(shù)和隱寫(xiě)者檢測(cè)領(lǐng)域普遍使用的HUGO-BD、WOW、HILL和MiPOD 等.在每次實(shí)驗(yàn)中,模型需要從100 名用戶中找出1 名隱寫(xiě)者.其中,每名用戶分享200張圖像,隱寫(xiě)者使用的有效載荷為0.2 bpp,根據(jù)實(shí)驗(yàn)的不同,隱寫(xiě)者分享的載密圖像可能占比其分享的所有圖像的 1 0%、3 0%、5 0%、9 0% 或 1 00%.本文進(jìn)行100 次實(shí)驗(yàn),并記錄模型在檢測(cè)隱寫(xiě)者過(guò)程中的平均準(zhǔn)確率.

圖3 展示了當(dāng)隱寫(xiě)者在測(cè)試階段使用不同圖像隱寫(xiě)術(shù)時(shí)不同方法檢測(cè)隱寫(xiě)者的性能.容易發(fā)現(xiàn),在圖像隱寫(xiě)術(shù)錯(cuò)配的情況下,無(wú)論隱寫(xiě)者選擇使用何種圖像隱寫(xiě)術(shù),當(dāng)隱寫(xiě)者分享的載密圖像占其分享圖像的數(shù)量 1 00% 時(shí),所有基于圖的模型都能夠正確檢測(cè)出隱寫(xiě)者.此外,還可以發(fā)現(xiàn)所有隱寫(xiě)者檢測(cè)方法的性能都隨著隱寫(xiě)者分享的載密圖像占比的升高而升高,這是由于當(dāng)隱寫(xiě)者分享的載密圖像占比較低時(shí),隱寫(xiě)者分享的圖像大部分為自然圖像,即載體圖像,在這種情況下,隱寫(xiě)者的表征將與正常用戶非常接近,模型難以正確區(qū)分隱寫(xiě)者和正常用戶.然而,即使在隱寫(xiě)者分享的載密圖像占比低于 5 0% 的情況下,本文提出的MILGCN 依然能夠取得較好的效果.特別的是,在大多數(shù)情況下,MILGCN 的檢測(cè)準(zhǔn)確率曲線覆蓋了其他方法的檢測(cè)準(zhǔn)確率曲線,這說(shuō)明MILGCN 能夠取得比SAGCN及其他基于圖的隱寫(xiě)者檢測(cè)方法更好的性能.這是由于本文提出的MILGCN 是針對(duì)隱寫(xiě)者檢測(cè)問(wèn)題的多示例學(xué)習(xí)形式化提出的,在設(shè)計(jì)過(guò)程中考慮了正示例占比較低的情況,能夠使用共性增強(qiáng)圖卷積網(wǎng)絡(luò)來(lái)增強(qiáng)示例包中正示例的公共模式特征,并使用基于注意力的示例包表示選擇識(shí)別到的正示例模式特征作為示例包表征,從而區(qū)分正負(fù)示例包.實(shí)驗(yàn)結(jié)果表明,本文提出的方法對(duì)不同隱寫(xiě)術(shù)具有良好的泛化性,在隱寫(xiě)者分享的載密圖像占比較低時(shí)也能取得較好的檢測(cè)性能.從圖3 中還可以發(fā)現(xiàn),GCN 的性能稍差于SAGCN,而當(dāng)隱寫(xiě)者分享的載密圖像占比較低時(shí),AGNN 檢測(cè)隱寫(xiě)者的準(zhǔn)確率都是最低的,這種差異源自于圖結(jié)構(gòu)的構(gòu)建方式不同.MILGCN 依托于示例節(jié)點(diǎn)特征間的內(nèi)積計(jì)算節(jié)點(diǎn)的關(guān)聯(lián)關(guān)系,在損失函數(shù)約束下,正示例的特征分布相近,并與負(fù)示例的特征分布區(qū)分開(kāi),因而具有共性的示例節(jié)點(diǎn)關(guān)聯(lián)關(guān)系更強(qiáng),在此基礎(chǔ)上,在圖卷積過(guò)程中,正示例間的共性特征被增強(qiáng),從而使得模型能夠構(gòu)建具備區(qū)分力的用戶表征.而GCN和SAGCN 基于熱核函數(shù)計(jì)算節(jié)點(diǎn)之間的相似度,當(dāng)隱寫(xiě)者分享的圖像中同時(shí)包含載體圖像和載密圖像時(shí),載密圖像和載體圖像所對(duì)應(yīng)圖結(jié)構(gòu)中的節(jié)點(diǎn)特征相似度較小,而載密圖像之間或載體圖像之間的節(jié)點(diǎn)特征相似度較大,在圖卷積過(guò)程中,相似的節(jié)點(diǎn)可以識(shí)別和累積載密圖像節(jié)點(diǎn)間共有的模式特征,從而區(qū)分隱寫(xiě)者和正常用戶的分布差異.與之相反的是,AGNN 在構(gòu)建圖的過(guò)程中,利用的是注意力機(jī)制,在訓(xùn)練過(guò)程中,隱寫(xiě)者分享的圖像均為載密圖像,這導(dǎo)致AGNN 缺少對(duì)構(gòu)建載體圖像與載密圖像關(guān)聯(lián)關(guān)系的泛化能力,因而性能下降.此外,GraphSAGE 使用采樣方法和平均聚合器來(lái)構(gòu)建節(jié)點(diǎn)的鄰域并進(jìn)行卷積運(yùn)算,如果載體圖像與載密圖像之間差異較大,其能夠?qū)W習(xí)到邊的權(quán)重,累積同類節(jié)點(diǎn)的特征.但對(duì)于譬如HILL 這樣難以攻擊的隱寫(xiě)術(shù),載密圖像與載體圖像之間特征分布相近,所以GraphSAGE 的效果也會(huì)有所下降,而本文提出的MILGCN 泛化性能最好.

圖3 當(dāng)測(cè)試階段隱寫(xiě)者使用不同隱寫(xiě)術(shù)、分享的載密圖像數(shù)量占總圖像數(shù)量的10%到100%時(shí),不同的基于圖的隱寫(xiě)者檢測(cè)方法檢測(cè)準(zhǔn)確率Fig.3 The accurate rate of different graph-based steganographer detection methods when the number of shared secret images is from 10% to 100% of the total number of images and the steganographer uses different steganography in test

除此以外,探討一下本文的方法在什么比例下將完全失效.首先對(duì)“完全失效”進(jìn)行定義,當(dāng)從100 個(gè)用戶中檢測(cè)1 名隱寫(xiě)者的成功率接近 1 % 時(shí),模型的檢測(cè)性能等同于隨機(jī)猜測(cè)的性能,可以認(rèn)為模型完全失效.在此基礎(chǔ)上,本文添加了實(shí)驗(yàn),探討在用戶分享的載密圖像占比較低時(shí),模型的檢測(cè)性能是如何接近完全失效的.這里,保持本節(jié)中實(shí)驗(yàn)的設(shè)置不變,測(cè)試隱寫(xiě)者分享的載密圖像占其分享的所有圖像 5 % 時(shí)模型的檢測(cè)性能.本文進(jìn)行100次實(shí)驗(yàn),并記錄模型在檢測(cè)隱寫(xiě)者過(guò)程中的平均準(zhǔn)確率,實(shí)驗(yàn)結(jié)果如表5 所示.

表5 在隱寫(xiě)術(shù)錯(cuò)配情況下,當(dāng)分享的載密圖像數(shù)量占比5%時(shí),MILGCN 取得的隱寫(xiě)者檢測(cè)準(zhǔn)確率(%)Table 5 Steganography detection accuracy rate (%) in the case of steganography mismatch when the number of shared secret images is 5% of the total number of images

可以發(fā)現(xiàn),MILGCN 在隱寫(xiě)術(shù)錯(cuò)配的情況下,對(duì)于較為容易攻擊的隱寫(xiě)術(shù)HUGO-BD,即使在載密圖像占比僅為 5 % 的情況下,仍有 6% 的成功率能夠檢測(cè)出隱寫(xiě)者.當(dāng)隱寫(xiě)者使用MiPOD 隱寫(xiě)術(shù)時(shí),MILGCN 僅能夠以 3% 的成功率檢測(cè)出載密圖像占比為 5 % 的隱寫(xiě)者,檢測(cè)性能接近完全失效的性能.可見(jiàn) 5 % 的載密圖像占比是非常困難的檢測(cè)場(chǎng)景,因此建議將本文提出的方法用于隱寫(xiě)者分享的圖像占比超過(guò) 5 % 的場(chǎng)景中.

上文中都使用S-UNIWARD 作為訓(xùn)練數(shù)據(jù)的圖像隱寫(xiě)術(shù),這主要是因?yàn)楸疚南M谟?xùn)練模型時(shí),即使只使用一種隱寫(xiě)術(shù)得到載密圖像,訓(xùn)練得到的模型也可以在其他隱寫(xiě)術(shù)得到的載密圖像組成的測(cè)試集上取得不錯(cuò)的結(jié)果.而S-UNIWARD 在隱寫(xiě)、隱寫(xiě)分析、隱寫(xiě)者檢測(cè)任務(wù)中,被認(rèn)為是更為通用的設(shè)置,因而常常拿它來(lái)作為訓(xùn)練模型中載密數(shù)據(jù)所使用的隱寫(xiě)術(shù),在本文的重要對(duì)比方法SAGCN中,也采用其作為隱寫(xiě)術(shù)未知情況下的實(shí)驗(yàn)設(shè)置,綜合上述原因,本文也采用了這樣的設(shè)置.在表6中,添加了使用HILL 作為訓(xùn)練數(shù)據(jù)的隱寫(xiě)術(shù)實(shí)驗(yàn).選擇HILL 的原因如下: 1) 在隱寫(xiě)術(shù)中,HILL 被認(rèn)為是安全性能最高,也是最難攻破的隱寫(xiě)術(shù),各種隱寫(xiě)分析算法在其上的準(zhǔn)確率較低;2) 與S-UNIWARD 相比,HILL 的嵌入概率圖完全不同,因此,可以進(jìn)一步檢測(cè)本文所提方法的泛化能力.具體而言,在訓(xùn)練階段,隱寫(xiě)者使用HILL 作為圖像隱寫(xiě)術(shù),隱寫(xiě)者檢測(cè)模型學(xué)習(xí)在正常用戶中檢測(cè)使用0.5 bpp、0.4 bpp、0.3 bpp、0.2 bpp、0.1 bpp 或0.05 bpp 嵌入率對(duì)分享圖像嵌入秘密信息的隱寫(xiě)者.這里,隱寫(xiě)者分享的圖像均為載密圖像,正常用戶分享的圖像均為載體圖像.在測(cè)試階段,隱寫(xiě)者使用HUGO-BD、WOW、HILL、MiPOD 等多種隱寫(xiě)術(shù),嵌入率為0.2 bpp.在每次實(shí)驗(yàn)中,模型需要從100 名用戶中找出1 名隱寫(xiě)者.其中,每名用戶分享200 張圖像,根據(jù)實(shí)驗(yàn)的不同,隱寫(xiě)者分享的載密圖像可能占比其分享的所有圖像的 10% 或 30%.本文進(jìn)行100 次實(shí)驗(yàn),并記錄模型在檢測(cè)隱寫(xiě)者過(guò)程中的平均準(zhǔn)確率.

表6 訓(xùn)練模型使用HILL 作為隱寫(xiě)術(shù),分享的載密圖像數(shù)量占比10%或30%,MILGCN取得的隱寫(xiě)者檢測(cè)準(zhǔn)確率(%)Table 6 Steganography detection accuracy rate (%)when the steganography used for training is HILL and the number of shared secret images is 10% or 30% of the total number of images

為更好地展示本文示例包表征過(guò)程與結(jié)果,對(duì)用戶所對(duì)應(yīng)示例包的圖表征進(jìn)行可視化.首先,繪制不同用戶對(duì)應(yīng)示例包的圖結(jié)構(gòu)示意圖.如圖4(a)所示,在隱寫(xiě)術(shù)未知情況下對(duì)使用比例嵌入策略的隱寫(xiě)者檢測(cè)的實(shí)驗(yàn)中,隨機(jī)選擇一名使用MiPOD作為隱寫(xiě)術(shù)的隱寫(xiě)者,其分享的載密圖像占比 70%.繪制這名用戶分享圖像所對(duì)應(yīng)示例包的圖結(jié)構(gòu)示意圖.其中,節(jié)點(diǎn)表示分享的圖像,節(jié)點(diǎn)上的數(shù)字1 表示該圖像為載密圖像,數(shù)字0 表示該圖像為載體圖像.節(jié)點(diǎn)間使用邊相連,帶有顏色的加粗邊表示具有緊密關(guān)聯(lián)關(guān)系的圖像.通常,載密圖像之間關(guān)聯(lián)緊密(對(duì)應(yīng)紅色加粗邊),都具有隱寫(xiě)所帶有的模式特征,部分正常圖像可能由于具有相同的紋理(對(duì)應(yīng)藍(lán)色加粗邊),也相互關(guān)聯(lián).這時(shí),該圖結(jié)構(gòu)在第一層圖卷積中的鄰接矩陣如圖4(b) 所示.其中,深紅色代表較大的鄰接矩陣元素值,白色代表較小的鄰接矩陣元素值.可以發(fā)現(xiàn),當(dāng)用戶為隱寫(xiě)者且分享的載密圖像較多時(shí),模型能夠?qū)W習(xí)構(gòu)建鄰接矩陣,將較多的載密圖像相互關(guān)聯(lián),提取和增強(qiáng)其共有的正示例模式特征.為與隱寫(xiě)者的圖結(jié)構(gòu)進(jìn)行對(duì)比,隨機(jī)選擇一名正常用戶進(jìn)行可視化.如圖4(c) 所示,正常用戶分享的圖像都為載體圖像(用數(shù)字0標(biāo)注),部分載體圖像間具有相同的模式特征.該圖結(jié)構(gòu)在第一層圖卷積中的鄰接矩陣如圖4(d) 所示,可以發(fā)現(xiàn),相比于隱寫(xiě)者對(duì)應(yīng)的圖結(jié)構(gòu),正常用戶的圖結(jié)構(gòu)中因?yàn)椴淮嬖谳d密圖像,因此節(jié)點(diǎn)間的關(guān)聯(lián)關(guān)系較弱,部分載體圖像間存在關(guān)聯(lián)關(guān)系,共同增強(qiáng)了負(fù)示例特征.可視化結(jié)果表明本文所提模型能夠按照預(yù)期工作,從而區(qū)分隱寫(xiě)者和正常用戶.

圖4 隱寫(xiě)者和正常用戶所對(duì)應(yīng)圖結(jié)構(gòu)的可視化Fig.4 Visualization of graph structures corresponding to steganographer and normal user

除此以外,本文還進(jìn)一步測(cè)試將隱寫(xiě)者檢測(cè)問(wèn)題形式化為分類問(wèn)題情況下的正檢率和誤檢率

其中,TP表示模型預(yù)測(cè)為隱寫(xiě)者中的真實(shí)隱寫(xiě)者數(shù)量,FP表示模型預(yù)測(cè)為隱寫(xiě)者中的正常用戶數(shù)量,TN表示模型預(yù)測(cè)為正常用戶中的正常用戶數(shù)量.具體而言,在訓(xùn)練階段隱寫(xiě)者使用S-UNIWARD作為圖像隱寫(xiě)術(shù),嵌入率為0.4 bpp,在測(cè)試階段隱寫(xiě)者分享的載密圖像占比為 0 %、50% 和 100%,閾值為0.5、0.7、0.9,本文使用被測(cè)方法預(yù)測(cè)每名用戶屬于隱寫(xiě)者的概率,并將概率高于閾值的用戶輸出為隱寫(xiě)者.可以發(fā)現(xiàn),當(dāng)隱寫(xiě)者分享的載密圖像占比為 0 % 時(shí),正檢率都不存在(因?yàn)榇藭r(shí)隱寫(xiě)者也表現(xiàn)為正常用戶,用戶中不存在應(yīng)當(dāng)被檢測(cè)到的隱寫(xiě)者),閾值為0.5 時(shí),誤檢率為 7.98%;閾值為0.7 時(shí),誤檢率為 0.87%;閾值為0.9 時(shí),誤檢率為 0 %.當(dāng)隱寫(xiě)者分享的載密圖像占比為 50% 時(shí),閾值為0.5 時(shí),正檢率為 10.29%,誤檢率為 8.10%;閾值為0.7 時(shí),正檢率為 37.33%,誤檢率為 0.95%;閾值為0.9 時(shí),正檢率為NaN (表示非數(shù)),誤檢率為 0 %.當(dāng)隱寫(xiě)者分享的載密圖像占比為 100% 時(shí),閾值為0.5 時(shí),正檢率為 10.79%,誤檢率為 8.34%;閾值為0.7 時(shí),正檢率為 58.82%,誤檢率為 0.71%;閾值為0.9 時(shí),正檢率為NaN,誤檢率為 0 %.從該結(jié)果可以發(fā)現(xiàn),當(dāng)隱寫(xiě)者分享的載密圖像占比為 50% 和 100% 時(shí),模型的正檢率隨著閾值的提高而提高,當(dāng)閾值為0.7 時(shí),模型的正檢率以較大差值超過(guò)了閾值為0.5時(shí)的正檢率.這主要受益于本文提出的網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)設(shè)計(jì),正常用戶被預(yù)測(cè)為隱寫(xiě)者的概率相對(duì)較低,隨著閾值的提高這些用戶被判別為正常用戶,而隱寫(xiě)者被預(yù)測(cè)為隱寫(xiě)者的概率相對(duì)較高,盡管閾值提高,這些用戶仍然能被判別為隱寫(xiě)者.而當(dāng)閾值為0.9 時(shí),模型將所有用戶預(yù)測(cè)為正常用戶,此時(shí)TP+FP為零,故正檢率不為實(shí)數(shù).這意味著雖然相對(duì)于正常用戶,隱寫(xiě)者被正確預(yù)測(cè)為隱寫(xiě)者的概率較高,但當(dāng)閾值提高到0.9 時(shí),模型對(duì)隱寫(xiě)者的預(yù)測(cè)概率小于閾值.這是由于相對(duì)于豐富的圖像內(nèi)容而言,圖像中嵌入的秘密信息難以被識(shí)別,模型很難以較高的置信度來(lái)區(qū)分隱寫(xiě)者與正常用戶.值得注意的是,將其形式化為分類問(wèn)題時(shí)首先需要判定未知用戶是否存在隱寫(xiě)者,并在某個(gè)閾值水平下正確檢測(cè)出隱寫(xiě)者.這需要對(duì)隱寫(xiě)者預(yù)測(cè)的置信度具有較高的絕對(duì)水平,而原有的隱寫(xiě)者檢測(cè)定義只需要模型在隱寫(xiě)者預(yù)測(cè)的置信度上具有較高的相對(duì)水平(相對(duì)于正常用戶) 即可.因此,使用分類問(wèn)題來(lái)度量更加困難,計(jì)劃在未來(lái)工作中進(jìn)一步研究和探討如何提升隱寫(xiě)者預(yù)測(cè)置信度的絕對(duì)水平.

3.2 基于頻域的隱寫(xiě)者檢測(cè)性能評(píng)估與對(duì)比

在本節(jié)中,本文進(jìn)一步考慮隱寫(xiě)者檢測(cè)中的跨域問(wèn)題.現(xiàn)有工作通常使用BOSSbase ver 1.0.1 的JPEG 版本來(lái)檢測(cè)當(dāng)圖像隱寫(xiě)者使用頻域隱寫(xiě)術(shù)在JPEG 圖像的頻率系數(shù)中嵌入信息時(shí)不同隱寫(xiě)者檢測(cè)方法的檢測(cè)性能.因此,在本節(jié)中,將上文中的實(shí)驗(yàn)設(shè)置擴(kuò)展到頻率域.具體而言,首先將BOSSbase ver 1.0.1 中的圖像切分成4 個(gè)互不重疊的子圖,每張子圖的尺寸為 2 56×256 像素.進(jìn)一步,利用MATLAB 中的imwrite 函數(shù),使用JPEG 算法在80 質(zhì)量因子參數(shù)下對(duì)每張被切分的子圖進(jìn)行壓縮,并使用頻域圖像隱寫(xiě)術(shù)生成對(duì)應(yīng)的載密圖像.在隱寫(xiě)者檢測(cè)過(guò)程中,與Holub 等[21]在其工作中對(duì)JPEG 域中圖像的隱寫(xiě)分析過(guò)程一致,輸入圖像被解壓縮至空域,接著MDNNSD 被用于從解壓縮的圖像中提取特征.與在空域中的實(shí)驗(yàn)設(shè)置相似,在訓(xùn)練階段,首先從所有子圖樣本中隨機(jī)選擇20 000張載體圖像,并使用J-UNIWARD 隱寫(xiě)術(shù)在不同嵌入率的有效載荷下生成載密圖像,特別地,本文中使用的有效載荷包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.進(jìn)而,本文將得到的載體圖像和載密圖像組合為用戶作為訓(xùn)練樣本.在訓(xùn)練階段的每個(gè)批次中,本文采樣50名正常用戶,每名正常用戶分享200 張載體圖像,并采樣50 名圖像隱寫(xiě)者,每名隱寫(xiě)者分享200 張載密圖像,每輪訓(xùn)練采樣100 個(gè)批次的用戶對(duì)模型進(jìn)行優(yōu)化.在測(cè)試階段,本文在每個(gè)實(shí)驗(yàn)中隨機(jī)選擇100 個(gè)用戶,每個(gè)用戶分享200 張圖像,隱寫(xiě)者檢測(cè)模型被要求從100 個(gè)用戶中檢測(cè)出唯一的1 名隱寫(xiě)者.因此,本文在20 000 張載體圖像中隨機(jī)選擇200 張載體圖像對(duì)應(yīng)的載密圖像,構(gòu)成1 名圖像隱寫(xiě)者,剩余的19 800 張載體圖像被隨機(jī)選擇并分配給99 個(gè)正常用戶.在此基礎(chǔ)上,本文統(tǒng)計(jì)不同隱寫(xiě)者檢測(cè)模型的檢測(cè)準(zhǔn)確率,所有統(tǒng)計(jì)實(shí)驗(yàn)進(jìn)行100 次,最終得到所有統(tǒng)計(jì)結(jié)果的平均值.

3.2.1 已知隱寫(xiě)術(shù)情況下的隱寫(xiě)者檢測(cè)

為驗(yàn)證在隱寫(xiě)者檢測(cè)人員已知隱寫(xiě)者使用的圖像隱寫(xiě)術(shù)時(shí)本文方法的有效性,在本節(jié)實(shí)驗(yàn)中保持測(cè)試階段隱寫(xiě)者使用的圖像隱寫(xiě)術(shù)與訓(xùn)練階段相同,使用不同模型對(duì)使用不同嵌入率在圖像中嵌入秘密信息的隱寫(xiě)者進(jìn)行檢測(cè)并記錄檢測(cè)模型的性能.具體而言,在測(cè)試階段,隱寫(xiě)者分享的每張圖像中只包含使用J-UNIWARD 圖像隱寫(xiě)術(shù)嵌入的秘密信息.同時(shí),與空域隱寫(xiě)者檢測(cè)的實(shí)驗(yàn)設(shè)置類似,本文在5 種不同的有效載荷上進(jìn)行測(cè)試,其中包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.

如表7 所示,本文首先對(duì)比隱寫(xiě)者檢測(cè)與隱寫(xiě)分析領(lǐng)域的相關(guān)工作.其中,JRM 富特征提取模型和PEV-274 特征提取模型是經(jīng)典的用于JPEG 圖像的隱寫(xiě)分析模型,在隱寫(xiě)分析任務(wù)中取得了良好的性能.本文將JRM 與層次聚類算法結(jié)合在一起,構(gòu)成基于JRM 的隱寫(xiě)者檢測(cè)框架JRM_SD,以評(píng)估其在隱寫(xiě)者檢測(cè)任務(wù)上的性能.同時(shí),本文也將PEV 與層次聚類算法結(jié)合在一起,構(gòu)成基于PEV的隱寫(xiě)者檢測(cè)框架PEV_SD,進(jìn)行對(duì)比分析.從表7中可以看出,PEV_SD 無(wú)法有效地檢測(cè)出使用JUNIWARD 作為圖像隱寫(xiě)術(shù)的隱寫(xiě)者,這是由于PEV_SD 方法基于PEV-274 特征進(jìn)行分析,無(wú)法檢測(cè)出使用內(nèi)容自適應(yīng)圖像隱寫(xiě)術(shù)J-UNIWARD嵌入秘密信息的載密圖像并構(gòu)建具有區(qū)分力的特征.與PEV_SD 相比,JRM_SD 能夠更有效地攻擊使用J-UNIWARD 作為圖像隱寫(xiě)術(shù)的隱寫(xiě)者,但檢測(cè)性能仍然有限.當(dāng)隱寫(xiě)者使用0.4 bpnzAC嵌入率嵌入秘密信息時(shí),盡管JRM_SD 聯(lián)合使用了最前沿的富特征提取模型和一個(gè)優(yōu)化檢測(cè)器,也只能獲得接近 50% 的檢測(cè)準(zhǔn)確率.

表7 已知隱寫(xiě)者使用相同圖像隱寫(xiě)術(shù)(J-UNIWARD)時(shí)的隱寫(xiě)者檢測(cè)準(zhǔn)確率(%),嵌入率從0.05 bpnzAC 到0.4 bpnzACTable 7 Steganography detection accuracy rate (%)when steganographer use the same image steganography(J-UNIWARD) and the embedding payload is from 0.05 bpnzAC to 0.4 bpnzAC

接著,本文進(jìn)一步將圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域的相關(guān)工作應(yīng)用在JPEG 圖像的隱寫(xiě)者檢測(cè)任務(wù)中,對(duì)比圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域的相關(guān)工作.從表7 中可以發(fā)現(xiàn),基于圖神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)方法的性能遠(yuǎn)超于現(xiàn)有隱寫(xiě)者檢測(cè)與隱寫(xiě)分析領(lǐng)域相關(guān)工作的性能,表明圖神經(jīng)網(wǎng)絡(luò)在利用用戶分享的圖片間的關(guān)聯(lián)關(guān)系進(jìn)行隱寫(xiě)者檢測(cè)的有效性.其中,SAGCN 僅次于本文提出的MILGCN,取得了超過(guò)其他基于圖神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)方法的性能.與之相對(duì)的,本文提出的MILGCN 在隱寫(xiě)者使用較低的嵌入率嵌入信息的困難情況下,相比SAGCN 的性能有了進(jìn)一步提升.這是由于當(dāng)嵌入率較低時(shí),隱寫(xiě)者與正常用戶的特征分布極為相近,而本文提出的MILGCN 通過(guò)基于多示例學(xué)習(xí)的設(shè)計(jì)增加了其區(qū)分性.具體而言,本文提出的共性增強(qiáng)圖卷積網(wǎng)絡(luò)能夠有效增加正示例的共性特征,在此基礎(chǔ)上,基于注意力機(jī)制的圖表征能夠根據(jù)識(shí)別的正示例模式特征構(gòu)建具有區(qū)分力的圖表征,進(jìn)而正確檢測(cè)出隱寫(xiě)者.

此外還測(cè)試了使用比例策略進(jìn)行嵌入時(shí)的情況,實(shí)驗(yàn)的訓(xùn)練部分與本節(jié)的實(shí)驗(yàn)設(shè)置相同,測(cè)試部分: 隱寫(xiě)者使用J-UNIWARD 隱寫(xiě)術(shù),嵌入率為0.2 bpnzAC,分享的載密圖像占其分享的所有圖像的 10%、30%、50%、70%、90% 或 100%.本文進(jìn)行100 次實(shí)驗(yàn),并記錄模型在檢測(cè)隱寫(xiě)者過(guò)程中的平均準(zhǔn)確率.可以發(fā)現(xiàn),在載密圖像數(shù)量占比大于等于 70% 的情況下,本文的方法都能達(dá)到 100%的準(zhǔn)確率;在占比 50% 的情況下,準(zhǔn)確率為 94%;占比 30% 的情況下,準(zhǔn)確率為 47% ;占比 10% 的情況下,準(zhǔn)確率為 30%.MILGCN 的性能隨著隱寫(xiě)者分享的載密圖像占比的升高而升高,這種現(xiàn)象與空域上的實(shí)驗(yàn)結(jié)果一致,是由于當(dāng)隱寫(xiě)者分享的載密圖像占比較低時(shí),隱寫(xiě)者分享的圖像大部分為自然圖像,即載體圖像.在這種情況下,隱寫(xiě)者的表征將與正常用戶非常接近,模型難以正確區(qū)分隱寫(xiě)者與正常用戶.反之,隨著用戶分享的載密圖像占比升高,隱寫(xiě)者的表征與正常用戶差異變大,模型將能夠更好地區(qū)分二者.此外,相比于檢測(cè)使用空域隱寫(xiě)術(shù)的隱寫(xiě)者,可以發(fā)現(xiàn)在檢測(cè)使用頻域隱寫(xiě)術(shù)的隱寫(xiě)者時(shí),模型只能夠在載密圖像占比較高時(shí)保持較高的檢測(cè)性能,當(dāng)載密圖像占比較低時(shí),模型的檢測(cè)準(zhǔn)確率會(huì)產(chǎn)生更大的下降.這是由于頻域隱寫(xiě)術(shù)的檢測(cè)比空域隱寫(xiě)術(shù)的檢測(cè)更為困難,因此在載密圖像占比較低時(shí),隱寫(xiě)者與正常用戶的區(qū)分性會(huì)比空域隱寫(xiě)術(shù)設(shè)置下更低.

3.2.2 隱寫(xiě)術(shù)未知情況下的隱寫(xiě)者檢測(cè)

正如在上文中提到的,隱寫(xiě)者檢測(cè)人員在對(duì)社交網(wǎng)絡(luò)中用戶分享的圖像進(jìn)行分析時(shí),無(wú)法預(yù)先知道隱寫(xiě)者使用的圖像隱寫(xiě)術(shù).因此,本文放寬了圖像隱寫(xiě)者在訓(xùn)練階段和測(cè)試階段使用的圖像隱寫(xiě)術(shù)為相同隱寫(xiě)術(shù)的假設(shè),探討在隱寫(xiě)術(shù)錯(cuò)配情況下本文所提模型的檢測(cè)性能.具體而言,在訓(xùn)練階段隱寫(xiě)者使用J-UNIWARD 作為隱寫(xiě)術(shù)嵌入秘密信息,以此設(shè)置進(jìn)行訓(xùn)練得到模型.在測(cè)試階段,隱寫(xiě)者分享的每張圖像中包含與訓(xùn)練階段使用不同的圖像隱寫(xiě)術(shù),如nsF5、UERD.同時(shí),與空域隱寫(xiě)者檢測(cè)的實(shí)驗(yàn)設(shè)置類似,本文在5 種不同的有效載荷上進(jìn)行測(cè)試,其中包括0.4 bpnzAC、0.3 bpnzAC、0.2 bpnzAC、0.1 bpnzAC 和0.05 bpnzAC.

在表8 中,可以發(fā)現(xiàn),當(dāng)有效載荷在0.1~ 0.4 bpnzAC 區(qū)間時(shí),盡管在測(cè)試階段隱寫(xiě)者使用的圖像隱寫(xiě)術(shù)與訓(xùn)練階段不同,但是無(wú)論隱寫(xiě)者使用哪種隱寫(xiě)術(shù),本文方法仍能夠獲得超過(guò) 90% 的檢測(cè)準(zhǔn)確率.通過(guò)將表7 與表8 進(jìn)行對(duì)比,可以發(fā)現(xiàn)在隱寫(xiě)術(shù)錯(cuò)配時(shí),隱寫(xiě)者檢測(cè)模型的性能甚至超過(guò)了在訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集中使用相同的J-UNIWARD 作為圖像隱寫(xiě)術(shù)時(shí)的性能.這是由于JUNIWARD 作為近年來(lái)提出的前沿的內(nèi)容自適應(yīng)圖像隱寫(xiě)術(shù),相比于nsF5 和UERD 更難攻破,因此,當(dāng)J-UNIWARD作為圖像隱寫(xiě)術(shù)時(shí),載密圖像與載體圖像的特征分布極為相近、難以區(qū)分,不利于基于特征分布構(gòu)建有效的圖結(jié)構(gòu)并提取載密圖像的公共模式特征.相比而言,使用nsF5 和UERD作為圖像隱寫(xiě)術(shù)嵌入秘密信息的載密圖像的特征分布與載體圖像的特征分布差異較大.特別地,還能夠發(fā)現(xiàn)在隱寫(xiě)術(shù)錯(cuò)配的情況下,本文方法也能超過(guò)其他隱寫(xiě)者檢測(cè)方法取得最好的性能,這說(shuō)明MILGCN 確實(shí)能夠有效提取正示例共享的模式特征,即識(shí)別的載密圖像模式特征,并與載體圖像的模式特征區(qū)分開(kāi).

表8 當(dāng)測(cè)試階段隱寫(xiě)者使用nsF5 或UERD 等圖像隱寫(xiě)術(shù)嵌入秘密信息時(shí),不同方法的隱寫(xiě)者檢測(cè)準(zhǔn)確率(%),嵌入率從0.05 bpnzAC 到0.4 bpnzACTable 8 Steganography detection accurate rate (%) of different methods when steganographer uses nsF5 or UERD as image steganography in the testing phase and the embedding payload is from 0.05 bpnzAC to 0.4 bpnzAC

當(dāng)隱寫(xiě)者使用的有效載荷為0.05 bpnzAC 時(shí),盡管本文提出的方法在性能上稍強(qiáng)于其他基于圖的方法,但所有方法都無(wú)法有效檢測(cè)出隱寫(xiě)者.這是由于秘密信息在JPEG 的壓縮過(guò)程中丟失了,當(dāng)有效載荷較低時(shí),載密圖像與載體圖像非常相似.因此,對(duì)于模型而言,很難區(qū)分隱寫(xiě)者和正常圖像的特征.與空域中隱寫(xiě)者檢測(cè)方法相比,頻域中隱寫(xiě)者檢測(cè)框架的性能相對(duì)較低,這也說(shuō)明在壓縮到JPEG 格式過(guò)程中,存在信息的丟失.

3.2.3 計(jì)算復(fù)雜度分析

在這一部分,提供本文方法MILGCN 和其他幾種對(duì)比方法的計(jì)算復(fù)雜度分析.首先使用ptflops 軟件包計(jì)算不同方法的計(jì)算復(fù)雜度,并使用浮點(diǎn)運(yùn)算數(shù)量來(lái)度量.具體來(lái)說(shuō),給定一個(gè)模型,構(gòu)建分享200 張圖像的100 個(gè)用戶樣本作為輸入,計(jì)算其中哪一個(gè)用戶為隱寫(xiě)者.在計(jì)算過(guò)程中,對(duì)于指數(shù)、開(kāi)根號(hào)、乘法、加法、比較等操作,均將其計(jì)數(shù)為一次浮點(diǎn)運(yùn)算,而對(duì)于數(shù)據(jù)復(fù)制、移動(dòng)等操作,則不進(jìn)行計(jì)數(shù).最終,得到計(jì)算單個(gè)樣本的浮點(diǎn)運(yùn)算次數(shù)并進(jìn)行統(tǒng)計(jì)報(bào)告.除此以外,還度量不同方法在推斷過(guò)程中所需的CPU 時(shí)間,以說(shuō)明設(shè)計(jì)方法在推理和部署方面的可用性.這里,本文運(yùn)行200個(gè)批次樣本的推理,并統(tǒng)計(jì)樣本推理所需的平均時(shí)間.其中,每個(gè)批次包含100 個(gè)用戶樣本.表9 中,還提供了不同模型所包含的參數(shù)量.

表9 計(jì)算復(fù)雜度分析Table 9 The analysis of computational complexity

從表9 中可以發(fā)現(xiàn),盡管本文提出的MILGCN具有相對(duì)較多的參數(shù),但仍與基于圖的方法GCN和SAGCN 保持在同一量級(jí)上.與此同時(shí),還可以發(fā)現(xiàn),雖然參數(shù)量相對(duì)較大,但MILGCN 所需的浮點(diǎn)運(yùn)算數(shù)和批次平均運(yùn)行時(shí)間要比基于圖的方法GCN 和SAGCN 小很多.這是由于這些方法在構(gòu)建圖的過(guò)程中,使用歐氏距離度量特征集合中兩兩圖像特征對(duì)的關(guān)聯(lián)關(guān)系,具有較高的時(shí)間復(fù)雜度.而本文通過(guò)自適應(yīng)的學(xué)習(xí)方法取代了基于歐氏距離的圖構(gòu)建方法,大幅降低了運(yùn)算量.這使得本文提出的MILGCN 不但在檢測(cè)性能上占有優(yōu)勢(shì),也在運(yùn)行效率上遠(yuǎn)超其他基于圖的方法,接近于簡(jiǎn)單模型MILNN 的水平.

4 結(jié)論與未來(lái)工作

近年來(lái),隱寫(xiě)者在分散秘密信息嵌入圖像的策略選擇上越來(lái)越多樣.因此,本文擴(kuò)展基于圖的隱寫(xiě)者檢測(cè)方法,進(jìn)一步探究應(yīng)對(duì)不同嵌入策略的通用隱寫(xiě)者檢測(cè)方案.本文提出一種基于多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò)的隱寫(xiě)者檢測(cè)算法,將隱寫(xiě)者檢測(cè)形式化為多示例學(xué)習(xí)任務(wù).在多示例學(xué)習(xí)任務(wù)的形式化下,用戶分享的圖像對(duì)應(yīng)于示例,用戶對(duì)應(yīng)于示例包.在此基礎(chǔ)上,本文設(shè)計(jì)多示例學(xué)習(xí)圖卷積網(wǎng)絡(luò),在正示例占比較低或特征分布與負(fù)示例相近的情況下,能夠識(shí)別和區(qū)分正示例的模式特征.其中,本文設(shè)計(jì)的共性增強(qiáng)圖卷積能夠自適應(yīng)地突出示例包中正示例的模式特征,而注意力圖讀出模塊能夠自適應(yīng)地構(gòu)建示例包表征,并根據(jù)具有區(qū)分力的表征對(duì)用戶進(jìn)行正確檢測(cè).實(shí)驗(yàn)表明,本文設(shè)計(jì)的模型能夠?qū)苟喾N批量隱寫(xiě)術(shù)和隱寫(xiě)策略.在未來(lái)工作中,將研究當(dāng)載密圖像數(shù)量占比很小情況下有效的隱寫(xiě)者檢測(cè)方法.

猜你喜歡
示例卷積節(jié)點(diǎn)
大還是小
CM節(jié)點(diǎn)控制在船舶上的應(yīng)用
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
Analysis of the characteristics of electronic equipment usage distance for common users
基于AutoCAD的門(mén)窗節(jié)點(diǎn)圖快速構(gòu)建
2019年高考上海卷作文示例
常見(jiàn)單位符號(hào)大小寫(xiě)混淆示例
從濾波器理解卷積
“全等三角形”錯(cuò)解示例
基于傅里葉域卷積表示的目標(biāo)跟蹤算法