李 策, 李 蘭, 靳山崗, 高偉哲, 許大有
(蘭州理工大學(xué) 電氣工程與信息工程學(xué)院,甘肅 蘭州 730050)
隨著圖像技術(shù)的不斷發(fā)展,Photoshop、GNU圖像處理程序和美圖等圖像編輯軟件在日常生活中隨處可見(jiàn).非專業(yè)人員也可以偽造出逼真的圖像,在新聞傳播時(shí)會(huì)混淆大眾視野,在科學(xué)研究時(shí)會(huì)出現(xiàn)學(xué)術(shù)造假的行為,甚至在司法取證時(shí)會(huì)讓不法分子僥幸隱瞞,嚴(yán)重威脅了社會(huì)的公正公平[1].因此,圖像盲取證已成為計(jì)算機(jī)視覺(jué)領(lǐng)域中的重要任務(wù)之一[2].
圖像盲取證是通過(guò)檢測(cè)篡改和其他區(qū)域的差異性來(lái)定位篡改區(qū)域的技術(shù).Copy-move是一種常見(jiàn)的圖像篡改類型,具體為復(fù)制一幅圖像的某一部分,再將其粘貼到同幅圖像的另一區(qū)域,所以篡改區(qū)域與其他區(qū)域的光照和顏色飽和度信息基本一致.為了消除篡改痕跡,一般會(huì)伴隨縮放和旋轉(zhuǎn)等前處理,以及模糊處理和添加噪聲等后處理,都為Copy-move盲取證帶來(lái)了極大的挑戰(zhàn)性.
傳統(tǒng)的Copy-move盲取證主要有基于圖像分塊和圖像特征點(diǎn)兩種模式.在基于圖像分塊的方法中,Ryu等[3]提取Zernike 矩的圖像塊特征,僅適合具體的旋轉(zhuǎn)操作.Cozzolino等[4]采用密集場(chǎng)方法定位篡改區(qū)域,但是隨著圖像尺寸的增大會(huì)提升特征匹配的時(shí)間.朱葉等[5]使用了彩色LBP(local binary patterns)的隱蔽性進(jìn)行Copy-move盲取證.而在基于圖像特征點(diǎn)的方法中,Christlen等[6]通過(guò)提取SIFT(scale invariant feature transform)獲取特征向量,但時(shí)間和空間復(fù)雜度較高.Pun等[7]結(jié)合了圖像分塊和特征點(diǎn),使用DWT(discrete wavelet transform)和SIFT的方法定位篡改區(qū)域.
近年來(lái),深度學(xué)習(xí)在圖像取證領(lǐng)域也取得了不錯(cuò)的成就.Bappy等[8]利用(convolutional neural network,long-short term memory,CNN-LSTM) 算法提取圖像特征定位篡改區(qū)域.Zhou等[9]使用faster RCNN(faster region convolutional neural network)算法檢測(cè)圖像中的篡改區(qū)域,但數(shù)據(jù)沒(méi)有涉及后處理.Wu等[10]使用DNN(deep neural network)網(wǎng)絡(luò)定位區(qū)分復(fù)制和粘貼位置的篡改區(qū)域,但需在大型數(shù)據(jù)集(10萬(wàn)幅圖像)中訓(xùn)練,且存在后期定位不準(zhǔn)確的問(wèn)題.
綜上所述,圖像分塊和圖像特征點(diǎn)的Copy-move盲取證算法各有優(yōu)缺點(diǎn),且這些算法在匹配時(shí)都依賴于手動(dòng)調(diào)節(jié)參數(shù).深度學(xué)習(xí)算法中,CNN在卷積時(shí),將彩色圖像表示為R、G、B三通道,且卷積核在每個(gè)通道上以線性相加的方式計(jì)算圖像的特征圖,忽略了圖像通道之間的顏色一致性,導(dǎo)致部分彩色圖像信息丟失[11],且在池化時(shí)也會(huì)丟掉一些圖像特征.為此,本文利用四元數(shù)卷積網(wǎng)絡(luò)(quaternion convolutional neural networks,QCNN)[11]提取彩色圖像特征和雙樹(shù)復(fù)數(shù)小波(dual-tree complex wavelet transform,DTCWT)[12]提取圖像局部特征的優(yōu)勢(shì),提出了一種基于雙樹(shù)復(fù)數(shù)小波四元數(shù)卷積網(wǎng)絡(luò)的Copy-move盲取證算法.所提算法設(shè)計(jì)了一種雙分支網(wǎng)絡(luò),一個(gè)分支獲取圖像的相似區(qū)域,另一個(gè)分支則作為輔助任務(wù)提取篡改區(qū)域,再通過(guò)融合兩個(gè)分支的結(jié)果獲取區(qū)分原始、復(fù)制和粘貼區(qū)域的結(jié)果.本文主要工作包括:1) 將DTCWT的高頻子帶與QCNN連接起來(lái)聯(lián)合學(xué)習(xí)圖像的顏色一致性和局部特征;2) 使用卷積網(wǎng)絡(luò)匹配圖像中相似度較高的區(qū)域,一定程度上解決了匹配時(shí)手動(dòng)調(diào)節(jié)參數(shù)的問(wèn)題;3) 在獲取相似區(qū)域分支的基礎(chǔ)上,構(gòu)建了一個(gè)輔助分支用于定位篡改區(qū)域,并與相似區(qū)域融合,達(dá)到區(qū)分復(fù)制和粘貼區(qū)域的目的.
針對(duì)傳統(tǒng)Copy-move盲取證算法很難提取到彩色圖像的一致性特征且結(jié)果依賴于手動(dòng)調(diào)節(jié)參數(shù)等問(wèn)題,本文結(jié)合四元數(shù)卷積網(wǎng)絡(luò)和雙樹(shù)復(fù)數(shù)小波變換可以有效提取彩色圖像特征和局部信息的特性,提出了一種基于雙樹(shù)復(fù)數(shù)小波四元數(shù)卷積網(wǎng)絡(luò)的Copy-move盲取證算法,如圖1所示.其中,包括計(jì)算復(fù)制區(qū)域和粘貼區(qū)域分支(Copy/Past,C/P 分支)、計(jì)算粘貼區(qū)域分支(Past,P分支)和融合兩個(gè)分支的模塊.在C/P分支中,首先利用QCNN和DTCWT提取彩色圖像特征和局部特征的優(yōu)勢(shì),重構(gòu)VGG16(稱為WQVGG16,wavelet quaternion visual geometry group 16)獲取圖像的顏色一致性特征和局部信息;其次,考慮到同一幅篡改圖像中復(fù)制和粘貼區(qū)域的相似性最高,因此計(jì)算了圖像不同區(qū)域的特征相似性分?jǐn)?shù);最終,使用卷積網(wǎng)絡(luò)提取分?jǐn)?shù)較高的相似區(qū)域定位復(fù)制和粘貼區(qū)域.所提算法中,P分支為C/P分支的相似區(qū)域提供了關(guān)于粘貼位置的輔助信息,因僅需獲取粘貼區(qū)域,所以用WQVGG16提取圖像的粘貼區(qū)域特征,并采用去卷積和二值分類定位粘貼區(qū)域.在融合模塊中,將兩個(gè)分支的結(jié)果一起輸入到網(wǎng)絡(luò)中,得到能夠區(qū)分原始(藍(lán)色)、復(fù)制(綠色,橫線)和粘貼(紅色,豎線)區(qū)域的結(jié)果.下面將各模塊具體分述.
C/P分支包括WQVGG16、計(jì)算特征向量相似性分?jǐn)?shù)和定位相似性區(qū)域三部分,如圖2所示.卷積網(wǎng)絡(luò)提取彩色圖像特征時(shí),一般將彩色圖像表示為R、G、B三個(gè)通道,每個(gè)卷積核僅對(duì)應(yīng)于不同通道進(jìn)行線性求和,忽略了通道之間的相關(guān)性,使得Copy-move盲取證算法在特征提取階段較難提取到彩色圖像顏色一致性的特征,導(dǎo)致在計(jì)算復(fù)制和粘貼區(qū)域相似性時(shí)產(chǎn)生誤差,從而影響特征匹配的準(zhǔn)確度,降低了算法的定位性能.而將圖像表示為四元數(shù)矩陣,可在其四元數(shù)卷積過(guò)程時(shí),運(yùn)用縮放和旋轉(zhuǎn)操作在顏色空間中找到一個(gè)較好的顏色一致性特征表達(dá)[11].所以,不同于將圖像表示為RGB形式,所提算法首先在WQVGG16中將圖像表示為四元數(shù)矩陣進(jìn)行四元數(shù)卷積,給彩色圖像提供一個(gè)更加合理的顏色特征表示,能夠避免在計(jì)算復(fù)制和粘貼區(qū)域相似性階段的缺陷,提高特征匹配的效率,改善定位性能.其次,由于篡改引起圖像局部信息的變化,考慮到DTCWT的高頻信息提供圖像的局部信息,所以將其與池化層的特征圖連接,提取到彩色圖像的局部特征.再次,利用皮爾遜相關(guān)系數(shù)計(jì)算特征向量之間的相似性分?jǐn)?shù).最后,使用四元數(shù)卷積網(wǎng)絡(luò)自動(dòng)定位分?jǐn)?shù)較高的相似區(qū)域,進(jìn)而避免了手動(dòng)調(diào)節(jié)參數(shù)的問(wèn)題.
圖1 所提算法框架Fig.1 The framework of proposed algorithm
圖2 C/P分支框架示意圖Fig.2 The framework of Copy/Past branch
1.1.1WQVGG16
QCNN是實(shí)數(shù)和復(fù)數(shù)深度神經(jīng)網(wǎng)絡(luò)的四元數(shù)擴(kuò)展,其輸入為四元數(shù)矩陣,可實(shí)現(xiàn)顏色空間的縮放與旋轉(zhuǎn),提供顏色一致性特征表示[11].所以,本文首先使用QCNN重構(gòu)VGG16,稱為QVGG16,參數(shù)如圖3虛線框所示,包含10個(gè)四元數(shù)卷積層和4個(gè)最大池化層,四元數(shù)卷積層用QConv2D表示,用來(lái)提取圖像特征.在卷積網(wǎng)絡(luò)中,高分辨率的低層特征包含圖像的紋理和顏色信息,低分辨率的高層特征表征了抽象的圖像特征.
深度學(xué)習(xí)卷積網(wǎng)絡(luò)通過(guò)分層次、逐層地?cái)M合整幅圖像的特征,并且池化過(guò)程將卷積特征圖縮小一半,相應(yīng)地會(huì)丟掉一部分圖像特征.而所提算法中使用的DTCWT分解后的6幅高頻子帶圖表示了圖像6個(gè)方向的局部信息,6個(gè)方向的特征圖與卷積網(wǎng)絡(luò)的池化層連接,一起輸入到下一卷積層共同學(xué)習(xí),使得卷積網(wǎng)絡(luò)不僅擬合了圖像的全局特征,而且也學(xué)習(xí)到了圖像中的局部特征.
QCNN將彩色圖像視為一個(gè)四元數(shù)矩陣Q,r是實(shí)部,xi+yj+zk是虛部.具體的卷積過(guò)程是在實(shí)值空間中對(duì)一個(gè)卷積核矩陣和向量執(zhí)行卷積的操作.這里,定義卷積核W和輸入四元數(shù)矩陣Q如下:
圖3 WQVGG16結(jié)構(gòu)網(wǎng)絡(luò)
定義?表示卷積操作,則W和Q之間的卷積過(guò)程可以定義為
(3)
令R=0,X、Y、Z分別表示圖像的R、G、B通道.則圖像映射到四元數(shù)空間的映射如下式所示:
Q=Ri+Gj+Bk
(4)
與傳統(tǒng)VGG16不同的是,QVGG16的一個(gè)卷積核W被分為三部分,分別為Xi、Yj和Zk,i、j和k為對(duì)應(yīng)的三個(gè)偏置.所以卷積輸出特征圖數(shù)量是傳統(tǒng)卷積的3倍.如圖3所示,在第一層中,使用64個(gè)3×3的卷積核,輸出192個(gè)特征圖,即64的3倍.
考慮到Copy-move操作引起圖像局部區(qū)域信息發(fā)生變化,尤其是粘貼邊緣會(huì)出現(xiàn)明顯的差異性.由于DTCWT的高頻信息能夠提取圖像的局部信息,所以本文將其變換的高頻子帶和對(duì)應(yīng)的池化層特征圖連接起來(lái),提取反映篡改痕跡的局部信息,重構(gòu)的WQVGG16參數(shù)如圖3所示,輸入圖像進(jìn)行DTCWT后,將一級(jí)、二級(jí)和三級(jí)分解的6個(gè)高頻子帶分別與QVGG16的第一個(gè)、第二個(gè)和第三個(gè)池化層相連,因6個(gè)高頻子帶圖提供了±15°、±45°和±75°方向的信息[12],所以可以提取到更多的圖像局部信息.下面詳細(xì)介紹DTCWT變換的實(shí)現(xiàn)過(guò)程.
圖4為DTCWT變換示意圖.具體的實(shí)現(xiàn)過(guò)程是使用張量積方法在一維的基礎(chǔ)上進(jìn)行擴(kuò)展.一維復(fù)小波函數(shù)定義為
圖4 DTCWT分解示意圖
ψ(x)=ψh(x)+jψg(x)
(5)
則二維可表示為
(6)
雙樹(shù)實(shí)小波為
ψh(x)ψh(y)-ψg(x)ψg(y)
(7)
雙樹(shù)復(fù)小波為
ψg(x)ψh(y)+ψh(x)ψg(y)
(8)
實(shí)現(xiàn)雙樹(shù)實(shí)小波和雙樹(shù)復(fù)小波變換的具體步驟如下:
步驟1:對(duì)于雙樹(shù)實(shí)小波,使用了{(lán)g0(n),g1(n)}和{h0(n),h1(n)}對(duì)圖像實(shí)現(xiàn)兩個(gè)二維可分離的小波變換,獲得了2個(gè)低頻子帶和6個(gè)高頻子帶;
步驟2:對(duì)于雙樹(shù)復(fù)小波,使用了{(lán)h0(n),h1(n)}作行變換,再使用{g0(n),g1(n)}作列變換,可得到1個(gè)低頻子帶和3個(gè)高頻子帶;在實(shí)現(xiàn)另一個(gè)時(shí),首先用{g0(n),g1(n)}作行變換,再使用{h0(n),h1(n)}作列變換,可得到1個(gè)低頻子帶和3個(gè)高頻子帶;
步驟3:合并實(shí)部和虛部的2對(duì)低頻子帶和6對(duì)高頻字帶,共獲得8個(gè)子帶信息,其中2個(gè)為低頻子帶,6個(gè)為高頻字帶.
通過(guò)對(duì)QCNN和DTCWT實(shí)現(xiàn)過(guò)程的研究,發(fā)現(xiàn)使用四元數(shù)卷積可以在顏色空間為彩色圖像找到一種較好的顏色一致性特征表示方法,并且DTCWT分解的6個(gè)方向的高頻信息有助于網(wǎng)絡(luò)獲取到檢測(cè)篡改區(qū)域需要的圖像局部信息.因此,WQVGG16會(huì)對(duì)Copy-move盲取證有一定的提升效果.
馬太太望著他一笑?!耙紫壬窃撜?qǐng)客了?!彼浪麜缘盟侵讣{寵請(qǐng)酒。今天兩人雙雙失蹤,女的三更半夜還沒(méi)回來(lái)。他回來(lái)了又有點(diǎn)精神恍惚的樣子,臉上又憋不住的喜氣洋洋,帶三分春色??磥?lái)還是第一次上手。
1.1.2相似性計(jì)算
由圖3可知,提取到了16×16×1 536的特征向量,可以看作16×16的塊特征向量,即{FX[ir,ic]}ir,ic∈[0,…,15],且每個(gè)向量是1 536維.因?yàn)閺?fù)制和粘貼區(qū)域之間有很大的相似性,所以選擇皮爾森相關(guān)系數(shù)計(jì)算任意兩個(gè)特征向量之間的相似性分?jǐn)?shù),用于在特征匹配階段進(jìn)行分?jǐn)?shù)匹配.對(duì)于任意兩個(gè)向量FX(i)、FX(j),i和j都屬于(ir,ic),其相似性ρ的計(jì)算過(guò)程如下式所示:
式中:(·)T是轉(zhuǎn)置運(yùn)算;μX(i)和δX(i)分別是特征向量的方差和標(biāo)準(zhǔn)差.對(duì)于特征向量FX(i),所有可能的特征向量FX(j)都使用上述方法計(jì)算,可得到關(guān)于FX(i)的相似性分?jǐn)?shù)的矩陣SX,如下式所示:
SX[i]=[ρ(i,0),…,ρ(i,j),…,ρ(i,255)]
(11)
所以,將輸入張量16×16×1 536的最后一維表示為特征塊之間的相似性分?jǐn)?shù),便可得到16×16×256的輸出張量,該統(tǒng)計(jì)特性為定位篡改區(qū)域提供了較好的判別依據(jù).
1.1.3定位相似性區(qū)域
因?yàn)镃opy-move篡改使得圖像中至少存在兩個(gè)相似性較大的區(qū)域,所以在得到特征向量之間的相似性分?jǐn)?shù)后,一般算法通過(guò)手動(dòng)調(diào)節(jié)參數(shù)進(jìn)行分?jǐn)?shù)匹配,主觀因素較大.因此,考慮到相似區(qū)域具有較高的分?jǐn)?shù),本文參考文獻(xiàn)[10]的方法,利用四元數(shù)卷積網(wǎng)絡(luò)提取圖像的特征向量分?jǐn)?shù),交替使用了重構(gòu)的四元數(shù)Bilinear Upsamping2D[13]和BN-Inception[14]網(wǎng)絡(luò),參數(shù)如圖5所示.在BN-Inception網(wǎng)絡(luò)中,使用了三個(gè)不同尺度的卷積核,提取不同級(jí)別的特征分?jǐn)?shù),然后將其連接起來(lái)形成一個(gè)整體,輸出尺寸為16×16×36.由于輸出尺寸的分辨率太小,不能達(dá)到尺寸為256×256的要求,因此在提取特征分?jǐn)?shù)的同時(shí),使用了4次Bilinear Upsamping2D解碼圖像,滿足輸出圖像分辨率的要求.最后,通過(guò)二值分類和1個(gè)3×3的卷積核,預(yù)測(cè)了圖像中的相似性區(qū)域,其二值分類交叉熵的損失函數(shù)為
圖5 BN-Inception和Bilinear Upsamping2D網(wǎng)絡(luò)參數(shù)
(12)
如圖1所示,紅色虛線框中的P分支作為C/P分支輔助任務(wù)僅提供粘貼區(qū)域的位置信息,將其作為融合模塊的一個(gè)輸入,為區(qū)分復(fù)制和粘貼位置提供了有效的輔助信息.首先采用C/P分支的WQVGG16提取圖像特征,然后使用圖5的方式去卷積并上采樣到原始圖像尺寸大小,最后通過(guò)二值分類器和一個(gè)3×3的卷積核定位粘貼區(qū)域.需要注意的是,它僅和C/P 分支的WQVGG16共享了網(wǎng)絡(luò)框架,但不共享權(quán)重.
為了在輸出結(jié)果中區(qū)分復(fù)制和粘貼區(qū)域,將C/P分支和P分支獲取的粘貼和相似區(qū)域連接起來(lái)輸入到BN-Inception網(wǎng)絡(luò)中進(jìn)行融合,得到能夠區(qū)分復(fù)制區(qū)域(綠色,橫線)、粘貼區(qū)域(紅色,豎線)和原始區(qū)域(藍(lán)色)的結(jié)果,如圖6所示.
圖6 融合模塊示意圖Fig.6 The module of fusion
為了驗(yàn)證所提算法的性能,分別在CoMoFoD[15]和CASIA CMFD[10]數(shù)據(jù)集上與現(xiàn)有算法作了主客觀對(duì)比實(shí)驗(yàn),對(duì)比算法包括基于Zernike矩[3]和Dense-field[4]的圖像分塊算法、基于SIFT[6]的圖像特征點(diǎn)算法、結(jié)合圖像特征點(diǎn)和圖像分塊的SIFT 和 DWT[7]算法、基于深度學(xué)習(xí)的DNN[10]和DMVN[16]算法(deep matching validation network).此外,本文在CoMoFoD[15]上評(píng)估了四元數(shù)卷積和DTCWT模塊的有效性.在實(shí)驗(yàn)過(guò)程中,使用了Adam優(yōu)化器優(yōu)化訓(xùn)練過(guò)程,學(xué)習(xí)率為1×10-2,激活函數(shù)為relu,總共訓(xùn)練迭代了44個(gè)epoch,每次batch都設(shè)置為256.為了保證對(duì)比算法結(jié)果的公平性,所有測(cè)試結(jié)果都在相同的計(jì)算機(jī)環(huán)境下(Intel(R) Core(TM) i7-6700 CPU@3.4 GHz,16 GB RAM)獲得.
現(xiàn)有Copy-move公開(kāi)數(shù)據(jù)集的圖像數(shù)量較少[18],通常為幾百幅,僅少數(shù)數(shù)據(jù)集為幾千幅,并且都沒(méi)有提供區(qū)分復(fù)制和粘貼區(qū)域的GT(ground truth)信息.本文選取了數(shù)據(jù)量相對(duì)較大的CoMoFoD和CASIA CMFD[10]數(shù)據(jù)集,并且借鑒其中處理圖像的方法處理數(shù)據(jù),獲得了可以區(qū)分復(fù)制區(qū)域和粘貼區(qū)域的GT信息.
CoMoFoD數(shù)據(jù)集共有5 000幅圖像,200幅基本的偽造圖像,根據(jù)粘貼的操作被分為平移、旋轉(zhuǎn)、縮放、組合和失真五類.為了隱藏篡改痕跡,對(duì)每幅圖像分別進(jìn)行改變亮度、對(duì)比度調(diào)整、褪色、模糊、添加噪聲和JPEG壓縮的后處理操作,具體參數(shù)見(jiàn)表1[15].本文參考CASIA CMFD數(shù)據(jù)集處理的方法,合成了三類GT信息,分別為粘貼、相似和彩色GT,示例如圖7第1行所示.CASIA CMFD數(shù)據(jù)集來(lái)自于公開(kāi)數(shù)據(jù)集CASIA TIDEv2.0,包括1 313幅篡改圖像,每幅圖像都包含一個(gè)粘貼、相似和彩色GT,示例如圖7第2行所示.彩色GT中紅色豎線代表篡改區(qū)域,綠色橫線表示復(fù)制區(qū)域,藍(lán)色表示原始區(qū)域.
表1 CoMoFoD數(shù)據(jù)集后處理參數(shù)[15]
圖7 CoMoFoD和CASIA CMFD數(shù)據(jù)集示例(從上到下)
為了驗(yàn)證所提算法的有效性,在CoMoFoD數(shù)據(jù)集上進(jìn)行了主觀對(duì)比,如圖8所示,是五種前處理的主觀對(duì)比結(jié)果,無(wú)后處理攻擊.可以看出,本文的算法在單一背景、復(fù)雜背景以及目標(biāo)和背景具有相似性的情況下,不僅能準(zhǔn)確地檢測(cè)到篡改區(qū)域,而且可以有效區(qū)分復(fù)制、粘貼和原始區(qū)域.
此外,為了驗(yàn)證所提算法對(duì)后處理攻擊的魯棒性,分別在改變亮度、對(duì)比度調(diào)整、褪色、模糊、JPEG壓縮和添加噪聲的后處理攻擊上與其他算法進(jìn)行了主觀對(duì)比.圖9(從上到下依次為改變亮度、對(duì)比度調(diào)整、褪色、模糊、JPEG壓縮和添加噪聲)展示了部分主觀對(duì)比結(jié)果,圖中改變亮度的變換范圍為(0.01,0.95),對(duì)比度調(diào)整范圍為(0.01,0.9),褪色的每個(gè)顏色通道的強(qiáng)度級(jí)別為64,模糊使用了5×5的平均濾波器,JPEG壓縮的質(zhì)量因子為20,添加的噪聲為高斯白噪聲(μ=0,σ2=0.009).可以看出,本文算法對(duì)6類后處理攻擊都表現(xiàn)出了魯棒的定位效果.
圖8 無(wú)后處理的主觀結(jié)果對(duì)比 Fig.8 The subjective comparison results without post processing
圖9 有后處理的主觀結(jié)果對(duì)比
在客觀結(jié)果對(duì)比中,使用Copy-move盲取證常用的準(zhǔn)確率Precision、召回率Recall、F1-score以及ROC曲線下的AUC面積對(duì)算法的性能進(jìn)行客觀評(píng)價(jià).其中,Precision、Recall和F1-score如下列公式所示:
(13)
(14)
(15)
式中:TP表示圖像中實(shí)際為篡改區(qū)域且被正確地定位為篡改區(qū)域的像素個(gè)數(shù);FP表示圖像中實(shí)際為真實(shí)區(qū)域而被錯(cuò)誤地定位為篡改區(qū)域的像素個(gè)數(shù);FN表示圖像中實(shí)際為篡改區(qū)域而錯(cuò)誤地定位為真實(shí)區(qū)域的像素個(gè)數(shù).
2.3.1CoMoFoD數(shù)據(jù)集上的客觀結(jié)果
為了評(píng)估所提算法在前處理和后處理情況下的性能,在CoMoFoD數(shù)據(jù)集上進(jìn)行了客觀對(duì)比,結(jié)果見(jiàn)表2.在無(wú)后處理的情況下,本文的算法顯著地提升了召回率,且F1-score高于對(duì)比算法,總體表現(xiàn)出了較好的檢測(cè)效果.雖然所提算法的準(zhǔn)確度低于DWT和SIFT的方法,但是該方法有很低的召回率,在Copy-move盲取證算法中,其準(zhǔn)確率和召回率有同等重要性,因此所提算法優(yōu)于對(duì)比算法.為了更好地反映算法的時(shí)間復(fù)雜度,本文還比較了不同算法處理每幅圖像的時(shí)間,如表2第5列所示.可以發(fā)現(xiàn)DNN[10]速度最快.由于所提算法使用了四元數(shù)卷積操作,相比于文獻(xiàn)[10]會(huì)有3倍的特征圖數(shù)量,導(dǎo)致了算法復(fù)雜度的增加,所提算法的訓(xùn)練時(shí)間雖然有所增加,但有效提高了篡改區(qū)域的定位精度.
表2 CoMoFoD數(shù)據(jù)集上無(wú)后處理客觀結(jié)果對(duì)比
為了驗(yàn)證所提算法在后處理攻擊下的穩(wěn)定性,本文分別在6類后處理下進(jìn)行了客觀實(shí)驗(yàn)對(duì)比,6類后處理的具體參數(shù)見(jiàn)表1,客觀對(duì)比結(jié)果如圖10所示.所提算法在6類后處理攻擊下都有較高的F1-score分?jǐn)?shù),表現(xiàn)出了穩(wěn)定而準(zhǔn)確的定位性能,優(yōu)于對(duì)比算法.
圖10 CoMoFoD數(shù)據(jù)集上后處理攻擊下的F1-score客觀對(duì)比Fig.10 The objective comparison results on CoMoFoD dataset with post processing attacks
2.3.2在CASIA CMFD數(shù)據(jù)集上的客觀結(jié)果
為了更好地評(píng)估所提算法的性能,本文在CASIA CMFD數(shù)據(jù)集上也進(jìn)行了客觀對(duì)比,結(jié)果見(jiàn)表3.可以看出,所提算法的準(zhǔn)確率和F1-score僅次于DNN的方法,但是本文算法的召回率最高,一定程度上優(yōu)于對(duì)比算法.此外,使用了AUC來(lái)評(píng)估算法的性能,如表3所列,本文所提算法的AUC值同樣僅次于DNN模型,由于DNN的訓(xùn)練模型數(shù)據(jù)量很大,超過(guò)了10萬(wàn),包含的數(shù)據(jù)類型較多,而所提算法使用的CASIA CMFD數(shù)據(jù)集有1 313幅圖像.所以,所提算法在一定程度上提升了Copy-move盲取證的定位精度.
表3 CMFD CASIA數(shù)據(jù)集上客觀結(jié)果對(duì)比
為了能更好地說(shuō)明本文算法的優(yōu)勢(shì),本文與其他對(duì)比算法的結(jié)果展開(kāi)了討論.對(duì)比算法除了在特征提取階段難以提取到彩色圖像一致性特征,且定位結(jié)果依賴于特征匹配階段手動(dòng)調(diào)節(jié)參數(shù)的缺陷之外,Zernike[3]算法使用Zernike矩提取圖像的特征,因其對(duì)旋轉(zhuǎn)具有代數(shù)不變性,僅能檢測(cè)有旋轉(zhuǎn)方向的篡改類型;Dense-field[4]算法對(duì)圖像尺寸的要求比較高,僅適合小尺寸圖像,圖像尺寸變大會(huì)增加圖像匹配階段的時(shí)間;SIFT[6]特征點(diǎn)匹配方法的時(shí)間和空間復(fù)雜度都很高;DNN[10]算法需要大量數(shù)據(jù)集訓(xùn)練模型,也缺少局部特征.而本文算法利用四元數(shù)卷積網(wǎng)絡(luò)和雙樹(shù)復(fù)數(shù)小波變換提取彩色圖像一致性特征和圖像局部特征的優(yōu)勢(shì),以及卷積網(wǎng)絡(luò)在特征匹配階段自動(dòng)匹配圖像特征的特性,解決了這些問(wèn)題.所提算法能夠較準(zhǔn)確地定位Copy-move篡改類型中的旋轉(zhuǎn)和縮放等前處理以及模糊、JPEG和添加噪聲等后處理的篡改攻擊圖像.所以,在主客觀結(jié)果中,可以看到所提算法在前處理和后處理篡改類型中都優(yōu)于對(duì)比算法.
為了證明算法中四元數(shù)卷積層的有效性,本文可視化了四元數(shù)卷積特征提取過(guò)程.圖11是QVGG16四個(gè)模塊的部分可視化圖,發(fā)現(xiàn)網(wǎng)絡(luò)在特征中很好地?cái)M合了圖像的顏色和邊緣信息,用于反映篡改操作引起的邊緣差異性,同時(shí)證明了引入四元數(shù)卷積網(wǎng)絡(luò)能夠提升篡改檢測(cè)性能.
在CoMoFoD數(shù)據(jù)集上驗(yàn)證了所提算法中選擇DTCWT的有效性和分解級(jí)數(shù)的合理性,數(shù)據(jù)集按照8∶2的比例進(jìn)行訓(xùn)練和測(cè)試.如表4所列,添加DTCWT時(shí)對(duì)檢測(cè)精度有提升效果,并且當(dāng)在基本算法模型的基礎(chǔ)上,將DTCWT的分解級(jí)數(shù)從1逐漸增加到4,發(fā)現(xiàn)當(dāng)級(jí)數(shù)為3時(shí),有較高的召回率和準(zhǔn)確率.
表4 在CoMoFoD數(shù)據(jù)集上DTCWT分解級(jí)數(shù)客觀對(duì)比
在實(shí)驗(yàn)訓(xùn)練過(guò)程中,本文給出了在CoMoFoD數(shù)據(jù)集上隨迭代次數(shù)變化的準(zhǔn)確率曲線和損失函數(shù)曲線,如圖12所示.當(dāng)訓(xùn)練到44次時(shí),損失函數(shù)誤差和精確度都趨于穩(wěn)定,所以本文在實(shí)驗(yàn)中選擇的訓(xùn)練次數(shù)為44.
圖12 損失函數(shù)和準(zhǔn)確率曲線Fig.12 The curve of loss function and accuracy
本文算法針對(duì)Copy-move盲取證算法很難提取到彩色圖像一致性特征和匹配時(shí)依賴于手動(dòng)調(diào)節(jié)參數(shù)的問(wèn)題,提出了一種基于雙樹(shù)復(fù)數(shù)小波四元數(shù)卷積網(wǎng)絡(luò)的Copy-move盲取證算法.首先,由于圖像的四元數(shù)表示形式,可以運(yùn)用縮放和旋轉(zhuǎn)操作在卷積過(guò)程中找到一個(gè)較好的顏色一致性特征表達(dá)方法,所以本文算法利用了四元數(shù)卷積網(wǎng)絡(luò)來(lái)提取彩色圖像的顏色一致性特征.其次,因Copy-move篡改會(huì)引起圖像局部信息發(fā)生變化,所以通過(guò)DTCWT高頻信息提取圖像的局部特征,將其與卷積網(wǎng)絡(luò)連接,獲取反映篡改痕跡的局部信息.然后,出于Copy-move篡改會(huì)使得圖像中存在至少兩個(gè)相似性較大的區(qū)域,因此先使用了皮爾遜相關(guān)系數(shù)計(jì)算特征向量之間的相似性分?jǐn)?shù),接著用卷積網(wǎng)絡(luò)提取具有較高分?jǐn)?shù)的相似區(qū)域,避免使用手動(dòng)調(diào)節(jié)參數(shù)來(lái)匹配相似區(qū)域.同時(shí),為了區(qū)分相似區(qū)域的來(lái)源,構(gòu)建了一個(gè)輔助分支,僅定位粘貼區(qū)域.最終,將粘貼區(qū)域和相似區(qū)域融合達(dá)到能夠區(qū)分復(fù)制和粘貼位置的目的.主客觀對(duì)比實(shí)驗(yàn)結(jié)果表明,本文提出的算法對(duì)于Copy-move盲取證算法具有一定的提升效果.今后的工作將會(huì)優(yōu)化WQVGG16網(wǎng)絡(luò)的結(jié)構(gòu),降低計(jì)算復(fù)雜度,縮短運(yùn)算時(shí)間,從而更好地提高盲取證的檢測(cè)效率.