趙鴻圖 周秋豪
摘 要:檢測整幅竄改圖像的方法增加了許多非必要的計算量,為了降低計算復(fù)雜度和進一步提高檢測精確率,提出了一種基于改進顯著圖和局部特征匹配的copy-move竄改檢測方法。首先,結(jié)合圖像梯度改進顯著圖,分離出包含圖像高紋理信息的局部顯著區(qū)域;其次,只對該局部區(qū)域采用SIFT(scale invariant feature transform)算法提取特征點;然后,對顯著性小的圖像采用密度聚類和二階段匹配策略,對顯著性大的圖像采用超像素分割和顯著塊特征匹配的策略;最后,結(jié)合PSNR和形態(tài)學(xué)操作來定位竄改區(qū)域。在兩個公開數(shù)據(jù)集上進行實驗,該方法的平均檢測時間小于10 s,平均檢測精確率大于97%,均優(yōu)于所對比的方法。實驗結(jié)果表明,該方法能夠大幅縮減檢測時間、有效提高檢測精確率,并且對幾何變換和后處理操作也都具有較好的魯棒性。
關(guān)鍵詞:copy-move竄改檢測;圖像顯著性;局部特征;SIFT算法;密度聚類;超像素分割
中圖分類號:TP391.41?? 文獻標志碼:A
文章編號:1001-3695(2023)09-044-2838-07
doi:10.19734/j.issn.1001-3695.2023.01.0012
Copy-move forgery detection based on improved saliency map and local feature matching
Zhao Hongtu,Zhou Qiuhao
(School of Physical & Electronic Information,Henan Polytechnic University,Jiaozuo Henan 454003,China)
Abstract:The method of detecting the whole tampered image increases many unnecessary calculations.In order to reduce the computational complexity and further improve the detection accuracy,this paper proposed a copy-move forgery detection method based on improved saliency map and local feature matching.Firstly,it combined the gradient of image to improve the saliency map,and separated the local salient regions containing high texture information of the image.Secondly,it only used SIFT(scale invariant feature transform) algorithm to extract feature points in this local area.Then,it adopted density clustering and two-stage matching strategy for images with low saliency,and adopted the strategy of superpixel segmentation and salient block feature matching for images with high saliency.Finally,it combined PSNR and morphological operations to locate the tampered area.Experiments on two public datasets show that the average detection time of this method is less than 10 s,and the average detection accuracy is greater than 97%,which are better than the compared methods.The experimental results show that this method can greatly reduce the detection time,effectively improve the detection accuracy,and has good robustness to geometric transformation and post-processing operations.
Key words:copy-move forgery detection;image saliency;local feature;SIFT algorithm;density clustering;superpixel segmentation
0 引言
近年來,Photoshop和Gimp等圖像編輯軟件的應(yīng)用日益廣泛,這使得圖像竄改的成本和門檻都在變低。如今,圖像竄改在新聞報道、司法取證、軍事領(lǐng)域和學(xué)術(shù)研究中均有運用,并且這些竄改后的圖像能以一種近乎完美的方式呈現(xiàn)出來,以至于肉眼難以發(fā)覺竄改區(qū)域。這也導(dǎo)致許多不法分子利用這類圖像進行違法犯罪活動,如在法庭上作偽證、社交網(wǎng)絡(luò)上傳播誤導(dǎo)性信息等,由此產(chǎn)生的負面影響引起了社會的廣泛關(guān)注。因此,有關(guān)圖像真實性和完整性的取證技術(shù)變得尤為重要。
copy-move竄改是圖像竄改的一種常見操作[1],它將圖像中的一個或多個區(qū)域粘貼到同一幅圖像的其他位置來隱藏或者復(fù)制感興趣的圖像內(nèi)容,并且在竄改過程中通常會伴隨著幾何變換和后處理操作。幾何變換包括旋轉(zhuǎn)和縮放等,后處理操作包括高斯模糊處理、添加高斯白噪聲等。為了檢測copy-move竄改區(qū)域,學(xué)者們提出了許多copy-move竄改檢測(copy-move forgery detection,CMFD)的方法,這些方法一般可以分為三種,即基于塊的方法、基于特征點的方法以及基于特征點和塊的方法。其中,前兩種方法有相似的流程,包括圖像特征提取、特征匹配、消除假匹配和定位竄改區(qū)域。
基于塊的方法是將圖像劃分為重疊的圓形或方形的塊,并從這些塊中提取特征。文獻[2]采用極性復(fù)指數(shù)變換(polar complex exponential transformation,PCET)和奇異值分解(singular value decomposition,SVD)對圓形塊進行特征提取和降維處理,通過相似閾值估計進行塊匹配。文獻[3]采用離散余弦變換(discrete cosine transform,DCT)和細胞自動機(cellular automata,CA)進行特征提取,通過補丁匹配算法(patch math,PM)進行塊匹配。雖然分塊方法精度很高,但大量的塊特征導(dǎo)致了較高的計算復(fù)雜度,并且該方法對幾何變換的魯棒性不強。而基于特征點的方法通過提取圖像高紋理區(qū)域的特征點和描述局部特征來彌補塊方法的不足。文獻[4]采用尺度不變特征變換(scale-invariant feature transform,SIFT)提取特征點,通過雙級過濾進行特征匹配。文獻[5]將加速魯棒特征(speeded up robust features,SURF)應(yīng)用于特征提取。文獻[6]采用AKAZE(accelerated KAZE)提取特征點和相應(yīng)特征,通過密度聚類(density-based spatial clustering of applications with noise,DBSCAN)消除錯誤匹配。文獻[7]通過改進SIFT算法得到增強型的RootSIFT算法,再結(jié)合相似性度量來標記竄改區(qū)域。與分塊方法相比,雖然基于特征點的方法檢測精度會降低,但由于它避開了窮舉搜索,從而降低了運算的復(fù)雜度。基于特征點和塊的方法則結(jié)合了兩者的優(yōu)點,為特征提取提供了新的思路。文獻[8]首先提取Harris角點,再利用角點周圍五個均值生成特征向量來實現(xiàn)竄改檢測。文獻[9]應(yīng)用RANSAC(random sample consensus)算法消除誤匹配,通過生成仿射變換矩陣來獲取可疑竄改區(qū)域。文獻[10,11]采用簡單線性迭代聚類(simple linear iterative clustering,SLIC)將圖像分成不規(guī)則和不重疊的超像素塊,通過對每個塊提取特征點來進行檢測。文獻[12,13]利用SLIC超像素分割和聚類分析將圖像劃分為復(fù)雜區(qū)域和平滑區(qū)域進行檢測。文獻[14]使用自適應(yīng)形態(tài)重建(adaptive morphological reconstruction,AMR)算法結(jié)合密度聚類算法自適應(yīng)劃分超像素,再在多個子區(qū)域提取密集特征點,然后結(jié)合128維SIFT特征和7維局部四元數(shù)Hu矩特征來描述特征點,使得算法具有較好的魯棒性。
然而,copy-move竄改通常是對局部區(qū)域進行竄改,但目前的諸多算法在檢測時都是對整幅圖像進行特征提取,這增加了許多不必要的計算量。并且,密度聚類和超像素分割結(jié)果受參數(shù)影響較大,當竄改區(qū)域和原始區(qū)域相距較近或部分重疊時,算法可能會失效。針對上述問題,本文提出了一種結(jié)合圖像顯著性的竄改檢測方法。該方法首先結(jié)合圖像梯度對顯著圖進行改進,使其更好地提取圖像的高紋理和顯著性區(qū)域,然后根據(jù)顯著性大小來分配不同的檢測策略。當顯著性小時,只提取顯著區(qū)域特征點,然后進行粗匹配和密度聚類,再對聚類結(jié)果使用簇間匹配或簇內(nèi)匹配獲取匹配對;當顯著性大時,先采用超像素分割獲取不規(guī)則塊,然后只對顯著區(qū)域所在的塊進行特征點提取,再通過塊間匹配或塊內(nèi)匹配獲取匹配對。其中,聚類半徑和超像素塊初始尺寸均由顯著性大小確定。最后根據(jù)匹配對采用峰值信噪比(peak signal to noise ratio,PSNR)和形態(tài)學(xué)操作定位竄改區(qū)域。該方法通過縮減檢測區(qū)域,能夠大幅降低計算復(fù)雜度,并且通過簇間匹配和塊間匹配能夠提高檢測的準確率。
4 實驗仿真及分析
4.1 數(shù)據(jù)集和實驗環(huán)境
實驗測試樣本選取文獻[20]提出的Dataset數(shù)據(jù)集和文獻[21]中提出的CMH數(shù)據(jù)集。Dataset數(shù)據(jù)集共有90張大小約為1 000×700或700×1 000的竄改圖像,CMH數(shù)據(jù)集共有108張大小從845×634像素(最?。┑? 296×972像素(最大)不等的竄改圖像,兩個數(shù)據(jù)集均包含了旋轉(zhuǎn)和縮放攻擊的copy-move竄改圖像。所有實驗仿真以MATLAB 2019b為實驗平臺,在Intel Core i5-6300HQ CPU @ 2.30 GHz,運行內(nèi)存8 GB的個人電腦中運行。
4.2 方法復(fù)雜度與合理性實驗
4.2.1 方法復(fù)雜度實驗
與傳統(tǒng)竄改檢測方法不同,本文在對竄改圖像提取特征點時,通過改進的顯著圖獲取圖像的顯著區(qū)域,從而達到縮小檢測范圍和減少計算量的目的。然后只對顯著區(qū)域進行特征點提取和進一步的匹配處理。為了驗證本文算法的復(fù)雜度,將檢測整幅圖像的方法和只檢測顯著區(qū)域的方法進行對比。其中,檢測整幅圖像的方法是將圖2流程圖中的輸入圖像由改進顯著圖替換成原始圖像的灰度圖。部分實驗結(jié)果如圖3所示,對應(yīng)的檢測結(jié)果和時間如表1所示。其中,(a)為原始竄改圖像,(b)為改進的顯著圖,(c)為對整幅圖像提取特征點的結(jié)果,(d)為(c)的特征點匹配結(jié)果,(e)為只提取顯著區(qū)域特征點的結(jié)果,(f)為(e)的特征點匹配結(jié)果。
通過圖3和表1發(fā)現(xiàn),對于人物圖像,本文方法在保持正確匹配對數(shù)不減少的情況下,特征點提取的總數(shù)量減少了20.18%,檢測時間縮短了34.55%。對于風(fēng)景圖像,本文方法在保持99.05%的正確匹配對數(shù)情況下,特征點提取的總數(shù)量減少了28.5%,檢測時間縮短了45.79%。因此,本文提出的檢測顯著區(qū)域方法相對于檢測整幅圖像的方法而言,能夠有效減少提取特征點的數(shù)量,進而大幅縮短檢測總時間。因此,本文方法的復(fù)雜度更低。
4.2.2 方法合理性實驗
為了驗證所提方法的合理性,本文對上述提取的顯著性區(qū)域繼續(xù)實驗,采用兩種策略對同一幅竄改圖像檢測結(jié)果進行對比,實驗結(jié)果如表2所示。
通過表1和表2發(fā)現(xiàn),對于顯著性較小的人物圖像,由于提取的特征點總數(shù)量較少,其兩次匹配的時間要遠小于劃分超像素塊的時間,這也導(dǎo)致超像素顯著塊匹配策略的總檢測時間更長。對于顯著性較大的風(fēng)景圖像,由于提取的特征點數(shù)量較多,導(dǎo)致其密度聚類的時間大幅增加,而劃分超像素塊的時間反而減少。這是因為圖像顯著性越大,劃分后的每個塊尺寸越大,總塊數(shù)就越少,分割時間也越短。此外,二階段匹配策略的正確匹配對數(shù)也要略高于超像素顯著塊匹配策略。
綜上,本文對于顯著性小的竄改圖像采用二階段匹配策略能夠在提高匹配對數(shù)的情況下同時縮短檢測時間;對于顯著性大的竄改圖像,采用超像素顯著塊匹配策略能夠在對檢測精確度影響很小的情況下大幅縮短檢測時間。因此,本文方法具有合理性。
4.3 算法有效性實驗
本文對CMH數(shù)據(jù)集中23張和Dataset數(shù)據(jù)集中50張只經(jīng)過簡單平移copy-move竄改檢測的圖像進行實驗,部分實驗結(jié)果如圖4所示。其中,(a)為原始竄改圖像,(b)為改進的顯著圖,(c)為兩種策略的聚類結(jié)果和提取顯著區(qū)域超像素特征點結(jié)果,(d)為特征點匹配結(jié)果,(e)為通過形態(tài)學(xué)操作定位出竄改區(qū)域位置,(f)為竄改圖像真實的竄改區(qū)域位置。
根據(jù)圖4可知,由于兩個公開數(shù)據(jù)集中的竄改區(qū)域和原始區(qū)域位置相距較遠,使得檢測策略均為簇間匹配和塊間匹配。而只有當竄改區(qū)域和原始區(qū)域有部分重疊或相距較近時,才會采用簇內(nèi)匹配和塊內(nèi)匹配的策略。所以,為進一步體現(xiàn)算法的有效性,本文在dataset數(shù)據(jù)集中選取20張原始圖像進行近距離或部分重疊竄改,并對這些竄改圖像進行實驗,部分檢測結(jié)果如圖5所示。
通過圖4和5的檢測結(jié)果發(fā)現(xiàn),本文方法能夠根據(jù)竄改圖像的顯著性大小使用不同的檢測策略,并對所測試的簡單平移copy-move竄改的圖像具有很好的檢測性能。
4.4 算法魯棒性實驗
4.4.1 幾何變換竄改檢測
為驗證本文方法對幾何變換竄改的魯棒性,對CMH數(shù)據(jù)集中25張經(jīng)歷縮放竄改變換的圖像(縮放因子在0.8~1.54)、25張經(jīng)歷旋轉(zhuǎn)竄改變換的圖像(旋轉(zhuǎn)方向在-90°~180°)以及35張同時經(jīng)歷縮放和旋轉(zhuǎn)的圖像進行實驗,部分實驗結(jié)果如圖6所示。
通過對比圖6中真值圖像發(fā)現(xiàn),本文檢測結(jié)果邊緣部分有少數(shù)像素缺失,但是基本能夠還原出竄改區(qū)域的形狀和具體位置。因此,本文算法對縮放和旋轉(zhuǎn)變換的竄改圖像能夠保持較好的檢測性能。
4.4.2 后期處理竄改檢測
為驗證本文方法對后期處理竄改的魯棒性,本文對兩個數(shù)據(jù)集中的83張簡單平移竄改圖像進行高斯模糊處理和添加高斯白噪聲處理。其中,高斯模糊處理的濾波窗口為3×3,模糊因子分別為f=0.5和f=2;添加噪聲的均值為0,方差分別為v=0.000 5和v=0.001。部分實驗結(jié)果如圖7所示。
通過對比圖7中真值圖像和本文檢測結(jié)果發(fā)現(xiàn),在檢測高斯模糊處理的圖像時,本文檢測方法對邊緣細節(jié)的還原能力略微不足,使得邊緣較為平滑,但即使面對模糊因子較大的高斯模糊處理仍能檢測出竄改區(qū)域的基本輪廓。此外,在檢測添加高斯白噪聲的圖像時,對于方差較大的加噪處理,本文檢測結(jié)果的邊緣部分會出現(xiàn)細微程度的漏檢,存在少量像素缺失的現(xiàn)象,但同樣基本可以檢測出竄改區(qū)域的形狀和具體位置。綜合來說,本文方法對后期處理竄改檢測能夠保持良好的檢測性能,具有較好的魯棒性。
4.5 算法性能對比實驗
為了更好地研究本文方法的性能,將本文方法與同樣基于特征點的新興趣點檢測方法[22]、采用SLIC超像素分割和聚類分析的檢測方法[13]以及基于密度聚類的AMR超像素分割檢測方法[14]進行對比。采用TRP和FPR來衡量方法的檢測性能,其中,TPR是竄改區(qū)域被正確檢測的概率,F(xiàn)PR是竄改區(qū)域被檢測為真實區(qū)域的概率。
TPR=正確檢測出來的竄改像素數(shù)量竄改區(qū)域總像素數(shù)量
FPR=竄改像素被檢測為真實像素的數(shù)量真實像素總數(shù)量
在本文采用的兩個公開數(shù)據(jù)集上進行驗證,并繪制簡單copy-move、幾何變換與后期處理操作的ROC曲線分別如圖8~10所示。
通過圖8發(fā)現(xiàn),四種方法的TPR都在90%以上,并且FPR都小于10%,這表明四種方法對簡單copy-move竄改檢測均有良好的表現(xiàn)。而本文方法在密度聚類前后采用的二階段匹配策略能夠更好地消除誤匹配,因此具有更高的TPR和更低的FPR。
通過圖9發(fā)現(xiàn),旋轉(zhuǎn)和縮放變換都會導(dǎo)致檢測性能降低,但TPR也都保持在85%以上,原因是四種方法提取的特征點特征都是利用它們周圍領(lǐng)域內(nèi)穩(wěn)健、不變的特征來描述的,因此對幾何變換都有較好的魯棒性。本文增加的簇內(nèi)匹配和塊內(nèi)匹配策略能夠提高檢測精確率,因此TPR也高于其余三種方法。
通過圖10發(fā)現(xiàn),后處理操作會稍大程度地降低檢測性能,原因是高斯模糊和添加白噪聲都會影響特征點提取的數(shù)量和位置,從而增大了定位時產(chǎn)生的誤差。文獻[22]方法檢測性能下降最多,原因是過濾階段未被移除的誤匹配點會導(dǎo)致迭代擴展可疑區(qū)域興趣點過程的誤差增大。而本文方法在定位時通過獲取矩形領(lǐng)域最佳PSNR來擴展可疑區(qū)域,因此具有更好的魯棒性。
為了驗證本文方法在時間復(fù)雜度上的優(yōu)勢,將數(shù)據(jù)集拆分為顯著性小于等于30%的圖像和顯著性大于30%的圖像,并分別使用四種方法對同一幅圖像進行實驗。各算法的平均檢測時間如圖11所示。
通過圖11發(fā)現(xiàn),由于本文只對顯著性區(qū)域進行特征提取,并針對顯著性大小分配不同的檢測策略,所以大幅縮減了檢測時間。文獻[13]雖然也采用了時間上具有優(yōu)勢的超像素分割策略,但需要計算每個超像素塊的像素均值、標準差以及特征點與塊總像素的比率,并根據(jù)這些參數(shù)利用K-means聚類將圖像的超像素劃分為復(fù)雜區(qū)域和平滑區(qū)域分別進行檢測,因此大幅增加了時間開銷。文獻[14]的方法在多個步驟中通過增加時間開銷來換取檢測精度,首先在區(qū)域劃分時使用了密度聚類來對超像素的顏色矩進行聚類,其次為得到均勻特征點,通過反復(fù)計算特征點密集度來動態(tài)調(diào)整對比度閾值,然后在竄改區(qū)域定位時通過比較匹配點10×10領(lǐng)域的零均值歸一化互相關(guān)系數(shù)來去除孤立點,最后再次對原圖使用SLIC超像素分割和K-means聚類進一步去除孤立點,因此該方法的時間復(fù)雜度較高。文獻[22]提取的新興趣點數(shù)量較大,并且需要經(jīng)過四次迭代才獲得最終的檢測結(jié)果,因此在時間開銷上最不具優(yōu)勢。
綜上可知,通過對比其他三種方法,本文方法對幾何變換和后期處理的魯棒性更好,并且在檢測時間上也更具有優(yōu)勢。
5 結(jié)束語
本文提出了一種基于改進顯著圖和局部特征匹配的copy-move竄改檢測方法。該方法首先利用梯度圖改進顯著圖,通過獲取圖像的顯著性區(qū)域來縮減檢測范圍。為減小時間開銷,對顯著性小的圖像采用基于密度聚類的二階段匹配策略,對顯著性大的圖像采用基于超像素分割和顯著塊特征匹配的檢測策略,并通過增加簇內(nèi)匹配和塊內(nèi)匹配來提高方法的檢測精度,再利用PSNR和形態(tài)學(xué)操作來定位竄改區(qū)域。最后,在兩個公開數(shù)據(jù)集上進行實驗仿真。結(jié)果表明該方法的檢測精度較高、時間復(fù)雜度較低,并對幾何變換和后處理操作都具有較好的魯棒性。然而,雖然本文方法對竄改視覺重要區(qū)域的圖像具有較好的檢測性能,但當竄改區(qū)域位于圖像低紋理的平滑區(qū)域時,該方法可能無法有效定位出完整的竄改區(qū)域。因此,如何進一步提高圖像平滑區(qū)域copy-move竄改的檢測精確度是今后研究工作的方向。
參考文獻:
[1]Fridrich A J,Soukal B D,Luká A J.Detection of copy-move forgery in digital images[C]//Proc of Digital Forensic Research Workshop.Washington DC:IEEE Computer Society,2003:55-61.
[2]Wang Yilan,Kang Xiaobing,Chen Yanjun.Robust and accurate detection of image copy-move forgery using PCET-SVD and histogram of block similarity measures[J].Journal of Information Security and Applications,2020,54(21-23):102536.
[3]Gani G,Qadir F.Copy move forgery detection using DCT,PatchMatch and cellular automata[J].Multimedia Tools and Applications,2021,80:32219-32243.
[4]Yang Jixiang,Liang Zhiyao,Gan Yanfen,et al.A novel copy-move forgery detection algorithm via two-stage filtering[J].Digital Signal Processing,2021,113(4):103032.
[5]Xu Bo,Wang Junwen,Liu Guangjie,et al.Image copy-move forgery detection based on SURF[C]//Proc of International Conference on Multimedia Information Networking & Security.Washington DC:IEEE Computer Society,2010:889-892.
[6]Zhou Xuehua,Shi Qingjie.Multiple copy-move forgery detection based on density clustering[J].Pattern Recognition and Image Analysis,2021,31(1):109-116.
[7]Sujin J S,Sophia S.Copy-move geometric tampering estimation through enhanced sift detector method[J].Computer Systems Science and Engineering,2023,44(1):157-171.
[8]趙潔,武斌,張艷.基于Harris興趣點和空域均值信息的圖像復(fù)制粘貼竄改檢測算法[J].計算機應(yīng)用研究,2013,30(9):2791-2794.(Zhao Jie,Wu Bin,Zhang Yan.Detection algorithm of image copy-move forgery based on Harris and spacial average information[J].Application Research of Computers,2013,30(9):2791-2794.)
[9]王任華,霍宏濤,蔣敏.RANSAC算法在同圖復(fù)制鑒定中的應(yīng)用研究[J].計算機應(yīng)用研究,2014,31(7):2209-2212.(Wang Renhua,Huo Hongtao,Jiang Min.Application research of RANSAC algorithm on copy-move forgery detection[J].Application Research of Computers,2014,31(7):2209-2212.)
[10]Pun Chiman,Yuan Xiaochen,Bi Xiuli.Image forgery detection using adaptive over segmentation and feature point matching[J].IEEE Trans on Information Forensics and Security,2015,10(8):1705-1716.
[11]Narayanan S S,Gopakumar G.Recursive block based keypoint ma-tching for copy move image forgery detection[C]//Proc of the 11th International Conference on Computing,Communication and Networking Technologies.Washington DC:IEEE Computer Society,2020:1-6.
[12]Liu Yong,Wang Hongxia,Wu Hanzhou,et al.An efficient copy-move detection algorithm based on superpixel segmentation and Harris key-points[C]//Proc of International Conference on Cloud Computing and Security.Berlin:Springer,2017:61-73.
[13]Liu Yong,Wang Hongxia,Chen Yi,et al.A passive forensic scheme for copy-move forgery based on superpixel segmentation and K-means clustering[J].Multimedia Tools and Applications,2020,79(1-2):477-500.
[14]魏偉一,王婉茹,趙毅凡,等.基于區(qū)域劃分和四元數(shù)的彩色圖像復(fù)制粘貼竄改檢測[J].計算機工程與科學(xué),2022,44(7):1256-1264.(Wei Weiyi,Wang Wanru,Zhao Yifan,et al.Color image copy-move forgery detection based on region division and quaternion[J].Computer Engineering and Science,2022,44(7):1256-1264).
[15]獨智序,王曉峰.基于穩(wěn)健特征點的圖像copy-move竄改檢測算法[J].云南大學(xué)學(xué)報:自然科學(xué)版,2019,41(1):61-67.(Du Zhixu,Wang Xiaofeng.Image copy-move tampering detection algorithm based on robust feature points[J].Journal of Yunnan University:Natural Science Edition,2019,41(1):61-67).
[16]Amerini I,Ballan L,Caldelli R,et al.A SIFT-based forensic method for copy-move attack detection and transformation recovery[J].IEEE Trans on Information Forensics and Security,2011:1099-1110.
[17]Mohamed A B,Gunasekaran M,F(xiàn)akhry A E,et al.2-levels of clustering strategy to detect and locate copy-move forgery in digital images[J].Multimedia Tools and Applications,2018,6(3):1-19.
[18]Prakash C S,Panzade P P,Om H,et al.Detection of copy-move forgery using AKAZE and SIFT keypoint extraction[J].Multimedia Tools and Applications,2019(7):23535-23558.
[19]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Trans on Pattern Analysis & Machine Intelligence,2012,34(11):2274-2282.
[20]Ardizzone E,Bruno A,Mazzola G.Copy-move forgery detection by matching triangles of keypoints[J].IEEE Trans on Information Forensics and Security,2015,10(10):2084-2094.
[21]Ewerton S,Tiago C,Anselmo F,et al.Going deeper into copy-move forgery detection:exploring image telltales via multi-scale analysis and voting processes[J].Journal of Visual Communication and Image Representation,2015,29:16-32.
[22]Zandi M,Mahmoudi-Aznaveh A,Talebpour A.Iterative copy-move forgery detection based on a new interest point detector[J].IEEE Trans on Information Forensics and Security,2016,11(11):2499-2512.
收稿日期:2023-01-03;修回日期:2023-02-14? 基金項目:河南省科技廳科技攻關(guān)和軟科學(xué)項目(192102310446);河南省高校基本科研業(yè)務(wù)費專項資金資助項目(NSFRF210406)
作者簡介:趙鴻圖(1965-),男(通信作者),河南長垣人,副教授,碩導(dǎo),博士,主要研究方向為智能信息處理、數(shù)字信號處理等;周秋豪(1997-),男,河南信陽人,碩士,主要研究方向為圖像處理、智能信息處理等(hao1142055898@163.com).