国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于DeepLab v3+的多任務(wù)圖像拼接篡改檢測(cè)算法

2022-01-14 03:02朱昊昱陳祺東
計(jì)算機(jī)工程 2022年1期
關(guān)鍵詞:解碼器卷積特征

朱昊昱,孫 俊,陳祺東

(江南大學(xué)人工智能與計(jì)算機(jī)學(xué)院,江蘇無錫 214122)

0 概述

隨著數(shù)字圖像處理軟件的開發(fā)與普及,用戶可以輕易地對(duì)圖像數(shù)據(jù)形式及內(nèi)容進(jìn)行修改,但這也給違法分子可乘之機(jī),使其在未經(jīng)授權(quán)的情況下也能對(duì)圖像數(shù)據(jù)與內(nèi)容進(jìn)行非法操作[1],例如篡改證照、偽造新聞圖片、人臉篡改[2]等,對(duì)社會(huì)的和諧穩(wěn)定造成負(fù)面影響。在圖像取證領(lǐng)域中,圖像拼接是一種最為常見的篡改方式,即把某圖像的一部分復(fù)制粘貼到另一幅圖像中。傳統(tǒng)的圖像拼接篡改檢測(cè)算法主要利用圖像的頻域特性或統(tǒng)計(jì)特征,例如局部噪聲估計(jì)[3]、色彩濾鏡矩陣(Color Filter Array,CFA)模式分析[4]、離散余弦(Discrete Cosine Transform,DCT)系數(shù)[5]等。但在現(xiàn)實(shí)生活中,圖像的篡改方法比較復(fù)雜。例如,為了掩蓋圖像的篡改痕跡,偽造者還會(huì)對(duì)圖像的篡改邊界進(jìn)行高斯平滑或中值濾波等模糊操作[6],使篡改區(qū)域得以更好地融入到整幅圖像中。但傳統(tǒng)方法只能針對(duì)特定的篡改方法進(jìn)行檢測(cè),難以檢測(cè)復(fù)雜的篡改方法。

近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在計(jì)算機(jī)視覺領(lǐng)域取得了重大的突破,研究人員把CNN 應(yīng)用到圖像拼接篡改檢測(cè)中,但大部分基于深度學(xué)習(xí)的方法[7-9]只是利用CNN 分類篡改圖像,不能定位圖像的篡改區(qū)域。ZHANG 等[10]對(duì)篡改區(qū)域的定位進(jìn)行了初步嘗試,但只能得到一些粗糙的正方形區(qū)域。BAPPY 等[11]提出CNN-LSTM 模型預(yù)測(cè)圖像的篡改區(qū)域,使用LSTM 捕捉圖像塊的重壓縮特征,但無法完全識(shí)別位于篡改區(qū)域內(nèi)的圖像塊。SALLOUM 等[12]提出多任務(wù)全卷積網(wǎng)絡(luò)(Multitask Fully Convolutional Network,MFCN),使用了分類網(wǎng)絡(luò)VGG-16[13]來提取圖像特征,然后分別預(yù)測(cè)圖像的篡改區(qū)域和篡改邊界,有效提升了篡改區(qū)域的分割精度。CUN 等[14]在CNN-LSTM 模型的基礎(chǔ)上進(jìn)行改進(jìn),增加一個(gè)預(yù)測(cè)圖像塊篡改可能性的分類網(wǎng)絡(luò),并使用條件隨機(jī)場(chǎng)(Conditional Random Fields,CRF)改善了預(yù)測(cè)結(jié)果,但算法的分割精度依然不高。ZHOU 等[15]提出一個(gè)基于Faster-RCNN[16]的雙流網(wǎng)絡(luò),在模型中融合了通過SRM[17]濾波器提取的圖像噪聲特征,但該方法無法對(duì)篡改區(qū)域進(jìn)行分割。此外,還有一些基于圖像相似性[18]和語義分割[19]的篡改檢測(cè)方法,類似于語義分割,圖像篡改區(qū)域分割的難點(diǎn)也在于尋找區(qū)域邊界,以上提到的算法使用傳統(tǒng)的分類網(wǎng)絡(luò)來提取圖像特征,多次下采樣后丟失了圖像的語義信息和篡改痕跡,導(dǎo)致最終的檢測(cè)效果較差。

本文提出一種基于DeepLab v3+的圖像拼接篡改檢測(cè)算法,在語義分割網(wǎng)絡(luò)DeepLab v3+[20]中增加分支網(wǎng)絡(luò),利用圖像的淺層特征預(yù)測(cè)篡改區(qū)域邊界,使模型對(duì)圖像的篡改邊界更加敏感。同時(shí),將卷積塊注意模塊(Convolutional BlockAttention Module,CBAM)[21]注意力機(jī)制融入到DeepLabv3+中的空洞空間金字塔池化(Atrous SpatialPyramidPooling,ASPP)模塊中,并對(duì)空間和語義信息進(jìn)行壓縮和建模,從而加強(qiáng)模型對(duì)多尺度篡改區(qū)域的適應(yīng)性。

1 DeepLab v3+網(wǎng)絡(luò)

本節(jié)將對(duì)DeepLab v3+進(jìn)行簡(jiǎn)要介紹,包括空洞卷積核、ASPP 模塊及其網(wǎng)絡(luò)架構(gòu)。DeepLab 系列是一種經(jīng)典的語義分割網(wǎng)絡(luò),使用空洞卷積核替換了普通卷積,可以在不縮小特征圖的前提下增加感受野,從而更好地分割出圖像中的目標(biāo)區(qū)域。

1.1 空洞卷積

在經(jīng)典的分類網(wǎng)絡(luò)如VGG-16、ResNet[22]等圖像的內(nèi)容信息容易被丟失,導(dǎo)致使用經(jīng)典分類網(wǎng)絡(luò)進(jìn)行語義分割的效果有待提高。對(duì)此,CHEN 等[23]提出DeepLab v1網(wǎng)絡(luò),把空洞卷積應(yīng)用到語義分割網(wǎng)絡(luò)中,替換原有網(wǎng)絡(luò)中的普通卷積層??斩淳矸e的計(jì)算形式如下:

其中:x為一維的特征向量;y為卷積后輸出的特征向量;i為y中的每一個(gè)位置;ω為空洞卷積核;k為卷積核中的參數(shù);r為空洞卷積的采樣率。

空洞卷積在保持特征圖尺寸大小不變的情況下增加其感受野,其結(jié)構(gòu)如圖1 所示。其中:kernel 為卷積核大小;stride 為卷積步長(zhǎng);pad 為填充寬度;rate代表空洞卷積的采樣率(標(biāo)準(zhǔn)卷積核采樣率為1)。當(dāng)rate=pad 時(shí),輸入和輸出特征圖的大小相同,但相比于普通卷積感受野更大。

圖1 空洞卷積結(jié)構(gòu)Fig.1 Structure of arous convolution

1.2 ASPP 模塊

如果使用相同采樣率的空洞卷積來處理特征圖,那么模型就無法很好地檢測(cè)圖像中的多尺度物體。對(duì)此,CHEN 等[24]設(shè)計(jì)了一個(gè)ASPP 模塊,使用不同采樣率的空洞卷積來學(xué)習(xí)多尺度信息,每個(gè)尺度為一個(gè)獨(dú)立的分支。ASPP 的結(jié)構(gòu)如圖2 所示,ASPP 模塊由4 個(gè)空洞卷積組成,采樣率(rate)分別為1、6、12、18,其中Conv 代表卷積核。

圖2 ASPP 模塊的網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure of ASPP module

1.3 DeepLab v3+網(wǎng)絡(luò)

DeepLab v3+是經(jīng)典的語義分割網(wǎng)絡(luò)之一,采用了Encoder-Decoder結(jié)構(gòu),在編碼過程中把特征提取網(wǎng)絡(luò)中的普通卷積替換為采樣率為2 的空洞卷積,可以在特征圖大小保持不變的情況下增加感受野,此外,還使用了ASPP 模塊來對(duì)多尺度的上下文信息進(jìn)行編碼。在解碼過程中通過上采樣以及融合淺層特征的方式恢復(fù)了特征圖的空間信息,從而捕獲更清晰的對(duì)象邊界。DeepLab v3+采用的是全卷積神經(jīng)網(wǎng)絡(luò),接受多尺度的圖像輸入,較好地保留了圖像的語義信息和維度特征,在語義分割領(lǐng)域中取得了較好的預(yù)測(cè)結(jié)果。本文將其網(wǎng)絡(luò)架構(gòu)進(jìn)行了改進(jìn),并應(yīng)用到圖像篡改檢測(cè)領(lǐng)域中。

2 圖片篡改檢測(cè)模型

本文提出的網(wǎng)絡(luò)架構(gòu)如圖3 所示,模型由編碼器、解碼器1、解碼器2 這3 部分組成,輸入的圖像大小為512×512,在編碼器中使用ResNet101 以及融合了CBAM 注意力機(jī)制后的ASPP 模塊來提取圖像的深層特征,在解碼器1 中融合了深層特征和淺層特征來預(yù)測(cè)圖像的篡改區(qū)域,在解碼器2 中使用了淺層特征來預(yù)測(cè)圖像的篡改區(qū)域邊界。下面將對(duì)編碼器、解碼器1、解碼器2 這3 個(gè)模塊進(jìn)行詳細(xì)介紹。

圖3 基于DeepLab v3+的多任務(wù)圖像拼接篡改檢測(cè)架構(gòu)Fig.3 Multi-task framework for image splicing forgery detection based on DeepLab v3+

2.1 編碼器

將使用ResNet101 提取的圖像特征送入ASPP模塊中,并通過采樣率分別為1、6、12、18 的空洞卷積和全局平均池化層得到不同尺寸的感受野特征圖,其中1×1 Conv 和3×3 Conv 分別代表kernel 大小為1 或3 的卷積核。特征圖在拼接后通過CBAM 注意力機(jī)制對(duì)語義信息進(jìn)行建模,CBAM 注意力模塊結(jié)構(gòu)如圖4 所示。

圖4 CBAM 注意力模塊結(jié)構(gòu)Fig.4 Structure of CBAM attention module

由圖4可知,輸入的圖像特征F先通過通道注意力模塊得到加權(quán)結(jié)果MC(F)后,再經(jīng)過一個(gè)空間注意力模塊加權(quán)后輸出最終結(jié)果MS(F)。MC(F)的計(jì)算過程如下:

其中:F為輸入的特征圖;MaxPool和AvgPool分別為全局最大池化層和全局平均池化層;MLP(Multi-Layer Perceptron)為多層感知機(jī);σ為sigmoid激活函數(shù)。

通道注意力模型的結(jié)構(gòu)如圖5 所示,首先將輸入的特征圖分別經(jīng)過空間維度上的MaxPool 和AvgPool,然后經(jīng)過兩層MLP 并基于Element-wise 將輸出的特征圖相加,最后經(jīng)過sigmoid 激活函數(shù)后得到通道特征圖MC。得到的通道特征圖MC和輸入的特征圖F基于Element-wise 相乘,生成空間注意力模塊需要的輸入特征圖MC(F)。

圖5 通道注意力模塊結(jié)構(gòu)Fig.5 Structure of channel attention module

本文所提模型使用ASPP 模塊得到不同感受野大小的特征圖,通道注意力可以將特征圖在空間維度上進(jìn)行建模,使模型關(guān)注響應(yīng)最大的通道特征,而忽略響應(yīng)小的通道特征。MS(F)的計(jì)算過程為:

其中:MC(F)為輸入的特征圖;f7×7為7×7 大小的卷積核;σ為sigmoid 激活函數(shù)??臻g注意力模塊的結(jié)構(gòu)如圖6 所示,首先將輸入的特征圖分別經(jīng)過通道維度上的MaxPool 和AvgPool,然后將其輸出基于通道維度進(jìn)行拼接,最后經(jīng)過卷積操作和sigmoid 激活函數(shù)后得到空間特征圖MS。將得到的空間特征圖MS和輸入的特征圖MC(F)基于Element-wise 相乘,生成通道注意力加強(qiáng)后的結(jié)果MS(F)。空間注意力機(jī)制可以看作是對(duì)特征圖的通道進(jìn)行建模,通過所有位置的特征加權(quán)總和選擇性地聚集每個(gè)位置的特征,使模型能更好地關(guān)注響應(yīng)較大的空間特征,并忽略那些響應(yīng)小的空間特征。最后得到的深層特征經(jīng)過1×1 的卷積核進(jìn)行降維。

圖6 空間注意力模塊結(jié)構(gòu)Fig.6 Structure of spatial attention module

2.2 解碼器1

分支網(wǎng)絡(luò)解碼器1 負(fù)責(zé)預(yù)測(cè)圖像的篡改區(qū)域,如圖3 所示,其中1×1 Conv 和3×3 Conv 分別代表kernel大小為1 或3 的卷積核,Up sample by 2 和Up sample by 4 分別代表2 倍或4 倍的上采樣操作,上采樣的方式為雙線性插值法。該模塊接受的輸入為通過ResNet101提取到的淺層特征以及編碼器1 輸出的深層特征。通過1×1 卷積操作降維后的淺層特征與經(jīng)過兩倍上采樣操作后的深層特征相拼接,拼接的方式為通道維度上的張量拼接,拼接后的特征經(jīng)過3×3 的卷積層以及4 倍的上采樣操作后輸出最終的預(yù)測(cè)結(jié)果。解碼器1 作為模型的主干網(wǎng)絡(luò),通過融合多尺度的圖像特征來預(yù)測(cè)圖像的篡改區(qū)域,最后輸出的預(yù)測(cè)結(jié)果顯示其尺寸大小和輸入圖像相同。

2.3 解碼器2

模型中另一個(gè)預(yù)測(cè)圖像篡改區(qū)域邊界的分支網(wǎng)絡(luò)為解碼器2,如圖3所示,其中1×1 Conv 和3×3 Conv 分別代表kernel 大小為1 或3 的卷積核,含Rate的為空洞卷積,Up sample by 4 代表4 倍的上采樣操作,上采樣的方式為雙線性插值法。該模塊接受的輸入為通過ResNet101 提取到的淺層特征,經(jīng)過3×3的采樣率為2 的空洞卷積和1×1 的普通卷積以及4 倍的上采樣操作后輸出圖像篡改邊界的預(yù)測(cè)結(jié)果。因?yàn)闇\層特征學(xué)習(xí)到的是圖像中的邊緣線條、物體形狀等特征,而深層特征則是學(xué)習(xí)物體類別等復(fù)雜信息,通過在模型中加入一個(gè)預(yù)測(cè)篡改邊界的分支,篡改區(qū)域的痕跡能更容易被模型捕捉到。消融實(shí)驗(yàn)結(jié)果表明,多任務(wù)訓(xùn)練后模型的分割精度得到了有效提升。

3 實(shí)驗(yàn)結(jié)果與分析

本節(jié)對(duì)數(shù)據(jù)集與數(shù)據(jù)擴(kuò)充、實(shí)驗(yàn)環(huán)境與訓(xùn)練細(xì)節(jié)、評(píng)價(jià)標(biāo)準(zhǔn)、對(duì)比實(shí)驗(yàn)結(jié)果以及消融實(shí)驗(yàn)結(jié)果等模塊進(jìn)行詳細(xì)介紹。其中,訓(xùn)練好的模型分別在2 個(gè)數(shù)據(jù)集上進(jìn)行測(cè)試,以驗(yàn)證其有效性。

3.1 數(shù)據(jù)集與數(shù)據(jù)擴(kuò)充

本文提出的模型使用CASIA v2.0[25]數(shù)據(jù)集作為訓(xùn)練集,該數(shù)據(jù)集中包含7 491 張?jiān)紙D像和5 123 張篡改圖像,是目前圖像取證領(lǐng)域中最大的一個(gè)數(shù)據(jù)集。但該數(shù)據(jù)集的制作者沒有提供圖像的篡改區(qū)域Mask,只是把篡改區(qū)域的來源圖片編碼在了圖像的文件名中,本文通過灰度差值的方法得到圖像的篡改區(qū)域Mask,計(jì)算方式如下:

其中:ID為篡改圖片和原始圖片各像素點(diǎn)灰度值的絕對(duì)差,本文設(shè)置了閾值s=8,如果相應(yīng)位置的灰度值絕對(duì)差大于8 則判定為篡改像素點(diǎn)(標(biāo)記為1),小于8 則認(rèn)為是真實(shí)像素點(diǎn)(標(biāo)記為0)。

此外,由于CASIA v2.0 數(shù)據(jù)集中圖像數(shù)量較少,因此為擴(kuò)充模型的訓(xùn)練集,本文還使用了VOC2012數(shù)據(jù)集[26],利用其語義分割的Ground Truth 生成篡改圖像,共得到了27 088 張拼接而成的篡改圖像。訓(xùn)練好的模型在CASIA v1.0[25]、Columbia[27]數(shù)據(jù)集上進(jìn)行測(cè)試,訓(xùn)練集和測(cè)試集的介紹如表1 所示。從表1 可知,測(cè)試集中的CASIA v1.0 數(shù)據(jù)集有921 張篡改圖像,篡改的方式為圖像拼接和復(fù)制粘貼;Columbia 數(shù)據(jù)集中有180 張拼接篡改的圖像,圖像格式是TIF。模型使用的訓(xùn)練集為VOC2012 生成的27 088 張圖像和CASIA v2.0 中的1 851 張拼接篡改圖像。

表1 訓(xùn)練集和測(cè)試集圖像數(shù)Table 1 Number of images of training set and testing set

3.2 實(shí)驗(yàn)環(huán)境與訓(xùn)練過程

本文的實(shí)驗(yàn)環(huán)境配置:CPU 型號(hào)為I7-5930k,內(nèi)存為32 GB,顯卡型號(hào)為GeForce 1080Ti,顯存為11 GB。模型基于Pytorch 深度學(xué)習(xí)框架搭建網(wǎng)絡(luò)架構(gòu),訓(xùn)練方法為隨機(jī)梯度下降法(SGD),初始學(xué)習(xí)率設(shè)為0.007,動(dòng)量設(shè)置為0.9,權(quán)重衰減為0.000 5。每次接受的輸入為4 張512×512 大小的圖像,總共進(jìn)行50 輪的訓(xùn)練。數(shù)據(jù)增強(qiáng)的方式為水平翻轉(zhuǎn)和隨機(jī)高斯模糊,首先對(duì)訓(xùn)練集的圖像均進(jìn)行水平翻轉(zhuǎn),然后進(jìn)行隨機(jī)高斯模糊,高斯模糊的平滑半徑設(shè)為0~1的隨機(jī)值,最后得到的訓(xùn)練集圖像數(shù)量擴(kuò)增為原來的4 倍。在訓(xùn)練過程中,首先凍結(jié)主網(wǎng)絡(luò)(圖3 中的解碼器1)卷積核參數(shù),訓(xùn)練預(yù)測(cè)圖像篡改區(qū)域邊界的分支網(wǎng)絡(luò)(圖3 中的解碼器2),然后凍結(jié)分支網(wǎng)絡(luò)的卷積核參數(shù),并訓(xùn)練主網(wǎng)絡(luò),最后進(jìn)行聯(lián)合訓(xùn)練。模型訓(xùn)練的損失函數(shù)為帶權(quán)重的交叉熵LMask,計(jì)算方式為:

其中:yi和分別為圖像區(qū)域中每個(gè)目標(biāo)點(diǎn)的真實(shí)值和模型的預(yù)測(cè)值;C為每次接受圖像的像素點(diǎn)總數(shù);α和β的值分別為10.0 與1.0。

3.3 評(píng)價(jià)標(biāo)準(zhǔn)

本文使用F1-Score 和MCC-Score 作為模型的評(píng)估指標(biāo),其均可用來評(píng)價(jià)篡改區(qū)域的檢測(cè)精度。F1-Score是查全率與查準(zhǔn)率的加權(quán)調(diào)和平均,MCC-Score 則為較均衡的指標(biāo),在兩類別的樣本含量差別很大的情況下可以更好地對(duì)模型進(jìn)行評(píng)價(jià),比較適用于篡改檢測(cè)領(lǐng)域。F1-Score 的計(jì)算公式為:

其中:MOut和MGT分別代表模型的預(yù)測(cè)結(jié)果和圖像的篡改區(qū)域Mask;TTP代表被正確分類的篡改像素?cái)?shù)量;TTN表示被正確分類的真實(shí)像素?cái)?shù)量;FFP代表被錯(cuò)誤分類的篡改像素?cái)?shù)量;FFN代表被錯(cuò)誤分類的真實(shí)像素?cái)?shù)量。MCC-Score 的計(jì)算方式為:

3.4 實(shí)驗(yàn)結(jié)果分析

本文所提算法和其他圖像拼接篡改檢測(cè)算法的檢測(cè)精度如表2 所示,其中DCT 為傳統(tǒng)的圖像篡改檢測(cè)算法,其余為基于深度學(xué)習(xí)的圖像篡改檢測(cè)算法。表中加粗?jǐn)?shù)字表示該組數(shù)據(jù)最大值。

表2 不同算法的檢測(cè)結(jié)果對(duì)比Table 2 Comparison of detection results of different algorithms

由表2 可知,本文所提算法在CASIA v1.0 和Columbia 這2 個(gè)數(shù)據(jù)集中均有較好的檢測(cè)結(jié)果,且優(yōu)于其他算法。各算法在CASIA v1.0 數(shù)據(jù)集中的部分檢測(cè)結(jié)果如圖7 所示。由圖7 可知,本文所提算法能有效地識(shí)別出圖像中的篡改區(qū)域,且分割精度優(yōu)于其他對(duì)比算法。其中,CASIA v1.0 數(shù)據(jù)集中的圖片類型與CASIA v2.0 相似,均為拼接篡改后的圖像,且圖像質(zhì)量也較為接近,所以模型在CASIA v1.0 數(shù)據(jù)集中的魯棒性較好。Columbia 數(shù)據(jù)集中圖像的人為篡改痕跡較為明顯,且篡改區(qū)域較大,但模型訓(xùn)練集中包含通過VOC2012 數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)充后生成的篡改圖像,所以算法仍有較好的檢測(cè)結(jié)果。

圖7 各算法在CASIA v1.0 數(shù)據(jù)集上的檢測(cè)結(jié)果對(duì)比Fig.7 Comparison of detection results of each algorithm on CASIA v1.0 data set

對(duì)文中提出的改進(jìn)點(diǎn)進(jìn)行消融實(shí)驗(yàn),應(yīng)用不同方法訓(xùn)練得到的模型在CASIA v1.0 數(shù)據(jù)集中的檢測(cè)精度如表3 所示。其中:Base model 代表使用未改進(jìn)的ASPP模塊和圖3中的解碼器1模塊直接預(yù)測(cè)圖像的篡改區(qū)域;Self-attention 代表使用CBAM 注意力機(jī)制改進(jìn)后的ASPP 模塊;Multi-task 代表使用了圖3 中解碼器1 和解碼器2 模塊進(jìn)行多任務(wù)訓(xùn)練;F1-Score 和MCC-Score 為模型檢測(cè)結(jié)果的評(píng)價(jià)指標(biāo)。由表3 可知,相比于Base model,CBAM 注意力機(jī)制的融入能有效提升模型的檢測(cè)精度,MCC-Score 提升了約3 個(gè)百分點(diǎn),使用多任務(wù)訓(xùn)練方法后模型的檢測(cè)精度也有較大提升,MCC-Score提升了約4個(gè)百分點(diǎn)。

表3 各模型檢測(cè)結(jié)果對(duì)比Table 3 Comparison of detection results of each model

各模型的部分圖像篡改檢測(cè)結(jié)果如圖8 所示,其中Self-attention 代表使用CBAM 注意力機(jī)制后的檢測(cè)結(jié)果,Multi-task 為多任務(wù)訓(xùn)練后的檢測(cè)結(jié)果。

由圖8 可知,加入CBAM 自注意力機(jī)制后模型的檢測(cè)效果有了較大提升,而使用多任務(wù)訓(xùn)練后,模型對(duì)于篡改邊界的定位更準(zhǔn)確。最終,模型在CASIA v1.0 數(shù)據(jù)集上的分割精度(MCC-Score)達(dá)到了0.727 8。

4 結(jié)束語

針對(duì)在圖像篡改檢測(cè)任務(wù)中篡改區(qū)域邊界難以被識(shí)別、篡改區(qū)域尺度差異大等問題,提出一種基于DeepLab v3+的多任務(wù)圖像篡改檢測(cè)算法。通過分階段訓(xùn)練網(wǎng)絡(luò)提升模型對(duì)預(yù)測(cè)圖像篡改邊界和區(qū)域的敏感度,并在DeepLab v3+的ASPP 模塊中融合CBAM 注意力機(jī)制,從而提高模型對(duì)多尺度篡改區(qū)域的適應(yīng)性。實(shí)驗(yàn)結(jié)果表明,本文算法在CASIA v1.0 和Columbia 數(shù)據(jù)集中的分割精度分別為0.754 6 和0.727 8,與DCT、BAPPY 等算法相比有較大性能提升。但本文算法仍存在無法識(shí)別部分圖像篡改區(qū)域的問題,下一步將提取更復(fù)雜的篡改特征以提高算法的檢測(cè)精度和魯棒性。

猜你喜歡
解碼器卷積特征
根據(jù)方程特征選解法
離散型隨機(jī)變量的分布列與數(shù)字特征
科學(xué)解碼器(一)
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
科學(xué)解碼器(二)
科學(xué)解碼器(三)
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計(jì)
線圣AudioQuest 發(fā)布第三代Dragonfly Cobalt藍(lán)蜻蜓解碼器
從濾波器理解卷積
不忠誠的四個(gè)特征