国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

結(jié)合多層池化的卷積神經(jīng)網(wǎng)絡(luò)在表情識別中的應(yīng)用*

2022-03-27 11:28:34陳佳昌周偉松
電訊技術(shù) 2022年3期
關(guān)鍵詞:池化殘差卷積

陳佳昌,肖 颯,周偉松

(重慶郵電大學(xué) 理學(xué)院,重慶400065)

0 引 言

近年來,卷積神經(jīng)網(wǎng)絡(luò)在視覺識別、圖像識別中取得了不錯的成果。2012年,Sutskever等[1]在Image Net[2]的圖像分類競賽中提出的Alex Net結(jié)構(gòu)取得冠軍之后,卷積神經(jīng)網(wǎng)絡(luò)開始成為計算機視覺方向廣泛研究的對象。研究者們不斷在結(jié)構(gòu)上進行調(diào)整,使得網(wǎng)絡(luò)層數(shù)增加,適用性更大,其中最典型的有VGG(Visual Geometry Group)[3]、Res Net[4]、Google Net[5]等。然而這些網(wǎng)絡(luò)結(jié)構(gòu)在人臉表情識別中會出現(xiàn)網(wǎng)絡(luò)復(fù)雜度高、訓(xùn)練參數(shù)量過大、分類效果差以及嚴(yán)重的過擬合現(xiàn)象。因此在計算機視覺領(lǐng)域中表情識別(Face Expression Recognition,FER)一直是一個富有挑戰(zhàn)性的問題。

針對這一問題,研究者們提出了一些深度學(xué)習(xí)相關(guān)的解決辦法:文獻[6]提出了一種利用深度殘差網(wǎng)絡(luò)ResNet-50進行人臉表情識別;文獻[7]提出了一種帶有注意機制的端到端網(wǎng)絡(luò)人臉表情自動識別方法,結(jié)構(gòu)模塊分為特征提取模塊、注意模塊、構(gòu)建模塊和分類模塊;文獻[8]提出了一種加權(quán)混合深度神經(jīng)網(wǎng)絡(luò),用于自動提取對Fer任務(wù)有效的特征,實現(xiàn)了人臉檢測、旋轉(zhuǎn)校正、數(shù)據(jù)增強等,在數(shù)據(jù)集Cohn-Kanade(CK+)上達到了97%的準(zhǔn)確率;文獻[9]運用改進的Alex Net網(wǎng)絡(luò)進行表情識別,相比于Alex Net,改進之后降低了網(wǎng)絡(luò)的隱藏層數(shù)和訓(xùn)練參數(shù),加入了批量標(biāo)準(zhǔn)化(Batch Normalization,BN),在Fer2013和CK+數(shù)據(jù)集上的準(zhǔn)確度分別是68.85%和97.46%;文獻[10]針對圖像局部特征表達存在的復(fù)雜性、模糊性等不足,采用多層池化的方式在ResNet101模型上進行優(yōu)化,加快了模型的收斂并提高了精度。

本文在以上方法的基礎(chǔ)上對網(wǎng)絡(luò)結(jié)構(gòu)進行改進,將Inception結(jié)構(gòu)和殘差結(jié)構(gòu)相結(jié)合,并采用多層池化的方式將不同層的池化結(jié)果整合進行優(yōu)化。實驗結(jié)果表明,Inception與殘差結(jié)構(gòu)結(jié)合的網(wǎng)絡(luò)相比于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)精度更高,且加入多層池化之后效果更好。

1 改進的卷積神經(jīng)網(wǎng)絡(luò)

1.1 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

圖片提取的復(fù)雜性使得單一尺度的卷積核特征提取不完全,導(dǎo)致當(dāng)前層的信息丟失,精確度下降。改進的Inception結(jié)構(gòu)在同一層分別采用3×3、5×5的卷積核大小提取不同尺度的信息,并且采用批歸一化解決梯度消失的問題,同時加快模型訓(xùn)練。

卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中,由于圖像經(jīng)過卷積池化操作,網(wǎng)絡(luò)的表現(xiàn)會逐漸降低,容易出現(xiàn)梯度消失的問題,而殘差網(wǎng)絡(luò)通過使用跳躍連接緩解了這一問題。

因此,本文通過Inception和殘差相結(jié)合的結(jié)構(gòu)進行多尺度并行特征提取,并將前幾層的信息通過跳躍連接進行整合,對人臉表情進行分類。改進的結(jié)構(gòu)如圖1所示。由于人臉微表情復(fù)雜,小卷積核難以提取局部信息,因此取消Inception結(jié)構(gòu)中1×1的卷積核,只保留3×3、5×5的較大卷積核,使其在表情的局部特征提取中效率更高。

圖1 自定義卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

為了精確提取不同層次的特征,用多層尺度的池化取代單一池化,對高層次的特征圖實行池化操作,三個不同分支對圖片特征進行提取,提取出更加精確與全面的特征圖信息。高層次的池化層提取出來的特征圖通過信息采樣成低層次大小的特征圖,并通過整合函數(shù)進行信息整合,實現(xiàn)多層池化,其結(jié)構(gòu)如圖2所示。多層池化實現(xiàn)了不同層次的特征從局部到全局的特征信息的整合,避免了層次信息缺失,有效地將高維度特征信息語義與低維度的基本信息結(jié)合,提高了提取的精確度,為訓(xùn)練速度與分類器分類提供了基本的信息要素。

圖2 多層池化結(jié)構(gòu)圖

表1是模型中每一層的參數(shù)設(shè)置,相比于文獻[9]的模型,采用多層池化優(yōu)化的Inception-resnet模型減少了卷積層的卷積核的數(shù)量,使得整個網(wǎng)絡(luò)參數(shù)更少。

表1 網(wǎng)絡(luò)參數(shù)設(shè)置

1.2 數(shù)據(jù)增強技術(shù)

為了防止過擬合現(xiàn)象,數(shù)據(jù)增強應(yīng)運而生。深度學(xué)習(xí)中常用的數(shù)據(jù)增強方法有隨機旋轉(zhuǎn)、隨機裁剪、水平翻轉(zhuǎn)等。

在 Fer2013[11]數(shù)據(jù)集上進行實驗時,由于該數(shù)據(jù)集的樣本都是從網(wǎng)上爬取,且數(shù)量較多,對提升網(wǎng)絡(luò)魯棒性有較大幫助,比起 CK+[22]效果更好。數(shù)據(jù)集共含有35 886張圖像,其中訓(xùn)練部分28 708張,驗證部分和測試部分都是3 589張。每張圖像都是分辨率為48 pixel×48 pixel的單通道圖像,樣本表情被分為anger、normal、happy、fear、disgust、surprised、sad共7類。Fer2013數(shù)據(jù)集的訓(xùn)練集﹑驗證集和測試集的每個類別的數(shù)量分布如表2所示。

表2 Fer2013數(shù)據(jù)集

對Fer2013數(shù)據(jù)集進行數(shù)據(jù)增強,如圖3所示。

圖3 Fer2013數(shù)據(jù)增強

2 實驗結(jié)果與分析

2.1 網(wǎng)絡(luò)參數(shù)設(shè)置

實驗室基于Pytorch1.6.0框架,模型相應(yīng)的超參數(shù)設(shè)置如下:優(yōu)化算法是自適應(yīng)矩估計(Adaptive Moment Estimation,Adam);初始學(xué)習(xí)率為0.001;每次批量數(shù)據(jù)batch size為500,基于小批量而不是單個樣本更新模型可以減少更新模型的方差,保證更穩(wěn)定的收斂[13];激活函數(shù)為ReLU;損失函數(shù)為交叉熵。硬件參數(shù):Intel(R) Core(TM) i7-6700HQ CPU;GTX 950;RAM 8 GB。

2.2 改進模型的實驗結(jié)果

圖4給出了Inception結(jié)構(gòu)和殘差結(jié)構(gòu)相結(jié)合的網(wǎng)絡(luò)是否帶多層池化的兩種訓(xùn)練結(jié)果。由圖可以分析出不帶多層池化的模型收斂到穩(wěn)定的速度更快,但最終的精度只有69.97%;帶多層池化的模型收斂速度降低,精確度卻有明顯的提升,達到了71.25%。

圖4 多層池化對比精度圖

一般用精確率、召回率和F1值來評價模型,其中精確率的計算公式為

(1)

式中:TP表示將厭惡類預(yù)測正確的數(shù)量,FP表示將厭惡類預(yù)測錯誤的數(shù)量。

表3是兩個模型的精確率、召回率、F1值對比,其中的生氣、恐懼類別的識別率在兩個模型中都相對較低,是因為Fer2013數(shù)據(jù)集將數(shù)據(jù)進行了錯誤的標(biāo)簽導(dǎo)致;未采用多層池化的模型在厭惡這一類的精確率明顯高于多層池化后的結(jié)果。因此,表3的模型在做多層池化的操作時,雖然整體上圖像的特征信息提取更全面,但也會犧牲掉某些類的信息。

表3 兩個模型的精確率、召回率和F1值

表4給出了本文中的兩種方法與其他模型的精度對比,可見相比于文獻[6],Inception結(jié)合殘差結(jié)構(gòu)參數(shù)更少,取得的效果卻更好。

表4 實驗精度對比

3 結(jié)束語

深度神經(jīng)網(wǎng)絡(luò)可以自動地從數(shù)據(jù)中學(xué)習(xí)特征,減少了對人和對數(shù)據(jù)的依賴。此外,結(jié)合Inception結(jié)構(gòu)和殘差結(jié)構(gòu)的優(yōu)點,使得網(wǎng)絡(luò)在特征提取過程中發(fā)揮出了更多的價值,且模型在以上的基礎(chǔ)上加入了多層池化的方式進行優(yōu)化,使得全連接層能直接有效地獲取不同池化層的信息,再結(jié)合數(shù)據(jù)增強技術(shù)擴充訓(xùn)練數(shù)據(jù)集,從而提高識別的精度。改進后的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)簡單,復(fù)雜度低,參數(shù)量少。與使用相同的面部表情數(shù)據(jù)庫的文獻相比,改進后的方法得到了有競爭力的結(jié)果。

下一步工作將引入猶豫模糊集構(gòu)造正則項,提高模型的準(zhǔn)確率和穩(wěn)定性。

猜你喜歡
池化殘差卷積
面向神經(jīng)網(wǎng)絡(luò)池化層的靈活高效硬件設(shè)計
基于Sobel算子的池化算法設(shè)計
基于雙向GRU與殘差擬合的車輛跟馳建模
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
乌拉特后旗| 博白县| 彰化县| 涿鹿县| 尼玛县| 江陵县| 卓资县| 加查县| 阜南县| 安康市| 涟水县| 高密市| 汽车| 乌拉特中旗| 江油市| 镇安县| 贵南县| 佛学| 新闻| 吉林省| 巴里| 北川| 图木舒克市| 鹤庆县| 黄梅县| 泗洪县| 陵川县| 昭通市| 九江县| 绿春县| 伊金霍洛旗| 鄂伦春自治旗| 来宾市| 达孜县| 华池县| 菏泽市| 潜江市| 景德镇市| 合江县| 宁国市| 长乐市|