国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

引入注意力機制的蠶繭識別算法

2020-02-05 06:26陳國棟
紡織報告 2020年11期
關(guān)鍵詞:池化蠶繭權(quán)重

陳國棟

(蘇州大學(xué),江蘇 蘇州 215000)

市場上,大多數(shù)的蠶繭識別方法還是利用傳統(tǒng)的人工識別方式,不僅識別結(jié)果會受主觀因素的影響,還浪費大量的人力和物力。因此,針對該問題提出了利用Faster R-CNN框架進行自動識別。由于蠶繭尺寸較小,各類別之間的形態(tài)特征的差異與顏色特征的差異不明顯,F(xiàn)aster R-CNN[1]使用的vgg16特征提取網(wǎng)絡(luò)在提取蠶繭特征過程中,利用池化操作來減小特征圖尺寸,以擴大感受野,導(dǎo)致部分特征丟失。本研究在Faster R-CNN模型的基礎(chǔ)上,引入模仿人類視覺注意力原理的注意力機制模塊,增加有效通道權(quán)重,使關(guān)鍵通道得到更多的注意力,同時引入空洞卷積代替下采樣過程中的pooling操作,能夠有效地避免細節(jié)丟失,提高模型對蠶繭類別的識別能力。

注意力機制最早應(yīng)用在機器視覺領(lǐng)域,本質(zhì)上是模仿人類觀察物體的注意力。注意力機制分為空間注意力機制和通道注意力機制??臻g注意力由Google DeepMind[2]提出的Spatial Transformer Network,用于輸入特征向量的變形完成預(yù)處理操作,使得樣本更容易學(xué)習(xí)特征。相比于該方法的一步完成目標的變換調(diào)整,Dynamic Capacity Networks[3]采用兩個子網(wǎng)絡(luò),一個用于全圖處理,另一個用于對感興趣區(qū)域的處理,進而獲得更高的精度。通道注意力由HU J[4]等在2017屆ImageNet分類比賽中提出,通過對不同通道進行建模,分配權(quán)重,使得有效通道獲得更多權(quán)重,無效通道抑制權(quán)重,進而提高模型精度。該方法作為一種通用設(shè)計思想,可被用于現(xiàn)有的任何網(wǎng)絡(luò)。此后,SKNet[5]方法將這樣的通道加權(quán)思想和Inception中的多分支網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合,實現(xiàn)性能的提升。CBAM(Convolutional Block Attention Module)一文將這兩種注意力機制相融合,同時使用兩種注意力機制,提升網(wǎng)絡(luò)精度。徐城極等[6]以及張海濤等[7]分別將注意力模塊加入到y(tǒng)olov3和SSD目標檢測模型中,在VOC2007上的測試結(jié)果分別提升到了81.9%和79.7%。本研究針對Faster R-CNN框架短板以及結(jié)合蠶繭形態(tài)、顏色等特點,提出Attention Faster R-CNN蠶繭檢測算法,加入注意力機制模塊以及引入空洞卷積,彌補特征提取過程中特征丟失造成的缺陷,提高對蠶繭的檢測率。

1 相關(guān)工作

1.1 Faster R-CNN檢測模型

Faster R-CNN是基于卷積神經(jīng)網(wǎng)絡(luò)的目標檢測框架,經(jīng)過R-CNN、Fast R-CNN前兩代檢測框架的積淀,拋棄了傳統(tǒng)的滑動窗口生成檢測框的方法,直接使用 Region Proposal Networks生成檢測框,在檢測精度和檢測速度上有了很大的提升,常用來對物體進行識別和定位。本研究利用Faster R-CNN框架并引入注意力機制改善對蠶繭的識別和定位效果。

1.2 注意力機制

視覺注意力機制是人類的一種視覺神經(jīng)機制。從生物學(xué)角度的注意力機制延申到機器視覺領(lǐng)域,從復(fù)雜的信息中,將注意力投入最有效的目標區(qū)域內(nèi)。

在對圖片進行卷積后,會得到一個特征向量,特征向量的維度就是通道數(shù),也等于卷積核的個數(shù)。當(dāng)卷積核的個數(shù)為1 024時,得到通道數(shù)為1 024的特征圖。但不是每一個通道得到的信息都是有效的信息,也會有大量的無用信息。所以,需要將注意力放在有效信息的通道上,主要的思路就是增大有效通道的權(quán)重,減小無效通道的權(quán)重,如公式(1)所示。

Fmax、Favgc分別表示對特征圖的最大池化和平均池化。σ為Sigmoid激活函數(shù)。共享網(wǎng)絡(luò)是由一個隱藏層和多層感知機(Multilayer Perceptron,MLP)組成,w0使用Relu作為激活函數(shù)。

空間注意力機制的實現(xiàn)同樣使用了最大池化以及平均池化,使用concat連接,再使用7×7的卷積提取特征,用Sigmoid函數(shù)對權(quán)重進行歸一化,如公式(2)所示。

2 Attention Faster R-CNN

2.1 引入空洞卷積的改進網(wǎng)絡(luò)

特征提取網(wǎng)絡(luò)vgg16在提取過程中,經(jīng)過4次池化操作進行下采樣,減小特征圖尺寸以及增加感受野,在池化過程中造成細節(jié)的丟失,用空洞卷積代替池化操作,在增加感受野的同時,還能避免特征信息的丟失。普通的卷積公式為:

其中,I(x,y)是卷積前的圖像在點(x,y)上的值,k(s,t)是一個卷積核,大小為m×n。

空洞卷積公式為:

l為膨脹因子,將提取特征過程中4次池化操作替換成l=2,Stride=2,卷積核大小為2×2,邊界模式選擇“same”的空洞卷積,使得下采樣的過程既可以增加感受野,也可以避免細節(jié)丟失。

2.2 基于通道注意力機制的改進網(wǎng)絡(luò)

區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)的引入使得Faster R-CNN的精度提高,但是在特征提取階段使用的vgg16特征提取網(wǎng)絡(luò)提取的特征有細節(jié)丟失的問題,通道注意力機制有利于重要部分的特征表達能力。全局池化操作是一種特殊的池化操作,將特征圖上的像素點相加求平均值,有利于主要部分的特征增強。注意力機制分為3個部分:squeeze、excitation、attention。本研究對vgg16輸出的特征X進行全局池化操作,得到各通道信息,公式如下:

其中,(i,j)表示的是在大小為H×W的特征圖上的橫縱坐標分別為i和j的點,將通道內(nèi)的每一個特征值相加再平均,后使用Relu和sigmoid激活函數(shù)進行激活,激勵函數(shù)如下:

再進行加權(quán)處理,公式為:

x為特征提取網(wǎng)絡(luò)輸出的特征圖,該項使不同通道乘以不同的權(quán)重,使關(guān)鍵的通道得到更多的注意。最后將x '代替原有的vgg16輸出的特征圖輸入到檢測網(wǎng)絡(luò)。

3 實驗準備

本研究采用Googlecolab作為實驗平臺,深度學(xué)習(xí)框架為keras2.1.3,底層tengsorflow1.3.1-gpu。數(shù)據(jù)集為蠶繭數(shù)據(jù)集,一共含有2 000張標注照片,包含7類蠶繭圖片,分別為下爛繭、束腰繭、薄皮繭、油印繭、柴印繭、尖頭繭、異形繭。

采集蠶繭數(shù)據(jù)集時,不同的角度、光照、拍攝距離、拍攝背景都對實驗結(jié)果有著很大的影響,當(dāng)光照強度為50 Lux、0°拍攝,即垂直對蠶繭進行圖像采集時,蠶繭圖像質(zhì)量最好[8]。分別對7類蠶繭進行拍照采集數(shù)據(jù),每張照片中3~5個相同或不同類型蠶繭。當(dāng)拍攝完成后,利用labeling標注工具,對每張照片中的蠶繭位置及蠶繭類別進行標注。蠶繭照片的采集在模擬識別環(huán)境中進行。蠶繭位于黑色傳送帶表面,由于灰塵、雜屑等影響因素,會發(fā)生漏檢、錯誤識別等情況。之后,利用opencv庫中的高斯函數(shù)對攝取圖片進行高斯濾波去噪處理。

本實驗在預(yù)訓(xùn)練權(quán)重上進行訓(xùn)練,可以幫助模型加快收斂速度,并且不影響實驗結(jié)果。從表1的實驗結(jié)果可以看出,改進后各個類別蠶繭的識別率都有所上升。

表1 類別概率

為了直觀地看出訓(xùn)練結(jié)果,給出了蠶繭數(shù)據(jù)集部分實驗結(jié)果,如圖1所示。圖1中(a)(b)為Faster R-CNN模型檢測結(jié)果,(c)(d)為Attention Faster R-CNN模型的檢測結(jié)果。從檢測結(jié)果可以看出,(a)(b)出現(xiàn)了漏檢,(a)圖中出現(xiàn)誤檢。本研究提出的模型無誤檢和漏檢,與傳統(tǒng)的模型相比更加精確,提高了算法的魯棒性,但兩個模型對尖頭繭檢測能力較低。

4 實驗結(jié)果

(1)相比于Faster R-CNN訓(xùn)練過程,Attention Faster R-CNN的RPN網(wǎng)絡(luò)的收斂速度加快,total loss減小。

(2)測試結(jié)果表明,在蠶繭測試集mAP由75.8%提升到78.2%,準確度有所提高。從實驗結(jié)果圖可以看出,漏檢誤檢率降低,定位效果以及分類效果明顯提升。

(3)由于注意力模塊的引入以及使用空洞卷積代替池化操作,模型參數(shù)個數(shù)增加了2.63×105個,使得算法更加復(fù)雜,導(dǎo)致檢測速度有所下降,單張圖片檢測時長增加了10 ms。

5 結(jié)語

根據(jù)當(dāng)前蠶繭檢測的短板,提出了使用Fa st e r R-CNN目標檢測算法,針對蠶繭圖片特點以及Faster R-CNN算法弊端,提出了改進的Attention Faster R-CNN目標檢測算法。該算法通過加入注意力機制以及引入空洞卷積替換pooling操作,減少提取特征過程中特征丟失造成的影響,并利用蠶繭測試集進行測試,使得平均mAP提升2.5%。

本研究所提方法的優(yōu)勢在于能夠針對蠶繭的尺寸特點減少提取過程中的特征丟失。通過注意力機制模塊增加有效通道權(quán)重,使得網(wǎng)絡(luò)獲得更多有效的信息,對于蠶繭類的小物體的檢測具有重要意義。但是,網(wǎng)絡(luò)參數(shù)量的增加導(dǎo)致速度減慢,減少參數(shù)量是未來工作的主要方向。

猜你喜歡
池化蠶繭權(quán)重
基于高斯函數(shù)的池化算法
權(quán)重望寡:如何化解低地位領(lǐng)導(dǎo)的補償性辱虐管理行為?*
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
蠶繭與飛蝶
提高鳴龍鎮(zhèn)蠶繭質(zhì)量的措施探討
重視蠶病綜合防治 提高蠶繭質(zhì)量
權(quán)重常思“浮名輕”
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
為黨督政勤履職 代民行權(quán)重擔(dān)當(dāng)
用于手寫漢字識別的文本分割方法