国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Efficient高效網絡的目標檢測和識別

2020-05-14 03:24張艷迪
沈陽理工大學學報 2020年6期
關鍵詞:網絡結構主干尺度

劉 軍,張艷迪

(沈陽理工大學 自動化與電氣工程學院,沈陽 110159)

ResNet等深層網絡的出現(xiàn)使圖像檢測的精度和速度大幅度提升,深層的網絡結構更容易學習到目標的抽象語義特征。He K等[1]提出的殘差結構,解決了深層神經網絡出現(xiàn)的網絡退化和梯度消失問題。隨著網絡層數(shù)加深,卷積層得到的目標特征變少,需要同時增加網絡的通道數(shù)和分辨率讓深層的網絡獲得更多的目標特征信息。但對網絡深度、通道數(shù)和分辨率的改變,會帶來大量的參數(shù)運算,增加了計算成本。Tan M等[2]提出一個復合系數(shù)φ,同時對網絡深度、通道數(shù)和分辨率進行縮放,在有限的計算資源下,網絡運算效率更高。本文將Efficient-B0網絡[2]和YOLOv3中的檢測網絡[3]相結合,改進的輕量級網絡可以應用到移動端設備;實驗結果表明,提出的基于輕量級特征提取網絡Efficient-B0與FPN多尺度融合的目標檢測和識別算法,與基于Darknet53主干網絡的YOLOv3相比,參數(shù)量少4倍,檢測精度僅下降了0.2%,檢測速度更快,并且擁有更好的魯棒性。

1 目標特征提取

1.1 卷積神經網絡

卷積神經網絡是由多個卷積和多個全連接層疊加組成,中間包含激活函數(shù)和池化層等操作。圖1是單通道灰度圖片的卷積過程,圖片以矩陣的形式輸入,卷積核的通道數(shù)與輸入圖片的通道數(shù)一致。彩色圖片的通道數(shù)為3,卷積后的輸出是把3個通道拼接在一起作為一個特征向量。卷積層通常用來提取特征,全連接層是把高維的特征向量轉換為一維的向量作為輸出,池化層用來降低維度去除冗余的信息。為更好的擬合數(shù)據(jù),每層之間的輸出都要經過激活函數(shù)的非線性轉換,這樣可增強神經網絡的魯棒性。

圖1 單通道卷積過程

1.2 主干網絡

目標檢測和識別分為兩個部分,一部分用來做特征提取的主干網絡,另一部分是目標的定位和分類。VGG-16[4]、ResNet、Darknet53等網絡結構常被用來做目標檢測的特征提取器,其共同特點是網絡層數(shù)都很深,ResNet網絡甚至可以搭建到一千多層。神經網絡被認為每一層能提取不同的目標特征,網絡越深提取的特征越多,不同層次間組合信息也越多。深層的網絡有更強的擬合和表達能力,目標檢測的精度也越高。One-stage系列的目標檢測算法YOLOv3的特征提取網絡是Darknet53,在Darknet53網絡中借鑒VGG-16和ResNet網絡中的優(yōu)點,用殘差塊和小型卷積搭建了53層的全卷積網絡,Darknet53的網絡結構組成如圖2所示。

圖2 Darknet53網絡結構

在Darknet53網絡中用卷積層代替了池化層減少了參數(shù)量,殘差塊通過短接結構解決了深層的神經網絡在訓練過程中網絡退化和梯度消失的問題。BatchNormal(BN)層可以加快網絡訓練的收斂速度,對每一層輸入的數(shù)據(jù)做均值為0、標準差為1的批量歸一化處理,降低網絡訓練的復雜度和過擬合風險。

1.3 Efficient-B0

目標檢測算法在追求檢測精度和定位準確的同時也要考慮計算成本。在計算資源充足的條件下,復雜的大型網絡檢測速度和精度會有大幅度提升。深層的神經網絡能提取到更多的特征信息,同樣,提高輸入圖片的分辨率和增加卷積神經網絡的通道數(shù)可以捕捉目標的細粒度。任意調節(jié)網絡的深度、通道數(shù)和分辨率的參數(shù),是非常繁瑣的過程,還會帶來大量的參數(shù)和卷積運算,增加了計算成本。Tan M等[2]提出對網絡的深度、寬度和分辨率通過一個復合參數(shù)φ均勻的對網絡模型進行縮放,公式為

深度:d=αφ

(1)

寬度:w=βφ

(2)

分辨率:r=γφ

(3)

s.t.α·β2·γ2≈2(α≥1,β≥1,γ≥1)

式中:d、w、r分別代表網絡的深度、寬度和分辨率,常量α、β、γ是對應d、w、r的調節(jié)參數(shù)。計算機運算中FLOPS(每秒浮點運算次數(shù))與d、w2、r2成正比,將復合參數(shù)φ固定為1,在計算資源是現(xiàn)有網絡所占用資源兩倍的情況下,令α·β2·γ2≈2,得到網絡結構Efficient-B0。Efficient-B0的網絡結構組成如表1所示,由移動翻轉瓶頸卷積模塊(Mobile Inverted Bottleneck Convolution,MBConv)、卷積層、全局平均池化層和全連接層構成,MBConv6代表擴張比例為6的逐點卷積,k3×3/2代表卷積核的大小為3×3,步長為2。Efficient-B0在參數(shù)量上比常見的特征提取主干網絡減少2~5倍,網絡計算的效率得到提升。本文采用Efficient-B0網絡代替Darknet 53主干網絡作為特征提取器,在目標檢測精度相差無幾的情況下,改進的目標檢測算法需要的計算資源更小。

表1 Efficient-B0的網絡結構

2 目標預測

2.1 多尺度特征融合

小目標特征數(shù)量比較少,隨著神經網絡的加深,小目標的特征會丟失,出現(xiàn)檢測精度低和漏檢的問題。淺層的神經網絡能學習到小目標的更多特征,用特征金字塔(Feature Pyramid Network,F(xiàn)PN)模型[5]把淺層的特征通過通道的變換加到深層的網絡,將不同尺度下的特征圖拼接在一起,提高對小目標檢測的準確性。

本文采用Efficient-B0作為主干網絡,去掉了網絡結構中的池化層和全連接層;用YOLOv3檢測網絡中的三個尺度(13×13,26×26,52×52),對目標進行預測和分類;檢測網絡中13×13的尺度用來預測大目標,26×26的尺度用來預測中等目標,52×52的尺度用來預測小目標。特征融合過程如圖3所示。多尺度特征融合的步驟如下。

(1)把Efficient-B0主干網絡中階段9輸出13×13特征圖放到13×13的尺度上進行目標分類預測;

(2)把Efficient-B0主干網絡中階段6輸出26×26特征圖,與13×13特征圖通過線性插值方法2倍上采樣得到的特征圖拼接,在26×26的尺度上進行目標分類預測;

(3)把Efficient-B0主干網絡中階段4輸出52×52特征圖,與26×26特征圖通過2倍上采樣得到的特征圖拼接,在52×52的尺度上進行目標分類預測。

圖3 FPN特征融合的過程

2.2 目標邊界框預測

為提高目標檢測的速度和準確性,需要先在預測階段生成候選框,然后對候選框做回歸和非極大值抑制計算,篩選與真實框重合度最高的候選框。在Faster R-CNN中,VGG-16骨架網絡輸出h×w大小的特征圖,對特征圖上每個點設置3個尺寸和3種縱橫比共9個候選框,特征圖上每個點映射到原圖中是一塊區(qū)域[6],如圖4所示。

圖4 特征圖與輸入圖片的對應關系

Faster R-CNN是對候選框中心坐標(x,y)和長寬(h,w)四個位置坐標相對于真實標記框位置的偏移量進行預測,這比直接預測框的位置坐標學習起來更容易。事實上,神經網絡可以自己學習調節(jié)候選框的大小,假設輸入圖片中的目標個數(shù)比較少,人為設定每個特征圖對應的點要生成9個候選框,候選框的篩選會增加網絡運算的時間。

本文用K-means聚類方式通過VOC2007訓練集上真實標記框的數(shù)據(jù)自動生成候選框。首先對訓練集中的真實標記框的長和寬做歸一化處理,隨機選取K個真實標記框的長和寬作為聚類的初始值,多次迭代計算,直到候選框與真實框之間的交并比(Intersection Over Union,IOU)值改變量很小,本文中K的取值為9。在VOC數(shù)據(jù)集中人和車占的比例較高,自動生成候選框的形狀多數(shù)為瘦高型;實驗得到候選框尺寸為(8×20)、(16×54)、(33×23)、(30×130)、(65×45)、(59×181)、(114×60)、(160×205)、(380×310)。K-means聚類生成的候選框在定義位置時,與Faster R-CNN中的候選框不同,不采用相對于真實框偏移量的方式,因為此方法對偏移量的程度沒有約束,候選框可以移動到圖片上的任意一點。本文將輸入的圖片劃分為S×S個網格[7],基于每個網格的偏移量定位候選框的位置[8],為防止候選框在圖片上隨意移動,通過Sigmoid函數(shù)約束候選框的移動范圍,公式為

bx=σ(tx)+cx

(4)

by=σ(ty)+cy

(5)

bw=pwetw

(6)

bh=pheth

(7)

式中:cx和cy是候選框的中心坐標;pw和ph分別代表候選框的寬和高;預測值tx和ty通過約束函數(shù)與候選框中心坐標相加,得到目標邊界框的中心坐標bx和by;目標邊界框的寬度bw和高度bh是pw和ph與ex相乘得到的。

圖5中虛線代表的是候選框,定義候選框是從每個網格的左上角移動,實線框是候選框通過位置回歸得到的最終的目標邊界框。

圖5 候選框的位置回歸

3 實驗結果

3.1 多尺度訓練

為增強網絡對任意尺寸圖片檢測的魯棒性,對訓練集中的圖片通過數(shù)據(jù)增強的方式進行旋轉和縮放。實驗在VOC2007和VOC2012數(shù)據(jù)集上聯(lián)合訓練,兩個數(shù)據(jù)集中共選取15000張圖片,包含20類,人和車的圖片數(shù)量占比最高。訓練過程中,每10個批次隨機換一次輸入圖片的尺寸,下采樣總步長為32;輸入圖片的分辨率為32的倍數(shù),最大的輸入分辨率為480×480,最小的輸入分辨率為224×224。多尺度訓練過程中只改變輸入圖片的尺寸;Efficient-B0主干網絡各層輸出的特征圖維度相同。

3.2 實驗結果分析

采用兩種不同的主干網絡Darknet 53及Efficient-B0進行目標檢測識別實驗,其中測試集分別來自于4952張VOC2007測試集和手機相機采集的1000張自制測試集;兩個測試集中目標的類別都為20類,人的圖片占總數(shù)量的總測試集的40%,其他種類都比較平均。

為提高小目標的檢測精度,采用Efficient-B0作為特征提取網絡,再利用FPN結構進行特征融合;預測階段使用YOLOv3的基于候選框回歸方法。實驗結果如表2所示。通過表2對比發(fā)現(xiàn),兩個不同主干網絡的目標檢測精度(AP-50)相差僅為0.2%,但改進網絡Efficient-B0比Darknet53網絡的參數(shù)量要小4倍,運行速度也有所提高。Darknet53網絡的計算量是Efficient-B0網絡的8倍。

表2 不同主干網絡結構的實驗結果對比

圖6是采用兩種網絡結構進行目標檢測的結果對比圖,圖6a和圖6c是Darknet53為主干網絡的檢測結果;圖6b和圖6d是Efficient-B0結合FPN模塊的檢測結果;由圖6可以看出,對于密集目標和小目標的檢測,Efficient-B0的效果更好。

圖6 目標檢測和識別的實驗結果

4 結論

通過將輕量級的移動網絡Efficient-B0和YOLOv3目標檢測算法結合,在有限的計算資源條件下,不僅降低了網絡結構的參數(shù)量,提高了運行效率,而且還充分發(fā)揮了YOLOv3的實時檢測的技術優(yōu)勢。在對小目標進行檢測識別時,Efficient-B0與多尺度融合模塊FPN結構相結合,顯著降低了目標的漏檢率。本文改進的目標檢測網絡需要的計算資源和計算機算力更少,適合應用于移動端的設備。

猜你喜歡
網絡結構主干尺度
抓主干,簡化簡單句
矮砧密植蘋果園動態(tài)修剪效果好
快遞網絡結構研究進展
財產的五大尺度和五重應對
基于AutoML的保護區(qū)物種識別①
宇宙的尺度
基于互信息的貝葉斯網絡結構學習
非常規(guī)突發(fā)事件跨組織合作網絡結構演化機理研究
9
寓美于物理力學主干知識的復習
留坝县| 岐山县| 昌黎县| 绥棱县| 察哈| 东乌| 宝应县| 遂宁市| 章丘市| 体育| 平遥县| 宿州市| 纳雍县| 山东| 福州市| 信阳市| 道孚县| 渭南市| 历史| 新民市| 阳曲县| 永登县| 巴中市| 兰考县| 苏尼特左旗| 庆安县| 吴忠市| 内乡县| 吴桥县| 临泽县| 永康市| 峨眉山市| 方正县| 贵港市| 友谊县| 夏津县| 常德市| 蒙山县| 从化市| 铜鼓县| 定远县|