国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于殘差網(wǎng)絡與特征融合的改進YOLO目標檢測算法研究

2023-05-30 05:08:48王彤李琦
河北工業(yè)大學學報 2023年1期
關(guān)鍵詞:主干殘差準確率

王彤 李琦

摘要 以深度學習為基礎(chǔ)的YOLO目標檢測技術(shù)因檢測速度快,而廣泛應用于實時目標檢測領(lǐng)域中,但其檢測準確率不高,尤其是對小物體的檢測能力較差。針對上述問題,本文提出一種改進模型——R-YOLO。該模型將殘差單元引入YOLO目標檢測,既可以通過增加網(wǎng)絡的深度,提高網(wǎng)絡的準確性,又可以利用殘差網(wǎng)絡的快捷連接方式,以保證檢測的實時性。同時結(jié)合CBNet結(jié)構(gòu),增強語義信息,進一步提高R-YOLO的準確性。最后在改進的YOLO模型中通過特征金字塔融合,結(jié)合不同階段卷積層輸出的特征信息,使得融合后的特征圖同時具有深層次的語義信息和淺層次的位置信息,以提高對小物體的檢測準確性。在Pascal數(shù)據(jù)集上的實驗顯示R-YOLO在準確率上較YOLO提高了7.6個百分點,對小物體的檢測結(jié)果更準確。結(jié)果表明,殘差單元和特征金字塔融合的引入有效改進了YOLO網(wǎng)絡模型的檢測性能。

關(guān) 鍵 詞 深度學習;目標檢測;YOLO;殘差網(wǎng)絡;特征融合;CBNet

中圖分類號 TP319.4? ? ?文獻標志碼 A

Research on improved YOLO target detection algorithm based on residual network and feature fusion

WANG Tong, LI Qi

(School of Electronics and Information Engineering, Hebei University of Technology, Tianjin? 300401, China)

Abstract The YOLO target detection technology based on deep learning is widely used in the field of real-time target detection with its fast detection speed, but its detection accuracy is not high, especially for small objects. In response to the above problems, this paper proposes an improved model-R-YOLO. The model introduces the residual unit into YOLO target detection, which can not only increase the depth of the network to improve the accuracy of the network, but also use the fast connection method of the residual network to ensure the real-time detection. Combined with the CBNet structure, the semantic information is enhanced and the accuracy of R-YOLO is further improved. Finally, through feature pyramid fusion in the YOLO model, combined with the feature information output by the convolutional layers at different stages, the fused feature map has both deep semantic information and shallow location information to improve detection accuracy of small objects. Experiments on the Pascal data set show that R-YOLO is 7.6 percentage points higher in accuracy than YOLO, and the detection results for small objects are more accurate. The results show that the introduction of residual unit and feature pyramid fusion effectively improves the detection performance of the YOLO network model.

Key words deep learning; target detection; YOLO; residual network; feature fusion; CBNet

0 引言

隨著科技的進步,以深度學習為基礎(chǔ)的目標檢測技術(shù)廣泛應用于交通、軍事和醫(yī)療等領(lǐng)域,已成為研究熱點。傳統(tǒng)的目標檢測算法需要人為的提取特征,這種方式受目標物體姿態(tài)、光照和背景等環(huán)境因素影響,很難達到一個統(tǒng)一的標準。通過滑動窗口思想進行目標提取的方式,因其運算量巨大,檢測速度較慢。直到卷積神經(jīng)網(wǎng)絡的出現(xiàn),實現(xiàn)了更好、更快、更準確地完成對圖像的識別和檢測。并隨著網(wǎng)絡的不斷加深,深度卷積神經(jīng)網(wǎng)絡采用非線性變換,通過數(shù)據(jù)驅(qū)動的方式,學習圖像中更全面的特征信息,使得目標特征具有更好的泛化能力,促進了圖像處理中識別和檢測效能的提升[1-2]。

深度學習目標檢測技術(shù)的發(fā)展主要集中在2個方向:一個是R-CNN(Region-CNN)和FAST R-CNN等的two stage算法,另一個是YOLO[3](You Only Look Once)和SSD[4](Single Shot MultiBox Detector)等的one stage算法。R-CNN[5-6]模型由生成候選框、特征提取、目標分類和回歸定位4個部分構(gòu)成,是第一個將深度學習應用于目標檢測的方法。在此基礎(chǔ)上,將模塊整合提出了FAST R-CNN[7],2016年又提出了基于RPN思想的FASTER R-CNN[8],它們都采用分類器和定位器去進行檢測[9],這種方式需要將模型應用于多個位置和不同比例的區(qū)域,依據(jù)評分的結(jié)果進行監(jiān)測分析[10],速度相對較慢。YOLO目標檢測算法在一個神經(jīng)網(wǎng)絡模型里同時實現(xiàn)對目標范圍和目標類別的檢測,使得目標檢測速度得到大幅提升。在Pascal數(shù)據(jù)集上的測試中,雖然YOLO算法對目標物體檢測速度很快,但與FAST R-CNN相比,YOLO的準確率相對較低,尤其在對小物體的檢測上效果不理想,針對這個問題,很多學者基于各類YOLO模型進行了改進[11-15],以提高YOLO的檢測性能。

本文基于YOLO-v1模型進行改進,針對其檢測準確率不高的問題,提出了3點改進措施:1)運用殘差網(wǎng)絡的快捷連接方式,加深其網(wǎng)絡結(jié)構(gòu),在保證檢測速度的前提下,提高了準確率;2)結(jié)合CBNet網(wǎng)絡形式豐富特征層的特征信息,提高檢測準確率;3)是將特征融合思想引入模型中,將各階段的輸出特征進行金字塔融合,使得特征中既包含淺層次的位置信息,又包含深層次的語義信息,提高對小目標的檢測準確性。

1 YOLO目標檢測算法

YOLO算法采用的是CNN分類器,將單個神經(jīng)網(wǎng)絡應用于整個圖像,通過卷積運算,提升圖像處理的效率,因此具有端到端與實時性的檢測能力。其檢測原理如圖1所示。

每個邊界框都對應著一個置信度,如式(1)所示,其中[PrObject]表示單元格中是否包含目標,[IOUtruthpred]表示預測與真實邊界框的交并比。如果一個目標的類別置信度的中心點坐標在一個單元格中,這個單元格就是包含這個目標,也就是說由該單元格負責預測這個目標。

測試過程中,每個網(wǎng)格輸出的最終概率如公式(2)所示,[PrClassiObject]表示網(wǎng)格中包含并屬于第i個類別的概率。最后將得分較高的邊界框采取非極大值抑制方式得到最終的檢測結(jié)果。

YOLO網(wǎng)絡和GoogleNet的結(jié)構(gòu)非常類似,其模型結(jié)構(gòu)如圖2所示。

這種直接在輸出層回歸目標邊界框的位置及類別的方法,無需再生成候選區(qū)域,在目標的檢測準確性上會有一定的下降,并且隨著卷積層數(shù)的加深,對小目標的特征信息不斷丟失,使得在小目標上的檢測性能較差。

2 改進的YOLO目標檢測算法

針對YOLO算法中存在的問題,本文結(jié)合殘差網(wǎng)絡與特征融合提出了一種改進模型——R-YOLO。本文將網(wǎng)絡進一步加深,以提高網(wǎng)絡檢測準確率,并結(jié)合CBNet網(wǎng)絡形式和特征融合,改善對小目標的檢測性能。隨著網(wǎng)絡深度的增加,使得反向傳播越來越困難,性能開始出現(xiàn)退化。因此在改進中增加網(wǎng)絡的深度,不是單純靠卷積層的堆疊,而是運用殘差單元,以優(yōu)化網(wǎng)絡性能。

2.1 在YOLO模型中引入殘差網(wǎng)絡

在目標檢測中,網(wǎng)絡深度對于檢測性能具有非常重要的意義[16],因此本文進一步增加了YOLO網(wǎng)絡的深度。但是單純加深網(wǎng)絡深度很可能造成網(wǎng)絡性能的退化,殘差網(wǎng)絡很好地解決了這一問題。深度殘差網(wǎng)絡是2015年提出的深度卷積網(wǎng)絡,在圖像分類、檢測、定位上的表現(xiàn)十分出色。相對于將每一層的卷積做連乘計算的普通網(wǎng)絡,殘差網(wǎng)絡的前向過程是線性的,通過快捷連接方式進行身份映射,對每一個堆疊的層都采用殘差學習。將殘差單元應用在深度卷積神經(jīng)網(wǎng)絡中,基于跳層連接[17],緩解了網(wǎng)絡模型在訓練過程中反向傳播中的梯度消失現(xiàn)象,從而使得深層網(wǎng)絡不再難以訓練,解決了隨網(wǎng)絡加深的性能退化問題[18]。殘差單元的定義如公式(3)所示。

式中:x和y是殘差單元的輸入和輸出向量;函數(shù)[Fx,Wi]表示要學習的剩余映射。對于圖3中具有兩層的示例,用σ表示ReLU函數(shù)。執(zhí)行操作F+x,在加法之后采用ReLU函數(shù)進行激活(即[σy])。這樣的快捷連接沒有增加額外參數(shù),計算復雜性也沒有增加。x和F應具有相同的尺寸。當x和F的尺寸不同時,需要運用線性投影Ws進行尺寸的匹配,如式(4)所示。

本文結(jié)合殘差單元加深YOLO的網(wǎng)絡結(jié)構(gòu)。在YOLO模型中的第3個和第4個池化層后分別加入2個三層殘差單元,前面網(wǎng)絡提取的特征跳過中間三層的卷積計算,直接與殘差單元最后一層卷積層的輸出相加傳送給后面的網(wǎng)絡,提高網(wǎng)絡的檢測準確率。兩個殘差單元結(jié)構(gòu)如圖4所示。

第1個殘差單元中,第1層卷積層使用1×1卷積核將256維通道數(shù)降為128維,然后第2層卷積層再通過3×3卷積核提取圖像特征信息,最后通過一個1×1的卷積核將128維的數(shù)據(jù)擴充為256維,結(jié)合前面網(wǎng)絡輸出的256維數(shù)據(jù)進行輸出。第2個殘差單元中,第1層卷積層使用1×1卷積核將1 024通道數(shù)降為256維,第2層卷積層再通過3×3的卷積核提取圖像特征信息,最后再用一個1×1的卷積核將256維度擴充為1 024維,結(jié)合前面網(wǎng)絡輸出的1 024維數(shù)據(jù)進行輸出。

殘差網(wǎng)絡在通過快捷連接方式,直接越過下一層跳轉(zhuǎn)至更深層,為提取特征階段提供豐富的語義信息,從而有效提取目標特征,提高了網(wǎng)絡檢測性能,同時不增加計算復雜度,致使檢測速度并沒有下降。因此,在YOLO中嵌入殘差單元,加深了網(wǎng)絡深度的同時沒有造成性能的退化,提高了特征提取網(wǎng)絡的檢測性能。

2.2 在YOLO中引入CBNet結(jié)構(gòu)

CBNet(復合主干網(wǎng)絡)由多個相同的主干網(wǎng)絡并行構(gòu)成(如圖5所示),前面(k-1)個主干網(wǎng)絡為輔助主干網(wǎng)絡,最后一個為領(lǐng)導主干網(wǎng)絡。每個輔助主干網(wǎng)絡特征層的輸出,都作為并行網(wǎng)絡中該層的輸入,通過復合連接塊進行連接,這樣將不同層級的特征融合到一起,產(chǎn)生更加豐富的語義信息,提高目標檢測器的性能。

本文采用相鄰的高級組合的雙層主干網(wǎng)絡形式,將輔助網(wǎng)絡中每一階段的輸出都復合連接到領(lǐng)導主干網(wǎng)絡該模塊的輸入。

2.3 在YOLO模型中引入特征金字塔融合

圖像中存在不同尺寸的目標,而不同大小的目標具有不同的特征,利用淺層特征可以區(qū)分簡單的目標,利用深層特征可以區(qū)分復雜的目標。許多有關(guān)目標檢測的研究發(fā)現(xiàn)[19],由于低層特征的分辨率較高,能夠提取更多的位置、細節(jié)等信息,但是語義信息低,噪聲多;高層特征包含的語義信息較多,但是分辨率低。因此,YOLO在進行檢測的過程中,隨著網(wǎng)絡層數(shù)的加深,每一層會丟掉圖像本身的一些特征信息,最終學習到小目標特征較少,檢測能力較差。

由于足夠底層的特征對于檢測小物體很有幫助,因此將網(wǎng)絡中前幾層的特征圖進行融合能夠提高網(wǎng)絡的檢測性能。但是在合并過程中,不同層的特征圖尺寸不同,因此有人采取最大池化的方法,將特征圖調(diào)整到同一個尺寸,再進行合并。但是這種方式在壓縮過程中,會丟掉特征圖本身的一些信息。

為避免融合過程中的特征信息丟失,提高對小目標的檢測能力,本文在YOLO模型中引入特征金字塔融合(如圖6)。這種方式將頂層特征通過上采樣和低層特征做融合,能夠很好地保留低層特征圖中原有的特征信息,具有很好地泛化能力。其中1×1的卷積核用來減少特征圖的個數(shù),但并不改變特征圖的大小。融合過程中采用上采樣進行尺寸的匹配,每次融合后再采用3×3的卷積核來消除上采樣的混疊效應。

結(jié)合特征融合改進的YOLO網(wǎng)絡模型,在基于殘差網(wǎng)絡的YOLO模型基礎(chǔ)上,將第1層、第6層和第30層的輸出進行contact并行連接,先將第30層的7×7大小的特征圖采用1×1的卷積核進行上采樣,擴充為56×56大小,與第6層輸出的56×56大小的特征圖融合,融合結(jié)果再進行上采樣,擴充為224×224大小的特征圖,與第一層卷積的224×224的輸出結(jié)果進行融合,融合結(jié)果送入全連接層中輸出結(jié)果,進行分類。使用特征金字塔融合,不僅可以獲得性能的提升,同時可以獲得速度的提升。

2.4 R-YOLO的網(wǎng)絡結(jié)構(gòu)

R-YOLO的網(wǎng)絡結(jié)構(gòu)如圖6所示,上半部分為主干網(wǎng)絡結(jié)構(gòu),下半部分為輔助網(wǎng)絡結(jié)構(gòu),主干網(wǎng)絡內(nèi)部參數(shù)如表1所示,輔助網(wǎng)絡內(nèi)部參數(shù)同主干網(wǎng)絡對應階段。主干網(wǎng)絡模型總共由30個卷積層、4個池化層、一個融合模塊和2個全連接層組成,在第3個和第4個池化層后加入殘差單元,加深網(wǎng)絡結(jié)構(gòu);我們將主干網(wǎng)絡中融合模塊前的結(jié)構(gòu)視為輔助網(wǎng)絡,將每一階段的結(jié)果復合連接到主干網(wǎng)絡上,形成一個雙層主干網(wǎng)絡,將主干網(wǎng)絡中的第2層、第6層和第30層的輸出特征圖進行融合,提高網(wǎng)絡檢測性能。

2.5 R-YOLO的損失函數(shù)

在訓練過程中,常常使用損失函數(shù)作為其目標函數(shù)對算法進行優(yōu)化。R-YOLO算法采用均方差作為損失函數(shù)的計算依據(jù),共包含定位誤差和分類誤差,由于較小的邊界框相比較大的邊界框?qū)ψ鴺苏`差更加敏感,所以選取網(wǎng)絡中邊界框?qū)捄透叩钠椒礁M行預測,預測值為[x,y,w,h]。另外,在眾多邊界框中,只選擇與ground truth的IOU最大的邊界框來負責預測該目標,則認定其他的邊界框不存在目標。當邊界框中沒有目標的時候,該邊界框只存在置信度誤差項,不存在定位誤差。最終的損失函數(shù)計算如式(5)所示。其中x,y是邊界框的中心坐標,w和h是邊界框的寬和高,C代表邊界框中含有目標的置信度,[lobji]指的是第i個單元格存在目標,[lobjij]指的是第i個單元格存在目標,且該單元格中的第j個邊界框負責預測該目標,[λcoord]為定位誤差的權(quán)重,[λnoobj]為邊界框中不包含目標的權(quán)重。因此公式中第1項和第2項分別是對邊界框的中心坐標以及高與寬的誤差計算,即[Lossb-box],第3項和第4項是對輸入圖像中包含目標和不包含目標的邊界框的置信度誤差計算,即[Lossconfidence],而最后一項是對包含目標的單元格的分類誤差計算,即[Lossclass]。

3 實驗結(jié)果與分析

本文的實驗環(huán)境采用Windows10,64位操作系統(tǒng),Intel Core i7-10750H六核處理器,NVIDIA RTX2060獨立顯卡,16G內(nèi)存的計算機??蚣懿捎胮ytorch1.0.1框架。

訓練網(wǎng)絡時使用Pascal VOC2012數(shù)據(jù)集,從中隨機抽取的22 129張圖像,實驗中的參數(shù)設置:batch_size大小為128,迭代次數(shù)8 000次,momentum設置為0.09,weight decay(懲罰項:所有權(quán)重的平方乘以一個衰減常量之和)初始值為0.01,初始權(quán)重統(tǒng)一設置為均值為0、方差為0.02的隨機數(shù),坐標預測權(quán)重與分類預測權(quán)重一致,激活函數(shù)使用Leaky ReLU。將訓練好的模型在Pascal VOC2007數(shù)據(jù)集進行測試,選取5 032個樣本,batch_size設為30,迭代500次,得出結(jié)果并進行分析。

3.1 R-YOLO訓練過程中準確率和損失變化的結(jié)果與分析

圖8和圖9是R-YOLO訓練過程中隨著訓練迭代次數(shù)的增加其準確率和損失函數(shù)變化的曲線,隨著迭代次數(shù)的增加,對權(quán)重不斷地更新,準確率越來越高,損失越來越小。結(jié)果說明,在一定迭代次數(shù)范圍內(nèi),訓練迭代次數(shù)越多,模型學習到的特征信息越多,對權(quán)重的更新越接近正確值,準確率會越高。迭代前期,損失迅速下降,準確率迅速上升,在迭代次數(shù)達到5 000時,準確率基本維持在了0.96左右,損失也基本達到了一個比較穩(wěn)定的狀態(tài)。

3.2 R-YOLO目標檢測實例

R-YOLO和YOLO兩種算法結(jié)構(gòu)在Pascal VOC數(shù)據(jù)集上訓練后進行實驗的檢測結(jié)果如圖10所示,左側(cè)是YOLO檢測結(jié)果圖,右側(cè)是R-YOLO檢測結(jié)果圖。圖中R-YOLO的檢測結(jié)果明顯優(yōu)于YOLO的檢測結(jié)果,能夠更準確地識別出圖中的牛和飛機,對于小物體的定位誤差更小。實驗表明,基于殘差網(wǎng)絡與特征融合改進的R-YOLO目標檢測算法,提高了原始YOLO模型的檢測效率。

3.3 R-YOLO目標檢測算法的實驗結(jié)果與分析

本章對R-YOLO、Fast R-CNN、Faster R-CNN、YOLO和YOLO-v2在Pascal VOC 2007數(shù)據(jù)集上進行性能分析,主要對mAP(平均檢測準確率)和FPS(幀數(shù))進行對比。結(jié)果如表2所示。從表中可以看出,相比Fast R-CNN,YOLO的mAP稍微略低一些,但是速度卻快很多。Faster R-CNN在Fast R-CNN的基礎(chǔ)上大大提高了檢測速度,但卻伴隨著mAP的下降,盡管如此,速度還是遠遠不及YOLO。R-YOLO的mAP和速度都高于Fast R-CNN和YOLO。與YOLO-v2相比,mAP有相對提升,但速度略有不足。結(jié)果表明,綜合mAP和FPS,R-YOLO在保證檢測速度的前提下,優(yōu)化了YOLO的準確性,因此采用殘差網(wǎng)絡和特征融合對YOLO進行優(yōu)化是有效的。

表3中分別給出了YOLO、YOLO-v2和R-YOLO對20個類別的檢測準確率。結(jié)果表明,R-YOLO較YOLO目標檢測算法,對每個類型物體的檢測準確率均有相對提升,較YOLO-v2也有一定的優(yōu)勢。

以上所有實驗結(jié)果說明了R-YOLO網(wǎng)絡結(jié)構(gòu)在準確率上優(yōu)于相比較的其他網(wǎng)絡,速度與YOLO相當,YOLO中嵌入了殘差網(wǎng)絡和特征融合模塊并結(jié)合了雙主干網(wǎng)絡形式,網(wǎng)絡深度加深了,卻沒有降低檢測速度。說明了對YOLO的改進是有效的,殘差單元、特征融合模塊和雙主干網(wǎng)絡結(jié)構(gòu)的運用,在提高網(wǎng)絡準確性的同時沒有增加網(wǎng)絡計算的復雜度。

4 結(jié)論

本文針對YOLO目標檢測算法準確性問題,結(jié)合殘差單元、CBNet網(wǎng)絡和特征融合進行了改進。在YOLO網(wǎng)絡模型中引入殘差單元,保證檢測速度的同時提高了檢測準確率;運用雙主干網(wǎng)絡結(jié)構(gòu),豐富特征層的語義信息;同時,將部分卷積層的輸出進行特征融合,結(jié)合深層與淺層的圖像特征信息,提高了對小物體的檢測能力。在Pascal數(shù)據(jù)集上進行訓練與測試,結(jié)果中對小物體的檢測有明顯的改善,當R-YOLO網(wǎng)絡訓練達到穩(wěn)定狀態(tài)時,準確率較原始模型提高了7.6個百分點。實驗表明,R-YOLO網(wǎng)絡模型有效提升了YOLO網(wǎng)絡的檢測性能。

參考文獻:

[1]? ? RAZAVIAN A S,AZIZPOUR H,SULLIVAN J,et al. CNN features off-the-shelf:an astounding baseline for recognition[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Columbus,OH,USA. IEEE:512-519.

[2]? ? 吳帥,徐勇,趙東寧. 基于深度卷積網(wǎng)絡的目標檢測綜述[J]. 模式識別與人工智能,2018,31(4):335-346.

[3]? ? REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA. IEEE,:779-788.

[4]? ? LIU W,ANGUELOV D,ERHAN D,et al. SSD:single shot MultiBox detector[M]//Computer Vision – ECCV 2016. Cham:Springer International Publishing,2016:21-37.

[5]? ? GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus,OH,USA. IEEE,:580-587.

[6]? ? 何之源. 21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解[M]. 北京:電子工業(yè)出版社,2018.

[7]? ? GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision. Santiago,Chile. IEEE,:1440-1448.

[8]? ? JIANG H Z,LEARNED-MILLER E. Face detection with the faster R-CNN[C]//2017 12th IEEE International Conference on Automatic Face & Gesture Recognition. Washington,DC,USA. IEEE,:650-657.

[9]? ? MONT?FAR G,PASCANU R,CHO K,et al. On the number of linear regions of deep neural networks[EB/OL]. 2014:arXiv:1402. 1869[stat. ML]. https://arxiv. org/abs/1402. 1869

[10]? NAIR V,HINTON G E. Rectified linear units improve restricted boltzmann machines[C]// Proceedings of the 27th International Conference on Machine Learning,Israel,Haifa,2010(June):21-24.

[11]? 王璽坤,姜宏旭,林珂玉. 基于改進型YOLO算法的遙感圖像艦船檢測[J]. 北京航空航天大學學報,2020,46(6):1184-1191.

[12]? 周慧娟,張強,劉羽,等. 基于YOLO2的地鐵進站客流人臉檢測方法[J]. 計算機與現(xiàn)代化,2019(10):76-82.

[13]? 任飛凱. 基于卷積神經(jīng)網(wǎng)絡人臉識別研究與實現(xiàn)[D]. 南京:南京郵電大學,2019.

[14]? VAN ETTEN A. You only look twice:rapid multi-scale object detection in satellite imagery[EB/OL]. 2018:arXiv:1805. 09512[cs. CV]. https://arxiv. org/abs/1805. 09512

[15]? REDMON J,F(xiàn)ARHADI A. YOLO9000:better,faster,stronger[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26,2017. Honolulu,HI. IEEE,2017.

[16]? 周曉彥,王珂,李凌燕. 基于深度學習的目標檢測算法綜述[J]. 電子測量技術(shù),2017,40(11):89-93.

[17]? REN S Q,HE K M,GIRSHICK R,et al. Object detection networks on convolutional feature maps[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(7):1476-1481.

[18]? BAY H,TUYTELAARS T,GOOL L V. SURF:Speeded up robust features[C]// European Conference on Computer Vision,Graz:Springer-Verlag,2006:404-417.

[19]? HUANG G,LIU Z,VAN DER MAATEN L,et al. Densely connected convolutional networks[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26,2017. Honolulu,HI. IEEE,2017:245-253.

猜你喜歡
主干殘差準確率
全球首條1.2T超高速下一代互聯(lián)網(wǎng)主干通路
軍事文摘(2024年2期)2024-01-10 01:58:34
基于雙向GRU與殘差擬合的車輛跟馳建模
抓主干,簡化簡單句
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
二代支架時代數(shù)據(jù)中糖尿病對無保護左主干患者不同血運重建術(shù)預后的影響
基于殘差學習的自適應無人機目標跟蹤算法
基于遞歸殘差網(wǎng)絡的圖像超分辨率重建
自動化學報(2019年6期)2019-07-23 01:18:32
高齡無保護左主干病變患者血運重建術(shù)的長期預后
平山县| 拉萨市| 阳山县| 德钦县| 湖口县| 绥德县| 逊克县| 宜君县| 普陀区| 娄底市| 柯坪县| 东明县| 增城市| 临武县| 瓮安县| 吉隆县| 得荣县| 巴塘县| 平江县| 德保县| 大悟县| 丰城市| 金门县| 塔河县| 岱山县| 海淀区| 封丘县| 永宁县| 漳州市| 明星| 盐边县| 新营市| 三明市| 宾阳县| 馆陶县| 松江区| 红安县| 田林县| 贵溪市| 绥芬河市| 凌云县|