国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法研究綜述

2020-07-16 18:27劉俊明孟衛(wèi)華
航空兵器 2020年3期
關(guān)鍵詞:特征提取深度學(xué)習(xí)人工智能

劉俊明 孟衛(wèi)華

摘 要:近年來(lái),深度學(xué)習(xí)技術(shù)推動(dòng)目標(biāo)檢測(cè)算法取得了突破式進(jìn)展?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)算法可分為兩階段檢測(cè)算法和單階段檢測(cè)算法。相比兩階段檢測(cè)算法,單階段檢測(cè)算法的結(jié)構(gòu)簡(jiǎn)單、計(jì)算高效,同時(shí)具備不錯(cuò)的檢測(cè)精度,在實(shí)時(shí)目標(biāo)檢測(cè)領(lǐng)域中具有較高的研究和應(yīng)用價(jià)值。本文首先回顧了單階段檢測(cè)算法的發(fā)展歷史,分析總結(jié)了相關(guān)算法的優(yōu)缺點(diǎn),然后歸納提出了單階段目標(biāo)檢測(cè)算法的通用框架,接著對(duì)框架中的特征提取模塊和檢測(cè)器進(jìn)行了深入分析,指出了其對(duì)算法性能的影響,最后對(duì)單階段檢測(cè)算法的發(fā)展趨勢(shì)進(jìn)行了展望。

關(guān)鍵詞: 深度學(xué)習(xí);單階段目標(biāo)檢測(cè)算法;特征提取;特征融合;anchor;損失函數(shù); 人工智能

中圖分類號(hào): TJ760; TP18 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1673-5048(2020)03-0044-10

0 引言

目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要問(wèn)題之一,是完成目標(biāo)跟蹤、場(chǎng)景理解等復(fù)雜視覺(jué)任務(wù)的基礎(chǔ),在視頻監(jiān)控、智能交通等領(lǐng)域中應(yīng)用廣泛。目標(biāo)檢測(cè)的任務(wù)是判斷圖像中是否存在屬于指定類別的目標(biāo),如果存在,則給出目標(biāo)的類別和位置信息。由于圖像中目標(biāo)的類別、數(shù)量、位置、尺度和外觀變化較大,一般而言,目標(biāo)檢測(cè)任務(wù)比目標(biāo)分類任務(wù)更具有挑戰(zhàn)性。

傳統(tǒng)目標(biāo)檢測(cè)算法主要致力于解決少數(shù)幾類目標(biāo)的檢測(cè)問(wèn)題,如行人檢測(cè)[1]、紅外目標(biāo)檢測(cè)[2]。深度學(xué)習(xí)技術(shù)[3],特別是深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)[4]出現(xiàn)以后,目標(biāo)檢測(cè)算法取得了突破式發(fā)展,在Pascal VOC[5-6],MS COCO[7]等大型數(shù)據(jù)集上已經(jīng)能夠取得不錯(cuò)的檢測(cè)效果。

深度學(xué)習(xí)技術(shù)帶來(lái)的進(jìn)步主要體現(xiàn)在: ①目標(biāo)檢測(cè)精度大幅提升;②單一模型能夠檢測(cè)的目標(biāo)類別數(shù)大幅增長(zhǎng)。但深度學(xué)習(xí)算法運(yùn)行時(shí)需要耗費(fèi)大量的計(jì)算資源,運(yùn)行速度一般遠(yuǎn)低于傳統(tǒng)算法。在計(jì)算資源受限的條件下,許多基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法往往難以達(dá)到實(shí)時(shí)運(yùn)行的要求。

基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法分為兩階段檢測(cè)算法和單階段檢測(cè)算法兩種,如圖1所示。兩階段檢測(cè)算法也被稱為基于候選區(qū)域的目標(biāo)檢測(cè)算法,其將目標(biāo)檢測(cè)過(guò)程分解為候選區(qū)域提取、候選區(qū)域分類和候選區(qū)域坐標(biāo)修正三個(gè)步驟。單階段檢測(cè)算法也被稱為基于回歸分析的目標(biāo)檢測(cè)算法,其將目標(biāo)檢測(cè)問(wèn)題視為對(duì)目標(biāo)位置和類別信息的回歸分析問(wèn)題,通過(guò)一個(gè)神經(jīng)網(wǎng)絡(luò)模型可直接輸出檢測(cè)結(jié)果。

從本質(zhì)上而言,兩階段檢測(cè)算法包含了兩次目標(biāo)檢測(cè)的過(guò)程,候選區(qū)域提取模塊是第一個(gè)檢測(cè)器,用于檢測(cè)前景和背景區(qū)域;候選區(qū)域分類和坐標(biāo)修正模塊構(gòu)成了第二個(gè)檢測(cè)器,用于對(duì)第一個(gè)檢測(cè)器的結(jié)果進(jìn)行補(bǔ)充和修正。兩階段檢測(cè)算

法中的兩次目標(biāo)檢測(cè)過(guò)程提升了算法的準(zhǔn)確性,但也增加了模型復(fù)雜度,制約了模型計(jì)算效率的提高。單階段檢測(cè)算法只包含一次目標(biāo)檢測(cè)的過(guò)程,其結(jié)構(gòu)簡(jiǎn)單、計(jì)算效率高,能夠方便地進(jìn)行端到端的訓(xùn)練,在實(shí)時(shí)目標(biāo)檢測(cè)領(lǐng)域中有很大的應(yīng)用潛力。

目前,基于深度學(xué)習(xí)的單階段檢測(cè)算法仍然存在著不足,其結(jié)構(gòu)形式、檢測(cè)精度和檢測(cè)速度仍然需要進(jìn)一步提升。近年來(lái), 雖然有不少學(xué)者對(duì)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法進(jìn)行了梳理總結(jié)[8-10],但這些總結(jié)主要集中于對(duì)目標(biāo)檢測(cè)算法的整體框架進(jìn)行介紹,對(duì)單階段目標(biāo)檢測(cè)算法中關(guān)鍵模塊的分析卻不足。本文首先回顧了單階段目標(biāo)檢測(cè)算法的發(fā)展歷程,然后歸納提出了單階段檢測(cè)算法的通用框架,并對(duì)算法中特征提取模塊和檢測(cè)器模塊進(jìn)行深入分析,最后對(duì)單階段檢測(cè)算法的發(fā)展趨勢(shì)進(jìn)行了展望。

1 發(fā)展歷史

單階段目標(biāo)檢測(cè)算法可以看作是一個(gè)回歸分析模型,用于分析輸入圖像的像素值與圖像中目標(biāo)位置和類別等變量之間的關(guān)系。

由于圖像和目標(biāo)并不是一一對(duì)應(yīng)的關(guān)系,利用回歸分析方法直接預(yù)測(cè)目標(biāo)的位置和類別具有一定的難度,因此,早期基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法都是目標(biāo)檢測(cè)問(wèn)題分解為候選區(qū)域提取、分類和坐標(biāo)修正等過(guò)程,如圖1(a)所示。圖像分類算法和兩階段目標(biāo)檢測(cè)算法中回歸分析方法對(duì)于單階段目標(biāo)檢測(cè)算法的發(fā)展都有重要的促進(jìn)作用。圖2時(shí)間軸上方展示了單階段目標(biāo)檢測(cè)算法的發(fā)展歷程,時(shí)間軸下方展示了基于深度學(xué)習(xí)的分類網(wǎng)絡(luò)的發(fā)展歷程。不同單階段目標(biāo)檢測(cè)算法在Pascal VOC數(shù)據(jù)集和COCO數(shù)據(jù)集上的性能如表1所示。

2012年,Krizhevsky A利用深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet[4]在ILSVRC2012圖像分類任務(wù)上以明顯優(yōu)于傳統(tǒng)算法的成績(jī)獲得冠軍,在計(jì)算機(jī)視覺(jué)領(lǐng)域引起了研究深度學(xué)習(xí)技術(shù)的熱潮。許多學(xué)者開(kāi)始研究將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測(cè)任務(wù),并利用AlexNet構(gòu)建了DetectorNet[11]、OverFeat[12]、R-CNN[13]、DeepMultiBox[14]、MultiGrasp[15]等目標(biāo)檢測(cè)算法。

DetectorNet和OverFeat是最早提出的基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法,二者的模型中包含了回歸分析的思想。DetectorNet利用神經(jīng)網(wǎng)絡(luò)直接預(yù)測(cè)用于指示目標(biāo)區(qū)域的掩模圖像。OverFeat則利用卷積神經(jīng)網(wǎng)絡(luò)的特性高效地實(shí)現(xiàn)了基于滑動(dòng)窗方法的圖像分類和目標(biāo)定位。由于算法結(jié)構(gòu)仍然不完善,這兩種算法并未取得突破性進(jìn)展,但二者對(duì)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法研究具有啟發(fā)性意義。

R-CNN是典型的兩階段目標(biāo)檢測(cè)算法,其使用Selective Search[16]算法生成候選區(qū)域,并利用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)候選區(qū)域進(jìn)行分類。在修正候選區(qū)域坐標(biāo)時(shí),R-CNN使用了回歸分析方法。具體而言,R-CNN利用全連接網(wǎng)絡(luò)層實(shí)現(xiàn)了從輸入特征到候選區(qū)域坐標(biāo)修正系數(shù)的映射。修正系數(shù)衡量了新坐標(biāo)相對(duì)于初始坐標(biāo)的偏離程度。這種預(yù)測(cè)坐標(biāo)偏離程度不是直接預(yù)測(cè)坐標(biāo)絕對(duì)值的作法在后續(xù)目標(biāo)檢測(cè)算法中應(yīng)用得十分普遍。

DeepMultiBox同樣是兩階段目標(biāo)檢測(cè)算法,但不同于R-CNN的是,其利用卷積神經(jīng)網(wǎng)絡(luò)來(lái)抽取特征,并利用全連接層來(lái)預(yù)測(cè)候選區(qū)域坐標(biāo)和類別。在預(yù)測(cè)目標(biāo)位置時(shí),DeepMultiBox引入了一系列固定尺寸的矩形框作為預(yù)測(cè)目標(biāo)位置的基礎(chǔ)。這一機(jī)制與R-CNN中候選區(qū)域坐標(biāo)修正模塊的預(yù)測(cè)機(jī)制類似。因?yàn)槌叽绱_定以后就不再改變,這些固定尺寸的矩形框被稱為anchor。anchor是基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法中一個(gè)十分重要的機(jī)制,對(duì)算法有多方面的提升。

Faster R-CNN[17]算法是對(duì)R-CNN算法的改進(jìn)。該算法利用RPN(Region Proposal Network)生成候選區(qū)域。RPN與DeepMultiBox有一定的相似性,不同的是前者對(duì)候選區(qū)域坐標(biāo)和類別的預(yù)測(cè)過(guò)程是通過(guò)卷積層實(shí)現(xiàn)的。由于卷積操作的特性,在特征圖的不同位置進(jìn)行預(yù)測(cè)時(shí)可以共享權(quán)重。RPN中也引入了anchor機(jī)制,這些anchor以類似于卷積操作的方式在特征圖的每個(gè)位置上共享。

MultiGrasp[15]是利用AlexNet構(gòu)造的單階段目標(biāo)檢測(cè)算法,可用于預(yù)測(cè)圖像中物體的可握持區(qū)域。MultiGrasp將圖像分為7×7的網(wǎng)格,然后預(yù)測(cè)網(wǎng)格每個(gè)單元對(duì)應(yīng)的圖像區(qū)域內(nèi)是否存在可握持物體,以及可握持區(qū)域的位置。

YOLO[18]是第一個(gè)在檢測(cè)精度、檢測(cè)速度上都取得不錯(cuò)效果的單階段目標(biāo)檢測(cè)算法,其模型結(jié)構(gòu)如圖3所示。YOLO算法的核心思想類似于MultiGrasp,但與后者不同的是,YOLO算法中增加了分類器,并重新設(shè)計(jì)了損失函數(shù),使得算法能夠檢測(cè)多種類別的目標(biāo),此外,YOLO算法中還包含了重新設(shè)計(jì)的特征提取網(wǎng)絡(luò)。由于高效的檢測(cè)機(jī)制和網(wǎng)絡(luò)結(jié)構(gòu),YOLO算法是深度學(xué)習(xí)領(lǐng)域中第一個(gè)可以實(shí)時(shí)運(yùn)行的目標(biāo)檢測(cè)算法,受到了廣泛關(guān)注。

在預(yù)測(cè)目標(biāo)位置時(shí),YOLO算法沒(méi)有利用先驗(yàn)信息,需要直接預(yù)測(cè)目標(biāo)的實(shí)際位置,使得其對(duì)目標(biāo)的定位精度相對(duì)較差。此外,YOLO算法在預(yù)測(cè)每個(gè)單元格對(duì)應(yīng)的檢測(cè)結(jié)果時(shí),要求目標(biāo)中心點(diǎn)必須位于該單元格內(nèi)部。這一作法對(duì)算法的預(yù)測(cè)過(guò)程施加了較強(qiáng)的空間約束,使得算法對(duì)成群出現(xiàn)的小目標(biāo)檢測(cè)效果較差。

SSD[19]是另一個(gè)受到廣泛關(guān)注的單階段目標(biāo)檢測(cè)算法,其網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。SSD算法與YOLO算法的不同之處主要體現(xiàn)在兩方面。首先,SSD利用多個(gè)不同尺度的特征圖進(jìn)行目標(biāo)檢測(cè),提升了算法對(duì)不同尺度目標(biāo)的檢測(cè)能力。其次,SSD采用了與RPN網(wǎng)絡(luò)中類似的目標(biāo)預(yù)測(cè)機(jī)制。與YOLO算法相比,這種機(jī)制有三點(diǎn)優(yōu)勢(shì): ① 使用卷積層實(shí)現(xiàn)對(duì)目標(biāo)位置和類別的預(yù)測(cè),參數(shù)量和計(jì)算量相對(duì)較小;② 沒(méi)有對(duì)目標(biāo)檢測(cè)過(guò)程施加空間限制,能夠檢測(cè)成群出現(xiàn)的小目標(biāo);③ 使用了多個(gè)尺寸的anchor作為目標(biāo)位置的先驗(yàn)信息。因此,SSD算法的檢測(cè)精度和運(yùn)行速度都優(yōu)于YOLO。

YOLO和SSD是兩種使用較為廣泛的單階段目標(biāo)檢測(cè)算法。研究者針對(duì)這兩種算法作了很多改進(jìn)。

針對(duì)YOLO算法的缺點(diǎn),YOLO研究者提出了YOLOv2[20]算法,主要改進(jìn)內(nèi)容包括: 采用了新的全卷積特征提取網(wǎng)絡(luò)Darknet-19;使用2個(gè)不同尺度的特征進(jìn)行目標(biāo)檢測(cè);引入了anchor機(jī)制;使用了多尺度訓(xùn)練機(jī)制。YOLOv2算法的運(yùn)行速度和檢測(cè)精度相比YOLO都有了明顯提升。在VOC2007數(shù)據(jù)集上,YOLOv2的性能與SSD512相當(dāng),但前者的運(yùn)行速度是后者的3.5倍。

YOLOv3[21]對(duì)YOLOv2進(jìn)行了改進(jìn): 采用了更深層的特征提取網(wǎng)絡(luò)Darknet-53;使用了3個(gè)尺度的特征進(jìn)行目標(biāo)檢測(cè),同時(shí)增加了anchor數(shù)量。由于模型結(jié)構(gòu)更加復(fù)雜,YOLOv3相比YOLOv2檢測(cè)速度有所降低,但檢測(cè)精度有明顯提升,對(duì)小目標(biāo)的檢測(cè)效果也有明顯改善。

對(duì)于SSD算法,研究者同樣作了多方面的改進(jìn)。其中DSSD[22]、F-SSD[23]和R-SSD[24]等都是對(duì)神經(jīng)網(wǎng)絡(luò)中不同特征的融合方式進(jìn)行了改進(jìn),并取得了不錯(cuò)的效果。RetinaNet[25]是在SSD目標(biāo)檢測(cè)算法框架下一項(xiàng)具有重要意義的算法。相比SSD算法,RetinaNet使用特征金字塔網(wǎng)絡(luò)[26](Feature Pyramid Network,F(xiàn)PN)構(gòu)建了用于目標(biāo)檢測(cè)的多尺度特征,并提出了新型損失函數(shù),顯著提高了目標(biāo)檢測(cè)算法的準(zhǔn)確性。

2018年,Law H等借鑒了人體姿態(tài)估計(jì)算法的一些設(shè)計(jì)思想,提出基于關(guān)鍵點(diǎn)的目標(biāo)檢測(cè)算法CornerNet[27]。CornerNet將目標(biāo)檢測(cè)過(guò)程視為預(yù)測(cè)目標(biāo)所在矩形框的左上角點(diǎn)和右下角點(diǎn)的過(guò)程,并取得了非常好的效果。

單階段目標(biāo)檢測(cè)算法雖然晚于兩階段目標(biāo)檢測(cè)算法出現(xiàn),但憑借結(jié)構(gòu)簡(jiǎn)單、計(jì)算高效的特點(diǎn)受到了許多研究者的關(guān)注,發(fā)展十分迅速。早期的單階段目標(biāo)檢測(cè)算法往往運(yùn)行速度較快,但檢測(cè)能力與兩階段檢測(cè)算法有較大差距。目前的單階段目標(biāo)檢測(cè)算法在保持較快速度的同時(shí),檢測(cè)能力已經(jīng)達(dá)到與兩階段目標(biāo)檢測(cè)算法相當(dāng)?shù)乃?。同時(shí),單階段目標(biāo)檢測(cè)算法在發(fā)展過(guò)程中已經(jīng)成了一個(gè)相對(duì)固定的框架結(jié)構(gòu),有助于研究者從不同方面對(duì)其進(jìn)行研究改進(jìn)。

2 算法框架

基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法的主體結(jié)構(gòu)是一個(gè)可以進(jìn)行端到端訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)。根據(jù)對(duì)目前單階段目標(biāo)檢測(cè)算法的分析,將單階段目標(biāo)檢測(cè)模型分解為特征提取和目標(biāo)檢測(cè)兩個(gè)模塊。其中,特征提取模塊負(fù)責(zé)從輸入圖像中提取特征,目標(biāo)檢測(cè)模塊則利用提取的特征對(duì)目標(biāo)位置和類別進(jìn)行預(yù)測(cè),如圖5所示。

特征提取模塊包含兩部分: 特征提取網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)。特征提取網(wǎng)絡(luò)一般由圖像分類網(wǎng)絡(luò)改造而成,這樣可以利用在圖像分類數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重,實(shí)現(xiàn)遷移學(xué)習(xí)效果。輔助網(wǎng)絡(luò)用于對(duì)特征提取網(wǎng)絡(luò)輸出的特征進(jìn)行變換、融合等操作。

目標(biāo)檢測(cè)模塊一般由若干全連接層或卷積層構(gòu)成,每個(gè)全連接層或者卷積層可以看作若干檢測(cè)器的集合。每個(gè)檢測(cè)器只能輸出1個(gè)檢測(cè)結(jié)果,檢測(cè)器的數(shù)量決定了算法可檢測(cè)目標(biāo)數(shù)量的上限。

每個(gè)檢測(cè)器由1個(gè)定位器和1個(gè)分類器組成。定位器負(fù)責(zé)將輸入特征映射為目標(biāo)位置信息,分類器負(fù)責(zé)將輸入特征映射為目標(biāo)類別信息。目前,目標(biāo)位置信息常用目標(biāo)外接矩形框的中心點(diǎn)坐標(biāo)、寬度和高度表示,記為x,y,w,h;目標(biāo)類別信息用cj(j∈[0, 1, 2, …, N-1])表示,其中N是目標(biāo)類別數(shù)量。

不同單階段目標(biāo)檢測(cè)算法的區(qū)別在于以下三個(gè)方面: ①特征提取網(wǎng)絡(luò)不同;②特征選擇和融合策略不同;③檢測(cè)器不同。

其中,前兩個(gè)方面都與特征相關(guān)。

與圖像分類領(lǐng)域類似,許多目標(biāo)檢測(cè)算法都傾向于使用更深的特征提取網(wǎng)絡(luò),使用更多數(shù)量的特征來(lái)提升檢測(cè)精度。一般情況下,這樣的做法會(huì)大幅增加模型的計(jì)算量,但只能得到相對(duì)較小的性能提升。

檢測(cè)器直接關(guān)乎目標(biāo)檢測(cè)結(jié)果的輸出,是單階段目標(biāo)檢測(cè)算法中的核心部件。不同類型的目標(biāo)檢測(cè)算法可能在檢測(cè)器的數(shù)量、anchor機(jī)制、構(gòu)造形式、 預(yù)測(cè)機(jī)制、匹配機(jī)制、損失函數(shù)等方面存在差別。

下面對(duì)單階段目標(biāo)檢測(cè)算法中的特征提取網(wǎng)絡(luò)、特征選擇和融合策略以及檢測(cè)器進(jìn)行論述。

3 特征提取模塊

3.1 特征提取網(wǎng)絡(luò)

作為深度學(xué)習(xí)領(lǐng)域的一項(xiàng)基礎(chǔ)性技術(shù),深度神經(jīng)網(wǎng)絡(luò)近年來(lái)發(fā)展很快[28]。圖2中時(shí)間軸下方展示了歷年來(lái)一些典型的深度神經(jīng)網(wǎng)絡(luò)模型,這些模型在ImageNet數(shù)據(jù)集上的分類性能和計(jì)算量如表2所示。由圖2和表2可知,在AlexNet出現(xiàn)之后的最初幾年內(nèi),許多大規(guī)模的深度神經(jīng)網(wǎng)絡(luò)模型被提出來(lái)。與AlexNet相比,這些模型分類錯(cuò)誤率明顯降低,但計(jì)算量也有較大增長(zhǎng)。另一方面, 為了促進(jìn)深度學(xué)習(xí)技術(shù)在移動(dòng)設(shè)備、嵌入式設(shè)備等平臺(tái)上的應(yīng)用,網(wǎng)絡(luò)規(guī)模更小、計(jì)算量更低的輕量級(jí)網(wǎng)絡(luò)也成為深度神經(jīng)網(wǎng)絡(luò)發(fā)展的一個(gè)重要方向。

深度神經(jīng)網(wǎng)絡(luò)模型一般由一定的基本結(jié)構(gòu)單元反復(fù)堆疊而成,各種模型的不同也主要體現(xiàn)在其基本結(jié)構(gòu)單元的不同。圖6展示了常見(jiàn)神經(jīng)網(wǎng)絡(luò)模型的基本結(jié)構(gòu)單元。其中,AlexNet和VGG[29]都是常規(guī)的卷積神經(jīng)網(wǎng)絡(luò),采用卷積層作為基本結(jié)構(gòu)單元。與AlexNet不同的是,VGG網(wǎng)絡(luò)只使用了3×3和1×1的卷積核,并堆疊了更多層的網(wǎng)絡(luò)。GoogLeNet[30]采用了Network in Network的思想,其基本結(jié)構(gòu)單元是一個(gè)被稱為Inception模塊的子網(wǎng)絡(luò)?;跉埐顚W(xué)習(xí)的思想,He K等[31]在ResNet中引入了跨越不同網(wǎng)絡(luò)層的捷徑連接。捷徑連接有助于增強(qiáng)信息在不同網(wǎng)絡(luò)層之間的流動(dòng),緩解

深度模型訓(xùn)練中的過(guò)擬合問(wèn)題。DenseNet[32]則將捷徑連接更廣泛地應(yīng)用在深度神經(jīng)網(wǎng)絡(luò)的構(gòu)建過(guò)

程中,但不同于ResNet的是,DenseNet中的捷徑連接采用了通道串接的方式,而不是對(duì)應(yīng)元素相加的方式,這有助于促進(jìn)特征的再利用,降低模型參數(shù)量。

逐層可分離卷積[33]是近年來(lái)輕量級(jí)神經(jīng)網(wǎng)絡(luò)發(fā)展過(guò)程中的一項(xiàng)重要技術(shù),其將卷積過(guò)程分解為逐層卷積和駐點(diǎn)卷積。相比常規(guī)卷積過(guò)程,逐層可分離卷積的計(jì)算量和參數(shù)量更少。

MobileNet[34]使用逐層可分離卷積替代常規(guī)卷積構(gòu),建了一個(gè)輕量級(jí)神經(jīng)網(wǎng)絡(luò)模型,其分類性能與VGG和GoogLeNet等網(wǎng)絡(luò)性能相當(dāng),但參數(shù)量和計(jì)算量明顯降低。 MobileNetV2[35]在MobileNet

的基礎(chǔ)上,增加了捷徑連接,構(gòu)建了殘差學(xué)習(xí)模塊,進(jìn)一步提升了網(wǎng)絡(luò)的分類準(zhǔn)確性。在SSD目標(biāo)檢測(cè)算法框架中,使用MobileNetV2作為特征提取網(wǎng)絡(luò)取得的性能與MobileNet相當(dāng),但模型的參數(shù)量?jī)H為后者的83%,計(jì)算量?jī)H為后者的62%。

ShuffleNet[36]將分組卷積、逐層卷積和通道次序打亂這三種操作引入到殘差模塊中。其中,分組卷積是將輸入矩陣在通道方向上劃分為若干組之后,分別進(jìn)行卷積運(yùn)算,然后將相應(yīng)的輸出矩陣在通道方向上串接。逐層卷積是分組卷積的一種特殊情況,即分組數(shù)等于通道數(shù)。通道次序打亂則是將輸入矩陣在通道方向上隨機(jī)打亂后再進(jìn)行后續(xù)計(jì)算。ShuffleNet可通過(guò)一系列超參數(shù)控制模型規(guī)模,當(dāng)模型計(jì)算量與MobileNet相當(dāng)時(shí),ShuffleNet的分類錯(cuò)誤率更低。ShuffleNetV2[37]在ShuffleNet的基礎(chǔ)上,考慮了內(nèi)存存取成本等影響模型運(yùn)算速度的因素,重新設(shè)計(jì)基本結(jié)構(gòu)單元,進(jìn)一步提升了模型的效率。

3.2 特征選擇和融合策略

深度卷積神經(jīng)網(wǎng)絡(luò)可以從圖像中提取層次化的特征,其中低層網(wǎng)絡(luò)輸出的是簡(jiǎn)單幾何特征,高層網(wǎng)絡(luò)輸出的是抽象語(yǔ)義特征[38]。由于需要同時(shí)預(yù)測(cè)目標(biāo)的位置和類別,目標(biāo)檢測(cè)模型既需要幾何特征,也需要語(yǔ)義特征。

隨著網(wǎng)絡(luò)層數(shù)的增加,神經(jīng)網(wǎng)絡(luò)的下采樣率一般逐漸增大,特征圖的分辨率也越來(lái)越小。為提升算法對(duì)多尺度目標(biāo)的檢測(cè)能力,單階段目標(biāo)檢測(cè)算法一般會(huì)利用多個(gè)尺度的特征圖進(jìn)行預(yù)測(cè)。其中的特征選擇和融合操作一般通過(guò)特征提取模塊中的輔助網(wǎng)絡(luò)實(shí)現(xiàn)。

單階段目標(biāo)檢測(cè)算法的典型特征選擇和融合策略如圖7所示。其中,圖7(a)基于特征提取網(wǎng)絡(luò)最頂層的特征進(jìn)行目標(biāo)檢測(cè),如YOLO算法。圖7(b)基于特征提取網(wǎng)絡(luò)自底向上生成的多個(gè)特征圖分別進(jìn)行目標(biāo)檢測(cè),如SSD算法。圖7(c)基于特征提取網(wǎng)絡(luò)生成的特征圖,采

用自頂向下的方式重新構(gòu)建一套融合的特征圖,代表算法是RetinaNet、FPN和DSSD。YOLOv2和YOLOv3算法也采用這種策略,不過(guò)使用了較少的特征圖。圖7(d)基于特征提取網(wǎng)絡(luò)生成的特征圖,采用自底向上的方式重新構(gòu)建了一套融合的特征圖,代表算法是FSSD。

通過(guò)對(duì)比不同的算法發(fā)現(xiàn),目標(biāo)越小,對(duì)特征圖分辨率的要求越高;使用多尺度特征進(jìn)行目標(biāo)檢測(cè)較使用單個(gè)尺度的特征效果好;使用融合的特征較使用獨(dú)立的特征效果好。但從另一方面說(shuō),增加特征的數(shù)量,對(duì)更多特征進(jìn)行融合雖然會(huì)促進(jìn)算法檢測(cè)能力的提升,但也增加了模型中的參數(shù)量和計(jì)算量,導(dǎo)致算法的運(yùn)行速度降低。因此,設(shè)計(jì)特征選擇與融合策略的關(guān)鍵,在于利用適當(dāng)數(shù)量的特征和合理的融合機(jī)制取得算法性能和算法運(yùn)行速度之間的平衡。

4 檢測(cè)器

檢測(cè)器的功能是根據(jù)特征直接輸出目標(biāo)檢測(cè)結(jié)果。從實(shí)現(xiàn)形式上看,檢測(cè)器的結(jié)構(gòu)十分簡(jiǎn)單,但在目標(biāo)檢測(cè)算法的訓(xùn)練和測(cè)試過(guò)程中,檢測(cè)器又包含十分復(fù)雜的機(jī)制,對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程和最終性能有重要影響。

檢測(cè)器包含定位器和分類器,其中分類器一般較簡(jiǎn)單,與圖像分類網(wǎng)絡(luò)中的分類層類似。定位器作為目標(biāo)檢測(cè)網(wǎng)絡(luò)獨(dú)有的部件,復(fù)雜度較高,對(duì)模型的影響更大。

4.1 構(gòu)造形式

根據(jù)前文的論述可知,檢測(cè)器一般有兩種構(gòu)造形式,分別是全連接層和卷積層。在YOLO,DeepMultiBox等算法中,使用全連接層構(gòu)造了檢測(cè)器。在YOLOv3,SSD和RetinaNet等算法中,檢測(cè)器通過(guò)卷積層實(shí)現(xiàn)。其中YOLOv3使用了1×1的卷積核,而SSD使用了3×3卷積核。值得注意的是,全連接層可以看作是一種特殊的卷積層,其卷積核的尺寸與輸入特征的尺寸相同。

表3中列舉了目標(biāo)類別數(shù)N=20時(shí),一些算法的檢測(cè)器構(gòu)造信息。通過(guò)YOLO與其他三種算法對(duì)比發(fā)現(xiàn),使用卷積層來(lái)構(gòu)造檢測(cè)器能夠在不同空間位置的檢測(cè)器之間共享參數(shù),極大地減少參數(shù)量。另外,YOLOv3擁有較多的檢測(cè)器,參數(shù)數(shù)量卻少于SSD。這是因?yàn)閅OLOv3的檢測(cè)器是在較大的特征圖中通過(guò)卷積構(gòu)造實(shí)現(xiàn),參數(shù)共享程度高,而SSD算法是在多個(gè)較小的特征圖中構(gòu)造檢測(cè)器,參數(shù)共享程度低。

4.2 anchor機(jī)制

anchor為單階段目標(biāo)檢測(cè)算法提供了目標(biāo)位置的先驗(yàn)信息。在這些先驗(yàn)信息的基礎(chǔ)上,檢測(cè)器中的定位器更容易預(yù)測(cè)目標(biāo)位置。anchor應(yīng)當(dāng)盡可能地貼近真實(shí)目標(biāo)的矩形框尺寸分布。事實(shí)上,兩階段目標(biāo)檢測(cè)算法中的候選區(qū)域可以理解為動(dòng)態(tài)的anchor。這種動(dòng)態(tài)anchor往往比事先指定的靜態(tài)矩形框更貼近目標(biāo)的真實(shí)位置,所以一般情況下,兩階段目標(biāo)檢測(cè)算法的檢測(cè)效果更好。

在Pascal VOC和COCO等目標(biāo)檢測(cè)數(shù)據(jù)集中,目標(biāo)大小和長(zhǎng)寬比往往分布在較大的范圍中。所以,一般選用若干不同大小和長(zhǎng)寬比的anchor,促進(jìn)定位器通過(guò)學(xué)習(xí)來(lái)預(yù)測(cè)不同大小和長(zhǎng)寬比的目標(biāo),從而增加定位器的多樣性,增強(qiáng)算法對(duì)不同目標(biāo)的檢測(cè)能力。

目前一般有兩種方式來(lái)確定anchor的尺寸。第一種是通過(guò)人工選擇,這種方法在SSD,RPN,RetinaNet等算法中有應(yīng)用。第二種是通過(guò)聚類的方法在訓(xùn)練集中選取合適的anchor尺寸,這種方法在DeepMultiBox和YOLO等算法中有應(yīng)用。

聚類方法獲得的anchor更加符合數(shù)據(jù)集中目標(biāo)矩形框的分布情況,使得算法在訓(xùn)練過(guò)程中更容易收斂。而人工選擇法要達(dá)到同樣效果,一般要選擇較多的anchor,以盡可能覆蓋不同尺度和長(zhǎng)寬比的目標(biāo)。

典型目標(biāo)檢測(cè)算法中anchor的數(shù)量如表4所示。作為對(duì)比,YOLOv2中僅使用了5種anchor,而SSD算法中使用了30種anchor,但二者的檢測(cè)精度相當(dāng)。

在RetinaNet算法中,作者研究了anchor數(shù)量與算法檢測(cè)精度之間的關(guān)系,結(jié)果如表5所示。這進(jìn)一步說(shuō)明,選用更多的anchor不一定能產(chǎn)生更好的結(jié)果。

4.3 預(yù)測(cè)機(jī)制

檢測(cè)器的預(yù)測(cè)機(jī)制是指檢測(cè)器輸出值與目標(biāo)位置和類別信息的預(yù)測(cè)值之間的映射關(guān)系,即根據(jù)檢測(cè)器輸出如何計(jì)算目標(biāo)檢測(cè)結(jié)果。預(yù)測(cè)機(jī)制不同,檢測(cè)器的檢測(cè)能力也不同。

在SSD算法中,檢測(cè)器的預(yù)測(cè)機(jī)制可表示為

式中: (ax,ay,aw,ah)分別是anchor中心點(diǎn)坐標(biāo)、寬度和高度;(t^x,t^y,t^w,t^h)是檢測(cè)器中定位器的輸出值;t^cj是分類器輸出值;(x^,y^,w^,h^)是預(yù)測(cè)的目標(biāo)矩形框坐標(biāo);c^j是預(yù)測(cè)的目標(biāo)類別概率。

SSD算法預(yù)測(cè)的是目標(biāo)矩形框相對(duì)anchor中心位置和邊框尺寸的偏差程度,這使得算法更容易檢測(cè)到與anchor形狀相似的目標(biāo)。這種檢測(cè)機(jī)制未對(duì)矩形框中心做任何限制,檢測(cè)器預(yù)測(cè)的矩形框可能出現(xiàn)在圖像的任意位置,因此,圖像不同區(qū)域的特征可能用于檢測(cè)同一個(gè)目標(biāo)。

YOLO算法未采用anchor機(jī)制,其檢測(cè)器的預(yù)測(cè)機(jī)制可用下列公式表達(dá):

式中: (cx,cy,cw,ch)是定位器所在單元格的左上角的坐標(biāo)、以及單元格的寬度和高度;t^o是檢測(cè)器輸出的矩形框置信度;W,H是輸入圖像的寬度和高度;其他變量的含義與式(1)相同。

YOLO對(duì)檢測(cè)器施加了一定的限制,使得其預(yù)測(cè)的矩形框中心必須位于檢測(cè)器所對(duì)應(yīng)單元格內(nèi)。同時(shí)檢測(cè)器也需要在較大的搜索空間內(nèi)預(yù)測(cè)目標(biāo)矩形框的尺寸,難度較大,這也導(dǎo)致YOLO算法的定位誤差較大。

YOLOv2和YOLOv3的預(yù)測(cè)機(jī)制相同,用公式表示為

式中: (aw, ah)是anchor的寬度和高度;其他變量的含義與式(2)相同。anchor機(jī)制的引入使得檢測(cè)器更容易預(yù)測(cè)目標(biāo)矩形框的尺寸,同時(shí)YOLOv2和YOLOv3算法還增大了特征圖的分辨率和檢測(cè)器的數(shù)量,使算法的檢測(cè)效果有了明顯提升。

4.4 匹配機(jī)制

在單階段目標(biāo)檢測(cè)算法中,網(wǎng)絡(luò)模型中有多個(gè)檢測(cè)器,輸入圖像中也有多個(gè)真實(shí)目標(biāo),只有在二者之間建立匹配關(guān)系之后才能計(jì)算相應(yīng)損失值,從而對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化。

從匹配形式來(lái)說(shuō),目前有兩種。第一種是每個(gè)真實(shí)目標(biāo)只與一個(gè)檢測(cè)器匹配,如YOLO系列算法。第二種是多個(gè)檢測(cè)器可以與同一個(gè)目標(biāo)匹配,如SSD,Retina等算法。第二種匹配機(jī)制使得有多個(gè)檢測(cè)器負(fù)責(zé)檢測(cè)同一個(gè)目標(biāo),有助于提升檢測(cè)效果。

從匹配方法來(lái)說(shuō),一般也分為兩種。在anchor機(jī)制出現(xiàn)以前,一般是通過(guò)檢測(cè)器輸出的矩形框來(lái)構(gòu)建匹配關(guān)系。如果檢測(cè)器輸出的矩形框與某個(gè)真實(shí)矩形框的IoU最大或者超過(guò)了一定的閾值,則在二者之間建立匹配關(guān)系。在算法訓(xùn)練過(guò)程中,檢測(cè)器輸出的矩形框是動(dòng)態(tài)變化的,因此在不同迭代步中,同一個(gè)檢測(cè)器可能匹配到差異較大的目標(biāo),這種匹配機(jī)制稱為動(dòng)態(tài)匹配機(jī)制。動(dòng)態(tài)匹配機(jī)制可能造成模型訓(xùn)練過(guò)程不穩(wěn)定,特別是在早期訓(xùn)練階段。

在anchor機(jī)制出現(xiàn)以后,一般利用與檢測(cè)器綁定的anchor計(jì)算匹配關(guān)系。由于anchor確定以后就不再發(fā)生變化,這種匹配機(jī)制稱為靜態(tài)匹配機(jī)制。靜態(tài)匹配機(jī)制保證了匹配關(guān)系的穩(wěn)定性,使得不同檢測(cè)器根據(jù)anchor尺寸和長(zhǎng)寬比的不同向著不同方向優(yōu)化,保證了檢測(cè)器的多樣性。

4.5 損失函數(shù)

檢測(cè)器與真實(shí)目標(biāo)(正樣本)建立了匹配關(guān)系之后,就可以基于檢測(cè)器輸出和真實(shí)目標(biāo)的標(biāo)記計(jì)算損失值。其中分類器的損失值一般用交叉熵?fù)p失函數(shù)計(jì)算。定位器的損失值一般采用均方差(MSE)損失函數(shù)或SmoothL1損失函數(shù)計(jì)算,二者的差別如圖8所示。當(dāng)誤差較大時(shí),均方差損失函數(shù)會(huì)產(chǎn)生過(guò)大的梯度, 因此一般采用SmoothL1來(lái)計(jì)算定位器的損失。

另一個(gè)值得注意的問(wèn)題是大目標(biāo)和小目標(biāo)的損失函數(shù)。對(duì)于同樣的尺寸誤差,小目標(biāo)顯然比大目標(biāo)更敏感,但是MSE和SmoothL1損失函數(shù)并沒(méi)

有考慮這一點(diǎn)。YOLO算法中利用(w^-w)和(h^-h)計(jì)算矩形框尺寸的預(yù)測(cè)值(w^,h^)與真實(shí)(w,h)之間的誤差,緩解了這種現(xiàn)象。在基于anchor的預(yù)測(cè)機(jī)制中,通過(guò)為不同尺度的目標(biāo)設(shè)定不同尺度的anchor也可以緩解此問(wèn)題。

未能與真實(shí)目標(biāo)建立匹配關(guān)系的檢測(cè)器實(shí)際上是與背景區(qū)域(負(fù)樣本)建立了匹配關(guān)系。對(duì)于負(fù)樣本,只需計(jì)算分類器對(duì)應(yīng)的損失值。但圖像中背景區(qū)域面積較大,負(fù)樣本的數(shù)量遠(yuǎn)大于正樣本,二者之間存在嚴(yán)重的類別不均衡問(wèn)題。

常規(guī)的做法是對(duì)負(fù)樣本進(jìn)行篩選,使得正負(fù)樣本的比例更加均衡。SSD算法利用困難負(fù)樣本挖掘技術(shù)對(duì)負(fù)樣本進(jìn)行篩選,使得正樣本和負(fù)樣本的比例保持為1∶3。這使得模型訓(xùn)練更加穩(wěn)定,收斂速度更快。

在ReintaNet中,作者提出了改進(jìn)的分類器損失函數(shù)FocalLoss:

FL(pt)=-αt(1-pt)γln(pt)(4)

式中: Pt是分類器給出的類別概率;系數(shù)α用于緩解正樣本和負(fù)樣本數(shù)量的不均衡問(wèn)題;權(quán)重(1-pt)γ用于對(duì)樣本的損失值進(jìn)行加權(quán),降低來(lái)自容易檢測(cè)的樣本的損失值,增加來(lái)自困難樣本的損失值,如圖9所示。在COCO數(shù)據(jù)集上,ReintaNet的檢測(cè)精度大幅領(lǐng)先其他單階段目標(biāo)檢測(cè)算法,甚至比Faster R-CNN算法的檢測(cè)效果還要好。

YOLO系列算法并沒(méi)有計(jì)算來(lái)自負(fù)樣本的分類損失值,而是利用檢測(cè)器輸出的置信度t^o來(lái)區(qū)分正負(fù)樣本。對(duì)于正樣本,置信度t^o的目標(biāo)值to為1;對(duì)于負(fù)樣本,如果檢測(cè)器輸出的矩形框與任意真實(shí)目標(biāo)矩形框的IoU大于0.5,則忽略這個(gè)預(yù)測(cè)結(jié)果,否則將目標(biāo)值to置為0,然后計(jì)算t^o和to之間的損失值。YOLOv3的這種機(jī)制巧妙地解決了負(fù)樣本的問(wèn)題,在實(shí)際中取了良好的效果。

5 挑戰(zhàn)與展望

本文對(duì)基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法的研究進(jìn)展進(jìn)行了綜述,歸納提出了單階段目標(biāo)檢測(cè)算法的通用框架,并對(duì)算法框架中的特征提取模塊和檢測(cè)器模塊進(jìn)行了深入分析。

綜述發(fā)現(xiàn),基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法在短短幾年時(shí)間里從出現(xiàn)到興盛,發(fā)展十分迅速。這主要是由于兩方面的原因: 一方面單階段檢測(cè)算法結(jié)構(gòu)簡(jiǎn)單、高效,在實(shí)時(shí)目標(biāo)檢測(cè)領(lǐng)域應(yīng)用潛力大,吸引了大量研究者的參與;另一方面深度神經(jīng)網(wǎng)絡(luò)技術(shù)發(fā)展迅猛,促進(jìn)了單階段目標(biāo)檢測(cè)算法性能的提高。目前,單階段目標(biāo)檢測(cè)算法已經(jīng)形成了相對(duì)固定的算法框架,并具有以下特點(diǎn):

(1) 經(jīng)過(guò)預(yù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)是構(gòu)建目標(biāo)檢測(cè)算法特征提取模塊的基礎(chǔ)。雖然DSOD[39]等算法的構(gòu)建可以不依賴預(yù)訓(xùn)練模型,但預(yù)訓(xùn)練模型仍具有十分重要的作用,特別是對(duì)于缺乏標(biāo)記數(shù)據(jù)的領(lǐng)域。

(2) 充分利用特征提取網(wǎng)絡(luò)形成的多尺度特征是實(shí)現(xiàn)多尺度目標(biāo)檢測(cè)的基礎(chǔ)。在選擇和融合多尺度特征時(shí)大多采用沙漏型的網(wǎng)絡(luò)結(jié)構(gòu),即特征圖的分辨率先逐漸減小,再逐漸增大。這種方式有利于不同層級(jí)的特征相互融合。

(3) 以YOLO和SSD為代表的單階段目標(biāo)檢測(cè)算法已經(jīng)發(fā)展的較為成熟,其算法框架中的檢測(cè)器已經(jīng)從構(gòu)造形式、預(yù)測(cè)機(jī)制、匹配機(jī)制、損失函數(shù)等多方面得到了改進(jìn),但檢測(cè)器的構(gòu)造形式、預(yù)測(cè)機(jī)制和損失函數(shù)等方面仍然有提升的空間。

從算法性能來(lái)看,單階段目標(biāo)檢測(cè)算法已經(jīng)具有不錯(cuò)的檢測(cè)精度和速度,但是距離實(shí)用尚有一段距離。展望未來(lái),有必要在以下方面展開(kāi)單階段目標(biāo)檢測(cè)算法的研究:

(1) 研究弱監(jiān)督或無(wú)監(jiān)督條件下的單階段目標(biāo)檢測(cè)算法,促進(jìn)其在標(biāo)記數(shù)據(jù)缺乏的領(lǐng)域中應(yīng)用。

(2) 研究深度神經(jīng)網(wǎng)絡(luò)輸出的各層級(jí)特征與圖像中各類目標(biāo)的聯(lián)系,指導(dǎo)構(gòu)建更高效的特征選擇和融合機(jī)制,提升對(duì)特征的利用效率,改善算法運(yùn)行速度和精度。

(3) 研究新的目標(biāo)位置表示方法和檢測(cè)器設(shè)計(jì)形式。目前普遍采用矩形框表示目標(biāo)位置,其中包含了一些背景區(qū)域,對(duì)于輪廓模糊或細(xì)長(zhǎng)的物體,這種表示方法并不合適。而檢測(cè)器的形式與目標(biāo)位置表示具有一定聯(lián)系。目前的檢測(cè)器形式已經(jīng)相對(duì)固定,在算法性能上很難再有大的突破,有必要構(gòu)造新的檢測(cè)器形式,進(jìn)一步提升單階段目標(biāo)檢測(cè)算法性能。在這兩方面,DOTA數(shù)據(jù)集[40]和CornerNet算法是兩個(gè)很好的例子。在前者中,作者使用斜矩形框來(lái)表示目標(biāo)位置;在后者中,作者提出使用矩形框的兩個(gè)角點(diǎn)表示目標(biāo)位置,并構(gòu)造了新形式的檢測(cè)器。

(4) 研究更好的定位器損失函數(shù)。目前的定位器損失函數(shù)沒(méi)有考慮目標(biāo)尺度對(duì)損失函數(shù)的影響,使得模型對(duì)小目標(biāo)的定位誤差不敏感,需要進(jìn)行改進(jìn)。目前已有研究者將改造后的IoU準(zhǔn)則作為定位器損失函數(shù)對(duì)模型進(jìn)行了優(yōu)化[41],提升了模型的性能。

(5) 研究改善單階段目標(biāo)檢測(cè)算法對(duì)于小目標(biāo)的檢測(cè)能力。目前算法對(duì)于小目標(biāo)的檢測(cè)能力相對(duì)較弱,但無(wú)人機(jī)航拍、衛(wèi)星遙測(cè)、紅外目標(biāo)識(shí)別等領(lǐng)域?qū)π∧繕?biāo)檢測(cè)有較強(qiáng)的需求。在這些領(lǐng)域中,有的小目標(biāo)占據(jù)的像素面積小,例如在紅外目標(biāo)識(shí)別、衛(wèi)星遙測(cè)領(lǐng)域中,目標(biāo)最小時(shí)可能僅占據(jù)十幾個(gè)像素;有的小目標(biāo)占據(jù)的相對(duì)面積較小,例如在無(wú)人機(jī)高清航拍過(guò)程,照片分辨率已經(jīng)達(dá)到4K級(jí)別。改善對(duì)小目標(biāo)的檢測(cè)能力,可以增強(qiáng)單階段目標(biāo)檢測(cè)算法在這些領(lǐng)域的應(yīng)用價(jià)值。

參考文獻(xiàn):

[1] 蘇松志, 李紹滋, 陳淑媛, 等.行人檢測(cè)技術(shù)綜述[J].電子學(xué)報(bào),2012,40(4):814-820.

Su Songzhi,Li Shaozi,Chen Shuyuan,et al. A Survey on Pedestrian Detection[J]. Acta Electronica Sinica, 2012, 40(4): 814-820. (in Chinese)

[2] 藺向明.基于紅外成像的小目標(biāo)檢測(cè)技術(shù)研究[J]. 航空兵器,2014(3):12-15.Lin Xiangming. Research on Small Target Detecting Algorithm Based on IR Imaging[J]. Aero Weaponry,2014(3):12-15. (in Chinese)

[3] Lecun Y,Bengio Y,Hinton G. Deep Learning[J]. Nature,2015,521(7553):436-444.

[4] Krizhevsky A,Sutskever I,Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[C]∥International Conference on Neutral Information Processing Systems (NIPS),Lake Tahoe,USA:2012:1097-1105.

[5] Everingham M,Van Gool L,Williams C K,et al. The Pascal Visual Object Classes (VOC) Challenge[J]. International Journal of Computer Vision,2010,88(2):303-338.

[6] Everingham M,Ali Eslami S M,Van Gool L,et al. The Pascal Visual Object Classes Challenge:A Retrospective[J]. International Journal of Computer Vision,2015,111(1):98-136.

[7] Veit A,Matera T,Neumann L,et al. COCO-Text:Dataset and Benchmark for Text Detection and Recognition in Natural Images [EB/OL]. (2016-06-19) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1601.07140.pdf.

[8] Liu L,Ouyang W L,Wang X G,et al. Deep Learning for Generic Object Detection:A Survey [EB/OL]. (2019-03-24)[2019-05-23]. http: ∥arxiv.org/abs/1809.02165.

[9] 張慧,王坤峰,王飛躍. 深度學(xué)習(xí)在目標(biāo)視覺(jué)檢測(cè)中的應(yīng)用進(jìn)展與展望[J]. 自動(dòng)化學(xué)報(bào),2017,43(8):1289-1305.

Zhang Hui,Wang Kunfeng,Wang Feiyue. Advances and Perspectives on Applications of Deep Learning in Visual Object Detection[J]. Acta Automatica Sinica,2017,43(8):1289-1305. (in Chinese)

[10] 尹宏鵬,陳波,柴毅,等. 基于視覺(jué)的目標(biāo)檢測(cè)與跟蹤綜述[J].自動(dòng)化學(xué)報(bào), 2016, 42(10): 1466-1489.

Yin Hongpeng,Chen Bo,Chai Yi,et al. Vision-Based Object Detection and Tracking:A Review[J]. Acta Automatica Sinica,2016, 42(10): 1466-1489. (in Chinese)

[11] Szegedy C,Toshev A,Erhan D. Deep Neural Networks for Object Detection[C]∥ Conference on Neural Information Processing Systems (NIPS),Lake Tahoe,USA,2013:2553-2561.

[12] Sermanet P,Eigen D,Zhang X,et al. OverFeat:Integrated Recognition,Localization and Detection Using Convolutional Networks [EB/OL]. (2014-02-24) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1312.6229.pdf.

[13] Girshick R,Donahue J,Darrell T,et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2014:580-587.

[14] Erhan D,Szegedy C,Toshev A,et al. Scalable Object Detection Using Deep Neural Networks[C]∥ Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2014:2147-2154.

[15] Redmon J,Angelova A. Real-Time Grasp Detection Using Convolutional Neural Networks[C]∥ IEEE International Conference on Robotics and Automation (ICRA),Seattle,USA, 2015:1316-1322.

[16] Uijlings J R R,Van De Sande K E A,Gevers T,et al. Selective Search for Object Recognition[J]. International Journal of Computer Vision,2013,104(2):154-171.

[17] Ren S Q,He K M,Girshick R B,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,39(6): 1137-1149.

[18] Redmon J,Divvala S K,Girshick R,et al. You Only Look Once:Unified,Real-Time Object Detection[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016:779-788.

[19] Liu W,Anguelov D,Erhan D,et al. SSD:Single Shot MultiBox Detector[C]∥European Conference on Computer Vision(ECCV),Amsterdam,The Netherlands: 2016: 21-37.

[20] Redmon J,F(xiàn)arhadi A. YOLO9000:Better,F(xiàn)aster,Stronger[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017: 7263-7271.

[21] Redmon J,F(xiàn)arhadi A. YOLOv3:An Incremental Improvement [EB/OL]. (2018-04-08) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1804.02767.pdf.

[22] Fu C Y,Liu W,Ranga A,et al. DSSD:Deconvolutional Single Shot Detector [EB/OL]. (2017-01-23) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1701.06659.pdf.

[23] Li Z X,Zhou F Q. FSSD:Feature Fusion Single Shot Multibox Detector [EB/OL]. (2018-05-17) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1712.00960.pdf.

[24] Jeong J,Park H,Kwak N. Enhancement of SSD by Concatenating Feature Maps for Object Detection [EB/OL]. (2017-05-26)[2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1705.09587.pdf.

[25] Lin T Y,Goyal P,Girshick R,et al. Focal Loss for Dense Object Detection[C]∥IEEE International Conference on Computer Vision (ICCV),2017:2980-2988.

[26] Lin T Y,Dollar P,Girshick R,et al. Feature Pyramid Networks for Object Detection[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017:2117-2125.

[27] Law H,Deng J. CornerNet:Detecting Objects as Paired Keypoints[C]∥ European Conference on Computer Vision (ECCV),2018:734-750.

[28] Gu J X,Wang Z H,Kuen J,et al. Recent Advances in Convolutional Neural Networks[J]. Pattern Recognition,2018,77:354-377.

[29] Simonyan K,Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition [EB/OL]. (2015-04-10) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1409.1556.pdf.

[30] Szegedy C,Liu W,Jia Y Q,et al. Going Deeper with Convolutions[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2015:1-9.

[31] He K M,Zhang X Y,Ren S Q,et al. Deep Residual Learning for Image Recognition[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016:770-778.

[32] Huang G,Liu Z,Van Der Maaten L,et al. Densely Connected Convolutional Networks[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017:4700-4708.

[33] Chollet F. Xception:Deep Learning with Depthwise Separable Convolutions[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2017:1251-1258.

[34] Howard A G,Zhu M L,Chen B,et al. MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applications [EB/OL]. (2017-04-17) [2019-05-23]. https: ∥arxiv.xilesou.top/pdf/1704.04861.pdf.

[35] Sandler M,Howard A,Zhu M L,et al. MobileNetV2:Inverted Residuals and Linear Bottlenecks[C]∥ IEEE Conference onComputer Vision and Pattern Recognition (CVPR),2018:4510-4520.

[36] Zhang X Y,Zhou X Y,Lin M X,et al. ShuffleNet:An Extremely Efficient Convolutional Neural Network for Mobile Devices[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2018:6848-6856.

[37] Ma N N,Zhang X Y,Zheng H T,et al. ShuffleNet V2:Practical Guidelines for Efficient CNN Architecture Design[C]∥ European Conference on Computer Vision (ECCV),2018:122-138.

[38] Zeiler M D,F(xiàn)ergus R. Visualizing and Understanding Convolutional Networks[C]∥European Conference on Computer Vision (ECCV),2014:818-833.

[39] Shen Z Q,Liu Z,Li J G,et al. DSOD:Learning Deeply Supervised Object Detectors from Scratch[C]∥IEEE International Conference on Computer Vision (ICCV),2017:1919-1927.

[40] Xia G S,Bai X,Ding J,et al. DOTA:A Large-Scale Dataset for Object Detection in Aerial Images[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2018:3974-3983.

[41] Rezatofighi H,Tsoi N,Gwak J Y,et al. Generalized Intersection over Union:A Metric and A Loss for Bounding Box Regression[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2019:658-666.

Review on Single-Stage Object DetectionAlgorithm

Based on Deep Learning

Liu Junming1*,Meng Weihua1, 2

(1.China Airborne Missile Academy, Luoyang 471009, China;

2. Aviation Key Laboratory of Science and Technology on Airborne

Guided Weapons, Luoyang 471009, China)

Abstract:

In recent years, deep learning technology has made breakthrough progress in object detection algorithm. The object detection algorithm based on deep learning can be divided into two-stage detection algorithm and single-stage detection algorithm. Compared with two-stage detection algorithm, single-stage detection algorithm has simpler structure, higher computation efficiency and comparable detection accuracy and thus has high research and application value in real-time object detection field. This paper firstly reviews the development history of single-stage detection algorithm and analyzes the advantages and disadvantages of related algorithms, and proposes the general framework of single-stage object detection algorithm. Then, the feature extraction module and detector in the framework are analyzed in depth, and their influence on algorithm performance is pointed out. Finally, the development trend of single-stage detection algorithm is prospected.

Key words: deep learning;single-stage object detection algorithm;feature extraction;feature fusion;anchor; loss function; artificial intelligence

收稿日期: 2019-05-23

作者簡(jiǎn)介: 劉俊明(1990-),男,河南濟(jì)源人,博士研究生,研究方向?yàn)樯疃葘W(xué)習(xí)、紅外目標(biāo)檢測(cè)。

E-mail: ljmbuaa@126.com

引用格式: 劉俊明,孟衛(wèi)華.基于深度學(xué)習(xí)的單階段目標(biāo)檢測(cè)算法研究綜述

[ J].

航空兵器,2020, 27( 3): 44-53.

Liu Junming, Meng Weihua.Review on Singl-Stage Object Detection Algorithm Based on Deep Learning[ J]. Aero Weaponry,2020, 27( 3): 44-53.( in Chinese)

猜你喜歡
特征提取深度學(xué)習(xí)人工智能
2019:人工智能
人工智能與就業(yè)
基于MED—MOMEDA的風(fēng)電齒輪箱復(fù)合故障特征提取研究
數(shù)讀人工智能
基于曲率局部二值模式的深度圖像手勢(shì)特征提取
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
下一幕,人工智能!
漯河市| 永善县| 嘉善县| 三门县| 涞源县| 柞水县| 阳西县| 灵石县| 自贡市| 曲沃县| 天台县| 合川市| 平乡县| 武宁县| 淮滨县| 浦北县| 保山市| 延边| 军事| 安顺市| 建始县| 鄂托克前旗| 钦州市| 河南省| 黔南| 潮州市| 顺昌县| 佛坪县| 冷水江市| 固镇县| 芒康县| 遂川县| 萨嘎县| 乌审旗| 荣成市| 老河口市| 六枝特区| 宜良县| 广昌县| 方正县| 武乡县|