金嘯宇 尹嬙 倪軍 周勇勝 張帆 洪文
摘要隨著深度學(xué)習(xí)方法在計算機視覺領(lǐng)域的崛起,如何將其應(yīng)用于具有全天時、全天候等優(yōu)點的SAR圖像也成為一大研究重點.相較于傳統(tǒng)圖像,SAR圖像由于其難判讀、應(yīng)用人群較少等原因難以獲得大量標(biāo)注數(shù)據(jù).本文提出一種基于場景合成和錨點約束的SAR圖標(biāo)檢測方法.通過區(qū)域生長算法和閾值法對SAR車輛目標(biāo)及其陰影進(jìn)行分割,然后隨機嵌入SAR復(fù)雜場景中的合理區(qū)域來合成目標(biāo)檢測數(shù)據(jù)集.針對SAR車輛目標(biāo)的幾何特性、圖像分辨率參數(shù),對Faster-RCNN中的錨點大小進(jìn)行約束,減少不符合SAR車輛目標(biāo)檢測框尺寸的候選框,大量約簡冗余計算,提升訓(xùn)練、測試效率及精度.關(guān)鍵詞SAR圖像;目標(biāo)檢測;區(qū)域生長;數(shù)據(jù)生成;錨點約束
中圖分類號TP751
文獻(xiàn)標(biāo)志碼A
0引言
SAR圖像由SAR(Synthetic Aperture Radar,合成孔徑雷達(dá))系統(tǒng)產(chǎn)生,是一種主動的對地觀測系統(tǒng),可以安裝于飛機、無人機、衛(wèi)星等多種平臺上,并且由于其成像所用波段相較于可見光而言受天氣、晝夜等影響較少,因此可以實現(xiàn)全天時、全天候的觀測,同時也具有一定的地表穿透能力,故而其廣泛應(yīng)用于海情監(jiān)視、災(zāi)區(qū)勘探等領(lǐng)域.
在獲取SAR圖像后需要對其中的信息進(jìn)行提取,而整個信息提取的過程對目標(biāo)所在位置的自動檢測是必要步驟.因為在獲取目標(biāo)位置后才便于進(jìn)行后續(xù)的如切片、識別、場景理解等工作.傳統(tǒng)的SAR圖像檢測算法中,基于統(tǒng)計模型的算法,以CFAR算法[1-2](Constant False-Alarm Rate)的應(yīng)用最為廣泛.該算法主要根據(jù)雷達(dá)雜波背景的強度,建立目標(biāo)場景的像素值分布模型,通過自適應(yīng)地調(diào)整目標(biāo)的檢測閾值,從而判斷目標(biāo)像素的類別.此類方法也在不斷優(yōu)化和改進(jìn),如使用空間增強描述符和基于密度的空間聚類的艦船檢測方法[3].然而該方法要求場景中目標(biāo)與背景具有較高的對比度,在場景較為簡單的情況下,能夠獲得較好的檢測結(jié)果,如海洋場景目標(biāo)檢測任務(wù),但是在針對陸地場景進(jìn)行檢測時由于存在多種干擾目標(biāo)(房屋、樹木等),通常難以獲得令人滿意的檢測結(jié)果.
卷積神經(jīng)網(wǎng)絡(luò)自提出以來,因其高效、高精度等優(yōu)點被廣泛應(yīng)用于計算機視覺領(lǐng)域.而在目標(biāo)檢測方向上,同樣有眾多基于卷積神經(jīng)網(wǎng)絡(luò)的檢測算法被提出,其中較為經(jīng)典的是Girshick等提出的R-CNN[4]網(wǎng)絡(luò)以及眾多基于R-CNN網(wǎng)絡(luò)的改進(jìn)型網(wǎng)絡(luò).在R-CNN網(wǎng)絡(luò)中,首先使用選擇搜索的方法提取備選區(qū)域,然后使用CNN網(wǎng)絡(luò)進(jìn)行特征提取并輸入到SVM中進(jìn)行分類,并同時對備選區(qū)域做回歸以獲得更好的檢測結(jié)果.為優(yōu)化R-CNN網(wǎng)絡(luò)中的大量冗余計算以及分步式訓(xùn)練過程,Girshick又提出了Fast R-CNN網(wǎng)絡(luò)[5],該網(wǎng)絡(luò)整合了整個流程并且共享了卷積操作,大大降低了計算量.在此基礎(chǔ)上,Ren等提出了Faster R-CNN[6],將備選區(qū)域(在該文章中稱之為錨點,即anchor)的提取過程也融合到網(wǎng)絡(luò)模型中,使得模型可以進(jìn)行一體化的訓(xùn)練,同時也提高了性能.在SAR圖像領(lǐng)域,同樣有研究人員致力于使用深度神經(jīng)網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)算法進(jìn)行目標(biāo)檢測,如使用改進(jìn)型卷積的艦船檢測方法[7]、基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率圖像檢測[8]、使用級聯(lián)網(wǎng)絡(luò)的大場景檢測方法[9]等.
然而由于SAR圖像數(shù)據(jù)較少,并且解譯難度大,導(dǎo)致其帶標(biāo)簽數(shù)據(jù)較少,訓(xùn)練容易過擬合.針對該情況,本文使用區(qū)域生長算法[10]對切片數(shù)據(jù)(該切片包含目標(biāo)、陰影以及一小塊背景區(qū)域)進(jìn)行圖像分割,取出其主要目標(biāo)以及陰影區(qū)域,接著按一定分布規(guī)律替換目標(biāo)場景中的部分像素點,以此生成數(shù)據(jù)集以供模型進(jìn)行訓(xùn)練.在此基礎(chǔ)上,由于產(chǎn)生的數(shù)據(jù)集較為充分,并且其目標(biāo)大小基本為固定值,可以對所選用的模型進(jìn)行相適應(yīng)的改進(jìn),即固定錨點的大小.基于實測數(shù)據(jù)集的實驗結(jié)果表明,上述操作能有效降低網(wǎng)絡(luò)的訓(xùn)練時間.
1算法介紹
本節(jié)對算法做具體介紹,1.1節(jié)介紹數(shù)據(jù)集生成方法,1.2節(jié)介紹目標(biāo)檢測網(wǎng)絡(luò).
1.1數(shù)據(jù)集生成方法
總體算法流程如圖1所示.
依上述算法流程,首先需要對MSTAR坦克切片數(shù)據(jù)集的圖片進(jìn)行濾波,其原因在于目標(biāo)圖像要素基本可以分為陰影、坦克本體以及背景,且其像素灰度值區(qū)別較大,故可以使用Gabor算法依照多個角度進(jìn)行濾波;然后使用區(qū)域生長算法提取掩膜.
區(qū)域生長算法的基本思想是將具有相似性質(zhì)的像素合并為一個區(qū)域.首先需要對目標(biāo)圖像選取一個種子像素點作為生長的起點,然后根據(jù)像素點的相似性將種子像素點周圍相似性高的像素點合并到分割區(qū)域中,然后將新并入的像素點選為新的種子像素并重復(fù)上述過程,直到?jīng)]有新像素點被并入分割區(qū)域,獲得掩膜;然后將掩膜覆蓋至場景中進(jìn)行合成并對合成結(jié)果進(jìn)行篩選.
1.1.1Gabor濾波[11]
考慮到Gabor濾波器可以在頻域不同尺度、不同方向上提取相關(guān)特征[12],為了增強邊界信息,弱化邊界內(nèi)部信息,首先使用Gabor濾波器對圖像進(jìn)行多角度的濾波增強,然后融合多角度的濾波結(jié)果.Gabor濾波器公式如下:
g(x,y;λ,θ,ψ,σ,γ)=e-x′2+γ2y′22σ2cos2πx′λ+ψ,
其中參數(shù)λ,θ,ψ,σ,γ分別代表正弦函數(shù)波長、Gabor核函數(shù)的方向、相位偏移、高斯函數(shù)的標(biāo)準(zhǔn)差和濾波器長度.在本文的實驗中,使用步長為pi/3的角度偏移,融合了6步總計2×pi的多角度圖像,其結(jié)果如圖2所示.
在圖2中,左圖是原始切片圖像,右圖是濾波疊加后的結(jié)果,可以看到在經(jīng)過不同的相移濾波疊加后圖像的原始三要素:陰影、坦克本體和背景已經(jīng)有了更加明顯的區(qū)分度,同時其對應(yīng)區(qū)域的像素值分布也變得更為均勻,便于選擇區(qū)域生長算法的種子像素點.
1.1.2區(qū)域生長算法
由于在上一步的濾波算法處理后,圖像要素的分布已經(jīng)具有較高的區(qū)分度,故可以直接按照其直方圖分布選取對應(yīng)波峰所對應(yīng)的像素點的位置.考慮到在生成數(shù)據(jù)集時需要將陰影和坦克本體共同放置到場景中,需要選取兩個種子像素點,分別對應(yīng)于陰影和坦克本體所在區(qū)域.
同時,為了將坦克和陰影區(qū)域與背景區(qū)分開,必須設(shè)置一個生長終止條件.在觀察圖像直方圖分布后,選取波谷中心點與波峰的平均距離(即灰度值差20)作為生長終止條件.最終的分割結(jié)果如圖3所示,灰色區(qū)域為背景,純黑色部分為陰影區(qū)域,黑白相間區(qū)域是原圖中坦克像素區(qū)域的復(fù)制,可以看到區(qū)域生長算法較好地區(qū)分了原圖中的三要素.
1.1.3戰(zhàn)場環(huán)境模擬
在獲得了切片數(shù)據(jù)的陰影-坦克掩膜后,隨機替換戰(zhàn)場環(huán)境中的部分像素點以生成數(shù)據(jù)集,同時對生成的數(shù)據(jù)集進(jìn)行一定的篩選工作,剔除生成的坦克位于不合適的位置如森林、建筑物的圖像.
1.2基于Faster R-CNN的檢測網(wǎng)絡(luò)
在現(xiàn)有的檢測方法中,大致可以分為單步式和多步式的網(wǎng)絡(luò).單步式的網(wǎng)絡(luò)如SSD[13]、YOLO[14]等的基本思路是將圖像分塊,然后進(jìn)行邊框回歸以及分類;多步式的網(wǎng)絡(luò)基本是R-CNN的改進(jìn)型,其基本思路是首先生成錨點,然后對錨點進(jìn)行邊框回歸以及分類.單步式網(wǎng)絡(luò)的分類直接輸出的是對應(yīng)每個類別的分類概率,多步式網(wǎng)絡(luò)的第一步輸出是目標(biāo)是否是背景的概率,即進(jìn)行的是一個二分類任務(wù),然后在獲得了目標(biāo)的大致位置后,將其輸入到后續(xù)的網(wǎng)絡(luò)中,再進(jìn)行位置的精細(xì)調(diào)整以及對應(yīng)多個類別的分類.圖4為基于錨點約束的Faster R-CNN的示意圖.考慮到本文中的改進(jìn)點基本在RPN網(wǎng)絡(luò),故下文中重點關(guān)注RPN網(wǎng)絡(luò)的部分.
1.2.1RPN網(wǎng)絡(luò)基本思路
RPN網(wǎng)絡(luò)的基本思路為利用CNN網(wǎng)絡(luò)提取的特征,對輸入的錨點進(jìn)行邊框回歸以及分類操作.
在具體的實現(xiàn)中,我們使用resnet[15]作為基礎(chǔ)網(wǎng)絡(luò),該網(wǎng)絡(luò)引入了跳躍連接,使得上一個殘差塊的信息能直接流入下一個殘差塊,該操作提高了信息流通性,加快了網(wǎng)絡(luò)的收斂速度,同時也避免了由于網(wǎng)絡(luò)過深引起的梯度消失和退化問題,為之后的優(yōu)化操作提供了基礎(chǔ).
在使用resnet提取特征后,將其輸出的特征逐層連接至RPN網(wǎng)絡(luò).首先經(jīng)過一個3×3的卷積層,隨后分兩路通過1×1的卷積層,一路輸出為[h,w,anchors_per_location,2],其中h,w分別為特征圖的高和寬,這一路的輸出對應(yīng)的是anchor的分類結(jié)果,即區(qū)分該anchor對應(yīng)的是前景還是背景,另外一路的輸出為[h,w,anchors_per_location,4],第4個維度的值分別為:dx,dy,dh,dw,其中dx,dy代表中心點的位移,dh,dw代表高和寬的縮放量.
為使網(wǎng)絡(luò)能同時對上述的輸出進(jìn)行反向傳播,RPN網(wǎng)絡(luò)使用多任務(wù)損失函數(shù),該函數(shù)包括分類損失函數(shù)以及邊框回歸損失函數(shù),其定義式為
L({pi},{ti})=1Ncls∑iLcls(pi,yi)+λ1Nreg∑iyiLreg(ti,t*i),
其中λ表示平衡系數(shù),用于平衡兩個損失函數(shù)的比重,i代表數(shù)據(jù)集中某一圖像的索引,Lcls代表分類損失函數(shù),由于RPN網(wǎng)絡(luò)的任務(wù)是進(jìn)行二分類(前景和背景),故而使用對數(shù)似然函數(shù),Lreg代表邊框回歸函數(shù),該函數(shù)使用L2范數(shù)作為損失函數(shù).
1.2.2RPN網(wǎng)絡(luò)訓(xùn)練
為訓(xùn)練RPN網(wǎng)絡(luò),首先需要對數(shù)據(jù)集進(jìn)行一定的處理再輸入到網(wǎng)絡(luò)中.具體的操作步驟是先獲得真實的目標(biāo)標(biāo)簽以及所在位置,然后依照不同尺度以及不同長寬比生成大量的錨點,將錨點與真實的目標(biāo)框進(jìn)行IoU計算,與真實目標(biāo)框的IoU交疊大于0.7的錨點設(shè)置為前景,IoU交疊小于0.3的錨點設(shè)置為背景,參與RPN網(wǎng)絡(luò)的訓(xùn)練.針對本實驗的情況,考慮到數(shù)據(jù)集中的圖像是由切片數(shù)據(jù)和場景圖像合成,其目標(biāo)的大小基本固定,故在生成錨點時使其大小固定為128×128像素.選擇該大小的原因在于使用32倍數(shù)大小的數(shù)據(jù)有利于cuda加速,并且與真實的切片數(shù)據(jù)大小相同(真實切片數(shù)據(jù)尺寸均為128×128像素).
2實驗結(jié)果與分析
本節(jié)對實驗中所用的數(shù)據(jù)集以及具體的實驗設(shè)置進(jìn)行了描述,所用系統(tǒng)是Win10,CPU為Intel i5-8400 2.8 GHz,內(nèi)存大小為8 GB,所用GPU為GTX 960,顯存大小為6 GB,使用的深度學(xué)習(xí)框架是Tensorflow.
2.1數(shù)據(jù)以及實驗設(shè)置
本文的實驗所使用的數(shù)據(jù)集為MSTAR數(shù)據(jù)集,該數(shù)據(jù)集大多是靜止車輛的切片SAR圖像數(shù)據(jù),其中包含車輛目標(biāo)在不同方位角下獲取到的圖像.該數(shù)據(jù)集同時包含推薦使用的訓(xùn)練集以及測試集,訓(xùn)練集為雷達(dá)工作俯仰角為17°時獲得的目標(biāo)圖像數(shù)據(jù),共有3大類,測試集為俯仰角為15°時獲取的圖像數(shù)據(jù),同樣包含3大類.除此之外,該數(shù)據(jù)集還包含一定的環(huán)境場景數(shù)據(jù),其圖像是雷達(dá)在條帶模式下得到的大小不完全相同的背景圖像,該數(shù)據(jù)集即是本文中合成場景時所使用的的背景圖像.數(shù)據(jù)集的總體分布為:訓(xùn)練集700張,測試集200張,驗證集100張.圖5是數(shù)據(jù)集展示,其大小為512×512像素.
2.2生成數(shù)據(jù)集對比試驗
本節(jié)通過對比雙閾值法和區(qū)域生長方法在進(jìn)行區(qū)域分割任務(wù)時的表現(xiàn),以顯示本文采用方法的有效性.
在對比實驗中,均需要首先對圖像進(jìn)行濾波處理,選擇的濾波器為Gabor濾波器,其中帶寬設(shè)置為4,濾波器長度設(shè)為0.5,波長設(shè)為16,濾波器角度設(shè)為0,角度分6步從0遞增至2×pi,在獲得6通道的數(shù)據(jù)后疊加并歸一化至最大值為255,以便于顯示.
本文使用了雙閾值分割方法[12],在對Gabor濾波處理后的圖像進(jìn)行分析后發(fā)現(xiàn),濾波增強后的圖像的灰度直方圖共分為3個部分,即低灰度、中灰度以及高灰度區(qū)域,分別對應(yīng)的是原圖中的陰影區(qū)域、背景以及目標(biāo)所在區(qū)域,且大致呈現(xiàn)高斯分布特性,據(jù)此構(gòu)造分割區(qū)域:
TS=μ-k1×σ,
TT=μ+k2×σ,
其中TS,TT分別為陰影和目標(biāo)區(qū)域分割的閾值,μ為濾波圖像灰度均值,σ為濾波圖像方差,k1,k2為調(diào)整因數(shù).通過實驗調(diào)整式中的因數(shù),選擇能使整個數(shù)據(jù)集的分割結(jié)果均較好的參數(shù),其對比試驗結(jié)果如圖6所示.從對比試驗結(jié)果中可以看出,雙閾值分割方法
對于圖像灰度分布較為敏感,固定調(diào)整因子的情況下某些像素點容易超出陰影閾值而被劃入到陰影區(qū)域中.為減少該現(xiàn)象的出現(xiàn)需要調(diào)高陰影分割閾值,但該操作會同時減少陰影區(qū)域.相對而言區(qū)域生長的結(jié)果更接近真實圖像.
2.3檢測試驗結(jié)果對比
在本實驗中,主要對比的是約束錨點大小后檢測速度的提升.原方法中由于需要多種不同尺度、不同形狀的目標(biāo)進(jìn)行檢測,故而在生成錨點時,依照作為基礎(chǔ)特征提取網(wǎng)絡(luò)的resnet的原圖-特征圖縮放比例,取其中第2~6個卷積池化模塊的縮放比例,即[4,8,16,32,64],對應(yīng)的錨點大小[32,64,128,256,512]以及不同的寬高比例[0.5,1,2],以圖像大小為[512,512]為例,共形成26 1888個錨點.
考慮到生成數(shù)據(jù)集時使用的切片數(shù)據(jù)均為128×128像素大小,上述過程中產(chǎn)生的錨點事實上為網(wǎng)絡(luò)添加了大量的冗余計算,因此本文約束錨點的寬度為128個像素點,同時約束其寬高比例為1∶1,如此僅產(chǎn)生4 096個錨點,大大加快了網(wǎng)絡(luò)的收斂速度,對比結(jié)果展示于表1.
在表1中,所有數(shù)據(jù)均是多次重新訓(xùn)練網(wǎng)絡(luò)后得出的平均值,其中單個epoch的step為50,訓(xùn)練時間為多個epoch平均后的結(jié)果,測試時間是使用訓(xùn)練好的權(quán)重對測試集所有圖像進(jìn)行一遍檢測所需的平均時間.
可以看到由于Faster R-CNN系列的方法具有富集式檢測的特點,其召回率較高,但同時也容易出現(xiàn)誤檢導(dǎo)致其準(zhǔn)確率較低;而對比實驗中的YOLOV3網(wǎng)絡(luò)的單步式檢測以及較少的候選框數(shù)量使得其召回率稍低而準(zhǔn)確率對比Faster R-CNN系列有所提升.對比改進(jìn)前后方法的測試時間可以看到錨點固定的方法有效地降低了測試時間并提升檢測性能.
3結(jié)論
針對目標(biāo)大小固定的檢測問題,本文提出了一種基于錨點約束的Faster R-CNN改進(jìn)型網(wǎng)絡(luò).為驗證本方法的有效性,首先使用Gabor濾波算法對MSTAR數(shù)據(jù)集中的切片目標(biāo)圖像進(jìn)行濾波,接著使用區(qū)域生長算法對目標(biāo)以及陰影區(qū)域分割,提取其掩膜,然后隨機替換目標(biāo)場景中的部分像素點以完成數(shù)據(jù)集制作,最后對比了原算法以及改進(jìn)后的算法.其實驗結(jié)果表明使用錨點約束的方法不僅能夠有效降低訓(xùn)練測試時間,同時其檢測性能也略有提高.
參考文獻(xiàn)
References
[1]艾加秋,齊向陽,禹衛(wèi)東.改進(jìn)的SAR圖像雙參數(shù)CFAR艦船檢測算法[J].電子與信息學(xué)報,2009,31(12):2881-2885
AI Jiaqiu,QI Xiangyang,YU Weidong.Improved two parameter CFAR ship detection algorithm in SAR images[J].Journal of Electronics & Information Technology,2009,31(12):2881-2885
[2]王娜,時公濤,陸軍,等.一種新的極化SAR圖像目標(biāo)CFAR檢測方法[J].電子與信息學(xué)報,2011,33(2):395-400
WANG Na,SHI Gongtao,LU Jun,et al.A new polarimetric SAR image CFAR target detecting method[J].Journal of Electronics & Information Technology,2011,33(2):395-400
[3]Lang H T,Xi Y Y,Zhang X.Ship detection in high-resolution SAR images by clustering spatially enhanced pixel descriptor[J].IEEE Transactions on Geoscience and Remote Sensing,2019,57(8):5407-5423
[4]Girshick R,Donahue J,Darrell T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2014:580-587
[5]Girshick R.Fast R-CNN[C]∥Proceedings of the IEEE International Conference on Computer Vision,2015:1440-1448
[6]Ren S Q,He K M,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149
[7]Li J W,Qu C W,Shao J Q.Ship detection in SAR images based on an improved faster R-CNN[C]∥SAR in Big Data Era:Models,Methods and Applications (BIGSARDATA),2017,DOI:10.1109/BIGSARDATA.2017.8124934
[8]王思雨,高鑫,孫皓,等.基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機目標(biāo)檢測方法[J].雷達(dá)學(xué)報,2017,6(2):195-203
WANG Siyu,GAO Xin,SUN Hao,et al.Aircraft target detection method for high resolution SAR image based on convolutional neural network[J].Journal of Radars Sinica,2017,6(2):195-203
[9]陳慧元,劉澤宇,郭煒煒,等.基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的大場景遙感圖像艦船目標(biāo)快速檢測方法[J].雷達(dá)學(xué)報,2019,8(3):413-424
CHEN Huiyuan,LIU Zeyu,GUO Weiwei,et al.Fast detection method of ship target based on cascaded convolutional neural network for large scene remote sensing image[J].Journal of Radars Sinica,2019,8(3):413-424
[10]范偉.基于區(qū)域生長的彩色圖像分割算法[J].計算機工程,2010,36(13):192-193
FAN Wei.Color image segmentation algorithm based on region growing[J].Computer Engineering,2010,36(13):192-193
[11]王璐,張帆,李偉,等.基于 Gabor 濾波器和局部紋理特征提取的 SAR 目標(biāo)識別算法[J].雷達(dá)學(xué)報,2015,4(6):658-665
WANG Lu,ZHANG Fan,LI Wei,et al.SAR target recognition algorithm based on Gabor filter and local texture feature extraction[J].Journal of Radars Sinica,2015,4(6):658-665
[12]倪維平,嚴(yán)衛(wèi)東,吳俊政,等.MSTAR圖像2D Gabor濾波增強與自適應(yīng)閾值分割[J].光電工程,2013,40(3):87-93
NI Weiping,YAN Weidong,WU Junzheng,et al.2D Gabor filter enhancing and adaptive thresholding for MSTAR image[J].Opto-Electronic Engineering,2013,40(3):87-93
[13]Liu W,Anguelov D,Erhan D,et al.SSD:single shot multibox detector[C]∥European Conference on Computer Vision,2016:21-37
[14]Redmon J,Divvala S,Girshick R,et al.You only look once:unified,real-time object detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016:779-788
[15]He K M,Zhang X Y,Ren S Q,et al.Deep residual learning for image recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016:770-778
[16]Sun N L,Xu S C,Cao M Y,et al.Segmenting and counting of wall-pasted cells based on Gabor filter[C]∥IEEE Engineering in Medicine and Biology 27th Annual Conference,2005:3324-3327
SAR target detection network based on scenario
synthesis and anchor constraint
JIN Xiaoyu1YIN Qiang1NI Jun1ZHOU Yongsheng1ZHANG Fan1HONG Wen2
1College of Information Science and Technology,Beijing University of Chemical Technology,Beijing100029
2Aerospace Information Research Institute,Chinese Academy of Sciences,Beijing100094
AbstractDeep learning methods such as convolutional neural networks (CNN) have been widely used in fields of image processing and object recognition.However,the SAR images cannot yet be efficiently detected by CNN methods.Compared with traditional images,the SAR images have the advantage of all-day and all-weather acquisition,but they cannot obtain enough annotation due to the difficulty for interpretation and short of users.This paper proposes a SAR target detection method based on scene synthesis and anchor constraint.Firstly,the target and its shadow are segmented by region growing as well as threshold algorithm,and then the target detection data set is synthesized by randomly embedding the reasonable region into the SAR complex scene.Considering the SAR target's geometric characteristics and image resolution parameters,the anchor's size of Faster-RCNN is constrained to reduce the candidate frames that cannot meet the SAR target detection frame size,which massively reduce redundancy calculations so as to improve the efficiency and accuracy of training and testing process.
Key wordsSAR image;target detection;regional growth;dataset generation;anchor constraints
收稿日期2019-10-21
資助項目國家自然科學(xué)基金(61871413、61801015)
作者簡介金嘯宇,男,碩士生,主要從事SAR目標(biāo)檢測方向研究.BUCT_jin@163.com
尹嬙(通信作者),女,博士,副教授,主要從事極化SAR圖像處理方向研究.yinq@mail.buct.edu.cn
1北京化工大學(xué)信息科學(xué)與技術(shù)學(xué)院,北京,100029
2中國科學(xué)院空天信息創(chuàng)新研究院,北京,100094