国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLO-v5 的星載SAR 圖像海洋小目標(biāo)檢測(cè)

2021-12-15 02:37竇其龍顏明重朱大奇
應(yīng)用科技 2021年6期
關(guān)鍵詞:錨點(diǎn)神經(jīng)網(wǎng)絡(luò)函數(shù)

竇其龍,顏明重,朱大奇

上海海事大學(xué) 智能海事搜救與水下機(jī)器人上海工程技術(shù)研究中心,上海 201306

合成孔徑雷達(dá)(SAR)是根據(jù)電磁散射回波的原理對(duì)區(qū)域進(jìn)行成像,其成像范圍廣、空間分辨率高,因而在資源勘探、災(zāi)害監(jiān)測(cè)、海洋管理及軍事領(lǐng)域得到了廣泛的應(yīng)用。基于星載SAR 圖像,對(duì)大范圍的海上目標(biāo),尤其是特定區(qū)域的船舶目標(biāo)進(jìn)行準(zhǔn)確的檢測(cè)、定位或識(shí)別,具有重要的現(xiàn)實(shí)需求[1]。

當(dāng)今國(guó)內(nèi)外的研究機(jī)構(gòu)對(duì)于遙感衛(wèi)星圖像的目標(biāo)檢測(cè)做了大量的相關(guān)研究。傳統(tǒng)的檢測(cè)手段主要有區(qū)域選擇、特征提取和分類(lèi)器分類(lèi)3 個(gè)步驟。區(qū)域選擇即對(duì)可能存在目標(biāo)的區(qū)域進(jìn)行分割,如在星載SAR 圖像里常用的CA-CFAR[2]算法等。特征提取就是在待檢索區(qū)域?qū)Ⅳ敯粜詮?qiáng)的特征進(jìn)行保留,在SAR 圖像中比較常見(jiàn)的有標(biāo)準(zhǔn)差特征提取法(standard deviation,SD)[3]、加權(quán)秩填充比特征提取法(weighted-rank fill ratio,WRFR)[4]等。分類(lèi)器分類(lèi)就是將提取特征輸入分類(lèi)器,和已知數(shù)據(jù)進(jìn)行比對(duì)分類(lèi)。傳統(tǒng)的檢測(cè)方法受圖像噪聲的影響較大,存在選擇區(qū)域冗余、特征魯棒性較差、處理時(shí)間長(zhǎng)等弊端。

自從2014 年Ross Girshick 提出卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法(regions with convolutional neural network features,RCNN)[5],并在PASCAL VOC[6]數(shù)據(jù)集取得突破性進(jìn)展后,深度卷積神經(jīng)網(wǎng)絡(luò)就進(jìn)入了迅猛發(fā)展的時(shí)代,基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型也因其強(qiáng)大的特征提取能力而被廣泛應(yīng)用于各種實(shí)體目標(biāo)的檢測(cè)[7-8]。在RCNN 卷積神經(jīng)網(wǎng)絡(luò)提出之后,Shaoqing Ren[9]和郭昕剛等[10]又分別提出了Fast RCNN、Fsater RCNN,使得神經(jīng)網(wǎng)絡(luò)不斷優(yōu)化和拓寬,訓(xùn)練速度不斷提高,誤檢率不斷降低。華北電力大學(xué)的趙文清等[11]就利用Fsater RCNN 算法對(duì)存在缺陷的絕緣子進(jìn)行準(zhǔn)確識(shí)別,從而對(duì)輸電線(xiàn)路進(jìn)行故障診斷和修復(fù)。上述算法一般都是通過(guò)神經(jīng)網(wǎng)絡(luò)提取候選框、分類(lèi)處理、回歸等操作進(jìn)行目標(biāo)特征的學(xué)習(xí),從而進(jìn)行目標(biāo)檢測(cè)與分類(lèi)。近些年,基于端到端(end to end)學(xué)習(xí)的實(shí)例檢測(cè)算法被提出,典型的代表為 單步多框預(yù)測(cè)(single shot multibox detector,SSD)算法和YOLO(you only look once)家族[12]。文獻(xiàn)[13]針對(duì)行人檢測(cè)方法誤檢率高的問(wèn)題提出了基于改進(jìn)SSD 網(wǎng)絡(luò)的行人檢測(cè)(pedestrian distinction,PDIS)模型。文獻(xiàn)[14]提出了基于YOLO-v2 和支持向量機(jī)(support vector machine,SVM)的船舶檢測(cè)分類(lèi)算法,在網(wǎng)絡(luò)模型最后一步全局特征池化后,利用SVM 實(shí)現(xiàn)船型的分類(lèi),有效地實(shí)現(xiàn)了不同種類(lèi)船只的識(shí)別。中國(guó)科學(xué)院的陳科峻等[15]提出了基于YOLO-v3 模型壓縮的衛(wèi)星圖像實(shí)時(shí)檢測(cè),采用K-means 聚類(lèi)算法選取初始錨點(diǎn)框(anchor),然后用多尺度金字塔圖像進(jìn)行模型訓(xùn)練,采用壓縮后的模型大幅度減少了系統(tǒng)計(jì)算的時(shí)間,節(jié)約了計(jì)算機(jī)的計(jì)算空間。

SAR 圖像目標(biāo)檢測(cè)的關(guān)鍵是加強(qiáng)對(duì)船舶等被檢測(cè)目標(biāo)的注意力,忽略無(wú)用信息的干擾。隨著SAR 圖像分辨率的不斷提高和不同工種模式下圖像獲取的極化方式、照射角度、干擾因子不同,因此對(duì)SAR 圖像目標(biāo)的自適應(yīng)檢測(cè)并不理想[16]。本文將YOLO-v5 深度神經(jīng)網(wǎng)絡(luò)模型應(yīng)用于星載SAR 圖像中的船舶目標(biāo)檢測(cè)。針對(duì)船舶目標(biāo)在星載SAR 圖像中占比很小的特性,進(jìn)行圖像預(yù)處理和數(shù)據(jù)增強(qiáng),采用K-means 改進(jìn)錨點(diǎn)框的尺寸大小,并優(yōu)化神經(jīng)網(wǎng)絡(luò)模型,嵌入GDAL 模塊,對(duì)星載SAR 圖像目標(biāo)的位置信息等進(jìn)行讀取。

1 YOLO-v5 的網(wǎng)絡(luò)結(jié)構(gòu)

1.1 輸入端Mosaic 數(shù)據(jù)增強(qiáng)

參考文獻(xiàn)[17]的CutMix 數(shù)據(jù)增強(qiáng)方式,將重新組合圖像的數(shù)量由2 張?jiān)黾拥? 張。首先從數(shù)據(jù)集中取出不重復(fù)的4 張圖像;然后對(duì)圖像依次進(jìn)行隨機(jī)的縮放、裁剪和拼接;最后需要將圖片進(jìn)行灰色填充的操作,以獲得符合網(wǎng)絡(luò)特征訓(xùn)練的大小統(tǒng)一的檢測(cè)圖像。

圖1 為采取數(shù)據(jù)增強(qiáng)處理后的圖像效果。圖1 中的灰色填充部分對(duì)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)并沒(méi)有幫助,因此灰色部分越少,訓(xùn)練時(shí)間越少,訓(xùn)練效果越好。我們采用式(1)~(3)的計(jì)算方法進(jìn)行灰色填充。

圖1 Mosaic 數(shù)據(jù)增強(qiáng)(包含灰色填充)

式中:x0、y0(x0≥y0)為原始圖像尺寸的長(zhǎng)度與寬度;x1、y1為圖像縮放后的長(zhǎng)度與寬度;z為縮放系數(shù);R是x1/z整除y1/z的余數(shù),R表示灰色填充的數(shù)值。最終得到寬度為Y的圖像。

這種方法根據(jù)圖像原尺寸和縮放尺寸中較小的縮放系數(shù)來(lái)使得填充的灰色盡可能的小,從而減少計(jì)算時(shí)的內(nèi)存占用,達(dá)到加快訓(xùn)練速度的目的。

在YOLO 算法中,初始錨框是針對(duì)VOC[12]等數(shù)據(jù)集計(jì)算得到的,本文中YOLO-v5 的錨點(diǎn)框大小的選擇與星載SAR 圖像中的目標(biāo)尺寸有關(guān),為此,通過(guò)數(shù)據(jù)集和實(shí)驗(yàn)來(lái)進(jìn)行設(shè)定。網(wǎng)絡(luò)在初始錨框(anchor)的基礎(chǔ)上輸出預(yù)測(cè)框,進(jìn)而和真實(shí)框(ground truth)進(jìn)行對(duì)比,計(jì)算損失函數(shù),再反向更新,迭代網(wǎng)絡(luò)參數(shù)。由于YOLO-v5 采用的CNN卷積網(wǎng)絡(luò)對(duì)特征圖像分別進(jìn)行了32 倍、16 倍和8 倍的下采樣,每次下采樣對(duì)應(yīng)3 個(gè)錨點(diǎn)框。32 倍的下采樣用較大的錨點(diǎn)框去檢測(cè)感受視野較大的特征圖像,16 倍和8 倍的下采樣分別采用中等的和較小的錨點(diǎn)框去檢測(cè)感受視野中等和較小的特征圖像,從而降低模型在訓(xùn)練的時(shí)候?qū)ふ冶粰z測(cè)目標(biāo)的盲目性,有助加快模型尋找被檢測(cè)目標(biāo)的速度。

在YOLO-v5 中加入了自適應(yīng)錨框的計(jì)算,在進(jìn)行每次訓(xùn)練之前,通過(guò)K-means 算法在訓(xùn)練集中對(duì)所有樣本的真實(shí)框進(jìn)行聚類(lèi),從而找出高復(fù)雜度和高召回率中最優(yōu)的那組錨點(diǎn)框。K-means算法步驟如下。

1)K-means 聚類(lèi)法即先輸入k的值,即我們所希望得到的k個(gè)類(lèi)別。

2)從數(shù)據(jù)集中隨機(jī)選取k個(gè)二維數(shù)組作為質(zhì)心(centroid)。

3)對(duì)集合中的每一個(gè)二維數(shù)組進(jìn)行計(jì)算,與哪一個(gè)質(zhì)心接近則與其分為一組。

4)在每一組中選出一個(gè)新的質(zhì)心使其與每個(gè)點(diǎn)的距離更接近。

5)當(dāng)新的質(zhì)心與舊的質(zhì)心的直線(xiàn)距離小于設(shè)定的閾值時(shí),則算法收斂,聚類(lèi)區(qū)域穩(wěn)定。

6)當(dāng)新的質(zhì)心與舊的質(zhì)心差距較大時(shí),重復(fù)迭代步驟3)~5)。

針對(duì)本文的數(shù)據(jù)集,經(jīng)過(guò)YOLO-v5 自適應(yīng)錨點(diǎn)框計(jì)算后所得錨點(diǎn)框設(shè)置如表1 所示,四舍五入取整后得到表2 的錨點(diǎn)框數(shù)據(jù),更新模型中的原始錨點(diǎn)框進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練。從表2 中可見(jiàn),海面船舶小目標(biāo)框也有明顯的大小分別,主要分布在5×5~25×21 pixel。

表1 K-means 聚類(lèi)結(jié)果

表2 星載SAR 圖像錨點(diǎn)框聚類(lèi)

1.2 YOLO-v5 主干網(wǎng)絡(luò)(Backbone and Neck)

圖2 為YOLO-v5 的主干網(wǎng)絡(luò)結(jié)構(gòu),該模型主要由注意力(FOCOUS) 模塊、卷積歸一化(convolution and batch normalization,CBL) 模塊、跨階段局部網(wǎng)絡(luò)(cross stage partial,CSP) 模塊、跨階段縮放局部網(wǎng)絡(luò)(scaling cross stage partial,SPP) 模塊和張量拼接(Concat) 模塊構(gòu)成。

圖2 YOLO-v5 思維Backbone 和Neck 結(jié)構(gòu)

其中FOCOUS 是圖像切片操作。如圖3 所示,將圖像按照像素格進(jìn)行分割再融合。當(dāng)原始圖像輸入為608×608×3 pixel 時(shí),通過(guò)切片操作進(jìn)一步提取特征變成304×304×12 pixel 的圖像,再經(jīng)過(guò)32 個(gè)卷積核的操作最終變成304×304×32 pixel的特征圖像。

圖3 切片操作

CBL 是由卷積(convolution)、批量歸一化(batch normalization,BN)和激活函數(shù)(Leaky_relu)等3 部分構(gòu)成。由于輸入的分布逐漸向非線(xiàn)性函數(shù)的兩端靠攏,神經(jīng)網(wǎng)絡(luò)收斂速度較慢,BN 層將輸入的分布通過(guò)式(4)拉回到均值為0、方差為1 的正態(tài)布,從而使輸入激活函數(shù)的值在反向傳播中產(chǎn)生更明顯的梯度,避免了梯度消失的問(wèn)題。

式中:x(k)為經(jīng)過(guò)該層線(xiàn)性變換后的損失函數(shù)值,Var 為均方差操作符。

將輸入分布變?yōu)闃?biāo)準(zhǔn)狀態(tài)分布后,輸入的值靠近中心的概率變大,此時(shí)采用sigmod[18]函數(shù),即使輸入存在微小的變化,也能夠在反向傳播時(shí)產(chǎn)生較大的變化。Leaky relu 激活函數(shù)如式(5)所示。

式中a采取一個(gè)很小的數(shù)值,本文設(shè)置為0.01。傳統(tǒng)激活函數(shù)直接取值為0,這樣可以保證輸出小于0 的神經(jīng)元也進(jìn)行小幅度的更新。

SPP 采用1×1、5×5、9×9 和13×13 的最大池化方式,進(jìn)行多尺度融合操作。Concat 為擴(kuò)充維度的張量拼接。YOLO-v5 與YOLO-v4 一樣采用了CSP Darknet53 的網(wǎng)絡(luò)結(jié)構(gòu),與YOLO-v5 不同的是,YOLO-v4 中只有主干網(wǎng)絡(luò)中設(shè)計(jì)了CSP(由卷積層和Res unint 模塊張量拼接而成)結(jié)構(gòu),而YOLO-v5 在主干網(wǎng)絡(luò)Backbone 和Neck 中設(shè)計(jì)了2 種不同的CSP 結(jié)構(gòu)。CSP 結(jié)構(gòu)主要優(yōu)點(diǎn)是在網(wǎng)絡(luò)模型輕量化的同時(shí)保證準(zhǔn)確性,同時(shí)降低了對(duì)計(jì)算機(jī)設(shè)備的要求。新增的CSP2 進(jìn)一步加強(qiáng)了網(wǎng)絡(luò)特征融合的能力。

1.3 損失函數(shù)計(jì)算

損失函數(shù)計(jì)算公式如式(6)所示,表示2 個(gè)方框所在區(qū)域的交并比(intersection over union,IoU)。

如圖4 所示,2 個(gè)方框完全重合時(shí),XIoU=1;2 個(gè)方框交集為空時(shí),XIoU=0;2 個(gè)方框重疊一部分時(shí),XIoU的值在0 和1 之間。但是當(dāng)2 個(gè)框的交集為0 時(shí),不管2 個(gè)框相距多遠(yuǎn),IoU 損失函數(shù)值恒等于0,無(wú)法表示該情況下的損失大小。在YOLO-v5 中采用了IoU 的損失函數(shù)公式為

圖4 IoU 損失函數(shù)算法

在IoU 的基礎(chǔ)上衍生出的GIoU[19]表示先計(jì)算2 個(gè)方框的最小閉包區(qū)域面積(也就是2 個(gè)框重合的交集)。用C和A∪B比值的絕對(duì)值除以C的絕對(duì)值得到閉包區(qū)域中不屬于2 個(gè)框的區(qū)域的比重,最后計(jì)算IoU 與比重的差值,最終得到GIoU的值。在2 個(gè)框無(wú)限趨近重合的情況下XGIoU=XIoU=1。

如圖5 所示,采用IoU 損失函數(shù)時(shí),當(dāng)2 個(gè)框不重合時(shí),無(wú)論差距多大,損失函數(shù)都為0。與IoU 不同的是GIoU 算法不僅關(guān)注2 個(gè)框重疊區(qū)域的大小,也加入了非重合區(qū)域,因此YOLOv5 避免了上述問(wèn)題。

圖5 GIoU 損失函數(shù)算法

2 GDAL 模塊

在星載SAR 圖像海洋目標(biāo)檢測(cè)時(shí),本文在檢測(cè)頭部分(detect)中嵌入了GDAL 模塊,直接讀取TIF 圖像中每個(gè)目標(biāo)的經(jīng)緯度坐標(biāo),使得目標(biāo)數(shù)據(jù)更為直觀(guān)、清晰。

GDAL 是一個(gè)對(duì)遙感衛(wèi)星等地理圖像進(jìn)行讀取、寫(xiě)入和轉(zhuǎn)換的庫(kù)。遙感圖像是一種帶大地坐標(biāo)的柵格數(shù)據(jù),每個(gè)柵格點(diǎn)所對(duì)應(yīng)的數(shù)值為該點(diǎn)的像元值,像元值包含了該點(diǎn)的大地坐標(biāo)等空間投影信息,GDAL 通過(guò)仿射矩陣的坐標(biāo)變換將柵格數(shù)據(jù)轉(zhuǎn)換為經(jīng)緯度等信息。

首先使用GDAL 模塊對(duì)遙感衛(wèi)星圖像進(jìn)行圖像校正(需要指定3 個(gè)已知正確的空間坐標(biāo)點(diǎn)),然后再進(jìn)行目標(biāo)經(jīng)緯度的讀取與顯示。

在截取星載(SAR)圖像的子圖像時(shí)保留TIF格式,從而保留遙感衛(wèi)星圖像的像素格屬性。利用式(7)和式(8)進(jìn)行柵格數(shù)據(jù)轉(zhuǎn)換,從而讀出圖像經(jīng)緯度信息。

在經(jīng)過(guò)校正的北向上的星載SAR 圖像中,padfTransform[1] 是像素的寬度,padfTransform[5]是像素高度,padTransform[0]和padTransform[3]分別是星載SAR 圖像左上角的經(jīng)緯度坐標(biāo)。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)平臺(tái)

本文中的實(shí)驗(yàn)?zāi)P驮赑ytorch0.8 框架上,采用Darknet53 學(xué)習(xí)網(wǎng)絡(luò),在PyCharm Community Edition 2020.2.1 x64 平臺(tái)上實(shí)現(xiàn)。模型訓(xùn)練在Titan2080Ti(顯存12GB)GPU,CUDA10.0 實(shí)驗(yàn)環(huán)境下完成,操作系統(tǒng)為Windows.x64。YOLO-v5 隨著神經(jīng)網(wǎng)絡(luò)寬度和深度的增加分為YOLO-v5s、YOLO-v5m、YOLO-v5l 和YOLO-v5x 這4 個(gè)模型,本次實(shí)驗(yàn)采用YOLO-v5l,并加入與YOLO-v3 神經(jīng)網(wǎng)絡(luò)訓(xùn)練模型的對(duì)比。

3.2 數(shù)據(jù)集

數(shù)據(jù)集采用了2020 年1 月—2020 年11 月期間由歐洲航天航空局(European Space Agency,ESA)拍攝的Sentinel-1 星載SAR 圖像,選取長(zhǎng)江三角洲、新加坡樟宜港口等船舶較多的碼頭港口地區(qū)。數(shù)據(jù)集包含41 張?jiān)急壤邽?∶3 000 的SAR 圖像,每張圖像包含1~40 個(gè)不同的船舶目標(biāo),對(duì)其中100 張圖像用Labelimg 工具軟件進(jìn)行坐標(biāo)標(biāo)記。該數(shù)據(jù)集包含了不同分辨率以及不同背景下(港口、近海、遠(yuǎn)海)不同尺寸的艦船目標(biāo),引入不同的島嶼港口背景是為了增加要素,增強(qiáng)訓(xùn)練效果。

3.3 實(shí)驗(yàn)參數(shù)

本次實(shí)驗(yàn)部分實(shí)驗(yàn)參數(shù)如表3 所示。

表3 訓(xùn)練模型參數(shù)

3.4 實(shí)驗(yàn)結(jié)果與分析

訓(xùn)練過(guò)程參數(shù)如圖6 所示,YOLO-v3-spp 訓(xùn)練如圖7 所示。圖6 和圖7 中(a)為各類(lèi)別AP 均值(mean average precision,mAP),作為衡量網(wǎng)絡(luò)模型訓(xùn)練的一個(gè)重要參數(shù),其中RAP是以準(zhǔn)確率Rprecision和召回率Rrecall為兩軸作圖后圍成的面積,RmAP表示平均,@后面的數(shù)表示判定IoU 正負(fù)樣本的閾值。圖6 和圖7 中(b)為找對(duì)的目標(biāo)數(shù)量與找到的目標(biāo)數(shù)量比值,圖6 和圖7 中(c)為找對(duì)的目標(biāo)數(shù)量與實(shí)際待檢測(cè)目標(biāo)數(shù)量的比值。

圖6 YOLO-v5l 訓(xùn)練過(guò)程參數(shù)

圖7 YOLO-v3 訓(xùn)練過(guò)程參數(shù)

從圖6 和圖7 對(duì)比可以看出,YOLO-v3 在訓(xùn)練2 000 epochs 時(shí),準(zhǔn)確率逐漸趨于平緩,而YOLO-v5l 的準(zhǔn)確率有著進(jìn)一步的訓(xùn)練上升空間。YOLOv3 經(jīng)常出現(xiàn)錯(cuò)誤的函數(shù)迭代方向,如圖7 中的豎型分支,主要原因?yàn)椋?/p>

1)進(jìn)行了Mosic 數(shù)據(jù)增強(qiáng),使得增強(qiáng)后的數(shù)據(jù)集目標(biāo)分布更加均衡,并且這種重新組合圖像的方式增強(qiáng)了數(shù)據(jù)集的豐富性,使得神經(jīng)網(wǎng)絡(luò)訓(xùn)練的魯棒性更好。

2)加入了CBL 等模塊的YOLO-v5 在反向傳播更新模型參數(shù)時(shí)失誤較少,有著更為明顯和正確的梯度,訓(xùn)練參數(shù)曲線(xiàn)較為平滑。

最終訓(xùn)練結(jié)果的具體參數(shù)如表4 所示。YOLO-v5l 模型的召回率Rrecall為0.994 5,相比于YOLO-v3 提高了1.78%;YOLO-v5l 的召回率RmAP@0.5為0.994 5,相比YOLO-v3 提高了1.18%。

表4 YOLO-v5l 與YOLO-v3 模型訓(xùn)練結(jié)果對(duì)比

截取長(zhǎng)江口和新加坡樟宜港區(qū)域的星載SAR 圖像,采用改進(jìn)后的YOLO-v5 檢測(cè)模型并嵌入GDAL 模塊后,水面船舶目標(biāo)的檢測(cè)結(jié)果分別如圖8 和圖9 所示。

圖8 長(zhǎng)江口區(qū)域的目標(biāo)檢測(cè)結(jié)果

圖9 樟宜港區(qū)域的目標(biāo)檢測(cè)結(jié)果

在表5 和表6 中,包括了目標(biāo)在圖像中的坐標(biāo)以及在地理位置上的經(jīng)緯度信息。表5 和表6中的經(jīng)緯度信息截取小數(shù)點(diǎn)后4 位,用GDAL 模塊讀取的星載SAR 圖像經(jīng)緯度信息與目標(biāo)實(shí)際地理位置信息一致。目標(biāo)的經(jīng)緯度采用目標(biāo)在圖像中的檢測(cè)框的中心位置。

表5 長(zhǎng)江口區(qū)域目標(biāo)位置信息

表6 樟宜港區(qū)域目標(biāo)位置信息

可以看出,在圖8 中,對(duì)于這種沒(méi)有港口、海面開(kāi)闊和船舶目標(biāo)數(shù)量較少的星載SAR 圖像,改進(jìn)后的YOLO-v5 檢測(cè)模型漏檢率很低,即使目標(biāo)在圖像中占比較小也能準(zhǔn)確地檢測(cè)出來(lái)。在圖9中,港口沿岸情況復(fù)雜、干擾因素較多、目標(biāo)檢測(cè)效果仍然較好,并且該模型能夠有效檢測(cè)到動(dòng)態(tài)船舶目標(biāo),能夠滿(mǎn)足對(duì)于進(jìn)出港口船舶的動(dòng)態(tài)檢測(cè)、定位和跟蹤等應(yīng)用需求。

4 結(jié)論

本文基于Darknet 神經(jīng)網(wǎng)絡(luò),提出了利用優(yōu)化的YOLO-v5 網(wǎng)絡(luò)模型的目標(biāo)檢測(cè)的算法。

1)本算法泛化性較強(qiáng),對(duì)于大范圍的水面船舶小目標(biāo)檢測(cè)效果較好,并且檢測(cè)時(shí)間較短,分辨率為720×720 pixel 的圖像平均檢測(cè)時(shí)間小于1 s。

2)加入CBL 模塊的YOLO-v5 比YOLO-v3 在訓(xùn)練中的反向傳播更為穩(wěn)定,更新梯度更為平滑。

3)優(yōu)化后YOLO-v5 的模型降低了漏檢率,在提高檢測(cè)效果的同時(shí)并沒(méi)有增加檢測(cè)模型文件的內(nèi)存。

在未來(lái)的研究中,需要進(jìn)一步優(yōu)化網(wǎng)絡(luò)模型結(jié)構(gòu),加快檢測(cè)速度,并且用于與其他檢測(cè)目標(biāo)的手段進(jìn)行實(shí)時(shí)的數(shù)據(jù)融合。

猜你喜歡
錨點(diǎn)神經(jīng)網(wǎng)絡(luò)函數(shù)
二次函數(shù)
第3講 “函數(shù)”復(fù)習(xí)精講
基于NR覆蓋的NSA錨點(diǎn)優(yōu)選策略研究
5G手機(jī)無(wú)法在室分NSA站點(diǎn)駐留案例分析
5G NSA錨點(diǎn)的選擇策略
二次函數(shù)
函數(shù)備考精講
5G NSA組網(wǎng)下錨點(diǎn)站的選擇策略?xún)?yōu)化
神經(jīng)網(wǎng)絡(luò)抑制無(wú)線(xiàn)通信干擾探究
基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立