国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

碎云環(huán)境下GF-4衛(wèi)星對運動艦船的目標跟蹤

2021-11-11 02:08林迅姚力波孫煒瑋劉勇陳進簡濤
航天返回與遙感 2021年5期
關(guān)鍵詞:航跡艦船像素

林迅 姚力波 孫煒瑋 劉勇 陳進 簡濤

碎云環(huán)境下GF-4衛(wèi)星對運動艦船的目標跟蹤

林迅1姚力波1孫煒瑋1劉勇2陳進3簡濤1

(1 海軍航空大學(xué),煙臺 264000)(2 軍事科學(xué)院國防科技創(chuàng)新研究院,北京 100071)(3 北京遙感信息研究所,北京 100192)

針對“高分四號”(GF-4)衛(wèi)星可進行連續(xù)觀測和圖像分辨率低的特點,文章提出了一種在碎云條件下用GF-4衛(wèi)星對運動艦船目標進行檢測和跟蹤的算法。該算法基于區(qū)域候選的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN)模型構(gòu)建思路,首先利用雙參數(shù)恒虛警率(CFAR)完成候選目標區(qū)域提取,以充分利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)中LeNet網(wǎng)絡(luò)在識別簡單弱小目標時識別速度快的優(yōu)勢;然后對目標進行靜態(tài)特征提取和鑒別;最后利用地理航行中的中分緯度法與全局最近鄰(GNN)算法相結(jié)合進行目標關(guān)聯(lián)和跟蹤,形成了目標航跡并獲取目標運動信息。文章選取GF-4衛(wèi)星序列圖像對所提算法進行試驗,并通過艦船自播報(AIS)信息進行驗證,結(jié)果顯示:該算法能在一定碎云條件下排除碎云目標的干擾,有效地進行運動艦船目標檢測與跟蹤,具備較強的工程應(yīng)用價值。

運動艦船目標檢測 目標跟蹤 碎云條件 卷積神經(jīng)網(wǎng)絡(luò) “高分四號”衛(wèi)星遙感圖像

0 引言

靜止軌道遙感衛(wèi)星能夠進行一段時間的連續(xù)觀測,獲取一定區(qū)域內(nèi)的連續(xù)變化圖像,已廣泛應(yīng)用于水文氣象、同步監(jiān)測等領(lǐng)域,對于各類應(yīng)急突發(fā)任務(wù),可提供快速的圖像數(shù)據(jù)支持。低軌遙感衛(wèi)星傳感器分辨率高,能夠進行目標識別,對目標信息和特征進行深度挖掘。相對于低軌遙感衛(wèi)星,靜止軌道遙感衛(wèi)星分辨率低,但具有大幅寬、能夠在廣域范圍內(nèi)搜索和發(fā)現(xiàn)目標的優(yōu)勢,可與低軌對地監(jiān)視衛(wèi)星形成有效互補[1]。

目前,在視頻衛(wèi)星跟蹤領(lǐng)域,大多采用相關(guān)濾波(CF)或者基于深度學(xué)習(xí)的方法進行跟蹤。David S. Bolme將相關(guān)濾波理論引入目標跟蹤領(lǐng)域,提出了誤差最小平方和(MOSSE)算法。后續(xù)學(xué)者們在MOSSE算法的基礎(chǔ)上進行了很多優(yōu)化,例如:文獻[3]中核相關(guān)濾波(CSK)使用密集采樣并引入核函數(shù);文 獻[4]將尺度變化這一特征引入,提出DSST算法。

近年來,利用神經(jīng)網(wǎng)絡(luò)對目標進行檢測和跟蹤逐漸成為研究熱點。由于卷積神經(jīng)網(wǎng)絡(luò)具有強大的特征提取能力,目標的深度特征被越來越多的挖掘出來。連續(xù)卷積算子視覺跟蹤(C-COT)[5]和高效卷積算子(ECO)[6]等方法均采用深度特征來提升目標跟蹤的速度和精度。利用公共數(shù)據(jù)集,通過區(qū)域建議網(wǎng)絡(luò)(RPN)適應(yīng)跟蹤過程中目標尺度的多樣性,并將目標跟蹤轉(zhuǎn)化為單次的局部檢測任務(wù)[7-8]。

目前深度學(xué)習(xí)在視頻衛(wèi)星目標跟蹤任務(wù)中使用頻繁,但僅局限于分辨率為米級和亞米級的低軌視頻衛(wèi)星,低軌視頻衛(wèi)星圖像中的艦船目標特征豐富,且網(wǎng)絡(luò)上存在大量數(shù)據(jù)集可以用于網(wǎng)絡(luò)的訓(xùn)練。但在分辨率不高的情況下,并沒有比較好的數(shù)據(jù)集能夠用于網(wǎng)絡(luò)的預(yù)訓(xùn)練,利用單幀檢測和幀間關(guān)聯(lián)的方法進行目標跟蹤能夠取得較好的效果。例如,使用背景建模法中的ViBe算法對序列圖像中的單幀圖像進行檢測,再利用濾波器進行幀間目標的關(guān)聯(lián)與跟蹤[9],能夠在干凈無云的場景下取得較好的目標檢測與跟蹤效果。然而,在可見光圖像中,云層經(jīng)常成為一個阻礙目標檢測的重要因素,尤其是碎云[10-11]。

在“高分四號”(GF-4)衛(wèi)星圖像中,其較低的圖像分辨率給目標檢測帶來了很大的挑戰(zhàn)。作為靜止軌道遙感衛(wèi)星,艦船目標在圖像上顯得非常微小,成白色小點狀,如圖1(a)所示(由紅色箭頭標出)。這樣的小點一般占據(jù)的像素只有十幾甚至幾個像素,沒有明顯的尺寸、形狀等特征。圖1(b)和圖1(c)分別為GF-4衛(wèi)星圖像中的艦船目標與對應(yīng)的近景外形圖,該船船身長度為300m,可以看出在圖像中艦船目標的細節(jié)特征很少,一些礁石、云層等目標在形狀和外觀上與其非常相似[12-14],因此當(dāng)檢測區(qū)域內(nèi)出現(xiàn)碎云目標時,檢測虛警率便會大幅度提升。根據(jù)上述特點,本文利用GF-4衛(wèi)星圖像序列的幀間信息差異,基于區(qū)域候選的CNN(R-CNN)網(wǎng)絡(luò)模型思路[15],提出了一種基于改進CNN的目標檢測與跟蹤算法模型,用于檢測和分析存在碎云時的海面艦船目標。

該方法首先對序列圖像使用歸一化水體指數(shù)(NDWI),從而排除大面積的云層和陸地對目標的檢測干擾,再根據(jù)直方圖分布進行灰度變換來增強目標;其次,通過雙參數(shù)恒虛警率(CFAR)檢測,提取候選目標區(qū)域;然后,利用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)(CNN)LeNet對目標進行鑒別,區(qū)分出艦船目標和碎云目標,再通過仿射變換參數(shù)矩陣得到目標的經(jīng)緯度坐標;最后,利用全局最近鄰(GNN)算法結(jié)合地理航跡來關(guān)聯(lián)和跟蹤幀間目標。

圖1 GF-4衛(wèi)星部分區(qū)域圖像

1 算法原理

本文提出的碎云條件下運動艦船目標檢測和跟蹤流程如圖2所示,共分為預(yù)處理、數(shù)據(jù)集構(gòu)建、預(yù)訓(xùn)練、候選目標區(qū)域提取、目標鑒別、坐標轉(zhuǎn)換、目標關(guān)聯(lián)跟蹤和動態(tài)信息提取幾個部分。本文所提碎云,是指在GF-4衛(wèi)星遙感圖像中大小和形狀均與艦船目標相近的云目標。

1.1 圖像預(yù)處理

艦船目標與碎云目標特征相似,先提取海洋區(qū)域作為預(yù)候選區(qū)域,剔除陸地上空的碎云目標,降低虛警率。利用GF-4衛(wèi)星圖像有多波段的特點,選用NDWI提取海洋和較大面積的云層區(qū)域。

圖2 GF-4艦船目標檢測與跟蹤流程

該方法利用海洋等水體在綠光波段反射能力強,在近紅外波段反射能力弱,而陸地與大面積云層的反射能力不同的差異性,來設(shè)定閾值。由于艦船目標的反射能力也與水體不同,如果直接進行剔除,容易造成大量的目標丟失。采用區(qū)域化操作,將一景GF-4衛(wèi)星圖像劃分成相同大小的若干個區(qū)域。利用艦船航行安全等限制,使一個區(qū)域內(nèi)的艦船目標所占像素點數(shù)目不高于一定比例,采用贏者通吃的原則來判定每塊區(qū)域的性質(zhì),即該區(qū)域內(nèi)水體像素點數(shù)占總像素點數(shù)的比例高于閾值,則判定所有像素值為1,反之為0。以二值圖像的形式提取出海洋區(qū)域這一感興趣區(qū)域(ROI)作為預(yù)候選區(qū)域。

單一波段的GF-4衛(wèi)星遙感圖像中目標很難用人眼去識別,海雜波、海水深度不同導(dǎo)致太陽光在海面的不同反射強度形成的噪聲近乎淹沒目標,檢測時很容易出現(xiàn)虛假目標,導(dǎo)致過高的虛警率。從整個序列來看,這些雜波和反射形成的噪聲在序列圖像中也出現(xiàn)了運動和閃爍的現(xiàn)象,極易造成虛警和漏警。因此,在檢測之前,還需要對圖像進行預(yù)處理,以降低虛警和漏警。

因此,利用灰度變換,將整幅圖像的灰度均勻映射到整個區(qū)間內(nèi),以增加各類物體的對比度,增強目標。圖像的對比度增強,小白點狀目標也更加明顯,再利用先前完成的水體二值圖像分割陸地和大面積云層,從而完成對圖像的預(yù)處理。預(yù)處理方法剔除了陸地島嶼和大面積云層,增強了目標與背景的差異。

1.2 候選目標區(qū)域提取

對候選目標進行提取,再通過預(yù)候選區(qū)域進行篩選。本文采用的是基于雙參數(shù)CFAR的候選目標區(qū)域提取方法[16-17]。單參數(shù)CFAR采用局部最大值或者最小值等參數(shù)檢測目標,在具有海雜波的場景下無法達到很好的檢測效果;而雙參數(shù)CFAR是通過均值和方差這兩個參數(shù)表征恒虛警模板邊界的雜波,更加符合實際。雙參數(shù)CFAR基于雜波服從正態(tài)分布的假設(shè),主要采用滑窗的方式進行,有三個正方形窗口,分別為目標窗、保護窗和背景窗,三個窗口滑動的步長相同。目標窗內(nèi)的點被判定為目標的判別準則為

檢測結(jié)束后會在二值圖像上將目標位置標為1,運用膨脹和腐蝕對圖像進行處理,統(tǒng)計二值圖像中所有為1的區(qū)域,即候選目標。選取候選目標的質(zhì)心作為候選區(qū)域中心,將候選目標區(qū)域裁剪成相同的尺寸,提取出來。

傳統(tǒng)的LeNet神經(jīng)網(wǎng)絡(luò)廣泛用于手寫數(shù)字識別,其識別速度快,準確率高[18]。但識別的目標圖片樣本中只有一個目標,且圖片樣本區(qū)域小,無法進行較大范圍內(nèi)的多目標檢測和識別,因此將GF-4圖像用雙參數(shù)CFAR提取候選目標區(qū)域,對極小區(qū)域的圖片樣本進行規(guī)范化,作為LeNet的目標樣本輸入,將目標檢測問題轉(zhuǎn)化為目標的二分類識別問題,實現(xiàn)在50m級分辨率下使用深度學(xué)習(xí)模型提高目標檢測水平的效果。

1.3 數(shù)據(jù)集構(gòu)建

目前,遙感領(lǐng)域的數(shù)據(jù)集主要集中在目標檢測和建筑、道路語義分割兩個方向上。目標檢測數(shù)據(jù)集有DIOR、DOTA、NWPU VHR-10、TAS、SSDD、OpenSARShip等,包含光學(xué)和SAR數(shù)據(jù)集。其中光學(xué)數(shù)據(jù)集分辨率在米級和亞米級,SAR數(shù)據(jù)集有部分為25m級分辨率。在50m級的空間分辨率上,目前沒有較好的數(shù)據(jù)集進行網(wǎng)絡(luò)的預(yù)訓(xùn)練。

利用GF-4衛(wèi)星NIR波段圖像制作50m級空間分辨率下的目標識別數(shù)據(jù)集。首先,對GF-4原始圖像進行切片,選取海面上存在艦船和碎云目標的區(qū)域,利用目標與海面的區(qū)別快速提取艦船和碎云目標;然后,通過人工標注并結(jié)合AIS參考信息,對目標打上標簽并分類,再按照一定尺寸裁剪目標周圍區(qū)域作為目標樣本。

數(shù)據(jù)集共包含31 780個目標樣本,正樣本共5 078個,負樣本共26 702個。將GF-4原始圖像中的大型艦船目標(即在50m級分辨率下可檢測識別)提取出來,作為數(shù)據(jù)集的正樣本;將大小、形狀等特征與大型艦船目標相近的碎云目標提取出來,作為數(shù)據(jù)集的負樣本。

1.4 候選目標靜態(tài)特征提取和鑒別

候選目標的靜態(tài)特征由單幀的候選目標區(qū)域通過CNN進行特征的提取,并利用提取的靜態(tài)特征對目標進行鑒別,其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。該網(wǎng)絡(luò)結(jié)構(gòu)基于LeNet網(wǎng)絡(luò)基本架構(gòu),共有3個卷積層,2個最大池化層,一個全連接層。每一層都利用了上一層局部區(qū)域產(chǎn)生的局部特征。

圖3 CNN鑒別網(wǎng)絡(luò)

每個候選目標區(qū)域共有5個波段,即5層,每層有28×28個像素。因此,輸入層為5×28×28。然后,通過8通道且卷積核大小為3像素×3像素的卷積層提取目標特征,并設(shè)置步長為1,全0填充。在卷積層后銜接批量歸一化層,利用小批量上的均值和方差,調(diào)整模型的輸出,使得模型在訓(xùn)練時更加穩(wěn)定。激活函數(shù)則選用ReLU函數(shù),目的是為了讓訓(xùn)練收斂速度加快。池化層采用2像素×2像素最大池化,通過該層后通道數(shù)不變,但每個通過的像素數(shù)在長和寬兩個維度上都進行減半。將卷積層和最大池化層交替連接,并且通過卷積層不斷加深通道數(shù)以保持卷積核不變。當(dāng)特征圖變成32層,每層像素尺寸為3×3后,將特征圖以1個像素平鋪形成隱藏層,在隱藏層后面通過全連接的方式形成輸出層。根據(jù)獲取的特征對候選目標區(qū)域進行鑒別。

利用LeNet在目標識別數(shù)據(jù)集上的對特征較少的目標識別速度快、識別精度高的特點,對目標樣本進行識別,區(qū)分艦船和碎云目標。由于碎云目標在圖像中的大小與艦船目標相近,且具有一定的速度,后續(xù)軌跡關(guān)聯(lián)時無法剔除,利用CNN對小切片進行鑒別,不但速度快,還可在保證檢測率的前提下降低虛警率,達到更好的檢測效果。同時,降低了后續(xù)目標關(guān)聯(lián)和跟蹤的運算成本。

1.5 目標跟蹤與動態(tài)特征提取

目標的動態(tài)特征主要為目標的航向、航速信息,本文利用GNN算法,對鑒別后的多幀目標進行關(guān)聯(lián),并利用關(guān)聯(lián)后的目標動態(tài)特征進行二次鑒別。GNN算法是基于最近鄰算法(NN)優(yōu)化改進而來[19-20]。然而在雜波較大、目標較為密集的情況下,距離最近的量測并不一定是與該航跡關(guān)聯(lián)的正確目標量測,因此并不能很好的進行有效的關(guān)聯(lián)和跟蹤。GNN算法將時刻的所有個量測和個現(xiàn)存航跡進行統(tǒng)一分配,設(shè)計關(guān)聯(lián)代價函數(shù),計算分配時的總關(guān)聯(lián)代價,將總關(guān)聯(lián)代價最小的量測與航跡分配作為這一時刻的航跡補充,形成航跡。

本文利用地理坐標信息,結(jié)合中分緯度航法對目標進行航跡關(guān)聯(lián)和跟蹤。傳統(tǒng)的GNN關(guān)聯(lián)和跟蹤在利用地理坐標信息時,將經(jīng)緯度坐標看做是二維平面坐標系,并沒有考慮到艦船目標在地球表面航行時地球表面的曲率對坐標位置的影響。然而,衛(wèi)星遙感圖像序列的幀間間隔較長,目標在投影平面的位置形變較大,影響目標的跟蹤效果。因此采用中分緯度航法進行狀態(tài)向量的更新,提高目標跟蹤的準確性。

計算關(guān)聯(lián)總代價并求出最小關(guān)聯(lián)代價。其中關(guān)聯(lián)總代價為

(6)

設(shè)艦船目標的運動狀態(tài)方程為

本文將中分緯度法用于1階EKF中。經(jīng)緯度的中分緯度法恒向線模型為

2 實驗驗證與分析

GF-4衛(wèi)星成像范圍極廣,幅寬達400km,兼具紅外、全色和多光譜等成像方式。表1為GF-4衛(wèi)星的基本參數(shù)。其中,多光譜傳感器(PMS)共有5個波段,分別為全色、藍色、綠色、紅色和近紅外波段,其空間分辨率約為50m;紅外傳感器(IRS)為中紅外波段,其空間分辨率約為400m。GF-4衛(wèi)星擁有較短的重訪周期,在同一區(qū)域下可得到一段連續(xù)時間的序列遙感圖像。

表1 GF-4衛(wèi)星基本參數(shù)

Tab.1 Basic parameters of GF-4 satellite

GF-4衛(wèi)星與其他高分系列衛(wèi)星相比,其主要特點就是廣域成像的能力。比如GF-2衛(wèi)星雖有著亞米級空間分辨率的成像能力,清晰的成像能力能夠更好地進行目標檢測,但是其成像幅寬只有45km,遠小于GF-4衛(wèi)星的400km;另外,GF-2衛(wèi)星的重訪周期為5天,與GF-4衛(wèi)星相比也有很大差距。目前,GF-4衛(wèi)星已經(jīng)在軌運行5年多,為海洋監(jiān)視、水文氣象、抗震減災(zāi)和農(nóng)林業(yè)等多個領(lǐng)域提供了大量遙感圖像數(shù)據(jù)。

為了驗證本文算法的有效性,本文選取了13幀GF-4衛(wèi)星的NIR波段數(shù)據(jù),成像區(qū)域位于渤海灣,成像時間自2020年10月17日10:09:59至2020年10月17日10:23:53,共834s,幀頻約為64s/幀。每幀的NIR數(shù)據(jù)共有5個波段,圖像大小為10 240像素×10 240像素,原圖像為L1A數(shù)據(jù)(未經(jīng)過正射校正),分辨率均為50m。先對GF-4衛(wèi)星圖像進行無控制點條件下的正射校正,有效校正了除去量測誤差之外的其他誤差。

2.1 艦船目標檢測實驗

本實驗選擇GF-4可見光圖像的波段3(綠光)和波段5(近紅外),利用NDWI提取預(yù)候選區(qū)域。場景1位于煙臺和大連中間靠近大連海域,場景2為靠近山東半島海域,覆蓋范圍均為50km×50km。圖4(a)、(b)為兩個場景利用NDWI指數(shù)計算得到的密度圖,圖4(c)、(d)為區(qū)域化操作之后的二值圖像。從圖4(a)、(b)中可以看出,利用NDWI能夠有效分割陸地島嶼和較大塊的云層,將區(qū)域化操作的區(qū)域大小設(shè)置為8像素×8像素,找到了艦船目標的預(yù)候選區(qū)域,見圖4(c)、(d)。在后續(xù)檢測完成后利用預(yù)候選區(qū)域進行陸地、島嶼和大型云層上虛警目標的剔除。

利用灰度直方圖對圖像進行增強,使目標更突出,提高目標檢測的精度。由圖5展示的是兩個場景灰度直方圖可以看出,圖像灰度集中在100附近區(qū)域并向兩側(cè)延伸,且右側(cè)拖尾比左側(cè)拖尾長。選取一定區(qū)域內(nèi)的灰度進行線性變換,拉伸至[0,255],結(jié)果如圖6所示,其中圖6(a)、(b)為變換前圖像,整體呈灰白色,對比度低,目標被淹沒在雜波中并不明顯;圖6(c)、(d)為變換后的圖像,對比度明顯增加,能夠更好地區(qū)分背景和目標并進行檢測。

圖5 圖像灰度直方圖

圖6 灰度變換對比

圖7 檢測出的候選目標區(qū)域

選取候選目標的質(zhì)心作為候選目標區(qū)域中心坐標,將候選目標區(qū)域裁剪成大小為28像素×28像素的相同尺寸,提取出來并保存成候選目標區(qū)域切片。利用已經(jīng)訓(xùn)練好的CNN網(wǎng)絡(luò),對候選目標區(qū)域進行鑒別,得到鑒別結(jié)果??梢钥闯觯?jīng)過CNN網(wǎng)絡(luò)的鑒別,疑似艦船目標的候選目標區(qū)域下降到38個,顯著降低了虛警率。為了對比目標檢測效果,本文采用傳統(tǒng)雙參數(shù)CFAR、幀差法、比值法和雙參數(shù)CFAR+CNN鑒別四種算法進行比對。其中幀差法采用兩幀差分法,閾值設(shè)置為20,比值法閾值為0.01,圖8為兩個場景單幀實驗結(jié)果展示,第一行為場景1,第二行為場景2。

圖8 單幀實驗結(jié)果比對

從左往右,依次是傳統(tǒng)雙參數(shù)CFAR、幀差法、比值法和本文算法(雙參數(shù)CFAR+CNN鑒別)四種算法的單幀目標檢測實驗結(jié)果,可以看出比值法對弱小目標檢測的效果并不好。

本文選用一組長序列圖像進行對比實驗。這個序列的總成像時間約為14min,利用AIS數(shù)據(jù)作為該區(qū)域內(nèi)的艦船目標參考真值,并結(jié)合人工判讀,確定目標數(shù)量。計算所有幀的檢測精度并取平均值,得到最終的檢測精度。同時,計算出檢測概率和虛警率。單幀目標檢測的準確率A、檢測概率d和虛警率f的計算公式如下:

其中,t表示檢測為艦船目標的艦船目標數(shù);f表示檢測為艦船目標的非艦船目標數(shù),即虛假目標數(shù);0表示該區(qū)域內(nèi)所有的艦船目標數(shù),該數(shù)目由AIS數(shù)據(jù)加上人工判讀獲得,實驗總目標數(shù)為序列圖像中每幀存在的目標數(shù)之和。實驗結(jié)果如表2所示。

表2 四種算法的表現(xiàn)

Tab.2 Performance of four algorithms

從表2中可以看出,傳統(tǒng)雙參數(shù)CFAR和幀差法的檢測虛警率較高,且?guī)罘ù嬖谳^大數(shù)量漏警。本文提出的算法在檢測準確率和虛警率上較其他算法均有較大改善,在檢測概率(為每幀檢測到的艦船目標數(shù)量與真實的艦船目標數(shù)量比值的平均值)上,傳統(tǒng)雙參數(shù)CFAR與本文算法比較相近,不存在太大差異,均顯著優(yōu)于幀差法。由于GF-4衛(wèi)星圖像中艦船目標過于弱小且存在較多的碎云干擾,比值法不能很好的進行目標檢測,其精度太低,故認為該算法不適合,也無法計算精度。

為使本文算法的應(yīng)用場景更有針對性,表3是對本文所提算法檢測出的艦船目標的長度統(tǒng)計。從表3可以看出,本文所提算法對較大型艦船目標(長度≥100m)的檢測概率較高,長度在50m和100m之間的檢測概率較低。觀察實驗數(shù)據(jù)發(fā)現(xiàn),在該海域的中型艦船(50m≤長度<100m)長度呈兩極分化狀,堆積在50m和100m的上下限,且長度在50m附近的中型艦船目標占據(jù)大多數(shù)。而GF-4衛(wèi)星可見光圖像的成像分辨率為50m,這樣的中型艦船目標,在候選目標區(qū)域提取時會被剔除,因此檢測概率較低。

表3 本文算法檢測出的艦船目標長度統(tǒng)計

Tab.3 Length statistics of detected ship targets

2.2 艦船目標跟蹤實驗

選擇目標檢測實驗處理得到的目標位置,利用圖像中攜帶的地理坐標系信息,得到仿射變換參數(shù)矩陣。將目標的質(zhì)心像素坐標經(jīng)過地理仿射變換映射到經(jīng)緯度坐標系中,獲得目標的地理坐標信息,這有利于后續(xù)進行目標關(guān)聯(lián)和跟蹤以及目標動態(tài)特征提取。

利用與中分緯度航法結(jié)合的GNN算法,將仿射變換后的候選目標進行多幀的關(guān)聯(lián)和跟蹤,得到的跟蹤結(jié)果見圖9。圖9中,“o”表示航跡起始點,“+”表示航跡終止點,紅色航跡為本文算法跟蹤得到的航跡,藍色航跡為目標參考航跡。

圖9 GF-4衛(wèi)星跟蹤結(jié)果

可以看出,在無控條件下進行的正射校正存在一定的誤差,但是總體誤差比較接近參考坐標,統(tǒng)計得到位置誤差約為2km。目標跟蹤形成的總航跡數(shù)為22;跟蹤艦船目標形成的航跡數(shù)為19,AIS與人工鑒別反饋的結(jié)果為21,雖航跡數(shù)目大致相等,但是存在部分航跡遺漏和不完整航跡,以及存在一部分虛警目標。其中,航跡遺漏和不完整航跡存在的主要原因均是由于海面噪聲不穩(wěn)定,且由于艦船在航行過程中有可能存在云層的遮擋,導(dǎo)致部分幀序列圖像并不能完全檢測出所有的艦船目標,在采用GNN關(guān)聯(lián)和跟蹤算法后由于航跡過短被剔除,或者是未被剔除但是形成的航跡不完整,不能覆蓋所有幀圖像。存在一部分虛警目標的原因是由于碎云的存在,雖然本文提出的算法能夠大幅度降低碎云的影響,但是受成像分辨率的影響,部分和艦船目標極其相似的碎云目標被當(dāng)做艦船目標保留了下來,未被剔除。

本文算法能夠進一步提取目標的動態(tài)特征,包括艦船目標的航向、航速等信息。在跟蹤的前幾幀,目標航速存在較大波動,但是隨著時間的推移,目標的航速信息逐漸穩(wěn)定,且與AIS提供的參考航速信息相差不大。圖10為艦船目標提取的動態(tài)信息與參考動態(tài)信息進行比對的結(jié)果,誤差點以每個目標的動態(tài)信息估計值為縱坐標,以動態(tài)信息參考值為橫坐標,若點位越接近中間的零誤差線則表示其誤差越小。其中圖10(a)為航速信息對比結(jié)果,經(jīng)統(tǒng)計其平均航速誤差約為0.98kn(約0.5m/s);圖10(b)為航向信息對比結(jié)果,經(jīng)統(tǒng)計,其平均航向誤差約為4.69°,基本滿足廣域艦船目標監(jiān)視需要。

圖10 動態(tài)信息比對

3 結(jié)束語

本文提出了一種碎云條件下運動艦船目標的跟蹤方法。通過較長序列的多幀GF-4衛(wèi)星圖像,驗證了本文所提算法的有效性,具有較高的目標檢測率和航跡轉(zhuǎn)化率,可以從較復(fù)雜的場景中有效檢測出艦船目標,生成目標航跡,提取目標的動態(tài)特征。而且,能夠滿足一定時間內(nèi)對較大型艦船目標的持續(xù)監(jiān)視需求,同時,本文算法結(jié)合了雙參數(shù)CFAR和LeNet網(wǎng)絡(luò)結(jié)構(gòu),將目標檢測轉(zhuǎn)化為二分類的目標識別,既發(fā)揮了LeNet識別速度快的優(yōu)勢,又規(guī)避了目前日益龐大的深度學(xué)習(xí)網(wǎng)絡(luò)算力需求高的缺點,具有較高的工程實現(xiàn)價值和潛力,體現(xiàn)出GF-4衛(wèi)星在海洋廣域監(jiān)視方面的巨大應(yīng)用潛力。本文算法可以進一步協(xié)同低軌視頻小衛(wèi)星、電子偵察衛(wèi)星等進行更細致的目標類型識別,為后續(xù)多源衛(wèi)星信息的融合打下了基礎(chǔ)。另一方面,如何降低單幀檢測時碎云目標對目標檢測算法的影響需要進一步研究,如何改進輕量化CNN結(jié)構(gòu),降低目標檢測的虛警率是后續(xù)研究應(yīng)考慮的重點。

[1] 田瑜基. 高分四號衛(wèi)星應(yīng)用研究探析[J]. 科技創(chuàng)新導(dǎo)報, 2020(17): 22-23.

TIAN Yuji. Analysis on the Application of GF-4 Satellite[J]. Science and Technology Innovation Herald, 2020(17): 22-23. (in Chinese)

[2] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[C]//Proceedings of the 12th European Conference on Computer Vision - Volume Part IV. Berlin, Heidelberg: Springer, 2012.

[3] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual Object Tracking Using Adaptive Correlation Filters[C]//The Twenty-Third IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2010, June 13-18, 2010, San Francisco, CA, USA. IEEE, 2010.

[4] DANELLJAN M, H?GER G, KHAN F S, et al. Accurate Scale Estimation for Robust Visual Tracking[C]//British Machine Vision Conference, September 1-5, 2014, Nottingham, UK.

[5] DANELLJAN M, ROBINSON A, KHAN F S, et al. Beyond Correlation Filters: Learning Continuous Convolution Operators for Visual Tracking[EB/OL].[2021-05-30]. /https://www.researchgate.net/publication/306187161_Beyond_ Correlation_Filters_Learning_Continuous_Convolution_Operators_for_Visual_Tracking.

[6] DANELLJAN M, BHAT G, KHAN F S, et al. ECO: Efficient Convolution Operators for Tracking[C]//CVPR 2017, July 21-26, 2017, Honolulu, HI, USA.

[7] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

[8] ZHU K, ZHANG X, CHEN G, et al. Single Object Tracking in Satellite Videos: Deep Siamese Network Incorporating an Interframe Difference Centroid Inertia Motion Model[J]. Remote Sensing, 2021, 13(7): 1298.

[9] BARNICH O, DROOGENBROECK M V. ViBE: A Powerful Random Technique to Estimate the Background in Video Sequences[C]// 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, April 19-24, 2009, Taipei, China. IEEE, 2009.

[10] WANG Z, DU J, XIA J, et al. An Effective Method for Detecting Clouds in GaoFen-4 Images of Coastal Zones[J]. Remote Sensing, 2020, 12(18): 3003.

[11] LU M, LI F, ZHAN B, et al. An Improved Cloud Detection Method for GF-4 Imagery[J]. Remote Sensing, 2020, 12(9): 1525.

[12] XIAO F, YUAN F, CHENG E. Detection and Tracking Method of Maritime Moving Targets Based on Geosynchronous Orbit Satellite Optical Images[J]. Electronics, 2020, 9(7): 1092.

[13] LIU Y, YAO L B, XIONG W, et al. Ship Target Tracking Based on a Low-resolution Optical Satellite in Geostationary Orbit[J]. International Journal of Remote Sensing, 2018, 39(9): 2991-3009.

[14] 姚力波, 劉勇. 基于高分四號衛(wèi)星的艦船目標跟蹤[C]//第四屆高分辨率對地觀測學(xué)術(shù)年會, 武漢, 2017. YAO Libo, LIU Yong. Ship Target Tracking Based on GF-4 Satellite[C]//China High Resolution Earth Observation Conference, Wuhan, 2017. (in Chinese)

[15] HOSANG J, BENENSON R, DOLLáR P, et al. What Makes for Effective Detection Proposals?[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(4): 814-830.

[16] 劉伊麗, 張臨杰, 張晰, 等. 雙參數(shù)CFAR艦船檢測算法兩種實現(xiàn)方法之分析與比較[J]. 中國海洋大學(xué)學(xué)報(自然科學(xué)版), 2017, 47(Sl): 139-145.

LIU Yili, ZHANG Linjie, ZHANG Xi, et al. Comparison between Two Implementations of Two-parameters CFAR Ship Detection Method[J]. Periodical of Ocean University of China, 2017, 47(Sl): 136-142. (in Chinese)

[17] EL-DARYMLI K, MC-GUIRE P, POWER D, et al. Target Detection in Synthetic Aperture Radar Imagery: A State-of-the-art Survey[J]. Journal of Applied Remote Sensing, 2013, 7(1): 071598-071598.

[18] 趙志宏, 楊紹普, 馬增強. 基于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車牌字符識別研究[J]. 系統(tǒng)仿真學(xué)報, 2010, 22(3): 638-641.

ZHAO Zhihong, YANG Shaopu, MA Zengqiang. License Plate Character Recognition Based on Convolutional Neural Network LeNet-5[J]. Journal of System Simulation, 2010, 22(3): 638-641. (in Chinese)

[19] YAO L B, XIONG W, LIU Y, et al. GF-4 Satellite and Automatic Identification System Data Fusion for Ship Tracking[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(2): 281-285.

[20] MAZZARELLA F, VESPE M, SANTAMARIA C. SAR Ship Detection and Self-reporting Data Fusion Based on Traffic Knowledge[J]. IEEE Geoscience & Remote Sensing Letters, 2015, 12(8): 1685-1689.

A Method for Moving Ship Target Tracking of GF-4 under the Condition of Broken Cloud

LIN Xun1YAO Libo1SUN Weiwei1LIU Yong2CHEN Jin3JIAN Tao1

(1 Naval Aviation University, Yantai 264000, China)(2 National Innovation Institute of Defense Technology, Academy of Military Science, Beijing 100071, China)(3 Beijing Institute of Remote Sensing Information, Beijing 100192, China)

Based on GF-4 satellites’ features of continuous observation and low image resolution characteristics, this paper presents a moving ship target detection and tracking algorithm for GF-4 satellite under the condition of broken cloud. This algorithm refers to the construction idea of convolution neural network (R-CNN) model based on region candidate, and uses double parameter constant false alarm rate (CFAR) to complete candidate target region extraction. In order to make full use of the advantage of LeNet network in convolution neural network (CNN) to identify simple and weak targets, static feature extraction and identification are carried out. Finally, the middle latitude method in geography is combined with the global nearest neighbor (GNN) algorithm to coordinate and track the target track and obtain the target motion information. This paper selects the GF-4 sequence image and the ship self-broadcast newspaper (AIS) information to carry on the experiment verification, proves that the algorithm could eliminate the interference of the broken cloud target under certain cloud condition, and effectively carry on the moving ship target detection and tracking. It has strong engineering application value.

moving ship target detection; target tracking; broken cloud condition; convolution neural network (CNN); GF-4 satellite remote sensing image

TP75

A

1009-8518(2021)05-0127-13

10.3969/j.issn.1009-8518.2021.05.014

林迅,男,1996年生,2019年獲海軍航空大學(xué)學(xué)士學(xué)位,現(xiàn)在海軍航空大學(xué)信息與通信工程專業(yè)讀碩士學(xué)位。主要研究方向為目標跟蹤、關(guān)聯(lián)。E-mail:919363290@qq.com。

2021-05-31

國家自然科學(xué)基金(91538201,61901504,61971432)

林迅, 姚力波, 孫煒瑋, 等. 碎云環(huán)境下GF-4衛(wèi)星對運動艦船的目標跟蹤[J]. 航天返回與遙感, 2021, 42(5): 127-139.

LIN Xun, YAO Libo, SUN Weiwei, et al. A Method for Moving Ship Target Tracking of GF-4 under the Condition of Broken Cloud[J]. Spacecraft Recovery & Remote Sensing, 2021, 42(5): 127-139. (in Chinese)

(編輯:夏淑密)

猜你喜歡
航跡艦船像素
基于自適應(yīng)視線法的無人機三維航跡跟蹤方法
支持向量機的艦船圖像識別與分類技術(shù)
大數(shù)據(jù)分析的船舶航跡擬合研究
風(fēng)浪干擾條件下艦船航向保持非線性控制系統(tǒng)
基于數(shù)據(jù)挖掘的船舶航跡自動識別系統(tǒng)
像素前線之“幻影”2000
基于反距離權(quán)值的終端區(qū)航跡預(yù)測方法仿真
艦船測風(fēng)傳感器安裝位置數(shù)值仿真
“像素”仙人掌
高像素不是全部