黃佳琦,范軍芳,李蓓蓓
(1 北京信息科技大學(xué)高動態(tài)導(dǎo)航技術(shù)北京市重點(diǎn)實(shí)驗(yàn)室,北京 100192;2 北京信息科技大學(xué)自動化學(xué)院,北京 100192;3 32381部隊(duì),北京 100072)
近年來,隨著遙感圖像目標(biāo)檢測技術(shù)[1]的突破性進(jìn)展,由飛機(jī)或衛(wèi)星拍攝的遙感影像,具有豐富的目標(biāo)信息,遙感影像的目標(biāo)識別技術(shù)廣泛應(yīng)用于國防、國民經(jīng)濟(jì)、社會生活等領(lǐng)域。在軍事戰(zhàn)爭中,飛行器上圖像導(dǎo)引頭對重要目標(biāo)的檢測,將遙感數(shù)據(jù)信息轉(zhuǎn)化為目標(biāo)情報(bào),一方面能快速鎖定攻擊目標(biāo)位置并進(jìn)行精準(zhǔn)打擊[2];另一方面有利于戰(zhàn)場形勢剖析,從而進(jìn)一步制定精準(zhǔn)而及時(shí)的軍事行動。因此遙感圖像中目標(biāo)的實(shí)時(shí)檢測對社會穩(wěn)定和國家安全具有重要的意義。
目標(biāo)檢測[3]作為計(jì)算機(jī)視覺的基本問題,主要任務(wù)是識別圖片或視頻中人們感興趣的目標(biāo),獲取目標(biāo)的大小,并進(jìn)行分類和定位,遙感目標(biāo)檢測是目標(biāo)檢測的重要應(yīng)用之一。傳統(tǒng)的遙感圖像目標(biāo)檢測算法[4]是利用手工提取特征的方法,如模板匹配等,這類方法的特征魯棒性差,只適用于背景單調(diào)、抽象特征明顯的目標(biāo),實(shí)際應(yīng)用環(huán)境下無法用于小而密集、尺度多變且成像質(zhì)量較差的遙感圖像目標(biāo)的檢測。然而,隨著高性能圖形處理器(graphics processing unit,GPU)的廣泛應(yīng)用,基于深度學(xué)習(xí)的目標(biāo)檢測模型成為遙感圖像領(lǐng)域的研究熱點(diǎn)。深度學(xué)習(xí)目標(biāo)檢測方法[5-7]可以提取同一目標(biāo)的豐富特征,利用大量的數(shù)據(jù),通過深度學(xué)習(xí)完成模型訓(xùn)練,應(yīng)用訓(xùn)練后的優(yōu)秀模型進(jìn)行目標(biāo)檢測,使得算法泛化能力更強(qiáng),更容易應(yīng)用于實(shí)際場景。當(dāng)前基于深度學(xué)習(xí)的遙感圖像目標(biāo)檢測算法可以分為兩大類:一類是雙階段(two-stage)檢測算法,即基于候選區(qū)域(region proposal)的R-CNN系算法,包括R-CNN[8]、Fast R-CNN[9]、Faster R-CNN[10]和Mask R-CNN[11]等,這類算法需要先使用啟發(fā)式方法(selective search)或候選區(qū)域生成網(wǎng)絡(luò)(region proposal network)生成候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)在候選區(qū)域上做分類與回歸;另一類是單階段(one-stage)檢測算法,以YOLO[12-17]和SSD[18]等為代表,是一種端到端的算法,不需要預(yù)先生成候選框,直接將目標(biāo)框的定位問題轉(zhuǎn)化為回歸問題,進(jìn)行特征提取、分類和定位回歸并得到大小、類別和位置信息。綜合比較這兩類方法,不難看出,單階段檢測算法速度更快,更適用于在嵌入式平臺上搭載,而雙階段較單階段檢測算法能更多的獲取目標(biāo)特征,檢測精度更高。
上述算法模型都需要提前設(shè)定錨框的參數(shù),如大小、數(shù)量等,要求預(yù)設(shè)錨框盡可能覆蓋或匹配目標(biāo)的尺寸,生成一系列錨框作為待檢測的候選區(qū)域,再對這些候選框進(jìn)行分類和定位回歸。錨框的參數(shù)要根據(jù)具體任務(wù)進(jìn)行調(diào)節(jié),由于錨框是提前設(shè)定好的,參數(shù)量較大,不能依據(jù)訓(xùn)練過程自適應(yīng)的調(diào)節(jié)參數(shù),導(dǎo)致模型復(fù)雜度較高,計(jì)算量較大,一定程度上限制了該類算法的遷移和檢測速度與精度的提升。一般將在圖像中覆蓋區(qū)域較小,像素值在幾十像素甚至幾像素之間,分辨率較低的物體界定為小目標(biāo)[19],在目標(biāo)較多的遙感圖像中,錨框與小目標(biāo)物體大小很難匹配,漏檢、誤檢的目標(biāo)數(shù)量增多,算法無法很好的檢測出遙感圖像中小目標(biāo)物體。而無錨框(anchor-free)的算法不需要提前預(yù)設(shè)錨框,通過預(yù)測關(guān)鍵點(diǎn)或中心域和真實(shí)標(biāo)簽之間的置信度進(jìn)行分類回歸,對小而密集和成像質(zhì)量較差的遙感圖像目標(biāo)檢測的適用性更強(qiáng)。2018年Law等[20]提出了CornerNet,將網(wǎng)絡(luò)對目標(biāo)邊界框的檢測轉(zhuǎn)換為左上角和右下角一對關(guān)鍵點(diǎn)的檢測,但由于網(wǎng)絡(luò)過度關(guān)注邊緣和兩個(gè)角點(diǎn),缺乏內(nèi)部關(guān)鍵信息的學(xué)習(xí),導(dǎo)致誤檢率較高,因此CornerNet在遙感圖像目標(biāo)檢測上精度提升并不明顯。深度卷積單步法(FCOS)[21]則直接預(yù)測從目標(biāo)框的邊緣到目標(biāo)中心的距離來進(jìn)行目標(biāo)檢測,ExtremeNet[22]對目標(biāo)框的4個(gè)頂點(diǎn)分別進(jìn)行關(guān)鍵點(diǎn)預(yù)測,將預(yù)測結(jié)果進(jìn)行幾何枚舉組合,再結(jié)合中心點(diǎn)預(yù)測以達(dá)到高質(zhì)量的檢測結(jié)果;CenterNet[23]則將目標(biāo)檢測變成了一個(gè)標(biāo)準(zhǔn)的關(guān)鍵點(diǎn)估計(jì)問題,不需要預(yù)設(shè)錨框,直接利用目標(biāo)物體中心點(diǎn)的特征信息進(jìn)行目標(biāo)分類和邊界回歸。目標(biāo)的中心點(diǎn)是通過提取熱力圖(heatmap)中的峰值來確定,然后高斯擴(kuò)散得到目標(biāo)的尺寸信息。CenterNet結(jié)構(gòu)簡潔,參數(shù)量相對較小,在coco數(shù)據(jù)集中得到了較好的檢測精度和實(shí)時(shí)性的平衡,適用于在計(jì)算能力相對有限、無法處理復(fù)雜算法卻有高實(shí)時(shí)性需求的嵌入式設(shè)備上搭載。而用于檢測尺寸較小,成像質(zhì)量較低的遙感圖像目標(biāo)時(shí),往往面臨精度不足的問題。因此需要改進(jìn)CenterNet算法模型,克服遙感圖像小目標(biāo)檢測的困難。
文中將CenterNet作為基礎(chǔ)網(wǎng)絡(luò),在主干輸出處引入通道注意力模塊(ECA-NET)[24],削弱非關(guān)注點(diǎn)表達(dá)的同時(shí),增強(qiáng)關(guān)注點(diǎn)的信息通道;階段性調(diào)整學(xué)習(xí)率,采用學(xué)習(xí)率調(diào)整策略,加快網(wǎng)絡(luò)收斂速度。此模型在保證檢測速度的同時(shí),提高了模型檢測精度,滿足了檢測精度與實(shí)時(shí)性的平衡,在遙感圖像目標(biāo)檢測領(lǐng)域具有實(shí)際的應(yīng)用價(jià)值。
CenterNet是一種典型的無錨框目標(biāo)檢測算法,采用關(guān)鍵點(diǎn)表示對象的邊界框中心,通過熱力圖的峰值找到中心點(diǎn),根據(jù)中心位置的圖像特征回歸得到對象大小、坐標(biāo)方向、姿態(tài)信息等屬性。主干網(wǎng)絡(luò)有ResNet[25]、Hourglass[26]和DLA[27]3種框架,分別適用于不同的應(yīng)用環(huán)境。首先將圖像送入1個(gè)全卷積網(wǎng)絡(luò)生成1個(gè)高分辨率特征圖,然后將3個(gè)卷積運(yùn)算應(yīng)用于特征圖,分別進(jìn)行熱力圖預(yù)測,中心點(diǎn)預(yù)測和長寬預(yù)測,判斷每個(gè)熱點(diǎn)是否存在目標(biāo)及其類別,得到目標(biāo)中心距離熱點(diǎn)偏移的情況,最后獲得目標(biāo)的尺寸預(yù)測結(jié)果,將目標(biāo)檢測問題轉(zhuǎn)化成關(guān)鍵點(diǎn)預(yù)測問題,不僅算法思路簡單,并且具有較高的精度和速度。
CenterNet目標(biāo)檢測器基于正確的關(guān)鍵點(diǎn)預(yù)測網(wǎng)絡(luò),準(zhǔn)確估計(jì)物體中心,回歸目標(biāo)的大小,算法中每個(gè)目標(biāo)只檢測其中心點(diǎn),不需要非極大抑制(NMS)來刪除同一目標(biāo)的重復(fù)檢測框。算法快速、精確、簡潔,應(yīng)用于計(jì)算能力相對有限的嵌入式平臺更加方便,滿足平臺算法簡單且有高實(shí)時(shí)性的需求。但應(yīng)用于遙感圖像中,CenterNet算法仍存在缺點(diǎn)。在檢測過程中,隨著分辨率的降低,小目標(biāo)物體的中心點(diǎn)信息會出現(xiàn)丟失或重合的現(xiàn)象,檢測結(jié)果只能檢測出其中的幾個(gè)目標(biāo),造成目標(biāo)漏檢和檢測精度低的情況。由此,需要改進(jìn)CenterNet算法模型,提升遙感目標(biāo)檢測的精度,從而改善遙感圖像目標(biāo)檢測的效果。
卷積神經(jīng)網(wǎng)絡(luò)中的注意力模塊模仿了人類在視覺上感知事物時(shí),需要觀察和注意特定的部分,在眾多的輸入信息中集中于當(dāng)前最為重要的信息,降低對其他信息的關(guān)注度,過濾掉無關(guān)信息,使檢測網(wǎng)絡(luò)能夠更有效地提取特征,從而增強(qiáng)網(wǎng)絡(luò)的檢測性能。同時(shí),注意力模塊即插即用,可以加入到任何網(wǎng)絡(luò)中。SE-Net(squeeze-and-excitation network)是一種通道注意力結(jié)構(gòu)[28]。模塊由一個(gè)總結(jié)每個(gè)特征圖全部信息的擠壓操作和一個(gè)縮放每個(gè)特征重要性的激發(fā)操作組成,這就是所謂的擠壓和激發(fā)塊。與參數(shù)的增加相比,模型的性能提高顯著,而模型的復(fù)雜性和計(jì)算負(fù)擔(dān)不會明顯增加。ECA-Net(efficient channel attention)[24]是在SE-Net基礎(chǔ)上提出的一種注意力機(jī)制,在保持SE-Net模塊優(yōu)勢性能的前提下,避免SE-Net因壓縮降維對學(xué)習(xí)通道之間的依賴關(guān)系產(chǎn)生的不利影響,有效捕捉跨通道交互,獲得明顯的性能增益。
ECA-Net探索了另一種獲取局部跨通道交互的方法,既少量增加參數(shù)和計(jì)算量,又保證了模型的有效性,在嵌入式平臺上應(yīng)用更好。如圖1所示,在不降低維度的情況下進(jìn)行逐通道全局平均池化之后,ECA-Net通過考慮每個(gè)通道及其k個(gè)近鄰來捕獲本地跨通道交互。首先,執(zhí)行大小為k的快速一維卷積來生成通道權(quán)重,其中k是本地跨通道交互的覆蓋范圍。為了避免交叉驗(yàn)證手動調(diào)整k,內(nèi)核大小可以通過通道維度的非線性映射自適應(yīng)地確定。假設(shè)k=5時(shí)表示臨近的5個(gè)通道進(jìn)行不降低維度的局部交叉通道交互,大大降低運(yùn)行時(shí)間復(fù)雜度。實(shí)驗(yàn)結(jié)果表明,ECA-Net是模型復(fù)雜度低且有效的輕量級插件,能提高各種深度CNN架構(gòu)的性能,包括廣泛使用的ResNet網(wǎng)絡(luò),在目標(biāo)檢測任務(wù)中表現(xiàn)出良好的泛化能力。
圖1 ECA-Net網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 ECA-Net Network Structure
改進(jìn)的檢測網(wǎng)絡(luò)使用與原CenterNet算法相同的損失函數(shù),主要由熱力圖損失Lk、中心點(diǎn)偏置損失Loff和寬高損失Lsize三部分組成。
熱力圖損失Lk[23]是具有focal-loss[29]的懲罰機(jī)制的函數(shù),定義為:
(1)
(2)
(3)
將上述各類損失結(jié)合后得到總的損失Ldet[23],其表達(dá)式為:
Ldet=Lk+λoffLoff+λsizeLsize
(4)
式中,權(quán)重λoff、λsize分別取1、0.1。
由于實(shí)際的遙感圖像是大視場高空拍攝的,導(dǎo)致背景相對復(fù)雜,目標(biāo)相對尺寸較小、所占像素也較低,直接將其應(yīng)用于遙感圖像檢測算法上效果不理想,如果要更好地適應(yīng)遙感圖像目標(biāo)的檢測,必須對CenterNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),提升檢測精度。
如圖2所示,針對遙感目標(biāo)的檢測兼顧準(zhǔn)確率和速度的實(shí)際情況,以CenterNet算法為基礎(chǔ)改進(jìn)其網(wǎng)絡(luò)模型。CenterNet主干網(wǎng)絡(luò)有ResNet[25]、Hourglass[26]和DLA[27]三種框架,其中ResNet-50網(wǎng)絡(luò)參數(shù)量小,實(shí)時(shí)性好,較易移植。通過實(shí)驗(yàn)與另外兩種主干網(wǎng)絡(luò)對比,ResNet-50在檢測速度和準(zhǔn)確性方面得到了較好的平衡,作為文中的主要研究對象。在主干網(wǎng)絡(luò)ResNet-50特征層輸出處引入ECA-Net,增強(qiáng)有用特征通道,抑制無用信息通道,提升模型的特征提取能力,并極大程度降低引入注意力機(jī)制后模型的復(fù)雜度,提高小目標(biāo)的表征能力,從而提高遙感目標(biāo)檢測準(zhǔn)確率。
圖2 CenterNet-based模型Fig.2 CenterNet-based model
根據(jù)實(shí)際應(yīng)用場景需求使用自制遙感數(shù)據(jù)集,利用在公開的地圖數(shù)據(jù)庫中截取的各類飛機(jī)目標(biāo),如圖3所示,根據(jù)不同場景將其分為50組,每組中依據(jù)不同高度和角度截取,形成1 000張圖片,圖像中亮度和對比度多樣,且存在遮擋、陰影、畸變等干擾。集合均為1 440×1 000彩色圖像,圖像格式均為.jpg,采用9∶1的比例分配訓(xùn)練集、驗(yàn)證集。為了驗(yàn)證算法在各種應(yīng)用場景下的檢測性能,還隨機(jī)抽取了由武漢大學(xué)制作的遙感影像公開數(shù)據(jù)集RSOD數(shù)據(jù)集[30]中的100張飛機(jī)目標(biāo)圖像如圖5~圖7所示加入到測試集中。
圖3 遙感數(shù)據(jù)集Fig.3 Remote sensing datasets
實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,在Anaconda上搭建Python=3.7,PyTorch 1.7.1的虛擬環(huán)境,在集成開發(fā)環(huán)境PyCharm中運(yùn)行。部分訓(xùn)練參數(shù)配置如表1所示。
表1 部分訓(xùn)練參數(shù)Table 1 Training parameters configuration
在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),學(xué)習(xí)率(learning rate)深刻影響著神經(jīng)網(wǎng)絡(luò)的性能,是一個(gè)重要的超參數(shù)。學(xué)習(xí)率太小,收斂速度將嚴(yán)重下降,訓(xùn)練明顯變慢;學(xué)習(xí)率太大,參數(shù)值將會在最優(yōu)解上下振蕩。優(yōu)化器能夠加速卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度,合理選取優(yōu)化器,在合適的學(xué)習(xí)率下,能夠解決隨著神經(jīng)網(wǎng)絡(luò)復(fù)雜程度的加深以及計(jì)算量的增加,導(dǎo)致在模型訓(xùn)練上的耗時(shí)增加問題。使用Adam優(yōu)化器進(jìn)行迭代訓(xùn)練,將輸入圖像統(tǒng)一縮放到分辨率為512×512。采用MultiStepLR結(jié)合StepLR的學(xué)習(xí)率調(diào)整策略,初始學(xué)習(xí)率設(shè)置為1.25×10-2,設(shè)置步長為1,等間隔衰減為原來的90%,在訓(xùn)練50個(gè)epoch后,將學(xué)習(xí)率降為1.25×10-3,再訓(xùn)練90個(gè)epoch,等間隔衰減為原來的90%,加快網(wǎng)絡(luò)的收斂速度。
實(shí)驗(yàn)評價(jià)指標(biāo)由準(zhǔn)確率RP、召回率RR、平均精度均值PmAP和每秒處理圖像數(shù)NFPS來衡量。RP和RR計(jì)算公式為:
(5)
式中:PT表示目標(biāo)為真實(shí)目標(biāo),檢測結(jié)果為真實(shí)目標(biāo);PF表示目標(biāo)不是真實(shí)目標(biāo),檢測結(jié)果是真實(shí)目標(biāo);PFN表示目標(biāo)為真實(shí)目標(biāo),檢測結(jié)果為不是真實(shí)目標(biāo)。精度均值PA為以準(zhǔn)確率RP和召回率RR所圍成的曲線面積值。PmAP為學(xué)習(xí)的所有類別精度均值的平均值。
NFPS定義為算法每秒處理的圖片數(shù)。NFPS越大,每秒處理的圖像數(shù)量越多,代表算法運(yùn)行速度越快。其計(jì)算公式為:
(6)
式中:N為被測樣本數(shù);T為測試全部樣本所需的時(shí)間。
在數(shù)據(jù)集上經(jīng)過140輪訓(xùn)練,損失值基本達(dá)到穩(wěn)定狀態(tài)。訓(xùn)練過程中,模型損失和迭代次數(shù)之間的趨勢變化對比如圖4所示。
圖4 Loss變化曲線圖Fig.4 Loss variation curve
訓(xùn)練過程中損失函數(shù)隨著訓(xùn)練輪次迭代次數(shù)的增加逐漸降低趨于0。可以看到在大約50個(gè)迭代次數(shù)之后,損失函數(shù)降低到1以下,驗(yàn)證了算法模型收斂的快速性。
采用PmAP、NFPS評價(jià)指標(biāo)進(jìn)行檢測精度和檢測速度的定量分析,與基礎(chǔ)網(wǎng)絡(luò)的對比實(shí)驗(yàn)結(jié)果如表2所示。
表2 模型結(jié)果對比Table 2 Comparison of model
從表2看出,改進(jìn)后的模型在檢測精度方面效果相對良好,相較ResNet-50基礎(chǔ)網(wǎng)絡(luò)提升13.26%,相較DLA-34提升5.54%。雖然與Hourglass-104主干網(wǎng)絡(luò)模型相比還有差距,但Hourglass-104網(wǎng)絡(luò)深度層為104,參數(shù)量很大,其速度遠(yuǎn)遠(yuǎn)不及其他模型。改進(jìn)的模型由于加入了注意力模塊,模型推理的計(jì)算量相應(yīng)有所增加,但在明顯提升精度的同時(shí),仍然能夠滿足實(shí)時(shí)性需求,在檢測精度和檢測速度上取得了較好平衡。
為了進(jìn)一步驗(yàn)證模型的有效性,基于遙感數(shù)據(jù)集,在相同的配置和訓(xùn)練、測試樣本的條件下,對比雙階段算法Faster R-CNN,單階段算法YOLOv3以及無預(yù)設(shè)錨框算法原CenterNet四種主流算法,得到對比結(jié)果如表3所示。
表3 不同算法對比結(jié)果Table 3 Comparison of method results
文中的CenterNet算法與原CenterNet算法相比,檢測速度略有提升,PmAP提高了13.3%,減少了網(wǎng)絡(luò)的漏檢率,一定程度上提高了小目標(biāo)的識別率。改進(jìn)后算法精度較兩階段算法Faster R-CNN相應(yīng)值低10.34%,而利用兩階段算法Faster R-CNN平均檢測時(shí)間為0.129 s,改進(jìn)后的CenterNet算法平均檢測時(shí)間只需0.019 s,速度提升了一個(gè)數(shù)量級;與單階段YOLOv3相比,檢測精度提高了1.52%,檢測速度提高了19.78 幀/s。
改進(jìn)后算法檢測精度和檢測速度都取得了較好的效果,證明了改進(jìn)后網(wǎng)絡(luò)的有效性。算法對比效果如圖5、圖6和圖7所示,從左到右、從上到下依次是Faster R-CNN、YOLOv3、原CenterNet和改進(jìn)后的CenterNet算法在3種不同場景下的檢測可視化結(jié)果。
圖5 場景一的各算法檢測效果可視化Fig.5 Visualization of the detection effect of each algorithm for scenario 1
圖6 場景二中各算法檢測效果可視化Fig.6 Visualization of the detection effect of each algorithm for scenario 2
圖7 場景三各算法檢測效果可視化Fig.7 Visualization of the detection effect of each algorithm for scenario 3
從場景一的可視化結(jié)果中可以看出,在目標(biāo)尺寸對比明顯且存在遮擋和重疊的場景下,極易發(fā)生漏檢。Faster R-CNN算法雖然精度較高,但依然存在漏檢與誤檢,漏檢率為7.14%;YOLOv3漏檢4個(gè)目標(biāo),原CenterNet漏檢5個(gè)目標(biāo),并且都為小目標(biāo);而改進(jìn)后的CenterNet算法檢測的小目標(biāo)(飛機(jī))并無漏檢情況,檢測優(yōu)勢明顯。
場景二的結(jié)果中,檢測目標(biāo)與背景相似度高,極易發(fā)生誤檢和漏檢,Faster R-CNN算法則存在誤檢的情況;YOLOv3算法也有不同程度的漏檢;改進(jìn)前后的CenterNet均無漏檢和誤檢的情況,但相比原算法,改進(jìn)后的算法識別精度更高,效果更好。
場景三是小目標(biāo)(飛機(jī))??枯^為密集的情況,Faster R-CNN和YOLOv3算法均出現(xiàn)漏檢;原CenterNet算法對重疊目標(biāo)檢測存在丟失的情況。相比較,改進(jìn)的CenterNet算法檢測效果明顯得到改善,進(jìn)一步顯示了改進(jìn)后的網(wǎng)絡(luò)目標(biāo)檢測性能的提升,這得益于引入注意力機(jī)制對網(wǎng)絡(luò)的優(yōu)化。在網(wǎng)絡(luò)中加入注意力機(jī)制后,對目標(biāo)有更精確的定位,特別是使一些小目標(biāo)保留住了重要特征,沒有在中間被舍棄掉,大大降低了模型的漏檢率。
將改進(jìn)的CenterNet算法應(yīng)用到遙感圖像目標(biāo)檢測中。為解決基于深度學(xué)習(xí)的遙感目標(biāo)檢測方法識別遙感圖像中小且密集、成像不清晰的目標(biāo)如飛機(jī)等精度和實(shí)時(shí)性不能兼顧的問題,提出了CenterNet-based目標(biāo)檢測方法。該方法以ResNet-50進(jìn)行基礎(chǔ)特征提取,使用注意力機(jī)制,削弱非關(guān)注點(diǎn)表達(dá),同時(shí)增強(qiáng)關(guān)注點(diǎn)的信息通道,提高檢測精度,階段性調(diào)整學(xué)習(xí)策略,加快網(wǎng)絡(luò)收斂速度。此方法較好平衡了遙感小目標(biāo)檢測的精度和速度。但還需進(jìn)一步提高精度,確保在實(shí)際應(yīng)用環(huán)境中的精準(zhǔn)識別,因此改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)在不降低檢測速度的基礎(chǔ)上提升檢測精度是接下來的研究重點(diǎn)。