劉學(xué)虎,歐 鷗,張偉勁,杜雪壘
(成都理工大學(xué)計算機與網(wǎng)絡(luò)安全學(xué)院(牛津布魯克斯學(xué)院),四川 成都 610059)
滑坡作為一種常見的自然災(zāi)害現(xiàn)象,給自然環(huán)境、人們的生命財產(chǎn)安全造成不可估計的重大損失?;率侵感逼律系膸r土體部分受到某些因素(如降雨、地下水活動、地震等)的影響,在重力作用下沿著一定層面所發(fā)生的滑移地質(zhì)現(xiàn)象。在滑坡災(zāi)害發(fā)生后如何快速進(jìn)行大面積檢測和識別滑坡區(qū)域、提取滑坡相關(guān)數(shù)據(jù)信息是格外重要的。目前滑坡識別及其提取方法主要是基于滑坡的基本要素和在遙感圖像上的特征,基于色彩比率、紋理和陰影的綜合使用,以及根據(jù)獨特的滑坡特征形成的幾何圖案判定滑坡[1]。
隨著遙感成像技術(shù)的不斷發(fā)展,由于其及時性、覆蓋范圍的廣泛性和經(jīng)濟性,在監(jiān)測自然環(huán)境災(zāi)害方面有著明顯的優(yōu)勢。黃汀等人[2]以“高分一號”衛(wèi)星數(shù)據(jù)為基礎(chǔ),通過面向?qū)ο蟮姆治黾夹g(shù)提取滑坡信息,并采用多尺度分割算法,結(jié)合滑坡特征對經(jīng)驗式參數(shù)提取方法進(jìn)行優(yōu)化,再構(gòu)建分類規(guī)則對滑坡進(jìn)行檢測。閆琦等人[3]提出了一種基于災(zāi)后高分辨率遙感影像的地震滑坡體自動提取算法,將高分辨率遙感影像的光譜、形狀和紋理等特征用于滑坡識別,基于多特征閾值分層次逐步剔除干擾地物,實現(xiàn)地震滑坡體的自動提取。郭加偉等人[4]將遷移學(xué)習(xí)(TL)特征和支持向量機(SVM)引入滑坡自動解譯模型構(gòu)建,提出一種TL支持下的高分影像滑坡災(zāi)害解譯模型,并利用“5·12”汶川地震及“4·20”蘆山地震后無人機航拍圖像進(jìn)行大面積高分影像快速山地滑坡災(zāi)害定位及檢測。文獻(xiàn)[5]利用多時序遙感圖像滑坡區(qū)域植被恢復(fù)緩慢和非滑坡區(qū)域植被恢復(fù)較快的特點,使用多時相RapidEye衛(wèi)星遙感圖像,對吉爾吉斯斯坦南部地區(qū)多次滑坡進(jìn)行自動檢測與識別。方教勇[6]在雷達(dá)圖像等多種衛(wèi)星數(shù)據(jù)基礎(chǔ)上,完成汶川震后滑坡分布研究。Othman等人[7]利用遙感影像完成震后次生災(zāi)害提取工作。賀素歌[8]以玉樹地震后的PALSAR圖像采用的改進(jìn)的SHIFT算法配準(zhǔn)震害信息進(jìn)行滑坡信息的提取。
在利用目標(biāo)檢測算法識別滑坡圖像方面也有相關(guān)研究,文獻(xiàn)[9]使用CNN和注意力機制模型對遙感滑坡圖像的DEM數(shù)據(jù)進(jìn)行滑坡圖像的目標(biāo)檢測。Piralilou等人[10]將基于物體的圖像分析與3種機器學(xué)習(xí)方法結(jié)合起來,并結(jié)合多尺度的分割方法用于滑坡檢測。Can等人[11]將卷積神經(jīng)網(wǎng)絡(luò)的滑坡圖片自動檢測方法應(yīng)用于城市科學(xué)和地理信息數(shù)據(jù)的質(zhì)量評價中。Ghorbanzadeh等人[12]分析了不同數(shù)量的卷積層,以及對不同尺寸和不同通道數(shù)輸入的滑坡圖像數(shù)據(jù)進(jìn)行檢測。基于深度學(xué)習(xí)的目標(biāo)檢測算法有很多,目前基于CNN的目標(biāo)檢測算法可以分為2類。第1類是兩階段目標(biāo)檢測算法,如R-CNN[13]、Fast R-CNN[14]、Faster R-CNN[15]、FPN[16]、Mask R-CNN[17]等。兩階段的算法通常在第1階段找出目標(biāo)出現(xiàn)的位置,得到建議框;第2個階段對建議框進(jìn)行分類。第2類是一階段目標(biāo)檢測算法,如SSD[18]、YOLO[19]、RetinaNet[20]等一階段算法直接在一個階段內(nèi)確定物體位置與類別。因此,兩階段目標(biāo)檢測算法擁有更高的精準(zhǔn)度,一階段目標(biāo)檢測算法擁有更快的檢測速度。
基于上述研究,本文設(shè)計一種融合注意力機制與空洞卷積進(jìn)行特征提取的網(wǎng)絡(luò)結(jié)構(gòu)。采用Faster R-CNN目標(biāo)檢測方法對遙感滑坡圖像進(jìn)行檢測,利用不同的注意力進(jìn)行特征提取驗證其對于滑坡遙感圖像檢測的有效性,通過注意力機制對滑坡圖像進(jìn)行二次采樣與檢測目標(biāo)的強化,再融入空洞卷積來增大滑坡目標(biāo)感受野進(jìn)行滑坡圖像特征提取與檢測,進(jìn)一步提高滑坡遙感圖像檢測模型性能。
常規(guī)的目標(biāo)檢測方法是使用不同大小的矩陣框掃描整幅圖片,然后對每個框中是否存在感興趣的主體進(jìn)行篩選,即檢測出主體出現(xiàn)的位置Bounding Box (BBox)。BBox也可以稱作感興趣區(qū)域(RoI),表示只對當(dāng)前區(qū)域的內(nèi)容有“興趣”,這個區(qū)域主要是用矩形框的左上角坐標(biāo)與右下角坐標(biāo)或左上角坐標(biāo)與矩形框長寬表示,并給出所檢測物體的類別。
R-CNN算法是在使用Selective Search方式獲得候選框BBox后,利用CNN算法代替?zhèn)鹘y(tǒng)手工設(shè)計特征方法提取對應(yīng)區(qū)域的特征。而Fast R-CNN相比于R-CNN進(jìn)行了以下改進(jìn):1)共享卷積。將整幅圖送到卷積網(wǎng)絡(luò)中進(jìn)行區(qū)域生成,雖仍采用Selective Search方式,但計算量大幅減少。2)RoI Pooling。利用特征池化方法對圖像進(jìn)行特征尺度變換,這種方法可以輸入任意大小圖片,使訓(xùn)練過程更加靈活、準(zhǔn)確。3)多任務(wù)損失。將分類與回歸網(wǎng)絡(luò)一起進(jìn)行訓(xùn)練,并且使用Softmax函數(shù)進(jìn)行分類,避免了如同SVM分類器一樣有著單獨訓(xùn)練與速度慢的缺點。但之后的Faster R-CNN提出了使用RPN[21]網(wǎng)絡(luò)來代替Selective Search,利用Anchor機制將區(qū)域生成與卷積神經(jīng)網(wǎng)絡(luò)聯(lián)系到一起,使檢測速度進(jìn)一步提升。
如圖1所示,F(xiàn)aster R-CNN分為4個部分:
圖1 Faster R-CNN結(jié)構(gòu)示意圖
1)卷積層。采用卷積、池化、激活等操作提取圖像特征圖(Feature Map),其特征圖被用于RPN層與全連接層。
2)區(qū)域推薦網(wǎng)絡(luò)RPN(Region Proposal Networks)。生成推薦區(qū)域,并將所生成區(qū)域輸入Softmax層以判斷其錨框區(qū)域?qū)儆谇熬斑€是背景,再使用綁定區(qū)域回歸函數(shù)修正錨框區(qū)域,以獲得更精確的判斷。
3)RoI。RoI層搜集特征圖和推薦區(qū)域,并將其信息綜合之后提取具有推薦性質(zhì)的特征圖,再輸入全連接層進(jìn)行目標(biāo)檢測識別。
4)Classifier層。采用推薦性質(zhì)特征圖進(jìn)行計算判斷推薦區(qū)域類別,并使用綁定框回歸函數(shù)獲得檢測框的準(zhǔn)確位置。
空洞卷積[22](Dilated Convolution),又稱擴張卷積。其是指可以在不降低圖像尺寸的情況下增大神經(jīng)網(wǎng)絡(luò)感受野,使每個卷積輸出都包含較大范圍的信息。傳統(tǒng)圖像分割算法通常使用池化層增大感受野,同時縮小特征圖尺寸,再利用上采樣方式還原圖像尺寸。而特征圖的縮小再放大過程會造成圖像精度缺失,因此需要一種可以在增加感受野的同時還要保持特征圖尺寸不變,以便代替池化與上采樣操作的方法??斩淳矸e的方式能夠滿足上述要求。
空洞卷積結(jié)構(gòu)如圖2所示,即卷積核中帶有一些洞,跳過一些元素進(jìn)行卷積。如圖所示,同樣一個3×3的卷積,可以起到5×5、7×7等的卷積效果。假設(shè)空洞卷積的卷積核大小為k,卷積核擴張率為d,空洞數(shù)為d-1,則等效卷積核大小k′計算如式(1)所示。
(a) 3×3卷積核 (b) 3×3卷積操作響應(yīng)示意圖 (c) 3×3空洞卷積核 (d) 3×3空洞卷積核操作響應(yīng)示意圖
k′=k+(k-1)(d-1)
(1)
可以得出,空洞卷積在不增加參數(shù)量擴大感受野的情況下,也能保持特征圖分辨率不變,從而使得物體圖像的定位更加精確。
注意力機制(Attention Mechanism)通常由一個連接在神經(jīng)網(wǎng)絡(luò)之后的額外神經(jīng)網(wǎng)絡(luò)實現(xiàn),整個模型是端對端的,因此注意力模塊能夠和原模型一起同步訓(xùn)練。假設(shè)每個神經(jīng)網(wǎng)絡(luò)層的輸出是一個結(jié)構(gòu)化的表示:
b={b1,b2,…,bn}
(2)
式(2)中的每個元素代表輸入信息中某個空間向量進(jìn)入下一個神經(jīng)網(wǎng)絡(luò)層進(jìn)行運算的輸入。而注意力機制是在上一層的輸出向量之上疊加一個新的函數(shù),用以對卷積層之間的輸出進(jìn)行權(quán)重計算。
(3)
Spatial Attention與Channel Attention是注意力機制的2種實現(xiàn)形式,分別從圖像和維數(shù)方面添加注意力機制。Spatial Attention是指在輸入圖像的基礎(chǔ)上疊加一個可以被微分計算和能夠接受模型梯度反向傳播的權(quán)重矩陣,矩陣的作用在于能夠與輸入圖像的特征值進(jìn)行矩陣計算。Channel Attention則為在通道維度的基礎(chǔ)上對圖像進(jìn)行加權(quán)計算,針對不同的通道特征,給予每個維度一個強行施加的注意力模型來影響輸出。Hu等人[23]提出SENet來學(xué)習(xí)信道間的相關(guān)性,通過網(wǎng)絡(luò)的全局損失函數(shù)自適應(yīng)地重新矯正通道之間的特征相應(yīng)強度。Zhang等人[24]將注意力機制引入超分辨率重建任務(wù)中,通過注意力機制來區(qū)別對待不同的通道,從而提高網(wǎng)絡(luò)的表征能力。而Woo等人[25]設(shè)計的卷積塊注意模塊(Convolutional Block Attention Module, CBAM)是一種結(jié)合了空間和通道的注意力機制模塊,相比于SENet這種只關(guān)注通道的注意力機制的模型可以取得更好的效果。CBAM模型的結(jié)構(gòu)如圖3所示。
圖3 注意力機制CBAM
卷積神經(jīng)網(wǎng)絡(luò)是一種采用一系列的卷積層去學(xué)習(xí)從原始輸入到指定標(biāo)簽或區(qū)域的復(fù)雜非線性映射的高效深度學(xué)習(xí)方法。本文研究的重點是采用目標(biāo)檢測的方式從光學(xué)遙感圖像中檢測滑坡,以便識別潛在滑坡并對滑坡進(jìn)行相關(guān)探測工作和數(shù)據(jù)記錄。針對滑坡多樣性及復(fù)雜性,為了提升從圖像中提取特色的滑坡特征和提高滑坡位置范圍檢測的準(zhǔn)確率,本文在傳統(tǒng)的Faster R-CNN模型的基礎(chǔ)上進(jìn)行改進(jìn),通過融合注意力機制與增加感受野的空洞卷積方式進(jìn)行滑坡遙感圖像檢測。
圖4為Faster R-CNN模型,在特征提取階段使用了ResNet50[26]網(wǎng)絡(luò)生成特征圖,生成的特征圖輸入到RPN模塊對特征圖進(jìn)行候選區(qū)域的生成,之后將RPN生成的候選區(qū)域和特征圖一起輸入到RoI Pooling層中,進(jìn)行候選區(qū)域特征圖的生成;最后將結(jié)果輸入到全連接層,進(jìn)行Softmax分類和bbox_pred候選區(qū)域位置回歸。
圖4 Faster R-CNN網(wǎng)絡(luò)結(jié)構(gòu)
在目標(biāo)檢測任務(wù)中,使用邊框回歸算法(Bounding-box Regression)來對Faster R-CNN算法中提取出來的候選區(qū)域進(jìn)行微調(diào),使其與真實標(biāo)記區(qū)域更加接近,讓定位更加準(zhǔn)確。對于一個窗口,采用一個4維向量(x,y,w,h)表示窗口的中心點坐標(biāo)、寬、高。如圖5所示,給定預(yù)測框A和真實框G。
圖5 邊框回歸
A=(Ax,Ay,Aw,Ah)
(4)
G=(Gx,Gy,Gw,Gh)
(5)
尋找一種變換F,使得:
F(Ax,Ay,Aw,Ah)=(G′x,G′y,G′w,G′h)
(6)
其中:
(G′x,G′y,G′w,G′h)≈(Gx,Gy,Gw,Gh)
(7)
其中,Ax,Ay,Aw,Ah為預(yù)測框的中心點坐標(biāo)、寬、高;Gx,Gy,Gw,Gh為真實框的中心點坐標(biāo)、寬、高;G′為預(yù)測框映射的結(jié)果,G′x,G′y,G′w,G′h為預(yù)測框映射結(jié)果的中心坐標(biāo)、寬、高。
通過先平移再縮放的方式得到變換F:
G′x=Awdx(A)+Ax
(8)
G′y=Ahdy(A)+Ay
(9)
G′w=Awexp(dw(A))
(10)
G′h=Ahexp(dh(A))
(11)
此時,學(xué)習(xí)目標(biāo)參數(shù)為:
dx(A),dy(A),dw(A),dh(A)
(12)
給定輸入的特征向量X,學(xué)習(xí)一組參數(shù)W,使得經(jīng)過線性變換后的結(jié)果與真實值接近,在任務(wù)過程中,φ是輸入(經(jīng)過CNN提取得到的特征圖),同時定義了初始預(yù)測值A(chǔ)與真實標(biāo)記之間的變換量:
(tx,ty,tw,th)
(13)
損失函數(shù):
(14)
函數(shù)優(yōu)化目標(biāo):
(15)
輸入特征圖φ函數(shù)優(yōu)化目標(biāo)使得網(wǎng)絡(luò)的輸出與真實的變換量盡可能接近,通過學(xué)習(xí)到的參數(shù)來修正預(yù)測框的位置。通過在圖4中的Backbone部分添加空洞卷積與注意力機制模型,結(jié)合卷積層進(jìn)行卷積操作來進(jìn)行改進(jìn),改進(jìn)添加部分的結(jié)構(gòu)如圖6所示。
圖6 空洞卷積與注意力機制融合結(jié)構(gòu)
卷積層部分注意力機制模型是在不同的卷積層之間疊加一個額外的權(quán)重模型,這個權(quán)重模型通過Hard或Soft模式的參數(shù)給圖形向量打分,即一個預(yù)處理的權(quán)重計算過程,作用在于告訴下一層的神經(jīng)網(wǎng)絡(luò),哪些向量值得關(guān)注,哪些不值得關(guān)注。從圖6中可以看到CBAM在輸入端和輸出端之間分別加載了Channel Attention和Spatial Attention。首先,Channel Attention通過不同的壓縮方式將平面壓縮成一個點,之后經(jīng)過全連接變化對特征進(jìn)行重新組合和求積運算得到輸出結(jié)果。其中MaxPool和AvgPool分別對輸入值進(jìn)行全局池化,之后使用2個全連接層對特征進(jìn)行提取,經(jīng)過Sigmoid函數(shù)激活后,將提取后的值重新連接作為輸入權(quán)重與輸出值進(jìn)行內(nèi)積運算,用以生成Spatial Attention模塊需要的輸入特征。將Channel Attention的運算輸出特征值作為Spatial Attention模塊的輸入值,繼續(xù)使用MaxPool和AvgPool在空間面積上做池化運算,再使用Concat將結(jié)果進(jìn)行連接。卷積層的作用是將維度降為1以方便下一步進(jìn)行Sigmoid歸一化計算,然后將權(quán)重維度和Spatial Attention模塊的輸入做乘法計算,得到最終生成的特征值。最后將兩者融合后的CBAM模塊作為輔助模塊嵌入到ResNet網(wǎng)絡(luò)中作為一個加載了注意力機制的模型使用。通過在卷積層部分添加空洞卷積的操作增大目標(biāo)感受野和CBAM模型的結(jié)合的方式嵌入到ResNet中就形成了一個新的目標(biāo)檢測模型。
該改進(jìn)方法中的損失函數(shù)與原Faster R-CNN中的損失函數(shù)相同,包含分類損失(cls loss)和回歸損失(bbox regression loss),公式如下:
(16)
(17)
式(17)表示目標(biāo)與非目標(biāo)的對數(shù)損失,為典型的二分類交叉熵?fù)p失。
(18)
其中,Lbb-reg見式(14),而R為SmoothL1損失函數(shù):
(19)
本文實驗采用Windows 10平臺,基于Python編程環(huán)境,在CUDA10.0上使用Pytorch深度學(xué)習(xí)框架進(jìn)行訓(xùn)練測試。實驗數(shù)據(jù)集采用武漢大學(xué)遙感中心的滑坡遙感圖像數(shù)據(jù)集,包括巖崩、少量巖屑滑坡等770幅滑坡圖像;在實驗過程中,從中選取300幅左右滑坡特征明顯的圖像按比例1∶10進(jìn)行數(shù)據(jù)增強得到3000幅滑坡圖像,再將滑坡圖像數(shù)據(jù)按照訓(xùn)練集、驗證集和測試集為6∶2∶2的比例進(jìn)行訓(xùn)練測試。訓(xùn)練中設(shè)置epoch為100、初始學(xué)習(xí)率為0.001進(jìn)行訓(xùn)練。
本文在Faster R-CNN模型下使用ResNet50作為基礎(chǔ)網(wǎng)絡(luò),分別對初始狀態(tài),只加入注意力機制,只增大感受野的空洞卷積、融合注意力機制和空洞卷積進(jìn)行訓(xùn)練。實驗過程中,當(dāng)檢測結(jié)果與真值邊界框的IoU[27-28]超過0.5時即可認(rèn)為檢測正確,采用召回率(Recall, R)、精確率(Precision, P)以及mAP值標(biāo)準(zhǔn)實驗評測指標(biāo)來進(jìn)行客觀分析。其公式定義為:
R=TP/(TP+FN)
(20)
P=TP/(TP+FP)
(21)
(22)
其中,TP為真正例的圖像個數(shù);FN為假負(fù)例的圖像個數(shù);FP為假正例的圖像個數(shù)。召回率是指所有正確檢測圖像占所有應(yīng)該檢測圖像的比例,召回率的值越高,表示其中檢測正確的圖像越多;精確率指的是所有被檢測為正例的圖像中,符合對應(yīng)圖像類別的比例,精確率的值越高,表示算法模型效果越理想。由于召回率和精確率兩者之間存在一定影響,因此加入mAP的值來進(jìn)行綜合分析算法模型的效果。
為了驗證注意力機制對特征提取網(wǎng)絡(luò)的有效性,分別對只加通道注意力、空間注意力以及融合通道與空間注意力的CBAM模型進(jìn)行特征提取訓(xùn)練。
通道注意力與空間注意力分別是從圖像的維數(shù)通道方面和圖像表面添加注意力,都是對輸入的圖像進(jìn)行二次采樣并對目標(biāo)進(jìn)行強化。從表1中可以看出,單獨添加通道注意力與空間注意力,結(jié)果都有明顯的提升;考慮到滑坡遙感圖像特征的復(fù)雜多樣性,需要結(jié)合通道與空間注意力來進(jìn)行特征提取,結(jié)果表明融合通道和空間注意力的CBAM模型在滑坡遙感圖像的檢測上有著明顯的提升。
表1 注意力機制結(jié)果數(shù)據(jù)對比/%
為了驗證空洞卷積對滑坡遙感圖像檢測的影響以及本文所提出的改進(jìn)算法模型對滑坡特征提取的有效性,通過在傳統(tǒng)ResNet50網(wǎng)絡(luò)的基礎(chǔ)上添加空洞卷積和本文所提出的融合注意力機制模型CBAM+空洞卷積的方式進(jìn)行實驗。在訓(xùn)練過程中分別對空洞卷積與注意力機制模型在卷積層添加位置的不同進(jìn)行訓(xùn)練與輸出的評測指標(biāo)進(jìn)行對比,綜合選取實驗檢測結(jié)果最好的進(jìn)行評價分析。
從表2中可以看出,在ResNet50的網(wǎng)絡(luò)基礎(chǔ)上分別添加空洞卷積,召回率與精確率都有一定程度上的提升。而通過融合注意力機制模型CBAM與空洞卷積的方式的實驗結(jié)果中可以看出,相對于只添加注意力機制或空洞卷積,兩者結(jié)合下,mAP值、召回率與精確率都有一定程度的提升。實驗結(jié)果表明,本文融合注意力機制與空洞卷積結(jié)合的方法對于滑坡圖像的識別檢測相對于傳統(tǒng)的Faster R-CNN的檢測方式來說有著顯著的效果提升。
表2 實驗評估數(shù)據(jù)對比/%
圖7中顯示了分別采用ResNet50、ResNet50+空洞卷積、ResNet50+CBAM和ResNet50+空洞卷積+CBAM的方式得到的滑坡遙感圖像檢測圖。由于滑坡圖像特征提取涉及色彩、紋理及陰影等眾多因素,以及數(shù)據(jù)集圖片數(shù)量與滑坡圖像的復(fù)雜多樣性,導(dǎo)致對于傳統(tǒng)錨框方式進(jìn)行目標(biāo)檢測來說是一個巨大的挑戰(zhàn)。對于滑坡這類復(fù)雜多樣且滑坡邊界不規(guī)則的圖像來說,檢測結(jié)果除受圖像質(zhì)量、模型算法識別的影響外,也受進(jìn)行實驗準(zhǔn)備前對滑坡圖像錨框范圍大小的影響。通過比較可知,本文提出的融合CBAM模型和空洞卷積的方式的檢測圖像,相對于傳統(tǒng)只采用ResNet50和單獨添加注意力機制與空洞卷積方法,滑坡圖像中的預(yù)測框更準(zhǔn)確、誤檢框更少,表明兩者融合的方式在滑坡遙感圖像檢測中有著一定的效果提升。筆者深信通過深度學(xué)習(xí)的目標(biāo)檢測算法的不斷改進(jìn)與研究,對于采用傳統(tǒng)錨框方式來進(jìn)行滑坡圖像的檢測有著充分的研究價值;而對于本文檢測中如何降低誤檢框的數(shù)量,提升滑坡遙感圖像檢測的召回率與精確率,以獲得更高的滑坡圖像檢測效果,是后續(xù)努力研究的目標(biāo)。
(a) 對照組1 (b)對照組2 (c)對照組3
目前基于深度學(xué)習(xí)的目標(biāo)檢測算法在滑坡遙感圖像檢測方面應(yīng)用較少,對于自然災(zāi)害中的滑坡圖像的識別檢測問題,本文在基于傳統(tǒng)目標(biāo)檢測算法的基礎(chǔ)上,提出了一種融合注意力機制與空洞卷積結(jié)合的滑坡圖像特征提取算法。通過空間注意力與通道注意力結(jié)合的CBAM來增加滑坡圖像檢測的特征的提取識別以及采用空洞卷積來增加滑坡目標(biāo)感受野的方式來檢測滑坡。實驗結(jié)果分析表明,在傳統(tǒng)目標(biāo)檢測算法Faster R-CNN的基礎(chǔ)上,采用注意力機制與空洞卷積結(jié)合的方式,召回率與精確率有著顯著的提升,表明基于深度學(xué)習(xí)的目標(biāo)檢測算法對于滑坡遙感圖像及其它自然災(zāi)害圖像的檢測有著充足的應(yīng)用與發(fā)展。