国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于DeepLabv3+語義分割的航空影像建筑物提取方法

2024-12-03 00:00:00廖元暉王敬東李浩然楊衡
指揮控制與仿真 2024年6期

摘 要:航空影像可以提供豐富的地物信息,建筑物作為一種重要的地物信息,通過快速精確地識別航空影像中的建筑物,可以實現(xiàn)目標(biāo)監(jiān)測、位置定位,并進(jìn)一步豐富特定區(qū)域的地理信息。針對語義分割算法在提取建筑物時存在的分割結(jié)果粘連、輪廓線條不規(guī)則的問題,通過改進(jìn)特征融合結(jié)構(gòu)、構(gòu)建綜合損失函數(shù)以及添加改進(jìn)后的Douglas Peucker算法,提出了一種改進(jìn)的基于DeepLabv3+的航空影像建筑物提取模型。實驗結(jié)果表明,改進(jìn)后的模型在測試集上交并比為0.794,相較于原模型提升了14.7%,有效地避免了近鄰建筑物之間的粘連分割問題,使得分割邊界更加規(guī)整,從而更精確地提取出建筑物的輪廓形狀。

關(guān)鍵詞:航空影像;建筑物提??;DeepLabv3+;輪廓規(guī)則化

中圖分類號:P237 文獻(xiàn)標(biāo)志碼:A DOI:10.3969/j.issn.1673-3819.2024.06.010

Building extraction method for aerial images based on DeepLabv3+ semantic segmentation

LIAO Yuanhui, WANG Jingdong, LI Haoran, YANG Heng

(College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 211106, China)

Abstract:Aerial imagery can provide rich geographic information. As an important ground object information, quickly and accurately extracting buildings from aerial images can achieve target monitoring, location positioning, and further enrich specific geographic information in a given area. To address the issues of segmentation result merging and irregular contour lines in semantic segmentation algorithms for building extraction, an improved model based on DeepLabv3+ for aerial building extraction is proposed by improving the feature fusion structure, constructing a comprehensive loss function, and incorporating an improved Douglas Peucker algorithm. Experimental results show that the improved model achieves an IoU of 0.794 on the test set, a 14.7% improvement compared to the original model. It effectively avoids the problem of merged segmentation between neighboring buildings and results in more regular segmentation boundaries, enabling more accurate extraction of the building contours.

Key words:aerial image; building extraction; DeepLabv3+; contour regularization

收稿日期:2023-10-24修回日期:2023-12-20

作者簡介:

廖元暉(1999—),男,碩士研究生,研究方向為數(shù)字圖像處理。

王敬東(1966—),男,副教授,碩士生導(dǎo)師。

利用航空影像提取建筑物信息,可進(jìn)行目標(biāo)監(jiān)測、地理信息分析等[1-3]。而語義分割算法可以對圖像中每個像素進(jìn)行分類,分割出建筑物的輪廓,實現(xiàn)對建筑物的提取[4-7]。郭江[8]等人針對DeepLabv3+進(jìn)行遙感圖像建筑物分割時存在小目標(biāo)建筑物漏分、目標(biāo)建筑物誤分以及邊界粘連的問題進(jìn)行研究,通過添加Daspp-Spm模塊以及SE通道注意力機(jī)制模塊,增強(qiáng)了網(wǎng)絡(luò)提取建筑物特征和重構(gòu)空間信息的能力,但對于存在邊界模糊與陰影干擾的小尺寸或復(fù)雜重疊建筑物仍會出現(xiàn)粘連問題。齊建偉[9]等人以DeepLabv3+的孿生網(wǎng)絡(luò)為主干,使用多層級特征交互操作實現(xiàn)遙感影像建筑物變化檢測,較好地平衡了誤檢及漏檢情況,但對于密集且近鄰的建筑物容易粘連。Li[10]等人針對高分辨率遙感圖像建筑物分割邊緣精度低的問題,通過改進(jìn)DeepLabv3+特征融合結(jié)構(gòu)以及并聯(lián)的DANet來提高網(wǎng)絡(luò)模型的分割精度,但在分割結(jié)果直線邊緣上存在鋸齒,不夠契合實際目標(biāo)建筑物邊緣。

綜上所述,盡管基于深度學(xué)習(xí)的方法在航空影像建筑物自動提取方面已經(jīng)取得了不少成果,但在建筑物近鄰分布的場景下,仍然會出現(xiàn)分割結(jié)果相互粘連的現(xiàn)象,導(dǎo)致無法清晰地分離各個建筑物。在一些分割結(jié)果中,建筑物輪廓線條存在凸起,與真實輪廓標(biāo)簽仍有差距。針對這些問題,本文提出一種改進(jìn)的基于DeepLabv3+的建筑物提取方法,首先,改進(jìn)原網(wǎng)絡(luò)中特征融合結(jié)構(gòu),采用多層級特征融合方式來獲得更全面的特征表示,改善近鄰建筑物分割情況;其次,構(gòu)建綜合損失函數(shù),更好地利用空間關(guān)系信息,提高建筑物分割的準(zhǔn)確性;最后,通過在分割結(jié)果圖像上添加改進(jìn)后的Douglas Peucker算法,實現(xiàn)航空影像中建筑物輪廓的規(guī)則化提取。

1 網(wǎng)絡(luò)模型應(yīng)用與改進(jìn)

1.1 DeepLabv3+在建筑物分割提取中的應(yīng)用

DeepLabv3+是一種基于空洞卷積的語義分割網(wǎng)絡(luò)模型[11],通過空洞空間金字塔池化模塊獲取多尺度的上下文信息,更好地捕獲物體的大小、形狀和方向,增強(qiáng)模型對細(xì)節(jié)的感知能力,提高分割結(jié)果的準(zhǔn)確性;同時采用編碼器-解碼器結(jié)構(gòu),融合不同層級的特征,從而逐漸恢復(fù)空間信息來獲取更精細(xì)的分割對象掩膜。DeepLabv3+網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示,網(wǎng)絡(luò)將輸入圖片送到主干網(wǎng)絡(luò)進(jìn)行卷積提取,再通過空洞空間金字塔池化模塊與卷積層得到富含語義信息的深層特征,上采樣后與主干網(wǎng)絡(luò)中抽取的淺層特征進(jìn)行融合,最后通過卷積與上采樣得到輸出掩膜。

采用DeepLabv3+網(wǎng)絡(luò)模型對航空影像建筑物進(jìn)行提取分割,在建筑物分布離散、輪廓形狀為矩形時分割效果較好,但在建筑物近鄰分布、與周圍背景顏色相近時容易產(chǎn)生粘連問題,部分不規(guī)則形狀建筑物分割邊緣欠佳,分割輪廓不準(zhǔn)確,具體情況如圖2所示。綠色圓圈圈出的為近鄰建筑物,在分割時產(chǎn)生粘連,黃色圓圈圈出的為邊緣分割欠佳的建筑物。從圖中可以看出,DeepLabv3+網(wǎng)絡(luò)模型能夠較好地分割圖像中不同形狀的建筑物,但分割掩膜邊緣粗糙,在分割近鄰建筑時存在粘連問題,且分割掩膜存在凸起或凹陷,不契合原圖像中建筑物的輪廓形狀。因此,本文對DeepLabv3+網(wǎng)絡(luò)模型進(jìn)行改進(jìn),改善近鄰建筑物分割粘連問題,提高網(wǎng)絡(luò)分割效果,并添加改進(jìn)后的Douglas Peucker圖像后處理算法對分割結(jié)果中建筑物輪廓進(jìn)行規(guī)則化校正。

1.2 改進(jìn)措施

1.2.1 特征融合結(jié)構(gòu)改進(jìn)

1)分割粘連問題分析

航空影像中的建筑物類型豐富多樣,不同圖像中的建筑物通常具有不同的空間布局。在研究過程中發(fā)現(xiàn),航空影像中相鄰的建筑物群通常大小相似,結(jié)構(gòu)相仿,且具有相同的顏色紋理特征,DeepLabv3+網(wǎng)絡(luò)模型在下采樣過程中會模糊相鄰建筑物間的邊界,通過融合一層淺層特征層獲取到的細(xì)節(jié)信息有限,在后續(xù)上采樣過程中難以有效分離相鄰的建筑物,使得分割掩膜粘連。

2)多層級特征融合結(jié)構(gòu)

DeepLabv3+網(wǎng)絡(luò)模型通過融合特征提取網(wǎng)絡(luò)淺層特征層和深層特征層來結(jié)合全局語義信息和細(xì)節(jié)信息,提高建筑物的整體分割準(zhǔn)確性,但其忽視了中等尺度特征層提供的語義信息和空間位置信息,這些信息對于精確的分割和定位建筑物非常重要。此外,DeeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)中融合的特征只選擇主干網(wǎng)絡(luò)中的低級特征與編碼器得到的高級特征,該特征圖能夠包含的圖像信息特征較少,不足以使解碼器準(zhǔn)確地恢復(fù)目標(biāo)的邊緣信息。因此,本文采用多層級特征融合策略[12],對DeepLabv3+網(wǎng)絡(luò)特征融合結(jié)構(gòu)進(jìn)行改進(jìn),改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。將特征提取網(wǎng)絡(luò)分為5個層級,每個層級的輸出特征圖尺寸依次為原圖、原圖大小的1/2、1/4、1/8、1/16。其中,第二層級的特征層保留了較多的細(xì)節(jié)信息,第三、四層級的特征層則著重于捕捉不同建筑物間的空間位置關(guān)系。選擇在解碼器中融合第二、三、四層級的特征層,使網(wǎng)絡(luò)能夠在保留較淺層特征層細(xì)節(jié)信息的同時,平衡局部細(xì)節(jié)和全局空間結(jié)構(gòu),更全面地利用模型中不同尺度的特征信息。之后分別將第三、四層級的特征兩倍、四倍雙線性插值上采樣,將三個不同層級的淺層特征在通道層面上拼接,形成新特征,通過1×1卷積調(diào)整通道數(shù)與4倍上采樣后的深層特征進(jìn)行融合。

相比于原DeepLabv3+網(wǎng)絡(luò)模型僅融合一層淺層特征層,單一淺層特征具有較低的空間結(jié)構(gòu)信息和語義表達(dá)能力,無法對圖像中相鄰的建筑物進(jìn)行準(zhǔn)確的分割,多層級特征融合結(jié)構(gòu)的優(yōu)勢在于不同層級的特征表現(xiàn)出不同的語義信息和位置信息,通過將它們進(jìn)行融合,可以提供更全面的特征表示。多層級特征融合形成的特征層具有更豐富的邊緣、紋理、空間位置等細(xì)節(jié)信息,這些信息能夠為模型提供更多線索,幫助其正確判斷粘連區(qū)域的邊界。

1.2.2 損失函數(shù)改進(jìn)

1)損失函數(shù)問題分析

通過對本文數(shù)據(jù)集中背景與建筑物像素點個數(shù)統(tǒng)計發(fā)現(xiàn),背景像素與建筑物像素個數(shù)比約為2:1,數(shù)據(jù)集中的兩類像素信息占據(jù)不同的比例,在分類過程中存在正負(fù)樣本的不平衡問題。DeepLabv3+網(wǎng)絡(luò)模型的原始損失函數(shù)為分類交叉熵?fù)p失(CE Loss),該損失函數(shù)適用于多分類任務(wù),為滿足建筑物分割任務(wù)需求,將CE Loss真實標(biāo)簽one-hot編碼的形式改為二分類任務(wù)中的真實標(biāo)簽形式以去除多余類別,轉(zhuǎn)換為適用于二分類任務(wù)的二值交叉熵?fù)p失(BCE Loss)。

由于BCE Loss并不考慮像素之間的空間關(guān)系,僅關(guān)注每個像素的類別預(yù)測,且數(shù)據(jù)集中建筑物像素比背景像素數(shù)量更少,該不平衡會導(dǎo)致模型更偏向于預(yù)測背景像素,從而影響建筑物的分割效果。Dice Loss通過計算預(yù)測結(jié)果和真實標(biāo)簽之間的相似度來減少樣本不平衡的影響[13],同時,Dice Loss 在計算相似度時考慮了預(yù)測結(jié)果和真實標(biāo)簽的重疊區(qū)域,對于邊界細(xì)節(jié)具有較高的敏感性,模型會更加關(guān)注像素之間的空間關(guān)系。因此,本文對BCE Loss進(jìn)行改進(jìn),將BCE Loss和Dice Loss結(jié)合起來構(gòu)建一個綜合損失函數(shù),以更好地處理像素樣本不平衡問題,并提高建筑物分割的準(zhǔn)確性。

2)構(gòu)建綜合損失函數(shù)

BCE Loss公式如式(1)所示:

LBCE=-1N[yi∑Ni=1log(xi)+(1-yi)∑Ni=1log(1-xi)](1)

式中:N為總像素個數(shù);yi為第i個像素的真實標(biāo)簽;xi∈[0,1]為第i個像素預(yù)測為建筑物的概率。

Dice Loss公式如下:

LDice=1-2|Upred∩Utrue||Upred∪Utrue|(2)

式中:Upred表示預(yù)測為建筑物像素點集合,Utrue表示真實標(biāo)簽為建筑物像素點集合。

綜合損失函數(shù)為

LBCE-Dice=λLBCE+LDice=

1-λ1N[yi∑Ni=1log(xi)+(1-yi)*∑Ni=1log(1-xi)]-2∑Ni=1xiyi∑Ni=1xi+∑Ni=1yi(3)

式中:λ為BCE Loss的權(quán)重值;N為總像素個數(shù);yi為第i個像素的真實標(biāo)簽;xi為第i個像素的預(yù)測概率值。

相較于單獨使用 BCE Loss,將BCE Loss和Dice Loss結(jié)合可以在一定程度上平衡建筑物類別和背景類別的權(quán)重,提高模型對樣本不平衡數(shù)據(jù)集的適應(yīng)性。結(jié)合這兩種損失函數(shù),網(wǎng)絡(luò)模型可以綜合考慮像素級別的分類結(jié)果和區(qū)域的相似性,更好地利用空間關(guān)系信息,提高建筑物分割的準(zhǔn)確性。

1.2.3 邊緣輪廓提取改進(jìn)

1)分割結(jié)果輪廓問題分析

在對DeepLabv3+網(wǎng)絡(luò)模型進(jìn)行改進(jìn)后,有效分離了近鄰建筑物并取得了細(xì)化建筑物邊界的效果。然而,在分割后圖像中建筑物的輪廓形狀仍然與標(biāo)簽圖像有一定差距,具體表現(xiàn)為邊緣有少量鋸齒凸起、直角輪廓不夠清晰。利用改進(jìn)的Douglas Peucker算法對提取到的圖像進(jìn)行輪廓優(yōu)化,能夠使結(jié)果更加擬合真實標(biāo)簽。因此,本文將改進(jìn)的Douglas Peucker算法[14]運用于模型分割結(jié)果,實現(xiàn)建筑物輪廓的規(guī)則化校正。

2)輪廓規(guī)則化處理

Douglas Peucker算法以圖像中的點集為輸入,通過計算兩點間的最大距離是否符合預(yù)先設(shè)定的距離閾值篩選關(guān)鍵點,將經(jīng)過抽樣得到的關(guān)鍵點進(jìn)行連接得到平滑和簡化后的曲線。Douglas Peucker算法提供了一種簡單有效的曲線簡化方法,但建筑物輪廓多為直線且直角較多,采用Douglas Peucker算法的簡化過程會導(dǎo)致線段的方向變得斜率不穩(wěn)定,使得輪廓失去水平和垂直特性,因此,本文在Douglas Peucker算法的基礎(chǔ)上加入了線段的旋轉(zhuǎn)與平移操作,通過判斷關(guān)鍵點連接線段的長度,取最長邊作為建筑物的主朝向,接著計算各線段與主朝向的夾角進(jìn)行旋轉(zhuǎn)或平移,形成最終的輪廓規(guī)則化結(jié)果。改進(jìn)的Douglas Peucker算法流程圖如圖4所示。

本文采用改進(jìn)后的Douglas Peucker圖像后處理算法,進(jìn)一步改善了建筑物輪廓的質(zhì)量,減少了分割結(jié)果中的不連續(xù)和鋸齒狀邊緣。通過將改進(jìn)的Douglas Peucker算法與DeepLabv3+模型結(jié)合使用,可以獲得更加清晰、光滑且準(zhǔn)確的建筑物輪廓。該算法能夠去除原始輪廓中存在的小波動和噪聲,使得直角輪廓更加明顯和規(guī)整,從而提高建筑物分割的精度和視覺效果。

2 實驗結(jié)果與分析

2.1 實驗環(huán)境

實驗所采用的計算機(jī)實驗平臺配置如下:操作系統(tǒng)環(huán)境為Ubuntu 16.04,硬件配置為Intel的i7-8700CPU以及NVIDIA的GTX 1080Ti的GPU。

2.2 數(shù)據(jù)集介紹

本文數(shù)據(jù)集圖片來源為谷歌地球衛(wèi)星地圖,從該地圖上選取美國各地區(qū)的900張含有建筑物的航空影像作為數(shù)據(jù)集,尺寸為1 024×768像素,選取其中100張作為測試集,其余圖片用于模型的訓(xùn)練和驗證。為了提高模型對于建筑物檢測提取不同場景的魯棒性和泛化性,本文對訓(xùn)練數(shù)據(jù)進(jìn)行了相應(yīng)的數(shù)據(jù)處理,通過對圖片進(jìn)行改變亮度和旋轉(zhuǎn),增加不同噪聲干擾等操作,最終得到7 200張圖片用于模型訓(xùn)練和測試。

2.3 實驗結(jié)果及對比分析

為驗證改進(jìn)方法的有效性,本文對上述改進(jìn)措施進(jìn)行消融實驗,對改進(jìn)前后的網(wǎng)絡(luò)在測試集上的交并比IoU作對比,如表1所示。表中DeepLabv3+表示骨干網(wǎng)絡(luò),MFF表示添加多層級特征融合結(jié)構(gòu)后的網(wǎng)絡(luò),BCE-Dice Loss表示改進(jìn)損失函數(shù)后的網(wǎng)絡(luò)。

從表1可以看出,改進(jìn)后的網(wǎng)絡(luò)模型對建筑物分割交并比上升了14.7%。其中,添加多層級特征融合結(jié)構(gòu)后的網(wǎng)絡(luò)交并比提升了12.5%,這說明不同層級的特征層捕捉了不同層次的信息,通過融合這些層級的特征,可以得到更豐富、更全面的表征能力,將來自不同層級的特征組合在一起,從而提供更全面、更準(zhǔn)確的信息供模型學(xué)習(xí)和決策。改進(jìn)損失函數(shù)后的網(wǎng)絡(luò)模型交并比提升了2.2%,BCE Loss主要用于二元分類問題,而Dice Loss主要用于衡量預(yù)測結(jié)果與真實標(biāo)簽的重疊度。將兩者結(jié)合使用可以綜合考慮分類準(zhǔn)確性和物體邊界匹配程度,提供更全面的損失函數(shù),從而更好地推動模型學(xué)習(xí)與分割。

網(wǎng)絡(luò)改進(jìn)前后分割結(jié)果如圖5所示。圖a)為原始圖像,圖b)為改進(jìn)前模型分割結(jié)果圖像,圖c)為改進(jìn)后模型分割結(jié)果圖。圖b)、c)中紅色掩膜為網(wǎng)絡(luò)模型預(yù)測掩膜,將之與原圖疊加得到建筑物分割結(jié)果圖。綠色圓圈圈出的建筑物相互毗鄰,在改進(jìn)前網(wǎng)絡(luò)模型分割時產(chǎn)生粘連,黃色圓圈圈出的建筑物為邊緣分割欠佳的建筑物??梢钥闯?,添加改進(jìn)措施后提高了網(wǎng)絡(luò)模型對于近鄰建筑物粘連區(qū)域的分割能力以及分割不同尺度和不同形狀目標(biāo)上的性能。通過改進(jìn)損失函數(shù)綜合考慮分類準(zhǔn)確性和物體邊界匹配程度,增強(qiáng)模型對建筑物細(xì)節(jié)的識別和分割能力。

采用改進(jìn)后的Douglas Peucker圖像后處理算法對建筑物輪廓進(jìn)行規(guī)則化校正如圖6所示,圖a)為原始圖像,圖b)為建筑物的真值標(biāo)簽,圖c)為改進(jìn)后網(wǎng)絡(luò)模型預(yù)測掩膜,圖d)為添加改進(jìn)的Douglas Peucker算法處理后的效果圖,圖e)為改進(jìn)后網(wǎng)絡(luò)模型結(jié)合改進(jìn)的Douglas Peucker算法預(yù)測結(jié)果。從圖c)中可以看出,改進(jìn)后網(wǎng)絡(luò)模型預(yù)測的掩膜圖像與真值標(biāo)簽相比仍存在差距,分割出的建筑物掩膜邊緣有鋸齒凸起、一些建筑物直角輪廓不夠清晰。

從圖d)規(guī)則化處理后的結(jié)果可以看出,改進(jìn)的Douglas Peucker圖像后處理算法進(jìn)一步改善了建筑物輪廓的質(zhì)量,減少了分割結(jié)果中的不連續(xù)和鋸齒狀邊緣,建筑物的輪廓不再由不規(guī)則曲線組成,而是由直線線段連接形成,規(guī)則化后的結(jié)果與真實輪廓更加吻合,在方正、結(jié)構(gòu)簡潔及邊緣直線特征明顯的建筑物提取任務(wù)中,添加改進(jìn)的Douglas Peucker算法,不再需要大量的人力來手動修改建筑物輪廓形狀,從而顯著減少了將建筑物提取結(jié)果應(yīng)用的時間成本。

3 結(jié)束語

本文針對語義分割算法在提取建筑物時存在分割結(jié)果粘連、輪廓線條不規(guī)則的問題,以DeepLabv3+網(wǎng)絡(luò)模型為基礎(chǔ),通過改進(jìn)其特征融合結(jié)構(gòu),提升了模型的細(xì)節(jié)信息以及語義信息獲取能力,解決近鄰建筑物分割粘連問題;通過將BCE Loss和Dice Loss結(jié)合構(gòu)建損失函數(shù),綜合考慮分類準(zhǔn)確性和物體邊界匹配程度,細(xì)化分割邊緣;通過添加改進(jìn)后的Douglas Peucker圖像后處理算法,增強(qiáng)了邊界線條的清晰度和規(guī)整性,實現(xiàn)了圖像中建筑物輪廓規(guī)則化校正。本文研究的網(wǎng)絡(luò)模型可以較準(zhǔn)確地對航空影像中建筑物目標(biāo)進(jìn)行識別分割,能夠為定位和監(jiān)測等方面的任務(wù)提供幫助。

參考文獻(xiàn):

[1] 秦偉偉, 宋泰年, 劉潔瑜, 等. 基于輕量化YOLOv3的遙感軍事目標(biāo)檢測算法[J]. 計算機(jī)工程與應(yīng)用, 2021, 57(21): 263-269.

QIN W W, SONG T N, LIU J Y, et al. Remote sensing military target detection algorithm based on lightweight YOLOv3[J]. Computer Engineering and Applications, 2021, 57(21): 263-269.

[2] 李志欣, 裴玉東, 鄭璐. 遙感處理技術(shù)應(yīng)用淺述[J]. 現(xiàn)代信息科技, 2020, 4(11): 51-53, 56.

LI Z X, PEI Y D, ZHENG L. Application of remote sensing processing technology[J]. Modern Information Technology, 2020, 4(11): 51-53, 56.

[3] 李強(qiáng), 張杰, 劉東順, 等. 基于改進(jìn)U-Net模型的航空影像建筑物變化檢測[J]. 測繪與空間地理信息, 2023, 46(9): 60-63, 67.

LI Q, ZHANG J, LIU D S, et al. Aerial image building change detection method based on improved U-net model[J]. Geomatics & Spatial Information Technology, 2023, 46(9): 60-63, 67.

[4] CHEN G, YUE X, ZHU Y, et al. Study on building extraction algorithm of remote sensing image based on multi-scale feature fusion[J]. Computer Science, 2023, 50(9):202-209.

[5] HU Y, WANG Z, HUANG Z, et al. Polybuilding: polygon transformer for building extraction[J]. ISPRS journal of photogrammetry and remote sensing, 2023.

[6] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. ArXiv e-Prints, 2020: arXiv: 2004.10 934.

[7] YU Y T, LIU C, GAO J Y, et al.Building extracton from remote sensing imagery with a high-resolution capsule networky[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19:1-5.

[8] 郭江,辛月蘭,謝琪琦.改進(jìn)DeepLabV3+的遙感圖像建筑物分割[J].激光雜志,2024,45(5):139-145.

GUO J, XIN Y L, XIE Q Q. Improved building segmentation in DeepLabV3+ remote sensing images[J]. Laser Journal,2024,45(5):139-145.

[9] 齊建偉, 王偉峰, 張樂, 等. 基于改進(jìn)DeepLabV3+算法的遙感影像建筑物變化檢測[J]. 測繪通報, 2023(4): 145-149.

QI J W, WANG W F, ZHANG (L /Y), et al. Building change detection of remote sensing image based on improved DeepLabV3+[J]. Bulletin of Surveying and Mapping, 2023(4): 145-149.

[10]LI W B, ZHAO S. Semantic segmentation of buildings in high-resolution remote sensing images based on DeepLabV3+ algorithm[J]. Journal of Physics: Conference Series, 2022, 2 400(1):012 037.

[11]CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. Proceedings of the European Conference on Computer Vision (ECCV). 2018: 801-818.

[12]王曉文, 李頂根. 基于改進(jìn)DeeplabV3+的農(nóng)村遙感圖像屋頂分割[J]. 計算機(jī)應(yīng)用與軟件, 2022, 39(7): 174-180.

WANG X W, LI D G. Solar rooftop segmentation in rural areas based on improved deeplabv3+[J]. Computer Applications and Software, 2022, 39(7): 174-180.

[13]MILLETARI F, NAVAB N, AHMADI S A. V-net: Fully convolutional neural networks for volumetric medical image segmentation[C].2016 fourth international conference on 3D vision (3DV). IEEE, 2016: 565-571.

[14]岱超, 劉萍, 史俊才, 等. 利用U型網(wǎng)絡(luò)的遙感影像建筑物規(guī)則化提取[J]. 計算機(jī)工程與應(yīng)用, 2023, 59(8): 105-116.DAI C, LIU P, SHI J C, et al. Regularized extraction of remotely sensed image buildings using U-shaped networks[J]. Computer Engineering and Applications, 2023, 59(8): 105-116.

(責(zé)任編輯:李楠)

筠连县| 莱西市| 湖北省| 洞口县| 濉溪县| 镇宁| 汉寿县| 南和县| 绥宁县| 琼结县| 孝义市| 菏泽市| 昭觉县| 交口县| 辰溪县| 峨边| 大厂| 临城县| 仙居县| 上杭县| 绥化市| 宁武县| 永清县| 玛沁县| 昆明市| 夏津县| 绥化市| 巴彦淖尔市| 安图县| 介休市| 云阳县| 宜春市| 肃宁县| 漳平市| 丹棱县| 广宗县| 安仁县| 蒲城县| 通海县| 景东| 新疆|