国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多尺度空洞卷積金字塔網(wǎng)絡(luò)建筑物提取

2021-08-06 02:20張春森劉恒恒葛英偉史書(shū)張覓

張春森 劉恒恒 葛英偉 史書(shū) 張覓

摘 要:為改善現(xiàn)有深度學(xué)習(xí)方法獲取圖像特征尺度單一、提取精度較低等問(wèn)題,提出多尺度空洞卷積金字塔網(wǎng)絡(luò)建筑物提取方法。多尺度空洞卷積金字塔網(wǎng)絡(luò)以U-Net為基礎(chǔ)模型,編碼-解碼階段采用空洞卷積替換普通卷積擴(kuò)大感受野,使得每個(gè)卷積層輸出包含比普通卷積更大范圍的特征信息,以利于獲取遙感影像中建筑物特征的全局信息,金字塔池化模塊結(jié)合U-Net跳躍連接結(jié)構(gòu)整合多尺度的特征,以獲取高分辨率全局整體信息及低分辨率局部細(xì)節(jié)信息。在WHU數(shù)據(jù)集上進(jìn)行提取實(shí)驗(yàn),交并比達(dá)到了91.876%,相比其他語(yǔ)義分割網(wǎng)絡(luò)交并比提升4.547%~10.826%,在Inria數(shù)據(jù)集上進(jìn)行泛化實(shí)驗(yàn),泛化精度高于其他網(wǎng)絡(luò)。結(jié)果表明所提出的空洞卷積金字塔網(wǎng)絡(luò)提取精度高,泛化能力強(qiáng),且在不同尺度建筑物提取上具有良好的適應(yīng)性。

關(guān)鍵詞:建筑物提取;多尺度;空洞卷積;金字塔池化

中圖分類(lèi)號(hào):P 237

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1672-9315(2021)03-0490-08

DOI:10.13800/j.cnki.xakjdxxb.2021.0314

Abstract:In order to improve the existing deep learning methods for acquiring image feature scales with single scale and low extraction accuracy,building extraction method from multi-scale dilated convolutional pyramid network is proposed based on U-Net.The dilated convolution was used in the en-decoding stage to replace ordinary convolution to expand the receptive field,resulting in the fact that the output of each convolution layer contains a larger range of feature information than ordinary convolution,which facilitates the acquisition of global information about the building features in remote sensing images.The pyramid pooling module is combined with the U-Net jump connection structure to integrate multi-scale features with high-resolution global overall information and low-resolution local detailed information obtained. The extraction experiment was conducted on the WHU dataset, and the intersection ratio reached 91.876%,an increase of 4.547%~10.826% compared to other semantic segmentation networks. The generalization experiment was performed on the Inria dataset, and the generalization accuracy was higher than that by other networks. The results show that the proposed dilated convolutional pyramid network has high extraction accuracy, high generalization ability, and strong adaptability in the extraction of buildings of different scales.

Key words:building extraction;multiscale;dilated convolution;pyramid pooling

0 引 言

建筑物作為城市的主體之一,其空間分布可以有效幫助判斷該地區(qū)城鎮(zhèn)化水平,并且對(duì)于城市規(guī)劃、違章建筑監(jiān)測(cè)等方面具有重要的意義。隨著遙感影像技術(shù)的迅猛發(fā)展,高分辨率遙感影像數(shù)據(jù)不斷涌現(xiàn),基于高分辨率遙感影像的建筑物提取成為了學(xué)者們研究的熱點(diǎn),并取得了大量的研究成果。

遙感影像建筑物提取方法主要利用建筑物的光譜特征、形狀特征、紋理特征、上下文特征、陰影特征、局部特征(直線(xiàn)與邊緣角點(diǎn))等[1]。游永發(fā)等利用建筑物光譜特征、形狀特征與上下文特征結(jié)合面向?qū)ο笈c形態(tài)學(xué)建筑物指數(shù)提取建筑物,但其受人工設(shè)計(jì)特征影響較大,與建筑物紋理、形狀接近的易錯(cuò)分,亮度、對(duì)比度低的及稀疏、尺寸大的易漏分[2];冉樹(shù)浩等利用建筑物形狀特征與陰影特征提取建筑物,但陰影交錯(cuò)重疊的區(qū)域會(huì)對(duì)結(jié)果產(chǎn)生影響[3];朱俊杰等利用建筑物幾何特征與光譜特征結(jié)合圖像分割提取建筑物,但目前已有的圖像分割算法本就面臨著過(guò)分割和欠分割的問(wèn)題[4];賀曉璐等將引入紅色邊緣波段規(guī)則面向?qū)ο蠓椒ㄌ崛〗ㄖ镄畔⒌慕Y(jié)果與基于樣本面向?qū)ο蠓椒ㄌ崛〗ㄖ镄畔⒌慕Y(jié)果進(jìn)行融合來(lái)提取建筑物[5];林祥國(guó)等將直角點(diǎn)和直角邊2種特征融合提取建筑物[6];呂鳳華等根據(jù)高分遙感影像不同尺度下特征表現(xiàn)不同提出了多層次特征建筑物提取方法[7]。

近年來(lái),深度學(xué)習(xí)技術(shù)飛速發(fā)展,相比傳統(tǒng)方法,深度學(xué)習(xí)方法可以自動(dòng)提取影像目標(biāo)的特征,避免了人工設(shè)計(jì)特征的繁瑣,且傳統(tǒng)方法通過(guò)人工設(shè)計(jì)特征帶來(lái)的一些弊端也得以避免[8-9]。FCN作為深度學(xué)習(xí)中語(yǔ)義分割的經(jīng)典之作,盡管FCN存在著語(yǔ)義信息丟失、缺乏像素之間關(guān)聯(lián)性研究等問(wèn)題,但其將編碼-解碼的結(jié)構(gòu)用于圖像語(yǔ)義分割,為后續(xù)圖像語(yǔ)義分割網(wǎng)絡(luò)的研究有著極大的貢獻(xiàn)[10]。SegNet采用了編碼-解碼的結(jié)構(gòu),相比FCN的改進(jìn)之處有上采樣過(guò)程中用反池化替代反卷積,使得參數(shù)量下降,加快了模型的訓(xùn)練速度,且在反池化過(guò)程中使用下采樣最大池化過(guò)程的位置信息,保證了高頻信息的完整性,但是在對(duì)較低分辨率的特征圖進(jìn)行反池化時(shí),會(huì)忽略鄰近像素之間的信息[11-12]。U-Net網(wǎng)絡(luò)是基于FCN的一種語(yǔ)義分割網(wǎng)絡(luò),相比FCN的改進(jìn)之處有,F(xiàn)CN通過(guò)特征逐點(diǎn)相加進(jìn)行特征融合,只是單一尺度的特征融合,而U-Net是通過(guò)特征通道拼接進(jìn)行特征融合,融合了不同尺度的特征,同時(shí)使用跳躍連接使得特征更加精細(xì)[13]。劉浩等選取U-Net為基礎(chǔ)模型,在編碼過(guò)程使用特征壓縮激活模塊使網(wǎng)絡(luò)學(xué)習(xí)特征的能力增強(qiáng),解碼過(guò)程復(fù)用編碼過(guò)程相應(yīng)尺度的特征以恢復(fù)空間信息,實(shí)現(xiàn)特征壓縮建筑物的提取[14];王舒洋等使用深度編解碼網(wǎng)絡(luò)提取建筑物的低階語(yǔ)義特征,使用多項(xiàng)式核對(duì)深度網(wǎng)絡(luò)中間特征圖進(jìn)行高階描述,將低階特征與高階描述級(jí)聯(lián)實(shí)現(xiàn)融合高階信息的建筑物提取[15];陳凱強(qiáng)等基于編解碼網(wǎng)絡(luò)CNN實(shí)現(xiàn)建筑物的提取,并使用FoVE方法減輕建筑物邊緣提取精度不高現(xiàn)象[16];惠健等將U-Net作為基礎(chǔ)模型,加入Xception模型并結(jié)合多任務(wù)學(xué)習(xí)方法來(lái)進(jìn)行建筑物的實(shí)例分割[17];崔衛(wèi)紅等選取VGG16網(wǎng)絡(luò)作為基礎(chǔ)模型,對(duì)原始影像不同尺度下采樣,獲取不同尺度的特征,并將不同尺度的特征進(jìn)行相加合并,同時(shí)上采樣過(guò)程用全卷積替換全連接層,實(shí)現(xiàn)多尺度全卷積網(wǎng)絡(luò)建筑物的提取[18]。

在U-Net基礎(chǔ)上改進(jìn)網(wǎng)絡(luò)模型,加入空洞卷積擴(kuò)大感受野,使得每個(gè)卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息。并加入金字塔池化層結(jié)合U-Net跳躍連接結(jié)構(gòu)來(lái)融入更多尺度的特征以獲取高分辨率全局整體信息及低分辨率局部細(xì)節(jié)信息,以實(shí)現(xiàn)建筑物的精提取。

1 網(wǎng)絡(luò)及算法

1.1 U-Net卷積神經(jīng)網(wǎng)絡(luò)

U-Net是全卷積神經(jīng)網(wǎng)絡(luò)FCN的一種變體,最早應(yīng)用于醫(yī)學(xué)圖像細(xì)胞壁的分割。其網(wǎng)絡(luò)結(jié)構(gòu)對(duì)稱(chēng),形似字母“U”而得名U-Net。U-Net采用了編碼-解碼的結(jié)構(gòu),并在此基礎(chǔ)上加入了跳躍連接,編碼過(guò)程通過(guò)卷積池化提取圖像特征同時(shí)丟失了位置信息,而在解碼過(guò)程恢復(fù)位置信息,跳躍連接通過(guò)特征維度拼接進(jìn)行特征融合可以獲取多尺度特征(圖1)。

1.2 空洞卷積(dilated convolution)

在將遙感圖像輸入卷積神經(jīng)網(wǎng)絡(luò)過(guò)程中,對(duì)圖像進(jìn)行連續(xù)卷積和池化或者其他下采樣操作整合多尺度上下文信息,這樣在降低圖像尺寸的同時(shí)增大感受野,會(huì)損失一些分辨率,使得一些圖像細(xì)節(jié)信息無(wú)法重建。針對(duì)以上問(wèn)題,在U-Net中利用空洞卷積增大感受野,每個(gè)卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息[19]。

空洞卷積向卷積層引入了一個(gè)“擴(kuò)張率(dilation rate)”的新參數(shù),該參數(shù)定義了卷積核處理數(shù)據(jù)時(shí)各值的間距。設(shè)置不同擴(kuò)張率時(shí),感受野會(huì)不同,從而能夠獲取遙感影像多尺度特征信息。實(shí)驗(yàn)中,根據(jù)遙感圖像的原始尺寸來(lái)設(shè)定相應(yīng)卷積神經(jīng)網(wǎng)絡(luò)中空洞卷積所提取的特征圖的大小,進(jìn)而設(shè)定空洞卷積擴(kuò)張率??斩淳矸e如圖2所示。

1.3 金字塔池化模型(pyramid pooling model,PPM)

由于U-Net獲取多尺度是通過(guò)特征維度拼接進(jìn)行特征融合實(shí)現(xiàn)的,因此其尺度有一定的局限性,因此文中將金字塔池化與U-Net跳躍連接結(jié)合起來(lái),實(shí)現(xiàn)更廣意義上的多尺度特征提取[20]。

金字塔池化將輸入特征圖經(jīng)過(guò)多種不同尺度的池化得到不同尺度的特征圖,經(jīng)過(guò)1×1卷積后特征維度壓縮為原先的1/N(N表示金字塔的層級(jí)),然后上采樣之后恢復(fù)至輸入特征圖尺寸,在通道上與輸入特征圖拼接形成多尺度特征的融合。由于金字塔池化模塊由不同尺度的池化層組成,分辨率高的池化由于其感受野大,因此可以獲取全局整體信息,分辨率低的池化,由于其感受野小,感受野受到限制,無(wú)法獲取全局整體信息,但可以獲取局部細(xì)節(jié)信息,將其進(jìn)行融合后,可以獲取影像的多尺度信息。金字塔模型如圖3所示。

1.4 空洞卷積金字塔網(wǎng)絡(luò)結(jié)構(gòu)

空洞卷積金字塔網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要分為編碼(左)-解碼(右)以及中間的金字塔池化和跳躍連接。編碼是提取影像特征的過(guò)程,網(wǎng)絡(luò)輸入512×512 RGB影像,經(jīng)過(guò)4次下采樣,每次下采前經(jīng)過(guò)一個(gè)普通卷積層、一個(gè)擴(kuò)張率為2的空洞卷積層,下采樣采用最大池化,每個(gè)卷積層后接BN層及RELU激活函數(shù),在第4次下采樣后添加Dropout正則化防止過(guò)擬合[21-22]。解碼過(guò)程對(duì)應(yīng)編碼過(guò)程進(jìn)行4次上采樣,上采樣通過(guò)轉(zhuǎn)置卷積逐層恢復(fù)圖像至原圖像大小。金字塔池化將輸入特征圖經(jīng)過(guò)4種不同尺度的平均池化得到1×1,2×2,4×4,8×8等4種尺度的特征圖,經(jīng)過(guò)1×1卷積后特征維度壓縮為原先的1/4,然后上采樣恢復(fù)至輸入特征圖尺寸,在維度上與輸入特征圖拼接。跳躍連接結(jié)構(gòu)將金字塔池化拼接的特征圖與解碼階段的特征圖特征進(jìn)行特征維度拼接結(jié)合實(shí)現(xiàn)多尺度特征融合,在對(duì)不同尺寸的建筑物提取上相比于單一尺度的網(wǎng)絡(luò)具有更好的效果。

1.5 評(píng)價(jià)指標(biāo)

文中選取語(yǔ)義分割常用的4個(gè)評(píng)價(jià)指標(biāo)(交并比IoU,準(zhǔn)確率Precision,召回率Recall,F(xiàn)1分?jǐn)?shù))來(lái)評(píng)價(jià)文中方法的精度,計(jì)算公式見(jiàn)式(1)~式(4)。

式中 TP為真實(shí)值是正例,模型預(yù)測(cè)為正例的數(shù)量;TN為真實(shí)值是負(fù)例,模型預(yù)測(cè)為負(fù)例的數(shù)量;FP為真實(shí)值是負(fù)例,模型預(yù)測(cè)為正例的數(shù)量;FN為真實(shí)值是正例,模型預(yù)測(cè)為負(fù)例的數(shù)量。

2 實(shí)驗(yàn)與分析

2.1 實(shí)驗(yàn)數(shù)據(jù)

文中實(shí)驗(yàn)使用武漢大學(xué)季順平教授團(tuán)隊(duì)提供的開(kāi)源建筑物數(shù)據(jù)集—WHU建筑物數(shù)據(jù)集中的航空影像數(shù)據(jù)集,其覆蓋新西蘭Christchurch市450 km2,包含22萬(wàn)棟形態(tài)不一的建筑物,空間分辨率為0.075 m[23],部分影像如圖5所示。

將影像裁剪成適合網(wǎng)絡(luò)輸入的512×512子圖,并分為60%訓(xùn)練集、20%驗(yàn)證集和20%測(cè)試集,得到1 096張訓(xùn)練影像,365張驗(yàn)證影像,366張測(cè)試影像。為了增強(qiáng)網(wǎng)絡(luò)的魯棒性,降低模型對(duì)某些屬性的依賴(lài),提升模型的泛化能力,因此需要對(duì)訓(xùn)練集進(jìn)行數(shù)據(jù)增強(qiáng)。對(duì)訓(xùn)練集影像進(jìn)行旋轉(zhuǎn)、翻轉(zhuǎn)、模糊處理、添加隨機(jī)噪聲和伽馬變換等數(shù)據(jù)增強(qiáng)操作,將訓(xùn)練集增加到了5 480張數(shù)據(jù)。數(shù)據(jù)增強(qiáng)后的結(jié)果如圖6所示。

2.2 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)均基于Windows下的Tensorflow框架,Python編程語(yǔ)言實(shí)現(xiàn),硬件環(huán)境CPU Intel(R)Xeon(R)E5-2630 v4,顯卡為NVIDIA Quadro M40008G內(nèi)存。采用Adam優(yōu)化器初始學(xué)習(xí)率為10-4,最低學(xué)習(xí)率不低于10-5,優(yōu)化超參數(shù)為β1=0.9,β2=0.999,δ=10-8,迭代次數(shù)設(shè)為10次,模型訓(xùn)練結(jié)果如圖7所示。

為驗(yàn)證空洞卷積金字塔網(wǎng)絡(luò)的有效性,與最大似然法、支持向量機(jī)法等傳統(tǒng)方法對(duì)比[24-25]。從圖8(c)、(d)可以看出,最大似然法和支持向量機(jī)法提取建筑物的邊界模糊,且存在“椒鹽”現(xiàn)象,明顯將路及其它與建筑物光譜相近的地物判別為建筑物,存在嚴(yán)重的錯(cuò)誤。從圖8(j)可以看出,空洞卷積金字塔網(wǎng)絡(luò)提取建筑物的邊界清晰、完整,且未存在誤判現(xiàn)象。

將空洞卷積金字塔網(wǎng)絡(luò)與經(jīng)典的深度學(xué)習(xí)方法對(duì)比,包括FCN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s,SegNet,U-Net。從圖8(e)(f)(g)可以看出,F(xiàn)CN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s算法提取的建筑物結(jié)果很粗糙。從圖8(h)可以看出,SegNet算法提取的建筑物邊界不清晰。從圖8(i)可以看出,U-Net算法提取建筑物邊界相比SegNet清晰,但存在少量“椒鹽”現(xiàn)象。從圖8(j)可以看出,空洞卷積金字塔網(wǎng)絡(luò)相比其它深度學(xué)習(xí)算法提取建筑物的邊界更加清晰、平滑、完整。且從圖8中可以看出,其他方法在小尺寸建筑物上容易出現(xiàn)漏檢,大尺寸建筑物提取不完整,而空洞卷積金字塔網(wǎng)絡(luò)對(duì)不同尺寸建筑物均可以完整的提取,說(shuō)明空洞卷積金字塔網(wǎng)絡(luò)在對(duì)不同尺度建筑物的提取上具有更好的效果。

為定量評(píng)價(jià)文中方法的有效性,統(tǒng)計(jì)深度學(xué)習(xí)方法方法的準(zhǔn)確率、召回率、F1分?jǐn)?shù)和交并比。

從表1可以看出,空洞卷積金字塔網(wǎng)絡(luò)在交并比、準(zhǔn)確率、召回率、F1分?jǐn)?shù)與其它深度學(xué)習(xí)方法相比,空洞卷積金字塔網(wǎng)絡(luò)是最優(yōu)的。相比于FCN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s,SegNet、U-Net,空洞卷積金字塔網(wǎng)絡(luò)交并比、準(zhǔn)確率、召回率及F1分?jǐn)?shù)都有很大的提升,證明了空洞卷積金字塔網(wǎng)絡(luò)的有效性。

2.3 泛化能力驗(yàn)證

通過(guò)大量實(shí)驗(yàn)對(duì)比發(fā)現(xiàn),空洞卷積金字塔網(wǎng)絡(luò)在WHU建筑物數(shù)據(jù)集上表現(xiàn)優(yōu)秀,為了充分驗(yàn)證空洞卷積金字塔網(wǎng)絡(luò)的泛化能力,采用Inria數(shù)據(jù)集[26]進(jìn)行驗(yàn)證,其中訓(xùn)練集1 000張512×512影像,驗(yàn)證集和測(cè)試集都為200張512×512影像。

從提取結(jié)果可以看出,空洞卷積金字塔網(wǎng)絡(luò)的泛化能力優(yōu)秀,無(wú)論是大型建筑物還是小型建筑物都能被很好的提取。

3 結(jié) 論

1)加入空洞卷積擴(kuò)大感受野,使得每個(gè)卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息。并加入金字塔池化層結(jié)合U-Net跳躍連接結(jié)構(gòu)來(lái)融入更多尺度的特征以獲取高分辨率全局整體信息及低分辨率局部細(xì)節(jié)信息,以實(shí)現(xiàn)建筑物的精提取。在WHU建筑物數(shù)據(jù)集進(jìn)行建筑物的提取,結(jié)果表明,空洞卷積金字塔網(wǎng)絡(luò)相比以往傳統(tǒng)方法和深度學(xué)習(xí)方法建筑物提取的精度有所上升,且在對(duì)不同尺度建筑物的提取上均具有更好的效果。

2)通過(guò)Inria數(shù)據(jù)集一方面驗(yàn)證了空洞卷積金字塔網(wǎng)絡(luò)的泛化能力,另一方面驗(yàn)證了無(wú)論是大型建筑物還是小型建筑物文中方法均表現(xiàn)優(yōu)異。

3)空洞卷積金字塔網(wǎng)絡(luò)在建筑物提取上表現(xiàn)優(yōu)異,但在其它經(jīng)典地物(道路、水體、耕地等)提取的表現(xiàn)上有待進(jìn)一步探索。

參考文獻(xiàn)(References):

[1] 王俊,秦其明,葉昕,等.高分辨率光學(xué)遙感圖像建筑物提取研究進(jìn)展[J].遙感技術(shù)與應(yīng)用,2016,31(4):653-662,701.WANG Jun,QIN Qiming,YE Xin,et al.A survey of building extraction methods from optical high resolution remote sensing imagery[J].Remote Sensing Technology and Application,2016,31(4):653-662,701.[2]游永發(fā),王思遠(yuǎn),王斌,等.高分辨率遙感影像建筑物分級(jí)提取[J].遙感學(xué)報(bào),2019,23(1):125-136.YOU Yongfa,WANG Siyuan,WANG Bin,et al.Study on hierarchical building extraction from high resolution remote sensing imagery[J].Journal of Remote Sensing,2019,23(1):125-136.[3]冉樹(shù)浩,胡玉龍,楊元維,等.基于樣本形態(tài)變換的高分遙感影像建筑物提取[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2020,54(5):996-1006.RAN Shuhao,HU Yulong,YANG Yuanwei,et al.Building extraction from high resolution remote sensing image based on samples morphological transformation[J].Journal of Zhejiang University(Engineering Science),2020,54(5):996-1006.[4]朱俊杰,范湘濤,杜小平.幾何特征表達(dá)及基于幾何特征的建筑物提取[J].應(yīng)用科學(xué)學(xué)報(bào),2015,33(1):9-20.ZHU Junjie,F(xiàn)AN Xiangtao,DU Xiaoping.Geometric feature representation and building extraction based on geometric features[J].Journal of Applied Sciences Electronics and Information Engineering,2015,33(1):9-20.[5]賀曉璐,劉振華,胡月明.基于面向?qū)ο蟮慕ㄖ镄畔⑻崛》椒ㄑ芯縖J].河南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,39(2):53-61.HE Xiaolu,LIU Zhenhua,HU Yueming.Research on object-oriented building information extraction method[J].Journal of Henan Polytechnic University(Natural Science),2020,39(2):53-61.[6]林祥國(guó),寧曉剛.融合直角點(diǎn)和直角邊特征的高分辨率遙感影像居民點(diǎn)提取方法[J].測(cè)繪學(xué)報(bào),2017,46(1):83-89.LIN Xiangguo,NING Xiaogang.Extraction of human settlements from high resolution remote sensing imagery by fusing features of right angle corners and right angle sides[J].Acta Geodaetica et Cartographica Sinica,2017,46(1):83-89.[7]呂鳳華,舒寧,龔龑?zhuān)?利用多特征進(jìn)行航空影像建筑物提取[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2017,42(5):656-660.LV Fenghua,SHU Ning,GONG Yan,et al,Regular building extraction from high resolution image based on multilevel-features[J].Geomatics and Information Science of Wuhan University,2017,42(5):656-660.[8]仲志丹,樊浩杰,李鵬輝.基于稀疏自編碼神經(jīng)網(wǎng)絡(luò)的抽油機(jī)井故障診斷[J].西安科技大學(xué)學(xué)報(bào),2018,38(4):669-675.ZHONG Zhidan,F(xiàn)AN Haojie,LI Penghui.Fault diagnosis of pumping well based on sparse auto-encoder neural network[J].Journal of Xian University of Science and Technology,2018,38(4):669-675.[9]范榮雙,陳洋,徐啟恒,等.基于深度學(xué)習(xí)的高分辨率遙感影像建筑物提取方法[J].測(cè)繪學(xué)報(bào),2019,48(1):34-41.FAN Rongshuang,CHEN Yang,XU Qiheng,et al.A high-resolution remote sensing image building extraction method based on deep learning[J].Acta Geodaetica et Cartographica Sinica,2019,48(1):34-41.[10]LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(4):640-651.[11]BADRINARAYANAN V,KENDALL A,CIPOLLA R.SegNet:A deep convolutional encoder-decoder architecture for image segmentation[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(12):2481-2495.[12]張春森,葛英偉,蔣蕭.基于稀疏約束SegNet的高分辨率遙感影像建筑物提取[J].西安科技大學(xué)學(xué)報(bào),2020,40(3):441-448.ZHANG Chunsen,GE Yingwei,JIANG Xiao.High-resolution remote sensing image building extraction based on sparsely constrained SegNet[J].Journal of Xian University of Science and Technology,2020,40(3):441-448.[13]RONNEBERGER O,F(xiàn)ISCHER P,BROX T.U-Net:Convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Springer,Cham,2015:234-241.[14]劉浩,駱劍承,黃波,等.基于特征壓縮激活Unet網(wǎng)絡(luò)的建筑物提取[J].地球信息科學(xué)學(xué)報(bào),2019,21(11):1779-1789.LIU Hao,LUO Jiancheng,HUANG Bo,et al.Building extraction based on SE-Unet[J].Journal of Geo-information Science,2019,21(11):1779-1789.[15]王舒洋,慕曉冬,楊東方,等.融合高階信息的遙感影像建筑物自動(dòng)提取[J].光學(xué)精密工程,2019,27(11):2474-2483.WANG Shuyang,MU Xiaodong,YANG Dongfang,et al.High-order statistics integration method for automatic building extraction of remote sensing images[J].Optics and Precision Engineering,2019,27(11):2474-2483.[16]陳凱強(qiáng),高鑫,閆夢(mèng)龍,等.基于編解碼網(wǎng)絡(luò)的航空影像像素級(jí)建筑物提取[J].遙感學(xué)報(bào),2020,24(9):1134-1142.CHEN Kaiqiang,GAO Xin,YAN Menglong,et al.Building extraction in pixel level from aerial imagery with a deep encoder-decoder network[J].Journal of Remote Sensing(Chinese),2020,24(9):1134-1142.[17]惠健,秦其明,許偉,等.基于多任務(wù)學(xué)習(xí)的高分辨率遙感影像建筑實(shí)例分割[J].北京大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,55(6):1067-1077.HUI Jian,QIN Qiming,XU Wei,et al.Instance segmentation of buildings from high-resolution remote sensing images with multitask learning[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2019,55(6):1067-1077.[18]崔衛(wèi)紅,熊寶玉,張麗瑤.多尺度全卷積神經(jīng)網(wǎng)絡(luò)建筑物提取[J].測(cè)繪學(xué)報(bào),2019,48(5):597-608.CUI Weihong,XIONG Baoyu,ZHANG Liyao.Multi-scale fully convolutional neural network for building extraction[J].Acta Geodaetica et Cartographica Sinica,2019,48(5):597-608.[19]季順平,田思琦,張馳.利用全空洞卷積神經(jīng)元網(wǎng)絡(luò)進(jìn)行城市土地覆蓋分類(lèi)與變化檢測(cè)[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2020,45(2):233-241.JI Shunping,TIAN Siqi,ZHANG Chi.Urban land cover classification and change detection using fully atrous convolutional neural network[J].Geomatics and Information Science of Wuhan University,2020,45(2):233-241.[20]ZHAO H,SHI J,QI X,et al.Pyramid scene parsing network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).IEEE,2017:2881-2890.

[21]IOFFE S,SZEGEDY C.Batch normalization:Accelerating deep network training by reducing internal covariate Shift[C]//International conference on machine learning.PMLR,2015:448-456.[22]HINTON G E,SRIVASTAVA N,KRIZHEVSKY A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].Computer Ence,2012,3(4):212-223.[23]JI S P,SHI Q.Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set[J].IEEE Transactions on Geoence and Remote Sensing,2019,57(1):574-586.[24]王旭東,段福洲,屈新原,等.面向?qū)ο蠛蚐VM結(jié)合的無(wú)人機(jī)數(shù)據(jù)建筑物提取[J].國(guó)土資源遙感,2017,29(1):97-103.WANG Xudong,DUAN Fuzhou,QU Xinyuan,et al.Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier[J].Remote Sensing for Land and Resources,2017,29(1):97-103.[25]李遠(yuǎn)成,劉斌.應(yīng)用主動(dòng)學(xué)習(xí)SVM的網(wǎng)絡(luò)流量分類(lèi)方法[J].西安科技大學(xué)學(xué)報(bào),2017,37(5):742-749.LI Yuancheng,LIU Bin.Network traffic classification method based on active learning support vector machine[J].Journal of Xian University of Science and Technology,2017,37(5):742-749.[26]MAGGIORI E,TARABALKA Y,CHARPIAT G,et al.Can semantic labeling methods generalize to any city? The inria aerial image Labeling benchmark[C]//Igarss IEEE International Geoscience & Remote Sensing Symposium.IEEE,2017:3226-3229.

泸西县| 台湾省| 德化县| 邓州市| 镇沅| 铜川市| 丰城市| 西宁市| 宁乡县| 嘉峪关市| 丽江市| 故城县| 衢州市| 子长县| 稷山县| 文水县| 禹州市| 甘洛县| 黄平县| 保靖县| 辽阳县| 安多县| 济宁市| 包头市| 德昌县| 靖宇县| 宁蒗| 东台市| 旬邑县| 淮滨县| 中宁县| 安丘市| 葵青区| 安溪县| 华蓥市| 昭苏县| 闸北区| 聊城市| 乳山市| 东平县| 彭泽县|