張新華,黃夢(mèng)醒,張 雨,李玉春,單怡晴,馮思玲
(1.海南大學(xué) 計(jì)算機(jī)與網(wǎng)絡(luò)空間安全學(xué)院,???570228;2.海南大學(xué) 信息與通信工程學(xué)院,海口 570228)
道路是影響自動(dòng)駕駛技術(shù)的重要因素,道路的精確度影響地圖的準(zhǔn)確性,但是由于社會(huì)的快速發(fā)展,道路規(guī)劃的頻率也越來(lái)越快[1-3]。目前獲取道路的方式有:使用車載激光掃描設(shè)備,通過(guò)遍歷掃描信息的方式獲取路面信息,但是人力物力耗資巨大;使用航空或者衛(wèi)星圖像,通過(guò)技術(shù)方法獲取道路信息,能夠節(jié)省大量的人力和時(shí)間[4-6]。
近年來(lái),深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)、圖像分類及圖像分割等領(lǐng)域取得重大的成果。深度學(xué)習(xí)特殊的網(wǎng)絡(luò)結(jié)構(gòu)可以通過(guò)神經(jīng)元將提取的特征值傳遞,每一層對(duì)上一層傳遞的特征再進(jìn)行提取學(xué)習(xí)繼續(xù)傳遞,從而提取最優(yōu)的特征值[7-9]。在圖像語(yǔ)義分割領(lǐng)域的方法包括AlexNet、FCN、U_Net、SegNet以及ResNet。AlexNet實(shí)現(xiàn)了在卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)中成功應(yīng)用ReLU、Dropout 和LRN(Local Response Normalization)等Trick[10];FCN 將AlexNet、VGG 全連接層改為卷積層,F(xiàn)CN[11]下采樣對(duì)圖像進(jìn)行特征提取,對(duì)上采樣進(jìn)行反卷積,保證輸出圖像和輸入圖像大小相同;NOH[12]等在FCN 網(wǎng)絡(luò)架構(gòu)的基礎(chǔ)上,提出學(xué)習(xí)一個(gè)多層反卷積網(wǎng)絡(luò)代替簡(jiǎn)單的雙線性插值;BADRINARAYANAA 等[13]提出SegNet 基于編碼器-解碼器架構(gòu),卷積層和池化層組成了編碼器,卷積層和上采樣層組成了解碼器。編碼器的作用是提取特征圖像,解碼器的作用是將特征圖像返回到和輸入圖像大小一致。
SegNet 與反卷積網(wǎng)絡(luò)相同點(diǎn)是網(wǎng)絡(luò)結(jié)構(gòu)相似,不同點(diǎn)是SegNet 去除了網(wǎng)絡(luò)中間的2 個(gè)全連接層,并采用Batch Normalization 方法和Softmax 分類器;SegNet的優(yōu)點(diǎn)是效率高、消耗內(nèi)存少,缺點(diǎn)是精度不高;FCN和SegNet 網(wǎng)絡(luò)中引入池化層,優(yōu)點(diǎn)是在減小圖像大小的同時(shí)增大感受野,缺點(diǎn)是部分位置信息丟失。
YU 等[14]設(shè)計(jì)一種專用于圖像像素預(yù)測(cè)的網(wǎng)絡(luò),該網(wǎng)絡(luò)不包含池化層,并且卷積層采用擴(kuò)張卷積。該網(wǎng)絡(luò)的優(yōu)點(diǎn)是擴(kuò)張卷積增大卷積核的感受野,可以將捕獲的圖像多尺度上下文信息融合,提高像素預(yù)測(cè)的準(zhǔn)確率。
ResNet[15-16]殘差網(wǎng)絡(luò)內(nèi)部的殘差塊使用跳躍連接,優(yōu)點(diǎn)是減少隨著神經(jīng)網(wǎng)絡(luò)深度增加引起的梯度消失問(wèn)題。RONNEBERGER 等[17]提出的U-Net 網(wǎng)絡(luò),利用編碼器與解碼器之間的級(jí)聯(lián)操作將圖像高層信息與淺層信息融合,優(yōu)點(diǎn)是避免高層語(yǔ)義信息的丟失,盡可能性地保留圖像特征。深度學(xué)習(xí)可以通過(guò)計(jì)算機(jī)實(shí)現(xiàn)目標(biāo)對(duì)象的分割和提取,并且通過(guò)特殊的網(wǎng)絡(luò)模型學(xué)習(xí)較低層次和較高層次的特征,具有較高的學(xué)習(xí)效率[18]。深度學(xué)習(xí)對(duì)圖像特征要素的分割,可以通過(guò)大量的數(shù)據(jù)實(shí)驗(yàn)取得較好的實(shí)驗(yàn)效果。因此,可利用深度學(xué)習(xí)算法對(duì)衛(wèi)星圖像道路分割提取特征圖。
針對(duì)道路分割時(shí)存在混淆和識(shí)別不清等問(wèn)題,本文在U_Net 基礎(chǔ)上,提出一種基于密集連接塊[19]、ASPP[20]和CBAM[21]的衛(wèi)星道路圖像語(yǔ)義分割算法。在融合圖像特征信息時(shí)通過(guò)注意力監(jiān)督機(jī)制輸入圖像特定部分,以提高衛(wèi)星圖像道路分割的精確度。
考慮到U-Net 網(wǎng)絡(luò)在圖像語(yǔ)義分割和密集連接網(wǎng)絡(luò)方面的優(yōu)越性,本文構(gòu)建基于U-Net 結(jié)構(gòu)的道路語(yǔ)義分割模型。其網(wǎng)絡(luò)結(jié)構(gòu)由編碼器、解碼器、密集連接模塊、ASPP 和CBAM 組成。
1)編碼器部分。包括密集連接模塊和最大池化層。密集連接模塊通過(guò)卷積層來(lái)提取圖像的語(yǔ)義特征,最大池化層對(duì)圖像的特征信息進(jìn)行下采樣操作。
2)密集連接模塊。對(duì)上一層的圖像特征再利用;引入ASPP 增加圖像特征信息的感受野,提高圖像特征的魯棒性;引入CBAM 在學(xué)習(xí)深層次的特征信息時(shí)進(jìn)行注意力監(jiān)督,可有效提取道路要素的特征信息。
3)解碼器部分。包括密集連接模塊和反卷積層。反卷積層對(duì)圖像特征信息進(jìn)行上采樣操作,使得輸入圖像和輸出圖像大小不變。
算法實(shí)現(xiàn)過(guò)程包括網(wǎng)絡(luò)設(shè)計(jì)、網(wǎng)絡(luò)搭建、獲取數(shù)據(jù)、對(duì)數(shù)據(jù)進(jìn)行預(yù)處理和擴(kuò)大數(shù)據(jù)[22]。算法流程如圖1所示。
圖1 本文算法流程Fig.1 Procedure of this proposed algorithm
本文網(wǎng)絡(luò)結(jié)構(gòu)在原始U-Net 網(wǎng)絡(luò)基礎(chǔ)上引入密集連接模塊、ASPP 和CBAM 模塊。其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
圖2 本文模型網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure of proposed model
輸入圖像大小為480×480,密集連接模塊包括2 次卷積和2 次特征融合,圖像大小保持不變?yōu)?80×480。經(jīng)過(guò)最大池化層,圖像大小為原來(lái)的1/2,即240×240。將密集連接模塊和最大池化操作記為1 個(gè)操作單元。然后進(jìn)行3 次操作單元,圖像大小變成30×30 的特征圖。在對(duì)特征圖進(jìn)行反卷積(上采樣)前引入ASPP 和CBAM,ASPP 可以融合更深層次的圖像細(xì)節(jié)信息;CBAM 不影響特征圖的大小,網(wǎng)絡(luò)學(xué)習(xí)將通道和空間注意力模型的特征圖和權(quán)重圖點(diǎn)乘融合,然后將融合后結(jié)果圖輸入到反卷積層(上采樣)中。在上采樣時(shí)進(jìn)行反卷積,圖像大小擴(kuò)大為2 倍,即60×60,再經(jīng)過(guò)密集連接模塊,圖像大小仍為60×60。最后進(jìn)行3 次操作單元(上采樣與密集連接模塊),圖像大小恢復(fù)為480×480。本文算法模型中各層的參數(shù)設(shè)置如表1 所示。
表1 網(wǎng)絡(luò)各層的參數(shù)設(shè)置Table 1 Parameter settings of each layer of the network
1.2.1 密集連接
在深度學(xué)習(xí)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)深度的加深,梯度消失問(wèn)題會(huì)愈加明顯,本文參考DenseNet 中密集連接的概念,引入密集連接模塊。在保證網(wǎng)絡(luò)中層與層之間最大程度信息傳輸?shù)那疤嵯?,將所有層連接起來(lái)。為能夠保證前饋的特性,每一層將之前所有層的輸入進(jìn)行拼接,之后將輸出的特征圖傳遞給之后的所有層。
操作過(guò)程為:輸入圖像大小為480×480,密集連接模塊包括2 次卷積和2 次特征融合,卷積核的大小為3×3,步長(zhǎng)為2,卷積核的個(gè)數(shù)為64;經(jīng)過(guò)4 次密集連接模塊和池化操作后,得到30×30 大小的特征圖。密集連接模塊如圖3 所示。
圖3 密集連接模塊Fig.3 Densely connected modules
每個(gè)卷積層與激活函數(shù)之間添加批量歸一化層(Batch Normalization,BN),即在每次隨機(jī)梯度下降時(shí)對(duì)每個(gè)批處理的數(shù)據(jù)做歸一化操作,使得輸出特征圖中每個(gè)通道數(shù)據(jù)的均值為0,方差為1,減少了網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中梯度消失的問(wèn)題,引入ReLu 激活層對(duì)特征進(jìn)行激活。
1.2.2 空洞空間金字塔結(jié)構(gòu)
在上采樣前引入帶有空洞卷積的空間金字塔結(jié)構(gòu)(ASPP)??斩纯臻g金字塔結(jié)構(gòu)基本要素是不同擴(kuò)張率的空洞卷積??斩淳矸e的優(yōu)點(diǎn)是:在不增加參數(shù)的情況下,增大卷積核的感受野,在下采樣不損失信息的情況下,卷積輸出范圍更大的空間信息使得網(wǎng)絡(luò)保留了更多的圖像特征。本文的空洞卷積的卷積核為3×3,擴(kuò)張率為2、4、8、16 的空洞卷積替換了原來(lái)的普通卷積,使得該模型分割道路圖像更加清晰,如圖4 所示。
圖4 空洞卷積模型Fig.4 Dilated convolution model
ASPP 對(duì)輸入的特征圖進(jìn)行6 次卷積操作。第1次卷積:卷積核大小為1×1;第2 次~第5 次卷積為:卷積核大小為3×3,擴(kuò)張率為2、4、8、16 的空洞卷積替換了原來(lái)的普通卷積,獲得多尺度特征信息。引入平均池化,對(duì)輸入的特征圖進(jìn)行全局均值池化后,將特征圖送入大小為1×1 卷積核,使用BN 操作和上采樣到圖像原始大小。然后將融合6 個(gè)多尺度的特征圖送入大小為1×1 卷積層中,最后將輸出特征圖送入到注意力機(jī)制模型中。ASPP 網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
圖5 ASPP 網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 ASPP network structure
1.2.3 注意力機(jī)制模塊
在ASPP 后及上采樣前引入CBAM,CBAM 模塊(包括通道注意力和空間注意力2 個(gè)子模塊)如圖6、圖7 和圖8 所示。
圖6 注意力模型總體結(jié)構(gòu)Fig.6 Overall structure of attention model
圖7 通道注意力子圖Fig.7 Channel attention subgraph
圖8 空間注意力子圖Fig.8 Spatial attention subgraph
輸入特征圖經(jīng)過(guò)通道注意力子模塊和空間注意力子模塊后,將2 個(gè)子模塊輸出結(jié)果相乘后的特征圖送入編碼階段進(jìn)行上采樣。CBAM 通過(guò)空間和通道學(xué)習(xí)更深層次的特征信息時(shí)進(jìn)行注意力監(jiān)督,可以有效提取道路要素的特征信息,其實(shí)現(xiàn)過(guò)程如下:
其中:F經(jīng)過(guò)通道注意力模塊和空間注意力模塊操作后的特征圖分別為F′和F″;?表示逐元素相乘。
通道注意力模塊實(shí)現(xiàn)過(guò)程為:對(duì)輸入特征圖F進(jìn)行全局平均池化(AvgPool)和全局最大池化(MaxPool),結(jié)果分別為a1、b1,然后將a1、b1通過(guò)多層感知機(jī)(Multi-Layer Perceptron,MLP)得到特征要素A、B相加得到C1;通道注意力特征是C1與F融合的結(jié)果。運(yùn)算過(guò)程如下:
其 中:W0和W1為MLP 的兩層參數(shù);σ為sigmod 激 活函數(shù);W0需要使用Relu 函數(shù)激活。
空間注意力模塊實(shí)現(xiàn)過(guò)程為:對(duì)輸入特征圖進(jìn)行平均池化和最大池化的結(jié)果為a2、b2,然后將a2和b2融合進(jìn)行3×3 卷積操作得到特征圖C2;空間注意力特征是C2與F融合的結(jié)果。運(yùn)算過(guò)程如下:
其中:f表示3×3 卷積操作。
本文對(duì)獲取的衛(wèi)星道路圖像信息優(yōu)化,淘汰不存在道路要素的圖像。OpenStreetMap 首先根據(jù)經(jīng)緯度截取道路圖像的坐標(biāo)值,然后根據(jù)端點(diǎn)坐標(biāo)數(shù)據(jù)定位在Mapbox 中相應(yīng)的位置,使用Labelme 對(duì)數(shù)據(jù)進(jìn)行標(biāo)注。為解決獲取的圖像尺寸不同、圖像內(nèi)容不清晰、數(shù)據(jù)量較大、訓(xùn)練速度慢等問(wèn)題,將截取的圖像通過(guò)預(yù)處理調(diào)整大小為480×480,提高模型的訓(xùn)練速度[23]。本文采用隨機(jī)翻轉(zhuǎn)、圖像加噪、增加圖像亮度等方法來(lái)增強(qiáng)數(shù)據(jù),避免網(wǎng)絡(luò)出現(xiàn)過(guò)擬合現(xiàn)象,更好地訓(xùn)練網(wǎng)絡(luò)模型[24]。衛(wèi)星道路圖像預(yù)處理過(guò)程如9 所示。
圖9 數(shù)據(jù)預(yù)處理過(guò)程Fig.9 Data preprocessing process
將每張衛(wèi)星道路圖像的像素點(diǎn)分為3 類,如表2 所示。實(shí)驗(yàn)數(shù)據(jù)、實(shí)驗(yàn)環(huán)境和參數(shù)的設(shè)置如表3 所示。
表2 語(yǔ)義分割類別Table 2 Semantic segmentation categories
表3 參數(shù)設(shè)置Table 3 Parameter settings
采用準(zhǔn)確率(Accuracy)、召回率(Recall)和精確率(Precision)3 個(gè)性能指標(biāo)對(duì)本文算法分割效果進(jìn)行評(píng)估[25]。U-Net 和本文算法在訓(xùn)練過(guò)程中精準(zhǔn)率和損失函數(shù)分析結(jié)果如圖10、圖11 所示。
圖10 網(wǎng)絡(luò)訓(xùn)練階段精度比變化Fig.10 Accuracy ratio change of network training
圖11 網(wǎng)絡(luò)訓(xùn)練階段Loss 變化Fig.11 Loss changes of network trainingstage
從圖10 可以看出:在訓(xùn)練過(guò)程中經(jīng)過(guò)20 輪迭代,本文算法的準(zhǔn)確率永遠(yuǎn)高于U-Net,證明本文算法分割道路圖像的可行性。
從圖11 可以看出:在訓(xùn)練過(guò)程中經(jīng)過(guò)20 輪迭代,U-Net 的損失曲線永遠(yuǎn)高于本文算法,本文算法的損失曲線比U-Net 提前達(dá)到穩(wěn)定值,損失值越小,表示模型的擬合效果越好;損失曲線越光滑,表示模型的魯棒性越強(qiáng);根據(jù)曲線變化可得本文具有較高的魯棒性。
實(shí)驗(yàn)1研究不同改進(jìn)策略對(duì)道路圖像語(yǔ)義分割性能影響。實(shí)驗(yàn)結(jié)果如表4 所示,其中粗體為最優(yōu)值。
表4 不同策略的結(jié)果對(duì)比Table 4 Results comparison of different strategies
從表4 可以看出:在U-Net 基礎(chǔ)上分別引入密集連接模塊、ASPP 和CBAM,準(zhǔn)確率分別提升了0.2、0.3 和0.4 個(gè)百分點(diǎn),召回率分別提升了0.3、0.5 和0.9 個(gè)百分點(diǎn),精確率分別提升了0.3、0.2 和0.3 個(gè)百分點(diǎn)。通過(guò)性能指標(biāo)結(jié)果可得:引入密集連接模塊、ASPP 和CBAM 能夠有效利用圖像上下文信息,提升網(wǎng)絡(luò)模型的性能。特別是在下采樣時(shí)引入密集連接模塊可以保留更多的圖像信息,圖像分割結(jié)果的精確率達(dá)到95.5%。實(shí)驗(yàn)結(jié)果如圖12 所示。
圖12 不同改進(jìn)策略實(shí)驗(yàn)結(jié)果Fig.12 Experimental results of different improvement strategies
從圖12 可以看出:在U-Net 網(wǎng)絡(luò)基礎(chǔ)上分別引入密集連接模塊、ASPP 和CBAM 分割的道路元素比原始的U-Net 更清晰,但仍存在道路線和道路面分割中斷和未分割的情況,說(shuō)明分別引入3 種不同的改進(jìn)策略對(duì)道路元素的分割存在缺陷,對(duì)道路元素分割的準(zhǔn)確性仍需要提高。
實(shí)驗(yàn)2研究不同改進(jìn)策略相互結(jié)合對(duì)道路圖像語(yǔ)義分割性能影響。實(shí)驗(yàn)結(jié)果如表5 所示,其中粗體為最優(yōu)值。
表5 不同改進(jìn)策略結(jié)合的結(jié)果對(duì)比Table 5 Results comparison of different improvement strategies combining
從表5 可以看出:在U-Net 模型中引入密集連接模塊、ASPP 和CBAM,任意兩者結(jié)合,準(zhǔn)確率、召回率和精確率都比分別引入3 種改進(jìn)策略有所提高。實(shí)驗(yàn)結(jié)果表明,同時(shí)結(jié)合3 種改進(jìn)策略的準(zhǔn)確率、召回率和精確率具有更優(yōu)異的表現(xiàn),驗(yàn)證了本文算法的有效性。特別是在U-Net 引入密集連接模塊的基礎(chǔ)上再分別引入ASPP 和CBAM 后,準(zhǔn)確率比U-Net引入密集連接模塊提高了0.3 和0.4 個(gè)百分點(diǎn)。實(shí)驗(yàn)結(jié)果如圖13 所示。
圖13 不同改進(jìn)策略相結(jié)合的實(shí)驗(yàn)結(jié)果Fig.13 Experimental results of different improvement strategies combining
從圖13 可以看出:將改進(jìn)策略相互結(jié)合更大限度地讀取了圖像的特征信息,提高道路圖像語(yǔ)義分割的結(jié)果,但仍存在對(duì)部分道路線元素分割能力較差。根據(jù)實(shí)驗(yàn)結(jié)果對(duì)比可得,U-Net 結(jié)合ASPP 和CBAM 模塊對(duì)道路語(yǔ)義分割效果更佳,原因是ASPP融合多尺度的圖像特征信息,而且CBAM 提高網(wǎng)絡(luò)對(duì)目標(biāo)區(qū)域的關(guān)注。在此基礎(chǔ)上本文算法同時(shí)結(jié)合3 種改進(jìn)策略,能夠清楚地分割出道路線、道路面和背景,尤其是提高道路線的分割準(zhǔn)確性更為明顯。
實(shí)驗(yàn)3研究空洞卷積擴(kuò)張率對(duì)算法性能的影響。本文研究在ASPP 模塊中采用正常卷積和空洞卷積對(duì)道路語(yǔ)義分割結(jié)果的影響。實(shí)驗(yàn)結(jié)果如表6所示,其中粗體為最優(yōu)值。
表6 空洞卷積擴(kuò)張率對(duì)網(wǎng)絡(luò)性能的影響Table 6 Impact of the dilated convolution expansion rate on network performance
從表6 可以看出:正常卷積(C1)在一個(gè)小區(qū)域內(nèi)獲取圖像特征信息,分割效果較差;空洞卷積(C2,C3,C4)在不增加參數(shù)的情況下,增大卷積核的感受野,卷積輸出范圍更大的空間信息,使得網(wǎng)絡(luò)保留了更多的圖像特征。因此,采用空洞卷積的分割效果要優(yōu)于正常卷積。為驗(yàn)證擴(kuò)張率對(duì)網(wǎng)絡(luò)性能的影響,ASPP 采用不同擴(kuò)張率組合。實(shí)驗(yàn)結(jié)果表明,隨著擴(kuò)張率的增加,語(yǔ)義分割的準(zhǔn)確率、召回率和精確率均有所提高。但是當(dāng)空洞卷積為C4 時(shí),圖像特征信息的關(guān)聯(lián)性減弱,降低了分割效果。因此,本文采用ASPP 空洞卷積的擴(kuò)張率為2、4、8、16。
實(shí)驗(yàn)4研究本文算法在速度方面的對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表7 所示,其中粗體為最優(yōu)值。
表7 本文算法速度對(duì)比Table 7 Comparison of algorithm speed in this paper
當(dāng)訓(xùn)練樣本為1 057 張圖像時(shí),本文算法的訓(xùn)練時(shí)間比U-Net 多0.51 h,驗(yàn)證速度慢2.19 frame/s,測(cè)試速度慢0.64 frame/s。當(dāng)訓(xùn)練樣本為3 000 張圖像時(shí),本文算法的訓(xùn)練時(shí)間比U-Net 多1.55 h,驗(yàn)證速度慢1.64 frame/s,測(cè)試速度慢0.56 frame/s。分析結(jié)果表明:網(wǎng)絡(luò)模型計(jì)算量越大,語(yǔ)義分割的速度越慢,但語(yǔ)義分割的準(zhǔn)確率越高,證明了本文算法在道路圖像語(yǔ)義分割方面的有效性。
實(shí)驗(yàn)5研究不同算法對(duì)道路圖像語(yǔ)義分割的性能指標(biāo)對(duì)比結(jié)果。實(shí)驗(yàn)結(jié)果如圖14 所示。
圖14 不同算法的道路分割結(jié)果Fig.14 Road segmentation results of different algorithms
從圖14 可以看出:本文算法融合了多尺度的圖像并專注于特定的圖像信息,提高了道路語(yǔ)義分割精確度,可以清晰地識(shí)別出道路圖像中的道路面、道路線和背景3 個(gè)要素。
將不同算法對(duì)道路圖像的3 種要素(道路面、道路線和背景)語(yǔ)義分割的準(zhǔn)確率、召回率和精確率進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果如表8 所示。
表8 性能指標(biāo)對(duì)比分析Table 8 Comparative analysis of performance indicators
橫向?qū)Ρ缺? 性能指標(biāo)結(jié)果可得:道路面和背景的分割結(jié)果好于道路線。主要原因是3 個(gè)要素在實(shí)驗(yàn)數(shù)據(jù)中的覆蓋率不同,在模型訓(xùn)練過(guò)程中根據(jù)要素閾值進(jìn)行篩選,從而出現(xiàn)3個(gè)要素語(yǔ)義分割不等價(jià)的情況。
縱向?qū)Ρ缺? 性能指標(biāo)結(jié)果可得:本文算法語(yǔ)義分割結(jié)果好于其他語(yǔ)義分割模型。FCN 保證輸出圖像和輸入圖像大小一樣,語(yǔ)義分割準(zhǔn)確率達(dá)0.948,但是在下采樣過(guò)程中丟失了圖像部分特征信息。SegNet引入歸一化方法和Softmax 分類器,但池化層的存在導(dǎo)致了圖像位置信息丟失,SegNet 比FCN 道路圖像語(yǔ)義分割的精確度提高了0.5 個(gè)百分點(diǎn)。U-Net通過(guò)編碼器與解碼器之間的級(jí)聯(lián)操作融合圖像高層信息與淺層信息,U-Net 比FCN 和SegNet 減少語(yǔ)義信息的丟失,保留了圖像細(xì)節(jié)。U-Net 語(yǔ)義分割的準(zhǔn)確率為0.959,比FCN和SegNet語(yǔ)義分割準(zhǔn)確率提高了0.7 和0.2 個(gè)百分點(diǎn)。本文算法相比U-net 對(duì)道路圖像語(yǔ)義分割平均準(zhǔn)確率提升了0.8 個(gè)百分點(diǎn)。本文算法相比U-Net 在道路線、道路面和背景語(yǔ)義分割準(zhǔn)確率分別提升了0.6、1.2、0.7個(gè)百分點(diǎn),主要是是因?yàn)楸疚乃惴ㄔ赨-Net 網(wǎng)絡(luò)的基礎(chǔ)上引入密集連接模塊,ASPP 可以融合多尺度的圖像特征信息,而注意力機(jī)制模型對(duì)關(guān)鍵信息的權(quán)值加重,提高神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)區(qū)域的關(guān)注,專注于輸入圖像特定部分。
本文設(shè)計(jì)一種改進(jìn)的U-Net 網(wǎng)絡(luò)結(jié)構(gòu),該網(wǎng)絡(luò)結(jié)構(gòu)在下采樣時(shí)引入密集連接模塊,在上采樣前引入ASPP 和CBAM,從而對(duì)衛(wèi)星圖像道路元素做出準(zhǔn)確的分割。實(shí)驗(yàn)結(jié)果表明,與FCN、SegNet 和U-Net等傳統(tǒng)網(wǎng)絡(luò)相比,該網(wǎng)絡(luò)對(duì)道路要素分割的準(zhǔn)確率更高。下一步將繼續(xù)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,提高網(wǎng)絡(luò)運(yùn)行速度和語(yǔ)義分割的精確度,以更清晰地識(shí)別出道路圖像信息。