摘要: 準確的冬小麥空間分布數(shù)據(jù)對于政府相關(guān)部門指導(dǎo)農(nóng)業(yè)生產(chǎn)、優(yōu)化產(chǎn)業(yè)結(jié)構(gòu)具有重要意義。本文針對從高分辨率遙感影像上獲取冬小麥空間分布數(shù)據(jù)的需要,建立了一種基于卷積神經(jīng)網(wǎng)絡(luò)的高效語義分割模型(Dense-UCoordNet),用于獲取高精度冬小麥空間分布信息。Dense-U-Coord Net 模型以DenseNet 為骨干網(wǎng)絡(luò)建立了一種“U”型網(wǎng)絡(luò)結(jié)構(gòu),利用密集連接的方式實現(xiàn)不同層次特征的融合;以坐標注意力機制(coordinate attention)和OCR 模塊(object-contextual representations)為基礎(chǔ)建立了一種多維度特征注意力機制,用于根據(jù)上下文信息以及空間位置信息對通過融合生成的特征進行優(yōu)化,以提高模型生成一致性特征的能力。Dense-U-Coord Net 使用Softmax 作為分類器實現(xiàn)圖像分割,提取出冬小麥空間分布數(shù)據(jù)。選擇河北省邯鄲市館陶縣為研究區(qū),GF-6PMS(Gaofen-6 Panchromatic andMultispectral Scanner)遙感影像為數(shù)據(jù)源,選擇SVM、U-Net、ERFNet和RefineNet 模型作為對比模型開展對比實驗。實驗結(jié)果表明,Dense-U-Coord Net 模型的查準率Precision(92.5%)、查全率Recall (93.4%)、平均像素精度MPA(94.2%)、和MIou指數(shù)(91.7%)均優(yōu)于對比模型,證明了Dense-U-Coord Net 在提取冬小麥空間分布信息方面具有優(yōu)勢。本文提出的方法能夠為現(xiàn)代農(nóng)業(yè)提供基礎(chǔ)數(shù)據(jù)。
關(guān)鍵詞: 冬小麥;人工神經(jīng)網(wǎng)絡(luò);遙感圖像處理;注意力模型;圖像分割
中圖法分類號: TP751.1 文獻標識碼: A 文章編號: 1000-2324(2024)06-0914-11
冬小麥是我國重要的糧食作物之一,其精確的空間分布信息是進行糧食估產(chǎn)和農(nóng)業(yè)管理的重要數(shù)據(jù),對于優(yōu)化農(nóng)業(yè)資源分配具有重要的意義[1]。當前,結(jié)合遙感信息技術(shù),如何利用高分辨率遙感影像快速、準確地獲取冬小麥空間分布信息數(shù)據(jù)已經(jīng)成為目前需要迫切解決的問題。
與中低分辨率遙感影像相比,高分辨率遙感影像包含更豐富的細節(jié)信息[2],為精細化提取冬小麥空間分布信息的研究提供了重要數(shù)據(jù)基礎(chǔ),具有廣闊的應(yīng)用研究價值。然而,高分辨率影像中的大量復(fù)雜特征導(dǎo)致信息的獲取更具挑戰(zhàn)性。在遙感影像處理領(lǐng)域,圖像像素特征提取技術(shù)是影像分析和信息提取的關(guān)鍵,但是由于高分辨率影像中“同物異譜”及“同譜異物”現(xiàn)象更為普遍,導(dǎo)致傳統(tǒng)的應(yīng)用光譜指數(shù)特征的提取方法如植被指數(shù)[3]、水體指數(shù)[4]、NDVI 指數(shù)及其衍生指數(shù)[5-7]等,僅依靠特征差異性難以提取出高區(qū)分度的特征,導(dǎo)致逐像素分割精度較低,限制了光譜指數(shù)方法在高分辨率遙感影像中的應(yīng)用。
相比于光譜指數(shù)特征,紋理特征能夠更有效地表達像素在空間上的關(guān)系?;诖耍芯空邆兲岢隽艘恍┗诩y理特征的提取方法,如灰度共生矩陣[8-10]、小波變換[11]等,可以提取出區(qū)分度較高的特征,提高逐像素分割精度,推動農(nóng)作物精細化提取領(lǐng)域的發(fā)展。但是隨著遙感技術(shù)的不斷發(fā)展和影像分辨率的不斷提升,傳統(tǒng)的基于光譜指數(shù)和紋理特征的提取方法已難以有效捕捉影像中愈發(fā)復(fù)雜的細節(jié)信息。
隨著機器學習的發(fā)展,研究者們開始將隨機森林[12-14]和支持向量機[15-17]等算法應(yīng)用于特征提取技術(shù)。通過將像素的光譜信息輸入到模型,經(jīng)過復(fù)雜的數(shù)學計算提取理想特征。這些方法雖然能夠有效地探索不同通道間的相互關(guān)系并捕獲關(guān)鍵的特征信息,但這些特征主要描述單個像素的屬性,并未涵蓋像素之間的空間關(guān)系。這一局限性限制了這些方法在高分辨率遙感圖像處理領(lǐng)域中的廣泛應(yīng)用。
近年來,卷積神經(jīng)網(wǎng)絡(luò)(CNN)憑借強大的特征學習和提取能力,在圖像處理領(lǐng)域取得了顯著成就。與上述方法相比,CNN不僅能夠捕捉像素本身的特征,還能有效建模像素之間的空間關(guān)系,在高分辨率遙感影像上實現(xiàn)了較高精度的像素級圖像分割[18-22]。目前應(yīng)用較為廣泛的圖像分割模型包括FCN[23]、SegNet[24-26]、UNet[27-29]、ERFNet[30,31]、RefineNet[32]等。FCN通過卷積層替代傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的全連接層,消除了輸入尺寸的固定限制;SegNet 和U-Net 采用對稱式的網(wǎng)絡(luò)結(jié)構(gòu),能夠在分割任務(wù)中有效提取高級語義特征;ERFNet引入殘差學習,跳過部分網(wǎng)絡(luò)層,實現(xiàn)輕量化設(shè)計;RefineNet 通過多尺度融合策略,較好地解決了深層卷積網(wǎng)絡(luò)中語義特征粗糙的問題。
然而,這些CNN模型在處理高分辨率影像時,通常依賴圖像縮放來提取語義特征,導(dǎo)致部分有效細節(jié)信息丟失,影響遙感影像信息的準確性。此外,這些模型大多僅基于像素間的關(guān)系或僅從像素角度預(yù)測類別標簽,因而在捕捉分割物體整體語義信息和邊緣細節(jié)特征上存在局限。為實現(xiàn)更為精確的語義分割,研究者們采用了注意力機制[33]、邊緣優(yōu)化損失函數(shù)[34]和條件隨機場[35]等方法進行特征增強,以提升模型在整體語義信息和邊緣細節(jié)特征方面的綜合識別能力。
基于以上分析,本文以精細化提取高分六號遙感影像中的冬小麥空間分布信息為目標,針對CNN下采樣過程因圖像縮放導(dǎo)致部分有效信息丟失和細節(jié)特征提取能力不足的問題,建立了一種基于密集卷積神經(jīng)網(wǎng)絡(luò)DenseNet[36,37]的“U”型對稱網(wǎng)絡(luò)模型Dense-U-Coord Net。該模型利用DenseNet 的特征復(fù)用,實現(xiàn)特征高效傳遞。同時,本研究通過融合坐標注意力機制與OCR模塊[38],提出了一種多維度特征注意力機制,整合上下文信息,并動態(tài)優(yōu)化網(wǎng)絡(luò)對冬小麥地塊邊緣與內(nèi)部區(qū)域的關(guān)注,進一步提高分割精度。
1 數(shù)據(jù)獲取與處理
1.1 研究區(qū)概況
本文的研究區(qū)為河北省邯鄲市館陶縣,如圖1所示。館陶縣位于河北省南部,東經(jīng)115°20′-115° 46′ ,北緯36° 27′-36° 44′ 之間,總面積約456 km2,其中耕地面積7 200 hm2。屬暖溫帶半干旱半濕潤的大陸性季風氣候,四季分明,光照充足。館陶縣屬掩埋古河道的壤質(zhì)土沖積平原,地勢西南高,東北低,土壤肥沃,以黃土和淤土為主,是重要的冬小麥生產(chǎn)區(qū),以館陶縣作為研究區(qū)具有代表性。
1.2 數(shù)據(jù)及預(yù)處理
本研究以高分六號PMS 遙感影像為數(shù)據(jù)源。高分六號(GF-6)遙感衛(wèi)星是我國自主研發(fā)的高性能光學遙感衛(wèi)星,主要用于農(nóng)業(yè)資源調(diào)查、災(zāi)害監(jiān)測和環(huán)境保護等領(lǐng)域。其搭載了包括具有2 米全色/8 米多光譜分辨率的多光譜相機,以及16 米分辨率的寬幅相機等高精度攝像裝備,能夠捕捉地表細節(jié)信息,為地表觀測提供了更加細致和準確的數(shù)據(jù)支持。
冬小麥普遍于9 月份中上旬至10 月份上旬播種,次年5 月底至6 月中旬收獲。選用高分六號PMS遙感影像傳感器2022 年4 月18 日河北省邯鄲市館陶縣的多光譜影像及全色影像作為數(shù)據(jù)源。利用開源的圖像處理工具包大氣校正、輻射定標、正射校正和融合等預(yù)處理操作后,得到的影像數(shù)據(jù)包括紅、綠、藍、近紅外波段共四個波段,空間分辨率為2 m。
將原始圖像裁剪成512×512 像素的圖像塊,使用目視解譯的方式勾畫矢量數(shù)據(jù),包含冬小麥地塊和非冬小麥地塊兩類,分別用代碼1 和0 表示其編號,原始圖像和標記圖像一一對應(yīng)。最后對數(shù)據(jù)集進行劃分,最終得到1 050 組訓(xùn)練集,300 組測試集,150 組驗證集,用于Dense-UCoordNet和對比模型的訓(xùn)練和測試。
2 方法
Dense-U-Coord Net 模型包括編碼器、多維度特征注意力、解碼器和SoftMax 分類器四部分,如圖2 所示。編碼器負責從輸入圖像中提取特征。多維度特征注意力位于編碼器解碼器之間,負責聚合上下文信息和提取有效空間位置信息。解碼器負責將特征圖逐步轉(zhuǎn)換為與原始輸入相同分辨率的輸出。編碼器各層與解碼器對應(yīng)層之間通過跳躍連接直接相連,傳遞編碼器提取的特征圖,保留圖像空間細節(jié)和邊緣信息。SoftMax分類器用于完成逐像素分類。
2.1 編碼器
Dense-U-Coord Net 模型在U-Net 的基礎(chǔ)上進行了改進,使用DenseNet 作為骨干網(wǎng)絡(luò),通過密集連接使每一層都能接收前面所有層的特征信息。如圖2 所示,該模型的編碼器部分設(shè)計了一種分層的下采樣結(jié)構(gòu),通過五個連續(xù)的下采樣階段將輸入圖像的尺寸從512×512 逐步降低至16×16 的特征圖。在第一個階段,使用7×7 的卷積核初步提取特征,然后通過3×3 的池化層保留重要的特征信息。在隨后的三個階段中,每個階段首先使用一個包含4 個密集塊的Dense Block,實現(xiàn)特征的傳遞和復(fù)用,之后通過一個1×1 的卷積層和2×2 的池化層降低特征的通道數(shù)并減小特征圖的尺寸。最后一個階段與前面三個階段相比則省略了卷積層和池化層;為提升模型的穩(wěn)定性,每個階段加入BN層,并通過Dropout 正則化來防止過擬合。
2.2 多維度特征注意力
如圖2 所示,多維度特征注意力模塊由OCR模塊和坐標注意力模塊組成。該融合策略旨在同時保留全局上下文信息和局部位置信息,以便在語義分割過程中提高模型對邊緣細節(jié)和局部特征的捕捉能力,從而提升分割精度。如圖3 所示為多維度特征注意力機制模塊的結(jié)構(gòu)圖。該模塊通過將OCR模塊形成的具有空間關(guān)系的特征表示輸入到坐標注意力機制,在空間和內(nèi)容兩個維度調(diào)整特征分布,增強對冬小麥地塊的特征表達能力。圖中箭頭連接展示了特征信息在各個區(qū)域間的流動,通過不同層級的聚合和傳遞強化冬小麥像素點與周圍背景的分割效果。
OCR模塊通過聚合目標對象的上下文特征,建立冬小麥地塊像素與其他地物像素的空間關(guān)系,增強冬小麥地塊的特征表現(xiàn)力。首先,像素表示區(qū)域從主干網(wǎng)絡(luò)DenseNet提取的特征映射中獲取基礎(chǔ)像素信息,并通過加權(quán)聚合分配不同類別的區(qū)域特征至各個像素。隨后,軟物體區(qū)域?qū)觿t通過學習模糊的權(quán)重,識別可能屬于冬小麥的區(qū)域。接下來對象區(qū)域表示層進一步細化冬小麥區(qū)域的定義,并增強其特征表達。像素-區(qū)域關(guān)系層則強化像素與所屬區(qū)域之間的聯(lián)系。最后,增強表示層整合所有先前層次的信息,豐富解碼器的上下文信息,更加精準地重建冬小麥地塊的分布。
坐標注意力機制模塊通過整合位置信息,編碼通道間的關(guān)聯(lián)性并捕捉遠程依賴關(guān)系。坐標注意力模塊的結(jié)構(gòu)如圖4 所示,其中C為輸入通道數(shù),H為特征圖高度,W為特征圖寬度,r 為下采樣的比例。該模塊包括兩個階段,首先是坐標信息嵌入階段,分別使用(H,1)和(1,W)的池化核對輸入特征圖的每個通道分別進行水平和垂直方向的編碼,再將兩個方向的空間特征融合,定位冬小麥田塊;坐標注意力生成階段將兩個空間方向的特征圖進行1×1 的卷積變換,空間維度中將p(空間信息在水平及垂直方向經(jīng)過編碼后的中間特征圖)劃分為兩個獨立的張量pH和pW,隨后經(jīng)過線性變換將特征映射到原始的H和W,最后通過Sigmoid 函數(shù)處理生成最終的注意力圖,再將其與原始輸入特征圖相乘而突出冬小麥地塊的關(guān)鍵特征。
2.3 解碼器
如圖2 所示,解碼器由五個連續(xù)的上采樣階段組成,利用雙線性插值法將多維度注意力機制模塊輸出的特征圖從16×16 逐步放大至512×512分辨率的輸出。在前四個上采樣階段中,均包含1 個3×3 的反卷積層用于放大特征圖尺寸和1 個3×3 的卷積層用于調(diào)整通道數(shù)。在最后一個上采樣階段,首先經(jīng)過一個3×3 的卷積層將通道數(shù)映射為最終的類別數(shù),然后再經(jīng)過一個3×3 的反卷積層將圖像尺寸恢復(fù)到原始圖像大小。每個階段卷積層后都添加了BN 層提高模型穩(wěn)定性和Dropout正則化防止過擬合現(xiàn)象。
2.4 分類器
Dense-U-Coord Net 模型使用SoftMax 模型作為分類器,SoftMax 模型廣泛應(yīng)用于FCN、SegNet、RefineNet、U-Net 等模型。SoftMax 分類器計算每個像素點屬于不同類別的概率分布,組織成類別概率向量作為輸出,最大的概率值對應(yīng)的類別作為該像素點的分類結(jié)果。
2.5 損失函數(shù)
為精確提取冬小麥空間分布信息,本研究在該二分類任務(wù)中使用像素級交叉熵損失函數(shù),并利用梯度下降算法找到最優(yōu)解。該函數(shù)將圖像中的每個像素視為獨立樣本,計算模型預(yù)測值與真實值之間的交叉熵損失。然后,通過將所有像素的損失值相加并平均,得到最終的損失值,計算公式如公式(1)所示。
2.6 評價指標
本研究使用精確度(Precision)、召回率(Recall)、平均像素精度(MPA)和平均交并比(MIoU)作為模型的評價指標客觀評價模型對冬小麥空間分布的分割結(jié)果。精確度是指模型預(yù)測為正的樣本中,實際為正樣本的比例;召回率衡量的是所有實際正樣本中,被模型正確預(yù)測為正的樣本的比例;平均像素精度是指對于每個類別,正確分類的像素占總像素的比例的平均值;平均交并比是計算預(yù)測區(qū)域與真實區(qū)域交集與并集的比例的平均值。
2.7 訓(xùn)練方法
本實驗使用Adam 算法作為訓(xùn)練算法,batch_size為4,epochs為150,具體訓(xùn)練步驟為:
(1)確定模型訓(xùn)練過程中的超參數(shù),并對Dense-U-Coord Net模型的參數(shù)進行初始化;
(2)將制作的原圖—標記圖對作為訓(xùn)練數(shù)據(jù)集輸入到Dense-U-Coord Net模型中;
(3)使用模型對數(shù)據(jù)集中的訓(xùn)練樣本進行一次前向傳播計算;
(4)計算真實概率分布和預(yù)測概率分布的交叉熵損失函數(shù);
(5)使用Adam 算法,對Dense-U-Coord Net模型的參數(shù)進行更新,完成一次訓(xùn)練;
(6)重復(fù)上述步驟(3)(4)(5),直到看到損失函數(shù)的值小于指定的期望值,從而輸出訓(xùn)練好后的網(wǎng)絡(luò)參數(shù)。
3 結(jié)果與分析
3.1 實驗設(shè)計
設(shè)計消融實驗,旨在精確評估逐步引入DenseNet 骨干網(wǎng)絡(luò)、OCR 模塊和坐標注意力機制對提取冬小麥空間分布信息精度的影響。
選擇SVM、U-Net、ERFNet和RefineNet 模型作為對比模型開展對比實驗,分析不同網(wǎng)絡(luò)結(jié)構(gòu)對冬小麥空間分布提取精度的影響。表1 展示了SVM、U-Net、ERFNet、RefineNet 和Dense-UCoordNet 模型的核心特征和改進方向,對比了模型的主要區(qū)別及優(yōu)勢。
選擇同期山東省聊城市東昌府區(qū)高分六號遙感影像進行測試,旨在驗證Dense-U-CoordNet 模型在不同高分辨率遙感影像中提取冬小麥空間分布信息的性能。
本研究在一臺16G運行內(nèi)存的臺式計算機運行實驗,CPU 為13th Gen Intel(R)Core(TM) i5-13400F,GPU 為NVIDIA GeForceRTX 4060(8G),所用的操作系統(tǒng)為Win11 操作系統(tǒng),編程語言為Python3.10.10,深度學習框架為Pytorch,編譯器為Pycharm2022 社區(qū)版。
3.2 實驗結(jié)果
表2 為消融實驗的實驗結(jié)果?;€模型UNet的各項評價指標為:精確度(Precision)87.3%、召回率(Recall)88.0%、平均像素準確率(MPA)90.4% 以及平均交并比(MIoU)86.8%。當引入DenseNet 模型作為主干網(wǎng)絡(luò),并加入多維度特征注意力模塊后,模型的精確度提升至92.5%,召回率提升至93.4%,平均像素準確率達到94.2%,平均交并比提升至91.7%。結(jié)果表明,每項技術(shù)都有效提升了模型性能,驗證了改進策略的可行性和有效性。
圖5 展示了館陶縣的遙感影像(a)和Dense-U-Coord Net 模型的冬小麥空間分布提取結(jié)果(b),(b)圖中綠色區(qū)域為提取的冬小麥地塊。通過比較兩圖可以觀察到,Dense-U-Coord Net 模型提取的種植區(qū)域與遙感影像中的深綠色冬小麥地塊在空間分布上有著較高的一致性。
圖6 展示了U-Net、RefineNet、ERFNet、SVM和Dense-U-Coord Net 對館陶縣GF-6 遙感影像五個區(qū)域的提取結(jié)果,其中綠色區(qū)域和紅色區(qū)域分別為提取的冬小麥區(qū)域和非冬小麥區(qū)域。從圖6(c)中可以看出,Dense-U-Coord Net 模型的提取結(jié)果雖然也有少量道路未完全識別、錯誤識別現(xiàn)象,但相較于對比模型,其對冬小麥地塊識別較為準確,識別錯誤的情況更少,提取的大塊種植區(qū)域更完整,邊緣部分輪廓也更清晰。RefineNet 的提取結(jié)果僅次于Dense-U-CoordNet,但是其地塊邊緣部分略顯粗糙并有更多的錯誤識別現(xiàn)象。ERFNet 和U-Net 的提取結(jié)果雖然都明顯比SVM 優(yōu)秀,但是與Dense-U-CoordNet 對比還是存在較大差距,錯識、漏識現(xiàn)象較多,碎屑斑塊較多,且地塊的邊緣部分提取效果不理想。SVM的提取效果最差,對于小塊的種植區(qū)提取效果差,且難以識別地塊間的道路,對于邊緣部分提取效果也不理想。
如圖7 所示為東昌府區(qū)的遙感影像(a)和Dense-U-Coord Net 模型的冬小麥空間分布提取結(jié)果(b),其中(b)圖中綠色區(qū)域為提取的冬小麥地塊。通過比較兩圖可以觀察到,冬小麥的種植區(qū)域在Dense-U-Coord Net 模型的提取結(jié)果中與遙感圖像中的深綠色冬小麥地塊在空間分布上有著較高的一致性,驗證了模型在不同數(shù)據(jù)集上的性能。
3.3 結(jié)果評價
表3 是不同模型的評價指標,用精確度、召回率、平均像素精度和平均交互比評估分割精度。
實驗結(jié)果表明,Dense-U-Coord Net 模型的各項評價指標均優(yōu)于對比模型,RefineNet 模型次之,ERFNet和U-Net 模型較差,SVM模型效果最差。證明了Dense-U-Coord Net 在高分六號遙感影像中提取冬小麥空間分布信息方面具有優(yōu)勢。
4 分析討論
4.1 特征提取器對結(jié)果精度的影響
SVM是一種傳統(tǒng)機器學習方法,通過在高維空間中尋找一個最優(yōu)的超平面進行分類,由表3 模型實驗結(jié)果對比發(fā)現(xiàn)其在處理具有高維數(shù)據(jù)和復(fù)雜特征的高分辨率遙感影像時性能弱于神經(jīng)網(wǎng)絡(luò)模型。U-Net、ERFNet、RefineNet 模型都是經(jīng)典的編碼器-解碼器結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),相較于傳統(tǒng)方法有更強的特征學習和處理能力。U-Net 模型較為簡單,編碼器部分采用的是經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),由多個卷積層和最大池化層組成,逐層提取特征;ERFNet的編碼器是使用1D因子分解殘差塊,將標準的3×3 卷積分解為1×3 卷積和3×1 卷積,減少模型參數(shù)量;RefineNet 編碼器部分結(jié)合了深層特征和淺層特征的多尺度融合,與DenseNet 密集連接機制有些相似之處,都強調(diào)了跨層次特征的融合和復(fù)用。
Dense-U-Coord Net 采用了密集連接網(wǎng)絡(luò)DenseNet 作為特征提取器,每一層與前面所有層相連,允許每層直接訪問前面所有層的特征圖。由表2 消融實驗結(jié)果和表3 模型實驗結(jié)果對比可以發(fā)現(xiàn),DenseNet 作為特征提取器的效果優(yōu)于U-Net 和ERFNet,相較于這兩者,DenseNet 由于其密集連接特性,能夠保留更多的細節(jié)信息并且具有更強的特征復(fù)用能力,可以提供更豐富的上下文信息,導(dǎo)致其性能優(yōu)于U-Net 和ERFNet;RefineNet 通過其多路徑細化網(wǎng)絡(luò)在多尺度融合上更為有效,在處理高分六號高分辨率遙感影像時能夠更精確地恢復(fù)細節(jié)和上下文信息,導(dǎo)致其性能優(yōu)于DenseNet 特征提取器,但是DenseNet也有其一定的優(yōu)勢,其減少了重復(fù)的特征學習,提高了網(wǎng)絡(luò)的參數(shù)利用效率。
4.2 特征注意力對結(jié)果精度的影響
在處理高分辨率遙感影像時,特征保留和邊緣特征的有效處理是提升圖像分割質(zhì)量的關(guān)鍵因素。針對卷積神經(jīng)網(wǎng)絡(luò)下采樣過程中因圖像尺寸縮小造成的像素細節(jié)丟失,導(dǎo)致邊緣特征損失的問題,本研究引入包含OCR模塊和坐標注意力機制的多維度特征注意力機制。這樣設(shè)計的目的是強化非冬小麥類別對象區(qū)域與冬小麥地塊邊緣處的分割結(jié)果,利用坐標注意力機制增強不同對象區(qū)域與其內(nèi)部像素點之間的關(guān)聯(lián),在不增加網(wǎng)絡(luò)計算量的情況下獲取更多語義信息,增強冬小麥地塊的空間特征表達。
由表2 消融實驗結(jié)果和表3 模型實驗結(jié)果對比可以發(fā)現(xiàn),添加多維度特征注意力機制之后,Dense-U-Coord Net 模型的精度不僅高于U-Net和ERFNet,并且還優(yōu)于未添加特征注意力機制的RefineNet(該模型精度高于只使用DenseNet作為骨干網(wǎng)絡(luò)的模型),這表明了多維度特征注意力模塊對于提升圖像分割模型在處理高分辨率遙感影像中的邊緣識別和特征保留方面的有效性。
4.3 數(shù)據(jù)集類型對結(jié)果精度的影響
實驗結(jié)果表明Dense-U-Coord Net 模型在處理高分辨率的GF-6 遙感影像時能較為精細地提取冬小麥空間分布信息。為全面評估模型在不同類型遙感影像數(shù)據(jù)集上的能力,在泰安市同期空間分辨率為16 米的GF-1 中分辨率遙感影像上進行測試。如圖8 所示,圖(1)和(2)分別為原圖和分割結(jié)果圖,圖(2)中的綠色區(qū)域和紅色區(qū)域分別代表提取到的冬小麥區(qū)域和非冬小麥區(qū)域,測試結(jié)果顯示模型的提取精度顯著下降。
造成這一現(xiàn)象的可能原因主要有兩個方面:首先,GF-1 影像分辨率較低,重要的冬小麥地塊特征如邊緣和紋理信息不夠豐富,導(dǎo)致模型無法有效識別并分割目標區(qū)域;其次,模型可能過度依賴高分辨率影像中的特征表達,難以學習中等分辨率遙感影像特征。
針對這個問題,后續(xù)考慮通過數(shù)據(jù)增強技術(shù)如圖像超分辨率重建、圖像銳化來增強中分辨率影像中的特征信息,提高模型對特征的識別能力。
5 結(jié) 論
本研究設(shè)計并實現(xiàn)了一種專門應(yīng)用于高分辨率遙感影像的冬小麥空間分布信息提取模型Dense-U-Coord Net。此模型以U-Net 模型為基礎(chǔ),有效解決了其在高分辨率遙感影像中提取冬小麥空間分布信息時特征提取能力不足及下采樣過程中尺寸縮小導(dǎo)致的特征丟失問題,實現(xiàn)在GF-6 號PMS遙感影像中獲取準確的冬小麥空間分布信息的目標,為農(nóng)業(yè)生產(chǎn)管理提供數(shù)據(jù)支持。本文的主要貢獻有:(1)針對高分六號遙感影像及冬小麥地塊的特性,分析了傳統(tǒng)圖像分割模型在分割精度上的不足,并在此基礎(chǔ)上提出了一種神經(jīng)網(wǎng)絡(luò)Dense-U-Coord Net;(2)為了提升分割精度并更有效地提取邊緣特征,提出了一種特征注意力模塊。該模塊通過OCR模塊聚合上下文信息,并結(jié)合坐標注意力機制識別圖像中的位置特征,取得了較為理想的分割效果。
針對模型在中分辨率影像中提取精度較低的問題,后續(xù)考慮通過數(shù)據(jù)增強技術(shù)如圖像超分辨率重建、圖像銳化等方式增強中分辨率影像中的特征信息,提高模型對特征的識別能力。未來工作也將著重優(yōu)化數(shù)據(jù)集的制作流程,考慮使用半監(jiān)督學習或自監(jiān)督學習的訓(xùn)練方法,解決目視解譯方法在數(shù)據(jù)集勾畫中的繁瑣與耗時問題,從而進一步增強模型的實用性和效率。
參考文獻
[1] 白靜遠,寧紀鋒,等. 基于改進UPerNet 和國產(chǎn)高分
遙感數(shù)據(jù)的冬小麥種植區(qū)提取[J]. 江蘇農(nóng)業(yè)科學,
2023,51(13):203-212.
[2] 孟浩然,李存軍,等. 綜合光譜紋理和時序信息的油
茶遙感提取研究[J]. 光譜學與光譜分析, 2023,
43(05):1589-1597.
[3] 張 磊,宮兆寧,王啟為,等.Sentinel-2 影像多特征優(yōu)
選的黃河三角洲濕地信息提取[J]. 遙感學報,2019,
23(02):313-326.
[4] 羅 鑫,王崇倡,孫尚宇. 面向水體淺水區(qū)遙感識別的
水體指數(shù)NMBWI 研究[J/OL]. 自然資源遙感,1-7
[2024-06-11].http://kns.cnki.net/kcms/detail/10.1759.
P.20240118.2340.002.html.
[5] 楊春光,許 鵬,李豐翔. 改進植被指數(shù)類型的干旱遙
感監(jiān)測[J]. 測繪與空間地理信息,2023,46(09):79-82.
[6] 柳文杰,曾永年,張 猛. 融合時間序列環(huán)境衛(wèi)星數(shù)據(jù)
與物候特征的水稻種植區(qū)提取[J]. 遙感學報,2018,
22(03):381-391.
[7] Singha M ,Wu B , Zhang M , et al. Object-Based
Paddy Rice Mapping Using HJ-1A/B Data and
Temporal Features Extracted from Time Series
MODIS NDVI Data[J]. Sensors,2016,17(1):10.
[8] 朱麗娟. 基于灰度共生矩陣的紅棗紋理特征提取
[J]. 科技風,2022,(25):78-80.
[9] 王清濤,楊 潔. 應(yīng)用改進的灰度共生矩陣識別木材
紋理多重特征值[J]. 西北林學院學報,2019,34(03):
191-195.
[10] Crabbe RA, Lamb DW, Edwards C. Investigating the
potential of Sentinel-1 to detect varying spatial
heterogeneity in pasture cover in grasslands[J].
International Journal of Remote Sensing. 2021 Jan;42(1):
254-265.
[11] 李 赫,王 玉,范 凱,等. 基于深度學習、小波變換
和可見光譜的茶樹凍害程度評估[J]. 光譜學與光譜
分析,2024,44(01):234-240.
[12] 宋 茜. 基于GF-1/WFV 和面向?qū)ο蟮霓r(nóng)作物種植
結(jié)構(gòu)提取方法研究[D]. 北京:中國農(nóng)業(yè)科學院,2016.
[13] Magalh?es DPL , Rossi F . Use of Indices in RGB
and Random Forest Regression to Measure the Leaf
Area Index in Maize[J]. Agronomy,2024,14(4):750.
[14] Wang Y ,Jin S ,Dardanelli G . Vegetation Classification
and Evaluation of Yancheng Coastal Wetlands Based on
Random Forest Algorithm from Sentinel-2 Images[J].
Remote Sensing,2024,16(7):1124.
[15] 賴佳政,李貝貝,程 翔,等. 基于無人機高光譜遙感
的烤煙葉片葉綠素含量估測[J]. 智慧農(nóng)業(yè)(中英文),
2023,5(02):68-81.
[16] 張 伏,張方圓,崔夏華,等. 高光譜成像結(jié)合PSOSVM
的銀杏果種類鑒別[J]. 光譜學與光譜分析,
2024,44(03):859-864.
[17] Su Q , Lv J , Fan J , et al. Remote Sensing-Based
Classification of Winter Irrigation Fields Using the
Random Forest Algorithm and GF-1 Data: A Case
Study of Jinzhong Basin, North China[J]. Remote
Sensing,2023,15(18):4599.
[18] 朱立學,賴穎杰,張世昂,等. 面向采摘機器人的改進
U-Net 火龍果圖像分割和姿態(tài)估計方法[J/OL]. 農(nóng)
業(yè)機械學報, 1-16[2024-05-27]. http://kns. cnki. net/
kcms/detail/11.1964.S.20230920.1558.002.html.
[19] 賴一波,喻擎蒼,方家吉,等. 基于Mobile-UNet 的葫
蘆科接穗苗子葉圖像分割方法[J]. 軟件導(dǎo)刊,2024,
23(02):153-161.
[20] 朱立學,伍榮達,付根平,等. 基于多尺度串聯(lián)空洞卷
積的輕量化UNet 香蕉圖像分割[J]. 農(nóng)業(yè)工程學報,
2022,38(13):194-201.
[21] Weiyue X ,Alex JT ,Qiong S , et al. A segmentation
algorithm incorporating superpixel block and holistically
nested edge for sugarcane aphids images under natural
light conditions[J]. Biosystems Engineering, 2022,
2162:41-255.
[22] Li Y ,Mengya L ,Shuxiao L , et al.Detection of dawn
sea fog/low stratus using geostationary satellite
imagery[J]. Remote Sensing of Environment, 2023,
294113622
[23] Luo H,Ming D,Xu L, et al.Tree Species Classification
Based on ASDER and MALSTM-FCN[J]. Remote
Sensing,2023,15(7):1723.
[24] 張哲晗,方 薇,杜麗麗,等. 基于編碼-解碼卷積神經(jīng)
網(wǎng)絡(luò)的遙感圖像語義分割[J]. 光學學報, 2020,
40(03):46-55.
[25] 仇 龍. Trans-SegNet:一種基于Transformer 的腦腫
瘤圖像分割網(wǎng)絡(luò)[J]. 電腦知識與技術(shù),2023,19(32):
24-26+30.
[26] Cunge G ,Wenqi G , Dongmei Z . Research on road
surface crack detection based on SegNet network[J].
Journal of Engineering and Applied Science,2024,71(1):
[27] 侯文慧,周傳起,程 炎,等. 基于輕量化U-Net 網(wǎng)絡(luò)的
果園壟間路徑識別方法[J]. 農(nóng)業(yè)機械學報,2024,
55(02):16-27.
[28] 何紅術(shù),黃曉霞,李紅旮,等. 基于改進U-Net 網(wǎng)絡(luò)的
高分遙感影像水體提取[J]. 地球信息科學學報,
2020,22(10):2010-2022.
[29] 蘇健民,楊嵐心,景維鵬. 基于U-Net 的高分辨率遙
感圖像語義分割方法[J]. 計算機工程與應(yīng)用,2019,
55(07):207-213.
[30] Romera E, álvarez J, Bergasa L, et al. ERFNet:
Efficient Residual Factorized ConvNet for Real-
Time Semantic Segmentation[J]. IEEE Transactions
on Intelligent Transportation Systems, 2018, 19(1):
263-272.
[31] Yin H, Zhang C, Han Y, et al. Improved semantic
segmentation method using edge features for winter
wheat spatial distribution extraction from Gaofen-2
images[J]. J. Appl. Rem. Sens, 2021(15): 028501.
[32] 宋德娟,魏青迪,張承明,等. 利用RefineNet 模型提
取冬小麥種植信息的方法[J]. 遙感技術(shù)與應(yīng)用,
2019,34(04):720-726.
[33] Bin J , Zhiyou C , Chuanjian W , et al. CA-BIT: A
Change Detection Method of Land Use in Natural
Reserves[J]. Agronomy,2023,13(3):635-635.
[34] 李翠錦,瞿 中. 基于深度學習的圖像邊緣檢測算法
綜述[J]. 計算機應(yīng)用,2020,40(11):3280-3288.
[35] 赫曉慧,陳明揚,李盼樂,等. 結(jié)合DCNN與短距條件
隨機場的遙感影像道路提取[J]. 武漢大學學報(信
息科學版),2024,49(03):333-342.
[36] Chang S,Yang G,Cheng J, et al.Recognition of wheat
rusts in a field environment based on improved
DenseNet[J].Biosystems Engineering,2024,238:10-21.
[37] 李子茂,徐杰,鄭祿,等. 基于改進DenseNet 的茶葉
病害小樣本識別方法[J]. 農(nóng)業(yè)工程學報, 2022,
38(10):182-190.
[38] YUAN Y, CHEN X, WANG J. Object-contextual
representations for semantic segmentation[C]//Computer
Vision-ECCV 2020:16th European Conference, August
23-28, 2020, Proceedings, Part VI 16. Springer
International Publishing. Glasgow, UK,2020: 173-190.