付健 薛新宇 孫竹 徐陽
摘要:油菜地塊精準提取可實現(xiàn)道路、田埂和地塊三部分的分離,為植保無人機提供準確作業(yè)區(qū)域和非作業(yè)區(qū)域,推動植保無人機實現(xiàn)自主作業(yè)?;诟拭C省張掖市民樂縣油菜地無人機低空RGB影像,構建基于簡單線性迭代聚類(SLIC)分割和VGG16分類網(wǎng)絡相結合的方法實現(xiàn)油菜田地塊邊界提取。首先,以過綠指數(shù)方式灰度化圖像,區(qū)分裸露地表與植被覆蓋區(qū)域,其次,通過直方圖分析、輪廓檢測提取地塊主體部分;最后,通過簡單線性迭代聚類(SLIC)和VGG16模型相結合,劃分網(wǎng)格,識別過分割區(qū)域中的作物種植區(qū)域,提取完整地塊。對比所提算法與傳統(tǒng)邊界檢測算法地塊邊界提取效果,結果表明:所提模型的平均交并比和平均準確率分別為95.9%、96.0%,邊界提取精度和完整性明顯優(yōu)于傳統(tǒng)算法。所提模型能夠消除低空拍攝下雜草的影像,可為農田邊界提取提供參考,可為植保無人機完全自主作業(yè)做好鋪墊。
關鍵詞:地塊提取;無人機;過綠指數(shù);超像素分割;VGG16;圖像識別
中圖分類號:S565
文獻標識碼:A
文章編號:2095-5553 (2023) 04-0137-08
Abstract: The precise extraction of oilseed rape field can realize the separation of road, field ridge and plot, provide accurate operation area and non-operation area for plant protection UAV, and promote the realization of autonomous operation of plant protection UAV. Based on UAV low-altitude RGB images of rapeseed field in Minle County, Zhangye City, Gansu Province, this paper constructed a method combining simple linear iterative clustering (SLIC) segmentation and VGG16 classification network to achieve boundary extraction of rapeseed field blocks. Firstly, the image was grayed with green index to distinguish bare ground and vegetation covered area. Secondly, the main part of the field was extracted by histogram analysis and contour detection. Finally, by combining simple linear iterative clustering (SLIC) and VGG16 model, the grid was divided to identify the cropping regions in the segmented region and extract the whole field. The results showed that the average intersection ratio and average accuracy of the proposed model were 95.9% and 96.0%, respectively. The accuracy and integrity of the proposed model were better than those of the traditional algorithm. The model proposed in this paper can eliminate the images of weeds taken at low altitude, which can provide reference for the extraction of farmland boundaries and pave the way for the autonomous operation of plant protection UAV.
Keywords:? field extraction; UAV; excess green index; super pixel segmentation; VGG16; image recognition
0 引言
精準農業(yè)主要是通過對作物生長區(qū)域進行細分化管理,優(yōu)化肥料和農藥等農業(yè)生產投入[1]。油菜盛花期田間管理主要包括施肥和病蟲害管理,由于傳統(tǒng)的人工施肥和背負式噴霧機施藥,作業(yè)勞動強度大,作業(yè)范圍受限,主要依賴于植保無人機進行施肥和飛防作業(yè)。目前,無人機自主作業(yè)是通過人手持 RTK在每一塊田進行打點定位,然后再手動生成作業(yè)路徑,打點工作繁瑣,給無人機自主作業(yè)造成不便。故通過精準農田劃分,快速完成不同田塊的精準定位,對優(yōu)化植保無人機作業(yè)路徑,實現(xiàn)完全自主作業(yè)具有重要意義。
農田劃分是將農場以單一田塊作為單元劃分為不同的封閉區(qū)域[2]。傳統(tǒng)數(shù)字農田劃分是基于衛(wèi)星遙感數(shù)據(jù),依托數(shù)字圖像處理技術提取農田邊界線,進而劃分出獨立農田[3-5]。但由于遙感衛(wèi)星數(shù)據(jù)存在時間成本較高、受大氣因素和影像分辨率的影響,邊界提取精度較差等弊端[6-8],農田劃分結果難以用于指導植保無人機作業(yè)。近年來,隨著人機技術的發(fā)展和成熟,由于其具有機動性高、成本和獲取影像過程中不容易受到大氣干擾、易獲取低空高分辨率圖像等優(yōu)點[9-10],已經被廣泛應用于農田分類、農田邊界提取以及水渠提取等農田信息的研究[11-15]?;谝陨蟽煞N數(shù)據(jù)類型的農田邊界提取方法以經典邊界檢測算法為主,代表算法有Canny邊界檢測、分水嶺邊界檢測、均值漂移區(qū)域生長分割以及基于Gpb+SLIC的輪廓檢測法[16-21],此類算法大多依據(jù)圖像的像素值分布,將像素值梯度超過某值的位置作為農田邊界,但該類算法,在不同種植區(qū)域,不同分辨率[22]、不同采樣距離[23]的情況下,算法的魯棒性較差。除經典邊界檢測算法外,有研究者采用深度學習的方法進行探索。楊蜀秦等[24]結合DeepLab V3+語義分割模型,實現(xiàn)基于無人機采集的多光譜數(shù)據(jù)影像的農田作物分類,為農田邊界提取提供新的思考方向。由于農田影響數(shù)據(jù)的復雜性,現(xiàn)有的農田劃定方法存在一些缺點:一是不能提取田埂,會導致植保無人機在非種植區(qū)域作業(yè),造成化肥和農藥的浪費;二是由于地塊尺寸不一致,形狀不同,使得農田種植區(qū)域分割為非種植區(qū)域,稱為農田過分割,導致無人機作業(yè)范圍存在遺漏之處,降低植保效果。
針對上述問題,本文以甘肅省張掖市民樂縣張家莊為研究區(qū)域,以油菜田為研究對象,構建了基于簡單線性迭代聚類(SLIC)分割和VGG16分類網(wǎng)絡的地塊邊界識別模型。首先采用超像素分割給地塊預分割圖像劃分網(wǎng)格,其次,采用VGG16對過分割區(qū)域的網(wǎng)格塊再識別,提高體塊邊界提取精度,進而提取完整地塊。
1 數(shù)據(jù)獲取與處理
1.1 研究區(qū)域概況
本文研究區(qū)域為甘肅省張掖市民樂縣,東經100.489 44°,北緯38.529 8°,位于祁連山北麓,河西走廊中段,海拔高度2 000~2 850 m,屬于沿山冷涼灌區(qū),屬溫帶大陸性荒漠草原氣候,年平均降水量351 mm,無霜期140天,氣候冷涼濕潤、晝夜溫差大、光照充足,病蟲害輕,是種植油菜的適宜區(qū)域,張掖市油菜種植常年播種面積約20 000 hm2,是當?shù)刂匾慕洕魑?。所采集區(qū)域地形平坦,具有代表性和適用性。
1.2 數(shù)據(jù)采集
本文采用的拍攝平臺為大疆Air 2S無人機遙感影像采集平臺,展開尺寸(長×寬×高)為183 mm×253 mm×77 mm,對角線軸距302 mm,搭載CMOS影像傳感器,視角為88°,35 mm等效焦距為22 mm。圖像采集時間為2021年7月5日,天氣晴朗,炎熱無風,拍攝對象為贛油雜8號,油菜所處時期為盛花期,無人機拍攝航高為100 m,圖像數(shù)據(jù)格式為RGB,相機與垂直方向夾角為0°,圖像分辨率為4 000×3 000,影像儲存格式為JPG。圖1為本次數(shù)據(jù)采集樣本,可以看出油菜種植區(qū)域地塊標準,邊界成直線形狀,地塊呈現(xiàn)成三角形和規(guī)則四邊形,部分地塊面積不大,種植不均勻,田埂處存在較多雜草,容易導致過分割或欠分割。
2 研究方法
目前農田邊界提取的無人機遙感影像的拍攝高度為110~500 m[13-15, 21-23]。隨著拍攝高度下降,農田信息更加豐富,田埂雜草的影響逐漸凸顯,基于經典邊緣檢測的農田邊界提取方法對田埂雜草的魯棒性差。故本文提出了SLIC+VGG16模型以識別種植區(qū)域和雜田埂雜草區(qū)域,該模型包含兩個過程:一是地塊預提取;二是利用SLIC+VGG16修正地塊預提取結果,得到完整地塊。
2.1 地塊預分割
地塊預提取是通過圖像灰度化、直方圖分析、圖像增強、二值化、形態(tài)學處理等數(shù)字圖像處理方法得到二值圖像,采用輪廓查找方法提取油菜農田的主體部分。下文重點闡述地塊預提取過程中的灰度化,直方圖分析、輪廓查找3個關鍵步驟。
1)? 圖像灰度化。油菜和雜草(非種植區(qū)域)為綠色植物,像素值分布較為相近,與裸露地表(田埂道路)在像素值分布上存在明顯差異,可采用過綠指數(shù)(ExG)[25-26]對圖像進行灰度化,區(qū)分植被覆蓋區(qū)域和裸露地表。過綠指數(shù)計算公式如式(1)所示。
3)? 輪廓查找地塊。輪廓對象一般存在于不同的位置,但是有時是一個輪廓形狀位于另一個輪廓形狀的內部,我們稱最外層的為一級輪廓,第二層的為二級輪廓,以此類推。在本文研究內容中,一級結構應該是農田的邊界和地塊外部的其他物體輪廓?;谵r田為圖像中的主體部分,單塊農田輪廓應為封閉邊界,且其包圍的面積應該遠遠大于其他噪聲產生的輪廓。故可依據(jù)農田面積和封閉輪廓作為條件,篩選圖像中的一級結構,可以消除部分農田內部的“空洞”和外部雜草等噪聲。經過輪廓查找篩選后的結果如圖4(c)所示。
2.2 地塊再提取
為解決上文地塊預提取帶來的地塊“過分割”現(xiàn)象,本文提出了超像素分割和VGG16模型相結合的方法。將預處理后未能認定為邊界的部分如圖5所示,通過超像素分割為閾值相近的子塊,并將子塊喂入到VGG16識別網(wǎng)絡中,預測每個子塊是否屬于農田。
3)? 迭代優(yōu)化。根據(jù)距離度量給每個種子點2S鄰域內的每個像素分配類標簽,若D′≤D,則將像素點更新為當前種子點,并令D=D′。然后進行重復迭代,直至每個像素標簽類別不再發(fā)生變化,一般需要迭代10次。
用SLIC算法對地塊預分割之后的圖像進行超像素分割,RGB圖像尺寸大小為2 000像素×1 500像素,K分別取500、800、1 000、1 500時得到的結果如圖6所示,同時探究了不同聚類數(shù)目下的VGG16模型的分類準確度,結果如表1所示。由表1可以看出超像素塊數(shù)目為800和1 000時,模型準確率分別84.7%和89.4%,準確率較為接近,但是聚類數(shù)目越大,意味著像素塊越小,地塊邊界提取的精度就越高,故選擇超像素塊分割數(shù)目為1 000。
2.2.2 分類網(wǎng)絡模型選擇
自2012年,Krizhevsky等提出的AlexNet分類網(wǎng)絡在Image Net分類任務中奪得冠軍之后,相繼涌現(xiàn)以VGGNet、ResNet、GoogleNet代表優(yōu)秀分類網(wǎng)絡,深度學習分類網(wǎng)絡模型逐漸取代傳統(tǒng)的分類方式成為主流圖像分類方法[30]。VGG16網(wǎng)絡模型是Karen Simonyan在2014年提出的深度學習模型[28],因其結構簡單、能挖掘圖像深度語義信息、泛化能力強等優(yōu)點,被廣發(fā)應用于分類和定位任務中。故本文預設選用VGG16模型完成判斷超像素塊是否屬于農田的過程,對比了VGGNet、AlexNet、ResNet、GoogleNet模型分類準確率。
數(shù)據(jù)集是由隨機選取30幅圖像進行地塊預分割和超像素分割后生成的像素塊制作而成,數(shù)據(jù)集由油菜、雜草、裸露地表三類組成,每種類型數(shù)據(jù)數(shù)量相近,共3 562幅,數(shù)據(jù)集按照訓練集∶驗證集∶測試集為8∶1∶1進行劃分,并采用添加高斯噪聲、水平翻轉、改變亮度、旋轉的方式將數(shù)據(jù)集擴充到7 124幅。四種模型在相同條件下,迭代次數(shù)epoch=100,各類模型在驗證集和測試集準確率如表2所示。
由試驗結果可知,VGG16在測試集和驗證集的準確率遠高于其他的分類模型,準確率分別達到94.2%、89.4%。ResNet、GoogleNet分類網(wǎng)絡結構的設計主要用于訓練梯度消失的現(xiàn)象和融合不同網(wǎng)絡層的信息,由于超像素塊常常存在像素值為0的部分,所以分類網(wǎng)絡不容易出現(xiàn)梯度消失的結構,并且由于此分類任務并未關注目標的位置大小,故ResNet、GoogleNet兩類網(wǎng)絡的優(yōu)勢并未在本次分類任務中凸顯,相反分類效果較差。AlexNet是由5個卷積層和5個全連接層,難以提取深層次信息,故而分類準確率較差??蛇xVGG16作為分類網(wǎng)絡。
VGG16模型由13個卷積層和3個全連接層組成,模型的原輸入尺寸為224×224,原輸出類別為20。表1探究了不同輸入尺寸下,模型的準確率,可知,當輸入尺寸為96×96時,模型準確率最高為89.4%。結合超像素的分割數(shù)目為1 000時,超像素塊的圖像尺寸,調整模型輸入尺寸為96×96;根據(jù)數(shù)據(jù)集類別為油菜、雜草、裸露地表三類,調整模型輸出類別為3,修改后的模型如圖7所示。
3 試驗結果與分析
3.1 不同算法提取效果對比
為驗證本地塊提取方法的先進性,對比了Canny邊緣檢測、分水嶺(Watershed)分割算法以及Mean Shift算法。Canny邊緣檢測算法和分水嶺(Watershed)分割算法采用中灰度化處理方式采用過綠指數(shù)。
如圖8所示,五種算法在地塊邊界提取的完整性為圖8(d)>圖8(c)>圖8(b)>圖8(a),地塊提取的準確率為圖8(d)>圖8(c)>圖8(b)>圖8(a)。Canny邊緣檢測受到田埂雜草和道路雜草的影響,封閉完整的地塊邊界提取效果非常差,產生了較多冗余信息;Watershed算法和Mean Shift算法能夠提取大部分完整、獨立的地塊邊界,但無法提取田埂雜草較多的位置處的地塊邊界,造成相鄰地塊檢測為同一地塊;SLIC+VGG16地塊邊界提取方法可將單一田塊作為獨立種植單元進行提取,但受到分類網(wǎng)絡精度影響,不完整地塊差生過分割或欠分割現(xiàn)象。
除此之外,本文統(tǒng)計不同算法的平均識別時間,Canny邊緣檢測、Watershed分割算法、Mean Shift算法以及SLIC+VGG16算法分別為0.8 s,0.83 s,20 s,1.9 s。Mean Shift算法提取效果優(yōu)于Canny和Watershed算法,但是速度較慢,主要原因是Mean Shift算法在圖像全局進行搜索,效率低下;SLIC+VGG16相對傳統(tǒng)的識別算法,速度并沒有明顯下降,但是精度卻提升較大。
以上對比可知,傳統(tǒng)邊界提取方法由于提取方式單一、魯棒性差等問題,在低空遙感圖像下無法消除雜草帶來的影響。本文所提方法可以彌補傳統(tǒng)邊緣檢測算法無法有效區(qū)分田埂雜草區(qū)域和地塊種植區(qū)域的弊端和無法劃定單一農田作為獨立區(qū)域管理單元的問題,模型識別時間在2 s內,能夠在低空遙感圖像背景下,提取準確、完整的單一田塊。
3.2 地塊提取準確度評價
以采用Labelme軟件標注的標簽值作為人工地塊提取的真實值,類比于語義分割模型評價指標,提出單塊農田平均交并比(mIoU)和像素精度(mPA)兩項評價指標上的表現(xiàn),并給出了最大交并比(IoUmax)、最小交并比(IoUmin)、最大像素精度(PAmax)和最小像素精度(PAmin),對比了本文所提模型和均值漂移算法,結果如表2所示。
由表3可知,SLIC+VGG16的mIoU為95.9%,比Mean Shift算法提高了9.4%,mPA為96.0%,比Mean Shift提高了6.6%,可知SLIC+VGG16模型能夠準確提取地塊,提取的地塊與目標地塊高度重合,滿足提取精度要求;SLIC+VGG16的IoUmax和IoUmin差值為18.9%,較Mean Shift減小了16.2%;SLIC+VGG16的PAmax和PAmin的差值為18.9%,較Mean Shift減小了16.2%,SLIC+VGG16模型和Mean Shift算法的IoUmax和PAmax的值較為接近,IoUmin和PAmin的值卻相差很大,其主要原因是Mean Shift算法無法識別田埂雜草和作物區(qū)域的邊界,相鄰兩部分地塊識別為單一地塊,可知本模型較Mean Shift對地塊邊界提取有更好的適應性。
4 討論
通過對比分析本文所提模型與可以看出,本文所提模型邊界提取精度較傳統(tǒng)的邊界檢測算法有較大的提升,其主要原因:(1)給出了一種低空提取農田邊界的方法。與研究高空遙感下的農田邊界劃定不同,本文針對的低空遙感圖像下數(shù)據(jù)信息更為豐富,雜草等冗余信息復雜的問題,提出SLIC +VGG16的地塊提取方法,解決了低空遙感圖像獨立地塊提取復雜的問題,提高了地塊提取精度,有利于實現(xiàn)以地塊為單元的精準區(qū)域管理;(2)給出了一種消除地塊過分割現(xiàn)象的方法。傳統(tǒng)邊緣檢測算法在消除雜草的影響過程中會產生過分割的現(xiàn)象,故對過分割區(qū)域進行超像素分割和分類識別,進一步判斷過分割是否屬于農田種植區(qū)域。文中沒有對原圖像進行超像素分割,而是經過預處理之后再進行超像素分割,其原因有:消除田埂雜草的影響;降低圖像處理的時間成本。
但是該模型也存在一定的局限性:(1)VGG16分類網(wǎng)絡的準確率很難得到進一步的提升;(2)由于超像素塊邊界不圓滑導致地塊邊界容易差產生極度不規(guī)則的形狀;(3)未探究模型在其他高度的無人機遙感影像數(shù)據(jù)的邊界提取效果。作者將對以上問題做進一步研究。
5 結論
1) 由于在低空下拍攝的無人機遙感圖像地塊信息更為豐富,細節(jié)也更為復雜,田埂雜草和作物像素值相近,傳統(tǒng)邊界檢測模型、語義分割模型難以提取田埂雜草密集處的邊界。針對以上問題,本文根據(jù)雜草閾值分布特點,提出了對田埂雜草適應性強的SLIC +VGG16地塊邊界提取模型。
2) 該模型首先采用超綠指數(shù)方法對應進行灰度化;其次統(tǒng)計裸露地表、作物以及田埂的灰度值直方圖,確定低閾值TH1=70、高閾值TH2=150進行二值分割,以消除不同田埂雜草和部分冗余噪聲;再者采用輪廓檢測方法消除部分閾值分割產生的作物區(qū)域出現(xiàn)的大面積空洞;然后采用超像素分割將上述確定為非作物區(qū)域的位置分割為超像素塊,喂入訓練好的VGG16分類網(wǎng)絡中,進一步確定是否屬于作物區(qū)域;最后對比了VGG16網(wǎng)絡與其他分類網(wǎng)絡的分類精度,通過對比的方法檢驗了SLIC+VGG16與Mean Shift等四種邊界提取算法的效果和精度。結果表明,VGG16網(wǎng)絡分類準確度最高,為94.2%;本文模型能夠消除田埂雜草的影響,相較于其他四種邊界提取算法具有更好的適應性;從SLIC+VGG16與Mean Shift對比試驗來看,模型邊界提取精度mIoU和PA分別為95.9%、96.0%,較Mean Shift算法都有較大的提升,同時具有較小的極值差,說明該模型的邊界提取的適應性較好。
本模型采用的邊界提取模型相較于傳統(tǒng)的邊界提取算法能夠更好地消除雜草的影響,對低空無人機遙感影像具有更好的適應性,可為無人機低空遙感影像農田劃分提供參考。
參 考 文 獻
[1] Georgi C, Spengler D, Itzerott S, et al. Automatic delineation algorithm for site-specific management zones based on satellite remote sensing data [J]. Precision Agriculture, 2018, 19(4): 684-707.
[2] Fmb A, Lsg B, Rd B, et al. Delineation of management zones in agricultural fields using cover-crop biomass estimates from PlanetScope data [J]. International Journal of Applied Earth Observation and Geoinformation, 2020, 85.
[3] Muoz X, Freixenet J, Cuf X, et al. Strategies for image segmentation combining region and boundary information-ScienceDirect [J]. Pattern Recognition Letters, 2003, 24(1-3): 375-392.
[4] 賈坤, 李強子, 田亦陳, 等. 遙感影像分類方法研究進展[J]. 光譜學與光譜分析, 2011, 31(10): 2618-2623.
Jia Kun, Li Qiangzi, Tian Yichen, et al. A review of classification method of remote sensing imagery [J]. Spectroscopy and spectral analysis, 2011, 31(10): 2618-2623.
[5] 陳君穎, 田慶久. 高分辨率遙感植被分類研究[J]. 遙感學報, 2007, 11(2): 221-227.
Chen Junying, Tian Qingjiu. Vegetation classification based on high-resolution satellite image [J]. Journal of Remote Sensing, 2007, 11(2): 221-227.
[6] Watkins B, Niekerk A V. A comparison of object-based image analysis approaches for field boundary delineation using multi-temporal Sentinel-2 imagery [J]. Computers and Electronics in Agriculture, 2019, 158: 294-302.
[7] Watkins B, Niekerk A V. Pre-print automating field boundary delineation with multi-temporal sentinel-2 imagery [J]. Computers and Electronics in Agriculture, 2019, 167: 105078.
[8] 李森. 高空間分辨率遙感影像耕地地塊提取方法研究[D]. 北京: 中國科學院大學, 2019.
Li Sen. Research on cultivated land parcel extraction method based on high spatial resolution remote sensing image [D]. Beijing: University of Chinese Academy of Sciences, 2019.
[9] 王利民, 劉佳, 楊玲波, 等. 基于無人機影像的農情遙感監(jiān)測應用[J]. 農業(yè)工程學報, 2013, 29(18): 136-145.
Wang Limin, Liu Jia, Yang Lingbo, et al. Applications of unmanned aerial vehicle images on agricultural remote sensing monitoring [J]. Transactions of the Chinese society of Agricultural Engineering, 2013, 29(18): 136-145.
[10] 張正健, 李愛農, 邊金虎, 等. 基于無人機影像可見光植被指數(shù)的若爾蓋草地地上生物量估算研究[J]. 遙感技術與應用, 2016, 31(1): 51-62.
Zhang Zhengjian, Li Ainong, Bian Jinhu, et al. Estimating aboveground biomass of grassland in Zoige by visible vegetation index derived from unmanned aerial vehicle image [J]. Remote Sensing Technology and Application, 2016, 31(1): 51-62.
[11] 紀景純, 趙原, 鄒曉娟, 等. 無人機遙感在農田信息監(jiān)測中的應用進展[J]. 土壤學報, 2019, 56(4): 773-784.
Ji Jingchun, Zhao Yuan, Zou Xiaojuan, et al. Advancement in application of UAV remote sensing to monitoring of farmlands [J]. Acta Pedologica Sinica, 2019, 56(4): 773-784.
[12] Fang H, Chen H, Jiang H, et al. Research on method of farmland obstacle boundary extraction in UAV remote sensing images [J]. Sensors, 2019(19): 4431-4444.
[13] 韓文霆, 張立元, 張海鑫, 等. 基于無人機遙感與面向對象法的田間渠系分布信息提?。跩]. 農業(yè)機械學報, 2017, 48(3): 205-214.
Han Wenting, Zhang Liyuan, Zhang Haixin, et al. Extraction method of sublateral canal distribution information based on UAV remote sensing [J]. Transactions of the Chinese society for Agricultural Machinery, 2017, 48(3): 205-214.
[14] 郭鵬, 武法東, 戴建國, 等. 基于無人機可見光影像的農田作物分類方法比較[J]. 農業(yè)工程學報, 2017, 33(13): 112-119.
Guo Peng, Wu Fadong, Dai Jianguo, et al. Comparison of farmland crop classification methods based on visible light images of unmanned aerial vehicles [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(13): 112-119.
[15] Wang L, Wang Y, Zhang J, et al. Research on boundary recognition and extraction method of field operation area based on UAV remote sensing images [J]. IFAC-Papers OnLine, 2019, 52(30): 231-238.
[16] Bergado J R, Persello C, Stein A. Recurrent multiresolution convolutional networks for VHR image classification [J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(11): 6361-6374.
[17] Cheng T, Ji X, Yang G, et al. DESTIN: A new method for delineating the boundaries of crop fields by fusing spatial and temporal information from WorldView and Planet satellite imagery [J]. Computers and Electronics in Agriculture, 2020, 178.
[18] Hong R, Park J, Jang S, et al. Development of a parcel-level land boundary extraction algorithm for aerial imagery of regularly arranged agricultural areas [J]. Remote Sensing, 2021, 13(6): 1167.
[19] Wagner M P, Oppelt N. Extracting agricultural fields from remote sensing imagery using graph-based growing contours [J]. Remote Sensing, 2020, 12(7): 1205.
[20] 蔣軍娟. 基于不同算法的地類邊界輪廓檢測效果對比分析[J]. 北京測繪, 2020, 34(12): 1763-1766.
Jiang Junjuan. Comparison and analysis of the detection effect of the boundary contour of land class based on different algorithms [J]. Beijing Surveying and Mapping, 2020, 34(12): 1763-1766.
[21] 龐新華, 朱文泉, 潘耀忠, 等. 基于高分辨率遙感影像的耕地地塊提取方法研究[J]. 測繪科學, 2009, 34(1): 48-49, 161.
Pang Xinhua, Zhu Wenquan, Pan Yaozhong, et al. Research on cultivated land parcel extraction based on high-resolution remote sensing image [J]. Science of Surveying and Mapping, 2009, 34(1): 48-49, 161.
[22] 楊亞男, 康洋, 樊曉, 等. 基于地形特征的無人機遙感梯田影像邊緣提取方法[J]. 智慧農業(yè), 2019, 1(4): 50-61.
Yang Yanan, Kang Yang, Fan Xiao, et al. Edge extraction method of remote sensing UAV terrace image based on topographic feature [J]. Smart Agriculture, 2019, 1(4): 50-61.
[23] 吳晗, 林曉龍, 李曦嶸, 等. 面向農業(yè)應用的無人機遙感影像地塊邊界提?。跩]. 計算機應用, 2019, 39(1): 298-304.
Wu Han, Lin Xiaolong, Li Xirong, et al. Land parcel boundary extraction of UAV remote sensing image in agricultural application [J]. Journal of Computer Applications, 2019, 39(1): 298-304.
[24] 楊蜀秦, 宋志雙, 尹瀚平, 等. 基于深度語義分割的無人機多光譜遙感作物分類方法[J]. 農業(yè)機械學報, 2021, 52(3): 185-192.
Yang Shuqin, Song Zhishuang, Yin Hanping, et al. Crop classification method of UVA multispectral remote sensing based on deep semantic segmentation [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(3): 185-192.
[25] 汪小欽, 王苗苗, 王紹強, 等. 基于可見光波段無人機遙感的植被信息提?。跩]. 農業(yè)工程學報, 2015, 31(5): 152-159.
Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2015, 31(5): 152-159.
[26] 田振坤, 傅鶯鶯, 劉素紅, 等. 基于無人機低空遙感的農作物快速分類方法[J]. 農業(yè)工程學報, 2013, 29(7): 109-116, 295.
Tian Zhenkun, Fu Yingying, Liu Suhong, et al.Rapid crops classification based on UAV low-altitude remote sensing [J]. Transactions of the Chinese Society of Agricultural Engineering, 2013, 29(7): 109-116, 295.
[27] Alastair P M, Simon P, Jonathan W, et al. Superpixel lattices[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Anchorage, Alaska, USA, 2008.
[28] 韓紀普, 段先華, 常振. 基于SLIC和區(qū)域生長的目標分割算法[J]. 計算機工程與應用, 2021, 57(1): 213-218.
Han Jipu, Duan Xianhua, Chang Zhen. Target segmentation algorithm based on SLIC and region growing [J]. Computer Engineering and Applications, 2021, 57(1): 213-218.
[29] 任欣磊, 王陽萍. 基于改進簡單線性迭代聚類算法的遙感影像超像素分割[J]. 激光與光電子學進展, 2020, 57(22): 354-362.
Ren Xinlei, Wang Yangping. Supper-pixel segmentation of remote sensing image based on improved simple linear clustering algorithm [J]. Laser & Optoelectronic Progress, 2020, 57(22): 354-362.
[30] 張珂, 馮曉晗, 郭玉榮, 等. 圖像分類的深度卷積神經網(wǎng)絡模型綜述[J]. 中國圖象圖形學報, 2021, 26(10): 2305-2325.
Zhang Ke, Feng Xiaohan, Guo Yurong, et al.Overview of deep convolutional neural networks for image classification [J]. Journal of Image and Graphics, 2021, 26(10): 2305-2325.