国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于無人機(jī)遙感可見光影像的北疆主要農(nóng)作物分類方法

2018-10-10 06:28戴建國張國順曾窕俊崔美娜薛金利
關(guān)鍵詞:紋理類別試驗(yàn)區(qū)

戴建國,張國順,郭 鵬,曾窕俊,崔美娜,薛金利

?

基于無人機(jī)遙感可見光影像的北疆主要農(nóng)作物分類方法

戴建國1,3,張國順1,3,郭 鵬2,曾窕俊1,崔美娜1,3,薛金利1,3

(1. 石河子大學(xué)信息科學(xué)與技術(shù)學(xué)院,石河子 832003; 2. 石河子大學(xué)理學(xué)院,石河子 832003;3. 兵團(tuán)空間信息工程技術(shù)研究中心,石河子832003)

作物類型準(zhǔn)確分類是大田作業(yè)和管理的基礎(chǔ)。該文通過無人機(jī)遙感試驗(yàn)獲取的可見光影像,利用色彩空間轉(zhuǎn)換和紋理濾波構(gòu)建了色調(diào)、飽和度和亮度的27項(xiàng)紋理和低通濾波特征;然后采用ReliefF-Pearson特征降維方法,剔除分類能力弱且相關(guān)性高的冗余特征;最后,基于優(yōu)選特征訓(xùn)練分類模型,并結(jié)合人工分類結(jié)果對各模型進(jìn)行精度比較和效果驗(yàn)證。結(jié)果表明:特征選擇得到的H-CLP、H-Ent、I-Cor、I-CLP、I-Ent、S-CLP和I-Var是利用可見光影像進(jìn)行北疆主要農(nóng)作物分類的最佳特征,可在充分表征影像特征的同時(shí)降低數(shù)據(jù)冗余。支持向量機(jī)(support vector machine, SVM)分類方法精度最高,整體分類準(zhǔn)確率達(dá)83.77%,ANN和KNN分類精度次之。通過在驗(yàn)證區(qū)進(jìn)行像素級別作物分類,發(fā)現(xiàn)SVM分類方法效果最好,棉花、玉米、苜蓿和西葫蘆作物分類精度均達(dá)到了80%以上。該研究可為基于無人機(jī)可見光影像的農(nóng)作物種植信息普查提供參考。

無人機(jī);遙感;可見光影像;色彩與紋理特征;機(jī)器學(xué)習(xí);作物分類

0 引 言

準(zhǔn)確的農(nóng)作物空間分布信息是農(nóng)業(yè)現(xiàn)代化管理的基礎(chǔ),因此大田農(nóng)作物分類識別是農(nóng)業(yè)遙感的研究熱點(diǎn)之一。遙感農(nóng)作物分類的核心方法是影像光譜特征分析[1]。如劉佳等[2]利用HJ-1A/B月度時(shí)間序列NDVI,通過分析波譜曲線,實(shí)現(xiàn)了衡水市主要農(nóng)作物識別及種植面積測算;王文靜等[3]利用Landsat8時(shí)間序列NDVI、光譜反射率和幾何紋理作為分類特征,對沙灣縣主要農(nóng)作物進(jìn)行分類研究,效果較好。雖然衛(wèi)星遙感是目前大面積農(nóng)作物分類主要手段,但存在成本昂貴、回訪周期長和空間分辨率低等問題[4],且過于依賴于衛(wèi)星過境時(shí)的天氣狀況[5],實(shí)時(shí)性和準(zhǔn)確性均受限。隨著高分辨率傳感器和低空無人機(jī)技術(shù)的發(fā)展[6],憑借其靈活性高、周期短、空間分辨率高、受天氣和云層影響小等優(yōu)勢[7],彌補(bǔ)了傳統(tǒng)衛(wèi)星遙感的不足,成為目前小區(qū)域農(nóng)業(yè)遙感數(shù)據(jù)獲取的主要手段。相比于中低分辨率遙感影像,高分辨率影像的紋理、形狀及上下文關(guān)系等信息更加豐富[8],可用于構(gòu)建可見光影像的分類特征。

現(xiàn)階段,利用無人機(jī)影像進(jìn)行地物分類的方法主要分為2類:一是利用光譜信息計(jì)算植被指數(shù)構(gòu)建分類特征,結(jié)合傳統(tǒng)方法實(shí)現(xiàn)植被區(qū)域的識別。如汪小欽等[9]構(gòu)建了可見光波段差異植被指數(shù)(visible-band difference vegetation index, VDVI)對健康綠色植被識別,精度可達(dá)90%以上;丁雷龍等[10]在轉(zhuǎn)換色度坐標(biāo)后,構(gòu)建了過綠減過紅指數(shù)(ExG-ExR)對與背景特征差別較大的植被識別效果較好;井然等[11]采用空間分析篩選后的可見光植被指數(shù)對水生植被分類,總體精度達(dá)到91.7%。此類研究已較為成熟,適用于影像地物類型單一、前景與背景差別明顯的情況,在圖像為復(fù)雜地物類型時(shí)適用性較差。二是采用圖像增強(qiáng)和紋理濾波的方法,挖掘影像紋理和結(jié)構(gòu)等信息,對復(fù)雜地物中的典型作物進(jìn)行識別。如韓文霆等[12]結(jié)合變異系數(shù)和差異系數(shù)對影像紋理特征篩選,得到的綠色均值、藍(lán)色協(xié)同性和紋理低通植被指數(shù)(texture low pass vegetation index, TLVI),在玉米種植信息提取方面效果顯著。閔文芳等[13]構(gòu)建了一系列顏色和紋理特征,采用BP神經(jīng)網(wǎng)絡(luò)和像素累加法實(shí)現(xiàn)了典型作物識別和面積測量,準(zhǔn)確度可達(dá)90.3%。目前,該類研究集中于在復(fù)雜地物背景下針對某種特定作物的識別,難以對同一區(qū)域內(nèi)多種作物進(jìn)行同步區(qū)分。

本文針對在復(fù)雜地物中對多種作物進(jìn)行同步識別時(shí)存在的問題,結(jié)合已有的研究成果,利用色彩空間轉(zhuǎn)換和紋理濾波構(gòu)建分類特征,通過特征選擇降低數(shù)據(jù)維度,使用多種機(jī)器學(xué)習(xí)算法,以石河子墾區(qū)為典型區(qū)域,對北疆主要作物(棉花、玉米、苜蓿和葫蘆瓜)進(jìn)行分類識別研究,以期獲得基于可見光影像的多種作物同步分類的最佳特征和算法,為北疆農(nóng)業(yè)肥水精準(zhǔn)管理和種植結(jié)構(gòu)優(yōu)化提供參考。

1 研究區(qū)及數(shù)據(jù)準(zhǔn)備

1.1 研究區(qū)概況

研究區(qū)位于新疆生產(chǎn)建設(shè)兵團(tuán)第八師石河子墾區(qū),東經(jīng)85°58′~86°24′,北緯43°26′~45°20′。該區(qū)域平均海拔約為364 m,冬季嚴(yán)寒,夏季炎熱,干燥少雨,蒸發(fā)量大,屬典型的溫帶大陸性氣候[14]。年平均溫度7.5~8.2 ℃,年日照時(shí)長達(dá)2318~2732 h,無霜期147~191 d,年平均降雨量180~270 mm,光照時(shí)間長、熱量充足[15-16],主要種植作物類型為棉花、玉米、小麥、甜菜、西葫蘆和苜蓿等作物。

1.2 數(shù)據(jù)獲取

獲取的數(shù)據(jù)分為試驗(yàn)區(qū)和驗(yàn)證區(qū)2個(gè)部分,其中試驗(yàn)區(qū)位于石河子墾區(qū)石河子總場二分場三連蘑菇湖村,主要作物類型為棉花、玉米、西葫蘆和苜蓿,以及部分林木和其他地物(非林、非耕地)。影像數(shù)據(jù)于2017年8月29日獲取,飛行平臺為CW-10垂直起降固定翼無人機(jī)系統(tǒng),起飛、降落均采用四旋翼垂直起降,該機(jī)翼展2.6 m,機(jī)身長1.6 m,最大起飛質(zhì)量12 kg,巡航速度20 m/s,最大續(xù)航時(shí)間1.5 h。傳感器采用Parrot Sequoia相機(jī),該傳感器包含綠光、紅光、紅邊、近紅外和RGB三原色通道,相機(jī)數(shù)傳模式為WIFI無線傳輸。拍攝當(dāng)天,天氣晴朗、地面風(fēng)速小于4級,滿足航攝要求。試驗(yàn)設(shè)計(jì)飛行航高150 m,航線18條,航線總長20.16 km,航向重疊度80%,旁向重疊度70%,曝光方式為定距曝光,僅獲取分辨率為1600萬像素的RGB三原色數(shù)據(jù),共1009幅航攝原始相片,拼接后得到影像幅寬長約2.41 km,寬約1.57 km。驗(yàn)證區(qū)位于石河子總場一分場五連楊家莊村,數(shù)據(jù)來自Google earth歷史影像,影像時(shí)間為2017年9月5日。影像格式及色彩信息與試驗(yàn)區(qū)無人機(jī)航攝數(shù)據(jù)相同,影像空間分辨率為0.85 m,影像幅寬長約1.67 km,寬約0.85 km。試驗(yàn)區(qū)和驗(yàn)證區(qū)影像如圖1所示。

圖1 試驗(yàn)區(qū)和驗(yàn)證區(qū)示意圖

航攝結(jié)束后對試驗(yàn)區(qū)進(jìn)行作物類型及分布狀況調(diào)查,試驗(yàn)區(qū)內(nèi)棉花作物占比約為60%,苜蓿作物占比約為4%,其他類別相對均勻,約為9%;驗(yàn)證區(qū)內(nèi)棉花作物占比約為28%,葫蘆瓜作物占比約為20%,其他類別相對均勻約為13%。

1.3 數(shù)據(jù)預(yù)處理

試驗(yàn)區(qū)航攝相片通過Pix4Dmapper軟件進(jìn)行圖像快速拼接檢查,相機(jī)優(yōu)化參數(shù)為1.66%,滿足后續(xù)正射影像的生成要求。拼接生成正射影像的整個(gè)工作流程分3個(gè)步驟完成:首先利用飛行POS數(shù)據(jù)尋找同名點(diǎn),平均每張?jiān)嗥ヅ?2494.3個(gè)同名點(diǎn);然后通過空三測量計(jì)算原始影像的真實(shí)位置和拼接參數(shù),建立點(diǎn)云模型;最后基于影像內(nèi)容的優(yōu)化和區(qū)域網(wǎng)平差技術(shù),自動校準(zhǔn)影像并生成初步正射影像。航拍時(shí)間在正午時(shí)刻,此時(shí)雖然受太陽高度角的影響相對較小,但建筑物、林帶等仍會產(chǎn)生形變和陰影,需調(diào)整正射影像拼接線,以獲得高精度、高質(zhì)量的正射影像圖。試驗(yàn)區(qū)影像以TIFF格式存儲三通道的灰度信息,每個(gè)通道包含8 bit信息??臻g分辨率為0.057 m,為提高后續(xù)處理效率,重采樣至0.25 m。

2 研究方法

2.1 研究方案

由于研究使用的可見光影像只有紅、綠、藍(lán)3色的灰度信息,僅使用其中的RGB色彩信息難以實(shí)現(xiàn)作物類型區(qū)分,因此首先需要借助于色彩增強(qiáng)和紋理濾波技術(shù)挖掘影像中潛在的結(jié)構(gòu)和紋理等信息;然后采用ReliefF-Pearson特征選擇方法,根據(jù)分類貢獻(xiàn)權(quán)重和相關(guān)性系數(shù)篩選分類特征;再結(jié)合篩選后的分類特征建立分類樣本,使用5種機(jī)器學(xué)習(xí)算法進(jìn)行訓(xùn)練和參數(shù)調(diào)優(yōu);最后基于像元級別執(zhí)行監(jiān)督分類,結(jié)合目視解譯結(jié)果使用混淆矩陣[17]和Kappa系數(shù)分析評價(jià)各分類算法的總體精度,最終獲得利用可見光影像進(jìn)行農(nóng)田作物分類的最優(yōu)特征和分類算法。總體研究方案如圖2所示。

圖2 技術(shù)路線圖

2.2 色彩空間轉(zhuǎn)換

可見光影像在光譜特征方面只能提供、、通道的灰度信息,各通道數(shù)據(jù)之間存在較高的相關(guān)性及隨機(jī)噪聲[18],若直接進(jìn)行信息提取則精度難以保證。而HSI模型可消除彩色影像中強(qiáng)度分量的影響[19],且能夠大幅度減小圖像分析和處理工作量[20],有利于色彩特性檢測與分析。利用FA Kruse方法將影像色彩轉(zhuǎn)換至圓柱極坐標(biāo)下的雙錐體Munsell顏色空間的方法如下[21]

轉(zhuǎn)換后的影像包含色相()、飽和度()和亮度()3個(gè)色彩波段。表示顏色的辨別,如綠色,紅色等;表示色彩的強(qiáng)度或純度,飽和度越大,顏色越鮮艷;表示顏色的明亮程度。圖3表示在HSI色彩模型下的各類別樣本特征,可以看出不同作物類型在色相、飽和度及紋理上有明顯差異,成為后續(xù)分類信息提取的依據(jù)。

圖3 HSI色彩模型下的典型樣本

Fig.3 Typical samples under HSI color model

2.3 特征構(gòu)建

無人機(jī)可見光影像的光譜分辨率較低,但結(jié)構(gòu)和紋理等信息較為豐富,因此可借助于影像濾波來表達(dá)影像的各方面特征,如地物的邊緣特征、協(xié)同性、相異性和信息熵等[22-23]。

使用ENVI軟件做濾波處理,空間域選用二階概率統(tǒng)計(jì)濾波提取影像紋理特征,獲得色調(diào)、飽和度和亮度3個(gè)分量的均值、方差、協(xié)同性、對比度、相異性、信息熵、二階矩和相關(guān)性共24項(xiàng)紋理特征。綜合考慮精度與效率,將濾波的窗口設(shè)置為7×7,空間相關(guān)性矩陣和的變化量均為1,灰度質(zhì)量級為64。頻率域選用卷積低通濾波獲取3個(gè)分量的平滑值,得到3項(xiàng)色彩特征,卷積低通濾波窗口設(shè)置為7×7。為了使特征統(tǒng)計(jì)更具一般性,在選取樣本時(shí),盡可能使樣本均勻分布于各類別內(nèi)部。使用ENVI軟件ROI工具建立各類別樣本,并統(tǒng)計(jì)每個(gè)樣本的27項(xiàng)特征的屬性值。

2.4 特征降維

Relief算法最早由Kira和Rendell提出,主要用于解決二分類問題的特征降維。Kononenko推廣至ReliefF算法,解決了多類別分類時(shí)特征選擇及缺失數(shù)據(jù)處理的問題[24]。ReliefF特征選擇的原理是通過計(jì)算訓(xùn)練樣本的假設(shè)間隔實(shí)現(xiàn)特征分類貢獻(xiàn)評價(jià),給每一特征賦予分類能力權(quán)重[25],特征權(quán)值越大,表示該項(xiàng)特征分類能力越強(qiáng)。

ReliefF特征選擇借助于MATLAB軟件實(shí)現(xiàn),將統(tǒng)計(jì)的樣本數(shù)據(jù)導(dǎo)入,使用ReliefF主函數(shù)執(zhí)行核心算法分別計(jì)算27項(xiàng)特征的分類權(quán)重。對各特征權(quán)重因子排序,取權(quán)重因子大于0.15的11個(gè)特征H-CLP、H-Ent、I-Cor、H-Hom、I-CLP、I-Ent、I-Hom、I-Dis、S-CLP、S-Cor和I-Var。由于特征選擇之后的特征之間還可能存在相關(guān)性,利用SPSS軟件分析已選擇的11項(xiàng)特征兩兩之間Pearson相關(guān)系數(shù),依據(jù)特征之間的相關(guān)性越強(qiáng)信息冗余度越高、權(quán)值越低分類能力越弱的原則[26]剔除相關(guān)性強(qiáng)且權(quán)值低的H-Hom、I-Hom、I-Dis和S-Cor 4個(gè)特征(圖4中白色柱),最終得到相關(guān)性弱、權(quán)值高的H-CLP、H-Ent、I-Cor、I-CLP、I-Ent、S-CLP和I-Var作為優(yōu)選分類特征,特征權(quán)重如圖4所示。

注:H-CLP、H-Ent、I-Cor、H-Hom、I-CLP、I-Ent、I-Hom、I-Dis、S-CLP、S-Cor和I-Var分別代表色相低通值、色相信息熵、亮度相關(guān)性、色相協(xié)同性、亮度低通值、亮度信息熵、亮度協(xié)同性、亮度相異性、飽和度低通值、飽和度相關(guān)性和亮度方差值。

2.5 模型構(gòu)建

基于7個(gè)優(yōu)選特征重新建立分類樣本,并對特征變量進(jìn)行歸一化處理[27],利用ArcMap軟件中隨機(jī)生成點(diǎn)的方法構(gòu)建了1844個(gè)樣本組成樣本集。將其中的2/3作為訓(xùn)練集(1229個(gè)),1/3作為測試集(615個(gè))。各類別具體樣本數(shù)為:棉花作物訓(xùn)練樣本263個(gè),測試樣本132個(gè),共395個(gè);玉米作物訓(xùn)練樣本163個(gè),測試樣本82個(gè),共245個(gè);西葫蘆作物訓(xùn)練樣本188個(gè),測試樣本94個(gè),共282個(gè);苜蓿作物訓(xùn)練樣本125個(gè),測試樣本62個(gè),共187個(gè);林木類別訓(xùn)練樣本240個(gè),測試樣本120個(gè),共360個(gè);其他類別訓(xùn)練樣本250個(gè),測試樣本125個(gè),共375個(gè)。分別采用K最近鄰法(KNN)、支持向量機(jī)(SVM)、樸素貝葉斯(NB)、人工神經(jīng)網(wǎng)絡(luò)(ANN)、決策樹(C5.0)5種分類算法進(jìn)行訓(xùn)練,并借助于交叉驗(yàn)證不斷優(yōu)化分類參數(shù)。最終確定5個(gè)分類算法參數(shù)設(shè)置如下:

1)KNN采用歐氏距離,triangular核函數(shù),最近鄰值為30;

2)SVM的核函數(shù)為徑向基函數(shù)(radial basis function,RBF),懲罰系數(shù)為10,gamma為0.1;

3)NB全部設(shè)置為默認(rèn)參數(shù);

4)ANN選擇logistic激活函數(shù),隱層節(jié)點(diǎn)數(shù)為10,權(quán)值遞減值為0.001,RMS誤差值為0.01,最大迭代訓(xùn)練1000次;

5)C5.0設(shè)置置信區(qū)間為0.25,不使用全局修剪簡化樹,最小分支數(shù)為10。

2.6 精度評價(jià)

由于該研究屬于多分類問題,因此求取精確率(Precision)、準(zhǔn)確率(Accuracy)、召回率(Recall)、1值共4個(gè)指標(biāo)的宏平均值(macro_avg)作為綜合精度評價(jià)指標(biāo)對分類結(jié)果進(jìn)行評價(jià)[28]。

式中TP表示將正例劃分為正例數(shù);FP表示將負(fù)例劃分為正例數(shù);TN表示將負(fù)例劃分為負(fù)例數(shù);FN表示將正例劃分為負(fù)例數(shù)。

式中表示類別數(shù)目,P表示第類的精確率,召回率和1值的宏平均值計(jì)算方法相同。

3 結(jié)果與分析

3.1 模型對比分析

分別用準(zhǔn)確率、精確率、召回率和1值對5種模型的分類結(jié)果進(jìn)行精度評價(jià),結(jié)果如表1所示??v向?qū)Ρ瓤煽闯?,?zhǔn)確率、精確率、召回率和1值均呈現(xiàn)出相同的趨勢,表明分類樣本分布均衡,未發(fā)生數(shù)據(jù)集偏斜。結(jié)果表明,SVM、ANN和KNN方法的整體分類效果較好,分類準(zhǔn)確率均達(dá)到了80%以上。其中,SVM方法分類準(zhǔn)確率最高,測試集分類準(zhǔn)確率達(dá)到了83.77%,ANN和KNN方法分類準(zhǔn)確率次之;C5.0和NB方法的分類效果較差,其中NB的分類效果最差,測試集分類準(zhǔn)確率為74.91%。橫向比較各模型在訓(xùn)練集和測試集的分類精度,發(fā)現(xiàn)測試集分類準(zhǔn)確率比訓(xùn)練集分類準(zhǔn)確率僅有不同程度的微小下降。其中,SVM下降了2.84%,ANN下降了2.03%,KNN下降了4.86%。降幅小于5%,依據(jù)前人研究經(jīng)驗(yàn),可認(rèn)為模型可靠。

表1 不同分類器的分類精度

3.2 分類效果分析

基于優(yōu)選的H-CLP、H-Ent、I-Cor、I-CLP、I-Ent、S-CLP和I-Var 共7個(gè)分類特征,使用ENVI軟件對訓(xùn)練后的SVM、ANN和KNN模型對試驗(yàn)區(qū)和驗(yàn)證區(qū)作物進(jìn)行像元級別的監(jiān)督分類,同時(shí)根據(jù)實(shí)地采樣點(diǎn)數(shù)據(jù)建立的解譯標(biāo)志對影像目視解譯作為模型精度評價(jià)的依據(jù)。試驗(yàn)區(qū)SVM、ANN、KNN和目視解譯分類結(jié)果如圖5a所示,驗(yàn)證區(qū)SVM、ANN、KNN和目視解譯分類結(jié)果如圖5b所示。從試驗(yàn)區(qū)分類效果圖看,SVM、ANN、KNN分類方法對作物區(qū)域分類效果較好,作物地塊邊界較為完整,而對非作物區(qū)域分類效果較差。驗(yàn)證區(qū)分類效果與試驗(yàn)區(qū)分類效果基本一致,作物區(qū)域分類效果優(yōu)于非作物區(qū)域分類效果,且在各類別內(nèi)存在不同程度的誤分小斑塊。從全圖來看,SVM方法的誤分小斑塊最少,地塊邊界也較為規(guī)則完整;KNN分類方法誤分小斑塊最多,但地塊邊界較為規(guī)則完整;ANN分類方法誤分小斑塊數(shù)量介于SVM和KNN分類方法之間,但地塊邊界不完整,有區(qū)域性誤分現(xiàn)象。從類別來看,作物類別的誤分小斑塊數(shù)量明顯少于非作物類別的誤分小斑塊數(shù)量;在作物類別中,棉花和玉米作物的誤分小斑塊相對較少,而西葫蘆和苜蓿的誤分小斑塊相對較多。其原因可能與作物的種植模式、冠層形態(tài)及物候等因素相關(guān),棉花和玉米作物為機(jī)械直播式,具有固定的行距與株距,棉花作物9月份初正處于裂鈴期,玉米作物處于抽穗后期,冠層結(jié)構(gòu)已基本覆蓋背景,處于最佳識別期。西葫蘆作物為人工定植的方式,種植稀疏,9月份初處于收獲期,葉片泛黃,已過最佳識別期。苜蓿作物為條播的種植方式,收割方式為按茬收獲,試驗(yàn)區(qū)苜蓿作物處于收割前生長階段,生物量大,而驗(yàn)證區(qū)苜蓿作物處于收割后生長階段,生物量較小。

圖5 試驗(yàn)區(qū)和驗(yàn)證區(qū)分類結(jié)果

結(jié)合目視解譯分類結(jié)果計(jì)算試驗(yàn)區(qū)和驗(yàn)證區(qū)SVM、ANN和KNN分類結(jié)果的混淆矩陣、總體精度和Kappa系數(shù),以評價(jià)的分類效果。試驗(yàn)區(qū)和驗(yàn)證區(qū)SVM、ANN和KNN分類方法的總體精度及Kappa系數(shù)如表2所示,驗(yàn)證區(qū)SVM、ANN和KNN分類結(jié)果的混淆矩陣如表3所示。

表2 分類總體精度及Kappa系數(shù)比較

由表2可知,縱向比較總體精度和Kappa系數(shù),試驗(yàn)區(qū)和驗(yàn)證區(qū)表現(xiàn)出相同的分類效果,即SVM分類方法的整體分類精度最高,試驗(yàn)區(qū)和驗(yàn)證區(qū)均達(dá)到了80%以上,KNN和ANN分類方法的整體分類精度次之,試驗(yàn)區(qū)和驗(yàn)證區(qū)均達(dá)到了70%以上。橫向比較試驗(yàn)區(qū)和驗(yàn)證區(qū)的總體精度和Kappa系數(shù),SVM、ANN和KNN方法在驗(yàn)證區(qū)總體分類精度相較于試驗(yàn)區(qū)總體分類精度稍有下降,其中SVM方法下降了1.5%,KNN方法下降了1.85%,ANN方法下降了1.99%。Kappa系數(shù)表現(xiàn)出相反的趨勢,SVM方法在驗(yàn)證區(qū)和試驗(yàn)區(qū)的Kappa系數(shù)未發(fā)生變化,而KNN和ANN方法在驗(yàn)證區(qū)的Kappa系數(shù)相較于試驗(yàn)區(qū)稍有上升,其中KNN方法上升了0.06,ANN方法上升了0.09。

分析以上現(xiàn)象的原因,由于實(shí)際分類影像中各類別的占比不均衡,總體分類精度不能正確反映真實(shí)的分類精度,而Kappa系數(shù)是考慮到類別比例的精度評價(jià),在類別比例不均衡的情況下更能反映實(shí)際分類精度。統(tǒng)計(jì)試驗(yàn)區(qū)和驗(yàn)證區(qū)目視解譯的各類別面積,發(fā)現(xiàn)試驗(yàn)區(qū)內(nèi)棉花類型占比約為2/3,其他類別相對均勻,其分類精度受到棉花作物單個(gè)類別的影響;驗(yàn)證區(qū)內(nèi)棉花作物占比約為1/3,其他類別相對均勻。

相比而言,驗(yàn)證區(qū)各類別占比相對均衡,因此本文以驗(yàn)證區(qū)SVM、ANN和KNN分類方法的Kappa系數(shù)作為分類精度的最佳衡量指標(biāo),且SVM分類方法分類精度最高,Kappa系數(shù)為0.75,KNN和ANN分類方法次之。

由表3可知,SVM、ANN和KNN方法對作物類別的分類精度均高于非作物類別的分類精度。其中,SVM方法在作物類別分類的穩(wěn)定性及可靠性較好,精度均達(dá)到了80%以上,而在非作物類別分類精度在59%以上。KNN方法在作物類別分類的穩(wěn)定性及可靠性一般,玉米和西葫蘆作物的分類精度在80%以上,棉花和苜蓿作物的分類精度在77%以上,而非作物類別分類精度在52%以上。ANN方法在作物類別分類的穩(wěn)定性及可靠性較差,棉花作物的分類精度較好,達(dá)到了85%以上,玉米和西葫蘆作物的分類精度在72%以上,苜蓿作物的分類精度在55%以上,而非作物類別分類精度僅在50%以上。

表3 驗(yàn)證區(qū)分類混淆矩陣

4 討 論

本文基于無人機(jī)獲取的高分辨率可見光影像,充分利用色彩和紋理信息構(gòu)建并篩選特征,對比分析多種分類算法,獲得了能夠?qū)Ρ苯貐^(qū)主要農(nóng)作物快速、準(zhǔn)確分類的最佳特征和算法模型。該研究方法對于無人機(jī)遙感在精準(zhǔn)農(nóng)業(yè)中的應(yīng)用具有一定的參考價(jià)值,但由于作物種植所具有的多樣性和復(fù)雜性,還存在一些待改進(jìn)之處。本文依據(jù)最佳特征構(gòu)建的SVM分類方法,作物類別的整體分類精度均達(dá)到80%以上,但非作物類別僅為60%左右,分類精度仍有較大的提升空間。分析誤差產(chǎn)生的原因,主要包括以下兩方面:一是由于作物生長狀態(tài)不一致導(dǎo)致的“同物異征”。如同一作物由于播種時(shí)間的差異,導(dǎo)致同類作物包含多個(gè)生長期特征,整體識別度降低。二是研究區(qū)受到人類活動影響較大,人造地物特征差異較大,并且部分地物邊緣重疊,難以獲取實(shí)際地物邊界。針對以上誤差源,有如下兩方面的思考:其一,可見光傳感器所獲取的數(shù)碼相片不僅包含二維平面的色彩、紋理和結(jié)構(gòu)等特征,而且包含三維空間坐標(biāo),可嘗試計(jì)算三維空間信息(如點(diǎn)云、株高信息等)作為分類特征參與分類。其二,各作物類別的生長期存在差異,因此每種作物的最佳分類時(shí)間不盡相同,可以結(jié)合多時(shí)相的可見光影像以及作物的物候特征,進(jìn)一步提升分類精度。

目前無人機(jī)和傳感器技術(shù)已較為成熟,垂直起降固定翼無人機(jī)單架次覆蓋面積達(dá)150 km2,搭載的數(shù)碼相機(jī)成本低且受天氣影響較小,獲取的數(shù)碼照片數(shù)據(jù)占用空間小且處理簡單,使大面積農(nóng)田信息快速及時(shí)采集成為可能。另外,隨著衛(wèi)星傳感器技術(shù)的發(fā)展,低成本、高空間分辨率的商業(yè)遙感衛(wèi)星逐漸成為核心數(shù)據(jù)支持,并且可通過星座組網(wǎng)獲得更短的重返周期,可為更大范圍的農(nóng)業(yè)領(lǐng)域遙感監(jiān)測提供數(shù)據(jù)支持。同時(shí),北疆地區(qū)氣象條件較好,對可見光數(shù)據(jù)獲取的影響較小,且作物種植類型相對固定,大田種植模式也非常適合無人機(jī)或衛(wèi)星遙感監(jiān)測。因此,本文提出的方法可快速完成大面積農(nóng)作物種植信息調(diào)查,除此之外還可以為特定農(nóng)作物種植面積量算、作物長勢和水份情況監(jiān)測以及農(nóng)業(yè)自然災(zāi)害監(jiān)測提供方法參考。

5 結(jié) 論

本文充分挖掘了可見光影像中的潛在信息,將色彩增強(qiáng)和紋理濾波相結(jié)合構(gòu)建了分類特征,結(jié)合特征降維方法優(yōu)選色彩紋理特征,利用多種分類方法訓(xùn)練優(yōu)化模型參數(shù),并進(jìn)行分類精度評價(jià),獲得了基于無人機(jī)可見光影像的北疆主要農(nóng)作物最佳分類特征及方法。主要結(jié)論如下:

1)色彩增強(qiáng)和紋理濾波相結(jié)合能夠有效地構(gòu)建農(nóng)作物分類備選特征,結(jié)合ReliefF-Pearson方法能夠在篩選最佳分類特征的同時(shí)降低數(shù)據(jù)維度,從而減少數(shù)據(jù)量,提高數(shù)據(jù)處理效率和模型泛化能力。

2)SVM、KNN和ANN方法的整體分類效果較好。結(jié)合優(yōu)選特征進(jìn)行監(jiān)督分類,從誤分小斑塊的數(shù)量及作物地塊邊界的完整性等各方面考量,SVM分類方法總體效果最好,且穩(wěn)定可靠。

3)本文所采用的分類特征和分類方法對北疆棉花、玉米、苜蓿和西葫蘆等主要作物的分類效果較好,各作物分類精度均達(dá)到了80%以上。該方法可以很好地用于無人機(jī)可見光影像農(nóng)作物分類,后續(xù)可結(jié)合多時(shí)相分析來進(jìn)一步提升分類精度。

[1] 吳夢紅,楊長保,林楠.高分辨率遙感影像在土地覆被變化監(jiān)測中的應(yīng)用[J].科學(xué)技術(shù)與工程,2017,17(22):100-106. Wu Menghong, Yang Changbao, Lin Nan. Application of high-spatial remote sensing image in land cover change monitoring[J]. Science Technology and Engineering, 2017, 17(22): 100-106. (in Chinese with English abstract)

[2] 劉佳,王利民,楊福剛,等.基于HJ時(shí)間序列數(shù)據(jù)的農(nóng)作物種植面積估算[J].農(nóng)業(yè)工程學(xué)報(bào),2015,31(3):199-206. Liu Jia, Wang Limin, Yang Fugang, et al. Remote sensing estimation of crop planting area based on HJ time-series images[J]. Transactions of the Chinese Society of Agricultural Engine(Transactions of the CSAE), 2015, 31(3): 199-206. (in Chinese with English abstract)

[3] 王文靜,張霞,趙銀娣,等.綜合多特征的Landsat8時(shí)序遙感圖像棉花分類方法[J].遙感學(xué)報(bào),2017,21(1):115-124. Wang Wenjing, Zhang Xia, Zhao Yindi, et al. Cotton extraction method of integrated multi-features based on multi-temporal Landsat 8 images[J]. Journal of Remote Sensing, 2017, 21(1): 115-124. (in Chinese with English abstract)

[4] 史舟,梁宗正,楊媛媛,等. 農(nóng)業(yè)遙感研究現(xiàn)狀與展望[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2015,46(2):247-260. Shi Zhou, Liang Zongzheng, Yang Yuanyuan, et al. Status and prospect of agricultural remote sensing[J]. Transactions of the Chinese Society of Agricultural Machinery, 2015, 46(2): 247-260. (in Chinese with English abstract)

[5] 李冰,梁燕華,李丹丹,等.多時(shí)相GF-1衛(wèi)星PMS影像提取農(nóng)作物種植結(jié)構(gòu)[J].中國農(nóng)業(yè)資源與區(qū)劃,2017,38(9):56-62. Li Bing, Liang Yanhua, Li Dandan, et al. Crop planting structure extraction based on multi-temporal GF-1 pms remote sensing images[J]. Journal of China Agricultural Resources and Regional Planning, 2017, 38(9): 56-62. (in Chinese with English abstract)

[6] 王利民,劉佳,楊玲波,等.基于無人機(jī)影像的農(nóng)情遙感監(jiān)測應(yīng)用[J].農(nóng)業(yè)工程學(xué)報(bào),2013,29(18):136-145. Wang Limin, Liu Jia, Yang Lingbo, et al. Applications of unmanned aerial vehicle images on agricultural remote sensing monitoring[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2013, 29(18): 136-145. (in Chinese with English abstract)

[7] 韓文霆,郭聰聰,張立元,等.基于無人機(jī)遙感的灌區(qū)土地利用與覆被分類方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(11):270-277. Han Wenting, Guo Congcong, Zhang Liyuan, et al. Classification method of land cover and irrigated farm land use based on UAV remote sensing in irrigation[J]. Transactions of the Chinese Society of Agricultural Machinery, 2016, 47(11): 270-277. (in Chinese with English abstract)

[8] 馮昕,杜世宏,張方利,等.基于多尺度融合的高分辨率影像城市用地分類[J].地理與地理信息科學(xué),2013,29(3):43-47. Feng Xin, Du Shihong, Zhang Fangli, et al. Urban land classification of high resolution images based on multi-scale fusion[J]. Geography and Geo-Information Science, 2013, 29(3): 43-47. (in Chinese with English abstract)

[9] 汪小欽,王苗苗,王紹強(qiáng),等.基于可見光波段無人機(jī)遙感的植被信息提取[J].農(nóng)業(yè)工程學(xué)報(bào),2015,31(5):152-159. Wang Xiaoqin, Wang Miaomiao, Wang Shaoqiang, et al. Extraction of vegetation information from visible unmanned aerial vehicle images[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2015, 31(5): 152-159. (in Chinese with English abstract)

[10] 丁雷龍,李強(qiáng)子,杜鑫,等.基于無人機(jī)圖像顏色指數(shù)的植被識別[J].國土資源遙感,2016,28(1):78-86. Ding Leilong, Li Qiangzi, Du Xin, et al. Vegetation extraction method based on color indices from UAV images[J]. Remote Sensing for Land and Resources, 2016, 28(1): 78-86. (in Chinese with English abstract)

[11] 井然,鄧?yán)冢w文吉,等.基于可見光植被指數(shù)的面向?qū)ο鬂竦厮脖惶崛》椒╗J].應(yīng)用生態(tài)學(xué)報(bào),2016,27(5):1427-1436. Jing Ran, Deng Lei, Zhao Wenji, et al. Object-oriented aquatic vegetation extracting approach based on visible vegetation indices[J]. Chinese Journal of Applied Ecology, 2016, 27(5): 1427-1436. (in Chinese with English abstract)

[12] 韓文霆,李廣,苑夢嬋,等.基于無人機(jī)遙感技術(shù)的玉米種植信息提取方法研究[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2017,48(1):139-147. Han Wenting, Li Guang, Yuan Mengchan, et al. Extraction method of maize planting information based on UAV remote sensing techonology[J]. Transactions of the Chinese Society of Agricultural Machinery, 2017, 48(1): 139-147. (in Chinese with English abstract)

[13] 閔文芳,江朝暉,李想,等.基于無人機(jī)平臺和圖像分析的田間作物檢測[J].湖南農(nóng)業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2017,43(2):212-216. Min Wenfang, Jiang Zhaohui, Li Xiang, et al. Area measurement for field crops based on UAV platform and image analysis[J]. Journal of Hunan Agricultural University :Natural Sciences, 2017, 43(2): 212-216. (in Chinese with English abstract)

[14] 婁長安,潘能,文雯,等.石河子墾區(qū)農(nóng)田土壤重金屬含量與風(fēng)險(xiǎn)評價(jià)[J].石河子大學(xué)學(xué)報(bào):自然科學(xué)版,2013(5):541-548. Lou Changan, Pan Neng, Wen Wen, et al. Assessmet and analysis of heavy metal content in farmland soil in Shihezi reclamation area[J]. Journal of Shihezi University : Natural Science, 2013(5): 541-548. (in Chinese with English abstract)

[15] 許文霞,翟勇,黃婷,等.石河子墾區(qū)農(nóng)田土壤有機(jī)質(zhì)和全氮空間分布特征研究[J].土壤通報(bào),2015,46(6):1352-1358. Xu Wenxia, Zhai Yong, Huang Ting, et al. Spatial distribution of soil organic matter and total nitrogen in farmland in shihezi agricultural areas[J]. Chinese Journal of Soil Science, 2015, 46(6): 1352-1358. (in Chinese with English abstract)

[16] 呂娜娜,白潔,常存,等.近50年基于農(nóng)作物種植結(jié)構(gòu)的新疆綠洲農(nóng)田蒸散發(fā)時(shí)空變化分析[J].地理研究,2017,36(8):1443-1454. Lü Nana, Bai Jie, Chang Cun, et al. Spatial-temporal changes in evapotranspiration based on planting patterns of major crops in the Xinjiang oasis during 1960-2010[J]. Geographical Research, 2017, 36(8): 1443-1454. (in Chinese with English abstract)

[17] 雷蕾,王曉丹.結(jié)合SVM與DS證據(jù)理論的信息融合分類方法[J].計(jì)算機(jī)工程與應(yīng)用,2013,49(11):114-117. Lei Lei, Wang Xiaodan. Approach of information fusion and classification by SVM and DS evidence theory[J]. Computer Engineering and Applications, 2013, 49(11): 114-117. (in Chinese with English abstract)

[18] 韓潔,郭擎,李安.結(jié)合非監(jiān)督分類和幾何—紋理—光譜特征的高分影像道路提取[J].中國圖象圖形學(xué)報(bào),2017,22(12):1788-1797. Hang Jie, Guo Qin, Li An. Road extraction based on unsupervised classification and geometric-texture -spectral features for high-resolution remote sensing images[J]. Journal of Image and Graphics, 2017, 22(12): 1788-1797. (in Chinese with English abstract)

[19] 王阿川,陳舒暢,王學(xué)良.結(jié)合HIS和小波變換的自適應(yīng)遙感影像融合[J].光電工程,2016,43(8):76-83. Wang A’chuan, Chen Shuchang, Wang Xueliang. Adaptive remote sensing image fusion based on his and wavelet transform[J]. Opto-Electronic Engineering, 2016, 43(8): 76-83. (in Chinese with English abstract)

[20] 章三妹,唐正明.基于HIS顏色空間的彩色圖像分割算法研究[J].西華師范大學(xué)學(xué)報(bào):自然科學(xué)版,2012,33(3):304-307. Zhang Sanmei, Tang Zhengming. The research of color image segmentation algorithm based on his color space[J]. Journal of China West Normal University: Natural Sciences, 2012, 33(3): 304-307. (in Chinese with English abstract)

[21] Kruse F A, Raines G L. Technique for enhancing digital color images by contrast stretching in munsell color space[J]. Center for Integrated Data Analytics Wisconsin Science Center, 1984: 755-760.

[22] 侯群群,王飛,嚴(yán)麗.基于灰度共生矩陣的彩色遙感圖像紋理特征提取[J].國土資源遙感,2013,25(4):26-32. Hou Qunqun, Wang Fei, Yan Li. Extraction of color image texture feature based on gray-level co-occurrence matrix [J]. Remote Sensing for Land and Resources, 2013, 25(4): 26-32. (in Chinese with English abstract)

[23] 胡勇,張孝成,馬澤忠,等.無人機(jī)遙感影像中農(nóng)村房屋信息快速提取[J].國土資源遙感,2016,28(3):96-101. Hu Yong, Zhang Xiaocheng, Ma Zezhong, et al. Rural residential area extraction from UAV remote sensing imagery[J]. Remote Sensing for Land and Resources, 2016, 28(3): 96-101. (in Chinese with English abstract)

[24] 菅小艷,韓素青,崔彩霞.不平衡數(shù)據(jù)集上的Relief特征選擇算法[J].?dāng)?shù)據(jù)采集與處理,2016,31(4):838-844. Jian Xiaoyan, Han Suqing, Cui Caixia. Relief feature selection algorithm on unbalanced datasets[J]. 2016, 31(4): 838-844. (in Chinese with English abstract)

[25] 蔣玉嬌,王曉丹,王文軍,等.一種基于PCA和ReliefF的特征選擇方法[J].計(jì)算機(jī)工程與應(yīng)用,2010,46(26):170-172. Jiang Yujiao, Wang Xiaodan, Wang Wenjun, et al. New feature selection approach by PCA and ReliefF[J]. Computer Engineering and Applications, 2010, 46(26): 170-172. (in Chinese with English abstract)

[26] Kirwan J R. Reporting of significance levels versus Pearson's correlation coefficient[J]. Br J Rheumatol, 1984, 23(3): 232-233.

[27] 肖漢光,蔡從中.特征向量的歸一化比較性研究[J].計(jì)算機(jī)工程與應(yīng)用,2009,45(22):117-119. Xiao Hanguang, Cai Congzhong. Comparison study of normalization of feature vector[J]. Computer Engineering and Applications, 2009, 45(22): 117-119. (in Chinese with English abstract)

[28] 溫奇,王薇,李苓苓,等.高分辨率遙感影像的平原建成區(qū)提取[J].光學(xué)精密工程,2016,24(10):2557-2564. Wen Qi, Wang Wei, Li Lingling, et al. Extraction of built-up area in plain from high resolution remote sensing images[J]. Optics and Precision Engineering, 2016, 24(10): 2557-2564. (in Chinese with English abstract)

Classification method of main crops in northern Xinjiang based on UAV visible waveband images

Dai Jianguo1,3, Zhang Guoshun1,3, Guo Peng2, Zeng Tiaojun1, Cui Meina1,3, Xue Jinli1,3

(1,,832003;2.,,832003; 3.,,832003,)

Northern Xinjiang is a significant base of agricultural production in China. Finding out the cropping structure of main crops is important for food security. Accurate acquisition of field crop planting information is the basis of agricultural production and the key to accurate estimation of yield. This paper selected some farmlands of the 8thDivision of Xinjiang Production and Construction Corps as the experimental region and verified region. In August 2017, the CW-20 fixed-wing drone was equipped with a Parrot Sequoia camera, which captured the visible light image. The red, green and blue bands were employed to color space conversion and texture filtering, the texture and structural features of the image were deeply explored, and the automatic extraction of crop planting information was realized. Firstly, color space transformation and gray level co-occurrence matrix texture filtering were used to obtain 27 texture features of hue, saturation, and brightness. Secondly, classification weights and correlation coefficients of 24 texture features and 3 low-pass features were calculated by ReliefF-Pearson feature reduction method. The redundant features with weak classification ability and high correlation were rejected. Hue convolution low pass, hue entropy, intensity correlation, hue homogeneity, intensity convolution low pass, intensity entropy, intensity homogeneity, intensity dissimilarity, saturation convolution low pass, saturation correlation, and intensity variance were the optimal features for visible waveband image classification. Based on the optimal classification features,-nearest neighbor (KNN), support vector machine (SVM), Naive Bayes (NB), artificial neural network (ANN), and decision tree (C5.0) classification algorithms were used to train model parameters and assess the classification effect. The overall classification of all methods is quite satisfactory, and the classification accuracy rate is over 80%. Among them, the SVM method has the highest classification accuracy, and the accuracy of testing set area classification is 83.77%, followed by the ANN and KNN methods. Finally, the SVM, KNN, and ANN classification methods were used to perform pixel-level supervised classification of images in experimental region and verified region, and the classification effects were evaluated based on visual interpretation maps. The results show that the SVM, KNN, and ANN classification methods are satisfactory in the classification of crop category, and the boundary of the field block is relatively complete, but the classification effect of the non-crop category is unsatisfactory. From the confusion matrix, the SVM method has the highest classification accuracy. Its overall accuracy is 80.74% and Kappa coefficient is 0.75. The classification accuracies of cotton, corn, marrow, and alfalfa crops are 82.78%, 85.49%, 92.65% and 80.84%, respectively, while that of the trees and other categories are only 64.58% and 59.28%, respectively. The overall accuracies of KNN and ANN methods are above 74%. In summary, based on the optimal color-texture features selected by ReliefF-Pearson, the SVM classification method is the most stable and reliable in the crop category classification and can be utilized to classify the main crops in northern Xinjiang. However, all classification methods are built on the pixel level. There are some differences in the canopy structure of the same crop, and some internal areas may be misclassified as others. Using object-oriented segmentation can improve the classification accuracy. In addition, there are differences in the growth period of different kinds of crops, and the difference in the optimal identification time differs greatly in the accuracy of each category. Using crop phenology information combined with the time-series images can get the expected classification effect. The method of this paper has a certain applicability for the UAV (unmanned aerial vehicle) visible waveband images to obtain planting information of the main crops in northern Xinjiang and provides a methodological reference for a large-scale crop planting information survey.

unmanned aerial vehicle; remote sensing; visible waveband images; color and texture features; machine learning; crops classification

10.11975/j.issn.1002-6819.2018.18.015

S252

A

1002-6819(2018)-18-0122-08

2018-03-30

2018-07-24

國家自然科學(xué)基金資助項(xiàng)目(31460317)

戴建國,副教授,主要從事農(nóng)業(yè)信息化和遙感技術(shù)研究。 Email:daijianguo2002@sina.com

戴建國,張國順,郭 鵬,曾窕俊,崔美娜,薛金利. 基于無人機(jī)遙感可見光影像的北疆主要農(nóng)作物分類方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(18):122-129. doi:10.11975/j.issn.1002-6819.2018.18.015 http://www.tcsae.org

Dai Jianguo, Zhang Guoshun, Guo Peng, Zeng Tiaojun, Cui Meina, Xue Jinli. Classification method of main crops in northern Xinjiang based on UAV visible waveband images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(18): 122-129. (in Chinese with English abstract) doi: 10.11975/ j.issn.1002-6819 .2018.18.015 http://www.tcsae.org

猜你喜歡
紋理類別試驗(yàn)區(qū)
推進(jìn)自貿(mào)試驗(yàn)區(qū)高質(zhì)量發(fā)展
論陶瓷刻劃花藝術(shù)類別與特征
一起去圖書館吧
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
18個(gè)自貿(mào)試驗(yàn)區(qū)
使用紋理疊加添加藝術(shù)畫特效
各試驗(yàn)區(qū)先行先試 探索創(chuàng)造模范做法
TEXTURE ON TEXTURE質(zhì)地上的紋理
4個(gè)自貿(mào)試驗(yàn)區(qū)總體方案實(shí)施率超過90%
消除凹凸紋理有妙招!