楊 丹,李崇貴,張家政
(西安科技大學(xué),西安 710054)
森林作為生態(tài)系統(tǒng)中重要的組成部分,能夠凈化空氣、固化沙土、含蓄水源,保持物種多樣性。同時,為人類提供大量的木材及林產(chǎn)品,具有一定的經(jīng)濟(jì)價值及社會效益。因此,對森林資源的管理及監(jiān)測至關(guān)重要。傳統(tǒng)的林業(yè)資源調(diào)查周期長、強(qiáng)度大、成本高,難以滿足林業(yè)的可持續(xù)發(fā)展[1]。遙感作為一門高新技術(shù),具有覆蓋區(qū)域廣、時效性強(qiáng)等優(yōu)點(diǎn),能夠大大提高森林資源調(diào)查的效率。目前,隨著衛(wèi)星傳感器的不斷發(fā)展,影像的空間、時間以及輻射分辨率均在不斷提高。其中高空間分辨率影像具有更加豐富的空間信息及紋理信息,能夠在一定程度上精確地實(shí)現(xiàn)森林植被分類[2]。眾多學(xué)者們結(jié)合影像的光譜特征、植被指數(shù)、紋理特征以及地形特征等進(jìn)行森林植被分類,取得了一定的進(jìn)展。Agarwal等[3]、Darren等[4]、徐凱健等[5]分別結(jié)合植被物候、DEM或紋理特征,對森林樹種分類;任沖等[6]綜合多時相光譜特征、植被指數(shù)、紋理特征以及地形等輔助信息,對林地類型進(jìn)行精細(xì)分類。研究結(jié)果均表明,多時相影像分類精度明顯高于單時相分類精度。同時,加入植被指數(shù)、紋理特征以及DEM后,精度有明顯提高。因此,構(gòu)建影像多特征數(shù)據(jù)進(jìn)行森林植被分類,能夠改善分類精度。然而,由于多維數(shù)據(jù)可能會造成數(shù)據(jù)冗余,降低運(yùn)行效率,因此,需要對特征進(jìn)行優(yōu)選。相關(guān)學(xué)者采用隨機(jī)森林、VSURF等算法進(jìn)行特征優(yōu)選,選取與目標(biāo)相關(guān)性高的特征參與分類,從而降低分類模型的不確定性[7-8]。如今,隨著數(shù)據(jù)時代的到來,深度學(xué)習(xí)領(lǐng)域發(fā)展迅猛,由卷積神經(jīng)網(wǎng)絡(luò)(CNN)到全卷積神經(jīng)網(wǎng)絡(luò)(FCN),再到U-Net,DeepLab V3+,SegNet等語義分割模型,使得傳統(tǒng)的分類方法逐漸過渡到深度學(xué)習(xí),為遙感分類提供了廣闊的空間。相關(guān)學(xué)者也在逐步探索其對于森林植被遙感分類的有效性。江濤等[9]基于GF-2影像采用CNN對森林林分類型進(jìn)行分類,結(jié)果表明CNN能夠挖掘深層特征,從而提高分類精度;許慧敏等[10]結(jié)合高分辨率影像和歸一化數(shù)字表面模型,采用U-Net模型分類,表明加入nDSM能夠提高模型精度;王雅慧等[11]基于高分辨率影像,加入NDVI,采用U-Net模型對森林植被分類,結(jié)果表明,加入NDVI后精度提升,同時,該模型精度高于SVM和CNN;徐知宇[12]等以GF-2影像為數(shù)據(jù)源,結(jié)合原始波段分別采用U-Net、SegNet和DeepLab V3+模型對城市綠地進(jìn)行分類,結(jié)果表明,深度學(xué)習(xí)方法優(yōu)于傳統(tǒng)的分類方法;楊蜀秦等[13]將改進(jìn)的DeepLab V3+網(wǎng)絡(luò)用于無人機(jī)多光譜遙感作物分類中,取得了準(zhǔn)確的結(jié)果。因此,深度學(xué)習(xí)方法能夠提取遙感影像深層特征,進(jìn)一步提高分類精度,具有一定的研究意義。然而,目前大部分研究僅在原始波段的基礎(chǔ)上擴(kuò)充單一波段,對于多特征波段的研究還較少,同時利用多時相GF-1影像進(jìn)行特征優(yōu)選并結(jié)合深度學(xué)習(xí)分類的研究也較為罕見。因此,本文以孟家崗林場為研究區(qū),以多時相高分一號影像和DEM為數(shù)據(jù)源,提取多時相的光譜特征、植被指數(shù)、紋理特征以及DEM,并結(jié)合VSURF算法進(jìn)行特征優(yōu)選。之后,分別采用最大似然法、隨機(jī)森林、U-Net、SegNet和DeepLab V3+模型對森林林分類型進(jìn)行分類,探究更適用于森林分類的特征組合及分類模型,為后續(xù)林業(yè)資源監(jiān)測提供相應(yīng)的技術(shù)手段。
研究區(qū)位于黑龍江省樺南縣東北部的孟家崗林場(圖1),地理位置為北緯46°20′16″~46°30′50″,東經(jīng)130°32′42″~130°52′36″。該林場主要以針葉林為主,林場經(jīng)營面積為16 274hm2。地勢東北高,西南低,以低山丘陵為主,坡度較平緩,海拔在170~575m之間,平均海拔為250m。氣候條件屬于東亞大陸性季風(fēng)氣候,冬長夏短,溫度在-34.7~35.6℃之間,年平均氣溫為2.7℃,年平均降水量為550mm。
圖1 研究區(qū)地理位置及5月2日影像
本文采用的高分1號影像數(shù)據(jù)來自中國資源衛(wèi)星應(yīng)用中心(http://www.crasda.com)。根據(jù)研究區(qū)內(nèi)森林植被的物候特征,選取了成像時間為2017-05-02,2017-07-06,2017-10-25的3期影像,每期均由兩景高分影像覆蓋。采用ENVI 5.3軟件對GF-1影像進(jìn)行一系列預(yù)處理操作,分別為輻射定標(biāo)、大氣校正、正射校正、圖像融合、地形校正以及鑲嵌等,最終得到研究區(qū)的多光譜影像,空間分辨率為2m。由于植被生長受海拔和地形等條件影響,因此本文將DEM作為輔助信息參與分類,以提高分類精度。采用的DEM數(shù)據(jù)來自地理空間數(shù)據(jù)云,下載研究區(qū)內(nèi)30m分辨率的地形數(shù)據(jù)(ASTGTM_N46E130),將其重采樣為2m。
本文采用的輔助數(shù)據(jù)為2014年孟家崗林場二類調(diào)查數(shù)據(jù)以及2017年實(shí)地更新數(shù)據(jù)。根據(jù)全國生態(tài)系統(tǒng)分類體系,對森林生態(tài)系統(tǒng)進(jìn)行二級分類,將其林分類型劃分為針葉林、闊葉林、針闊混交林。由于研究區(qū)還存在耕地或農(nóng)作物等,將其劃分為其他類別。
根據(jù)樣本數(shù)據(jù)制作深度學(xué)習(xí)標(biāo)簽,由于原始影像尺寸過大,難以直接輸入網(wǎng)絡(luò),因此需要對影像及標(biāo)簽進(jìn)行裁剪。利用ArcGIS Pro2.3制作深度學(xué)習(xí)數(shù)據(jù)集,采用滑動采樣的方式將影像及標(biāo)簽切割成256×256像元大小的子圖。之后,將數(shù)據(jù)集按照6∶2∶2的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,各數(shù)據(jù)集之間需保持獨(dú)立,同時具有相似的分布。其中訓(xùn)練集949張,主要用于訓(xùn)練模型;驗(yàn)證集368張,需要對訓(xùn)練模型進(jìn)行調(diào)參;測試集318張,主要用于測試模型精度。
基于多時相GF-1影像,提取多時相光譜特征、植被指數(shù)、紋理特征以及DEM,構(gòu)建特征數(shù)據(jù)集,并采用VSURF算法優(yōu)選變量。之后分別采用最大似然法、隨機(jī)森林、U-Net、SegNet和DeepLab V3+方法對林分類型分類,并進(jìn)行精度評定。
2.1.1光譜特征
對多時相GF-1影像預(yù)處理后,將各時相的原始光譜波段作為光譜特征,參與植被分類。因此,最終提取3期不同時相影像的12個光譜特征。
2.1.2植被指數(shù)
相關(guān)學(xué)者應(yīng)用多時相植被指數(shù)進(jìn)行遙感分類研究,均取得了良好的效果。因此,本文結(jié)合前人研究,提取常見的4種植被指數(shù)參與分類。
歸一化植被指數(shù)(NDVI)可以檢測植被的生長狀況以及覆蓋度等,其公式為:
INDVI=(BNIR-BR)/(BNIR+BR)
(1)
差值植被指數(shù)(DVI)能夠很好反映植被覆蓋度的變化,其公式為:
IDVI=BNIR-BR
(2)
比值植被指數(shù)(RVI)一般適用于植被高密度覆蓋的區(qū)域,其公式為:
IRVI=BNIR-BR
(3)
增強(qiáng)植被指數(shù)(EVI)通過藍(lán)光波段修正大氣對紅邊波段的影響,來增強(qiáng)植被指數(shù),一般適用于植被茂密區(qū),其公式為:
IEVI=2.5×[(BNIR-BR)/(BNIR+6.0BR-
7.5BB+1)]
(4)
式(1)—式(4)中:BR,BB,BNIR分別為紅光、藍(lán)光及近紅外波段的反射率。
本文分別計(jì)算3期不同時相影像的植被指數(shù),最終提取12個指數(shù)特征。
2.1.3紋理特征
有研究者發(fā)現(xiàn)紋理特征對于高分辨率影像進(jìn)行森林類型識別可以提供有效的信息,進(jìn)而能夠提高森林植被分類精度?;叶裙采仃?GLCM)能夠反映圖像灰度關(guān)于方向、相鄰間隔、變化幅度的信息。但是不能直接應(yīng)用,需提取二次統(tǒng)計(jì)量描述紋理特征。常用的8個特征為:均值、方差、同質(zhì)性、對比度、相異性、熵、二階矩和相關(guān)性。涉及4個關(guān)鍵參數(shù):窗口大小、像元間距、提取方向和灰度級。通過多次實(shí)驗(yàn)進(jìn)行分析,選取15×15窗口,間距為1,方向?yàn)?0°,灰度級為64級。由于高分辨率影像原始波段之間具有很強(qiáng)的相關(guān)性,因此首先對各時相影像進(jìn)行主成分分析,之后對前3個主成分變量進(jìn)行紋理特征提取。本文分別計(jì)算3期不同時相前3個主成分的8個紋理特征,最終提取3×3×8=72個紋理特征。
2.1.4數(shù)字高程模型
由于海拔高度的不同,導(dǎo)致植被的生長分布也明顯不同。將數(shù)字高程模型(DEM)作為輔助信息參與分類,有助于提高森林分類精度。因此,選取DEM作為特征變量。
將提取的特征變量全部參與分類,必然會造成數(shù)據(jù)冗余,反而會導(dǎo)致分類性能下降。由于各特征變量之間可能存在較強(qiáng)的相關(guān)性,因此需要對特征進(jìn)行篩選。本文采用VSURF R語言包進(jìn)行特征優(yōu)選。VSURF(Variable Selection Using Random Forests)是由Genuer等[14]提出的一種基于隨機(jī)森林選擇變量的方法,可以通過R語言包進(jìn)行描述。該包能夠處理高維數(shù)據(jù),一般用于回歸和監(jiān)督分類問題。該方法選擇變量時主要有以下三個步驟:1)閾值處理步驟,根據(jù)變量重要性對變量進(jìn)行排序,剔除不重要的變量;2)解釋步驟,需要考慮第一步選擇的變量,并選擇所有與響應(yīng)變量高度相關(guān)的重要變量;3)預(yù)測步驟,尋找數(shù)量較少且冗余度極低的變量,并能對響應(yīng)變量進(jìn)行足夠好的預(yù)測。
最大似然分類法是基于貝葉斯準(zhǔn)則建立非線性判別函數(shù)集,假設(shè)各波段的統(tǒng)計(jì)值呈正態(tài)分布,計(jì)算某像元屬于該樣本的歸屬概率,最終像元?dú)w并到歸屬概率最大的一類。
隨機(jī)森林是一種基于決策樹的集成算法,采用決策樹作為弱分類器,在裝袋技術(shù)隨機(jī)采樣的基礎(chǔ)上,加上特征選擇。其基本原理是在原始數(shù)據(jù)集中有放回的隨機(jī)采樣選出若干個子集,基于每個子集訓(xùn)練多個基分類器,之后根據(jù)基分類器的投票獲取最終分類結(jié)果。
U-Net模型是由Olaf Ronneberger等[15]基于FCN改進(jìn)而來,因其結(jié)構(gòu)形似字母“U”而得名,最早廣泛應(yīng)用于醫(yī)學(xué)圖像分割。它是由兩部分組成,分別為編碼(提取影像特征)和解碼(還原圖像尺寸)。同時將高層與底層特征圖進(jìn)行拼接,獲得更加精確的特征圖。如圖2所示為U-Net網(wǎng)絡(luò)結(jié)構(gòu)圖,編碼過程是由4層組成,每層進(jìn)行兩個3×3的卷積操作以及一個2×2的池化操作,之后,進(jìn)行下采樣,特征圖的尺寸減小一半,而通道數(shù)會增加二倍。解碼過程也是由4層組成,先通過反卷積使特征圖尺寸增加2倍,同時通道數(shù)減半,之后,將其與左側(cè)對稱的壓縮通道的特征圖合并,再進(jìn)行兩個2×2反卷積操作。最后一層進(jìn)行一個1×1卷積操作,將特征圖映射為類別,通過softmax函數(shù)確定各類別概率。
圖2 U-Net網(wǎng)絡(luò)結(jié)構(gòu)
SegNet網(wǎng)絡(luò)是由Vijay,Alex等基于FCN,對VGG-16網(wǎng)絡(luò)進(jìn)行修改而得到的語義分割網(wǎng)絡(luò),應(yīng)用于自動駕駛圖像分割。[16]它是一種編碼/解碼結(jié)構(gòu),編碼部分采用的是VGG16的前13層卷積網(wǎng)絡(luò)來提取特征,通過池化操作增大感受野,圖像尺寸減??;同時編碼部分每一層對應(yīng)解碼部分相應(yīng)層,并且通過反卷積得到圖像特征,上采樣將圖像尺寸還原。最后,通過softmax函數(shù)輸出各分類概率,得到分割結(jié)果圖。
DeepLab V3+是由Google團(tuán)隊(duì)于2018年發(fā)表在CVPR上,根據(jù)DeepLab V3改進(jìn)而來[17],它增加了解碼器,可以細(xì)化分割結(jié)果以及物體邊緣,并且將CNN應(yīng)用到空洞空間卷積池化金字塔和解碼器中,從而形成功能更加強(qiáng)大的編碼/解碼網(wǎng)絡(luò)。
精度評定是指根據(jù)實(shí)際地物和分類結(jié)果進(jìn)行比較,以此判斷分類方法的性能。常見的精度評定方法是通過混淆矩陣(Confusion Matrix)計(jì)算各種精度統(tǒng)計(jì)值,如,總體精度(被正確分類的像元數(shù)占總像元數(shù)的比例)、Kappa系數(shù)、用戶精度和制圖精度等。本文以實(shí)地調(diào)查數(shù)據(jù)為驗(yàn)證樣本,對比5種分類方法的總體精度和Kappa系數(shù),從而評價各方法的準(zhǔn)確程度。
本文根據(jù)多時相的GF-1影像,提取光譜特征、植被指數(shù)、紋理特征以及DEM,共97個特征變量。其中,變量的命名規(guī)則為“日期_波段”,例如0502_b1、0502_DVI、0502_P1_Mea分別代表5月2日影像的原始B1波段、差值植被指數(shù)以及第一主成分紋理特征中的均值。其中紋理特征簡寫為前3個字母。
本次實(shí)驗(yàn)使用R語言包VSURF進(jìn)行特征優(yōu)選,將樣本數(shù)據(jù)的97個變量以及因變量森林類別輸入到VSURF函數(shù)中,同時mtry設(shè)置為特定值(變量數(shù)/3),ntree設(shè)置為默認(rèn)值2 000。最終輸出結(jié)果包含3個重要部分,分別為閾值處理、解釋以及預(yù)測步驟后所挑選的變量集(varselect.thres、varselect.interp和varselcet.pred)。如圖3所示為VSURF函數(shù)輸出結(jié)果的曲線圖。
注:圖(a),(b)表示閾值步驟;圖(c),(d)表示解釋和預(yù)測步驟
首先使用VSURF_thres函數(shù)對變量的重要性進(jìn)行排序(如圖3(a),根據(jù)重要性的標(biāo)準(zhǔn)差估計(jì)重要性閾值,該閾值(如圖3(b)中的紅色虛線)被設(shè)置為CART模型擬合該曲線的最小預(yù)測值(如圖3(b)中的綠色分段常函數(shù))。將超過平均VI的變量保留。之后,通過VSURF_interp函數(shù)計(jì)算隨機(jī)森林模型的OOB誤差(圖3(c)),該值迅速減小,當(dāng)前41個變量在該模型中時,它達(dá)到最小并趨于穩(wěn)定(如垂直紅線)。最后對變量進(jìn)行預(yù)測,使用VSURF_pred函數(shù),輸出優(yōu)選變量及OOB誤差曲線圖(如圖3(d)所示)。根據(jù)VSURF_pred函數(shù)得出16個優(yōu)選變量,將其按照重要性進(jìn)行排列,分別是:0706_NDVI,0706_RVI,0706_P3_Mea,0502_NDVI,0706_P1_Mea,DEM,0706_P1_Hom,0502_P2_Con,0502_P2_Mea,1025_NDVI,0706_P2_Mea,0502_P3_Mea,0706_P1_Cor,1025_P1_Mea,1025_P3_Mea,1025_P2_Mea。從中可以看出,各時相的歸一化植被指數(shù)、比值植被指數(shù)、DEM、均值、同質(zhì)性、對比度以及相關(guān)性特征對分類的貢獻(xiàn)性較高,均被保留。
本次實(shí)驗(yàn)中深度學(xué)習(xí)方法是基于Tensorflow2.0+ Keras框架實(shí)現(xiàn)的,其主要硬件配置為 Intel(R)Core(TM)i5-3230M CPU @ 2.60GHz,NVIDIA GeForce GT 740M。由于原始的網(wǎng)絡(luò)模型參數(shù)過多,訓(xùn)練過程需要耗費(fèi)大量的內(nèi)存及時間,并且硬件要求很高。因此,本文對3種深度學(xué)習(xí)模型均進(jìn)行了優(yōu)化,對其網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)進(jìn)行調(diào)整,在一定程度上減少了卷積核數(shù)量,同時在卷積層后加入正則化,避免過擬合現(xiàn)象。訓(xùn)練過程采用Adam優(yōu)化算法,學(xué)習(xí)率為0.001,損失函數(shù)為 categorical_crossentropy。對深度學(xué)習(xí)模型訓(xùn)練時,將訓(xùn)練集和驗(yàn)證集的影像及標(biāo)簽按批次輸入到網(wǎng)絡(luò)中,其中訓(xùn)練集用來訓(xùn)練模型參數(shù),擬合數(shù)據(jù)樣本;驗(yàn)證集根據(jù)訓(xùn)練集的效果,對超參數(shù)進(jìn)行調(diào)整。當(dāng)訓(xùn)練集和驗(yàn)證集的精度及損失值(loss)趨于穩(wěn)定時,模型訓(xùn)練結(jié)束。之后,采用模型對測試集數(shù)據(jù)進(jìn)行測試,評估模型的泛化能力。對模型優(yōu)化后,模型訓(xùn)練速度大幅度提高,能夠在較短的時間內(nèi)使模型達(dá)到穩(wěn)定。
本文基于多時相GF-1影像,提取光譜特征、植被指數(shù)、紋理特征以及DEM特征,結(jié)合VSURF算法優(yōu)選16個特征變量,分別采用最大似然法、隨機(jī)森林、U-Net、SegNet和DeepLab V3+5種方法對森林林分類型進(jìn)行分類,根據(jù)驗(yàn)證樣本通過混淆矩陣計(jì)算得到最終精度,結(jié)果如表1所示。同時,為了凸顯多時相影像的分類效果,采用最大似然法對單時相影像進(jìn)行對比實(shí)驗(yàn),其精度結(jié)果如表2所示。從中可以看出,結(jié)合多時相影像的分類精度為71.91%,明顯高于單時相的分類精度,主要是由于多時相影像考慮了植被的物候特征,從而提高了分類精度。
表1 基于多時相影像的分類精度統(tǒng)計(jì)
表2 基于單時相影像的最大似然分類精度統(tǒng)計(jì)
通過對比單時相之間的分類精度,7月份的分類精度最高,主要是森林植被處于生長階段,而10月份為生長末期,樹葉逐漸變黃掉落,其精度較低。
從表1中可以看出,3種深度學(xué)習(xí)方法均比傳統(tǒng)的機(jī)器學(xué)習(xí)分類精度高,其中U-Net模型的精度最高,總體精度為86.04%,Kappa系數(shù)為0.742;其次是DeepLab V3+模型,總體精度為84.26%,Kappa系數(shù)為0.699;SegNet模型精度較低,其總體精度為79.05%。對于傳統(tǒng)的機(jī)器學(xué)習(xí)分類,隨機(jī)森林分類精度為75.59%,Kappa系數(shù)為0.611,比最大似然法精度高3.36%。因此,在一定程度上,深度學(xué)習(xí)方法能夠挖掘影像的深層特征,優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,對于森林林分類型分類具有適用性。
對測試集數(shù)據(jù)進(jìn)行預(yù)測,隨機(jī)選取5張256×256像元大小的影像,其5種分類方法結(jié)果如圖4所示。從中可以看出,傳統(tǒng)的機(jī)器學(xué)習(xí)方法,由于不能夠充分學(xué)習(xí)到特征信息,其錯分漏分現(xiàn)象較嚴(yán)重,同時存在明顯的椒鹽現(xiàn)象。而深度學(xué)習(xí)方法能夠?qū)W習(xí)影像多時相的光譜特征、植被指數(shù)、紋理特征、地形特征等深層語義信息,同時減少了分類過程中的“椒鹽噪聲”,避免像元混分現(xiàn)象。
圖4 分類結(jié)果細(xì)節(jié)
根據(jù)圖4(a)和(b)可以看出最大似然法和隨機(jī)森林方法中針葉林、闊葉林和針闊混交林均存在較為嚴(yán)重的混分情況,主要是由于針闊混交林中闊葉林和針葉林交錯混合生長,其淺層的機(jī)器學(xué)習(xí)難以學(xué)習(xí)到更深層次的特征,導(dǎo)致不能夠正確區(qū)分,而出現(xiàn)明顯的破碎化分布。而深度學(xué)習(xí)模型,能夠?qū)W習(xí)影像深層特征,在一定程度上可以避免該現(xiàn)象。
根據(jù)圖4(c),(d)和(e)可以看出深度學(xué)習(xí)方法分類中,針闊混交林、針葉林以及闊葉林混分現(xiàn)象大大降低,但針闊混交林仍存在誤分現(xiàn)象,主要是由于該類別樣本數(shù)量不均衡,導(dǎo)致模型難以學(xué)習(xí)到更多的特征,從而導(dǎo)致精度降低。對比U-Net,SegNet和DeepLab V3+這3種模型,影響其精度的原因主要是模型的構(gòu)建,以及相關(guān)參數(shù)的設(shè)置。其中U-Net模型結(jié)構(gòu)相對簡單,效果更好;而DeepLab V3+模型結(jié)構(gòu)復(fù)雜,訓(xùn)練難度較高;SegNet模型泛化能力差,效果不如其它兩種。總體來看,U-Net模型精度最高,分類效果更好,并且優(yōu)于傳統(tǒng)的分類方法。
本文以黑龍江省孟家崗林場為研究區(qū),基于多時相GF-1影像和數(shù)字高程模型(DEM)為數(shù)據(jù)源,提取多時相的光譜特征、植被指數(shù)、紋理特征和DEM,構(gòu)建多特征數(shù)據(jù)集。之后,通過VSURF算法挑選最優(yōu)變量數(shù)據(jù)集,并且分別采用支持向量機(jī)、隨機(jī)森林、U-Net、SegNet和DeepLab V3+方法對森林林分類型進(jìn)行分類。研究結(jié)論如下:
1)通過最大似然分類法對單時相和多時相GF-1影像進(jìn)行森林林分類型分類,其多時相影像結(jié)合植被的物候特性,分類精度明顯高于單時相分類精度。同時,單時相影像7月份的分類精度最高,10月份精度較低。
2)基于多時相GF-1影像,提取多時相光譜特征(紅光、綠光、藍(lán)光以及近紅外波段)、植被指數(shù)(NDVI,EVI,DVI,RVI)、紋理特征(均值、方差、同質(zhì)性、對比度、相異性、熵、二階矩和相關(guān)性)以及DEM,共構(gòu)建了97個特征。通過VSURF算法根據(jù)重要性及OOB誤差優(yōu)選16個特征變量,其中多時相原始光譜波段可能存在較高的相關(guān)性,其變量均被消除,植被指數(shù)(NDVI,RVI)、紋理特征(均值、同質(zhì)性、對比度、相關(guān)性)和DEM具有較高的貢獻(xiàn),因此變量被保留。通過變量優(yōu)選,降低數(shù)據(jù)冗余,提高模型效率。
3)深度學(xué)習(xí)方法能夠挖掘影像深層特征,其分類精度明顯優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法。同時,深度學(xué)習(xí)U-Net模型的精度最高。因此,利用GF-1影像建立特征優(yōu)選數(shù)據(jù)集,采用U-Net模型對森林林分類型分類具有一定的參考價值。對于森林植被分類,進(jìn)行特征變量優(yōu)選,能夠減少計(jì)算成本,提高模型效率。當(dāng)樣本量較少時,可采用淺層學(xué)習(xí)進(jìn)行分類識別,而隨著數(shù)據(jù)的不斷共享,樣本量逐漸擴(kuò)大,
深度學(xué)習(xí)方法將發(fā)揮巨大的潛能。