国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類

2023-01-12 05:43金平偉姜學(xué)兵楊勝權(quán)林麗萍羅志鋮寇馨月
中國水土保持科學(xué) 2022年6期
關(guān)鍵詞:圖斑擾動建設(shè)項(xiàng)目

金平偉,黃 俊?,姜學(xué)兵,亢 慶,楊勝權(quán),林麗萍,楊 平,羅志鋮,李 樂,寇馨月,劉 斌

(1.珠江水利委員會珠江流域水土保持監(jiān)測中心站, 510611, 廣州;2.珠江水利委員會珠江水利科學(xué)研究院, 510611, 廣州;3.貴州省水土保持科技示范園管理處, 550002, 貴陽)

水土保持信息化監(jiān)管是水土保持工作的重要內(nèi)容,是法律賦予水行政主管部門的重要職責(zé),是遏制人為水土流失、保護(hù)生態(tài)環(huán)境的重要行政手段[1-2]。擾動圖斑是生產(chǎn)建設(shè)項(xiàng)目信息化監(jiān)管基礎(chǔ)數(shù)據(jù)[3-4]。《生產(chǎn)建設(shè)項(xiàng)目水土保持信息化監(jiān)管技術(shù)規(guī)定(試行)》明確:“擾動圖斑”是具有明確地理信息、帶有規(guī)定字段屬性的空間矢量數(shù)據(jù)?!吨袊帘3止珗?bào)(2019)》表明:2019年全國生產(chǎn)建設(shè)項(xiàng)目信息化監(jiān)管覆蓋國土面積592萬km2,共解譯擾動圖斑60.16萬個(gè)??梢娚a(chǎn)建設(shè)項(xiàng)目信息化監(jiān)管工作任務(wù)十分繁重,特別是擾動圖斑解譯生產(chǎn)。目前擾動圖斑解譯生產(chǎn)仍以“傳統(tǒng)人機(jī)交互目視解譯”為主,其工作效率低、成果標(biāo)準(zhǔn)不統(tǒng)一,難以滿足新時(shí)期新形勢下水土保持信息化監(jiān)管需求。突破擾動圖斑解譯生產(chǎn)的傳統(tǒng)工作模式、實(shí)現(xiàn)擾動圖斑解譯生產(chǎn)自動化、批量化,是目前生產(chǎn)建設(shè)項(xiàng)目信息化監(jiān)管中亟待解決的重要問題。

隨著計(jì)算機(jī)科學(xué)技術(shù)快速發(fā)展,以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)為代表的深度學(xué)習(xí)模型快速發(fā)展,在遙感衛(wèi)星圖像分類、地物信息提取等地理信息領(lǐng)域得到廣泛應(yīng)用[5-7]。CNN通過多層卷積和池化逐層提取圖像特征,具有權(quán)值共享、并行處理等優(yōu)點(diǎn),在滿足網(wǎng)絡(luò)層級深度要求的同時(shí)還能大幅降低并優(yōu)化模型訓(xùn)練參數(shù)[8-9]。王鑫等[10]提出一種基于CNN和多核學(xué)習(xí)的高分辨率遙感影像分類方法,測試集準(zhǔn)確率、Kappa系數(shù)分別達(dá)到了96.43%和96.25%。CNN模型也被應(yīng)用與中國資源3號、高分1號和高分2號衛(wèi)星遙感影像云檢測和去除[11-12]。Yang等[13]構(gòu)建一種基于CNN模型的中國高分1號遙感影像分類深度學(xué)習(xí)模型,土地利用分類總體精度達(dá)81.52%。馬永建等[14]基于U- Net模型,利用中國高分1號遙感影像開展荒漠區(qū)耕地分類與提取,與傳統(tǒng)的支持向量機(jī)、隨機(jī)森林等機(jī)器學(xué)習(xí)相比,整體識別準(zhǔn)確率提高4.67%。陳周等[15]利用WorldView影像,基于DeepLab- v3+模型開展城市綠地提取研究,整體精度達(dá)98.01%。胡乃勛等[16]利用我國高分2號遙感影像,基于CNN模型開展露天采場為主的開發(fā)占地信息提取,總體精度達(dá)91.85%,Kappa系數(shù)為0.90,顯著高于傳統(tǒng)的支持向量機(jī)分類方法。此外,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)模型在土壤有機(jī)質(zhì)含量估算、農(nóng)作物病蟲害識別、農(nóng)作物產(chǎn)品分類等領(lǐng)域也得到諸多應(yīng)用[17-21]。

目前深度學(xué)習(xí)模型在邊界規(guī)則、紋理特征明顯地物信息分類、識別提取方面開展了大量研究,涉及影像特征更為復(fù)雜的生產(chǎn)建設(shè)項(xiàng)目擾動圖斑識別分類研究成果仍較為鮮見。筆者基于深度學(xué)習(xí)原理,構(gòu)建生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型,利用已知區(qū)域生產(chǎn)建設(shè)項(xiàng)目水土保持信息化監(jiān)管成果數(shù)據(jù)對模型進(jìn)行訓(xùn)練和應(yīng)用效果檢驗(yàn),以期為生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類、提取提供技術(shù)支撐。

1 材料與方法

1.1 試驗(yàn)材料及平臺

本研究遙感影像數(shù)據(jù)源為中國高分衛(wèi)星遙感影像1號,預(yù)處理后影像包含紅綠藍(lán)3波段,分辨率為2 m;擾動圖斑矢量數(shù)據(jù)來源于2020年某省8個(gè)市(縣、區(qū))生產(chǎn)建設(shè)項(xiàng)目水土保持信息化監(jiān)管成果數(shù)據(jù)。為減少正樣本- 擾動區(qū)域、負(fù)樣本- 非擾動區(qū)域數(shù)量比例不協(xié)調(diào)對模型訓(xùn)練的負(fù)面影響,將擾動樣本比例較高的5個(gè)縣(區(qū))用于CNN模型訓(xùn)練,另外3個(gè)市(縣)用于對模型應(yīng)用效果檢驗(yàn)。

試驗(yàn)平臺配置為:Windows10 Professional;Intel(R) Core(TM) i7―8750H @2.20 GHz;GPU:NVIDIA Quadro P1000(4.0G);內(nèi)存16 GB;Python 3.7.6?(64位);Tensorflow 2.2.0?。

1.2 樣本集制作

擾動圖斑解譯生產(chǎn)第1步是要發(fā)現(xiàn)、識別遙感影像中生產(chǎn)建設(shè)項(xiàng)目擾動區(qū)域,這是深度學(xué)習(xí)模型圖像識別分類任務(wù),這也是本研究預(yù)期目標(biāo)。采用遙感影像瓦片數(shù)據(jù)樣本用于對CNN模型訓(xùn)練和應(yīng)用效果檢驗(yàn)。樣本數(shù)據(jù)制作步驟如下:1)獲取擾動圖斑矢量文件,使用ArcGIS 10.2?“要素包絡(luò)矩形轉(zhuǎn)面”將擾動圖斑矢量文件中各不規(guī)則圖形轉(zhuǎn)換為矩形,得到處理后擾動圖斑矢量文件(記為“數(shù)據(jù)1”);2)利用“數(shù)據(jù)1”裁剪高分遙感影像,得到擾動樣本瓦片數(shù)據(jù);3)制作項(xiàng)目區(qū)漁網(wǎng)矢量數(shù)據(jù)(250 m×250 m),用“數(shù)據(jù)1”裁剪漁網(wǎng)矢量數(shù)據(jù)得到新的漁網(wǎng)矢量數(shù)據(jù)(記為“數(shù)據(jù)2”);4)利用“數(shù)據(jù)2”裁剪高分遙感影像,得到非擾動樣本瓦片數(shù)據(jù)。將擾動樣本瓦片數(shù)據(jù)和非擾動樣本瓦片數(shù)據(jù)合并得到完整的樣本數(shù)據(jù)集,上述各步驟可借助Python 3.7.6編程自動完成。圖1和圖2是部分?jǐn)_動和非擾動樣本數(shù)據(jù)實(shí)例。

圖1 部分?jǐn)_動樣本數(shù)據(jù)Fig.1 Data of partial disturbed samples

圖2 部分非擾動樣本數(shù)據(jù)Fig.2 Data of partial un-disturbed samples

8個(gè)市(縣、區(qū))共制作獲得2萬8 054個(gè)樣本數(shù)據(jù),其中用于模型訓(xùn)練的5個(gè)市(縣、區(qū))樣本總數(shù)為5 131個(gè),用于模型應(yīng)用效果檢驗(yàn)的3個(gè)市(縣)樣本總數(shù)為2萬2 923個(gè)(表1)。

表1 深度學(xué)習(xí)模型訓(xùn)練和檢驗(yàn)樣本集

1.3 模型網(wǎng)絡(luò)構(gòu)建及參數(shù)設(shè)置

Caffe、Torch/Pytorch、TensorFlow、Theano、MXNet和1Paddle是目前深度學(xué)習(xí)廣泛應(yīng)用的主流開源框架。其中TensorFlow是Google Brain于2015年推出的開源機(jī)器學(xué)習(xí)庫,能夠兼容Scikit-learn接口,實(shí)現(xiàn)深度學(xué)習(xí)以外的機(jī)器學(xué)習(xí)算法。TensorFlow安裝簡單無需復(fù)雜的編譯過程,且支持多GPU分布式訓(xùn)練,具有較強(qiáng)的跨平臺運(yùn)行能力,是目前深度學(xué)習(xí)領(lǐng)域使用最為廣泛的開源框架之一。筆者基于Python 3.7.6語言環(huán)境,選擇Tensorflow為深度學(xué)習(xí)框架。Sequential是Tensorflow最常用模型構(gòu)建方法,適用于簡單堆疊網(wǎng)絡(luò)、易于調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)。參照經(jīng)典深度學(xué)習(xí)模型VGG16網(wǎng)絡(luò)架構(gòu),采用Sequential模型搭建深度學(xué)習(xí)模型網(wǎng)絡(luò)結(jié)構(gòu),所構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)有16層,包括13個(gè)卷積層和3個(gè)全連接層。本研究屬于圖像識別二分類問題,采用“二分類交叉熵?fù)p失函數(shù)”表征和記錄模型訓(xùn)練過程中的損失。上述深度學(xué)習(xí)模型網(wǎng)絡(luò)借助Tensorflow 2.2.0的API庫函數(shù)搭建完成,模型網(wǎng)絡(luò)結(jié)構(gòu)及各層參數(shù)詳見圖3。

ConvL、BatSL、MaxPL、FullCL、ConvK和AF分別表示卷積層、批標(biāo)準(zhǔn)化層、最大池化層、全連接層、卷積核、激活函數(shù)。ConvL, BatSL, MaxPL, FullCL, ConvK and AF refers to convolutional layer, batch standardization layer, max pooling layer, fully connected layer, convolution kernel and activation function, respectively.圖3 卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)模型網(wǎng)絡(luò)結(jié)構(gòu)及關(guān)鍵參數(shù)值Fig.3 Convolutional neural network deep learning model network structure and key parameter values

1.4 模型訓(xùn)練方案及評價(jià)指標(biāo)

優(yōu)化器算法、學(xué)習(xí)速率、激活函數(shù)及批大小等是影響CNN模型訓(xùn)練的關(guān)鍵超參數(shù)。常用優(yōu)化器算法包括Adagrad、Adam、Adamax、Nadam和RMSprop等[22-24],Adagrad適用于離散稀疏數(shù)據(jù)圖像分類問題;RMSprop適用于處理非平穩(wěn)目標(biāo),可緩解梯度急速下降的問題;Adam可獲得較為平穩(wěn)的梯度變化過程,適合高維數(shù)據(jù)空間;Nadam強(qiáng)化對學(xué)習(xí)速率的約束。此外,學(xué)習(xí)速率和批大小也對深度學(xué)習(xí)模型產(chǎn)生重要影響。筆者利用“訓(xùn)練樣本”分別研究上述5種優(yōu)化器算法、6種學(xué)習(xí)速率(10-2、10-3、10-4、10-5和10-6)、4個(gè)批大小(2、4、8和16)對深度學(xué)習(xí)模型訓(xùn)練結(jié)果的影響。每1次訓(xùn)練輪次設(shè)置為50,固定分配80%“訓(xùn)練樣本”用于模型訓(xùn)練,另外20%“訓(xùn)練樣本”用于模型驗(yàn)證和模型綜合性能評價(jià)指標(biāo)計(jì)算。

模型綜合性能評價(jià)指標(biāo)包括模型精度(model accuracy,MA)和模型損失(model loss,ML),利用Tensorflow 2.2.0的API庫函數(shù)model.evaluate計(jì)算得到,該函數(shù)用于檢查模型是否最適合給定的問題和相應(yīng)的數(shù)據(jù)。對比分析不同優(yōu)化器算法、學(xué)習(xí)速率和批大小訓(xùn)練得到模型的MA和ML值,確定優(yōu)化器算法、學(xué)習(xí)速率和批大小超參數(shù)最優(yōu)值。

基于上述最優(yōu)超參數(shù)值,將訓(xùn)練輪次增加到150次,最終完成模型訓(xùn)練和建立。模型“卷積層”、“全連接層1”和“全連接層2”激活函數(shù)均為Relu,該激活函數(shù)能有效抑制模型過擬合和避免梯度爆炸消失等問題;本研究屬于多分類中最簡單的二分類問題,因此“全連接層3”激活函數(shù)采用Softmax。

1.5 模型應(yīng)用效果檢驗(yàn)

利用“檢驗(yàn)樣本”對建立的深度學(xué)習(xí)模型進(jìn)行應(yīng)用效果檢驗(yàn),通過計(jì)算模型識別分類結(jié)果的整體準(zhǔn)確率(overall accuracy,OA)、擾動樣本查準(zhǔn)率(precision rate of disturbance sample data,PR)、擾動樣本查全率(recall rate of disturbance sample data,RR)和F1得分值(F1score,該值為PR和RR的調(diào)和平均數(shù),其值越大表明模型泛化能力越強(qiáng)、精度越高)4個(gè)指標(biāo)對模型應(yīng)用效果進(jìn)行定量評價(jià),上述4個(gè)指標(biāo)值越大越好。各指標(biāo)計(jì)算公式如下:

OA=(TP+TN)/(TP+TN+FP+FN)×100%;

(1)

PR=TN/(TN+FP)×100%;

(2)

RR=TN/(TN+FN)×100%;

(3)

F1=2PRRR/(PR+RR)×100%。

(4)

式中:TP為實(shí)際為擾動樣本,且模型識別為擾動樣本(識別分類正確);TN為實(shí)際為非擾動樣本,且模型識別為非擾動樣本(識別分類正確);FP為實(shí)際為非擾動樣本,但模型識別為擾動樣本(識別分類錯誤);FN為實(shí)際為擾動樣本,但模型識別為非擾動樣本(識別分類錯誤)。

2 結(jié)果與分析

2.1 模型關(guān)鍵超參數(shù)最優(yōu)值確定

在固定學(xué)習(xí)速率為10-5、批大小為16、訓(xùn)練輪次為50的條件下,使用“訓(xùn)練樣本”分別完成5種優(yōu)化器算法深度學(xué)習(xí)模型訓(xùn)練。圖4為不同優(yōu)化器算法模型訓(xùn)練及驗(yàn)證過程精度變化曲線。5種優(yōu)化器算法模型訓(xùn)練耗時(shí)基本相當(dāng),平均耗時(shí)為(1.334±0.056) h。但不同優(yōu)化器算法訓(xùn)練模型綜合性能評價(jià)差異較大,其中Adagrad模型綜合性能最優(yōu),其MA=0.898、ML=0.258;RMSprop模型綜合性能最差;其余優(yōu)化算法訓(xùn)練得到模型綜合性能基本相當(dāng)。除Adagrad優(yōu)化器算法外,其余4個(gè)優(yōu)化器算法訓(xùn)練得到的模型均存在不同程度過擬合現(xiàn)象,導(dǎo)致模型魯棒性差、泛化能力不足,特別是Adam、Nadam和RMSprop優(yōu)化器算法訓(xùn)練模型過擬合問題十分嚴(yán)重。

圖4 不同優(yōu)化器算法深度學(xué)習(xí)模型訓(xùn)練及驗(yàn)證精度變化曲線Fig.4 Training and validation accuracy curves of the deep learning model under different optimizer algorithms

圖5 不同學(xué)習(xí)速率深度學(xué)習(xí)模型訓(xùn)練及驗(yàn)證精度變化曲線Fig.5 Training and validation accuracy curves of the deep learning model under different learning rates

在固定優(yōu)化器算法為Adagrad和批大小為16、訓(xùn)練輪次為50的條件下,使用“訓(xùn)練樣本”分別完成6種學(xué)習(xí)速率深度學(xué)習(xí)模型訓(xùn)練。圖5為不同學(xué)習(xí)速率模型訓(xùn)練及驗(yàn)證過程精度變化曲線。整體而言,隨著學(xué)習(xí)速率降低,模型訓(xùn)練耗時(shí)逐漸增加,6個(gè)不同學(xué)習(xí)速率模型訓(xùn)練耗時(shí)平均為(1.217±0.027) h。當(dāng)學(xué)習(xí)速率較大時(shí)(10-2和10-3),模型出現(xiàn)一定程度的損失函數(shù)爆炸,導(dǎo)致驗(yàn)證精度曲線大幅度震蕩;當(dāng)學(xué)習(xí)速率過小時(shí)(10-6和10-7),模型收斂速度過慢,訓(xùn)練輪次達(dá)到最大時(shí)模型訓(xùn)練和驗(yàn)證精度均相對較差,且出現(xiàn)明顯的過擬合現(xiàn)象;只有當(dāng)學(xué)習(xí)速率適中(10-4和10-5)模型過擬合現(xiàn)象得到抑制,且一定輪次后模型逐漸趨于收斂。本研究學(xué)習(xí)速率10-4為最優(yōu),訓(xùn)練和驗(yàn)證精度曲線十分接近,模型綜合性能最優(yōu),其MA=0.942、ML=0.179。

圖6 不同批大小深度學(xué)習(xí)模型訓(xùn)練及驗(yàn)證精度變化曲線Fig.6 Training and validation accuracy curves of the deep learning model under different batch sizes

受計(jì)算平臺性能限制,本研究批大小最大值為16。選擇優(yōu)化器算法為Adagrad、學(xué)習(xí)速率為10-4、訓(xùn)練輪次為50的條件下,使用“訓(xùn)練樣本”分別完成4個(gè)批大小深度學(xué)習(xí)模型訓(xùn)練。圖6為不同學(xué)習(xí)速率模型訓(xùn)練及驗(yàn)證過程精度變化曲線。批大小越大訓(xùn)練耗時(shí)越短,內(nèi)存利用率越高、相同數(shù)據(jù)量處理速度更快、模型梯度下降方向越準(zhǔn)確、模型訓(xùn)練精度損失曲線震蕩越小。當(dāng)批大小從2增加到16,模型訓(xùn)練耗時(shí)從1.992 h遞減到1.237 h,訓(xùn)練模型綜合性能也總體呈現(xiàn)逐漸增加變化趨勢,MA值從0.864增加到0.898、ML值從0.362遞減到0.258。

2.2 基于最優(yōu)超參數(shù)的模型建立

由圖5c可以看出,當(dāng)優(yōu)化器為Adagrad、學(xué)習(xí)速率為10-4、批大小為16、訓(xùn)練輪次為50條件下,模型訓(xùn)練和驗(yàn)證精度變化曲線仍呈現(xiàn)遞增變化趨勢。為了進(jìn)一步增強(qiáng)模型魯棒性、提升模型泛化能力,將訓(xùn)練輪次增加至150次,獲得生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型。累積訓(xùn)練耗時(shí)4.632 h,模型綜合性能評價(jià)指標(biāo)MA和ML分別為0.952 6和0.167 0。圖7為模型訓(xùn)練及驗(yàn)證過程精度、損失變化曲線,120個(gè)訓(xùn)練輪次后模型訓(xùn)練和驗(yàn)證精度損失變化逐漸趨于穩(wěn)定,模型未出現(xiàn)過擬合或欠擬合問題,表現(xiàn)出較強(qiáng)的泛化能力和較高的魯棒性。

圖7 深度學(xué)習(xí)模型訓(xùn)練及測試精度變化曲線Fig.7 Training and validation accuracy curves of the deep learning model

2.3 模型應(yīng)用效果檢驗(yàn)

利用“檢驗(yàn)樣本”對模型應(yīng)用效果檢驗(yàn)(表2)??傮w而言,模型在3個(gè)行政區(qū)應(yīng)用效果較為理想,識別分類總體精度超過95.00%,平均為97.52%,其中“行政區(qū)6”樣本數(shù)據(jù)識別分類總體精度最大為98.58%。擾動樣本查準(zhǔn)率和查全率是本研究重點(diǎn)關(guān)注內(nèi)容,3個(gè)行政區(qū)擾動樣本查準(zhǔn)率均值為72.44%,但仍有不到30%的樣本識別分類錯誤,錯誤來源主要是非擾動樣本識別分類為擾動樣本。“行政區(qū)6”擾動樣本查準(zhǔn)率最大為78.63%,而“行政區(qū)8”擾動樣本查準(zhǔn)率最小為68.25%?!靶姓^(qū)7”擾動樣本查全率最低約為80%,另外2個(gè)行政區(qū)擾動樣本查全率均超過83%,總體少于20%的擾動樣本被模型漏判為非擾動樣本。3個(gè)行政區(qū)識別分類F1得分值也較為理想,均超過75%??傮w而言,利用CNN深度學(xué)習(xí)模型開展生產(chǎn)建設(shè)擾動圖斑自動識別分類具有較強(qiáng)的可行性和實(shí)用性。

表2 模型應(yīng)用效果檢驗(yàn)結(jié)果

3 討論

筆者基于深度學(xué)習(xí)開源框架Tensorflow,構(gòu)建生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型,發(fā)現(xiàn)本研究深度學(xué)習(xí)模型優(yōu)化器算法、學(xué)習(xí)速率和批大小3個(gè)超參數(shù)最優(yōu)值分別為Adagrad、10-4和16?;谏鲜龀瑓?shù)最優(yōu)值,訓(xùn)練得到最終的生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型,模型識別分類整體準(zhǔn)確率超過95.00%。這說明CNN模型用于生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類是實(shí)際可行的。單張遙感影像瓦片數(shù)據(jù)識別分類約耗時(shí)10 ms,結(jié)合擾動圖斑自動矢量化技術(shù),擾動圖斑解譯生產(chǎn)可實(shí)現(xiàn)自動化、批量化,將大大提工作效率。

與現(xiàn)有遙感影像地物信息識別提取中常用的語義分割模型相比,筆者參考VGG16經(jīng)典深度學(xué)習(xí)模型,通過多層卷積神經(jīng)網(wǎng)絡(luò)提取擾動圖斑在遙感影像特征值,構(gòu)建生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型,用以實(shí)現(xiàn)擾動樣本的自動識別分類,在樣本集制作、模型搭建方面更為簡單,且能夠獲得較為理想的識別分類效果。這在推廣到實(shí)際應(yīng)用中是有益的。

由于擾動圖斑邊界不規(guī)則、區(qū)域模糊、無明顯建構(gòu)筑物特征,且隨著建設(shè)周期差異,相同區(qū)域擾動區(qū)域遙感影像特征也存在顯著差異(圖8);此外,部分非擾動區(qū)域影像特征與擾動區(qū)域影像特征十分相像(圖9),導(dǎo)致本文所構(gòu)建的生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型精度仍需進(jìn)一步提升。今后在提升樣本集制作質(zhì)量的同時(shí),還應(yīng)開展不同遙感影像數(shù)據(jù)源、不同區(qū)域生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型的建模與驗(yàn)證。

圖8 相同區(qū)域不同建設(shè)周期擾動區(qū)域影像特征Fig.8 Image characteristics of the samedisturbance area with different construction periods

圖a、c、e和g均為擾動樣本,b、d、f和h為非擾動樣本。Figure a, c,e and g are all disturbed samples, and b,d,f and h are un-disturbed samples.圖9 誤判為擾動區(qū)域樣本影像特征與擾動區(qū)域影像特征對比圖Fig.9 Image features comparison betweendisturbance sample and un-disturbance samples misjudged as the disturbance sample

4 結(jié)論

利用已知區(qū)域水土保持生產(chǎn)建設(shè)項(xiàng)目信息化監(jiān)管成果數(shù)據(jù),基于卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)原理,構(gòu)建生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類CNN模型。1)通過多層卷積神經(jīng)網(wǎng)絡(luò)挖掘擾動圖斑遙感圖像特征,實(shí)現(xiàn)對遙感影像瓦片數(shù)據(jù)的擾動和非擾動區(qū)域自動識別分類;2)模型應(yīng)用效果表明識別分類整體準(zhǔn)確率超過95.00%,擾動圖斑查準(zhǔn)率和查全率均值達(dá)到72.00%和83.00%,這表明CNN模型用于生產(chǎn)建設(shè)項(xiàng)目擾動圖斑自動識別分類是實(shí)際可行的。

猜你喜歡
圖斑擾動建設(shè)項(xiàng)目
地理國情監(jiān)測中異形圖斑的處理方法
新安縣有序開展衛(wèi)星遙感監(jiān)測圖斑核查工作
基于C#編程的按位置及屬性值自動合并圖斑方法探究
基于環(huán)保竣工驗(yàn)收對建設(shè)項(xiàng)目環(huán)評的分析
帶擾動塊的細(xì)長旋成體背部繞流數(shù)值模擬
風(fēng)電建設(shè)項(xiàng)目全過程造價(jià)控制探討
磁暴期間中國中低緯電離層不規(guī)則體與擾動分析
土地利用圖斑自動檢測算法研究
結(jié)合向量化和FFT技術(shù)的模型擾動引力快速計(jì)算
推動工程建設(shè)項(xiàng)目“非禁即入”普遍落實(shí)