陳立娜,李 真,宋 輝
(國網(wǎng)河南省電力公司內(nèi)鄉(xiāng)縣供電公司,河南內(nèi)鄉(xiāng) 474350)
無人機(jī)測繪遙感是當(dāng)前遙感技術(shù)發(fā)展的一個(gè)重要方向,它在實(shí)時(shí)性、針對性和靈活性等方面具有很大的優(yōu)勢,是獲取遙感資料的一個(gè)重要方法。但是在實(shí)際應(yīng)用中,不能很好地提取出一些細(xì)節(jié)特征。因此,對無人機(jī)測繪遙感圖像信息進(jìn)行提取具有重要意義。
劉強(qiáng)[1]等提出卷積神經(jīng)網(wǎng)絡(luò)模型方法,采用基于分類的方法對各個(gè)像素進(jìn)行分類,在像素水平上的提取精確度可能會(huì)很高,但是也很容易忽視像素與像素之間的相互關(guān)系。由于實(shí)際場景的復(fù)雜性和多樣性,使用該方法常常會(huì)受到目標(biāo)對象大量變化、目標(biāo)遮擋和重疊、目標(biāo)缺乏高識別特性以及光照變化等原因,使得提取模型缺乏泛化能力。鄭蓉珍[2]等提出將無人機(jī)影像與數(shù)字地表模型相融合,利用最大似然法提高圖像識別準(zhǔn)確率。然而該方法已經(jīng)無法適應(yīng)高分辨率圖像的要求。為此,提出了基于人工智能的無人機(jī)測繪遙感圖像信息提取方法。
利用無人機(jī)測繪與遙感技術(shù)對多幅無人機(jī)測繪遙感圖像進(jìn)行了采集,將所獲得的圖像信息分成若干個(gè)圖像信息,這些圖像信息均為同一像素。利用聚類方法,將小圖像信息中的背景信息劃分為亮色裸地、暗色裸地、綠色植被和枯萎植被四種類型。指數(shù)NDVI 的表達(dá)公式為:
式中,I表示圖像紅外波段反射值;R表示標(biāo)準(zhǔn)紅光波段反射值。當(dāng)利用該指數(shù)計(jì)算獲取植被面積[3]占小幅圖像總面積之比大于5%時(shí),認(rèn)為該圖像背景信息是植被,否則是裸地。
選擇有目標(biāo)的小幅圖像數(shù)據(jù)與無目標(biāo)的小圖像數(shù)據(jù)相結(jié)合,構(gòu)成一個(gè)圖像數(shù)據(jù)對,從而構(gòu)成多個(gè)圖像數(shù)據(jù)對。在此基礎(chǔ)上,將圖像數(shù)據(jù)集分為四個(gè)集合:亮色裸地影像數(shù)據(jù)集、暗色裸地影像數(shù)據(jù)集、綠色植被影像數(shù)據(jù)集和枯萎植被影像數(shù)據(jù)集[4]。
在四組圖像數(shù)據(jù)集合中,分別對各小圖像數(shù)據(jù)建立學(xué)習(xí)樣點(diǎn),由此構(gòu)成學(xué)習(xí)樣本對。根據(jù)學(xué)習(xí)樣本對訓(xùn)練結(jié)果構(gòu)建基于機(jī)器學(xué)習(xí)算法的目標(biāo)提取模型,如圖1 所示。
圖1 基于機(jī)器學(xué)習(xí)算法的目標(biāo)提取模型
由圖1 可知,將原無人機(jī)遙感影像分割為一組n×n尺寸的遙感圖像,在此基礎(chǔ)上繪制一幅標(biāo)簽圖像,并將每幅圖像與其相應(yīng)的標(biāo)簽圖像作為訓(xùn)練數(shù)據(jù)。在上述構(gòu)建的模型中,需要使用2×2 的最大池化函數(shù)max pooling[5]?;跈C(jī)器學(xué)習(xí)的方法,在無人機(jī)測繪遙感影像的數(shù)據(jù)抽取中采用了以下卷積過程:
過程1:對64 個(gè)卷積核進(jìn)行兩次卷積,并執(zhí)行一次池化層處理;
過程2:對128 個(gè)卷積核進(jìn)行兩次卷積,并執(zhí)行一次池化層處理;
過程3:對256 個(gè)卷積核進(jìn)行三次卷積,并執(zhí)行一次池化層處理;
過程4:對512 卷積核進(jìn)行三次卷積,并執(zhí)行一次池化層處理;
過程5:采用三階全連接層Fc-layer,并由softmax分類器進(jìn)行處理。
經(jīng)過卷積處理后,判斷模型輸出的提取準(zhǔn)確度是否達(dá)到閾值,如果沒有達(dá)到,則需對圖像數(shù)據(jù)進(jìn)行降維處理,并繼續(xù)更新圖像信息集[6-8];如果達(dá)到,則訓(xùn)練完成,得到圖像信息提取結(jié)果。
基于人工智能的無人機(jī)測繪遙感圖像信息提取方法包括以下步驟。
步驟1:圖像特征融合
1)利用RGB 三通道圖像進(jìn)行卷積操作,獲得了尺寸為0.5n×0.5n、2n×2n的RGB 三通道圖像[9];
2)將2n×2n的RGB三通道圖像進(jìn)行端對端訓(xùn)練,并經(jīng)過圖像分割處理后,獲得2n×2n的分類概率特征圖,并進(jìn)行卷積運(yùn)算,獲得尺寸為n×n的概率特征圖[10];
3)將0.5n×0.5n的RGB 三通道圖像進(jìn)行端對端訓(xùn)練,并經(jīng)過圖像分割處理后,獲得0.5n×0.5n的分類概率特征圖,并進(jìn)行卷積運(yùn)算,獲得尺寸為n×n的概率特征圖[11];
4)將n×n的遙感圖像RGB 經(jīng)端到端訓(xùn)練后,可獲得具有n×n遙感圖像的分類概率特征圖[12]。
結(jié)合上述內(nèi)容,設(shè)計(jì)詳細(xì)圖像特征融合過程,如圖2 所示。
圖2 圖像特征融合過程
由圖2 可知,將以上所得的三個(gè)大小均為n×n的概率特征圖進(jìn)行統(tǒng)計(jì)學(xué)尺度的圖像特征融合[13],從而得到了目標(biāo)提取模型輸出特征圖。
步驟2:卷積過程中的權(quán)值共享
為了實(shí)時(shí)更新機(jī)器學(xué)習(xí)的判別參數(shù),需要對卷積過程進(jìn)行權(quán)值共享。在共享時(shí),需要測試各個(gè)性能指標(biāo)的取值,形成目標(biāo)相對優(yōu)屬度矩陣[14]。
在共享過程中,需要測試各個(gè)性能目標(biāo)的取值,基于此構(gòu)成目標(biāo)特征值矩陣,如式(2)所示:
式(2)中,zij表示第j個(gè)參數(shù)被采集時(shí)第i個(gè)性能目標(biāo)的取值。
為了準(zhǔn)確分析,應(yīng)采用適當(dāng)?shù)膬?yōu)屬度計(jì)算方法對目標(biāo)值進(jìn)行標(biāo)準(zhǔn)化處理,將式(2)轉(zhuǎn)化為無量綱的目標(biāo)相對優(yōu)屬度矩陣,標(biāo)準(zhǔn)化處理公式為:
經(jīng)過標(biāo)準(zhǔn)化處理后,得到目標(biāo)相對優(yōu)屬度矩陣為:
式(4)在客觀層面上體現(xiàn)出了各個(gè)參數(shù)對目標(biāo)的影響,根據(jù)獲取的目標(biāo)相對優(yōu)屬度矩陣,安全共享卷積過程中的權(quán)值。
步驟3:模型訓(xùn)練
在獲取共享權(quán)值情況下,采用人工智能的機(jī)器學(xué)習(xí)算法進(jìn)行模型訓(xùn)練。通過訓(xùn)練得到遙感影像和相應(yīng)的標(biāo)記圖像[15],通過機(jī)器學(xué)習(xí)模型的訓(xùn)練,使得機(jī)器學(xué)習(xí)和識別過程之間的關(guān)系趨于均衡。
步驟4:信息提取
首先,在n×n幅遙感圖像上添加訓(xùn)練數(shù)據(jù),將其輸入到所構(gòu)造的圖像特征融合處理[16]過程中;然后,將輸出與n×n大小的遙感圖像進(jìn)行卷積運(yùn)算,并將其作為判別目標(biāo)的輸入內(nèi)容;最后,在確定判別目標(biāo)后,得到一個(gè)介于0 和1 之間的輸出值。如果期望輸出為0,則判別該信息下所對應(yīng)的圖像是假圖像;如果期望輸出為1,則判別該信息下所對應(yīng)的圖像是真圖像。
在機(jī)器學(xué)習(xí)模型中,通常采用模型復(fù)雜度懲罰項(xiàng)η來衡量其空間容量,η數(shù)值的大小與泛化性能通常是成比例的,它被定義為:
式中,k表示樣本總數(shù)量;c表示機(jī)器學(xué)習(xí)模型的維數(shù);c值越大,η值也就越大,反之,則越小。因此,在機(jī)器學(xué)習(xí)模型維數(shù)一定的情況下,增加訓(xùn)練樣本數(shù)量,能夠避免提取模型在提取信息過程中出現(xiàn)過擬合現(xiàn)象。
為了驗(yàn)證基于人工智能的無人機(jī)測繪遙感圖像信息提取方法的有效性,實(shí)驗(yàn)區(qū)域?yàn)槟吵鞘心车貐^(qū)的焦化工廠,位于礦區(qū)詳查區(qū)的西南部,面積約1.60平方公里,高程在1 150~1 210 m 之間,該地區(qū)的地形中西部較高,西北部較低。
無人機(jī)測繪遙感圖像是在2021 年5 月6 日9:00時(shí)拍攝的,天氣晴但有霧,使用某公司制造的eBee Ag 固定翼無人機(jī)。無人機(jī)能夠迅速、高效地產(chǎn)生地形圖、正射影像圖、地面數(shù)字模型等數(shù)據(jù)。機(jī)身搭載索尼DSC-WX220 相機(jī),該相機(jī)的鏡頭是索尼的G 鏡頭,它的焦距是4.50~43.5 mm。選取的地物目標(biāo)圖像如圖3 所示。
圖3 地物目標(biāo)標(biāo)注結(jié)果
以圖3 所示的目標(biāo)標(biāo)注結(jié)果為研究對象進(jìn)行實(shí)驗(yàn)驗(yàn)證分析。
使用整體像素精度評估不同信息提取方法下遙感圖像目標(biāo)識別精度,公式為:
式中,a、b表示目標(biāo)類別;n表示被預(yù)測成不同類的像元數(shù)量;m表示目標(biāo)類型數(shù)量。
在提取遙感圖像信息過程中,不僅要考慮所收集的圖像數(shù)據(jù),而且需將圖像失真問題納入其中。因此,分別使用文獻(xiàn)[1]方法、文獻(xiàn)[2]方法和所提方法,對比分析無人機(jī)測繪遙感圖像提取結(jié)果,如圖4所示。
圖4 三種方法的圖像提取結(jié)果對比分析
由圖4 可知,文獻(xiàn)[1]方法和文獻(xiàn)[2]方法提取的圖像并不全面,導(dǎo)致部分信息丟失,而所提方法提取的圖像全面,且與圖3 所示選取區(qū)域一致,能夠獲取全部圖像信息。
基于此,分別使用這三種方法對比分析圖像信息提取的精度和提取過程的損失情況,如表1 所示。
表1 三種方法的信息提取精度和損失情況對比分析
由表1 可知,文獻(xiàn)[1]方法和文獻(xiàn)[2]方法圖像信息提取精度最高分別為0.70 和0.56,損失程度最高分別為0.52 和0.39。而所提方法提取精度最高為0.93,損失程度最高為0.22。由此可知,所提方法信息提取精度高的同時(shí)損失程度低。
該文提出了一種基于人工智能的無人機(jī)測繪遙感圖像信息提取方法,該方法相比于現(xiàn)有的提取方法,提取精度高且損失程度低,可以滿足當(dāng)前實(shí)際需要,通過使用人工智能方法識別的圖像和人類視覺效果更接近。在今后的遙感圖像質(zhì)量評估中,可以從以下方面進(jìn)行:同一區(qū)域內(nèi)不同時(shí)期的遙感圖像,其數(shù)據(jù)自身具有一定的時(shí)間序列性。因此,可以將時(shí)間信息引入到圖像質(zhì)量評估模式中,以實(shí)現(xiàn)將不同時(shí)期所收集到的數(shù)據(jù)進(jìn)行整合,進(jìn)而優(yōu)化提取方法。