張?chǎng)锡?,陳秀萬,李 飛,楊 婷
北京大學(xué)地球與空間科學(xué)學(xué)院,北京 100871
高分辨率遙感影像的深度學(xué)習(xí)變化檢測(cè)方法
張?chǎng)锡?,陳秀萬,李 飛,楊 婷
北京大學(xué)地球與空間科學(xué)學(xué)院,北京 100871
為提升高分辨率遙感影像的變化檢測(cè)精度,提出一種利用深度學(xué)習(xí)的變化檢測(cè)方法。在預(yù)處理的基礎(chǔ)上,利用顧及鄰域信息的改進(jìn)變化矢量分析算法和灰度共生矩陣算法獲取影像間光譜和紋理變化,并通過設(shè)置自適應(yīng)采樣區(qū)間提取最可能的變化和未變化區(qū)域樣本。構(gòu)建并訓(xùn)練包含標(biāo)簽層的高斯伯努利深度限制玻爾茲曼機(jī)模型,以提取變化和未變化區(qū)域深層特征,從而有效辨別變化區(qū)域。通過WorldView-3與Pléiades-1影像的試驗(yàn)表明本文方法在變化檢測(cè)精度方面優(yōu)于對(duì)比方法。
變化檢測(cè);高分辨率遙感;深度學(xué)習(xí)
遙感變化檢測(cè)是是目前遙感研究領(lǐng)域的熱點(diǎn)之一,在災(zāi)害監(jiān)測(cè)、城市變遷、國(guó)土規(guī)劃等領(lǐng)域起著重要的作用。變化檢測(cè)是從不同時(shí)刻針對(duì)同一地區(qū)所獲取的遙感影像中分析并確定變化區(qū)域,以提取地物變化信息。變化檢測(cè)的目的是提取對(duì)比圖像明顯變化區(qū)域并生成變化圖像[1]。
近年來衛(wèi)星遙感影像分辨率不斷提高。與中低分辨率遙感影像變化檢測(cè)相比,雖然高分辨率遙感影像呈現(xiàn)更多細(xì)節(jié)信息,但是變化和未變化區(qū)域之間的可分性降低、提取難度反而增大。目前高空間分辨率光學(xué)影像變化檢測(cè)研究重點(diǎn)主要包括不同高分衛(wèi)星影像之間[2-3]與高分衛(wèi)星和航空影像之間[4]的變化檢測(cè)研究。尤其隨著無人機(jī)遙感的發(fā)展,影像分辨率進(jìn)一步提升,這對(duì)高分辨率遙感影像變化檢測(cè)方法提出了更高的要求。
在目前已有的高分影像變化檢測(cè)研究方法中,影像配準(zhǔn)與特征提取的好壞是影響變化檢測(cè)結(jié)果的關(guān)鍵因素。絕大多數(shù)像素級(jí)、特征級(jí)、對(duì)象級(jí)對(duì)比檢測(cè)模型和方法都對(duì)圖像間的配準(zhǔn)精度具有較高要求。但因?yàn)椴煌叻中l(wèi)星傳感器之間的差異以及多時(shí)相遙感影像成像條件不同等問題,即使在精配準(zhǔn)后,影像間配準(zhǔn)誤差也難以消除。這直接導(dǎo)致在不同高分衛(wèi)星影像間使用傳統(tǒng)影像變化檢測(cè)方法時(shí),影像對(duì)比區(qū)域不一致,因此產(chǎn)生許多偽變化區(qū)域。另一方面,大多變化檢測(cè)方法都是利用同一傳感器的相同分辨率影像[5-6]。盡管目前存在一些多源高分影像變化檢測(cè)方法[7],但目前仍沒有一個(gè)通用、有效的方法[8]。這主要是因?yàn)樵趯?duì)比高分影像時(shí),同一地物在不同時(shí)間、不同分辨率影像上表現(xiàn)形態(tài)不盡相同,難以提取抽象特征并直接進(jìn)行比較。因此針對(duì)配準(zhǔn)誤差與特征提取的問題,本文提出一種利用深度學(xué)習(xí)的高分辨率遙感影像變化檢測(cè)方法。
預(yù)處理階段,在兩幅影像配準(zhǔn)后,對(duì)分辨率較低的影像做重采樣并采用直方圖匹配法來進(jìn)行相對(duì)輻射校正。通過考慮鄰域信息的改進(jìn)變化矢量分析法和灰度共生矩陣方法分別提取不同時(shí)相影像間的光譜和紋理變化圖像并生成變化強(qiáng)度圖,以減少變化檢測(cè)時(shí)局部對(duì)比區(qū)域不一致而產(chǎn)生的誤差;然后通過設(shè)置自適應(yīng)采樣區(qū)間從中選擇最可能的變化和未變化區(qū)域中的像元作為樣本;最后利用構(gòu)建的包含標(biāo)簽層的高斯-伯努利深度玻爾茲曼機(jī)模型對(duì)樣本進(jìn)行訓(xùn)練,以提取變化和未變化區(qū)域抽象特征,在此基礎(chǔ)上對(duì)兩幅影像所有像元逐個(gè)進(jìn)行變化和未變化劃分,生成變化檢測(cè)圖。具體流程如圖1所示。
圖1 變化檢測(cè)流程圖Fig.1 Flowchart for change detection
1.1 考慮鄰域信息的光譜變化
變化矢量分析法[9](CVA)算法通過逐點(diǎn)差分兩幅已配準(zhǔn)的不同時(shí)相遙感影像來獲取變化信息。CVA算法主要是從變化的強(qiáng)度與方向兩方面對(duì)不同時(shí)相遙感影像進(jìn)行變化檢測(cè)分析,其中變化強(qiáng)度圖像用于表示研究區(qū)域變化范圍,變化方向用于表示研究區(qū)域具體變化類型。本文只對(duì)變化強(qiáng)度進(jìn)行討論。對(duì)于多波段遙感影像來說,變化強(qiáng)度根據(jù)每個(gè)波段差異計(jì)算得出,通過多維特征歐氏空間進(jìn)行表達(dá)。具體計(jì)算公式如式(1)與式(2)所示
(1)
(2)
傳統(tǒng)的基于CVA的變化檢測(cè)方法對(duì)中低空間分辨率影像變化分析效果較好。但是在不同衛(wèi)星的高空間分辨率遙感影像變化檢測(cè)時(shí),因其成像條件及配準(zhǔn)精度的影響,對(duì)比的同一區(qū)域不是由兩幅影像中對(duì)應(yīng)像點(diǎn)所表達(dá)。即使正射校正算法相當(dāng)精確,也不能保證消除兩幅影像間所有像元間的配準(zhǔn)誤差[4]。圖2所示為兩幅配準(zhǔn)的影像,黑色十字中心為同名地物,但卻位于紅色方框內(nèi)不同位置,說明仍然存在配準(zhǔn)誤差。因此在變化檢測(cè)運(yùn)算時(shí),難以達(dá)到同一地物每個(gè)像元一一對(duì)應(yīng),所以在使用CVA算法時(shí),變化檢測(cè)精度較低。
為解決上述問題,本文采用改進(jìn)的RCVA(Robust change vector analysis)算法[10]來提高變化檢測(cè)初步結(jié)果計(jì)算精度,以選擇更好的訓(xùn)練樣本進(jìn)行深度學(xué)習(xí)。RCVA算法基于如下假設(shè):若在x2(j±w,k±w)范圍內(nèi)的一個(gè)像元與x1(j,k)像元光譜信息差異最小,則表明該像元包含x1(j,k)像元最多相應(yīng)的地面信息。也就是說,在高分辨率遙感影像對(duì)比檢測(cè)中,若兩幅影像有幾何配準(zhǔn)誤差,影像1中一個(gè)像元與影像2中該像元鄰域范圍內(nèi)的另一像元光譜差異最小,則認(rèn)為這兩個(gè)像元為同名地物的對(duì)應(yīng)像元,因此可以有效減小配準(zhǔn)誤差的影響。文獻(xiàn)[10]提供的RCVA算法只從像元單個(gè)波段考慮光譜差異再進(jìn)行波段合并,而沒有從對(duì)應(yīng)像元整體光譜差異角度考慮,這樣會(huì)產(chǎn)生每個(gè)波段同名地物對(duì)應(yīng)像點(diǎn)不同的情況,因此難以進(jìn)行后續(xù)比較。為此,本文提出改進(jìn)的RCVA方法以減小配準(zhǔn)誤差影響。
改進(jìn)的RCVA使用一個(gè)大小為2w+1的移動(dòng)窗口來進(jìn)行考慮鄰近像元的光譜變化檢測(cè)分析,計(jì)算過程分兩步。第1步,通過t2影像每點(diǎn)與t1影像該點(diǎn)鄰近像元內(nèi)光譜差異值最小的點(diǎn)來獲取差異影像xdiffa,再對(duì)t1影像用同樣方法獲取xdiffb,具體如公式(3)、(4)所示
(3)
(4)
第2步,通過式(5)得到光譜變化圖
(5)
這樣就可以得到考慮鄰域信息的光譜信息變化圖。這里需要說明的是,為保證后續(xù)紋理特征變化分析與深度學(xué)習(xí)所選擇的兩幅影像中的像元是同名像點(diǎn),將用于計(jì)算(j,k)點(diǎn)M的兩時(shí)相對(duì)應(yīng)像元叫作(j,k)點(diǎn)的同名像點(diǎn)。
1.2 考慮鄰域信息的紋理變化
灰度共生矩陣[11](grey level co-occurrence matrix,GLCM)是一種通過圖像灰度的空間相關(guān)特征來描述紋理的通用方法。如果圖像是由具有相似灰度值的像素塊構(gòu)成,則GLCM的對(duì)角元素會(huì)有較大的值。GLCM用一些標(biāo)量來表征其特性,常用的有能量、對(duì)比度、熵、方差、自相關(guān)等。文獻(xiàn)[12]通過對(duì)比高分辨率遙感影像中不同種類地物的GLCM 9種標(biāo)量參數(shù),發(fā)現(xiàn)不同地物間方差參數(shù)差異最大。因此,本文選擇GLCM方差提取紋理特征,GLCM的計(jì)算如式(6)所示
(6)
(7)
(8)
1.3 樣本選擇
在獲得光譜變化與紋理變化的圖像后,通過圖像合并可以得到變化強(qiáng)度圖。為利用深度學(xué)習(xí)提高變化檢測(cè)精度,需對(duì)其中最可能變化和未變化區(qū)域進(jìn)行有效選擇。本文通過樣本提取參數(shù)T設(shè)置亮度區(qū)間來提取樣本,即從光譜和紋理變化圖像中的T%最大值和最小值對(duì)應(yīng)的亮度區(qū)間中選擇樣本。該亮度區(qū)間的設(shè)置與變化圖像的各亮度值像元數(shù)量比例、最大亮度值和最小亮度值有關(guān)。對(duì)于相同T值,在不同變化圖像中會(huì)根據(jù)圖像亮度分布特點(diǎn),設(shè)置不同的變化和未變化樣本提取閾值,因此具有自適應(yīng)性。需要注意的是,對(duì)于未變化區(qū)域,紋理和光譜變化均較小,因此選取光譜與紋理變化T%最小值像元的交集作為未變化區(qū)域樣本;對(duì)于變化區(qū)域,光譜或紋理變化較大,為保證深度學(xué)習(xí)中各類別樣本數(shù)量大致相等,從光譜和紋理變化中T%最大值像元的并集中選擇與未變化區(qū)域數(shù)量相等的像元作為變化區(qū)域樣本。樣本選擇過程如圖3所示。
1.4 深度學(xué)習(xí)模型構(gòu)建與樣本訓(xùn)練
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域一個(gè)新興的研究熱點(diǎn),近年來在語音識(shí)別、計(jì)算機(jī)視覺等領(lǐng)域取得良好效果。隨著遙感數(shù)據(jù)分辨率的提高,深度學(xué)習(xí)能應(yīng)對(duì)高空間分辨率數(shù)據(jù),對(duì)其進(jìn)行有效模式識(shí)別與分類,因此深度學(xué)習(xí)方法可作為處理遙感大數(shù)據(jù)分析與挖掘問題的有效手段[13]。與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度模型在原來多層神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,加入特征學(xué)習(xí)部分,使用訓(xùn)練集逐層貪婪學(xué)習(xí)以初始化網(wǎng)絡(luò)權(quán)值來接近全局最優(yōu)點(diǎn)。同時(shí),深度模型的逐層訓(xùn)練架構(gòu)可以有效解決多層反向傳遞之后梯度彌散的問題,從而實(shí)現(xiàn)真正意義上深度學(xué)習(xí)。
深度玻爾茲曼機(jī)[14](deep Boltzmann machines,DBM)是一種無監(jiān)督深度學(xué)習(xí)模型,由多層限制玻爾茲曼機(jī)[15](restricted Boltzmann machines,RBM)疊加而成。RBM包含兩層,可見層v和隱藏層h??梢妼訂卧脕砻枋鲇^察數(shù)據(jù),而隱藏層單元用來獲取可見層單元對(duì)應(yīng)變量之間的依賴關(guān)系,因此可以理解為特征提取層。隨著RBM層數(shù)增多,頂層的隱藏層即可視為深層特征層。與其他深度學(xué)習(xí)模型不同,在DBM模型中的各單元層之間均為無向連接,且簡(jiǎn)化了上下層的反饋系數(shù)訓(xùn)練,從而使其數(shù)據(jù)泛化能力大大提高,同時(shí)使模型處理不確定性樣本的健壯性更強(qiáng)[16]。雖然DBM的訓(xùn)練時(shí)間略長(zhǎng),但是在多個(gè)公共訓(xùn)練集上的表現(xiàn)均優(yōu)于其他對(duì)比的深度學(xué)習(xí)模型[14,17]。與DBM可見層v={0,1}每個(gè)輸入單元為二值變量?jī)煞N狀態(tài)相比,高斯-伯努利DBM(Gaussian-Bernoulli DBM,GDBM)模型[17]將輸入單元拓展為連續(xù)輸入的實(shí)值變量v∈RD,更適用于圖像分類、語音識(shí)別等[18]。因此本文通過構(gòu)建GDBM模型對(duì)不同時(shí)相遙感影像是否變化進(jìn)行判別。
為利用該模型,本文增加標(biāo)簽信息層l,設(shè)計(jì)具有監(jiān)督分類功能的GDBM模型。如圖4所示,該模型由可見層v,隱藏層h1,h2,…,hn和標(biāo)簽層l組成:可見層v為(j,k)點(diǎn)兩幅影像的同名像點(diǎn)(j±w,k±w)范圍內(nèi)RGB 3種顏色的歸一化亮度值依次排列的向量,設(shè)A=6(2w+1)2表示輸入的兩幅影像像元個(gè)數(shù);l為二值標(biāo)簽,即l=[10]T或l=[01]T,分別表示變化和未變化兩種類別。對(duì)每個(gè)包含n層隱藏層(v,h1,…,hn,l)的GDBM的能量函數(shù)如式(9)所示
圖4 GDBM模型Fig.4 Model of GDBM
(9)
(10)
根據(jù)RBM的結(jié)構(gòu)特點(diǎn),給定可見層單元狀態(tài),各隱層單元的激活狀態(tài)彼此條件獨(dú)立;給定隱層單元狀態(tài),各可見層單元的激活狀態(tài)也條件獨(dú)立。因此根據(jù)式(9)、式(10),可見層v、隱藏層h和標(biāo)簽層l的條件分布如式(11)—(15)所示
(11)
(12)
(13)
(14)
(15)
對(duì)于GDBM整個(gè)模型參數(shù)的優(yōu)化,分為兩部分:
(16)
直接求解最大似然函數(shù)較為復(fù)雜,因此通過隨機(jī)梯度下降法逼近。結(jié)合式(10)可得
(18)
(19)
(20)
由于訓(xùn)練樣本已知,所以EPdata[·]易求得,而EPmodel[·]計(jì)算量與各層單元數(shù)量成指數(shù)型關(guān)系,難以直接求得。因此結(jié)合式(11)—(15)采用對(duì)比散度算法[15,19](contrastive divergence,CD)快速近似求解,通過迭代不斷優(yōu)化模型參數(shù)θ*初始化RBM參數(shù)。
在訓(xùn)練完第1個(gè)RBM參數(shù)后,h1層各單元值可根據(jù)v層單元值及參數(shù)θ1計(jì)算得到。為優(yōu)化第2個(gè)RBM模型,將第1個(gè)RBM中的輸出(h1層)各單元值作為第2個(gè)RBM模型的輸入(v層),并依據(jù)上述RBM學(xué)習(xí)方法單獨(dú)調(diào)整第2個(gè)RBM參數(shù)θ2。這樣每一個(gè)RBM根據(jù)各自輸入數(shù)據(jù),通過RBM學(xué)習(xí)方法優(yōu)化該層參數(shù),并獲取隱藏層單元值作為下一層RBM輸入。經(jīng)過n次學(xué)習(xí)后,即可逐層依次調(diào)整n個(gè)RBM參數(shù),從而優(yōu)化整個(gè)GDBM模型參數(shù)。需要注意的是,與深度信念網(wǎng)絡(luò)(DBN)逐層優(yōu)化參數(shù)方式[20]略有不同,GDBM逐層貪婪學(xué)習(xí)時(shí)每層均受其上下兩層的影響[14]。因此在訓(xùn)練時(shí),底層RBM隱藏層激活概率計(jì)算時(shí)需將可見層單元激活概率擴(kuò)為兩倍,以補(bǔ)償其余層損失;其余中間層RBM,只需要在組合成GDBM時(shí),簡(jiǎn)單把上下兩個(gè)方向上的權(quán)值均分即可。
(2) 在初始化整個(gè)模型后,GDBM中每個(gè)隱藏層的二值隨機(jī)激活狀態(tài)改為確定的真實(shí)概率值,這樣GDBM模型就變?yōu)橐粋€(gè)多層初始值已確定的神經(jīng)網(wǎng)絡(luò)。再根據(jù)可見層v與標(biāo)簽層l,通過后向傳遞方法微調(diào)整個(gè)模型。
在變化和未變化樣本訓(xùn)練GDBM后,即可對(duì)兩幅影像進(jìn)行變化檢測(cè)分析。在逐點(diǎn)分析(j,k)時(shí),同樣利用兩時(shí)相同名像點(diǎn)(j±w,k±w)范圍內(nèi)圖像作為輸入。
本文變化檢測(cè)試驗(yàn)采用的數(shù)據(jù)分別為2014年4月3日和2016年5月7日獲取的北京市郊區(qū)某區(qū)域的高空間分辨率遙感影像,包含紅、綠、藍(lán)3個(gè)波段。其中2014年數(shù)據(jù)為Pléiades-1衛(wèi)星數(shù)據(jù),分辨率為0.5 m;2016年數(shù)據(jù)為WorldView-3,分辨率為0.31 m。在對(duì)兩幅影像預(yù)處理后,兩幅影像大小為2633×2349像素,如圖5(a)、(b)所示。圖像中的主要變化區(qū)域是影像右側(cè)和下側(cè)的建筑、左側(cè)道路旁樹木以及下側(cè)的停車場(chǎng)汽車,圖像中左側(cè)建筑及建筑間的道路為主要未變化區(qū)域。參考變化區(qū)域如圖5(c)所示,為目視解譯結(jié)果,圖中黑色代表變化區(qū)域,白色代表未變化區(qū)域。本文試驗(yàn)環(huán)境:操作系統(tǒng)為Windows7,CPU為i5-3450,內(nèi)存8G,編程軟件為MATLABR2015a。
圖2 同一地物在兩幅影像中對(duì)應(yīng)像點(diǎn)Fig.2 Homologous pixels of identical area in two remote sensing images
圖3 光譜和紋理變化相結(jié)合的樣本選擇Fig.3 Samples selection based on combining spectral changes and textural changes
圖5 變化檢測(cè)數(shù)據(jù)Fig.5 Data of change detection
圖6是在窗口大小w=4,樣本提取參數(shù)T=6時(shí),具有不同隱藏層GDBM訓(xùn)練得到的變化結(jié)果圖。整體而言,GDBM模型能夠較好地對(duì)高分辨率遙感影像中變化和未變化區(qū)域進(jìn)行有效檢測(cè),對(duì)大部分建筑、樹木、道路和停車場(chǎng)與街道內(nèi)汽車的變化都能識(shí)別,說明深度學(xué)習(xí)應(yīng)用在高分衛(wèi)星遙感影像變化檢測(cè)方面具有良好效果。在變化檢測(cè)精度評(píng)價(jià)上,本文采用正確率、虛警率、漏檢率3個(gè)指標(biāo),不同數(shù)量隱藏層變化檢測(cè)結(jié)果如表1所示。從計(jì)算結(jié)果可以看出,隨著隱藏層數(shù)量增多,變化檢測(cè)的整體識(shí)別能力增強(qiáng),正確率增加超過12%,虛警率和漏檢率均明顯降低。這是因?yàn)樯疃葘W(xué)習(xí)可以有效提取地物的深層特征,準(zhǔn)確識(shí)別不同時(shí)相地物間的異同,從而實(shí)現(xiàn)對(duì)變化、未變化區(qū)域的判別與分類。但當(dāng)隱藏層數(shù)超過一定數(shù)量時(shí)(5~8層),變化檢測(cè)正確率提升較小,虛警率減小的同時(shí)漏檢率增多,說明深度學(xué)習(xí)具有一定的最適范圍。通過對(duì)每層權(quán)值分析發(fā)現(xiàn),隨著深度的增加,網(wǎng)絡(luò)權(quán)值愈加抽象,表明網(wǎng)絡(luò)識(shí)別的信息是對(duì)這些抽象特征的組合[21]。因此對(duì)于較難區(qū)分變化和未變化區(qū)域的不同時(shí)相遙感影像,可以通過增加GDBM層數(shù)及各層單元數(shù)提取抽象特征,以提升整體變化檢測(cè)精度。
圖7是在訓(xùn)練層數(shù)為4層,T=6條件下,變化檢測(cè)的正確率、虛警率、漏檢率與不同窗口大小w的關(guān)系圖。從圖中可以看出,當(dāng)采用考慮鄰域信息的RCVA和GLCM后,即w=0變?yōu)閣=1時(shí),深度學(xué)習(xí)后變化檢測(cè)正確率從64.23%升至70.63%,表明考慮鄰域信息能有效提升變化檢測(cè)精度。隨著窗口大小逐漸增大(w≤4),正確率逐漸升高至79.42%,提升超過15%,說明改進(jìn)方法具有良好效果。正確率上升主要是因?yàn)閮煞跋裰袥]有改變的建筑物、道路邊緣等輪廓能夠更加精確匹配,因此減少了這些沒有改變但因配準(zhǔn)誤差而劃分為變化類別的像元個(gè)數(shù),這也是虛警率下降明顯的原因。但隨著搜索區(qū)域窗口大小進(jìn)一步增大,兩幅影像中“過渡配準(zhǔn)”[10]像元增多,一幅影像中的像元與另一幅影像中非對(duì)應(yīng)像元匹配的可能性增大,這會(huì)削弱變化強(qiáng)度,使微小變化難以檢測(cè)到,導(dǎo)致部分變化區(qū)域誤判為未變化區(qū)域。因此雖然虛警率仍在減小,但整體而言正確率有所下降,主要表現(xiàn)為漏檢率升高。因此在實(shí)際應(yīng)用過程中,需要根據(jù)遙感影像分辨率大小選擇合適的窗口大小,窗口的范圍應(yīng)略大于影像間最大局部配準(zhǔn)誤差。
圖6 變化檢測(cè)結(jié)果Fig.6 Results of change detection
隱藏層數(shù)量檢測(cè)改變檢測(cè)未變正確率/(%)虛警率/(%)漏檢率/(%)1實(shí)際改變1686083752641實(shí)際未變1196155255003868.4941.5022.792實(shí)際改變1891334547390實(shí)際未變1117951262824273.0737.1517.243實(shí)際改變1622919815805實(shí)際未變674092307210175.9129.3520.984實(shí)際改變2042243396481實(shí)際未變869768287642579.5329.8712.115實(shí)際改變2160732277992實(shí)際未變734132301206183.6425.368.508實(shí)際改變2002090436634實(shí)際未變516670322952384.5920.5111.91
圖7 移動(dòng)窗口w與變化檢測(cè)精度關(guān)系圖Fig.7 Relations between moving window w and change detection accuracies
圖8是在訓(xùn)練層數(shù)為5層,w=4條件下,變化檢測(cè)的正確率、虛警率、漏檢率與不同樣本提取參數(shù)T的關(guān)系圖。在T=1時(shí),選取變化圖像中1%的最大值和最小值像元作為變化和未變化區(qū)域的樣本,此時(shí)還不能選取到所有具有代表性變化的地物樣本,因此正確率較低。隨著T逐漸增大,因?yàn)檫x取了更多具有明顯變化和未變化的樣本值,變化檢測(cè)精度逐漸變高,在T=6時(shí)達(dá)到83.64%,且虛警率與漏檢率都有明顯下降。隨著T進(jìn)一步增大,雖然正確率仍較高,但此時(shí)選擇錯(cuò)誤分類樣本概率增大,因此漏檢率和誤檢率均有逐漸增大趨勢(shì),影響了整體的正確率。對(duì)于深度學(xué)習(xí)來說,樣本個(gè)數(shù)越多學(xué)習(xí)效果越好,但這是基于有效樣本的基礎(chǔ)上。T較大時(shí),雖然樣本數(shù)量增多,但往往有效樣本所占比率反而略微下降,影響了深度學(xué)習(xí)的效果。整體而言T值不應(yīng)過小,一般選擇在T=4到T=8之間。
圖8 樣本提取參數(shù)T與變化檢測(cè)精度關(guān)系圖Fig.8 Relations between the parameter of sample selection T and change detection accuracy
為進(jìn)一步驗(yàn)證本文提出方法的可行性和有效性,本文方法與矢量分析法(CVA)、獨(dú)立成分分析方法(ICA)、健壯矢量分析法[10](RCVA)、文獻(xiàn)[22]方法、快速目的性獨(dú)立分析方法[23](PFICA)變化檢測(cè)結(jié)果進(jìn)行對(duì)比,對(duì)比結(jié)果如表2所示。從表中可以看出,傳統(tǒng)方法如CVA、ICA等在不同衛(wèi)星的高分辨率遙感影像的變化檢測(cè)時(shí)結(jié)果精度較低。在此基礎(chǔ)上對(duì)其改進(jìn)的RCVA、PFICA則有明顯提升,但因用到光譜特征而較少考慮到紋理特征,精度提升有限。文獻(xiàn)[22]采用面向?qū)ο笞兓瘷z測(cè)方法對(duì)光譜特征、紋理特征等進(jìn)行組合,正確率得到一定的提高。但因不同時(shí)相高分辨率影像獲取時(shí)拍攝角度和光照條件不同,影像配準(zhǔn)誤差會(huì)影響其光譜變化,同一地物異質(zhì)性較大且相對(duì)輻射校正法也不能有效減小光譜差異[24],因此影像間同類地物特征難以提取與對(duì)比,虛警率較高,變化檢測(cè)所得結(jié)果精度不如本文方法所得結(jié)果高。本文方法考慮鄰域信息以減弱配準(zhǔn)誤差的影響并利用深度學(xué)習(xí)提取特征,所得變化檢測(cè)的結(jié)果正確率最高,且虛警率和漏檢率也低于其他算法,說明該方法的有效性和可行性。在效率方面,本文方法逐點(diǎn)考慮光譜和紋理鄰域信息,并利用包含多層隱藏層的網(wǎng)絡(luò)訓(xùn)練學(xué)習(xí),因此用時(shí)較其他算法略多,但與大多對(duì)比算法耗時(shí)均在同一量級(jí)。對(duì)于高分辨率遙感影像來說,正確率的提升對(duì)于細(xì)節(jié)信息的正確提取極為重要,因此綜合考慮變化檢測(cè)精度與時(shí)間因素,本文方法可作為高分影像變化檢測(cè)的有效方法。
表2 不同方法變化檢測(cè)精度與所用時(shí)間比較
Tab.2 Accuracy and time consumption comparisons by different methods
本文提出一種利用深度學(xué)習(xí)對(duì)不同衛(wèi)星的高分辨率遙感影像進(jìn)行變化檢測(cè)的方法。通過試驗(yàn)并與其他方法對(duì)比分析,發(fā)現(xiàn)該方法能夠有效提高變化檢測(cè)的正確率。深度學(xué)習(xí)方法可作為高分辨率遙感數(shù)據(jù)特征挖掘的有效手段,為高分影像數(shù)據(jù)的分類與變化檢測(cè)提供一條新途徑。雖然本文方法取得了較好的變化檢測(cè)效果,但仍具有很大的改進(jìn)空間。尤其對(duì)于陰影部分,其存在影響了計(jì)算機(jī)的自動(dòng)識(shí)別[25],在不同光照條件下陰影方向與范圍不一致時(shí),變化檢測(cè)結(jié)果精度往往不高,目前還沒有較好的解決方法。同時(shí)深度學(xué)習(xí)方法用時(shí)略長(zhǎng),因此需要優(yōu)化本文方法以提升效率。為進(jìn)一步提高變化檢測(cè)精度,利用深度學(xué)習(xí)建立一個(gè)融合傳感器信息、時(shí)相信息以及特征信息的通用、有效、高效的變化檢測(cè)方法,是未來研究的重點(diǎn)和難點(diǎn)。
[1] SINGH A. Review Article Digital Change Detection Techniques Using Remotely-sensed Data[J]. International Journal of Remote Sensing, 1989, 10(6): 989-1003.
[2] LEICHTLE T, GEIβ C, WURM M, et al. Unsupervised Change Detection in VHR Remote Sensing Imagery: An Object-based Clustering Approach in a Dynamic Urban Environment[J]. International Journal of Applied Earth Observation and Geoinformation, 2017, 54: 15-27.
[3] TARANTINO C, ADAMO M, LUCAS R, et al. Detection of Changes in Semi-natural Grasslands by Cross Correlation Analysis with WorldView-2 Images and New Landsat 8 Data[J]. Remote Sensing of Environment, 2016, 175: 65-72.
[4] FYTSILIS A L, PROKOS A, KOUTROUMBAS K D, et al. A Methodology for Near Real-time Change Detection between Unmanned Aerial Vehicle and Wide Area Satellite Images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 119: 165-186.
[5] 馮文卿, 張永軍. 利用多尺度融合進(jìn)行面向?qū)ο蟮倪b感影像變化檢測(cè)[J]. 測(cè)繪學(xué)報(bào), 2015, 44(10): 1142-1151. DOI: 10.11947/j.AGCS.2015.20140260. FENG Wenqing, ZHANG Yongjun. Object-oriented Change Detection for Remote Sensing Images Based on Multi-scale Fusion[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(10): 1142-1151. DOI: 10.11947/j.AGCS.2015.20140260.
[6] INGLADA J, MERCIER G. A New Statistical Similarity Measure for Change Detection in Multitemporal SAR Images and Its Extension to Multiscale Change Analysis[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(5): 1432-1445.
[7] ALBERGA V. Similarity Measures of Remotely Sensed Multi-sensor Images for Change Detection Applications[J]. Remote Sensing, 2009, 1(3): 122-143.
[8] ZHANG Puzhao, GONG Maogou, SU Linzhi, et al. Change Detection Based on Deep Feature Representation and Mapping Transformation for Multi-spatial-resolution Remote Sensing Images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 116: 24-41.
[9] JOHNSON R D, KASISCHKE E S. Change Vector Analysis: A Technique for the Multispectral Monitoring of Land Cover and Condition[J]. International Journal of Remote Sensing, 1998, 19(3): 411-426.
[10] THONFELD F, FEILHAUER H, BRAUN M, et al. Robust Change Vector Analysis (RCVA) for Multi-sensor Very High Resolution Optical Satellite Data[J]. International Journal of Applied Earth Observation and Geoinformation, 2016, 50: 131-140.
[11] HARALICK R M, SHANMUGAM K, DINSTEIN I H. Texture Features for Image Classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1973, SMC-3(6): 610-621.
[12] XIAO Pengfeng, ZHANG Xueliang, WANG Dongguang, et al. Change Detection of Built-up Land: A Framework of Combining Pixel-based Detection and Object-based Recognition[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 119: 402-414.
[13] 闞希, 張永宏, 曹庭, 等. 利用多光譜衛(wèi)星遙感和深度學(xué)習(xí)方法進(jìn)行青藏高原積雪判識(shí)[J]. 測(cè)繪學(xué)報(bào), 2016, 45(10): 1210-1221. DOI: 10.11947/j.AGCS.2016.20160183. KAN Xi, ZHANG Yonghong, CAO Ting, et al. Snow Cover Recognition for Qinghai-Tibetan Plateau Using Deep Learning and Multispectral Remote Sensing[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(10): 1210-1221. DOI: 10.11947/j.AGCS.2016.20160183.
[14] SALAKHUTDINOV R, HINTON G. Deep Boltzmann Machines[C]∥Proceedings of the 12th International Conference on Artificial Intelligence and Statistics. [S.l.]: PMLR, 2009, 5: 448-455.
[15] FISCHER A, IGEL C. An Introduction to Restricted Boltzmann Machines[M]∥ALVAREZ L, MEJAIL M, GOMEZ L, et al. Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications. Berlin: Springer, 2012: 14-36.
[16] 劉凱, 張立民, 孫永威, 等. 利用深度玻爾茲曼機(jī)與典型相關(guān)分析的自動(dòng)圖像標(biāo)注算法[J]. 西安交通大學(xué)學(xué)報(bào), 2015, 49(6): 33-38. LIU Kai, ZHANG Limin, SUN Yongwei, et al. An Automatic Image Annotation Algorithm Using Deep Boltzmann Machine and Canonical Correlation Analysis[J]. Journal of Xi'an Jiaotong University, 2015, 49(6): 33-38.
[17] SALAKHUTDINOV R, TENENBAUM J B, TORRALBA A. Learning with Hierarchical-deep Models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1958-1971.
[18] YU Yongtao, GUAN Haiyan, ZAI Dawei, et al. Rotation-and-scale-invariant Airplane Detection in High-resolution Satellite Images Based on Deep-Hough-Forests[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 112: 50-64.
[19] HINTON G E. Training Products of Experts by Minimizing Contrastive Divergence[J]. Neural Computation, 2002, 14(8): 1771-1800.
[20] HINTON G E, SALAKHUTDINOV R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science, 2006, 313(5786): 504-507.
[21] 潘廣源, 柴偉, 喬俊飛. DBN網(wǎng)絡(luò)的深度確定方法[J]. 控制與決策, 2015, 30(2): 256-260. PAN Guangyuan, CHAI Wei, QIAO Junfei. Calculation for Depth of Deep Belief Network[J]. Control and Decision, 2015, 30(2): 256-260.
[22] IM J, JENSEN J R, TULLIS J A. Object-based Change Detection Using Correlation Image Analysis and Image Segmentation[J]. International Journal of Remote Sensing, 2008, 29(2): 399-423.
[23] GHAFFARIAN S, GHAFFARIAN S. Automatic Building Detection Based on Purposive Fast ICA (PFICA) Algorithm Using Monocular High Resolution Google Earth Images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 97: 152-159.
[24] 李亮, 舒寧, 王凱, 等. 融合多特征的遙感影像變化檢測(cè)方法[J]. 測(cè)繪學(xué)報(bào), 2014, 43(9): 945-953. DOI: 10.13485/j.cnki.11-2089.2014.0138. LI Liang, SHU Ning, WANG Kai, et al. Change Detection Method for Remote Sensing Images Based on Multi-features Fusion[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(9): 945-953. DOI: 10.13485/j.cnki.11-2089.2014.0138.
[25] 段光耀, 宮輝力, 李小娟, 等. 結(jié)合特征分量構(gòu)建和面向?qū)ο蠓椒ㄌ崛「叻直媛市l(wèi)星影像陰影[J]. 遙感學(xué)報(bào), 2014, 18(4): 760-770. DUAN Guangyao, GONG Huili, LI Xiaojuan, et al. Shadow Extraction Based on Characteristic Components and Object-oriented Method for High-resolution Images[J]. Journal of Remote Sensing, 2014, 18(4): 760-770.
(責(zé)任編輯:叢樹平)
Change Detection Method for High Resolution Remote Sensing Images Using Deep Learning
ZHANG Xinlong,CHEN Xiuwan,LI Fei,YANG Ting
School of Earth and Space Sciences, Peking University, Beijing 100871,China
A novel change detection method is proposed based on deep learning to improve the accuracy of change detection in very high spatial resolution remote sensing images. On the base of image pre-processing, spectral and texture changes are extracted by modified change vector analysis and grey level co-occurrence matrix respectively, both concerning spatial-contextual information. Most likely changed and unchanged pixel-pairs are obtained by an adaptive threshold for selecting the labeled samples. The proposed model based on Gaussian-Bernoulli deep Boltzmann machines with a label layer is built to learn high-level features and is trained for determining the change areas. Experimental results on WorldView-3 and Pléiades-1 show that the proposed method out performs the compared methods in the accuracy of change detection.
change detection; high resolution remote sensing; deep learning
The National Natural Science Foundation of China (Nos.41272366;41230634)
ZHANG Xinlong(1990—), male, PhD candidate,majors in photogrammetry and remote sensing.
CHEN Xiuwan
張?chǎng)锡?,陳秀萬,李飛,等.高分辨率遙感影像的深度學(xué)習(xí)變化檢測(cè)方法[J].測(cè)繪學(xué)報(bào),2017,46(8):999-1008.
10.11947/j.AGCS.2017.20170036. ZHANG Xinlong,CHEN Xiuwan,LI Fei,et al.Change Detection Method for High Resolution Remote Sensing Images Using Deep Learning[J]. Acta Geodaetica et Cartographica Sinica,2017,46(8):999-1008. DOI:10.11947/j.AGCS.2017.20170036.
P237
A
1001-1595(2017)08-0999-10
國(guó)家自然科學(xué)基金(41272366;41230634)
2017-01-18
張?chǎng)锡?1990—),男,博士生,研究方向?yàn)閿z影測(cè)量與遙感。
E-mail: mtxinlong@126.com
陳秀萬
E-mail: xwchen@pku.edu.cn
修回日期: 2017-03-17