許 寧,肖新耀,尤紅建,曹銀貴
1. 中國科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點(diǎn)實(shí)驗(yàn)室,北京 100190; 2. 中國科學(xué)院電子學(xué)研究所,北京 100190; 3. 中國科學(xué)院大學(xué),北京 100049; 4. 中國地質(zhì)大學(xué)(北京)土地科學(xué)技術(shù)學(xué)院,北京 100083
?
HCT變換與聯(lián)合稀疏模型相結(jié)合的遙感影像融合
許寧1,2,3,肖新耀1,2,3,尤紅建1,2,曹銀貴4
1. 中國科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點(diǎn)實(shí)驗(yàn)室,北京 100190; 2. 中國科學(xué)院電子學(xué)研究所,北京 100190; 3. 中國科學(xué)院大學(xué),北京 100049; 4. 中國地質(zhì)大學(xué)(北京)土地科學(xué)技術(shù)學(xué)院,北京 100083
摘要:提出了一種基于HCT變換和聯(lián)合稀疏模型的遙感影像融合方法,可更有效地利用多光譜所需譜段的光譜信息,最終得到所需譜段的融合影像。該方法將所需譜段的多光譜影像進(jìn)行HCT變換,獲取其亮度分量和角度分量;然后利用亮度分量和全色影像小波變換的低頻分量進(jìn)行聯(lián)合稀疏模型的構(gòu)建、系數(shù)求解和融合,得到融合的全色低頻分量;最后將該低頻分量與前面步驟所得其他分量分別進(jìn)行小波逆變換和HCT逆變換,得到高質(zhì)量的融合影像。試驗(yàn)利用Pleiades-1和WorldView-2兩種衛(wèi)星數(shù)據(jù)進(jìn)行驗(yàn)證,并通過視覺效果和量化的融合評價(jià)指標(biāo)進(jìn)行對比和分析,驗(yàn)證了本文算法的有效性。
關(guān)鍵詞:影像融合;聯(lián)合稀疏模型;HCT變換;全色圖像;多光譜圖像
全色和多光譜影像融合旨在結(jié)合全色影像的空間細(xì)節(jié)和多光譜影像的光譜信息,得到空間分辨率和光譜分辨率兼優(yōu)的高質(zhì)量多光譜影像,有利于遙感影像的分類和目標(biāo)識別等后續(xù)處理[1]。迄今為止,學(xué)者們提出了很多方法,這些方法可概括為基于組分替換、多分辨率分析以及稀疏表示的融合方法。其中,經(jīng)典的組分替換融合方法有IHS變換[2]、PCA變換[3]算法,以及改進(jìn)的組分替換算法GSA[4]、PRACS[5]等,這類算法在變換域內(nèi)用全色譜段代替多光譜的某一個(gè)分量,并通過逆變換得到融合影像,算法計(jì)算簡單,融合影像空間分辨率高,但是存在一定的光譜失真。而多分辨率分析方法,則是通過提取全色影像的高頻信息來彌補(bǔ)多光譜影像缺少的細(xì)節(jié),例如經(jīng)典的WT[6]、AWLP[7]、NSCT[8]、CBD[9]等,這類方法在光譜保持方面得到了提升,但會損失一定的全色高頻細(xì)節(jié)信息。另外,一種用于信號時(shí)-頻變換的EMD[10]方法在遙感影像融合領(lǐng)域得到了應(yīng)用,但也需結(jié)合IHS變換來獲得更好的效果[11]。近年來,基于稀疏表示的遙感影像融合方法[12-15]得到了快速的發(fā)展,其通過大量參考影像進(jìn)行訓(xùn)練,得到的冗余字典往往具有自適應(yīng)性,更加符合人眼視覺特性,能夠充分地考慮到圖像本身的幾何正則性,用于彩色圖像融合具有較好的光譜特性保持特點(diǎn)。但這類方法通常需要在融合過程中進(jìn)行冗余字典的訓(xùn)練、稀疏系數(shù)解算和數(shù)據(jù)的重構(gòu),計(jì)算復(fù)雜度高,實(shí)時(shí)性差。
為了兼顧這3類方法的優(yōu)點(diǎn),獲取更高質(zhì)量的融合影像,出現(xiàn)了IHS-WT[16]、DCT-IHS[17]、SVT-APCA[18]、IHS-CS[19]等一系列組合架構(gòu)的融合方法。這類方法所表現(xiàn)出的良好的融合影像質(zhì)量,確立了光譜和空間信息保持的遙感影像融合的一個(gè)重要研究方向。然而,這種組合架構(gòu)的融合方法通常需要進(jìn)行組分替換類方法的參與(如IHS色彩空間變換),只有部分譜段(通常為3個(gè)譜段)用于變換處理,難以利用多光譜數(shù)據(jù)所有譜段的光譜信息,導(dǎo)致光譜畸變[20]仍然存在于融合影像中,使得這類遙感影像融合方法仍然需要進(jìn)一步提升光譜信息的保持能力?;谙∈璞硎镜娜诤戏椒m然在光譜保持上體現(xiàn)了一定優(yōu)勢,但其需要對遙感數(shù)據(jù)進(jìn)行逐波段的稀疏求解和重構(gòu),對多光譜數(shù)據(jù)的處理無疑會導(dǎo)致計(jì)算復(fù)雜度大量增加。針對這些問題,并綜合考慮到組合架構(gòu)融合方法的優(yōu)勢,本文提出了一種基于HCT變換[21]和聯(lián)合稀疏模型的遙感影像融合方法。HCT變換不僅能實(shí)現(xiàn)組分替換類融合方法的良好空間信息保持特性,同時(shí)能夠?qū)骖櫲我獠ǘ蔚亩喙庾V圖像進(jìn)行處理,而聯(lián)合稀疏表示方法能夠更好地保持多光譜的光譜特性,進(jìn)一步提升組合架構(gòu)下遙感影像的融合質(zhì)量。另外,由于只采用HCT變換的亮度分量參與稀疏表示求解和重構(gòu),無須逐波段進(jìn)行處理,相較傳統(tǒng)的稀疏表示融合方法,計(jì)算復(fù)雜度得以簡化。
1稀疏表示和HCT變換
1.1稀疏表示模型
稀疏表示是壓縮感知理論的基礎(chǔ)之一,其利用字典中少量原子的線性組合來描述信號,圖像信息越稀疏,稀疏表示就越準(zhǔn)確。假設(shè)信號{xi,i=1,2,…,K},xi∈Rn,字典矩陣D∈Rn×T中的每一列都是一個(gè)原子,根據(jù)稀疏表示理論[22],信號可以表示為
x=Dα
(1)
式中,α為對應(yīng)的稀疏系數(shù)。由于n≤T,該問題的求解是欠定的,稀疏表示就是尋找其中的最稀疏解,即稀疏系數(shù)α中非零元素個(gè)數(shù)最少的解。通過下面的優(yōu)化問題[23],可以實(shí)現(xiàn)此目的
(2)
基于稀疏表示模型和信號特點(diǎn),文獻(xiàn)[25]提出了一種聯(lián)系多個(gè)信號的聯(lián)合稀疏表示模型(joint sparsity model-1,JSM-1)。該模型認(rèn)為所有信號可由一個(gè)共有的公共成分(common component)和一個(gè)各自的差異成分組成(innovation component)。以兩個(gè)信號為例
(3)
(4)
將上述公式級聯(lián)起來,用矩陣的形式表示為
(5)
(6)
對此方程進(jìn)行求解可以分別得到信號的公共稀疏成分和各自稀疏成分。針對全色和多光譜遙感圖像融合,通過聯(lián)合稀疏表示模型的分析,提出這種利用聯(lián)合稀疏模型有效提取兩類待融合圖像之間的冗余信息和互補(bǔ)信息的方法,通過對互補(bǔ)信息的融合,使得影像的融合結(jié)果包含更多的信息,以此獲得更全面信息量的融合圖像的方法。
1.2HCT變換方法
實(shí)際遙感衛(wèi)星在多光譜圖像獲取過程中,不僅采集RGB譜段數(shù)據(jù),還包括近紅外等其他波段。但常規(guī)的色彩空間變換融合方法只選擇RGB 3個(gè)譜段進(jìn)行融合處理,難以有效利用其他譜段的光譜信息,導(dǎo)致融合結(jié)果光譜畸變大。超球面色彩變換(hyperspherical color transformation,HCT)[21]將圖像從原始笛卡爾空間變換到超球面空間。由于該變換可不限參與變換的波段,可以比對全色數(shù)據(jù)的光譜響應(yīng)范圍,選擇多光譜影像的R、G、B以及近紅外波段進(jìn)行處理,這樣可以進(jìn)一步減小常規(guī)三波段變換時(shí)近紅外波段光譜信息的缺失導(dǎo)致的融合結(jié)果的光譜畸變。
對于一幅具有N波段的圖像{bandi}i=1:N,經(jīng)過該變換,可以得到在超球面空間中的亮度變量I和N-1個(gè)角度變量,即
(7)
(8)
式中,bandi是輸入的第i個(gè)波段;I是亮度成分;φ1、φ2、…、φN-1是N-1個(gè)角度變量,表示顏色或者色度??梢钥吹剑炼扰c色度完全獨(dú)立,這也是基于HCT變換的融合最重要的特征。
對應(yīng)的HCT變換的逆變換可表示為
(9)
bandN=Isinφ1sinφ2…sinφN-2sinφN-1
(10)
與IHS[2]等彩色空間的變換相似,HCT變換參與的遙感圖像融合也是一種組分替代的融合方式,但同IHS等彩色空間變換相比,HCT可根據(jù)需要選擇部分或全部遙感圖像波段參與變換,這樣可以有針對性地利用所需波段的信息。
2基于HCT和聯(lián)合稀疏表示模型的融合方法
采用HCT變換可以克服IHS算法由于多光譜數(shù)據(jù)無近紅外譜段參與(全色通常包括近紅外光譜范圍),導(dǎo)致植被等地物存在較大光譜畸變的弱點(diǎn)。受到組合架構(gòu)融合方法的啟示,本文在HCT變換基礎(chǔ)上引入聯(lián)合稀疏表示模型,通過分解全色數(shù)據(jù)和多光譜數(shù)據(jù)的冗余和本征信息,從而更有效地利用兩類數(shù)據(jù)的差異信息,進(jìn)一步減小HCT融合處理中光譜的畸變,實(shí)現(xiàn)融合影像光譜信息保持的優(yōu)化。在實(shí)際處理流程設(shè)計(jì)過程中,通過只對HCT變換亮度分量的聯(lián)合稀疏處理,減小傳統(tǒng)稀疏表示融合方法逐波段處理的計(jì)算復(fù)雜度。因此,本文提出的基于HCT和JSM-1模型的全色與多光譜影像融合方法,旨在綜合利用HCT變換和JSM-1模型的優(yōu)勢,實(shí)現(xiàn)任意波段的多光譜圖像和全色圖像的融合處理,以期獲得更好的融合效果。
本方法可以分解為4個(gè)部分,如圖1所示。第1部分為原始數(shù)據(jù)的預(yù)處理,主要包括完成原始多光譜圖像的升采樣;第2部分為多光譜數(shù)據(jù)的HCT變換,得到亮度分量和角度分量;第3部分為小波變換處理,可以分解出低頻系數(shù)進(jìn)行處理;第4部分為聯(lián)合稀疏表示處理,可以獲得更好的融合系數(shù)。假設(shè)全色圖像大小為G1×G2,基于HCT和JSM-1模型融合處理的具體實(shí)施步驟如下:
(1) 多光譜升采樣。對N波段低分辨率多光譜圖像(M)升采樣,采用多項(xiàng)式插值方法進(jìn)行插值,插值因子是4,得到升采樣多光譜圖像(M1)。
(2) 多光譜HCT變換。對多光譜圖像進(jìn)行HCT變換,分別得到亮度分量I、角度分量φ1、φ2、…、φN-1。
(3) 多分辨率變換處理。對全色圖像(P)依據(jù)I進(jìn)行直方圖調(diào)整,然后做兩層小波變換,得到低頻信息cp和高頻信息dp以及I分量的低頻信息cm和高頻信息dm。
(5) 聯(lián)合稀疏求解。為了獲得更加緊致的稀疏表示,本文方法采用KSVD算法[26]進(jìn)行聯(lián)合字典訓(xùn)練,得到字典D,所選擇的訓(xùn)練樣本為Y。
(11)
基于Y和D,采用聯(lián)合稀疏表示模型JSM-1式(11)進(jìn)行求解,得到公共系數(shù)矩陣Ac和差異系數(shù)矩陣A1、A2。
(6) 差異稀疏系數(shù)的融合。針對融合獨(dú)特系數(shù)矩陣A中的每一列α,本次根據(jù)A1、A2中的每一列α1、α2的l1范數(shù)權(quán)重大小進(jìn)行融合。具體的計(jì)算公式為
(12)
則融合后的圖像塊Y=DAc+DA。
圖1 基于HCT和JSM融合方法流程圖Fig.1 The flowchart of fusion method based on HCT and JSM
3結(jié)果與分析
針對本文提出的融合方法,采用法國Pleiades-1和美國WorldView-2兩種衛(wèi)星數(shù)據(jù)進(jìn)行試驗(yàn)分析(http:∥www.geosage.com/highview/download.html)。這兩型衛(wèi)星均提供空間分辨率為0.5 m的全色圖像和2 m的多光譜圖像,并已經(jīng)完成了影像數(shù)據(jù)的配準(zhǔn)處理。為便于對試驗(yàn)結(jié)果進(jìn)行量化評估,以原始的多光譜圖像作為參考影像,而原始的全色數(shù)據(jù)進(jìn)行了降采樣處理,使其與參考多光譜數(shù)據(jù)成一致分辨率。而將原始多光譜影像進(jìn)行低通濾波處理和影像的降采樣(采樣因子為0.25),得到用于融合處理輸入的低分辨率多光譜影像。而在融合處理過程中,為得到與全色影像同分辨率的多光譜影像,采用多項(xiàng)式插值[27]對低分辨率多光譜進(jìn)行上采樣(在下文用EXP來表示)。
3.1Pleiades數(shù)據(jù)試驗(yàn)
Pleiades-1衛(wèi)星發(fā)射于2011年,可獲得幅寬達(dá)到20 km的0.5 m全色和2 m多光譜數(shù)據(jù)。為更充分地驗(yàn)證本文方法的有效性,試驗(yàn)采用兩幅Pleiades-1衛(wèi)星多光譜衛(wèi)星數(shù)據(jù)的B、G、R、NIR 4個(gè)波段和相應(yīng)的全色波段進(jìn)行融合,選擇影像大小均為400×1000,進(jìn)行分塊的窗口大小為8×8,同時(shí)兼顧計(jì)算量和試驗(yàn)效果,選擇移動(dòng)步長為4個(gè)像素,訓(xùn)練字典大小為64×256。本文采用了4種較新的、效果較好對比算法,即AWLP[7]、GSA[4]、Indusion[28]及PRACS[5]進(jìn)行對比分析。其中,第1幅圖像(Ple-1)5種方法的處理結(jié)果如圖2所示。為了突出細(xì)節(jié),在圖2中還對影像的局部進(jìn)行了放大顯示。
圖2 Pleiades衛(wèi)星數(shù)據(jù)(Ple-1)融合結(jié)果及局部放大顯示Fig.2 Fusion results of Pleiades images (Ple-1) and partial enlarged views
從Ple-1的試驗(yàn)結(jié)果(圖2)可以看出,在分辨率優(yōu)化方面,文中采用的所有方法均得到了比參考圖像(reference)更好的效果,這是由于為了進(jìn)行對比分析,采用的參考多光譜圖像是原始數(shù)據(jù),而與其分辨率相同的全色數(shù)據(jù)是降采樣4倍的數(shù)據(jù),因此全色圖像在細(xì)節(jié)方面更優(yōu),而這些細(xì)節(jié)最終通過融合獲得了比參考多光譜圖像更好結(jié)果。在光譜信息保持方面,從圖2中可看出除了Indusion算法有一定的光譜畸變外,其他算法均較接近,從左側(cè)局部放大圖的左下角綠色植被色調(diào)來看,PRACS算法和本文方法得到了更好的結(jié)果。
為了對這5種不同的方法進(jìn)行量化的比較和分析,本次采用4種量化指標(biāo)來綜合評價(jià)這些融合算法,即空間相關(guān)系數(shù)(sCC)[29]、相對整體維數(shù)綜合誤差ERGAS[30-31]、光譜角制圖SAM[32]、全局質(zhì)量評價(jià)因子Q4[33]。其中,sCC表示融合圖像與全色圖像的空間相關(guān)量,其值越大,說明融合結(jié)果的空間細(xì)節(jié)越多,ERGAS和SAM表征光譜質(zhì)量,其值越小,表明光譜畸變也越少,Q4則是全局評價(jià)因子,其值越大,表明融合圖像效果越好。第1幅圖像5種算法的綜合評價(jià)值如表1所示??梢钥闯觯傮w上對于Ple-1場景數(shù)據(jù),PRACS算法獲得了更好的評價(jià)指標(biāo)值,而本文算法只在SAM值上占優(yōu),與其他3種算法相比,本文算法與PRACS的其他指標(biāo)值相差不大。
表1第1幅Pleiades-1衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果
Tab.1Quantitative results of different fusion methods on Ple-1
評價(jià)指標(biāo)AWLPGSAIndusionPRACS本文算法sCC0.88520.87330.82520.90480.8930ERGAS5.59646.26357.26154.04684.5385SAM4.85837.12966.31444.17613.5846Q40.76080.68350.60750.82040.7974
另一幅Pleiades-1衛(wèi)星數(shù)據(jù)(Ple-2)利用不同評價(jià)指標(biāo)公式得到了定量化評價(jià)指標(biāo)值如表2所示??梢钥闯?,與Ple-1相似,PRACS方法和本文方法獲得了更好的評價(jià)值。由于場景的差異,相較Ple-1圖像,本文方法在sCC指標(biāo)上獲得了更理想的結(jié)果,但與PRACS方法和AWLP差異不大。
表2第2幅Pleiades衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果
Tab.2Quantitative results of different fusion methods on Ple-2
評價(jià)指標(biāo)AWLPGSAIndusionPRACS本文算法sCC0.85410.83290.79450.85210.8553ERGAS6.89157.75278.44685.11725.7915SAM4.78837.77416.81274.56853.7107Q40.69260.61250.54820.76270.7359
3.2WorldView-2數(shù)據(jù)試驗(yàn)
WorldView-2衛(wèi)星是一顆高分辨率商業(yè)化運(yùn)行衛(wèi)星,由美國DigitalGlobe公司于2009年8月發(fā)射。衛(wèi)星上搭載一個(gè)譜段的全色和8個(gè)譜段的多光譜傳感器,其中全色分辨率達(dá)到0.46 m,而多光譜分辨率為1.84 m。試驗(yàn)只采用多光譜衛(wèi)星數(shù)據(jù)的B、G、R、NIR 4個(gè)波段進(jìn)行融合,同樣,選擇兩幅大小為400×1000的不同場景的影像數(shù)據(jù)進(jìn)行處理。聯(lián)合稀疏處理時(shí)設(shè)置的分塊大小、移動(dòng)步長以及訓(xùn)練字典大小與前面Pleiades-1數(shù)據(jù)試驗(yàn)一致,第1幅影像的試驗(yàn)結(jié)果如圖3所示,左右兩側(cè)各為一塊局部放大圖。
圖3 WorldView-2衛(wèi)星數(shù)據(jù)(WV-1)融合結(jié)果Fig.3 Fusion results of WorldView-2 images (WV-1) and partial enlarged views
從第1幅WorldView-2圖像(WV-1)的融合試驗(yàn)整體結(jié)果來看,5種算法均在空間分辨率上取得了改進(jìn),從中部區(qū)域的植被來看,GSA和Indusion算法在植被色調(diào)方面差異較大,顯得有些突兀,而其他算法比較柔和。從左側(cè)局部放大圖中下部的小綠地可以看出,AWLP、PRACS和本文算法得到的結(jié)果較優(yōu),而右下部黑紅色地物只在PRACS和本文算法中有一定體現(xiàn)。從右側(cè)局部放大圖可以看出,右側(cè)紅色房頂只有AWLP、PRACS與本文算法和參考圖像相似,屋頂紅色分布比較平滑;在中下部的植被部分,只有PRACS與本文算法在綠色色調(diào)上保持較好。
從WV-1融合結(jié)果的量化評價(jià)指標(biāo)來看(表3),對于WorldView-2的該場景數(shù)據(jù),本文算法在4個(gè)指標(biāo)上均獲得了更好的評價(jià)指標(biāo)值,而AWLP算法在sCC指標(biāo)上也取得了較高值,另外,PRACS算法在ERGAS、SAM以及Q4 3項(xiàng)指標(biāo)上與本文算法相差不大,這與試驗(yàn)結(jié)果在視覺效果上得出的結(jié)論一致。
表3 第1幅WorldView-2衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果
相較WV-1融合圖像的評價(jià)指標(biāo)(表3),本文算法在第2幅試驗(yàn)數(shù)據(jù)(WV-2)的評價(jià)指標(biāo)值(表4)上也取得了較好的結(jié)果,只有Q4結(jié)果稍遜于PRACS算法。
表4 第2幅WorldView-2衛(wèi)星數(shù)據(jù)的各融合算法量化結(jié)果
綜合兩顆衛(wèi)星Pleiades-1和WorldView-2的不同場景數(shù)據(jù)的試驗(yàn)結(jié)果,從視覺上的比較來看(圖2和圖3),PRACS和本文算法都獲得了較好的融合圖像,空間細(xì)節(jié)突出,光譜畸變相對較小。從量化評價(jià)角度,即從表1—表4可以看到,與其他4種算法相比,本文算法在光譜畸變處理上具有一定優(yōu)勢,在第1幅Pleiades-1衛(wèi)星數(shù)據(jù)中,SAM值最小,其他3個(gè)指標(biāo)只比PRACS算法稍差,第2幅在sCC和SAM上均最優(yōu);而在WorldView-2數(shù)據(jù)處理結(jié)果中,第1幅4個(gè)指標(biāo)都取得了最優(yōu)值,第2幅只有Q4評價(jià)值稍遜于PRACS算法??傮w來看,本文提出的算法在Pleiades-1和WorldView-2數(shù)據(jù)的試驗(yàn)中均得到了較高質(zhì)量的多波段融合影像。
從表5中可看出,在融合方法的處理時(shí)間方面(運(yùn)行環(huán)境:軟件-Matlab7;硬件-Intel(R) Core(TM) 2 Quad CPU (主頻2.33 GHz),4 GB內(nèi)存),Indusion方法所需的執(zhí)行時(shí)間最短,經(jīng)典的GSA方法次之,本文方法采用了組合架構(gòu)融合方式,處理過程包括HCT和小波變換,并且引入了聯(lián)合稀疏分解流程,比其他方法需要更長的處理時(shí)間。需要指出的是,本文方法由于只對HCT變換的亮度分量進(jìn)行聯(lián)合稀疏分解,且分塊步長為4,因此在圖像大小接近的情況下,相較文獻(xiàn)[34]的方法和文獻(xiàn)[12]提出的直接稀疏表示融合方法,算法在執(zhí)行時(shí)間上仍然有一定的優(yōu)勢。
表5 不同算法執(zhí)行時(shí)間的對比
4結(jié)語
全色和多光譜遙感影像融合的目的是得到空間分辨率高、光譜畸變小的多光譜影像,但光譜畸變一直是全色與多光譜影像融合的一個(gè)難點(diǎn)。本文結(jié)合近年來獲得良好光譜保持效果的稀疏表示融合方法,引入能支持任意波段處理的HCT變換,提出了一種基于HCT變換和聯(lián)合稀疏模型的遙感影像融合方法。相較傳統(tǒng)的稀疏表示方法,聯(lián)合稀疏模型充分利用了全色和多光譜的差異成分信息,而HCT則可利用所有的多光譜參與變換,不受傳統(tǒng)IHS處理3個(gè)譜段的限制,同時(shí)處理過程中只對HCT變換的I分量進(jìn)行聯(lián)合稀疏處理,有效地提升了處理效率。驗(yàn)證試驗(yàn)分別選取Pleiades-1和WorldView-2兩種衛(wèi)星數(shù)據(jù)進(jìn)行了試驗(yàn)。結(jié)果表明,本文方法在增強(qiáng)空間細(xì)節(jié)的同時(shí),更好地保持了多光譜數(shù)據(jù)的光譜信息,得到了融合質(zhì)量較好的融合影像。但在融合處理效率上,由于多種變換的參與以及聯(lián)合稀疏表示分解的引入,導(dǎo)致融合方法所需執(zhí)行時(shí)間長,這是后續(xù)需要進(jìn)一步研究改進(jìn)的地方。
參考文獻(xiàn):
[1]THOMAS C, RANCHIN T, WALD L, et al. Synthesis of Multispectral Images to High Spatial Resolution: A Critical Review of Fusion Methods Based on Remote Sensing Physics[J]. IEEE Transactions on Geoscience and Remote Sensing, 2008, 46(5): 1301-1312.
[2]CARPER W J, LILLESAND T M, KIEFER R W. The Use of Intensity-hue-saturation Transformations for Merging SPOT Panchromatic and Multispectral Image Data[J]. Photogrammetric Engineering & Remote Sensing, 1990, 56(4): 459-467.
[3]CHAVEZ JR P S, KWARTENG A Y. Extracting Spectral Contrast in Landsat Thematic Mapper Image Data Using Selective Principal Component Analysis[J]. Photogrammetric Engineering & Remote Sensing, 1989, 55(3): 339-348.
[4]AIAZZI B, BARONTI S, SELVA M. Improving Component Substitution Pansharpening through Multivariate Regression of MS+Pan Data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3230-3239.
[5]CHOI J, YU K, KIM Y. A New Adaptive Component-Substitution-based Satellite Image Fusion by Using Partial Replacement[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(1): 295-309.
[6]GARGUET-DUPORT B,GIREL J,CHASSERY J M,et al. The Use of Multiresolution Analysis and Wavelets Transform for Merging SPOT Panchromatic and Multispectral Image Data[J]. Photogrammetric Engineering & Remote Sensing, 1996, 62(9): 1057-1066.
[7]OTAZU X,GONZALEZ-AUDICANA M,FORS O, et al. Introduction of Sensor Spectral Response into Image Fusion Methods: Application to Wavelet-based Methods[J]. IEEE Transactions on Geoscience and Remote Sensing, 2005, 43(10): 2376-2385.
[8]El-MEZOUAR M C, KPALMA K, TALEB N, et al. A Pan-sharpening Based on the Non-subsampled Contourlet Transform: Application to Worldview-2 Imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1806-1815.
[9]AIAZZI B, ALPARONE L, BARONTI S, et al. Context-driven Fusion of High Spatial and Spectral Resolution Images Based on Oversampled Multiresolution Analysis[J]. IEEE Transactions on Geoscience and Remote Sensing, 2002, 40(10): 2300-2312.
[10]WANG Jian, XU Changhui, ZHANG Jixian, et al. An EMD-IHS Model for High Resolution Image Fusion[C]∥JU Weimin, ZHAO Shuhe. Remotely Sensed Data and Information. Nanjing: [s.n.], 2007, 6752: 675209.
[11]DONG Weihua, LI Xia’nen, LIN Xiangguo, et al. A Bidimensional Empirical Mode Decomposition Method for Fusion of Multispectral and Panchromatic Remote Sensing Images[J]. Remote Sensing, 2014, 6(9): 8446-8467.
[12]LI Shutao, YANG Bin. A New Pan-sharpening Method Using a Compressed Sensing Technique[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(2): 738-746.
[13]CHEN S S, DONOHO D L, SAUNDERS M A. Atomic Decomposition by Basis Pursuit[J]. SIAM Review, 2001, 43(1): 129-159.
[14]ZHU Xiaoxiang, BAMLER R. A Sparse Image Fusion Algorithm with Application to Pan-sharpening[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(5): 2827-2836.
[15]CHENG Ming, WANG Cheng, LI Jie, et al. Sparse Representation Based Pansharpening Using Trained Dictionary[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(1): 293-297.
[16]ZHANG Yun, HONG Gang. An IHS and Wavelet Integrated Approach to Improve Pan-sharpening Visual Quality of Natural Colour IKONOS and QuickBird Images[J]. Information Fusion, 2005, 6(3): 225-234.
[17]楚恒, 王汝言, 朱維樂. DCT域遙感影像融合算法[J]. 測繪學(xué)報(bào), 2008, 37(1): 70-76.
CHU Heng, WANG Ruyan, ZHU Weile. Remote Sensing Image Fusion Algorithm in the DCT Domain[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(1): 70-76.
[18]YANG Shuyuan, WANG Min, JIAO Licheng. Fusion of Multispectral and Panchromatic Images Based on Support Value Transform and Adaptive Principal Component Analysis[J]. Information Fusion, 2012, 13(3): 177-184.
[19]夏曉天, 王斌, 張立明. 基于推廣的IHS變換和壓縮傳感的遙感圖像融合[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2013, 25(9): 1399-1409.
XIA Xiaotian, WANG Bin, ZHANG Liming. Remote Sensing Image Fusion Based on Generalized IHS Transformation and Compressive Sensing[J]. Journal of Computer-Aided Design & Computer Graphics, 2013, 25(9): 1399-1409.
[20]吳連喜, 梁波, 劉曉梅, 等. 保持光譜信息的遙感圖像融合方法研究[J]. 測繪學(xué)報(bào), 2005, 34(2): 118-122, 128.
WU Lianxi, LIANG Bo, LIU Xiaomei, et al. A Spectral Preservation Fusion Technique for Remote Sensing Images[J]. Acta Geodaetica et Cartographica Sinica, 2005, 34(2): 118-122, 128.
[21]PADWICK C, DESKEVICH M, PACIFICI F, et al. World View-2 Pan-sharpening[C]∥Proceedings of the ASPRS 2010 Annual Conference. San Diego: [s.n.], 2010: 26-30.
[22]CANDES E J, ROMBERG J K, TAO T. Stable Signal Recovery from Incomplete and Inaccurate Measurements[J]. Communications on Pure and Applied Mathematics, 2005, 59(8): 1207-1233.
[23]DONOHO D L.For Most Large Underdetermined Systems of Equations, the Minimal-norm Near-solution Approximates the Sparest Near-solution[J]. Communications on Pure and Applied Mathematics, 2006, 59(7): 907-934.
[24]BRUCKSTEIN A M, ELAD M, ZIBULEVSKY M. On the Uniqueness of Nonnegative Sparse Solutions to Underdetermined Systems of Equations[J]. IEEE Transactions on Information Theory, 2008, 54(11): 4813-4820.
[25]DUARTE M F, SARVOTHAM S, BARON D, et al. Distributed Compressed Sensing of Jointly Sparse Signals[C]∥Proceeding of Conference Record of the 39th Asilomar Conference on Signals, Systems and Computers. Pacific Grove: IEEE, 2005.
[26]AHARON M, ELAD M, BRUCKSTEIN A. K-SVD: An Algorithm for Designing Overcomplete Dictionaries for Sparse Representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322.
[27]AIAZZI B, BARONTI S, SELVA M, et al. Bi-cubic Interpolation for Shift-free Pan-sharpening[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 86: 65-76.
[28]KHAN M M, CHANUSSOT J, CONDAT L, et al. Indusion: Fusion of Multispectral and Panchromatic Images Using the Induction Scaling Technique[J]. IEEE Geoscience and Remote Sensing Letters, 2008, 5(1): 98-102.
[29]ZHOU J, CIVCO D L, SILANDER J A. A Wavelet Transform Method to Merge Landsat TM and SPOT Panchromatic Data[J]. International Journal of Remote Sensing, 1998, 19(4): 743-757.
[30]KHAN M M, ALPARONE L, CHANUSSOT J. Pansharpening Quality Assessment Using the Modulation Transfer Functions of Instruments[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(11): 3880-3891.
[31]王慧賢, 江萬壽, 雷呈強(qiáng), 等. 光譜與空間局部相關(guān)的SVR影像融合方法[J]. 測繪學(xué)報(bào), 2013, 42(4): 508-515.
WANG Huixian, JIANG Wanshou, LEI Chengqiang, et al. A Robust SVR Image Fusion Method Based on Local Spectral and Spatial Correlation[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(4): 508-515.
[32]ALPARONE L, WALD L, CHANUSSOT J, et al. Comparison of Pansharpening Algorithms: Outcome of the 2006 GRS-S Data-fusion Contest[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(10): 3012-3021.
[33]ALPARONE L, BARONTI S, GARZELLI A, et al. A Global Quality Measurement of Pan-sharpened Multispectral Imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2004, 1(4): 313-317.
[34]劉婷, 程建. 小波變換和稀疏表示相結(jié)合的遙感圖像融合[J]. 中國圖象圖形學(xué)報(bào), 2013, 18(8): 1045-1053.
LIU Ting, CHENG Jian. Remote Sensing Image Fusion with Wavelet Transform and Sparse Representation[J]. Journal of Image and Graphics, 2013, 18(8): 1045-1053.
(責(zé)任編輯:叢樹平)
修回日期: 2015-12-16
First author: XU Ning(1982—), male, PhD candidate,majors in image registration, fusion and processing of hyperspectral imagery.
E-mail: x_ning@aliyun.com
A Pansharpening Method Based on HCT and Joint Sparse Model
XU Ning1,2,3,XIAO Xinyao1,2,3,YOU Hongjian1,2,CAO Yingui4
1. Key Laboratory of Technology in Geo-spatial Information Processing and Application System, IECAS, Beijing 100190, China; 2. Institute of Electronics, Chinese Academy of Sciences, Beijing 100190, China; 3.University of Chinese Academy of Sciences, Beijing 100049, China; 4. School of Land Science and Technology, China University of Geosciences, Beijing 100083, China
Abstract:A novel fusion method based on the hyperspherical color transformation (HCT) and joint sparsity model is proposed for decreasing the spectral distortion of fused image further. In the method, an intensity component and angles of each band of the multispectral image is obtained by HCT firstly, and then the intensity component is fused with the panchromatic image through wavelet transform and joint sparsity model. In the joint sparsity model, the redundant and complement information of the different images can be efficiently extracted and employed to yield the high quality results. Finally, the fused multi spectral image is obtained by inverse transforms of wavelet and HCT on the new lower frequency image and the angle components, respectively. Experimental results on Pleiades-1 and WorldView-2 satellites indicate that the proposed method achieves remarkable results.
Key words:image fusion; joint sparsity model; HCT; panchromatic image; multispectral image
第一作者簡介:許寧(1982—),男,博士生,研究方向?yàn)楣鈱W(xué)遙感影像配準(zhǔn)、融合以及高光譜圖像處理。
收稿日期:2015-07-14
基金項(xiàng)目:中國地質(zhì)調(diào)查局地質(zhì)調(diào)查(1212011120226);國家863計(jì)劃(2012AA12A308);中國科學(xué)院科技服務(wù)網(wǎng)絡(luò)計(jì)劃(KFJ-EW-STS-046)
中圖分類號:P237
文獻(xiàn)標(biāo)識碼:A
文章編號:1001-1595(2016)04-0434-08
Foundation support: The Geological Survey Program of China Geological Survey (No. 1212011120226); The National High-tech Research and Development Program of China (863 Program) (No. 2012AA12A308); The Science and Technology Services Network Program of Chinese Academy of Sciences (No. KFJ-EW-STS-046)
引文格式:許寧,肖新耀,尤紅建,等.HCT變換與聯(lián)合稀疏模型相結(jié)合的遙感影像融合[J].測繪學(xué)報(bào),2016,45(4):434-441. DOI:10.11947/j.AGCS.2016.20150372.
XU Ning,XIAO Xinyao,YOU Hongjian,et al.A Pansharpening Method Based on HCT and Joint Sparse Model[J]. Acta Geodaetica et Cartographica Sinica,2016,45(4):434-441. DOI:10.11947/j.AGCS.2016.20150372.