劉凱,寇正
(解放軍理工大學(xué) 氣象學(xué)院,江蘇 南京211101)
氣象衛(wèi)星云圖可分為可見(jiàn)光云圖和紅外云圖,前者只能在晝間得到,圖像中灰度取決于地表或云頂?shù)姆瓷渎?;后者在晝間、夜間均可獲得,圖像灰度取決于地表或云頂?shù)臏囟?即亮溫)。可見(jiàn)光云圖和紅外云圖是兩種具有互補(bǔ)性的圖像,單獨(dú)使用其中一種都有不足之處。夜間和晨昏時(shí)段只有紅外信息沒(méi)有可見(jiàn)光信息,使得大霧等災(zāi)害性天氣的監(jiān)測(cè)比白天難度要大。這種情形隨著美國(guó)國(guó)防氣象衛(wèi)星(DMSP)的業(yè)務(wù)線掃描系統(tǒng)(OLS)的出現(xiàn)而得到改善,OLS傳感器可用于獲取夜間1/4月光和白天可見(jiàn)光云圖,以及晝夜紅外云圖。為了提高夜間云、霧的檢測(cè)和識(shí)別能力,考慮將微光云圖和紅外云圖進(jìn)行融合。美國(guó)海軍研究室(NRL)曾開(kāi)發(fā)了一種假彩色融合方法,能夠在融合后的圖像上比較容易地從色調(diào)上分辨出云和霧。假彩色融合法只是對(duì)微光云圖和紅外云圖融合進(jìn)行了初步的研究。近年來(lái),圖像融合技術(shù)特別是像素級(jí)圖像融合方法得到了迅速的發(fā)展,本文將多分辨率融合方法和多尺度幾何分析融合方法運(yùn)用到兩種云圖的融合中,并用客觀評(píng)價(jià)指標(biāo)對(duì)融合結(jié)果進(jìn)行質(zhì)量評(píng)價(jià),對(duì)微光云圖和紅外云圖的融合進(jìn)行了進(jìn)一步的研究和分析。
目前主流的圖像融合方法包括多分辨率分析融合方法和多尺度幾何分析融合方法。
金字塔變換融合法是最早出現(xiàn)的多分辨率分析圖像融合方法。1983年,BURT P J和 ADELSON E H[1]提出了拉普拉斯金字塔變換;1985年,BURT P J和ADELSON E H[2]將拉普拉斯金字塔變換運(yùn)用到圖像融合中,獲得了較好的融合結(jié)果;1989年TOET A[3]提出了低通比率金字塔變換融合方法;1992年BURT P J[4]提出了基于梯度金字塔的圖像融合算法。金字塔變換是一種冗余的圖像多分辨率分析方法,分解各層數(shù)據(jù)彼此相關(guān)。而且,除了梯度金字塔變換以外,其他的金字塔變換無(wú)方向性。
小波(Wavelet)變換融合法是另一類(lèi)多分辨率分析圖像融合方法。1995年,LI H等[5]和CHIPMAN L J等[6]首先分別將小波變換引入到圖像融合領(lǐng)域中。小波變換同金字塔變換的不同在于,小波變換具有方向性,而且可以是非冗余的。
上個(gè)世紀(jì)末, 以 RIDGELET[7]、CURVELET[8,9]、BANDLET[10]、CONTOURLET[11,12]、非 下 采 樣 CONTOURLET[13]為代表的多尺度幾何分析 (MGA)工具作為一種新的高維函數(shù)的最優(yōu)表示方法相繼應(yīng)運(yùn)而生。從2005年開(kāi)始,CHOI等、屈小波等、賈建等[14-16]相繼將MGA引入到圖像融合中。多尺度幾何分析融合法的基本思路同金字塔變換融合法和小波變換融合法相似,但其算法的計(jì)算復(fù)雜度較高。
本文采用平均互信息和Xydeas-Petrovic指標(biāo)來(lái)評(píng)價(jià)融合圖像的質(zhì)量。
源圖像A(或B)和融合圖像F之間的互信息(Mutual Information)定義如下:
平均互信息[17,18]的定義為:
平均互信息越大,說(shuō)明融合圖像從源圖像中提取的信息越多,融合的效果也越好。
QAB/F(m,n)的定義為:
QAB/F(m,n)的值域范圍為[0,1],值越大表示融合圖像保留了越多的源圖像邊緣信息,融合的效果越好。
進(jìn)行融合實(shí)驗(yàn)的兩組源圖像分別截取自美國(guó)國(guó)防氣象衛(wèi)星 (DMSP)2008年1月6日~7日的衛(wèi)星云圖,該衛(wèi)星云圖可從Internet上下載。微光云圖其成像被分成64個(gè)灰度級(jí),紅外云圖其成像被分成256個(gè)灰度級(jí)。融合前把微光云圖的灰度級(jí)也拉伸到256個(gè)灰度級(jí),大小均為 256×256。
分別用對(duì)比度金字塔(CON算法)、拉普拉斯金字塔(LAP算法)、離散小波變換(DWT算法)、非下采樣 Contourlet變換(NSCT 算法)、Bandlet變換(Bandlet算法)五 種方法對(duì)兩組實(shí)驗(yàn)云圖進(jìn)行融合,以上算法均采用低頻子帶系數(shù)取平均,高頻子帶系數(shù)模值取大的融合規(guī)則,分解級(jí)數(shù)均為4級(jí)。采用MI和QAB/F(m,n)指標(biāo)分別對(duì)五種方法的融合圖像進(jìn)行客觀評(píng)價(jià)。
圖1中,(a)、(b)為第一組微光和紅外源圖像,(c)~(g)分別為應(yīng)用五種算法后的融合結(jié)果。第二組微光和紅外源圖像和融合結(jié)果圖略。表1、表2分別給出了兩組融合實(shí)驗(yàn)的指標(biāo)比較數(shù)據(jù)。
由圖 1(c)~(g)可以看到,五種融合算法都取得了良好的視覺(jué)效果。如表1所示,從MI指標(biāo)看,NSCT算法最高,說(shuō)明NSCT算法使融合圖像從源圖像中提取的信息最多;LAP算法次之,Bandlet算法最低。從指標(biāo)QAB/F看,Bandlet算法最高,說(shuō)明融合圖像中保留了源圖像中的邊緣信息最多;NSCT算法次之,而CON算法最低。綜合兩種指標(biāo),對(duì)第一組源圖像,NSCT算法和LAP算法的性能較其他三種算法好。對(duì)第二組源圖像,如表2所示,從MI指標(biāo)看,LAP算法最高,NSCT算法次之,Bandlet算法最低。從指標(biāo)QAB/F看,也是LAP算法最高,NSCT算法次之,Bandlet算法最低。綜合兩種指標(biāo),對(duì)第二組源圖像,LAP算法和NSCT算法的性能較之其他三種算法融合效果好。綜合以上兩組圖像融合實(shí)驗(yàn)的結(jié)果,從MI和QAB/F看,LAP融合算法和NSCT融合算法的性能要優(yōu)于其他三種算法,由于NSCT算法的計(jì)算復(fù)雜度較高,耗時(shí)較LAP算法多,而且圖像越大耗時(shí)越多,因此NSCT融合算法目前并不適合于實(shí)時(shí)處理,相對(duì)來(lái)說(shuō),LAP算法速度較快,適合于實(shí)時(shí)處理。
表1 微光云圖1、紅外云圖1的各種融合算法的性能比較
表2 微光云圖2、紅外云圖2的各種融合算法的性能比較
本文將多分辨率分析融合方法和多尺度幾何分析融合方法運(yùn)用到DMSP氣象衛(wèi)星夜間微光云圖和紅外云圖的融合中,從 MI和QAB/F指標(biāo)看,拉普拉斯金字塔融合算法和非下采樣Contourlet融合算法的融合效果較其他方法優(yōu)越。由于融合圖像的視覺(jué)效果比任一幅源圖像要好,因此,在融合圖像基礎(chǔ)上便于進(jìn)行云類(lèi)的識(shí)別和目標(biāo)的檢測(cè)等進(jìn)一步的工作,這也是后續(xù)要開(kāi)展的研究工作。
[1]BURT P J,ADELSON E H.The laplacian pyramid as a compact image code[J].IEEE Transactions on Communications,1983,31(4):532-540.
[2]BURT P J,ADELSON E H.Merging images through pattern decomposition[C].Proceedings of SPIE on Application of Digital Image ProcessingⅧ,1985,575(3):173-181.
[3]TOET A.Image fusion by a ratio of low-pass pyramid[J].Patten Recognition Letters,1989,9(4):245-253.
[4]BURT P J.A gradient pyramid basis for pattern selective image fusion[J].Processings of the Society for Information Display Conference.San Jose:SID Press,1992:467-470.
[5]LI H,MANJUNATH B S,MITRA S K.Multisensor image fusion using the wavelet transform[J].Graphical Models and Image Processing,1995,27(3):235-244.
[6]CHIPMAN L J,ORR T M.Wavelets and images fusion[C].Proceedings of IEEE International Conference on Image Processing,Washington D.C.,1995:248-251.
[7]RIDGELETS E J C.Ridgelets:theory and applications[D].Ph.D.Thesis,Stanford University,USA,1998.
[8]CANDèS E J,DONOHO D L.Curvelets—a surprisingly effective nonadaptive representation for objects with edges.COHEN A,C.Rabut,L L SCHUMAKER(Eds.).Curves and surface fitting[M].Saint-Malo 1999,Vanderbilt University Press,Nashville,TN,1999.
[9]STARCK J L,CANDèS E J,DONOHO D L.The curvelet transform for image denoising[J].IEEE Transactions on Image Processing,2002,11(6):670-684.
[10]CANDèS E J,DEMANET L,DONOHO D L,et al.Fast discrete curvelet transforms[J].Multiscale Modeling&Simulation,2005,5(3):861-899.
[11]DO M N,VETTERLI M.Contourlets.G.V.Welland(Eds.),beyond wavelets[M].Academic Press,New York,2003.
[12]DO M N,VETTERLI M.The contourlet transform:an efficient directional multi-resolution image representation[J].IEEE Transactions on Image Processing,2005,14(12):2091-2106.
[13]CUNHA A L D,ZHOU J,DO M N.The nonsubsampled contourlet transform:Theory,design,and applications[J].IEEE Transactions on Image Processing,2006,15(10):3089-3101.
[14]CHOI M,KIM R Y,NAM M R,et al.Fusion of multispectral and panchromatic satellite images using the curvelet transform[J].IEEE Geoscience and Reomte Sensing Letters,2005,2(2):136-140.
[15]QU Xiao Bo,YAN Jing Wen,XIE Guo Fu,et al.A novel image fusion algorithm based on bandelet transform[J].Chinese Optics Letters,2007,5(10):569-572.
[16]賈建,焦李成,孫強(qiáng).基于非下采樣Contourlet變換的多傳感器圖像融合[J].電子學(xué)報(bào),2007,35(10):1934-1938.
[17]QU G,ZHANG D,YAN P.Medical image fusion by wavelet transform modulus maxima[J].Opt.Express,2001,9(4):184-190.
[18]QU G,ZHANG D,YAN P.Information measure for performance of image fusion[J].Electronics Letters,2002,38(7):313-315.
[19]XYDEAS C S,PETROVIC V.Objective image fusion performance measure[J].Electronics Letters,2000,36(4):308-309.