吳翠先++李秋鋒
摘要:針對(duì)傳統(tǒng)圖像融合保留源圖像信息和邊緣信息的不足,提出了一種基于輪廓波的改進(jìn)梯度圖像融合算法。首先源圖像經(jīng)輪廓波分解,得到低頻和高頻子帶系數(shù);其次,低頻采用改進(jìn)梯度、高頻采用SML的選取規(guī)則;最后輪廓波反變換得到融合圖像。實(shí)驗(yàn)表明,本文提出算法比小波方法、傳統(tǒng)輪廓波方法融合效果好。融合圖像的信息量大,邊緣信息豐富。
關(guān)鍵詞:圖像融合 輪廓波 改進(jìn)梯度
中圖分類(lèi)號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2014)10-0049-02
圖像融合綜合了來(lái)自同一場(chǎng)景多幅源圖像的信息,以達(dá)到更好的視覺(jué)效果和便于識(shí)別的目的,獲得比單一源圖像信息更全面,精確可靠的圖像[1]。小波變換具有良好的時(shí)頻分析特性、多分辨率、局域性和稀疏特性等。小波變換分解的方向有限,即水平、垂直和對(duì)角方向,能最優(yōu)的表示一維分段光滑信號(hào)點(diǎn)的奇異性,但在表示二維或更高維圖像信號(hào)點(diǎn)的奇異性時(shí)卻存在不足。2002年Do[2]等提出了Contourlet變換(CT),克服了小波變換在表示高維信號(hào)的缺點(diǎn),且具有良好的多分辨率、方向性、各向異性和局部分析的能力,能更好的捕獲圖像邊緣細(xì)節(jié)信息。
本文利用Contourlet變換的特性和處理圖像的優(yōu)勢(shì),針對(duì)傳統(tǒng)圖像融合在保留源圖像信息和邊緣特性的不足,提出了一種基于Contourlet變換的改進(jìn)梯度圖像融合算法。低頻采用八方向Sobel算子改進(jìn)梯度的選取規(guī)則,高頻采用SML的選取規(guī)則。通過(guò)實(shí)驗(yàn),證實(shí)了本文算法的有效性,融合圖像較好的保留了源圖像的信息和邊緣細(xì)節(jié)信息。
1 融合基本理論
1.1 Contourlet變換
Contourlet變換[3]由拉普拉斯金字塔(Laplacian Pyramid,LP)和方向?yàn)V波器組(Directional Filter Bank,DFB)組成,LP和DFB分別完成尺度分解和方向分解。Contourlet變換首先通過(guò)LP分解得到孤立的邊緣奇異點(diǎn),再使用DFB捕獲圖像同方向的奇異點(diǎn),并合成一個(gè)系數(shù)。
圖像經(jīng)LP變換分解得到一個(gè)低頻圖像和多個(gè)高頻帶通圖像,即多尺度分解。由LP分解得到的帶通圖像通過(guò)DFB分解,得到頻域內(nèi)多個(gè)不同方向的子帶圖像,即多方向分解。圖像經(jīng)多尺度分解,進(jìn)行級(jí)方向分解后,可以得到個(gè)方向子帶圖像。因此,Contourlet變換對(duì)圖像進(jìn)行級(jí)分解,可以得到個(gè)子帶圖像,其中對(duì)應(yīng)于下的方向尺度分解級(jí)數(shù)。
1.2 改進(jìn)的八方向Sobel算子梯度
改進(jìn)的Sobel八方向模板[4]能檢測(cè)0°,45°,90°,135°,180°,225°,270°,315°八個(gè)方向的邊緣梯度,可有效提取圖像邊緣細(xì)節(jié)信息,模板如圖1。通過(guò)Sobel算子八方向模板(i=1,2,…8),對(duì)圖像的每個(gè)像素點(diǎn)進(jìn)行鄰域卷積,提取圖像的邊緣成分,即(i=1,2,…8)。
則圖像像素點(diǎn)的梯度值為:
圖像的細(xì)節(jié)信息越豐富,則表現(xiàn)在頻域內(nèi)的分量越多,空間域內(nèi)鄰域像素的特征值變化越大,圖像的梯度值越大。因此,本文提出一種新的圖像鄰域內(nèi)改進(jìn)的梯度,如式(2)。圖像的邊緣細(xì)節(jié)越豐富,越能更好的反映圖像的邊緣信息。
2 融合規(guī)則
假定源圖像已經(jīng)過(guò)幾何配準(zhǔn)處理,融合步驟如下:
(1)源圖像A和B經(jīng)過(guò)CT分解,得到各自不同尺度和方向的子帶系數(shù)和,其中為CT分解的層數(shù),和表示A和B的低頻子帶系數(shù),和表示A和B的第()層第個(gè)方向的高頻子帶系數(shù);
(2)分解后的低頻和高頻使用不同的融合規(guī)則,得到融合的系數(shù),為融合后的低頻子帶系數(shù),為融合后圖像第()層第個(gè)方向的高頻子帶系數(shù);
(3)融合后的系數(shù)CT反變換,得到融合圖像。
2.1 低頻融合規(guī)則
低頻部分反映了圖像的主要能量和近似輪廓特性,目前常用低頻平均的方法選取系數(shù),沒(méi)有考慮到邊緣特性,影響圖像的融合質(zhì)量和視覺(jué)效果。本文采用一種新提出的八方向Sobel算子檢測(cè)的改進(jìn)梯度的方法,有效的提取圖像的邊緣特征信息。
本文采用3×3滑動(dòng)窗口求取鄰域內(nèi)改進(jìn)梯度和,通過(guò)比較大小選取低頻系數(shù),選取規(guī)則如下:
2.2 高頻融合規(guī)則
高頻部分主要反映圖像的邊緣和細(xì)節(jié)信息,人眼對(duì)此最為敏感。為了更好的保留高頻的邊緣和細(xì)節(jié)信息,本文采用改進(jìn)的拉普拉斯能量和(SML)的方法[5],選取高頻系數(shù)。
假設(shè)為圖像的灰度級(jí)像素點(diǎn)的系數(shù),改進(jìn)的拉普拉斯(ML)定義為:
其中表示系數(shù)間的可變間距,本文設(shè)為1。
M和N表示窗口大小為,和取值在窗口內(nèi)變化,文中采用窗口。
高頻系數(shù)選取規(guī)則如下:
其中和分別表示和的SML清晰度。
3 仿真實(shí)驗(yàn)
本文采用matlab2011作為仿真工具,選取多聚焦圖像融合驗(yàn)證本文算法,同小波變換(方法一)、基于CT的方法(方法二)和CT-SF-SML(方法三)的融合方法相比較。前兩種方法采用低頻平均、高頻取模值最大的融合規(guī)則。方法三低頻采用空間頻率(SF)、高頻采用SML的選取規(guī)則。方法一中小波基采用“db1”進(jìn)行一級(jí)分解。方法二、三和本文方法,CT尺度分解和方向分解濾波器分別采用“9-7”和“pavk”濾波器,分解層數(shù)均為4層。
客觀(guān)評(píng)價(jià)[6,7]采用均值、信息熵H、互信息MI和加權(quán)邊緣信息保留值QAB/F等指標(biāo),對(duì)上述四種方法進(jìn)行評(píng)價(jià)。表示圖像像素的灰度均值,反映圖像的平均亮度,均值適中,則視覺(jué)效果好。H表示圖像包含的信息量,其值越大,融合圖像的信息量越多。MI表示融合圖像保留源圖像的信息多少,其值越大融合效果越好。QAB/F表示源圖像的邊緣信息在融合圖像中的保留程度,其值越大,保留源圖像的邊緣信息越好。
多聚焦源圖像及融合結(jié)果如圖(2)~(7)所示。從視覺(jué)效果上看,本文方法比方法一、二圖像清晰,邊緣一致性好,細(xì)節(jié)突出,具有良好的融合結(jié)果,與方法三比較融合圖像基本一致。從客觀(guān)的評(píng)價(jià)指標(biāo)看,實(shí)驗(yàn)結(jié)果如表1,本文方法的四種指標(biāo)都高于其他三種方法,與視覺(jué)效果保持一致,表明本文的方法優(yōu)于其他三種方法。
4 結(jié)語(yǔ)
本文針對(duì)多聚焦圖像融合的特點(diǎn),提出了一種新的八方向Sobel算子改進(jìn)梯度的方法,該方法可有效的提出源圖像的邊緣和細(xì)節(jié)信息。通過(guò)仿真實(shí)驗(yàn),對(duì)本文提出的算法進(jìn)行主客觀(guān)的分析。無(wú)論從主觀(guān)視覺(jué),還是客觀(guān)指標(biāo)的評(píng)價(jià),本文算法優(yōu)于傳統(tǒng)常用的算法,取得了較好的效果。融合圖像保留更多的源圖像信息,邊緣一致性好,清晰度高。
參考文獻(xiàn)
[1]閆敬文.數(shù)字圖像處理(MATLAB版)[M].北京:國(guó)防工業(yè)出版社,2011:193-197.
[2]M.N.Do,M.Vetterli. Contourlets:a directional multiresolution image representation[C]. IEEEInternational Conference Image Processing,2002,1:357-360.
[3]M.N.Do,M.Vetterli.The contourlet transform:an efficient directional multiresolution imagerepresentation[J]. IEEE Transactions on Image Processing,2005,14(12):2091-2106.
[4]劉俊定,范新南,丁朋華,等.基于改進(jìn)Sobel算子的多儀表圖像邊緣檢測(cè)算法[J].科學(xué)技術(shù)與工程,2012,12(19):4691-4696.
[5]Huimin LU,Lifeng Zhang,Seiichi Serikawa. Maximum local energy : An effective approach for multisensor imamge fusion in beyond wavelet transform domain[J]. Computers and Mathematics with Applications,2012(64):996-1003.
[6]才溪.多尺度圖像融合理論與方法[M].北京:電子工業(yè)出版社,2014:21-26.
[7]郭雷,李暉暉,鮑永生.圖像融合[M].北京:電子工業(yè)出版社,2008:242-245.
數(shù)字技術(shù)與應(yīng)用2014年10期