樂人銘 丁旖 姬緯通
【摘 要】本文研究了基于小波變換與脈沖耦合神經(jīng)網(wǎng)絡(luò)相結(jié)合的圖像融合方法,以實(shí)現(xiàn)對(duì)圖像融合質(zhì)量的提高。論文的主要研究介紹基于區(qū)域點(diǎn)火特性的多聚焦圖像融合。包括基于區(qū)域點(diǎn)火特性的PCNN融合新算法和多尺度分解下的PCNN點(diǎn)火特性。
【關(guān)鍵詞】小波變換 圖像融合 脈沖耦合神經(jīng)網(wǎng)絡(luò)
一、基于區(qū)域點(diǎn)火特性的PCNN融合新算法
為了克服成像鏡頭的有限焦距引起的模糊現(xiàn)象,多聚焦圖像融合應(yīng)運(yùn)而生。PCNN是一種以哺乳動(dòng)物貓的視覺神經(jīng)細(xì)胞原理建立的神經(jīng)網(wǎng)絡(luò)模型,已被成功應(yīng)用于圖像處理中并初步應(yīng)用于圖像融合融合。
在小波變換域內(nèi)應(yīng)用PCNN模型,可以有效的提取原圖像的特征,其信號(hào)形式和處理機(jī)制也符合視覺神經(jīng)系統(tǒng)的生理學(xué)基礎(chǔ)。但是,如果僅僅以單個(gè)像素的點(diǎn)火次數(shù)作為系數(shù)選擇標(biāo)準(zhǔn),原圖像在過渡區(qū)域的信息提取就不夠充分,將降低融合圖像信息。為增強(qiáng)PCNN對(duì)有效信息的提取,我們提出以PCNN脈沖點(diǎn)火次數(shù)的區(qū)域特性為基礎(chǔ)的融合新算法。
定義點(diǎn)火區(qū)域強(qiáng)度(Regional Fire Intensity,RFI)為式中,為調(diào)節(jié)因子,用以權(quán)衡平均值和標(biāo)準(zhǔn)差在系數(shù)選擇中的重要性。
系數(shù)選取規(guī)則為
式中,,,表示ImageA、ImageB、ImageF的第i個(gè)小波系數(shù)矩陣(小波分解子圖)中(x,y)位置上的元素;、分別表示圖像A和圖像B經(jīng)過PCNN網(wǎng)絡(luò)后點(diǎn)火次數(shù)的強(qiáng)度區(qū)域。
如果圖像A對(duì)應(yīng)像素的區(qū)域強(qiáng)度大于圖像B,就選擇圖像A的小波系數(shù)作為融合圖像的小波系數(shù),反之選擇圖像B的小波系數(shù)作為融合圖像的小波系數(shù)。
可以看出,與直接以像素的點(diǎn)火次數(shù)為依據(jù)的意義相近,但由于充分考慮到點(diǎn)火次數(shù)具有的區(qū)域特性,可以有效的抑制系統(tǒng)噪聲。如果原圖像的某區(qū)域特性相近,點(diǎn)火次數(shù)的標(biāo)準(zhǔn)差較小,小波系數(shù)選取主要取決于區(qū)域均值的大小,此時(shí)系數(shù)選取方法基本與取最大值法一致。如果圖像某區(qū)域特性差異大,說明該區(qū)域處于邊緣或信息過渡區(qū),此時(shí)標(biāo)準(zhǔn)差較大,因此,新算法將使圖像的邊緣和過渡區(qū)域信息得以很好保留。
ImageA和ImageB代表兩幅原圖像A和B,ImageF代表融合后的圖像,具體步驟如下:
(1)對(duì)ImageA和ImageB進(jìn)行DWT分解,得到圖像的低頻和高頻系數(shù)。
(2)將低頻和高頻系數(shù)輸入PCNN中,利用PCNN網(wǎng)絡(luò)統(tǒng)計(jì)點(diǎn)火次數(shù)。
(3)對(duì)點(diǎn)火次數(shù)進(jìn)行區(qū)域強(qiáng)度(RFI)計(jì)算,并選擇強(qiáng)度大的小波系數(shù)。
(4)對(duì)以上得到的小波分解系數(shù),經(jīng)過小波逆變換重構(gòu)得融合圖像ImageF。
二、實(shí)驗(yàn)仿真及分析
評(píng)價(jià)指標(biāo)包括標(biāo)準(zhǔn)差(STD)平均梯度(AG)熵(EN)偏差(MAE)和互信息(MI)。
其中,標(biāo)準(zhǔn)差越大,灰度分布越分散,可含信息量越大;平均梯度越大,圖像微小細(xì)節(jié)及紋理反映越好;熵越大,圖像包含的信息量越大;互信息越大,融合圖像與原圖像關(guān)聯(lián)性越強(qiáng),包含了更多原圖像的信息;偏差越小,融合圖像與原圖像光譜差異越小,原圖像光譜特性保留越好。
表1表明,基于區(qū)域點(diǎn)火特性的PCNN融合新算法與基于DWT的其它融合算法相比,標(biāo)準(zhǔn)差、平均梯度、熵和互信息都明顯高于其他方法,偏差低于其他方法。
無論是仿真圖像還是評(píng)價(jià)指標(biāo)都可以看出,將PCNN應(yīng)用于圖像的小波域內(nèi),利用小波變換的多分辨力特性和PCNN從復(fù)雜背景下有效提取信息的特點(diǎn),同時(shí)充分利用PCNN點(diǎn)火次數(shù)中包含的圖像信息,可以很好地保留了原圖像的邊緣和紋理,與原圖像關(guān)聯(lián)性強(qiáng),提高融合圖像質(zhì)量。
表1 不同融合算法的指標(biāo)比較
1、最大值法;2、權(quán)重法;3、區(qū)域能量法。4、邊緣強(qiáng)度法;5、PCNN融合算法;6、本文算法
三、結(jié)論
PCNN是一種新型的神經(jīng)網(wǎng)絡(luò),其信號(hào)形式和處理機(jī)制更符合人類視覺神經(jīng)系統(tǒng)的生理學(xué)基礎(chǔ),近年來被廣泛應(yīng)用于圖像處理中,本文提出的基于DWT和PCNN的多聚焦圖像融合新算法,在充分保留了小波變換的多分辨率分解特性和PCNN全局耦合、能在復(fù)雜背景下有效提取圖像信息的特性基礎(chǔ)上,詳細(xì)分析了PCNN點(diǎn)火次數(shù)特性與圖像信息之間的關(guān)系,通過定義點(diǎn)火區(qū)域強(qiáng)度實(shí)現(xiàn)圖像特征的有效提取。與基于DWT的其他融合算法相比,標(biāo)準(zhǔn)差、平均梯度、熵和互信息都明顯高于其他方法,偏差低于其他方法。從圖像的主觀視覺效果來看,融合圖像邊緣和紋理清晰,很好地保留原圖像的光譜特性,有效提取了原圖像的圖像特性,多聚焦圖像的清晰區(qū)域得以幾乎完全保留,融合整體效果優(yōu)于其他方法。
【參考文獻(xiàn)】
[1]Kenneth.R.Castleman,朱志剛等譯.數(shù)字圖像處理[M].電子科學(xué)出版社,1998:1-25.
[2]Wilson.J.D,Trunk.G.V,Tracking filters for multiple-platform radar integration[M].NavalResearch Lab,1979.
[3]B.H Cantrell,A.Grindlay.Multiple site radar tracking system[M].IEEE International RadarConference,1980.
[4]夏明革,何友,唐小明,夏仕昌.圖像融合的發(fā)展現(xiàn)狀與展望[J].船舶電子工程,2002,