国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

改進的PCNN模型在多光譜與全色圖像融合中的應用研究

2014-03-05 18:27段先華操佳佳劉佳
現(xiàn)代電子技術 2014年3期
關鍵詞:圖像融合

段先華+操佳佳+劉佳

摘 要: 介紹了PCNN模型原理,提出了基于雙通道自適應的PCNN多光譜與全色圖像融合算法。該算法首先將RGB空間的多光譜圖像轉換為HSV彩色空間,然后將HSV彩色空間中的非彩色通道(V通道)的灰度像素值和全色圖像的像素灰度值分別作為PCNN?1及PCNN?2的神經(jīng)元輸入,利用方向性信息作為自適應鏈接強度系數(shù),對非彩色通道圖像和全色圖像進行自適應分解,再將點火時間序列送入判決因子得到新的非彩色通道圖像,最后將原多光譜圖像的H通道分量、S通道分量及新的V通道分量經(jīng)HSV空間逆變換獲得最終的融合圖像。實驗結果表明,該算法不僅解決了鏈接強度系數(shù)自動設置的問題,而且充分考慮到圖像邊緣和方向特征的影響,無論在主觀視覺效果,還是客觀評價標準上均優(yōu)于IHS、PCA、小波融合等其他圖像融合算法,同時降低了計算復雜度。

關鍵詞: 遙感圖像; 圖像融合; PCNN模型; HSV彩色空間

中圖分類號: TN911.73?34 文獻標識碼: A 文章編號: 1004?373X(2014)03?0055?06

Application research of modified PCNN model in multispectral

and panchromatic images fusion

DUAN Xian?hua, CAO Jia?jia, LIU Jia

(College of Computer Science and Engineering, Jiangsu University of Science and Technology, Zhenjiang 212003, China)

Abstract: The principle of PCNN model is introduced, and an image fusion algorithm of multispectral and panchromatic based on adaptive dual?channel PCNN is proposed. Firstly the multispectral image of RGB space is converted to HSV color space, and then the gray level of achromatic channel (channel V) in HSV color space and gray level of panchromatic images are entered as PCNN?1 and PCNN?2 neurons respectively, using orientation information as an adaptive link strength factor to achieve adaptive decomposition for achromatic channel and panchromatic images. The duration of ignition sequence is sent to judgment factor to get new of achromatic channel image. Finally the final fused image is obtained through HSV space inverse transformation of H channel component, S Channel component and new V?channel component of original multispectral image. Experimental results show that the algorithm not only solved the problem of automatically setting linking strength factor, but also took full account of the effect of image edge and directional characteristics. No matter the subjective visual effect, or objective evaluation standards they are all better than other image fusion algorithms such as IHS, PCA, wavelet transform image fusion, the computational complexity is reduced in the meantime.

Keywords: remote sensing image; image fusion; PCNN model; HSV color space

0 引 言

多光譜圖像具有較高的光譜分辨率和較低的空間分辨率,全色圖像的空間分辨率較高,但具有較低的光譜分辨率。在遙感應用領域,有時會要求圖像的空間分辨率和光譜分辨率都比較高,但由于技術條件的限制,很難提供這樣的數(shù)據(jù)。因此,為了獲得較高的空間分辨率同時保留多光譜圖像的光譜特性,將多光譜圖像和全色圖像進行融合成為了圖像融合領域的研究熱點。自 20 世紀研究者們開始對遙感圖像融合技術關注以來,針對多光譜與全色圖像融合提出了大量算法,大致可分為兩大類[1]:基于彩色空間分量替換的融合方法和基于多分辨率分析的融合方法?;诓噬臻g分量替換的融合一般是在圖像的像素灰度空間上進行融合,如 IHS[2]、Brovey[3]及 PCA變換法[4]等均屬于此類算法。而基于多分辨率分析的融合是先對待融合的多源圖像進行圖像變換,對變換后的系數(shù)進行重新組合,依據(jù)分解方式不同可分為基于金字塔變換的融合算法、基于小波變換的融合算法以及基于多尺度幾何變換的融合算法[5]。基于彩色空間分量替換和基于多分辨率分析的融合算法是通過特征點的融合增強來獲取關于目標或區(qū)域更完整的信息,多用于像素級的圖像融合。與像素級融合相比,決策級融合更完善,實時性最好[6]。決策級圖像融合是指對來自不同傳感器的多幅圖像信息進行邏輯或統(tǒng)計推理的過程。首先對獲取的多傳感器圖像進行處理,然后得出各自的決策,最后再根據(jù)一定的融合規(guī)則作出最優(yōu)的結論。目前,基于神經(jīng)網(wǎng)絡的決策級融合算法是研究的熱點。脈沖耦合神經(jīng)網(wǎng)絡(Pulse Coupled Neural Network,PCNN)作為單層模型的神經(jīng)網(wǎng)絡,不需要訓練過程即可實現(xiàn)模式識別、圖像分割及目標分類等,因此非常適合實時的圖像融合處理[7]。Wei Li等人提出了一種基于小波包分解與PCNN相結合的圖像融合方法[8],它將PCNN網(wǎng)絡的脈沖輸出量作為圖像融合的準則,但實驗結果表明該方法融合圖像后易出現(xiàn)邊緣移位的現(xiàn)象。武治國等人設計實現(xiàn)了一種基于自適應PCNN和小波變換的融合技術[9],該方法充分利用PCNN同步激發(fā)特性,使用小波系數(shù)圖的局部熵作為神經(jīng)元的自適應鏈接強度,取得了較好的融合結果。本文在綜合分析了 PCNN 原理的基礎上,結合一種直觀的顏色模型(HSV顏色模型),提出一種基于雙通道自適應的 PCNN 圖像融合算法。

1 PCNN模型及其改進

1.1 PCNN模型及其基本原理

PCNN是一種不同于傳統(tǒng)人工神經(jīng)網(wǎng)絡的新型神經(jīng)網(wǎng)絡,它是由若干個神經(jīng)元互相連接而成的反饋型網(wǎng)絡,構成PCNN神經(jīng)元是一個綜合的動態(tài)非線性系統(tǒng),它包括接受域、調(diào)制耦合器和脈沖產(chǎn)生器三部分,如圖1所示。同時PCNN模型具有神經(jīng)元捕獲特性,即某神經(jīng)元點火后,會引起亮度與該神經(jīng)元相近的鄰近神經(jīng)元捕獲點火,這是一種自動實現(xiàn)信息耦合和信息傳遞的過程。

在PCNN模型中,接受域包括反饋輸入和連接輸入域,分別接受來自其他神經(jīng)元的輸出[Yij]與外部激勵信號[Sij,]然后再經(jīng)漏電容積分及加權求和后形成反饋輸入信號[Fij]和連接輸入信號[Lij;]對于調(diào)制部分,將來自反饋域和連接域的信號按照非線性原理相乘調(diào)制,得到內(nèi)部活動信號[Uij,]而突觸間的連接強度系數(shù)[β]的取值決定了[Uij]的活躍程度;脈沖產(chǎn)生器將[Uij]與動態(tài)閾值[θij]相比較,若[Uij>θij,]脈沖發(fā)生器打開(稱該神經(jīng)元點火),輸出為1,通過反饋,[θij]在閾值發(fā)生器中迅速提高,當其值大于[Uij]時,脈沖發(fā)生器就關閉了,輸出為0,從而形成了脈沖信號。上述模型每個神經(jīng)元[Nij]的離散數(shù)學方程表達式如下:

[Fij(n)=e-αFF(n-1)+VFklMijklYkl(n-1)+Sij] (1)

[Lij(n)=e-αLLij(n-1)+VLklWijklYkl(n-1)] (2)

[Uij(n)=Fij(n)(1+βLij(n))] (3)

[θij(n)=e-αθθ(n-1)+VθYij(n-1)] (4)

[Yij(n)=1,Uij(n)θij(n)0,Uij(n)<θij(n)] (5)

其中:[(i,j)]為神經(jīng)元的標號;[k,l]表示與周圍神經(jīng)元連接的范圍;[Fij(n)]是神經(jīng)元在第[n]次迭代時的反饋輸入;[Sij]為外部輸入激勵,通常是點[(i,j)]的像素灰度值;[Lij(n)]是神經(jīng)元的線性連接輸入;[β]為突觸間的連接強度系數(shù);[Uij(n)]是神經(jīng)元的內(nèi)部活動項;[θij(n)]為變閾值函數(shù)輸出;[Yij(n)]則是第[n]次迭代時[(i,j)]神經(jīng)元的二值輸出;[Mijkl]和[Wijkl]是神經(jīng)元的突觸連接權系數(shù)矩陣;[αF,][αL,][αθ]為時間衰減常數(shù),[VF,][VL,][Vθ]為放大系數(shù);[n]表示迭代次數(shù)。

圖1 PCNN的神經(jīng)元模型

1.2 PCNN模型的改進

PCNN是一種多參數(shù)的神經(jīng)網(wǎng)絡,其應用效果的好壞在很大程度上取決于參數(shù)的設置,因此就存在最優(yōu)參數(shù)尋找的問題。近年來,對于連接系數(shù)、閾值放大系數(shù)及迭代次數(shù)等參數(shù)設置仍需通過反復實驗來逐步設定,明顯制約著PCNN應用的深度和廣度。目前,已有學者對PCNN參數(shù)自動設定問題進行了深入研究[10?13],主要集中在以下兩類:一類是在固定其他參數(shù)的情況下,只討論某單個參數(shù)的自動設定方法;另一類是簡化PCNN模型,在減少參數(shù)個數(shù)的情況下,討論其自動設定方法,這類是現(xiàn)階段研究的熱點。為了彌補PCNN在圖像處理中存在參數(shù)自適應差的缺點,對傳統(tǒng)模型進行簡化和改進。假設神經(jīng)元的反饋輸入[Fij]只接受外部刺激輸入信號[Sij,]則圖1的神經(jīng)元模型采用文獻[14]提出的簡化模型,如圖2所示。

因此,簡化的PCNN模型中式(1)用下式表示:

[Fij(n)=Sij] (6)

為減少計算量,提高計算效率,將PCNN每個神經(jīng)元輸出的閾值[θij(n)] 作為神經(jīng)元的輸出,則式(5)表示為:

[Yij(n)=θij(n),Uij(n)θij(n)0,Uij(n)<θij(n)] (7)

圖2 PCNN神經(jīng)元的簡化模型

1.3 自適應鏈接強度[β]的確定

鏈接強度[β]的大小直接關系到輸入源圖像在最終融合圖像中所占的權重,因此[β]的選取對PCNN模型的應用效果會產(chǎn)生較大的影響。PCNN中鏈接強度[β]應與圖像該像素處的特征信息有一定的關系,這種關系會隨著圖像特征變化的不同而自適應的調(diào)整。本文根據(jù)人眼視覺對方向特征和邊緣等信息更加敏感的特點以及圖像自身擁有的特征明顯和不明顯這兩類差異區(qū)域的基本特性,利用方向性信息作為自適應鏈接強度。

對于給定的一幅圖像[I],第[(i,j)]個像素表示為[I(i,j),]同時定義局部圖像的方向信息[15](Orientation Information)測量如下:

[O(I(i,j))=dθmax-dθmin] (8)

[dθmax=max0°θ180°(dθ)] (9)

[dθmin=min0°θ180°(dθ)] (10)

[dθ=fAL-fAR] (11)

[fAL=(i,j)∈ALI(i,j)] (12)

[fAR=(i,j)∈ARI(i,j)] (13)

式中:[AL]和[AR]分別代表給定的局域圖像的左右區(qū)域;[lθ]是通過像素[(i,j)]的線,具體說明如圖3所示。通過方向信息測量可以檢測出所有的像素并且計算出空域的方向角度,為了減少計算量和復雜性,在[5×5]滑動窗口中進行方向信息的測量。如果一個圖像塊是平滑的,沒有尖銳的邊緣和豐富的紋理,那么方向信息值就很小。所以,利用方向性信息作為自適應鏈接強度[β]的數(shù)值是合理的。

假設源圖像分別為[I1,][I2;][β1ij,][β2ij]分別是[I1,][I2]對應通道的鏈接強度系數(shù),則:

[β1ij=11+e-ηO(I(i,j))β2ij=11+eηO(I(i,j))] (14)

其中:[O(I(i,j))=O(I1(i,j))-O(I2(i,j))],[η>0]是一個常數(shù)調(diào)節(jié)因子,用來調(diào)節(jié)鏈接強度[βij]的數(shù)值。若[O(I1)>O(I2),]則圖像鄰域內(nèi)[I1]比[I2]的方向信息明顯,對應神經(jīng)元的鏈接強度[βij]就較大,則在最終融合圖像中所占的加權權重就越大。因此,根據(jù)圖像鄰域窗內(nèi)像素的方向信息變化情況來自適應地調(diào)整PCNN的鏈接強度,從而更符合人眼視覺對邊緣和方向特征等信息更加敏感特點,更加有利于提高圖像融合效果。

圖3 方向信息測量

2 HSV彩色空間傳遞

HSV(Hue、Saturation、Value)模型在1978年由Alvy Ray Smith創(chuàng)立,是對RGB色彩空間中點的關系的表示,它嘗試描述比RGB更準確的感知顏色聯(lián)系,并仍保持在計算上簡單。HSV 顏色模型是面向用戶的,對用戶來說是一種直觀的顏色模型,符合人眼對顏色的感覺。

2.1 RGB空間到HSV空間轉換

由于HSV是設備依賴的RGB的簡單變換,(H,S,V)三元組定義的顏色依賴于所使用的特定紅色、綠色和藍色。每個獨特的RGB設備都伴隨著一個獨特的HSV空間。RGB空間與HSV 空間的轉換關系如式(15)~式(17)所示。式中,(r,g,b)分別是一個顏色的紅、綠和藍分量,max等價于r,g和b中的最大者,min等于這些值中的最小者。

[h=0°if max=min60°×g-bmax-min+0°if max=r and gb60°×g-bmax-min+360°if max=r and g

[s=0if max=0max-minmaxotherwise] (16)

[v=max] (17)

2.2 HSV空間到RGB空間轉換

通過式(18)~式(23)把圖像從HSV空間轉換到RGB空間。

[hi=h60 mod 6] (18)

[f=h60-hi] (19)

[p=v×(1-s)] (20)

[q=v×(1-f×s)] (21)

[t=v×(1-(f×s)×s)] (22)

[(r,g,b)=(v,t,p)if hi=0(q,v,p)if hi=1(p,v,t)if hi=2(p,q,v)if hi=3(t,p,v)if hi=4(v,p,q)if hi=5] (23)

3 融合算法實現(xiàn)過程

圖4為基于雙通道自適應 PCNN 的多光譜與全色圖像融合算法的實現(xiàn)框圖,下面將對此框圖做詳細描述。

圖4 雙通道自適應PCNN圖像融合示意圖

3.1 彩色空間轉換

根據(jù) 2.1節(jié)內(nèi)容,利用HSV變換對配準后的多光譜圖像進行RGB?HSV彩色空間轉換,將其分解為H(色調(diào))、S(飽和度)、V(亮度)3個通道。

3.2 雙通道 PCNN 參數(shù)設置

選取彩色空間轉換后V通道的灰度像素值和全色圖像的像素灰度值分別作為PCNN?1及PCNN?2的神經(jīng)元輸入,每個神經(jīng)元與其3×3鄰域中的其他神經(jīng)元相連,并按式(14)計算連接系數(shù)[β。]然后將其與反饋輸入和連接輸入加權到內(nèi)部活動項,并積累到超出一個動態(tài)門限,從而產(chǎn)生一個輸出脈沖。每個神經(jīng)元的輸出只有兩種狀態(tài):點火或者不點火。PCNN模型的主要參數(shù)設置如下:平衡因子[σ=-0.1,]閾值衰減時間值[αE=0.5,]閾值放大系數(shù)[VE=220,][η]= 0.01,輸入的像素值為歸一化后的灰度值。

3.3 自適應融合處理

根據(jù)上述參數(shù)設置,將V通道圖像和全色圖像的像素值輸入雙通道PCNN,在PCNN分解結束后得到輸出點火時間圖[Y1ij、][Y2ij。]然后,將雙通道PCNN分解輸出的點火時間圖[Y1ij]和[Y2ij]輸入到判決因子中,根據(jù)神經(jīng)元點火時間情況判斷目標是在V通道圖像中[IA]還是在全色圖像中[IB,]即:

[F(i,j)=(r,g,b)=IA(i,j),Y1ij(i,j)>Y2ij(i,j)IB(i,j),Y1ij(i,j)

3.4 彩色空間逆變換

在進行彩色空間逆變換時,原多光譜圖像的彩色通道H和S保持不變,而非彩色通道V被判決因子輸出的灰度融合圖像[F(i,j)]所替代。

4 實驗結果分析

為了測試本文融合算法的有效性,用兩組IKONOS 衛(wèi)星圖像進行仿真實驗,采用IKNOS 1 m全色和4 m的多光譜數(shù)據(jù),采用最近鄰法進行重采樣,避免插值引起的光譜退化,像元分辨率為1 m,完成全色和多光譜數(shù)據(jù)空間上的配準。并與目前常用的IHS、PCA、小波融合(小波基是長度為13的Daubechies小波基,小波變換級數(shù)[n=3])以及鏈接強度取固定值(0.01,0.03)的方法進行融合結果比較,結果如圖5,圖6所示。

在融合效果的客觀評價中,從信息熵、空間頻率、相關系數(shù)、光譜扭曲度、偏差指數(shù)5方面進行比較。其中,信息熵和光譜扭曲度均取R、G、B三個波段的均值。表1,表2給出了上述各種融合算法所對應的客觀評價結果。

表1 第一幅IKONOS衛(wèi)星圖像下不同方法的融合性能評價

[融合方法\&信息熵\&空間頻率\&相關系數(shù)\&光譜扭曲度\&偏差指數(shù)\&IHS\&7.425 6\&27.263 0\&0.721 8\&29.430 1\&0.287 2\&PCA\&7.410 6\&26.681 4\&0.728 4\&27.000 1\&0.255 0\&小波方法\&7.613 5\&26.079 4\&0.769 3\&27.284 8\&0.266 6\&鏈接強度固定\&7.621 4\&29.073 4\&0.769 0\&27.310 3\&0.266 8\&自適應鏈接強度\&7.621 2\&29.069 5\&0.893 5\&17.379 0\&0.182 3\&]

表2 第二幅IKONOS衛(wèi)星圖像下不同方法的融合性能評價

[融合方法\&信息熵\&空間頻率\&相關系數(shù)\&光譜扭曲度\&偏差指數(shù)\&IHS\&7.626 4\&57.287 7\&0.627 0\&36.328 3\&0.695 44\&PCA\&6.934 7\&35.331 1\&0.623 2\&41.237 4\&0.493 41\&小波方法\&7.639 4\&56.519 9\&0.656 6\&33.483 4\&0.579 99\&鏈接強度

固定\&7.827 0\&64.980 5\&0.651 9\&41.036 1\&0.443 31\&自適應鏈接

強度\&7.673 3\&58.556 4\&0.815 1\&25.331 0\&0.440 49\&]

從實驗結果圖5,圖6及表1,表2可以看出,本文提出的融合方法除了在光譜能力保持方面略遜于小波融合方法,其他各項客觀評價上都明顯優(yōu)于其他算法。綜合視覺分析的主觀評價得出以下結論:

(1) 從信息熵來看,IHS 算法、PCA算法和小波融合算法(圖5(c)~(f)、圖6(c)~(f))在融合圖像信息的提取上沒有改進的PCNN模型算法對圖像信息的提取效果好,因為改進的PCNN模型算法是通過相似狀態(tài)神經(jīng)元同步激發(fā)特征來實現(xiàn)的,因此相比之下信息提取效果更優(yōu)。

(2) 從空間頻率來看,IHS 算法和 PCA 算法和小波融合算法由于沒有進行任何方向性的提取,其邊緣信息的保存量最低,空間活躍程度較?。欢倪M的自適應 PCNN 融合算法在處理圖像時,其輸出具有尺度和位移不變性,空間活躍程度較大,融合效果更優(yōu)。

(3) 從相關系數(shù)、光譜扭曲度、偏差指數(shù)來看,IHS 算法,PCA算法利用全色圖像直接替換第一主分量,與第一主分量圖像的相似程度小,往往不能得到很好的結果,小波圖像融合是通過特征點的融合來獲取目標或區(qū)域更完整的信息,光譜能力保持得較好,而改進的 PCNN模型算法由于將全色圖像與第一主分量進行了融合,相似程度提高了,融合圖像的光譜能力保持最好。

(4) 采用自適應鏈接強度的算法,除了信息熵和空間頻率略低于取固定值(0.01,0.03)鏈接強度的算法,其他指標包括相關系數(shù)、光譜扭曲度和偏差系數(shù)要明顯好于取固定值的鏈接強度。而且固定值是經(jīng)過反復試驗對比后確定的,通用性比較差。所以,根據(jù)圖像本身來自適應地取鏈接強度更具有通用性。

5 結 論

本文在綜合分析了PCNN原理的基礎上,結合一種直觀的顏色模型(HSV顏色模型),提出一種基于雙通道自適應的PCNN多光譜與全色圖像融合算法。該算法首先將RGB空間的多光譜圖像轉換為HSV彩色空間,然后通過簡化傳統(tǒng)的PCNN模型及利用方向性信息作為自適應鏈接強度系數(shù)對全色圖像和HSV彩色空間中的非彩色通道(V通道)圖像進行自適應分解,再將點火時間序列送入判決因子得到新的非彩色通道圖像,最后將原多光譜圖像的H通道分量、S通道分量及新的V通道分量經(jīng)HSV空間逆變換獲得最終的融合圖像。實驗結果表明,該算法不僅解決了傳統(tǒng)PCNN模型用于圖像處理時參數(shù)過多且無法自動設置的問題,而且充分考慮到像素間的相關性及噪聲突變影響,無論在主觀視覺效果,還是客觀評價標準上均優(yōu)于IHS、PCA等其他圖像融合算法,同時降低了計算復雜度。

參考文獻

[1] 周前祥,敬忠良,姜世忠.不同光譜與空間分辨率遙感圖像融合方法的理論研究[J].遙感技術應用,2003,18(1):41?46.

[2] CHIBANI Y, HOUACINE A. The joint use of IHS transform and redundant wavelet decomposition for fusing multispectral and panchromatic images [J]. International Journal of Remote Sensing, 2002, 23(18): 3821?3833.

[3] ZHANG Y. A new merging method and its spectral and spatial effects [J]. International Journal of Remote Sensing, 1999, 20(10): 2003?2014.

[4] JIA Y H. Fusion of Landsat TM and SAR images based on principal component analysis [J]. Remote Sensing Technology and Application, 1998, 13(1): 46?49.

[5] 焦李成,譚山.圖像的多尺度幾何分析:回顧和展望[J].電子學報,2003,31(12A):1975?1981.

[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡在圖像處理中的應用研究[D].蘭州:蘭州大學,2003.

[8] 武治國,王延杰,李桂菊.應用小波變換的自適應脈沖耦合神經(jīng)網(wǎng)絡在圖像融合中的應用[J].光學精密工程,2010,18(3):708?715.

[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計算機系統(tǒng),2005,26(4):667?670.

[10] 苗啟廣,王寶樹.基于局部對比度的自適應 PCNN 圖像融合[J].計算機學報,2008,31(5):875?880.

[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.

[12] 李敏,蔡騁,談正.基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學報,2008,13(2):284?290.

[13] 苗啟廣,王寶樹.一種自適應PCNN多聚焦圖像融合新算法[J].電子信息學報,2006,28(3):466?470.

[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.

[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.

[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡在圖像處理中的應用研究[D].蘭州:蘭州大學,2003.

[8] 武治國,王延杰,李桂菊.應用小波變換的自適應脈沖耦合神經(jīng)網(wǎng)絡在圖像融合中的應用[J].光學精密工程,2010,18(3):708?715.

[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計算機系統(tǒng),2005,26(4):667?670.

[10] 苗啟廣,王寶樹.基于局部對比度的自適應 PCNN 圖像融合[J].計算機學報,2008,31(5):875?880.

[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.

[12] 李敏,蔡騁,談正.基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學報,2008,13(2):284?290.

[13] 苗啟廣,王寶樹.一種自適應PCNN多聚焦圖像融合新算法[J].電子信息學報,2006,28(3):466?470.

[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.

[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.

[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡在圖像處理中的應用研究[D].蘭州:蘭州大學,2003.

[8] 武治國,王延杰,李桂菊.應用小波變換的自適應脈沖耦合神經(jīng)網(wǎng)絡在圖像融合中的應用[J].光學精密工程,2010,18(3):708?715.

[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計算機系統(tǒng),2005,26(4):667?670.

[10] 苗啟廣,王寶樹.基于局部對比度的自適應 PCNN 圖像融合[J].計算機學報,2008,31(5):875?880.

[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.

[12] 李敏,蔡騁,談正.基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學報,2008,13(2):284?290.

[13] 苗啟廣,王寶樹.一種自適應PCNN多聚焦圖像融合新算法[J].電子信息學報,2006,28(3):466?470.

[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.

[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.

猜你喜歡
圖像融合
基于區(qū)域匹配度的拉普拉斯金字塔圖像融合算法
PCA與小波變換的ECT圖像融合方法
灰色關聯(lián)度在紅外與微光圖像融合質量評價中的應用研究
林火安防預警與應急處理系統(tǒng)設計
基于Matlab的遙感圖像IHS小波融合算法的并行化設計
一種新的IHS圖像多次融合的方法
農(nóng)業(yè)物聯(lián)網(wǎng)雙光譜熱成像圖像融合模型設計
基于壓縮感知的圖像融合方法