(電子科技大學(xué)電子工程學(xué)院,四川成都611731)
穿墻雷達(dá)成像技術(shù)由于其能夠檢測識別建筑物內(nèi)目標(biāo),一直是熱門的研究領(lǐng)域[1]。在實(shí)際應(yīng)用中,穿墻雷達(dá)成像技術(shù)分成兩個領(lǐng)域,即穿墻目標(biāo)檢測與識別[2-3]和建筑布局成像技術(shù)[4-6]。
建筑布局成像技術(shù)在實(shí)際應(yīng)用中有諸多好處,近年來逐漸引起國內(nèi)外學(xué)者的研究興趣。第一,建筑布局成像在穿墻目標(biāo)成像中能夠?yàn)槟繕?biāo)的相對位置提供正確的參照物;第二,建筑布局成像能夠?yàn)槎鄰教摷倌繕?biāo)的提取和抑制提供可能性,并且可依此估算出成像目標(biāo)位置和實(shí)際目標(biāo)位置的相對偏移;第三,建筑布局成像結(jié)果中的目標(biāo)和孤立墻體的相對位置對孤立墻體的強(qiáng)度補(bǔ)償具有重要作用;最后,建筑布局成像為人員進(jìn)入建筑物內(nèi)部提供合適的方向和路徑。
由于在不同視角下對同一場景進(jìn)行成像,豐富了場景圖像信息,因此目前一般采用對多幅單視角圖像進(jìn)行融合,從而形成一幅信息更豐富、對比度更高、信噪比更大的全景圖像?,F(xiàn)今采用的圖像融合方法一般是針對不同模式下的兩幅圖像,如光學(xué)圖像和紅外圖像、SAR圖像和光學(xué)圖像、SAR圖像和全色圖像[7-9]。但對兩幅相同模式下的圖像融合卻少有研究,而穿墻雷達(dá)多通道多視角的圖像融合就屬于此類。另外,由于透視探測場景成像中室內(nèi)和雜波的散射特征不同于其他機(jī)制的雷達(dá)圖像,因此一些基于雜波統(tǒng)計特征的圖像融合方法不適用于此[10]。
目前,穿墻雷達(dá)圖像融合技術(shù)主要圍繞單尺度域下進(jìn)行[11-15],但圖像不同層次的細(xì)節(jié)和邊緣信息卻是反映在圖像的不同尺度上,單一尺度的圖像融合技術(shù)并不能完全體現(xiàn)和重建圖像信息。對此本文提出一種基于小波變換的多通道多視角圖像融合算法。由于小波變換將圖像變換到不同的尺度域上,比一般的非尺度變換能提供更多的細(xì)節(jié)特征,因此在圖像處理領(lǐng)域有廣泛的應(yīng)用[15-19]。本文提出的算法分為兩個階段,第一階段為多通道融合形成單視角圖像,具體是對小波變換后的高頻分量采用平均梯度增強(qiáng)的加權(quán)融合算法,低頻分量采用平均加權(quán)融合,后經(jīng)小波反變換形成單視角圖像;第二階段為多視角圖像融合形成全景圖像,具體是對多幅單視角圖像進(jìn)行小波變換后的高頻分量采用對比度增強(qiáng)的加權(quán)融合算法,低頻分量仍采用平均加權(quán)融合。最后,將融合后的低頻和高頻圖像用小波反變換便得到一幅完整的全景圖像。
系統(tǒng)平行墻體放置,置于x-y平面。成像區(qū)域可以被理解成M×N數(shù)據(jù)平面(m=1,2,3,…,M和n=1,2,3,…,N)。
條帶SAR建筑布局成像的探測模式可作如下描述:如圖1所示,以正側(cè)視為例,在視角K(K=1,2,3,4)下,雷達(dá)平行墻體進(jìn)行孔徑合成探測,并以固定的波束指向發(fā)射脈沖重復(fù)頻率為fPRF的脈沖串信號,接收機(jī)在此時間內(nèi)接收建筑布局的回波信號,并完成接收信號在I/Q解調(diào)和數(shù)字化(A/D)處理,為處理機(jī)提供原始數(shù)據(jù)。
圖1 條帶SAR建筑布局成像回波模型
假設(shè)在視角1下進(jìn)行合成孔徑探測,s(τ)為雷達(dá)寬帶傳輸信號,那么成像區(qū)域位于位置(m,n)的像素值可以用信號的傳播時延來表示。在x-y數(shù)據(jù)平面上位于坐標(biāo)(m,n)的目標(biāo)值ζmn(t)在雷達(dá)坐標(biāo)(p,q)可以表示成:
式中,ξ(p,q)為窗函數(shù)(通常是漢明窗),用來抑制旁瓣;(p,q)為時域時延補(bǔ)償。回波信號?(t)是發(fā)射信號的時延,即s′mn(t)=s(t-τmn(p,q))。令(t)=s(-t)表示與發(fā)射信號匹配的濾波器,那么f mn可表示為
其中的時延補(bǔ)償(p,q)在已知墻體參數(shù)的情況下,可以用固定時延算法、最短距離算法或速度補(bǔ)償算法估計[20],此便是BP成像算法的思想。經(jīng)過上述處理,可以得出區(qū)域的成像:
如此得到的F1便是在視角1條帶SAR探測得到的原始圖像矩陣。同樣可以得到其余視角探測下得到原始圖像矩陣F2,F3和F4。
本階段涉及兩階段小波融合算法。第一階段,即單視角下的多通道圖像融合,對各個單通道圖像進(jìn)行小波分解,低頻近似分量采用平均加權(quán)融合,高頻細(xì)節(jié)分量采用基于平均梯度增強(qiáng)的加權(quán)融合算法,如此再經(jīng)小波反變換后便得到各個單視角下的融合子圖像;第二階段,即多視角圖像融合過程,對各個單視角子圖像進(jìn)行小波分解,低頻近似分量仍采用平均加權(quán)融合,高頻細(xì)節(jié)分量采用基于對比度增強(qiáng)的加權(quán)融合算法,最終經(jīng)小波反變換得到一幅全景圖像。
平均梯度可敏感地反映圖像對細(xì)節(jié)反差表達(dá)的能力,用來評價圖像的模糊程度。一般來說,平均梯度越大,圖像層次越多,表示圖像越清晰。在單視角圖像中,各個通道的圖像只能部分反映該視角下的成像結(jié)果,且由于孔徑限制,成像結(jié)果的分辨率不甚理想。因此在單視角多通道圖像小波融合過程中,融合權(quán)重可基于平均梯度增強(qiáng)選取。對于任意兩幅單通道建筑布局圖像,基于平均梯度增強(qiáng)的小波變換法的圖像融合處理流程如圖2所示。
圖2 基于平均梯度增強(qiáng)的小波變換融合處理流程圖
此階段下融合規(guī)則表示為
式中,ΔI x和ΔI y分別為x和y方向上的差分,M和N分別為圖像矩陣的行數(shù)和列數(shù)。標(biāo)準(zhǔn)差反映了圖像灰度相對于灰度平均值的離散情況,用來評價圖像方差的大小。若標(biāo)準(zhǔn)差大,則圖像灰度級分布分散,圖像的反差大;否則圖像反差小,對比度不大,色調(diào)單一均勻,看不出太多的信息。在第二階段中,針對多通道圖像融合形成的多幅單視角建筑布局圖像,多幅圖像中不同方向高頻分量對比度不同,對比度能夠近似反映目標(biāo)墻體圖像的邊緣信息,提出基于對比度增強(qiáng)的小波變換融合算法,通過對小波變換后的高頻圖像采用基于對比度增強(qiáng)的加權(quán)融合,低頻圖像采用平均分量加權(quán)融合。克服了空域融合算法所帶來的墻體展寬、邊緣毛刺等缺陷,實(shí)現(xiàn)了多幅單視角圖像目標(biāo)墻體細(xì)節(jié)信息的“有效”融合,最終形成較高復(fù)原度、整齊的建筑布局全景圖像。
對于任意兩幅單視角建筑布局圖像,基于對比度增強(qiáng)的小波變換圖像融合處理流程如圖3所示。
圖3 基于對比度增強(qiáng)的小波變換圖像融合處理流程
此階段下的融合規(guī)則為
式中,N代表視角數(shù)目;A f,H f,V f,D f分別代表最終融合圖像經(jīng)小波分解后的低頻近似分量、水平高頻分量、垂直高頻分量和斜45°角高頻分量;分別代表相應(yīng)分量下的權(quán)重,權(quán)重選取規(guī)則如下:
式中,ˉI表示圖像矩陣I均值,M和N分別表示圖像矩陣的行數(shù)和列數(shù)。
最后,將融合后的低頻分量和各個高頻分量經(jīng)小波反變換后便得到一幅全景圖像。由于在算法中分別用到了基于平均梯度增強(qiáng)和對比度增強(qiáng)的融合規(guī)則,最終圖像中的細(xì)節(jié)信息和清晰度將得到提升。如此基于多尺度域的SAR圖像融合方法能在圖像的不同尺度域上利用相應(yīng)的細(xì)節(jié)和邊緣信息進(jìn)行融合和去噪,理論上顯然比單尺度的融合效果要優(yōu)越。
仿真場景設(shè)置如圖4所示,采用一發(fā)兩收偶極子天線分別沿四個與墻體垂直且相互垂直的視角進(jìn)行合成孔徑探測,收發(fā)天線間距0.15 m,移動間隔0.2 m,在視角1和視角3合成孔徑長度為5 m的均勻線陣列,在視角2和視角4合成孔徑長度為6 m的均勻線陣列。均勻介質(zhì)墻體厚度為0.2 m,介電常數(shù)為4.5。
圖4 建筑布局成像實(shí)驗(yàn)設(shè)置
針對每個視角下兩個接收通道合成孔徑回波,經(jīng)過后向投影(BP)成像算法和基于平均梯度增強(qiáng)的小波變換圖像融合后,處理結(jié)果如圖5~8所示。
上述仿真結(jié)果顯示,在單視角多通道建筑布局圖像的小波融合過程中,基于平均梯度選取高頻圖像的融合權(quán)重,實(shí)現(xiàn)不同細(xì)節(jié)信息的互補(bǔ),凸現(xiàn)了墻體圖像完整的細(xì)節(jié)信息。仿真結(jié)果顯示基于平均梯度增強(qiáng)的小波變換融合結(jié)果的圖像層次分明,清晰度高。
針對多通道圖像融合形成的四幅單視角建筑布局圖像,通過基于對比度增強(qiáng)的小波變換圖像融合算法處理,融合后的圖像如圖9所示。
圖5 視角1
圖6 視角2
圖7 視角3
圖8 視角4
采用自動門限閾值分割方法(OSTU)[21]獲取門限值,二值化后的圖像如圖10所示。
圖9 小波變換融合最終結(jié)果
(a)小波變換融合圖像的二值化結(jié)果(XFDTD)
圖10 建筑布局成像
由圖10可以看出,與文獻(xiàn)[20]提出的MNK檢測器融合算法結(jié)果比較,本文提出的基于多尺度幾何分析SAR圖像融合算法在改善圖像邊緣“毛刺”,保證墻體厚度,恢復(fù)內(nèi)層墻體強(qiáng)度等方面有較大優(yōu)勢,更接近理想效果圖。
為量化說明算法的優(yōu)越性,這里給出建筑布局圖像復(fù)原度(DOR,degree of reducibility)的定義:
式中,M,N分別表示圖像方位向和距離向的像素點(diǎn)數(shù)目;fb(x m,y n)表示形成的墻體圖像經(jīng)過二值化后的圖像;Rb(x m,y n)表示真實(shí)墻體的理想分布圖像。經(jīng)計算,基于小波變換的多通道多視角圖像融合算法處理后的圖像復(fù)原度達(dá)到了78%,而MNK檢測器融合算法處理結(jié)果的圖像復(fù)原度只有67%。
本次實(shí)驗(yàn)基于建筑環(huán)境中實(shí)測數(shù)據(jù),場景設(shè)置如圖11所示。
圖11 實(shí)測場景
實(shí)驗(yàn)采用三視角多通道成像,視角分別是A側(cè)視角、B側(cè)視角和C側(cè)視角,通道分別是A1、A22,B1、B19和C1、C23,天線擺放位置類似于圖4,這里不再贅述。需要特別指出的是,在對B視角成像過程中,由于墻體D回波較弱,采用分塊成像的方法。對第一階段的單視角多通道圖像融合采用本文提出的基于平均梯度增強(qiáng)的小波融合算法,對第二階段的多視角圖像融合采用基于對比度增強(qiáng)的小波融合算法,成像結(jié)果如圖12~14所示。
圖12 視角1
圖14 視角3
針對基于平均梯度增強(qiáng)的小波融合形成的三幅單視角建筑布局圖像,通過基于對比度增強(qiáng)的小波變換圖像融合算法,融合后的圖像如圖15所示。
同樣,采用自動門限閾值分割方法(OSTU)[22]獲取門限值,二值化后的圖像如圖16所示。
同樣根據(jù)本文提出的圖像復(fù)原度的定義,得到經(jīng)實(shí)測數(shù)據(jù)處理后圖像復(fù)原度達(dá)到71%。
以上所示的仿真和實(shí)測數(shù)據(jù)處理結(jié)果顯示,基于小波變換圖像融合算法能夠在不同尺度上完成對多幅圖像的較好融合,實(shí)現(xiàn)了墻體邊緣等細(xì)節(jié)信息的“有效”融合,保證了目標(biāo)墻體區(qū)域與非目標(biāo)雜波區(qū)域的界限的清晰度,形成較高復(fù)原度、整齊的建筑布局全景圖像。
本文提出基于多尺度幾何分析SAR圖像融合算法,并將其用于穿墻建筑布局場景成像中。該算法較一般的融合算法在處理融合圖像交匯墻體強(qiáng)度過強(qiáng)、內(nèi)層墻體恢復(fù)、均方差降低和信噪比提高等方面有較大優(yōu)勢。該算法分成兩個階段,即多通道圖像融合和多視角圖像融合。在第一階段各個單視角下的多通道圖像融合過程中,為銳化融合圖像的邊緣信息,采用基于平均梯度增強(qiáng)的小波融合算法。在第二階段多視角圖像融合過程中,為提高融合圖像的對比度,并改善圖像的細(xì)節(jié)信息,采用基于標(biāo)準(zhǔn)差選大的小波融合算法。相比其他融合算法,如文獻(xiàn)[21]提出的MNK檢測器融合算法等只在圖像的單尺度域上進(jìn)行處理,這樣必然喪失了很多不同尺度域下的細(xì)節(jié)信息。而采用本文提出的基于多尺度幾何分析的SAR圖像融合方法能利用圖像在不同尺度域上的細(xì)節(jié)和邊緣信息進(jìn)行融合和去噪,仿真和實(shí)測數(shù)據(jù)處理結(jié)果驗(yàn)證了經(jīng)該算法處理后的圖像細(xì)節(jié)信息和清晰度能夠得到較大提升。
圖15 小波變換融合最終結(jié)果
圖16 二值化的圖像結(jié)果
[1]CHEN V C,SMITH G E,WOODBRIDGE K,et al.Through-the-Wall Radar Imaging[M].Pennsylvania,USA:CRC Press,2010.
[2]SMITH G E,MOBASSERI B G.Robust Throughthe-Wall Radar Image Classification Using a Target-Model Alignment Procedure[J].IEEE Trans on Image Processing,2012,21(2):754-767.
[3]DEBES C,ZOUBIR A M,AMIN M G.Enhanced Detection Using Target Polarization Signatures in Through-the-Wall Radar Imaging[J].IEEE Trans on Geoscience and Remote Sensing,2012,50(5):1968-1979.
[4]LAGUNAS E,AMIN M G,AHMAD F,et al.Sparsity-Based Radar Imaging of Building Structures[C]∥2012 Proceedings of the 20th European Signal Processing Conference(EUSIPCO),Bucharest:IEEE,2012:864-868.
[5]LAGUNAS E,AMIN M G,AHMAD F,et al.Determining Building Interior Structures Using Compressive Sensing[J].Journal of Electronic Imaging,2013,22(2):021003.
[6]AFTANAS M,DRUTAROVSKyM.Imaging of the Building Contours with Through the Wall UWB Radar System[J].Radioengineering,2009,18(3):258-264.
[7]LANARI R,TESAURO M,SANSOSTI E,et al.Spotlight SAR Data Focusing Based on a Two-Step Processing Approach[J].IEEE Trans on Geoscience and Remote Sensing,2001,39(9):1993-2004.
[8]FARINA A,MORABITO F C,SERPICO S,et al.Fusion of Radar Images:State of Art and Perspective[C]∥2001 CIE International Conference on Radar,Beijing,China:[s.n.],2001:9-15.
[9]GOUINAUD C.SAR Image Fusion in Multi Sensor Context for Small Urban Area Detection[C∥IEEE International Geoscience and Remote Sensing Symposium,Boston,MA:IEEE,2008:Ⅲ-988-Ⅲ-991.
[10]PAPSON S,NARAYANAN R M.Multiple Location SAR/ISAR Image Fusion for Enhanced Characterization of Targets[C]∥Proceedings of the SPIE,Orlando,FL,USA:[s.n.],2005:128-139.
[11]SENG C H,BOUZERDOUM A,PHUNG S L,et al.A Two-Stage Image Fusion Method for Enhanced Through-the-Wall Radar Target Detection[C]∥2011 IEEE Radar Conference(RADAR),Kansas,MO:IEEE,2011:643-647.
[12]ROVNAKOVA J,KOCUR D.Data Fusion from UWB Radar Network:Preliminary Experimental Results[C]∥2011 21st International Conference Radioelektronika,Brno:IEEE,2011:1-4.
[13]HU H,LIN X,LI Z.Reconstruction of Panoramic Image Through Fusion of Sequential Lateral Multi-Lens Logging Images[C]∥2012 International Conference on Information and Automation(ICIA),Shenyang:IEEE,2012:334-337.
[14]SENG C H,BOUZERDOUM A,AMIN M G,et al.Two-Stage Fuzzy Fusion with Applications to Through-the-Wall Radar Imaging[J].IEEE Geoscience and Remote Sensing Letters,2013,10(4):687-691.
[15]潘湘岳,宋建社,吳建新.基于數(shù)據(jù)融合的SAR圖像斑點(diǎn)噪聲抑制[J].雷達(dá)科學(xué)與技術(shù),2007,5(6):443-446.PAN Xiang-yue,SONG Jian-she,WU Jian-xin.An Improved Speckle Reduction Algorithm of SAR Image Based on Data Fusion[J].Radar Science and Technology,2007,5(6):443-446.(in Chinese)
[16]LIU Guixi,CHEN Wenjin,LING Wenjie.An Image Fusion Method Based on Directional Contrast and Area-Based Standard Deviation[J].Journal of Scientific Instrument,2005,26(6):628-631.
[17]CHIBANI Y.Multisource Image Fusion by Using the Redundant Wavelet Decomposition[C]∥2003 IEEE International Geoscience and Remote Sensing Symposium,[S.l.]:IEEE,2003:1383-1385.
[18]KHANDELWAL P,SINGH K K,SINGH B K,et al.Unsupervised Change Detection of Multispectral Images Using Wavelet Fusion and Kohonen Clustering Network[J].International Journal of Engineering and Technology,2013,5(2):1401-1406.
[19]RUBIO-GUIVERNAU J L,GURCHENKOV V,LUENGO-OROZ M A,et al.Wavelet-Based Image Fusion in Multi-View Three-Dimensional Microscopy[J].Bioinformatics,2012,28(2):238-245.
[20]崔國龍.超寬帶雷達(dá)合成孔徑成像算法研究與實(shí)現(xiàn)[D].成都:電子科技大學(xué),2008.
[21]賈勇,孔令講,馬靜,等.穿墻雷達(dá)多視角建筑布局成像[J].電子與信息學(xué)報,2013,35(5):1114-1119.
[22]FENG B,WANG Z,SUN J.Image Threshold Segmentation with Ostu Based on Quantum-Behaved Particle Swarm Algorithm[J].Computer Engineering and Design,2008,29(13):3429-3434.