摘 要:
針對(duì)T/R-R(transmitting receiving-receiving)構(gòu)型雷達(dá)成像實(shí)際,結(jié)合空間目標(biāo)的軌道先驗(yàn)和雙基地逆合成孔徑雷達(dá)(inverse synthetic aperture radar, ISAR)成像的體制優(yōu)勢(shì),提出了一種基于復(fù)貝葉斯壓縮感知(Bayesian compressed sensing, BCS)算法的T/R-R型雷達(dá)稀疏孔徑多視角融合成像方法。所提方法在建立雙站雷達(dá)融合成像模型的基礎(chǔ)上,利用Laplace先驗(yàn)在復(fù)數(shù)域建立目標(biāo)的稀疏模型,提高了算法的稀疏促進(jìn)作用,獲得了高分辨目標(biāo)圖像。仿真實(shí)驗(yàn)結(jié)果表明,所提方法不僅可實(shí)現(xiàn)雙站雷達(dá)多視角的融合成像,還可實(shí)現(xiàn)雙站雷達(dá)各自存在稀疏孔徑條件下的多視角融合成像,進(jìn)一步拓展了應(yīng)用場景,可有效提高方位分辨率和成像質(zhì)量。
關(guān)鍵詞:
T/R-R型雷達(dá); 空間目標(biāo); 多視角融合成像
中圖分類號(hào):
TN 958
文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.09.14
Multi-view fusion imaging algorithm for T/R-R radar of space targets
GUO Baofeng1, JIAO Liting1, LI Sheng2, ZHU Xiaoxiu3,*, XUE Dongfang1, SUN Huixian1
(1. Shijiazhuang Campus, Army Engineering University of PLA, Shijiazhuang 050003, China;
2. Unit 63963 of the PLA, Beijing 100072, China; 3. Unit 32398 of the PLA, Beijing 100192, China)
Abstract:
A T/R-R (transmitting receiving-receiving) radar sparse aperture multi-view fusion imaging method based on the complex Bayesian compressed sensing (BCS) algorithm is proposed for the practical imaging of T/R-R configuration radar, taking into account the orbital priors of space targets and the advantages of the dual-station inverse synthetic aperture radar (ISAR) imaging system. On the basis of establishing a dual station radar fusion imaging model, the proposed method utilizes Laplace priors to establish a sparse model of the target in the complex domain, improving the sparsity promotion effect of the algorithm and obtaining high-resolution target images. The simulation experiment results show that the proposed method can not only achieve multi-view fusion imaging of dual station radar, but also achieve multi-view fusion imaging of dual-station radar with sparse aperture respectively, further expanding the application scenarios and effectively improving azimuth resolution and imaging quality.
Keywords:
T/R-R (transmitting receiving-receiving) radar; space target; multi-view fusion imaging
0 引 言
隨著人類對(duì)太空的深入探索,空間環(huán)境日趨復(fù)雜。空間目標(biāo)包括航天器和空間碎片兩類[1],目前約有一半的航天器服務(wù)于軍事,對(duì)空間目標(biāo)的監(jiān)視和跟蹤具有重要意義[2-3]。雷達(dá)能夠全天候工作,是空間目標(biāo)監(jiān)視的重要方式。逆合成孔徑雷達(dá)(inverse synthetic aperture radar, ISAR)可以提供目標(biāo)豐富的二維信息[4-7],為空間目標(biāo)的識(shí)別及姿態(tài)控制提供了新的途徑和手段。
雙基地ISAR發(fā)射機(jī)和接收機(jī)分開放置[8-10],該系統(tǒng)的接收端僅被動(dòng)接收目標(biāo)回波,使系統(tǒng)的抗干擾性能增強(qiáng),在對(duì)抗隱身目標(biāo)、反輻射導(dǎo)彈等方面也有明顯優(yōu)勢(shì)[11-12]。此外,雙基地ISAR較單基地ISAR成像的概率更大[13]。但是,雙基地ISAR對(duì)空間目標(biāo)每個(gè)圈次的可觀測(cè)時(shí)間有限,很難實(shí)現(xiàn)目標(biāo)回波的長時(shí)間平穩(wěn)積累,這就限制了圖像橫向分辨率的改善,不利于后續(xù)的目標(biāo)識(shí)別。若能同時(shí)利用雙基地雷達(dá)發(fā)射站接收的回波數(shù)據(jù),兩站接收的數(shù)據(jù)可包含更多的目標(biāo)信息,通過數(shù)據(jù)融合可提高成像質(zhì)量。基于這種構(gòu)想,構(gòu)建T/R-R(transmitting receiving-receiving)型雷達(dá)成像系統(tǒng),其中T/R站發(fā)射和接收信號(hào),工作于單基地ISAR模式,R站為接收站,與T/R站構(gòu)成雙基地ISAR工作模式,這種配置方式充分利用了雙基地ISAR的先天優(yōu)勢(shì),又可將兩個(gè)雷達(dá)接收的回波進(jìn)行融合成像,增加了成像的可利用信息,為提高空間目標(biāo)橫向分辨率提供了一種新途徑。
為了能有效實(shí)現(xiàn)雙站雷達(dá)回波之間的融合成像,T/R站與R站之間接收到的目標(biāo)散射信息應(yīng)變化不大,故要求兩部雷達(dá)鄰近放置,此時(shí)雙基地角較小,甚至可以忽略雙基地角對(duì)圖像分辨率和融合成像過程的影響。T/R站與R站雷達(dá)接收到的回波信號(hào)可看作是從全視角回波信號(hào)中采樣得到的兩段有效觀測(cè)數(shù)據(jù),同樣可利用壓縮感知(compressed sensing, CS)理論[14-16]實(shí)現(xiàn)雙站融合成像,得到全孔徑對(duì)應(yīng)的成像結(jié)果,提高成像質(zhì)量。
近年來,國內(nèi)外許多學(xué)者對(duì)ISAR稀疏孔徑成像[17-20]技術(shù)及多輸入多輸出(multiple input multiple output, MIMO)ISAR[21-22]進(jìn)行了深入的研究。張磊[23]比較系統(tǒng)地介紹了ISAR稀疏孔徑成像處理方法,針對(duì)稀疏步進(jìn)調(diào)頻ISAR運(yùn)動(dòng)補(bǔ)償,結(jié)合包絡(luò)偏移估計(jì)、自聚焦以及多頻多普勒速度估計(jì)等方法提出了穩(wěn)健精確的統(tǒng)計(jì)參數(shù)和運(yùn)動(dòng)參數(shù)估計(jì)流程,得到了高分辨率的ISAR圖像。Xu等[24-25]研究了基于貝葉斯模型的ISAR高分辨成像算法,并推廣到稀疏孔徑觀測(cè)的情況下,完成了稀疏孔徑方位非模糊成像和精確的相位誤差補(bǔ)償。Zhang等[26-27]基于貝葉斯學(xué)習(xí)框架,根據(jù)ISAR稀疏孔徑回波建立了稀疏貝葉斯學(xué)習(xí)模型,完成了重構(gòu)圖像和相位誤差矩陣的同時(shí)迭代更新,實(shí)現(xiàn)了稀疏孔徑下ISAR的自聚焦,獲得了更加準(zhǔn)確的成像結(jié)果。Babacan等[28]認(rèn)為Laplace先驗(yàn)在實(shí)數(shù)域具有比Gaussian先驗(yàn)更好的稀疏促進(jìn)作用,但由于ISAR的回波信號(hào)為復(fù)數(shù),在數(shù)據(jù)處理階段對(duì)復(fù)數(shù)的實(shí)部和虛部分別進(jìn)行稀疏估計(jì),則沒有利用復(fù)數(shù)信號(hào)中實(shí)部與虛部之間相同的支撐集與相關(guān)性,重構(gòu)性能有進(jìn)一步提升的空間。
基于此,本文結(jié)合空間目標(biāo)的軌道先驗(yàn)和雙基地ISAR成像的體制優(yōu)勢(shì),充分利用雙站雷達(dá)的回波信號(hào)提高成像質(zhì)量,提出了一種基于復(fù)貝葉斯壓縮感知(Bayesian compressed sensing, BCS)的T/R-R型雷達(dá)多視角融合成像方法,能夠有效提升空間目標(biāo)ISAR的圖像質(zhì)量。本文的主要?jiǎng)?chuàng)新如下:① 建立了雙站雷達(dá)融合成像模型,考慮了雙站雷達(dá)多視角融合成像和雙站雷達(dá)各自存在稀疏孔徑條件下的多視角融合成像,進(jìn)一步拓展了適用場景;② 利用Laplace先驗(yàn)建立了目標(biāo)先驗(yàn)?zāi)P?,相比于傳統(tǒng)BCS算法中所用的Gaussian先驗(yàn)?zāi)P停哂懈玫南∈璐龠M(jìn)作用;③ 在算法求解過程中,直接在復(fù)數(shù)域進(jìn)行了貝葉斯推理,相比于傳統(tǒng)的在實(shí)數(shù)域進(jìn)行求解得到貝葉斯推理的方法,更適合處理具有復(fù)數(shù)特性的ISAR回波信號(hào),利用了復(fù)數(shù)信號(hào)中實(shí)部與虛部之間相同的支撐集與相關(guān)性,重構(gòu)性能進(jìn)一步提升。
1 T/R-R型雷達(dá)多視角融合成像模型
T/R-R型雷達(dá)成像系統(tǒng)如圖1所示。由于T/R站與R站之間具有一定距離,使得兩個(gè)站接收的回波之間具有一定的觀測(cè)視角差,帶來了觀測(cè)視角的缺失,如圖2所示。若直接將觀測(cè)視角間缺失部分的數(shù)據(jù)置零,采用距離-多普勒(range Doppler," RD)算法對(duì)T/R站與R站接收得到的兩個(gè)觀測(cè)回波進(jìn)行融合成像,將引入嚴(yán)重的橫向能量泄露問題,無法得到高質(zhì)量的融合成像結(jié)果。在CS理論中,T/R站與R站接收的視角回波信號(hào)可看作是觀測(cè)信號(hào),通過稀疏重構(gòu)算法實(shí)現(xiàn)T/R站與R站視角的融合成像。
1.1 雙站雷達(dá)的回波信號(hào)
根據(jù)文獻(xiàn)[29]的雙基地ISAR成像模型,某距離單元內(nèi)R站雷達(dá)預(yù)處理后的回波信號(hào)可表示為
4 仿真實(shí)驗(yàn)及結(jié)果分析
根據(jù)雙站雷達(dá)實(shí)際接收到的回波數(shù)據(jù)情況進(jìn)行T/R-R型雷達(dá)多視角融合成像仿真實(shí)驗(yàn),主要考慮雙站雷達(dá)塊間的視角缺失和是否存在塊內(nèi)稀疏孔徑的情況。
4.1 成像仿真參數(shù)設(shè)置
為方便分析,基于轉(zhuǎn)臺(tái)模型進(jìn)行T/R-R型雷達(dá)多視角融合成像仿真實(shí)驗(yàn)。T/R-R型雙基地ISAR仿真場景如圖5(a)所示,假設(shè)雙基地雷達(dá)基線長度為20 km,目標(biāo)在382 km的高度做轉(zhuǎn)臺(tái)運(yùn)動(dòng),雙基地角為3°。目標(biāo)散射點(diǎn)模型如圖5(b)所示,仿真參數(shù)如表1所示。假設(shè)成像時(shí)間內(nèi)累積脈沖個(gè)數(shù)為100,旋轉(zhuǎn)角速度均為0.026 5 rad/s,故T/R站和R站雷達(dá)的累積觀測(cè)視角均為1.5°。
4.2 雙站塊間視角缺失融合成像實(shí)驗(yàn)
假設(shè)T/R站和R站雷達(dá)均接收到完整的各自視角對(duì)應(yīng)的回波數(shù)據(jù),即雙站雷達(dá)各自回波數(shù)據(jù)內(nèi)無稀疏孔徑現(xiàn)象,僅在雙站之間存在視角數(shù)據(jù)缺失。在本實(shí)驗(yàn)中,T/R站雷達(dá)和R站雷達(dá)的觀測(cè)視角均為1.5°,對(duì)應(yīng)的回波脈沖個(gè)數(shù)均為100,由于雙基地角為3°,故雙站雷達(dá)間缺失的視角為1.5°,對(duì)應(yīng)的回波脈沖個(gè)數(shù)仍為100,利用T/R站和R站雷達(dá)回波數(shù)據(jù)融合后得到的全視角為4.5°,對(duì)應(yīng)的回波脈沖個(gè)數(shù)為300。在信噪比(signal-to-noise ratio, SNR)為20 dB的條件下,經(jīng)預(yù)處理和脈沖壓縮后得到的待融合回波數(shù)據(jù)的一維距離像如圖6所示,中間空白部分表示雙站間視角缺失部分的數(shù)據(jù)。
T/R站雷達(dá)與R站雷達(dá)的RD成像結(jié)果如圖7(a)和圖7(b)所示,可以看出,利用單部雷達(dá)接收到的回波實(shí)現(xiàn)ISAR成像時(shí),由于觀測(cè)視角有限,方位分辨率較低,從RD成像結(jié)果中無法完全分辨出所有散射點(diǎn)。
為提高方位分辨率,利用T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)進(jìn)行多視角融合成像。將T/R站雷達(dá)和R站雷達(dá)回波之間缺失視角的數(shù)據(jù)補(bǔ)零后直接進(jìn)行方位向快速傅里葉變換(fast Fourier transform, FFT),得到RD融合成像結(jié)果,如圖8(a)所示??梢钥闯觯苯硬捎肦D算法進(jìn)行融合成像時(shí),雖然與單部雷達(dá)相比,方位分辨率有所提高,但由于兩部雷達(dá)間存在觀測(cè)視角差且方位分辨率不一致,直接將視角缺失部分?jǐn)?shù)據(jù)補(bǔ)零后進(jìn)行FFT壓縮成像,容易引起能量泄漏和旁瓣展寬等問題,導(dǎo)致無法有效實(shí)現(xiàn)融合成像,未能完全區(qū)分各個(gè)散射點(diǎn),影響圖像質(zhì)量。分別采用稀疏約束最優(yōu)化算法[25]和所提的復(fù)BCS算法實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像,成像結(jié)果分別如圖8(b)和圖8(c)所示??梢钥闯觯捎孟∈柚貥?gòu)算法進(jìn)行多視角融合成像后,成像質(zhì)量有所提高,其中在基于稀疏約束最優(yōu)化算法得到的成像結(jié)果中有的散射點(diǎn)存在虛假點(diǎn),未能完全區(qū)分所有散射點(diǎn),而在采用本文所提算法得到的成像結(jié)果中可以完全區(qū)分出所有散射點(diǎn)。
為了進(jìn)一步對(duì)比不同SNR條件下的融合成像結(jié)果,在回波SNR分別為20 dB、10 dB、0 dB時(shí),利用稀疏約束最優(yōu)化算法和本文所提算法實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像,成像結(jié)果如圖9所示。從成像結(jié)果可以看出,當(dāng)SNR較低時(shí),采用基于稀疏約束最優(yōu)化算法得到的融合成像結(jié)果中存在少許噪點(diǎn)和虛影,而采用本文所提算法仍可以得到目標(biāo)清晰的融合成像結(jié)果。
為直觀比較算法性能,采用目標(biāo)背景比(target-to-background ratio, TBR)、圖像對(duì)比度(image contrast, IC)作為融合圖像的衡量標(biāo)準(zhǔn)[15]。利用稀疏約束最優(yōu)化算法和本文所提算法在不同SNR條件下,實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像結(jié)果的圖像衡量指標(biāo)如表2所示??梢钥闯?,融合成像結(jié)果的TBR值和IC值隨著SNR減小而減小,這是因?yàn)镾NR越低,噪聲越大,得到的融合成像結(jié)果質(zhì)量越低。但在相同的SNR條件下,本文所提算法得到的融合成像結(jié)果的TBR值和IC值最大,說明采用復(fù)BCS算法具有較好的抗噪性能,能夠在低SNR條件下實(shí)現(xiàn)更好的稀疏融合成像,體現(xiàn)了算法的優(yōu)越性。
4.3 雙站塊內(nèi)稀疏孔徑且塊間視角缺失融合成像實(shí)驗(yàn)
假設(shè)T/R站和R站雷達(dá)各自接收到的視角回波不完整,且雙站之間存在視角數(shù)據(jù)缺失。
在本實(shí)驗(yàn)中,T/R站雷達(dá)和R站雷達(dá)的全孔徑觀測(cè)視角均為1.5°,對(duì)應(yīng)的脈沖回波個(gè)數(shù)均為100,假設(shè)T/R站雷達(dá)和R站雷達(dá)內(nèi)各有20個(gè)脈沖回波數(shù)據(jù)隨機(jī)缺失,存在稀疏孔徑現(xiàn)象。在SNR為20 dB條件下,經(jīng)預(yù)處理和脈沖壓縮后得到的待融合回波數(shù)據(jù)的一維距離像如圖10所示,空白部分表示孔徑或視角缺失部分的數(shù)據(jù)。
直接將稀疏孔徑數(shù)據(jù)置零,T/R站雷達(dá)與R站雷達(dá)的RD成像結(jié)果如圖11(a)和圖11(b)所示。從圖11可以看出,在利用單部雷達(dá)接收到的回波實(shí)現(xiàn)ISAR成像時(shí),由于觀測(cè)視角有限,且在各自的觀測(cè)視角回波中存在稀疏孔徑現(xiàn)象,導(dǎo)致直接進(jìn)行RD成像時(shí)方位向存在能量泄露等現(xiàn)象,影響成像質(zhì)量,從RD成像結(jié)果中無法完全分辨出所有散射點(diǎn)。
將T/R站雷達(dá)和R站雷達(dá)回波各自的稀疏孔徑數(shù)據(jù)和雙站觀測(cè)視角缺失的數(shù)據(jù)補(bǔ)零后直接進(jìn)行方位向FFT,得到RD融合成像結(jié)果,如圖12(a)所示??梢钥闯?,在直接采用RD算法進(jìn)行融合成像時(shí),由于兩部雷達(dá)間存在觀測(cè)視角差且各自的回波數(shù)據(jù)之間存在稀疏孔徑現(xiàn)象,直接將缺失的視角和孔徑數(shù)據(jù)補(bǔ)零后進(jìn)行FFT壓縮成像,容易引起能量泄漏和旁瓣展寬等問題,導(dǎo)致無法有效實(shí)現(xiàn)融合成像,未能完全區(qū)分各個(gè)散射點(diǎn),影響圖像質(zhì)量。分別采用稀疏約束最優(yōu)化算法[25]和所提的復(fù)BCS算法實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像,成像結(jié)果分別如圖12(b)和圖12(c)所示??梢钥闯觯啾扔谙∈杓s束最優(yōu)化算法,在采用本文所提的復(fù)BCS算法得到的成像結(jié)果中可以完全區(qū)分出所有散射點(diǎn),得到了較好的融合成像質(zhì)量,驗(yàn)證了所提算法的有效性。
在回波數(shù)據(jù)SNR分別為20 dB、10 dB、0 dB的情況下,分別利用稀疏約束最優(yōu)化算法和本文所提算法實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像,成像結(jié)果如圖13所示。從成像結(jié)果可以看出,當(dāng)SNR較低時(shí),在采用稀疏約束最優(yōu)化算法得到的融合成像結(jié)果中存在大量噪點(diǎn)和虛假點(diǎn),無法分辨出目標(biāo)散射點(diǎn),而采用本文所提算法仍可以清晰地分辨出各個(gè)目標(biāo)散射點(diǎn),得到目標(biāo)清晰的融合成像結(jié)果。
利用稀疏約束最優(yōu)化算法和本文所提算法在不同SNR條件下實(shí)現(xiàn)T/R站雷達(dá)和R站雷達(dá)回波數(shù)據(jù)的多視角融合成像結(jié)果的圖像衡量指標(biāo)如表3所示。可以看出,在相同的SNR條件下,本文所提算法得到的融合成像結(jié)果的TBR值和IC值最大,體現(xiàn)了算法的優(yōu)越性。
5 結(jié)束語
為充分利用T/R站和R站雷達(dá)的觀測(cè)回波數(shù)據(jù)提高方位分辨率,提出了一種基于復(fù)BCS算法的T/R-R型雷達(dá)多視角融合成像方法。首先建立了T/R-R型雷達(dá)融合成像模型,并基于Laplace先驗(yàn)建立了目標(biāo)先驗(yàn)?zāi)P?,算法求解時(shí),直接在復(fù)數(shù)域開展貝葉斯推理,提升了圖像重構(gòu)性能。但本文算法研究未考慮成像過程中雙基地角的變化,雙基地時(shí)變下T/R-R型雷達(dá)多視角融合成像算法的實(shí)現(xiàn)有待進(jìn)一步研究。
參考文獻(xiàn)
[1] KLINKRAD H. Space debris: model and risk analysis[M]. Berlin: Springer, 2006.
[2] SCHAUB H, JASPER L E Z, ANDERSON P V, et al. Cost and risk assessment for spacecraft operation decisions caused by the space debris environment modeling[J]. Acta Astronautica, 2015, 113: 66-79.
[3] LOGINOV S, YAKOVLEV M, MIKHAILOV M, et al. About Russian federation activity on space debris problem[C]∥Proc.of the 5th European Conference on Space Debris, 2009.
[4] QIAN J, HUANG S Y, WANG L, et al. Super-resolution ISAR imaging for maneuvering target based on deep-learning-assisted time-frequency analysis[J]. IEEE Trans.on Geoscience and Remote Sensing, 2022, 60: 5201514.
[5] LYU X L, XING M D, WAN C R, et al. ISAR imaging of maneuvering targets based on the range centroid Doppler technique[J]. IEEE Trans.on Image Processing, 2010, 19(1): 141-153.
[6] 田彪, 劉洋, 呼鵬江, 等. 寬帶逆合成孔徑雷達(dá)高分辨成像技術(shù)綜述[J]. 雷達(dá)學(xué)報(bào), 2020, 9(5): 765-802.
TIAN B, LIU Y, HU P J, et al. Review of high-resolution imaging techniques of wideband inverse synthetic aperture radar[J]. Journal of Radars, 2020, 9(5): 765-802.
[7] HE X Y, TONG N N, HU X W, et al. High-resolution ISAR imaging based on two-dimensional group sparse recovery[J]. IET Radar, Sonar amp; Navigation, 2018, 12(1): 82-86.
[8] MARTORELLA M, PALMER J, HOMER J, et al. On bistatic inverse synthetic aperture radar[J]. IEEE Trans.on Aerospace and Electronic Systems, 2007, 43(3): 1125-1134.
[9] ZHU H S, GUO B F, HU W H, et al. Bi-ISAR sparse aperture self-focusing algorithm based on the joint constraint of compressed sensing and minimum Tsallias entropy[J]. Journal of Applied Remote Sensing, 2022, 16(3): 036504.
[10] ZHU H S, HU W H, GUO B F, et al. Research on Bi-ISAR sparse aperture high resolution imaging algorithm under low SNR[J]. Electronics, 2022, 11(18): 2856.
[11] 陳文峰, 李少東, 楊軍, 等. 低信噪比下二維聯(lián)合快速超分辨B-ISAR成像方法[J]. 電子學(xué)報(bào), 2018, 46(4): 840-848.
CHEN W F, LI S D, YANG J, et al. A fast two dimensional joint super-resolution B-ISAR imaging algorithm under low SNR[J]. Acta Electronica Sinica, 2018, 46(4): 840-848.
[12] ZHU H S, HU W H, GUO B F, et al. Bistatic ISAR sparse aperture maneuvering target translational compensation imaging algorithm[J]. Radio Engineering, 2022, 31(3): 262-273.
[13] CATALDO D, MARTORELLA M. Bistatic ISAR distortion mitigation via super-resolution[J]. IEEE Trans.on Aerospace and Electronic Systems, 2018, 54(5): 2143-2157.
[14] DONOHO D. Compressed sensing[J]. IEEE Trans.on Information Theory, 2006, 52(4): 1289-1306.
[15] ZHU X X, SHI L, GUO B F, et al. Bi-ISAR sparse imaging algorithm with complex Gaussian scale mixture prior[J]. IET Radar, Sonar amp; Navigation, 2019, 13(12): 2202-2211.
[16] 薛東方, 朱曉秀, 胡文華, 等. 基于加權(quán)L1范數(shù)優(yōu)化的雙基地ISAR稀疏成像算法[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(4): 944-953.
XUE D F, ZHU X X, HU W H, et al. Bi-ISAR imaging based on weighted L1 norm optimization algorithm[J]. Systems Engineering and Electronics, 2021, 43(4): 944-953.
[17] ZHU X X, LIU L M, HU W H, et al. Multi-band inverse synthetic aperture radar fusion imaging based on multiple measurement vector model[J]. Journal of Applied Remote Sensing, 2022, 16(2): 026512.
[18] ZHU X X, ZHANG L X, GUO B F, et al. Inverse synthetic aperture radar autofocus imaging of block structure targets with sparse aperture[J]. Journal of Applied Remote Sensing, 2023, 17(1): 016512.
[19] SHAO S, ZHANG L, WEI J Q, et al. Two-dimension joint super-resolution ISAR imaging with joint motion compensation and azimuth scaling[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(8): 1411-1415.
[20] WEI S J, LIANG J D, WANG M, et al. AF-AMPNet: a deep learning approach for sparse aperture ISAR imaging and autofocusing[J]. IEEE Trans.on Geoscience and Remote Sensing, 2022, 66: 5206514.
[21] 蒲濤, 童寧寧, 馮為可, 等. 基于塊稀疏矩陣恢復(fù)的MIMO雷達(dá)擴(kuò)展目標(biāo)高分辨成像算法[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(3): 647-655.
PU T, TONG N N, FENG W K, et al. Extended target high resolution imaging algorithm for MIMO radar based on block sparse matrix recovery[J]. Systems Engineering and Electronics, 2021, 43(3): 647-655.
[22] HU X W, TONG N N, ZHANG Y S, et al. MIMO radar imaging with nonorthogonal waveforms based on joint-block sparse recovery[J]. IEEE Trans.on Geoscience and Remote Sensing, 2018, 56(10): 5985-5996.
[23] 張磊. 高分辨SAR/ISAR成像及誤差補(bǔ)償技術(shù)研究[D]. 西安: 西安電子科技大學(xué), 2012.
ZHANG L. Study on high resolution SAR /ISAR imaging and error correction[D]. Xi’an: Xidian University, 2012.
[24] XU G, XING M D, XIA X G, et al. High-resolution inverse synthetic aperture radar imaging and scaling with sparse aperture[J]. IEEE Journal of Selected Topics in Applied Earch Observations and Remote Sensing, 2015, 8(8): 4010-4027.
[25] 徐剛, 張磊, 陳倩倩, 等. 基于稀疏約束最優(yōu)化的ISAR相位自聚焦成像算法[J]. 電子學(xué)報(bào), 2013, 41(9): 1772-1777.
XU G, ZHANG L, CHEN Q Q, et al. Navel autofocusing algorithm for ISAR imaging based on sparse constraint[J]. Acta Electronica Sinica, 2013, 41(9): 1772-1777.
[26] ZHANG S H, LIU Y X, LI X. Autofocusing for sparse aperture ISAR imaging based on joint constraint of sparsity and minimum entropy[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(3): 998-1011.
[27] ZHANG S H, LIU Y X, LI X, et al. Bayesian high resolution range profile reconstruction of high-speed moving target from under-sampled data[J]. IEEE Trans.on Image Processing, 2020, 29: 5110-5120.
[28] BABACAN S D, MOLINA R, KATSAGGELOS A K. Baye-sian compressive sensing using Laplace priors[J]. IEEE Trans.on Image Processing, 2010, 19(1): 53-63.
[29] 朱曉秀, 胡文華, 馬俊濤, 等. 雙基地角時(shí)變下的稀疏孔徑ISAR自聚焦成像[J]. 航空學(xué)報(bào), 2018, 39(8): 322059.
ZHU X X, HU W H, MA J T, et al. ISAR autofocusing imaging with sparse apertures and time-varying bistatic angle[J]. Acta Aeronautica et Astronautica Sinica, 2018, 39(8): 322059.
作者簡介
郭寶鋒(1987—),男,講師,博士,主要研究方向?yàn)樾盘?hào)與信息處理、雷達(dá)成像技術(shù)。
焦麗婷(1995—),女,碩士研究生,主要研究方向?yàn)槔走_(dá)信號(hào)處理、雷達(dá)圖像融合。
李 勝(1987—),男,工程師,博士,主要研究方向?yàn)檠b備運(yùn)用與論證。
朱曉秀(1993—),女,工程師,博士,主要研究方向?yàn)槔走_(dá)信號(hào)處理、雷達(dá)成像技術(shù)。
薛東方(1983—),男,講師,碩士,主要研究方向?yàn)槔走_(dá)信號(hào)處理。
孫慧賢(1980—),男,副教授,博士,主要研究方向?yàn)樾畔⑾到y(tǒng)與通信工程。