王 懋,王 銳,徐 祎,張海黎
(1.電子工程學(xué)院,安徽 合肥 230037;2.北京地區(qū)軍事代表室,北京 100083)
在電子情報偵察系統(tǒng)(ELINT)、電子支援系統(tǒng)(ESM)和反輻射導(dǎo)彈(ARM)中,未知輻射源環(huán)境下的雷達(dá)信號分選占有重要的地位[1]。在未知輻射源環(huán)境下無法得到訓(xùn)練樣本,雷達(dá)脈沖信號分選是利用脈沖信號參數(shù)的相關(guān)性實現(xiàn)的。比較經(jīng)典的算法有直方圖法、PRI變換法以及平面變換法,它們采用一維、二維方式分選,無法直接利用現(xiàn)有的載頻、脈沖到達(dá)時間、脈沖寬度、脈沖幅度、到達(dá)角(方位角和俯仰角)五個傳統(tǒng)參數(shù)進(jìn)行多參數(shù)分類,效率受到影響。而現(xiàn)有多參數(shù)聚類的多維分選方法,又存在最佳分類個數(shù)和誤差范圍的選擇問題。本文提出了一種基于小樣本集推理的雷達(dá)信號多維分選技術(shù),充分利用已有的雷達(dá)信號描述向量來達(dá)到最佳分選效果,避免目前經(jīng)典算法所帶來的問題,得到具有良好推廣性的分類器。
小樣本集推理是一種非參數(shù)判別分類的學(xué)習(xí)方法。20世紀(jì)60年代出現(xiàn)的非參數(shù)判別分類的學(xué)習(xí)方法,在應(yīng)用統(tǒng)計學(xué)的基礎(chǔ)上結(jié)合了模式識別和計算機(jī)科學(xué),克服了傳統(tǒng)參數(shù)判別分類的學(xué)習(xí)方法不能解決的一些問題,如“維數(shù)災(zāi)難”,樣本較少時無法精確獲得概率密度函數(shù)的問題。20世紀(jì)末由Vapnik等人提出了針對小樣本集推理的一般理論及其方法。對學(xué)習(xí)機(jī)器函數(shù)集的容量進(jìn)行控制,從而實現(xiàn)有限樣本的有效學(xué)習(xí),找到推廣性好的學(xué)習(xí)機(jī)器。
小樣本集推理的基本原則是繞過參數(shù)估計,由訓(xùn)練樣本集提供的信息直接確定決策域,經(jīng)典方法為基于統(tǒng)計學(xué)習(xí)理論的支持向量機(jī)SVM方法。遵循此原則的邏輯思路再向前發(fā)展一步,就得到超出歸納的一種推理思想——轉(zhuǎn)導(dǎo)推理。利用SVM方法中的一些基本技術(shù)如核函數(shù),超球體等,結(jié)合其他的一些聚類算法的思想,小樣本集推理甚至可以延伸到無監(jiān)督學(xué)習(xí)的領(lǐng)域——支持向量聚類。
在雷達(dá)信號多維分選中,可以將脈沖雷達(dá)目標(biāo)信號進(jìn)行多維特征表示,在多維空間中采用一些分選算法實現(xiàn)目標(biāo)分選智能化。同時這些目標(biāo)信號的先驗知識往往是有限的,屬于小樣本集范疇,因此,把小樣本集推理技術(shù)應(yīng)用到雷達(dá)信號多維分選中具有比較重要的意義。
在聚類算法中只有一簇未標(biāo)號的數(shù)據(jù)對象,所以只用一類支持向量機(jī)。用任意封閉曲面(超球體)包住經(jīng)過Φ非線性映射后的一簇數(shù),并要求超球體盡可能緊地包住這簇數(shù)。Tax等人提出了用核函數(shù)的方法進(jìn)行數(shù)據(jù)域描述,即基于Gauss核的SVDD(Support Vector Domain Description)算法。在國內(nèi),張鈸等人用領(lǐng)域覆蓋的概念描述數(shù)據(jù)幾何意義。Ben-Hur等將SVDD算法進(jìn)一步發(fā)展為一種新的無監(jiān)督非參數(shù)型的聚類算法:支持向量聚類(SV Clustering)[2-3]。
SV Clustering算法分為兩部分:形成SV的聚類邊界的SVM訓(xùn)練部分和聚類形成部分。其中SVM訓(xùn)練部分負(fù)責(zé)新知識模型的訓(xùn)練,包括Gauss核函數(shù)寬度系數(shù)的優(yōu)化、Lagrange乘子的計算、Hilbert空間最小包絡(luò)超球體半徑的計算和有界支持向量(BSVs)與支持向量(SVs)的選取。聚類形成部分首先生成聚類標(biāo)識關(guān)聯(lián)矩陣,再通過DFS(Depth first Search)算法根據(jù)關(guān)聯(lián)矩陣進(jìn)行聚類。
該算法解決了常規(guī)聚類算法的聚類中心數(shù)和迭代最大次數(shù)等參數(shù)設(shè)定的問題,在實際仿真中發(fā)現(xiàn)對數(shù)據(jù)對象的幾何分布要求不高,不僅能解決常規(guī)聚類算法解決的問題,而且還能很好地應(yīng)用在常規(guī)聚類算法不宜進(jìn)行的地方。
通過支持向量機(jī)訓(xùn)練,在升高維數(shù)特征空間中得到包括所有數(shù)據(jù)點(diǎn)的最小包絡(luò)超球體邊界。在輸入空間內(nèi)定義輸入數(shù)據(jù)點(diǎn){xi}?χ,χ?Rd,使用一個非線性映射Φ將{xi}分別映射到一個高維的空間,從而{Φ(xi)}呈現(xiàn)更規(guī)則的形式。
在高維特征空間中找到最小半徑為R,為了防止有噪聲影響,將邊界進(jìn)行軟化引入松弛因子ξj,變成了一個求有約束條件的最優(yōu)值問題:
約束條件:
式中,R是超球半徑,a是超球中心,‖·‖是歐氏距離范數(shù),C是懲罰系數(shù)。C值決定超球外點(diǎn)數(shù)目,C越大,外點(diǎn)越少(噪聲點(diǎn)出現(xiàn)的越少)。
利用Lagrange乘數(shù)法,解決式(1)~(3)最優(yōu)化問題。分別得到:
一旦樣本數(shù)據(jù)和非線性映射給定,超球心向量a、參數(shù)βj和球半徑R就都不會變化。
根據(jù)式(4)~(6)化解最優(yōu)化問題中只剩βj參數(shù),再轉(zhuǎn)化為Wolf對偶二次規(guī)劃問題:
最優(yōu)解滿足Karush-Kuhn-Tucker條件:
將式(7)中的內(nèi)積,用滿足Mercer條件的核函數(shù)代替。本文使用Gauss核:
則Wolf對偶二次規(guī)劃問題式(7)~(9)變?yōu)椋?/p>
解式(1 4)得到βj,這樣輸入空間對應(yīng)的高維特征空間就確定了。同時輸入空間中的數(shù)據(jù)點(diǎn)對應(yīng)在特征空間中的位置也確定了,根據(jù)上面的分析,可得到表1。
表1 參數(shù)βj與相對包絡(luò)超球的位置對應(yīng)關(guān)系
通常直接計算特征空間中任一點(diǎn)到球心的距離,將式(6)、(14)代入距離定義式得:
一般聚類半徑定義為:
實際上是求均值:
式中#S V表示支持向量的個數(shù)。
聚類邊界可由輸入數(shù)據(jù)空間中滿足R(x)=R*的所有數(shù)據(jù)點(diǎn)的等高線構(gòu)成。集合為聚類邊界,B S V s在邊界外。
現(xiàn)在知道每個點(diǎn)到超球球心的距離,具體哪些點(diǎn)屬于哪個簇是還需要進(jìn)一步處理。研究發(fā)現(xiàn)如果兩個輸入點(diǎn)屬于同一個簇,那么兩個點(diǎn)的連接線上所有點(diǎn),在高位特征空間中,都不會位于球外。反過來考慮,給定一對樣本數(shù)據(jù)點(diǎn)xi和xj,連線當(dāng)中如果有一個斷點(diǎn)y,使R(y)>R*,則兩個數(shù)據(jù)點(diǎn)非同一簇。H u r-B e n根據(jù)這種思想,構(gòu)造一個n×n關(guān)聯(lián)矩陣A:
關(guān)聯(lián)矩陣中鄰近元素的集合即為聚類,如果只有一個元素,則標(biāo)記為噪聲。
對偵察雷達(dá)獲得的數(shù)據(jù),首先進(jìn)行分選參數(shù)的提取,它是后續(xù)分選工作的基礎(chǔ)。通過前端精確測量儀器,可以測頻、測時間和測方向。接著經(jīng)過特征提取、信號去交錯、脈沖模式提取、跟蹤器等前端預(yù)處理。最后得到分選參數(shù)。
本文將雷達(dá)脈沖描述字代入小樣本集推理算法支持向量聚類中。
Step1 將所有描述字表示的參數(shù)歸一化。這樣方便對不同范圍的數(shù)據(jù)進(jìn)行統(tǒng)一的分選。
Step2 開始形成SV聚類邊界,即SVM訓(xùn)練部分。
1)對歸一化數(shù)據(jù)進(jìn)行空間分析,本文采用對Hilbert空間中數(shù)據(jù)之間的歐幾里德距離分析,得出分類效果最佳的rbf(徑向基函數(shù))核函數(shù)寬度系數(shù)。這里計算所有樣本歐式距離的最大值和最小值,核函數(shù)寬度系數(shù)γ取最小值和最大值倒數(shù)的平均值,γ=(min(distance)+ (max(distance))-1)/2。
2)參數(shù)C的大小決定了野值點(diǎn)的數(shù)量,隨著C(C≤1)值的減小,野值點(diǎn)的數(shù)量會增加,可以平滑聚類邊界,但同時經(jīng)驗風(fēng)險變大。由于SVC中Lagrange乘子βj歸一化了,所以C>1對生成βj無影響,同時SV聚類邊界中不存在BSV,BSV對應(yīng)的βj=C。故C=1。
3)通過支持向量訓(xùn)練,在升高維數(shù)特征空間中得到包含所有數(shù)據(jù)點(diǎn)的最小包絡(luò)超球體邊界。獲得Lagrange乘子β,代入聚類半徑表達(dá)式中得到半徑R。由于半徑有一定波動,這里取均值。
Step3 形成支持向量聚類,即生成聚類標(biāo)示關(guān)聯(lián)矩陣。在已有數(shù)據(jù)點(diǎn)xi,xj連線間插入新數(shù)據(jù)點(diǎn)yk,通過計算該新數(shù)據(jù)點(diǎn)yk是否處在聚類邊界里面來判斷已有數(shù)據(jù)點(diǎn)之間有無關(guān)系。如果R(yk)≤R,則xi,xj有關(guān)聯(lián);否則無關(guān)聯(lián)。
為驗證基于小樣本集推理的雷達(dá)信號多維分選方法的有效性,本文仿真產(chǎn)生一系列雷達(dá)脈沖數(shù)據(jù)并對其進(jìn)行預(yù)處理,預(yù)處理后實驗數(shù)據(jù)如表2所示。
表3列出了基于小樣本集推理的雷達(dá)信號多維分選方法和直方圖分選方法的正確率和消耗時間的對比情況。其中,分選準(zhǔn)確率=(總脈沖數(shù)-漏分選脈沖-誤分選脈沖)/總脈沖數(shù)×100%。
通過55個衛(wèi)星接收到的雷達(dá)脈沖校驗數(shù)據(jù)(見表4),進(jìn)一步驗證本文算法的推廣性和可靠性。
第一步:采用(x-min)/(max-min)進(jìn)行數(shù)據(jù)的歸一化。得到六維向量(載頻RF,脈沖到達(dá)時間TOA,脈沖寬度PW,脈沖幅度PA,方位角AZA,俯仰角PIA)55個。
第二步:將數(shù)據(jù)代入SVC算法中。通過計算得到核函數(shù)寬度γ=0.29162,并且設(shè)置懲罰系數(shù)C=1。通過對最優(yōu)函數(shù)的計算得到Lagrange乘子β,如圖1(a)所示。同時得到相應(yīng)的聚類包絡(luò)的半徑R,半徑R=0.54482。如圖1(b)所示。
表2 仿真雷達(dá)脈沖信號參數(shù)表
表3 直方圖法和本文方法的分選準(zhǔn)確率和總執(zhí)行時間
表4 55個雷達(dá)脈沖校驗數(shù)據(jù)
第三步:依據(jù)最優(yōu)包絡(luò)超球體的球心位置和半徑,通過算法聚類形成方式,得到相應(yīng)的標(biāo)示關(guān)聯(lián)矩陣。通過該矩陣,對PDW進(jìn)行聚類分選,得到以載頻RF和到達(dá)時間TOA為坐標(biāo)的雷達(dá)信號分布圖,如圖2所示。對分選脈沖信號總數(shù)進(jìn)行編號統(tǒng)計得到分選結(jié)果統(tǒng)計直方圖,如圖3所示。
圖1 Lagrange乘子/距離包絡(luò)球心距離與雷達(dá)脈沖對應(yīng)關(guān)系
第四步:進(jìn)行聚類效果分析,主要對分選準(zhǔn)確率進(jìn)行分析。分選準(zhǔn)確率=(準(zhǔn)確分選的總脈沖數(shù)/脈沖總數(shù))×100%。得到SVC聚類分選方法分選結(jié)果統(tǒng)計表,如表5所示。由總分選準(zhǔn)確率可看出其分選效率優(yōu)于傳統(tǒng)的直方圖方法。
圖2 雷達(dá)二維信號分布圖
圖3 雷達(dá)信號分選結(jié)果統(tǒng)計直方圖
表5 雷達(dá)脈沖分選結(jié)果統(tǒng)計表
高分選效率且充分考慮最佳分類個數(shù)和誤差范圍均衡的聚類算法是星載雷達(dá)信號分選不可或缺的有效工具。本文提出基于高精度測量得到的五個脈沖描述字PDW=(脈沖到達(dá)方向(方位角AZA/俯仰角PIA),載頻RF,脈寬PW,到達(dá)時間TOA,脈幅PA),利用小樣本集推理技術(shù)——支持向量聚類方法,生成雷達(dá)信號分類器。該方法克服了未知輻射源環(huán)境下不能獲取大量訓(xùn)練樣本的困難,并且采用多參數(shù)分選,與傳統(tǒng)的直方圖方法相比,分選效率更高。
[1]Wiley RG.ELINT:the interception and analysis of radar signals[M].2ed.Boston,MA:Artech House,2006:317-356.
[2]Hur AB,Horn D,Siegelmann HT,et al.Support vector clustering[J].Machine Learning Research,2001(2):125-137.
[3]Hur AB,Horn D,Siegelmann HT.A support vector method for hierarchical clustering[J].Advances in Neural Information Processing Systems,2001(13):367-373.