李穎, 武君勝, 李偉剛, 董瑋, 房愛青
(1.西北工業(yè)大學(xué) 計算機學(xué)院, 陜西 西安 710072; 2.西北工業(yè)大學(xué) 軟件學(xué)院, 陜西 西安 710072)
作戰(zhàn)意圖識別旨在對來自各種信息源的信息進(jìn)行分析,從而解釋和判斷敵方想要達(dá)到的目的[1],正確且高效的對敵意圖識別能夠有效抵御或殺傷敵方目標(biāo)。隨著科技的進(jìn)步,軍事裝備力量逐漸向著無人化、智能化的方向發(fā)展。作為實現(xiàn)作戰(zhàn)過程智能化的重要一環(huán),作戰(zhàn)意圖識別逐漸成為各國研究的熱點[2]。
傳統(tǒng)作戰(zhàn)意圖識別通常采用領(lǐng)域?qū)<抑R指導(dǎo)的模板匹配方法[3-6]或者基于貝葉斯網(wǎng)絡(luò)的推理方法[7-8]。模版匹配的方法是指敵方作戰(zhàn)意圖識別過程建立在領(lǐng)域?qū)<抑贫ǖ哪0逯?通過匹配算法匹配模板得到敵方作戰(zhàn)意圖?;谪惾~斯網(wǎng)絡(luò)的方法是指依據(jù)戰(zhàn)場行為序列構(gòu)建貝葉斯網(wǎng)絡(luò),并由領(lǐng)域?qū)<掖_定網(wǎng)絡(luò)參數(shù)實現(xiàn)敵方作戰(zhàn)意圖的推理。以往的軍事信息化建設(shè)落后,戰(zhàn)場數(shù)據(jù)相對匱乏,傳統(tǒng)方法可以較好地適應(yīng)這種情景準(zhǔn)確的作戰(zhàn)意圖識別,但是還存在以下問題未被有效解決。首先,現(xiàn)代戰(zhàn)場環(huán)境復(fù)雜多變,作戰(zhàn)樣式與作戰(zhàn)平臺更新迅速,從作戰(zhàn)單元采集的作戰(zhàn)目標(biāo)狀態(tài)數(shù)據(jù)呈現(xiàn)多維、海量的特性。而傳統(tǒng)方法由于需要前期大量的領(lǐng)域知識建模,難以有效地處理特性以及數(shù)據(jù)之間復(fù)雜的依賴關(guān)系。其次,前期的領(lǐng)域知識模型構(gòu)建也使得傳統(tǒng)方法的模型主觀性較強[9]。面對這樣的挑戰(zhàn),研究者們開始探究如何通過神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行作戰(zhàn)目標(biāo)意圖識別。神經(jīng)網(wǎng)絡(luò)的方法可以不依賴專家選擇特征,通過抽取與意圖相關(guān)的戰(zhàn)場態(tài)勢信息,更好地適應(yīng)現(xiàn)代戰(zhàn)場數(shù)據(jù)。文獻(xiàn)[10-12]采用模糊神經(jīng)網(wǎng)絡(luò)來進(jìn)行意圖識別,該方法將模糊推理與神經(jīng)網(wǎng)絡(luò)結(jié)合,在一定程度上提升了作戰(zhàn)意圖識別任務(wù)的精度,但該方法網(wǎng)絡(luò)層數(shù)淺,難以較好對復(fù)雜數(shù)據(jù)擬合。為了解決該問題,文獻(xiàn)[13]采用深度神經(jīng)網(wǎng)絡(luò)(deep neural networks,DNN)對空中目標(biāo)作戰(zhàn)意圖進(jìn)行識別,可以達(dá)到一定的識別率,但沒有考慮到戰(zhàn)場情報數(shù)據(jù)的時序性特點。面對這種時序性特點,也有研究人員使用循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks,RNN)識別意圖[14-15]。文獻(xiàn)[16]基于長短時記憶網(wǎng)絡(luò)(long short-term memory,LSTM)對作戰(zhàn)意圖進(jìn)行分類,采用學(xué)習(xí)因子自適應(yīng)調(diào)整策略提高模型的訓(xùn)練效率,文獻(xiàn)[17-18]基于LSTM模型對空中目標(biāo)進(jìn)行意圖識別。綜上,當(dāng)前神經(jīng)網(wǎng)絡(luò)模型對意圖識別可以達(dá)到比較好的識別率,但在網(wǎng)絡(luò)模型的設(shè)計方面沒有考慮到作戰(zhàn)意圖識別面對的場景以及作戰(zhàn)實體狀態(tài)之間的關(guān)聯(lián)關(guān)系。
對于實戰(zhàn)場景下的作戰(zhàn)目標(biāo)意圖識別問題,戰(zhàn)場情報數(shù)據(jù)是連續(xù)的,每個時間點傳感器收集的數(shù)據(jù)為作戰(zhàn)目標(biāo)在這個時刻的狀態(tài)。隨著時間的推移,作戰(zhàn)實體實施一系列行為以達(dá)到行動意圖。因此,作戰(zhàn)意圖的識別具有層次性,由觀測方觀測敵方執(zhí)行的一系列行為并不斷向上推理得到實施方的意圖。從時間角度來說,該過程是作戰(zhàn)目標(biāo)狀態(tài)的遞進(jìn),從正向推進(jìn)完成了作戰(zhàn)相應(yīng)的作戰(zhàn)意圖,后續(xù)狀態(tài)又反向依賴前序狀態(tài)。所以,數(shù)據(jù)與數(shù)據(jù)之間存在著雙向依賴的復(fù)雜關(guān)聯(lián)。針對這樣的過程,當(dāng)前的作戰(zhàn)意圖識別方法雖然在一定程度可以對作戰(zhàn)目標(biāo)意圖進(jìn)行識別,但無法滿足現(xiàn)代戰(zhàn)場作戰(zhàn)場景的層次性與作戰(zhàn)時序數(shù)據(jù)雙向依賴的復(fù)雜關(guān)聯(lián)性特征。所以,迫切需要一種感知場景特性的方法來完成作戰(zhàn)意圖識別任務(wù),以提高識別效果。
綜上所述,針對當(dāng)前模型所面對的挑戰(zhàn),本文提出一種層次聚合框架,底層基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN) 通過卷積操作感知行為特征。中間層基于雙向長短時記憶網(wǎng)絡(luò)(bi-directional long short-term memory,Bi-LSTM[19]),將LSTM的神經(jīng)元從2個不同的時間方向疊加,借助LSTM記憶長時依賴信息的能力,達(dá)到表達(dá)2個方向的長時依賴信息的目的。頂層通過注意力機制將特征聚焦于與識別意圖更加相關(guān)的高級特征,最終組合感知到的全局信息以識別目標(biāo)作戰(zhàn)意圖。模型解決了當(dāng)前意圖識別的一些局限,即缺乏對意圖層次性、時間特性與雙向依賴的表述。相比深度神經(jīng)網(wǎng)絡(luò)方法模型識別準(zhǔn)確率提高了18.34%,相比循環(huán)神經(jīng)網(wǎng)絡(luò)方法提高了17.72%,相比長短時記憶網(wǎng)絡(luò)方法提高了7.7%。
本問題針對的輸入是傳感器接收的連續(xù)時序數(shù)據(jù),該數(shù)據(jù)是一個時間周期內(nèi)作戰(zhàn)實體的特征參數(shù),用以描述一個時間段內(nèi)實體的作戰(zhàn)意圖。神經(jīng)網(wǎng)絡(luò)對目標(biāo)作戰(zhàn)意圖識別是從該時序數(shù)據(jù)中提取表達(dá)意圖的特征向量,并通過分類器對該向量學(xué)習(xí)得到最終作戰(zhàn)意圖的過程。該問題本質(zhì)上是做神經(jīng)網(wǎng)絡(luò)的分類任務(wù)。
假設(shè)給定一組作戰(zhàn)過程序列數(shù)據(jù)X=[x1,x2,…,xt]i∈RN×W,其中,R代表實數(shù)空間,N,W分別是序列長度、特征維度,每一條數(shù)據(jù)代表在特定時間點的作戰(zhàn)實體參數(shù)信息,[·]i代表第i個目標(biāo)的特征向量,xt代表第t個作戰(zhàn)屬性。通過對作戰(zhàn)過程序列數(shù)據(jù)進(jìn)行特征學(xué)習(xí)表征得到包含關(guān)鍵信息的嵌入。面對的問題可以形式化為如下數(shù)學(xué)表達(dá)
式中,[x1,x2,…,xt]i為序列中第i個目標(biāo)的特征向量;[r1,r2,…,ri]i為對應(yīng)的特征嵌入;f1為本文設(shè)計的層次聚合模型,本質(zhì)上是一個映射函數(shù);f2是一個分類器;yi是目標(biāo)i的意圖。
本節(jié)詳細(xì)介紹了所提出的層次聚合模型。模型針對作戰(zhàn)目標(biāo)意圖識別面對的場景以及任務(wù)特征,通過層次聚合從作戰(zhàn)目標(biāo)狀態(tài)數(shù)據(jù)中逐級學(xué)習(xí)局部特征,并通過注意力機制進(jìn)行特征融合得到全局特征表示用以意圖識別。
在現(xiàn)代空戰(zhàn)中,戰(zhàn)場呈現(xiàn)復(fù)雜、多變等特征,所以需要通過有限信息感知來判斷態(tài)勢以評估作戰(zhàn)意圖。如圖1所示,作戰(zhàn)意圖識別是一個具有層次性的向上推理過程,父意圖可以分解為多個子意圖,而每個子意圖又可以分解為一系列的行為。以巡邏意圖為例,說明空中作戰(zhàn)目標(biāo)進(jìn)行巡邏時的意圖分解過程。首先,實體起飛離開基地;然后,執(zhí)行非機動飛行子意圖向指定巡邏區(qū)域飛行;其次,進(jìn)入巡邏區(qū),然后繼續(xù)非機動飛行;最后,執(zhí)行完巡邏任務(wù),執(zhí)行返回基地子意圖。因此,意圖識別是從作戰(zhàn)實體的各種狀態(tài)特征表現(xiàn)出發(fā),先由狀態(tài)特征分析出敵方行為序列,再由行為序列逐層逆向推理上層意圖,最終逼近父意圖的過程。綜上所述,空中目標(biāo)作戰(zhàn)意圖的識別任務(wù)具有層次性,作戰(zhàn)實體數(shù)據(jù)具有時序性,實體狀態(tài)之間存在雙向長時依賴關(guān)系。
圖1 作戰(zhàn)意圖識別層次圖
面對上述特性,本文提出一種層次聚合模型,自底向上感知作戰(zhàn)意圖。模型框架如圖2所示,分為5個部分,包括數(shù)據(jù)輸入、行為特征感知、意圖聚合、意圖聚焦以及意圖識別。首先,對描述空中目標(biāo)實體狀態(tài)的數(shù)據(jù)進(jìn)行處理并將輸入數(shù)據(jù)作為實體特征輸入行為特征感知模塊,其次,通過CNN感知行為特征并向上輸入至意圖特征聚合模塊,意圖特征聚合模塊通過Bi-LSTM網(wǎng)絡(luò)提取子意圖之間的雙向依賴關(guān)系,之后,將學(xué)習(xí)到的特征通過注意力機制聚焦,最終,通過softmax函數(shù)進(jìn)行意圖識別。
圖2 空中目標(biāo)作戰(zhàn)意圖識別框架
對于作戰(zhàn)數(shù)據(jù),不同機型的不同特征狀態(tài)數(shù)據(jù)差別較大,需要對其歸一化處理來消除量綱影響。具體來說,作戰(zhàn)意圖對應(yīng)的作戰(zhàn)動態(tài)屬性數(shù)據(jù)有較大波動,并且一些特征對應(yīng)的數(shù)據(jù)范圍較大,如殲擊機以最大飛行速度攻擊,其范圍可達(dá)到2 000 km/h左右,相比其巡航速度有較大波動;低空和超高空偵察對應(yīng)的高度分別為100~1 000 m和15 000 m以上。面對這樣的數(shù)據(jù)特征,選擇Z-score標(biāo)準(zhǔn)化方法將數(shù)據(jù)歸一到均值為0方差為1的分布中,如(3)式所述。
(3)
式中:μ為所有樣本數(shù)據(jù)的均值;?為所有樣本數(shù)據(jù)的標(biāo)準(zhǔn)差。
另外,作戰(zhàn)目標(biāo)特征數(shù)據(jù)是由不同的傳感器在每個時間點上收集的,代表了目標(biāo)在某一時刻的狀態(tài)。因此,該數(shù)據(jù)是具有時間特征的序列數(shù)據(jù),它包含了目標(biāo)的行動序列信息。這種非格式化的時間序列數(shù)據(jù)需要將其轉(zhuǎn)換為標(biāo)準(zhǔn)格式的數(shù)據(jù)然后通過CNN提取特征。如圖3所示,通過滑動窗口對原始數(shù)據(jù)進(jìn)行預(yù)處理。具體來說,設(shè)置一個80 s的滑動窗口,以40 s為單位,每80 s為一個數(shù)據(jù)片對數(shù)據(jù)進(jìn)行切分,得到的數(shù)據(jù)片有50%的重疊,可以保證捕捉到更多的行動細(xì)節(jié)。這樣,輸入的數(shù)據(jù)被表示為N×W大小的幀切片序列,其中,N為序列長度,W為特征維度。
圖3 行為特征感知模塊
作戰(zhàn)行為序列是作戰(zhàn)任務(wù)分解得到的一系列動作。作戰(zhàn)目標(biāo)為了一定的作戰(zhàn)意圖需要完成一系列動作以達(dá)到某種特定的狀態(tài),如圖1所示,目標(biāo)執(zhí)行一系列行為之后可以達(dá)到某種子意圖狀態(tài)。所以,為了識別目標(biāo)最終意圖,首先需要從輸入數(shù)據(jù)中提取行為級的特征。為了達(dá)成該目的,本文提出了一個行為特征感知模塊用以提取序列數(shù)據(jù)的行為特征表示。如圖3所示,該模塊由2個卷積層和非線性激活層組成。具體來說,輸入被送入2個一維卷積層,2個卷積層采用ReLU激活函數(shù)激活以提取數(shù)據(jù)輸入中的行為特征。第一層卷積采用128個大小為1×9的卷積核對數(shù)據(jù)進(jìn)行卷積操作,得到特征圖后,第二層采用64個大小為3×9的卷積核進(jìn)行卷積。之后,將經(jīng)過卷積層處理過的數(shù)據(jù)輸入到全連接層。為了防止過擬合,全連接層后添加一個隨機失活層,通過該層將網(wǎng)絡(luò)中的神經(jīng)元隨機賦值為零,以提高網(wǎng)絡(luò)對數(shù)據(jù)的影響。
形式上,X=[x1,x2,…,xt]i∈RN×W為輸入特征序列,行為特征感知模塊通過卷積層學(xué)習(xí)到特征,該過程可以定義為
max(0,(X·Wc+bc))
(4)
式中:Wc表示權(quán)重;bc表示偏移量。
行為特征感知模塊學(xué)習(xí)到底層行為特征表示后,需要進(jìn)一步將其送入意圖特征聚合模塊聚合成子意圖特征。
敵方目標(biāo)作戰(zhàn)意圖是隨著時間推移不斷確定的,如圖1所示,行為序列組成一系列的子意圖,所以,這些子意圖之間也存在著關(guān)聯(lián)關(guān)系。圖4直觀展示了子意圖之間的依賴關(guān)系。對巡邏意圖來說,當(dāng)作戰(zhàn)實體進(jìn)入巡邏區(qū)時,起飛和非機動飛行是已經(jīng)發(fā)生的狀態(tài),非機動飛行和返回基地是未發(fā)生的狀態(tài),只有發(fā)生了前面的起飛和非機動飛行才能發(fā)生進(jìn)入巡邏區(qū)這個狀態(tài),這是向前的依賴。而反過來說,作戰(zhàn)意圖是巡邏,那必然也會執(zhí)行后面未發(fā)生的狀態(tài),這是向后的依賴。因此,為了準(zhǔn)確識別意圖,在高級特征表示的基礎(chǔ)上,需要更好地表達(dá)這種復(fù)雜的依賴關(guān)系,同時攜帶上述雙向依賴關(guān)系信息進(jìn)行下一步學(xué)習(xí)。為了達(dá)成該目的,本文在行為感知層之后提出意圖特征聚合模塊,進(jìn)一步對子意圖之間的長距離雙向依賴關(guān)系進(jìn)行表示學(xué)習(xí)。
圖4 雙向依賴關(guān)系
綜上所述,意圖特征聚合模塊需要具備從正序和逆序2個方向提取長時依賴關(guān)系的全局感知能力,所以本文采用Bi-LSTM模型對特征進(jìn)行表達(dá)。Bi-LSTM模型由2個方向不同的LSTM單元疊加,用來提取雙向長時依賴關(guān)系,最后將學(xué)習(xí)到的表達(dá)進(jìn)行拼接形成全局特征。
Bi-LSTM的核心是LSTM單元,其內(nèi)部構(gòu)造如圖5所示。首先,由上一層輸出ht-1,細(xì)胞狀態(tài)信息Ct-1和原始數(shù)據(jù)x為輸入。其中,細(xì)胞狀態(tài)信息代表了上一層可以添加到下一層的信息。具體上, 如
圖5 LSTM內(nèi)部結(jié)構(gòu)
圖5的頂層通路所示,該通路貫穿整個LSTM單元,通過激活函數(shù)sigmoid和點乘單元組成的遺忘門來確定哪些信息得以遺忘,如公式(5)所示。
ft=σ(Wf[ht-1,xt]+bf)
(5)
式中:σ為sigmoid激活函數(shù);ht-1是上一層的輸出;xt為輸入數(shù)據(jù)。
之后,將狀態(tài)更新為當(dāng)前的狀態(tài)信息Ct,通過sigmoid函數(shù)來確定哪些數(shù)據(jù)保留,如公式(6)所示;通過tanh函數(shù)來確定哪些信息放入新的細(xì)胞狀態(tài)中,如公式(7)所示。然后結(jié)合上一細(xì)胞中要忘記的部分和當(dāng)前需要加入到細(xì)胞中的信息來更新細(xì)胞狀態(tài)Ct,如公式(8)所示。
最后,通過激活函數(shù)sigmoid函數(shù)過濾信息選擇輸出的內(nèi)容ht,通過點乘輸出內(nèi)容ot與需要輸出的細(xì)胞狀態(tài)來實現(xiàn),計算過程如公式(9)~(10)所示。
在意圖識別過程中,每一個子意圖對識別最終意圖的貢獻(xiàn)不同,比如在巡邏意圖中,“進(jìn)入巡邏區(qū)”與“離開基地”子意圖相比,對判斷作戰(zhàn)實體是否在執(zhí)行巡邏的貢獻(xiàn)度更大,甚至起決定性作用。所以,為了進(jìn)一步提高對意圖過程的表達(dá)能力,在經(jīng)過意圖特征聚合模塊后,需要對這些特征表示分配不同的權(quán)重代表對識別意圖的貢獻(xiàn)度。具體過程如下:
通過意圖特征聚合模塊后得到特征表示為[h1,…,hn]∈RN×W,基于注意力機制針對每一個hi,計算出hi與所關(guān)注對象的相關(guān)程度,以其作為權(quán)重對特征表示整合拼接,得到最終的表示[r1,r2,…,rn]。計算過程如公式(11)所述。
(11)
式中,αi為權(quán)重。
在完成意圖聚焦后,將帶有聚焦并攜帶全局特征的輸入送入前饋神經(jīng)網(wǎng)絡(luò),壓縮至意圖識別類別,再通過softmax函數(shù)輸出類別的概率。計算過程如公式(12)~(13)所示。
因為作戰(zhàn)意圖識別實際上是分類任務(wù),所以選擇softmax將輸出表示為概率的形式,交叉熵(cross-entropy loss)作為損失函數(shù)衡量損失,優(yōu)化器Adam[20]對損失最小化。softmax和交叉熵結(jié)合學(xué)習(xí)類別之間的信息并對正確標(biāo)簽預(yù)測準(zhǔn)確概率進(jìn)行評估[21]。Adam優(yōu)化算法參數(shù)采用默認(rèn)參數(shù),β1=0.9,β2=0.999,初始學(xué)習(xí)率設(shè)置為α=0.001。
為了驗證所提出的層次聚合模型對作戰(zhàn)意圖的識別能力,首先,在空中目標(biāo)意圖數(shù)據(jù)集上訓(xùn)練模型。然后,設(shè)計對比實驗證明本文方法的優(yōu)越性,將所提出模型與現(xiàn)有的一些簡單且高效的基線模型的識別準(zhǔn)確率進(jìn)行對比。最后,分別對行為特征感知、意圖特征聚合以及意圖聚焦3個模塊設(shè)計消融實驗驗證模型各個模塊的有效性。
將模型在空中目標(biāo)意圖數(shù)據(jù)集上訓(xùn)練,該數(shù)據(jù)集規(guī)模為帶標(biāo)簽數(shù)據(jù)27 452條,包括戰(zhàn)斗機的6種戰(zhàn)術(shù)任務(wù),即巡邏、偵察、攻擊、突防、規(guī)避和巡航。對樣本數(shù)據(jù)進(jìn)行切分得到數(shù)據(jù)片,由這些數(shù)據(jù)片組成樣本集。取70%為訓(xùn)練集,30%為測試集。以混淆矩陣的方式呈現(xiàn)模型識別結(jié)果。如圖6所示,可以直觀地看出混淆矩陣的對角線顏色較深,說明模型可以達(dá)到比較好的分類效果。進(jìn)一步地,分析混淆矩陣的結(jié)果可以得到,6類意圖中,攻擊、突防分類效果最好,這是由于這兩類意圖的辨識度較高。
圖6 層次聚合感知模型混淆矩陣
其中,攻擊意圖雖然樣本數(shù)量只有353條,但分類全部正確。而相反巡邏、規(guī)避與巡航3個意圖相似性較高,沒有攻擊與突防的識別效果好。其中,巡邏意圖有59條被預(yù)測為規(guī)避,57條被誤分類為巡航。規(guī)避和巡航分別有100條和99條被誤分類為巡邏。而對于偵察意圖,雖然辨識度不高,但是樣本數(shù)量大,所以分類效果也不錯,但還是有部分樣本被預(yù)測為巡航、巡邏與規(guī)避。
為了驗證所提模型的優(yōu)勢,本文對比了當(dāng)前基于深度學(xué)習(xí)的意圖識別模型,包括周旺旺等所采用的DNN[13],趙佳歡等所采用的RNN[15]以及王志剛等所采用的LSTM[17]。進(jìn)一步地,也對比了一些高效且簡單的基線模型,包括CNN[22]、GRU[23]以及Transformer[24]。將各個模型在空中目標(biāo)意圖數(shù)據(jù)集上訓(xùn)練,每個模型訓(xùn)練5次。公平起見,將空中目標(biāo)意圖數(shù)據(jù)進(jìn)行相同的預(yù)處理,并以相同的劃分輸入到上述模型中進(jìn)行意圖識別,最終將識別的各項評價指標(biāo)與本文所提出的模型進(jìn)行對比。結(jié)果如表1所示。
表1 不同模型識別效果對比
由對比實驗可知,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)模型由于增加深度會造成局部最優(yōu)的問題,并且沒有考慮到戰(zhàn)場作戰(zhàn)數(shù)據(jù)的時序性特點,所以難以達(dá)到較好的擬合效果;卷積神經(jīng)網(wǎng)絡(luò)模型雖然采用權(quán)值共享和局部連接結(jié)構(gòu)可以減少學(xué)習(xí)參數(shù)并提取局部特征,但由于也無法對時間序列上的變化進(jìn)行建模,所以準(zhǔn)確率也不是很好;循環(huán)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)時間序列信息,但標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)無法學(xué)習(xí)長時間依賴信息,而對于意圖識別場景,作戰(zhàn)數(shù)據(jù)之間包含長時的關(guān)聯(lián)關(guān)系,該關(guān)系反映了子意圖之間的依賴。所以,提取長時依賴關(guān)系的循環(huán)神經(jīng)網(wǎng)絡(luò)變體LSTM與GRU模型可以更好地表達(dá)意圖識別場景。為了在空中目標(biāo)意圖識別任務(wù)上達(dá)到更好的識別效果,本文所提出的層次聚合模型結(jié)合作戰(zhàn)過程中敵方作戰(zhàn)意圖識別場景的特點,雙向?qū)W習(xí)全局特征,實驗表明可以達(dá)到89.16%的F1值,在所有模型中識別率最好,證明本文模型具有在復(fù)雜戰(zhàn)場情況下準(zhǔn)確識別敵方目標(biāo)意圖的能力。
為了驗證所提模型各個模塊的有效性,設(shè)計3組消融實驗驗證每個模塊添加前后對作戰(zhàn)意圖識別準(zhǔn)確率的影響。分別將底層行為特征感知模塊、意圖特征聚合模塊與意圖聚焦模塊移除,將移除以后的模型在空中目標(biāo)意圖數(shù)據(jù)集上訓(xùn)練并測試識別意圖準(zhǔn)確率,以驗證每個模塊對模型識別準(zhǔn)確率的影響,確定模塊有效性。
不同模塊消融實驗的結(jié)果如表2所示,從該表可以看出,移除行為特征感知模塊之后,在測試集上的準(zhǔn)確率僅為82.1%,F1值為83.12%,相比于原模型,識別性能有大幅下降。移除了意圖聚合模塊之后,模型在測試集上的準(zhǔn)確率為84.48%,F1值為84.41%,相比于原模型,性能有所下降,但與移除行為特征感知模塊性能的降幅相比要相對低一些。移除了意圖聚焦模塊之后,在測試集上的準(zhǔn)確率為86.95%,F1值為87.39%,相比于原模型,性能下降了2%左右,相比于上面2個消融實驗的結(jié)果,顯然意圖聚焦模塊的存在對模型結(jié)果的影響最小。
表2 不同模塊消融實驗結(jié)果
3組消融實驗的混淆矩陣結(jié)果如圖7所示,其中圖7a)為移除行為特征感知模塊的實驗結(jié)果,從混淆矩陣看出,對角線上的正確結(jié)果相對降低。結(jié)合表2的結(jié)果,可以證明消除了機動性特征后,極度降低了模型表示能力。這說明,對基本的機動行為特征的學(xué)習(xí)對識別最終作戰(zhàn)意圖至關(guān)重要。這是由于目標(biāo)的機動行為構(gòu)成了最基本的飛行行為,所以對機動行為的感知是識別作戰(zhàn)意圖的前提。行為感知模塊通過濾波器在時序數(shù)據(jù)中提取行為的特征,這個操作中不同大小的卷積核在數(shù)據(jù)上滑動以感知低級的行為,將這些行為表達(dá)送入上層繼續(xù)學(xué)習(xí)可以提高模型表達(dá)能力,這是符合觀察行為細(xì)節(jié)以判斷整體意圖的基本邏輯的。
圖7b)為移除了意圖聚合模塊的混淆矩陣,結(jié)論與表2數(shù)據(jù)一致。性能有所下降原因是意圖聚合模塊的主要功能為感知和表達(dá)子意圖之間的雙向依賴關(guān)系,這可以為推斷意圖提供更多的信息,但它不是確定意圖的關(guān)鍵信息。
圖7c)為移除了意圖聚焦模塊的混淆矩陣,該矩陣與原模型效果相差最小。出現(xiàn)該結(jié)果的原因是意圖聚焦模塊對識別意圖來說能提供的信息對模型表達(dá)能力影響最小,該模塊的主要作用是對已學(xué)習(xí)到的特征表示分配權(quán)重,以影響作戰(zhàn)實體最終意圖的表示,所以是對已學(xué)習(xí)到的關(guān)鍵信息加以補充,但不是決定性信息。
圖7 各個模塊消融實驗結(jié)果
在本節(jié),分析了模型各個模塊參數(shù)的不同設(shè)置對模型表現(xiàn)的影響,其中包括行為感知模塊中的卷積層數(shù)和卷積核大小,意圖特征聚合模塊中的雙向長短時記憶單元數(shù)。實驗結(jié)果如圖8所示,圖8a)展示了卷積層數(shù)對模型準(zhǔn)確率的影響。雙層卷積層的性能最好,進(jìn)一步增加層數(shù)會增加模型的復(fù)雜性,導(dǎo)致過擬合使得模型性能下降。圖8b)展示了卷積核大小的影響。實驗結(jié)果表明空中目標(biāo)意圖數(shù)據(jù)集需要更多的卷積核才能達(dá)到最佳的識別能力,這是因為增加卷積核的數(shù)量可以感知到更多的行為特征。另外,Bi-LSTM單元的數(shù)量也會影響性能,實驗結(jié)果如圖8c)所示,模型中需要較少的單元來感知雙向依賴,最佳單位數(shù)為32。進(jìn)一步增加單元的數(shù)量也會增加模型的復(fù)雜性,并導(dǎo)致過擬合,使得模型性能下降。
圖8 參數(shù)實驗結(jié)果
1) 面對空中目標(biāo)作戰(zhàn)意圖任務(wù)的層次性和分解的子意圖序列具有長時相互依賴的特點,提出一種層次聚合模型以識別目標(biāo)作戰(zhàn)意圖。
2) 通過數(shù)據(jù)驅(qū)動的方法解決傳統(tǒng)作戰(zhàn)意圖識別中過于依賴領(lǐng)域?qū)<抑R進(jìn)行決策的問題,并對比分析了各個神經(jīng)網(wǎng)絡(luò)模型在該任務(wù)上的性能。
3) 與傳統(tǒng)方法相比,本文方法減少了人工成本以及對專家領(lǐng)域知識的依賴,與標(biāo)準(zhǔn)深度神經(jīng)網(wǎng)絡(luò)和標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)相比,解決了無法利用長時全局依賴關(guān)系以及特征聚焦的問題。通過消融實驗驗證了所提模型各個模塊的有效性。
在未來的工作中,將針對相似意圖分類效果不明顯的問題進(jìn)一步改進(jìn)模型,后續(xù)將開展多通道模型的研究以增強模型表達(dá)能力,從而提取空中目標(biāo)意圖數(shù)據(jù)集中更豐富的信息。