杜海文, 崔明朗, 韓統(tǒng), 魏政磊, 唐傳林, 田野
(1. 空軍工程大學(xué)航空工程學(xué)院, 西安 710038; 2. 94782部隊, 杭州 310004; 3. 福州大學(xué)物理與信息工程學(xué)院, 福州 350108)
隨著無人機技術(shù)的不斷發(fā)展,無人作戰(zhàn)飛行器(UCAV)的作用與地位也在不斷升高,在戰(zhàn)場上的意義越來越重要[1];由于不必考慮人身體條件限制,UCAV可以完全發(fā)揮出飛行器的性能,做出有人機難以做出的大過載機動,可以預(yù)見UCAV必將成為未來空中戰(zhàn)場的主角。而要實現(xiàn)高強度的空中對抗,UCAV必須脫離地面控制,具備自主空戰(zhàn)的能力,本文結(jié)合傳統(tǒng)優(yōu)化模型以及機器學(xué)習(xí)方法,建立了基于多目標優(yōu)化的機動決策模型,用于解決UCAV自主空戰(zhàn)時的機動決策問題。
關(guān)于空戰(zhàn)機動決策問題有很多研究成果(包含有人機與無人機),總的來說大致可以分為3類:①基于各類基本戰(zhàn)術(shù)動作庫的機動決策,文獻[2]最早對建立機動動作庫進行了系統(tǒng)的研究和總結(jié),文獻[3-4]分別就機動動作庫的設(shè)計、控制應(yīng)用以及基于動作庫的機動動作識別等問題進行了研究,詳細闡述了基于動作庫的機動決策中存在的各類問題。②基于優(yōu)化方法的機動決策,該類方法的共同點在于通過各類態(tài)勢評估方法將機動決策問題轉(zhuǎn)化為標準的優(yōu)化模型,文獻[5-6]基于各類不同的智能算法來求解優(yōu)化模型,文獻[7]基于各類態(tài)勢分析方法建立了隱馬爾可夫模型,并使用維比特算法進行求解。③基于機器學(xué)習(xí)方法的機動決策,機器學(xué)習(xí)方法研究在近年得到了極大的發(fā)展,采用各類機器學(xué)習(xí)方法研究機動決策也越來越多,文獻[8]應(yīng)用深度置信網(wǎng)絡(luò)來進行態(tài)勢評估,文獻[9]采用了強化學(xué)習(xí)方法研究空戰(zhàn)智能決策。
然而,以上方法在處理無人機空戰(zhàn)機動決策時都存在一些弊端:機器學(xué)習(xí)方法在處理類似對抗博弈問題時效果很好,但不同于有人機的空戰(zhàn)決策,無人機空戰(zhàn)基本不存在有學(xué)習(xí)價值的樣本;而各種基于動作庫的方法雖然是建立在大量空戰(zhàn)經(jīng)驗之上,但靈活性較差,且現(xiàn)在的空戰(zhàn)經(jīng)驗都是有人機的經(jīng)驗,無法確定其用在無人機上是否可靠。相比之下,傳統(tǒng)的優(yōu)化方法原理是基于對態(tài)勢分析的尋優(yōu),反而可以根據(jù)不同的飛行器性能和空戰(zhàn)環(huán)境得出實時性與靈活度都較強的決策,但是傳統(tǒng)優(yōu)化方法在整合不同態(tài)勢參數(shù)時缺少嚴謹?shù)姆椒?,且其決策結(jié)果隨著模型的確立就已經(jīng)確定下來,無法體現(xiàn)出對抗博弈的思想?;谏鲜龇治觯疚囊廊皇褂脙?yōu)化模型作為決策的核心思想,采用多目標優(yōu)化方法取代單目標優(yōu)化,并通過強化學(xué)習(xí)方法建立輔助決策網(wǎng)絡(luò),建立了具備實時對抗性的無人機空戰(zhàn)機動決策模型。
在對UCAV近距空戰(zhàn)進行機動決策與仿真時,采用三自由度質(zhì)點模型描述UCAV的運動狀態(tài),模型參數(shù)定義如圖1所示。
圖1 UCAV三自由度質(zhì)點模型Fig.1 UCAV three-degree-of-freedom particle model
1.1.1 模型假設(shè)
對建立UCAV運動、動力學(xué)模型作如下假設(shè):
1) 假設(shè)UCAV為一個剛體。
2) 假設(shè)地球為慣性坐標系(將地面坐標系看作慣性坐標,忽略地球自轉(zhuǎn)及公轉(zhuǎn)影響)。
3) 忽略地球曲率。
1.1.2 UCAV質(zhì)點模型
在考察UCAV運動時,將UCAV視為質(zhì)點。在慣性坐標系下,其質(zhì)點運動方程為
(1)
相同慣性坐標系下,UCAV的質(zhì)點動力學(xué)方程為
(2)
式中:vu為速度;γ為航跡傾角;ψ為航向角;μ為滾轉(zhuǎn)角;α為迎角;m為質(zhì)量;T為發(fā)動機推力;D為空氣阻力;L為升力;g為重力加速度。
飛行過程中,UCAV所受升力L與空氣阻力D計算公式如下:
(3)
式中:ρ為空氣密度;S為UCAV參考橫截面積;CL和CD分別為升力和阻力系數(shù)。
UCAV發(fā)動機推力T計算公式如下:
T=δTmax
(4)
式中:Tmax為發(fā)動機最大推力;δ為油門,取值范圍為[0,1]。
在控制量的選擇上,仿照有人機中飛行員的駕駛方式,采用迎角α、油門δ、滾轉(zhuǎn)角μ三個控制量來控制UCAV進行機動。
基于優(yōu)化方法的機動決策模型具有較高的決策效率與良好的實時性,但在尋優(yōu)過程中需要對多個目標參數(shù)進行合并,這樣的合并過程往往使用層次分析法、專家打分法等主觀性較強的方法來確定權(quán)值,缺少嚴格的證明過程,其決策結(jié)果難以使人信服。
事實上,在不同的空戰(zhàn)環(huán)境下,對于各個態(tài)勢參數(shù)的需求程度也是不同的,所以將不同態(tài)勢參數(shù)加權(quán)求和后進行優(yōu)化的方法本身就具有很大的局限性。為了避免這種局限性,本文結(jié)合多目標優(yōu)化思想,建立了多目標優(yōu)化機動決策模型。
1.2.1 多目標優(yōu)化思想
首先簡要介紹一些多目標優(yōu)化問題中的概念,在多目標優(yōu)化中,采用Pareto支配[10]關(guān)系來判斷解的優(yōu)劣程度,Pareto支配關(guān)系的定義如下。
定義1對于可行域內(nèi)任意2個解x1與x2,假設(shè)在最小化問題f(f1,f2,…,fk)中,當且僅當式(5)成立時稱x1對x2形成Pareto支配:
[?i∈{1,2,…,k},fi(x1)≥fi(x2)]∩
[?i∈{1,2,…,k},fi(x1)≥fi(x2)]
(5)
x1支配x2表示解x1優(yōu)于解x2,一般記作x1?x2。
由定義1可知,求解多目標優(yōu)化問題的本質(zhì)就是在全部可行解中找到所有不被任何一個其他可行解所支配的解的集合。將這個集合稱之為多目標優(yōu)化問題的Pareto邊界,具體定義如下。
定義2設(shè)多目標優(yōu)化問題f的可行解集為X,則其Pareto邊界為
(6)
多目標優(yōu)化的目的就是求出優(yōu)化問題的Pareto邊界。
1.2.2 優(yōu)化目標
使用優(yōu)化模型必然需要構(gòu)建優(yōu)化目標參數(shù),采用速度、高度、距離、角度[11-12]4個量作為優(yōu)化目標是最為常用的方法之一,但這些量的具體戰(zhàn)術(shù)意義還不夠明確,本文將基于空戰(zhàn)實際將這些參量進行耦合后提出了如下優(yōu)化目標參數(shù)。
1) 基于武器攻擊區(qū)的威脅參數(shù)
空戰(zhàn)的最終目的就是擊落敵方與保護己方,進行機動也正是為了使己方構(gòu)成武器發(fā)射條件和避免使對方構(gòu)成武器發(fā)射條件,故本文基于機載武器攻擊區(qū)的概念,結(jié)合與之相關(guān)的角度、距離等常規(guī)評估參數(shù),提出了一種新的威脅參數(shù)ηA作為一個優(yōu)化目標,參數(shù)模型以雙方攜帶彈藥類型為基礎(chǔ),具體定義如下。
① 常規(guī)條件下。制導(dǎo)武器一般以空空導(dǎo)彈為主,現(xiàn)在的空空導(dǎo)彈的攻擊區(qū)大致如圖2所示。
假設(shè)圖2中攻擊區(qū)為我機攜帶的第i枚導(dǎo)彈的攻擊區(qū),則該型導(dǎo)彈對敵機威脅參數(shù)為
(7)
式中:Rg為該導(dǎo)彈沿視線角αu方向上的最遠攻擊距離,由于部分導(dǎo)彈不具備全向打擊能力,故若在當前αu下Rg為0,則定義此刻ηai=0。
圖2 態(tài)勢參數(shù)定義Fig.2 Definition of situation parameters
根據(jù)上述方法計算出我機攜帶所有空空導(dǎo)彈對敵機威脅參數(shù)(ηa1,ηa2,…,ηan)后,取其中的最大值ηamax,即為我機當前對敵機的威脅參數(shù)ηa;采用相同方法計算出敵機對我機威脅參數(shù)后,取兩者之差即為總威脅參數(shù)值ηA:
ηA=ηa(ucav)-ηa(enemy)
(8)
② 僅使用非制導(dǎo)武器時??諏兆鲬?zhàn)非制導(dǎo)武器一般指航炮,由于航炮的發(fā)射條件比較苛刻,一般只在形成尾追時才能構(gòu)成發(fā)射條件,故直接使用雙方角度參數(shù)與距離參數(shù)進行耦合來定義其態(tài)勢參數(shù):
(9)
式中:Ra為航炮射程。
2) 能量參數(shù)
能量理論[13]是近期提出的一種空戰(zhàn)機動理論,該理論的核心在于:在空戰(zhàn)中首先尋求獲得能量上的優(yōu)勢,然后將能量優(yōu)勢轉(zhuǎn)化為態(tài)勢上的優(yōu)勢。能量理論隨著飛機性能的提升愈發(fā)受到重視,現(xiàn)在的飛機性能可以支持完成各種大過載機動、過失速機動等非常規(guī)動作,這使得飛機可以有更多方式扭轉(zhuǎn)不利的態(tài)勢。即使在常規(guī)的機動對抗中,能量也是一個不可忽略的條件,因為所有機動動作都是以消耗能量為前提,高能量就意味著更多的機會與選擇。故本文設(shè)置能量參數(shù)ηW作為一個優(yōu)化目標,計算公式如下:
(10)
式中:Wp和Wk分別為重力勢能與動能;Wst為能量標準化參數(shù);mu為我方UCAV質(zhì)量。
1.2.3 多目標優(yōu)化機動決策模型
決策模型結(jié)構(gòu)如圖3所示。
目前有很多種多目標算法可供使用,由于上述模型復(fù)雜度不高且機動決策對實時性有較高要求,考慮到灰狼算法在處理維數(shù)較低問題時收斂速度快,本文在仿真時采用多目標灰狼算法(MOGWO)[14-15]。
事實上,多目標優(yōu)化模型具有良好的可拓展性,在實際應(yīng)用時,可以根據(jù)實際空戰(zhàn)環(huán)境在以上2種優(yōu)化目標的基礎(chǔ)上添加其他新的優(yōu)化目標(如雷達性能、電子戰(zhàn)等),添加時只需將新的目標參數(shù)模型加入原優(yōu)化目標集即可,不需要對決策模型中的其他結(jié)構(gòu)進行任何變化。
圖3 多目標優(yōu)化機動決策模型結(jié)構(gòu)Fig.3 Structure of multi-objective optimization model for maneuver decision
1.2節(jié)提出了多目標優(yōu)化思想并建立了優(yōu)化參數(shù)的模型,但多目標優(yōu)化模型仍存在以下缺點:
1) 多目標優(yōu)化的結(jié)果是一個決策集,并沒有給出從決策集中的選擇具體決策的方法,如果不采用其他輔助決策方法,則只能從決策集中隨機選取決策。
2) 多目標優(yōu)化的本質(zhì)依然是優(yōu)化模型,未體現(xiàn)出空戰(zhàn)博弈的思想。
強化學(xué)習(xí)方法[16]在處理類似的對抗博弈決策中取得了很大成果,但由于無人機空戰(zhàn)決策問題的復(fù)雜度太高而難以實現(xiàn)。然而,如果在多目標優(yōu)化的基礎(chǔ)上進行強化學(xué)習(xí),強化學(xué)習(xí)任務(wù)的探索空間將大大減少,故本文以多目標優(yōu)化為決策基礎(chǔ),使用強化學(xué)習(xí)方法訓(xùn)練評價網(wǎng)絡(luò),用于對決策集中的決策進行評價與選擇,從而解決上述2點不足。
1.3.1 蒙特卡羅強化學(xué)習(xí)
強化學(xué)習(xí)任務(wù)通常用馬爾可夫決策過程(Markov Decision Process,MDP)來描述,任務(wù)對應(yīng)了四元組E=
雖然對于空戰(zhàn)中態(tài)勢評估的研究已較為完善,但考慮到空戰(zhàn)過程中機動動作往往是一系列的連續(xù)動作,即在完整的機動決策中,并非每一時刻都是為了追求最優(yōu)態(tài)勢。所以要設(shè)置符合要求的獎賞函數(shù)并不容易,而蒙特卡羅方法可以解決這個問題。
蒙特卡羅強化學(xué)習(xí)[17]的思路是采用多次“采樣”求平均獎賞的方式來近似對行為的評價,即系統(tǒng)從起始狀態(tài)下開始探索環(huán)境直至結(jié)束,將整個過程的獎賞作為過程中經(jīng)歷的每一個狀態(tài)st的一次累積獎賞,在多次采樣后,對每一個狀態(tài)st的累積獎賞取均值得到其獎賞值re。
就效率而言,蒙特卡羅強化學(xué)習(xí)比其他強化學(xué)習(xí)方法相去甚遠,在實踐中對蒙特卡羅方法的應(yīng)用也不是很廣泛,但本文模型的決策核心還是多目標優(yōu)化,強化學(xué)習(xí)任務(wù)只需對多目標優(yōu)化的決策結(jié)果進行評價與選擇,即強化學(xué)習(xí)的行為空間A為一個已經(jīng)經(jīng)過篩選的較小空間,故收斂速度必然大大提升,從而使蒙特卡羅方法具備了可行性。
1.3.2 基于神經(jīng)網(wǎng)絡(luò)的值函數(shù)近似
初始的強化學(xué)習(xí)方法都是針對離散的狀態(tài)-動作空間來進行的,但對于空戰(zhàn)而言,其狀態(tài)空間與動作空間都是連續(xù)的高維空間,進行離散化處理顯然不是合適的方法。在類似的高維連續(xù)空間強化學(xué)習(xí)中,往往采用值函數(shù)近似的方法來進行連續(xù)空間的強化學(xué)習(xí)。
值函數(shù)近似[18]指的是通過一個函數(shù)φ建立從狀態(tài)St到狀態(tài)獎賞值的映射:φ:St→Re。考慮到空戰(zhàn)決策問題的復(fù)雜性,最終的近似函數(shù)必然是復(fù)雜非線性函數(shù),而神經(jīng)網(wǎng)絡(luò)在擬合復(fù)雜非線性函數(shù)時具備較好的性能, Hornik等[19]在1989年就證明了只需一個隱層的BP神經(jīng)網(wǎng)絡(luò)可以逼近任何閉區(qū)間的連續(xù)函數(shù),故本文將訓(xùn)練一個三層的BP神經(jīng)網(wǎng)絡(luò)來擬合值函數(shù),用以對多目標決策集進行評價。隱層節(jié)點數(shù)將依照以下經(jīng)驗公式進行設(shè)計:
(11)
式中:lno為隱層節(jié)點數(shù);nno和mno分別為輸入和輸出節(jié)點數(shù);ano為1~10之間的調(diào)節(jié)常數(shù)。
結(jié)合對輔助決策網(wǎng)絡(luò)功能的需求,網(wǎng)絡(luò)具體設(shè)置如下:
1) 將空戰(zhàn)態(tài)勢(即狀態(tài)量)作為輸入層,利用si{R,αu,αe,Δh,Δv}5個參數(shù)來描述空戰(zhàn)態(tài)勢,即網(wǎng)絡(luò)輸入層節(jié)點數(shù)為5,Δh為兩機高度差,Δv為速度差。
2) 網(wǎng)絡(luò)輸出為對輸入態(tài)勢下我機獲勝期望的預(yù)測值ν([0,1]之間的數(shù),ν值越大代表獲勝期望越大),輸出層節(jié)點數(shù)為1。
3) 神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用LM(Levenberg-Marquardt)方法,其中BP誤差計算類似于時序差分(TD)方法[20]誤差計算公式,但由于模型采用蒙特卡羅方法,只能使用每次仿真結(jié)果作為本次仿真所經(jīng)歷狀態(tài)的統(tǒng)一獎賞值,具體計算公式如下:
(12)
式中:αRL為學(xué)習(xí)率,一般根據(jù)訓(xùn)練次數(shù)確定;γRL為折扣率,本文取γRL=0.4;r為獎賞值,r值由仿真結(jié)果rend給出,rend取值為0、0.5或1(對應(yīng)失敗、平局或勝利);n為本次仿真經(jīng)歷的總步數(shù);i為當前狀態(tài)步數(shù)。
4) 結(jié)合隱層節(jié)點數(shù)經(jīng)驗公式,通過實際仿真效果,選擇隱層節(jié)點數(shù)為12。
1.3.3 輔助決策模型
輔助決策網(wǎng)絡(luò)的強化學(xué)習(xí)模型訓(xùn)練步驟如下:
步驟1初始化輔助決策網(wǎng)絡(luò)。
步驟2隨機產(chǎn)生敵我雙方初始位置狀態(tài),開始仿真模擬。
步驟3記錄下當前敵我態(tài)勢關(guān)系sii,由多目標決策模型得出決策集(敵機可以采用與我機相同策略進行機動,或根據(jù)實際需求預(yù)先設(shè)置其軌跡)。
步驟4預(yù)測每種決策后敵我態(tài)勢關(guān)系,進而通過輔助決策網(wǎng)絡(luò)得出對應(yīng)的獲勝期望{ν1,ν2,…,νn}。
步驟5從決策集中隨機選取出最終執(zhí)行的決策,每種決策的被選取概率為
(13)
步驟6執(zhí)行決策后判斷是否達到空戰(zhàn)結(jié)束條件,若未達到,返回步驟3;若已達到,進入步驟7。
步驟7對本次仿真所經(jīng)歷的所有狀態(tài)si,通過式(12)計算BP誤差返回輔助決策網(wǎng)絡(luò)用于網(wǎng)絡(luò)更新。
步驟8判斷是否達到最大訓(xùn)練次數(shù),若未達到,返回步驟2。
注意:訓(xùn)練過程中,若敵機采用相同的決策模型,則雙方數(shù)據(jù)均可通過步驟7中的網(wǎng)絡(luò)更新;若敵機采用預(yù)先設(shè)置好的其他機動方法,則只有我方數(shù)據(jù)可用于網(wǎng)絡(luò)更新。
結(jié)合1.2節(jié)和1.3節(jié)描述的多目標決策模型與輔助決策網(wǎng)絡(luò),機動決策模型整體框架如圖4所示。
圖4 機動決策模型結(jié)構(gòu)Fig.4 Structure of maneuvering decision model
由于本文機動決策涉及模型較多,故在仿真時將針對各個模型予以驗證,仿真環(huán)境及參數(shù)設(shè)置如下。
仿真時,敵我飛行器采用相同的參數(shù),質(zhì)量m=14 680 kg,參考截面積S=49.24 m2,高度限制為h∈[1,12] km,速度限制為v∈[80,400] m/s,迎角限制為α∈[-10°,30°];發(fā)動機采用F-4渦噴發(fā)動機數(shù)據(jù)[21],其最大推力采用式(14)擬合:
(14)
升力系數(shù)和阻力系數(shù)采用式(15)擬合[22]:
(15)
考慮到本文未針對探測能力設(shè)置優(yōu)化函數(shù),故訓(xùn)練時設(shè)置雙方均只使用航炮進行近距空戰(zhàn)(近距格斗時電子戰(zhàn)作用較小,但對機動決策模型有較高要求),所有仿真中決策步長為1 s;訓(xùn)練過程中,判定相互脫離距離為15 km;攻擊條件設(shè)置為αu∈[-20°,20°]且R<2.5 km(參數(shù)定義見圖2),滿足攻擊條件3 s視為進行有效攻擊;任意一方進行有效攻擊或雙方脫離則仿真結(jié)束。
仿真實驗在Matlab 2013a下進行,運行環(huán)境為Inter(R)Core(TM)i5-2310處理器,3.40 GB內(nèi)存。
1) 時間可行性
由于輔助網(wǎng)絡(luò)在決策時的耗時遠小于多目標優(yōu)化,故首先驗證多目標優(yōu)化方法的實時性,本文采用MOGWO作為求解模型的算法,隨機產(chǎn)生100組敵我態(tài)勢并使用算法尋優(yōu),仿真時灰狼種群與外部種群數(shù)均設(shè)置為30,迭代次數(shù)為3次。
采用MATLAB自帶的計時功能記錄了100次決策時間,決策平均時長t=0.286 541 s,遠小于決策步長1 s,故決策模型具有良好的實時性。
為了展示尋優(yōu)效果,圖5記錄了上述實驗過程中的一次尋優(yōu)的結(jié)果,其中紅點為算法尋優(yōu)結(jié)果,藍點為可行域的大致范圍(通過窮舉法得出),可以看出MOGWO可以在上述條件下找到基本完整、均勻的Pareto邊界。
2) 決策可行性
驗證通過多目標優(yōu)化方法決策集的可行性,仿真時隨機產(chǎn)生100組初始態(tài)勢,敵機按初始態(tài)勢做勻速直線運動,我機在不使用輔助網(wǎng)絡(luò)的情況下進行機動,即決策時從多目標優(yōu)化的決策集中按等概率隨機選取最終決策,每組仿真模擬75 s的空戰(zhàn)情形(若在75 s內(nèi)達到結(jié)束條件則提前結(jié)束仿真)。
圖6記錄了100組仿真中我方優(yōu)化目標函數(shù)在每秒的平均值(提前結(jié)束的組自結(jié)束起至75 s的目標函數(shù)值均按結(jié)束時的目標函數(shù)值記錄)。
圖5 算法尋優(yōu)效果Fig.5 Algorithm optimization result
通過圖6可知,我機態(tài)勢在多目標優(yōu)化方法的決策下明顯優(yōu)于初始時刻,且過程中威脅參數(shù)基本始終保持遞增,而能量參數(shù)僅出現(xiàn)一次大幅下降后同樣保持遞增(初始的大幅機動必然會導(dǎo)致能量損失)。
為了更直觀地展示多目標優(yōu)化的性能,圖7記錄了在相同初始條件下進行2次重復(fù)實驗的結(jié)果(其中紅色為我方軌跡,藍色為敵方軌跡),在初始條件相同的2次仿真中,我方做出了2次不同但均有效的機動。
圖6 目標函數(shù)變化趨勢Fig.6 Change trend of objective function
圖7 仿真軌跡(相同初始條件)Fig.7 Simulation trajectory map (the same initial conditions)
為了驗證輔助決策模型的有效性,按照1.3節(jié)中的強化學(xué)習(xí)模型訓(xùn)練輔助決策網(wǎng)絡(luò),訓(xùn)練總次數(shù)為20 000次,訓(xùn)練中雙方戰(zhàn)機采用相同的決策模型。
為了實時反映訓(xùn)練效果,每進行200次訓(xùn)練就對輔助模型性能進行一次檢測;檢測方法類似2.1節(jié)中驗證決策可行性的實驗方法,但我機在決策時采用輔助網(wǎng)絡(luò)(即使用1.4節(jié)決策模型),為了節(jié)省時間,每次檢測重復(fù)200次且僅記錄最終結(jié)果,測試結(jié)果如圖8所示。
由測試結(jié)果可以看出,隨著訓(xùn)練次數(shù)的增加,我方的獲勝次數(shù)明顯得到了提升,獲勝概率從25%左右提升到50%左右,說明在輔助網(wǎng)絡(luò)的幫助下,模型可以給出更為有效的決策。此外,由于雙方初始位置為隨機產(chǎn)生,每次測試中必然會出現(xiàn)少數(shù)極端不利的初始條件,故測試結(jié)果中一直存在一定的失敗次數(shù)。
為了進一步體現(xiàn)輔助網(wǎng)絡(luò)的效果,使用帶輔助網(wǎng)絡(luò)的決策模型與僅使用多目標優(yōu)化方法的決策模型進行對抗仿真(將僅使用優(yōu)化方法的一方視為敵機),為了使仿真結(jié)果更具代表性,初始態(tài)勢將在一定范圍內(nèi)隨機產(chǎn)生,具體約束條件如下。
1) 初始有利(αe+αu∈[0°,90°])。
2) 初始均勢(αe+αu∈(90°,270°))。
3) 初始不利(αe+αu∈[270°,360°])。
在3種情形下各進行100次對抗仿真,結(jié)果如表1所示。
圖8 輔助決策模型性能測試結(jié)果Fig.8 Test results of auxiliary decision model’s performance
初始條件獲 勝平 局失 敗初始有利59410初始均勢325117初始不利113950
通過仿真結(jié)果可知,在使用了輔助網(wǎng)絡(luò)后,決策模型可以做出更高效、更具有對抗性的決策,平均獲勝概率提升了11.7%。
為了體現(xiàn)本文機動決策模型的性能,設(shè)置了2種情形下的空戰(zhàn)環(huán)境,其中敵機采用的機動均為經(jīng)典的戰(zhàn)術(shù)動作,我機采用基于多目標優(yōu)化的機動決策模型,輔助決策網(wǎng)絡(luò)采用2.2節(jié)仿真實驗中訓(xùn)練出來的神經(jīng)網(wǎng)絡(luò)。
1) 情形1中,我機初始處于較優(yōu)的態(tài)勢環(huán)境,敵機采用“S型”機動進行規(guī)避,仿真結(jié)果如圖9所示。圖中紅色為我方,藍色為敵方,軌跡上的飛機模型表示飛機當前姿態(tài),相鄰2個模型時間間隔為4 s。
圖10分別給出了空戰(zhàn)過程中雙方攻擊判定條件(視線角與距離,我機視線角αu的定義見圖2,敵機視線角即為π-αe)以及我方?jīng)Q策得出的控制量的實時變化情況。
通過仿真數(shù)據(jù)可知,初始條件下我方占據(jù)較大優(yōu)勢,決策模型根據(jù)敵方位置調(diào)整我方視線角以形成攻擊條件;但由于我方速度較大且敵方采取“S型”機動,在20 s左右我方基本完成轉(zhuǎn)向后存在超越敵方的風險;決策模型采用了類似異面機動的原理,先適當俯沖再拉起機頭以避免戰(zhàn)機沖前,在拉起機頭的過程中再次調(diào)整視線角;從第44 s開始對敵方形成有效攻擊條件并保持,47 s時達到仿真結(jié)束條件,我方獲勝。
情形2中,我方初始處于不利條件,但由于距離敵機較遠,故存在機動規(guī)避的空間;敵機采用“純跟蹤”的方法試圖接近并攻擊我方,仿真結(jié)果如圖11所示(圖中標記同情形1)。
圖9 仿真軌跡(初始有利)Fig.9 Simulation trajectory map (favorable initial conditions)
圖10 態(tài)勢關(guān)系與控制量(初始有利)Fig.10 Situation relationship and control quantity (favorable initial conditions)
圖12分別給出了空戰(zhàn)過程中雙方攻擊判定條件(視線角與距離)以及我方?jīng)Q策得出的控制量的實時變化情況。
通過仿真數(shù)據(jù)可知,初始我方處于不利態(tài)勢,決策模型選擇在向右機動規(guī)避的同時拉起機頭;爬升的過程必然會損失動能,故雙方距離逐漸縮小,15s左右時,敵方開始右轉(zhuǎn)以保持態(tài)勢優(yōu)勢;由于此時我方速度較低,具有更小的轉(zhuǎn)彎半徑,決策模型選擇向右下方急轉(zhuǎn)接敵,并在第29 s搶先形成攻擊條件并保持,32 s時達到仿真結(jié)束條件,我方獲勝。
圖11 仿真軌跡(初始不利)Fig.11 Simulation trajectory map (adverse initial conditions)
圖12 態(tài)勢關(guān)系與控制量(初始不利)Fig.12 Situation relationship and control quantity (adverse initial conditions)
本文提出了多目標優(yōu)化與強化學(xué)習(xí)相結(jié)合的機動決策模型,模型融合了傳統(tǒng)優(yōu)化方法與機器學(xué)習(xí)方法的優(yōu)點:
1) 多目標優(yōu)化方法解決了傳統(tǒng)優(yōu)化方法中處理目標函數(shù)權(quán)重的問題,增加了決策模型的可信度和可拓展性。
2) 多目標優(yōu)化方法繼承了傳統(tǒng)優(yōu)化方法的優(yōu)點,可以進行實時有效的機動決策。
3) 多目標優(yōu)化的決策集直接給出了足夠的可執(zhí)行決策,極大程度上簡化了動作空間,使強化學(xué)習(xí)任務(wù)具備了可行性。
4) 通過強化學(xué)習(xí)建立輔助決策網(wǎng)絡(luò),從而可以在多目標優(yōu)化決策集中做出更好的選擇,彌補了優(yōu)化方法在對抗、博弈問題上的不足。
由于本文重點在于結(jié)合傳統(tǒng)優(yōu)化方法和機器學(xué)習(xí)方法,在設(shè)置優(yōu)化目標時僅針對較為理想的仿真環(huán)境設(shè)置了2個目標,設(shè)置在復(fù)雜電磁環(huán)境下新的目標函數(shù)模型是下一步的改進方向。