郭凇岐,安 康*,孫藝夫,施育鑫,朱勇剛,梁 濤
(1.南京信息工程大學 電子與信息工程學院,江蘇 南京 210000;2.國防科技大學第六十三研究所,江蘇 南京 210007;3.國防科技大學 電子科學學院,湖南 長沙 410073)
隨著無線通信向移動化、異構化、全球化和多網(wǎng)系融合的方向發(fā)展,以及星載處理性能的大幅提升和空間組網(wǎng)關鍵技術的突破,基于不同軌道的衛(wèi)星、空中平臺(HAP)、無人機(UAV)和地面輔助中繼的空天地融合網(wǎng)絡(Satellite-Aerial-Terrestrial Integrated Network,SATIN),能夠為全球廣域空間范圍內(nèi)的各種應用提供協(xié)同、高效和安全的信息保障,在各個領域都引起了極大關注[1]。一體化組網(wǎng)方式下的融合架構能夠充分挖掘時域、頻域、空域等多維空閑頻譜資源,具有全局信息處理、靈活部署、廣泛覆蓋范圍等優(yōu)勢[2]。
當前應用中繼協(xié)同通信技術被廣泛研究,文獻[3]研究了混合衛(wèi)星地面通信網(wǎng)絡最優(yōu)中繼選擇策略下系統(tǒng)中斷概率和誤碼率性能,文獻[4]分析了基于地面中繼到用戶鏈路部分策略下系統(tǒng)中斷概率性能。此外,文獻[5]進一步在文獻[4]工作的基礎上,提出了聯(lián)合中繼選擇和功率分配的協(xié)作傳輸方案。針對多用戶星地協(xié)同傳輸網(wǎng)絡,文獻[6]提出了一種針對實時業(yè)務的多用戶協(xié)同傳輸方案。針對多中繼參與的多用戶星地協(xié)同傳輸場景,文獻[7]提出了一種基于中繼和用戶聯(lián)合選擇的協(xié)同傳輸方案。針對存在非法竊聽用戶的場景,文獻[8]分析了最優(yōu)中繼選擇方案對星地協(xié)同網(wǎng)絡安全性能的影響。文獻[9]針對LEO衛(wèi)星協(xié)作傳輸場景,對LEO單層協(xié)同中繼選擇算法展開了研究,提出基于遍歷容量中繼選擇算法。目前,大部分文獻研究針對地面中繼,而應用高空平臺作為協(xié)同中繼研究甚少,本文將選擇高空平臺作為中繼協(xié)同傳輸衛(wèi)星信號。
SATIN具有廣域的覆蓋范圍,但不可避免受到帶寬不足和潛在的傳輸延遲影響,無法滿足日益增長的通信需求。近來,無線緩存已經(jīng)被證明是一種有效的方法,其可以提高衛(wèi)星通信(Satellite Communications,SATCOM)的服務質(zhì)量(Quality-of-Service,QoS),比如延遲和吞吐量[10-11]。通過將緩存概念結合到協(xié)作傳輸中,集中式和分布式節(jié)點能夠存儲頻繁需要的業(yè)務內(nèi)容并方便快速地服務于用戶請求,而不是先接受用戶請求然后重傳用戶需要的業(yè)務內(nèi)容,因此可以大大緩解包括帶寬不足和傳輸延遲等在內(nèi)的內(nèi)在問題[12]。近年來,深度學習已被廣泛應用于無線通信領域,包括無線傳輸、性能評估、頻譜管理、資源配置、網(wǎng)絡接入、網(wǎng)絡及系統(tǒng)優(yōu)化,解決了傳統(tǒng)無線通信技術面對信息爆炸和萬物互聯(lián)等新發(fā)展趨勢所遇到的瓶頸問題[13]。受傳統(tǒng)最小均方誤差(Minimum Mean Square Error,MMSE)信道估計器的啟發(fā),文獻[13]提出了一種基于深度學習(Deep Learning,DL)的MMSE 信道估計方案。具體來說,作者首先根據(jù)MMSE估計器的結構設計深度神經(jīng)網(wǎng)絡(Deep Neural Network,DNN)結構,在信道協(xié)方差矩陣為拓普利茲矩陣(Toeplitz Matrix)的假設下,利用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)來降低DNN的計算復雜度。文獻[14]考慮一個單用戶多天線的頻譜感知系統(tǒng),根據(jù)信號協(xié)方差矩陣與圖片的相似性,采用CNN從接收信號的協(xié)方差矩陣提取檢驗統(tǒng)計量,然后基于該檢驗統(tǒng)計量進行判決。
本文采用SATIN系統(tǒng)模型,應用高空平臺作為中繼協(xié)同傳輸衛(wèi)星信號,衛(wèi)星網(wǎng)絡作為發(fā)射端,地面目標用戶作為接收端,實現(xiàn)了空天地融合網(wǎng)絡協(xié)同通信。為了實現(xiàn)高效率協(xié)同傳輸將無線緩存納入到SATIN中,考慮了兩種典型的中繼緩存方案,即最多訪問業(yè)務緩存(Most Popular Content Caching,MPCC)方案和均勻緩存(Uniform Caching,UC)方案,將中繼和緩存相結合,打破了傳統(tǒng)模式下的一發(fā)一收策略,給中繼系統(tǒng)在選擇收發(fā)信息上提供了更多的自由,使協(xié)作中繼的傳輸更加靈活多變,在提升協(xié)作網(wǎng)絡吞吐量、無線覆蓋范圍和邊緣用戶服務質(zhì)量的同時,降低了回程鏈路開銷和額外時延。最后采用了一種改進后的CNN對不同緩存方案下的OP值進行預測,將空天地融合網(wǎng)絡性能評估智能化,一定程度上解決了傳統(tǒng)網(wǎng)絡性能評估方法效率低的問題。
本文采用放大轉發(fā)型(Amplify-and-Forward,AF)SATIN系統(tǒng)模型,它由一個衛(wèi)星節(jié)點(S)、地面目標用戶節(jié)點(D)和K個高空平臺中繼節(jié)點(Rk,k∈[1,2,….,K])組成,如圖1所示,其中設定每個高空平臺中繼節(jié)點都具有單根天線。
圖1 系統(tǒng)模型Fig.1 System model
S-Rk和Rk-D兩條鏈路的信道系數(shù)用hk和gk表示,S和R處的發(fā)射功率用Ps和Pr表示,并且每個中繼節(jié)點處都加有加性高斯白噪聲(Additive White Gaussian Noise,AWGN)。
通常而言,S和D之間的直達徑(Line of Sight,LOS)是不存在的。所以,最終D處的信噪比(Signal-to-Noise Ratio,SNR)可以表示為[15-16]:
(1)
其中,
式中,Ωk表示LOS平均功率,2bk表示多徑平均功率,mk表示衰落嚴重程度[18]。
R-D鏈路服從Nakagami-m分布信道衰落特性,其PDF可以表示為:
本文選用具有緩存功能的Rk,能夠輔助存儲和傳輸用戶請求訪問的業(yè)務。為了平衡復雜性和效率之間的關系,在每個時隙期間從中繼集群中選擇一個中繼節(jié)點。為了獲得最大信噪比,無緩存方案的最優(yōu)中繼選擇策略為:
(2)
(3)
式中,ζ表示Zipf分布系數(shù),當ζ取值越大,表明Zipf分布越密集,即該業(yè)務請求次數(shù)越大、訪問量越多,反之則亦然,此次選擇兩種典型的中繼緩存方案,具體細節(jié)如下。
最多訪問業(yè)務緩存方案(MPCC)假設有K個中繼協(xié)作傳輸?shù)膱鼍?,且每個中繼的緩存大小都為C。在MPC方案下,所有中繼節(jié)點同時緩存C個最受歡迎的業(yè)務。對于任意第n個業(yè)務,目標用戶選擇緩存中繼中鏈路通信質(zhì)量最好的一條進行通信。
中斷概率函數(shù)定義為終端接收信噪比γ低于閾值信噪比γth的概率[16]:
Pout=Pr{γ≤γth}=Fγ(γth),
(4)
式中,F(xiàn)γ(x)為累積分布函數(shù)(Cumulative Distribution Function,CDF)。
首先,從對比分析的角度給出了傳統(tǒng)無緩存方案最優(yōu)中繼選擇的OP:
(5)
式中,Rth表示閾值傳輸速率,進一步
(6)
式中,γth=2Rth-1。Fγk(x)可以表示為:
(7)
由第一節(jié)中得到的fγ1,k(x)推得Fγ1,k(x)表達式為:
(8)
其中,
將式(8)和fγ2,k(y)帶入式(7),先經(jīng)過變量代換z=y-x,后結合下述積分公式[18]:
可以得到最終Fγk(x)的表達式:
(9)
將式(9)帶入式(6),可得到無緩存方案下基于最優(yōu)中繼選擇策略的OP閉合表達式。
無中繼緩存能力的AF SATIN作為性能比較的基準。由于允許具有相同業(yè)務的中繼協(xié)同傳輸所需業(yè)務,因此傳統(tǒng)的中繼選擇方案將不適用。隨后將討論不同緩存放置策略的中繼選擇方案。
MPC方案下星地網(wǎng)絡協(xié)同傳輸?shù)腛P為:
(10)
(11)
(12)
式中,γth=2Rth-1。
UC方案下星地網(wǎng)絡協(xié)同傳輸?shù)腛P為:
(13)
式中,Φ1表示UC方案下被呼叫業(yè)務n不在緩存中繼里存儲的概率。此方案與MPC方案不同之處在于此方案下,無論信道條件如何都可以確定R-D信道的中斷概率。Φ2表示緩存中繼節(jié)點與目標用戶通信過程中發(fā)生中斷的概率。
(14)
進一步可表示為:
(15)
式中,γth=2Rth-1。
本節(jié)構建了一個CNN來對OP值進行預測。
數(shù)據(jù)集表示為Ti,Ti={Xi,Yi}。共有12個輸入?yún)?shù)構成輸入集Xi,輸出Yi對應于OP。
無緩存方案下的輸入為Rth,γmin,γmax,m1,b1,Ω1,m2,Ω2,K。
MPC和UC方案下的輸入為Rth,γmin,γmax,m1,b1,Ω1,m2,Ω2,K,ζ,C,N。
其中,γmin和γmax為信噪比界值,m1,b1,Ω1為Rician信道參數(shù),m2,Ω2為Nakagami-m信道參數(shù),K為用戶數(shù),C為緩存容量,N為業(yè)務數(shù)。
與圖像信號相比,通信信號中的特征數(shù)量是有限的。然而,池化層可能會移除對CNN預測輸出有重要影響的特征。為了避免丟失重要的特征信息,本文設計了一個不帶有池化層結構的改進后CNN神經(jīng)網(wǎng)絡,如圖2所示,其包含輸入層、三層卷積層、全連接層和輸出層。
圖2 CNN網(wǎng)絡結構Fig.2 CNN neural network structure
在設計此改進版的CNN時,設計步驟如下。
(1) 數(shù)據(jù)預處理
Ti是二維數(shù)據(jù),CNN只能處理三維數(shù)據(jù)。因此,二維數(shù)據(jù)(14×1)在數(shù)據(jù)預處理過程中轉化為三維數(shù)據(jù)(14×1×1)。
(2) 卷積層
CNN神經(jīng)網(wǎng)絡中有3個卷積層。每層卷積層中,有32個、大小為6×1的卷積核。每個卷積層之間選用非線性激活函數(shù)ReLU連接。數(shù)據(jù)經(jīng)過預處理后,途經(jīng)輸入層進入卷積層1,輸入經(jīng)ReLU激活函數(shù)處理后再進入卷積層2,以此類推。ReLU函數(shù)表示為:
ReLU(x)=max(0,x)。
(16)
(3) 全連接層
全連接層將錯綜復雜的三維數(shù)據(jù)轉換為一維數(shù)據(jù)。全連接層一共有兩層,每層全連接層有128個神經(jīng)元,通過Tanh激活函數(shù)輸出。Tanh函數(shù)表示為:
(17)
首先,選擇CNN模型訓練方法,現(xiàn)有的CNN模型訓練方法包括:批量梯度下降(Stochastic Gradient Descent,SGD)算法和小批量梯度下降(Mini-Batch Gradient Descent,MBGD)算法。但是采用BGD算法會導致單次迭代時間過長,而采用SGD算法會導致下降速度慢,陷入局部最優(yōu)值,降低學習效率。因此,本文選擇了學習速度最快的MBGD算法。它的優(yōu)點如下:① CNN模型訓練可以獲得矢量運算帶來的加速度;② CNN模型訓練可以在不處理整個數(shù)據(jù)集的情況進行。
選擇優(yōu)化器對CNN模型進行訓練,在當前已測試的優(yōu)化器中,動量隨機梯度下降(SGD with Momentum,SGDM)優(yōu)化器、均方根傳遞(Root Mean Square Prop,RMSProp)優(yōu)化器和自適應矩陣估計(Adaptive Moment Estimation,Adam)優(yōu)化器已被廣泛應用。對于Adam優(yōu)化器來說,它大大減小了梯度下降的抖動,使神經(jīng)網(wǎng)絡參數(shù)快速逼近最優(yōu)值。比較預測結果后,本文選擇Adam優(yōu)化器作為CNN模型訓練的優(yōu)化器。
CNN預測選用的性能指標為均方誤差(Mean Squared Error,MSE)[20],表示為:
(18)
圖3給出了OP預測算法。預測算法主要分為以下步驟:
圖3 OP預測算法流程圖Fig.3 Flow chart of OP prediction algorithm
首先,由上節(jié)推導出的3種緩存方案下的OP閉合表達式分別產(chǎn)生6 400組數(shù)據(jù)集,經(jīng)數(shù)據(jù)預處理后打亂,將上述處理過的數(shù)據(jù)集分為訓練集和測試集, 6 350組用于CNN模型訓練,50組用于OP值預測。
其次,設計了一個改進的CNN來預測OP,改進后的CNN采用了三層卷積層,其卷積核大小為6×1。
再者,將訓練集輸入到改進后的CNN中,以獲得最佳OP預測CNN模型。在這個過程中,需要判斷所得的CNN模型是否能滿足預測準確率要求,并調(diào)整CNN網(wǎng)絡參數(shù)。
最后,將測試集輸入到最佳CNN預測模型中,得到最佳OP預測結果。
利用Matlab2020a作為仿真軟件,第一部分仿真模擬評估了不同中繼緩存方案對SATIN OP性能的影響。仿真參數(shù)設置為Ps=2Pr,N=1 000,衛(wèi)星鏈路的Shadowed-Rician信道參數(shù)設置b1=0.063,m1=1,Ω1=8.97×10-4[15,17]。地面鏈路的Nakagami-m信道參數(shù)設置為m2=1,Ω2=1。
圖4給出了緩存容量C相同的情況下,不同中繼緩存方案下OP性能比較。
(a)ζ=0.7Zipf參數(shù)場景
(b)ζ=2Zipf參數(shù)場景圖4 不同緩存放置方案的OP性能Fig.4 OP performance under different caching schemes
同前文,傳統(tǒng)無緩存方案作為與其他方案比較的基準。由圖4可以看出,對于低Zipf參數(shù)場景(ζ=0.7)和高Zipf參數(shù)場景(ζ=2),MPC和UC方案OP性能明顯優(yōu)于傳統(tǒng)無緩存方案OP性能。對于低Zipf參數(shù)場景,UC方案OP性能優(yōu)于MPC方案OP性能,因為低Zipf參數(shù)值意味著更一致的業(yè)務訪問請求。相反,對于高Zipf參數(shù)場景(即訪問業(yè)務的受歡迎程度更集中),UC方案會失去信號協(xié)同增益,所以MPC方案實現(xiàn)了更低的OP值。
圖5給出了在不同緩存容量C的情況下,MPC方案與UC方案之間的OP性能比較。觀察可知,對于低Zipf參數(shù)值,MPC和UC方案的OP性能都隨著C的增加而提高。但是,在高Zipf參數(shù)場景下,UC方案的OP性能沒有隨著C的增大而提高,是因為C對受歡迎的業(yè)務訪問請求影響較小。
(a)ζ=0.7Zipf參數(shù)場景
(b)ζ=2Zipf參數(shù)場景圖5 不同緩存容量C的OP性能Fig.5 OP performance under different caching capacities
第二部分,利用設計好的CNN對OP值進行預測。輸入?yún)?shù)設定Rth=0,γmin=0,γmax=20,m1=1,b1=0.063,Ω1=8.97×10-4,m2∈[1,20],Ω2=1,K∈[2,5],ζ∈[0.5,2],C∈[50,200],N∈[800,1200]。本次CNN預測分為兩種情況:第一種情況是針對SNR為固定值情況下,利用CNN分別對3種不同緩存方案下的OP值進行預測;第二種情況利用CNN對3種不同緩存方案下的OP值進行預測,并尋求與關鍵參數(shù)SNR的關系。
第一種情況的預測參照圖6和圖7。其設置的MiniBatchSize為100,初始學習率為0.005。從圖6和圖7不難看出,CNN針對3種不同緩存方案下的OP預測效果甚優(yōu),誤差MSE在10-3浮動,能準確預測OP值。
(a) 無緩存方案
(b) 最多訪問業(yè)務緩存方案
(c) 均勻緩存方案圖6 不同緩存方案下OP預測性能Fig.6 OP prediction performance under different caching schemes
(a) 無緩存方案
(b) 最多訪問業(yè)務緩存方案
(c) 均勻緩存方案圖7 不同緩存方案下誤差性能Fig.7 Error performance in different caching schemes
第二種情況的預測參照圖8。從圖8可以看出,CNN針對不同方案下OP值預測效果較優(yōu)。無緩存方案的OP預測效果最佳,MPC和UC方案的OP預測效果次之。3種方案下OP性能都隨著SNR的增大而提高。
圖8 不同方案下基于深度學習的OP預測性能對比Fig.8 Comparison of OP prediction performance based on deep learning under different schemes
另外,本文還比較了閉合表達式求OP值和CNN預測OP值的運行時間。結果證明,CNN預測OP值耗時相比較于閉合表達式求OP值有大幅度縮減,只需要約0.05 s,閉合表達式求OP值耗時約1 s。因此,可以得出結論,CNN預測方法可以大大加快OP性能的預測與分析。
本文將不同的無線中繼緩存方案納入到SATIN中以提高網(wǎng)絡的性能。通過采用兩種典型的中繼緩存方案,即MPC和UC,推導出了3種緩存方案下SATIN的OP閉合表達式,仿真并對比了在不同參數(shù)條件下3種緩存方案的OP性能表現(xiàn),仿真結果驗證了理論公式推導及分析的正確性,并證實了所提方案相較于無緩存功能的傳統(tǒng)中繼選擇方案性能提升顯著。同時,基于深度學習的方法,采用一種改進后的CNN對不同緩存方案下的OP進行預測,所用網(wǎng)絡去除了在信息特征提取過程中容易造成特征丟失的池化層,結果表明所提方法對3種方案下的OP值預測效果較優(yōu)。