胡思逸 沈岱靈 周小林 凌力
摘 要: ?泊松散彈噪聲具有非線性、非加性的性質(zhì),因而受到研究者的廣泛關(guān)注。20世紀80年代以來,大量關(guān)于泊松信道速率和容量的成果被提出。然而,由于泊松噪聲的特殊性質(zhì),導致速率公式復雜,過去的研究成果大多集中在理論極限性能的推導上下界的問題上。提出了一種基于深度學習的方法,針對復雜的速率公式,給出了非理想條件下的最優(yōu)解,對于實際系統(tǒng)的性能有一定的參考價值。并且,深度學習較傳統(tǒng)梯度下降搜索算法有更高的泛用性和更快的速度。
關(guān)鍵詞: 泊松信道; 光子計數(shù); 深度學習
中圖分類號: TP 311
文獻標志碼: A
Abstract: Poisson shot noise has the characteristics of non-linearity and non-additiveness, and has attracted widespread attention of researchers. Since the 1980s, a large number of results on Poisson channel rate and capacity have been proposed. However, due to the special nature of Poisson noise, the rate formula is complicated. Most of the previous research results have focused on the derivation of the theoretical limit performance. In this paper, a method based on deep learning is proposed. For the complex rate formula, the optimal solution under non-ideal conditions is given, which has certain reference value for the performance of the actual system. Moreover, deep learning has higher versatility and faster speed than traditional gradient descent search algorithms.
Key words: poisson channel; photon counting; deep learning
0 引言
在無線光通信系統(tǒng)中,接收端光子計數(shù)器產(chǎn)生的噪聲符合泊松分布,具有特殊的性質(zhì)。在過去的研究中,泊松噪聲多被近似為高斯噪聲處理。然而,這一近似方法僅在光強較大時適用。近年來,許多學者嘗試針對泊松噪聲模型進行更精確的理論分析。Gong Chen研究了連續(xù)泊松信道速率模型下的功率分配[1]?,Verdu推導出了泊松速率公式的一些性質(zhì)[2]。Amos Lapidoth在對離散泊松速率公式近似化簡的基礎(chǔ)上,推導了泊松信道速率的上界和下界[3]。然而,由于公式的復雜度較高,僅在發(fā)射功率較低時才有較好的近似效果,可用于研究系統(tǒng)的極限性能,但不易應(yīng)用于針對實際系統(tǒng)的研究。而近年來廣泛應(yīng)用的深度學習技術(shù)可研究復雜公式的性質(zhì),簡化了分析的難度,對于實際系統(tǒng)有一定的參考價值。
1 研究內(nèi)容
1.1 泊松信道速率
采用光強調(diào)制/直接檢測(IM/DD)的單用戶無線光通信系統(tǒng)的結(jié)構(gòu),如圖1所示。
神經(jīng)網(wǎng)絡(luò)作為多隱層的MLP,自然可以作為一個通用近似算子。神經(jīng)網(wǎng)絡(luò)采用對目標函數(shù)(誤差函數(shù))進行反向傳播與梯度下降的方法,實現(xiàn)對近似算子的擬合。這種擬合在一類不具備結(jié)構(gòu)化公式的問題以及在一類復雜的結(jié)構(gòu)化公式的最優(yōu)解問題上得到了較為廣泛的應(yīng)用[8-9]。
1.3 優(yōu)化算法設(shè)計
本文聚焦于多信道的泊松噪聲下用戶功率的優(yōu)化問題,采用深度學習的方法,對傳統(tǒng)復雜問題的最優(yōu)解進行梯度下降形式的搜索工作。本文所建立的模型具有傳統(tǒng)方法不具備的優(yōu)勢:
1、傳統(tǒng)的數(shù)學方法使用求偏導的方式對高復雜度的數(shù)學公式進行梯度的計算和迭代來求取最優(yōu)解,效率較低且易陷入局部最優(yōu)。
2、神經(jīng)網(wǎng)絡(luò)在沒有離散標簽的情況下,無法有效進行離散形式的輸出。
算法的主要改進有兩點。第一,采用特殊構(gòu)造的輸入對網(wǎng)絡(luò)的收斂方向進行控制。純隨機的變量輸入會導致網(wǎng)絡(luò)的輸出的不穩(wěn)定,由于本文所構(gòu)建的目標函數(shù)的級數(shù)較大(近似為有限階乘),訓練過程中易造成梯度爆炸。第二,目標函數(shù)需要離散值作為輸入。由于梯度只能保存在連續(xù)的變量中,離散的輸出值會導致梯度消失。算法的具體細節(jié)如表1所示。
算法采用保存對連續(xù)變量近似到最近離散值(自然數(shù))的方法,將去除梯度的近似距離作為加函數(shù)疊加到原始輸出值上,解決梯度消失問題。算法中Nb代表背景光子數(shù)組合,Rate代表分配的發(fā)射光子數(shù)組合,model代表神經(jīng)網(wǎng)絡(luò),I代表目標函數(shù),具體參見公式(3)、(4)。
2 仿真和分析
2.1 仿真設(shè)置
本文中使用的實驗平臺為Windows10操作系統(tǒng),硬件環(huán)境為2核Intel(R) Core(TM) i5-7500 CPU @ 3.40 GHz,內(nèi)存為24 GB,顯卡為NVIDA的 GTX 1060,顯存為6 G。本實驗?zāi)P蛯嶒灳赑ytorch環(huán)境下搭建。
本文采用的實驗數(shù)據(jù)根據(jù)1.1節(jié)所介紹,由于不同頻率的光同時發(fā)送信息,大氣中的背景光會對其形成干擾,而不同頻率的光子在大氣中的數(shù)量不同。本文根據(jù)不同的環(huán)境條件,共進行3組實驗,環(huán)境參數(shù)設(shè)置分別為:
其中,batch_size代表參與一次梯度下降的批次大小,前兩組由于輸入固定,為了符合神經(jīng)網(wǎng)絡(luò)并行計算的要求,batch_size的值大于等于2;第三組由于求取泛化的最優(yōu)解,故設(shè)置batch_size為100。K代表信道數(shù)。Rc與R為常量。ns_ave 代表網(wǎng)絡(luò)輸出上增加的手動偏移,由于默認背景光總數(shù)為40*信道數(shù),故設(shè)置網(wǎng)絡(luò)的初始搜索點為40+初始的網(wǎng)絡(luò)輸出值。ns_total代表信道的背景光總數(shù)。采用的優(yōu)化器為adam,學習速率為0.001,訓練總次數(shù)設(shè)置為50個迭代。
由于信道數(shù)在3,4的情況下,可以用遍歷的方法得到函數(shù)的最優(yōu)解,故本文采用組一組二兩組來驗證模型最優(yōu)解的可行性。信道數(shù)較高情況下(>=10),使用遍歷的方法得到函數(shù)最優(yōu)解的計算代價過大,神經(jīng)網(wǎng)絡(luò)的泛化性使得模型在不同輸入情況下,可以產(chǎn)生泛化的目標輸出,以此減小傳統(tǒng)方法的計算資源浪費,故采用實驗組三的參數(shù),來驗證預訓練的模型可以在不同背景光子參數(shù)輸入下得到不同最優(yōu)解,達到模型泛化與效率提升。
2.2 實驗結(jié)果與實驗分析
如圖3所示。
三信道與四信道實驗結(jié)果可見,模型所采取的使用近似距離來保存梯度的方法,對于網(wǎng)絡(luò)的訓練是有效的。模型在40-50個epoch時收斂于最優(yōu)值附近。
模型的輸入分別為5,5,50(三信道)與5,5,5,50(四信道)。由遍歷法可得,最優(yōu)解為37,37,46(三信道)與38,38,38,46(四信道),與模型收斂值曲線的最高點所在信道功率相同。如圖4所示。
根據(jù)實驗所產(chǎn)生的結(jié)果模型在每個epoch隨機生成10個背景光子組合進行了評估并記錄所有性能的均值,最后,展示了性能的變化折線。由曲線可見,模型在隨機產(chǎn)生的背景光子組合下的性能逐步提升,最終收斂在9.42附近,證明在不同的背景光子下,模型產(chǎn)生的最優(yōu)解產(chǎn)生了足夠強的泛化性,使得和速率輸出穩(wěn)定。
2.3 優(yōu)化性能分析
將訓練好后的模型應(yīng)用于實際場景中,隨機選取一組背景光子Nb,選取不同信道數(shù)場景,比較均勻功率下的性能和經(jīng)過優(yōu)化后的系統(tǒng)性能,如圖6所示。
由圖6分析可得,經(jīng)過訓練后的模型,在10信道與30信道的情景下,在不同的背景光子總數(shù)下,優(yōu)化算法對系統(tǒng)的性能都具有明顯的提升。其中在10信道下,優(yōu)化算法對和速率的提升隨著發(fā)射光子總數(shù)的增大基本穩(wěn)定,而在30信道下,和速率提升隨著發(fā)射光子總數(shù)的增大而逐漸增大,這說明在信道數(shù)較高且發(fā)射總光子數(shù)較大的情況下,優(yōu)化算法對和速率的提升更加明顯。
3 總結(jié)
本文使用深度學習的方法對泊松單用戶并行信道的優(yōu)化進行了研究,針對搜索離散變量最優(yōu)解的問題,對算法做出了一定的改進。由仿真結(jié)果可知,對于泊松散彈噪聲受限光子計數(shù)問題,深度學習可通過梯度下降的方法進行離散最優(yōu)點搜索,這種方法為解決泊松優(yōu)化問題提供了一種新的思路。仿真結(jié)果顯示,算法在不同的信道數(shù)與不同總光子數(shù)條件下均可得出最優(yōu)解,并具有較強的泛化性。
參考文獻
[1] Liu B, Gong C, Cheng J, et al. Power Allocation Over Broad Spectra Optical Wireless Scattering Communication Based on Link Gain Correlation[J]. IEEE Transactions on Communications, 2019, 67(10): 6980-6993.
[2] Guo D, Shamai S, Verdú S. Mutual information and conditional mean estimation in Poisson channels[J]. IEEE Transactions on Information Theory, 2008, 54(5): 1837-1849.
[3] Lapidoth A, Shapiro J H, Venkatesan V, et al. The discrete-time Poisson channel at low input powers[J]. IEEE Transactions on Information Theory, 2011, 57(6): 3260-3272.
[4] Bashbaghi S, Granger E, Sabourin R, et al. Deep Learning Architectures for Face Recognition in Video Surveillance[J]. 2019: 133-154.
[5] Bengio Y. Learning Deep Architectures for AI[J]. Foundations & Trends? in Machine Learning, 2(1):1-127.
[6] I Goodfellow, Y Bengio, A Courville. Deep learning[M]. Cambridge: MIT Press, 2016.
[7] Schmidhuber, Jürgen. Deep learning in neural networks: An overview[J]. Neural Network, 2015(61):85-117.
[8] Alex Krizhevsky, I Sutskever, G Hinton. ImageNet Classification with Deep Convolutional Neural Networks[J]. Advances in neural information processing systems, 2012, 25(2):1097-1105.
[9] Graves A, Mohamed A R, Hinton G. Speech Recognition with Deep Recurrent Neural Networks[J].2013(5):6645-6649.
(收稿日期: 2019.08.11)