摘 要:為了解決Vehicle to Everything (V2X) 毫米波通信系統(tǒng)延時(shí)高、鏈路易阻塞等問題,基于車輛和用戶終端周圍環(huán)境狀態(tài)信息的感知,提出一種視覺輔助的能效最大阻塞預(yù)測方法。利用視覺感知模型實(shí)現(xiàn)系統(tǒng)對目標(biāo)用戶以及周圍障礙物的精準(zhǔn)感知,結(jié)合深度強(qiáng)化學(xué)習(xí)設(shè)計(jì)了一種融合特征和時(shí)間注意力的DA-DBLSTM 網(wǎng)絡(luò)預(yù)測未來鏈路阻塞到達(dá)時(shí)間,與傳統(tǒng)注意力相比,該融合注意力不僅可以關(guān)注每個(gè)時(shí)間單元中的不同特征,而且關(guān)注不同時(shí)間單元的時(shí)序信息,使檢測效果更優(yōu)。仿真和分析結(jié)果表明,提出的DA-DBLSTM 網(wǎng)絡(luò)預(yù)測鏈路阻塞效果明顯,在均方誤差(Mean Square Error,MSE)、均方根誤差(Root Mean Square Error,RMSE)、平均絕對誤差(Mean Absolute Error,MAE) 和平均絕對百分比誤差(MeanAbsolute Percentage Error,MAPE) 方面均優(yōu)于現(xiàn)有方法。
關(guān)鍵詞:V2X 通信;機(jī)器視覺;雙向LSTM;注意力機(jī)制;阻塞預(yù)測
中圖分類號:TN92 文獻(xiàn)標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
文章編號:1003-3106(2024)05-1277-09
0 引言
毫米波通信是當(dāng)前和未來無線通信的關(guān)鍵支柱網(wǎng)絡(luò)[1],高頻段的帶寬可以滿足自動駕駛、智能交互等新興應(yīng)用對網(wǎng)絡(luò)速率的要求。毫米波主要依靠視距(Line of Sight,LoS )鏈路來實(shí)現(xiàn)高速率的信息傳輸,與非視距(Non Line of Sight,NLoS)鏈路相比,LoS 鏈路接收信號的功率更大,從而可以實(shí)現(xiàn)更好的通信功能[2]。當(dāng)環(huán)境中用戶與基站之間的LoS 鏈路被遮擋時(shí),用戶接收功率嚴(yán)重衰減,信噪比(Signal to Noise Ratio,SNR)將嚴(yán)重降低,這些對毫米波通信的可靠性提出了挑戰(zhàn)。在以往的通信范式當(dāng)中,高質(zhì)量LoS 鏈路的重建往往是被動重建,而對于高頻通信而言,系統(tǒng)能夠主動保持LoS 鏈路非常重要,這需要系統(tǒng)具備感知環(huán)境的能力,因此,如何對環(huán)境中的物體進(jìn)行感知并提取利用相關(guān)信息成為了阻塞預(yù)測的關(guān)鍵難點(diǎn)。
近年來,隨著環(huán)境中不固定變量的增多,傳統(tǒng)的數(shù)學(xué)建模方式遠(yuǎn)不足以支撐環(huán)境中多樣化的信息感知和預(yù)測,為了獲取多樣化的環(huán)境信息,集成傳感和通信(Integrated Sensing and Communication,ISAC)應(yīng)運(yùn)而生[3]。ISAC 利用智能終端上配備的傳感器,如相機(jī)、雷達(dá)輔助通信,從而感知環(huán)境中的各種信息,并通過深度神經(jīng)網(wǎng)絡(luò)與傳感器輔助相結(jié)合來有效減小系統(tǒng)選擇最優(yōu)波束所造成的開銷[4-5],這些工作往往從無線傳感數(shù)據(jù)中學(xué)習(xí)一些統(tǒng)計(jì)規(guī)律來預(yù)測未來鏈路阻塞的發(fā)生。文獻(xiàn)[6]開發(fā)了一種基于機(jī)器學(xué)習(xí)的有效方案預(yù)測未來的阻塞,通過遞歸神經(jīng)網(wǎng)絡(luò)來處理波束序列進(jìn)而預(yù)測阻塞。文獻(xiàn)[7]開發(fā)了基于深度學(xué)習(xí)的毫米波雷達(dá)輔助波束預(yù)測方法,利用雷達(dá)信號處理的領(lǐng)域知識來提取并學(xué)習(xí)模型的相關(guān)特征。文獻(xiàn)[8]提出了一種利用無線信號和道路監(jiān)控系統(tǒng)驅(qū)動的新機(jī)制,基于多元回歸技術(shù)預(yù)測用戶到達(dá)阻塞區(qū)域的時(shí)間,從而確定最佳切換決策。文獻(xiàn)[9]提出了視覺輔助毫米波無線通信的波束預(yù)測方案,通過多層感知機(jī)估計(jì)用戶與攝像機(jī)之間的角度從而為用戶選擇最佳波束索引。文獻(xiàn)[10]提出了一種新的深度學(xué)習(xí)架構(gòu),通過利用光束和RGB 圖像序列來預(yù)測全動態(tài)環(huán)境中的鏈路阻塞。文獻(xiàn)[11]開發(fā)了2 種基于深度神經(jīng)網(wǎng)絡(luò)的兩階段和端到端算法,用于預(yù)測傳入服務(wù)及其請求時(shí)間。
研究人員早期曾采用傳統(tǒng)的機(jī)器學(xué)習(xí)方法對感知信息進(jìn)行分類和預(yù)測[12-13],如使用分類器或者回歸方法,然而研究發(fā)現(xiàn)這些以傳統(tǒng)機(jī)器學(xué)習(xí)方法為基礎(chǔ)的環(huán)境感知和預(yù)測結(jié)果很不理想,其性能太過依賴特征,具有較高的錯(cuò)誤率。為解決這些問題,基于Vehicle to Everything(V2X)的智能感知通信(In-telligent Perception Communication,IPC)這一概念被提出,相較于傳統(tǒng)機(jī)器學(xué)習(xí),IPC 擺脫了太過依賴特征的缺點(diǎn),可以直接捕獲原始數(shù)據(jù)之間的關(guān)系并將其擴(kuò)展到新場景中,具有較強(qiáng)的自主學(xué)習(xí)和泛化能力。此外,IPC 具備獲取交通信息、實(shí)現(xiàn)波束跟蹤、遮擋判斷、參數(shù)獲取和資源配置等多種功能[14],對于多類其他通信場景例如智能反射面等也有良好的支撐,具有大規(guī)模部署和應(yīng)用的前景。
為了更好地解決V2X 毫米波通信穿透性差、鏈路易阻塞的問題,本文在考慮實(shí)際視覺和通信模型的情況下提出了一種基于視覺感知的新型V2X 通信阻塞預(yù)測方法,其本質(zhì)是將通信由“被動接收”轉(zhuǎn)化為“主動感知”,屬于主動感知輔助的通信新范式,是感知通信一體化新體系中的重要技術(shù),此方法可以預(yù)測阻塞的到達(dá)時(shí)間,使系統(tǒng)提前改變通信方案(如將信號從另一個(gè)基站傳遞給用戶),從而實(shí)現(xiàn)通信的穩(wěn)定性。此外本文開發(fā)了一種融合注意力的機(jī)器學(xué)習(xí)方法,利用提取的散射體/ 環(huán)境相關(guān)特征有效預(yù)測未來阻塞到達(dá)時(shí)間。具體而言,首先,采用目標(biāo)檢測與定位算法分析視覺傳感器中的RGB 圖像,檢測用戶和障礙物并確定其位置,視覺輔助V2X 通信僅以RGB 圖像形式,不需要其他通道,可以顯著降低開銷。然后使用多種方法訓(xùn)練不同類型的神經(jīng)網(wǎng)絡(luò),以預(yù)測未來阻塞到達(dá)的時(shí)間。最后,通過多項(xiàng)指標(biāo)對不同阻塞模型進(jìn)行評價(jià)對比分析。
1 系統(tǒng)模型
V2X 通信在提高交通效率方面發(fā)揮著重要作用,低延時(shí)的通信取決于系統(tǒng)的處理速度和預(yù)測的準(zhǔn)確度,因此V2X 是本文的研究場景。本文考慮了一種室外通信場景,如圖1 所示,道路上有一些車輛和行人,道路邊有一個(gè)毫米波基站為處于繁忙道路上的靜止用戶提供服務(wù),每個(gè)基站配備了具有M 個(gè)元素的均勻平面陣列(Uniform Planar Array,UPA),為了捕捉到實(shí)時(shí)的RGB 圖像,系統(tǒng)在毫米波基站上方配備RGB 攝像頭用來感知并監(jiān)控周圍環(huán)境,并獲取相關(guān)信息,該信息可以潛在地用于主動預(yù)測由移動物體引起的未來鏈路阻塞時(shí)間。通信系統(tǒng)采用正交分頻復(fù)用技術(shù),采用預(yù)定義的波束形成碼本F= {fm} Qm = 1 ,fm ∈CM×1 和Q 是碼本中波束形成向量的總數(shù),其中維度M 表示基站的天線個(gè)數(shù)。對于無線環(huán)境中的任何毫米波用戶,其接收到的下行信號為:
yk = hTkfm x + nk , (1)
式中:yk ∈C為用戶在第k 個(gè)子載波處接收的信號,hk ∈CM×1 為基站和用戶在第k 個(gè)子載波處之間的信道,x∈C\"為傳輸數(shù)據(jù)符號,nk 為從復(fù)高斯分布NC(0,σ2 )中提取的噪聲樣本。
1. 1 信道模型
本文假設(shè)了一個(gè)幾何信道模型,其中用戶在第k 個(gè)子載波上的信道向量為:
式中:L 為信道路徑數(shù),ασ 、ησ 、θσ 、Φσ 分別表示第σ 個(gè)信道的路徑增益(包括路徑損失)、時(shí)延、到達(dá)方位角和到達(dá)仰角,Ts 為采樣時(shí)間,D 為循環(huán)前綴長度。
1. 2 阻塞預(yù)測模型
本文工作主要是觀察在基站捕獲的一系列圖像樣本,并利用感測數(shù)據(jù)來預(yù)測靜止用戶未來多久將被環(huán)境中的障礙物阻擋在窗口內(nèi),令時(shí)刻t 在基站捕獲單個(gè)RGB 圖像為Z[t]∈RW×H×C ,W、H、C 分別是圖像的寬度、高度和顏色通道數(shù)。在任一時(shí)刻τ∈Z ,定義基站使用的RGB 圖像序列S[τ]為:
S[τ] = {S[t]}τt= τ -r +1 , (3)
式中:r∈Z 為預(yù)測未來鏈路阻塞到達(dá)時(shí)間的輸入序列或觀察窗口的長度。根據(jù)輸入的圖像序列S[τ]預(yù)測下一時(shí)刻阻塞距離到達(dá)靜止用戶所需具體時(shí)間Td,需要注意的是,本項(xiàng)工作不關(guān)注確切的未來實(shí)例窗口狀態(tài),而是考慮表示未來阻塞到來的具體時(shí)間。采用機(jī)器學(xué)習(xí)模型去學(xué)習(xí)S[τ]到Td 的映射任務(wù),定義一個(gè)函數(shù)fθ,該函數(shù)將觀察到的圖像序列S[τ]映射到未來堵塞到達(dá)的時(shí)間Td 中去,函數(shù)fθ可以表示為
fθ :S[τ]→ Td , (4)
式中:θ 表示機(jī)器學(xué)習(xí)模型的參數(shù),從標(biāo)記序列的數(shù)據(jù)集中學(xué)習(xí)。
2 視覺輔助阻塞預(yù)測方法
在V2X 通信網(wǎng)絡(luò)中,LoS 鏈路阻塞通常是由環(huán)境中可移動物體造成的,例如汽車、公交車等,考慮真實(shí)場景中移動對象的動態(tài)特性,未來阻塞任務(wù)的預(yù)測將更加具有挑戰(zhàn)性。為此,將阻塞預(yù)測分為對象檢測和時(shí)序預(yù)測2 個(gè)子任務(wù)。如圖2 所示,第一個(gè)子任務(wù)涉及檢測環(huán)境中感興趣的相關(guān)對象,考慮到當(dāng)前計(jì)算機(jī)視覺和深度學(xué)習(xí)領(lǐng)域的最新進(jìn)展,這項(xiàng)任務(wù)可以利用基于卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeural Network,CNN)的物體檢測執(zhí)行,例如YOLO(You Only Look Once)模型,其主要是從圖像中提取相關(guān)特征,并在圖像中繪制邊界框來鎖定感興趣的具體特征。第二個(gè)子任務(wù)是以第一個(gè)子任務(wù)提取的相關(guān)特征作為輸入,通過機(jī)器學(xué)習(xí)模型從提取的特征中學(xué)習(xí)潛在的關(guān)鍵指標(biāo),進(jìn)而預(yù)測未來時(shí)刻窗口用戶被阻塞的剩余時(shí)間。
2. 1 目標(biāo)檢測與定位
為了準(zhǔn)確快速地識別環(huán)境中感興趣的對象并提取其邊界框坐標(biāo),本文采用了YOLOv7 版本的目標(biāo)檢測模型[15],YOLOv7 是一種單階段目標(biāo)檢測算法,與雙階段檢測方法相比具有更快的速度和更高的準(zhǔn)確度,主要通過處理視覺數(shù)據(jù)從中獲取感興趣對象的信息。在本文工作中未重新采集圖片、對圖片進(jìn)行標(biāo)注,而是直接利用官方開源的COCO 預(yù)訓(xùn)練權(quán)重,其包含行人、汽車和公交車等80 種類別,完全能夠滿足環(huán)境中存在大多數(shù)相關(guān)對象的檢測。
通過目標(biāo)檢測可以提取感興趣對象的邊界框坐標(biāo),因其是歸一化后的坐標(biāo),處理后得到邊框左上角和右下角像素點(diǎn)坐標(biāo)(x1 ,y1 )、(x2 ,y2 )。由于邊界框可以由左上角和右下角這2 組坐標(biāo)表示,因此可以將x1 、y1 、x2 、y2 四元組作為邊界框的特征表示。
通過以上步驟可以獲得物體像素尺度的位置信息,物體真實(shí)速度的獲取前提是如何將像素尺度坐標(biāo)轉(zhuǎn)換成真實(shí)場景下的物理坐標(biāo)。實(shí)驗(yàn)中將相機(jī)固定在某一位置以保證拍攝圖像具有相同范圍大小的視野,視野范圍的恒定意味著實(shí)際物理距離也不會發(fā)生變化,具體計(jì)算公式如下:
式中:W* 為圖像在真實(shí)場景中所占據(jù)的寬度,單位m;W 為圖像中的像素寬度,xt2 和xt1 分別表示目標(biāo)在t2 和t1 時(shí)刻的像素點(diǎn)中心點(diǎn)位置,FPS 為一幀的時(shí)間。
而后將坐標(biāo)與速度連接形成向量β∈RY×1 ,Y 為檢測到的物體數(shù)目,因每個(gè)數(shù)據(jù)樣本中檢測到的物體數(shù)目未必相同,這將導(dǎo)致提取的特征長度不固定。為了保證向量β 長度一致,用Z-Y 個(gè)零值去填充以獲得長度一致的向量β^ ∈RZ×1 。經(jīng)過以上處理,物體坐標(biāo)和速度連接形成的固定長度向量β^ 就可以被提取出來。
2. 2 阻塞預(yù)測方法
此方法無需再用圖像序列,只需從圖像中提取目標(biāo)的邊框坐標(biāo)和速度,這將大大減少計(jì)算量,有效節(jié)省運(yùn)算時(shí)間。由于提取信息為時(shí)序序列信息,故只考慮采用不同類型的時(shí)序神經(jīng)網(wǎng)絡(luò),如長短期記憶(Long Short Term Memory,LSTM)神經(jīng)網(wǎng)絡(luò)、門控循環(huán)網(wǎng)絡(luò)(Gated Recurrent Unit,GRU)等。為了預(yù)測用戶下一時(shí)刻的阻塞剩余時(shí)間,本文以時(shí)間序列{β^ [τ-r+1],…,β^ [τ]}作為輸入,進(jìn)而完成預(yù)測任務(wù)并對比分析其效果。
2. 2. 1 LSTM 網(wǎng)絡(luò)
LSTM 是一種特殊的時(shí)序網(wǎng)絡(luò)[16],通過遺忘、記憶和更新3 個(gè)門控單元控制信息的保留和傳遞。如圖3 所示,遺忘門決定了上一時(shí)刻單元狀態(tài)Ct-1 中哪些信息需要被遺忘。記憶門與遺忘門相反,它由Sigmoid 和tanh 兩個(gè)神經(jīng)網(wǎng)絡(luò)層組成。Sigmoid 網(wǎng)絡(luò)層接收xt 和ht-1 作為輸入,輸出it 決定哪些信息需要被更新;tanh 網(wǎng)絡(luò)層通過整合輸入的xt 和ht-1 來創(chuàng)建一個(gè)新的-1 ~ 1 的狀態(tài)候選量C~t,并對其更新得到新狀態(tài)Ct。輸出門用來控制Ct 中的內(nèi)容輸出到LSTM 網(wǎng)絡(luò)當(dāng)前的輸出值ht 中。
2. 2. 2 Bi-LSTM 網(wǎng)絡(luò)
Bi-LSTM 簡稱雙向LSTM,是LSTM 的一種變體[17]。如圖4 所示,它由輸入層、正向LSTM、反向LSTM 以及輸出層組成,正向LSTM 提取輸入特征序列的正向特征,而反向LSTM 與之相反,提取特征序列從后往前的反向特征,輸出層負(fù)責(zé)對二者的輸出數(shù)據(jù)進(jìn)行整合。
正向LSTM 和反向LSTM 的計(jì)算如表1 所示,其中xt 為t 時(shí)刻的輸入序列,Ct 為t 時(shí)刻的細(xì)胞狀態(tài),ht-1 為隱層狀態(tài),Wf、Wi、Wc、Wo 分別為記憶細(xì)胞狀態(tài)、遺忘門、輸入門、輸出門的權(quán)重矩陣,bf、bi、bc、bo 分別表示其對應(yīng)偏置。由此可以求出在t 時(shí)刻的輸出yt 為
yt = Wy h + W*y h′ + by , (6)
式中:Wy 和W*y 分別為正向輸入和反向輸入到隱層權(quán)重矩陣,by 為其偏置。
由于其使用過去時(shí)刻和未來時(shí)刻的信息,因此對于遠(yuǎn)距離時(shí)間序列預(yù)測,Bi-LSTM 可以獲得比LSTM 更好的性能。
2. 2. 3 DADBLSTM 網(wǎng)絡(luò)
通過在神經(jīng)網(wǎng)絡(luò)輸出端引入注意力的方法雖然已經(jīng)很普遍[18-20],但是同時(shí)引入2 種不同注意力在V2X 通信領(lǐng)域還未得到廣泛應(yīng)用,本文分別在雙層Bi-LSTM 的每個(gè)隱層輸出端引入特征注意力(Feature Attention,FeaAttn)和時(shí)間注意力(Time At-tention,TimeAttn)。FeaAttn 可以獲取特征空間的不同位置特征之間的信息,關(guān)注每個(gè)時(shí)間點(diǎn)上不同特征的性能,使得單位時(shí)間序列可以自適應(yīng)地選擇最相關(guān)的屬性。TimeAttn 可以捕獲時(shí)間序列之間的信息,關(guān)注不同時(shí)間序列的屬性,從而使系統(tǒng)更全面的利用序列數(shù)據(jù)。圖5 展示了DA-DBLSTM 模型的網(wǎng)絡(luò)結(jié)構(gòu),第一層為Bi-LSTM 網(wǎng)絡(luò),負(fù)責(zé)從輸入數(shù)據(jù)中挖掘出每個(gè)單元序列中的隱藏信息,對于輸入時(shí)間序列X = (X1 ,X2 ,…,XT),Xt ∈RN ,N 表示序列數(shù)據(jù)中的特征數(shù)量,Bi-LSTM 網(wǎng)絡(luò)主要學(xué)習(xí)從Xt 到ht的映射任務(wù):
ht = f1(Xt,ht-1 ), (7)
式中:ht 表示t 時(shí)刻的隱藏層向量,f1 表示時(shí)序神經(jīng)網(wǎng)絡(luò),Xt = (x1t,x2t,…,xNt)表示單位時(shí)間序列中的N 個(gè)特征向量。第二層是FeaAttn 層,它可以選擇性地將關(guān)注點(diǎn)聚焦于特定的特征上,由于考慮了每個(gè)特征對ht 的作用,因此能夠獲得更好的效果。通過利用從第一層中捕獲的單位時(shí)間序列的每組特征,可以得到關(guān)于特征的注意機(jī)制,計(jì)算如下:
式中:g∈?。浴ⅲ鳎?∈RT×hidden_size和u∈RT×T為需要學(xué)習(xí)的權(quán)重矩陣,Xi = (xi1,xi2,…,xiT )∈RT為序列長度為T 的第i 個(gè)特征序列數(shù)據(jù),αit為第i 個(gè)特征在時(shí)間t分配的關(guān)注權(quán)重值。將αit在時(shí)間t 分配給輸入向量X ~t:
X~t = (α1tx1t,α2tx2t,…,αNtxNt)。(10)
在時(shí)間t 自適應(yīng)地選擇不同的特征之后,獲得新的輸入向量X ~t。與Xt 相比,X ~t 可以選擇性地關(guān)注不同的特征,而不是將相同的權(quán)重分配給每個(gè)特征。而后將從FeaAttn 層輸出的序列X ~ = (X ~1 ,X ~2 ,…,X ~T)作為輸入送入第三層網(wǎng)絡(luò)。第三層網(wǎng)絡(luò)同第一層類似,用來學(xué)習(xí)第二層輸出序列X ~t 到h~t 的映射函數(shù):
t = f2(X~t,h ~t-1 ), (11)
式中:h~t 是t 時(shí)刻的第三層網(wǎng)絡(luò)的隱藏層向量,h~t-1 是隱藏層的前一個(gè)單元的輸出,f2 是時(shí)序神經(jīng)網(wǎng)絡(luò)。然后TimeAttn 層以從第三層網(wǎng)絡(luò)的隱藏層狀態(tài)H ~t = (h~1 ,h~2 ,…,h~T)作為輸入,對其進(jìn)行加權(quán)求和,處理過程如式(12)~ 式(14)所示:
式中:g~ 和w~t 為權(quán)重矩陣,αt 為時(shí)間序列分配所得的關(guān)注權(quán)重值,st 為隱層狀態(tài)與注意力權(quán)重加權(quán)后的值,最后將其通過全連接層得到預(yù)測結(jié)果。
本文提出的DADBLSTM 模型內(nèi)容總結(jié)如下:首先,第一層網(wǎng)絡(luò)提取每個(gè)序列單元的隱藏層信息,學(xué)習(xí)相應(yīng)的映射任務(wù);然后,通過第二層的FeaAttn機(jī)制在不同時(shí)間自適應(yīng)地選擇特征;其次,將隱藏層信息和不同時(shí)間的不同特征組合成新的輸入序列數(shù)據(jù),送入第三層網(wǎng)絡(luò)學(xué)習(xí)映射任務(wù);最后,第三層的輸出經(jīng)過TimeAttn 層,對時(shí)間序列分配注意力并通過全連接層輸出預(yù)測值。
3 仿真分析
3. 1 實(shí)驗(yàn)環(huán)境、參數(shù)配置和評估指標(biāo)
實(shí)驗(yàn)所用計(jì)算機(jī)硬件配置為:處理器Intel Xeon Platinum8255C,CPU 頻率為2. 5 GHz,GPU加速顯卡為NVIDIA GeForce RTX 2080Ti,操作系統(tǒng)為Ubuntu 18. 04,使用python3. 7 編程。實(shí)驗(yàn)采用RGB 相機(jī)自行拍攝所在街道場景,采樣頻率每秒約10 個(gè)樣本,共2 000 個(gè)樣本,將其按照7 ∶ 2 ∶ 1 的比例劃分為訓(xùn)練集、驗(yàn)證集和測試集,通過目標(biāo)檢測模型及相關(guān)處理提取生成的特征序列,對其進(jìn)行最大最小歸一化處理,該方法能夠消除變異量綱和變異范圍的影響,確保數(shù)據(jù)是在同一量綱下進(jìn)行比較,處理后進(jìn)而將其送入深度學(xué)習(xí)模型以評估未來阻塞發(fā)生的可能性。所提出的Bi-LSTM 模型中有3 個(gè)主要參數(shù),分別是隱藏層大小、時(shí)間窗長度和批次大小。由于深度學(xué)習(xí)模型具有參數(shù)化特性,模型的訓(xùn)練和測試受參數(shù)的影響較大。實(shí)驗(yàn)采用隨機(jī)梯度下降算法更新參數(shù)直到模型收斂,并采取控制變量方式,反復(fù)對驗(yàn)證集進(jìn)行驗(yàn)證以得到使模型學(xué)習(xí)效果最佳的參數(shù)配置,從而避免出現(xiàn)精度波動的問題。為了在處理大規(guī)模數(shù)據(jù)和復(fù)雜模型時(shí)更具優(yōu)勢,采用Adam 優(yōu)化器,訓(xùn)練過程損失函數(shù)為mean_squared_error,學(xué)習(xí)率為0. 001,批次大小為10,訓(xùn)練次數(shù)為50。
本文使用滑動窗口的方式處理數(shù)據(jù),以多張圖片生成的特征序列為一組,作為輸入以預(yù)測未來一個(gè)窗口內(nèi)用戶距離阻塞來臨的剩余時(shí)間Td。使用均方根誤差(Root Mean Square Error,RMSE)、均方誤差(Mean Square Error,MSE)、平均絕對誤差(MeanAbsolute Error,MAE )以及平均絕對百分比誤差(Mean Absolute Percentage Error,MAPE)來評估DA-DBLSTM 模型的預(yù)測性能。評估指標(biāo)的計(jì)算如下:
式中:Yi 為實(shí)際值,Y*i 為預(yù)測值。
3. 2 參數(shù)靈敏度實(shí)驗(yàn)
為探究最佳時(shí)間窗長度和隱藏層大小及其對DA-DBLSTM 模型的影響,實(shí)驗(yàn)選取DA-DBLSTM、BiLSTM-FeaAttn 和BiLSTM-TimeAttn 進(jìn)行實(shí)驗(yàn)并繪制其RMSE,如圖6 所示。
從圖6(a)可以看出,在保持其他參數(shù)大小不變的情況下改變時(shí)間窗長度,設(shè)置時(shí)間窗步長分別為2、4、6、10、15,當(dāng)時(shí)間窗步長為6 時(shí),3 種網(wǎng)絡(luò)的RMSE 均低于其他時(shí)間窗步長,當(dāng)時(shí)間窗步長的長度太短或太長時(shí),3 種網(wǎng)絡(luò)的性能會變差,但相較于Bi-LSTM-FeaAttn 和Bi-LSTM-TimeAttn,DA-DBLSTM具有更好的魯棒性。此外,從圖中很容易觀察到當(dāng)時(shí)間窗步長較大時(shí),DADBLSTM 顯著優(yōu)于另外2 種網(wǎng)絡(luò),這也表明TimeAttn 機(jī)制可以通過在所有時(shí)間步長中選擇相關(guān)的編碼器隱藏狀態(tài)來捕獲長期依賴關(guān)系。
通過設(shè)置時(shí)間步長為6,實(shí)驗(yàn)進(jìn)一步研究隱藏層大小與RMSE 之間的關(guān)系,分別設(shè)置隱藏層大小為6、12、18、24、32,并將其關(guān)系通過圖6(b)進(jìn)行繪制,注意到當(dāng)隱藏層大小為12,DA-DBLSTM 可以實(shí)現(xiàn)最佳性能,盡管另外2 種網(wǎng)絡(luò)在隱藏層大小為24達(dá)到最優(yōu),但RMSE 仍遠(yuǎn)遠(yuǎn)高于DA-DBLSTM,這表明DADBLSTM 對參數(shù)具有更強(qiáng)的魯棒性。還可以觀測到僅添加FeaAttn 的網(wǎng)絡(luò)相較于僅添加TimeAttn 的網(wǎng)絡(luò),受隱藏層大小變化的影響較小,網(wǎng)絡(luò)更穩(wěn)定,這也驗(yàn)證了FeaAttn 對元素間狀態(tài)關(guān)系的捕獲具有一定的增強(qiáng)作用。
3. 3 阻塞時(shí)間預(yù)測實(shí)驗(yàn)
為驗(yàn)證DA-DBLSTM 模型的性能,實(shí)驗(yàn)采?。拢?LSTM、Double Bi-LSTM、Bi-LSTM-FeaAttn 和Bi-LSTM-TimeAttn 四種模型與之對比。公平起見,除注意力外,其他網(wǎng)絡(luò)與之對比的4 種模型均與其采用相同的參數(shù)。當(dāng)輸入數(shù)據(jù)組數(shù)一定時(shí),實(shí)驗(yàn)探究了幾種模型從輸入到輸出的運(yùn)行時(shí)間,并將其以柱狀圖的形狀繪制,如圖7 所示。從圖中可以看出,Bi-LSTM和Bi-LSTM-FeaAttn、Bi-LSTM-TimeAttn 兩種網(wǎng)絡(luò)的運(yùn)行時(shí)間接近,DA-DBLSTM 網(wǎng)絡(luò)的運(yùn)行時(shí)間略微高于Double Bi-LSTM 網(wǎng)絡(luò),但卻遠(yuǎn)大于Bi-LSTM 網(wǎng)絡(luò),這是因?yàn)椋模?DBLSTM 相較于Bi-LSTM 擁有更深的網(wǎng)絡(luò)結(jié)構(gòu),因此在處理本文復(fù)雜數(shù)據(jù)時(shí)具備更強(qiáng)大的特征抽取和處理能力,能夠更有效地捕捉數(shù)據(jù)之間的關(guān)聯(lián)性,這也意味著需要更多的計(jì)算資源和時(shí)間來完成工作。
表2 為DA-DBLSTM 與其他模型對比??梢钥闯?,采用的DA-DBLSTM 模型在評估指標(biāo)RMSE、MSE、MAE 以及MAPE 方面的值比其他模型小很多。以MSE 為例,Bi-LSTM、Double Bi-LSTM、Bi-LSTM-FeaAttn、Bi-LSTM-TimeAttn 和Double-LSTM的MSE 分別為0. 218 5、0. 230 4、0. 175 3、0. 139 5,DA-DBLSTM 模型將MSE 降低至0. 116 3,比BiLSTM 模型低了將近一倍。對于RMSE、MAE 和MAPE,DA-DBLSTM 模型也遠(yuǎn)遠(yuǎn)低于其余4 種模型。為了更清晰地展示表2 中的結(jié)果,將表2 中的數(shù)據(jù)按照百分比進(jìn)行縮放并在圖8 中繪制,也可以看出DA-DBLSTM 性能指標(biāo)明顯低于其他模型。
基于此,實(shí)驗(yàn)還對每個(gè)模型進(jìn)行20 次試驗(yàn)得出不同模型4 種指標(biāo)的變化區(qū)間并繪制,圖9 分別展示了4 種模型的RMSE、MSE、MAE 和MAPE 的方箱圖,從圖中不難看出,DA-DBLSTM 模型呈現(xiàn)出來的性能明顯優(yōu)于其他模型,該模型的中線以及最小值均在其他模型之下,平均值也遠(yuǎn)遠(yuǎn)小于其他模型,變化區(qū)間也保持在一定范圍,相對來說比較穩(wěn)定。由此可得出結(jié)論,DA-DBLSTM 模型不僅可以顯著提高預(yù)測精度,對改善系統(tǒng)穩(wěn)定性也有很大幫助。
4 結(jié)束語
本文對視覺輔助V2X 通信網(wǎng)絡(luò)進(jìn)行研究,針對未來阻塞到達(dá)時(shí)間預(yù)測,提出了一種融合注意力機(jī)制的DA-DBLSTM 網(wǎng)絡(luò)。在雙層雙向LSTM 網(wǎng)絡(luò)中引入FeaAttn 和TimeAttn 層,從而可以自適應(yīng)地分配特征和時(shí)間權(quán)重,使系統(tǒng)性能最優(yōu)。并與多種先進(jìn)的時(shí)序神經(jīng)網(wǎng)絡(luò)進(jìn)行對比,驗(yàn)證其網(wǎng)絡(luò)性能。仿真結(jié)果表明,本文提出的DA-DBLSTM 網(wǎng)絡(luò)在精度和穩(wěn)定性方面優(yōu)于其他先進(jìn)方法,不僅具有較高的預(yù)測精度,而且對注意機(jī)制的使用和神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)提供了一種新的毫米波通信應(yīng)用思路。未來計(jì)劃將該思路拓展到其他信息感知模式,并融合多模態(tài)感知數(shù)據(jù)準(zhǔn)確、高效地提取靜態(tài)和動態(tài)環(huán)境信息,綜合利用新的多個(gè)維度來輔助系統(tǒng)的設(shè)計(jì)與優(yōu)化。
參考文獻(xiàn)
[1] HONG W,JIANG Z H,YU C,et al. The Role ofMillimeterwave Technologies in 5G / 6G Wireless Communications[J]. IEEE Journal of Microwaves,2021,1 (1):101-122.
[2] CHARAN G,ALRABEIAH M,ALKHATEEB A. Visionaided 6G Wireless Communications:Blockage Predictionand Proactive Handoff [J ]. IEEE Transactions onVehicular Technology,2021,70(10):10193-10208.
[3] TIAN Y,PAN G F,ALOUINI MS. Applying Deeplearningbased Computer Vision to Wireless Communications:Methodologies,Opportunities,and Challenges [J].IEEE Open Journal of the Communications Society,2020,2:132-143.
[4] TOLSTIKHIN I,HOULSBY N,KOLESNIKOV A,et al.MLPMixer:An AllMLP Architecture for Vision [EB /OL]. (2021-06-11)[2023-6-20]. https:∥arxiv. org /abs / 2105. 01601v4.
[5] ROY K,ISHMAM A,TAHER K. Demand Forecasting inSmart Grid Using Long Shortterm Memory[C]∥2021 International Conference on Automation,Control and Mechatronics for Industry 4. 0 (ACMI). Rajshahi,IEEE,2021:1-5.
[6] CHARAN G,ALKHATEEB A. Computer Vision AidedBlockage Prediction in Realworld Millimeter Wave Deployments[C]∥ 2022 IEEE Globecom Workshops (GCWkshps). Rio de Janeiro:IEEE,2022:1711-1716.
[7] DEMIRHAN U,ALKHATEEB A. Radar Aided 6G BeamPrediction:Deep Learning Algorithms and RealworldDemonstration[C]∥2022 IEEE Wireless Communicationsand Networking Conference (WCNC). Austin:IEEE,2022:2655-2660.
[8] ALQURAAN M,KHAN A,MOHJAZ I,et al. IntelligentBlockage Prediction and Proactive Handover for SeamlessConnectivity in Visionaided 5G / 6G UDNs [EB / OL ].(2022-02-21)[2023-06-20]. https:∥arxiv. org / abs /2203. 16419v1.
[9] YING Z Q,YANG H J,GAO J,et al. A New VisionaidedBeam Prediction Scheme for mmWave Wireless Communications[C]∥2020 IEEE 6th International Conference onComputer and Communications (ICCC). Chengdu:IEEE,2020:232-237.
[10] CHARAN G,ALRABEIAH M,ALKHATEEB A. Visionaided Dynamic Blockage Prediction for 6G Wireless Communication Networks[C]∥2021 IEEE International Conference on Communications Workshops (ICC Workshops).Montreal:IEEE,2021:1-6.
[11] ALRABEIAH M,DEMIRHAN U,HREDZAK A,et al. Vision Aided URLL Communications:Proactive ServiceIdentification and Coexistence[C]∥2020 54th AsilomarConference on Signals,Systems,and Computers. PacificGrove:IEEE,2020:174-178.
[12] REDMON J,FARHADI A. YOLOv3:An Incremental Improvement[EB / OL]. (2018 - 04 - 08)[2023 - 06 - 20].https:∥arxiv. org / abs / 1804. 02767.
[13] LI S,LI W Q,ZHU C,et al. Independently RecurrentNeural Network (IndRNN ):Building a Longer andDeeper RNN[C]∥2018 IEEE / CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:5457-5466.
[14] ALRABEIAH M,HREDZAK A,ALKHATEEB A. MillimeterWave Base Stations with Cameras:Visionaided Beam andBlockage Prediction [C ]∥ 2020 IEEE 91st VehicularTechnology Conference (VTC2020Spring). Antwerp:IEEE,2020:1-5.
[15] SONG X Y,GU W. Multiobjective Realtime Vehicle Detection Method Based on YOLOv5[C]∥2021 InternationalSymposium on Artificial Intelligence and Its Applicationon Media (ISAIAM). Xi’an:IEEE,2021:142-145.
[16] KARIM F,MAJUMDAR S,DARABI H,et al. LSTM FullyConvolutional Networks for Time Series Classification[J].IEEE Access,2018,6:1662-1669.
[17] ZHANG H,NAN Z X,YANG T,et al. A Driving BehaviorRecognition Model with BiLSTM and Multiscale CNN[C]∥2020 IEEE Intelligent Vehicles Symposium (IV).Las Vegas:IEEE,2020:284-289.
[18] PRADHAN T,KUMAR P,PAL S. CLAVER:AnIntegrated Framework of Convolutional Layer,BidirectionalLSTM with Attention Mechanism Based Scholarly VenueRecommendation [J]. Information Sciences,2020,559:212-235.
[19] HE Y L,CHEN L,GAO Y L,et al. Novel DoublelayerBidirectional LSTM Network with Improved AttentionMechanism for Predicting Energy Consumption [J]. ISATransactions,2021,127:350-360.
[20] GUO M H,XU T X,LIU J J,et al. Attention Mechanismsin Computer Vision:A Survey[J]. Computational VisualMedia,2022,8(3):331-368.
作者簡介
邵 霞 女,(1970—),碩士,副教授。主要研究方向:通信與信息安全。
段臣續(xù) 男,(1999—),碩士研究生。主要研究方向:視覺感知輔助無線通信。
羅文宇 男,(1982—),博士,副教授。主要研究方向:智能無線環(huán)境、可重構(gòu)智能表面技術(shù)。
許 麗 女,(1978—),博士,教授。主要研究方向:計(jì)算機(jī)視覺、模式識別、機(jī)器學(xué)習(xí)等。
鐘云開 男,(1999—),碩士研究生。主要研究方向:智能無線環(huán)境、深度學(xué)習(xí)。
馬怡樂 男,(1998—),碩士研究生。主要研究方向:可重構(gòu)智能表面技術(shù)。
基金項(xiàng)目:國家自然科學(xué)基金(U1804148);河南省科技攻關(guān)項(xiàng)目(232102210141)