張曉寧
摘 要:為了提高車輛在高速公路行駛時(shí)的安全性和舒適性,基于深度學(xué)習(xí)中的長短期記憶網(wǎng)絡(luò)方法,提取車輛行駛過程中的特征參數(shù),對車輛未來行駛軌跡進(jìn)行預(yù)測,在駕駛模擬器上進(jìn)行仿真與測試,結(jié)果表明該方法可以精準(zhǔn)有效地預(yù)測出車輛行駛軌跡。
關(guān)鍵詞:高速公路;軌跡預(yù)測;長短期記憶網(wǎng)絡(luò)
中圖分類號(hào):U471.1? 文獻(xiàn)標(biāo)識(shí)碼:A? 文章編號(hào):1671-7988(2020)22-32-03
Abstract: In order to improve the safety and comfort of the vehicle driving on the highway, based on the Long Short-Term Memory network method in deep learning, this paper extracts the characteristic parameters of the vehicle driving process and predicts the future driving trajectory of the vehicle. The simulation and test are carried out on the driving simulator, and the results show that this method can accurately and effectively predict the vehicle trajectory.
Keywords: Highway; Trajectory prediction; Long and short-term memory network
CLC NO.: U471.1? Document Code: A? Article ID: 1671-7988(2020)22-32-03
引言
精準(zhǔn)實(shí)時(shí)地獲得車輛在高速公路上行駛的軌跡參數(shù),對于智能交通系統(tǒng)的管理有著重要的作用,通過預(yù)測車輛未來時(shí)刻的軌跡信息,能夠有效評(píng)估駕駛安全性和舒適性,在有安全隱患時(shí)能夠及時(shí)預(yù)警或改變行駛策略,避免碰撞事故的發(fā)生。目前很多研究人員根據(jù)運(yùn)動(dòng)學(xué)或動(dòng)力學(xué)模型進(jìn)行軌跡預(yù)測的建模,相關(guān)的研究主要涉及多項(xiàng)式擬合算法來對軌跡進(jìn)行預(yù)測[1],由于車輛軌跡具有復(fù)雜性、多樣性和隨機(jī)性,使得預(yù)測出的軌跡在長時(shí)序上的精度不能滿足實(shí)際需求。近些年來,基于數(shù)據(jù)驅(qū)動(dòng)的算法在軌跡預(yù)測模型中得到廣泛應(yīng)用,對于復(fù)雜問題的擬合能力強(qiáng)。目前數(shù)據(jù)驅(qū)動(dòng)模型主要有隱性馬爾可夫[2]、動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)[3]、深度學(xué)習(xí)[4]等算法,其中深度學(xué)習(xí)算法中的循環(huán)神經(jīng)網(wǎng)絡(luò)對時(shí)間序列問題具有較好的處理能力,對于具有多樣性、不確定性的軌跡信息具有良好的表征能力。本文采用循環(huán)神經(jīng)網(wǎng)絡(luò)中的LSTM對車輛的未來行駛軌跡進(jìn)行預(yù)測研究,并在駕駛模擬器上采集車輛軌跡進(jìn)行模型驗(yàn)證。
1 循環(huán)神經(jīng)網(wǎng)絡(luò)
1.1 RNN網(wǎng)絡(luò)
RNN是一種帶有記憶功能的神經(jīng)網(wǎng)絡(luò),適用于解決時(shí)間序列問題。然而隨著時(shí)間間隔的不斷累積,RNN網(wǎng)絡(luò)存在梯度消失和梯度爆炸的問題,最終導(dǎo)致網(wǎng)絡(luò)無法獲取之前序列的有效信息,失去學(xué)習(xí)的能力[5]。
1.2 LSTM網(wǎng)絡(luò)
LSTM是RNN的一種變體,可以有效地解決上述這兩個(gè)問題。LSTM網(wǎng)絡(luò)的核心思想是存在能夠隨時(shí)間進(jìn)行信息傳遞的細(xì)胞狀態(tài),該細(xì)胞狀態(tài)通過網(wǎng)絡(luò)中的各種門結(jié)構(gòu),對信息進(jìn)行增刪,使得網(wǎng)絡(luò)具體記憶功能。LSTM網(wǎng)絡(luò)中存在三種門,分別是遺忘門、輸入門和輸出門,每個(gè)門和細(xì)胞狀態(tài)通過激活函數(shù)引入非線性要素,具體結(jié)構(gòu)如圖1所示。
1.2.1 遺忘門
遺忘門的作用是控制xt與ht-1被遺忘的程度,為了記住更長的序列網(wǎng)絡(luò)會(huì)選擇忘記一部分信息。
1.2.2 輸入門
輸入門的作用是通過當(dāng)前xt和ht-1控制細(xì)胞狀態(tài)更新的程度。ht-1和xt經(jīng)過tanh激活函數(shù)得到,由和Ct-1分別與輸入門和遺忘門作用,共同決定當(dāng)前時(shí)刻的Ct。
1.2.3 輸出門
輸出門的作用是通過xt和ht-1來判斷細(xì)胞的輸出特征,當(dāng)前時(shí)刻的Ct經(jīng)過tanh激活函數(shù)后與輸出門作用,得到模型最終的輸出。
2 預(yù)測模型
2.1 模型特征
為深度挖掘車輛行駛過程中的歷史軌跡信息,以自車車速、車輛的縱向坐標(biāo)、車輛的橫向坐標(biāo)、縱向加速度、橫向加速度與橫擺角速度作為車輛的行駛特征來構(gòu)建行駛預(yù)測模型,建立歷史車輛軌跡與未來車輛軌跡特征數(shù)據(jù)之間的映射關(guān)系,t時(shí)刻的軌跡特征具體可以表示為:
3 試驗(yàn)與分析
3.1 數(shù)據(jù)采集與處理
在駕駛模擬器中,使用高速公路自由換道場景對車輛軌跡模型進(jìn)行仿真與測試。采集車輛車速、車輛位置縱坐標(biāo)、車輛位置橫坐標(biāo)、縱向加速度、橫向加速度和橫擺角速度作為表征車輛軌跡的特征值。
由于不同的特征具有不同的取值范圍,為了減小不同量綱之間引起的誤差,對數(shù)據(jù)進(jìn)行歸一化處理。為了得到實(shí)際預(yù)測結(jié)果,還需要對歸一化后的數(shù)據(jù)進(jìn)行反歸一化。
3.2 模型參數(shù)
選取200組換道軌跡數(shù)據(jù)進(jìn)行訓(xùn)練與測試。取前80%的數(shù)據(jù)作為訓(xùn)練集,后20%的數(shù)據(jù)作為測試集。網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)經(jīng)調(diào)整選取如下:輸入層節(jié)點(diǎn)為6,輸出層節(jié)點(diǎn)為2,隱藏層大小為150,訓(xùn)練批次batchsize為16,訓(xùn)練epoch設(shè)置為10。設(shè)置初始學(xué)習(xí)率為 0.001。在本文中分別選取輸入特征步長n={5,10,15,20,25}對軌跡模型進(jìn)行預(yù)測。
3.3 試驗(yàn)分析
該模型具有良好的預(yù)測精度,說明lstm在處理時(shí)序問題上可以精準(zhǔn)地預(yù)測出未來時(shí)刻車輛的軌跡,可以對車輛行駛軌跡進(jìn)行有效監(jiān)控和管理,對提高車輛行駛的安全性具有重要意義。
4 結(jié)論
車輛軌跡預(yù)測在智能交通系統(tǒng)中發(fā)揮著重要的作用,本文基于時(shí)序預(yù)測的LSTM網(wǎng)絡(luò)根據(jù)已知的歷史車輛軌跡信息進(jìn)行建模,能夠?qū)δ繕?biāo)車輛未來時(shí)刻的行駛軌跡進(jìn)行有效、精準(zhǔn)的位置預(yù)測,同時(shí)考慮了軌跡預(yù)測的精準(zhǔn)性和時(shí)效性,有助于交通系統(tǒng)中車輛的狀態(tài)監(jiān)控與行為管理,提高車輛行駛安全性與通行效率。
參考文獻(xiàn)
[1] 張穎達(dá).基于NGSIM數(shù)據(jù)的車輛變道行為博弈模型[D],2016.
[2] Schreier M, Willert V, Adamy J. An Integrated Approach to Man -euver-Based Trajectory Prediction and Criticality Assessment in Arbitrary Road Environments[J].IEEE Transactions on Intelligent Transportation Systems, 2016, 17(10):2751-2766.
[3] 李建平.面向智能駕駛的交通車輛運(yùn)動(dòng)預(yù)測方法研究[D],2018.
[4] 房哲哲.基于深度學(xué)習(xí)的換道行為建模與分析[D],2018.
[5] Juergen Schmidhuber. Gradient Flow in Recurrent Nets: the Diffi -culty of Learning Long-Term Dependencies[M]// Gradient Flow in Recurrent Nets: The Difficulty of Learning Long Term Dependen -cies.Wiley-IEEE Press,2001.