国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于門控循環(huán)單元和Transformer的車輛軌跡預測方法※

2024-12-31 00:00:00王慶榮譚小澤朱昌鋒李裕杰
汽車技術 2024年7期
關鍵詞:解碼器時刻注意力

【摘要】為增強自動駕駛車輛對動態(tài)環(huán)境的理解能力及其道路行駛安全性,提出基于門控循環(huán)單元(GRU)和Transformer的車輛軌跡預測模型STGTF,使用GRU提取車輛的歷史軌跡特征,通過雙層多頭注意力(MHA)機制提取車輛的時空交互特征,生成預測軌跡。試驗結果表明,預測結果的均方根誤差(RMSE)平均降低7.3%,STGTF在短期預測和長期預測方面均有不同程度的提升,驗證了模型的有效性。

主題詞:車輛軌跡預測 門控循環(huán)單元 Transformer 車輛交互 多頭注意力機制

中圖分類號:TP399 " 文獻標志碼:A " DOI: 10.19620/j.cnki.1000-3703.20230877

Vehicle Trajectory Prediction Method Based on GRU and Transformer

Wang Qingrong1, Tan Xiaoze1, Zhu Changfeng2, Li Yujie1

(1. Institute of Electronic and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070; 2. Institute of Transportation, Lanzhou Jiaotong University, Lanzhou 730070)

【Abstract】In order to enhance the understanding of the dynamic environment of autonomous vehicles and to improve road driving safety, this article proposed a vehicle trajectory prediction STGTF model based on the Gated Recurrent Unit (GRU) and Transformer that used the GRU to extract the historical trajectory features of vehicles, and used a two-layer Multi-Headed Attention (MHA) mechanism to extract the spatio-temporal interaction features of vehicles, generating the predicted trajectories. The experimental results show that the Root-Mean-Square Error (RMSE) of the predicted results decrease by 7.3% on average, STGTF model has different degrees of improvement compared with other existing methods for both short-term prediction and long-term prediction, proving validity of this model.

Key words: Vehicle trajectory prediction, Gated Recurrent Unit (GRU), Transformer, Vehicle interaction, Multi-head attention mechanism

【引用格式】 王慶榮, 譚小澤, 朱昌鋒, 等. 基于門控循環(huán)單元和Transformer的車輛軌跡預測方法[J]. 汽車技術, 2024(7): 1-8.

WANG Q R, TAN X Z, ZHU C F, et al. Vehicle Trajectory Prediction Method Based on GRU and Transformer[J]. Automobile Technology, 2024(7): 1-8.

1 前言

自動駕駛系統(tǒng)中,車輛軌跡預測直接關聯(lián)車輛的決策與控制,是實現(xiàn)智能交通的核心技術之一。車輛行駛軌跡通常受周圍車輛影響[1],為確保自動駕駛車輛能夠安全、有效地適應環(huán)境變化,需實時了解臨近車輛的駕駛狀態(tài)和意圖[2]。因此,車輛軌跡預測對防止交通事故的發(fā)生、提升道路行駛的安全性具有重要意義。

傳統(tǒng)車輛軌跡預測方法主要依靠物理模型或機器學習方法,如運動學和動力學模型、隱馬爾可夫模型和卡爾曼濾波等[3]。此類方法適用于駕駛意圖識別和短期的軌跡預測,無法準確理解復雜場景,導致長期預測效果不佳[4]。隨著深度學習的發(fā)展,人工神經(jīng)網(wǎng)絡逐漸應用于軌跡預測問題[5]。Deo等[6]提出車輛軌跡預測模型卷積社交長短時記憶(Convolutional Social Long Short Term Memory,CS-LSTM)網(wǎng)絡,使用卷積池化層代替社交長短時記憶(Social Long Short Term Memory,S-LSTM)網(wǎng)絡[7]的池化層,以提取周圍車輛的交互信息進行軌跡預測。李文禮等[8]在社交生成對抗網(wǎng)絡(Social Generative Adversarial Network,S-GAN)模型[9]的基礎上考慮車輛的行駛狀態(tài)參數(shù)和形狀尺寸,并建立車輛間交互影響力場模型,體現(xiàn)了車輛間的復雜空間交互影響特性。為加強車輛間交互關系,可通過引入注意力機制聚焦歷史軌跡數(shù)據(jù)中的關鍵信息,從而提取車輛間交互特征[10]。Messaoud等[11]提出基于長短時記憶(Long Short Term Memory,LSTM)網(wǎng)絡的編、解碼器框架,并采用多頭注意力(Multi-Head Attention,MHA)機制強調(diào)相鄰車輛間的交互作用以提高軌跡預測的精度。Liu等[12]提出mmTransformer(Multimodal Motion Transformer)模型,使用多頭自注意機制捕捉相鄰車輛的交互特征,并采用基于區(qū)域的訓練策略實現(xiàn)了多模態(tài)軌跡預測,但此類方法僅關注交互車輛的空間相關性,忽略了交互的時間依賴性。

在動態(tài)密集的駕駛環(huán)境中,車輛運動受到周圍車輛的交互作用通常隨著時間動態(tài)變化。鑒于此,本文提出基于門控循環(huán)單元(Gated Recurrent Unit,GRU)和Transformer的車輛軌跡預測模型STGTF(Spatio-Temporal GRU-Transformer),利用GRU編碼歷史軌跡數(shù)據(jù)提取車輛的歷史軌跡特征,設計具有雙層多頭注意力機制的Transformer編碼器,同時捕獲車輛間的時空交互特征,使用Transformer解碼器生成預測軌跡。

2 軌跡預測模型

2.1 車輛軌跡預測模型

根據(jù)目標車輛的歷史軌跡以及交通環(huán)境信息準確預測目標車輛未來一段時間的行駛軌跡[13]。以場景內(nèi)所有車輛在歷史時段Tp內(nèi)的軌跡序列P作為輸入:

[P=pT-Tp,…,pt,…,pTpt=p1t,…,pit,…,pntpit=xit,yit,vit,uit,cit] " " " " " " " " " " (1)

式中:T為當前時刻;Tp為歷史時間;n為車輛總數(shù)量;pt為t時刻車輛的歷史特征;[pit]為t時刻車輛i的歷史特征,包括車輛i在t時刻的橫坐標[xit]、縱坐標[yit]、瞬時速度[vit]、瞬時加速度[uit]和車輛類型[cit]。

模型的輸出為場景內(nèi)所有車輛在未來時段Tf內(nèi)的軌跡序列F:

[F=fT+1,…, ft,…, fT+Tfft=f1t,…, fit,…, fntfit=xit,yit] " " " " " " " " " "(2)

式中:ft為t時刻車輛的預測特征;[fit]為t時刻車輛i的預測特征,包括目標車輛的橫坐標[xit]和縱坐標[yit]。

在t時刻,以采集區(qū)域內(nèi)目標車輛的前軸中心坐標(x0,y0)為原點,以行駛方向為x軸、垂直方向為y軸建立坐標系,如圖1所示。假設周圍車輛使用局部坐標(xn,yn),所在坐標系的相對坐標為[x′n,y′n],則有:

[x′n=xn-x0y′n=yn-y0] " " " nbsp; " " " " " " " " " " " " (3)

當目標車輛行駛方向的偏轉角為θ時,周圍車輛的行駛方向不變,此時周圍車輛的相對坐標為[xθn,yθn]:

[θ=arctanxt0-xt-10yt0-yt-10] " " " " " " " " " " " " " (4)

[xθn=x′ncosθ+y′nsinθyθn=-x′ncosθ+y′nsinθ] " " " " " " " " " " " "(5)

式中:[xt0,yt0]為t時刻車輛的前軸中心坐標。

2.2 預測模型構建

為實現(xiàn)車輛在復雜交通場景中軌跡的準確預測,本文提出基于GRU和改進Transformer的時空交互注意網(wǎng)絡STGTF,如圖2所示。STGTF分為以下3個部分:

a. 軌跡特征提取模塊,通過GRU對輸入的車輛歷史軌跡序列P進行編碼,提取歷史軌跡的時間序列特征。

b. 交互特征提取模塊,使用雙層多頭注意力機制的Transformer編碼器對編碼向量進行注意力加權,先獲取車輛之間的空間交互特征,再獲取空間交互特征序列的時間依賴關系,最終得到車輛的時空交互特征。

c. 軌跡解碼模塊,通過Transformer解碼器實現(xiàn)對時空交互特征的解碼,生成最終預測軌跡序列F。

3 網(wǎng)絡結構設計

3.1 軌跡特征提取模塊

軌跡特征提取模塊首先通過多層感知機(Multi-Layer Perceptron,MLP)將車輛各時刻運動狀態(tài)轉換成嵌入表示:

et=fMLP(pt,We) " " " " " " " " " " " " " " " "(6)

式中:We為嵌入權重矩陣,fMLP為MLP層。

利用GRU對嵌入編碼并提取歷史軌跡特征,如圖3所示。其中:zt為t時刻更新門(Update Gate)的輸出,控制要被繼續(xù)傳遞到未來的信息量;rt為t時刻重置門(Reset Gate)的輸出,控制將要遺忘的信息量。

通過重置門對t時刻車輛的運動狀態(tài)et和上一時刻傳遞的隱藏狀態(tài)ht-1計算出需要被遺忘的信息量。同時,使用更新門計算需要被傳遞的信息量,將重置門的輸出rt與上一時刻的隱藏狀態(tài)ht-1相乘并與et進行映射,計算候選隱藏狀態(tài)。最后,將上述記憶內(nèi)容與當前記憶內(nèi)容疊加進行更新記憶,得到t時刻的隱藏狀態(tài):

[rt=σWr?[ht-1,et]+brzt=σWz?[ht-1,et]+bzht=tanhWh?[rt,ht-1,et]+bh] " " " " " " " " "(7)

[ht=zt×ht+(1-zt)×ht-1] " " " " " " " " " " " (8)

式中:σ為S型函數(shù)(Sigmoid函數(shù)),ht為t時刻的隱藏狀態(tài),[ht]為t時刻候選隱藏狀態(tài),tanh為激活函數(shù),Wr、Wz、Wh分別為重置門、更新門和候選隱藏單元的權重矩陣,br、bz、bh分別為重置門、更新門和候選隱藏單元的偏置向量。

對所有嵌入進行處理,得到所有車輛的運動隱藏狀態(tài)后進行信息編碼,作為車輛的歷史軌跡特征H={ht1,…,hti,…,htn}。

3.2 交互特征提取模塊

在歷史軌跡特征提取模塊中,各車輛均以獨立的GRU單元編碼,不考慮各車輛間交互關系。實際上,車輛的行駛軌跡受自身駕駛狀態(tài)影響的同時,還會受到其他車輛駕駛行為交互作用的影響。由于不同車輛對目標車輛的影響程度存在差異,為了考慮車輛交互作用的影響程度,使用Transformer編碼器的多頭注意力機制對車輛歷史軌跡的編碼信息建立各車輛間的聯(lián)系。

Transformer編碼器結構如圖4所示,包含位置編碼(Positional Encoding,PE)、多頭注意力機制層、前饋網(wǎng)絡(Feed Forward Network,F(xiàn)FN)層、殘差連接和層歸一化(Residual Connection and Layer Normalization,Addamp;Norm)。車輛間交互作用存在空間性及時間依賴性,因此,本文將Transformer編碼器中的多頭注意力機制層設計成雙層多頭注意力機制。

首層MHA中,為獲取交互作用的空間性,在每個時間戳內(nèi)計算車輛之間交互作用程度,對各車輛與周圍車輛的歷史軌跡特征進行相似度計算,通過加權求和得到周圍車輛的注意力權重。第二層MHA中,計算不同時間戳之間的注意力權重,使模型更多地關注上層中有強交互作用的時間戳內(nèi)的信息。

3.2.1 位置編碼

由于Transformer中不存在處理時序數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)[14]結構,所以在輸入嵌入(Input Embedding)后增加位置編碼(Positional Encoding),以提供輸入的時序信息:

[PE(l,2i)=sin(l/10 0002i/dmodel)PE(l,2i+1)=cos(l/10 0002i/dmodel)] " " " " " " " " "(9)

式中:PE(l,2i)、PE(l,2i+1)分別為偶數(shù)位置和奇數(shù)位置的編碼,l為軌跡點在整條軌跡中的位置,i為對應軌跡點向量的維度,dmodel為嵌入的總維度。

3.2.2 多頭注意力機制層

計算首層MHA中各車輛與其他車輛間在空間中交互作用的程度,注意力機制的原理如圖5所示。

首先,將車輛的歷史特征通過3個權重矩陣[Wq]、[Wk]、[Wv]分別映射得到對應的查詢(Query)矩陣Q、鍵(Key)矩陣K和值(Value)矩陣V:

[Q=q1t,…,qit,…,qntK=k1t,…,kit,…,kntV=v1t,…,vit,…,vnt] " " " " " " " " (10)

[qit=Wq?hitkit=Wk?hitvit=Wv?hit] " " " " " " " " " " " " " (11)

式中:[qit]、[kit]、[vit]分別為t時刻車輛i的查詢向量、鍵向量和值向量。

通過計算車輛i的[qit]和車輛j的[kit]的點積得到車輛j對車輛i的注意力得分為[st(i,j)=qit?kit],并通過Softmax函數(shù)進行歸一化處理,再將其與車輛j的[vit]相乘,對所有加權值求和,得到對應的注意力權重:

[at,i=i=1nj=1nSoftmaxst(i,j)dkey?vjt] " " " " " " "(12)

式中:dkey為值向量的維度。

將多個原始特征向量Wa、Wk、Wv映射到不同空間,計算相似度。通過拼接(Concat)操作拼接各注意力權重,從而得到包含所有注意力頭的權重:

[At=fConcat(a1t,…,aht)?Wo] " " " " " " " " "(13)

式中:[fConcat]為拼接(Concat)函數(shù),At為h個注意力頭的權重,[aht]為第h個頭的注意力權重,Wo為線性轉換的權重矩陣,h為映射的空間的數(shù)量,即頭數(shù)。

車輛在各時間戳內(nèi)均需進行計算,因此,車輛的空間交互特征序列[H=AT-Tp,…,AT]。將空間交互特征序列[H]作為第二層MHA的輸入,同理,車輛的時空交互特征序列[H]為:

[H={A1,…,Ai,…,An}Ai=fConcat(a1t,…,aht)?Woai,t=t=T-TpTt=T-TpTSoftmaxqt?ktdkey?vt] " " " " "(14)

3.3 軌跡解碼模塊

使用Transformer解碼器進行解碼,包括掩碼多頭注意力(Masked Multi-Head Attention,MMHA)層、編碼器-解碼器注意力(Encoder-Decoder Attention,EDA)層、前饋網(wǎng)絡層、殘差連接和層歸一化。

MMHA是解碼器特有結構,為保證未來的信息不被提前解碼,需要對當前時刻之后的信息進行掩碼處理。EDA通過計算編碼器的輸出Key、Value和解碼器上一時刻的輸出Query之間的權重,使解碼器能夠?qū)⒆⒁饬杏趯Ξ斍败囕v交互影響更大的車輛。此外,編碼器或解碼器均由數(shù)量為N的相同的編碼層或解碼層堆疊而成。

解碼后,需對解碼器的輸出進行全連接線性映射,并通過Softmax函數(shù)歸一化預測值,輸出軌跡的預測位置,獲得最終預測軌跡序列。

4 試驗結果及分析

4.1 數(shù)據(jù)集

本文使用美國聯(lián)邦公路管理局采集的公開軌跡數(shù)據(jù)集NGSIM(Next Generation Simulation),由多個高架攝像機以10 Hz的采樣頻率記錄的真實高速公路駕駛場景組成。本文使用US 101和I-80兩個場景下的數(shù)據(jù),如圖6所示。每個數(shù)據(jù)集有45 min數(shù)據(jù),其中,稀疏、中等和稠密3種交通狀況各15 min,數(shù)據(jù)內(nèi)容包括車輛的坐標、速度、加速度等。

4.2 參數(shù)設置

本文提出的模型在NVIDIA GeForce RTX 3090圖形處理器的試驗環(huán)境下進行,在PyTorch框架下使用Python語言完成。其中,GRU隱藏單元數(shù)為64,并使用tanh函數(shù)將輸出約束在[-1,1]范圍內(nèi)。MHA頭數(shù)為8,Transformer編解碼器設置為6層。采用自適應矩估計(Adaptive Moment Estimation,Adam)優(yōu)化器[15],初始學習率設置為0.000 5。每次訓練的樣本批量大小為32,模型迭代次數(shù)為400次。每個場景共有8 s的觀測數(shù)據(jù),以前3 s的數(shù)據(jù)作為歷史軌跡數(shù)據(jù),后5 s的數(shù)據(jù)作為需要預測的未來軌跡數(shù)據(jù),并以7∶1∶2的比例劃分為訓練集、驗證集與測試集。

在訓練過程中,將最小平方誤差損失作為模型的損失函數(shù),即[lLoss=t=TT+Tfft-ft2]。其中,ft為模型預測的軌跡,[ft]為真實軌跡。

4.3 模型評價

模型評估采用的評價指標為均方根誤差(Root Mean Square Error,RMSE),即在預測時間內(nèi)預測軌跡位置和真實軌跡位置的平均歐幾里得距離(Mean Euclidean Distance,MED)之間的差異,反映模型的平均預測性能。RMSE的值越小,表示模型的預測軌跡與真實軌跡之間的偏移越小,預測效果越好:

[eRMSE=1ni=1nxit-xit2+yit-yit2] " " " " " " " (15)

式中:[xit]、[yit]分別為t時刻軌跡預測位置的橫、縱坐標,[xit]、[yit]分別為t時刻軌跡真實位置的橫、縱坐標。

4.4 試驗結果

4.4.1 交互車輛選取范圍分析

為了驗證臨近車輛與待預測車輛的交互作用范圍,選擇縱向距離前、后分別為0 m、50 m、100 m、150 m和橫向距離左、右分別為0 m、4 m、8 m進行分析,試驗結果如圖7所示。

由圖7a可知,當周圍車輛與待預測目標車輛的縱向距離為前、后100 m時,模型可以取得優(yōu)于其他距離的結果。由圖7b可知,當周圍車輛與待預測目標車輛的橫向距離為左、右4 m時,模型可以取得優(yōu)于其他距離的結果。以上結果說明,不考慮周圍車輛的交互影響或考慮過多周圍車輛的交互影響均會降低預測精度。

4.4.2 基準模型對比試驗

為了評估模型性能,將本文模型STGTF與基準模型進行比較,不同預測時域tp條件下的預測結果如表1和圖8所示。對比模型包括S-LSTM模型、S-GAN模型、CS-LSTM模型和規(guī)劃軌跡預測(Planning-informed trajectory Prediction,PiP)[16]模型。

由預測結果可知,本文模型STGTF的性能均優(yōu)于其他基準模型,且在3~5 s內(nèi)的長期預測中優(yōu)勢明顯。在1~2 s內(nèi)各模型預測性能相近源于短期預測更多受到車輛歷史軌跡和即時狀態(tài)的影響,比長期預測更容易取得較好性能,交互作用的影響在長期預測上表現(xiàn)更為明顯。S-LSTM雖然考慮了空間交互作用的影響,但與其他模型相比范圍較小,故預測結果較差。S-GAN使用生成式對抗網(wǎng)絡,交互作用的范圍更大,使得預測效果有所提升。CS-LSTM使用了卷積池化層,相較于S-LSTM的最大池化層能夠更好地捕捉到車輛之間的交互,但預測精度仍略低于考慮自車運動趨勢的PiP模型。本文提出的STGTF同時考慮了交互的空間相關性和時間依賴性,使模型能夠更穩(wěn)健地對車輛之間的交互作用進行建模,從而預測結果更佳。

4.4.3 消融實驗

為進一步驗證本文模型各模塊的有效性,對STGTF模型進行消融實驗,結果如表2和圖9所示。

消融實驗結果顯示,從STGTF中去除不同部分后,得到的模型普遍存在不同程度的性能退化。其中,STTF(Spatio-Temporal Transformer)為去掉歷史軌跡特征提取模塊的模型,將歷史軌跡數(shù)據(jù)經(jīng)過一層全連接層直接輸入時空交互特征提取模塊,STGTF與之相比,RMSE降低約5.2%,說明提取車輛的歷史軌跡時間序列特征和運動狀態(tài)特征能夠提升模型的預測能力。TGTF(Temporal GRU-Transformer)為只考慮待預測車輛歷史軌跡而不考慮空間交互作用的模型,STGTF與之相比,RMSE降低約10.2%。結果表明,隨著預測時長的增加,未考慮車輛交互的模型性能退化愈發(fā)明顯,說明車輛間交互作用影響車輛的軌跡預測,在長期預測問題中格外關鍵。SGTF(Spatial GRU-Transformer)只考慮交互作用的空間相關性而不考慮時間依賴性的模型,STGTF與之相比,RMSE降低約2.4%,說明考慮交互作用的時間依賴性是有必要的。綜上可知,本文模型各模塊對提升模型性能均有效。

4.4.4 可視化結果分析

對模型進行定性分析,選擇具有代表性的2種場景,并對其預測結果進行可視化,如圖10所示。

圖10a可知,本文模型比較準確地預測出車輛直行時的未來軌跡,同時,該場景下周圍車輛的換道行為,并未影響對目標車輛軌跡的預測,說明本文模型具有一定的抗干擾性。圖10b中,本文模型雖然在換道點附近的預測結果稍有偏差,但仍可準確地預測車輛的行駛趨勢。

本文模型與對比模型在換道場景中的預測軌跡對比結果如圖11所示。在變道的復雜場景中,本文模型同樣能夠更準確地預測未來軌跡,且更接近真實軌跡。

5 結束語

為提升自動駕駛技術在復雜交通環(huán)境下的安全性,本文建立了基于GRU和Transformer的車輛軌跡預測方法STGTF,實現(xiàn)了對車輛未來行駛軌跡的預測。通過RMSE比較預測軌跡與真實軌跡之間的差異,驗證了本文模型的性能及各組成部分的有效性。定量試驗結果表明,本文模型與現(xiàn)有模型相比,在1~5 s內(nèi)的預測精度均有所提升,且提升效果隨時間增長明顯。定性試驗結果表明,本文模型能夠得到較為接近真實軌跡的預測結果。

未來,將考慮引入道路環(huán)境數(shù)據(jù)信息,使預測結果符合道路的幾何特征,增強預測結果的可靠性,進一步提升自動駕駛汽車路徑規(guī)劃的安全性。

參 考 文 獻

[1] HU L, ZHOU X Q, ZHANG X, et al. A Review on Key " " "Challenges in InIntelligent Vehicles: Safety and " Driver-Oriented Features[J]. IET Intelligent Transport Systems, 2021, 15(9): 1093-1105.

[2] LIU J B, MAO X Y, FANG Y Q, et al. A Survey on Deep-Learning Approaches for Vehicle Trajectory Prediction in Autonomous Driving[C]// 2021 IEEE International " " " " " " " " Conference on Robotics and Biomimetics (ROBIO). Sanya, China: IEEE, 2021: 978-985.

[3] LEFèVRE S, VASQUEZ D, LAUGIER C. A Survey on " " Motion Prediction and Risk Assessment for Intelligent " " " " " "Vehicles[J]. Robomech Journal, 2014, 1(1): 1-14.

[4] CHEN W H, WANG F F, SUN H B. "S2TNet: Spatio-Temporal Transformer Networks for Trajectory Prediction in " Autonomous Driving[C]// Asian Conference on Machine Learning. Online: PMLR, 2021: 454-469.

[5] 高振海, 鮑明喜, 高菲, 等. 智能駕駛系統(tǒng)對周邊交通車輛預期軌跡的單模態(tài)網(wǎng)絡預測方法[J]. 汽車技術, 2022(11): 1-9.

GAO Z H, BAO M X, GAO F, et al. A Uni-Modal Network Prediction Method for Surrounding Vehicle Expected " " " " "Trajectory in Intelligent Driving System[J]. Automobile " " Technology, 2022(11): 1-9.

[6] DEO N, TRIVEDI M M. Convolutional Social Pooling for "Vehicle Trajectory Prediction[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City, UT, USA: IEEE, 2018: 1468-1476.

[7] ALAHI A, GOEL K, RAMANATHAN V, et al. Social LSTM: Human Trajectory Prediction in Crowded Spaces[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 961-971.

[8] 李文禮, 韓迪, 石曉輝, 等. 基于時-空注意力機制的車輛軌跡預測[J]. 中國公路學報, 2023, 36(1): 226-239.

LI W L, HAN D, SHI X H, et al. Vehicle Trajectory " " " " " "Prediction Based on Spatial-Temporal Attention Mechanism[J]. China Journal of Highway and Transport, 2023, 36(1): 226-239.

[9] AGRIM G, JUSTIN J, LI F F, et al. Social GAN: Socially " " Acceptable Trajectories with Generative Adversarial " " " " Networks[C]// Proceedings of the IEEE Conference on " " " " "Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 2255-2264.

[10] LI L, ZHAO W Z, WANG C Y, et al. BRAM-ED: Vehicle Trajectory Prediction Considering the Change of Driving Behavior[J]. IEEE/ASME Transactions on Mechatronics, 2022, 27(6): 5690-5700.

[11] MESSAOUD K, YAHIAOUI A, VERROUST-BLONDET A, et al. Attention Based Vehicle Trajectory Prediction[J]. IEEE Transactions on Intelligent Vehicles, 2021, 6(1): 175-185.

[12] LIU Y C, ZHANG J H, FANG L J, et al. Multimodal Motion Prediction with Stacked Transformers[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE, 2021: 7573-7582.

[13] 趙樹恩, 蘇天彬, 趙東宇. 基于圖神經(jīng)網(wǎng)絡的交互車輛駕駛意圖識別及軌跡預測[J]. 汽車技術, 2023(7): 24-30.

ZHAO S E, SU T B, ZHAO D Y. Interactive Vehicle " " " " Driving Intention Recognition and Trajectory Prediction Based on Graph Neural Network[J]. Automobile " " " " " Technology, 2023(7): 24-30.

[14] CHOI S, KIM J, YEO H. Attention-Based Recurrent " " " Neural Network for Urban Vehicle Trajectory Prediction[J]. Procedia Computer Science, 2019, 151: 327-334.

[15] ZHANG Z J. Improved Adam Optimizer for Deep Neural Networks[C]// 2018 IEEE/ACM 26th International " " " " " " Symposium on Quality of Service (IWQoS). Banff, AB, " " "Canada: IEEE, 2018: 1-2.

[16] SONG H R, DING W C, CHEN Y X, et al. PiP: Planning-Informed Trajectory Prediction for Autonomous Driving[C]// European Conference on Computer Vision. Glasgow, United Kingdom: Springer, Cham, 2020: 598-614.

(責任編輯 瑞 秋)

修改稿收到日期為2023年11月20日。

猜你喜歡
解碼器時刻注意力
讓注意力“飛”回來
冬“傲”時刻
科學解碼器(一)
捕獵時刻
科學解碼器(二)
科學解碼器(三)
線圣AudioQuest 發(fā)布第三代Dragonfly Cobalt藍蜻蜓解碼器
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
街拍的歡樂時刻到來了
定日县| 永胜县| 渝中区| 安国市| 台北市| 满洲里市| 东乡| 秭归县| 额尔古纳市| 张家界市| 阿城市| 宜兰县| 德清县| 安岳县| 石嘴山市| 昌邑市| 洛扎县| 肃北| 长治县| 寿宁县| 阳谷县| 昌宁县| 惠水县| 丹江口市| 邻水| 富平县| 马关县| 汝阳县| 宝清县| 台东县| 阆中市| 赣州市| 福海县| 章丘市| 达尔| 安远县| 都匀市| 磐石市| 浏阳市| 伊宁县| 谢通门县|