国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多視角的輕量化車路協(xié)同感知模型

2024-09-14 00:00:00王飛何軍黃雄炬徐愷睿楊華岳李海強
無線電通信技術 2024年4期
關鍵詞:多視角自動駕駛輕量化

摘 要:針對自動駕駛車輛在城市開放道路場景下,交通元素和交通事件感知精度不足、目標檢測模型參數(shù)大且難部署的問題,提出了一種多視角的輕量化車路協(xié)同感知模型。在車輛駕駛過程中分別對路側和車輛的傳感器各自的圖像數(shù)據(jù)進行采集,通過車輛姿態(tài)信息與相對位置,將車輛信息轉換到路側坐標系下,實現(xiàn)坐標系的統(tǒng)一;利用ImVoxelNet 算法進行目標檢測,同時采用訓練后量化(Post Training Quantization,PTQ)方法壓縮目標檢測模型;通過匈牙利算法對感知結果進行融合,實現(xiàn)城市開放道路場景下高精度、低開銷的車路協(xié)同目標感知;采用車路協(xié)同的數(shù)據(jù)集進行實驗。結果表明該模型實現(xiàn)了城市開放道路場景下車路協(xié)同感知的檢測能力,同時驗證了所提算法的可行性和有效性。

關鍵詞:自動駕駛;多視角;輕量化;車路協(xié)同

中圖分類號:TN919. 23 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):

文章編號:1003-3114(2024)04-0688-08

0 引言

車路協(xié)同感知技術作為智慧交通系統(tǒng)的重要組成部分,以其卓越的潛力引發(fā)學者廣泛關注。該技術通過車輛與道路基礎設施之間的信息交互,旨在實現(xiàn)智能化、安全性強、高效能的智慧交通系統(tǒng)。

在城市開放道路場景下,傳統(tǒng)的單視角車輛感知具有局限性,車路協(xié)同方法可以提供全局視角和遠程感知能力來解決這一問題。上官偉等[1]為了處理城市開放道路下的交通擁堵問題,基于遺傳算法、粒子群算法、引力場模型提出了一種車路協(xié)同架構下的控制策略方法,該方法提高了道路的行車效率。Deng 等[2]綜合考慮了智慧道路和交通業(yè)務需求,分析了當前車路協(xié)同應用場景研究現(xiàn)狀,構建了覆蓋不同車輛、應用環(huán)境和業(yè)務領域的多層次車路協(xié)同應用場景庫,分層級分類拓寬場景供給,為車路協(xié)同的示范應用和創(chuàng)新推廣提供了參考。車路協(xié)同的相關方法最早集中于比較簡單的后融合方案,但隨著人們對車路協(xié)同的逐漸重視,相關的研究也越來越多。Cooper 法[3]依靠激光雷達點云,在原始數(shù)據(jù)層級融合了車聯(lián)網中不同位置的傳感器數(shù)據(jù),同時使用一種基于點云的3D 目標檢測方法來處理融合對齊后的點云。FCooper[4]法在Cooper 法的基礎上,不僅在訓練階段使用基于特征的融合方法,還利用特征的小尺寸屬性來實現(xiàn)實時的邊緣計算,避免由于車聯(lián)網的帶寬限制導致的網絡堵塞的問題。Arnold 等[5]提出了兩種使用傳感器進行協(xié)作3D 目標檢測的方法,早期融合方案在原始數(shù)據(jù)層面直接融合來自多個空間不同傳感器來源的點云,而后期融合方法融合了來自多個空間不同傳感器獨立檢測到的邊界框。Xu 等[6]提出了一種適用于路側單元配備攝像頭、雷達的車路協(xié)同系統(tǒng)的多傳感器融合協(xié)議,同時為了充分利用歷史信息和多源異構感知數(shù)據(jù)來提高多傳感器融合的可靠性,進一步提出了基于貝葉斯的兩層融合方案。

盡管如此,現(xiàn)有的車路協(xié)同感知方案仍存在一些不足。許多方案需要大量的計算資源和數(shù)據(jù)存儲能力,在實際應用中可能會帶來成本和效率上的挑戰(zhàn);對于復雜和動態(tài)的交通環(huán)境,當前的技術仍然難以實現(xiàn)高度準確和可靠的感知[7]。因此,目前對車、路的特征級融合,以及車路協(xié)同3D 目標檢測輕量化模型的研究還是亟待探索的狀態(tài)。本研究旨在在輕量化的前提下設計一種融合策略方式,有效地融合多傳感器的多視角數(shù)據(jù)輸入,提高車路協(xié)同感知模型的效率和性能。

為了克服現(xiàn)有方案的限制,提出了一種多視角、輕量化的車路協(xié)同感知方案。此方案的核心在于融合多視角的相機傳感器所收集的數(shù)據(jù)信息,采用高性能的數(shù)據(jù)處理技術,在復雜交通環(huán)境中實現(xiàn)高精度的感知能力。特別地,該方案運用了輕量級算法,在優(yōu)化處理速度和減少能耗方面取得顯著成效。通過這種方式,本方案顯著降低了對高性能計算資源的依賴,為實際交通系統(tǒng)中的應用提供了更為靈活和經濟的解決方案。

本研究的主要貢獻點和創(chuàng)新點如下:

① 使用路側和車輛的相機設備采集圖像數(shù)據(jù),為了統(tǒng)一路側與車端數(shù)據(jù),通過車輛姿態(tài)信息與相對位置將信息統(tǒng)一到路側坐標系中,隨后利用Im-VoxelNet 進行目標檢測。

② 針對目標檢測模型參數(shù)大,車端設備部署困難等問題,采用訓練后量化(Post Training Quantiza-tion,PTQ)方法壓縮ImVoxelNet 目標檢測模型,保持高性能的同時,顯著減少計算資源的需求。

③ 為了實現(xiàn)車路協(xié)同目標感知,通過計算歐式距離,使用匈牙利算法進行目標匹配,從而實現(xiàn)多視角目標感知檢測結果。

1 多視角的輕量化車路協(xié)同感知模型

針對自動駕駛車輛在城市開放道路場景下,交通元素和交通事件感知精度不足、目標檢測模型參數(shù)大且難部署的問題,提出了一種多視角的輕量化車路協(xié)同感知模型,如圖1 所示。

在車輛駕駛過程中分別對路側和車輛傳感器各自的圖像數(shù)據(jù)進行采集,通過車輛姿態(tài)信息與相對位置,將車輛信息轉換到路側坐標系下,實現(xiàn)坐標系的統(tǒng)一;利用ImVoxelNet 算法進行目標檢測,同時采用PTQ 方法壓縮目標檢測模型;最后,通過匈牙利算法對感知結果進行融合,實現(xiàn)城市開放道路場景下高精度、低開銷的車路協(xié)同目標感知。

車路協(xié)同感知模型整體構建流程如圖2 所示。本研究旨在通過多方面的協(xié)同機制實現(xiàn)車端和路側視頻檢測信息的有效整合。具體而言,設計了一個高性能的數(shù)據(jù)融合框架,該框架中車輛和路側設施采用了統(tǒng)一的通信標準和數(shù)據(jù)格式,即采用LTE-V無線通信,使用車聯(lián)網專用5 905 ~ 5 925 MHz 頻段,以此確保信息的一致性。同時采用了ImVoxelNet 框架并進行了8 bit 量化,降低了延時,車輛和路側設施能夠及時共享交通狀況,如識別道路上的障礙物、交叉口內的車流、行人和信號燈狀態(tài)等信息。同時強調了數(shù)據(jù)的互補性,通過匈牙利算法的后端數(shù)據(jù)融合策略,提高了整個系統(tǒng)的檢測準確性和魯棒性,從而更好地適應復雜的交通環(huán)境。

2 多視角的輕量化車路協(xié)同感知方法

2. 1 數(shù)據(jù)采集與處理

針對城市開放道路上駕駛汽車所配備的傳感器缺乏全局視角和遠程感知能力,行業(yè)內普遍意識到路側設施感知的關鍵性,同時使用路側設施和車輛傳感器可以極大地提高目標識別的可靠性[8-11]。所提車路協(xié)同感知模型,以路側基礎設施為主采集駕駛道路場景RGB 圖像,以車端攝像頭為輔采集的場景RGB 圖像,通過多視角圖像進行3D 物體的檢測[12-15]。

對所采集到的多視角圖像,分別獲得每個單目RGB 圖像的預測結果,然后將這些預測結果進行聚合[16]。為了從多個輸入中積累信息,構建了3D 空間的體素表示,使用這種統(tǒng)一的方法來檢測場景中的對象,從3D 特征圖中獲得最終預測。

2. 2 坐標轉換

路側設施采集到的路端圖像和車輛攝像頭采集的車端圖像的3D 感知結果,分別基于各自的坐標系。為了統(tǒng)一路側與車輛圖像數(shù)據(jù)的感知結果,將二者感知結果進行關聯(lián),需要進行坐標轉換,坐標系轉換流程如圖3 所示。

通過獲得路側與車輛的GPS 位置信息,得到二者的相對位置;為了隱私保護抹去GPS 信息;分別基于路側和車輛傳感器定義路側相機坐標系和車輛相機坐標系。通過路側/ 車輛傳感器外參將圖像感知結果,由路側/ 車輛相機坐標系轉換到路側/ 車輛坐標系;再通過車輛姿態(tài)信息與相對位置,將車輛感知結果轉換到路側坐標系下,實現(xiàn)坐標系的統(tǒng)一,進行后續(xù)算法的融合。

2. 3 基于ImVoxelNet 的目標檢測

ImVoxelNet 目標檢測流程如圖4 所示。首先,ImVoxelNet 使用2D 卷積網絡從給定的圖像中提取特征[17];然后,將得到的圖像特征投影到3D 體素體中,對于每個體素,來自多個圖像的投影特征通過簡單的元素平均聚合;最后,具有指定特征的體素體被傳遞給一個稱為頸部的3D 卷積網絡,頸部的輸出作為最后一個卷積層(頭部)的輸入,預測每個錨點的邊界框特征。

得到包圍框參數(shù),化為(x,y,z,w,h,l,θ),其中(x,y,z)為中心坐標,w、h、l 分別為寬度、高度和長度,θ 為圍繞z 軸的旋轉角度。

2. 4 ImVoxelNet 模型量化

2. 4. 1 PTQ 方法

PTQ 方法是將Float 浮點型數(shù)據(jù)轉換為低位寬數(shù)據(jù),以這樣的方式處理數(shù)據(jù)優(yōu)點在于減少計算量,且能夠更加適配低帶寬的邊緣計算設備,同時可以使用硬件設備或者計算庫支持進行低位計算的優(yōu)化,達到進一步加速計算的目的[18-21]。PTQ 方法是將訓練過的float32 神經網絡轉化為定點計算的網絡,在對模型壓縮的過程中不需要對模型進行再訓練,僅針對訓練后的權重數(shù)據(jù)[22-24]。

2. 4. 2 PTQ 步驟

基于車路協(xié)同的PTQ 通常分為以下幾個步驟:

① 首先在車端和路側端采集到的數(shù)據(jù)上以FP32 精度訓練得到ImVoxelNet 模型。

② 使用小部分數(shù)據(jù)對FP32 基礎模型進行校準,主要是得到網絡各層權重以及激活函數(shù)的數(shù)據(jù)分布特性(比如統(tǒng)計最大最小值)。

③ 根據(jù)步驟②中得到的數(shù)據(jù)分布特性,計算出網絡各層量化參數(shù)。

④ 使用步驟③中的量化參數(shù)對FP32 基礎進行量化得到INT8 模型,并將其部署至推理框架進行推理。

PTQ 方法會使用小部分數(shù)據(jù)集來估計網絡各層權重和激活函數(shù)的數(shù)據(jù)分布,找到合適的接受域,從而降低模型精度的損失。

2. 5 基于匈牙利算法的融合框架

本研究采用匈牙利算法將多視角圖像中的檢測結果進行融合,實現(xiàn)目標匹配。該算法基于一個距離(成本)矩陣,其中包含矩陣行中每個軌道組合(預測)和列中檢測之間的歐氏距離;距離是根據(jù)預測和檢測到的對象的質心來計算的[25-26]。距離越小,預測正確的概率越高。對象密度的變化和對象在視野中消失和出現(xiàn),使距離矩陣的大小可以隨著時間的推移而變化。匈牙利算法流程,如算法1所示。

3 實驗結果與分析

3. 1 實驗設備

依托2021 年南沙區(qū)智慧公交監(jiān)管服務平臺及示范線項目(融合車路協(xié)同、大數(shù)據(jù)、人工智能、云計算等技術),通過對路側端/ 車端的智能化基礎設施改造,實現(xiàn)車路間的信息實時交互,打造面向未來出行的無人駕駛智慧交通系統(tǒng)。

在車端,車輛終端配備了8 個攝像頭,實現(xiàn)對車輛周圍360°的監(jiān)控,包括前方道路情況和車輛周圍環(huán)境的全方位觀察,如圖5 所示。與此同時,車輛采用了實時動態(tài)(Real Time Kinematic,RTK)差分定位技術,確保高精度的位置定位,提升導航的準確性和可靠性。邊緣計算設備的應用使車輛能夠在本地進行實時數(shù)據(jù)處理,減少對云端的依賴,提高響應速度。此外,搭載X1 組合導航系統(tǒng)、全球導航衛(wèi)星系統(tǒng)(Global Navigation Satellite System,GNSS)觀測量最高10 Hz、RTK 定位最高10 Hz、慣性測量單元(Inertial Measurement Unit,IMU)原始數(shù)據(jù)率為125 Hz、測速精度均方根值達0. 03 m/ s、功率4. 8 W,通過集成多源數(shù)據(jù)實現(xiàn)更智能的導航決策,包括實時交通信息、地圖更新等。整合攝像頭、邊緣計算設備、X1 組合導航系統(tǒng)等眾多車載設備,為車輛提供了更全面、實時的感知和決策能力,提高了行車的安全性和智能化水平。

在路側端配備有智能路側終端、網聯(lián)式Vehicleto Everything(V2X)視頻事件檢測器和V2X 視頻事件GPU 服務器等設備,并配套相關的軟件。

① 智能路側終端滿足LTE-V 通信要求,包含一個RJ45 網口,一個GPS 天線接口,一個3G/4G 天線接口,同時支持以抱箍形式,安裝在路側桿件上,提供LTE-V 數(shù)據(jù)交互功能。智能路側終端工作頻段為2. 4 GHz,最大上行速率150 Mbit/ s,通信距離達500 m 以上,功率小于12 W,工作帶寬為10 MHz,發(fā)送功率最大可達23 dBm,接收靈敏度-97 dBm。

② 網聯(lián)V2X 視頻事件檢測器(相機)架設在路口或路段上,實現(xiàn)對車輛、行人、非機動車等目標進行檢測,并發(fā)送給視頻事件GPU 服務器。相機性能要求為:800 萬像素、1 /1. 8 inch 逐行掃描的CMOS圖像傳感器;快門范圍1 /100 000 ~ 1 s,最低光照度0. 005 lx(F1. 2,AGC ON,彩色),信噪比大于52 dB,光學寬動態(tài)120 dB,自動光圈控制為P-IRIS。

③ V2X 視頻事件GPU 服務器,對架設在路口或路段上的攝像頭視頻進行處理,提取視頻中的交通目標,包括行人、非機動車、機動車,并將處理之后的結構化數(shù)據(jù)反饋至智能路側設備。V2X 視頻事件GPU 服務器性能要求為:4. 20 GHz i7-7700 CPU、GeForce RTX 2080 Ti GPU、1 TB 企業(yè)級硬盤,8 GB內存、USB 3. 0 接口。

3. 2 模型實驗評估

傳統(tǒng)車端檢測結果如圖6 所示。車路協(xié)同感知結果如圖7 所示。傳統(tǒng)的車端感知方法缺乏全局視角和遠程感知能力,而車路協(xié)同感知可以提供遠遠超出當前視野的視角,極大程度地覆蓋盲區(qū)。這也進一步證明了車路協(xié)同具有十分顯著的優(yōu)勢,能夠極大提高目標識別的可靠性,車端與路側的合作是必要的。通過對大量的車端、路側圖像進行目標感知并就感知結果進行分析驗證,證實了該模型能夠實現(xiàn)城市開放道路場景下車路協(xié)同感知檢測,驗證了所提算法的可行性和有效性。

單視角與多視角、在不同交并比(Intersection ofUnion,IoU)條件下性能對比如圖8 所示。實驗指標采用了平均精度(Average Precision,AP),AP 是目標探測器性能的常用指標。結果表明,與單車端視角目標檢測相比,集成車端、路側數(shù)據(jù)的多視角目標檢測AP 提高了29% ,提升了目標檢測性能。

INT8 量化后的模型結果如圖9 所示。IoU 無論是0. 25、0. 50 或0. 70,模型的精度都稍有降低,但模型大小從365 MByte 下降到49 MByte,證明了本文方法的可行性。

4 結束語

研究了車路協(xié)同情況下多視角輕量化的感知模型。通過車路協(xié)同,車輛能夠獲取道路狀態(tài)、信號燈信息、事故警報等路側數(shù)據(jù),而路側系統(tǒng)則可以獲取車輛目標位置、障礙物等信息。這種信息交流使得交通管理系統(tǒng)能夠更準確地監(jiān)測和掌握路況,有針對性地提供實時導航建議、減少擁堵等。同時輕量化的感知模型能夠更好地部署在邊緣側,為交通系統(tǒng)的智能化和自動駕駛的安全性提供了重要支持。

本研究只在理想狀態(tài)下驗證了多傳感器數(shù)據(jù)融合在城市道路上的可行性,但雨雪霧天、路面質量、通信質量等現(xiàn)實情況更為復雜,后續(xù)將從此類情況著手繼續(xù)研究。

參考文獻

[1] 上官偉,龐曉宇,李秋艷,等. 車路協(xié)同環(huán)境下群體車輛誘導與協(xié)同運行方法[J]. 交通運輸工程學報,2022,22(3):68-78.

[2] DENG J,WU X B,WANG F,et al. Analysis and Classification of VehicleRoad Collaboration ApplicationScenarios [J]. Procedia Computer Science,2022,208:111-117.

[3] CHEN Q,TANG S H,YANG Q,et al. Cooper:CooperativePerception for Connected Autonomous Vehicles Based on3D Point Clouds [C]∥ 2019 IEEE 39th InternationalConference on Distributed Computing Systems (ICDCS).Dallas:IEEE,2019:514-524.

[4] CHEN Q,MA X,TANG S H,et al. Fcooper:FeatureBased Cooperative Perception for Autonomous VehicleEdge Computing System Using 3D Point Clouds [C]∥Proceedings of the 4th ACM/ IEEE Symposium on EdgeComputing. Arlington:IEEE,2019:88-100.

[5] ARNOLD E,DIANATI M,DE TEMPLE R,et al. Cooperative Perception for 3D Object Detection in Driving Scenarios Using Infrastructure Sensors[J]. IEEE Transactions onIntelligent Transportation Systems,2020,23(3):1852-1864.

[6] XU Z H,ZHAO S J,ZHANG R Q. An Efficient Multisensor Fusion and Tracking Protocol in a VehicleRoad Collaborative System [J]. IET Communications,2021,15(18):2330-2341.

[7] 孟兆昕. 多模態(tài)融合的車路協(xié)同目標檢測方法研究與設計[D]. 北京:北京郵電大學,2022.

[8] TSUKADA M,OI T,KITAZAWA M,et al. NetworkedRoadside Perception Units for Autonomous Driving[J].Sensors,2020,20(18):5320.

[9] VALLEJOBORDA J A,CANTILLO V,RODRIGUEZVALENCIA A. A Perceptionbased Cognitive Map of thePedestrian Perceived Quality of Service on UrbanSidewalks [J]. Transportation Research Part F:TrafficPsychology and Behaviour,2020,73:107-118.

[10] CUI G Z,ZHANG W L,XIAO Y Q,et al. CooperativePerception Technology of Autonomous Driving in the Internet of Vehicles Environment:A Review[J]. Sensors,2022,22(15):5535.

[11]FU Y J,TIAN D X,DUAN X T,et al. A Cameraradar Fusion Method Based on Edge Computing[C]∥2020 IEEEInternational Conference on Edge Computing (EDGE).Beijing:IEEE,2020:9-14.

[12]CHEN X Z,MA H M,WAN J,et al. Multiview 3D ObjectDetection Network for Autonomous Driving [C]∥2017IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:6526-6534 .

[13]SINDAGI V A,ZHOU Y,TUZEL O. MVXNet:MultimodalVoxelNet for 3D Object Detection [C ] ∥ 2019International Conference on Robotics and Automation(ICRA). Montreal:IEEE,2019:7276-7282.

[14]HUANG T T,LIU Z,CHEN X W,et al. EPNet:EnhancingPoint Features with Image Semantics for 3D Object Detection[C]∥Computer VisionECCV 2020:16th EuropeanConference. Glasgow:Springer,2020:35-52.

[15]VORA S,LANG A H,HELOU B,et al. Pointpainting:Sequential Fusion for 3D Object Detection [C ] ∥Proceedings of the IEEE/ CVF Conference on ComputerVision and Pattern Recognition (CVPR). Seattle:IEEE,2020:4604-4612.

[16]WANG D G,OUYANG W L,LI W,et al. Dividing andAggregating Network for Multiview Action Recognition[C]∥ Computer VisionECCV 2018:15th European Conference. Munich:Springer,2018:451-467.

[17]RUKHOVICH D,VORONTSOVA A,KONUSHIN A. Imvoxelnet:Image to Voxels Projection for Monocular andMultiview Generalpurpose 3D Object Detection[C]∥2022 IEEE/ CVF Winter Conference on Applications ofComputer Vision (WACV ). Waikoloa:IEEE,2022:1265-1274.

[18] CHEN L,DING Q W,ZOU Q,et al. DenseLightNet:ALightweight Vehicle Detection Network for AutonomousDriving[J]. IEEE Transactions on Industrial Electronics,2020,67(12):10600-10609.

[19]MAHAUR B,MISHRA K K,KUMAR A. An ImprovedLightweight Small Object Detection Framework Applied toRealtime Autonomous Driving[J]. Expert Systems withApplications,2023,234(3):121036.

[20]FADADU S,PANDEY S,HEGDE D,et al. Multiview Fusion of Sensor Data for Improved Perception andPrediction in Autonomous Driving[C]∥ 2022 IEEE/ CVFWinter Conference on Applications of Computer Vision(WACV). Waikoloa:IEEE,2022:3292-3300.

[21]ZHOU Y,CHEN S C,WANG Y M,et al. Review of Research on Lightweight Convolutional Neural Networks[C]∥2020 IEEE 5th Information Technology and MechatronicsEngineering Conference(ITOEC). Chongqing:IEEE,2020:1713-1720.

[22]MU Y,NI R W,ZHANG C,et al. A Lightweight Model ofVGG16 for Remote Sensing Image Classification [J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:6916-6922.

[23] WANG C H,HUANG K Y,YAO Y,et al. LightweightDeep Learning:An Overview[J/ OL]. IEEE ConsumerElectronics Magazine,2022:1-12. (2022-06-21)[2024-03-18]https:∥ieeexplore. ieee. org/ document/9802879.

[24] AGARWAL P,ALAM M. A Lightweight Deep LearningModel for Human Activity Recognition on Edge Devices[J ]. Procedia Computer Science,2020,167 (2 ):2364-2373.

[25]HAMUDA E,MC GINLEY B,GLAVIN M,et al. ImprovedImage Processingbased Crop Detection Using KalmanFiltering and the Hungarian Algorithm[J]. Computers andElectronics in Agriculture,2018,148:37-44.

[26]LIN C,SUN G H,WU D Y,et al. Vehicle Detection andTracking with Roadside Lidar Using Improved ResNet18and the Hungarian Algorithm [J ]. Sensors,2023,23(19):8143.

作者簡介:

王 飛 男,(1987—),碩士,高級工程師。主要研究方向:交通管理、智慧交通。

何 軍 男,(1977—),高級工程師。主要研究方向:物聯(lián)網、車路協(xié)同。

黃雄炬 男,(1996—),助理工程師。主要研究方向:物聯(lián)網、車路協(xié)同。

徐愷睿 女,(1996—),碩士,助理工程師。主要研究方向:物聯(lián)網、車路協(xié)同。

楊華岳 女,(2001—),碩士研究生。主要研究方向:車路協(xié)同、智慧交通。

李海強 男,(2000—),碩士研究生。主要研究方向:車路協(xié)同、智慧交通。

基金項目:國家自然科學基金(U22A2054,61971148)

猜你喜歡
多視角自動駕駛輕量化
汽車輕量化集成制造專題主編
一種輕量化自卸半掛車結構設計
智富時代(2019年2期)2019-04-18 07:44:42
汽車自動駕駛的發(fā)展
LTE—V車路通信技術淺析與探討
移動通信(2016年24期)2017-03-04 22:12:26
淺論莫言的小說創(chuàng)作特色
東方教育(2016年21期)2017-01-17 19:09:44
會計準則變革對企業(yè)理念與行為影響的多視角研究
中國經貿(2016年22期)2017-01-16 18:35:44
論女性聲樂的藝術研究
東方教育(2016年12期)2017-01-12 16:39:45
特斯拉默默更改了官網上“自動駕駛”的說明
家用汽車(2016年9期)2016-11-04 15:04:44
特斯拉中國官網不再提“自動駕駛”
會計準則變革對企業(yè)理念與行為影響的多視角分析
財稅月刊(2016年4期)2016-07-04 23:00:06
永仁县| 蒲江县| 乌兰浩特市| 阳原县| 金坛市| 青阳县| 洪洞县| 两当县| 和静县| 合江县| 鄯善县| 舒兰市| 策勒县| 芦溪县| 郑州市| 攀枝花市| 阜平县| 芦山县| 临湘市| 佛冈县| 南投市| 景泰县| 北辰区| 循化| 甘洛县| 永登县| 兴文县| 安福县| 黔西| 碌曲县| 西和县| 九江市| 杂多县| 宿松县| 华宁县| 九龙坡区| 呼伦贝尔市| 泾阳县| 乌鲁木齐县| 泰顺县| 桐城市|