任慶坤
(昆明理工大學(xué)a.信息工程與自動化學(xué)院;b.云南省計算機技術(shù)應(yīng)用重點實驗室)
近些年,隨著5G、云計算等高新技術(shù)的發(fā)展,自動駕駛、輔助駕駛技術(shù)吸引了研究機構(gòu)和各大汽車廠商的廣泛關(guān)注。 在實際應(yīng)用中,為了保證安全性,需要準確且清晰地了解和把握車輛周圍的行車環(huán)境情況,因此,對于自動駕駛?cè)蝿?wù)而言,感知是尤為重要的前提條件。車輛的感知模塊主要包含光學(xué)攝像頭、毫米波雷達及激光雷達等傳感器組件。由于基于光學(xué)攝像頭的感知能夠檢測目標的外形、顏色和輪廓信息,因此,攝像頭一直以來都是最重要的感知傳感器,尤其是隨著深度學(xué)習(xí)的提出和硬件算力的極大提升,基于深度學(xué)習(xí)的圖像目標檢測算法在自動駕駛檢測任務(wù)中得到了廣泛的應(yīng)用和巨大的發(fā)展。視覺檢測方法主 要 的 檢 測 信 息 包 括 車 底 陰 影[1]、邊 緣 對 稱 性[2]等車輛特征信息,還包括基于幀差法[3]、光流法[4]等獲得的圖像運動信息。而識別階段的主要任務(wù)是 利 用 模 板[5]和 機 器 學(xué) 習(xí)[6,7]的 方 式 完 成 車 輛 識別和定位。Luo W等提出了改進的孿生網(wǎng)絡(luò)[8],通過內(nèi)積直接獲得匹配結(jié)果,極大地提高了運算效率,使該技術(shù)應(yīng)用到無人駕駛領(lǐng)域成為可能。
然而,在光照條件復(fù)雜的環(huán)境下,如夜間、雨天及混合天氣等情境下,視覺傳感器很難區(qū)分目標和背景,單純依靠視覺傳感器無法滿足實際任務(wù)需求。 因此,需要不受光照條件影響的非視覺傳感器的加入, 以提供更加豐富的目標信息,從而應(yīng)對夜間、雨天及混合天氣等光照不足或光照條件復(fù)雜的應(yīng)用場景。
毫米波雷達具備全天候工作的能力,同時可通過多普勒效應(yīng)獲取車輛等目標的速度、方位和距離信息,且價格優(yōu)勢明顯,因此更適合該方向的研究。 然而,毫米波雷達獲得的雷達點比較稀疏,無法明確表現(xiàn)出物體的邊界,且橫向分辨率有限的不足也同樣需要重視。 因此,可以根據(jù)毫米波雷達和視覺傳感器的特性, 來設(shè)計融合方案, 以增強復(fù)雜光照環(huán)境下障礙物檢測的穩(wěn)定性,從而滿足車輛感知環(huán)境的需求。
針對基于深度學(xué)習(xí)的圖像數(shù)據(jù)和雷達數(shù)據(jù)融合,Schlosser J 等嘗試了多種不同組合方式來融合雷達數(shù)據(jù)和圖像數(shù)據(jù)[9],提出通過采樣雷達的點云信息獲得密度深度圖。Wu S G等引用貝葉斯公式,對預(yù)測結(jié)果進行動態(tài)融合[10]。 而Esi J等提出了一種基于雷達和立體視覺傳感器的特殊歐氏群決策融合方案[11]。 Yang L等利用全向立體視覺(OSV)進行目標檢測,使用Lucas-Kanade光流檢測方法用于檢測全景圖像中的目標[12]。 蔣雯等提出一種新的數(shù)據(jù)融合方法,并與多卡爾曼濾波框架下的集成概率數(shù)據(jù)關(guān)聯(lián)(IPDA)技術(shù)相結(jié)合[13]。 Chadwick S 等 提 出 將 雷 達 點 轉(zhuǎn) 換 成 圖像[14],作為卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),然后用元素級加法將雷達圖像特征與視覺圖像特征進行融合, 但這種融合方法受制于雷達點的稀疏性,很難提取具體的特征,因此性能提升有限。Jhon V和Mita S提出一種建立在YOLO框架上的融合模型,稱為RVnet[15],該網(wǎng)絡(luò)模型包含視覺與雷達的單獨分支,采用級聯(lián)的方式進行特征融合,同時引入了更多的權(quán)重。 Nobis F等提出Camera Radar Fusion Net(CRF-Net)來自動學(xué)習(xí)視覺傳感器與雷達在哪個層次融合的性能最好[16]。Chang S等提出了一種利用毫米波雷達生成注意力矩陣來控制視覺傳感器檢測區(qū)域權(quán)重的毫米波雷達和視覺傳感器的空間注意力融合 (Spatial Attention Fusion,SAF)方法[17],SAF方法在一定程度上避免了數(shù)據(jù)級融合的漏檢現(xiàn)象。
通過對國內(nèi)外研究現(xiàn)狀的分析和總結(jié),目前輔助駕駛領(lǐng)域仍存在以下問題亟待解決:
a. 雷達數(shù)據(jù)位置信息不足,無法提供更加精準的感興趣區(qū)域建議,對于視覺檢測的引導(dǎo)作用有限。 而當(dāng)前所提出的關(guān)于雷達點云的增強技術(shù),大多采用插值的方法,雖然一定程度上解決了點云稀疏的問題,但仍存在雷達數(shù)據(jù)位置信息不足, 無法表征目標物體邊界的問題。
b. 多模態(tài)融合過程中,受限于雷達信息的不足,無法表征足夠的特征信息,造成點云圖像與視覺圖像特征提取不平衡,信息會在一定程度上丟失, 導(dǎo)致檢測效果在復(fù)雜光照環(huán)境下表現(xiàn)一般。 現(xiàn)有解決方法主要通過提升視覺檢測模塊的性能來彌補雷達信息不足的問題,未能從根本上發(fā)揮毫米波雷達的優(yōu)勢,也使得現(xiàn)有系統(tǒng)在復(fù)雜光照環(huán)境下的檢測效果不佳。
針對國內(nèi)外研究現(xiàn)存的問題,筆者有針對性地做出了研究,主要特點如下:
a. 提出了基于點云半徑擴充的雷達位置信息增強技術(shù)。 筆者利用雷達點云的定位,對點云圖中的稀疏點云進行信息擴充,增大點云所標注圖像范圍,對稀疏點云進行信息擴充,提高對視覺圖像的檢測引導(dǎo),解決了因位置信息不足而導(dǎo)致的無法生成精準感興趣區(qū)域的問題。
b. 提出了基于融入空間和通道注意力機制的多模態(tài)融合技術(shù) (Multimodal Feature Fusion Technology-Spatial and Channel Attention,MFFTSCA)的復(fù)雜光照環(huán)境下的行車檢測算法。以多模態(tài)融合技術(shù)為基礎(chǔ),首先強化了空間信息融合模塊,提出一種改進的多模態(tài)空間融合策略,使經(jīng)過增強處理的雷達空間位置信息與視覺特征更好地結(jié)合,得到更精準的感興趣區(qū)域引導(dǎo);然后引入通道注意力機制,對各通道的依賴性進行建模,增強雷達通道有用特征;最后通過特征金字塔(Feature Pyramid Networks,F(xiàn)PN),利用多尺度特征完成相應(yīng)的目標檢測任務(wù)。 所提出的MFFTSCA框架充分發(fā)揮了毫米波雷達全天候工作的優(yōu)勢,解決了毫米波雷達信息在融合過程中占比不高所造成的信息丟失問題,提高復(fù)雜光照環(huán)境下目標檢測的準確度。
單個毫米波雷達所發(fā)出的電磁波范圍是平行于地面的扇形區(qū)域,只能在單一平面高度反映目標的位置,因此,無法立體且準確地反映前方目標的形態(tài)和大小,同時,無法為圖像檢測任務(wù)提供準確可靠的感興趣區(qū)域 (Region of Interest,ROI),降低了目標檢測任務(wù)的準確性。因此,在將雷達數(shù)據(jù)輸入網(wǎng)絡(luò)之前,需要進行預(yù)處理,即首先進行空間位置信息增強。
筆者的做法是,以雷達原始點云中的各點為圓心,增加點的半徑,生成以點為圓心,1.5 m為半徑的圓形區(qū)域, 以此來增加雷達數(shù)據(jù)的位置信息,增強點云信息量。 利用增強位置信息的雷達數(shù)據(jù)生成空間二維矩陣,為視覺檢測網(wǎng)絡(luò)提供空間上的重點檢測區(qū)域,引導(dǎo)檢測網(wǎng)絡(luò)在有重要目標的空間范圍內(nèi)對圖像進行著重檢測,同時不忽略其他空間位置的信息,實現(xiàn)空間上雷達數(shù)據(jù)與視覺圖像數(shù)據(jù)的融合, 提高檢測效率和檢測效果,具體流程如圖1所示。
經(jīng)過對雷達點半徑的擴大,提取雷達點所覆蓋的圖像的空間信息,為視覺檢測提供感興趣區(qū)域選擇引導(dǎo),同時,對雷達點覆蓋范圍的空間特征進行提取,生成空間二維矩陣,與圖像特征做融合處理,實現(xiàn)空間信息融合。
為了驗證增強位置信息對檢測效果的有效性,筆者通過實驗,測試了不同半徑下位置信息對實驗效果的影響。 同時針對混合天氣、夜間及雨天條件下,不同光照的特質(zhì),針對性地對3種行車環(huán)境進行了位置信息增強實驗,得出在不同環(huán)境下, 不同半徑的大小對目標檢測任務(wù)的影響,并找出了最佳的位置信息增強策略。
雷達空間位置信息如圖2所示, 可以看出經(jīng)過位置信息增強后,雷達點云更加清晰,目標邊界特征更加明顯,可以更好地為視覺檢測提供感興趣區(qū)域的引導(dǎo)。
圖2 雷達空間位置信息
在夜間、 雨天及混合天氣等復(fù)雜光照環(huán)境下,如何更好地利用毫米波雷達位置信息確定重點檢測范圍是值得探討的問題。 針對此問題,需要在對位置信息進行增強的同時,融合雙模態(tài)的空間特征信息,以有利于利用毫米波雷達所提供的位置信息對重點檢測范圍進行精確定位,尤其是在光照條件復(fù)雜的情況下。
如圖3所示, 將圖像信息和雷達信息同時送入網(wǎng)絡(luò), 根據(jù)R-Block1處理后的增強雷達位置信息生成空間二維矩陣,映射到視覺圖像的所有通道上,與經(jīng)過V-Block1處理之后的視覺圖像相乘,得到特征矩陣,確定重點檢測空間。 然后特征矩陣與V-Block1提取的視覺特征進行像素級相加,增強視覺的空間特征區(qū)域,引導(dǎo)視覺重點檢測的空間。 這種空間信息融合方法能夠有效地利用毫米波雷達不受天氣影響、能提供準確的位置及距離等物理信息的優(yōu)勢。 需要說明的是,圖3僅為空間融合生成二維注意矩陣的簡單示例, 實際上,經(jīng)過3層卷積后, 輸出的特征矩陣要遠比圖中矩陣復(fù)雜得多,該圖為了形象描述融合過程中感興趣區(qū)域的引導(dǎo),同時說明該結(jié)構(gòu)并未摒棄區(qū)域外信息,進行了相應(yīng)的簡化處理。
圖3 空間信息融合生成二維注意矩陣簡單示例
筆者提出了由3層卷積層組成的空間信息融合機制,用于提取空間特征信息,得到二維注意矩陣從而對視覺分支的特征圖進行加權(quán)處理,得到準確的感興趣區(qū)域引導(dǎo),同時不忽略區(qū)域外的圖像信息。 Conv 1×1層即卷積核為1×1, 步長為(1,1),填充[0,0],而Conv 3×3和Conv 5×5層分別設(shè)置為(3×3×256×1,(1,1),[1,1])和(5×5×256×1,(1,1),[2,2])。 該3層卷積結(jié)構(gòu)需做進一步處理,將雷達特征圖中的通道數(shù)減為1,從而使輸出的二維注意矩陣與視覺特征矩陣具有同樣的高度和寬度。
由于車輛檢測模型對于數(shù)據(jù)表征能力有一定要求,因此需構(gòu)建注意力機制模塊,以發(fā)揮相應(yīng)的能力提升作用,具體表現(xiàn)為使網(wǎng)絡(luò)學(xué)習(xí)到圖片特征中的重要信息,同時對非重要信息實施抑制。
注意力機制通過學(xué)習(xí)的方式獲取特征間的依賴關(guān)系和各部分的重要程度,并根據(jù)重要性突出高頻信息,篩除無用干擾信息。 Hu J等在對特征圖各個通道之間的依賴性進行探究時[18],創(chuàng)造性地采用了通道注意力機制的方式搭建相關(guān)模型。 通過權(quán)重值大小表征各個通道的重要程度,獲得顯著性特征映射,指導(dǎo)網(wǎng)絡(luò)重點關(guān)注信息量豐富的特征,抑制冗雜特征的干擾。 通道注意力模塊如圖4所示。 利用通道注意力機制,可以強化雷達通道的權(quán)重值,使雷達通道的信息在全局信息中的權(quán)重更大。 筆者在級聯(lián)操作后,設(shè)計了相關(guān)的通道注意力模塊,通過擠壓、激勵等操作,并依據(jù)通道信息依賴性構(gòu)建分析模型,以增強有效通道中的特征信息。 并通過實驗證明了通道注意力的有效性。
輸入圖像X的維度H′×W′×C′,經(jīng)過特征提取操作Ftr后得到維度為H×W×C的特征圖U,3個維度分別為高度、寬度和通道數(shù)。 通道注意力機制通過下述步驟實現(xiàn)。
提取通道特征權(quán)重。 通過擠壓進行權(quán)重提取,具體操作是:從各通道上壓縮特征圖的高度和寬度, 將維度為H×W×C的特征圖壓縮為1×1×C,可以看出,特征圖通道數(shù)量并未發(fā)生改變。 擠壓過程可以用以下函數(shù)表達:
特征通道權(quán)重更新。 特征經(jīng)全連接層進行通道信息融合, 通過學(xué)習(xí)的方式獲取0~1之間的歸一化權(quán)重,基于權(quán)重大小得到各通道特征的重要程度。 權(quán)重更新過程用下式表達:
權(quán)重映射。 將上述歸一化后的輸出權(quán)重值與原輸入特征圖進行逐通道加權(quán),得到經(jīng)過權(quán)重映射后的增強特征。 尺度函數(shù)為:
該函數(shù)式叫做擠壓函數(shù),其中uc代表第c個通道特征;i、j對應(yīng)特征圖上每一個像素點的位置,對輸入特征進行平均池化,得到輸出特征zc。擠壓函數(shù)計算了全局平均值,也可以稱之為全局平均池化,即對各個通道內(nèi)的特征值進行加和后再計算平均值。
筆者提出的網(wǎng)絡(luò)結(jié)構(gòu)主要通過對RetinaNet框架的改進實現(xiàn),用改進的VGG網(wǎng)絡(luò)進行特征提取。 將網(wǎng)絡(luò)擴展到處理增強圖像的附加雷達通道上,整體網(wǎng)絡(luò)包含雷達模塊、視覺模塊、位置信息增強模塊、空間信息融合模塊、通道注意力模塊、特征融合提取模塊、特征金字塔模塊以及分類與回歸模塊。 整體網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
圖5 整體網(wǎng)絡(luò)結(jié)構(gòu)
雷達數(shù)據(jù)送入主干網(wǎng)絡(luò)前,首先經(jīng)過位置信息增強,再送入改進的特征提取網(wǎng)絡(luò)進行特征提取,經(jīng)過R-Block1提取特征后,與視覺特征在空間上進行融合,生成重點檢測區(qū)域,為視覺檢測在空間上提供指引。 空間融合后的特征矩陣經(jīng)過VBlock2進一步提取特征后與R-Block2提取的雷達特征進行級聯(lián)。 再將級聯(lián)后的融合特征經(jīng)過通道注意力模塊, 對其在各通道的依賴性上進行建模,學(xué)習(xí)毫米波雷達與視覺攝像頭雙模態(tài)融合的全局特征信息, 增強有用特征所在通道的權(quán)重。筆者所提出的融合方法能夠充分利用毫米波雷達與視覺傳感器兩種模態(tài)的特征信息,通過空間信息和通道注意力,更大程度地提取和整合雙模態(tài)中的有用信息,使得整個系統(tǒng)結(jié)構(gòu)能夠更加適應(yīng)全天候的任務(wù)環(huán)境,尤其是在復(fù)雜光照環(huán)境的任務(wù)條件,能夠有效提升系統(tǒng)的適用性。
經(jīng)過融合,將融合后的數(shù)據(jù)輸入特征金字塔網(wǎng)絡(luò),采用金字塔結(jié)構(gòu)的多尺度特征對目標進行檢測,以便獲取并檢測出不同遠近、不同大小的車輛目標并對其進行標定。 筆者所采用的特征金字塔結(jié)構(gòu)參考RetinaNet網(wǎng)絡(luò)中的結(jié)構(gòu),同時沿用RetinaNet網(wǎng)絡(luò)中分類模塊的思想,在每個特征層均輸出一個融合后的檢測結(jié)果,通過分類模塊的比較,自適應(yīng)輸出成績最高的檢測結(jié)果將其作為最終的結(jié)果。
本節(jié)將通過實驗證明筆者提出的毫米波雷達與視覺融合網(wǎng)絡(luò)結(jié)構(gòu)的可行性,同時驗證所提出的相關(guān)改進對于復(fù)雜光照環(huán)境下行車檢測準確度的提高。
實驗在tensorflow下實現(xiàn)MFFT-SCA方法,實驗均在具有16 GB顯存的顯卡Telsa V100上訓(xùn)練模型。 訓(xùn)練時,輸入圖片大小為450×450,設(shè)置學(xué)習(xí)率為0.000 1,訓(xùn)練30代。
數(shù)據(jù)集采用NuScenes多模態(tài)數(shù)據(jù)集,從該數(shù)據(jù)集中按6∶2∶2的比例選取出混合天氣、雨天和夜間的場景進行模型訓(xùn)練。 參與訓(xùn)練和測試的雷達-視覺對數(shù)據(jù)共20 480個, 分別針對上述場景進行訓(xùn)練和測試。
NuScenes 多模態(tài)數(shù)據(jù)集用6 個分辨率為1600×900的攝像機,5個頻率為77 GHz、探測距離為250 m的毫米波雷達,1個32線激光雷達、GPS以及慣導(dǎo)系統(tǒng),采集車輛前、后、左、右、左前及右前等多個方向,涵蓋所有角度的850個場景數(shù)據(jù)。 該數(shù)據(jù)集不僅標注了大小、范圍,還標注了類別、可見程度等。
針對筆者的研究內(nèi)容和需求,實驗只選取了前向毫米波雷達和前向攝像機的關(guān)鍵幀數(shù)據(jù)進行訓(xùn)練、測試和評估。 其中,毫米波雷達包含了18個物理狀態(tài)信息,包括相對速度、相對距離等信息。 筆者只使用位置和距離的相關(guān)信息,針對前方車輛進行有針對性的檢測。
2.3.1 雷達點半徑對檢測效果的影響
為了驗證增強雷達位置信息對檢測效果的影響,同時確定最佳效果下的雷達點半徑,筆者針對不同半徑的雷達點進行了對比實驗。 實驗以CRF-Net網(wǎng)絡(luò)為基準目標檢測算法, 做初步的雷達數(shù)據(jù)位置信息增強實驗,得到表現(xiàn)最佳的半徑數(shù)值, 為后續(xù)采用筆者所提出的MFFT-SCA模型做檢測時提供半徑參數(shù)。 實驗結(jié)果見表1、2。
表1 不同雷達點半徑和不同光照條件下障礙物檢測的平均精度均值
表2 不同雷達點半徑和不同光照條件下障礙物檢測的平均召回率均值
實驗為了對比不同半徑的雷達點對檢測效果的影響, 在0.0~3.5 m的雷達點半徑范圍內(nèi),每間隔0.5 m做一次對比實驗。 由表1可得, 在0.0~3.0 m的雷達點半徑范圍內(nèi),隨著雷達點半徑的不斷增大,檢測效果隨之增強,而當(dāng)雷達點半徑達到1.5~2.0 m時,檢測效果達到最佳(表中紅色數(shù)字)。 繼續(xù)增大雷達點半徑,檢測效果不再有明顯提升。 因為此時,雷達點半徑已經(jīng)包含了足夠的位置信息,可以為視覺檢測提供準確的感興趣區(qū)域引導(dǎo),繼續(xù)擴大雷達點半徑,只會加入冗余信息,導(dǎo)致檢測精度達到閾值。
由表1、2可知, 雷達半徑為0.0 m時與雷達半徑經(jīng)過增強后的數(shù)據(jù)進行對比,3種場景下的平均精度均值和平均召回率均值都有所提高。 當(dāng)雷達點半徑增強至1.5 m時, 平均精度均值提升了0.3%~4.1%, 而平均召回率均值提升了0.4%~4.9%。 由此可以肯定,對雷達數(shù)據(jù)的位置信息進行增強可以有效提高檢測效果。
2.3.2 不同雷達點半徑在雨天檢測的對比實驗
由于不同種類目標物的高度不同,筆者研究了不同雷達點半徑對不同障礙物在復(fù)雜光照環(huán)境下檢測效果的影響。
在行車環(huán)境為雨天的條件下, 選取了小型汽車、公交車和卡車作為檢測目標,實驗結(jié)果見表3、4,可以看出,不同種類目標的最優(yōu)檢測效果與雷達點半徑呈現(xiàn)正相關(guān): 即雷達點直徑越接近目標實際高度或尺寸, 則檢測精度和召回率越高。
表3 不同雷達點半徑在雨天檢測各類障礙物的平均精度
表4 不同雷達點半徑在雨天檢測各類障礙物的平均召回率
由表3、4可以看出,當(dāng)雷達點半徑為1.0 m時,在雨天檢測環(huán)境下, 小型汽車的檢測效果最好,相較于基線模型,平均召回率和平均精度分別提高了2.4%和4.9%。而當(dāng)雷達點半徑為1.5 m 時,對公交車和卡車的檢測識別效果達到最好。 由此對比各種類目標的實際尺寸和高度,可得在雨天檢測環(huán)境下,當(dāng)雷達點直徑與目標實際尺寸和高度越相似,檢測精度和召回率越高。
2.3.3 不同雷達點半徑在夜間檢測的對比實驗
在夜間行車時, 往往光照條件更為復(fù)雜,一般情況下只有車燈和路燈作為光源,為行駛車輛提供光照,因此,夜間環(huán)境下的檢測與白天完全不同。 受制于光照的不足,夜間場景下同一物體的全局特征相較于光照條件好的場景下會有不同程度的削弱。 因此,對于夜間物體的檢測,最佳雷達點半徑與目標的局部特征的相關(guān)性更高,檢測結(jié)果見表5、6。
表5 不同雷達點半徑在夜間檢測各類障礙物的平均召回率
由表5、6數(shù)據(jù)分析可知,在夜間行車環(huán)境下,當(dāng)雷達點半徑為0.5 m時,小型汽車的檢測精度和召回率均達到最佳,較基線模型,平均召回率提高了0.3%,平均精度提高了3.1%。 而當(dāng)雷達點半徑為1.0 m時,公交車和卡車的平均召回率達到最佳,當(dāng)雷達點半徑為1.5 m時,公交車和卡車的平均精度數(shù)值達到最佳。 由此可得,在夜間行車環(huán)境下,受制于復(fù)雜的光照環(huán)境,雷達點半徑與目標實際尺寸或高度的相關(guān)性相較于雨天環(huán)境有所降低,而與目標的局部特征的相關(guān)性更高。
表6 不同雷達點半徑在夜間檢測各類障礙物的平均精度
綜上所述, 通過比較各環(huán)境下檢測效果,可以得到,當(dāng)雷達點半徑為1.5 m時,在各環(huán)境下均能達到較好的檢測效果。 因此,筆者選擇雷達點半徑為1.5 m作為最佳的半徑參數(shù), 繼續(xù)后續(xù)實驗。
2.3.4 消融實驗
為了驗證所提出方法的檢測性能, 筆者以NuScenes多模態(tài)數(shù)據(jù)集中各類車輛的分類和定位為基礎(chǔ),對比模型在公交車、小型汽車和卡車這幾種常見車型上的檢測平均精度,以及各類別綜合檢測的平均精度。 為此設(shè)計了消融實驗,以驗證筆者所提出方法的各部分模塊對系統(tǒng)檢測效果的提升。
筆者從NuScenes數(shù)據(jù)集中, 按6∶2∶2的比例選取出混合天氣、 雨天和夜間的場景進行模型訓(xùn)練。 在不補充雷達信號位置信息和將雷達點半徑擴展為1.5 m的情況下,分別測試了空間信息融合與通道注意力機制對檢測效果的影響。 檢測結(jié)果見表7、8。
由表7、8可知, 在對雷達數(shù)據(jù)的位置信息進行增強后,MFFT-SCA模型的檢測效果比基線模型有了明顯提升, 尤其是在夜間的檢測效果上,平均精度均值和平均召回率均值分別提高了11.2%和6.0%;雨天場景下,平均精度均值和平均召回率均值分別提高了2.2%和1.6%;混合天氣下平均精度均值和平均召回率均值分別提高了0.3%~1.5%。在同樣的模型下,對雷達數(shù)據(jù)的位置信息進行增強處理, 效果較不增強條件下更好。實際檢測效果如圖6所示。 可以看出, 由MFFTSCA模型主導(dǎo)的復(fù)雜光照環(huán)境下的行車檢測,能夠在雨天、夜間等光照不足或有干擾的行車環(huán)境中,完成對車輛運行前方各行車目標的識別和檢測。 證明了筆者所提出模型的有效性。
圖6 混合天氣、雨天和夜間場景下的檢測效果
表7 消融實驗設(shè)置及不同場景下檢測各類障礙物的平均精度均值
表8 消融實驗設(shè)置及不同場景下檢測各類障礙物的平均召回率均值
提出了一種基于毫米波雷達與視覺傳感器融合的檢測算法MFFT-SCA, 以解決復(fù)雜光照環(huán)境下行車檢測的問題。 在所提出的檢測方法中,加入了空間信息融合和通道注意力機制的相關(guān)內(nèi)容,并通過實驗驗證了各部分結(jié)構(gòu)對檢測效果的提升。 與其他融合方法相比,筆者提出的方法首先對雷達數(shù)據(jù)的位置信息進行了增強,在一定程度上解決了毫米波雷達點云稀疏,空間位置信息少所導(dǎo)致的信息丟失問題;其次,利用毫米波雷達的空間位置信息與視覺信息進行空間信息融合,生成特征矩陣,從而更好地引導(dǎo)感興趣區(qū)域的確定, 在突出視覺重點檢測空間的前提下,同時不忽略其他檢測空間的信息,進一步避免了信息丟失的問題;最后,通過改善雷達特征與視覺特征的融合方式,引入級聯(lián)形式對雙模態(tài)信息進行融合,利用通道注意力機制,對通道的依賴性進行建模,增強有用通道信息的權(quán)重,抑制無用通道信息,從而提升了毫米波雷達數(shù)據(jù)在融合過程中的權(quán)重,同時,進一步增強了檢測效果。 通過實驗證明,筆者所提出的方法能夠有效地提高在夜間、雨天及混合天氣等光照條件復(fù)雜的行車環(huán)境下的檢測效果。