国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Tv-SECOND 的自動(dòng)駕駛場景下的3D 目標(biāo)檢測

2024-09-14 00:00:00魏海躍楊奎河畢江峰
無線電通信技術(shù) 2024年4期
關(guān)鍵詞:遠(yuǎn)距離體素特征提取

摘 要:針對自動(dòng)駕駛場景中復(fù)雜環(huán)境下的3D 目標(biāo)檢測任務(wù),特別是遠(yuǎn)距離和遮擋條件下,為提高模型的檢測準(zhǔn)確率,在SECOND 的基礎(chǔ)上提出了Tv-SECOND 兩階段算法。該算法提出一種基于Transformer 架構(gòu)的提案框特征提取模塊,并在傳統(tǒng)體素特征編碼基礎(chǔ)上提出可變形的體素特征編碼模塊。在KITTI 數(shù)據(jù)集上進(jìn)行測試,結(jié)果顯示,所提出的算法相比SECOND 在遠(yuǎn)距離和遮擋嚴(yán)重的情況下分別提高了7. 49% 、9. 72% 。同時(shí)與其他先進(jìn)的兩階段方法相比,檢測精度有不同程度的提升,證明了Tv-SECOND 算法的有效性。新算法能夠建立特征之間的依賴關(guān)系,聚合周邊廣域的上下文信息,增強(qiáng)模型的學(xué)習(xí)推理能力,有效提升了模型在遠(yuǎn)距離和遮擋的情況下的檢測性能。

關(guān)鍵詞:自動(dòng)駕駛;3D 目標(biāo)檢測;Transformer;SECOND

中圖分類號:TP391. 41 文獻(xiàn)標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

文章編號:1003-3114(2024)04-0823-08

0 引言

自動(dòng)駕駛技術(shù)可以減輕駕駛員工作負(fù)擔(dān)和提高行車安全性,近年來受到了越來越多的關(guān)注[1-3]。3D 目標(biāo)檢測作為自動(dòng)駕駛系統(tǒng)的關(guān)鍵技術(shù)之一,扮演這重要角色。其主要任務(wù)是準(zhǔn)確估計(jì)駕駛環(huán)境中目標(biāo)的位置、大小和類別等信息,為環(huán)境感知、決策規(guī)劃、未來預(yù)測和碰撞預(yù)防等多個(gè)關(guān)鍵環(huán)節(jié)提供支持。

目前3D 目標(biāo)檢測算法主要分為兩大類:基于圖像的算法和基于點(diǎn)云的算法。基于圖像的算法從圖像中獲取更加詳細(xì)的目標(biāo)形狀信息,通過投影和渲染,并比較損失得到更準(zhǔn)確的檢測結(jié)果。文獻(xiàn)[4-5]等方法使用改進(jìn)過的2D 目標(biāo)檢測框架和單目相機(jī)直接從圖像中回歸3D 框的參數(shù)。文獻(xiàn)[6]則對多視圖數(shù)據(jù)進(jìn)行處理,生成用于3D 目標(biāo)檢測的密集3D 框表示。盡管基于圖像的3D 物體檢測已經(jīng)取得了顯著的進(jìn)步,但其精度比基于點(diǎn)云的3D檢測方法低。基于點(diǎn)云的算法,一類方法充分利用點(diǎn)云數(shù)據(jù)的本質(zhì)屬性———排列不變性,以此直接整合點(diǎn)特征,盡管文獻(xiàn)[7]本身并未涉足3D 目標(biāo)檢測領(lǐng)域,但它所提出的方法為一系列后續(xù)研究奠定了基礎(chǔ)。文獻(xiàn)[8 ]通過感興趣區(qū)域(Region ofInterest,RoI)特征池化和基于點(diǎn)的多層感知機(jī)(Multi Layer Perceptron,MLP)進(jìn)一步完善3D RoI,生成點(diǎn)特征。文獻(xiàn)[9]為每個(gè)點(diǎn)構(gòu)建一個(gè)局部鄰域圖,使用圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)來推斷和聚合局部鄰域圖中點(diǎn)的上下文信息。文獻(xiàn)[10]提出了一種新的點(diǎn)云采樣方法———特征距離復(fù)合(Feature Distance Composite)。文獻(xiàn)[11]使用語義分割算法分離點(diǎn)云中的前景和背景點(diǎn)。另一類方法將離散的點(diǎn)云數(shù)據(jù)轉(zhuǎn)換為規(guī)則稠密的體素表示。文獻(xiàn)[12 ] 采用3D 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)沿每個(gè)維度進(jìn)行卷積。文獻(xiàn)[13]引入3D 稀疏卷積,提高算法效率,并減少空體素導(dǎo)致的不必要的計(jì)算開銷。文獻(xiàn)[14-15]將點(diǎn)云數(shù)據(jù)轉(zhuǎn)換為點(diǎn)柱,再轉(zhuǎn)換為2D 偽圖像,這更高效但降低了Z 軸的分辨率,不利于從點(diǎn)云中提取特征。文獻(xiàn)[16 -18]通過RoI 空間量化、關(guān)鍵點(diǎn)采樣和集合抽象來提?。常?提案特征。

雖然這些先進(jìn)3D 目標(biāo)檢測方法在KITTI 測試集上取得良好的效果,但在遠(yuǎn)距離目標(biāo)和嚴(yán)重遮擋的情況下效果不佳。這種性能差異的原因主要源于在遮擋或遠(yuǎn)距離情況下,對目標(biāo)進(jìn)行編碼并從3D提案中提取穩(wěn)定的特征變得極其困難。因此,如何在提案特征精煉階段有效地模擬點(diǎn)之間的幾何關(guān)系,并在提案特征精煉階段利用精確的位置信息,對于方法取得良好檢測性能至關(guān)重要。

針對這一挑戰(zhàn),本文以SECOND 算法為基礎(chǔ)做出以下兩方面的改進(jìn):① 提出一種基于Trasformer[19]架構(gòu)的提案框特征提取模塊對提案框內(nèi)點(diǎn)云進(jìn)行空間上下文建模,通過雙向交叉注意力機(jī)制來捕獲提案框點(diǎn)云之間的豐富上下文依賴關(guān)系,加強(qiáng)模型對3D 空間中目標(biāo)的理解能力,提升對遠(yuǎn)距離目標(biāo)和遮擋場景的適應(yīng)能力。② 提出一種可變形的體素特征編碼模塊,以增強(qiáng)體素特征表達(dá)能力和模型的定位能力,最終生成符合遠(yuǎn)距離和遮擋場景的提案框。

1 Tv-SECOND 模型

1. 1 SECOND 網(wǎng)絡(luò)

SECOND 網(wǎng)絡(luò)可以分為四部分:① 輸入數(shù)據(jù)預(yù)處理。模型將輸入的點(diǎn)云數(shù)據(jù)映射到體素網(wǎng)格上,將離散的點(diǎn)云數(shù)據(jù)轉(zhuǎn)換為規(guī)則稠密的體素表示。② 傳統(tǒng)編碼模塊。通過卷積操作,對數(shù)據(jù)預(yù)處理后的體素特征進(jìn)行一對一編碼,提升特征維度獲取更高級、更有代表性的特征。③ 骨干網(wǎng)絡(luò)(3D 稀疏卷積)。骨干網(wǎng)絡(luò)由兩個(gè)階段組成,每個(gè)階段包含多個(gè)子流形卷積和一個(gè)稀疏卷積。對編碼后的特征進(jìn)行特征提取,并在Z 軸上執(zhí)行下采樣操作,將稀疏的數(shù)據(jù)轉(zhuǎn)化為密集的特征圖。④ 區(qū)域提案網(wǎng)絡(luò)。采用的是類似SSD[20]式的架構(gòu)構(gòu)建,最后分別進(jìn)行類別預(yù)測和檢測框的回歸。SECOND 網(wǎng)絡(luò)框架如圖1 所示。

1. 2 網(wǎng)絡(luò)的改進(jìn)

提升3D 目標(biāo)檢測模型在遠(yuǎn)距離目標(biāo)和復(fù)雜遮擋場景下的檢測能力,是實(shí)現(xiàn)自動(dòng)駕駛系統(tǒng)更高安全性和優(yōu)化決策的重要前提。本研究在SECOND的基礎(chǔ)上提出了基于Transformer 的網(wǎng)絡(luò)框架。具體而言,在體素特征編碼階段采用可變形的體素特征編碼模塊替換傳統(tǒng)編碼模塊。并且在單階段方法SECOND 上添加基于Transformer 的提案框特征提取模塊用于處理區(qū)域提案網(wǎng)絡(luò)生成的3D 提案特征,詳細(xì)網(wǎng)絡(luò)框架如圖2 所示。

1. 3 基于Transformer 的提案框特征細(xì)化提取模塊設(shè)計(jì)

傳統(tǒng)的提案特征提取模塊通過空間量化、關(guān)鍵點(diǎn)采樣和集合抽象來提取3D 提案特征,但這種方式損害原始點(diǎn)云幾何結(jié)構(gòu),帶來信息損失,影響檢測效果尤其是在遠(yuǎn)距離目標(biāo)和復(fù)雜遮擋情況下。因此,本文提出基于Transformer 的提案框特征提取模塊代替?zhèn)鹘y(tǒng)提案特征提取模塊,通過雙向交叉注意力機(jī)制捕捉提案特征,增強(qiáng)模型學(xué)習(xí)能力。該模塊由三部分組成:編碼器、中間多層前饋神經(jīng)網(wǎng)絡(luò)、解碼器。

1. 3. 1 特征嵌入

本文提出將提案框特征與對應(yīng)框內(nèi)的每個(gè)點(diǎn)云特征進(jìn)行融合,形成新的融合特征表示。具體來說,對每個(gè)點(diǎn)i,將其原始提案特征嵌入與點(diǎn)云特征,得到統(tǒng)一表達(dá)fi(i∈n)。最后將每一個(gè)融合特征組合起來構(gòu)建輸入集X∈R n×d。其中,融合特征fi 用于聯(lián)合表示目標(biāo)在語義與空間上的信息:

fi =A([pdi,l,w,h,θ,ρi]), (1)

式中:pdi= pi -pd 表示點(diǎn)云與提案中心點(diǎn)的距離特征,l、w、h 和θ 分別代表提案的長、寬、高和方向角信息,ρi 為每個(gè)點(diǎn)云的原始特征,A(·)為一個(gè)全連接層,用于提升特征的維度。

1. 3. 2 基于Transformer 的提案框特征提取模塊編碼器

基于Transformer 的提案框特征提取模塊編碼器,如圖3 所示。該模塊從輸入集X 隨機(jī)選?。?個(gè)融合特征fKi(i∈k | k = Random(n))初始化誘導(dǎo)集L∈R k×d,并通過線性投影獲取查詢QE。同樣通過線性投影將輸入集X 映射到鍵KE 和值VE。在鍵KE 和查詢QE 之間執(zhí)行交叉注意力生成注意力矩陣,并對其進(jìn)行歸一化獲取注意力分?jǐn)?shù)A′,與值VE相乘,獲取隱藏特征H,相應(yīng)的計(jì)算公式表示為:

1. 3. 3 多層前饋神經(jīng)網(wǎng)絡(luò)

基于Transformer 的提案框特征提取模塊的核心思想是使用雙向交叉注意力機(jī)制在RoI 內(nèi)提取特征,融合全局上下文的感知信息實(shí)現(xiàn)提案特征的提取。但是注意力機(jī)制本身依賴線性運(yùn)算(如矩陣乘法和加法),對于密集預(yù)測任務(wù)的擬合能力有限。因此,應(yīng)用多層前饋神經(jīng)網(wǎng)絡(luò)來為模型引入非線性操作,使不同位置之間進(jìn)行特征交互,引入更多的信息,增加非線性建模能力。隱藏特征H經(jīng)過多層前饋神經(jīng)網(wǎng)絡(luò)后生成豐富的隱藏特征H′。

1. 3. 4 解碼器

基于Transformer 的提案框特征提取模塊解碼器的任務(wù)是通過編碼的豐富隱藏特征更新輸入集的特征。具體來說,基于Transformer 的提案框特征提取模塊的解碼器將特征H′ 進(jìn)行廣播,得到形狀為R n×k×d 的廣播特征H″,其長度與輸入集相同。通過線性投影運(yùn)算獲取到鍵KD 和值VD,并從輸入集中獲取查詢矩陣QD,在廣播特征中獲取鍵和值,解碼器的輸出特征O 計(jì)算可以表示為:

1. 4 可變形的體素特征編碼模塊設(shè)計(jì)

為進(jìn)一步提升模型對遠(yuǎn)距離和遮擋目標(biāo)的檢測精度,本文提出一種可變形的體素特征編碼模塊,采用可變形的注意力機(jī)制在體素間進(jìn)行關(guān)聯(lián)性建模,構(gòu)建豐富的上下文信息,提高了模型對3D 場景中目標(biāo)的檢測和理解能力,最終生成的提案框更適合遠(yuǎn)距離和遮擋情況下的場景需求。傳統(tǒng)編碼方式通常僅關(guān)注單個(gè)體素的信息,如圖4(a)所示,這種方式忽略了體素間的相互作用和全局上下文。因此本文在編碼模塊融入了可變形的自注意力機(jī)制,如圖4(b)所示,具體來說,首先,可變形的體素特征編碼模塊使用卷積神經(jīng)網(wǎng)絡(luò)基于當(dāng)前查詢體素的空間位置動(dòng)態(tài)生成采樣偏移量(Δx,Δy,Δz),這些偏移量指導(dǎo)被查詢體素的精確定位。其次,由查詢體素提供注意力計(jì)算中的查詢,鍵和值則由被查詢體素來提供。最后,進(jìn)行矩陣運(yùn)算和全連接層,獲取編碼特征(Voxel-wise Feature)。此外為加快特征編碼的過程,本研究在GPU 上構(gòu)建一個(gè)哈希表,該哈希表將非空體素的索引進(jìn)行存儲(chǔ),方便快速查詢。

1. 5 檢測頭

檢測頭使用兩層的MLP,網(wǎng)絡(luò)對基于Transformer 的提案框特征提取模塊的輸出特征做最后的處理,預(yù)測相對于輸入3D 候選框的大小和位置(即中心、大小和方向)。設(shè)置了兩個(gè)分支,分別用于預(yù)測置信度和進(jìn)行候選框的回歸工作。

2 實(shí)驗(yàn)驗(yàn)證與分析

本節(jié)詳細(xì)介紹了數(shù)據(jù)集、訓(xùn)練細(xì)節(jié)和評估設(shè)置。通過在KITTI 基準(zhǔn)測試中全面評估兩個(gè)模塊,并與現(xiàn)有檢測方法進(jìn)行了比較。為驗(yàn)證模塊設(shè)計(jì)的有效性,對兩個(gè)模塊進(jìn)行了全面深入的分析。

2. 1 實(shí)驗(yàn)數(shù)據(jù)

KITTI 數(shù)據(jù)集是自動(dòng)駕駛中最常用的3D 目標(biāo)檢測數(shù)據(jù)集之一[21],分為簡單、中等和困難3 種不同遮擋程度,簡單遮擋程度最低,中等次之,困難遮擋程度最高。數(shù)據(jù)集包含7 481 個(gè)訓(xùn)練樣本和7 518 個(gè)測試樣本。模型的評估通常基于平均精確率(meanAverage Precision,mAP)指標(biāo)。實(shí)驗(yàn)在數(shù)據(jù)集中最常見的汽車類別上進(jìn)行,使用IoU 閾值為0. 7 的mAP 作為評估指標(biāo)。真值采用40 個(gè)位置的召回率(R40)計(jì)算。為了與KITTI 3D 檢測基準(zhǔn)上的其他方法進(jìn)行更全面的比較,本實(shí)驗(yàn)按4 ∶ 1 的比例將KITTI 訓(xùn)練數(shù)據(jù)集劃分為訓(xùn)練和驗(yàn)證集,并報(bào)告在KITTI 測試數(shù)據(jù)集上的性能。

2. 2 訓(xùn)練設(shè)置

訓(xùn)練細(xì)節(jié),對于KITTI 數(shù)據(jù)集,檢測范圍分別設(shè)置為X 軸[0,70. 4]m,Y 軸[-40,40]m 和Z 軸[-3,1]m,體素大小為(0. 05,0. 05,0. 10)m。采用ADAM 優(yōu)化器,訓(xùn)練過程涉及利用8 個(gè)GTX 2080Ti GPU 以批量大?。保?訓(xùn)練完整網(wǎng)絡(luò)80 epoch,大約需要6 h。學(xué)習(xí)率采用余弦退火進(jìn)行衰減,初始值設(shè)置為0. 001。在提案特征提取階段3DIoU 的閾值是0. 55。更詳細(xì)的配置信息請參考OpenPCDet[22]代碼庫。

推理階段,利用非最大抑制選擇最佳的100 個(gè)提案框。具體來說,將3D IoU 閾值設(shè)置為0. 7,使用非極大值抑制對不滿足條件的候選框進(jìn)行過濾;在提案特征提取階段后,利用IoU 為0. 01 排除不符合標(biāo)準(zhǔn)的框。

2. 3 實(shí)驗(yàn)結(jié)果與分析

不同檢測模型在KITTI 數(shù)據(jù)集上檢測結(jié)果如表1 所示,可以看出,與其他先進(jìn)的工作相比,本文提出的方法在性能上取得了實(shí)質(zhì)性的改進(jìn)。與基線實(shí)驗(yàn)SECOND 相比,該方法在汽車類別的3 個(gè)難度級別上分別提高了4. 52% 、8. 06% 、9. 72% 的mAP性能。此外,與Voxel RCNN[16]、PV-RCNN[23]和EP-Net[24]方法相比均有提升,特別是在遮擋最嚴(yán)重的困難級別上,分別提升了1. 21% 、1. 38% 、3. 93% 的mAP 性能,這主要?dú)w功于采用注意力機(jī)制捕捉特征間的上下文信息,增強(qiáng)目標(biāo)區(qū)域特征的表達(dá)能力,提高模型對3D 空間中目標(biāo)的感知和理解能力。在嚴(yán)重遮擋的場景下,注意力機(jī)制對未遮擋區(qū)域的點(diǎn)云特征賦予更多的權(quán)重,同時(shí)保留與被遮擋區(qū)域的點(diǎn)云特征間的必要聯(lián)系。這樣的處理不僅提升了未遮擋區(qū)域的特征表達(dá),還保持了對整體目標(biāo)的連續(xù)性和完整性,極大地增強(qiáng)了模型對復(fù)雜場景中被遮擋目標(biāo)的感知和理解。通過這種方法,模型能夠以更加靈活和動(dòng)態(tài)的方式響應(yīng)不同遮擋情況,實(shí)現(xiàn)對目標(biāo)的精確識(shí)別和定位,有效的提高遮擋目標(biāo)的檢測精度。

2. 4 消融實(shí)驗(yàn)

為了評估所提出的可變形的體素特征編碼模塊和基于Transformer 的提案框特征提取模塊的有效性,本研究進(jìn)行消融實(shí)驗(yàn)。在驗(yàn)證集上報(bào)告了40 個(gè)召回位置處的mAP 指標(biāo),由表2 可以看出,基于Transformer 的提案框特征提取模塊的增益效果更顯著。與基線實(shí)驗(yàn)相比,模型在3 個(gè)不同難度等級上的mAP 性能分別提高了2. 51% 、6. 58% 和8. 82% 。與基于Transformer 的提案框特征提取模塊相比,可變形的體素特征編碼模塊帶來的性能提升較為平緩,它分別提高了2. 3% 、4. 06% 、5. 58% 的mAP 性能,并且兩個(gè)模塊都在遮擋最嚴(yán)重的困難級別上提升最為顯著,進(jìn)一步證明所提方法在嚴(yán)重遮擋情況下的效果有整體提升。

表3 展示了不同模型在不同距離下的表現(xiàn),將距離分為3 個(gè)級別(0 ~ 20 m、20 ~ 40 m、40 m 以上)。從表3 中可以看出??勺冃蔚捏w素特征編碼模塊和基于Transformer 的提案框特征提取模塊對于遠(yuǎn)距離模型檢測性能均有提升。同時(shí)加入兩個(gè)模塊后模型在遠(yuǎn)距離(40 m 以上)的檢測精度也要優(yōu)于Voxel RCNN[11]和PV-RCNN[6]這兩種二階段的方法,證明本文提出兩個(gè)模塊在遠(yuǎn)距離檢測的有效性。

2. 5 定性實(shí)驗(yàn)

圖5 為檢測效果圖,其中,圖5(a)~ 圖5(c)為交通實(shí)際場景圖,圖5(d)~ 圖5(f)為本文提出方法檢測的結(jié)果圖,圖5(g)~ 圖5(i)為基線實(shí)驗(yàn)的檢測結(jié)果圖。

為了方便觀察檢測結(jié)果選擇點(diǎn)云場景下的鳥瞰圖視角。檢測結(jié)果表明,本文提出的方法增強(qiáng)了遠(yuǎn)距離和遮擋條件下的檢測性能,通過測試檢測速度為25 幀/ s,基本滿足滿足檢測實(shí)時(shí)性的要求。

3 結(jié)束語

本文針對自動(dòng)駕駛3D 目標(biāo)檢測算法在遠(yuǎn)距離和遮擋情況下檢測準(zhǔn)確率不高的問題,在SECOND算法的基礎(chǔ)上提出一種改進(jìn)的Tv-SECOND 算法。Tv-SECOND 提出的基于Transformer 的提案框特征提取模塊相比對提案和點(diǎn)云的融合特征進(jìn)行空間上下文建模,加強(qiáng)模型的學(xué)習(xí)和理解3D 空間中目標(biāo)的能力,而可變形的體素特征編碼模塊增強(qiáng)特征表達(dá)能力,生成更適合遠(yuǎn)距離和遮擋場景的提案框?;诖耍倪M(jìn)后的模型能更有效的處理遠(yuǎn)距離和遮擋情況下的目標(biāo)檢測任務(wù),具有良好的工程應(yīng)用潛力。

參考文獻(xiàn)

[1] MAO J G,SHI S S,WANG X G,et al. 3D ObjectDetection for Autonomous Driving:A Review and NewOutlooks[EB/ OL]. (2022 -06 -05)[2024 - 03 - 23].https:∥arxiv. org/ abs/2206. 09474.

[2] QIAN R,LAI X,LI X R. 3D Object Detection for Autonomous Driving:A Survey [EB/ OL]. (2021 - 06 - 21 )[2024-03-23]. https:∥arxiv. org/ abs/2106. 10823.

[3] ARNOLD E,ALJARRAH O Y,DIANATI M,et al. A Survey on 3D Object Detection Methods for AutonomousDriving Applications[J]. IEEE Transactions on IntelligentTransportation Systems,2019,20(10):3782-3795.

[4] LI P X,ZHAO H C,LIU P F,et al. RTM3D:RealtimeMonocular 3D Detection from Object Keypoints for Autonomous Driving[C]∥European Conference on ComputerVision. Cham:Springer International Publishing,2020:644-660.

[5] LUO S J,DAI H,SHAO L,et al. M3DSSD:Monocular 3DSingle Stage Object Detector[C]∥2021 IEEE/ CVF Conference on Computer Vision and Pattern Recognition.Nashville:IEEE,2021:6145-6154.

[6] WANG Y,GUIZILINI V C,ZHANG T,et al. DETR3D:3D Object Detection from Multiview Images via 3Dto2DQueries[EB/ OL]. (2021 - 10 - 13)[2024 - 03 - 23].https:∥arxiv. org/ abs/2110. 06922.

[7] QI C R,SU H,MO K,et al. Pointnet:Deep Learning onPoint Sets for 3D Classification and Segmentation[C]∥2017 IEEE Conference on Computer Vision and PatternRecognition. Honolulu:IEEE,2017:652-660.

[8] SHI S S,WANG X G,LI H S. Pointrcnn:3D Object Proposal Generation and Detection from Point Cloud[C]∥2019 IEEE/ CVF Conference on Computer Vision and Pattern Recognition. Long Beach:IEEE,2019:770-779.

[9] SHI W J,RAJKUMAR R. PointGNN:Graph Neural Network for 3D Object Detection in a Point Cloud[C]∥2020IEEE/ CVF Conference on Computer Vision and PatternRecognition. Seattle:IEEE,2020:1711-1719.

[10]YANG Z T,SUN Y N,LIU S,et al. 3DSSD:Pointbased3D Single Stage Object Detector[C]∥2020 IEEE/ CVFConference on Computer Vision and Pattern Recognition.Seattle:IEEE,2020:11040-11048.

[11]YANG Z T,SUN Y N,LIU S,et al. STD:SparsetoDense3D Object Detector for Point Cloud[C]∥2019 IEEE/CVF International Conference on Computer Vision. Seoul:IEEE,2019:1951-1960.

[12] ZHOU Y,TUZEL O. Voxelnet:EndtoEnd Learning forPoint Cloud Based 3D Object Detection[C]∥2018 IEEEConference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4490-4499.

[13]YAN Y,MAO Y X,LI B. SECOND:Sparsely EmbeddedConvolutional Detection[J]. Sensors,2018,18(10):3337.

[14]LANG A H,VORA S,CAESAR H,et al. Pointpillars:FastEncoders for Object Detection from Point Clouds[C]∥2019 IEEE/ CVF Conference on Computer Vision and Pattern Recognition. Long Beach:IEEE,2019:12697-12705.

[15] YIN T W,ZHOU X Y,KRAHENBUHL P. Centerbased3D Object Detection and Tracking[C]∥2021 IEEE/ CVFConference on Computer Vision and Pattern Recognition.Nashville:IEEE,2021:11784-11793.

[16]DENG J J,SHI S S,LI P W,et al. Voxel RCNN:TowardsHigh Performance Voxelbased 3D Object Detection[C]∥2021 AAAI Conference on Artificial Intelligence.Online:AAAI ,2021:1201-1209.

[17]SHI S S,WANG Z,SHI J P,et al. From Points to Parts:3D Object Detection from Point Cloud with Partawareand Partaggregation Network[J]. IEEE Transactions onPattern Analysis and Machine Intelligence,2020,43(8):2647-2664.

[18]YOO J H,KIM Y,KIM J,et al. 3DCVF:Generating JointCamera and Lidar Features Using Crossview Spatial Feature Fusion for 3D Object Detection[C]∥Computer VisionECCV 2020:16th European Conference. Glasgow:Springer,2020:720-736.

[19]VASWANI A,SHAZEER N,PARMAR N,et al. Attentionis All You Need[EB/ OL]. (2017-07-12)[2024-03-23]. https:∥arxiv. org/ abs/1706. 03762.

[20] LIU W,ANGUELOV D,ERHAN D,et al. SSD:SingleShot Multibox Detector [C]∥ Computer VisionECCV2016:14th European Conference. Amsterdam:Springer,2016:21-37.

[21] GEIGER A,LENZ P,URTASUN R. Are We Ready forAutonomous Driving?The Kitti Vision Benchmark Suite[C]∥2012 IEEE Conference on Computer Vision andPattern Recognition. Washington D. C. :IEEE,2012:3354-3361.

[22]OpenPCDet Development Team. OpenPCDet:An Opensource Toolbox for 3D Object Detection from Point Clouds[EB/ OL]. (2021 -11 -03)[2024 -03 -23]. https:∥github. com/ openmmlab/ OpenPCDet.

[23] SHI S S,GUO C X,JIANG L,et al. PVRCNN:Pointvoxel Feature Set Abstraction for 3D Object Detection[C]∥2020 IEEE/ CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2020:10529-10538.

[24]HUANG T T,LIU Z,CHEN X W,et al. EPNet:EnhancingPoint Features with Image Semantics for 3D Object Detection[C]∥Computer VisionECCV 2020:16th EuropeanConference. Glasgow:Springer,2020:35-52.

作者簡介:

魏海躍 男,(1997—),碩士研究生。主要研究方向:圖像處理、深度學(xué)習(xí)、3D 目標(biāo)檢測。

楊奎河 男,(1966—),博士后,教授,碩士生導(dǎo)師。主要研究方向:數(shù)據(jù)庫應(yīng)用技術(shù)、人工智能和機(jī)器學(xué)習(xí)。

畢江峰 男,(1998—),碩士研究生。主要研究方向:圖像處理、深度學(xué)習(xí)、3D 目標(biāo)檢測。

基金項(xiàng)目:河北省自然科學(xué)基金(F2013208105)

猜你喜歡
遠(yuǎn)距離體素特征提取
基于超體素聚合的流式細(xì)胞術(shù)自動(dòng)門控方法
基于多級細(xì)分的彩色模型表面體素化算法
零距離與遠(yuǎn)距離
運(yùn)用邊界狀態(tài)約束的表面體素加密細(xì)分算法
基于體素格尺度不變特征變換的快速點(diǎn)云配準(zhǔn)方法
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
高速公路遠(yuǎn)距離供電系統(tǒng)
捐獻(xiàn)
Bagging RCSP腦電特征提取算法
遠(yuǎn)距離供電系統(tǒng)在滁馬高速的應(yīng)用
永春县| 永平县| 安乡县| 阿拉善盟| 耒阳市| 武穴市| 顺平县| 松原市| 西城区| 共和县| 日喀则市| 潮州市| 杭锦旗| 新化县| 拜泉县| 额敏县| 永泰县| 临桂县| 福海县| 和林格尔县| 靖边县| 冀州市| 公主岭市| 华坪县| 富顺县| 贺兰县| 健康| 佛教| 罗城| 阿图什市| 昌图县| 河津市| 南郑县| 漯河市| 兴隆县| 确山县| 临泉县| 绵竹市| 潼关县| 乌拉特前旗| 阿克陶县|