国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于雙向嵌套級(jí)聯(lián)殘差的交通標(biāo)志檢測(cè)方法

2024-09-12 00:00:00江金懋鐘國(guó)韻
現(xiàn)代電子技術(shù) 2024年5期
關(guān)鍵詞:嵌套交通標(biāo)志級(jí)聯(lián)

摘" 要: 交通標(biāo)志檢測(cè)是自動(dòng)駕駛領(lǐng)域的一個(gè)重要課題,其對(duì)于檢測(cè)系統(tǒng)的實(shí)時(shí)性和精度都有非常高的要求。目標(biāo)檢測(cè)領(lǐng)域中的YOLOv3算法是業(yè)界公認(rèn)在精度和速度上都處于前列的一種算法。文中以YOLOv3檢測(cè)算法作為基礎(chǔ)網(wǎng)絡(luò),提出一種雙向嵌套級(jí)聯(lián)殘差單元(bid?NCR),替換掉原網(wǎng)絡(luò)中順序堆疊的標(biāo)準(zhǔn)殘差塊。雙向嵌套級(jí)聯(lián)殘差單元的兩條殘差邊采用相同的結(jié)構(gòu),都是一次卷積操作加上一次級(jí)聯(lián)殘差處理,兩條邊上級(jí)聯(lián)的標(biāo)準(zhǔn)殘差塊的數(shù)量可以調(diào)節(jié),從而形成不同的深度差。然后將兩條邊的結(jié)果逐像素相加,最后再做一次卷積操作。相較于標(biāo)準(zhǔn)殘差塊,雙向嵌套級(jí)聯(lián)殘差單元擁有更強(qiáng)的特征提取能力和特征融合能力。文中還提出跨區(qū)域壓縮模塊(CRC),它是對(duì)2倍率下采樣卷積操作的替代,旨在融合跨區(qū)域的通道數(shù)據(jù),進(jìn)一步加強(qiáng)主干網(wǎng)絡(luò)輸入特征圖所包含的信息。實(shí)驗(yàn)結(jié)果表明:提出的模型在CCTSDB數(shù)據(jù)集上mAP(0.5)、mAP(0.5∶0.95)分別達(dá)到96.86%、68.66%,F(xiàn)PS達(dá)到66.09幀。相比于YOLOv3算法,3個(gè)指標(biāo)分別提升1.23%、10.35%、127.90%。

關(guān)鍵詞: 交通標(biāo)志檢測(cè); 雙向嵌套級(jí)聯(lián)殘差單元; 跨區(qū)域壓縮模塊; YOLOv3; 長(zhǎng)沙理工大學(xué)中國(guó)交通標(biāo)志檢測(cè)數(shù)據(jù)集; 特征提取; 特征融合

中圖分類號(hào): TN911.73?34; TP391" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2024)05?0176?06

Traffic sign detection method based on bi?directional nested cascading residuals

JIANG Jinmao, ZHONG Guoyun

(School of Information Engineering, East China University of Technology, Nanchang 330013, China)

Abstract: Traffic sign detection is an important topic in the field of autonomous driving, which has very high requirements for real?time performance and accuracy of the detection system. The YOLOv3 algorithm in the field of target detection is recognized as one of the leading algorithms in terms of accuracy and speed. In this paper, by taking YOLOv3 detection algorithm as the base network, a bi?directional nested cascaded residual (bid?NCR) unit is proposed to replace the standard residual blocks sequentially stacked in the original network. The two residual edges of the bid?NCR unit is of the same structure, both of which are one convolutional operation plus one cascaded residual processing, and the number of cascaded standard residual blocks on the two edges can be adjusted to form different depth differences. The results of the two edges are then added pixel by pixel, and another convolutional operation is performed, finally. In comparison with the standard residual blocks, the bid?NCR unit has stronger feature extraction capability and feature fusion capability. The cross?region compression (CRC) module, which is an alternative to the 2?fold downsampling convolutional operation, is proposed. It aims to fuse the channel data across regions to further enhance the information contained in the input feature map of the backbone network. The experimental results show that the model proposed in this paper achieves mAP(0.5) and mAP(0.5∶0.95) of 96.86% and 68.66%, respectively, and FPS of 66.09 frames on the dataset CCTSDB. In comparison with YOLOv3 algorithm, the three indicators are improved by 1.23%, 10.35% and 127.90%, respectively.

Keywords: traffic sign detection; bid?NCR unit; CRC module; YOLOv3; CSUST Chinese traffic sign detection benchmark (CCTSDB); feature extraction; feature fusion

0" 引" 言

汽車智能化是汽車產(chǎn)業(yè)一直在追尋的目標(biāo),而自動(dòng)駕駛是汽車智能化不可或缺的一環(huán)。要實(shí)現(xiàn)自動(dòng)駕駛,必須為汽車加上一雙眼睛和配套的處理系統(tǒng),這套處理系統(tǒng)需要像人一樣識(shí)別交通標(biāo)志。交通標(biāo)志檢測(cè)的實(shí)現(xiàn)方案主要有兩大類:一類是基于計(jì)算機(jī)圖形學(xué)的方案,比如依據(jù)顏色直方圖、尺度不變特征變換特征、方向梯度直方圖特征[1]等,以上方法最大的問題在于這些人工提取的特征高度依賴于特定的場(chǎng)景,泛化能力很差;另一類是基于深度學(xué)習(xí)的方案,比如文獻(xiàn)[2]提出的基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的方案,設(shè)計(jì)了一個(gè)多尺度空洞卷積池化金字塔模塊用于采樣。文獻(xiàn)[3]對(duì)Tiny YOLOv4算法進(jìn)行了改進(jìn),引入了跨階段局部網(wǎng)絡(luò)和SPP結(jié)構(gòu)?;谏疃葘W(xué)習(xí)的方案有兩類技術(shù)路線:一類是文獻(xiàn)[4]提出的RCNN算法,包括文獻(xiàn)[5]提出的FasterRCNN和文獻(xiàn)[6]提出的CascadeRCNN;另一類是文獻(xiàn)[7]提出的YOLO系列算法和文獻(xiàn)[8]提出的SSD算法。模型改進(jìn)的思路大致也分為兩種:一種是提出新的、更輕更強(qiáng)的模塊對(duì)原網(wǎng)絡(luò)進(jìn)行重構(gòu),比如文獻(xiàn)[9]提出Ghost Net模塊,文獻(xiàn)[10]提出雙尺度注意力模塊;另一種是先將原網(wǎng)絡(luò)變淺、變窄,然后再采取其他措施提高精度,比如說文獻(xiàn)[11]設(shè)計(jì)了一種叫copy?paste的數(shù)據(jù)增強(qiáng)方式,文獻(xiàn)[12]設(shè)計(jì)了基于坐標(biāo)注意力的CA機(jī)制。

1" 算法基礎(chǔ)

1.1" YOLOv3網(wǎng)絡(luò)

YOLOv3[13]網(wǎng)絡(luò)由3個(gè)部分構(gòu)成,負(fù)責(zé)提取特征的主干網(wǎng)絡(luò),負(fù)責(zé)融合多尺度特征的頸部網(wǎng)絡(luò),負(fù)責(zé)輸出預(yù)測(cè)結(jié)果的頭部網(wǎng)絡(luò)。主干網(wǎng)絡(luò)采用了相比YOLOv2[14]更深的殘差網(wǎng)絡(luò),將五組殘差塊以1、2、8、8、4數(shù)量配比的形式進(jìn)行堆疊。頸部網(wǎng)絡(luò)采用特征金字塔結(jié)構(gòu)對(duì)多尺度特征進(jìn)行融合。頭部網(wǎng)絡(luò)則負(fù)責(zé)輸出3個(gè)尺度的預(yù)測(cè)結(jié)果。

1.2" 殘差思想

當(dāng)神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)得越來越深,模型性能并沒有隨之越來越強(qiáng),反倒是出現(xiàn)了性能衰退。文獻(xiàn)[15]提到由于使用了非線性激活函數(shù)ReLU,當(dāng)輸入小于0時(shí),神經(jīng)元的輸出直接被置為0,相當(dāng)于神經(jīng)元死亡,這一結(jié)果幾乎不可逆,等價(jià)于發(fā)生了不可逆的信息損失,同時(shí)也意味著網(wǎng)絡(luò)越深,信息損失越大。文獻(xiàn)[16]實(shí)現(xiàn)了恒等映射這一機(jī)制,以此盡可能保證特征的完整。圖1a)是殘差塊的基本結(jié)構(gòu)。圖1c)是圖1b)的等價(jià)形式,但是參數(shù)量要少很多。

2" 基于雙向嵌套級(jí)聯(lián)殘差單元的交通標(biāo)志檢測(cè)方法

2.1" 跨區(qū)域壓縮模塊

輸入圖像在進(jìn)入YOLOv3主干網(wǎng)絡(luò)之前需要進(jìn)行一次2倍率下采樣,但是卷積會(huì)導(dǎo)致原始圖像在輸入主干網(wǎng)絡(luò)之前發(fā)生信息衰減。為了解決上述問題,本文提出跨區(qū)域壓縮網(wǎng)絡(luò)。該模塊以原圖像作為輸入,對(duì)輸入圖像進(jìn)行拼接,同樣能達(dá)到2倍率下采樣的效果。

具體來說,如圖2所示,用一個(gè)步長(zhǎng)為2的3×3網(wǎng)格在圖像上每次選取9個(gè)相鄰的像素點(diǎn),將這9個(gè)像素點(diǎn)按照從上到下、從左到右的順序,在通道方向上拼接成分辨率為1×1,通道數(shù)為27的特征圖。一方面,該模塊避免了輸入圖像在進(jìn)入主干網(wǎng)絡(luò)之前丟失紋理、顏色、位置等低層次信息;另一方面,該模塊生成的特征圖的每一個(gè)像素都融合了附近區(qū)域的信息,為主干網(wǎng)絡(luò)提供了一個(gè)包含豐富信息的輸入。

2.2" 雙向嵌套級(jí)聯(lián)殘差單元

YOLOv3采用了較深的殘差網(wǎng)絡(luò)作為提取特征的主干網(wǎng)絡(luò),殘差網(wǎng)絡(luò)在深度增加的同時(shí),精度雖然會(huì)隨之增長(zhǎng),檢測(cè)速度卻也會(huì)相應(yīng)下降。本文對(duì)殘差結(jié)構(gòu)進(jìn)行了重新設(shè)計(jì),提出雙向嵌套級(jí)聯(lián)殘差單元,此單元將標(biāo)準(zhǔn)殘差塊的兩條殘差邊也設(shè)計(jì)為殘差結(jié)構(gòu)。文獻(xiàn)[17]也使用了嵌套殘差的思想,他們?cè)谀K之間引入嵌套結(jié)構(gòu),但本文采用另外一種路線,即在標(biāo)準(zhǔn)殘差塊內(nèi)部嵌套一個(gè)級(jí)聯(lián)殘差結(jié)構(gòu)。如圖3所示,首先對(duì)輸入圖像進(jìn)行2倍率的下采樣,并將通道數(shù)擴(kuò)大2倍。該模塊的兩條殘差邊都是一次1×1卷積操作加上級(jí)聯(lián)標(biāo)準(zhǔn)殘差塊。同時(shí),兩條殘差邊上標(biāo)準(zhǔn)殘差塊的數(shù)量可以獨(dú)立進(jìn)行調(diào)整。緊接著,將兩條殘差邊的結(jié)果進(jìn)行逐像素相加。圖3b)是主干網(wǎng)絡(luò)采用的深度差為2的雙向嵌套級(jí)聯(lián)殘差單元。

兩條殘差邊上的級(jí)聯(lián)殘差塊的深度差使雙向嵌套級(jí)聯(lián)殘差單元還可以融合有層次差的特征,將相對(duì)更深的語義特征和相對(duì)更淺的位置特征相融合,而這將為下一層雙向嵌套級(jí)聯(lián)殘差單元提供融合更多全局信息和局部信息的特征圖。

2.3" 基于雙向嵌套級(jí)聯(lián)殘差單元的網(wǎng)絡(luò)結(jié)構(gòu)

本文提出的改進(jìn)后的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。主干網(wǎng)絡(luò)由CRC模塊、4個(gè)bidNCR單元組成。將后面三級(jí)殘差單元的輸出作為頸部網(wǎng)絡(luò)的輸入。頸部網(wǎng)絡(luò)采用FPN結(jié)構(gòu),并部分采用bidNCR。最后,由頭部網(wǎng)絡(luò)負(fù)責(zé)最終的輸出。

3" 實(shí)" 驗(yàn)

3.1" 實(shí)現(xiàn)細(xì)節(jié)

本文提出的網(wǎng)絡(luò)使用NVIDIA 3060 GPU(6 GB顯存)和PyTorch框架實(shí)現(xiàn)。主干網(wǎng)絡(luò)由ILSVRC上的預(yù)訓(xùn)練模型進(jìn)行初始化。neck網(wǎng)絡(luò)和head網(wǎng)絡(luò)都采用隨機(jī)初始化。本文將模型訓(xùn)練150個(gè)epoch,采用凍結(jié)訓(xùn)練的策略,即前75個(gè)epoch凍結(jié)主干網(wǎng)絡(luò)的參數(shù),只訓(xùn)練neck網(wǎng)絡(luò)和head網(wǎng)絡(luò),后75個(gè)epoch則是整個(gè)網(wǎng)絡(luò)參與訓(xùn)練。訓(xùn)練采用SGD優(yōu)化器,權(quán)重衰減設(shè)為0.000 5,初始學(xué)習(xí)率為0.01,每個(gè)epoch降低上一個(gè)epoch學(xué)習(xí)率的3%。

3.2" CCTSDB數(shù)據(jù)集

本文采用長(zhǎng)沙理工大學(xué)張建明團(tuán)隊(duì)建立的中國(guó)交通標(biāo)志數(shù)據(jù)集。此數(shù)據(jù)集包括3個(gè)類別:警告標(biāo)志、指示標(biāo)志和禁止標(biāo)志,如圖5所示。

本文只選取前4 000張圖像作為數(shù)據(jù)集,經(jīng)過統(tǒng)計(jì),三種類別圖像的數(shù)量分別為警告標(biāo)志1 999張,禁止標(biāo)志1 901張,指示標(biāo)志100張。按照1∶9的比例分割數(shù)據(jù)集,也就是驗(yàn)證集400張樣本,訓(xùn)練集3 600張樣本。最后,直接使用該數(shù)據(jù)集提供好的測(cè)試集,一共400張。

3.3" 評(píng)價(jià)指標(biāo)

本文采用目標(biāo)檢測(cè)領(lǐng)域常用的3個(gè)標(biāo)準(zhǔn)來評(píng)價(jià)算法的性能表現(xiàn)。首先做一些定義:正確地將正樣本預(yù)測(cè)為正樣本,記為TP;正確地將負(fù)樣本預(yù)測(cè)為負(fù)樣本,記為TN;錯(cuò)誤地將正樣本預(yù)測(cè)為負(fù)樣本,記為FN;錯(cuò)誤地將負(fù)樣本預(yù)測(cè)為正樣本,記為FP。

[P=TPTP+FP] (1)

[R=TPTP+FN] (2)

[AP=01prdr] (3)

[mAP=1mi=1mAPi] (4)

[mAP0.5:0.95=110i=0.50.95mAPwhen IOU=i," " " " " " " " " " " " " " " " " " " i=0.5,0.55,0.6,…,0.95] (5)

式中:[P](Precision)表示分類正確的正樣本數(shù)量占系統(tǒng)判定為正樣本數(shù)量的比例;[R](Recall)表示分類正確的正樣本數(shù)量占數(shù)據(jù)中真實(shí)的正樣本數(shù)量的比例,在評(píng)判算法優(yōu)劣時(shí),需要綜合考量[P]、[R]的結(jié)果;AP稱為平均精度,通過計(jì)算PR曲線與坐標(biāo)軸圍成的面積求出,AP針對(duì)的是單個(gè)類別的平均精度;mAP則是求出測(cè)試集中所有類別對(duì)應(yīng)AP的均值;mAP(0.5∶0.95)表示IOU閾值從0.5~0.95對(duì)應(yīng)的mAP的均值。

3.4" 模型設(shè)置

本文設(shè)置了4個(gè)模型用于對(duì)照實(shí)驗(yàn)。模型1只將雙向嵌套級(jí)聯(lián)殘差單元應(yīng)用于主干網(wǎng)絡(luò),并且bidNCR1~ bidNCR4中兩個(gè)級(jí)聯(lián)殘差塊深度的比例分別為1∶1、2∶1、2∶1、1∶1,另外,在輸入位置加上跨區(qū)域壓縮模塊;模型2在模型1的基礎(chǔ)上加深了兩個(gè)級(jí)聯(lián)殘差塊的深度差異,將深度比例調(diào)整為1∶1、3∶1、3∶1、1∶1;模型3在模型2的基礎(chǔ)上將雙向嵌套級(jí)聯(lián)殘差單元應(yīng)用于頸部網(wǎng)絡(luò),bidNCR5~bidNCR8中兩個(gè)級(jí)聯(lián)殘差塊的比例分別為1∶1、1∶1、1∶1、1∶1;模型4在模型3的基礎(chǔ)上,去掉跨區(qū)域壓縮模塊。

4" 實(shí)驗(yàn)結(jié)果與分析

本文將3.4節(jié)中設(shè)置的4個(gè)模型和YOLOv3模型在CCTSDB數(shù)據(jù)集上一起進(jìn)行評(píng)估。如表1所示,列出了5個(gè)模型在不同IOU閾值下的mAP值、三個(gè)類別交通標(biāo)志的[P]、[R]值。設(shè)定IOU閾值的范圍為0.5~0.9,變化步長(zhǎng)為0.1。

從表1可知,不管IOU是多少,模型1~模型3的[P]值、[R]值、mAP值都在穩(wěn)步提升。這說明雙向嵌套級(jí)聯(lián)殘差單元在特征提取和特征融合方面都是有效的。[R]值的提升幅度比[P]值更大,而[R]值的增加,意味著有更多的正樣本被找了出來,這對(duì)于提升模型的精度有較強(qiáng)的潛在影響。

比較模型1和模型2可知,加大級(jí)聯(lián)殘差塊的深度差使模型精度提升3.06%;比較模型2和模型3可知,將雙向嵌套級(jí)聯(lián)殘差單元應(yīng)用于特征融合,其帶來的性能提升比單純?cè)黾觾蓚€(gè)級(jí)聯(lián)殘差塊的深度差更大,精度提升6.16%;模型4在不同IOU閾值下的所有指標(biāo)均出現(xiàn)了退化,這說明CRC模塊確實(shí)為主干網(wǎng)絡(luò)提供了一個(gè)信息密度更大的輸入,從而提升了整個(gè)模型的性能。比較模型3和YOLOv3模型的結(jié)果可知,在低IOU閾值時(shí),YOLOv3模型的[P]值超過了模型3,但是隨著IOU閾值的增大,模型3的[P]值逐步反超了YOLOv3模型。而更重要的是,模型3的[R]值始終遠(yuǎn)遠(yuǎn)大于YOLOv3模型,[R]值單類別的平均增幅為31.28%。選擇IOU=0.5時(shí)的模型3作為本文提出的最優(yōu)模型。

本文還測(cè)試了一些單階段和雙階段目標(biāo)檢測(cè)算法,對(duì)比結(jié)果如表2所示。

由表2可知,無論是SSD還是FasterRCNN,在性能表現(xiàn)上都有明顯的偏向,SSD算法[R]值偏低,F(xiàn)asterRCNN算法雖然在[R]值上取得了3個(gè)最大值,但是單類別[P]值基本上都是低于50%。改進(jìn)的Tiny YOLOv4模型的mAP指標(biāo)為88.79%,排在第五的位置,但是FPS遠(yuǎn)超其他模型,比第二名的90.46幀提升了一倍多。而本文所提出的最優(yōu)模型[P]值和[R]值都不是最高的,但都取得了不錯(cuò)的數(shù)據(jù),除了禁令標(biāo)志的[R]值為87.91%之外,其余的[P]、[R]值都在90%以上。在綜合[P]、[R]值結(jié)果的mAP指標(biāo)上,本文所提出的最優(yōu)模型是最好的。FPS指標(biāo)也排在第三的位置。

5" 結(jié)" 語

本文將YOLOv3算法起始階段的下采樣卷積操作換成了本文提出的跨區(qū)域壓縮模塊,一方面為主干網(wǎng)絡(luò)提供了一個(gè)融合周圍區(qū)域通道信息的輸入,另一方面壓縮后的特征圖在通道數(shù)量上翻了9倍,信息密度更大。使用4個(gè)雙向嵌套級(jí)聯(lián)殘差單元替代原網(wǎng)絡(luò)中的5組級(jí)聯(lián)殘差塊。雙向嵌套級(jí)聯(lián)殘差單元相比單純的堆疊標(biāo)準(zhǔn)殘差塊擁有更強(qiáng)的特征提取和特征融合能力,但是運(yùn)算量和參數(shù)量反而變小了。另外,雙向嵌套級(jí)聯(lián)殘差單元也部署到了頸部網(wǎng)絡(luò),用于特征融合。相比于YOLOv3算法,本文提升了頭部網(wǎng)絡(luò)3個(gè)側(cè)輸出的尺度,將預(yù)測(cè)框的數(shù)量增加了一倍多,從實(shí)驗(yàn)結(jié)果看,增加了召回率。

注:本文通訊作者為鐘國(guó)韻。

參考文獻(xiàn)

[1] 薛搏,李威,宋海玉,等.交通標(biāo)志識(shí)別特征提取研究綜述[J].圖學(xué)學(xué)報(bào),2019,40(6):1024?1031.

[2] 劉萬軍,李嘉欣,曲海成,等.基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)示識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究,2022,39(5):1557?1562.

[3] 張小雪,黃巍.基于改進(jìn)的Tiny?YOLOv4快速交通標(biāo)志檢測(cè)算法[J].電子設(shè)計(jì)工程,2022,30(19):139?143.

[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.

[5] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137?1149.

[6] CAI Z W, VASCONCELOS N. Cascase R?CNN: Delving into high quality object detection [EB/OL]. [2018?08?31]. https://www.doc88.com/p?3292522358799.html.

[7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real?time object detection [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 779?788.

[8] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detextor [EB/OL]. [2018?08?10]. https://download.csdn.net/download/qq_31329259/10594621?utm_source=iteye.

[9] 徐正軍,張強(qiáng),許亮.一種基于改進(jìn)YOLOv5s?Ghost網(wǎng)絡(luò)的交通標(biāo)志識(shí)別方法[J].光電子·激光,2023,34(1):52?61.

[10] 陳德海,孫仕儒,王昱朝,等.一種改進(jìn)YOLOv3的交通標(biāo)志識(shí)別算法[J].河南科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,43(6):31?36.

[11] 喬歡歡,權(quán)恒友,邱文利,等.改進(jìn)YOLOv5s的交通標(biāo)志識(shí)別算法[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2022,31(12):273?279.

[12] 李文舉,張干,崔柳,等.基于坐標(biāo)注意力的輕量級(jí)交通標(biāo)志識(shí)別模型[J].計(jì)算機(jī)應(yīng)用,2023,43(2):608?614.

[13] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?08?13]. http://arxiv.org/abs/1804.02767.

[14] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 6517?6525.

[15] SANDLER M, HOWARD A, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 4510?4520.

[16] HE K M, ZHANG X Y, REN S Q. Deep residual learning for image recognition [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 770?778.

[17] 李旭東,張建明,謝志鵬,等.基于三尺度嵌套殘差結(jié)構(gòu)的交通標(biāo)志快速檢測(cè)算法[J].計(jì)算機(jī)研究與發(fā)展,2020,57(5):1022?1036.

[18] 杜婷婷,鐘國(guó)韻,江金懋,等.基于Darknet23和特征融合的交通標(biāo)志檢測(cè)方法[J].電子技術(shù)應(yīng)用,2023,49(1):14?19.

[19] 張達(dá)為,劉緒崇,周維,等.基于改進(jìn)YOLOv3的實(shí)時(shí)交通標(biāo)志檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用,2022,42(7):2219?2226.

[20] 王浩,雷印杰,陳浩楠.改進(jìn)YOLOv3實(shí)時(shí)交通標(biāo)志檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(8):243?248.

[21] ZHANG J M, WANG W, LU C Q, et al. Lightweight deep network for traffic sign classification [J]. Annals of telecommunications, 2020, 75(7/8): 369?379.

猜你喜歡
嵌套交通標(biāo)志級(jí)聯(lián)
交通標(biāo)志認(rèn)得清
基于雙向特征融合的交通標(biāo)志識(shí)別
基于嵌套Logit模型的競(jìng)爭(zhēng)性選址問題研究
級(jí)聯(lián)LDPC碼的STBC-OFDM系統(tǒng)
電子制作(2016年15期)2017-01-15 13:39:09
交通標(biāo)志小課堂
基于級(jí)聯(lián)MUSIC的面陣中的二維DOA估計(jì)算法
我們歡迎你!
LCL濾波器在6kV級(jí)聯(lián)STATCOM中的應(yīng)用
H橋級(jí)聯(lián)型STATCOM的控制策略研究
一種基于區(qū)分服務(wù)的嵌套隊(duì)列調(diào)度算法
定日县| 临西县| 海原县| 神农架林区| 临江市| 黄浦区| 寿宁县| 深泽县| 德昌县| 梨树县| 和田市| 喀喇| 陈巴尔虎旗| 广南县| 鹿邑县| 乐安县| 宝坻区| 江门市| 郸城县| 平阴县| 绥棱县| 新竹县| 隆安县| 张北县| 石河子市| 凯里市| 定南县| 商都县| 区。| 屏南县| 炉霍县| 固阳县| 昌乐县| 昭觉县| 尉犁县| 白沙| 新乡市| 新兴县| 广宁县| 资源县| 涞源县|