国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于YOLOv5s的交通信號燈檢測算法

2023-12-03 16:12周愛玲譚光興
關(guān)鍵詞:檢測

周愛玲 譚光興

摘 要:在自動(dòng)駕駛和輔助駕駛領(lǐng)域,準(zhǔn)確判斷交通信號燈的狀態(tài)與類別對于智能汽車的行車安全十分重要。針對城市道路交通信號燈目標(biāo)小、背景環(huán)境復(fù)雜多樣造成的檢測難度大等問題,提出一種基于YOLOv5s的交通信號燈檢測算法YOLOv5s_MCO。該算法使用MobileNetv2輕量化網(wǎng)絡(luò)代替原主干特征提取網(wǎng)絡(luò),利用深度可分離卷積和逆殘差結(jié)構(gòu),降低模型的參數(shù)量及計(jì)算量;然后引入卷積塊注意力機(jī)制(convolutional block attention module,CBAM),從通道和空間2個(gè)維度進(jìn)行特征增強(qiáng),增大網(wǎng)絡(luò)的感受野,使網(wǎng)絡(luò)更關(guān)注交通信號燈的目標(biāo)特征,提高對小尺度目標(biāo)的檢測能力。實(shí)驗(yàn)結(jié)果表明:所提算法在自制的國內(nèi)交通信號燈數(shù)據(jù)集上檢測精度達(dá)到了81.89%,相較于原YOLOv5s算法提升了1.33%,同時(shí)改進(jìn)后的模型大小僅為19.1 MB,檢測速度達(dá)到了39.2 幀/s,能夠滿足實(shí)時(shí)高效的檢測要求。

關(guān)鍵詞:交通信號燈;MobileNetv2;卷積塊注意力機(jī)制(CBAM);檢測

中圖分類號:TP391.41;U491.5 DOI:10.16375/j.cnki.cn45-1395/t.2023.04.010

0 引言

近年來,隨著科學(xué)技術(shù)和人工智能(artificial intelligence,AI)的日益革新,基于深度學(xué)習(xí)和計(jì)算機(jī)視覺的自動(dòng)駕駛和輔助駕駛技術(shù)正在逐漸取代傳統(tǒng)的道路交通場景目標(biāo)檢測算法。交通信號燈是組成道路交通安全的重要元素,高效準(zhǔn)確地識別交通信號燈的狀態(tài),可以幫助智能汽車提前獲取交通路口信息,避免出現(xiàn)安全事故,為乘客安全提供保障。

早期的交通信號燈檢測算法主要采用傳統(tǒng)圖像處理方法,通過滑動(dòng)窗口手工提取交通燈的目標(biāo)特征,并結(jié)合機(jī)器學(xué)習(xí)分類器完成檢測與識別[1]。Omachi等[2]將RGB圖像轉(zhuǎn)換為RGB標(biāo)準(zhǔn)化圖像,利用Hough變換從候選區(qū)域中準(zhǔn)確定位交通燈的位置。朱永珍等[3]完成圖像HSV色彩空間轉(zhuǎn)換,利用色彩H閾值分割候選區(qū)域,原圖再經(jīng)灰度形態(tài)學(xué)操作后用Hough變換預(yù)測疑似區(qū)域,二者融合濾波后完成交通燈信息識別。這些傳統(tǒng)圖像處理算法采用大量手工設(shè)計(jì)模型提取的特征,對特定任務(wù)的依賴程度高,魯棒性較低,泛化效果不足,難以在復(fù)雜交通環(huán)境中滿足實(shí)時(shí)性要求。

近年來,隨著卷積神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的不斷發(fā)展,目標(biāo)檢測算法進(jìn)入了百花齊放的階段。目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法可分成兩個(gè)類別:以Faster R-CNN[4]等為代表的兩階段算法,預(yù)先生成可能存在目標(biāo)的候選邊界框再進(jìn)行調(diào)整分類,準(zhǔn)確率高但檢測效率較低;以SSD[5]、YOLO[6]等為代表的單階段算法,網(wǎng)絡(luò)跳過生成候選區(qū)域的步驟一步到位完成檢測,檢測速度得到提升,但相較兩階段算法精度有所下降。潘衛(wèi)國等[7]補(bǔ)充了國內(nèi)交通信號燈信息,在自建數(shù)據(jù)集中使用Faster R-CNN算法,通過實(shí)驗(yàn)對比,選擇了最優(yōu)的特征提取網(wǎng)絡(luò),完成交通信號燈的檢測與識別。王莉等[8]利用跨越式特征融合和聚類縮放獲取新先驗(yàn)框的方法改進(jìn)了YOLOv3網(wǎng)絡(luò),相較原網(wǎng)絡(luò)在Bosch交通燈數(shù)據(jù)集上平均精度均值(mean average pnecision,mAP)提高了9%。Yan等[9]利用K-means聚類對YOLOv5進(jìn)行改進(jìn),在BDD100K數(shù)據(jù)集中,交通信號燈的檢測速度得到提高,最高可達(dá)143幀/s?,F(xiàn)有的基于深度學(xué)習(xí)的交通信號燈算法雖然規(guī)避了傳統(tǒng)算法中人工提取特征和對特定任務(wù)依賴程度高的問題,但卻存在網(wǎng)絡(luò)模型結(jié)構(gòu)復(fù)雜、參數(shù)量過大、檢測效率較低、訓(xùn)練代價(jià)高等問題。

針對傳統(tǒng)圖像處理方法和日常目標(biāo)檢測算法所存在的問題,同時(shí)考慮網(wǎng)絡(luò)的檢測精度與檢測速度,以YOLOv5s目標(biāo)檢測算法為基礎(chǔ),設(shè)計(jì)了交通信號燈檢測模型YOLOv5s_MCO。通過引入輕量化模型MobileNetv2,在保證檢測精度的情況下,降低模型的參數(shù)以及計(jì)算量;并將卷積塊注意力機(jī)制(convolutional block attention module,CBAM)模塊添加至Output網(wǎng)絡(luò)的Head檢測頭前,使網(wǎng)絡(luò)更關(guān)注圖像中的目標(biāo)特征,增強(qiáng)算法的特征提取能力。實(shí)驗(yàn)結(jié)果表明:在自制的國內(nèi)城市交通信號燈數(shù)據(jù)集上,本文所提出的交通信號燈檢測算法可以較好地應(yīng)用于城市道路交通場景中,并取得了良好的檢測結(jié)果。

1 YOLOv5模型

從YOLOv1發(fā)展至YOLOv5,YOLO系列作為單階段目標(biāo)檢測算法的代表,集合了很多基于深度學(xué)習(xí)的目標(biāo)檢測網(wǎng)絡(luò)的優(yōu)點(diǎn)?;趯?shí)際應(yīng)用考慮,本文采用YOLOv5模型(5.0版本)中深度最小、速度最快的YOLOv5s為基礎(chǔ)進(jìn)行實(shí)驗(yàn),其網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示,主要分為輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、特征融合網(wǎng)絡(luò)(Neck)、輸出端(Output)4個(gè)部分。1)輸入端部分包括圖像數(shù)據(jù)增強(qiáng)、尺寸縮放等,輸入圖像經(jīng)過輸入端的統(tǒng)一壓縮,分辨率減小為640×640后輸入主干網(wǎng)絡(luò)進(jìn)行訓(xùn)練。2)主干網(wǎng)絡(luò)主要包括:Focus模塊的切片操作、交替使用的CBS模塊和C3模塊的主干網(wǎng)絡(luò)特征提取操作、融合了局部特征和全局特征的空間金字塔池化(SPP)操作,提取出主干網(wǎng)絡(luò)的3個(gè)不同階段的特征輸入Neck網(wǎng)絡(luò)。3)Neck網(wǎng)絡(luò)采用特征金字塔(FPN)和路徑聚合網(wǎng)絡(luò)(PAN)結(jié)構(gòu)進(jìn)行加強(qiáng)特征的融合提取,融合主干網(wǎng)絡(luò)各特征層和檢測網(wǎng)絡(luò)提取的信息,增強(qiáng)信息傳遞效率,提升模型的多樣性和魯棒性。4)輸出端部分具有分別檢測大、中、小3種尺度目標(biāo)的Head檢測頭:20*20、40*40、80*80,將特征融合網(wǎng)絡(luò)中提取出的特征圖經(jīng)過多尺度預(yù)測,最終得出檢測目標(biāo)的邊界框、類別和置信度信息。

2 改進(jìn)的YOLOv5s模型

為更好地使模型應(yīng)用在交通信號燈檢測領(lǐng)域,本文對YOLOv5s的主干網(wǎng)絡(luò)和輸出端進(jìn)行改進(jìn),引入MobileNetv2網(wǎng)絡(luò)代替原主干特征提取網(wǎng)絡(luò),同時(shí)取消SPP和Focus模塊,在保證檢測精度的情況下,降低模型的參數(shù)以及計(jì)算量;然后利用卷積結(jié)構(gòu)更改3個(gè)尺度特征的通道數(shù),使其滿足Neck網(wǎng)絡(luò)對輸入通道數(shù)的要求;最后將CBAM注意力機(jī)制添加至Output網(wǎng)絡(luò)的Head檢測頭前,增強(qiáng)算法的特征提取能力。將改進(jìn)后的算法命名為YOLOv5s_MCO,模型結(jié)構(gòu)如圖2所示,其中M代表MobileNetv2輕量化網(wǎng)絡(luò),C代表CBAM注意力機(jī)制,O代表注意力機(jī)制的添加位置。改進(jìn)后的算法在自制數(shù)據(jù)集中對交通信號燈小目標(biāo)的檢測有著更好的表現(xiàn),且體積小更適用于嵌入式設(shè)備等低算力平臺(tái)。

2.1 MobilNetv2網(wǎng)絡(luò)

作為輕量級網(wǎng)絡(luò)的代表之一,含有深度可分離卷積的MobileNet系列網(wǎng)絡(luò)的設(shè)計(jì)目標(biāo)就是為了應(yīng)用于嵌入式設(shè)備等低算力平臺(tái)中。不同于常規(guī)的卷積運(yùn)算,深度可分離卷積(depthwise separable convolution,DW)對一個(gè)完整的卷積運(yùn)算進(jìn)行了拆分重組:首先對輸入特征的每個(gè)通道分別進(jìn)行單通道卷積并堆疊;再利用1*1的卷積核在深度方向上進(jìn)行加權(quán)融合,從而實(shí)現(xiàn)通道之間的信息交融。假設(shè)一張輸入通道數(shù)為C1、尺寸隨機(jī)的特征圖,經(jīng)過輸出通道數(shù)為C2、卷積核大小為K*K的卷積層,計(jì)算出常規(guī)卷積的計(jì)算量P與深度可分離卷積的計(jì)算量PDW,二者的比值為

(1)

如式(1)所示,深度可分離卷積的參數(shù)量明顯小于普通卷積的參數(shù)量,且隨著卷積核個(gè)數(shù)的增加,差距越明顯。

輕量化MobileNetv2[10]網(wǎng)絡(luò)不僅采用了深度可分離卷積,還引入了具有線性瓶頸的逆殘差結(jié)構(gòu),如圖3所示。在實(shí)際網(wǎng)絡(luò)訓(xùn)練中,深度可分離卷積雖然大幅度降低了網(wǎng)絡(luò)計(jì)算復(fù)雜度,但也產(chǎn)生大量訓(xùn)練失敗的卷積核,導(dǎo)致輸出特征圖維度很小,很難通過ReLU函數(shù),造成特征信息損失。而逆殘差結(jié)構(gòu)首先利用點(diǎn)卷積(1*1卷積)擴(kuò)張數(shù)據(jù)進(jìn)行升維,再利用深度卷積(3*3卷積)進(jìn)行特征提取,最后利用點(diǎn)卷積(1*1卷積)壓縮數(shù)據(jù)完成降維,達(dá)到了減少參數(shù)量的目的,且在低維特征圖中使用Linear函數(shù)代替原ReLU函數(shù),解決了信息丟失的問題。

2.2 卷積塊注意力機(jī)制

在目標(biāo)檢測算法中,注意力機(jī)制(attention mechanism)的本質(zhì)就是在特定場景下,對解決問題有幫助的信息施加更多的權(quán)重,忽略無用信息,使算法聚焦圖像關(guān)鍵點(diǎn)信息。因此,本文引入卷積塊注意力機(jī)制(convolutional block attention module,CBAM)[11],從而提升目標(biāo)的檢測精度。如圖4所示,CBAM注意力機(jī)制屬于混合注意力機(jī)制模塊,其雖然依次從通道和空間2個(gè)維度出發(fā)對模型特征進(jìn)行自適應(yīng)調(diào)節(jié),但2個(gè)模塊之間既相互獨(dú)立又相輔相成,如圖4(a)所示。總體計(jì)算過程為

式中:[F']為過渡特征圖,F(xiàn)為輸入特征圖,MC為通道注意力模塊,[F″]為輸出特征圖,MS為空間注意力模塊。

在通道注意力模塊中,輸入特征圖采用基于寬高的全局平均池化和全局最大池化操作進(jìn)行維度壓縮后,經(jīng)過2層共享的多層感知器(multi-layer perceptron,MLP)神經(jīng)網(wǎng)絡(luò)得到權(quán)重W0、W1,再將輸出結(jié)果疊加進(jìn)行加和操作以及Sigmoid激活操作后,得到通道注意力特征MC,如圖4(b)所示。該模塊計(jì)算方法為

式中:[σ]為Sigmoid激活函數(shù)。

在空間注意力模塊中,輸入特征圖經(jīng)過MC模塊加權(quán)后,首先進(jìn)行基于通道的全局平均池化和全局最大池化操作,得到2個(gè)特征圖;再對結(jié)果依次進(jìn)行通道拼接、7*7大小卷積核的卷積操作以及Sigmoid激活操作,生成空間注意力特征MS,如圖4(c)所示。該模塊計(jì)算方法為

(5)

式中:f為卷積操作。

由于輕量化模塊CBAM注意力機(jī)制內(nèi)部結(jié)構(gòu)簡單,不含大量卷積模塊,且池化層和特征融合部分的運(yùn)算量也較少,最重要的是不需要經(jīng)過循環(huán)操作,并行化程度高,這樣的結(jié)構(gòu)設(shè)置就決定了該模型的復(fù)雜度較低、計(jì)算量較少、通用性較高、效果較好?;贑BAM模塊的諸多優(yōu)勢,許多學(xué)者已通過實(shí)驗(yàn)證明了其在目標(biāo)檢測任務(wù)中的可行性,但是因?yàn)閼?yīng)用場景和算法模型的差異,注意力模塊的具體嵌入點(diǎn)目前還沒有定論。因此本文在改進(jìn)主干網(wǎng)絡(luò)后,將CBAM模塊分別融入Neck模塊和Head模塊中,探究其對網(wǎng)絡(luò)性能的影響。具體添加部位如圖5所示,其中圖5(a)表示將CBAM模塊融入Neck網(wǎng)絡(luò)的4個(gè)上下采樣后面,圖5(b)在Output網(wǎng)絡(luò)的Head檢測頭前融入CBAM模塊。經(jīng)過實(shí)驗(yàn)證明,將CBAM注意力機(jī)制嵌入Output后,網(wǎng)絡(luò)的性能表現(xiàn)更佳,更有利于提升模型的檢測精度。

3 實(shí)驗(yàn)與結(jié)果分析

3.1 數(shù)據(jù)集采集

目前,在交通信號燈檢測領(lǐng)域中開源的數(shù)據(jù)集,如BSTLD、LISA、LARA數(shù)據(jù)集等,均在國外道路采集,背景較為單一,類別較少,基本只以顏色分類,不考慮形狀問題,且存在國內(nèi)外的地域差異;而國內(nèi)公開的交通標(biāo)志數(shù)據(jù)集TT100K、CCTSDB等只標(biāo)注了交通標(biāo)志信息,并不適用于交通信號燈檢測;因此本文采取自制數(shù)據(jù)集的方法。考慮到國內(nèi)復(fù)雜城市的交通道路,首先通過網(wǎng)絡(luò)篩選和現(xiàn)實(shí)拍攝2個(gè)途徑進(jìn)行交通信號燈數(shù)據(jù)采集,共篩選出包含目標(biāo)交通燈6 050張圖像;然后使用LabelImg標(biāo)注軟件對其進(jìn)行手工標(biāo)注,得出9個(gè)類別共11 782個(gè)標(biāo)簽,具體的9類標(biāo)簽類別分布如表1所示;最后以3∶1的形式劃分訓(xùn)練集與測試集,其中訓(xùn)練集4 050張,測試集1 500張,圖像分辨率主要為1 920×1 080和1 080×1 080。圖6為自制交通信號燈數(shù)據(jù)集的部分樣本。

3.2 實(shí)驗(yàn)環(huán)境與評價(jià)指標(biāo)

3.2.1 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置

本實(shí)驗(yàn)深度學(xué)習(xí)框架為Pytorch,其硬件和軟件平臺(tái)設(shè)備參數(shù)如表2所示。

模型訓(xùn)練采用自適應(yīng)矩估計(jì)(adaptive moment estimation,ADAM)算法對網(wǎng)絡(luò)模型的權(quán)重進(jìn)行更新優(yōu)化,訓(xùn)練階段的超參數(shù)設(shè)置如表3所示。

3.2.2 評價(jià)指標(biāo)

在深度學(xué)習(xí)目標(biāo)檢測中,準(zhǔn)確率(Precision,P)和查全率(Recall,R)是一對相互制約的指標(biāo)。單一指標(biāo)不能說明網(wǎng)絡(luò)模型的優(yōu)劣性,所以本文將從每秒檢測幀數(shù)(frame per second,F(xiàn)PS)、模型體積、平均精度均值3項(xiàng)指標(biāo)出發(fā),評判模型的性能。

式中:NTP、NFP、NFN分別代表在檢測結(jié)果中交通燈被正確識別、未被正確識別以及被錯(cuò)誤識別的數(shù)量,[AAP]代表單類別的平均精度,[AmAP]代表全類別平均精度,n代表需要被檢測的交通信號燈類別數(shù)量。

3.3 實(shí)驗(yàn)結(jié)果

3.3.1 消融實(shí)驗(yàn)

本節(jié)進(jìn)行消融實(shí)驗(yàn)以驗(yàn)證所提模型的性能,網(wǎng)絡(luò)輸入大小與原YOLOv5s保持一致,設(shè)置為640×640,不同模型在測試集上的實(shí)驗(yàn)結(jié)果如表4所示。其中,YOLOv5s_M是將YOLOv5s的CSPdarknet主干網(wǎng)絡(luò)替換為輕量化MobileNetv2網(wǎng)絡(luò);YOLOv5s_MCN是在YOLOv5s_M的基礎(chǔ)上將CBAM注意力機(jī)制嵌入Neck網(wǎng)絡(luò)中;YOLOv5s_MCO是本文所提模型,即在YOLOv5s_M的基礎(chǔ)上將CBAM注意力機(jī)制嵌入Output網(wǎng)絡(luò)中。

由表4可知,原YOLOv5s在測試集上的檢測精度為80.56%,檢測速度達(dá)到45.1 幀/s,模型體積為27.2 MB。更改主干網(wǎng)絡(luò)后,在略微犧牲檢測速度和精度的情況下,YOLOv5s_M模型體積下降了30.51%,僅為18.9 MB。為彌補(bǔ)更改主干網(wǎng)絡(luò)后損失的檢測精度,引入CBAM注意力機(jī)制后,檢測速度有所下降,但YOLOv5s_MCN和YOLOv5s_MCO的檢測精度都得到了較為明顯的提升,相較于YOLOv5s_M分別提升了1.52%和1.91%,表明注意力機(jī)制的引入使得網(wǎng)絡(luò)更關(guān)注圖像中的主要目標(biāo)特征,使網(wǎng)絡(luò)學(xué)習(xí)到更多有效信息,從而提升檢測精度。相比之下,將CBAM注意力機(jī)制嵌入Output后,網(wǎng)絡(luò)的性能表現(xiàn)更佳,故將其作為本文的交通信號燈檢測模型。綜上,本文所提的改進(jìn)算法YOLOv5s_MCO的檢測精度達(dá)到了81.89%,相較于原YOLOv5s提升了1.33%,同時(shí)模型體積得到了大幅度的壓縮,僅為原來的70.22%,更適宜部署在嵌入式設(shè)備中,并且檢測速度達(dá)到了39.2 幀/s,滿足實(shí)時(shí)性的要求。

3.3.2 不同算法對比

為了進(jìn)一步驗(yàn)證所提算法的有效性,將YOLOv5s_MCO和YOLOv3、YOLOv4_tiny模型進(jìn)行對比。由于對比模型的輸入大小為416×416,將YOLOv5s_MCO網(wǎng)絡(luò)輸入大小改為一致后再進(jìn)行訓(xùn)練與測試,對比實(shí)驗(yàn)結(jié)果如表5所示。

如表5所示,相較于傳統(tǒng)YOLOv3算法,改進(jìn)后的YOLOv5s_MCO模型體積較小,且在檢測精度與速度方面擁有一定的優(yōu)勢。而YOLOv4_tiny是在YOLOv4的基礎(chǔ)上簡化而來,僅用2個(gè)特征層進(jìn)行分類與回歸預(yù)測,雖然檢測速度得到了大幅度的提升,達(dá)到了95.2 幀/s,但其檢測精度遠(yuǎn)不及本文的算法,需進(jìn)一步優(yōu)化。綜上所述,本文算法YOLOv5s_MCO更滿足在嵌入式設(shè)備上對交通信號燈目標(biāo)檢測的精度和速度方面的要求。

3.3.3 檢測結(jié)果對比

在網(wǎng)絡(luò)輸入大小為640×640時(shí),YOLOv5s與YOLOv5s_MCO的9類目標(biāo)的AP值對比如圖7所示??梢钥闯?,本文所提YOLOv5s_MCO的平均精度均值達(dá)到了81.89%,相較于YOLOv5s提升了1.33%;并且除了G_R以外,其余類別目標(biāo)的平均精度基本都得到了提升,特別是Y的AP值提升了10%,R_S的AP值提升了6%。

算法改進(jìn)前后具體的交通信號燈檢測效果對比如圖8所示??梢悦黠@看出,在圖8(a)第一張圖中,改進(jìn)前的算法發(fā)生了誤檢,將G_L錯(cuò)誤識別為G_S;在第二張圖中,R_R未被成功識別,出現(xiàn)了漏檢情況;在第三張圖中,不僅存在將R錯(cuò)誤識別為R_L的誤檢問題,還存在重復(fù)預(yù)測框的情況。而在圖8(b)中,改進(jìn)后算法不僅可以準(zhǔn)確定位并識別交通信號燈目標(biāo),有效降低漏檢率,且置信度分?jǐn)?shù)也得到了提升。由檢測結(jié)果可知,在復(fù)雜環(huán)境下本文算法YOLOv5s_MCO相比于YOLOv5s具有優(yōu)越性。

4 結(jié)論

考慮嵌入式設(shè)備實(shí)際應(yīng)用需求,本文提出了一種基于YOLOv5s的交通信號燈檢測模型YOLOv5s_MCO,將主干網(wǎng)絡(luò)替換成輕量化MobileNetv2網(wǎng)絡(luò),大幅度縮減算法參數(shù)量和計(jì)算量;通過添加CBAM注意力模塊,使網(wǎng)絡(luò)對交通信號燈的目標(biāo)特征更加關(guān)注,提升算法對城市交通場景中交通信號燈目標(biāo)檢測的精度。實(shí)驗(yàn)結(jié)果表明:本文算法相較于YOLOv5s原網(wǎng)絡(luò),體積縮小了29.78%,檢測精度提升了1.33%,檢測速度也達(dá)到了39.2 幀/s,兼顧了實(shí)時(shí)性和準(zhǔn)確度。在未來工作中也將繼續(xù)尋找更適合在城市復(fù)雜場景中檢測交通信號燈的算法。

參考文獻(xiàn)

[1] 陳艷,李春貴,胡波.一種改進(jìn)的田間導(dǎo)航特征點(diǎn)提取算法[J].廣西科技大學(xué)學(xué)報(bào),2018,29(3):71-76.

[2] OMACHI M,OMACHI S.Traffic light detection with color and edge information[C]//IEEE International Conference on Computer Science and Information Technology,2009:284-287.

[3] 朱永珍,孟慶虎,普杰信.基于HSV色彩空間與形狀特征的交通燈自動(dòng)識別[J].電視技術(shù),2015,39(5):150-154.

[4] 朱宗洪,李春貴,李煒,等.改進(jìn)Faster R-CNN模型的汽車噴油器閥座瑕疵檢測算法[J].廣西科技大學(xué)學(xué)報(bào),2020,31(1):1-10.

[5] TIAN Y,GELERNTER J,WANG X,et al.Lane marking detection via deep convolutional neural network[J].Neurocomputing,2018,280:46-55.

[6] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition,IEEE,2016:779-788.

[7] 潘衛(wèi)國,陳英昊,劉博,等.基于Faster-RCNN的交通信號燈檢測與識別[J].傳感器與微系統(tǒng),2019,38(9):147-149,160.

[8] 王莉,崔帥華,蘇波,等.小尺度交通信號燈的檢測與識別[J].傳感器與微系統(tǒng),2022,41(2):149-152,160.

[9] YAN S J,LIU X B,QIAN W,et al.An end-to-end traffic light detection algorithm based on deep learning[C]//2021 International Conference on Security,Pattern Analysis,and Cybernetics(SPAC),2021:370-373.

[10] SANDLER M,HOWARD A,ZHU M L,et al.MobileNetV2:inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2018:4510-4520.

[11] WOO S,PARK J,LEE J Y,et al.CBAM:convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV),2018:3-19.

Traffic signal detection algorithm based on YOLOv5s

ZHOU Ailing, TAN Guangxing*

(School of Automation, Guangxi University of Science and Technology, Liuzhou 545616, China)

Abstract: In the field of autonomous driving and assisted driving, it is important to accurately determine the status and category of traffic signals for the driving safety of smart cars. To address the problems of detection difficulty caused by small targets of urban road traffic signals and complex and diverse background environments, a traffic signal detection algorithm YOLOv5s_MCO based on YOLOv5s is proposed. The algorithm uses MobileNetv2 lightweight network instead of the original backbone feature extraction network, and uses depth separable convolution and inverse residual structure to reduce the parameters and computation of the model. Then the convolutional block attention module is introduced to perform feature enhancement from both channel and space dimensions to increase the perceptual field of the network, so that the network can focus more on the target features of traffic signals and improve the detection ability of small-scale targets. The experimental results show that the detection accuracy reaches 81.89% on the homemade domestic traffic signal dataset, which is 1.33% better than the original YOLOv5s algorithm, while the size of the improved model is only 19.1 MB and the detection speed reaches 39.2 frames per second, which can meet the requirements of real-time and efficient detection.

Key words: traffic signal; MobileNetv2; convolutional block attention mechanism(CBAM); detection

(責(zé)任編輯:黎 婭)

收稿日期:2022-12-03

基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(61563005)資助

第一作者:周愛玲,在讀碩士研究生

*通信作者:譚光興,博士,教授,研究方向:智能控制技術(shù),E-mail:gxtan@163.com

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數(shù)的乘除法”檢測題
“有理數(shù)”檢測題
“角”檢測題
“幾何圖形”檢測題