国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv3的站口行人檢測方法

2021-02-26 03:54:34康莊楊杰李桂蘭南柄飛曾璐
關(guān)鍵詞:行人遺傳算法聚類

康莊,楊杰,李桂蘭,南柄飛,曾璐

基于改進(jìn)YOLOv3的站口行人檢測方法

康莊1,楊杰1,李桂蘭1,南柄飛2,曾璐1

(1. 江西理工大學(xué) 電氣工程與自動化學(xué)院,江西 贛州 341000;2. 中國煤炭科工集團(tuán) 北京天地瑪珂電液控制系統(tǒng)有限公司,北京 100013)

針對YOLOv3算法在行人檢測上準(zhǔn)確率低和漏檢率高的問題,提出一種改進(jìn)型YOLOv3的行人檢測方法,并將其定義為GA-Wide-YOLOv3。該方法首先以行人頭肩小目標(biāo)為檢測對象,進(jìn)行重構(gòu)數(shù)據(jù)集,利用遺傳算法重新對目標(biāo)先驗框進(jìn)行聚類,優(yōu)化anchor參數(shù),提高先驗框與數(shù)據(jù)集的重合程度;其次改進(jìn)YOLOv3,通過加寬網(wǎng)絡(luò)寬度、減少網(wǎng)絡(luò)深度,獲得針對小目標(biāo)檢測的較大視野閾,避免梯度消失;最后,將多尺度檢測算法3個yolo層前的1*1,3*3的卷積組各去掉2組,減少頭肩小目標(biāo)在復(fù)雜背景下的漏檢率。在收集的數(shù)據(jù)集HS6936上進(jìn)行對比實驗,結(jié)果表明,基于遺傳算法改進(jìn)的K-means算法,平均交并比為81.89%,提高了0.8%;改進(jìn)的YOLOv3算法檢測平均準(zhǔn)確率(mAP)為75.35%,召回率為81.20%,查準(zhǔn)率為99.99%,較原始YOLOv3算法分別提高了2.53%,0.88%和2.75%。

行人檢測;深度學(xué)習(xí);YOLOv3;遺傳算法;計算機(jī)視覺

行人檢測作為輔助駕駛系統(tǒng)、車輛監(jiān)控系統(tǒng)和預(yù)警防護(hù)系統(tǒng)的基本任務(wù)之一,在多種領(lǐng)域扮演著重要角色。尤其在地鐵及火車站口等人群密集的環(huán)境中,行人檢測技術(shù)與客流統(tǒng)計、客流疏導(dǎo)和安全預(yù)警工作息息相關(guān),在站口安全和數(shù)據(jù)處理方面發(fā)揮著重要作用。隨著深度學(xué)習(xí)和大數(shù)據(jù)的蓬勃發(fā)展,基于深度學(xué)習(xí)研究行人檢測已經(jīng)成為一種新興的方案,對于提高站口客流安全具有重要意義。針對行人檢測問題,國內(nèi)外學(xué)者已經(jīng)開展了相關(guān)研究,且已經(jīng)取得了一定的效果。目前基于傳統(tǒng)方法的行人檢測方法可分為幾類:背景差分法、幀間差分法、模板匹配法和光流行人識別技術(shù),存在檢測實時性差、抗干擾能力弱等缺陷。曾接賢等[1]針對行人遮擋問題進(jìn)行了研究,通過SDP-DPM和SP- DPM模型將行人分為單獨、混合分布2種類別進(jìn)行檢測,能精確識別日常交通環(huán)境的行人,抗環(huán)境干擾能力較傳統(tǒng)方法有所提升。龔露鳴等[2]提出了一種基于混合高斯背景建模結(jié)合方向梯度直方圖和SVM的行人檢測模型,通過前景分割、特征降維和信息更新等步驟將誤檢率降到4%,在復(fù)雜場景中有很好的實時性和精確度。程德強(qiáng)等[3]提出了一種基于CLBC和HOG特征融合的行人檢測算法,在Caltech行人數(shù)據(jù)庫和INRIA行人數(shù)據(jù)庫中表現(xiàn)出比傳統(tǒng)方法更高的精度和更強(qiáng)的環(huán)境抗干擾能力。胡亞洲等[4]針對高點監(jiān)控應(yīng)用場景,提出了基于背景建模和幀間差分法相結(jié)合的高點行人檢測方法,提高了檢測精度,降低了誤檢率。上述文獻(xiàn)在檢測精度、誤檢率和環(huán)境干擾等做了很多努力,且在效果上有一定的提高,但對不同運動狀態(tài)的行人將產(chǎn)生較大差異的檢測效果?;谏疃葘W(xué)習(xí)的行人檢測技術(shù)在靜止和運動的行人上都有較好的檢測效果,因此本文將其作為研究方向。隨著目標(biāo)檢測技術(shù)的發(fā)展,各種技術(shù)日新月異,目前使用的代表性目標(biāo)檢測算法主要分為2類,一類是以R-CNN,F(xiàn)ast RCNN[5],F(xiàn)aster RCNN[6],MR-CNN,HyperNet和Mask R-CNN為代表的基于候選區(qū)的兩階段的目標(biāo)檢測算法,另一類是以SSD,G-CNN,RON和YOLO為代表的基于回歸的一階段目標(biāo)檢測算法。前者目標(biāo)檢測精度高,但檢測速度低,實時性方面受限;后者在目標(biāo)檢測上實時性好,檢測速度快[7]。本文為地鐵、火車站口的行人檢測,人群流動量大,對實時性和速度要求很高,基于此考慮,選用一階段的目標(biāo)檢測算法進(jìn)行研究,在原有優(yōu)勢上提高精度。近年來,用目標(biāo)檢測算法進(jìn)行行人檢測的研究取得了一系列突破性成果[8?11]。盛智勇等[12]針對地鐵監(jiān)控場景提出了一種端到端的頭肩檢測方案,基于Faster RCNN模型訓(xùn)練分類器,精度較傳統(tǒng)算法提高0.44%,在不同的場景和視角具有較好的檢測效果,但實時性較差,且誤檢率高。YANG等[13]提出了一種基于分層卷積的行人檢測算法,實時檢測速度高達(dá)20 fps,行人漏檢率降低11.88%,提高了不同規(guī)模的行人檢測召回率,但在鏡頭角度的把握和環(huán)境干擾方面仍需改進(jìn),且對小物體的漏檢率較高。Heo等[14]通過將YOLO與ABMS構(gòu)建的顯著性特征圖結(jié)合,使用夜間拍攝的熱圖像進(jìn)行實時行人檢測,針對光線環(huán)境干擾情況提出方法,能有效避免夜間行人車輛的撞車事故,但難以識別小物體,且誤識別率較高。HAN等[15]提出了一種集成激光雷達(dá)和彩色攝像機(jī)的探測融合系統(tǒng),通過改進(jìn)YOLO算法,提高了檢測精度,且有效減少了漏檢率。但交通場景的覆蓋范圍相對較窄,受光的影響很大,且對小物體檢測效果較差。KUANG等[16]通過擴(kuò)展原始的YOLOv3結(jié)構(gòu)和新定義損失函數(shù),有效提高了行人檢測的性能,進(jìn)一步減少了小目標(biāo)的漏檢率,它們雖然在小物體的漏檢率和檢測速度方面有很大程度的提高,但是存在一定的問題,改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)層數(shù)過多,容易造成特征消失或致使內(nèi)存過大而無法進(jìn)行有效的訓(xùn)練。本文提出了一種改進(jìn)型YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)(GA-Wide-YOLOv3)的行人檢測方法。首先利用遺傳算法對K-means算法進(jìn)行改進(jìn),減少隨機(jī)初始值對算法造成的影響,優(yōu)化anchor參數(shù),提高先驗框與數(shù)據(jù)集的重合程度;其次將Darknet-53特征提取網(wǎng)絡(luò)進(jìn)行更改,通過加寬寬度的方法減少網(wǎng)絡(luò)的深度,獲得針對小目標(biāo)檢測的較大視野閾,避免梯度消失;最后對YOLOv3的卷積組進(jìn)行結(jié)構(gòu)修改,減少頭肩小目標(biāo)在復(fù)雜背景下的漏檢率,以此提高網(wǎng)絡(luò)對小目標(biāo)的檢測率。

1 YOLOv3算法

1.1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv3算法的網(wǎng)絡(luò)結(jié)構(gòu)可分為Darknet-53和yolo層2個部分,Darknet-53網(wǎng)絡(luò)用于特征提取,yolo層用于多尺度預(yù)測, Darknet-53通過5次下采樣實現(xiàn)由大小為416*416*3的輸入得到13*13*1024的輸出,能在保證實時性(fps>36)的基礎(chǔ)上追求性能。yolo層得到Darknet-53輸出的特征圖后,通過concat機(jī)制擴(kuò)充張量維度,實現(xiàn)上采樣與淺層特征圖的相連,從而輸出13*13,26*26和52*52 3種尺寸大小的特征圖,通過這種多尺度的方法,可以更好地對小物體進(jìn)行檢測。其整體網(wǎng)絡(luò)結(jié)構(gòu)圖見圖3(a)所示。

1.2 YOLOv3錨點框計算

YOLOv3算法首先將輸入的圖像全部縮放到416*416的尺度進(jìn)行訓(xùn)練,然后統(tǒng)一劃分為×的網(wǎng)格,在每個網(wǎng)格中預(yù)測出邊界框,以進(jìn)行目標(biāo)檢測,每次預(yù)測輸出每類目標(biāo)的邊界框位置、類別,且分別計算每個邊界框的置信度(即重疊面積)。若物體的中心點落在某個網(wǎng)格上,這個網(wǎng)格就負(fù)責(zé)預(yù)測該物體,并且在該物體上生成3個錨點框,如圖1所示。

每個網(wǎng)格借助3個錨點框,通過維度聚類,將設(shè)為9,邏輯回歸后預(yù)測出3個邊界框。負(fù)責(zé)預(yù)測每個物體的網(wǎng)格都需要預(yù)測5個值,分別為自身位置和該物體的概率值。其中自身位置需要4個值來確定,包括預(yù)測框的中心點坐標(biāo)和預(yù)測框的寬與高,分別記做t,t,t,t,其中后2項與值有關(guān)。若中心目標(biāo)在單元格中相對圖像左上角偏移(c,c),錨點框的高度和寬度記做pp,則修正后的邊界框具體計算公式見式(1)。具體示意圖如圖2所示。

圖2 邊界框相對位置示意圖

1.3 YOLOv3損失函數(shù)計算

YOLOv3訓(xùn)練損失函數(shù)主要包括3個方面的損失,分別為預(yù)測框、置信度和類別的損失,其損失函數(shù)計算式見式(2)。

其中:ce和le表示預(yù)測框損失部分,分別為預(yù)測框的中心點坐標(biāo)損失與預(yù)測框的寬高損失,其詳細(xì)公式如式(3):

co為置信度損失,包括有目標(biāo)和無目標(biāo)2種情況。其詳細(xì)公式為(4):

式中:第1項為有目標(biāo)的預(yù)測置信度損失,回歸目標(biāo)為預(yù)測框與真實框的IOU值。第2項為無目標(biāo)的預(yù)測置信度損失,noobj為其懲罰系數(shù)。

cl為類別損失,其詳細(xì)公式為(5):

2 YOLOv3網(wǎng)絡(luò)算法改進(jìn)

2.1 YOLOv3特征提取網(wǎng)絡(luò)與多尺度檢測算法改進(jìn)

YOLOv3特征提取網(wǎng)絡(luò)采用Darknet-53結(jié)構(gòu),同時利用多尺度檢測的思想,提高對小目標(biāo)的檢測精度。Darknet-53共有23個殘差塊,共52層卷積層,1個全連接層,其憑借Resnet使得網(wǎng)絡(luò)不斷加深來提高準(zhǔn)確率,但是過深的網(wǎng)絡(luò)導(dǎo)致冗余參數(shù)、梯度消失、感受野小等問題,為了解決這一問題,SHI等[17]在2019年通過加寬網(wǎng)絡(luò)模型,代替了原來的深度網(wǎng)絡(luò),從而提升模型的性能,在圖像超分辨率上取得了優(yōu)秀的性能。

本文針對地鐵及火車站口的行人檢測,檢測對象為頭肩,都為小目標(biāo),隨著網(wǎng)絡(luò)的深入,視野閾變小,不利于小目標(biāo)的檢測。在特征提取網(wǎng)絡(luò)方面,基于Wide Residual Networks提出了Wide-Darknet- 33新型特征提取網(wǎng)絡(luò),該網(wǎng)絡(luò)共有13個殘差塊,32層卷積層,1個全連接層,通過減少Darknet-53的卷積層來減少深度,同時加寬網(wǎng)絡(luò),使得在寬度上特征提取更加準(zhǔn)確,本文采取的加深寬度做法為通過增加輸出通道數(shù)的數(shù)量來使模型變得更wider,為了減少過多的冗余參數(shù),Wide-Darknet-33中的K取2,將輸出通道數(shù)擴(kuò)大一倍;在多尺度檢測方面,為了減少頭肩小目標(biāo)在復(fù)雜背景下的漏檢率,本文將YOLOv3多尺度檢測算法3個yolo層前的1*1和3*3的卷積組各去掉2組,以此來提高網(wǎng)絡(luò)對小目標(biāo)的檢測率[18],原始的YOLOv3共106層,本文提出的改進(jìn)型YOLOv3算法縮減到了64層,詳細(xì)特征提取網(wǎng)絡(luò)與多尺度算法改進(jìn)結(jié)構(gòu)如圖3所示。

2.2 YOLOv3網(wǎng)絡(luò)參數(shù)的優(yōu)化算法改進(jìn)

YOLOv3算法共有13*13,26*26和52*52 3個尺度,每個尺度最終有3個錨點框做預(yù)測,錨點框可以在預(yù)測時進(jìn)行輔助檢測目標(biāo)邊界,本文檢測對象是地鐵及火車站行人,由于目標(biāo)遮擋嚴(yán)重,采用頭肩檢測思想,都為小目標(biāo)檢測,檢測目標(biāo)占整個檢測圖片的比例很小。而公共數(shù)據(jù)集上檢測物體的尺寸從大到小都有分布,原始算法的錨點框無法滿足本文的需求,需要重新計算,原始算法的K-means聚類對初始值的依賴大,無法聚類得到準(zhǔn)確的錨點框值,本文采用種群仿生原理,對錨點框計算方法進(jìn)行改進(jìn),本文采用基于K-means的遺傳算法聚類。適應(yīng)度函數(shù)中以IOU值進(jìn)行聚類,本文的遺傳算法具體流程框圖如圖4所示,其中最重要的是適應(yīng)度函數(shù)的設(shè)計。本文利用GA算法進(jìn)行聚類的適應(yīng)度函數(shù)采用IOU距離進(jìn)行約束,因為IOU值越大越好,程序里面一般處理為最小,故用1-IOU最為適應(yīng)度函數(shù),求取它最小,IOU值計算如下。

距離函數(shù):

目標(biāo)函數(shù):

適應(yīng)度函數(shù):

(a) YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖;(b) 改進(jìn)型YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖

圖4 遺傳算法流程圖

3 實驗結(jié)果

本文搭建的實驗平臺:電腦配置為i5-6500 CPU,8GRAM,64位window7操作系統(tǒng),服務(wù)器配置為Tesla-P100,本文在算法框架Darknet上實現(xiàn)。

3.1 數(shù)據(jù)準(zhǔn)備與標(biāo)簽制作

本文的數(shù)據(jù)來源于實地拍攝與網(wǎng)絡(luò)兩部分,選取了6 196張不同時間、不同地點、不同光線下在火車站、地鐵站等站口的行人照片,使用LableImg軟件對圖片中的行人頭肩目標(biāo)進(jìn)行標(biāo)注,平均每張照片中有效標(biāo)注對象10個左右,總計有效檢測目標(biāo)為83 072個,得到VOC格式的xml文件,作為火車及地鐵站口行人檢測的數(shù)據(jù)集標(biāo)簽。

3.2 評價指標(biāo)

針對站口行人檢測,檢測準(zhǔn)確率很重要,本文選取平均準(zhǔn)確率(mAP)作為評價指標(biāo),其準(zhǔn)確率和召回率的定義如式(10)所示。

本文以站口行人檢測為例,為將行人檢測為行人的數(shù)量,為將背景檢測為行人數(shù)量,為誤把行人檢測為背景的數(shù)量。同時以1作為對準(zhǔn)確率和召回率綜合衡量指標(biāo),接近1,則效果越好,以召回率為橫坐標(biāo),以準(zhǔn)確率為縱坐標(biāo),繪制-曲線,利用積分求取的值,如式(11)所示。

3.3 基于遺傳算法改進(jìn)的K-means聚類實驗

本文設(shè)置合理的種群規(guī)模與進(jìn)化代數(shù),分別做計算,其聚類結(jié)果如表1。

表1 遺傳算法聚類表

通過表1分析,在第8個點處準(zhǔn)則函數(shù)平均值取得最小值,故取種群規(guī)模為800,進(jìn)化代數(shù)為100,其適應(yīng)度曲線如圖5所示, 聚類結(jié)果見圖6。

圖5 Maxgen=100,sizepop=800適應(yīng)度曲線

由圖5~6可以看出,在種群規(guī)模為800,進(jìn)化代數(shù)為100時,其平均適應(yīng)度函數(shù)與最佳適應(yīng)度函數(shù)收斂時重合度最高,聚類清晰準(zhǔn)確,一共聚類為9類,效果最優(yōu)。

最終的聚類結(jié)果如表2,得到基于本文HS6196數(shù)據(jù)集的最佳錨點框。

本文分別運行K-means聚類與改進(jìn)的遺傳算法,為了保證算法的準(zhǔn)確性,分別將每種聚類方法聚類5次,其結(jié)果如表3,可以看出,單獨每次的聚類結(jié)果GA算法都比K-means聚類算法優(yōu)秀,其最終平均值也較K-means方法高出0.88的正確率。

表2 遺傳算法聚類錨點框

表3 K-means與GA聚類正確率對比

3.4 基于改進(jìn)型YOLOv3的實驗

在訓(xùn)練模型階段,采用的動量為0.9,初始學(xué)習(xí)率為0.001,衰減系數(shù)為0.005。共訓(xùn)練50 000次,訓(xùn)練時將算法的損失值等各項指標(biāo)保存到日志文件,訓(xùn)練結(jié)束后,調(diào)用保存的日志文件,繪制各項指標(biāo)動態(tài)變化圖,其中平均交并比變化趨勢如圖7所示,平均損失函數(shù)變化趨勢如圖8所示。

圖7 平均交并比變化曲線

圖8 平均損失變化曲線

由圖7可見,開始平均交并比較小,隨著訓(xùn)練次數(shù)的增加,平均交并比迅速增大,模型的檢測精度隨之上升,訓(xùn)練至50 000步時,平均交并比在0.9以上,達(dá)到訓(xùn)練的要求。

由圖8可見,開始損失值較大,但隨著訓(xùn)練次數(shù)的增加,損失值很快降低,逐漸收斂,訓(xùn)練至 50 000步時,損失值一直穩(wěn)定在0.1左右,模型收斂程度達(dá)到了理想的效果,模型訓(xùn)練穩(wěn)定。

圖9 各算法的PR對比圖

3.5 效果對比

為了準(zhǔn)確評價模型,將改進(jìn)后的網(wǎng)絡(luò)與Fast RCNN,SSD和YOLOv3 3種算法進(jìn)行對比,分別計算各種算法的召回率與準(zhǔn)確率,繪制訓(xùn)練的PR曲線,見圖9,實驗發(fā)現(xiàn),改進(jìn)后的算法在召回率與準(zhǔn)確率均有提升,本文利用mAP作為模型準(zhǔn)確度的評估指標(biāo),分別對比3種算法的的mAP與改進(jìn)后算法的mAP,實驗發(fā)現(xiàn),改進(jìn)后算法的mAP最高,達(dá)到了75.35%,具體數(shù)據(jù)見表4。

表4 模型檢測結(jié)果

3.6 基于改進(jìn)型YOLOv3的識別測試實驗

調(diào)用訓(xùn)練完成的權(quán)重文件進(jìn)行測試,同時標(biāo)出檢測的對象位置,如圖10所示??梢钥闯?,改進(jìn)后的模型對站口的行人檢測較為精準(zhǔn),在目標(biāo)小、遮擋嚴(yán)重的情況下,有效地避免了漏檢的問題。

圖10 識別測試效果圖

4 結(jié)論

1) 提出了GA-Wide-YOLOv3站口行人檢測的方法,實現(xiàn)了該對象端到端的檢測,同時,針對站口行人頭肩數(shù)據(jù)集缺乏的問題,自己采集、制作了HS6196數(shù)據(jù)集。

2) 利用遺傳算法對K-means算法進(jìn)行改進(jìn),減少初始值對算法造成的影響,優(yōu)化anchor參數(shù),提高了先驗框與數(shù)據(jù)集的重合程度。實驗驗證,重合程度從81.08%提高到了81.89%。

3) 優(yōu)化Darknet-53網(wǎng)絡(luò),通過加寬寬度的方法減少網(wǎng)絡(luò)的深度,獲得針對小目標(biāo)檢測的較大視野閾,避免網(wǎng)絡(luò)過深帶來的特征消失。

4) 將YOLOv3多尺度檢測算法3個YOLO層前的1*1,3*3的卷積組各去掉2組,減少頭肩小目標(biāo)在復(fù)雜背景下的漏檢率。

5) 改進(jìn)的網(wǎng)絡(luò)mAP達(dá)到75.35%,準(zhǔn)確率為99.99%,召回率為81.20%,分別較改進(jìn)前提高了2.53%,0.88%和2.75%。

由于本文所提算法對遮擋嚴(yán)重、行人特別密集的情況檢測效果仍然有所欠缺,論文下一步將側(cè)重研究遮擋嚴(yán)重的行人的檢測,進(jìn)而提高檢測精度。

[1] 曾接賢, 程瀟. 結(jié)合單雙行人DPM模型的交通場景行人檢測[J]. 電子學(xué)報, 2016, 44(11): 2668?2675. ZENG Jiexian, CHENG Xiao. Pedestrian detection of traffic scenes combined with single and double pedestrian DPM models[J]. Chinese Journal of Electronics, 2016, 44(11): 2668?2675.

[2] 龔露鳴, 徐美華, 劉冬軍, 等. 基于混合高斯和HOG+SVM的行人檢測模型[J]. 上海大學(xué)學(xué)報(自然科學(xué)版), 2018, 24(3): 341?351. GONG Luming, XU Meihua, LIU Dongjun, et al. Novel model of pedestrian detection based on Gaussian mixture model and HOG+SVM[J]. Journal of Shanghai University (Natural Science Edition), 2018, 24(3): 341? 351.

[3] 程德強(qiáng), 唐世軒, 馮晨晨, 等. 改進(jìn)的HOG-CLBC的行人檢測方法[J]. 光電工程, 2018, 45(8): 77?85. CHENG Deqiang, TANG Shixuan, FENG Chenchen, et al. Extended HOG-CLBC for pedstrain detection[J]. Opto-Electronic Engineering, 2018, 45(8): 77?85.

[4] 胡亞洲, 周亞麗, 張奇志. 基于背景建模和幀間差分法的高點監(jiān)控行人檢測[J]. 實驗室研究與探索, 2018, 37(9): 12?16. HU Yazhou, ZHOU Yali, ZHANG Qizhi. High point monitoring pedestrian detection based on background modeling and inter frame difference method[J]. Research and Exploration in Laboratory, 2018, 37(9): 12?16.

[5] WANG Kelong, ZHOU Wei. Pedestrian and cyclist detection based on deep neural network fast R-CNN[J]. International Journal of Advanced Robotic Systems, 2019, 16(1): 1?10.

[6] XIAO Feng, LIU Baotong. Pedestrian detection using visual saliency and deep learning[J]. Acta Microsc, 2018, 27(4): 242?251.

[7] 吳帥, 徐勇, 趙東寧. 基于深度卷積網(wǎng)絡(luò)的目標(biāo)檢測綜述[J]. 模式識別與人工智能, 2018, 31(4): 335?346. WU Shuai, XU Yong, ZHAO Dongning. Survey of object detection based on deep convolutional network[J]. Pattern Recognition and Artificial Intelligence, 2018, 31(4): 335? 346.

[8] 鄭冬, 李向群, 許新征. 基于輕量化SSD的車輛及行人檢測網(wǎng)絡(luò)[J]. 南京師大學(xué)報(自然科學(xué)版), 2019, 42(1): 73?81. ZHENG Dong, LI Xiangqun, XU Xinzheng. Vehicle and pedestrian detection model based on lightweight SSD[J]. Journal of Nanjing Normal University (Natural Science Edition), 2019, 42(1): 73?81.

[9] 劉丹, 馬同偉. 結(jié)合語義信息的行人檢測方法[J]. 電子測量與儀器學(xué)報, 2019, 33(1): 54?60. LIU Dan, MA Tongwei. Pedestrian detection method based on semantic information[J]. Journal of Electronic Measurement and Instrumentation, 2019, 33(1): 54?60.

[10] 郝旭政, 柴爭義. 一種改進(jìn)的深度殘差網(wǎng)絡(luò)行人檢測方法[J]. 計算機(jī)應(yīng)用研究, 2019, 36(5): 1569?1572, 1584. HAO Xuzheng, CHAI Zhengyi. Improved pedestrian detection method based on depth residual network[J]. Application Research of Computers, 2019, 36(5): 1569? 1572, 1584.

[11] 高宗, 李少波, 陳濟(jì)楠, 等. 基于YOLO網(wǎng)絡(luò)的行人檢測方法[J]. 計算機(jī)工程, 2018, 44(5): 215?219, 226. GAO Zong, LI Shaobo, CHEN Jinan, et al. Pedestrian detection method based on YOLO network[J]. Computer Engineering, 2018, 44(5): 215?219, 226.

[12] 盛智勇, 揭真, 曲洪權(quán), 等. 基于改進(jìn)錨候選框的甚高速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的端到端地鐵行人檢測[J]. 科學(xué)技術(shù)與工程, 2018, 18(22): 90?96. SHENG Zhiyong, JIE Zhen, QU Hongquan, et al. End-to-end faster-recurrent convolutional neural network subway pedestrian detection based on improved anchor proposal[J]. Science Technology and Engineering, 2018, 18(22): 90?96.

[13] YANG Dongming, ZHANG Jiguang, XU Shibiao, et al. Real-time pedestrian detection via hierarchical convolutional feature[J]. Multimedia Tools and Applications, 2018, 77(19): 25841?25860.

[14] Heo Duyoung, Lee Eunju, Ko Byoungchul. Pedestrian detection at night using deep neural networks and saliency maps[J]. Journal of Imaging Science and Technology, 2017, 61(6): 1?9.

[15] HAN Jian, LIAO Yaping, ZHANG Junyou, et al. Target fusion detection of LiDAR and camera based on the improved YOLO algorithm[J]. Mathematics, 2018, 6(10): 213.

[16] KUANG Ping, MA Tingsong, LI Fan. Real-time pedestrian detection using convolutional neural networks [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2018, 32(11): 1?16.

[17] SHI Jun, LI Zheng, YING Shihui, et al. MR image super-resolution via wide residual networks with fixed skip connection[J]. IEEE Journal of Biomedical and Health Informatics, 2019, 23(3): 1129?1140.

[18] 崔文靚, 王玉靜, 康守強(qiáng), 等. 基于改進(jìn)YOLOv3算法的公路車道線檢測方法[J/OL]. 自動化學(xué)報: 1? 9[2021?01?19].https://doi.org/10.16383/j.aas.c190178. CUI Wenliang, WANG Yujing, KANG Shouqiang, et al. Road lane line detection method based on improved YOLOv3 algorithm[J/OL]. Acta Automatica Sinica: 1? 9[2021?01?19]. https://doi.org/10.16383/j.aas.c190178.

Pedestrian detection method for station based on improved YOLOv3

KANG Zhuang1, YANG Jie1, LI Guilan1, NAN Bingfei2, ZENG Lu1

(1. School of Electrical Engineering and Automation, Jiangxi University of Science and Technology, Ganzhou 341000, China;2. Beijing Tiandi-Marco Electro-Hydraulic Control System Co., Ltd., China Coal Technology & Engineering Group Corp, Beijing 100013, China)

Aiming at the problem of low accuracy and high missing rate of pedestrian detection in yorov3 algorithm, an improved yorov3 pedestrian detection method was proposed, which was defined as GA-Wide-YOLOv3. Firstly, the small head and shoulder targets of pedestrians were used as the detection objects to reconstruct the data set. The priori frames of the targets were clustered again by genetic algorithm. The anchor parameters were optimized to improve the priori frames and the weight of the data set. Secondly, YOLOv3 was improved. By widening the width of the network and reducing the depth of the network, the larger visual field threshold for small target detection was obtained to avoid the disappearance of the gradient. Finally, the convolution groups of 1 * 1 and 3 * 3 in front of the three Yolo layers of the multi-scale detection algorithm were removed from two groups respectively to reduce the missed detection rate of head shoulder small target in complex background. The comparative experiment was carried out on the collected data set hs6936, and the results were summarized. The results show that the improved K-means algorithm based on genetic algorithm has an average intersection and union ratio of 81.89%, which is 0.8% higher. The improved YOLOv3 algorithm has an average detection accuracy of 75.35%, recall rate of 81.20%, and precision rate of 99.99%. The proposed approach is 2.53%, 0.88%, and 2.75% higher than that of the original YOLOv3 algorithm.

pedestrian detection; deep learning;YOLOv3; genetic algorithm; computer vision

TP391.4

A

1672 ? 7029(2021)01 ? 0055 ? 09

10.19713/j.cnki.43?1423/u.T20200236

2020?03?25

江西省03專項及5G項目(20204ABC03A15);國家重點研發(fā)計劃先進(jìn)軌道交通專項(2017YFB1201105-12);中國煤炭科工集團(tuán)有限公司科技創(chuàng)新創(chuàng)業(yè)資金專項重點項目(2018ZD006)

楊杰(1979?),男,安徽蚌埠人,教授,博士,從事軌道交通和計算機(jī)視覺研究;E?mail:yangjie@jxust.edu.cn

(編輯 陽麗霞)

猜你喜歡
行人遺傳算法聚類
毒舌出沒,行人避讓
意林(2021年5期)2021-04-18 12:21:17
路不為尋找者而設(shè)
揚子江(2019年1期)2019-03-08 02:52:34
基于DBSACN聚類算法的XML文檔聚類
電子測試(2017年15期)2017-12-18 07:19:27
基于自適應(yīng)遺傳算法的CSAMT一維反演
一種基于遺傳算法的聚類分析方法在DNA序列比較中的應(yīng)用
我是行人
基于遺傳算法和LS-SVM的財務(wù)危機(jī)預(yù)測
基于改進(jìn)的遺傳算法的模糊聚類算法
一種層次初始的聚類個數(shù)自適應(yīng)的聚類方法研究
自適應(yīng)確定K-means算法的聚類數(shù):以遙感圖像聚類為例
淮安市| 府谷县| 磴口县| 汾阳市| 师宗县| 内乡县| 洱源县| 宿州市| 都江堰市| 香河县| 浦东新区| 巴青县| 句容市| 敖汉旗| 天等县| 同心县| 图木舒克市| 济南市| 宁远县| 那坡县| 尉氏县| 鸡东县| 舒兰市| 奎屯市| 平凉市| 新龙县| 无锡市| 岐山县| 桂平市| 海城市| 汉寿县| 贵定县| 深水埗区| 宝应县| 荆门市| 合水县| 黎城县| 嘉祥县| 卢湾区| 繁昌县| 郸城县|