国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的交通圖像識別的研究與應(yīng)用

2021-07-20 11:54章康明曹新
軟件工程 2021年6期
關(guān)鍵詞:計算機視覺目標(biāo)檢測深度學(xué)習(xí)

章康明 曹新

摘 ?要:為了克服目標(biāo)檢測算法在交通圖像識別領(lǐng)域?qū)?shù)據(jù)集利用不充分、對小物體檢測不敏感等問題,提出了一種基于SSD算法改進的檢測模型。選擇自動駕駛領(lǐng)域最重要的測試集作為模型訓(xùn)練的數(shù)據(jù)集,通過對比實驗,選擇出訓(xùn)練集、驗證集和測試集最合適的劃分比例。實驗結(jié)果顯示,合理的數(shù)據(jù)集劃分相較于其他的對照組對于檢測目標(biāo)的準(zhǔn)確率提升了13%,檢測時間縮短了15%,證明合理的數(shù)據(jù)集劃分能夠提升模型泛化能力和檢測效率。針對該算法對于小物體檢測不敏感這一問題,有針對性地調(diào)整了模型的結(jié)構(gòu)及參數(shù),并修改了模型輸入圖像的尺寸。實驗結(jié)果表明,在輸入相同圖片尺寸下,模型對于小物體的檢測能力顯著提升,整體檢測能力提升了14.5%,且保證了較高的檢測速率。以上均證明新算法的有效性。

關(guān)鍵詞:深度學(xué)習(xí);計算機視覺;目標(biāo)檢測;SSD

中圖分類號:TP311.5 ? ? 文獻標(biāo)識碼:A

Abstract: Aiming at problems of insufficient utilization of datasets and insensitivity to small object detection in the field of traffic image recognition by target detection algorithm, this paper proposes an improved detection model based on SSD (Solid State Disk) algorithm. The most important test set in the field of autonomous driving is selected as the dataset for model training. Through comparative experiments, the most appropriate division ratio of training set, validation set and test set is selected. Experimental results show that compared with other control groups, reasonable dataset division has an increase of 13% in accuracy of detecting targets and a decrease of 15% ?in detection time, which proves that reasonable dataset division can improve model generalization and detection efficiency. Aiming at the problem that the algorithm is not sensitive to small object detection, structure and parameters of the model is adjusted and size of the input image of the model is modified. The experimental results show that under the same image input size, the detection capability of small objects is significantly improved, the overall detection capability is improved by 14.5%, and a higher detection rate is guaranteed. The above all prove the effectiveness of the new algorithm.

Keywords: deep learning; computer vision; target detection; SSD

1 ? 引言(Introduction)

近年來,隨著人工智能的蓬勃發(fā)展,深度學(xué)習(xí)在越多越多場景下應(yīng)用,尤其是自動駕駛領(lǐng)域。根據(jù)IDC最新發(fā)布的《全球自動駕駛汽車預(yù)測報告(2020—2024)》數(shù)據(jù)顯示,2024年全球L1—L5級自動駕駛汽車出貨量預(yù)計將達到約5,425 萬輛,年均復(fù)合增長率達18.3%。在巨大的市場需求推動下,對自動駕駛技術(shù)的要求愈加嚴苛。駕駛環(huán)境復(fù)雜多變,對駕駛場景中的目標(biāo)檢測算法模型的泛化能力有很高的要求,同時也需要保證模型的檢測速率。

目標(biāo)檢測是在圖片中對可變數(shù)量的目標(biāo)進行查找和分類,主要存在目標(biāo)種類與數(shù)量問題、目標(biāo)尺度問題以及外在環(huán)境干擾問題。目標(biāo)檢測算法經(jīng)過長時間的發(fā)展迭代,經(jīng)過從傳統(tǒng)的目標(biāo)檢測方法到深度學(xué)習(xí)方法的變遷。傳統(tǒng)的目標(biāo)檢測算法主要基于傳統(tǒng)手工設(shè)計特征并結(jié)合滑動窗口的方式來進行目標(biāo)檢測和定位,典型的代表有Viola-Jones[1]、HOG[2]、DPM[3]等。傳統(tǒng)目標(biāo)檢測算法設(shè)計出的特征魯棒性較差,效率較低,且通過滑動窗口提取特征的方式流程煩瑣。因此在2008年DPM算法提出后,傳統(tǒng)目標(biāo)檢測算法遇到了較大的瓶頸。

自2012年卷積神經(jīng)網(wǎng)絡(luò)的興起,基于深度學(xué)習(xí)的目標(biāo)檢測方法發(fā)展并成熟,在檢測效率和精度上有了巨大的飛躍,逐漸取代傳統(tǒng)機器視覺方法,成為目標(biāo)檢測領(lǐng)域的主流算法。目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法分為One-Stage[4]和Two-Stage[5]。以R-CNN[6]、Faster R-CNN[7]為代表的Two-Stage檢測算法具有良好的檢測精度,但檢測速度相對較慢,無法滿足自動駕駛領(lǐng)域?qū)崟r性需求。One-Stage采用直接回歸目標(biāo)位置的方法,以YOLO[8]、SSD[9]為代表,在保證檢測精度的同時,提高了檢測速度,但不同模型也有各自的缺陷。

本文提出了一種基于深度學(xué)習(xí)的交通圖像識別算法,以SSD為目標(biāo)檢測模型,使用合適的數(shù)據(jù)集劃分對模型進行訓(xùn)練,并針對模型對小目標(biāo)檢測性能的不足,修改模型相應(yīng)的輸入尺寸,在保證多數(shù)目標(biāo)檢測能力的同時,大大改善了模型對小目標(biāo)的檢測能力,輔以快速的圖片檢測能力,能夠提升汽車行駛過程中的安全性,對于深度學(xué)習(xí)在交通圖片識別以及自動駕駛應(yīng)用上具有參考意義。

2 ? SSD模型(SSD model)

2.1 ? 模型概述

SSD是一種One-Stage的目標(biāo)檢測模型,移除了region proposals[10]步驟以及后續(xù)的像素采樣的步驟;借鑒了YOLO的回歸思想以及Faster R-CNN的anchor機制,精度可以和Faster R-CNN匹敵,速度上遠遠快于Faster R-CNN?;貧w思想的引入降低了模型復(fù)雜度,提高了算法的檢測速度;anchor機制能夠檢測不同尺度的目標(biāo),提高算法檢測精度。

SSD網(wǎng)絡(luò)模型如圖1所示,由主干網(wǎng)絡(luò)和多尺度feature map預(yù)測兩部分組成。主干網(wǎng)絡(luò)由VGG-16組成,舍棄了FC6和FC7兩個全連接層,用于特征提取。同時在網(wǎng)絡(luò)后面添加八個卷積層作為多尺度feature map預(yù)測,這些卷積層在尺寸上逐漸減小,在多個尺度上對檢測結(jié)果進行預(yù)測。用于預(yù)測檢測的卷積模型對于每個特征層都是不同的?;谇梆伨矸e網(wǎng)絡(luò),產(chǎn)生固定大小的邊界框集合,并對這些邊界框中存在的目標(biāo)類別實例進行評分,通過非極大抑制來控制噪聲,確保網(wǎng)絡(luò)保留最有效地幾個預(yù)測,并產(chǎn)生最終的檢測結(jié)果。

2.2 ? 基本原理

2.2.1 ? 用于檢測的多尺度映射

多尺度特征映射主要為了提高檢測精度?;A(chǔ)網(wǎng)絡(luò)后添加的一些卷積層主要用于檢測和分類。不同的特征層(Feature Layer)預(yù)測的邊界框(Bounding Box)是不一樣的,因此不同的特征層上的卷積模型也不一樣。多尺度的特征映射可以檢測不同尺度和大小的目標(biāo)。

2.2.2 ? 卷積預(yù)測器

每一個添加的特征層用于一組卷積濾波產(chǎn)生固定的檢測預(yù)測集合。卷積預(yù)測器對這些默認框(Default Box)進行關(guān)于類別和位置的回歸,然后得出一個類別的得分及坐標(biāo)偏移量。

2.2.3 ? 默認邊界框與長寬比

本文一系列默認的邊界框和各個不同的特征層聯(lián)系在一起,即每個被選中預(yù)測的特征層,在每個位置都關(guān)聯(lián)個默認框。在每個特征層的映射中,對于給定個邊界框中的每一個,本文計算個類別分數(shù)以及相對原始默認邊框的四個偏移量,并允許不同的默認邊界框,有效地離散出可能的輸出框。

2.2.4 ? NMS(非最大值抑制)

為了避免重復(fù)預(yù)測,過濾掉背景和得分不是很高的框,從而得到最終預(yù)測。

2.2.5 ? 匹配策略

在訓(xùn)練過程中需要確定默認框和真值邊界框(Ground Truth Box)之間的聯(lián)系后訓(xùn)練網(wǎng)絡(luò)。對于每一個真值邊界框,本文計算其與默認邊界框之間的杰卡德系數(shù)(Jaccard Overlap),也就是IOU,默認兩者之間的閾值大于0.5,即為正樣本。因此本文簡化了學(xué)習(xí)過程,允許網(wǎng)絡(luò)為多個重疊的默認邊框預(yù)測高分,而不只是挑選一個邊界框。

2.2.6 ? 損失函數(shù)

2.3 ? 網(wǎng)絡(luò)結(jié)構(gòu)

如表1所示,VGG作為模型的基礎(chǔ)網(wǎng)絡(luò),用于模型的特征檢測。將VGG-16中的FC7改為卷積層Conv7,同時增加了Conv8、Conv9、Conv10、Conv11幾個特征層,用于在多個尺度上進行目標(biāo)檢測,以提高檢測精度。低層特征代表局部細節(jié)特征,高層特征代表全局特征結(jié)構(gòu),相關(guān)結(jié)構(gòu)如表2所示,從多個角度檢測目標(biāo),提升檢測效果。特征層從低到高,感受野由小到大,能夠更好地檢測原圖中不同大小的目標(biāo)。

3 ? 數(shù)據(jù)準(zhǔn)備及算法概述(Dataset preparation and algorithms overview)

3.1 ? 數(shù)據(jù)集選取

訓(xùn)練選用KITTI[11]數(shù)據(jù)集,由德國卡爾斯魯厄理工學(xué)院和豐田美國技術(shù)研究院聯(lián)合創(chuàng)辦,是目前自動駕駛領(lǐng)域最重要的測試集之一。KITTI數(shù)據(jù)集針對不同的用途,實驗選取Object類型中“2D Object Detection”的數(shù)據(jù)集,主要是為了驗證無人駕駛中有關(guān)目標(biāo)檢測算法而設(shè)置的數(shù)據(jù)集。該數(shù)據(jù)集一共包含7,841 張訓(xùn)練圖和7,518 張測試圖,包含80,256 個目標(biāo)Label。所有圖像均為彩色并保存為png格式。

3.2 ? 數(shù)據(jù)集內(nèi)容

KITTI數(shù)據(jù)集為攝像機視野內(nèi)運動物體提供一個3D邊框標(biāo)注(使用激光雷達的坐標(biāo)系)。該數(shù)據(jù)集的標(biāo)注一共分為八個類別:Car、Van、Truck、Pedestrian、Person、Cyclist、Tram和Misc或Don't Care。其中Don't Care標(biāo)簽表示該區(qū)域沒有被標(biāo)注,在訓(xùn)練中可以被忽略。

3.3 ? 算法概述

3.3.1 ? 合適的數(shù)據(jù)集劃分

在數(shù)據(jù)集有限的條件下,高效利用訓(xùn)練數(shù)據(jù)集能夠訓(xùn)練出一個更優(yōu)越的算法。將數(shù)據(jù)集按照訓(xùn)練集、驗證集以及測試集進行劃分,比例分別為30∶20∶50、40∶10∶50、45∶5∶50三種;并使用相同的SSD網(wǎng)絡(luò)進行訓(xùn)練,初始學(xué)習(xí)率為0.001,動量為0.9,權(quán)重衰減為0.0005,批處理數(shù)據(jù)大小為8,訓(xùn)練次數(shù)均為80,000 次。對訓(xùn)練結(jié)果進行評估,選擇最佳的數(shù)據(jù)集劃分。

3.3.2 ? 優(yōu)化模型

對模型進行評估,發(fā)現(xiàn)模型對于較小目標(biāo)檢測性能較差。因為KITTI原始數(shù)據(jù)集大小為375×1242,而原始模型輸入大小為300×300,對輸入圖片的壓縮導(dǎo)致檢測效果下降,因此將模型輸入的尺寸大小修改為384×1280,以提升模型的檢測精度。

4 ?實驗與結(jié)果分析(Experiments and results analysis)

4.1 ? 實驗環(huán)境

本文實驗所用的環(huán)境如下:

硬件環(huán)境:Intel(R) Core(TM) i5-6300HQ CPU @ 2.30 GHz、NVIDIA GTM965M。

軟件環(huán)境:Ubuntu 18.04 LTS、CUDA 10.0 cuDNN 7.4.2、TensorFlow 1.14.0-gpu、Python 3.6.9、conda 4.9.2。

4.2 ? 評價標(biāo)準(zhǔn)

4.2.1 ? FPS

4.2.2 ? 準(zhǔn)確率和召回率

TP:正確劃分為正例的個數(shù),即實際為正例且被分類器劃分為正例的實例數(shù)。

FN:錯誤劃分為正例的個數(shù),即實際為負例但被分類器劃分為正例的實例數(shù)。

FP:被錯誤劃分為負例的個數(shù),即實際為正例但被分類器劃分為負例的實例數(shù)。

TN:被正確劃分為負例的個數(shù),即實際為負例且被分類器劃分為負例的實例數(shù)。

TP、FP、FN、TN可用來計算表示目標(biāo)檢測模型精度的多個指標(biāo)。

本文中的實驗使用mAP評價模型的精度。

4.3 ? 實驗結(jié)果

4.3.1 ? 改進數(shù)據(jù)集的劃分比例

按照3.3.1中的算法描述對模型進行訓(xùn)練,初始學(xué)習(xí)率為0.001,動量為0.9,權(quán)重衰減為0.0005,每次批處理數(shù)據(jù)大小值設(shè)置為8,訓(xùn)練次數(shù)均為80,000 次。訓(xùn)練過程中部分loss圖像得到結(jié)果如表3所示。

4.4 ? 結(jié)果分析

根據(jù)4.3.1的實驗結(jié)果所示,充分利用數(shù)據(jù)集對模型進行訓(xùn)練,能夠顯著提升模型的泛化能力。實驗結(jié)果顯示,合理的數(shù)據(jù)集劃分,相對于其他對照組對于檢測目標(biāo)的mAP提升了13%,檢測時間縮短10%,證明本文提出的數(shù)據(jù)集劃分能夠有效提升模型的泛化能力和檢測速率,且在幾個重要的檢測目標(biāo)上具有較高的AP,能夠勝任一般交通場景的目標(biāo)檢測需求。

本文使用的KITTI數(shù)據(jù)集分辨率較高,而SSD本身對于小物體識別的準(zhǔn)確率并不高,為了解決模型對小物體檢測不敏感這一問題,本文對模型進行修改,將模型的輸入尺寸提升為384×1280。根據(jù)4.3.2的實驗結(jié)果所示,Cyclist類別的AP從0.2311提升到了0.4179,Pedestrian類別的AP從0.0909提升到了0.3709,Car類別的AP從0.6754提升到0.6942等,整體的mAP提升了接近14%,證明使用本文提出的算法對小物體的檢測能力提升顯著,同時還微弱提升了其余物體的檢測能力,均證明了本文提出新算法的有效性。模型的部分檢測過程和檢測結(jié)果如圖2和圖3所示,本文實現(xiàn)的算法模型通過使用分辨率較大的KITTI數(shù)據(jù)集更真實地模擬現(xiàn)實場景,同時通過對模型的優(yōu)化,在提升對小物體檢測精度的情況下,依舊保持較佳的檢測速率,大大提升了模型的整體檢測效率。

5 ? 結(jié)論(Conclusion)

為了進一步模擬真實駕駛場景下目標(biāo)檢測的性能,本文提出一種基于SSD的深度學(xué)習(xí)交通檢測識別算法。實驗結(jié)果顯示,利用本文提出的算法檢測準(zhǔn)確率和檢測效率明顯優(yōu)于未經(jīng)過本文算法優(yōu)化的檢測算法。在KITTI數(shù)據(jù)集上的mAP達到0.47,F(xiàn)PS為26.76 fps,不影響其余檢測類型的前提下,提升了模型對小物體的檢測精度,同時保證了模型的檢測速率,滿足了目標(biāo)檢測中對檢測速度和檢測精度的一般要求,證明本文提出的算法在交通圖像識別領(lǐng)域具有實用和參考價值。

參考文獻(References)

[1] WANG Y Q. An analysis of the Viola-Jones face detection algorithm[J]. Image Processing On Line, 2014, 104(4):128-148.

[2] TORRIONE P A, MORTON K D, RAYN S, et al. Histograms of oriented gradients for landmine detection in ground-penetrating radar data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 52(3):1539-1550.

[3] OUYANG W, ZENG X, WANG X, et al. DeepID-Net: Object detection with deformable part based convolutional neural networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(7):1320-1334.

[4] CHEN L L, WEN L F, BIAN X, et al. Fast single shot multibox detector and its application on vehicle counting system[J]. IET Intelligent Transport Systems, 2018, 12(10):1406-1413.

[5] GE Z, JIE Z, HUANG X, et al. Delving deep into the imbalance of positive proposals in two-stage object detection[J]. Neurocomputing, 2021(425):107-116.

[6] HAN X F. Modified cascade RCNN based on contextual information for vehicle detection[J]. Sensing and Imaging, 2021, 22(1):1-10.

[7] 閆新慶,楊喻涵,陸桂.基于改進Faster-RCNN目標(biāo)檢測算法研究[J].中國新通信,2021,23(01):46-48.

[8] 孫乾宇,張振東.基于YOLOv3增強模型融合的人流密度估? ? ?計[J].計算機系統(tǒng)應(yīng)用,2021,30(04):271-276.

[9] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[J]. Computer Vision, 2016, 9905(12):21-37.

[10] 王冠,耿明洋,馬勃檀,等.基于孿生區(qū)域候選網(wǎng)絡(luò)的目標(biāo)跟蹤模型[J].小型微型計算機系統(tǒng),2021,42(04):755-760.

[11] GEIGER A, LENZS P, STILLER C, et al. Vision meets robotics: The KITTI dataset[J]. The International Journal of Robotics Research, 2013, 32(11):1231-1237.

作者簡介:

章康明(1998-),男,本科生.研究領(lǐng)域:軟件開發(fā),計算機視覺.

曹 ?新(1980-),女,碩士,教授.研究領(lǐng)域:車聯(lián)網(wǎng),無線傳感器網(wǎng)絡(luò).

猜你喜歡
計算機視覺目標(biāo)檢測深度學(xué)習(xí)
視頻中目標(biāo)檢測算法研究
行為識別中的人體運動目標(biāo)檢測方法
機器視覺技術(shù)發(fā)展及其工業(yè)應(yīng)用
危險氣體罐車液位計算機視覺監(jiān)控識別報警系統(tǒng)設(shè)計
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
基于計算機視覺的細小顆粒團重量測量的研究
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
移動機器人圖像目標(biāo)識別
景泰县| 阳朔县| 呼伦贝尔市| 新平| 越西县| 江阴市| 大同市| 岳阳县| 汉沽区| 凌云县| 柞水县| 疏附县| 五大连池市| 安平县| 鹿邑县| 文登市| 镇平县| 永州市| 安顺市| 拉萨市| 谢通门县| 延川县| 普安县| 浦县| 铜陵市| 武邑县| 安龙县| 江陵县| 喀喇沁旗| 拉孜县| 云和县| 孝义市| 渑池县| 祥云县| 富裕县| 河南省| 津南区| 邯郸市| 额尔古纳市| 泗水县| 静安区|