国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Yolov5的快速雙目立體視覺測距研究

2021-07-20 04:20張仲楠霍煒廉明楊磊
關(guān)鍵詞:目標(biāo)檢測深度學(xué)習(xí)

張仲楠 霍煒 廉明 楊磊

摘要: ?針對傳統(tǒng)雙目測距方法存在的需要對攝像頭進行標(biāo)定、立體匹配算法時間復(fù)雜度高等問題,本文主要對快速雙目立體視覺測距進行研究。給出了雙目測距原理,提出了一種基于Yolov5的目標(biāo)檢測算法和徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)相結(jié)合的雙目測距方法,建立了基于徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的距離預(yù)測模型,并采用神經(jīng)網(wǎng)絡(luò)中的徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)進行距離預(yù)測。實驗結(jié)果表明,經(jīng)過訓(xùn)練的優(yōu)化模型,能實時目標(biāo)檢測、快速計算出目標(biāo)距離,實時性大幅增加,預(yù)測距離的精度可達977%。同時,徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法,在雙目測距中具有速度快、精度高的特點。該方法無需對攝像頭進行標(biāo)定,充分利用目標(biāo)檢測得到的信息,簡化圖像匹配算法。該研究對自主移動機器人和無人駕駛汽車具有重要意義。

關(guān)鍵詞: ?目標(biāo)檢測; 雙目立體視覺; 深度學(xué)習(xí); Yolov5

中圖分類號: TP391.41 ?文獻標(biāo)識碼: A

2.2 Yolov5目標(biāo)檢測與特征提取

Yolov5[16]相比于Yolov3[1718]和Yolov4[1920]具有更快的速度,占用更小的內(nèi)存空間和更高的準確率。使用配置環(huán)境更簡單的PyTorch生態(tài)系統(tǒng),在Colab notebook上運行Tesla P100,速度可達140 幀/s。本實驗選取滅差、面積比和類別標(biāo)簽作為Yolov5模型的輸出特征。

將雙目攝像頭獲得的圖像進行Yolov5處理,得到可視化圖像,并以圖片左上角為原點,水平向右為x軸正方向,豎直向下為y軸正方向,以像素為單位建立圖像坐標(biāo)系。Yolov5目標(biāo)檢測輸出示意圖如圖5所示。

3 基于徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的距離預(yù)測模型

本實驗采用神經(jīng)網(wǎng)絡(luò)中的徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)進行距離預(yù)測。將表1中得到的輸出特征作為徑向基函數(shù)網(wǎng)絡(luò)的輸入特征,其輸出特征是物體與相機的距離,已知滅差、面積比重、長、寬、高5個特征預(yù)測距離,這

本數(shù)據(jù)中選擇中心點(記憶樣本),利用聚類算法,得到中心點;二為監(jiān)督學(xué)習(xí),輸入樣本經(jīng)過RBF徑向基神經(jīng)網(wǎng)絡(luò),將求得的預(yù)測距離與實際距離之間誤差進行權(quán)值調(diào)整。對全部534個樣本拆分成2個Batch,每個Batch有267個樣本,共訓(xùn)練100個Epoch,對訓(xùn)練過程可視化,損失函數(shù)與準確率隨迭代次數(shù)變化曲線如圖8所示。

由圖8可以看出,損失函數(shù)一直在減小,說明徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)已經(jīng)很好的擬合了預(yù)測距離的非線性函數(shù)。同時,準確率在增大,并隨著訓(xùn)練的Epoch的增大,逐漸趨近于100%。

4 實驗結(jié)果

本實驗將每個樣本的實際距離、預(yù)測距離和誤差進行對比,部分預(yù)測值與實際值對比結(jié)果如表2所示。

由此可以計算出,全部534個樣本的均方誤差為27%。在不同硬件平臺下,雙目測距方法的運行速度如表3所示。由表3可以看出,在型號為CPUi78550U的環(huán)境下,速度為21幀/s,使用1張英偉達顯卡RTX 1080Ti,其速度可實現(xiàn)43幀/s,該速度可以滿足實時性要求。

5 結(jié)束語

本文提出了一種基于Yolov5的目標(biāo)檢測算法和徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)相結(jié)合的雙目測距方法。由于RBF徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)運算量較小,所以將Yolov5與RBF結(jié)合后的推理速度與Yolov5比相差不大,保證了實時性,同時,因為RBF徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)可以擬合任意復(fù)雜的非線性函數(shù),所以預(yù)測距離的精度得以保證。由實驗數(shù)據(jù)可知,經(jīng)過學(xué)習(xí)訓(xùn)練之后,預(yù)測距離的準確程度與傳統(tǒng)的像素匹配方式預(yù)測距離相比,更加便捷,預(yù)測均方誤差僅為27%,實時性接近于Yolov5。本實驗存在的不足之處是采集的數(shù)據(jù)集全部為單個目標(biāo),即雙目攝像頭拍攝的場景中只有一個目標(biāo)物體,對于多目標(biāo)物體的場景測距問題解決方法與單目標(biāo)物體場景類似,但對于多個物體的邊框匹配需要引入一些匹配算法,這也是本實驗今后深入研究的方向。

參考文獻:

[1] 孔令富, 李林, 張廣志. ?一種并聯(lián)機器人雙目主動視覺監(jiān)測平臺避障方法的研究[J]. 燕山大學(xué)學(xué)報, 2009, 33(3): 189193.

[2] 曾德懷, 謝存禧, 張鐵, 等. 行走機器人的超聲波測距系統(tǒng)的研究[J]. 機械科學(xué)與技術(shù), 2004, 23(5): 613616.

[3] 趙棟, 劉立人, 王吉明, 等. 基于光子數(shù)目比較的激光測距法[J]. 光學(xué)學(xué)報, 2006, 26(7): 10911096.

[4] 劉曉龍, 楊廣京, 羅楊宇, 等. 嵌入式移動機器人紅外路標(biāo)定位模塊研究[J]. 計算機工程, 2013, 39(3): 203208.

[5] 劉科, 謝敬輝, 李卓, 等. 被動式光學(xué)測距誤差分析[J]. 光學(xué)技術(shù), 2005, 31(4): 586587.

[6] 岳榮剛, 王少萍, 李凱, 等. 基于相似原理的新型雙目測距法[J]. 光電工程, 2008, 35(4): 6468.

[7] Li H G, Jin M, Zou L Y. A new binocular stereo visual servoing model[C]∥Workshop on Computational Intelligence and Industrial Application, 2008. PACIIA′08. PacificAsia. Wuhan, China: IEEE Computer Society, 2009.

[8] Marr D P T. Cooperative computation of stereo disparity[J]. Science, 1976, 194(4262): 283287.

[9] Veksler O. Stereo correspondence with compact windows via minimum ratio cycle[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2002, 24(12): 16541660.

[10] Lowe D G. Distinctive image features from scaleinvariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91110.

[11] Etriby S, AlHamadi A, Michaelis B. Dense stereo correspondence with slanted surface using phasebased algorithm[C]∥IEEE International Symposium on Industrial Electronics. Vigo, Spain: IEEE, 2007: 18071814.

[12] Ryan T W, Gray R T, Hunt B R. Prediction of correlation errors in stereopair images[J]. Optical Engineering, 1980, 19(3): 312322.

[13] Klaus A, Sormann M, Karner K. Segmentbased stereo matching using belief propagation and a selfadapting dissimilarity measure[C]∥International Conference on Pattern Recognition. Graz, Austria: IEEE, 2006: 15.

[14] Wang L, Yang R G, Gong M L. Realtime stereo using approximated joint bilateral filtering and dynamic programming[J]. Journal of RealTime Image Processing, 2012, 9(3): 447461.

[15] Liu X Y, Li T H, Yu G H. Adaptive stereo matching algorithms for color stereo images[J]. Journal of Computer Applications, 2011, 31(1): 163166.

[16] Deng H F, Cheng J H, Liu T, et al. Research on iron surface crack detection algorithm based on improved YOLOv4 network[C]∥2nd International Conference on Artificial Intelligence and Computer Science. Hangzhou, China: Published under Licence by IOP Publishing Ltd, 2020: 2526.

[17] Tang C, Zhang G, Hu H G, et al. An improved YOLOv3 algorithm to detect molting in swimming crabs against a complex background[J]. Aquacultural Engineering, 2020, 91: 102115102124.

[18] Pang L, Liu H, Chen Y, et al. Realtime concealed object detection from passive millimeter wave images based on the YOLOv3 algorithm[J]. Sensors, 2020, 20(6): 16781693.

[19] Bochkovskiy A, Wang ChienYao, Mark Liao HongYuan. Yolov4: optimal speed and accuracy of object detection[C]∥Institute of Information Science Academia. Sinica, Taiwan: CVPR, 2020: 117.

[20] Chen W, Zhong X T, Zhang J. Optimization research and defect object detection of aeroengine blade boss based on Yolov4[C]∥2020 3rd International Conference on Modeling Simulation and Optimization Technologies and Applications. Beijing, China: Published under licence by IOP Publishing Ltd, 2021: 012076012084.

猜你喜歡
目標(biāo)檢測深度學(xué)習(xí)
視頻中目標(biāo)檢測算法研究
行為識別中的人體運動目標(biāo)檢測方法
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
移動機器人圖像目標(biāo)識別
基于背景建模法的運動目標(biāo)檢測