国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于語(yǔ)義分割的車道線檢測(cè)算法研究

2019-03-22 02:35張道芳張儒良
科技創(chuàng)新與應(yīng)用 2019年6期
關(guān)鍵詞:深度學(xué)習(xí)

張道芳 張儒良

摘? 要:隨著半自動(dòng)輔助駕駛,全自動(dòng)無人駕駛系統(tǒng)等人工智能技術(shù)的發(fā)展和普及,駕駛環(huán)境的檢測(cè)和識(shí)別變得非常關(guān)鍵。文章采用語(yǔ)義分割的DeeplabV3+網(wǎng)絡(luò)車道線對(duì)檢測(cè),不僅克服了傳統(tǒng)檢測(cè)方法的缺陷,而且在檢測(cè)的性能和效果上要優(yōu)于傳統(tǒng)的檢測(cè)方法。

關(guān)鍵詞:車道線檢測(cè);深度學(xué)習(xí);語(yǔ)義分割;DeeplabV3+

中圖分類號(hào):TP391? ? ? ? ?文獻(xiàn)標(biāo)志碼:A? ? ? ? ?文章編號(hào):2095-2945(2019)06-0014-03

1 概述

車道線檢測(cè)是輔助駕駛系統(tǒng)和無人駕駛的重要組成部分,它們都是通過車道線檢測(cè)的結(jié)果為無人駕駛的控制系統(tǒng)提供依據(jù),車道線檢測(cè)的研究有重要的研究?jī)r(jià)值和意義。因此,吸引了國(guó)內(nèi)外眾多學(xué)者對(duì)車道線檢測(cè)問題進(jìn)行研究。

葉美松[1]提出了一種車道線圖像檢測(cè)和識(shí)別算法,主要采用IPM視圖轉(zhuǎn)換、霍夫直線的檢測(cè)、RANSAC算法和貝塞爾樣條曲線擬合等方法,該算法在有短的、長(zhǎng)的和明顯彎曲的干擾因素的環(huán)境中都有很好的檢測(cè)效果,但是對(duì)于存在高的立狀干擾物的情況下存在誤檢。門光文[2]提出的車道線檢測(cè)方法是先進(jìn)行感興趣區(qū)域的劃分,再進(jìn)行中值濾波,然后利用Canny算子提取車道線邊緣信息,最后通過對(duì)傳統(tǒng)霍夫變換添加約束條件,實(shí)現(xiàn)車道線的提取。該方法能檢測(cè)直線車道線,但是對(duì)于曲線車道線檢測(cè)效果不好。王曉錦[3]采用圖像預(yù)處理技術(shù)先濾波,去除圖像噪聲,然后基于消失點(diǎn)的檢測(cè)設(shè)定動(dòng)態(tài)感興趣區(qū)域ROI,最后提出利用極角極徑約束的Hough變換進(jìn)行基于分段直線模型的車道線檢測(cè),該方法對(duì)于過于彎曲的車道線檢測(cè)效果不理想。隋靚等[4]提出一種由Hough變換與二次曲線模型相結(jié)合的高速公車道線識(shí)別算法。該算法首先對(duì)圖像作感興趣區(qū)域ROI劃分; 再使用LOG算子在ROI邊緣檢測(cè)的基礎(chǔ)上進(jìn)行Hough變換檢測(cè)直線;然后根據(jù)已檢測(cè)出的直線再進(jìn)一步動(dòng)態(tài)劃分ROI和直線檢測(cè);最后通過判斷兩直線段的方向變化趨勢(shì),根據(jù)判斷的結(jié)果進(jìn)行直線和二次曲線切換的車道線擬合。成劍[5]設(shè)計(jì)了改進(jìn)的Otsu算法提高車道線識(shí)別度;針對(duì)噪聲對(duì)車道線邊緣識(shí)別的干擾問題,重點(diǎn)提出了分區(qū)域識(shí)別邊緣角度,排除異常邊緣線,并對(duì)去噪后的邊緣線進(jìn)行了補(bǔ)償;車道線識(shí)別階段,著重對(duì)概率Hough變換及RANSAC算法做了改進(jìn)研究,提出了直線-拋物線型的車道線模型,并設(shè)計(jì)了模型區(qū)域分配的方法以解決曲線道路出現(xiàn)位置不定的問題,再利用最小二乘法求出車道線模型的參數(shù)。該算法在存在長(zhǎng)條形噪聲干擾的情況下檢測(cè)效果不理想。

為了解決上訴問題,本文采用基于深度學(xué)習(xí)語(yǔ)義分割DeeplabV3+網(wǎng)絡(luò)的車道線檢測(cè)。將車道線數(shù)據(jù)集在DeeplabV3+網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,學(xué)習(xí)并保存網(wǎng)絡(luò)權(quán)重,利用保存下的權(quán)重描繪車道線。

2 DeeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)

2.1 DeeplabV3+模型

DeeplabV3+模型結(jié)構(gòu)是一個(gè)編碼器-解碼器結(jié)構(gòu)。編碼器旨在獲得銳利的物體邊界,其結(jié)構(gòu)是由Xception 模型加空間金字塔池化模塊(ASPP)構(gòu)成。利用Xception 模型以少量參數(shù)提取豐富的特征。而空間金字塔池化模塊(ASPP),通過池化不同分辨率的特征,以捕獲豐富的上下文信息。解碼器結(jié)構(gòu):先將編碼器特征進(jìn)行4倍的雙線性插值上采樣,在低級(jí)特征上作用1×1卷積以減少通道數(shù),然后將上采樣結(jié)果與具有相同空間分辨率的相應(yīng)低級(jí)特征合并,再經(jīng)過一些3×3的卷積以精煉特征,最后再進(jìn)行4倍的雙線性插值上采樣,將分辨率恢復(fù)到原圖的大小。DeeplabV3+模型結(jié)構(gòu)如圖1所示。

2.1.1 Xception 模型

Xception 模型由三個(gè)部分組成,入口流、中間流和出口流。入口流首先對(duì)圖像作用32個(gè)通道的3×3且步長(zhǎng)為2的卷積操作,再作用64個(gè)通道的3×3卷積,緊接著是三個(gè)結(jié)構(gòu)相同的Block。第一個(gè)Block由四個(gè)部分組成:兩次通道數(shù)為128的3×3深度可分離卷積、一次通道數(shù)為128且步長(zhǎng)為2的深度可分離卷積和一次通道數(shù)為128的1×1卷積。其他兩個(gè)Block的通道數(shù)分別為256和728。中間流由一個(gè)Block重復(fù)16次組成,該Block由三次通道數(shù)為728的3×3深度可分離卷積組成。出口流有兩個(gè)Block,第一個(gè)Block由通道數(shù)為728的3×3深度可分離卷積、通道數(shù)為1024的3×3深度可分離卷積、通道數(shù)為1024且步長(zhǎng)為2的3×3深度可分離卷積以及通道數(shù)為1024且步長(zhǎng)為2的1×1卷積組成,第二個(gè)Block由兩次通道數(shù)為1536的3×3深度可分離卷積和通道數(shù)為2048的3×3深度可分離卷積組成。Xception 模型結(jié)構(gòu)如圖2所示。

2.1.2 空間金字塔池化(ASPP)模塊

DeeplabV3+模型的編碼器中采用空間金字塔池化(ASPP)模塊,通過池化不同分辨率的特征,捕獲豐富的上下文信息??臻g金字塔池化通過在多個(gè)空洞率、多個(gè)有效視野上用濾波器探測(cè)輸入特征或執(zhí)行池化操作,來編碼多尺度的上下文信息。

DeeplabV3+模型的ASPP模塊由五個(gè)部分aspp0、aspp1、aspp2、aspp3和aspp4組成。aspp0:由通道數(shù)為256的1×1的卷積加批標(biāo)準(zhǔn)化(Batch- Normalization)和ReLU函數(shù)激活組成;aspp1:由通道數(shù)為256且空洞率為6的3×3深度分離卷積加批標(biāo)準(zhǔn)化和ReLU函數(shù)激活組成;aspp2:由通道數(shù)為256且空洞率為12的3×3深度分離卷積加上批標(biāo)準(zhǔn)化和ReLU函數(shù)激活;aspp3:由通道數(shù)為256且空洞率為18的3×3深度分離卷積加批標(biāo)準(zhǔn)化和ReLU函數(shù)激活組成;aspp4:先使用全局池化(AveragePooling),再使用通道數(shù)為256的1×1的卷積加批標(biāo)準(zhǔn)化和ReLU函數(shù)激活,最后再進(jìn)行4倍的雙線性插值上采樣,得到和ASPP其他部分一樣的分辨率。

2.2 模型訓(xùn)練

2.2.1 訓(xùn)練數(shù)據(jù)集介紹

訓(xùn)練數(shù)據(jù)集一共有12764張圖片和對(duì)應(yīng)的標(biāo)簽圖片,圖片大小為80×160,數(shù)據(jù)集來源于GitHub/MLND-Capstone,標(biāo)簽使用綠顏色通道標(biāo)注當(dāng)前車道的可行使區(qū)域。標(biāo)簽的標(biāo)定區(qū)域的下邊界是圖像的底部,左邊界是當(dāng)前車道的左車道線,右邊界是當(dāng)前車道的右車道線,上邊界是離下邊界35個(gè)像素的位置,因此標(biāo)簽標(biāo)定區(qū)域(綠色區(qū)域)的高度與圖片高度的比例是35:80。標(biāo)簽圖像如圖3所示。

2.2.2 模型訓(xùn)練

模型訓(xùn)練過程中將數(shù)據(jù)集隨機(jī)分為兩個(gè)部分:訓(xùn)練集和驗(yàn)證集,其中訓(xùn)練集的大小為數(shù)據(jù)集的90%,驗(yàn)證集的大小為數(shù)據(jù)集的10%。訓(xùn)練過程中設(shè)置的epoch=10,bach_size=4,總訓(xùn)練時(shí)間為316452s。訓(xùn)練誤差和驗(yàn)證誤差使用MSE,訓(xùn)練結(jié)束時(shí)訓(xùn)練誤差收斂為0.0046,驗(yàn)證誤差收斂為0.0045。表1為DeeplabV3+模型在車道線數(shù)據(jù)集下的訓(xùn)練誤差和驗(yàn)證誤差。

3 車道線檢測(cè)

用保存的模型結(jié)構(gòu)和權(quán)重來描繪車道。根據(jù)訓(xùn)練好的模型,輸入道路圖片,改變圖片尺寸到訓(xùn)練圖片的尺寸(80 160 3),在模型中預(yù)測(cè)車道,并用綠顏色畫出與標(biāo)簽圖片形狀相同的圖片,將用綠顏色繪制了車道的圖片改變尺寸到原始道路圖片的尺寸,然后將其與原始道路圖片合并,最后在原圖片中畫出當(dāng)前車道區(qū)域。車道線檢測(cè)算法如圖4所示。車道線檢測(cè)結(jié)果如圖5所示。

4 結(jié)束語(yǔ)

本文應(yīng)用深度學(xué)習(xí)語(yǔ)義分割的DeeplabV3+網(wǎng)絡(luò)檢測(cè)車道線,從車道線檢測(cè)結(jié)果可以看出,本文的方法可以有效的檢測(cè)出車道線。

參考文獻(xiàn):

[1]葉美松.單目視覺的智能電動(dòng)小車車道線識(shí)別與跟蹤[D].西南交通大學(xué),2017.

[2]門光文.基于車道偏離的防碰撞預(yù)警系統(tǒng)算法研究[D].遼寧工業(yè)大學(xué),2017.

[3]王曉錦.基于單目視覺的結(jié)構(gòu)化道路車道線識(shí)別和SAE算法的車道偏離檢測(cè)研究[D].山東大學(xué),2017.

[4]隋靚,黨建武,王陽(yáng)萍.基于分段切換模型的快速車道線檢測(cè)[J].計(jì)算機(jī)應(yīng)用與軟件,2017,34(08):201-205.

[5]成劍.基于機(jī)器視覺的道路線識(shí)別算法研究[D].南京理工大學(xué),2017.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
霞浦县| 大方县| 定襄县| 九台市| 旬阳县| 长岛县| 石渠县| 聂荣县| 邳州市| 达州市| 巨鹿县| 盐城市| 渝中区| 翁牛特旗| 台北市| 锡林郭勒盟| 宜宾市| 高雄县| 东丽区| 浑源县| 灵武市| 贵定县| 武鸣县| 孟州市| 南京市| 嘉荫县| 南郑县| 利辛县| 仁怀市| 丹东市| 来凤县| 肥西县| 专栏| 景德镇市| 清水河县| 宜良县| 文化| 嘉善县| 福建省| 桦南县| 安达市|