国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于實(shí)例分割模型優(yōu)化的道路拋灑物檢測(cè)算法

2021-12-07 10:09張亮謝非楊嘉樂張瑞劉益劍
計(jì)算機(jī)應(yīng)用 2021年11期
關(guān)鍵詞:卷積精度道路

章 悅,張亮,2*,謝非,2,楊嘉樂,張瑞,劉益劍,2

(1.南京師范大學(xué)電氣與自動(dòng)化工程學(xué)院,南京 210023;2.南京智能高端裝備產(chǎn)業(yè)研究院,南京 210042)

0 引言

在交通道路安全領(lǐng)域,道路拋灑物如石塊、掉落的廢舊紙箱、渣土、廢舊布等容易引發(fā)交通事故,給其他通過的車輛造成安全隱患,同時(shí)由于拋灑物大小不固定、種類多樣,且道路交通環(huán)境相對(duì)復(fù)雜,這也增加了拋灑物檢測(cè)及識(shí)別的難度。

近年來,隨著人工智能和智能交通的發(fā)展,越來越多的國(guó)內(nèi)外研究者開始關(guān)注道路交通事件及道路拋灑物檢測(cè)識(shí)別問題。Khatoonabadi 等[1]提出了使用自適應(yīng)運(yùn)動(dòng)矢量和時(shí)空馬爾可夫隨機(jī)場(chǎng)模型在壓縮視頻序列中跟蹤運(yùn)動(dòng)目標(biāo),該方法在第一幀中手動(dòng)選擇目標(biāo)對(duì)象,在后續(xù)幀中可以通過幀內(nèi)編碼塊和全局運(yùn)動(dòng)補(bǔ)償計(jì)算的方法檢測(cè)運(yùn)動(dòng)目標(biāo);但是這種方法存在計(jì)算量大、耗時(shí)長(zhǎng)的缺陷。Asvadi 等[2]提出了一種先進(jìn)的車輛系統(tǒng)設(shè)計(jì)方案,通過傳感器測(cè)量所得的2.5D特征圖描述每幀圖像的動(dòng)態(tài)環(huán)境,該算法精確度高,但是在惡劣天氣條件下檢測(cè)效果不太理想。汪貴平等[3]使用五幀差分法對(duì)高速公路拋灑物進(jìn)行檢測(cè)。李清瑤等[4]提出了基于幀間差分自適應(yīng)法的車輛拋灑物檢測(cè),通過連續(xù)幀間差分法和均值法等運(yùn)動(dòng)目標(biāo)檢測(cè)算法進(jìn)行拋灑物檢測(cè)。金瑤等[5]提出了一種基于YOLOv3(You Only Look Once v3)改進(jìn)的城市道路視頻中小像素目標(biāo)檢測(cè)方法,將深度學(xué)習(xí)目標(biāo)檢測(cè)算法引入到城市道路目標(biāo)檢測(cè)中。近年來,國(guó)內(nèi)研究者基于傳統(tǒng)圖像處理中的特征提取算法[6]或是運(yùn)動(dòng)目標(biāo)跟蹤檢測(cè)算法[7-8],包括幀間差分法[9]、背景減除法[10]和光流法[11]等算法,在一定程度上實(shí)現(xiàn)了基于視頻圖像的道路拋灑物檢測(cè),但這些算法在復(fù)雜環(huán)境下應(yīng)用效果并不好,且檢測(cè)精度較低,效率不高。因此,道路拋灑物檢測(cè)仍然是一個(gè)亟待研究的方向,對(duì)道路交通安全具有重要意義。

目前實(shí)例分割技術(shù)已廣泛應(yīng)用在車道線檢測(cè)方面,對(duì)車輛的無人駕駛起到了重要作用??紤]到無人駕駛中算法的通用性,以及車輛避障、路徑規(guī)劃的實(shí)際需求,本文以實(shí)例分割模型為基礎(chǔ)進(jìn)行優(yōu)化,實(shí)現(xiàn)了對(duì)道路拋灑物的多目標(biāo)檢測(cè)與識(shí)別,并且能夠輸出道路拋灑物的具體形態(tài)特征。相較于之前提出的道路拋灑物檢測(cè)算法及其他常見實(shí)例分割算法,如Mask R-CNN(Mask Region-Convolutional Neural Network)[12],本文算法具有顯著的優(yōu)越性。本文算法的主要工作如下:

1)使用基于全卷積單階段(Fully Convolutional One-Stage,F(xiàn)COS)[13]目標(biāo)檢測(cè)器優(yōu)化的實(shí)例分割模型CenterMask進(jìn)行拋灑物檢測(cè),與常見實(shí)例分割模型相比,F(xiàn)COS 目標(biāo)檢測(cè)器由于其單階段結(jié)構(gòu)和不需要設(shè)定錨框的特性,節(jié)省了計(jì)算量與耗時(shí)。

2)現(xiàn)有實(shí)例分割模型中的主干神經(jīng)網(wǎng)絡(luò)在處理多尺度目標(biāo)時(shí)往往精度較低,本文算法在考慮耗時(shí)與檢測(cè)精度的同時(shí),使用優(yōu)化的殘差網(wǎng)絡(luò)ResNet50[14]作為主干神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像特征提取,通過引入空洞卷積(Dilated Convolution)[15]進(jìn)行優(yōu)化,增加擴(kuò)張率這一參數(shù)以增大感受野,提高了網(wǎng)絡(luò)對(duì)于多尺度目標(biāo)的特征提取能力,更適用于道路拋灑物檢測(cè)這一應(yīng)用場(chǎng)合。

3)對(duì)現(xiàn)有模型中邊界框回歸損失函數(shù)進(jìn)行優(yōu)化改進(jìn),使用距離交并比(Distance Intersection over Union,DIoU)函數(shù)作為邊界框回歸損失函數(shù),在計(jì)算真實(shí)框與預(yù)測(cè)框的距離以外還考慮到了兩者之間的最小閉包區(qū)域及重疊率,能夠直接最小化目標(biāo)框距離,使得收斂更加迅速,目標(biāo)框回歸變得更加穩(wěn)定。

1 模型架構(gòu)與原理分析

實(shí)例分割模型CenterMask 是一種基于全卷積單階段(FCOS)目標(biāo)檢測(cè)器的實(shí)時(shí)檢測(cè)與分割模型,其結(jié)構(gòu)如圖1 所示。CenterMask 在使用FCOS 目標(biāo)檢測(cè)器進(jìn)行目標(biāo)檢測(cè)的基礎(chǔ)上引入空間注意力模塊(Spatial Attention Module,SAM)[16]抑制噪聲,幫助進(jìn)行目標(biāo)聚焦,從而構(gòu)建空間注意力引導(dǎo)掩膜,改善了目標(biāo)的分割效果。其優(yōu)勢(shì)在于使用了單階段無錨目標(biāo)檢測(cè)器FCOS,F(xiàn)COS 在檢測(cè)過程中不使用預(yù)先設(shè)定的錨框(anchor),避免了二階段目標(biāo)檢測(cè)器,如Faster R-CNN[17]帶來的計(jì)算資源消耗問題,同時(shí)與最廣為人知的無錨目標(biāo)檢測(cè)器YOLOv1[18]相比,F(xiàn)COS的召回率有顯著提升。

圖1 實(shí)例分割模型CenterMask結(jié)構(gòu)Fig.1 Structure of instance segmentation model CenterMask

但FCOS 檢測(cè)精度與基于錨框的目標(biāo)檢測(cè)器相比還是較低,原始的CenterMask 模型對(duì)于多尺度目標(biāo)檢測(cè)的效果還有待提高。

本文采用了優(yōu)化的CenterMask實(shí)例分割模型對(duì)采集到的訓(xùn)練集進(jìn)行訓(xùn)練,生成訓(xùn)練好的模型權(quán)重文件及各項(xiàng)參數(shù)配置,并使用測(cè)試集進(jìn)行測(cè)試,具體流程如圖2所示。

圖2 道路拋灑物檢測(cè)整體流程Fig.2 Overall process of road abandoned object detection

2 本文算法

2.1 基于空洞卷積優(yōu)化的主干神經(jīng)網(wǎng)絡(luò)

主干神經(jīng)網(wǎng)絡(luò)選取殘差網(wǎng)絡(luò),通過卷積計(jì)算對(duì)輸入圖像進(jìn)行特征提取。殘差網(wǎng)絡(luò)中卷積層數(shù)越多,其特征提取的效果越好,但卷積層數(shù)的增加也會(huì)使得反向傳播時(shí)梯度隨著網(wǎng)絡(luò)層數(shù)的增加而消失,網(wǎng)絡(luò)性能下降,并造成計(jì)算資源的占用問題。由于常見道路拋灑物種類有限,所需提取特征并不多,為了避免上述問題并保證特征提取效率,本文采用了ResNet50作為主干神經(jīng)網(wǎng)絡(luò),并采用空洞卷積進(jìn)行優(yōu)化,最終輸出五個(gè)階段特征圖。

ResNet50 的網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示,其中Conv 表示卷積操作,Batch Norm 表示批正則化操作,ReLU 為激活函數(shù),Max Pool 表示最大池化[19]操作,Avg Pool 表示平均池化操作,Conv Block 代表添加維度的卷積塊,ID Block 代表不改變維度的Identity 塊,F(xiàn)C(Fully Connected layer)表示全連接層,Conv Block與ID Block的具體結(jié)構(gòu)也如圖3所示。

圖3 主干神經(jīng)網(wǎng)絡(luò)ResNet50結(jié)構(gòu)Fig.3 Structure of backbone neural network ResNet50

空洞卷積向卷積層引入了一個(gè)稱為“擴(kuò)張率(Dilation Rate)”的新參數(shù),該參數(shù)定義了卷積核處理數(shù)據(jù)時(shí)各值的間距。不包括空洞的原始卷積核如圖4(a)所示,擴(kuò)張率為3 的空洞卷積如圖4(b)所示,空洞卷積能夠擴(kuò)大感受野,經(jīng)過空洞卷積優(yōu)化的主干網(wǎng)絡(luò)模型能夠有效提高特征提取的精度。

圖4 空洞卷積對(duì)比示意圖Fig.4 Schematic diagram of dilated convolution comparison

2.2 基于特征金字塔網(wǎng)絡(luò)的多尺度處理

道路拋灑物在監(jiān)測(cè)視頻中大多以多尺度的形式存在,為了更好地捕捉拋灑物的形狀、顏色特征,采用特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[20]進(jìn)行多尺度處理。本文采用的CenterMask 模型中,F(xiàn)PN 分為五個(gè)特征層,即F3、F4、F5、F6、F7,如圖5所示。

圖5 主干網(wǎng)絡(luò)結(jié)構(gòu)與多尺度處理Fig.5 Structure of backbone network and multi-scale processing

其中,F(xiàn)3、F4、F5是由輸入圖像經(jīng)過主干神經(jīng)網(wǎng)絡(luò)卷積后所得特征圖C3、C4、C5再次經(jīng)過1×1 卷積得來,F(xiàn)6、F7分別由F5、F6經(jīng)過步長(zhǎng)為2 的卷積得到。在進(jìn)行道路拋灑物檢測(cè)識(shí)別的場(chǎng)景中,使用FPN能發(fā)揮其多尺度識(shí)別的優(yōu)勢(shì),在很大程度上緩解模糊性。

2.3 基于DIoU優(yōu)化的全卷積單階段目標(biāo)檢測(cè)器

全卷積單階段目標(biāo)檢測(cè)器FCOS 直接利用了真實(shí)框(Ground Truth Bounding Box)中的所有點(diǎn)對(duì)邊界框進(jìn)行預(yù)測(cè)。特征圖上的每一個(gè)位置(x,y)都可以對(duì)應(yīng)到原圖上的一個(gè)坐標(biāo),如果位置(x,y)落在任意真實(shí)框內(nèi),那么它就被認(rèn)定是正樣本,否則為負(fù)樣本。

同時(shí)也可以得到一個(gè)表示邊界框回歸偏移量的4 維向量s*=(l*,t*,r*,b*),其中l(wèi)*、t*、r*、b*分別代表了這一位置的點(diǎn)到真實(shí)框左、上、右、下四邊的水平距離。

FCOS 目標(biāo)檢測(cè)器通過中心度(centerness)分支來抑制低質(zhì)量的預(yù)測(cè)框,中心度的定義如下:

FCOS目標(biāo)檢測(cè)器輸出的訓(xùn)練損失函數(shù)定義如下:

式中:qx,y表示位置(x,y)預(yù)測(cè)得出的分類標(biāo)簽,表示位置(x,y)的真實(shí)類別;sx,y表示位置(x,y)所在的邊界框坐標(biāo),表示位置(x,y)與回歸的偏移向量;Npos表示正樣本數(shù)量;Lcls表示分類損失函數(shù),使用了焦點(diǎn)損失(focal loss)[21];Lreg表示了邊界框回歸損失函數(shù);λ設(shè)置為1用于平衡兩類損失;Ι表示指示函數(shù)。

本文引入了DIoU 作為邊界框回歸損失函數(shù)。相較于目前廣泛應(yīng)用的IoU函數(shù),DIoU 將重疊率以及尺度都考慮在內(nèi),使得目標(biāo)框回歸變得更加穩(wěn)定,不會(huì)在訓(xùn)練過程中出現(xiàn)發(fā)散等問題,檢測(cè)精度更高。其計(jì)算過程如下:

式中:B表示預(yù)測(cè)框,Bgt表示真實(shí)框;b、bgt分別表示預(yù)測(cè)框和真實(shí)框的中心點(diǎn)位置;d1表示同時(shí)包含了預(yù)測(cè)檢測(cè)框和真實(shí)框的最小閉包區(qū)域的對(duì)角線距離,d2表示這兩個(gè)中心點(diǎn)之間的歐氏距離,d2=ρ2(b,bgt),如圖6所示。

圖6 DIoU原理示意圖Fig.6 Schematic diagram of DIoU principle

同時(shí)使用了一種自適應(yīng)的感興趣區(qū)域(Region of Interest,RoI)[22]分配機(jī)制來保證無錨目標(biāo)檢測(cè)器對(duì)于多尺度目標(biāo)的檢測(cè)精度。

式中:K表示感興趣區(qū)域的映射關(guān)系;kn表示對(duì)應(yīng)的FPN 層級(jí)數(shù)量,本文中FPN分為五個(gè)層級(jí),所以kn=5;Ainput表示輸入圖像數(shù)據(jù)的面積;ARoI表示感興趣區(qū)域的面積。

2.4 空間注意力引導(dǎo)掩膜

使用了空間注意力引導(dǎo)掩膜(Spatial Attention-Guided Mask,SAG-Mask)作為掩膜分割分支,經(jīng)過自適應(yīng)的感興趣區(qū)域分配機(jī)制預(yù)測(cè)得到的特征將被饋送到四個(gè)轉(zhuǎn)換層和空間注意力模塊(SAM)中依次處理,具體過程如圖1 中所示,其公式描述如式(6)所示:

式中:Osag(Xi)表示輸出的空間注意力特征描述子;C3×3表示進(jìn)行3× 3 的卷積;“°”表示進(jìn)行連接聚合;σ表示sigmoid 函數(shù)。對(duì)輸入掩膜分割分支的特征圖Xi∈RH×W×Q進(jìn)行最大池化和平均池化,得到特征fmax,favg∈RH×W×Q,再進(jìn)行聚合連接輸入一個(gè)3× 3 的卷積層,并使用sigmoid 函數(shù)進(jìn)行歸一化??臻g注意力引導(dǎo)特征圖Xsag的計(jì)算式如式(7)所示:

式中?表示進(jìn)行對(duì)應(yīng)乘積計(jì)算。這一步的主要目的是通過空間注意力引導(dǎo)特征去加強(qiáng)原始輸入特征。最后,使用了2 ×2 的卷積進(jìn)行上采樣,通過一個(gè)1× 1 卷積層預(yù)測(cè)特定類的掩膜。

2.5 算法性能評(píng)價(jià)指標(biāo)

使用平均精度(Average Precision,AP)作為性能評(píng)價(jià)指標(biāo),平均精度能夠全面表達(dá)實(shí)例分割模型的分類器性能,目前已經(jīng)被廣泛應(yīng)用到目標(biāo)檢測(cè)算法的評(píng)價(jià)中。除了平均精度外,本文還采用了檢測(cè)率作為道路拋灑物檢測(cè)的性能評(píng)價(jià)指標(biāo)。

在平均精度的計(jì)算中又包含準(zhǔn)確率(Precision)和召回率(Recall)這兩個(gè)指標(biāo),準(zhǔn)確率和召回率的計(jì)算式如下:

式中:p表示準(zhǔn)確率,r表示召回率;TP表示正確劃分為正樣本的個(gè)數(shù);FP表示錯(cuò)誤劃分為正樣本的個(gè)數(shù);FN表示錯(cuò)誤劃分為負(fù)樣本的個(gè)數(shù)。平均精度的計(jì)算式如下:

式中,AP為平均精度,一般情況下平均精度值越高,分類器性能越好。

檢測(cè)率是指采用訓(xùn)練好的模型對(duì)測(cè)試集樣本進(jìn)行測(cè)試后,可視化結(jié)果中對(duì)于拋灑物目標(biāo)正確檢測(cè)類別的數(shù)量與測(cè)試集圖像樣本中包含的所有拋灑物數(shù)量的比例。

3 實(shí)驗(yàn)與結(jié)果分析

3.1 樣本采集和處理

為了保證訓(xùn)練模型的準(zhǔn)確性,應(yīng)用了遷移學(xué)習(xí)的思想,引入預(yù)先在COCO 數(shù)據(jù)集(包括91 類目標(biāo),328000 段影像和2500000 個(gè)標(biāo)簽的大型物體檢測(cè)和分割的數(shù)據(jù)集)訓(xùn)練得到的預(yù)訓(xùn)練權(quán)重文件。通過遷移學(xué)習(xí)可以避免訓(xùn)練時(shí)網(wǎng)絡(luò)從零開始學(xué)習(xí),加快并優(yōu)化了模型的學(xué)習(xí)效率,使得在數(shù)據(jù)集數(shù)量較少的情況下,模型也能夠達(dá)到較好的訓(xùn)練效果。

為了測(cè)試與驗(yàn)證本文算法的有效性,實(shí)驗(yàn)中數(shù)據(jù)集由白天不同時(shí)段某城市主干道公路監(jiān)控視頻圖像構(gòu)成。通過分幀處理,挑選出共1000 張圖像作為訓(xùn)練集,其中共包括含有石塊、廢棄紙盒、廢棄拋灑布、渣土這四類常見道路拋灑物的圖像各250 張,經(jīng)統(tǒng)計(jì),訓(xùn)練集圖像中共有待檢測(cè)目標(biāo)4000 個(gè),分別標(biāo)注為stone、box、cloth、dust四類。訓(xùn)練樣本圖像的大小統(tǒng)一為1920 × 1080 像素,使用labelme 圖像標(biāo)注工具添加掩膜標(biāo)簽,標(biāo)注過程如圖7(b)所示,并批量生成過程中所需的json文件。

圖7 數(shù)據(jù)集原始圖像與標(biāo)注過程Fig.7 Original image in dataset and labeling process

測(cè)試集中通過監(jiān)控采集的道路拋灑物圖像共400 張,其中每類拋灑物的圖像各100張。經(jīng)統(tǒng)計(jì),測(cè)試集圖像中有4類待檢測(cè)目標(biāo)個(gè)體,共1196個(gè)。

本文實(shí)驗(yàn)平臺(tái)搭建在Windows 10 系統(tǒng)下,環(huán)境配置為Python3.6+PyTorch1.1.0-GPU+CUDA10.0。實(shí)驗(yàn)參數(shù)設(shè)置為:1 個(gè)GPU,型號(hào)為NVIDIA GEFORCE RTX2060;單GPU 同時(shí)處理圖像數(shù)為1;分類個(gè)數(shù)為1(背景類)+4(石塊、廢棄紙盒、廢棄拋灑布、渣土);迭代步數(shù)設(shè)置為20,學(xué)習(xí)率設(shè)置為0.001。

3.2 結(jié)果驗(yàn)證和分析

使用訓(xùn)練好的模型對(duì)測(cè)試集包含的四類拋灑物目標(biāo)進(jìn)行檢測(cè),最終識(shí)別與分割的局部結(jié)果如圖8 所示。從檢測(cè)與識(shí)別結(jié)果可知,在四類拋灑物尺度不同、距離監(jiān)控?cái)z像頭遠(yuǎn)近也不同的情況下,本文所提出的道路拋灑物檢測(cè)算法能夠?qū)仦⑽镞M(jìn)行精確的檢測(cè)與識(shí)別?;诳斩淳矸e優(yōu)化的主干神經(jīng)網(wǎng)絡(luò)擴(kuò)大了特征感受野的范圍,使得對(duì)遠(yuǎn)距離多尺度目標(biāo)的檢測(cè)效果更好;基于DIoU 優(yōu)化的邊界框回歸損失函數(shù)提高了定位精度,使得輸出的邊界框信息更為準(zhǔn)確。

圖8 幾類常見道路拋灑物識(shí)別與分割結(jié)果Fig.8 Recognition and segmentation results of several types of common road abandoned objects

3.2.1 不同優(yōu)化方案消融實(shí)驗(yàn)對(duì)比

將本文中采用的優(yōu)化算法進(jìn)行對(duì)比實(shí)驗(yàn),對(duì)于同一幀圖像中同一目標(biāo)的識(shí)別結(jié)果和掩膜得分(mask score)如圖9 所示。圖9(a)中的mask score 分別為0.70 和0.78,圖9(b)中的mask score分別為0.74和0.83,圖9(c)中的mask score分別為0.76 和0.85,圖9(d)中的mask score 分別為0.80 和0.86。mask score 數(shù)值與識(shí)別分類結(jié)果和掩膜分割的質(zhì)量相關(guān),mask score數(shù)值越高則說明分類識(shí)別準(zhǔn)確度越高,掩膜分割質(zhì)量越好,由此可以得出,使用本文所提出的空洞卷積與DIoU共同優(yōu)化的算法時(shí),主干神經(jīng)網(wǎng)絡(luò)對(duì)圖像特征提取能力增強(qiáng),邊界框回歸更為準(zhǔn)確,目標(biāo)識(shí)別的分類準(zhǔn)確度和掩膜分割質(zhì)量也相對(duì)更好。

圖9 同一路段拋灑物識(shí)別結(jié)果對(duì)比Fig.9 Comparison of recognition results of abandoned objects on the same road section

在相同迭代次數(shù)的條件下(epochs=40),將空洞卷積引入殘差網(wǎng)絡(luò)ResNet50 中,分別使用原始卷積和空洞卷積優(yōu)化的ResNet50 作為主干神經(jīng)網(wǎng)絡(luò),同時(shí)在損失函數(shù)中分別使用原始的IoU 函數(shù)與DIoU 進(jìn)行訓(xùn)練和驗(yàn)證。表1 中給出了4 種模型在邊界框檢測(cè)和掩膜分割兩方面的各項(xiàng)評(píng)價(jià)指標(biāo),包括AP、AP50、AP75、APs、APm、APl。其中,AP是交并比取0.5~0.95閾值下的平均精度值,AP50、AP75分別指交并比取0.5 和0.75時(shí)的AP 值,APs、APm、APl分別指小、中、大三種不同尺寸目標(biāo)的AP 值。三種尺寸的劃分沿用COCO 數(shù)據(jù)集評(píng)價(jià)規(guī)范,小尺寸目標(biāo)指面積小于32 像素×32 像素,中等尺寸目標(biāo)指面積大于32 像素×32 像素且小于96 像素×96 像素,大尺寸目標(biāo)指面積大于96像素×96像素。

表1 道路拋灑物檢測(cè)優(yōu)化算法結(jié)果對(duì)比 單位:%Tab.1 Result comparison of optimization algorithms for road abandoned object detection unit:%

由表1 可以看出,使用本文算法時(shí),道路拋灑物檢測(cè)的平均精度值最高。相較于未經(jīng)優(yōu)化的CenterMask,本文所提出的優(yōu)化算法對(duì)不同尺度目標(biāo)的檢測(cè)效果較好,邊界框檢測(cè)和掩膜分割平均精度值均有顯著提升。本文算法針對(duì)小尺度目標(biāo)進(jìn)行檢測(cè)時(shí)平均精度(APs)為50.40%,針對(duì)大尺度目標(biāo)進(jìn)行檢測(cè)時(shí)平均精度(APl)為71.50%,相較于未經(jīng)優(yōu)化的模型CenterMask分別提升了3.2個(gè)百分點(diǎn)和12.20個(gè)百分點(diǎn)。

3.2.2 不同算法性能對(duì)比

除對(duì)不同優(yōu)化算法進(jìn)行消融實(shí)驗(yàn)對(duì)比外,還將本文提出的優(yōu)化算法與其他常見實(shí)例分割算法在相同測(cè)試集上進(jìn)行對(duì)比測(cè)試,性能結(jié)果如表2 所示,使用不同算法的檢測(cè)結(jié)果如圖10所示。

圖10 不同算法檢測(cè)結(jié)果對(duì)比Fig.10 Detection result comparison of different algorithms

由表2 可以看出,本文算法檢測(cè)率為94.82%,相較于未經(jīng)優(yōu)化的CenterMask 提高了1.43 個(gè)百分點(diǎn),且邊界框檢測(cè)和掩膜分割平均精度分別提高了7.40 個(gè)百分點(diǎn)和1.70 個(gè)百分點(diǎn),而單張圖像檢測(cè)平均耗時(shí)僅增加0.01 s,在不顯著降低原始算法實(shí)時(shí)性的情況下提升了檢測(cè)精度。相較于常見實(shí)例分割算法Mask R-CNN,本文所提出的算法在平均精度及檢測(cè)率上均有顯著提升,其中在邊界框檢測(cè)上的AP 提高了8.10 個(gè)百分點(diǎn)。相較于YOLACT(You Only Look At CoefficienTs),盡管本文所提算法在進(jìn)行檢測(cè)識(shí)別時(shí)單張圖像平均耗時(shí)相對(duì)較長(zhǎng),YOLACT 實(shí)時(shí)性更好,但存在著目標(biāo)檢測(cè)框及掩膜分割效果不好的情況,同時(shí)對(duì)于小目標(biāo)的漏檢率較高。綜合考慮實(shí)時(shí)性與檢測(cè)精度可知,本文所提的道路拋灑物識(shí)別算法效果更好,更適用于復(fù)雜道路環(huán)境下拋灑物檢測(cè)。

表2 不同算法測(cè)試性能對(duì)比Tab.2 Comparison of test performance of different algorithms

4 結(jié)語

針對(duì)道路拋灑物檢測(cè),本文提出了基于實(shí)例分割模型優(yōu)化的道路拋灑物檢測(cè)算法,該算法基于CenterMask 模型使用空洞卷積與DIoU 損失函數(shù)進(jìn)行優(yōu)化。實(shí)驗(yàn)結(jié)果表明,在相同的環(huán)境配置下,相較于未經(jīng)優(yōu)化的實(shí)例分割算法,本文所提出的道路拋灑物檢測(cè)算法在保證運(yùn)行時(shí)間相對(duì)較少的同時(shí),有效提高了模型檢測(cè)和分割的精度,檢測(cè)率較高,能夠精確檢測(cè)和識(shí)別多尺度目標(biāo)。未來將進(jìn)一步研究在保證檢測(cè)和識(shí)別精度的同時(shí)進(jìn)一步提高檢測(cè)效率,增強(qiáng)算法的實(shí)時(shí)性。

猜你喜歡
卷積精度道路
基于不同快速星歷的GAMIT解算精度分析
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準(zhǔn)確測(cè)定
堅(jiān)持中國(guó)道路——方向決定道路,道路決定命運(yùn)
道聽途說
一種基于卷積神經(jīng)網(wǎng)絡(luò)的地磁基準(zhǔn)圖構(gòu)建方法
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
一種并行不對(duì)稱空洞卷積模塊①
運(yùn)籌70年,中國(guó)道路
民用立體測(cè)繪相機(jī)成像精度再創(chuàng)新高
以工匠精神凸顯“中國(guó)精度”