国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的瀝青路面坑槽量化方法

2022-09-14 09:49吳海軍王武斌張宗堂
公路工程 2022年4期
關(guān)鍵詞:像素體積路面

余 俊,吳海軍,王武斌,張宗堂

(1.成都工業(yè)職業(yè)技術(shù)學(xué)院 現(xiàn)代軌道交通應(yīng)用技術(shù)研究中心,四川 成都 610000;2.湖南省交通科學(xué)研究院有限公司,湖南 長沙 410015;3.西南交通大學(xué) 陸地交通地質(zhì)災(zāi)害防治技術(shù)國家工程實(shí)驗(yàn)室,四川 成都 610000;4.湖南科技大學(xué) 巖土工程穩(wěn)定控制與健康監(jiān)測湖南省重點(diǎn)實(shí)驗(yàn)室,湖南 湘潭 411201)

1 概述

公路作為一種重要的交通方式,對我國的政治、經(jīng)濟(jì)、軍事發(fā)展有著重大的作用,也對人民生活水平的提高有著重要的意義。但是公路路面具有使用壽命,由于超載、過度使用等外部因素,道路表面易于損壞[1-4]。因此,對路面表面進(jìn)行評估是有必要的。

傳統(tǒng)上,評估通常由經(jīng)過訓(xùn)練的檢查員進(jìn)行,但該方法具有局限性,因此,SOHN[5]等提出了使用傳感器和數(shù)據(jù)采集技術(shù)的方法。使用應(yīng)變計(jì)引伸計(jì)[6],加速度計(jì)[7]和數(shù)值模擬[8]對某些情況下的瀝青路面進(jìn)行識(shí)別或損害預(yù)測。然而,這些方法成本較高且難以操縱。因此,可以使用計(jì)算機(jī)視覺傳感器進(jìn)行數(shù)據(jù)采集。在以往的研究中,研究者使用二維成像和高速視頻來確定位移和表面變形等參數(shù),以檢測和量化潛在的路面坑槽[9]。

由于坑槽具有視覺獨(dú)特性,可使用機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)二維成像檢測并量化潛在路面坑槽。郭慧[10]等實(shí)現(xiàn)了一種基于支持向量機(jī)的鋼板表面缺陷檢測方法。 CHA[11]等提出了一種能夠有效檢測裂紋的卷積神經(jīng)網(wǎng)絡(luò)。

由于二維成像的研究已經(jīng)較為深入,三維分析逐漸得到更多研究者的關(guān)注。二維圖像可以對裂縫進(jìn)行檢測和分類,而三維數(shù)據(jù)則可以檢測和量化體積損傷,如分層,剝落等。

以往學(xué)者研究三維成像的瀝青路面狀況都采用了運(yùn)動(dòng)結(jié)構(gòu)(SfM)方法[12]。其中,三維虛擬模型是通過二維RGB圖像與縮放參數(shù)和其他屬性合并生成的。TOROK[13]等提出了一種基于SfM的數(shù)據(jù)收集方法,從機(jī)器平臺(tái)收集災(zāi)后場景數(shù)據(jù),進(jìn)行三維重建,損傷識(shí)別并記錄幾何數(shù)據(jù)。

另一種獲取三維數(shù)據(jù)的方法是使用同時(shí)包含顏色和深度傳感器的特殊相機(jī)。JAHANSHAHI[14]等提出了從普通相機(jī)中提取三維點(diǎn)云來檢測和量化路面坑槽的方法。然而,這些研究都是對已知的病害進(jìn)行量化。此外,傳感器和物體之間的距離是預(yù)先測量并固定的,限制了該方法的自動(dòng)化實(shí)現(xiàn)。此外,現(xiàn)有的量化方法無法獨(dú)立識(shí)別剝落或其他類型的體積損傷,而只能提供相對于分析表面的體積損失量。

為了克服上述局限性,本文提出了一種全自動(dòng)的瀝青路面坑槽檢測、定位和量化方法,通過廉價(jià)的RGB-D傳感器,Microsoft Kinect V2和Faster R-CNN來檢測路面坑槽。該方法不需要預(yù)先設(shè)置測量目標(biāo)和傳感器之間的距離,且可以在移動(dòng)場景下應(yīng)用。

2 研究方法

本文主要目的是通過使用基于區(qū)域的深度卷積網(wǎng)絡(luò)(R-CNN)和廉價(jià)的深度攝像頭來自動(dòng)檢測、定位和量化瀝青路面坑槽量。該算法分為4個(gè)步驟:①基于RGB-D傳感器的RGB圖像和深度數(shù)據(jù)收集;②使用基于R-CNN的快速、深入的方法對損壞進(jìn)行檢測和定位,為檢測到的損壞添加邊界框;③利用添加的邊界框和點(diǎn)云信息對元素表面進(jìn)行分割;④分割和量化從表面檢測的損傷。其流程如圖1所示。

圖1 算法框架流程Figure 1 The flow diagram of the algorithm framework

2.1 RGB-D傳感器

Microsoft Kinect V2是一種深度相機(jī),其參數(shù)如下:RGB攝像頭1 920×1 080像素,深度攝像頭512×424像素,最大深度距離4.5 m,最小深度距離0.5 m,垂直視場60°,水平視場70°。基于此相機(jī)的RGB圖像數(shù)據(jù)和點(diǎn)云數(shù)據(jù)的分辨率分別為1 920×1 080像素和512×424像素。利用RGB-D相機(jī)可以實(shí)現(xiàn)飛行時(shí)間(ToF)概念。其同時(shí)具有紅外發(fā)射器和紅外傳感器。紅外發(fā)射器將紅外光投射到對象上,光從表面反彈,紅外傳感器捕獲反射的光。由于紅外傳感器和紅外發(fā)射器之間的距離是已知的,可以根據(jù)紅外光從發(fā)射器到傳感器傳播的時(shí)間來確定每個(gè)傳感器像素的3D坐標(biāo)。

2.1.1數(shù)據(jù)點(diǎn)云獲取

MATLAB支持Microsoft Kinect V2接口,并可以獲取原始深度數(shù)據(jù)。深度設(shè)備輸出一個(gè)以傳感器中心像素作為原點(diǎn)的局部三維坐標(biāo)點(diǎn)網(wǎng)格。傳感器的內(nèi)部算法會(huì)將非數(shù)字(NaN)值轉(zhuǎn)換為深度像素(x,y和z)。由此,可以區(qū)分每個(gè)點(diǎn)的坐標(biāo)。整體深度框?qū)?12像素,高424像素。

由于鏡頭失真,深度框邊界的值誤差率更大。YUAN[15]等提出,可以使用深度傳感器的中央300×300像素來避免此問題。此外,從傳感器平面到目標(biāo)的距離應(yīng)在1.0 m至2.5 m之間,以獲得最大的精度。

2.1.2噪聲過濾

為了減少深度圖像上的噪聲,本文采用了可以覆蓋5×5像素區(qū)域的中值濾波器。中值濾波器將深度圖中的每個(gè)像素替換為其相鄰像素的中值。這保證了去噪深度圖中不包含原數(shù)據(jù)集中不存在的值。

2.2 Faster R-CNN路面坑槽檢測

為了檢測和定位各種瀝青路面坑槽,采用了基于Faster R-CNN的檢測方法。該方法僅需使用RGB-D傳感器提供的RGB圖像數(shù)據(jù)。為了克服了傳統(tǒng)R-CNN和Fast R-CNN在對象檢測和定位方面的局限性,REN[16]等提出了Faster R-CNN。傳統(tǒng)的CNN不能對圖像內(nèi)檢測到的目標(biāo)添加任何邊界框或定位信息,但是R-CNN和Fast R-CNN可以。然而,這2種方法在添加邊界框時(shí)存在計(jì)算效率低和運(yùn)行時(shí)間長的缺點(diǎn)。

與R-CNN相比,F(xiàn)aster R-CNN采用選擇性搜索方法,在計(jì)算成本和運(yùn)行時(shí)間方面有所提升。但它仍無法對目標(biāo)進(jìn)行實(shí)時(shí)檢測和定位。REN等提出了區(qū)域候選網(wǎng)絡(luò)(RPN),以節(jié)省定位目標(biāo)的計(jì)算成本。通過共享如圖2所示的CNN架構(gòu),將RPN集成到現(xiàn)有的Fast RCNN中,可以減少計(jì)算成本。

圖2 基于Faster R-CNN的模型框架Figure 2 The model framework based on Faster R-CNN

2.2.1區(qū)域候選網(wǎng)絡(luò)(RPN)

區(qū)域候選網(wǎng)絡(luò)將圖像作為輸入和輸出區(qū)域候選,如圖2所示。每個(gè)候選都有一個(gè)對應(yīng)類的分?jǐn)?shù)。為了降低計(jì)算成本,F(xiàn)ast R-CNN和RPN共用同一組卷積層。

將圖像輸入卷積網(wǎng)絡(luò),輸出一組卷積特征圖。然后,在卷積特征圖上運(yùn)行滑動(dòng)窗口算法。在每個(gè)窗口位置,根據(jù)預(yù)定義數(shù)量的錨點(diǎn)預(yù)測多個(gè)區(qū)域候選。錨點(diǎn)是具有特定比例和長寬比的參考框,其位于滑動(dòng)窗口中心處。代碼默認(rèn)使用3種比例和3種長寬比,使每個(gè)滑動(dòng)位置生成9個(gè)錨點(diǎn)。根據(jù)圖像上的錨點(diǎn)和真實(shí)邊界框,計(jì)算錨點(diǎn)的分類。重疊大于70%為正(1),重疊小于30%為負(fù)(0)。重疊在30%到70%之間則不考慮。錨點(diǎn)與分類結(jié)果被輸入到滑動(dòng)卷積層,然后是一個(gè)ReLU層,最后是一個(gè)全連接層。

將全連接層的輸出輸入到分類層(softmax)和回歸層中?;貧w層確定預(yù)測的邊界框,分類器輸出從0到1的概率得分。將候選的邊界框稱為候選區(qū)域。

通過小批量采樣進(jìn)行分類和回歸層的訓(xùn)練。從具有多個(gè)正錨和負(fù)錨的單個(gè)圖像獲得每個(gè)迷你批處理。通過隨機(jī)采樣256個(gè)錨,為每個(gè)圖像計(jì)算迷你批處理的損失函數(shù)。其中,為了減少損失函數(shù)的負(fù)偏差,正錨的數(shù)量需大于128個(gè)。根據(jù)均值為0,標(biāo)準(zhǔn)差為0.01的高斯分布對所有層隨機(jī)初始化,并通過預(yù)訓(xùn)練ImageNet分類模型來初始化共享卷積層。

2.2.2Fast R-CNN

Fast R-CNN網(wǎng)絡(luò)的輸入數(shù)據(jù)為RPN方法輸出的一組候選區(qū)域和整個(gè)圖像,如圖2所示。然后,候選區(qū)域與初始CNN輸出的原始特征圖組合,得到近似區(qū)域(RoI)。 每個(gè)候選區(qū)域的RoI池化層從特征圖中提取固定長度的特征向量。將這些向量輸入全連接層、回歸層和分類層,最終輸出邊界框的位置和分類。 由此,F(xiàn)ast R-CNN可以得到更精準(zhǔn)的分類和邊界框信息。

2.2.3Faster R-CNN中的ZF網(wǎng)絡(luò)

REN[16]等在研究Faster R-CNN方法時(shí)提出了兩種架構(gòu)模型:Zeiler-Fergus模型(也稱為ZF-Net)和Simonyan-Zisserman模型(也稱為VGG-16)。對其進(jìn)行比較發(fā)現(xiàn),ZF-Net的訓(xùn)練和測試速度更快。ZF-Net最初由5個(gè)卷積層,2個(gè)全連接層和1個(gè)用于輸出的回歸層。REN等對原始ZF-Net進(jìn)行了修改,得到Faster RCNN。對RPN和Fast R-CNN的修改如圖3和圖4所示。為了共享計(jì)算能力,RPN和Fast R-CNN第1層到第9層的輸出相同。

圖3 RPN中的修正ZF網(wǎng)絡(luò)Figure 3 The rectified ZF-Net in RPN

圖4 Fast R-CNN中的修正ZF網(wǎng)絡(luò)Figure 4 The rectified ZF-net in Fast R-CNN

為了加入RPN,Ren等用滑動(dòng)卷積層替代了最后一個(gè)最大池化層和全連接層,然后再加入全連接層。此外,分類層由一個(gè)分類和回歸層代替。卷積層后是ReLU激活函數(shù),使每個(gè)滑動(dòng)窗口映射到低維特征,并將其輸入分類和回歸層。對于Fast R-CNN,原網(wǎng)絡(luò)的最大池化層由RoI池化層代替。在全連接層之間添加了dropout層,防止模型過度擬合。同樣地,將RP模型的分類層替換為分類和回歸層。

2.3 表面分割

為了量化路面坑槽體積,應(yīng)首先確定路面標(biāo)準(zhǔn)。采用隨機(jī)抽樣一致性(RANSAC)算法進(jìn)行路面平面擬合[14]。該算法根據(jù)預(yù)定義參數(shù)(如參考向量,距離閾值與點(diǎn)的法線跟參考向量的最大角距離)得到隨機(jī)點(diǎn),進(jìn)而擬合平面。根據(jù)設(shè)置的閾值進(jìn)行平面擬合,直至相似數(shù)據(jù)點(diǎn)達(dá)到最大值。此外,可將Faster R-CNN生成的邊界框的平面用于隨機(jī)抽樣一致性算法以擬合平面。

在給定的情況中,采用平行于傳感器法線的最大角距離為5°的參考向量。這樣就無需將傳感器放置在與表面完全平行的位置。設(shè)置隨機(jī)抽樣一致性算法的距離閾值為5 mm。不滿足閾值的數(shù)據(jù)點(diǎn)都被視為異常值。

前述文獻(xiàn)通常根據(jù)外部測量中獲得的固定初始參數(shù)來識(shí)別道路病害。然而,對于移動(dòng)的或無人的應(yīng)用而言,這種方法不可行。此外,該方法沒有考慮多個(gè)表面的可能性。然而,只要傳感器位于設(shè)備的工作距離之內(nèi),不管傳感器和目標(biāo)之間的距離如何,本文提出的方法都可以擬合一個(gè)平面。該方法依賴于傳感器輸出的數(shù)據(jù),無需進(jìn)行任何其他人工測量。

2.4 路面坑槽分割

分析三維深度云和異常值,將位于同一平面的異常值范圍內(nèi)的值分類為坑槽。該過程同時(shí)可以從深度數(shù)據(jù)中過濾掉可能出現(xiàn)的NaN值。

為了使同一表面內(nèi)的多個(gè)坑槽可以單獨(dú)量化,采用層次聚類算法將異常值分割為單個(gè)坑槽。該算法首先計(jì)算輸入數(shù)據(jù)中每對數(shù)據(jù)點(diǎn)P1,P2之間的歐氏距離d:

(1)

其中,i對應(yīng)每個(gè)點(diǎn)的參考坐標(biāo)。

然后將緊靠在一起的2對點(diǎn)合并為二進(jìn)制集群。集群之間不斷合并,形成更大的集群,直到所有數(shù)據(jù)都被分組為止。預(yù)先設(shè)置最大聚類數(shù),然后將每個(gè)聚類索引作為相應(yīng)的深度點(diǎn)的特征。

在本文方法中,預(yù)定義了最多10個(gè)聚類數(shù)。使得在同一表面內(nèi)可以分割多達(dá)10個(gè)單獨(dú)的坑槽。聚類算法是體積量化的關(guān)鍵,因?yàn)樗鶕?jù)相對于表面的深度數(shù)據(jù)對每個(gè)坑槽區(qū)域進(jìn)行分割,以確保Faster R-CNN生成的位于邊界框外部的像素也可以用于坑槽量化。

2.5 體積量化

擬合平面模型輸出平面的法向量和常數(shù)系數(shù)a,b,c,d:

a·x+b·y+c·z+d=0

(2)

可以通過提取這些值來創(chuàng)建Zpn=f(x,y)函數(shù),以確定每個(gè)數(shù)據(jù)點(diǎn)與擬合平面的精確距離,如圖5所示。

(3)

其中,Zpn為第n個(gè)像素在深度方向上的坐標(biāo)。

圖5 體積量化示意圖Figure 5 Schematic diagram of volume quantification

每個(gè)像素覆蓋的面積會(huì)根據(jù)其深度平面而變化。 當(dāng)距離較小時(shí),一個(gè)像素可以覆蓋1 mm2左右的面積,而隨著距離增大,覆蓋面積可以達(dá)到35 mm2。確定覆蓋面積的公式如下:

(4)

其中,Apn為第n個(gè)像素的覆蓋面積;α和β為水平和豎直方向上的Kinect常數(shù)。

為了計(jì)算每個(gè)像素覆蓋的體積,需要獲得像素點(diǎn)與式(2)得到的表面平面之間的距離。此外,可以通過式(3)計(jì)算平面內(nèi)每個(gè)像素的深度。因此,將每個(gè)像素的z坐標(biāo)減去擬合平面的相應(yīng)z坐標(biāo),可獲得像素點(diǎn)距離表面平面的相對深度值:

Dpn=Zpn-Zfpn

(5)

其中,Dpn為第n個(gè)像素的相對深度;Zpn為第n個(gè)像素的深度坐標(biāo);Zfpn為第n個(gè)像素在擬合表面平面上的深度坐標(biāo)。

由于該方法會(huì)計(jì)算坑槽區(qū)域內(nèi)每個(gè)像素的體積,因此可以對任何體積形狀的路面坑槽進(jìn)行量化。

對于每個(gè)分割的路面坑槽,將其覆蓋面積和相對深度相乘來計(jì)算像素的體積,然后將這些像素體積相加得到每個(gè)路面坑槽的體積。最后,計(jì)算每個(gè)路面坑槽體積的總和為最終總體積。

(6)

(7)

其中,Vdi為第i個(gè)路面坑槽的計(jì)算體積;Vt為總計(jì)算體積。

3 試驗(yàn)過程

首先,對基于Faster R-CNN的路面坑槽檢測方法進(jìn)行訓(xùn)練、驗(yàn)證和測試。使用已檢測的路面坑槽數(shù)據(jù),并利用第2節(jié)所述的方法通過深度云信息進(jìn)行量化。

Faster R-CNN在該方法中負(fù)責(zé)路面坑槽識(shí)別。為了進(jìn)行坑槽檢測,得到與Kinect RBG傳感器結(jié)果相似的圖像,使用智能手機(jī)相機(jī)采集了749張分辨率為2 560×1 440像素、縱橫比為16∶9的圖像。在不同光照條件下,調(diào)整拍攝距離為0.5 m至2.5 m對目標(biāo)進(jìn)行拍攝。然后,將獲取的圖像裁剪為1 091幅尺寸為853×1 440像素的圖像,并對其添加標(biāo)簽構(gòu)成帶標(biāo)簽的數(shù)據(jù)庫,如圖6所示。

圖6 帶標(biāo)簽的數(shù)據(jù)庫Figure 6 The labeled dataset

為了確保同一幅坑槽圖像不會(huì)同時(shí)出現(xiàn)在不同數(shù)據(jù)集中,手動(dòng)篩選生成訓(xùn)練、驗(yàn)證和測試數(shù)據(jù)集。其中,選擇191張裁剪后的圖像組成測試集,并隨機(jī)選擇600張圖像組成訓(xùn)練集、300張圖像組成驗(yàn)證集。此外,在訓(xùn)練和驗(yàn)證集上進(jìn)行水平翻轉(zhuǎn)和曝光調(diào)整對訓(xùn)練、驗(yàn)證集進(jìn)行數(shù)據(jù)擴(kuò)充。在進(jìn)行數(shù)據(jù)擴(kuò)充后,數(shù)據(jù)集共包含3 455張圖像,且共有5 522個(gè)標(biāo)記為坑槽的邊界框。

深度學(xué)習(xí)模型要求對大量數(shù)據(jù)集進(jìn)行準(zhǔn)確的訓(xùn)練,過程非常耗時(shí)。為了克服數(shù)據(jù)集較小的局限性,對Faster R-CNN進(jìn)行預(yù)訓(xùn)練。在RPN和Fast R-CNN網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),將學(xué)習(xí)率設(shè)置為0.001,將動(dòng)量設(shè)置為0.9,將權(quán)重衰減設(shè)置為0.000 5,分別為最終訓(xùn)練執(zhí)行80 000和40 000迭代。

由于確定Faster R-CNN的最佳錨點(diǎn)數(shù)缺乏簡單有效的方法,因此,采用了試錯(cuò)法。為了確定訓(xùn)練集的最佳錨點(diǎn)大小和比率,對12種錨點(diǎn)縱橫比的組合和3種錨點(diǎn)大小的組合進(jìn)行分析。共進(jìn)行了37次訓(xùn)練,其中36次為試驗(yàn)。為了減少訓(xùn)練時(shí)間,每次試驗(yàn)訓(xùn)練中迭代次數(shù)比原始迭代次數(shù)少10倍,即RPN和Fast R-CNN分別為8 000和4 000迭代。選擇具有最佳AP值的組合為最終模型,并進(jìn)行完整的迭代訓(xùn)練。

為了增強(qiáng)對較小坑槽的檢測,對輸入圖像進(jìn)行縮放。保留原始長寬比將最短側(cè)的853像素縮放到1 000像素。在該方法中,將輸入圖像放大來檢測較小的坑槽強(qiáng)化網(wǎng)絡(luò)是可行的。RPN的滑動(dòng)卷積層在特征涂上的跨度為16。以上縮放和跨度參數(shù)都是通過反復(fù)試驗(yàn)確定的。

4 結(jié)果分析

4.1 Faster R-CNN

使用四步法對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。由于訓(xùn)練集的分辨率設(shè)置,在GPU計(jì)算下的訓(xùn)練時(shí)間約為14 h。降低分辨率可以縮短訓(xùn)練時(shí)間。

Faster R-CNN在GPU計(jì)算下處理一個(gè)853×1 440像素的圖像需要0.08 s,而在CPU計(jì)算下需要2.80 s。 在所有訓(xùn)練中,AP值最高為90.79%。對應(yīng)的錨點(diǎn)尺寸和縱橫比分別為128、480和880,以及0.5、0.85和1.85。用新的圖像對最終模型進(jìn)行測試,結(jié)果較好,如圖8所示。其置信區(qū)間為從圖7(a)的60.5%到圖7(b)的85.9%。

(a) 識(shí)別1

(b) 識(shí)別2

4.2 道路坑槽量化

在每種情況下,像素點(diǎn)體積會(huì)有3組數(shù)值,取其平均值進(jìn)行計(jì)算。不論目標(biāo)尺寸大小、深度和傳感器距離如何,該算法都能夠識(shí)別表面,并對道路坑槽進(jìn)行分割和量化。邊界框表示道路表面內(nèi)存在坑槽,可用于分割該表面。當(dāng)表面坐標(biāo)已知時(shí),即可提取對應(yīng)坑槽的像素。此外,位于邊界框外但仍在表面范圍內(nèi)的像素也計(jì)入體積量化。

體積計(jì)算結(jié)果如圖 8所示。總體積的相對誤差范圍為:1.49%~13.83%,而每個(gè)道路坑槽的平均精度誤差(MPE)為14.9%。

圖8 路面坑槽體積計(jì)算結(jié)果Figure 8 The calculation results of volume of spalling damage

當(dāng)傳感器與檢測目標(biāo)之間的距離改變時(shí),誤差會(huì)有所變化。其中,距離為100 cm和200 cm時(shí)的準(zhǔn)確性較高。

此外,還計(jì)算了每組坑槽的最大深度值,如表1所示。每組測試的誤差率均低于10%。對于最短距離100 cm的情況,其相對誤差僅為1.15%,低于KAMAL[17]提出的在80 cm下的誤差率2.58%。此外,與YUAN[15]等的MPE為8%相比,本文的方法在最差條件下的MPE值也低于8%。

表1 坑槽最大深度Table 1 Maximun depth of spalling damage

4.3 應(yīng)用實(shí)例分析

本文提出的道路坑槽量化方法具有實(shí)際應(yīng)用價(jià)值。為了驗(yàn)證本文提出的基于深度學(xué)習(xí)的路面坑槽量化方法的有效性,本文采用距離為100 cm時(shí)的模型對長沙市長沙縣多條鄉(xiāng)鎮(zhèn)道路進(jìn)行了深度學(xué)習(xí)自動(dòng)化檢測。此外,為了對檢測結(jié)果進(jìn)行對比,同時(shí)對該路段進(jìn)行了人工病害檢測,并對坑槽進(jìn)行量化。

2種方法的檢測結(jié)果如表2所示,對比結(jié)果可得:人工檢測和深度學(xué)習(xí)檢測結(jié)果基本一致,坑槽體積量化誤差不超過10%,效果較好。與人工檢測相比,本文提出的基于深度學(xué)習(xí)的坑槽量化方法在一定精度范圍內(nèi),耗時(shí)更短,計(jì)算效率更高,極大地節(jié)省了人力勞動(dòng)。

表2 兩種方法檢測結(jié)果對比示例Table 2 Comparison example of the detection results of the two methods

5 結(jié)論

傳統(tǒng)上,測量道路坑槽體積是通過使用深度攝像頭,3D掃描儀等方法。本文提出了一種基于深度學(xué)習(xí)的瀝青路面坑槽量化方法,結(jié)合廉價(jià)的深度攝像頭進(jìn)行量化。首先,根據(jù)檢測到的道路坑槽的位置和深度信息,使用RANSAC算法識(shí)別并分割道路表面。使用該算法可以擺脫傳感器與檢測目標(biāo)之間距離的束縛,僅依靠RGB-D傳感器的輸出來識(shí)別和量化多個(gè)道路坑槽體積。此外,創(chuàng)建了帶標(biāo)簽數(shù)據(jù)庫,利用Faster R-CNN進(jìn)行訓(xùn)練、驗(yàn)證和測試。通過深度學(xué)習(xí)網(wǎng)絡(luò),傳感器在任何工作距離內(nèi)都可以實(shí)現(xiàn)平面擬合,且AP值可達(dá)90.79%。對于單個(gè)坑槽測量體積,平均精度誤差值低于10%。可以將該傳感器安裝至無人車上,對偏遠(yuǎn)或危險(xiǎn)地區(qū)進(jìn)行數(shù)據(jù)采集,得到的數(shù)據(jù)較為可靠。由于本文中使用的深度傳感器較為廉價(jià),替換為更高級的深度傳感器可以進(jìn)一步提高量化精度。

猜你喜歡
像素體積路面
像素前線之“幻影”2000
多法并舉測量固體體積
聚焦立體幾何中的體積問題
用藝術(shù)修補(bǔ)路面
“像素”仙人掌
小體積帶來超高便攜性 Teufel Cinebar One
誰的體積大
高像素不是全部
一款透水路面養(yǎng)護(hù)車
路面機(jī)械的操控一體化