国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

管道視頻病害檢測(cè)和單目SLAM深度估計(jì)研究

2021-03-04 11:38:24周方祺,郭世元,馮家旗,麥麥提阿力木·麥提努爾,秦同臻,姜涌泉
電腦知識(shí)與技術(shù) 2021年34期
關(guān)鍵詞:計(jì)算機(jī)視覺(jué)特征提取

周方祺,郭世元,馮家旗,麥麥提阿力木·麥提努爾,秦同臻,姜涌泉

摘要:地下管道連接城市的各個(gè)角落,承擔(dān)了極其重要的功能,準(zhǔn)確定位和修復(fù)管道病害有重要意義。但由于地下管道的特殊性,為了減少技術(shù)人員在管道內(nèi)潛在的風(fēng)險(xiǎn),提高檢測(cè)和修復(fù)效率,用帶有攝像頭的排水管道機(jī)器人采集地下管道視頻信息,提取圖像的LBP特征,訓(xùn)練SVM分類模型實(shí)現(xiàn)管道病害分類,模型對(duì)地下管道的病害自動(dòng)識(shí)別,使用YOLOv4檢測(cè)病害,這有效地提高了檢測(cè)效率與準(zhǔn)確度。還使用SLAM技術(shù)對(duì)以往的圖像檢測(cè)所不具備的三維信息—深度進(jìn)行了估計(jì),這將有利于管道病害的檢測(cè)。

關(guān)鍵詞:計(jì)算機(jī)視覺(jué);SVM分類;特征提取;病害自動(dòng)識(shí)別;SLAM

中圖分類號(hào):TP391.41? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):1009-3044(2021)34-0013-06

1 背景

隨著我國(guó)經(jīng)濟(jì)建設(shè),城市快速發(fā)展,城市地下管道設(shè)施正從建設(shè)期進(jìn)入養(yǎng)護(hù)期,城市地下管道的鋪設(shè)作為城市發(fā)展的一個(gè)重要部分,承擔(dān)著城市的天然氣供應(yīng)、排水、供水等重要職責(zé),對(duì)城市而言,地下管道的完整和安全運(yùn)行就像血管之于人一樣重要。由此城市管道安全成為熱點(diǎn)話題,管道腐蝕、裂縫、淤泥等各種病害都會(huì)對(duì)管道造成巨大的危害。假如不對(duì)管道病害進(jìn)行管理,管道健康受到威脅甚至得到破壞,將會(huì)對(duì)城市居民生活、工業(yè)生產(chǎn)、交通管制等社會(huì)生產(chǎn)生活活動(dòng)造成阻塞和不便,產(chǎn)生的經(jīng)濟(jì)損失更是不可估量。因此,管道病害的檢測(cè)與修復(fù)工作是城市建設(shè)的重要組成部分。

當(dāng)前檢測(cè)管道病害的過(guò)程效率低下且昂貴。要求參與人員技術(shù)水平高。管道內(nèi)部不僅危險(xiǎn)還很復(fù)雜,維修人員難以進(jìn)入。一般來(lái)說(shuō),管道影像利用攝像頭獲取。完成圖像采集后,技術(shù)人員根據(jù)水道狀況分類手冊(cè)重新觀看視頻,并標(biāo)記管道病害。但是,檢測(cè)員對(duì)視頻分析解釋需要時(shí)間,且這種方法價(jià)格高昂,在較長(zhǎng)的檢測(cè)時(shí)間內(nèi)也需要中斷管道的使用。所以為了減少技術(shù)人員在管道內(nèi)潛在的風(fēng)險(xiǎn),提高檢測(cè)和修復(fù)效率,如何及時(shí)發(fā)現(xiàn)和獲取管道病害圖像、如何對(duì)不同的病害類型做分類和定位,成為計(jì)算機(jī)圖像領(lǐng)域具有價(jià)值的研究方向,也是當(dāng)前擁有極其廣闊應(yīng)用前景的計(jì)算機(jī)科學(xué)研究熱點(diǎn)。傳統(tǒng)檢測(cè)方式下,深度這個(gè)三維信息并未考慮,而只是應(yīng)用圖像二維數(shù)據(jù)。單目視覺(jué)SLAM技術(shù)可以利用二維圖像對(duì)三維信息—深度進(jìn)行估計(jì),這將有利于管道病害的檢測(cè)。

2 數(shù)據(jù)的采集和處理

本文通過(guò)車(chē)載攝像頭自動(dòng)掃描采樣地下管道內(nèi)部巖壁原始病害圖像數(shù)據(jù),然后用圖像標(biāo)注軟件對(duì)圖像病害類型進(jìn)行框選和特征描述,將特征位置信息寫(xiě)到外部文件中。地下管道病害視頻圖像采集設(shè)備與自制病害圖像標(biāo)注軟件樣例分別見(jiàn)圖1與圖2。

本文使用SVM方法分類病害,使用YOLOv4檢測(cè)病害,這需要把圖像的包圍盒(Bounding Box)信息作為監(jiān)督(Ground Truth)。標(biāo)注出病害對(duì)象的左上角坐標(biāo)(Xmin,Ymin),右下角坐標(biāo)(Xmax,Ymax),類別、圖像名、圖像大小等信息一起寫(xiě)入xml文件,與圖像一起作為輸入送入神經(jīng)網(wǎng)絡(luò)訓(xùn)練。本文將采集到的病害數(shù)據(jù)分為輕度腐蝕、中度腐蝕、輕度破裂、中度破裂四類。

3 管道病害檢測(cè)

管道病害檢測(cè)過(guò)程包括圖像采集,消除繩索干擾,圖像分割,發(fā)現(xiàn)可疑病害,提取病害的LBP特征,訓(xùn)練SVM模型,識(shí)別管道病害,使用YOLOv4檢測(cè)病害。

3.1 圖像分割

本課題可疑管道病害位置對(duì)應(yīng)圖像分割部位。由于管道病害的紋理信息非常復(fù)雜,目標(biāo)僅是最外輪廓,因此基于相似度的分割效果不令人滿意。因此,選擇基于不連續(xù)性的分割來(lái)發(fā)現(xiàn)管道病害的邊緣。本文使用canny邊緣檢測(cè)算子[1]針對(duì)圖像進(jìn)行高斯濾波處理,使其噪聲得以消掉,以2N+1規(guī)格的模板對(duì)所有項(xiàng)目進(jìn)行掃描,對(duì)鄰域像素的加權(quán)灰度均值通過(guò)模板進(jìn)行確定,然后將模板中心像素灰度值進(jìn)行取代。根據(jù)一維高斯函數(shù)計(jì)算給定大小和Sigma的高斯卷積核參數(shù),并將計(jì)算出的高斯卷積核與灰度圖像進(jìn)行卷積。

對(duì)梯度的方向、幅度完成計(jì)算,再進(jìn)行非最大抑制處理,實(shí)現(xiàn)邊緣細(xì)化。計(jì)算梯度相應(yīng)值并將邊緣獲取以后,邊緣模糊性并未得到改善。正負(fù)梯度方向的像素邊緣程度與當(dāng)下像素對(duì)應(yīng)的邊緣程度對(duì)比分析。與掩模內(nèi)方向抑制的像素對(duì)比,后者邊緣程度更高,因此對(duì)應(yīng)數(shù)值保留。否則,該值將被抑制。

Canny算子邊緣檢測(cè)效果利用邊緣檢測(cè)、雙閾值來(lái)獲取。將Canny、Laplace和Sobel三種算子邊緣檢測(cè)效果對(duì)比分析,效果最為理想的就是Canny算子,對(duì)應(yīng)檢測(cè)效果圖如圖3所示。其中左側(cè)為管道病害,右側(cè)為Canny算子邊緣檢測(cè)。

3.2 發(fā)現(xiàn)可疑病害

考慮到不同類型的管道疾病可能出現(xiàn)在管道的不同位置,管道圖像被分為四個(gè)區(qū)域。區(qū)域A代表管道的頂部,區(qū)域B和區(qū)域C代表管道的兩側(cè),區(qū)域D是系統(tǒng)輸出信息,在圖4中查找管線病害的步驟中將忽略區(qū)域D。

將管線圖像劃分為四個(gè)區(qū)域后,找到圖像中的所有病害輪廓,并根據(jù)質(zhì)心的位置判斷輪廓的劃分。為了確定可疑病害區(qū)域的重要性,每個(gè)區(qū)域的最大輪廓將繪制在圖5中。

3.3 提取病害的LBP特征

病害邊緣獲取到還需要對(duì)其級(jí)別和種類進(jìn)行判斷。首先將其對(duì)應(yīng)的LBP特征獲取到,病害類型的區(qū)分通過(guò)線性SVM分類器實(shí)現(xiàn)。

LBP(局部二進(jìn)制圖案)[2]可以對(duì)圖像一部分的紋理特點(diǎn)進(jìn)行描述。最大的特點(diǎn)在于灰度和旋轉(zhuǎn)都是固定的。1994年T.Ojala等學(xué)者將其應(yīng)用在提取紋理特征上,并且這種觀點(diǎn)是第一次被提出。由于其簡(jiǎn)單性和易計(jì)算性,盡管其總體效果不如Haar功能,但它比Haar功能要快,因此已經(jīng)被廣泛使用。

3.4 訓(xùn)練SVM模型

本課題對(duì)于管道病害的辨別是通過(guò)支持向量機(jī)算法來(lái)實(shí)現(xiàn)的。將提取的LBP特征輸入SVM[3-4]分類器訓(xùn)練模型。

假設(shè)線性分離的情況為式(1),歸一化得到式(2)。

[H1:ωTxi+b≥1, yi=1H2:ωTxi+b≤-1, yi=-1]? ? ? ? ? ? ? ? ? (1)

[yi(ωTxi+b)≥1,i=1,….]? ? ? ? ? ? ? ? ? ? ? (2)

其中,[ω]是法線向量,[b]是位移項(xiàng),平面最初位置和超平面的間距因此而確定。[xi]是每個(gè)采樣點(diǎn)的特征,[yi]是采樣點(diǎn)[xi]的類別標(biāo)簽。H1和H2之間的距離是[1|ω|],分類間隔就是[2|ω|],最大和最小分類間隔面的間隔大小則為[2|ω|2],被稱為最佳分類超平面,也稱為SVM分類決策超平面,并且訓(xùn)練樣本點(diǎn)在H1和H2之間被稱為支持向量。因此,尋求最佳([ω],[ b])可以概括為式(3)的二次規(guī)劃問(wèn)題。

[min12∥ω∥2s.t. yiωTxi+b≥1,i=1,2,….]? ? ? ? ? ? ?(3)

相應(yīng)的分類決策函數(shù)如下:

[h(x)=i=1nαiyixTix+b]? ? ? ? ? ? ? ? ? ? ? ?(4)

其中,[b]是模型參數(shù),而[αi]是拉格朗日乘數(shù),[n]是采樣點(diǎn)個(gè)數(shù)。

SVM針對(duì)非線性狀態(tài)下,在預(yù)定非線性映射的作用下實(shí)現(xiàn)向量向高維特征空間的映射,并在其中完成最佳超平面的建立。

3.5 病害自動(dòng)識(shí)別的結(jié)果分析與比較

本文收集了20條具有不同類型管道病害和正常管道的管道視頻。對(duì)于具有管道病害的視頻,逐幀標(biāo)記了它們的管道病害。對(duì)于無(wú)病害的視頻,將其隨機(jī)分成多個(gè)部分。最終,獲得了8100例輕度腐蝕樣品,5100例中度腐蝕樣品,8600例輕度裂紋樣品和6400例中度裂紋樣品。本文隨機(jī)裁剪了31000個(gè)無(wú)病害管道圖像樣本。對(duì)管道圖像進(jìn)行預(yù)處理,以定位管道病害區(qū)域,如圖6所示,原圖對(duì)應(yīng)(a),Canny算子圖像和病害檢測(cè)圖像分別對(duì)應(yīng)(b)和(c)。

完成病害位置確定以后需要對(duì)其LBP特征進(jìn)行獲取。為了便于觀察和判斷,繪制病害特征的直方圖,如圖7所示。圖7(a)是中等腐蝕特征的直方圖,圖7(b)是輕度腐蝕特征的直方圖。

考慮到相同類型和不同等級(jí)的某些病害特征沒(méi)有顯著差異,針對(duì)管道病害的每個(gè)級(jí)別訓(xùn)練一個(gè)模型。如果僅訓(xùn)練一個(gè)多分類模型,分類精度將被很大程度地降低,由于部分輕度腐蝕和中等腐蝕圖像之間的特征差異很小,因此可以大大減少此類腐蝕。對(duì)于所有模型訓(xùn)練,數(shù)據(jù)集分成測(cè)試集、訓(xùn)練集,占比分別為30%和70%。本課題SVM確定應(yīng)用C_SVC,即C類支持向量分類器,核函數(shù)選擇線性核。

針對(duì)SVM模型訓(xùn)練精度的提升問(wèn)題,設(shè)定最大迭代次數(shù)是1000。將c和γ兩個(gè)訓(xùn)練參數(shù)數(shù)值設(shè)定為1,除此以外的所有參數(shù)數(shù)值都設(shè)定為0。

在測(cè)試集中,四種模式的準(zhǔn)確性輕度腐蝕,中等腐蝕,輕度裂紋和中度裂紋分別為95.18%,92.63%,91.59%和93.82%。以學(xué)習(xí)者預(yù)測(cè)結(jié)果為依據(jù)通過(guò)ROC曲線完成樣本排序,以此為標(biāo)準(zhǔn),將樣本作為一個(gè)正樣本進(jìn)行預(yù)測(cè),并每次計(jì)算兩個(gè)重要變量(TPR和FPR)的值,分別將它們作為水平和垂直坐標(biāo)進(jìn)行繪圖。輕度腐蝕模型的ROC曲線圖如下圖所示。位于ROC曲線以下位置的面積用AUC表示,其范圍為0.1-1。分類器對(duì)于數(shù)值能夠直接評(píng)估。該值越大越好。輕度腐蝕模型的AUC為0.77。

最后,將管道病害的類型,程度和位置輸出到具有指定格式的二進(jìn)制文件。如圖8所示。病害檢測(cè)程序界面、記錄病害信息的輸出二進(jìn)制文件分別如圖9(a)和9(b)所示。

3.6 使用YOLOv4檢測(cè)病害

YOLO全稱You Only Look Once。YOLOv4[5]是one-stage檢測(cè)算法。屬于Proposal-free方法,候選區(qū)形成是沒(méi)有必要的,對(duì)各種目標(biāo)定位或類型確定都可以通過(guò)CNN網(wǎng)絡(luò)直接進(jìn)行預(yù)測(cè),物體位置和類型概率也能夠直接形成,檢測(cè)結(jié)果利用單次檢測(cè)能夠一次性獲取,檢測(cè)效率得到有效保證。

YOLOv4 的目標(biāo)識(shí)別使用了Multi-Scale策略,包括Multi-Scale Train和Multi-Scale Predict。Multi-Scale Train是在訓(xùn)練時(shí)采用不同尺寸的圖片作為輸入,這樣可以使模型適應(yīng)不同大小的圖片;Multi-Scale Predict是在預(yù)測(cè)時(shí)取不同尺寸的下采樣——即FPN(Feature Pyramid Networks)架構(gòu),YOLOv4分別在sub_sample=32、16和8處做目標(biāo)檢測(cè),這樣可以預(yù)測(cè)多尺寸的目標(biāo)。預(yù)測(cè)類別只是在標(biāo)簽方面有所改變,即單標(biāo)簽分類向多標(biāo)簽分類轉(zhuǎn)變。YOLOv4 的數(shù)據(jù)增強(qiáng)Mosaic(馬賽克),把四張圖拼成一張圖來(lái)訓(xùn)練,變相等價(jià)于增大了mini-batch。YOLO v4 的Self-Adversarial Training(自對(duì)抗訓(xùn)練)在一張圖上,讓神經(jīng)網(wǎng)絡(luò)反向更新圖像,對(duì)圖像做改變擾動(dòng),然后在這個(gè)圖像上訓(xùn)練。通常圖像實(shí)現(xiàn)風(fēng)格化都會(huì)選擇該方法來(lái)完成,風(fēng)格化過(guò)程實(shí)際上就是利用網(wǎng)絡(luò)將圖像進(jìn)行反向處理。

YOLOv4的訓(xùn)練結(jié)果與檢測(cè)效果分別見(jiàn)圖10、圖11,mAP@0.5達(dá)到了92%。

4 基于SLAM的深度獲取

在以往的檢測(cè)中,只利用了圖片的二維信息,缺失了三維信息—深度,單目視覺(jué)SLAM技術(shù)[6]能夠通過(guò)二維圖像完成深度這個(gè)三維信息的預(yù)測(cè)。

照片本質(zhì)上是拍照時(shí)的場(chǎng)景(Scene)在相機(jī)的成像平面上留下的一個(gè)投影。將三維空間通過(guò)二維模式展示,展示過(guò)程中距離或者深度這個(gè)三維空間的維度就會(huì)被忽略。

想要恢復(fù)三維結(jié)構(gòu),需要單目相機(jī)拍攝的臨近的照片,這樣就能使用單目SLAM估計(jì)它的運(yùn)動(dòng)(Motion),同時(shí)估計(jì)場(chǎng)景中物體的遠(yuǎn)近和大小與結(jié)構(gòu)(Structure)。當(dāng)相機(jī)移動(dòng)方向?yàn)橛?,圖像移動(dòng)方向?yàn)樽髸r(shí),可以借此規(guī)律完成運(yùn)動(dòng)的推測(cè)。并且,距離更近的移動(dòng)速度就更快,距離較遠(yuǎn)的運(yùn)動(dòng)速度就慢。移動(dòng)相機(jī)的過(guò)程中,圖像運(yùn)動(dòng)會(huì)隨之產(chǎn)生視差,利用視差可以對(duì)物體距離進(jìn)行判定。

4.1 特征提取和匹配

SLAM中重點(diǎn)部分就是視覺(jué)前端,以臨近圖像信息對(duì)相機(jī)運(yùn)動(dòng)進(jìn)行預(yù)測(cè)?;谔卣鼽c(diǎn)法的前端來(lái)說(shuō)始終是計(jì)算視覺(jué)里程的最廣泛的計(jì)算方法。動(dòng)態(tài)物體與光照對(duì)其沒(méi)有影響,并且運(yùn)行更加平穩(wěn),在如今應(yīng)用非常廣泛。本文將使用特征點(diǎn)法,提取、匹配圖像特征點(diǎn),然后估計(jì)兩幀之間的相機(jī)運(yùn)動(dòng)和場(chǎng)景結(jié)構(gòu),從而完成深度的估計(jì)。

4.1.1 特征點(diǎn)

特征點(diǎn)由兩部分構(gòu)成,其一為描述子,其二為關(guān)鍵點(diǎn)。本文將使用ORB[7]提取特征。對(duì)于描述子來(lái)說(shuō),其本質(zhì)是向量,以特定設(shè)計(jì)方法完成該點(diǎn)附近像素信息的獲取。其設(shè)計(jì)原則為特征相似則對(duì)應(yīng)描述子也是相似的。提取過(guò)程中主要負(fù)責(zé)對(duì)ORB關(guān)鍵點(diǎn)的提取,然后對(duì)ORB描述子進(jìn)行計(jì)算。圖像中特征點(diǎn)位置即為關(guān)鍵點(diǎn),還有一部分特征將大小和方向等信息也包含在內(nèi)。所以向量空間中這兩個(gè)特征點(diǎn)相距很近的情況下,就判定為相同特征點(diǎn)。

4.1.2 ORB特征

ORB特征也是由兩部分構(gòu)成,其一為描述子,其二為關(guān)鍵點(diǎn)(Oriented FAST)。是一種改進(jìn)的FAST角點(diǎn)[8]。它的描述子稱為BRIEF(Binary Robust Independent Elementary Features)[9]。提取過(guò)程如下:

1)提取FAST角點(diǎn):將圖像內(nèi)角點(diǎn)確定,與原圖FAST對(duì)比,特征點(diǎn)主方向在ORB內(nèi)計(jì)算過(guò),使后面的BRIEF描述子具有旋轉(zhuǎn)不變特性。

2)BRIEF描述子:對(duì)上部特征點(diǎn)附近圖像完成描述。

4.1.3 特征匹配

視覺(jué)SLAM中特征匹配是非常重要的,簡(jiǎn)單來(lái)講SLAM數(shù)據(jù)關(guān)聯(lián)這一問(wèn)題通過(guò)特征匹配有效解決,也就是對(duì)前面看到的以及當(dāng)下看到的特征點(diǎn)關(guān)聯(lián)性進(jìn)行確定。精準(zhǔn)的完成圖像和地圖、圖像之間的描述子的匹配,使相機(jī)運(yùn)動(dòng)求解負(fù)擔(dān)大幅減緩。

視覺(jué)SLAM中特征匹配是非常重要的。精準(zhǔn)的完成圖像和地圖、圖像之間的描述子的匹配,使相機(jī)運(yùn)動(dòng)求解負(fù)擔(dān)大幅減緩。本課題對(duì)于特征匹配方法的選擇最終確定為蠻力匹配(Brute-Force Matcher)。即對(duì)一張圖片中所有特征點(diǎn)與另一張圖片中所有特征點(diǎn)測(cè)量描述子的距離,然后排序,取最近的一個(gè)作為匹配點(diǎn)。特征間相似度通過(guò)描述子間距來(lái)體現(xiàn)。實(shí)踐中距離度量范數(shù)也需要選擇不同的。本課題采用BRIEF二進(jìn)制描述子,通過(guò)漢明距離(Hamming distance)作為度量——2個(gè)二進(jìn)制串不同位數(shù)的數(shù)量就是漢明距離。

特征匹配過(guò)程沒(méi)有進(jìn)行篩選,因此誤匹配的情況比較多(圖14)。本課題篩選標(biāo)準(zhǔn)是漢明距離是比最小距離2倍要小,這種方法是根據(jù)工程經(jīng)驗(yàn)進(jìn)行總結(jié)的。以此為標(biāo)準(zhǔn)篩選結(jié)束后,匹配總量會(huì)變少,不過(guò)基本上沒(méi)有誤匹配(圖15)。

4.2 求解相機(jī)運(yùn)動(dòng)

結(jié)合匹配點(diǎn)對(duì)之間的聯(lián)系將兩幀之中攝像機(jī)運(yùn)動(dòng)進(jìn)行恢復(fù)。

相機(jī)姿態(tài)解算——本質(zhì)矩陣求解。

本質(zhì)矩陣(Essential Matrix),是對(duì)極幾何(Epipolar geometry)[10]理論中的一個(gè)基本參量,是在三維坐標(biāo)系下,用來(lái)連接兩個(gè)對(duì)應(yīng)點(diǎn)的矩陣關(guān)系。

計(jì)算流程是利用兩張照片的匹配的點(diǎn)對(duì)估算本質(zhì)矩陣(Essential Matrix)[11-12],最后通過(guò)對(duì)本質(zhì)矩陣的SVD分解和其他操作取得相機(jī)的平移(Shifting)和旋轉(zhuǎn)(Rotation)。

由得到的匹配點(diǎn)對(duì)求得的相機(jī)運(yùn)動(dòng)如圖16。

4.3 求解深度

在上文中,使用對(duì)極幾何約束估計(jì)了相機(jī)運(yùn)動(dòng),也討論這種方法的局限性。相機(jī)運(yùn)動(dòng)獲取后,要對(duì)相機(jī)運(yùn)動(dòng)估計(jì)特征點(diǎn)空間位置進(jìn)行應(yīng)用。SLAM內(nèi)憑借一個(gè)圖像不能對(duì)像素更深層次的理解,地圖點(diǎn)深度在建立三角測(cè)量后能夠?qū)崿F(xiàn)預(yù)估。

三角測(cè)量方法是針對(duì)相同夾角通過(guò)兩個(gè)角度進(jìn)行觀測(cè),進(jìn)而對(duì)其距離進(jìn)行確定。高斯最先提出這種方法,如今在地理學(xué)和天文學(xué)等多個(gè)領(lǐng)域廣泛應(yīng)用。比如,針對(duì)同一顆星星在四季中觀測(cè),對(duì)視角和距離無(wú)法成比例。SLAM下像素點(diǎn)的間距的預(yù)算是通過(guò)三角化方法來(lái)實(shí)現(xiàn)的。

由匹配點(diǎn)和相機(jī)運(yùn)動(dòng)通過(guò)三角測(cè)量可以求得深度,例如第一對(duì)匹配點(diǎn)對(duì)(圖17)的深度如圖18。

5 結(jié)束語(yǔ)

本課題是以視頻為基礎(chǔ)的管道病害檢測(cè),將LBR特征成功獲取,以LBR訓(xùn)練SVM分類模型,進(jìn)而得到測(cè)試模型分類辨別效果。測(cè)試證明,本文訓(xùn)練SVM模型的準(zhǔn)確性可以達(dá)到超過(guò)90%,則AUC可以達(dá)到0.77。使用YOLOv4的管道病害檢測(cè),mAP@0.5達(dá)到了92%。本方法克服了傳統(tǒng)人工識(shí)別的成本大、主觀性強(qiáng)、效率低等缺點(diǎn),有良好的泛化性和魯棒性,這有利于未來(lái)的城市管道維修工作。當(dāng)然,該方法仍有很多不足,比如實(shí)際工程中管道病害類型不止這四種,還有裂縫、侵蝕等。還可以加入深度學(xué)習(xí)處理方法,可以省去一些復(fù)雜的方法,同時(shí)具有良好的識(shí)別準(zhǔn)確率。

本文用單目視覺(jué)SLAM技術(shù)求得了深度,但這仍然只是一個(gè)相對(duì)的值。若將場(chǎng)景和相機(jī)運(yùn)動(dòng)共同擴(kuò)大隨意倍數(shù),能夠看到的像都是相同的,對(duì)應(yīng)深度也一樣。利用單目SLAM對(duì)深度進(jìn)行估測(cè),與實(shí)際情況對(duì)比少了尺度因子。深度計(jì)算必須在平移后進(jìn)行,而且只依靠圖像還不能對(duì)其實(shí)際尺寸進(jìn)行確定,這是單目SLAM面臨的最大問(wèn)題。其根本原因是通過(guò)單張圖像無(wú)法確定深度,所以可以使用雙目和深度相機(jī)以求得真實(shí)的深度。

參考文獻(xiàn):

[1] 余洪山,王耀南.一種改進(jìn)型Canny邊緣檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2004,40(20):27-29.

[2] Ojala T,Pietikainen M,Harwood D.Performance evaluation of texture measures with classification based on Kullback discrimination of distributions[C]//Proceedings of 12th International Conference on Pattern Recognition.October 9-13,1994,Jerusalem,Israel.IEEE,1994:582-585.

[3] Vapnik V N.Statistical Learning Theory[J].Annals of the Institute of Statistical Mathematics,2003,55(2):371-389.

[4] Huang K Z,Zheng D N,Sun J,et al.Sparse learning for support vector classification[J].Pattern Recognition Letters,2010,31(13):1944-1951.

[5] Bochkovskiy A,Wang C Y,Liao H Y M.YOLOv4:optimal speed and accuracy of object detection[EB/OL].[2021-05-26].https://arxiv.org/abs/2004.10934.

[6] Liu H,Zhang G,Bao H.A survey of monocular simultaneous localization and mapping[J]. Journal of Computer-Aided Design & Computer Graphics, 2016,28(6):855-868.

[7] Rublee E,Rabaud V,Konolige K,et al.ORB:an efficient alternative to SIFT or SURF[C]//2011 International Conference on Computer Vision.November 6-13,2011,Barcelona,Spain.IEEE,2011:2564-2571.

[8] Rosten E,Drummond T.Machine learning for high-speed corner detection[M]//Computer Vision – ECCV 2006.Berlin,Heidelberg:Springer Berlin Heidelberg,2006:430-443.

[9] Calonder M,Lepetit V,Strecha C,et al.BRIEF:binary robust independent elementary features [C]//European Conference on Computer Vision.Springer,Berlin,Heidelberg,2010.

[10] Hartley R,Zisserman A.Multiple view geometry in computer vision[M].2nd ed.Cambridge University Press,2003.

[11] Li H,Hartley R.Five-Point Motion Estimation Made Easy[C]//18th International Conference on Pattern Recognition (ICPR'06).IEEE,2006.

[12] Nister D.An efficient solution to the five-point relative pose problem[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2004,26(6):756-770.

【通聯(lián)編輯:謝媛媛】

猜你喜歡
計(jì)算機(jī)視覺(jué)特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
雙目攝像頭在識(shí)別物體大小方面的應(yīng)用
機(jī)器視覺(jué)技術(shù)發(fā)展及其工業(yè)應(yīng)用
危險(xiǎn)氣體罐車(chē)液位計(jì)算機(jī)視覺(jué)監(jiān)控識(shí)別報(bào)警系統(tǒng)設(shè)計(jì)
計(jì)算機(jī)視覺(jué)在交通領(lǐng)域的應(yīng)用
基于計(jì)算機(jī)視覺(jué)的細(xì)小顆粒團(tuán)重量測(cè)量的研究
湛江市| 镇坪县| 凤山市| 永仁县| 乾安县| 佛学| 徐州市| 望谟县| 英超| 丰台区| 光泽县| 长宁县| 资中县| 宝兴县| 九龙县| 犍为县| 三明市| 枣强县| 洛浦县| 襄城县| 通河县| 万全县| 广南县| 临沭县| 宁河县| 普兰县| 溧阳市| 从江县| 阿巴嘎旗| 剑河县| 微山县| 金堂县| 西吉县| 海安县| 黄山市| 登封市| 新余市| 洛阳市| 化州市| 永泰县| 九龙城区|