国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于機(jī)器學(xué)習(xí)的公路橋梁裂縫檢測(cè)技術(shù)分析

2024-05-29 23:51:41包麗霞
交通科技與管理 2024年9期
關(guān)鍵詞:機(jī)器學(xué)習(xí)公路橋梁

收稿日期:2024-01-09

作者簡(jiǎn)介:包麗霞(1982—),女,本科,工程師,研究方向:道路與橋梁。

摘要 裂縫是橋梁結(jié)構(gòu)中常見(jiàn)的破損形式,需要對(duì)其進(jìn)行及時(shí)檢測(cè)和評(píng)估。機(jī)器學(xué)習(xí)為橋梁裂縫檢測(cè)提供了一種新的解決方案,文章聚焦于機(jī)器學(xué)習(xí)在橋梁裂縫檢測(cè)中的應(yīng)用,分別分析了VGGNet、AlexNet和ResNet三種深度學(xué)習(xí)模型在圖像分類方面的應(yīng)用,以及FasterRCNN、YOLOv3和YOLOv4三種模型在目標(biāo)檢測(cè)方面的性能。研究結(jié)果表明,VGG16精確度表現(xiàn)出色,YOLOv4則能夠在維持高速度檢測(cè)的同時(shí)提升檢測(cè)精確性。

關(guān)鍵詞 機(jī)器學(xué)習(xí);公路橋梁;裂縫檢測(cè)技術(shù)

中圖分類號(hào) U446文獻(xiàn)標(biāo)識(shí)碼 A文章編號(hào) 2096-8949(2024)09-0110-03

0 引言

橋梁結(jié)構(gòu)隨運(yùn)營(yíng)時(shí)間增長(zhǎng)出現(xiàn)各種裂縫損傷,傳統(tǒng)裂縫檢測(cè)方法難以保證檢測(cè)的準(zhǔn)確性和及時(shí)性。隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,公路橋梁可利用先進(jìn)圖像識(shí)別和目標(biāo)檢測(cè)算法提高裂縫檢測(cè)效率。該文旨在探索和分析基于機(jī)器學(xué)習(xí)的公路橋梁裂縫檢測(cè)方法,為橋梁健康監(jiān)測(cè)和維護(hù)提供技術(shù)支持。

1 基于機(jī)器學(xué)習(xí)的圖像識(shí)別算法模型

1.1 VGGNet模型

VGGNet模型深度和參數(shù)量大、運(yùn)算成本較高,需要較大的存儲(chǔ)空間和計(jì)算資源,其使用多達(dá)19層的網(wǎng)絡(luò)提取圖像特征,采用多個(gè)小型卷積核(通常為3×3)連續(xù)卷積,使得網(wǎng)絡(luò)在保持感受野的同時(shí)能夠更深入地學(xué)習(xí)圖像特征。VGGNet模型的一般結(jié)構(gòu)可以表示為連續(xù)卷積層(Convolutional Layers),后接最大池化層(Max Pooling Layers)[1-2]。卷積層主要用于提取圖像中的局部特征,最大池化層則用于降低特征空間維度、增強(qiáng)模型泛化能力。網(wǎng)絡(luò)的末端由幾個(gè)全連接層(Fully Connected Layers)組成,用于最終的任務(wù)分類。VGGNet卷積層計(jì)算方法可表示為:

f(x)=max(0,W×x+b) (1)

式中,f(x)——ReLU激活函數(shù),表示卷積層的輸出;W——卷積核的權(quán)重矩陣;x——輸入圖像或上一層的輸出圖像;b——偏置項(xiàng),用于引入非線性。

1.2 AlexNet模型

AlexNet模型標(biāo)志著深度學(xué)習(xí)時(shí)代在圖像識(shí)別領(lǐng)域的開始,其結(jié)構(gòu)包含5個(gè)卷積層和3個(gè)全連接層。AlexNet第一個(gè)卷積層使用較大的卷積核(11×11),步長(zhǎng)為4,能夠在較大尺寸的圖像上捕捉更多的細(xì)節(jié)。隨后的卷積層使用較小的卷積核(5×5和3×3),以提高特征提取的精度。其ReLU激活函數(shù)公式如下:

g(x)=max(0,x) (2)

式中,g(x)——激活函數(shù)的輸出;x——輸入。Dropout技術(shù)則通過(guò)隨機(jī)丟棄一部分神經(jīng)元、減少模型對(duì)特定節(jié)點(diǎn)的依賴,從而有效防止過(guò)擬合。

1.3 ResNet模型

ResNet(Residual Network)模型引入殘差學(xué)習(xí)(Residual Learning)的概念,構(gòu)建了深達(dá)152層的網(wǎng)絡(luò),其核心思想是在網(wǎng)絡(luò)中引入“跳躍連接”(或稱為“快捷連接”),直接將輸入添加到輸出[3-4]。若將網(wǎng)絡(luò)的輸入表示為x,殘差函數(shù)表示為F(x),則輸出可以表示為F(x)+x,其基本公式為:

y=F(x,{Wi})+x (3)

式中,y——網(wǎng)絡(luò)的輸出;F(x,{Wi})——?dú)埐钣成?;{Wi}——?dú)埐钣成渲袑W(xué)習(xí)的權(quán)重集合;x——輸入。

2 基于機(jī)器學(xué)習(xí)的目標(biāo)檢測(cè)

2.1 FasterRCNN

FasterRCNN(Faster Region-based Convolutional Neural Network)在R-CNN和Fast R-CNN的基礎(chǔ)上發(fā)展而來(lái),其引入了區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network, RPN)。FasterRCNN的架構(gòu)主要分為四個(gè)部分:特征提取網(wǎng)絡(luò)、RPN、RoI(Region of Interest)池化層和全連接層(如圖1所示)。特征提取網(wǎng)絡(luò)通常使用預(yù)訓(xùn)練的VGG16或ResNet-50卷積神經(jīng)網(wǎng)絡(luò),從輸入圖像中提取特征,流程圖如圖1所示。

FasterRCNN利用RPN滑動(dòng)窗口在特征圖上運(yùn)行,為每個(gè)位置生成多個(gè)固定大小的錨框(anchor boxes),以不同尺寸和縱橫比覆蓋圖像中可能的對(duì)象位置,并進(jìn)行二元分類(對(duì)象或非對(duì)象)和邊界框回歸優(yōu)化錨框[5]。RoI池化層則從每個(gè)建議區(qū)域中提取固定大小的特征映射,隨后在全連接層中進(jìn)行最終的對(duì)象分類和邊界框的精確調(diào)整。這一過(guò)程中,RPN和檢測(cè)網(wǎng)絡(luò)可以共享卷積特征并同時(shí)進(jìn)行優(yōu)化。

圖1 FasterRCNN流程圖

2.2 Y0L0v3

YOLOv3(You Only Look Once version 3)能夠在單次前向傳播中同時(shí)進(jìn)行對(duì)象檢測(cè)和分類,其架構(gòu)基于Darknet-53。YOLOv3能夠在三個(gè)不同的尺度上進(jìn)行目標(biāo)檢測(cè),從而有效地檢測(cè)到不同大小的對(duì)象。在檢測(cè)過(guò)程中,網(wǎng)絡(luò)將輸入圖像劃分為S×S網(wǎng)格,每個(gè)網(wǎng)格單元負(fù)責(zé)預(yù)測(cè)B個(gè)邊界框和每個(gè)邊界框的C個(gè)類別概率。邊界框預(yù)測(cè)包括四個(gè)坐標(biāo)值(中心x, y,寬度,高度)和一個(gè)置信度得分。在此基礎(chǔ)上,YOLOv3引入了多標(biāo)簽分類(與FasterRCNN的多類別分類不同),在PASCAL VOC和COCO數(shù)據(jù)集上顯示出優(yōu)異的性能。

2.3 Y0L0v4

YOLOv4(You Only Look Once version 4)架構(gòu)基于CSPDarknet53,該架構(gòu)能夠有效降低計(jì)算復(fù)雜度并提高處理速度,采用PANet(Path Aggregation Network)增強(qiáng)特征融合網(wǎng)絡(luò)結(jié)構(gòu)可以改善小尺度對(duì)象的檢測(cè)性能。在數(shù)據(jù)增強(qiáng)方面,YOLOv4使用Mosaic和CutMix等技術(shù)對(duì)多張圖像中的部分區(qū)域進(jìn)行組合,并生成新訓(xùn)練樣本,以增加模型訓(xùn)練的復(fù)雜度及多樣性。

3 基于機(jī)器學(xué)習(xí)的公路橋梁裂縫檢測(cè)方法

3.1 特征提取

特征提取主要包括兩個(gè)方面:利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)、應(yīng)用傳統(tǒng)圖像處理技術(shù)。在進(jìn)行裂縫檢測(cè)時(shí)可以使用VGG-16、ResNet-50等預(yù)訓(xùn)練網(wǎng)絡(luò),其包含多個(gè)卷積層,每個(gè)層都能從圖像中提取不同層次的特征。VGG-16包含16層,其中有13個(gè)卷積層和3個(gè)全連接層,而ResNet-50則有50層,包括卷積層、批歸一化層和殘差連接等。神經(jīng)網(wǎng)絡(luò)可以從橋梁圖像中提取邊緣、紋理、形狀等特征,用于后續(xù)的裂縫識(shí)別。

傳統(tǒng)的圖像處理技術(shù)可以應(yīng)用Sobel算子邊緣檢測(cè)技術(shù),以突出裂縫邊緣特征,Canny邊緣檢測(cè)算法則能夠在降噪后計(jì)算梯度的幅值以檢測(cè)邊緣?;叶裙采仃嚕℅LCM)可以計(jì)算像素對(duì)的頻率分布,以描述圖像的紋理特征,幫助分析裂縫周圍的紋理模式。綜合運(yùn)用上述方法,能夠在特征提取階段得到包含多維特征的特征向量,以用于裂縫的識(shí)別和分類。在實(shí)際操作中,需要根據(jù)具體圖像數(shù)據(jù)和裂縫特性調(diào)整CNN模型,如學(xué)習(xí)率、批大小、Canny算法的閾值、GLCM的窗口大小,進(jìn)而優(yōu)化特征提取過(guò)程。

3.2 裂縫識(shí)別

支持向量機(jī)(SVM)是常用裂縫識(shí)別分類器,其可以根據(jù)特征提取階段得到的特征向量來(lái)識(shí)別裂縫和非裂縫區(qū)域。SVM關(guān)鍵參數(shù)包括核函數(shù)類型(線性核、多項(xiàng)式核、徑向基函數(shù)核)、正則化參數(shù)C和核函數(shù)的參數(shù)(多項(xiàng)式核度數(shù)或RBF核γ值),使用RBF核的SVM需要調(diào)整γ值和C值以獲得最佳性能。其中,RBF核的表達(dá)式為:

(4)

式中,K(xi,xj)——RBF核函數(shù),用于計(jì)算樣本xi、xj間相似度;γ——RBF核的自由參數(shù),決定了決策邊界的平滑程度;——兩個(gè)樣本點(diǎn)之間的歐幾里得距離的平方。

隨機(jī)森林(Random Forest)由多個(gè)決策樹組成,每棵樹在訓(xùn)練過(guò)程中使用隨機(jī)選擇的特征子集,其關(guān)鍵參數(shù)包括樹的數(shù)量、樹的深度和特征選擇的方法,增加樹的數(shù)量可以提高模型的穩(wěn)定性和準(zhǔn)確性。神深度神經(jīng)網(wǎng)絡(luò)可以利用多層非線性變換捕捉復(fù)雜特征關(guān)系,其關(guān)鍵參數(shù)包括網(wǎng)絡(luò)層數(shù)、每層神經(jīng)元數(shù)量、激活函數(shù)類型(ReLU、Sigmoid)、學(xué)習(xí)率和正則化策略(Dropout、L2正則化)。YOLOv3或YOLOv4等目標(biāo)檢測(cè)模型能夠利用卷積神經(jīng)網(wǎng)絡(luò)提取特征,并利用錨框機(jī)制進(jìn)行邊界框預(yù)測(cè),其關(guān)鍵參數(shù)包括輸入圖像的尺寸、錨框的尺寸和縱橫比、置信度閾值和非極大值抑制(NMS)的閾值。

4 圖像分類模型與目標(biāo)檢測(cè)模型實(shí)驗(yàn)分析

4.1 實(shí)驗(yàn)準(zhǔn)備

4.1.1 數(shù)據(jù)集采集

該次實(shí)驗(yàn)數(shù)據(jù)集共包含15 000張高分辨率圖像,每張圖像的分辨率統(tǒng)一調(diào)整至1 280×960像素,圖像均有明確的裂縫位置、參數(shù)以及裂縫類型。

4.1.2 評(píng)價(jià)指標(biāo)

圖像分類任務(wù)主要關(guān)注準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)和F1得分。目標(biāo)檢測(cè)模型除上述指標(biāo)外,還專注于平均精度均值(Mean

Average Precision, mAP)及交并比(Intersection over Union,

IoU)。mAP計(jì)算公式為:

(5)

式中,N——類別總數(shù);APi——第i個(gè)類別的平均精度,代表該類別上模型的精確率-召回率曲線下的面積。

具體指標(biāo)如表1所示。

4.1.3 實(shí)驗(yàn)環(huán)境

該次實(shí)驗(yàn)配置了具有高性能計(jì)算能力的專業(yè)硬件,以及當(dāng)前領(lǐng)先的深度學(xué)習(xí)框架,具體如表2所示。

4.2 實(shí)驗(yàn)分析

4.2.1 圖像分類識(shí)別算法模型對(duì)比分析

該次實(shí)驗(yàn)深入分析了三種圖像分類識(shí)別算法模型:AlexNet、VGG16和ResNet34。AlexNet結(jié)構(gòu)相對(duì)簡(jiǎn)單,裂縫檢測(cè)任務(wù)精確度大約86.9%。VGG16模型計(jì)算負(fù)荷有明顯增加,但能更深入地提取圖像特征。ResNet34裂縫檢測(cè)精確度約為95.8%,證明了深度和殘差連接的有效性。具體對(duì)比分析結(jié)果如表3所示。

整體而言,三種模型各有優(yōu)勢(shì)和局限性。AlexNet能夠在簡(jiǎn)單網(wǎng)絡(luò)結(jié)構(gòu)下具備良好的基準(zhǔn)性能,VGG16精確度較高,ResNet34則在保持相對(duì)較低模型大小的同時(shí)實(shí)現(xiàn)了最佳精確度。

4.2.2 目標(biāo)檢測(cè)模型對(duì)比分析

該次實(shí)驗(yàn)對(duì)FasterRCNN、YOLOv3和YOLOv4三種目標(biāo)檢測(cè)模型進(jìn)行了詳盡的對(duì)比分析,具體結(jié)果如表4所示。其中,F(xiàn)asterRCNN模型的參數(shù)量大約為210 MB,裂縫檢測(cè)召回率為88%、精確度達(dá)到91.7%、F1得分為0.89,其mAP達(dá)到90%,而IoU分?jǐn)?shù)為0.75。

YOLOv3模型的參數(shù)量為236 MB,裂縫檢測(cè)召回率為83.9%,精確度為88.6%、F1得分為0.79,其mAP為85%,IoU分?jǐn)?shù)為0.72。盡管YOLOv3模型在速度方面具備優(yōu)勢(shì),但在精確度和召回率方面略遜于FasterRCNN模型。

YOLOv4模型的參數(shù)量為244 MB,裂縫檢測(cè)召回率為85.7%、精確度為90.8%、F1得分為0.87,其mAP為87.4%,IoU分?jǐn)?shù)為0.74,能夠在維持高速檢測(cè)的同時(shí)顯著提升檢測(cè)精確性。

表1 評(píng)價(jià)指標(biāo)參數(shù)

指標(biāo) 描述

準(zhǔn)確率Accuracy 正確分類的樣本數(shù)/總樣本數(shù)

精確率Precision 真正類(TP)/[真正類(TP)+假正類(FP)]

召回率Recall 真正類(TP)/[真正類(TP)+假負(fù)類(FN)]

F1得分F1 Score 2*(Precision*Recall)/(Precision+Recall)

平均精度均值mAP 平均精度均值,模型在所有類別和

召回率條件下的平均表現(xiàn)

交并比IoU 預(yù)測(cè)邊界框與實(shí)際邊界框的交集/并集

表2 軟硬件配置數(shù)據(jù)

軟硬件配置 具體名稱

CPU Intel Core i9-10900K

GPU NVIDIA GeForce RTX 3080

內(nèi)存 64GB DDR4 RAM

存儲(chǔ) 1TB NVMe SSD

操作系統(tǒng) Ubuntu 20.04 LTS

深度學(xué)習(xí)框架 TensorFlow 2.4.1

PyTorch 1.8.1

Keras 2.4.3

并行計(jì)算框架 CUDA 11.2

深度學(xué)習(xí)庫(kù) cuDNN 8.1

表3 圖像分類識(shí)別算法模型的對(duì)比分析

模型 模型復(fù)雜度 模型參數(shù)量/MB 精確度P/%

AlexNet 簡(jiǎn)單 55.71 86.9

VGG16 中等 275.63 95.6

ResNet34 復(fù)雜 81.6 95.8

5 結(jié)束語(yǔ)

該文對(duì)基于機(jī)器學(xué)習(xí)的公路橋梁裂縫檢測(cè)技術(shù)進(jìn)行了全面分析和實(shí)驗(yàn)驗(yàn)證,研究結(jié)果證明VGGNet在精確度上表現(xiàn)優(yōu)異,而ResNet則能夠有效解決深度網(wǎng)絡(luò)訓(xùn)練問(wèn)題;FasterRCNN裂縫識(shí)別更為準(zhǔn)確,而YOLOv3和YOLOv4則更適用于實(shí)時(shí)檢測(cè)。未來(lái)研究可以聚焦于優(yōu)化模型的計(jì)算效率,以探索更高效的數(shù)據(jù)增強(qiáng)和遷移學(xué)習(xí)策略。

參考文獻(xiàn)

[1]曹升亮, 趙礽曄. 基于圖像分析的橋梁裂縫檢測(cè)技術(shù)應(yīng)用[J]. 建筑機(jī)械, 2023(6): 78-81.

[2]丁少?gòu)?qiáng). 道路橋梁裂縫識(shí)別技術(shù)的研究[J]. 汽車周刊, 2023(1): 114-115.

[3]賈瀟宇. 基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫識(shí)別研究[J]. 中國(guó)新通信, 2022(9): 34-36.

[4]廖祥燦, 李彩林, 姚玉凱, 等. 基于改進(jìn)YOLO V5的公路橋梁裂縫檢測(cè)方法[J]. 山東理工大學(xué)學(xué)報(bào): 自然科學(xué)版, 2023(4): 1-7.

[5]李國(guó)燕, 梁家棟, 劉毅. MFC-DeepLabV3+: 一種多特征級(jí)聯(lián)融合裂縫缺陷檢測(cè)網(wǎng)絡(luò)模型[J]. 鐵道科學(xué)與工程學(xué)報(bào), 2023(4): 1370-1381.

[6]楊帆. 基于數(shù)字圖像的混凝土橋梁裂縫檢測(cè)技術(shù)[J]. 科學(xué)技術(shù)創(chuàng)新, 2023(10): 126-129.

猜你喜歡
機(jī)器學(xué)習(xí)公路橋梁
基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
基于機(jī)器學(xué)習(xí)的圖像特征提取技術(shù)在圖像版權(quán)保護(hù)中的應(yīng)用
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測(cè)分析
前綴字母為特征在維吾爾語(yǔ)文本情感分類中的研究
針對(duì)公路橋梁路基路面施工技術(shù)的分析
科技視界(2016年21期)2016-10-17 19:20:12
公路橋梁加固設(shè)計(jì)及其施工建議
基于支持向量機(jī)的金融數(shù)據(jù)分析研究
鉆孔灌注樁施工技術(shù)在公路橋梁施工中的應(yīng)用
淺談在公路橋梁施工環(huán)節(jié)的質(zhì)量管理及控制
科技視界(2016年20期)2016-09-29 13:11:33
試析公路橋梁檢測(cè)技術(shù)與現(xiàn)實(shí)中的運(yùn)用
科技視界(2016年20期)2016-09-29 13:09:26
勐海县| 沛县| 黎城县| 沽源县| 合川市| 磴口县| 疏勒县| 修文县| 南通市| 唐河县| 福泉市| 津南区| 逊克县| 锡林浩特市| 江安县| 汉川市| 舞钢市| 临高县| 新丰县| 舒兰市| 塘沽区| 双流县| 牙克石市| 鄢陵县| 岱山县| 无极县| 白水县| 厦门市| 葵青区| 安吉县| 康保县| 华安县| 自贡市| 阿瓦提县| 太仓市| 清水河县| 信丰县| 政和县| 密山市| 云林县| 和平县|