国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學習技術的纖維混凝土CT圖像中短切玻璃纖維的快速識別模型

2021-03-05 06:32李他單
工程與建設 2021年6期
關鍵詞:類別像素準確率

張 鵬, 洪 麗,2,3, 李他單

(1.合肥工業(yè)大學 土木與水利工程學院, 安徽 合肥 230009;2.同濟大學工程結構服役性能演化與控制教育部重點實驗室, 上海 200092;3.合肥水泥研究設計院有限公司,安徽 合肥 230051)

0 引 言

混凝土以擁有眾多優(yōu)點而被廣泛應用于建筑工程中。但是混凝土的抗拉強度低,易開裂,嚴重影響其耐久性和安全性。研究顯示[1],纖維的摻入能夠有效抑制裂縫的開展,明顯提高混凝土的抗拉性能和抗裂能力。然而,纖維在基體中的分布對其增強效果有重要影響[2]。大量研究表明[3-6],當纖維分布方向與裂縫開展方向垂直時,纖維增強效果最顯著;而當二者平行時,增強效果最差。因此,獲取纖維混凝土中短切纖維的分布有利于進一步揭示纖維在基體中的作用機理。

但是針對混凝土中纖維分布的研究,主要基于CT成像技術并獲取纖維混凝土的切片圖像[7,8],通過圖像分析,逐一通過人工標記法確定纖維的位置[9,10],這類方法需要消耗大量的人力且效率低。文獻[11-14]采用傳統的圖像處理法識別短切纖維,該方法首先對圖像進行灰度化處理,根據纖維與背景圖像的像素值大小不同,再采用閾值法對圖形進行二值化分析,使纖維在圖像中分割出來。該方法對鋼纖維的識別效果較好,因為鋼纖維與混凝土基體的密度差別明顯。但是,該方法對原始圖像的精度要求高,無法準確地分割含有豐富背景噪聲的圖像,且因玻璃纖維、玄武巖纖維等與混凝土基體的密度差異小,導致閾值法對這類纖維的識別準確率低。

隨著機器學習技術的不斷發(fā)展,基于深度學習的圖像識別已經成為計算機視覺領域的一個研究熱點。DeeplabV3+[15]語義分割模型,作為深度學習的代表算法,其在圖像識別領域具有重要應用。Zhou[16]等基于深度學習技術建立了混凝土表面孔洞快速識別方法。

為了快速準確獲取纖維混凝土中短切纖維的分布,本文基于深度學習技術,以課題組前期獲得的玻璃纖維混凝土Nano-CT圖像為數據集,采用DeeplabV3+模型建立了短切玻璃纖維的快速識別方法。

1 數據來源

為獲取纖維在混凝土基體中的真實分布狀態(tài),課題組前期通過對玻璃纖維混凝土(Glass Fiber Reinforced Concrete,GRFC)試件進行鉆芯取樣,獲得直徑8 mm、高20 mm的圓柱體樣品,并通過X-ray Nano-CT無損檢測技術,獲取了玻璃纖維混凝土樣本中核心部分的正、側和水平方向的掃描圖像[17]。其中,正向掃描圖像共993張圖像,部分圖像如圖1所示,圖像大小為400 pixels×400 pixels×3。從圖1中可以看出,灰色的線條狀組分即為短切玻璃纖維,其長度為12 mm, 直徑13 μm,密度約2.63 g/cm3;與短切玻璃纖維灰度相近的即為水泥砂漿基體,其密度約為2.37 g/cm3[18];黑色的組分為孔洞,密度為0;白色的組分為未水化的水泥顆粒,其密度最大。

圖1 玻璃纖維混凝土的X-ray Nano-CT掃描斷面圖

2 模型的構建

本文基于深度學習對纖維混凝土中的短切纖維進行識別。整體過程分為四個階段,數據預處理、模型的建立、模型的訓練和模型的驗證,如圖2所示。

圖2 基于深度學習對短切玻璃纖維的快速識別過程

2.1 圖像預處理

2.1.1 數據增強

基于X-ray Nano-CT掃描試驗,本文共獲取了850張含有玻璃纖維的有效圖片。為提高快速識別模型的精度,作者通過數據增強技術對原始圖像分別進行鏡像、旋轉或局部放大,將850張原始圖像數據增強至2 773張,其中2 400張為訓練集,30張為驗證集,73張為測試集。

2.1.2 數據標記

為了與快速識別模型的預測結果進行比較,提高模型的泛化能力,本文利用labelme軟件將原始圖像中的短切玻璃纖維標記為白色,而其他背景均標記為黑色,生成的標簽圖像如圖3所示。

圖3 數據標記

2.2 模型的訓練

2.2.1 模型構建

DeeplabV3+[15]是Google團隊開發(fā)的語義分割模型,其不僅具有空洞卷積(Atrous Convolution)算法和空間金字塔模塊(Atrous Spatial Pyramid Pooling,ASPP),還引入了Encoder-Decoder結構,通過Encoder結構獲取高級特征語義信息,Decoder結構進行像素級的分割預測,可更精確的對圖像特征進行提取和識別。

將纖維混凝土Nano-CT圖像輸入到Encoder結構中,經過主干網絡Xception(圖4)提取所需的圖像特征。首先,從Xception中抓取一個低尺度的特征圖引入Decoder結構中,提供邊緣特征。其他的圖像特征進入ASPP,從不同尺度獲取圖像的基本信息,隨后經過一個1×1卷積核降維后,將特征圖引入Decoder結構,并與邊緣特征進行融合,最后上采樣到原始圖像大小。最后,將得到的預測結果與標簽圖像對比計算誤差,尋找一次參數的局部最優(yōu)解至此完成一次訓練,經過多次訓練迭代得到最優(yōu)化權重。

圖4 主干網絡Xception結構示意圖[15]

2.2.2 損失函數

本文采用交叉熵損失函數(Loss),模型在輸出的預測結果中對每個像素點進行分類并計算該點在每一類中的概率值,損失函數是計算真實概率值和預測概率值之間的差異,計算公式如下:

(1)

式中:Loss為損失函數值;m為圖像樣本中像素個數;n為類別個數,本文中只有背景和纖維兩種,所以n等于2;p(xij)表示真實概率值,而q(xij)表示預測概率值。

2.2.3 評價指標

本文引入準確率ACC(Accuracy)[19],交并比IoU(Intersection over Union)[19]和F1-score[20]三個指標評價DeeplabV3+模型的預測結果。準確率ACC為樣本中所有預測正確的像素占總像素的比例,其計算公式如下:

(2)

式中:TP為真正例,將正類別正確地預測為正類別的像素數;FP為假正例,將負類別錯誤地預測為正類別的像素數;FN為假負例,將正類別錯誤地預測為負類別的像素數;TN為真負例,將負類別正確地預測為負類別的像素數。

IoU為圖像預測結果和標簽圖像進行比較后,所得到的識別物體的交并比,計算原理如圖5所示。

圖5 IoU的計算示意圖

F1-score[20]是精確率[21](Precision)和召回率[21](Recall)的調和平均值,具體計算公式如下:

(3)

3 模型的訓練與驗證

3.1 試驗環(huán)境

Python語言中的Keras是一種以Tensorflow為后端的開源神經網絡庫,DeeplabV3+是在windows操作系統上使用Keras搭建的,所有的訓練和驗證都是在GPU(Graphic Processing Unit)上完成的。具體的軟件版本和硬件型號見表1。

表1 環(huán)境配置表

3.2 訓練

3.2.1 參數配置

本文數據集中的訓練集共有2 430張圖像,每次向模型中同時輸入2張圖片。因此,模型中每個周期(epoch)需要1 215個迭代步數(step)才能完全歷遍整個數據訓練集。在每次迭代過程后都會計算網絡的訓練損失,樣本每循環(huán)訓練3次就保存1次權重文件。本文在分析過程中選擇的激活函數為ReLU函數,優(yōu)化器選擇自適應矩估計[22](Adaptive Moment Estimation,Adam)模塊。參數設定完成后開始訓練,以驗證集的Loss為基準,當Loss 3次不下降時,下調學習率至當前學習率的0.5倍;當Loss連續(xù)10次不再下降時,停止訓練。

3.2.2 初始學習率對比

為了得到更好的網絡參數,本文設置了3組不同的初始學習率進行訓練。圖6顯示了訓練損失函數Loss和交并比IoU在不同初始學習率下的變化情況。圖6的Loss曲線中當學習率為1e-2時,在5個epoch之前Loss下降速度較快,隨著訓練的逐步進行Loss值下降速度變緩,最終的Loss值也明顯高于其他兩個學習率的Loss值;學習率為1e-3在訓練剛開始就有著較低的Loss值,其后Loss值的發(fā)展變化情況同學習率為1e-4類似,均在前20個epoch下降,在第20個epoch后趨于穩(wěn)定,最終兩者的Loss值基本保持一致,其表現為兩者對訓練集有著同樣的學習速率。而在IoU曲線中當學習率為1e-2時,學習率上升明顯緩于其他兩種學習率的IoU曲線,達到穩(wěn)定時是在35個epoch;學習率為1e-3和1e-4時曲線上升速率快幅度大,在epoch為20時達到穩(wěn)定,學習率為1e-3的IoU更高一些。綜合分析,當學習率為1e-3時模型的表現最好,為模型的最佳初始學習率。

圖6 不同初始學習率下訓練集Loss和IoU的變化曲線

3.3 結果分析

圖7分別顯示了在最佳初始學習率下多種指標IoU、F1-score和ACC在驗證集中的變化情況。從圖7中可以看出,交并比IoU在20個epoch左右時趨于穩(wěn)定; 而F1-score初期快速上升,在20個epoch前震蕩上升,20個epoch后增長緩慢趨于穩(wěn)定;準確率ACC一直保持在較高的水平,這是因為數據集中大部分為背景像素,短切纖維在圖像中像素占比低,權重小。最終在驗證集中,IoU為0.65,F1-score為0.79,ACC為0.99。

圖7 驗證集不同指標的變化曲線

DeeplabV3+模型的對該GFRC掃描圖片中短切纖維的分割結果如圖8所示。從比較原圖8(a)和分割結果圖8(b)可發(fā)現,DeeplabV3+模型對本文數據集的分割效果較好,因為DeeplabV3+模型擁有金字塔ASPP模塊,可以從不同尺度方向上對短切纖維的特征進行采集,所以在預測過程中較高的還原了短切纖維的邊界特征,使其保持高分割精度。

圖8 DeeplabV3+模型的驗證結果

另外,在測試集中的計算結果表明DeeplabV3+模型的準確率ACC、交并比IoU和F1-score分別為99.3%,67.2%和80.4%。這表明,DeeplabV3+模型能夠準確識別混凝土中的短切玻璃纖維。

4 結 論

本文基于DeeplabV3+深度學習模型,對玻璃纖維混凝土Nano-CT圖像中的短切纖維進行了快速識別,得到的結論總結如下:

(1)基于數據增強技術實現了對玻璃纖維混凝土圖像數量的擴充,建立了滿足深度學習技術的玻璃纖維混凝土圖像數據集。

(2)模型采用DeeplabV3+模型,通過不同初始學習率之間進行比較,確定了本數據集的最佳初始學習率為1e-3。

(3)模型驗證結果表明,DeeplabV3+在短切玻璃纖維的識別效果上,準確率ACC、交并比IoU和F1-score分別達到了99.3%、67.2%和80.4%。

(4)作者們擬進一步借助圖形學原理獲取短切纖維在圖像中的分布信息,為建立短切玻璃纖維在混凝土中的分布模型及其對纖維混凝土破壞行為的影響奠定基礎。

猜你喜歡
類別像素準確率
像素前線之“幻影”2000
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預報參考產品質量檢驗分析
“像素”仙人掌
高速公路車牌識別標識站準確率驗證法
壯字喃字同形字的三種類別及簡要分析
éVOLUTIONDIGAE Style de vie tactile
高像素不是全部
服務類別