VOELKERChristoph郭建強
(1.西南交通大學 無損檢測研究中心,成都 610031;2.德國聯(lián)邦材料研究院(BAM),柏林 12205)
鋼筋混凝土的銹蝕是土木工程結(jié)構(gòu)損傷的主要原因之一,常發(fā)生在需要除冰的公路及海洋環(huán)境的建筑中。這種損傷會對混凝土結(jié)構(gòu)的完整性造成影響,并使其受力發(fā)生變化,導致建筑物存在很高的風險[1]。目前,有多種無損檢測(NDT)的方法可以檢測銹蝕程度,如探地雷達(GPR)可以根據(jù)接收到的電磁波的波形、振幅強度等特征,推斷地下介質(zhì)的空間位置、結(jié)構(gòu)、形態(tài)等;半電池電位法(HP)利用參考電極測量鋼筋電位,測量值變化越急劇,銹蝕程度越嚴重[2]。然而,各種單一的檢測方法和傳感器通常不能獲取足夠的銹蝕特征信息,以至于很難判斷鋼筋的銹蝕狀況。為此,筆者基于多種檢測方法獲得鋼筋銹蝕的特征信息,通過其相關(guān)性,采用機器學習的方法來研究鋼筋銹蝕的損壞程度。
筆者采用探地雷達(GPR)測量鋼筋反射的脈沖能量,并使用半電池電位法(HP)測量試件的銹蝕電位[2],通過溫納法(WR)[3]和微波濕度法(MW)[4]分別測量銹蝕鋼筋的電阻率和銹蝕濕度。數(shù)據(jù)采集于鋼筋混凝土銹蝕試驗,在各種環(huán)境因素都受控的條件下模擬加速混凝土構(gòu)件的生命周期過程。對比了基本的邏輯回歸、更高級的決策樹和Boosting 3種機器學習算法在數(shù)據(jù)融合及決策過程中的性能差異。
訓練數(shù)據(jù)需要體現(xiàn)場景中所有的情況,并包含一個明確的標準值對樣本進行分類。為此,在場景濕度和鹽度都可控的大型鋼筋混凝土試件上進行數(shù)據(jù)的采集,混凝土澆筑前樣品腐蝕棒外觀如圖1所示(紅框為銹蝕棒;綠框為氯離子遷移傳感器;藍框為參考電極)。
圖1 混凝土澆筑前樣品腐蝕棒外觀
試驗涵蓋了混凝土構(gòu)件生命周期中的3個階段:未損壞階段(混凝土剛澆鑄好后的試件)、使用階段(試件含氯化物但未銹蝕)和缺陷階段(試件含有氯化物且被銹蝕)。試驗樣本被分為兩組,用來分析混凝土密度對銹蝕的影響。其中,一組在混凝土密度較低的試件頂部測量,另一組在密度較高的試件底部測量。
氯離子滲透到混凝土一定深度需要數(shù)年的時間[5]。為了加速這一過程,采用人工電離極化銹蝕的方法。陽極電位超過臨界銹蝕條件會引發(fā)鋼筋的銹蝕,并持續(xù)監(jiān)測鹽銹蝕的位置以防止隨機銹蝕的發(fā)生,氯化物的注入及檢測裝置結(jié)構(gòu)示意如圖2所示,圖中:①為鋼筋;②為腐蝕棒;③為參比電極MnO2;④為脫鈍傳感器;⑤為氯化鈉溶液;⑥為對電極(MMO);⑦為混凝土。通過對電極與工作電極組成極化回路,采用分流電阻器,使電流在銹蝕鋼筋與鋼筋籠之間流動,從而獲得鋼筋銹蝕樣本。
圖2 氯化物的注入及檢測裝置結(jié)構(gòu)示意
探地雷達(GPR)檢測使用美國GSSI公司的SIR20裝置, 該裝置具有頻率為2 GHz的天線,兩個垂直偏振,采用橫向測量間距為5 mm,線間距為2 cm的自動掃描系統(tǒng)收集數(shù)據(jù)。采用半電池電位法(HP)、溫納法(WR)和微波濕度法(MW)沿著測量網(wǎng)格手動收集信號,間隔為10 cm。使用Proceq公司的Canin+銹蝕分析系統(tǒng)收集分析HP法測量電位數(shù)據(jù),其參考電極是硫酸銅棒;使用Proceq公司的Resipod探針收集得到WR法的測量值;使用HF-Sensors的ID10探針測量得到微波濕度的測量值。由此收集得到多傳感器的監(jiān)測數(shù)據(jù)集。
數(shù)據(jù)集是在18個不同的日期分別采集得到的。采集過程中,在具有不同濕度、鹽含量、混凝土質(zhì)量和腐蝕活性的試樣上使用上述4種不同的NDT方法,提取了7個樣本特征。特征即傳感器信號參數(shù),其會受到相應缺陷的顯著影響。表1列出了所有NDT方法得到的相應特征參數(shù)。
表1 從NDT信號中提取的特征參數(shù)
特征1和特征2提取于GPR的表面波?;炷两殡姵?shù)隨著混凝土含水量的增加而增大,表面波的傳播速度和主頻率都會隨之降低?;炷恋碾妼室搽S著溶解的氯離子的增多而增大,從而使表面波的振幅降低,所以通過表面波能量和表面波主頻率可以監(jiān)測介電常數(shù)和電導率。特征3,4,5,6來自直接的參數(shù)測量方法,其測量信號是標量,因此不需要進行進一步的特征提取。特征7是通過測量鋼筋反射振幅的衰減得到的,不同腐蝕程度的測量點得到的振幅衰減程度不同。特征1,2,5,6用于描述環(huán)境條件,特征3,4,7用于表征腐蝕情況。為了確保特征的可比性,對所有特征進行歸一化,表2列出了計算特征的歸一化因子F及其減數(shù)S,其中f為原始參數(shù)。
將機器學習的方法和相關(guān)理論應用于數(shù)據(jù)融合技術(shù),可大幅度提升算法的性能[6]?;跊Q策樹及Boosting方法,分別設(shè)計了數(shù)據(jù)融合方法以提高算法性能;并將其結(jié)果與基礎(chǔ)的邏輯回歸算法進行對比和分析,探討各方法在上述多元數(shù)據(jù)集中的適用性。
多傳感器數(shù)據(jù)融合是利用機器學習的算法,將多源信息在一定準則下進行分析、優(yōu)化和整合,以達到提升信息質(zhì)量的目的[6],從而更好地進行決策。在無損檢測領(lǐng)域里,信息質(zhì)量通常指魯棒性、可靠性和準確性等[7]?;跀?shù)據(jù)的多傳感器融合在特征級上進行,多傳感器特征級融合的一般過程如圖3所示,其描述了4種傳感器獲取信息并融合的過程。從原始數(shù)據(jù)中提取特征是將原始數(shù)據(jù)映射到一個更高維的空間,即特征空間。完好區(qū)域和缺陷區(qū)域之間的分類在特征空間中進行。
圖3 多傳感器特征級融合的一般過程
機器學習算法是通過已有的特征與標簽之間的對應關(guān)系,實現(xiàn)完好像素和缺陷像素決策邊界的學習。
二維特征空間示意如圖4所示,紅色和藍色的區(qū)域分別代表缺陷和完好在特征空間中的頻數(shù)分布情況,坐標軸上紅色和藍色的線分別代表兩個類在該坐標軸的概率分布情況??梢娞卣鱟、d的相關(guān)性高于特征a、b的。兩個類的概率分布的重疊面積決定著數(shù)據(jù)的信息質(zhì)量,重疊面積越小,分類函數(shù)就越容易得到,信息質(zhì)量也越高。由概率分布來看,特征a、b組成的特征空間的信息質(zhì)量高于特征c、d組成的特征空間的。通過數(shù)據(jù)融合在特征空間內(nèi)增加一個子空間(圖4中紅色直線)可以提升信息質(zhì)量,并且相關(guān)性越高的特征,信息質(zhì)量提升越大。同理,在更高維的特征空間,信息質(zhì)量可以得到更大幅度的提升。所以,數(shù)據(jù)融合方法能提升分類效果。
圖4 二維特征空間示意
表2 特征的歸一化因子及其減數(shù)
邏輯回歸算法是1967年提出來的一種二元分類器[8],其決策邊界由簡單的線性回歸函數(shù)描述。當執(zhí)行判別函數(shù)時邏輯回歸不易出現(xiàn)異常值,所以邏輯回歸常被用在真實測量值的自動分類任務(wù)中。
標準的邏輯函數(shù)也就是Sigmoid函數(shù),可以將輸入值t(t∈R)映射到0~1之間。邏輯函數(shù)σ(t)被定義為
(1)
t=β0+β1x
(2)
式中:t為變量x的線性函數(shù);β0和β1為回歸參數(shù),在訓練過程中,通過優(yōu)化β提升模型的分類性能。
故式(1)可進一步表示為
(3)
式中:p(x)為因變量x的概率值,被映射在[0,1]以內(nèi)。
在二分類情況下,1/2作為概率值的分界,將輸入變量有效地分為兩類。 因此邏輯回歸算法避免了無限誤差,從而減小了異常值的影響。
決策樹算法[9]是基于分層樹結(jié)構(gòu),將特征值與閾值進行比較,從根節(jié)點開始,對數(shù)據(jù)的某一特征進行測試,根據(jù)測試結(jié)果,將實例分配到其子結(jié)點,使每一個子結(jié)點對應著該特征的一個取值。如此遞歸,完成對實例的測試和分配,直至達到葉結(jié)點,完成特征的分類。決策樹的基本特點是可以根據(jù)特征的重要程度,安排其在決策樹中的位置,從而更好地完成分類。設(shè)p和n分別表示二分類變量的缺陷樣本和完好樣本和,那么特征A所得到的信息增益G(A)為
(4)
式中:I(p,n)為信息熵。
(5)
試驗中,分類數(shù)目v為2。信息增益越大,代表通過該特征的重要程度越高,也就是該特征所能獲得的信息分類效果越好。
再利用最大化信息增益的方式對變量進行二分類處理,由此來降低統(tǒng)計偏差。所以,要求式(4)中的第二項所表示的信息熵損失最小,如式(6)所示。
(6)
對于一個連續(xù)變化的特征A,通過最大化信息增益不斷調(diào)節(jié)特征值的分割點,從而達到最佳的分類效果。
集成學習是將幾個不同模型的輸出結(jié)合起來,實現(xiàn)更準確的分類,其中Boosting與已建立的加性模型的統(tǒng)計技術(shù)密切相關(guān),更適用于研究中的多傳感器數(shù)據(jù)[10]。
Boosting是一種機器學習集成方法,主要用于減少算法的方差和偏差,并將弱學習算法轉(zhuǎn)化為強學習算法,從而提升算法性能。Boosting通過結(jié)合多個分類器,根據(jù)所有分類器的輸出結(jié)果投票得出最終的結(jié)果。在計算過程中,每個新模型都受到以前構(gòu)建模型性能的影響,并根據(jù)模型的置信度來決定權(quán)重。為了進行比較,采用的基本弱學習算法為邏輯回歸,并使用能對弱學習算法的錯誤進行適應性調(diào)整的AdaBoost模型。
AdaBoost的輸入是一組由m個樣本{(x1,y1),…,(xm,ym)}構(gòu)成的訓練集及一個弱學習算法(WeakLearn)。訓練集對應的標簽值為yi∈Y={1,…,k}(i=1,…,m),整數(shù)T為迭代次數(shù)。初始權(quán)值D1(i)=1/m,迭代運算次數(shù)t=1,2,…,T,步驟如下所述。
(1) 調(diào)用 WeakLearn算法, 并代入權(quán)值分布Dt。
(2) 返回假設(shè)值ht:X→Y。
(3) 計算分類誤差ht:εt=∑i:ht(xi)≠yiDt(i)。如果εt>1/2, 令T=t-1,終止循環(huán)。
(5) 更新訓練數(shù)據(jù)權(quán)值分布Dt。
(7)
式中:Zt為一個歸一化常數(shù);ht的權(quán)重為ln(1/βt),所以ht的權(quán)值越大,誤差越小。
這個過程迭代T次,最后結(jié)合WeakLearn的預測值h1,…,hT,得到最終結(jié)果hfin(x)[11]為
(8)
由此實現(xiàn)Boosting,像Boosting這樣的集成學習法,可以結(jié)合成百上千個弱算法為一個分類效果良好的強算法,但卻很難直觀地表示各個特征的利用程度。
分類方法的性能通常用真正率(TPR)、假正率(FPR)和誤差來衡量。研究中分別表示為
(9)
(10)
誤差=(1-TPR)×實際為“缺陷”的樣本數(shù)+
FPR×實際為“完好”的樣本數(shù)
(11)
數(shù)據(jù)集被分為訓練集和測試集。訓練集用來訓練分類器,測試集用于測試分類器性能,模型的性能可以用偏差方差權(quán)衡的方法來衡量。訓練誤差,即偏差,是分類方法的綜合評估標準。測試誤差,也就是方差,用于評估分類方法的普適性。通常偏差隨著模型復雜性的增加而減小,而方差會隨之增加。優(yōu)選的模型應該是方差和偏差之和最小的模型。
訓練集或測試集中如果存在異常值,性能就很容易被錯誤地評估。采用交叉驗證法來提高評估結(jié)果的可靠性,這種方法使用不同的訓練數(shù)據(jù)和測試數(shù)據(jù)組合,并以平均值作為最終結(jié)果。研究使用的K-fold交叉驗證法,從18個獨立測量日期構(gòu)成的集合中去掉前兩個相對不可靠的集合,將剩余的16個集合兩兩分為一組,組成8個獨立子集(fold),并依次用其中一個子集作為測試集,剩下7個子集用作訓練集。
使用軟件MATLAB中的fitglm函數(shù)進行邏輯回歸訓練,使用fitctree函數(shù)進行決策樹訓練,使用Adaboost函數(shù)進行Boosting訓練。對于決策樹來說,最優(yōu)分裂數(shù)和最優(yōu)分裂指標均由偏置方差分解來確定。分裂數(shù)目在1~60 之間進行選擇,通過試驗證明最優(yōu)分裂數(shù)為5。在熵、Gini指數(shù)、Deviance等測量指標中選用了Deviance為最優(yōu)分裂指標。對于Boosting來說最優(yōu)分裂數(shù)目為6,最優(yōu)學習器數(shù)(number of learner)是20。邏輯回歸的最佳結(jié)果由200個缺陷樣本和50 000個完好樣本點組成不均衡的數(shù)據(jù)集訓練得到。決策樹和Boosting方法在2 000個缺陷樣本和50 000個完好樣本組成的較均衡的數(shù)據(jù)集中進行試驗,得到了最佳的訓練結(jié)果。測試是使用不均衡數(shù)據(jù)進行的,以確??杀刃浴?/p>
表3總結(jié)了線性邏輯回歸算法、最優(yōu)決策樹算法及Boosting方法的結(jié)果。
表3 不同分類方法的結(jié)果比較
通過比較誤差,也就是最少錯誤分類樣本數(shù)目,可知最好的結(jié)果由經(jīng)過K折交叉驗證的Boosting算法得到,其次是邏輯回歸算法。由TPR和FPR的顯示可知,Boosting的靈敏度明顯高于其他兩個算法的,雖然決策樹算法的靈敏度高于邏輯回歸算法的,但誤報率也高。綜上可見,Boosting方法得到了最優(yōu)性能的分類器。
分類器的另一個特征是其對可用特征集的利用程度。盡管特征的參考值不一樣,但對研究的數(shù)據(jù)來說,可通過充分地利用特征空間的全維性來進一步提升算法性能。邏輯回歸算法、決策樹算法中每個特征對分類器的貢獻是可區(qū)分的。邏輯回歸和常規(guī)的回歸分析一樣,回歸系數(shù)β可作為描述每個特征重要程度的權(quán)值。特征的β值越接近于0,對分類的貢獻就越小。決策樹算法中預測重要度(PI)是估計分類器性能的重要參數(shù)。PI值根據(jù)一個特征的可變性和某個節(jié)點上類別的聯(lián)合概率或到達某個節(jié)點的概率,來量化樹形結(jié)構(gòu)上因分裂引起的風險的變化。如果PI值為0,則該特征在決策過程中幾乎不起作用;PI值越高,該特征對決策的影響也就越大。
為了評估邏輯回歸和決策樹受不同特征的影響情況,表4列出了邏輯回歸平均回歸系數(shù)和決策樹的PI值??梢娺壿嫽貧w算法利用了所有的特征,因為所有的都非零。PI值在特征2和特征6上是0,在特征7上接近于0,表明其對決策樹性能提升影響小。兩種方法顯示最重要的特征都是通過半電池電位映射(HP)檢測方法得到的,即特征3和特征4。
表4 以回歸系數(shù)β、PI值表示的特征的重要性
基于鋼筋混凝土銹蝕數(shù)據(jù)及邏輯回歸算法設(shè)計了決策樹和Boosting模型,并將其結(jié)果與基本的邏輯回歸進行比較。分析表明,對于小型的異構(gòu)數(shù)據(jù)集來說,利用邏輯回歸訓練出的簡單穩(wěn)健的模型相比于決策樹訓練出的具有復雜決策邊界的模型具有更好的適用性。Boosting可以使預測結(jié)果具有更高的靈敏度和更小的誤報率,同時改善對鋼筋混凝土的銹蝕分析。這項工作顯示了機器學習算法在多傳感器無損檢測數(shù)據(jù)融合應用中的潛力,由于對數(shù)據(jù)融合的可驗證性和普適性的要求較高,其開發(fā)需要大量的試驗驗證。如果將理論轉(zhuǎn)化為產(chǎn)品,機器學習算法將有助于推動NDT系統(tǒng)的自動化。
致謝感謝德國聯(lián)邦材料研究所(BAM)提供的鋼筋混凝土無損檢測試驗平臺及自然科學基金項目的資助。