侯 越, 張慧婷, 高智偉, 王大為, 劉鵬飛, Markus OESER,4,Linbing WANG, 陳 寧,6
(1.北京工業(yè)大學城市建設學部, 北京 100124; 2.格拉斯哥大學詹姆斯瓦特工程學院, 格拉斯哥 G128QQ, 英國;3.德國亞琛大學道路工程研究所, 亞琛 52074, 德國; 4.德國聯(lián)邦交通部公路研究院, 北威州 51427, 德國;5.弗吉尼亞理工大學土木與環(huán)境工程系, 布萊克斯堡 VA24061, 美國; 6.豐田都市交通研究所, 豐田 471-0024, 日本)
在長期服役之后,路面會出現(xiàn)不同程度、不同類型的病害,影響行駛的舒適性和安全性[1]. 路面必要的養(yǎng)護管理,對于促進城市道路設施服務水平的提高、確保道路的安全運營至關重要. 目前,道路養(yǎng)護過分依賴人工巡檢的方式,效率低下且成本較高[2]. 因此,采用先進的技術手段,實現(xiàn)道路病害的自動檢測,成為當下道路養(yǎng)護管理的關鍵.
近年來,深度學習逐漸發(fā)展,從大量樣本中學習深層非線性網絡結構來表述數據深層特征[3],為路面病害的自動檢測提供了一種新思路. 目前,研究者已經提出許多基于卷積神經網絡 (convolutional neural network, CNN)的目標檢測模型,具有優(yōu)異的檢測與識別能力. 常見的有基于候選區(qū)域的兩階段算法,包括R-CNN[4]、SPP-Net[5]、Fast R-CNN[6]、Faster R-CNN[7];和基于回歸的單階段算法,包括Yolo[8]、SSD[9].
隨著技術的日漸成熟,目標檢測逐漸被應用于道路病害檢測的研究中. Maeda等[10]開發(fā)了一個大規(guī)模的道路損傷檢測分類數據集,共收集163 664張道路圖片,將CNN目標檢測算法應用于路面病害檢測,實現(xiàn)8種路面病害檢測. Wang等[11]對現(xiàn)有圖像裂縫的處理和識別研究進行總結,綜述了路面裂縫圖像采集和二維裂縫提取算法. 肖創(chuàng)柏等[12]利用Faster R-CNN進行裂縫檢測與提取,并調整網絡使其適應小尺寸結構目標的裂縫信息,實驗結果表明該算法在道路裂縫數據集上的F1得分達到65.6%. Staniek[13]利用交通系統(tǒng)中智能手機用戶的數據眾包,分析道路網絡中車輛運動來識別和評估道路路面缺陷. 張寧[14]對Faster R-CNN網絡結構進行改進,并應用幾何變換傳統(tǒng)增強方法,提升了算法模型的檢測精度. Zhang等[15]基于全卷積神經網絡(fully convolution network, FCN)提出CrackNet網絡提取裂縫特征.
上述算法在路面病害的智能識別與監(jiān)測方面做出很大的貢獻,但是總體而言,檢測的數據集中場景和種類較為單一,難以應對豐富多樣的病害場景,且在樣本數據集不均衡時,識別精度相對較低. 鑒于此,筆者采用一種基于梯度懲罰Wasserstein生成對抗網絡(Wasserstein generative adversarial network with gradient penalty, WGAN-GP)[16]與泊松遷移算法相融合的數據深度增強方法,并將生成數據應用于兩階段檢測算法快速區(qū)域卷積神經網絡 (faster region-based convolutional neural network,Faster R-CNN)和單階段檢測算法你只看一次 (you only look once version5,Yolov5)檢測框架,實現(xiàn)了5種路面病害智能檢測方法,以用于道路坑槽、裂縫病害的智能識別和定位.
圖1 研究內容與流程Fig.1 Research route
本文的研究流程包括數據準備、實驗和分析3個部分,如圖1所示. 首先,通過對日本開源數據庫[17]7 898張道路病害圖片的處理,建立病害數據庫. 在實驗中,第1階段是數據增強,利用WGAN-GP生成原樣本數較少的坑槽病害,并通過泊松遷移融合技術合成600張具有坑槽病害的圖片帶入檢測數據集. 第2階段是病害檢測,利用Faster R-CNN和Yolov5目標檢測算法,根據病害樣本訓練調整網絡的最優(yōu)識別超參數,得到病害的類別和邊框位置.
1.1.1 生成對抗網絡數據生成算法
生成對抗網絡(generative adversarial network, GAN)是Goodfellow等[18]提出的一種基于對抗生成的博弈模型. GAN框架包含生成網絡(generator network, G)和判別網絡(discriminator network,D),G和D通過各自的策略與對方對抗,在對抗中雙方再利用對方的策略及時對自己的策略進行不斷調整[19].
本文采用的GAN網絡基本框架如圖2所示,將噪聲融合到原始圖像中生成數據,將生成的數據輸入到G并提取坑槽的特征信息,生成擬合數據去欺騙D,D辨別輸出數據的真假,并反饋到生成網絡來訓練模型.
圖2 用于坑槽生成的GAN框架圖[20]Fig.2 GAN structure for pothole generation[20]
Arjovsky等[21]提出Wasserstein距離來替換JS散度(Jensen-Shannon divergence, JS),即Wasserstein生成對抗網絡(Wasserstein generative adversarial network,WGAN)來改進GAN的模式崩潰問題. 然而,WGAN仍然存在梯度裁剪導致調參上的梯度爆炸和梯度消失問題. 因此,Gulajani等[16]提出引入梯度懲罰項的WGAN-GP. 本研究采用數據生成性能較好的WGAN-GP來生成坑槽數據,WGAN-GP的G和D均設置為5層的卷積神經網絡,層數分別對應序號1~5. 其中,G由反卷積層(transposed convolution, ConvTrans2d)、BN正則化層 (batchnorm, BN)、Relu和Tanh激活函數組成. D由卷積層(convolution, Conv2d)、IN正則化層(instancenorm, IN)、LeakyRelu激活函數組成,網絡的詳細參數設置如表1所示. 表中,K:n表示n×n的卷積核大?。籒_out:n表示n個卷積核;S:n表示步長為n.
1.1.2 泊松遷移融合算法
在本研究中,通過將WGAN-GP生成的坑槽圖像插入到無病害的道路圖像中生成新的訓練數據,先利用泊松算法輸出融合圖片[22],再經過顏色遷移算法輸出合成圖片[23]. 融入圖像時,要盡可能真實地融入圖像,合成圖像時,要較好地保持原始數據集的自然效果,因此,在泊松融合的基礎上加入顏色遷移,這一實現(xiàn)過程稱之為泊松遷移融合. 泊松算法作為一種圖像融合方法,能夠將源圖像較好地融合到目標圖像中,本研究中泊松融合實現(xiàn)參考代碼見文獻[24]. 顏色遷移算法可以保證在顏色空間內目
表1 WGAN-GP對抗生成網絡參數
標圖像和參考圖像具有相同的像素均值和方差,本研究中顏色遷移實現(xiàn)代碼見文獻[25]. 泊松算法中,未知區(qū)域像素值通過泊松方程計算,計算公式為
(1)
顏色遷移算法中,根據參考圖像的顏色分量尋找目標圖像的最佳匹配像素,計算公式為
Ti,j=|di-dj|+|σi-σj|+|fi-fj|
(2)
式中:i、j分別為2個圖像的像素點;di、dj為像素與聚類點的距離;σi、σj為圖像的空間動態(tài)選擇系數;fi、fj分別為2個圖像的亮度平均值[26].
本研究中,選取2類目標檢測方法中的代表算法,即兩階段算法Faster R-CNN和單階段算法Yolo. 在以往路面病害檢測中,單階段算法較兩階段算法普遍存在檢測速度快但檢測精度低的問題,隨著單階段算法的更迭,目前Yolov5檢測算法的精度得到大幅度提升.
1.2.1 Faster R-CNN兩階段目標檢測算法
Faster R-CNN網絡結構按照處理階段分為視覺幾何組特征提取、區(qū)域推薦、感興趣區(qū)域和分類回歸4個部分,本研究采用的Faster R-CNN算法流程如圖3所示.
圖3 Faster R-CNN算法流程[14]Fig.3 Faster R-CNN algorithm flow[14]
首先輸入道路圖片,選擇視覺幾何組16網絡(visualgeometry group 16,VGG 16)作為路面病害目標的提取網絡提取初步特征. 之后,在生成的初步特征圖上,通過RPN區(qū)域推薦生成路面病害的候選窗,并計算候選窗的交并比I1(intersection over union,IOU)損失,通過非極大值抑制[27](non-maxinum suppression, NMS)進行冗余候選窗篩選. 篩選過后的候選窗輸入感興趣區(qū)域,利用全連接層對病害進行分類并微調窗口坐標,最后輸出病害類別及其分類置信度[14],本研究中Faster R-CNN實現(xiàn)參考代碼見文獻[28].
1.2.2 Yolo單階段目標檢測算法
本研究采用Yolo最新版本Yolov5,其檢測原理如圖4所示. 首先將輸入圖像分為S×S網格,每個網格預測多個邊界框和置信度,置信度反映網格中是否存在對象. 因此,這些預測可以被編碼為S×S[B(4+1)+C]的張量,其中,S×S表示網格單元的數量,B表示邊界框的數量,4表示邊界框的坐標(bx,by,bw,bh),1表示交并比值,C表示預測類別[29],本研究中Yolov5實現(xiàn)參考代碼見文獻[30].
圖4 Yolov5檢測原理[31]Fig.4 Yolov5 detection principle[31]
在邊界框回歸損失中,交并比是最常見的度量,計算公式為
(3)
式中:Bgt為標簽的邊界框;B為預測的邊界框;B∪Bgt為B和Bgt的并集,見圖5(c);B∩Bgt為B和Bgt的交集,見圖5(d).
針對交并比損失面對邊界框不重疊時不能提供網絡梯度更新的問題,廣義交并比I2(generalized intersection over union,GIOU)[32]被提出,其引入了懲罰項,計算公式為
(4)
式中:C為覆蓋Bgt和B的最小方框,見圖5(e);C(B∪Bgt)為C減去Bgt和B的交集,見圖5(f).
完全交并比I3(complete intersection over union,CIOU)[33]在廣義交并比的基礎上添加了長寬比影響因子,計算公式為
(5)
(6)
(7)
(8)
圖5 IOU和GIOU的回歸誤差的可視化[35]Fig.5 Visualization of regression errors for IOU and GIOU[35]
式中:v為預測框和標準框長寬比[34];α為平衡比例系數;LI3為完全交并比的損失.為了更精確地區(qū)別橫向裂縫和縱向裂縫的長寬比信息,本文采用完全交并比損失來計算回歸損失,Yolov5訓練期間的損失函數定義為
L=Eb+EI3+Ec
(9)
式中:L為回歸損失;Eb為預測邊界框誤差;EI3為I3回歸誤差;Ec為分類誤差.
用于路面病害檢測算法訓練和測試的數據集來自Global Road Damage Detection Challenge,由車載智能手機拍攝的高清非重疊路面圖片組成[17],圖片采集速度為40 km/h、采集尺寸為600×600像素 (https:∥github.com∥sekilab∥RoadDamageDetector). 數據集中每張圖片都被標記了1個或多個病害目標區(qū)域,矩形坐標框進行標記,作為真實標記邊框.
本研究的數據集共包含7 898張圖片,包括表2所示的4類病害,發(fā)生在不同道路等級、不同天氣、不同時段等多種場景. 其中,病害間類別不均衡,坑槽病害數據較少. 本文按照8∶1∶1的比例將數據集分為訓練集、驗證集和測試集,其中訓練集有6 398張圖片,驗證集有712張圖片,測試集有791張圖片.
2.2.1 數據增強
實驗訓練基于Windows10操作系統(tǒng),使用Pytorch和Tensorflow框架,硬件環(huán)境配置為:Intel(R)
表2 路面病害類別分布
Core(TM) i7-8850H CPU;內存:64 GB;顯卡:Quadro P4000. 計算機語言為Python 3.8,裝載并行計算構架CUDA10.2版本、基于CUDA的深度學習GPU加速庫CUDNN8.1版本.
首先將坑槽邊界框從原始數據集中剪切出來作為數據增強的輸入圖像,共裁剪出300張不同光線條件下不同遮擋物下的坑槽病害圖像. 其次調整為80×80像素,帶入WGAN-GP數據生成網絡訓練100 000次,訓練過程如圖6所示. 在訓練次數e為100代時,WGAN-GP從真實圖像中初步開始學習特征,調整網絡參數,此時生成圖像多為背景信息. 在1 000代時,突出的坑槽特征出現(xiàn)在生成的圖像中,但缺乏細節(jié). 當到達10 000代時,坑槽的邊界特征被學習到. 在完成100 000代的訓練后,生成的圖像顯示更多的細節(jié),與真實的坑槽圖像非常相似.
圖6 WGAN-GP訓練過程可視化Fig.6 Visualization of WGAN-GP training process
最終,生成的坑槽病害如圖7所示,可以看出WGAN-GP生成的坑槽病害圖像特征清晰,且具有不同的形狀、大小、位置等特征信息,能夠較為真實反映坑槽病害.
圖7 基于WGAN-GP生成的坑槽病害Fig.7 Pothole distress generated by WGAN-GP
在對生成坑槽病害合成路面圖片的過程中,為了使合成后的圖像更自然,本文在泊松融合的基礎上加入顏色遷移. 圖8展示使用坑槽病害圖像合成到一張無病害道路目標圖像的一個示例,生成病害圖像通過泊松融合輸出融合圖片,再通過顏色遷移輸出最終合成圖片. 從圖8可以看出,與僅使用泊松融合相比,顏色遷移能夠更好地融合2張圖像. 本文結合泊松融合和顏色遷移方式對WGAN-GP生成的坑槽源圖像進行合成,得到600張帶有坑槽病害的道路圖片.
圖8 坑槽病害數據增強流程Fig.8 Pothole distress data augmentation process
2.2.2 目標檢測
本研究比較了2種典型的目標檢測算法,兩階段算法Faster R-CNN和單階段算法Yolov5,并對比了不同深度的Yolov5算法,由淺到深為Yolov5s、Yolov5m、Yolov5l和Yolov5x. 網絡學習性能往往和超參數的設置有關,學習率、批大小、權重衰減、動量梯度下降、最大迭代次等訓練參數設置如表3所示.
表3 實驗參數設置
圖9 縱向裂縫檢測識別對比Fig.9 Comparison of longitudinal crack detection and recognition
通過設置學習率控制網絡參數的更新速度. 學習率設置過大,網絡參數更新的速度就越快,容易產生發(fā)散,難以尋找到最優(yōu)值;學習率設置過小,網絡參數的更新速度降低,增加訓練時間. 本研究中設置初始學習率為0.01,并采用周期衰減對初始學習率進行調整,可以保證學習率在余弦上限值和下限值的區(qū)間內周期性更新變化. 本研究在保證訓練效果最優(yōu)和內存限制的情況下,設置批大小為8,即每次在訓練集中選取8個樣本進行訓練. 通過設置權重衰減來減小不重要參數對輸出結果的影響,避免網絡的過擬合. 采用動量梯度下降來加速網絡收斂,具體實現(xiàn)方式為,如果前后2次的動量梯度下降方向相同,那當前下降的幅度就會較大,從而達到加速網絡收斂的效果.
參數設置完成,開始訓練,得到此批數據集訓練出來的權重文件,進行測試. 為了分析各個算法的效率,所有對比的訓練和測試任務都在同一臺服務器上執(zhí)行,均采用GPU加速.
本文利用實際的路面病害數據集,選取橫向裂縫、縱向裂縫、龜裂、坑槽4種典型的路面破損圖像,依次采用Yolov5s、Yolov5m、Yolov5l、Yolov5x和Faster R-CNN目標檢測算法對其進行訓練,各算法分別迭代400次,測試得到病害的目標區(qū)域.
圖10 橫向裂縫檢測識別對比Fig.10 Comparison of transverse crack detection and identification
圖11 龜裂檢測識別對比Fig.11 Comparison of alligator crack detection and identification
圖9~12分別給出5種檢測算法對縱向裂縫、橫向裂縫、龜裂及坑槽的識別效果,可以看出4種病害都能被正確分類,且獲得一個與實際病害區(qū)域相差不大的預測框. 對比不同網絡深度的Yolov5算法,Yolov5x預測出較低的檢測框置信分數,估測是由于Yolov5x網絡深度相對較深且迭代次數較少,Yolov5x內部參數沒有得到充分訓練;但Yolov5x由于具有更豐富的卷積層參數,故使其能捕捉到更多的病害隱藏特征,如圖10橫向裂縫檢測中較其他3種Yolov5算法檢測到更多的橫向裂縫信息. 觀察不同病害檢測框的置信度,Yolov5l預測出更接近真實標注的檢測結果,并且具有較高的檢測框置信度. 對比Faster R-CNN和Yolov5系列算法,F(xiàn)aster R-CNN檢測算法對背景產生誤檢,且預測的邊界框不能貼合路面病害實際范圍,如圖10、12中Faster R-CNN對橫向裂縫和坑槽的檢測結果所示. 上述不同算法的檢測結果顯示,Yolov5算法相較于FasterR-CNN算法,對于路面病害具有更好的檢測效果.
圖12 坑槽檢測識別對比Fig.12 Comparison of pothole detection and identification
為了驗證病害檢測的精度和效率,本文通過P、R、F1、FS指標對算法的性能進行定量評價.
P為所有檢測到的對象中正確檢測到的對象的比例,且
(10)
式中:PT為正確檢測的病害數;PF為被視為病害的非病害數.
R為所有檢測到的正樣本中正確檢測到的對象的比例,且
(11)
式中NF為被視為非病害的病害數.
F1為精度和召回率的調和平均數,且
(12)
FS為1 s內算法可以處理的圖片量,來評估各個目標檢測算法的網絡推理速度.
表4顯示本文所比較的5種檢測算法的檢測結果. 從表中可知:Faster R-CNN在本文5種檢測算法中表現(xiàn)較差,由于Faster R-CNN檢測機制將路面病害的候選區(qū)域映射到特征金字塔網絡(feature pyramid networks, FPN)高層,會造成信息損失導致網絡對病害邊界的感知不敏感,進而會影響到路面病害的檢測性能. 本文采用的數據集由車載手機捕捉拍攝,并非垂直拍攝的道路圖片,且圖片發(fā)生在不同道路等級、不同天氣、不同時段等多種場景,導致病害特征與道路背景特征難以剝離,最終Faster R-CNN的檢測精度僅為49.7%. Yolov5變體算法中,Yolov5l在P、R、F1均取得最高值,分別達到60.7%、61.1%、60.9%,比Faster R-CNN分別高出11.0%、7.7%、9.5%.
表4 5種檢測算法測試結果對比
當5種不同的算法在同一數據集上進行測試時,單階段檢測算法Yolov5的檢測速度更為突出. 特別地,Yolov5s在保證精度的基礎上,推理速度FS達到78.7,比Faster R-CNN快5.15倍,比檢測精度最高的Yolov5l算法快2.23倍. 綜合檢測精度和檢測速度,Yolov5變體算法較Faster R-CNN算法具有更好的病害檢測性能,其中Yolov5l既能保證最高的檢測精度也滿足端到端檢測速度的要求.
為了驗證WGAN-GP與泊松遷移算法相融合的數據深度增強方法對各目標檢測算法性能的提升效果,本文將數據深度增強過后的600張坑槽病害的圖片添入數據集.
圖13 數據增強測試結果對比Fig.13 Data augmetation tet results comparison
圖13給出數據集深度增強前后5種檢測算法的測試結果P、R、F1變化. 其中,藍色折線表示使用原始數據訓練得到的檢測結果,黃色折線表示使用本文采用的數據增強方法進行數據擴充后得到的檢測結果. 可以看出,5種檢測算法通過數據增強后P、R及F1指標都有所提高,均值提高度分別為2.8%、4.0%及3.6%. 這表明WGAN-GP與泊松遷移算法相融合的數據深度增強方法可以在一定程度上提高基于不均衡路面病害樣本數據集自動檢測算法的檢測效果. 其中,R提升最多,這是因為增加了D40數據特征的多樣性,且保證了不同病害類別樣本量之間的相對均衡,減少了錯誤識別的概率. 尤其是Yolov5s算法,其P、R及F1指標分別提高3.6%、4.9%、4.3%,而Yolov5x算法估測因網絡參數過多,在與其他網絡相同的訓練次數下,內部參數訓練不充分,但其P、R及F1指標仍有1.9%、3.1%及2.5%的提高幅度. 實驗結果表明,無論是針對哪種類型的檢測算法及網絡結構,WGAN-GP與泊松遷移算法相融合的數據深度增強方法都起到了一定程度的精度提升效果.
3.1中為展示清晰與便捷性,僅展示了單種病害的檢測效果,本節(jié)中將分析多種病害類型的檢測性能效果. 本研究通過混淆矩陣來評定檢測算法在多類別上的學習性能. 混淆矩陣既可以清晰地反映出真實值和預測值相互吻合的數值,也可以反映出各類別之間被混淆分類的概率.
圖14 多類別病害混淆矩陣Fig.14 Multi-category distress confusion matrix
圖14中展示出Yolov5l檢測算法測試中4類病害的混淆矩陣. 圖中非對角線數值分布為0~0.03,說明橫向裂縫、縱向裂縫、龜裂和坑槽4種病害間相關性低,考慮到人工錯誤標注的可能,幾乎沒有病害混淆分類的情況;最右列表示背景被錯誤識別為病害的數量,其誤檢率分別為縱向裂縫30%、橫向裂縫29%、龜裂22%、坑槽12%;最底行表示病害被識別為背景造成遺漏的數量,其漏檢率分別為縱向裂縫37%、橫向裂縫36%、龜裂22%、坑槽20%. 可見,Yolov5l可實現(xiàn)對不同病害之間的精確分類,但在病害識別方面仍存在一定程度的漏檢和誤檢問題. 因此,Yolov5l算法需要在保證算法分類精度和速度的同時,進一步提高算法的識別能力.
由于拍攝環(huán)境的復雜性和數據獲取過程中存在的多變性,導致病害與周圍像素對比度不穩(wěn)定,進而影響檢測精度. 光線條件是各種復雜拍攝環(huán)境中的關鍵因素,光線的變化會影響路面病害紋理和粗糙度,進而對檢測精度產生較大的影響. 為了驗證不同光線采集環(huán)境下對檢測結果的影響,在不同場景的對比實驗中,將測試集進一步分為3組,包括光線不足(0≤像素亮度值<80)、光線適中(80≤像素亮度值<170)、光線強烈(170≤像素亮度值≤225). 圖15顯示了3種采集環(huán)境下各類病害的檢測結果. 可以看出,在光線強烈的情況下,樹木、電線桿等陰影給裂縫識別帶來極大的干擾,導致誤檢率提高. 在光線不足情況下,目標檢測算法漏檢率提高. 與其他2種情況相比,在適當的照明條件下,可以更好檢測路面病害.
圖15 不同光線采集環(huán)境下Yolov5l的檢測結果Fig.15 Detection results of Yolov5l under different lighting acquisition environments
為了定性分析不同光線采集環(huán)境對檢測精度的影響,進一步比較3種不同采集環(huán)境下路面病害檢測的F1,如圖16所示. 在適中的光線條件下,目標檢測算法可以獲得較高的檢測精度,其中,Yolov5l的F1為68.7%;在光線不足的條件下,目標檢測算法會產生較高的漏檢率,其中,Yolov5l的F1為53.6%;在光線強烈的檢測環(huán)境下,目標檢測算法會產生較高的誤檢率,其中,Yolov5l的F1為57.8%. 通過上述不同檢測場景對檢測精度的影響分析,在實際道路病害檢測工程應用中建議在中等光線條件下進行圖像采集.
圖16 不同光線采集環(huán)境下檢測算法F1對比Fig.16 F1 comparison of detection models under different lighting acquisition environments
本文首先采用了一種WGAN-GP與泊松遷移算法相融合的數據深度增強方法,并利用該方法生成的樣本數據添加入樣本數據集以均衡樣本類別數量,然后對兩階段Faster R-CNN算法和單階段Yolov5的4種變體算法(Yolov5s、Yolov5m、Yolov5l、Yolov5x)進行了數據增強前后、不同檢測場景、多種病害識別的實驗比較,得到以下結論:
1)使用WGAN-GP與泊松遷移算法相融合的數據深度增強方法進行數據增強后,5種檢測算法的P、R及F1指標平均值分別提高2.8%、4.0%、3.6%,驗證了所用數據增強方法對解決路面病害樣本集不均衡問題的有效性.
2)對比5種檢測算法,在訓練次數有限的情況下,Yolov5l算法F1最高,達到60.9%,比Yolov5s、Yolov5m、Yolov5x、FasterR-CNN分別高出1.5%、1.3%、2.0%、9.5%,估測該結果是網絡結構的復雜性與超參數數量的多寡導致的.
3)在多類病害檢測中,Yolov5l可實現(xiàn)對不同定義病害之間的分類檢測,但對各種病害的識別存在一定的漏檢和誤檢. 因此,Yolov5l需要在保證算法檢測速度的同時,進一步采取措施降低算法漏檢率和誤檢率.
4)光線采集環(huán)境對檢測精度具有較大的影響,對比3種采集環(huán)境下Yolov5l算法的F1,光線不足采集環(huán)境下F1比光線適中采集環(huán)境下F1降低15.1%. 因此,建議在適中光線條件下進行道路病害的實際工程檢測.