史德偉,郭秀娟
吉林建筑大學(xué) 電氣與計(jì)算機(jī)學(xué)院,長(zhǎng)春 130118
隨著我國(guó)基礎(chǔ)設(shè)施的快速發(fā)展,建筑工地事故也逐漸有所增加.在安全生產(chǎn)規(guī)范中,明確指出進(jìn)入施工場(chǎng)地必須佩戴安全帽.佩戴安全帽可以在工程作業(yè)中有效保護(hù)施工人員頭部,故佩戴安全帽是進(jìn)入建筑工地的關(guān)鍵.常用的安全帽佩戴檢測(cè)方法主要使用人工巡查以及視頻監(jiān)控等方式,在實(shí)際操作中,因施工環(huán)境復(fù)雜以及人員走動(dòng),只依靠人工巡查不僅會(huì)加大成本,還存在效率低、出現(xiàn)漏檢等情況.就目前建筑工地的視頻監(jiān)控來(lái)看其識(shí)別率低且實(shí)時(shí)性差.目前,針對(duì)這些問(wèn)題使用監(jiān)控?cái)z像頭,通過(guò)傳統(tǒng)的人工智能算法實(shí)現(xiàn)對(duì)建筑工地未佩戴安全帽人員監(jiān)測(cè)可以有效抑制安全帽漏檢的問(wèn)題.但因環(huán)境復(fù)雜導(dǎo)致現(xiàn)階段安全帽佩戴檢測(cè)準(zhǔn)確率較低,不符合實(shí)際生產(chǎn)環(huán)境的監(jiān)測(cè)需求.因此,應(yīng)用現(xiàn)代人工智能技術(shù),實(shí)現(xiàn)安全帽戴檢以確保施工人員安全,對(duì)提高安全生產(chǎn)治理具有重要意義.
隨著人工智能算法的發(fā)展,深度學(xué)習(xí)在各個(gè)領(lǐng)域有著廣泛的應(yīng)用.因此,在安全帽檢測(cè)應(yīng)用領(lǐng)域中,學(xué)者們應(yīng)用深度學(xué)習(xí)的方法對(duì)其展開了研究.Kelm 等[1]人通過(guò)移動(dòng)射頻識(shí)別人員的個(gè)人防護(hù)設(shè)備是否合規(guī).但是射頻識(shí)別閱讀器具有一定的局限性,能檢測(cè)到安全帽與工人,不能確定工人是否正確佩戴安全帽.劉曉慧等[2]人以支持向量機(jī)(SVM)為模型,通過(guò)膚色檢測(cè)定位和Hu矩陣為特征向量來(lái)實(shí)現(xiàn)安全帽檢測(cè).Wu 等[3]人提出了一種由局部二值模式(LBP)、Hu矩陣不變量(HMI)和顏色直方圖(CH)組成的基于顏色的混合描述子,用于提取不同顏色(紅、黃、藍(lán))頭盔的特征.施輝等[4]人基于YOLOv3,利用圖像金字塔結(jié)構(gòu)獲取不同尺度的特征圖進(jìn)行位置和類別預(yù)測(cè),對(duì)目標(biāo)幀參數(shù)進(jìn)行聚類用這種方法實(shí)現(xiàn)安全帽佩戴的檢測(cè).
本文以YOLOv5 網(wǎng)絡(luò)模型為主體,將是否佩戴安全帽作為檢測(cè)任務(wù).實(shí)驗(yàn)表明,該模型下的檢測(cè)具有良好的魯棒性以及較高的準(zhǔn)確度.
YOLO網(wǎng)絡(luò)是為目標(biāo)檢測(cè)而設(shè)計(jì)的網(wǎng)絡(luò).由于其較比大多深度網(wǎng)絡(luò)計(jì)算速度更快,且具有良好的實(shí)時(shí)性,故在工業(yè)中有良好的應(yīng)用前景.而YOLOv5是YOLO系列經(jīng)過(guò)迭代更新的最新版本,所以本文選擇YOLOv5進(jìn)行研究.YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,它是由主干網(wǎng)絡(luò)(Backbone)、頸部(NECK)以及輸出(Output)3個(gè)部分組成.其目標(biāo)檢測(cè)原理可以概括為通過(guò)主干網(wǎng)絡(luò)提取特征值,將特征值進(jìn)行融合,再對(duì)圖像特征進(jìn)行預(yù)測(cè),最后生成預(yù)測(cè)類別,并返回目標(biāo)位置的邊框坐標(biāo)[5].
圖1 YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure diagram of YOLOv5
主干網(wǎng)絡(luò)主要包括切片結(jié)構(gòu)(Focus)、卷積模塊(Conv)、瓶頸層(C3)以及空間金字塔池化(SPP)[6].切片結(jié)構(gòu)是將高分辨率圖像中抽出像素點(diǎn)重新構(gòu)造到低分辨率圖像中,該模塊主要是用來(lái)加快計(jì)算速度.SPP模塊分別采用5/9/13的最大池化,再進(jìn)行concat融合,提高感受野.在頸部網(wǎng)絡(luò)中使用了FPN+PAN的結(jié)構(gòu),較比之前版本,雖然總體結(jié)構(gòu)沒(méi)有改變,但其增加了sp2結(jié)構(gòu),加強(qiáng)了特征融合的能力.最后在輸出端使用了損失函數(shù)GIOU_Loss,GIOU函數(shù)同時(shí)包含了預(yù)測(cè)框和真實(shí)框的最小框的面積,其計(jì)算如公式(1)所示.該函數(shù)可以增強(qiáng)其檢測(cè)能力.
CIOU_Loss=1-(IOU-Distance_22Distance_C2-v2(1-IOU)+v)
v=4π2(arctanwgthgt-arctanwphp)2
(1)
首先準(zhǔn)備數(shù)據(jù)集,通過(guò)網(wǎng)上采集以及拍攝整理得到,然后對(duì)其篩選和標(biāo)記,達(dá)到實(shí)驗(yàn)要求.通過(guò)YOLOv5算法進(jìn)行訓(xùn)練,得到最優(yōu)的檢測(cè)模型,由最優(yōu)的檢測(cè)模型對(duì)測(cè)試集數(shù)據(jù)進(jìn)行測(cè)試,最終得到結(jié)果.
數(shù)據(jù)集的制作主要分為數(shù)據(jù)采集和整理、數(shù)據(jù)的預(yù)處理、數(shù)據(jù)的篩選和數(shù)據(jù)集標(biāo)注[7].本實(shí)驗(yàn)使用labelImg標(biāo)注圖片.本次實(shí)驗(yàn)將數(shù)據(jù)集分類為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集為5 000張圖片,測(cè)試集為1 212張圖片.標(biāo)注類別分為兩類,包括佩戴安全帽的施工人員與未佩戴安全帽的施工人員.圖2為數(shù)據(jù)集的分析可視化結(jié)果圖,圖2(a)為施工人員和戴安全帽的施工人員的分布圖;圖2(b)是中心點(diǎn)分布圖;圖2(c)是數(shù)據(jù)集寬高分布圖.
(a) (b) (c)
本文的實(shí)驗(yàn)環(huán)境為:Intel(R) Xeon(R) Gold 6130H CPU @ 2.10GHz,32GB運(yùn)行內(nèi)存,Nvidia Geforce 2080ti,ubuntu16.04,64位操作系統(tǒng) , Pytorch1.9.0.編程語(yǔ)言為 Python3.8,GPU 加速軟件Driver Version: 495.46 ,CUDA Version: 11.5.共訓(xùn)練200輪.
如圖3所示,圖3(a)代表訓(xùn)練集位置損失;圖3(b)代表訓(xùn)練集置信度損失;圖3(c)代表訓(xùn)練集類別損失.由圖3可知,訓(xùn)練效果達(dá)到了較好的擬合狀態(tài),訓(xùn)練集位置損失穩(wěn)定在0.032左右,置信度損失穩(wěn)定在0.049左右,類別損失穩(wěn)定在0.002左右.
(a) (b) (c)
在目標(biāo)檢測(cè)中,均值平均精度(Mean average precision,MAP)是評(píng)估訓(xùn)練模型性能和可靠性的常用指標(biāo)[8].本文將通過(guò)均值平均精度評(píng)價(jià)指標(biāo)評(píng)估實(shí)驗(yàn)?zāi)P偷男阅?可得到兩類結(jié)果圖像,包括佩戴安全帽的施工人員和未佩戴安全帽的施工人員,如圖4所示.
圖4 實(shí)驗(yàn)?zāi)P徒Y(jié)果Fig.4 Results of experimental model
正類正樣本(True Positive,TP)、正類負(fù)樣本(True Negative,TN) 、負(fù)類正樣本(False Positive,FP)和負(fù)類負(fù)樣本(False Negative,FN)是用來(lái)計(jì)算精度的關(guān)鍵.其中,hatTP是未佩戴安全帽的人,并且檢測(cè)正確,hatTN,hatFP,hatFN以此類推.AP值表示評(píng)價(jià)精確度,其計(jì)算公式見式(2).Hat precision表示安全帽的精確度,其計(jì)算公式見式(3).hatrecall表示安全帽召回率,其計(jì)算公式見式(4).圖5 Precision-recall藍(lán)色曲線下方面積代表本次實(shí)驗(yàn)所有類別AP的值.
圖5 Precision-recall曲線Fig.5 Precision-recall curve
APhat=TPhat+TNhatTPhat+TNhat+FPhat
(2)
Recallhat=TPhatTPhat+FNhat
(3)
Precisionhat=TPhatTPhat+FPhat
(4)
MAP=1Q∑q∈QAP(q)
(5)
其中,mAP@0.5代表IOU閾值取0.5時(shí)對(duì)應(yīng)的mAP值.均值平均精度(mAP)為AP值在所有類別下取平均,計(jì)算公式見式(5).其中,Q為總類別數(shù)量.本次實(shí)驗(yàn)person類別mAP值可達(dá)93.9 %,hat類別可達(dá)87.1 %,所有類別mAP可達(dá)90.5 %.
本文對(duì)使用YOLOv5網(wǎng)絡(luò)解決安全帽佩戴檢測(cè)的方法進(jìn)行了研究,通過(guò)最終的實(shí)驗(yàn)數(shù)據(jù)表明,本文算法中工人頭部檢測(cè)的均值平均精度達(dá)到了93.9 %,工人佩戴安全帽的均值平均精度達(dá)到了87.1 %.該算法在復(fù)雜環(huán)境下準(zhǔn)確率、檢測(cè)速率仍具有良好的表現(xiàn),因此YOLOv5算法可以適用于實(shí)際施工場(chǎng)地中.