国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

復(fù)雜姿態(tài)下的安全帽佩戴檢測方法研究

2022-01-22 07:46:48王雨生顧玉宛莊麗華徐守坤
計算機(jī)工程與應(yīng)用 2022年1期
關(guān)鍵詞:安全帽膚色頭部

王雨生,顧玉宛,莊麗華,石 林,李 寧,徐守坤

常州大學(xué)計算機(jī)與人工智能學(xué)院阿里云大數(shù)據(jù)學(xué)院,江蘇 常州 213164

在日常生產(chǎn)中,工人因安全措施不到位受傷占生產(chǎn)安全事故的大部分[1]。由于國情特殊,工人素質(zhì)參差不齊,盡管各單位經(jīng)常進(jìn)行安全教育,總有心存僥幸者因為各種理由不能保證時刻佩戴。

安全帽佩戴檢測經(jīng)過多年的發(fā)展,已經(jīng)從傳統(tǒng)的機(jī)器學(xué)習(xí)方法轉(zhuǎn)向深度學(xué)習(xí)方法。部分學(xué)者使用流行的目標(biāo)檢測網(wǎng)絡(luò)檢測安全帽佩戴情況,例如,文獻(xiàn)[2]改進(jìn)YOLOv2 目標(biāo)檢測方法,在原網(wǎng)絡(luò)中加入了密集塊,實現(xiàn)了多層特征的融合以及淺層低語義信息與深層高語義信息的兼顧,提高了網(wǎng)絡(luò)對于小目標(biāo)檢測的敏感性,利用MobileNet 中的輕量化網(wǎng)絡(luò)結(jié)構(gòu)對網(wǎng)絡(luò)進(jìn)行壓縮,使模型的大小縮減為原來的十分之一,增加了模型的可用性。文獻(xiàn)[3]在原始YOLOv3 的基礎(chǔ)上改進(jìn)GIoU 計算方法,結(jié)合YOLOv3算法目標(biāo)函數(shù)組成一個新的目標(biāo)函數(shù),實現(xiàn)了目標(biāo)函數(shù)局部最優(yōu)為IoU 局部最優(yōu),該方法,相比于YOLOv3算法在檢測精度上有所提高。這一類方法使用改進(jìn)的目標(biāo)檢測網(wǎng)絡(luò)對安全帽進(jìn)行檢測,解決了小目標(biāo)以及部分遮擋的問題,但沒有解決安全帽與人體的相對位置關(guān)系。

部分學(xué)者通過頭部定位的方法檢測安全帽佩戴情況,例如,文獻(xiàn)[4]提出基于運(yùn)動對象分割的結(jié)果,快速地定位行人,根據(jù)行人檢測結(jié)果,通過頭部位置、顏色空間變換和顏色特征判別實現(xiàn)安全帽佩戴檢測,該方法中頭部位置的判別是根據(jù)行人的身體比例的五分之一進(jìn)行判別,這樣的方法不具有普適性。文獻(xiàn)[5]通過檢測對應(yīng)圖像中身體部位的可見段確定骨架點,然后獲取對應(yīng)于極端節(jié)點的線段,并計算其與垂直軸的傾斜度。如果傾斜在一定夾角之內(nèi),該線段夾角之內(nèi)被分類為人的頭部。同樣的,這樣的方法也是針對直立行人,不符合施工人員姿態(tài)復(fù)雜的情況。此類方法大多針對是直立人員的安全帽檢測,而現(xiàn)實的施工作業(yè)現(xiàn)場,施工人員的姿態(tài)非常多樣復(fù)雜。

基于復(fù)雜姿態(tài)的情況下對安全帽識別難度增大的原因,本文提出一種基于頭部識別的安全帽佩戴檢測方法,通過面部特征識別與頭部識別交叉驗證,精確定位施工人員頭部區(qū)域,解決施工人員復(fù)雜姿態(tài)下頭部位置難確定的問題。使用YOLOv4 目標(biāo)檢測網(wǎng)絡(luò)進(jìn)行安全帽佩戴檢測,并解決了安全帽與人體的相對位置關(guān)系,從而對安全帽佩戴情況進(jìn)行判定。本文主要解決了施工人員復(fù)雜姿態(tài)下安全帽佩戴檢測精度低的問題。

1 安全帽佩戴檢測方法

本文設(shè)計的安全帽佩戴檢測方法流程如圖1所示,首先對施工人員的頭部進(jìn)行定位,通過膚色特征識別和頭部檢測識別分別獲取頭部區(qū)域并進(jìn)行交叉驗證,確定頭部區(qū)域;接著,使用YOLOv4 目標(biāo)檢測網(wǎng)絡(luò)對安全帽進(jìn)行識別;最后根據(jù)數(shù)據(jù)集特征,對安全帽是否正確佩戴進(jìn)行判定。

圖1 安全帽佩戴檢測方法流程Fig.1 Process of detection method for wearing helmet

1.1 YOLOv4目標(biāo)檢測網(wǎng)絡(luò)

YOLOv4[6]是YOLO系列的最新檢測網(wǎng)絡(luò),在YOLOv3的基礎(chǔ)上進(jìn)行各種先進(jìn)算法集成的創(chuàng)新。因此本文使用YOLOv4目標(biāo)檢測網(wǎng)絡(luò)進(jìn)行安全帽佩戴檢測,以期提高安全帽佩戴檢測方法的性能。

YOLOv4 輸入端的創(chuàng)新包括Mosaic 數(shù)據(jù)增強(qiáng)、cmBN、SAT 自對抗訓(xùn)練;主干網(wǎng)絡(luò)創(chuàng)新包括CSPDarknet53、Mish激活函數(shù)、Dropblock;Neck的創(chuàng)新包括目標(biāo)檢測網(wǎng)絡(luò)在BackBone和最后的輸出層之間往往會插入一些層,比如SPP 模塊、FPN+PAN 結(jié)構(gòu);預(yù)測部分輸出層的錨框機(jī)制和YOLOv3 相同,主要改進(jìn)的是訓(xùn)練時的損失函數(shù)CIOU_Loss,以及預(yù)測框篩選的nms 變?yōu)镈IOU_nms。

YOLOv4 使用了CSPNet[7]與Darknet-53 作為特征提取的骨干網(wǎng)絡(luò),相比于基于ResNet[8]的設(shè)計,CSPDarknet53 模型的目標(biāo)檢測準(zhǔn)確度更高,不過ResNet 的分類性能更好一些。但是,借助Mish和其他技術(shù),CSPDarknet53的分類準(zhǔn)確度可以得到提升。

為了檢測不同大小的目標(biāo),需要使用一種分層結(jié)構(gòu),使得目標(biāo)檢測的頭部可探測不同空間分辨率的特征圖。為了讓輸入頭部的信息更豐富,在輸入頭部前,會將來自自底向上和自上而下的數(shù)據(jù)流按逐元素的方式相加或相連。SPP相較于YOLOv3中使用的FPN[9]網(wǎng)絡(luò)能夠極大地增加感受野,分離出最顯著的上下文特征,并且?guī)缀鯖]有降低網(wǎng)絡(luò)運(yùn)行速度。且YOLOv4 針對不同級別的檢測器從不同骨干層中挑選PANet[10]作為參數(shù)聚合方法。因此,YOLOv4 使用修改版的SPP、PAN 和SAM 逐步實現(xiàn)替換了FPN,保留了來自自底向上數(shù)據(jù)流的豐富空間信息以及來自自上而下數(shù)據(jù)流的豐富語義信息。YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

圖2 YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Network structure diagram of YOLOv4

同時,YOLOv4 合理利用bag of freebie 和bag of specials 進(jìn)行調(diào)優(yōu)處理。與YOLOv3 相比,YOLOv4 的AP和FPS分別提高了10%和12%。

1.2 頭部定位方法

因為施工人員姿態(tài)復(fù)雜,頭部姿態(tài)多種多樣,單一的檢測網(wǎng)絡(luò)無法準(zhǔn)確檢測出頭部區(qū)域。本文提出的頭部定位方法用于精確定位施工人員頭部區(qū)域,解決施工人員復(fù)雜姿態(tài)下頭部位置難確定的問題。主要步驟為:(1)識別膚色特征檢測人臉區(qū)域;(2)預(yù)訓(xùn)練權(quán)重檢測頭部;(3)人臉區(qū)域與頭部區(qū)域交叉篩選;(4)判斷圖片所有頭部區(qū)域。

1.2.1 膚色檢測

工人施工狀態(tài)下,露出皮膚的區(qū)域基本只有臉部、脖頸、手部區(qū)域。因此本文首先對圖片進(jìn)行光線補(bǔ)償,接著在YCbCr色彩空間上對工人膚色進(jìn)行聚類,YCbCr顏色空間相較于RGB 便于色度分析[11],RGB 向YCbCr色彩空間的轉(zhuǎn)換[12]公式如式(1)所示:

本文使用基于YCrCb 顏色空間范圍篩選法對膚色進(jìn)行識別。實驗選取100 張圖片對膚色的RGB 特征進(jìn)行k-means 聚類,再轉(zhuǎn)換得出Y、Cr、Cb范圍分別為85

最后在圖像相關(guān)形態(tài)學(xué)處理后,將連通區(qū)域較大的部分定位,待定為人臉區(qū)域,便于后續(xù)交叉驗證。基于YCrCb顏色空間對膚色進(jìn)行識別效果,如圖3所示。

圖3 基于YCrCb顏色空間對膚色進(jìn)行識別效果Fig.3 Effects of skin color recognition based on YCrCb

1.2.2 頭部檢測

因為施工人員姿態(tài)復(fù)雜,頭部姿態(tài)多種多樣,目前沒有一個針對施工場景的頭部數(shù)據(jù)集,所以本文使用HollywoodHeads 數(shù)據(jù)集[14]和YOLOv4 網(wǎng)絡(luò)預(yù)訓(xùn)練頭部檢測權(quán)重。

HollywoodHeads數(shù)據(jù)集包含來自21部好萊塢電影的224 740 個視頻幀中的369 846 人物頭部。對于每個人物頭部,在幾個關(guān)鍵幀上手動標(biāo)注了頭部邊界框。該數(shù)據(jù)集分為訓(xùn)練,驗證和測試子集,這些子集在動作方面沒有重疊。能見度較差的人物頭部(例如,強(qiáng)烈的閉塞、低光照條件)被“困難”標(biāo)志標(biāo)記,并被排除在評估之外。

HollywoodHeads 數(shù)據(jù)集在YOLOv4 網(wǎng)絡(luò)訓(xùn)練下,AP 值達(dá)到95.4%。預(yù)訓(xùn)練權(quán)重對正常姿態(tài)(直立、行走等)的人頭檢測效果良好,預(yù)訓(xùn)練權(quán)重效果如圖4 所示。但是對于姿態(tài)復(fù)雜的人頭檢測,存在漏檢的情況。于是,本文就人臉檢測區(qū)域與人頭檢測區(qū)域進(jìn)行交叉篩選,從而判斷圖片所有頭部區(qū)域。

圖4 頭部預(yù)訓(xùn)練權(quán)重效果Fig.4 Effects of head pre-training weight

1.2.3 頭部區(qū)域交叉篩選

本文提出頭部區(qū)域交叉篩選方法,為了解決頭部檢測網(wǎng)絡(luò)存在漏檢的現(xiàn)象。根據(jù)本文數(shù)據(jù)集特點,施工工人在復(fù)雜姿態(tài)下,部分頭部難以檢測,但仍能檢測出面部膚色特征。故本文將已檢測出的膚色區(qū)域以及人頭區(qū)域進(jìn)行對比篩選,具體流程如圖5所示。

圖5 頭部區(qū)域交叉篩選流程Fig.5 Cross screening process of head area

在進(jìn)行膚色區(qū)域及人頭區(qū)域進(jìn)行對比篩選時,連通區(qū)域較大的膚色區(qū)域并不全是人臉區(qū)域,存在手臂,雙手,脖子等膚色區(qū)域。本文數(shù)據(jù)集樣本中,工人姿態(tài)復(fù)雜,脖子等膚色區(qū)域亦可輔助判斷頭部區(qū)域,所以本文保留手臂、雙手、脖子等膚色區(qū)域,并對所有區(qū)域進(jìn)行評估。當(dāng)膚色區(qū)域與人頭區(qū)域有重疊時,評估該區(qū)域為頭部區(qū)域,評估值為10;當(dāng)有且只有人頭區(qū)域,評估該區(qū)域為頭部區(qū)域,評估值為8;當(dāng)有且只有膚色區(qū)域時,評估該區(qū)域為疑似頭部區(qū)域,評估值為5。令膚色區(qū)域為F,人頭區(qū)域為H,評估值為x則頭部區(qū)域交叉篩選公式為:

通過設(shè)定評估值,進(jìn)一步確定圖片中的頭部區(qū)域,可以提高安全帽佩戴檢測的精確度,也為安全帽佩戴判斷方法提供支持。

1.3 安全帽佩戴判斷方法

本文使用YOLOv4網(wǎng)絡(luò)對安全帽進(jìn)行檢測,再在頭部區(qū)域判斷施工工人是否佩戴安全帽。前文中已經(jīng)對頭部區(qū)域進(jìn)行評估,通過安全帽區(qū)域與頭部區(qū)域的位置判定,本文即可判斷安全帽佩戴情況。

根據(jù)數(shù)據(jù)集特點,若安全帽區(qū)域He交于評估值為10 和8 的頭部區(qū)域H10和H8,則判定施工工人佩戴了安全帽。對于頭部區(qū)域H5(疑似頭部區(qū)域),包含面部、脖子、手臂、雙手等膚色區(qū)域,安全帽區(qū)域He與H5相交存在手持安全帽的危險情況。本文根據(jù)人體結(jié)構(gòu)以及數(shù)據(jù)集特征發(fā)現(xiàn),安全帽區(qū)域只存在頭部和手部,即施工人員頭部佩戴安全帽和手持安全帽。因此,本文計算所有膚色區(qū)域(除已經(jīng)定性為頭部區(qū)域)的面積Fi(Fi?H5)和中心點Mi,面積計算使用Seed Filling(種子填充法),其思路為:

選取一個前景像素點作為種子,然后根據(jù)連通區(qū)域的兩個基本條件(像素值相同、位置相鄰)將與種子相鄰的前景像素合并到同一個像素集合中,最后得到的該像素集合則為一個連通區(qū)域。下面給出基于種子填充法的連通區(qū)域分析方法。

(1)掃描圖像B,直到當(dāng)前像素點B(x,y)==1:

①將B(x,y)作為種子(像素位置),并賦予其一個label,然后將該種子相鄰的所有前景像素都壓入棧中;

②彈出棧頂像素,賦予其相同的label,然后再將與該棧頂像素相鄰的所有前景像素都壓入棧中;

③重復(fù)②步驟,直到棧為空。

此時,便找到了圖像B中的一個連通區(qū)域,該區(qū)域內(nèi)的像素值被標(biāo)記為label。

(2)重復(fù)第(1)步,直到掃描結(jié)束:

掃描結(jié)束后,就可以得到圖像B中所有的連通區(qū)域;

計算中心點使用image moments(圖像矩)求得,對每個連通區(qū)域運(yùn)用計算幾何距算法得到中心,數(shù)學(xué)表達(dá)為:

其中,M00是零階矩,M10和M01是一階矩,ic和jc是圖像的中心坐標(biāo)。

通過對比膚色區(qū)域面積判斷手部區(qū)域和頭部脖頸區(qū)域,再根據(jù)中心點和安全帽區(qū)域中心點的相對位置判斷安全帽的佩戴情況。一般情況下,大多頭部脖頸區(qū)域處在手部區(qū)域上方。故可根據(jù)這一特征,當(dāng)且僅當(dāng)最大膚色區(qū)域max(Fi)處于區(qū)域上方Top(Mi)時,判斷該區(qū)域為頭部區(qū)域,若安全帽區(qū)域與頭部區(qū)域相交,即He?max(Fi),則判定施工工人佩戴了安全帽,否則判定施工工人未佩戴安全帽。具體流程如圖6所示。

圖6 安全帽佩戴判斷方法流程Fig.6 Process of judgment method for wearing helmet

2 數(shù)據(jù)集

本文安全帽數(shù)據(jù)集由網(wǎng)絡(luò)爬蟲收集,公共數(shù)據(jù)集選取,實地采集所組成,共8 000張。數(shù)據(jù)集包含各類施工場景中單人以及多人的各種姿態(tài)的圖片。并且,本文考慮了正負(fù)樣本之間的平衡(其中佩戴安全帽的正樣本4 500張,未佩戴安全帽的負(fù)樣本3 500張),同時本文對數(shù)據(jù)集進(jìn)行了數(shù)據(jù)增廣,通過翻轉(zhuǎn),模糊,平移等操作擴(kuò)充數(shù)據(jù)集至40 000張。數(shù)據(jù)樣本示例如圖7所示。

圖7 數(shù)據(jù)樣本Fig.7 Data samples

3 實驗分析

實驗環(huán)境配置:GPU 為NVIDIA TITAN Xp×2,CUDA 10.0,Ubuntu 16.04,內(nèi)存12 GB。

本文實驗使用精確度(precision)、誤檢率(false positive,F(xiàn)P)、漏檢率(miss)、交并比(IoU)和平均精度(mAP)來衡量方法的有效性,計算公式如(6)~(9)所示:

其中,TP(true positive)表示被模型預(yù)測為正值的正樣本;FP(false positive)表示被模型預(yù)測為負(fù)值的正樣本;FN(false negative)表示被模型預(yù)測為負(fù)值的負(fù)樣本;TN(true negative)表示被模型預(yù)測為正值的負(fù)樣本。PartAcreage 是檢測后框出地安全帽區(qū)域,Overall-Acreage是標(biāo)記的安全帽區(qū)域。

3.1 目標(biāo)檢測網(wǎng)絡(luò)效果對比實驗

3.1.1 YOLOv4網(wǎng)絡(luò)訓(xùn)練

本文使用YOLOv4 目標(biāo)檢測網(wǎng)絡(luò)檢測頭部區(qū)域和安全帽區(qū)域。本文將安全帽數(shù)據(jù)集與頭部數(shù)據(jù)集合并訓(xùn)練,按6∶2∶2分為訓(xùn)練集、驗證集和測試集,其中對訓(xùn)練集與驗證集進(jìn)行標(biāo)注。

本文網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置如表1 所示,訓(xùn)練學(xué)習(xí)率(learning rate)為0.001,輪次(epoch)為80 次,每一輪次迭代次數(shù)(iterations)為100 次,一共迭代次數(shù)(batches)為8 000,每一次迭代訓(xùn)練的樣本數(shù)為64。學(xué)習(xí)率變動步長(steps)設(shè)置為(6 400,7 200),根據(jù)batch_num 調(diào)整學(xué)習(xí)率。學(xué)習(xí)率變動因子(scales),迭代到6 400 次時,學(xué)習(xí)率×0.1;迭代到7 200次時,學(xué)習(xí)率又會在前一個學(xué)習(xí)率的基礎(chǔ)上×0.1,Steps 和scales 相互對應(yīng),這兩個參數(shù)設(shè)置學(xué)習(xí)率的變化。

表1 網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置Table 1 Network training parameter settings

最后損失值(Loss)在0.5左右振蕩。數(shù)據(jù)集的訓(xùn)練損失值如圖8所示,卷積層特征可視化如圖9所示。

圖8 訓(xùn)練損失曲線Fig.8 Training loss curve

圖9 卷積層特征可視化Fig.9 Feature visualization of convolutional layer

3.1.2 目標(biāo)檢測網(wǎng)絡(luò)效果對比

本文從精度、平均精度、交并比、檢測時間4個指標(biāo)評估Faster RCNN[15]、RetinaNet[16]、YOLOv3[17]、YOLOv4這4 個目標(biāo)檢測網(wǎng)絡(luò)的檢測效果,其中YOLOv3、YOLOv4為一階目標(biāo)檢測網(wǎng)絡(luò),faster RCNN、RetinaNet為二階目標(biāo)檢測網(wǎng)絡(luò)。對比實驗效果如表2所示。

表2 目標(biāo)檢測網(wǎng)絡(luò)實驗結(jié)果對比Table 2 Comparison of experimental results of target detection network

從表2 可以看出針對本文數(shù)據(jù)集,YOLOv4 目標(biāo)檢測網(wǎng)絡(luò)無論從精度上還是從檢測時間上都要優(yōu)于其余3種網(wǎng)絡(luò)。甚至,從precision 值以及mAP 值看,YOLOv4作為一階目標(biāo)檢測網(wǎng)絡(luò)也要優(yōu)于Faster RCNN、RetinaNet這兩個二階目標(biāo)檢測網(wǎng)絡(luò)。YOLOv4作為YOLO系列的最新檢測網(wǎng)絡(luò),大大提高了本文對頭部區(qū)域和安全帽區(qū)域的檢測精度。4種網(wǎng)絡(luò)對測試數(shù)據(jù)集檢測效果如圖10、11所示。

圖10 4種網(wǎng)絡(luò)檢測結(jié)果對比Fig.10 Comparison of four network detection results

圖10展示的是4種網(wǎng)絡(luò)檢測測試圖片的各項指標(biāo),分析數(shù)據(jù)可以看出YOLOv4 各項指標(biāo)都要優(yōu)于其余3種網(wǎng)絡(luò)。綜合圖11 看,工人在直立姿態(tài)下,4 種網(wǎng)絡(luò)檢測效果相近,在復(fù)雜姿態(tài)下,YOLOv4 檢測頭部區(qū)域和安全帽區(qū)域效果都要優(yōu)于Faster RCNN、YOLOv3,而RetinaNet 作為較新的二階目標(biāo)檢測網(wǎng)絡(luò)檢測效果與YOLOv4 相近,但是檢測時間相對弱勢。所以,本文選取YOLOv4 作為目標(biāo)檢測網(wǎng)絡(luò)檢測頭部區(qū)域和安全帽區(qū)域。

圖11 4種網(wǎng)絡(luò)檢測效果對比Fig.11 Comparison of four network detection effects

3.2 安全帽檢測方法對比實驗

為了驗證本文方法的效果,對比文獻(xiàn)[4]和[5]的安全帽檢測方法。文獻(xiàn)[4]和文獻(xiàn)[5]均采用了頭部定位的方法檢測安全帽。

3.2.1 頭部區(qū)域檢測實驗

本文通過頭部區(qū)域交叉篩選方法,解決頭部檢測網(wǎng)絡(luò)存在漏檢的現(xiàn)象。并且施工工人在復(fù)雜姿態(tài)下,針對部分頭部難以檢測,本文方法仍能通過膚色特征與頭部特征,判斷安全帽佩戴情況。實驗效果如圖12所示,本文方法進(jìn)行膚色檢測,篩選出膚色連通區(qū)域,通過種子填充法計算出各連通區(qū)域的面積和中心坐標(biāo),判斷頭部區(qū)域。圖12(b)、(d)為圖12(a)、(c)的中間計算效果圖,可以計算出圖12(a)、(c)中的最大連通區(qū)域面積(分別為2 113.0 和1 609.5)和中心坐標(biāo)((100,117)和(237,89))。實驗結(jié)果顯示方法標(biāo)記的區(qū)域為頭部區(qū)域。

圖12 安全帽佩戴判斷方法Fig.12 Judgment method of wearing helmet

3.2.2 安全帽檢測對比實驗

在施工人員為復(fù)雜施工姿態(tài)下,文獻(xiàn)[4]使用的方法失效,其檢測人體的上部1/5 區(qū)域的方法只適合直立的施工人員;文獻(xiàn)[5]使用的方法相較文獻(xiàn)[4]的方法有所提高,但是還是存在漏檢的現(xiàn)象,主要是因為其通過計算骨架點與垂直軸的傾斜度來判斷頭部位置,也是適用于直立的施工人員。

根據(jù)表3數(shù)據(jù)顯示,本文方法在精度和速度上均優(yōu)于文獻(xiàn)[4]和文獻(xiàn)[5]的安全帽檢測方法,實驗使用本文數(shù)據(jù)集,上述兩種方法對于部分樣本失效。然而從圖13可以看出,本文方法不受限于工人的姿態(tài)。

表3 安全帽檢測方法結(jié)果對比Table 3 Comparison of safety helmet detection method results

圖13 安全帽檢測方法效果對比Fig.13 Comparison of safety helmet detection method effects

同時,本文方法通過頭部區(qū)域與安全帽區(qū)域的位置關(guān)系,判斷安全帽佩戴情況,可以檢測出手持安全帽這類危險情況。如圖14 所示,當(dāng)頭部區(qū)域與安全帽區(qū)域相交時,則判斷施工人員佩戴了安全帽。當(dāng)手持安全帽,或者未帶安全帽的情況下,頭部區(qū)域與安全帽區(qū)域未相交,則判斷施工人員未佩戴安全帽。

圖14 安全帽佩戴檢測實驗結(jié)果Fig.14 Test results of wearing helmet

3.3 本文方法在不同環(huán)境條件下檢測效果

本文挑選不同環(huán)境條件下的樣本測試其檢測性能,選擇小目標(biāo)、目標(biāo)尺度差距大、部分遮擋等不佳條件的樣本,測試效果如圖15 所示。發(fā)現(xiàn)本文方法在目標(biāo)尺度差距大、部分遮擋以及目標(biāo)模糊的情況下檢測效果均表現(xiàn)良好。但是在小目標(biāo)的情況下,仍存在漏檢的情況,本文在后續(xù)的研究中會進(jìn)一步深入探索。

圖15 本文方法在不同環(huán)境條件下的檢測效果Fig.15 Detection effects of method in this paper under different environmental conditions

4 結(jié)束語

本文首先采用YOLOv4 網(wǎng)絡(luò)預(yù)訓(xùn)練頭部和安全帽的權(quán)重;接著利用YCbCr顏色空間對施工人員進(jìn)行膚色檢測,通過頭部區(qū)域交叉篩選確定頭部區(qū)域;最后通過安全帽區(qū)域與頭部區(qū)域的位置判定,即可判斷安全帽佩戴情況。實驗結(jié)果表明,本文方法對不同姿態(tài)的施工人員安全帽佩戴檢測有較好的結(jié)果,由于頭部區(qū)域的圈定,安全帽佩戴的檢測精度也要優(yōu)于以往方法。然而,因為方法使用膚色特征和網(wǎng)絡(luò)檢測互補(bǔ)檢測頭部區(qū)域,所以在人物目標(biāo)極小的情況下效果不太理想。在以后的研究中將對其進(jìn)行深入研究,以期提高模型的效果。

猜你喜歡
安全帽膚色頭部
刺猬戴上安全帽
礦工有無數(shù)頂安全帽
小小安全帽,生命保護(hù)傘
頭部按摩治療老伴失憶
火箭的頭部為什么是圓鈍形?
軍事文摘(2020年22期)2021-01-04 02:16:38
Conversation in a house
人的膚色為什么不同
好孩子畫報(2020年3期)2020-05-14 13:42:44
自適應(yīng)統(tǒng)計迭代重建算法在頭部低劑量CT掃描中的應(yīng)用
膚色檢測和Hu矩在安全帽識別中的應(yīng)用
為什么人有不同的膚色?
成都市| 临沭县| 海口市| 宣恩县| 靖州| 济源市| 城步| 临潭县| 镇坪县| 兖州市| 安岳县| 伊宁县| 聊城市| 天祝| 吉水县| 靖远县| 固始县| 扎囊县| 杭锦后旗| 巍山| 易门县| 邢台市| 福鼎市| 甘洛县| 礼泉县| 越西县| 虞城县| 沭阳县| 固始县| 巴林右旗| 莆田市| 朔州市| 阿坝| 瑞金市| 叶城县| 宁明县| 绥棱县| 重庆市| 洛川县| 东港市| 宿迁市|