盧云聰
(鄭州警察學(xué)院 河南鄭州 450000)
隨著新冠疫情防控進(jìn)入常態(tài)化階段,醫(yī)院、車站等公共場(chǎng)所迎來了客流高峰,部分群眾的防疫意識(shí)有所減弱,開始不佩戴口罩出入人員密集場(chǎng)所,這大大增加了新冠病毒的傳染風(fēng)險(xiǎn),考慮到新冠病毒的變異性,部分公共場(chǎng)所對(duì)通行人員進(jìn)行體溫檢測(cè)和口罩佩戴監(jiān)督仍然是必要的。目前常見的體溫和口罩佩戴檢測(cè)主要依靠工作人員手持體溫槍檢測(cè),這種方式存在一定的漏檢率,效率低下,且容易造成群眾的抵觸情緒[1]。因此借助深度學(xué)習(xí)構(gòu)建一款高效、準(zhǔn)確的體溫與口罩佩戴檢測(cè)模型具備良好的應(yīng)用價(jià)值。
目前常用的目標(biāo)檢測(cè)算法主要是one-stage 算法中表現(xiàn)優(yōu)異的YOLO模型,它主要是通過多層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來對(duì)目標(biāo)圖像進(jìn)行不同尺度特征的提取,進(jìn)而對(duì)目標(biāo)所在位置及類別進(jìn)行預(yù)測(cè)[2,3]。該方式識(shí)別速度快具備實(shí)時(shí)性的特點(diǎn),但在面對(duì)人員密集的復(fù)雜場(chǎng)景時(shí),識(shí)別性能容易受到背景干擾,造成識(shí)別精度的下降。
本文在YOLOV5 算法的基礎(chǔ)上加入CBAM 模塊構(gòu)建了改進(jìn)YOLOV5模型,旨在進(jìn)一步提升模型在復(fù)雜場(chǎng)景下提取目標(biāo)多尺度特征的能力。同時(shí)提出了灰度極值定位算法,結(jié)合人臉生物學(xué)特征定位人像額頭的中心點(diǎn)。最終構(gòu)建出了能夠?qū)崟r(shí)對(duì)目標(biāo)進(jìn)行體溫和口罩佩戴情況同時(shí)進(jìn)行檢測(cè)的雙檢測(cè)模型,以此來減輕公共場(chǎng)所管理壓力,增強(qiáng)群眾的衛(wèi)生健康意識(shí)。
(一)CBAM。卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)是由通道注意力模塊和空間注意力模塊組成[4],如圖1所示
圖1 CBAM結(jié)構(gòu)圖
CBAM首先借助通道注意力模塊對(duì)輸入特征圖的各個(gè)通道的重要程度進(jìn)行建模,針對(duì)檢測(cè)任務(wù)需求,對(duì)不同的通道進(jìn)行增強(qiáng)或者抑制[5],如圖2 所示。然后通過空間注意力模塊對(duì)逐元素相乘后結(jié)果的空間維度進(jìn)行建模,獲取其中任務(wù)感興趣的區(qū)域,并對(duì)這些區(qū)域進(jìn)行細(xì)化處理,如圖3所示。最終將空間注意力處理結(jié)果與處理前的輸入進(jìn)行逐元素相乘,得到最終的輸出特征圖[6]。
圖2 通道注意力模塊
圖3 空間注意力模塊
(二)改進(jìn)YOLOV5模型。本文在YoloV5模型的基礎(chǔ)上進(jìn)行改進(jìn),在Neck部分的FPN+PAN結(jié)構(gòu)中加入三個(gè)CBAM模塊,用來對(duì)三個(gè)不同尺度的特征圖進(jìn)行優(yōu)化和聚焦,用以消除復(fù)雜環(huán)境中背景所帶來的干擾,提升模型對(duì)于目標(biāo)內(nèi)容的敏感度,如圖4所示。
圖4 改進(jìn)YOLOV5模型
當(dāng)圖像輸入進(jìn)模型后,首先通過Backbone對(duì)其進(jìn)行特征提取,以獲取不同尺度的特征圖[7]。再通過Neck對(duì)不同尺度特征圖進(jìn)行整合和再提取,并依靠其中的CBAM實(shí)現(xiàn)對(duì)不同尺度特征圖的優(yōu)化和聚焦。最后通過Prediction對(duì)檢測(cè)結(jié)果進(jìn)行輸出。這種改進(jìn)方式能夠幫助模型在圖像中更加準(zhǔn)確的定位人像,很大程度上抑制了來自背景的干擾,增強(qiáng)模型的性能。
目前常見的電子測(cè)溫系統(tǒng)主要是依靠?jī)?nèi)置測(cè)溫傳感器來對(duì)目標(biāo)進(jìn)行測(cè)溫[8]。該方式需要在設(shè)備部署前計(jì)算好傳感器的最佳檢測(cè)點(diǎn)位置,以此來確保其對(duì)準(zhǔn)待測(cè)溫人員的額頭位置,并且對(duì)檢測(cè)距離有一定的范圍要求[9]。但由于公共場(chǎng)合人員的復(fù)雜性和高流動(dòng)性,存在著不同身高、體態(tài)、性別的目標(biāo),因此上述方式很容易造成漏檢、誤檢。
由于生物學(xué)角度上人臉具備對(duì)稱性,并且除五官和毛發(fā)外均為皮膚,因此在灰度圖像下,某些五官和毛發(fā)位置上的像素值具備一定的對(duì)稱性,并且除五官和毛發(fā)位置外像素值均為零。根據(jù)該特點(diǎn),本文提出了基于人像的灰度極值定位算法。首先對(duì)獲取的人像進(jìn)行灰度處理,并分別計(jì)算該圖像的各行像素之和及各列像素之和,如圖5所示。
圖5 灰度極值處理結(jié)果
從圖中可以看出,人像的各行像素之和及各列像素之和的函數(shù)圖像出現(xiàn)了多個(gè)極值,極大值代表皮膚裸露相對(duì)較多的行或列,而極小值代表有五官或毛發(fā)存在的行或列。對(duì)于橫向計(jì)算來說,頭發(fā)和眉毛處的各行像素值和會(huì)出現(xiàn)極小值,因此在這兩者間的像素行中必然存在極大值,而該極大值所對(duì)應(yīng)的像素行即額頭部分的橫向定位線(圖中①所示)。而對(duì)于豎向計(jì)算來說,由于人臉的對(duì)稱性,因此面部中軸線的像素值之和必然為極大值(圖中C所示)。兩線相交的像素點(diǎn)坐標(biāo),即可確定為目標(biāo)的額頭最佳測(cè)溫點(diǎn)坐標(biāo)(額頭中心坐標(biāo))。
(一)實(shí)驗(yàn)數(shù)據(jù)。使用SF-MASK作為數(shù)據(jù)集。該數(shù)據(jù)集是在復(fù)雜背景下的監(jiān)控錄像中截取,具有小尺寸、多角度、多口罩類型的特點(diǎn),適用于高人流量場(chǎng)景下的口罩佩戴檢測(cè),與本文檢測(cè)任務(wù)相契合。數(shù)據(jù)集共37156 張圖片,本文按照4:1 的比例劃分訓(xùn)練集和測(cè)試集。
(二)改進(jìn)YOLOV5 模型實(shí)驗(yàn)。本文在YOLOV5 模型的基礎(chǔ)上結(jié)合CBAM 機(jī)制,構(gòu)建口罩佩戴檢測(cè)模型,并與未改進(jìn)模型在使用相同數(shù)據(jù)集的情況下進(jìn)行了對(duì)比,結(jié)果如表1 所示。精確率P 表示所有預(yù)測(cè)為正樣本的結(jié)果中真正為正樣本的比例,此處的正樣本為佩戴口罩的樣本;召回率R 表示所有正樣本中被預(yù)測(cè)為正樣本的比例;mAP表示各類別(本文中只有佩戴和未佩戴口罩兩種類別)的平均準(zhǔn)確率。
表1 基于改進(jìn)YOLOV5的口罩佩戴檢測(cè)模型測(cè)試結(jié)果
可以從表中看出,改進(jìn)后的模型在精確率P、召回率R、mAP值上分別有著1.29%、3.16%、2.38%的提升,說明YOLOV5模型在加入CBAM 后提升了一定的目標(biāo)分類能力以及復(fù)雜背景下的目標(biāo)捕獲能力。由于改進(jìn)模型參數(shù)規(guī)模的增大,在單幀圖像的平均推理時(shí)間上有著2.3ms的較小延遲,但整體檢測(cè)速度仍在合理范圍內(nèi),并未影響模型的正常檢測(cè)行為。
(三)體溫與口罩佩戴雙檢測(cè)系統(tǒng)實(shí)驗(yàn)。使用訓(xùn)練好的改進(jìn)YOLOV5口罩檢測(cè)模型結(jié)合灰度極值定位算法,構(gòu)建體溫與口罩佩戴雙檢測(cè)系統(tǒng),檢測(cè)流程如圖6所示。使用艾瑞天眼t2熱成像儀結(jié)合常規(guī)高清攝像頭組成圖像輸入設(shè)備,當(dāng)改進(jìn)YOLOV5模型檢測(cè)到高清攝像頭中的人像后,會(huì)對(duì)其是否佩戴口罩進(jìn)行判斷,同時(shí),會(huì)將人像進(jìn)行裁剪并通過灰度極值定位算法對(duì)額頭測(cè)溫點(diǎn)的坐標(biāo)進(jìn)行定位,最后,根據(jù)該坐標(biāo)在熱成像畫面中獲取目標(biāo)人的額頭體溫?cái)?shù)據(jù)。
圖6 基于深度學(xué)習(xí)的體溫與口罩佩戴雙檢測(cè)系統(tǒng)
為了檢驗(yàn)該系統(tǒng)在實(shí)際應(yīng)用中的效果,本文針對(duì)圖像中目標(biāo)數(shù)的不同進(jìn)行了多組實(shí)驗(yàn),每組的實(shí)驗(yàn)次數(shù)為100,結(jié)果如表2所示:
表2 基于深度學(xué)習(xí)的體溫與口罩佩戴雙檢測(cè)系統(tǒng)實(shí)驗(yàn)結(jié)果
可以從表中看出,該系統(tǒng)能夠在一定有效范圍內(nèi)對(duì)目標(biāo)進(jìn)行快速、準(zhǔn)確的體溫與口罩佩戴情況檢測(cè),并且隨著圖像中目標(biāo)數(shù)量的增加,系統(tǒng)性能仍然保持穩(wěn)定,證明了該系統(tǒng)能夠滿足公共場(chǎng)所的衛(wèi)生健康管理需求。
針對(duì)公共場(chǎng)所人流量大的問題,本文在YOLOV5模型的基礎(chǔ)上加入了CBAM模塊,用以進(jìn)一步提升模型在復(fù)雜場(chǎng)景下提取目標(biāo)多尺度特征的能力。針對(duì)傳統(tǒng)電子測(cè)溫系統(tǒng)最佳測(cè)溫點(diǎn)定位難的問題,提出了灰度極值定位算法,用以根據(jù)人臉特征快速定位額頭中心點(diǎn)坐標(biāo)。并將兩者進(jìn)行結(jié)合,構(gòu)建了體溫與口罩佩戴雙檢測(cè)系統(tǒng),并進(jìn)行了實(shí)際測(cè)試,結(jié)果證明本系統(tǒng)能夠?qū)崟r(shí)有效地對(duì)目標(biāo)人員進(jìn)行檢測(cè),對(duì)營(yíng)造衛(wèi)生健康的公共環(huán)境有著一定的實(shí)用價(jià)值。