国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于CNN算法與無人機(jī)技術(shù)的臨邊護(hù)欄識別方法探索

2021-04-12 10:07:00王子豪周建亮周穎綺陳博華徐欣燕朱宏斌
土木建筑工程信息技術(shù) 2021年1期
關(guān)鍵詞:護(hù)欄施工現(xiàn)場準(zhǔn)確率

王子豪 周建亮 周穎綺 陳博華 徐欣燕 朱宏斌

(1.中國礦業(yè)大學(xué) 國際學(xué)院,徐州 221116; 2.中國礦業(yè)大學(xué) 力學(xué)與土木工程學(xué)院,徐州 221116)

引言

隨著改革開放進(jìn)程的不斷推進(jìn),國家經(jīng)濟(jì)快速發(fā)展,城鎮(zhèn)化水平持續(xù)上升,建筑工程項目不斷增多[1],生產(chǎn)安全事故起數(shù)也隨之大幅增加。根據(jù)中華人民共和國住房和城鄉(xiāng)建設(shè)部的統(tǒng)計數(shù)據(jù)顯示,2018年1月至11月全國共發(fā)生房屋市政工程生產(chǎn)安全事故698起、死亡800人,比2017年同期事故起數(shù)增加55起、死亡人數(shù)增加47人,分別上升8.55%和6.24%[2]。其中,由高空墜落造成的安全事故占建筑業(yè)安全事故的48.2%[3]。因此,防范高空墜落事故的發(fā)生對于改善建筑行業(yè)的安全現(xiàn)狀具有重要意義。高空墜落事故致因通常從人的不安全行為、物的不安全狀態(tài)、環(huán)境因素三個方面進(jìn)行分析[3],相較于人和環(huán)境因素而言,物的不安全狀態(tài)的監(jiān)管更具有可實施性,更有助于預(yù)防高空墜落事故的發(fā)生。在物的不安全狀態(tài)中,臨邊防護(hù)是最為基礎(chǔ)的部分,構(gòu)建完善的建筑防護(hù)欄桿系統(tǒng)是預(yù)防建筑施工現(xiàn)場高空墜落事故頻發(fā)的重要和有效的措施之一,可以有效降低事故發(fā)生率,減少傷亡人數(shù),消除安全隱患。

對于防護(hù)護(hù)欄的監(jiān)測,如果采用傳統(tǒng)的人工監(jiān)管方式,存在人力耗費、工作效率低下、數(shù)據(jù)缺乏客觀性及說服力等缺點。與此同時,數(shù)據(jù)只能用于后期追責(zé),做不到前期預(yù)防和防治[4]。如今,信息化發(fā)展逐漸成為時代主流,信息技術(shù)領(lǐng)域與其他領(lǐng)域的結(jié)合具有高效便捷且準(zhǔn)確率高的特點[5]。針對目前國內(nèi)研究相對較少的建筑施工現(xiàn)場臨邊護(hù)欄識別問題,本文通過無人機(jī)定期采集施工現(xiàn)場的圖像,建立基于深度學(xué)習(xí)算法的圖像識別模型,實現(xiàn)臨邊防護(hù)安全狀況的快速分類,將有助于現(xiàn)場實時性能數(shù)據(jù)的采集和記錄,并對采集到的圖像數(shù)據(jù)進(jìn)行及時的判斷反饋,縮短發(fā)現(xiàn)不安全因素的時間,為項目管理和工程信息化管理提供數(shù)據(jù)支持,從而能夠更有效地解決施工安全監(jiān)測問題及進(jìn)行風(fēng)險規(guī)避。

1 研究背景

1.1 圖像識別算法分類與選擇

在人工智能技術(shù)不斷發(fā)展的時代背景下,圖像識別作為人工智能的一個重要方面,在各個領(lǐng)域得到了廣泛應(yīng)用。目前,較為成熟的圖像識別算法主要分為三類:

一是基于手工提取局部特征的傳統(tǒng)圖像識別算法,如定向分布直方圖、光流直方圖(HOF)、運動邊界直方圖(MBH)等。傳統(tǒng)圖像識別算法將提取到的圖像特征作為一組詞匯,總結(jié)出各個詞在圖像中的出現(xiàn)頻率,并使用頻率直方圖作為圖像的特征表示。在建筑工程領(lǐng)域,傳統(tǒng)圖像識別算法中的定向分布直方圖(HOG)曾被用來識別建筑工人與安全帽圖像[6]; 光流直方圖(HOF)、運動邊界直方圖(MBH)曾用于建筑工人動作識別[7]。

二是基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的分類目標(biāo)識別算法。卷積神經(jīng)網(wǎng)絡(luò)是一類包含卷積計算的具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),其核心為卷積層,層參數(shù)由內(nèi)核和濾波器組成。著名的CNN網(wǎng)絡(luò)AlexNet曾在2012年的比賽中拿到冠軍,從那以后,相繼提出了很多網(wǎng)絡(luò)(如GoogleNet、MobileNet、VGGNet等)。在建筑領(lǐng)域,CNN曾被用于屋頂檢測[8]。

三是基于區(qū)域的目標(biāo)檢測算法,如Faster RCNN、YOLO等。Faster RCNN將目標(biāo)檢測實現(xiàn)模塊(候選區(qū)域生成、特征提取、目標(biāo)分類、位置精修)統(tǒng)一到一個深度網(wǎng)絡(luò)框架之中,完全實現(xiàn)端到端的目標(biāo)檢測,檢測準(zhǔn)確率較高,但是速度相對較慢; 相比基于區(qū)域的方法,YOLO算法對邊界框進(jìn)行直接預(yù)測,可提高對目標(biāo)的檢測速度,但目標(biāo)位置過于粗糙,準(zhǔn)確率有所降低。在建筑領(lǐng)域,F(xiàn)aster RCNN和算法曾用于工人安全帽的識別[7]。

針對臨邊護(hù)欄的識別,能否識別護(hù)欄的完整性是圖像識別的主要目標(biāo)。對于傳統(tǒng)的圖像識別算法對模型的輸入有嚴(yán)格的約束,包括尺寸,通道數(shù)及像素精度,而由于工地現(xiàn)場的復(fù)雜性,難以對臨邊護(hù)欄建立一個準(zhǔn)確而復(fù)雜的特征模型,傳統(tǒng)圖像識別算法受到較大限制。對于基于區(qū)域的目標(biāo)檢測圖像識別方法,由于臨邊護(hù)欄在圖像中常常沒有完整的分隔界限,常常無法準(zhǔn)確找到其邊界框,F(xiàn)aster RCNN等算法準(zhǔn)確率會大幅降低?;诰矸e神經(jīng)網(wǎng)絡(luò)的分類目標(biāo)識別算法,通過使用具有不同結(jié)構(gòu)的CNN網(wǎng)絡(luò)模型,可以將一張圖像的特征提取到不同的精度級別和多維空間中,經(jīng)模型訓(xùn)練可準(zhǔn)確提取到圖像特征,從而實現(xiàn)臨邊護(hù)欄識別。因此,本文將采用卷積神經(jīng)網(wǎng)絡(luò)CNN算法對圖像中臨邊護(hù)欄進(jìn)行識別,構(gòu)建一種針對建筑施工現(xiàn)場臨邊護(hù)欄的檢測模型。針對CNN算法中常用的AlexNet、GoogleNet等5種主流模型,對現(xiàn)場采集的圖像數(shù)據(jù)進(jìn)行訓(xùn)練集驗證,評估與比較該5種模型在臨邊護(hù)欄圖像的識別性能。

1.2 無人機(jī)圖像采集技術(shù)

無人機(jī)是由地面人員通過無線電遙控設(shè)備系統(tǒng)進(jìn)行操控的不載人飛行器,以機(jī)載遙感設(shè)備如高分辨率相機(jī)、輕型光學(xué)相機(jī)等作為獲取圖像信息的方式,通過計算機(jī)對圖像信息進(jìn)行處理,可大量收集、存儲、傳回目標(biāo)圖像與視頻信息。無人機(jī)體積小、機(jī)動靈活、使用成本低,適于近地面、高精度作業(yè)。

與建筑領(lǐng)域長期采用的人工巡檢作業(yè)相比,使用無人機(jī)圖像采集技術(shù)勞動強(qiáng)度更低、速度更快,尤其是其大大提高了信息采集的空間自由度,不僅不受到地面人員、交通條件的限制,也沒有大型載人平臺高度的限制,可以從零至數(shù)百米的不同距離、高度、角度上對建筑目標(biāo)進(jìn)行各種類型的信息采集作業(yè),完成原來無法想象的高難度作業(yè)項目[9]。

本文實驗中選用的無人機(jī)型號為大疆Mavic2專業(yè)版,該機(jī)配備有高分辨率攝像頭、GPS定位系統(tǒng),飛行控制系統(tǒng)等,降低了飛行操控難度,且能夠獲取較高精度的圖片及視頻; 同時為實現(xiàn)攝像機(jī)多視角拍攝的目的,無人機(jī)飛行過程中采取傾斜攝影的圖像獲取方式[10]。飛行中預(yù)設(shè)飛行速度為5m/s, 飛行高度為80m, 傾斜角度為-60°,完整的飛行耗時15m34s,拍攝大量施工現(xiàn)場臨邊護(hù)欄圖像,用于后期模型的訓(xùn)練及測試。

1.3 問題的提出

針對無人機(jī)采集的施工現(xiàn)場圖像,盡管卷積神經(jīng)網(wǎng)絡(luò)CNN算法相對于傳統(tǒng)圖像識別算法和基于區(qū)域的目標(biāo)檢測算法較為適用,但卷積神經(jīng)網(wǎng)絡(luò)具有多種算法模型,如AlexNet、MobileNet、ResNet、VGGNet和GoogleNet等均為CNN的主流算法,這些算法都可針對圖像對象進(jìn)行識別,哪種算法更適合與施工現(xiàn)場的臨邊護(hù)欄圖像識別,其效果和效率是否能滿足項目現(xiàn)場圖像搜集速度與處理能力的需求,這將是本研究重點探究的問題。本文評估比較的五類卷積神經(jīng)網(wǎng)絡(luò)CNN主流算法的相關(guān)主要參數(shù)對比如表1所示,其中,

(1)AlexNet算法:相比傳統(tǒng)深度學(xué)習(xí)模型,該算法使用線性整流函數(shù)(ReLu)作為激活函數(shù)克服了在學(xué)習(xí)網(wǎng)絡(luò)較深時易發(fā)生的梯度彌散問題,同時在訓(xùn)練時使用Dropout結(jié)構(gòu)隨機(jī)忽略一部分神經(jīng)元,以避免模型過擬合,除此之外,相比傳統(tǒng)的CPU運行訓(xùn)練,AlexNet允許使用GPU進(jìn)行加速,可顯著提升訓(xùn)練速度。

(2)MobileNet算法:該算法具有輕量化的結(jié)構(gòu)特點,在CPU中也能夠達(dá)到理想的速度要求。該模型使用深度可分離卷積技術(shù)大幅度減少了參數(shù)量和計算量,同時由于加入了寬度因子和分辨率因子兩個簡單的全局超參數(shù),允許研究人員依據(jù)約束條件選擇合適大小的模型,并根據(jù)實際的需求來控制識別速度或識別準(zhǔn)確率。

(3)ResNet算法:該算法在學(xué)習(xí)網(wǎng)絡(luò)中融入了高速路神經(jīng)網(wǎng)絡(luò)(Highway Network)的結(jié)構(gòu),解決了傳統(tǒng)的卷積網(wǎng)絡(luò)或者全連接網(wǎng)絡(luò)在學(xué)習(xí)過程中存在的信息丟失、損耗甚至梯度爆炸等導(dǎo)致較深網(wǎng)絡(luò)無法完成訓(xùn)練的問題。

(4)VGGNet算法:該算法得益于其較小的間隔和卷積尺寸,以及在特定的層使用預(yù)訓(xùn)練得到的數(shù)據(jù)進(jìn)行參數(shù)初始化的先天優(yōu)勢,可以增加網(wǎng)絡(luò)深度來保證學(xué)習(xí)更復(fù)雜的模式,而且代價還更小。

表1 五種CNN網(wǎng)絡(luò)主流算法的主要參數(shù)對比

(5)GoogleNet算法:該算法在深度和寬度方面均進(jìn)行了改進(jìn),加入的可產(chǎn)生稠密數(shù)據(jù)的稀疏網(wǎng)絡(luò)結(jié)構(gòu),不僅能強(qiáng)化其運算能力,同時抑制了訓(xùn)練時對計算資源的過度消耗,使得其相比于AlexNet,VGGNet等,深度、參數(shù)均較少,對應(yīng)的性能卻更加優(yōu)越。

據(jù)此,本文在以往研究的基礎(chǔ)上,提出一種基于CNN的臨邊護(hù)欄識別技術(shù),使用5種主流卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行模型訓(xùn)練,并對5種算法的性能指標(biāo)進(jìn)行評估與比較,選出適用于護(hù)欄識別的最優(yōu)算法。最后,通過檢驗試驗對無人機(jī)拍攝施工現(xiàn)場臨邊護(hù)欄視頻所截取圖像進(jìn)行識別與檢測,以驗證結(jié)論的準(zhǔn)確性,彌補(bǔ)以往研究的不足。

2 研究方法與關(guān)鍵技術(shù)

2.1 基本流程

本文基于多種深度學(xué)習(xí)網(wǎng)絡(luò)模型算法對施工現(xiàn)場圖像中臨邊護(hù)欄進(jìn)行識別。首先使用大疆無人機(jī)在施工現(xiàn)場采集一定數(shù)量的臨邊護(hù)欄圖像作為訓(xùn)練集與測試集,因為采集到的圖像數(shù)量比較少,并且無法直接輸入深度學(xué)習(xí)模型,所以需要對圖像進(jìn)行相應(yīng)預(yù)處理,使其滿足識別要求; 然后使用AlexNet、MobileNet、GoogleNet、ResNet和VGGNet共5種卷積神經(jīng)網(wǎng)絡(luò),根據(jù)模型訓(xùn)練和測試結(jié)果微調(diào)其網(wǎng)絡(luò)參數(shù),最終實現(xiàn)圖像分類,之后對這5種網(wǎng)絡(luò)性能進(jìn)行對比分析,最終選出最優(yōu)網(wǎng)絡(luò)。本文的主要研究過程包括數(shù)據(jù)集采集與預(yù)處理、超參數(shù)確定、模型訓(xùn)練及比較和模型檢驗等步驟,其研究流程如圖1所示。

2.2 CNN網(wǎng)絡(luò)架構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)基本架構(gòu)包括輸入層、一系列中間層和輸出層,其基本結(jié)構(gòu)如圖2所示:

(1)輸入層

在使用CNN網(wǎng)絡(luò)進(jìn)行圖像識別時,輸入為一張寬為W1,高為H1,深度為D1的圖片,表示為W1*H1*D1。在這里,深度為圖像存儲每個像素所用位數(shù)。通常輸入圖片大小為227×227×3或×224×224×3。

圖1 臨邊護(hù)欄識別流程框圖

(2)卷積層

卷積層由若干卷積核組成。卷積可以提取輸入的不同特征,淺層卷積層只能提取一些低級的特征如角、線型和邊緣等,深層的網(wǎng)絡(luò)可以從低級特征中迭代提取更復(fù)雜的特征。圖3為臨邊護(hù)欄經(jīng)淺層卷積提取出的部分特征圖。

圖2 卷積神經(jīng)網(wǎng)絡(luò)基本架構(gòu)示意圖

圖3 臨邊護(hù)欄經(jīng)淺層卷積后提取出的部分特征圖

(3)激活層

激活層可通過非線性環(huán)節(jié)來加強(qiáng)模型的擬合能力,突出圖像的特征,有利于實現(xiàn)后續(xù)的特征識別,也有效解決了梯度消失而造成神經(jīng)網(wǎng)絡(luò)的收斂速度過慢的問題[11]。常見的激活函數(shù)有Sigmond,Tanh,Relu。依據(jù)不同的模型選擇不同的激活函數(shù)。

(4)池化層

在卷積后使用池化操作來降低圖像矩陣的維度,并且保持大部分重要信息。池化有最大值池化(Max Pooling)和平均值池化(Average Pooling)。最大值池化是將圖像平均分割,每個分割塊取最大值; 平均值池化則是取每個分割塊的平均值。采用池化并不會影響識別結(jié)果,且可有效保留圖像特征信息,極大提升訓(xùn)練效率。

(5)全連接層

全連接層中每個神經(jīng)元與前一層的所有神經(jīng)元進(jìn)行全連接,可以進(jìn)行數(shù)據(jù)降維,并整合卷積層中具有類別區(qū)分性的局部信息,起到分類器的作用。

2.3 超參數(shù)

在訓(xùn)練CNN模型之前通常需要設(shè)定一系列的超參數(shù),包括優(yōu)化算法、學(xué)習(xí)率(Learning Rate)及批樣本大小(Batch Size)。本研究中所有的CNN模型皆使用基于動量的隨機(jī)梯度下降算法(SGDM)實現(xiàn)并行化。隨機(jī)梯度下降算法指每一次迭代計算最小批次的梯度,然后對參數(shù)進(jìn)行更新,原理見公式所示。

gt=f(ωt)

ηt=α·mt/I

ωt+1=ωt-ηt

其中,ωt為待優(yōu)化參數(shù),α為學(xué)習(xí)率,mt為動量,I為沖量。SGDM在此基礎(chǔ)上引入了一階動量。

mt=β·mt-1+(1-β)·gt

式中,β取為經(jīng)驗值0.9,意味著t時刻的下降方向,不僅由當(dāng)前點的梯度方向決定,而且由此前累積的下降方向決定。一階動量是各個時刻梯度方向的指數(shù)移動平均值,能夠在相關(guān)方向加速隨機(jī)梯度下降(SGD),抑制振蕩,從而加快收斂。學(xué)習(xí)率的大小會顯著影響權(quán)重更新速度,學(xué)習(xí)率過高會使損失函數(shù)震蕩,使模型不穩(wěn)定; 學(xué)習(xí)率過低則會導(dǎo)致模型收斂過慢,影響訓(xùn)練效率。批樣本為單次訓(xùn)練所選取樣本數(shù),其大小會影響梯度下降方向,從而模型的優(yōu)化程度和速度。

2.4 模型評估指標(biāo)

在評估模型檢測的可靠性時,單純的準(zhǔn)確率(accuracy)并不能全面、有效地衡量模型效果,在樣本不均衡的情況下,通常可引入精確率(precision)、召回率(recall)、F1值(F1-score)、ROC曲線及AUC等指標(biāo)來綜合評價模型優(yōu)劣。根據(jù)正負(fù)樣本的真實值與預(yù)測值定義FP(False Positive)、FN(False Negative)、TP(True Positive)及TN(True Negative)四個參數(shù)。FP為實際是負(fù)樣本而模型判定為正樣本,F(xiàn)N為實際是正樣本而模型判定為負(fù)樣本,TP為實際是正樣本模型判定也是正樣本,TN為實際是負(fù)樣本模型判定也是負(fù)樣本。參數(shù)表示見表2。

表2 TP、FN、FP、TN參數(shù)定義

由此可得精確率(precision)、召回率(recall)、F1值(F1-score)的表達(dá)式:

ROC曲線(Receiver Operating Characteristic)的橫坐標(biāo)為敏感性(False Positive Rate),縱坐標(biāo)為精確性(True Positive Rate),其計算公式如下:

該曲線可以直觀反映模型在選取不同閾值時敏感性和精確性的趨勢走向,其形狀不隨正負(fù)樣本的分布改變而改變,因此該評估指標(biāo)能降低不同測試集帶來的干擾,能更加客觀綜合地衡量模型本身的性能。AUC(Area Under Curve)被定義為ROC曲線下與坐標(biāo)軸圍成的面積,AUC值越高,則模型性能越好。

3 護(hù)欄識別試驗與實證

3.1 數(shù)據(jù)集采集及預(yù)處理

目前,由于沒有一個完整的關(guān)于施工現(xiàn)場臨邊護(hù)欄的數(shù)據(jù)集,需要自行構(gòu)建數(shù)據(jù)集。本文使用大疆無人機(jī)在施工現(xiàn)場拍攝到736張圖像,其中包括408張護(hù)欄正樣本(圖片中有完整的護(hù)欄),328張非護(hù)欄負(fù)樣本(圖片中無護(hù)欄或無完整護(hù)欄)。將圖像輸入模型前需進(jìn)行一定的預(yù)處理,步驟如下:

(1)數(shù)據(jù)增強(qiáng)。將每幅圖像均經(jīng)過平移、旋轉(zhuǎn)、加噪、切割等處理,得到新的樣本圖像,以增加實驗樣本數(shù)量、提升模型的泛化能力及魯棒性。

(2)調(diào)整圖像尺寸。通過matlab中的imresize函數(shù)將照片統(tǒng)一為固定大小。

(3)歸一化圖像。在訓(xùn)練前所有圖片均減去訓(xùn)練集圖片的像素平均值,以達(dá)到消除公共部分,凸顯個體特征的目的。

經(jīng)過一系列操作,原始數(shù)據(jù)集數(shù)據(jù)量被擴(kuò)充到3 600幅(正樣本2 000張,負(fù)樣本1 600張),并且無重復(fù)圖像,預(yù)處理后的圖像示例如圖4、圖5所示。本研究將訓(xùn)練集和驗證集的比例設(shè)置為4:1。

圖4 正樣本示例

圖5 負(fù)樣本示例

3.2 超參數(shù)確定

超參數(shù)的最優(yōu)值需通過多次實驗進(jìn)行確定。圖6示出了AlexNet網(wǎng)絡(luò)在學(xué)習(xí)率取值為0.000 1、0.000 5、0.001、0.005時訓(xùn)練鄰邊護(hù)欄識別模型的損失曲線。從曲線可以看出,學(xué)習(xí)率取0.001時訓(xùn)練效果最佳; 學(xué)習(xí)率取值為0.000 1和0.000 5時收斂速度過慢,訓(xùn)練效率變低; 學(xué)習(xí)率取值為0.005損失曲線有波動性,且損失值偏高,模型識別性能有所下降。批樣本大小取128時梯度下降最為準(zhǔn)確,再增加時訓(xùn)練效率及模型性能也無明顯變化。其他4種網(wǎng)絡(luò)使用相同方法確定超參數(shù),最佳數(shù)值如表3所示:

表3 超參數(shù)設(shè)置

3.3 模型訓(xùn)練及比較

在Windows 10操作系統(tǒng)、3.20GHz雙核處理器CPU、8GB內(nèi)存平臺上使用matlab2019搭建深度學(xué)習(xí)框架進(jìn)行試驗。

圖7 5種CNN網(wǎng)絡(luò)準(zhǔn)確率曲線

表4 5種CNN網(wǎng)絡(luò)識別性能對比

圖7展示了AlexNet、GoogleNet、MobileNet、ResNet及VGGNet 共5種CNN網(wǎng)絡(luò)使用遷移學(xué)習(xí)進(jìn)行訓(xùn)練的驗證準(zhǔn)確率曲線。表4則分別從準(zhǔn)確率(accuracy)、訓(xùn)練時間、精確度(precision)、回召率(recall)及F1值(F1-score)方面對比了5種卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)的識別效果。從曲線可以看出,5種CNN網(wǎng)絡(luò)皆可有效實現(xiàn)護(hù)欄識別,準(zhǔn)確率都達(dá)到了93%以上,但其收斂速度各有所不同。在訓(xùn)練初期AlexNet、MobileNet、ResNet三種網(wǎng)絡(luò)收斂速度較快,在第一代(Epoch)時即可達(dá)到高準(zhǔn)確率(>90%),并逐漸趨于平穩(wěn); VGGNet網(wǎng)絡(luò)收斂速度較慢且波動性較大,模型穩(wěn)定性較差。在準(zhǔn)確率方面,MobileNet模型的識別準(zhǔn)確率最高,達(dá)到98.51%,VGGNet和ResNet的準(zhǔn)確率次之,比MobileNet低0.14%及0.28%。準(zhǔn)確率最低的是AlexNet網(wǎng)絡(luò),只有94.44%。針對臨邊護(hù)欄識別,要盡可能提高對缺失護(hù)欄的識出率,故對精確度(precision)要求較高。在此種模型中,精確度最高的是MobileNet網(wǎng)絡(luò),故其識別特性最適合于臨邊護(hù)欄檢測; VGGNet雖準(zhǔn)確率很高,但其精確度值明顯下降,故其識別特性與臨邊護(hù)欄識別適應(yīng)性較差。在訓(xùn)練時間方面,VGGNet顯著慢于其他網(wǎng)絡(luò),訓(xùn)練時間達(dá)3倍以上。綜上各方面,MobileNet模型為最佳臨邊護(hù)欄識別模型。

圖8 CNN網(wǎng)絡(luò)ROC曲線對比

圖8和表5分別示出了5種卷積神經(jīng)網(wǎng)絡(luò)模型的ROC曲線及AUC值,根據(jù)表中數(shù)據(jù)可看出MobileNet模型的AUC值最高,達(dá)到0.989 0,證明此種模型識別性能最佳,與前文結(jié)論一致。

表5 CNN網(wǎng)絡(luò)AUC值對比

3.4 模型檢驗

通過檢驗試驗驗證模型比對結(jié)果及模型在施工現(xiàn)場實際應(yīng)用的有效性。在某施工現(xiàn)場使用大疆無人機(jī)拍攝一段20mins的視頻流,并針對視屏流按照1s/幀的速度進(jìn)行截取,共獲得1 200張檢驗樣本。從中隨機(jī)抽取800張照片(444張正樣本,356張負(fù)樣本)進(jìn)行預(yù)處理后代入訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)模型中,并統(tǒng)計其識別結(jié)果。其檢驗識別結(jié)果見表6。ROC曲線見圖9。

圖9 CNN網(wǎng)絡(luò)驗證試驗ROC曲線對比

表6 CNN網(wǎng)絡(luò)驗證試驗識別性能對比

由模型檢驗實驗結(jié)果可知,5種卷積神經(jīng)網(wǎng)絡(luò)模型皆可針對施工現(xiàn)場無人機(jī)采集視頻流圖像進(jìn)行識別與檢測,準(zhǔn)確率都達(dá)到90%以上,識別結(jié)果如圖10、圖11所示。其中識別效果部分與模型訓(xùn)練結(jié)果部分基本一致,準(zhǔn)確率及AUC值最高的是MobileNet,為97.75%和97.39%,識別效果最佳。VGGNet準(zhǔn)確率有所下降,比ResNet低0.75%,精確率值顯著降低,再次證明與臨邊護(hù)欄檢測適應(yīng)性較差。此檢驗驗證五種模型中MobileNet模型最適合臨邊護(hù)欄識別,可有效滿足施工現(xiàn)場實時安全檢測要求。可促進(jìn)施工現(xiàn)場安全管理,大幅降低由于臨邊護(hù)欄缺失帶來的高空墜落等事故風(fēng)險,從源頭上消除不安全隱患。

4 結(jié)論

本研究針對施工現(xiàn)場臨邊護(hù)欄的識別檢測問題,搭建5種卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練檢測模型,并對模型識別性能進(jìn)行對比與分析。主要結(jié)論如下:

圖10 識別為安全圖像示例

圖11 識別為不安全圖像示例

(1)使用深度學(xué)習(xí)框架搭建卷積神經(jīng)網(wǎng)絡(luò)模型,通過3 600張由大疆無人機(jī)在施工現(xiàn)場采集的圖像構(gòu)建數(shù)據(jù)集進(jìn)行訓(xùn)練與測試。5種模型識別安全檢測中臨邊護(hù)欄的準(zhǔn)確率皆達(dá)到90%以上,驗證了該方法可有效用于現(xiàn)場臨邊護(hù)欄安全檢測,有助于消除施工現(xiàn)場不安全隱患,提升建筑業(yè)的安全管理水平。

(2)通過對5種CNN模型進(jìn)行對比分析,可知針對臨邊護(hù)欄識別,MobileNet模型的識別效果最佳,識別準(zhǔn)確率達(dá)98.51%,精確度達(dá)99.01%,回召率達(dá)98.28%,AUC值為0.989 0。該模型能夠?qū)D像中臨邊護(hù)欄缺失隱患取得良好的識別效果,具有實際應(yīng)用價值。

(3)將深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)技術(shù)與無人機(jī)技術(shù)兩種新興技術(shù)相結(jié)合,提出針對施工現(xiàn)場臨邊護(hù)欄不安全隱患識別的解決方案。未來此技術(shù)可應(yīng)用于其他施工現(xiàn)場不安全因素識別,實現(xiàn)施工現(xiàn)場安全監(jiān)管的自動化與智能化。

猜你喜歡
護(hù)欄施工現(xiàn)場準(zhǔn)確率
小型水利工程施工現(xiàn)場管理
廬山站改移武九客專上下行過便線撥接施工現(xiàn)場
建筑施工現(xiàn)場的安全控制
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
高速公路護(hù)欄碰撞監(jiān)控系統(tǒng)探討
基于Arduino單片機(jī)的智能多功能護(hù)欄設(shè)計
電子制作(2019年20期)2019-12-04 03:51:16
不要跨越護(hù)欄
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
且末县| 三都| 托克托县| 天津市| 嵩明县| 庆城县| 琼海市| 海丰县| 商南县| 定陶县| 融水| 长丰县| 莒南县| 威海市| 尉氏县| 郸城县| 长寿区| 罗平县| 忻城县| 新宁县| 新邵县| 准格尔旗| 肥乡县| 香格里拉县| 保亭| 商水县| 巨鹿县| 会同县| 抚顺县| 剑河县| 博客| 延吉市| 神木县| 东宁县| 鄯善县| 连平县| 长阳| 延吉市| 金门县| 巴彦淖尔市| 苏尼特左旗|