国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖像識(shí)別技術(shù)的不安全行為識(shí)別

2020-04-20 03:45:50趙江平
安全與環(huán)境工程 2020年1期
關(guān)鍵詞:像素點(diǎn)特征提取矩形

趙江平,王 垚

(西安建筑科技大學(xué)資源工程學(xué)院,陜西 西安 710055)

有限空間是指在作業(yè)地點(diǎn)與外界相對(duì)分離的封閉或部分封閉的生產(chǎn)操作區(qū)域,且作業(yè)人員不能長(zhǎng)期工作的場(chǎng)所[1]。結(jié)合有限空間的過(guò)往事故案例分析可以看出,當(dāng)前工貿(mào)行業(yè)有限空間發(fā)生的安全事故主要是由人的不安全行為引發(fā)的,其原因主要包括作業(yè)前未檢測(cè)、未通風(fēng)、未設(shè)置警戒標(biāo)識(shí),作業(yè)中人快速移動(dòng)導(dǎo)致跌倒摔傷等。面對(duì)如此嚴(yán)峻的形勢(shì),如何減少有限空間作業(yè)中因人的跌倒導(dǎo)致的事故,成為了國(guó)內(nèi)外學(xué)者關(guān)注的重要問(wèn)題。

圖像識(shí)別技術(shù)是多領(lǐng)域技術(shù)的融合,包括人工智能、模式識(shí)別等,其作用是對(duì)實(shí)時(shí)的視頻圖像進(jìn)行處理,可實(shí)現(xiàn)對(duì)運(yùn)動(dòng)目標(biāo)的捕捉和識(shí)別[2]。人體跌倒行為檢測(cè)是圖像識(shí)別技術(shù)的研究熱點(diǎn),目前該檢測(cè)技術(shù)分為兩類(lèi):可穿戴式傳感器檢測(cè)[3]和基于圖像識(shí)別的方法[4]。前者需要佩戴傳感器以提取人體運(yùn)動(dòng)特征,通過(guò)傳感器反饋的數(shù)據(jù)采用模式識(shí)別技術(shù)來(lái)進(jìn)行人體跌倒行為分析與檢測(cè);后者通過(guò)分析圖像中人的輪廓、形狀等特征來(lái)進(jìn)行人體跌倒行為分析與檢測(cè)。如蘭勝坤等[5]通過(guò)提取運(yùn)動(dòng)物體的高寬比、運(yùn)動(dòng)目標(biāo)投影的面積和周長(zhǎng)以及Zernike矩特征,利用支持向量機(jī)(SVM)對(duì)人體跌倒行為進(jìn)行判斷與識(shí)別;Dalal等[6]提出利用HOG特征提取人體運(yùn)動(dòng)特征,取得了很好的效果;孫曉雯等[7]通過(guò)對(duì)加速度閾值的判別,再利用PSO-SVM對(duì)人體跌倒行為進(jìn)行檢測(cè);裴利然等[8]用基于徑向基函數(shù)的SVM對(duì)人體跌倒行為進(jìn)行檢測(cè),并采用PSO算法對(duì)SVM參數(shù)進(jìn)行了優(yōu)化。

影響圖像識(shí)別技術(shù)的關(guān)鍵環(huán)節(jié)是對(duì)圖像特征的提取,以上研究中都使用人體單一特征向量來(lái)描述與識(shí)別不安全行為具有局限性。本文通過(guò)改進(jìn)方向梯度直方圖(HOG)特征并融合人體重心移動(dòng)特征對(duì)有限空間作業(yè)中不安全行為即跌倒行為進(jìn)行識(shí)別,可避免單一特征向量對(duì)檢測(cè)人體跌倒行為的誤判,通過(guò)對(duì)人體特征向量的改進(jìn),對(duì)不安全行為的識(shí)別更為準(zhǔn)確。

1 不安全行為識(shí)別

人的行為檢測(cè)與識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域研究的熱門(mén)課題,其核心是利用圖像分析、模式識(shí)別等技術(shù)從圖像中檢測(cè)人的行為并進(jìn)行分類(lèi)與描述[9]。本文主要利用圖像識(shí)別技術(shù)檢測(cè)在有限空間作業(yè)過(guò)程中可能出現(xiàn)的不安全行為,為此提出了基于SVM的不安全行為即人體跌倒行為識(shí)別流程,見(jiàn)圖1。該流程分為以下幾部分:圖像預(yù)處理模塊、目標(biāo)檢測(cè)模塊、特征提取模塊、圖像識(shí)別模塊。

圖1 基于支持向量機(jī)(SVM)的不安全行為跌倒 識(shí)別流程圖Fig.1 Unsafe behavior identification flow chart based on SVM

1.1 圖像預(yù)處理

一幅RGB彩色圖像包含的信息內(nèi)容較大,計(jì)算機(jī)真正可識(shí)別的圖像信息需要進(jìn)行預(yù)處理。圖像預(yù)處理方法主要有以下4種方法:

(1) 灰度級(jí)變換:該方法能夠使圖像像素亮度范圍變大,對(duì)比度增強(qiáng),圖像清晰易于識(shí)別。在一幅圖像中邊緣就是灰度值間斷的結(jié)果,是圖像分割、形狀特征提取和分析的基礎(chǔ)[10]。

(2) 直方圖均衡化:該方法能夠使圖像對(duì)比度增強(qiáng),并補(bǔ)償圖像在視覺(jué)上難以區(qū)分灰度級(jí)的差別。

(3) 高斯低通濾波平滑:是一種線性濾波器,該方法能夠有效抑制噪聲,平滑圖像。

(4) 中值濾波去噪:該方法能夠有效抑制噪點(diǎn),保持圖像的清晰度。

圖2為圖像預(yù)處理的效果圖。

圖2 圖像預(yù)處理的效果圖Fig.2 Image preprocessing effect

1.2 運(yùn)動(dòng)目標(biāo)檢測(cè)

幀間差分法是一種通過(guò)對(duì)視頻圖像序列中相鄰兩幀進(jìn)行差分運(yùn)算來(lái)獲得對(duì)運(yùn)動(dòng)目標(biāo)輪廓的方法,它適合于對(duì)運(yùn)動(dòng)目標(biāo)的捕捉[11]。當(dāng)圖像中物體運(yùn)動(dòng)時(shí),相鄰兩幀圖像之間會(huì)有明顯的位置變化,通過(guò)相鄰兩幀圖像亮度相減運(yùn)算可得到亮度差的絕對(duì)值,判斷亮度差的絕對(duì)值是否大于閾值,分析視頻或圖像序列中物體的運(yùn)動(dòng)特性,確定圖像中是否有物體運(yùn)動(dòng)[12]。

假設(shè)視頻圖像序列f1,f2,…,fk中,提取相鄰兩幀圖像fk(x,y)和fk-1(x,y),則它們的差分圖像Dk(x,y)為

Dk(x,y)=|fk(x,y)-fk-1(x,y)|

(1)

式中:(x,y)表示圖像中像素點(diǎn)的空間坐標(biāo)。

將差分圖像Dk(x,y)和設(shè)置的閾值T進(jìn)行比較,得到差分后的二值化圖像Rk(x,y),并判定圖像中各個(gè)像素點(diǎn)是運(yùn)動(dòng)目標(biāo)像素點(diǎn)還是背景像素點(diǎn),灰度值為0是背景像素點(diǎn),灰度值為1是運(yùn)動(dòng)目標(biāo)像素點(diǎn),從而提取出視頻目標(biāo)運(yùn)動(dòng)輪廓。差分后的二值化圖像Rk(x,y)可表示為

(2)

式中的閾值T可以預(yù)先給定,也可以采用自適應(yīng)的方法確定。幀間差分法的基本原理見(jiàn)圖3。

圖3 幀間差分法的原理Fig.3 Principle of inter-frame difference method

幀間差分法的優(yōu)點(diǎn)是:算法易于實(shí)現(xiàn),背景更新頻率高,對(duì)變化的背景適應(yīng)力強(qiáng),對(duì)變換的光線不敏銳,提取出的目標(biāo)圖像能較為完整地顯示出所檢測(cè)目標(biāo)的外輪廓形狀信息[13]。幀間差分法的缺點(diǎn)是:運(yùn)動(dòng)目標(biāo)的速度變化快慢對(duì)計(jì)算結(jié)果有影響,當(dāng)運(yùn)動(dòng)目標(biāo)的速度過(guò)快時(shí),會(huì)導(dǎo)致檢測(cè)目標(biāo)不容易捕捉或很難檢測(cè)出來(lái);幀與幀之間不匹配會(huì)出現(xiàn)重影,目標(biāo)對(duì)象靜止不動(dòng)在畫(huà)面中時(shí)會(huì)出現(xiàn)空洞;選取不同的閾值T會(huì)出現(xiàn)不同的效果,當(dāng)選取的閾值T數(shù)值過(guò)大時(shí),會(huì)產(chǎn)生大量的背景區(qū)域空白,且圖像受噪聲的影響較大,難以描繪出運(yùn)動(dòng)目標(biāo)完整的區(qū)域。但是通過(guò)結(jié)合基本運(yùn)算包括腐蝕(Erosion)、膨脹(Dilation)、開(kāi)(Opening)、閉(Closing)等運(yùn)算可以改進(jìn)幀間差分法,如對(duì)差分后的二值化圖像進(jìn)行腐蝕處理或膨脹處理,可以有效地去除圖像內(nèi)的空洞,并能夠使得圖像輪廓變得更光滑。圖4為幀間差分法人體運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果,人體目標(biāo)用紅色框體進(jìn)行標(biāo)識(shí)。

圖4 幀間差分法人體運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果Fig.4 Detection results of human movement target based on interframe difference method

1.3 運(yùn)動(dòng)目標(biāo)特征提取——HOG特征和人體重心移動(dòng)特征提取

方向梯度直方圖(Histogram of Oriented Gradient,HOG)是一種實(shí)現(xiàn)人體運(yùn)動(dòng)目標(biāo)檢測(cè)的圖像描述方法,HOG特征提取主要通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域內(nèi)的直方圖來(lái)實(shí)現(xiàn)[14]。

1.3.1 HOG特征提取

HOG特征提取過(guò)程如下:

(1) 為了減少光照等其他因素的影響,將輸入圖像進(jìn)行圖像預(yù)處理進(jìn)而轉(zhuǎn)化為灰度圖。

(2) 計(jì)算圖像梯度。采用一維模板[1,0,1],[1,0,-1]T對(duì)圖像像素點(diǎn)橫縱坐標(biāo)計(jì)算梯度,即計(jì)算x軸方向和y軸方向的梯度Gx(x,y)、Gy(x,y),其計(jì)算公式如下:

Gx(x,y)=H(x+1,y)-H(x-1,y)

Gy(x,y)=H(x,y+1)-H(x,y-1)

(3)

式中:H(x,y)表示輸入圖像在像素點(diǎn)(x,y)處的像素值;Gx(x,y)、Gy(x,y)分別表示水平方向和豎直方向的梯度。

圖像在像素點(diǎn)(x,y)處的梯度幅值和梯度方向分別為G(x,y)和α(x,y),計(jì)算公式如下:

(4)

(3) 將圖像分為若干個(gè)均勻的“Block Cell”,每個(gè)Cell為8×8像素,采取8個(gè)bin的直方圖來(lái)統(tǒng)計(jì)一個(gè)Cell的梯度內(nèi)容;將Cell的梯度方向360°分為8個(gè)方向塊,對(duì)每個(gè)Cell的梯度方向進(jìn)行計(jì)數(shù)統(tǒng)計(jì),可得到Cell的梯度方向直方圖,即一個(gè)Cell對(duì)應(yīng)8維特征向量。

(4) 將Cell單元組合成大的Block,一個(gè)塊包括2×2個(gè)Cell,每個(gè)塊內(nèi)所有Cell的特征向量串聯(lián)起來(lái)即可得到塊的HOG特征。

(5) 在收集HOG特征前,需要對(duì)圖像梯度進(jìn)行高斯函數(shù)加權(quán),收集各個(gè)Block的HOG特征。

HOG特征提取由于是對(duì)局部小區(qū)域內(nèi)直方圖進(jìn)行統(tǒng)計(jì),因此該方法可以有效地消除光照、陰影等影響圖像特征提取的因素。圖5為圖像進(jìn)行HOG特征提取后的結(jié)果,HOG特征提取經(jīng)過(guò)灰度處理,在人體邊緣附近產(chǎn)生了明顯的灰度差。

圖5 圖像經(jīng)HOG特征提取后的結(jié)果圖Fig.5 Results chart of images extracted by HOG features

1.3.2 人體行為重心特征提取

人的不同行為特征,會(huì)有不同的人體重心軌跡變化與運(yùn)動(dòng)趨勢(shì),這一特征可以作為識(shí)別人的不同動(dòng)作的重要依據(jù)。提取人體重心特征,需要對(duì)人體輪廓邊緣進(jìn)行計(jì)算,在前述采用幀間差分法檢測(cè)出運(yùn)動(dòng)目標(biāo)后,對(duì)運(yùn)動(dòng)目標(biāo)利用邊緣檢測(cè)算法即Canny算子,得到人體輪廓邊緣的二值化圖像,使外接矩形盡可能地貼近運(yùn)動(dòng)目標(biāo)的輪廓。

人體輪廓外接矩形的繪制步驟如下:

(1) 運(yùn)動(dòng)目標(biāo)檢測(cè)后,利用Canny算子得到人體輪廓邊緣的二值化圖像;再對(duì)第一步的圖像遍歷,檢測(cè)運(yùn)動(dòng)目標(biāo)的左下原點(diǎn)像素與右上對(duì)角點(diǎn)像素,記錄坐標(biāo)(xmin,ymin)和(xmax,ymax)。人體輪廓的外接矩形高度和寬度可表示如下:

H=ymax-ymin

L=xmax-xmin

(5)

(2) 人體輪廓外接矩形的框體形狀定義如下:

左下O為原點(diǎn)像素點(diǎn)的坐標(biāo)(xmin,ymin),右上T為最遠(yuǎn)點(diǎn)像素點(diǎn)的坐標(biāo)(xmax,ymax),通過(guò)O與T構(gòu)成外接矩形進(jìn)而代替被檢測(cè)的運(yùn)動(dòng)目標(biāo)。人體輪廊外接矩形的框體形狀見(jiàn)圖6。

圖6 人體輪廓外接矩形的框體形狀圖Fig.6 A frame diagram of the external rectangle of a human body contour

(3) 被檢測(cè)的運(yùn)動(dòng)目標(biāo)的重心可由人體輪廓外接矩形的灰度質(zhì)心代替。設(shè)外接矩形f(x,y)是O與T構(gòu)成的外接矩形內(nèi)的一個(gè)像素點(diǎn)灰度值,通過(guò)計(jì)算外接矩形區(qū)域內(nèi)所有像素點(diǎn)的灰度值之和∑xmin≤x≤xmax,ymin≤y≤ymaxf(x,y),計(jì)算外接矩形中每個(gè)像素點(diǎn)的灰度值與其橫坐標(biāo)的乘積并對(duì)所有結(jié)果求和∑xmin≤x≤xmax,∑ymin≤y≤ymaxf(x,y),計(jì)算外接矩形中每個(gè)像素點(diǎn)與其縱坐標(biāo)的乘積并對(duì)所有結(jié)果求和∑ymin≤y≤ymax,∑xmin≤x≤xmaxyf(x,y),可得到運(yùn)動(dòng)目標(biāo)的質(zhì)心(重心)坐標(biāo)的表達(dá)式為

(6)

(7)

由運(yùn)動(dòng)目標(biāo)的重心坐標(biāo)表達(dá)式可描述人體的運(yùn)動(dòng)規(guī)律與特性,即人體重心高度變化率和寬高比。通過(guò)對(duì)圖像序列幀得到二值化圖像的人體輪廓,將其用外接矩形來(lái)代替,并通過(guò)對(duì)圖像序列幀的遍歷,可以獲取M個(gè)由外接矩形質(zhì)心代替得到的運(yùn)動(dòng)目標(biāo)重心坐標(biāo),將這些重心坐標(biāo)組成一組特征矢量,通過(guò)記錄每一幀的重心坐標(biāo)可以得到重心高度變化率。當(dāng)被檢測(cè)對(duì)象在水平方向移動(dòng)時(shí),水平方向的重心高度變化率較小,而出現(xiàn)跌倒或下蹲時(shí),豎直方向的重心高度變化率會(huì)急劇變化。因此,針對(duì)跌倒和下蹲動(dòng)作的重心高度變化率幅值可以設(shè)定不同行為的閾值。

為了能夠表征人體輪廓外接矩形運(yùn)動(dòng)目標(biāo)重心坐標(biāo)的高度差Mh(i),通過(guò)計(jì)算測(cè)量運(yùn)動(dòng)目標(biāo)重心坐標(biāo)與原點(diǎn)坐標(biāo)的差值來(lái)表示人體重心坐標(biāo)的高度差,其計(jì)算公式為

Mh(i)=yw(i)-ymin(i)

(8)

式中:yw(i)為重心縱向坐標(biāo)。

假設(shè)圖像當(dāng)前幀為第i幀,計(jì)算之前的i-1幀圖像運(yùn)動(dòng)目標(biāo)重心坐標(biāo)的高度差Mh(i)的均值為

(9)

則人體重心高度變化率為

(10)

分別選取人體5種不同行為動(dòng)作的重心高度變化率曲線(見(jiàn)圖7),可以明顯對(duì)比出人在不同行為動(dòng)作下重心高度變化率的差異。

圖7 人體不同行為動(dòng)作的重心高度變化率曲線Fig.7 Curves of change rate of height of gravity center under different human behaviors

由此可見(jiàn),應(yīng)用HOG特征和人體行為重心移動(dòng)特征的融合對(duì)人體行為特征進(jìn)行描述,可以降低單一特征在行為識(shí)別方面的誤報(bào)概率。

1.4 SVM分類(lèi)識(shí)別

支持向量機(jī)(Support Vector Machines,SVM)是一種具有監(jiān)督學(xué)習(xí)的分類(lèi)方法,廣泛應(yīng)用于統(tǒng)計(jì)分類(lèi)和回歸分析中[15]。SVM在解決小樣本、非線性和高維度模式識(shí)別分類(lèi)問(wèn)題中有著獨(dú)特的優(yōu)勢(shì)。SVM的核心思想是在核函數(shù)映射的高維特征空間上構(gòu)造間隔分離超平面,通過(guò)建立超平面實(shí)現(xiàn)樣本的二分類(lèi)。SVM分類(lèi)識(shí)別算法的實(shí)現(xiàn)流程見(jiàn)圖8。

圖8 SVM分類(lèi)識(shí)別算法的實(shí)現(xiàn)流程Fig.8 Implementation process of SVM classification algorithm

SVM問(wèn)題可簡(jiǎn)化為求公式(11)的二次規(guī)劃問(wèn)題,通過(guò)尋找分類(lèi)的超平面可使訓(xùn)練集中的點(diǎn)距離分類(lèi)面盡可能地遠(yuǎn),也就是尋找一個(gè)分類(lèi)面使它兩側(cè)空白區(qū)域(margin)最大[16]。設(shè)分類(lèi)線方程為xw+b=0,對(duì)它進(jìn)行歸一化,使得線性可分樣本集(xi,yi)(i=1,2,…,n;x∈Rd;y∈{+1,-1})滿足:

yi[(w·xi)+b]-1≥0

(11)

若分類(lèi)間隔為2/‖w‖,則分類(lèi)間隔取最大值就等同于‖w‖取最小值。因此,使‖w‖最小的分類(lèi)面就是所尋找的最優(yōu)分類(lèi)面,這樣尋找最優(yōu)分類(lèi)面的問(wèn)題則轉(zhuǎn)化為約束條件下的優(yōu)化問(wèn)題。

(12)

該目標(biāo)函數(shù)是二次的,約束條件參數(shù)w和b是線性的,解決該約束條件下的優(yōu)化問(wèn)題可通過(guò)標(biāo)準(zhǔn)的拉格朗日(lagrange)乘子,即將新的目標(biāo)函數(shù)轉(zhuǎn)化成最優(yōu)化求解,加入拉格朗日乘子α,則有:

(13)

分別對(duì)公式(13)中參數(shù)w和b求導(dǎo)并令其為零,可得到下式:

(14)

將公式(12)代入公式(13)拉格朗日乘子中,則將分類(lèi)問(wèn)題轉(zhuǎn)化為對(duì)偶問(wèn)題,有:

(15)

(αi≥0;i=1,2,…,n)

其中,αi為與第i個(gè)樣本相對(duì)應(yīng)的拉格朗日乘子,且該方程存在唯一解。最后得到的最優(yōu)分類(lèi)函數(shù)如下:

f(x)=sgn{(w·x)+b}

(16)

在上述圖像預(yù)處理與運(yùn)動(dòng)目標(biāo)檢測(cè)的基礎(chǔ)上,提取HOG特征和人體重心移動(dòng)特征,采用本文提出的人體跌倒行為檢測(cè)算法并應(yīng)用SVM分類(lèi)器進(jìn)行分類(lèi)識(shí)別。該分類(lèi)器計(jì)算過(guò)程分4個(gè)步驟:第一步生成訓(xùn)練特征集,利用SVM分類(lèi)器計(jì)算樣本的置信度與判決權(quán)值;第二步計(jì)算訓(xùn)練樣本特征到分類(lèi)面的距離(置信值),結(jié)合置信值的正負(fù)和大小判斷出訓(xùn)練樣本所屬分類(lèi);第三步輸入測(cè)試樣本進(jìn)行分類(lèi)識(shí)別;第四步判別出測(cè)試樣本特征所屬的類(lèi)別,正數(shù)代表測(cè)試樣本屬于類(lèi)別1,負(fù)數(shù)則代表測(cè)試樣本屬于類(lèi)別2,且樣本的置信值越大,越可能代表所屬的類(lèi)別。訓(xùn)練樣本和測(cè)試樣本所屬類(lèi)別的運(yùn)算模塊,見(jiàn)圖9和圖10。

圖9 訓(xùn)練樣本分類(lèi)運(yùn)算模塊Fig.9 Classification operation module of training samples

圖10 測(cè)試樣本分類(lèi)運(yùn)算模塊Fig.10 Classification operation module of test samples

2 實(shí)驗(yàn)環(huán)境和數(shù)據(jù)

2.1 實(shí)驗(yàn)環(huán)境

本文的實(shí)驗(yàn)環(huán)境如下:

(1) 軟件開(kāi)發(fā)環(huán)境:Windows 10操作系統(tǒng),軟件仿真平臺(tái)MATLAB R2016b。

(2) 硬件開(kāi)發(fā)環(huán)境:PC機(jī)一臺(tái),Intel(R) Core(TM)i5-6300HQ CPU 2.30 GHz,8G的DDR3內(nèi)存、英偉達(dá)NVIDIA Geforce GTX 960M顯卡,算法在檢測(cè)過(guò)程中能夠以每秒30幀的圖像采集速度進(jìn)行實(shí)時(shí)處理。

2.2 實(shí)驗(yàn)數(shù)據(jù)與分析

本文采用Sony XC-HR70攝像機(jī)進(jìn)行拍攝,幀速率為60 fps,圖像大小為1024(H)×768(V),攝像頭布置的高度設(shè)為1.5 m,自然光照明且照明情況良好,采集人體正面和側(cè)面兩個(gè)方向的不同行為。

本實(shí)驗(yàn)數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集兩部分,由于人的行為比較復(fù)雜,在收集人體行為數(shù)據(jù)時(shí),拍攝了行走、奔跑、彎腰、下蹲、跌倒行為圖像,實(shí)驗(yàn)人數(shù)為5人,其中每人每種動(dòng)作重復(fù)15次。作業(yè)人員的行為有安全行為和不安全行為兩種,本文中將行走、彎腰、下蹲行為當(dāng)作安全行為,將奔跑、跌倒行為當(dāng)作不安全行為。實(shí)驗(yàn)數(shù)據(jù)集中訓(xùn)練集共244張圖像,測(cè)試集為131張圖像,圖像均來(lái)自本實(shí)驗(yàn)所拍攝的圖像(見(jiàn)圖11),測(cè)試集和訓(xùn)練集的人體行為動(dòng)作分布見(jiàn)表2。

圖11 實(shí)驗(yàn)拍攝的圖像Fig.11 Experimental image

表2 實(shí)驗(yàn)數(shù)據(jù)集中測(cè)試集和訓(xùn)練集的人體行為動(dòng)作分布(單位:張)

3 實(shí)驗(yàn)結(jié)果與分析

依據(jù)第1.4節(jié)中SVM分類(lèi)識(shí)別算法的流程及步驟,對(duì)測(cè)試樣本進(jìn)行實(shí)驗(yàn),得到人體行為識(shí)別結(jié)果見(jiàn)表3。

表3 混淆矩陣人體行為識(shí)別結(jié)果

Table 3 Confusion matrix behavior recognition results

由表3可知,本實(shí)驗(yàn)對(duì)人體的行為動(dòng)作識(shí)別有較高的識(shí)別率,平均正確識(shí)別率達(dá)到了97.84%,說(shuō)明本文將提取的HDG特征和人體重心移動(dòng)特征融合能夠較好地完成對(duì)人的行為動(dòng)作識(shí)別。其中,對(duì)彎腰這一行為動(dòng)作有最高的正確識(shí)別率達(dá)100%,這主要是因?yàn)檫@一行為動(dòng)作的人體重心移動(dòng)特征不明顯,且人體輪廓較為完整,沒(méi)有自遮擋現(xiàn)象,并且當(dāng)人在做這一動(dòng)作時(shí),身體不會(huì)出現(xiàn)明顯的抖動(dòng),相對(duì)位置比較固定;而出現(xiàn)識(shí)別偏差的剩下4組行為動(dòng)作,錯(cuò)分類(lèi)主要集中在奔跑與行走、跌倒與下蹲。造成奔跑與行走行為動(dòng)作錯(cuò)分類(lèi)現(xiàn)象的原因可能是,在目標(biāo)檢測(cè)過(guò)程中由于水平運(yùn)動(dòng)速度快慢不一致,差分出的人體目標(biāo)剪影有殘缺,說(shuō)明人體目標(biāo)剪影完整度對(duì)特征識(shí)別有影響;而下蹲與跌倒行為動(dòng)作的錯(cuò)分類(lèi)現(xiàn)象的原因可能是,測(cè)試圖像中下蹲動(dòng)作的幅度與跌倒動(dòng)作的幅度差異變化不明顯,因此在設(shè)置人體重心移動(dòng)特征相對(duì)位置坐標(biāo)x軸運(yùn)動(dòng)方向的閾值還需進(jìn)一步研究。

4 結(jié)論與建議

本文設(shè)計(jì)并實(shí)現(xiàn)了一種在有限空間作業(yè)中不安全行為的跌倒行為檢測(cè)算法,可以實(shí)現(xiàn)對(duì)有限空間作業(yè)視頻監(jiān)控范圍內(nèi)出現(xiàn)的人體跌倒行為進(jìn)行監(jiān)控。該算法通過(guò)灰度級(jí)變換和高斯低通濾波平滑等圖像預(yù)處理后,采用幀間差分提取人體目標(biāo),并融合HOG特征與人體重心移動(dòng)特征訓(xùn)練SVM,對(duì)最終結(jié)果進(jìn)行判斷與識(shí)別。實(shí)驗(yàn)證明了該算法在人體跌倒行為檢測(cè)中的有效性,但是算法整體運(yùn)算時(shí)效性較差,因此SVM分類(lèi)器的設(shè)計(jì)還需要進(jìn)一步優(yōu)化。另外,針對(duì)有限空間作業(yè)中更多的不安全行為識(shí)別還需要研究其形態(tài)特征提取方法,并將多特征融合算法進(jìn)一步優(yōu)化。因此,下一階段的工作需針對(duì)有限空間特殊的結(jié)構(gòu)及復(fù)雜的作業(yè)環(huán)境,設(shè)計(jì)更為接近真實(shí)場(chǎng)景的實(shí)驗(yàn)環(huán)境,并針對(duì)有限空間內(nèi)作業(yè)人員所佩戴的安全用具以及儀器設(shè)備進(jìn)行特征提取與識(shí)別,進(jìn)而加強(qiáng)作業(yè)流程的規(guī)范化,以避免危險(xiǎn)事故的發(fā)生。

猜你喜歡
像素點(diǎn)特征提取矩形
兩矩形上的全偏差
化歸矩形證直角
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于canvas的前端數(shù)據(jù)加密
從矩形內(nèi)一點(diǎn)說(shuō)起
Bagging RCSP腦電特征提取算法
基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
基于MED和循環(huán)域解調(diào)的多故障特征提取
基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
Walsh變換在滾動(dòng)軸承早期故障特征提取中的應(yīng)用
軸承(2010年2期)2010-07-28 02:26:12
宜春市| 安庆市| 富平县| 广平县| 忻州市| 沽源县| 肃北| 吴旗县| 云安县| 石门县| 呼和浩特市| 广西| 江阴市| 大新县| 合阳县| 镇宁| 铁力市| 枣阳市| 宁蒗| 永靖县| 宽甸| 巴林右旗| 衡山县| 鹤山市| 化州市| 深圳市| 四川省| 乐陵市| 九江市| 伊金霍洛旗| 利津县| 湘西| 益阳市| 土默特左旗| 怀仁县| 武山县| 民权县| 波密县| 铜陵市| 金华市| 依安县|