国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

視覺(jué)關(guān)注轉(zhuǎn)移的事件檢測(cè)算法

2012-09-24 13:45:16張麗坤孫建德李靜
智能系統(tǒng)學(xué)報(bào) 2012年4期
關(guān)鍵詞:關(guān)鍵幀靜態(tài)監(jiān)控

張麗坤,孫建德,李靜

(1.山東大學(xué)信息科學(xué)與工程學(xué)院,山東濟(jì)南 250100;2.山東省工會(huì)管理干部學(xué)院信息工程學(xué)院,山東濟(jì)南 250100)

隨著社會(huì)對(duì)公共安全要求的不斷提升,監(jiān)控系統(tǒng)在銀行、商場(chǎng)、高速公路、公交車、地鐵站等各種公共場(chǎng)所的應(yīng)用越來(lái)越普遍.監(jiān)控系統(tǒng)的智能化將有助于遏制一些惡性事件或是危險(xiǎn)情況的進(jìn)一步發(fā)展.對(duì)突發(fā)事件做出及時(shí)的處理,對(duì)整個(gè)社會(huì)的公共安全有著非常重要的意義.但是,在現(xiàn)階段監(jiān)控系統(tǒng)的智能化還未達(dá)到一定程度的情況下,大多數(shù)監(jiān)控視頻中的事件檢測(cè),主要是靠保安人員不間斷地觀看來(lái)實(shí)現(xiàn).特別是在大型監(jiān)控平臺(tái)的環(huán)境中,通常配備專職監(jiān)控人員對(duì)監(jiān)控視頻進(jìn)行實(shí)時(shí)監(jiān)控,監(jiān)控人員需要同時(shí)監(jiān)視一定數(shù)量的監(jiān)控屏幕,這使得監(jiān)控人員很難長(zhǎng)時(shí)間保持較高的注意力,并且達(dá)到多個(gè)屏幕無(wú)遺漏的人工監(jiān)控.在這樣的情況下,如何能夠使監(jiān)控系統(tǒng)對(duì)所有監(jiān)控場(chǎng)景中發(fā)生的受關(guān)注事件不遺漏地、實(shí)時(shí)地發(fā)出警報(bào),以提示監(jiān)控人員進(jìn)行特別關(guān)注,成為了智能監(jiān)控中非常具有實(shí)際應(yīng)用價(jià)值的研究問(wèn)題.

近年來(lái),隨著智能視頻監(jiān)控越來(lái)越多地受到重視,監(jiān)控視頻中的事件檢測(cè)技術(shù)研究已經(jīng)取得很大進(jìn)展.Jiang等采取了對(duì)目標(biāo)的檢測(cè)和追蹤的方法,將單一物體的運(yùn)動(dòng)軌跡定義為視頻的一個(gè)事件,通過(guò)軌跡線聚類來(lái)區(qū)分正常事件和非正常事件.但是這種定義忽略了視頻的一些時(shí)間和空間信息[1].Liu等提出了一種基于運(yùn)動(dòng)方向統(tǒng)計(jì)的異常事件檢測(cè)方法,他們通過(guò)對(duì)視頻中的連續(xù)幀進(jìn)行分析,采用顏色、紋理、運(yùn)動(dòng)等低級(jí)特征對(duì)視頻中的事件進(jìn)行描述,進(jìn)而從監(jiān)控視頻中辨別出異常事件.但是,僅僅靠低級(jí)特征表征視頻中的事件是遠(yuǎn)遠(yuǎn)不夠的,需要采用基于人類視覺(jué)系統(tǒng)的高級(jí)語(yǔ)義特征才能對(duì)視頻內(nèi)容進(jìn)行最準(zhǔn)確的描述[2].因此,研究者們開(kāi)始從視覺(jué)關(guān)注的角度來(lái)彌補(bǔ)視頻的高級(jí)語(yǔ)義特征和低級(jí)語(yǔ)義特征之間的鴻溝.Jiang等提出由視覺(jué)關(guān)注值表征人眼對(duì)視頻內(nèi)容的關(guān)注程度的方法,他們采用K均值聚類,選出視覺(jué)關(guān)注值最高的幀作為關(guān)鍵幀,以關(guān)鍵幀來(lái)描述視頻中事件的內(nèi)容[3].Lai等則通過(guò)運(yùn)動(dòng)、顏色、紋理等特征,形成靜止和運(yùn)動(dòng)相結(jié)合的顯著圖,從而形成視覺(jué)關(guān)注曲線;然后利用時(shí)間限制的聚類方法來(lái)提取關(guān)鍵幀從而表征視頻中的事件[4].這些方法在視頻中的事件檢測(cè)和事件描述方面都取得了較好的結(jié)果,但是這些方法大多需要對(duì)整段視頻進(jìn)行分析,因此很難達(dá)到事件的實(shí)時(shí)檢測(cè).

針對(duì)上述問(wèn)題,文章從人的視覺(jué)關(guān)注特性出發(fā),將視覺(jué)關(guān)注的轉(zhuǎn)移作為事件檢測(cè)的依據(jù),針對(duì)現(xiàn)有的大多數(shù)算法在突發(fā)事件檢測(cè)實(shí)時(shí)性方面的局限性,提出了一種關(guān)鍵幀觸發(fā)的、能夠?qū)σ曨l內(nèi)容的變化準(zhǔn)確描述的事件檢測(cè)方法.該方法將視覺(jué)上動(dòng)態(tài)和靜態(tài)的視覺(jué)關(guān)注模型進(jìn)行融合,通過(guò)視覺(jué)關(guān)注模型來(lái)提取視頻幀中的受關(guān)注區(qū)域,根據(jù)連續(xù)幀中的最受關(guān)注區(qū)域的變化來(lái)確定人眼視覺(jué)關(guān)注點(diǎn)的轉(zhuǎn)移,形成視頻關(guān)注節(jié)奏,根據(jù)關(guān)注節(jié)奏的變化強(qiáng)度來(lái)選取關(guān)鍵幀,通過(guò)關(guān)鍵幀表明事件發(fā)生的時(shí)刻,從而觸發(fā)對(duì)受關(guān)注事件的提示.實(shí)驗(yàn)結(jié)果表明,根據(jù)文章提出的算法提取的關(guān)鍵幀能夠準(zhǔn)確地表示監(jiān)控視頻中特征事件的開(kāi)始時(shí)刻,并且關(guān)鍵幀的提取是實(shí)時(shí)的.

1 事件檢測(cè)算法

關(guān)鍵幀是指從原始視頻中提取的能夠代表視頻內(nèi)容的圖像集合,它常被用于視頻檢索及視頻摘要領(lǐng)域[5],而文中提取的關(guān)鍵幀則是用來(lái)表征監(jiān)控視頻中事件的發(fā)生.圖1是提出的監(jiān)控視頻事件檢測(cè)算法框圖.

圖1 監(jiān)控視頻事件檢測(cè)算法Fig.1 The framework of the proposed event detection algorithm of surveillance video

2 算法分析

2.1 視覺(jué)關(guān)注模型

視覺(jué)關(guān)注是視覺(jué)信息處理過(guò)程中一個(gè)非常重要的方面.當(dāng)視網(wǎng)膜擁有整個(gè)場(chǎng)景時(shí),注意力只集中在一個(gè)或?yàn)閿?shù)很少的幾個(gè)區(qū)域,這幾個(gè)區(qū)域就是圖像的受關(guān)注區(qū)域,它們代表了人眼的視覺(jué)關(guān)注點(diǎn),而受關(guān)注區(qū)域的提取是建立在視覺(jué)關(guān)注模型基礎(chǔ)之上的.視覺(jué)關(guān)注模型是根據(jù)人的視覺(jué)注意機(jī)制而建立的模型,它利用視覺(jué)注意機(jī)制得到圖像中最容易引起注意的顯著區(qū)域,并通過(guò)將這些顯著區(qū)域的顯著性用灰度值表示來(lái)構(gòu)成顯著圖.

研究表明,人類的視覺(jué)感知系統(tǒng)對(duì)于靜止圖像中差異明顯的區(qū)域更為關(guān)注,對(duì)于圖像序列中運(yùn)動(dòng)的部分也更加關(guān)注.因此,將視頻的動(dòng)態(tài)關(guān)注模型和靜態(tài)關(guān)注模型結(jié)合形成最終的視覺(jué)關(guān)注模型,通過(guò)視覺(jué)關(guān)注模型來(lái)提取視頻幀中的受關(guān)注區(qū)域.

2.1 .1 動(dòng)態(tài)關(guān)注模型

由于人眼往往對(duì)運(yùn)動(dòng)的目標(biāo)更加關(guān)注,同時(shí)運(yùn)動(dòng)目標(biāo)能夠體現(xiàn)視頻在時(shí)域上的信息,所以動(dòng)態(tài)關(guān)注模型的提取過(guò)程實(shí)際上就是對(duì)視頻序列中運(yùn)動(dòng)目標(biāo)的檢測(cè)過(guò)程.在運(yùn)動(dòng)目標(biāo)的檢測(cè)過(guò)程中,使用文獻(xiàn)[3]中所提到的基于塊的LK光流算法計(jì)算視頻各幀的光流,同時(shí)為了彌補(bǔ)運(yùn)動(dòng)目標(biāo)檢測(cè)中出現(xiàn)的陰影問(wèn)題,在LKmotion光流算法的基礎(chǔ)上,應(yīng)用混合高斯背景建模技術(shù),得到每幀的運(yùn)動(dòng)前景Gfg.

將LK光流算法得到的運(yùn)動(dòng)區(qū)域跟混合高斯背景建模技術(shù)獲得的運(yùn)動(dòng)前景進(jìn)行膨脹和腐蝕運(yùn)算,然后進(jìn)行歸一化形成最終的動(dòng)態(tài)關(guān)注模型Tsm:

式中:Tsm是二值圖像,運(yùn)動(dòng)區(qū)域的像素值為1,靜止區(qū)域的像素值為0.

2.1.2 靜態(tài)關(guān)注模型

靜態(tài)關(guān)注模型的加入主要是從視頻的空間信息考慮的.監(jiān)控視頻中各幀的靜態(tài)關(guān)注模型Ssm的提取方法為:首先對(duì)視頻幀進(jìn)行多尺度變換,在不同尺度上提取顏色、亮度、紋理等低級(jí)特征的局部對(duì)照特征,然后根據(jù)局部對(duì)照特征形成特征圖,并將形成的特征圖進(jìn)行全局歸一化,最后將歸一化后的特征圖進(jìn)行線性結(jié)合,得到最終的顯著圖[6].

2.1 .3 運(yùn)動(dòng)優(yōu)先融合

動(dòng)態(tài)關(guān)注模型和靜態(tài)關(guān)注模型需要結(jié)合在一起,得到最終視頻幀符合人眼視覺(jué)關(guān)注的顯著圖.由于相比于對(duì)靜態(tài)的關(guān)注,人眼往往對(duì)于運(yùn)動(dòng)的物體更加關(guān)注,所以兩者在融合的時(shí)候采用的權(quán)重不能相同,在這里用文獻(xiàn)[3]中提到的權(quán)重計(jì)算方法.定義動(dòng)態(tài)關(guān)注模型和靜態(tài)關(guān)注模型的權(quán)重如式(3)、(4):

式中:wT和wS分別是動(dòng)態(tài)關(guān)注模型和靜態(tài)關(guān)注模型的權(quán)重.式(3)中的T'sm如式(5)所示:

式中:mean(Tsm)反映了視頻中運(yùn)動(dòng)所占的比例,視頻中運(yùn)動(dòng)區(qū)域面積越大,它的值就越大.因?yàn)門(mén)sm是二值圖像,所以當(dāng)視頻序列中不存在運(yùn)動(dòng)時(shí),mean(Tsm)和max(Tsm)都為0,此時(shí) wT等于零,wS為1,即視頻幀中不存在運(yùn)動(dòng),此時(shí)視頻幀的視覺(jué)關(guān)注區(qū)域取決于靜態(tài)關(guān)注;但兩者都為1時(shí),說(shuō)明運(yùn)動(dòng)區(qū)域遍布整個(gè)視頻幀,運(yùn)動(dòng)無(wú)法為視覺(jué)關(guān)注提供參考,此時(shí)視頻幀的視覺(jué)關(guān)注由靜態(tài)關(guān)注決定.當(dāng)mean(Tsm)∈(0,0.768]時(shí),wT> wS,視頻序列中的動(dòng)態(tài)關(guān)注優(yōu)于靜態(tài)關(guān)注,這時(shí)動(dòng)態(tài)關(guān)注在視頻幀的視覺(jué)關(guān)注中占主導(dǎo)地位;當(dāng)mean(Tsm)∈(0.768,1]時(shí),wT<wS,靜態(tài)關(guān)注優(yōu)于動(dòng)態(tài)關(guān)注,這時(shí)視頻幀的視覺(jué)關(guān)注由靜態(tài)關(guān)注主導(dǎo).

這樣就可以得到符合人眼視覺(jué)關(guān)注的視頻幀的最終視覺(jué)顯著圖Saliency:

顯著圖Saliency的像素值歸一化到0~1內(nèi).其中1表示受關(guān)注度最高,0表示受關(guān)注度最低.

2.2 視覺(jué)關(guān)注轉(zhuǎn)移

根據(jù)人眼的轉(zhuǎn)移機(jī)制,人眼關(guān)注點(diǎn)的轉(zhuǎn)移意味著有特征事件的出現(xiàn).因此,首先要找到視覺(jué)顯著圖中局部最受關(guān)注的區(qū)域,然后再根據(jù)連續(xù)幀中的最受關(guān)注區(qū)域的變化來(lái)確定人眼視覺(jué)關(guān)注點(diǎn)的轉(zhuǎn)移,從而選定關(guān)鍵幀的候選幀.具體步驟如下:

1)將視頻幀的最終視覺(jué)顯著圖分成無(wú)重疊的、大小為8×8的塊.

2)計(jì)算每塊的均值,并找到均值最大的塊.在

式中:k∈{1,2}代表被選定的受關(guān)注區(qū)域的數(shù)目,xi∈Rk表示矩形Rk中的像素,NRk表示矩形Rk中總像素?cái)?shù),Tk是選擇最優(yōu)矩形區(qū)域時(shí)設(shè)定的閾值,avg(maxblockk_Sa(x))是第k個(gè)最大均值塊的均值,?k∈(0,1)是一個(gè)經(jīng)驗(yàn)數(shù)據(jù).在實(shí)驗(yàn)中,選用?k=0.9,即將最大均值塊均值的90%設(shè)定為選擇最優(yōu)矩形區(qū)域時(shí)的閾值.每一個(gè)受關(guān)注區(qū)域可以表示為[7]:

式中:Re ct(·)代表設(shè)定矩形區(qū)域的函數(shù),(ck,rk)是矩形區(qū)域左上頂點(diǎn)的坐標(biāo),Wk和Hk分別是矩形區(qū)域的寬度和高度.

當(dāng)?shù)?個(gè)視覺(jué)受關(guān)注區(qū)域確定以后,將這部分區(qū)域的像素值置為零,然后返回到2)進(jìn)行,直到第2個(gè)受關(guān)注區(qū)域被選定為止.

4)分別計(jì)算視頻幀所選2個(gè)區(qū)域的均值,用均值的變化來(lái)表征視覺(jué)關(guān)注的轉(zhuǎn)移.

當(dāng)av1(i)>av2(i)& av2(i+1)>av1(i+1)或者av2(i)>av1(i)& av1(i+1)>av2(i+1)時(shí),表示在第i幀時(shí)刻發(fā)生了視覺(jué)轉(zhuǎn)移,此時(shí)將第i+1幀選出作為關(guān)鍵幀的候選幀,這里av1(i)和av2(i)表示第i幀選出的2個(gè)受關(guān)注區(qū)域的均值.

5)獲得視覺(jué)關(guān)注節(jié)奏曲線.定義視覺(jué)轉(zhuǎn)移量來(lái)表示視覺(jué)轉(zhuǎn)移程度的大小.視覺(jué)轉(zhuǎn)移量是指視覺(jué)轉(zhuǎn)移之前,視覺(jué)關(guān)注保持在某一關(guān)注區(qū)域的時(shí)間,它可以用視頻中沒(méi)有視覺(jué)轉(zhuǎn)移發(fā)生的這段時(shí)間內(nèi)視頻的幀數(shù)來(lái)表示:這里用圖像塊平均灰度值代表這個(gè)圖像塊的受關(guān)注程度,均值越大,這個(gè)塊的受關(guān)注程度越高.

3)以均值最大的塊為中心,通過(guò)區(qū)域擴(kuò)展形成一個(gè)最優(yōu)的矩形區(qū)域作為視覺(jué)關(guān)注區(qū)域.這個(gè)矩形區(qū)域要滿足矩形面積最小且局部平均像素值最大的要求.這樣就可以獲得第1個(gè)視覺(jué)受關(guān)注區(qū)域.

在選擇最優(yōu)矩形區(qū)域Rk時(shí),采用文獻(xiàn)[8]中的方法:

式中:T是沒(méi)有視覺(jué)轉(zhuǎn)移發(fā)生的一段時(shí)間內(nèi)出現(xiàn)的視頻幀數(shù),N是正整數(shù)或零,δt(i)為第i幀出現(xiàn)時(shí)刻的視覺(jué)轉(zhuǎn)移量.

視頻當(dāng)前幀選出的2個(gè)關(guān)注區(qū)域的均值與前一幀選出的2個(gè)關(guān)注區(qū)域的均值相比沒(méi)有發(fā)生變化時(shí),視覺(jué)轉(zhuǎn)移量為零;若發(fā)生變化,視覺(jué)轉(zhuǎn)移量累加,以此獲得視覺(jué)關(guān)注節(jié)奏曲線.

6)獲得視覺(jué)關(guān)注節(jié)奏后,根據(jù)視覺(jué)轉(zhuǎn)移量選定關(guān)鍵幀.

2.3 受關(guān)注事件報(bào)警或提示

視頻中往往會(huì)出現(xiàn)一些與場(chǎng)景中大部分人的共性行為不一致的行為,或是場(chǎng)景中突然新增加一些人、事物以及發(fā)生一系列新的動(dòng)作的情況,比如人群在步行前進(jìn)卻有一個(gè)人跑步前進(jìn)或突然有一個(gè)人闖入一個(gè)環(huán)境中等.這些與人們的共性行為不一致的行為的發(fā)生往往會(huì)引起觀察者的注意,因此,它們往往被認(rèn)為是視頻中的受關(guān)注事件.

根據(jù)人眼的觀看習(xí)慣,視覺(jué)轉(zhuǎn)移的形式主要有2種:1)視覺(jué)注視點(diǎn)頻繁地發(fā)生轉(zhuǎn)移;2)視覺(jué)轉(zhuǎn)移隔一段時(shí)間才發(fā)生一次.第1種形式通常發(fā)生在事件進(jìn)行過(guò)程中.在這種情況下,由于視覺(jué)關(guān)注點(diǎn)轉(zhuǎn)移的時(shí)間間隔短,所以視覺(jué)轉(zhuǎn)移量往往不大;而第2種形式往往出現(xiàn)在新事件發(fā)生的時(shí)刻.這種情況通常是在視覺(jué)關(guān)注點(diǎn)在某一區(qū)域保持了一段時(shí)間后才發(fā)生的,因此,視覺(jué)轉(zhuǎn)移量往往較大.所以,只要設(shè)定合適的視覺(jué)轉(zhuǎn)移量門(mén)限值,就可以從關(guān)鍵幀的候選幀中選定表征事件發(fā)生的關(guān)鍵幀.在所選關(guān)鍵幀對(duì)應(yīng)的時(shí)刻進(jìn)行報(bào)警或提示,以標(biāo)示受關(guān)注事件的發(fā)生,就可以達(dá)到事件檢測(cè)的目的.

3 實(shí)驗(yàn)結(jié)果及其分析

實(shí)驗(yàn)采用的計(jì)算機(jī)配置為Pentium Dual-Core CPU E 5300@2.60 GHz,2GB 內(nèi)存,Windows XP 系統(tǒng)中,仿真程序通過(guò)Matlab編程實(shí)現(xiàn).在進(jìn)行實(shí)驗(yàn)時(shí)選用了標(biāo)準(zhǔn)的“Hall Monitor”視頻,這個(gè)視頻包括300幀.對(duì)每一幀進(jìn)行動(dòng)態(tài)關(guān)注模型、靜態(tài)關(guān)注模型的提取并融合,根據(jù)局部灰度像素均值最大的方法選擇最受關(guān)注區(qū)域,進(jìn)而得到圖2所示的監(jiān)控視頻的視覺(jué)關(guān)注曲線,根據(jù)對(duì)“Hall Monitor”視頻的運(yùn)動(dòng)量進(jìn)行統(tǒng)計(jì)計(jì)算,設(shè)定轉(zhuǎn)移量的門(mén)限值為15.

圖2 視覺(jué)關(guān)注曲線Fig.2 The curve of visual attention

從圖2可以看出,視覺(jué)轉(zhuǎn)移量大于15的幀中,第1幀和第2幀以及第2幀和第3幀之間基本上沒(méi)有視覺(jué)轉(zhuǎn)移量的起伏變化,符合2.3所述的第2種形式,說(shuō)明此時(shí)刻事件的突發(fā)性.根據(jù)圖2選出的關(guān)鍵幀如圖3所示,圖3包括第1個(gè)人進(jìn)入監(jiān)控(圖3(a))、第2個(gè)人進(jìn)入監(jiān)控(圖3(b))、第1個(gè)人離開(kāi)(圖3(c))、第2個(gè)人從監(jiān)控中離開(kāi)(圖3(d))的關(guān)鍵幀.

圖3 門(mén)限值為15時(shí)視頻“hall”中選出的關(guān)鍵幀F(xiàn)ig.3 The extracted key frames when the threshold is 15

由圖3可以看出根據(jù)視覺(jué)關(guān)注節(jié)奏曲線選出的關(guān)鍵幀能夠代表視頻中主要受關(guān)注事件出現(xiàn)的時(shí)刻,在這樣的時(shí)刻進(jìn)行報(bào)警,就可以達(dá)到事件智能檢測(cè)的目的.實(shí)驗(yàn)中視頻相鄰2幀之間的變化所需的時(shí)間大約是0.004 11 s,能夠證明該方法能夠?qū)崟r(shí)地檢測(cè)事件.當(dāng)設(shè)定門(mén)限值為10時(shí),所選的關(guān)鍵幀如圖4所示,此時(shí)2個(gè)人進(jìn)入監(jiān)控后的一系列連續(xù)的動(dòng)作(圖4(c)~(f))被檢測(cè)出,這時(shí)選出的幀處于2個(gè)事件之間,表明了事件發(fā)展過(guò)程中的主要?jiǎng)幼?,即?個(gè)人放下物體(圖4(c)、(d)),第2個(gè)人拎起另一個(gè)物體(圖4(e)、(f)).

圖4 門(mén)限值為10時(shí)視頻“hall”中選出的關(guān)鍵幀F(xiàn)ig.4 The extracted key frames when the threshold is 10

此外,又選用了實(shí)驗(yàn)室監(jiān)控視頻對(duì)算法進(jìn)行驗(yàn)證.這個(gè)視頻各幀的mean(Tsm)比“Hall Monitor”視頻的大,說(shuō)明這個(gè)視頻中運(yùn)動(dòng)區(qū)域較多,運(yùn)動(dòng)更為復(fù)雜,這里通過(guò)對(duì)視頻運(yùn)動(dòng)量的統(tǒng)計(jì)計(jì)算,設(shè)定視覺(jué)轉(zhuǎn)移量的門(mén)限值為10.實(shí)驗(yàn)結(jié)果如圖5和圖6.

圖5 實(shí)驗(yàn)室監(jiān)控視頻的視覺(jué)關(guān)注曲線Fig.5 The curve of visual attention

圖6 實(shí)驗(yàn)室監(jiān)控視頻中選出的關(guān)鍵幀F(xiàn)ig.6 The extracted key frames

圖5是視頻所對(duì)應(yīng)的視覺(jué)關(guān)注節(jié)奏曲線,可以看出,在選定的幀中,各幀之間有比較頻繁的視覺(jué)轉(zhuǎn)移量的起伏變化,說(shuō)明視覺(jué)轉(zhuǎn)移一直在發(fā)生,事件一直在進(jìn)行,符合2.3中提到的第1種形式.在這種情況下,到達(dá)某個(gè)時(shí)刻時(shí)視覺(jué)轉(zhuǎn)移量突然增加,表明這個(gè)時(shí)刻可能會(huì)有新事件的出現(xiàn).這個(gè)視頻相鄰2幀之間的轉(zhuǎn)移所花時(shí)間大約是0.004 14s,也能證明該方法的實(shí)時(shí)性.圖6是根據(jù)圖5選擇的關(guān)鍵幀.可以看出人物出現(xiàn)(圖6(a))、行走(圖6(b))、返回自己座位(圖6(c))等一系列關(guān)鍵動(dòng)作都被檢測(cè)出來(lái).

4 結(jié)束語(yǔ)

提出了一種基于視覺(jué)關(guān)注轉(zhuǎn)移的關(guān)鍵幀提取的事件檢測(cè)算法,首先采用LK光流算法和混合高斯建模技術(shù)檢測(cè)視頻幀中的運(yùn)動(dòng)區(qū)域,進(jìn)而獲得視頻幀的動(dòng)態(tài)關(guān)注模型;同時(shí),對(duì)視頻中各幀提取靜態(tài)關(guān)注模型;將這2類關(guān)注模型融合得到視頻幀的視覺(jué)關(guān)注模型,通過(guò)視覺(jué)關(guān)注模型來(lái)提取視頻幀中的受關(guān)注區(qū)域;然后根據(jù)連續(xù)幀中的最受關(guān)注區(qū)域的變化來(lái)確定人眼視覺(jué)關(guān)注點(diǎn)的轉(zhuǎn)移,獲得視覺(jué)關(guān)注節(jié)奏;最后根據(jù)視覺(jué)關(guān)注節(jié)奏中視覺(jué)轉(zhuǎn)移量的大小選定關(guān)鍵幀,在關(guān)鍵幀出現(xiàn)的時(shí)刻進(jìn)行報(bào)警或提示,以此來(lái)表征受關(guān)注事件的發(fā)生.在下一步工作中,將研究視覺(jué)轉(zhuǎn)移量閾值的自適應(yīng)設(shè)定方法.文中提出的方法能夠較好地表征受關(guān)注事件的發(fā)生,但是需要進(jìn)一步改進(jìn)以應(yīng)對(duì)更加復(fù)雜的視頻監(jiān)控場(chǎng)景.

[1]JIANG F,WU Y.A dynamic hierarchical clustering method for trajectory-based unusual video event detection[J].IEEE Transactions on Image Processing,2009,18(4):907-913.

[2]LIU C,WANG G J,NING W X,et al.Anomaly detection in surveillance video using motion direction statistics[C]//IEEE International Conference on Image Processing.Hong Kong,China,2010:717-720.

[3]JIANG P,QIN X L.Keyframe-based video summary using visual attention clues[J].IEEE Transactions on Multimedia,2010,17(2):64-73.

[4]LAI J L,YI Y.Key frame extraction based on visual attention model[J].Journal of Visual Communication and Image Representation,2012,23(1):114-125.

[5]AMIRI A,F(xiàn)ATHY M,NASERI A.Key-frame extraction and video summarization using QR-decomposition[C]//IEEE International Conference on Multimedia Technology and Applications.Wuhan,China,2010:134-139.

[6]ZHANG J,SUN J D,YAN H,et al.Visual attention model with cross-layer saliency optimization[C]//IEEE International Conference on Intelligent Information Hiding and Mul-timedia Signal Processing.Dalian,China,2011:240-243.

[7]ITTI L,KOCH C,NIEBUR E.A model of saliency based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.

[8]RUBINSTEIN M,SHAMIR A,AVIDAN S.Multi-operator media retargeting[J].ACM Transactions on Graphics,2009,23(3):1-8.

猜你喜歡
關(guān)鍵幀靜態(tài)監(jiān)控
The Great Barrier Reef shows coral comeback
靜態(tài)隨機(jī)存儲(chǔ)器在軌自檢算法
你被監(jiān)控了嗎?
Zabbix在ATS系統(tǒng)集中監(jiān)控中的應(yīng)用
看監(jiān)控?cái)z像機(jī)的4K之道
基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
機(jī)床靜態(tài)及動(dòng)態(tài)分析
具7μA靜態(tài)電流的2A、70V SEPIC/升壓型DC/DC轉(zhuǎn)換器
含山县| 文成县| 五大连池市| 遂宁市| 自治县| 开江县| 临颍县| 江阴市| 平乡县| 遂溪县| 永寿县| 荣成市| 东城区| 林西县| 崇阳县| 安康市| 台中市| 吴江市| 泰顺县| 白山市| 闵行区| 镇沅| 尼玛县| 两当县| 彭阳县| 乌苏市| 油尖旺区| 平塘县| 巫山县| 定远县| 保德县| 泸水县| 五家渠市| 九龙城区| 竹山县| 静宁县| 衡山县| 安西县| 奇台县| 华宁县| 来凤县|