鹿凱寧,孫 琪,劉安安,楊兆選
(天津大學(xué)電子信息工程學(xué)院,天津 300072)
人體行為識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域長(zhǎng)期以來(lái)的研究熱點(diǎn),其目的是利用人體行為過(guò)程對(duì)應(yīng)的視覺(jué)模式的動(dòng)態(tài)變化特征對(duì)某一動(dòng)作進(jìn)行建模,從而實(shí)現(xiàn)對(duì)未知?jiǎng)幼餍蛄械淖詣?dòng)識(shí)別.現(xiàn)有人體行為識(shí)別方法主要有3 類:①模板匹配法[1-3].基于模板匹配的方法是將圖像序列轉(zhuǎn)換成一個(gè)或者一組模板,然后將待識(shí)別的行為和已知的模板進(jìn)行匹配來(lái)識(shí)別.Bobick 等[1]將圖像轉(zhuǎn)化為運(yùn)動(dòng)能量圖像和運(yùn)動(dòng)歷史圖像,采用Maha-lanobis 距離作為模板相似性的度量.該方法對(duì)于時(shí)間間隔的變化較敏感,魯棒性較低.Polana 等[2]利用二維網(wǎng)格特征對(duì)人體行為進(jìn)行識(shí)別:首先分別在兩個(gè)不同方向上分解每一個(gè)幀光流信息,然后將每一單元格的幅度疊加,從而形成一個(gè)高維特征向量用于識(shí)別匹配.該方法可以顯性提取人體運(yùn)動(dòng)信息,但是由于光流對(duì)噪聲的敏感性使得特征魯棒性受限.②基于人體結(jié)構(gòu)的方法[4-6].基于人體結(jié)構(gòu)的方法需要建立2,D 或3,D 的人體模型.一般將三維人體視為由關(guān)節(jié)連接的剛體的集合,用三維的人體骨架來(lái)描述人體運(yùn)動(dòng).文獻(xiàn)[4]中通過(guò)對(duì)運(yùn)動(dòng)人體的輪廓進(jìn)行形態(tài)學(xué)的細(xì)化處理,采用新建立連通性結(jié)構(gòu)標(biāo)準(zhǔn)和肢體關(guān)節(jié)點(diǎn)定位算法處理骨架建立人體骨架模型.盡管該方法能夠表征人體行為更多細(xì)節(jié),但是人體行為的復(fù)雜性往往使得該類方法的建模更加困難.Chen 等[5]將一個(gè)動(dòng)作的三維人體結(jié)構(gòu)轉(zhuǎn)化為一個(gè)二維投影圖像,在結(jié)構(gòu)中,采用17 個(gè)線段和14 個(gè)節(jié)點(diǎn)來(lái)表示人體動(dòng)作模型,并且定義了很多的約束條件作為步態(tài)分析的基礎(chǔ).該方法計(jì)算比較復(fù)雜,因?yàn)槠湫枰芯克锌赡艿娜S結(jié)構(gòu)并得到其相應(yīng)的二維投影.③基于概率圖模型的方法[7-11].概率圖模型分為有向圖模型和無(wú)向圖模型兩類,典型有向圖模型為隱馬爾科夫模型(hidden Markov model,HMM),典型無(wú)向圖模型主要為條件隨機(jī)場(chǎng)(conditional random field,CRF).Yamato 等[7]首先將 HMMs 引入到人體行為識(shí)別中,將人體運(yùn)動(dòng)區(qū)域塊的視覺(jué)特征作為輸入特征,并用HMMs 模型對(duì)人體行為進(jìn)行建模和識(shí)別.Bregler[8]基于人體動(dòng)力學(xué)在不同抽象等級(jí)的統(tǒng)計(jì)分解提出了層次化方法,通過(guò)最大化 HMM 后驗(yàn)概率來(lái)完成識(shí)別.不同于文獻(xiàn)[7-8]中的單人行為識(shí)別,文獻(xiàn)[9]在群體交互動(dòng)作識(shí)別中采用兩層HMM 模型,下層模型對(duì)群體中的個(gè)體進(jìn)行動(dòng)作識(shí)別,識(shí)別結(jié)果作為上層群體行為識(shí)別模型的觀測(cè).該方法通過(guò)多 HMMs 模型的組合實(shí)現(xiàn)了較復(fù)雜的群體行為識(shí)別.盡管 HMM 模型在時(shí)序建模應(yīng)用廣泛,但是由于它建立在條件獨(dú)立性假設(shè)和馬爾可夫假設(shè)上,導(dǎo)致其不能表示時(shí)間序列中的大范圍上下文依賴關(guān)系以及序列間的特征多重重疊,導(dǎo)致該模型不能很好地模擬人體動(dòng)作序列在時(shí)序上的大范圍時(shí)空關(guān)聯(lián)特性,限制了基于該模型的人體動(dòng)作識(shí)別的準(zhǔn)確性.為此,部分研究者開(kāi)始研究基于判別模型的方法.Lafferty 等[10]提出條件隨機(jī)場(chǎng)模型,相對(duì)于隱馬爾科夫模型,它克服了條件獨(dú)立性假設(shè)和馬爾可夫假設(shè),并且利用大范圍上下文信息進(jìn)行參數(shù)學(xué)習(xí)和預(yù)測(cè),因此該模型具有更強(qiáng)的時(shí)序建模能力,已被廣泛應(yīng)用于自然語(yǔ)言處理[11]、計(jì)算機(jī)視覺(jué)[12]等.Wang 等[13]采用條件隨機(jī)場(chǎng)模型對(duì)動(dòng)作序列潛在的時(shí)空相關(guān)信息進(jìn)行建模,從而實(shí)現(xiàn)對(duì)動(dòng)作變換過(guò)程的整體表征.條件隨機(jī)場(chǎng)模型可以實(shí)現(xiàn)綜合利用時(shí)空上下文信息進(jìn)行時(shí)序建模和推斷,但是該模型的學(xué)習(xí)需要人為顯性標(biāo)注圖像序列各幀狀態(tài),從而導(dǎo)致模型的學(xué)習(xí)依賴于人為的狀態(tài)標(biāo)注,使得模型性能受到局限.
筆者提出了基于隱條件隨機(jī)場(chǎng)的人體行為識(shí)別方法.Quattoni 等[14]把隱狀態(tài)變量引入到條件隨機(jī)場(chǎng)模型中,提出隱條件隨機(jī)場(chǎng)(hidden conditional random field,HCRF).由于隱條件隨機(jī)場(chǎng)不需要對(duì)各時(shí)刻狀態(tài)進(jìn)行顯性標(biāo)注,因此相對(duì)于條件隨機(jī)場(chǎng)對(duì)時(shí)序信息的利用和建模具有更高的靈活性.該方法包括 3個(gè)步驟:首先,通過(guò)目標(biāo)檢測(cè)和跟蹤提取圖像序列中人體所在時(shí)空區(qū)域;其次,提取人體區(qū)域的 Gist 特征作為人體行為視覺(jué)描述子;最后,利用隱條件隨機(jī)場(chǎng)模型對(duì)人體行為進(jìn)行建模.
人體所在時(shí)空區(qū)域的檢測(cè)和跟蹤是人體行為分析的前提.
目標(biāo)檢測(cè)的目的是判斷視頻序列各幀中是否出現(xiàn)目標(biāo),并對(duì)其進(jìn)行定位.為了快速實(shí)現(xiàn)目標(biāo)檢測(cè),首先采用基于混合高斯模型的背景差法[15]檢測(cè)各幀中前景區(qū)域,然后采用 Dalal 等[16]提出的基于方向梯度直方圖和支持向量機(jī)模型的人體檢測(cè)分類器進(jìn)行人體檢測(cè),檢測(cè)結(jié)果如圖1 所示.
圖1 提取人體時(shí)空區(qū)域示意Fig.1 Extraction of spatiotemporal regions of human body
目標(biāo)跟蹤的目的是建立連續(xù)幀內(nèi)人體區(qū)域的對(duì)應(yīng)關(guān)系,為后續(xù)的人體行為時(shí)空建模提供基礎(chǔ).目標(biāo)跟蹤通常包含兩部分:首先通過(guò)目標(biāo)區(qū)域的顏色、紋理和形狀等特征對(duì)該區(qū)域進(jìn)行表征,然后采用預(yù)測(cè)模型進(jìn)行前后幀相似性的匹配.在實(shí)驗(yàn)中,采用高效的Meanshift 算法[17]實(shí)現(xiàn)了目標(biāo)跟蹤.由于實(shí)驗(yàn)數(shù)據(jù)每幀只包含一個(gè)目標(biāo),并且通過(guò)前述目標(biāo)檢測(cè)方法可以較準(zhǔn)確定位到每幀中人體區(qū)域,因此在實(shí)驗(yàn)中將Meanshift 跟蹤窗口尺寸設(shè)定為首幀圖像中檢測(cè)到的人體區(qū)域,為了避免 Meanshift 跟蹤的漂移現(xiàn)象發(fā)生,將每幀圖像中 Meanshift 跟蹤的預(yù)測(cè)區(qū)域和目標(biāo)檢測(cè)方法檢測(cè)到的每幀區(qū)域進(jìn)行后融合,即每幀圖像人體中心位置取檢測(cè)和跟蹤結(jié)果各自中心的中點(diǎn)位置,人體區(qū)域的尺度取二者長(zhǎng)寬的均值.至此,實(shí)現(xiàn)了每個(gè)視頻中人體所在時(shí)空區(qū)域的提?。?/p>
采用 Gist 特征對(duì)人體行為視覺(jué)特征進(jìn)行描述.Gist 特征的提取無(wú)需人體區(qū)域分割,并且可以表征人體區(qū)域的全局結(jié)構(gòu)和形狀特征,因此有利于增強(qiáng)特征的分辨能力.
為了優(yōu)化局部邊緣特征不同尺度下的檢測(cè)結(jié)果,采取多尺度 Wiener 濾波器[18]對(duì)圖像進(jìn)行銳化預(yù)處理,再利用Gabor 變換來(lái)提取圖像的Gist 特征.二維Gabor 變換的核函數(shù)可以表示為
二維Gabor 變換核函數(shù)的傅里葉變換為
Gabor 濾波器組是對(duì) Gabor 變換核進(jìn)行適當(dāng)尺度變換和旋轉(zhuǎn)變換得到的一組自相似的濾波器,即
給定一幅圖像I,對(duì)其進(jìn)行Gabor 變換可表示為
因時(shí)域卷積計(jì)算復(fù)雜度較高,因此根據(jù)卷積定理將式(4)轉(zhuǎn)化為式(5)所示頻域計(jì)算,從而降低計(jì)算復(fù)雜度.
實(shí)驗(yàn)中,所創(chuàng)建Gabor 濾波器組含3 個(gè)尺度,每個(gè)尺度上方向數(shù)分別為 8、8、4,總計(jì) 20 個(gè)濾波器,然后將每幅經(jīng)過(guò)銳化處理的圖像與該濾波器組分別執(zhí)行式(5)所示操作,最終得到圖像的 Gist 特征向量(共320 維),該特征將被作為人體行為視覺(jué)描述子.
將對(duì)隱條件隨機(jī)場(chǎng)的模型構(gòu)建、學(xué)習(xí)和推斷進(jìn)行具體闡述.
隱條件隨機(jī)場(chǎng)可以解決觀測(cè)序列分類問(wèn)題,其圖結(jié)構(gòu)可以表示為 G=(ν,ε) , 其中ν表示圖的頂點(diǎn)集合,ε表示圖的邊集合,如圖2 所示.
圖2 隱條件隨機(jī)場(chǎng)圖模型Fig.2 Graphical model of HCRF
式中:θ為該模型參數(shù);φ(Y,h,X)∈?為勢(shì)函數(shù).因此,P (Y | X,θ)可以表示為
根據(jù)圖 2 所示隱條件隨機(jī)場(chǎng)圖結(jié)構(gòu)及人體行為過(guò)程中的變化特性,所構(gòu)造隱條件隨機(jī)場(chǎng)模型中的勢(shì)函數(shù)包含 3 部分:①φ1( Xj,hj).觀測(cè)節(jié)點(diǎn)與隱變量節(jié)點(diǎn)之間的關(guān)系,即各幀動(dòng)作特征與該幀表征動(dòng)作基元類型的關(guān)系,可以采用第 2 節(jié)中介紹的各幀 G ist 特征進(jìn)行對(duì)該勢(shì)函數(shù)進(jìn)行表征;②φ2(Y ,hj).隱變量節(jié)點(diǎn)與序列標(biāo)記的關(guān)系,即各幀表征的基元?jiǎng)幼髋c動(dòng)作類別的關(guān)系,規(guī)定當(dāng) hj對(duì)應(yīng)基元?jiǎng)幼鲗儆赮 動(dòng)作類型時(shí),該勢(shì)函數(shù)為 1,否則為 0;③φ3(Y,hj,hk).隱變量節(jié)點(diǎn)間形成的邊與序列標(biāo)記間的關(guān)系,表示基元?jiǎng)幼鬓D(zhuǎn)變與動(dòng)作類別的關(guān)系,規(guī)定當(dāng) hj到 hk的基元?jiǎng)幼鬓D(zhuǎn)變符合動(dòng)作Y 變化過(guò)程時(shí),該勢(shì)函數(shù)為 1,否則為0.因此,勢(shì)函數(shù)可以分解為
θ也可以對(duì)應(yīng)地分解,即
假設(shè)訓(xùn)練集合包含n 個(gè)樣本(Xi,Yi),根據(jù)HCRF模型定義,通過(guò)如下目標(biāo)函數(shù)的優(yōu)化學(xué)習(xí)參數(shù)θ?,即
式中n表示訓(xùn)練樣本序列的總個(gè)數(shù).對(duì)于式(9)所示最優(yōu)化問(wèn)題,可以使用梯度下降法[10]計(jì)算參數(shù)最優(yōu)值,即
獲得參數(shù)θ后,該模型可以用于人體行為識(shí)別的預(yù)測(cè).在行為識(shí)別過(guò)程中,對(duì)于觀測(cè)行為序列X ,其所屬類別的最佳估計(jì)為
采用當(dāng)前動(dòng)作識(shí)別研究中流行的 Weizzman 數(shù)據(jù)庫(kù)(見(jiàn)圖 3)對(duì)本文中提出的算法進(jìn)行評(píng)測(cè).該數(shù)據(jù)庫(kù)共包含 9 3 個(gè)視頻序列(180 ×140 像 素,25 幀/s),共有10 組動(dòng)作類型,每組動(dòng)作分別由9 人完成(其中跑步、慢跑、走步動(dòng)作數(shù)據(jù)分別包含 1 個(gè)人的2 個(gè)視頻序列)[20].通過(guò)目標(biāo)檢測(cè)和跟蹤,能夠提取所有目標(biāo)所在時(shí)空區(qū)域(如圖 1(c)所示),為后續(xù)動(dòng)作識(shí)別提供準(zhǔn)確的建模和識(shí)別對(duì)象.采用文獻(xiàn)[20]提出的數(shù)據(jù)設(shè)置方式來(lái)對(duì) HCRF 模型進(jìn)行訓(xùn)練和測(cè)試.為了得到性能最佳的 HCRF 模型,遍歷了模型的隱狀態(tài)數(shù)s(2≤s≤5)和時(shí)序窗口w(0≤w≤3)兩個(gè)參數(shù)的所有組合,并通過(guò)計(jì)算模型在測(cè)試集上表征分類總體性能的接收者操作特征曲線下面積來(lái)對(duì)模型參數(shù)進(jìn)行選擇.其中,參數(shù) w =N (N ≠ 0)表示在訓(xùn)練HCRF 模型時(shí)同時(shí)使用當(dāng)前幀及其相鄰的前后各N幀進(jìn)行狀態(tài)估計(jì),而w = 0代表訓(xùn)練時(shí)只用當(dāng)前視頻幀;參數(shù)s 表示HCRF 模型隱狀態(tài)空間的大小.
圖3 Weizzman數(shù)據(jù)庫(kù)中動(dòng)作樣例Fig.3 Example images extracted from the Weizzman dataset
采用最佳參數(shù)組合訓(xùn)練各動(dòng)作對(duì)應(yīng)的 HCRF 模型,此時(shí)各動(dòng)作的查全率 P、查準(zhǔn)率 R 及相應(yīng)接收者操作特征曲線下面積(area under curve,AUC)SAUC結(jié)果如表1 所示.
表1 HCRF模型最佳性能Tab.1 Best performance of HCRF
4.2.1 不同 Gabor 濾波器尺度參數(shù)下的 HCRF 模型性能對(duì)比
為了驗(yàn)證 Gabor 濾波器尺度參數(shù)對(duì)模型性能的影響,選擇最優(yōu)尺度參數(shù),實(shí)驗(yàn)中采用不同尺度參數(shù)下提取的Gist 特征,并采用第4.1 節(jié)實(shí)驗(yàn)得到的最優(yōu)隱狀態(tài)數(shù)和時(shí)序窗口參數(shù)組合訓(xùn)練 HCRF 模型,并通過(guò)識(shí)別準(zhǔn)確率進(jìn)行比較.由表 2 比較可以看出,尺度參數(shù)的變化對(duì) HCRF 模型性能的影響不顯著.相對(duì)而言,當(dāng)尺度參數(shù)較小時(shí)(σx=σy= 3),Gabor 濾波器組僅僅能夠表征較小的局部區(qū)域特征,不能很好地描述人體行為視覺(jué)特征,因此得到的識(shí)別效果較低;尺度 參數(shù) 分別 為σx=σy= 5和σx=σy= 7時(shí),Gabor 濾波器組能夠表征較大的局部區(qū)域特征,更適于具有顯著局部變化特性的圖像序列表征,因此識(shí)別準(zhǔn)確率相對(duì)σx=σy= 3有所提高,但是二者準(zhǔn)確率十分接近.考慮到實(shí)際情況中,由于尺度參數(shù)越大,提取特征時(shí)的卷積計(jì)算復(fù)雜度越大,因此實(shí)驗(yàn)中采用的尺度參數(shù)為σx=σy= 5.
表2 不同尺度參數(shù)下HCRF模型的動(dòng)作識(shí)別準(zhǔn)確率Tab.2 Accuracy of HCRF with different scaling parameters
4.2.2 算法對(duì)比
為了證明該方法的優(yōu)越性,把它的性能分別與文獻(xiàn)[20]以及近期提出的基于條件隨機(jī)場(chǎng)模型的動(dòng)作識(shí)別方法[13]進(jìn)行對(duì)比.為了公平比較 3 種方法的性能,在相同的數(shù)據(jù)庫(kù)并分別采用不同文獻(xiàn)中的相應(yīng)評(píng)價(jià)準(zhǔn)則對(duì)算法進(jìn)行評(píng)測(cè).
表 3 給出了本文所提算法與文獻(xiàn)[20]所提算法的動(dòng)作識(shí)別率的對(duì)比結(jié)果.這兩種算法的區(qū)別在于:本文中用于描述人體行為的 Gist 特征是一種根據(jù)人的生理特性構(gòu)造的一組圖像視覺(jué)特征,它可以表示圖像的自然度、開(kāi)放度、粗糙度、擴(kuò)張度和崎嶇度等,并且它不需要人工預(yù)先進(jìn)行人體區(qū)域分割就可以表征人體區(qū)域的形狀和紋理特征[21],因此使得本文提出方法所構(gòu)造 HCRF 模型的勢(shì)函數(shù)與文獻(xiàn)[20]中勢(shì)函數(shù)不同.由表3 可知,這兩種算法取得了相近的結(jié)果,其中,本文算法在走步、慢跑和跑步 3 類動(dòng)作分別高于文獻(xiàn)[20]算法 10.0%、3.1%和 9.2%,文獻(xiàn)[20]算法在原地跳和單手揮分別高于本文算法0.1%和1.1%.
表3 本文算法與文獻(xiàn)[20]算法比較Tab.3 Comparison between proposed method and method in Ref[20]
表 4 給出了由第 4.1 節(jié)實(shí)驗(yàn)得到的最佳參數(shù)條件下的HCRF 模型及CRF 模型進(jìn)行行為識(shí)別的對(duì)比結(jié)果.根據(jù)文獻(xiàn)[13]實(shí)驗(yàn)設(shè)置,除了對(duì)接收者操作特征曲線下面積AUC 進(jìn)行比較外,還采用 F1值來(lái)對(duì)查全率和查準(zhǔn)率兩者綜合性能進(jìn)行比較.F1值定義為
由表 4 看出在 Weizzman 數(shù)據(jù)庫(kù)中復(fù)雜人體行為識(shí)別實(shí)驗(yàn)中,HCRF 的性能始終優(yōu)于 CRF 的.此外,CRF 模型要求對(duì)行為序列進(jìn)行完全標(biāo)記,因此較HCRF 模型學(xué)習(xí)工作量更大,且因人為進(jìn)行幀級(jí)狀態(tài)標(biāo)記具有很強(qiáng)主觀性,因此往往直接影響模型性能.
表4 HCRF與CRF性能比較Tab.4 Comparison between HCRF and CRF
提出了一種基于隱條件隨機(jī)場(chǎng)的人體行為識(shí)別方法.該方法首先通過(guò)目標(biāo)檢測(cè)和跟蹤提取圖像序列中人體所在時(shí)空區(qū)域;其次提取人體區(qū)域的 Gist特征作為人體行為視覺(jué)描述子;最后,利用隱條件隨機(jī)場(chǎng)模型對(duì)人體行為進(jìn)行建模,實(shí)現(xiàn)對(duì)人體行為的識(shí)別.通過(guò)對(duì)比實(shí)驗(yàn)證明了隱條件隨機(jī)場(chǎng)可以充分利用圖像序列的時(shí)空相關(guān)信息來(lái)表征動(dòng)作序列的時(shí)空變化特性,從而實(shí)現(xiàn)準(zhǔn)確的人體行為識(shí)別.
[1]Bobick A F,Davis J W. The recognition of human movement using temporal templates[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(3):257-267.
[2]Polana R,Nelson R. Low level recognition of human motion[C]//Proceedings IEEE Workshop on Motion of Non-Rigid and Articulated Objects.Austin , USA ,1994:77-82.
[3]Veeraraghavan A K,Roy-Chowdhury R C. Matching shape sequences in video with applications in human movement analysis[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(12):1896-1909.
[4]趙曉東,李其攀,王志成. 一種快速人體骨架建模方法[J]. 計(jì)算機(jī)應(yīng)用研究,2012,29(1):383-385.Zhao Xiaodong , Li Qipan , Wang Zhicheng. Fast method on building human skeleton model[J].Application Research of Computers, 2012 , 29(1) : 383-385(in Chinese).
[5]Chen Z,Lee H J. Knowledge-guided visual perception of 3D human gait from a single image sequence[J].IEEE Trans on Systems,Man and Cybernetics, 1992 ,22(2):336-342.
[6]Leung M K,Yang Y. First sight:A human body outline labeling system[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1995,17(4):359-377.
[7]Yamato J,Ohya J,lshii K. Recognizing human action in time-sequential images using hidden markov model[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Chempaign ,USA,1992:379-385.
[8]Bregler Christoph. Learning and recognizing human dynamics in video sequences[C]//Proceedings of the IEEE computer Society Conference on Computer Vision and Pattern Recognition.Puerto Rico,1997:568-574.
[9]Zhang D,Gatica-Perez D,Bengio S,et al. Modeling individual group actions in meetings:A two-layer HMM framework[C]//Proceedings of IEEE CVPR Workshop on Detection and Recognition of Events in Video. Washington,USA,2004:117-125.
[10]Lafferty J,McCallum A,Pereira F. Conditional random fields:probabilistic model for segmenting and labeling Sequence data[C]//Proceedings of the18,th International Conference on Machine Learning. San Francisco,USA,2001:282-289.
[11]Cohn T A. Scaling Conditional Random Fields for Natural Language Processing[D]. Australia:Department of Computer Science and Software Engineering,University of Melbourne,2007.
[12]Kumar S,Hebert M. Discriminitive random fields:A discriminitive framework for contextual interaction in classification[C]//IEEE International Conference on Computer Vision. Nice,F(xiàn)rance,2003:1150-1157.
[13]Wang Jin,Liu Ping,She Mary,et al. Human action categorization using conditional random field[C]//Robotic Intelligence in Informationally Structured Space(RiiSS). Paris,F(xiàn)race,2011:131-135.
[14]Quattoni A,Wang S b,Morency L P,et al.Hidden conditional random fields[J].IEEE Trans Pattern Anal Mach Intell,2007,29(10):1848-1852.
[15]Stauffer C,Grimson W E L. Learning patterns of activity using real-time tracking [J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.
[16]Dalal Navneet,Triggs Bill. Histograms of oriented gradients for human detection[C]//Intermational Conference onComputer Vision and Pattern Recognition(CVPR,2005). San Diego,USA,2005:886-893.
[17]雷 云,王夏黎,孫 華. 基于視頻的交通目標(biāo)跟蹤方法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2010,20(7):44-47.Lei Yun,Wang Xiali,Sun Hua. The research about transport target tracking based on video[J].Computer Technology and Development,2010,20(7):44-47(in Chinese).
[18]胡 英,楊 杰,周 越. 基于多尺度Wiener 濾波器的分形噪聲濾波[J]. 電子學(xué)報(bào),2003,31(4):560-563.Hu Ying,Yang Jie,Zhou Yue. Multiscale Wiener filter for the estimation of signal embedded in noise[J].Acta Electronica Sinica,2003,31(4):560-563(in Chinese).
[19]王宇新,陸國(guó)際,郭 和,等. 同義圖像融合系統(tǒng)設(shè)計(jì)與優(yōu)化[J]. 計(jì)算機(jī)科學(xué),2010,37(8):283-286.Wang Yuxin,Lu Guoji,Guo He,et al. Design and optimization of synonymous image cloning system[J].Computer Science, 2010 , 37(8) : 283-286(in Chinese).
[20]劉法旺,賈云得. 基于流形學(xué)習(xí)與隱條件隨機(jī)場(chǎng)的人體動(dòng)作識(shí)別[J]. 軟件學(xué)報(bào),2008,19(增):69-77.Liu Fawang,Jia Yunde. Human action recognition using manifold learning and hidden conditional random fields[J].Journal of Software,2008,19(Suppl):69-77(in Chi-nese).
[21]Oliva A,Torralba A. Modeling the shape of the scene:A holistic representation of the spatial envelope [J].International Journal of Computer Vision, 2001 ,42(3):145-175.