国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于關(guān)節(jié)信息和極限學習機的人體動作識別

2015-05-29 12:30張孫培孫懷江
現(xiàn)代電子技術(shù) 2015年10期
關(guān)鍵詞:極限學習機協(xié)方差

張孫培++孫懷江

摘 要: 基于關(guān)節(jié)信息的人體動作識別在人機交互、互動娛樂、多媒體信息檢索等方面應用廣泛。為了提高動作識別率,使用兩種具有固定長度的分層描述符分別關(guān)注運動的動態(tài)和靜態(tài)信息,對運動序列提取特征,將這兩種描述符線性組合,形成同時包含動態(tài)和靜態(tài)信息的新描述符,并使用極限學習機(ELM)進行分類。該方法在微軟Kinect傳感器采集到的MSRAction3D數(shù)據(jù)庫和運動采集數(shù)據(jù)集HDM05上進行了仿真實驗。實驗結(jié)果證明組合后的描述符結(jié)合ELM在這兩個數(shù)據(jù)集上的識別率較現(xiàn)有方法有明顯提高。

關(guān)鍵詞: 人體動作識別; 極限學習機; 協(xié)方差; 方向位移直方圖

中圖分類號: TN710?34; TP391.4 文獻標識碼: A 文章編號: 1004?373X(2015)10?0055?06

0 引 言

人體動作識別是計算機視覺研究中的一個分支,被廣泛地應用于人機互動、交互式娛樂等多個領(lǐng)域?;陉P(guān)節(jié)信息的運動軌跡記錄是常用的高級記錄方法之一,其中運動軌跡是指隨時間變化的關(guān)節(jié)路徑。

人體運動相關(guān)研究的第一個問題是運動數(shù)據(jù)的采集,常用的方法[1]有機械式的運動捕獲,基于電磁系統(tǒng)的運動捕獲,基于慣性系統(tǒng)的運動捕獲,基于光學系統(tǒng)的運動捕獲。為了方便研究者使用,現(xiàn)有很多公開的運動捕獲數(shù)據(jù)集,例如CMU運動捕獲數(shù)據(jù)集和HDM05數(shù)據(jù)集[2]。這些數(shù)據(jù)的采集需要較大代價,最近基于深度信息的微軟Kinect運動采集器因其廉價性和可接受的精度,得到越來越多的使用。

獲取運動數(shù)據(jù)后,要做的就是提取特征和選擇分類器。Wu和Yang使用運動軌跡上每個點的曲率和扭矩建立了一個長度可變的描述符[3?4]。Wang使用歸一化的分布向量描述每個運動軌跡,但是將描述符長度限定為固定值[5]。此后,Wang又根據(jù)骨架關(guān)節(jié)之間的相對位置建立描述符[6],并用傅里葉時序金字塔在頻域內(nèi)建立了時序模型。Xia計算出一幀中3D關(guān)節(jié)的直方圖,并用HMM建立了時序模型[7]。Hussein等用協(xié)方差矩陣和分層的方法描述了骨架關(guān)節(jié)坐標之間的時序依賴[8],Gowayyed等又將3D關(guān)節(jié)軌跡投影到三個相互正交的2D平面上[9],利用方向位移直方圖和分層的時序金字塔提取了相鄰幀間的關(guān)節(jié)位置變化信息,并且取得了更好的識別效果。

上述兩種方法分別片面地關(guān)注了動作的動態(tài)和靜態(tài)信息,本文在Hussein等的基礎(chǔ)上將這兩種描述符加以線性拼接得到同時包含關(guān)節(jié)間位置依賴和相鄰幀間關(guān)節(jié)位置變化的新描述符,并使用極限學習機[10]進行分類。

1 兩種特征提取方法

1.1 協(xié)方差描述符

1.1.1 3D關(guān)節(jié)的協(xié)方差描述符

假設人體由K個關(guān)節(jié)構(gòu)成,動作序列一共有T幀。設[xti],[yti]和[zti]分別為第i個關(guān)節(jié)在第t幀時的[x,y,z]坐標。設S是所有關(guān)節(jié)的位置構(gòu)成的向量,即[S=x1,…,xK,y1,…,yK,z1,…,zK′],一共有[N=3K]個元素,則這個序列的協(xié)方差描述符就是[CovS=][E[(S-E(S))(S-E(S))′]]。由于S的概率分布未知,所以應用中使用樣本協(xié)方差來替代,有如下公式:

[CS=1T-1t=1T(S-S)(S-S)′] (1)

式中[S]是S的樣本均值。

樣本協(xié)方差矩陣[CS]是一個[N×N]的對稱矩陣,作為描述符時只需要采用該矩陣的上三角矩陣即可。例如后述實驗中用到的由微軟Kinect傳感器采集的人體骨架有20個關(guān)節(jié),則[N=3×20=60],協(xié)方差矩陣的上三角矩陣元素個數(shù)則為[NN+12=1 830],也就是描述符的長度。

1.1.2 時序分層結(jié)構(gòu)

3D關(guān)節(jié)的協(xié)方差描述符注意到了運動中不同關(guān)節(jié)間的位置依賴,但是忽略了運動的時序關(guān)系。這可能造成一些問題,例如開門和關(guān)門的動作從關(guān)節(jié)的空間位置來看沒有區(qū)別,但是每幀的坐標出現(xiàn)的先后順序是不同的。為了解決上述問題,引入了時序分層結(jié)構(gòu),該模型啟發(fā)自Lazebnik在2D圖像中的空間金字塔匹配[11]。第一層協(xié)方差矩陣計算了整個運動序列,后面的各層在整個序列的小一些的窗口上計算,并且分有交疊和無交疊兩種情況。每個協(xié)方差矩陣由兩個索引來標記,前一個標示了層數(shù),后一個標示了在這層中的索引,例如第一層標記為[C00]。第一層的協(xié)方差矩陣涵蓋了運動序列的[T2l]幀。從一個窗口到下一個窗口的步長可以是整個窗口的長度,或者是窗口長度的一半;如果是后者,那么各窗口之間就產(chǎn)生了交疊。

1.1.3 快速構(gòu)建描述符

創(chuàng)建一個時序分層并且允許交疊的多層描述符需要計算相同序列的各個子序列的多個協(xié)方差矩陣,過程耗時較長。事實上,可以用動態(tài)規(guī)劃的方法在固定的時間內(nèi)計算出矩陣的每個元素。相似的思想在Tuzel的積分圖像中計算圖像塊的協(xié)方差時使用過[12]。

首先定義兩個積分符號[P(t)]和[Q(t)]如下:

[P(t)=i=1tS(i),Q(t)=i=1tS(i)S(i)′] (2)

經(jīng)過一系列代數(shù)運算,可以得出下式直接計算出第[t1+1~t2]幀范圍內(nèi)的協(xié)方差矩陣:

[Ct1,t2S=1M-1Qt1,t2-1MPt1,t2Pt1,t2′] (3)

式中:[M=t2-t1];[Qt1,t2=Qt2-Qt1];[Pt1,t2=Pt2-Pt1]。計算出P和Q后,用式(3)在固定時間內(nèi)計算任意幀范圍內(nèi)的協(xié)方差,所需時間與幀數(shù)無關(guān)。

1.2 方向位移直方圖

方向位移直方圖(Histogram of Oriented Displacements,HOD)通過分別描述每個關(guān)節(jié)的3D軌跡來描述一個運動序列。首先,將每個關(guān)節(jié)的3D軌跡替換成投影在三個坐標平面(xy,yz和xz)的2D軌跡,用HOD描述每個2D軌跡。然后通過為每個2D軌跡建立時序金字塔來獲得時序信息。

下面詳細介紹HOD、時序金字塔和最終的3D軌跡描述符。

1.2.1 方向位移直方圖

HOD方法使用每兩個相鄰點的方向直方圖來描述2D運動。給定一個運動軌跡[T={P1,P2,…,Pn}],其中[Pt]是關(guān)節(jié)在時間t的2D位置。對于每一對位置[Pt]和[Pt+1],計算出方向角[θ(t,t+1)],可以通過式(4)的斜率(slope)來得到這個角度:

[slope=Pt+1.y-Pt.yPt+1.x-Pt.x] (4)

[θ]的值介于0°~360°之間,然后根據(jù)[θ]建立一個直方圖,如果直方圖分成8個塊,則第一塊的所有[θ]介于0°~45°之間。

直方圖由相鄰關(guān)節(jié)移動的距離累加而成。用式(5)決定每個[θ]所屬的具體直方圖塊,然后將[Pt]和[Pt+1]的距離加入相應的直方圖塊:

[hist_bin=angle×hist_length360] (5)

HOD記錄了每個關(guān)節(jié)在每個方向范圍內(nèi)移動量,但是丟失了時序信息,第1.2.2節(jié)描述的時序金字塔可以解決這個問題。

1.2.2 時序金字塔和3D軌跡描述符

如上所述,將運動序列作為一個整體來處理會丟失時序信息,所以使用分層的時序金字塔來獲取時序信息。在第一層,用整個運動序列來建立一個描述符。第二層,將整個運動序列分成兩部分,其中的每一部分分別建立一個二級描述符,以此類推。也就是說某個特定層的每個直方圖塊會在下一層分成兩個直方圖塊。

最后可以將一個關(guān)節(jié)的3個2D投影的HOD描述符串聯(lián)起來以描述該點的3D軌跡。

1.3 混合特征描述符

從前兩小節(jié)可以看出,協(xié)方差描述符可以反映出人體骨架關(guān)節(jié)之間的位置關(guān)聯(lián)信息,而對同一關(guān)節(jié)在不同時刻的位置變化描述不夠,相反地,HOD描述符利用建立直方圖的方法統(tǒng)計了各關(guān)節(jié)在相鄰幀間的動態(tài)位移關(guān)系,但丟失了每一幀各關(guān)節(jié)間的靜態(tài)聯(lián)系。此外,觀察發(fā)現(xiàn)兩種特征描述方法都建立了分層結(jié)構(gòu)來獲取時序信息,只是各層的特征提取方法不同。

因此,本文將兩種特征按層分別拼接起來,形成新的運動特征描述符,以期達到同時能在靜態(tài)上反映關(guān)節(jié)位置關(guān)聯(lián)信息和動態(tài)上反映各關(guān)節(jié)位置變化信息的目的。考慮到大部分分類器對特征向量內(nèi)元素的排列順序并不敏感,在操作上可以簡化為將兩種特征向量簡單拼接,即:

設向量[(aki)1×m]是第i個樣本在分為k層時的協(xié)方差描述符,向量[(bki)1×n]是該樣本在同樣分為k層時的HOD描述符,那么該樣本的組合特征描述符記為[cki=[aki,bki]1×(m+n)]。

2 極限學習機

在處理非線性的高維小樣本分類問題上,支持向量機(SVM)應用廣泛,Hussein等也是會用該方法做分類。但是SVM本身存在一些缺陷:算法建立在求解二次規(guī)劃的基礎(chǔ)上,速度較慢;對核函數(shù)、懲罰因子和核參數(shù)的選擇較為敏感;在處理多分類的問題時,性能不如神經(jīng)網(wǎng)絡。為此,選擇極限學習機作為分類器。

極限學習機(Extreme Learning Machines,ELM)由黃廣斌在2004年提出,并由Bernard Widrow于2013年再次提出,其主要思想是輸入層與隱藏層之間的權(quán)值參數(shù),以及隱藏層上的偏置向量參數(shù)是一次確定的[13],不需要像其他基于梯度的學習算法一樣通過迭代反復調(diào)整刷新,只需求解一個最小范數(shù)最小二乘問題,并最終化歸成求解一個矩陣的 Moore?Penrose 廣義逆問題。因此,該算法具有訓練參數(shù)少、速度快的優(yōu)點。

ELM基本算法描述如下:

對于單隱層前饋網(wǎng)絡(SLFNs),為描述方便,引入以下符號:

(1) N:訓練樣本總數(shù)。

(2) [N]:隱藏層單元的個數(shù)。

(3) [n,m]:輸入和輸出層的維度。

(4)[xj,tj,j=1,2,…,N:]訓練樣本,其中[xj=(xj1,xj2,…,xjn)T∈Rn],[tj=(tj1,tj2,…,tjn)T∈Rm]。將所有輸出向量按行拼起來,可得到整體輸出矩陣:

[T=tT1tT2?tTNN×m=t11…t1m???tN1…tNm] (6)

(5) [oj, j=1,2,…,N]:與標注[tj]相對應的實際輸出向量。

(6) [W=(wij)N×n]:輸入層與隱藏層之間的權(quán)矩陣,其中W的第i行對應的向量[wi=(wi1,wi2,…,win)T]表示連接隱藏層第i個單元與輸入單元的權(quán)向量。

(7) [b=(b1,b2,…,bN)T]:偏置向量,[bi]表示第i個隱藏層單元的閾值。

(8) [β=(βij)N×m]:隱藏層與輸出層之間的權(quán)矩陣,其中[β]的第i行對應的向量[βi=(βi1,βi2,…,βim)T]表示連接隱藏層第i個單元與輸出層單元的權(quán)向量。矩陣[β]可按行寫成如下分塊形式:

[β=βT1βT2?βTN=β11…β1m???βN1…βNm] (7)

(9)[g(x)]:激勵函數(shù)。

2.1 SLFNs的逼近問題

數(shù)學上,SLFNs的一般模型為:

[i=1Ngwi?xj+biβi=oj, j=1,2,…,N] (8)

式中[wi?xj]表示[wi]和[xj]的內(nèi)積。

要使模型(8)能夠零誤差地逼近上述N個樣本,指的是:

[j=1Noj-tj=0] (9)

也就是,存在[W,β和b],使得:

[i=1Ngwi?xj+biβi=tj, j=1,2,…,N] (10)

利用矩陣表示,式(10)可以寫成:

[Hβ=T] (11)

式中:[T∈RN×m]和[β∈RN×m]的定義分別見式(6)和式(7);[H=HW,b=(bij)N×N],這里[Hij=g(wj?xi+bj)],其第i列對應第i個隱藏層單元的輸出向量。

2.2 基于梯度的學習算法

當隱藏層單元的個數(shù)和樣本的個數(shù)相同,即[N=N],且矩陣H可逆時,式(11)有惟一解,即前面所述“零誤差地逼近樣本”。然而大多數(shù)情況下,隱藏層單元的個數(shù)遠小于樣本個數(shù),此時H為長方陣,且不一定存在[W,b和β],使得:

[HW,bβ-T=minW,b,βHW,bβ-T] (12)

式(12)等價于以下極小化成本函數(shù)(cost function):

[E=j=1Ni=1Ngwi?xj+biβi-tj2] (13)

該極小化問題通常采用基于梯度的學習算法來求解。記[θ=(W,β,b)]表示所有的參數(shù),則相應的迭代格式為:

[θk=θk-1-η?E(θ)?θ] (14)

式中η為學習率。

對于前饋型神經(jīng)網(wǎng)絡,常用的學習算法是反向傳導(Back?Propagation,BP)法,但該方法存在以下問題[10]:

(1) 學習率的取值不易確定;

(2) 可能收斂到局部最??;

(3) 易造成過度訓練;

(4) 基于梯度的學習算法較為耗時。

2.3 SLFNs的最小范數(shù)最小二乘解

SLFNs的通常的學習算法中,輸入權(quán)值W和隱藏層單元的偏置向量b都要通過迭代不斷地進行調(diào)整,事實上大量實驗結(jié)果表明,SLFNs的參數(shù)W和b不需要進行調(diào)整,且可以隨機指定。當W和b固定時,式(12)等價于求線性系統(tǒng)(11)的最小二乘解,即:

[Hβ-T=minβHβ-T] (15)

根據(jù)定理[Gy]是[Ax=y]的最小范數(shù)最小二乘解等價于[G=A?],式(11)的最小范數(shù)最小二乘解為:

[β=H+T] (16)

2.4 ELM算法

至此,ELM的算法流程總結(jié)如下:

算法1:給定訓練樣本集合[?=][xi,tixi∈Rn,ti∈RmNi=1],激勵函數(shù)[g(x)] ,隱藏層單元個數(shù)[N]。

第一步:任意指定輸入權(quán)值[wi,bi, i=1,2,3,…, N]。

第二步:計算隱藏層輸出矩陣H。

第三步:計算輸出權(quán)矩陣[β=H+T。]

3 實 驗

為了評價拼接后的新描述符,并驗證ELM算法在運動數(shù)據(jù)上的分類能力,本文參照文獻[8?9]在數(shù)據(jù)集MSR?Action3D和HDM05上做了對比實驗。實驗中分別使用了線性SVM和ELM分類器,以及基于投票的VELM分類器[14],其中SVM采用了LIBSVM軟件[15]。

3.1 MSR?Action3D數(shù)據(jù)集

MSR?Action3D數(shù)據(jù)集[16]包含10個人的20種不同動作,每個動作重復2~3遍,一共有567個運動序列,參照文獻[8],本文采用了其中的544個。該數(shù)據(jù)集由微軟Kinect傳感器采集,記錄了深度信息和骨架關(guān)節(jié)位置,其中僅需要用到骨架信息,每個骨架包含20個關(guān)節(jié)。在數(shù)據(jù)的使用上,沿用了文獻[16]的方法,將整個數(shù)據(jù)集分成3個子集,每個子集包含8類動作,子集之間有交疊。各子集分別訓練分類器,最后統(tǒng)計3個子集的平均訓練精度。訓練集和測試集的劃分方法為根據(jù)表演者選取編號為1~5的5個人的運動數(shù)據(jù)作訓練,另外5個人的數(shù)據(jù)做測試。

本文使用相同的數(shù)據(jù)集在改變描述符結(jié)構(gòu)參數(shù)的情況下,分別采用不同的特征描述符和不同的分類器的組合,SVM選用線性核函數(shù),ELM隱藏層單元個數(shù)設為10 000,VELM為10個ELM進行投票,每個ELM的隱藏層單元個數(shù)為1 000,各數(shù)據(jù)子集的平均識別率如表1所示。

表1 各種方法在MSR?Action3D數(shù)據(jù)集上的識別率

表1中:L表示特征描述符的層數(shù);帶有OL的表示各層窗口間帶交疊;CV表示協(xié)方差描述符;HOD表示方向位移直方圖描述符。HOD描述符不存在交疊情況,所以表格的后兩格為空。MIX表示組合描述符,組合描述符的交疊是指帶交疊的協(xié)方差描述符和不帶交疊的HOD描述符的組合。從表1可以看出,組合特征描述符結(jié)合ELM分類器在該數(shù)據(jù)集上具有明顯優(yōu)勢,另外ELM算法對協(xié)方差描述符的分類效果對比SVM也有明顯提高。為驗證該結(jié)論的一般性,分別在不同的訓練集和測試集劃分方式下進行了10次上述實驗,平均結(jié)果如表2所示,可見結(jié)論具有一般性。

3.2 HDM05運動捕獲數(shù)據(jù)集

參照文獻[17],本文還在運動捕獲數(shù)據(jù)集HDM05上進行了上述實驗。該數(shù)據(jù)集與MSR?Action3D數(shù)據(jù)集的主要區(qū)別在于:

(1) HDM05采用專業(yè)的運動捕獲設備可以獲取具有較小噪聲的數(shù)據(jù);

(2) 該數(shù)據(jù)集的骨架節(jié)點為31個,這會使得兩種特征描述符均變長;

(3) 每秒采集的幀數(shù)也高很多,達到120 f/s而不是前一數(shù)據(jù)集的30 f/s。

表2 10種劃分方式下MSR?Action3D數(shù)據(jù)集平均識別率

實驗中使用了和文獻[17]一樣的5個人表演的11個動作,這11個動作分別是:deposit floor,elbow to knee,grab high,hop both legs,jog,kick forward,lie down,floor,rotate both arms backward,sneak,squat和throw basketball。但是由于無法找到與原文獻中一樣的運動序列,在保證動作類別相同的情況下在該數(shù)據(jù)集下隨機選擇了277個運動序列,將其中3個演員的動作做訓練,其余2個演員的動作做測試,如同前一數(shù)據(jù)集,窮舉了全部10種訓練、測試集的劃分,并剔除其中一種明顯出錯的情況,最后統(tǒng)計剩余的9種,9次的平均結(jié)果如表3所示。

結(jié)果可以看出ELM算法對各種特征描述符的分類結(jié)果均優(yōu)于SVM。比較表3和表2,發(fā)現(xiàn)雖然用作訓練的樣本個數(shù)相差無幾,但相同的特征描述符和分類器對HDM05數(shù)據(jù)集的識別率要遠高于MSR?Action3D數(shù)據(jù)集。這是HDM05數(shù)據(jù)集低噪聲,高幀率,以及較多的關(guān)節(jié)數(shù)決定的。

4 結(jié) 語

本文將協(xié)方差描述符和HOD描述符線性組合起來形成一個既包含靜態(tài)的每幀各關(guān)節(jié)間的依賴信息,又包含動態(tài)的每個關(guān)節(jié)各幀之間位移關(guān)系的新描述符。分別將這3種描述符在MSR?Action3D數(shù)據(jù)集和HDM05數(shù)據(jù)集上用線性SVM,ELM和VELM做分類,結(jié)果表明:ELM和基于投票的VELM在各種特征上的效果均不遜于SVM,且在MSR?Action3D數(shù)據(jù)集上結(jié)合組合特征對分類精度得到了很大改善,這證明了ELM算法在處理人體運動這樣的流形數(shù)據(jù)上的優(yōu)勢;組合后的特征描述符在低質(zhì)量的數(shù)據(jù)上,能夠起到特征互補的作用,提高識別率。但是在HDM05這樣的高質(zhì)量數(shù)據(jù)集上,組合后的特征并無明顯優(yōu)勢。結(jié)合具體樣本分析后HOD提取的特征具有尺度和速度不變性,而協(xié)方差特征具有縮放和平移不變性,不具備旋轉(zhuǎn)不變性,這樣的兩種特征簡單拼接會互相削弱各自性質(zhì)的表達。

在后期工作中,期望建立新的描述符,對子關(guān)節(jié)相對父關(guān)節(jié)的旋轉(zhuǎn)角度提取特征,以實現(xiàn)旋轉(zhuǎn)、縮放、平移和尺度的不變性,來進一步改善分類效果。

表3 9種劃分方法下HDM05數(shù)據(jù)集平均識別率

參考文獻

[1] 藍榮祎.人體運動捕獲數(shù)據(jù)的建模與重用研究[D].南京:南京理工大學,2013.

[2] M?LLER M, R?DER T, CLAUSEN M, et al. Documentation mocap database HDM 05 [D]. Germeny: Universitat Bonn, 2007.

[3] WU S, LI Y, ZHANG J. A hierarchical motion trajectory signature descriptor; proceedings of the robotics and automation [C]// Proceedings of 2008 IEEE International Conference on ICRA.[S.l.]: IEEE, 2008: 3070?3075.

[4] YANG J, LI Y, WANG K. A new descriptor for 3D trajectory recognition via modified CDTW [C]// proceedings of 2010 IEEE International Conference on the Automation and Logistics (ICAL). [S.l.]: IEEE, 2010: 37?42.

[5] WANG H, KLASER A, SCHMID C, et al. Action recognition by dense trajectories[C]// Proceedings of 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]: IEEE, 2011: 3169?3176.

[6] WANG J, LIU Z, WU Y, et al. Mining actionlet ensemble for action recognition with depth cameras [C]// proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]: IEEE, 2012: 1290?1297.

[7] XIA L, CHEN C?C, AGGARWAL J. View invariant human action recognition using histograms of 3d joints [C]// proceedings of 2012 IEEE Computer Society Conference on the Computer Vision and Pattern Recognition Workshops (CVPRW). [S.l.]: IEEE, 2012: 20?27.

[8] HUSSEIN M E, TORKI M, GOWAYYED M A, et al. Human action recognition using a temporal hierarchy of covariance descriptors on 3d joint locations [C]// proceedings of the Twenty?third International Joint Conference on Artificial Intelligence. USA: AAAI Press, 2013: 2466?2472.

[9] GOWAYYED M A, TORKI M, HUSSEIN M E, et al. Histogram of oriented displacements (HOD): describing trajectories of human joints for action recognition [C]// proceedings of the Twenty?third International Joint Conference on Artificial Intelligence. USA: AAAI Press, 2013: 1351?1357.

[10] HUANG G?B, ZHU Q?Y, SIEW C?K. Extreme learning machine: a new learning scheme of feedforward neural networks [C]// Proceedings of 2004 IEEE International Joint Conference on Neural Networks. [S.l.]: IEEE 2004: 985?990.

[11] LAZEBNIK S, SCHMID C, PONCE J. Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories[C]// proceedings of 2006 IEEE Computer Society Conference on the Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2006: 45?49.

[12] TUZEL O, PORIKLI F, MEER P. Pedestrian detection via classification on riemannian manifolds [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(10): 1713?1727.

[13] WIDROW B, GREENBLATT A, KIM Y, et al. The< i> No?Prop algorithm: A new learning algorithm for multilayer neural networks [J]. Neural Networks, 2013, 37: 182?188.

[14] CAO J, LIN Z, HUANG G?B, et al. Voting based extreme learning machine [J]. Information Sciences, 2012, 185(1): 66?77.

[15] CHANG C?C, LIN C?J. LIBSVM: a library for support vector machines [J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2011, 2(3): 27?33.

[16] LI W, ZHANG Z, LIU Z. Action recognition based on a bag of 3d points [C]// proceedings of 2010 IEEE Computer Society Conference on the Computer Vision and Pattern Recognition Workshops (CVPRW). [S.l.]: IEEE, 2010: 9?14.

[17] OFLI F, CHAUDHRY R, KURILLO G, et al. Sequence of the most informative joints (smij): A new representation for human skeletal action recognition [J]. Journal of Visual Communication and Image Representation, 2014, 25(1): 24?38.

猜你喜歡
極限學習機協(xié)方差
高效秩-μ更新自動協(xié)方差矩陣自適應演化策略
用于檢驗散斑協(xié)方差矩陣估計性能的白化度評價方法
基于稀疏編碼器與集成學習的文本分類
神經(jīng)元的形態(tài)分類方法研究
基于判別信息極限學習機的高光譜遙感圖像分類
多元線性模型中回歸系數(shù)矩陣的可估函數(shù)和協(xié)方差陣的同時Bayes估計及優(yōu)良性
基于極限學習機的玻璃瓶口缺陷檢測方法研究
二維隨機變量邊緣分布函數(shù)的教學探索
不確定系統(tǒng)改進的魯棒協(xié)方差交叉融合穩(wěn)態(tài)Kalman預報器
極限學習機在圖像分割中的應用
潮州市| 呼伦贝尔市| 伊金霍洛旗| 武汉市| 兴山县| 鹤壁市| 济源市| 黎城县| 南部县| 满洲里市| 珠海市| 高雄县| 富阳市| 清镇市| 乌鲁木齐县| 海南省| 澄江县| 炉霍县| 天峻县| 平安县| 平凉市| 高碑店市| 巨鹿县| 米林县| 岳阳县| 永丰县| 来安县| 徐汇区| 武清区| 霍城县| 栖霞市| 建德市| 罗甸县| 乌拉特前旗| 霍林郭勒市| 永胜县| 孝义市| 宁安市| 泰州市| 舞钢市| 哈密市|