国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種用于鑒別體域網(wǎng)動作模式的近鄰快速魯棒協(xié)作表示分類算法

2018-11-24 03:29:06吳建寧王佳境林英杰
中國生物醫(yī)學工程學報 2018年5期
關(guān)鍵詞:訓練樣本類別協(xié)作

吳建寧 凌 雲(yún) 王佳境 林英杰

(福建師范大學數(shù)學與信息學院,福州 350117)

引言

近年來,隨著微機電系統(tǒng)(micro-electro-mechanical system, MEMS)、嵌入式技術(shù)、移動互聯(lián)網(wǎng)等先進信息技術(shù)的快速發(fā)展,可穿戴體域網(wǎng) (wearable body sensor networks, WBSNs)技術(shù)在遠程監(jiān)測人體步態(tài)行為動作模式研究中得到廣泛關(guān)注和應(yīng)用,對于遠程疾病診斷治療、老年慢性疾病康復(fù)評價以及預(yù)防老年人跌倒等具有重要意義[1-5]。 目前大多相關(guān)研究的主要思路是將傳感器佩戴于人體不同運動解剖部位(諸如肩、手臂、手腕、腰部、腿部等)構(gòu)建體域網(wǎng),獲取人體步態(tài)運動狀況的相關(guān)生理或病理信息,并通過互聯(lián)網(wǎng)將相關(guān)信息傳送至遠端醫(yī)療數(shù)據(jù)處理中心,準確評價人體步態(tài)動作模式變化。就技術(shù)實現(xiàn)手段而言,其中一個研究難點問題在于如何有效基于體域網(wǎng)多傳感數(shù)據(jù),準確鑒別步態(tài)行走動作模式變化。為解決上述問題,相關(guān)專家和學者相繼提出構(gòu)建體域網(wǎng)動作模式分類模型,從而探尋準確鑒別人體動作模式變化的技術(shù)手段。較早相關(guān)研究提出基于傳統(tǒng)機器學習分類模型(諸如人工神經(jīng)網(wǎng)絡(luò)[6]、馬爾科夫模型[7-8]、隨機森林[9]和決策樹[10-11]等),構(gòu)建準確鑒別體域網(wǎng)人體動作模式的分類模型。文獻[8]鑒于傳感節(jié)點有限存儲容量和加速度數(shù)據(jù)隨機特性,提出了分層隱藏馬爾科夫(hierarchical hidden Markov models, HHMMs)的體域網(wǎng)動作模式分類模型雖然該模型可將數(shù)據(jù)收集、預(yù)處理及動作模式分類等分層處理,但僅能鑒別5種動作模式,且分類準確率低,僅為80%。文獻[10]提出了一種基于決策樹算法的體域網(wǎng)步態(tài)動作模式分類模型,可鑒別6種動作模式,平均識別率為90%。總體來看,早期相關(guān)研究僅局限于鑒別少量種類動作模式,未考慮所構(gòu)建分類算法復(fù)雜、分類準確率低等問題。

近年來,一些學者嘗試基于先進機器學習分類算法,探尋新的有效鑒別體域網(wǎng)動作模式技術(shù)手段。特別是,一種新興稀疏表示分類算法 (sparse representation classification, SRC)[12-13]在相關(guān)研究中得到高度關(guān)注,其基本思路是:嘗試將所有動作模式樣本訓練集構(gòu)建一個過完備字典,以期稀疏表示測試樣本;通過范式優(yōu)化問題求解稀疏表示系數(shù),定義最小殘差判別原則,以期準確鑒別測試樣本所屬類別。文獻[14]提出一種基于單傳感加速度數(shù)據(jù)的體域網(wǎng)動作模式稀疏表示分類算法,鑒別9種不同體域網(wǎng)動作模式,平均分類準確率可達95%。文獻[15]鑒于多傳感加速度數(shù)據(jù),提出了一種基于隨機投影的稀疏表示分類算法 (sparse representation classification based on random projection, SRC_RP),對9種不同動作模式識別,平均準確率為90%。雖然近年來的相關(guān)研究有效探討了稀疏表示分類算法在鑒別體域網(wǎng)動作模式應(yīng)用中的可行性,但就其分類算法而言,其相關(guān)工作較側(cè)重于通過求解l1范式優(yōu)化問題來獲得最優(yōu)稀疏表示系數(shù),而忽略采用大量高維動作模式樣本數(shù)據(jù)集直接構(gòu)建過完備字典,顯著提高動作模式分類算法復(fù)雜度,影響其分類性能等問題。如何從高維多傳感加速度數(shù)據(jù)中挖掘滿足數(shù)據(jù)結(jié)構(gòu)相似性的樣本訓練集,構(gòu)建包含少量樣本的線性表示基和過完備字典,去除樣本訓練集冗余信息,有效提高動作模式分類性能,已成為近年相關(guān)研究領(lǐng)域探討的熱點問題。

目前,一些學者嘗試探討基于優(yōu)化字典構(gòu)建稀疏表示體域網(wǎng)動作模式分類新模型,其基本思路是:從大量訓練樣本數(shù)據(jù)中優(yōu)化挖掘更多蘊含動作模式間差異性信息的少量樣本,重新構(gòu)建過完備字典,以期降低分類算法復(fù)雜度,有效提高分類性能。文獻[16]提出了一種基于K-SVD優(yōu)化算法的快速稀疏表示動作模式分類模型,嘗試通過K-SVD優(yōu)化算法設(shè)計過完備字典,以期降低分類算法復(fù)雜度,提高分類性能。文獻[17]提出一種基于最近鄰 (nearest neighbor, NN)算法的快速稀疏表示動作模式分類模型,嘗試基于最近鄰算法,尋找一個與測試樣本相似且數(shù)量較少訓練樣本集作為優(yōu)化過完備字典,以期確保較高分類性能及較低分類算法復(fù)雜度。此外,文獻[18]提出一種基于隨機投影算法的快速稀疏表示動作模式分類模型 (fast sparse representation classification base on random projection, FSRC_RP),其基本思路就是首先采用隨機投影算法壓縮原始動作模式數(shù)據(jù),然后基于簡化KNN近鄰算法,優(yōu)化重組包含少量樣本的訓練樣本集稀疏表示測試樣本。該研究對 9種不同動作模式分類測試,可有效降低分類算法復(fù)雜度,平均識別率可達92%。目前相關(guān)工作大多注重在保持稀疏表示系數(shù)的稀疏特性基礎(chǔ)上,降低體域網(wǎng)動作模式分類算法復(fù)雜度,而未充分考慮訓練樣本數(shù)量不足可導致稀疏表示系數(shù)殘差偏大、影響動作模式分類性能的問題。更重要的是,就人體運動生理系統(tǒng)而言,人體各關(guān)節(jié)和肢體在行走時必保持其內(nèi)在的相關(guān)性和協(xié)調(diào)性。然而,目前相關(guān)工作未能從體域網(wǎng)多傳感動作模式數(shù)據(jù)結(jié)構(gòu)中,挖掘更多蘊含動作模式協(xié)調(diào)性和相關(guān)性信息的樣本訓練集,難以準確稀疏線性表示動作模式變化。為此,需要探尋能夠蘊含更多動作模式協(xié)調(diào)性和相關(guān)性信息的體域網(wǎng)動作模式分類模型,以便準確鑒別動作模式變化。

近年來,一種新興的協(xié)作表示分類 (collaborative representation classification, CRC)算法在人臉識別、圖像處理等研究領(lǐng)域得到廣泛關(guān)注[21-23]。該算法可利用少量樣本內(nèi)在相似性,協(xié)作表示測試樣本,通過求解范式優(yōu)化問題來獲得測試樣本協(xié)作表示系數(shù),定義正則化殘差樣本判別規(guī)則,尋找樣本類別的差異性,準確判定測試樣本所屬類別。從理論上講,協(xié)作表示分類算法能夠有效發(fā)揮協(xié)作表示機制優(yōu)越性,從少量樣本數(shù)據(jù)結(jié)構(gòu)中獲取更多與樣本類別信息密切相關(guān)性信息,可避免稀疏表示分類算法高復(fù)雜度的問題,顯著提高分類性能。迄今為止,基于協(xié)作表示的體域網(wǎng)動作模式分類模型相關(guān)研究未見報道。

為此,本研究提出一種近鄰快速魯棒性協(xié)作表示體域網(wǎng)步態(tài)分類(fast robust collaborative representation classification, FRCRC)算法,旨在嘗試有效提高體域網(wǎng)動作模式分類性能。該算法的基本思路是:基于體域網(wǎng)多傳感動作模式數(shù)據(jù)結(jié)構(gòu)的內(nèi)在相似性,利用最近鄰原則,尋找與測試動作樣本密切相關(guān)的少量近鄰類別和近鄰訓練樣本,重新構(gòu)造訓練樣本集;然后基于新訓練樣本集構(gòu)建快速魯棒協(xié)作表示動作分類模型,通過擴展拉格朗日乘數(shù) (augmented Lagrange multiplier, ALM)算法[24-25],求解測試樣本協(xié)作表示系數(shù)和表示殘差,定義判定測試樣本所屬類別規(guī)則。本研究采用公開的美國加州伯克利大學多傳感動作模式數(shù)據(jù)庫 (wearable action recognition database, WARD)驗證所提算法有效性[13]。結(jié)果表明,本研究所提算法能夠從體域網(wǎng)多傳感數(shù)據(jù)中獲得更多與動作模式密切相關(guān)的協(xié)調(diào)性和相關(guān)性,有效降低算法復(fù)雜度,分類性能明顯優(yōu)于稀疏表示動作分類性能。

1 方法

本研究所提分類模型旨在基于最近鄰原則,從大量訓練樣本中尋找少量與測試樣本密切相關(guān)的近鄰類別和近鄰樣本,構(gòu)建近鄰樣本訓練集,協(xié)作表示測試樣本,通過準確求解協(xié)作表示系數(shù)和參差,鑒別動作模式類別,其算法如圖1所示,詳細求解過程如下所述。

1.1 基于最近鄰原則構(gòu)建近鄰訓練樣本集

本研究通過定義歐氏距離選取與測試樣本相似性較密切的近鄰類別和近鄰樣本。假設(shè)原始體域網(wǎng)動作類別訓練樣本集合X=[X1,X2,…,Xk],k表示所有動作模式類別。對于任意測試樣本y,基于最近鄰原則尋找其m個近鄰動作模式樣本類。本研究首先求解所有動作模式類別樣本中心點(sample center, SC),然后計算所有動作類別樣本中心點與測試樣本y的歐氏距離dist(y,Xi),(i=1,2,....,k),選取與測試樣本距離最小的m個動作類別作為測試樣本y的近鄰類別。然后,基于最近鄰原則從所選取的近鄰類別中尋找與測試樣本y密切相關(guān)的近鄰樣本,其基本思路是:遍歷所有近鄰類別classy,計算每一類別所含動作模式訓練樣本與測試樣本y的歐氏距離,選取距離值較小的n個訓練樣本作為測試樣本y的近鄰樣本,然后級聯(lián)所有選取訓練樣本,構(gòu)建協(xié)作表示測試樣本y的近鄰訓練樣本集,其算法步驟如下:

步驟1:求解原始訓練樣本集中每一類別動作模式的樣本中心點,即

(1)

式中,pi表示訓練樣本集中所有第i類動作樣本數(shù)。

步驟2:計算不同動作類別樣本中心點與測試樣本y之間的歐氏距離,即

(2)

式中,i=1,2,…,k,SCi,j和yj分別表示第i類動作模式樣本中心點和測試樣本y中第j個元素值,d表示動作樣本維度。

選取距離較小的m個動作類別,作為測試樣本y的近鄰類別classy=[c1,c2,…,cm]。

步驟3:計算classy中與測試樣本y相關(guān)的近鄰樣本。對于classy中第i(i=1,2,…,m)類動作模式,計算第i類所有動作樣本與測試樣本y的歐氏距離,選取距離值較小的n個動作樣本作訓練樣本Xiy=[xi1,xi2,…,xin]。重復(fù)上述步驟,直到找出classy中所有動作類別的n個近鄰樣本,級聯(lián)構(gòu)成協(xié)作表示測試樣本y的近鄰訓練樣本集Xy=[Xy1,Xy2,…,Xmy]。

1.2 構(gòu)建魯棒協(xié)作表示體域網(wǎng)動作分類模型

基于近鄰訓練樣本集Xy=[Xy1,Xy2,…,Xym],構(gòu)建魯棒協(xié)作表示體域網(wǎng)動作分類(robust collaborative representation classification, RCRC)模型,旨在充分利用近鄰動作模式樣本間內(nèi)在相似性,準確獲得協(xié)作表示測試樣本y的表示系數(shù)和表示殘差,提高分類性能。假設(shè)給定近鄰訓練樣本集Xy=[Xy1,Xy2,…,Xym],測試樣本y能夠被樣本訓練集Xy線性表示為

y=Xθ+e

(3)

式中,θ為協(xié)作表示系數(shù),e為協(xié)作表示誤差。

本研究采用l1范式求解式(3)中的表示系數(shù)θ,即

(4)

式中,λ是一個調(diào)節(jié)參數(shù)。

由于式(4)是一個限定性凸優(yōu)化問題,本研究采用ALM算法求解θ。為此,式(4)可擴展為拉格朗日方程,即

(5)

式中,μ>0是一個常數(shù),Z表示拉格朗日乘數(shù)向量。

定義迭代規(guī)則估算拉格朗日乘數(shù)及其最優(yōu)解,有

當{μm}滿足單調(diào)遞增正序列[24]條件時,表示系數(shù)θ和表示誤差e的迭代算法定義為

(8)

其求解過程可表示為

(9)

式中,S為收縮算子,定義為

[Sθ(Xy)]i=sign(Xiy)·max{|Xiy|-θ,0}

(10)

當測試樣本y的協(xié)作表示系數(shù)θ和表示殘差e估算求解后,本研究定義測試樣本y與不同動作類別的正則化殘差,有

erri(y)=‖y-Xiyθi-e‖2/‖θi‖2

(11)

式中,i=1,2,…,m,erri(y)表示測試樣本y與第i類動作模式類別的正則化殘差。

基于逼近殘差原則,本研究選取erri(y)中最小值即可判別測試樣本y的所屬動作模式類別。上述分類算法步驟描述如下所示。

1)初始化:將λ、μm、Xy逐列歸一化。

2)迭代更新計算如下:

收斂估算得到協(xié)作表示系數(shù)θ和表示殘差e。

4)判別測試樣本動作模式類別

identity(y)=argmin‖erri(y)‖。

1.3 算法驗證

1.3.1多傳感體域網(wǎng)動作模式數(shù)據(jù)

本研究采用公開的美國加州伯克利大學可穿戴動作模式數(shù)據(jù)庫(WARD),驗證所提算法有效性。所選數(shù)據(jù)庫采集了20名受試者(其中,男性13名,女性7名,年齡范圍19~70歲,所有受試者身體健康,行走功能正常)多傳感動作模式數(shù)據(jù),每個傳感節(jié)點集成一個3軸加速度計和2軸陀螺儀)。在采集過程中,每名受試者要求佩戴5個傳感節(jié)點(分別置于受試者腰部、左手腕、右手腕、左腳踝和右腳踝),在自然狀態(tài)下,采集頻率設(shè)置為20 Hz,采集每個受試者13種不同動作模式(站、坐、躺、向前走、逆時針走、順時針走、向左轉(zhuǎn)、向右轉(zhuǎn)、上樓、下樓、慢跑、跳和推輪椅)數(shù)據(jù)。研究中,任意選取9種不同多傳感動作模式數(shù)據(jù)(如站、坐、向前走、向左轉(zhuǎn)、向右轉(zhuǎn)、上樓、下樓、慢跑和跳)。

實驗中,采用滑動窗口方法截取記錄數(shù)據(jù)段作為樣本數(shù)據(jù),確保樣本數(shù)據(jù)蘊含更多動作模式信息。窗口長度設(shè)置為200點,樣本數(shù)據(jù)長度為1 000點(也就是樣本數(shù)據(jù)維度d=1 000)。所選動作樣本數(shù)據(jù)采用五階平滑濾波進行消噪處理。每個受試者每種動作模式分別選取5個樣本數(shù)據(jù)。

1.3.2算法評價

鑒于小樣本數(shù)據(jù),本研究采用10折交叉驗證方法,客觀評價所提分類模型性能。實驗中,把所有20名受試者數(shù)據(jù)任意劃分10個數(shù)據(jù)子集,每個子集均包含2個受試者數(shù)據(jù)。任意選取9個子集(包含18個受試者數(shù)據(jù))作為樣本訓練集,剩余的一個子集作為測試樣本數(shù)據(jù)。上述過程重復(fù)100次,每名受試者均被要求作為測試樣本數(shù)據(jù),重復(fù)平均結(jié)果作為最終分類結(jié)果。

由于動作樣本數(shù)據(jù)維度d=1 000,樣本數(shù)據(jù)可能存在大量冗余信息,必影響后續(xù)動作分類性能。實驗中,采用隨機投影方法壓縮數(shù)據(jù),以便有效降低樣本數(shù)據(jù)冗余性。數(shù)據(jù)壓縮率(compressive rate,CR)定義為CR=d′/d,其中d表示動作樣本初始維度,d′表示動作樣本數(shù)據(jù)壓縮維度。實驗中采用稀疏二進制矩陣作為隨機投影矩陣。首先,實驗選取壓縮率CR=0.5,來評價基于最近鄰原則選取m個近鄰類和n個近鄰樣本對本研究所提算法分類性能的影響。

此外,為了比較,在實驗中選取基于稀疏表示分類算法(諸如SRC_RP和FSRC_RP算法),以便進一步驗證所提算法(FRCRC算法)對于體域網(wǎng)動作模式分類的分類性能。最后,通過實驗仿真,比較FSRC_RP算法與FRCRC算法基于所選9種日常動作模式數(shù)據(jù)的混淆矩陣,進一步驗證所提算法的優(yōu)越性。

2 結(jié)果

表1給出了數(shù)據(jù)壓縮率為0.5時,本研究所提算法(FRCRC算法)性能隨測試樣本近鄰類別數(shù)量(m)與近鄰樣本數(shù)量(n)的變化狀況??梢杂^察到,基于最近鄰原則選取的近鄰類和近鄰樣本明顯影響協(xié)作表示動作模式的分類性能。就比較而言,當近鄰類選取為2或8時,分類性能較差;而近鄰類選取為4時,可得到較好的分類性能。同樣,從表1也可以發(fā)現(xiàn),就挑選的近鄰類而言,近鄰樣本數(shù)的選取也影響著分類性能,比較而言,當近鄰類和近鄰樣本分別選取4和10,可得到最大識別率(94.94%)。這些結(jié)果表明,基于本研究最近鄰原則適當選取與測試樣本密切相關(guān)的近鄰類和近鄰樣本,可有效獲取與測試樣本密切相關(guān)的動作模式相似性信息,顯著提高其分類性能。

表1基于選取m個近鄰類和n個近鄰樣本的動作模式識別率(%)

Tab.1Theaccuracy(%)basedondifferentnumberofneighborclassesandsamples

nm2468589.3992.0092.1792.561090.1194.9494.5693.061590.7894.5693.0692.892090.3994.3992.6790.502590.5093.7892.8990.223090.3993.8391.6190.11

圖2給出了SRC_RP, FSRC_RP以及FRCRC算法基于不同壓縮率所取得動作識別率的比較結(jié)果,實驗中,選取近鄰類數(shù)為4,近鄰樣本數(shù)為10。可以看到,基于不同壓縮率,本研究所提算法(FRCRC算法)分類性能明顯優(yōu)于基于稀疏表示分類算法性能。特別是,當壓縮率大于0.5,本研究所提算法能夠達到幾乎相同的最大識別率。這些結(jié)果表明,選取適當壓縮率,可有效降低近鄰類和近鄰樣本數(shù)據(jù)中的冗余信息,提高動作模式分類性能。

圖2 基于不同壓縮率的3種動作模式分類性能比較Fig.2 The comparison results of 3 action recognition algorithms based on different compressive rate

圖3給出了上述3種分類算法運行識別時間??梢园l(fā)現(xiàn),基于不同壓縮率,本研究所提分類算法運行時間幾乎相同,最低僅為6.5 s,明顯低于基于稀疏表示分類算法的運行時間。結(jié)果表明,本研究基于最近鄰原則所獲取近鄰類和近鄰樣本能夠包含更多與動作模式密切相關(guān)的相似性信息,顯著減少樣本訓練集樣本數(shù),有效降低算法處理的數(shù)據(jù)量和算法運行時間。

圖3 基于不同壓縮率的3種動作模式分類算法識別運行時間的比較結(jié)果Fig.3 The comparison results of 3 action recognition algorithms’ running time based on different compressive rate

動作模式站坐向前走向左轉(zhuǎn)向右轉(zhuǎn)上樓下樓慢跑跳召回率/%站897307723000089.7坐010000000000100向前走113088700000088.7向左轉(zhuǎn)0079876000098.7向右轉(zhuǎn)1000999000099.9上樓016102935460093.5下樓11430009820098.2慢跑0027001768888088.8跳5100060098898.8識別率/%87.397.695.992.797.097.689.6100100

表3 FSRC_ RP算法基于9種動作模式的混淆矩陣Tab.3 The confusion matrix of FSRC_RP algorithm based on 9 kinds of activity patterns

另外,采用本研究所提算法對所選9種不同體域網(wǎng)動作模式進行分類,進一步驗證本研究所提算法鑒別體域網(wǎng)步態(tài)模式變化的有效性。實驗中,近鄰類數(shù)選取為4,近鄰樣本數(shù)選取為15,數(shù)據(jù)壓縮率為0.5,最優(yōu)分類結(jié)果如表2混淆矩陣所示。在混淆矩陣中,第i行和第j列表示正確識別動作模式的總數(shù)和錯誤識別動作模式的總數(shù)。如表2所示,本研究所提算法對9種動作模式分類的平均識別率可達95.3%。特別是,坐、向左轉(zhuǎn)、向右轉(zhuǎn)、下樓和跳等5種動作模式識別率和召回率均達到98%。為了比較,基于稀疏表示分類的FSRC_RP算法也用于實驗中,其比較結(jié)果如表3所示。FSRC_RP算法對9種動作模式分類的最優(yōu)平均識別率僅為91%,僅對坐和向右轉(zhuǎn)2種動作模式識別率和召回率可達到95%,而站、向前走、下樓、慢跑和跳5種動作模式的識別率和召回率均未超過90%。這些結(jié)果表明,本研究所提體域網(wǎng)動作分類算法能夠更加有效發(fā)揮協(xié)作表示機制的優(yōu)越性,有效解決稀疏表示分類算法難以獲取反映不同動作模式協(xié)調(diào)性和相關(guān)性的樣本訓練集等問題,可準確監(jiān)測體域網(wǎng)動作模式變化。

3 討論

實驗結(jié)果表明,本研究所提算法能夠基于最近鄰原則,尋找較少的訓練樣本線性重構(gòu)測試樣本,并構(gòu)建快速魯棒協(xié)作表示動作分類模型,有效提升體域網(wǎng)動作模式識別率,降低算法復(fù)雜度。

與傳統(tǒng)稀疏表示算法相比,本研究所提算法能夠發(fā)掘不同動作樣本之間的相似性,基于少量動作訓練樣本即可準確表示測試樣本。其中關(guān)鍵之處在于如何從大量動作訓練樣本中尋找與測試樣本密切相關(guān)的少量近鄰類別和近鄰樣本。本研究基于最近鄰原則,采用歐式距離衡量不同動作類別和訓練動作樣本與測試動作樣本的相關(guān)性,為測試樣本構(gòu)建由少量訓練樣本級聯(lián)所得訓練集,更加準確地線性表示該測試樣本,并判斷其所屬類別。本研究所提算法基于不同數(shù)量的近鄰類和近鄰樣本所取得的動作識別率如表1所示。可以看出,基于本研究最近鄰原則適當選取與測試樣本密切相關(guān)的近鄰類和近鄰樣本,可有效獲取與測試樣本密切相關(guān)的動作模式相似性信息,顯著提高其分類性能。然而,選取過多或過少的近鄰類和近鄰樣本,均難以獲得足夠的與測試樣本密切相關(guān)的動作模式相似性信息,必將影響分類性能。

此外,與文獻[17-18]所提算法(SRC_RP和FSRC_RP算法)不同,基于所構(gòu)建的訓練樣本集,SRC_RP和FSRC_RP算法采用稀疏表示技術(shù)求解測試樣本的表示系數(shù),本研究所提算法采用協(xié)作表示分類技術(shù)求解測試樣本的表示系數(shù),優(yōu)勢在于協(xié)作表示動作分類模型能夠充分利用近鄰類和近鄰樣本所蘊含動作模式的相似性信息,準確獲得與動作模式差異密切相關(guān)的表示系數(shù)和表示殘差,有效提高動作模式分類性能。相應(yīng)實驗結(jié)果如圖2和表2、3所示,本研究所提算法的動作識別率最高可達96%以上,明顯高于另外兩種算法。另外,稀疏表示分類算法為了得到更好的稀疏性,一般采用l1范式求解稀疏表示系數(shù),而魯棒協(xié)作表示模型中采用l2范式,使得求解過程更加簡單,算法復(fù)雜度降低。上述3種算法識別相同數(shù)量動作樣本所消耗時間對比結(jié)果如圖3所示,可以看出,基于不同壓縮率,本研究所提算法運行時間幾乎相同,最低僅為6.5 s,明顯低于另外兩種稀疏表示分類算法。

4 結(jié)論

本研究提出一種近鄰快速魯棒性協(xié)作表示體域網(wǎng)動作模式分類模型,該模型能夠基于最近鄰原則尋找與測試動作樣本密切相關(guān)的少量近鄰類別和近鄰訓練樣本,構(gòu)造新的近鄰訓練樣本集,協(xié)作表示體域網(wǎng)動作模式,充分利用體域網(wǎng)多傳感動作模式數(shù)據(jù)結(jié)構(gòu)內(nèi)在相似性,從體域網(wǎng)多傳感數(shù)據(jù)中獲得更多與動作模式變化密切相關(guān)的協(xié)調(diào)性和相關(guān)性信息,有效降低算法復(fù)雜度,解決稀疏表示體域網(wǎng)動作模式分類算法較高復(fù)雜度等問題,顯著提高分類性能,為臨床遠程監(jiān)測體域網(wǎng)動作模式變化提供一個新的輔助技術(shù)手段。

(致謝:非常感謝美國加州伯克利大學可穿戴動作模式識別數(shù)據(jù)庫 (Wearable Action Recognition Database, WARD)

猜你喜歡
訓練樣本類別協(xié)作
人工智能
團結(jié)協(xié)作成功易
協(xié)作
讀者(2017年14期)2017-06-27 12:27:06
寬帶光譜成像系統(tǒng)最優(yōu)訓練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識別算法
基于稀疏重構(gòu)的機載雷達訓練樣本挑選方法
協(xié)作
讀寫算(下)(2016年9期)2016-02-27 08:46:31
服務(wù)類別
新校長(2016年8期)2016-01-10 06:43:59
可與您并肩協(xié)作的UR3
論類別股東會
商事法論集(2014年1期)2014-06-27 01:20:42
潍坊市| 枣庄市| 灵宝市| 牟定县| 贺州市| 宣恩县| 泽州县| 石渠县| 肥东县| 阿克苏市| 博爱县| 大宁县| 闽侯县| 西乡县| 秀山| 阿城市| 泰顺县| 安福县| 晋宁县| 康定县| 保康县| 平舆县| 罗源县| 邹城市| 怀集县| 海盐县| 故城县| 昭觉县| 乳山市| 客服| 宽城| 华安县| 辽宁省| 汝城县| 深州市| 辉县市| 同仁县| 青阳县| 岳阳县| 廉江市| 钦州市|