摘 要:人體行為識(shí)別(Human Activity Recognition,HAR)是當(dāng)前眾多研究工作的基石,對(duì)于推動(dòng)人機(jī)交互和智能數(shù)字化轉(zhuǎn)型具有巨大潛力。由于目標(biāo)域樣本較難采集,現(xiàn)有方法在跨域識(shí)別方面表現(xiàn)不佳。為解決這一問題,提出一種新的WiFi 使能跨域HAR 方法,從WiFi 信號(hào)中獲取信道狀態(tài)信息(Channel State Information,CSI)并轉(zhuǎn)化為圖像,在基于Wasserstein 距離和梯度的生成對(duì)抗網(wǎng)絡(luò)(Wasserstein Generative Adversarial Network with Gradient Penalty,WGAN-GP)中引入雙判別器,通過與源域樣本和單目標(biāo)域樣本特征聯(lián)合對(duì)抗,生成同時(shí)帶有雙域特征的虛擬樣本。該方法還結(jié)合基于Mean Teacher 的半監(jiān)督學(xué)習(xí)設(shè)計(jì)識(shí)別分類(Recognition and Classification,RC)模塊,通過對(duì)有標(biāo)記樣本與無標(biāo)記樣本分別構(gòu)造損失函數(shù),進(jìn)行整體一致性損失的評(píng)估,實(shí)現(xiàn)對(duì)目標(biāo)域樣本的識(shí)別。實(shí)驗(yàn)結(jié)果證明了所提方法能夠在減輕目標(biāo)域樣本采集壓力的同時(shí),實(shí)現(xiàn)較高的檢測(cè)精度,在手勢(shì)與動(dòng)作的數(shù)據(jù)集上測(cè)試準(zhǔn)確率分別達(dá)到92. 71% 和86. 65% 。
關(guān)鍵詞:人體行為識(shí)別;生成對(duì)抗網(wǎng)絡(luò);Mean Teacher 模型;跨域識(shí)別
中圖分類號(hào):TN92 文獻(xiàn)標(biāo)志碼:A 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
文章編號(hào):1003-3114(2024)06-1192-08
0 引言
隨著移動(dòng)通信與物聯(lián)網(wǎng)的飛速發(fā)展,各種業(yè)務(wù)類型層出不窮。其中,全息遠(yuǎn)程呈現(xiàn)、無人駕駛、多感官互聯(lián)等新型業(yè)務(wù)對(duì)感知的需求愈發(fā)迫切,特別是人類活動(dòng)。區(qū)別于剛性物體例如汽車和建筑物,人類活動(dòng)對(duì)信號(hào)的傳播存在著更加復(fù)雜的影響[1]。相比于傳統(tǒng)感知方式,例如使用穿戴式傳感設(shè)備、對(duì)攝像內(nèi)容進(jìn)行分析檢測(cè)等,通感協(xié)同的方式能夠節(jié)約成本,減少隱私的泄露。這一技術(shù)在當(dāng)下蓬勃發(fā)展的人機(jī)交互領(lǐng)域有著廣泛的應(yīng)用前景,也可以在醫(yī)療告警及其他方面提供有力的技術(shù)支持,因此成為了當(dāng)前至關(guān)重要的一項(xiàng)研究。
目前,WiFi 信號(hào)是最常見的室內(nèi)無線信號(hào)[2],可用于感知周圍環(huán)境。人體對(duì)無線信號(hào)有較好的反射特性,因此能夠穿墻的WiFi 信號(hào)在人體行為識(shí)別(Human Activity Recognition,HAR)這一領(lǐng)域有諸多優(yōu)勢(shì),包括方便性、簡(jiǎn)易性、隱私保護(hù)性以及設(shè)備的低成本。
通常來說,WiFi 信號(hào)主要用于通信,可以采用接收信號(hào)強(qiáng)度指示器(Received Signal Strength Indi-cator,RSSI)[3]或信道狀態(tài)信息(Channel State Infor-mation,CSI)[4]進(jìn)行信道狀態(tài)分析。不過RSSI 信號(hào)為粗粒度,且穩(wěn)定性不高,受具體設(shè)備型號(hào)及其他影響較大。CSI 信號(hào)優(yōu)勢(shì)在于能夠提供關(guān)于信道狀態(tài)相對(duì)精確的信息,當(dāng)人類在檢測(cè)范圍內(nèi)活動(dòng),人體對(duì)WiFi信號(hào)進(jìn)行的反射通常會(huì)在WiFi 接收器上產(chǎn)生獨(dú)特的CSI 變化。例如,在多載波系統(tǒng)中,對(duì)于其中的每個(gè)子信道,發(fā)射器與接收器天線上都能夠測(cè)量傳播的無線信號(hào),并提供不同子信道的幅度與相位失真,從而分析其在時(shí)域的變化對(duì)不同的人和活動(dòng)所呈現(xiàn)出的不同模式,這已經(jīng)足夠滿足當(dāng)前的HAR 需求[5]。
目前,已有許多工作集中討論了使用WiFi 信號(hào)的CSI 數(shù)據(jù)進(jìn)行HAR[6-11]。在這些工作中,大致可以分為相同環(huán)境和跨環(huán)境兩方面來進(jìn)行研究。早期的研究大多集中在相同環(huán)境下的檢測(cè)問題,例如,文獻(xiàn)[8]展示了基于WiFi CSI 數(shù)據(jù)的室內(nèi)定位和日常生活中的活動(dòng)檢測(cè)。文獻(xiàn)[9]通過去除噪聲和冗余,對(duì)原始CSI 測(cè)量進(jìn)行處理,然后使用卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶網(wǎng)絡(luò)模型結(jié)合執(zhí)行HAR。文獻(xiàn)[10]將CSI 信號(hào)轉(zhuǎn)化為無線電圖像,并通過深度稀疏自動(dòng)編碼器學(xué)習(xí)HAR 的區(qū)分特征。文獻(xiàn)[11]發(fā)現(xiàn)兩個(gè)天線上CSI 相位差相比于幅值更加敏感,能夠更可靠地區(qū)分活動(dòng),與時(shí)頻域的急劇功率分布下降模式結(jié)合,并使用支持向量機(jī)進(jìn)行檢測(cè)分類。
而近期的研究和應(yīng)用表明,WiFi 信號(hào)實(shí)際上受環(huán)境影響較大,傳統(tǒng)的檢測(cè)模型在新環(huán)境下容易變得不再適用,識(shí)別效果較差[12-13]。因此,近年來這一領(lǐng)域的研究重點(diǎn)主要轉(zhuǎn)向能夠適應(yīng)環(huán)境變化的檢測(cè)方法,比如提取環(huán)境無關(guān)特征和域適應(yīng)方法。文獻(xiàn)[14]采用差異化的速度特征來區(qū)分跌倒與日常生活動(dòng)作,從而規(guī)避了不同環(huán)境對(duì)識(shí)別的干擾。文獻(xiàn)[15]采用遷移學(xué)習(xí)網(wǎng)絡(luò),通過提取源域和目標(biāo)域中共享的特征來實(shí)現(xiàn)環(huán)境穩(wěn)健的HAR。文獻(xiàn)[16-17]分別使用少樣本學(xué)習(xí)網(wǎng)絡(luò)和元學(xué)習(xí)。
盡管這些方法在一定程度上實(shí)現(xiàn)了與環(huán)境無關(guān)的行為識(shí)別,但也存在一些局限性。尤其是源域樣本的質(zhì)量會(huì)很大程度地影響訓(xùn)練后模型識(shí)別的精度,當(dāng)源域樣本多樣性不足時(shí),模型性能急劇下降。因此,生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)被引入,通過生成大量類目標(biāo)樣本來增強(qiáng)模型的泛化能力[18]。但GAN 通常不夠穩(wěn)定,容易生成不同質(zhì)量水平的樣本,這對(duì)模型的訓(xùn)練會(huì)造成不良的影響。
針對(duì)以上的問題,在現(xiàn)有研究工作基礎(chǔ)上,提出了一種基于改進(jìn)的基于Wasserstein 距離和梯度的生成對(duì)抗網(wǎng)絡(luò)(Wasserstein Generative AdversarialNetwork with Gradient Penalty,WGAN-GP )[19] 和Mean Teacher[20]的行為檢測(cè)模型,主要貢獻(xiàn)如下:
① 提出了帶有雙判別器的虛擬樣本生成(Virtual Sample Generation,VSG)模塊,在傳統(tǒng)的GAN 中增設(shè)一個(gè)判別器用于目標(biāo)域樣本評(píng)分,能夠在與源域樣本對(duì)抗生成的同時(shí),引導(dǎo)生成器生成與目標(biāo)域樣本含有相似特征的虛擬樣本。
② 提出了針對(duì)有標(biāo)簽樣本與無標(biāo)簽樣本分別構(gòu)建的樣本集和損失函數(shù),基于兩個(gè)樣本集聯(lián)合訓(xùn)練,實(shí)現(xiàn)整體訓(xùn)練的一致性損失評(píng)估,完成對(duì)目標(biāo)域樣本的識(shí)別。
數(shù)值結(jié)果驗(yàn)證了所提方法可以在降低采集目標(biāo)域樣本難度的前提下,實(shí)現(xiàn)較高的檢測(cè)精度,在手勢(shì)與動(dòng)作的數(shù)據(jù)集上測(cè)試準(zhǔn)確率分別能夠達(dá)到92. 71% 和86. 65% 。
1 系統(tǒng)模型
WiFi 信號(hào)除了用于通信,也可以解決HAR 問題,這是因?yàn)樵冢祝椋疲?信號(hào)覆蓋范圍內(nèi)人體移動(dòng)會(huì)影響多徑傳播。本文考慮典型的室內(nèi)環(huán)境,家用WiFi路由器位置是靜態(tài)的,發(fā)送端與接收端間存在視距傳播與非視距傳播,可借助CSI 隨著人體活動(dòng)的變化來推斷人的當(dāng)前活動(dòng)狀態(tài),具體如圖1 所示。
傳統(tǒng)的半監(jiān)督方法在每一個(gè)輪次都需要更新參數(shù),當(dāng)使用數(shù)據(jù)量較大的數(shù)據(jù)集時(shí),參數(shù)更新緩慢。為解決這一問題,本文使用Mean Teacher 模型來改善這一情況。Mean Teacher 模型能夠?qū)δP偷臋?quán)重進(jìn)行滑動(dòng)平均,可以用來估計(jì)變量的局部均值,使得變量更新與一定時(shí)間內(nèi)的歷史值相關(guān)。但MeanTeacher 在跨域進(jìn)行目標(biāo)識(shí)別時(shí),由于目標(biāo)域數(shù)據(jù)樣本采集通常比較困難、可用樣本數(shù)量少,導(dǎo)致訓(xùn)練出的模型容易產(chǎn)生偏差。換言之,基于Mean Teacher方法訓(xùn)練出來的模型泛化性差。
針對(duì)上述問題,提出了基于WGANGP 和MeanTeacher 的WiFi-GAN-based Mean Teacher (WGMT)模型,主要分為3 個(gè)部分:數(shù)據(jù)預(yù)處理(Data Prepro-cessing,DP )、VSG 和識(shí)別分類(Recognition andClassification,RC)模塊,其框架如圖2 所示。
其中,基于改進(jìn)WGANGP 的VSG 模塊,針對(duì)每個(gè)行為動(dòng)作,結(jié)合大量帶標(biāo)簽的源域樣本和單目標(biāo)域樣本生成虛擬樣本,通過與兩個(gè)判別器聯(lián)合對(duì)抗,生成同時(shí)帶有源域動(dòng)作信息和目標(biāo)域環(huán)境信息的類目標(biāo)樣本,提高模型對(duì)目標(biāo)域的適應(yīng)性。此外,為提高模型的魯棒性,本文嘗試對(duì)源域樣本進(jìn)行隨機(jī)加噪,然后再輸入模型,增強(qiáng)了網(wǎng)絡(luò)的抗噪能力。該模型能夠運(yùn)用單目標(biāo)域標(biāo)記樣本進(jìn)行更好的目標(biāo)域行為識(shí)別。
2 本文方法
如上所述,本文所提方法包括3 個(gè)模塊,即DP、VSG 和RC。DP 模塊用于獲取圖像,將生成圖像輸入VSG 模塊生成類目標(biāo)樣本。使用真實(shí)樣本與虛擬樣本進(jìn)行Mean Teacher 的模型訓(xùn)練,接下來將依次介紹這3 個(gè)模塊。
2. 1 DP 模塊
信道沖激響應(yīng)(Channel Impulse Response,CIR)是信號(hào)在時(shí)域上的響應(yīng),矩陣的行代表信道的響應(yīng)在不同時(shí)間點(diǎn)上的取值,列代表不同的傳播路徑對(duì)信號(hào)的影響。通過對(duì)CIR 矩陣進(jìn)行頻域轉(zhuǎn)換,并分析其頻域響應(yīng)的幅度部分,即可提取出對(duì)應(yīng)的CSI信息。
CSI 幅度可以根據(jù)人體反射特定多徑信號(hào)的程度來描述人體活動(dòng),而相位則反映了路徑長(zhǎng)度變化導(dǎo)致的延遲。從圖1 中可以看出,當(dāng)人體進(jìn)入傳播路徑時(shí),信號(hào)從原本的地面反射變?yōu)槿梭w反射,傳播路徑變短,接收端所收到的CSI 信號(hào)發(fā)生變化。
在無線信道上,接收信號(hào)Y 與發(fā)射信號(hào)X 的關(guān)系可以表示為:
Y=HX+N, (1)
式中:H 為信道增益矩陣,N 為噪聲矩陣。矩陣H中每個(gè)元素代表CSI 值。通常情況下,對(duì)于位置固定、發(fā)射角度為θ 的WiFi 發(fā)射器而言,其信道矩陣可建模為:
式中:i∈{1,2,…,K}、n∈{1,2,…,N}、p∈{1,2,…,P}分別為子載波、分組和多徑數(shù)索引,fc 為主載波頻率,Δf 為符號(hào)頻率,τp(n)為第p 個(gè)子載波上第n 個(gè)分組的時(shí)延。
使用巴特沃茲濾波器對(duì)CSI 數(shù)據(jù)濾波,通過短時(shí)傅里葉變換可以得到圖像數(shù)據(jù)[21]。
2. 2 VSG 模塊
傳統(tǒng)方法中,通常通過大量采集數(shù)據(jù)并標(biāo)注的方式來得到目標(biāo)域有標(biāo)記樣本,這些樣本的數(shù)量會(huì)直接影響模型的訓(xùn)練效果。然而,數(shù)據(jù)需要通過對(duì)照已知類型的方式確定標(biāo)簽并進(jìn)行人工標(biāo)注,人力與時(shí)間的消耗和樣本的數(shù)量成正比。這也意味著,當(dāng)環(huán)境發(fā)生變化時(shí),需要重新采集新環(huán)境下的樣本,這會(huì)帶來非常巨大的資源消耗。在資源有限的前提下,目標(biāo)域內(nèi)通常只能獲得數(shù)量非常有限的有標(biāo)記樣本。而通過生成虛擬樣本,能夠有效緩解真實(shí)樣本缺失造成的問題。
因此,本文引入WGANGP 模型并加以改進(jìn)僅需在目標(biāo)域批量采集樣本,并確保每個(gè)類型能篩選一個(gè)樣本,其余樣本均無需標(biāo)記,即可用來生成類目標(biāo)樣本。
理想情況下,GAN 應(yīng)當(dāng)在訓(xùn)練后達(dá)到對(duì)抗的納什均衡。但在實(shí)際訓(xùn)練中,傳統(tǒng)GAN 中判別器的訓(xùn)練效果通常遠(yuǎn)遠(yuǎn)好于生成器,導(dǎo)致虛擬樣本與真實(shí)樣本易被區(qū)分。WGAN 引入Wassertein 距離解決了這一問題,通過從虛擬樣本與真實(shí)樣本所有可能的聯(lián)合分布中采樣計(jì)算二者的期望距離,并對(duì)該期望值向取下界的方向優(yōu)化,使虛擬樣本盡可能地接近真實(shí)樣本。但在優(yōu)化過程中,為避免梯度波動(dòng)引入的截?cái)喾绞接謳砹诵碌膯栴}。具體而言,在各類GAN 中判別器希望區(qū)分出虛擬樣本與真實(shí)樣本,真實(shí)樣本會(huì)得到更高的分?jǐn)?shù),而虛擬樣本則只能得到低分。這意味著判別器希望損失函數(shù)盡可能大,則其計(jì)算梯度會(huì)沿著損失函數(shù)變大的方向優(yōu)化,這會(huì)導(dǎo)致參數(shù)都會(huì)被截?cái)嘞拗?,最終停留在閾值邊界,使得判別器傳輸給生成器的梯度變差甚至消失。針對(duì)該問題,WGANGP 模型通過引入梯度懲罰項(xiàng)來緩解梯度消失問題。具體而言,使用梯度懲罰代替截?cái)啵ㄟ^在損失函數(shù)中添加一個(gè)額外的正則化項(xiàng),懲罰判別器在輸入樣本處的梯度模長(zhǎng)使其偏離1,在強(qiáng)制判別器保持Lipschitz 連續(xù)性的同時(shí),避免了截?cái)嗫赡軐?dǎo)致的不穩(wěn)定性問題。
為更好地實(shí)現(xiàn)跨域工作,同時(shí)考慮到目標(biāo)域標(biāo)記樣本采集的困難性,提出了基于WGANGP 的VSG 模塊。VSG 模塊有兩個(gè)判別器D1 和D2,目的是指導(dǎo)生成器G 盡可能地生成與真實(shí)樣本相似的虛擬樣本。VSG 通過給真實(shí)樣本高評(píng)分,給虛擬樣本低評(píng)分來實(shí)現(xiàn)。
為了免生成結(jié)果與真實(shí)樣本過度相似而失去生成虛擬樣本的意義,不同于GAN,預(yù)先對(duì)真實(shí)樣本添加高斯噪聲z。定義源域樣本為xs,目標(biāo)域樣本為xt,生成的虛擬樣本為xv。引入常數(shù)α∈(0,1)權(quán)衡樣本數(shù)據(jù)與噪聲的比例,則輸入D1 的樣本為xsr =αxs +(1-α)z。判別器D1 的目標(biāo)可以定義為:
式中:xm =εxsr +(1-ε)xv,ε ~ U(0,1)為一隨機(jī)常數(shù)變量,PV、PSR、PM 分別為樣本xv、xsr、xm 服從的分布。
判別器D2 的輸入來自目標(biāo)域樣本xt,D2 的設(shè)計(jì)目的是引導(dǎo)生成器G 生成與目標(biāo)域樣本特征相似的樣本。D2 的損失函數(shù)可相應(yīng)求得:
式中:PT 為樣本xt 服從的分布,與D1 類似,D2 的目標(biāo)也是最小化其損失函數(shù)min D2 LD2。
生成器G 通過與判別器對(duì)抗來學(xué)習(xí)已知活動(dòng)分類的特征信息,并生成與真實(shí)樣本相似的虛擬樣本。則生成器G 的優(yōu)化目標(biāo)為min G LG,其中損失函數(shù)LG 定義為:
式中:常數(shù)β 為用于平衡源域與目標(biāo)域特征的權(quán)重參數(shù)。
2. 3 RC 模塊
RC 模塊旨在基于采集到的樣本與上述步驟生成的虛擬樣本實(shí)現(xiàn)對(duì)已知類中的行為樣本識(shí)別。需要指出的是,傳統(tǒng)的Π 模型[22]在訓(xùn)練前期僅使用標(biāo)記數(shù)據(jù),要求損失函數(shù)中的無監(jiān)督分量必須緩慢增長(zhǎng),否則網(wǎng)絡(luò)會(huì)快速收斂,導(dǎo)致訓(xùn)練得到無效解。在實(shí)際應(yīng)用中,這一要求極大地限制了模型訓(xùn)練的運(yùn)算速度。Temporal Ensembling(TE)[22]則是在Π的基礎(chǔ)上采用當(dāng)前與歷史模型預(yù)測(cè)結(jié)果的均值做均方差計(jì)算,保留歷史信息的同時(shí)有效地消除了擾動(dòng)并保持穩(wěn)定,但仍舊存在面對(duì)大數(shù)據(jù)集時(shí)需要對(duì)每個(gè)輪次進(jìn)行標(biāo)簽更新,導(dǎo)致訓(xùn)練緩慢的問題。針對(duì)上述問題,本文提出了改進(jìn)的Mean Teacher 模型用于動(dòng)作識(shí)別分類。
Mean Teacher 通過將模型假定為兩種角色,即學(xué)生模型和教師模型,來解決這一問題。這兩個(gè)模型架構(gòu)相同,與TE 的區(qū)別在于,該方法對(duì)模型權(quán)重而不是預(yù)測(cè)結(jié)果進(jìn)行加權(quán)平均,有效地減少了對(duì)有標(biāo)簽數(shù)據(jù)的需求,減少了運(yùn)算負(fù)擔(dān)。本文提出的基于Mean Teacher 的RC 模塊也分為教師模型和學(xué)生模型。對(duì)于學(xué)生模型而言,本文使用真實(shí)樣本與VSG 模塊得到的虛擬樣本作為輸入。學(xué)生模型對(duì)輸入樣本提取特征,計(jì)算得到模型預(yù)測(cè)值與真實(shí)標(biāo)簽之間的損失,從而更新學(xué)生模型的參數(shù),教師模型則用于對(duì)無標(biāo)記樣本生成偽目標(biāo)標(biāo)簽來指導(dǎo)學(xué)生模型學(xué)習(xí)。
為避免教師模型生成錯(cuò)誤的偽標(biāo)簽,導(dǎo)致無監(jiān)督部分的損失遠(yuǎn)大于監(jiān)督部分的損失,從而使模型的性能變差,本文使用學(xué)生模型權(quán)重的指數(shù)移動(dòng)平均(Exponential Moving Average,EMA)來更新教師模型的參數(shù),即:
θ′t =γθ′t-1 +(1-γ)θt, (6)
式中:θt 為學(xué)生模型在t 時(shí)刻的參數(shù),θ′t 為教師模型在t 時(shí)刻的參數(shù),常數(shù)γ∈(0,1)用于調(diào)節(jié)訓(xùn)練期間參數(shù)的權(quán)衡。即教師模型基于歷史模型參數(shù)與最新學(xué)生模型參數(shù)給出偽標(biāo)簽,保證了模型參數(shù)的穩(wěn)定性。在訓(xùn)練初期,學(xué)生模型通過訓(xùn)練提升較快,因此γ 的值相對(duì)較小,便于教師模型更快地過濾之前不好的參數(shù)。在訓(xùn)練后期,學(xué)生模型參數(shù)趨于穩(wěn)定,γ的值也相應(yīng)增大,從而避免某次錯(cuò)誤參數(shù)更新影響整體訓(xùn)練,得到更加穩(wěn)定的模型。
在本文所提方法中,源域樣本與VSG 模塊生成的類目標(biāo)樣本為有標(biāo)記樣本,將其定義為樣本集XL ={(xli,yi)|Li},其中,xli代表有標(biāo)記樣本,yi 代表對(duì)應(yīng)樣本的標(biāo)簽,L 為該樣本集內(nèi)的樣本數(shù)量;目標(biāo)域樣本為無標(biāo)記樣本,將這部分樣本定義為樣本集XU ={xui|Ui},其中,xui代表無標(biāo)記樣本,U 為該樣本集內(nèi)的樣本數(shù)量。
針對(duì)有標(biāo)記樣本XL,構(gòu)造其分類損失函數(shù)為:
式中:ylsi 代表學(xué)生模型對(duì)樣本xli的預(yù)測(cè)結(jié)果,通過與真實(shí)標(biāo)簽對(duì)比來更新學(xué)生模型的參數(shù)。對(duì)于未標(biāo)記樣本XU,學(xué)生模型和教師模型對(duì)同一個(gè)輸入進(jìn)行預(yù)測(cè),通過計(jì)算學(xué)生模型預(yù)測(cè)結(jié)果與教師模型預(yù)測(cè)結(jié)果之間的均方誤差(MeanSquare Error,MSE)構(gòu)建一致性損失函數(shù):
式中:yuti 代表教師模型對(duì)樣本xui的預(yù)測(cè)結(jié)果,yusi 代表學(xué)生模型對(duì)樣本xui的預(yù)測(cè)結(jié)果。本文使用Lu 懲罰教師模型和學(xué)生模型之間的預(yù)測(cè)結(jié)果差異,引導(dǎo)學(xué)生模型訓(xùn)練出更佳的參數(shù)。需要注意的是,教師模型在此處只起到一個(gè)提供預(yù)測(cè)偽標(biāo)簽的作用,其參數(shù)不依靠損失函數(shù)的反向傳播來更新。
學(xué)生模型整體的損失函數(shù)可以定義為:
L=Ll +Lu。(9)
據(jù)此可完成對(duì)目標(biāo)的識(shí)別與分類。
2. 4 復(fù)雜度分析
對(duì)所提方法進(jìn)行復(fù)雜度分析。類似地[23],VSG模塊的復(fù)雜度為O(nV ×mV ×kV),其中nV 為VSG 迭代次數(shù),mV 為一次迭代中的總訓(xùn)練步驟,kV 為一個(gè)訓(xùn)練步驟內(nèi)的反向傳播要求,即對(duì)抗樣本生成與網(wǎng)絡(luò)參數(shù)更新的總要求,由于存在兩個(gè)判別器,在最壞的情況下,一個(gè)訓(xùn)練步驟中包括兩次判別器評(píng)分與3 次參數(shù)更新,即kV≤5。
同理,RC 模塊的復(fù)雜度為O(nR ×mR ×kR ),其中nR 為RC 的迭代次數(shù),mR 為一次迭代中的總訓(xùn)練步驟,kR 為一個(gè)訓(xùn)練步驟內(nèi)的反向傳播要求,即學(xué)生模型與教師模型參數(shù)更新的總要求,在最壞的情況下,一次訓(xùn)練步驟中存在4 次參數(shù)更新,即kR≤4。
綜上,所提WGMT 模型的總復(fù)雜度為O(nV ×mV ×kV +nR ×mR ×kR)。
3 仿真分析
本節(jié)將通過實(shí)驗(yàn)仿真對(duì)所提的WGMT 模型性能進(jìn)行評(píng)估,使用平均準(zhǔn)確率作為評(píng)估指標(biāo)。文中所用的參數(shù)設(shè)置如表1,其中GAN 和Mean Teacher模型均使用Adam 優(yōu)化器,但學(xué)習(xí)率不同。
本文使用兩個(gè)公開數(shù)據(jù)集Signfi[24]和WiAR[25]進(jìn)行實(shí)驗(yàn),其中Signfi 數(shù)據(jù)集是由5 個(gè)用戶執(zhí)行的150 個(gè)手語手勢(shì)數(shù)據(jù),每個(gè)手勢(shì)各10 條;WiAR 數(shù)據(jù)集是由10 個(gè)用戶執(zhí)行的16 個(gè)行為動(dòng)作,每個(gè)動(dòng)作各30 條,本文選用其中的5 個(gè)用戶數(shù)據(jù)。由于在HAR 領(lǐng)域,不同的人的人體形態(tài)及動(dòng)作習(xí)慣均有區(qū)別,即可以視為每個(gè)人的數(shù)據(jù)均為不同的域內(nèi)數(shù)據(jù)。因此,在本文所設(shè)的實(shí)驗(yàn)環(huán)境中,采用其中一人的數(shù)據(jù)作為測(cè)試數(shù)據(jù),其他人的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)。同時(shí),選取大量目標(biāo)域未標(biāo)記樣本用于訓(xùn)練,以滿足Mean Teacher 模型的需求。
為更好地對(duì)比,設(shè)計(jì)了一個(gè)變體WiFi-GAN-basedMean Teacher with Single Discriminator(WGMT-SD)用于實(shí)驗(yàn)。該變體使用單個(gè)判別器的生成網(wǎng)絡(luò),即傳統(tǒng)未經(jīng)過改進(jìn)的WGAN-GP 作為VSG 模塊,其為制變量,本文將在WGMT 方法中將用于訓(xùn)練VSG 模塊的所有樣本用于WGAN-GP 訓(xùn)練。
由于WGMT 與WGMT-SD 區(qū)別在VSG 模塊,因此進(jìn)一步分析該模塊復(fù)雜度。所提的VSG 模塊主要在損失函數(shù)層面改進(jìn),對(duì)模型的復(fù)雜性幾乎沒有影響。具體而言,前文所述WGMT 中VSG 模塊的復(fù)雜度為O(nV ×mV ×kV),kV ≤5。而WGMT-D 僅存在一個(gè)判別器,在最壞的情況下,一個(gè)訓(xùn)練步驟中包括一次判別器評(píng)分與3 次參數(shù)更新,即kV ≤4。因此,WGMT-SD 中VSG 模塊的復(fù)雜度為O(nV ×mV ×kV),kV≤4。
雖然所提方法的復(fù)雜度略高于對(duì)比方法,但WGMT 相對(duì)于WGMT-SD 提高了識(shí)別準(zhǔn)確率,仿真結(jié)果如圖3 所示,可以看出,使用改進(jìn)后VSG 模塊的WGMT 方法準(zhǔn)確率為92. 71% ,使用傳統(tǒng)WGAN-GP 模塊的WGMT-SD 方法準(zhǔn)確率為89. 84% ,即WGMT 方法比WGMT-SD 方法提升了2. 87% 的準(zhǔn)確率。
此外,對(duì)二者在不同數(shù)據(jù)集中的平均準(zhǔn)確率與F1 分?jǐn)?shù)匯總?cè)绫恚?所示,說明本文所提WGMT 方法在跨域的識(shí)別中,無論是在動(dòng)作識(shí)別還是手勢(shì)識(shí)別上都有顯著優(yōu)勢(shì),這意味著對(duì)目標(biāo)域樣本的合理利用,能夠有效地增強(qiáng)模型最后的識(shí)別性能。
不難看出,所提方法對(duì)手勢(shì)的識(shí)別精度比對(duì)行為動(dòng)作的識(shí)別精度高,因?yàn)槭謩?shì)通常具有較為明顯的模式和動(dòng)態(tài)特征,而動(dòng)作可能涉及更廣泛的時(shí)間范圍,模式更加復(fù)雜。
為更好地展示本文所提模型的有效性,引入以下幾種算法作為對(duì)比。
① Mean Teacher:基于純粹Mean Teacher 的半監(jiān)督學(xué)習(xí)框架,使用學(xué)生模型權(quán)重的EMA 值定義教師模型的權(quán)重,通過最小化師生模型預(yù)測(cè)差異進(jìn)行訓(xùn)練。
② CsiGAN[26]:設(shè)計(jì)了補(bǔ)碼生成器,用于有限未標(biāo)記數(shù)據(jù)產(chǎn)生新的虛擬樣本,從而提高判別器的魯棒性,并優(yōu)化鑒別器的決策邊界,提出流形正則化方法穩(wěn)定學(xué)習(xí)過程。
③ One-shot Bimodal Domain Adaptation Method(One-shot Method)[27]:通過源域與單目標(biāo)域樣本線性變換和合成自動(dòng)編碼器實(shí)現(xiàn)虛擬樣本的合成,并為幅度與相位設(shè)置融合模態(tài),提高識(shí)別精度。
這些模型在兩個(gè)數(shù)據(jù)集上的性能匯總?cè)鐖D4 所示。實(shí)驗(yàn)結(jié)果表明,本文所提方法在跨域環(huán)境下的手勢(shì)識(shí)別及動(dòng)作識(shí)別中都有較好性能,充分顯示了所提方法的優(yōu)越性。
4 結(jié)束語
本文基于改進(jìn)后的WGAN-GP 和Mean Teacher構(gòu)建了一個(gè)名為WGMT 的跨域HAR 框架。通過對(duì)傳統(tǒng)GAN 結(jié)構(gòu)進(jìn)行調(diào)整,增設(shè)一個(gè)對(duì)目標(biāo)域樣本特征進(jìn)行評(píng)分的判別器,指導(dǎo)生成器生成與已知活動(dòng)類別樣本有相似特征的樣本,有效地提高了模型對(duì)目標(biāo)域的適應(yīng)性,大大減輕目標(biāo)域樣本采集難度的同時(shí),保證了識(shí)別的準(zhǔn)確性。通過在兩個(gè)公共數(shù)據(jù)集的實(shí)驗(yàn)證明,所提的WGMT 方法能夠提高手勢(shì)及動(dòng)作的識(shí)別精度,優(yōu)于其他現(xiàn)有方法。
參考文獻(xiàn)
[1] LI X Y,CUI Y H,ZHANG J A,et al. Integrated HumanActivity Sensing and Communications[J]. IEEE Communications Magazine,2022,61(5):90-96.
[2] ZOU H,YANG J F,DAS P H,et al. WiFi and VisionMultimodal Learning for Accurate and Robust DevicefreeHuman Activity Recognition[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Long Beach:IEEE,2019:426-433.
[3] CUI W,ZHANG L,LI B,et al. Received Signal StrengthBased Indoor Positioning Using a Random Vector Functional Link Network[J]. IEEE Transactions on IndustrialInformatics,2017,14(5):1846-1855.
[4] ZHANG Y,LIU Q Q,WANG Y J,et al. CSIbased Locationindependent Human Activity Recognition UsingFeature Fusion[J]. IEEE Transactions on Instrumentationand Measurement,2022,71:5503312.
[5] MA Y S,ZHOU G,WANG S Q. WiFi Sensing withChannel State Information:A Survey[J]. ACM ComputingSurveys (CSUR),2019,52(3):1-36.
[6] WANG Y,LIU J,CHEN Y Y,et al. Eeyes:Devicefreelocationoriented Activity Identification Using Finegrained WiFi Signatures[C]∥ Proceedings of the 20thAnnual International Conference on Mobile Computingand Networking. New York:ACM,2014:617-628.
[7] WANG W,LIU A X,SHAHZAD M,et al. Devicefree Human Activity Recognition Using Commercial WiFi Devices[J]. IEEE Journal on Selected Areas in Communications,2017,35(5):1118-1131.
[8] YOUSEFI S,NARUI H,DAYAL S,et al. A Survey on Behavior Recognition Using WiFi Channel State Information[J]. IEEE Communications Magazine,2017,55 (10):98-104.
[9] HUANG S,WANG D,ZHAO R,et al. Wiga:A WiFibased Contactless Activity Sequence Recognition SystemBased on Deep Learning[C]∥2019 15th InternationalConference on Mobile AdHoc and Sensor Networks(MSN). Shenzhen:IEEE,2019:69-74.
[10]GAO Q H,WANG J,MA X R,et al. CSIbased Devicefree Wireless Localization and Activity Recognition UsingRadio Image Features[J]. IEEE Transactions on VehicularTechnology,2017,66(11):10346-10356.
[11]WANG H,ZHANG D Q,WANG Y S,et al. RTFall:ARealtime and Contactless Fall Detection System withCommodity WiFi Devices[J]. IEEE Transactions on MobileComputing,2016,16(2):511-526.
[12]FALLAHZADEH R,ASHARI Z E,ALINIA P,et al. Personalized Activity Recognition Using Partially AvailableTarget Data[J]. IEEE Transactions on Mobile Computing,2021,22(1):374-388.
[13]SHI Z G,ZHANG J A,XU R Y,et al. EnvironmentrobustDevicefree Human Activity Recognition with ChannelStateInformation Enhancement and Oneshot Learning[J]. IEEE Transactions on Mobile Computing,2020,21(2):540-554.
[14]HU Y Q,ZHANG F,WU C S,et al. A WiFibased PassiveFall Detection System[C]∥ICASSP 2020 -2020 IEEEInternational Conference on Acoustics,Speech and SignalProcessing (ICASSP). Barcelona:IEEE,2020:1723-1727.
[15]ZHANG J,TANG Z Y,LI M,et al. CrossSense:TowardsCrosssite and Largescale WiFi Sensing[C]∥Proceedingsof the 24th Annual International Conference on Mobile Computing and Networking. New York:ACM,2018:305-320.
[16]ZHANG Y,CHEN Y,WANG Y J,et al. CSIbased HumanActivity Recognition with Graph Fewshot Learning[J].IEEE Internet of Things Journal,2021,9(6):4139-4151.。
[17]ZHANG Y,WANG X Y,WANG Y J,et al. Human ActivityRecognition Across Scenes and Categories Based on CSI[J]. IEEE Transactions on Mobile Computing,2022,21(7):2411-2420.
[18]WANG D Z,YANG J F,CUI W,et al. Multimodal CSIbased Human Activity Recognition Using GANs[J]. IEEEInternet of Things Journal,2021,8(24):17345-17355.
[19]GULRAJANI I,AHMED F,ARJOVSKY M,et al. ImprovedTraining of Wasserstein GANs[C]∥NIPS’17:Proceedingsof the 31st International Conference on Neural InformationProcessing Systems. New York:ACM,2017:5769-5779.
[20]TARVAINEN A,VALPOLA H. Mean Teachers are BetterRole Models:Weightaveraged Consistency Targets ImproveSemisupervised Deep Learning Results[C]∥NIPS’17:Proceedings of the 31st International Conference on NeuralInformation Processing Systems. New York:ACM,2017:1195-1204.
[21]ANGELOV A,ROBERTSON A,MURRAYSMITH R,et al.Practical Classification of Different Moving Targets UsingAutomotive Radar and Deep Neural Networks[J]. IET Radar,Sonar & Navigation,2018,12(10):1082-1089.
[22]LAINE S,AILA T. Temporal Ensembling for Semisupervised Learning[EB/ OL]. (2017 -03 -15)[2024 -03 -20]. https:∥arxiv. org/ abs/1610. 02242. 2016.
[23]ZHAO W M,MAHMOUD Q H,ALWIDIAN S. Evaluationof GANbased Model for Adversarial Training [J ].Sensors,2023,23(5):2697.
[24]MA Y S,ZHOU G,WANG S Q,et al. SignFi:Sign Language Recognition Using WiFi[C]∥Proceedings of theACM on Interactive,Mobile,Wearable and UbiquitousTechnologies,2018,2(1):1-21.
[25]GUO L L,WANG L,LIN C,et al. Wiar:A Public Datasetfor WiFibased Activity Recognition [J]. IEEE Access,2019,7:154935-154945.
[26]XIAO C J,HAN D J,MA Y S,et al. CsiGAN:RobustChannel State Informationbased Activity Recognition withGANs[J]. IEEE Internet of Things Journal,2019,6(6):10191-10204.
[27]ZHOU B,ZHOU R,LUO Y,et al. Towards Cross DomainCSI Action Recognition Through Oneshot BimodalDomain Adaptation[C]∥International Conference on Mobile and Ubiquitous Systems:Computing,Networking,andServices. Cham:Springer,2022:290-309.
作者簡(jiǎn)介:
史心癑 女,(1999—),碩士研究生。主要研究方向:通感一體化、無線信號(hào)識(shí)別、人體行為識(shí)別等。
夏文超 男,(1991—),博士,副教授。主要研究方向:邊緣智能無線通信、通感一體化、大規(guī)模MIMO 等。
趙海濤 男,(1983—),博士,教授。主要研究方向:衛(wèi)星物聯(lián)網(wǎng)、智能車聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)等關(guān)鍵技術(shù)及系統(tǒng)研發(fā)等。
楊麗花 女,(1984—),博士,副教授。主要研究方向:移動(dòng)無線通信、通信信號(hào)處理、多載波通信系統(tǒng)等。
阮欣雨 女,(2003—)。主要研究方向:人工智能、無線通信等。
常天水 男,(2005—)。主要研究方向:人工智能、無線通信等。
基金項(xiàng)目:國(guó)家自然科學(xué)基金面上項(xiàng)目(62371250);國(guó)家自然科學(xué)基金青年基金項(xiàng)目(62201285);江蘇省基礎(chǔ)研究計(jì)劃(自然科學(xué)基金)前沿引領(lǐng)技術(shù)基礎(chǔ)研究專項(xiàng)(BK20212001);江蘇省自然科學(xué)基金杰出青年基金項(xiàng)目(BK20220054)