国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于網(wǎng)格劃分骨骼的行為預測

2023-06-10 06:42:22沈江霖王子陽
軟件工程 2023年6期
關(guān)鍵詞:關(guān)節(jié)點度量骨骼

沈江霖, 魏 丹, 王子陽

(上海工程技術(shù)大學機械與汽車工程學院, 上海 201620)

1 引言(Introduction)

在無人駕駛中,通過對行人下一步動作的預測可以提前完成汽車加速或者減速的決策,同時可以減小事故發(fā)生的概率[1]。如果不能準確的預測行人的下一步動作,人車系統(tǒng)安全將無從談起。CHEN等[2]提出了一種用于動作預測的循環(huán)語義保留生成方法,開發(fā)了一個生成體系結(jié)構(gòu)補充骨架序列用于預測動作,該方法未考慮行人部位遮擋及背景干擾問題。LI等[3]研究了基于骨架數(shù)據(jù)的動作預測,提出了一種基于對抗學習的自適應圖卷積網(wǎng)絡,學習局部序列中潛在的全局信息,該網(wǎng)絡對行人姿態(tài)變化和外觀差異等因素不具有魯棒性。針對上述問題,本文提出一種新的基于網(wǎng)格劃分骨骼的行為預測方法,通過對行人進行網(wǎng)格劃分并提取相應關(guān)節(jié)點的行為特征,對比前后幀的行為特征,進而判斷行人的運動方向及運動速度。

2 行為預測(Action prediction)

基于網(wǎng)格劃分骨骼的行為預測方法主要分為兩個部分:行人網(wǎng)格劃分和行人骨骼行為特征提取。具體來說,就是將行人進行網(wǎng)格劃分和對行人骨骼進行估計,提取出網(wǎng)格特征、關(guān)節(jié)點角度及骨骼特征,將三者結(jié)合形成行人的行為動作特征,通過前后幀的對比,計算下一幀行人動作發(fā)生的概率?;诰W(wǎng)格劃分骨骼的行為預測方法的流程如圖1所示。

圖1 基于網(wǎng)格劃分骨骼的行為預測方法的流程圖Fig.1 Flow chart of action prediction method based on grid partition of skeleton

給定一個測試視頻,初始化其定位算法,在單幀中使用自下而上的骨骼估計,并使用之前幀的多個時空約束細化位姿。本文將測試視頻幀進行密集網(wǎng)格劃分,利用每個劃分網(wǎng)格內(nèi)計算的特征,學習1個基于劃分網(wǎng)格的外觀模型,該模型通過訓練1個在每個位姿邊界框內(nèi)的網(wǎng)格特征作為前景,其余劃分的網(wǎng)格特征作為背景的判別分類器,區(qū)分前景和背景。同時,由于骨骼關(guān)節(jié)點角度和前一幀骨骼關(guān)節(jié)點角度是一致的,基于此可以計算當前時間步長姿態(tài)假設的條件概率。將每個時間步長的概率結(jié)果結(jié)合后,通過在關(guān)節(jié)點位置、行人外觀及姿勢比例上施加一致性改進姿勢。

一旦在當前的時間步長中估計并改進了姿勢,就會更新基于網(wǎng)格特征的外觀模型,以避免出現(xiàn)視覺漂移。因此,骨骼估計不但提供了初始化具有判別力的外觀模型,而且可以包含任何行人全身或多個關(guān)節(jié)點的交互或執(zhí)行操作。

本文采取文獻[4]中介紹的自下而上的方法進行行人骨架估計,行人骨架估計結(jié)果如圖2左部分和圖3左部分所示。行人骨架估計完成后,本文將骨架特征單獨提取出來,如圖2右部分和圖3右部分所示,并規(guī)定了8個關(guān)節(jié)點作為行為角度特征的基點,分別為左右肘關(guān)節(jié)點(A,a,C,c)、左右手關(guān)節(jié)點(B,b,D,d)、左右膝關(guān)節(jié)點(E,e,I,i)、左右腳關(guān)節(jié)點(F,f,J,j)。本文通過網(wǎng)格劃分得到的網(wǎng)格中心o作為二維坐標系的原點,以o為原點學習8個關(guān)節(jié)點到原點的距離度量特征和角度度量特征。通過與前一幀的距離度量特征和角度度量特征進行對比,判斷各個關(guān)節(jié)點的變化趨勢。

圖2 前一幀行人骨骼估計及其角度特征Fig.2 Pedestrian skeleton estimation and its angle characteristics in the previous frame

圖3 后一幀行人骨骼估計及其角度特征Fig.3 Post-frame pedestrian skeleton estimation and its angular characteristics

當行人行走時,o點與頭部、肩部和胯部相應關(guān)節(jié)點的距離度量和角度度量變化不大,不能體現(xiàn)行人的姿態(tài)變化,更無法通過o點與頭部、肩部和胯部相應關(guān)節(jié)點的距離度量和角度度量預測行人下一幀的動作變化。與頭部、肩部和胯部相應的關(guān)節(jié)點不同的是,行人行走時的左右肘關(guān)節(jié)點、左右手關(guān)節(jié)點、左右膝關(guān)節(jié)點、左右腳關(guān)節(jié)點與o點的距離度量和角度度量變化幅度很大;而且行人行走時,手臂的擺幅、跨步的距離都是行人行走習慣的表現(xiàn),通過對左右肘關(guān)節(jié)點、左右手關(guān)節(jié)點、左右膝關(guān)節(jié)點、左右腳關(guān)節(jié)點與o點的距離度量和角度度量的學習,可以得到行人的行走習慣,從而判斷下一幀行人的動作變化。

不同幀捕捉到行人的左右肘關(guān)節(jié)點、左右手關(guān)節(jié)點、左右膝關(guān)節(jié)點和左右腳關(guān)節(jié)點的距離度量特征和角度度量特征不同,通過對比前后幀的距離度量特征和角度度量特征計算出下一幀關(guān)節(jié)點的運動類型發(fā)生概率。本文利用公式(1)計算出關(guān)節(jié)點的距離度量特征doi:

doi=xTMx

(1)

本文定義的行為特征包括距離度量特征和角度度量特征,由于關(guān)節(jié)點與原點o的角度不易計算,因此本文利用關(guān)節(jié)點角度的正弦值表示關(guān)節(jié)點的角度。本文利用公式(2)計算角度度量特征θi:

(2)

行人行為特征的距離度量特征doi和角度度量特征θi都是基于相同關(guān)節(jié)點計算得出,兩者具有相關(guān)性。本文利用公式(3)計算出兩者的關(guān)聯(lián)度τi:

(3)

其中,ρ為分辨系數(shù),一般ρ=0.5。通過關(guān)聯(lián)度τi將兩個特征關(guān)聯(lián)后得到行人的行為特征Ti,行為特征Ti可以用公式(4)表示:

Ti=sinθi+τidoi

(4)

計算出行人行為特征后,利用公式(5)計算下一幀該關(guān)節(jié)點的運動特征出現(xiàn)概率:

(5)

利用上述公式計算出8個關(guān)節(jié)點下一幀運動類型的概率,然后結(jié)合8個關(guān)節(jié)點下一幀的運動類型判斷下一幀行人動作。為了更準確地判斷行人運動,本文將行人劃分為無數(shù)密集網(wǎng)格,結(jié)果如圖4所示,通過提取劃分網(wǎng)格的特征,對比前后幀的8個關(guān)節(jié)點的網(wǎng)格特征變化,判斷行人前進或者后退,以及行動加速、勻速或者減速。以上判斷都是基于MATLAB代碼實現(xiàn)的。

3 實驗與結(jié)果分析(Experiments and analysis of results)

3.1 數(shù)據(jù)集

在3個行為動作預測數(shù)據(jù)集sub-JHMDB、UCF-Sports和MSR-II上對本文所提方法進行驗證。

sub-JHMDB數(shù)據(jù)集[5]的每幀都可以看到所有人體關(guān)節(jié),共包含316個視頻、12個動作類??紤]到行人關(guān)節(jié)的復雜變化,每一幀行人的識別和定位變得極具挑戰(zhàn)性,故在JHMDB數(shù)據(jù)集基礎上,使用sub-JHMDB數(shù)據(jù)集。

UCF-Sports數(shù)據(jù)集[6-7]包含150個視頻和10個動作類。使用文獻[8]提出的方法對本文所提方法進行評估。

MSR-II數(shù)據(jù)集[9]包含54個未修剪的視頻和3個動作類。本文采用跨數(shù)據(jù)集估值,并使用KTH數(shù)據(jù)集對MSR-II數(shù)據(jù)集進行訓練和測試。在數(shù)據(jù)集iDTFs使用大小為K=1 000的碼數(shù)訓練支持向量機。本文使用精確回憶曲線和最先進的離線方法進行定量比較,同時為了與其他數(shù)據(jù)集保持一致,本文也使用受試者工作特征曲線(Receiver Operating Characteristic, ROC)和ROC曲線下面區(qū)域的面積(Area Under Curve, AUC)報告結(jié)果。

3.2 實驗設置

受早期行為識別和預測的啟發(fā),本文將行為和交互的觀察比值作為性能量化指標。該評價指標以不同的觀測視頻/動作比值(0,0.1,0.2,…,1)采樣,進行視頻的定位和預測。預測任務的準確性類似于分類和識別,對于未修剪的視頻,預測精度的評估難度較大。為此,首先將預測結(jié)果作為觀測比值函數(shù)的真實視頻行動,該操作相當于修剪情況。其次使用動作/交互的平均持續(xù)時間,通過在每個視頻中每5幀滑動一個窗口提取時間上重疊的剪輯,其中,一些包含真實動作,另一些則代表未修剪視頻的背景部分。最后將計算預測精度作為函數(shù)的觀測比值。這種方法可以捕捉誤報,并為未修剪的視頻提供更全面的評估。

3.3 實驗結(jié)果

在實驗部分,本文以連續(xù)3幀為例,通過學習前兩幀的行為特征估計下一幀的8個關(guān)節(jié)點的運動類型發(fā)生的概率,根據(jù)8個關(guān)節(jié)點運動類型的加權(quán)后得到行人下一幀的運動類型。

通過上述方法可以計算出8個關(guān)節(jié)點的運動類型發(fā)生的概率,結(jié)果如表1所示。從表1中可以推測出,行人的左臂在下一幀向上運動,行人的右臂在下一幀向下運動,行人的左腿在下一幀向下運動,行人的右腿在下一幀向上運動。根據(jù)劃分網(wǎng)格特征判斷行人向前勻速運動,其中左右手臂和左右腿的運動方向也是向前運動。

表 1 關(guān)節(jié)點運動類型及概率Tab.1 Type and probability of joint movement

研究人員在3個行人動作數(shù)據(jù)集sub-JHMDB、UCF-Sports、MSR-II上驗證在不同觀察比值情況下不同重疊率的動作預測準確率。具體實驗結(jié)果如圖5至圖7所示。其中,當動作觀察比值為0.4、重疊率為30%時,在sub-JHMDB數(shù)據(jù)集上的準確率能達到56%;當動作觀察比值為0.2、重疊率為10%時,在UCF-Sports數(shù)據(jù)集上的準確率能達到54%;當動作觀察比值為0.1、重疊率為10%時,在MSR-Ⅱ數(shù)據(jù)集上的準確率能達到46%,不同數(shù)據(jù)集上最大準確率和動作觀察比值見表2。

圖5 不同觀察比值在sub-JHMDB數(shù)據(jù)集上的準確率Fig.5 The accuracy of different observation ratios on sub-JHMDB dataset

圖6 不同觀察比值在UCF-Sports數(shù)據(jù)集上的準確率Fig.6 The accuracy of different observation ratios on UCF-Sports dataset

圖7 不同觀察比值在MSR-II數(shù)據(jù)集上的準確率Fig.7 The accuracy of different observation ratios on MSR-II dataset

表 2 不同數(shù)據(jù)集上最大準確率和動作觀察比值Tab.2 Maximum accuracy and action observation ratios on different datasets

本研究以累積的方式計算AUC,50%的準確率意味著從一開始就定位一個動作,直到觀察到視頻的一半。這可以深入了解本文所提模型性能是如何隨著時間或測試視頻中觀察到的比值的變化而變化的。從圖5至圖7可以看出,在視頻開始播放時,定位一個動作是很有挑戰(zhàn)性的,因為算法并沒有觀察到足夠的判別運動用于區(qū)分不同的動作。此外,本研究首先從行人骨架姿態(tài)中學習外觀模型,并隨著時間的推移不斷進行改進和細化。這提高了基于劃分網(wǎng)格特征的外觀可信度,進而提高了預測的準確性,穩(wěn)定了AUC。

4 結(jié)論(Conclusion)

本文提出一種新的基于網(wǎng)格劃分骨骼的行為預測方法,該方法主要分為兩個部分,首先使用自下而上的方法提取行人的骨骼信息,規(guī)定左右肘、左右手、左右膝以及左右腳8個關(guān)節(jié)點作為提取行為習慣的關(guān)節(jié)點,并且通過學習8個關(guān)節(jié)點的距離度量特征和角度度量特征提取行人的行為特征。對8個關(guān)節(jié)點分別對比前后幀的行為特征,判斷下一幀單個關(guān)節(jié)點運動類型發(fā)生的概率,通過對下一幀8個關(guān)節(jié)點運動類型的加權(quán)判斷下一幀行人的動作。其次為了更好地評估行人下一幀的動作,本文通過對行人進行網(wǎng)格劃分并提取相應關(guān)節(jié)點的劃分網(wǎng)格特征,對比前后幀的劃分網(wǎng)格特征,判斷行人的運動方向及運動速度。實驗結(jié)果驗證了該方法的有效性。

猜你喜歡
關(guān)節(jié)點度量骨骼
有趣的度量
模糊度量空間的強嵌入
做家務的女性骨骼更強壯
中老年保健(2021年5期)2021-12-02 15:48:21
三減三健全民行動——健康骨骼
中老年保健(2021年5期)2021-08-24 07:06:28
基于深度學習和視覺檢測的地鐵違規(guī)行為預警系統(tǒng)研究與應用
關(guān)節(jié)點連接歷史圖與卷積神經(jīng)網(wǎng)絡結(jié)合的雙人交互動作識別
迷向表示分為6個不可約直和的旗流形上不變愛因斯坦度量
骨骼和肌肉
小布老虎(2017年1期)2017-07-18 10:57:27
搞好新形勢下軍營美術(shù)活動需把握的關(guān)節(jié)點
地質(zhì)異常的奇異性度量與隱伏源致礦異常識別
门源| 诸城市| 丘北县| 富平县| 荃湾区| 平果县| 额济纳旗| 宣威市| 文水县| 鹤壁市| 芷江| 怀仁县| 邳州市| 鱼台县| 南宁市| 吉木乃县| 蓬莱市| 福建省| 兴城市| 鄂尔多斯市| 邻水| 定安县| 湘乡市| 岳西县| 乌拉特后旗| 连云港市| 溧阳市| 康乐县| 郓城县| 营口市| 乌拉特后旗| 西安市| 东港市| 新乡市| 新乐市| 诏安县| 惠来县| 南溪县| 隆安县| 梁平县| 沁阳市|