張?zhí)N綺 苗志程 陳弘健
摘要:基于圖像識別技術的錄播系統(tǒng)是對人工錄制模式的革新,其使用拓寬了優(yōu)質教育資源的應用范圍。本文主要研究適用于錄播系統(tǒng)中的目標檢測和跟蹤技術,在沒有人工干預的情況下,利用圖像處理算法對視頻圖像進行實時分析與處理,實現(xiàn)對跟蹤目標的自動檢測、跟蹤和拍攝。
關鍵詞:錄播系統(tǒng);圖像識別;目標檢測;目標跟蹤
中圖分類號:TP391? ? ? ? 文獻標識碼:A
文章編號:1009-3044(2023)06-0097-06
開放科學(資源服務)標識碼(OSID)
0引言
國家“十三五”教育改革提出通過提升教育信息化促進教育公平、提高教育質量的方針[1]。近年來隨著云計算、大數(shù)據(jù)等技術的實現(xiàn),使利用信息化手段擴大優(yōu)質教育資源覆蓋面、縮小區(qū)域、城鄉(xiāng)、校際教育資源不均衡再次提上議程。錄播采集課堂教學資源,促進優(yōu)質教育資源共享的特點,使得錄播系統(tǒng)成為教育均衡發(fā)展最為重要的基礎設施,得到多方面的重視。
1錄播系統(tǒng)概述
全自動錄播系統(tǒng)集圖像分析技術、多媒體技術、網(wǎng)絡流媒體技術、人工智能和自動控制技術于一體,將老師授課、師生互動、電腦VGA信號及課堂板書等進行智能跟蹤切換錄制,自動生成課程資源。
在功能架構上,錄播系統(tǒng)由電源控制模塊、視頻模塊、音頻模塊、跟蹤模塊、導播模塊這五大子系統(tǒng)組成,如圖1所示。
(1)電源控制模塊
通過高度集成化的控制面板實現(xiàn)錄播系統(tǒng)和其他設備的電源控制,一鍵開/關系統(tǒng)、一鍵啟/止錄播,操作簡明。
(2)視頻模塊
通過網(wǎng)絡攝像機采集課堂情景并傳送至錄播設備進行實時錄制并生成流媒體文件,壓縮率高,能夠實現(xiàn)動態(tài)捕捉并自動生成文字索引。
(3)音頻模塊
利用通過智能混音器把課堂上師生的語音信號全息地采集下來,并實時傳送至錄制系統(tǒng)完成課件實時錄制。
(4)跟蹤模塊
該模塊根據(jù)圖像差異匹配相應的控制策略驅動攝像機對目標進行智能跟蹤定位,同時識別分析目標的活動軌跡,以此實現(xiàn)授課場景的特寫、鏡頭切換等錄制。即便在不同場景下也能實現(xiàn)多目標的跟蹤及鏡頭切換。
(5)導播模塊
該模塊主要用于錄制過程中多場景及多路視頻信號源、音視頻文件和電腦VGA信號間的自動切換,系統(tǒng)根據(jù)教學活動的變化智能選擇切換策略,并實現(xiàn)具備特效功能的智能導播。
2基于圖像識別技術的運動目標檢測與跟蹤
基于圖像識別技術的運動目標檢測與跟蹤技術是當前技術含量最高、多媒體教學錄播系統(tǒng)中采用最為廣泛的一種手段。它的原理是利用圖像處理算法,在沒有人工干預的條件下對攝像機拍攝的圖像序列進行分析、處理,從而實現(xiàn)課堂中師生的自動檢測與定位跟蹤。基于圖像識別技術的跟蹤框架圖如圖2所示:
2.1運動目標檢測
運動目標檢測是把運動目標的信息(如方位、尺寸、顏色等)從背景中提取中來,它是后續(xù)目標跟蹤及其他分析處理的基礎。目標檢測算法不具備普適性,需針對特定場景選擇可靠性高、復雜度低且滿足最佳實時性的算法。
2.1.1運動目標檢測介紹
根據(jù)攝像機與背景是否發(fā)生相對運動,可把運動目標檢測分為動態(tài)背景和靜態(tài)背景兩類。在錄播系統(tǒng)中除特寫攝像機外其他機位都相對固定,因此屬于靜態(tài)背景的運動目標檢測。目前較常用的靜態(tài)背景運動目標檢測有三種,分別是光流法、幀間差分法、背景差分法,橫向對比如表1所示[2]。
根據(jù)對比結果,三種算法各有其優(yōu)缺點,無法適用所有場景,因此應結合多種算法進行設計。錄播教室通常會發(fā)生的干擾是遮擋、背景雜波和光照變化,跟蹤目標的運動速度通常較慢,因此本文采用基于背景差分法的運動目標檢測算法。
2.1.2背景差分法
背景差分法(又稱背景減法)的基本思路是把當前幀圖像與系統(tǒng)存貯或實時獲取的背景圖像進行差分運算,把背景偏離超過一定閾值的區(qū)域作為運動區(qū)域[5]。在做差分運算之前進行圖像濾波可在一定程度上去除噪聲的影響,本文采用高斯濾波法對當前幀去噪。與背景幀差分后選取適當?shù)拈撝祵D像做二值化處理,為了消除細小噪聲點的影響,二值化后的圖像需進行形態(tài)學處理,最后對處理結果提取目標輪廓,具體流程圖如圖3所示。下文將重點闡述背景差分法中的背景更新算法、圖像閾值分割算法、形態(tài)學處理算法和輪廓提取算法。
1)基于滑動平均法的背景更新
背景差分法實現(xiàn)的關鍵在于背景模型的獲取和更新,混合高斯模型因其能可靠處理背景混亂運動的干擾和長時間的場景變化等特點成為近年來廣泛使用的背景模型,但是它對于光線突然變化的場景該模型并不理想,因此本文提出基于滑動平均算法的背景模型。
滑動平均算法是利用背景圖像像素值與當前幀像素值進行加權求和來達到背景自適應更新目的的算法。其公式如下:
[Bn(i,j)=Bn-1(i,j)+αIn(i,j)-Bn-1(i,j)=αIn(i,j)+(1-α)Bn-1(i,j)]? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (1)
其中[Bn(i,j)]表示第[n]幀更新后的背景像素值,[In(i,j)]表示當前幀像素值,[α]表示背景更新系數(shù),一般在0到1之間取值,它的取值會影響到運動目標與背景模型融合的速度,考慮到錄播場景中主要是緩慢的光照變化,本文中[α]取值為 0.01[6]。
2)基于最大間類方差法的圖像閾值分割
當前幀與背景幀做差分后,要選取合適的閾值對圖像進行分割來得到二值化圖像。最大間類方差法的原理是按照圖像的灰度特性把圖像分為目標前景和背景兩部分。當選取最佳閾值時,前景和背景之間的類間方差越大,錯分概率越小[7]。
記[T]為前景與背景的分割閾值,前景像素點出現(xiàn)的概率記為[ω0],平均灰度為[u0];背景像素點出現(xiàn)的概率為[ω1],平均灰度為[u1],圖像的平均灰度記為[u],可得到:
[u=ω0×u0+ω1×u1]? ? ? ? ? ? ? ? ?(2)
前景和背景圖像的方差公式為:
[g=ω0×(u0-u)×(u0-u)+ω1×(u1-u)×(u1-u)=ω0×ω1×u0-u12]? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (3)
當方差[g]最大時,可認為此時前景和背景差異最大,此時的灰度[T]是最佳閾值。
3)形態(tài)學處理
在目標分割的過程中難免會產(chǎn)生噪聲點,或是運動目標圖像中出現(xiàn)空洞或不連通現(xiàn)象,影響輪廓提取的精度,通常采用數(shù)學形態(tài)學解決此類問題。數(shù)學形態(tài)學以膨脹、腐蝕為基礎,結合起來可構成開、閉運算[8]。開運算用來消除細小對象、微小粘連,閉運算可用來連接鄰近對象、填充對象內部細小空洞。開、閉運算都可在不改變目標面積的前提下平滑目標邊緣。結合本文的實際場景,選擇開運算來消除細小噪聲點的影響。
4)輪廓提取
通過閾值分割得到二值化圖像后,需進一步提取出運動目標的輪廓。目標輪廓提取的原理如下:遍歷圖像中的每個像素點, 如果該點灰度值為0,不管周圍相鄰的8個像素點的灰度值是0還是1,當前該點的灰度值取值為0;若該點灰度值為255,并且周圍相鄰的8個像素點的灰度值也是255, 則當前該點的灰度值取值為0;除上述兩種情況外,將該點灰度值取值為255。通過上述方法可完成對目標輪廓的提取,輪廓由灰度值為255的所有像素點組成 。
2.2運動目標跟蹤
運動目標跟蹤是在視頻圖像中提取出運動目標并在后續(xù)幀中定位出目標位置的過程。與運動目標檢測算法相比,運動目標跟蹤算法的著重點在于如何設計更有效的標記方法使該標記在各種情況下都能清晰可見、易識別[9]。
運動目標跟蹤的過程可分為以下幾個步驟:
1)在視頻幀圖像中檢測出運動目標并從背景中分割出該目標。
2)提取出運動目標包含的特征(如中心、速度、輪廓、顏色直方圖等),并根據(jù)這些特征建立目標模型。
3)根據(jù)模型預測該運動目標在下一刻可能出現(xiàn)的位置并鎖定搜索范圍。
4)使用之前的目標模型在搜索范圍內搜尋匹配目標并確定最佳匹配位置,若在所有的搜索范圍內都沒有找到匹配目標,進行特定處理。
5)根據(jù)最佳匹配目標修正運動目標的模型,再重復上面的操作。
根據(jù)運動目標跟蹤算法采集圖像特征及使用跟蹤策略的差異,運動目標跟蹤算法可分為基于模式匹配、基于分類和基于目標狀態(tài)估計這三類[10]。下面對這三種類別算法及其下屬的二級分類進行簡要介紹,并分別列出各算法的適用條件形成橫向對比表2。
根據(jù)表2可知,基于貝葉斯框架的目標狀態(tài)估計濾波算法表現(xiàn)形式靈活、融合性強且追蹤性能穩(wěn)定,成為當前運動目標跟蹤方向的主流研究方法。與卡爾曼濾波算法相比,粒子濾波算法不受空間模型狀態(tài)的限制,適合實際視頻圖像中噪聲呈非線性、非正態(tài)分布的特點,因此本文選取粒子濾波作為目標跟蹤算法。
2.3粒子濾波目標跟蹤算法
粒子濾波是以蒙特卡洛隨機模擬理論為基礎,對系統(tǒng)狀態(tài)后驗分布用一組加權隨機樣本(即所謂的粒子)近似表示,新的狀態(tài)分布通過這些隨機樣本的貝葉斯遞推估計。該算法不受線性、高斯分布及維數(shù)的限制,對目標模型沒有限制。在粒子數(shù)足夠多的前提下,其精度可接近最優(yōu)估計?;谶@些特點,粒子濾波目標跟蹤算法成為目標跟蹤領域的研究熱點,擁有廣闊的應用前景。
粒子濾波主要包括四個步驟:
1)粒子采樣,從建議分布中抽取一組新的粒子;
2)粒子加權,根據(jù)觀測概率分布和貝葉斯公式計算各個粒子的權值;
3)估計輸出,輸出系統(tǒng)狀態(tài)的均值、協(xié)方差或高階矩等;
4)重采樣,為了緩解粒子濾波中出現(xiàn)權值退化的問題而采取的方法。
雖然粒子濾波算法能較好地克服錄制環(huán)境的噪聲,但在實際使用中也存在以下兩項缺陷:第一,粒子貧化現(xiàn)象嚴重,多次重采樣后會發(fā)生樣本枯竭;第二,使用單一特征作為參考模板,對目標描述不詳盡[11]。這些都會影響到目標追蹤的精度和穩(wěn)定性。因此本文在傳統(tǒng)粒子濾波算法的基礎框架上,選取顏色、紋理、梯度特征,設計多特征自適應融合算法。
2.4多特征融合的粒子濾波目標跟蹤算法
傳統(tǒng)粒子濾波目標跟蹤算法多數(shù)是基于單一的顏色特征建立目標模型,導致環(huán)境復雜時追蹤不準確,因此本文采用多視覺特征融合的方式建立模型。
2.4.1 HSV顏色特征
顏色特征是目標跟蹤最常用的特征之一,其提取簡單且對較小程度的遮擋具較強的魯棒性[12]。RGB和HSV是常用的顏色空間,但由于RGB空間是非均勻的,不符合人體視覺對顏色的主觀感知,本文采用HSV顏色空間來描述目標。HSV是根據(jù)顏色的直觀特性建立的顏色空間,更注重表達對于顏色的視覺感知差異,其參數(shù)分別是色調(H)、飽和度(S)、明度(V)。
在進行HSV特征的直方圖統(tǒng)計時,為增加顏色分布的可靠性,對離目標區(qū)域中心點較近的像素賦予較大的權重,使像素點距中心點的距離與權值呈反比例關系,從而精確地表征目標顏色模型。采用式(4)所示的高斯核函數(shù)計算權重:
[k(r)=1-r2r<10,r≥1]? ? ? ? ? ? ? ? ? ? ? ?(4)
式中[r]表示區(qū)域內某像素點到中心點的距離。候選區(qū)域顏色直方圖[p(u)C]用算式表示為:
[p(u)C=i=1Nkx0-xihδb(xi)-ui=1Nkx0-xih]? ? ? ? ? ? ? ?(5)
該式中[N]是目標區(qū)域內像素點總數(shù),[u]是顏色直方圖的索引區(qū)間,[b(xi)]表示目標區(qū)域內第[i]個像素點在直方圖中的索引值,[δb(xi)-u]用于判斷像素點[xi]的索引值是否屬于直方圖第[u]個索引區(qū)間內,[x0-xi]表示點[xi]到目標中心點[x0]的距離,參數(shù)[h=Hx2+Hy2],代表目標區(qū)域的半徑[13]。
為了計算目標模型[q(u)C]和候選模型[p(u)C]的相似性,在兩個歸一化直方圖(直方圖等級數(shù)為[m])之間定義一個基于Bhattacharyya系數(shù)的度量:
[ρ=u=1mp(u)Cq(u)C]? ? ? ? ? ? ? ? ? ?(6)
[dC=1-ρ]? ? ? ? ? ? ? ? ? ? ?(7)
式(6)中[ρ]是Bhattacharyya系數(shù),[ρ]越大,[dC]的值越小,目標模型和候選模型的相似度越高。HSV特征的似然觀測模型可以表示為[14]:
[pC(zkxk)=12πσCexp(-dC22σC2)]? ? ? ? ? ? ?(8)
2.4.2 LBP紋理特征
局部二值模式(Local Binary Patterns,LBP)是一種用于紋理描述算子,用于度量和提取圖像局部的紋理信息,具有對光照變化及旋轉不敏感的優(yōu)點。依據(jù)該特征建立的目標模型能有效解決因場景變化導致追蹤精度下降的問題。傳統(tǒng)LBP算法中使用3×3矩形模板遍歷圖像進行二進制編碼,模板中心像素值為[gc],從右側中間像素點按逆時針方向依次編號[gp(p=0,...7)],每次周圍像素與中心點像素比較:
[s(gp-gc)=1,gp-gc≥00,gp-gc<0]? ? ? ? ? ? (9)
得到二值圖像,再把二進制數(shù)轉化成十進制數(shù),得到中心點[gc]的LBP特征值[15]:
[LBP=p=07s(gp-gc)2p]? ? ? ? ? ? ?(10)
具體實現(xiàn)過程如圖4所示。
樸素LBP只能處理固定尺寸的紋理特征,因此研究者在此基礎上繼續(xù)拓展,提出其他改進算法。就目前研究成果而言,旋轉不變Uniform LBP算法提取特征的效率最高。其算法的基本思路為把旋轉不變LBP(LBP基礎理論的擴展,將圓形鄰域代替正方形領域,并將其不斷旋轉得到的LBP值中取最小值作為該鄰域的LBP值)值二進制數(shù)字從0到1或1到0跳變最多發(fā)生兩次的模式稱為Uniform模式,其他情況則為非Uniform模式?;谛D不變特性,旋轉不變Uniform LBP算法只有兩種結果:跳變兩次或不發(fā)生跳變。
本文采用8采樣點的旋轉不變Uniform LBP算子提取目標的紋理特征,共有9種取值可能,更能節(jié)省存儲空間。把LBP特征量化為8個bin的直方圖[p(u)T]并歸一化,[S]是歸一化系數(shù),令[u=1mp(u)T=1],
[p(u)T=Si=1Nδb(xi)-u]? ? ? ? ? ? ? ?(11)
與計算HSV特征相同,得到 LBP特征的Bhattacharyya距離[dT]和觀測模型[pT(zkxk)]。
2.4.3 HOG特征
方向梯度直方圖(Histogram of Oriented Gradient, HOG)通過梯度信息和邊緣的方向密度分布來描述圖像局部紋理特征。HOG對圖像幾何和光學能保持良好的不變性,對人體細微的肢體動作不敏感,因而特別適于人體檢測。計算公式如下:
[M(x,y)=Ix2+Iy2θ(x,y)=arctanIyIx∈0,360?or∈0,180?] ? ?(12)
式中[Ix]和[Iy]表示水平和垂直方向上的梯度值,[M(x,y)]代表梯度的幅度值,[θ(x,y)]代表梯度的方向,以圓周為范圍,每10°為一個直方圖索引區(qū)間,共計36個區(qū)間作為直方圖的通道數(shù),統(tǒng)計各像素點的幅值[M(x,y)]為某方向的直方圖通道進行分布權重投票,與之前計算LBP直方圖相似,可得到梯度特征的分布直方圖[p(u)E],再計算HOG特征的Bhattacharyya距離[dE]和似然觀測模型[pE(zkxk)]。
2.4.4多特征的自適應融合
常用的多特征融合策略有乘性融合和加權和融合,兩種策略各有利弊:乘性融合計算簡單、易于實現(xiàn),且各特征值在獨立條件假設下依據(jù)貝葉斯理論其估計結果可達到最優(yōu),但在背景出現(xiàn)強干擾時容易放大噪聲,造成誤差;加權和融合是對多個特征賦予相應的權值來加權求和,該策略對噪聲影響不敏感,但無法提高目標后驗密度概率的置信度[16]。因此,本文在假設多特征條件獨立的情況下,采用自適應權重的加權和算法,通過度量單特征的觀測值和目標模型的距離來計算自適應權重。
通過前文的算法可得到[k]時刻目標區(qū)域矩形框內不同特征對應的似然觀測模型[pC(zkxk)]、[pT(zkxk)]、[pE(zkxk)]。[p(zkxk)]為[k]時刻三種特征融合后的觀測模型,其計算公式如下:
[p(zkxk)=ωCpC(zkxk)+ωTpT(zkxk)+ωEpE(zkxk)] (13)
[ωi]是第[i]種特征在融合中的權值,滿足[ωC+ωT+ωE=1]。[ωi]的計算方法如下:
[ωi=1di,min2]? ? ? ? ? ? ? ? ? ? ? ?(14)
式中[di,min]表示第[i]個特征根據(jù)Bhattacharyya距離衡量目標與候選區(qū)域特征直方圖的最小值。通過對[ωi]進行歸一化得到各特征的權重。
2.4.5權值優(yōu)化
針對傳統(tǒng)粒子濾波算法重采樣過程中出現(xiàn)的樣本枯竭、粒子退化的問題,本文采用文獻[17]權值優(yōu)化方法進行重采樣。權值優(yōu)化重采樣計算方法如下:
首先設置權值閾值[Thr=ωk×μ],式中[ωk]是[k]時刻粒子平均權值,[0<μ<1],根據(jù)設置[μ]值大小可剔除權值過小的粒子來排除干擾,同時降低計算的復雜度。本文中[μ]設置為0.3,當[k]時刻第[i]個粒子的權值[ωik]小于閾值便舍棄該粒子,對經(jīng)閾值篩選后剩余的[m]個權值較大的粒子[ωik]求平均值,計算公式如下:
[ωik=1mi=1mωik]? ? ? ? ? ? ? ? ? ? (15)
在重采樣時權值小的粒子被舍棄,權值大的被保留并復制,在經(jīng)過若干次迭代遞推后會形成有效粒子減少,樣本枯竭的現(xiàn)象,很大程度地影響目標跟蹤的穩(wěn)定性。所以需對權值小于[ωik]的粒子做優(yōu)化處理,增大其重采樣時被選中的概率。優(yōu)化處理的計算公式如下:
[ωik=T-1Tωik+1Tωik,ωik<ωikωik=ωik,ωik≥ωik]? ? ? ? (16)
式中[T]取值為4,[ωik]是優(yōu)化處理后的權值。
2.4.6模板更新
傳統(tǒng)的粒子濾波跟蹤算法采用固定的目標模板,當運動目標發(fā)生方向、角度變化或旋轉時會出現(xiàn)誤差或跟蹤失敗,因此需策略性地更新模板來實現(xiàn)長時間穩(wěn)定跟蹤。本文采用度量當前候選模板和目標模板匹配度的Bhattacharyya系數(shù)來選擇模板更新的時刻[18]。具體算法是設置閾值[ρthr],當Bhattacharyya系數(shù)小于[ρthr]時說明當前候選模板與目標模板的匹配度低,需要實時更新模板,否則無須更新。目標模板更新策略的計算公式為:
[qk=αpk+(1-α)qk-1]? ? ? ? ? ? ? ?(17)
式中[qk]和[qk-1]表示當前幀和前一幀的目標模板,[pk]表示當前跟蹤目標直方圖,本文中加權系數(shù)[α]取值0.2,閾值[ρthr]取值0.7。
2.4.7算法流程
1) [k=1]時刻,在初始幀中人工選取跟蹤目標矩形區(qū)域,提取該區(qū)域的顏色特征[pC(zkxk)]、紋理特征[pT(zkxk)]、HOG特征[pE(zkxk)],根據(jù)目標狀態(tài)初始概率分布隨機采樣得到初始粒子集[xi1,ωi1Ni=1],表示第[k]幀第[i]個粒子的位置與權值,并將所有粒子等權重為[1N]。
2) [k=k+1]時刻,通過狀態(tài)轉移方程對重采樣的粒子集進行傳播,得到新的粒子集[xikNi=1],狀態(tài)轉移方程見式(18):
[xik=Axik-1+μik-1]? ? ? ? ? ? ? ? ?(18)
式中[A]是狀態(tài)轉移矩陣,[μik-1]是高斯噪聲。
3)求出各單特征對應的似然觀測模型,并根據(jù)式(14)求出每種特征的權值[ωi],并對其進行歸一化計算,根據(jù)式(13)得到三種特征融合后的自適應觀測模型[p(zkxk)]。
4)根據(jù)多特征融合的觀測模型更新權值,[ωik=ωik-1p(zkxk)],歸一化權值[ωik=ωik/i=1Nωik]。
5)采用加權求和的方法對目標狀態(tài)進行估計,[Xk=i=1Nωikxik]。
6)根據(jù)2.4.5所述的權值優(yōu)化的方法對粒子集[xik,ωikNi=1]進行權值優(yōu)化,后對該粒子集進行系統(tǒng)重采樣,得到新的粒子集[x'ik,ωikNi=1,][ωki=1/N]。
7)根據(jù)2.4.6所述的模板更新方法對目標模板實時更新。
8)當前幀數(shù)小于總幀數(shù)時返回步驟2,否則結束跟蹤。
3實驗結果及分析
選取智慧錄播教室錄制的時長6分53秒的教學視頻,像素352×288,包含教師講課、學生起立、相同服裝人物遮擋、跟蹤目標形變、旋轉、光照變化、出視野等多種場景及干擾因素,在硬件配置為Intel(R)Core(TM)i5-10400,主頻2.9GHz,內存8GB的臺式機上使用Matlab R2019a編程實現(xiàn)。
3.1運動目標檢測實驗
把上述實驗素材作為樣本,使用2.1.1介紹的三種運動目標檢測算法進行對比實驗,三種算法的示例如圖5所示。
示例圖是在前排相似目標干擾下對學生舉手起立場景進行檢測。從圖5中可以出,光流法和幀間差分法對幀間位移較小或靜止的目標檢測效果不如背景差分法。實驗采用檢測速度和正確率兩項指標考評,檢測速度的單位是FPS(frame/s),檢測正確率通過算法判斷運動目標出現(xiàn)的總幀數(shù)占實際幀數(shù)的百分比來計算,得出目標檢測算法的結果對比如表3所示:
通過表3可以看出,光流法因迭代計算量大,不適用于實時圖像處理;幀間差分法的檢測速度最優(yōu),但在精度上低于其他兩種算法,背景差分法保證了一定的檢測速度,同時擁有最高的精度。
3.2運動目標跟蹤實驗
在運動目標跟蹤實驗中,選擇單顏色特征粒子濾波(PF)、定值加權和粒子濾波(Constant weight)及本文算法(Proposed)進行對比實驗。仿真參數(shù)如下:Monte-Carlo仿真次數(shù)為100,單次仿真時長60,粒子數(shù)50,定值加權和粒子濾波的特征權重[ωC=ωT=ωE=1/3]。采用Monte-Carlo仿真的平均值來衡量,評價指標為跟蹤速度、均方根誤差(Root Mean Square Error ,RMSE) 、樣本協(xié)方差(Covariance,COV)。RMSE的計算方法見式(19)。
[RMSEk=1Mm=1MXmk-Xk2]? ? ? ? ? ? ? ? (19)
式中,M表示Monte-Carlo運行次數(shù),[Xmk]和[Xk]分別表示第m次觀測k時刻跟蹤目標的估計狀態(tài)和真實狀態(tài),三種算法的RMSE比較如圖6所示。
樣本協(xié)方差的計算方法見式(20)。
[COVk=1Mm=1Mtr(Cmk)]? ? ? ? ? ? ? ? ? (20)
式中,[Cmk]表示第m次觀測k時刻的粒子協(xié)方差矩陣,協(xié)方差表示狀態(tài)估計的置信度,協(xié)方差越小,粒子的空間分布越緊密,狀態(tài)估計的置信度越高。三種算法的樣本協(xié)方差比較如圖7所示。
通過表4可以看出,單顏色特征粒子濾波算法的實時性最強,樣本協(xié)方差最小,說明樣該算法的似然觀測模型令樣本容易快速收斂到高似然區(qū),但是在背景信息的影響下也容易放大噪聲,所以該算法的均方根誤差最大。本文算法的樣本協(xié)方差值大于單顏色特征粒子濾波,說明本文算法樣本分布的多峰性優(yōu)于單顏色特征,有利于抑制噪聲;小于定值加權和粒子濾波,說明與定值權重相比,自適應權重的概率密度的鑒別能力更強,所以本文算法的均方根誤差最小,基本滿足錄播系統(tǒng)的性能指標要求。
4結束語
圖像識別技術是計算機視覺領域的一個重要分支,是模式識別、圖像處理、計算機視覺、機器學習等學科的交叉研究,有著廣泛的應用前景[19]。本文研究的重點是適用于錄播系統(tǒng)的智能跟蹤,研究在課堂環(huán)境下特定運動目標的檢測識別及跟蹤技術。目標檢測階段采用背景差分算法,重點研究背景建模的建立、圖像閾值分割、形態(tài)學處理、輪廓提取技術;目標跟蹤階段,在粒子濾波框架下使用多特征表征目標,并采用組合權值優(yōu)化算法對重采樣前的粒子做優(yōu)化處理,避免出現(xiàn)樣本匱乏,同時結合自適應模板更新策略來減輕目標漂移。在實驗中采用實時性、正確率和樣本協(xié)方差三項指標與其他算法做橫向對比,實驗結果證明本文算法更具備綜合優(yōu)勢。
參考文獻:
[1] 中華人民共和國教育部.教育部關于印發(fā)《教育信息化“十三五”規(guī)劃》的通知[EB/OL].(2016-6-7)[2016-6-7].http://www.moe.gov.cn/srcsite/A16/s3342/201606/t20160622_26936 7.html.
[2] 宋香君.基于背景差法的籃球投籃軌跡自動捕捉方法研究[J].自動化與儀器儀表,2020(7):42-45.
[3] Cao B G. A new car-following model considering drivers sensory memory[J].Physica A:Statistical Mechanics and Its Applications,2015(427):218-225.
[4] 韓悅,金晅宏,郭旭,等.視頻序列中的運動目標檢測算法研究[J].電子測量技術,2019,42(13):103-106.
[5] 馬蕾,張忠秋,張娜娜.改進背景差分法的運動軌跡實時跟蹤方法[J].微型電腦應用,2021,37(9):27-29.
[6] 趙以國.課堂視頻錄播系統(tǒng)中運動目標檢測與跟蹤技術研究[D].南京:南京郵電大學,2015.
[7] 張麗,李瀟,吳皓天,等.基于最大類間方差的圖像分割算法研究[J].科技創(chuàng)新與應用,2021(8):39-41,46.
[8] 宋冬梅.數(shù)學形態(tài)學在數(shù)字圖像處理中的應用研究[J].計算技術與自動化,2021,40(2):136-139.
[9] 鄧小海,姜周曙.圖像識別技術在智慧教室錄播系統(tǒng)中的應用研究[J].電子技術應用,2020,46(3):92-96.
[10] 蘇高玲.智能視覺監(jiān)控系統(tǒng)中的運動目標跟蹤算法研究[D].沈陽:沈陽建筑大學,2015.
[11] 高海,韓洋.改進的粒子濾波目標跟蹤算法[J].包裝學報,2018,10(5):57-64.
[12] 劉昌旭.復雜環(huán)境下的粒子濾波目標跟蹤算法研究[D].蘭州:蘭州理工大學,2013.
[13] 張博,劉剛.基于相似性特征估計的目標跟蹤算法研究[J].激光與光電子學進展,2020,57(24):78-87. (下轉第105頁)
(上接第102頁)
[14] Dou J F,Li J X.Robust visual tracking base on adaptively multi-feature fusion and particle filter[J].Optik,2014,125(5):1680-1686.
[15] Ojala T,Pietikainen M,Maenpaa T.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.
[16] 龍君.基于特征融合與二級粒子濾波的目標跟蹤方法研究[D].長沙:湖南大學,2015.
[17] 杜正聰,辛強,鄧尋.基于權值優(yōu)化的粒子濾波算法研究[J].重慶師范大學學報(自然科學版),2015,32(3):124-129.
[18] 熊杰,吳曉紅,卿粼波,等.基于多特征融合的權值優(yōu)化粒子濾波目標跟蹤[J].電視技術,2017,41(S3):155-160.
[19] 張亞爍.基于機器學習的目標跟蹤算法研究[D].烏魯木齊:新疆大學,2020.
【通聯(lián)編輯:唐一東】