徐眾
(廣東工業(yè)大學(xué)機(jī)電工程學(xué)院,廣州 510006)
傳統(tǒng)的實(shí)體沙盤一般根據(jù)實(shí)際場(chǎng)景或地形圖按一定的比例制作,具有立體感強(qiáng),形象直觀等特點(diǎn)。在軍事、教學(xué)、旅游及房地產(chǎn)開發(fā)等諸多領(lǐng)域都有廣泛的應(yīng)用[1-2]。隨著計(jì)算機(jī)科學(xué)技術(shù)的發(fā)展,集成了聲、光、電的電子沙盤也應(yīng)運(yùn)而生。電子沙盤具有快速、簡(jiǎn)便、精確的特點(diǎn),因此展示效果也更加生動(dòng)和形象[3]。伴隨著沙盤展示的日益先進(jìn),交互性逐漸成為了影響沙盤展示的一個(gè)非常重要的標(biāo)準(zhǔn),交互性越高,交互方式越多樣,講解人員與沙盤的互動(dòng)性就越強(qiáng),展示效果就越好。目前,與沙盤的交互主要是通過觸摸屏來實(shí)現(xiàn),此外,利用手勢(shì)識(shí)別的交互、利用激光筆交互等系統(tǒng)的提出也很好的豐富了沙盤與人的互動(dòng)體驗(yàn)[4-7]。但這些交互系統(tǒng)的功能多數(shù)是為了更好地體驗(yàn)沙盤場(chǎng)景的動(dòng)態(tài)觀察方式,而對(duì)場(chǎng)景的漫游交互方面研究較少[8]。為此,本文提出一種面向?qū)嶓w沙盤場(chǎng)景漫游的交互,通過固定于沙盤平面下方的攝像頭對(duì)人物模型在實(shí)體沙盤上漫游的實(shí)時(shí)跟蹤、測(cè)距定位等計(jì)算機(jī)視覺技術(shù),實(shí)時(shí)測(cè)算出人物模型在沙盤上的朝向、方位角及二維坐標(biāo)等平面位姿信息。在進(jìn)行場(chǎng)景漫游時(shí),只要移動(dòng)人物模型使其在實(shí)體沙盤上漫游,通過坐標(biāo)系轉(zhuǎn)換把人物平面位姿信息實(shí)時(shí)映射到虛擬場(chǎng)景中的人物控制器上,就能同步控制虛擬場(chǎng)景中人物漫游的平面位姿,達(dá)到虛擬場(chǎng)景與現(xiàn)實(shí)場(chǎng)景同步漫游的聯(lián)動(dòng)交互效果,豐富了人與沙盤交互的體驗(yàn)性。
場(chǎng)景漫游的聯(lián)動(dòng)交互框架如圖1所示。
圖1 交互框架圖
硬件部分作為真實(shí)場(chǎng)景,主要包括沙盤實(shí)體模型、人物模型和一個(gè)USB攝像頭。本沙盤實(shí)體模型是基于已有的地鐵車站站廳的虛擬三維場(chǎng)景而設(shè)計(jì)的,總體尺寸與虛擬三維場(chǎng)景的尺寸嚴(yán)格按照1:80的比例制作。沙盤平面選用具有良好透光性的亞克力板作為材料,沙盤上所有的地鐵車站設(shè)備模型均通過3D打印制作。攝像頭固定放置在沙盤平面下方80cm處,能保證在攝像頭視角范圍內(nèi)拍攝到人物模型在沙盤平面上任何位置的移動(dòng)。在實(shí)體沙盤上,人物模型的平面位姿信息可以分解為三部分:人物的朝向、方位角和實(shí)時(shí)的二維坐標(biāo)(相對(duì)于場(chǎng)景)。為了獲得這些信息,在硬件設(shè)計(jì)上,我們通過在人物模型的底部安置紅、藍(lán)兩個(gè)不同顏色的LED燈這種設(shè)計(jì)思路來實(shí)現(xiàn)。當(dāng)移動(dòng)人物模型使其在實(shí)體沙盤上漫游時(shí),約定紅燈為前向,藍(lán)燈為后向,可以對(duì)應(yīng)描述虛擬場(chǎng)景漫游時(shí)人物的朝向;通過計(jì)算兩燈質(zhì)心所確定的直線與平面定位方法中定義的坐標(biāo)系x軸(或y軸)之間的夾角,可以對(duì)應(yīng)描述虛擬場(chǎng)景漫游時(shí)人物實(shí)時(shí)的方位角;通過攝像頭跟蹤兩燈的質(zhì)心在沙盤上的移動(dòng),可測(cè)算人物模型在沙盤上實(shí)時(shí)的平面二維坐標(biāo)。
綜上所述,在進(jìn)行場(chǎng)景漫游時(shí),如果能實(shí)時(shí)獲得人物模型在沙盤平面上的朝向、方位角和二維坐標(biāo),只要通過簡(jiǎn)單的坐標(biāo)系變換映射到虛擬場(chǎng)景的人物控制器上,虛擬場(chǎng)景中的人物便會(huì)隨著沙盤上人物模型的移動(dòng)而同步的進(jìn)行漫游,實(shí)現(xiàn)聯(lián)動(dòng)交互。因此,如何通過軟件部分來實(shí)時(shí)獲得人物模型在實(shí)體沙盤上漫游時(shí)的平面位姿信息,是整個(gè)聯(lián)動(dòng)交互的關(guān)鍵,也是本文的研究重心。
近年來,對(duì)于運(yùn)動(dòng)目標(biāo)的跟蹤,人們提出了許多算法,如基于區(qū)域的跟蹤、基于活動(dòng)輪廓的跟蹤、基于模型的跟蹤、基于特征的跟蹤方法[9]。本實(shí)驗(yàn)采取基于特征的跟蹤方法,利用人物模型底部的紅、藍(lán)兩個(gè)LED燈的顏色作為特征,對(duì)人物模型在沙盤上的移動(dòng)進(jìn)行跟蹤。由于圖像噪點(diǎn)的影響,如果單純?cè)跀z像頭拍攝到的全視角范圍內(nèi)通過顏色識(shí)別去捕捉LED燈的位置,往往誤差很大,而且在視角范圍內(nèi)出現(xiàn)相似顏色干擾的情況下,會(huì)直接定位到錯(cuò)誤的區(qū)域,導(dǎo)致跟蹤失敗?;谏鲜鲈?,實(shí)驗(yàn)中利用CamShift跟蹤算法[10],首先對(duì)人物模型整體進(jìn)行跟蹤,成功把兩個(gè)LED燈的信息限制在跟蹤搜索框內(nèi);再在此基礎(chǔ)上做了進(jìn)一步的改進(jìn):在CamShift算法每一幀實(shí)時(shí)跟蹤到的目標(biāo)搜索窗口中,進(jìn)行基于顏色識(shí)別的LED燈輪廓檢測(cè),最后分別計(jì)算紅、藍(lán)兩個(gè)燈的質(zhì)心作為最后的結(jié)果。為了優(yōu)化跟蹤的效果,我們加入自動(dòng)白平衡算法的預(yù)處理,來消除燈光、陰影等光照影響所導(dǎo)致的圖像色彩失真,從而提高跟蹤精度。整個(gè)跟蹤算法的詳細(xì)流程如圖2所示。
圖2 跟蹤算法流程圖
對(duì)于CamShift跟蹤算法,許多文獻(xiàn)都有詳細(xì)的介紹和研究。本文針對(duì)應(yīng)用的層面,主要介紹CamShift算法在應(yīng)用于本實(shí)驗(yàn)平臺(tái)上所做的優(yōu)化和改進(jìn)。
在對(duì)拍攝到的圖像進(jìn)行處理時(shí),由于圖像RGB的通道值受室內(nèi)燈光等的光照影響比較嚴(yán)重,像素值常常會(huì)發(fā)生一定程度的偏離,造成圖像顏色失真,會(huì)產(chǎn)生圖像整體發(fā)黃、發(fā)紅、或者發(fā)藍(lán)等視覺效果。即使轉(zhuǎn)換到HSV、CMY等顏色空間也解決不了。這對(duì)利用顏色特征進(jìn)行跟蹤的方法會(huì)產(chǎn)生很大的干擾,往往無法確定顏色準(zhǔn)確的閾值。在本實(shí)驗(yàn)中,加入了對(duì)圖像白平衡的調(diào)整算法。該算法是基于灰度世界的圖像自動(dòng)白平衡算法,算法的策略是假設(shè)R,G,B三個(gè)分量的均值趨于同一個(gè)灰度閾值K,利用該閾值去調(diào)整每個(gè)顏色通道的值[11-12]。算法的步驟如下:
1.分離RGB三個(gè)通道;
2.計(jì)算RGB分量的均值Raver,Baver,Gaver;
3.令 K=(Raver+Baver+Gaver)/3;
4.計(jì)算需要調(diào)整的RGB分量的增益值:
Kr=K/Raver,Kg=K/Gaver,Kb=K/Baver;
5.利用各通道的增益調(diào)整各自的值:
Rnew=R×Kr,Gnew=G×Kg,Bnew=B×Kb;
6.合并RGB三通道圖像
在第4步中,調(diào)整后的值有時(shí)會(huì)溢出(>255),采用的處理方式是計(jì)算所有Rnew,Gnew,Bnew的最大值,利用該最大值將計(jì)算后的數(shù)據(jù)重新映射到[0,255]內(nèi)。在經(jīng)過自動(dòng)白平衡的修正之后,能夠很好地消除圖像受光照的影響,使圖像的像素閾值得到還原,不僅能優(yōu)化CamShift對(duì)目標(biāo)跟蹤的成功率,也能大幅提高在對(duì)跟蹤到的窗口中識(shí)別紅、藍(lán)LED燈的準(zhǔn)確率。
利用CamShift算法成功跟蹤到目標(biāo)后,在其跟蹤框內(nèi),對(duì)LED燈的顏色進(jìn)行識(shí)別并計(jì)算各自的質(zhì)心。
(1)用HSV顏色空間閾值描述紅、藍(lán)色彩
由于HSV顏色空間比RGB顏色空間更符合人們對(duì)色彩的解釋和描述,這里同樣用HSV空間來描述LED燈的兩種顏色。在RGB空間中,純正的藍(lán)色在三通道中可以表示為[0,0,255],紅色則可表示為[255,0,0],經(jīng)過顏色空間轉(zhuǎn)換計(jì)算,在HSV空間中,得到藍(lán)色的閾值大約為[120,255,255],紅色的閾值大約為[170,255,255]。根據(jù)實(shí)驗(yàn)測(cè)試,分別在H通道做數(shù)值為10的上下邊界調(diào)整,最終我們?nèi)110,100,100]作為下邊界,取[130,255,255]作為上邊界來判斷藍(lán)色區(qū)域;同理,取[160,100,100]作為下邊界,[179,255,255]作為上邊界來判斷紅色區(qū)域。
(2)提取LED燈輪廓
通過顏色區(qū)域的判斷,在跟蹤窗口中分別識(shí)別出兩個(gè)LED燈的區(qū)域,把這兩個(gè)區(qū)域灰度圖合并,制作成掩膜,然后與源圖像疊加并進(jìn)行位或運(yùn)算。經(jīng)過處理后,此時(shí)跟蹤框中的圖像轉(zhuǎn)換成顯示兩個(gè)LED燈區(qū)域的二值圖,便可提取LED燈各自的輪廓。
(3)計(jì)算輪廓的質(zhì)心
利用兩燈各自的輪廓,計(jì)算輪廓的幾何矩。圖像幾何矩的計(jì)算如式(1):
式中,I(i,j)為圖像在坐標(biāo)(i,j)處的灰度值。繼而可通過式(2)計(jì)算LED燈輪廓的質(zhì)心:
改進(jìn)后的方法能夠較好地對(duì)目標(biāo)進(jìn)行跟蹤。圖3為程序運(yùn)行時(shí)的效果圖,可以看到,當(dāng)人物模型在沙盤上任意移動(dòng)時(shí),其底部的紅、藍(lán)兩個(gè)LED燈能被準(zhǔn)確且實(shí)時(shí)的跟蹤到。通過該方法,即能實(shí)時(shí)對(duì)人物模型在沙盤上的移動(dòng)進(jìn)行跟蹤和定位。同時(shí),在程序運(yùn)行時(shí)的幀率基本穩(wěn)定在23幀/秒,能基本滿足對(duì)運(yùn)動(dòng)目標(biāo)跟蹤的實(shí)時(shí)性。
圖3 跟蹤效果圖
實(shí)驗(yàn)中,固定于沙盤下方的攝像頭由于制作精度等因素,很難通過人為的調(diào)整使其成像平面嚴(yán)格平行于沙盤平面。而當(dāng)攝像頭和目標(biāo)平面有一個(gè)傾斜角地情況下,采集到的圖像會(huì)存在透視畸變。為了準(zhǔn)確的求得人物模型在沙盤平面上的位姿,針對(duì)空間中的平面坐標(biāo),提出通過透視變換進(jìn)行平面標(biāo)定的方法,使攝像頭視圖轉(zhuǎn)換到從下到上的正視視圖,利用在正視視圖中,固定尺度所占的像素個(gè)數(shù)與實(shí)際值的對(duì)應(yīng)比例關(guān)系,即可以實(shí)現(xiàn)平面定位的目的。
圖像中的像素坐標(biāo)只提供了二維信息,而空間坐標(biāo)是三維信息,只有讓空間坐標(biāo)的一維為0或固定值,才可以測(cè)得平面信息距離。攝像頭坐標(biāo)系和世界坐標(biāo)系模型如圖4。
圖中(xc,yc,zc)為點(diǎn)P的相機(jī)坐標(biāo),(u,v)為點(diǎn)P的圖像坐標(biāo),f為相機(jī)焦距。
令Zw=0來定義物體平面,則攝像機(jī)坐標(biāo)系和世界坐標(biāo)系的位姿關(guān)系如下:
式中,r1,r2為旋轉(zhuǎn)矩陣的前兩個(gè)分量,t為平移向量。
把Zc作為縮放因子,上式可轉(zhuǎn)換成如下形式:
因此,只要知道單應(yīng)性矩陣H,就可進(jìn)行平面標(biāo)定。
圖4 攝像頭坐標(biāo)系和世界坐標(biāo)系模型
由于沙盤材質(zhì)的透明度很高,要想在圖像中直接提取沙盤自身的特征信息尤為困難。本文中,我們利用貼在沙盤背面用于定位各個(gè)設(shè)備區(qū)域的矩形標(biāo)識(shí),使用圖像分割技術(shù)提取其角點(diǎn)作為特征點(diǎn),用于計(jì)算單應(yīng)性變換矩陣H。圖5為標(biāo)定后的攝像頭所拍攝圖像的裁剪圖。圖中顯示了貼有包括閘機(jī)、售票機(jī)、電梯、手扶梯共9個(gè)設(shè)備區(qū)域的矩形標(biāo)識(shí),空白處為人物模型的漫游范圍。
圖5 沙盤背面拍攝圖像
下面對(duì)基于平面標(biāo)定的人物模型在實(shí)體沙盤上的定位方法進(jìn)行介紹。
(1)圖像分割
把拍攝的圖像做高斯濾波后,利用Canny算子提取邊緣信息,過濾掉無法閉合的邊緣,把設(shè)備區(qū)域標(biāo)識(shí)邊緣的外部輪廓提取出來。
(2)曲線擬合
由于提取的邊緣可能是不規(guī)則的曲線,本文中采用Douglas-Peucker算法對(duì)各個(gè)邊緣曲線用多邊形逼近擬合,設(shè)定逼近精度如式(5):
L為輪廓的周長(zhǎng),0.02為經(jīng)驗(yàn)系數(shù)。逼近精度約束了近似曲線與原始曲線間的最大值。
(3)提取角點(diǎn)
經(jīng)過擬合后的邊緣輪廓線,我們壓縮其水平方向、垂直方向和對(duì)角線方向元素,只保留該方向的終點(diǎn)坐標(biāo),則每個(gè)標(biāo)識(shí)的邊緣輪廓可以用四個(gè)角點(diǎn)來表示。再次過濾掉不符合四點(diǎn)表示的邊緣輪廓,最終可以得到所有設(shè)備區(qū)域標(biāo)識(shí)的角點(diǎn)。
理論上,單應(yīng)性矩陣的計(jì)算只需要4組對(duì)應(yīng)點(diǎn),因此可以任選其中一個(gè)矩形標(biāo)識(shí),用代表標(biāo)識(shí)的四個(gè)角點(diǎn)坐標(biāo)來進(jìn)行平面標(biāo)定。本文中選擇代表電梯區(qū)域的標(biāo)識(shí),如圖 6 所示,圖中(a)為電梯標(biāo)識(shí),(b)為標(biāo)識(shí)經(jīng)過擬合的邊緣輪廓,圖(c)標(biāo)記出了標(biāo)識(shí)邊緣輪廓的四個(gè)角點(diǎn)。
圖6 電梯標(biāo)識(shí)的角點(diǎn)提取
(1)平面坐標(biāo)系的定義
定義一個(gè)平面坐標(biāo)系。由于所選標(biāo)識(shí)的實(shí)際形狀是一個(gè)正方形,而從圖中可以看出,標(biāo)識(shí)的經(jīng)過擬合后的邊緣輪廓有輕微變形,這便是攝像頭的成像平面未能嚴(yán)格平行沙盤平面而產(chǎn)生的透視畸變效果所導(dǎo)致。為了消除這種畸變,這里我們把標(biāo)識(shí)的左上角點(diǎn)定義為平面坐標(biāo)系原點(diǎn),根據(jù)左上、左下、右下、右上的角點(diǎn)順序,依次把四個(gè)角點(diǎn)在世界中的平面坐標(biāo)定義為(0,0)、(0,d)、(d,d)、(d,0),坐標(biāo)中的d為方形標(biāo)識(shí)的實(shí)際邊長(zhǎng)。
(2)計(jì)算單應(yīng)性矩陣
把角點(diǎn)的平面坐標(biāo)和圖像坐標(biāo)按對(duì)應(yīng)順序代入式(4),可求得最終用于平面標(biāo)定的單應(yīng)性矩陣H。最后,通過單應(yīng)性矩陣H把原圖像幀的視圖轉(zhuǎn)換為正視視圖,即實(shí)現(xiàn)了的平面標(biāo)定的目的。
把所求得的單應(yīng)性矩陣H應(yīng)用于原圖像幀,通過式(6)得到目標(biāo)圖像幀:
其中,x、y為原圖像幀中的像素坐標(biāo);xdst,ydst為目標(biāo)圖像幀中的像素坐標(biāo)。
為矩陣H中所對(duì)應(yīng)的元素。
式(6)為一個(gè)非線性方程組,
令
故可把s、t、k看作常量。經(jīng)過變換,可以把式(6)轉(zhuǎn)換為線性的形式,如式(7):
由式(7)分析可知,單應(yīng)性矩陣H的元素H33與坐標(biāo)呈線性單減關(guān)系,故可通過調(diào)整H33的值對(duì)轉(zhuǎn)換后的圖像進(jìn)行縮放,從而設(shè)置一個(gè)合適的尺度便于平面定位的計(jì)算。本文中,通過調(diào)整H33=15,使方形電梯標(biāo)識(shí)的實(shí)際邊長(zhǎng)d在圖像中對(duì)應(yīng)85個(gè)像素,即尺度比例T為d:85。當(dāng)?shù)玫綀D像幀中目標(biāo)物的像素坐標(biāo)時(shí),就可以通過該尺度比例的換算,計(jì)算出目標(biāo)物的實(shí)際坐標(biāo),從而實(shí)現(xiàn)了目標(biāo)物的平面定位。圖7為圖5經(jīng)過標(biāo)定后的正視圖,圖中的坐標(biāo)系為3.2節(jié)中定義的平面坐標(biāo)系。最后把所得到的矩陣H應(yīng)用于攝像頭拍攝到的全幅圖像幀中即可實(shí)現(xiàn)全圖的平面標(biāo)定。
圖7 平面標(biāo)定后的正視圖
由于對(duì)紅、藍(lán)兩燈的跟蹤與定位情形相同,只需選擇其中一個(gè)進(jìn)行精度分析即可。試驗(yàn)中選擇紅色LED燈進(jìn)行分析,分別對(duì)LED燈到平面坐標(biāo)系x軸和y軸距離的計(jì)算值和測(cè)量值進(jìn)行對(duì)比。截取程序運(yùn)行過程中的幾幅圖像幀,如圖8所示,圖中的紅色框?yàn)楦櫟降娜宋锬P停騼?nèi)的兩個(gè)黑色點(diǎn)為L(zhǎng)ED燈的質(zhì)心。對(duì)圖中紅色LED燈的平面二維坐標(biāo)計(jì)算結(jié)果如表1。
圖8 實(shí)驗(yàn)中截取的圖像幀
表1 紅色LED燈的二維坐標(biāo)
從表1中可以看出,在截取的后兩幅圖像幀中,計(jì)算得到的LED燈質(zhì)心的坐標(biāo)值與實(shí)際測(cè)量值之間有較大誤差。通過多次采樣對(duì)比發(fā)現(xiàn),當(dāng)LED燈質(zhì)心與坐標(biāo)系x軸的距離大于35mm時(shí),誤差開始增大。經(jīng)過分析,誤差產(chǎn)生的主要原因是因?yàn)橄鄼C(jī)鏡頭的標(biāo)定誤差導(dǎo)致。但這種誤差是系統(tǒng)誤差,可以通過校正得到解決。根據(jù)實(shí)驗(yàn)中的采樣結(jié)果,我們做以下調(diào)整:當(dāng)LED燈質(zhì)心與坐標(biāo)系x軸的距離為35mm-50mm時(shí),調(diào)整尺度比例T為d:88.2;當(dāng)距離大于50mm時(shí),調(diào)整尺度比例T為d:90.5。調(diào)整后,再次隨機(jī)截取圖像幀進(jìn)行采樣分析,定位結(jié)果如表2所示。表2中的分析結(jié)果顯示,當(dāng)經(jīng)過誤差校正后,LED燈坐標(biāo)的誤差值均不超過1cm,最大誤差率控制在5%范圍內(nèi),這表明本文提出的方法能夠滿足沙盤平面定位的精度要求。
表2 校正后的紅色LED燈二維坐標(biāo)對(duì)比結(jié)果
本文提出的目標(biāo)跟蹤程序與平面定位程序均通過OpenCV實(shí)現(xiàn)。綜合程序運(yùn)行時(shí)所獲取的朝向、方位角與平面二維坐標(biāo)信息,通過平面坐標(biāo)系變換把在現(xiàn)實(shí)場(chǎng)景漫游時(shí)人物模型的位姿轉(zhuǎn)換成虛擬場(chǎng)景中漫游的人物位姿。把編譯后的程序?qū)險(xiǎn)nity3D的三維場(chǎng)景中,通過人物控制器腳本的調(diào)用,可達(dá)到良好的同步漫游效果。圖(9)為聯(lián)動(dòng)交互效果圖,從圖中可看出,當(dāng)使白色的人物模型在實(shí)體沙盤上漫游至電梯模型處時(shí),虛擬場(chǎng)景中的人物也會(huì)同步漫游至電梯處,如圖(a);當(dāng)使人物模型漫游至售票機(jī)處時(shí),虛擬場(chǎng)景中的人物同樣會(huì)同步漫游至售票機(jī)處,如圖(b),且人物漫游定位精確,較好地實(shí)現(xiàn)了地鐵站廳虛實(shí)場(chǎng)景漫游的聯(lián)動(dòng)交互,豐富了沙盤交互的體驗(yàn)性和功能性。
圖9 虛實(shí)場(chǎng)景漫游的聯(lián)動(dòng)交互效果
[1]程忠波.淺析數(shù)字沙盤的設(shè)計(jì)與應(yīng)用[J].電子制作,2014(24):68-68.
[2]王亞麗.基于圖像的激光光斑識(shí)別和特性分析[D],長(zhǎng)春理工大學(xué),2008.
[3]陳海漢.面向航跡規(guī)劃的電子沙盤技術(shù)研究[D],2009.
[4]J Molina,M Escudero-Vi?olo,A Signoriello,M Pardàs,C Ferrán.Real-Time User Independent Hand Gesture Recognition from Timeof-flight Camera Video Using Static and Dynamic Models[J].Machine Vision&Applications,2013,24(01):187-204.
[5]Mischa Spiegelmock.Leap motion Development Essentials[M].Birmingham,UK:PacktPublishing,2013,10:47-61.
[6]LinDaogui.Research on Presentation of Multime-Dia Interactive Electronic Sand Table[C].2015 International Conference on Education Technology and Economic Management.Atlantis Press,2015.
[7]嚴(yán)一鳴,郭星.基于計(jì)算機(jī)視覺的交互式電子沙盤系統(tǒng)研究[J].計(jì)算機(jī)技術(shù)與發(fā)展,2017(06):195-198.
[8]Pollefeys M,Koch R,Vergauwen M,et al.Three-Dimensional Scene Reconstruction from Images[C].Three-Dimensional Image Capture and App licationsⅢ,Washington:SPIE,2000:215-226.
[9]Deng Y,Wu L,He Y.A Novel Approach to Analyzing Object Motion Behavior[A].Eighth International Conference on Intelligent Information Hiding and Multimedia Signal Processing[C].IEEE Computer Society,2012:395-398.
[10]Exner D,Bruns E,Kurz D,et al.Fast and Robust CAMShift Tracking[A].IEEE Computer Society Conference on Computer Vision&Pattern Recognition-workshops[C].IEEE,2010:9-16.
[11]F Gasparini,R Schettin.Color Correction for Digital Photographs[C].Proceedings of the 12th Intemational Conference on Image Analysis and Processing.IEEE 2003.
[12]史榕.自動(dòng)白平衡算法的研究與實(shí)現(xiàn)[J],2012(03):85-93.