畢福昆,陳 禾,師 皓,章菲菲
(1.北方工業(yè)大學(xué)電子信息工程學(xué)院,北京 100144;2.北京理工大學(xué)雷達(dá)技術(shù)研究所,北京 100081)
?
機載復(fù)雜遙感場景下特定建筑區(qū)檢測跟蹤算法
畢福昆1,陳禾2,師皓2,章菲菲2
(1.北方工業(yè)大學(xué)電子信息工程學(xué)院,北京 100144;2.北京理工大學(xué)雷達(dá)技術(shù)研究所,北京 100081)
特定建筑區(qū)域的自動檢測及跟蹤在機載遙感視頻數(shù)據(jù)處理中具有重要意義,是非懸停機載平臺面向任務(wù)對地搜尋及火控系統(tǒng)引導(dǎo)的關(guān)鍵技術(shù)之一.針對實際復(fù)雜應(yīng)用場景,提出一種特定建筑區(qū)檢測跟蹤算法.首先,將離線獲得的目標(biāo)區(qū)參考圖進(jìn)行局部描述子特征提取.目標(biāo)區(qū)在線檢測階段,為保證時效性,提出基于邊緣顯著性的快速SIFT (Scale Invariant Feature Transform) 特征提取方法,對待檢測大視場圖像中疑似建筑區(qū)域提取局部描述子特征;并通過設(shè)計層次化的特征點匹配方法實現(xiàn)目標(biāo)區(qū)的高可靠檢測.目標(biāo)區(qū)在線跟蹤階段,通過自適應(yīng)開窗及軌跡預(yù)測技術(shù)有效圈定疑似目標(biāo)區(qū),并在圈定的有限范圍內(nèi)進(jìn)行最終目標(biāo)確認(rèn)及穩(wěn)定跟蹤.實測數(shù)據(jù)仿真結(jié)果表明,本文提出的算法能在復(fù)雜場景條件下,實現(xiàn)對特定建筑區(qū)域的快速檢測及穩(wěn)定跟蹤.可為將來實際系統(tǒng)應(yīng)用提供關(guān)鍵技術(shù)支撐.
機載視頻跟蹤;建筑區(qū)檢測;局部描述子;復(fù)雜場景
特定建筑區(qū)域的自動檢測及跟蹤在機載遙感視頻數(shù)據(jù)處理中具有重要意義,是非懸停機載平臺面向任務(wù)對地搜尋及火控系統(tǒng)引導(dǎo)的關(guān)鍵技術(shù)之一.該技術(shù)主要包括特定建筑區(qū)的檢測及跟蹤兩個階段.針對復(fù)雜視場遙感圖像建筑區(qū)檢測問題,Thales等考慮到頂視遙感圖像中建筑往往表現(xiàn)為具有局部同質(zhì)特性(homogeneous)的矩形區(qū)域,通過同質(zhì)區(qū)細(xì)分割結(jié)合區(qū)域鄰近圖(Region Adjacency Graph,RAG)整合的方法成功提取建筑區(qū)[1].但該方法難以解決結(jié)構(gòu)復(fù)雜建筑的檢測問題.為此,近期有學(xué)者采用了圖像檢測領(lǐng)域較為成功的局部描述子技術(shù)進(jìn)行改進(jìn)[2~4],但這類方法提取局部描述特征時需要掃描整個視場,將產(chǎn)生巨大的運算量;此外,復(fù)雜大視場關(guān)鍵點匹配階段往往容易出現(xiàn)誤配,嚴(yán)重影響檢測效果.這些缺陷都使該類算法在遙感視頻應(yīng)用中具有局限性.當(dāng)特定建筑區(qū)得到檢測后,算法會轉(zhuǎn)入跟蹤階段.已有利用局部描述子技術(shù)的跟蹤算法中[5~8],雖然引入了不少如粒子濾波等新技術(shù),但對實時圖中目標(biāo)確認(rèn)的階段往往候選范圍較大,且缺乏目標(biāo)整體運動趨勢的預(yù)測,容易導(dǎo)致跟蹤失敗.
針對以上技術(shù)存在的局限性及復(fù)雜背景下高時效應(yīng)用的需求,結(jié)合建筑區(qū)域的結(jié)構(gòu)特點,本文提出一種復(fù)雜場景下特定建筑區(qū)快速檢測跟蹤算法.
首先,在離線狀態(tài)下,對參考圖進(jìn)行局部描述子特征提取.在線狀態(tài)下,根據(jù)邊緣顯著性只對大視場實時圖的疑似建筑邊緣鄰域進(jìn)行局部描述子特征提取;接著,以層次化的篩選方式獲得正確的匹配點對,實現(xiàn)目標(biāo)初始區(qū)域快速檢測.最后,通過拋物線外推軌跡預(yù)測及自適應(yīng)開窗方法截取僅包含目標(biāo)的有限區(qū)域,進(jìn)行目標(biāo)動態(tài)確認(rèn)和跟蹤.算法整體流程如圖1所示.
2.1參考圖SIFT特征離線提取
對選定的建筑區(qū)參考圖離線提取SIFT(Scale Invariant Feature Transform)局部描述子特征[9].該特征對圖像縮放、旋轉(zhuǎn)甚至仿射變換具有不變性,對視角變化及噪聲也具有一定魯棒性[9~11].提取過程簡述如下:
(1)對參考圖像連續(xù)進(jìn)行Gaussian卷積和2倍下采樣,產(chǎn)生高斯金字塔L:
L(x,y,σ)=G(x,y,σ)*I(x,y)
(1)
(2)
其中,G為尺度可變高斯函數(shù),I表示原始輸入圖像.高斯金字塔中相鄰兩圖相減,得到差分金字塔D(x,y,σ)=L(x,y,kσ)-L(x,y,σ),并對其進(jìn)行極值點檢測.
(2)關(guān)鍵點篩選.對尺度空間DOG函數(shù)按照Taylor公式展開并進(jìn)行三維二次曲線擬合.設(shè)定閾值,剔除對比度低的極值點,并利用二階Hessian矩陣去除邊緣響應(yīng)強烈的極值點,最后剩下的稱關(guān)鍵點.
(3)利用鄰域像素梯度方向分布特性,為每個關(guān)鍵點指定方向.計算關(guān)鍵點鄰域像素梯度的幅度和方向,按梯度角度進(jìn)行幅度直方圖統(tǒng)計以確定關(guān)鍵點的主、輔方向.
(4)對所有關(guān)鍵點的鄰域按照關(guān)鍵點主方向進(jìn)行旋轉(zhuǎn),鄰域半徑確定如下式:
(3)
其中:d=4,σoct為關(guān)鍵點的組內(nèi)尺度.然后對關(guān)鍵點周圍圖像區(qū)域分塊,計算塊內(nèi)梯度直方圖,生成具有獨特性的128維向量,并對該向量進(jìn)行梯度幅度限制和向量歸一化,最終得到SIFT局部描述子特征.
2.2特定建筑區(qū)快速檢測
2.2.1基于邊緣顯著性的場景匹配特征快速提取
待搜尋的實時圖具有范圍大、場景復(fù)雜等特點.若按傳統(tǒng)SIFT算法進(jìn)行整圖范圍的局部描述子特征提取,將會由于產(chǎn)生大量的關(guān)鍵點而需要過多的局部描述子計算時間.使整個算法流程無法從檢測階段穩(wěn)定可靠地轉(zhuǎn)為跟蹤階段.
邊緣顯著性是建筑區(qū)相對于其它地物的明顯差異特性,也是產(chǎn)生高可靠匹配局部描述子的主要聚集區(qū)域.根據(jù)該特性,本文首先對由原圖產(chǎn)生的高斯差分金字塔每組第一層圖像進(jìn)行基于OTSU自適應(yīng)閾值分割,獲得實時圖中的顯著邊緣區(qū)域.為保證建筑區(qū)匹配點的充足性,再進(jìn)行形態(tài)學(xué)二值膨脹操作使顯著邊緣的周圍鄰域也納入搜尋關(guān)鍵點的范圍.
Msalient=DL(Otsu(D(x,y,k1σ))
(4)
其中D(x,y,k1σ)表示每組金字塔的底層圖像,Otsu(·)表示Otsu自適應(yīng)閾值分割操作,DL(·)表示形態(tài)學(xué)二值膨脹操作.接著在關(guān)鍵點生成環(huán)節(jié),只對D(x,y,σ)對應(yīng)的邊緣顯著區(qū)Msalient進(jìn)行極值點檢測,并由此產(chǎn)生關(guān)鍵點.最后按SIFT局部描述子生成方式可快速計算出少量穩(wěn)定的待匹配局部描述子.由圖3(e)和圖3(f)的對比可看出相比于傳統(tǒng)的SIFT算法,本文對整圖提取得到的關(guān)鍵點總數(shù)明顯減少,但具有建筑邊緣顯著性的區(qū)域關(guān)鍵點數(shù)并未顯著下降,保證了后續(xù)有效匹配局部描述子的數(shù)量.
2.2.2層級化的關(guān)鍵點精確匹配
在離線獲取參考圖的局部描述子特征,及在線快速提取基于邊緣顯著性的場景匹配特征后,為實現(xiàn)關(guān)鍵點的精確匹配,本文采用層級化由“粗”到“精”的匹配策略.主要分為以下3個遞進(jìn)的匹配層次:
(1)初步匹配.在該階段,本文采用最鄰近距離比例的方法(Nearest Neighbor Distance Ratio,NNDR)[9].首先對實時圖像中的每個關(guān)鍵點,計算參考圖像中與之SIFT特征向量間歐氏距離最近及次近的關(guān)鍵點;其次,計算這兩個距離的比例,以確定是否需要將測試圖中的最近關(guān)鍵點作為當(dāng)前參考圖中所考察關(guān)鍵點的匹配點.
(2)剔除“多對一”的誤匹配點.由于實時圖相對于參考圖來說存在噪聲及各種空間變化,而初步匹配是從實時圖中尋找與參考圖中關(guān)鍵點匹配的點對,可能在實時圖的關(guān)鍵點中存在兩個甚至多個匹配上參考圖同一個關(guān)鍵點的情況.去除這種“多對一”的誤匹配點,只需將匹配對的坐標(biāo)按照實時圖中的匹配結(jié)果排序,剔除多余的匹配點,即可得到一一對應(yīng)的匹配點對.
(3)剔除不符合建筑區(qū)聚集性的錯誤匹配對.由于真實場景的復(fù)雜性,匹配上的局部區(qū)域可能具有近似的局部特點但位于不同建筑區(qū)中.考慮到本文應(yīng)用中一次只對同一指定建筑區(qū)進(jìn)行檢測跟蹤,匹配上的關(guān)鍵點應(yīng)集中于同一建筑區(qū)域內(nèi).利用該特性剔除不符合建筑區(qū)聚集性的錯誤匹配對:
將參考圖中匹配關(guān)鍵點i的位置定義為ri=(xi,yi),其所有匹配點的質(zhì)心坐標(biāo)為c1;實時圖中匹配關(guān)鍵點j的坐標(biāo)定義為sj=(xj,yj),其所有匹配點的質(zhì)心坐標(biāo)為c2,對于一個匹配對(ri,sj)定義比值R(i,j)=d(ri,c1)/d(sj,c2).其中d(·)表示歐氏距離.由于建筑區(qū)域的聚集性,匹配點對距離各自質(zhì)心的距離比值應(yīng)當(dāng)相近.利用這一特性可進(jìn)行離群錯誤點對的剔除.進(jìn)一步考慮到如果某一錯誤匹配點與目標(biāo)建筑區(qū)的距離較遠(yuǎn),會將質(zhì)心坐標(biāo)拉到遠(yuǎn)偏離目標(biāo)區(qū)域的位置,使剔除失效.因此需首先定位可靠質(zhì)心再剔除離群點.為此,本文設(shè)計的策略是第一次剔除中只保留比值與均值很接近的少量點對,以確定各自的可靠質(zhì)心位置.第二次再遍歷所有的匹配點對將比值偏離比值均值較大的點對剔除.典型示例如圖4所示.
2.3特定建筑區(qū)穩(wěn)定跟蹤
由于本文研究的是非懸停狀態(tài)機載平臺,目標(biāo)區(qū)相對于機載平臺有相對運動.因此,在對目標(biāo)建筑區(qū)域檢測后,需要對其進(jìn)行穩(wěn)定的鎖定跟蹤,主要包括以下三個環(huán)節(jié):
2.3.1實時圖初始目標(biāo)區(qū)域范圍圈定
在完成特定建筑區(qū)檢測后,整個算法可轉(zhuǎn)到跟蹤階段.該階段首先需要對實時圖進(jìn)行初始目標(biāo)區(qū)域范圍的圈定.從檢測階段最終確定的局部特征匹配點對中隨機選取3對,參考圖匹配點為:(x1,y1),(x2,y2),(x3,y3),與之對應(yīng)實時圖的匹配點為:(x1′,y1′),(x2′,y2′),(x3′,y3′),代入仿射變換模型:
(5)
為方便表示,將上式寫成:AX=b,則可以得:
(6)
通過上式可得到仿射變換矩陣X.實時圖中初始目標(biāo)范圍的確定,可通過將參考圖四個頂點坐標(biāo)帶入變換模型得到實時圖中對應(yīng)目標(biāo)區(qū)的頂點位置.因為當(dāng)前幀與下一幀間機載平臺相對于目標(biāo)可能存在運動,因此需對計算出的目標(biāo)初始位置進(jìn)行適當(dāng)外擴.由此得到的范圍就是下一幀圖像待匹配跟蹤的區(qū)域.同法,由參考圖中的質(zhì)心坐標(biāo)可以獲得實時圖中的目標(biāo)初始質(zhì)心坐標(biāo).
2.3.2動態(tài)局部跟蹤區(qū)域確定
2.3.3跟蹤目標(biāo)確認(rèn)
在獲得可能存在目標(biāo)的局部跟蹤范圍后,在下一幀實時圖中只需提取該局部跟蹤范圍的SIFT局部描述子特征,與參考圖進(jìn)行特征匹配確認(rèn).若無法確認(rèn)則表示目標(biāo)已消失或移除視場之外.對跟蹤階段的后兩個環(huán)節(jié)循環(huán)往復(fù)可實現(xiàn)對特定建筑區(qū)域的穩(wěn)定跟蹤鎖定.
為了驗證所提出檢測跟蹤算法的性能及效率,本文設(shè)計了定性及定量的實驗方法,將算法在真實復(fù)雜視頻場景中進(jìn)行測試.實驗數(shù)據(jù)來源于網(wǎng)絡(luò)公開無人機視頻,特定建筑區(qū)參考圖從視頻近視場中截取,指定為其中的小型機場區(qū)域尺寸為160*110像素,如圖2(a).測試視頻數(shù)據(jù)場景尺寸為384*512像素,典型幀如圖3(a)所示,其中包含了農(nóng)田、路網(wǎng)、植被及其它人造區(qū)域.隨著機載平臺的無規(guī)則移動,測試視頻中目標(biāo)區(qū)域從無到有,并且包括多種典型空間變換:旋轉(zhuǎn)、尺度變換、照明變換、仿射變換及部分移出視場之外.所有的實驗均以Matlab2013a編程實現(xiàn),實驗平臺為Intel 2.4G CPU,4G內(nèi)存的PC機.
3.1檢測階段實驗及分析
為驗證檢測階段的性能,采用傳統(tǒng)SIFT匹配檢測算法[9]及最新提出以效率著稱的SURF(Speeded-Up Robust Features)匹配檢測算法[12],與本文檢測階段算法比較,并對比分析它們的計算效率.圖5各子圖分別是各算法對典型測試場景提取有效關(guān)鍵點的情況及與參考圖匹配檢測的情況.
為定量分析三種算法的性能和效率,提取視頻中非連續(xù)的300幀圖像進(jìn)行匹配檢測實驗,并統(tǒng)計測試幀關(guān)鍵點數(shù),匹配對點數(shù)及運算時間三種衡量指標(biāo),下表給出所有測試幀指標(biāo)的統(tǒng)計平均值.
表1 定量比較實驗結(jié)果
對比分析三種算法的關(guān)鍵點提取情況:傳統(tǒng)SIFT算法提取到的關(guān)鍵點數(shù)量較多且分布廣泛,非平坦區(qū)域均有分布;SURF算法就是為了解決傳統(tǒng)SIFT算法處理時間過長而提出的,其關(guān)鍵點數(shù)量相比于傳統(tǒng)SIFT算法有所減少;本文檢測階段算法由于考慮了建筑區(qū)的邊緣顯著性,關(guān)鍵點總數(shù)明顯下降,僅為傳統(tǒng)SIFT算法的55.78%,并且從圖5可以看出篩減掉的關(guān)鍵點大多位于植被、地表等非建筑區(qū)灰度突變處,所提取的關(guān)鍵點密布于邊緣特性顯著的區(qū)域,這些區(qū)域是存在建筑的高概率區(qū)域.
從表1匹配上的關(guān)鍵點對情況看,三種算法正確匹配上的關(guān)鍵點對數(shù)目相近.所提出的算法并沒有因為提取的關(guān)鍵點總數(shù)明顯少于兩種比較算法而使正確匹配點對數(shù)急劇下降.這說明在檢測階段本文算法通過邊緣顯著性篩減了大量與建筑區(qū)檢測無關(guān)的關(guān)鍵點,同時保證了檢測特定建筑區(qū)所需的足夠關(guān)鍵點數(shù).
從表1檢測效率看,本文的算法與SURF算法的運算時間都明顯優(yōu)于傳統(tǒng)的SIFT算法,與SURF相比本文算法運算時間略有優(yōu)勢.但值得注意的是SURF算法產(chǎn)生的描述子是64維,本文算法是128維能更好描述局部區(qū)域信息,在復(fù)雜場景時具有更優(yōu)的魯棒性.
3.2跟蹤實驗及分析
根據(jù)本文算法的整體檢測跟蹤流程,首先完成對視頻流中目標(biāo)的搜索檢測.一旦檢測出參考圖目標(biāo),就立即轉(zhuǎn)入跟蹤階段.下圖給出算法轉(zhuǎn)入跟蹤階段后的運行結(jié)果示例.圖6第1列為選取視頻流中各時間段的典型幀,其中的非掩膜區(qū)域為當(dāng)前幀的自適應(yīng)開窗區(qū)域,其由本文在跟蹤階段提出的動態(tài)局部跟蹤區(qū)域確定技術(shù)截取得到.第2列是參考圖與待確認(rèn)目標(biāo)局部區(qū)域圖的匹配確認(rèn)結(jié)果.表2是對應(yīng)視頻流檢測階段及跟蹤過程的耗時情況.
表2 跟蹤結(jié)果定量統(tǒng)計
算法階段幀數(shù)自適應(yīng)窗尺寸運算耗時(s)檢測階段起始幀整幅圖0.467跟蹤階段第4幀72×850.044跟蹤階段第45幀111×1140.057跟蹤階段第89幀84×720.043跟蹤階段第101幀92×830.051
由圖6可以看出,經(jīng)過前3幀圖像的積累,從視頻流第4幀圖像開始算法流程成功轉(zhuǎn)入跟蹤階段.通過本文提出的動態(tài)局部跟蹤區(qū)域確定技術(shù),自適應(yīng)開窗截取當(dāng)前幀中包含目標(biāo)較完整的區(qū)域,且外圍無關(guān)區(qū)域較小,為低運算量高精度的目標(biāo)匹配確認(rèn)打下了基礎(chǔ).其次,由圖6第1列可看出隨著視頻流目標(biāo)位置、尺度、光照及角度不斷變化,自適應(yīng)跟蹤窗(圖6第1列中非掩膜區(qū)域)的尺寸和范圍隨之只適應(yīng)變化.但始終能夠穩(wěn)定的鎖定目標(biāo)所在的局部區(qū)域,并在匹配確認(rèn)中正確確認(rèn)目標(biāo)(圖6第2列).
從表2可以看出,初始目標(biāo)檢測階段耗時較大,但轉(zhuǎn)入跟蹤階段后耗時急劇下降.這是因為檢測階段算法需要對整幅實時圖的場景進(jìn)行目標(biāo)搜索檢測,而轉(zhuǎn)入跟蹤階段后只需對自適應(yīng)跟蹤窗中的小范圍目標(biāo)區(qū)域進(jìn)行匹配確認(rèn),運算量低.從在普通PC機的仿真實驗結(jié)果可以看出,如果將算法移植到機載平臺的嵌入式設(shè)備中有望實現(xiàn)實時處理.
本文針對實際復(fù)雜應(yīng)用場景,提出一種特定建筑區(qū)快速檢測跟蹤算法.基于邊緣顯著性的實時圖局部特征提取保證了檢測階段的時效性,層級化的特征點匹配策略保證了該階段的準(zhǔn)確性.轉(zhuǎn)入跟蹤階段后,算法通過自適應(yīng)開窗及軌跡預(yù)測技術(shù)有效圈定疑似目標(biāo)區(qū),并在圈定的有限范圍內(nèi)進(jìn)行最終目標(biāo)確認(rèn),確保了跟蹤的時效性及穩(wěn)定性.實驗結(jié)果表明該算法能在復(fù)雜場景中對指定建筑區(qū)實現(xiàn)準(zhǔn)確地檢測及高時效性的穩(wěn)定跟蹤,且對實時圖中的目標(biāo)區(qū)域相對于參考圖有典型圖像空間變換時,也具有良好的適應(yīng)性.此外,該算法只需一幅任務(wù)目標(biāo)區(qū)域參考圖進(jìn)行離線局部特征提取,無需大量訓(xùn)練樣本,具有較高的實用性.但另一方面,也可看到本文算法仍存在一定的局限性有待改進(jìn):即當(dāng)對目標(biāo)的觀測視角發(fā)生超大角度快速變化時,本文跟蹤階段可能丟失目標(biāo).因此,參考圖特征的動態(tài)更新,將是未來工作改進(jìn)的方向.
[1]Thales S K,Luciano V D,Leila M G F.A resegmentation approach for detecting rectangular objects in high-resolution imagery[J].Geoscience and Remote Sensing Letters,IEEE,2011,8(4):621-625.
[2]Sirmacek B,Unsalan C.A probabilistic framework to detect buildings in aerial and satellite images[J].Geoscience and Remote Sensing,IEEE Transactions on,2011,48(1):211-221.
[3]Tao C,Tan Y H,Cai H J,Tian J W.Airport detection from large IKONOS images using clustered SIFT keypoints and region information[J].Geoscience and Remote Sensing,IEEE Transactions on,2011,8(1):128-132.
[4]何林遠(yuǎn),畢篤彥,等.基于SIFT和MSE的局部聚集特征描述新算法[J].電子學(xué)報,2014,42 (8):1619-1623.
Lin-yuan H,Du-yan B,et al.The new descriptor algorithm of local aggregation features based on SIFT and MSE[J].Acta Electronica Sinica,2014,42 (8):1619-1623.(in Chinese)
[5]Qiao Y,Wang W.A theory of phase singularities for image representation and its applications to object tracking and image matching[J].Image Processing,IEEE Transactions on,2009,18(10):2153-2166.
[6]Chen C,Schonfeld D.Aparticle filtering framework for joint video tracking and pose estimation[J].Image Processing,IEEE Transactions on,2010,19(6):1625-1634.
[7]Imai J I,Li W M,Kaneko M.Online object modeling method for occlusion robust tracking[A].Robot Human Interactive Communication,2009[C].Toyama:IEEE,2009.58-63.
[8]Nasser H,Nicolas D.Real-time hand gesture detection and recognition using bag-of-features and support vector machine techniques[J].Instrumentations and Measurement,IEEE Transactions on,2011,60(11):3592-3606.
[9]Lowe D G.Distinctive image features from scale-invariant keypoint[J].International Journal of Computer Vision,2004,60(2):91-110.
[10]Apostolos P,Christos N.Vehicle logo recognition using a SIFT-based enhanced matching scheme[J].Intelligent Transportation Systems,IEEE Transactions on,2010,11(2):322-328.
[11]Zhao W L,Chong W N.Flip-invariant SIFT for copy and object detection[J].Image Processing,IEEE Transactions on,2013,22(3):980-991.
[12]Bay H,Ess A,Tuvtellars T,Gool L V.Speeded-up robust features (SURF)[J].Computer Vision and Image Understanding,2008,110:346-359.
畢福昆(通信作者)男,1982年9月出生,云南昆明人.2011年在北京理工大學(xué)獲得工學(xué)博士學(xué)位,2013年北京大學(xué)信息科學(xué)與技術(shù)學(xué)院博士后流動站出站,現(xiàn)為北方工業(yè)大學(xué)電子信息工程系講師.主要研究方向為:遙感目標(biāo)檢測與識別、遙感圖像自動解譯.
E-mail:bifukun@163.com
陳禾女,1970年3月出生,遼寧沈陽人,1998年在哈爾濱工業(yè)大學(xué)獲得工學(xué)博士學(xué)位,2000年北京理工大學(xué)通信與信息工程博士后流動站出站,現(xiàn)為北京理工大學(xué)信息與電子學(xué)院教授,博士生導(dǎo)師.研究方向為:遙感圖像及雷達(dá)信號處理、超大規(guī)模集成電路設(shè)計.
Identifying and Tracking Specific Building Areas in Airborne Remote Sensing Video with Complicated Scenes
BI Fu-kun1,CHEN He2,SHI Hao2,ZHANG Fei-fei2
(1.SchoolofElectronicInformationEngineering,NorthChinaUniversityofTechnology,Beijing100144,China;2.LabofRadarResearch,BeijingInstituteofTechnology,Beijing100081,China)
Automatic identification and tracking for specific building areas is not only of great significance in airborne remote sensing video data processing,but also one of the key technologies for task-oriented non-hovering airborne platform to search ground and boost fire control system.This paper proposes an identification and tracking algorithm of specific building areas for real complex application scenes.First,to extract local descriptors for offline reference images with target areas.At the stage of target area online identification,in order to ensure the timeliness,a fast SIFT (Scale Invariant Feature Transform) feature extraction method based on significant edges is proposed to extract local descriptors for suspected areas in large field of view images to be detected.In addition,the hierarchical feature point matching method is designed to achieve a highly reliable identification of target areas.At the stage of online tracking for target area,adaptive window and trajectory predicting technologies can effectively delineate suspected target areas,and within the limited range to recognize the final targets and track them.Real-measured data simulation results show that the proposed algorithm in complex scene conditions can realize the quick identification and stable tracking for a particular building area.It can also provide a key technical support for the future application of real systems.
airborne video tracking;building area identification;local descriptor;complex scenes
2014-12-10;修回日期:2015-06-01;責(zé)任編輯:梅志強
國家自然科學(xué)基金(No.61171194);北京市教委科技計劃面上項目(No.KM201610009004)
TP751
A
0372-2112 (2016)06-1394-06