楊 帥,程 紅,李 婷,趙 鶴
?
基于圖像配準的無人機目標精確定位算法
楊 帥1,程 紅2,李 婷3,趙 鶴4
(1.78102 部隊,四川 成都 610036;2.空軍航空大學(xué),吉林 長春 130022;3.94701 部隊,安徽 安慶 246000;4.93787 部隊,北京 100071)
為了滿足“察打一體化”無人機精確打擊目標的要求,針對現(xiàn)有目標定位算法的準確率低、實時性差的特點,本文提出了一種基于圖像配準的無人機目標精確定位算法。該算法主要分為兩個階段:特征點檢測階段和目標精確定位階段。首先采用基于側(cè)抑制競爭的特征點檢測算法,實現(xiàn)局部圖像中目標特征點的檢測工作;然后利用圖像局部信息的配準算法,完成目標所處的局部區(qū)域圖像的精確配準工作,最終實現(xiàn)了目標的高精度定位。實驗結(jié)果顯示該算法的定位精度可以達到0.21m,能夠滿足精確作戰(zhàn)時的目標情報保障需求。
無人機偵察圖像;目標定位;特征點檢測;側(cè)抑制競爭;圖像配準
近些年來,無人機(Unmanned Aerial Vehi-cle)在偵察作戰(zhàn)中的應(yīng)用越來越廣泛,相對有人飛機,無人機既能承擔同樣的偵察作戰(zhàn)任務(wù),又能避免人身傷亡情況的出現(xiàn)。而且隨著“察打一體化”無人機裝備部隊,作為無人機目標打擊的前期工作,目標定位的重要性日益突出[1]。圖1為無人機執(zhí)行目標偵察任務(wù)時的示意圖。因此研究無人機偵察圖像目標的定位技術(shù),對于提高信息化戰(zhàn)爭中的目標精確打擊能力具有非常重要的意義[2]。
無人機偵察目標定位是指利用攝影測量、圖像處理和信息處理等技術(shù),通過對無人機偵察獲得的圖像進行處理與分析,最終得到目標的精確三維坐標[3]。國內(nèi)外一些學(xué)者從不同的角度對圖像配準定位進行研究和分析。文獻[4]論述了基于特征點相似度的配準定位,保證了算法在視點變化時,依舊能夠完成前視圖像的準確配準定位工作。文獻[5]在提出改進SIFT算法的基礎(chǔ)上進行精確配準,為無人機目標定位提供了一種可行和有效的手段。文獻[6]將SIFT配準算法應(yīng)用到SAR圖像的配準定位領(lǐng)域,切實有效地降低了對實時圖像的苛刻要求,提高了該技術(shù)的應(yīng)用范圍。文獻[7]以SIFT算法為基礎(chǔ),結(jié)合KD-Treed搜索策略,提高了圖像的配準效率,保證了無人機定位的實時性;文獻[8]通過降低SIFT描述符的維數(shù)和引入聚類算法,減少配準時間滿足了圖像定位的時效性要求,為無人機實驗奠定了理論技術(shù)基礎(chǔ)。綜上所述,當前利用無人機偵察圖像進行目標定位的精度和時效性仍需提高。
針對當前圖像配準的無人機目標定位算法的缺點,本文提出了一種基于圖像配準的無人機目標精確定位算法,在采用側(cè)抑制競爭理論實現(xiàn)對目標特征點檢測的基礎(chǔ)上,利用局部圖像配準算法完成對目標的精確定位。該算法的限制條件少,應(yīng)用范圍廣泛,并且可靠性強、準確率高。圖1為無人機目標偵察定位示意圖。
圖1 無人機偵察目標定位示意圖
考慮到目標所處的局部區(qū)域圖像內(nèi)的特征信息可能較少,并且存在光照條件以及圖像紋理等不確定性的灰度變化,給魯棒的特征檢測帶來了一定的困難。常用的SIFT算法中的DoG算子對灰度變換敏感,局部范圍內(nèi)很難提取到數(shù)量足夠多、魯棒性好的斑點[9];Harris算法存在參數(shù)不易選取的問題,場景自適應(yīng)能力不強[10];FAST算法中的灰度比較閾值不易選取,算法性能受圖像不確定性灰度變化的影響較大[11]。針對局部圖像可能存在的實際情況以及SIFT、FAST以及Harris算法的不足,本文提出了一種基于側(cè)抑制競爭思想的特征點檢測算法,在局部區(qū)域圖像內(nèi)能夠較好地克服圖像灰度變化的影響,檢測到數(shù)量足夠多的點特征用于后續(xù)的圖像配準工作[12]。
算法具體流程圖如圖2所示,主要分為3個步驟:側(cè)抑制競爭增強圖像、篩選關(guān)鍵點、極值比較。
1)側(cè)抑制競爭增強圖像
側(cè)抑制現(xiàn)象[13-14]最早由生物學(xué)家Hartline等人在對鱟的視覺系統(tǒng)的長期研究之后提出,即視網(wǎng)膜上的每個視神經(jīng)細胞對它周圍的視神經(jīng)細胞的輸出具有抑制特性。李言俊等人[15]在數(shù)字圖像處理中引入了側(cè)抑制競爭的概念,提出了一種基于側(cè)抑制競爭網(wǎng)絡(luò)的圖像處理方法,當圖像的灰度發(fā)生較大變化時,該方法仍能有效增強圖像,具有很強的抗灰度變化的能力,實現(xiàn)簡單,實時性好。
本文選擇3×3網(wǎng)絡(luò)的抑制競爭函數(shù),以圖像中的某個像素點0(,)為例,中心點權(quán)值為00,其余點權(quán)值為,則側(cè)抑制競爭函數(shù)[16]為:
依據(jù)側(cè)抑制競爭的原理,00=1,=-0.125,則3×3網(wǎng)絡(luò)的側(cè)抑制競爭系數(shù)[17],如圖3所示。
將圖3的系數(shù)帶入式(1)可得像素點0(,)的側(cè)抑制競爭函數(shù)(,),依據(jù)此函數(shù)完成對圖像的增強處理,增強后的圖像為(,)。
圖2 特征點檢測流程圖
-0.125-0.125-0.125 -0.1251-0.125 -0.125-0.125-0.125
2)篩選關(guān)鍵點
采用高斯函數(shù)對圖像(,)進行平滑處理,降低噪聲的影響;然后計算圖像(,)的標準差作為門限,將大于門限的點作為候選亮特征點,將小于閾值的點作為候選暗特征點,完成關(guān)鍵點的篩選。
3)極值比較
在圖像(,)中,將候選亮特征點的像素值與周圍8個方向上的相鄰點的像素值進行比較,如果為局部極大值,則將其作為亮特征點(bright point);將候選暗特征點的像素值與周圍8個方向上的相鄰點的像素值進行比較,如果為局部極小值,則將其作為暗特征點(dark point)。
至此,完成圖像中特征點的檢測工作,得到兩個特征點集:亮特征點和暗特征點。
基本原理:為了實現(xiàn)目標的精確定位,首先在基準圖像和配準圖像中以目標為中心截取目標局部區(qū)域圖像作為新的基準圖像和待配準圖像,再利用基于側(cè)抑制競爭的特征點檢測算法檢測圖像中的亮特征點和暗特征點并統(tǒng)一采用SIFT特征描述符進行特征描述,然后利用特征匹配策略匹配兩幅圖像中同類性質(zhì)的點特征,合并匹配點對集計算出圖像變換模型,最后重新解算出目標的地理位置,完成圖像目標的精確定位工作[18]。
本文配準定位算法的具體流程如圖4所示,主要包括:圖像裁剪、特征點檢測、特征描述、特征匹配、計算圖像變換模型、目標定位6個步驟。
Step 1:圖像裁剪:對待配準圖像進行小波變換[19-20],進行適當層級的分解降低特征搜索空間,提高配準算法的實時性和降低數(shù)據(jù)量和計算量。之后分別在基準圖像和進行小波處理過的配準圖像中,以目標為中心截取相同尺寸的局部區(qū)域圖像作為新的基準圖像和待配準圖像。
Step 2:特征點檢測:利用基于側(cè)抑制競爭的特征點檢測算法分別檢測新的基準圖像和待配準圖像中的亮特征點和暗特征點。
Step 3:SIFT特征描述:利用性能良好的SIFT特征描述符描述圖像中的點特征,點特征的主方向設(shè)為0°。
Step 4:特征匹配:采用最近鄰特征匹配策略,分別匹配兩幅圖像中的亮特征點和暗特征點,再合并得到的兩個匹配點對集,得到新的匹配點對集。
Step 5:計算圖像變換模型:利用最小二乘法計算出兩幅新的配準圖像之間的投影變換模型。
Step 6:目標定位:利用投影變換模型計算出目標在基準圖像中的位置,進而得到目標的真實地理位置,由此實現(xiàn)目標的精確定位。
圖4 基于局部圖像配準的目標精確定位算法流程圖
為了驗證本文方法的有效性,在主頻3.40GHz、i3處理器、內(nèi)存4GB的平臺上,在Matlab2014a的環(huán)境下進行了仿真實驗并進行了實驗結(jié)果分析。
在基準圖像和全局粗配準圖像中以目標點為中心截取目標局部區(qū)域圖像作為新的基準圖像和待配準圖像。
考慮到對算法實時性與局部圖像特征信息量的要求,以及本文研究采用的基準圖像的分辨率約為0.44m,本文分別在基準圖像與粗配準圖像以目標點為中心截取實際范圍為100m×100m的地面區(qū)域,由此計算出的新的基準圖像和待配準圖像的分別率227×227,圖像尺寸大小和場景收容范圍均較為合適,同時,計算出目標點在待配準圖像中的坐標(144,144)。
圖5為裁剪出的兩幅新的配準圖像,雖然圖像的整體場景與結(jié)構(gòu)大致相同,但是兩者之間的紋理、灰度差別較大,仔細觀察對比兩幅圖像,兩者在空間位置上的差別雖然很小,但確實存在。
圖5 新的配準圖像
圖6所示為側(cè)抑制競爭增強后的基準圖像和待配準圖像,從圖中可以看出經(jīng)過側(cè)抑制增強之后,圖像的灰度差異得到了降低,圖像邊緣等細節(jié)部分得到了增強。
圖6 側(cè)抑制競爭圖像增強結(jié)果圖
圖7所示為基于側(cè)抑制競爭的特征點檢測算法在基準圖像和待配準圖像中的特征點檢測結(jié)果,其中,“o”點表示亮特征點,“*”點表示暗特征點。
本文將SIFT算法、Harris+SIFT算法、FAST+SIFT算法以及本文配準算法共4種算法進行了對比實驗。
1)算法匹配性能對比分析
圖8所示為各個算法的匹配結(jié)果圖像,可以明顯看出本文配準算法得到的匹配點對數(shù)量要遠遠超過其余3種算法,有利于提高后續(xù)圖像配準的精度。
圖7 特征點檢測結(jié)果
為了客觀地評價各個算法的匹配性能,采用正確匹配點對、匹配正確率、總耗時以及單個正確匹配點對耗時4個評價指標進行定量對比分析。
通過觀察表1,可以看出本文算法耗時1.232s,時效性較好,僅僅比FAST算法慢,但其余各項指標均屬于最優(yōu),尤其算法得到的正確匹配點對數(shù)量大大超過了其余3種算法,對于后續(xù)提高圖像配準精度和目標定位精度有很大的作用。
2)算法配準精度對比分析
圖9所示為在本文配準算法下局部航空圖像的配準結(jié)果。
圖8 各個算法的匹配結(jié)果
表1 匹配結(jié)果數(shù)據(jù)對照表
圖9 目標所處局部區(qū)域圖像配準結(jié)果
為了對比分析各個算法的配準精度,采用絕對差度量(SAD)、平方差度量(SSD)以及積相關(guān)度量(PROD)3個評價指標來進行定量分析,各指標定義[21]如下:
式中:(,)為基準圖像;(,)為待配準圖像精配準后的圖像;、為圖像的行列數(shù)。為了消除光照變化對配準精度計算的影響,實驗時均對圖像(,)、(,)進行了側(cè)抑制增強和歸一化處理。在3個評價指標中,SAD或SSD的值越小,表明兩幅圖像的相似度越高;PROD的值越大,表明兩幅圖像的相似度越高。表2為常見算法配準精度對比情況。
表2 配準精度對比
由表2中的各項指標對比可以看出,本文算法的圖像配準精度要優(yōu)于其余3種算法,通常圖像配準精度越高,后續(xù)的目標定位精度也越高。
目標精確定位的結(jié)果如圖10所示,圖中實心小圓點表示局部圖像配準后確定的目標在基準圖像中的位置,空心圓“o”表示目標在基準圖像中的真實位置,圖10右側(cè)為目標局部區(qū)域的放大圖像。
圖10 目標精確定位結(jié)果
從圖10中可以看出本文算法的定位結(jié)果達到了亞像素級,精確定位后目標在基準圖像中的坐標為(743.46,646.89),經(jīng)緯度坐標約為(122.4791°, 42.7036°),而目標的真實坐標為(743, 647),兩者之間的位移量為(-0.46, 0.11),實際地面距離相差約為0.21m,由此可知在本文算法精確定位目標之后,目標的定位精度達到了米級,可以滿足精確作戰(zhàn)時的目標情報保障需求。
針對現(xiàn)有目標定位算法存在的缺陷,本文提出了一種基于圖像匹配的無人機目標精確定位方法。該方法充分考慮了目標局部區(qū)域圖像中的特征信息存在較大非線性灰度變換的情況,首先采用基于側(cè)抑制增強的特征點的檢測算法進行特征點的提取,然后采用局部圖像的精確配準算法實現(xiàn)目標的定位,結(jié)果表明本文的算法能夠克服灰度變化的影響,檢測到足夠多的點特征,并且能夠較好地完成局部圖像的配準任務(wù),獲得較高的圖像配準精度,從而實現(xiàn)了目標的高精度定位,最終證明了本文算法的有效性和可行性。
由于本文選取的實驗圖像是地面信息豐富的航空圖像,當面對信息匱乏的航空圖像(如農(nóng)田、沙漠、野外地區(qū)等),此時本文提出的算法成功率會很低,如何實現(xiàn)此類地區(qū)航空圖像中目標的準確定位是下一步研究的一個方向。
[1] 王方玉. 美國無人機的光電載荷與發(fā)展分析[J]. 激光與紅外, 2008, 38(4): 311-314.
WANG F Y. Electric-optic load and development analysis of the american UAV[J]., 2008, 38(4): 311-314.
[2] 汪林彪, 鄭垣模. 信息化推進精確作戰(zhàn)的發(fā)展[J]. 國防科技, 2010 (4): 56-59.
WANG L B, ZHENG Y M. Development of precision engagement pushed by information[J]., 2010(4): 56-59.
[3] 都基焱, 段連飛, 黃國滿. 無人機電視偵察目標定位原理[M]. 合肥: 中國科學(xué)技術(shù)大學(xué)出版社, 2013.
DU J Y, DUAN L F, HUANG G M.[M]. Hefei: University of Science and Technology of China Press, 2013.
[4] 魯統(tǒng)偉. 前視目標圖像匹配定位技術(shù)研究[D]. 武漢: 華中科技大學(xué), 2009.
LU Tongwei. Study on Forward-looking Object Image Matching and Localization[D].Wuhan: Huazhong University of Science&Technology, 2009.
[5] 胡海洋, 李海林. 基于圖像匹配的無人機目標定位方法[J]. 艦船電子工程, 2013, 32(12): 49-51.
HU Haiyang, LI Hailin. A Target location method for UAV based on image registration[J]., 2012(12): 49-52.
[6] 唐波, 張輝, 劉彥. 基于 SAR景象不變特征點的匹配定位技術(shù)研究[J]. 航天控制, 2012(2): 10-19.
TANG Bo, ZHANG Hui, LIU Yan. The research of SAR image match guide method based on SIFT[J]., 2012 (2): 10-19.
[7] 馬園, 吳愛國, 杜春燕. 基于視覺的無人機飛行過程定位算法研究[J]. 電光與控制, 2013, 20(11): 42-46.
MA Yuan, WU Aiguo, DU Chunyan. Vision based localization algorithm for unmanned aerial vehicles in flight[J]., 2013(12): 42-46.
[8] 吳愛國, 馬園, 杜春燕. 無人機飛行過程中圖像定位算法研究[J]. 計算機應(yīng)用與軟件, 2015, 4: 041.
WU Aiguo, MA Yuan, DU Chunyan. Research on image localization on algorithm for unmanned aerial vehicles in fight[J]., 2015(4): 165-170.
[9] 楊新鋒, 滕書華, 夏東. 基于空間變換迭代的SIFT特征圖像匹配算法[J]. 紅外與激光工程, 2013, 42(12):3496-3501.
YANG X F, TENG S H, XIA D. SIFT matching algorithm with geometry constraint[J]., 2013, 42(12): 3496-3501.
[10] Wilhelm Burger, Mark J. Burge.—[M]// Principles of Digital Image Processing. Springer London, 2013: 229-296.
[11] Miksik O, Mikolajczyk K. Evaluation of local detectors and descriptors for fast feature matching[C]/(), 2012: 2681-2684.
[12] 王志強, 程紅, 楊桄, 等. 全局圖像配準的目標快速定位方法[J]. 紅外與激光工程, 2015, 44(S): 225-229.
WANG Z Q, CHENG H, YANG G, LI C, WU D. Fast target location method of global image registration[J]., 2015, 44(S): 225-229.
[13] 福島邦彥. 視覺生理與仿生學(xué)[M]. 馬萬祿, 譯. 北京: 科學(xué)出版社, 1980:231-244.
FUKUSHIMA. V[M]. MA W L, translated. Beijing: Science Press, 1980: 231-244.
[14] 周理, 高山, 畢篤彥,等. 基于視覺側(cè)抑制機理的強魯棒性圖像分割方法[J]. 中南大學(xué)學(xué)報: 自然科學(xué)版, 2013,44(5): 1910-1917.
ZHOU L,GAO S, BI D Y, et al. A strongly robust algorithm of image segmentation based onvisual lateral inhibition[J].:, 2013,44(5): 1910-1917.
[15] 王蜂, 陳鷹, 李言俊. 一種擴展邊緣特征的圖像定位方法[J]. 西北工業(yè)大學(xué)學(xué)報, 1999, 17(2): 322-326.
WANG F, LI Y J, CHEN Y. A new and better way of extracting digital image edge[J]., 1999, 17(2): 322-326.
[16] 李言俊, 張科. 景象匹配與目標識別技術(shù)[M]. 西安: 西北工業(yè)大學(xué)出版社, 2009: 175-181.
LI Y J, ZHANG K.[M]. Xi'an: Northwestern Polytechnical University, 2009: 175-181.
[17] 陳衛(wèi)兵, 束慧. 快速邊緣匹配算法研究[J]. 計算機工程與設(shè)計, 2004, 25(1): 130-132.
CHEN W B, SHU H. Research on fast edge matching algorithm[J]., 2004, 25(1): 130-132.
[18] Gauglitz S, H?llerer T, Turk M. Evaluation of interest point detectors and feature descriptors for visual tracking[J]., 2011, 94(3): 335-360.
[19] 李龍龍. 結(jié)合小波變換和SIFT算法的遙感圖像快速配準算法[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2013.
LI L L. Remote Sensing Image Fast Registration Algorithm Combined with Wavelet Transform and SIFT Algorithm[D]. Harbin : Harbin Institute of Technology, 2013.
[20] 范瑾瑾, 胡良梅, 凌虎. 改進的基于小波變換的圖像配準方法[J]. 計算機工程, 2010, 36(5): 212-214.
FAN J J, HU L M, LING H. Improved approach for image registration based on wavelet transform [J]., 2010, 36(5): 212-214.
[21] 劉寶生, 閆莉萍, 周東華. 幾種經(jīng)典相似性度量的比較研究[J]. 計算機應(yīng)用研究, 2006, 23(11): 1-3.
LIU B S, YAN L P, ZHOU D H. Comparison of some classical similarity measures[J]., 2006, 23(11): 1-3.
UAV Reconnaissance Images Accurate Targeting MethodBased on Image Registration
YANG Shuai1,CHENG Hong2,LI Ting3,ZHAO He4
(1.78102,610036,; 2.,130022,;3.94701,246000,; 4.93787,100071,)
In order to meet the needs of the integrated reconnaissance/strike UAV precision attack, and to overcome low accuracy and worse real-time performance of these existing target localization algorithms, this paper proposes a UAV accurate positioning algorithm based on image registration, which consists of two parts: feature point detection and target accurate positioning. First, the feature point detection algorithm based on lateral inhibition competition is used to detect the local image feature points; and then the image registration algorithm of local information is applied to complete the work of local image precise registration, ultimately achieving the goal of high-precision positioning of the targets. The experiments show that the positioning accuracy of this algorithm can reach 0.21m, which can meet the target information security needs during combat.
UAV reconnaissance image,target orientation,feature point detection,lateral inhibition competition,image registration
TP391
A
1001-8891(2017)06-0529-06
2016-08-04;
2016-12-20.
楊帥(1992-),男,碩士研究生,主要研究領(lǐng)域為無人機目標定位技術(shù)。
國家自然科學(xué)基金(61301233)。