梁建國,馬 紅
(1.重慶市勘測院,重慶 400020)
L(x,y,σ)= G(x,y,σ)* I(x,y) ( 1 )
改進的SIFT雙向匹配算法在異源影像匹配中的應(yīng)用
梁建國1,馬 紅1
(1.重慶市勘測院,重慶 400020)
針對不同傳感器、不同時相、不同分辨率的異源遙感影像匹配困難的問題,引入尺度不變特征(Scale Invariant Feature Transform,SIFT)算法;針對傳統(tǒng)SIFT匹配算法的不足,利用SIFT特征向量匹配對的唯一性約束改進傳統(tǒng)SIFT算法的匹配策略,采用雙向匹配以達到在匹配過程中準確尋找匹配點對的目的,提高影像匹配的正確率,實驗證明,該方法適用于異源影像匹配。
SIFT特征匹配;雙向匹配;異源影像匹配
目前主要的影像匹配可以分為3類:以灰度為基礎(chǔ)的算法、以特征為基礎(chǔ)的算法、以語義為基礎(chǔ)的算法[1,2]。對于異源影像,由于數(shù)據(jù)量大、成像條件和場景條件復(fù)雜,基于灰度信息的匹配方法很難有效地解決特征對應(yīng)問題,而基于語義信息的匹配算法依賴領(lǐng)域太大,還沒有明顯的研究進展[3]。由Lowe提出并完善的SIFT算法,能較好地抗影像尺度變換、旋轉(zhuǎn)變換和亮度變換,在異源影像匹配中應(yīng)用前景較為廣闊[4,5]。然而單純的SIFT算子用于異源影像匹配,存在匹配正確率低、匹配點數(shù)量較少且分布不均勻的情況。針對SIFT算子的不足,本文利用一種改進的SIFT雙向匹配算法,即在已有匹配結(jié)果的基礎(chǔ)上引入匹配的唯一性約束,提高兩幅待匹配影像之間的匹配正確率[6],實現(xiàn)光譜特征、空間特征和紋理特征都有差異的異源影像匹配。
SIFT特征匹配算法包括特征向量提取和特征向量匹配2步。特征向量提取包括如下幾個步驟:尺度空間極值點檢測、特征點定位、特征點方向確定、特征向量生成[7]。
1.1 尺度空間極值點檢測
高斯卷積核是實現(xiàn)尺度變換的唯一變換核,故圖像I(x,y)的尺度空間L(x,y,σ),定義為原始圖像與一個可變尺度的二維高斯函數(shù)G(x,y,σ)的卷積運算:
L(x,y,σ)= G(x,y,σ)* I(x,y) ( 1 )
不變尺度的二維高斯函數(shù)為:
將一系列尺度空間圖像中的相鄰尺度相減就得到一組DOG(Difference Of Gaussian,即高斯差分算子)圖像D(x,y,σ):
將當(dāng)前被檢測的像素與同一尺度上的相鄰8個像素以及鄰近的高低2個尺度上對應(yīng)位置的9×2個像素進行比較,確保在尺度空間和二維圖像空間都檢測到局部極值,完成尺度空間檢測。
1.2 確定特征點位置
根據(jù)極值點在位置和尺度上用2×2 的Hessian矩陣H計算其穩(wěn)定性,用穩(wěn)定性度量標準η剔除不穩(wěn)定的點,從而找出穩(wěn)定的特征點。H矩陣和η如下:
式中,γ是控制特征點穩(wěn)定性的參數(shù),表示為最大特征值和最小特征值的比值。
1.3 確定特征點方向
利用高斯卷積圖像確定特征點的唯一指向,保證特征向量滿足旋轉(zhuǎn)不變性,計算其梯度幅值m和方向θ,如式(6)和式(7)所示。在計算過程中,以特征點為中心的鄰域梯度直方圖的峰值表示特征點的方向。
1.4 生成特征向量
將特征點的16×16鄰域分為4×4的圖像子塊,每個像素定義8個方向的向量信息,即可生成 128維的特征向量。由此,每個SIFT特征點由1個128維向量表示,SIFT特征向量已經(jīng)除去了尺度變化、旋轉(zhuǎn)變換等因素的影響,如果將其進行歸一化處理,則可進一步減少光照變化的影響[8,9]。
SIFT特征向量的匹配采用最鄰近距離算法完成,即采用樣本特征點的最鄰近特征點歐氏距離與次鄰近特征點歐氏距離的比值是否滿足設(shè)定的匹配閾值來完成[9,10]。這種在參考圖像中尋找待匹配圖像特征點對應(yīng)點的方式是帶有方向性的,即為待匹配圖像到參考圖像的單向匹配,匹配方法簡便,但誤匹配概率較大。在異源影像匹配過程中,特征匹配的正確率直接影響匹配結(jié)果,對后續(xù)利用的限制較大,因此,需要對傳統(tǒng)SIFT單向匹配算法進行改正,以提高異源影像匹配的正確率。
唯一性約束,即匹配點對之間映射關(guān)系的對稱性,對于匹配點(p1,p2),存在匹配映射關(guān)系(p1→p2)和(p2→p1)。將唯一性約束引入到匹配策略中,實現(xiàn)SIFT特征向量的雙向匹配,可以減少誤匹配點,進而提高匹配的正確率。
本文改進的SIFT特征向量雙向匹配的步驟如下(見圖1):
①采用單向匹配中提取特征向量的方法提取2幅圖像各自的SIFT特征向量;
②根據(jù)傳統(tǒng)SIFT特征向量的匹配算法,計算第1個特征點集m到第2個特征點集n中的匹配對;
③根據(jù)計算得到的匹配點對集合,用同樣的方式反過來計算第2個特征點集n中已經(jīng)被匹配的關(guān)鍵點在第1個特征點集m中的匹配點,即求已被匹配的關(guān)鍵點在第1個特征點集m中的最鄰近與次鄰近的距離比率,若比率小于匹配閾值b,則作為正確匹配點[7]。
a、b為匹配閾值,在實驗過程中a、b不相互影響,可設(shè)置為相同值。
改進后雙向匹配算法約束條件比傳統(tǒng)SIFT算法約束條件更強,可以檢測出更多的誤匹配點,從而提高匹配的正確性。
圖1 SIFT特征向量雙向匹配流程
本文實驗環(huán)境如下:CPU為Intel(R) Core(TM) i5-3570 3.40 GHz(4 CPUs) ~3.8 GHz;內(nèi)存為4 GB;操作系統(tǒng)為Windows 7;實驗平臺為Microsoft Visual Studio 2010和Opencv 2.4.0。
本文選用不同傳感器獲取的同一地區(qū)不同時相影像進行匹配,以驗證改進的SIFT算子匹配效果。實驗數(shù)據(jù)為圖2中的影像,a圖為2010年9月獲取的重慶市江北區(qū)SPOT 5衛(wèi)星影像(分辨率為10 m,影像質(zhì)量較差,噪聲較多),b圖為2011年4月獲取的重慶市江北區(qū)QuickBird衛(wèi)星影像(分辨率為2.44 m,影像質(zhì)量較好,噪聲較少),在實驗前將QuickBird影像進行逆時針旋轉(zhuǎn)15°,以驗證匹配算法的幾何變換不變性。
圖2 重慶市江北區(qū)實驗衛(wèi)星影像
針對2幅實驗影像,分別采用傳統(tǒng)的SIFT算法和本文改進后的雙向SIFT算法進行匹配,實驗結(jié)果如圖3所示。
表1在特征點匹配的正確率和所用時間上將2種方法進行了比較:①在匹配正確率方面,改進的SIFT雙向匹配算法匹配正確率明顯高于傳統(tǒng)SIFT匹配算法;②在計算時間方面,改進的SIFT雙向匹配算法由于在傳統(tǒng)匹配的基礎(chǔ)上進行了反向匹配,時間效率比傳統(tǒng)SIFT算法低。
表1 異源影像匹配結(jié)果比較
圖3 實驗結(jié)果
改進的SIFT雙向匹配算法在影像后續(xù)處理中可以得到廣泛引用,如目標識別和目標跟蹤等。由于雙向匹配策略造成匹配耗時較長,且在計算過程中,匹配閾值a和b對結(jié)果的影響沒有排除,在下一步工作中,將采用分塊處理方式完成匹配,并采用自適應(yīng)方法設(shè)定匹配閾值。
[1] 翟麗杰.基于特征點的改進SIFT巖心圖像匹配算法[J].計算機與數(shù)字工程,2013,41(6): 981-983
[2] 袁修孝,李然.帶匹配支持度的多源遙感影像SIFT匹配方法[J].武漢大學(xué)學(xué)報:信息科學(xué)版,2012,37(12): 1 438-1 442
[3] 柯濤,張永軍.SIFT特征算子在低空遙感影像全自動匹配中的應(yīng)用[J].測繪科學(xué),2009,34(4):23-26
[4] 李然,張云生.基于SIFT特征的多源遙感影像自動匹配方法[J].測繪科學(xué),2011,36(3):8-10
[5] DGL.Distinctive Image Features from Scale-Invariant Key Points[J].Int,J Comput Vision,2004,60(2): 91-110
[6] 劉煥敏.一種改進的SIFT雙向匹配算法[J].兵工自動化,2009,28(6):89-91
[7] 呂倩利,邵永社.基于SIFT特征的異源遙感影像匹配方法研究[J].計算機工程與應(yīng)用,2012,48(36): 171-175
[8] 張春美,龔志輝,孫雷.改進SIFT特征描述符在影像匹配中的應(yīng)用研究[J].計算機工程與應(yīng)用,2008,44(2): 95-97
[9] 唐永鶴,盧煥章.基于多結(jié)構(gòu)元素復(fù)合濾波的形態(tài)學(xué)邊緣檢測[J].武漢大學(xué)學(xué)報:信息科學(xué)版,2012,37(1): 50-53
[10] 趙壘,侯振杰.一種改進的SIFT圖像配準方法[J].計算機工程,2010,36(12):226-228
P237.3
B
1672-4623(2014)06-0057-02
10.3969/j.issn.1672-4623.2014.06.020
梁建國,正高職高級工程師,現(xiàn)主要從事遙感應(yīng)用研究、三維仿真地理信息系統(tǒng)與網(wǎng)絡(luò)底圖應(yīng)用開發(fā)。
2014-01-23。
項目來源:國家科技支撐計劃資助項目(2011BAH12B07-03)。