耿娟, 何成龍, 劉憲鑫
(1.西南交通大學(xué)軌道交通工程遙感聯(lián)合研究中心,成都 610031;
2.西南交通大學(xué)地球與工程學(xué)院,成都 610031)
?
基于CSIFT特性的無人機影像匹配
耿娟1, 何成龍2, 劉憲鑫2
(1.西南交通大學(xué)軌道交通工程遙感聯(lián)合研究中心,成都610031;
2.西南交通大學(xué)地球與工程學(xué)院,成都610031)
摘要:隨著無人機(unmanned aerial vehicle,UAV)平臺技術(shù)的發(fā)展,越來越多的應(yīng)用行業(yè)和研究領(lǐng)域開始使用UAV影像數(shù)據(jù)。不同于現(xiàn)有的攝影測量結(jié)合像控點的UAV影像匹配方法,提出一種新的UAV影像匹配方法。該方法采用彩色尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,CSIFT)算法,利用彩色信息的空間不變特性提取基準(zhǔn)影像與待匹配影像的特征匹配點對; 并采用單應(yīng)性矩陣與隨機抽樣一致性(random sample consensus,RANSAC)算法對匹配結(jié)果進(jìn)行提純,得到最終匹配結(jié)果。仿真實驗表明,該方法可在保證實驗過程魯棒性的同時,與傳統(tǒng)的尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,SIFT)方法相比,將匹配準(zhǔn)確率從70%提高到了88%,而且大大減少了特征點對的數(shù)量,縮短了處理時間,提高了UAV影像匹配效率。
關(guān)鍵詞:無人機影像; CSIFT特征; 特征匹配點; 單應(yīng)性矩陣; 隨機抽樣一致性(RANSAC)
0引言
隨著科技發(fā)展的不斷推進(jìn),遙感技術(shù)正越來越多地深入各行各業(yè),并得到充分的應(yīng)用。同時,遙感技術(shù)自身也在逐步發(fā)展,其中尤以無人機(unmanned aerial vehicle,UAV)技術(shù)比較突出。因其快速、便捷與費用低等優(yōu)點,越來越多的生產(chǎn)應(yīng)用單位愿意選擇UAV作為遙感影像數(shù)據(jù)的獲取方式。但是,不同于傳統(tǒng)大飛機平臺的穩(wěn)定與衛(wèi)星影像較強的剛性特征,UAV平臺受自身配重輕、抗風(fēng)能力弱的影響,獲取數(shù)據(jù)時存在一系列不穩(wěn)定因素,使獲取的影像數(shù)據(jù)容易產(chǎn)生復(fù)雜的幾何變形; 另一方面,由于UAV影像尺寸較小,在需要覆蓋大范圍區(qū)域的影像時,就會涉及到多景UAV影像的匹配和拼接問題。UAV影像的匹配與拼接一般可分為4個步驟: 影像預(yù)處理、影像配準(zhǔn)、影像坐標(biāo)系映射和影像融合。目前,較多的研究集中在影像配準(zhǔn)方面。影像配準(zhǔn)的核心工作是找出相鄰2景影像中的重疊區(qū)域,并確定這2景影像的變換關(guān)系?,F(xiàn)有對UAV影像匹配和拼接的研究比較多,主要分為2類: ①利用傳統(tǒng)攝影測量技術(shù),通過最終的正射影像圖進(jìn)行匹配和拼接。雖然結(jié)合地面控制點、利用嚴(yán)格的攝影測量方法有非常成熟的工作流程,但這種方法按攝影測量原理,需要高精度的控制點坐標(biāo)和穩(wěn)定的UAV飛行姿態(tài)參數(shù),其處理結(jié)果雖然精度高,但費時費力,無法體現(xiàn)UAV快速獲取數(shù)據(jù)的優(yōu)點。②在無控制點的前提下,針對影像本身特征進(jìn)行匹配和拼接?;谟跋裉卣鞯姆椒ㄖ饕糜跋竦娘@著特征(如特征角點或關(guān)鍵點、輪廓信息和其他一些不變矩)估計2景或多景影像之間的變換關(guān)系。這種方法的關(guān)鍵技術(shù)在于提取影像的特征點或特征輪廓[1],主要包括基于頻率域和空間域的配準(zhǔn)與加權(quán)融合[2-3]。其中,基于頻率域的影像配準(zhǔn)算法(如Fourier-Mellin算法)可以很好地解決UAV影像的平移、旋轉(zhuǎn)和縮放問題,但對影像的尺度和重合度要求較高[4]; 基于空間域的配準(zhǔn)算法(如尺度不變特征轉(zhuǎn)換(scale-invariant feature transform,SIFT)算法)拼接后的結(jié)果影像質(zhì)量很高,但在搜索特征點時采用固定尺寸核,處理時間長且效率不高[5]。而結(jié)合Harris 算子和區(qū)域相關(guān)系數(shù)(local area correlation coefficient,LACC)、利用金字塔多層匹配的多約束條件配準(zhǔn)算法,則復(fù)雜度高且效率低[6]。因此,鑒于SIFT算法效率不高,且需要提前將現(xiàn)有的UAV彩色影像轉(zhuǎn)為灰度影像進(jìn)行匹配拼接處理的問題,本文擬采用彩色尺度不變特征轉(zhuǎn)換(color scale-invariant feature transform,CSIFT)算法,在保證影像顏色信息不變的前提下提取基準(zhǔn)影像與待匹配影像的特征匹配點對,并采用單應(yīng)性矩陣與隨機抽樣一致性(random sample consensus,RANSAC)算法對匹配結(jié)果進(jìn)行提純。研究中進(jìn)行的仿真實驗證明,與傳統(tǒng)的SIFT算法相比,本文方法可實現(xiàn)更高精度、更高效率的UAV影像匹配。
1UAV影像匹配
本文首先基于彩色信息空間不變特性的CSIFT方法和在重疊區(qū)域通過對特征點的約束實現(xiàn)對UAV影像匹配點對的提取,以解決傳統(tǒng)的SIFT算子運算時間長且需將彩色UAV影像灰度化的問題; 然后利用單應(yīng)性矩陣與RANSAC算法對匹配點對進(jìn)行粗差剔除與提純; 最后利用最終的匹配點對計算基準(zhǔn)影像與待匹配影像之間的坐標(biāo)映射參數(shù),實現(xiàn)UAV影像的匹配(圖1)。
圖1 UAV影像匹配技術(shù)流程
2SIFT特征匹配
SIFT是一種基于尺度空間特性,對圖像縮放、旋轉(zhuǎn)以及仿射變換保持不變性的圖像局部特征描述算子。其核心的尺度空間函數(shù)為高斯函數(shù)與影像函數(shù)的卷積,即
L(x,y,σ)=G(x,y,σ)*I(x,y) ,
(1)
(2)
式中: (x,y)為影像的像素位置;σ為尺度空間因子;G(x,y,σ)為高斯函數(shù);I(x,y)為影像函數(shù);L(x,y,σ)為尺度空間函數(shù); * 為卷積運算符。
SIFT算子的匹配操作流程如圖2所示。
圖2 SIFT算子匹配操作流程
首先獲取圖像的尺度空間,在該空間進(jìn)行極值檢測,初步確定特征點的位置與尺度; 然后利用特征點鄰域像素的梯度大小與方向確定該特征點的方向; 由上一步中得到的特征點鄰域像素的梯度信息計算128維的特征向量; 完成特征向量計算后進(jìn)行匹配,逐一比較各個特征點的特征向量,如果滿足一定的條件,則確認(rèn)完成一個點對的匹配。
3CSIFT影像配準(zhǔn)
本文采用CSIFT配準(zhǔn)算法提取基準(zhǔn)影像與待配準(zhǔn)影像的匹配點。通過研究發(fā)現(xiàn),SIFT算子具有尺度、旋轉(zhuǎn)、仿射、視角和光照的不變性,對目標(biāo)的運動、遮擋、噪聲等因素也有較好的匹配性,可用于提取穩(wěn)定的多個匹配點對。但在實際運算時,SIFT算子需要處理大量的數(shù)據(jù),無法實現(xiàn)UAV影像的實時快速匹配與拼接[7]; 而且在應(yīng)用SIFT算法時需要先將彩色影像轉(zhuǎn)換為灰度影像,不利于對UAV影像的直接處理; 所以,本文采用CSIFT算法提取特征點[8]。通過實驗還發(fā)現(xiàn),SIFT算子因計算量很大,容易產(chǎn)生錯誤匹配點對; 若結(jié)合重疊區(qū)域范圍分別對提取出的特征點進(jìn)行約束,則可剔除部分一定不會匹配成功的特征點,不僅能為下一步的匹配工作減少計算時間,而且能提高計算結(jié)果的準(zhǔn)確率。因此,本文采用結(jié)合CSIFT算子與重疊區(qū)域范圍約束的方法來提取匹配點對。
3.1匹配點對提取
3.1.1顏色不變量計算
物體的光譜輻射模型為
E(λ,x)=i(λ,x)R∞(λ,x) ,
(3)
式中:λ為波長; x為二維矢量,表示觀測位置;i(λ,x)為在各波長上保持不變而隨位置變化的光譜強度;R∞(λ,x)為材料反射率。
顏色不變量C表示物體的反射特性,與視點、表面方位、光照方向和光照強度無關(guān),即
(4)
式中: Eλ為E(λ,x)相對于λ的一階偏導(dǎo)數(shù);Eλλ為E(λ,x)相對于λ的二階偏導(dǎo)數(shù)。
采用高斯顏色模型作為表示光譜信息和局部影像結(jié)構(gòu)的一般模型,用于計算RGB彩色空間的不變量。計算光譜分量時,可近似于人類視覺系統(tǒng)的CIE1964XYZ,通過RGB→XYZ和XYZ→高斯顏色模型的2次線性變換,得到用RGB表示的高斯顏色模型[9],即
(5)
3.1.2關(guān)鍵特征點提取
Lowe等于[10-11]1999年提出SIFT配準(zhǔn)算法,并在 2004年進(jìn)行了完善和總結(jié)。CSIFT算法在SIFT算法的基礎(chǔ)上,利用顏色不變量代替原來的影像信息[8]; 其主要任務(wù)是進(jìn)行尺度空間極值點檢測,初步確定關(guān)鍵特征點的位置和所在尺度。1景影像的尺度空間可被定義為L(x,y,σ)函數(shù),為尺度變化的高斯函數(shù)G(x,y,σ)與影像顏色不變量C(x,y)的卷積,即
L(x,y,σ)=G(x,y,σ)*C(x,y) ,
(6)
(7)
式中: (x,y)為影像的像素位置;σ為尺度空間因子; *為卷積運算符。
在影像平面空間和高斯差分(difference-of-Gaussian,DOG)尺度空間中檢測局部極值點作為關(guān)鍵特征點。DOG算子定義為2個相鄰尺度的高斯核的差分D(x,y,σ),即
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*C(x,y)=L(x,y,kσ)-L(x,y,σ) ,
(8)
式中:k為差分運算中的固定系數(shù);C(x,y)為影像顏色不變量函數(shù)。
當(dāng)某點在DOG尺度空間本層及其上下2層中是最大值或最小值時,就認(rèn)為該點為影像在該尺度下的一個關(guān)鍵特征點。從式(1)(2)(6)和(7)可以看出,CSIFT算法利用影像顏色不變量函數(shù)C(x,y)代替了SIFT算法中的影像函數(shù)I(x,y)。因此,DOG算子(式(8))中用C(x,y)代替了I(x,y)。
3.1.3關(guān)鍵特征點約束
利用CSIFT提取關(guān)鍵特征點是針對整景影像來實現(xiàn)的。從UAV影像匹配的角度考慮,其中有很多是勢必?zé)o法匹配成功的關(guān)鍵點。因此,在匹配之前要對這些關(guān)鍵點進(jìn)行正確率約束,以便節(jié)省匹配處理的時間,提高匹配結(jié)果的準(zhǔn)確率。CSIFT算法是基于SIFT算法改進(jìn)的,而SIFT算法在運算過程中記錄了全部關(guān)鍵點坐標(biāo),故本文采用基于UAV的POS數(shù)據(jù)確定影像重疊區(qū)域的約束方法進(jìn)行關(guān)鍵特征點約束。
假設(shè)POS數(shù)據(jù)中基準(zhǔn)影像的中心地理平面坐標(biāo)為(x01,y01),待匹配影像的坐標(biāo)為(x02,y02),結(jié)合飛行航高h(yuǎn)與鏡頭焦距f可以計算出2景影像中心的坐標(biāo)偏移量,即
Sx=(x02-x01)f/h, Sy=(y02-y01)f/h 。
(9)
因為2景影像的像素大小a×b與影像尺寸p保持一致,設(shè)基準(zhǔn)影像的中心點為坐標(biāo)原點,X方向為飛行方向,Y方向為垂直飛行的方向,按照4個象限依次排列,沿著UAV飛行方向,基準(zhǔn)影像中重疊區(qū)域的4個角點的像素坐標(biāo)為
待匹配影像中重疊區(qū)域的4個角點的像素坐標(biāo)為
3.1.4關(guān)鍵特征點匹配
提取出關(guān)鍵特征點后,要計算各關(guān)鍵點的梯度向量并進(jìn)行匹配。
1)精確確定關(guān)鍵點梯度方向分布特征,為每個關(guān)鍵點指定方向參數(shù),使算子具備旋轉(zhuǎn)不變性。關(guān)鍵點(x,y)處的梯度模值m(x,y)和方向θ(x,y)為
(10)
θ(x,y)=arctan{[L(x, y+1)-L(x, y-1)]/[L(x+1, y)-L(x-1, y)]} 。
(11)
2)生成關(guān)鍵點的特征向量。將坐標(biāo)軸旋轉(zhuǎn)為關(guān)鍵點的方向,保證旋轉(zhuǎn)不變性; 然后以關(guān)鍵點為中心取8×8的窗口, 利用式(10)和(11)計算每個4像素×4像素小塊影像中8個方向的梯度方向直方圖,用每個梯度方向的累加值形成一個種子點。為了增強匹配的穩(wěn)健性,對每個關(guān)鍵點使用4像素×4像素共16個種子點來描述,這樣對于一個關(guān)鍵點就可以產(chǎn)生128個數(shù)據(jù)(即128維的CSIFT特征向量)。
3)生成2景影像關(guān)鍵點的特征向量后,進(jìn)行關(guān)鍵特征點匹配。采用特征向量的歐式距離作為2景影像中關(guān)鍵點的相似性判定準(zhǔn)則,當(dāng)此距離小于某閾值時則認(rèn)定得到滿足準(zhǔn)則的匹配點對。
3.2匹配點對穩(wěn)健估計
3.2.1誤差點對剔除
(12)
(13)
利用式(12)和(13),帶入10對以上的匹配點坐標(biāo),采取最小二乘原理方法求解; 設(shè)定閾值,剔除不滿足提取點誤差高斯分布規(guī)則的匹配點。評價精度的指標(biāo)Sn為H的平均幾何匹配誤差,即
(14)
式中D為匹配點對之間的像素距離。
3.2.2匹配點對提純
利用RANSAC檢驗算法對經(jīng)過初步剔除誤差的匹配點對進(jìn)行提純。其基本思想是進(jìn)行參數(shù)估計時,首先針對具體問題設(shè)計出一個目標(biāo)函數(shù); 然后迭代估計該函數(shù)的參考值,利用這些初始值把全部數(shù)據(jù)分為內(nèi)點(滿足估計參數(shù)的點)和外點(不滿足估計參數(shù)的點)2部分; 最后反過來用內(nèi)點重新計算和估計該函數(shù)的參數(shù)[13]。上述方法可以最大限度地減少噪聲與外點的影響,進(jìn)一步得到精確的匹配點。
1)計算n對匹配點對的RMSE,即
(15)
(16)
2)以1個像素尺寸的大小為閾值,若RMSE大于閾值,則刪除(△xi,△yi)最大的匹配點對; 然后反復(fù)迭代直至RMSE小于閾值,最終獲得m對特征匹配點。
4坐標(biāo)系統(tǒng)映射變換
目前常用的空間變換模型主要有平移變換、剛性變換、仿射變換以及投影變換等[14]。用矩陣的形式描述上述關(guān)系模型(8參數(shù)模型)[15]為
(17)
式中:m2為水平方向位移;m5為垂直方向位移;m0,m1,m3和m4分別表示尺度和旋轉(zhuǎn)量;m6與m7分別表示水平與垂直方向的變形量; (x′,y′)為變換后的點位坐標(biāo); (x,y)為變換前的點位坐標(biāo); M為8參數(shù)模型矩陣。
根據(jù)各參數(shù)的意義及不同變換模型的特點對矩陣M作相應(yīng)簡化,即可得到各變換模型的參數(shù)矩陣。本文針對UAV影像,設(shè)定UAV平臺獲取影像數(shù)據(jù)時沒有明顯的航高變化(即只考慮待匹配影像的平移和旋轉(zhuǎn)),則有
(18)
式中: (△x,△y)為平移參數(shù);θ為旋轉(zhuǎn)角。采用最小二乘方法求得參數(shù)
(ATA)Θ=ATB ,
(19)
其中
(20)
5實驗結(jié)果與分析
5.1實驗數(shù)據(jù)
本次實驗采用拍攝于四川省什邡市的UAV影像(圖3)及其POS數(shù)據(jù)(表1)。
圖3 什邡市UAV影像
參數(shù)基準(zhǔn)影像待匹配影像緯度/(°)31.112831.1139經(jīng)度/(°)104.2024104.2014高度/m1555.701554.80滾動/(°)0.08-0.14俯仰/(°)0.070.03偏航/(°)320.05319.82
影像采集相機為Canon EOS 5D Mark II; 飛行高度1 636 m,飛行覆蓋范圍25 km2; 影像大小為5 616像素×3 744像素,影像的地面分辨率達(dá)到cm級。此次仿真實驗基于Matlab語言實現(xiàn)。
5.2實驗過程與結(jié)果分析
對經(jīng)過預(yù)處理的實驗數(shù)據(jù),利用式(1)—(8),分別采用CSIFT和SIFT算子處理,得到2種情況下基準(zhǔn)影像與待匹配影像的關(guān)鍵特征點(圖4和圖5)。
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖4關(guān)鍵特征點CSIFT提取結(jié)果
Fig.4Result of CSIFT key points extracted by CSIFT
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖5關(guān)鍵特征點SIFT提取結(jié)果
Fig.5Result of key points extracted by SIFT
從圖4和圖5可以看出,用CSIFT算法計算出的2景影像的關(guān)鍵特征點分布密度比用SIFT算法計算出的關(guān)鍵特征點密度高。
根據(jù)式(9)分別計算出基準(zhǔn)影像中重疊區(qū)域的4個角點的像素坐標(biāo): (1 683,2 246),(-926,2 246),(-926,-2 246)和(1 683,-2 246)以及待匹配影像中重疊區(qū)域的4個角點的像素坐標(biāo): (926,2 246),(-1 683,2 246),(1 683,-2 246)和(926,-2 246),通過約束得到關(guān)鍵點提取結(jié)果(圖6)。
(a) 基準(zhǔn)影像 (b) 待匹配影像
圖6CSIFT提取關(guān)鍵點重疊區(qū)約束后結(jié)果
Fig.6Restrained result of key points extracted by
CSIFT in overlay area
從圖6可以看出,經(jīng)過重疊區(qū)范圍的約束后,關(guān)鍵點數(shù)量有所減少。經(jīng)過計算,基準(zhǔn)影像的關(guān)鍵點個數(shù)減少為715,待匹配影像的關(guān)鍵點個數(shù)減少為907。
然后利用式(10)和(11)進(jìn)一步計算2景影像中各點的梯度向量并進(jìn)行匹配。利用式(12)—(16)進(jìn)行匹配點對的穩(wěn)健估計計算后,最終關(guān)鍵點匹配結(jié)果為191對(圖7)。
圖7 CSIFT算子關(guān)鍵點匹配結(jié)果
通過匹配點對按式(17)—(20)進(jìn)行計算,確定基準(zhǔn)影像與待匹配影像之間的映射關(guān)系,最終得到匹配融合影像(圖8)。
圖8 CSIFT算法影像匹配結(jié)果
與圖8相比,在經(jīng)過特征點提取與匹配后, SIFT算法在大量的特征點基礎(chǔ)上生成了大量的匹配點對,同時也存在著大量的誤匹配點對(圖9)。
圖9 SIFT算子關(guān)鍵點匹配結(jié)果
然后直接進(jìn)行誤差點對剔除,并融合生成結(jié)果影像(圖10)。
圖10 SIFT算法影像匹配結(jié)果
采用SIFT與CSIFT算法,針對2景相同的UAV影像進(jìn)行對比,詳細(xì)內(nèi)容如表2所示。
表2 SIFT 與 CSIFT算法比較
上述的2景影像匹配拼接的實驗證明,本文提出的CSIFT方法比傳統(tǒng)的SIFT方法在精度提高的基礎(chǔ)上,運算效率也大大提高。圖11示出采用CSIFT方法拼接的8景UAV影像的匹配和拼接結(jié)果,整個處理過程耗時202 s。從圖11可以看出,CSIFT方法在進(jìn)行多景無人機影像拼接時的結(jié)果很好(比如道路和規(guī)則形狀地物的拼接處看不出拼接縫)??梢姴捎帽疚奶岢龅姆椒梢源蟠筇岣遀AV影像的匹配準(zhǔn)確率并減少匹配過程耗用時間。
圖11 CSIFT方法多景影像匹配拼接結(jié)果
6結(jié)論
本文利用CSIFT算法對無人機(UAV)影像的基準(zhǔn)影像與待匹配影像分別進(jìn)行特征點的提取來完成影像的配準(zhǔn)鑲嵌,并且通過仿真實驗證明了方法的有效性,保證了結(jié)果的魯棒性。得出如下結(jié)論:
1)本文方法的前提是UAV影像空間位置具有相對良好的空間姿態(tài),以便在特征點匹配前對提取結(jié)果進(jìn)行區(qū)域約束,快速選定重疊工作區(qū)域。
2)誤差點剔除準(zhǔn)則的選擇會引起運算量增加,在一定程度上影響程序的運行效率,特別是在閾值的選擇中,需要結(jié)合實時的影像質(zhì)量選定初值。
3)本文的處理過程僅針對數(shù)字圖像,結(jié)合相應(yīng)的算法改進(jìn),為UAV影像的快速拼接提供了一種思路,但并未考慮實際地形對UAV影像的影響(特別是在實現(xiàn)正射成圖方面)。
參考文獻(xiàn)(References):
[1]張永軍.無人駕駛飛艇低空遙感影像的幾何處理[J].武漢大學(xué)學(xué)報:信息科學(xué)版,2009,34(3):284-288.
Zhang Y J.Geometric processing of low altitude remote sensing images captured by unmanned airship[J].Geomatics and Information Science of Wuhan University,2009,34(3):284-288.
[2]蘇俊英.SIFT特征匹配無人飛艇多光譜影像拼接[J].應(yīng)用科學(xué)學(xué)報,2010,28(6):616-620.
Su J Y.Mosaicing of multiple spectrum images acquired from unmanned airship with SIFT feature matching[J].Journal of Applied Sciences,2010,28(6):616-620.
[3]狄穎辰,陳云坪,陳瑩瑩,等.無人機影像拼接算法綜述[J].計算機應(yīng)用,2011,31(1):170-174.
Di Y C,Chen Y P,Chen Y Y,et al.Survey on image mosaic algorithm of unmanned aerial vehicle[J].Journal of Computer Applications,2011,31(1):170-174.
[4]王斌,王偉鋒.一種基于局部灰度匹配的無人機圖像拼接算法[J].中國石油大學(xué)學(xué)報:自然科學(xué)版,2009,33(2):169-173.
Wang B,Wang W F.Unmanned aerial vehicle image mosaic algorithm based on local gray fitting[J].Journal of China University of Petroleum:Edition of Natural Science,2009,33(2):169-173.
[5]白廷柱,侯喜報.基于SIFT算子的圖像匹配算法研究[J].北京理工大學(xué)學(xué)報,2013,33(6):622-627.
Bai T Z,Hou X B.An improved image matching algorithm based on SIFT[J].Transactions of Beijing Institute of Technology,2013,33(6):622-627.
[6]唐敏,李永樹,魯恒.無人機影像的同名點匹配[J].光電工程,2012,39(3):19-24.
Tang M,Li Y S,Lu H.Correspondence points matching of UAV images[J].Opto-Electronic Engineering,2012,39(3):19-24.
[7]劉立,彭復(fù)員,趙坤,等.采用簡化SIFT算法實現(xiàn)快速圖像匹配[J].紅外與激光工程,2008,37(1):181-184.
Liu L,Peng F Y,Zhao K,et al.Simplified SIFT algorithm for fast image matching[J].Infrared and Laser Engineering,2008,37(1):181-184.
[8]吳寅初,馬戎.基于彩色信息的尺度不變特征變換圖像特征點提取與匹配[J].計算機應(yīng)用,2011,31(4):1024-1026.
Wu Y C,Ma R.Image feature extraction and matching of color-based scale-invariant feature transform[J].Journal of Computer Applications,2011,31(4):1024-1026.
[9]Geusebroek J M,van den Boomgaard R,Smeulders A W M,et al.Color invariance[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(12):1338-1350.
[10]Brown M,Lowe D G.Invariant features from interest point groups[C]//Proceedings of the British Machine Vision Conference.Cardiff,UK:[s.n.],2002:656-665.
[11]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[12]王金泉,李欽富.基于單應(yīng)性矩陣的SAR圖像配準(zhǔn)技術(shù)研究[J].中國電子科學(xué)研究院學(xué)報,2009,3(6):657-660.
Wang J Q,Li Q F.Research on SAR image registration based on homograph matrix[J].Journal of CAEIT,2009,3(6):657-660.
[13]Fischler M A,Bolles R C.Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.
[14]Szeliski R.Video mosaics for virtual environments[J].IEEE Computer Graphics and Applications,1996,16(2):22-30.
[15]王娟,師軍,吳憲祥.圖像拼接技術(shù)綜述[J].計算機應(yīng)用研究,2008,25(7):1940-1943.
Wang J,Shi J,Wu X X.Survey of image mosaics techniques[J].Application Research of Computers,2008,25(7):1940-1943.
(責(zé)任編輯: 劉心季)
UAV image matching based on CSIFT feature
GENG Juan1, HE Chenglong2, LIU Xianxin2
(1.JointRemoteSensingResearchCentreforRailTransitProject,SouthwestJiaotongUniversity,Chengdu610031,China;2.FacultyofEarthandEngineering,SouthwestJiaotongUniversity,Chengdu610031,China)
Abstract:With the development of the unmanned aerial vehicle(UAV)technique, currently UAV data have been gradually used in application and research fields. Differing from the current UAV matching method that integrates Photogrammetry and Image control points, the novel method presented in this paper is based on the color scale-invariant feature transform (CSIFT) feature to collect the key match points in the reference image and the image to be matched, followed by using the random sample consensus algorithm (RANSAC)method to extract the match points for the final matching result. The authors use an example to verify the feasibility and the validity of the method. Compared with the SIFT method, the accuracy could be increased from 70% to 88%, and the algorithm proposed in this paper can not only guarantee the matching result but also produce less matching points and use less working time.
Keywords:UAV image; CSIFT feature; feature matching point; homography matrix; random sample consensus(RANSAC)
作者簡介:第一 耿娟(1985-),女,碩士,主要從事攝影測量與遙感應(yīng)用方面的研究。Email: gengjuan8519@gmail.com。
中圖法分類號:TP 751.1
文獻(xiàn)標(biāo)志碼:A
文章編號:1001-070X(2016)01-0093-08
基金項目:國家重點基礎(chǔ)項目(973項目)“高分辨率遙感影像的信息度量與質(zhì)量改善”(編號: 2012CB719901)、國家高技術(shù)研究發(fā)展計劃(863計劃)項目“多尺度遙感數(shù)據(jù)按需快速處理與定量遙感產(chǎn)品生成關(guān)鍵技術(shù)”(編號: 2012AA12A304)和國家自然科學(xué)基金項目“地震災(zāi)區(qū)基于遙感信息的交通設(shè)施損毀快速評估”(編號: 50848053) 共同資助。
收稿日期:2014-09-15;
修訂日期:2014-11-29
doi:10.6046/gtzyyg.2016.01.14
引用格式: 耿娟,何成龍,劉憲鑫.基于CSIFT特性的無人機影像匹配[J].國土資源遙感,2016,28(1):93-100.(Geng J,He C L,Liu X X.UAV image matching based on CSIFT feature[J].Remote Sensing for Land and Resources,2016,28(1):93-100.)