国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于不變因子的SIFT誤匹配點(diǎn)剔除及圖像檢索

2015-03-29 05:59:47阮小麗陳慶虎邱益鳴鄢煜塵
紅外技術(shù) 2015年7期
關(guān)鍵詞:關(guān)鍵點(diǎn)鄰域尺度

阮小麗,陳慶虎,邱益鳴,鄢煜塵

?

基于不變因子的SIFT誤匹配點(diǎn)剔除及圖像檢索

阮小麗,陳慶虎,邱益鳴,鄢煜塵

(武漢大學(xué)電子信息學(xué)院,湖北 武漢 430072)

為解決尺度不變特征變換(SIFT)算法在圖像發(fā)生旋轉(zhuǎn)和尺度變化時產(chǎn)生的錯誤匹配問題,提出一種新的算法。根據(jù)SIFT提取的關(guān)鍵點(diǎn)信息,利用正確匹配點(diǎn)對間的旋轉(zhuǎn)不變因子和尺度不變因子來剔除SIFT誤匹配點(diǎn),然后對保留下來的特征點(diǎn)進(jìn)行聚類分析,對目標(biāo)圖像進(jìn)行識別判斷,并通過實驗將該算法與雙向匹配算法和隨機(jī)抽樣一致性算法(RANSAC)進(jìn)行比較。實驗結(jié)果表明,該算法能夠有效地剔除誤匹配點(diǎn),且誤剔除率低。剔除誤匹配點(diǎn)后再進(jìn)行圖像檢索,圖像的漏檢率和誤檢率都大大地降低了。

尺度不變特征變換;轉(zhuǎn)不變因子;尺度不變因子;誤剔除率;漏檢率;誤檢率

0 引言

圖像匹配是指在兩幅或多幅圖像之間根據(jù)某一匹配算法找出對應(yīng)的相似點(diǎn)。實質(zhì)就是在特征基元相似的前提下,用匹配準(zhǔn)則進(jìn)行最佳搜索。圖像匹配在醫(yī)療影像和圖像檢索領(lǐng)域[1]應(yīng)用廣泛,圖像匹配正確率直接影響著識別的結(jié)果,匹配正確率越高,識別結(jié)果越準(zhǔn)確。

圖像匹配主要可以分為灰度匹配和特征匹配算法[2]?;叶绕ヅ渌惴ò凑漳撤N相似性度量方法把每個像素的灰度矩陣與模板圖像的所有可能的窗口灰度列陣進(jìn)行搜索比較來實現(xiàn)圖像匹配[3]。圖像的特征匹配算法可以克服圖像灰度匹配算法對圖像仿射變換、尺度變換等比較敏感以及實際應(yīng)用性差的缺點(diǎn),并且對圖像亮度變化、圖像形變和部分遮擋等都有一定的適應(yīng)性。特征點(diǎn)的匹配算法與位置關(guān)系緊密,使匹配的精確度大大提高了。SIFT特征[4]與圖像旋轉(zhuǎn)、尺度縮放等無關(guān),在發(fā)生光照變化、視角變化、仿射變換以及出現(xiàn)噪聲時也比較穩(wěn)定。SIFT特征獨(dú)特并且所含信息豐富,即使在海量數(shù)據(jù)庫中也能準(zhǔn)確地識別物體。但SIFT算法也有缺點(diǎn),由于圖像的旋轉(zhuǎn)和尺度縮放等變形使得圖像間存在錯誤匹配,導(dǎo)致識別率低,因此進(jìn)行誤匹配點(diǎn)剔除很有必要。

RANSAC算法[5]具有魯棒性,主要通過反復(fù)迭代、不斷測試來進(jìn)行誤匹配點(diǎn)剔除。文獻(xiàn)[6]提出了一種雙向匹配算法,但該算法對誤匹配點(diǎn)剔除效果不理想。

對于2幅圖像的匹配點(diǎn)對,正確匹配點(diǎn)對間的方向角度差和鄰域直徑比分布比較集中,錯誤匹配點(diǎn)對間的方向角度差和鄰域直徑比呈離散分布的趨勢。因此,本文利用正確匹配點(diǎn)對間的旋轉(zhuǎn)不變因子和尺度不變因子剔除SIFT誤匹配點(diǎn),實驗結(jié)果表明,該算法比雙向匹配算法和RANSAC算法更能有效地剔除誤匹配點(diǎn)。

1 SIFT算法原理簡介

David G.Lowe分別在1999年和2004年提出[7]和總結(jié)完善[8]了SIFT算子。林強(qiáng)[9]用Harris角點(diǎn)檢測算子進(jìn)行關(guān)鍵點(diǎn)篩選;李明等[10]在特征點(diǎn)定位和生成特征描述向量時用相位一致性進(jìn)行代替;盧明等[11]利用Harris算法消除使用Hessian矩陣導(dǎo)致的邊界效應(yīng)。SIFT算法可以分解為如下5步:

1)尺度空間極值檢測

實現(xiàn)尺度變換的高斯卷積核是唯一變換核[12]且是唯一的線性核[13]分別經(jīng)Koendetink等人和Lindeberg等人證明。將一幅圖像(,)與尺度可變的二維高斯函數(shù)(,,)進(jìn)行卷積得到該圖像的尺度空間(,,):

(,,)=(,,)*(,) (2)

式中:(,)為空間坐標(biāo);為尺度空間因子。平滑程度由決定,越大圖像被平滑的越多,內(nèi)容信息越小,越小圖像被平滑的越少,細(xì)節(jié)越豐富。

建立尺度空間后,用高斯差分尺度空間(DOG,scale-space)來檢測局部區(qū)域的的極值點(diǎn),DOG算子有如下定義:

(,,)=[(,,)-(,,)*(,)=

(,,)-(,,) (3)

選擇DOG算子建立DOG尺度空間。

2)檢測關(guān)鍵點(diǎn)

在DOG尺度空間中將每個點(diǎn)與其鄰近的26個像素中比較后得出的最大值或最小值即為局部極值點(diǎn)。如圖1所示,鄰近的26個點(diǎn)包括同尺度的8個相鄰點(diǎn)以及上下相鄰尺度的9×2共18個相鄰點(diǎn)。

為了去除DOG算子的邊緣響應(yīng),需要用Taylor函數(shù)對DOG尺度空間檢測到的局部極值點(diǎn)進(jìn)行擬合,然后用Hessian矩陣去掉邊緣點(diǎn),得到穩(wěn)定的關(guān)鍵點(diǎn)。

圖1 DOG尺度空間關(guān)鍵點(diǎn)檢測

3)關(guān)鍵點(diǎn)方向分配

為每個關(guān)鍵點(diǎn)分配1個方向,使SIFT算子具有抗旋轉(zhuǎn)性。關(guān)鍵點(diǎn)方向的獲取需要依靠其鄰域像素的梯度模值和方向的綜合特性:

(,)={[(+1,)-(-1,)]2+

[(,+1)-(,-1)]2}1/2(4)

(,)=tan-1{[(,+1)-(,-1)]/

[(+1,)-(-1,)]} (5)

式中:(,)為像素點(diǎn)(,)的梯度模值;(,)為梯度方向。

以關(guān)鍵點(diǎn)為中心,統(tǒng)計關(guān)鍵點(diǎn)鄰域采樣點(diǎn)的梯度方向直方圖。梯度方向直方圖將360°分成36個小區(qū)間,每個小區(qū)間的長度是10°。每一個鄰近的采樣點(diǎn)相對于中心的關(guān)鍵點(diǎn)梯度方向信息貢獻(xiàn)按照高斯函數(shù)進(jìn)行加權(quán),即該采樣點(diǎn)的梯度值乘以對應(yīng)高斯分布函數(shù)的值,像素離關(guān)鍵點(diǎn)越近,權(quán)值越大。計算出每個采樣點(diǎn)的梯度方向,看其屬于哪個區(qū)間就將其劃分到哪個區(qū)間。梯度直方圖的主峰值即為該關(guān)鍵點(diǎn)的主方向,峰值達(dá)到主峰值80%以上的作為輔助方向。

檢測完關(guān)鍵點(diǎn),可以獲取關(guān)鍵點(diǎn)的位置、尺度和方向。

4)特征點(diǎn)描述符

首先將坐標(biāo)軸旋轉(zhuǎn)到與關(guān)鍵點(diǎn)方向一致,使算子與旋轉(zhuǎn)無關(guān)。以關(guān)鍵點(diǎn)為鄰域窗口的中心取8×8的區(qū)域大小,如圖2所示。

圖2 生成特征向量

在圖2的左圖中關(guān)鍵點(diǎn)即為中央黑點(diǎn)。每個像素在這個區(qū)域中用一個小格表示。像素的梯度方向和梯度模值分別由箭頭方向和箭頭長度指示。圖中需要用高斯進(jìn)行加權(quán)的范圍為藍(lán)色的圈內(nèi)區(qū)域。每個種子點(diǎn)是在4×4的小區(qū)域內(nèi)計算8個方向的梯度方向直方圖并進(jìn)行累加得到,所以每個種子點(diǎn)擁有8個方向信息。如圖2的右圖所示,每個關(guān)鍵點(diǎn)又由4個種子點(diǎn)構(gòu)成。實際應(yīng)用中,為了增強(qiáng)匹配的穩(wěn)健性,以每個關(guān)鍵點(diǎn)為中心,取16×16的窗口,擴(kuò)大采樣窗口,得到4×4共16個種子點(diǎn),每個種子點(diǎn)有8個方向,因此,每個關(guān)鍵點(diǎn)就可以擁有128個數(shù)據(jù),即128維的SIFT特征描述子。此時尺度變化、旋轉(zhuǎn)等幾何變形因素對SIFT特征向量的影響已經(jīng)被去除了。為了進(jìn)一步去除光照變化對SIFT特征向量的影響,可以將特征向量的長度進(jìn)行歸一化。

5)特征點(diǎn)匹配

計算2個特征向量間的歐氏距離[14],距離越小,說明兩者越相似,在測試樣本中搜索與訓(xùn)練樣本的特征點(diǎn)歐氏距離最小的點(diǎn)和第二小的點(diǎn),如果最小距離與第二小距離的比值小于某個預(yù)先給定的閾值大小,則接受這一對匹配點(diǎn)。閾值越小,匹配點(diǎn)數(shù)量越少,但匹配正確率會相應(yīng)地提高。

2 基于RANSAC算法的SIFT誤匹配點(diǎn)剔除

RANSAC算法常用來剔除誤匹配點(diǎn)。該算法的思想就是構(gòu)造一個模型使之符合具體問題的要求,為了得到該模型參數(shù)的初始值,需要進(jìn)行反復(fù)提取最小點(diǎn)集,利用這些初始值把原始數(shù)據(jù)點(diǎn)集分為2類:內(nèi)點(diǎn)和外點(diǎn),將所有內(nèi)點(diǎn)用于重新計算模型的參數(shù)。當(dāng)匹配點(diǎn)集中正確匹配點(diǎn)較多時,該算法能夠消除誤匹配,但當(dāng)匹配點(diǎn)集中誤匹配點(diǎn)比例較大時,該算法的效果將大大地降低。

3 雙向匹配算法

根據(jù)交集的思想,有人提出雙向匹配算法[5]進(jìn)行誤匹配點(diǎn)剔除。其思想是交換2次匹配中圖像的順序,取2次匹配特征點(diǎn)集的交集部分,即坐標(biāo)相同的特征點(diǎn)。

4 基于不變因子的SIFT誤匹配點(diǎn)剔除

利用SIFT算法檢測到的關(guān)鍵點(diǎn),可以得到關(guān)鍵點(diǎn)的尺度、位置和方向等重要信息。利用SIFT的粗匹配結(jié)果可以知道每對匹配關(guān)鍵點(diǎn)的坐標(biāo)位置、領(lǐng)域直徑和方向角度等信息。特征點(diǎn)的鄰域直徑反映了圖像的尺度信息,方向角度反映了圖像的旋轉(zhuǎn)角度信息。為了進(jìn)一步檢驗他們之間的某種定量關(guān)系,選取了10幅訓(xùn)練樣本圖像和200幅測試樣本,其中有目標(biāo)的15幅,分別為原圖,發(fā)生旋轉(zhuǎn)和放縮的圖像,無目標(biāo)的185幅。實驗過程如下:

1)分別以每幅訓(xùn)練樣本為模板,與測試樣本庫中的圖像逐一進(jìn)行SIFT匹配。

2)根據(jù)測試樣本有無目標(biāo)圖像以及目標(biāo)圖像進(jìn)行的變化分為5類:有目標(biāo)并且圖像沒有發(fā)生變化、有目標(biāo)圖像只進(jìn)行了尺度縮放、有目標(biāo)圖像只進(jìn)行了旋轉(zhuǎn)變化、有目標(biāo)圖像同時發(fā)生了尺度縮放和旋轉(zhuǎn)變化以及沒有目標(biāo)圖像。根據(jù)SIFT粗匹配結(jié)果,可以得到每對匹配關(guān)鍵點(diǎn)的鄰域直徑(尺度)大小、方向角度大小,計算每對匹配關(guān)鍵點(diǎn)的鄰域直徑比值和方向角度差。

3)從2)的計算結(jié)果可以發(fā)現(xiàn)如下規(guī)律:目標(biāo)圖像沒有發(fā)生變化時,每對正確匹配關(guān)鍵點(diǎn)的領(lǐng)域直徑比值等于1,方向角度差為零,錯誤匹配點(diǎn)的鄰域直徑比和方向角度差分布離散;目標(biāo)圖像只進(jìn)行尺度縮放時,每對正確匹配關(guān)鍵點(diǎn)的領(lǐng)域直徑比值與圖像縮放尺度接近,集中分布在一個小范圍內(nèi),方向角度差接近零,錯誤匹配點(diǎn)的領(lǐng)域直徑比和方向角度差分布離散;目標(biāo)圖像只進(jìn)行旋轉(zhuǎn)變化時,每對正確匹配關(guān)鍵點(diǎn)的領(lǐng)域直徑比接近1,方向角度差與圖像旋轉(zhuǎn)角度接近,集中分布在一個小范圍內(nèi),錯誤匹配關(guān)鍵點(diǎn)的鄰域直徑比和方向角度差分布離散;目標(biāo)圖像同時進(jìn)行尺度縮放和旋轉(zhuǎn)變化時,每對正確匹配關(guān)鍵點(diǎn)的鄰域直徑比值與圖像縮放尺度接近,集中分布在一個小區(qū)域,方向角度差與圖像旋轉(zhuǎn)角度接近,也集中分布在一個小區(qū)間,而錯誤匹配關(guān)鍵點(diǎn)的鄰域直徑比值和方向角度差都呈現(xiàn)離散分布;當(dāng)測試樣本中無目標(biāo)圖像時,每對匹配關(guān)鍵點(diǎn)(錯誤匹配關(guān)鍵點(diǎn))的鄰域直徑比值和方向角度差都是離散分布的。

4)對3)中的統(tǒng)計數(shù)據(jù)進(jìn)行歸納總結(jié),可以得出如下結(jié)論:當(dāng)一幅圖像進(jìn)行一定尺度的縮放時,圖像正確匹配關(guān)鍵點(diǎn)的鄰域直徑也會進(jìn)行相應(yīng)倍數(shù)的縮放;當(dāng)圖像進(jìn)行任意角度的旋轉(zhuǎn)變化時,圖像正確匹配關(guān)鍵點(diǎn)的方向角度也會進(jìn)行相應(yīng)角度的旋轉(zhuǎn)變化。

5)利用4)所總結(jié)出的規(guī)律,可以得出SIFT誤匹配點(diǎn)剔除的基本原理。當(dāng)圖像進(jìn)行旋轉(zhuǎn)和尺度縮放等變化時,每對正確匹配關(guān)鍵點(diǎn)的領(lǐng)域直徑比值會發(fā)生相應(yīng)倍數(shù)的變化,每對正確匹配關(guān)鍵點(diǎn)的方向角度差也會出現(xiàn)與旋轉(zhuǎn)角度類似的變化,而錯誤匹配關(guān)鍵點(diǎn)間的鄰域直徑比和方向角度差呈現(xiàn)離散分布的趨勢,并無此規(guī)律。計算每對匹配關(guān)鍵點(diǎn)的鄰域直徑比和方向角度差,對計算結(jié)果進(jìn)行分析,去掉分布離散的數(shù)據(jù)點(diǎn)就可以剔除誤匹配點(diǎn)了。算法的核心步驟如下:

①根據(jù)SIFT匹配結(jié)果可以獲得每對匹配點(diǎn)的鄰域直徑和方向角度大小。令p、q為任意一對SIFT匹配點(diǎn)(p表示訓(xùn)練樣本中的匹配關(guān)鍵點(diǎn),q表示測試樣本中的匹配關(guān)鍵點(diǎn)),通過匹配信息可以知道每對匹配點(diǎn)對應(yīng)的訓(xùn)練樣本和測試樣本的特征描述子索引。進(jìn)而知道每對匹配點(diǎn)在分別在訓(xùn)練樣本和測試樣本中的關(guān)鍵點(diǎn)索引,從而知道每對匹配點(diǎn)對應(yīng)的鄰域直徑和方向角度大小,計算每對匹配關(guān)鍵點(diǎn)的鄰域直徑比和方向角度差,即qp的鄰域直徑比,qp的方向角度差。由于方向角的取值范圍為[0, 360)°,為了防止因圖像旋轉(zhuǎn)后超過360°產(chǎn)生溢出,導(dǎo)致方向角度差出現(xiàn)負(fù)數(shù)的情況,當(dāng)兩者的方向角度差出現(xiàn)負(fù)值時在負(fù)數(shù)的基礎(chǔ)上再加上360。

②根據(jù)5)可知每對正確匹配關(guān)鍵點(diǎn)的鄰域直徑比和方向角度差都集中分布在一個小范圍內(nèi)。稱正確匹配關(guān)鍵點(diǎn)的鄰域直徑比的分布區(qū)間為尺度不變因子,正確匹配關(guān)鍵點(diǎn)的方向角度差的分布區(qū)間為旋轉(zhuǎn)不變因子。

鄰域直徑比為:

z=z2/z1(6)

方向角度差:

if (g2>a1)

g=g2-g1

elseg=g2-g1+360 (7)

式中:z、g分別表示每對匹配關(guān)鍵點(diǎn)的鄰域直徑比和方向角度差;z2、g2分別表示q的鄰域直徑大小和方向角度大??;z1、g1分別表示p的鄰域直徑大小和方向角度大小。

③SIFT錯誤匹配關(guān)鍵點(diǎn)的鄰域直徑比與尺度不變因子相差較大,方向角度差與旋轉(zhuǎn)不變因子相差較大。根據(jù)這個原理統(tǒng)計每對匹配點(diǎn)的鄰域直徑比和方向角度差,將鄰域直徑比和方向角度差作為兩類數(shù)據(jù),去掉兩類數(shù)據(jù)中離散分布的數(shù)據(jù),取兩類數(shù)據(jù)中都保留下來的點(diǎn)作為SIFT誤匹配點(diǎn)剔除后的結(jié)果。步驟如下:

Step1:將所有的鄰域直徑比值作為數(shù)據(jù)源,取其中任意一個數(shù)據(jù),統(tǒng)計該數(shù)據(jù)源中其他數(shù)據(jù)點(diǎn)到該數(shù)據(jù)點(diǎn)的歐式距離小于閾值1的點(diǎn)數(shù),歐氏距離公式如式(8)所示:

=[(1-2)2+(1-2)2]1/2(8)

統(tǒng)計點(diǎn)數(shù)若大于閾值num1,則認(rèn)為該數(shù)據(jù)點(diǎn)分布集中,是正確匹配點(diǎn),應(yīng)該保留,否則,應(yīng)該從該數(shù)據(jù)源中去掉。對該數(shù)據(jù)源中其他數(shù)據(jù)點(diǎn)也按此方法進(jìn)行統(tǒng)計判斷,得到一組數(shù)據(jù)點(diǎn)。將所有的方向角度差作為另一類數(shù)據(jù)源,按照同樣的處理方法,可以獲得另一組數(shù)據(jù)點(diǎn)。

Step2:取兩類數(shù)據(jù)中保留下來的數(shù)據(jù)點(diǎn)所代表的匹配關(guān)鍵點(diǎn)的交集,作為最后誤匹配點(diǎn)剔除后的結(jié)果。

5 剔除誤匹配點(diǎn)后的圖像檢索

1)按照步驟(3)對保留下來的匹配點(diǎn)進(jìn)行進(jìn)一步聚類分析[15],去掉那些分布離散的匹配點(diǎn),得到聚類點(diǎn)。

2)從聚類點(diǎn)中任取一點(diǎn),計算其他所有點(diǎn)到該點(diǎn)的歐式距離和,取歐氏距離和最小的點(diǎn)作為這些點(diǎn)的聚類中心:

式中:0為所有聚類點(diǎn)到某個聚類點(diǎn)的歐氏距離和;xy為聚類點(diǎn)的坐標(biāo);,為某個特定聚類點(diǎn)的坐標(biāo);為總的聚類點(diǎn)數(shù)。

3)根據(jù)公式(9)計算所有聚類點(diǎn)到聚類中心的歐氏距離和,若歐氏距離和與聚類點(diǎn)數(shù)的比值小于閾值,則認(rèn)為該測試樣本中有目標(biāo)圖像,反之則沒有。

6 實驗結(jié)果分析

在SIFT粗匹配的基礎(chǔ)上,將本文算法與雙向匹配算法和RANSAC算法進(jìn)行誤匹配點(diǎn)剔除和檢索的實驗結(jié)果進(jìn)行對比來檢驗文中算法的好壞。算法性能的好壞主要根據(jù)匹配正確率、誤剔除率、漏檢率和誤檢率進(jìn)行評估。

6.1 算法性能評價指標(biāo)

匹配正確率=正確匹配點(diǎn)數(shù)/總匹配點(diǎn)數(shù) (10)

誤剔除率=剔除的正確匹配點(diǎn)數(shù)/總剔除點(diǎn)數(shù) (11)

漏檢率=未檢索到的目標(biāo)圖像數(shù)/總的目標(biāo)圖像數(shù)(12)

誤檢率=檢索到的無目標(biāo)圖像數(shù)/總的無目標(biāo)圖像數(shù)(13)

6.2 實驗結(jié)果及分析

實驗中采用100組普通訓(xùn)練樣本圖像,2000幅測試樣本圖像,其中有100幅測試樣本含有目標(biāo)圖像,分別為20幅原目標(biāo)圖像,40幅包含目標(biāo)圖像的大圖像,40幅包含經(jīng)過旋轉(zhuǎn)和尺度縮放的目標(biāo)圖像,其余為無目標(biāo)圖像。本文所采用的程序設(shè)計語言為VS2008和開源庫OpenCV2.4.5,以灰度圖的方式讀取兩幅圖片,對灰度化以后的圖片進(jìn)行SIFT特征匹配、誤匹配點(diǎn)剔除及檢索等一系列的操作。部分誤匹配點(diǎn)剔除實驗圖如下:

實驗一:

圖3(a),(b),(c),(d)分別為SIFT粗匹配、雙向匹配算法、RANSAC算法和本文算法的實驗結(jié)果圖。其結(jié)果如表1所示。

圖3 SIFT匹配及3種算法對比圖

表1 SIFT匹配及3種算法結(jié)果對比

實驗二:

圖4(a),(b),(c),(d)分別為SIFT粗匹配、雙向匹配算法、RANSAC算法和本文算法的實驗結(jié)果圖。其結(jié)果如表2所示。

圖4 SIFT匹配及三種算法對比圖

表2 SIFT粗匹配及3種算法結(jié)果對比

從表1、2可以看出:①當(dāng)SIFT粗匹配正確率較低時,雙向匹配算法并不能達(dá)到有效剔除誤匹配點(diǎn)的效果,RANSAC算法能夠在一定程度上提高匹配正確率,但提高幅度不大且誤剔除率較高,而本文算法在有效剔除誤匹配點(diǎn)的同時還可以保證低的誤剔除率;②當(dāng)SIFT粗匹配的正確匹配點(diǎn)多于誤匹配點(diǎn)時,雙向匹配算法能稍微提高匹配正確率,但誤剔除率較高,RANSAC算法雖然能夠剔除誤匹配點(diǎn),但性能沒有本文算法好。

選取100組訓(xùn)練樣本,2000幅測試樣本,用上述3種算法分別剔除誤匹配點(diǎn)后再檢索的實驗結(jié)果與直接進(jìn)行檢索的實驗對比結(jié)果如表3所示。

表3 三種算法誤匹配點(diǎn)剔除前后圖像檢索結(jié)果對比

由表3可知,用雙向匹配算法剔除誤匹配點(diǎn)后再進(jìn)行檢索,并不能有效地提高圖像檢索率,RANSAC算法雖然能夠在一定程度上降低平均漏檢率和誤檢率,但不及本文算法效果好。

7 結(jié)論

本文針對圖像旋轉(zhuǎn)和尺度變化導(dǎo)致的SIFT誤匹配,提出基于旋轉(zhuǎn)不變因子和尺度不變因子對其進(jìn)行誤匹配點(diǎn)剔除。經(jīng)過大量的實驗驗證,本文算法的優(yōu)越性明顯高于另外兩種算法:雙向匹配算法并不能有效地剔除誤匹配點(diǎn)且對圖像檢索正確率的提高貢獻(xiàn)不大,RANSAC算法雖然能夠在一定程度上提高圖像的匹配正確率和檢索率,但當(dāng)SIFT粗匹配中誤匹配點(diǎn)較多時,效果不太理想,本文算法不論在誤匹配點(diǎn)多還是少的情形下,都能夠有效地剔除誤匹配點(diǎn),且誤剔除率較低,大大地降低了漏檢率和誤檢率。本文算法效果好、原理簡單、適用范圍廣,利用本文算法可以找到圖像的旋轉(zhuǎn)角度因子和尺度縮放因子將圖像進(jìn)行還原,將還原后的圖像再進(jìn)行模式識別,可以大大提高識別率。今后可以將本文算法用于互聯(lián)網(wǎng)海量圖像檢索。

[1] 周穎. 基于SIFT算法的圖像特征匹配[J]. 現(xiàn)代計算機(jī):專業(yè)版, 2015(5): 63-68

[2] Kuglin C D,Hines D C.The Phase Correlation Image alignment method[C]//1975: 163-165.

[3] 屠文柯, 閻保定, 楊海濤. 一種基于仿生學(xué)原理的復(fù)雜彩色目標(biāo)辨識方法[J]. 河南科技大學(xué)學(xué)報, 2005, 26(6): 67-69.

[4] 余宏生, 金偉其. 視頻圖像的SIFT特征點(diǎn)自適應(yīng)提取算法[J]. 紅外技術(shù), 2013, 35(12): 768-772.

[5] M. A. Fischler, R.C.Bolles. Random Sample Consensus:A paradigm for model fitting with applications to image analysis and automated cartography[J]., 1981, 24(6): 381-395

[6] 騫森, 朱劍英. 基于改進(jìn)的SIFT特征的圖像雙向匹配算法[J]. 機(jī)械科學(xué)與技術(shù), 2007(9): 1179-1182.

[7] David G. Lowe. Object recognition from local scale-invariant features[C] //, 1999(9): 1150-1157.

[8] D.G. Lowe. Distinctive image feature from scale-invariant keypoints[J]., 2004, 60(2): 91-110.

[9] 林強(qiáng). 一種改進(jìn)的SIFT圖像匹配算法[J]. 現(xiàn)代計算機(jī):專業(yè)版, 2015(5): 58-62.

[10] 李明, 李德仁, 范登科, 等. 利用PC-SIFT的多源光學(xué)衛(wèi)星影像自動配準(zhǔn)方法[J]. 武漢大學(xué)學(xué)報: 信息版, 2015(1): 64-70.

[11] 盧明, 張晶. 基于Harris的改進(jìn)SIFT算法[J]. 蘭州交通大學(xué)學(xué)報, 2014(6): 11-15.

[12] Koenderink J.J. The structure of images[J]., 1984 (50): 363-396.

[13] Lindeberg, T. Detecting salient blob-like image structures and their scales with a scale-space primal sketch: a method for focus-of-attention[J]., 1993, 11(3): 283-318.

[14] 李涪帆, 田浩, 巨永鋒. 基于歐氏距離的交通警告標(biāo)志識別方法研究[J]. 微型機(jī)與應(yīng)用, 2014, 22: 47-50.

[15] 楊傳慧. 圖像聚類及其在圖像檢索中的應(yīng)用研究[D]. 南京: 南京師范大學(xué), 2013.

Excluding SIFT Mismatching Points Based on the Invariant Factors and Image Retrieval

RUAN Xiao-li,CHEN Qing-hu,QIU Yi-ming,YAN Yu-chen

(,,430072,)

A new algorithm was put forward to solve SIFT mismatching problem that was caused by the image rotation and scale changes. It used the image rotation-invariant and scale-invariant factors of the right matching points to eliminate the mismatching points with the key information of SIFT extraction. Then it analyzed the reserved feature points by clustering to recognize the target images and was compared with the bidirectional matching algorithm and RANSAC algorithm through the experiments. The experiment results showed that this algorithm can effectively eliminate the false matching points and the false rejection rate is low. Images are retrieved after the mismatching points excluded,and the miss rate and the false detection rate of the images are greatly reduced.

SIFT,rotation-invariant factor,scale-invariant factor,false rejection rate,miss rate,false detection rate

TP391.41

A

1001-8891(2015)07-0560-06

2015-03-24;

2015-05-20.

阮小麗(1990-),女,湖北孝感人,碩士,主要研究方向:圖像處理與模式識別。

文件檢驗鑒定公安部重點(diǎn)實驗室(中國刑事警察學(xué)院)資助項目,編號:11KFKT002。

猜你喜歡
關(guān)鍵點(diǎn)鄰域尺度
聚焦金屬關(guān)鍵點(diǎn)
肉兔育肥抓好七個關(guān)鍵點(diǎn)
財產(chǎn)的五大尺度和五重應(yīng)對
稀疏圖平方圖的染色數(shù)上界
基于鄰域競賽的多目標(biāo)優(yōu)化算法
關(guān)于-型鄰域空間
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
醫(yī)聯(lián)體要把握三個關(guān)鍵點(diǎn)
9
鎖定兩個關(guān)鍵點(diǎn)——我這樣教《送考》
語文知識(2014年7期)2014-02-28 22:00:26
建水县| 兴和县| 木兰县| 石棉县| 藁城市| 巴青县| 醴陵市| 邯郸县| 唐山市| 沈阳市| 砚山县| 建阳市| 八宿县| 大丰市| 乃东县| 民和| 池州市| 淮阳县| 连南| 耒阳市| 墨竹工卡县| 淮滨县| 榆中县| 交城县| 阿克陶县| 湘西| 黄龙县| 海晏县| 故城县| 来安县| 庆元县| 大同县| 潞城市| 黄冈市| 松原市| 巴林左旗| 民权县| 武胜县| 二手房| 杨浦区| 扎囊县|