国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

結(jié)合快速魯棒性特征改進(jìn)ORB的特征點匹配算法

2016-07-19 20:09白雪冰車進(jìn)牟曉凱張英
計算機(jī)應(yīng)用 2016年7期
關(guān)鍵詞:像素點灰度尺度

白雪冰 車進(jìn) 牟曉凱 張英

摘要:針對定向二進(jìn)制簡單描述符(ORB)算法不具備尺度不變性的問題,提出一種結(jié)合快速魯棒性特征(SURF)算法和ORB的改進(jìn)算法。首先,利用Hessian矩陣檢測特征點的方法,使得提取出的特征點具有尺度不變性;然后,用ORB生成特征描述子;接著采用K近鄰算法進(jìn)行粗匹配;最后,通過比率測試、對稱測試、最小平方中值(LMedS)定理全文中,“最小中值定理”是否應(yīng)該為“最小平方中值定理”或“最小中值平方定理”更為規(guī)范些?請明確?;貜?fù):“最小中值定理”統(tǒng)一改為“最小平方中值定理”,英文翻譯不用動進(jìn)行提純。尺度變化時,該算法比ORB的匹配精度提高了74.3個百分點,比SURF的匹配精度提高了4.8個百分點;旋轉(zhuǎn)變化時,該算法比ORB的匹配精度提高了6.6另外,根據(jù)表2的數(shù)據(jù),此處是6.6吧?請明確。個百分點;匹配時間高于SURF低于ORB。實驗結(jié)果表明,改進(jìn)算法不僅保持了ORB的旋轉(zhuǎn)不變性,而且具備了尺度不變性,在不失速度的前提下,匹配精度得到較大提高。

關(guān)鍵詞:

特征點匹配;尺度不變性;旋轉(zhuǎn)不變性;比率測試;對稱測試;最小平方中值定理

中圖分類號: TP391.9 文獻(xiàn)標(biāo)志碼:A

0引言

圖像特征點匹配是計算機(jī)視覺的關(guān)鍵技術(shù)之一,廣泛應(yīng)用于三維重建、圖像拼接、目標(biāo)識別等領(lǐng)域[1-4]。Lowe[5]于2004年正式提出了尺度不變特征變換(Scale Invariant Feature Transform, SIFT)算法,其獨特性好,信息量豐富;但該算法的計算量大、匹配速度較慢。此后,Bay等[6]于2006年提出了快速魯棒性特征(Speeded Up Robust Feature, SURF)算法,不僅簡化了SIFT算法,而且在重復(fù)性、獨特性和魯棒性三個方面均超過或接近SIFT算法,計算速度也顯著提高。隨著計算機(jī)視覺技術(shù)的發(fā)展對特征點匹配精度和速度的要求越來越高,Roblee等[7]在2011年的 計算機(jī)視覺國際會議(Internation Conference on Computer Vision, ICCV)提出了定向二進(jìn)制簡單描述符(Oriented fast and Rotated Brief,ORB)算法,其計算速度比SURF快一個數(shù)量級,比SIFT快兩個數(shù)量級,匹配性能也不遜于SURF和SIFT。

ORB是一種局部不變特征描述子,對圖像的平移、旋轉(zhuǎn)具有不變性;但卻并不具備尺度不變性[8-9]。文獻(xiàn)[10]利用ORB進(jìn)行匹配時,采用改進(jìn)的隨機(jī)采樣一致性(RANdom Sample Consensus, RANSAC)進(jìn)行提純,使得匹配精度得到了提高;文獻(xiàn)[11]同樣在運用ORB匹配時,結(jié)合隨機(jī)采樣一致性方法,剔除錯誤匹配,并利用最小二乘估計變換參數(shù),對圖像進(jìn)行矯正;文獻(xiàn)[12]結(jié)合SIFT的算法思想對ORB進(jìn)行改進(jìn),實現(xiàn)了尺度不變性。以上研究解決了一些問題,但是在使用RANSAC算法中,判定內(nèi)外點距離閾值、隨機(jī)抽樣本集的次數(shù)和一致性集合的大小這3個參數(shù)需要根據(jù)不同的圖像設(shè)置不同的值,頻繁地設(shè)置參數(shù),極大地影響了計算效率;并且文獻(xiàn)[12]結(jié)合SIFT的算法思想會降低計算速度,匹配精度也不高。針對上述情況,結(jié)合SURF檢測子和ORB描述子,并利用比率測試和對稱測試進(jìn)行篩選,最后運用最小平方中值(Least Median Squares, LMedS)定理再次提純,從而克服了ORB不具有尺度不變性和RANSAC設(shè)置的參數(shù)較多的缺陷,并且匹配精度得到進(jìn)一步提高。

1ORB算法原理

1.1特征點提取

ORB算法采用加速分割測試特征(Features from Accelerated Segment Test, FAST)算子來提取特征點,F(xiàn)AST角點檢測定義為:若某像素點具有與其鄰域內(nèi)一定數(shù)量的像素點不同的特征時,該像素點被檢測為角點,例如在灰度圖像,某像素點周圍有足夠多像素點的灰度值均高于或低于該點的灰度值[13-14]。選取像素點H,并設(shè)該點的像素值為HP,考慮該像素點周圍的16個像素點,若在以H點為圓心,16個像素點組成的圓上有N(一般取9或者12)個連續(xù)的像素點,它們的像素點比HP+T (T為選取的閾值)大,或者比HP-T小,那么該像素點就是角點。FAST角點檢測速度快,但卻不具備旋轉(zhuǎn)尺度不變性和旋轉(zhuǎn)不變性。

FAST角點主方向運用亮度中心算法,以特征點為中心;同時作為坐標(biāo)原點,在其鄰域U內(nèi)計算質(zhì)心位置,然后以特征點為起點,質(zhì)心為終點構(gòu)造向量,此向量的方向即為特征點的方向,計算過程如下所示。

區(qū)域U的矩定義為式(1):

Mp,q=∑(x,y)∈UxpyqI(x,y)(1)

其中I(x,y)為點(x,y)處的灰度值,灰度矩設(shè)為C=(Cx,Cy)。其中:Cx=M1,0/M0,0,Cy=M0,1/M0,0,那么,F(xiàn)AST角點主方向為:

θ=arctan(M0,1/M1,0)(2)

1.2ORB特征描述子

ORB采用二進(jìn)制的魯棒性獨立基本特征(Binary Robust Independent Elementary Feature, BRIEF)生成特征描述子[15],BRIEF用二進(jìn)制的方式描述圖像區(qū)域,大幅度減少像素間的對比量。定義S×S大小的圖像鄰域P的測試準(zhǔn)則τ為:

τ(p;x,y)=1,p(x)

0,p(x)≥p(y)(3)

其中P(x)是圖像鄰域P在x后面的上標(biāo)T是否表示轉(zhuǎn)置?那么,此處的x是否是矢量、向量或矩陣?請明確。另外,后面的x,哪個是矢量、向量或矩陣?也請一一指出。=(u,v)T處的灰度值

原內(nèi)容為:“P(x)是圖像鄰域P在x=(u,v)T 處的灰度值”?,F(xiàn)改為:“P(x)是圖像鄰域P在像素點x=(u,v) 處的灰度值,同理可知P(y)為圖像鄰域P在像素點y處的灰度值”

P(x)是圖像鄰域P在像素點x=(u,v) 處的灰度值,同理可知P(y)為圖像鄰域P在像素點y處的灰度值

。選擇n個(x,y)測試點對時,通過二進(jìn)制測試準(zhǔn)則生成n維二進(jìn)制比特串的描述子,如式(4)所示:

fn(p)=∑1≤i≤n2i-1τ(p;xi,yi)(4)

其中n的選值需綜合比較計算速度、識別率和存儲效率,一般選擇64,128,256等。

由于BRIEF鄰域準(zhǔn)則測試時僅通過單一像素進(jìn)行計算,容易受噪聲影響。為了解決噪聲影響問題,ORB的測試點均采用31×31像素鄰域內(nèi)的5×5子窗口,通過高斯分布選擇子窗口,再對圖像進(jìn)行積分以加速計算。

上述生成的特征描述子是沒有方向的,因此使用1.1節(jié)求得的特征點質(zhì)心方向作為BRIEF的主方向,使得描述子具備旋轉(zhuǎn)不變性。對于(xi,yi)處任意n個二進(jìn)制準(zhǔn)則集,定義一個2×n的矩陣:

M=x1x2…xny1y2…yn(5)

使用特征點質(zhì)心方向θ對應(yīng)的旋轉(zhuǎn)矩陣Rθ,構(gòu)建M的一個有向形式Mθ=RθM,此時旋轉(zhuǎn)不變的BRIEF如式(6)所示:

gn(p,θ)=fn(p)|(xi,yi)∈Mθ(6)

通過貪心法則進(jìn)行搜索,從計算得到的全部像素塊中選擇n個相關(guān)性最低的作為rBRIEF此處的“rBRIEF”,是否應(yīng)該為“BRIEF”?請明確。旋轉(zhuǎn)不變的二進(jìn)制魯棒性獨立基本特征(Rotation invariance Binary Robust Independent Elementary Feature, RBRIEF)。

1.3特征點匹配

ORB生成的特征描述子為二進(jìn)制碼串形式,使用 Hamming 距離實現(xiàn)對特征點的匹配比較合適。

2結(jié)合SURF改進(jìn)ORB的算法

由以上ORB算法原理可以看出,ORB雖然具有旋轉(zhuǎn)不變性,但卻并不具備尺度不變性,其根本原因在于FAST檢測出的特征點不含尺度不變信息,從而使得描述子不具備尺度不變性,因此,解決的辦法是使檢測出的特征點具備尺度不變信息。

2.1Hessian矩陣檢測特征點

設(shè)圖像I中某點P=(x,y),則尺度為σ的Hessian矩陣定義為:

H(P,σ)=Lxx(P,σ)Lxy(P,σ)Lxy(P,σ)Lyy(P,σ)(7)

其中Lxx(P,σ)是高斯濾波后的圖像點P在x方向的二階導(dǎo)數(shù);同理,可求得Lxy(P,σ)、Lyy(P,σ)。

由于求Hessian時要先高斯濾波,然后求二階導(dǎo)數(shù),在離散的像素點中,可以用一個模板代替,如圖1所示。此模板可以極大程度地提高計算速度,圖1頂行分別為Lxx、Lyy和Lxy;底行中用模板近似為Dxx、Dyy和Dxy表示。

圖1中白色部分的權(quán)值設(shè)為-1,黑色部分設(shè)為1,其他區(qū)域不設(shè)置權(quán)值,則計算Hessian矩陣行列式的比較精確的近似公式為:

det(H)=DxxDxx-(0.9Dxy)2(8)

其中0.9為實驗測得的比較準(zhǔn)確的參數(shù),進(jìn)而得到每個像素點的Hessian矩陣行列式的近似值。

改變模板的大小,重復(fù)上述步驟,可以得到不同尺度下的像素點的Hessian矩陣行列式的近似值。將經(jīng)過Hessian矩陣處理過的每個像素點與其三維領(lǐng)鄰域此處是否應(yīng)該為“鄰域”?請明確。的26個點進(jìn)行大小比較,如果它是這26個點中的最大值或者最小值,則保留下來,當(dāng)作初步的特征點。

接著采用三維線性插值法得到亞像素級的特征點,此時的特征點即具備尺度不變性。

2.2生成特征點描述子

首先采用求FAST角點主方向的方法,計算出通過Hessian矩陣行列式求得的特征點的主方向,接著使用1.2節(jié)中求ORB特征描述子的方法,計算出特征描述子,由于2.1節(jié)求得的特征點具備了尺度不變性,并且特征描述子是在特征點的基礎(chǔ)上生成的,因此此時的特征描述子不僅具有旋轉(zhuǎn)不變性,而且具有尺度不變性。

2.3特征點匹配

簡單地說,K近鄰算法采用測量不同特征值之間的距離方法進(jìn)行分類。令K=2,即對于每個特征點,在另一幅圖像中找到兩個候選的匹配點,其中一個是最優(yōu)匹配點,另一個為次優(yōu)匹配點。

2.4剔除錯誤匹配點

首先采用比率測試,其原理為:如果最優(yōu)匹配點的測量距離非常小,而次優(yōu)匹配點的測量距離相對較大,那么最優(yōu)匹配點無疑是安全可靠的;如果兩個候選匹配點的測量距離相近,那么如果選擇其中之一作為匹配點很可能出錯,是不可靠的。比率測試正是檢查這兩個距離的比值,以除去不安全的匹配,因此對當(dāng)前的匹配進(jìn)行篩選,去除最有匹配和次優(yōu)匹配強度響應(yīng)強度大于設(shè)定閾值的匹配以及孤立的匹配。

接著采用對稱測試,令左匹配為待匹配的兩張圖從左圖到右圖的匹配,右匹配為待匹配的兩張圖從右圖到左圖的匹配,對稱測試即為對左匹配和右匹配進(jìn)行檢查,輸出對稱的匹配。

最后采用最小平方中值定理提純,文獻(xiàn)[10]中提出使用RANSAC算法進(jìn)行提純,RANSAC是一種隨機(jī)參數(shù)估計算法,性能良好,經(jīng)常被采用,但其內(nèi)部的3個參數(shù)需要人為設(shè)置,因此本文采用最小平方中值(Least Median Square, LMedS)算法。LMedS隨機(jī)抽選樣本中的一個子集,首先通過最小方差計算子集參數(shù),然后計算全部樣本與該子集模型的偏差。區(qū)別于RANSAC,LMedS記錄偏差值大小居中的那個樣本的偏差,以及本次計算得到的模型參數(shù),因此LMedS無需設(shè)定閾值來區(qū)分內(nèi)點和外點。重復(fù)N次上述過程,選擇N個偏差中值最小的一個,該偏差對應(yīng)的模型參數(shù)作為最終的模型參數(shù)估計值。樣本子集中樣本的個數(shù)、期望的模型誤差決定了迭代次數(shù)N的大小。最小平方中值定理克服了RANSAC的缺點,但其也存在缺點,當(dāng)外點的個數(shù)占總樣本數(shù)目的比例超過50%時,就無法得到正確的模型參數(shù),而比率測試和對稱測試經(jīng)過篩選后,這個缺點也就克服了。

3實驗結(jié)果與分析

為驗證算法性能,所用電腦的處理器為Intel Core i54200,64位操作系統(tǒng),內(nèi)存為4.00GB,并使用Visual Studio 2013進(jìn)行仿真實驗。

3.1尺度不變性實驗

為了驗證本文提出的算法的尺度不變性,以尺度變化的圖像作對比測試。其中:用ORB測試的結(jié)果如圖2所示,可以明顯看出,在尺度發(fā)生變化的時候,ORB的匹配效果并不是很好,匹配點過于集中某一部分,并且在尾巴和頭部等地方存在一些明顯的錯誤匹配;而使用本文算法測試的結(jié)果如圖3所示,得到了較為理想的實驗效果。對比圖2和圖3可以發(fā)現(xiàn),本文算法克服了ORB不具備尺度不變性的缺陷,在圖像發(fā)生較大尺度變化時,仍能取得較好的匹配效果。

為了驗證本文算法在尺度變化時具有較高的匹配成功率,即匹配精度,用ORB、SURF以及本文算法分別隨機(jī)統(tǒng)計實驗中的5組匹配數(shù)據(jù),如表1所示。

從表1可以看出,在尺度變化時,本文算法的匹配精度遠(yuǎn)高于ORB的匹配精度,本文算法的平均匹配精度約為97.2%,比ORB的平均匹配精度提高了74.3個百分點,說明了該算法在尺度不變性方面的優(yōu)勢。同時,本文算法比SURF的平均匹配精度提高了4.8個百分點,這要得益于提出的提純算法的優(yōu)越性能。

3.2旋轉(zhuǎn)不變性實驗

本文提出的算法和ORB算法都具備旋轉(zhuǎn)不變性,為了驗證本文算法的旋轉(zhuǎn)不變性以及提出的比率測試、對稱測試和最小平方中值定理在匹配提純方面的優(yōu)越性能,以旋轉(zhuǎn)圖像作為測試圖像進(jìn)行比較。其中圖4是使用ORB的匹配效果,可以看出,ORB雖然具有旋轉(zhuǎn)不變性,但是由于其只是簡單地使用Hamming 距離實現(xiàn)特征點的匹配,因此存在錯誤匹配,例如在左下角出現(xiàn)了錯誤匹配。而使用本文算法進(jìn)行匹配時,不僅具有旋轉(zhuǎn)不變性,而且經(jīng)過有效的提純后,匹配精度得到了提高,其匹配效果如圖5所示。

為了驗證本文算法在旋轉(zhuǎn)變化時仍然具有較高的匹配精度,隨機(jī)統(tǒng)計實驗中的5組匹配數(shù)據(jù),如表2所示。

從表2可以看出,圖像旋轉(zhuǎn)時,本文算法的平均匹配精度約為98.1%,比ORB的平均匹配精度提高了約6.9%6.6個百分點此處改為“提高了6.6個百分點”,通過98.1-91.5得來,或改為“提高了7.2%,通過(98.1-91.5)/91.5得來”,是否符合表達(dá)?請明確。也包括前面的中文摘要中的描述。,說明了本文算法在旋轉(zhuǎn)不變性方面同樣具有良好性能。

3.3匹配時間對比實驗

為了驗證本文算法的實時性,隨機(jī)統(tǒng)計實驗中的5組匹配時間數(shù)據(jù),如表3所示。

從表3可以看出,本文算法的平均匹配時間約為180.3ms,比ORB的平均匹配時間慢了約154.8ms;但卻比SURF快了約100.6ms,說明了本文算法在實時性方面同樣具有良好性能,但是提純算法會耗費一點時間,使得匹配速度比ORB略慢。從以上實驗可以看出,本文算法具備了尺度不變性和旋轉(zhuǎn)不變性,匹配精度得到進(jìn)一步提高,滿足實時性需求,有一定的實用性。

4結(jié)語

本文提出了一種結(jié)合SURF和ORB的算法,該算法克服了ORB不具備尺度不變性的缺陷,并采用比率測試、對稱測試、最小平方中值定理進(jìn)一步提純,通過實驗驗證了算法的通用性以及在匹配精度方面的優(yōu)越性能。由于ORB計算速度本身就很快,同時SURF提取特征點也比較快,使得匹配點經(jīng)過提純后,計算速度也基本能滿足實時性的需求,但其速度不如ORB,這也是接下來要進(jìn)一步研究的地方。

參考文獻(xiàn):

[1]

朱琳,王瑩,劉淑云,等.基于改進(jìn)快速魯棒特征的圖像快速拼接算法[J].計算機(jī)應(yīng)用,2014,34(10):2944-2947.(ZHU L, WANG Y, LIU S Y, et al. Fast image mosaic algorithm based on improved fast robust feature [J]. Journal of Computer Applications, 2014, 34(10): 2944-2947.)

[2]

劉海燕,楊昌玉,劉春玲,等.基于梯度特征和顏色特征的運動目標(biāo)跟蹤算法[J].計算機(jī)應(yīng)用,2012,32(5):1265-1268.(LIU H Y, YANG C Y, LIU C L, et al. Moving target tracking algorithm based on gradient feature and color feature [J]. Journal of Computer Applications, 2012, 32(5): 1265-1268.)

[3]

侯毅,周石琳,雷琳,等.基于ORB的快速完全仿射不變圖像匹配[J]. 計算機(jī)工程與科學(xué),2014,36(2):303-310.(HOU Y, ZHOU S L, LEI L, et al. Fast fully affine invariant image matching based on ORB [J]. Computer Engineering & Science, 2014, 36(2): 303-310.)

[4]

童宇,蔡自興.基于特征匹配的全景圖的生成[J].華中科技大學(xué)學(xué)報(自然科學(xué)版),2004,32(S1):77-79.(TONG Y, CAI Z X. Generation of panoramic image based on feature matching [J]. Journal of Huazhong University of Science and Technology (Nature Science Edition), 2004, 32(S1): 77-79.)

[5]

LOWE D G. Object recognition from local scaleinvariant features [C]// Proceedings of the 1999 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1150-1157.

[6]

BAY H, ESS A, TUYTELAARS T, et al. SURF: speeded up robust feature [J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

[7]

RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 2564-2571.

[8]

劉銘.基于ORB算法的雙目視覺測量與跟蹤研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2014:25.(LIU M. Binocular computer vision measurement and tracking research based on the ORB algorithm [D]. Harbin: Harbin Institute of Technology, 2014: 25.)

[9]

孟凡清.基于背景差分法與ORB算法的運動目標(biāo)檢測與跟蹤算法研究[D].北京:北京印刷學(xué)院,2014:30-33.(MENG F Q. Study on the moving object detection and tracking based on background subtraction and ORB algorithm [D]. Beijing: Beijing Printing Institute, 2014: 30-33.)

[10]

佘建國,徐仁桐,陳寧.基于ORB和改進(jìn)RANSAC算法的圖像拼接技術(shù)[J].江蘇科技大學(xué)學(xué)報(自然科學(xué)版),2015,29(2):164-169.(YU J G, XU R T, CHEN N. Image stitching technology based on ORB and improved RANSAC algorithm [J]. Journal of Jiangsu University of Science and Technology (Nature Science Edition), 2015, 29(2): 164-169.)

[11]

張云生,鄒崢嶸.基于改進(jìn)ORB算法的遙感圖像自動配準(zhǔn)方法[J].國土資源遙感,2013,25(3):20-24.(ZHANG Y S, ZOU Z R. Automatic registration method for remote sensing images based on improved ORB algorithm [J]. Remote Sensing for Land and Resources, 2013, 25(3): 20-24.)

[12]

許宏科,秦嚴(yán)嚴(yán),陳會茹.基于改進(jìn)ORB的圖像特征點匹配[J].科學(xué)技術(shù)與工程,2014,14(18):105-109.(XU H K, QIN Y Y, CHEN H R. Feature points matching in images based on improved ORB [J]. Science Technology and Engineering, 2014, 14(18): 105-109.)

[13]

ROSTEN E, DRUMMOND T. Fusing points and lines for high performance tracking [C]// Proceedings of the 2005 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2005: 1508-1515.

[14]

ROSTEN E, DRUMMOND T. Machine learning for high speed corner detection [C]// ECCV06: Proceedings of the 9th European Conference on Computer Vision. Berlin: Springer, 2006: 430-443.

[15]

CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF: binary robust independent elementary features [C]// ECCV10: Proceedings of the 11th European Conference on Computer vision. Berlin: Springer, 2010: 778-792.

猜你喜歡
像素點灰度尺度
天津港智慧工作平臺灰度發(fā)布系統(tǒng)和流程設(shè)計
華為“灰度”哲學(xué)
Arduino小車巡線程序的灰度閾值優(yōu)化方案
一種X射線圖像白點噪聲去除算法
基于灰度直方圖的單一圖像噪聲類型識別研究
基于canvas的前端數(shù)據(jù)加密
圖像采集過程中基于膚色理論的采集框自動定位
尺度
以長時間尺度看世界
9