国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于局部一致性的特征匹配算法

2019-11-01 09:10姚晉晉張鵬超王永鑫王彥

姚晉晉 張鵬超 王永鑫 王彥

摘要:針對特征匹配對尺度、光照變化敏感的問題,提出一種改進(jìn)ORB特征提取方法,并采用基于局部一致性的方法進(jìn)行匹配。首先采用改進(jìn)ORB算法提取魯棒性更強(qiáng)的特征點(diǎn),并計(jì)算特征點(diǎn)的方向與描述子,接著采用暴力匹配進(jìn)行粗匹配,最后根據(jù)運(yùn)動(dòng)平滑性的條件使用基于網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)的方法剔除誤匹配。實(shí)驗(yàn)結(jié)果表明所研究算法在尺度、光照等條件變化時(shí)匹配平均精度仍然大于95%,具有較好的匹配準(zhǔn)確率和魯棒性。

關(guān)鍵詞:ORB;特征匹配;局部一致性;運(yùn)動(dòng)統(tǒng)計(jì)

中圖分類號:TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號:1007-9416(2019)07-0128-03

0 引言

圖像匹配是計(jì)算機(jī)視覺領(lǐng)域一個(gè)基本問題,目的是為了尋找圖片對應(yīng)的運(yùn)動(dòng)關(guān)系,目前常用的匹配方法是基于特征點(diǎn)的匹配,然而該方法由于特征點(diǎn)的固有問題,容易受到光照、尺度、視角等影響,匹配準(zhǔn)確率有待提高。隨機(jī)采樣一致性(RANSAC)方法是常用的特征匹配算法,但是算法復(fù)雜度較高,無法滿足實(shí)時(shí)性要求較高的系統(tǒng)。Zhang Songtao[1]等人提出了基于雙向交叉匹配和距離閾值的匹配方法,提高了匹配的準(zhǔn)確率,然而正確匹配數(shù)量卻隨之減少了;Yong An[2]等人提出了一種基于k近鄰的用于SIFT特征的匹配算法,根據(jù)特征點(diǎn)周圍的附屬點(diǎn)判斷匹配是否準(zhǔn)確,從而實(shí)現(xiàn)誤匹配的篩選,具有良好的去誤匹配的能力;Jiawang Bian[3]提出一種基于網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)(GMS)的特征匹配方法,該方法在運(yùn)動(dòng)平滑的假設(shè)上,通過計(jì)數(shù)鄰域的匹配點(diǎn)個(gè)數(shù)判斷匹配是否正確,提高了匹配準(zhǔn)取率,但是為了保證效果,需要提取大量的特征點(diǎn)。

為此,本文提出了改進(jìn)的ORB方法進(jìn)行特征提取,采用Hessian矩陣計(jì)算關(guān)鍵點(diǎn),并計(jì)算關(guān)鍵點(diǎn)的方向,使其具有尺度和旋轉(zhuǎn)不變性,并采用BRIEF描述子對關(guān)鍵點(diǎn)鄰域內(nèi)隨機(jī)生成的點(diǎn)對進(jìn)行灰度值的比較,通過Hamming距離進(jìn)行暴力匹配得到粗匹配結(jié)果,最后采用基于局部一致性的方法進(jìn)行誤匹配的去除,從而提高特征匹配的準(zhǔn)確率。

1 算法描述

1.1 改進(jìn)ORB特征提取

傳統(tǒng)ORB算法不具備尺度不變性,為此在OpenCV中的ORB算法構(gòu)建了金字塔,在多尺度上提取特征點(diǎn),但對于模糊的圖片仍然難以達(dá)到較高的匹配效果,本文采用Hessian矩陣[4]為核心的方法提取特征點(diǎn),具有更強(qiáng)的魯棒性。

2 實(shí)驗(yàn)分析

為驗(yàn)證本文算法的圖像匹配效果,本實(shí)驗(yàn)主要采用OpenCV視覺庫在牛津大學(xué)圖像匹配數(shù)據(jù)集中進(jìn)行。實(shí)驗(yàn)在Ubuntu16.04系統(tǒng)下進(jìn)行,CPU為i5-4258,2.4GHz,8G內(nèi)存。為了驗(yàn)證匹配算法在不同環(huán)境下的效果,分別在模糊程度不同,光照不同,以及視角不同的條件下,對暴力匹配、基于RANSAC的方法的匹配和本文算法進(jìn)行對比實(shí)驗(yàn)。

在模糊處理的圖片上匹配結(jié)果如圖1所示,a、b、c分別是暴力匹配、RANSAC匹配和本算算法在模糊處理后的匹配結(jié)果,由實(shí)驗(yàn)分析可知,暴力匹配的效果最差,包含有大量的誤匹配,而后兩種算法的效果較好,但是本文算法的匹配準(zhǔn)確率和正確匹配數(shù)量均優(yōu)于基于RANSAC匹配,準(zhǔn)確率達(dá)96.62%。圖2和圖3分別為光照變化、視角變化條件下三種匹配算法的實(shí)驗(yàn)結(jié)果。

由圖2分析可知,在光照條件變化下,本文算法仍然保持較多的匹配數(shù)量,具體如表一所示,并且仍然保持較高的匹配準(zhǔn)確率,而基于RANSAC的方法,則由于其算法的嚴(yán)格性刪除了大量的正確匹配。而在視角變化下,如圖3所示,本文算法所得到的匹配數(shù)量少于基于RANSAC的方法,原因是因?yàn)楸疚乃惴ㄔ谝暯亲兓^大時(shí),運(yùn)動(dòng)平滑性的假設(shè)條件被破壞,導(dǎo)致匹配數(shù)量下降,但是匹配準(zhǔn)確率依然維持在較高水平。

匹配結(jié)果的具體數(shù)據(jù)如表1所示,分別對匹配數(shù)量、匹配準(zhǔn)確率及匹配時(shí)間進(jìn)行檢測,為不失一般性,每組實(shí)驗(yàn)數(shù)據(jù)均為10次結(jié)果的平均值,其中暴力匹配(BF)算法的匹配時(shí)間為特征點(diǎn)匹配所用時(shí)間,而為了直接對比基于RANSAC方法的匹配和本文算法的匹配時(shí)間,后兩者的匹配時(shí)間指的是得到粗匹配后再處理的時(shí)間,例如BF+RANSAC算法匹配時(shí)間為對粗匹配結(jié)果使用RANSAC方法進(jìn)一步提純所用的時(shí)間。

由表1分析可知直接使用暴力匹配得到的匹配準(zhǔn)確率不到60%,遠(yuǎn)未達(dá)到可以進(jìn)行位姿估計(jì)的要求,而BF+RANSAC和本文算法的匹配準(zhǔn)確率均在90%以上,匹配效果良好。并且本文算法在模糊處理和光照條件變化的條件下的正確匹配數(shù)量遠(yuǎn)高于BF+RANSAC算法,其中在模糊條件下高出BF+RANSAC方法12.39%,在光照條件變化下高出前者57.14%。但是在視角變化較大的情況下,本文算法的正確匹配數(shù)量下降,是因?yàn)楸疚钠ヅ渌惴ń⒃谄交\(yùn)動(dòng)的假設(shè)上,當(dāng)視角變化較大時(shí),匹配數(shù)量下降。由匹配時(shí)間分析可知,本文算法在匹配對的提純上比RANSAC方法快1~2個(gè)數(shù)量級,大幅減少了特征匹配的時(shí)間。

為了進(jìn)一步驗(yàn)證本文算法在大數(shù)量特征點(diǎn)匹配上的優(yōu)勢,實(shí)驗(yàn)對不同圖像均提取2000個(gè)ORB特征點(diǎn),再對其分別用RANSAC和本文算法進(jìn)行提純,匹配結(jié)果如表2所示。

從表2分析可知,在環(huán)境變化時(shí),本文算法相對于傳統(tǒng)RANSAC算法可以保持較高的準(zhǔn)確率,平均提升3.08%,同時(shí)保留的較多的正確匹配,尤其是在光照條件和視角變化時(shí),所得正確匹配數(shù)量大幅提升,對三維重構(gòu)具有重要意義。

3 結(jié)論

實(shí)驗(yàn)結(jié)果表明,本文所提出的算法在圖像亮度變化和模糊情況下,具有較好匹配效果,在保證一定準(zhǔn)確率的同時(shí),可以得到更多的正確匹配,有利于位姿估計(jì)和三維重建,并且相對于RANSAC方法,本文算法的提純時(shí)間減少了1~2個(gè)數(shù)量級,大大減小了去除誤匹配的時(shí)間,但是在視角變化變大時(shí),匹配數(shù)量有所下降,仍需進(jìn)行改進(jìn)。

參考文獻(xiàn)

[1] Songtao Z,Chao L, Liqing L.An improved method for eliminating false matches[C]// International Conference on Image.IEEE,2017.

[2] Yong A,Hong Z.SIFT matching method based on K nearest neighbor support feature points[C]// IEEE International Conference on Signal & Image Processing. IEEE,2017.

[3] Bian J,Lin W Y,Matsushita Y,et al.GMS: Grid-Based Motion Statistics for Fast,Ultra-Robust Feature Correspondence[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2017.

[4] Bay H,Tuytelaars T,Gool L V.SURF:Speeded up robust features[J].Computer Vision & Image Understanding,2006,110(3):404-417.

[5] Gao X,Zhang T.Robust RGB-D simultaneous localization and mapping using planar point features[J].Robotics& Autonomous Systems,2015,72:1-14.

[6] 王瑜,禹秋民.基于曲率特征與改進(jìn)的RANSAC策略的圖像匹配算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2018,39(12):3791-3796.

[7] 孫瑩.圖像特征點(diǎn)提取與描述算法研究[J].網(wǎng)絡(luò)空間安全,2016,7(2):18-21.