貢 超, 蔣建國, 齊美彬
(合肥工業(yè)大學 計算機與信息學院,安徽 合肥 230009)
圖像匹配在運動跟蹤、圖像搜索、目標識別、目標定位、運動分析等領域應用廣泛[1]。常用的圖像匹配方法[2-4]主要有基于區(qū)域的匹配方法和基于局部特征點的匹配方法。近年來,以SIFT[5-6]特征點匹配為代表的圖像匹配方法成為研究熱點,SIFT特征對平移、旋轉(zhuǎn)、尺度縮放、亮度變化、遮擋和噪聲等具有良好的不變性,對視角變化、仿射變換也保持一定程度的穩(wěn)定性,但SIFT特征描述符是一個128維向量,算法計算量大。文獻[7]在2006年提出了SURF算法,運算速度大大領先于SIFT,且具有很好的魯棒性;文獻[8]對幾種具有代表性的局部特征算法進行了性能評估,SURF算法被證明是綜合性能最好的算法。
傳統(tǒng)的SURF特征點圖像匹配方法采用歐式距離來度量特征向量的差異,然而使用歐氏距離得到的是像素灰度差異的累積,一個較小的圖像形變就可能使原來的歐式距離變長,從而導致匹配的誤差變大。本文利用擴散距離[9]計算SURF特征描述符向量間的距離;擴散距離將向量之間的差異作為一個溫度場,根據(jù)溫度場熱擴散的性質(zhì),在歐式距離相等的條件下,相似度大的向量差異下降到0的速度快,將下降過程疊加為距離作為相似度判斷的依據(jù)。實驗表明該方法在圖像形變、光照變化和圖像噪聲方面所得到的匹配比傳統(tǒng)SURF算法具有更好的匹配效果。
SIFT算法在特征提取匹配上速度較慢,很難滿足實時目標跟蹤的要求,使用SURF特征提取方法不僅保持了SIFT算法高精度的優(yōu)點,而且克服了速度慢的缺陷。
SURF特征提取算法主要包括特征點檢測、特征點描述和特征點匹配?;贖essian矩陣的檢測器在特征點檢測中的穩(wěn)定性和可重復性都優(yōu)于基于Harris的檢測器。由于Harr特征速度快,能減少計算時間,因此在特征點描述中采用Haar小波[10]作為特征描述子來增加魯棒性;同時使用方框濾波近似替代二階高斯濾波,運用積分圖像加速卷積,減少了時間計算的復雜度,提高了計算速度。
傳統(tǒng)的SURF匹配采用選定的特征向量歐式距離作為2幀圖像中關鍵點的相似性判定度量。但是歐氏距離對圖像形變比較敏感,缺少考慮像素間的空間關系,較小的形變就能使歐式距離計算變化較大,產(chǎn)生誤匹配。本文引入擴散距離代替歐氏距離,對相似性判定度量來克服該缺點。擴散距離根據(jù)熱擴散的性質(zhì),在歐式距離相等的條件下,相似度大的向量差異下降到0的速度快,相似度小的向量差異下降速度緩慢,將下降過程疊加為距離用于SURF匹配的相似度計算,能夠更好地將相似性差異大的匹配點區(qū)分開來。
一維分布h1(x)和h2(x)的差異表示為:
擴散距離將2個向量之間的差異看成一個溫度場T(x,t),在t=0時刻,T(x,0)=d(x)。隨著時間的推移,擴散過程整合歸一化溫度場的差異。溫度場的熱擴散方程為:
其中
T0(x)=T(x,0)=d(x);
一維分布h1(x)和h2(x)的擴散距離定義為:
其中
其中,↓2為對濾波后的矢量進行1/2降采樣,且各分量的值降為原來值的1/2;L為降采樣的次數(shù),即熱擴散路徑數(shù)目。
高斯濾波器表達式為:
為了簡化計算,用L1范數(shù)代替k(),可得:
溫度場熱擴散下降速度越快,整合歸一化溫度場差異的值越小,2點之間的相似度就越高,反之,熱擴散下降速度越慢,整合歸一化的差異值越大,2點之間的相似度越低,從而能把擴散距離應用在相似度比較中。
在生成的64維SURF特征描述符中,使用(5)式計算2幅圖像關鍵點特征向量的擴散距離,并作為關鍵點相似性判定的度量,用來判斷向量間點對是否匹配。
對于目標中的某個特征點,采用近似最鄰近查找算法BBF(best bin first)從基準影像上找到與之匹配的具有最近擴散距離和次最近擴散距離的匹配點對,用最近擴散距離與次最近擴散距離的比值作為閾值(一般為0.3~0.8),刪除比值大于設定閾值的特征點對,從而確定關鍵點的匹配。設定閾值越小,匹配結(jié)果越可靠,獲得的匹配點對越可靠。特征點匹配后仍會存在一定比例的誤匹配,通過RANSAC(隨機抽樣一致算法)剔除誤匹配,在相似度高的樣本中得到最佳模型參數(shù),估計正確匹配點對。
實驗圖片是從文獻[11]的圖像庫中選取的32幅圖片,如圖1所示。
圖1中圖片A、B是同一目標在光照、形變以及尺度有差異時的2組圖片。
圖1 數(shù)據(jù)庫中的2組對比圖片
在一臺處理器為2.0GIntel Pentium 4Processor、編程環(huán)境為 Matlab 2010b+VS 2008的PC機上進行編程實驗。表1~表3分別為基于擴散距離的SURF算法[12]、基于馬氏距離的SURF算法和基于歐式距離的SURF算法的實驗結(jié)果。
在3個表中,對角線上的值是相同目標所對應的2幅圖片的匹配特征點個數(shù),其余是不同目標的圖片匹配的特征點個數(shù)??梢钥闯?,大多數(shù)情況下,3個表中對角線元素的值都是各行和各列的最大值,即3種方法大多數(shù)情況下都能實現(xiàn)正確匹配,但是前2種方法也存在一些錯誤匹配情況。如在表1中,A5與B2、B3、B10的匹配點數(shù)分別為65、46、46,大于 A5與 B5的匹配點數(shù)41,也就是說,按照歐式距離匹配,就會將A5與B2判為同一目標,導致錯誤匹配。同樣的問題在馬氏距離的SURF匹配中同樣存在,如在表2中,A13與B0、B1、B2、B3、B5、B6、B10、B15的匹配點數(shù)也大于A13與B13的匹配點數(shù),B13與 A1、A3、A6、A11、A12的匹配點數(shù)也大于B13與A13的匹配點數(shù),這樣就導致A13、B13都不能實現(xiàn)準確匹配。而在表3中,對角線中所有數(shù)據(jù)在對應的行和列中全部都是最大值,都能實現(xiàn)正確匹配。
另外,從表中還可以看出,歐氏距離SURF算法和馬氏距離SURF算法存在大量的誤匹配點,而擴散距離SURF算法的誤匹配點數(shù)目大大減少,甚至全部消除。
表1 基于歐式距離匹配的特征點數(shù)目
表2 基于馬氏距離匹配的特征點數(shù)目
表3 基于擴散距離匹配的特征點數(shù)目
圖2~圖5所示為部分對比實驗結(jié)果。
圖2 原始圖像
圖3 圖像一的3種SURF方法對比實驗
圖4 圖像二的3種SURF方法對比實驗
由圖2可以看出,2組圖像對應的是2幅同一目標的圖片,但是在每組不同的圖像中存在明顯的變形和光照變化。圖3a、圖4a和圖5a是使用歐式距離SURF算法進行匹配的結(jié)果,圖3b、圖4b和圖5b是使用馬氏距離SURF算法進行匹配的結(jié)果,由于歐氏距離和馬氏距離計算的僅僅是像素灰度之間差異的累加,一個較小的形變或者光照變化就能使歐式距離或馬氏距離變化很大,如圖5a和圖5b2個明顯不同的圖片中仍然得到很多錯誤的匹配點,而擴散距離很好地解決了這一問題。從圖5c中可以看出,SURF在圖像形變和光照變化較大的情況下,消除了2個不同圖片的錯誤匹配點對,只有1個錯誤匹配點存在,得到了更加準確的匹配結(jié)果。
圖5 本文方法與馬氏距離、歐氏距離SURF方法的對比實驗
本文針對原始SURF算法對于形變或者光線變化較大的圖像不能進行有效匹配的缺陷,提出了使用擴散距離改進的SURF算法。通過針對不同視角、旋轉(zhuǎn)、光照、縮放變換進行的實驗證明,本文算法克服了原始SURF算法的缺點,大大提高了SURF算法匹配的精度。
[1] 高 明,曹 洋,方 帥.序列全景圖像的特征提取與匹配[J].合肥工業(yè)大學學報:自然科學版,2009,32(4):449-452,460.
[2] Mikolajczyk K,Schmid C.An affine invariant interest point detector[M].Computer Vision-ECCV 2002.Berlin:Springer,2002:128-142.
[3] Mikolajczyk K,Schmid C.Scale & affine invariant interest point detectors[J].International Journal of Computer Vision,2004,60(1):63-86.
[4] Matas J,Chum O,Urban M,et al.Robust wide-baseline stereo from maximally stable extremal regions[J].Image and Vision Computing,2004,22(10):761-767.
[5] Lowe D G.Object recognition from local scale-invariant features[C]//The Proceedings of the Seventh IEEE International Conference on Computer Vision,1999:1150-1157.
[6] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[7] Bay H,Tuytelaars T,Van Gool L.Surf:speeded up robust features[M].Computer Vision-ECCV 2006.Berlin:Springer,2006:404-417.
[8] Mikolajczyk K,Schmid C.A performance evaluation of local descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.
[9] Ling H,Okada K.Diffusion distance for histogram comparison[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006:246-253.
[10] Khashman A,Dimililer K.Image compression using neural networks and haar wavelet[J].WSEAS Transactions on Signal Processing,2008,4(5):330-339.
[11] Ling H B.Image DataSet[EB/OL].http://www.dabi.temple.edu/hbling/data/RD-cvpr06.zip,http://www.dabi.temple.edu/hbling/data/SD-cvpr06.zip.
[12] 趙璐璐,耿國華,李 康,等.基于SURF和快速近似最近鄰搜索的圖像匹配算法[J].計算機應用研究,2013,30(3):921-923.