李勁達(dá)
【摘要】 以提高圖像配準(zhǔn)效率、減少配準(zhǔn)時(shí)間為目的,提出SIFT特征圖像配準(zhǔn)模型,該算法通過(guò)建立S層金字塔,達(dá)到降低多尺度空間和減少特征點(diǎn)數(shù)量的目的,將當(dāng)前檢測(cè)到的特征點(diǎn)與最近更新的目標(biāo)模塊相匹配,從而更加魯棒性地應(yīng)對(duì)圖像的配準(zhǔn)問(wèn)題。
【關(guān)鍵字】 圖像 SIFT 尺度空間 適應(yīng)值
引言
圖像特征點(diǎn)是圖像中具有鮮明特性并能把圖像中的目標(biāo)物體識(shí)別出來(lái)的點(diǎn)[1][2]。特征點(diǎn)的信息含量較高,可以對(duì)處理提供足夠的約束,其數(shù)目相對(duì)于圖像像素點(diǎn)來(lái)說(shuō)微不足道,這樣就可以提高計(jì)算速度,使實(shí)時(shí)處理成為可能。在特征點(diǎn)的提取和匹配方法中,David G. Lowe在2004年提出的一種基于尺度空間的尺度不變特征變換算法——SIFT(Scale Invariant Feature Transform)算法[3],它具有對(duì)平移、旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性。
一、SIFT算法改進(jìn)
SIFT算法主要步驟能夠總結(jié)為四點(diǎn):
(1)生成尺度空間;
(2)極值點(diǎn)檢測(cè);
(3)精確定位極值點(diǎn);
(4)生成特征描述符。
但是對(duì)于圖像而言,實(shí)時(shí)獲取的圖像與預(yù)存圖像之間的尺度變換不大,所以只需關(guān)心特征點(diǎn)的配準(zhǔn),圖像尺度無(wú)關(guān)緊要,SIFT算法不需要搜索整個(gè)尺度空間。于是對(duì)SIFT算法進(jìn)行改進(jìn),改進(jìn)算法主要從兩方面著手,降低尺度空間復(fù)雜度和減少特征點(diǎn)的數(shù)量[7]。
造了高斯差分圖像,其他組僅有一幅圖像,所以第一組采用同經(jīng)典SIFT算法極值檢測(cè)方法,其他組僅對(duì)每個(gè)像素與周圍8領(lǐng)域的像素進(jìn)行比較,判斷其是否為極值點(diǎn)。如果是極值點(diǎn),然后計(jì)算這個(gè)像素點(diǎn)8領(lǐng)域的像素平均值,假如該平均值也是另外一組的16領(lǐng)域的極值點(diǎn),則采樣點(diǎn)設(shè)為改進(jìn)算法的極值點(diǎn)[6]。改進(jìn)算法后面的步驟與原SIFT算法相同。
把一幅圖像按照SIFT算法進(jìn)行特征點(diǎn)檢測(cè),可以發(fā)現(xiàn)檢測(cè)到非常多的極值點(diǎn)。
如果采用改進(jìn)后的SIFT算法進(jìn)行特征點(diǎn)檢測(cè)的結(jié)果就可以看出得到的特征點(diǎn)明確、穩(wěn)定,并且數(shù)量適中,如果像傳統(tǒng)SIFT算法檢測(cè)到的特征點(diǎn)太多,則會(huì)嚴(yán)重影響處理速度,但太少了也不利于精確配準(zhǔn)。
二、實(shí)驗(yàn)結(jié)果
對(duì)于采集到的多幅圖像進(jìn)行實(shí)驗(yàn)仿真,改進(jìn)后的SIFT算法在MATLAB R2010a仿真環(huán)境中進(jìn)行,并且實(shí)驗(yàn)參數(shù)設(shè)置為:粒子數(shù)N=30,迭代次數(shù)i=6,其中,配準(zhǔn)時(shí)間表示對(duì)前1000個(gè)特征點(diǎn)進(jìn)行配準(zhǔn)的時(shí)間。
三、總結(jié)
首先在SIFT算法的基礎(chǔ)上提出了改進(jìn)后的SIFT算法,該算法通過(guò)建立S層金字塔,達(dá)到降低多尺度空間和減少特征點(diǎn)數(shù)量的目的,接著進(jìn)一步對(duì)改進(jìn)后的算法進(jìn)行優(yōu)化,將改進(jìn)后的SIFT中適應(yīng)值函數(shù)相融合,將當(dāng)前檢測(cè)到的特征點(diǎn)與最近更新的目標(biāo)模塊相匹配,兩種方式的結(jié)合可以最大提高圖像配準(zhǔn)時(shí)效性和精確性。
參 考 文 獻(xiàn)
[1] Barmca D I Silvcrman. A class of algorithms for fast digital image registration. IEEE Transactions on Copputers,20022(2):179-186.
[2] David G.Lowe. Distinctive image feature from scale-invariant keypoints [J]. IEEE International Journal of Computer 2004,60(2):91-110.
[3] Zhang Yu, Zhu Dan, Wang Yu-liang. Improved fast feature matching method of SIFT[J]. Control and Automation Publication Group, 2008,24(11):220-222.
[4] 肖健.SIFT特征配準(zhǔn)算法研究與改進(jìn)[D].重慶:重慶大學(xué),2012.4.
[5] Cordeliaschmid, Rogermohr. Loeal gray value invariants for image retrieval[J]. IEEE Pattern Analysis and Machine Intelligence, 1997,25(8):15-19.