馮玉朋,曾慶喜,,馬 杉,方 嘯
(1.南京航空航天大學(xué)無(wú)人駕駛車輛研究中心,江蘇南京 210016;2. 吉林大學(xué)汽車仿真與控制國(guó)家重點(diǎn)實(shí)驗(yàn)室,吉林長(zhǎng)春 130012;3. 奇瑞汽車前瞻技術(shù)研究院,安徽蕪湖 241000)
無(wú)人駕駛車輛基于角點(diǎn)和斑點(diǎn)的特征提取算法
馮玉朋1,2,曾慶喜1,2,3,馬 杉1,2,方 嘯3
(1.南京航空航天大學(xué)無(wú)人駕駛車輛研究中心,江蘇南京 210016;2. 吉林大學(xué)汽車仿真與控制國(guó)家重點(diǎn)實(shí)驗(yàn)室,吉林長(zhǎng)春 130012;3. 奇瑞汽車前瞻技術(shù)研究院,安徽蕪湖 241000)
針對(duì)運(yùn)行在計(jì)算資源有限的車載嵌入式系統(tǒng)中的視覺里程計(jì)算法實(shí)時(shí)性較差的問題,提出一種基于Harris和SIFT相結(jié)合的圖像匹配方法——Harris-SIFT算法。在介紹了SIFT算法的基礎(chǔ)上,給出了Harris-SIFT算法的原理:使用Harris算法提取圖像中的角點(diǎn)作為特征候選點(diǎn),再利用SIFT算法在Harris的特征候選點(diǎn)中進(jìn)行特征點(diǎn)提取。通過實(shí)例用Matlab軟件對(duì)算法進(jìn)行了仿真,并對(duì)算法的復(fù)雜度及各種性能進(jìn)行了分析。結(jié)果表明,所提出的方法在特征檢測(cè)模塊中降低了算法的運(yùn)算量、提高了特征點(diǎn)提取速度。Harris-SIFT算法可用于實(shí)時(shí)視覺里程計(jì)系統(tǒng)中,進(jìn)而可使視覺里程計(jì)在車載嵌入式導(dǎo)航系統(tǒng)上得到廣泛的應(yīng)用。
車輛工程;無(wú)人駕駛車輛;特征提??;SIFT;Harris;RANSAC
精準(zhǔn)的自定位對(duì)于無(wú)人駕駛車輛導(dǎo)航系統(tǒng)是至關(guān)重要的,是確保無(wú)人駕駛車輛完成自主行為的前提。近年來(lái),基于視覺方法設(shè)計(jì)的里程計(jì)逐漸成為智能車輛定位的重要選擇。相對(duì)于傳統(tǒng)的車載傳感器,視覺傳感器具有成本低、體積小等優(yōu)點(diǎn),且視覺傳感器可以提供豐富的感知信息,既可以滿足車輛的自定位要求,又能夠同時(shí)為其他重要的任務(wù)提供信息,如目標(biāo)檢測(cè)、避障等。
圖像匹配是視覺里程計(jì)的關(guān)鍵技術(shù)之一,是將同一場(chǎng)景的不同時(shí)間、不同角度、不同設(shè)備等拍攝的圖片進(jìn)行匹配的過程。對(duì)于行駛在未知區(qū)域中的無(wú)人駕駛車輛而言,圖像匹配在實(shí)現(xiàn)無(wú)人駕駛車輛位姿預(yù)測(cè)方面有著廣泛的應(yīng)用價(jià)值。目前,一般采用的匹配方法包括基于區(qū)域匹配的方法和基于特征匹配的方法[1]?;趨^(qū)域的匹配方法[2-6]是從待匹配圖像的灰度值出發(fā),通過計(jì)算兩幅圖像的灰度相關(guān)性來(lái)作為圖像匹配的標(biāo)準(zhǔn),其局限性在于受灰度級(jí)分布和窗口形狀的影響;而基于特征的圖像匹配是通過提取2幅圖像重疊區(qū)域的穩(wěn)定特征來(lái)進(jìn)行匹配的,該方法匹配速度快,具有較高的穩(wěn)定性和魯棒性,是圖像匹配較常用的一種方法。
基于特征的圖像匹配方法主要分為特征檢測(cè)與匹配2個(gè)關(guān)鍵步驟,這2個(gè)步驟的好壞將直接影響圖像匹配的結(jié)果。特征檢測(cè)算法可以分為2類:一類是角點(diǎn)檢測(cè),提取角點(diǎn)的方法有很多[7-9],如Harris角點(diǎn)[10]、Shi-Tomasi角點(diǎn)等;另一類是利用圖像的灰度進(jìn)行檢測(cè),如基于高斯濾波的高斯差、基于拉普拉斯變換的特征點(diǎn)檢測(cè)等。在這些特征檢測(cè)算子中,Harris角點(diǎn)檢測(cè)算法簡(jiǎn)單且不受旋轉(zhuǎn)、光照、噪聲的影響,具有較好的檢測(cè)效果[11],但其不具有尺度不變性,可能會(huì)導(dǎo)致匹配結(jié)果不準(zhǔn)確[12]。而特征匹配最常用的是SIFT算子[13],它是目前研究中最為穩(wěn)定的特征匹配算子,具有尺度、旋轉(zhuǎn)不變性,對(duì)光照變化穩(wěn)定性較高,但是算法中有大量的卷積運(yùn)算及直方圖統(tǒng)計(jì),運(yùn)算復(fù)雜,難以滿足系統(tǒng)對(duì)實(shí)時(shí)性的要求。為了減少算法計(jì)算量,提高圖像匹配速度,文獻(xiàn)[14]提出了PCA-SIFT方法利用主成分分析把高維的特征向量進(jìn)行降維,但計(jì)算量并沒有明顯地減少。BAY等[15]和郭曉冉等[16]提出了SURF方法,該方法利用積分代替卷積運(yùn)算,通過統(tǒng)計(jì)特征點(diǎn)鄰域的Haar小波特征來(lái)生成64維的特征描述子,大幅提高了圖像匹配的速率,但是仍具有較大的計(jì)算量。也有很多研究考慮到Harris角點(diǎn)檢測(cè)和SIFT算法兩者的優(yōu)缺點(diǎn),將兩種方法相結(jié)合去實(shí)現(xiàn)圖像匹配。如許佳佳等[17-18]采用多尺度Harris算子檢測(cè)角點(diǎn)特征,使用SIFT特征描述方法進(jìn)行特征描述與匹配;文獻(xiàn)[19—20]利用Harris角點(diǎn)和Harris亞像素角點(diǎn)與SIFT算法相結(jié)合,實(shí)現(xiàn)特征點(diǎn)的快速匹配,但直接對(duì)Harris角點(diǎn)進(jìn)行SIFT描述符描述,會(huì)造成很多錯(cuò)誤的匹配;呂恒利等[21]通過Harris算法對(duì)SIFT特征點(diǎn)進(jìn)行過濾,先進(jìn)行Harris角點(diǎn)檢測(cè)和SIFT特征提取,然后選取Harris角點(diǎn)鄰域內(nèi)的SIFT特征點(diǎn),郭曉冉等[16]提出了一種利用Harris算法對(duì)SIFT算法進(jìn)行自適應(yīng)化改進(jìn)的具有魯棒性的特征點(diǎn)提取算法。以上兩種方法提高了特征點(diǎn)的穩(wěn)定性,卻增加了算法的計(jì)算量。
本文結(jié)合Harris算法和SIFT算法各自的優(yōu)缺點(diǎn),提出一種利用Harris算法來(lái)簡(jiǎn)化SIFT算法的具有魯棒性的特征點(diǎn)檢測(cè)與匹配算法。首先利用Harris算法將圖像中的角點(diǎn)檢測(cè)出來(lái),然后只對(duì)角點(diǎn)鄰域進(jìn)行SIFT特征提取,從而實(shí)現(xiàn)圖像的精確匹配。
SIFT是1999年David G Lowe提出的一種特征描述算法,在2004年Lowe在大量的研究基礎(chǔ)上,對(duì)該算法做了更為全面的總結(jié),正式提出一種基于尺度空間的局部特征描述符——SIFT(尺度不變特征變換)。SIFT算子具有尺度不變性、旋轉(zhuǎn)不變性,對(duì)光照的變化、仿射變換、噪聲等具有魯棒性,已成為視覺領(lǐng)域最常用的描述符。算法步驟為構(gòu)建尺度空間—尺度空間極值點(diǎn)檢測(cè)—特征點(diǎn)精確定位—確定關(guān)鍵點(diǎn)方向參數(shù)—生成特征描述子。
1.1 構(gòu)建尺度空間
SIFT算法是基于尺度空間來(lái)對(duì)圖像進(jìn)行處理的,其目的是模擬圖像數(shù)據(jù)的多尺度特征。該算法是利用高斯核與原圖像進(jìn)行卷積,通過高斯卷積核中參數(shù)σ的變化,獲得多尺度空間下的圖像,實(shí)現(xiàn)了圖像的尺度變換。
二維圖像的尺度空間定義:
(1)
(2)
式中:L(x,y,σ)為圖像的尺度空間;G(x,y,σ)為尺度可變高斯函數(shù);*為卷積運(yùn)算符;I(x,y)為圖像函數(shù);σ為尺度空間因子。
當(dāng)完成高斯金字塔的建立后,按照式(3)建立DoG金字塔,即將高斯金字塔中相鄰尺度的圖像相減即可得到DoG金字塔:
(3)
圖1 尺度空間極值檢測(cè)Fig.1 Scale space extrema detection
1.2 尺度空間極值點(diǎn)檢測(cè)
在DoG尺度空間檢測(cè)極值點(diǎn)時(shí),需要把每一個(gè)采樣點(diǎn)與其鄰域及上下層中的26點(diǎn)進(jìn)行比較,如圖1所示。當(dāng)采樣點(diǎn)的像素均大于或小于這26個(gè)點(diǎn)時(shí),該點(diǎn)為極值點(diǎn)。
1.3 特征點(diǎn)精確定位
通過上一步檢測(cè)出的極值點(diǎn)中包括一些低對(duì)比度點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),所以需要進(jìn)一步進(jìn)行篩選。通過擬合三維二次函數(shù)可以去除低對(duì)比度點(diǎn),一般采用的是D(x,y,σ)的泰勒展開式。但是高斯差函數(shù)在邊緣部分會(huì)有相對(duì)較大的變化,這些不穩(wěn)定的極值點(diǎn)需要剔除,極值點(diǎn)的主曲率通過一個(gè)2×2的Hessian矩陣H求出:
(4)
然后根據(jù)該矩陣的跡與其行列式之間的關(guān)系來(lái)去除不穩(wěn)定的邊緣響應(yīng)點(diǎn)。
根據(jù)關(guān)鍵點(diǎn)周圍鄰域像素點(diǎn)的梯度方向?yàn)槊恳粋€(gè)關(guān)鍵點(diǎn)指定方向參數(shù),使算子具有旋轉(zhuǎn)不變性。關(guān)鍵點(diǎn)(x,y)處梯度的模值和方向如下:
(5)
(6)
圖2 關(guān)鍵點(diǎn)周圍16×16區(qū)域Fig.2 16×16 area around keypoints
其中L所用的尺度是每個(gè)關(guān)鍵點(diǎn)各自所在的尺度。在實(shí)際計(jì)算時(shí),在以關(guān)鍵點(diǎn)為中心的鄰域窗口內(nèi)采樣,并用直方圖統(tǒng)計(jì)鄰域像素的梯度方向。梯度直方圖的范圍是0~360°,其中每45°一個(gè)柱,總共8個(gè)柱,或者每10°一個(gè)柱,總共36個(gè)柱。直方圖的峰值則代表了該關(guān)鍵點(diǎn)處鄰域梯度的主方向,作為該關(guān)鍵點(diǎn)的方向。
1.4 生成特征描述子
以關(guān)鍵點(diǎn)為中心選取一個(gè)16×16大小的區(qū)域,如圖2所示,然后把這個(gè)區(qū)域分成4×4個(gè)大小為4×4的小區(qū)域,每個(gè)小區(qū)域內(nèi)計(jì)算加權(quán)梯度直方圖,每個(gè)子區(qū)域直方圖分為8方向,最后得到4×4×8=128維的向量,作為該點(diǎn)的SIFT描述子。
2.1 研究背景
如何提高視覺里程計(jì)特征提取與匹配算法的效率,降低算法計(jì)算復(fù)雜度,是視覺里程計(jì)系統(tǒng)中急需解決的一個(gè)問題,也是利用視覺里程計(jì)進(jìn)行實(shí)時(shí)定位的關(guān)鍵問題。在特征檢測(cè)、提取和匹配過程中涉及到的大量的像素運(yùn)算和高維的向量運(yùn)算,是造成算法消耗時(shí)間長(zhǎng)和效率較低的原因。
圖3 算法流程圖Fig.3 Flow chart of the algorithm
在現(xiàn)有的特征提取算法中,SIFT特征算法是視覺里程計(jì)研究中最為常用的一種特征提取與描述算法。通過該算法提取的特征不會(huì)因?yàn)閮煞鶊D像的尺度不同、視角不同或是旋轉(zhuǎn)關(guān)系而發(fā)生變化,同時(shí)對(duì)光照的變化、仿射變換、噪聲等不敏感。SIFT特征提取算法是在多尺度空間下對(duì)圖像進(jìn)行特征提取,其尺度空間是利用二維高斯核函數(shù)與圖像進(jìn)行卷積構(gòu)建的,并且在關(guān)鍵點(diǎn)分配主方向和生成128維的特征描述子時(shí)有大量的直方圖運(yùn)算,故SIFT特征算法計(jì)算量比較大,消耗時(shí)間比較長(zhǎng)。Harris算法利用圖像的灰度變化來(lái)判斷角點(diǎn),沒有那么大的運(yùn)算量,并且?guī)缀蹩梢詸z測(cè)到所有的角點(diǎn),但角點(diǎn)匹配困難,出錯(cuò)率較高。為了提高視覺里程計(jì)的實(shí)時(shí)性,就必須降低算法計(jì)算復(fù)雜度,提高特征點(diǎn)提取速度,在保證各種性能的前提下,盡量減少算法的計(jì)算量。基于兩種算法的特點(diǎn),本文提出了一種基于SIFT和Harris深度融合的特征提取算法。
2.2 算法基本原理
首先,利用Harris算法把圖像中的角點(diǎn)檢測(cè)出來(lái),然后,在Harris角點(diǎn)鄰域內(nèi)進(jìn)行SIFT特征點(diǎn)提取,這些特征點(diǎn)將同時(shí)具有Harris角點(diǎn)和SIFT特征點(diǎn)的共同特征。利用SIFT描述子的特征描述方法對(duì)提取的特征點(diǎn)進(jìn)行描述。該算法流程圖如圖3所示,具體實(shí)現(xiàn)步驟如下。
步驟1:首先在采集的圖像序列中提取Harris角點(diǎn)作為候選特征點(diǎn)。
Harris算法是以Moravec算法為基礎(chǔ)的,其原理是以目標(biāo)像素點(diǎn)為中心的窗口向任意方向移動(dòng),計(jì)算移動(dòng)前后的灰度變化來(lái)判斷像素點(diǎn)是否為角點(diǎn)。若在該像素點(diǎn)處,水平和垂直2個(gè)方向的變化均較大,則該像素點(diǎn)屬于角點(diǎn)。計(jì)算公式如式(7)所示。
(7)
式中:w(x,y)=exp(-(x2+y2)/(2σ2)),為窗口函數(shù),Ix,Iy分別為圖像在x,y方向上的偏導(dǎo)數(shù)。
則圖像I在(x,y)處的局部自相關(guān)函數(shù)為
(8)
Harris角點(diǎn)的響應(yīng)函數(shù)R定義為
(9)
式中:det(M)為矩陣M的行列式,tr(M)為矩陣M的跡,k=[0.04,0.06]。采用8領(lǐng)域非最大值抑制(即尋找局部最大值,將非極大值點(diǎn)所對(duì)應(yīng)的灰度值置為0)來(lái)選擇那些響應(yīng)度夠大的點(diǎn),這些點(diǎn)即為角點(diǎn)。
步驟2:根據(jù)檢測(cè)到的角點(diǎn)的坐標(biāo)選擇SIFT特征點(diǎn)的區(qū)域,建立局部的高斯金字塔和DoG金字塔。遍歷所有角點(diǎn)的坐標(biāo),若在一個(gè)角點(diǎn)的鄰域內(nèi)出現(xiàn)另一個(gè)角點(diǎn),則認(rèn)為它們屬于同一區(qū)域,根據(jù)角點(diǎn)的分布情況將圖像進(jìn)行分塊,將不含角點(diǎn)和面積較小(面積的大小根據(jù)在所建的DoG金字塔中檢測(cè)極值時(shí)的圖像層數(shù)s決定)的圖像塊去掉。然后利用式(1)—式(3)在選定的區(qū)域內(nèi)建立局部的高斯金字塔和DoG金字塔。
步驟3:在每個(gè)角點(diǎn)的局部尺度空間檢測(cè)極值點(diǎn)。將每個(gè)角點(diǎn)與其圖像域和空間域相鄰的26個(gè)像素點(diǎn)進(jìn)行比較,如圖1所示。在角點(diǎn)領(lǐng)域的DoG尺度空間中,如果一個(gè)點(diǎn)的像素值在本尺度以及上下兩尺度的26個(gè)領(lǐng)域像素點(diǎn)的像素值中是最值(最大或最小)時(shí),則認(rèn)為該像素點(diǎn)是它所在尺度下圖像的一個(gè)特征點(diǎn)。如果該角點(diǎn)領(lǐng)域的DoG尺度空間內(nèi)存在特征點(diǎn),則保留該尺度空間;否則,刪除該尺度空間。
步驟4:為特征點(diǎn)分配主方向。利用式(5)和式(6)計(jì)算特征點(diǎn)梯度的模值和方向,然后在以特征點(diǎn)為中心的鄰域窗口內(nèi)采樣,并用直方圖統(tǒng)計(jì)鄰域像素的梯度方向來(lái)確定特征點(diǎn)的主方向。
步驟5:生成特征點(diǎn)描述子。因?yàn)榻屈c(diǎn)特征本身具有旋轉(zhuǎn)不變性,所以直接以特征點(diǎn)為中心選取一個(gè)16×16大小的區(qū)域,然后在每個(gè)4×4的小區(qū)域內(nèi)計(jì)算8方向的梯度信息,最后得到4×4×8=128維的向量,該向量作為該點(diǎn)的Harris-SIFT描述子。
為了驗(yàn)證算法的性能,對(duì)大量的實(shí)驗(yàn)圖像進(jìn)行了測(cè)試,實(shí)驗(yàn)結(jié)果均較為理想。實(shí)驗(yàn)是在PC機(jī)上實(shí)現(xiàn)的,硬件環(huán)境為Intel Core i5,內(nèi)存4G,軟件開發(fā)環(huán)境為Windows 7操作系統(tǒng),Matlab 2012b版。實(shí)驗(yàn)所用的3組匹配圖像分別取自不同的場(chǎng)景,如圖4所示。第1組圖像大小為720×480;第2組圖像大小為640×480;第3組圖像大小為1 280×960。
圖4 待匹配圖像Fig.4 Images to be matched
首先,通過實(shí)驗(yàn)對(duì)比來(lái)驗(yàn)證本文方法在特征點(diǎn)檢測(cè)時(shí)間上相較于現(xiàn)有算法的優(yōu)勢(shì)。分別利用Harris角點(diǎn)檢測(cè)算法、SIFT算法、PCA-SIFT算法、SURF算法以及Harris-SIFT算法對(duì)圖4中的3組圖像進(jìn)行特征點(diǎn)提取,單個(gè)特征點(diǎn)檢測(cè)時(shí)間如表1所示。由表1可知,由于Harris算法不需要構(gòu)建尺度空間和卷積運(yùn)算,采用Harris算法檢測(cè)特征點(diǎn)具有明顯的時(shí)間優(yōu)勢(shì);SIFT算法的運(yùn)行時(shí)間最長(zhǎng);PCA-SIFT算法的特征提取模塊與SIFT算法一樣,所以其單個(gè)特征點(diǎn)檢測(cè)所用時(shí)間和得到的特征點(diǎn)的數(shù)量與SIFT算法相同;而在SURF算法中,通過積分代替SIFT算法中的微分計(jì)算,減少了算法的計(jì)算量;Harris-SIFT算法特征檢測(cè)時(shí)間相對(duì)SIFT算法有明顯的減少。這是因?yàn)镠arris-SIFT算法不需要在整幅圖像中進(jìn)行特征點(diǎn)檢測(cè),而只需要在Harris角點(diǎn)鄰域中進(jìn)行檢測(cè),所需要計(jì)算的像素點(diǎn)的數(shù)量大大減少,節(jié)省了一部分計(jì)算時(shí)間。
表1 單個(gè)特征點(diǎn)檢測(cè)時(shí)間
然后,在上述實(shí)驗(yàn)環(huán)境下分別利用SIFT算法、PCA-SIFT算法、SURF算法和Harris-SIFT算法對(duì)圖4中3組實(shí)驗(yàn)圖像進(jìn)行特征點(diǎn)提取與匹配,其提取特征點(diǎn)的數(shù)量以及匹配對(duì)數(shù)見表2和表3。通過對(duì)比表2、表3中的數(shù)據(jù)可知,采用本文方法所獲得的特征點(diǎn)的數(shù)量比SIFT算法、PCA-SIFT算法和SURF算法得到的特征點(diǎn)數(shù)量要少,但也節(jié)省了匹配過程中所消耗的時(shí)間?;贖arris-SIFT的視覺里程計(jì)位姿估計(jì)模塊基礎(chǔ)矩陣的求解一般至少需要7對(duì)匹配點(diǎn),這是由于可能存在誤匹配點(diǎn)對(duì),且匹配點(diǎn)對(duì)的坐標(biāo)受噪聲干擾也有誤差。本文方法獲得的正確匹配的特征點(diǎn)對(duì)的數(shù)量相比于其他3種算法來(lái)說較少,但足以通過由其獲得的匹配點(diǎn)對(duì)計(jì)算得到攝像機(jī)的位姿。
表2 5種算法提取特征的數(shù)量統(tǒng)計(jì)
表3 不同算法的特征點(diǎn)匹配對(duì)數(shù)
根據(jù)Harris算法和SIFT算法各自的特點(diǎn),提出一種基于Harris角點(diǎn)和SIFT相結(jié)合的圖像匹配方法,先提取Harris角點(diǎn),然后在角點(diǎn)中尋找具備SIFT特征的特征點(diǎn),采用SIFT描述子對(duì)特征點(diǎn)進(jìn)行描述,最后以少量特征點(diǎn)實(shí)現(xiàn)圖像的匹配。本算法同時(shí)具備2種算法的優(yōu)點(diǎn),提高了特征點(diǎn)提取速度,并保持了良好的匹配效率,對(duì)于實(shí)時(shí)車載視覺里程計(jì)系統(tǒng)的開發(fā)具有一定的參考價(jià)值。未來(lái)可考慮融合其他傳感器,建立組合導(dǎo)航系統(tǒng),進(jìn)一步提高視覺里程計(jì)的性能。
/References:
[1] 李昱川,田錚,劉向增. SAR圖像多尺度配準(zhǔn)的小波域最小割模型方法[J]. 電子學(xué)報(bào),2010,38(9): 2122-2127. LI Yuchuan, TIAN Zheng, LIU Xiangzeng. A minimum-cut model method in wavelet domain for SAR image multiscale registration[J]. Acta Electronica Sinica, 2010,38(9): 2122-2127.
[2] ZHAI Bo, ZHENG Jin, LI Bo. Digital image stabilization based on adaptive motion filtering with feedback correction[J]. Journal of Multimedia Tools and Applications, 2016, 75(19): 12173-12200.
[3] SHUKLA D, JHA R K, OJHA A. Digital image stabilization using similarity transformation over constrained differential-radon warping vectors[J]. Journal of Signal Processing-Image Communication, 2016, 47: 115-130.
[4] YANG Weiping, ZHANG Zhilong, ZHANG Yan, et al. Real-time digital image stabilization based on regional field image gray projection[J]. Journal of Systems Engineering and Electronics, 2016, 27(1): 224-231.
[5] 張艷超,王芳,趙建,等. 投影特征峰匹配的快速電子穩(wěn)像[J]. 光學(xué)精密工程,2015, 23(6): 1768-1773. ZHANG Yanchao, WANG Fang, ZHAO Jian,et al. Fast digital image stabilization based on characteristic peak of projection matching[J]. Optics and Precision Engineering, 2015, 23(6): 1768-1773.
[6] KIR B, KURT M, URHAN O. Local binary pattern based fast digital image stabilization[J]. Journal of Signal Processing Letters, 2015, 22(3): 341-345.
[7] RASSEM T H, KHOO B E. Performance evaluation of new colour histogram-based interest point detectors[J]. Journal of Multimedia Tools and Applications, 2015, 74(24): 11357-11398.
[8] ZIOMEK A, OSZUST M. Evaluation of interest point detectors in presence of noise[J]. Journal of Intelligent Systems and Applications, 2016, 8(3): 26-33.
[9] LANG S R, LUERSSEN M H, POWERS D M W. Automated evaluation of interest point detectors[J]. Journal of Software Innovation, 2014, 2(1): 86-105.
[10]HARRIS C, STEPHENS M. A combined corner and edge detector[C]//Proc of 4th Alvey Vision Conference. [S.l.]: [s.n.], 1988:147-151.
[11]KARTHIK O S,VARUN D, RAMASANGU H. Localized Harris-FAST interest point detector[C]//India Conference.[S.l.]:IEEE, 2016.
[12]LOWE D U. Distinctive image features from scale-invariant keypoints[J]. Journal of Computer Vision, 2004, 60(2): 91-110.
[13]KE Y, SUKTHANKAR R. PCA-SIFT: A more distinctive representation for local image description[C]//Proc of IEEE Computer Vision and Pattern Recognition Conference.[S.l.]:[s.n.], 2004: 506-513.
[14]BAY H, TUYTELAARS T, VAN-GOOL L. SURF: Speeded-up robust features(SURF)[C]//Proc of European Conference on Computer Vision.[S.l.]:[s.n.], 2006: 404-417.
[15]BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features(SURF)[J]. Journal of Computer Vision and Image Understanding, 2008, 110(3): 346-359.
[16]郭曉冉,崔少輝. 基于局部特征點(diǎn)匹配的圖像拼接算法[J]. 半導(dǎo)體光電,2014,35(1): 89-94. GUO Xiaoran, CUI Shaohui. Image mosaic approach using local feature points registration[J]. Journal of Semiconductor Optoelectronics, 2014, 35(1): 89-94.
[17]許佳佳,張葉,張赫. 基于改進(jìn)Harris-SIFT算子的快速圖像配準(zhǔn)算法[J]. 電子測(cè)量與儀器學(xué)報(bào),2015,29(1): 48-54. XU Jiajia, ZHANG Ye, ZHANG He. Fast image registration algorithm based on improved Harris-SIFT descriptor[J]. Journal of Electronic Measurement and Instrumentation, 2015, 29(1): 48-54.
[18]許佳佳. 結(jié)合Harris與SIFT算子的圖像快速配準(zhǔn)算法[J]. 中國(guó)光學(xué),2015,8(4): 574-581. XU Jiajia. Fast image registration method based on Harris and SIFT algorithm[J]. Journal of Chinese Optics, 2015, 8(4): 574-581.
[19]HE H,CHEN X,LIU B,et al. A sub-Harris operator coupled with SIFT for fast images matching in low-altitude photogrammetry[J]. International Journal of Signal Processing, Image Processing and Pattern Recognition, 2014, 7(3): 395-406.
[20]SHARMA K, GOYAL A. Very high resolution image registration based on two step Harris-Laplace detector and SIFT descriptor[C]//International Conference on Computing.[S.l.]:[s.n.], 2013:1-5.
[21]呂恒利,尚振宏,劉輝,等. 基于Harris角點(diǎn)和SIFT算法的車輛圖像匹配[J]. 昆明理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,40(1): 49-54. LYU Hengli, SHANG Zhenhong, LIU Hui, et al. Vehicle image matching based on Harris corner and SIFT algorithm[J]. Journal of Kunming University of Science and Technology(Natural Science Edition), 2015, 40(1): 49-54.
A feature extraction algorithm based on corner and spots in self-driving vehicles
FENG Yupeng1,2, ZENG Qingxi1,2,3, MA Shan1,2, FANG Xiao3
(1.Self-driving Vehicle Research Center, Nanjing University of Aeronautics and Astronautics, Nanjing, Jiangsu 210016, China; 2. State Key Laboratory of Automotive Simulation and Control, Jilin University, Changchun, Jilin 130012, China;3.Prospective Technology Research Institute of Chery Automobile Company Limited, Wuhu, Anhui 241000, China)
To solve the poor real-time performance problem of the visual odometry based on embedded system with limited computing resources, an image matching method based on Harris and SIFT is proposed, namely the Harris-SIFT algorithm. On the basis of the review of SIFT algorithm, the principle of Harris-SIFT algorithm is provided. First, Harris algorithm is used to extract the corners of the image as candidate feature points, and scale invariant feature transform (SIFT) features are extracted from those candidate feature points. At last, through an example, the algorithm is simulated by Matlab, then the complexity and other performance of the algorithm are analyzed. The experimental results show that the proposed method reduces the computational complexity and improves the speed of feature extraction. Harris-SIFT algorithm can be used in the real-time vision odometer system, and will bring about a wide application of visual odometry in embedded navigation system.
vehicle engineering; self-driving vehicles; feature extraction; SIFT; Harris; RANSAC
1008-1542(2017)03-0237-07
10.7535/hbkd.2017yx03004
2017-02-28;
2017-04-10;責(zé)任編輯:馮 民
國(guó)家自然科學(xué)基金(51505221);中國(guó)博士后科學(xué)基金(YBA16027);國(guó)家重點(diǎn)實(shí)驗(yàn)室開放基金;南京航空航天大學(xué)研究生創(chuàng)新基地(實(shí)驗(yàn)室)開放基金(kfjj20160216)
馮玉朋(1992—),男,安徽滁州人,碩士研究生,主要從事無(wú)人駕駛車輛視覺導(dǎo)航系統(tǒng)方面的研究。
曾慶喜博士。E-mail:cheliang@nuaa.com
TP391.4
A
馮玉朋,曾慶喜,馬 杉,等.無(wú)人駕駛車輛基于角點(diǎn)和斑點(diǎn)的特征提取算法[J].河北科技大學(xué)學(xué)報(bào),2017,38(3):237-243. FENG Yupeng,ZENG Qingxi,MA Shan,et al.A feature extraction algorithm based on corner and spots in self-driving vehicles[J].Journal of Hebei University of Science and Technology,2017,38(3):237-243.