周 哲,胡釗政,2,王志強,肖漢彪
(1. 武漢理工大學(xué)智能交通系統(tǒng)研究中心,武漢 430063;2. 武漢理工大學(xué)重慶研究院,重慶 401120)
獲取高精度的位置信息是智能車進行路徑規(guī)劃、精確導(dǎo)航和障礙物避碰的必要條件,是保證智能車安全有序行駛的基礎(chǔ),被認(rèn)為是智能駕駛中最關(guān)鍵的問題之一。目前,GPS、北斗導(dǎo)航系統(tǒng)獲取的智能車位置信息難以滿足全時高精度定位的需求。為了提高智能車的定位能力,利用車載傳感器獲取車輛的位置信息受到廣泛關(guān)注(如激光雷達、視覺傳感器等)。然而,激光雷達價格昂貴,一定程度上限制了智能車的普及。相比之下,視覺傳感器價格低廉,而且能夠提供豐富的紋理信息,因此,基于視覺的智能車定位成為近幾年研究的熱點。
基于車載傳感器的定位方法需要事先對待定位場景進行地圖構(gòu)建,而后利用傳感器實時獲取的傳感器數(shù)據(jù)與地圖數(shù)據(jù)匹配以獲取當(dāng)前車輛的位置信息,而正確的地圖匹配是實現(xiàn)車輛高精度定位的關(guān)鍵。Li 等和Lategahn 等分別在文獻[5]和文獻[6]中,將待定位場景離散為一序列節(jié)點,每個節(jié)點包含場景的視覺特征和位置信息。定位階段,找到視覺地圖中與當(dāng)前圖像最相似的地圖圖像,并用PnP(perspective-n-points)方法求解當(dāng)前車輛的位置信息。特別是,近幾年隨著圖像局部特征描述符的快速發(fā)展(如SIFT、SURF、ORB),圖像中的場景信息可由多維特征向量進行稀疏表示,大幅提高了圖像匹配的性能,其在智能車定位中的應(yīng)用也得到廣泛關(guān)注。Zhang 等利用SIFT 描述符的旋轉(zhuǎn)和尺度不變性,提出全景視覺里程計與自然路標(biāo)相結(jié)合的混合路標(biāo)定位方法。由于SIFT 算法的計算效率低,近年來,更高效的SURF 和ORB 等特征描述符被用來進行視覺定位。但隨著待定位場景的增大,特征匹配耗時增加,使得基于局部特征點匹配的方法難以在實時系統(tǒng)中應(yīng)用。
為此,Galvez-Lpezde 等將文本檢索技術(shù)應(yīng)用于圖像檢索領(lǐng)域,提出視覺詞袋模型。在離線階段生成視覺詞典,每幅圖像由1 個特征向量表示,大幅提高匹配效率,使得視覺詞袋模型被廣泛的應(yīng)用。Garcia-Fidalgo 和Ortiz利用詞袋模型,提出層次化的圖像檢索方案,可以逐步縮小匹配范圍,提高檢索效率。但生成視覺詞典的過程復(fù)雜,需要消耗較長的時間。為了提高特征匹配效率,Ma等在文獻[16]中將視覺地圖中相鄰的5 張圖像用一個GIST 描述符表示,并利用GIST 描述符進行初定位,可以有效降低圖像搜索范圍。在文獻[17]中,劉國忠等將圖像重置為固定大小的圖像塊,并提取圖像中心的ORB 描述符作為整副圖像的描述,匹配效率得到極大的提升。為了提高系統(tǒng)運行效率,本文中利用ORB 全局描述符構(gòu)建發(fā)射概率計算模型。此外,隨著深度學(xué)習(xí)的層次化特征提取不斷成熟,并在圖像檢索領(lǐng)域得到普遍關(guān)注。在文獻[18]中,王相龍等提出BoO(bag of objects)模型。首先利用AlexNet 網(wǎng)絡(luò)提取場景中較為穩(wěn)定的語義特征,生成表示場景的特征向量,在復(fù)雜光照條件下,能夠有效提高算法的魯棒性。在文獻[19]中,Khaliq 等利用卷積神經(jīng)網(wǎng)絡(luò)中間層提取圖像的全局特征實現(xiàn)位置識別。然而,這些圖像特征均是通過設(shè)計的算法對圖像的特征進行提取和計算的,在紋理貧瘠的場景中魯棒性差。
上述算法無論是特征相似度匹配,還是利用深度學(xué)習(xí)進行的場景識別,其本質(zhì)是利用單幀圖像進行匹配,并無考慮連續(xù)幀之間的約束關(guān)系。在高相似度的場景中,難以實現(xiàn)精確匹配,這也是視覺定位面臨的巨大挑戰(zhàn)之一。為了解決這一問題,Milford 等利用連續(xù)幀之間的差異性作為相似性判斷標(biāo)準(zhǔn),但該方法需要計算連續(xù)幀灰度值之差,當(dāng)場景較大時,會嚴(yán)重降低其計算效率,而且該方法對行駛速度限制苛刻,可擴展性較差。另外,Qiao 等利用全局特征和局部特征相結(jié)合的多特征序列匹配,以提高匹配效率和精確度。雖然基于圖像序列的匹配提高了匹配的精度,但是這些方法并沒有考慮運動的拓?fù)湫畔?,制約了其在實際場景中的應(yīng)用。
針對目前文獻中方法的不足之處,本文在視覺地圖構(gòu)建的基礎(chǔ)上,提出一種基于2 階隱馬爾科夫模型(HMM)的視覺地圖匹配方法,將智能車視覺地圖定位問題轉(zhuǎn)化為HMM中最佳隱含狀態(tài)(對應(yīng)為視覺地圖中的節(jié)點)估計問題。其新穎之處在于:(1)利用智能車運動約束(即短時間內(nèi)勻速運動約束)構(gòu)建基于2 階HMM 模型的隱含狀態(tài)轉(zhuǎn)移概率模型,并通過前向算法將運動約束、道路拓?fù)浣Y(jié)構(gòu)與視覺場景約束進行有機融合,以實現(xiàn)視覺地圖最優(yōu)匹配;(2)在2階HMM 模型中,提出基于ORB全局特征匹配的發(fā)射概率計算方法,并構(gòu)建高斯模型來描述查詢圖像與視覺地圖節(jié)點之間的發(fā)射概率,從而有效提高地圖匹配與定位的計算效率。
視覺地圖通過預(yù)先獲取道路場景的特征、三維結(jié)構(gòu)等信息完成場景表征。例如,文獻[5]和文獻[6]中利用每幀圖像提取的特征、軌跡與三維結(jié)構(gòu),構(gòu)造地圖節(jié)點,完成視覺地圖構(gòu)建,地圖結(jié)構(gòu)如圖1所示。在定位過程中,智能車實時獲取道路場景的圖像數(shù)據(jù)并提取特征,通過與地圖中存儲的節(jié)點匹配,完成自身定位??梢园l(fā)現(xiàn),視覺地圖定位過程中最核心的問題即為當(dāng)前圖像與地圖節(jié)點的最優(yōu)匹配問題。
圖1 視覺地圖示意
本文中提出利用2 階HMM 模型來實現(xiàn)地圖最優(yōu)節(jié)點匹配,從而實現(xiàn)智能車地圖定位。其核心思想是將地圖中的節(jié)點定義為隱含狀態(tài),利用地圖節(jié)點與當(dāng)前查詢圖像的漢明距離定義發(fā)射概率,并利用運動約束來建立隱含狀態(tài)之間的轉(zhuǎn)移關(guān)系,這種狀態(tài)轉(zhuǎn)移模型充分描述了道路的拓?fù)浣Y(jié)構(gòu)與車輛的運動特征。然而,傳統(tǒng)的HMM 認(rèn)為時刻車輛的狀態(tài)只取決于- 1時刻的狀態(tài),而與- 1之前的狀態(tài)無關(guān)。在智能車定位過程中,這一假設(shè)顯然不能有效描述車輛復(fù)雜的運動特性。于是,為了適應(yīng)復(fù)雜的運動,提高匹配的成功率,提出基于2 階HMM 的地圖匹配模型,即車輛在時刻的狀態(tài)由- 1 和-2 兩個時刻的狀態(tài)共同決定。從而,假設(shè)智能車在短時間內(nèi)滿足勻速運動約束,即可通過前兩個狀態(tài)計算出車輛短時間的速度。與經(jīng)典的HMM 相比,2 階HMM 模型拓展了算法的適用性。于是,本文中提出了基于2 階HMM 的視覺地圖匹配算法,其流程如圖2所示。
圖2 基于2階HMM的視覺地圖定位流程
該模型在視覺地圖構(gòu)建的基礎(chǔ)上,通過車輛-1和- 2兩個歷史狀態(tài)預(yù)測時刻的車輛狀態(tài),并利用構(gòu)建的高斯模型計算發(fā)射概率,而后通過前向算法求解當(dāng)前車輛與地圖各節(jié)點的概率,對應(yīng)的最大概率被認(rèn)為是最優(yōu)估計狀態(tài),也即當(dāng)前車輛的地圖匹配結(jié)果,記作。其核心為前向概率估計問題,因此在本文中將地圖匹配問題用最大條件概率表示,即為
式中:表示時刻最優(yōu)估計狀態(tài);X為時刻的時間序列;={,,…,Z}表示觀測序列。為求解上述問題,式(1)等號右邊可由全概率公式展開,又因觀測序列為已知,故有
而直接計算式(2)需要邊緣化序列,即
因車輛的歷史狀態(tài)和觀測均為已知,利用這些信息預(yù)測車輛在時刻的狀態(tài),故邊緣化時刻車輛的狀態(tài),即可獲取式(2)的結(jié)果,表示在序列觀測條件下對時刻的車輛狀態(tài)進行估計。然而隨著時間序列的增加,其計算復(fù)雜度呈指數(shù)級增加。為了降低計算復(fù)雜度,前向算法利用HMM的條件獨立性假設(shè)對計算過程執(zhí)行遞歸運算。為了實現(xiàn)遞歸運算,定義:
式(4)為實現(xiàn)前向算法迭代運算的關(guān)鍵,其推導(dǎo)與計算過程見2.2節(jié)。
基于視覺地圖的智能車定位其主要任務(wù)是找到視覺地圖中與當(dāng)前車輛獲取圖像最相近的地圖節(jié)點。本研究中,概率最大的隱狀態(tài)認(rèn)為是當(dāng)前車輛匹配的最優(yōu)地圖節(jié)點,如式(1)所示。于是,在2 階HMM 定位模型中,主要任務(wù)是找到每一時刻的,然而其計算復(fù)雜度較高。為了獲取當(dāng)前狀態(tài)的概率,研究中利用前向算法求解當(dāng)前時刻各狀態(tài)的概率,如圖3 所示。為了降低計算負(fù)擔(dān),提高算法迭代效率,定義- 1時刻的前向概率為
圖3 基于2階HMM的智能車視覺地圖匹配與定位
則時刻的前向概率為
式中、、分別表示- 2、- 1 和時刻的狀態(tài)序列,x、x、x分別表示對應(yīng)的狀態(tài)。式(6)由鏈?zhǔn)椒▌t展開,變換后其迭代過程如下:
式中:發(fā)射概率由觀測獨立假設(shè)獲得,即當(dāng)前時刻的觀測僅與當(dāng)前時刻的狀態(tài)有關(guān),記為b(z);表示當(dāng)前狀態(tài);Z表示觀測的圖像數(shù)據(jù);狀態(tài)轉(zhuǎn)移概率由當(dāng)前時刻的車輛狀態(tài)與- 2和- 1兩個狀態(tài)之間的關(guān)系確定,記為a。式(7)可表述為
式中為序列長度。時刻所獲取各狀態(tài)的概率為
則當(dāng)前時刻最大概率對應(yīng)的隱含狀態(tài)即為當(dāng)前時刻的地圖匹配結(jié)果,即為
基于2 階HMM 的地圖匹配模型包括狀態(tài)初始概率向量、隱狀態(tài)集合、觀測狀態(tài)集合、狀態(tài)轉(zhuǎn)移概率和發(fā)射概率5 個基本元素。所有視覺地圖中的節(jié)點位置組成隱狀態(tài)集合={X= x|∈[1,]},每個隱狀態(tài)由唯一的圖像數(shù)據(jù)與其對應(yīng),={Z=z|∈[1,]}為觀測狀態(tài)集合。在2 階HMM 中,狀態(tài)轉(zhuǎn)移概率(X|X,X)表示當(dāng)前時刻的狀態(tài)由- 2 和- 1 兩個時刻的狀態(tài)決定。發(fā)射概率表示當(dāng)前狀態(tài)觀測到圖像數(shù)據(jù)的概率,表示為(Z|X),如圖3 所示。在該模型中狀態(tài)轉(zhuǎn)移概率和發(fā)射概率的正確表述是影響該算法性能的關(guān)鍵因素,具體過程如下文所述。
1.3.1 系統(tǒng)初始化
在2 階HMM 中,初始化包括初始狀態(tài)概率和初始狀態(tài)轉(zhuǎn)移概率。初始狀態(tài)與1 階隱馬爾科夫中的狀態(tài)初始化相同,均表示車輛在各狀態(tài)的概率。在本研究中,初始化狀態(tài)通常為已知,故
初始狀態(tài)轉(zhuǎn)移概率則表示由初始狀態(tài)轉(zhuǎn)移到下一時刻狀態(tài)的概率,由={c|,∈[1,]}表示。由于初始狀態(tài)已知,故當(dāng)π= 0時,到其他狀態(tài)的概率為0,則
式中:為狀態(tài)轉(zhuǎn)移過程的標(biāo)準(zhǔn)差,為經(jīng)驗值,本實驗中取=0.5;則根據(jù)= 1 和= 2 時刻的狀態(tài)差而確定,以適應(yīng)不同速度的運動模型。= 1 時的定位結(jié)果為
此時刻的狀態(tài)則由式(9)和式(10)獲得。
1.3.2 基于高斯分布的狀態(tài)轉(zhuǎn)移建模
在傳統(tǒng)HMM 中,假設(shè)時刻的狀態(tài)僅由- 1 時刻的狀態(tài)決定,這顯然難以應(yīng)對復(fù)雜的車輛運動。實際上車輛當(dāng)前時刻的狀態(tài)不僅直接受- 1 時刻的狀態(tài)影響,而且也受- 2,- 3,…等歷史狀態(tài)的影響。為了兼顧模型復(fù)雜度和車輛運動特征,研究中選取2 階狀態(tài)轉(zhuǎn)移模型,即時刻的狀態(tài)受影響于- 1和- 2兩個狀態(tài)。此時狀態(tài)轉(zhuǎn)移概率矩陣是3維矩陣,其大小為××(為地圖節(jié)點數(shù))。
通常認(rèn)為狀態(tài)轉(zhuǎn)移過程服從高斯分布(如圖4所示)。例如,當(dāng)- 2 和- 1 時刻的狀態(tài)分別為x和x,則時刻最大概率狀態(tài)為x,其分布概率為
圖4 利用高斯分布進行狀態(tài)轉(zhuǎn)移建模
式中:= 2x- x,提供局部速度約束;根據(jù)構(gòu)建地圖和移動速度的不同而不同,為經(jīng)驗值,本文中選取=0.5。
1.3.3 基于全局ORB匹配的發(fā)射概率建模
發(fā)射概率b(z)表示車輛在x狀態(tài)下觀測到當(dāng)前圖像z的概率。為了提升狀態(tài)估計時的匹配效率,本研究利用全局圖像描述符計算地圖節(jié)點中存儲的圖像信息與當(dāng)前獲取圖像的相似度,具體為,把圖像重置為63×63 pixel 大小的圖像塊,將圖像中心作為整幅圖像的唯一特征點,并提取該特征點的ORB 描述符向量,如圖5 所示。圖像相似度由兩個全局ORB 描述符的漢明距離計算得到,漢明距離(,)的計算方式如下所示:
圖5 全局特征描述符
式中:表示當(dāng)前圖像的全局描述符;表示地圖節(jié)點對應(yīng)圖像的全局描述符;f和分別表示和的第位(∈[1,]);為異或運算,漢明距離越小則對應(yīng)發(fā)射概率越大。
通過式(16)可以計算當(dāng)前圖像與候選狀態(tài)對應(yīng)圖像之間的漢明距離。為了描述隨著圖像相似度的降低(漢明距離增大)發(fā)射概率逐漸變小這一現(xiàn)象,本文中通過構(gòu)建0 均值高斯模型,以描述觀測圖像與地圖節(jié)點圖像之間的相似度,也即HMM模型的發(fā)射概率為
式中:(,)為當(dāng)前觀測圖像與狀態(tài)對應(yīng)的圖像數(shù)據(jù)的漢明距離;為方差;b(z)為狀態(tài)x到圖像z的發(fā)射概率。
于是,車輛當(dāng)前時刻的狀態(tài)可由觀測圖像序列與視覺地圖的匹配結(jié)果獲取,其匹配過程見式(6)~式(8)。其中,- 1 時刻的前向概率可由觀測序列和- 1、- 2時刻的車輛狀態(tài)獲取,時刻車輛轉(zhuǎn)移到各狀態(tài)的概率由- 1 和- 2 時刻的車輛狀態(tài)獲得,如式(15),時刻的觀測信息由b(z)獲取,如式(17),則其對應(yīng)的最大隱狀態(tài)即為時刻的匹配結(jié)果,故基于2階HMM的地圖匹配結(jié)果可表示為
為了驗證本算法的有效性,分別收集3 個不同路段的數(shù)據(jù)集進行測試。其中前2 組試驗利用試驗室參與開發(fā)的智能車系統(tǒng)進行數(shù)據(jù)采集,如圖6 所示。該平臺配備有DGPS 和單目相機(point grey camera),圖像分辨率為1920×1080 pixel。第1 組實驗數(shù)據(jù)在武漢某科技公司園區(qū)采集,如圖7(a)所示。第2 組實驗采集開放道路的數(shù)據(jù),數(shù)據(jù)采集路段為武漢市二環(huán)線的一段快速路,如圖7(b)所示。在快速路上車輛速度相對較高,節(jié)點間距比園區(qū)和KITTI數(shù)據(jù)集中的間距大。第3 組實驗在公開的KITTI 數(shù)據(jù)集上測試。3 組實驗在相同的計算機硬件條件下進行測試,其配置為Intel Core i7-7700HQ 2.8GHz CPU,開發(fā)環(huán)境為Visual Studio 2017/C++。為了比較不同算法之間的性能差異,選取基于BoW模型的單幀匹配和基于深度學(xué)習(xí)的算法以及序列匹配的seqSLAM為對比算法。
圖6 智能車視覺系統(tǒng)
圖7 測試路段
視覺地圖采用文獻[5]中的地圖構(gòu)建方法,將待定位場景離散為一序列節(jié)點,每個節(jié)點包括視覺特征、三維信息和軌跡信息,其中視覺信息采用全局ORB 特征描述,全局ORB 特征提取如1.3.2 節(jié)中所述,所構(gòu)建視覺地圖如圖1所示。
在定位階段,僅使用單目攝像機作為數(shù)據(jù)采集傳感器,實驗場景包括開闊路段和陰影路段,長近500 m,共采集圖像324張,測試場景如圖8所示。定位試驗是在完成視覺地圖構(gòu)建的路段進行測試。在封閉園區(qū)車輛行駛速度相對較低,視覺地圖節(jié)點平均間距約為3 m,共構(gòu)建164個視覺地圖節(jié)點。在構(gòu)建視覺地圖的基礎(chǔ)上,利用采集的226 張測試數(shù)據(jù)進行驗證。
圖8 工業(yè)園區(qū)測試場景
首先利用前30 張采集數(shù)據(jù)確定2 階HMM 模型的最優(yōu)參數(shù)。完成2 階HMM 模型參數(shù)確定后,利用測試集剩余的196 張圖像進行驗證。通過智能車的前2 個時刻的位置對系統(tǒng)進行初始化,根據(jù)初始化位置,確定下一時刻車輛轉(zhuǎn)移到各地圖節(jié)點的概率。然后提取當(dāng)前圖像的ORB 全局描述符,并計算當(dāng)前圖像與各地圖節(jié)點對應(yīng)圖像的漢明距離,求得當(dāng)前圖像與各節(jié)點圖像的相似度。最后利用狀態(tài)轉(zhuǎn)移概率和計算的發(fā)射概率,通過前向算法獲取當(dāng)前位置與視覺地圖中節(jié)點之間的聯(lián)合概率,其最大概率認(rèn)為是當(dāng)前時刻的定位結(jié)果。本文研究的重點為智能車節(jié)點級定位,結(jié)果評價采用閉環(huán)檢測中常用的衡量標(biāo)準(zhǔn),即當(dāng)前車輛在相鄰節(jié)點之間時,通常認(rèn)為最近的節(jié)點和次近的節(jié)點都是正確的匹配結(jié)果。
本文中誤差幀是指獲取的地圖節(jié)點與真實節(jié)點之間的節(jié)點差。同時,與當(dāng)前車輛相鄰的兩個節(jié)點被同等地認(rèn)為是與當(dāng)前車輛最近的節(jié)點,其累積分布如圖9 所示。因?qū)Ρ人惴ǖ亩ㄎ唤Y(jié)果波動比較大,為了便于數(shù)據(jù)的統(tǒng)計與分析,當(dāng)誤差大于4 幀時均按4幀處理。
圖9 園區(qū)定位實驗誤差分布
本研究與經(jīng)典的基于BoW 的方法和基于深度學(xué)習(xí)的位置識別算法以及序列匹配的seqSLAM 算法進行比較,其匹配范圍是由狀態(tài)預(yù)測的粗定位范圍。其定位誤差均值分別為0.12、0.48、0.43和0.46幀,誤差標(biāo)準(zhǔn)差分別為0.52、0.92、0.72 和1.04 幀。與對比算法的程序耗時74.55、86.38 和286.24 ms相比,本研究利用全局特征描述符來計算發(fā)射概率,省去了特征提取與卷積過程,而且僅需異或運算即可獲得漢明距離,大幅降低了計算耗時,如表1所示。算法成功找到最近節(jié)點的概率分別為93.24%、84.29%、89.10%和88.44%。此外,如圖9 所示,對比算法定位誤差大于等于4 幀的比例較大,表明定位結(jié)果波動大。由上述數(shù)據(jù)顯示,本文中提出的2 階HMM 定位算法將拓?fù)湫畔⒑托蛄袌D像信息相融合,提高了定位的穩(wěn)定性和精度,其性能優(yōu)于對比算法。
表1 不同算法在園區(qū)場景的性能對比
為了驗證本算法對不同場景的適應(yīng)性,采集武漢市一段開放道路的數(shù)據(jù)進行驗證,該測試路段共采集375 張圖像,路段長度約為1200 m,測試路段如圖7(b)所示。由于此路段為快速路,車輛行駛速度相對較高,測試場景如圖10 所示。為了與封閉園區(qū)具有相似的測試數(shù)據(jù)集數(shù)量,該測試場景構(gòu)建的視覺地圖節(jié)點數(shù)為150 個,相鄰節(jié)點之間的間距平均為8 m。利用采集的225張圖像作為測試數(shù)據(jù),參數(shù)確定過程與2.1節(jié)相同。
圖10 快速路的測試場景
開放道路上的實驗測試結(jié)果如圖11 所示,由概率分布可以看出,快速路場景下本算法的性能優(yōu)于園區(qū)的匹配結(jié)果,其平均匹配誤差為0.01 幀,匹配標(biāo)準(zhǔn)差為0.08 幀,性能均優(yōu)于對比算法,與對比算法的性能比較如表2 所示。經(jīng)分析,快速路場景下,本文算法相比于園區(qū)的匹配結(jié)果較好是因為在快速路場景下光照條件好,圖像特征顯著,而且該測試路段不存在較大的轉(zhuǎn)彎等場景,因此視覺地圖匹配結(jié)果相對較高。由此也能夠說明本算法更適應(yīng)在相對開闊、光照條件好的場景下使用。
圖11 快速路定位實驗誤差分布
表2 不同算法在快速路場景的性能對比
KITTI數(shù)據(jù)集是智能駕駛領(lǐng)域使用最為廣泛的公開數(shù)據(jù)集之一。本文中選取的測試數(shù)據(jù)集的采集設(shè)備如圖12所示,選取里程計數(shù)據(jù)集中的sequence_00作為測試數(shù)據(jù),其圖像大小為1241×376 pixel,其測試路段場景如圖13所示,為了說明算法的可比性,選取包括兩個轉(zhuǎn)彎和一段陰影路段進行測試。選取測試數(shù)據(jù)387張,距離近430 m,該場景構(gòu)建視覺地圖節(jié)點數(shù)為181 個,節(jié)點平均間距約2.4 m。在確定2 階HMM最優(yōu)參數(shù)后,利用采集的206張圖像進行測試。
圖12 KITTI中用的數(shù)據(jù)采集系統(tǒng)
圖13 KITTI測試道路場景
在公開數(shù)據(jù)集上的實驗結(jié)果如圖14 所示,由圖中可以看出,在KITTI數(shù)據(jù)集中本算法的匹配性能與開放道路場景下的匹配性能相當(dāng),其成功匹配的概率為99.33%。其與對比算法的平均匹配誤差分別為0.01、0.47、0.43 和1.07 幀,匹配誤差標(biāo)準(zhǔn)差分別為0.08、0.99、0.78 和1.78 幀,且程序平均耗時僅為3.31 ms,如表3 所示。因此,本研究中提出的基于2階HMM 的視覺地圖匹配算法在實地采集的數(shù)據(jù)集和公開數(shù)據(jù)集中均有較好的定位精度和穩(wěn)定性。
圖14 KITTI數(shù)據(jù)集定位實驗誤差分布
表3 不同算法在KITTI數(shù)據(jù)集中的性能對比
本文中利用歷史狀態(tài)預(yù)測車輛的當(dāng)前位置,構(gòu)建2階HMM 的狀態(tài)轉(zhuǎn)移矩陣,并提取圖像的ORB全局描述符構(gòu)建基于漢明距離的發(fā)射概率計算模型,最后通過前向算法完成車輛狀態(tài)估計,實現(xiàn)基于2階HMM 的智能車視覺地圖匹配。該方法可將圖像序列匹配與軌跡的拓?fù)湫畔⑾嗳诤?,有效降低?shù)據(jù)存儲空間和計算復(fù)雜度。為了驗證算法的有效性,在不同場景和公開數(shù)據(jù)集上進行測試,試驗結(jié)果表明,本算法在不同場景中均表現(xiàn)較好的匹配性能,其中在開放道路和KITTI 數(shù)據(jù)集上的正確匹配率高達99%以上,具有較高的匹配精度和穩(wěn)定性。本研究能夠?qū)崿F(xiàn)精確的車輛實時定位,但單一攝像頭容易受外界干擾,在后續(xù)研究中,將開發(fā)基于多傳感器融合的2階HMM智能車地圖匹配方案。