徐?巖,安衛(wèi)鳳
基于改進(jìn)隨機(jī)抽樣一致算法的視覺SLAM
徐?巖,安衛(wèi)鳳
(天津大學(xué)電氣自動(dòng)化與信息工程學(xué)院,天津 300072)
同時(shí)定位與地圖構(gòu)建(SLAM)在智能駕駛和機(jī)器人技術(shù)中發(fā)揮著重要的作用.針對(duì)傳統(tǒng)隨機(jī)抽樣一致(RANSAC)算法對(duì)噪聲敏感的問題,提出了一種改進(jìn)的RANSAC算法,命名為L(zhǎng)ORANSAC,簡(jiǎn)稱LO*.該算法包含內(nèi)點(diǎn)篩選和非線性優(yōu)化兩部分.首先,在傳統(tǒng)RANSAC算法估計(jì)出較好的模型后,保存在這個(gè)模型下得到的內(nèi)點(diǎn),在這些內(nèi)點(diǎn)中隨機(jī)選出一個(gè)子集,以進(jìn)一步縮小內(nèi)點(diǎn)的選擇范圍,迭代地進(jìn)行模型估計(jì).然后,對(duì)估計(jì)的模型進(jìn)行捆集調(diào)整,通過最小化誤差優(yōu)化模型.實(shí)驗(yàn)使用公開的TUM RGBD數(shù)據(jù)集和KITTI數(shù)據(jù)集中的共10個(gè)序列進(jìn)行評(píng)估,每個(gè)序列至少存在一個(gè)閉環(huán),數(shù)據(jù)集涵蓋小型和大型、室內(nèi)和室外環(huán)境.從定性角度驗(yàn)證該算法刪除誤匹配的特征點(diǎn)的有效性,從定量角度驗(yàn)證使用該算法的定位精度.實(shí)驗(yàn)結(jié)果顯示,與傳統(tǒng)的RANSAC算法相比,改進(jìn)的算法可以提高SLAM的定位精度.此外,實(shí)驗(yàn)結(jié)果與4個(gè)流行的SLAM系統(tǒng)對(duì)比,精度平均最高提高60.82%,最低提高12.16%.實(shí)驗(yàn)結(jié)果證明,該方法可以有效提高SLAM的定位精度.
機(jī)器視覺;同時(shí)定位與地圖構(gòu)建;隨機(jī)抽樣一致
同時(shí)定位與地圖構(gòu)建(simultaneous localization and mapping,SLAM)旨在解決移動(dòng)機(jī)器人的自我定位以及在未知環(huán)境中地圖構(gòu)建的問題.通過SLAM,移動(dòng)機(jī)器人可以知道自己在哪里,周圍環(huán)境如何,以及如何在下一步中自主行動(dòng).SLAM使用的主要傳感器是激光雷達(dá)和相機(jī).雷達(dá)SLAM具有高精度和高速度,但價(jià)格昂貴.相機(jī)具有很高的場(chǎng)景識(shí)別功能,可以在環(huán)境中獲得比激光雷達(dá)更多的紋理信息,并且成本比雷達(dá)低.基于視覺傳感器的SLAM稱為視覺SLAM,根據(jù)匹配方法可分為直接方法[1-3]和特征方法[4-6].
直接方法是直接根據(jù)圖像中每個(gè)像素的強(qiáng)度恢復(fù)未知參數(shù),例如位置和運(yùn)動(dòng).Newcombe等[7]提出了DTAM,對(duì)每個(gè)像素的深度進(jìn)行逆深度處理并且進(jìn)行連續(xù)優(yōu)化,建立了具有更多信息的稠密地圖,并實(shí)現(xiàn)了穩(wěn)定的位置跟蹤.缺點(diǎn)是建圖的速度較慢,不利于在移動(dòng)終端運(yùn)行.Engel等[8]提出的DSO是少數(shù)幾個(gè)使用純直接方法的SLAM 系統(tǒng),建立了稀疏地圖,實(shí)現(xiàn)了高速度建圖,但是對(duì)光照的敏感度較高,魯棒性不高.Forster等[9]提出的SVO使用半直接方法的單目SLAM系統(tǒng),利用稀疏特征點(diǎn)圖像塊而不是整幅圖像匹配估計(jì)位姿,使用光流跟蹤優(yōu)化位姿,實(shí)現(xiàn)了快速定位,但是在大的場(chǎng)景下,不能夠保持高精度.
基于特征的方法使用特征點(diǎn)的匹配計(jì)算相機(jī)的位置和運(yùn)動(dòng),如Davison等[10]提出的MonoSLAM和Mur-Artal等[4]提出的ORB-SLAM.MonoSLAM后端是基于濾波器優(yōu)化的SLAM系統(tǒng)[11-13],使用擴(kuò)展卡爾曼濾波器(extended Kalman filter,EKF)優(yōu)化位姿,濾波器的方法只和前幾個(gè)有限時(shí)刻的狀態(tài)有關(guān),在一定程度上假設(shè)了馬爾可夫性,不利于檢測(cè)閉環(huán).Klein等[14]提出的PTAM并行地執(zhí)行跟蹤和建圖的兩個(gè)線程,引入捆集調(diào)整(bundle adjustment,BA)[15]的優(yōu)化方式取代了傳統(tǒng)的濾波器優(yōu)化的方式,使用了關(guān)鍵幀機(jī)制,實(shí)現(xiàn)了SLAM在小型設(shè)備上的實(shí)時(shí)性.但是,沒有進(jìn)行閉環(huán)檢測(cè)以及閉環(huán)調(diào)整.ORB-SLAM借鑒PTAM的關(guān)鍵幀機(jī)制,并且加入了閉環(huán)檢測(cè)線程,采用了具有旋轉(zhuǎn)不變性的ORB特征,加快了特征的匹配速度,但是只適合單目相機(jī).在文獻(xiàn)[4]的基礎(chǔ)上,Mur-Artal等[5]擴(kuò)展了ORB-SLAM,提出了適用于單目、雙目和深度相機(jī)的SLAM系統(tǒng),即ORB-SLAM2,可以在局部?jī)?yōu)化和全局優(yōu)化之后獲得相機(jī)位姿的估計(jì),并構(gòu)建全局一致的稀疏地圖.
基于特征的SLAM對(duì)相機(jī)位姿估計(jì)的精度依賴于特征匹配的準(zhǔn)確性.如果存在太多誤匹配,計(jì)算出的相機(jī)位姿具有很大的偏差,這會(huì)使得累積誤差增大.如何有效地刪除誤匹配并提高位姿估計(jì)的精度一直是SLAM關(guān)注的問題.SLAM使用傳統(tǒng)的隨機(jī)抽樣一致(random sample consensus,RANSAC)算法來刪除特征的誤匹配.但是,傳統(tǒng)的RANSAC算法參數(shù)沒有經(jīng)過細(xì)化處理,精度不高.Chum等[16]對(duì)RANSAC算法進(jìn)行改進(jìn),每估計(jì)一次模型,進(jìn)行一次優(yōu)化,精度比傳統(tǒng)RANSAC有所提高,滿足定位的需求.但是,該算法耗時(shí)更長(zhǎng),不利于實(shí)現(xiàn)SLAM的實(shí)時(shí)性能.
本文針對(duì)傳統(tǒng)的RANSAC算法刪除特征誤匹配的精度不夠高,造成定位誤差以及誤差累積的問題,提出了一種改進(jìn)的RANSAC算法,在用傳統(tǒng)RANSAC算法迭代計(jì)算到內(nèi)點(diǎn)后,將最小誤差對(duì)應(yīng)的內(nèi)點(diǎn)保存下來,然后設(shè)定新的誤差閾值,在內(nèi)點(diǎn)中選擇樣本迭代計(jì)算模型.這樣縮小了樣本的選擇范圍,提高了內(nèi)點(diǎn)被選中的概率.為了進(jìn)一步精確位姿,該算法最后對(duì)得到的模型做一次BA優(yōu)化.系統(tǒng)的前端利用該算法結(jié)合EPP[17]進(jìn)行位姿估計(jì),在閉環(huán)檢測(cè)中,該方法結(jié)合Sim3[18]進(jìn)行閉環(huán)檢測(cè)和矯正.
傳統(tǒng)RANSAC算法可以在一組包含內(nèi)點(diǎn)(inliers)和外點(diǎn)(outliers)的數(shù)據(jù)集中,通過迭代的方式計(jì)算數(shù)據(jù)的最佳模型.計(jì)算步驟如下.
步驟1 在數(shù)據(jù)集中隨機(jī)選取(滿足計(jì)算模型所有參數(shù)所需的最少的數(shù)據(jù))個(gè)數(shù)據(jù),計(jì)算出模型的參數(shù).
步驟2 用得到的模型去估計(jì)所有的點(diǎn),誤差在設(shè)定的閾值以內(nèi)的為內(nèi)點(diǎn),反之,為外點(diǎn).
步驟3 重復(fù)步驟1、步驟2,迭代次數(shù)達(dá)到預(yù)設(shè)值后,保存最多的內(nèi)點(diǎn)數(shù)對(duì)應(yīng)的模型參數(shù)作為最終的結(jié)果.
RANSAC算法最少迭代次數(shù)滿足
式中:表示計(jì)算模型參數(shù)所需的最少數(shù)據(jù);P表示置信度,表示所選的個(gè)數(shù)據(jù)至少有一個(gè)是內(nèi)點(diǎn)的概率;表示所選數(shù)據(jù)是外點(diǎn)的概率.
的解析式為
RANSAC假設(shè)數(shù)據(jù)中不存在噪聲,計(jì)算的最優(yōu)模型符合所有的內(nèi)點(diǎn),但是數(shù)據(jù)中存在噪聲,噪聲的隨機(jī)性對(duì)模型的計(jì)算具有誤導(dǎo)性,因此,RANSAC算法所需的迭代次數(shù)比理論次數(shù)大,得到的不是最優(yōu)?模型.
針對(duì)傳統(tǒng)RANSAC算法存在對(duì)噪聲敏感問題,本文提出一種改進(jìn)的RANSAC算法——LORANSAC(locally optimized RANSAC,簡(jiǎn)稱LO*).LO*在傳統(tǒng)的RANSAC的基礎(chǔ)上進(jìn)行了兩項(xiàng)改進(jìn).第1項(xiàng)改進(jìn)是增加篩選操作,保留最好的內(nèi)點(diǎn),濾除外點(diǎn),用內(nèi)點(diǎn)估計(jì)模型.第2項(xiàng)是在模型估計(jì)之后增加BA優(yōu)化.用估計(jì)的模型計(jì)算誤差,通過BA最小化誤差,從而優(yōu)化模型參數(shù).下面介紹LO*的詳細(xì)算法流程.
首先,計(jì)算所有匹配點(diǎn)的漢明距離,丟棄漢明距離大于閾值的匹配點(diǎn),然后用漢明距離小于閾值的匹配點(diǎn)進(jìn)行模型估計(jì),具體流程參照模型估計(jì).當(dāng)RANSAC計(jì)算出最佳模型時(shí),執(zhí)行LO*迭代.算法的流程如圖1所示.
圖1?LO*算法流程
LORANSAC的具體步驟如下.
步驟1在滿足漢明距離閾值的數(shù)據(jù)集中隨機(jī)選取個(gè)數(shù)據(jù),并用選取的數(shù)據(jù)估計(jì)模型.
步驟2 使用步驟1估計(jì)的模型計(jì)算所有數(shù)據(jù)點(diǎn)的誤差,并保存誤差低于閾值和期望概率的?內(nèi)點(diǎn).
步驟3 重復(fù)執(zhí)行步驟1、步驟2,當(dāng)前最佳模型出現(xiàn)時(shí),更新最佳模型.
步驟4執(zhí)行LO*迭代進(jìn)一步篩選內(nèi)點(diǎn),估計(jì)模型.LO*迭代的細(xì)節(jié)如下.
(1) 采用新的閾值估計(jì)模型的內(nèi)點(diǎn),在內(nèi)點(diǎn)中隨機(jī)選取個(gè)數(shù)據(jù)再次估計(jì)模型.該閾值是先前閾值的倍.然后用最小二乘法最小化模型的誤差,并將內(nèi)點(diǎn)保存在新的內(nèi)點(diǎn)集合in中,以進(jìn)行進(jìn)一步的選擇.
(3)返回目前為止最好的模型.
步驟5對(duì)通過LO*得到的最佳模型執(zhí)行BA優(yōu)化,然后返回優(yōu)化后的模型.
模型估計(jì)
1.for=1 todo
8.end if
9.end for
14.end if
15.end for
16.執(zhí)行BA優(yōu)化
LO*迭代
9.end if
10.end for
表1給出了模型估計(jì)和LO*迭代中使用的參數(shù)的含義.
表1?參數(shù)說明
Tab.1?Description of parameters
本文的實(shí)驗(yàn)環(huán)境是Intel i5處理器,2.6GHz CPU,4GB 內(nèi)存,Ubuntu 16.04操作系統(tǒng).在實(shí)驗(yàn)中使用了10個(gè)圖像序列進(jìn)行評(píng)估,其中fr1_desk、fr1_desk2、fr2_desk、fr2_xyz、fr3_office和fr3_nst 6個(gè)圖像序列選自TUM RGB-D 數(shù)據(jù)集[19],該數(shù)據(jù)集使用RGB-D相機(jī)采集的室內(nèi)環(huán)境.另外4個(gè)序列(00、05、07和08)選自KITTI 數(shù)據(jù)集[20],該數(shù)據(jù)集是使用裝在汽車上的雙目攝像機(jī)拍攝的城市和高速公路環(huán)境.在KITTI數(shù)據(jù)集中所選的4個(gè)序列,每個(gè)序列的軌跡至少有1個(gè)閉環(huán).為了消除多線程不確定性的影響,對(duì)每個(gè)圖像序列進(jìn)行了6次實(shí)驗(yàn),計(jì)算真實(shí)軌跡和估計(jì)軌跡之間的絕對(duì)平移的均方根誤差(root mean square error,RMSE).然后將6次實(shí)驗(yàn)的RMSE的平均值作為每個(gè)序列的最終結(jié)果.實(shí)驗(yàn)中使用的參數(shù)值如表2所示,漢明距離閾值采用經(jīng)驗(yàn)值100.在統(tǒng)計(jì)學(xué)中,通常把置信率設(shè)為0.95,故本實(shí)驗(yàn)中的選取0.95.是經(jīng)過多次實(shí)驗(yàn)、使得實(shí)驗(yàn)結(jié)果最優(yōu)的值.counts是指最大迭代次數(shù),根據(jù)實(shí)時(shí)性要求選取,本文設(shè)置為10.是指特征金字塔層數(shù)的尺度因子,是文獻(xiàn)[16]建議的值.
表2?實(shí)驗(yàn)中使用的參數(shù)值
Tab.2?Values of parameters used in the experiments
為全面評(píng)估提出算法的性能,本文從定性和定量角度進(jìn)行評(píng)估.在定性評(píng)估時(shí),從LO*刪除特征誤匹配和LO*在SLAM中的定位精度兩個(gè)方面進(jìn)行評(píng)估.在定量評(píng)估時(shí),對(duì)比使用RANSAC和LO*算法的定位精度,此外,與4個(gè)流行的SLAM系統(tǒng)進(jìn)行對(duì)比,如ORB-SLAM2[5]、RGB-D SLAM[6]、ElasticFu-sion[21]和RGBDTAM[22],其中RGB-D SLAM、ElasticFusion和 RGBDTAM的數(shù)據(jù)來自于作者發(fā)表的論文,ORB-SLAM2的數(shù)據(jù)與本文提出算法的數(shù)據(jù)在同一實(shí)驗(yàn)環(huán)境下取得.評(píng)價(jià)標(biāo)準(zhǔn)使用估計(jì)相機(jī)絕對(duì)平移的RMSE.
首先,為了測(cè)試LO*是否可以有效地刪除誤匹配,在TUM數(shù)據(jù)集的fr1_desk2序列中選取兩張圖片,提取圖片的ORB特征進(jìn)行匹配.未經(jīng)過特征誤匹配篩選的匹配圖如圖2(a)所示,可以看出,在刪除誤匹配之前,匹配的特征點(diǎn)分布在各個(gè)方向.圖2(b)顯示了使用RANSAC刪除誤匹配后的匹配圖,可以看出,RANSAC算法可以刪除大部分的誤匹配,但是仍存在少量方向不一致的誤匹配,而且,該算法刪除了一些正確匹配.圖2(c)顯示了使用LO*刪除誤匹配后的匹配圖,可以看出,匹配的特征點(diǎn)對(duì)集中在相同的方向上,減少了誤匹配特征的數(shù)量,而且保留下來的正確匹配點(diǎn)的比例增加.
圖2?匹配對(duì)比
其次,為了驗(yàn)證LO*在SLAM中的定位精度,本文分別選取TUM RGB-D數(shù)據(jù)集的4個(gè)序列fr1_ desk、fr2_ xyz、fr3_office和fr2_desk以及KITTI數(shù)據(jù)集的4個(gè)序列00、05、07和08進(jìn)行實(shí)驗(yàn).將LO*估計(jì)的軌跡和真實(shí)軌跡繪制在同一張圖上,TUM數(shù)據(jù)集序列的軌跡圖(主視圖和俯視圖)如圖3~圖6所示.可以看出,本文算法估計(jì)的軌跡非常接近真實(shí)軌跡,甚至部分軌跡和真實(shí)軌跡完全重合.fr3_office的軌跡的俯視圖存在一個(gè)大的不規(guī)則的閉環(huán),可以看出,本文算法估計(jì)的軌跡仍然接近真實(shí)軌跡.圖3~圖6中估計(jì)的軌跡存在抖動(dòng),主要是因?yàn)樵撔蛄衼碜允殖諶GB-D相機(jī)采集的數(shù)據(jù).KITTI數(shù)據(jù)集的序列00、05、07和08的軌跡如圖7所示.這4個(gè)序列采集的是室外的城市場(chǎng)景,環(huán)境是動(dòng)態(tài)復(fù)雜的,存在大型的閉環(huán).可以看出,本文算法對(duì)室外軌跡的估計(jì)接近真實(shí)軌跡,尤其是序列05,該軌跡存在多個(gè)拐角和閉環(huán),軌跡長(zhǎng)度長(zhǎng)達(dá)千米,本文算法估計(jì)的軌跡仍然保持高精度.
此外,為了定量地對(duì)比LO*與RANSAC在SLAM中的定位精度,選取TUM RGB-D數(shù)據(jù)集的6組序列進(jìn)行實(shí)驗(yàn),同一個(gè)SLAM系統(tǒng)分別使用LO*與RANSAC刪除特征的誤匹配,對(duì)比指標(biāo)利用真實(shí)軌跡與使用RANSAC算法和LO*估計(jì)的軌跡的RMSE表示.如表3所示.可以看出,對(duì)于這6個(gè)圖像序列,LO*比RANSAC取得更高的定位精度,可以提高SLAM的定位精度.
圖3?序列fr1_desk的估計(jì)軌跡與真實(shí)軌跡
圖4?序列fr2_xyz的估計(jì)軌跡與真實(shí)軌跡
圖5?序列fr3_office的估計(jì)軌跡與真實(shí)軌跡
圖6?序列fr2_desk的估計(jì)軌跡和真實(shí)軌跡
圖7?4個(gè)KITTI序列的估計(jì)軌跡和真實(shí)軌跡
最后,為了定量地對(duì)比本文提出的算法與4個(gè)流行的SLAM系統(tǒng)估計(jì)軌跡的精度,計(jì)算真實(shí)軌跡與用不同方法估計(jì)的軌跡之間的絕對(duì)平移的RMSE,并在表4中示出.“—”表示作者的文獻(xiàn)中沒有提供數(shù)據(jù),“x”表示雙目相機(jī)的數(shù)據(jù)集無法在基于深度相機(jī)的SLAM系統(tǒng)中運(yùn)行.對(duì)于TUM RGB-D數(shù)據(jù)集,本文將提出的算法與4個(gè)流行的基于深度相機(jī)的SLAM系統(tǒng)進(jìn)行對(duì)比.對(duì)于所有測(cè)試序列,本文提出的算法估計(jì)位姿的精度高于RGB-D SLAM[6]、ElasticFusion[21]和RGBDTAM[22]系統(tǒng)對(duì)相機(jī)位姿估計(jì)的精度.對(duì)于KITTI數(shù)據(jù)集,本文將提出的算法與ORB-SLAM2[5]進(jìn)行對(duì)比,對(duì)于序列05和07,本文的算法比ORB-SLAM2估計(jì)的相機(jī)位姿精度高.對(duì)于序列08,本文的算法獲得與ORB-SLAM2相同的結(jié)果.表4的最后一行表示10組數(shù)據(jù)精度提高的算術(shù)平均百分比,可以看出,本文的算法比ORB-SLAM2、RGB-D SLAM、ElasticFusion和RGBDTAM分別提高了12.16%、60.82%、42.32%和32.28%.總體來看,提出的LO*算法估計(jì)相機(jī)位姿的精度在不同數(shù)據(jù)集中和不同的SLAM系統(tǒng)對(duì)比均有不同程度的提高.
表3?使用RANSAC和LO*定位精度的對(duì)比
Tab.3 Comparison of positioning accuracy using RANSAC and LO*
表4?不同SLAM系統(tǒng)位姿估計(jì)均方根誤差的對(duì)比
Tab.4?Comparison of the RMSE of pose estimation for different SLAM systems
本文提出了一種改進(jìn)的RANSAC算法LORANSAC,用于基于ORB特征的SLAM系統(tǒng).在傳統(tǒng)RANSAC的基礎(chǔ)上實(shí)現(xiàn)了對(duì)合格內(nèi)點(diǎn)的進(jìn)一步選擇,并且在估計(jì)模型后增加一次非線性優(yōu)化.實(shí)驗(yàn)結(jié)果表明,LO*能夠有效地刪除特征的誤匹配,并且與其他4個(gè)流行的SLAM系統(tǒng)對(duì)比,本文提出的算法可以更精確地估計(jì)相機(jī)位姿.兩種不同數(shù)據(jù)集的實(shí)驗(yàn)表明,本文提出的算法適用于室內(nèi)和室外環(huán)境,并且具有較高的精度.
[1] Silveira G,Malis E,Rives P. An efficient direct approach to visual SLAM[J]. IEEE Transactions on Robotics,2008,24(5):969-979.
[2] Cremers D. Direct methods for 3D reconstruction and visual SLAM[C]//International Conference on Machine Vision Applications. Nagoya,Japan,2017:8-12.
[3] Engel J,Stückler J,Cremers D. CPA-SLAM:Consistent plane-model alignment for direct RGB-D SLAM[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems. Hamburg,Germany,2015:1285-1291.
[4] Mur-Artal R,Montiel J M M,Tard?os J D. ORB-SLAM:A versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics,2015,31(5):1147-1163.
[5] Mur-Artal R,Tard?os J D. ORB-SLAM2:An open-source SLAM system for monocular,stereo and RGB-D cameras[J]. IEEE Transactions on Robotics,2017,33(5):1255-1262.
[6] Endres F,Hess J,Sturm J,et al. 3-D mapping with an RGB-D camera[J]. IEEE Transactions on Robotics,2014,30(1):177-187.
[7] Newcombe R A,Lovegrove S J,Davison A J. DTAM:Dense tracking and mapping in real-time[C]// IEEE International Conference on Computer Vision. Barcelona,Spain,2011:2320-2327.
[8] Engel J,Koltun V,Cremers D. Direct sparse odometry[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(3):611-625.
[9] Forster C,Pizzoli M,Scaramuzza D. SVO:Fast semi-direct monocular visual odometry[C]// International Conference on Robotics and Automation. Hong Kong,China,2014:15-22.
[10] Davison A J,Reid I D,Molton N D,et al. MonoSLAM:Real-time single camera SLAM[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(6):1052-1067.
[11] Montemerlo M,Thrun S,Koller D,et al. Fastslam:A factored solution to the simultaneous localization and mapping problem[C]// AAAI National Conference on Artificial Intelligence. Edmonton,Alberta,Canada,2002:593-598.
[12] Bailey T,Nieto J,Guivant J,et al. Consistency of the EKF-SLAM algorithm[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems. Beijing,China,2006:3562-3568.
[13] Reuter S,Vo Ba-Tuong,Vo Ba-Ngu,et al. The labeled multi-bernoulli filter[J]. IEEE Transactions on Signal Processing,2014,62(12):3246-3260.
[14] Klein G,Murray D. Parallel tracking and mapping for small AR workspaces[C]// IEEE ACM International Symposium on Mixed and Augmented Reality. Nara,Japan,2007:225-234.
[15] Triggs B,Zisserman A,Szeliski R. Proceedings of International Workshop on Vision Algorithms:Theory and Practice[M]. Heidelberg:Springer-Verlag,2000:298-372.
[16] Chum O,Matas J,Kittler J. Locally optimized RANSAC[C]// 25th DAGM Symposium. Berlin,Germany,2003:236-243.
[17] Lepetit V,Moreno-Noguer F,F(xiàn)ua P. EPP:An accurate()solution to the PP problem[J]. International Journal of Computer Vision,2009,81(2):155-166.
[18] Strasdat,H,Montiel J M M,Davison A J. Scale drift-awarelarge scale monocular SLAM[C]// Robotics:Science and Systems Conference. Zaragoza,Spain,2010:1-8.
[19] Sturm J,Engelhard N,Endres F,et al. A benchmark for the evaluation of RGB-D SLAM systems[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems. Vilamoura,Portugal,2012:573-580.
[20] Geiger A,Lenz P,Stiller C,et al. Vision meets robotics:The KITTI dataset[J]. International Journal of Robotics Research,2013,32(11):1231-1237.
[21] Whelan T,Salas-Moreno R F,Glocker B,et al. ElasticFusion:Real-time dense SLAM and light source estimation[J]. International Journal of Robotics Research,2016,35(14):1697-1716.
[22] Concha A,Civera J. RGBDTAM:A cost-effective and accurate RGB-D tracking and mapping system[EB/OL]. https://arxiv.org/pdf/1703.00754.pdf,2017-03-02.
Visual SLAM Based on the Improved RANSAC Algorithm
Xu Yan,An Weifeng
(School of Electrical and Information Engineering,Tianjin University,Tianjin 300072,China)
Simultaneous localization and mapping(SLAM)has been playing an important role in intelligent driving and robotics.To address the noise sensitivity problem of the traditional random sample consensus (RANSAC) algorithm,an improved RANSAC algorithm called locally optimized RANSAC(LORANSAC,abbreviated as LO*)is proposed.The algorithm comprises two parts:inners screening and nonlinear optimization.First,after the traditional RANSAC algorithm estimates a good model,the inners produced by this model are saved.Then,a subset is randomly selected among these inners to further narrow the selection range of the inners and iteratively perform model estimation.Finally,the estimated model is bundledand optimized by minimizing the error.The proposed algorithm is evaluated using 10 public sequences from the TUM RGBD and KITTI datasets,with at least one closed loop for each sequence,which cover both small-and large-scale indoor and outdoor environments.Experiments were conducted to qualitatively validate the algorithm in deleting the incorrect matches of feature points and quantitatively verify the positioning accuracy of the algorithm.The experiment results show that in comparison with the traditional RANSAC algorithm,the improved algorithm can enhance the positioning accuracy of SLAM.In addition,in comparison with the average accuracy of the four well-known SLAM systems,the average accuracy of the improved algorithm is increased by a maximum of 60.82% and a minimum of 12.16%.The experiment results show that the proposed method can effectively improve the positioning accuracy of SLAM.
machine vision;simultaneous localization and mapping;random sample consensus
TP242.6
A
0493-2137(2020)10-1069-08
10.11784/tdxbz201908024
2019-08-13;
2019-10-28.
徐?巖(1977—??),女,博士,副教授,xuyan@tju.edu.cn.
安衛(wèi)鳳,awf_joker@tju.edu.cn.
國(guó)家自然科學(xué)基金資助項(xiàng)目(61372145);青海省基礎(chǔ)研究資助項(xiàng)目(2017-ZJ-753);天津大學(xué)自主創(chuàng)新基金資助項(xiàng)目(2015XZC-0005).
Supported by the National Natural Science Foundation of China(No.61372145),the Fundamental Research Project of Qinghai Province,China(No.2017-ZJ-753),the Independent Innovation Fund of Tianjin University(No.2015XZC-0005).
(責(zé)任編輯:王曉燕)
天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版)2020年10期