国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

動(dòng)態(tài)場(chǎng)景下基于RGB-D相機(jī)的移動(dòng)機(jī)器人定位算法研究

2023-12-03 16:12:06叢佩超崔利營(yíng)萬(wàn)現(xiàn)全劉俊杰肖宜軒李佳星
關(guān)鍵詞:精準(zhǔn)定位移動(dòng)機(jī)器人

叢佩超 崔利營(yíng) 萬(wàn)現(xiàn)全 劉俊杰 肖宜軒 李佳星

摘 要:針對(duì)移動(dòng)機(jī)器人在室內(nèi)動(dòng)態(tài)場(chǎng)景下視覺導(dǎo)航過程中定位精度低的問題,提出一種新的動(dòng)態(tài)場(chǎng)景下視覺定位算法。該算法基于ORB-SLAM2算法框架,首先,通過RGB-D相機(jī)獲取圖像數(shù)據(jù),再利用Mask R-CNN神經(jīng)網(wǎng)絡(luò)與多視圖幾何技術(shù)進(jìn)行數(shù)據(jù)處理,實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè);其次,將運(yùn)動(dòng)物體區(qū)域的動(dòng)態(tài)特征點(diǎn)濾除,保留其靜態(tài)特征點(diǎn),完成相機(jī)的位姿跟蹤,從而降低動(dòng)態(tài)物體對(duì)機(jī)器人定位的影響;最后,通過TUM數(shù)據(jù)集下的fr3_w_xyz序列完成試驗(yàn)驗(yàn)證。試驗(yàn)結(jié)果表明:相較ORB-SLAM2、DynaSLAM算法,本文算法在高動(dòng)態(tài)場(chǎng)景下的運(yùn)行軌跡更優(yōu),且絕對(duì)位姿的平均誤差分別降低78.70%、17.13%,標(biāo)準(zhǔn)差分別降低76.87%、30.07%,驗(yàn)證了該算法在室內(nèi)動(dòng)態(tài)場(chǎng)景下可實(shí)現(xiàn)精準(zhǔn)定位,且具有較好的魯棒性與準(zhǔn)確性,可為移動(dòng)機(jī)器人在室內(nèi)自主導(dǎo)航提供理論基礎(chǔ)。

關(guān)鍵詞:移動(dòng)機(jī)器人;動(dòng)態(tài)場(chǎng)景;Mask R-CNN;多視圖幾何;精準(zhǔn)定位

中圖分類號(hào):TP242 DOI:10.16375/j.cnki.cn45-1395/t.2023.04.013

0 引言

隨著人工智能和物聯(lián)網(wǎng)的發(fā)展,人們對(duì)移動(dòng)機(jī)器人的功能要求越來(lái)越高,希望移動(dòng)機(jī)器人能完成室內(nèi)場(chǎng)景下的特定任務(wù),為人們服務(wù),比如掃地機(jī)器人、交互機(jī)器人等,具有十分明朗的發(fā)展前景[1]。

移動(dòng)機(jī)器人的定位是機(jī)器人進(jìn)行自主導(dǎo)航的前提,定位技術(shù)是機(jī)器人的核心技術(shù)之一,因此開展移動(dòng)機(jī)器人定位技術(shù)的研究對(duì)于實(shí)現(xiàn)機(jī)器人的自主導(dǎo)航具有重要意義[2]。目前,室內(nèi)廣泛使用的定位方法按照傳感器類型進(jìn)行分類,主要可以分為基于激光雷達(dá)的定位方法與基于相機(jī)的定位方法[3]。由于激光雷達(dá)具有定位精度高、抗干擾的優(yōu)點(diǎn),所以基于激光雷達(dá)的定位技術(shù)被廣泛應(yīng)用于室內(nèi)移動(dòng)機(jī)器人定位中。目前,在移動(dòng)機(jī)器人領(lǐng)域中,基于激光雷達(dá)的蒙特卡羅定位方法較為常用。該方法利用激光雷達(dá)進(jìn)行數(shù)據(jù)實(shí)時(shí)觀測(cè),實(shí)現(xiàn)粒子濾波器的迭代更新,從而完成對(duì)機(jī)器人位置的估計(jì)[4]。葉強(qiáng)強(qiáng)等[5]在蒙特卡羅定位方法的基礎(chǔ)上,提出了一種基于激光雷達(dá)的室內(nèi)移動(dòng)機(jī)器人定位導(dǎo)航系統(tǒng),該系統(tǒng)可實(shí)現(xiàn)移動(dòng)機(jī)器人在室內(nèi)自主導(dǎo)航,且軌跡效果表現(xiàn)良好。季宇寒等[6]提出了一種基于激光雷達(dá)的巡檢機(jī)器人導(dǎo)航系統(tǒng),該系統(tǒng)利用自適應(yīng)蒙特卡羅定位算法估計(jì)巡檢機(jī)器人位置和姿態(tài),使其定位的絕對(duì)軌跡誤差精度不超過0.05 m?;诩す饫走_(dá)的定位技術(shù)雖能獲得較高精度的位置信息,但在運(yùn)動(dòng)過程中易產(chǎn)生點(diǎn)云畸變和誤匹配,且多線激光雷達(dá)價(jià)格較高[7]?;谙鄼C(jī)的定位方法不僅能夠獲得豐富的位置信息,而且其硬件成本低廉。目前,基于相機(jī)傳感器的定位方法主要為視覺同時(shí)定位與建圖(simultaneous localization and mapping,SLAM)技術(shù),該技術(shù)也逐漸成為移動(dòng)機(jī)器人領(lǐng)域的研究熱點(diǎn)之一[8]。Engel等[9]基于直接法提出了一種LSD-SLAM系統(tǒng),該系統(tǒng)是直接法中比較完整的視覺SLAM系統(tǒng),不僅適用于相機(jī)周圍場(chǎng)景的地圖構(gòu)建,而且能夠準(zhǔn)確地估計(jì)移動(dòng)機(jī)器人的位姿。Wang等[10]提出了一種DSO算法,該算法在定位的準(zhǔn)確性、系統(tǒng)的魯棒性以及運(yùn)行速度上均優(yōu)于LSD-SLAM。Klein等[11]提出了一種基于關(guān)鍵幀的PTAM算法,該算法將跟蹤和建圖分為2個(gè)獨(dú)立線程,并利用單目相機(jī)完成了機(jī)器人定位與地圖構(gòu)建。Mur-Artal等[12]基于特征點(diǎn)提出了一種ORB-SLAM2算法,該算法不僅支持單目相機(jī),同時(shí)還支持雙目相機(jī)與RGB-D相機(jī),可在室內(nèi)大規(guī)模場(chǎng)景下實(shí)現(xiàn)同時(shí)定位與建圖,且運(yùn)行效果良好。以上視覺SLAM技術(shù)均把工作環(huán)境限定為靜態(tài)、剛體、光照變化不明顯、沒有人為干涉的場(chǎng)景[13],但目前移動(dòng)機(jī)器人在自主導(dǎo)航過程中的最大挑戰(zhàn)來(lái)自環(huán)境中的動(dòng)態(tài)物體,易影響移動(dòng)機(jī)器人的定位精度,從而產(chǎn)生人機(jī)干涉,所以對(duì)移動(dòng)機(jī)器人定位精度要求較高[14-15]。雖然視覺定位技術(shù)在靜態(tài)場(chǎng)景應(yīng)用較為成功,但在動(dòng)態(tài)場(chǎng)景研究較少。若移動(dòng)機(jī)器人利用上述視覺SLAM技術(shù),不可避免地會(huì)受動(dòng)態(tài)物體影響而產(chǎn)生定位干擾,則研究適用于移動(dòng)機(jī)器人在動(dòng)態(tài)場(chǎng)景下的定位方法具有重要的現(xiàn)實(shí)意義[16]。

綜上所述,針對(duì)移動(dòng)機(jī)器人在運(yùn)動(dòng)過程中,利用傳統(tǒng)視覺SLAM技術(shù)不能實(shí)時(shí)檢測(cè)和處理室內(nèi)動(dòng)態(tài)場(chǎng)景中的運(yùn)動(dòng)物體,從而導(dǎo)致定位精度不足的問題,本文提出了一種動(dòng)態(tài)場(chǎng)景下基于RGB-D相機(jī)的移動(dòng)機(jī)器人定位算法。主要工作由4部分組成:1)動(dòng)態(tài)場(chǎng)景下的視覺SLAM問題描述;2)本文算法框架介紹;3)室內(nèi)動(dòng)態(tài)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)檢測(cè);4)TUM數(shù)據(jù)集仿真試驗(yàn)。

1 動(dòng)態(tài)場(chǎng)景下的視覺SLAM問題描述

為實(shí)現(xiàn)移動(dòng)機(jī)器人的高精度定位,需有豐富的圖像信息作為保證,所以本文采用RGB-D相機(jī)傳感器,機(jī)器人通過RGB-D相機(jī)獲取環(huán)境信息。

RGB-D相機(jī)的運(yùn)動(dòng)狀態(tài)示意圖如圖1所示,機(jī)器人在pose1,pose2,…,poseN處觀測(cè)環(huán)境中的路標(biāo)點(diǎn)y1,y2,…,yn。一般情況下,視覺SLAM問題可以用RGB-D相機(jī)的運(yùn)動(dòng)模型與觀測(cè)模型來(lái)描述。

在靜態(tài)場(chǎng)景下,通過迭代方法可有效地解決最小二乘問題;再根據(jù)相機(jī)的運(yùn)動(dòng)方程、觀測(cè)方程估計(jì)相機(jī)位姿;最后,借助坐標(biāo)系轉(zhuǎn)換關(guān)系確定機(jī)器人的位置與姿態(tài),以實(shí)現(xiàn)移動(dòng)機(jī)器人的精準(zhǔn)定位[13]。但在動(dòng)態(tài)場(chǎng)景下,由于移動(dòng)路標(biāo)與觀測(cè)值不匹配,數(shù)據(jù)關(guān)聯(lián)錯(cuò)誤,從而導(dǎo)致機(jī)器人定位精度低或無(wú)法自主定位[14]。為了解決移動(dòng)機(jī)器人在動(dòng)態(tài)環(huán)境下定位的問題,本文算法需檢測(cè)運(yùn)動(dòng)物體,并將其區(qū)域內(nèi)的動(dòng)態(tài)特征點(diǎn)濾除。

2 動(dòng)態(tài)場(chǎng)景下的視覺SLAM算法

2.1 本文算法框架

ORB-SLAM2是基于特征點(diǎn)法的實(shí)時(shí)SLAM開源算法,其三大線程較好地完成了定位與建圖任務(wù),并且可以保證其全局一致性[12]。但其在復(fù)雜動(dòng)態(tài)場(chǎng)景下易受室內(nèi)動(dòng)態(tài)物體干擾,造成移動(dòng)機(jī)器人定位精度不足,無(wú)法滿足自主導(dǎo)航需求[17]。為了解決上述問題,實(shí)現(xiàn)移動(dòng)機(jī)器人室內(nèi)精準(zhǔn)定位,本文基于ORB-SLAM2算法架構(gòu)提出一種新的動(dòng)態(tài)場(chǎng)景下視覺定位算法。首先,通過RGB-D相機(jī)獲取圖像數(shù)據(jù)傳輸?shù)礁櫨€程,利用Mask R-CNN算法檢測(cè)RGB圖像序列中的運(yùn)動(dòng)目標(biāo);其次,將Mask R-CNN處理后的圖像數(shù)據(jù)與RGB-D相機(jī)獲取的深度圖像數(shù)據(jù)傳入多視圖幾何模塊,從而檢測(cè)出殘余的運(yùn)動(dòng)目標(biāo),實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè);最后將運(yùn)動(dòng)物體區(qū)域的動(dòng)態(tài)特征點(diǎn)濾除,保留周圍靜態(tài)特征點(diǎn)用于跟蹤定位,從而提高移動(dòng)機(jī)器人在動(dòng)態(tài)場(chǎng)景下的定位精度。其算法框架如圖2所示。

2.2 動(dòng)態(tài)場(chǎng)景下運(yùn)動(dòng)目標(biāo)檢測(cè)

動(dòng)態(tài)物體不但無(wú)法提供定位信息,反而會(huì)降低定位的成功率,所以需要將相對(duì)于移動(dòng)機(jī)器人正在運(yùn)動(dòng)的物體進(jìn)行檢測(cè)并濾掉,如行人、推車等[2]。但是,Mask R-CNN神經(jīng)網(wǎng)絡(luò)可以較好地解決動(dòng)態(tài)物體檢測(cè)問題,該算法是一種目標(biāo)實(shí)例分割算法,既可以實(shí)現(xiàn)像素級(jí)的語(yǔ)義分割,還能檢測(cè)動(dòng)態(tài)物體,比如動(dòng)物、運(yùn)動(dòng)的汽車、自行車以及可能移動(dòng)的物體[16]。本文利用Mask R-CNN獲取像素級(jí)語(yǔ)義分割圖像,檢測(cè)運(yùn)動(dòng)目標(biāo),剔除動(dòng)態(tài)特征點(diǎn),其操作過程如下:1)下載基于COCO數(shù)據(jù)集訓(xùn)練成功的權(quán)重,并利用Pycharm編輯器構(gòu)建TensorFlow版本的Mask R-CNN模型。本文的模型將人、椅子、桌子進(jìn)行像素級(jí)的語(yǔ)義分割,并把檢測(cè)到的人定義為運(yùn)動(dòng)目標(biāo),桌子、椅子定義為靜態(tài)目標(biāo)。2)將Mask R-CNN模型應(yīng)用于本文算法,并啟動(dòng)運(yùn)行,從而檢測(cè)動(dòng)態(tài)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)。

但是,對(duì)于不是先驗(yàn)的動(dòng)態(tài)物體,無(wú)法被Mask R-CNN算法檢測(cè),例如餐廳客人正在移動(dòng)椅子,雖然利用Mask R-CNN可以檢測(cè)人,但正在運(yùn)動(dòng)的椅子未能檢測(cè)。但是,多視圖幾何技術(shù)卻能很好地解決上述運(yùn)動(dòng)目標(biāo)的檢測(cè)問題[18]。因此,本文引入多視圖幾何技術(shù),使其與Mask R-CNN算法相結(jié)合,實(shí)現(xiàn)動(dòng)態(tài)場(chǎng)景下的目標(biāo)檢測(cè)。首先,獲取Mask R-CNN處理后的RGB圖像幀,將該圖像數(shù)據(jù)與深度圖像數(shù)據(jù)傳輸?shù)蕉嘁晥D幾何模塊,進(jìn)一步檢測(cè)正在運(yùn)動(dòng)的目標(biāo),其靜態(tài)物體與動(dòng)態(tài)物體檢測(cè)如圖3所示。

具體實(shí)現(xiàn)過程如下:1)利用三角測(cè)量方法計(jì)算上一幀的像素點(diǎn)q投影到當(dāng)前幀像素點(diǎn)q0的深度[V]′,如式(5)所示。2)計(jì)算視差角α與重投影誤差ΔV,如式(6)、式(7)所示,并分別與其對(duì)應(yīng)的設(shè)定閾值β、γ進(jìn)行比較,若α>β且ΔV >γ,則將像素點(diǎn)q0標(biāo)記為動(dòng)態(tài)像素點(diǎn);若不滿足α>β、ΔV >γ的條件,則視其為靜態(tài)像素點(diǎn),從而完成運(yùn)動(dòng)目標(biāo)的最終檢測(cè)。3)通過ORB特征點(diǎn)的提取,將其運(yùn)動(dòng)目標(biāo)區(qū)域內(nèi)的動(dòng)態(tài)特征點(diǎn)濾除,保留周圍的靜態(tài)特征點(diǎn),并采用隨機(jī)采樣一致性算法進(jìn)行圖像特征匹配[19-20]。4)完成本文算法的跟蹤與定位,降低動(dòng)態(tài)物體對(duì)移動(dòng)機(jī)器人定位的影響。

其中:為[q0]的反對(duì)稱矩陣;α為向量[qQ]與向量[q0Q0]投影之間的視差角;[?]為向量積運(yùn)算符號(hào);ΔV為重投影誤差;V0為當(dāng)前幀像素點(diǎn)[q]0的深度。

3 TUM數(shù)據(jù)集仿真試驗(yàn)

3.1 試驗(yàn)條件

試驗(yàn)選用自帶標(biāo)準(zhǔn)軌跡與比較工具EVO的TUM數(shù)據(jù)集,該數(shù)據(jù)集包括高動(dòng)態(tài)和低動(dòng)態(tài)2類場(chǎng)景,被廣泛用于室內(nèi)動(dòng)態(tài)環(huán)境下的視覺SLAM算法定位準(zhǔn)確性和魯棒性測(cè)試。由于移動(dòng)機(jī)器人在室內(nèi)運(yùn)動(dòng)中會(huì)遇到較多人,所以本文選擇高動(dòng)態(tài)場(chǎng)景fr3_w_xyz序列,該數(shù)據(jù)集序列中包含彩色圖、深度圖及相機(jī)運(yùn)動(dòng)過程中的真實(shí)軌跡groundtruth;并且在fr3_w_xyz序列中,相機(jī)分別沿著x、y、z軸運(yùn)動(dòng),拍攝2個(gè)人圍繞桌子大幅度運(yùn)動(dòng)。本文試驗(yàn)平臺(tái)采用Intel core i5-9600KF 3.7 GHz處理器、8 G運(yùn)行內(nèi)存、NVIDIA GeForce GTX 1650顯卡的PC,其操作系統(tǒng)為Ubuntu18.04。

3.2 仿真結(jié)果與分析

為驗(yàn)證本文算法能否檢測(cè)運(yùn)動(dòng)目標(biāo),并將其動(dòng)態(tài)特征點(diǎn)濾除,本文在TUM數(shù)據(jù)集fr3_w_xyz序列上進(jìn)行試驗(yàn),分別運(yùn)行ORB-SLAM2與本文算法,通過終端窗口查看其運(yùn)行效果,如圖4所示。對(duì)比圖4(a)與圖4(b)可知,ORB-SLAM2未能檢測(cè)到運(yùn)動(dòng)中的人,且不能剔除其區(qū)域內(nèi)的動(dòng)態(tài)特征點(diǎn);本文算法可以很好地檢測(cè)到運(yùn)動(dòng)物體,并將其區(qū)域內(nèi)的動(dòng)態(tài)特征點(diǎn)濾除掉,從而降低動(dòng)態(tài)物體對(duì)定位的影響。

為進(jìn)一步驗(yàn)證本文算法的有效性與魯棒性,將本文算法、ORB-SLAM2與目前較流行的DynaSLAM[21]這3種算法分別在fr3_w_xyz序列上運(yùn)行,生成3種算法對(duì)應(yīng)的KeyFrame.txt文件,并利用測(cè)評(píng)工具EVO的軌跡生成功能,使其與數(shù)據(jù)集真實(shí)值文件groundtruth.txt進(jìn)行三維軌跡對(duì)比(如圖5所示)與二維軌跡對(duì)比(如圖6所示)。觀察圖5、圖6可知,相比ORB-SLAM2,本文算法的估計(jì)值更加接近虛線真實(shí)值,并與DynaSLAM的估計(jì)值相接近,甚至在某段時(shí)間表現(xiàn)更優(yōu)。

與此同時(shí),分別運(yùn)行3種算法進(jìn)行15次初始化時(shí)間測(cè)試,并計(jì)算其平均值,結(jié)果如圖7所示。試驗(yàn)結(jié)果表明:相較于ORB-SLAM,本文算法的初始化時(shí)間均值相差7.36 s;相比DynaSLAM,時(shí)間略短,具有較好的實(shí)時(shí)性。

本文利用EVO的絕對(duì)位姿誤差(absolute pose error,APE)功能和相對(duì)位姿誤差(relative pose error,RPE)功能評(píng)估各個(gè)算法的定位精度。其中,APE是估計(jì)值與真實(shí)值之間的差值,可用于評(píng)估算法定位精度和位姿的全局一致性;RPE包含相對(duì)平移誤差和相對(duì)旋轉(zhuǎn)誤差,反映了兩幀間估計(jì)位姿變換矩陣與真實(shí)位姿變化矩陣之間的差值[14]。

經(jīng)過計(jì)算機(jī)處理,最后獲得3種算法的絕對(duì)位姿誤差,如表1所示,表中均采用最大誤差(max)、平均誤差(mean)、誤差中值(median)、最小誤差(min)、均方根誤差(RMSE)、方差(sse)與標(biāo)準(zhǔn)差(std)作為算法的評(píng)價(jià)指標(biāo),誤差值越小,則算法的估計(jì)值越接近真實(shí)位姿值,算法魯棒性越好。

觀察表1可知,本文算法的絕對(duì)位姿誤差評(píng)價(jià)指標(biāo)相較于其他2種算法均有所降低。其中,相較ORB-SLAM2的絕對(duì)位姿平均誤差降低78.70%,均方根誤差降低78.30%,標(biāo)準(zhǔn)差降低76.87%;與DynaSLAM相比,本文算法的絕對(duì)位姿平均誤差降低17.13%,均方根誤差降低20.85%,標(biāo)準(zhǔn)差降低30.07%。由此可知,相比其他2種算法,本文算法在高動(dòng)態(tài)場(chǎng)景下的表現(xiàn)更好。

為了更加直觀地查看本文算法的定位效果,將Our-SLAM、ORB-SLAM2與DynaSLAM算法的絕對(duì)位姿和相對(duì)位姿及其位姿誤差分別進(jìn)行比較,結(jié)果如圖8—圖11所示。

通過觀察圖8、圖9的位姿圖可知:Our-SLAM估計(jì)的位姿與真實(shí)位姿(虛線所示)偏差較小,可與DynaSLAM估計(jì)的位姿效果相媲美,而ORB-SLAM2估計(jì)的位姿與真實(shí)位姿偏差較大。由圖10、圖11的位姿誤差圖可知:相較另外2種算法,本文算法在高動(dòng)態(tài)場(chǎng)景中的單幀誤差波動(dòng)較少,且絕對(duì)位姿誤差與相對(duì)位姿誤差范圍較小。

綜上所述,本文算法相較ORB-SLAM2,可以將室內(nèi)動(dòng)態(tài)場(chǎng)景下的動(dòng)態(tài)特征點(diǎn)濾除掉,降低動(dòng)態(tài)物體對(duì)定位的影響,從而使本文算法的估計(jì)位姿更接近真實(shí)位姿;并且相比ORB-SLAM2與DynaSLAM,本文算法的定位精度也有明顯提升。通過結(jié)果對(duì)比,最終驗(yàn)證了本文算法能夠較好地解決室內(nèi)動(dòng)態(tài)場(chǎng)景下的定位問題,且在室內(nèi)動(dòng)態(tài)場(chǎng)景下具有良好的定位精度與魯棒性,可為室內(nèi)移動(dòng)機(jī)器人的自主定位提供參考。

4 結(jié)論

本文提出了一種在室內(nèi)動(dòng)態(tài)場(chǎng)景下基于RGB-D相機(jī)的定位算法,該算法基于ORB-SLAM2算法架構(gòu),在其跟蹤線程中引用Mask R-CNN神經(jīng)網(wǎng)絡(luò)與多視圖幾何技術(shù),實(shí)現(xiàn)了動(dòng)態(tài)場(chǎng)景下的運(yùn)動(dòng)目標(biāo)檢測(cè),剔除了運(yùn)動(dòng)目標(biāo)的動(dòng)態(tài)特征點(diǎn),從而降低了動(dòng)態(tài)物體對(duì)移動(dòng)機(jī)器人定位的影響;最終利用靜態(tài)物體的特征點(diǎn),完成了相機(jī)位姿的跟蹤。本文使用公開的TUM數(shù)據(jù)集的高動(dòng)態(tài)場(chǎng)景fr3_w_xyz序列,對(duì)比了本文算法與ORB-SLAM2算法的運(yùn)行效果,并對(duì)比了Our-SLAM、ORB-SLAM2和DynaSLAM 這3種算法的三維軌跡和二維軌跡及其位姿誤差。試驗(yàn)結(jié)果表明:本文算法在室內(nèi)高動(dòng)態(tài)場(chǎng)景下可實(shí)現(xiàn)動(dòng)態(tài)特征點(diǎn)濾除,并比另外2種主流算法的估計(jì)位姿更接近真實(shí)位姿,絕對(duì)位姿誤差與相對(duì)位姿誤差范圍較小。其中,相較ORB-SLAM2,本文算法的絕對(duì)位姿平均誤差降低了78.70%,均方根誤差降低了78.30%,標(biāo)準(zhǔn)差降低了76.87%;與DynaSLAM相比,本文算法的絕對(duì)位姿平均誤差降低了17.13%,均方根誤差降低了20.85%,標(biāo)準(zhǔn)差降低了30.07%,從而驗(yàn)證了本文算法在室內(nèi)動(dòng)態(tài)場(chǎng)景下具有較好的位姿估計(jì)精度和魯棒性,可為室內(nèi)動(dòng)態(tài)場(chǎng)景下的移動(dòng)機(jī)器人自主定位提供參考。

目前該算法僅適用于室內(nèi)動(dòng)態(tài)場(chǎng)景下的移動(dòng)機(jī)器人定位,在室外場(chǎng)景下運(yùn)行效果較差,其定位精度較低。未來(lái)可考慮引用激光雷達(dá)、慣性測(cè)量單元等傳感器,實(shí)現(xiàn)多傳感器融合,使其優(yōu)勢(shì)互補(bǔ),以適應(yīng)復(fù)雜多樣的情況,從而更好地完成機(jī)器人的自主導(dǎo)航。

參考文獻(xiàn)

[1] 田野,陳宏巍,王法勝,等. 室內(nèi)移動(dòng)機(jī)器人的SLAM算法綜述[J]. 計(jì)算機(jī)科學(xué),2021,48(9):223-234.

[2] 黃山,黃洪鐘,曾奇,等. 一種室內(nèi)高動(dòng)態(tài)環(huán)境的機(jī)器人定位方法[J]. 電子科技大學(xué)學(xué)報(bào),2021,50(3):382-390.

[3] KUUTTI S,F(xiàn)ALLAH S,KATSAROS K,et al. A survey of the state-of-the-art localization techniques and their potentials for autonomous vehicle applications[J]. IEEE Internet of Things Journal,2018,5(2):829-846.

[4] DELLAERT F,F(xiàn)OX D,BURGARD W,et al. Monte Carlo localization for mobile robots[C]//Proceedings 1999 IEEE International Conference on Robotics and Automation,IEEE,1999,2:1322-1328.

[5] 葉強(qiáng)強(qiáng),鄭明魁,邱鑫. 基于ROS的室內(nèi)自主導(dǎo)航移動(dòng)機(jī)器人系統(tǒng)實(shí)現(xiàn)[J]. 傳感器與微系統(tǒng),2022,41(2):90-93.

[6] 季宇寒,李寒,張漫,等. 基于激光雷達(dá)的巡檢機(jī)器人導(dǎo)航系統(tǒng)研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2018,49(2):14-21.

[7] 李晨陽(yáng),彭程,張振乾,等. 融合里程計(jì)信息的農(nóng)業(yè)機(jī)器人定位與地圖構(gòu)建方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(21):16-23.

[8] JIN Q Y,LIU Y G,MAN Y C,et al. Visual SLAM with RGB-D cameras[C]//2019 Chinese Control Conference(CCC),IEEE,2019:4072-4077.

[9] ENGEL J,SCH?EPS T,CREMERS D. LSD-SLAM:large-scale direct monocular SLAM[C]//13th European Conference on Computer Vision,2014:834-849.

[10] WANG R,SCHWOERER M,CREMERS D. Stereo DSO:large-scale direct sparse visual odometry with stereo cameras[C]//Proceedings of the IEEE International Conference on Computer Vision,2017:3903-3911.

[11] KLEIN G,MURRAY D. Parallel tracking and mapping for small AR workspaces[C]//2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality,IEEE,2007:225-234.

[12] MUR-ARTAL R,TARD?S J D. ORB-SLAM2:an open-source SLAM system for monocular,stereo,and RGB-D cameras[J]. IEEE Transactions on Robotics,2017,33(5):1255-1262.

[13] 高翔,張濤,劉毅,等. 視覺SLAM十四講:從理論到實(shí)踐[M]. 北京:電子工業(yè)出版社,2017.

[14] 張恒,徐長(zhǎng)春,劉艷麗,等. 基于語(yǔ)義分割動(dòng)態(tài)特征點(diǎn)剔除的SLAM算法[J]. 計(jì)算機(jī)應(yīng)用研究,2022,39(5):1472-1477.

[15] 夏田,張大為,代斌斌. 全向移動(dòng)的送餐機(jī)器人控制系統(tǒng)研究與仿真[J]. 制造業(yè)自動(dòng)化,2022,44(5):17-20.

[16] 高興波,史旭華,葛群峰,等. 面向動(dòng)態(tài)物體場(chǎng)景的視覺SLAM綜述[J]. 機(jī)器人,2021,43(6):733-750.

[17] ZHANG L,ZHANG Y J. Improved feature point extraction method of ORB-SLAM2 dense map[J]. Assembly Automation,2022,42(4):552-566.

[18] ZHANG Z Q,ZHANG J T,TANG Q R. Mask R-CNN based semantic RGB-D SLAM for dynamic scenes[C]//2019 IEEE/ASME International Conference on Advanced Intelligent Mechatronics,IEEE,2019:1151-1156.

[19] 譚光興,張倫. 基于改進(jìn)SIFT的圖像特征匹配算法[J]. 廣西科技大學(xué)學(xué)報(bào),2022,33(2):41-47.

[20] 蘇宇,劉海燕,李國(guó)勇. 一種結(jié)合隨機(jī)采樣一致性與主成分分析的點(diǎn)云配準(zhǔn)方法[J]. 廣西科技大學(xué)學(xué)報(bào),2022,33(4):70-77.

[21] BESCOS B,F(xiàn)?CIL J M,CIVERA J,et al. DynaSLAM:tracking,mapping,and inpainting in dynamic scenes[J]. IEEE Robotics and Automation Letters,2018,3(4):4076-4083.

Research on mobile robot positioning algorithm based on RGB-D camera in dynamic scene

CONG Peichao, CUI Liying, WAN Xianquan, LIU Junjie, XIAO Yixuan, LI Jiaxing

(School of Mechanical and Automotive Engineering, Guangxi University of Science and Technology, Liuzhou 545616, China)

Abstract: To solve the problem of low positioning accuracy of mobile robot in the process of visual navigation in indoor dynamic scene, a new visual positioning algorithm under dynamic scene is proposed. The algorithm is based on the ORB-SLAM2 algorithm framework. Firstly, the image data is obtained by the RGB-D camera, and then the Mask R-CNN neural network and multi-view geometry technology are used for data processing to realize the moving target detection. Secondly, the dynamic feature points in the moving object area are filtered out and the static feature points are retained to complete the pose tracking of the camera, so as to reduce the effect of the dynamic object on the robot positioning. Finally, the fr3_w_xyz sequence under TUM data set is used to complete the test verification. The test results show that the trajectory of this our-SLAM algorithm is better than that of ORB-SLAM2 and DynaSLAM algorithms under high dynamic scenarios, and the mean error of absolute pose is reduced by 78.70% and 17.13%, respectively. The standard deviation decreases by 76.87% and 30.07%, respectively. It is verified that this algorithm can achieve accurate positioning in indoor dynamic scenes, and has good robustness and accuracy, which can provide a theoretical basis for mobile robots indoor autonomous navigation.

Key words: mobile robot; dynamic scenario; Mask R-CNN; multi-view geometry; precise positioning

(責(zé)任編輯:黎 婭)

收稿日期:2022-12-05

基金項(xiàng)目:中央引導(dǎo)地方科技發(fā)展專項(xiàng)資金項(xiàng)目(桂科ZY19183003);廣西重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(桂科AB20058001)資助

第一作者:叢佩超,博士,副教授,研究方向:移動(dòng)機(jī)器人自主定位與導(dǎo)航,E-mail:cpclzx@163.com

猜你喜歡
精準(zhǔn)定位移動(dòng)機(jī)器人
移動(dòng)機(jī)器人自主動(dòng)態(tài)避障方法
基于Twincat的移動(dòng)機(jī)器人制孔系統(tǒng)
基于用電信息數(shù)據(jù)挖掘的智能反竊電研究與應(yīng)用
淺談廣播媒體活動(dòng)的創(chuàng)意與策劃
郫縣:“精準(zhǔn)定位”協(xié)作模式 整合派駐機(jī)構(gòu)審查力量
廉政瞭望(2016年7期)2016-07-28 12:32:15
高校檔案管理與高校教學(xué)改革的功能互動(dòng)
極坐標(biāo)系下移動(dòng)機(jī)器人的點(diǎn)鎮(zhèn)定
基于引導(dǎo)角的非完整移動(dòng)機(jī)器人軌跡跟蹤控制
靖边县| 当雄县| 将乐县| 竹山县| 东安县| 唐河县| 吉水县| 五家渠市| 临西县| 内黄县| 囊谦县| 漳州市| 阿坝| 红原县| 河间市| 阳曲县| 门源| 宁河县| 建宁县| 郯城县| 通山县| 鲁甸县| 金阳县| 广元市| 柞水县| 阳西县| 湘潭县| 上犹县| 乌兰察布市| 宁河县| 扶风县| 新蔡县| 康乐县| 云安县| 泽普县| 定襄县| 海口市| 合江县| 景洪市| 洪雅县| 汨罗市|