国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于VSLAM的自主移動機器人三維同時定位與地圖構(gòu)建

2017-12-14 05:34:30林輝燦王國勝
計算機應(yīng)用 2017年10期
關(guān)鍵詞:八叉樹移動機器人位姿

林輝燦,呂 強,王國勝,張 洋,梁 冰

(1.裝甲兵工程學(xué)院 控制工程系,北京 100072; 2.江西理工大學(xué) 信息工程學(xué)院,江西 贛州 341000) (*通信作者電子郵箱rokyou@live.cn)

基于VSLAM的自主移動機器人三維同時定位與地圖構(gòu)建

林輝燦1,呂 強1*,王國勝1,張 洋1,梁 冰2

(1.裝甲兵工程學(xué)院 控制工程系,北京 100072; 2.江西理工大學(xué) 信息工程學(xué)院,江西 贛州 341000) (*通信作者電子郵箱rokyou@live.cn)

移動機器人在探索未知環(huán)境且沒有外部參考系統(tǒng)的情況下,面臨著同時定位和地圖構(gòu)建(SLAM)問題。針對基于特征的視覺SLAM(VSLAM)算法構(gòu)建的稀疏地圖不利于機器人應(yīng)用的問題,提出一種基于八叉樹結(jié)構(gòu)的高效、緊湊的地圖構(gòu)建算法。首先,根據(jù)關(guān)鍵幀的位姿和深度數(shù)據(jù),構(gòu)建圖像對應(yīng)場景的點云地圖;然后利用八叉樹地圖技術(shù)進行處理,構(gòu)建出了適合于機器人應(yīng)用的地圖。將所提算法同RGB-D SLAM(RGB-Depth SLAM)算法、ElasticFusion算法和ORB-SLAM(Oriented FAST and Rotated BRIEF SLAM)算法通過權(quán)威數(shù)據(jù)集進行了對比實驗,實驗結(jié)果表明,所提算法具有較高的有效性、精度和魯棒性。最后,搭建了自主移動機器人,將改進的VSLAM系統(tǒng)應(yīng)用到移動機器人中,能夠?qū)崟r地完成自主避障和三維地圖構(gòu)建,解決稀疏地圖無法用于避障和導(dǎo)航的問題。

計算機視覺;同時定位與地圖構(gòu)建;自主移動機器人;八叉樹地圖;避障

0 引言

在現(xiàn)實環(huán)境中自主移動的機器人必須具備在大尺度、非結(jié)構(gòu)化、動態(tài)和未知空間中進行導(dǎo)航的能力。為此,移動機器人必須能夠構(gòu)建環(huán)境地圖并實現(xiàn)自定位,即同時定位和地圖構(gòu)建(Simultaneous Localization And Mapping, SLAM)。SLAM在過去的近30年中得到了廣泛的關(guān)注與研究,學(xué)者們提出了大量的SLAM方法,包括各種各樣的傳感器、優(yōu)化技術(shù)和地圖描述方式。激光雷達能夠以高頻率提供精確的環(huán)境幾何測量,存在的主要不足是價格高、耗能大和體積重量大,而攝像機能夠克服上述不足,且能夠提供更多的信息。

視覺SLAM(Visual SLAM, VSLAM)方法使用攝像機作為傳感器估計機器人的位姿和環(huán)境地圖[1]。Klien等[2]提出在單目VSLAM系統(tǒng)中將跟蹤和地圖構(gòu)建分為兩個并行線程,實現(xiàn)了基于捆集調(diào)整(Bundle Adjustment, BA)的并行跟蹤與地圖構(gòu)建(Parallel Tracking And Mapping, PTAM)系統(tǒng)。RGB-D(RGB-Depth)攝像機能提供彩色圖像和深度圖像,相對于單目攝像機能夠獲得絕對尺度,避免了深度求取和尺度模糊等問題;相對于雙目攝像機,由于深度信息能直接獲取,所以計算量較小,降低了實現(xiàn)難度。

Kerl等[3]提出優(yōu)化光測一致性誤差項以配準連續(xù)RGB-D幀,構(gòu)建RGB-D里程計,隨后又提出一種結(jié)合光測一致性誤差和基于稠密深度數(shù)據(jù)的誤差項的魯棒方法[4],注重位姿估計而忽略地圖構(gòu)建。Henry等[5]提出使用RGB-D攝像機的SLAM系統(tǒng),結(jié)合迭代最近點(Iterative Closest Point, ICP)算法和視覺特征計算攝像機位姿并優(yōu)化,構(gòu)建了稠密的點云地圖但不具備實時性。Endres等[6]提出的RGB-D SLAM(RGB-Depth SLAM)算法與Kerl算法[3]一樣在CPU上實時運行,采用相同的硬件進行評估實驗,顯示出更好的魯棒性和精度。這些算法中使用隨機采樣一致性(RANdom SAmple Consensus,RANSAC)估計關(guān)聯(lián)視覺特征點之間的閉環(huán),并使用非線性方法優(yōu)化位姿圖。最后,生成環(huán)境的體素三維地圖,能夠應(yīng)用于機器人的避障、路徑規(guī)劃和導(dǎo)航。由于算法使用ICP進行位姿圖優(yōu)化,過度依賴于良好的初始化估計且缺乏對整體匹配質(zhì)量的衡量。

由于視覺特征傾向于在實物的邊緣,導(dǎo)致深度測量數(shù)據(jù)易受噪聲干擾,為了減小估計誤差,文獻[7]通過可靠的深度數(shù)值選擇和提取特征,提出基于平面特征的RGB-D SLAM算法。采用平面點特征有利于提高傳統(tǒng)的ICP的精度和魯棒性,同時保持合理的計算量以保證實時性。ElasticFusion[8]通過融合ICP和稠密的光度重投影誤差實現(xiàn)視覺里程計,并構(gòu)建了點云地圖,具有較高的精度但是需要GPU加速;同文獻[5]和文獻[7]一樣,由于構(gòu)建的是點云地圖,存在資源消耗嚴重和不利于維護的問題,不適合機器人應(yīng)用。Mur-Artal等[9]提出的ORB-SLAM(Oriented FAST and Rotated BRIEF SLAM)根據(jù)圖像序列實時地估計位姿和地圖,精度和魯棒性均優(yōu)于上述方法,支持主流的單目、雙目和RGB-D攝像機。ORB-SLAM能夠在小尺度和大尺度、室內(nèi)和室外環(huán)境實時地完成位姿估計的同時構(gòu)建稀疏特征點地圖,實現(xiàn)寬基線的閉環(huán)檢測和重定位,并且能夠?qū)崿F(xiàn)全自動的初始化。該系統(tǒng)是迄今為止基于稀疏特征的VSLAM的最好系統(tǒng),其精度和魯棒性是很難超越的。相對于RGB-D SLAM,該方法存在的不足是構(gòu)建的稀疏特征點地圖應(yīng)用領(lǐng)域有限,側(cè)重于定位功能,不能夠用于機器人的避障、路徑規(guī)劃和自主導(dǎo)航。文獻[10]基于ORB-SLAM構(gòu)建點云地圖,通過手柄遙控Turtlebot運動并構(gòu)建地圖。

本文基于ORB-SLAM,使用RGB-D傳感器提供的彩色圖像與深度圖像將原系統(tǒng)構(gòu)建的稀疏地圖擴展成稠密的點云地圖,在此基礎(chǔ)上提出使用八叉樹結(jié)構(gòu)[11]構(gòu)建可供機器人應(yīng)用的八叉樹地圖。最后,將本文算法成功應(yīng)用于自主移動機器人,實驗結(jié)果表明本文算法能夠在充滿挑戰(zhàn)的條件下、長距離軌跡的情況下,精確地跟蹤機器人的位姿并構(gòu)建環(huán)境3D地圖,并實現(xiàn)自主避障。

1 八叉樹地圖構(gòu)建

通常將VSLAM分為前端、后端和最終地圖描述三個模塊:前端解決傳感器數(shù)據(jù)關(guān)聯(lián)和位姿估計問題,后端解決局部圖優(yōu)化和閉環(huán)檢測及全局優(yōu)化問題。本文根據(jù)ORB-SLAM算法優(yōu)化后的數(shù)據(jù)構(gòu)建八叉樹地圖,并成功應(yīng)用于移動機器人的地圖構(gòu)建與避障,也能夠應(yīng)用于機器人路徑規(guī)劃、導(dǎo)航和交互式操作。

ORB-SLAM中的關(guān)鍵幀存儲與之對應(yīng)的攝像機位姿、彩色圖像與深度圖像,根據(jù)當(dāng)前關(guān)鍵幀中的數(shù)據(jù)構(gòu)建點云地圖,進而創(chuàng)建八叉樹地圖,用于機器人的自主避障。

(1)

(2)

其中:R和t分別表示攝像機的旋轉(zhuǎn)矩陣和位移矢量。根據(jù)式(2)變換得到世界坐標系下的坐標,則獲得對應(yīng)關(guān)鍵幀的點云地圖。點云地圖包含關(guān)鍵幀的所有像素構(gòu)成的大量的由三維位置信息構(gòu)成的點,隨著關(guān)鍵幀規(guī)模的增大,維護顯得更加困難。同時,對于機器人應(yīng)用而言,如此大規(guī)模的空間點,冗余量大并且不實用。

八叉樹地圖能夠描述任意形式的3D環(huán)境,具有更新方式靈活、無需先驗知識和地圖形式緊湊的優(yōu)點。相對于點云地圖,以八叉樹結(jié)構(gòu)分層描述方式存儲地圖,能夠高效地壓縮和更新地圖,并且地圖分辨率可調(diào),可解決點云地圖不緊湊和不利于避障和導(dǎo)航的問題。

八叉樹結(jié)構(gòu)中的葉子節(jié)點,采用概率的形式表示該空間的占據(jù)、空曠或未知狀態(tài),即3D空間中該點是否存在障礙或可通行。在構(gòu)建地圖的過程中,對于葉子節(jié)點n,在1,2,…,k時刻的觀測數(shù)據(jù)分別為z1,z2,…,zk,由貝葉斯理論可知,該節(jié)點記錄的信息為:

Q(n|z1:k)=

其中Q(n)一般情況下假設(shè)為0.5,此處引入logit變換:

logit(q)=ln(q/(1-q))

對式(3)兩邊取logit變換,代入Q(n)=0.5,化簡后得:

L(n|z1:k)=L(n|z1:k-1)+L(n|zk)

(4)

2 自主移動機器人平臺

為將本文算法構(gòu)建的八叉樹地圖應(yīng)用到地面移動機器人的自主避障中,搭建自主移動機器人平臺,其中車身架構(gòu)為Axial AX10,攝像機為Kinect 2.0,控制器為Pixhawk[12-13],數(shù)據(jù)處理單元為微型計算機,硬件條件是4核i7處理器,16 GB內(nèi)存,256 GB固態(tài)硬盤,系統(tǒng)的結(jié)構(gòu)框架和搭建的移動機器人平臺實物見圖1。

微型計算機通過USB3.0接口讀取Kinect 2.0的彩色圖像和深度圖像,并以ROS(Robot Operating System)[14]主題的形式發(fā)布,本文算法通過訂閱該主題的數(shù)據(jù)完成位姿估計與跟蹤、特征地圖構(gòu)建與優(yōu)化、閉環(huán)檢測和八叉樹地圖構(gòu)建。將攝像機的位姿估計作為移動機器人的狀態(tài)估計,將創(chuàng)建的八叉樹地圖用于移動機器人自主避障。其中,運動控制指令采用ROS主題的形式發(fā)布(geometry_msgs::Twist),Pixhawk控制器訂閱該主題數(shù)據(jù),并輸出信號到電子調(diào)速器以控制電機,實現(xiàn)移動機器人平臺的運動控制。

圖1 自主移動機器人平臺

3 自主避障策略

有關(guān)自主移動機器人平臺根據(jù)八叉樹地圖進行路徑規(guī)劃與導(dǎo)航,不屬于本文研究的范疇。為驗證本文算法能夠成功地應(yīng)用于移動機器人在未知的、復(fù)雜的動態(tài)環(huán)境中的自主導(dǎo)航能力,運動控制部分主要采用漫游式的自主避障策略。根據(jù)已構(gòu)建的八叉樹地圖,檢測移動機器人前方障礙物的距離。當(dāng)機器人前方?jīng)]有障礙物或障礙物距離大于安全距離時,給定直行前進的命令。當(dāng)前方障礙物的距離小于等于安全距離時,則給定左轉(zhuǎn)前進的命令。若轉(zhuǎn)向后障礙物仍小于安全距離,則給定右轉(zhuǎn)后退的命令,直到前方?jīng)]有障礙,再給定直行前進的命令繼續(xù)探索環(huán)境。避障策略代碼如下。

輸入 障礙物最近距離(closestRange)。

輸出 運動控制指令。

1)

如果closestRangegt;安全距離且正在前進

2)

throttle← 0.4

//throttle為推力,前進

3)

yaw← 0

//yaw為轉(zhuǎn)向,直行

4)

如果closestRange≤ 安全距離且直行前進

5)

throttle← 0.4

// 前進

6)

yaw← -0.6

// 左轉(zhuǎn)

7)

如果closestRange≤安全距離且左轉(zhuǎn)前進

8)

throttle← -0.4

// 后退

9)

yaw← 0.6

// 右轉(zhuǎn)

10)

如果closestRangegt;安全距離且右轉(zhuǎn)后退

11)

throttle← 0.4

// 前進

12)

yaw← 0

//直行

4 實驗評估

為驗證本文算法的魯棒性、精度和實時性,采用TUM(Technische Universit?t München)的RGB-D數(shù)據(jù)集[15]進行實驗評估,并將本文算法應(yīng)用于移動機器人的三維同時定位和三維地圖構(gòu)建。

4.1 RGB-D 標準數(shù)據(jù)集

(5)

本文選擇的誤差度量雖然不能直接衡量地圖的質(zhì)量,但是SLAM系統(tǒng)同時完成位姿(軌跡)估計和地圖構(gòu)建,且二者相輔相成,因此軌跡偏差程度與地圖偏差程度直接相關(guān)。

4.2 精度與魯棒性

對比本文算法同RGB-D SLAM算法[6]、ElasticFusion算法[8]和ORB-SLAM算法[9]的精度和魯棒性,如圖2所示。由圖2可知,運行文獻[6]中評估性能所采用的4個數(shù)據(jù)集,本文算法的RMSE約為文獻[6]的25%,精度提高了4倍。相對文獻[6]采用ICP進行位姿圖優(yōu)化,本文基于ORB-SLAM采用BA同時優(yōu)化攝像機的位姿和地圖,有利于提升算法的精度和魯棒性。文獻[8]在fr2_large_no_loop數(shù)據(jù)集失敗,本文算法的精度與之相當(dāng),但是魯棒性更好。本文與文獻[9]的精度和魯棒性相當(dāng)。

圖2 不同算法的精度對比

圖3 不同算法的運行時間對比

4.3 實時性

本文采用數(shù)據(jù)集進行驗證的硬件條件為4核i5處理器,4 GB內(nèi)存,文獻[6]采用i7處理器和GTX570顯卡。將實驗的耗時情況繪制如圖3,可見本文算法在處理器性能較低的情況下,平均耗時降低為文獻[6]的56%,這主要得益于加入了關(guān)鍵幀的剔除和優(yōu)化功能,尤其在環(huán)境規(guī)模大、長時間構(gòu)圖的情況下,優(yōu)勢更加明顯。文獻[8]需要GPU加速,因此不進行對比。本文基于文獻[9]擴展了地圖構(gòu)建方法,耗時約為其2倍,主要是本文構(gòu)建點云地圖和八叉樹地圖時耗時較大。

4.4 3D地圖構(gòu)建

ORB-SLAM側(cè)重于提升攝像機位姿估計的精度、實時性和魯棒性,所構(gòu)建的稀疏地圖主要應(yīng)用于提升位姿估計精度以及回環(huán)檢測以保證構(gòu)建地圖的全局一致性,更適合于虛擬現(xiàn)實(Virtual Reality,VR)而不適合于機器人應(yīng)用,如圖4(a)為運行“fr2_large with loop”數(shù)據(jù)集獲得的稀疏地圖。本文基于ORB-SLAM擴展使用RGB-D傳感器構(gòu)建稠密的點云地圖和適合機器人應(yīng)用的八叉樹地圖,圖4(b)、(c)為本文算法運行fr2_large_with_loop和fr2_pioneer_slam數(shù)據(jù)集創(chuàng)建稠密點云地圖和八叉樹地圖。此外,圖4(b)、(c)兩個點云地圖和八叉樹地圖占用的存儲空間分別為96.5 MB和220 KB,顯然后者的形式更緊湊、易于維護。

圖4 稀疏地圖、點云地圖和八叉樹地圖

此外,將本文算法獲得的攝像機軌跡估計與由數(shù)據(jù)集提供的高精度運動捕獲系統(tǒng)測量的攝像機軌跡真實值進行對比,對比結(jié)果表明本文算法有效且精度高,如圖5所示(RMSE分別為0.10 m和0.15 m)。

圖5 絕對軌跡誤差

4.5 移動機器人應(yīng)用

最終,在實驗室環(huán)境且地圖未知的情況下,基于第2章搭建的移動機器人平臺,測試本文算法。測試結(jié)果表明,本文算法能夠?qū)崟r地實現(xiàn)自主避障和八叉樹地圖重構(gòu),所有數(shù)據(jù)采集與處理均依靠在板的傳感器和計算機完成,圖6為構(gòu)建的3D地圖。在實際運行的過程中,隨著地圖規(guī)模的增大,算法的實時性降低,原因是為提高點云地圖和八叉樹地圖的可視化效果,地圖創(chuàng)建的精度為0.02 m,遠高于移動機器人導(dǎo)航所需。

圖6 移動機器人構(gòu)建三維地圖

5 結(jié)語

本文基于ORB-SLAM系統(tǒng),使用RGB-D傳感器提出了一種新的VSLAM系統(tǒng),利用關(guān)鍵幀的數(shù)據(jù)改進了原系統(tǒng)的地圖構(gòu)建方法,由不利于機器人應(yīng)用的稀疏地圖擴展為適合機器人避障與導(dǎo)航,且易于維護的八叉樹地圖。本文算法在精度和速度上要優(yōu)于RGB-D SLAM方法[6],相對于ElasticFusion[8]精度相當(dāng)而魯棒性更好,相對于ORB-SLAM方法擴展其地圖構(gòu)建技術(shù),實時地構(gòu)建八叉樹地圖,并成功應(yīng)用于所搭建的自主移動機器人平臺,實現(xiàn)未知復(fù)雜環(huán)境下的自主避障與探索,但是耗時增加。下一步將對圖優(yōu)化算法進行改進,進一步提升實時性,并研究將八叉樹地圖應(yīng)用于路徑規(guī)劃和自主導(dǎo)航。

References)

[1] FUENTES-PACHECO J, RUIZ-ASCENCIO J, RENDON-MANCHA J M. Visual simultaneous localization and mapping: a survey[J]. Artificial Intelligence Review, 2015, 43(1): 55-81.

[2] KLEIN G, MURRAY D. Parallel tracking and mapping for small AR workspaces[C]// ISMAR 2007: Proceedings of the 6th IEEE and ACM International Symposium on Mixed and Augmented Reality. Piscataway, NJ: IEEE, 2007: 225-234.

[3] KERL C, STURM J, CREMERS D. Robust odometry estimation for RGB-D cameras[C]// Proceedings of the 2013 IEEE International Conference on Robotics and Automation. Piscataway: IEEE Press, 2013: 3748-3754.

[4] KERL C, STURM J, CREMERS D. Dense visual SLAM for RGB-D cameras[C]// Proceedings of the 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, NJ: IEEE, 2013: 2100-2106.

[5] HENRY P, KRAININ M, HERBST E, et al. RGB-D mapping: using depth cameras for dense 3D modeling of indoor environments[C]// Proceedings of the 12th International Symposium on Experimental robotics. Berlin: Springer, 2014: 477-491.

[6] ENDRES F, HESS J, STURM J, et al. 3-D mapping with an RGB-D camera[J]. IEEE Transactions on Robotics, 2014, 30(1): 177-187.

[7] GAO X, ZHANG T. Robust RGB-D simultaneous localization and mapping using planar point features[J]. Robotics and Autonomous Systems, 2015, 72: 1-14.

[8] WHELAN T, SALAS-MORENO R F, GLOCKER B, et al. ElasticFusion: real-time dense SLAM and light source estimation[J]. The International Journal of Robotics Research, 2016, 35(14): 1697-1716.

[9] MUR-ARTAL R, MONTIEL J M M, TARDS J D. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE Transactions on Robotics, 2015, 31(5): 1147-1163.

[10] 侯榮波, 魏武, 黃婷, 等. 基于ORB-SLAM的室內(nèi)機器人定位和三維稠密地圖構(gòu)建[J]. 計算機應(yīng)用, 2017, 37(5): 1439-1444. (HOU R B, WEI W, HUANG T, et al. Indoor robot localization and 3D dense mapping based on ORB-SLAM[J]. Journal of Computer Applications, 2017, 37(5): 1439-1444.)

[11] HORNUNG A, WURM K M, BENNEWITZ M, et al. OctoMap: an efficient probabilistic 3D mapping framework based on octrees[J]. Autonomous Robots, 2013, 34(3): 189-206.

[12] MEIER L, TANSKANED P, HENG L, et al. PIXHAWK: a micro aerial vehicle design for autonomous flight using onboard computer vision[J]. Autonomous Robots, 2012, 33(1/2): 21-39.

[13] MEIER L, HONEGGER D, POLLEFEYS M. PX4: a node-based multithreaded open source robotics framework for deeply embedded platforms[C]// Proceedings of the 2015 IEEE International Conference on Robotics and Automation. Piscataway, NJ: IEEE, 2015: 6235-6240.

[14] MARTINEZ A, FERNANDEZ E. Learning ROS for Robotics Programming[M]. Birmingham: Packt Publishing, 2013: 45-48.

[15] STURM J, ENGELHARD N, ENDRES F, et al. A benchmark for the evaluation of RGB-D SLAM systems[C]// Proceedings of the 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway, NJ: IEEE, 2012: 573-580.

3DsimultaneouslocalizationandmappingformobilerobotbasedonVSLAM

LIN Huican1, LYU Qiang1*, WANG Guosheng1, ZHANG Yang1, LIANG Bing2

(1.DepartmentofControlEngineering,AcademyofArmoredForceEngineering,Beijing100072,China;2.SchoolofInformationEngineering,JiangxiUniversityofScienceandTechnology,GanzhouJiangxi341000,China)

The Simultaneous Localization And Mapping (SLAM) is an essential skill for mobile robots exploring in unknown environments without external referencing systems. As the sparse map constructed by feature-based Visual SLAM (VSLAM) algorithm is not suitable for robot application, an efficient and compact map construction algorithm based on octree structure was proposed. First, according to the pose and depth data of the keyframes, the point cloud map of the scene corresponding to the image was constructed, and then the map was processed by the octree map technique, and a map suitable for the application of the robot was constructed. Comparing the proposed algorithm with RGB-Depth SLAM (RGB-D SLAM) algorithm, ElasticFusion algorithm and Oriented FAST and Rotated BRIEF SLAM (ORB-SLAM) algorithm on publicly available benchmark datasets, the results show that the proposed algorithm has high validity, accuracy and robustness. Finally, the autonomous mobile robot was built, and the improved VSLAM system was applied to the mobile robot. It can complete autonomous obstacle avoidance and 3D map construction in real-time, and solve the problem that the sparse map cannot be used for obstacle avoidance and navigation.

computer vision; Simultaneous Localization And Mapping (SLAM); autonomous mobile robot; octree map; obstacle avoidance

2017- 04- 05;

2017- 06- 18。

國家自然科學(xué)基金資助項目(61663014)。

林輝燦(1989—),男,福建廈門人,博士研究生,主要研究方向:VSLAM、自主移動機器人; 呂強(1962—),男,北京人,教授,博士,主要研究方向:機器人控制、機器視覺; 王國勝(1975—),男,北京人,副教授,博士,主要研究方向:非線性控制、計算機視覺; 張洋(1987—),男,吉林四平人,博士研究生,主要研究方向:計算機視覺、SLAM; 梁冰(1975—),女,副教授,博士,主要研究方向:魯棒容錯控制。

1001- 9081(2017)10- 2884- 04

10.11772/j.issn.1001- 9081.2017.10.2884

TP242.6

A

This work is partially supported by the National Natural Science Foundation of China (61663014).

LINHuican, born in 1989, Ph. D. candidate. His research interests include visual simultaneous localization and mapping, autonomous mobile robot.

LYUQiang, born in 1962, Ph. D., professor. His research interests include robot control, machine vision.

WANGGuosheng, born in 1975, Ph. D., associate professor. His research interests include non-linear control, computer vision.

ZHANGYang, born in 1987, Ph. D. candidate. His research interests include computer vision, simultaneous localization and mapping.

LIANGBing, born in 1975, Ph. D., associate professor. Her research interests include robust tolerant control.

猜你喜歡
八叉樹移動機器人位姿
三維十字鏈表八叉樹的高效檢索實現(xiàn)
移動機器人自主動態(tài)避障方法
基于Twincat的移動機器人制孔系統(tǒng)
基于共面直線迭代加權(quán)最小二乘的相機位姿估計
基于CAD模型的單目六自由度位姿測量
小型四旋翼飛行器位姿建模及其仿真
基于幾何特征的快速位姿識別算法研究
極坐標系下移動機器人的點鎮(zhèn)定
基于引導(dǎo)角的非完整移動機器人軌跡跟蹤控制
散亂點云線性八叉樹結(jié)構(gòu)在GPU中的實現(xiàn)
鄯善县| 开原市| 嘉兴市| 和顺县| 噶尔县| 华安县| 广宗县| 廉江市| 昆山市| 浠水县| 孟村| 临沂市| 哈尔滨市| 阿拉善左旗| 景宁| 连云港市| 普定县| 鄯善县| 昌图县| 金溪县| 秦皇岛市| 诸城市| 哈巴河县| 西丰县| 盖州市| 翁牛特旗| 临颍县| 上蔡县| 突泉县| 旅游| 永平县| 东辽县| 册亨县| 漯河市| 丹寨县| 高淳县| 四川省| 皋兰县| 扎兰屯市| 集贤县| 梅河口市|