于雅楠 衛(wèi)紅 陳靜
在移動機(jī)器人研究領(lǐng)域,同步定位與地圖創(chuàng)建(Simultaneous localization and mapping,SLAM)技術(shù)使機(jī)器人從未知環(huán)境的未知地點(diǎn)出發(fā),在運(yùn)動過程中通過機(jī)器人搭載視覺、激光等傳感器重復(fù)觀測到的地圖特征定位自身位置和姿態(tài),再根據(jù)自身位置增量式地構(gòu)建地圖,從而達(dá)到同時定位和地圖構(gòu)建的目的,為機(jī)器人自主定位、避障、導(dǎo)航、路徑規(guī)劃等任務(wù)提供必要的支持.鑒于SLAM 技術(shù)是使機(jī)器人真正實(shí)現(xiàn)完全自動化的關(guān)鍵技術(shù)之一,其應(yīng)用已廣泛覆蓋無人駕駛汽車、無人機(jī)、人機(jī)交互、虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)等人工智能領(lǐng)域[1?3],并且結(jié)合深度學(xué)習(xí)的SLAM 也成為近兩年的研究熱點(diǎn)[4?6].在SLAM 應(yīng)用中,相比能夠測試環(huán)境范圍的激光傳感器而言,可直接獲取圖像信息的視覺傳感器(包括單目、雙目、深度相機(jī))在環(huán)境的可視化上具備更多優(yōu)勢,對移動機(jī)器人進(jìn)行場景識別以及感知理解具有更廣泛的應(yīng)用前景.
在視覺SLAM 中,視覺里程計作為SLAM 系統(tǒng)前端,其意義在于依靠圖像信息來增量式地估計相機(jī)運(yùn)動.視覺里程計根據(jù)其原理不同主要分為非直接方法與直接方法兩類[7],最本質(zhì)區(qū)別在于,傳統(tǒng)的非直接方法借助于人工提取的圖像特征信息,通過優(yōu)化特征的重投影誤差來計算相機(jī)的姿態(tài)運(yùn)動,而直接方法借助于圖像包含的全部像素信息,即優(yōu)化像素灰度誤差來計算相機(jī)的姿態(tài)運(yùn)動.除此之外,完整的SLAM系統(tǒng)還包括運(yùn)動回環(huán)檢測、精確地圖創(chuàng)建、軌跡與地圖的全局優(yōu)化.SLAM 系統(tǒng)框架如圖1 所示.
圖1 SLAM 系統(tǒng)框架Fig.1 SLAM framework
SLAM 研究仍然存在諸多挑戰(zhàn),在利用稀疏特征的非直接方法中,存在如何設(shè)計一種最優(yōu)表示圖像信息的特征、如何使特征在光照變化、相機(jī)參數(shù)改變或紋理信息不足的環(huán)境中具有較高魯棒性等問題.在直接方法中,雖然圖像信息可以最大化被利用,但如果存在遮擋、漫反射或光線變化等特殊情況,以優(yōu)化像素值為目標(biāo)函數(shù)的前提假設(shè)則不成立.除上述討論的關(guān)鍵技術(shù)外,SLAM 研究對于應(yīng)用環(huán)境也有特別的要求,在復(fù)雜以及多動態(tài)目標(biāo)運(yùn)動環(huán)境中SLAM 系統(tǒng)顯得更為脆弱[8],長時間或遠(yuǎn)距離的實(shí)時應(yīng)用對系統(tǒng)的魯棒性需求更高.另外,SLAM 位置及姿態(tài)跟蹤結(jié)果對于突然的環(huán)境亮度變化極為敏感[9],過曝光或欠曝光等情況使成像區(qū)域出現(xiàn)飽和現(xiàn)象,從而影響特征提取以及深度估計.
本文提出一種基于局部圖像熵的細(xì)節(jié)增強(qiáng)優(yōu)化算法,改善視覺里程計中由于特征不充分而造成的圖像匹配失敗以及跟蹤丟失等問題,提高移動機(jī)器人視覺定位精度和系統(tǒng)魯棒性.首先介紹了SLAM 關(guān)鍵技術(shù)及可行性,結(jié)合應(yīng)用中面臨的實(shí)際問題,即圖像紋理或結(jié)構(gòu)特征不豐富、視覺傳感器快速運(yùn)動或大角度轉(zhuǎn)動時出現(xiàn)跟蹤丟失等問題,提出基于信息熵的圖像特征提取方法,構(gòu)建SLAM 系統(tǒng),對比ORBSLAM2 系統(tǒng)進(jìn)行了開源數(shù)據(jù)集驗(yàn)證及分析,最后得出相關(guān)結(jié)論.
2007 年Davison 等開發(fā)的基于單目攝像頭的Mono-SLAM[10]系統(tǒng)成功實(shí)現(xiàn)了機(jī)器人視覺SLAM.2007 年英國牛津大學(xué)Klein 和Murray 發(fā)布了獨(dú)特創(chuàng)新的雙線程并行追蹤與建圖SLAM 算法[11],即前端跟蹤后端建圖的PTAM,引入關(guān)鍵幀的特征分析和姿態(tài)跟蹤后,使得SLAM 在實(shí)時性及穩(wěn)定性上有了較大的突破.2014 年德國弗賴堡大學(xué)Endres等開發(fā)的RGBD-SLAM[12]與2015 年西班牙薩拉戈薩大學(xué)Mur-Artal 等開發(fā)的ORB-SLAM[13]開源系統(tǒng)都是目前非常成功的PTAM 的延伸.其中,ORB-SLAM2[14]基于orb特征完成圖像序列的匹配及跟蹤,甚至回環(huán)檢測和再定位,并且提供的接口可以實(shí)現(xiàn)在單目、雙目、RGB-D 及ROS(機(jī)器人操作系統(tǒng))下的使用.由于ORB-SLAM2 構(gòu)建的是稀疏三維點(diǎn)圖,在避障和導(dǎo)航等實(shí)際任務(wù)中無法直接使用,2017年Lv 等基于該系統(tǒng)利用八叉樹結(jié)構(gòu)以及空間預(yù)測擴(kuò)展了密集型三維地圖[15].
與基于稀疏特征的非直接方法不同,2011 年Newcombe等提出的DTAM 解決特征不豐富情況下最大化地利用圖像的全部像素信息進(jìn)行精細(xì)化建圖[16].為了減小稠密SLAM計算量并提高同步性,作為半稠密型的代表,Engel 等先后于2014 年發(fā)布的LSD-SLAM[17]和2018 年發(fā)布的DSO 視覺里程計[18]只關(guān)注有信息區(qū)域或有紋理區(qū)域的像素信息估計,解決大尺度空間機(jī)器人定位及稠密地圖創(chuàng)建的系統(tǒng)性能問題.2014 年Forster 等開發(fā)的SVO-SLAM[19]結(jié)合稀疏特征與直接法,只在前端的圖像配準(zhǔn)部分根據(jù)特征點(diǎn)周圍信息采用直接法計算,又稱半直接法.
視覺里程計作為SLAM 前端能夠計算任意兩幀圖像之間的轉(zhuǎn)換關(guān)系,進(jìn)而估計出粗略的相機(jī)運(yùn)動.相比直接法,基于稀疏特征的非直接法更加穩(wěn)定,并且對光照變化的魯棒性更高.通過依次提取相鄰幀圖像特征點(diǎn)、計算特征描述子、匹配特征以確定圖像之間的關(guān)聯(lián)性,估計相機(jī)運(yùn)動姿態(tài).
基于RGB-D 相機(jī)獲取的彩色圖像以及深度信息,通常采用迭代最近點(diǎn)方法(ICP)將稀疏特征點(diǎn)對齊,并求解位姿估計問題.假設(shè)已根據(jù)提取的RGB-D 數(shù)據(jù)特征點(diǎn)找到兩幅圖像之間的特征匹配關(guān)系,計算出空間坐標(biāo)分別為P1={p11,p12,···,p1n}與P2={p21,p22,···,p2n}.兩組空間點(diǎn)之間存在姿態(tài)變換R、t,使得任意特征點(diǎn)有
構(gòu)造目標(biāo)函數(shù)對投影誤差作最小化處理,得到最優(yōu)的位姿估計,即:
此處,n表示參與優(yōu)化的圖像特征點(diǎn)個數(shù).
將當(dāng)前幀特征點(diǎn)與臨近幀特征點(diǎn)以及關(guān)鍵幀特征點(diǎn)進(jìn)行數(shù)據(jù)關(guān)聯(lián),從而得到機(jī)器人局部和全局的位姿估計值.
在實(shí)際應(yīng)用中,目前主流的基于稀疏特征的SLAM 系統(tǒng)無論是在視覺里程計環(huán)節(jié)、閉環(huán)檢測環(huán)節(jié)亦或是重定位環(huán)節(jié),都依靠從圖像提取的具有表征性的大量特征點(diǎn),無論采用何種特征提取方法,在特征定位上都需要耗費(fèi)大量時間.除此之外,由于特征不足而造成的軌跡跟蹤丟失也是基于稀疏法的SLAM 系統(tǒng)常常遇到的問題.例如,在使用ORB-SLAM2系統(tǒng)對開源TUM RGB-D 數(shù)據(jù)集fr1_desk 相機(jī)運(yùn)動進(jìn)行跟蹤時,在已與深度圖像關(guān)聯(lián)的RGB 圖像序列中,第158 幀與第159 幀之間,如圖2 所示,由于相機(jī)發(fā)生了快速的轉(zhuǎn)動,導(dǎo)致圖像序列中的144 幀數(shù)據(jù)跟蹤失敗.
圖2 幀間相機(jī)大角度轉(zhuǎn)動Fig.2 Big camera rotation in adjacent images
為解決此類問題,本文提出了一種圖像關(guān)聯(lián)準(zhǔn)確率相對較高的SLAM 視覺里程計優(yōu)化算法,提出根據(jù)局部信息熵值來篩選圖像有效信息,解決系統(tǒng)在提取特征點(diǎn)、匹配特征點(diǎn)、定位特征點(diǎn)上消耗大量的時間問題.另外,本文對局部圖像進(jìn)行細(xì)節(jié)增強(qiáng),改善視覺里程計中由于特征不足而造成的圖像匹配失敗等問題,提高移動機(jī)器人視覺定位精度和系統(tǒng)魯棒性.
本文采用基于圖像熵的視覺里程計優(yōu)化算法,其系統(tǒng)流程如圖3 所示.
圖3 視覺里程計優(yōu)化算法Fig.3 Optimization visual odometry algorithm
首先,構(gòu)建圖像金字塔,增加特征的尺度不變特性.由于每層圖像都根據(jù)尺度因子進(jìn)行了縮放處理,為了使圖像特征實(shí)現(xiàn)均勻化提取,并且降低后續(xù)圖像匹配時的復(fù)雜度,在不同的尺度空間下,根據(jù)圖像塊的尺寸定義(width,height)對圖像進(jìn)行區(qū)域分割.
逐層對每個圖像塊進(jìn)行角點(diǎn)特征的快速提取,通過四叉樹方式對關(guān)鍵點(diǎn)進(jìn)行分配和管理,根據(jù)預(yù)先設(shè)定的閾值選取影響度大的特征(最強(qiáng)壯的特征)作為該結(jié)點(diǎn)的特征進(jìn)行保留,以此實(shí)現(xiàn)圖像特征的均勻分布.同時,增加特征的旋轉(zhuǎn)不變特性,計算特征點(diǎn)在圖像中的實(shí)際位置,并生成特征描述子進(jìn)行保存.
在原有算法中,為了使特征在整幅圖像中均勻分布,算法對每個圖像塊均做提取角點(diǎn)的操作.這樣做的結(jié)果是,既增加了無紋理或像素梯度不明顯區(qū)域的計算量,又可能造成某些區(qū)域保留下來的角點(diǎn)與相鄰幀圖像該區(qū)域角點(diǎn)并不能建立有效的匹配關(guān)系,反而其他區(qū)域中表征紋理或結(jié)構(gòu)信息的角點(diǎn)被刪除掉以滿足預(yù)先設(shè)定的特征參數(shù)閾值.
另外,原算法對光照變化的容忍度低,一幅圖像中存在曝光不足或過曝光時,算法中特征提取能力并不會因此而改變,從而影響特征的檢測能力.在圖3 中,虛線框中為視覺里程計的優(yōu)化方法,增加基于局部信息熵的細(xì)節(jié)增強(qiáng)模塊,改善連續(xù)的幀間圖像匹配效果.
信息熵最先由美國工程師Shannon 提出[20],在圖像處理技術(shù)層面上,圖像的信息熵能夠直接表示圖像中含有的信息量,也是對圖像中信息的不確定性的一種度量方式.本文中,為更有效提取能夠表征圖像紋理或結(jié)構(gòu)信息的特征,同時減小特征提取計算量,利用圖像熵的信息特征統(tǒng)計形式,對圖像塊進(jìn)行灰度分布及概率計算:
其中,圖像一維熵H(x)表示圖像灰度分布的聚集特征,p(xi)表示灰度為i(i=0,···,255)的像素在圖像中出現(xiàn)的概率.如果像素灰度值分布范圍大,則信息熵值較大,圖像紋理信息豐富或圖像像素梯度變化明顯.反之,圖像灰度單一,信息熵較小,則認(rèn)為該圖像無紋理信息或圖像像素梯度變化不明顯,在該圖像塊中提取的特征對圖像匹配貢獻(xiàn)不大,可進(jìn)行區(qū)域剔除.
通過對圖像塊進(jìn)行信息特征統(tǒng)計,H(x)越接近0,表明該圖像塊內(nèi)像素梯度值越小,圖像內(nèi)紋理或結(jié)構(gòu)信息不足.故將H(x)與塊剔除閾值R進(jìn)行比較,完成篩選.這里閾值R為經(jīng)驗(yàn)值,可根據(jù)視頻序列中特征的豐富程度來定義.
提出一種光照自適應(yīng)優(yōu)化方法,對保留的局部圖像進(jìn)行非線性調(diào)整,降低圖像局部的陰影和光照變化所造成的影響,增強(qiáng)該區(qū)域中亮與暗的對比度,增加圖像細(xì)節(jié)并抑制噪音干擾.目前,Gamma 矯正是成像設(shè)備中普遍使用的一種亮度非線性逐點(diǎn)調(diào)整方法[21?22].圖像亮度Gamma 矯正函數(shù):
其中,I(x,y)是像素(x,y)的灰度值,G(x,y)是像素(x,y)的校正值,γ為校正參數(shù).如圖4 所示,γ取值小于1 可提高圖像亮度;相反,γ取值大于1 可降低圖像亮度.
圖4 Gamma 非線性曲線Fig.4 Gamma nonlinear curves
分別選取γ=0.4 和γ=2.2 對兩幅圖片進(jìn)行亮度調(diào)整,與原圖對比結(jié)果如圖5 所示,圖中局部區(qū)域?qū)Ρ榷仍贕amma 修正后有所增加,但同時其他區(qū)域的圖像也相應(yīng)受到抑制.
圖5 Gamma 修正Fig.5 Gamma correction
為了只對局部圖像進(jìn)行自適應(yīng)調(diào)整,這里,γ由圖像塊的平均灰度值決定:
其中,μ為圖像灰度校正閾值,取值范圍在(0,1)之間,當(dāng)圖像平均灰度值大于255·μ時根據(jù)γ值暗化圖像,相反,當(dāng)圖像平均灰度值小于255·μ時根據(jù)γ值亮化圖像.當(dāng)μ取值0.5 時,γ參數(shù)曲線如圖6 所示.
圖6 γ 參數(shù)曲線Fig.6 γ parameter curve
系統(tǒng)分別采用RGB-D 數(shù)據(jù)集fr1_desk、fr1_360、fr1_floor 和fr1_room 進(jìn)行實(shí)驗(yàn)驗(yàn)證,圖像序列讀取速度設(shè)為30 幀/秒,跟蹤結(jié)果與標(biāo)準(zhǔn)軌跡數(shù)據(jù)進(jìn)行誤差計算,同時與開源ORB-SLAM2 系統(tǒng)進(jìn)行對比與分析.所有實(shí)驗(yàn)在Intel CoreTMi5-3470 CPU、主頻3.20 GHz、四核、內(nèi)存15.6 GB 配置的臺式機(jī)上完成,系統(tǒng)后端采用G2O 進(jìn)行基于姿態(tài)圖的位姿優(yōu)化,生成運(yùn)動軌跡.
以fr1_desk 數(shù)據(jù)集為例,提取數(shù)據(jù)集中彩色單幀圖像,首先進(jìn)行灰度化處理,采用雙線性插值采樣方法建立圖像金字塔.在金字塔圖像中劃分圖像塊,基于信息熵閾值R=5對圖像塊進(jìn)行篩選,減小無紋理或像素梯度不明顯區(qū)域?qū)τ嬎阗Y源的占用,在保留的圖像區(qū)域中通過自適應(yīng)光照調(diào)整,增強(qiáng)對比度與圖像細(xì)節(jié).如表1 所示,通過分析圖像灰度校正閾值μ對跟蹤精度以及跟蹤效果的影響,系統(tǒng)選用μ=0.5.
表1 閾值選取Table 1 Threshold selection
圖像塊篩選及局部細(xì)節(jié)增強(qiáng)結(jié)果如圖7 所示.
圖7 處理結(jié)果Fig.7 Processing results
提取計算速度較快的orb 特征,根據(jù)生成的描述算子進(jìn)行相鄰幀圖像匹配.優(yōu)化后任意相鄰圖像的匹配結(jié)果如圖8所示.
圖8 匹配結(jié)果Fig.8 Matching results
如前文所述,運(yùn)行測試數(shù)據(jù)集fr1_desk 時,相機(jī)在第158幀與第159 幀之間發(fā)生了快速的轉(zhuǎn)動,由于缺少有效特征作為匹配依據(jù),從而導(dǎo)致圖像序列中的144 幀數(shù)據(jù)跟蹤失敗.采用本文提出的圖像塊篩選及局部細(xì)節(jié)增強(qiáng)技術(shù),在相機(jī)發(fā)生大角度轉(zhuǎn)動位置,相鄰幀之間的特征匹配效果發(fā)生明顯的改善,優(yōu)化前后匹配結(jié)果如圖9 所示.
圖9 匹配結(jié)果對比Fig.9 Matching results compared
圖9 中,由于利用了圖像塊的信息熵值判斷其信息量大小,對比度低以及梯度變化小的圖像塊被自動剔除,對保留的圖像塊進(jìn)行亮度自適應(yīng)調(diào)整,增強(qiáng)局部圖像細(xì)節(jié),盡可能多地提取能夠表征圖像信息的局部特征點(diǎn)作為相鄰幀匹配以及關(guān)鍵幀匹配的關(guān)聯(lián)依據(jù),進(jìn)一步提高相機(jī)運(yùn)動的魯棒性,避免由于幀間匹配失敗而造成的運(yùn)動跟蹤丟失問題.
根據(jù)匹配結(jié)果計算幀間的R,t變換關(guān)系,后端采用G2O進(jìn)行基于姿態(tài)圖的位姿優(yōu)化,最終生成運(yùn)動軌跡,如圖10 所示.
圖10 運(yùn)動軌跡Fig.10 Motion trajectory
3.2.1 跟蹤精度
在跟蹤精度上,絕對軌跡誤差反映了運(yùn)動估計值與標(biāo)準(zhǔn)值之間的差異.以fr1_desk 數(shù)據(jù)集為例,算法優(yōu)化后的運(yùn)動軌跡與標(biāo)準(zhǔn)值之間的誤差如圖11 所示.
圖11 絕對軌跡誤差Fig.11 Absolute trajectory error
采用反映測量精密度的絕對軌跡誤差均方根(Root mean square error,RMSE)作為評價標(biāo)準(zhǔn),絕對軌跡誤差均方根RMSE(x)定義如下:
其中,xe,i表示圖像序列中第i幀的位置估計值,xs,i表示圖像序列中第i幀的位置標(biāo)準(zhǔn)值.
除此之外,相對位姿誤差是一種相對位姿轉(zhuǎn)換的標(biāo)準(zhǔn)度量,由于相對位姿包括平移分量和旋轉(zhuǎn)分量,故通常將相對位姿分解為位姿平移部分和位姿旋轉(zhuǎn)部分分別進(jìn)行評價.算法優(yōu)化后的相對位姿與標(biāo)準(zhǔn)相對位姿之間的誤差如圖12 所示.
圖12 相對位姿誤差Fig.12 Relative pose error
同樣,采用反映測量精密度的相對位姿誤差均方根(RMSE)作為評價標(biāo)準(zhǔn),相對位姿誤差均方根RMSE(T)定義如下:
其中,Te,ij=Te,i ?Te,j表示估計位姿在圖像序列中第i幀和第j幀之間的相對變換,Ts,ij=Ts,i ?Ts,j表示標(biāo)準(zhǔn)位姿在圖像序列中第i幀和第j幀之間的相對變換.
通過對比ORB-SLAM2 算法與優(yōu)化SLAM 算法的運(yùn)動軌跡誤差,本文提出的方法在運(yùn)動跟蹤精度上有所改善,基于RGB-D 數(shù)據(jù)集的測試結(jié)果如表2 所示.其中,由于對局部圖像進(jìn)行細(xì)節(jié)增強(qiáng),平均處理時間略有增加,但在跟蹤軌跡誤差、平移誤差和旋轉(zhuǎn)誤差等指標(biāo)上均有所下降.
表2 軌跡分析結(jié)果Table 2 Trajectory analysis results
3.2.2 光照自適應(yīng)
本文提出的優(yōu)化算法對于環(huán)境光照變化具有自適應(yīng)性,提高算法在低暗區(qū)域和高亮區(qū)域中的特征提取效果,有效突出或增強(qiáng)更多的紋理細(xì)節(jié)信息,解決由于特征不足而造成的匹配失敗以及運(yùn)動跟蹤丟失等問題.在圖13 和圖14 中,圖(a)為正常光照條件下提取的orb 特征點(diǎn)分布情況,當(dāng)光照條件發(fā)生變化后,圖像中存在欠曝光或過曝光成像時,與圖(a)相比,部分區(qū)域無法提取足夠的特征信息,圖像處理結(jié)果如圖(b)和圖(c)所示.然而,經(jīng)過算法中的局部光照自適應(yīng)調(diào)整和細(xì)節(jié)增強(qiáng)后,特征提取效果有所改善,圖像處理結(jié)果如圖(d)和圖(e)所示,減小了環(huán)境光照變化對系統(tǒng)性能的影響.
圖13 光照自適應(yīng)調(diào)整效果AFig.13 Effect A of adaptive illumination adjustment
圖14 光照自適應(yīng)調(diào)整效果BFig.14 Effect B of adaptive illumination adjustment
若圖像中存在過曝光或欠曝光區(qū)域,將無法產(chǎn)生帶有信息的特征用于視覺SLAM 當(dāng)中,故選取不同亮度值的相同數(shù)據(jù)集作為測試驗(yàn)證對象,對比分析局部光照自適應(yīng)調(diào)整前后的系統(tǒng)跟蹤精度.以fr1_room 為例,測試結(jié)果如圖15 所示,當(dāng)環(huán)境光照發(fā)生變化時,系統(tǒng)跟蹤精度隨之受到影響,而本文提出的方法可以改善光照條件不理想情況下的絕對軌跡誤差,提高系統(tǒng)性能.
圖15 不同光照條件下跟蹤精度Fig.15 Tracking accuracy in different illumination conditions
3.2.3 運(yùn)動魯棒性
本文提出的優(yōu)化算法在視覺傳感器快速運(yùn)動方面表現(xiàn)出了較強(qiáng)的魯棒性,可以解決由于幀間匹配失敗而造成的運(yùn)動跟蹤丟失問題.
以fr1_desk 數(shù)據(jù)集為例,其SLAM 跟蹤結(jié)果如圖16 所示.圖16(a)中由于無法利用幀間特征進(jìn)行有效匹配,所以只有當(dāng)相機(jī)重新定位到原來的位置時才能繼續(xù)跟蹤.圖16(b)中由于增強(qiáng)了基于信息熵篩選后保留下來的圖像細(xì)節(jié)信息,增加有用特征提高匹配成功率,所以跟蹤成功.多組測試結(jié)果顯示,使用ORB-SLAM2 對fr1_desk 數(shù)據(jù)集進(jìn)行跟蹤時的成功率不足10%,而應(yīng)用優(yōu)化算法進(jìn)行SLAM 的運(yùn)動跟蹤成功率可提升至60% 以上.
圖16 軌跡跟蹤結(jié)果Fig.16 Trajectory tracking result
在移動機(jī)器人同步定位與地圖構(gòu)建中,本文提出了一種基于局部信息熵的細(xì)節(jié)增強(qiáng)視覺里程計優(yōu)化算法,利用局部信息熵值判斷圖像信息大小,剔除對比度低以及梯度變化小的圖像區(qū)域,對保留的區(qū)域進(jìn)行亮度自適應(yīng)調(diào)整,增強(qiáng)局部圖像細(xì)節(jié),將其作為相鄰幀匹配以及關(guān)鍵幀匹配的關(guān)聯(lián)依據(jù),提高機(jī)器人運(yùn)動跟蹤精度.
雖然本優(yōu)化算法在處理時間上有所增加,但能夠?qū)崿F(xiàn)移動機(jī)器人在視覺傳感器發(fā)生大角度轉(zhuǎn)動時的有效運(yùn)動估計.分別在TUM RGB-D 數(shù)據(jù)集fr1_desk、fr1_360、fr1_floor、fr1_room 上進(jìn)行驗(yàn)證,應(yīng)用本文提出的優(yōu)化算法使運(yùn)動跟蹤成功率最大可提升至60% 以上,同時使預(yù)測軌跡誤差值減小.該算法對于環(huán)境的光照變化具有自適應(yīng)性,并且對于相機(jī)的運(yùn)動具有較強(qiáng)魯棒性,當(dāng)視覺傳感器快速運(yùn)動時,可以解決移動機(jī)器人在紋理信息不足情況下的正常軌跡跟蹤問題.