国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于雙目視覺的類腦三維認(rèn)知地圖構(gòu)建方法

2021-09-28 06:18王雅婷劉建業(yè)
導(dǎo)航定位與授時(shí) 2021年5期
關(guān)鍵詞:類腦位姿精度

王雅婷,劉建業(yè),2,熊 智,2,楊 闖

(1.南京航空航天大學(xué)導(dǎo)航研究中心,南京 211106;2.先進(jìn)飛行器導(dǎo)航、控制與健康管理工業(yè)和信息化部重點(diǎn)實(shí)驗(yàn)室,南京 211106)

0 引言

現(xiàn)階段,同步定位與地圖構(gòu)建(Simultaneous Localization and Mapping,SLAM)是無人機(jī)在動態(tài)復(fù)雜環(huán)境下進(jìn)行導(dǎo)航與定位的主要方法之一。其原理是通過建立模型感知周圍環(huán)境的信息,完成自定位并構(gòu)建環(huán)境地圖,進(jìn)而解決機(jī)器人在未知環(huán)境中的自主運(yùn)動問題。經(jīng)過多年研究,視覺SLAM成為解決無人機(jī)SLAM問題的經(jīng)典方法之一,視覺傳感器成本低廉,應(yīng)用廣泛,但容易受光照和天氣等環(huán)境因素影響且智能化水平較低。同時(shí),現(xiàn)有的視覺SLAM后端處理主要采用基于概率模型的方法,需要建立真實(shí)世界和載體運(yùn)動的準(zhǔn)確模型,算法復(fù)雜度高。在此情況下,亟需發(fā)展能適應(yīng)無人機(jī)復(fù)雜飛行環(huán)境的魯棒性強(qiáng)、智能化水平高的新型定位建圖方法[1]。

動物擁有記憶目標(biāo)與適應(yīng)環(huán)境的導(dǎo)航能力,這為解決上述問題提供了較好的生物模型,其中構(gòu)建認(rèn)知地圖是動物導(dǎo)航能力的核心[2]。近年來,動物構(gòu)建認(rèn)知地圖的神經(jīng)機(jī)制得到了研究,哺乳動物大腦海馬區(qū)和內(nèi)嗅皮層中頭朝向細(xì)胞、網(wǎng)格細(xì)胞、位置細(xì)胞等關(guān)鍵生物導(dǎo)航細(xì)胞被神經(jīng)學(xué)家們陸續(xù)發(fā)現(xiàn)。對生物導(dǎo)航細(xì)胞編碼建立的類腦導(dǎo)航細(xì)胞神經(jīng)網(wǎng)絡(luò)模型,模擬了類腦細(xì)胞的部分特性,有潛力實(shí)現(xiàn)無人機(jī)在復(fù)雜動態(tài)環(huán)境下的準(zhǔn)確定位并構(gòu)建認(rèn)知地圖[3]。

目前,已有學(xué)者研究出一些基于生物導(dǎo)航細(xì)胞神經(jīng)網(wǎng)絡(luò)模型的類腦認(rèn)知地圖構(gòu)建方法:M.J.Milford及其團(tuán)隊(duì)研發(fā)了RatSLAM模型,成功實(shí)現(xiàn)了大規(guī)模的持續(xù)2周[4]導(dǎo)航和在二維空間中繪制認(rèn)知地圖的功能[5]?;赗atSLAM模型,研究者們又研發(fā)了許多擴(kuò)展模型,例如Steckel等開發(fā)了運(yùn)用聲吶感知的BatSLAM模型;Silveira等將RatSLAM與位置細(xì)胞三維模型結(jié)合,能夠探索水下三維環(huán)境;F.Yu等開發(fā)了能夠表示機(jī)器人在三維空間四自由度位姿信息的NeuroSLAM模型,并在模擬場景和真實(shí)場景下進(jìn)行了試驗(yàn)[6]。

從現(xiàn)有類腦認(rèn)知地圖構(gòu)建方法研究來看,建立細(xì)胞二維模型并構(gòu)建二維類腦認(rèn)知地圖的研究較多,而針對導(dǎo)航細(xì)胞構(gòu)建三維模型的研究相對匱乏;傳感輸入主要采用掃描線強(qiáng)度剖面法,較難準(zhǔn)確解算三維位姿,導(dǎo)致最終構(gòu)建的認(rèn)知地圖誤差較大。為解決上述問題,本文在上述文獻(xiàn)研究的基礎(chǔ)上,提出了一種基于雙目視覺的類腦三維認(rèn)知地圖構(gòu)建方法:闡述了類腦三維認(rèn)知地圖系統(tǒng)的工作原理,研究了基于雙目視覺的類腦三維認(rèn)知地圖精度優(yōu)化方法,設(shè)計(jì)了基于視覺數(shù)據(jù)集的類腦三維認(rèn)知地圖構(gòu)建試驗(yàn),并對比分析了不同視覺里程計(jì)精度對認(rèn)知地圖精度的影響。

1 類腦三維認(rèn)知地圖構(gòu)建系統(tǒng)

1.1 工作原理

類腦三維認(rèn)知地圖構(gòu)建系統(tǒng)的基本框架如圖1所示。流程如下:首先通過視覺傳感器如相機(jī)等采集圖片作為視覺前端輸入數(shù)據(jù),再對圖像進(jìn)行預(yù)處理(裁剪、正則化等),通過視覺里程計(jì)模塊算出四自由度(三維位置以及航向角)的位姿信息并繪制里程計(jì)地圖,同時(shí)在視覺模板模塊處理視覺信息,生成或激活位置細(xì)胞。接著對頭朝向細(xì)胞、網(wǎng)格細(xì)胞以及位置細(xì)胞進(jìn)行建模,并將里程計(jì)解算得到的位姿信息輸入至導(dǎo)航細(xì)胞神經(jīng)網(wǎng)絡(luò),在頭朝向細(xì)胞神經(jīng)網(wǎng)絡(luò)中解碼出當(dāng)前航向角,在網(wǎng)格細(xì)胞神經(jīng)網(wǎng)絡(luò)中激活細(xì)胞并執(zhí)行三維路徑積分,然后更新神經(jīng)網(wǎng)絡(luò)中的細(xì)胞活性,最后通過網(wǎng)格細(xì)胞和頭朝向細(xì)胞得到當(dāng)前四自由度位姿,創(chuàng)建空間經(jīng)歷點(diǎn)并繪制三維認(rèn)知地圖。

1.2 視覺感知系統(tǒng)

1.2.1 視覺模塊組織構(gòu)架

圖2展示了認(rèn)知地圖構(gòu)建系統(tǒng)的視覺模塊組織架構(gòu)。首先利用相機(jī)等視覺傳感器采集圖片作為視覺模塊的輸入數(shù)據(jù)。視覺里程計(jì)能夠?qū)D片信息通過計(jì)算轉(zhuǎn)化成相機(jī)的自運(yùn)動信息,包括平移速度、高度速度和角速度。除此之外,視覺模板能夠激活位置細(xì)胞,記憶視覺圖片及其對應(yīng)的自運(yùn)動信息,當(dāng)出現(xiàn)熟悉場景時(shí)進(jìn)行回環(huán)校正。

圖2 視覺模塊組織架構(gòu)

1.2.2 視覺里程計(jì)

認(rèn)知地圖構(gòu)建系統(tǒng)通過視覺里程計(jì)模塊,將解算得到的自運(yùn)動信息和視覺圖像信息輸入至導(dǎo)航細(xì)胞神經(jīng)網(wǎng)絡(luò),驅(qū)動頭朝向細(xì)胞、網(wǎng)格細(xì)胞和位置細(xì)胞的路徑積分過程。本文選取了掃描線強(qiáng)度剖面法、單目視覺里程計(jì)和雙目視覺里程計(jì)等三類較為代表性的視覺里程計(jì),對比分析了其運(yùn)動精度以及不同里程計(jì)對類腦認(rèn)知地圖精度的影響。

(1)掃描線強(qiáng)度剖面法

現(xiàn)有認(rèn)知地圖構(gòu)建方法如NeuroSLAM模型[6],采用掃描線強(qiáng)度剖面法提取自運(yùn)動信息。它以相鄰圖片的剖面差乘上固定經(jīng)驗(yàn)值作為無人機(jī)的真實(shí)速度,是一種簡單高效的算法。但其不足之處有:1)此算法實(shí)際上與光流法(直接法)原理類似,在光照變化比較大的環(huán)境下魯棒性較差;2)計(jì)算速度和角速度的公式都需要乘上固定的經(jīng)驗(yàn)值,但是圖像中包含的信息在復(fù)雜環(huán)境下并不一致,導(dǎo)致經(jīng)驗(yàn)值實(shí)際不固定,使得計(jì)算的速度在動態(tài)環(huán)境下精度較差。因此,掃描線強(qiáng)度剖面法一般適用于路徑簡單、干擾較少的視覺場景,建圖路徑稍微復(fù)雜便可能難以保證認(rèn)知地圖的拓?fù)湟恢滦浴?/p>

(2)單目視覺里程計(jì)算法

單目視覺里程計(jì)采用單目相機(jī)作為傳感器,成本低、環(huán)境適應(yīng)性較強(qiáng)。本文試驗(yàn)部分采用單目視覺里程計(jì)算法,首先對三維地標(biāo)初始化,再跟蹤相鄰兩幀圖片間的關(guān)鍵點(diǎn),最終利用建立的二維到三維坐標(biāo)對應(yīng)關(guān)系進(jìn)行姿態(tài)估計(jì)[7]。但單目視覺算法最大的問題是無法確定目標(biāo)的絕對深度,存在無法自主確定運(yùn)動軌跡尺度的情況,一般需要已知空間中某兩點(diǎn)間距離,或者結(jié)合其他傳感器[8]。因此,僅依賴單目視覺里程計(jì)一般較難進(jìn)行長時(shí)間的定位與建圖,時(shí)間越長,認(rèn)知地圖的漂移率會越高。

(3)雙目視覺里程計(jì)算法

在視覺里程計(jì)領(lǐng)域,雙目相機(jī)利用固定的內(nèi)參矩陣,通過匹配獲得場景深度,解決了單目里程計(jì)尺度模糊的問題,適合長時(shí)間、大范圍穩(wěn)定工作[9]。為提高系統(tǒng)的導(dǎo)航定位能力,優(yōu)化視覺前端自運(yùn)動信息提取算法,本文重點(diǎn)研究了一種基于特征匹配、選擇與跟蹤的雙目視覺里程計(jì)算法,通過如圖3所示的四邊形閉環(huán)方法匹配特征點(diǎn)[10],利用基于隨機(jī)抽樣一致(Random Sample Consensus, RANSAC)的異常值排除方案移除獨(dú)立移動對象上的特征點(diǎn)[11],并跟蹤相鄰幀之間的特征點(diǎn)關(guān)聯(lián)[12]。

(a)匹配成功示意圖

將前一時(shí)刻圖像的特征點(diǎn)云三角化,基于式(1)重新投影到當(dāng)前時(shí)刻平面圖像上

(1)

1.2.3 視覺模板

視覺模板模塊通過SAD算法計(jì)算圖像的像素強(qiáng)度剖面,對比視覺信息,完成回環(huán)檢測與校準(zhǔn)。圖4中,每個(gè)位置細(xì)胞都有視覺模板剖面強(qiáng)度圖與其相匹配,如圖中的PC1和PC2。將當(dāng)前時(shí)刻新計(jì)算得到的剖面圖與歷史視覺模板進(jìn)行比較,如果強(qiáng)度差小于依據(jù)經(jīng)驗(yàn)設(shè)定的閾值,系統(tǒng)就會判定經(jīng)歷回環(huán),將當(dāng)前圖片與之前的視覺模板相匹配,并激活第一次經(jīng)歷該場景的位置細(xì)胞,調(diào)用其存儲的位置信息為輸出以減少累計(jì)誤差,例如圖中的PC3;如果計(jì)算得到的強(qiáng)度差大于設(shè)定的閾值,系統(tǒng)就會判定在探索新場景,生成新的視覺模板并創(chuàng)建對應(yīng)的新位置細(xì)胞,例如圖中的PC4。

圖4 視覺模板剖面強(qiáng)度匹配流程圖

1.3 導(dǎo)航細(xì)胞三維模型

連續(xù)吸引子神經(jīng)網(wǎng)絡(luò)通過編碼吸引子表示位姿信息,僅當(dāng)吸引子嚴(yán)格沿流形連續(xù)移動時(shí),外部輸入才能驅(qū)動吸引子移動,更新信息編碼,具有較強(qiáng)的魯棒性[15],因此本文選擇吸引子神經(jīng)網(wǎng)絡(luò)模型對生物導(dǎo)航細(xì)胞進(jìn)行建模。

文本提出的類腦三維認(rèn)知地圖構(gòu)建系統(tǒng),在細(xì)胞建模部分采用F.Yu等提出的方法[6]:使用二維連續(xù)吸引子神經(jīng)網(wǎng)絡(luò)模型建模頭朝向細(xì)胞,用于表示高度和航向角;三維連續(xù)吸引子神經(jīng)網(wǎng)絡(luò)模型建模網(wǎng)格細(xì)胞,用于表示三維位置。此外,系統(tǒng)還利用視覺模板匹配模擬的位置細(xì)胞,對頭朝向細(xì)胞和網(wǎng)格細(xì)胞進(jìn)行回環(huán)檢測與校正,提高了導(dǎo)航定位的精度。

1.3.1 多層頭朝向細(xì)胞建模

多層頭朝向細(xì)胞神經(jīng)網(wǎng)絡(luò)如圖5所示。它是由一組具有固定加權(quán)連接值的單元組成的神經(jīng)網(wǎng)絡(luò),主要通過更改在0~1之間的數(shù)值更新神經(jīng)細(xì)胞的活性。細(xì)胞活性更新的步驟如下:首先,根據(jù)雙目視覺里程計(jì)計(jì)算得到的信息,將激勵(lì)輸入至頭朝向細(xì)胞網(wǎng)絡(luò)中,頭朝向細(xì)胞的活性將通過吸引子動力學(xué)方程,按照局部興奮、局部抑制和全局抑制步驟變化;接著,頭朝向細(xì)胞神經(jīng)網(wǎng)絡(luò)將接收網(wǎng)格細(xì)胞神經(jīng)網(wǎng)絡(luò)路徑積分得到的高度變化速度、水平變化速度和角度變化速度等信息,實(shí)現(xiàn)位姿信息的更新;最后,當(dāng)出現(xiàn)熟悉的視覺場景時(shí),頭朝向細(xì)胞神經(jīng)網(wǎng)絡(luò)會調(diào)用位置細(xì)胞存儲的之前的位姿信息,實(shí)現(xiàn)校準(zhǔn)。

圖5 多層頭朝向細(xì)胞神經(jīng)網(wǎng)絡(luò)

1.3.2 網(wǎng)格細(xì)胞三維模型

與建立頭朝向細(xì)胞模型方法類似,本文使用三維連續(xù)吸引子神經(jīng)網(wǎng)絡(luò)建模網(wǎng)格細(xì)胞,表示各個(gè)三維區(qū)域中位置和方向等度量信息。圖6所示為三維網(wǎng)格細(xì)胞神經(jīng)網(wǎng)絡(luò),三維環(huán)境中的每個(gè)區(qū)域均由網(wǎng)絡(luò)中特定的吸引子神經(jīng)元編碼,再根據(jù)自運(yùn)動信息進(jìn)行路徑積分,更新位姿信息。網(wǎng)格細(xì)胞活性更新的步驟與多層頭朝向細(xì)胞類似,同樣地,當(dāng)出現(xiàn)熟悉的視覺場景時(shí),網(wǎng)格細(xì)胞神經(jīng)網(wǎng)絡(luò)會調(diào)用位置細(xì)胞存儲的歷史位姿信息,實(shí)現(xiàn)回環(huán)校準(zhǔn)。

圖6 三維網(wǎng)格細(xì)胞神經(jīng)網(wǎng)絡(luò)

1.3.3 位置細(xì)胞建模

在構(gòu)建認(rèn)知地圖的過程中,僅依賴頭朝向細(xì)胞以及網(wǎng)格細(xì)胞進(jìn)行定位比較容易造成誤差累積,因此需要利用位置細(xì)胞重置地圖的可塑性進(jìn)行回環(huán)校正。為了簡化模型計(jì)算,本文采用SAD算法創(chuàng)建視覺模板,匹配模擬的位置細(xì)胞。系統(tǒng)判定經(jīng)歷回環(huán)后,位置細(xì)胞被激活,通過連接權(quán)值矩陣將活性映射到關(guān)聯(lián)的頭朝向細(xì)胞與網(wǎng)格細(xì)胞中,進(jìn)行回環(huán)校準(zhǔn),從而改善認(rèn)知地圖的精度。頭朝向細(xì)胞和網(wǎng)格細(xì)胞的活性變化ΔUθ和ΔUx,y,z依照如下公式計(jì)算

(2)

(3)

其中,npc表示當(dāng)前活躍的位置細(xì)胞數(shù)量;λ表示位置細(xì)胞常值校準(zhǔn)強(qiáng)度。

1.4 認(rèn)知地圖建立及回環(huán)校正

1.4.1 認(rèn)知地圖建立

(4)

每個(gè)空間經(jīng)歷都存儲了特定的三維空間狀態(tài),當(dāng)空間狀態(tài)更新且較歷史空間狀態(tài)信息有所改變時(shí),系統(tǒng)會創(chuàng)建一個(gè)新的三維空間經(jīng)歷存儲該空間狀態(tài),同時(shí)創(chuàng)建從前一時(shí)刻經(jīng)歷鏈接到新經(jīng)歷的新過渡矩陣,存儲2個(gè)經(jīng)歷空間狀態(tài)的改變信息。

1.4.2 回環(huán)校正

當(dāng)系統(tǒng)經(jīng)歷熟悉場景時(shí),空間狀態(tài)信息會與歷史空間狀態(tài)信息一致,位置細(xì)胞被激活,調(diào)用其與頭朝向細(xì)胞以及網(wǎng)格細(xì)胞的關(guān)聯(lián)。為了減小累積誤差,在回環(huán)事件發(fā)生之后,系統(tǒng)會在回環(huán)路徑范圍內(nèi),將當(dāng)前經(jīng)歷關(guān)聯(lián)的空間狀態(tài)信息更換為第一次經(jīng)歷該熟悉場景創(chuàng)建的歷史經(jīng)歷的空間狀態(tài)信息,更新四自由度位姿信息?;丨h(huán)校正后的位姿變化δpi依照如下公式計(jì)算[6]

(5)

其中,ψ表示調(diào)整率,是根據(jù)新舊過渡矩陣間位姿變化設(shè)定的經(jīng)驗(yàn)值;Nf為經(jīng)歷Ei轉(zhuǎn)換到其他經(jīng)歷的數(shù)量;Nt為其他經(jīng)歷轉(zhuǎn)換到經(jīng)歷Ei的數(shù)量。

2 驗(yàn)證試驗(yàn)與分析

2.1 試驗(yàn)設(shè)計(jì)

為分析本文提出的基于雙目視覺的類腦三維認(rèn)知地圖構(gòu)建方法的具體性能,采用Matlab2018a軟件作為試驗(yàn)驗(yàn)證平臺。

首先開展了基于雙目視覺的認(rèn)知地圖構(gòu)建試驗(yàn)。同時(shí),本文會對前文提及的基于原NeuroSLAM掃描線強(qiáng)度剖面法、單目視覺里程計(jì)和雙目視覺里程計(jì)的建圖精度進(jìn)行對比,分析不同視覺里程計(jì)算法對認(rèn)知地圖精度的影響。其中,掃描線強(qiáng)度剖面法僅適用于路徑簡單、干擾較少的靜態(tài)模擬場景數(shù)據(jù)集[16],使用真實(shí)場景數(shù)據(jù)集時(shí)調(diào)參困難且結(jié)果較差;而單、雙目視覺里程計(jì)利用相機(jī)拍攝的圖像作為輸入數(shù)據(jù),需要使用相機(jī)校準(zhǔn)后的內(nèi)參矩陣作為計(jì)算位姿的前提數(shù)據(jù),也不適用于模擬場景數(shù)據(jù)集。為了準(zhǔn)確地顯示出視覺系統(tǒng)的優(yōu)化情況,本文在使用掃描線強(qiáng)度剖面法時(shí)選擇了結(jié)果最優(yōu)的模擬場景數(shù)據(jù)集。

對于真實(shí)場景數(shù)據(jù)集,本文使用KITTI數(shù)據(jù)集Odometry目錄下的序列05作為視覺輸入,包含2670張圖片,圖像分辨率為1226×370,數(shù)據(jù)集的三維軌跡以及不同路徑段對應(yīng)的典型場景如圖7所示,藍(lán)色序號表示在運(yùn)動過程中只經(jīng)歷過一次的路徑,綠色序號表示經(jīng)歷過兩次的路徑。

圖7 KITTI序列05數(shù)據(jù)集真實(shí)軌跡以及典型場景

具體的試驗(yàn)思路如下:本文驗(yàn)證試驗(yàn)是以圖片數(shù)據(jù)集為輸入,最終輸出視覺里程計(jì)地圖和三維認(rèn)知地圖等,同時(shí)記錄里程計(jì)地圖和認(rèn)知地圖每一幀對應(yīng)的位姿值,用于之后的精度分析與對比。

在定性分析系統(tǒng)精度方面,本文通過展示視覺里程計(jì)地圖、三維認(rèn)知地圖分別與真實(shí)軌跡地圖在相同二維或三維坐標(biāo)系下的拓?fù)鋵Ρ葓D,分析試驗(yàn)結(jié)果。為了更直觀地顯示拓?fù)湟恢滦?,本文還設(shè)定了恰當(dāng)值以調(diào)整地圖的比例。

在定量分析系統(tǒng)精度方面,除了使用傳統(tǒng)的誤差平均值分析精度以外,本文還使用了一種定量評估估計(jì)軌跡質(zhì)量的原則性方法,即絕對軌跡誤差(Absolute Trajectory Error,ATE)和相對誤差(Relative Error,RE)。

ATE依照如下公式計(jì)算[17]

(6)

RE依照如下公式計(jì)算

(7)

其中,Δpi1為同一關(guān)鍵幀對應(yīng)不同地圖下三維坐標(biāo)的差值;Δpi2為在設(shè)定相同幀數(shù)差時(shí)兩關(guān)鍵幀對應(yīng)三維坐標(biāo)的差值,再與同一情況下真實(shí)軌跡的位姿差值相減得到的值;n表示關(guān)鍵幀個(gè)數(shù)。本文在整體路徑上隨機(jī)選取m組關(guān)鍵位置,每組包含里程計(jì)地圖、認(rèn)知地圖和真實(shí)軌跡地圖中相鄰n個(gè)關(guān)鍵幀,最終計(jì)算m組均方根的平均值。設(shè)定m=20,n=20,為提高可信度,共進(jìn)行200次評估。

2.2 試驗(yàn)結(jié)果精度分析

(1)定性分析結(jié)果

圖8展示了雙目視覺里程計(jì)地圖、認(rèn)知地圖以及真實(shí)軌跡地圖的三維以及二維拓?fù)鋵Ρ惹闆r。

圖8 三種三維以及二維地圖拓?fù)鋵Ρ?/p>

由圖8可知,認(rèn)知地圖和視覺里程計(jì)地圖與真實(shí)軌跡地圖按時(shí)序排列的一維拓?fù)浠疽恢?。在整個(gè)運(yùn)行過程中,視覺里程計(jì)整體沒有較大偏移,但運(yùn)行過程后半段,由于視覺里程計(jì)的誤差累積,里程計(jì)地圖和基于里程計(jì)估計(jì)數(shù)據(jù)的認(rèn)知地圖都出現(xiàn)了漂移。不過當(dāng)相機(jī)經(jīng)歷熟悉場景時(shí),由于認(rèn)知地圖的回環(huán)檢測和校正作用,認(rèn)知地圖會調(diào)用第一次經(jīng)過該場景時(shí)存儲的數(shù)據(jù),從而減少漂移誤差。

(2)定量分析結(jié)果

圖9展示了雙目視覺里程計(jì)和認(rèn)知地圖的定量分析結(jié)果:圖9(a)為每幀圖片對應(yīng)的平均誤差絕對值;圖9(b)為各方向?qū)?yīng)的誤差平均值百分比;圖9(c)為ATE;圖9(d)為RE。從這4幅圖中可以看出,定量分析誤差的結(jié)果與2.1節(jié)定性分析的結(jié)果基本相同。由于認(rèn)知地圖的位姿也是基于里程計(jì)地圖的輸出,在大多數(shù)情況下,兩地圖誤差的變化趨勢也相近。特別地,圖9(a)中認(rèn)知地圖的誤差曲線較里程計(jì)地圖存在兩處明顯尖峰。經(jīng)仔細(xì)比對發(fā)現(xiàn),誤差尖峰出現(xiàn)在數(shù)據(jù)集75幀和2445幀附近,為圖7路徑中的1號重復(fù)路段。在75幀左右,系統(tǒng)較少生成新模板,持續(xù)匹配舊模板,沿用其位姿信息導(dǎo)致計(jì)算時(shí)有幾幀偏差較大,造成第一次誤差尖峰;在2445幀附近,由于再次經(jīng)歷75幀附近的路段,系統(tǒng)仍匹配舊模板,造成第二次誤差尖峰。因此,圖9(a)中兩次尖峰誤差是模板匹配定位誤差造成的,且由于匹配相同的模板,這兩次尖峰的誤差值相近。整體上,由于回環(huán)校正,認(rèn)知地圖的誤差較小,而里程計(jì)地圖由于誤差累積,漂移會隨運(yùn)動距離增加而增大。

(a)每幀圖片對應(yīng)的平均誤差絕對值

2.3 精度對比

前文提及為了更直觀地顯示拓?fù)湟恢滦?,設(shè)定了恰當(dāng)值調(diào)整地圖的比例,在此情況下,利用兩種方法計(jì)算得到位姿結(jié)果的誤差平均值比較精度是不規(guī)范的。為了準(zhǔn)確驗(yàn)證,本文將使用各方向誤差平均值/各方向最大行進(jìn)距離的方法對比原NeuroSLAM掃描線強(qiáng)度剖面法、單目視覺里程計(jì)和本文介紹的雙目視覺里程計(jì)算法的試驗(yàn)精度,各方向誤差百分比具體情況如表1所示。

表1 各方向誤差百分比

從表1中可以看出,基于雙目視覺算法構(gòu)建的里程計(jì)地圖和認(rèn)知地圖的誤差百分比基本都是最小的,且在x和y方向上優(yōu)化顯著。在z方向上精度較差的原因主要是模擬數(shù)據(jù)集在z方向上變化過于簡單,無人機(jī)僅在兩處存在高度變化,而KITTI數(shù)據(jù)集在三維方向一直持續(xù)變化,路徑比較復(fù)雜。不過從整體來看,本文提出的基于雙目視覺的無人機(jī)類腦三維認(rèn)知地圖構(gòu)建方法精度較優(yōu),視覺里程計(jì)地圖的三維位置誤差為2.14%,認(rèn)知地圖的三維位置誤差為1.56%。而另一種單目視覺里程計(jì)算法,由于運(yùn)動軌跡的尺度模糊,加上采用真實(shí)場景數(shù)據(jù)集進(jìn)行驗(yàn)證,精度最差。

3 結(jié)論

針對現(xiàn)有類腦認(rèn)知地圖構(gòu)建精度不高的問題,本文開展了基于雙目視覺里程計(jì)的類腦三維認(rèn)知地圖精度優(yōu)化方法研究,提出了一種基于雙目視覺的類腦三維認(rèn)知地圖構(gòu)建方法,進(jìn)一步研究了不同視覺里程計(jì)精度對類腦建圖精度的影響,試驗(yàn)結(jié)果表明:

1)本文所提基于雙目視覺的類腦三維認(rèn)知地圖構(gòu)建方法,有效提高了認(rèn)知地圖構(gòu)建精度,為進(jìn)一步研究基于類腦認(rèn)知地圖的導(dǎo)航定位方法提供了較好參考;

2)里程計(jì)精度是影響類腦認(rèn)知地圖精度的重要因素,優(yōu)化里程計(jì),認(rèn)知地圖的精度也能得到提高;

3)基于模板匹配的回環(huán)檢測與校正,可以有效提高類腦認(rèn)知地圖的構(gòu)建精度,但直接匹配可能會引起誤差尖峰,需設(shè)置合適的匹配閾值和平滑度。

猜你喜歡
類腦位姿精度
基于不同快速星歷的GAMIT解算精度分析
數(shù)字化無模鑄造五軸精密成形機(jī)精度檢驗(yàn)項(xiàng)目分析與研究
神經(jīng)元規(guī)模最大類腦計(jì)算機(jī)問世
基于PLC的六自由度焊接機(jī)器人手臂設(shè)計(jì)與應(yīng)用
我科學(xué)家首次提出“類腦計(jì)算完備性”
基于位置依賴的密集融合的6D位姿估計(jì)方法
曲柄搖桿機(jī)構(gòu)的動力學(xué)仿真
近似邊界精度信息熵的屬性約簡
中國成立“類腦國家實(shí)驗(yàn)室”“借鑒人腦”攻關(guān)人工智能
淺談ProENGINEER精度設(shè)置及應(yīng)用