国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于度量學習的回環(huán)檢測描述子提升算法

2022-02-17 05:56劉雄偉沈會良
模式識別與人工智能 2022年1期
關鍵詞:回環(huán)集上樣本

韓 彬 羅 倫 劉雄偉 沈會良

回環(huán)檢測作為同步定位與地圖構建(Simulta-neous Localization and Mapping, SLAM)中關鍵問題之一,主要用于識別機器人是否曾到達過當前位置,在降低累積誤差、提高地圖一致性方面具有重要作用.目前,回環(huán)檢測算法主要分為基于視覺的回環(huán)檢測算法和基于激光雷達的回環(huán)檢測算法.由于激光雷達精度相對受光照、視角影響更小,基于激光雷達的回環(huán)檢測算法通常具有更高的魯棒性.

基于激光雷達的回環(huán)檢測算法可大致分為基于機器學習的回環(huán)檢測算法和基于手工特征的回環(huán)檢測算法.基于機器學習的的回環(huán)檢測算法中的典型算法,如基于3D點云分割的回環(huán)檢測(Segment Based Loop-Closure for 3D Point Clouds, SegMatch)[1],對點云進行分割聚類,使用最近鄰搜索對分割的點云進行檢索,再利用基于隨機森林的分類器進行分段點云匹配.基于點云檢索的場景識別網(wǎng)絡 (Deep Point Cloud Based Retrieval for Large-Scale Place Recognition, PointNetVLAD)[2]和大尺度場景描述網(wǎng)絡(Large-Scale Place Description Network, LPD-Net)[3]利用點云網(wǎng)絡(PointNet)[4]提取點云特征,再使用聚合局部特征編碼網(wǎng)絡(Vector of Locally Aggregated Des-criptors Network, NetVLAD)[5]為輸入點云生成全局描述子矢量.基于手工特征的回環(huán)檢測算法常見思路是人工設計不破壞點云結構信息的特征描述子,將每幀三維點云數(shù)據(jù)壓縮成一個特征向量,再通過特征描述子之間的歐氏距離進行回環(huán)搜索.主流的描述子有多視點投影的全局描述子(Multiview 2D Projection, M2DP)[6],定向直方圖標簽描述子(Signature of Histograms of Orientations, SHOT)[7],視點特征直方圖描述子(Viewpoint Feature Histogram, VFH)[8],形狀集成描述子(Ensemble of Shape Func-tions, ESF)[9],Scan Context描述子[10],Iris描述子[11]等.

He等[6]提出 M2DP,將一幀三維點云數(shù)據(jù)投影到平面上,再利用奇異值分解(Singular Value Decomposition, SVD)提取奇異向量,拼接成192維特征描述子,具有較好的魯棒性.Tombari等[7]設計SHOT描述子,在特征點處建立局部坐標系,結合鄰域點的空間位置信息和幾何特征統(tǒng)計信息描述特征點.Rusu等[8]提出VFH,先找到視角方向,確定旋轉一致性,再利用點云法向量和視角之間的夾角制作直方圖,從而制成描述子.Kim等[10]提出Scan Context描述子,在構建時效率較高,只提取每個點云區(qū)域內(nèi)最有代表性的一個點,可運用在實時SLAM系統(tǒng)中.上述描述子算法在應用時較簡單,只對每幀雷達數(shù)據(jù)提取特征描述子,再直接利用常見的距離度量函數(shù)(歐氏距離、余弦距離等)進行回環(huán)搜索.但是,由于內(nèi)部有區(qū)分度不高或混淆性較強的特征存在,因此算法性能受到影響.

度量學習針對某特定任務學習一個距離度量函數(shù),使該度量函數(shù)能幫助基于特征距離的算法取得更優(yōu)性能.深度度量學習是度量學習的一種,常應用于人臉識別、行人重識別、圖像檢索等領域,目標是學習一個從原始特征空間到區(qū)分度更強的特征空間的映射,在這個區(qū)分度更強的空間中,同類樣本之間的距離(歐氏距離、余弦距離等)縮小,異類樣本之間的距離拉大.在深度度量學習中,常見的損失函數(shù)是三元組損失函數(shù)(Triplet Loss)[12],用于學習一個區(qū)分度更好的特征空間.

Shrivastava等[13]針對Triplet Loss,提出在線挖掘難樣本的方法,可使Triplet Loss訓練效率更高、效果更優(yōu).在行人重識別的應用場景中,Hermans等[14]發(fā)現(xiàn)難樣本挖掘三元組損失函數(shù)(Batch Hard Triplet Loss)比難樣本挖掘的方式更穩(wěn)定、效果更優(yōu).Xuan等[15]提出可視化分析的方法,對訓練過程進行建模分析,了解不同難度樣本對訓練的影響.在上述場景中,樣本標簽都是明確的,因此非同類即為負樣本對,同類即為正樣本對,很好區(qū)分.而在本文處理的回環(huán)檢測中,樣本標簽不明確,因此數(shù)據(jù)集的制作及難樣本的挖掘存在困難.此外,在回環(huán)檢測場景中,回環(huán)樣本的數(shù)目顯著不足,需要設計方法補充.常規(guī)的Triplet loss對樣本的利用不夠充分,也需要進一步提升.整體算法在應用時需要簡單高效,這對網(wǎng)絡設計也提出要求.

為了解決上述問題,本文將度量學習引入回環(huán)檢測場景中,提出基于度量學習的回環(huán)檢測描述子提升算法.在生成傳統(tǒng)描述子后,設計網(wǎng)絡對描述子進行特征變換,基于Triplet Loss的思想改造損失函數(shù),訓練網(wǎng)絡,增強描述子算法的區(qū)分度.由于回環(huán)檢測場景中不存在完全相同的兩幀數(shù)據(jù),為單幀數(shù)據(jù)分配類別標簽存在困難,而兩幀數(shù)據(jù)是否互為回環(huán)幀可通過兩幀之間的位姿關系明確,因此利用兩幀之間的位姿關系判斷是否互為回環(huán),從而對兩幀之間的關系構造標簽.若兩幀互為回環(huán)幀,將兩幀當作正樣本對,否則當作負樣本對,以此避免單幀分配標簽困難的問題.同時,擴充回環(huán)樣本,解決數(shù)量顯著不足的問題,并針對回環(huán)檢測場景改造Triplet Loss用于訓練,學習相對更好的特征空間.在使用常見的距離度量函數(shù)搜索回環(huán)前,先對描述子進行特征空間的變換,提升描述子的性能.本文以M2PD描述子[6]、Scan Context描述子[10]為例對算法進行測試,結果表明本文算法能有效提升回環(huán)檢測能力.

1 回環(huán)檢測描述子提升算法

本文旨在回環(huán)搜索前加入一個特征空間映射模塊,將描述子映射到一個查詢幀與回環(huán)幀之間的距離相對變小、查詢幀與非回環(huán)幀之間距離相對變大的特征空間.通過這種空間映射,放大特征描述子中區(qū)分回環(huán)效果較優(yōu)的部分,剔除不相關或冗余部分及會混淆判斷的部分,完成對特征的重構,提升特征描述子的效果.

由此,本文提出回環(huán)檢測描述子提升算法,算法流程如圖1所示.在訓練階段,將三維點云數(shù)據(jù)利用特征描述子算法轉化為描述子,并與位姿結合,通過位姿關系選取正負樣本對,制作三元組形式的數(shù)據(jù)集.基于相似度分析,采取利用鄰近樣本擴充正樣本的方式,解決回環(huán)樣本顯著不足導致的訓練集較小的問題.擴充訓練集后,輸入網(wǎng)絡中,基于Triplet Loss改造的損失函數(shù)進行訓練.在應用階段,將三維點云數(shù)據(jù)轉化為特征描述子,通過訓練得到的網(wǎng)絡模塊進行增強,提升各描述子算法的效果.

圖1 本文算法流程圖Fig.1 Flowchart of the proposed algorithm

1.1 基于多層感知器的特征學習

本文使用多層感知器(Multi-layer Perceptron,MLP)對特征進行空間映射,MLP計算量較小,容易訓練,能夠滿足實時性要求較高、訓練數(shù)據(jù)不充足的回環(huán)檢測場景的要求.MLP結構如圖2所示,包括3個隱藏層.本文利用非線性函數(shù)增強網(wǎng)絡對特征的學習能力,并加入批歸一化(Batch Normalization),抑制過擬合,加速收斂.

圖2 MLP結構圖Fig.2 Structure of MLP

1.2 損失函數(shù)設計

深度度量學習主要用于學習一個較好的特征空間,在此空間中,相似樣本的特征距離相對較小,不相似樣本之間的特征距離較大,從而對數(shù)據(jù)進行區(qū)分.

本文使用基于Triplet Loss改造的針對回環(huán)檢測場景設計的損失函數(shù).如圖3所示,本文選擇某一個錨樣本(Anchor)A,與它標簽相同的樣本P作為正樣本(Positive),與它標簽不同的樣本N作為負樣本(Negative).以3個樣本的形式制作成一個三元組,分別輸入同個網(wǎng)絡(本文采用MLP)中,得到3個特征向量,計算Triplet Loss:

L=max(dA-P-dA-N+α,0),

(1)

再使用反向傳播算法更新原本的模型,其中,dA-P為選定樣本A與正樣本P之間的距離,dA-N為選定樣本A與負樣本N之間的距離.使用這個損失函數(shù)訓練的目的是讓負樣本對之間的距離大于正樣本對之間的距離.

圖3 度量學習示意圖Fig.3 Sketch map of metric learning

定義樣本數(shù)量為k,由于本文使用三元組數(shù)據(jù)集,需要挑選3個樣本組成三元組,因此樣本空間的量級會達到k3.若不進行針對性優(yōu)化,算法的收斂速度很慢,容易陷入局部最優(yōu).而如果采用批量(Batch)輸入的方式訓練,收斂較快,但圖4所示的兩種容易學習的三元組(dA-P

圖4 兩種簡單三元組形式Fig.4 Two kinds of simple triplet

在現(xiàn)實場景中回環(huán)樣本通常不多,并且三元組內(nèi)的樣本重復度較高.所以為了更充分地利用數(shù)據(jù)集,受Hermans等[14]的啟發(fā),本文提出適配回環(huán)檢測這種有成組標簽的Batch Hard Triplet Loss:

(2)

這種做法的優(yōu)勢在于,一次訓練只取批量中最難的一個三元組,忽略那些損失函數(shù)值為0、對訓練沒有貢獻的簡單三元組,使損失函數(shù)值不會過早收斂到0附近,從而使訓練更充分.相比利用所有數(shù)據(jù)進行訓練的方式,效率更高.

相比先挖掘全部困難樣本,再用這些困難樣本批量輸入訓練,本文提出的這種方式更穩(wěn)定,因為以損失函數(shù)的形式進行樣本挖掘,只是選取一個批量中的最難樣本,這樣樣本在整個數(shù)據(jù)集中只能算是較難的,而如果對訓練集進行難樣本挖掘的處理,相當于使用整個數(shù)據(jù)集中難的樣本進行訓練,會使訓練難度加大,造成收斂困難,并且對數(shù)據(jù)集的利用率降低,對數(shù)據(jù)的擬合程度差于本文提出的損失函數(shù).

為了增強損失函數(shù)的穩(wěn)定性和效果,本文提出進一步提高數(shù)據(jù)利用率的方法.將簡單三元組分成圖4所示的兩種,兩者的選定樣本都離正樣本較近、離負樣本較遠,在式(2)中損失函數(shù)值為0.但是如果從正樣本的角度上看,以正樣本作為錨樣本,則此時圖4右圖的損失函數(shù)值不為0.這部分樣本是完全可以被利用起來的,為此將損失函數(shù)改寫為

(3)

1.3 標簽模糊問題

在回環(huán)檢測場景中,為單幀數(shù)據(jù)分配類別標簽存在困難,此類問題在路口處較常見.如圖5所示,A、C是經(jīng)過該路口時留下的兩幀數(shù)據(jù),B是再一次回到該路口時的一幀數(shù)據(jù).{A,B}、{B,C}為兩組回環(huán),若為A、B分配同一標簽,B與C也應是同樣標簽,從這個角度講,A、B、C標簽相同.而實際上,回環(huán)幀是指機器人再一次到達歷史軌跡附近檢測到的歷史幀,因此A、C之間不存在回環(huán)關系.在圖像分類場景中,A、B同類,B、C同類,則A、B、C必然同類.然而回環(huán)檢測場景下單幀數(shù)據(jù)分類不明確,與圖像分類問題具有明顯區(qū)別.

如上所述,無法為單幀數(shù)據(jù)分配標簽.而兩幀之間是否互為回環(huán)可通過位姿關系明確判斷,因此,本文選擇對兩幀之間的關系構造標簽.若兩幀互為回環(huán)幀,將兩幀當作正樣本對,否則當作負樣本對,以此避免單幀分配標簽困難的問題.

由于訓練時只能以成對、成組的形式輸入,因此本文采用Triplet Loss進行成組數(shù)據(jù)的訓練.此類數(shù)據(jù)集制作通常是選取一個樣本A,一個與A同類的正樣本P,組成正樣本對{A,P},再選取一個其它類別的樣本N,組成負樣本對{A,N}.{A,P,N}記為一個三元組.通過訓練使負樣本對之間的距離大于正樣本對之間的距離.

圖5 軌跡示意圖Fig.5 Sketch map of trajectory

在回環(huán)檢測場景中,類比通常做法,本文選取三元組的方式如圖6所示,通過位姿和相似度搜索的方式制作三元組.以查詢幀作為錨樣本,將查詢幀與其對應的回環(huán)幀(距離小于距離閾值且相似度大于正樣本閾值)組成正樣本對,將查詢幀與距離夠遠且相似度大于負樣本閾值的幀組成負樣本對,從而建立三元組.

圖6 挑選三元組示意圖Fig.6 Sketch map of picking triples

1.4 數(shù)據(jù)集擴充

若僅以查詢幀對應的回環(huán)幀制作三元組,用于制作正樣本的數(shù)據(jù)顯著不足,極大程度上限制整個數(shù)據(jù)集的大小.從回環(huán)檢測的本質(zhì)上說,回環(huán)檢測算法依賴查詢幀與回環(huán)幀描述子之間的相似性,而這種相似性源自查詢幀與回環(huán)幀在點云結構上的相似性.從理論上看,相鄰幀之間由于距離較近,掃描到的點云大致類似,應該也具有類似查詢幀與回環(huán)幀的關系.因此,本文提出把查詢幀的相鄰幀作為正樣本,這樣可大量擴充數(shù)據(jù)集,減輕樣本不平衡對算法造成的影響.

以M2DP描述子為例,在KITTI數(shù)據(jù)集[16]上,本文對查詢幀與回環(huán)幀、查詢幀與相鄰幀之間的關系進行統(tǒng)計分析.定義總幀數(shù)為N,統(tǒng)計查詢幀i與幀數(shù)在[i-200,i-1]∪[i+1,i+200]范圍內(nèi)相鄰幀的關系,以兩幀之間距離為橫坐標,兩幀之間的歐氏距離相似度為縱坐標,繪制圖7中實線所示結果.統(tǒng)計查詢幀i和幀數(shù)在[0,i-200]∪[i+200,N]范圍內(nèi)幀的關系,如圖7中的虛線所示,此時由于去除相鄰幀,橫坐標較小的就是回環(huán)幀,因此可利用圖中虛線觀察查詢幀與回環(huán)幀之間的關系.

由圖7可發(fā)現(xiàn),距離較近的幀,與查詢幀的相似度會顯著高于其它幀.無論是回環(huán)幀還是相鄰幀,在相似度的分布上是類似的,都與兩幀之間的距離有關.距離達到某個閾值后,點云特征的區(qū)分性不夠,隨著距離的增加,相似度降低到0.5~0.55附近.因此可利用相鄰幀中相似度高于某個閾值的幀(即距離小于距離閾值且相似度大于相似度閾值的幀)補充回環(huán)樣本,以KITTI07序列為例,若只用回環(huán)部分作為正樣本,可制作正樣本對1 467對.而如果加入鄰近數(shù)據(jù)補充回環(huán)樣本,總共可制作出正樣本對31 740對,極大程度上擴充數(shù)據(jù)量.

圖7 查詢幀和回環(huán)幀、鄰近幀的相似度關系Fig.7 Similarity relationship between queried frames and loop frames, adjacent frames, respectively

2 實驗及結果分析

本文使用M2DP描述子[6]和Scan Context描述子[10]測試算法的有效性.M2DP描述子將三維點云數(shù)據(jù)投影到平面上,再利用SVD提取奇異向量,拼接成192維特征描述子.Scan Context描述子將點云以激光雷達為中心進行環(huán)形分區(qū),并將環(huán)形區(qū)域切割成固定數(shù)量的點云區(qū)域,提取每個點云區(qū)域內(nèi)最有代表性的一個點,拼成一幅維度為Nr×Ns圖像.在回環(huán)搜索時,提取每行的L0范數(shù),制作成一個Nr維的特征向量.

所有的訓練、測試都在電腦(Intel i5 8500處理器,16 GB內(nèi)存)上進行.

2.1 實驗數(shù)據(jù)集

本文選取的測試數(shù)據(jù)集為KITTI[16]、NCLT數(shù)據(jù)集[17].KITTI數(shù)據(jù)集是目前國際上通用的計算機視覺算法評測數(shù)據(jù)集,包含針對市區(qū)、鄉(xiāng)村等場景采集的激光雷達數(shù)據(jù),本文使用其中的00、02、05、06、07序列.這幾個序列存在回環(huán),并且KITTI數(shù)據(jù)集提供與激光雷達數(shù)據(jù)一一對應的位姿真值.位姿真值來源于采集過程中的RTK-GPS、IMU等傳感器信息.

NCLT數(shù)據(jù)集是密歇根大學對校園環(huán)境進行多次采集得到的數(shù)據(jù)集,序列名與采集日期對應.本文使用20120115、20120204、20120820、20121028、20121116這些具有回環(huán)的序列.參考NCLT數(shù)據(jù)集[17],本文使用其中較準確的相鄰幀間隔8 m左右的位姿真值及其對應的激光雷達數(shù)據(jù).位姿真值來源于RTK-GPS等傳感器信息,并進行位姿圖優(yōu)化的處理.

2.2 測試指標

本文從每幀點云數(shù)據(jù)中提取對應的特征描述子,利用特征描述子之間的特征歐氏距離作為回環(huán)的判斷指標.如果查詢幀與搜索的特征距離最近的回環(huán)幀之間的特征距離小于特征閾值,且實際距離小于5 m,認為找到正確的回環(huán)檢測.

為了避免鄰近數(shù)據(jù)被誤認為是回環(huán)幀,在KITTI數(shù)據(jù)集上,篩除查詢幀相鄰200幀的數(shù)據(jù),即對某個查詢幀i來說,回環(huán)幀的搜索范圍為[0,i-200].在NCLT數(shù)據(jù)集上,由于該數(shù)據(jù)集提供較精準的相鄰幀間隔8 m的位姿真值,而本文使用的回環(huán)檢測距離閾值是5 m,不存在鄰近數(shù)據(jù)被誤認為回環(huán)幀的情況,所以采用的搜索范圍為[0,i-1].

本文使用精確率-召回率曲線(Precision-Recall, P-R)、F1值( F1 Score)指標評估算法性能.

2.3 M2DP描述子測試

本節(jié)測試采用的訓練集均為KITTI數(shù)據(jù)集上00序列,采用的測試集是KITTI數(shù)據(jù)集上02、05、06、07序列.M2DP描述子的提取按照默認參數(shù),每幀數(shù)據(jù)對應一個192維描述子.對比算法Point-NetVLAD采用作者在github上的代碼.為了保證公平,在KITTI00序列上進行微調(diào)訓練.

M2DP描述子、使用基礎版本的Triplet Loss(簡稱為Basic Loss)訓練后的M2DP描述子、使用本文提出的Batch Hard Triplet Loss(簡稱為BH Loss)訓練后的M2DP描述子、PointNetVLAD在測試集上的P-R曲線如圖8所示.

由圖8可知,在數(shù)據(jù)擴充前,BH Loss效果明顯優(yōu)于Basic Loss.Basic Loss無法超過M2DP描述子的效果,而BH Loss能較好地達到或超過M2DP描述子的效果,這表明BH Loss能更充分利用樣本,數(shù)據(jù)擬合效果更優(yōu).在數(shù)據(jù)擴充后,BH Loss效果依舊優(yōu)于Basic Loss.在利用鄰近數(shù)據(jù)補充回環(huán)樣本后,無論是使用BH Loss訓練還是使用Basic Loss訓練,相比擴充前,效果都有明顯提升,說明數(shù)據(jù)集較小會限制算法效果.雖然在數(shù)據(jù)集擴充后,Basic Loss在部分場景(如KITTI 05序列)中可接近BH Loss的水平,但是綜合來看,BH Loss明顯優(yōu)于Basic Loss.考慮到數(shù)據(jù)集較小的問題在回環(huán)檢測場景中普遍存在,因此BH Loss優(yōu)勢明顯.基于深度學習的描述子算法PointNetVLAD在KITTI00序列上微調(diào)后,測試效果優(yōu)于訓練前的M2DP.經(jīng)過BH Loss增強后,M2DP在P-R曲線及F1值上超越PointNetVLAD,說明本文算法具有一定優(yōu)勢.注意到PointNetVLAD使用更多的訓練數(shù)據(jù),相比之下,本文算法訓練簡單,效果更優(yōu).

(a)KITTI 02

(b)KITTI 05

(c)KITTI 06

(d)KITTI 07圖8 M2DP描述子在KITTI數(shù)據(jù)集上的Top1 P-R曲線Fig.8 Top1 precision-recall curves of M2DP descriptor onKITTI dataset

擴充前后各算法Top1結果的F1值如表1和表2所示,表中黑體數(shù)字表示最優(yōu)結果.在訓練前,M2DP描述子的性能在部分序列上不如Point-NetVLAD,尤其是在KITTI 07序列上,差距較大.通過BH Loss增強后,在這些序列上效果都有提升,F(xiàn)1值都超過PointNetVLAD,由此驗證本文算法的有效性.

表1 擴充前M2DP描述子Top1結果的F1值Table 1 Top1 F1 score of M2DP descriptor before data augmentation

表2 擴充后M2DP描述子Top1結果的F1值Table 2 Top1 F1 score of M2DP descriptor after data augmentation

由于Top1的結果只能觀察到回環(huán)幀與查詢幀的特征距離是否最小,為了觀察訓練前后查詢幀與對應回環(huán)幀的距離是否普遍被拉近,繪制數(shù)據(jù)擴充后Top10 P-R曲線,如圖9所示.

(a)KITTI 02

(b)KITTI 05

(c)KITTI 06

(d)KITTI 07圖9 M2DP描述子在KITTI數(shù)據(jù)集上的Top10 P-R曲線Fig.9 Top10 precision-recall curves of M2DP descriptor onKITTI dataset

Top10結果的F1值如表3所示,表中黑體數(shù)字表示最優(yōu)結果.在M2DP描述子效果較差的場景下,如KITTI07序列,BH Loss能有效拉近查詢幀與對應回環(huán)幀的距離,Top10的準確度有很大的提升,明顯優(yōu)于Basic Loss.在M2DP描述子效果較優(yōu)的場景下,如在02、05、06序列上,BH Loss也能起作用.由于Top10問題比Top1更簡單,因此本文算法與Basic Loss在簡單場景下差距不大,但總體而言,本文的BH Loss優(yōu)于Basic Loss.

表3 擴充后的M2DP描述子Top10結果的F1值Table 3 Top10 F1 scores of M2DP descriptor after data augmentation

2.4 Scan Context描述子測試

本文采用與2.3節(jié)完全相同的訓練、測試方式,對Scan Context描述子進行測試.Scan Context描述子的提取基本按照默認參數(shù),為了避免改變網(wǎng)絡結構,將Scan Context描述子維度從區(qū)分度較低的20維提升至192維,改變后與M2DP描述子維度保持一致.評估時未用KITTI 數(shù)據(jù)集上00序列訓練,采用KITTI、NCLT數(shù)據(jù)集測試.

各算法的Top10 P-R曲線如圖10所示,觀察圖10(c)、(d)可發(fā)現(xiàn),BH Loss在Scan Context描述子上依然有效,可明顯提升描述子的性能,效果優(yōu)于Basic Loss,這得益于本文算法能更充分利用數(shù)據(jù)集,挖掘樣本之間的關系信息,增強描述子的區(qū)分度.觀察圖10(a)、(b)可發(fā)現(xiàn),BH Loss雖然是在KITTI數(shù)據(jù)集上完成訓練,但是在NCLT數(shù)據(jù)集上測試也取得明顯效果.

(a)NCLT 20120204

(b)NCLT 20121028

(c)KITTI 02

(d)KITTI 05圖10 Scan Context描述子的Top10 P-R曲線Fig.10 Top10 precision-recall curves of Scan Context descriptor

各算法在NCLT數(shù)據(jù)集上Top10結果的F1值如表4所示.

表4 Scan Context描述子結果的Top10 F1值Table 4 Top10 F1 scores of Scan Context descriptor

由表4可知,本文算法具有一定的泛化能力,有跨越數(shù)據(jù)集使用的潛力.在原本效果較差的NCLT數(shù)據(jù)集上的提升比KITTI數(shù)據(jù)集更明顯.

2.5 無回環(huán)數(shù)據(jù)訓練結果

為了驗證本文算法可使用無回環(huán)的數(shù)據(jù)進行訓練,并提升算法回環(huán)檢測的性能這一特性,本文將KITTI數(shù)據(jù)集上06、07序列進行切分,取無回環(huán)的第200幀到第800幀用于訓練,剩余數(shù)據(jù)用于測試.數(shù)據(jù)劃分情況如圖11所示,圖中粗線框部分為訓練數(shù)據(jù),其余為測試數(shù)據(jù).

(a)KITTI 06

(b)KITTI 07圖11 數(shù)據(jù)集劃分情況Fig.11 Dataset division

測試結果如圖12所示,訓練后的M2DP效果有所提升,使用BH Loss訓練提升更大,這得益于BH Loss在訓練中能充分挖掘訓練集的信息,且使用的網(wǎng)絡結構較為簡單.

(a)KITTI 06

(b)KITTI 07圖12 序列片段測試結果Fig.12 Sequence fragment test results

無回環(huán)數(shù)據(jù)的F1值如表5所示,兩個序列上的描述子效果均有提升,在原效果較差的KITTI 07序列上提升明顯,驗證BH Loss可利用不存在回環(huán)的數(shù)據(jù)提升回環(huán)檢測的效果.由于正負樣本的判斷只是通過兩個距離閾值,對位姿精度要求不高,因此在實際應用時,可利用里程計模塊計算位姿和對應幀的數(shù)據(jù)制作訓練集,方便快捷.

表5 無回環(huán)數(shù)據(jù)的F1值Table 5 F1 score without loop

2.6 真實數(shù)據(jù)集測試結果

真實數(shù)據(jù)集采集自浙江大學玉泉校區(qū)的校園,使用的激光雷達型號為Velodyne VLP-32C.位姿通過LOAM(Lidar Odometry and Mapping in Real-Time)[18]及位姿圖優(yōu)化獲得,繪制的行駛軌跡如圖13所示,由于其中大部分回環(huán)為逆向回環(huán),挑戰(zhàn)性較大.本文選用具有旋轉不變性的Scan Context描述子進行測試,采用與2.4節(jié)完全相同的訓練方式在KITTI數(shù)據(jù)集00序列上訓練模型,然后在真實數(shù)據(jù)集上進行測試.

圖13 真實數(shù)據(jù)集軌跡圖Fig.13 Trajectory of real dataset

真實數(shù)據(jù)集上的測試結果如圖14所示,在真實場景下,Scan Context描述子的Top1 P-R曲線較差,訓練后有較大的提升.這一結果進一步驗證本文算法具有跨數(shù)據(jù)集使用的潛力.

圖14 真實數(shù)據(jù)集上的測試結果Fig.14 Testing results on real dataset

真實數(shù)據(jù)集上的F1值如下所示:Scan Context訓練前Top1結果為0.007,Top10結果為0.239,Scan Context訓練后Top1結果為0.552,Top10結果為0.870.Top1結果的F1值提升0.545,Top10結果的F1值提升0.631,說明在KITTI數(shù)據(jù)集00序列訓練后,真實場景下的數(shù)據(jù)集也起到明顯效果,體現(xiàn)本文算法的應用價值.

3 結 束 語

本文提出基于度量學習的回環(huán)檢測描述子提升算法.制作三元組數(shù)據(jù)集應對標簽不明確的問題,提出利用鄰近數(shù)據(jù)補充回環(huán)數(shù)據(jù)量的方法,解決回環(huán)數(shù)據(jù)太少的問題.針對回環(huán)檢測數(shù)據(jù)集數(shù)據(jù)量較小、訓練較難的問題,基于Triplet Loss改造適配的損失函數(shù),通過訓練網(wǎng)絡,將描述子映射到一個區(qū)分度更高的空間.整體算法簡單易用,提升效果明顯.

猜你喜歡
回環(huán)集上樣本
單雙點平滑結合的流形正則化半監(jiān)督分類學習框架
嘟嘟闖關記
直擊高考中的用樣本估計總體
《中國現(xiàn)代詩歌散文欣賞》之新詩教學多樣性探索
隨機微分方程的樣本Lyapunov二次型估計
基于支持向量機的測厚儀CS值電壓漂移故障判定及處理
七年級數(shù)學下冊期末檢測題(B)
幾道導數(shù)題引發(fā)的解題思考
2008年高考考前模擬試題(二)及略解
大自然的音籟 靈魂的交響
灌阳县| 栾川县| 古浪县| 视频| 惠来县| 龙口市| 肃宁县| 茂名市| 晋城| 自治县| 乡宁县| 万山特区| 东平县| 屯昌县| 叶城县| 互助| 时尚| 玛纳斯县| 绥化市| 鄂托克旗| 丰台区| 包头市| 鄂托克前旗| 梓潼县| 古田县| 阿尔山市| 旬邑县| 上犹县| 岫岩| 柘城县| 连南| 桐城市| 色达县| 荥阳市| 迭部县| 浙江省| 英德市| 沙河市| 阜平县| 根河市| 广平县|