盧軍 王澤荔 孫威振 張文濤
摘 要: LiDAR獲取數(shù)據(jù)的方式導(dǎo)致點(diǎn)云數(shù)據(jù)存在陰影、遮擋等現(xiàn)象,造成現(xiàn)有算法識(shí)別率低,魯棒性差。稀疏表示理論表明過(guò)完備字典可通過(guò)少量重構(gòu)系數(shù)重構(gòu)樣本,從而達(dá)到降噪目的。據(jù)此提出基于稀疏表示的LiDAR點(diǎn)云目標(biāo)識(shí)別算法。首先,在由所有訓(xùn)練樣本組成的過(guò)完備字典上重構(gòu)樣本;然后,計(jì)算每個(gè)測(cè)試樣本在字典上的稀疏表示重構(gòu)誤差,并利用該重構(gòu)誤差判別測(cè)試樣本的類(lèi)別歸屬。實(shí)驗(yàn)表明,所提算法對(duì)點(diǎn)云目標(biāo)的識(shí)別率較現(xiàn)有算法均有顯著提升,并具有較高的魯棒性。
關(guān)鍵詞: 稀疏表示; 目標(biāo)識(shí)別; LiDAR; 重構(gòu)誤差; 字典
中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1006-8228(2018)11-01-03
Abstract: The method of LiDAR data acquisition leads to shadow and occlusion of point cloud data, which results in low recognition rate and poor robustness of existing algorithms. The sparse representation theory indicates that the over-completeness of the dictionary enables the algorithm to reconstruct samples effectively with a small number of reconstruction coefficients, so as to achieve the purpose of noise reduction. Firstly, the samples were reconstructed on the over-complete dictionary composed of all training samples. Secondly, the sparse representation of each test sample in the dictionary indicates the reconstruction error, which is used to identify the category of test samples. The experimental results show that the proposed algorithm has significantly improved the recognition rate of point cloud objects compared with the existing algorithms, and has high robustness.
Key words: sparse representation; target recognition; LiDAR; reconstruction error; dictionary
0 引言
針對(duì)不同LiDAR系統(tǒng)的數(shù)據(jù)處理問(wèn)題,國(guó)內(nèi)外專(zhuān)家學(xué)者進(jìn)行了大量的實(shí)驗(yàn)研究, Zhang等[2]提出了對(duì)機(jī)載LiDAR點(diǎn)云分類(lèi)的聯(lián)合鑒別字典與分類(lèi)學(xué)習(xí)方法,該方法獲取點(diǎn)云數(shù)據(jù)基于分層點(diǎn)的特征后進(jìn)行字典學(xué)習(xí),得到基于分層特征的字典,然后聚合分層特征,最后進(jìn)行稀疏表示,完成識(shí)別。Li等[3]提出了一種用于機(jī)載激光雷達(dá)的基于張量的稀疏表示分類(lèi)方法,該方法為了保持空間排列的特征,每個(gè)激光雷達(dá)點(diǎn)都表示為一個(gè)四階張量,進(jìn)而通過(guò)一些訓(xùn)練樣本來(lái)學(xué)習(xí)一套結(jié)構(gòu)化的判別字典,最后通過(guò)最小重構(gòu)誤差判斷類(lèi)別歸屬。以上兩種方法使用的環(huán)境均為機(jī)載激光雷達(dá),在基于機(jī)載雷達(dá)的目標(biāo)識(shí)別中,點(diǎn)云數(shù)據(jù)結(jié)構(gòu)穩(wěn)定[6],因此使用稀疏表示等方法對(duì)其進(jìn)行分類(lèi)時(shí)效果十分出色。與機(jī)載LiDAR不同的是,地面LiDAR掃描為原點(diǎn)向外掃描獲取數(shù)據(jù),會(huì)產(chǎn)生陰影遮擋或缺失情況,且相同物體由于反射角度和反射距離的不同導(dǎo)致反射強(qiáng)度也不同[5]。稀疏表示的方法在數(shù)據(jù)存在遮擋和缺失的情況時(shí)具有很強(qiáng)的魯棒性,John等[1]提出了稀疏表示的識(shí)別方法,在識(shí)別過(guò)程中對(duì)遮擋和缺失等情況時(shí)同樣具有較高的識(shí)別率。
本文的主要貢獻(xiàn)是,提出了通過(guò)在稀疏表示空間提取點(diǎn)云目標(biāo)的判別信息,大大降低目標(biāo)特征判別的數(shù)據(jù)量以及噪聲對(duì)識(shí)別結(jié)果的影響。通過(guò)基于稀疏表示的地面LiDAR點(diǎn)云目標(biāo)識(shí)別方法,可以提高分類(lèi)精度以及魯棒性。
1 相關(guān)算法
1.1 OMP算法優(yōu)化求解稀疏表示系數(shù)
OMP算法計(jì)算的每一步都會(huì)對(duì)所選擇的全部原子進(jìn)行正交化處理,這樣會(huì)使得OMP算法的收斂速度更快。OMP算法計(jì)算過(guò)程中,首先,需要初始化誤差向量、活躍集以及迭代次數(shù);其次,搜索索引,其中選擇下一個(gè)原子的依據(jù)是需要最大程度的減少目標(biāo)的函數(shù)值;然后,對(duì)計(jì)算結(jié)果進(jìn)行更新;最后,判斷迭代條件,如果小于設(shè)定的K值,繼續(xù)進(jìn)行迭代計(jì)算,反之結(jié)束計(jì)算退出循環(huán)。
1.2 依據(jù)重構(gòu)誤差確定樣本類(lèi)別
為了使用稀疏表示系數(shù)來(lái)確定測(cè)試樣本的類(lèi)別,在使用重構(gòu)誤差來(lái)確定樣本的類(lèi)別中,設(shè)測(cè)試樣本減去該樣本在字典中的重構(gòu)數(shù)據(jù)的二范數(shù)為重構(gòu)誤差,以此重構(gòu)誤差進(jìn)行類(lèi)別的判斷。
圖1為算法流程,由于數(shù)據(jù)場(chǎng)景中點(diǎn)云分布密度不同,所裁剪區(qū)域點(diǎn)云數(shù)量無(wú)法保證一致;因此,首先對(duì)數(shù)據(jù)進(jìn)行規(guī)范化處理,使點(diǎn)云數(shù)量一致;其次,由所有訓(xùn)練樣本構(gòu)成字典以及對(duì)每類(lèi)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)進(jìn)行便簽化處理,為后續(xù)確定樣本類(lèi)別,建立判別標(biāo)準(zhǔn);使用OMP算法對(duì)給定的測(cè)試樣本進(jìn)行稀疏表示求解,得到稀疏表示系數(shù);最終,以重構(gòu)誤差來(lái)確定樣本的類(lèi)別。
2 數(shù)據(jù)處理
文獻(xiàn)[2-3]指出,機(jī)載LiDAR的分類(lèi)首先可以將地面點(diǎn)云數(shù)據(jù)去除后進(jìn)行分類(lèi),相同目標(biāo)的反射距離及反射角度趨于相同,因此使用稀疏表示等方法對(duì)其進(jìn)行分類(lèi)時(shí)效果十分出色。地面LiDAR與機(jī)載LiDAR不同的是,地面LiDAR為原點(diǎn)向外掃描式獲取數(shù)據(jù),相同物體由于反射角度和反射距離的不同導(dǎo)致反射強(qiáng)度也不同,因此該方法處理地面LiDAR具有一定的局限性。針對(duì)這一特性,本文將地面激光掃描場(chǎng)景中目標(biāo)點(diǎn)云數(shù)據(jù)預(yù)先提取,作為算法的訓(xùn)練樣本和測(cè)試樣本。
本文使用Large-Scale Point Cloud Classification Benchmark數(shù)據(jù)集[4],采用包括sg27_1場(chǎng)景在內(nèi)的五個(gè)場(chǎng)景進(jìn)行測(cè)試,該數(shù)據(jù)集信息包含三維空間信息X,Y,Z、回波強(qiáng)度信息I(Intensity)以及影像數(shù)據(jù)配準(zhǔn)后的顏色信息RGB,該場(chǎng)景下點(diǎn)云數(shù)量共161,044,280個(gè)。本實(shí)驗(yàn)使用位置信息以及強(qiáng)度信息X,Y,Z,I作為特征數(shù)據(jù),原始點(diǎn)云如圖2所示。
3 實(shí)驗(yàn)
本文實(shí)驗(yàn)使用第二節(jié)獲取的數(shù)據(jù),該場(chǎng)景中目標(biāo)可大致分為四大類(lèi),草地、墻、窗戶(hù)以及屋頂,對(duì)此四類(lèi)進(jìn)行分割組成訓(xùn)練、測(cè)試樣本。由于點(diǎn)云數(shù)據(jù)的密度分布在每個(gè)區(qū)域內(nèi)都不盡相同,因此分割得到的訓(xùn)練、測(cè)試樣本的點(diǎn)云數(shù)量無(wú)法保證相同,為了保證點(diǎn)云數(shù)據(jù)的數(shù)量在本文算法中的適用性,同時(shí)為了加速計(jì)算速度及規(guī)范數(shù)據(jù)量,使數(shù)據(jù)便于全局處理,對(duì)訓(xùn)練、測(cè)試的點(diǎn)云數(shù)據(jù)統(tǒng)一下采樣為10,000點(diǎn)。
本文獲取的該數(shù)據(jù)包含草地、墻、窗戶(hù)、屋頂4類(lèi)共2,560,000個(gè)LiDAR點(diǎn)云,其中墻樣例圖像如圖3所示。本文基于稀疏表示的目標(biāo)識(shí)別方法對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行實(shí)驗(yàn),其相關(guān)實(shí)驗(yàn)過(guò)程及結(jié)果如下。
在實(shí)驗(yàn)中,每幅場(chǎng)景由一個(gè)4?10,000的特征量表示。在每類(lèi)隨機(jī)選取數(shù)據(jù)集中的510,000個(gè)LiDAR激光點(diǎn)云作為訓(xùn)練集,130,000個(gè)LiDAR點(diǎn)云為測(cè)試集。使用貪婪算法OMP求解稀疏表示系數(shù),圖4為利用OMP方法得到的稀疏重構(gòu)信息的結(jié)果圖,參數(shù)K為10;該結(jié)果為圖5測(cè)試樣本在訓(xùn)練集上的稀疏表示,由于附加的稀疏性約束,求解結(jié)果只有少數(shù)的非零元素,這些非零元素為重構(gòu)系數(shù),僅依靠這些非零元素便可以在圖3所示的訓(xùn)練樣本中有效地重構(gòu)出當(dāng)前的測(cè)試樣本。
該稀疏表示方法存在控制稀疏性強(qiáng)弱的關(guān)鍵系數(shù)K,OMP算法的參數(shù)K由1增加到20,當(dāng)K增加到10以后識(shí)別率基本保持穩(wěn)定,如圖6繪制的參數(shù)識(shí)別率變化曲線(xiàn)所示。當(dāng)采用稀疏的10個(gè)字典中的原子進(jìn)行重構(gòu),便可以達(dá)到較高的識(shí)別率,即87.5%,而使用KNN算法的識(shí)別率僅為68.75%。本文在不同場(chǎng)景下共進(jìn)行五次實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖7所示。其中灰色為使用KNN算法識(shí)別率,黑色為使用本文算法的識(shí)別率。
4 結(jié)束語(yǔ)
本文針對(duì)激光點(diǎn)云目標(biāo)識(shí)別率低等問(wèn)題,提出基于稀疏表示的LiDAR點(diǎn)云目標(biāo)識(shí)別方法。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)算法相比,本文所提算法具有更加良好的鑒別能力。同時(shí)表明該方法在LiDAR點(diǎn)云目標(biāo)識(shí)別中同樣具有很好的效果和魯棒性。由于原始字典仍然具有一定的噪聲信息,會(huì)對(duì)識(shí)別結(jié)果造成一定的影響。接下來(lái)將對(duì)字典進(jìn)一步進(jìn)行研究,減少字典生產(chǎn)過(guò)程中噪聲的影響。
參考文獻(xiàn)(References):
[1] Wright J, Ganesh A, Zhou Z, et al. Demo: Robust Face Recognition Via Sparse Representation[C]// IEEE International Conference on Automatic Face & Gesture Recognition. IEEE,2009:1-2
[2] Zhang Z, Zhang L, Tan Y, et al. Joint Discriminative Dictionary and Classifier Learning for ALS Point Cloud Classification[J]. IEEE Transactions on Geoscience & Remote Sensing,2017.56(1):524-538
[3] Li N, Pfeifer N, Liu C. Tensor-Based Sparse Representation Classification for Urban Airborne LiDAR Points[J]. Remote Sensing,2017.9(12):1216
[4] Hackel T, Savinov N, Ladicky L, et al. Semantic3D.net: A New Large-Scale Point Cloud Classification Benchmark[J].2017,IV-1/W1.
[5] Golovinskiy A, Kim V G, Funkhouser T. Shape-Based Recognition of 3D Point Clouds in Urban Environments[C]// IEEE, International Conference on Computer Vision. IEEE,2010:2154-2161
[6] Sampath A, Shan J. Segmentation and Reconstruction of Polyhedral Building Roofs From Aerial Lidar Point Clouds[J].IEEE Transactions on Geoscience & Remote Sensing,2010.48(3):1554-1567
[7] Mei S, He M, Zhang Y, et al. Improving Spatial-Spectral Endmember Extraction in the Presence of Anomalous Ground Objects[J]. IEEE Transactions on Geoscience & Remote Sensing,2011.49(11):4210-4222