国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度相機(jī)的實(shí)時(shí)室內(nèi)三維信息采集方法

2021-07-07 07:52:34朱思雨駱漢賓
關(guān)鍵詞:立方體重構(gòu)建模

雷 蕾,朱思雨,駱漢賓

(華中科技大學(xué) 土木與水利工程學(xué)院, 湖北 武漢 430074)

隨著中國城市化進(jìn)程的不斷推進(jìn),城鎮(zhèn)老舊小區(qū)改造需求日益凸顯,城市的發(fā)展從傳統(tǒng)城市向信息化、智慧化城市邁進(jìn)[1]。準(zhǔn)確、及時(shí)的數(shù)字化工程信息的采集是推動(dòng)建筑業(yè)數(shù)字化、智能化的重要支撐工具[2]。相較于傳統(tǒng)的圖片、視頻等二維數(shù)據(jù)采集,三維數(shù)據(jù)的收集與分析也受到越來越多的重視。包含建筑幾何形狀和特征信息的三維模型使建造過程可視化、可分析,有助于緩解涉及多個(gè)參與方的建設(shè)項(xiàng)目中的沖突,解決傳統(tǒng)施工中信息獲取不連續(xù)、信息丟失、信息存儲(chǔ)困難等問題[3]。在實(shí)際工程應(yīng)用中,以日或周定期獲取施工現(xiàn)場(chǎng)的三維模型代替?zhèn)鹘y(tǒng)的手工編制在工程進(jìn)度管理、現(xiàn)場(chǎng)管理方面的作用愈發(fā)顯著。特別是室內(nèi)裝修工程,其施工工作面有限而且施工內(nèi)容復(fù)雜,因此對(duì)施工次序和進(jìn)度安排較為敏感,基于三維模型的實(shí)時(shí)自動(dòng)化進(jìn)度監(jiān)測(cè)可避免資源不必要的浪費(fèi)[4]。

在生成建筑三維信息模型方面,國內(nèi)外學(xué)者做出了相關(guān)的研究。研究主要分為兩個(gè)方向:(1)基于BIM(Building Information Modeling)的參數(shù)化三維建筑模型,輔助建筑工程的設(shè)計(jì)管理、進(jìn)度管理;(2)利用激光掃描儀、數(shù)碼相機(jī)、深度相機(jī)等設(shè)備獲取數(shù)據(jù)重建基于點(diǎn)云的場(chǎng)景模型,用于施工進(jìn)度管理、現(xiàn)場(chǎng)管理和建筑物損傷測(cè)定。BIM技術(shù)是最早應(yīng)用于三維建筑模型的數(shù)字技術(shù),在工程領(lǐng)域應(yīng)用最為廣泛。BIM模型包含了建筑物整個(gè)生命周期的信息,能有效提高工程全壽命周期管理水平。Matthews等[5]研究了BIM在信息傳遞方面的有效性,設(shè)計(jì)實(shí)時(shí)面向使用對(duì)象的雙向系統(tǒng),實(shí)現(xiàn)鋼筋混凝土結(jié)構(gòu)施工進(jìn)度監(jiān)控和管理。林佳瑞等[6]針對(duì)工程施工進(jìn)度與資源均衡的關(guān)鍵需求,建立一個(gè)基于4D-BIM模型解決進(jìn)度-資源均衡問題,通過4D-BIM模型進(jìn)度及資源信息與離散事件仿真模型的轉(zhuǎn)化機(jī)制,實(shí)現(xiàn)進(jìn)度-資源均衡模型的自動(dòng)構(gòu)建。隨著三維建模技術(shù)的不斷發(fā)展,一些專家學(xué)者應(yīng)用基于點(diǎn)云的三維建模方法于工程中,利用數(shù)碼相機(jī)、激光掃描儀獲取點(diǎn)云數(shù)據(jù)對(duì)目標(biāo)建筑物進(jìn)行三維建模。Golparvar-Fard等[7]提出自動(dòng)化進(jìn)度監(jiān)控模型,針對(duì)既有建筑,將基于現(xiàn)場(chǎng)圖片建立的室內(nèi)場(chǎng)景三維模型和設(shè)計(jì)的BIM模型進(jìn)行對(duì)比,自動(dòng)識(shí)別建筑構(gòu)件,進(jìn)行自動(dòng)化進(jìn)度追蹤和偏差分析。三維激光掃描技術(shù)能夠快速、全面、海量地獲得原始點(diǎn)云數(shù)據(jù),完整高精度地重建被測(cè)實(shí)體,從而真實(shí)描述掃描對(duì)象的整體結(jié)構(gòu)及形態(tài)特性,具備建模效率高、精度高等優(yōu)點(diǎn)。王代兵等[8]將三維激光掃描技術(shù)應(yīng)用于天津周大福金融中心幕墻工程中,結(jié)合BIM技術(shù)與三維激光掃描儀對(duì)施工環(huán)節(jié)進(jìn)行逆向設(shè)計(jì)、施工,提高了深化設(shè)計(jì)、生產(chǎn)施工的精確度,節(jié)約了施工成本。

BIM技術(shù)和基于點(diǎn)云的三維建模方法為建筑工程現(xiàn)場(chǎng)數(shù)據(jù)可視化、可分析提供技術(shù)支持,幫助提高管理效率。但目前上述方法應(yīng)用于室內(nèi)仍存在一定局限性:

(1)BIM模型的創(chuàng)建是一個(gè)單調(diào)耗時(shí)且易錯(cuò)的工作,實(shí)際工程中一旦發(fā)生變更需要對(duì)BIM模型進(jìn)行及時(shí)更新,更新過程會(huì)耗費(fèi)較多的資源和人力。利用BIM模型對(duì)室內(nèi)建筑工程進(jìn)行進(jìn)度監(jiān)測(cè),無法保證建模的實(shí)時(shí)性。

(2)利用激光掃描儀可較快獲取三維點(diǎn)云,但掃描設(shè)備昂貴,掃描數(shù)據(jù)量大、數(shù)據(jù)處理速度較慢,需專業(yè)人員操作。

(3)基于照片的三維建模方法,適應(yīng)于圖像中可獲取較多特征點(diǎn)的特定場(chǎng)景,對(duì)無紋理信息的構(gòu)件或場(chǎng)景建模能力較差。然而室內(nèi)工程存在較大面積的無紋理構(gòu)件,如墻面、地面等易導(dǎo)致模型中的空洞甚至建模失敗,因此僅利用彩色圖片的三維建模方法不適應(yīng)于室內(nèi)環(huán)境。

隨著深度相機(jī)(例如Microsoft?Kinect)的出現(xiàn),為室內(nèi)三維信息采集提供了一種新的思路。深度相機(jī)是一種可同時(shí)獲取中分辨率的彩色圖和深度圖的傳感系統(tǒng)。但由于傳感距離有限,深度相機(jī)多被用來識(shí)別和跟蹤建筑工人狀態(tài)[9]。Zhu等[3]通過融合視覺和空間數(shù)據(jù)生成室內(nèi)三維點(diǎn)云模型,但這種方法需多個(gè)位置的數(shù)據(jù)采集與配準(zhǔn)融合,不精確的配準(zhǔn)易使模型出現(xiàn)偏移誤差。

針對(duì)上述方法的局限性,本文提出一種基于深度相機(jī)的實(shí)時(shí)室內(nèi)場(chǎng)景重構(gòu)方法。利用BundleFusion的改進(jìn)算法,建立基于稀疏特征點(diǎn)匹配和稠密深度圖與圖片像素匹配并行的優(yōu)化框架。在此框架內(nèi)可實(shí)現(xiàn)實(shí)時(shí)全局優(yōu)化的姿態(tài),支持重定位的同時(shí)增強(qiáng)實(shí)時(shí)跟蹤的魯棒性,使之能夠適用于室內(nèi)施工場(chǎng)景建模,輔助工程進(jìn)度監(jiān)測(cè),現(xiàn)場(chǎng)材料管理,并進(jìn)行實(shí)驗(yàn)驗(yàn)證。

1 基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法

1.1 基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法適用性分析

基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法可應(yīng)用于室內(nèi)工程建設(shè)過程多個(gè)階段。利用深度相機(jī)建立基于機(jī)器視覺的實(shí)景快速重構(gòu)模型,在工程施工階段,可動(dòng)態(tài)識(shí)別、量化設(shè)計(jì)模型和實(shí)際施工模型之間的偏差,以減少返工造成的損失;另一方面可視化、可分析的圖像及三維環(huán)境模型有利于提高工程各參與方的溝通效率,提高施工現(xiàn)場(chǎng)管理水平。在工程竣工交付階段,不同于傳統(tǒng)交付書面文字或基于文字?jǐn)?shù)據(jù)的電子存檔,圖像、視頻、空間三維模型作為數(shù)字產(chǎn)品驗(yàn)收憑證,可實(shí)時(shí)記錄施工過程中的關(guān)鍵部位,使施工過程關(guān)鍵節(jié)點(diǎn)可回溯,可追蹤。利用深度相機(jī)采集施工現(xiàn)場(chǎng)數(shù)據(jù),生成三維模型具有完整性好、細(xì)節(jié)還原度高、用戶友好度高等優(yōu)點(diǎn),可以為工程數(shù)據(jù)記錄不完善、不完整等問題提供解決方案,為項(xiàng)目后續(xù)運(yùn)營維護(hù)提供數(shù)據(jù)支撐。

1.2 基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法理論基礎(chǔ)

基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法是一種利用點(diǎn)云和深度圖像融合的場(chǎng)景重建技術(shù),通過前端設(shè)備獲取深度圖像和彩色圖像,生成結(jié)構(gòu)化的點(diǎn)云模型?;谏疃认鄼C(jī)的室內(nèi)場(chǎng)景重構(gòu)方法由以下四個(gè)主要步驟組成,分別是數(shù)據(jù)的獲取和處理、點(diǎn)云計(jì)算、點(diǎn)云配準(zhǔn)及場(chǎng)景重建,如圖1所示。

圖1 基于深度相機(jī)的場(chǎng)景重構(gòu)流程

(1)數(shù)據(jù)獲?。菏褂蒙疃认鄼C(jī)采集目標(biāo)場(chǎng)景數(shù)據(jù),其中利用RGB(Red,Green,Blue)攝像頭獲取彩色圖像,利用深度傳感器獲取深度圖像。

(2)數(shù)據(jù)處理:對(duì)獲得的深度圖像進(jìn)行濾波處理以降低噪聲。

(3)點(diǎn)云計(jì)算:計(jì)算相機(jī)坐標(biāo)系深度數(shù)據(jù),計(jì)算各點(diǎn)坐標(biāo)及法向量,生成三維點(diǎn)云數(shù)據(jù)。

(4)點(diǎn)云配準(zhǔn):以初始化深度圖生成點(diǎn)云模型對(duì)應(yīng)的世界坐標(biāo)系作為基準(zhǔn)坐標(biāo)系。隨著深度相機(jī)的移動(dòng),基于深度數(shù)據(jù)的最近點(diǎn)迭代算法求解當(dāng)前相機(jī)坐標(biāo)系與世界坐標(biāo)系之間的轉(zhuǎn)換關(guān)系。通過矩陣變換使不同視角下生成的點(diǎn)云模型轉(zhuǎn)換至同一世界坐標(biāo)系下。

(5)點(diǎn)云融合:當(dāng)深度相機(jī)的移動(dòng)未超出當(dāng)前重建立方體的范圍時(shí),通過最近點(diǎn)迭代算法最小化對(duì)應(yīng)特征描述符間的歐式距離實(shí)現(xiàn)點(diǎn)云的融合。當(dāng)深度相機(jī)的移動(dòng)超出當(dāng)前立方體的范圍時(shí),將原始重建立方體與新的立方體中重合部分的顯存數(shù)據(jù)拷貝至新的重建立方體中,同時(shí)重建新的重構(gòu)立方體與重合區(qū)域的截?cái)喾?hào)距離函數(shù),以實(shí)現(xiàn)全局點(diǎn)云的融合。

(6)紋理映射:將獲取的彩色圖像作為紋理輸入,映射到三維點(diǎn)云模型中,得到可視化的真實(shí)三維模型。

2 基于深度相機(jī)的室內(nèi)場(chǎng)景重構(gòu)方法研究及實(shí)驗(yàn)驗(yàn)證

實(shí)驗(yàn)利用深度相機(jī)采集數(shù)據(jù),該深度相機(jī)是微軟公司推出的一款游戲體感周邊外置設(shè)備—Kinect V1(第一代Kinect)。該設(shè)備攜帶彩色攝像頭和紅外攝像頭,可同時(shí)獲得640×480彩色圖像(RGB)、320×40深度圖像(Depth)信息,實(shí)現(xiàn)RGB-D數(shù)據(jù)的同步獲取及圖像生成。

2.1 KinectFusion算法及實(shí)驗(yàn)驗(yàn)證

在研究初始階段,嘗試采用KinectFusion方法實(shí)現(xiàn)室內(nèi)場(chǎng)景重建。該方法通過Moving Volume算法實(shí)現(xiàn)重建立方體范圍的動(dòng)態(tài)擴(kuò)展,進(jìn)而擴(kuò)大建模范圍[10]。基于KinectFusion方法的室內(nèi)場(chǎng)景重構(gòu)流程如圖2所示。

圖2 基于KinectFusion方法的場(chǎng)景重構(gòu)流程

(1)通過Kinect設(shè)備(下文簡稱“設(shè)備”)獲取彩色圖像和深度數(shù)據(jù),利用雙邊濾波對(duì)深度圖進(jìn)行降噪處理。

(2)依據(jù)獲取各幀相機(jī)與目標(biāo)場(chǎng)景各點(diǎn)的距離,計(jì)算相機(jī)坐標(biāo)系下各點(diǎn)的深度數(shù)據(jù)、坐標(biāo)和法向量?;讷@取的彩色圖像信息和深度相機(jī)的內(nèi)參、外參求解相機(jī)坐標(biāo)系與世界坐標(biāo)系間的變換矩陣,統(tǒng)一轉(zhuǎn)化為世界坐標(biāo)系下的點(diǎn)云數(shù)據(jù)。

(3)利用最近點(diǎn)迭代算法(Iterative Closest Point,ICP),根據(jù)當(dāng)前幀的點(diǎn)云與上一幀的預(yù)測(cè)點(diǎn)云,求解相機(jī)估計(jì)位置姿態(tài)?;谙鄼C(jī)位姿添加后續(xù)幀的深度圖像更新點(diǎn)云模型;

(4)首先預(yù)定義一個(gè)虛擬立方體(Volume),該立方體是存儲(chǔ)于圖形處理器的三維數(shù)組,按照一定的精度將其均勻劃分為k×k×k個(gè)體素。每個(gè)體素包含兩個(gè)屬性,分別為截?cái)喾?hào)距離函數(shù)(Truncated Signed Distance Function,TSDF)和權(quán)重。三維重建過程中各幀圖像各點(diǎn)的值被映射到相應(yīng)坐標(biāo)體素中,即三維數(shù)據(jù)均保存到數(shù)據(jù)立方體中。隨著設(shè)備的持續(xù)移動(dòng),當(dāng)掃描視野大部分超出當(dāng)前重建立方體的范圍時(shí),生成新的重建立方體隨著設(shè)備的移動(dòng)路徑移動(dòng)。設(shè)備移動(dòng)過程中,計(jì)算當(dāng)前幀相機(jī)位置姿態(tài)與重建立方體對(duì)應(yīng)相機(jī)位置姿態(tài)間的旋轉(zhuǎn)角度差和平移分量差。若差值超過閾值需重新定位設(shè)備,生成新的對(duì)應(yīng)重建立方體,若差值未超過閾值則繼續(xù)后續(xù)數(shù)據(jù)融合。

(5)計(jì)算重建立方體每個(gè)體素的TSDF值,在世界坐標(biāo)系下完成點(diǎn)云中各點(diǎn)到相應(yīng)體素的映射,保證立方體間重合區(qū)域可以完整重合,最終實(shí)現(xiàn)全局點(diǎn)云融合。

(6)最后基于移動(dòng)立方體算法進(jìn)行等值面提取,生成模型表面。

一系列基于KinectFusion場(chǎng)景重建方法在室內(nèi)空間進(jìn)行測(cè)試,利用Kinect采集數(shù)據(jù)、跟蹤設(shè)備生成深度圖像,最終融合生成三維模型。實(shí)驗(yàn)運(yùn)行條件為:Intel(R) CORE i7-8570H CPU,8G內(nèi)存,系統(tǒng)獨(dú)立顯卡為NVIDIA Quadro P600,4G顯存。重建結(jié)果與范圍如圖3所示。

圖3 基于KinectFusion算法的重建模型

實(shí)驗(yàn)結(jié)果顯示基于KinectFusion方法重建范圍非常有限,如需重建完整的室內(nèi)模型后續(xù)需進(jìn)行分塊點(diǎn)云間的二次拼接,但拼接過程易產(chǎn)生較大拼接誤差;另外在墻面、地板等弱紋理部位易出現(xiàn)明顯畸變與偏移,導(dǎo)致重建模型錯(cuò)誤。

導(dǎo)致上述情況主要在于以下三點(diǎn)原因:

(1)Moving Volume算法雖可迅速切換重建立方體同時(shí)跟蹤設(shè)備位姿,但該方法占用顯存空間較大,無法通過一次掃描建立完整的房間模型;

(2)深度傳感器獲取的最佳監(jiān)測(cè)距離為0.8~3.0 m,一旦設(shè)備到場(chǎng)景表面距離超過這個(gè)范圍,設(shè)備易出現(xiàn)跟蹤失敗或深度圖像錯(cuò)誤的情況;

(3)最近點(diǎn)迭代算法通過幾何距離尋找對(duì)應(yīng)點(diǎn),容易陷入局部最優(yōu)化,當(dāng)噪聲較多時(shí)配準(zhǔn)效果較差。

2.2 改進(jìn)的BundleFusion方法

針對(duì)傳統(tǒng)KinectFusion算法存在的局限性,提出一種基于BundleFusion的場(chǎng)景重構(gòu)方法以提高室內(nèi)環(huán)境下相機(jī)跟蹤穩(wěn)定性,同時(shí)擴(kuò)展建模范圍以適應(yīng)實(shí)際工程建模需求。該方法采用一種穩(wěn)健的姿態(tài)估計(jì)策略,利用高效的層次化方法,有效優(yōu)化RGB-D數(shù)據(jù)流中每幀對(duì)應(yīng)的相機(jī)姿態(tài),最終達(dá)到全局最優(yōu)[11],詳細(xì)流程如圖4所示。

圖4 基于Bundlefusion算法的流程

相較于基于KinectFusion的重構(gòu)方法,基于BundleFusion室內(nèi)重構(gòu)方法主要在點(diǎn)云配準(zhǔn)及點(diǎn)云融合階段進(jìn)行了優(yōu)化改進(jìn)。在點(diǎn)云配準(zhǔn)階段,不同于前者利用最近點(diǎn)迭代(ICP)算法估計(jì)相機(jī)的位置姿態(tài),基于BundleFusion的重構(gòu)方法通過提取和匹配各輸入幀的尺度不變特征變換(Scale Invariant Feature Transform,SIFT)特征點(diǎn)建立稀疏對(duì)應(yīng)關(guān)系。后續(xù)通過幾何一致性及稠密點(diǎn)云驗(yàn)證優(yōu)化全局相機(jī)的位置姿態(tài)。采用分層局部到全局(Local-to-Global)的優(yōu)化策略,以減少優(yōu)化變量個(gè)數(shù),降低計(jì)算復(fù)雜度,保證輸入幀全局匹配的實(shí)時(shí)性。第一層為局部優(yōu)化,將每個(gè)連續(xù)n幀組成一個(gè)數(shù)據(jù)塊,每個(gè)數(shù)據(jù)塊的大小相同,實(shí)現(xiàn)數(shù)據(jù)塊內(nèi)連續(xù)幀相機(jī)位姿的優(yōu)化。將完成局部優(yōu)化的數(shù)據(jù)塊定義為關(guān)鍵幀進(jìn)入第二層,實(shí)現(xiàn)全局關(guān)鍵幀的位姿優(yōu)化。在GPU上利用預(yù)處理共軛梯度法求解全局相機(jī)的位置姿態(tài),實(shí)現(xiàn)數(shù)據(jù)的高度緩存并生成準(zhǔn)確的稠密點(diǎn)云。

在點(diǎn)云融合階段,將全局相機(jī)位置姿態(tài)映射到TSDF模型中,隨著每個(gè)數(shù)據(jù)塊內(nèi)相機(jī)位姿的更新,TSDF值隨之更新。不同于KinectFusion方法中,將整個(gè)立方體(Volume)劃分成體素,該方法采用體素哈希(Voxel Hashing)策略[12],即只在相機(jī)測(cè)量到的場(chǎng)景表面劃分體素,建立體素與TSDF間的映射關(guān)系。計(jì)算分層優(yōu)化后設(shè)備位置姿態(tài)改變量,將其中變化量最大的10幀數(shù)據(jù)移除后,重新融合優(yōu)化后相機(jī)位置姿態(tài),更新對(duì)應(yīng)的TSDF模型以提高稠密點(diǎn)云的精度。最后提取對(duì)應(yīng)的像素塊,生成紋理模型。

基于BundleFusion的室內(nèi)重構(gòu)方法因其采用SIFT特征點(diǎn)匹配,不嚴(yán)格依賴時(shí)間的一致性,使其允許自由的掃描路徑,具有操作簡便、可重定位、用戶友好等優(yōu)勢(shì)。通過基于數(shù)據(jù)塊與相機(jī)位姿相互關(guān)聯(lián)的全局實(shí)時(shí)優(yōu)化,增強(qiáng)傳感器遮擋區(qū)域和無特征區(qū)域跟蹤的魯棒性。針對(duì)基于Moving Volume重建方法占用顯存較大,建模范圍較小的局限性,通過分層的二階段優(yōu)化策略及體素哈希表面重構(gòu)策略降低占用顯存,擴(kuò)大室內(nèi)場(chǎng)景的重建范圍。

基于BundleFusion的建模方法可以通過一次掃描建立完整的室內(nèi)空間環(huán)境,無需二次拼接,場(chǎng)景重構(gòu)模型與點(diǎn)云結(jié)果如圖5所示。

圖5 基于BundleFusion方法重建的模型

2.3 室內(nèi)場(chǎng)景建模結(jié)果與分析

通過對(duì)同一場(chǎng)景,利用相同的數(shù)據(jù)采集設(shè)備為第一代Kinect及數(shù)據(jù)處理平臺(tái)Intel(R) CORE i7-8570H CPU,NVIDIA Quadro P600 GPU,對(duì)比不同建模方法下模型范圍與精度的差異。相較于廣泛應(yīng)用的KinectFusion,本文采用的基于BundleFusion的室內(nèi)建模方法,在建模范圍上大幅擴(kuò)展。

其中前者僅適應(yīng)于小于7 m3室內(nèi)空間的三維重建,深度相機(jī)掃描軌跡長度不超過16 m,生成點(diǎn)云數(shù)量大概為60萬;基于Bundlefusion方法的室內(nèi)重構(gòu)模型可擴(kuò)展至75 m3,掃描軌跡長度可達(dá)到80 m,點(diǎn)云數(shù)量高達(dá)180萬~200萬。對(duì)比兩組模型外觀表征,本文使用方法增強(qiáng)了設(shè)備跟蹤的魯棒性,在白墻等弱紋理區(qū)域建模效果得到了明顯提升,無較大空洞、明顯偏移及錯(cuò)位等情況,如圖6所示。

圖6 基于不同建模方法實(shí)驗(yàn)結(jié)果對(duì)比

利用CloudCompare軟件對(duì)兩種算法重建點(diǎn)云模型分別進(jìn)行精度驗(yàn)證。以實(shí)際測(cè)量值作為標(biāo)準(zhǔn),選取特征線上的點(diǎn)測(cè)量兩點(diǎn)間距離,為降低偶然誤差的影響,取三次測(cè)量的平均值作為模型測(cè)量值,且三次測(cè)量值間誤差低于0.3 mm。

場(chǎng)景1中門的實(shí)際高度為2.11 m,基于KinectFusion算法構(gòu)建的模型中門高度為2.129 m,模型尺寸和實(shí)際尺寸的誤差為0.9%;基于BundleFusion算法構(gòu)建的模型中門高度為2.116 m,模型和實(shí)際尺寸的誤差為0.28%。場(chǎng)景2中畫框的實(shí)際尺寸為0.87 m×0.87 m,基于KinectFusion算法構(gòu)建的模型中畫框尺寸為0.890 m×0.860 m,模型尺寸和實(shí)際尺寸的誤差上限為2.30%;基于BundleFusion算法構(gòu)建的模型中畫框尺寸為0.881 m×0.860 m,模型和實(shí)際尺寸的誤差上限為1.26%。

根據(jù)兩組實(shí)驗(yàn)結(jié)果可知,在紋理信息較少的白墻等處易出現(xiàn)較大的重建誤差(圖7)?;贙inectFusion算法室內(nèi)建模最大重建誤差為2.3%,基于BundleFusion算法最大重建誤差為1.26%。實(shí)驗(yàn)結(jié)果表明基于BundleFusion的建模方法更適應(yīng)于較大的室內(nèi)空間,在提升模型精度的同時(shí),在弱紋理區(qū)域具有較好的魯棒性。

圖7 不同算法模型精度對(duì)比

3 結(jié)論與展望

本文提出一種基于深度相機(jī)的室內(nèi)三維重建方法,結(jié)合Kinect設(shè)備與BundleFusion算法,針對(duì)室內(nèi)空間掃描一次即可完成實(shí)時(shí)的三維重建。該方法實(shí)現(xiàn)擴(kuò)展重建范圍,提高相機(jī)跟蹤的穩(wěn)定性,同時(shí)保證建模的速度和精度。

(1)首先驗(yàn)證KinectFusion方法的建模范圍,分析該算法的不足,證明該方法的重建范圍不適應(yīng)工程實(shí)際。

(2)其次針對(duì)KinectFusion方法的局限性,提出一種基于深度相機(jī)的BundleFusion室內(nèi)場(chǎng)景重構(gòu)方法,該方法用戶友好程度高且更適用于實(shí)際工程應(yīng)用。

(3)最后通過定性與定量結(jié)合方法對(duì)比分析兩種不同方法的重建模型結(jié)果,比較兩種方法在建模范圍、建模表觀紋理及建模精度方面的差異。

但是該方法也存在一些局限性,基于視覺的特征提取和匹配仍受環(huán)境條件(如照明、陰影,缺乏紋理和顏色信息等)影響,此外對(duì)于較為開放的室內(nèi)環(huán)境建模仍有難度。目前建模結(jié)果可應(yīng)用于動(dòng)態(tài)的工程形象進(jìn)度追蹤,但未包含構(gòu)件的語義信息。未來研究方向?qū)?huì)集中于:

(1)提高系統(tǒng)在一般環(huán)境條件(例如光線條件不足,缺乏紋理、顏色信息等)下的魯棒性。

(2)提高基于深度相機(jī)的三維重建技術(shù)數(shù)據(jù)采集的自動(dòng)化程度,并改進(jìn)算法提高模型精度。

建立構(gòu)件層次的點(diǎn)云分割與標(biāo)定,將語義化信息模型和計(jì)劃工程進(jìn)度鏈接起來,實(shí)現(xiàn)工程進(jìn)度全周期追蹤。

猜你喜歡
立方體重構(gòu)建模
疊出一個(gè)立方體
長城敘事的重構(gòu)
攝影世界(2022年1期)2022-01-21 10:50:14
聯(lián)想等效,拓展建?!浴皫щ娦∏蛟诘刃?chǎng)中做圓周運(yùn)動(dòng)”為例
北方大陸 重構(gòu)未來
基于PSS/E的風(fēng)電場(chǎng)建模與動(dòng)態(tài)分析
電子制作(2018年17期)2018-09-28 01:56:44
不對(duì)稱半橋變換器的建模與仿真
北京的重構(gòu)與再造
商周刊(2017年6期)2017-08-22 03:42:36
圖形前線
論中止行為及其對(duì)中止犯的重構(gòu)
立方體星交會(huì)對(duì)接和空間飛行演示
太空探索(2016年9期)2016-07-12 09:59:53
石城县| 高雄县| 莱芜市| 柳州市| 宜春市| 郎溪县| 灯塔市| 萨嘎县| 顺昌县| 洛隆县| 邳州市| 古田县| 武城县| 雷波县| 三原县| 杭州市| 太湖县| 武义县| 武城县| 宁津县| 顺平县| 且末县| 冷水江市| 建宁县| 罗城| 盐边县| 莱芜市| 临汾市| 宁河县| 乳山市| 塔城市| 黎川县| 读书| 无为县| 潜江市| 城固县| 锡林郭勒盟| 莎车县| 庄浪县| 尼勒克县| 奎屯市|