国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于孿生空間的單目圖像目標(biāo)位姿一體化標(biāo)注方法

2023-11-24 05:25李聰亮孫士杰張朝陽劉澤東宋煥生
計(jì)算機(jī)研究與發(fā)展 2023年11期
關(guān)鍵詞:單目視場(chǎng)位姿

李聰亮 孫士杰 張朝陽 劉澤東 雷 琪 宋煥生

(長(zhǎng)安大學(xué)信息工程學(xué)院 西安 710064)

(congliangli@chd.edu.cn)

目標(biāo)位姿估計(jì)就是估計(jì)目標(biāo)基于相機(jī)坐標(biāo)系的位置及姿態(tài),通常情況下我們分別使用3 個(gè)參數(shù)來表示其位置及姿態(tài),因此該類問題也被稱為6DoF(six degree of freedom)估計(jì)的問題,它是計(jì)算機(jī)視覺[1]與計(jì)算機(jī)圖形[2]研究領(lǐng)域中的重要問題和熱點(diǎn)問題之一[3].精確的3 維位姿估計(jì)方法對(duì)于實(shí)現(xiàn)人機(jī)交互[4]、移動(dòng)機(jī)器人[5]等應(yīng)用具有十分重要的意義.移動(dòng)機(jī)器人,尤其是無人車,為了更好地感知復(fù)雜環(huán)境并完成特征任務(wù),周圍目標(biāo)的位姿獲取[6]不可或缺.

根據(jù)設(shè)備的不同,位姿標(biāo)注方法可被劃分為3 類:基于RGB-D 相機(jī)[7]、基于雷達(dá)[8]和基于RGB 相機(jī)[9]的目標(biāo)位姿標(biāo)注方法.基于RGB-D 相機(jī)的位姿標(biāo)注方法大多依賴散斑或ToF(time of flight)方式獲取深度,導(dǎo)致其感知距離受限(≤10 m)且會(huì)受到自然光照條件的影響,不適合在室外使用[10];基于雷達(dá)的位姿標(biāo)注方法通常需要結(jié)合相機(jī),才能獲取場(chǎng)景的顏色信息,設(shè)備造價(jià)較高;基于RGB 相機(jī)的位姿標(biāo)注方法不僅適用范圍靈活(有些長(zhǎng)焦相機(jī)的拍攝范圍通常在100~300 m,甚至更遠(yuǎn)1 km[11]左右),而且采用的設(shè)備成本低廉,但是該類方法較難消除透視投影造成的信息損失.當(dāng)前6DoF 估計(jì)問題的研究多采用RGB-D 相機(jī)所采集的數(shù)據(jù),為獲取準(zhǔn)確的位姿,大多依賴于場(chǎng)景空間較小的數(shù)據(jù)集,如LineMod[12],YCB Video[13]等.

為克服相機(jī)的透視投影所帶來的信息損失,本文結(jié)合真實(shí)3 維模型庫(kù),提出了一種基于孿生空間的單目圖像目標(biāo)位姿一體化標(biāo)注方法.該方法僅需借助于單幅RGB 圖像與3 維模型,便可估計(jì)出RGB 圖像中每個(gè)目標(biāo)的位姿.相比于使用雷達(dá)、RGB-D 相機(jī),本文方法僅使用成本低廉、廣泛布設(shè)的單目RGB 相機(jī),數(shù)據(jù)獲取更容易,可以進(jìn)一步提升6DoF估計(jì)研究成果的實(shí)用性.

1 相關(guān)工作

基于RGB-D 相機(jī)、基于雷達(dá)和基于RGB 相機(jī)的位姿標(biāo)注這3 種方法因可觀測(cè)距離、觀測(cè)精度等因素的差異,各有不同應(yīng)用.

通過RGB-D 相機(jī)來捕獲目標(biāo)深度信息,進(jìn)而融合深度信息與圖像紋理信息,對(duì)目標(biāo)6DoF 進(jìn)行還原,從而獲取目標(biāo)的6DoF.該種方法在BOP(benchmark for 6D object pose estimation)挑戰(zhàn)賽中應(yīng)用廣泛,如:在LM(LineMod)[12],YCB-Video[13],LM-O(Linemod-Occluded)[14],RU-APC(Rutgers APC)[15],T-LESS[16],YCB-V HB(HomebrewedDB)[17]等數(shù)據(jù)集中的應(yīng)用.同時(shí),由于目前主流的位姿估計(jì)數(shù)據(jù)集大多是通過RGB-D 相機(jī)構(gòu)建而來的,也導(dǎo)致當(dāng)前該領(lǐng)域的方法大多數(shù)基于RGB-D 相機(jī).然而由于RGB-D 相機(jī)所存在的固有劣勢(shì),其拍攝范圍在10 m 以內(nèi),雖然可以滿足流水線機(jī)械臂抓取[13]等空間范圍較小的應(yīng)用,但是無法應(yīng)用于無人駕駛、航天在軌機(jī)械臂、增強(qiáng)現(xiàn)實(shí)等場(chǎng)景空間范圍較大的領(lǐng)域.

基于雷達(dá)的6DoF 標(biāo)注的研究起步較晚,目前多使用無人駕駛數(shù)據(jù)集KITTI[18]中的3 維目標(biāo)檢測(cè)衍生出來的數(shù)據(jù)集.Slinko 等人[19]利用KITTI 數(shù)據(jù)集獲取深度信息,對(duì)交通目標(biāo)的6DoF 進(jìn)行估計(jì),相比于其他方法,該方法的應(yīng)用場(chǎng)景進(jìn)一步擴(kuò)大,但是其精度相比于基于RGB-D 相機(jī)的方法略差.此外,由于雷達(dá)的價(jià)位較高[20],一定程度上限制了其大規(guī)模的應(yīng)用.

基于單目RGB 相機(jī)的目標(biāo)位姿標(biāo)注方法主要分為基于單目RGB 視頻或連續(xù)幀和基于單目RGB 圖像的目標(biāo)位姿標(biāo)注方法.

基于單目RGB 視頻或連續(xù)幀的目標(biāo)位姿標(biāo)注方法是通過視場(chǎng)中目標(biāo)整體運(yùn)動(dòng)過程來克服相機(jī)透視投影的信息損失,并通過時(shí)間維度信息來彌補(bǔ)空間信息.其中趙麗科等人[21]通過單目序列圖像得到運(yùn)動(dòng)目標(biāo)輪廓集合,并構(gòu)建不同位姿運(yùn)動(dòng)目標(biāo)的模擬圖像,通過模型圖像輪廓與真實(shí)圖像輪廓構(gòu)建距離代價(jià)函數(shù),進(jìn)而解算運(yùn)動(dòng)目標(biāo)位姿.袁媛等人[22]通過對(duì)目標(biāo)運(yùn)動(dòng)過程中的編碼特征點(diǎn)進(jìn)行正交迭代解算算法完成目標(biāo)物體位姿測(cè)量.An 等人[23]通過SFM(structure from motion)的方法對(duì)目標(biāo)進(jìn)行3 維建模,進(jìn)而獲取目標(biāo)的形態(tài).該方法應(yīng)用較為簡(jiǎn)單,然而需要連續(xù)的相機(jī)拍攝過程,并且運(yùn)算過程較為復(fù)雜,較難大規(guī)模適用于目標(biāo)位姿標(biāo)注過程.

基于單目RGB 圖像的目標(biāo)位姿標(biāo)注方法是當(dāng)前位姿標(biāo)注研究的難點(diǎn)之一.目前僅存在基于RGB 圖像的目標(biāo)姿態(tài)標(biāo)注方法[22]和目標(biāo)深度估計(jì)方法.Zhao 等人[24]通過深度學(xué)習(xí)的方式對(duì)單目圖像中目標(biāo)深度進(jìn)行估計(jì),得到目標(biāo)深度.Xiang 等人[25]利用目標(biāo)檢測(cè)網(wǎng)絡(luò)和圖像投影的逆過程,實(shí)現(xiàn)了目標(biāo)姿態(tài)標(biāo)注,并提出了Objectnet3D 的目標(biāo)姿態(tài)數(shù)據(jù)集.然而文獻(xiàn)[22-25]所提的方法雖然分別實(shí)現(xiàn)了目標(biāo)真實(shí)空間深度和姿態(tài)的獲取,但其獲取過程復(fù)雜,且無法一體化獲取目標(biāo)位姿,因此當(dāng)前急需一種目標(biāo)位姿一體化標(biāo)注方法.

為滿足當(dāng)前6DoF 估計(jì)領(lǐng)域的拍攝范圍需求和大規(guī)模應(yīng)用的可能性,本文設(shè)計(jì)了一種通過單目RGB圖像和目標(biāo)真實(shí)3 維模型估計(jì)位姿的方法,以一體化獲取單目RGB 圖像中目標(biāo)的真實(shí)位姿.

2 本文方法

本文利用單目相機(jī)拍攝的RGB 圖像與目標(biāo)的3維模型,在已知相機(jī)焦距f的條件下使用相機(jī)的小孔成像原理,通過改變目標(biāo)模型在3 維空間中的位置,使其與RGB 圖像中對(duì)應(yīng)目標(biāo)重疊,以求解目標(biāo)6DoF,這種求解目標(biāo)的6DoF 的方法,本文稱為基于孿生空間的單目圖像目標(biāo)位姿一體化標(biāo)注方法.

2.1 圖像的一次投影過程

圖1 為本文方法的原理示意圖,一次投影圖為真實(shí)世界中相機(jī)拍攝過程,二次投影圖為本文孿生空間中虛擬相機(jī)拍攝過程.為方便后續(xù)分析,設(shè)相機(jī)焦距為f,相機(jī)拍攝圖像的寬和高分別為width和height,可得水平視場(chǎng)角和垂直視場(chǎng)角分別為

Fig.1 Schematic diagram of our method principle圖1 本文方法的原理示意圖

圖1 中涉及到4 個(gè)坐標(biāo)系,分別為相機(jī)坐標(biāo)系(XcYcZc坐標(biāo))、圖像像素坐標(biāo)系(UV坐標(biāo))、世界坐標(biāo)系(XwYwZw坐標(biāo))和目標(biāo)物體坐標(biāo)系(XoYoZo坐標(biāo)).為便于分析,設(shè)定世界坐標(biāo)系坐標(biāo)軸Xw,Yw與相機(jī)坐標(biāo)系坐標(biāo)軸Xc,Yc平行且方向相同,Zw,Zc位于同一直線且方向相反,其中Zc軸為相機(jī)光軸;設(shè)世界坐標(biāo)系原點(diǎn)Ow與相機(jī)坐標(biāo)系原點(diǎn)Oc距離為d;目標(biāo)物體坐標(biāo)系原點(diǎn)位于目標(biāo)中心點(diǎn),Zo軸垂直向上,且與Xo軸和Yo軸成右手坐標(biāo)系.需要注意的是,二次投影過程中的平面I1即為一次投影過程中的圖像平面I1.為方便計(jì)算,設(shè)定相機(jī)水平視場(chǎng)角投射到世界坐標(biāo)系XwOwYw平面時(shí),其距離為dwidth=1 m,則垂直視場(chǎng)角投射到世界坐標(biāo)系XwOwYw平面時(shí),其距離為dheight=則此時(shí)世界坐標(biāo)系原點(diǎn)Ow與相機(jī)坐標(biāo)系原點(diǎn)Oc的距離為

將式(1)和dwidth=1 m帶入式(3)得到

假設(shè)圖像坐標(biāo)系上目標(biāo)位置存在某點(diǎn)p=(u,v,1),該點(diǎn)在相機(jī)坐標(biāo)系、世界坐標(biāo)系、目標(biāo)物體坐標(biāo)系的對(duì)應(yīng)點(diǎn)分別為pc=(xc,yc,zc,1),pw=(xw,yw,zw,1),po=(xo,yo,zo,1).

由相機(jī)焦距為f,不考慮相機(jī)畸變,則相機(jī)坐標(biāo)系到圖像像素坐標(biāo)系的轉(zhuǎn)化關(guān)系為

其中cx和cy為圖像中心點(diǎn)坐標(biāo),α 為尺度因子.

考慮到相機(jī)和目標(biāo)的基準(zhǔn)坐標(biāo)系均為世界坐標(biāo)系,因此目標(biāo)物體坐標(biāo)系到圖像坐標(biāo)系的變換則轉(zhuǎn)換為物體坐標(biāo)系經(jīng)由世界坐標(biāo)系、相機(jī)坐標(biāo)系,最終轉(zhuǎn)換到圖像坐標(biāo)系.由于世界坐標(biāo)系僅是為方便表述而引入的中間變量,其位置對(duì)整體轉(zhuǎn)換過程沒有影響,因此可固定世界坐標(biāo)系的位置.

為方便討論,在坐標(biāo)系轉(zhuǎn)換過程中,先考慮位移,后考慮旋轉(zhuǎn).假定目標(biāo)在世界坐標(biāo)系中的位置為則由目標(biāo)物體坐標(biāo)系到相機(jī)坐標(biāo)系的位移向量為

假定目標(biāo)物體坐標(biāo)系分別繞世界坐標(biāo)系X,Y,Z軸的旋轉(zhuǎn)角度分別為rX,rY,rZ,則目標(biāo)物體坐標(biāo)系到世界坐標(biāo)系的旋轉(zhuǎn)矩陣為

可得

由式(5)(6)(8)可得,目標(biāo)物體坐標(biāo)系到圖像像素坐標(biāo)系的轉(zhuǎn)化關(guān)系為

由式(6)(8)可知,矩陣R含有9 個(gè)未知量,矩陣T含有3 個(gè)未知量,同時(shí)式(9)中自身包含1 個(gè)未知量α,因此式(9)中共有13 個(gè)未知數(shù).假定已知2 維圖像和3 維空間某個(gè)點(diǎn)的對(duì)應(yīng)關(guān)系,代入式(9)可得到3個(gè)方程組,即: 一個(gè)3 維空間中的點(diǎn)與2 維圖像中的對(duì)應(yīng)點(diǎn)可提供3 個(gè)方程,因此若想求得唯一轉(zhuǎn)換關(guān)系,則至少需要5 個(gè)不共面的對(duì)應(yīng)點(diǎn).考慮到固定大小的3 維物體目標(biāo)與圖像中已知的投影有無數(shù)個(gè)對(duì)應(yīng)點(diǎn),因此通過固定大小的非對(duì)稱3 維物體目標(biāo)在固定焦距和視場(chǎng)角的相機(jī)視角下,若圖像中投影固定,則有唯一位姿.

2.2 孿生3 維空間的目標(biāo)二次投影過程

由2.1 節(jié)可知,若固定大小的非對(duì)稱3 維目標(biāo)在固定焦距和視場(chǎng)角相機(jī)中的投影圖像與空間目標(biāo)存在至少5 個(gè)不共面的對(duì)應(yīng)特征點(diǎn),則可依據(jù)式(9)求得13 個(gè)未知數(shù),且解唯一,本文稱該投影過程唯一.對(duì)于對(duì)稱目標(biāo),需特殊處理策略,本文不作討論.

考慮到在真實(shí)空間中較難在同場(chǎng)景、同位姿情況下重構(gòu)出目標(biāo)一次投影,因此,本文通過重構(gòu)同焦距、同視場(chǎng)的孿生相機(jī)及目標(biāo)來構(gòu)建孿生空間.通過在孿生空間中放置虛擬相機(jī)和一次投影圖,并將與目標(biāo)一致的3 維模型也放置其中.其中,3 維模型的投影過程稱為“二次投影”,虛擬相機(jī)成像圖為二次投影圖,通過平移旋轉(zhuǎn),使得3 維模型在虛擬相機(jī)成像的目標(biāo)與圖像目標(biāo)吻合,則此時(shí)3 維模型的位姿便可等價(jià)于該目標(biāo)的位姿.具體有3 個(gè)步驟.

步驟1.孿生空間生成.本文選擇使用VTK[26]工具進(jìn)行初始孿生空間生成,同時(shí)在世界坐標(biāo)系(0,0,d)的位置放置相機(jī),相機(jī)焦距為f,水平視場(chǎng)角和垂直視場(chǎng)角分別為 αwidth和 αheight,相機(jī)方向即為相機(jī)光軸方向,與世界坐標(biāo)系Z軸反向.

步驟2.視場(chǎng)范圍內(nèi)放置一次投影圖像.考慮到場(chǎng)景信息不足,無法在空間中孿生目標(biāo)周圍環(huán)境,同時(shí)為方便比較一次投影圖像中的目標(biāo)與二次投影圖像中的目標(biāo),以孿生空間世界坐標(biāo)系的Ow點(diǎn)為圖像中心,U軸與Xw軸平行,V軸與Yw軸平行,在XwOwYw平面內(nèi)放置一次投影圖,如圖1 所示.

步驟3.模型二次投影.在孿生空間相機(jī)的視場(chǎng)范圍內(nèi)添加目標(biāo)模型,并將模型在孿生空間中進(jìn)行平移和旋轉(zhuǎn).此時(shí),觀察孿生空間相機(jī)拍攝結(jié)果,當(dāng)目標(biāo)模型二次投影結(jié)果與圖像中真實(shí)空間目標(biāo)一次投影結(jié)果完全相同時(shí),通過VTK 工具得到目標(biāo)3 維位姿.

3 實(shí)驗(yàn)結(jié)果及分析

考慮到6DoF 標(biāo)注領(lǐng)域目前暫無基于單目RGB圖像的目標(biāo)位姿標(biāo)注方法,無法進(jìn)行同領(lǐng)域?qū)Ρ葘?shí)驗(yàn),因此為證明本文方法的有效性,本文與基于RGBD 和基于雷達(dá)的方法標(biāo)注的精度進(jìn)行對(duì)比,以證明本文方法的正確性和有效性.

3.1 實(shí)驗(yàn)環(huán)境及參數(shù)

為驗(yàn)證本文孿生3 維空間的目標(biāo)二次投影方法在6DoF 獲取的有效性,基于本文方法,使用Python3.8,VTK9.0 和PyQt5.15 制作標(biāo)注軟件——LabelImg3D①https://github.com/CongliangLi/LabelImg3D,并在Windows 系統(tǒng)上進(jìn)行精度測(cè)試.

在測(cè)試時(shí),需要已知當(dāng)前場(chǎng)景相機(jī)的焦距或單個(gè)視場(chǎng)角以及真實(shí)物體的3 維模型,同時(shí)考慮VTK加載問題,模型為obj 文件.

3.2 數(shù)據(jù)集介紹

P-LM 是一個(gè)由LineMod 數(shù)據(jù)集整理后得到的數(shù)據(jù)集,共包含15 個(gè)類別,每個(gè)類別均包含深度圖、掩碼圖和RGB 圖像,每幅圖像的內(nèi)參矩陣已知,且每個(gè)類別均給出ply 模型及模型大小.KITTI 數(shù)據(jù)集是一個(gè)包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù),本文選擇與其3 維目標(biāo)檢測(cè)數(shù)據(jù)進(jìn)行精度對(duì)比,其訓(xùn)練集共包含7 481 張圖像,其標(biāo)簽由car,van,truck,pedestrian,pedestrian(sitting),cyclist,tram,misc組成.

使用LabelImg3D 對(duì)P-LM 和 KITTI 這2 個(gè)數(shù)據(jù)集的圖像進(jìn)行標(biāo)注,標(biāo)注結(jié)果如圖2 和圖3 所示.為方便進(jìn)行精度測(cè)試,本文分別從P-LM 和KITTI 數(shù)據(jù)集中選擇每個(gè)類別中的200 張進(jìn)行標(biāo)注并測(cè)試.同時(shí)考慮到KITTI 數(shù)據(jù)集中并沒有給出真實(shí)物體的3 維模型,因此根據(jù)KITTI 給出的目標(biāo)長(zhǎng)、寬、高及類別制作5 個(gè)類別的平均模型進(jìn)行標(biāo)注.

Fig.2 Schematic diagram of the labeling results of the indoor dataset圖2 室內(nèi)數(shù)據(jù)集標(biāo)注結(jié)果示意圖

3.3 評(píng)價(jià)指標(biāo)分析

6DoF 估計(jì)主要有6 個(gè)參數(shù),即x,y,z,rX,rY,rZ.考慮到,若位移誤差僅使用一階范數(shù),則未充分體現(xiàn)出與相機(jī)的距離對(duì)誤差產(chǎn)生的影響,因此本文提出6 個(gè)自由度的精度進(jìn)行指標(biāo)評(píng)價(jià),參考高斯距離,使用 ?X,?Y,?Z來描述基于X,Y,Z方向上的精度,并使用來描述在RX,RY,RZ方向上的精度.其定義為:其中xg和為X方向上的位移和旋轉(zhuǎn)的真值,xl和為X方向上的位移和旋轉(zhuǎn)的標(biāo)注結(jié)果.

3.4 實(shí)驗(yàn)對(duì)比與結(jié)果分析

為了進(jìn)一步說明本文方法的有效性和精確性,將其與P-LM 數(shù)據(jù)集和KITTI 數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn).

3.4.1 基于P-LM 數(shù)據(jù)集的實(shí)驗(yàn)

將從P-LM 數(shù)據(jù)集中按照類別隨機(jī)抽取的圖片進(jìn)行標(biāo)注,結(jié)果如圖4 所示,并將其與其原始標(biāo)簽對(duì)比,結(jié)果如表1 所示.由表1 可知,使用本文方法標(biāo)注的結(jié)果,雖然因物體類型的不同精度有所變化,但是其位移精度均在0.95 以上,旋轉(zhuǎn)精度均在0.90 以上,其精度基本滿足實(shí)際獲取需求.

Table 1 Comparative Experiment of P-LM Dataset表1 P-LM 數(shù)據(jù)集的對(duì)比實(shí)驗(yàn)

Fig.4 Example diagram of LabelImg3D labeling P-LM圖4 LabelImg3D 標(biāo)注P-LM 的實(shí)例圖

3.4.2 基于KITTI 數(shù)據(jù)集的實(shí)驗(yàn)

將從KITTI 數(shù)據(jù)集中抽取的圖片按照類別進(jìn)行標(biāo)注,結(jié)果如圖5 和圖6 所示,并與其原始標(biāo)簽進(jìn)行對(duì)比,結(jié)果如表2 所示.由表2 可知,位移精度對(duì)比中Tram 類型位移精度較差,旋轉(zhuǎn)精度對(duì)比中Pedestrian類型精度較差,其余位移精度均可達(dá)0.95 以上,旋轉(zhuǎn)精度可達(dá)0.85 以上.

Table 2 Comparative Experiment of KITTI Dataset表2 KITTI 數(shù)據(jù)集的對(duì)比實(shí)驗(yàn)

Fig.5 Example diagram of LabelImg3D labeling KITTI圖5 LabelImg3D 標(biāo)注KITTI 的實(shí)例圖

對(duì)Tram 類型進(jìn)行對(duì)比分析,對(duì)比過程如圖7 所示.由圖7 可知,由于標(biāo)注過程中使用的模型為平均模型,而對(duì)于Tram 而言其長(zhǎng)度相差較大,這就導(dǎo)致在使用平均模型時(shí)無法使用模型本身的特征點(diǎn)對(duì)原圖中Tram 的特征點(diǎn)進(jìn)行準(zhǔn)確表述,尤其是當(dāng)存在一些極端長(zhǎng)度時(shí),會(huì)出現(xiàn)標(biāo)注誤差較大的問題.

Fig.7 Comparative results of Tram圖7 Tram 對(duì)比結(jié)果圖

對(duì)Pedestrian 類型進(jìn)行對(duì)比分析,對(duì)比過程如圖8所示.由圖8 可知,由于人體在運(yùn)動(dòng)過程中的動(dòng)態(tài)特性無法使用一個(gè)固定狀態(tài)的模型去描述,這導(dǎo)致旋轉(zhuǎn)標(biāo)注結(jié)果與真值相差較大,因此在使用時(shí)僅可用于剛體3 維姿態(tài)的描述.

Fig.8 Comparative results of Pedestrian圖8 Pedestrian 對(duì)比結(jié)果圖

4 結(jié)語

本文提出了基于孿生空間的單目圖像目標(biāo)位姿一體化標(biāo)注方法,此方法僅利用單目RGB 圖像,結(jié)合與剛體目標(biāo)一致的3 維模型,重構(gòu)出與圖像一致的孿生空間,并對(duì)3 維模型進(jìn)行二次投影,最終得到目標(biāo)的3 維位姿.實(shí)驗(yàn)表明,本文方法可在已知相機(jī)焦距的基礎(chǔ)上利用圖像和3 維模型,即可一體化獲取精度接近RGB-D 相機(jī)和雷達(dá)采集的結(jié)果.

需要注意的是,本文方法存在一定的局限性:一方面該方法受限于3 維模型與真實(shí)物體的一致性,若存在較大的尺寸差異,需構(gòu)建出多個(gè)不同尺寸的3 維模型;另一方面,該方法無法處理非剛體目標(biāo).未來,我們的主要工作將側(cè)重于在非剛體約束下的目標(biāo)位姿及形態(tài)高參估計(jì).

作者貢獻(xiàn)聲明:李聰亮負(fù)責(zé)論文選題、論文實(shí)驗(yàn)、代碼驗(yàn)證與測(cè)試、論文撰寫;孫士杰負(fù)責(zé)論文選題、方法構(gòu)思與設(shè)計(jì)、論文修改;張朝陽負(fù)責(zé)理論支撐、方法理論完善、文稿修改及論文定稿;劉澤東負(fù)責(zé)資料查詢、代碼實(shí)驗(yàn)測(cè)試及數(shù)據(jù)標(biāo)注;雷琪負(fù)責(zé)資料解釋、論文實(shí)驗(yàn)、代碼實(shí)現(xiàn)與測(cè)試;宋煥生負(fù)責(zé)資料解釋、文稿修改及論文定稿.李聰亮和孫士杰為共同第一作者.

猜你喜歡
單目視場(chǎng)位姿
一種晶圓自動(dòng)光學(xué)檢測(cè)系統(tǒng)的混合路徑規(guī)劃算法
星模擬器光學(xué)系統(tǒng)視場(chǎng)拼接方法的研究
一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
醫(yī)用內(nèi)窺鏡矩形視場(chǎng)下入瞳視場(chǎng)角的測(cè)試方法研究
單目SLAM直線匹配增強(qiáng)平面發(fā)現(xiàn)方法
基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
基于CAD模型的單目六自由度位姿測(cè)量
小型四旋翼飛行器位姿建模及其仿真
輕小型面陣擺掃熱紅外成像系統(tǒng)研究
基于單目立體視覺的三坐標(biāo)在線識(shí)別技術(shù)研究