国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于投影圖像SURF特征提取的三維模型配準(zhǔn)

2018-02-23 02:27童立靖劉博文
圖學(xué)學(xué)報(bào) 2018年6期
關(guān)鍵詞:像素點(diǎn)特征提取紋理

童立靖,劉博文

?

基于投影圖像SURF特征提取的三維模型配準(zhǔn)

童立靖,劉博文

(北方工業(yè)大學(xué)計(jì)算機(jī)學(xué)院,北京 100144)

針對(duì)傳統(tǒng)三維模型配準(zhǔn)方法存在對(duì)點(diǎn)云初始位置有一定要求、模型配準(zhǔn)的精度有時(shí)不高等問(wèn)題,提出了一種基于三維模型投影圖像SURF特征提取的三維模型配準(zhǔn)方法。首先通過(guò)掃描三維模型數(shù)據(jù)確定投影圖像的范圍,判斷每個(gè)投影圖像像素所隸屬的模型網(wǎng)格,并求解從投影圖像到紋理圖像的映射關(guān)系,從而獲取二維投影圖像;然后對(duì)這兩幅投影圖像分別進(jìn)行SURF特征點(diǎn)的選取與特征值的計(jì)算,并按SURF特征值進(jìn)行特征匹配,再根據(jù)投影圖像像素點(diǎn)與三維網(wǎng)格端點(diǎn)的映射關(guān)系計(jì)算三維特征點(diǎn)對(duì);最后通過(guò)匹配的特征點(diǎn)對(duì)求取模型變換矩陣完成三維模型的配準(zhǔn)。實(shí)驗(yàn)結(jié)果表明,該方法在配準(zhǔn)時(shí)間變化不大的前提下,有效提高了配準(zhǔn)精度,并具有較好的魯棒性。

三維掃描;投影圖像;SURF特征;圖像配準(zhǔn);三維配準(zhǔn)

三維點(diǎn)云配準(zhǔn)技術(shù)是當(dāng)前逆向工程、數(shù)字醫(yī)學(xué)圖像、計(jì)算機(jī)視覺(jué)、曲面質(zhì)量檢測(cè)等研究領(lǐng)域的熱點(diǎn)與重點(diǎn)。三維點(diǎn)云配準(zhǔn)的目標(biāo)是求解近似的配準(zhǔn)變換參數(shù)[1],經(jīng)變換映射后讓兩組點(diǎn)云數(shù)據(jù)合并到一個(gè)統(tǒng)一的坐標(biāo)系下,從而構(gòu)成一個(gè)完整的三維數(shù)據(jù)模型。

現(xiàn)階段,許多相關(guān)專家學(xué)者給出了較好的三維點(diǎn)云配準(zhǔn)算法,主要有:文獻(xiàn)[2]通過(guò)圖像與圖像的配準(zhǔn),以及模型與圖像的配準(zhǔn),來(lái)完成三維生物圖像的配準(zhǔn),但對(duì)于前者,其主要使用了隨機(jī)抽樣一致(random sample consensus,RANSAC))算法,對(duì)于后者,其使用了主骨骼模型。RANSAC算法,是目前應(yīng)用性較強(qiáng)的三維配準(zhǔn)算法。其隨機(jī)選取一個(gè)點(diǎn)集,根據(jù)邊長(zhǎng)的比例關(guān)系,從目標(biāo)點(diǎn)云中尋找對(duì)應(yīng)的點(diǎn)集。與基于幾何特征的配準(zhǔn)算法相比,優(yōu)點(diǎn)是可以處理初始位置相對(duì)較遠(yuǎn)的模型數(shù)據(jù),缺點(diǎn)是選取的初始點(diǎn)集不同,會(huì)影響配準(zhǔn)算法的效率。而對(duì)于主骨骼模型,一般的生物模型是具有的,但對(duì)于非生物個(gè)體模型是很難提取的。文獻(xiàn)[3-4]是對(duì)迭代就近點(diǎn)(iterative closest point,ICP)算法的改進(jìn)算法。文獻(xiàn)[3]中的方法是通過(guò)逐步減小誤差的上邊界去避免ICP收斂于局部最優(yōu),但代價(jià)是算法的時(shí)間效率大為下降;文獻(xiàn)[4]提出了一種基于期望最大估計(jì)的方法,解決ICP算法收斂組速度較慢和少量噪聲引起的配準(zhǔn)效果不佳問(wèn)題,但對(duì)于復(fù)雜的且含有大量噪聲的剛體碎塊模型,配準(zhǔn)精度和效果尚待改進(jìn)。文獻(xiàn)[5]在對(duì)三維點(diǎn)云數(shù)據(jù)進(jìn)行配準(zhǔn)時(shí)使用了一致點(diǎn)漂移(coherent point drift,CPD)算法,并對(duì)其進(jìn)行了加速處理,但在配準(zhǔn)時(shí)考慮了所有的點(diǎn),對(duì)于部分重合的兩個(gè)三維點(diǎn)云的配準(zhǔn)不太適合。文獻(xiàn)[6]為三維配準(zhǔn)給出了一種快速的旋轉(zhuǎn)搜索算法,但其前提是已知點(diǎn)云的平移參數(shù),然而,對(duì)于僅能部分重合的點(diǎn)云模型配準(zhǔn),點(diǎn)云的平移參數(shù)是無(wú)法預(yù)知的。文獻(xiàn)[7]使用最小二乘法進(jìn)行多模態(tài)三維模型的配準(zhǔn),其核心是對(duì)特征點(diǎn)在不同尺度下的局部曲率及其與曲面距離的匹配,但對(duì)于曲面較為光滑且曲率較為一致的點(diǎn)云曲面配準(zhǔn),在魯棒性方面難以取得較好的效果。

本文的配準(zhǔn)方法主要是面向具有紋理數(shù)據(jù)的三維模型。一般三維掃描儀掃描的模型數(shù)據(jù)中,掃描儀在獲取物體表面的點(diǎn)云數(shù)據(jù)同時(shí),可以獲取一種無(wú)規(guī)則的紋理圖像。本文提出了一種利用無(wú)規(guī)則的紋理圖像,獲取模型的二維投影圖像,從而利用投影圖像的加速魯棒特征(speeded up robust features,SURF)對(duì)三維模型進(jìn)行配準(zhǔn)的方法。算法首先讀取兩個(gè)三維模型數(shù)據(jù);對(duì)兩幅模型進(jìn)行二維投影圖像的獲??;然后對(duì)兩幅投影圖像進(jìn)行特征點(diǎn)匹配;最后求取三維特征點(diǎn)對(duì)求取模型變換矩陣從而完成三維模型的配準(zhǔn)工作。實(shí)驗(yàn)表明,本文算法完成的三維模型配準(zhǔn)的效果較好,具有較強(qiáng)的魯棒性。本文算法的整體流程如圖1所示。

圖1 本文算法整體流程圖

1 投影圖像的獲取

1.1 算法描述

通過(guò)三維掃描儀獲取的紋理圖像是散亂無(wú)規(guī)則的,利用采集的三維模型數(shù)據(jù)獲取有序的二維投影圖像的主要步驟為:①通過(guò)分析處理三維點(diǎn)云的坐標(biāo)數(shù)據(jù)從而確定投影圖像的范圍;②對(duì)二維投影圖像中隸屬于網(wǎng)格投影區(qū)域的像素點(diǎn)進(jìn)行判定與提??;③記錄下每個(gè)提取的像素點(diǎn)對(duì)應(yīng)的網(wǎng)格序號(hào)。算法具體流程如圖2所示。

圖2 獲取二維投影圖像流程

1.2 三維數(shù)據(jù)的分析和預(yù)處理

三維數(shù)據(jù)的分析和預(yù)處理的主要任務(wù)是對(duì)三維模型空間坐標(biāo)點(diǎn)進(jìn)行歸一化和通過(guò)三維數(shù)據(jù)分析計(jì)算出二維投影圖像的范圍。

為獲得完整清晰的投影圖像,需要確定二維投影圖像范圍,具體生成的二維投影圖像范圍為

其中,、分別為投影圖像的寬度和高度;max、min、max、min分別為三維點(diǎn)云數(shù)據(jù)坐標(biāo)在、方向上的最大最小值;arg為選取的比例系數(shù)。

1.3 網(wǎng)格隸屬像素的判定

根據(jù)模型文件中點(diǎn)云網(wǎng)格到紋理圖像中的映射關(guān)系,可以從紋理圖像中提取點(diǎn)云網(wǎng)格投影圖像的像素信息,但在提取前首先需要確定各像素點(diǎn)所隸屬的三角形網(wǎng)格。

在完成各像素點(diǎn)的隸屬網(wǎng)格判定后,記錄每個(gè)像素點(diǎn)所在的空間三角形網(wǎng)格序號(hào)。

1.4 網(wǎng)格像素信息的提取

掃描儀獲取的無(wú)規(guī)則紋理圖像的像素點(diǎn)并非是有序排列的,某待配準(zhǔn)的兩個(gè)點(diǎn)云的無(wú)規(guī)則紋理圖像如圖3所示。

除三角網(wǎng)格頂點(diǎn)像素信息可以直接從紋理圖像中提取外,其他點(diǎn)的像素信息是無(wú)法直接獲得的。本文是通過(guò)像素點(diǎn)映射的方法來(lái)提取其像素點(diǎn)的信息的,因此需要首先求解出二維投影圖像中每個(gè)三角形面片到無(wú)規(guī)則紋理圖像的三角形面片的映射矩陣。假設(shè)每個(gè)三角形網(wǎng)格的頂點(diǎn)在二維投影圖像上的坐標(biāo)為(x,y),其對(duì)應(yīng)的紋理坐標(biāo)為(u,v)。利用三對(duì)坐標(biāo)間的映射的關(guān)系可求變換矩陣,用齊次坐標(biāo)表示向量和點(diǎn),其映射關(guān)系為

由式(2)可以求得變換矩陣,即

由于三角形內(nèi)部各點(diǎn),也都應(yīng)遵循此映射關(guān)系,所以,根據(jù)求解的變換矩陣與式(2)可完成二維投影圖像的每個(gè)三角面片中各像素點(diǎn)信息的提取。

圖3 無(wú)規(guī)則紋理圖像

2 投影圖像的SURF特征提取

三維模型配準(zhǔn)的前提在于尋找兩幅三維點(diǎn)云的特征點(diǎn)對(duì),本文算法中三維特征點(diǎn)對(duì)是依據(jù)二維投影圖像的特征點(diǎn)對(duì)計(jì)算而來(lái)。因此首先需要進(jìn)行投影圖像的特征匹配。

圖像配準(zhǔn)算法可以分為基于灰度法的方法、基于特征的方法、基于變換域法的方法[8]等。目前較為常用的是基于特征的方法,主要有趙海峰等[9]提出的基于特征點(diǎn)Rényi的圖像配準(zhǔn)算法、梁楓和王平[10]提出的角點(diǎn)特征算法、LOWE[11]提出的SIFT特征提取算法、張雄美等[12]提出的改進(jìn)SIFT特征提取算法以及在SIFT特征提取算法的基礎(chǔ)上,BAY等[13]提出的SURF特征提取法等圖像配準(zhǔn)算法。

SURF算子在提取的特征點(diǎn)時(shí)對(duì)尺度變換和旋轉(zhuǎn)變換具有不變性,這個(gè)特性對(duì)本文中獲取的兩幅二維投影圖像之間的差異具有較好的容錯(cuò)性,有利于進(jìn)一步三維數(shù)據(jù)的配準(zhǔn),因此本文采取基于SURF算子的特征提取與匹配算法。

2.1 SURF特征點(diǎn)的選取

為了完成三維點(diǎn)云模型的配準(zhǔn),需要首先從前面獲得的投影圖像中選擇出一批特征點(diǎn),以便進(jìn)一步從三維點(diǎn)云中搜索特征點(diǎn)對(duì)。

Hessian矩陣的計(jì)算值在一定程度上表征了各點(diǎn)與周圍臨域像素的灰度差異,從而形成對(duì)應(yīng)的圖像。使用不同尺度的模版形成不同尺度的特征點(diǎn)響應(yīng)值的金字塔圖像,從而搜索到特征響應(yīng)極值點(diǎn)。選取在最近26個(gè)臨域值為極值的特征點(diǎn),作為備選特征點(diǎn)。然后,通過(guò)在圖像空間和尺度空間中進(jìn)行的插值計(jì)算[15],得到最終的特征點(diǎn)坐標(biāo)。

2.2 SURF特征值的計(jì)算

為了對(duì)投影圖像中的特征點(diǎn)進(jìn)行精確匹配,需要計(jì)算各特征點(diǎn)的SURF特征值。為此,首先計(jì)算各特征點(diǎn)的局部矢量:在特征點(diǎn)周圍6的鄰域內(nèi)計(jì)算水平方向和垂直方向的哈爾小波值,并讓其乘以不同的比例系數(shù),使得遠(yuǎn)離特征點(diǎn)的響應(yīng)貢獻(xiàn)小,靠近特征點(diǎn)的響應(yīng)貢獻(xiàn)大;再利用60°的窗口進(jìn)行360°的滑動(dòng),累加窗口內(nèi)的哈爾小波響應(yīng),則該特征點(diǎn)的局部矢量定義為其最大值方向。

2.3 特征點(diǎn)匹配

分別計(jì)算出兩幅二維投影圖像的各特征點(diǎn)的SURF特征描述向量后,為了得到兩幅投影圖像中特征點(diǎn)的匹配關(guān)系,需要計(jì)算兩個(gè)特征點(diǎn)的特征描述向量間的匹配程度。

設(shè)、分別為兩幅投影圖像提取的特征點(diǎn)集,對(duì)中各特征點(diǎn)p,計(jì)算出p與集合中所有特征點(diǎn)q的64維歐式距離d,即

則認(rèn)為pd1所對(duì)應(yīng)的q1為匹配的點(diǎn)對(duì)。

3 三維模型的配準(zhǔn)

3.1 三維特征點(diǎn)對(duì)獲取

要完成后續(xù)的三維模型配準(zhǔn),必須首先得到三維特征點(diǎn)對(duì)。本文獲取的三維特征點(diǎn)對(duì)的方法是利用2.3節(jié)中獲取的投影圖像的匹配特征點(diǎn)對(duì)并且根據(jù)每個(gè)投影圖像的像素點(diǎn)都唯一對(duì)應(yīng)一個(gè)三維網(wǎng)格中的空間點(diǎn)而計(jì)算得到的。

首先計(jì)算二維特征點(diǎn)對(duì)應(yīng)三維空間上的、坐標(biāo),即

其中,Verte、Vertex分別為二維特征點(diǎn)對(duì)應(yīng)的三維空間的、坐標(biāo);point、point分別二維特征點(diǎn)在投影圖像中的、坐標(biāo)。本文1.3節(jié)中,對(duì)于投影圖像每一個(gè)像素點(diǎn),都記錄了對(duì)應(yīng)的三角形網(wǎng)格序號(hào),根據(jù)網(wǎng)格序號(hào),計(jì)算出Verte、Vertex與對(duì)應(yīng)三角形網(wǎng)格3個(gè)頂點(diǎn)的、坐標(biāo)的歐式距離,然后選取距離最近的頂點(diǎn)為三維特征點(diǎn),從而完成三維特征點(diǎn)對(duì)的獲取。

3.2 三維模型的配準(zhǔn)算法

三維模型配準(zhǔn)的任務(wù)是根據(jù)三維特征點(diǎn)對(duì)計(jì)算出變換矩陣,將兩幅點(diǎn)云數(shù)據(jù)統(tǒng)一到一個(gè)參考坐標(biāo)系下。本文采取計(jì)算變換矩陣的方法如下:

(1) 設(shè)變換矩陣、變換前特征點(diǎn)集和變換后特征點(diǎn)集。則有=,即

(3)計(jì)算出、、、等4個(gè)參數(shù)的值,即

同理,可以計(jì)算出系數(shù)、、、、、、、的值,從而計(jì)算出映射矩陣。根據(jù)映射矩陣,對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行空間映射,并進(jìn)而完成三維模型的拼接。

4 實(shí)驗(yàn)結(jié)果及分析

為了驗(yàn)證本文算法的有效性,進(jìn)行了相關(guān)的三維掃描與配準(zhǔn)的實(shí)驗(yàn)。實(shí)驗(yàn)的運(yùn)行環(huán)境為:Inter(R) Core(TM) i7-4710MQ CPU @ 2.50 GHz,8 GB內(nèi)存,Windows 10 64位操作系統(tǒng),采用Visual C++編程在Visual Studio 2005平臺(tái)下基于OpenGL和OpenCV實(shí)現(xiàn)。實(shí)驗(yàn)?zāi)P驮醋悦绹?guó)Artec Spider手持式高精度三維掃描儀。

對(duì)于某木偶模型,掃描儀分別采集了木偶的左半身和右半身,兩個(gè)待配準(zhǔn)的三維木偶模型如圖4所示,其中掃描儀獲得的無(wú)規(guī)則的紋理圖像如圖3所示。經(jīng)過(guò)本文算法獲取的兩幅二維投影圖像如圖5所示。對(duì)圖5的兩幅投影圖像進(jìn)行特征匹配,結(jié)果如圖6所示。為了進(jìn)行相關(guān)的對(duì)比性實(shí)驗(yàn),對(duì)圖4待配準(zhǔn)的三維模型使用RANSAC算法配準(zhǔn)后的結(jié)果如圖7(a)所示,使用ICP算法配準(zhǔn)后的結(jié)果如圖7(b)所示,使用本文配準(zhǔn)算法后的結(jié)果如圖7(c)所示。

圖4 待配準(zhǔn)木偶模型

為進(jìn)一步驗(yàn)證本文算法的有效性與魯棒性,使用了多種三維模型進(jìn)行了相關(guān)實(shí)驗(yàn),對(duì)于某頭像模型和茶壺模型的實(shí)驗(yàn)結(jié)果如圖8、9所示,某1號(hào)人臉模型和2號(hào)人臉模型的實(shí)驗(yàn)結(jié)果如圖10、11所示。并將本文算法分別從配準(zhǔn)精度、運(yùn)行時(shí)間上與RANSAC算法和ICP算法進(jìn)行了比較。配準(zhǔn)精度的衡量采用計(jì)算均方誤差的形式來(lái)驗(yàn)證。對(duì)比實(shí)驗(yàn)數(shù)據(jù)見表1、2。

圖7木偶模型配準(zhǔn)結(jié)果

圖9 茶壺模型的配準(zhǔn)

圖10 1號(hào)人臉模型的配準(zhǔn)

圖11 2號(hào)人臉模型的配準(zhǔn)

表1 其他算法與本文算法均方誤差值(mm2)

表2 其他算法與本文算法的時(shí)間比較(s)

實(shí)驗(yàn)結(jié)果表明,本文算法配準(zhǔn)結(jié)果的均方誤差值較小,并且可以較好地適應(yīng)不同點(diǎn)云初始位置與不同曲率分布的三維模型配準(zhǔn)。如在初始位置相距較遠(yuǎn)的頭像模型、1號(hào)人臉模型、2號(hào)人臉模型,如圖8、10、11所示,本文算法相對(duì)ICP算法與RANSAC算法有較好的配準(zhǔn)精度;對(duì)于交叉程度較大,并且許多地方點(diǎn)云曲率較為相近的茶壺模型,如圖9所示,本文算法的配準(zhǔn)精度也較RANSAC與ICP理想。而就運(yùn)行時(shí)間而言,本文算法的平均運(yùn)行時(shí)間也略優(yōu)于RANSAC算法和ICP算法。

5 結(jié)束語(yǔ)

本文提出了一種面向三維模型的SURF特征提取與配準(zhǔn)的方法。該方法能夠?qū)呙鑳x獲取的無(wú)規(guī)則的紋理圖像轉(zhuǎn)化為三維模型的二維投影圖像;并進(jìn)行SURF特征提取與匹配;依據(jù)二維投影圖像像素點(diǎn)與三維網(wǎng)格上空間點(diǎn)的一一對(duì)應(yīng)的映射關(guān)系,找到兩幅點(diǎn)云數(shù)據(jù)的三維特征點(diǎn)對(duì);從而求取映射變換矩陣,并最終完成三維模型的配準(zhǔn)工作。實(shí)驗(yàn)結(jié)果表明,該方法在配準(zhǔn)時(shí)間變化不大的前提下,有效的提高了配準(zhǔn)精度,并具有較好的適應(yīng)性。對(duì)于如何在保證三維模型配準(zhǔn)精度的前提下,進(jìn)一步提高配準(zhǔn)速度是未來(lái)研究工作的重點(diǎn)。

[1] 肖慧敏. 點(diǎn)云數(shù)據(jù)的配準(zhǔn)算法[D]. 西安: 西安電子科技大學(xué), 2013.

[2] LEI Q, FU H L,HAN C P. 3D registration of biological images and models [J]. IEEE Signal Processing Magazine, 2015, 32(1): 70-77.

[3] YANG J, LI H, CAMPBELL D, et al. Go-ICP: a globally optimal solution to 3D ICP point-set registration [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(11): 2241-2253.

[4] 趙夫群, 周明全. 改進(jìn)的概率迭代最近點(diǎn)配準(zhǔn)算法[J]. 圖學(xué)學(xué)報(bào), 2017, 38(1): 16-22.

[5] LU M, ZHAO J, GUO Y L, et al. Accelerated coherent point drift for automatic three-dimensional point cloud registration [J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(2): 162-166.

[6] BUSTOS A P,CHIN T J,ENIKSSON A,et al. Fast rotation search with stereographic projections for 3D registration [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(11): 2227-2239.

[7] MELLADO N, DELLEPIANE M, SCOPIGNO R. Relative scale estimation and 3D registration of multi-modal geometry using growing least squares [J]. IEEE Transactions on Visualization and Computer Graphics, 2016, 22(9): 2160-2171.

[8] 殷伶. 圖像匹配技術(shù)的研究[D]. 西安: 西安電子科技大學(xué), 2010.

[9] 趙海峰, 陸明, 卜令斌, 等. 基于特征點(diǎn)Rényi互信息的醫(yī)學(xué)圖像配準(zhǔn)[J]. 計(jì)算機(jī)學(xué)報(bào), 2015, 38(6): 1212-1221.

[10] 梁楓, 王平. 基于角點(diǎn)特征的高精度圖像配準(zhǔn)算法[J]. 重慶理工大學(xué)學(xué)報(bào): 自然科學(xué), 2010, 24(2): 87-90.

[11] LOWE D G. Distinctive image features from scale-invariant key points [J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[12] 張雄美, 易昭湘, 蔡幸福, 等. 基于改進(jìn)SIFT的SAR圖像配準(zhǔn)方法[J]. 計(jì)算機(jī)工程, 2015, 41(1): 223-226.

[13] BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF) [J]. Computer Vision and Image Under-standing, 2008, 110(3): 346-359.

[14] 巨剛, 袁亮, 劉小月, 等基于改進(jìn)SURF算法的移動(dòng)目標(biāo)實(shí)時(shí)圖像配準(zhǔn)方法研究[J]. 通信學(xué)報(bào), 2017, 38(1): 177-186.

[15] BROWN M, LOWE D. Invariant features from interest point groups [EP/OL]. [2018-02-20]. https://wenku. baidu.com/view/ab6d10c608a1284ac85043b9.html.

3D Model Registration Based on SURF Feature Extraction of Projection Images

TONG Lijing, LIU Bowen

(College of Computer Science and Technology, North China University of Technology, Beijing 100144, China)

In order to solve the problems with the traditional 3D model registration methods, such as the higher requirements for the initial locations of the two point clouds and the lower accuracy of model registration sometimes, a 3D model registration method based on SURF feature extraction of the two 3D model projection images is proposed. Firstly, the range of the projection image is determined by the 3D model data, and the model grid which each projection image pixel belongs to is deduced. Thus the two-dimensional projection image can be calculated by the mapping relationship from the projected image to the texture image. Then, the SURF feature points and the eigenvalues are calculated for the two projection images respectively. The feature matching is performed according to the SURF eigenvalues. Next, the feature point pairs in the two 3D models are extracted through the mapping relations between the 3D models’ grid vertices and the projection image pixels. Finally, the two 3D model registration is implemented through the transformation matrix which is calculated from the matched feature point pairs in the two 3D models. The experimental results show that this method can improve the registration accuracy effectively and has good robustness under the condition of little change in registration time.

3D scanning; projection image; SURF feature; image registration; 3D registration

TP 391

10.11996/JG.j.2095-302X.2018061117

A

2095-302X(2018)06-1117-06

2018-03-14;

2018-04-20

國(guó)家自然科學(xué)基金項(xiàng)目(61371142);北京市教委科技創(chuàng)新服務(wù)能力建設(shè)項(xiàng)目

童立靖(1972-),男,安徽馬鞍山人,副教授,博士,碩士生導(dǎo)師。主要研究方向?yàn)橛?jì)算機(jī)圖形學(xué)、數(shù)字圖像處理等。E-mail:ljtong@ncut.edu.cn

猜你喜歡
像素點(diǎn)特征提取紋理
基于局部相似性的特征匹配篩選算法
基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
使用紋理疊加添加藝術(shù)畫特效
基于像素點(diǎn)篩選的艦船湍流尾跡檢測(cè)算法
基于Daubechies(dbN)的飛行器音頻特征提取
基于canvas的前端數(shù)據(jù)加密
TEXTURE ON TEXTURE質(zhì)地上的紋理
Bagging RCSP腦電特征提取算法
基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
荆州市| 莫力| 西宁市| 方山县| 白银市| 沛县| 石楼县| 湟源县| 肇源县| 兴义市| 刚察县| 密山市| 莱州市| 梅州市| 阿坝县| 绥德县| 安顺市| 台南市| 门源| 军事| 越西县| 噶尔县| 潮州市| 岑溪市| 宁德市| 南汇区| 万山特区| 湾仔区| 白银市| 丰顺县| 秀山| 微山县| 朔州市| 宁乡县| 永胜县| 新竹市| 潜山县| 信阳市| 上饶县| 庆元县| 东港市|