国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

面向機(jī)器人航天員的3D目標(biāo)識別定位算法參數(shù)優(yōu)化研究

2016-10-19 09:24郝穎明付雙飛
載人航天 2016年5期
關(guān)鍵詞:視圖金字塔模板

潘 旺,郝穎明,朱 楓,付雙飛

(1.中國科學(xué)院沈陽自動化研究所光電信息技術(shù)研究室,沈陽110016;2.中國科學(xué)院大學(xué),北京100049;3.中國科學(xué)院光電信息處理重點實驗室,沈陽110016;4.遼寧省圖像理解與視覺計算重點實驗室,沈陽110016)

面向機(jī)器人航天員的3D目標(biāo)識別定位算法參數(shù)優(yōu)化研究

潘 旺1,2,郝穎明1,3,4,朱 楓1,3,4,付雙飛1,3,4

(1.中國科學(xué)院沈陽自動化研究所光電信息技術(shù)研究室,沈陽110016;2.中國科學(xué)院大學(xué),北京100049;3.中國科學(xué)院光電信息處理重點實驗室,沈陽110016;4.遼寧省圖像理解與視覺計算重點實驗室,沈陽110016)

針對機(jī)器人航天員抓取目標(biāo)物體時的快速識別定位問題,分析了HALCON中基于CAD模型的三維目標(biāo)識別與定位算法在美國Robonaut 2視覺上的應(yīng)用;對該算法的參數(shù)優(yōu)化進(jìn)行了研究,分析了各個參數(shù)對算法的影響效果,并對各個參數(shù)的選擇原則以及協(xié)調(diào)搭配進(jìn)行了探討;最后搭建實驗平臺,驗證了優(yōu)化效果,證明這些優(yōu)化提高了模板匹配的相似度,達(dá)到100%正確識別率,處理百萬像素圖像僅需約200 ms,且位置平均精度小于2 mm,角度平均精度小于1°。

機(jī)器人航天員;Robonaut 2;目標(biāo)識別定位;3D測量;形狀匹配;HALCON

1 引言

世界各航天大國都在發(fā)展空間機(jī)器人以協(xié)助或代替航天員完成空間任務(wù)。傳統(tǒng)的機(jī)械手式空間機(jī)器人在降低航天員出艙風(fēng)險、減輕航天員工作負(fù)擔(dān)等方面發(fā)揮了重要作用,但隨著更廣泛和深入的太空探索的需要,新型的類人機(jī)器人航天員成為了航天技術(shù)研究的一項重要內(nèi)容[1]。

國外典型的機(jī)器人航天員有美國的Robonaut 2[2],日本的Kirobo[3],俄羅斯的SAR-401[4],德國的Justin[5]和歐洲航天局的Eurobot[6]等。這些機(jī)器人航天員中,除了Kirobo是一個小型的聊天機(jī)器人,不從事體力工作外,其余的都要協(xié)助或代替航天員完成工作任務(wù)。其中,最具代表性的是首個進(jìn)入太空的Robonaut 2。

Robonaut 2是由美國航空航天局(NASA)和通用公司合作開發(fā)的首個進(jìn)入太空的人形機(jī)器人[7],其外觀如圖1所示。Robonaut 2主要用于完成空間站的清潔任務(wù),配合或代替航天員進(jìn)行艙外操作,或做一些重復(fù)循環(huán)的工作[8]。未來還可能從事更危險的、極端條件下的探索任務(wù),例如火星表面的勘探任務(wù)等?,F(xiàn)在已制造出兩臺Robonaut 2,其中一臺于2011年2月24日乘發(fā)現(xiàn)號航天飛機(jī)順利進(jìn)入國際空間站[9],另外一臺應(yīng)用于地面試驗。Robonaut 2已經(jīng)能夠進(jìn)行抓握扶手[10]、按動控制面板按鈕、使用空氣流量計測量[11]以及粘貼薄膜等精細(xì)操作。

圖1 美國人形機(jī)器人航天員Robonaut 2[7]Fig.1 American humanoid robot astronaut Robonaut 2[7]

機(jī)器人順利地對目標(biāo)進(jìn)行操作,離不開強(qiáng)大的機(jī)器視覺系統(tǒng)[12]。Robonaut 2的視覺系統(tǒng)安裝在金色頭盔里,包括四部緊湊型彩色立體攝像機(jī)Prosilica GC2450C,其中兩個攝像機(jī)的安裝與人眼布局相似,能夠為機(jī)器人和操作人員提供立體視覺,另外兩個攝像機(jī)作為備用;嘴部安裝有紅外TOF相機(jī)Swiss Ranger SR4000,提供景深感知,與雙目視覺形成冗余,根據(jù)不同場景應(yīng)用的需要,互為補(bǔ)充,提高測量速度和精度[13]。

本文為快速實現(xiàn)3D目標(biāo)識別定位系統(tǒng),選用了機(jī)器視覺領(lǐng)域比較成熟的商業(yè)化軟件HALCON。HALCON是由德國MVtec公司開發(fā)的一套完善的機(jī)器視覺軟件,使用戶能夠在最短的時間內(nèi)開發(fā)出視覺系統(tǒng),其不僅提供了最先進(jìn)和最新的技術(shù)算法和函數(shù),還提供了功能強(qiáng)大的集成開發(fā)環(huán)境HDevelop[14-15]。為了縮短項目研發(fā)周期,實現(xiàn)快速開發(fā),NASA在Robonaut研發(fā)項目中也充分運用了HALCON軟件實現(xiàn)機(jī)器視覺系統(tǒng)[13]。針對CAD(計算機(jī)輔助設(shè)計,Computer Aided Design)模型已知的三維物體(如:扶手等),HALCON提供了一種基于CAD模型的三維目標(biāo)識別與定位算法[16-18]。該算法主要利用三維物體的形狀輪廓信息進(jìn)行匹配,具有識別定位速度快、精度高、魯棒性強(qiáng)等優(yōu)點。當(dāng)待識別物體為金屬工件時,通常其表面沒有明顯可識別定位的顏色或紋理信息[19],基于此類特征的識別定位算法將無法應(yīng)用,而該算法不受此條件約束。此外,該算法最大的優(yōu)點是具有良好的通用性,如果要識別多種不同的CAD物體,那么只要更換CAD模型,再適當(dāng)?shù)卣{(diào)整參數(shù)即可,無需根據(jù)物體的不同而重新修改算法,大大減少了工作量。但該算法受應(yīng)用環(huán)境以及參數(shù)的影響較大,并且可調(diào)參數(shù)眾多,參數(shù)的作用效果以及如何有效合理地調(diào)整參數(shù)以達(dá)到最佳應(yīng)用效果,是非常重要且值得研究的問題。

我國的空間機(jī)器人研究起步較晚,目前對機(jī)器人航天員的相關(guān)研究還很不成熟,且國內(nèi)基于HALCON的應(yīng)用研究主要集中在二維方面[20],因此,本文以類人機(jī)器人航天員為應(yīng)用背景,基于HALCON軟件進(jìn)行3D目標(biāo)識別定位算法的參數(shù)優(yōu)化研究,有非常重要的意義和實際應(yīng)用價值。

2 3D目標(biāo)識別定位原理

基于CAD模型的三維目標(biāo)識別與定位算法[16-18],首先根據(jù)目標(biāo)的三維CAD模型進(jìn)行建模,建模方法如下:將目標(biāo)置于一虛擬球形的球心位置,虛擬球的經(jīng)緯度和球半徑是由物體的位姿變化范圍確定的,虛擬攝像機(jī)在球面上該設(shè)定范圍內(nèi)進(jìn)行步進(jìn)移動,生成物體的二維視圖;因為獲得的二維視圖數(shù)量巨大,所以采用金字塔策略進(jìn)行加速,即下層相鄰的金字塔模板視圖相似度大于一定閾值將會在上層金字塔進(jìn)行合并,相似度評價函數(shù)如式(1)所示。

其中n表示視圖中像素點個數(shù),mi、si分別表示模板圖像和待搜索圖像第i個像素點的梯度向量,c用來表示兩圖像之間的相似度,取值范圍是0~1。生成模板金字塔時,令c=0.9[18],合并后視圖的數(shù)量隨著金字塔層數(shù)的升高而急劇減少;在頂層金字塔,圖像分辨率較低,視圖數(shù)量變得非常少,同時,模板的邊緣信息也會變得較粗略;最終完成了分層次視圖模板的建立,其包含的信息有目標(biāo)的模板圖像以及生成該圖像對應(yīng)的位姿。

識別匹配過程是建模過程的逆過程,輸入待識別圖像,生成圖像金字塔,從最頂層金字塔開始搜索,使用式(1)計算該層模板視圖與搜索圖像的相似度,設(shè)置一個閾值分?jǐn)?shù)MinScore,只有大于閾值分?jǐn)?shù)的模板視圖才繼續(xù)進(jìn)行下層金字塔的匹配,最終匹配得到分?jǐn)?shù)最高的最底層金字塔視圖,即最優(yōu)的匹配結(jié)果。上述過程如圖2所示,圖中綠色三角形表示所有的模板視圖,黃圈表明在最頂層的全位姿范圍搜索,紅圈表示候選匹配視圖的子視圖(物體位姿逐漸被確定),藍(lán)框表示匹配成功的候選視圖,最終,搜索到最底層,得到藍(lán)底紋的最優(yōu)匹配視圖。再利用最小二乘法對匹配結(jié)果的位姿進(jìn)行優(yōu)化,完成亞像素級的位姿精確定,從而進(jìn)一步減小了位姿測量的誤差。

圖2 物體的搜索過程Fig.2 The search process of the object

3 3D目標(biāo)識別定位方法軟件實現(xiàn)

基于CAD模型的三維目標(biāo)識別與定位算法主要由兩大部分組成,第一部分是建模階段:讀取3D CAD模型,設(shè)置建模參數(shù),創(chuàng)建2D視圖金字塔模板;第二部分是識別定位階段:用創(chuàng)建好的形狀模板搜索物體并定位測量。在HALCON中算法實現(xiàn)步驟如下:

第一步:根據(jù)物體的三維CAD模型,創(chuàng)建合適的形狀模板。

首先利用函數(shù)read_object_model_3d()讀取物體的三維CAD模型文件。然后利用函數(shù)prepare_object_model_3d()為接下來的形狀匹配建模做準(zhǔn)備,它可以加速接下來的建模操作。最后設(shè)置建模階段的一系列參數(shù),利用函數(shù)create_ shape_model_3d()創(chuàng)建金字塔結(jié)構(gòu)的形狀模板視圖。這里的模板金字塔結(jié)構(gòu)對應(yīng)于圖像金字塔。例如:原始圖像(第一層金字塔,即最底層金字塔)是2448×2050,第二層金字塔圖像尺寸為1224×1025,第三層金字塔圖像尺寸為612× 512,……識別定位階段是從最高層金字塔開始的。這種設(shè)計是一種由粗到精的策略,可以大幅提高識別匹配效率,且具有良好的魯棒性。

第二步:查看生成的模板,調(diào)整參數(shù)。

主要利用函數(shù)get_shape_model_3d_params()查看每層金字塔的視圖個數(shù)等參數(shù),利用函數(shù)get _shape_model_3d_contours()查看任意一層金字塔的任意一個視圖模板的形狀輪廓。其形狀輪廓是將CAD模型投影成圖像,然后生成圖像金字塔,因為sobel邊緣檢測效率較高,所以采用sobel算子提取邊緣,如式(2)所示。

其中I表示圖像,gx,gy分別表示經(jīng)過橫向和縱向邊緣檢測的圖像。梯度大小g計算如式(3)所示,梯度方向Θ計算如式(4)所示。

通過查看形狀模板的邊緣輪廓,可以有針對性地修改建模和識別匹配過程中的參數(shù)。創(chuàng)建的形狀模板對隨后的識別匹配以及定位測量有重要影響,所以在建模階段,選擇合適的建模范圍,邊緣提取對比度等建模參數(shù)非常關(guān)鍵。

第三步:識別定位物體。

在圖像中對目標(biāo)物體識別定位,主要利用函數(shù)find_shape_model_3d()。該函數(shù)的參數(shù)較多,主要包括MinScore,Greediness,NumLevels,pose_ refinement,recompute_score等,為了獲得實時的匹配速度以及滿足需求的高精度,需要對這些參數(shù)進(jìn)行合理調(diào)整。識別匹配的過程是從最高層金字塔開始的,即從分辨率最低的圖像開始搜索,使用的是最高層金字塔的粗略的形狀模板,這樣可以快速地確定目標(biāo)在圖像中的大致位置區(qū)域,為后面高分辨率圖像上的搜索節(jié)省大量時間,從而大幅度提高了算法的執(zhí)行效率,保證了最終的定位精度,同時具有較好的魯棒性。

4 參數(shù)的優(yōu)化設(shè)置

整個算法的參數(shù)優(yōu)化設(shè)置,主要包括建模參數(shù)設(shè)置和搜索參數(shù)設(shè)置。在實際應(yīng)用場景下采集大量測試圖像,有針對性地調(diào)整各個參數(shù)。算法的參數(shù)優(yōu)化設(shè)置流程如圖3所示。

圖3 參數(shù)優(yōu)化設(shè)置流程圖Fig.3 The flow chart of parameter optimization

建模參數(shù)優(yōu)化設(shè)置主要包括:根據(jù)物體坐標(biāo)系和相機(jī)坐標(biāo)系之間的位姿變化范圍,確定建模時球形經(jīng)緯度,球半徑和相機(jī)滾轉(zhuǎn)角的范圍;通過查看圖像中的邊緣提取情況,設(shè)置最小對比度;根據(jù)圖像的尺寸以及建模后最頂層金字塔的形狀模板,設(shè)置建模生成的視圖金字塔層數(shù);通過查看最底層金字塔形狀模板的邊緣輪廓,確定最小面夾角的值;根據(jù)模型的大小和輪廓點數(shù)量的多少,設(shè)置optimization的值。搜索參數(shù)優(yōu)化設(shè)置主要包括:根據(jù)工程應(yīng)用的速度和精度要求,設(shè)置Min-Score、Greediness、NumLevels、pose_refinement和recompute_score的值。算法的魯棒性和識別速度是實際應(yīng)用中最關(guān)心的性能,因此參數(shù)的優(yōu)化目標(biāo)主要有這兩個方面。

4.1 以魯棒性為優(yōu)化目標(biāo)

在考慮優(yōu)化速度和精度之前,首先有必要保證算法對所有測試圖像是可用的,即能夠正確識別定位所有測試圖像中的目標(biāo)物體。根據(jù)文獻(xiàn)[21]中3D形狀匹配的相關(guān)內(nèi)容以及本文的實驗經(jīng)驗,這里需要考慮如下參數(shù)的優(yōu)化設(shè)置:

4.1.1 建模參數(shù)

1)設(shè)置足夠大的位姿建模范圍,保證物體位姿變化范圍都在球形建模范圍內(nèi)。通過設(shè)置參數(shù)LongitudeMin、LongitudeMax、LatitudeMin、Latitude-Max、CamRollMin、CamRollMax、DistMin、DistMax,確定物體的建模范圍。建模范圍過小,目標(biāo)位姿不在建模范圍內(nèi)會導(dǎo)致識別失敗或錯誤識別。范圍設(shè)置過大,會導(dǎo)致每層視圖金字塔的視圖模板數(shù)過多,大幅拉低識別過程的搜索速度,同時也會增大將非目標(biāo)物體識別為目標(biāo)物體的錯誤概率。

2)建模時設(shè)置MinContrast的值,保證物體在圖像中提取的輪廓線完整清晰。如果物體和背景之間有明顯的對比度,即可輕松從背景中識別出物體。但如果對比度較低,則需要適當(dāng)減小MinContrast。MinContrast設(shè)置過小,會造成圖像中混亂邊緣點過多,易導(dǎo)致錯誤識別,同時嚴(yán)重降低匹配效率。MinContrast設(shè)置過大,圖像中目標(biāo)物體的邊緣提取會發(fā)生缺失甚至消失,特征減少,匹配得分下降,算法的魯棒性會下降。檢查Min-Contrast的值是否合適,可以通過函數(shù)edges_image將濾波器設(shè)為sobel_fast,查看圖像的邊緣提取結(jié)果。

3)建模時設(shè)置num_levels的值與圖像的尺寸以及最頂層視圖金字塔的形狀模板有關(guān),會影響到搜索速度和匹配魯棒性。圖像的尺寸越大,num_levels的值應(yīng)設(shè)得越大,但要查看最頂層視圖金字塔的2D形狀模板,保證其仍能很好地表征目標(biāo)特征。

4)建模時設(shè)置min_face_angle的值會影響生成的形狀模板的輪廓特征,調(diào)整它的值,觀察生成的形狀模板的邊緣情況,與圖像中提取的目標(biāo)邊緣進(jìn)行比對,越一致越好。

5)建模時設(shè)置optimization的值與CAD模型的大小以及復(fù)雜程度有關(guān),同時與參數(shù)Greediness有關(guān)聯(lián)。設(shè)為none時,魯棒性最好。設(shè)為其它優(yōu)化值,可提高搜索速度。

6)判斷使用忽略部分對比度極性,還是忽略局部對比度極性。如果將參數(shù)metric設(shè)置為“ignore_part_polarity”,只允許模型的不同部分之間對比度極性改變,而相同的模型內(nèi)部不得改變。如果設(shè)置參數(shù)metric為“ignore_local_polarity”,即使每一個模型點的極性都發(fā)生了改變,物體也能被識別出來。當(dāng)圖像背景混亂復(fù)雜時,容易導(dǎo)致錯誤匹配,此時應(yīng)設(shè)置metric為“ignore_part_polarity”。

7)如果物體存在一定的對稱性,則需要在建模時調(diào)整物體坐標(biāo)系與相機(jī)坐標(biāo)系的相對關(guān)系,并控制角度變化范圍。例如一個繞攝像機(jī)光軸旋轉(zhuǎn)對稱的物體,可以在建模時將攝像機(jī)滾轉(zhuǎn)角CamRoll由[0,360°]設(shè)置為[0,180°]。

4.1.2 搜索參數(shù)

1)調(diào)整Greediness的值,將其設(shè)置為0,不使用貪心算法加速,所有輪廓點全部參與計算,搜索速度較慢,魯棒性好。

2)判斷在某一層或某幾層高層金字塔上的識別匹配是否失敗或錯誤,可以通過調(diào)整函數(shù)find_shape_model_3d()里的參數(shù)NumLevels來測試查看。

3)如果存在相同的多個物體實例堆疊在一起部分重合的情況,則應(yīng)增加MaxOverlap的值。如果物體存在部分遮擋的情況,物體的形狀輪廓將部分缺失,則應(yīng)減小MinScore的值保證能夠識別出被部分遮擋的物體。如果要識別出在圖像邊緣部分出界的物體,則需要設(shè)置border_model的值為“true”。

4.2 以識別速度為優(yōu)化目標(biāo)

識別定位過程的速度不僅跟創(chuàng)建生成的金字塔視圖模板有關(guān),還跟參數(shù)設(shè)置密切相關(guān)。根據(jù)文獻(xiàn)[21]中3D形狀匹配的相關(guān)內(nèi)容以及本文的實驗經(jīng)驗,加快識別速度的參數(shù)優(yōu)化設(shè)置方法如下:

1)建模時盡可能縮小球形經(jīng)緯度、球半徑以及攝像機(jī)滾轉(zhuǎn)范圍,限定物體的位姿變化范圍可大幅提高搜索匹配速度。

2)如果CAD模型和圖像大小允許,在創(chuàng)建生成金字塔視圖模板時盡量選擇大的num_levels,生成更多層視圖金字塔以加快匹配速度。

3)盡可能在圖像中限定待搜索的ROI區(qū)域。

4)在保證能夠正確識別定位的前提下,盡可能增大MinScore的值。MinScore的值越大,排除掉的非目標(biāo)點越多,識別匹配的速度越快。過大會導(dǎo)致找不到目標(biāo),過小會導(dǎo)致匹配速度慢,還可能造成識別定位錯誤。

5)增大Greediness的值,利用非安全貪心算法減少運算量,只采樣一部分輪廓點進(jìn)行計算,如果小于MinScore的值,就快速排除,可提高匹配速度。但同時需要減小MinScore的值,二者具有相關(guān)性。Greediness值過大有可能找不到目標(biāo),過小會導(dǎo)致計算量大,匹配速度慢。

5 試驗結(jié)果與分析

本文試驗用計算機(jī)為PC機(jī),其配置為Intel(R)Core(TM)2 Duo CPU 2.66 GHz,2.00 GB內(nèi)存,操作系統(tǒng)為Windows XP,開發(fā)環(huán)境為Halcon 11.0.2,Visual Studio 2010。以一普通CAD實物工件(尺寸為120 mm×150 mm×30 mm)為例進(jìn)行試驗,工件的CAD模型如圖4所示。使用標(biāo)定好內(nèi)外參的百萬像素工業(yè)攝像機(jī)采集的8位單通道灰度圖像2000幅作為測試圖像,相機(jī)焦距為8.38 mm,圖像分辨率為1224×1025。

圖4 待識別工件的CAD模型Fig.4 CAD model of the workpiece to be identified

參數(shù)優(yōu)化目標(biāo)是在保證正確識別率為100%的前提下,盡可能提高識別速度。參數(shù)優(yōu)化前的CAD建模范圍是經(jīng)緯度為[-45°,45°],距離為[0.7 m,0.9 m],攝像機(jī)滾轉(zhuǎn)角為[0,360°]。根據(jù)所有測試圖像中物體的姿態(tài)變化范圍可得,參數(shù)優(yōu)化后的CAD模型的建模范圍是經(jīng)緯度都為[-8°,8°],距離為[0.75 m,0.84 m],攝像機(jī)滾轉(zhuǎn)角為[0,360°]。其中,攝像機(jī)滾轉(zhuǎn)角的范圍不會對生成模板金字塔的每層視圖數(shù)產(chǎn)生影響。參數(shù)優(yōu)化前后都創(chuàng)建生成了六層金字塔模板,參數(shù)優(yōu)化前每層的視圖模板數(shù)為[601,151,42,16,5,5],參數(shù)優(yōu)化后每層的視圖模板數(shù)為[7,1,1,1,1,1]??梢?,優(yōu)化建模范圍大幅度減少了視圖金字塔的模板數(shù)量,從而減少了每一層圖像金字塔的匹配計算量,優(yōu)化了算法的搜索速度。參數(shù)優(yōu)化后第一層金字塔到第六層金字塔的第一個視圖模板如圖5所示??梢钥闯觯罡邔咏鹱炙囊晥D模板輪廓點稀少,已經(jīng)不足以完整清晰地表達(dá)目標(biāo)物體的形狀特征,不構(gòu)成排它性,易導(dǎo)致誤識別,因此設(shè)置num_levels的值為5。

圖5 六層金字塔每層的第一個視圖模板Fig.5 The first view in each level of the pyramid

通過查看最底層金字塔形狀模板的邊緣輪廓確定min_face_angle的值為31°,優(yōu)化前的值為30°,如圖6所示。該調(diào)整消除了模型中3個通孔內(nèi)部側(cè)壁圓柱面上的輪廓線,而這些輪廓線在測試圖像的邊緣提取結(jié)果中也是不存在的。因此通過增大min_face_angle的值,使模型在建模時通孔內(nèi)壁也不出現(xiàn)邊緣,提高了算法的魯棒性,同時有助于MinScore的設(shè)置。通過查看測試圖像的邊緣提取情況設(shè)置MinContrast為8,該值與成像光照條件密切相關(guān)。優(yōu)化前該值為10,無法提取出圖像中目標(biāo)物體的全部形狀特征,丟失重要的輪廓線特征,不利于匹配定位。物體的模型尺寸較小,輪廓點不多,因此設(shè)置optimization的值為none,使算法更加魯棒。以上就完成了建模參數(shù)的優(yōu)化設(shè)置,創(chuàng)建生成了合適的形狀模板視圖金字塔。

讀入單幅測試圖像進(jìn)行識別定位,結(jié)果如圖7所示,搜索該圖像的時間是0.118 s,而參數(shù)優(yōu)化前搜索該圖像的時間為0.542 s,由此可見,合理調(diào)整建模參數(shù)可以明顯提高識別定位的速度。同樣保持其他參數(shù)不變,將num_levels改為3,建模生成的金字塔每層視圖模板數(shù)為[7,1,1],搜索該圖像花費時間為5.531 s,可以看出,num_levels的增加明顯縮短了搜索花費的時間。

參數(shù)MinScore和Greediness的可取值范圍都是0~1,可調(diào)間隔為0.01,結(jié)合采用枚舉法和二分法進(jìn)行試驗。對單幅圖像進(jìn)行參數(shù)MinScore和Greediness的優(yōu)化試驗,首先保持Greediness值為0.9不變,隨著最小得分參數(shù)MinScore值不斷增大,匹配速度不斷加快,MinScore值設(shè)置過大導(dǎo)致找不到目標(biāo),試驗結(jié)果如表1所示。然后保持MinScore值為0.9不變,隨著貪心系數(shù)Greediness值不斷增大,匹配速度逐漸加快,過大則參與運算的輪廓點過少,匹配得分降低,導(dǎo)致找不到目標(biāo),試驗結(jié)果如表2所示。兩參數(shù)同時優(yōu)化的試驗結(jié)果如表3所示,如果Greediness增大,則參與匹配運算的點數(shù)減少,MinScore應(yīng)相應(yīng)地適當(dāng)減小才能保證識別正確。因此工程應(yīng)用中應(yīng)針對所有的測試圖像進(jìn)行兩參數(shù)的優(yōu)化配置,保證全部圖像中的目標(biāo)都能被正確快速地識別定位。

圖6 調(diào)整最小面夾角使模型與待識別圖像邊緣特征一致Fig.6 Adjust min_face_angle to make edge features of the model consistent with the ones of images

圖7 識別定位結(jié)果Fig.7 The result of the recognition and location

表1 固定Greediness=0.9優(yōu)化參數(shù)MinScoreTable 1 Optimization of MinScore with Greediness=0.9

表2 固定MinScore=0.9優(yōu)化參數(shù)GreedinessTable 2 Optimization of Greediness with MinScore=0.9

表3 參數(shù)MinScore與Greediness同時優(yōu)化Table 3 Simultaneous optimization of the MinScore and Greediness

圖8 Greediness和MinScore優(yōu)化實驗結(jié)果Fig.8 Optimization results of Greediness and MinScore

對所有測試圖像進(jìn)行優(yōu)化實驗,結(jié)合采用枚舉法和二分法調(diào)整MinScore和Greediness的值,每設(shè)置一組值,都需要遍歷所有測試圖像,直至挑選出一組合適的值,能夠達(dá)到100%正確識別率,且滿足工程應(yīng)用的速度和精度要求。對全部2000幅圖像優(yōu)化參數(shù)MinScore和Greediness的實驗結(jié)果如圖8所示。首先設(shè)置MinScore為一個偏小的值,本文設(shè)為0.6,保證所有圖像中待識別目標(biāo)的匹配得分都能大于該分?jǐn)?shù),被正確識別。然后枚舉Greediness的值,遍歷所有測試圖像,平均每幅圖像的處理時間隨Greediness的變化如圖8(a)所示,可見Greediness越大,處理時間越短。正確識別率隨Greediness的變化如圖8(b)所示。從圖中可以看出,當(dāng)Greediness=0.8時,識別率仍為100%,此時平均每幅圖像的處理時間為0.564 s。當(dāng)Greediness繼續(xù)增大時,參與匹配計算的點數(shù)越來越少,得分將下降,導(dǎo)致越來越多的圖像中找不到目標(biāo),因此識別率呈下降趨勢。然后將Greediness的值設(shè)為0.8,枚舉MinScore的值,遍歷所有測試圖像,平均每幅圖像的處理時間隨MinScore的變化如圖8(c)所示,MinScore越大,消耗時間越少。正確識別率隨MinScore的變化如圖8(d)所示。當(dāng)MinScore=0.77時,識別率仍為100%,此時平均每幅圖像的處理時間為0.259 s。隨著MinScore的繼續(xù)增大,分?jǐn)?shù)閾值過高,使得越來越多的圖像中找不到目標(biāo)或找到錯誤目標(biāo),正確識別率下降。最終確定Greediness和MinScore的優(yōu)化值分別為0.8和0.77,保證了100%正確識別率情況下平均每幅圖像處理時間最短。

全部參數(shù)優(yōu)化的結(jié)果如表4所示。為了達(dá)到高精度,本文將亞像素設(shè)置為最高精度,即將pose_refinement設(shè)為least_squares_very_high,且將NumLevels設(shè)為匹配至最底層金字塔,將recompute_score設(shè)為true。本文選擇了9個固定位置,每個位置連續(xù)取十幅圖像進(jìn)行精度測試,十幅圖像中檢測到的目標(biāo)位姿的平均值作為測量值,使用激光跟蹤儀Leica AT901測得的目標(biāo)位姿作為標(biāo)準(zhǔn)值,結(jié)果如表5所示。因為在參數(shù)優(yōu)化前存在誤識別結(jié)果,沒有精度可言,所以此處測量值為參數(shù)優(yōu)化后的測量值。結(jié)果表明,X,Y方向的測量誤差均在2 mm以內(nèi),且明顯小于Z方向的測量誤差。Z方向誤差均在3.5 mm以內(nèi),旋轉(zhuǎn)角度誤差均小于1.5°,實現(xiàn)高精度和100%正確識別率付出的代價是平均每幅圖像耗時增加0.038 s。

表4 對全部圖像進(jìn)行參數(shù)優(yōu)化的結(jié)果Table 4 Optimization results of parameters for all images

表5 精度測試結(jié)果Table 5 Test results of measurement accuracy

在使用HALCON進(jìn)行3D CAD物體形狀匹配識別定位時,應(yīng)根據(jù)實際應(yīng)用背景,合理調(diào)節(jié)各個參數(shù)的值,最優(yōu)化設(shè)置MinScore與Greediness,保證識別定位效果達(dá)到應(yīng)用的需求。特別是在檢測結(jié)構(gòu)復(fù)雜的物體時,CAD模型結(jié)構(gòu)相當(dāng)復(fù)雜或有曲面結(jié)構(gòu),物體的形狀輪廓特征信息豐富,物體在成像時有些模板輪廓可能沒有形成實際成像邊緣,這樣會影響MinScore和Greediness的設(shè)置,不利于識別,還會影響匹配魯棒性及速度。許多不成像的邊緣輪廓線應(yīng)當(dāng)在建模時通過合理設(shè)置min_face_angle去除,甚至適當(dāng)?shù)厥謩有薷腃AD模型。在特定的應(yīng)用環(huán)境下進(jìn)行參數(shù)優(yōu)化,不僅保證了正確識別率和定位精度,還盡可能地提高了算法的魯棒性和速度。

6 結(jié)論

本文以機(jī)器人航天員操作三維物體為應(yīng)用背景,研究了HALCON軟件中基于CAD目標(biāo)識別定位算法的參數(shù)優(yōu)化設(shè)置,梳理了HALCON中基于CAD模型的三維目標(biāo)識別與定位算法的原理和技術(shù)流程,并對參數(shù)優(yōu)化過程進(jìn)行了詳細(xì)描述。由于算法本身采用圖像金字塔,先對最高層圖像,即尺寸最小圖像,進(jìn)行粗識別匹配,針對這些候選目標(biāo)進(jìn)行逐層搜索,這樣的搜索過程可以快速排除非目標(biāo)區(qū)域,但如果上層金字塔匹配失敗,則可能直接導(dǎo)致最終測量結(jié)果的失敗。實驗表明了參數(shù)優(yōu)化對識別定位結(jié)果的影響。確定優(yōu)化參數(shù),既可以提高算法魯棒性,又可以大大縮短匹配時間。參數(shù)的優(yōu)化設(shè)置為機(jī)器人航天員操作三維物體提供了快速準(zhǔn)確可靠的視覺測量定位信息,且具有廣闊的工業(yè)應(yīng)用前景,合理配置各個參數(shù)可滿足不同的應(yīng)用場景和指標(biāo)要求。

(References)

[1]韓亮亮,楊健,陳萌,等.面向空間站在軌服務(wù)的人機(jī)系統(tǒng)概念設(shè)計[J].載人航天,2015,21(4):322-328.Han Liangliang,Yang Jian,Chen Meng,et al.Conceptual design of human-robot system for on-orbit service of space station[J].Manned Spaceflight,2015,21(4):322-328.(in Chinese)

[2]Diftler M A,Mehling J S,Abdallah M E,et al.Robonaut 2-the first humanoid robot in space[C]//Robotics and Automation(ICRA),2011 IEEE International Conference on.IEEE,2011:2178-2183.

[3]Brown S.Real C-3PO?This hyper intuitive talking robot is going to the International Space Station[J/OL].(2013)[2016].http://www.digitalafro.com/real-c-3po-this-hyperintuitive-talking-robot-is-going-to-the-international-space-station/.

[4]Zawieska K,Duffy B R.Social exploration:Mars rovers[C]//Proceedings of the 2014 ACM/IEEE international conference on Human-robot interaction.ACM,2014:324-325.

[5]Ott C,Eiberger O,F(xiàn)riedl W,et al.A humanoid two-arm system for dexterous manipulation[C]//2006 6th IEEE-RAS International Conference on Humanoid Robots.IEEE,2006:276-283.

[6]Didot F,Schoonejans P,Pensavalle E,et al.EUROBOT underwater model:system overview,tests results&outlook[R].i-SAIRAS'08,2008.

[7]National Aeronautics and Space Administration.Robonaut 2 Fact Sheet-NASA[DB/OL].(2010)[2016].https://www.nasa.gov/pdf/464887main_Robonaut2FactSheet.pdf.

[8]Ahlstrom T,Curtis A,DiftlerM,et al.Robonaut 2 on the International Space Station:status update and preparations for IVA mobility[C]//AIAA SPACE 2013 Conference and Exposition,San Diego,CA,2013:1-14.

[9]李海陽,張波,黃海兵.航天員與類人機(jī)器人月面聯(lián)合探測概念初步研究[J].載人航天,2014,20(3):301-306.Li Haiyang,Zhang Bo,Huang Haibing.Preliminary concept study on integrated Lunar exploration of astronaut and humanoid robot[J].Manned Spaceflight,2014,20(3):301-306.(in Chinese)

[10]Diftler M A,Culbert C J,Ambrose R O,et al.Evolution of the NASA/DARPA robonaut control system[C]//Robotics and Automation,2003.Proceedings.ICRA′03.IEEE International Conference on.IEEE,2003,2:2543-2548.

[11]Tzvetkova G V.Robonaut 2:mission,technologies,perspectives[J].Journal of Theoretical and Applied Mechanics,2014,44(1):97-102.

[12]宋屹峰,王洪光,李貞輝,等.基于視覺方法的輸電線斷股檢測與機(jī)器人行為規(guī)劃[J].機(jī)器人,2015,37(2):204-211.Song Yifeng,Wang Hongguang,Li Zhenhui,et al.Vision based transmission line broken strand detection and robot behaviour planning[J].ROBOT,2015,37(2):204-211.(in Chinese)

[13]Wolfgang Eckstein.NASA's R2 vision software controls a space-robot-spectroNet[DB/OL].(2010)[2016].http://spectronet.de/story_docs/vortraege_2010/101109_vision/1_ MVTec.pdf.

[14]Xu X,Zhang X,Han J,et al.HALCON application for shape-based matching[C]//2008 3rd IEEE Conference on Industrial Electronics and Applications.IEEE,2008:2431-2434.

[15]盧泉奇,苗同升,汪地,等.基于HALCON的機(jī)械手視覺抓取應(yīng)用研究[J].光學(xué)儀器,2014,36(6):492-498.Lu Quanqi,Miao Tongsheng,Wang Di,et al.Application research of vision crawling robot based on HALCON software[J].Optical Instruments,2014,36(6):492-498.(in Chinese)

[16]Wiedemann C,Ulrich M,Steger C.Recognition and tracking of 3D objects[M].Pattern Recognition:Springer Berlin Heidelberg,2008:132-141.

[17]Ulrich M,Wiedemann C,Steger C.CAD-based recognition of 3D objects in monocular images[C]//Robotics and Automation,2009.ICRA′09.IEEE International Conference on.2009:1191-1198.

[18]Ulrich M,Wiedemann C,Steger C.Combining scale-space and similarity-based aspect graphs for fast 3D object recognition[J].IEEE transactions on pattern analysis and machine intelligence,2012,34(10):1902-1914.

[19]楊大為,叢楊,唐延?xùn)|.基于結(jié)構(gòu)化的加權(quán)聯(lián)合特征表觀模型的目標(biāo)跟蹤方法[J].信息與控制,2015,44(3):372-378.YANG Dawei,CONG Yang,TANG Yandong.Object tracking method based on structural appearance model with weighted associated features[J].Information and Control,2015,44(3):372-378.(in Chinese)

[20]于濤,劉衛(wèi)國,朱淑亮,等.基于HALCON的縫紉機(jī)針外觀質(zhì)量檢測系統(tǒng)設(shè)計與研究[J].現(xiàn)代制造工程,2015(3):103-109.Yu Tao,Liu Weiguo,Zhu Shuliang,et al.Design and research on sewing needles appearance quality inspectionsystem based on HALCON[J].Modern Manufacturing Engineering,2015(3):103-109.(in Chinese)

[21]MVTec Software GmbH.Solution guide III-C-3D Vision[DB/OL].(2016)[2016].http://www.halcon.com/halcon/download/documentation/pdf-12/halcon-12.0-solution-guideiii-c-3d-vision.pdf.

Research on Parameter Optimization of 3D Target Recognition and Location Algorithm for Robot Astronaut

PAN Wang1,2,HAO Yingming1,3,4,ZHU Feng1,3,4,F(xiàn)U Shuangfei1,3,4
(1.Optoelectronic Information Technology Laboratory Shenyang Institute of Automation Chinese Academy of Sciences,Shenyang 110016,China;2.University of Chinese Academy of Sciences,Beijing 100049,China;3.Key Laboratory of Optical-Electronics Information Processing,Chinese Academy of Sciences,Shenyang 110016,China;4.Liaoning Key Laboratory of Image Understanding and Computer Vision,Shenyang 110016,China)

This paper aims at the fast recognition and location issue of the robot astronaut when grabbing objects.The main applications of the 3D target recognition and location algorithm in HALCON based on CAD models used in the vision of American Robonaut 2 were described.Then the parameter optimization of the algorithm was studied.The effect of various parameters on the algorithm was analyzed.In addition,the selection principle and harmonious collocation of all parameters were discussed.Finally,an experimental platform was set up and it was validated that the proposed optimization improved the similarity of template matching,achieved 100%correct recognition rate,and only spent more than 200 ms for the megapixel image.The mean position accuracy was less than 2 mm and the orientation accuracy was less than 1 degree.

robot astronaut;Robonaut 2;object recognition and orientation;3D metrology;shape matching;HALCON

TP391.4

A

1674-5825(2016)05-0555-09

2015-09-09;

2016-07-14

載人航天預(yù)先研究項目(050101)

潘旺(1987-),男,博士研究生,研究方向為模式識別、圖像處理、三維目標(biāo)測量。E-mail:panwang@sia.cn

猜你喜歡
視圖金字塔模板
鋁模板在高層建筑施工中的應(yīng)用
高層建筑中鋁模板系統(tǒng)組成與應(yīng)用
“金字塔”
鋁模板在高層建筑施工中的應(yīng)用
Great Vacation Places
Inventors and Inventions
視圖
金字塔是用金子造的嗎
Y—20重型運輸機(jī)多視圖
SA2型76毫米車載高炮多視圖