陳陽光+王磊
摘要:
基于HALCON平面標定板,充分考慮機器人末端中心和攝像機鏡頭徑向畸變的影響,設計了一種新的Eye-to-Hand機器人視覺標定方法。該方法不僅標定了攝像機的內(nèi)外參數(shù),同時也建立了攝像機圖像坐標系和機器人世界坐標系的關系。實驗證明,該方法具有較高的標定精度和實用性,適用于工業(yè)機器人的視覺系統(tǒng)標定。
關鍵詞:
HALCON; 機器視覺; Eye-to-Hand; 工業(yè)機器人
中圖分類號: TB 133文獻標志碼: Adoi: 10.3969/j.issn.1005-5630.2016.04.008
Abstract:
Based on plate calibration board of HALCON,a new Eye-to-Hand calibration method is schemed out.The method sufficiently involves the influence on robot terminal center and the radial distortion of camera lens.It calibrates the camera parameters and establishes the relationship between image coordinate and robotic coordinate.According to results of experiments,the method has more precision and it is applicable to industrial robot vision calibration.
Keywords:
HALCON; machine vision; Eye-to-Hand; industrial robot
引言
機器人視覺控制[1-2]是機器人領域的重要研究方向,也是當前的研究熱點之一。其系統(tǒng)按照攝像機與機器人的相對位置分為Eye-to-Hand系統(tǒng)和Eye-in-Hand系統(tǒng)。Eye-to-Hand系統(tǒng)將攝像機固定安裝于機器人本體之外。隨著工業(yè)化水平與科技的不斷發(fā)展,勞動力成本增加,對定位裝配的精度和自動化要求也越來越高。基于機器視覺技術的工業(yè)機器人定位[3-4]具有定位精度高、自動化和智能化水平高、勞動力成本低等優(yōu)點,因此在定位裝配領域有著廣泛的應用。
本文建立了機器人Eye-to-Hand系統(tǒng),主要論述了一種基于HALCON的攝像機內(nèi)外部參數(shù)和手眼關系標定方法與其實驗過程。該標定方法具有操作簡單,定位精度高等特點,適用于產(chǎn)品抓取定位。
1機器人視覺標定模型
機器人視覺系統(tǒng)的標定其實是獲取攝像機圖像坐標系(ICS)與機器人坐標系(RCS)之間轉(zhuǎn)換關系的過程,在標定機器人視覺系統(tǒng)(Eye-to-Hand)之前,首先要
對攝像機進行標定。通常攝像機鏡頭會存在徑向、切向和偏心等畸變,因此需要選擇合適的畸變模型對攝像機進行標定。工業(yè)鏡頭的畸變主要為徑向
畸變,為線性畸變模型;非線性模型畸變包括徑向、切向和偏心等畸變。
對于工業(yè)鏡頭,使用非線性畸變
模型往往不能提高其標定精度,而且還會造成求解的不穩(wěn)定[5-6];采用線性畸變模型,可以使標定精度提高一個數(shù)量級,與非線性畸變模型相比標定精度差別不大。因此本文在論述中采用線性畸變模型來標定機器人視覺系統(tǒng),其標定模型如圖1所示。
圖1中,(Oc,Xc,Yc,Zc)為攝像機坐標系(CCS),Oc即為攝像機的投影中心,z軸與攝像機的主光軸重合;(Ow,Xw,Yw,Zw)為機器人坐標系(世界坐標系WCS);(Oi,Xi,Yi)為成像平面坐標系(IPCS);(Ou,Xu,Yu)為圖像坐標系(ICS)??臻g一點P在CCS下的坐標為P(xc,yc,zc);在WCS下的坐標為P(xw,yw,zw)。若不考慮畸變,則點P以透視投影在成像平面投影,投影點為Pn(xn,yn);若考慮徑向畸變,鏡頭的畸變將導致P發(fā)生偏移,投影點為(xi,yi)。
式中:sx和sy為縮放比例因子;點(cx,cy)為圖像的主點,對于針孔攝像機模型而言,這個點是投影中心Oc在成像平面上的投影。
綜上所述,攝像機標定實際上是確定內(nèi)參cx、cy、sx、sy、f、k和外參R、t的過程,標定攝像機是標定機器人視覺系統(tǒng)的必要條件。
2基于HALCON的手眼標定
2.1標定板
手眼標定之前,必須通過固定在機器人末端的工具來建立機器人坐標系和圖像坐標系之間的關系。
與傳統(tǒng)的使用固定針尖人工尋找圖像點的方式相比,HALCON軟件自帶標定板具有標定點容易提取、標定精度高、方向唯一等特點,因此本文標定攝像機內(nèi)外參數(shù)和機器人視覺的標定均采用HALCON標定板來完成。標定板如圖2所示。通常,標定板的尺寸為攝像機攝影的1/2~1/3;背光源選擇玻璃標定板,正面光源選擇陶瓷標定板,視野范圍大的,標定精度不高的可以選擇打印的標定板。
2.2機器人末端旋轉(zhuǎn)中心
典型的四軸工業(yè)機器人如圖3所示,機器人坐標點通常是末端z軸的旋轉(zhuǎn)中心,如何找到其對應的圖像坐標點,建立機器人坐標系和圖像坐標系的關系,是標定成功與否的關鍵。一般可以通過在末端固定特制的針尖來尋找機器人坐標的對應圖像點。該方法雖然簡單易行,但是受針尖加工誤差、安裝誤差和針尖對焦困難等影響,不能獲得良好的標定效果。將標定板固定于機器人末端,取標定板中心點為Mark點,在攝像機視野內(nèi),旋轉(zhuǎn)機器人z軸,獲取多張圖像,計算末端中心在圖像坐標上的對應點。
設(uc,vc)為末端中心點,則點標定板中心圓點坐標與末端中心的距離為
利用最小二乘法解式(5),因為式(5)中有3個未知變量,所以至少需要3個點(即需要3個旋轉(zhuǎn)位置)來計算末端中心。
2.3機器人視覺標定
在標定完攝像機內(nèi)外參數(shù)之后,可以指定任意一個坐標系作為攝像機的世界坐標系??紤]到Eye-to-Hand系統(tǒng)中攝像機和機器人的相對位置固定,所以采用機器人的本體坐標系作為攝像機的外參數(shù)(世界坐標系),通過上述標定過程,即可完成Eye-to-Hand系統(tǒng)的標定。應該注意的是,在2.2中獲得末端中心位置的圖像坐標后,每次在攝像機視野內(nèi)移動機器臂,需要保持機器人R軸和z軸的值不變,獲取的圖像點增加一個偏移量,換算成機器人末端中心的圖像坐標,即
3實驗結(jié)果與分析
本實驗是在日本ESPON公司的LS3-401S型號機器人上完成的。攝像機采用BASLER型號ACA1300-30GM的工業(yè)相機,固定于第2機械臂下方,并于鏡頭正上方固定一環(huán)形光源。視野大小為200 mm×150 mm,選取標定板尺寸為100 mm×100 mm的自制打印標定板,其中兩張拍攝圖如圖4~5所示。
本文根據(jù)上述算法流程進行實驗,采集15張圖像來標定攝像機內(nèi)參數(shù);采集8張圖像來計算機器人末端中心;采集12張圖像來手眼標定。標定得攝像機內(nèi)參數(shù):f=10.4 mm,k=-3 124.1,sx=3.75×10-6 mm,sy=3.75×10-6 mm,cx=693.2,cy=404.2,標定誤差error=0.15。末端軸心偏移量:Δu=2.16 pixel,Δv=-2.34 pixel。機器人坐標系如表1所示。
為驗證標定的準確性,在標定機器人視覺系統(tǒng)后,采用校驗點真實的世界坐標即機器人坐標和利用標定后參數(shù)所求得的坐標之差的平均值作為標定精度的度量參數(shù),如式(7)所示。
N=(∑30i=1Xci-Xri)/30
(7)
分別計算橫坐標Xn=0.148 mm,縱坐標Yn=0.084 mm。又因為ESPON機器人的XY軸坐標精度為0.01 mm,本文采用的攝像機像素精度為0.154 mm,所以可得標定精度在一個像素范圍內(nèi),精度較高。
另外計算得橫坐標最大差值為0.361 mm,橫坐標最大差值為0.143 mm,橫坐標差值的標準差為0.128 mm,縱坐標標準差為0.049 mm。文獻[7]指出,標準差可以表征測量系統(tǒng)的不確定度,因此橫縱坐標的不確定度都在一個像素范圍內(nèi),精度較好。
4結(jié)論
采用本文所述方法進行Eye-to-Hand手眼標定,充分發(fā)揮了HALCON視覺軟件強大的計算分析能力,其標定結(jié)果具有精度高、操作簡單、開發(fā)周期短、跨平臺性好等特點[8],適用于工業(yè)上需要抓取定位及裝配的機器人視覺系統(tǒng)。
參考文獻:
[1]STEGER C,ULRICH M,WIEDEMANN C.機器視覺算法與應用(雙語版)[M].楊少榮,吳迪靖,段德山,譯.北京:清華大學出版社,2009.
[2]蔡自興.機器人學[M].北京:清華大學出版社,2000.
[3]馬光,申桂英.工業(yè)機器人的現(xiàn)狀及發(fā)展趨勢[J].組合機床與自動化加工技術,2002(3):48-51.
[4]王敏,王萬俊,黃心漢.空間物體定位的機器人手眼視覺標定方法[J].華中科技大學學報,2001,29(3):45-47.
[5]TSAI R Y.An efficient and accurate camera calibration technique for 3D machine vision[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition[C].New York:IEEE,1986:364-374..
[6]HEIKKILA T,SALLINEN M,MATSUSHITA T,et al.Flexible hand-eye calibration for multi-camera systems[C]∥Proceeding of 2000 IEEE/RSJ International Conference on Intelligent Robots and Systems.Takamatsu:IEEE,2000,3:2292-2297.
[7]王磊,郭淑霞,張鳳玲,等.微型銑刀外徑視覺測量的不確定度[J].光學 精密工程,2012,20(4):880-887.
[8]盧泉奇,苗同升,汪地,等.基于HALCON的機械手視覺抓取應用研究[J].光學儀器,2014,36(6):492-498.