国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于機器視覺的機器人分揀系統(tǒng)設計*

2019-05-07 12:28廖家驥劉建群高偉強胡釗雄
組合機床與自動化加工技術 2019年4期
關鍵詞:手眼標定工件

廖家驥,劉建群 ,高偉強,胡釗雄

(廣東工業(yè)大學 機電工程學院 廣東省微納加工技術與裝備重點實驗室,廣州 510006)

0 引言

機器視覺技術是指用攝像機模擬人眼的視覺功能,并以此來對客觀的事物進行測量和判斷[1]?,F(xiàn)如今,機器視覺技術在工業(yè)中得到了廣泛的應用,對提高生產(chǎn)效率,實現(xiàn)生產(chǎn)智能化起到了至關重要的作用[2]。

工件分揀是工業(yè)生產(chǎn)中的一個重要的組成部分,在傳統(tǒng)的生產(chǎn)線上,采用的是人工分揀的方法,但這種工作的重復性高,且勞動強度大,工人在長時間工作后,易出現(xiàn)錯分現(xiàn)象[3]。隨著工業(yè)的發(fā)展與進步,開始逐漸采用工業(yè)機器人來代替工人進行分揀,但因為機器人的運動,是通過示教或者離線編程實現(xiàn)的,所有動作都是預先設定的,一旦工件的擺放位置有所變化,機器人無法做出相應的調(diào)整,就會造成抓取錯誤[4]。與傳統(tǒng)的機械分揀作業(yè)相比,將機器視覺技術應用到工業(yè)分揀系統(tǒng)之中,能夠顯著地增加整個分揀系統(tǒng)的柔性,降低工件擺放的要求,提高分揀的成功率[5]。

本文將機器視覺技術應用到工業(yè)機器人的分揀作業(yè)中,搭建基于視覺的機器人分揀實驗平臺。經(jīng)測試,該平臺能夠?qū)[放在相機視野范圍內(nèi)任意位置的工件進行分揀,為工業(yè)自動化提供了一套切實可行的方案。

1 系統(tǒng)組成

基于視覺的機器人分揀系統(tǒng)如圖1所示,是由6軸機器人、視覺模塊、氣動模塊、計算機組成,6軸機器人安裝在鋁制基板上,視覺模塊由相機和鏡頭組成,安裝在機器人以外的支架上,氣動模塊由氣動吸盤、空氣壓縮機、電磁閥、控制電路、真空發(fā)生器組成,在計算機上編寫程序,將這幾個模塊結合起來,形成基于視覺的機器人分揀系統(tǒng)。

圖1 基于視覺的機器人分揀系統(tǒng)工作原理示意圖

6軸機器人:由于需要分揀的工件質(zhì)量在400g以內(nèi),最大搬運距離為500mm,故選用Nachi公司的MZ04高速輕型6軸機器人,該機器人可以搬運4kg重量的物體,移動范圍為600mm,具有精度高,速度快的優(yōu)點。

視覺模塊:視覺模塊由相機和鏡頭組成。式(1)為相機選型公式。

F=FOV/D

(1)

式中,F(xiàn)OV為視野范圍,D為視覺模塊的識別精度,F(xiàn)為相機的像素。因為待分揀的工件,放置在180mm×250mm的工作區(qū)域中,所以將整個視覺模塊的視野范圍FOV定為200mm×300mm,而整個視覺識別模塊的識別精度D要求為0.8mm,根據(jù)式(1)算出要滿足精度要求,至少需選用10萬像素的相機。為提高穩(wěn)定性和準確率,用13個像素表示一個毫米,故需要選用130萬像素的相機。Basler的Aca-1300-gm相機,像素為130萬,芯片尺寸為1/3英寸,并且有著較高的穩(wěn)定性,能夠滿足精度要求。鏡頭選型的原理,如圖2所示。

圖2 鏡頭選型示意圖

根據(jù)已知的工作距離H、視野范圍FOV、芯片尺寸X,結合相似三角形原理求得鏡頭焦距f為16mm。選型完成后,將相機和鏡頭安裝在機器人以外的支架上,經(jīng)過調(diào)試后,測得該視覺模塊能夠滿足識別精度。

氣動模塊:氣動模塊由吸盤、空氣壓縮機、電磁閥以及真空發(fā)生器組成。吸盤和真空發(fā)生器安裝在機器人末端,真空發(fā)生器將空氣壓縮機輸出的壓縮空氣轉(zhuǎn)為負壓,從而使吸盤吸取工件。

2 分揀系統(tǒng)工作流程

整個系統(tǒng)的工藝流程如圖3所示,整個流程可以分為3個模塊,分別是模板生成模塊,系統(tǒng)標定模塊以及主模塊。模板生成模塊的功能是提取各類工件特征,生成分類模板,為之后的模板匹配做好準備;標定模塊的功能是建立起視覺坐標系與機器人坐標系的轉(zhuǎn)換關系;主模塊的功能是建立計算機與機器人的通信,并實現(xiàn)自動分揀功能。

圖3 基于視覺的機器人分揀系統(tǒng)工藝流程圖

2.1 模板生成模塊

特征提取與模板匹配是機器視覺和模式識別中一個重要的環(huán)節(jié)[6],目標圖像的形狀、灰度值等特征都可以作為模板匹配時的準則。在選擇匹配特征時,需優(yōu)先考慮特征在不同的光照條件下和不同環(huán)境下的魯棒性,這將直接影響到匹配的準確率。目前常用的模板匹配有基于灰度相關的模板匹配和基于形狀的模板匹配,基于灰度相關的模板匹配是以圖像灰度值信息作為特征參數(shù)直接進行匹配[7],其原理簡單,實現(xiàn)較為容易,但易受光照影響,需要在光照條件穩(wěn)定的區(qū)域進行才有較高的匹配準確率?;谛螤畹哪0迤ヅ湟詧D像中的輪廓信息作為特征參數(shù)來進行匹配[8],其穩(wěn)定性高,不易受到光照和外界環(huán)境的影響,由于整個分揀系統(tǒng)對穩(wěn)定性有著較高的要求,故選用基于形狀的模板匹配方法。生成模板文件的流程分為以下3步。

(1)圖像預處理。由于該視覺系統(tǒng)的工作距離長,視野范圍廣,普通的光源不能勝任這一工作場景,而定制大面積的光源成本高昂,為提高采集圖像的質(zhì)量,使用分段線性函數(shù)對圖像進行灰度拉伸,提高圖像的灰度范圍,增強圖像的對比度,改善輸出圖像的質(zhì)量。

(2)邊緣提取。使用Canny算子提取工件的邊緣輪廓,Canny算子是一個綜合性強的邊緣檢測算子,包括濾波、增強、檢測等多個階段[9],能夠有效地去除干擾,得到優(yōu)質(zhì)的邊緣。

(3)生成模板。調(diào)用Halcon中的create_shape_model算子,輸入工件的邊緣,設置模板的旋轉(zhuǎn)角度范圍、縮放系數(shù)等參數(shù),創(chuàng)建模板文件,最后調(diào)用write_shape_model算子將生成的模板文件保存至計算機中,以便之后的調(diào)用。

2.2 標定模塊

根據(jù)相機與機械手的相對位置不同,可將標定方式分為Eye_in_hand和Eye_to_hand[10],Eye_in_hand是將相機裝在機械臂上,并隨著機械臂運動,具有較好的靈活性,但穩(wěn)定性有所欠缺。Eye_to_hand是將相機安裝在機器人以外的某一固定的位置,具有較好的穩(wěn)定性和較大的視野范圍,能夠滿足該項目的需求,故選用Eye_to_hand系統(tǒng)。

手眼標定的本質(zhì)是求取機器人坐標系與相機坐標系的轉(zhuǎn)換關系。傳統(tǒng)的手眼標定模式需要獲取機器人坐標系與工具坐標系的轉(zhuǎn)換關系,工具坐標系與工作平面坐標系的轉(zhuǎn)換關系,以及工作平面坐標系與相機坐標系的轉(zhuǎn)換關系,最后根據(jù)這3個轉(zhuǎn)換關系,求得攝像機坐標系與機器人坐標系的轉(zhuǎn)換關系[11]。這種方法標定起來較為繁瑣費時,要通過多次機器人的移動,才能完成標定。故提出一種快速手眼標定方法,能夠直接在工作平面上建立機器人坐標系與視覺坐標系的轉(zhuǎn)換關系。在快速手眼標定模式的過程中,首先將帶有3個Mark點的標定板放在工作平面上,并使用Basler的Aca-1300-gm相機對其拍照,然后根據(jù)圖像的灰度值,將3個非共線的Mark點區(qū)域提取出來,并計算出這3個點中心的像素坐標,接下來控制機器人,使機器人的工具末端依次停在3個點的中心上方,并記錄此時的機器人坐標,最后調(diào)用轉(zhuǎn)換模型,求取仿射變換矩陣。該手眼標定的轉(zhuǎn)換模型為:

(2)

式中,(x,y)是相機坐標系下3個Mark點的中心坐標,(x′ ,y′)是機器人坐標系下機器人工具末端移動到3個Mark點中心上方時的坐標,a1,a2,a3,a4表示旋轉(zhuǎn)變量,tx,ty分別表示x方向與y方向的平移量。

通過3組(x,y)和(x′,y′)坐標,可求解出相機坐標系與機器人坐標系的仿射變換矩陣。該手眼標定方法因為沒有涉及到機器人的正逆解,所需要的計算參數(shù)也很容易得到,故這種快速手眼標定方法不僅適用于機器人,也同樣適用于其它需要使用機器視覺的工程機械。

2.3 主模塊

主模塊是整個系統(tǒng)的主干,在主模塊中將調(diào)用分類模板和標定矩陣,對工件進行分類并獲取工件的中心坐標,最終引導機器人完成自動分揀。圖4為主模塊的流程圖。

圖4 主模塊流程圖

如圖4所示,主模塊由計算機程序、機器人通信程序以及機器人運動程序組成。在計算機程序中,發(fā)送指令控制相機對待分揀工件進行拍照,接下來調(diào)用Halcon中的find_shape_model算子,輸入模板文件,以及已經(jīng)獲取的待分揀工件的圖片,設置搜尋的起始角度、匹配度等參數(shù),提取出圖片中所有與模板文件相同類別物體的中心在圖像坐標系下的坐標,然后將其與標定矩陣做運算,得到工件中心在機器人坐標系下的坐標,接下來申請與機器人建立連接,將工件的中心坐標以及該類工件對應類別的放置區(qū)坐標,發(fā)送給機器人。在機器人通信程序中,將依次執(zhí)行創(chuàng)建套接字,分配端口號等操作,并等待計算機申請連接的要求,在接收到要求后,建立連接,接收計算機發(fā)送的坐標,并將其依次存儲到機器人自身的寄存器之中。在機器人運動程序中,設置運動的速度、加速度、平滑系數(shù),之后依次調(diào)用寄存器中的坐標,完成工件的分揀。

3 實驗結果

為檢測整個系統(tǒng)的分揀成功率,搭建分揀系統(tǒng)平臺,進行分揀實驗,圖5為整個分揀系統(tǒng)實物圖。

圖5 基于視覺的機器人分揀系統(tǒng)實物圖

整個系統(tǒng)由機器人、工業(yè)相機、鏡頭、空壓機、真空發(fā)生器、計算機等組成。在工作區(qū)域內(nèi)的任意位置,放置三類工件,每類工件若干,然后啟動機器人自動分揀系統(tǒng)進行實驗,圖6為分揀效果圖。

(a) 分揀前 (b) 分揀后 圖6 分揀效果圖

圖6a中的矩形框為零件放置的工作區(qū)域,可以將待分揀的工件隨意擺放在工作區(qū)域內(nèi)的任意位置。圖6b為工件分揀后的狀態(tài),圖中共有三個矩形框,從上到下依次是矩形工件放置區(qū)、圓形工件放置區(qū)、三角形工件放置區(qū),如圖6b所示,各個工件已經(jīng)被成功分揀。實驗得到的工件幾何中心點的位置如表1所示。

表1 工件定位結果

由表1可知,整個系統(tǒng)計算出的工件幾何中心點與工件的實際幾何中心點的誤差不大于0.65mm,能夠滿足精度要求。經(jīng)過多次實驗與觀察,工作區(qū)域內(nèi)的工件均能成功被分揀。

4 結論

將視覺檢測技術與工業(yè)機器人結合起來,搭建基于機器視覺的機器人分揀系統(tǒng),提出一種快速手眼標定算法,該算法運算速度快,精度高,整個系統(tǒng)能夠?qū)[放在相機視野范圍內(nèi)任意位置的工件進行分揀,分揀穩(wěn)定性高,分揀效果好,為工業(yè)自動化提供了一個切實可行的方案。

猜你喜歡
手眼標定工件
帶服務器的具有固定序列的平行專用機排序
工業(yè)機器人視覺引導抓取工件的研究
基于RoboDK Python編程的工業(yè)機器人工作站工件生成及搬運仿真
曲軸線工件劃傷問題改進研究
觀察力、手眼協(xié)調(diào)能力
培養(yǎng)手眼協(xié)調(diào)能力,創(chuàng)意思維能力
使用朗仁H6 Pro標定北汽紳寶轉(zhuǎn)向角傳感器
觀察力、手眼協(xié)調(diào)能力
培養(yǎng)手眼協(xié)調(diào)能力,創(chuàng)意思維能力
CT系統(tǒng)參數(shù)標定及成像—2