摘要:為解決焊接機器人面對不同焊接工況時,焊縫跟蹤精度低的問題,文章提出了基于圖像處理技術的機器人焊接焊縫跟蹤方法。利用CCD傳感器采集機器人焊接焊縫圖像,基于點操作的圖像增強方法,灰度變換機器人焊接焊縫圖像。利用SegFormer圖像語義分割模型,通過Transformer編碼器與多層感知機解碼器,采用遞歸空洞自注意力機制,從機器人焊接焊縫的灰度圖像中提取焊縫跟蹤路徑。利用卡爾曼濾波算法消除焊縫跟蹤路徑中的非焊接點,通過機器人焊接焊縫圖像的坐標系轉換,更新焊接焊縫軌跡堆棧,實現(xiàn)機器人焊接焊縫跟蹤。實驗結果表明,該方法能夠依據(jù)機器人焊接焊縫圖像處理結果,精準跟蹤焊接焊縫,圓弧型與S型焊縫的跟蹤誤差低于3mm。
關鍵詞:圖像處理技術,機器人,焊接焊縫跟蹤,灰度變換,圖像語義分割,卡爾曼濾波
中圖分類號:TP242
文獻標識碼:A
文章編號:1674-9545(2024)03-0027-(06)
DOI:10.19717/j.cnki.jjun.2024.03.007
機器人焊接技術作為制造業(yè)的關鍵工藝之一,其焊接效率和焊接精度直接影響產(chǎn)品的質(zhì)量和生產(chǎn)效率[1-3]。焊接機器人的實際焊接過程中,由于各種原因,如工件變形、熱傳導、機器人運動誤差等,可能導致焊縫位置發(fā)生偏移[4-5]。機器人焊接焊縫跟蹤性能的重要性不言而喻。焊縫跟蹤技術利用傳感器和機器學習算法,對機器人焊接過程中的焊縫位置進行實時檢測和調(diào)整[6],以保證機器人焊接質(zhì)量?;趫D像處理技術的焊縫跟蹤方法,具有非接觸、實時性等優(yōu)點[7]。通過對焊接過程中的圖像進行實時采集和處理,提取焊縫的特征信息,實現(xiàn)焊縫位置的精確檢測和跟蹤[8]。該方法可有效克服傳統(tǒng)接觸式傳感器的局限性,提高焊接過程的穩(wěn)定性和可靠性。
近年來,眾多研究學者針對焊接機器人的焊縫跟蹤方法進行研究。曹學鵬等人針對焊接機器人焊接三維復雜焊縫時的跟蹤方法進行研究[9],該方法可以適應各種形狀和尺寸的工件,實現(xiàn)批量生產(chǎn)。但是該方法需要針對復雜的三維焊縫,進行精確的建模和數(shù)據(jù)處理,技術難度較大。該方法對于不同的工件和焊接要求,需要進行定制化的開發(fā)和調(diào)整,缺乏通用性。楊璟等人結合貓群優(yōu)化算法和模糊控制理論[10],通過優(yōu)化模糊控制規(guī)則,實現(xiàn)焊縫的精確跟蹤。該方法能夠有效處理噪聲和異常數(shù)據(jù),提高焊縫跟蹤的魯棒性。但是貓群優(yōu)化算法對初始參數(shù)的選擇較為敏感,可能需要多次試驗和調(diào)整才能獲得最優(yōu)的結果。且貓群優(yōu)化算法需要進行大量的迭代計算,計算復雜度較高,可能會影響焊縫跟蹤的實時性。
針對以上方法在機器人焊縫跟蹤中存在的問題,研究基于圖像處理技術的機器人焊接焊縫跟蹤方法。旨在為實際生產(chǎn)中的焊縫跟蹤,提供有效的技術支持和解決方案。
1機器人焊接焊縫跟蹤方法
1.1機器人焊接焊縫圖像的灰度處理
利用CCD傳感器采集機器人焊接焊縫圖像。為了提升機器人焊接焊縫的跟蹤效率,采集機器人焊接焊縫圖像后,對機器人焊接焊縫圖像進行灰度處理,減少圖像信息,提升后續(xù)的機器人焊接焊縫跟蹤速度。機器人焊接焊縫圖像灰度處理后,對圖像的輪廓信息無影響[11],圖像中仍然包含焊縫的亮度信息。通過圖像均衡化處理方法,處理機器人焊接焊縫圖像。機器人焊接焊縫圖像灰度處理后,容易出現(xiàn)對比度過低的缺陷,無法分辨圖像中包含的機器人焊接焊縫的細節(jié)信息[12]。因此,需要提前擴展機器人焊接焊縫圖像的灰度范圍?;邳c操作的圖像增強方法,對機器人焊接焊縫圖像進行灰度變換。該方法將機器人焊接焊縫圖像的像素點數(shù)學變換后,利用新的灰度值代替原像素值[13],完成機器人焊接焊縫圖像的灰度處理。將機器人焊接焊縫圖像中的像素點,利用線性變換方法進行線性拉伸處理[14],提升機器人焊接焊縫圖像的視覺效果。設機器人焊接焊縫圖像f(x,y)的灰度范圍為[a,b],灰度變換后圖像g(x,y)的表達式如下:
g(x,y)=d-cb-a×f(x,y)+c(1)
式中,[c,d]表示機器人焊接焊縫圖像灰度變換后的灰度范圍。
機器人焊接焊縫圖像多數(shù)像素點的灰度級均處于[a,b]區(qū)間時,原始機器人焊接焊縫圖像的最大灰度級為maxf。原始機器人焊接焊縫圖像中僅少量像素點[15],未存在于[a,b]區(qū)間內(nèi)。為了提升機器人焊接焊縫圖像的增強效果,獲取更佳的圖像灰度處理效果,對機器人焊接焊縫圖像進行如下的處理:
g(x,y)=c,0£f(x,y)£ad-cb-a×f(x,y)+c,a£f(x,y)£bd,b£f(x,y)£maxf(2)
利用以上過程對機器人焊接焊縫圖像進行灰度線性變化,擴展機器人焊接焊縫圖像的局部灰度范圍。通過局部拉伸方法,將機器人焊接焊縫圖像中[0.1,0.5]區(qū)間內(nèi)的灰度,拉伸至[0,1]區(qū)間,提升機器人焊接焊縫圖像灰度處理后的明暗對比度,增強圖像亮度。
1.2基于SegFormer圖像語義分割的焊縫跟蹤路徑提取
利用SegFormer圖像語義分割模型,從灰度處理后的機器人焊接焊縫圖像中,提取焊縫跟蹤路徑。SegFormer圖像語義分割模型包括Transformer編碼器與多層感知機解碼器兩部分。其中的編碼器與解碼器分別采用層次化與輕量化方式構建。
1.2.1 Transformer編碼器"Transformer編碼器利用Transformer Block對輸入機器人焊接焊縫灰度圖像,利用重疊貼片嵌入方法進行下采樣。設置機器人焊接焊縫圖像的下采樣結果作為特征圖,輸入至自注意力層與混合前饋層。Transformer Block通過N次的重疊貼片嵌入,結合自注意力層以及混合前饋層,加深Transformer編碼器網(wǎng)絡。機器人焊接焊縫圖像的局部特征,利用Transformer編碼器的重疊貼片嵌入過程,互相重疊,使機器人焊接焊縫圖像的局部特征存在較高的連續(xù)性。將縮放因子引入自注意力層,降低自注意力機制的復雜度。利用大小為3×3的卷積核,傳遞圖像局部特征的位置信息,將該卷積核引入至普通前饋網(wǎng)絡中,組成混合前饋層。通過以上過程解決由于位置編碼,造成預測與訓練分辨率不同,導致插值處理時網(wǎng)絡分類精度下降的問題。
機器人焊接焊縫圖像特征圖經(jīng)過Transformer Block處理后,特征圖的分辨率降低,形成了4個機器人焊接焊縫圖像的高分辨率粗特征以及低分辨率高質(zhì)量特征。將生成的4個差異分辨率的焊接焊縫特征圖,輸入至多層感知機內(nèi),利用解碼器融合不同分辨率的機器人焊接焊縫特征圖。
1.2.2多層感知機解碼器"多層感知機解碼器,利用卷積層將編碼器輸出的差異分辨率的機器人焊接焊縫特征圖,統(tǒng)一為256通道的特征圖。將機器人焊接焊縫特征圖的寬與高,利用雙線性插值方法,上采樣至原始機器人焊接焊縫圖像的1/4大小。拼接生成的特征圖,組成1024通道的特征圖。將融合后的機器人焊接焊縫特征圖利用卷積模塊處理,卷積模塊中設置大小為1×1的卷積核,用于機器人焊接焊縫圖像的語義分割掩碼。
1.2.3圖像語義分割的遞歸空洞自注意力機制"Transformer編碼器采用遞歸空洞自注意力機制作為提取焊縫跟蹤路徑的自注意力機制。遞歸空洞自注意力機制,將全部空間位置投影輸入向量的加權和,作為自注意力的特征響應。利用線性變換處理后的查詢與鍵之間的相似性,決定相應的權重,同時衡量機器人焊接焊縫圖像中,隨機特征對之間的關系強度。遞歸空洞自注意力機制,將輸入的機器人焊接焊縫圖像利用1×1的卷積核卷積后,利用膨脹率為(1,3,5)卷積核卷積處理,捕捉機器人焊接焊縫圖像中的多尺度上下文信息。利用SiLU機制對不同尺度的機器人焊接焊縫特征圖,進行加權求和處理,獲取的結果用Q表示。采用以上過程,利用自注意力機制,計算包含多尺度焊接焊縫信息的空間內(nèi)的隨機位置像素點的相似度。利用δ(x)表示空洞自注意力機制中,加權線性單元的激活函數(shù)。遞歸空洞自注意力機制中,計算Q時的卷積操作過程如下:
Q=∑r=1,3,5SiLUConv(Q^,Wkq,r,l) (3)
式(3)中,Conv()與Q^分別表示卷積運算以及機器人焊接焊縫圖像卷積操作后的特征圖,Wkq與k分別表示卷積核權重以及卷積核大小,r與l分別表示卷積核的膨脹率以及卷積核組數(shù)。
公式(3)中的SiLU機制,采用sigmoid函數(shù)作為激活函數(shù),其計算公式如下:
sigmoid(m)=11+e-x(4)
遞歸空洞自注意力機制具有提升機器人焊接焊縫特征表征能力的優(yōu)勢。設置遞歸深度為2,空洞自注意力機制的遞歸運算的表達式如下:
Xt+1=ΨF(Xt,ht-1)ht-1=Xt-1Xt=ΨF(Xt-1,ht-2)(5)
式(5)中,t與Ψ分別表示步長以及空洞自注意力模塊,Xt與ht-1分別表示t層遞歸的輸入與隱藏狀態(tài),F(xiàn)(Xt,ht-1)表示結合輸入與隱藏狀態(tài)的線性函數(shù)。
公式(5)中,F(xiàn)(Xt,ht-1)的計算公式如下:
F(Xt,ht-1)=WFXt+UFht-1 (6)
式(6)中,UF表示投影權重。
將空洞自注意力機制作為非線性激活函數(shù),進行圖像語義分割的遞歸處理。利用SegFormer圖像語義分割模型,分割機器人焊接焊縫圖像。通過圖像語義分割獲取的焊縫掩碼圖像的中心線,即焊接機器人的焊縫跟蹤路徑。
1.3基于卡爾曼濾波的機器人焊接焊縫跟蹤
依據(jù)所獲取的焊接機器人的焊縫跟蹤路徑,進行焊接焊縫跟蹤。為了避免非焊接點被引入焊縫路徑,造成焊縫跟蹤時存在抖動問題,影響焊接質(zhì)量。利用卡爾曼濾波算法跟蹤機器人焊接焊縫,消除機器人焊接焊縫跟蹤過程中的噪聲??柭鼮V波算法在新的采樣焊縫點壓入堆棧前,先進行卡爾曼濾波處理。當新的焊接采樣點P,與焊接軌跡的最優(yōu)估算點P^之間,滿足如下表達式時:
dis(P,P^)>ξ(7)
則表示新的焊接采樣點屬于噪聲點。
式(7)中,ξ與dis(·,·)分別表示所設定的噪聲判定閾值以及P點與P^點之間的歐拉距離。
機器人焊接焊縫跟蹤的過程如下:
(1)計算焊接機器人的T矩陣。依據(jù)機器人焊槍的實時位置RX,RY,RZ,以及機器人焊槍姿態(tài)RT,計算T矩陣的表達式如下:
T=RT·RX·RY·RZ(8)
式(8)中,T表示機器人工具坐標系與基礎坐標系的變換矩陣。
(2)獲取焊接焊縫數(shù)據(jù)。依據(jù)機器人焊接焊縫圖像分割結果,確定焊縫跟蹤路徑中的焊縫特征點。
(3)更新焊接焊縫軌跡堆棧。將采集機器人焊接焊縫圖像的攝像機坐標系,轉換至機器人坐標系的表達式如下:
PR=T·T″·PS(9)
式(9)中,PS與PR分別攝像機與機器人的齊次坐標系,T″表示手眼標定矩陣。
將新的采樣焊縫位置P,壓入機器人焊接焊縫跟蹤路徑的堆棧中。為了避免焊縫跟蹤路徑中引入錯誤的焊接位置點,利用卡爾曼濾波算法,濾波處理新的焊縫點。
(4)確定機器人焊接焊縫軌跡的對應點。為了確定機器人焊槍位置PT,在焊接焊縫軌跡中的精準對應點P′T,利用三次非均勻有理B樣條插值對應點方法,插值處理焊縫采樣點。PT與P′T均屬于機器人基礎坐標系,二者的偏差e=P′T-PT同樣屬于基礎坐標系。設置機器人焊接的前進方向為機器人工具坐標系的y軸,工具坐標系的x軸與z軸分量是出現(xiàn)焊接位置偏差的主要位置。將焊接偏差量,變換至機器人工具坐標系內(nèi),僅糾正x軸與z軸的偏差分量即可。糾正焊縫軌跡跟蹤誤差的變換表達式如下:
e′=Tn·e(10)
式(10)中,Tn表示T的逆矩陣。利用非均勻有理B樣條算法,對焊縫特征點進行插值處理,在機器人焊接速度改變等情況時,具有較高的自適應能力,提升了機器人焊接焊縫的跟蹤能力。
2結果與分析
為了驗證所研究的機器人焊接焊縫跟蹤有效性,將該方法應用于駿騰發(fā)公司的FD-B6焊接機器人中,利用該焊接機器人焊接直線型、圓形以及S型等不同類型的焊縫。該焊接機器人的實物如圖1所示。
該焊接機器人的參數(shù)設置如表1所示。
利用支架將CCD傳感器安裝在機器人焊槍的絕緣套上。利用CCD傳感器采集的焊接試驗件的原始焊縫圖像如圖2所示。通過所采集的原始機器人焊接焊縫圖像可以看出,此次焊接機器人的焊接任務,為將兩塊鋼板焊接為一塊較大面積的鋼板,該焊接任務的焊縫為直線型焊縫。
采用文章方法對利用CCD傳感器采集的機器人焊接焊縫圖像進行灰度處理,灰度處理結果如圖3所示。圖3實驗結果可以看出,采用文章方法可以實現(xiàn)機器人焊接焊縫圖像的灰度處理。機器人焊接焊縫圖像灰度處理后,圖像的清晰度有了明顯地提升,圖像的焊縫更加明顯,增強了圖像的對比度。焊接焊縫圖像的灰度處理,為機器人焊接焊縫提供了可靠的圖像基礎。
采用文章方法對機器人焊接焊縫圖像進行語義分割,提取焊接機器人的焊縫跟蹤路徑。機器人焊接焊縫圖像分割結果如圖4所示。
由圖4可以看出,采用文章方法可以實現(xiàn)機器人焊接焊縫的有效分割。機器人焊接焊縫圖像分割后,鋼板之間的焊縫極為清晰,驗證文章方法能夠有效提取出清晰、準確的焊縫特征。直觀地焊接焊縫,有助于控制機器人的焊縫焊接誤差。依據(jù)焊縫圖像分割獲取的焊縫跟蹤路徑,焊接機器人能夠自動識別焊接工件的位置和姿態(tài),根據(jù)實時測量的數(shù)據(jù)進行自適應調(diào)整,保證焊縫的位置和角度符合設計要求。
采用文章方法,依據(jù)確定的機器人焊接焊縫跟蹤路徑,運行焊接工序。工件焊接的焊接焊縫跟蹤結果如圖5所示。圖5實驗結果可以看出,采用文章方法跟蹤機器人焊接焊縫,具有較高的跟蹤精度,機器人精準跟蹤通過圖像處理技術獲取的焊縫軌跡,有效獲取滿足焊接需求的焊接結果。圖5實驗結果驗證了文章方法利用圖像處理技術跟蹤機器人焊接焊縫的可行性。
以上實驗過程,驗證了文章方法對直線焊縫的跟蹤性能。為了進一步驗證文章方法的應用性能,將文章方法應用于圓弧型焊縫與S型焊縫中,統(tǒng)計文章方法對兩種非直線型焊縫的跟蹤性能。統(tǒng)計文章方法對兩種不同類型焊縫的跟蹤誤差,統(tǒng)計結果如圖6所示。圖6實驗結果可以看出,文章方法不僅對直線型焊縫具有較高的跟蹤性能,對于圓弧型與S型的焊縫,同樣具有較高的跟蹤性能。采用文章方法跟蹤圓形焊縫與S型焊縫,跟蹤誤差均低于3mm,滿足機器人焊接焊縫的跟蹤測試需求。進一步分析圖6的焊縫跟蹤誤差,初始階段,焊縫軌跡的跟蹤誤差較高。主要原因是機器人焊接焊縫的初始階段,機器人焊槍與焊接工件之間存在一定的位置偏差。文章方法能夠快速調(diào)整焊槍與焊接工件之間的位置偏差,消除機器人焊縫跟蹤誤差,將機器人焊接焊縫跟蹤誤差控制在較小的范圍內(nèi)。
4結論
圖像處理技術為機器人焊接焊縫跟蹤,提供了有效的解決方案。實時采集機器人焊接過程中的焊縫圖像,實現(xiàn)高精度的焊縫軌跡跟蹤。該方法不僅可以克服傳統(tǒng)傳感器跟蹤焊縫軌跡的局限性,同時提高了機器人焊接過程的穩(wěn)定性和可靠性。通過實驗驗證,該方法有效依據(jù)圖像處理技術,獲取清晰、準確的焊縫,實現(xiàn)焊縫軌跡的精準跟蹤,能夠適應直線型焊縫、圓弧型焊縫等不同工況下的焊接需求。
參考文獻:
[1]陳新禹,張慶新,朱琳琳,等.基于激光視覺傳感器的機器人實時焊縫跟蹤方法[J].激光與紅外,2021,51(4):421.
[2]賈愛亭,洪波,李湘文,等.基于軌跡在線識別的3D折線焊縫機器人擺動GMAW實時跟蹤方法[J].機械工程學報,2022,58(14):116.
[3]劉東來,崔亞飛,羅輝,等.基于機器視覺的弧焊機器人焊縫識別及路徑生成研究[J].制造技術與機床,2021,(12):26.
[4]王小剛,王中任,劉海生.熔滴-焊縫同步視覺焊接偏差測定方法[J].計算機集成制造系統(tǒng),2022,28(05):1352.
[5]周方明,蔣尊宇,陳琪昊,等.基于激光視覺的焊接機器人離線自動編程技術[J].江蘇科技大學學報(自然科學版),2021,35(3):37.
[6]關景新,朱韶平.雙金屬鋸條激光焊接機焊縫軌跡跟蹤控制模型構建[J].機械科學與技術,2022,41(9):1381.
[7]吳姝,何雨飛,屈挺,等.基于后驗預測分布的機器人焊接質(zhì)量監(jiān)控研究[J].機床與液壓,2022,50(9):7.
[8]侯琳,張海傳.基于形態(tài)學算法的焊縫圖像處理技術[J].大連工業(yè)大學學報,2022,41(2):142.
[9]曹學鵬,張弓,楊根,等.面向三維復雜焊縫的焊接機器人焊縫跟蹤方法[J].工程科學學報,2023,45(2):310.
[10]楊璟,陶永,任帆,等.一種基于貓群優(yōu)化算法的焊縫跟蹤自調(diào)整規(guī)則模糊控制方法[J].高技術通訊,2022,32(3):219.
[11]吳超群,趙松,雷艇.曲線焊縫的機器人焊接軌跡規(guī)劃與高頻控制[J].中國機械工程,2023,34(14):1723.
[12]陶永,蘭江波,任帆,等.基于自適應模糊神經(jīng)網(wǎng)絡的機器人焊接焊縫外形預測方法[J].計算機集成制造系統(tǒng),2022,28(11):3643.
[13]楊書娟,蔣毅,俞建峰,等.激光視覺引導的管道焊縫識別與跟蹤系統(tǒng)[J].激光與光電子學進展,2022,59(16):245.
[14]周躍龍,陳新度,吳智恒,等.基于激光視覺的薄板焊縫跟蹤方法研究[J].機床與液壓,2022,50(7):56.
[15]柴鵬,王月,齊鉑金,等.基于焊縫跟蹤控制系統(tǒng)的機器人FSW實現(xiàn)及表面質(zhì)量[J].熱加工工藝,2021,50(19):131
Research on Robot Welding Seam Tracking Based on
Image Processing Technology
YANG Qun
(Wuhu Institute of Technology, Wuhu,Anhui 241006, China)
ABSTRACT"Here was the research on a robot welding seam tracking method based on image processing technology to solve the problem of low seam tracking accuracy when welding robots face different welding conditions. Using CCD sensors to capture images of robot welding seams, using point operation based image enhancement methods, we could get grayscale transformation of robot welding seam images. Using the SegFormer image semantic segmentation model, a Transformer encoder and a multi-layer perceptron decoder were used to extract the weld seam tracking path from the grayscale image of the robot welding seam using a recursive cavity self attention mechanism. Using Kalman filtering algorithm to eliminate non welding points in the weld seam tracking path, updating the welding seam trajectory stack through coordinate system transformation of robot welding seam images, we could get robot welding seam tracking. The experimental results showed that this method could accurately track welding seams based on the image processing results of robot welding seams, with tracking errors of less than 3mm for arc and S-shaped welds.
KEY WORDS"image processing technology; robots; welding seam tracking; grayscale transformation; image semantic segmentation; kalman filtering
(責任編輯"羅江龍)