劉林 馬云飛 王荷生 李寧
摘要:針對指針儀表采用人工讀數(shù)方式存在的成本較高、讀數(shù)不準(zhǔn)確、時(shí)效性較差的問題,提出一種基于對抗學(xué)習(xí)的指針儀表位姿自適應(yīng)讀數(shù)識別算法。該算法通過目標(biāo)檢測模型識別圖像中的指針儀表的位置和姿態(tài),將指針儀表進(jìn)行校準(zhǔn)后并利用數(shù)字圖像處理技術(shù)進(jìn)行讀數(shù)識別。為了提升目標(biāo)檢測模型對位姿不同的指針儀表圖像的識別效果,本文提出了基于對抗學(xué)習(xí)的數(shù)據(jù)增強(qiáng)技術(shù),通過優(yōu)化搜索模型識別不準(zhǔn)的圖像旋轉(zhuǎn)角度、平移距離以及縮放比例構(gòu)造訓(xùn)練數(shù)據(jù),提高目標(biāo)檢測模型在指針儀表位姿發(fā)生變化時(shí)的準(zhǔn)確率。以工礦企業(yè)中常用的SF6壓力儀表為實(shí)驗(yàn)對象,實(shí)驗(yàn)結(jié)果表明讀數(shù)識別的誤差在1%以內(nèi),證明了所提算法的有效性。
關(guān)鍵詞:指針儀表;讀數(shù)識別;目標(biāo)檢測;位姿不變;對抗學(xué)習(xí)
中圖分類號: TP391.41文獻(xiàn)標(biāo)識碼: ADOI:10.3969/j.issn.1007-791X.2024.02.007
0引言
隨著工業(yè)化的快速發(fā)展和生產(chǎn)規(guī)模的不斷擴(kuò)大,以指針儀表為代表的精密儀器在諸如變電站等與工業(yè)生產(chǎn)密切相關(guān)的領(lǐng)域中發(fā)揮著重要作用。指針儀表具有結(jié)構(gòu)簡單、使用壽命長、抗干擾能力強(qiáng)等優(yōu)點(diǎn)。然而,目前大部分變電站采用人工讀數(shù)的方式,存在成本較高、讀數(shù)不準(zhǔn)確、時(shí)效性較差等問題,因此如何自動(dòng)、準(zhǔn)確識別指針儀表的讀數(shù)成為工業(yè)生產(chǎn)中亟待解決的難題[1-4]。
近年來,隨著圖像處理與計(jì)算機(jī)視覺技術(shù)的快速發(fā)展,利用這些技術(shù)解決指針儀表的讀數(shù)識別問題成為了重要的研究方向。目前國內(nèi)外已有研究大致可以分為基于傳統(tǒng)圖像處理技術(shù)和基于深度學(xué)習(xí)方法兩大類。傳統(tǒng)圖像處理方法通常采用邊緣檢測、霍夫變換、刻度識別、角度法等方式讀取指針儀表的讀數(shù)。文獻(xiàn)[1]利用改進(jìn)的自適應(yīng)中值濾波方法預(yù)處理指針儀表圖像,并利用刻度盤轉(zhuǎn)角與刻度之間的線性關(guān)系提出基于霍夫變換的指針儀表讀數(shù)方法。文獻(xiàn)[5]提出一種在HSV空間進(jìn)行指針儀表讀數(shù)識別的方案,通過對比指針位置不同的兩幅圖像獲取參考儀表盤圖像,進(jìn)而利用角度法進(jìn)行讀數(shù)識別。這些基于傳統(tǒng)圖像處理的方法仍然需要手工設(shè)計(jì)圖像特征,并基于這些特征進(jìn)行指針儀表的讀數(shù)識別,因此,這些方法的好壞很大程度上取決于特征設(shè)計(jì)的好壞,對于不同的應(yīng)用場景較難適用。另一方面,基于深度學(xué)習(xí)的方法通過深度神經(jīng)網(wǎng)絡(luò)自動(dòng)檢測圖像中的指針儀表位置和讀數(shù),可以在很大程度上緩解手動(dòng)設(shè)計(jì)特征的困難。文獻(xiàn)[6]利用典型的目標(biāo)檢測模型RCNN檢測圖像中指針儀表的位置,進(jìn)而使用霍夫變換識別指針儀表中指針的位置,得到讀數(shù)。文獻(xiàn)[7]首先針對指針儀表圖像進(jìn)行去噪處理,然后利用目標(biāo)檢測模型Mask-RCNN對指針儀表進(jìn)行定位和實(shí)例分割,最后采用角度法讀取指針讀數(shù)。文獻(xiàn)[8]提出基于YOLOv5的指針儀表檢測方法截取圖像中指針儀表,基于數(shù)字圖像處理技術(shù)進(jìn)行讀數(shù)識別。然而,目前基于深度學(xué)習(xí)的方法泛化能力較差,對于訓(xùn)練過程中沒有見到的姿態(tài)不同的物體無法準(zhǔn)確識別[9-12]。
為了解決上述問題,本文提出基于對抗學(xué)習(xí)的指針儀表位姿自適應(yīng)讀數(shù)識別算法,利用目標(biāo)檢測模型預(yù)測圖像中指針儀表中心點(diǎn)的位置、大小和另外兩個(gè)關(guān)鍵點(diǎn)的位置,通過兩個(gè)關(guān)鍵點(diǎn)的相對位置可以計(jì)算出指針儀表的位姿,進(jìn)而從圖像中截取指針儀表區(qū)域并對其進(jìn)行旋轉(zhuǎn)校正,得到水平狀態(tài)下的指針儀表區(qū)域圖像,實(shí)現(xiàn)對圖像中的指針儀表進(jìn)行自動(dòng)檢測與讀數(shù)識別。為了提升目標(biāo)檢測模型對位姿不同的指針儀表圖像的識別能力,本文進(jìn)一步提出基于對抗學(xué)習(xí)的訓(xùn)練方式,將目標(biāo)檢測模型的訓(xùn)練過程建模為最小最大化優(yōu)化問題,其中內(nèi)層最大化問題旨在搜索當(dāng)前模型難以識別正確的指針儀表旋轉(zhuǎn)角度、平移距離與放縮比例,而外層最小化問題在搜索到的“最壞情況”下訓(xùn)練模型,以提升模型在指針儀表位姿發(fā)生變化時(shí)的準(zhǔn)確性。在得到校準(zhǔn)后水平狀態(tài)下的指針儀表圖像后,通過數(shù)字圖像處理技術(shù),從圖中提取指針儀表的邊緣信息,采用圓環(huán)檢測與線段檢測算法找到指針儀表的指針和刻度線位置,進(jìn)而準(zhǔn)確識別出指針儀表的讀數(shù)。
本文以變電站中常用的SF6壓力儀表為實(shí)驗(yàn)對象,通過數(shù)據(jù)采集與標(biāo)注訓(xùn)練所提出的位姿不變目標(biāo)檢測模型,在測試階段可以準(zhǔn)確預(yù)測圖像中指針儀表的位置和姿態(tài),進(jìn)而得到指針儀表的讀數(shù)。實(shí)驗(yàn)表明,本文所提算法的讀數(shù)識別誤差在1%以內(nèi),證明了算法的有效性。
1位姿自適應(yīng)讀數(shù)識別算法設(shè)計(jì)方案
本文所提出的算法流程如圖1所示。給定指針儀表在任意視角下的拍攝圖像,算法首先利用位姿不變的目標(biāo)檢測模型預(yù)測指針儀表中心點(diǎn)的坐標(biāo)(紅點(diǎn))、指針儀表的大小以及兩個(gè)關(guān)鍵點(diǎn)的坐標(biāo)(藍(lán)點(diǎn)),基于關(guān)鍵點(diǎn)的相對位置,計(jì)算出指針儀表的位姿,進(jìn)而得到其包圍框(黑框)。從圖像中截取包圍框中的指針儀表區(qū)域并對其進(jìn)行旋轉(zhuǎn)校正后,可以得到水平狀態(tài)下的指針儀表圖像。進(jìn)而通過數(shù)字圖像處理技術(shù)提取指針儀表的邊緣信息,并采用圓環(huán)檢測與線段檢測算法找到指針儀表的指針和刻度線位置,從而識別出指針儀表的讀數(shù)。
2位姿自適應(yīng)讀數(shù)識別算法
目標(biāo)檢測是計(jì)算機(jī)視覺中最基礎(chǔ)的任務(wù)之一,其目標(biāo)是針對給定的輸入圖像,從中預(yù)測一個(gè)或多個(gè)物體的位置及其類別[13]。近年來,隨著深度學(xué)習(xí)的不斷發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測模型被廣泛應(yīng)用于自動(dòng)駕駛、機(jī)器人、缺陷檢測等多種實(shí)際場景中[14]。一般而言,目標(biāo)檢測可以被分為兩大類:單階段目標(biāo)檢測和雙階段目標(biāo)檢測。以YOLO為代表的單階段目標(biāo)檢測模型從輸入圖像中直接預(yù)測目標(biāo)物體的位置和類別,其運(yùn)行速度較快,更適用于邊緣設(shè)備[15]。以RCNN為代表的雙階段目標(biāo)檢測模型首先從輸入圖像中預(yù)測出一組候選框,再針對這些候選框進(jìn)行分類,其速度相比于單階段目標(biāo)檢測模型更慢,但通常情況下精度較高[16]。針對本文所研究的指針儀表讀數(shù)識別任務(wù),在一般情況下每張圖像中只會出現(xiàn)一個(gè)物體(即指針儀表),同時(shí)目標(biāo)檢測模型需要被部署到邊緣設(shè)備中,因此本文采用單階段目標(biāo)檢測模型。然而,雖然現(xiàn)有目標(biāo)檢測算法性能優(yōu)越,但是其難以在物體位姿出現(xiàn)變換的情況下準(zhǔn)確識別到目標(biāo)物體。針對這一問題,本文進(jìn)一步提出基于對抗學(xué)習(xí)的訓(xùn)練方式提升指針儀表位姿出現(xiàn)變化時(shí)的識別精度。
2.1網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)
本文設(shè)計(jì)了基于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測網(wǎng)絡(luò)結(jié)構(gòu)。為了提升計(jì)算速度,網(wǎng)絡(luò)總共包含5個(gè)卷積層和1個(gè)全連接層,如圖2所示。
如圖2所示,對于給定的輸入圖像,網(wǎng)絡(luò)首先對圖像進(jìn)行卷積操作,從中提取圖像特征。網(wǎng)絡(luò)中共包含5層卷積層,在每個(gè)卷積層后使用歸一化操作和激活函數(shù)對特征進(jìn)行處理,自下而上地提取圖像中的特征。在卷積層后,網(wǎng)絡(luò)首先利用池化操作將特征進(jìn)行壓縮,得到圖像的向量表示形式,通常為512維的向量,進(jìn)而再通過1層全連接層將512維圖像特征轉(zhuǎn)換為8維預(yù)測向量[cx,cy,kp1x,kp1y,kp2x,kp2y,h,w],其中[cx,cy]代表指針儀表中心點(diǎn)在圖像中的坐標(biāo);[kp1x,kp1y,kp2x,kp2y]為兩個(gè)關(guān)鍵點(diǎn)在圖像中的坐標(biāo);[h,w]為指針儀表區(qū)域在圖像中的寬度和高度,表示其大小。
本文所采用的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)與一般的目標(biāo)檢測模型存在以下三點(diǎn)不同。首先,本文設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)只預(yù)測一個(gè)候選框的位置和大小,而一般的目標(biāo)檢測網(wǎng)絡(luò)中會輸出多個(gè)候選框的位置、大小及其對應(yīng)類別。本文采用簡化設(shè)計(jì)的主要原因是一般的指針儀表圖像中僅會出現(xiàn)一個(gè)儀表,因此沒有必要預(yù)測多個(gè)物體,采用此設(shè)計(jì)也可以極大地簡化算法流程,提升模型效果。其次,由于僅需要預(yù)測一個(gè)物體,本文設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)沒有采用錨點(diǎn)的方式,也使得識別過程更加靈活,不需要手動(dòng)設(shè)計(jì)錨點(diǎn)大小。最后,與一般的目標(biāo)檢測模型不同,本文設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)除預(yù)測目標(biāo)物體的中心點(diǎn)坐標(biāo)和包圍框大小外,還需額外預(yù)測兩個(gè)關(guān)鍵點(diǎn)的坐標(biāo),這也為后續(xù)算法流程中校準(zhǔn)指針儀表圖像提供了便利。
2.2基于對抗學(xué)習(xí)的訓(xùn)練算法
深度學(xué)習(xí)模型通常需要大量的訓(xùn)練數(shù)據(jù)優(yōu)化模型參數(shù),從而取得較好的效果。然而,深度學(xué)習(xí)由于模型容量較大,同時(shí)采用數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)方式,往往會出現(xiàn)泛化能力不足的問題。例如,文獻(xiàn)[9]發(fā)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)在圖像發(fā)生旋轉(zhuǎn)或平移變換的情況下準(zhǔn)確率顯著降低,這也對深度學(xué)習(xí)的實(shí)際應(yīng)用帶來了挑戰(zhàn)。對于本文所研究的指針儀表讀數(shù)識別任務(wù)而言,由于攝像機(jī)拍攝角度、指針儀表安裝位置等因素會發(fā)生變化,圖像中指針儀表的位姿也會存在差異。因此,如何提升目標(biāo)檢測模型在位姿不同情況下對指針儀表的檢測效果是一個(gè)極大的挑戰(zhàn)。
針對這一問題,本文提出基于對抗學(xué)習(xí)的訓(xùn)練方式。對抗學(xué)習(xí)通過優(yōu)化模型在最差情況下的效果提升模型的穩(wěn)定性。對于指針儀表讀數(shù)識別任務(wù),訓(xùn)練的目標(biāo)是希望在指針儀表位姿發(fā)生變化時(shí),目標(biāo)檢測模型均能準(zhǔn)確檢出目標(biāo)物體。形式化地,給定輸入圖像I和位姿變換T,位姿不變目標(biāo)檢測模型f需要達(dá)到的目標(biāo)是f(T(I))=f(I),(1)即模型的預(yù)測結(jié)果不會隨著輸入數(shù)據(jù)的變換發(fā)生改變。對于位姿變換T,本文考慮圖像旋轉(zhuǎn)rθ(·)、圖像平移ta,b(·)和圖像縮放sw(·)三種變換,其中θ代表旋轉(zhuǎn)角度、a和b分別代表圖像沿兩個(gè)方向的平移距離、w代表圖像縮放比例。因此,位姿變換T可以表示為T(·)=rθ(ta,b(sw(·))),即三種圖像變換的組合,其中=[θ,a,b,w]代表變換的參數(shù)。
基于上述定義,對抗學(xué)習(xí)的訓(xùn)練方式可以描述為一個(gè)最小最大化優(yōu)化問題:
其中內(nèi)層最大化問題通過最大化模型的損失函數(shù)L尋找模型無法正確預(yù)測的變換T,而外層最小化問題在內(nèi)層最大化的解的基礎(chǔ)上訓(xùn)練目標(biāo)檢測模型f,提升模型在圖像變換下的穩(wěn)定性。與一般的圖像變換方式不同,本文提出的對抗學(xué)習(xí)方法通過尋找最差情況下的圖像變換訓(xùn)練模型,能夠更加高效地提升模型對于位姿不同的圖像的識別能力。通俗意義上而言,對抗學(xué)習(xí)方式通過尋找模型沒有學(xué)會的變換進(jìn)行訓(xùn)練,可以有效提升模型的泛化能力和穩(wěn)定性。
為求解上述最小最大化優(yōu)化問題,一般方式為:首先對內(nèi)層最大化問題進(jìn)行求解,再利用內(nèi)層最大化的解求解外層最小化問題。對于本文所研究的目標(biāo)檢測模型,首先通過梯度上升優(yōu)化圖像變換的四個(gè)參數(shù)=[θ,a,b,w],尋找模型無法識別正確的圖像變換;進(jìn)而利用此變換下的圖像訓(xùn)練目標(biāo)檢測網(wǎng)絡(luò)f得到位姿不變的目標(biāo)檢測模型。
對于訓(xùn)練目標(biāo)檢測網(wǎng)絡(luò)的損失函數(shù)L,其總共包含以下三項(xiàng):L=Lcenter+λ·Lkeypoint+μ·Lbbox,(3)其中,Lcenter為中心點(diǎn)的預(yù)測誤差,Lkeypoint為關(guān)鍵點(diǎn)的預(yù)測誤差,Lbbox為包圍框大小的預(yù)測誤差,λ和μ分別為平衡三項(xiàng)損失的超參數(shù)。具體而言,中心點(diǎn)的預(yù)測誤差定義為Lcenter=(cx-c*x)2+(cy-c*y)2,(4)其中,c*x和c*y為人工標(biāo)注的中心點(diǎn)的真實(shí)坐標(biāo)。關(guān)鍵點(diǎn)的預(yù)測誤差定義為Lkeypoint=(kp1x-kp1*x)2+(kp1y-kp1*y)2+(kp2x-kp2*x)2+(kp2y-kp2*y)2,(5)類似地,kp1*x、kp1*y、kp2*x、kp2*y為人工標(biāo)注的兩個(gè)關(guān)鍵點(diǎn)的真實(shí)坐標(biāo)。包圍框大小的預(yù)測誤差為Lbbox=(h-h*)2+(w-w*)2,(6)其中,h*和w*為包圍框的真實(shí)大小。通過優(yōu)化上述損失函數(shù)L,可以使得網(wǎng)絡(luò)的預(yù)測結(jié)果和真實(shí)標(biāo)簽更加接近,訓(xùn)練后可以準(zhǔn)確地提取圖像中指針儀表的特征,預(yù)測其關(guān)鍵點(diǎn)坐標(biāo)和包圍框大小,得到準(zhǔn)確的目標(biāo)檢測結(jié)果,進(jìn)一步幫助后續(xù)指針儀表讀數(shù)的識別。
2.3指針儀表校準(zhǔn)
在目標(biāo)檢測模型預(yù)測出指針儀表的坐標(biāo)和包圍框大小后,算法流程的下一步是基于檢測結(jié)果從圖像中截取并校準(zhǔn)目標(biāo)物體,得到水平狀態(tài)下的指針儀表圖像。這個(gè)過程涉及到計(jì)算指針儀表的位姿。從圖1中可以看到,所定義的兩個(gè)藍(lán)色關(guān)鍵點(diǎn)為指針儀表中指針的最小刻度和最大刻度,其應(yīng)該處于水平狀態(tài)。因此通過計(jì)算這兩個(gè)關(guān)鍵點(diǎn)的坐標(biāo)的傾斜角度,即可得到指針儀表包圍框的旋轉(zhuǎn)角度。具體而言,通過目標(biāo)檢測模型預(yù)測的兩個(gè)關(guān)鍵點(diǎn)坐標(biāo)[kp1x, kp1y, kp2x, kp2y],可以計(jì)算得到指針儀表的旋轉(zhuǎn)角度為
通過指針儀表的中心位置[cx,cy],其大小[h, w]和旋轉(zhuǎn)角度α,就可以很容易地得到其包圍框的位置和旋轉(zhuǎn)角度,進(jìn)而從圖片中直接截取包圍框中的部分,就可以得到水平狀態(tài)下的指針儀表圖像。
2.4讀數(shù)計(jì)算
通過目標(biāo)檢測算法得到水平視角下的指針儀表圖片之后,算法的第二步是利用數(shù)字圖像處理中的技術(shù)識別指針儀表的讀數(shù)。從圖1中可以看到,指針儀表的指針和刻度線特征較為隱蔽,采用基于深度學(xué)習(xí)的算法難以精確估計(jì)指針儀表的讀數(shù),會帶來較大的誤差。因此,本算法采用邊緣檢測算法從圖像中提取邊緣信息,并進(jìn)一步利用圓環(huán)檢測和線段檢測算法識別指針和刻度線的位置,就能夠更加準(zhǔn)確地讀取指針儀表的數(shù)字。
步驟1:采用自適應(yīng)的邊緣檢測算法得到指針儀表的邊緣特征。由于指針儀表的圖像為彩色三通道圖片,首先對圖像進(jìn)行二值化處理,將其轉(zhuǎn)變?yōu)楹诎讏D像。一般情況下,物體的邊緣會出現(xiàn)像素值明顯的變化,因此可以通過一個(gè)像素與其周邊的像素值的差異判斷出其是否是物體的邊緣。
步驟2:通過目標(biāo)檢測算法檢測到指針儀表對應(yīng)的圖片,并將其縮放為統(tǒng)一大小后,指針儀表的大小是基本固定的。因此通過找到圖中的圓弧以及圓心,就可以得到刻度線外的圓弧。對于圓環(huán)檢測,本文采用廣泛使用的霍夫圓變換算法。首先對于邊緣檢測得到的結(jié)果,計(jì)算其中每個(gè)邊緣點(diǎn)的切線,然而計(jì)算其垂直線。此后,通過判斷這些垂直線是否穿過圖像中的每個(gè)點(diǎn)找到圓心。在實(shí)際情況中,可能會出現(xiàn)計(jì)算不準(zhǔn)出現(xiàn)偏差的情況,通過高斯濾波可以在一定程度上緩解此問題。在得到圓心后,計(jì)算圓心到邊緣點(diǎn)的距離,即為圓環(huán)的半徑。
步驟3:在此圓的內(nèi)側(cè),有11個(gè)刻度線,分別是-0.1、0、0.1、0.2、0.3、0.4、0.5、0.6、0.7、0.8、0.9。本文采取順時(shí)針掃描法來找到上面的11個(gè)短的刻度線。以霍夫算法找出的圓心為中心,以垂直向下為起點(diǎn),順時(shí)針掃描整個(gè)圓面,凡是指向圓心的20個(gè)像素點(diǎn)左右的黑色線段,即為刻度線。第1個(gè)刻度線,即為-0.1,最后一個(gè)刻度,即為0.9。在找出刻度線的過程中,也可以找出指針的位置,與刻度線相比,指針的線更長,因此判斷出指針的位置。根據(jù)指針的位置,以及它處于哪兩個(gè)刻度線之間,進(jìn)而計(jì)算出指針指向的位置,得到指針儀表的數(shù)字。
3實(shí)驗(yàn)與分析
3.1硬件平臺
硬件平臺采用Raspberry Pi Zero2W嵌入式控制器。該控制器體積小、功耗低、性能強(qiáng)、價(jià)格低廉,可以搭載Linux操作系統(tǒng)適合在指針儀表的識別的現(xiàn)場應(yīng)用。獲取指針表盤的攝像頭采用廣角500萬相素的樹莓派專用攝像頭。
3.2數(shù)據(jù)收集與標(biāo)注
對變電站常見的SF6壓力表,獲取了不同角度、不同讀數(shù)的500副指針儀表圖像。在得到圖像后,首先通過人工標(biāo)記的方法對每幅圖像中指針儀表的關(guān)鍵點(diǎn)和包圍框進(jìn)行標(biāo)注。然后將這500張圖像按照9∶1的比例分為450張訓(xùn)練圖像數(shù)據(jù)和50張測試圖像數(shù)據(jù)。使用提出的基于關(guān)鍵點(diǎn)的目標(biāo)檢測模型在這450張訓(xùn)練數(shù)據(jù)上進(jìn)行模型訓(xùn)練。訓(xùn)練結(jié)束后,在50張測試數(shù)據(jù)集預(yù)測指針儀表的讀數(shù),驗(yàn)證算法有效性。
3.3實(shí)驗(yàn)結(jié)果與分析比較
本文采用絕對誤差作為評估指標(biāo)。對于每張指針儀表圖像,首先人工標(biāo)注指針的讀數(shù)作為真實(shí)值,然后分別利用本文所提出的對抗算法以及結(jié)合圖像預(yù)處理和霍夫圓算法[17],對數(shù)據(jù)進(jìn)行預(yù)測和識別,用于評估算法的準(zhǔn)確性。在對上述50個(gè)測試數(shù)據(jù)測試完成后發(fā)現(xiàn),對抗算法預(yù)測誤差在0.01以內(nèi),相較于指針儀表的讀數(shù)范圍[0,1],僅有1%以內(nèi)的誤差。而使用霍夫圓算法的預(yù)測數(shù)據(jù),其誤差要大得多。
圖3展示了其中10張指針儀表照片。表1展示了這10個(gè)數(shù)據(jù)基于兩種算法的預(yù)測結(jié)果。
可見基于對抗學(xué)習(xí)的指針自適應(yīng)識別算法優(yōu)于霍夫圓算法。另外,本文所提出的方法選取了不同位姿下的圖片進(jìn)行水平處理,使得處理結(jié)果更具有泛化性,更符合實(shí)際應(yīng)用檢測場景。
4結(jié)論
針對指針儀表自動(dòng)快速讀數(shù)識別的難點(diǎn),本文提出了基于對抗學(xué)習(xí)的指針儀表自適應(yīng)讀數(shù)識別算法。針對指針儀表的安裝位姿有較大隨機(jī)性的特點(diǎn),采用了對抗學(xué)習(xí)中的數(shù)據(jù)增強(qiáng)技術(shù),通過優(yōu)化搜索模型識別不準(zhǔn)的圖像旋轉(zhuǎn)角度、平移距離以及縮放比例構(gòu)造訓(xùn)練數(shù)據(jù),提高目標(biāo)檢測模型在指針儀表位姿發(fā)生變化時(shí)的準(zhǔn)確率。
實(shí)驗(yàn)以工礦企業(yè)中常用的SF6壓力儀表為研究對象,實(shí)驗(yàn)結(jié)果表明讀數(shù)識別的誤差在1%以內(nèi),并與圖像預(yù)處理和霍夫圓檢測的方法作了比較,證明了所提出算法的有效性。
參考文獻(xiàn)
[1] HAN J, LI E, TAO B, et al. Reading recognition method of analog measuring instruments based on improved hough transform [C]//International Conference on Electronic Measurement & Instruments, Chengdu, China, 2011: 337-340.
[2] YANG B, LIN G, ZHANG W. Auto-recognition method for pointer-type meter based on binocular vision[J]. Journal of Computers, 2014, 9(4): 787-793.
[3] 侯玥,王開宇,金順福.一種基于YOLOv5的小樣本目標(biāo)檢測模型[J].燕山大學(xué)學(xué)報(bào),2023,47(1):64-72.
HOU Y, WANG K Y, JIN F S. A few-shot object detection model based on YOLOv5[J]. Journal of Yanshan University,2023,47(1):64-72.
[4] 韓紹超,徐遵義,尹中川,等.指針式儀表自動(dòng)讀數(shù)識別技術(shù)的研究現(xiàn)狀與發(fā)展[J]. 計(jì)算機(jī)科學(xué),2018, 45(6):54-57.
HAN S C, XU Z Y, YIN Z C, et al. Research review and development for automatic reading recognition technology of pointer instruments[J]. Computer Science, 2018, 45(6):54-57.
[5] 張志鋒,王鳳琴,田二林,等.基于機(jī)器視覺的指針式儀表讀數(shù)識別[J].控制工程, 2020, 27(3):581-586.
ZHANG Z F, WANG F Q, TIAN E L, et al. Machine vision based reading recognition for a pointer gauge[J]. Control Engineering of China, 2020, 27(3):581-586.
[6] LIU Y, LIU J, KE Y. A detection and recognition system of pointer meters in substations based on computer vision[J]. Measurement, 2020, 152(C): 107333.
[7] LIU J, WU H, CHEN Z. Automatic identification method of pointer meter under complex environment[C]//12th International Conference on Machine Learning and Computing, Shenzhen, China, 2020: 276-282.
[8] 王康,陸生華,陳潮,等.基于YOLOv5的指針式儀表檢測與讀數(shù)識別算法研究[J].三峽大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,44(6):42-47.
WANG K, LU S H, CHEN C, et al. Research on detection and reading recognition algorithm of pointer instrument based on YOLOv5[J]. Journal of China Three Gorges University (Natural Sciences),2022,44(6):42-47.
[9] ENGSTROM L, TRAN B, TSIPRAS D, et al. Exploring the landscape of spatial robustness[C]//International Conference on Machine Learning, Long Beach, USA, 2019: 1802-1811.
[10] 王明,崔冬,李剛,等.融合判別區(qū)域特征與標(biāo)簽傳播的顯著性目標(biāo)檢測[J].燕山大學(xué)學(xué)報(bào),2019,43(5):455-461.
WANG M, CUI D, LI G, et al. Salient object detection by integrating discriminative region feature and label propagation[J]. Journal of Yanshan University,2019,43(5):455-461.
[11] BAY H,TUYTELAARS T,GOOL L V.SURF: speeded up robust features [J].Computer Vision & Image Understanding,2006,110(3):404-417.
[12] CALONDER M,LEPETIT V,STRECHA C,et al. BRIEF:binary robust independent elementary features[C]//European Conference on Computer Vision, Grete, Greece,2010:778-792.
[13] ZOU Z, CHEN K, SHI Z, et al. Object detection in 20 years: a survey[J]. Proceedings of the IEEE, 2023, 111(3): 256-276.
[14] LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.
[15] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection [C]//IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA,2016: 779-788.
[16] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]// Advances in Neural Information Processing Systems, Montreal, Canada,2015: 1-12.
[17] 許立輝,楊開元,徐東東.基于計(jì)算機(jī)視覺的指針儀表盤識別算法與系統(tǒng)設(shè)計(jì)[J].儀器儀表用戶,2023,30(2):56-60.
XU L H, YANG K Y, XU D D. Recognition algorithm and system design of pointer panel based on computer vision[J]. Instrument Users, 2023, 30(2): 56-60.
Adaptive reading recognition algorithm of pointer instrument
based on adversary learning
Abstract: To address the problems of high cost, inaccuracy, and low efficiency in manual reading of pointer instruments, a pose-invariant adaptive reading recognition algorithm of pointer instrument based on adversarial learning is proposed. This algorithm utilizes an object detection model to identify the position and attitude of the pointer instrument in the image, calibrates the pointer instrument and uses digital image processing technology for reading recognition. In order to improve the recognition effectiveness of the object detection model on pointer instrument images with different poses, a data augmentation technology based on adversarial learning is proposed, which constructs training data by optimizing rotation angles, translation distances, and scaled ratios of images that lead to inaccurate recognition, to improve the accuracy of the object detection model when the pointer instrument′s pose changes. The research focuses on the SF6 pressure instrument commonly used inindustrial and mining enterprises, and experimental results show that the error of reading recognition is within 1%, which proves the effectiveness of the proposed algorithm.
Keywords: pointer instrument; reading recognition; object detection; pose-invariant; adversarial learning