国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖像處理算法的目標識別、定位與跟蹤系統(tǒng)設(shè)計與實現(xiàn)

2020-10-09 10:16楊榮王明偉劉思銘
物聯(lián)網(wǎng)技術(shù) 2020年9期
關(guān)鍵詞:目標識別智能控制

楊榮 王明偉 劉思銘

摘 要:在智能控制的諸多應(yīng)用領(lǐng)域中,如何對某一目標對象進行識別,提取其空間位置并實現(xiàn)目標跟蹤,是智能設(shè)備、智能機器人等實現(xiàn)的關(guān)鍵技術(shù)之一。這里著眼于特定場景下圖像采集、目標特征提取與識別、目標定位與跟蹤等關(guān)鍵問題,基于嵌入式技術(shù)和機械裝置,設(shè)計并實現(xiàn)了基于圖像處理算法的目標識別、定位與跟蹤系統(tǒng)。該系統(tǒng)實現(xiàn)了特定場景下對于多目標物體的識別與跟蹤。同時,提出了一個能降低同色或同外形物體對識別精度干擾的RGB與log算子邊緣提取協(xié)同濾波的圖像處理算法,可以有效提高場景中存在其他與目標物同色不同形或同形不同色的干擾物的情況下的目標識別和定位精確度。

關(guān)鍵詞:目標識別;目標定位與跟蹤;圖像處理算法;嵌入式技術(shù);智能控制;定位精確度

中圖分類號:TP391文獻標識碼:A文章編號:2095-1302(2020)09-00-05

0 引 言

隨著新一輪科技革命與產(chǎn)業(yè)變革,當(dāng)前各行各業(yè)均朝著高度智能化的方向不斷發(fā)展。在智能控制的諸多應(yīng)用領(lǐng)域中,如何對某一目標對象進行識別,提取其空間位置并實現(xiàn)目標跟蹤,是智能設(shè)備、智能機器人等實現(xiàn)的關(guān)鍵技術(shù)之一。本文著眼于解決特定場景下圖像采集、目標特征提取與識別、目標定位與跟蹤等關(guān)鍵問題,提出了基于圖像處理算法的目標識別、定位與跟蹤系統(tǒng)設(shè)計與實現(xiàn)方法[1-2]。該系統(tǒng)來源于競賽場景,并應(yīng)用于競賽培訓(xùn)課程及綜合性實驗項目教學(xué)。目的是提煉競賽中需進行機器視覺識別的場景,利用基于圖像處理算法的綜合系統(tǒng)實現(xiàn)對學(xué)生的訓(xùn)練和能力提升。為了實現(xiàn)更好的實踐訓(xùn)練效果,這里對教學(xué)應(yīng)用場景進行了簡化,以一個特定場景進行設(shè)計與實現(xiàn)。目標識別的特定場景設(shè)計為:放置在一定距離外的白板上有待識別的目標,白板上擺放紅色、黃色、藍色和綠色的4個磁扣作為待識別的目標,利用識別定位系統(tǒng)中的激光筆對單個磁扣/多個磁扣進行識別、定位與跟蹤。

1 系統(tǒng)總體設(shè)計

系統(tǒng)基于如下思路進行設(shè)計:在一塊白板上放置紅色、黃色、藍色和綠色的4個磁扣,用STM32開發(fā)板控制攝像頭對其進行拍照并處理圖像數(shù)據(jù),提取不同顏色磁扣的RGB像素特征,并根據(jù)某一磁扣的特征對其進行識別與定位,最后根據(jù)定位信息控制載有激光筆的二維機械運動裝置跟蹤目標。系統(tǒng)中圖像采集、處理及通過機械裝置進行目標跟蹤,均通過嵌入式技術(shù)實現(xiàn)[3]。

系統(tǒng)包括機械運動裝置和圖像采集處理與控制裝置兩個部分。機械結(jié)構(gòu)為二維機械運動裝置,水平方向的運動裝置采用皮帶式絲杠滑臺作為橫軸,用步進電機驅(qū)動皮帶的主動輪使滑塊跟隨皮帶運動;垂直方向以兩根立桿作為縱軸,仍用步進電機拉動繞線,通過定滑輪使搭載激光筆的滑塊運動。圖像采集處理與控制裝置包括基于ARM Cortex M3的STM32F103開板、圖像傳感器OV7670等。通過控制OV7670進行照片采集,而后對采集到的照片進行處理,計算出目標物位置和機械運動裝置位置,進而實現(xiàn)運動控制與目標跟蹤。系統(tǒng)的總體框架如圖1所示。

2 系統(tǒng)實現(xiàn)

2.1 機械結(jié)構(gòu)實現(xiàn)

這里設(shè)計了二維機械運動裝置作為機械結(jié)構(gòu),采用絲杠滑臺、滑輪等搭建,并搭載激光筆用于標記出定位目標。

二維機械運動裝置的具體結(jié)構(gòu)如圖2所示。

二維運動裝置的主要3D模型如圖3所示。圖4所示為實際完成的二維運動裝置實物。

2.2 圖像采集處理與控制裝置

圖像采集處理與控制裝置包括基于ARM Cortex M3的STM32F103開發(fā)板、圖像傳感器OV7670等。STM32F103基于內(nèi)核ARM Cortex M3,最高72 MHz工作頻率。開發(fā)板的FLASH容量512 KB,SRAM 64 KB,具有112個通用I/O口,8個定時器、2個DMA控制器、3個SPI、2個I2C、5個串口等豐富的資源。

圖像傳感器采用OV7670,體積小、工作電壓低,可提供單片VGA攝像頭和影像處理器的所有功能,并且自帶FIFO芯片,相當(dāng)于一個384 KB的存儲器,可以用來暫時存儲圖像數(shù)據(jù)。它主要包括以下功能模塊:640×480個有效像素的感光陣列、時序發(fā)生器、含自動增益和自動白平衡的模擬信號處理模塊、A/D轉(zhuǎn)換模塊、測圖案發(fā)生器、DSP、縮放模塊、數(shù)字視頻接口、SCCB接口以及LED與閃光燈輸出控制模塊等。OV7670采集到的圖像無需解碼就能顯示,符合系統(tǒng)實時性要求。

本項目采用攝像頭輸出320×240的輸出格式。OV7670的圖像數(shù)據(jù)輸出是在像素時鐘信號PLCK,幀同步信號VSYNC和HREF/HSYNC行同步信號的控制下完成。

系統(tǒng)中運動控制采用步進電機+驅(qū)動器控制的方式進行,步進電機選用42步進電機。電機驅(qū)動器連接STM32F103開發(fā)板I/O口,開發(fā)板的定時器輸出PWM信號,即可實現(xiàn)步進電機的轉(zhuǎn)速和轉(zhuǎn)角的精確控制。

2.3 軟件系統(tǒng)

軟件系統(tǒng)由圖像采集、圖像存儲、圖像處理算法(自適應(yīng)測距算法和色彩識別算法)、運動控制算法等部分組成。軟件系統(tǒng)的總體結(jié)構(gòu)如圖5所示。

軟件系統(tǒng)的工作流程包括:通過開發(fā)板使能攝像頭實現(xiàn)拍照,將采集到的圖像數(shù)進行BMP編碼寫入SD卡,再由開發(fā)板從SD讀出并解碼為RGB格式。通過對RGB數(shù)值特征的分析可區(qū)別出不同顏色的磁扣,進而進行識別和定位。

3 圖像處理算法

系統(tǒng)及軟件實現(xiàn)中關(guān)鍵是圖像處理算法的程序?qū)崿F(xiàn)[4-5]。本系統(tǒng)的算法預(yù)先利用MATLAB進行仿真,并最終在基于Keil5的開發(fā)平臺下,采用C語言編程實現(xiàn)系統(tǒng)的主要算法和功能,進而實現(xiàn)自動目標定位、識別與跟蹤。

為了實現(xiàn)自動目標識別與跟蹤,必須先對目標進行識別,并獲取目標的位置,再驅(qū)動二維運動裝置進行目標定位與跟蹤。關(guān)鍵部分包括根據(jù)不同目標的特征獲取目標,并得到目標的位置。這里首先應(yīng)用了自適應(yīng)平面測距算法。

3.1 自適應(yīng)平面測距算法

該測距算法是由傳統(tǒng)單目測距算法[6]改進的,用于測算照片中一切垂直于相機拍攝方向的平面上的物體移動距離和實際移動距離的比例系數(shù)。具體算法如下:

(1)打開激光筆,驅(qū)動電機驅(qū)動二維運動裝置,使得激光照射在一個比較好的位置(實驗時大致使得激光能照在拍攝畫面中央附近),照相機拍攝一張照片,計算出該激光點在畫面中的位置(x0,y0)(單位:像素);測距功能示意圖如圖6所示。

(2)控制二維運動裝置,使激光筆沿水平方向移動一定距離L(單位:cm),而后相機再次拍攝一張照片,計算出該激光點在畫面中的位置(x1,y1);兩次拍攝的照片比對如圖7所示。

(3)計算激光點在相片上的移動距離:

Δl=|x0-x1|

(4)計算實際距離和相片中距離之間的比例系數(shù):

σ=L/Δl

通過該算法獲取了實際距離和相片中距離之間的比例系數(shù),進而可以實現(xiàn)圖像位置與實際物理位置的映射。

3.2 定位算法

該定位算法用于定位目標物體在照片中的位置,這里認為目標物一般含有某區(qū)別于外界環(huán)境的顏色成分。具體算法如下:

定義變量xsum,ysum,假定要定位的物體含有顏色C,假設(shè)顏色C的RGB范圍為:

RL

GL

BL

Step1:令xsum=0,ysum=0,count=0;

Step2:從(0,0)開始,該時刻下,攝像頭采集進入的相片中的一個像素,設(shè)該像素位置為(xi,yi);

Step3:通過RGB三色的掩碼將該像素的16 bit值,計算出該像素的R,G和B值,判斷是否屬于顏色C,若是則令xsum+=xi,ysum+=yi,count++;

Step4:重復(fù)執(zhí)行Step2,Step3,直到遍歷完所有像素點;

Step5:若count==0,則返回-1,-1表示未找到;否則xsum/=count,ysum/=count,得到的(xsum,ysum)即為目標物在相機視角中的位置。

3.3 RGB測量

定位算法使用前,為了能夠?qū)Σ煌伾拇趴圻M行識別,在采集圖像并獲取到圖像RGB值后,需要預(yù)先對待識別的不同磁扣RGB值的特征進行測量與分析。計算各個磁扣的RGB值在所拍攝畫面中的數(shù)值分布圖,可以發(fā)現(xiàn)不同顏色磁扣的RGB各分量均有一定范圍,且R,G,B的范圍綜合后互不交疊,能夠區(qū)分出不同顏色的磁扣,故據(jù)此建立了不同顏色磁扣的RGB范圍表,見表1所列。

根據(jù)上述RGB范圍測量結(jié)果和定位算法,可在圖像中識別出各個顏色磁扣,并確定其位置,利用Matlab進行仿真的結(jié)果如圖8所示。系統(tǒng)實測進行目標識別、定位與跟蹤的效果如圖9所示。

改變自定義庫中的目標RGB范圍,即可追蹤其他顏色屬性的目標物,但是在采集圖像時,RGB值的大小受環(huán)境光影響會有變化,因此系統(tǒng)實現(xiàn)時選擇RGB閥值時需留有余量。

這里實現(xiàn)了對場景中的目標磁扣進行識別的基本功能。但在實際測試中發(fā)現(xiàn)利用該定位算法進行目標識別和定位時,存在抗干擾較差的問題。即當(dāng)背景中存在與待識別目標物相近顏色的干擾物時,定位會不準確。在如圖10所示的測試場景中,由于左側(cè)干擾物的存在,要定位藍色磁扣時,實測結(jié)果向左側(cè)偏離目標。這是由于采用原始的定位算法時,僅通過RGB值來確定待測目標物體所在位置。

3.4 改進算法

為了解決上述問題,提高目標定位的精準度,系統(tǒng)實現(xiàn)時對上述算法進行了改進。改進后的圖像處理算法可以概括為:先對采集到的圖像進行RGB濾波處理,接著使用邊緣檢測算法,對圖像內(nèi)容進行邊緣檢測,生成輪廓圖,再通過特征提取矩陣進行卷積,找到對應(yīng)特征最明顯的點,即為目標物。

改進算法簡述:

(1)對采集到的圖像首先進行RGB濾波處理。

(2)邊緣檢測算法。

使用邊緣檢測算法對采集到的圖像進行處理,這里首先需考慮選擇一個合適的檢測算子。取了5種常用的邊緣檢測算子,即canny算子[7]、prewitt算子[8]、sobel算子[9]、log算子[10]和roberts算子[11]進行測試并比對處理效果。圖11(f)所示為采集到的圖像,圖像中存在4個待測目標,以下黑白色圖11(a)~圖11(e)為利用5種算子進行邊緣檢測的結(jié)果對比,黑色部分pixel為0,白色為1。

根據(jù)對比結(jié)果,這里選擇log算子作為邊緣檢測算子。而后對原先存在干擾的場景即圖10所示情形進行邊緣檢測,檢測后的結(jié)果如圖12所示,這樣可以很好地利用干擾物在外形上和目標物的區(qū)別對目標進行有效識別[12-13]。

(3)卷積特征矩陣

而后使用特征提取矩陣對圖片做卷積,實現(xiàn)對目標物輪廓特征的提取[14]。這里根據(jù)識別場景,選取如下18×18的矩陣作為卷積乘子效果最佳,圖13為該卷積乘子對應(yīng)的灰度圖。不同識別場景下,選用的卷積矩陣會有所不同。

(4)實測效果

仍然是圖10所示的采集到的圖像,將改進后的圖像處理方法在系統(tǒng)進行應(yīng)用與實現(xiàn),即先進行RGB濾波,再利用log算子進行邊緣檢測,通過卷積特征矩陣,得到定位結(jié)果。將結(jié)果以地形圖呈現(xiàn)[15],得到的結(jié)果如圖14所示??梢钥吹剑{色磁扣已經(jīng)明顯區(qū)別于環(huán)境,可以認為干擾已經(jīng)不再起作用。實際定位結(jié)果如圖15所示。與原始的算法結(jié)果進行對比可以發(fā)現(xiàn),改進后的算法在存在干擾的情況下顯著提高了目標識別與定位的精確度。

4 結(jié) 語

本文利用ARM Cortex M3開發(fā)板和二維機械運動裝置,基于圖像處理算法設(shè)計并實現(xiàn)了目標識別、定位與跟蹤系統(tǒng)。機械運動裝置移動速度約為10 cm/s,誤差為0.003 m/10 m。圖像采集處理與控制裝置通過控制OV7670進行照片采集,而后對采集到的照片利用圖像處理算法進行了處理,并提出了改進的基于RGB篩選和log算子邊緣提取協(xié)同濾波的抗干擾圖像處理算法,以獲得更高的目標識別與定位精度。系統(tǒng)實測目標定位速度可以達到3.17 s/m2可通過激光筆實現(xiàn)精確的目標定位與跟蹤,可應(yīng)用于競賽等需要機器視覺實現(xiàn)目標跟蹤的諸多場景。

此外,本文還提出了一個自適應(yīng)平面測距算法,該算法能自適應(yīng)地調(diào)整垂直于攝像機鏡頭但沒有參照物的平面上的拍攝長度和實際長度的轉(zhuǎn)換系數(shù),誤差E=2%。

參考文獻

[1]劉韜,葛大偉.機器視覺及其應(yīng)用技術(shù)[M]. 北京:機械工業(yè)出版社,2019.

[2] SONKA Milan,HLAVAC Vaclav,BOYLE Roger.圖像處理、分析與機器視覺[M].北京:清華大學(xué)出版社,2016.

[3]鐘建冬,蘇建波.基于視覺預(yù)測的運動目標實時跟蹤系統(tǒng)[J]. 機器人,2010,32(4):516-521.

[4]王恒歡.基于深度學(xué)習(xí)的圖像識別算法研究[D].北京:北京郵電大學(xué),2015.

[5]張華偉,孫勁光.基于顏色與形狀圖像檢索的研究[J].計算機仿真,2009,26(11):207-210.

[6]莊嚴,王偉,王珂,等.移動機器人基于激光測距和單目視覺的室內(nèi)同時定位和地圖構(gòu)建[J].自動化學(xué)報,2005,31(6):925-933.

[7] DING L,GOSHTASBY A. On the canny edge detector [J]. Pattern recognition,2001,34(3):721-725.

[8] DONG W,ZHOU S S. Color image recognition method based on the Prewitt operator [C]// International Conference on Computer Science & Software Engineering. Wuhan:IEEE,2008:170-173.

[9] KANOPOULOS N,VASANTHAVADA N,BAKER R L. Design of an image edge detection filter using the Sobel operator [J]. IEEE journal of solid-state circuits,2002,23(2):358-367.

[10] ULUPINAR F,MEDIONI G G. Refining edges detected by a LoG operator [J]. Computer vision graphics & image processing,1990,51(3):275-298.

[11] ALAM M S,IFTEKHARUDDIN K M,KARIM M A. Polarization‐encoded optical shadow casting:Edge detection using roberts operator [J]. Microwave & optical technology letters,2010,6(3):190-193.

[12]孫琰.基于小波變換的圖像邊緣檢測技術(shù)[D].西安:西北工業(yè)大學(xué),2004.

[13]張晴.基于視覺注意的顯著物體檢測實驗設(shè)計[J]. 實驗室研究與探索,2016,35(2):155-158.

[14]王吉豪,陳奎,王順,等. 基于機器視覺的位置感知與軌跡跟蹤的研究[J].工業(yè)控制計算機,2018,31(12):56-57.

[15] WU J X,REHG J M. centrist:a visual descriptor for scene categorization [J]. IEEE transactions on pattern analysis and machine intelligence,2011,33(8):1489-1501.

猜你喜歡
目標識別智能控制
渡口水域安全監(jiān)管技術(shù)研究
基于物聯(lián)網(wǎng)的智能控制項目實踐教學(xué)設(shè)計
應(yīng)用型人才培養(yǎng)導(dǎo)向下智能控制教學(xué)改革探討
移動機器人圖像目標識別
淺談開關(guān)式電梯IC卡系統(tǒng)及展望
施甸县| 鄂伦春自治旗| 都江堰市| 祁连县| 罗定市| 江安县| 青浦区| 留坝县| 左权县| 西峡县| 尼玛县| 杭锦后旗| 英德市| 洛川县| 康保县| 汾西县| 阿巴嘎旗| 岳西县| 牡丹江市| 绥化市| 巴里| 体育| 虹口区| 石楼县| 城固县| 宿州市| 塔城市| 武宁县| 元朗区| 石门县| 榆树市| 象州县| 白沙| 望奎县| 余干县| 乐业县| 白河县| 永和县| 冀州市| 台北县| 古浪县|