李亞軍 向 陽(yáng) 林潔雯 胡正方 龍震寰
(湖南農(nóng)業(yè)大學(xué) 工學(xué)院,長(zhǎng)沙 410128)
近年來(lái),我國(guó)蔬菜產(chǎn)業(yè)發(fā)展迅速,蔬菜生產(chǎn)和消費(fèi)均居世界首位[1]。2010—2018年我國(guó)蔬菜出口量持續(xù)增長(zhǎng),2018年蔬菜出口量達(dá)948 萬(wàn)t,其中葉菜類(lèi)蔬菜約占蔬菜生產(chǎn)總量的1/3[2]。但目前我國(guó)葉菜類(lèi)蔬菜的生產(chǎn)作業(yè)基本靠人工完成,生產(chǎn)環(huán)節(jié)機(jī)械化自動(dòng)化水平和綜合效益較低[3]。
現(xiàn)代農(nóng)業(yè)生產(chǎn)工作中,自主導(dǎo)航是農(nóng)業(yè)機(jī)械實(shí)現(xiàn)施肥、打藥、收獲自動(dòng)化的重要保障[4]。目前農(nóng)機(jī)自主導(dǎo)航技術(shù)主要包括衛(wèi)星定位導(dǎo)航和機(jī)器視覺(jué)導(dǎo)航。其中,衛(wèi)星定位導(dǎo)航適用于定軌跡的導(dǎo)向,對(duì)于壟間精確定位行走適用性不好[5];機(jī)器視覺(jué)導(dǎo)航采集、處理和分析田間圖像提取導(dǎo)航基準(zhǔn)線(xiàn),實(shí)現(xiàn)自主行走[6],相對(duì)于前者,具有局部定位優(yōu)勢(shì),更適合復(fù)雜的壟作環(huán)境[7]。
已有研究對(duì)基于機(jī)器視覺(jué)的田間導(dǎo)航提出了許多方法:1) 基于YUV、HIS等顏色空間光照無(wú)關(guān)分量進(jìn)行作物灰度特征提取,減少了外界光照環(huán)境的干擾[8-9];2) 基于行列掃描、聚類(lèi)等歸類(lèi)算法對(duì)作物區(qū)域提取,實(shí)現(xiàn)多列作物目標(biāo)的檢測(cè)與感興趣區(qū)域提取[10-11];3) 基于Hough變換或最小二乘法可實(shí)現(xiàn)對(duì)作物輪廓離散點(diǎn)進(jìn)行直線(xiàn)擬合[12-13]。而上述研究仍然存在一些問(wèn)題,如Hough變換和最小二乘法擬合直線(xiàn)均對(duì)噪聲敏感、檢測(cè)精度低和適應(yīng)性差[14]。同時(shí)上述的田間視覺(jué)導(dǎo)航技術(shù)研究主要針對(duì)小麥、玉米等糧食作物,目前未見(jiàn)針對(duì)葉菜類(lèi)蔬菜的菜壟導(dǎo)航技術(shù)的研究和報(bào)道。
基于以上問(wèn)題,本研究以蕹菜菜地為研究對(duì)象,提出一種基于機(jī)器視覺(jué)的葉菜類(lèi)蔬菜菜壟識(shí)別算法。選用改進(jìn)的超綠算法對(duì)圖像進(jìn)行灰度化處理,再利用中值濾波進(jìn)行圖像去噪,并通過(guò)二值形態(tài)學(xué)變換和連通區(qū)域提取獲得菜壟區(qū)域和邊界,最終基于Huber損失函數(shù)對(duì)菜壟邊界進(jìn)行直線(xiàn)擬合,提取導(dǎo)航基準(zhǔn)線(xiàn)。
菜地圖像采集平臺(tái)由映美精DFK 21BU618彩色相機(jī)、康標(biāo)達(dá)(Computar) 8.5 mm工業(yè)鏡頭以及相機(jī)支架等構(gòu)成,相機(jī)輸出為BMP格式的RGB彩色圖像,分辨率為640像素×480像素。圖像獲取過(guò)程中,采集平臺(tái)安裝在農(nóng)業(yè)機(jī)器人上,相機(jī)距地面高度為1 m,傾角為20°。試驗(yàn)菜地雖然經(jīng)過(guò)平整,但是依舊存在凹凸不平的地方,機(jī)器人在圖像獲取過(guò)程中相機(jī)傾角會(huì)發(fā)生偏移,偏移量在±5°以?xún)?nèi)。用于圖像處理的計(jì)算機(jī)為Intel(R) Core(TM) i5-3230 M CPU,主頻2.60 GHz,4 G內(nèi)存,安裝Windous10 64位操作系統(tǒng),視覺(jué)導(dǎo)航測(cè)試系統(tǒng)基于Microsoft Visual Studio 2015平臺(tái),并搭建OpenCV 3.0開(kāi)發(fā)環(huán)境進(jìn)行圖像處理。
獲取菜地原始圖像后,為準(zhǔn)確地把菜壟從菜地背景中提取出來(lái),需要選擇合適的顏色空間和轉(zhuǎn)換算法進(jìn)行圖像灰度化處理,以減少?gòu)?fù)雜背景和光照的影響。從采集的圖片(圖1(a1)~(a4))可以看出,菜壟區(qū)域相比于壟間區(qū)域具有明顯綠色特征,且壟間區(qū)域亮度相對(duì)偏暗。
傳統(tǒng)突出圖像中綠色特征的方法常采用超綠算法[15-17]進(jìn)行灰度化處理,即利用RGB顏色空間R(紅色)、G(綠色)和B(藍(lán)色)3個(gè)通道分量,構(gòu)建超綠分量2G-R-B進(jìn)行圖像灰度化運(yùn)算,效果見(jiàn)圖1(b1)~(b4)??梢钥闯?,隨著光照強(qiáng)度的變化,2G-R-B分量圖亮度也發(fā)生相應(yīng)變化,尤其是當(dāng)菜地存在陰影時(shí)(圖1(b4)),陰影區(qū)灰度值更接近壟間灰度值,為后期的圖像二值化處理增加了難度。
出現(xiàn)上述灰度圖像亮度不同情況的主要原因是RGB 顏色空間對(duì)于光照的變化比較敏感,易受到高光和陰影的影響[18]。目前常用的顏色空間還包括HIS、YUV等。HIS空間以H(色調(diào))、S(飽和度)和I(強(qiáng)度) 3種基本特征量來(lái)感知顏色,其中S分量可以把蔬菜和背景的對(duì)比度體現(xiàn)出來(lái),但是RGB格式轉(zhuǎn)HIS格式為非線(xiàn)性轉(zhuǎn)換,處理時(shí)間長(zhǎng),效果見(jiàn)圖1(c1)~(c4);YUV又稱(chēng)為YCrCb,最大優(yōu)勢(shì)是可以把RGB圖像中的色度信息與亮度信息區(qū)分開(kāi)[19],可以有效去除光照的影響,且YCrCb與RGB之間轉(zhuǎn)換為線(xiàn)性,算法簡(jiǎn)單、計(jì)算量小[20]。
針對(duì)以上特性,本研究引入一種改進(jìn)超綠算法[14]對(duì)蔬菜圖像進(jìn)行灰度化處理,在YCrCb空間中引入Cg(綠色色度)分量,把超綠算法中的R、G、B轉(zhuǎn)化為Cr(紅色色度)、Cg(綠色色度)、Cb(藍(lán)色色度),構(gòu)建改進(jìn)超綠分量2Cg-Cr-Cb進(jìn)行圖像灰度化運(yùn)算,在消除光照或陰影的情況下,加大綠色信號(hào),減少紅色和藍(lán)色信號(hào)的影響。
YCrCb空間顏色各通道分量可以通過(guò)對(duì)RGB顏色空間進(jìn)行簡(jiǎn)單線(xiàn)性轉(zhuǎn)換得到,同時(shí)為保證YCrCb空間顏色各通道分量非負(fù),通常會(huì)在原值基礎(chǔ)上增加偏移量[19,21],轉(zhuǎn)換公式為:
(1)
式中:Y為YCrCb空間顏色亮度分量;Cr為YCrCb空間顏色紅色色度分量;Cb為YCrCb空間顏色藍(lán)色色度分量;其中,Cr與Cb表示RGB輸入信號(hào)紅色、藍(lán)色部分與RGB信號(hào)亮度值之間的差異,且相互獨(dú)立。
同時(shí)YCrCb空間格式可由R、G、B3個(gè)分量表示:
(2)
式中:Kr、Kg和Kb為YCrCb顏色空間加權(quán)因子。3個(gè)加權(quán)因子之間的關(guān)系為:
Kr+Kg+Kb=1
(3)
聯(lián)立式(2)、(3),得到Cg在YCrCb空間顏色綠色色度分量的表達(dá)式:
(4)
根據(jù)國(guó)際電信聯(lián)盟-無(wú)線(xiàn)電通信部(ITU-R)的BT.601協(xié)議,本研究定義加權(quán)因子Kr的值為0.299,Kb為0.114。所以聯(lián)立式(1)、(3)和(4),可以得到Y(jié)CrCb顏色空間中Cr、Cg和Cb分量關(guān)于RGB格式的表達(dá)式:
(5)
(a1)~(a4)為晴天、高光、陰天和晴天(帶陰影)菜地原始圖像;(b1)~(b4)為2G-R-B分量圖像;(c1)~(c4)為S分量圖像;(d1)~(d4)為2Cg-Cr-Cb分量圖像。(a1)-(a4) are the original images of vegetable field in sunny, highlight, cloudy and sunny with shadows; (b1)-(b4) are 2G-R-B component images; (c1)-(c4) are S component images; (d1)-(d4) are 2Cg-Cr-Cb component images.圖1 4種光照條件下菜地不同顏色空間分量圖Fig.1 Component graph of different color space of vegetable field under four illumination conditions
將式(5)帶入到改進(jìn)超綠分量2Cg-Cr-Cb對(duì)蔬菜原始圖像進(jìn)行灰度化處理,效果見(jiàn)圖1(d1)~(d4)。
為對(duì)比各顏色空間分量在不同光照環(huán)境下對(duì)背景噪聲的抑制效果,分別針對(duì)晴天、高光、陰天以及晴天(帶陰影)4種光照條件下菜地圖像進(jìn)行試驗(yàn)(圖1),對(duì)比各分量圖像可以發(fā)現(xiàn),2G-R-B分量和2Cg-Cr-Cb分量圖像相對(duì)于S分量圖像目標(biāo)與背景對(duì)比度更清晰,更能清晰地顯示菜地壟間特征。
基于上述分析,本研究對(duì)4種光照條件下,灰度化處理后的2G-R-B分量和2Cg-Cr-Cb分量圖像繪制灰度直方圖(圖2)??梢悦黠@發(fā)現(xiàn),在不同光照條件下,傳統(tǒng)超綠算法的2G-R-B分量亮度變化相對(duì)于2Cg-Cr-Cb分量更加明顯,受光照干擾較大,因此本研究選用改進(jìn)超綠算法對(duì)菜地圖像進(jìn)行灰度化處理。
圖2 4種光照條件下菜地2G-R-B分量和2Cg-Cr-Cb分量灰度直方圖Fig.2 Gray histograms for 2G-R-B component and 2Cg-Cr-Cb component of vegetable field under four illumination conditions
為進(jìn)一步提取菜壟圖像,本研究選用自適應(yīng)閾值的大津(OTSU)法[4]進(jìn)行二值化,效果見(jiàn)圖3。圖像中存在大量的細(xì)小孤立噪聲(圖3(b)),因此本研究選用5×5的濾波窗口對(duì)圖3(a)進(jìn)行中值濾波,再進(jìn)行圖像二值化,效果見(jiàn)圖4,二值圖像中(圖4(b))細(xì)小孤立噪聲基本上被去除。
圖3 晴天菜地2Cg-Cr-Cb分量圖像和OTSU法處理后二值圖像Fig.3 Gray image of 2Cg-Cr-Cb component and binary image processed by OTSU of vegetable field under sunny condition
圖4 中值濾波處理后的菜地灰度圖像(a)和二值圖像(b)Fig.4 Gray image (a) after median filtering and binary image (b) of vegetable field
本研究以中間菜壟為研究對(duì)象,提取二值化圖像中最大連通區(qū)域并進(jìn)行填充,實(shí)現(xiàn)中間菜壟區(qū)域提取。但是田間環(huán)境復(fù)雜,存在菜葉遮擋壟間的情況,導(dǎo)致菜壟粘連,影響菜壟區(qū)域提取,效果見(jiàn)圖5。針對(duì)這一問(wèn)題,本研究采用5×5的矩形結(jié)構(gòu)元對(duì)二值圖像(圖5(a))進(jìn)行腐蝕處理,可以有效解決菜葉遮擋的問(wèn)題(圖6(a)、(b)),為了補(bǔ)償因?yàn)楦g處理造成的邊界信息損失,同樣選用5×5的矩形結(jié)構(gòu)元對(duì)圖6(b)進(jìn)行膨脹處理,效果見(jiàn)圖6(c)。
(a)為陰天(圖1(a3))經(jīng)灰度化處理、中值濾波和二值化后的圖像,紅色圓圈內(nèi)為菜壟區(qū)域粘連時(shí)情況;(b)為對(duì)圖(a)提取連通區(qū)域后的圖像。(a) is the image after gradation processing, median filtering and binarization of Fig.1 (a3). The red circle in the image shows the situation when the vegetable ridge area adheres to each other; (b) is the image obtained by extracting the connected area from the image (a).圖5 菜葉遮擋壟間條件下菜地二值圖像和連通區(qū)域提取圖像Fig.5 Binary image and connected area extraction image of vegetable field with leaves shaded between ridges
圖6 菜葉遮擋壟間條件下菜壟區(qū)域形態(tài)學(xué)處理過(guò)程Fig.6 Morphological processing of vegetable ridge with leaves shaded between ridges
以圖6(c)中黑色區(qū)域?yàn)檠芯繉?duì)象,找到最大和第二大連通區(qū)域,并基于Canny算法對(duì)圖7(a)進(jìn)行處理,獲得菜壟邊界曲線(xiàn)(圖7(b))。
圖7 菜壟區(qū)域提取圖像和邊界提取圖像Fig.7 Vegetable ridge area extraction image and boundary extraction image
為更好獲取導(dǎo)航基準(zhǔn)線(xiàn),對(duì)提取的菜壟邊界曲線(xiàn)進(jìn)行直線(xiàn)擬合。直線(xiàn)擬合主要有Hough直線(xiàn)變換和最小二乘法直線(xiàn)擬合。Hough直線(xiàn)變換計(jì)算量較大,且生成多條直線(xiàn)[10];而最小二乘法具有計(jì)算公式簡(jiǎn)單明確,運(yùn)算速度快的特點(diǎn),更滿(mǎn)足循跡機(jī)器人在菜地快速獲取導(dǎo)航信息的需求,但易受到誤差點(diǎn)的影響[8]。因此本研究提出一種基于Huber損失函數(shù)的菜壟邊界直線(xiàn)擬合方法。
Huber損失函數(shù)結(jié)合了線(xiàn)性回歸損失函數(shù)和絕對(duì)值損失函數(shù),是為了增強(qiáng)平方誤差損失函數(shù)(最小二乘法)對(duì)噪聲(或叫離群點(diǎn))的魯棒性提出的[22]。當(dāng)擬合直線(xiàn)與邊界曲線(xiàn)上點(diǎn)之間的距離很小時(shí),就是最小二乘擬合函數(shù),當(dāng)距離較大時(shí),為二次函數(shù)。對(duì)于邊界曲線(xiàn)中的異常點(diǎn)沒(méi)有最小二乘擬合函數(shù)敏感,且相比其他損失函數(shù)具有效率高的特點(diǎn)[23]。其中Huber函數(shù)的公式為:
(6)
式中:α為殘差,在直線(xiàn)擬合中即為生成直線(xiàn)與離散點(diǎn)之間的距離;δ為邊界值,用于判斷是否為誤差點(diǎn)。
本研究基于OpenCV 3.0函數(shù)庫(kù),利用最小化代價(jià)函數(shù)的方式來(lái)進(jìn)行直線(xiàn)擬合[24]。函數(shù)定義如下:
(7)
(8)
傳統(tǒng)的最小二乘損失函數(shù)公式為:
(9)
利用Huber損失函數(shù)進(jìn)行距離度量時(shí),擬合函數(shù)公式為:
(10)
式中:C為邊界值,可設(shè)置C=0,函數(shù)自動(dòng)為選中的擬合方法提供最優(yōu)C值。
因此,本研究基于式(10)分別對(duì)兩側(cè)菜壟邊界曲線(xiàn)進(jìn)行直線(xiàn)擬合,每側(cè)擬合直線(xiàn)輸出結(jié)果均由Vx、Vy、X、Y4個(gè)值組成,其中(Vx,Vy)為生成直線(xiàn)的單位矢量,(X,Y)為通過(guò)該測(cè)擬合直線(xiàn)的一點(diǎn),則可得到該側(cè)擬合直線(xiàn)函數(shù)(單側(cè)菜壟邊界線(xiàn)方程)為:
(11)
式中:x表示生成的菜壟邊界線(xiàn)上的點(diǎn)坐標(biāo)列像素序號(hào);y表示生成的菜壟邊界線(xiàn)上的點(diǎn)坐標(biāo)行像素序號(hào)。分別采用最小二乘和Huber損失函數(shù),對(duì)菜壟離散點(diǎn)簇進(jìn)行直線(xiàn)擬合,生成菜壟邊界線(xiàn),結(jié)果見(jiàn)圖8和圖9。
圖8 基于最小二乘法的菜壟邊界提取圖像Fig.8 Vegetable ridge boundary extraction image based on least square method
圖9 基于Huber損失函數(shù)的菜壟邊界提取圖像Fig.9 Vegetable ridge boundary extraction image based on Huber loss function
在得到左右兩條菜壟邊界線(xiàn)方程后,聯(lián)立兩直線(xiàn)方程求解角平分線(xiàn),即為導(dǎo)航基準(zhǔn)線(xiàn)。角平分線(xiàn)斜率計(jì)算公式為:
(12)
式中:k為中心導(dǎo)航基準(zhǔn)線(xiàn)斜率;k1為左邊菜壟邊界線(xiàn)斜率;k2為右邊菜壟邊界線(xiàn)斜率。再求得左右菜壟邊界線(xiàn)方程的交點(diǎn),即可得到中線(xiàn)方程。生成的菜地導(dǎo)航基準(zhǔn)線(xiàn)見(jiàn)圖10。
為驗(yàn)證葉菜類(lèi)蔬菜菜壟識(shí)別算法的準(zhǔn)確性,于2019年5月在湖南農(nóng)業(yè)大學(xué)耘園拍取蕹菜菜地圖片,并進(jìn)行試驗(yàn)。
黑線(xiàn)為兩側(cè)菜壟邊界線(xiàn),紅線(xiàn)為生成的導(dǎo)航基準(zhǔn)線(xiàn)。The black line is the border line of vegetable ridges on both sides, and the red line is the navigation datum line.圖10 菜地導(dǎo)航基準(zhǔn)線(xiàn)Fig.10 Navigation datum line in vegetable field
光照條件是影響田間成像效果的重要因素,除了受到天氣、時(shí)間的影響,還受到遮擋物甚至工作機(jī)具自身陰影的影響。本試驗(yàn)分別采集晴天、高光、陰天以及晴天(帶陰影)圖像,每種情況抽取20張圖片,共80張圖片,進(jìn)行不同光照環(huán)境下的導(dǎo)航基準(zhǔn)線(xiàn)提取試驗(yàn)。
試驗(yàn)結(jié)果顯示,80張圖片中,78張圖片可以正常獲取菜壟邊界線(xiàn),識(shí)別成功率為97.5%。部分結(jié)果見(jiàn)圖11,可以看出在不同光照環(huán)境下,本研究提出的葉菜類(lèi)蔬菜菜壟識(shí)別算法可以準(zhǔn)確提取菜壟邊界線(xiàn)。對(duì)于不能正常獲取菜壟邊界線(xiàn)的2張圖片,主要原因?yàn)槭卟碎L(zhǎng)勢(shì)過(guò)于旺盛,遮擋了大部分壟間區(qū)域,導(dǎo)致菜壟區(qū)域粘連嚴(yán)重,從而造成菜壟識(shí)別結(jié)果失敗。
圖11 4種光照條件下菜壟識(shí)別圖像Fig.11 Vegetable ridge recognition image under four illumination conditions
在精度驗(yàn)證試驗(yàn)中,基于本研究提出的葉菜類(lèi)蔬菜菜壟邊界曲線(xiàn)提取算法,對(duì)78幅圖片進(jìn)行處理,并基于Huber損失函數(shù)對(duì)邊界曲線(xiàn)進(jìn)行直線(xiàn)擬合,生成菜壟邊界線(xiàn)與導(dǎo)航基準(zhǔn)線(xiàn),驗(yàn)證提取精度。
試驗(yàn)結(jié)果以生成的導(dǎo)航基準(zhǔn)線(xiàn)相對(duì)于實(shí)際菜壟中心線(xiàn)的角度與橫向偏差來(lái)衡量導(dǎo)航基準(zhǔn)線(xiàn)精度,其中選用均方根誤差來(lái)衡量橫向偏差程度。
均方根誤差RMSE的計(jì)算公式為:
(13)
角度偏差:
Δθ=||θ1|-|θ2||
(14)
式中:μi為生成導(dǎo)航基準(zhǔn)線(xiàn)中第i點(diǎn)的坐標(biāo)行、列像素序號(hào);ωi為實(shí)際菜壟中心線(xiàn)中第i點(diǎn)的坐標(biāo)行、列像素序號(hào);n為樣本數(shù);θ1為生成導(dǎo)航基準(zhǔn)線(xiàn)在圖像坐標(biāo)系中的偏轉(zhuǎn)角度,(°);θ2為實(shí)際菜壟中心線(xiàn)在圖像坐標(biāo)系中的偏轉(zhuǎn)角度,(°);Δθ為圖像坐標(biāo)系下的角度偏差,(°)。
對(duì)于菜壟實(shí)際中心線(xiàn)的構(gòu)造,本研究選用人工標(biāo)定的方法獲?。菏紫热斯澏ú藟艆^(qū)域,并去除其他區(qū)域,然后根據(jù)提取到的圖像獲取邊界直線(xiàn)方程,最后通過(guò)得到的兩條邊界曲線(xiàn)角平分線(xiàn)的方式,實(shí)現(xiàn)菜壟中心線(xiàn)的提取。具體過(guò)程見(jiàn)圖12。
圖12 菜壟實(shí)際中心線(xiàn)人工提取過(guò)程Fig.12 Artificial extraction process of real center line of vegetable ridge
試驗(yàn)結(jié)果見(jiàn)表1。本研究提出的基于Huber損失函數(shù)的直線(xiàn)擬合方法,最大均方根誤差為6.864像素,最大角度偏差為2.749°。用最小二乘法對(duì)同一批次圖片進(jìn)行導(dǎo)航基準(zhǔn)線(xiàn)提取,最大均方根誤差為 11.663 像素,最大角度偏差為4.734°。本研究提出的基于Huber損失函數(shù)的導(dǎo)航基準(zhǔn)線(xiàn)提取方法,平均均方根誤差為0.668像素,比最小二乘法高72.5%,平均角度偏差為0.273°,比最小二乘法高72.6%,處理單張圖片耗時(shí)277.1 ms,與最小二乘法處理速度相似。
在試驗(yàn)的78張圖片中包含4種光照條件,本研究對(duì)這4種光照條件下的導(dǎo)航基準(zhǔn)線(xiàn)提取進(jìn)行分析,結(jié)果見(jiàn)表2??梢?jiàn),在晴天、高光和陰天3種天氣情況下,平均均方根誤差最大差值為0.068像素,平均角度偏差最大差值為0.028°,圖像處理速度相似,且3種天氣情況的平均均方根誤差和平均角度偏差均低于78張圖片的整體偏差平均值。在晴天(帶陰影)條件下進(jìn)行航基準(zhǔn)線(xiàn)提取,平均均方根誤差為0.930像素,平均角度偏差最大差值為0.377°,平均耗時(shí)290.7 ms,相對(duì)于晴天無(wú)陰影條件,提取精度較低,耗時(shí)更久。
表1 2種菜地導(dǎo)航基準(zhǔn)線(xiàn)提取算法性能評(píng)估Table 1 Assessment performance under two kinds of vegetable field navigation baseline extraction algorithm
表2 4種光照條件下菜地導(dǎo)航基準(zhǔn)線(xiàn)提取算法性能評(píng)估Table 2 Assessment performance of vegetable field navigation datum line extraction algorithm under four illumination conditions
本研究提出了一種基于機(jī)器視覺(jué)的葉菜類(lèi)蔬菜菜壟識(shí)別算法。選用改進(jìn)的超綠算法對(duì)菜地圖像進(jìn)行灰度化處理,再利用中值濾波進(jìn)行圖像去噪,并通過(guò)二值形態(tài)學(xué)變換和連通區(qū)域提取獲得菜壟區(qū)域和邊界,最終基于Huber損失函數(shù)對(duì)菜壟邊界進(jìn)行直線(xiàn)擬合,提取導(dǎo)航基準(zhǔn)線(xiàn)。試驗(yàn)結(jié)果表明:
1)采用改進(jìn)超綠算法在進(jìn)行灰度化處理,可有效降低光照條件影響。在不同光照條件下,相對(duì)于傳統(tǒng)超綠算法和HIS空間S分量,本研究采用的改進(jìn)超綠算法受光照變化的影響最小,菜壟邊界線(xiàn)識(shí)別成功率為97.5%,具備較好的魯棒性。
2)基于Huber損失函數(shù)實(shí)現(xiàn)導(dǎo)航基準(zhǔn)線(xiàn)的提取,在保證處理速度的同時(shí)提高了識(shí)別精度。對(duì)78幅圖片進(jìn)行導(dǎo)航基準(zhǔn)線(xiàn)提取精度驗(yàn)證試驗(yàn),并與最小二乘法對(duì)比發(fā)現(xiàn),本研究提出的導(dǎo)航基準(zhǔn)線(xiàn)提取算法平均均方根誤差為0.668像素,較最小二乘法高72.5%,平均角度偏差為0.273°,較最小二乘法高72.6%,處理單張圖片耗時(shí)277.1 ms,與最小二乘法處理速度相似。
中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào)2020年3期