国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于自動Hough變換累加閾值的蔬菜作物行提取方法研究

2019-02-21 05:05:08陳子文張文強李云伍李明生
農(nóng)業(yè)工程學報 2019年22期
關鍵詞:田間作物像素

陳子文,李 偉,張文強,李云伍,李明生,李 慧

基于自動Hough變換累加閾值的蔬菜作物行提取方法研究

陳子文1,李 偉2,張文強2,李云伍1,李明生1,李 慧1

(1. 西南大學工程技術學院,重慶 400715;2. 中國農(nóng)業(yè)大學工學院,北京 100083)

為解決機器視覺對生菜和綠甘藍兩種作物在整個生長時期內多環(huán)境變量對作物行識別影響的問題,同時提高機器視覺作物行識別算法的有效性,該文提出了一種基于自動Hough變換累加閾值的多作物行提取算法。首先,選用Lab顏色空間中與光照無關分量對綠色作物進行提取,通過最優(yōu)自適應閾值進行圖像分割,并采用先閉后開形態(tài)學運算對雜草和作物邊緣進行濾波。其次,采用雙閾值分段垂直投影法對作物行特征點進行提取,通過對亮度投影視圖中的目標像素占比閾值和噪聲判斷閾值設置,實現(xiàn)特征點位置判斷和雜草噪聲過濾,并對相鄰特征點進行優(yōu)化,剔除部分干擾特征。最后,采用Hough變化對特征點進行直線擬合,將不同Hough變換累加閾值獲得的擬合直線映射到累加平面上,通過-means聚類將累加平面數(shù)據(jù)聚類為與作物行數(shù)相同的類數(shù),根據(jù)相機成像的透視原理提出基于聚類質心距離差和組內方差的最優(yōu)累加閾值獲取方法,將最優(yōu)累加閾值下累加平面中的聚類質心作為識別出的真實作物行線。溫室和田間試驗表明,針對不同生長時期的生菜和綠甘藍作物,該文算法均可有效識別出作物行線,最優(yōu)閾值算法耗時小于1.5 s,作物行提取平均耗時為0.2 s,在田間和溫室中作物行的平均識別準確率分別為94.6%、97.1%,識別準確率為100%的占比分別為86.7%和93.3%。研究結果為解決多環(huán)境變量影響因素下的算法魯棒性和適用性問題提供依據(jù)。

機器視覺;導航;算法;精準農(nóng)業(yè);作物行識別;Hough變換;-means聚類

0 引 言

在精準農(nóng)業(yè)技術的驅動下,農(nóng)業(yè)機械田間自動導航技術被廣泛用于耕地、播種、除草、施肥、噴藥、收獲等農(nóng)業(yè)生產(chǎn)過程中,該技術可提高作業(yè)效率,降低漏作業(yè)區(qū)域面積、勞動強度及操作的復雜程度[1-4]。目前常用的導航技術為GPS和機器視覺技術[5],由于機器視覺可實時獲取作物行的相對位置信息,并實時感知當前的作物生長狀況和田間環(huán)境,加上其具有成本低的特點,被廣泛應用于在線作物[6-7]、雜草[8-9]、作物行[10-12]的檢測和識別。作物行識別和定位是農(nóng)機田間自動沿作物行導航的核心技術之一,國內外學者在該方面做了大量研究。孟慶寬等[13]提取YCrCg顏色模型中與光照無關Cg分量,并采用模糊C均值聚類法進行圖像分割,試驗證明圖片處理耗時16.5 ms。陳嬌[14]、趙瑞嬌[15]等采用垂直投影法獲取導航定位點位置,并采用改進Hough變換對多壟線進行識別,算法耗時分別為219.4和83.4 ms。安秋等[16]采用基于光照無關分量和最大類間方差法對圖像進行分割,通過優(yōu)化Hough變換提高導航信息獲取的魯棒性。Guerrero等[17]提出了帶精度調節(jié)的作物行檢測和數(shù)據(jù)獲取系統(tǒng),通過控制曝光時間獲取最優(yōu)分割圖像,并通過透視投影幾何學對拖拉機姿態(tài)和雜草密度進行檢測,試驗表明該算法滿足3~6 km/s作業(yè)時速的需求。Jiang等[18-19]則采用移動窗口掃描的方式,獲取目標像素的分布,并采用-means聚類法尋找Hough變換擬合直線的滅點,并篩選真正作物行線,小麥作物行檢測試驗表明準確率可達90%以上。Vidovic等[20-21]提出了一種近似全局最優(yōu)劃分的方法實現(xiàn)對田間作物行的擬合,該方法可提高作物行擬合的準確度并降低算法耗時,通過對281幅田間作物圖像進行處理,算法作物行識別平均準確率為73.7%,同時算法具有優(yōu)異的曲線檢測能力。針對復雜環(huán)境背景下的作物行的特征點難以獲取的問題,研究人員還提出采用雙目立體視覺技術對作物深度信息進行獲取,通過高度特征點區(qū)分作物行去雜草。翟志強等[22-23]提出一種基于Census變換的作物行識別算法,根據(jù)作物行生長高度及種植規(guī)律,通過高程及寬度閾值提取有效的作物行特征點,采用主成分分析法擬合作物行中心線,試驗表明識別率≥92.58%,平均耗時0.293 s。Kise等[24]采用導航點與視角點匹配方式對拖拉機進行導航控制,采用互相關函數(shù)矯正作物行高程圖的橫斷面外形,并基于作物行模板提取導航特征點,在3.0 km/h的作業(yè)時速下,拖拉機側偏均方根誤差小于0.05 m。

以上文獻主要針對作物在某一生長階段展開作物行提取算法的研究,實際情況中,作物在大部分生長階段均需要實現(xiàn)自動導航作業(yè),而不同生長階段會造成作物形狀、作物行結構、雜草情況等多環(huán)境變量的變化,因此本文針對生菜和綠甘藍兩種常見田間蔬菜,考慮到在不同生長期,不同種植結構及不同田間雜草密度的實際工況下,進行作物行提取算法研究,提出一種基于自動Hough變換累加閾值的多作物行提取算法。首先,通過Lab顏色空間中的分量對綠色像素進行區(qū)分,并采用最優(yōu)自動閾值進行二值化處理,通過先閉后開形態(tài)學運算,過濾掉部分雜草噪聲。其次,采用雙閾值分段垂直投影法提取作物行的特征點,并采用Hough變換獲取特征點直線擬合的累加空間,通過判斷不同累加閾值下累加平面中的點簇的-means聚類位置,從而提出最優(yōu)的累加閾值獲取方法,并采用聚類質心作為該行作物的真實作物行。最后對兩種蔬菜作物分別進行溫室和田間試驗,來驗證算法的有效性。研究結果為解決多環(huán)境變量影響因素下的算法魯棒性和適用性問題提供方法依據(jù)。

1 圖像預處理

1.1 顏色空間選擇

本文采用Visual Studio2017與OpenCV3.3視覺庫作為圖像處理編程環(huán)境,處理器采用聯(lián)想ThinkCentre E74,CPU為英特爾酷睿i5,CPU頻率2.7 Hz,DDR4內存。

田間作物行提取的主要目標是將作物或作物行從背景分離,其背景包括田間土壤、雜草、石塊、局部建筑物等異物,由于作物與背景特征在顏色上有明顯區(qū)分,因此在大部分研究中均將顏色作為區(qū)分依據(jù),但考慮實際田間作業(yè)環(huán)境光照的復雜性,可能產(chǎn)生不均勻光照、陰影與亮班、光照過強等因素,都會讓顏色分離變得復雜。本文采用CIE—Lab顏色模型,該模型是獨立于設備的色彩空間,并可清晰的分離色彩信息和灰度信息,且該顏色空間被設置為歐氏距離,可更好的對應色彩之間的感覺差別[25],其中分量對綠色信息敏感,對比ExG超綠算法,分別運用分量和ExG算法對移栽綠甘藍作物進行灰度化處理并將圖像矩陣數(shù)值映射到0~255區(qū)間內。圖1a為田間采集的綠甘藍彩色圖像,圖1b和1c分別是分量和ExG算法灰度化后的圖像,可見2種算法均能明顯區(qū)分作物和背景。

a. 原始圖像 a. Original imageb. a分量灰度圖 b. Grayscale of a componentc. 超綠算法ExG灰度圖 c. Grayscale of ExG

計算兩種方法灰度圖的直方圖,如圖2所示。根據(jù)直方圖可知ExG算法和分量在直方圖上均有兩個明顯峰值和一個低谷,故為二模態(tài)直方圖[26],均可通過自動閾值分割實現(xiàn)作物和背景分離,但分量直方圖的低谷更為清晰,且低谷空間狹窄,區(qū)分界限明確,而ExG算法低谷處較寬,背景與作物的區(qū)分程度較分量差。同時通過觀察2種方法局部灰度圖可見,ExG算法引入過多的土壤噪聲,如圖2c、d所示,故本文采用Lab顏色模型的分量進行灰度化。

圖2 直方圖與局部圖對比

1.2 圖像分割與形態(tài)學處理

采用閾值分割將作物行灰度圖轉換為二值圖,完成目標與背景的分離。閾值的選擇必須滿足最小分割錯誤的要求[27],本文采用最優(yōu)自適應閾值進行二值化,最優(yōu)閾值化方法是將圖像的直方圖用2個或多個正態(tài)分布的概率密度函數(shù)來近似的方法,閾值取距離對應于兩個或多個正態(tài)分布最大值之間的最小概率處最近的灰度值,該方法具有分割錯誤概率最小的優(yōu)點[25-27]。需要分別計算背景和物體的灰度均值μμ,并計算背景與物體分割的閾值(i+1),當前后兩次計算的閾值相等時則該閾值為最優(yōu)閾值,否則重新計算灰度均值,迭代往復計算,公式如下

式中(,)為像素值;#background_pixels為背景像素的個數(shù);#object_pixels為目標像素的個數(shù)。

之后為去除田間雜草和光照不均勻性對作物提取的影響,本文采用先閉后開運算對二值圖像進行去噪和填充處理,閉運算可有效去除小面積噪聲,但會造成作物中形成明顯的孔洞,開運算可實現(xiàn)孔洞填充,形態(tài)學處理效果見圖3所示。

圖3 二值化與形態(tài)學處理圖

Fig3 Binaryzation and mathematical morphology

2 作物行特征點獲取

由于蔬菜作物多數(shù)采用條播或移栽種植,一段距離內可將作物行看作直線,在每行作物中,作物行貫穿于每顆作物的根莖位置,但是由于葉片遮擋無法觀測到根莖位置,故僅可通過作物葉片提取特征點。由于蔬菜作物葉面生長的不規(guī)則性,需要增加作物行線上的特征點以保證擬合正確性。本文采用改進的分段垂直投影法對作物行特征點進行提取。垂直投影法是將圖片亮度值投影到圖像列坐標軸上并進行累加,亮度值最高的區(qū)域為作物行區(qū)域。由于相機透視原理造成作物行成像呈斜線的情況,垂直投影的峰值無法準確代替作物行的位置[28-29],故本文采用圖像分段的方法,將圖片等距劃分為若干水平條,并對每個水平條圖片進行垂直投影。設每個水平條圖像高度為像素,原始圖像大小為×,和分別為圖像的行像素數(shù)和列像素數(shù)。則水平條個數(shù)為,=/;(,)為水平條上處于(,)處像素值,取值0或255(白色)。則第列的垂直投影()為亮度值為255的像素個數(shù)累加值,如圖4a所示。

式中為劃分水平條的個數(shù)。圖4為特征點獲取方法圖,垂直投影圖峰值區(qū)域可近似認為是作物區(qū)域,將作物區(qū)域用一個特征點代替,特征點的選取盡量在作物行線上,本文采用雙閾值的方法提取局部特征點,第一閾值為圖像面積閾值thrS,目標像素占比plant為目標像素個數(shù)占圖像總像素數(shù)百分比,plant用于判斷被識別作物在圖形中的面積大小,設置水平線穿過垂直投影,特征點水平線縱坐標。

式中m為第段圖像中特征點的縱坐標值。當作物在幼苗期時,作物葉片總面積較小,田中雜草也相對較小,故取垂直投影的平均值可有效避免多模態(tài)峰值對特征點的影響,當成熟期作物取較大的可過濾掉作物枝葉和雜草產(chǎn)生的干擾。

注:x為水平條個數(shù);h為水平條高度;f(i, j)為(i, j)處的像素值;start_pointx、end_pointx和mid_pointx分別第x水平條圖像垂直投影圖的起始點橫坐標、終止點橫坐標和特征點橫坐標。

水平線與每個垂直投影凸起有兩點相交,分別定義為起始點start_point和終止點end_point判斷公式如下

(7)

式中為縱坐標取值,∈[1,];()為垂直投影在坐標處的亮度值。取特征點為起始點和終止點的中點,采用噪聲判斷閾值thr2作為垂向投影的最小寬度判斷指標,用于過濾雜草和枝葉噪聲干擾,當垂直投影寬度小于2值時,將此投影凸起判定為噪聲干擾,予以舍棄,特征點計算公式如下

本文中將圖像等距劃分為30段水平圖像條,根據(jù)大量試驗,取thrS=30%,thr2=20時,可獲得更好的特征點提取效果。本文采用4像素特征點作為擬合目標,特征點越小Hough變換擬合的數(shù)據(jù)點越少,處理速度越快,但是通過試驗發(fā)現(xiàn)當特征點采用1像素時,會出現(xiàn)以下兩個問題:第一,對于接近封壟期的作物來說,由于其葉面較大,各葉面形狀和分布無規(guī)律,在特征點的提取上容易提取到葉面邊緣點或噪聲點,在總特征點數(shù)量較少的情況下,誤差特征點對直線擬合會產(chǎn)生一定影響;其次,由于特征點數(shù)量較少,因此Hough變換擬合時對累加閾值較為敏感,累加閾值發(fā)生小幅度變化時,會導致作物行識別從欠擬合到誤差擬合的狀況。因此為保證具有充足的直線擬合點,并盡可能降低算法耗時,選用4像素特征點。當蔬菜葉面較大、形狀不均勻、雜草干擾等情況下,一段圖像中一棵蔬菜作物會提取多個特征點,當誤差特征點較多時,會影響Hough 變換的直線擬合結果,降低擬合精度,因此本文將同行中距離小于45像素的兩特征點刪除,并選取兩點的中點為新特征點,從而對一段圖像中一棵作物多特征點的情況進行優(yōu)化。圖5b為優(yōu)化后的特征點圖,試驗表明,特征點優(yōu)化有助于提高作物行識別的準確性。

3 作物行線擬合

3.1 Hough變換作物行檢測

直線擬合的常用方法是線性回歸和霍夫變換(Hough Transformation),最小二乘法對于單作物行識別更為有效,Hough變換是一種在圖像中尋找直線、圓及其簡單圖形的方法,可對任意數(shù)量作物行同時進行檢測[30],Hough變換將直線在直角坐標系中的斜率和截距參數(shù)轉化為極坐標系的參數(shù)坐標(,)。將經(jīng)過不同點的相同(,)參數(shù)進行累加獲取累加平面,通過參數(shù)累加值數(shù)量來判斷特征點構成直線的可能性,故通過Hough變換對特征點圖像進行直線擬合需要控制的參數(shù)有3個:極徑距離分辨率rho、極角角度分辨率theta、累加閾值acc_thr。為得到準確的擬合直線,將rho設為1 pixel,theta為1 rad,acc_thr用于判斷可能的作物行線,累加閾值的取值對作物行的擬合有很大影響。圖6分別對應累加閾值為180、140、和100時,Hough變換檢測出的直線。

a. acc_thr=180b. acc_thr =140c. acc_thr =100

從圖6a中可見4行作物,累加閾值在180時,僅檢測出3行作物,漏檢測一行,由于每行作物線性程度不同,故每行(,)的累加值不同,當累加閾值取值過大則會漏檢累加值較小的作物行線,同時其他部分作物行檢測出來的直線不止一條。圖6b出現(xiàn)了多檢測的問題,即檢測出除4行作物行外的直線,由于累加閾值取值較小,一些并非作物行的直線也被提取出來,圖6c更為明顯。因此需去掉非作物行擬合線,僅保留作物行線,并將每行作物行簡化1條。

3.2 基于K-means的累加平面參數(shù)點聚類

累加平面中一坐標點對應到圖像坐標系中是一條直線,因此對于多行作物檢測可在累加平面中將參數(shù)點分成與作物行數(shù)相同的類,再提取類中的最優(yōu)點作為作物行線參數(shù)。

-means聚類是一種無監(jiān)督的學習,它將相似的對象歸到同一簇,簇內的對象越相似,聚類的效果就越好,其中表示的是聚類為個簇,means代表取每一個聚類中數(shù)據(jù)值的均值作為該簇的中心[31]。以聚類中心到各點的歐幾里得距離作為數(shù)據(jù),采用誤差平方和(SSE)作為聚類目標函數(shù),則有

式中為聚類數(shù)量;表示聚類點;C為第類中的聚類點集;c為聚類中心;dist表歐幾里得距離求解函數(shù)。當SSE取最小值時,該中心點為此類的中心點,-means聚類根據(jù)聚類數(shù)量通過多迭代的方式進行優(yōu)化。將Hough變換不同累加閾值下擬合的直線對應到累加平面參數(shù)空間上如圖7所示,并根據(jù)作物行數(shù)將累加空間進行4聚類,并用不同顏色區(qū)分,用十字線和圓圈標記出聚類的中心點位置。可見當閾值為180時,參數(shù)點明顯的有三簇,聚類將其中一簇分為2類,體現(xiàn)在圖像坐標系中僅檢測出3行作物,其中一行作物檢測出兩條作物行線;閾值為140時,由于出現(xiàn)距其他參數(shù)點較遠的干擾點,故將本應分為兩類點簇劃分為一類;閾值為100時,聚類參數(shù)干擾點增多,雖然有4條較明顯的連通區(qū),但-means聚類無法準確聚類4行作物的參數(shù)點;閾值為160時,可見聚類效果最為理想,有明顯4區(qū)域的點簇代表4根作物行線。因此通過累加閾值聚類后分離情況可判斷累加閾值的取值大小,從而判斷欠擬合和過擬合的現(xiàn)象。

3.3 最佳累加閾值獲取

最佳累加閾值可使作物累加平面的參數(shù)點集與作物行數(shù)相同,且每個點集代表一行作物,無漏擬合和錯擬合的情況發(fā)生。本文提出一種基于聚類質心距離差和組內方差的最佳閾值獲取方法,以常見的4行作物檢測為例,該方法也可擴展至其他作物行數(shù)的檢測。將累加平面上聚類質心分別用c1,c2,c3,c4表示,如圖7b所示,可見聚類質心點中有2對相距較近,分別代表左右兩側的兩行作物,根據(jù)相機成像的透視原理,兩側的作物行線均向中間傾斜,故左右兩邊作物行成像斜率較大。在極徑方向,同一側作物行聚類中心點的縱坐標基本在同一水平線上,設置縱坐標差的邊界為[0,t],橫坐標差允許邊界為[t,t],當同一側兩作物極徑差過小時,表明設定的累加閾值過大,丟失某一行的特征參數(shù),如圖 7a所示,當極徑差過大時,表明累加閾值小,出現(xiàn)多檢測的現(xiàn)象,如圖7d所示。

注:cT1,cT2,cT3,cT4為聚類質心;T為不同閾值下質心點標號。

本方法采用不同累加閾值對質心進行分析,為確保聚類算法正常運行,所取累加閾值下Hough變換獲取的擬合直線參數(shù)點個數(shù)要大于聚類個數(shù),從而可確定起始掃描的最大累加閾值init_thr,從起始閾值開始遞減10取下一個閾值,直到取到閾值為100,則累加閾值取值為

式中為不同閾值下質心點標號;為取值序號集合。根據(jù)同側作物參數(shù)點橫縱坐標的允許邊界,獲取滿足要求的值和質心點集。

式中()為質心點集;ρ為聚類質心的橫坐標值;θ為聚類質心的縱坐標值。在滿足上述條件的累加閾值中計算質心點集的組內方差,將組內方差最小時的opt值對應的累加閾值acc_thrTopt設為最佳累加閾值opt_thr

式中SSE為閾值下第簇聚類的誤差平方和;n為閾值下第簇聚類點數(shù)量。通過多組試驗數(shù)據(jù)驗證,本文采用的最大累加閾值init_thr為產(chǎn)生25條直線的累加閾值。

3.4 聚類質心參數(shù)的直線擬合

最佳累加閾值獲取方法,可有效獲取每幅圖片的Hough變化的最佳累加閾值,滿足該閾值下的累加平面可聚類成與作物行數(shù)相等的簇數(shù),但是每行作物擬合的直線數(shù)不一定唯一,故采用聚類質心參數(shù)作為該作物行線的擬合參數(shù),圖8為累加平面的極坐標參數(shù)對應到圖像坐標系的模型圖,其中距離和∠分別為累加平面中的和,則可計算出點和點的坐標,直線方程為

選取適當?shù)暮烷L度,并計算,兩點的坐標,在作物行圖像中顯示直線為。

注:為圖像坐標系,為行像素坐標,為列像素坐標;、分別為直線的極徑和極角。

Note:is image coordinate system,is row pixel coordinate, andis column pixel coordinate;andare polar diameter and angle of line, respectively.

圖8 累加平面與圖像坐標系轉換模型

Fig.8 Transformation model of Hough space accumulator and image coordinate

4 試驗結果與分析

為驗證算法的有效性和適用性,本文選取不同生長時期的行栽生菜和綠甘藍為試驗對象,分為溫室和田間試驗兩部分。

溫室試驗圖像采集于北京市通州區(qū)北京國際都市農(nóng)業(yè)科技園溫室內,采集時間為2016年5月3日~6月1日,設備采用SONY ILCE-5000L數(shù)碼相機,相機安裝垂直高度為1.7 m,前視距2 m,采集圖像大小768×1 024 pixel,圖像格式為JPG。采集的圖片包括了各種雜草密度、行中缺苗和不同光照等多種情況,田間雜草主要為馬唐和馬齒莧,期間獲取的最大雜草密度為145棵/m2,圖9為移栽生菜作物行提取過程圖,選取移栽后7、15和25 d生菜為試驗樣本,其中作物種植參數(shù)為:移栽行距400 mm,株距300 mm。圖中可見不同生長時期作物在單棵作物及作物行形狀上均有不同,在移栽初期作物葉片面積小,可明顯區(qū)分株間作物,但由于葉面數(shù)量少,故作物形狀呈不規(guī)則狀;移栽15 d通過人為處理,在每一行上去除一定的作物,使作物行中作物呈現(xiàn)非均勻排布,同時可見在有陰影的情況下,圖像分割算法仍具有一定的魯棒性;移栽后25 d后,生菜葉面面積大,成近圓形,作物葉面在行間和株間均有一定連接,接近封壟狀態(tài)。通過對3個時期的作物行提取可看出本文算法具有較強的適應性。

圖9 不同移栽時期4行生菜作物行提取過程

取兩種作物在3個不同生長時期的圖片作為試驗樣本,每個生長時期取10幅進行作物行識別,總計60幅。統(tǒng)計不同圖片下目標像素占比、算法獲取的最佳累加閾值、組內方差、最優(yōu)閾值算法耗時、作物行線提取耗時、識別準確率等5個參數(shù),其中根據(jù)對4行作物行的識別結果與人為觀測的吻合程度定義識別準確率,目標識別行數(shù)全部被識別出并與觀測作物行吻合,則定義該識別準確率為100%,錯識別一行準確率下降100%/,為目標行數(shù)。目標像素占比為作物像素數(shù)量與圖片總像素數(shù)量的百分比。將算法統(tǒng)計結果匯總,列出每個生長階段10個樣本的結果,見表1所示。結果可見目標像素占比可反映作物在不同生長時期的葉面大小,最佳累加閾值取值在170~240范圍內,組內方差在10~50范圍內,通過識別率可見,當聚類方差大于40時,識別出的作物行線與實際作物行會有一定偏差,聚類方差越大,作物行識別誤差也越大。以每個移栽時間段10個樣本結果計算最優(yōu)閾值算法平均耗時和作物行提取平均耗時,得到像素占比與算法耗時的關系,見圖10所示??梢娮顑?yōu)閾值算法耗時在1.5 s內,像素占比越大,優(yōu)化耗時越長,其次作物行提取平均耗時基本為0.2 s,不隨目標像素占比變化。本文提出自動獲取最優(yōu)閾值算法在外部環(huán)境變化不大的情況下,可先進行一次最優(yōu)閾值的獲取,之后沿用該閾值,直接進行作物行的提取,從而將圖像處理算法耗時控制在0.2 s左右。

表1 作物行獲取算法識別結果

圖10 目標像素占比與算法耗時關系

田間試驗主要針對算法識別準確率進行驗證,圖像采集于北京市通州區(qū)北京國際都市農(nóng)業(yè)科技園和黑龍江紅星農(nóng)場內,圖11a為田間行栽20 d的2行綠甘藍,采圖地點位于北京市通州區(qū)北京國際都市農(nóng)業(yè)科技園內,采圖時間為2015年5月18日9:15。圖11b為田間多行移栽生菜,采圖地點位于黑龍江紅星農(nóng)場,采圖時間為2015年9月25日10:20。取田間移栽后10~30 d期間生菜和綠甘藍圖片60幅圖片以及之前60幅溫室圖片對算法準確率進行統(tǒng)計,見表 2。該算法在田間和溫室中作物行的平均識別準確率分別為94.6%、97.1%,識別準確率為100%的占比分別為86.7%和93.3%,由于外界光線變化的影響,溫室較田間的算法應用效果更為理想。

表2 算法識別準確率統(tǒng)計

a. 兩行移栽綠甘藍b. 多行移栽生菜 a. Transplant cabbage in 2 rowsb. Transplant lettuce in multiple rows

5 結 論

1)本文采用Lab顏色空間中與光照無關的分量對綠色作物進行提取,通過最優(yōu)自適應閾值進行二值化處理,并采用先閉后開形態(tài)學運算對雜草和作物邊緣進行濾波。通過圖像處理試驗表明,該方法可避免光照不均勻及田間雜草對特征提取產(chǎn)生的干擾,從而實現(xiàn)對作物行正確分割。

2)本文采用雙閾值垂直投影法對作物行特征點進行提取,根據(jù)目標像素占比閾值和噪聲判斷閾值來獲取不同的特征點,并通過特征點的優(yōu)化,剔除相鄰干擾特征點。該算法可適應于不同生長時期作物進行特征點的提取。

3)本文提出基于自動Hough變換累加閾值的作物行線擬合方法,將不同Hough變換累加閾值獲得的擬合直線映射到累加平面上,并對累加平面上參數(shù)點進行-means聚類,基于聚類質心距離差和組內方差的方法獲取最佳累加閾值。最后以最佳累加閾值下累加平面聚類的質心作為作物行的擬合直線。田間和溫室作物行提取試驗表明,針對不同生長時期的生菜和綠甘藍作物,算法均可成功識別出作物行線,最優(yōu)閾值算法耗時在1.5 s以內,隨目標像素占比增大而增大,作物行提取平均耗時為0.2 s,不隨目標像素占比而變化,該算法在田間和溫室中作物行的平均識別準確率分別為94.6%、97.1%,識別準確率為100%的占比分別為86.7%和93.3%。

[1]胡靜濤,高雷,白曉平,等. 農(nóng)業(yè)機械自動導航技術研究進展[J]. 農(nóng)業(yè)工程學報,2015,31(10):1-10. Hu Jingtao, Gao Lei, Bai Xiaoping, et al. Review of research on automatic guidance of agricultural vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(10): 1-10. (in Chinese with English abstract)

[2]李建平,林妙玲. 自動導航技術在農(nóng)業(yè)工程中的應用研究進展[J]. 農(nóng)業(yè)工程學報,2006,22(9):232-236. Li Jianping, Lin Miaoling. Research progress of automatic guidance technologies applied in agricultural engineering [J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2006, 22(9): 232-236. (in Chinese with English abstract)

[3]Wiilson J N. Guidance of agricultural vehicles-a historical perspective[J]. Computer and Electronics in Agriculture, 2000, 25(1):3-9.

[4]Choi K H, Han S K, Han S H, et al. Morphology-based guidance line extraction for an autonomous weeding robot in paddy fields[J]. Computers and Electronics in Agriculture, 2015, 113: 266-274.

[5]姬長英,周俊. 農(nóng)業(yè)機械導航技術發(fā)展分析[J]. 農(nóng)業(yè)機械學報,2014,45(9):44-54. Ji Changying, Zhou Jun. Current situation of navigation technologies for agricultural machinery [J]. Transactions of the Chinese Society of Agricultural Machinery, 2014, 45(9): 44-54. (in Chinese with English abstract)

[6]Burgos Artizzu X P, Ribeiro A, Guijarro M, et al. Real-time image processing for crop/weed discrimination in maize fields[J]. Computers and Electronics in Agriculture, 2011, 75: 337-346.

[7]Guerrero J M, Pajares G, Montalvo M, et al. Support vector machines for crop/weeds identification in maize fields[J]. Expert Systems with Applications, 2012, 39(12): 11149-11155.

[8]Midtiby H S, Astrand B, J?rgensen O, et al. Upper limit for context-based crop classification in robotic weeding applications[J]. Biosystems Engineering, 2016, 146: 183-192.

[9]Zhang Q, Chen S j, Li B. A visual navigation algorithm for paddy field weeding robot based on image understanding[J]. Computers and Electronics in Agriculture, 2017, 153: 66-78.

[10]Billingsley J, Schoenfisch M. The successful development of a vision guidance system for agriculture[J]. Computers and Electronics in Agriculture, 1997, 16: 147-163.

[11]Bakker T, Asselt K V, Bontsema J. Autonomous navigation using a robot platform in a sugar beet field[J]. Biosystems Engineering, 2011, 109: 357-368.

[12]Astrand B, Baerveldt A. A vision based row-following system for agricultural field machinery[J]. Mechatronics, 2005, 15(2): 251-269.

[13]孟慶寬,何潔,仇瑞承,等. 基于機器視覺的自然環(huán)境下作物行識別與導航線提取[J]. 光學學報,2014,34(7):172-178. Meng Qingkuan, He Jie, Chou Ruicheng. et al. Crop recognition and navigation line detection in natural environment based on machine vision[J]. Acta Optica Sinica, 2014, 34(7): 172-178. (in Chinese with English abstract)

[14]陳嬌,姜國權,杜尚豐,等. 基于壟線平行特征的視覺導航多壟線識別[J]. 農(nóng)業(yè)工程學報,2009,25(12):107-113. Chen Jiao, Jiang Guoquan, Du Shangfeng. et al. Crop rows detection based on parallel characteristic of crop rows using visual navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(12): 107-113. (in Chinese with English abstract)

[15]趙瑞嬌,李民贊,張漫,等. 基于改進Hough變換的農(nóng)田作物行快速檢測算法[J]. 農(nóng)業(yè)機械學報,2009,40(7):163-165. Zhao Ruijiao, Li Minzan, Zhang Man, et al. Rapid crop-row detection based on improved Hough transformation[J]. Transactions of the Chinese Society of Agricultural Machinery, 2009, 40(7): 163-165. (in Chinese with English abstract)

[16]安秋,李志臣,姬長英,等. 基于光照無關圖的農(nóng)業(yè)機器人視覺導航算法[J]. 農(nóng)業(yè)工程學報,2009,25(11):208-212. An Qiu, Li Zhichen, Ji Changying, et al. Agricultural robot vision navigation algorithm based on illumination invariant image[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009, 25(11): 208-212. (in Chinese with English abstract)

[17]Guerrero J M, Ruz J J, Pajares G. Crop rows and weeds detection in maize fields applying a computer vision system based on geometry[J]. Computers and Electronics in Agriculture, 2017, 142: 461-472.

[18]Jiang G, Wang X, Wang Z, et al. Wheat rows detection at the early growth stage based on Hough transform and vanishing point[J]. Computers and Electronics in Agriculture, 2016, 123: 211-223.

[19]Jiang G, Wang Z, Liu H, et al. Automatic detection of crop rows based on multi-ROIs[J]. Expert Systems with Applications, 2015, 42(5): 2429-2441.

[20]Vidovi? I, Cupec R, Hocenski ?. Crop row detection by global energy minimization[J]. Pattern Recognition, 2016, 55: 68-86.

[21]Vidovi? I, Scitovski R. Center-based clustering for line detection and application to crop rows detection[J]. Computers and Electronics in Agriculture, 2014, 109: 212-220.

[22]翟志強,朱忠祥,杜岳峰,等. 基于Census變換的雙目視覺作物行識別方法[J]. 農(nóng)業(yè)工程學報,2016,32(11):205-213. Zhai Zhiqaing, Zhu Zhongxiang, Du Yuefeng, et al. Method for detecting crop rows based on binocular vision with Census transformation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(11): 205-213. (in Chinese with English abstract)

[23]Zhai Z, Zhu Z, Du Y, et al. Multi-crop-row detection algorithm based on binocular vision[J]. Biosystems Engineering, 2016, 150: 89-103.

[24]Kise M, Zhang Q, Már F R. A stereovision-based crop row detection method for tractor-automated guidance[J]. Biosystems Engineering, 2005, 90(4): 357-367.

[25]??ǎ绽呖?,博伊爾. 圖像處理、分析與機器視覺[M]. 興軍亮,艾海舟,譯. 北京:清華大學出版社,2016.

[26]岡薩雷斯,伍茲. 數(shù)字圖像處理[M]. 第三版:阮秋琦,譯. 北京:電子工業(yè)出版社,2017.

[27]岡薩雷斯,伍茲,艾丁斯. 數(shù)字圖像處理的MATLAB實現(xiàn)(第2版)[M]. 阮秋琦,譯. 北京:清華大學出版社,2013.

[28]Inán D, Garc?a-Santillán, Mart?n M. Automatic detection of curved and straight crop rows from images in maize fields[J]. Biosystems Engineering, 2017, 156: 61-79.

[29]Montalvo M, Pajares G, Guerrero J M, et al. Automatic detection of crop rows in maize fields with high weeds pressure[J]. Expert Systems with Applications, 2012, 39(15): 11889-11897.

[30]Ji R, Qi L. Crop-row detection algorithm based on Random Hough Transformation[J]. Mathematical and Computer Modelling, 2011, 54: 1016-1020.

[31]布拉德斯基,克勒. 學習OpenCV[M]. 于仕琪,劉瑞禎,譯. 北京:清華大學出版社,2009.

Vegetable crop row extraction method based on accumulation threshold of Hough Transformation

Chen Ziwen1, Li Wei2, Zhang Wenqiang2, Li Yunwu1, Li Mingsheng1, Li Hui1

(1.,,400715,; 2.,,100083,)

Agricultural machinery field automatic navigation technology is widely used in farming, sowing, weeding, fertilizing, spraying, harvesting and other agricultural production process. This technology can improve the efficiency of the mechanical efficiency and reduce the missing areas of operation, labor intensity and the complexity of the operation. Because machine vision can be used to obtain and perceive the relative position information of crop rows, current crop growth status and field environment in real time, it is widely applied in online crop detection and identification. In this paper, a method based on automatic accumulation threshold of Hough Transformation was presented in order to improve the adaptability of the crop row recognition algorithm for different kinds and growth periods of vegetables with machine vision. The method was composed of image preprocessing, feature point detection, optimal accumulation threshold acquisition and crop row extraction. Firstly, to reduce the adverse effects of light change and restrain the background noise,* component of Lab color model was selected for transforming RGB image to grayscale image. Optimal adaptive threshold and morphology close-open operation was applied for minimizing error segmentation probability and eliminating irrelevant detail. Secondly, the feature points of crop rows were extracted by sectionalized vertical projection method. The original image was divided into several horizontal segments and target pixel ratio and vertical projection width were used as double threshold in the luminance projection view of each segment to determine the location of feature points and distinguish noise. Thirdly, the Hough transformation method with different accumulative thresholds was performed to fit straight lines for all feature points in the image coordinate system, then they were all converted to Hough space accumulator as points. These points were clustered into the same number as crop rows by-means clustering method. According to the camera projection, the optimal accumulator threshold was acquired by the position relation of clustering centroid and minimum inter-class variance. Finally, the fitting line parameters of real crop rows were the clustering centroid parameters of the accumulation space under the optimal accumulation threshold, then the parameters were converted into the crop lines in the image coordinate system. The crop row identification tests of lettuce and cabbage were carried out in the greenhouse and filed according to the conditions of crops in different growing periods, different weed densities, and different light conditions in the field. The greenhouse experiment showed that the algorithm can effectively identify crop rows with an average recognition accuracy of 97.1% for two crops of different growth periods under different weed densities. The outdoor experiment showed that the algorithm can also identify crop rows with 94.6% recognition accuracy under different row numbers and light conditions. Time consumption for optimal accumulator threshold algorithm and crop rows extraction algorithm were no more than 1.5 and 0.2 s, and the average accuracy rate of crop row detection was achieved 95.8%. In view of the practical application of field operations, as the environmental parameters basically do not change significantly in a short time, the optimal accumulation threshold was only needed to be obtained once, which can ensure the time consumption of algorithm was about 0.2 s.

machine vision; navigation; algorithms; precision agriculture; crop row recognition; Hough transform;-means clustering

陳子文,李 偉,張文強,李云伍,李明生,李 慧. 基于自動Hough變換累加閾值的蔬菜作物行提取方法研究[J]. 農(nóng)業(yè)工程學報,2019,35(22):314-322. doi:10.11975/j.issn.1002-6819.2019.22.037 http://www.tcsae.org

Chen Ziwen, Li Wei, Zhang Wenqiang, Li Yunwu, Li Mingsheng, Li Hui. Vegetable crop row extraction method based on accumulation threshold of Hough Transformation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(22): 314-322. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.22.037 http://www.tcsae.org

2018-11-21

2019-08-29

國家重點研發(fā)計劃(2016YFD0701001);中央高效基本科研業(yè)務費(XDJK2017B049)

陳子文,講師,博士,主要從事農(nóng)業(yè)機器人和機器視覺技術研究。Email:chenziwen_0309@163.com

10.11975/j.issn.1002-6819.2019.22.037

TP242.3

A

1002-6819(2019)-22-0314-09

猜你喜歡
田間作物像素
趙運哲作品
藝術家(2023年8期)2023-11-02 02:05:28
春日田間
科教新報(2023年13期)2023-08-15 10:18:52
像素前線之“幻影”2000
田間地頭“惠”果農(nóng)
“碼”上辦理“田間一件事”
作物遭受霜凍該如何補救
四種作物 北方種植有前景
田間地頭有了“新綠”
金橋(2020年9期)2020-10-27 01:59:34
內生微生物和其在作物管理中的潛在應用
“像素”仙人掌
亳州市| 土默特右旗| 雷州市| 阿拉善左旗| 贡觉县| 延安市| 安岳县| 嘉禾县| 衢州市| 信宜市| 景泰县| 海阳市| 元江| 什邡市| 新和县| 永吉县| 嫩江县| 济阳县| 仁化县| 安丘市| 绥滨县| 巴彦淖尔市| 泰和县| 龙井市| 涿州市| 海口市| 宁化县| 武宁县| 杭锦旗| 辛集市| 浪卡子县| 开平市| 环江| 沁阳市| 涟水县| 宾阳县| 南投市| 洮南市| 崇阳县| 华池县| 镇原县|