張 建 謝田晉 尉曉楠 王宗鎧 劉崇濤 周廣生 汪 波,*
研究簡報
無人機多角度成像方式的飼料油菜生物量估算研究
張 建1謝田晉1尉曉楠1王宗鎧2劉崇濤2周廣生2汪 波2,*
1華中農(nóng)業(yè)大學(xué)資源與環(huán)境學(xué)院 / 宏觀農(nóng)業(yè)研究院, 湖北武漢 430070;2華中農(nóng)業(yè)大學(xué)植物科學(xué)技術(shù)學(xué)院/ 農(nóng)業(yè)農(nóng)村部長江中游作物生理生態(tài)與耕作重點實驗室, 湖北武漢 430070
旨在探索并評估一種通過無人機平臺搭載可見光相機提取飼料油菜生物量的新方法。試驗于2018年在華中農(nóng)業(yè)大學(xué)油菜試驗基地展開, 利用無人機搭載五相機傾斜攝影系統(tǒng)同時從多個角度獲取油菜終花期的可見光圖像, 試驗共設(shè)置3種無人機飛行高度(40、60和80 m)和3種播種密度(3.00×105、5.25×105和7.50×105株hm-2), 并評估和對比了多角度和單相機垂直2種成像方式的生物量預(yù)測結(jié)果。試驗首先通過無人機圖像提取油菜冠層覆蓋度和株高信息; 然后通過株高在覆蓋面積上進行累加獲得作物體積模型; 最后基于作物體積模型與實測生物量建立線性回歸模型預(yù)測油菜干物質(zhì)重量。結(jié)果表明, (1)在本試驗設(shè)置的3個飛行高度中, 隨著無人機飛行高度下降, 生物量預(yù)測精度呈上升趨勢, 其中飛行高度為40 m時, 油菜生物量估算精度最佳(校正集:= 0.792, RMSE = 125.0 g m-2, RE = 13.2%; 驗證集:= 0.752, RMSE = 139.1 g m-2, RE = 15.3%)。(2) 種植密度越高, 其實際生物量越小, 通過作物體積模型預(yù)測生物量的效果更好。(3) 多角度成像方式與單相機垂直成像方式在油菜生物量估測精度上沒有顯著差異, 兩者皆在40 m高度下具有最好的生物量預(yù)測效果, 相關(guān)系數(shù)分別為0.772和0.742。以上結(jié)果表明, 基于無人機低成本可見光成像建模技術(shù)提取飼料油菜生物量是可行的, 本研究可為大田作物地上生物量信息的無損高效監(jiān)測提供易于實施的解決方案和技術(shù)參考。
無人機; 生物量; 傾斜攝影; 作物體積模型; 飼料油菜
作物地上部生物量是重要的農(nóng)藝性狀, 其定義為單位面積內(nèi)地上有機物質(zhì)的總量[1], 在農(nóng)業(yè)生產(chǎn)中, 高效、準(zhǔn)確地估算生物量是監(jiān)測作物生長狀況和加強特定農(nóng)藝措施(施肥、除草和收獲等)決策支持系統(tǒng)的先決條件[1-2]。其中干物質(zhì)重量是作物光合作用的產(chǎn)物, 與作物產(chǎn)量密切相關(guān)[3]。
傳統(tǒng)的人工有損采樣方式獲取生物量需要大量實地調(diào)查, 效率低下且數(shù)據(jù)精度受主觀因素影響較大[4]。隨著低空遙感技術(shù)快速發(fā)展, 無人機(unmanned aerial vehicle, UAV)結(jié)合高分辨率數(shù)碼相機由于其低成本、高靈活性和高空間分辨率等優(yōu)點, 已廣泛應(yīng)用于作物表型信息的采集[5-7]。楊俊等[8]利用無人機數(shù)碼影像計算可見光植被指數(shù)估算小麥生物量表明, 生物量與光譜指數(shù)的相關(guān)性均達到極顯著水平, 其中綠紅差值指數(shù)精度最高, 其相關(guān)系數(shù)為0.911。然而, 由于光譜指數(shù)對作物生長后期的變化不敏感, 導(dǎo)致其對生物量預(yù)測的誤差增加[9]。株高作為一種容易測量且重要的農(nóng)藝形態(tài)指標(biāo), 可以通過無人機獲取可見光圖像基于SfM (structure from motion)算法建立作物表面模型(crop surface model, CSM)得到, 常用于作物生物量、產(chǎn)量等性狀的估測[10-11]。陶惠林等[12]通過無人機獲取CSM提取冬小麥株高, 結(jié)合可見光植被指數(shù)構(gòu)建回歸模型估算冬小麥生物量, 與僅用植被指數(shù)預(yù)測生物量結(jié)果相比, 融入株高性狀構(gòu)建的模型預(yù)測效果更好, 其2= 0.819, RMSE = 0.110 kg m-2。由于作物生物量具有復(fù)雜的三維結(jié)構(gòu), 僅通過作物株高或冠層覆蓋度等單個二維冠層特征無法準(zhǔn)確地描述。因此, 目前一些研究證明通過激光雷達或者攝影測量技術(shù)構(gòu)建作物三維立體模型可以提取高精度的生物量信息[13-14]。Greaves等[15]通過地面激光雷達獲取點云數(shù)據(jù)探索了2種生物量預(yù)測方式, 分別為VSD法(volumetric surface differencing)和VC法(voxel counting), 其2分別為0.92和0.94。VSD法對作物覆蓋區(qū)域的CSM進行三維空間積分得到作物體積。VC法通過統(tǒng)計單位體素的總和估算生物量, 該方法要求數(shù)據(jù)能夠獲取更詳盡的作物內(nèi)部結(jié)構(gòu)信息, 其精度稍高于VSD法。然而, 由于激光雷達技術(shù)成本較高, 后期數(shù)據(jù)處理量較大, 限制了其在作物表型信息監(jiān)測中的應(yīng)用[16-17]。無人機平臺搭載的可見光相機雖穿透能力有限, 難以構(gòu)建基于體素的三維立體模型[18], 但是通過CSM數(shù)據(jù)建立作物三維模型直接提取地上群體生物量, 可獲得較單一光譜和株高特征反演方法更加準(zhǔn)確和穩(wěn)定的預(yù)測結(jié)果。
基于無人機平臺的傾斜攝影測量作為一個新興的技術(shù)方法, 已廣泛應(yīng)用于建筑物、樹木等地理實體的三維建模[19]。傳統(tǒng)方法通過垂直角度獲取的影像數(shù)據(jù)只包含地物頂部的信息特征, 缺乏詳細的側(cè)面紋理信息。而且, 通過影像進行建筑物的三維重建, 易產(chǎn)生墻面傾斜、屋頂位移等問題, 不利于后續(xù)的幾何校正等處理[20]。傾斜攝影技術(shù)使用無人機平臺搭載多臺傳感器, 同時從垂直、傾斜等不同角度采集圖像, 通過幾何校正、多視影像匹配等處理可以獲得地物準(zhǔn)確的長度、高度和面積信息[21]。而且, 相較于傳統(tǒng)的垂直成像方式, 傾斜成像方式獲得的可見光圖像可以產(chǎn)生更多的點云數(shù)量, 可以為三維重建、紋理映射等工作提供更豐富的信息[22-23]。然而傾斜攝影測量技術(shù)很少應(yīng)用于農(nóng)業(yè)中作物表型信息的提取, 因此本研究采用自主集成的五相機傾斜攝影測量無人機成像平臺從多個角度同時獲取飼料油菜終花期的可見光圖像, 比較與評估傾斜攝影與普通垂直攝影2種方式對生物量預(yù)測的差異。通過建立油菜體積模型, 與實測生物量建立回歸模型估算作物生物量。本研究比較3種飛行高度(40、60和80 m)和3種油菜播種密度(3.00×105、5.25×105和7.50×105株hm-2)條件下油菜生物量干重的預(yù)測效果, 探尋在大田環(huán)境下高效無損的作物地上生物量估算方法及相應(yīng)數(shù)據(jù)采集模式。
湖北省武漢市華中農(nóng)業(yè)大學(xué)油菜試驗基地(30°28′8″N, 114°21′18″E)屬于亞熱帶風(fēng)性濕潤氣候區(qū)。試驗田選用37個飼料油菜品種(系), 設(shè)置3.00×105(密度1)、5.25×105(密度2)和7.50×105株 hm-2(密度3) 3個種植密度, 其中3.00×105株 hm-2為常規(guī)種植密度, 后兩種為高密度種植方式。重復(fù)3次, 共333個小區(qū), 每個小區(qū)面積為6 m2(2 m × 3 m), 具體試驗區(qū)布置見圖1-A和B。為精確獲取試驗田的CSM數(shù)據(jù), 試驗區(qū)均勻布置了13個地面控制點(ground control point, GCP), 利用合眾思壯科技有限公司的GNSS RTK (global navigation satellite system real-time kinematic)獲取其三維空間位置, 該儀器在水平方向的精度為±1.0 cm, 垂直方向精度為±2.0 cm。
A: 試驗區(qū)布置; B: 小區(qū)面積和采樣區(qū)域; C: 五相機傾斜攝影系統(tǒng)。
A: layout of experimental areas; B: plots and sampling areas; C: oblique photography system with five cameras.
于2018年4月3日11:00—13:00采集圖像數(shù)據(jù), 試驗期間天氣晴朗無風(fēng), 光照穩(wěn)定。成像系統(tǒng)的搭載平臺為大疆六軸飛行器M600 (大疆創(chuàng)新科技有限公司, 中國), 其最大載重為6 kg, 續(xù)航時間為16 min。無人機平臺搭載由5臺Sony ILCE-QX1相機(日本索尼株式會社)組成的多相機傾斜攝影系統(tǒng), 可同時從1個垂直方向和4個傾斜方向采集圖像數(shù)據(jù), 傾斜角度設(shè)置為15o (圖1-C)。試驗設(shè)置20、40、60和80 m 4個不同高度的飛行任務(wù)。由于無人機在飛行高度為20 m時收集的油菜終花期圖像之間紋理特征相似, 且較低的飛行高度形成的風(fēng)場會對油菜冠層產(chǎn)生較大的擾動, 均會對特征提取與匹配產(chǎn)生影響, 從而無法完成圖像拼接過程, 因此試驗后續(xù)只分析了40、60和80 m 3個種飛行高度獲取的圖像數(shù)據(jù)。飛行期間5臺相機同步觸發(fā)拍照, 依據(jù)高度設(shè)置拍照時間間隔為1~2 s, 飛行航向重疊度為85%, 旁向重疊度為70%。試驗獲取的可見光圖像以24位JPG格式存儲, 有效像元個數(shù)為2010萬(像素5456 × 3632)。
采用Agisoft PhotoScan Professional 1.4.3軟件拼接生成可見光影像和CSM影像。該過程首先通過傾斜攝影系統(tǒng)獲取的圖像與對應(yīng)的POS數(shù)據(jù)生成稀疏點云, 其中POS數(shù)據(jù)表征圖像獲取時刻的空間位置和姿態(tài)信息。然后, 導(dǎo)入13個GCP的坐標(biāo)進行幾何校正構(gòu)建密集點云, 最后生成不同飛行高度下的可見光影像和CSM影像, 其具體信息見表1。
試驗于2018年4月10日(油菜終花期)選擇油菜田的111個小區(qū)測量其油菜地上部生物量。試驗首先放置1個1 m2的正方形鐵框于各個小區(qū)中, 通過采挖法收獲鐵框內(nèi)的油菜, 然后將油菜洗凈后置于烘箱中105℃殺青30 min, 并在80℃條件下烘干至恒重, 稱量獲得油菜干物質(zhì)重量。具體油菜的生物量統(tǒng)計信息見表2。
表1 3個飛行高度下的CSM和可見光影像信息
表2 油菜生物量統(tǒng)計特征值
密度1: 3.00×105株 hm-2; 密度2: 5.25×105株hm-2; 密度3: 7.50×105株hm-2。
Density 1: 3.00×105plant hm-2; density 2: 5.25×105plant hm-2; density 3: 7.50×105plant hm-2.
VSD方法通過將結(jié)構(gòu)化的點云數(shù)據(jù)轉(zhuǎn)為立方體構(gòu)建植物三維輪廓, 能夠準(zhǔn)確提取株高、生物量等作物性狀[15]。本試驗基于VSD方法提取油菜地上部生物量, 其具體步驟如圖2所示。通過CSM影像與裸土高程的差值獲取作物株高, 其中裸土高程為試驗區(qū)周圍水泥土地高程的均值。然后, 基于可見光圖像的綠波段和紅波段計算歸一化植被指數(shù)(normalized difference index, NDI)[24], 并通過Otsu閾值算法[25]自動選取閾值對NDI圖像進行分割, 提取綠色油菜區(qū)域。最后將試驗小區(qū)內(nèi)綠色油菜像元上的株高進行累加, 計算株高總和與單位像元面積的乘積, 得到作物體積模型(crop volume model, CVM), 具體公式如下:
式中,為綠色油菜像元總數(shù),為單位像元的面積, PH為第個像元上的作物高度。
為估算油菜生物量, 本研究建立了作物體積模型與實測生物量間的線性回歸模型。研究將采集的111個地面生物量數(shù)據(jù)按4∶1的比例隨機劃分為校正集和驗證集。采用相關(guān)系數(shù)、均方根誤差(root mean square error, RMSE)和相對誤差(relative error, RE)評估模型的預(yù)測精度。其中越大說明模型擬合越好, RMSE和RE越小說明模型精度越高。
本研究比較了3種飛行高度下(40、60和80 m)無人機多角度傾斜圖像基于VSD方法建立油菜生物量預(yù)測模型。由表3可知, 隨著成像高度的增加, 生物量預(yù)測精度逐漸下降。在本研究中, 飛行高度為40 m時, 生物量具有最佳的估算結(jié)果(= 0.792, RMSE = 125.0 g m-2, RE = 13.2%)。主要原因為: 隨著飛行高度上升, 而攝影基線不變, 導(dǎo)致基高比減小, 圖像分辨率降低, 影響冠層結(jié)構(gòu)細節(jié)信息的獲取和建模。此外, 干物質(zhì)重量經(jīng)殺青、烘干處理, 其體積與自然狀態(tài)下相差較大, 會對模型精度產(chǎn)生一定影響??傮w上, 不同高度生物量估算結(jié)果的均大于0.7, RMSE和RE分別在140 g m-2和15%以下, 說明VSD方法可以較好地預(yù)測油菜生物量。模型驗證集與校正集結(jié)果的相差在0.05以內(nèi), RMSE和RE分別保持在20 g m-2和3%以內(nèi), 表明回歸模型具有較好的穩(wěn)定性。
A: 作物冠層高度獲取; B: 作物冠層覆蓋面積獲取; C: 體積模型獲取; XY: 作物冠層覆蓋面積; Z: 作物冠層高度。
A: the acquisition of crop canopy height; B: the acquisition of crop canopy coverage area; C: the acquisition of volume model; XY: the area of crop canopy; Z: the height of crop canopy.
表3 3種飛行高度下的生物量提取結(jié)果
表示作物體積模型,表示預(yù)測的生物量。
represents crop volume model andrepresents the predicted biomass.: correlation coefficient; RMSE: root mean square error; RE: relative error.
不同種植密度會使作物冠層結(jié)構(gòu)產(chǎn)生差異, 試驗比較了3種不同種植密度下的油菜生物量預(yù)測精度。本試驗中, 密度1具有最小的種植密度, 但是其油菜干物質(zhì)重量比密度2和密度3更高(表2)。主要由于高密度種植會引起群體光照不足, 葉片光合速率降低, 造成干物質(zhì)重量下降[26]。比較3種種植密度下的生物量預(yù)測結(jié)果表明(圖3), 密度2和密度3的生物量估算結(jié)果接近, 在飛行高度為40 m時預(yù)測精度最好, 2種密度下均超過0.8, RMSE在120 g m-2以下。生物量預(yù)測模型在密度1時精度最差, 尤其在飛行高度為80 m時, 精度下降幅度較大,僅為0.57。密度1在3種飛行高度下的絕對誤差RMSE均在124 g m-2以上, 而密度2和密度3的RMSE均保持在124 g m-2以下。
: 相關(guān)系數(shù); RMSE: 均方根誤差; RE: 相對誤差; D1: 3.00×105株 hm-2; D2: 5.25×105株hm-2; D3: 7.50×105株hm-2。
: correlation coefficient; RMSE: root mean square error; RE: relative error; D1: 3.00×105plant hm-2; D2: 5.25×105plant hm-2; D3: 7.50×105plant hm-2.
為比較本試驗自主集成的五相機傾斜攝影系統(tǒng)與普通垂視攝影的地上生物量預(yù)測精度, 試驗挑選了五相機中垂視相機獲取的圖像, 使用VSD方法計算油菜生物量。表4統(tǒng)計了五相機傾斜攝影系統(tǒng)和單相機垂直攝影獲取的CSM圖像空間分辨率, 其中五相機獲取的CSM數(shù)據(jù)圖像分辨率略低一些。通過比較2種方式下生物量的估算精度(圖4), 傾斜攝影系統(tǒng)的生物量預(yù)測效果與垂直攝影接近, 相同飛行高度下, 兩者的相關(guān)系數(shù)差距小于0.03, RMSE在11 g m-2以內(nèi), RE在2.2%以內(nèi)。在飛行高度為40 m和80 m時, 傾斜攝影系統(tǒng)的生物量預(yù)測結(jié)果的相關(guān)系數(shù)稍高于垂直攝影, 但是垂直攝影的絕對誤差和相對誤差更小。而在飛行高度為60 m時, 單相機垂直攝影預(yù)測的生物量與實測值相關(guān)性更高。說明, 試驗采用的五相機傾斜攝影系統(tǒng)相對于單個垂視相機在油菜生物量獲取上并沒有顯著優(yōu)勢。
本研究基于VSD方法獲取油菜生物量信息, 該算法通過株高在指定面積上的累加獲得作物體積模型。一般通過CSM與土壤基底的差值得到作物株高, 其中完整的土壤基底數(shù)據(jù)獲取需要在作物出苗前或者收獲后進行一次額外的無人機飛行任務(wù)[27], 通過該方法獲得的作物株高一般具有更高的精度, 同時會增加數(shù)據(jù)獲取環(huán)節(jié)的人力及時間成本。因此, 在進行作物株高和生物量等性狀的提取時, 許多研究選擇通過提取CSM中作物間的裸露土壤高程再進行差值得到基底數(shù)據(jù)[28-29]。而本試驗中油菜已處于生長后期(終花期), 冠層葉片已經(jīng)完全封壟, 難以從圖像中提取足夠多的裸土構(gòu)建基底面, 因此采用試驗區(qū)域邊界的水泥地等穩(wěn)定區(qū)域的高程作為基底數(shù)據(jù)。雖然缺少了播種時的田間地形基底信息, 但是該模式更加適合農(nóng)業(yè)生產(chǎn)監(jiān)測的實際情況, 在獲取較好的生物量預(yù)測結(jié)果的同時, 能夠降低生產(chǎn)成本。
表4 五相機傾斜攝影系統(tǒng)圖像與單個垂視相機CSM的分辨率
CVM = 作物體積模型; 40 m: 無人機飛行高度為40 m; 60 m: 無人機飛行高度為60 m; 80 m: 無人機飛行高度為80 m??s寫同圖3。
CVM = Crop Volume Model; 40 m: the flight height was 40 meters; 60 m: the flight height was 60 meters; 80 m: the flight height was 80 meters. Abbreviations are the same as those given in Fig. 3.
近年來, 傾斜攝影在遙感領(lǐng)域發(fā)展迅速, 成為地理信息采集與三維模型構(gòu)建的重要手段[30]。無人機搭載4個傾斜相機和1個垂直相機可以同時采集目標(biāo)區(qū)域前、后、左、右和頂部5個角度的二維相片, 可以為三維重建、紋理映射等工作提供更豐富的信息。但本研究使用傾斜和垂視攝影技術(shù)估算生物量的結(jié)果并沒有顯著差異。在覆蓋度相同的條件下, 基于2種成像方式估算生物量的差異主要由作物株高估算的結(jié)果決定, 因此, 本研究比較了2種成像方式基于不同粗糙度地物在株高測量上的差異性。表5通過計算了3種不同飛行高度下垂直和傾斜攝影方式生成的CSM圖像的差值(CSMdif), 比較3種不同粗糙度的地物(油菜、道路和土壤)在2種方式下的高度獲取差異。試驗分別于油菜、道路和土壤區(qū)域中產(chǎn)生500個隨機點, 提取其在CSMdif中的數(shù)值, 然后計算3種地物下500個隨機點的描述性統(tǒng)計量。由表5可知, 傾斜和垂直2種成像方式獲取不同地物的高度差異的均值皆在10 cm以內(nèi), 而油菜冠層CSMdif的標(biāo)準(zhǔn)差在3種飛行高度下都是最大的。表明, 五相機傾斜攝影與單個垂視相機獲取的CSM圖像差異較小, 但與平坦的地物(道路和土壤)相比, 2種方式獲取的株高仍可以在粗糙的地物中(油菜)產(chǎn)生相對更大的差異。
表5 五相機傾斜攝影系統(tǒng)與單個垂視相機獲取的CSM的差異比較
平均值是基于所有數(shù)據(jù)的絕對值計算。
The mean values were calculated based on the absolute value of all data.
對于2種成像方式估算生物量差異較小的主要原因有2個: 第一, 當(dāng)無人機平臺飛行高度固定, 普通的垂直攝影獲取的圖像分辨率幾乎一致。然而傾斜影像像點的分辨率沿攝影方向衰減, 不同視角獲取的圖像幾何變形大, 在圖像拼接時獲取同名點的可靠性低[31]。而且, 傾斜相機較垂直相機的物距更長, 成像距離更大。在使用Agisoft Photoscan軟件進行圖像拼接時, 傾斜攝影組的圖像獲取高度是所有輸入圖像的地面高度均值, 導(dǎo)致圖像分辨率更低(表4)。第二, 多角度傾斜攝影技術(shù)改變了傳統(tǒng)航測遙感影像只能從垂直方向拍攝的局限性, 它可以捕捉地面物體更多的側(cè)面形態(tài)信息[32], 但是無人機攝影測量方式以構(gòu)建作物冠層形態(tài)為主, 在作物封行后, 傾斜攝影獲取的作物側(cè)面信息只占據(jù)建模對象的小部分。而且, 田間實際取樣和VSD算法獲取生物量的區(qū)域一般集中在作物群體的中心區(qū)域(圖1-B), 該部分作物的真實側(cè)面信息難以獲取。同時在農(nóng)業(yè)生產(chǎn)中, 農(nóng)戶為了加強對雜草的抑制, 通常會提高種植密度, 導(dǎo)致種植間隔變窄[28], 都限制了多角度傾斜攝影測量的優(yōu)勢。因此, 對于大田密植型作物的表型性狀獲取, 傳統(tǒng)的正射攝影測量即可以獲取較好的結(jié)果, 同時對于具備不同冠層結(jié)構(gòu)特點的作物地上生物量也值得進一步研究。
[1] Zhu W, Sun Z, Peng J, Huang Y, Li J, Zhang J, Yang B, Liao X. Estimating maize above-ground biomass using 3D point clouds of multi-source unmanned aerial vehicle data at multi-spatial scales., 2019, 11: 2678.
[2] Yang G, Liu J, Zhao C, Li Z, Huang Y, Yu H, Xu B, Yang X, Zhu D, Zhang X. Unmanned aerial vehicle remote sensing for field-based crop phenotyping: current status and perspectives., 2017, 8: 1111.
[3] 任廷波, 趙繼獻. 施氮量對黃籽雙低雜交油菜干物質(zhì)積累的影響. 山地農(nóng)業(yè)生物學(xué)報, 2007, 26(2): 99–104.
Ren T B, Zhao J X. Effects of different amount of applied nitrogen on dry matter accumulation of yellow seed with double low hybrid rape.,2007, 26(2): 99–104 (in Chinese with English abstract).
[4] Li B, Xu X, Zhang L, Han J, Bian C, Li G, Liu J, Jin L. Above-ground biomass estimation and yield prediction in potato by using UAV-based RGB and hyperspectral imaging., 2020, 162: 161–172.
[5] 趙必權(quán), 丁幼春, 蔡曉斌, 謝靜, 廖慶喜, 張建. 基于低空無人機遙感技術(shù)的油菜機械直播苗期株數(shù)識別. 農(nóng)業(yè)工程學(xué)報, 2017, 33(19): 115–123.
Zhao B Q, Ding Y C, Cai X B, Xie J, Liao Q X, Zhang J. Seedlings number identification of rape planter based on low altitude unmanned aerial vehicles remote sensing technology., 2017, 33(19): 115–123 (in Chinese with English abstract).
[6] 楊琦, 葉豪, 黃凱, 查元源, 史良勝. 利用無人機影像構(gòu)建作物表面模型估測甘蔗LAI. 農(nóng)業(yè)工程學(xué)報, 2017, 33(8): 104–111.
Yang Q, Ye H, Huang K, Zha Y Y, Shi L S. Estimation of leaf area index of sugarcane using crop surface model based on UAV image., 2017, 33(8): 104–111 (in Chinese with English abstract).
[7] Zhang J, Xie T, Yang C, Song H, Jiang Z, Zhou G, Zhang D, Feng H, Xie J. Segmenting purple rapeseed leaves in the field from UAV rgb imagery using deep learning as an auxiliary means for nitrogen stress detection., 2020, 12: 1403.
[8] 楊俊, 丁峰, 陳晨, 劉濤, 孫成明, 丁大偉, 霍中洋.小麥生物量及產(chǎn)量與無人機圖像特征參數(shù)的相關(guān)性. 農(nóng)業(yè)工程學(xué)報, 2019, 35(23): 104–110.
Yang J, Ding F, Chen C, Liu T, Sun C M, Ding D W, Huo Z Y. Study on correlation of wheat biomass and yield with UAV image characteristic parameters., 2019, 35(23): 104–110 (in Chinese with English abstract).
[9] Payero J, Neale C, Wright J. Comparison of eleven vegetation indices for estimating plant height of alfalfa and grass., 2004, 20: 385.
[10] Song Y, Wang J. Winter wheat canopy height extraction from UAV-based point cloud data with a moving cuboid filter., 2019, 11: 1239.
[11] 劉治開, 牛亞曉, 王毅, 韓文霆. 基于無人機可見光遙感的冬小麥株高估算. 麥類作物學(xué)報, 2019, 39: 859–866.
Liu Z K, Niu Y X, Wang Y, Han W T. Estimation of plant height of winter wheat based on UAV visible image., 2019, 39: 859–866 (in Chinese with English abstract).
[12] 陶惠林, 徐良驥, 馮海寬, 楊貴軍, 楊小冬, 苗夢珂, 代陽. 基于無人機數(shù)碼影像的冬小麥株高和生物量估算. 農(nóng)業(yè)工程學(xué)報, 2019, 35(19): 107–116.
Tao H L, Xu L J, Feng H K, Yang G J, Yang X D, Miao M K, Dai Y. Estimation of plant height and biomass of winter wheat based on UAV digital image., 2019, 35(19): 107–116 (in Chinese with English abstract).
[13] Walter J D C, Edwards J, Mcdonald G, Kuchel H. Estimating biomass and canopy height with lidar for field crop breeding., 2019, 10: 1145.
[14] Wijesingha J, Moeckel T, Hensgen F, Wachendorf M. Evaluation of 3D point cloud-based models for the prediction of grassland biomass., 2019, 78: 352–359.
[15] Greaves H E, Vierling L A, Eitel J U H, Boelman N T, Magney T S, Prager C M, Griffin K L J. Estimating aboveground biomass and leaf area of low-stature Arctic shrubs with terrestrial LiDAR., 2015, 164: 26–35.
[16] Ballesteros R, Fernando O J, Hernandez D, Angel M M. Onion biomass monitoring using UAV-based RGB imaging., 2018, 19: 840–857.
[17] 牛慶林, 馮海寬, 楊貴軍, 李長春, 楊浩, 徐波, 趙衍鑫. 基于無人機數(shù)碼影像的玉米育種材料株高和 LAI 監(jiān)測. 農(nóng)業(yè)工程學(xué)報, 2018, 34(5): 73–82.
Niu Q L, Feng H K, Yang G J, Li C C, Yang H, Xu B, Zhao Y X. Monitoring plant height and leaf area index of maize breeding material based on UAV digital images., 2018, 34(5): 73–82 (in Chinese with English abstract).
[18] Maimaitijiang M, Sagan V, Sidike P, Maimaitiyiming M, Fritschi F B. Vegetation Index Weighted Canopy Volume Model (CVMVI ) for soybean biomass estimation from Unmanned Aerial System-based RGB imagery., 2019, 151: 27–41.
[19] 曹洪濤, 高偉, 張海峰, 張亮, 邊延凱. 無人機傾斜攝影分辨率建模與分析. 地理空間信息, 2019, 17(1): 14–16.
Cao H T, Gao W, Zhang H F, Zhang L, Bian Y K. Resolution modeling and analysis of UAV oblique photography., 2019, 17(1): 14–16 (in Chinese with English abstract).
[20] 林卉, 王仁禮. 數(shù)字?jǐn)z影測量學(xué). 江蘇: 中國礦業(yè)大學(xué)出版社, 2015. pp 300–303.
Lin H, Wang R L. Digital Photogrammetry. Jiangsu: China University of Mining and Technology Publishers, 2015. pp 300–303 (in Chinese).
[21] 王卿, 郭增長, 李豪, 孫鵬. 多角度傾斜攝影系統(tǒng)三維量測方法研究. 測繪工程, 2014, 23(3): 10–14.
Wang Q, Guo Z C, Li H, Sun P. Three-dimensional measurement of multi-angle tilt camera system., 2014, 23(3): 10–14 (in Chinese with English abstract).
[22] Cheng T, Lu N, Wang W, Zhang Q, Li D, Yao X, Tian Y, Zhu Y, Cao W, Baret F. Estimation of nitrogen nutrition status in winter wheat from unmanned aerial vehicle based multi-angular multispectral imagery., 2019, 10: 1601.
[23] Che Y, Wang Q, Xie Z, Zhou L, Li S, Hui F, Wang X, Li B, Ma Y. Estimation of maize plant height and leaf area index dynamic using unmanned aerial vehicle with oblique and nadir photography., 2020, 126: 765–773.
[24] Gitelson A A, Kaufman Y J, Stark R, Rundquist D. Novel algorithms for remote estimation of vegetation fraction., 2002, 80: 76–87.
[25] Otsu N. A threshold selection method from gray-level histograms., 2007, 9: 62–66.
[26] 朱麗麗, 周治國, 趙文青, 孟亞利, 陳兵林, 呂豐娟. 種植密度對棉籽生物量和脂肪與蛋白質(zhì)含量的影響. 作物學(xué)報, 2010, 36: 2162–2169.
Zhu L L, Zhou Z G, Zhao W Q, Meng Y L, Chen B L, Lyu F J. Effects of plant densities on cottonseed biomass, fat and protein contents., 2010, 36: 2162–2169 (in Chinese with English abstract).
[27] Bendig J, Bolten A, Bennertz S, Broscheit J, Eichfuss S, Bareth G. Estimating biomass of barley using crop surface models (CSMs) derived from UAV-based RGB imaging., 2014, 6: 10395–10412.
[28] Li J, Shi Y, Veeranampalayam-Sivakumar A N, Schachtman D P. Elucidating sorghum biomass, nitrogen and chlorophyll contents with spectral and morphological traits derived from unmanned aircraft system., 2018, 9: 1406.
[29] Feng A, Zhang M, Sudduth K A, Vories E D, Zhou J. Cotton yield estimation from uav-based plant height., 2019, 62: 393–403.
[30] 楊國東, 王民水. 傾斜攝影測量技術(shù)應(yīng)用及展望.測繪與空間地理信息, 2016, 39(1): 13–15.
Yang G D, Wang M S. The tilt photographic measuration technique and expectation., 2016, 39(1): 13–15 (in Chinese with English abstract).
[31] 魏祖帥, 李英成, 陳海燕, 朱祥娥, 劉曉龍. 傾斜多視影像空中三角測量的精度分析. 遙感信息, 2017, 32(4): 6–10.
Wei Z S, Li Y C, Chen H Y, Zhu X E, Liu X L. Precision of aerial triangulation for oblique multi-vision images., 2017, 32(4): 6–10 (in Chinese with English abstract).
[32] Youngerman C Z, Ditommaso A, Curran W S, Mirsky S B, Ryan M R. Corn density effect on interseeded cover crops, weeds, and grain yield., 2018, 110: 2478–2487.
Estimation of feed rapeseed biomass based on multi-angle oblique imaging technique of unmanned aerial vehicle
ZHANG Jian1, XIE Tian-Jin1, WEI Xiao-Nan1, WANG Zong-Kai2, LIU Chong-Tao2, ZHOU Guang-Sheng2, and WANG Bo2,*
1College of Resources and Environmental Sciences, Huazhong Agricultural University / Macro Agriculture Research Institute, Wuhan 430070, Hubei, China;2Key Laboratory of Crop Physiology, Ecology and Cultivation (The Middle Reaches of the Yangtze River), Ministry of Agriculture and Rural Affairs / College of Plant Science and Technology, Huazhong Agricultural University, Wuhan 430070, Hubei, China
To obtain above-ground biomass information quickly and accurately facilitating crop growth monitoring and yield prediction, this study was to evaluate a new method to extract the biomass of feed rapeseed based on UAV with visible-light cameras. The experiment was conducted at the rapeseed experimental base of Huazhong Agricultural University in 2018. To estimate above-ground biomass of rapeseed, a UAV (unmanned aerial vehicle) platform equipped with a five-camera oblique photography system was used to simultaneously obtain images of rapeseed during final flowering period from multiple angles. Three flight altitudes (40, 60, and 80 m) and three seeding densities (3.00×105, 5.25×105, and 7.50×105plant hm-2) were carried out to assess biomass predictions in a single-camera vertical imaging pattern. Firstly, the rapeseed canopy coverage and plant height information from the image of the UAV were extracted. Secondly, the volume model of rapeseed was obtained by the addition of plant height on the covering area. Finally, a linear regression model was established based on volume model and measured biomass to predict the dry weight of rapeseed. The results were as follows: (1) With the decrease of the flight height of the UAV of the three flight altitudes, the accuracy of biomass prediction was on the rise, and when the flight height was 40 meters, the accuracy of rapeseed biomass estimation was the best (calibration set:= 0.792, RMSE = 125.0 g m-2, RE = 13.2%; validation set:= 0.752, RMSE = 139.1 g m-2, RE = 15.3%). (2) When the planting density of rapeseed was higher, the actual biomass was smaller, and the prediction of biomass had a better result by volume model. (3) There was no significant difference in the accuracy of rapeseed biomass estimation between multi-angle imaging and single-camera vertical imaging, both of which had the best results at the flight height of 40 meters with correlation coefficientsof 0.772 and 0.742, respectively. This study indicated that it was feasible to obtain images for extracting rapeseed biomass by a UAV, which could provide the reference for efficient and accurate phenotypic information of field crops.
unmanned aerial vehicle; biomass; oblique photography; crop volume model; feed rapeseed
10.3724/SP.J.1006.2021.04211
本研究由國家重點研發(fā)計劃項目“大田經(jīng)濟作物優(yōu)質(zhì)豐產(chǎn)的生理基礎(chǔ)與調(diào)控” (2018YFD1000900)和湖北省技術(shù)創(chuàng)新專項重大項目(2017ABA064)資助。
This study was supported by the National Key Research and Development Program of China “Physiological Basis and Agronomic Management for High-quality and High-yield of Field Cash Crops” (2018YFD1000900) and the Major Special Projects of Technological Innovation of Hubei Province (2017ABA064).
汪波, E-mail: wangbo@mail.hzau.edu.cn
E-mail: jz@mail.hzau.edu.cn
2020-09-16;
2021-01-21;
2021-02-25.
URL: https://kns.cnki.net/kcms/detail/11.1809.S.20210225.1144.004.html