高姻燕, 孫義, 李葆春,3*
(1.甘肅農(nóng)業(yè)大學生命科學技術(shù)學院,蘭州 730070;2.南通大學地理科學學院,脆弱生態(tài)環(huán)境研究所,江蘇 南通 2260073;3.甘肅農(nóng)業(yè)大學甘肅省干旱生境作物學重點實驗室,甘肅省作物遺傳改良與種質(zhì)創(chuàng)新實驗室,蘭州 730070)
小麥(Triticum aestivum)是世界貿(mào)易量較大的糧食作物,全球約35%~40%的人口以小麥為主要食物[1-3]。我國作為人口大國,對小麥的需求一直維持在較高水平[4]。近年來,市場競爭和耕地質(zhì)量的改變導致小麥產(chǎn)量浮動較大[5]。小麥生產(chǎn)關(guān)乎我國糧食安全、經(jīng)濟發(fā)展和社會穩(wěn)定[4],及時了解小麥產(chǎn)量信息可為國家經(jīng)濟和宏觀決策提供科學依據(jù)[6-7]。
作物生產(chǎn)性狀的傳統(tǒng)監(jiān)測方法主要有2種:一是通過田間破壞性取樣測定,這種方法通常費時、費力、難以定點重復監(jiān)測,而且容易出現(xiàn)較大的人為誤差和干擾[8];二是傳統(tǒng)的空間信息技術(shù)監(jiān)測,這種方法具有覆蓋范圍廣、數(shù)據(jù)周期長和無破壞性等優(yōu)勢[9]。但是,因為傳統(tǒng)空間遙感技術(shù)存在分辨率較低、難以直接獲取作物表型性狀和重訪周期長等缺點,因而難以實現(xiàn)對農(nóng)業(yè)生產(chǎn)的實時性、連續(xù)性監(jiān)測[10];載人航空遙感技術(shù)獲取農(nóng)業(yè)生產(chǎn)性狀信息的精度比傳統(tǒng)空間遙感技術(shù)高,但是因為運行成本高、操作復雜以及低空作業(yè)危險系數(shù)高而難以實現(xiàn)對植物性狀的高精度、高頻次動態(tài)監(jiān)測[11-13]。因而,亟需探索一種快速、準確、無損且低成本的作物生產(chǎn)性狀監(jiān)測和評估方法。近年來,無人機遙感技術(shù)因具備操作簡便、價格低廉、機動靈活、高時空分辨率以及控制軟件開源等優(yōu)勢[14],逐漸成為農(nóng)情監(jiān)測的重要技術(shù)手段[15-16]。劉欣誼等[8]利用無人機圖像顏色與紋理特征等間接指標對小麥產(chǎn)量進行預測,并指出顏色指數(shù)與其產(chǎn)量相關(guān)性較好。然而,到目前為止,大部分工作還是基于小范圍的嘗試性研究,缺乏標準化分析材料(航拍影像)的獲取方法,難以在大范圍開展田間小麥穗數(shù)監(jiān)測并進一步指導品種繁育、田間管理以及產(chǎn)量估測等工作。
單位面積穗數(shù)是決定小麥產(chǎn)量的關(guān)鍵和直接指標之一[17-18],快速、準確地識別并統(tǒng)計小麥穗數(shù)對小麥的良種選育和田間管理有重要意義[19-21]。目前,針對室內(nèi)單株小麥麥穗的識別和測量開展得比較多,陳含等[22]借助Sobel算子邊緣檢測在模糊背景中分割出麥穗,其與綠色分量法和最大值法的處理結(jié)果相比耗時明顯減少;路文超等[23]利用圖像處理技術(shù)擬合麥穗中心曲線,再結(jié)合灰度差異統(tǒng)計方法測定穗長和小穗數(shù);Li等[24]基于Laws算法對麥穗進行檢測,經(jīng)過面積和高度閾值改進實現(xiàn)了80%以上的麥穗檢測率。針對田間麥穗識別和定量觀測的研究還比較少,劉濤等[25]通過顏色和紋理特征對田間撒播和條播小麥麥穗進行識別和計數(shù),結(jié)果表明基于顏色特征的方法較為快速和高效;有研究利用超像素分割的方法實現(xiàn)對田間小麥麥穗的分割,但該方法不適宜長勢過弱和差異過大的區(qū)域[2]。近年來,基于深度學習的目標檢測技術(shù)日趨成熟,尤其YOLOv3算法檢測效果最佳[26],由于具備高精度和實時性,其已經(jīng)被廣泛應用于災害[27]、生物[28]以及商業(yè)[26]等領域的目標自動識別中,但是還缺乏針對田間小麥生產(chǎn)性狀方面的研究。
本研究以甘肅省臨夏回族自治州典型小麥田為研究對象,借助無人機航拍路徑規(guī)劃和控制系統(tǒng)(fragmentation monitoringand analysis with aerial photography,F(xiàn)ragMAP)獲取統(tǒng)一標準的田間小麥高分辨率影像,通過YOLOv3算法進行模型訓練并實現(xiàn)麥穗的自動識別,以期構(gòu)建標準統(tǒng)一、實時性的小麥穗數(shù)監(jiān)測方法(FY方法),為田間小麥穗數(shù)統(tǒng)計和產(chǎn)量估測提供新的途徑,也為小麥種質(zhì)資源評價和田間管理提供必要的理論和實踐指導。
研究區(qū)為甘肅省臨夏回族自治州的和政縣、廣河縣及康樂縣的典型小麥田(圖1),位于青藏高原和黃土高原交匯處,平均海拔約1 800 m,年均降水量約510 mm,年均溫為7.7℃,全年無霜期為156 d[29-30]。2020年7月下旬,在每個縣隨機選擇具有代表性的春小麥麥田3塊,在每塊麥田隨機選擇3個樣地進行無人機航拍以獲取高分辨率的航拍影像(3個縣區(qū)×3塊麥田×3個樣地)。與此同時,在每塊麥田布設3個地面驗證樣方(面積為0.5 m×0.5 m,位于1個航拍樣地內(nèi))。
圖1 研究區(qū)域及采樣點Fig.1 Study area and filed sampling plots
1.2.1 航拍影像獲取設備 利用大疆Mavic 2四旋翼無人機(深圳市大疆創(chuàng)新科技有限公司,中國)采集影像數(shù)據(jù),共獲取田間小麥的航拍照片144張;搭載的RGB相機(集成在Mavic 2云臺,深圳市大疆創(chuàng)新科技有限公司)分辨率為2 000萬像素,體積小、便攜,續(xù)航時間約為30 min;高精度的視覺定位系統(tǒng)確保其在全球衛(wèi)星導航系統(tǒng)信號較弱的情況下也可以精確獲取具有地理信息的航拍影像;地形跟隨功能保證其在復雜地形中安全飛行,并確保每張航拍照片覆蓋的范圍一致(盡可能減小樣品采集產(chǎn)生的誤差);機載慣性導航系統(tǒng)、全球定位系統(tǒng)和自動駕駛系統(tǒng)使無人機能夠沿著預先設計的航線飛行,并且能夠精確懸停,控制距離為6 km。
1.2.2 航拍影像及地面數(shù)據(jù)獲取 FragMAP系統(tǒng)由南通大學脆弱生態(tài)環(huán)境研究所自主開發(fā),基于SDK(software development kit)和無人機開展大范圍、長期、定點地面監(jiān)測,并進行信息提取和數(shù)據(jù)處理[14]。FragMAP由Setter和Flighter 2個安卓應用(APP)組成,其中,Setter APP主要用來設置野外工作點以及航線、航點;Flighter APP則用于控制無人機按照預定航線飛行并在航點拍照,在飛行選項下還兼?zhèn)湔{(diào)整飛行高度、速度、暫停或終止飛行任務等功能[14]。FragMAP以華為平板電腦為載體,具備多種飛行模式[14],本研究主要使用其中的Belt飛行模式進行田間小麥麥穗自動航拍。具體飛行方式為在40 m×40 m的范圍內(nèi)均勻布設16個航點,無人機在每個航點采用垂直向下的方式拍攝1張照片。飛行高度設置為2 m,飛行速度設置為5 m·s-1,到達航點后停留1 s進行拍攝,拍攝完成后停留1 s確保無人機拍攝照片時處于平穩(wěn)狀態(tài),從而保證航拍照片的質(zhì)量。具體操作詳見Yi[14]的方法。
在每塊麥田布設3個地面驗證樣方,樣方面積為0.5 m×0.5 m,記錄每個樣方內(nèi)測定的小麥穗數(shù)以及完成測定工作所需要的時間等信息。
1.3.1 影像分割 為了確保后續(xù)訓練樣本的準確性和分辨率,需要對大幅影像進行拆分。利用Python軟件將每幅航拍影像平均分割為25等份并自動編碼保存,即共獲取3 600個田間小麥航拍影像樣本。
1.3.2 訓練樣本獲取 利用LabelImg軟件標注訓練樣本中的麥穗。小麥麥穗確定的標準主要按照以下要求:具有清晰的完整麥穗;以圖像范圍內(nèi)完整影像為參考標準,麥穗具有較為完整的頭部,一般不選擇只包含麥穗尾部部分的影像作為訓練樣本,防止出現(xiàn)同一麥穗在2張影像重復辨別而導致數(shù)量高估的錯誤。將航拍影像與麥穗定位文件匹配后(Python軟件完成)導入YOLOv3的相應文件夾,做好模型訓練準備。
1.3.3 YOLOv3訓練模型 YOLOv3的主體網(wǎng)絡Darknet-53由5個殘差塊組成,每個殘差塊由多個殘差單元(Res×n)組成。通過輸入與2個基礎組件(Darknetconv2d_BN_Leaky,DBL)單元進行殘差操作構(gòu)建殘差單元(Res unit),其中,DBL單元包含卷積層(conv)、批歸一化(batch normalization,BN)和帶泄露整流激活函數(shù)(leaky relu)[26]。
標定500個訓練樣本數(shù)據(jù)集后,模型訓練處理如下:①隨機選擇200個樣本,迭代次數(shù)為1 250(I1250200);②500個訓練樣本,迭代次數(shù)為3 125(I3125500);③500個訓練樣本,迭代次數(shù)為6 250(I6250500)。
1.4.1 航拍影像面積換算 小麥株高通常為60~100 cm,利用FragMAP系統(tǒng)中Belt模式航拍并獲取小麥頂端麥穗信息(圖2),需將莖稈部分的高度去除,即無人機的航拍高度設定為2 m(h),以水平地面為基準面,計算過程中需減去小麥植株高度(h1)。航拍照片面積計算需按照h2高度和無人機的視場角進行換算(本研究所使用的無人機Mavic 2,視場角為77°),單幅航拍照片的面積計算公式如下。
圖2 無人機航拍獲取麥穗信息Fig.2 Collection of wheat ears information by UAV
式中,S為完整的單幅航拍照片所覆蓋小麥頂部的面積,(2tan38.5°×h2)為航拍照片長邊長度,(2tan38.5°×h2)×(3/4)為航拍照片寬邊長度(本研究統(tǒng)一設置航拍照片長寬比為4∶3);S′為平均分割25份后單幅影像覆蓋小麥頂部的面積;h2為無人機鏡頭至小麥頂端的距離,在本研究中將田間小麥平均高度設置為h1,取值范圍為0.60~1.00m;h為無人機以水平地面為基準面的拍攝高度。
基于地面樣方可獲得單位面積的小麥穗數(shù),依據(jù)無人機采樣和小麥株高等信息獲得單幅航拍照片覆蓋的面積。結(jié)合公式(4)得到與樣方相同面積內(nèi)自動識別得到的麥穗的數(shù)量信息,轉(zhuǎn)換公式如下。
式中,S″為地面樣方觀測面積,本研究取值為0.25 m2;γ為轉(zhuǎn)換系數(shù),因小麥平均株高(隨機在樣地內(nèi)選擇具有代表性的小麥植株5株,測定其自然狀態(tài)下的高度并計算平均值)而變化,例如當小麥株高為0.75 m時,可通過公式(3)得到h2為1.25 m,再通過公式(1)和(2)計算S′,從而確定γ為2.107。
1.4.2 統(tǒng)計分析 利用單因素方差分析(one-way ANOVA)比較傳統(tǒng)觀測方法和FY方法獲取樣本的觀測面積、觀測效率以及不同訓練樣本數(shù)量、迭代次數(shù)獲得的模型進行自動識別小麥穗數(shù)的準確率。利用線性回歸分析(linear regression analysis)檢測2種方法測定麥穗數(shù)量的相關(guān)關(guān)系,并構(gòu)建預測模型。利用R 4.0.5進行數(shù)據(jù)分析和圖形制作。利用Python完成田間小麥航拍影像拆分、訓練樣本與標注匹配、模型訓練、目標檢測以及結(jié)果檢驗。
2.1.1 觀測面積比較 與傳統(tǒng)方法相比,F(xiàn)Y方法獲取田間小麥穗數(shù)的觀測面積更大。FY方法的單個有效監(jiān)測單元面積約為2.97 m2(按照小麥株高為0.75 m計算),是傳統(tǒng)方法基本單元的12倍。按照統(tǒng)計學最低重復要求,選擇3個重復時,單條Belt航線(即1個完整的監(jiān)測單元)觀測范圍則是傳統(tǒng)方法的63倍。因此,F(xiàn)Y方法獲取麥穗信息量明顯大于傳統(tǒng)方法,代表性也更強。
2.1.2 觀測效率比較 與傳統(tǒng)方法相比,F(xiàn)Y方法能夠更為高效地獲取田間小麥麥穗信息。FY方法利用FragMAP系統(tǒng)自動規(guī)劃路徑和控制飛行,該方式獲取小麥麥穗信息(航拍照片)所需時間遠低于傳統(tǒng)方法(圖3)。而且基于FragMAP系統(tǒng)可以多次調(diào)用航線進行定點航拍,從而實現(xiàn)小麥穗數(shù)的動態(tài)監(jiān)測(包括年際間變化的長期動態(tài)監(jiān)測)。此外,F(xiàn)Y方法還具有非破壞性采集樣本的特點,可以在無人為活動干擾的情況下進行長期的動態(tài)監(jiān)測。
圖3 FY方法與傳統(tǒng)方法野外采集樣本效率比較Fig.3 Field sampling efficiency of FY and traditional methods
I1250200、I3125500和 I6250500方法獲得訓練模型后,分別輸入25幅田間小麥影像樣本(不同于構(gòu)建模型的樣本)進行自動識別,獲得檢測樣本自動識別的標示圖(圖4)。
圖4 3種訓練處理方式獲得最優(yōu)模型識別小麥麥穗的案例Fig.4 Examples of the recognition by the 3 trained models
對檢測結(jié)果統(tǒng)計分析(n=25)發(fā)現(xiàn),利用500個訓練樣本經(jīng)過6 250次迭代訓練所得到的模型自動識別小麥麥穗的準確率超過90%,顯著高于利用200個訓練樣本經(jīng)過1 250次迭代獲得模型的檢測結(jié)果(P<0.05)。準確率隨著訓練樣本數(shù)量和迭代次數(shù)呈非線性增加趨勢(圖5)。
依據(jù)航拍影像獲取的單位面積小麥穗數(shù)與地面測定值構(gòu)建相關(guān)關(guān)系(圖6),二者呈顯著的線性相關(guān)關(guān)系(R2=0.79,P<0.001)。盡管基于FY方法自動識別獲取的小麥穗數(shù)精確度較高(圖5),但是還有部分麥穗因為遮擋、角度等問題無法被垂直向下拍攝的航拍照片獲取,因此擬合曲線處于1∶1線的下方,而且隨著麥穗密度的增加這一趨勢更為明顯(圖6)。以該模型為基礎,具備成熟的無人機航拍(FragMAP)和深度學習訓練模型(YOLOv3)的前提下,通過快速獲取樣本和分析數(shù)據(jù)可以高效、快速計算大范圍的田間小麥穗數(shù),并進一步預測小麥產(chǎn)量。
圖5 訓練模型識別麥穗準確率與訓練樣本數(shù)量和迭代次數(shù)的關(guān)系Fig.5 Relationship between recognition accuracy of training models and sample number and iterations
圖6 基于地面實測與FY方法獲取數(shù)據(jù)構(gòu)建田間小麥穗數(shù)預測模型Fig.6 Prediction model based on the data collected using traditional and FY method
利用作物性狀特征準確、高效地預測農(nóng)作物產(chǎn)量是研究的焦點之一[31]。目前,基于不同傳感技術(shù)監(jiān)測農(nóng)作物生長的研究很多,也取得了不少重要的進展[8,32-34],由于沒有標準、高效率、適宜大范圍采集樣本的觀測和分析方法,導致難以進一步應用于指導種質(zhì)資源評價和田間管理。
本研究提出了一種結(jié)合無人機取樣和目標檢測技術(shù)估測田間小麥穗數(shù)的方法。不同于前期主要基于小區(qū)控制試驗或者個別樣地MOSAIC飛行并拼接等僅適于少量、部分區(qū)域的取樣方式[2,8],本方法利用FragMAP系統(tǒng)實現(xiàn)了大面積、高效、高分辨率、高頻度、定點采集樣本[14,35]。本方法充分利用無人機地形跟隨功能,采用近地面(航高統(tǒng)一設定為2 m)航拍獲取樣本的方式,既保證飛行作業(yè)安全,也確保了每幅航拍照片的覆蓋面積一致和高分辨率,從而提高結(jié)果的準確性,構(gòu)建標準化的田間小麥穗數(shù)觀測方式。在獲取足夠的標準化樣本數(shù)據(jù)(無人機航拍影像)基礎上,利用YOLOv3實現(xiàn)端到端的訓練,YOLOv3采用SOTA算法實現(xiàn)更高的檢測精度和更快的信息處理速度[36],減少模型訓練的復雜度并大幅度提高圖像處理速度。因此,在硬件滿足的條件下可以實現(xiàn)小麥穗數(shù)實時監(jiān)測的需求[27]。綜上所述,本研究利用YOLOv3能對典型田間小麥樣本進行快速檢測,并結(jié)合地面測定值構(gòu)建小麥穗數(shù)的估測模型,再結(jié)合無人機航拍影像實現(xiàn)大范圍、高效率、高時效地田間小麥穗數(shù)估測。
前期大量的研究成果難以應用于種質(zhì)資源評價和指導田間生產(chǎn)的主要原因之一是航拍照片獲取方法不具備普適性。本研究采用的FragMAP系統(tǒng)簡單易學、普適性較高,而且該系統(tǒng)的無人機飛行控制部分可以被獨立拆分出來構(gòu)建應用程序(APP)[37],即根據(jù)研究或監(jiān)測要求設定航線后,其他無人機操作人員隨時可以利用安裝在移動終端(例如手機)上的應用程序(APP)多次調(diào)用航線完成航拍作業(yè),從而實現(xiàn)高頻次、定點、協(xié)同監(jiān)測?;赮OLOv3進行田間小麥麥穗自動識別的準確性隨著訓練樣本數(shù)量和迭代次數(shù)增加而增加(在本研究測試范圍之內(nèi)),考慮到過度訓練可能產(chǎn)生變量間過度擬合,在今后的研究中應通過構(gòu)建較大的訓練樣本數(shù)據(jù)集和適當選擇迭代次數(shù)獲取更為適宜的訓練模型從而確保麥穗自動識別的精度。本研究構(gòu)建的估測模型基于3個縣區(qū)的27個取樣點樣本,未考慮小麥品種等因素,因此代表性具有局限性。在今后的研究中應該進行多地區(qū)、多品種的監(jiān)測,根據(jù)研究區(qū)構(gòu)建特定區(qū)域的模型,確保田間小麥穗數(shù)的估測精度。