鐘丹 李宗南 王思 黃平 邱霞 蔣怡
摘要:為實現(xiàn)數(shù)字果園的機器視覺系統(tǒng)快速準確識別果樹關(guān)鍵物候期,采集四川地區(qū)蘋果、杧果、石榴、柑橘4種果樹4個物候期的圖像15 000幅,按6∶2∶2的比例隨機劃分訓(xùn)練、驗證和測試數(shù)據(jù)集,訓(xùn)練VGG16、ResNet50、MobileNetV2及Swin Transformer 4個深度學(xué)習(xí)圖像分類模型,評測不同模型的精度和性能。結(jié)果表明,各模型識別物候期精度分別為98.9%、99.3%、99.7%、99.8%,其中杧果成熟期的識別誤差較大,精度分別為96.7%、98.2%、99.0%、99.5%;模型識別測試集圖像的計算量(GFLOPs)分別為15.50、4.12、0.32、15.14,識別單張圖像耗時分別為3.00ms、2.33ms、3.00ms、4.67ms。該結(jié)果可為果園嵌入式設(shè)備、服務(wù)器端的機器視覺系統(tǒng)選擇模型提供參考。
關(guān)鍵詞:果樹;物候期;深度學(xué)習(xí);圖像分類;注意力機制
中圖分類號:S66: TP391.41 文獻標識碼:A 文章編號:20955553 (2023) 11014807
Phenological phase identification of four fruit trees based on deep learning classification model
Zhong Dan, Li Zongnan, Wang Si, Huang Ping, Qiu Xia, Jiang Yi
(Institute of Remote Sensing and Digital Agriculture, Sichuan Academy of Agricultural Sciences
(Chengdu Agricultural Remote Sensing Center), Chengdu, 610066, China)
Abstract:In order to achieve rapid and accurate identification of key phenological periods of fruit trees using machine vision system in digital orchards, 15 000 images were collected from four phenological periods of four fruit trees such as apple, mango, pomegranate and citrus in Sichuan, and the training, validation and test data sets were randomly divided in a ratio of 6∶2∶2. Four deep learning classification models such as VGG16, ResNet50, MobileNetV2 and Swin Transformer were trained to evaluate the accuracy and performance of different models. The results showed that the accuracy of each model was 98.9%, 99.3%, 99.7%, 99.8%, respectively. The error of identifying phenology in maturation stage of mango was 96.7%, 98.2%, 99.0% and 99.5%, respectively. The computational complexity (GFLOPs) for model recognition on the test data were 15.50, 4.12, 0.32, and 15.14, respectively. The single image test was 3.00 ms, 2.33 ms and 3.00 ms, 4.67 ms, respectively. The results can provide reference for the selection model of machine vision system for orchard server-side and embedded edge devices.
Keywords:fruit tree; phenological phase; deep learning; image classification; self-attention mechanism
0引言
果樹物候期信息是果樹生長發(fā)育變化的重要指示器,是進行果樹標準化栽培管理的重要參考信息之一,果農(nóng)據(jù)此及時開展果樹灌溉、施肥、整形及施藥等管理,以追求果樹最優(yōu)的水果產(chǎn)量和品質(zhì)。果樹物候期受丘陵山區(qū)地形、微氣候條件、果樹品種、栽培管理等因素影響而表現(xiàn)出提前或推遲[12],在數(shù)字化管理的果園中利用機器設(shè)備采集物候期信息比人工觀測法更為標準規(guī)范且便于接入果園數(shù)字管理系統(tǒng)?;诟兄O(shè)備采集的信息估測物候期的方法包括積溫法、遙感指數(shù)法和圖像識別法3種。積溫是反映植物生長期間物候變化的重要指標[34],其模型穩(wěn)定性受作物品種、下限基點溫度等影響[56]。遙感指數(shù)法是基于長時序遙感指數(shù)與植物葉片生長衰落、花開花謝的關(guān)系識別物候期,借助影像覆蓋面廣的優(yōu)勢,該方法已成為獲取宏觀尺度物候期重要方法[710]?;趫D像識別提取物候信息主要包括長時序的指數(shù)法[11]和深度學(xué)習(xí)識別法[1214],長時序指數(shù)法通過固定點位的物候相機采集圖像,然后計算感興趣區(qū)的相對綠度指數(shù)、相對藍度指數(shù)、相對紅度指數(shù)、紅綠指數(shù)作為植被生長曲線指標,根據(jù)曲線特征識別物候期,常用于生態(tài)群落尺度的物候期識別;深度學(xué)習(xí)識別法快速準確地從圖像中提取關(guān)鍵特征,適用于更精細尺度的物候期識別[1516]。
在果樹機器視覺領(lǐng)域,為滿足嵌入式設(shè)備實時檢測分析和云計算服務(wù)的需要已開展了輕量級模型和大參數(shù)量模型的研究。張鵬程等[17]改進MobileNetV2算法并以邊緣計算的形式部署在手機上智能識別不同種類的柑橘蟲害。王卓等[18]為實現(xiàn)蘋果采摘機器人實時識別果實的需求,提出改進輕量化算法YOLOv4-CA。Ji等[19]為實現(xiàn)揀選機器人快速識別果實等級,測試基于YOLOX-Tiny的輕量級蘋果探測器算法并部署于Jetson Nano嵌入式平臺。安小松等[20]使用CNN-Transformer算法跟蹤預(yù)測柑橘運輸路線可與機器手結(jié)合實現(xiàn)柑橘實時分類。張善文等[21]基于物聯(lián)網(wǎng)和深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)對冬棗病害識別,能對物聯(lián)網(wǎng)采集的冬棗大規(guī)模視頻病害圖像進行識別。孫文杰等[22]基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)和雙向長短時記憶網(wǎng)絡(luò)(BiLSTM)提出VGGNet-BiLSTM算法模型識別桃樹葉部病害,具有較高的識別準確率。Zhang等[23]針對病害部位顏色和質(zhì)地變化對病害檢測影響大的問題,提出基于深度多尺度的雙通道卷積神經(jīng)網(wǎng)絡(luò)(DMCNN)的蘋果病害檢測物聯(lián)網(wǎng)系統(tǒng),提高了蘋果病害檢測率。劉凱[24]基于YOLOv5模型結(jié)合注意力機制改進得到SK-YOLOv5模型,設(shè)計“云-邊-端”技術(shù)模式的物聯(lián)網(wǎng)平臺網(wǎng)站為載體,對蘋果園進行墑情監(jiān)測、病害識別和果實計數(shù)等高效管理。目前,在數(shù)字果園系統(tǒng)集成中基于深度學(xué)習(xí)圖像識別法主要集中在果樹的病蟲害檢測、果實采摘和分類管理等方面,在果樹物候期識別領(lǐng)域的研究應(yīng)用相對較少。深度學(xué)習(xí)圖像識別法可以高效處理圖像數(shù)據(jù),提取物候信息,在果樹物候期自動識別領(lǐng)域具有較高的應(yīng)用潛力。
針對數(shù)字果園系統(tǒng)中嵌入式設(shè)備和服務(wù)器快速準確識別果樹物候期的需求,在四川多地采集蘋果、杧果、石榴、柑橘等果樹圖像,建立蘋果、杧果、石榴、柑橘4種果樹的4個物候期圖像數(shù)據(jù)集,選擇具有不同參數(shù)量的深度學(xué)習(xí)模型VGG16、ResNet50、MobileNetV2、Swin Transformer等進行模型訓(xùn)練和性能、精度驗證,并比較不同模型識別果樹物候期圖像的精度和效率,為嵌入式設(shè)備、服務(wù)器等選擇合適的果樹物候期識別模型提供參考。
1數(shù)據(jù)與試驗
1.1數(shù)據(jù)采集與預(yù)處理
該研究以蘋果、杧果、石榴、柑橘等果樹花期(P1)、幼果期(P2)、果實膨大期(P3)、果實成熟期(P4)等關(guān)鍵物候期分類為目標。于2021年11月—2022年12月分別在四川省的越西縣和鹽源縣、米易縣和會東縣、會理市、蒲江市等多地(圖1)使用1 200萬像素的數(shù)碼相機多角度采集蘋果、杧果、石榴、柑橘圖像共15 000張作為數(shù)據(jù)集。并將圖像數(shù)據(jù)按6∶2∶2的比例隨機分為訓(xùn)練集(9 000張)、驗證集(3 000張)和測試數(shù)據(jù)集(3 000張),果樹不同時期圖像樣本如圖2所示。
P3時期的蘋果和石榴圖像在顏色和形狀上有較多相似;P3和P4時期的杧果圖像均套袋且背景有相似雜草。為保證數(shù)據(jù)訓(xùn)練的網(wǎng)絡(luò)能夠具有很好的魯棒性,訓(xùn)練集和驗證集用于調(diào)整模型參數(shù),測試集評估模型在最佳參數(shù)下的性能。
為簡化數(shù)據(jù)量計算,加快網(wǎng)絡(luò)模型訓(xùn)練的速度,在滿足計算機提取圖像特征的前提下,將采集的圖像數(shù)據(jù)預(yù)處理為360像素×480像素的圖像。
1.2試驗設(shè)計
該研究通過參數(shù)量分別為134.32M、25.56M、2.24M、86.76M的VGG16、ResNet50、MobileNet V2和Swin Transformer等神經(jīng)網(wǎng)絡(luò)模型對不同物候期圖像分類來實現(xiàn)果樹物候期識別。選擇常用的VGG16和ResNet50作為參考模型,輕量級的代表MobileNet V2和加入注意力機制的Swin Transformer作為試驗?zāi)P蛯Σ杉降母髌趫D像進行分類以實現(xiàn)物候期識別,以圖像分類評價指標作為果樹物候期識別指標。
1.2.1模型運行環(huán)境
運行環(huán)境的硬件配置主要包括R740服務(wù)器、64 GB內(nèi)存、Tesla V100GPU(顯存16GB、CUDA核5 120個)。軟件配置主要為Ubuntu18.04操作系統(tǒng)、CUDA11.1、深度學(xué)習(xí)框架為Pytorch1.8。
1.2.2訓(xùn)練參數(shù)設(shè)置
設(shè)置圖像分類模型基本參數(shù),批處理大小bitch size為32、image size為224,模型訓(xùn)練步驟如下。
1)? 構(gòu)建VGG16、ResNet50、MobileNetV2、Swin Transformer網(wǎng)絡(luò)框架,表1為模型基本參數(shù)設(shè)置。VGG16、ResNet50和MobileNetV2的學(xué)習(xí)率采用隨機梯度下降算法。Swin Transformer采用帶權(quán)重衰減機制的自適應(yīng)算法,對學(xué)習(xí)率先預(yù)熱再下降。
2) 分別設(shè)置初始學(xué)習(xí)率為0.000 01、0.000 1、0.001、0.01,epoch為100,對預(yù)處理后訓(xùn)練集和驗證集進行迭代訓(xùn)練,以訓(xùn)練集損失函數(shù)收斂情況確定模型最佳學(xué)習(xí)率。Swin Transformer、MobileNetV2、ResNet50、VGG16模型在其他參數(shù)不變的情況下,采用不同學(xué)習(xí)率進行反復(fù)訓(xùn)練,得到訓(xùn)練集損失值如圖3所示。
Swin Transformer 模型學(xué)習(xí)率為0.000 01和0.000 1時均迭代到15次后損失值穩(wěn)定在1.3左右,學(xué)習(xí)率為0.001和0. 01時不收斂。MobileNetV2模型學(xué)習(xí)率為0.000 01時不收斂;在0.000 1時,迭代到40次后損失值穩(wěn)定在1.0以下;學(xué)習(xí)率為0.001和0.01時,均迭代到20次后損失值保持在0.2以下。ResNet50模型均迭代到30次左右收斂,穩(wěn)定損失值與學(xué)習(xí)率成反比,學(xué)習(xí)率為0.01時迭代到30次后損失值保持在0.2左右。VGG16模型在學(xué)習(xí)率為0.000 01和0.000 1時不收斂;學(xué)習(xí)率為0.001,迭代到30次后損失值降至0.5左右;學(xué)習(xí)率為 0.01,迭代到30次時損失值穩(wěn)定在0.2左右。針對該試驗數(shù)據(jù),VGG16、ResNet50、MobileNetV2、模型最佳學(xué)習(xí)率為0.01,Swin Transformer模型的較優(yōu)學(xué)習(xí)率為0.000 1。
3) 不同模型分別設(shè)置最佳學(xué)習(xí)率對測試集進行測試,評估4個模型對果樹物候期識別的效果。
1.2.3試驗結(jié)果評價
采用圖像分類精度和分類效率評價果樹物候期識別效果。果樹物候期識別精度以平均精度(Average Precision,AP)表示,具體計算公式如式(1)所示。
AP =2×TP/2×FP +FN +FP×100%(1)
式中: TP ———模型分類出正確的物候期圖像數(shù);
FP ———模型分類出錯誤的物候期圖像數(shù);
FN ———模型未分類出的物候期圖像數(shù)。
圖像分類效率用浮點運算數(shù)即計算量(Floatingpoint operations, FLOPs)和分類一張圖像所需時長表示。FLOPs是浮點運算次數(shù),可以用來衡量模型復(fù)雜度,常用每秒十億次的浮點運算(GFLOPs)表示。
2結(jié)果與分析
2.1物候期圖像分類精度
VGG16、ResNet50、MobileNetV2、Swin Transformer各模型均能較準確地對4種果樹物候期圖像分類(表2),總體分類平均精度分別為 98.9%、99.3%、99.7%、99.8%。杧果P4期的圖像分類精度最差,各模型分別為96.7%、98.2%、99.0%、99.5%,可知MobileNetV2和Swin Transformer模型對較難識別的杧果P4期圖像有較好地分類效果。
試驗發(fā)現(xiàn),P3期的蘋果圖像易錯分類為P3或者P4期的石榴圖像;杧果P3和P4期圖像出現(xiàn)互相錯分類情況(圖4)。模型的分類混淆矩陣如圖5所示。由圖5可知,VGG16、ResNet50、MobileNetV2和Swin Transformer模型將P3期的蘋果圖像判別為P3或者P4期的石榴圖像數(shù)分別為5、0、0、1;P3期杧果判別為P4期杧果的圖像數(shù)為4、1、1、1;P4期杧果判別為P3期杧果的圖像數(shù)為5、2、1、1。與參考模型相比,MobileNetV2和Swin Transformer對4類果樹物候期圖像的錯誤分類數(shù)更少。
2.2物候期圖像分類效率
不同模型測試參數(shù)如表3所示,VGG16、ResNet50、MobileNetV2模型隨著參數(shù)量減少,模型總計算量逐漸減少,其中MobileNetV2計算量出現(xiàn)大幅減少;VGG16、ResNet50、MobileNetV2模型單張圖像分類時間相近,分別為3ms、2.33ms、3.00ms。Swin Transformer加入自注意力機制增加了計算復(fù)雜度,用時相應(yīng)增加,單張圖像分類時間為4.67ms,但也能滿足實際生產(chǎn)中對物候期識別的實用性要求。
綜上所述,MobileNetV2和Swin Transformer模型能夠有效提升柑橘、石榴、杧果、蘋果4種果樹物候期圖像的分類精度,在分類效率方面也能夠較好地滿足實際生產(chǎn)的需求。MobileNetV2在減小大量參數(shù)的同時能夠保持較高的精度,是4類果樹物候期識別效果較好的輕量型模型。Swin Transformer引入注意力機制可對有較多相似特征的圖像進行細微差別區(qū)分,達到最高分類精度,但是其參數(shù)量較大,對設(shè)備內(nèi)存要求較高。
3討論
3.1應(yīng)用圖像識別果樹物候期的方法選擇
基于深度學(xué)習(xí)圖像識別物候期的研究主要采用目標檢測法、多模態(tài)特征法和圖像分類法。目標檢測需要對圖像中局部細粒度特征標注,通過檢測圖像數(shù)據(jù)中的芽、葉、花、果等器官來識別物候期。朱永寧等[25]采用卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)檢測枸杞花和果實,識別枸杞花期和果期。許增等[15]使用改進的Minor-YOLOv3-dense模型檢測識別幼果期、膨大期和成熟期的蘋果用以判斷蘋果物候期。多模態(tài)特征法主要就是通過圖像與文本特征結(jié)合識別物候期,以提高物候識別精度,陳果[26]設(shè)計MultiModalNet多模態(tài)網(wǎng)絡(luò)模型,融合從圖像數(shù)據(jù)和氣象數(shù)據(jù)得到的多模態(tài)特征,實現(xiàn)對白茶物候期的識別。圖像分類法不對圖像局部細粒度特征做標簽,基于圖像整體特征進行分類,崔曉暉等[27]基于 ResNet50殘差神經(jīng)網(wǎng)絡(luò)引入了注意力機制,識別林木關(guān)鍵物候期。綜合前人研究結(jié)果,利用圖像分類法識別特征差別大的果樹物候期可行性較高。該研究采用圖像分類法識別4種果樹的4個物候期,由于4個物候期的特征差別大且數(shù)據(jù)質(zhì)量穩(wěn)定,取得了較高的識別精度,能滿足果樹物候期識別要求。
3.2果樹物候期識別的后續(xù)工作
該研究以蘋果、杧果、石榴、柑橘4種果樹物候期圖像為研究對象,收集15 000張圖片并構(gòu)建了4類果樹4個完整物候期圖像數(shù)據(jù)集,該數(shù)據(jù)具有質(zhì)量穩(wěn)定、圖像特征差異明顯等特點。在服務(wù)器上訓(xùn)練經(jīng)典圖像分類模型VGG16、ResNet50、MobileNetV2和Swin Transformer識別果樹物候期圖像,對比模型訓(xùn)練性能和精度,優(yōu)選Swin Transformer和MobileNetV2作為果園機器視覺系統(tǒng)集成模型。但是未在嵌入式端對優(yōu)選模型進行測試,后續(xù)將測試其在移動硬件平臺上的實際應(yīng)用效果。
模型訓(xùn)練時,使用穩(wěn)定的高質(zhì)量數(shù)據(jù)訓(xùn)練模型,模型可能會過度依賴訓(xùn)練數(shù)據(jù)導(dǎo)致實際應(yīng)用中表現(xiàn)不佳,后續(xù)將采集多樣性數(shù)據(jù)測試模型的抗干擾性和泛化能力。測試發(fā)現(xiàn)P3時期的蘋果和石榴易出現(xiàn)錯誤分類,為避免具有相似特征的不同種類果樹的物候期誤判,后續(xù)考慮按不同種類果樹訓(xùn)練物候期識別模型。
研究結(jié)果僅對蘋果、杧果、石榴、柑橘4類果樹的4個物候期識別試驗得出,需進一步在多種類果樹更小時間粒度的物候期識別上測試以得到實用性更強的結(jié)果。后續(xù)考慮定點安置延時相機采集更加規(guī)范統(tǒng)一的時序圖像,開展深度學(xué)習(xí)模型識別特征相似的果樹時序物候圖像的研究,并與物聯(lián)網(wǎng)氣象數(shù)據(jù)、專家文本信息等進行多模態(tài)特征融合以提高更小時間粒度的果樹物候期識別精度。
4結(jié)論
該研究使用不同參數(shù)量模型VGG16、ResNet50、MobileNetV2和Swin Transformer對蘋果、杧果、石榴、柑橘4種果樹的4個物候期進行自動識別,評測不同模型的精度和性能,為果園嵌入式設(shè)備、服務(wù)器端的機器視覺系統(tǒng)選擇模型提供參考。
1)? 通過數(shù)據(jù)集測試各模型均能較準確地識別4種果樹的物候期,總體平均精度分別為 98.9%、99.3%、99.7%、99.8%;在錯誤分類較多的杧果P4期,各模型分別為96.7%、98.2%、99.0%、99.5%,可知MobileNetV2和Swin Transformer模型對4類果樹物候期圖像有較高的分類精度,滿足果園機器視覺系統(tǒng)對集成模型精度的要求。
2)? VGG16、ResNet50、MobileNetV2、Swin Transformer模型對測試集單張圖像測試時間分別為3ms、2.33ms、3.00ms、4.67ms,均能滿足果樹物候期識別的應(yīng)用要求。綜上,Swin Transformer分類精度最高,但是參數(shù)量較大,對設(shè)備內(nèi)存要求較高,可作為果園機器視覺系統(tǒng)服務(wù)器端模型;MobileNetV2作為輕量模型在減小大量參數(shù)的同時能夠保持較高的精度,可作為嵌入式設(shè)備端模型。
參考文獻
[1]Jiang L L, Wang S P, Meng F D, et al. Relatively stable response of fruiting stage to warming and cooling relative to other phenological events [J]. Ecology, 2016, 97(8): 1961-1969.
[2]李婷婷, 郭增長, 馬超. 中國第二、三級階梯地形過渡帶山前植被物候時空變化探析[J]. 地理研究, 2022, 41(11): 3000-3020.Li Tingting, Guo Zengzhang, Ma Chao. Spatiotemporal changes of piedmont phenology in the transitional zone between the second and third steps, China [J]. Geographical Research, 2022, 41(11): 3000-3020.
[3]周祎鳴, 張瑩, 田曉華, 等. 基于積溫的文冠果開花物候期預(yù)測模型的構(gòu)建[J]. 北京林業(yè)大學(xué)學(xué)報, 2019, 41(6): 62-74.Zhou Yiming, Zhang Ying, TianXiaohua, et al. Establishment of the flowering phenological model of Xanthoceras sorbifolium based on accumulated temperature [J]. Journal of Beijing Forestry University, 2019, 41(6): 62-74.
[4]胡園春, 安廣池, 張越, 等. 基于積溫的棗莊地區(qū)石榴始花期預(yù)測模型初探[J]. 山東農(nóng)業(yè)大學(xué)學(xué)報, 2021, 52(4): 567-570.Hu Yuanchun, An Guangchi, Zhang Yue, et al. Preliminary study on prediction model of pomegranate flowering date in Zaozhuang city based on accumulated temperature [J]. Journal of Shandong Agricultural University, 2021, 52(4): 567-570.
[5]欒青, 郭建平, 馬雅麗, 等. 基于線性生長假設(shè)的作物積溫模型穩(wěn)定性比較[J]. 中國農(nóng)業(yè)氣象, 2020, 41(11): 695-706.Luan Qing, Guo Jianping, Ma Yali, et al. Comparison of models stability about integrated temperature based on linear hypotheses [J]. Chinese Journal of Agrometeorology, 2020, 41(11): 695-706.
[6]姜會飛, 郭勇, 張玉瑩, 等. 不同下限基點溫度對積溫模型模擬效果的影響[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報, 2018, 23(5): 131-141.Jiang Huifei, Guo Yong, Zhang Yuying, et al. Impact of base temperature on the growing degree-day and simulation effect of GDD model [J]. Journal of China Agricultural University, 2018, 23(5): 131-141.
[7]Wei J, Li Z, Peng Y, et al. MODIS Collection 6.1 aerosol optical depth products over land and ocean: Validation and comparison [J]. Atmospheric Environment, 2019, 201: 428-440.
[8]Zhang X, Liu L, Liu Y, et al. Generation and evaluation of the VIIRS land surface phenology product [J]. Remote Sensing of Environment, 2018, 216: 212-229.
[9]王敏鈺, 羅毅, 張正陽, 等. 植被物候參數(shù)遙感提取與驗證方法研究進展[J]. 遙感學(xué)報, 2022, 26(3): 431-455.Wang Minyu, Luo Yi, Zhang Zhengyang, et al. Recent advances in remote sensing of vegetation phenology: Retrieval algorithm and validation strategy [J]. National Remote Sensing Bulletin, 2022, 26(3): 431-455.
[10]Ikasari I H, Ayumi V, Fanany M I, et al. Multiple regularizations deep learning for paddy growth stages classification from LANDSAT-8 [C]. 2016 International Conference on Advanced Computer Science and Information Systems (ICACSIS). IEEE, 2016: 512-517.
[11]周玉科. 基于數(shù)碼照片的植被物候提取多方法比較研究[J]. 地理科學(xué)進展, 2018, 37(8): 1031-1044.Zhou Yuke. Comparative study of vegetation phenology extraction methods based on digital images [J]. Progress in Geography, 2018, 37(8): 1031-1044.
[12]Le Cun Y, Boser B, Denker J S, et al. Backpropagation applied to handwritten zip code recognition [J]. Neural computation, 1989, 1(4): 541-551.
[13]Kamilaris A, Prenafeta-Boldú F X. Deep learning in agriculture: A survey [J]. Computers and Electronics in Agriculture, 2018, 147: 70-90.
[14]Richardson A D, Hufkens K, Milliman T, et al. Tracking vegetation phenology across diverse North American biomes using PhenoCam imagery [J]. Scientific Data, 2018, 5(1): 1-24.
[15]許增, 王志偉, 胡桃花, 等. 改進的輕量級YOLO在蘋果物候期自動觀測中的研究[J]. 計算機工程與設(shè)計, 2021, 42(12): 3478-3484.Xu Zeng, Wang Zhiwei, Hu Taohua, et al. Improved lightweight YOLO in automatic observation of apple phenology [J]. Computer Engineering and Design, 2021, 42(12): 3478-3484.
[16]Wang X A, Tang J, Whitty M. DeepPhenology: Estimation of apple flower phenology distributions based on deep learning [J]. Computers and Electronics in Agriculture, 2021, 185: 106123.
[17]張鵬程, 余勇華, 陳傳武, 等. 基于改進MobileNetV2的柑橘害蟲分類識別方法[J]. 華中農(nóng)業(yè)大學(xué)學(xué)報, 2023(3): 161-168.Zhang Pengcheng, Yu Yonghua, Chen Chuanwu, et al. A classification and recognition method for citrus insect pests based on improved MobileNetV2 [J]. Journal of Huazhong Agricultural University, 2023(3): 161-168.
[18]王卓, 王健, 王梟雄, 等. 基于改進YOLO v4的自然環(huán)境蘋果輕量級檢測方法[J]. 農(nóng)業(yè)機械學(xué)報, 2022, 53(8): 294-302.Wang Zhuo, Wang Jian, Wang Xiaoxiong, et al. Lightweight real-time apple detection method based on improved YOLO v4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 294-302.
[19]Ji W, Pan Y, Xu B, et al. A real-time apple targets detection method for picking robot based on Shufflenetv2-YOLOX [J]. Agriculture, 2022, 12(6): 856.
[20]安小松, 宋竹平, 梁千月, 等. 基于CNN-Transformer的視覺缺陷柑橘分選方法[J]. 華中農(nóng)業(yè)大學(xué)學(xué)報, 2022, 41(4): 158-169.An Xiaosong, Song Zhuping, Liang Qianyue, et al. A CNN-Transformer based method for sorting citrus with visual defects [J]. Journal of Huazhong Agricultural University, 2022, 41(4): 158-169.
[21]張善文, 黃文準, 尤著宏. 基于物聯(lián)網(wǎng)和深度卷積神經(jīng)網(wǎng)絡(luò)的冬棗病害識別方法[J]. 浙江農(nóng)業(yè)學(xué)報, 2017, 29(11): 1868-1874.Zhang Shanwen, Huang Wenzhun, You Zhuhong. Recognition method of winter jujube diseases based on Internet of Things and deep convolutional neural network [J]. Acta Agriculturae Zhejiangensis, 2017, 29(11): 1868-1874.
[22]孫文杰, 牟少敏, 董萌萍, 等. 基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)的桃樹葉部病害圖像識別[J]. 山東農(nóng)業(yè)大學(xué)學(xué)報(自然科學(xué)版), 2020, 51(6): 998-1003.Sun Wenjie, Mu Shaomin, Dong Mengping, et al. Image recognition of peach leaf diseases based on convolutional recurrent neural network [J]. Journal of Shandong Agricultural University (Natural Science Edition), 2020, 51(6): 998-1003.
[23]Zhang W, Zhou G, Chen A, et al. Deep multi-scale dual-channel convolutional neural network for Internet of Things apple disease detection [J]. Computers and Electronics in Agriculture, 2022, 194: 106749.
[24]劉凱. 基于“云—邊—端”的果園信息監(jiān)測平臺研究[D]. 長春: 吉林大學(xué), 2022.Liu Kai. Research on orchard information monitoring platform based on “cloud-side-end” [D]. Changchun: Jilin University, 2022.
[25]朱永寧, 周望, 楊洋, 等. 基于Faster R-CNN的枸杞開花期與果實成熟期識別技術(shù)[J]. 中國農(nóng)業(yè)氣象, 2020, 41(10): 668-677.Zhu Yongning, Zhou Wang, Yang Yang, et al. Automatic identification technology of Lycium barbarum flowering period and fruit ripening period based on Faster R-CNN [J]. Chinese Journal of Agrometeorology, 2020, 41(10): 668-677.
[26]陳果. 基于數(shù)據(jù)增強和多模態(tài)特征的茶樹物候期識別模型設(shè)計[D]. 重慶: 重慶大學(xué), 2020.Chen Guo. Design of tea plant phenology recognition model based on data augment and multi-modal feature [D]. Chongqing: Chongqing University, 2020.
[27]崔曉暉, 陳民, 陳志泊, 等. 基于注意力機制的林木物候期識別方法[J]. 中南林業(yè)科技大學(xué)學(xué)報, 2021, 41(7): 11-19.Cui Xiaohui, Chen Min, Chen Zhibo, et al. Forest phenology recognition method based on attention mechanism [J]. Journal of Central South University of Forestry & Technology, 2021, 41(7): 11-19.