殷健凱 虞冬蕾 李梓儀 郭薇 朱浩
摘 ?要:作物病害是對糧食安全的主要威脅,但由于缺乏必要的基礎設施,在世界許多地方,很難迅速查明疾病。深度學習使全球智能手機普及率不斷提高和計算機視覺的最新發(fā)展相結合,為智能手機輔助疾病診斷鋪平了道路。該文使用在受控條件下收集的54 306張患病和健康植物月季花圖像的公共數(shù)據(jù)集,我們在TensorFlow平臺上訓練了一個深度卷積神經(jīng)網(wǎng)絡,以識別月季花的多種疾病。經(jīng)過訓練的模型在保留的測試集上達到了99.35%的精度,證明了這種方法的可行性。在從可信任的在線來源收集的一組圖像上測試模型(即在不同于用于訓練模型的圖像的條件下拍攝)時,模型仍可達到31.4%的準確性。盡管此準確度比基于隨機選擇的準確度高得多(2.6%),但仍需要更多樣化的訓練數(shù)據(jù)集來提高總體準確度??傮w而言,在越來越大且可公開獲得的圖像數(shù)據(jù)集上,訓練深度學習模型的方法為大規(guī)模的全球智能手機輔助作物病害診斷提供了一條清晰的道路。
關鍵詞:深度學習 ?月季花 ?疾病檢測 ?黑斑病
中圖分類號:TP391 ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼:A ? ? ? ? ? ? ? ? ? 文章編號:1672-3791(2020)11(b)-0027-06
Abstract: Crop diseases are the main threat to food security, but due to the lack of necessary infrastructure, it is difficult to quickly identify diseases in many parts of the world. Deep learning has combined the global smartphone penetration rate with the latest developments in computer vision, paving the way for smartphone-assisted disease diagnosis. This article uses 54306 public data sets of diseased and healthy plant rose images collected under controlled conditions. We trained a deep convolutional neural network on the TensorFlow platform to identify various diseases of rose flowers. The trained model achieved 99.35% accuracy on the retained test set, which proved the feasibility of this method. When testing the model on a set of images collected from a trusted online source (ie, taken under different conditions than the images used to train the model), the model can still achieve 31.4% accuracy. Although this accuracy is much higher than that based on random selection (2.6%), a more diverse training data set is still needed to improve the overall accuracy. In general, the method of training deep learning models on increasingly large and publicly available image data sets provides a clear path for large-scale global smartphone-assisted crop disease diagnosis.
Key Words: Deep learning; Chinese rose; Disease detection; Black spot
月季花是4種主要切花中的第一大類,是薔薇科的多年生木本花,其具有開花時間長、色彩豐富和植物種類繁多的優(yōu)點。它受到所有國家人民的喜愛。盡管它經(jīng)歷了長時間的重復雜交過程,但是在玫瑰花型、顏色和氣味上取得了許多突破,一些玫瑰屬月季花品種仍然非常容易受到疾病的影響,導致疾病和嚴重的經(jīng)濟損失。以黑斑病為代表的月季花疾病在大多數(shù)玫瑰屬月季花產(chǎn)區(qū)經(jīng)常發(fā)生,并且極為有害,嚴重影響了其裝飾價值和產(chǎn)量[1]。
為了防止月季花因病害而損失,已經(jīng)開發(fā)了各種防護劑。在過去的10年里,殺蟲劑在被越來越多地廣泛采用。從歷史上看,疾病識別一直得到農(nóng)業(yè)推廣組織或其他機構的支持。最近,利用全球日益增長的互聯(lián)網(wǎng)普及率,通過手機等電子設備對月季話的圖像進行分析,從而得到診斷結果,稱為植物疾病診斷的新趨勢[2]。
Pascal VOC挑戰(zhàn)賽和最近的基于ImageNet數(shù)據(jù)集的大規(guī)模視覺識別挑戰(zhàn)賽(ILSVRC)已經(jīng)被廣泛用作計算機視覺中許多可視化相關問題的基準,包括對象分類。2012年,一個大型的深層卷積神經(jīng)網(wǎng)絡在將圖像分類到1 000個可能的類別時達到了前5名的16.4%的誤差。在接下來的3年里,深卷積神經(jīng)網(wǎng)絡的各種進展將錯誤率降低到3.57%。雖然訓練大型神經(jīng)網(wǎng)絡可能非常耗時,但訓練后的模型可以非??焖俚貙D像進行分類,這也使其適用于智能手機上的消費者應用。
智能手機是非常新穎的識別植物疾病的方法,它們具有巨大的計算能力、高分辨率的顯示屏,以及大量的內(nèi)置配件,如高級高清攝像頭。據(jù)廣泛估計,到2020年,全球?qū)⒂?0億至60億部智能手機[3]。2015年底,全球已有69%的人口接入移動寬帶覆蓋,2015年移動寬帶普及率達到47%,自2007年以來增長了12倍。智能手機的廣泛普及、高清攝像頭和移動設備中的高性能處理器的綜合因素導致了這樣一種情況,如果技術可行,基于自動圖像識別的疾病診斷可以以前所未有的規(guī)模提供。在這里,我們使用深度學習的方法證明了技術上的可行性,該方法利用了公開提供的月季花疾?。ɑ蚪】担┑?4 306張圖像。圖1中可以看到每對作物病害的一個例子。
1 ?實驗方法
1.1 數(shù)據(jù)集
我們分析了54 306張月季花葉片的圖像,這些圖像分配了類別標簽。每個類別標簽都是一個作物-病害對,我們試圖僅給出植物葉片的圖像來預測作物-病害對。圖1顯示了來自PlantVillage數(shù)據(jù)集的每個作物-病害對的一個示例。在該文描述的所有方法中,我們將圖像調(diào)整到256像素×256像素,并對這些縮小后的圖像進行模型優(yōu)化和預測。
1.2 性能測試指標
為了了解我們的方法將如何處理新的未見數(shù)據(jù),并跟蹤我們的任何方法是否過度擬合,我們在整個訓練-測試集拆分范圍內(nèi)運行所有實驗,即80-20(整個數(shù)據(jù)集的80%用于訓練,20%用于測試),60-40(整個數(shù)據(jù)集的60%用于訓練,40%用于測試),50-50(用于訓練的整個數(shù)據(jù)集的50%,用于測試的50%),40-60(用于訓練的整個數(shù)據(jù)集的50%,用于測試的50%),60%用于測試),最后是20-80(整個數(shù)據(jù)集的20%用于訓練,80%用于測試)。必須注意的是,在許多情況下,植物村數(shù)據(jù)集具有相同葉子的多個圖像(取自不同的方向),并且我們有54 306個圖像中41 112個圖像的這種情況的映射;在所有這些測試序列拆分期間,我們確保相同葉子的所有圖像要么在訓練集,要么在測試集中。此外,對于每個實驗,我們計算了平均精確度、平均召回率、平均F1得分,以及整個訓練周期內(nèi)(在每個時代結束時)的總體準確率。我們使用最終的平均F1分數(shù)來比較所有不同的實驗配置的結果。
1.3 實驗方法
我們評估了深卷積神經(jīng)網(wǎng)絡對上述分類問題的適用性。我們關注兩個流行的架構,即AlexNet和GoogLeNet,它們是在針對ImageNet數(shù)據(jù)集的ILSVRC競賽設計的。
AlexNet架構遵循與20世紀90年代以來的LeNet-5架構相同的設計模式。LENET-5架構變體通常是一組堆疊的卷積層,其后是一個或多個完全連接的層。卷積層可選地可以緊隨其后具有歸一化層和池化層,并且網(wǎng)絡中的所有層通常具有與其相關聯(lián)的RELU非線性激活單元。AlexNet包含5個卷積層,然后是3個完全連接的層,最后以softMax層結束[4]。圖2為AlexNet架構圖。
另一方面,GoogLeNet架構是一個更深更廣的架構,有22層,同時網(wǎng)絡中的參數(shù)數(shù)量(500萬個參數(shù))仍然比AlexNet(6 000萬個參數(shù))少得多。以初始模塊的形式應用“網(wǎng)絡中的網(wǎng)絡”體系結構是GoogLeNet體系結構的關鍵特征。圖3位GoogLeNet架構圖。
該文選擇TensorFlow為實驗的實現(xiàn)平臺,我們通過在一種情況下從頭開始訓練模型,然后通過使用轉(zhuǎn)移學習調(diào)整已經(jīng)訓練的模型(在ImageNet數(shù)據(jù)集上訓練)來分析這兩種體系結構在PlantVillage數(shù)據(jù)集上的性能。在遷移學習的情況下,我們不限制其余層的學習,相反,在AlexNet的情況下,我們僅重置層fc8的權重;在GoogLeNet的情況下,類似的,我們不限制其余層的學習,而是僅重置Lost{1,2,3}分類器層的權重。
綜上所述,我們總共有60種實驗配置,它們根據(jù)以下參數(shù)而有所不同。這60個實驗中的每一個總共運行30個epoch,其中一個epoch被定義為特定神經(jīng)網(wǎng)絡已經(jīng)完成整個訓練集的完整遍的訓練迭代的次數(shù)。選擇30個紀元是基于經(jīng)驗觀察,即在所有這些實驗中,學習總是在30個epoch內(nèi)很好地收斂。
2 ?實驗結果
首先,我們注意到在具有38個類別標簽的數(shù)據(jù)集上,隨機猜測平均只能獲得平均2.63%的總體準確性。在我們的所有實驗配置中,包括圖像數(shù)據(jù)的3種可視化表示,我們在PlantVillage數(shù)據(jù)集上獲得的總體準確率從85.53%~99.34%,因此對于類似的預測問題顯示出深度學習方法的強大前景。表1顯示了我們所有實驗配置的平均F1分數(shù)、平均精確度、平均召回率和總體準確率。所有的實驗配置總共運行30個歷元,并且在學習速率第一步下降之后,它們幾乎一致地收斂。
在30個epoch結束時,不同實驗配置的平均F1得分。表1中的每個單元格代表相應實驗配置的平均F1分數(shù)(平均精確度、平均召回率、總體準確度)。為了解決過度擬合的問題,我們改變了測試集與訓練集的比率,并觀察到即使在僅對20%的數(shù)據(jù)進行訓練而在其余80%的數(shù)據(jù)上測試訓練模型的極端情況下,在GoogLeNet中,該模型也實現(xiàn)了98.21%的總體準確率(平均F1分數(shù)為0.982 0)。正如預期的那樣,如果我們繼續(xù)增加測試集與訓練集的比率,AlexNet和GoogLeNet的整體性能確實會下降(見圖4,但性能的下降并不像我們預期的那樣嚴重,如果模型確實過度擬合的話[5]。圖4還顯示,驗證損失和訓練損失之間沒有分歧,證實了過度擬合并不是我們在所有實驗中獲得的結果的貢獻者[6]。
在AlexNet和GoogLeNet架構中,GoogLeNet的表現(xiàn)一直好于AlexNet(見圖5),基于訓練方法,遷移學習總是產(chǎn)生更好的結果4(B),這兩個都是預期的[7]。
當我們保持其余實驗配置不變時,數(shù)據(jù)集的3個版本(顏色、灰度和分段)在所有實驗中顯示出性能的特征變化。在數(shù)據(jù)集的彩色版本的情況下,模型執(zhí)行得最好。在設計實驗時,我們擔心神經(jīng)網(wǎng)絡可能只學會提取與照明條件相關的固有偏差。因此,我們用同一數(shù)據(jù)集的灰度版本進行了實驗,以測試該模型在缺乏顏色信息的情況下的適應性,以及它學習特定作物和疾病典型的更高級別結構模式的能力。正如預期的那樣,與在數(shù)據(jù)集的彩色版本上進行的實驗相比,性能確實有所下降,但即使在性能最差的情況下,觀察到的平均F1分數(shù)也是0.852 4(總體準確率為85.53%)。還準備了整個數(shù)據(jù)集的分割版本,以調(diào)查圖像背景在整體性能中的作用,并且如圖所示,使用分割圖像的模型的性能始終好于使用灰度圖像的模型,但略低于使用彩色圖像的模型的性能[8]。
最后,雖然這些方法在受控環(huán)境中收集的PlantVillage數(shù)據(jù)集上獲得了出色的結果,但我們也評估了該模型在從可信的在線來源(如學術農(nóng)業(yè)推廣服務)采樣的圖像上的性能。此類圖像無法大量獲得,使用從Bing Image Search自動下載與我們其中一人(MS)的可視驗證步驟相結合,我們獲得了121張圖像的小型驗證數(shù)據(jù)集(有關該過程的詳細說明,請參閱補充材料)。通過使用GoogLeNet訓練的模型,我們從38個可能的類別標簽中成功地預測了正確的類別標簽(即月季和病害信息),總體準確率為31.40%。我們注意到,隨機分類器的平均準確率僅為2.63%。當提供特定圖像所屬作物的信息時,準確率提高到47.93%。在所有圖像中,52.89%的情況下,正確的類別都在預測的前5名中[9]。
3 ?結語
該文中,我們利用深度卷積神經(jīng)網(wǎng)絡結構,我們在植物葉片圖像上訓練了一個模型,目的是在以前沒有見過的圖像上對作物種類和病害的存在和識別進行分類。在包含54 306幅圖像的PlantVillage月季花數(shù)據(jù)集中,99.35%的最高準確性證明了這一目標的實現(xiàn)。因此,在沒有任何特征工程的情況下,該模型從1 000幅圖像中的993幅圖像中的38個可能類別中正確地對月季花和病害進行了分類。重要的是,雖然模型的訓練需要大量時間(在高性能GPU集群計算機上需要數(shù)小時),但分類本身非常快(在CPU上不到1 s),因此可以很容易地在智能手機上實現(xiàn)。這為在全球范圍內(nèi)實現(xiàn)智能手機輔助的作物病害診斷提供了一條清晰的道路。
但是,在現(xiàn)階段有一些限制需要在今后的工作中加以解決。例如,當在與用于訓練的圖像不同的條件下拍攝的一組圖像上進行測試時,模型的準確率大大降低,為31.4%。值得注意的是,這個準確率遠遠高于基于隨機選擇38個類的準確率(2.6%),但仍然需要更多樣化的訓練數(shù)據(jù)集來提高準確率。我們目前的結果表明,僅有更多(和更多可變的)數(shù)據(jù)將足以顯著提高精度,相應的數(shù)據(jù)收集工作正在進行中。
參考文獻
[1] 劉建偉,劉媛,羅雄麟.深度學習研究進展[J].計算機應用研究,2014(7):1921-1930,1942.
[2] 劉瑞峰,劉強,張非亞,等.月季響應黑斑病的早期差異表達基因分析[J].園藝學報,2015,42(4):731-740.
[3] LIU Ruifeng,LIU Qiang,ZHANG Feiya,et al. The Analysis of Differential Expression Genes for Rose Early Responding to Black-spot Disease[J]. Acta Horticulturae Sinica,2015,42(4):731-740.
[4] 孫紅,李松,李民贊,等.農(nóng)業(yè)信息成像感知與深度學習應用研究進展[J].農(nóng)業(yè)機械學報,2020(5):1-17.
[5] 曹現(xiàn)剛,薛禎也.基于遷移學習的GoogLenet煤矸石圖像識別[J].軟件導刊,2019,18(12):183-186.
[6] 鄭一力,張露.基于遷移學習的卷積神經(jīng)網(wǎng)絡植物葉片圖像識別方法[J].農(nóng)業(yè)機械學報,2018,49(S1):354-359.
[7] 范麗麗,趙宏偉,趙浩宇,等.基于深度卷積神經(jīng)網(wǎng)絡的目標檢測研究綜述[J].光學精密工程,2020,28(5):1152-1164.
[8] 莊福振,羅平,何清,等.遷移學習研究進展[J].軟件學報,2015(1):26-39.
[9] 張帥,淮永建.基于分層卷積深度學習系統(tǒng)的植物葉片識別研究[J].北京林業(yè)大學學報,2016,38(9):108-115.
[10] 祝永志,張彩廷.基于TensorFlow深度學習的Minist手寫數(shù)字識別技術[J].通信技術,2020,53(1):46-51.
[11] 袁文翠,孔雪.基于TensorFlow深度學習框架的卷積神經(jīng)網(wǎng)絡研究[J].微型電腦應用,2018(2):29-32.
[12] 牛旭.基于人工智能的水稻病害檢測系統(tǒng)研究[D]. 黑龍江大學,2019.