国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別

2022-03-09 02:02:08陸健強余超然蘭玉彬邱洪斌黃捷偉尹梓濠陳慧潔鄭勝杰
農(nóng)業(yè)工程學報 2022年22期
關鍵詞:松材線蟲病線蟲

陸健強,梁 效,余超然,蘭玉彬,邱洪斌,黃捷偉,尹梓濠,陳慧潔,鄭勝杰

·農(nóng)業(yè)信息與電氣技術·

基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別

陸健強1,2,3,梁 效1,余超然4,蘭玉彬1,2,3※,邱洪斌1,黃捷偉1,尹梓濠1,陳慧潔1,鄭勝杰1

(1. 華南農(nóng)業(yè)大學電子工程學院(人工智能學院),廣州 510642;2. 嶺南現(xiàn)代農(nóng)業(yè)科學與技術廣東省實驗室河源分中心,河源 517000;3. 國家精準農(nóng)業(yè)航空施藥技術國際聯(lián)合研究中心,廣州 510642;4.廣東省農(nóng)業(yè)科學院蔬菜研究所,廣州 510640)

綠色高效殺線農(nóng)藥是現(xiàn)階段防治植物線蟲病的有效手段之一,針對在大規(guī)模殺線農(nóng)藥活性篩選測試階段,傳統(tǒng)人工鏡檢工作存在耗時長、準確率低、工作量大等問題,提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別方法YOLOFN(YOLO for Nematodes)?;赮OLOv5s目標檢測理論框架,在主干網(wǎng)絡嵌入坐標注意力機制特征提取模塊,融合線蟲特征圖位置信息于通道注意力中;進一步,平衡考量線蟲目標的重疊比例、中心點距離、預測框?qū)捀咭约罢摌颖颈壤跃_邊界框回歸的高效損失函數(shù)(Efficient IoU,EIoU)和焦點損失函數(shù)(Focal loss)優(yōu)化定位損失函數(shù)和分類損失函數(shù),最小化真實框與預測框的寬高差值,動態(tài)降低易區(qū)分樣本的權重,快速聚焦有益訓練樣本,以提升模型對重疊黏連線蟲目標的解析能力和回歸精度。試驗結果表明,YOLOFN在準確率、召回率和平均精度均值(mean Average Precision,mAP)性能指標上較改進前提高了0.2、4.4和3.8個百分點,與經(jīng)典檢測算法YOLOv3、SSD、Faster R-CNN3相比,mAP分別提高了1.1、31.7和15.1個百分點;與輕量化主干算法深度可分離卷積-YOLOv5、Mobilenetv2-YOLOv5、GhostNet-YOLOv5相比,在推理時間基本無差別情況下,mAP分別高出11.0、16.3和15.0個百分點。YOLOFN模型可快速、準確、高效完成線蟲鏡檢統(tǒng)計工作,滿足植物線蟲病農(nóng)藥研發(fā)的實際需求,為加快植物線蟲病防治新藥的研制提供有力技術支持。

模型;深度學習;植物線蟲??;殺線農(nóng)藥;目標檢測;注意力機制;損失函數(shù)

0 引 言

農(nóng)林業(yè)病蟲害的防治對中國生態(tài)保護有重大意義。植物線蟲病是由植物寄生線蟲侵襲和寄生引起的植物病害,主要包括作用于花生、黃瓜、柑橘等多種作物的根結線蟲病,作用于大豆等豆科作物的大豆胞囊線蟲病、作用于小麥的小麥粒線蟲病和作用于松木植株的松材線蟲病等,嚴重危害中國小麥、玉米、水稻、甘薯等糧食作物和松林、蔬菜、中草藥等經(jīng)濟作物的健康[1-4]。植物線蟲病的主要防治舉措包括物理防治、化學防治和生物防治,其中,采用殺線劑進行化學防治是植物線蟲病防治的重要手段之一[5-6]。然而,高效低毒的殺線劑品種當前仍然匱乏[7]。在大規(guī)模的農(nóng)藥殺線活性篩選階段,實驗人員需要測定候選化合物在不同濃度藥劑處理下對線蟲的致死率,初步判斷化合物的殺線效果。在測定藥劑對線蟲防治效果的過程中,線蟲存活率的測定、繁殖量的測定以及病害發(fā)生情況的統(tǒng)計均涉及對線蟲死亡識別及計數(shù)[8]。因此,提出一種科學高效的線蟲識別方法具有實際應用意義。

傳統(tǒng)的植物線蟲形態(tài)學檢測方法包括取樣、分離和鏡檢3個環(huán)節(jié),步驟繁瑣、人工成本高、效率低[9-10]。隨著計算機檢測技術的發(fā)展,傳統(tǒng)圖像處理方法如閾值分割和顏色空間轉(zhuǎn)換等常被用于農(nóng)業(yè)病蟲害檢測[11]。張建華等[12]基于最優(yōu)二叉樹支持向量機算法對蜜柚葉部病蟲害進行識別,平均識別率達到94.16%。近年來,隨著深度學習的快速發(fā)展,利用深度學習方法進行農(nóng)林作物、病蟲害檢測的實例越來越多。孫豐剛等[13]通過將Ghost輕量化模塊引入YOLOv5s網(wǎng)絡模型結合卷積塊注意力機制(Convolutional Block Attention Module,CBAM )和加權雙向金字塔特征融合網(wǎng)絡實現(xiàn)了對蘋果病蟲害小目標的檢測,平均精度達90.9%;陸健強等[14]提出一種基于深度學習的柑橘黃龍病果實識別算法,利用Mixup數(shù)據(jù)增強和卷積神經(jīng)網(wǎng)絡,在數(shù)據(jù)較少的情況下實現(xiàn)了柑橘黃龍病害的高精度、快速檢測。目前應用在植物線蟲病防治領域的深度學習方法多針對受災作物的現(xiàn)場檢測。李浩等[15]利用無人機獲取松材線蟲病害松木遙感圖像,將ResNet50與Faster R-CNN結合實現(xiàn)了不同病害程度的染病松木的識別,識別準確率達83.2%;徐信羅等[16]考慮到染病松木冠幅大小與正常木的差別,利用Faster R-CNN算法提高了識別異常染病松木的檢測精度;黃麗明等[17]利用深度可分離卷積和倒殘差結構改進YOLOv4算法,提高了松材線蟲病異常變色木的識別精度。這些案例從檢測病害松木角度出發(fā),為植物線蟲病的防治提供了可行方法。但目前從綠色新型農(nóng)藥研發(fā)角度出發(fā)結合深度學習技術防治植物線蟲病的方法仍有待完善。

本文以助力綠色新型殺線農(nóng)藥研制為目的,以松材線蟲顯微圖像為研究對象,提出一種基于深度學習目標檢測技術的線蟲快速識別方法。針對松材線蟲顯微鏡鏡檢圖像目標細長、分布密度不均、重疊黏連率高以及死活蟲體形態(tài)相近等特點,本文從兼顧檢測速度與檢測精度的角度出發(fā),基于YOLOv5s主要網(wǎng)絡框架進行優(yōu)化改進,提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別模型YOLOFN(YOLO for Nematodes),以期實現(xiàn)準確高效識別松材線蟲顯微鏡鏡檢圖像活蟲和死蟲蟲體,為植物線蟲病的新藥研制提供有力的技術支持,為農(nóng)林業(yè)病蟲害檢測、重疊細小目標的深度學習智能識別方法提供參考。

1 試驗數(shù)據(jù)

1.1 數(shù)據(jù)采集

松材線蟲樣本采集區(qū)域位于廣西省玉林市興業(yè)縣松材線蟲病疫區(qū),中心經(jīng)緯度為109.855°E,22.604°N。從疫區(qū)中選取8棵剛枯死以及尚未完全枯死的優(yōu)勢木作為樣本木進行取樣,樣本取樣位置為染病松樹樹干下部(胸高處)、上部(主干與主側(cè)枝交界處)、中部(上、下部之間)3個位置。將3個取樣位置的樹皮剝凈,為避免鉆取木屑時溫度超過50 ℃從而迅速殺死松材線蟲,采用塊狀取樣方式進行取樣。從木質(zhì)部表面至髓心采集100~150 g木屑作為分離樣品。松材線蟲顯微鏡鏡檢圖像采集試驗在華南農(nóng)業(yè)大學植物保護學院植物線蟲病研究室進行,采集步驟如下:對在室內(nèi)純培養(yǎng)繁殖的松材線蟲供試蟲源,采用傳統(tǒng)貝曼漏斗法分離,注入清水浸沒分離12 h,將繁殖后的線蟲分離出來[9],再將分離液體進行離心處理,獲得高濃度松材線蟲懸浮液,然后將高濃度松材線蟲懸浮液稀釋至2 000和5 000條/mL濃度的松材線蟲培養(yǎng)液樣品,最后制成不同濃度的松材線蟲玻片。使用型號為NIKON YS100和NIKON TS100倒置顯微鏡對松材線蟲玻片進行觀察,并使用Canon EOS M10單反相機采集松材線蟲顯微鏡鏡檢圖像。最終,初步構建的松材線蟲顯微鏡鏡檢圖像數(shù)據(jù)集共741張圖片,其中蟲體較稀疏圖像357張(圖1a),蟲體較密集圖像384張(圖 1b),分辨率為2 880×1 616?;隗w態(tài)學判斷線蟲死活的方法和實際動態(tài)觀察到的情況,蟲體蜷曲扭動、形態(tài)不定為活蟲,蟲體僵直不動、呈現(xiàn)“J”狀為死蟲[18],如圖2所示。在線蟲研究人員的觀察指導下,首先通過肉眼觀察法根據(jù)線蟲形態(tài)特征鑒別線蟲死活狀態(tài),然后使用開源標注軟件LabelImg按死蟲和活蟲兩個類別對松材線蟲圖像數(shù)據(jù)集進行標注。

圖1 松材線蟲圖像

圖2 死蟲和活蟲

1.2 數(shù)據(jù)增強

1.2.1 離線數(shù)據(jù)增強

松材線蟲圖像具有蟲體個體相似度高的特點,為提高模型魯棒性,增強模型泛化能力,使用離線數(shù)據(jù)增強方法進行訓練樣本擴充。首先,使用數(shù)據(jù)劃分腳本對741張松材線蟲圖像樣本按8∶2隨機劃分為訓練集和測試集,然后對訓練集的593張圖像進行離線數(shù)據(jù)增強,增強方法包括旋轉(zhuǎn)、平移、改變亮度、模擬遮擋、添加噪聲(圖3),按擴充倍數(shù)3將訓練集擴充至1 779張。

圖3 數(shù)據(jù)增強后松材線蟲圖像

1.2.2 在線數(shù)據(jù)增強

為進一步提高識別效果,增強模型泛化能力,對離線增強后的訓練數(shù)據(jù)集采用馬賽克數(shù)據(jù)增強方法[19-20]。如圖4所示,馬賽克數(shù)據(jù)增強主要是在訓練時從數(shù)據(jù)集中隨機選取4張圖片,通過隨機裁剪、縮放、排布的方式進行拼接,拼接后獲得的新圖片再傳入神經(jīng)網(wǎng)絡進行訓練學習。使用馬賽克數(shù)據(jù)增強方法對訓練集進行在線數(shù)據(jù)增強,增加了傳入網(wǎng)絡的松材線蟲樣本數(shù),有效降低了因松材線蟲圖像數(shù)據(jù)集樣本較少所造成的模型過擬合風險,而且提高了GPU算力的利用效率。

圖4 馬賽克數(shù)據(jù)增強流程

2 線蟲識別模型設計

2.1 YOLOFN模型設計

YOLO(You Only Look Once)[21-22]是2015年提出的基于單個神經(jīng)網(wǎng)絡的目標檢測系統(tǒng),后逐步完善并發(fā)布了YOLOv2、YOLOv3和YOLOv4。2020年,Ultralytics 公司發(fā)布了YOLO家族中最新一代的目標檢測模型YOLOv5。YOLOv5根據(jù)網(wǎng)絡寬度和深度的不同,分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x四個版本[23-24]。從s到x網(wǎng)絡所含殘差結構的個數(shù)和卷積核個數(shù)不斷增加,因此深度和寬度以及參數(shù)量和模型大小不斷增加,模型檢測精度得到提高,但相應的時間耗費也在增加。本研究所使用松材線蟲數(shù)據(jù)集相對較小,種類較單調(diào),因此使用較淺層的網(wǎng)絡即可充分提取特征。且由于后續(xù)在實際應用中需要對模型進行邊緣端部署等原因,本研究從綜合應用角度出發(fā),選擇最輕量且可滿足松材線蟲特征提取深度的YOLOv5s作為基礎網(wǎng)絡進行改進。

YOLOv5s基礎網(wǎng)絡兼顧檢測精度與檢測速度,可滿足初步識別任務。但是松材線蟲識別過程中,存在線蟲目標經(jīng)重復卷積池化容易發(fā)生特征缺失進而導致漏檢的問題。還有因松材線蟲圖像蟲體發(fā)生重疊、黏連程度大,死蟲和活蟲形態(tài)差距較小而導致預測框回歸精度差的問題。因此,本文針對上述問題對基于YOLOv5s的松材線蟲識別模型進行優(yōu)化改進。在YOLOv5s網(wǎng)絡模型的基礎上,重新設計特征提取網(wǎng)絡和損失函數(shù)。一是將同時考慮位置和通道信息的坐標注意力機制引入特征提取網(wǎng)絡,提高網(wǎng)絡對細長松材線蟲目標的特征提取能力。二是針對目標重疊黏連程度大、目標框回歸困難的問題,將原模型損失函數(shù)(Complete IoU Loss,CIoU)改進為Efficient IoU Loss(EIoU),將原損失函數(shù)中用來衡量縱橫比損失項的參數(shù),進一步細化拆分為預測框的寬高,直接考慮寬高與其置信度的真實差異,使真實框與預測框的寬高之差最小,加速模型的收斂速度;三是當易區(qū)分負樣本過多,一階段檢測算法的整個訓練過程將圍繞易區(qū)分負樣本進行,從而淹沒正樣本,造成目標類別損失增大。為解決這個問題,向原類別損失函數(shù)(Binary Cross Entropy Loss,BCE)中引入一個調(diào)制因子,將類別損失函數(shù)改進為焦點損失函數(shù)(Focal Loss),動態(tài)降低易區(qū)分樣本的權重,將重心快速聚焦在對訓練有幫助的樣本上,以提高松材線蟲目標的識別精度和死活判斷準確度。

2.2 特征提取主干網(wǎng)絡改進

本文基于YOLOv5s主干網(wǎng)絡進行改進的模型網(wǎng)絡如下:首先把網(wǎng)絡中目標提取特征層的特征提取卷積模塊(Convolution-Batch Normalization-Sigmoid,CBS)前嵌入坐標注意力機制模塊構成坐標注意力特征提取卷積模塊(Coordinate Attention-CBS,CA-CBS);然后利用多層最大池化模塊進一步提取并融合經(jīng)注意力加深后的高層次語義信息;繼而將特征圖再次傳入CA-CBS特征提取模塊;最后通過特征金字塔網(wǎng)絡+路徑聚合網(wǎng)絡結構進行特征融合[25-26]。改進后的模型網(wǎng)絡如圖5所示。

松材線蟲顯微鏡鏡檢圖像存在蟲體形態(tài)細長的特點。隨著卷積加深,細長目標在大背景下的信息十分容易被大量冗余信息所淹沒,導致識別精度低下。針對此問題,本文使用一種將位置信息嵌入到通道注意力中的坐標注意力機制[27](Coordinate Attention,CA),提高網(wǎng)絡對線蟲目標的注意力,減少細小特征信息遺失。

CA注意力機制通過把通道注意力分解為并行進行的一維特征編碼的過程,形成一組在方向和位置兩個層面同時敏感的特征圖,以增強對注意力信息的敏感性。

在通道注意力機制中,通常使用全局池化的方法將通道信息全局編碼,因此造成位置信息忽視而導致檢測精度降低。CA模塊對此進行改進,在坐標信息嵌入中按照公式(1)將全局池化分為一組一維特征編碼:

(2)

在垂直坐標方向上使用尺寸為(1,)的池化核對每個通道進行編碼,寬度為的第通道的輸出可以表示為

經(jīng)過式(2)、式(3)對輸入進行水平垂直方向的特征聚合后,輸出一對方向敏感注意力特征和。該步驟使CA模塊在獲取一個空間方向的遠程依賴,同時保存沿另一空間方向的精確位置信息,有助于網(wǎng)絡更好地獲得全局感受野并編碼更精確的位置信息。

注:CA為坐標注意力模塊。下同。

Note: CA is coordinate attention module.

圖5 YOLOFN模型網(wǎng)絡結構

Fig.5 YOLOFN (YOLO for Nematodes) model network structure

在坐標注意力生成階段,首先利用上個階段產(chǎn)生的注意力表征進行級聯(lián)操作,之后利用1×1卷積變換函數(shù)對其進行變換操作:

2.3 損失函數(shù)改進

YOLOv5s的損失函數(shù)主要由回歸框預測損失L、置信度損失L、目標類別損失L組成。總體損失函數(shù)計算公式為

在早期的YOLOv5版本中,回歸框預測損失函數(shù)L采用Generalized IoU Loss(GIoU)。GIoU計算公式為

在最新版本的YOLOv5模型中,作者使用了CIoU作為損失函數(shù)。將GIoU優(yōu)化兩框之間的面積改為直接最小化2個目標框的距離,避免了GIoU在兩框相距較遠時損失很大,收斂速度慢的問題;增加了兩框之間長寬比一致性的參數(shù),對重疊密集目標檢測更友好。CIoU計算公式為

CIoU雖然綜合考慮了邊界框回歸的重疊面積、中心點距離和長寬比,但是其沒有反映長寬分別與其置信度的真實差異,容易出現(xiàn)預測框誤差問題。

針對松材線蟲實際觀測中出現(xiàn)重疊黏連目標較多的特點,對回歸框預測損失L進行重新設計,將CIoU替換為EIoU:在CIoU的基礎上進一步權衡寬高與其置信度的真實差異,最小化真實框與預測框的寬高差值,加速模型收斂。EIoU損失函數(shù)包含3部分,重疊損失計算、中心點距離損失計算、寬高損失計算。對公式(10)進行改進:

YOLOv5s采用二元交叉熵損失函數(shù)(BCE With Logits)作為目標類別損失函數(shù)BCE(,),計算公式如下:

通過以上兩個方面對損失函數(shù)的改進,本文所設計的松材線蟲快速識別算法YOLOFN的損失函數(shù)公式為

3 試驗結果與分析

3.1 試驗環(huán)境及訓練設置

試驗所采用的環(huán)境配置如下:操作系統(tǒng)為Windows10(x64),CPU型號為Intel(R) Xeon(R) Gold 6330 CPU @ 2.00 GHz,運行內(nèi)存為48 GB,GPU為RTX 3090 24 GB,深度學習框架為Pytorch 1.10.0,開發(fā)語言為Python 3.8,使用CUDA 11.3進行GPU加速。

本文使用增強后的1 779張松材線蟲圖像訓練集進行模型訓練。訓練集由死蟲和活蟲兩個類別構成,死蟲1 731只,活蟲4 092只。

本文基于以上環(huán)境以及數(shù)據(jù)集進行模型訓練,batchsize設置為32,訓練輪次設置為200輪,初始學習率設置為0.01,訓練過程中學習率采用Warmup[29]策略進行訓練預熱,提高模型訓練時的穩(wěn)定性。采用余弦退火策略對學習率進行更新。優(yōu)化器采用隨機梯度下降[30](Stochastic Gradient Descent,SGD)對誤差進行調(diào)整。

本文數(shù)據(jù)采集時原圖像分辨率為2 880×1 616。為增強試驗可靠性,在輸入網(wǎng)絡模型訓練前統(tǒng)一將圖像分辨率縮放至640×640,并使用2.2.2節(jié)介紹的馬賽克在線數(shù)據(jù)增強對圖像進行處理后進行訓練。

3.2 評價指標

評價指標的合理選擇對于衡量模型性能至關重要。本文數(shù)據(jù)集背景單純,目標均為松材線蟲且只有兩類。針對農(nóng)藥研制過程中的實際需求,檢測側(cè)重于快速識別出所有線蟲的活蟲和死蟲。因此本文選擇采用反映識別準確度的評價指標:精確率(Precision,)、召回率(Recall,)、平均精度均值(mean Average Precision,mAP)以及反映檢測速度的指標:檢測時間(測試集單張圖像檢測的平均時間)和模型參數(shù)量作為評價指標來綜合評定模型性能。

3.3 試驗結果分析

3.3.1 數(shù)據(jù)增強試驗分析

為提高模型泛化性,改善由于原始數(shù)據(jù)量較少而導致的過擬合問題,本文采用了數(shù)據(jù)清洗、數(shù)據(jù)增強等方法。為驗證這些方法對提高模型泛化性的有效性,進行數(shù)據(jù)增強有效性對比、消融分析試驗,試驗全程使用改進前YOLOv5s模型進行訓練測試。結果如表1~3所示。

表1 離線數(shù)據(jù)增強擴充倍數(shù)對過擬合現(xiàn)象影響效果對比

由表1可知,不使用離線數(shù)據(jù)增強擴充訓練數(shù)據(jù)時,模型訓練發(fā)生過擬合現(xiàn)象,測試集mAP比訓練集低了5個百分點,為解決過擬合現(xiàn)象首先采取數(shù)據(jù)增強的方式擴大訓練集,擴充倍數(shù)取2、3、4做對比試驗以獲取最佳增強倍數(shù)。由表2可知采用離線數(shù)據(jù)增強的方式擴充訓練集后過擬合現(xiàn)象有所改善,擴充倍數(shù)取3時測試集mAP最高,為74.3%,對過擬合現(xiàn)象緩解效果最好,故本文對經(jīng)過數(shù)據(jù)清洗后的593張數(shù)據(jù)集進行3倍離線數(shù)據(jù)增強,得到1 779張線蟲圖像進行訓練。

由表2可知,使用馬賽克在線數(shù)據(jù)增強方法進行模型訓練后,測試集的mAP比訓練集高1.1個百分點,比未使用馬賽克增強的測試集mAP高4.2個百分點,有效緩解了過擬合現(xiàn)象,故本文使用馬賽克在線數(shù)據(jù)增強策略進行模型訓練。

表2 馬賽克數(shù)據(jù)增強對過擬合現(xiàn)象影響效果對比

表3 提高模型泛化性方法消融試驗

由表3可知,對原始數(shù)據(jù)進行清洗后,訓練集和測試集mAP均有所提高,分別提高了5.2和10.6個百分點,并且過擬合現(xiàn)象有所緩解;使用離線數(shù)據(jù)增強后,測試集mAP進一步提高了3.5個百分點,且測試集只比訓練集低2.0個百分點,過擬合現(xiàn)象基本緩解;使用在線數(shù)據(jù)增強后,訓練集mAP進一步提高了4.2個百分點,并且測試集mAP比訓練集高2.4個百分點,過擬合現(xiàn)象已基本消除,以上消融試驗證明了本文針對線蟲數(shù)據(jù)量較少而發(fā)生的過擬合現(xiàn)象采取的改進方法的有效性。

3.3.2 消融試驗分析

為驗證YOLOFN算法引進CA注意力機制模塊,及EIoU結合Focal loss的損失函數(shù)優(yōu)化方法的有效性,進行YOLOFN算法的消融試驗。試驗結果如表4所示。

表4 消融試驗

注:EIoU- Focal loss為高效邊界框回歸損失結合函數(shù)和焦點損失函數(shù)。

Note: EIoU-Focal loss respresent a combination of efficient bounding box regression loss and focus loss function.

由表4可知,向YOLOv5s主干網(wǎng)絡添加CA注意力機制模塊后,模型mAP提高了2.7個百分點;對原模型損失函數(shù)進行改進后,模型mAP提高了0.7個百分點;將兩個改進同時加入模型之后,模型mAP達到82.3%,相比于原模型提高了3.8個百分點,驗證了本文改進方法的有效性。

3.3.3 算法性能對比分析

目前使用深度學習目標檢測算法對松材線蟲進行識別研究的文獻較少,因此本文用改進后的線蟲識別算法與目前主流的3種目標檢測算法YOLOv3、SSD、Faster R-CNN以及原始YOLOv5s進行對比試驗,并且與目前主流輕量化網(wǎng)絡主干深度可分離卷積網(wǎng)絡、Mobilenetv2和GhostNet進行對比試驗,以驗證改進的有效性。性能比較對比結果如表5所示。

表5 算法性能對比

注:為平均推理時間;為模型參數(shù)量;DWConv代表深度可分離卷積。

Note:is average inference time;is model parameter quantity. DWConv represents depth-wise separable convolution.

由表5可知,與常用目標檢測算法YOLOv3、SSD、Faster R-CNN3相比,YOLOFN算法準確率、召回率、平均精度均值(mAP)均有所提高,其中mAP分別提高了1.1、31.7、15.1個百分點,達到了82.3%;與原始算法YOLOv5s相比,準確率、召回率、mAP分別提高0.2、4.4和3.8個百分點,YOLOFN算法與YOLOv5輕量化主干網(wǎng)絡深度可分離卷積、Mobilenetv2和GhostNet 3種網(wǎng)絡相比,在模型參數(shù)量方面輕量化網(wǎng)絡優(yōu)于YOLOFN算法,檢測時間方面差距不大,檢測精度方面YOLOFN算法mAP優(yōu)于3種輕量化網(wǎng)絡,分別提高了11.0、16.3和15.0個百分點。其中Mobilenetv2模型擁有最輕量的模型參數(shù)量,僅為1.73 MB,檢測時間比YOLOFN算法快0.1 s,但準確率、召回率、mAP分別比YOLOFN算法低13.9、12.0和16.3個百分點。YOLOFN算法在檢測速度損耗不大的基礎上識別精度遠高于輕量化模型。以上對比試驗充分證明了YOLOFN算法在檢測精度與檢測速度上具備優(yōu)勢,說明所采用的優(yōu)化方法科學、有效、針對性強。圖6為算法訓練200輪次的mAP評估結果。由圖6可知,YOLOFN訓練所得到的模型在訓練200輪次后檢測性能最優(yōu)。

圖6 各算法mAP評估結果

在檢測時間和模型參數(shù)量方面,YOLOFN在模型參數(shù)量沒有明顯增加的前提下,檢測單張圖片的時間為0.6 s,并且檢測時間和模型參數(shù)量都遠遠優(yōu)于YOLOv3、SSD、Faster R-CNN三種檢測算法,檢測精度遠遠優(yōu)于深度可分離卷積網(wǎng)絡、Mobilenetv2和GhostNet三種輕量化網(wǎng)絡。綜上,YOLOFN能夠滿足農(nóng)藥研制人員在實際試驗中對于實時性的需求和模型移植部署的需求。

分類來看,改進后模型對死蟲活蟲2個類別的檢測平均精度均值和改進前對比如表6所示。由表6可知,改進后模型對死蟲和活蟲的識別平均精度均值均較改進前有所提升,分別提升了1.5和2.2個百分點。以上對比試驗證明了本文算法改進在分別針對死蟲和活蟲2個類別上的有效性。

表6 死蟲活蟲檢測精度mAP對比

3.3.4 訓練損失函數(shù)分析

損失函數(shù)值在訓練過程中的變化能反應模型的訓練情況。一般來說,損失函數(shù)曲線收斂得越快、越小,證明模型訓練效果越好,當曲線平緩證明模型訓練完畢。圖7為改進前后模型訓練過程中總損失函數(shù)曲線對比。

由圖7可知,損失函數(shù)改進后比改進前下降得更快,數(shù)值波動更穩(wěn)定,損失數(shù)值更小。改進前損失函數(shù)訓練到200輪時已不再下降并出現(xiàn)過擬合情況,改進后損失函數(shù)訓練到200輪的結果優(yōu)于改進前損失函數(shù),并且仍有下降趨勢,且150輪之前收斂速度遠快于改進前損失函數(shù),證明了損失函數(shù)改進的有效性。

圖7 改進前后總損失變化曲線對比

3.3.5 實際檢測效果分析

為測試本文YOLOFN算法的實際應用效果,對本文構建的松材線蟲圖像測試集進行驗證測試。考慮到本試驗背景單一,干擾物體較少,且實際應用中希望得到的是所有蟲體的查全率,基于查全率和試驗對比效果考慮,試驗將置信度設置為0.25。對比改進前和改進后的實際檢測效果。

由圖8可知,原始算法對于重疊黏連的松材線蟲目標較易出現(xiàn)漏檢誤檢的情況,而且目標框回歸效果較差,容易出現(xiàn)同一只蟲體同時檢測為死活的情況。YOLOFN算法對重疊黏連的松材線蟲檢測更加準確,松材線蟲類別框回歸更加精準。

圖8 改進前后算法的部分圖片檢測效果對比

遍歷率、誤檢率的統(tǒng)計在農(nóng)藥研發(fā)中具有實際意義。圖8g、8h中共33條線蟲,其中31條活蟲,2條死蟲。示例圖像中改進前后線蟲遍歷率、誤檢率統(tǒng)計如表7所示。

表7 改進前后算法松材線蟲遍歷率、誤檢率統(tǒng)計

注:圖8中圖片3的統(tǒng)計結果。

Note: Statistical results in picture 3 in Fig. 8.

由表7可知,YOLOFN算法在實際檢測中遍歷率比改進前提高了5.6個百分點,誤檢率(誤檢數(shù)/檢測到線蟲數(shù))比改進前降低了16.3個百分點,預測框更加精準。充分表明了YOLOFN算法實際應用效果優(yōu)于改進前算法。

綜上所述,YOLOFN算法的平均精度均值為82.3%,平均檢測單張圖片時間為0.6 s,實現(xiàn)了死蟲活蟲的實時檢測,可滿足實際應用需求。經(jīng)過算法性能對比、損失函數(shù)對比、消融試驗和實際檢測效果4個方面的分析證明,本文提出的改進線蟲檢測算法在檢測精度、檢測速度、部署難易程度方面皆優(yōu)于改進前算法和其他對比算法,更適合應用在線蟲實際檢測中。

4 結 論

本文從使用深度學習技術支持大規(guī)模新藥活性篩選測試階段的線蟲快速識別任務出發(fā),以松材線蟲顯微圖像作為實驗對象,針對重疊黏連的松材線蟲蟲體圖像識別這一難題,首次提出一種基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別模型YOLOFN。

1)本文以自建松材線蟲顯微圖像數(shù)據(jù)集為研究對象,以YOLOv5s作為主要框架,利用圖像增強和遷移學習等訓練策略進行網(wǎng)絡模型訓練。在主干檢測網(wǎng)絡中引入CA坐標注意力機制,利用通道注意力內(nèi)嵌位置信息,提高網(wǎng)絡對細長松材線蟲目標的特征提取能力。

2)本文同時結合EIoU和Focal loss改進模型的損失函數(shù),并在原類別損失函數(shù)基礎上引入誤差調(diào)制因子,從而有效提高檢測回歸精度。YOLOFN的平均精度均值達到了82.3%,平均推理時間達0.6 s,較改進前基線模型提升了3.8個百分點,同時與YOLOv3、SSD、Faster-RCNN、YOLOv5s四種常用檢測模型以及輕量化主干深度可分離卷積、Mobilenetv2和GhostNet 3種網(wǎng)絡主干相比,在檢測精度和平均推理速度方面均具備優(yōu)勢。

本文提出的YOLOFN模型用于線蟲顯微鏡鏡檢圖像蟲體檢測,算法可同時滿足檢測的準確性與實時性,幫助新型農(nóng)藥研發(fā)人員高效準確地進行線蟲顯微圖像的識別工作,進而計算在不同條件處理下的線蟲死亡率,助力植物線蟲病的防治工作。下一步,為滿足端側(cè)快速實現(xiàn)線蟲計數(shù)以及死亡率測算,在進行線蟲種類圖像數(shù)據(jù)集擴充的基礎上,計劃在模型實現(xiàn)整體系統(tǒng)化部署方面展開研究,助力綠色殺線農(nóng)藥的研制,促進植物作物線蟲病害防護產(chǎn)業(yè)發(fā)展。

[1] Zhao D, Zhao H, Zhao D, et al. Isolation and identification of bacteria from rhizosphere soil and their effect on plant growth promotion and root-knot nematode disease[J]. Biological control, 2018, 119: 12-19.

[2] Singh S, Singh B, Singh A P. Nematodes: A threat to sustainability of agriculture[J]. Procedia Environmental Sciences, 2015, 29: 215-216.

[3] 何龍喜,吉靜,邱秀文,等. 世界松材線蟲病發(fā)生概況及防治措施[J]. 林業(yè)科技開發(fā),2014,28(3):8-13.

He Longxi, Ji Jing, Qiu Xiuwen, et al. Occurrence and control measures of pine wood nematode disease in the world[J]. Journal of Forestry Engineering, 2014, 28(3): 8-13. (in Chinese with English abstract)

[4] 方國飛,黃文江,牟曉偉,等. 松材線蟲病疫情精準監(jiān)測實踐與展望[J]. 中國森林病蟲,2022,41(4):16-23.

Fang Guofei, Huang WenJiang, Mou Xiaowei, et al. Practice and prospect of precise monitoring of pine wilt disease[J]. Forest Pest and Disease, 2022, 41(4): 16-23. (in Chinese with English abstract)

[5] Fosu-Nyarko J, Jones M G K. Application of biotechnology for nematode control in crop plants[M]. Advances in Botanical Research. Academic Press, 2015, 73: 339-376.

[6] 朱云倩,黃維燕,謝偉龍,等. 松材線蟲病防治方法研究進展[J]. 河北林業(yè)科技,2021(2):44-48.

Zhu Yunqian, Huang Weiyan, Xie Weilong, et al. Research progresson control methods of pine wilt disease[J]. The Journal of Hebei Forestry Science and Technology, 2021(2): 44-48. (in Chinese with English abstract)

[7] 陳勇. 松材線蟲病藥劑防治實驗[J]. 安徽林業(yè),2008(3):49.

Chen Yong. Pharmaceutical control of pine wood nematode disease[J]. Anhui Forestry, 2008(3): 49. (in Chinese with English abstract)

[8] 趙曉佳,袁裕超,孫玉鳳,等. 甲氨基阿維菌素苯甲酸鹽和抗生素混合藥劑對松材線蟲病的防治效果[J]. 華中農(nóng)業(yè)大學學報(自然科學版),2022,41(3):146-156.

Zhao Xiaojia, Yuan Yuchao, Sun Yufeng, et al. Control effect of emamectin benzoate and antibiotic mixture on pine wilt disease[J]. Journal of Huazhong Agricultural University, 2022, 41(3): 146-156. (in Chinese with English abstract)

[9] 覃貴勇,許彥,劉露. 農(nóng)藥聯(lián)用對松材線蟲的作用研究[J]. 農(nóng)業(yè)災害研究,2018,8(6):1-3,56.

Tan Guiyong, Xu Yan, Liu Lu. Effects of different pesticide combinations on[J]. Journal of Agricultural Catastrophology, 2018, 8(6): 1-3,56. (in Chinese with English abstract)

[10] 李敏,葉建仁,陳鳳毛. 松材線蟲檢測技術研究進展[J]. 中國森林病蟲,2022,41(3):52-58.

Li Min, Ye Jianren, Chen Fengmao. A review of detection technology for pine wood nematode[J]. Forest Pest and Disease, 2022, 41(3): 52-58. (in Chinese with English abstract)

[11] Patrícioa D, Riederb R. Computer vision and artificial intelligence in precision agriculture for grain crops: A systematic review[J]. Computers and Electronics in Agriculture, 2018, 153: 69-81.

[12] 張建華,孔繁濤,李哲敏,等. 基于最優(yōu)二叉樹支持向量機的蜜柚葉部病害識別[J]. 農(nóng)業(yè)工程學報,2014,30(19):222-231.

Zhang Jianhua, Kong Fantao, Li Zhemin, et al. Recognition of honey pomelo leaf disease based on optimal binary tree support vector machine[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(19): 222-231. (in Chinese with English abstract)

[13] 孫豐剛,王云露,蘭鵬,等. 基于改進YOLOv5s和遷移學習的蘋果果實病害識別方法[J]. 農(nóng)業(yè)工程學報,2022,38(11):171-179

Sun Fenggang, Wang Yunlu, Lan Peng, et al. Identification of apple fruit diseases using improved YOLOv5s and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(11): 171-179. (in Chinese with English abstract)

[14] 陸健強,林佳翰,黃仲強,等. 基于Mixup算法和卷積神經(jīng)網(wǎng)絡的柑橘黃龍病果實識別研究[J]. 華南農(nóng)業(yè)大學學報,2021,42(3):94-101.

Lu Jianqiang, Lin Jiahan, Huang Zhongqiang, et al. Identification of citrus fruit infected with Huanglongbing based on Mixup algorithm and convolutional neural network[J]. Journal of South China Agricultural University, 2021, 42(3): 94-101. (in Chinese with English abstract)

[15] 李浩,方偉泉,李浪浪,等. 基于深度學習的松材線蟲病害松木識別[J]. 林業(yè)工程學報,2021,6(6):142-147.

Li Hao, Fang Weiquan, Li Langlang, et al. Recognition of pine wood infected with pine nematode disease based on deep learning[J]. Journal of Forestry Engineering, 2021, 6(6): 142-147. (in Chinese with English abstract)

[16] 徐信羅,陶歡,李存軍,等. 基于Faster R-CNN的松材線蟲病受害木識別與定位[J]. 農(nóng)業(yè)機械學報,2020,51(7):228-236.

Xu Xinluo, Tao Huan, Li Cunjun, et al. Detection and location of pine wilt disease induce dead pine trees based on Faster R-CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 228-236. (in Chinese with English abstract)

[17] 黃麗明,王懿祥,徐琪,等. 采用YOLO算法和無人機影像的松材線蟲病異常變色木識別[J]. 農(nóng)業(yè)工程學報,2021,37(14):197-203.

Huang Liming, Wang Yixiang, Xu Qi, et al. Recognition of abnormally discolored trees caused by pine wilt disease using YOLO algorithm and UAV images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(14): 197-203. (in Chinese with English abstract)

[18] 萬樹青. 殺線蟲劑活性測定中線蟲死活鑒別的染色方法[J]. 植物保護,1993(3):37.

Wan Shuqing. Dyeing method for identification of dead and alive nematodes in the determination of nematicide activity[J]. Plant Protection, 1993(3): 37. (in Chinese with English abstract)

[19] 梁曉婷,龐琦,楊一,等. 基于YOLOv4模型剪枝的番茄缺陷在線檢測[J]. 農(nóng)業(yè)工程學報,2022,38(6):283-292.

Liang Xiaoting, Pang Qi, Yang Yi, et al. Online detection of tomato defects based on YOLOv4 model pruning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(6): 283-292. (in Chinese with English abstract)

[20] 張兆國,張振東,李加念,等. 采用改進YoloV4模型檢測復雜環(huán)境下馬鈴薯[J]. 農(nóng)業(yè)工程學報,2021,37(22):170-178.

Zhang Zhaoguo, Zhang Zhendong, Li Jianian, et al. Potato detection in complex environment based on improved YoloV4 model[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(22): 170-178. (in Chinese with English abstract)

[21] 郝建軍,邴振凱,楊淑華,等. 采用改進YOLOv3算法檢測青皮核桃[J]. 農(nóng)業(yè)工程學報,2022,38(14):183-190.

Hao Jianjun, Bing Zhenkai, Yang Shuhua, et al. Detection of green walnut by improved YOLOv3[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(14): 183-190. (in Chinese with English abstract)

[22] 汪斌斌,楊貴軍,楊浩,等. 基于YOLO-X和遷移學習的無人機影像玉米雄穗檢測[J]. 農(nóng)業(yè)工程學報,2022,38(15):53-62.

Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO-X and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(15): 53-62. (in Chinese with English abstract)

[23] 胡根生,吳繼甜,鮑文霞,等. 基于改進YOLOv5網(wǎng)絡的復雜背景圖像中茶尺蠖檢測[J]. 農(nóng)業(yè)工程學報,2021,37(21):191-198.

Hu Gensheng, Wu Jitian, Bao Wenxia, et al. Detection ofincomplex background images using improved YOLOv5[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(21): 191-198. (in Chinese with English abstract)

[24] 尚鈺瑩,張倩如,宋懷波. 基于YOLOv5s的深度學習在自然場景蘋果花朵檢測中的應用[J]. 農(nóng)業(yè)工程學報,2022,38(9):222-229.

Shang Yuying, Zhang Qianru, Song Huaibo. Application of deep learning using YOLOv5s to apple flower detection in natural scenes[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(9): 222-229. (in Chinese with English abstract)

[25] Lin T Y, Dollar P, Girshick R, et al. Feature pyramid networks for object detection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE Computer Society, 2017: 2117-2125.

[26] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE Computer Society, 2018: 8759-8768.

[27] Hou Q B, Zhou D Q, Feng J S. Coordinate attention for efficient mobile network design[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE Computer Society, 2021: 13713-13722.

[28] Zhang Y F, Ren W, Zhang Z, et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing, 2022, 506: 146-157.

[29] Xiong R, Yang Y, He D, et al. On layer normalization in the transformer architecture[C]. Proceedings of the 37th International Conference on Machine Learning. Vienna, AUSTRIA: JMLR. org, 2020: 10524-10533.

[30] Ruder S. An overview of gradient descent optimization algorithms[EB/OL]. 2016. arXiv preprint arXiv: 1609. 04747. https: //arxiv. org/abs/1609. 04747v2

Fast identification of nematode via coordinate attention mechanism and efficient bounding box regression loss

Lu Jianqiang1,2,3, Liang Xiao1, Yu Chaoran4, Lan Yubin1,2,3※, Qiu Hongbin1, Huang Jiewei1, Yin Zihao1, Chen Huijie1, Zheng Shengjie1

(1.,,510642,;2.,517000,; 3.(),,510642,;4.,,510640,)

Plant nematode disease is one of the major diseases to threaten agricultural safety in China. The green, high-efficiency, and low-toxic nematicide pesticides can be one of the better means to control plant nematode disease, further to prevent the large-scale spread of nematode disease. However, the manual visual inspection cannot fully meet the large-scale screening and test of the nematicidal pesticide activity, such as time-consuming, low accuracy, and heavy workload. Particularly, it is very necessary to accurately and rapidly count the number of nematodes in the solution, and then to identify the dead and living insects. In this study, a fast identification was proposed for the nematodes using a coordinate attention mechanism and efficient bounding box regression loss YOLOFN (YOLO for nematodes).Firstly, the sawdust samples of tree trunks with the pine wood nematode were collected in the epidemic area of pine wood nematode disease. The solution slides of pine wood nematode were prepared with the different concentrations, after the pine wood nematode was separated in the laboratory. Secondly, the optical microscope and single lens reflex camera were used to collect the pine wood nematode images. The offline data enhancement was combined with the mosaic online data enhancement to expand the training samples of pine wood nematode images, according to the similar characteristics of pine wood nematode images. Thirdly, the feature extraction module of the coordinate attention mechanism was embedded in the backbone network, according to the theoretical framework of YOLOv5s target detection. The position information of the nematode feature map was then integrated into the channel attention, As such, this improvement enabled the model to focus on the target category and target location at the same time. Finally, a tradeoff was made on the overlapping ratio of the nematode target, the center point distance of the nematode target, the width and height of the prediction frame in the nematode target, as well as the proportion of positive and negative samples of the nematode target. The Efficient Intersection over Union (EIoU) and Focal loss functions was utilized to optimize the localization and classification loss function. There was a minimum difference between the width and height of the real frame and the predicted frame. The weight of the easily distinguishable samples was dynamically reduced to quickly focus the beneficial training samples. The analytical ability and regression accuracy of the model were improved to overlap the nematode targets.The experimental results showed that the performance indicators of YOLOFN were improved by 0.2, 4.4, and 3.8 percentage points, in terms of accuracy, recall, and mean Average Precision (mAP). The mAP of the improved model increased by 1.1, 31.7, and 15.1 percentage points, respectively, compared with the classical detection YOLOv3, SSD, and Faster R-CNN3. There was no difference in the inference time, where the mAP was higher than 11.0, 16.3, and 15.0 percentage points, respectively, compared with the lightweight backbone depth-separable convolution-YOLOv5, Mobilenetv2-YOLOv5, GhostNet-YOLOv5. Therefore, the YOLOFN model can be expected to quickly, accurately and efficiently realize the nematode microscopic examination and statistics, fully meeting the actual needs of research and development of plant nematode pesticides. The finding can provide strong technical support to accelerate the development of new drugs for plant nematode disease control. In the future research, the systematic deployment of the model can greatly contribute to the development of green nematicide, and the protection of plant nematode diseases. The high requirements of rapid end-to-side nematode counting and mortality measurement can be fully met using the expansion of the nematode species image data set.

models; deep learning; plant nematodes disease; nematode pesticide; object detection; attention mechanism; loss function

10.11975/j.issn.1002-6819.2022.22.013

S48;S435

A

1002-6819(2022)-22-0123-10

陸健強,梁效,余超然,等. 基于坐標注意力機制與高效邊界框回歸損失的線蟲快速識別 [J]. 農(nóng)業(yè)工程學報,2022,38(22):123-132.doi:10.11975/j.issn.1002-6819.2022.22.013 http://www.tcsae.org

Lu Jianqiang, Liang Xiao, Yu Chaoran, et al. Fast identification of nematode via coordinate attention mechanism and efficient bounding box regression loss[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(22): 123-132. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.22.013 http://www.tcsae.org

2022-09-28

2022-11-07

嶺南現(xiàn)代農(nóng)業(yè)科學與技術廣東省實驗室河源分中心自主科研項目(DT20220010);嶺南現(xiàn)代農(nóng)業(yè)實驗室科研項目(NT2021009);廣州市基礎與應用基礎研究項目(202201010077);高等學校學科創(chuàng)新引智計劃資助(D18019);廣東省企業(yè)科技特派員項目(GDKTP2020070200)

陸健強,博士,高級實驗師,研究方向為農(nóng)業(yè)物聯(lián)網(wǎng)與無人機遙感圖像技術。Email:ljq@scau.edu.cn

蘭玉彬,國家重點人才工程特聘專家,教授,博士生導師,研究方向為精準農(nóng)業(yè)航空方向研究。Email:ylan@scau.edu.cn

中國農(nóng)業(yè)工程學會高級會員:陸健強(B041905910S),蘭玉彬(E041200725S)

猜你喜歡
松材線蟲病線蟲
夏季蔬菜換茬期線蟲防治要注意
肉牛消化道線蟲病和呼吸道線蟲病的流行病學、臨床癥狀和防治
家畜類圓線蟲病的分析、診斷和治療
《松材線蟲病生態(tài)災害督辦追責辦法》出臺
綠色中國(2019年13期)2019-11-26 07:11:02
地黃花對秀麗線蟲壽命的影響
中成藥(2018年2期)2018-05-09 07:20:04
松材線蟲病的發(fā)生防治及對策——以重慶市為例
我國松材線蟲病的主要防治技術探析
朝鮮孢囊線蟲——浙江省孢囊線蟲新記錄種
線蟲共生菌Xenorhabdus budapestensis SN19次生代謝產(chǎn)物的分離純化與結構鑒定
獼猴桃根結線蟲病的發(fā)生與防治
遂平县| 陕西省| 阜康市| 犍为县| 县级市| 黑水县| 临江市| 凤凰县| 都安| 土默特左旗| 原平市| 娄底市| 那曲县| 沅陵县| 平顶山市| 双牌县| 茶陵县| 公安县| 额敏县| 德江县| 蒙山县| 鲁甸县| 改则县| 美姑县| 肇源县| 塔河县| 平陆县| 康定县| 望江县| 青川县| 肇东市| 泸溪县| 承德市| 齐齐哈尔市| 罗江县| 潼关县| 漾濞| 和田县| 张家口市| 高雄县| 关岭|