国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于混合注意力機制和云數(shù)據(jù)平臺的蝗蟲識別系統(tǒng)研究

2023-09-13 02:47:44李軍馬行穆春陽王夢雪劉寶成李亞東
山東農(nóng)業(yè)科學 2023年8期
關鍵詞:蟲情蝗蟲注意力

李軍馬行穆春陽王夢雪劉寶成李亞東

(1. 北方民族大學電氣信息工程學院,寧夏銀川 750021;2. 北方民族大學寧夏智能信息與大數(shù)據(jù)處理重點實驗室,寧夏銀川 750021;3. 北方民族大學機電工程學院,寧夏銀川 750021)

蝗災、旱災、澇災曾并稱為三大自然災害,一直是中國農(nóng)業(yè)防治的重點對象。 但在自然環(huán)境下,蝗蟲目標小,同時受光照、遮擋等因素干擾,識別難度大。 因此,在現(xiàn)代農(nóng)林業(yè)領域做到及時且準確的蝗蟲監(jiān)測意義重大[1]。

近年來,隨著深度學習的發(fā)展,神經(jīng)網(wǎng)絡已經(jīng)被廣泛應用在害蟲識別領域。 例如張博等[2]將空間金字塔池化和YOLOv3 卷積神經(jīng)網(wǎng)絡相結合,實現(xiàn)了實際場景下20 類害蟲的識別,且識別精度達到88.07%。 許德剛等[3]提出了一種改進的Faster RCNN 糧蟲目標檢測方法,在自制數(shù)據(jù)集下實現(xiàn)了89.42%的精確度,為糧食存儲安全提供了蟲害監(jiān)測新思路。 楊紅云等[4]提出的基于遷移學習和卷積神經(jīng)網(wǎng)絡相結合的水稻害蟲識別方法,使用VGG16 模型,實現(xiàn)了稻飛虱等5 種水稻害蟲的識別。 甘雨等[5]通過改進EfficientNet模型實現(xiàn)作物害蟲識別,在公開的大規(guī)模作物害蟲數(shù)據(jù)集IP102 上實現(xiàn)了69.45%的識別率。 上述研究成果表明利用神經(jīng)網(wǎng)絡能夠為害蟲識別提供解決方法。

在蝗蟲識別方面,近些年也取得了一些研究進展。 2017年劉欣[6]提出了基于無人機遙感平臺的蝗蟲災害監(jiān)測方法,該方法采用無人機遙感技術進行圖像拍攝,然后將圖像回傳處理,對于大面積蟲害識別具有較強的圖像分析能力,但是對于小區(qū)域以及林地深處蟲情無法兼顧,而且采用遠端服務器進行圖像處理,延遲高。 2020年張文霞[7]利用基于二值圖像的區(qū)域性識別算法和快速卷積神經(jīng)網(wǎng)絡Faster RCNN 對蝗蟲圖像進行檢測與識別,結果表明,在自制數(shù)據(jù)集下,模型的平均識別精度達到84%;但是在光線環(huán)境較弱和背景復雜的情況下,模型的特征提取能力會明顯下降。 2021年李林等[8]以SSD 模型為基礎,提出了一種K-SSD-F 蝗蟲視頻目標檢測算法,通過采用KNN 算法提取蝗蟲視頻前后幀的時空特征來分析目標,平均精度達到88.94%,但該模型只針對東亞飛蝗,對于國內出現(xiàn)范圍較廣的中華稻蝗等蝗蟲類未做研究,同時該方法未解決蝗蟲識別過程中的實時蟲情數(shù)據(jù)留存問題。

針對以上問題,本研究以飛蝗、稻蝗、竹蝗、沙蝗等農(nóng)林業(yè)蝗蟲為研究對象,結合當下嵌入式設備的發(fā)展情況,以輕量化的一階段卷積神經(jīng)網(wǎng)絡YOLOv4-tiny 為基礎,提出了一種基于混合注意力機制CBAM[9]、七牛云數(shù)據(jù)平臺的蝗蟲目標識別模型,然后利用Jetson Xavier NX 開發(fā)板的推理加速能力,將改進后的模型移植到開發(fā)板中,設計了一套小型蝗蟲識別系統(tǒng)。

1 材料與方法

1.1 數(shù)據(jù)來源

數(shù)據(jù)集獲取時充分考慮國內蝗蟲蟲情,選取對農(nóng)林業(yè)危害較大、出現(xiàn)頻率高、繁殖率高的飛蝗、稻蝗、竹蝗、沙蝗等,其中飛蝗主要是東亞飛蝗和亞洲飛蝗,稻蝗為中華稻蝗。 圖像獲取途徑一是通過多時期、多角度、自然環(huán)境下的周邊果園、農(nóng)田實地相機采集;二是通過網(wǎng)絡搜索獲取相關蝗蟲圖片。 數(shù)據(jù)集像素從564×348 到4032×3024不等,共2 344 張圖片。 數(shù)據(jù)集示例圖片如圖1所示。

1.2 圖像標注與增強

對獲取到的蝗蟲數(shù)據(jù)集,采用labelImg 軟件手動標簽的方式進行圖像標注。 同時,為了增強模型的泛化能力,通過對原蝗蟲圖片進行亮度調整、鏡像翻轉、平面旋轉、添加高斯噪聲等一些常規(guī)預處理來擴充數(shù)據(jù)集,最終得到25 860 張蝗蟲圖像。 數(shù)據(jù)集圖像增強處理如圖2 所示。

圖2 數(shù)據(jù)集圖像增強處理示例

1.3 模型選擇

在深度學習領域,目標檢測算法有單階段和雙階段之分,雙階段算法模型大、精度高,但速度慢,例如R-CNN[10]、Fast R-CNN[11]、Faster RCNN[12];而一階段算法巧妙地將目標檢測問題轉化為了回歸問題,可以直接完成端到端的預測,精度高、速度快,SSD[13]、YOLO[14]便是一階段算法的優(yōu)秀代表[15]。

隨著嵌入式設備的發(fā)展,越來越多的場景開始將神經(jīng)網(wǎng)絡部署到移動端,以此來提升工作效率。 在這種情況下,兼顧精度與速度的輕量級神經(jīng)網(wǎng)絡不斷被提出。 2020年6月25日,Alexey Bochkovskiy 在發(fā)布YOLOv4 兩個月后,正式推出YOLOv4-tiny[16]。 YOLOv4-tiny 作為YOLOv4 的輕量化版本,在盡可能保障模型精度的前提下做了參數(shù)刪減。 YOLOv4-tiny 網(wǎng)絡主要由3 部分構成,分別是主干特征提取網(wǎng)絡CSPDarknet53-tiny、加強特征提取網(wǎng)絡(feature pyramid network,F(xiàn)PN)和檢測頭YOLO Head。 CSPDarknet53-tiny主要用于前期特征提取,包括卷積層(Conv)、批量標準化層(BN)、激活函數(shù)層(Leaky ReLU)和3個CSPBlock 模塊。 網(wǎng)絡首先對輸入進來的圖像(416×416 像素)進行兩次步長為2 的卷積操作,經(jīng)過CSPDarknet53-tiny 主干特征提取網(wǎng)絡后,一共可以獲得13×13 和26×26 的兩個有效特征層;FPN 結構將主干網(wǎng)絡得到的有效特征層進行卷積加上采樣操作來進行特征融合,獲得兩個具有更高語義信息的有效特征層;之后YOLO Head 對這兩個具有更高級語義信息的特征層進行結果預測,形成13×13 和26×26 的兩個目標預測尺度,最終得到蝗蟲目標的置信度及位置信息。

1.4 模型改進

1.4.1 增加注意力機制在自然環(huán)境下,蝗蟲目標大小不一,出現(xiàn)的背景也較復雜,并有大量物體遮擋,在這種情況下神經(jīng)網(wǎng)絡對每張圖片的關注點就會分散。 為了提升模型的細節(jié)特征提取能力,加強神經(jīng)網(wǎng)絡在不同背景下對檢測目標的重視程度,使神經(jīng)網(wǎng)絡將更多注意力放到所給信息的重點區(qū)域,同時兼顧模型的速度,本研究分別在YOLOv4-tiny 的加強特征提取網(wǎng)絡輸入位置和第一次卷積結果輸出位置添加混合注意力機制CBAM,讓神經(jīng)網(wǎng)絡在通道和空間上分別獲取更多的特征信息,有效提升模型在復雜背景下的識別精度[17]。 改進方式如圖3 所示。

圖3 改進的YOLOv4-tiny 網(wǎng)絡結構

CBAM 是一種混合注意力機制,包括通道注意力機制和空間注意力機制。 首先通道注意力機制利用平均池化和最大池化對輸入進來的有效特征層進行特征信息聚合操作,并送到共享網(wǎng)絡,之后再壓縮輸入特征圖的空間維數(shù),逐元素求和并合并,最后經(jīng)過Sigmoid 激活函數(shù)后生成通道注意力特征圖;然后空間注意力模塊利用平均池化和最大池化對通道特征圖進行高和寬的壓縮,再進行Concat 操作,之后經(jīng)過7×7 的卷積操作將特征圖維度降為1,最后經(jīng)過Sigmoid 激活函數(shù)后生成空間注意力特征圖。 通過CBAM 模塊,神經(jīng)網(wǎng)絡不僅提升了在復雜背景下對重點區(qū)域的關注,也加強了對有效色素點的關注。 CBAM 注意力機制模塊結構如圖4 所示。 CBAM 注意力機制的公式如下:

圖4 CBAM 注意力機制結構

式中:MC(F )代表通道注意力機制操作;Ms(F )代表空間注意力機制操作;σ 表示Sigmoid 激活函數(shù);F 表示輸入特征圖;F1表示經(jīng)過通道注意力機制后的輸出特征圖;f7×7表示7×7 的卷積操作[18]。

1.4.2 嵌入云數(shù)據(jù)平臺蝗蟲害的治理需要前期就掌握蟲情數(shù)據(jù),但已有的大多研究只是對模型進行各種改進以提升模型精度,并未對模型實際應用過程中的數(shù)據(jù)問題進行引申研究或者提出解決方案。 針對該問題,本研究以七牛云數(shù)據(jù)平臺為基礎,通過對YOLOv4-tiny 預測模塊進行修改,在模型的YOLO Head 部分嵌入七牛云數(shù)據(jù)平臺軟件包,使模型能夠在實時目標檢測中實現(xiàn)蟲情數(shù)據(jù)的即時云端上傳,并通過個人注冊的合法域名,實現(xiàn)蝗蟲蟲情的實時數(shù)據(jù)留存與下載解析,這可為農(nóng)林業(yè)及時監(jiān)測或治理蟲害提供數(shù)據(jù)支撐。 基于七牛云數(shù)據(jù)平臺改進的蝗蟲識別模型結構如圖3 所示,七牛云服務器用戶界面如圖5 所示。

圖5 七牛云服務器平臺界面

1.5 模型訓練

將25 860 張蝗蟲圖像按照9∶1 的比例劃分為訓練集與測試集,使用PyTorch 框架搭建模型,利用實驗室戴爾服務器進行模型訓練。 服務器主要配置為:Inter(R) Xeon(R) Gold 6246 CPU @3.30 GHz 12 核24 線程(雙處理器),190 GB RAM;Tesla P40 GPU,96 GB 內存。 軟件操作系統(tǒng)為Ubuntu18.04,CUDA 版本為10.0,CUDNN 版本7.1,Python 版本3.7,PyTorch 版本1.2。 模型訓練輸入圖像尺寸為416×416,訓練過程使用Adam 優(yōu)化和更新權重參數(shù)。 具體訓練參數(shù)如表1 所示。

表1 模型訓練參數(shù)

1.6 模型評估

模型訓練完成后在自制數(shù)據(jù)集下采用精確率(Precision)、平均精度均值(mean average Precision,mAP)、召回率(Recall)、F1 值(F1-score)、每秒幀率(frame per second,F(xiàn)PS)、模型大小(model size)6個指標來評估模型性能。 其中,F(xiàn)PS 越高,代表模型的檢測速度越快[19];F1 值是精確率與召回率的調和平均(harmonic mean),是一個同時考慮精確率與召回率的評價指標[20],F(xiàn)1 值越大且越接近1 代表模型的綜合性能越好。 精確率、召回率、F1 值的計算公式如下:

式中,TP 為正樣本中檢測正確的樣本數(shù)目,F(xiàn)P 為負樣本中錯檢為正樣本的數(shù)目,F(xiàn)N 為正樣本中漏檢或錯檢為負樣本的樣本數(shù)目。

2 結果與分析

2.1 消融試驗結果分析

為了驗證改進后的模型性能,首先在自制數(shù)據(jù)集下設計了消融試驗,結果如表2 所示。 其中YOLOv4-tiny(ECA)表示使用了ECA(efficient channel attention)[21]通道注意力機制,YOLOv4-tiny(CBAM)表示使用了CBAM 混合注意力機制。可知,在使用注意力機制的情況下,模型的綜合性能得到了提升。 在只使用ECA 通道注意力機制的情況下,模型的精確率達到了91.51%,mAP 達到了93.35%。 在使用CBAM 混合注意力機制的情況下,模型的精確率、mAP、召回率、F1 值與原網(wǎng)絡相比均有明顯提升,分別提升1.69、1.57、1.62、2個百分點;同時相較于YOLOv4 -tiny(ECA)性能也有一定提升,模型大小維持不變。說明使用注意力機制能夠有效提升模型的性能,且使用混合注意力機制的效果要優(yōu)于單一的通道注意力機制。

表2 消融試驗結果

2.2 對比試驗結果分析

為了更加客觀地評價模型的性能,再次在自制數(shù)據(jù)集下進行對比試驗,結果如表3 所示。 其中YOLOX-tiny 表示YOLOX 的輕量級網(wǎng)絡,YOLOv5n 表示YOLOv5 的輕量級網(wǎng)絡。 可知,YOLOX-tiny 和YOLOv5n 作為兩種較新的輕量級網(wǎng)絡,模型的mAP 分別達到了97.58%和95.72%,性能優(yōu)良,但檢測速度分別只有47FPS 和57FPS,相較于YOLOv4-tiny(CBAM)的117FPS 差距明顯。 同時通過與 YOLOv4 網(wǎng)絡對比, 發(fā)現(xiàn)YOLOv4-tiny 作為簡化版的YOLOv4,其模型的精度和速度更均衡,考慮到模型后期需要部署到嵌入式設備,所以選擇YOLOv4-tiny(CBAM)是更好的方案。

表3 對比試驗結果

2.3 模型識別效果可視化

最后為了更加全面地評價改進模型的性能,使用不同環(huán)境下、不同數(shù)量的蝗蟲目標進行識別試驗,識別效果如圖6 所示。 可知,在復雜環(huán)境下的單目標識別試驗中,各個模型均能順利識別出目標,說明模型在自制數(shù)據(jù)集下提取了豐富的特征信息。 在自然環(huán)境下的雙目標識別試驗中,所有模型也均能正確識別出目標,但YOLOv4-tiny(CBAM)模型預測框更小,更接近蝗蟲目標的真實體態(tài)。 在自然環(huán)境下多目標識別試驗中,YOLOv4-tiny 模型出現(xiàn)了漏檢情況,而其他模型均能實現(xiàn)4個目標的識別。 綜上可得,YOLOv4-tiny(CBAM)模型的綜合性能更加均衡,更適合后續(xù)的部署應用。

2.4 模型應用與測試

將改進并訓練好的蝗蟲識別模型移植到NVIDIA 的Jetson Xavier NX 開發(fā)板中,利用Jetson Xavier NX 開發(fā)板作為模型的應用載體,借助TensorRT 加速模型,搭建設計了一種便攜式蝗蟲識別裝置,如圖7 所示。 考慮加入的云數(shù)據(jù)平臺,采用華為E5576 隨身WIFI 裝置作為數(shù)據(jù)提供模塊,實現(xiàn)野外環(huán)境的數(shù)據(jù)服務功能。 相機部分采用索尼IMX219 模塊CSI(有效像素800W)和海康U14a 便攜式USB2K 鏡頭(有效像素400W)。

圖7 便攜式蝗蟲識別裝置實物圖

系統(tǒng)工作流程如圖8 所示。 通過CSI 或USB2K 攝像頭獲取圖像信息,利用Jetson Xavier NX 內嵌改進并訓練好的模型進行蝗蟲識別,使用云數(shù)據(jù)平臺進行蝗蟲目標實時數(shù)據(jù)云端上傳與存儲,最后通過七牛云賬號在線查看識別結果。數(shù)據(jù)格式中包括識別時間等信息,方便用戶及時掌握蟲情數(shù)據(jù),進行有效防治[22]。

為了測試設計的蝗蟲識別系統(tǒng)的識別效果,進行相關自然環(huán)境下的檢測試驗。 首先采用多角度、多體態(tài)、不同背景下的靜態(tài)蝗蟲目標數(shù)據(jù)進行識別測試,結果(圖9)顯示,搭建設計的蝗蟲識別系統(tǒng)能夠實現(xiàn)不同狀態(tài)下的蟲情識別,具有一定的針對性。 其次,為了驗證模型及識別系統(tǒng)的實時動態(tài)識別效果,進行自然環(huán)境下模型的目標視頻實時識別測試,實時識別效果及云平臺實時數(shù)據(jù)分別如圖10 和圖11 所示。 可見,在不同的自然背景下,針對蝗蟲目標數(shù)量不一、角度和光線不同等情況,系統(tǒng)均能夠有效識別出目標,且實時檢測速度達到28FPS。 綜上可見,本研究設計的小型蝗蟲識別系統(tǒng)在自然環(huán)境下具有較強的蝗蟲識別能力;而嵌入在模型預測模塊中的七牛云數(shù)據(jù)平臺,實現(xiàn)了即時蟲情識別數(shù)據(jù)的云端存儲功能,大大提升了模型的可利用性,解決了以往蟲情數(shù)據(jù)掌握不及時的問題,能夠為現(xiàn)代農(nóng)林業(yè)蝗蟲識別提供新思路。

圖9 靜態(tài)目標識別效果

圖10 視頻實時識別效果

圖11 蝗蟲蟲情識別云數(shù)據(jù)后臺示例圖

3 討論與結論

通過對前人在蝗蟲識別領域研究的分析,本研究提出了一種基于YOLOv4-tiny 網(wǎng)絡改進的蝗蟲目標識別模型,大小為23.6 MB。 首先,該模型使用輕量型的混合注意力機制CBAM 提升模型性能,彌補了過去蝗蟲識別算法精度低、實時性差的缺點,提升了模型在復雜環(huán)境下的小目標特征提取能力,模型的平均精度可達到94.69%,召回率達到92.51%,F(xiàn)1 值達到93%,單張圖片識別速度達到117FPS,在嵌入式開發(fā)板上的實時檢測速度達到28FPS,模型性能優(yōu)良。 其次,針對實際應用場景,在模型的預測模塊引入了七牛云數(shù)據(jù)平臺,借助個人域名,實現(xiàn)了模型對蝗蟲蟲情實時識別的云端數(shù)據(jù)存儲與解析,提升了模型的應用價值,方便研究者實時掌握蟲情數(shù)據(jù)。 最后,針對現(xiàn)代農(nóng)林業(yè)蝗蟲監(jiān)測裝置較大且多是采用氣味或燈光誘捕害蟲的思路,本研究借助高性能的嵌入式設備Jetson Xavier NX 搭載改進的模型,設計了一種小型的蝗蟲識別裝置。 通過試驗驗證,該系統(tǒng)在不同自然背景及光線強度下均取得了非常好的識別效果,具有較強的蝗蟲目標識別能力。 本研究提出的方法可為農(nóng)林業(yè)蝗蟲識別提供新的技術參考。

另外,本研究用提取到的蝗蟲共同特征信息作為研究基礎,自建了一套有25 860 張圖像的蝗蟲數(shù)據(jù)集。 但本研究未進行分類目標預測,將在今后的研究中繼續(xù)完善模型的分類識別功能,以實現(xiàn)蝗蟲目標精細化識別。

猜你喜歡
蟲情蝗蟲注意力
虞以新:鑒定“蟲情”的大偵探
學與玩(2022年9期)2022-10-31 02:53:28
你真的認識蝗蟲嗎
讓注意力“飛”回來
都2020年了,人類為啥還拿蝗蟲沒轍?
科學大眾(2020年10期)2020-07-24 09:14:06
基于AI圖像識別的煙草制品蟲情監(jiān)測系統(tǒng)的設計與實現(xiàn)
人多勢眾的蝗蟲
平山縣2018年性誘劑和蟲情燈誘測棉鈴蟲成蟲效果比較
我國病蟲害監(jiān)測預警系統(tǒng)取得新突破
蝗蟲
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
西乌| 克东县| 扬州市| 右玉县| 开远市| 张家口市| 洞口县| 萨嘎县| 福安市| 喀什市| 诸暨市| 利津县| 兖州市| 沾益县| 马龙县| 武定县| 石泉县| 措勤县| 鹤峰县| 濉溪县| 尚义县| 阿瓦提县| 台东市| 津市市| 滁州市| 大渡口区| 乐陵市| 巴楚县| 新田县| 鄂尔多斯市| 盐山县| 洞头县| 桂林市| 临城县| 潜江市| 高台县| 宿州市| 滨州市| 休宁县| 阿巴嘎旗| 凉城县|