国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

融合特征金字塔與可變形卷積的高密度群養(yǎng)豬計數(shù)方法

2022-11-03 10:42:18高榮華李奇峰馬為紅
農(nóng)業(yè)機械學報 2022年10期
關(guān)鍵詞:掩膜盤點豬只

王 榮 高榮華 李奇峰 馮 璐 白 強 馬為紅

(1.北京市農(nóng)林科學院信息技術(shù)研究中心, 北京 100097;2.西北農(nóng)林科技大學信息工程學院, 陜西楊凌 712100;3.國家農(nóng)業(yè)信息化工程技術(shù)研究中心, 北京 100097)

0 引言

隨著智慧農(nóng)業(yè)和信息化養(yǎng)殖技術(shù)的發(fā)展,大規(guī)模集成化養(yǎng)殖進程明顯加快,視覺與人工智能技術(shù)在養(yǎng)殖中的應用逐漸成為新的發(fā)展趨勢[1]。生豬在不同生長階段轉(zhuǎn)欄時需要對舍內(nèi)豬只重新盤點計數(shù),現(xiàn)有人工巡檢方式費時費力,還會因為豬只跑動造成計數(shù)不準確,利用信息化技術(shù)精確檢測生豬群體數(shù)量能夠提升養(yǎng)殖效率。但舍內(nèi)豬只數(shù)量較多,粘連、遮擋等客觀因素給群體盤點計數(shù)帶來較大挑戰(zhàn),因此,迫切需要一種適合高密度養(yǎng)殖模式下的非接觸式生豬群體精準盤點計數(shù)方法,實現(xiàn)高效智慧養(yǎng)殖[2-3]。

傳統(tǒng)非接觸式盤點計數(shù)方法以傳統(tǒng)圖像處理方法為主。首先利用光學方法確定目標豬只典型顏色,再結(jié)合形態(tài)學和區(qū)域生長方法統(tǒng)計生豬群體數(shù)量[4]。除顏色外,研究者還利用目標豬只紋理特征,實現(xiàn)視覺范圍內(nèi)豬只數(shù)量遠程統(tǒng)計[5]。然而這些方法均需要人工選擇豬只顏色和紋理等特征,在高密度養(yǎng)殖模式下造成特征提取不充分,使得群體計數(shù)準確率降低。

隨著深度學習與計算機視覺技術(shù)發(fā)展,卷積神經(jīng)網(wǎng)絡(Convolutional neural network,CNN)表現(xiàn)出較強的特征提取能力[6-7],被很多研究者應用到盤點計數(shù)領(lǐng)域[8-16]。高云等[17]通過感知多尺度特征獲取預測密度圖,并分析密度圖積分實現(xiàn)豬只數(shù)量估計,改進后的模型平均絕對誤差和均方根誤差分別為1.74和2.28。TIAN等[18]提出新的CNN學習圖像特征到密度圖的映射關(guān)系,將盤點誤差降為1.67。然而密度圖積分估計群體數(shù)量的方法無法精準識別豬只區(qū)域,造成盤點計數(shù)誤差較高。為準確獲取豬只區(qū)域,研究者利用目標檢測網(wǎng)絡YOLO(You only look once)檢測目標豬只,再結(jié)合深度相機Kinect對其進行分割,實現(xiàn)實時的豬體分割[19]。利用Faster R-CNN(Faster regions with CNN feature)和神經(jīng)網(wǎng)絡結(jié)構(gòu)搜索算法(Neural architecture search,NAS)檢測群養(yǎng)豬圖像中的豬只位置并識別豬只姿態(tài)[20]。然而基于目標檢測算法得到的豬只區(qū)域,對高密度的粘連豬只的檢測誤差較大,無法獲取豬只邊緣信息。為解決此問題,SARWAR等[21]使用全卷積網(wǎng)絡(Fully convolution network,F(xiàn)CN)在無人機(UAV)捕獲的航空圖像中分割牲畜個體,實現(xiàn)了牲畜邊緣信息的提取,將整個系統(tǒng)的召回率從90%提高到98%。XU等[22]利用Mask R-CNN(Mask regions with CNN feature)分割無人機拍攝的牛羊圖像并進行盤點計數(shù),準確率達92%。同時利用特征金字塔和非極大值抑制等方法優(yōu)化Mask R-CNN并將其應用于豬只盤點,取得較好的盤點效果,但對高密度養(yǎng)殖模式下生豬群體盤點計數(shù)準確率只有86%[23]。上述研究成果證明實例分割算法可獲取豬只邊緣信息,對稀疏生豬盤點計數(shù)的誤差較小,但在豬只互相粘連、嚴重遮擋等高密度養(yǎng)殖模式下,豬只邊緣分割精度仍有待提高,影響盤點計數(shù)精度。

WANG等[24]提出的SOLO v2(Segmenting objects by locations)可以精準快速地分割高密度下實例物體,成為主流的實例分割網(wǎng)絡。因此本文以SOLO v2為基礎,融合多尺度特征金字塔網(wǎng)絡(Feature pyramid network,F(xiàn)PN)和二代可變形卷積[25](Deformable convolutional networks version 2,DCN v2),提出一種高密度養(yǎng)殖模式下的生豬群體盤點計數(shù)模型,解決豬只之間粘連、遮擋等問題,并根據(jù)分割結(jié)果計算單個豬圈內(nèi)豬只數(shù)量,同時優(yōu)化模型結(jié)構(gòu),降低其對計算資源的依賴,為生豬群體盤點計數(shù)在線監(jiān)測提供技術(shù)支撐。

1 計數(shù)模型構(gòu)建

1.1 數(shù)據(jù)來源

本文試驗數(shù)據(jù)采用科大訊飛公開的生豬盤點數(shù)據(jù)集,如表1所示。數(shù)據(jù)采集時間為2019年5月1日到6月30日,分別在兩個群養(yǎng)的育肥豬舍中安裝俯視攝像頭,選取早中晚差異較大的圖像,每幅圖像包括18~31頭數(shù)量不等的豬只,共700幅,圖像分辨率為2 048像素×1 563像素和1 920像素×1 080像素,保存為.jpg格式,24位彩色圖像。本文利用200幅圖像作為豬只分割數(shù)據(jù)集,并按照比例8∶2將其劃分為訓練集和驗證集,然后利用剩余500幅圖像作為豬只盤點測試集測試模型盤點生豬數(shù)量的效果,將豬只分割數(shù)據(jù)集中50%的圖像進行隨機翻轉(zhuǎn),增加數(shù)據(jù)集的多樣性。

表1 生豬盤點數(shù)據(jù)集Tab.1 Analysis of pig inventory data set

圖1為群養(yǎng)豬俯視圖像,每幅圖像豬只數(shù)量在18~31頭之間,由于育肥豬較為活躍,群養(yǎng)時容易聚集,因此每幅圖像中均存在高密度區(qū)域。加之豬場環(huán)境臟亂,拍攝的盤點圖像受環(huán)境和豬群姿態(tài)影響較大,這些高密度區(qū)域出現(xiàn)較多的模糊、臟亂、嚴重遮擋、重疊和粘連等情況,因此增加了生豬個體分割的難度,也為盤點計數(shù)帶來挑戰(zhàn)。

圖1 自然場景下群養(yǎng)豬俯視圖像Fig.1 Top view images of group pigs in natural scene

1.2 生豬群體盤點計數(shù)模型

1.2.1模型網(wǎng)絡結(jié)構(gòu)

圖2 高密度生豬群體盤點計數(shù)模型結(jié)構(gòu)Fig.2 Structure of high-density pig population inventory count model

為適應高密度養(yǎng)殖模型下的多姿態(tài)豬只盤點計數(shù),以ResNet為基礎建立盤點計數(shù)骨干網(wǎng)絡,利用豬只特征金字塔提取多尺度盤點特征圖,再整合特征圖分批輸入至豬只實例分割模塊,根據(jù)分割結(jié)果實現(xiàn)生豬群體盤點計數(shù),模型結(jié)構(gòu)如圖2所示。

盤點數(shù)據(jù)集被輸入到高密度生豬群體盤點計數(shù)模型后,被劃分為S×S網(wǎng)格,經(jīng)過骨干網(wǎng)絡和豬只特征金字塔得到不同層次特征圖,輸入到豬只實例分割模塊的不同支路進行多任務學習,最終輸出不同位置的語義類別和實例掩膜。利用矩陣非極大值抑制算法(Matrix non-maximum suppression,Matrix NMS)去除得分較低的實例掩膜,輸出最終的群養(yǎng)豬實例分割結(jié)果,實現(xiàn)生豬群體盤點計數(shù)。為適用于粘連、密集和遮擋等情況下的群體精準計數(shù),本文選取ResNet18、ResNet34、ResNet50和ResNet101共4種骨干網(wǎng)絡尋找適用于生豬群體盤點的最優(yōu)模型,減少訓練中的過擬合現(xiàn)象,骨干網(wǎng)絡具體結(jié)構(gòu)見表2。

表2 骨干網(wǎng)絡結(jié)構(gòu)Tab.2 Backbone network structure

1.2.2豬只特征金字塔構(gòu)建

單一視角下獲取的大視野生豬盤點數(shù)據(jù)集,往往存在不同尺度豬只個體,因此,融合ResNet骨干網(wǎng)絡和豬只特征金字塔提取不同層級語義信息,解決圖像中多尺度豬只分割問題,達到提高模型分割精度的目的,具體結(jié)構(gòu)如圖3所示,圖中括號內(nèi)數(shù)值

圖3 豬只特征金字塔結(jié)構(gòu)圖Fig.3 Pyramid structure diagram of pig characteristics

表示特征圖尺寸占原圖尺寸的比例。

高層特征包含的語義信息較多,低層特征的特征損失較少,因此抽取包含高層語義信息的特征圖C5,經(jīng)過1×1卷積操作得到通道數(shù)為256的特征圖M5,抽取特征圖C2~C4,分別與上一層上采樣后的特征圖相加,得到256通道的融合特征圖M2~M4。M2~M5經(jīng)過3×3卷積操作之后得到包含語義類別和位置信息的4種不同尺度特征圖P2~P5,其中,P5經(jīng)過最大池化層后得到P6。利用雙線性插值將P2~P6縮放至S×S大小(其中S為12、16、24、36、40),作為卷積核支路和語義類別預測支路的輸入。利用重復卷積和雙線性插值將U2~U5縮放至相同尺度后進行特征融合,輸入至特征支路預測豬只掩膜。

1.2.3豬只實例分割模塊

豬只實例分割模塊包含語義類別預測和實例掩膜預測兩個分支,豬只特征金字塔輸出的特征圖F被輸入到實例掩膜預測分支后,利用特征支路和卷積核支路獲取最終的群養(yǎng)豬掩膜預測結(jié)果M,計算公式為

Mi,j=Gi,j*F

(1)

式中Mi,j——群養(yǎng)豬的掩膜預測結(jié)果

Gi,j——中心位置為(i,j)的掩膜內(nèi)核

實例掩膜預測支路有兩個分支,因此需要兩個輸入F和兩個掩膜內(nèi)核G生成豬只掩膜M。被輸入到卷積核支路的特征圖F尺寸為S×S×256,經(jīng)過4個3×3卷積和一個3×3×D的操作后生成最終掩膜內(nèi)核Gi,j,對于每個網(wǎng)格,卷積核分支預測輸出維度為D,當卷積操作為1×1時,D與F的通道數(shù)相同,卷積操作為3×3時,D為F通道數(shù)的9倍。

特征支路利用重復的3×3卷積操作、組歸一化[26]、ReLU和上采樣等操作,將豬只特征金字塔輸出的特征圖P2~P5進行特征融合,融合之后的特征圖再次經(jīng)過1×1卷積操作、組歸一化以及ReLU激活函數(shù)得到最終的掩膜特征圖。

1.2.4卷積結(jié)構(gòu)優(yōu)化

傳統(tǒng)卷積使用固定大小的卷積核作為滑動窗口對特征圖F進行采樣,然后點乘ω求和,卷積公式為

(2)

式中y(P0)——輸出的卷積結(jié)果

Rk——感受野的大小和擴張,取值為{(-1,-1),(-1,0),…,(0,1),(1,1)}

Pn——以P0為中心卷積核范圍內(nèi)的所有采樣點

ω(Pn)——卷積核的權(quán)重矩陣

F(P0+Pn)——以P0為中心卷積核范圍內(nèi)的圖像特征

卷積操作中固定的感受野對多尺度目標的魯棒性較差,易造成較大的特征損失。為進一步提高模型對多尺度豬只的魯棒性,本文引入第2代的可變形卷積(Deformable convolutional,DCN v2)。在傳統(tǒng)卷積感知輸入特征時加入調(diào)整偏移量,調(diào)整來自不同空間位置和單元的特征調(diào)制振幅。當調(diào)制振幅為0時,該位置的特征信號不被接收,實現(xiàn)模型對空間位置特征的自主學習和選擇。y(P0)計算公式為

(3)

式中 ΔPn、Δmn——調(diào)整偏移量

僅加入調(diào)整偏移量ΔPn后得到可變形卷積DCN[27],加入Δmn后得到DCN v2,提高了模型對群養(yǎng)豬圖像的特征提取能力和對多尺度豬只的魯棒性。

1.2.5模型結(jié)構(gòu)優(yōu)化

為減少模型對計算資源的消耗,對模型冗余通道剪枝,實現(xiàn)較輕量豬只實例分割模塊。將模塊支路中的4個卷積塊減少為3個,生成的掩膜圖通道維數(shù)由512降為256,同時將尺度范圍修改為[(1,64),(32,128),(64,256),(128,512),(256,2 048)],降低冗余的模型參數(shù)量。輸入較大尺寸的圖像雖然能提高模型準確率,但仍會降低模型推理速度,增加模型對計算資源的消耗,因此,在保證模型準確率基礎上,本文降低多尺度訓練和測試時輸入圖像分辨率,將多尺度訓練時圖像分辨率設為[(852像素,512像素),(852像素,480像素),(852像素,448像素),(852像素,416像素),(852像素,384像素),(852像素,352像素)],測試時由(1 333像素,800像素)降為(852像素,512像素),實現(xiàn)對生豬群體盤點計數(shù)模型結(jié)構(gòu)優(yōu)化。

1.2.6損失函數(shù)和評價指標

生豬群體盤點計數(shù)模型的損失函數(shù)由Focal語義類別預測損失函數(shù)Lcate和Dice掩膜預測損失函數(shù)Lmask組成,利用豬只個體分類誤差和豬只掩膜預測誤差,共同判定模型收斂程度。

采用平均精度(Average precision,AP)評價模型性能,使用交并比(Intersection over union,IoU)在0.50~0.95的聯(lián)合閾值上取平均值,并利用IoU取0.50或0.75時的AP來判斷模型精度,評價指標值越高,證明模型分割豬只精度越高。

2 實驗結(jié)果與分析

2.1 實驗設置

實驗采用1塊GeForce GTX 2080Ti 型GPU進行訓練,顯存為11 GB,基于Windows 10操作系統(tǒng)和Pytorch框架搭建深度學習算法網(wǎng)絡訓練平臺,其中Python版本為3.7.1,Pytorch版本為1.10.0,Keras版本為2.2.4,CUDA API版本為10.2,cuDNN版本為8.0.5。

2.2 基礎模型選擇

ResNet骨干網(wǎng)絡包含多種不同層數(shù)的特征提取網(wǎng)絡,使用相同的生豬盤點數(shù)據(jù)集和多尺度訓練方法訓練具有不同骨干網(wǎng)絡的SOLO v2模型,獲得適用于生豬群體盤點計數(shù)的ResNet骨干網(wǎng)絡,實驗結(jié)果如表3所示。

由表3可知,基于ResNet50和ResNet101的SOLO v2模型效果最好。在IoU為0.50~0.95、0.75時基于ResNet101的SOLO v2的AP最高,IoU為0.50時SOLO v2+ResNet101比SOLO v2+ResNet50的AP低1.1個百分點,且內(nèi)存占用量比其高145 MB。為確保模型輕量化和精確性,本文選擇ResNet50作為骨干網(wǎng)絡改進SOLO v2,使其適用于生豬盤點在線計數(shù)。

表3 不同骨干網(wǎng)絡的SOLO v2模型豬只分割結(jié)果Tab.3 Pig segmentation results of SOLO v2 model with different backbone networks

2.3 模型訓練結(jié)果

模型訓練過程中采用梯度下降法(Stochastic gradient descent,SGD)優(yōu)化模型權(quán)重,設置初始學習率為0.01,動態(tài)衰減因子為0.9,正則化權(quán)值衰減系數(shù)為0.000 1,在150輪和250輪時降低學習率,總訓練輪數(shù)為400輪,訓練時每次輸入GPU的圖像數(shù)量為10。利用多尺度分辨率圖像訓練本文模型,訓練結(jié)果如圖4所示。

圖4 高密度生豬群體盤點計數(shù)模型的訓練結(jié)果Fig.4 Training results of high-density pig population inventory counting model

由圖4可知,隨著訓練輪數(shù)的增加,3個損失函數(shù)總體呈下降趨勢,趨于穩(wěn)定后,在固定區(qū)間內(nèi)波動。其中掩膜預測損失函數(shù)在0.06~0.08區(qū)間波動,語義類別預測損失函數(shù)在0.01~0.02區(qū)間波動,總體損失函數(shù)在0.2~0.25區(qū)間震蕩,掩膜損失函數(shù)收斂區(qū)間略高于語義類別預測損失函數(shù)收斂區(qū)間,其原因是掩膜損失函數(shù)計算依賴于豬只分割區(qū)域像素值矩陣,計算得到的損失函數(shù)值偏高。因此總體收斂趨勢表明本文模型分割豬只效果較好。

2.4 不同模型之間測試結(jié)果對比

為驗證本文模型對高密度生豬群體的分割精度,設計了多組消融對比實驗。使用相同骨干網(wǎng)絡、訓練方式、訓練集和測試集,對比SOLO v2、模型結(jié)構(gòu)優(yōu)化后的SOLO v2、引入DCN的結(jié)構(gòu)優(yōu)化SOLO v2及本文模型的豬只分割效果,SOLO v2優(yōu)化模型的測試結(jié)果對比如表4所示。

表4 不同模型的測試結(jié)果對比Tab.4 Comparison of test results between different models

以ResNet50為基礎骨干網(wǎng)絡的SOLO v2模型在IoU為0.50時分割的準確率達到了94.9%,保存的內(nèi)存占用量為352 MB,對SOLO v2結(jié)構(gòu)進行優(yōu)化,模型內(nèi)存占用量為237 MB,減少115 MB,證明模型結(jié)構(gòu)優(yōu)化方法的有效性。但結(jié)構(gòu)優(yōu)化后的模型在IoU為0.50時準確率下降1.6個百分點,IoU為0.50~0.95和IoU為0.75時的AP也出現(xiàn)一定程度下降,因此,分別引入DCN和DCN v2,提升模型準確率。在結(jié)構(gòu)優(yōu)化后的SOLO v2模型中引入DCN,AP(IoU為0.50)提高1.1個百分點,IoU為0.50~0.95和0.75時AP分別提高了2.3、5.7個百分點。而本文模型進行結(jié)構(gòu)優(yōu)化并引入DCN v2后,相較于僅優(yōu)化模型結(jié)構(gòu)的SOLO v2的AP(IoU為0.50)提高3.4個百分點,IoU為0.50~0.95和IoU為0.75時的AP分別提高7.8、15個百分點,因此,本文模型提高了生豬群體分割準確率,且模型內(nèi)存占用量為256 MB,較SOLO v2模型降低1/3,適用于真實養(yǎng)殖場內(nèi)生豬群體的在線盤點計數(shù)。

表4證明了本文模型對生豬群體分割準確率最高,魯棒性最好。因此,對不同模型分割生豬群體結(jié)果進行可視化分析,如圖5所示,圖像中重疊、粘連的區(qū)域使用紅色虛線框標出。由圖5可知,SOLO v2模型對稀疏豬群分割效果較好,紅色虛線標記的豬只粘連、堆疊區(qū)域,SOLO v2優(yōu)化模型存在將粘連豬只視為同一頭豬或?qū)⒁活^豬只分割為多頭的錯分現(xiàn)象。而本文模型對嚴重重疊、粘連區(qū)域的分割錯誤較少。因此,圖5進一步驗證了本文模型對重疊、粘連生豬群體有較好的分割效果,同時,本文模型推理每幅圖像時間僅為0.68 s,能夠?qū)崿F(xiàn)生豬群體實時盤點。

圖5 不同模型分割生豬個體的可視化結(jié)果Fig.5 Visual analysis of results of segmentation of individual pigs by different models

2.5 不同模型生豬盤點效果對比分析

為進一步驗證本文模型泛化性,采用500幅帶有高密度區(qū)域的豬群盤點測試數(shù)據(jù)集,如圖6所示,500幅測試圖像中每幅圖像的豬只數(shù)量在18~29頭不等。利用SOLO v2及不同優(yōu)化模型盤點圖像生豬數(shù)量,分析不同模型群體盤點計數(shù)結(jié)果,如表5所示。

圖6 500幅盤點測試圖像中的豬只數(shù)量分布Fig.6 Distribution of pig numbers in 500 inventory test images

表5 不同模型群體盤點計數(shù)結(jié)果對比Tab.5 Comparison of population count results of different models 幅

實驗過程中,設置得分閾值為0.5,由表5可知,本文模型盤點誤差為0頭豬的圖像數(shù)量為207幅,遠高于其他模型,相較于改進前的SOLO v2,盤點誤差為0頭豬的圖像數(shù)量增加了26%。其中,盤點計數(shù)誤差為0或1頭豬的圖像數(shù)量占總體測試圖像的81.6%,而SOLO v2僅占71.2%;誤差為2頭豬以內(nèi)的圖像數(shù)量占整體測試圖像的97.2%,誤差大于3頭豬的圖像僅5幅,占整體測試圖像的1%,相較于表5中的SOLO v2優(yōu)化模型,本文模型實現(xiàn)了高密度養(yǎng)殖模式下的高精度盤點計數(shù)。

2.6 分析與討論

目前基于深度學習的豬只計數(shù)研究中常使用目標檢測算法檢測圖像中的豬只個體,然后根據(jù)檢測結(jié)果計算豬只數(shù)量。這種方法對于稀疏離散分布的豬只圖像中檢測效果較好,當圖像中存在高密度區(qū)域時,豬只粘連、遮擋、重疊等問題使得目標檢測模型準確率降低,而基于實例分割算法的豬只計數(shù)可減少高密度豬群的干擾。因此,本文復現(xiàn)了目前性能較好的YOLO v5模型對群養(yǎng)豬進行計數(shù)的準確率,并和本文基于實例分割模型的豬只計數(shù)算法進行對比,結(jié)果如表6所示。

表6 不同方法對豬群計數(shù)準確率對比結(jié)果Tab.6 Comparison results of pig herd counting by different methods %

對YOLO v5模型進行200輪訓練后,IoU為0.50時,模型目標檢測的準確率達到了99.2%,在豬只盤點測試集測試豬只計數(shù)效果,不同方法對豬群計數(shù)的對比結(jié)果如表6所示。本文模型計數(shù)正確的豬群圖像數(shù)量約為YOLO v5的兩倍,且本文模型計數(shù)誤差小于3頭豬時準確率為97.2%,比YOLO v5模型提高10.8個百分點;而YOLO v5模型計數(shù)誤差大于3頭豬的圖像數(shù)量是本文模型的5倍。綜上所述,YOLO v5作為目前性能最優(yōu)的目標檢測模型,經(jīng)訓練之后,雖然檢測準確率較高,但其應用在豬只計數(shù)時準確率遠低于本文模型,驗證了本文選擇實例分割算法用于豬只計數(shù)優(yōu)于基于目標檢測的豬只計數(shù)方法。

為進一步驗證基于實例分割的豬只計數(shù)效果優(yōu)于基于目標檢測算法的豬只計數(shù)方法,對豬只計數(shù)測試集的分割結(jié)果和檢測結(jié)果進行可視化分析,如圖7所示。對于稀疏分散的群養(yǎng)豬圖像,圖像分割和檢測均可以較為準確地找到豬只位置,但當豬體形狀不是規(guī)則的矩形時,目標檢測方法會出現(xiàn)誤檢的情況,而本文模型沒有出現(xiàn),如圖7a所示。夜間群養(yǎng)豬圖像為紅外圖像,對本文模型的影響較小,而YOLO v5會將背景檢測為豬只個體,導致計數(shù)不準確,如圖7b所示。對于群養(yǎng)豬圖像的高密度區(qū)域,豬只粘連、重疊現(xiàn)象較多,本文模型誤分割的現(xiàn)象相對較少,而由于豬體不是規(guī)則的矩形形狀,且互相粘連,YOLO v5的檢測框中常常包含多頭豬,不同豬只之間相互影響,造成YOLO v5對高密度區(qū)域內(nèi)的豬群計數(shù)準確率較低。綜上,育肥豬較為活躍,喜好群居,在豬只計數(shù)測試集中出現(xiàn)了大量的高密度區(qū)域,而本文模型的準確率遠高于YOLO v5模型,可視化效果也優(yōu)于目標檢測結(jié)果,因此,本文提出的基于實例分割模型的豬只計數(shù)方法更適用于高密度下的群養(yǎng)豬盤點計數(shù)。

圖7 不同方法檢測豬只可視化效果Fig.7 Visualization of pig detection by different methods

3 結(jié)束語

本文模型利用豬只特征金字塔和DCN v2提高對多尺度目標的特征提取能力和分割能力,同時優(yōu)化模型結(jié)構(gòu),減少對計算資源的消耗和占用,并與目前使用最多的目標檢測模型YOLO v5進行了對比。實驗結(jié)果表明,本文模型在高密度養(yǎng)殖模式下分割生豬群體準確率達到96.7%,且本文模型內(nèi)存占用量較SOLO v2減少96 MB,降低1/3,達到較好的豬群分割效果。盤點計數(shù)預測誤差為0的圖像數(shù)量為207幅,較SOLO v2增加26%,其中盤點計數(shù)誤差為0頭豬或1頭豬的圖像數(shù)量占整體測試圖像的81.6%,較SOLO v2提高10.4個百分點,本文盤點誤差在2頭豬以內(nèi)的圖像數(shù)量占比為97.2%,誤差大于3頭豬的圖像僅占1%。且本文模型計數(shù)正確的豬群圖像數(shù)量約為YOLO v5的1.52倍,計數(shù)誤差大于3頭豬的圖像數(shù)量是基于YOLO v5模型的1/5。

猜你喜歡
掩膜盤點豬只
降低日糧粗蛋白并添加單體氨基酸對斷奶—育肥豬生長性能和營養(yǎng)排泄的影響(中)
利用掩膜和單應矩陣提高LK光流追蹤效果
一種結(jié)合圖像分割掩膜邊緣優(yōu)化的B-PointRend網(wǎng)絡方法
豬胃潰瘍的病因與防治措施
睜眼瞎盤點
動漫星空(2020年10期)2020-10-29 06:57:00
秋冬季防應激不可忽略飲水消毒
豬只硒缺乏癥的預防措施和治療方法
光纖激光掩膜微細電解復合加工裝置研發(fā)
盤點與展望
多層陰影掩膜結(jié)構(gòu)及其制造和使用方法
科技資訊(2016年21期)2016-05-30 18:49:07
乃东县| 勃利县| 神农架林区| 西昌市| 台州市| 康乐县| 杨浦区| 甘洛县| 北宁市| 平邑县| 城口县| 墨竹工卡县| 兴化市| 贵港市| 神农架林区| 康马县| 都匀市| 南充市| 潞西市| 宜都市| 微山县| 青浦区| 浮山县| 宁南县| 青阳县| 金平| 西充县| 额济纳旗| 博罗县| 苏尼特右旗| 石河子市| 海林市| 河池市| 贵德县| 赤城县| 宁陵县| 永城市| 长沙市| 涟水县| 广灵县| 华阴市|