薛鴻翔 沈明霞 劉龍申 陳金鑫 單武鵬 孫玉文
(1.南京農(nóng)業(yè)大學(xué)工學(xué)院, 南京 210031; 2.農(nóng)業(yè)農(nóng)村部養(yǎng)殖裝備重點(diǎn)實(shí)驗(yàn)室, 南京 210031;3.南京農(nóng)業(yè)大學(xué)人工智能學(xué)院, 南京 210031; 4.南京農(nóng)業(yè)大學(xué)動(dòng)物科技學(xué)院, 南京 210095)
能繁母豬的存欄量直接關(guān)系到我國(guó)生豬養(yǎng)殖產(chǎn)業(yè)的發(fā)展,發(fā)情檢測(cè)是能繁母豬繁殖工作的重要技術(shù)環(huán)節(jié)。提高發(fā)情檢測(cè)的及時(shí)性和準(zhǔn)確性,確保發(fā)情母豬能夠適時(shí)配種,減少空懷母豬數(shù)量,提高能繁母豬的利用率,是提升豬場(chǎng)生產(chǎn)效益的關(guān)鍵[1-3]。
目前,母豬發(fā)情檢測(cè)主要采取人工試情法,通過(guò)刺激母豬肋部、腹部、外陰部,對(duì)母豬的靜立反應(yīng)狀態(tài)進(jìn)行人工判斷,該方法費(fèi)時(shí)費(fèi)力,并且嚴(yán)重依賴于配種人員的查情經(jīng)驗(yàn)[4-6],難以滿足規(guī)?;B(yǎng)殖對(duì)母豬發(fā)情狀態(tài)實(shí)時(shí)檢測(cè)的需求。
自動(dòng)檢測(cè)母豬發(fā)情狀態(tài)已逐漸成為研究熱點(diǎn),OSTERSEN等[7]采用射頻識(shí)別技術(shù)統(tǒng)計(jì)母豬通過(guò)“瞭望窗”接觸公豬的頻率,以24 h作為識(shí)別時(shí)間,發(fā)情檢測(cè)的錯(cuò)誤率為95.0%,靈敏度為60.7%,特異性為98.8%。CORNOU等[8]采用自動(dòng)飼喂器統(tǒng)計(jì)母豬的采食頻次,建立單變量動(dòng)態(tài)線性模型,采用此方法識(shí)別母豬發(fā)情的靈敏度為75.0%,特異性為95.4%。莊晏榕等[9]根據(jù)大白母豬試情時(shí)雙耳豎立的特征,建立基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的大白豬發(fā)情行為識(shí)別方法,并設(shè)定發(fā)情時(shí)雙耳豎立時(shí)間閾值,以鑒定母豬是否發(fā)情,但該方法需要公豬試情,實(shí)現(xiàn)自動(dòng)化檢測(cè)難度較大。LEI等[10]將母豬雙耳豎立時(shí)間、母豬和假豬鼻的交互行為作為發(fā)情特征,利用神經(jīng)網(wǎng)絡(luò)模型對(duì)大白母豬發(fā)情行為進(jìn)行分類?,F(xiàn)有的發(fā)情檢測(cè)方法大都需要公豬參與,且存在檢測(cè)耗時(shí)長(zhǎng)、錯(cuò)誤率高、靈敏性低等問題,難以滿足實(shí)際養(yǎng)殖的管理需求。
為進(jìn)一步提高經(jīng)產(chǎn)母豬發(fā)情自動(dòng)檢測(cè)速度和準(zhǔn)確率,本文提出一種基于改進(jìn)YOLO v5s的母豬發(fā)情檢測(cè)方法。首先,對(duì)獲取的仿生公豬試情的數(shù)據(jù)進(jìn)行處理,建立經(jīng)產(chǎn)母豬發(fā)情檢測(cè)數(shù)據(jù)集;其次,通過(guò)稀疏訓(xùn)練、迭代通道剪枝、模型微調(diào)等方式重構(gòu)模型,實(shí)現(xiàn)模型壓縮與加速;最后,構(gòu)建基于改進(jìn)YOLO v5s的母豬交互行為識(shí)別模型,以此模型為基礎(chǔ),對(duì)仿生公豬試情的視頻數(shù)據(jù)進(jìn)行分類,以期實(shí)現(xiàn)養(yǎng)殖環(huán)境下母豬發(fā)情狀態(tài)的精準(zhǔn)檢測(cè)。
經(jīng)產(chǎn)母豬視頻數(shù)據(jù)于2021年9月15日—11月12日在江蘇省鹽城市射陽(yáng)縣黃沙港鎮(zhèn)尚寶牧業(yè)第三畜牧場(chǎng)內(nèi)采集。本研究的實(shí)驗(yàn)對(duì)象為36頭體況相近、繁殖胎次相同的經(jīng)產(chǎn)大長(zhǎng)母豬(大約克公豬與長(zhǎng)白母豬雜交所繁育的二元母豬),經(jīng)產(chǎn)母豬在哺乳期結(jié)束后由產(chǎn)床轉(zhuǎn)移至限位欄內(nèi)。母豬妊娠舍內(nèi)部環(huán)境溫度范圍為24~27℃,相對(duì)濕度66%~82%,濕簾與風(fēng)機(jī)保持24 h常開。連續(xù)采集7 d視頻數(shù)據(jù),實(shí)驗(yàn)期間上下午各進(jìn)行一次人工查情,并測(cè)定母豬的雌二醇與孕酮激素含量變化情況[11]。
數(shù)據(jù)采集系統(tǒng)主要由仿生公豬、巡檢設(shè)備、網(wǎng)絡(luò)傳輸模塊與數(shù)據(jù)存儲(chǔ)模塊4部分組成,如圖1所示。巡檢設(shè)備搭載分辨率為2 560像素×1 440像素的??低暭t外攝像頭(DS-2CD3346WD-I型),攝像頭距地高度2.3 m,仿生公豬搭載公豬氣味劑釋放設(shè)備(內(nèi)置Boarmate公豬信息素)和公豬發(fā)聲器[12],每次試情時(shí)間為3 min,攝像頭采集的視頻通過(guò)網(wǎng)絡(luò)傳輸模塊、??低暰W(wǎng)絡(luò)硬盤錄像機(jī)(DS-8832N-K8-8×6T型)等設(shè)備存儲(chǔ)至硬盤,可通過(guò)服務(wù)器端實(shí)時(shí)查看。
圖1 視頻采集示意圖Fig.1 Sketch of video acquisition
實(shí)驗(yàn)數(shù)據(jù)集的制作包括圖像獲取、圖像篩選、圖像標(biāo)注、Mosaic數(shù)據(jù)增強(qiáng)、數(shù)據(jù)集格式化等過(guò)程[13]。
(1)圖像獲?。簭木W(wǎng)絡(luò)硬盤錄像機(jī)中截取仿生公豬3 min試情的監(jiān)控視頻片段,采用Python腳本文件將視頻截取為.jpg格式的圖像,所截圖像的時(shí)間間隔為1 s。
(2)圖像篩選:剔除質(zhì)量較差的圖像,此類圖像多拍攝于極端惡劣天氣,同時(shí)刪除相似度過(guò)高的圖像,最終得到9 820幅有效圖像。
(3)圖像標(biāo)注:使用開源軟件LabelImg對(duì)目標(biāo)區(qū)域進(jìn)行人工標(biāo)注,標(biāo)注的類別包括“sow”、“boar”、“contact”3類。標(biāo)注完成后,保存成后綴名為.xml格式的文件,文件名與圖像名保持一致。
(4)Mosaic數(shù)據(jù)增強(qiáng):根據(jù)母豬與仿生公豬交互行為在圖像中出現(xiàn)位置的不確定性以及交互區(qū)域光照變化的特點(diǎn),為減輕過(guò)擬合,擴(kuò)大模型的應(yīng)用場(chǎng)景,增強(qiáng)模型魯棒性,采用Mosaic數(shù)據(jù)增強(qiáng)方式將原始圖像進(jìn)行數(shù)據(jù)擴(kuò)充,本文采用幾何變形、隨機(jī)剪接、光照與色彩調(diào)節(jié)等方式,并隨機(jī)添加邊緣空白,Mosaic數(shù)據(jù)增強(qiáng)后的效果如圖2所示[14]。
圖2 Mosaic數(shù)據(jù)增強(qiáng)效果Fig.2 Mosaic data augment effect
(5)數(shù)據(jù)集格式化:以PASCAL VOC標(biāo)準(zhǔn)格式對(duì)數(shù)據(jù)集進(jìn)行格式化,將原圖置于images目錄下,將相應(yīng)的標(biāo)簽文件置于Labels文件夾下,運(yùn)行voc-YOLOv5.py腳本文件在文件夾Main目錄下生成包含圖像名稱的Train.txt、Test.txt文件,按8∶1∶1將標(biāo)注好的數(shù)據(jù)隨機(jī)分配至訓(xùn)練集、測(cè)試集和驗(yàn)證集中[15]。
母豬與仿生公豬交互行為的準(zhǔn)確識(shí)別是判定母豬是否發(fā)情的關(guān)鍵。由于母豬與仿生公豬交互行為發(fā)生區(qū)域相比于整幅圖像較小,且后期模型需應(yīng)用于規(guī)模化豬場(chǎng),綜合考慮模型檢測(cè)速度與精度,本文以YOLO v5算法作為網(wǎng)絡(luò)基準(zhǔn)模型,對(duì)其進(jìn)行優(yōu)化,將優(yōu)化后的模型作為母豬發(fā)情檢測(cè)模型。 YOLO v5目標(biāo)檢測(cè)算法的主要過(guò)程如圖3所示。
圖3 YOLO v5算法目標(biāo)檢測(cè)示意圖Fig.3 Schematic of object detection based on YOLO v5 algorithm
YOLO v5算法是一種基于YOLO v3-SPP和YOLO v4的網(wǎng)絡(luò)框架,包含YOLO v5s、YOLO v5m、YOLO v5x、YOLO v5l 4個(gè)版本[16]。YOLO v5網(wǎng)絡(luò)模型主要由Input、Backbone、Neck、Prediction 4個(gè)模塊組成,Input模塊用于實(shí)現(xiàn)交互行為圖像的輸入、Backbone模塊用于實(shí)現(xiàn)交互行為圖像特征提取、Neck模塊用于實(shí)現(xiàn)交互行為圖像特征融合、Prediction模塊用于實(shí)現(xiàn)交互行為位置預(yù)測(cè)[17]。YOLO v5網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖4所示。
圖4 YOLO v5網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.4 YOLO v5 network model structural sketch
在輸入端,通過(guò)使用Mosaic數(shù)據(jù)增強(qiáng)方法豐富數(shù)據(jù)表征,采用GIOU損失函數(shù)(Generalized_IOU_NM)預(yù)測(cè)篩選框,并引入含有Focus結(jié)構(gòu)和CSP結(jié)構(gòu)的基準(zhǔn)網(wǎng)絡(luò)[18]。其中,F(xiàn)ocus結(jié)構(gòu)主要用于完成切片操作,使交互行為特征提取更加充分,有效減少下采樣過(guò)程數(shù)據(jù)的丟失[19]。CSP結(jié)構(gòu)主要用以降低計(jì)算瓶頸和內(nèi)存開銷,利用CSP優(yōu)化核心網(wǎng)絡(luò)可提高模型檢測(cè)性能,增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力,充分減少計(jì)算量和推理時(shí)間。在Backbone層和末端Neck輸出層之間引入FPN+PAN結(jié)構(gòu),可有效提升推理速度[20]。
考慮到豬場(chǎng)實(shí)際生產(chǎn)條件的限制,為便于經(jīng)產(chǎn)母豬發(fā)情行為識(shí)別所需的軟硬件部署。本研究在YOLO v5s網(wǎng)絡(luò)的基礎(chǔ)上,對(duì)模型進(jìn)行結(jié)構(gòu)化剪枝,以充分降低模型的復(fù)雜度,在保證模型識(shí)別精度的同時(shí),提高模型的識(shí)別速度[21]。模型通道剪枝流程如圖5所示,主要包括稀疏訓(xùn)練、通道剪枝、模型微調(diào)3個(gè)過(guò)程[22]。
圖5 模型通道剪枝流程 Fig.5 Channel level pruning of model
為了縮短卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間,在較短的時(shí)間內(nèi)得到最佳模型,本文在YOLO v5s網(wǎng)絡(luò)的批量歸一化層(Batch normalization, BN)加入超參數(shù)γ和ρ[23],采用縮放與平移兩種操作對(duì)通道數(shù)據(jù)進(jìn)行歸一化處理,以學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的特征分布,其計(jì)算方法為
(1)
式中Sin——BN層輸入
Sout——BN層輸出
μA——樣本數(shù)據(jù)的均值
σA——樣本數(shù)據(jù)的標(biāo)準(zhǔn)差
p——避免除數(shù)為0時(shí)所使用的微小正數(shù)
在BN層的各通道加入尺寸因子,同時(shí)在損失函數(shù)中引入懲罰項(xiàng),與網(wǎng)絡(luò)權(quán)重聯(lián)合訓(xùn)練得到稀疏網(wǎng)絡(luò)的尺寸因子γ[24],其計(jì)算公式為
(2)
式中L——添加正則化懲罰項(xiàng)的損失函數(shù)
l1——原始網(wǎng)絡(luò)的損失函數(shù)
λ——平衡因子
g(γ)——縮放因子的損失函數(shù)
u——所有剪枝通道的集合
式(2)第2項(xiàng)為L(zhǎng)1正則化(L1-Normalization),用于降低模型的復(fù)雜度。當(dāng)網(wǎng)絡(luò)權(quán)值W接近0時(shí),即得到稀疏網(wǎng)絡(luò),最后進(jìn)行模型微調(diào),目的是挖掘神經(jīng)網(wǎng)絡(luò)的潛在性能[25]。BN層調(diào)整流程如圖6所示。
圖6 BN層通道剪枝示意圖Fig.6 Diagram of batch normalization layer channel sparse
在仿生公豬試情場(chǎng)景下,當(dāng)母豬接近仿生公豬或母豬部分遮擋公豬時(shí),由于交并比(Intersection over union,IOU)較大,經(jīng)過(guò)非極大抑制處理后,只剩下單一檢測(cè)框,在一定程度上增加了漏檢概率[26]。針對(duì)以上問題,本文在非極大值抑制(Non-maximum suppression,NMS)部分,采用DIOU非極大值抑制(Distance_IOU_NMS)代替GIOU非極大值抑制(Generalized_IOU_NMS),在預(yù)測(cè)框與真實(shí)框重疊區(qū)域的判定基礎(chǔ)上,增加對(duì)目標(biāo)框中心點(diǎn)歐氏距離的計(jì)算。當(dāng)仿生公豬與母豬目標(biāo)框出現(xiàn)IOU較大、中心距離也較大時(shí),判定為兩個(gè)目標(biāo),以提升模型的檢測(cè)精度[27]。其中,DIOU計(jì)算公式為
(3)
式中DIOU——距離交并比
IOU——交并比
d——目標(biāo)框之間的中心距
c——目標(biāo)框最小外接矩形的對(duì)角距離
DIOU_NMS的處理邏輯為
(4)
式中si——分類評(píng)價(jià)得分
ε——非極大值抑制閾值
DIOU_NMS能夠?qū)⒅丿B面積與目標(biāo)預(yù)測(cè)框中心距綜合考慮,可較為精確地篩選目標(biāo)框。
本文評(píng)價(jià)指標(biāo)分為2部分,第1部分為交互行為識(shí)別結(jié)果評(píng)價(jià),使用模型大小、模型訓(xùn)練時(shí)間、平均精確率、召回率、F1值、單幅圖像平均檢測(cè)時(shí)間、單幀視頻平均檢測(cè)時(shí)間等指標(biāo)評(píng)估模型的檢測(cè)性能[28]。第2部分為發(fā)情檢測(cè)結(jié)果評(píng)價(jià),使用錯(cuò)誤率、靈敏度、特異性、準(zhǔn)確率4個(gè)指標(biāo)評(píng)估發(fā)情測(cè)試試驗(yàn)效果[29]。
在完成網(wǎng)絡(luò)的調(diào)整后,將建立的數(shù)據(jù)集輸入至優(yōu)化后的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并采用圖像批量檢測(cè)與視頻檢測(cè)兩種方式對(duì)訓(xùn)練完成的模型進(jìn)行測(cè)試。
3.1.1試驗(yàn)平臺(tái)
模型依賴于Pytorch 1.6深度學(xué)習(xí)框架,試驗(yàn)平臺(tái)處理器型號(hào)為Intel CoreTM i7-11700k,顯卡型號(hào)為NVIDIA GTX3090,顯卡內(nèi)存為24 GB,在Ubuntu 18.04操作系統(tǒng)上配置Python 3.8、CUDA 11.4、OpenCV 4.5.1等深度學(xué)習(xí)環(huán)境。
3.1.2模型訓(xùn)練
在模型訓(xùn)練前,統(tǒng)一各個(gè)網(wǎng)絡(luò)模型的參數(shù),其中迭代輪次設(shè)置為160個(gè),批量大小設(shè)置為16,初始學(xué)習(xí)率設(shè)置為0.01,循環(huán)學(xué)習(xí)率設(shè)置為0.1,初始沖量設(shè)置為0.98,初始權(quán)重衰減系數(shù)設(shè)置為0.000 5,每個(gè)迭代周期保存一次模型,選取最優(yōu)的模型作為交互行為識(shí)別模型。訓(xùn)練160個(gè)迭代輪次的分類損失值、邊框損失值和目標(biāo)損失值曲線如圖7所示。
圖7 分類損失值、邊框損失值和目標(biāo)損失值曲線Fig.7 Results of classification loss, bounding box loss and object loss
由圖7可知,優(yōu)化后的模型YOLO v5gs收斂速度較YOLO v5s、YOLO v5m、YOLO v5l、YOLO v5x 4個(gè)模型更快, 160個(gè)迭代輪次的時(shí)間開銷較YOLO v5s模型縮短36 min,較YOLO v5x模型縮短164 min,改進(jìn)后的模型內(nèi)存占用量?jī)H5.7 MB,較改進(jìn)前縮小60%,更易于部署與使用。優(yōu)化后的模型與原始模型的精確率、召回率、平均精度均值(mAP)曲線如圖8所示。
圖8 模型測(cè)試效果Fig.8 Results of model tested
圖8中,平均精度均值(mAP)表示所有類別平均精度的平均值,本文類別數(shù)為3。mAP0.5表示交并比閾值為0.5時(shí)的平均精度均值,mAP0.5∶0.95表示交并比閾值在[0.5,0.95]之間每隔0.05取1次mAP,然后取得的平均值。由圖7、8可知,模型輕量化后,在保證精度基本不下降的同時(shí),能夠有效提高檢測(cè)速度,選取160個(gè)迭代輪次中最優(yōu)權(quán)重模型作為發(fā)情行為識(shí)別模型。
3.1.3模型測(cè)試
采用圖像批量檢測(cè)與視頻檢測(cè)兩種方式對(duì)模型進(jìn)行測(cè)試。選取978幅圖像進(jìn)行檢測(cè),改進(jìn)后的模型圖像平均檢測(cè)時(shí)間僅為2 ms,檢測(cè)速度較YOLO v5s提升15%,推理時(shí)間縮短0.3 ms。為進(jìn)一步說(shuō)明改進(jìn)后的模型在交互行為識(shí)別的適用性,本文將改進(jìn)后的模型與同為單次目標(biāo)檢測(cè)器(one stage)的EfficientDet-D0目標(biāo)檢測(cè)算法以及兩階段目標(biāo)檢測(cè)器(two stage)的Faster R-CNN進(jìn)行對(duì)比,交并比閾值均設(shè)置為0.5,模型效果如 表1 所示,根據(jù)對(duì)比,改進(jìn)后的模型識(shí)別效果優(yōu)于上述兩種算法。
表1 模型效果對(duì)比Tab.1 Comparison of model effect
選取9月28日15:08—15:11的視頻數(shù)據(jù)檢測(cè)該模型的識(shí)別性能。模型對(duì)視頻數(shù)據(jù)檢測(cè)實(shí)際上是對(duì)連續(xù)圖像序列進(jìn)行檢測(cè),模型默認(rèn)每25 ms獲取視頻流中圖像,然后讀取每一幀要檢測(cè)的圖像,將圖像轉(zhuǎn)化為OpenCV可顯示的BGR格式,然后再輸入模型進(jìn)行檢測(cè),導(dǎo)致視頻檢測(cè)速度比圖像檢測(cè)速度慢,單幀圖像檢測(cè)時(shí)間為6 ms。結(jié)合豬場(chǎng)實(shí)際應(yīng)用場(chǎng)景,此模型的檢測(cè)速度能夠滿足實(shí)時(shí)檢測(cè)的要求,視頻數(shù)據(jù)的檢測(cè)結(jié)果如圖9所示,可實(shí)時(shí)顯示檢測(cè)進(jìn)度、圖像尺寸、目標(biāo)類別、檢測(cè)耗時(shí)等信息。
圖9 母豬交互行為視頻檢測(cè)結(jié)果Fig.9 Recognition results of video of sows’ interactive behavior
受舍內(nèi)光線變化影響,存在極少量的漏檢和誤檢(約0.5%),如圖10所示。由圖10可以看出,模型能夠?qū)δ肛i目標(biāo)準(zhǔn)確識(shí)別,但由于曝光不足、過(guò)度曝光等原因,造成部分仿生公豬目標(biāo)和交互行為未識(shí)別,但該情況一般出現(xiàn)因光線變化,導(dǎo)致圖像在三通道與單通道短暫過(guò)渡期間。研究進(jìn)一步將篩選出的900幅光照較差的圖像進(jìn)行測(cè)試,交互行為準(zhǔn)確率較正常光線條件下低1.5個(gè)百分點(diǎn),由此可見,光線對(duì)模型檢測(cè)交互行為的影響較小。
圖10 模型性能的影響因素Fig.10 Influencing factors of model performance
根據(jù)檢測(cè)模型輸出的各個(gè)時(shí)刻的交互狀態(tài),對(duì)經(jīng)產(chǎn)母豬的交互頻率進(jìn)行分析。交互時(shí)長(zhǎng)統(tǒng)計(jì) 3 min 內(nèi)每頭母豬發(fā)情期與非發(fā)情期交互時(shí)長(zhǎng),計(jì)算36頭母豬發(fā)情期與非發(fā)情期的平均交互頻率。
從表2可知,母豬發(fā)情期與非發(fā)情期與仿生公豬的交互頻率和交互時(shí)長(zhǎng)均發(fā)生顯著的變化。當(dāng)母豬由非發(fā)情期進(jìn)入發(fā)情期時(shí),平均交互時(shí)長(zhǎng)普遍增加3.2~4.4倍,發(fā)情時(shí)每分鐘平均交互時(shí)長(zhǎng)高達(dá)17.21 s;交互頻率普遍增加2.3~3.7倍,發(fā)情時(shí)平均交互頻率高達(dá)5.61次/min,利用SPSS軟件對(duì)交互時(shí)長(zhǎng)和頻率進(jìn)行克魯斯卡爾-沃利斯檢驗(yàn),均表現(xiàn)出顯著性差異(P<0.001)[30]。
表2 發(fā)情期與非發(fā)情期交互行為分析Tab.2 Analysis of interaction between estrus and non-estrus
通過(guò)計(jì)算交互時(shí)長(zhǎng)和頻率的皮爾遜相關(guān)系數(shù)可知,兩者具有極強(qiáng)相關(guān)關(guān)系(R=0.86)。本文選用交互時(shí)長(zhǎng)對(duì)母豬發(fā)情行為進(jìn)行研究,選取96個(gè)視頻片段,視頻時(shí)長(zhǎng)均為3 min,其中包含46組非發(fā)情期
母豬行為數(shù)據(jù)和50組發(fā)情期母豬行為數(shù)據(jù),模型對(duì)行為數(shù)據(jù)每秒檢測(cè)1次,單個(gè)視頻母豬交互時(shí)間統(tǒng)計(jì)結(jié)果如圖11所示。
圖11 交互時(shí)間統(tǒng)計(jì)結(jié)果Fig.11 Time statistics of interactive behavior
根據(jù)圖11的統(tǒng)計(jì)分布結(jié)果,分別以交互時(shí)間11、14、17、20、23 s作為是否發(fā)情的判定閾值,計(jì)算發(fā)情識(shí)別結(jié)果,以錯(cuò)誤率、靈敏度、特異性、準(zhǔn)確率作為評(píng)價(jià)指標(biāo),其中錯(cuò)誤率用以估算未發(fā)情的母豬被錯(cuò)誤識(shí)別為發(fā)情母豬的比率,數(shù)值越小,表示假報(bào)警的次數(shù)越少;靈敏度指從發(fā)情樣本中檢出的發(fā)情母豬的比率,數(shù)值越高,發(fā)情檢測(cè)效果越好;特異性指從未發(fā)情樣本中檢出的未發(fā)情母豬的比率,數(shù)值越高,發(fā)情檢測(cè)效果越好,由表3可知,以20 s作為發(fā)情檢測(cè)閾值時(shí),發(fā)情檢測(cè)錯(cuò)誤率為10.0%,靈敏度為90.0%,特異性為89.1%,準(zhǔn)確率為89.6%。
表3 不同判定時(shí)間測(cè)試結(jié)果Tab.3 Test results of different judgment times %
為進(jìn)一步測(cè)試該閾值下光照條件對(duì)發(fā)情檢測(cè)的影響,試驗(yàn)挑選包含12組(4組發(fā)情期、8組非發(fā)情期)存在光照較差的3 min視頻數(shù)據(jù),并與人工測(cè)試結(jié)果對(duì)比,測(cè)試結(jié)果表明:以20 s作為發(fā)情檢測(cè)閾值時(shí),模型判定結(jié)果與人工檢測(cè)發(fā)情結(jié)果相同,研究表明:由光線導(dǎo)致的交互行為誤檢與漏檢對(duì)發(fā)情判定影響較小。
(1)采用深度學(xué)習(xí)的方法識(shí)別檢測(cè)母豬與仿生公豬的交互行為,平均精確率達(dá)97.8%,單幅圖像檢測(cè)時(shí)間僅1.7 ms,單幀視頻檢測(cè)時(shí)間為6.0 ms,可避免人工查情對(duì)母豬所造成的應(yīng)激,為后續(xù)母豬發(fā)情檢測(cè)奠定基礎(chǔ)。
(2)以20 s作為發(fā)情判定標(biāo)準(zhǔn)時(shí),發(fā)情檢測(cè)錯(cuò)誤率為10.0%、靈敏度為90.0%、特異性為89.1%、準(zhǔn)確率為89.6%。在保證高靈敏度的同時(shí),降低了檢測(cè)的錯(cuò)誤率,提高了檢測(cè)的特異性和準(zhǔn)確率。
農(nóng)業(yè)機(jī)械學(xué)報(bào)2023年1期