摘 要: 隨著畜牧養(yǎng)殖數(shù)字智能化監(jiān)控技術(shù)的產(chǎn)業(yè)化應用,如何運用深度機器學習技術(shù)對畜牧養(yǎng)殖監(jiān)控視頻數(shù)據(jù)進行發(fā)挖掘應用,從現(xiàn)有粗糙的低精度識別提升到更精準的高精度分析,從直觀的淺層特征深入到復雜關(guān)聯(lián)的深層特征,已成為當前畜禽環(huán)境監(jiān)控系統(tǒng)亟待解決的關(guān)鍵技術(shù)難題。目前,母羊發(fā)情行為檢測主要是依靠人工觀察和專用的可穿戴設備,存在誤差大、容易引起母羊應激反應和成本高等問題。本文針對母羊發(fā)情所呈現(xiàn)的行走頻繁和食欲減退的鮮明特征,選取山東省泰安市小蘭沃村某羊場為實驗場所,依據(jù)數(shù)字畜牧監(jiān)控系統(tǒng)錄制的實時視頻數(shù)據(jù)。首先采用Yolov5 目標檢測模型,檢測和識別發(fā)情母羊目標;然后采用DeepSORT目標跟蹤算法,獲取發(fā)情母羊在圈養(yǎng)食飼活動中的實時位置,通過提取目標的位置坐標數(shù)據(jù),計算出其在目標羊圈活動的移動軌跡并計算其移動距離。最后,設計了基于行走距離檢測模型和基于食飼期間行走主軌跡痕跡檢測模型,實現(xiàn)發(fā)情母羊的實時精準檢測。本文工作將為集約化圈養(yǎng)下的小群體母羊合理分欄,精細高效養(yǎng)殖管理,提供了進一步的理論探索和可行性應用方案。
關(guān)鍵詞: 深度學習;畜禽養(yǎng)殖;母羊;發(fā)情;目標跟蹤
中圖法分類號: S126 文獻標識碼: A 文章編號: 1000-2324(2024)06-0933-10
提高公羊和母羊的配種效率是決定羊羔的數(shù)量和提升產(chǎn)業(yè)效率的關(guān)鍵技術(shù)之一,母羊的發(fā)情周期一般是山羊21 d 一個發(fā)情周期,綿羊16 d 一個發(fā)情周期,每次發(fā)情持續(xù)時間為30 小時,而最佳配種時間是在母羊發(fā)情的20~36 小時內(nèi)完成,很容易出現(xiàn)發(fā)情時間判斷不準確錯過母羊的最佳配種時間,最終影響發(fā)情期受胎率從而降低繁殖率。因此,如何精準預測母羊發(fā)情時機是提高配種效率的關(guān)鍵技術(shù)。目前,針對母羊發(fā)情期行為特征已有大量研究,張國棟[1]為了及時發(fā)現(xiàn)發(fā)情母羊,正確掌握配種時間,提出了三種鑒定母羊發(fā)情的方法,分別為外部觀察法、陰道檢查法和試情法,該方法主要依賴于人工觀察和經(jīng)驗。隨著農(nóng)業(yè)傳感器技術(shù)的發(fā)展,張宏鳴[2]等將三軸加速度傳感器安裝于動物的腿部或頸部,成功識別反芻動物躺臥、行走和站立三種行為,并詳細分析識別反芻家畜發(fā)情、分娩、疾病、疼痛狀況的不同特征指標。楊曉龍[3]使用MPU6050 加速度陀螺儀安裝在奶山羊背部,成功識別了奶山羊行走、跑動、跨跳和站立四種行為,為進一步研究奶山羊發(fā)情、生病、分娩等奠定了基礎。最近,Dong Wang[4]等人使用Faster R-CNN 目標檢測算法來跟蹤監(jiān)控視頻里的奶山羊,并對奶山羊的行為進行分析。YU[5]等通過從具有發(fā)情爬跨行為的視頻中捕獲圖像構(gòu)建數(shù)據(jù)集,提出了一種基于Yolov3 的輕量級神經(jīng)網(wǎng)絡,檢測公羊和母羊的交配行為,檢測精確率為99.44%。綜上所述,母羊發(fā)情行為監(jiān)測主要依賴于人工觀察和專用可穿戴設備,但這些方法存在誤差大、易引起應激反應且成本高昂等問題。運用深度學習和圖像識別技術(shù)對母羊發(fā)情行為的檢測研究,能提供一種無接觸、自動化、高效的牲畜行為識別方式。
現(xiàn)代化畜禽養(yǎng)殖企業(yè)已廣泛應用智能傳感器裝備和信息傳輸技術(shù)[6-9],能夠?qū)崿F(xiàn)指定區(qū)域至整個養(yǎng)殖周期(6 個月*30 d*24 h)的全場景的監(jiān)測[10,11]。如圖1 所示,數(shù)字化畜禽監(jiān)控系統(tǒng)可以對指定羊圈內(nèi)的母羊發(fā)情前期、發(fā)情期、發(fā)情期后的整個過程進行實時監(jiān)測和記錄。本文工作依據(jù)母羊發(fā)情時表現(xiàn)出的活動興奮、行走頻繁和食欲減退等顯著特征,首先,借用數(shù)字化監(jiān)控設備記錄發(fā)情母羊的游走行為數(shù)據(jù),采用基于Yolov5 模型的羊只多目標檢測技術(shù)和基于DeepSORT 算法的軌跡跟蹤技術(shù)[12-15],對羊只視頻進行目標識別和跟蹤[16,17],獲取發(fā)情母羊在圈養(yǎng)食飼活動中的實時位置,然后通過提取目標的位置坐標數(shù)據(jù),計算出其在目標羊圈活動的移動軌跡并計算其移動距離,最后,設計了基于行走距離檢測模型和基于食飼期間行走軌跡檢測模型,實現(xiàn)發(fā)情母羊的實時精準檢測,為及時配種和提高羊的繁殖效率提供了有力支持。
1 數(shù)據(jù)獲取與預處理
1.1 試驗地點和研究對象
實驗地點選取山東省泰安市岱岳區(qū)小蘭沃村某羊場(東經(jīng):117 24′37;北緯:36 26′6)。該羊場根據(jù)羔羊、空懷母羊、受孕母羊、分娩母羊、種公羊等,采用小群體分類施策精細化方案。本試驗選取了即將進入發(fā)情期的空懷母羊為研究對象。
1.2 數(shù)據(jù)獲取與標注
試驗數(shù)據(jù)來源于羊場所配套的數(shù)字化畜禽監(jiān)控系統(tǒng),配備了JVS-C-BK1H3D-AM監(jiān)控攝像頭,每時間段監(jiān)控視頻長度為30 min,格式為mp4,幀率為25 fps ,分辨率為1 920×1 080 像素。從生產(chǎn)實踐得知,8 月到11 月是最常見的母羊發(fā)情時間,而9 月到10 月則是母羊發(fā)情的高峰期。由于母羊在發(fā)情期間,其行為活動明顯增加,另伴隨著食欲不振的現(xiàn)象。因此,采用為2023 年10~11 月的小蘭沃村羊場7-10 號羊圈即將進入發(fā)情期的七只空懷母羊的監(jiān)控畫面,如圖2 所示,每天8:00~9:00、12:00~13:00 和16:00~17:00 三個時間期間進行飼料的供給。采用平均、隨機取點,剔除模糊、嚴重遮擋和離開視野等的圖像,使用Labellmg 軟件按照精準拖拽、適當留白、避免遮擋、避免重疊、合理分割、調(diào)整大小和標簽一致性的規(guī)則進行標注。最終獲得1 795 幅母羊圖像,劃分為訓練集、驗證集和測試集。其中,訓練集和驗證集圖像數(shù)量占80%,測試集數(shù)量占20%,二者比例為4∶1。
2 研究方法
2.1 基于YoloV5模型的指定小區(qū)域劃檢測
搭建Yolov5 模型可以實現(xiàn)羊圈中多目標羊只的實時識別與檢測,但是在實際應用中目標檢測區(qū)域以外的羊只也會被識別出來,因此本文通過二值分割法[18]在目標監(jiān)測區(qū)域以外,添加蒙版以達到遮擋或隱藏非目標監(jiān)測區(qū)域的目的。蒙版的原理基于二值圖像處理技術(shù),其中像素值表示對應位置在圖像處理過程中是否應當被納入計算或顯示。通過將設計的蒙版與原始圖像進行逐像素的邏輯運算,能夠?qū)崿F(xiàn)對圖像內(nèi)容的選擇性處理與顯示。具體而言,蒙版能夠精確地選擇并處理圖像的特定區(qū)域,無論是用于遮罩、隱藏特定部分,還是進行更復雜的圖像編輯操作。在實際應用中,蒙版通常被設計為一個與原始圖像尺寸完全匹配的矩陣。這個矩陣中,被標記為檢測區(qū)域的部分被賦予非零值,而其余非目標監(jiān)測區(qū)域則設置為零值。
本文選取四個邊界點來確定目標檢測區(qū)域,通過確定每個邊界點距離監(jiān)控畫面頂部及左部的比例來劃定目標檢測區(qū)域的邊界。將目標區(qū)域邊界內(nèi)對應位置的像素值設為1,即將原始畫面中的該位置像素保留,將目標區(qū)域邊界以外的像素設為0,即將原始畫面中的該位置像素遮擋,逐像素的加權(quán)疊加公式為式(1):
I'(x,y) = I (x,y) × M (x,y) (1)
式(1)中,假設目標圖像為I(x,y),蒙版圖像為M(x,y);I(' x,y)表示處理后的圖像在位置(x,y)處的像素值;I(x,y)表示原始目標圖像在位置(x,y)處的像素值;M(x,y)表示蒙版圖像在位置(x,y)處的像素值。具體算法流程如圖3所示。
2.2 基于YoloV5模型的發(fā)情母羊多目標檢測
如圖4 所示,為實現(xiàn)每只羊目標的識別和檢測,選擇Yolov5 結(jié)構(gòu)搭建,用于羊目標識別和檢測深度學習模型。Yolov5 模型[19,20]增加了自適應錨框計算和自適應圖像縮放方法;在特征提取層上添加Focus 和C3 結(jié)構(gòu),以增強特征表達能力。其中,F(xiàn)ocus 模塊對輸入圖像進行切片操作,減少了原始特征信息丟失,并提升對于模型的計算速度[21];C3 模塊借鑒了CSPNet[22]的思想,增強特征融合能力的同時降低網(wǎng)絡復雜度并提升運算速度;在特征融合層中,Yolov5 采用特征金字塔網(wǎng)絡(Feature Pyramid Networks,F(xiàn)PN)結(jié)合路徑聚合網(wǎng)絡(Pyramid Attention Network forsemantic segmentation,PAN)的結(jié)構(gòu),PAN自底向上將低層的強定位特征傳遞上去,使模型獲取更加豐富的特征信息。Yolov5 是一個非常高效的目標檢測模型,相比于其他目標檢測模型,Yolov5 擁有更加輕量級的網(wǎng)絡結(jié)構(gòu),這使得它在不犧牲太多準確性的情況下,可以更容易地部署到資源受限的設備上。
由于基于Yolo 的DeepSORT 目標跟蹤算法可選用Yolov3、Yolov4、Yolov5s 以及Yolov8s 目標檢測算法,因此本文對比了多種目標檢測算法的訓練精度。為了確保實驗的可靠性,所有模型訓練使用相同的數(shù)據(jù)集,將數(shù)據(jù)集輸入四個模型進行訓練。各模型訓練結(jié)果如表1所示。
在對比Yolov3、Yolov4、Yolov5s以及Yolov8s這四種目標檢測算法的結(jié)果中可以看出,隨著版本的更新,模型在識別精度上有了顯著的提升。Yolov3 和Yolov4 作為較早期的版本,由于技術(shù)限制和算法設計的局限性,其識別精度相較于后續(xù)版本有顯著不足。然而,在Yolov5s 與Yolov8s的對比中,盡管Yolov8s 作為Yolov5s 的后續(xù)版本,在理論上可能融入了更多的優(yōu)化和改進,但在實際測試中,兩者的精確率P(%)幾乎持平。然而,Yolov5s 在召回率R(%)方面略高于Yolov8s,且在關(guān)鍵評價指標平均準確率mAP@0.5(%)上也展現(xiàn)出更優(yōu)異的性能。Yolov8s 的設計更加注重模型的輕量化,旨在減少計算資源和內(nèi)存消耗,這在一些資源受限的環(huán)境中無疑使一個巨大的優(yōu)勢。然而,這種輕量化設計也在一定程度上犧牲了模型的精度。在實際應用中,這需要在精度和效率之間做出權(quán)衡。在本文的研究中,使用了GPU進行計算,以加速模型的訓練和測試過程。在平均訓練時間的對比中,Yolov5s算法比Yolov8s 算法略勝一籌,這進一步增強了其在實際應用中的競爭力。因此,基于以上分析和實驗結(jié)果,我們最終選擇了Yolov5s 算法作為羊群多目標檢測算法進行下一步的研究。這一選擇不僅考慮了模型的精度和效率,還充分考慮了實際應用的需求和限制。
2.3 基于DeepSORT算法的母羊行走軌跡跟蹤
羊圈多目標的準確檢測是母羊發(fā)情精準預測研究的重要基礎,本文采用DeepSORT算法實現(xiàn)羊圈中羊只多目標跟蹤。整個工作流程用如下步驟來描述:
第一步:目標檢測。通過基于Yolov5 模型的羊群多目標檢測深度學習模型,提取了羊目標的外觀特征表示,DeepSORT軌跡跟蹤算法在羊群游走連續(xù)視頻序列中[23],對每一幀圖像中檢測出羊只目標物體,提取檢測目標的位置和邊界框,將其轉(zhuǎn)換為低維特征向量。每只羊目標狀態(tài)在一個預測框中描述為式(2):
x = [u,ν,s,r, (u',ν',s') ]T(2)
式(2)中u 代表目標邊界框的水平位置,v 代表目標邊界框的垂直位置,s 代表目標面積,r 代表目標邊框邊長高比,(u',ν',s')代表水平位置、垂直位置和邊界框質(zhì)心的預測值。
第二步:目標匹配。將檢測出的信息通過卡爾曼濾波器預測下一時刻目標的位置,同時通過深度學習模型提取每個檢測到的目標外觀特征;然后將這兩部分信息進行級聯(lián)匹配,匹配成功后則進行下一次的預測;若匹配失敗,則會使用匈牙利算法進行目標與軌跡之間的匹配,匹配成功后則進行卡爾曼濾波器的更新;若匹配失敗是已經(jīng)獲取到預測軌跡,則更新軌跡,若未確認,并且目標在連續(xù)幀中消失時間小于閾值,則繼續(xù)跟蹤原來的軌跡;只有當目標在連續(xù)幀中消失時間超過設定閾值時,會刪除此軌跡[24]。因此,在試驗過程中,通過檢查羊目標是否在當前幀且是否與前一幀中檢測到的羊目標相同,實現(xiàn)目標匹配。
第三步:外觀特征更新。將當前幀中檢測到的目標物體的外觀特征與新的軌跡進行相似度匹配,更新目標軌跡的外觀特征表示,實現(xiàn)目標在當前幀和下一幀的匹配,即實現(xiàn)羊群場景中準確和實時的跟蹤多個目標。
2.4 母羊發(fā)情行為特征檢測模型
由于激素水平的變化,母羊發(fā)情行為特征主要體現(xiàn)在母羊發(fā)情時,變得更為活躍、行走頻繁,行動距離顯著增加,同時,由于母羊過度興奮導致食欲明顯減退。因此,依照以上母羊發(fā)情行為特征,本文給出如下兩種母羊發(fā)情行為特征檢測模型。
2.4.1 基于行走頻繁、行動距離顯著增加的行走距離檢測 母羊行為可細分為動態(tài)行為(如行走)和靜態(tài)行為(如趴臥、站立)。通過基于Yolov5 的多目標檢測算法和DeepSORT算法,對指定區(qū)域的每一幀圖像,計算母羊目標的位置和邊界框,確定它們在視頻數(shù)據(jù)圖像中的位置,保存結(jié)果如圖5所示。
其中,第一列對應視頻幀,第二列為檢測到的目標ID,第三列為目標框中心點橫坐標,第四列為目標框中心點縱坐標,第五和第六列分別表示檢測框的寬度和高度。采用曼哈頓距離公式,我們計算每只母羊目標在時空位置與起始源點的距離,使用IntelliJ IDEA 工具編寫了基于DeepSORT算法的程序,從而得出母羊在整個游走過程中的位移變化運動軌跡數(shù)據(jù)。用于計算羊只運動軌跡數(shù)據(jù)的總距離。數(shù)學模型描述如式(3):
Dt (x,y) = | It + 1(xt + 1,yt + 1 ) - It (xt,yt ) | (3)
式(3)中D為目標移動的距離,I 為當前目標的坐標位置,x 為目標的橫坐標,y 為目標的縱坐標,t 為單位時間或稱為幀。由此可以得出母羊的動態(tài)行為在單位時間內(nèi)的移動距離,最終將數(shù)據(jù)導入至Matlab 中進行處理。如圖6 所示,單只母羊在規(guī)定(9:00~9:45),5 min 為一個時間窗,行走總距離變化曲線圖。
2.4.2 基于發(fā)情母羊食欲明顯減退的食飼期間行走軌跡檢測 試驗數(shù)羊場每天8:00~9:00、12:00~13:00 和16:00~17:00 三個時間期間進行飼料喂養(yǎng)。首先,選取喂養(yǎng)時間的視頻,然后,計算每只母羊目標在時空位置與起始源點的距離,得出母羊在整個游走過程中的位移變化運動軌跡數(shù)據(jù)。最后,獲取母羊食飼期間實時行走軌跡,分析在規(guī)定食飼期間,每只母羊食槽的距離關(guān)系,進而得出發(fā)情母羊食欲減退的定性分析。如圖7 所示,在圈養(yǎng)環(huán)境下,單只母羊在20 min(規(guī)定時間內(nèi))的母羊行走軌跡圖(母羊移動變化位置點隨時間變化的)。
3 試驗結(jié)果與分析
3.1 試驗平臺及參數(shù)設置
硬件平臺基于13 Gen Inter? Core ? i7-13620H 2.4 GHz,RAM 16 GB,NVIDIA GeForceRTX 4050 Laptop GPU,64 位Windows 11 操作系統(tǒng)。實驗設計相關(guān)數(shù)據(jù)分析和模型建立均使用python3.11+CUDA11.8+CuDNN8.9。實驗涉及相關(guān)數(shù)據(jù)分析和模型建立均在PyChramCommunity Edition 2023 軟件環(huán)境中完成。Yolov5 目標檢測模型采用隨機梯度下降(SGD),動量為0.9,批量大小為4,使用交叉熵損失,激活函數(shù)為ReLU 函數(shù),初始學習率設為0.005,當測試精度在5 個迭代周期內(nèi)無增加時,學習率進行衰減,衰減率為0.2。考慮到羊群游走視頻中的連續(xù)視頻幀是高度冗余特性,特別是存在較為相似的空間以及時間信息特征,在訓練和測試時通過利用稀疏采樣消除相鄰幀的冗余信息來加快推理速度。
3.2 試驗識別區(qū)域劃分
在上述算法中,輸入包括原始圖像(image)和蒙版(mask),輸出則是添加蒙版后的圖像(masked image)。apply ask 函數(shù)接受原始圖像和蒙版作為輸入,遍歷原始圖像的每個像素,并根據(jù)蒙版的像素值對原始圖像進行修改,最后返回添加蒙版后的圖像。這種逐像素的加權(quán)疊加方式可以靈活地調(diào)整蒙版的作用效果,實現(xiàn)對圖像的局部顯示、隱藏或改變,添加蒙版后的羊只識別效果如圖8所示。
3.3 母羊游走過程中的多目標識別分析
如圖9 所示,我們呈現(xiàn)了模型識別效果的展示,其中檢測框上方的數(shù)字清晰地標明了每只母羊的檢測置信度。在圖9(a)的正常場景中,每只母羊的檢測精度均保持在0.90 以上,這充分證明了我們所采用的基于Yolov5 模型的羊只多目標檢測算法的高效性和準確性。然而,隨著時間的推移,當母羊們逐漸從散亂狀態(tài)聚集起來時,遮擋現(xiàn)象便不可避免地出現(xiàn)了,如圖9(b)所示。盡管如此,即便在遮擋情況下,每只母羊的檢測精度依然能夠維持在0.80 以上。為了檢驗母羊游走過程中的羊只多目標檢測模型的穩(wěn)健性,采用目標識別算法的召回率作為評價標準對模型進行評估。最終,我們認為該模型對羊只識別具有較好的穩(wěn)健性與準確性。
3.4 母羊發(fā)情行為監(jiān)測實證研究
選取試驗場地標號為#7-10號的羊圈,作為發(fā)情母羊行走距離檢測實證試驗目標。監(jiān)控視頻數(shù)據(jù)為2023年10月02日00:00至24:00 1 d的時間段,設置30 min為一個時間窗。如圖10所示,24 h內(nèi)所發(fā)生的7只母羊的游走距離變化。
從圖10 中觀察到7 只母羊明顯的分為兩組,移動距離變化表現(xiàn)出顯著的差異。我們清晰觀察到編號為1、4 和5 的母羊行走頻繁,游走軌跡距離呈高表達,變化頻率明顯,經(jīng)檢測其處于發(fā)情期;而編號為2、3、6 和7 的曲線呈低表達,且變化頻率相對平緩,則檢測該四只母羊尚未到發(fā)情期。
同理,繼續(xù)選取標號為#7-10 的目標羊圈,重點關(guān)注了在8:20~9:00 食飼時間段內(nèi)7 只母羊的活動情況。當我們實時分析40 分鐘的視頻數(shù)據(jù)時,我們發(fā)現(xiàn)由于圈養(yǎng)環(huán)境下的羊圈空間有限,7 只母羊在這段時間內(nèi)的運動細節(jié)極為瑣碎,導致生成的食飼期間行走軌跡雜亂無章,難以直接用于研究分析。為了解決這個問題,給出了如下的篩選規(guī)則:規(guī)則1:
選取當母羊處于靜止行為時(例如:趴臥、站立、進食、飲水等),在該位置停留時間超過一定閾值的位置點;規(guī)則2:在40 min 食飼期間,選取母羊移動到某一位置點的次數(shù)達到一定閾值的位置點。
通過這一步驟,我們剔除了導致軌跡圖雜亂的異常數(shù)據(jù)點。經(jīng)過處理后的數(shù)據(jù)更符合我們的研究要求,于是我們利用這些數(shù)據(jù)生成了如圖11(a)、圖11(b)、圖11(c)、圖11(d)所示的母羊食飼期間行走主軌跡痕跡圖(母羊移動變化位置點隨時間變化的)。
圖11(a)展示了8:20 至8:30 這一時間段內(nèi),7 只母羊在進食前的行為主軌跡痕跡圖。從圖中可以清晰地看到,所有的7 只母羊都從初始的散列位置,移動到食槽位置,開始進食;隨著時間的推移,圖11(b)呈現(xiàn)了8:30 至8:40 這10 min內(nèi),7 只母羊在進食過程中的行為主軌跡痕跡圖。圖中,編號為1、4、5 的母羊在進食一段時間后,表現(xiàn)出離開食槽的跡象,而其他4 只母羊則繼續(xù)進食。到了8:40 至9:00 的時間段,圖11(c)和(d)進一步展示了母羊進食后的行為主軌跡痕跡圖。從圖中可以明顯看出,編號為1、4、5 的母羊已經(jīng)離開了食槽,不再進食,而剩下的四只母羊則仍在進食。綜上所述,經(jīng)細致觀察圖10 后,我們可以明顯看出7 只母羊被自然地劃分為兩個組,它們的行為主軌跡痕跡顯示出顯著的差異。值得我們注意的是,編號為1、4、5 的母羊在發(fā)情期間,其進食行為發(fā)生了顯著的變化:在進食開始時,這3 只母羊短暫地走進食槽旁進食,但隨后便迅速離開了食槽,不再繼續(xù)采食。與此同時,其余四只母羊則保持著正常的吃食狀態(tài)。基于這明顯的行為特征,我們可以檢測編號為1、4 和5 的母羊正處于發(fā)情期,而編號為2、3、6和7 的母羊則不處于此階段。這一現(xiàn)象與前面基于發(fā)情母羊行走距離檢測的結(jié)果相符合。
4 結(jié)論
目前,畜牧養(yǎng)殖數(shù)字智能化監(jiān)控技術(shù)已成為畜牧養(yǎng)殖中不可缺少的配套技術(shù),但是,迫切需要運用深度機器學習技術(shù),從現(xiàn)有粗糙的低精度識別提升到更精準的高精度分析,從直觀的淺層特征深入到復雜關(guān)聯(lián)的深層特征。本文利用基于Yolov5模型的羊群多目標檢測和基于DeepSORT算法的羊群游走軌跡跟蹤技術(shù),在羊群游走多模糊、形變較大、羊群出現(xiàn)遮擋,易發(fā)生相似目標干擾復雜情況下,準確對羊只目標識別和跟蹤,實時獲取它們的位置信息和移動軌跡,精準地追蹤并分析母羊的游走軌跡并計算出其移動距離。通過給出的基于行走距離檢測模型和基于食飼期間行走主軌跡痕跡檢測模型,我們能夠根據(jù)母羊的行為模式來判斷其發(fā)情狀態(tài),深化了我們對母羊發(fā)情期間行走頻繁、食欲減退等生物學特性的認識。為集約化圈養(yǎng)下的精細高效養(yǎng)殖管理,提供了進一步的理論探索和可行性應用方案。
在試驗過程中,發(fā)現(xiàn)深度學習的訓練需要大量的數(shù)據(jù)作為支撐,數(shù)據(jù)集的標注過程費時費力。偽標簽學習為我們提供了一種全新的解決方案。通過利用少量的標簽數(shù)據(jù)和無標簽數(shù)據(jù),偽標簽學習有效降低了對大規(guī)模標注數(shù)據(jù)的依賴,使得模型在有限的資源下也能展現(xiàn)出優(yōu)異的性能。下一步的研究將注重更加細致地探索母羊發(fā)情期的聲音特征,為發(fā)情檢測提供更加全面和準確的方法;同時,計劃開發(fā)軟件接口部署到現(xiàn)有的畜禽數(shù)字化監(jiān)控系統(tǒng)中,確保當系統(tǒng)檢測到母羊進入發(fā)情期時,能夠立即向管理人員推送通知。此外,還會融入一個直觀的人機交互模塊,使得管理人員能夠在需要時便捷地手動終止這些提示,從而更加貼合實際生產(chǎn)中的操作需求。展望未來,基于行走距離檢測模型和基于食飼期間行走主軌跡痕跡檢測模型有望擴展至其他類型的哺乳動物及多樣化的養(yǎng)殖環(huán)境,并根據(jù)實際應用場景進行必要的改進和適應性調(diào)整,以進一步提升方法的普適性和實用性。
參考文獻
[1] 張國棟. 淺談肉用羊的發(fā)情鑒定與配種方法[J]. 山
東畜牧獸醫(yī),2020,41(06):18-19.
[2] 張宏鳴,孫 揚,趙春平,等. 反芻家畜典型行為監(jiān)測
與生理狀況識別方法研究綜述[J]. 農(nóng)業(yè)機械學報,
2023,54(03):1-21.
[3] 楊曉龍. 奶山羊行為監(jiān)測管理系統(tǒng)設計[D]. 楊凌:西
北農(nóng)林科技大學,2018.
[4] Dong W,Tang J L,Zhu W,et al. Dairy goat detection
based on Faster R-CNN from surveillance video[J].
Computers and Electronics in Agriculture,2018,154:
443-449.
[5] YU L, PU Y, CEN H, et al. A lightweight neural
network-based method for detecting estrus behavior
in ewes[J].Agriculture,2022,12(8):1207.
[6] 曹麗桃,程 曼,袁洪波,等. 可穿戴設備部署位置對
羊只行為識別的影響與分析[J]. 中國農(nóng)機化學報,
2022,43(12):133-141.
[7] 石紅霄,高方馀,劉同海,等. 基于傳感器技術(shù)的自由
放牧羊行為識別研究進展[J]. 農(nóng)業(yè)工程學報,2023,
39(17):1-18.
[8] 王 奎. 基于聲信號的放牧羊只牧食信息監(jiān)測研究
[D]. 呼和浩特:內(nèi)蒙古農(nóng)業(yè)大學,2021.
[9] 何春明,趙斌,張麗娜. 舍飼綿羊運動狀態(tài)監(jiān)測方法
的研究[J]. 黑龍江畜牧獸醫(yī), 2023, (07): 48-52+
59+132.
[10] 姬振生. 羊只反芻行為監(jiān)測系統(tǒng)設計與識別技術(shù)研
究[D]. 呼和浩特:內(nèi)蒙古農(nóng)業(yè)大學,2022.
[11] 胡必玲,郭玉堂. 基于RFID和無人機的畜牧定位系
統(tǒng)[J]. 計算機測量與控制,2017,25(07):239-242.
[12] 魏 斌,Masum Billah,王美麗,等. 基于深度學習的羊
臉檢測與識別方法[J]. 家畜生態(tài)學報,2022,43(03):
47-50.
[13] 張宏鳴, 周利香, 李永恒, 等. 基于改進
MobileFaceNet 的羊臉識別方法[J]. 農(nóng)業(yè)機械學報,
2022,53(05):267-274.
[14] 姚 州,譚 焓,田 芳,等. 計算機視覺技術(shù)在智慧羊
場中的研究進展[J]. 中國飼料,2021,(07):7-12.
[15] 張宏鳴,汪 潤,董佩杰,等. 基于DeepSORT 算法的
肉牛多目標跟蹤方法[J]. 農(nóng)業(yè)機械學報,2021,52
(04):248-256.
[16] 張 偉,沈明霞,劉龍申,等. 基于CenterNet 搭配優(yōu)化
DeepSORT 算法的斷奶仔豬目標跟蹤方法研究[J].
南京農(nóng)業(yè)大學學報,2021,44(05):973-981.
[17] 王 瑞,林志堅,陳平平. 基于改進DeepSort 的行人跟
蹤方法研究[J]. 無線電通信技術(shù),2023,49(06):1117-
1124.
[18] 李建春. 牛圖像識別與分割方法研究[J]. 內(nèi)蒙古科
技與經(jīng)濟,2023,(20):105-107.
[19] JOCHER G.Ultralytics/yolov5:v6.1-tensorrt,tensorflow
edge tpu and openvino export and inference[EB/
OL]. 2022-02-22[2022-11-03]. https://github. com/
ultralytics/yolov5.
[20] REDMON J, FARHADI A.YOLO9000: better, faster,
stronger[C]//Proceedings of the IEEE Conference on
Computer Vision and Pattern Recognition, 2017:
7263-7271.
[21] WANG C Y,LIAO H,WU Y H, et al.CSPNet; a new
backbone that can enhance learning capability of
CNN[C]1/2020IEEE/CVF Conference on Computer
Vision and Pattern Recognition Workshops, IEEE,
2020;19854564.
[22] 劉 斌,李港慶,安澄全,等. 基于多尺度特征融合的
紅外單目測距算法[J]. 計算機應用,2022,42(03):
804-809.
[23] Bewley A, Ge Z Y, Ott L, et al. Simple online and
realtime tracking[C]//2016 IEEE International
Conference on Image Processing(ICIP). September
25-28,2016,Phoenix,AZ,USA.IEEE,2016:3464-3468.
[24] Wojke N,Bewley A,Paulus D,et al.Simple online and
realtime tracking with a deep association metric[C]//
2017 IEEE International Conference on Image
Processing (ICIP). September 17-20, 2017, Beijing,
China.IEEE,2017:3645-3649.