陶雪陽 施振旦 郭彬彬 戴子淳
摘要:為解決群養(yǎng)種鵝個體產(chǎn)蛋信息監(jiān)測難度大的問題,提出一種基于射頻識別技術(shù)(radio frequency identification,RFID)與目標檢測算法的種鵝個體產(chǎn)蛋信息監(jiān)測方法。首先,使用134.2 kHz低頻RFID實現(xiàn)無接觸獲取產(chǎn)蛋種鵝身份信息。其次,引入目標檢測算法實時獲取種鵝與鵝蛋的位置與數(shù)量信息,采用微調(diào)訓(xùn)練的方法分階段訓(xùn)練目標檢測模型,以增加模型在小數(shù)據(jù)集情況下的收斂速度與精度。利用種鵝定點產(chǎn)蛋的行為特點,將圖像中每個獨立產(chǎn)蛋區(qū)域提取為感興趣區(qū)域,實現(xiàn)對每個產(chǎn)蛋區(qū)域的獨立監(jiān)測。最后,設(shè)計目標計數(shù)算法減小計數(shù)結(jié)果的誤差,通過判斷種鵝與鵝蛋的數(shù)量變化情況,獲得種鵝個體開始產(chǎn)蛋時間、結(jié)束產(chǎn)蛋時間及產(chǎn)蛋結(jié)果。試驗結(jié)果表明,YOLOv4目標檢測模型檢測種鵝與鵝蛋的平均精度均值(mAP)為93.59%,種鵝個體身份信息的監(jiān)測準確率為98.5%,產(chǎn)蛋行為信息的監(jiān)測準確率為91.3%,符合產(chǎn)蛋信息監(jiān)測的要求。
關(guān)鍵詞:種鵝;產(chǎn)蛋監(jiān)測;無線射頻識別;目標檢測;YOLOv4;目標計數(shù)
中圖分類號:S126;TP391.41文獻標志碼:A
文章編號:1002-1302(2023)05-0200-08
我國是鵝生產(chǎn)和消費大國,鵝產(chǎn)業(yè)規(guī)模總量占據(jù)世界的95%,但鵝養(yǎng)殖技術(shù)和產(chǎn)業(yè)發(fā)展水平較低[1]。養(yǎng)鵝業(yè)的現(xiàn)代化發(fā)展受到鵝繁殖性能的制約,由于鵝應(yīng)激性較大難以個體籠養(yǎng)而不易準確記錄產(chǎn)蛋信息,導(dǎo)致產(chǎn)蛋信息獲取效率和準確性低,從而影響了養(yǎng)殖從業(yè)者對高產(chǎn)種鵝選育工作的開展?,F(xiàn)階段,自動化監(jiān)測雞、鴨產(chǎn)蛋信息的相關(guān)研究較多[2-3],而在鵝個體上的相關(guān)研究較少,且難以運用在實際生產(chǎn)中。傳統(tǒng)的人工記錄方法,工作量大,易對鵝造成應(yīng)激,不滿足動物福利要求也降低了生產(chǎn)效益。因此,研究一種適用于群養(yǎng)種鵝個體的產(chǎn)蛋信息監(jiān)測方法,對提高高產(chǎn)種鵝選育、提高種鵝養(yǎng)殖經(jīng)濟效益、增加畜牧養(yǎng)殖過程自動化具有重要意義。
目前,射頻識別技術(shù)(radio frequency identification,RFID)與計算機視覺技術(shù)被廣泛應(yīng)用畜禽目標檢測與行為跟蹤,且取得了較多成果。RFID是一種可通過非接觸的方式獲得目標物體信息的技術(shù)[4],常用于獲取畜禽的身份信息。目標檢測是計算機視覺中的一項基礎(chǔ)任務(wù),畜禽的目標分割、行為跟蹤、關(guān)鍵點檢測等均以目標檢測為基礎(chǔ)。以YOLOv4目標檢測算法為例,該算法使用多種方法提高檢測模型的檢測精度與速度,能較為準確地預(yù)測目標的位置信息,在工農(nóng)業(yè)與科研領(lǐng)域均有應(yīng)用[5]。在家禽產(chǎn)蛋監(jiān)測研究中,有學(xué)者采用RFID技術(shù)對產(chǎn)蛋鵝個體的產(chǎn)蛋行為進行自動化記錄[6-7],將RFID與光電傳感器結(jié)合實現(xiàn)種鵝、蛋雞的產(chǎn)蛋自動監(jiān)測,配合嵌入式控制器,以較低的成本實現(xiàn)產(chǎn)蛋信息的監(jiān)測[8-9],以及使用YOLO v4目標檢測模型自動監(jiān)測雞舍中雞的行為,并根據(jù)視頻圖像時序提取出超過時間閾值的行為[10],利用攝像機與多種深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)畜禽行為自動跟蹤[11-12]。上述方法均表明,RFID與計算機視覺方法對實現(xiàn)家禽目標檢測與行為跟蹤有較好的效果。但由于家禽行為的復(fù)雜性與不確定性,使用單一的技術(shù)方法難以實現(xiàn)較高的準確率,以至于現(xiàn)有的種鵝產(chǎn)蛋信息自動化監(jiān)測的相關(guān)研究無法兼顧產(chǎn)蛋信息獲取的準確率與效率[6]。
本研究以產(chǎn)蛋期的種鵝為對象,在已有研究的基礎(chǔ)上,將RFID與基于深度神經(jīng)網(wǎng)絡(luò)的目標檢測方法相結(jié)合,并設(shè)計相關(guān)的算法,旨在實現(xiàn)對小規(guī)模群養(yǎng)環(huán)境下的種鵝個體產(chǎn)蛋信息的監(jiān)測。
1 種鵝個體產(chǎn)蛋信息監(jiān)測方案構(gòu)建
1.1 監(jiān)測流程設(shè)計
種鵝的產(chǎn)蛋信息包括種鵝個體身份信息與產(chǎn)蛋行為信息,即種鵝個體身份、開始與結(jié)束產(chǎn)蛋時間、產(chǎn)蛋結(jié)果。種鵝具有定點產(chǎn)蛋的行為特征,根據(jù)該特征,所設(shè)計的產(chǎn)蛋信息監(jiān)測方法包括硬件部分和模型部分,硬件主要包括計算機、RFID模塊、支持紅外功能的互補金屬氧化物半導(dǎo)體(complementary metal oxide semiconductor,CMOS)傳感器攝像機,及獨立的產(chǎn)蛋區(qū)域。該方法的工作原理為:由攝像機獲取包含產(chǎn)蛋區(qū)域的圖像信息,并由目標檢測算法與目標計數(shù)算法分別對每個產(chǎn)蛋區(qū)域種鵝、鵝蛋進行計數(shù),根據(jù)產(chǎn)蛋區(qū)域種鵝與鵝蛋數(shù)量的變化得到產(chǎn)蛋行為信息,并由RFID模塊獲取對應(yīng)的種鵝身份信息,并將以上信息記錄至數(shù)據(jù)庫。種鵝個體產(chǎn)蛋信息監(jiān)測方法的硬件組成見圖1。
模型部分包括基于深度神經(jīng)網(wǎng)絡(luò)的目標檢測算法(YOLOv4)、目標計數(shù)算法。目標檢測算法對圖像內(nèi)的目標物體進行檢測分類并標記出高于置信度閾值的目標,并給出目標在像素坐標系下的位置與邊界框信息[13-14]。種鵝個體產(chǎn)蛋信息監(jiān)測工作流程如圖2所示,它是對單個產(chǎn)蛋區(qū)域內(nèi)種鵝個體產(chǎn)蛋信息的監(jiān)測流程,流程出口在任意位置均可。
1.2 RFID通信方案設(shè)計
為獲得種鵝身份,將電子標簽佩戴在種鵝的腳上,RFID閱讀器與天線放置在產(chǎn)蛋區(qū)域的下方。本研究采用低頻閱讀器,頻率為134.2 kHz,最大識別距離為10 cm, 該距離可有效避免電子標簽的誤讀、信號干擾的問題。實際腳環(huán)距離閱讀器的距離為7~8 cm,符合閱讀器的工作距離要求。
考慮RFID閱讀器與計算機的通信便捷性,采用基于Modbus RTU通信協(xié)議的RFID閱讀器[15],閱讀器型號為KEZLIY-JY-L860-485M。將多個閱讀器通過RS485總線連接至計算機(圖3),將硬件通信與目標檢測算法結(jié)合,當檢測到目標則發(fā)送消息幀至閱讀器,返回代表種鵝身份的腳環(huán)信息,即完成一次通信。
2 監(jiān)測模型構(gòu)建
2.1 數(shù)據(jù)集采集
試驗數(shù)據(jù)集采集自江蘇省農(nóng)業(yè)科學(xué)院六合基地禽場,采集對象為小規(guī)模群養(yǎng)環(huán)境下,正處于產(chǎn)蛋期的揚州鵝,固定拍攝距離,使用攝像機錄制處于產(chǎn)蛋區(qū)域的種鵝與鵝蛋的視頻,由于鵝舍內(nèi)日夜光照條件不同,夜晚采集的圖像為紅外圖像,細節(jié)特征與白天相差較大。因此,隨機取不同時間段的圖像信息,以保證數(shù)據(jù)集同時包含夜晚與白天的圖像,并在數(shù)量上保持相對平衡。最終共采集種鵝與鵝蛋圖像1 100張,將圖像尺寸由1 920×1 080像素裁剪為1 056×704像素,并使用LabelImg工具對種鵝與鵝蛋以VOC數(shù)據(jù)集格式進行標注。
2.2 數(shù)據(jù)增強
數(shù)據(jù)增強可有效增加數(shù)據(jù)集的豐富性[16],本節(jié)對數(shù)據(jù)增強方式進行設(shè)計。為減少使用縮放造成的尺度變化,未采用YOLOv4使用的Mosaic數(shù)據(jù)增強方法,而是采用仿射變換、裁剪、亮度變化、翻轉(zhuǎn)的方式來隨機對1張圖片進行多次處理,以增加不同條件下輸入的可能性。裁剪與亮度變化即對圖像的像素值做變換,仿射則計算原圖中每個像素點在變換后的位置,即可得到變換后的結(jié)果,翻轉(zhuǎn)則與仿射變換原理類似。設(shè)圖像中某點A(x,y),角度為α,則逆時針旋轉(zhuǎn)θ角度后該點A′(x′,y′)的坐標變換如下:
2.3 YOLOv4目標檢測模型
目前,具有代表性的目標檢測模型有Faster R-CNN[17]、SSD[18]、YOLO系列等。YOLOv4是YOLO系列目標檢測模型中最優(yōu)的一種,有較好的小目標檢測能力,對硬件的需求低、應(yīng)用成本小,適用于復(fù)雜的實時檢測場景。主要由CSPDarknet53主干特征提取網(wǎng)絡(luò)及Neck、YOLOv3 Head組成[13],Neck由空間金字塔池化層(spatial pyramid pooling,SPP)[19]與特征金字塔(feature pyramid network,F(xiàn)PN)[20]、路徑聚合網(wǎng)絡(luò)(path aggregation network,PANet)[21]組成。YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)見圖5,當種鵝與鵝蛋圖像以416×416尺寸輸入網(wǎng)絡(luò)后,經(jīng)主干特征提取得到19×19大小的特征圖,經(jīng)SPP層4次不同尺寸的池化,得到融合不同尺度特征的特征圖,再經(jīng)FPN與PANet結(jié)構(gòu),將深層的語義特征與淺層特征融合,進一步提高檢測精度。YOLOv3 Head通過回歸得到多個預(yù)測結(jié)果,經(jīng)非極大值抑制得到更為準確的目標位置信息。
深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程均根據(jù)損失函數(shù)值來指導(dǎo)權(quán)值的更新,YOLOv4的損失函數(shù)L如公式(5)所示,由邊界框回歸損失(LCIOU)、分類損失(LCls)以及置信度損失(LConf)[13]構(gòu)成。
相比YOLOv3模型,YOLOv4將對角線長度、重疊面積及長寬比納入?yún)⒖?,因此增加了邊界框回歸的準確度與速度,對目標的預(yù)測精度有了較大的提升。公式(6)、公式(7)中b為預(yù)測框;bgt為真實框;ρ為歐式距離;α為權(quán)重系數(shù);v表示長寬比的一致性;c為b與bgt的最小包圍框?qū)蔷€長度;IOU為b與bgt的交并比。
公式(8)中w、h分別表示預(yù)測框的寬、高;wgt、hgt分別表示真實框的寬、高。 αv則表示b與bgt之間長寬比的相似程度,在訓(xùn)練過程中模型盡可能保持長寬比接近。由公式(7)、公式(8)可知,當預(yù)測框與真實框長寬比完全相等時,αv項即為0,加入該項,從而保證預(yù)測框位置信息的準確度。對于分類損失與置信度損失,均采用交叉熵來計算每一類的損失并求和。
經(jīng)過上述理論研究分析,在種鵝與鵝蛋識別任務(wù)中基本采用了YOLOv4的所有方法,但未考慮Mosaic數(shù)據(jù)增強,輸入端的縮放方法未使用不失真縮放。
2.4 ROI提取與目標計數(shù)算法設(shè)計
2.4.1 ROI提取
定點產(chǎn)蛋是種鵝產(chǎn)蛋行為特征之一,在產(chǎn)蛋區(qū)域數(shù)量充足時,種鵝均會進入產(chǎn)蛋區(qū)域內(nèi)產(chǎn)蛋。此外,每個產(chǎn)蛋區(qū)域的大小僅能容納1只種鵝,因此只需對產(chǎn)蛋區(qū)域內(nèi)的種鵝與鵝蛋目標進行計數(shù)即可根據(jù)數(shù)量變化來判斷種鵝的產(chǎn)蛋行為信息。實際來自攝像機的圖像包含多個產(chǎn)蛋區(qū)域,即單個圖像內(nèi)同時存在多個產(chǎn)蛋區(qū)域、多只鵝的產(chǎn)蛋信息。考慮將圖像中的產(chǎn)蛋區(qū)域分別提取出來,即可同時記錄每個區(qū)域中的產(chǎn)蛋信息。本研究將提取出的產(chǎn)蛋區(qū)域稱為感興趣區(qū)域(region of interest,ROI)[22]。
取輸入視頻中某一幀圖像,以4個頂點所構(gòu)成的四邊形表示ROI(圖6)。在像素坐標系中,已知a1、a2、a3、a4的坐標,即可擬合出4條邊所在直線的方程。任意2點的坐標為(x1,y1),(x2,y2),則經(jīng)過2點直線的表達式由公式(9)、(10)得出。以同樣方式將圖像中其他完整可視產(chǎn)蛋區(qū)域提取為ROI,并將每個ROI的表達式寫入算法中。
系統(tǒng)運行過程中,目標檢測算法得到每個目標框中心坐標(x,y),判斷其是否在4條直線所構(gòu)成的ROI內(nèi),并由計數(shù)算法統(tǒng)計數(shù)量。由圖7可知,深色框區(qū)域為ROI,即獨立的產(chǎn)蛋區(qū)域,可同時記錄3只鵝的產(chǎn)蛋信息。
2.4.2 目標計數(shù)算法
由于目標檢測算法得到每一幀圖像內(nèi)的目標數(shù)量和位置,實時監(jiān)測時,由于目標檢測算法自身的系統(tǒng)誤差,及不可知的種鵝行為導(dǎo)致的隨機誤差,所檢測到的目標數(shù)量是非連續(xù)的,存在較大抖動,影響了產(chǎn)蛋信息的判定信號。為減小系統(tǒng)誤差所引起的抖動,采用遞推消抖算法來消除目標數(shù)量的波動,以增加判定信號的準確性。
遞推消抖算法的原理見圖8,將N個連續(xù)幀中檢測到的N個目標數(shù)量看成1個隊列,新的數(shù)據(jù)添加至隊列末尾,并刪除原來隊列的第1個數(shù)據(jù),保證隊列長度不變。判斷隊列中出現(xiàn)次數(shù)最多的數(shù)據(jù),則認為該N個采樣值所代表的一段時間內(nèi)視頻畫面中的目標數(shù)量,以該數(shù)量表示第N+1時刻的數(shù)量。缺點是修正后的目標數(shù)量相對于實際數(shù)量有延遲,該延遲取決于設(shè)定的N值大小與檢測速度,本研究取N為51,即在視頻輸入幀率為25幀/s時,取前2 s的數(shù)量作為參考。
種鵝產(chǎn)蛋結(jié)束離開產(chǎn)蛋箱后,達到時間閾值則對鵝蛋進行計數(shù),但在計數(shù)前目標的數(shù)量可能存在波動,從而導(dǎo)致計數(shù)結(jié)果的錯誤。因此,在遞推消抖的基礎(chǔ)上設(shè)計二次消抖算法,具體方式為:以同樣的方法將遞推消抖后得到的數(shù)量固定為長度為N的隊列,取隊列中數(shù)量變化的次數(shù),若變化次數(shù)大于設(shè)定的閾值,則認為視頻畫面不穩(wěn)定,或鵝蛋被短暫遮擋,因此延遲對產(chǎn)蛋區(qū)域數(shù)量的判定,直至數(shù)量穩(wěn)定。本研究取變化次數(shù)閾值為3。
隨后對目標進行計數(shù)并獲取產(chǎn)蛋信息。種鵝未進入ROI時,記錄鵝、鵝蛋初始數(shù)量;若區(qū)域內(nèi)種鵝數(shù)量在時間閾值5 s內(nèi)由0穩(wěn)定變化為1,則判定種鵝開始產(chǎn)蛋,系統(tǒng)從RFID閱讀器獲取種鵝身份并記錄時間;區(qū)域內(nèi)種鵝數(shù)量在5 s內(nèi)由1穩(wěn)定變化為0,則判定種鵝離開區(qū)域,此時獲得鵝蛋的數(shù)量,并與產(chǎn)蛋行為發(fā)生前區(qū)域內(nèi)鵝蛋的數(shù)量對比,得到產(chǎn)蛋結(jié)果并記錄時間。
2.5 模型訓(xùn)練
采用模型微調(diào)訓(xùn)練(fine-tune)的方式訓(xùn)練網(wǎng)絡(luò),該方式是遷移學(xué)習(xí)的一種,已被證明適用于小數(shù)據(jù)集的訓(xùn)練任務(wù)[23],有效提高模型的訓(xùn)練速度與特征提取能力[24]。本研究使用YOLOv4在大規(guī)模數(shù)據(jù)集中訓(xùn)練得到的權(quán)重作為訓(xùn)練初始化參數(shù),具體分為2個階段。第一階段為凍結(jié)主干特征提取網(wǎng)絡(luò),此時特征提取網(wǎng)絡(luò)不變,禁止凍結(jié)層參數(shù)的更新,僅對網(wǎng)絡(luò)進行微調(diào);第二階段,特征提取網(wǎng)絡(luò)發(fā)生改變,網(wǎng)絡(luò)的所有參數(shù)均會更新。此外,使用Adam優(yōu)化器訓(xùn)練網(wǎng)絡(luò)模型,但修改了學(xué)習(xí)率的更新方式。在訓(xùn)練第一階段,采用固定步長衰減學(xué)習(xí)率(StepLR)加快模型的收斂,第二階段采用余弦退火學(xué)習(xí)率(CosineAnnealingLR)[25],使模型收斂于全局最優(yōu)點。余弦退火策略使得學(xué)習(xí)率在設(shè)定范圍內(nèi)變化,使模型跳過局部最優(yōu)點,從而更準確地完成收斂。固定步長衰減學(xué)習(xí)率與余弦退火學(xué)習(xí)率的更新公式分別為公式(11)、公式(12)。
公式(11)中l(wèi)r′為上一次迭代(Epoch)的學(xué)習(xí)率;gamma為學(xué)習(xí)率更新系數(shù),根據(jù)設(shè)定的步長更新學(xué)習(xí)率。公式(12)中i表示第i次運行;ηimax與ηimin表示學(xué)習(xí)率的最大值與最小值,學(xué)習(xí)率在該范圍內(nèi)以余弦規(guī)律變化;Tcur表示當前周期已經(jīng)完成的Epoch數(shù);Ti表示第i次周期中的Epoch總數(shù),訓(xùn)練過程中,每次達到最小學(xué)習(xí)率時會重新初始化Tcur。
3 結(jié)果與分析
3.1 參數(shù)與硬件
本試驗所使用的硬件參數(shù)為:Intel i9-10900k處理器,Nvidia Geforce RTX 3090顯卡,windows 10操作系統(tǒng),使用Pytorch-1.8.0深度學(xué)習(xí)框架,加速環(huán)境為CUDA11.2、cuDNN8.1,Opencv-4.1.1,使用python作為程序開發(fā)語言。所使用的RFID設(shè)備通過Modbus RTU協(xié)議通信,電氣接口為雙線制RS485,使用Modbus_tk庫開發(fā)通信程序。
訓(xùn)練目標檢測模型時,設(shè)置初始學(xué)習(xí)率為 0.000 4,前50次Epoch的學(xué)習(xí)率以等間隔減小的方式下降,步長為1,更新系數(shù)gamma為0.92,之后采用余弦退火學(xué)習(xí)率,學(xué)習(xí)率變化范圍為2×10-5~5×10-6,學(xué)習(xí)率變化周期Ti為5,批大?。˙atch-size)為12。
3.2 試驗方法
試驗主要分3個部分進行,一是驗證目標檢測模型的準確性,二是驗證RFID設(shè)備獲取種鵝個體身份信息的準確性,三是驗證整體算法對種鵝產(chǎn)蛋行為信息監(jiān)測的準確性。在江蘇省農(nóng)業(yè)科學(xué)院六合基地禽場搭建小規(guī)模種鵝群養(yǎng)環(huán)境,錄制種鵝產(chǎn)蛋視頻并用于驗證種鵝個體產(chǎn)蛋監(jiān)測方法的準確率,并通過模擬驗證RFID設(shè)備獲取種鵝個體身份信息的準確率。目標檢測模型的準確性則通過制作的數(shù)據(jù)集來驗證。
采用精度均值(average precision,AP),平均精度均值(mean average precision,mAP)及幀率(frames per seconds,F(xiàn)PS)作為評價目標檢測算法的標準。其中,精確率(precision,P)與召回率(recall,R)為中間計算指標。計算公式如公式(13)~公式(16)所示。
公式(13)、公式(14)中TP為將正類預(yù)測為正類的數(shù)量;FP為將負類預(yù)測為正類的數(shù)量;FN為將正類預(yù)測為負類的數(shù)量;i表示類別;N表示類別總數(shù)。AP體現(xiàn)了目標檢測模型對每一類目標的綜合檢測效果。
RFID設(shè)備獲取種鵝個體身份的準確性與整體算法對種鵝產(chǎn)蛋行為信息監(jiān)測的準確性均以準確率指標來評價。
3.3 結(jié)果分析
為驗證YOLOv4在本方法中的有效性,分別訓(xùn)練Faster R-CNN、SSD及YOLOv4目標檢測模型,評估各模型在測試集上的表現(xiàn)。不同模型在IOU閾值為0.5時,2類目標的AP、mAP和幀率的結(jié)果見表1。
由表1可知,YOLOv4在測試集上的2類目標的AP均高于Faster R-CNN與SSD中的結(jié)果。其中,鵝蛋類的AP在YOLOv4中達94.53%,遠高于在另2種目標檢測模型中的效果,種鵝類AP也達到92.65%,mAP達到93.59%。此外,YOLOv4的檢測速度表現(xiàn)也較好,為57 f/s,可見YOLOv4對鵝蛋類小目標的檢測效果更好。綜合觀察,YOLOv4的速度與精度更優(yōu),能滿足檢測種鵝與鵝蛋任務(wù)的實時性要求與精度要求。最終,模型運行時的置信度閾值取0.5,以兼顧精確率與召回率。
為驗證RFID設(shè)備獲取種鵝個體身份信息的準確性,模擬種鵝隨機進入產(chǎn)蛋區(qū)域200次,每次固定腳環(huán)標簽至閱讀器的距離為7 cm,腳環(huán)標簽隨機出現(xiàn)在產(chǎn)蛋區(qū)域,以測試RFID閱讀器在產(chǎn)蛋區(qū)域不同位置時識別種鵝個體身份信息的正確率,由表2可知,為驗證種鵝個體產(chǎn)蛋行為信息監(jiān)測的準確性,使用由10只產(chǎn)蛋種鵝在群養(yǎng)環(huán)境中錄制的92個產(chǎn)蛋行為視頻,產(chǎn)蛋行為分布在視頻中的3個產(chǎn)蛋區(qū)域,視頻尺寸為1 056×704分辨率,25 f/s,與攝像機輸入尺寸相同,對系統(tǒng)進行測試,人工統(tǒng)計視頻中正確的產(chǎn)蛋行為信息數(shù)據(jù),并與測試得到的結(jié)果對比,得出產(chǎn)蛋行為信息監(jiān)測結(jié)果,見表3。
由表2可知,當RFID閱讀器位于產(chǎn)蛋區(qū)域正下方時,識別準確率最高,為98.5%,比放置于產(chǎn)蛋區(qū)域入口處高5.5%,更有利于準確識別種鵝個體身份。由表3可知,在使用遞推消抖算法與二次消抖算法時,進出判斷準確率均為94.6%,主要原因是目標檢測算法自身的準確率導(dǎo)致無法檢測所有目標,即系統(tǒng)誤差導(dǎo)致,二次消抖的產(chǎn)蛋判斷準確率為92.4%,比遞推消抖提升了5.5%,綜合準確率也由85.9%提高到91.3%,即二次消抖增加了對鵝蛋計數(shù)的準確性。由于當前時刻的目標數(shù)量參考過去一段時間內(nèi)的目標數(shù)量,有效地減小了目標數(shù)量的波動,使得通過時間閾值來判定產(chǎn)蛋行為信息的方法可行,因此獲得了較高的產(chǎn)蛋行為信息判斷準確率。
圖9為一個典型產(chǎn)蛋過程的目標數(shù)量與遞推消抖后的計數(shù)結(jié)果,可知遞推消抖有效抑制了目標數(shù)量的波動,即使對數(shù)量的判斷有所延遲,但更有利于準確判斷目標的數(shù)量。
圖10為測試集圖像在不同模型中的試驗結(jié)果,在鵝舍復(fù)雜光線環(huán)境下,F(xiàn)aster R-CNN與SSD均出現(xiàn)了漏檢現(xiàn)象,主要問題是對鵝蛋的檢出效果較差,白天圖像與夜晚圖像中均未能完全檢出鵝蛋,且檢出的鵝蛋位置信息不準確。YOLOv4則成功檢出所有目標,且置信度分數(shù)更高,對另2類未檢出鵝蛋的置信度也達0.98,在多個鵝蛋圖像黏連時也能夠成功將其檢出。根據(jù)種鵝產(chǎn)蛋行為信息監(jiān)測的結(jié)果,YOLOv4對小規(guī)模群養(yǎng)環(huán)境中的種鵝與鵝蛋的檢測效果較好,其準確率基本滿足種鵝產(chǎn)蛋信息監(jiān)測的要求。
4 結(jié)論與討論
本研究將 RFID技術(shù)與目標檢測算法結(jié)合,構(gòu)建種鵝個體產(chǎn)蛋信息監(jiān)測方法,該方法的硬件組成簡單,對種鵝影響小,能實現(xiàn)無應(yīng)激監(jiān)測種鵝個體產(chǎn)蛋信息。
對采集的單張種鵝與鵝蛋圖像組合使用仿射、隨機裁剪、亮度變化、翻轉(zhuǎn)變換,有效增加了數(shù)據(jù)集中圖像的豐富性,經(jīng)數(shù)據(jù)增強,所構(gòu)建數(shù)據(jù)集的圖像數(shù)量由1 100張擴增為3 820張。
以134.2 kHz低頻RFID閱讀器與電子標簽獲取種鵝身份,識別距離在10 cm以內(nèi)。利用種鵝定點產(chǎn)蛋的習(xí)性,構(gòu)建YOLOv4目標檢測算法與目標計數(shù)算法共同組成的產(chǎn)蛋信息監(jiān)測方法,在分析YOLOv4目標檢測模型的基礎(chǔ)上,調(diào)整訓(xùn)練方法與訓(xùn)練參數(shù)。目標計數(shù)算法由遞推消抖算法與二次消抖算法組成,設(shè)定獲取種鵝產(chǎn)蛋行為信息的時間閾值為5 s。試驗結(jié)果表明,本研究構(gòu)建的種鵝個體產(chǎn)蛋信息監(jiān)測方法能有效地獲取產(chǎn)蛋種鵝的身份信息與產(chǎn)蛋行為信息,不受光線條件變化的影響。相比主流的Faster R-CNN、SSD目標檢測算法,YOLOv4算法對2類目標的mAP達93.59%,幀率達到57 f/s,滿足產(chǎn)蛋信息監(jiān)測的實時性要求與精度要求,種鵝的產(chǎn)蛋行為信息監(jiān)測準確率達91.3%,個體身份信息準確率達98.5%。
本研究構(gòu)建的種鵝產(chǎn)蛋信息監(jiān)測方法盡管對種鵝與鵝蛋的檢測精度較高, 但在種鵝數(shù)量較多或出現(xiàn)鵝與鵝之間遮擋時,檢測精度還有待提高。應(yīng)用在大規(guī)模群養(yǎng)環(huán)境則需進一步研究多個產(chǎn)蛋視頻同時輸入模型時的監(jiān)測效果,以降低應(yīng)用成本。
參考文獻:
[1]郭彬彬,朱歡喜,施振旦. 鵝的季節(jié)性繁殖及其調(diào)控機制與技術(shù)的研究進展[J]. 黑龍江動物繁殖,2020,28(1):42-46.
[2]李久熙,王春山,呂繼興,等. 平養(yǎng)蛋鴨種蛋智能收集和標記系統(tǒng)設(shè)計與試驗[J]. 農(nóng)業(yè)工程學(xué)報,2017,33(17):136-143.
[3]王春山,李久熙,黃仁錄,等. 蛋雞生產(chǎn)參數(shù)自動監(jiān)測系統(tǒng)設(shè)計與實現(xiàn)[J]. 農(nóng)業(yè)工程學(xué)報,2014,30(16):181-187.
[4]劉秀敏,魏冬霞. RFID技術(shù)在畜牧業(yè)中的應(yīng)用探析[J]. 家畜生態(tài)學(xué)報,2020,41(1):78-80.
[5]易 詩,李俊杰,張 鵬,等. 基于特征遞歸融合YOLOv4網(wǎng)絡(luò)模型的春見柑橘檢測與計數(shù)[J]. 農(nóng)業(yè)工程學(xué)報,2021,37(18):161-169.
[6]孫愛東,尹 令,石凱歌,等. 基于RFID的群養(yǎng)種鵝個體產(chǎn)蛋記錄方法[J]. 江蘇農(nóng)業(yè)科學(xué),2016,44(2):420-423.
[7]許譯丹,謝秋菊,閆 麗,等. 基于RFID的種鵝個體產(chǎn)蛋智能監(jiān)測系統(tǒng)設(shè)計與試驗[J]. 黑龍江八一農(nóng)墾大學(xué)學(xué)報,2019,31(6):78-84,117.
[8]李麗華,黃仁錄,霍利民,等. 蛋雞個體生產(chǎn)性能參數(shù)監(jiān)測裝置設(shè)計與試驗[J]. 農(nóng)業(yè)工程學(xué)報,2012,28(4):160-164.
[9]李 琴,王麗輝,張 峰,等. 基于光電檢測與無線射頻技術(shù)的種鵝育種監(jiān)控技術(shù)[J]. 激光雜志,2015,36(8):72-74.
[10]李 娜,任昊宇,任振輝. 基于深度學(xué)習(xí)的群養(yǎng)雞只行為監(jiān)測方法研究[J]. 河北農(nóng)業(yè)大學(xué)學(xué)報,2021,44(2):117-121.
[11]Fang C,Huang J D,Cuan K X,et al. Comparative study on poultry target tracking algorithms based on a deep regression network[J]. Biosystems Engineering,2020,190:176-183.
[12]Riekert M,Klein A,Adrion F,et al. Automatically detecting pig position and posture by 2D camera imaging and deep learning[J]. Computers and Electronics in Agriculture,2020,174:105391.
[13]Bochkovskiy A,Wang C Y,Liao H Y M. YOLOv4:optimal speed and accuracy of object detection[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2020). Seattle,2020.
[14]Roy A M,Bose R,Bhaduri J. A fast accurate fine-grain object detection model based on YOLOv4 deep neural network[J]. Neural Computing and Applications,2022,34(5):3895-3921.
[15]艾 博,許向陽,賈月明. 基于Modbus RTU協(xié)議的數(shù)據(jù)采集平臺設(shè)計與實現(xiàn)[J]. 電子工業(yè)專用設(shè)備,2021,50(5):46-49.
[16]Zoph B,Cubuk E D,Ghiasi G,et al. Learning data augmentation strategies for object detection[C]//European conference on computer vision. Cham:Springer,2020:566-583.
[17]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[18]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[C]//European Conference on Computer Vision. Cham:Springer,2016:21-37.
[19]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.
[20]Lin T Y,Dollár P,Girshick R,et al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii:IEEE,2017:2117-2125.
[21]Wang K X,Liew J H,Zou Y T,et al. PANet:few-shot image semantic segmentation with prototype alignment[C]//Proceedings of the IEEE International Conference on Computer Vision. Seoul:IEEE,2019:9197-9206.
[22]宋燕星,袁 峰,丁振良. 目標感興趣區(qū)域檢測算法[J]. 吉林大學(xué)學(xué)報(工學(xué)版),2010,40(5):1421-1425.
[23]Kding C,Rodner E,F(xiàn)reytag A,et al. Fine-tuning deep neural networks in continuous learning scenarios[C]//Asian Conference on Computer Vision. Cham:Springer,2016:588-605.
[24]李雨鑫,普園媛,徐 丹,等. 深度卷積神經(jīng)網(wǎng)絡(luò)嵌套fine-tune的圖像美感品質(zhì)評價[J]. 山東大學(xué)學(xué)報(工學(xué)版),2018,48(3):60-66.
[25]Loshchilov I,Hutter F.SGDR:stochastic gradient descent with warm restarts[C]// 5th International Conference on Learning Representations. Toulon,2017.
收稿日期:2022-05-23
基金項目:國家現(xiàn)代農(nóng)業(yè)產(chǎn)業(yè)技術(shù)體系專項資金(編號:CARS-40-20)。
作者簡介:陶雪陽(1997—),男,安徽合肥人,碩士研究生,主要從事農(nóng)業(yè)視覺檢測與控制研究。E-mail:1508294002@qq.com。
通信作者:施振旦,博士,研究員,主要從事家禽繁殖內(nèi)分泌調(diào)控研究。E-mail:zdshi@jaas.ac.cn。