摘要:為提高智慧奶牛養(yǎng)殖場生產(chǎn)管理效率,提出基于養(yǎng)殖場固定通道中多角度數(shù)據(jù)融合的奶牛身份識別算法。首先,在養(yǎng)殖場通道中安裝2個不同背面和3個不同側(cè)面的攝像頭,采集60頭奶牛的身份識別數(shù)據(jù),構(gòu)建奶牛的多角度身份識別數(shù)據(jù)集;然后,訓(xùn)練并對比分析7個骨干網(wǎng)絡(luò)在奶牛身份識別數(shù)據(jù)集上的表現(xiàn)。結(jié)果表明,HRNet骨干網(wǎng)絡(luò)在奶牛的正背面、斜背面、前斜側(cè)面、后斜側(cè)面和正側(cè)面上的效果較好,Rank@1準(zhǔn)確率分別達(dá)到96.55%、98.08%、91.23%、95.83% 和89.36%,平均精度均值分別達(dá)到83.28%、89.88%、75.09%、84.48%和78.27%;采用身份識別較好的HRNet網(wǎng)絡(luò)構(gòu)建多角度數(shù)據(jù)融合奶牛身份識別算法,在設(shè)定相似度閾值為0.9時,奶牛身份識別準(zhǔn)確率在數(shù)據(jù)集上達(dá)到100%。研究結(jié)果為奶牛養(yǎng)殖場固定通道中的牛身份識別提供了一種解決方案。
關(guān)鍵詞:牛身份識別;智能養(yǎng)殖;數(shù)據(jù)融合;多角度;固定通道doi:10.13304/j.nykjdb.2023.0327
中圖分類號:TP391.4;S126 文獻(xiàn)標(biāo)志碼:A 文章編號:10080864(2024)12009809
奶牛身份識別常用的方法有烙印法[1]、耳標(biāo)法[2]、電子耳標(biāo)法[34]、唇紋識別法[5]等,其中,烙印法、耳標(biāo)法對動物福利有負(fù)面影響,且難以直接應(yīng)用于智能養(yǎng)殖環(huán)境中,電子耳標(biāo)佩戴的設(shè)備易損壞或丟失,唇紋識別法需要清理牛唇上的食物殘渣和唾液殘留等遮擋物才能準(zhǔn)確識別。隨著計算機(jī)技術(shù)的發(fā)展,基于計算機(jī)視覺的無接觸奶牛身份識別方法逐漸興起[6],該方法可以通過牛身體某一可視面的圖像信息進(jìn)行身份識別。但由于牛身體不同位置的皮毛圖案等特征不同,牛與圖像采集攝像頭的相對視角不同,拍攝到的牛身體圖案就不同。因此在實際中,養(yǎng)殖場中的牛進(jìn)行無接觸式的身份識別比較困難。對養(yǎng)殖場固定通道中的奶牛進(jìn)行無接觸式的身份識別研究具有一定應(yīng)用前景。
計算機(jī)視覺方法識別牛的身份從傳統(tǒng)圖像處理和機(jī)器學(xué)習(xí)發(fā)展為深度學(xué)習(xí)。Tharwat等[7]使用局部二值模式(local binary patterns,LBP)的方法從牛唇紋中提取局部不變特征,并使用支持向量機(jī)(support vector machine, SVM)等多種分類器進(jìn)行相似度匹配,實現(xiàn)牛的身份識別。Ahmed 等[8]使用加速魯棒特征(speed up robust features,SURF)的特征提取方法提取牛唇紋特征,并使用SVM 進(jìn)行特征相似的匹配,用于牛的身份識別。這些傳統(tǒng)圖像處理和機(jī)器學(xué)習(xí)方法需要手工設(shè)計特征,且依賴對該物種的專家知識,多用于動物唇紋特征提取,這類方法雖能獲得較高的準(zhǔn)確率,但普適性不高,不適合在露天養(yǎng)殖、光線變化、有遮擋等復(fù)雜環(huán)境中應(yīng)用,也不適合提取動物整體圖案特征[9]。
隨著深度學(xué)習(xí)技術(shù)的發(fā)展,其在身份識別中得到廣泛應(yīng)用。趙凱旋等[9]通過構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)進(jìn)行圖像檢索,使用CNN對奶牛軀干圖像進(jìn)行特征提取,實現(xiàn)了對奶牛的無接觸式身份識別,但奶牛個體身份識別準(zhǔn)確率僅達(dá)到93.33%。Kumar等[10]提出了基于深度學(xué)習(xí)方法的牛個體唇紋圖像特征識別,排名第1(Rank@1)準(zhǔn)確率達(dá)到98.99%,個體識別準(zhǔn)確率較高,但需要近距離拍攝牛唇紋圖像,且拍攝圖片時需要擦拭牛唇紋贓物等,具有一定的侵入性。Shen等[11]提出了一種基于CNN 的奶牛非接觸身份識別方法,使用奶牛側(cè)視圖像進(jìn)行身份識別,獲得96.65%的準(zhǔn)確率,進(jìn)一步驗證了深度學(xué)習(xí)方法在牛身份識別領(lǐng)域的發(fā)展?jié)摿?。Qiao等[12]使用CNN從牛視頻數(shù)據(jù)集中提取特征,然后用提取的特征來訓(xùn)練長短期記憶網(wǎng)絡(luò)(longshort-term memory,LSTM)模型,在15幀和20幀的視頻上分別達(dá)到88% 和91% 的準(zhǔn)確性,驗證了CNN結(jié)合LSTM的方法優(yōu)于僅使用CNN的方法,但該方法不支持對牛個體圖像的直接身份識別。Zin 等[13] 利用深度卷積神經(jīng)網(wǎng)絡(luò)(deepconvolutional neural networks,DCNN)來訓(xùn)練和識別奶牛的圖案,對奶牛個體身份識別的準(zhǔn)確率達(dá)到97.01%,DCNN能更好地處理圖像的高維特征,進(jìn)而獲取圖像上更多的細(xì)節(jié)信息,有助于提高奶牛身份識別準(zhǔn)確率。Andrew等[6]針對草原牧場設(shè)計了荷斯坦牛的身份識別系統(tǒng),并搭載到無人機(jī)平臺,利用無人機(jī)攝像頭采集圖像,使用CNN提取牛圖像特征,實現(xiàn)了自主尋找指定身份的個體牛,深度學(xué)習(xí)技術(shù)和牛身份識別技術(shù)與實際應(yīng)用相結(jié)合,推動了畜牧養(yǎng)殖業(yè)向智能化方向發(fā)展。在牛養(yǎng)殖場中使用計算機(jī)視覺方法進(jìn)行牛身份識別可以實現(xiàn)遠(yuǎn)距離、無接觸、無傷害的識別,有助于提高動物福利,且能夠無縫嵌入到牛行為識別等其他智能養(yǎng)殖場景中。深度學(xué)習(xí)方法具有強(qiáng)大特征提取能力,是牛身份識別的重要發(fā)展趨勢和研究熱點[12]。
為解決現(xiàn)代化奶牛養(yǎng)殖場中對固定通道奶牛進(jìn)行遠(yuǎn)距離無接觸式的身份識別,本研究通過構(gòu)建奶牛多角度數(shù)據(jù)集,探索7種流行的神經(jīng)網(wǎng)絡(luò),并在構(gòu)建的數(shù)據(jù)集上進(jìn)行性能對比,選擇其中表現(xiàn)較好的網(wǎng)絡(luò)對奶牛進(jìn)行多角度識別分析,并構(gòu)建奶牛多角度圖像身份識別算法對養(yǎng)殖場中的奶牛進(jìn)行身份識別。
1 材料與方法
1.1 多角度數(shù)據(jù)融合整體方案
整體方案如圖1所示,首先從奶牛養(yǎng)殖場中采集5個角度的視頻數(shù)據(jù),并構(gòu)建奶牛身份識別數(shù)據(jù)集;然后,選擇近年來流行的殘差網(wǎng)絡(luò)(ResNet)[14]、密集連接網(wǎng)絡(luò)(DenseNet[)15]、基于部件的卷積基線(PCB)[16]、高效網(wǎng)絡(luò)(EfficientNet)[17]、高分辨率網(wǎng)絡(luò)(HRNet)[18]、分層注意力機(jī)制網(wǎng)絡(luò)(Swin)[19]、卷積連接網(wǎng)絡(luò)(ConvNeXt)[20]共7個骨干網(wǎng)絡(luò)模型,使用數(shù)據(jù)集對每個模型進(jìn)行訓(xùn)練,獲取養(yǎng)殖場固定通道中奶牛不同角度身份特征,通過計算余弦相似度對奶牛身份信息進(jìn)行匹配,根據(jù)匹配結(jié)果對模型進(jìn)行性能評估,根據(jù)評估指標(biāo)選擇最優(yōu)模型用于最終的奶牛身份匹配;最后,選擇最優(yōu)網(wǎng)絡(luò)模型構(gòu)建多角度奶牛身份識別數(shù)據(jù)融合算法,通過設(shè)置相似度閾值得到奶牛身份預(yù)測結(jié)果。
1.2 數(shù)據(jù)采集與數(shù)據(jù)集的構(gòu)建
數(shù)據(jù)采集自內(nèi)蒙古自治區(qū)包頭市九元牧業(yè),原始數(shù)據(jù)為??低?T46WDV3-I3高清攝像頭拍攝的400萬像素的4K-60幀的視頻格式。試驗設(shè)計5個不同方位的監(jiān)控相機(jī),對牛進(jìn)行實時拍攝采集數(shù)據(jù),對數(shù)據(jù)進(jìn)行處理后構(gòu)建奶牛多角度身份識別數(shù)據(jù)集。5個監(jiān)控相機(jī)的攝像通道分別命名為D01、D02、D03、D04、D05,采集的角度分別對應(yīng)正背面、斜背面、前斜側(cè)面、后斜側(cè)面、正側(cè)面,根據(jù)牛行進(jìn)方向的不同,每個角度均對應(yīng)有2個朝向。每頭牛的圖像在多個時間、不同光照環(huán)境下進(jìn)行大量采集,采集日期為2022年6月15日至2022年7月5日,每頭牛已按照身份進(jìn)行編號。首先將視頻數(shù)據(jù)分解為幀圖像,然后挑選出所需的圖像數(shù)據(jù),制作成牛多角度身份識別數(shù)據(jù)集。
奶牛多角度身份識別數(shù)據(jù)集包含奶牛身份識別訓(xùn)練數(shù)據(jù)集、奶牛身份識別測試數(shù)據(jù)集兩部分,其中訓(xùn)練數(shù)據(jù)集用于?;y特征提取網(wǎng)絡(luò)的訓(xùn)練,測試數(shù)據(jù)集用于測試模型的性能。由于數(shù)據(jù)量巨大,采用半人工標(biāo)注的方法,具體制作方法如下。
① 使用目標(biāo)識別算法(YOLOv5)[21],對采集后的幀圖像進(jìn)行目標(biāo)檢測,獲取到幀圖像中牛只的目標(biāo)框位置,進(jìn)一步通過人工矯正的方法修正目標(biāo)框位置使其剛好包括目標(biāo)牛只,最后利用目標(biāo)框?qū)εV贿M(jìn)行目標(biāo)剪裁,剔除掉不完整的牛以及遮擋較嚴(yán)重的牛。
② 對剪裁后的牛只圖像進(jìn)行標(biāo)注,標(biāo)注內(nèi)容包括牛的身份編號(ID1)、攝像頭編號(ID2)、通道中牛頭朝向編號(ID3)以及同一牛只在同一攝像頭下的序號(order number),將標(biāo)注信息以“ID1_ID2_ID3”格式保存在圖像名中。最后將ID1、ID2、ID3都相同的牛放在同一文件夾中,將文件夾按照“ID1_ ID2_ ID3”格式命名。
③ 將②中的文件夾按照5∶5的比例隨機(jī)劃分為奶牛身份識別訓(xùn)練數(shù)據(jù)集、奶牛身份識別測試數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集有221個類別,7 019張圖像,測試數(shù)據(jù)集有220個類別,7 449張圖像。從訓(xùn)練數(shù)據(jù)集的每個文件夾中隨機(jī)取出1張圖像放到新的同名文件夾中作為驗證集(val集),val集有221張圖像,將訓(xùn)練數(shù)據(jù)集中剩余的圖像作為訓(xùn)練集(train集),train集有6 798張圖像;從測試數(shù)據(jù)集的每個文件夾中隨機(jī)取出1張圖像放到新的同名文件夾中作為查詢集(query集),query集有220張圖像,將測試數(shù)據(jù)集中剩余的圖像作為匹配集(gallery集),gallery集有7 229張圖像。其中,train集用于訓(xùn)練模型,val集用于調(diào)整模型的超參數(shù),gallery集和query集用于評估模型的性能。
奶牛多角度身份識別數(shù)據(jù)集中共有60頭不同身份的牛,按照5個不同攝像頭和2個不同朝向劃分出600個類別,去除掉圖像少于5張的類別后,剩余有效類別數(shù)為441個,每個類別中的圖像數(shù)量從5張到210張不等,圖像總量為14 468張。
1.3 牛身份匹配方法
在奶牛多角度身份識別數(shù)據(jù)集制作完成后,使用該數(shù)據(jù)集對7種不同的骨干網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測試,選出最優(yōu)骨干網(wǎng)絡(luò)并用其對奶牛的多角度圖像進(jìn)行識別測試,根據(jù)測試結(jié)果構(gòu)建多角度數(shù)據(jù)融合算法進(jìn)行牛身份匹配。試驗在Ubuntu 16.04 上實現(xiàn),CPU 為Intel? Core ? i9-9900K,單GPU 為NVIDIA GeForce RTX 3090Ti,顯存為24 GB,內(nèi)存為64 GB。
1.3.1 骨干網(wǎng)絡(luò)模型的選擇 為選擇合適的骨干神經(jīng)網(wǎng)絡(luò)模型,選用2015 年以來比較流行的ResNet、DenseNet、PCB、EfficientNet、HRNet、Swin、ConvNeXt 共7 個網(wǎng)絡(luò)模型進(jìn)行試驗。將奶牛多角度身份識別數(shù)據(jù)集的441個類別共14 468張圖像全部用于骨干網(wǎng)絡(luò)模型的訓(xùn)練與測試。試驗中,使用奶牛身份識別訓(xùn)練數(shù)據(jù)集和奶牛身份識別測試數(shù)據(jù)集分別進(jìn)行模型訓(xùn)練和模型測試,在模型測試中進(jìn)行性能評估。模型訓(xùn)練中使用多種訓(xùn)練策略,如使用不同的訓(xùn)練批次樣本數(shù)(batchsize)、使用隨機(jī)擦除數(shù)據(jù)增強(qiáng)策略設(shè)置不同的隨機(jī)擦除率(erasing_p)、使用學(xué)習(xí)率調(diào)整策略設(shè)置基礎(chǔ)學(xué)習(xí)率(base_lr)和預(yù)熱輪數(shù)(warm_epoch)、設(shè)置不同的卷積神經(jīng)網(wǎng)絡(luò)步長(stride),并使用Circle Loss 損失函數(shù)[22]。每個骨干網(wǎng)絡(luò)的訓(xùn)練策略如表1所示。
在牛身份匹配中,通過特征提取、余弦距離計算和相似度判斷,選擇最相似的牛身份作為預(yù)測結(jié)果,并記錄相似度值以便數(shù)據(jù)融合后通過對相似度的判斷估測預(yù)測結(jié)果的正確性。
使用試驗數(shù)據(jù)集對模型進(jìn)行訓(xùn)練,通過性能評估選出性能表現(xiàn)最優(yōu)的模型,用于每個通道的牛身份匹配測試試驗以及多通道匹配結(jié)果的數(shù)據(jù)融合。
1.3.2 模型性能評估方法 模型評估采用“基于圖像檢索的評估方法”,gallery 集包含所有的圖像,而query集包含需要查詢的圖像。使用gallery數(shù)據(jù)集中的圖像作為檢索庫,使用query數(shù)據(jù)集中的圖像作為查詢對象,通過計算檢索結(jié)果與真實結(jié)果之間的差異評估模型性能。評價指標(biāo)采用平均精度均值(mean of average precision, mAP)以及圖像命中率(Rank@k)。
mAP 是query 識別結(jié)果中每個ID 牛的AP(average precision) 的平均值,而AP 是查準(zhǔn)率(precision)的平均值。查準(zhǔn)率就是和query同一ID的圖像在查詢結(jié)果中的占比。
Rank@k 指標(biāo)是一種基于排名的性能評價指標(biāo),用于評估同一目標(biāo)在多個重識別模型中的排序準(zhǔn)確性。該指標(biāo)衡量了在k 個樣本中,經(jīng)過相似度排序后正確地排在了前k 位的樣本所占的比例,因此,Rank@k 指標(biāo)越高,代表模型的性能越好。Rank@k 指標(biāo)常用于評估模型的檢索性能和相似度度量能力。具體評估步驟如下:①將query集中39 張牛圖像依次輸入到網(wǎng)絡(luò)模型中,得到1組待識別牛圖像的特征向量F1;②將gallery 集中2 251張牛的圖像依次輸入到網(wǎng)絡(luò)模型中,得到1組匹配集中所有牛圖像的特征向量F2;③依次計算F1 中每個特征向量與F2 中每個特征向量之間的余弦相似度,將生成39組相似度結(jié)果,將每組結(jié)果中的相似度進(jìn)行排序, 相似度高的排在前面;④根據(jù)排序結(jié)果計算每個模型的mAP 和Rank@1、Rank@5和Rank@10準(zhǔn)確率。
1.3.3 數(shù)據(jù)融合方法 數(shù)據(jù)融合算法實現(xiàn)方法如下:首先,使用最優(yōu)模型在牛5個不同角度的數(shù)據(jù)集上進(jìn)行識別測試,不同角度圖像的識別準(zhǔn)確率存在差異,根據(jù)不同的識別準(zhǔn)確率給5個通道分配不同的優(yōu)先級;然后,依次對每個通道采集的圖像進(jìn)行身份匹配,得到5個通道的身份預(yù)測結(jié)果;最后對5個身份預(yù)測結(jié)果進(jìn)行數(shù)據(jù)融合,得到更準(zhǔn)確的身份預(yù)測結(jié)果。5通道數(shù)據(jù)融合的理念為“一致的結(jié)果越多,通道的優(yōu)先級越高,身份匹配越準(zhǔn)確”,每個通道的優(yōu)先級根據(jù)模型測試結(jié)果確定,具體方法如圖2所示。
融合時操作的數(shù)據(jù)包括D01~ D05每個通道的查詢圖像與在匹配集中匹配到的最相似的圖像以及“匹配得分”。將匹配集中匹配到的最相似的圖像作為每個通道中查詢圖像的身份預(yù)測結(jié)果,對5個通道的結(jié)果進(jìn)行數(shù)據(jù)融合后,將得分閾值(相似度閾值)設(shè)置為0.9,計算數(shù)據(jù)融合前后的身份識別準(zhǔn)確率。
① 根據(jù)數(shù)據(jù)融合理念,按照匹配結(jié)果一致的通道數(shù)量進(jìn)行融合,如果一致的結(jié)果數(shù)超過半數(shù)(如3個及以上數(shù)量通道的匹配結(jié)果一致),將一致的匹配結(jié)果作為數(shù)據(jù)融合的結(jié)果,并將一致的匹配結(jié)果中最高的相似度作為“匹配得分”。
② 如果存在2個通道的匹配結(jié)果一致,由于可能存在2對2個通道匹配結(jié)果一致的情況,因此不能直接將一致的結(jié)果作為匹配結(jié)果,需結(jié)合通道優(yōu)先級進(jìn)行數(shù)據(jù)融合:如果一致的2個通道包含最高優(yōu)先級通道,則將最高優(yōu)先級通道匹配結(jié)果作為數(shù)據(jù)融合的結(jié)果,并將最高優(yōu)先級通道匹配結(jié)果的相似度作為“匹配得分”;否則進(jìn)行次高優(yōu)先級通道判斷,如果2個一致的通道包含次高優(yōu)先級通道,則將次高優(yōu)先級通道的身份預(yù)測結(jié)果作為數(shù)據(jù)融合的結(jié)果,并將次高優(yōu)先級通道匹配結(jié)果的相似度作為“匹配得分”;如果最高優(yōu)先級通道和次高優(yōu)先級通道均不在2個一致的通道中,則說明僅存在1對匹配結(jié)果一致的通道,按照數(shù)據(jù)融合理念,將一致的結(jié)果作為數(shù)據(jù)融合結(jié)果,并將一致的匹配結(jié)果中最高的相似度作為“匹配得分”。
③ 如果5個通道中沒有結(jié)果一致的情況,則將最高優(yōu)先級通道的匹配結(jié)果作為最終匹配結(jié)果,并將最高優(yōu)先級通道匹配結(jié)果的相似度作為“匹配得分”。
2 結(jié)果與分析
2.1 最優(yōu)模型的選擇
使用7個骨干模型作為核心特征提取器,使用奶牛身份識別訓(xùn)練數(shù)據(jù)集進(jìn)行訓(xùn)練,并使用奶牛身份識別測試數(shù)據(jù)集對訓(xùn)練完成的每個模型進(jìn)行性能評估,根據(jù)評估結(jié)果選擇最優(yōu)網(wǎng)絡(luò)模型。模型訓(xùn)練迭代180次后,保存模型權(quán)重文件。模型訓(xùn)練過程的損失值(loss)變化如圖3所示,隨著訓(xùn)練迭代次數(shù)的增加,模型訓(xùn)練結(jié)果與全局最優(yōu)解之間的距離逐漸減小,損失值不斷減小,在迭代次數(shù)達(dá)到180次后所有模型均已收斂。
模型評估結(jié)果如表2 所示,其中,Rank@1、Rank@5、Rank@10 以及mAP 指標(biāo)均能代表模型性能,但在身份匹配中,是將最高相似度的奶牛作為身份預(yù)測結(jié)果,而Rank@1指標(biāo)即為相似度最高的奶牛匹配正確的比率,代表查詢集中某一ID牛身份匹配的準(zhǔn)確率,因此將Rank@1作為主要參考指標(biāo)。由表2可知,HRNet在奶牛多角度身份識別數(shù)據(jù)集上的Rank@1 指標(biāo)最高,因此將HRNet作為最優(yōu)網(wǎng)絡(luò)模型進(jìn)行多角度模型測試與數(shù)據(jù)融合試驗。
2.2 多角度模型測試與數(shù)據(jù)融合
2.2.1 多角度模型測試與分析 選擇較優(yōu)網(wǎng)絡(luò)模型HRNet識別不同角度牛身份,并根據(jù)不同的識別結(jié)果給不同角度牛圖像的識別分配優(yōu)先級以供數(shù)據(jù)融合使用,結(jié)果如表3所示,HRNet骨干網(wǎng)絡(luò)在奶牛的正背面、斜背面、前斜側(cè)面、后斜側(cè)面和正側(cè)面上的Rank@1 準(zhǔn)確率分別達(dá)到96.55%、98.08%、91.23%、95.83% 和89.36%,mAP 分別達(dá)到83.28%、89.88%、75.09%、84.48% 和78.27%,獲得較好的效果。不同角度的奶牛圖像特征區(qū)域不同,導(dǎo)致同一網(wǎng)絡(luò)模型在不同角度數(shù)據(jù)集上的身份識別效果不同。斜背面的身份匹配準(zhǔn)確率最高,達(dá)到98.08%,且背面的匹配準(zhǔn)確率普遍高于側(cè)面。
通過對比匹配正確與匹配錯誤的結(jié)果,發(fā)現(xiàn)匹配錯誤查詢圖像主要存在4種情況:①匹配到的牛圖像與其他身份的牛圖像特征相似度較高;②待識別牛圖像或匹配集牛圖像的特征區(qū)域被遮擋較嚴(yán)重;③匹配集中同一類別的牛圖像數(shù)量較少;④待識別牛圖像或匹配集牛圖像光線較暗。大部分匹配錯誤的圖像受到多種因素的共同影響,但影響最大的是“特征相似度較高”。在匹配錯誤的結(jié)果中,特征相似度較高、遮擋較嚴(yán)重、匹配集圖像較少、光線較暗4 種情況的占比分別為73.3%、60.0%、53.3%、46.7%(表4)。在4種情況中,遮擋較嚴(yán)重和光線較暗這2種情況可以通過改變環(huán)境條件得以改善,匹配集圖像少的奶牛可以采集更多的牛圖像添加到匹配集中,特征相似度較高的情況在單角度圖像識別中無法避免,可以通過多個角度的奶牛圖像共同識別牛身份的方法彌補(bǔ)這一缺陷。
2.2.2 數(shù)據(jù)融合與分析 數(shù)據(jù)融合方法是通過多個角度的奶牛圖像共同識別牛身份的方法,各角度奶牛圖像識別通道的優(yōu)先級高低由每個通道的身份匹配準(zhǔn)確率決定。在單角度識別中正背面、斜背面、前斜側(cè)面、后斜側(cè)面以及正側(cè)面的識別率分別為96.55%、98.08%、91.23%、95.83% 和89.36%,通過數(shù)據(jù)融合后得到的查詢牛對應(yīng)的身份預(yù)測結(jié)果中,“匹配得分”最低值為0.953、最高值為0.999,均超過設(shè)置的得分閾值。對比查詢圖像的真實身份與預(yù)測身份,當(dāng)?shù)梅珠撝担ㄏ嗨贫乳撝担┰O(shè)置為0.9時,數(shù)據(jù)融合后奶牛身份識別預(yù)測結(jié)果的準(zhǔn)確率為100%。
由于每個通道拍攝的奶牛角度不同,導(dǎo)致拍到的圖像特征不同。數(shù)據(jù)融合算法結(jié)合每只牛在5個不同角度通道中的圖像特征,共同判斷牛的身份,根據(jù)每個通道的識別準(zhǔn)確率賦予各個通道的融合優(yōu)先級,結(jié)果表明,數(shù)據(jù)融合有效,能夠提高牛身份匹配的準(zhǔn)確率。
3 討論
奶牛身份識別在現(xiàn)代畜牧業(yè)中具有重要意義。本研究探索了一種高效、準(zhǔn)確、可行的無侵入性奶牛身份識別技術(shù),可以用于監(jiān)測和管理牛群的健康狀況、繁殖狀態(tài)以及飼養(yǎng)情況,以提高養(yǎng)殖場的管理效率和生產(chǎn)效益。通過在養(yǎng)殖場固定通道中設(shè)計安裝5種角度的攝像頭,采集奶牛圖像數(shù)據(jù),構(gòu)建了奶牛多角度身份識別數(shù)據(jù)集,采用多角度數(shù)據(jù)融合方法對奶牛進(jìn)行身份識別,本研究提出的多角度數(shù)據(jù)融合方法與視網(wǎng)膜識別、虹膜識別、牛臉識別等近距離非接觸式奶牛身份識別方法相比[2],可以避免對奶牛的干擾和刺激,提高養(yǎng)殖場的動物福利水平,為養(yǎng)殖場奶牛身份識別提供了可行的解決方案。
本研究對比分析了7種流行的神經(jīng)網(wǎng)絡(luò)模型對奶牛的識別情況,通過使用Rank@k 和mAP等指標(biāo)對模型性能進(jìn)行評估,選擇性能最佳網(wǎng)絡(luò)HRNet作為骨干網(wǎng)絡(luò),結(jié)果表明,該模型在奶牛5種角度的綜合數(shù)據(jù)集上Rank@1 的準(zhǔn)確率達(dá)到96.88%,mAP達(dá)到78.92%;在奶牛的正背面、斜背面、前斜側(cè)面、后斜側(cè)面和正側(cè)面上單角度數(shù)據(jù)集上,Rank@1的準(zhǔn)確率分別達(dá)到96.55%、98.08%、91.23%、95.83% 和89.36%,mAP 指標(biāo)分別達(dá)到83.28%、89.88%、75.09%、84.48%和78.27%,獲得較好效果。本研究發(fā)現(xiàn),奶牛圖像數(shù)據(jù)受到光線和遮擋等因素的影響,可能會對身份識別的準(zhǔn)確性產(chǎn)生一定影響。為了提高遠(yuǎn)距離無接觸式的奶牛身份識別的準(zhǔn)確率,使用HRNet模型作為骨干模型,并設(shè)計了數(shù)據(jù)融合算法,該算法將不同通道采集的圖像進(jìn)行身份匹配,并根據(jù)相似度閾值和結(jié)果的一致性進(jìn)行身份判斷,當(dāng)?shù)梅珠撝担ㄏ嗨贫乳撝担┰O(shè)置為0.9 時,奶牛身份識別率達(dá)到了100%,與單一視角圖像特征識別方法相比[11, 12, 23],使用多個角度的圖像數(shù)據(jù),可以更全面地捕捉奶牛的特征信息,進(jìn)一步提高的奶牛身份識別的準(zhǔn)確率。本研究為奶牛身份識別技術(shù)的發(fā)展提供了新的思路和方法,對于提高畜牧業(yè)的生產(chǎn)效益和管理水平具有重要的意義。
參 考 文 獻(xiàn)
[1] BODKHE J, DIGHE H, GUPTA A, et al .. Animal identification [C]// 2018 International Conference on Advanced Computation and Telecommunication (ICACAT). India: IEEE,2018: 1-4..
[2] 許貝貝,王文生,郭雷風(fēng),等.基于非接觸式的牛只身份識別研究進(jìn)展與展望[J].中國農(nóng)業(yè)科技導(dǎo)報,2020,22(7):79-89.
XU B B, WANG W S, GUO L F, et al .. A review and future prospects on cattle recognition based on non-contactidentification [J]. J. Agric. Sci. Technol., 2020,22(7):79-89.
[3] DUROC Y, TEDJINI S. RFID:a key technology for humanity[J].Comptes Rendus Phys.,2018,19(1/2):64-71.
[4] SILVEIRA M. A review of the history and motivations of animal identification and the different methods of animal identification focusing on radiofrequency identification and how it works for the development of a radiofrequencyidentification based herd management system on the calpoly dairy [D]. California: California Polytechnic State University,2013.
[5] 薛芳芳,王月明,李琦. 基于計算機(jī)視覺技術(shù)的牲畜行為識別研究進(jìn)展[J]. 黑龍江畜牧獸醫(yī), 2021(11):33-38.
XUE F F, WANG Y M, LI Q. Research progress of animal behavior recognition based on computer vision technology [J].Heilongjiang Anim. Sci. Veterinary Med., 2021(11):33-38.
[6] ANDREW W, GREATWOOD C, BURGHARDT T. Aerial animal biometrics: individual friesian cattle recovery and visual identification via an autonomous UAV with onboard deep inference [C]// Proceedings of 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). China:IEEE, 2019: 237-243.
[7] THARWAT A, GABER T, HASSANIEN A E, et al .. Cattle identification using muzzle print images based on texture features approach [C]// Proceedings of the Fifth International Conference on Innovations in Bio-inspired Computing and Applications(IBICA 2014): Advances in Intelligent Systems and Computing. Springer, 2014: 217-227.
[8] AHMED S, GABER T, THARWAT A, et al .. Muzzle-based cattle identification using speed up robust feature approach [C]//2015 International Conference on Intelligent Networking and Collaborative Systems. Taipei: IEEE, 2015: 99-104.
[9] 趙凱旋,何東健.基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個體身份識別方法[J].農(nóng)業(yè)工程學(xué)報,2015,31(5):181-187.
ZHAO K X, HE D J. Recognition of individual dairy cattle based on convolutional neural networks [J]. Trans. Chin. Soc.Agric.Eng.,2015,31(5):181-187.
[10] KUMAR S, PANDEY A, SATWIK KSAI R, et al .. Deep learning framework for recognition of cattle using muzzle point image pattern [J]. Measurement, 2018,116:163-195.
[11] SHEN W Z, HU H Q, DAI B S, et al .. Individual identification of dairy cows based on convolutional neural networks [J].Multimed. Tools Appl.,2020,79(21):14711-14724.
[12] QIAO Y L, SU D, KONG H, et al .. Individual cattle identification using a deep learning based framework [J]. Int.Fed. Auto. Ctrl., 2019, 52 (30):318-323.
[13] ZIN T T, PHYO C N, TIN P, et al .. Image technology based cow identification system using deep learning [J]. IMECS,2018,3(1): 236-247.
[14] HE K, ZHANG X, REN S, et al .. 2016. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 770-778.
[15] HUANG G, LIU Z, VAN DER MAATEN L, et al .. Densely connected convolutional networks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017:4700-4708.
[16] SUN Y, ZHENG L, YANG Y, et al.. Beyond part models: person retrieval with refined part pooling (and a strong convolutional baseline) [C]// Proceedings of the European Conference on Computer Vision (ECCV). Germany,2018:480-496.
[17] TAN M, LE Q. Efficientnet: rethinking model scaling for convolutional neural networks [J]. PMLR, 2019,97: 6105-6114.
[18] SUN K, XIAO B, LIU D, et al .. Deep high-resolution representation learning for human pose estimation [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, CA:IEEE, 2019:5693-5703.
[19] LIU Z, LIN Y, CAO Y, et al .. Swin transformer: Hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision.Virtually: IEEE, 2021:10012-10022.
[20] LIU Z, MAO H, WU CY, et al .. A convnet for the 2020s [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans, Louisiana: IEEE, 2022:11976-11986.
[21] REDMON J, DIVVALA S, GIRSHICK R ,et al .. You only look once: unified, real-time object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 779-788.
[22] SUN Y,CHENG C, ZHANG Y, et al .. Circle Loss: a unified perspective of pair similarity optimization [C]// Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2020:6397-6406.
[23] WANG Y F, XU X S, WANG Z, et al .. ShuffleNet-Triplet: a lightweight RE-identification network for dairy cows in natural scenes [J/OL]. Comput. Electr. Agric., 2023, 205: 107632[2023-03-26]. https://doi.org/10.1016/j.compag.2023.107632.