寧紀(jì)鋒 張 靜 楊蜀秦 胡沈榮 藍(lán)賢勇 王勇勝
(1.西北農(nóng)林科技大學(xué)信息工程學(xué)院, 陜西楊凌 712100; 2.農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室, 陜西楊凌 712100;3.西北農(nóng)林科技大學(xué)機(jī)械與電子工程學(xué)院, 陜西楊凌 712100; 4.西北農(nóng)林科技大學(xué)動(dòng)物科技學(xué)院, 陜西楊凌 712100;5.西北農(nóng)林科技大學(xué)動(dòng)物醫(yī)學(xué)院, 陜西楊凌 712100)
奶山羊是一種以產(chǎn)奶為主的小型反芻動(dòng)物,其乳制品脂肪球徑小,鈣鎂含量高于牛奶,是現(xiàn)代乳業(yè)的重要原料之一[1]。隨著智慧畜牧和精準(zhǔn)飼養(yǎng)理念的提出[2-3],研究者們通過(guò)部署傳感器采集實(shí)時(shí)數(shù)據(jù),獲取家畜身體狀況信息和生理指標(biāo),從而對(duì)養(yǎng)殖過(guò)程進(jìn)行疾病監(jiān)測(cè)、行為識(shí)別和異常預(yù)警[4-6]。近年來(lái),人工智能模型驅(qū)動(dòng)畜牧業(yè)高質(zhì)量發(fā)展的相關(guān)研究顯著增加,主要集中于動(dòng)物行為檢測(cè)和識(shí)別領(lǐng)域[7-9],其中,計(jì)算機(jī)視覺(jué)技術(shù)在動(dòng)物福利、牲畜生產(chǎn)、監(jiān)測(cè)動(dòng)物方面表現(xiàn)出巨大潛力[10-11],為畜牧管理者生產(chǎn)決策提供評(píng)估和分析的依據(jù)。因此,設(shè)計(jì)一種魯棒、實(shí)時(shí)的奶山羊跟蹤算法對(duì)奶山羊智能化管理中的行為分析和精準(zhǔn)飼喂具有重要意義[12]。
相較牛和豬等其他畜牧動(dòng)物,奶山羊通體雪白,軀體無(wú)明顯花紋,群聚時(shí)相似目標(biāo)干擾現(xiàn)象嚴(yán)重[13]。同時(shí),奶山羊運(yùn)動(dòng)矯健、敏捷,對(duì)跟蹤算法的速度和魯棒性有更高需求[14]。傳統(tǒng)的監(jiān)測(cè)方法通過(guò)在家畜軀體穿綁可穿戴設(shè)備監(jiān)測(cè)運(yùn)動(dòng)軌跡,但是其會(huì)限制家畜的活動(dòng)。ZHANG等[15]設(shè)計(jì)了一種基于視覺(jué)圖像分析的測(cè)量方法,利用固定位置裝置捕獲視覺(jué)圖像,無(wú)需人工接觸測(cè)量綿羊的體尺參數(shù)。VAYSSADE等[16]用GPS設(shè)備記錄奶山羊位置間隔,結(jié)合閾值和監(jiān)督分類跟蹤其活動(dòng)。WANG等[17]基于Faster R-CNN[18]在監(jiān)控錄像中提取關(guān)鍵幀,改進(jìn)區(qū)域前景的分割,使算法適應(yīng)視頻監(jiān)控目標(biāo)檢測(cè)的時(shí)空連續(xù)性。SU等[19]在SiamRPN[20]骨干網(wǎng)絡(luò)中加入多卷積殘差塊和降采樣多卷積殘差塊,提取奶山羊高維深度語(yǔ)義信息,建立實(shí)時(shí)和低成本的奶山羊跟蹤算法。隨后,其又提出AMTracker[21]方法,使用EfficientNet[22]為骨干網(wǎng)絡(luò),融合多層特征并引入注意力機(jī)制提升模板分支和類分支的相關(guān)度,使用無(wú)錨框的跟蹤網(wǎng)絡(luò)定位奶山羊位置也取得了良好的結(jié)果。這些研究表明深度學(xué)習(xí)方法識(shí)別和跟蹤奶山羊的可行性,但算法的改進(jìn)僅局限于增強(qiáng)骨干網(wǎng)絡(luò)、增加功能性模塊等傳統(tǒng)思路[23],未充分挖掘奶山羊獨(dú)有的外觀細(xì)節(jié)并增強(qiáng)網(wǎng)絡(luò)對(duì)奶山羊類的針對(duì)性學(xué)習(xí),跟蹤時(shí)對(duì)相似目標(biāo)干擾抵抗性差,易發(fā)生跟蹤漂移[24]。
本文提出類特定的實(shí)時(shí)奶山羊跟蹤算法,區(qū)別于通用跟蹤算法使用的基準(zhǔn)數(shù)據(jù)集COCO[25]、LaSOT[26]、TrackingNet[27]、Got-10K[28]等預(yù)訓(xùn)練網(wǎng)絡(luò)參數(shù),而是利用跟蹤目標(biāo)類的唯一性,用奶山羊數(shù)據(jù)集訓(xùn)練區(qū)分度更大且判別力更強(qiáng)的奶山羊識(shí)別定位模型。其次,在線跟蹤時(shí),對(duì)邊界框回歸網(wǎng)絡(luò)調(diào)制向量以指數(shù)平滑方式融合奶山羊類特征進(jìn)行在線更新,適應(yīng)跟蹤目標(biāo)的表觀變化。在奶山羊跟蹤數(shù)據(jù)集上,與代表性跟蹤算法的比較結(jié)果驗(yàn)證提出方法的有效性。
實(shí)驗(yàn)地點(diǎn)位于陜西省楊凌農(nóng)業(yè)高新技術(shù)示范區(qū)西北農(nóng)林科技大學(xué)奶山羊基地,于2021年6—7月采用索尼FDR-AX100E型和索尼A5000型兩種攝像機(jī)拍攝。視頻拍攝時(shí)長(zhǎng)為30~60 s,索尼FDR-AX100E型攝像機(jī)拍攝的視頻幀速率為29.97 f/s,分辨率為1 440像素×1 880像素,索尼A5000型攝像機(jī)拍攝的視頻幀速率為25 f/s,分辨率為1 920像素×1 880像素。使用Labelme圖像標(biāo)注工具對(duì)采集到的視頻進(jìn)行標(biāo)注。
奶山羊數(shù)據(jù)集由52個(gè)視頻序列組成,其中訓(xùn)練集包括18個(gè)視頻,測(cè)試集包括34個(gè)視頻。視頻平均長(zhǎng)度為701幀,共計(jì)36 430幅奶山羊圖像,圖像中包含模糊、嚴(yán)重遮擋、光線不足、離開(kāi)視野等不同情況,綜合羊只體尺、光線明暗、羊只數(shù)量、運(yùn)動(dòng)狀態(tài)、模糊程度和遠(yuǎn)近景情況,將拍攝視頻分為單只羊類、小目標(biāo)類、快速運(yùn)動(dòng)類和群羊類。如圖1所示,單只羊類圖像清晰易識(shí)別(圖1a);小目標(biāo)類多遠(yuǎn)景,羊靜立、久臥或慢速運(yùn)動(dòng),部分存在遮擋(圖1b);快速運(yùn)動(dòng)類羊劇烈運(yùn)動(dòng),多模糊、形變較大(圖1c);群羊類指視野中多只羊,目標(biāo)混入羊群出現(xiàn)遮擋,易發(fā)生相似目標(biāo)干擾,對(duì)算法判別能力要求高(圖1d)。奶山羊分類數(shù)據(jù)集數(shù)量劃分情況如表1所示。
表1 奶山羊數(shù)據(jù)集不同類視頻平均幀和視頻數(shù)Tab.1 Average frames and number of different types of videos in dairy goat dataset
圖1 奶山羊跟蹤數(shù)據(jù)集示例Fig.1 Examples of dairy goat tracking data set
DiMP[29]是一種判別式目標(biāo)跟蹤模型,包含分類分支和邊界框回歸分支:前者可區(qū)分目標(biāo)和背景,預(yù)測(cè)模塊主要用于訓(xùn)練判別式目標(biāo)模型f、初始化模塊和循環(huán)優(yōu)化器模塊。初始化器根據(jù)訓(xùn)練集得到模型的初始解,然后將其送入循環(huán)優(yōu)化器獲得判別式目標(biāo)模型f,其參數(shù)以數(shù)據(jù)驅(qū)動(dòng)的方式學(xué)習(xí),如標(biāo)簽置信分?jǐn)?shù)yc,空間權(quán)重函數(shù)vc,正則化參數(shù)λ以及目標(biāo)掩碼mc,圖像x與濾波器f經(jīng)過(guò)卷積操作得到預(yù)測(cè)的目標(biāo)中心,計(jì)算與真實(shí)目標(biāo)中心c的殘差,得到判別前后背景的分類模型;后者繼承自ATOM模型[30],基于目標(biāo)模型的調(diào)制向量預(yù)測(cè)當(dāng)前跟蹤目標(biāo)的位置與尺寸,參考IoUNet[31],提出了目標(biāo)特定的IoU預(yù)測(cè),適用于不同種類目標(biāo)對(duì)象,以訓(xùn)練學(xué)到統(tǒng)一的經(jīng)驗(yàn)權(quán)重,進(jìn)行通用目標(biāo)類的識(shí)別和定位。
DiMP網(wǎng)絡(luò)采用目標(biāo)特定策略預(yù)測(cè)跟蹤目標(biāo)邊界框的尺寸與位置,該策略雖然提高了算法對(duì)通用目標(biāo)跟蹤時(shí)的普適性和泛化能力,但在特定類目標(biāo)跟蹤方面,將極大抑制異類目標(biāo)獨(dú)有特征的表達(dá)和傳遞,降低算法對(duì)該既定目標(biāo)類的敏感性和適應(yīng)性。在線跟蹤時(shí),邊界框回歸分支使用第1幀作為整個(gè)跟蹤序列的調(diào)制向量,由于跟蹤初期后續(xù)幀與第1幀相似度高,調(diào)制向量可為邊界框精準(zhǔn)回歸提供支撐,但隨著幀數(shù)增加,后續(xù)幀目標(biāo)變化,調(diào)制向量?jī)H包含第1幀特征,相較整個(gè)跟蹤序列的形態(tài)變化,特征單一且不具備代表性,難以應(yīng)對(duì)表觀變化較大的跟蹤目標(biāo)[32]。
本文提出的類特定跟蹤算法包括2方面:基于奶山羊訓(xùn)練集的類適應(yīng)性訓(xùn)練和基于類特定融合的IoU-Refine分支改進(jìn)。類適應(yīng)性訓(xùn)練方法使跟蹤網(wǎng)絡(luò)在識(shí)別特定跟蹤類時(shí),借鑒目標(biāo)檢測(cè)中采用遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)識(shí)別特定類的思想,對(duì)執(zhí)行特定類任務(wù)的跟蹤網(wǎng)絡(luò)應(yīng)用遷移學(xué)習(xí)方法,解決DiMP原始模型和具體應(yīng)用域之間不一致問(wèn)題,有效過(guò)濾冗余信息并加速模型收斂。同理,由于跟蹤目標(biāo)僅有奶山羊類,因此可以有效增強(qiáng)IoU-Refine分支的融合效果,類調(diào)制向量提取奶山羊類豐富的語(yǔ)義特征和先驗(yàn)知識(shí),與跟蹤序列第1幀調(diào)制向量以指數(shù)消融方式進(jìn)行融合,自適應(yīng)地優(yōu)化特征,彌補(bǔ)僅采用第1幀調(diào)制向量造成的特征不具代表性問(wèn)題。
2.2.1基于奶山羊訓(xùn)練集的DiMP類特定跟蹤模型
由于通用跟蹤算法對(duì)跟蹤目標(biāo)的不可知性,一般采用目標(biāo)特定的策略設(shè)計(jì)跟蹤網(wǎng)絡(luò),本文利用跟蹤目標(biāo)的類特定性,將奶山羊數(shù)據(jù)集在DiMP網(wǎng)絡(luò)原始訓(xùn)練權(quán)重基礎(chǔ)上微調(diào),建立對(duì)奶山羊類敏感適應(yīng)的判別式分類器模型f。具體過(guò)程為,首先選擇一個(gè)奶山羊視頻序列,隨機(jī)挑出若干幀,一部分作為訓(xùn)練集Mtrain,另一部分作為測(cè)試集Mtest。然后,骨干網(wǎng)絡(luò)ResNet[33]使用MoCov2[34]在ImageNet[35]上初始化訓(xùn)練出的模型,將Mtrain和Mtest分別輸入到特征提取網(wǎng)絡(luò)得到參考分支和測(cè)試分支的特征信息Strain和Stest?;趨⒖挤种卣鱏train提取的目標(biāo)特征得到初始化模型,輸入循環(huán)優(yōu)化器得到最終的判別模型f,并與測(cè)試集提取的特征進(jìn)行卷積得到打分,再結(jié)合測(cè)試標(biāo)簽Stest進(jìn)行評(píng)價(jià),反向傳播以更新骨干網(wǎng)絡(luò)參數(shù)。通過(guò)該方法可為后續(xù)正負(fù)樣本分類和邊界框評(píng)估提供更精準(zhǔn)的特征映射,以此增加跟蹤奶山羊過(guò)程中對(duì)目標(biāo)和背景的判別能力。
2.2.2基于IoU-Refine分支的類特定調(diào)制向量
由于DiMP所使用的邊界框回歸網(wǎng)絡(luò)的參考模板僅用視頻序列的第1幀制作調(diào)制向量,難以完整反映奶山羊跟蹤過(guò)程中出現(xiàn)的不同形態(tài)變化且后續(xù)幀和第1幀形態(tài)存在較大差異。因此,本文在線跟蹤階段,隨著跟蹤的進(jìn)行,以指數(shù)平滑方式在第1幀調(diào)制向量中逐通道融合奶山羊類調(diào)制向量,構(gòu)造隨時(shí)域更新的調(diào)制向量,以適應(yīng)奶山羊表面模型的變化,改進(jìn)的向量融合方式如圖2所示。
圖2 類調(diào)制向量的融合網(wǎng)絡(luò)Fig.2 Fusion of class modulation vector and the first frame modulation vector
α=ae-T+b
(1)
(2)
式中a、b——自適應(yīng)權(quán)重
T——跟蹤幀數(shù)
α——融合權(quán)重比
跟蹤序列測(cè)試幀產(chǎn)生調(diào)制向量為z(xi,Bi),尺寸為K×K×D,K為池化層空間輸出,通過(guò)通道乘法與c(xi,Bi)融合,送入模塊g預(yù)測(cè)當(dāng)前幀的邊界框,計(jì)算當(dāng)前目標(biāo)預(yù)測(cè)邊界框與真實(shí)框的IoU。
實(shí)驗(yàn)硬件環(huán)境為GeForce RTX 2080Ti GPU,顯存12 GB,操作系統(tǒng)為Ubuntu 1604LTS,使用PyTorch 1.7.1深度學(xué)習(xí)架構(gòu),編程語(yǔ)言及版本為Python。改進(jìn)后DiMP模型采用MoCov2在ImageNet訓(xùn)練得到的權(quán)重對(duì)骨干網(wǎng)絡(luò)進(jìn)行初始化,其余部分使用DiMP預(yù)訓(xùn)練模型權(quán)重進(jìn)行初始化。使用奶山羊訓(xùn)練集訓(xùn)練50個(gè)迭代周期(epoch),批處理量設(shè)置為4,輸入圖像的分辨率為288像素×288像素,使用Adam優(yōu)化器優(yōu)化模型,初始學(xué)習(xí)率設(shè)置為2×10-4,動(dòng)量參數(shù)為0.9,調(diào)制向量更新頻率為150。
采用5項(xiàng)指標(biāo)評(píng)價(jià)算法的跟蹤效果。為了對(duì)模型的性能進(jìn)行恰當(dāng)?shù)呐判?需要明確性能參數(shù)的優(yōu)先級(jí)。AUC是ROC(Receiver operating characteristic)曲線下的面積,描述分類器對(duì)正、負(fù)例的分類能力,值越高表示算法判別能力越強(qiáng)。精確率(Precision)為目標(biāo)中心點(diǎn)坐標(biāo)與真實(shí)值的誤差距離在給定閾值范圍內(nèi)的視頻幀數(shù)占總視頻幀數(shù)的百分比,值越高表示算法定位能力越強(qiáng)。OP50(Overlap precision of 50%)和OP75(Overlap precision of 75%)分別為真實(shí)框和預(yù)測(cè)框重疊率超過(guò)50%和75%的視頻幀數(shù)占總視頻幀數(shù)的百分比,重疊率為重疊區(qū)域面積與預(yù)測(cè)矩形面積、真實(shí)矩形面積、重疊區(qū)域面積和的比值。歸一化精確率(Norm Precision)使用目標(biāo)中心點(diǎn)坐標(biāo)與真實(shí)值的距離歸一化距離替換Precision的絕對(duì)距離進(jìn)行評(píng)估。
3.3.1不同算法實(shí)驗(yàn)結(jié)果對(duì)比
為了驗(yàn)證改進(jìn)模型的有效性,將ATOM模型、DiMP模型、SiamRPN模型在測(cè)試集上的結(jié)果與本文改進(jìn)模型進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果如表2所示,(+)表示將該模型在奶山羊訓(xùn)練集上參數(shù)微調(diào)后在測(cè)試集上進(jìn)行對(duì)比實(shí)驗(yàn)。
表2 奶山羊測(cè)試數(shù)據(jù)集實(shí)驗(yàn)結(jié)果Tab.2 Experimental results of dairy goat test dataset %
由表2可知,改進(jìn)DiMP模型各項(xiàng)指標(biāo)均優(yōu)于其他6種目標(biāo)跟蹤模型。ATOM、SiamRPN、DiMP和改進(jìn)DiMP模型的速度分別為26、27、33、30 f/s。在AUC方面,改進(jìn)模型為76.20%,分別比ATOM、DiMP和SiamRPN模型高10.40、6.17、6.09個(gè)百分點(diǎn)。改進(jìn)模型的識(shí)別準(zhǔn)確率為60.19%,分別比ATOM、DiMP和SiamRPN模型高18.93、14.18、8.50個(gè)百分點(diǎn)。改進(jìn)模型的OP50、OP75和Norm Precision分別為89.55%、78.60%、87.55%,與DiMP模型相比,提升5.21、15.68、6.90個(gè)百分點(diǎn)。其中,ATOM、DiMP模型在奶山羊訓(xùn)練集上進(jìn)行參數(shù)微調(diào)后,識(shí)別性能和定位精度有效提高,但SiamRPN使用奶山羊訓(xùn)練集微調(diào)參數(shù)后結(jié)果下降,分析原因是由于SiamRPN作為孿生系列算法,目標(biāo)定位依靠跟蹤幀與模板幀間的交互獲取目標(biāo)特征信息,且網(wǎng)絡(luò)結(jié)構(gòu)多為淺層,參數(shù)量少,難以在微調(diào)訓(xùn)練中學(xué)習(xí)復(fù)雜特征信息,導(dǎo)致魯棒性差和泛化能力下降。
改進(jìn)DiMP模型在OP75和Precision上均有顯著提升,表明在DiMP采用類特定訓(xùn)練和融合類特征調(diào)制向量的奶山羊跟蹤模型,識(shí)別性能和定位精度有效提高,驗(yàn)證了改進(jìn)DiMP模型的有效性。圖3為改進(jìn)DiMP模型在奶山羊數(shù)據(jù)集上訓(xùn)練時(shí)的損失函數(shù)變化曲線,可見(jiàn),該方法收斂速度較快,當(dāng)?shù)螖?shù)為20時(shí),訓(xùn)練損失值由0.23降至0.09。
圖3 損失值收斂曲線Fig.3 Convergence curves of loss value
3.3.2不同類別數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果對(duì)比
采用ATOM、DiMP、SiamRPN和改進(jìn)DiMP模型分別對(duì)單只羊測(cè)試集、小目標(biāo)測(cè)試集、快速運(yùn)動(dòng)測(cè)試集和群羊測(cè)試集進(jìn)行跟蹤,以比較不同算法對(duì)不同場(chǎng)景的跟蹤效果。場(chǎng)景中包括了一些困難場(chǎng)景,例如,小目標(biāo)測(cè)試集特征不明顯、群羊測(cè)試集多出現(xiàn)遮擋和相似目標(biāo)干擾以及快速運(yùn)動(dòng)測(cè)試集多出現(xiàn)形變和模糊等現(xiàn)象。表3通過(guò)改進(jìn)DiMP模型與其它3種跟蹤算法對(duì)4類奶山羊跟蹤場(chǎng)景AUC結(jié)果加以比較。
表3 不同算法在分類測(cè)試集上的AUCTab.3 AUC results of different algorithms on classified test set %
可以看出,在單只羊測(cè)試集、快速運(yùn)動(dòng)測(cè)試集和群羊測(cè)試集上,改進(jìn)DiMP模型相較其他算法各項(xiàng)指標(biāo)都有明顯提高。改進(jìn)DiMP模型比DiMP模型在單只羊、快速運(yùn)動(dòng)和群羊上的AUC分別高出5.4、6.5、8.14個(gè)百分點(diǎn),說(shuō)明改進(jìn)DiMP模型對(duì)于形變、模糊、相似目標(biāo)干擾問(wèn)題的魯棒性顯著增強(qiáng),進(jìn)一步驗(yàn)證了改進(jìn)算法良好的判別能力。
在小目標(biāo)類別中,SiamRPN的跟蹤效果優(yōu)于改進(jìn)DiMP、DiMP、ATOM 3種算法,改進(jìn)DiMP的AUC無(wú)明顯提升,推測(cè)原因是由于小目標(biāo)類奶山羊多為遠(yuǎn)景,目標(biāo)小且特征不明顯,SiamRPN用模板信息與搜索區(qū)域信息進(jìn)行相似性度量預(yù)測(cè)邊界框的方式,優(yōu)于DiMP算法中IoU預(yù)測(cè)模塊的目標(biāo)模板為待搜索圖像提供調(diào)制向量預(yù)測(cè)邊界框的方式,且跟蹤過(guò)程無(wú)明顯模糊和形變,DiMP和改進(jìn)DiMP在線訓(xùn)練時(shí)循環(huán)優(yōu)化器模塊判別正、負(fù)樣本的過(guò)程對(duì)該數(shù)據(jù)集提升效果有限。
3.3.3消融實(shí)驗(yàn)
表4為消融實(shí)驗(yàn)用于驗(yàn)證改進(jìn)DiMP模型各個(gè)模塊對(duì)跟蹤性能的影響??梢钥闯?采用遷移學(xué)習(xí)方法使AUC和精確率分別提升5.47個(gè)百分點(diǎn)和14.00個(gè)百分點(diǎn);而最后通過(guò)添加類特定融合方法,使得改進(jìn)模型最終的AUC和精確率達(dá)到76.20%和60.19%,進(jìn)一步提升了精度。實(shí)驗(yàn)結(jié)果表明,改進(jìn)DiMP模型在各項(xiàng)指標(biāo)上都比原始模型有顯著提升,AUC和精確率分別提升6.17、14.18個(gè)百分點(diǎn),驗(yàn)證了提出方法的有效性。
表4 改進(jìn)DiMP模型消融實(shí)驗(yàn)結(jié)果Tab.4 Ablation analysis of experimental results of improved DiMP model %
3.3.4定性評(píng)價(jià)
圖4為3個(gè)不同類型奶山羊視頻序列的跟蹤結(jié)果。可以看出,出現(xiàn)相似目標(biāo)干擾和模糊的跟蹤困難場(chǎng)景時(shí),原始DiMP模型預(yù)測(cè)框過(guò)大,未貼合目標(biāo),且存在跟蹤漂移現(xiàn)象,而改進(jìn)DiMP模型預(yù)測(cè)的目標(biāo)框能夠準(zhǔn)確框住目標(biāo)。表明提出的跟蹤方法能夠適應(yīng)奶山羊目標(biāo)表觀的變化,從而得到準(zhǔn)確的跟蹤結(jié)果。
圖4 改進(jìn)DiMP跟蹤方法跟蹤結(jié)果示例Fig.4 Example of improved DiMP tracking method
(1)為了實(shí)現(xiàn)復(fù)雜情況下精確、魯棒的奶山羊目標(biāo)跟蹤,本文提出了一種類特定的DiMP奶山羊目標(biāo)跟蹤方法,充分利用奶山羊跟蹤對(duì)象單一固定的優(yōu)勢(shì),結(jié)合遷移學(xué)習(xí)和指數(shù)融合的類調(diào)制向量,構(gòu)造適應(yīng)奶山羊類外觀變化的判別性網(wǎng)絡(luò)和高質(zhì)量的外觀融合模板,從而獲得準(zhǔn)確的預(yù)測(cè)邊界框和可靠的位置信息,提高了算法在面對(duì)奶山羊相似目標(biāo)干擾、模糊、遮擋和外觀變化時(shí)的跟蹤精度和成功率。在4種場(chǎng)景類別奶山羊測(cè)試集上的實(shí)驗(yàn)結(jié)果驗(yàn)證了改進(jìn)方法的有效性。
(2)基于奶山羊目標(biāo)跟蹤的類特定先驗(yàn)性條件,采用遷移學(xué)習(xí)策略,使DiMP模型向奶山羊跟蹤任務(wù)收斂,AUC從70.61%提升到75.50%,顯著增強(qiáng)了目標(biāo)跟蹤性能。
(3)使用類特定方法代替目標(biāo)特定方法進(jìn)行跟蹤時(shí),采用該類數(shù)據(jù)集訓(xùn)練的模型,并在參考模板中融合該類的特征信息,可得到更強(qiáng)的奶山羊表觀特征,AUC從75.50%提升到76.20%,進(jìn)一步提升了跟蹤性能。
農(nóng)業(yè)機(jī)械學(xué)報(bào)2023年6期