趙凱旋 劉曉航 姬江濤
(河南科技大學農(nóng)業(yè)裝備工程學院,洛陽 471003)
奶牛產(chǎn)犢前儲備一定的脂肪是其安全渡過能量負平衡期的重要保證,對其體脂儲量進行評測是保證圍產(chǎn)期奶牛營養(yǎng)與健康的重要前提[1]。體況評分(Body condition score, BCS)是指對動物脂肪保有量進行定量評價,已成為衡量動物能量儲備、健康狀況和飼喂管理水平的有效工具[2-3]。體況評分對奶牛產(chǎn)前和產(chǎn)后管理非常重要,體況異常和突變是奶牛代謝紊亂的主要表征之一[4-5]。定期評估奶牛體況是預防代謝疾病、保障個體福利、增加經(jīng)濟效益的有效途徑。
目前,奶牛體況評分主要采取人工方法,根據(jù)一定的規(guī)則,對腰、骶骨等關鍵區(qū)域進行肉眼觀察,主觀評估奶牛的脂肪富積程度[6-7]。受人工主觀性影響,評分結果的重復性和可靠性較低,評定過程耗時、費力,并嚴重依賴于評估人員的經(jīng)驗。人工體況評分方法難以滿足規(guī)?;B(yǎng)殖對奶牛個體營養(yǎng)狀態(tài)實時監(jiān)測的需求[8-10],亟需一種長期、連續(xù)對奶牛體況進行精準評分的自動化系統(tǒng)。
機器視覺技術應用于體況評分的研究已逐漸成為研究熱點,這對于降低主觀性、提高評估效率具有重要意義[6,11]。使用機器視覺進行體況評分反演時通常基于“特征提取-模型分析”的評分方法[12-15],即從低成本2D相機拍攝的RGB圖像中提取與體況相關的體表幾何特征(輪廓、形狀、曲線等),建立特征值與人工評分值回歸關系,以此實現(xiàn)奶牛體況的評估,這種方法能夠達到0.5步長內(nèi)96.7%的體況識別率[15]。通過RGB圖像雖然初步實現(xiàn)了體況的自動評價,但提取的體表幾何特征主要為相關性較弱的間接特征。并且受環(huán)境對圖像采集質(zhì)量的影響,系統(tǒng)的自動化程度較低,且在體況評分實時性、識別準確率及可靠性方面難以滿足實際養(yǎng)殖的管理需求。
隨著三維機器視覺技術的發(fā)展,深度圖像包含更多與動物體況直接相關的特征,且在降低評分主觀性、提高評估效率與精度、加速系統(tǒng)商業(yè)化等方面表現(xiàn)出極大潛力[16-17]。但深度圖像中所含奶牛三維結構特征較為復雜,傳統(tǒng)手工構建的特征提取器存在有效性缺失、魯棒性差、過程繁瑣等問題[18]。為此研究者提出采用深度學習技術替代特征構建與提取,從而實現(xiàn)直接由圖像到體況得分的體況評估方法,大大提高了體況評估的效率與精度,且0.25步長內(nèi)評分準確率可達到82%[19-21]。深度學習與3D技術的使用使自動體況評分精度有了進一步提升,但在實際生產(chǎn)中,為滿足奶牛不同生長階段的營養(yǎng)管理需求,奶牛體況值與理想值差距應始終維持在0.25步長內(nèi)[6,12],現(xiàn)有自動評分系統(tǒng)的精度與實際養(yǎng)殖管理標準仍具有一定差距。
為進一步提高奶牛體況自動評分精度,本文根據(jù)采集的奶牛背部深度圖像,提出一種基于EfficientNet網(wǎng)絡和凸包特征的體況自動評分方法。首先對獲取的奶牛背部深度圖像進行預處理,提取含有主要體況信息的奶牛后軀背部點云數(shù)據(jù);其次通過對點云進行體素化及凸包化處理獲取其凸包特征圖像;最后構建EfficientNet模型,對特征圖像進行分類,以期實現(xiàn)養(yǎng)殖環(huán)境下奶牛個體體況的精準高效評分。
研究數(shù)據(jù)采集于美國肯塔基大學研究奶牛場。研究對象包括77頭處于泌乳期的荷斯坦奶牛,每天05:00和16:00進行擠奶,擠奶完成后經(jīng)由室內(nèi)窄道返回牛舍。窄道左右兩側墻壁相距1.03 m,能夠有效限制奶牛的活動幅度,便于圖像采集與處理。
圖像采集系統(tǒng)[6]如圖1所示,主要由3D攝像機、補光燈、光線傳感器及安裝底座組成。其中3D攝像機(PrimeSense Carmine 1.08,Tel Aviv, 以色列)用來捕獲奶牛經(jīng)窄道返回牛舍時的背部深度圖像,補光燈(60 W泛光照明燈)用于拍攝RGB圖像時的照明與補光。采集系統(tǒng)安裝在距離混凝土地面高3.05 m的天花板上,其視野能夠完全覆蓋窄道寬度。攝像機同時獲取彩色和深度圖像,并通過USB延長線連接牛場辦公室計算機,深度圖像的分辨率為320像素×240像素,幀率為30 f/s。圖像處理平臺處理器為Intel i5-8400,主頻為2.80 GHz,內(nèi)存容量為8 GB,操作系統(tǒng)為Windows 10,算法開發(fā)平臺為Matlab 2020b。
設計的圖像采集與控制軟件,用以檢測場景中是否出現(xiàn)奶牛,并控制攝像機進行圖像采集。如圖2所示[20],奶牛由左側進入窄道后,會依次觸發(fā)4條檢測線。當僅觸發(fā)檢測線②、③、④時,說明奶牛背部區(qū)域完整地呈現(xiàn)在采集視野中,此時攝像機同時拍攝彩色圖像和深度圖像。
數(shù)據(jù)采集于2014年4—6月,泌乳期奶牛每天在擠奶后采集2次數(shù)據(jù)。在試驗數(shù)據(jù)采集階段,由3名經(jīng)驗豐富的專業(yè)評分人員按照相同的評分標準(5分制),每周對所有試驗奶牛進行一次體況評分,并以3個評分值的中值作為奶牛在對應周次內(nèi)的體況得分,以減小人工評分的主觀差異。研究表明,正常情況奶牛體況得分在一周內(nèi)的變化不超過0.25[6],因此按照此規(guī)則,對每頭奶牛體況得分的時間序列進行分析,剔除人工評分時間序列中的異常值。最終構建的數(shù)據(jù)集包含77頭奶牛的5 119幅深度圖像及對應的人工評分值。隨機選取2 560幅圖像用于后續(xù)模型的訓練,剩余的1 536幅和1 023幅圖像用于模型的驗證與測試,三者的比例為5∶3∶2,3個數(shù)據(jù)集的BCS分布如表1所示。3個數(shù)據(jù)集在隨機選取過程中均涵蓋所有的BCS值,且保留了整體數(shù)據(jù)集的樣本分布特性。
表1 不同BCS對應的數(shù)據(jù)集圖像分布
為便于后續(xù)的算法開發(fā)及特征提取,對原始深度圖像進行目標提取、目標旋轉(zhuǎn)、后軀圖像獲取等預處理操作[22-23],以提取含有主要體況信息的奶牛后軀背部點云,具體步驟如圖3所示。
1.3.1目標提取
為提高目標提取質(zhì)量,采用1 200幅深度背景圖像進行背景建模,并利用實際采集中未檢測到目標奶牛的圖像對其進行更新,以避免任意單個深度背景圖像存在潛在錯誤。將捕獲的深度圖像與建模所得背景圖像進行差分運算,并對差值結果進行閾值處理,即可得到不含背景的奶牛深度圖像。背景去除后,將相機與地面的距離(3.05 m)與奶牛圖像各像素值相加即可將圖像像素的深度轉(zhuǎn)換為與地面的距離。
1.3.2目標旋轉(zhuǎn)
為降低因采集過程奶牛身體傾斜對數(shù)據(jù)一致性造成的影響,對提取的目標奶牛圖像進行旋轉(zhuǎn),使其脊柱方向與圖像橫軸平行,以便于后續(xù)算法沿脊柱方向?qū)蓚茸鲗ΨQ性處理。選取奶牛深度圖像中每列的最高值作為脊柱點,采用線性擬合方法對其擬合以獲取脊柱線,依據(jù)脊柱線與圖像橫軸的夾角進行旋轉(zhuǎn)即可得到沿脊柱對稱分布的奶牛深度圖像。并通過計算奶牛脊柱線兩側相較于脊柱線的二階矩對旋轉(zhuǎn)后圖像進行對稱度檢驗。
1.3.3后軀圖像獲取
由于體況評分的考察區(qū)域(腰角骨、臀骨、脊柱、短肋骨、髖骨、尾骨)均位于奶牛后軀,因此對不含體況信息的前軀圖像進行刪除以減少圖像信息的冗余,且為提高奶牛后軀圖像的獲取質(zhì)量,對離散像素點及尾巴(影響評分)進行了剔除,結果如圖4所示,具體步驟如下:
(1)尾巴去除與濾波
定位圖像最左側像素點所在列,并從此列開始,當某列所有非0像素點的跨度Wj(j=1,2,…,n)大于閾值Tt(試驗中設為200)時,將此列的像素值修改為0使得圖像一分為二(圖4a),并依據(jù)圖像區(qū)域的連通域?qū)傩?,濾除尾巴區(qū)域及后腹部的離散像素點(圖4b、4c)。
(2)圖像修剪
采用深度閾值DT對濾波后的奶牛深度圖像(圖4d)進行高度方向的修剪,以分割出深度圖像中與體況評分相關的考察區(qū)域。即剔除圖像中各列像素點與該列像素點深度最大值Hspj(即脊柱點深度)的差大于深度閾值DT的像素點,并保留其余像素點。經(jīng)反復試驗與驗證發(fā)現(xiàn)DT=100 mm時圖像修剪效果最佳。
(3)腰角骨定位及后軀圖像獲取
由圖4e可知,修剪后奶牛圖像的前后軀以腰角骨連線為明顯界限,因此可通過定位腰角骨來實現(xiàn)后軀圖像的獲取。即以10列為一個滑動窗口,步長為1,從左到右依次計算掩模矩陣Mask中各滑動窗口所含列的元素值之和,取其中的最大值作為腰角骨所在的列,并通過定位該列中遠離奶牛對稱線的A、B兩點的X坐標值來標識左右腰角骨所在的行。保存A、B兩點連接線左側的像素點即可得到奶牛后軀圖像(圖4f)。為便于后續(xù)特征提取,將奶牛后軀圖像轉(zhuǎn)換為點云圖。
奶牛體況評分主要是對各考察區(qū)域皮下脂肪厚度的綜合評測,而胖瘦程度不同的奶牛在不同考察區(qū)域的脂肪填充度是不同的,因而與其周圍骨骼包絡線所形成的凹陷度(空間大小、距離)也不同,如圖5所示[6]。對于胖奶牛而言,由于脂肪堆積,各區(qū)域凹陷較小且后軀整體以脊柱為中心,向兩側呈平坦過渡狀;而瘦奶牛由于其脂肪含量少,骨骼(脊柱)較為突出,整體凹陷明顯,且后軀呈倒V形。
奶牛由瘦到胖的過程是脂肪在骨骼間區(qū)域的富積填充過程,因此基于包絡線原理及奶牛由瘦到胖后軀外形的漸變特性,提出基于奶牛后軀凸包化的三維凹陷度特征提取方法。步驟如下:
(1)統(tǒng)計濾波
如圖6所示,采用統(tǒng)計濾波方法對奶牛后軀兩腹側稀疏離群點云進行濾除,以獲取服從高斯分布的緊湊點云。其中高斯分布的平均值由任意一點與其200個臨近點的平均距離決定,并將標準差系數(shù)設為3。
(2)體素化
受奶牛個體差異及拍攝過程奶牛身體晃動等因素的影響,所獲取的后軀點云在數(shù)量級及各坐標值所含信息量上均不具備可比性。因此,基于組成圖像像素小方格的位置標號與定量特性,對已濾波的后軀點云進行體素柵格化(圖7),使其初步具備圖像特性。其中,初始體素的長寬高(l,w,h)由X、Y、Z3個方向點云數(shù)據(jù)坐標的最大值與最小值之差決定,體素分辨率設為(10,10,Zmax-Zmin),體素重心坐標為體素內(nèi)所有點的坐標均值。由于柵格化后,體素編號均為(i,j,1)且每個體素內(nèi)僅含1個點,若以體素編號代替各體素重心的X、Y坐標值,以其Z坐標值為像素值,則體素云將初具圖像特性,并通過后續(xù)的像素值替換與尺寸變換使其在X、Y、Z方向上均具有可比性。
(3)凸包特征提取
基于奶牛生長過程中體脂在各骨骼間區(qū)域富積程度對其后軀外形的影響特性,計算后軀區(qū)域體素化后點云的三維凸包,得到外圍體素到最近凸包面之間的距離并投影至XY平面上,最終得到凸包特征圖,以達到依據(jù)不同奶牛完整后軀的凹陷度差異鑒別其胖瘦程度的目的。完整后軀的凹陷度由凸包多面體內(nèi)部各點(包含邊界點)與其表面最近距離(特征距離)所組成的特征向量表示。無效體素的特征距離設為0。將各體素重心的X、Y、Z坐標值依次替換為其體素編號i、j和特征距離,并形成特征圖像。坐標值的替換使得其在Z軸方向具備了可比性與體況評價意義,但受初始體素的長寬差異影響,在體素分辨率相同時,不同后軀點云所形成的特征圖像尺寸也不盡相同。因而采用最鄰近插值法對其進行尺寸變換,使得不同點云的特征圖像具備可比性,試驗過程中特征圖像的尺寸均統(tǒng)一為60像素×60像素。凸包的計算使用了Matlab中的convhulln 函數(shù),其核心思想基于Quickhull算法[24],該算法無需設置參數(shù)數(shù)值,具有良好的魯棒性和效率。對于任一三維點集Q(點數(shù)大于4),均能通過Quickhull算法實現(xiàn)凸包化。由凸包概念可知,三維凸包是由集合Q內(nèi)一系列已知頂點組成,因此在形成凸包的過程中,并不受數(shù)據(jù)自身特性(是否為隨機數(shù)據(jù)、是否有噪聲)的影響。而數(shù)據(jù)自身特性僅會影響算法的計算耗時,相較于gift-wrapping、Clarkson和Shor算法,Quickhull算法的效率更高。而本文在凸包計算前進行濾波是為了濾除后軀點云中噪聲,避免因潛在的噪聲點導致凸包的某一面極其突出進而影響最終凸包的質(zhì)量。圖8給出了凸包計算結果及凸包特征圖。通過人工檢查,所有點云數(shù)據(jù)的凸包和特征圖均得到正確的計算結果。
1.5.1模型構建
為避免傳統(tǒng)圖像分類算法中存在的特征尺度單一、信息豐富度低、分類效果差、特征依賴性強等問題,選取優(yōu)勢明顯且應用廣泛的卷積神經(jīng)網(wǎng)絡對獲取的特征圖像進行分類,以簡化特征設計、提取及分類的繁瑣過程[25-27],減少人工構建特征的有效性、魯棒性對分類精度的影響,提高BCS評定過程的自動化水平與精度。為此,本文依據(jù)網(wǎng)絡模型參數(shù)量、準確率等指標從現(xiàn)有分類網(wǎng)絡中選取在標準圖像集ImageNet下分類性能最優(yōu)的EfficientNet網(wǎng)絡進行圖像分類。
EfficientNet網(wǎng)絡采用簡單高效的復合縮放方法,在預先設定的內(nèi)存和計算量的限制下,通過網(wǎng)格搜索找到一組固定縮放系數(shù)(α、β和γ)對基線網(wǎng)絡維度(深度d、寬度w、分辨率r)進行統(tǒng)一縮放,以實現(xiàn)網(wǎng)絡維度的平衡及模型整體性能的提升[28]。此外,該網(wǎng)絡通過使用多目標神經(jīng)結構搜索開發(fā)了基線網(wǎng)絡EfficientNet-B0,以進一步提升模型性能及其擴展的有效性。其結構如圖9a所示,在內(nèi)部結構上基線網(wǎng)絡主要由7個區(qū)塊(block)組成,凸包特征圖像在經(jīng)過3×3卷積層提取其局部特征后,進入多個block結構中進一步提取并豐富用于預測的特征細節(jié),最后經(jīng)過卷積-池化-全連接操作來替代分類器,實現(xiàn)由特征圖像所代表的BCS值的分類。其中3種block結構均由多個相同的移動翻轉(zhuǎn)瓶頸卷積(Mobile inverted bottleneck conv, MBConv)模塊前后連接組成,并在MBConv模塊中引入擠壓、激發(fā)模塊(Squeeze-and-excitation, SE)進行優(yōu)化,使得淺層網(wǎng)絡同樣能夠通過全局感受野來捕獲圖像特征對圖像進行描述。此外,為增強高維空間內(nèi)特征的非線性與網(wǎng)絡表達能力,避免模型訓練時的梯度消失問題,選用ReLU函數(shù)作為網(wǎng)絡的激活函數(shù),并采用Softmax回歸函數(shù)和交叉熵損失函數(shù)用于全連接層輸出的歸一化及損失值計算。其中,H、W、F分別表示輸入圖像的高度、寬度和通道數(shù)。
1.5.2復合參數(shù)優(yōu)化
表2 WOA算法參數(shù)的初始化設置
對于多分類而言,混淆矩陣作為分析給定分類器識別不同類組能力的有力工具,可提供比單一評價指標更多的信息,而被廣泛應用于分類方法的評估中。因此本文采用混淆矩陣來顯示模型對各BCS類別的分類詳情,并基于此提出以下度量指標:準確率(Accuracy,A)用于衡量分類器的有效性,即正確預測分類的樣本數(shù)占總體預測樣本的比例。精度(Precision,P)反映分類器的查準率,由于奶牛體況為多分類問題,因此采用各類別精度的平均值作為最終度量指標。召回率(Recall,R)反映分類器的查全率,以各類別召回率的平均值作為最終度量標準。F1值是精度與召回率的調(diào)和平均值,用以衡量存在罕見類別時分類器的性能。
此外,為消除人工評分誤差對模型性能的影響,統(tǒng)計BCS誤差小于等于0.25與小于等于0.50時的上述指標值,以實現(xiàn)準確評估模型性能并便于與其他研究做對比分析。
為提高模型泛化能力,避免過擬合,采用驗證集對訓練過程中的模型參數(shù)進行調(diào)整,并使用測試集對模型進行評估。EfficientNet網(wǎng)絡評分結果的混淆矩陣如圖11所示,紅、橙、黃3種顏色分別表示精準預測、BCS誤差在0.25內(nèi)和BCS誤差在0.50內(nèi)的預測結果。盡管與理想混淆矩陣的主對角線分布有所差異,但可以看出,除3.25這一類別外,各BCS類別均實現(xiàn)了70%以上樣本的主對角線分布(與RODRIGUEZ等[21]研究相比提升了50%)及95%以上樣本沿主對角線及其兩側分布,這表明本文所提出的基于凸包特征的模式識別方法能夠有效區(qū)分與BCS變化相關的奶牛變異性。極端BCS值下的優(yōu)越性為提高規(guī)?;B(yǎng)殖中大多數(shù)奶牛及個別病牛的體況檢測精度提供了可能。3.25類別呈現(xiàn)的主對角線低樣本分布問題可能與其處于胖瘦分界線、受該類訓練樣本大小影響、模型難以提取與之相關的信息并形成區(qū)別于相鄰類別的有效判據(jù)有關。
表3為不同誤差范圍內(nèi)不同BCS對應的模型精度、召回率及F1值。對于精度而言,BCS誤差為0和誤差小于等于0.25時中間BCS對應的模型精度比極端BCS低,這一結果也驗證了HUANG等[11]的結論,BCS在3.25時分別取得最低精度61%和91%,擴大誤差范圍至0.50時,BCS僅在2.75、3.00、3.25時實現(xiàn)了精度提升,分別提升1、1、7個百分點。對于召回率而言,除3.25外,其余BCS均實現(xiàn)了71%及以上的召回率(0誤差),其中極端BCS(2.25、4.00)的高查全率(召回率大于等于86%)能夠及時發(fā)現(xiàn)奶牛健康管理問題,以便采取應急措施,減少經(jīng)濟損失。BCS在0.25和0.50誤差均實現(xiàn)了不小于94%和98%的召回率,并以3.75和4.00為最優(yōu),達到了100%。F1值在0誤差內(nèi)波動較大且整體得分先減后增,并在BCS為4.00時取得最大值100%,當考慮不同誤差范圍(±0.25、±0.50)時,BCS波動均較小,且F1值的最小值分別為92%和97%。BCS誤差在0.25以內(nèi)時模型平均精度、召回率及F1值均為98%,與現(xiàn)有研究相比取得了一定進展。表4顯示了不同誤差范圍內(nèi)現(xiàn)有評分方法的識別準確率,與其他基于模式識別的智能體況評分方法相比[10,19,21,30-31],本文方法的精準識別率提高了62.5%,誤差在0.25內(nèi)的識別準確率提高了20%。作為評價模型精度的關鍵指標,誤差0.25內(nèi)的模型精度大幅提升,為集約化牧場提高體況評估效率與精度、實時監(jiān)測牛群營養(yǎng)健康水平及生產(chǎn)繁殖性能、實現(xiàn)精細養(yǎng)殖管理提供了有力工具。誤差由小于等于0.25擴大至小于等于0.50時模型精度提升了0.71個百分點,表明凸包特征與EfficientNet網(wǎng)絡的組合能夠精準復現(xiàn)具有特定BCS(2.25~4.00)的奶牛體況且誤差小于0.25,優(yōu)勢明顯且滿足實際需求。
表3 不同誤差范圍內(nèi)不同BCS的精度、召回率及F1值
表4 基于監(jiān)督學習的體況評分方法識別準確率
為驗證不同模式識別網(wǎng)絡對最終評分結果的影響,在凸包特征圖像數(shù)據(jù)集的基礎上對比分析了4種網(wǎng)絡模型(LeNet-5、XceptionNet、MobileNet-V2、EfficientNet)的分類性能,其混淆矩陣如圖12所示。整體而言,4種模型的混淆矩陣差異較小,樣本整體預測值與真實值誤差分布集中在0.25以內(nèi),但對于個別BCS,4種模型表現(xiàn)出不同的特性。4種模型均在BCS為3.25時識別準確率最??;BCS在3.50和2.50時,4種模型的識別準確率從高到低依次為LeNet-5、EfficientNet、XceptionNet、MobileNet-V2;在BCS為2.25和2.75時該排序相反,即LeNet-5模型表現(xiàn)最差,并遠低于最優(yōu)的EfficientNet;而在BCS模型為3.00和3.75時,EfficientNet和XceptionNet模型均優(yōu)于LeNet-5和MobileNet-V2。除此之外,除MobileNet-V2外,其他3類模型均在BCS為4.00時識別準確率達到100%。模型自身的結構差異導致對特征圖像具有不同的學習能力,是造成各BCS間識別準確率存在差異性的主要原因。
為進一步分析4種網(wǎng)絡的模型性能,依據(jù)測試集樣本分類的混淆矩陣,采用1.6節(jié)定義的指標對4種網(wǎng)絡進行綜合評估,評估結果如圖13所示。由圖13a可知,誤差為0時,EfficientNet與XceptionNet對特征圖像的識別速率分別為0.007 25 s/f和0.007 59 s/f,但EfficientNet網(wǎng)絡的整體檢測性能明顯優(yōu)于XceptionNet,且與XceptionNet相比,其整體識別準確率與召回率分別提高2.29、2.31個百分點。與EfficientNet相比,盡管MobileNet-V2與LeNet-5識別速率(分別為2.74倍和5.99倍)大幅提升,但兩者均犧牲了識別準確率(分別下降8.93、5.28個百分點),且在精度、召回率及F1值指標上,LeNet-5網(wǎng)絡比MobileNet-V2網(wǎng)絡分別提高6.84、4.81、5.44個百分點。除此之外,BCS評分的高效便捷不僅是實際生產(chǎn)中的核心需求,也是制約現(xiàn)有研究商業(yè)化的關鍵因素,尤其是系統(tǒng)對單幀圖像的評分速率。而本文中圖像預處理、凸包特征提取、特征圖像生成等步驟所需時間分別為0.116、3.00、0.325 s,由于室內(nèi)通道單次僅容一頭奶牛通過,兩頭奶牛觸發(fā)拍攝的時間間隔與由原始圖像生成特征圖像所用時間相同,在特征提取階段,是FISCHER等[16]關鍵點標識所用時間(3 min)的1/60,且系統(tǒng)平均識別速率為3.441 s/f,接近劉燕[32]使用首個商用全自動體況評分系統(tǒng)時的檢測水平(3 s/f)。由于4種模型均使用相同特征圖像集,因此結合上述分析可知,BCS誤差為0時模型的優(yōu)劣順序為EfficientNet、XceptionNet、LeNet-5、MobileNet-V2。
圖13b、13c分別為誤差小于等于0.25及小于等于0.50時4種模型評分性能的對比結果。由圖中準確率可知,不同步長時4種模型的最低識別準確率分別為96.2%和98.7%,并均在EfficientNet模型上取得最高值即98.6%和99.31%??疾炷P途取⒄倩芈始癋1值時,除MobileNet-V2模型外,3種指標受模型類別的影響均較小,且這種趨勢并不受誤差的影響,即BCS誤差在0.25和0.50以內(nèi)時3種指標波動范圍分別為0.01~0.93個百分點、0.28~0.93個百分點和0.18~0.61個百分點。除此之外,誤差對模型的影響也較小,即BCS誤差由小于等于0.25增至小于等于0.50時,任一模型的任一指標的提升均不超過1.68個百分點,MobileNet-V2模型提升了4個百分點左右。上述兩種趨勢的出現(xiàn)可能與凸包特征的高效性及EfficientNet、XceptionNet、LeNet-5這3種模型在BCS誤差為0時的高準確率及分類誤差小而緊湊有關。綜合上述分析可知,盡管模型類別會影響最終的評分精度,但凸包特征是保證奶牛體況評分精度的關鍵,且4種模型中EfficientNet模型具有更高的體況識別準確率,可實現(xiàn)奶牛體況的精準高效識別。
提出一種從深度圖像中提取凸包特征并用于體況評分的方法。該方法從奶牛行走過程中的頂視深度圖提取其后軀,并作為體況評定區(qū)域,對后軀點云進行體素化與凸包化,得到特征圖像,采用EfficientNet模型對其進行分類,以確定其BCS。所提出的凸包特征與體況得分之間具有較高的相關性,對個體差異具有良好的魯棒性,BCS識別誤差在0.25以內(nèi)時EfficientNet模型精確識別圖像占比達到98.6%,識別效果優(yōu)于MobileNet-V2、XceptionNet和LeNet-5網(wǎng)絡模型,平均識別速率為3.441 s/f,顯著提高了養(yǎng)殖場奶牛體況評分的精度與效率。