黃鋁文 謙 博 關(guān)非凡 侯紫霞 張 其
(1.西北農(nóng)林科技大學(xué)信息工程學(xué)院, 陜西楊凌 712100; 2.農(nóng)業(yè)農(nóng)村部農(nóng)業(yè)物聯(lián)網(wǎng)重點(diǎn)實(shí)驗(yàn)室, 陜西楊凌 712100)
當(dāng)前,我國(guó)奶山羊產(chǎn)業(yè)處于經(jīng)濟(jì)效益黃金期,奶山羊養(yǎng)殖因投資小、風(fēng)險(xiǎn)低、見(jiàn)效快,已成為發(fā)展相對(duì)落后地區(qū)農(nóng)民經(jīng)濟(jì)收入的重要來(lái)源[1]。規(guī)?;B(yǎng)殖是奶山羊產(chǎn)業(yè)的主要發(fā)展方向[2],監(jiān)控個(gè)體的健康狀況、飼喂情況是其重點(diǎn)環(huán)節(jié),而這一切的基礎(chǔ)是對(duì)奶山羊進(jìn)行個(gè)體識(shí)別。與此同時(shí),我國(guó)政策性農(nóng)業(yè)保險(xiǎn)正處于起步階段,現(xiàn)有的保險(xiǎn)對(duì)象個(gè)體識(shí)別技術(shù)相對(duì)陳舊,承保環(huán)節(jié)中已投保家畜被未投保家畜冒名頂替而導(dǎo)致騙保現(xiàn)象時(shí)有發(fā)生[3]。綜上,為保證產(chǎn)業(yè)健康發(fā)展,急需可靠的奶山羊個(gè)體識(shí)別方案。在傳統(tǒng)養(yǎng)殖過(guò)程中,養(yǎng)殖場(chǎng)大多通過(guò)給奶山羊佩戴耳標(biāo)的方式實(shí)現(xiàn)個(gè)體識(shí)別。然而,有研究表明,佩戴耳標(biāo)不僅會(huì)給羊只帶來(lái)生理上的痛苦,引發(fā)應(yīng)激反應(yīng),還容易使其滋生一些耳部疾病[4];另外,從成本角度考慮,羊耳標(biāo)伴隨羊的死亡而丟棄,不能重復(fù)利用,亦造成了養(yǎng)殖成本的提升。
近年來(lái),隨著養(yǎng)殖場(chǎng)攝像設(shè)備的普及[5],已有學(xué)者基于計(jì)算機(jī)視覺(jué)技術(shù)開展了包括奶山羊在內(nèi)的常見(jiàn)家畜個(gè)體識(shí)別研究[6-17]。由這些研究可知,自動(dòng)化的家畜個(gè)體識(shí)別已成為當(dāng)前主要發(fā)展趨勢(shì)。然而,上述工作所提出模型大多僅提取圖像包含的空間域特征,在特征工程環(huán)節(jié)未充分考慮牛、羊、豬等家畜面部圖像本身所具有的特點(diǎn),在一定程度上影響了模型的識(shí)別效果。有研究表明[18],進(jìn)行個(gè)體識(shí)別時(shí),面部圖像具備豐富的頻域特征,但純粹深度學(xué)習(xí)方法通常僅考慮圖像的空間域特征,并未對(duì)頻域特征進(jìn)行分析。因此,若能充分挖掘家畜面部識(shí)別問(wèn)題中數(shù)據(jù)本身所具有的特點(diǎn),將頻域特征與空間域特征進(jìn)行融合,綜合研判以實(shí)現(xiàn)分類任務(wù),將有望使得模型識(shí)別準(zhǔn)確率獲得一定提升,并增強(qiáng)其可解釋性。
為實(shí)現(xiàn)自動(dòng)化的羊只個(gè)體識(shí)別,本文首先采集30只高相似度西農(nóng)薩能奶山羊羊臉面部視頻片段,經(jīng)視頻分幀、數(shù)據(jù)篩選、裁剪、增強(qiáng),形成羊臉圖像數(shù)據(jù)集。接著構(gòu)建羊臉圖像與羊只身份(ID)的映射關(guān)系,并按比例劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集??紤]到小波變換是多分辨率分析的有效手段,能夠有針對(duì)性地提取圖像多個(gè)尺度下的頻域特征[19],且所提取特征可解釋性強(qiáng),已在人臉識(shí)別領(lǐng)域得到廣泛應(yīng)用[20],本文基于二維離散小波變換(2D-DWT)與卷積運(yùn)算設(shè)計(jì)羊臉特征提取模塊,采用通道拼接的方式實(shí)現(xiàn)特征融合;之后,以前述羊臉特征提取模塊為基礎(chǔ),添加分類模塊,進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)搭建;最后,通過(guò)重復(fù)多次的模型訓(xùn)練過(guò)程,尋找最佳超參數(shù)組合,形成羊臉識(shí)別模型DWT-GoatNet,以期為非接觸式羊臉識(shí)別提供參考方法。
試驗(yàn)選擇西北農(nóng)林科技大學(xué)楊凌奶山羊試驗(yàn)示范基地所養(yǎng)殖的西農(nóng)薩能奶山羊[21]作為研究對(duì)象,在不同光照、不同角度、不同遮擋程度等條件下對(duì)羊臉進(jìn)行攝像。共采集到日間光照環(huán)境下羊臉視頻20段,夜間燈光環(huán)境下羊臉視頻10段,每段視頻對(duì)應(yīng)一只羊,總計(jì)30只。在視頻采集過(guò)程中,未對(duì)羊的面部污垢進(jìn)行清潔處理,從而保證所構(gòu)建模型能夠滿足飼養(yǎng)場(chǎng)景需要。所采集的奶山羊羊臉相似度極高,肉眼相對(duì)難以辨認(rèn),分別使用Goat1~Goat30進(jìn)行編號(hào),經(jīng)預(yù)處理后如圖1、2所示。
圖1 日間采集的20只奶山羊羊臉圖像示例
圖2 夜間采集的10只奶山羊羊臉圖像示例
1.2.1數(shù)據(jù)篩選
首先使用FFmpeg開源工具,對(duì)采集到的視頻數(shù)據(jù)選取合適的幀速率進(jìn)行分幀處理,得到原始羊臉圖像。因?yàn)榈玫降膱D像中存在模糊或只包含局部羊臉的樣本,故需進(jìn)行數(shù)據(jù)篩選,對(duì)不符合要求的樣本進(jìn)行剔除[22]。同時(shí),為減少無(wú)關(guān)背景給后續(xù)工作所帶來(lái)的干擾,本文緊接著對(duì)圖像中羊臉尋找最小外接正方形,進(jìn)行圖像裁剪[23]。由于在數(shù)據(jù)采集過(guò)程中,相鄰圖像采集間隔較短,部分羊臉圖像相似度過(guò)高甚至接近重復(fù),容易引發(fā)模型過(guò)擬合現(xiàn)象,故本文采用結(jié)構(gòu)相似性(Structural similarity, SSIM)系數(shù)[24]度量所拍攝羊臉圖像的相似程度,過(guò)濾相似度過(guò)高的樣本,從而得到一個(gè)高質(zhì)量的數(shù)據(jù)集。兩個(gè)尺寸一致的圖像x、y的結(jié)構(gòu)相似性系數(shù)計(jì)算公式為
(1)
式中μx——圖像x的像素均值
μy——圖像y的像素均值
σx,y——圖像x、y的像素協(xié)方差
c1、c2——防止分母為0的常數(shù),取0.01
SSIM的取值范圍是[0,1],當(dāng)SSIM取0時(shí),表示兩幅圖像完全不同;當(dāng)SSIM取1時(shí),表示兩幅圖像完全相同。本文將SSIM的閾值設(shè)置為0.7,即只有當(dāng)SSIM小于0.7時(shí),才認(rèn)為兩幅圖像是不同的,對(duì)SSIM大于等于0.7的樣本直接剔除。經(jīng)過(guò)篩選,得到日間光照環(huán)境下羊臉圖像1 210幅,夜間燈光環(huán)境下羊臉圖像990幅,形成初始數(shù)據(jù)集。
1.2.2數(shù)據(jù)增強(qiáng)
在養(yǎng)殖場(chǎng)條件下,奶山羊活動(dòng)較為頻繁,若直接進(jìn)行羊臉識(shí)別,往往面臨著羊臉在圖像中位置、方向、大小發(fā)生變化,所在環(huán)境明暗度發(fā)生變化,以及一定程度模糊等情況,若建立數(shù)據(jù)集時(shí)不對(duì)此類情況進(jìn)行充分考慮,容易對(duì)識(shí)別結(jié)果造成一定影響[25]。為針對(duì)性地解決此類問(wèn)題,提高模型的泛化能力,本文使用模糊、提高亮度、降低亮度、平移、旋轉(zhuǎn)(旋轉(zhuǎn)角度為30°)、加入椒鹽噪聲、縮放等7種數(shù)據(jù)增強(qiáng)方法,將數(shù)據(jù)集擴(kuò)充為原始容量的8倍,對(duì)同一幅圖像的數(shù)據(jù)增強(qiáng)效果如圖3所示。
圖3 數(shù)據(jù)增強(qiáng)效果
試驗(yàn)中,將每只奶山羊看作一種模式,對(duì)應(yīng)一個(gè)分類,30只奶山羊分別記為Goat1~Goat30,對(duì)應(yīng)30個(gè)分類。經(jīng)數(shù)據(jù)增強(qiáng)后,數(shù)據(jù)集中圖像總數(shù)由2 200幅擴(kuò)充至17 600幅,各分類所對(duì)應(yīng)的圖像數(shù)量變化情況如表1所示。數(shù)據(jù)增強(qiáng)增加了羊臉圖像的多樣性,使得網(wǎng)絡(luò)能夠在不同條件下習(xí)得羊臉圖像特征,進(jìn)而提高模型的泛化能力[26]。
表1 增強(qiáng)前后各分類圖像數(shù)量
將30個(gè)分類的17 600幅羊臉圖像,依分層抽樣原則,按照隨機(jī)提取下標(biāo)的方式,以6∶2∶2的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,各分類數(shù)據(jù)集劃分情況如表2所示。其中,訓(xùn)練集、驗(yàn)證集用于模型訓(xùn)練和參數(shù)調(diào)整,測(cè)試集用于模型性能評(píng)價(jià)。
表2 各分類數(shù)據(jù)集劃分情況
小波變換是多分辨率分析的有效手段,常用于信號(hào)的時(shí)頻分析。設(shè)x(t)是能量有限信號(hào),則其小波變換為
(2)
式中a——尺度參數(shù),反映頻域特性,取a>0
τ——時(shí)移參數(shù),反映時(shí)移特性
WTx(a,τ)——小波變換得到的頻域信號(hào)
原始信號(hào)x(t)經(jīng)過(guò)與不同伸縮尺度a和不同時(shí)移τ的母小波函數(shù)卷積變換后得到頻域信號(hào)WTx(a,τ),實(shí)現(xiàn)原始信號(hào)向頻域信號(hào)的轉(zhuǎn)換。
二維離散小波變換(2D-DWT)能夠有針對(duì)性地提取圖像多個(gè)尺度下的頻域特征,且所提取特征可解釋性強(qiáng),已在人臉識(shí)別領(lǐng)域得到一定應(yīng)用。在羊臉識(shí)別問(wèn)題中,原始信號(hào)對(duì)應(yīng)羊臉的二維灰度圖像,處理時(shí)按照一維離散小波變換的原理,先進(jìn)行一次逐行分解,再進(jìn)行一次逐列分解。一次分解完成后,可以得到LL、HL、LH、HH共計(jì)4個(gè)小波子帶,寬、高均為原始圖像的一半。其中,LL為水平低頻垂直低頻子帶,表示原始圖像的低頻信息,是原始圖像的近似表示;HL為水平高頻垂直低頻子帶,體現(xiàn)原始圖像的水平方向特征;LH為水平低頻垂直高頻子帶,體現(xiàn)原始圖像的垂直方向特征;HH為水平高頻垂直高頻子帶,體現(xiàn)原始圖像的對(duì)角邊緣特征。本試驗(yàn)采用Haar小波基函數(shù)依次完成羊臉圖像連續(xù)4個(gè)層級(jí)的小波變換,所得結(jié)果如圖4所示。
圖4 4個(gè)層級(jí)的小波變換結(jié)果
2.2 基于2D-DWT與卷積運(yùn)算的羊臉特征提取模塊
解決傳統(tǒng)分類問(wèn)題時(shí),類間差異普遍較大,使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像空間域特征容易完成分類。而針對(duì)羊臉識(shí)別問(wèn)題,不同分類的羊只不僅屬于同一物種,還屬于同一品種,外貌特征相似,面部差異很小,給分類帶來(lái)了較大難度,這就要求引入更為豐富的特征。
卷積神經(jīng)網(wǎng)絡(luò)直接在空間域中處理圖像,本質(zhì)上是空間域方法,僅提取空間域特征;而在頻域上,一個(gè)濾波器可以在增強(qiáng)某些頻率的同時(shí)抑制其它頻率以實(shí)現(xiàn)選擇性,提取出所需要的頻域特征。空間域方法與頻域方法具有截然不同的特性,若將頻域方法引入卷積神經(jīng)網(wǎng)絡(luò),將使所搭建網(wǎng)絡(luò)在保持空間域分析的基礎(chǔ)上,兼具頻域分析的功能?;诖藰?gòu)想,本文設(shè)計(jì)了如圖5所示的基于2D-DWT與卷積運(yùn)算的羊臉特征提取模塊,進(jìn)行羊臉圖像空間域特征與頻域特征的提取與融合。
圖5 羊臉特征提取模塊
由于使用一次核尺寸為3×3、步長(zhǎng)為2的卷積運(yùn)算可使特征圖寬、高減半,而一次2D-DWT運(yùn)算亦可將低頻圖像分解為4幅寬、高減半的子圖,在特征圖寬、高一致的前提條件下,可實(shí)現(xiàn)通道拼接操作?;谝陨蠑?shù)量關(guān)系,本文完成了羊臉特征提取模塊的構(gòu)建。其中,卷積運(yùn)算的操作對(duì)象是空間域特征圖,經(jīng)過(guò)圖示運(yùn)算,可使原特征圖寬、高減半,通道加倍;2D-DWT運(yùn)算的操作對(duì)象是上一次2D-DWT分解得到的低頻圖像,首先將其分解為4幅子圖,對(duì)這4幅子圖執(zhí)行通道拼接操作,形成通道數(shù)為4的頻域特征圖,緊接著進(jìn)行核尺寸為3×3、步長(zhǎng)為1的卷積運(yùn)算,使其通道加倍。之后,對(duì)2個(gè)分支得到的寬、高一致的特征圖整體執(zhí)行通道拼接操作,實(shí)現(xiàn)特征融合。
本文以前述羊臉特征提取模塊為基礎(chǔ),添加分類模塊,進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)DWT-GoatNet的搭建,網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。
圖6 DWT-GoatNet網(wǎng)絡(luò)結(jié)構(gòu)
通過(guò)大量試驗(yàn)發(fā)現(xiàn),使用核尺寸為3×3的卷積核具有較好的羊臉空間域特征提取效果。在主干網(wǎng)絡(luò)中,輸入的羊臉圖像尺寸為224×224×3;淺藍(lán)色模塊代表核尺寸為3×3、步長(zhǎng)為1的卷積運(yùn)算,以下簡(jiǎn)稱為等長(zhǎng)卷積;深藍(lán)色模塊代表核尺寸為3×3、步長(zhǎng)為2的卷積運(yùn)算,以下簡(jiǎn)稱為尺寸減半卷積。
在網(wǎng)絡(luò)頭部輸入羊臉圖像后,首先執(zhí)行RGB圖像向灰度圖像的轉(zhuǎn)換;然后執(zhí)行1-level的2D-DWT運(yùn)算,得到LL1、HL1、LH1、HH1共計(jì)4個(gè)小波子帶,此時(shí)特征圖的傳播方向出現(xiàn)2個(gè)分支:
(1)在卷積運(yùn)算分支中,對(duì)1-level的2D-DWT運(yùn)算結(jié)果執(zhí)行通道拼接操作,因?yàn)?個(gè)小波子帶LL1、HL1、LH1、HH1尺寸一致,均為112×112×1,所以拼接后尺寸變?yōu)?12×112×4,隨后繼續(xù)向后傳播。經(jīng)過(guò)一個(gè)等長(zhǎng)卷積后,特征圖尺寸變?yōu)?12×112×64;再經(jīng)過(guò)一個(gè)尺寸減半卷積后,特征圖尺寸變?yōu)?6×56×64。此后,經(jīng)過(guò)卷積運(yùn)算的特征圖等待與2D-DWT分支傳播過(guò)來(lái)的特征圖進(jìn)行特征融合。
(2)在2D-DWT分支中,對(duì)1-level的2D-DWT運(yùn)算得到的LL1分量再次執(zhí)行2-level的 2D-DWT運(yùn)算,得到LL2、HL2、LH2、HH2共計(jì)4個(gè)小波子帶,尺寸均為56×56×1,對(duì)其按序執(zhí)行通道拼接操作,尺寸變?yōu)?6×56×4,隨后繼續(xù)向后傳播。經(jīng)過(guò)一個(gè)等長(zhǎng)卷積后,特征圖尺寸變?yōu)?6×56×64,與卷積運(yùn)算分支輸出結(jié)果尺寸一致。然后進(jìn)行兩個(gè)分支的特征融合,即特征圖的通道拼接操作,使得特征圖尺寸變?yōu)?6×56×128,并送入下一個(gè)特征提取模塊。
后續(xù)特征圖在網(wǎng)絡(luò)中的流動(dòng)方式與此類似,只是在持續(xù)的尺寸減半卷積與小波變換過(guò)程中,特征圖寬、高不斷減半,深度不斷翻倍,空間域特征與頻域特征持續(xù)融合。網(wǎng)絡(luò)中不使用池化層,取而代之以尺寸減半卷積,在保證特征細(xì)節(jié)盡少丟失的前提下實(shí)現(xiàn)下采樣功能。最后,在網(wǎng)絡(luò)結(jié)構(gòu)尾部,使用 1個(gè)平均池化層與2個(gè)全連接層,以及Softmax層實(shí)現(xiàn)羊臉?lè)诸惞δ?。網(wǎng)絡(luò)中所使用的每個(gè)卷積運(yùn)算均采用ReLU(Rectified linear unit)激活函數(shù)。
2.4.1訓(xùn)練參數(shù)設(shè)置
試驗(yàn)在搭建Ubuntu 18.04操作系統(tǒng)的高性能計(jì)算機(jī)上進(jìn)行,GPU選用單個(gè)NVIDIA GeForce RTX 3080Ti,顯存為12 GB,對(duì)應(yīng)CUDA運(yùn)算庫(kù)版本為11.4.0,基于Keras深度學(xué)習(xí)框架完成模型構(gòu)建。
在參數(shù)設(shè)置方面,訓(xùn)練圖像尺寸為224像素×224像素,批量大小(Batch size)為4,將模型迭代輪數(shù)設(shè)定為500。為獲得最優(yōu)的訓(xùn)練模型,采用Adam(Adaptive moment estimation)算法對(duì)模型進(jìn)行優(yōu)化,損失值的計(jì)算則采用交叉熵?fù)p失函數(shù)(Cross entropy loss),使用動(dòng)態(tài)衰減策略對(duì)學(xué)習(xí)率進(jìn)行更新[10]。試驗(yàn)中每迭代5輪保存一次權(quán)重參數(shù),并選取最優(yōu)權(quán)重文件形成羊臉識(shí)別模型。
2.4.2評(píng)價(jià)指標(biāo)
采用準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1值作為模型的評(píng)價(jià)指標(biāo)。其中,準(zhǔn)確率是最常見(jiàn)的評(píng)價(jià)指標(biāo),指被正確預(yù)測(cè)的樣本占所有樣本的比重;精確率又稱查準(zhǔn)率,反映預(yù)測(cè)為正例的樣本中確實(shí)為正例的樣本所占比重;召回率又稱查全率,反映實(shí)際為正例的樣本中被正確預(yù)測(cè)出來(lái)的樣本所占比重;F1值是精確率、召回率的調(diào)和平均數(shù),將這兩個(gè)分值合并為一個(gè)分值,當(dāng)基于二者進(jìn)行模型評(píng)價(jià)出現(xiàn)沖突時(shí),使用此指標(biāo)作為綜合評(píng)價(jià)依據(jù)。
本文選取訓(xùn)練得到的最優(yōu)權(quán)重文件形成羊臉識(shí)別模型。同時(shí),使用同樣的數(shù)據(jù)集基于AlexNet[27]、VGGNet-16[28]、GoogLeNet[29]、ResNet-50[30]、DenseNet-121[31]等經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練最優(yōu)羊臉識(shí)別模型,并在同一測(cè)試集上就各項(xiàng)指標(biāo)進(jìn)行對(duì)比,在日間光照環(huán)境下、夜間燈光環(huán)境下測(cè)試集上識(shí)別結(jié)果如表3、4所示。
表3 日間光照環(huán)境下測(cè)試集上識(shí)別結(jié)果
由表3可知,在日間光照環(huán)境下,經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)中VGGNet-16在測(cè)試集上識(shí)別效果最佳,其準(zhǔn)確率、精確率、召回率、F1值分別為98.13%、98.27%、97.89%、98.03%,而本文所提出的 DWT-GoatNet在上述4項(xiàng)指標(biāo)上相較于VGGNet-16提高1.61、1.55、1.84、1.75個(gè)百分點(diǎn)。在具有概括性的準(zhǔn)確率這一指標(biāo)上,DWT-GoatNet相較于AlexNet、GoogLeNet、ResNet-50、DenseNet-121分別提高2.60、2.65、2.24、3.48個(gè)百分點(diǎn)。
由表4可知,在夜間燈光環(huán)境下,經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)中ResNet-50在測(cè)試集上識(shí)別效果最佳,其準(zhǔn)確率、精確率、召回率、F1值分別為97.97%、98.06%、97.92%、97.93%,而本文所提出DWT-GoatNet在上述4項(xiàng)指標(biāo)上相較于ResNet-50提高1.92、1.80、1.93、1.93個(gè)百分點(diǎn)。在具有概括性的準(zhǔn)確率這一指標(biāo)上,DWT-GoatNet相較于AlexNet、VGGNet-16、GoogLeNet、DenseNet-121分別提高3.00、3.89、2.43、3.25個(gè)百分點(diǎn)。
表4 夜間燈光環(huán)境下測(cè)試集上識(shí)別結(jié)果
DWT-GoatNet及其它5種模型在日間光照環(huán)境下(對(duì)應(yīng)羊只為Goat1~Goat20)、夜間燈光環(huán)境下(對(duì)應(yīng)羊只為Goat21~Goat30)測(cè)試集上羊臉識(shí)別結(jié)果的混淆矩陣如圖7、8所示。在日間光照環(huán)境下,DenseNet-121在Goat18上發(fā)生了較多誤識(shí)別情況,經(jīng)對(duì)誤識(shí)別樣本查證發(fā)現(xiàn),Goat18存在較多背光拍攝的圖像,一定程度上弱化了面部細(xì)節(jié)特征,說(shuō)明DenseNet-121在養(yǎng)殖場(chǎng)光照變化情況下進(jìn)行羊臉識(shí)別存在一定不穩(wěn)定性。在夜間燈光環(huán)境下,AlexNet、VGGNet-16在Goat25上發(fā)生了較多誤識(shí)別情況,經(jīng)對(duì)誤識(shí)別樣本查證發(fā)現(xiàn),Goat25存在較多側(cè)臉圖像,而上述模型未考慮圖像頻域信息,故當(dāng)五官特征顯著性下降時(shí),無(wú)法提取面部頻域信息作為補(bǔ)充,導(dǎo)致了誤識(shí)別現(xiàn)象的發(fā)生。
圖7 日間光照環(huán)境下測(cè)試集上混淆矩陣
圖8 夜間燈光環(huán)境下測(cè)試集上混淆矩陣
對(duì)識(shí)別結(jié)果進(jìn)一步分析可知,DWT-GoatNet在兩種不同光照環(huán)境下性能表現(xiàn)較為穩(wěn)定,體現(xiàn)出模型所采用的羊臉特征提取模塊能夠有效應(yīng)對(duì)環(huán)境光照變化帶來(lái)的影響;同時(shí),相較于其它5種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型,DWT-GoatNet在測(cè)試集上識(shí)別準(zhǔn)確率始終保持在99%以上,誤識(shí)別樣本數(shù)量極少,說(shuō)明模型所采用的羊臉特征提取模塊能夠很好地融合羊臉頻域、空間域特征,有效抑制無(wú)關(guān)背景信息帶來(lái)的干擾,且模型整體具備良好的抗過(guò)擬合能力與泛化能力,具有魯棒性、有效性,滿足實(shí)際場(chǎng)景需要。
(1)針對(duì)養(yǎng)殖場(chǎng)條件下羊只的個(gè)體識(shí)別問(wèn)題,本文基于2D-DWT與卷積運(yùn)算,提出一種羊臉特征提取模塊,并據(jù)此形成羊臉識(shí)別模型DWT-GoatNet,在日間光照環(huán)境下羊臉測(cè)試集上準(zhǔn)確率、精確率、召回率、F1值分別可達(dá)99.74%、99.82%、99.73%、99.78%,在夜間燈光環(huán)境下羊臉測(cè)試集上準(zhǔn)確率、精確率、召回率、F1值分別可達(dá)99.89%、99.86%、99.85%、99.86%,在兩種不同光照環(huán)境下試驗(yàn)結(jié)果均高于AlexNet、VGGNet-16、GoogLeNet、ResNet-50、DenseNet-121等經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型。
(2)本文所提出的羊臉特征提取模塊,充分考慮了羊臉識(shí)別問(wèn)題中數(shù)據(jù)本身所具有的特點(diǎn),使用2D-DWT進(jìn)行羊臉圖像中頻域特征提取,引入頻域信息,并使用卷積運(yùn)算完成空間域特征提取,通過(guò)特征圖通道拼接完成頻域特征與空間域特征的融合。本文模型能夠適應(yīng)羊臉在圖像中位置、方向、大小變化和所在環(huán)境光照發(fā)生變化,以及一定程度模糊等情況,并抑制無(wú)關(guān)背景信息,完成羊臉識(shí)別任務(wù)。模型結(jié)構(gòu)簡(jiǎn)單、收斂迅速,且易于部署,為精準(zhǔn)養(yǎng)殖過(guò)程中家畜的個(gè)體識(shí)別,以及農(nóng)業(yè)保險(xiǎn)承保環(huán)節(jié)中保險(xiǎn)對(duì)象的識(shí)別提供了有效解決方案。