国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于MFO-LSTM的母豬發(fā)情行為識別

2020-09-21 14:07:28劉春紅段青玲
農(nóng)業(yè)工程學報 2020年14期
關鍵詞:錯誤率發(fā)情姿態(tài)

王 凱,劉春紅,2,段青玲,2,3

基于MFO-LSTM的母豬發(fā)情行為識別

王 凱1,劉春紅1,2,段青玲1,2,3※

(1. 中國農(nóng)業(yè)大學信息與電氣工程學院,北京 100083;2. 北京市農(nóng)業(yè)物聯(lián)網(wǎng)工程技術研究中心,北京 100083;3. 農(nóng)業(yè)農(nóng)村部精準農(nóng)業(yè)技術集成科學試驗基地(畜牧業(yè)),北京 100083)

及時準確識別母豬的發(fā)情行為可以有效增加受胎率和產(chǎn)仔量,對提高養(yǎng)殖企業(yè)的繁育水平和經(jīng)濟效益具有重要意義。該研究針對生豬養(yǎng)殖過程中母豬發(fā)情行為識別存在主觀性強、智能化水平低、假警報和錯誤率高、識別不及時等問題,提出了一種基于飛蛾撲火算法(Moth-Flame Optimization,MFO)優(yōu)化長短時記憶網(wǎng)絡(Long Short Term Memory,LSTM)的母豬發(fā)情行為識別方法。利用安裝在母豬頸部的姿態(tài)傳感器獲得母豬姿態(tài)數(shù)據(jù),然后使用姿態(tài)數(shù)據(jù)訓練MFO-LSTM姿態(tài)分類模型,將母豬姿態(tài)分為立姿、臥姿和爬跨3類。通過對姿態(tài)分類結果進行分析,確定以爬跨行為和活動量2個特征作為發(fā)情行為識別依據(jù),使用MFO-LSTM分類算法判斷母豬是否發(fā)情。以山西省太原市杏花嶺區(qū)五豐養(yǎng)殖場的試驗數(shù)據(jù)對該方法進行驗證,結果表明,該方法在以30 min為發(fā)情行為識別時間時的識別效果最好,發(fā)情行為識別的錯誤率為13.43%,召回率為90.63%,特效性為81.63%,與已有的母豬發(fā)情行為識別方法相比錯誤率降低了80%以上。該方法在保證識別準確率的情況下有效降低了錯誤率,可滿足母豬養(yǎng)殖生產(chǎn)過程中發(fā)情行為自動識別要求。

行為;監(jiān)測;算法;母豬;發(fā)情;長短時記憶網(wǎng)絡;飛蛾撲火算法

0 引 言

中國是世界養(yǎng)豬大國和豬肉消費大國,2019年中國豬肉產(chǎn)量5 404萬t,占肉類總產(chǎn)量的55.62%,因此,生豬養(yǎng)殖業(yè)健康發(fā)展對維護國家糧食安全具有重要意義[1]。在生豬養(yǎng)殖中,母豬的繁育能力是影響?zhàn)B殖效益的關鍵因素之一,母豬年均提供斷奶仔豬數(shù)(Pigs Weaned Per Sow Per Year,PSY)是衡量母豬繁育能力的重要指標。2018年美國生豬養(yǎng)殖行業(yè)平均PSY為24,而中國平均PSY為18,說明中國的生豬養(yǎng)殖水平與發(fā)達國家相比還存在明顯差距[2-3]。母豬的繁育能力與發(fā)情、配種、妊娠和分娩過程密不可分,其發(fā)情期持續(xù)時間為20~84 h,而最佳交配和輸精時間在發(fā)情后20~30 h[4-5]。因此,及時準確地識別母豬發(fā)情行為能夠?qū)崿F(xiàn)及時配種,提高配種成功率,有效減少空懷和返情情況,有助于提高母豬繁育能力。

當母豬發(fā)情時,由于生理變化會產(chǎn)生一系列的行為特征,如臥立不安,啃圈爬欄,走動頻繁,活動量(一段時間內(nèi)母豬處于活躍狀態(tài)的時長)明顯增多,主動接近公豬,公豬經(jīng)過或“按背測試”時表現(xiàn)出“靜立反射”,食欲略減,出現(xiàn)爬跨行為,體溫較平常有所上升,發(fā)出“求偶歌聲”,外陰腫脹呈紅色,流出透明黏液等[4-5]。其中,部分行為特征如采食量變化、母豬頻繁訪問公豬、活動量增加、爬跨行為等可通過物聯(lián)網(wǎng)感知設備獲取,從而為母豬發(fā)情行為自動識別提供依據(jù)。

目前,國內(nèi)外研究人員對基于物聯(lián)網(wǎng)的母豬發(fā)情行為識別進行了一些研究,主要是基于母豬訪問公豬頻率[6-7]和母豬采食行為[8]進行識別。Ostersen等[6]使用射頻識別(Radio Frequency Identification,RFID)掃描器記錄通過“瞭望洞”與公豬接觸的母豬耳標號,并統(tǒng)計出24和72 h內(nèi)母豬訪問公豬的頻率和時長,構建基于一階馬爾可夫概率的多過程動態(tài)線性模型進行母豬發(fā)情行為識別。以24 h為發(fā)情行為識別時間的試驗結果錯誤率95.0%,召回率60.7%,特效性98.8%;72 h的試驗結果錯誤率97.1%,召回率89.2%,特效性96.9%。Cornou等[8]通過自動飼喂器記錄母豬進入自動飼喂器的采食次序、豬群個體數(shù)量和每日進食周期等參數(shù),輸入單變量動態(tài)線性模型,利用V-mask控制圖識別母豬是否發(fā)情,此方法的發(fā)情行為識別,召回率75.0%,特效性95.4%。

綜上,目前母豬發(fā)情行為識別方法還存在以下問題:一是錯誤率高,其主要原因是信息源過于單一,基于單特征的發(fā)情行為識別難以準確識別發(fā)情狀況。錯誤率高意味著假警報數(shù)量多,過多的假警報會浪費工人的時間來尋找母豬和測試母豬是否發(fā)情,高假警報狀況下的檢測成本超過了每天人工監(jiān)控所有母豬的成本[6]。二是現(xiàn)有研究均需要至少母豬發(fā)情24 h后才可以識別,及時性有待提高。

姿態(tài)傳感器是一種三維運動姿態(tài)測量設備,可以采集運動對象的三軸加速度、角速度、歐拉角、磁場數(shù)據(jù)和四元數(shù)等三維姿態(tài)數(shù)據(jù),與三軸加速度傳感器相比能夠更加全面、精確地描述運動物體的姿態(tài)[9- 10]。目前尚未見使用姿態(tài)傳感器在牲畜行為識別領域的研究,但已有基于三軸加速度傳感器進行牲畜行為識別的研究,如哺乳母豬高?;顒幼R別[11]、山羊(躺臥、站立或慢走、采食和跨跳)行為識別[12]、奶牛健康狀況監(jiān)測[13]、奶牛發(fā)情行為識別[13-15]、奶牛(反芻、進食和飲水)行為識別[16]、母豬姿態(tài)分類[17-21]以及妊娠母豬產(chǎn)前行為識別和分娩時間估計[22-23]等,但關于母豬發(fā)情行為識別還未見應用。

基于此,本文提出了一種基于飛蛾撲火算法(Moth-Flame Optimization,MFO)優(yōu)化長短時記憶網(wǎng)絡(Long Short Term Memory,LSTM)的母豬發(fā)情行為識別方法。首先,通過姿態(tài)傳感器采集母豬姿態(tài)數(shù)據(jù),使用MFO算法優(yōu)化LSTM模型參數(shù),訓練得到姿態(tài)分類器,將母豬姿態(tài)分為立姿、臥姿和爬跨3類,從姿態(tài)分類結果中提取母豬活動量和爬跨行為特征,輸入并訓練得到發(fā)情行為識別模型,以期降低母豬發(fā)情行為識別錯誤率,提升母豬繁育水平,提高生豬養(yǎng)殖效益。

1 試驗材料與方法

1.1 試驗數(shù)據(jù)采集和預處理

生豬姿態(tài)數(shù)據(jù)于2019年4月19—30日采集自山西省太原市杏花嶺區(qū)五豐養(yǎng)殖場。安裝試驗設備的圈舍內(nèi)有10個南北朝向的圈欄,圈欄大小為6 m×5 m×1.2 m,每個圈欄可容納5~6頭母豬。試驗對象為大長白豬,共6頭母豬和6頭公豬,母豬中有4頭處于發(fā)情期。試驗共使用6個圈欄,每個圈欄內(nèi)放置1頭公豬和1頭母豬,試驗期間豬在圈舍內(nèi)自由活動。

在母豬頸部上安裝型號為WT901WIFIC的維特智能WIFI姿態(tài)傳感器,每個傳感器有唯一ID編號,且與母豬的耳標號一一對應。姿態(tài)傳感器同時采集三軸加速度、角速度、角度、磁場和四元數(shù)5類數(shù)據(jù),采集頻率為1次/s。傳感器通過符合IEEE 802.11標準的無線局域網(wǎng)連接到豬舍內(nèi)布置的無線路由器,該路由器連接因特網(wǎng),采集到的數(shù)據(jù)通過無線局域網(wǎng)傳輸?shù)綌?shù)據(jù)服務器,如圖1所示。為避免出現(xiàn)數(shù)據(jù)碰撞問題,舍內(nèi)布置2個路由器,每個路由器上綁定的姿態(tài)傳感器設備不超過20個。圈舍內(nèi)安裝型號為DS-2CD3T86FWDV2-I3S的海康威視高清網(wǎng)絡攝像頭,可24 h監(jiān)視圈舍,視頻內(nèi)容為人工標記母豬姿態(tài)分類標簽提供依據(jù)。

采集到母豬姿態(tài)數(shù)據(jù)后對照視頻和人工監(jiān)控記錄對傳感器數(shù)據(jù)進行檢查,對傳感器移動、脫落以及部分傳感器損壞狀態(tài)下采集的錯誤數(shù)據(jù)進行刪除,共采集到1 042 207個母豬姿態(tài)樣本數(shù)據(jù)。為避免量綱差異和樣本排列順序影響模型分類效果,采用最小-最大值法對數(shù)據(jù)集中每個變量進行歸一化處理,采用隨機索引打亂樣本順序。

圖1 傳感器數(shù)據(jù)傳輸示意圖

1.2 基于MFO-LSTM的母豬發(fā)情行為識別方法

1.2.1 算法流程

基于MFO-LSTM的母豬發(fā)情行為識別流程如下:

1)數(shù)據(jù)采集和預處理。利用姿態(tài)傳感器采集描述母豬運動狀態(tài)的三軸加速度、角速度、角度、四元數(shù)和磁場5類數(shù)據(jù),對數(shù)據(jù)進行預處理,構建姿態(tài)數(shù)據(jù)集。

2)基于MFO-LSTM的母豬姿態(tài)分類模型構建。采用MFO優(yōu)化LSTM算法的第一、二層隱含層神經(jīng)元數(shù)目、最大訓練周期、分塊尺寸和學習率;將姿態(tài)數(shù)據(jù)訓練集作為輸入,對照視頻標記的姿態(tài)作為標簽,訓練基于MFO-LSTM的母豬姿態(tài)分類模型;最終將母豬姿態(tài)分為立姿、臥姿和爬跨3類。

3)母豬爬跨行為和活動量特征提取。統(tǒng)計母豬姿態(tài)分類結果,得到3類姿態(tài)在發(fā)情行為識別時間內(nèi)的累計時長,并從中提取爬跨行為特征和活動量特征。

4)基于MFO-LSTM的母豬發(fā)情行為識別模型構建。將提取的發(fā)情行為識別特征作為模型輸入,以豬場管理記錄中母豬的發(fā)情狀態(tài)作為標簽,訓練發(fā)情行為識別模型,實現(xiàn)母豬發(fā)情行為的識別。

1.2.2 基于MFO-LSTM的母豬姿態(tài)分類

爬跨行為和活動量是母豬發(fā)情的重要行為特征,而提取這2個特征的前提是對母豬的姿態(tài)進行分類。本文采用基于MFO-LSTM的分類算法將母豬姿態(tài)分為立姿、臥姿和爬跨3類。立姿是指母豬正?;顒又械男凶吆驼玖⒆藨B(tài),臥姿是指母豬休息時的立臥姿和側(cè)臥姿,爬跨是指發(fā)情母豬騎到其他豬脊背上的姿態(tài)。3種姿態(tài)中立姿和爬跨屬于活躍姿態(tài),臥姿屬于不活躍姿態(tài)。

LSTM是一種改進的循環(huán)神經(jīng)網(wǎng)絡,可以有效解決梯度消失和梯度爆炸問題[24],已廣泛應用于時間序列數(shù)據(jù)的預測[25-27]和分類[28]等領域。本文LSTM神經(jīng)網(wǎng)絡各層結構如圖2所示。

圖2 LSTM網(wǎng)絡層次結構

由于LSTM使用過程中需要調(diào)節(jié)多個參數(shù),且參數(shù)取值對模型預測和分類效果影響較大,人工搜索參數(shù)費時費力,因此需要目標規(guī)劃算法輔助參數(shù)尋優(yōu)[27]。MFO算法相對于傳統(tǒng)的遺傳算法、粒子群優(yōu)化算法等目標規(guī)劃算法具有尋優(yōu)速度快、不容易陷入局部最優(yōu)的優(yōu)勢[29]。因此本文使用MFO算法優(yōu)化LSTM模型參數(shù)。

MFO算法優(yōu)化LSTM參數(shù)過程如下:

1)確定待優(yōu)化參數(shù)的個數(shù)和值域。設定LSTM中待優(yōu)化參數(shù)為第一層和第二層隱含層神經(jīng)元數(shù)目、最大訓練周期、分塊尺寸和學習率,并依次根據(jù)這5個參數(shù)值域設置其參數(shù)上下限數(shù)組和:

式中為待優(yōu)化參數(shù)的個數(shù);lb為第個待優(yōu)化參數(shù)下限;ub為第個待優(yōu)化參數(shù)上限。

2)使用LSTM模型評價指標準確率Accuracy作為適應度函數(shù)輸出;

3)使用隨機函數(shù)初始化蛾子矩陣。根據(jù)飛蛾矩陣和適應度函數(shù)計算飛蛾適應度向量;

4)判斷是否達到最大迭代次數(shù),若當前迭代次數(shù)超過最大迭代次數(shù)轉(zhuǎn)到步驟5),否則更新種群并繼續(xù)尋優(yōu)。采用文獻[29]中的對數(shù)螺旋函數(shù)作為飛蛾位置更新機制。對數(shù)螺旋函數(shù)的計算公式如下:

式中D表示第只飛蛾到第個火焰的距離;M表示第只飛蛾;F表示第個火焰;為的常數(shù);為[-1,1]中的隨機數(shù),該參數(shù)定義飛蛾的下一個位置與火焰的距離,= -1為離火焰最近的位置,= 1為離火焰最遠的位置。

5)輸出參數(shù)尋優(yōu)。

經(jīng)過上述步驟后得到MFO-LSTM姿態(tài)分類模型。具體流程如圖3所示。

圖3 MFO優(yōu)化LSTM算法參數(shù)流程圖

在分類模型的訓練過程中,各類樣本數(shù)量的均衡性會直接影響模型的泛化性能。母豬姿態(tài)數(shù)據(jù)集中各類樣本數(shù)量差異較大,屬于樣本不均衡數(shù)據(jù)集。為了避免因數(shù)據(jù)集不均衡導致過擬合問題的出現(xiàn)并減少模型訓練時間,在對數(shù)據(jù)集進行預處理后,按照立姿、臥姿和爬跨3種姿態(tài)樣本數(shù)量相同的原則從姿態(tài)數(shù)據(jù)中隨機抽取190 050條母豬姿態(tài)數(shù)據(jù)用于母豬姿態(tài)分類模型的訓練和性能驗證。

將隨機抽取的姿態(tài)數(shù)據(jù)按8∶2劃分訓練集和測試集。使用姿態(tài)數(shù)據(jù)訓練集(152 040個姿態(tài)樣本)訓練得到基于MFO-LSTM的母豬姿態(tài)分類模型。將測試集(38 010個姿態(tài)樣本)輸入到模型中,得到姿態(tài)分類結果。將模型給出的姿態(tài)分類結果和對照視頻標記的標簽進行對比,計算模型評價指標,檢驗姿態(tài)分類模型的性能。

1.2.3 母豬發(fā)情行為識別特征提取

發(fā)情母豬活動量顯著增加并出現(xiàn)爬跨行為,本文使用爬跨行為和活動量2個特征作為發(fā)情行為識別依據(jù)。

1)姿態(tài)分類結果的獲取

在訓練得到基于MFO-LSTM的母豬姿態(tài)分類模型并驗證其可靠性之后,使用該模型對采集得到的1 042 207個母豬姿態(tài)樣本數(shù)據(jù)進行姿態(tài)分類,將姿態(tài)分類結果整理為姿態(tài)分類結果矩陣R,用于后續(xù)發(fā)情行為識別特征提取。

式中0為姿態(tài)數(shù)據(jù)集樣本總數(shù),即1 042 207;T為數(shù)據(jù)采集時間,格式為“YYYY-MM-dd hh:ss:mm”;P為母豬耳標號;H為姿態(tài)分類模型輸出的結果。

2)發(fā)情行為識別時間確定

提取母豬發(fā)情行為識別的特征需要對母豬姿態(tài)分類的矩陣R進行統(tǒng)計。在統(tǒng)計過程中,需要確定發(fā)情行為識別時間(以下簡稱“”),該參數(shù)控制發(fā)情行為識別操作觸發(fā)的頻率。越小,說明發(fā)情行為識別所需要的時間越短,即模型可以更及時識別發(fā)情行為。

的取值影響發(fā)情行為識別模型的準確性和及時性。過小的會導致發(fā)情行為識別操作頻繁觸發(fā),頻繁的操作會增加計算機負擔,還可能造成大多數(shù)爬跨行為無法完整的落在發(fā)情識別時間內(nèi)。過小也會使被用于發(fā)情行為特征提取的姿態(tài)數(shù)據(jù)樣本數(shù)量減少,使得姿態(tài)統(tǒng)計結果不足以反映母豬活動的狀況,從而導致發(fā)情行為識別的準確性降低。因此,在保證發(fā)情行為檢測準確性的同時也要考慮及時性,過大的如24和72 h)可能會導致發(fā)情行為識別不及時。但不可以一味地降低追求高及時性而忽略了準確性。在考慮提高及時性的同時應兼顧錯誤率、召回率和特效性等反映發(fā)情行為識別準確性的指標。

為了確定參數(shù)下限,本文統(tǒng)計了姿態(tài)分類結果中的每次完整爬跨行為的持續(xù)時長。本文定義一次完整爬跨行為的識別規(guī)則如下:

①在姿態(tài)數(shù)據(jù)集中,若爬跨姿態(tài)持續(xù)10 s以上,則認為爬跨行為開始;

②將第一條爬跨姿態(tài)數(shù)據(jù)的采集時間(精確到s)作為爬跨行為的開始時刻;

③爬跨行為開始一段時間后,當其他姿態(tài)(臥姿、立姿等)出現(xiàn)且持續(xù)時間超過10 s時認為爬跨狀態(tài)終止,反之則認為爬跨行為一直在持續(xù);

④將最后一條爬跨姿態(tài)數(shù)據(jù)的采集時間作為爬跨行為的終止時刻;

⑤從爬跨行為開始到結束這一段時間內(nèi)的行為稱為一次完整的爬跨行為。

按照上述規(guī)則識別得到母豬的爬跨行為持續(xù)時長后,通過繪制散點圖得到其分布規(guī)律,按照90%的比例確定下限Tinv。母豬發(fā)情周期和配種時間均按小時(h)計算[4-5]。

為盡早識別出發(fā)情行為和配種時間推算,確定上限Tinv的規(guī)則是

3)爬跨行為特征和活動量特征提取

母豬發(fā)情時會出現(xiàn)爬跨行為。本文以母豬發(fā)情行為識別時間為頻率對姿態(tài)分類結果矩陣R數(shù)據(jù)進行統(tǒng)計,得出發(fā)情行為識別時間內(nèi)爬跨姿態(tài)累計時長D,進而得到爬跨姿態(tài)累計時長占發(fā)情行為識別時間的百分比(,%)并將其作為爬跨行為特征。

式中為發(fā)情行為識別時間長度,s;D為發(fā)情行為識別時間內(nèi)爬跨姿態(tài)累計時長,s。

母豬大部分時間都處于趴臥和睡眠狀態(tài),只有少部分時間起身走動、飲水、吃食和進行其他活動,但母豬在發(fā)情時會躁動不安,活動量增加。本文對姿態(tài)分類結果矩陣R數(shù)據(jù)進行統(tǒng)計,采用發(fā)情行為識別時間內(nèi)活躍姿態(tài)累計時長占發(fā)情行為識別時間的百分比(,%)和不活躍姿態(tài)的累計時長占發(fā)情行為識別時間的百分比(,%)作為活動量特征。

式中D為發(fā)情行為識別時間內(nèi)立姿累計時長,s;D為發(fā)情行為識別時間內(nèi)臥姿累計時長,s。

確定發(fā)情行為識別時間的上下限之后,按照上下限TinvTinv,統(tǒng)計發(fā)情行為識別時間內(nèi)3種姿態(tài)時長,計算發(fā)情行為識別特征矩陣。

式中為姿態(tài)統(tǒng)計結果的記錄數(shù),即對1 042 207個姿態(tài)數(shù)據(jù)每進行一次姿態(tài)統(tǒng)計,每一次統(tǒng)計得到一條統(tǒng)計結果即為矩陣的一行,矩陣的總行數(shù)為;TT分別為發(fā)情行為識別時間的起始和終止時刻;U、AI分別為從T開始到T結束這段時間內(nèi)爬跨行為特征和活動量特征的計算結果數(shù)值。

1.2.4 基于MFO-LSTM的母豬發(fā)情行為識別方法

本文采用爬跨行為和活動量兩個特征識別發(fā)情行為。將包含兩個特征的矩陣和發(fā)情行為識別標簽合并為模型輸入矩陣。將矩陣作為母豬發(fā)情行為識別數(shù)據(jù)集,對其進行歸一化和無序處理后按照8∶2的比例劃分為訓練集和測試集。

式中Q為根據(jù)豬場管理記錄人工標記的發(fā)情行為識別結果,用于發(fā)情行為識別模型的訓練,其取值范圍為Q={發(fā)情,不發(fā)情}。

2 試驗結果與分析

2.1 試驗環(huán)境和評價指標

本文算法基于Matlab 2018a在Windows 7 64位操作系統(tǒng)環(huán)境下實現(xiàn)。LSTM程序使用Matlab深度學習工具箱完成。MFO程序使用文獻[29]的Matlab工具箱完成。支持向量機(Support Vector Machine,SVM)程序使用Libsvm工具箱完成。

根據(jù)機器學習分類問題常用評價指標[16,30]和相關文獻[6,8,31],本文確定母豬姿態(tài)分類試驗評價指標為準確率、召回率和F1值,母豬發(fā)情行為識別試驗評價指標為錯誤率、召回率和特效性。在母豬姿態(tài)分類試驗中,當識別某一種姿態(tài)時,正類指目標姿態(tài),負類指除目標姿態(tài)外其他所有姿態(tài)。在母豬發(fā)情行為識別試驗中,正類指母豬發(fā)情,負類指母豬不發(fā)情。各個指標的含義和計算方式如下:

1)準確率Accuracy:該指標從總體上反映了模型正確分類的能力,既包括對目標類別的分類,又包括對非目標類別的分類。準確率越高說明模型分類效果越好:

2)錯誤率Error Rate:該指標描述了母豬發(fā)情識別過程中假發(fā)情警告樣本數(shù)FP與檢測到的發(fā)情樣本數(shù)之間的關系,衡量發(fā)情行為識別過程中假警報的出現(xiàn)情況。錯誤率越低說明發(fā)情行為識別過程中的假警報越少:

3)召回率Recall:部分發(fā)情行為識別文獻中將其稱之為靈敏性Sensitivity,該指標反映了目標類別不被漏檢的概率。召回率越高說明模型的分類效果越好:

4)特效性Specificity:該指標反映了目標類別不被誤檢的概率。特效性越高說明模型的分類效果越好:

5)F1值:該指標同時兼顧了分類模型的精度和召回率,是模型精度和召回率的調(diào)和平均,該值越高說明模型的分類效果越好:

式中TP為將正類識別為正類的樣本數(shù);FN為將正類識別為負類的樣本數(shù);FP為將負類識別為正類的樣本數(shù);TN為將負類識別為負類的樣本數(shù)。

2.2 母豬姿態(tài)分類試驗結果

2.2.1 MFO-LSTM姿態(tài)分類試驗結果

為了比較使用姿態(tài)傳感器進行姿態(tài)測量和傳統(tǒng)方法中使用三軸加速度傳感器2種情況下的姿態(tài)分類效果,本文使用姿態(tài)數(shù)據(jù)集和三軸加速度數(shù)據(jù)集進行母豬姿態(tài)分類對比試驗。姿態(tài)數(shù)據(jù)集由三軸加速度、三軸角速度、三軸角度(歐拉角)、三軸磁場和四元數(shù)(0、1、2和3)組成,三軸加速度數(shù)據(jù)集僅包含三軸加速度。2個數(shù)據(jù)集的姿態(tài)分類試驗結果如表1所示。

在MFO-LSTM模型中,2個LSTM層的隱藏層單元數(shù)取值范圍為[30, 70]、最大訓練周期取值范圍為[50, 100]、分塊尺寸取值范圍為[20, 80]、學習率取值范圍為(0, 10-5]。使用LSTM模型評價指標準確率Accuracy作為適應度函數(shù)的返回值。設定MFO算法中參與尋優(yōu)的參數(shù)為20組(即飛蛾數(shù)量為20),最大迭代次數(shù)為25,待優(yōu)化參數(shù)個數(shù)為5(即維度為5)。

表1 基于MFO-LSTM的母豬姿態(tài)分類試驗結果

從表1中可以看出,使用姿態(tài)數(shù)據(jù)集進行分類時,各姿態(tài)識別的平均準確率為98.02%,平均召回率為96.26%,平均F1為96.18。只使用三軸加速度數(shù)據(jù)進行姿態(tài)分類時,各類姿態(tài)的平均識別準確率為82.04%,平均召回率為68.71%,平均F1為68.16?;诒疚姆椒ú⒉捎米藨B(tài)數(shù)據(jù)集相對于傳統(tǒng)方法采用三軸加速度數(shù)據(jù)集可以更有效區(qū)分立姿、臥姿和爬跨3類姿態(tài),可以為發(fā)情行為特征提取提供可靠數(shù)據(jù)。

2.2.2 與其他方法的姿態(tài)識別性能對比

為了驗證本文方法的優(yōu)越性,使用支持向量機(Support Vector Machine,SVM)、概率神經(jīng)網(wǎng)絡(Probabilistic Neural Network,PNN)、學習向量量化(Learning Vector Quantization,LVQ)神經(jīng)網(wǎng)絡和極限學習機(Extreme Learning Machine,ELM)4種方法與本文方法進行了姿態(tài)識別對比試驗,結果如表2所示。對比試驗中各個模型參數(shù)設定如下:SVM核函數(shù)為RBF函數(shù)[16]。LVQ競爭層神經(jīng)元個數(shù)為20,學習率為0.1[32]。ELM隱藏層神經(jīng)元數(shù)為100,激活函數(shù)為Sigmoid函數(shù)[33]。

表2 基于SVM、PNN、LVQ和ELM方法的母豬姿態(tài)分類試驗結果

從表1和表2中可以看出,本文方法的各項母豬姿態(tài)分類評價指標均優(yōu)于SVM、PNN、LVQ和ELM方法,與SVM、PNN、LVQ和ELM相比本文方法具有優(yōu)越性。

通過各方法對爬跨姿態(tài)的識別情況可以看出,所有模型對爬跨姿態(tài)的識別效果均好于對立姿和臥姿好,這是由于爬跨行為與立姿和臥姿相比特征更明顯,更容易被分類模型學習到。

通過對比使用姿態(tài)數(shù)據(jù)集和三軸加速度數(shù)據(jù)集的試驗可以看出,使用姿態(tài)數(shù)據(jù)集的姿態(tài)分類效果較好,其原因是姿態(tài)數(shù)據(jù)中除了三軸加速度數(shù)據(jù)外,還提供了三軸角速度、角度、磁場和四元數(shù),磁場數(shù)據(jù)可以對三軸加速度數(shù)據(jù)起到一定的輔助校正作用,描述豬只運動情況的數(shù)據(jù)更加全面和準確,從而有效降低了豬只姿態(tài)分類的錯誤率。

2.3 母豬發(fā)情行為識別特征提取試驗結果

為了計算發(fā)情行為識別特征矩陣中各個變量,需要統(tǒng)計發(fā)情行為識別時間下的各姿態(tài)數(shù)量,因此必須確定發(fā)情行為識別時間的下限Tinv,以確定發(fā)情行為識別時間的取值范圍并最終確定其取值。通過對母豬的每一次爬跨行為持續(xù)時間長度進行統(tǒng)計,將大部分爬跨行為持續(xù)時長的上限作為發(fā)情行為識別時間的下限,以便使大多數(shù)爬跨行為可以在發(fā)情行為識別時間內(nèi)完整地發(fā)生一次。通過對姿態(tài)分類結果矩陣R和人工對比視頻分析,確定本文實驗共識別出26次完整的爬跨行為,每次爬跨行為的持續(xù)時間統(tǒng)計結果如圖4所示。

圖4 爬跨行為持續(xù)時間統(tǒng)計結果

從圖4中可以看出,96.29%的爬跨行為持續(xù)時間在600 s內(nèi)。由于母豬發(fā)情周期和配種時間均按小時(h)計算[4-5],為方便配種時間的計算,發(fā)情行為別時間最好是60 min(1 h)的倍數(shù)或能被其整除。因此,發(fā)情行為識別時間下限Tinv取10 min較為合適。結合發(fā)情行為識別時間的上限確定發(fā)情行為識別時間的范圍為[10 min, 60 min]。

2.4 母豬發(fā)情行為識別試驗結果

發(fā)情行為識別試驗分為準確性驗證和及時性驗證。準確性驗證主要檢驗本文方法的有效性,即能否在保證發(fā)情行為識別準確率的同時降低錯誤率;及時性驗證主要是檢驗本文方法能否在配種前識別出母豬發(fā)情行為。

根據(jù)發(fā)情行為識別時間范圍,分別對10、20、30、40、50和60 min的各類姿態(tài)數(shù)量進行統(tǒng)計,統(tǒng)計結果用于發(fā)情行為識別。將不同發(fā)情行為識別時間下的矩陣輸入MFO-LSTM模型進行試驗,并比較各個發(fā)情行為識別時間下模型的性能,以確定最佳發(fā)情行為識別時間,試驗結果如表3所示。

表3 母豬發(fā)情行為識別試驗結果

由表3可知,發(fā)情行為識別時間為30 min時,發(fā)情行為識別錯誤率為13.43%,召回率為90.63%,特效性為81.63%。通過對比本文方法以30 min為發(fā)情識別時間下的錯誤率和其他文獻中識別方法的錯誤率可知,本文方法比文獻[6]中以24 h為發(fā)情行為識別時間的發(fā)情行為識別錯誤率降低了85.86%,比以72 h為發(fā)情行為識別時間的發(fā)情行為識別錯誤率降低了86.16%,比文獻[8]中的發(fā)情行為識別錯誤率降低了86.52%,平均降低了80%以上。本文采用爬跨行為和活動量2個特征進行發(fā)情識別,發(fā)情行為識別錯誤率與基于單特征的發(fā)情行為識別方法相比,在保持較高的召回率和特效性的同時降低了錯誤率,發(fā)情行為識別結果的可信度更高。

本文方法每30 min對母豬的姿態(tài)數(shù)據(jù)進行一次統(tǒng)計分析,因此最少在30 min內(nèi)就可以識別母豬發(fā)情行為。文獻[6,8]是基于24或72 h時間內(nèi)的數(shù)據(jù)統(tǒng)計分析才可以識別出母豬發(fā)情行為。母豬的最佳配種時間為發(fā)情后的20~30 h[4-5],如果基于24或72 h后的數(shù)據(jù)進行發(fā)情行為識別,在數(shù)據(jù)分析得出結論時很可能已經(jīng)錯過了母豬的最佳配種時機,而使用本文方法可以在最佳配種時機到來之前識別出母豬的發(fā)情行為。經(jīng)過統(tǒng)計和對比豬場管理記錄,使用本文方法進行發(fā)情識別,在識別到試驗母豬發(fā)情行為18~20 h后豬場開始進行配種工作,為配種工作爭取了更多的準備時間。本文方法可以更早、更及時地識別出母豬發(fā)情行為,有利于最優(yōu)配種時間的推算和配種工作的準備。

3 結 論

針對母豬發(fā)情行為識別過程中錯誤率高、識別不及時的問題,本文提出了基于MFO-LSTM的母豬發(fā)情行為識別方法,主要結論如下:

1)使用MFO-LSTM分類方法將母豬姿態(tài)分為立姿、臥姿和爬跨3種姿態(tài)。試驗結果表明使用姿態(tài)數(shù)據(jù)集比只使用三軸加速度數(shù)據(jù)集姿態(tài)分類準確率更高。本文姿態(tài)分類方法的平均分類準確率為98.02%,平均召回率為96.26%,平均F1為96.18,為后續(xù)發(fā)情行為識別奠定基礎;

2)當使用30 min作為發(fā)情行為識別時間時,發(fā)情行為識別錯誤率為13.43%,召回率為90.63%,特效性為81.63%,與其他已有的母豬發(fā)情行為識別方法相比錯誤率降低了80%以上。本文提出的母豬發(fā)情行為識別方法具有準確及時、錯誤率低的優(yōu)點,適合在實際生產(chǎn)中推廣應用。

[1] 國家統(tǒng)計局. 2019年國民經(jīng)濟和社會發(fā)展統(tǒng)計公報[EB/OL]. (2020-02-28) [2020-05-14]. http: //www. stats. gov. cn/tjsj/ zxfb/202002/t20200228_1728913. html.

[2] 豬好多網(wǎng). 世界各國養(yǎng)豬生產(chǎn)成績比較[EB/OL]. (2020-04-24) [2020-06-09]. https: //www. yangzhu360. com/dianping/20200424/22899. html.

[3] 中華人民共和國農(nóng)業(yè)農(nóng)村部. 張興旺同志在全國畜牧業(yè)機械化現(xiàn)場會上的講話[EB/OL]. (2019-11-25) [2020-05-14]. http: //www. njhs. moa. gov. cn/nyjxhqk/201911/ t20191128_6332485. htm.

[4] 張配配,張濤,Brad Belstra,等. 母豬的發(fā)情檢測[J]. 國外畜牧學(豬與禽),2014(6):4-11. Zhang Peipei, Zhang Tao, Brad Belstra, et al. Estrus detection of sow[J]. Foreign Animal Husbandry (Pig and Poultry), 2014(6): 4-11. (in Chinese with English abstract)

[5] 桑潤滋. 實用畜禽繁殖技術[M]. 北京:金質(zhì)出版社,2008.

[6] Ostersen T, Cornou C, Kristensen A R. Detecting oestrus by monitoring sows’ visits to a boar[J]. Computers and Electronics in Agriculture, 2010, 74(1): 51-58.

[7] Bressers H P M, Brake J H A T, Noordhuizen J P T M. Oestrus detection in group-housed sows by analysis of data on visits to the boar[J]. Applied Animal Behaviour Science, 1991, 31(3/4): 183-193.

[8] Cornou C, Vinther J, Kristensen A R. Automatic detection of oestrus and health disorders using data from electronic sow feeders[J]. Livestock Science, 2008, 118(3): 262-271.

[9] 侯慶余. 基于MEMS的資料浮標姿態(tài)傳感器的設計與實現(xiàn)[D]. 青島:中國海洋大學,2014. Hou Qingyu. The Design and Implementation of Data Buoy Posture Sensor Based on MEMS[D]. Qingdao: Ocean University of China, 2014. (in Chinese with English abstract)

[10] 曾唯. 微型慣性傳感器應用于飛行器模型姿態(tài)測試的研究[D]. 廈門:廈門大學,2007. Zeng Wei. Research on Micro Inertial Sensor Applied to Attitude Test of Aircraft Model[D]. Xiamen: Xiamen University, 2007. (in Chinese with English abstract)

[11] 閆麗,沈明霞,謝秋菊,等. 哺乳母豬高危動作識別方法研究[J]. 農(nóng)業(yè)機械學報,2016,47(1):266-272. Yan Li, Shen Mingxia, Xie Qiuju, et al. Research on recognition method of lactating sows’ dangerous body movement[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 266-272. (in Chinese with English abstract)

[12] 郭東東. 基于三軸加速度傳感器的山羊行為特征識別研究[D]. 太原:太原理工大學,2015. Guo Dongdong. Research on 3D Acceleration Sensor Recongnition for Goats' Behavior Recognition[D]. Taiyuan: Taiyuan University of Technology, 2015. (in Chinese with English abstract)

[13] 尹令,劉財興,洪添勝,等. 基于無線傳感器網(wǎng)絡的奶牛行為特征監(jiān)測系統(tǒng)設計[J]. 農(nóng)業(yè)工程學報,2010,26(3):203-208. Yin Ling, Liu Caixing, Hong Tiansheng, et al. Design of system for monitoring dairy cattle’s behavioral features based on wireless sensor networks[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(3): 203-208. (in Chinese with English abstract)

[14] 尹令,洪添勝,劉漢興,等. 結構相似子序列快速聚類算法及其在奶牛發(fā)情檢測中的應用[J]. 農(nóng)業(yè)工程學報,2012,28(15):107-112. Yin Ling, Hong Tiansheng, Liu Hanxing, et al. Subsequence clustering algorithm based on structural similarity and its application in cow estrus detection[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2012, 28(15): 107-112. (in Chinese with English abstract)

[15] 田富洋,王冉冉,劉莫塵,等. 基于神經(jīng)網(wǎng)絡的奶牛發(fā)情行為辨識與預測研究[J]. 農(nóng)業(yè)機械學報,2013,44(S1):277-281. Tian Fuyang, Wang Ranran, Liu Mochen, et al. Oestrus detection and prediction in dairy cows based on neural networks[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(S1): 277-281. (in Chinese with English abstract)

[16] 任曉惠,劉剛,張淼,等. 基于支持向量機分類模型的奶牛行為識別方法[J]. 農(nóng)業(yè)機械學報,2019,50(S1):290-296. Ren Xiaohui, Liu Gang, Zhang Miao, et al. Dairy cattle’s behavior recognition method based on support vector machine classification model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 290-296. (in Chinese with English abstract)

[17] 閆麗,沈明霞,姚文,等. 基于MPU6050傳感器的哺乳期母豬姿態(tài)識別方法[J]. 農(nóng)業(yè)機械學報,2015,46(5):279-285. Yan Li, Shen Mingxia, Yao Wen, et al. Recognition method of lactating sows’ posture based on sensor MPU6050[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(5): 279-285. (in Chinese with English abstract)

[18] Cornou C, Lundbye-christensen S. Classification of sows’ activity types from acceleration patterns using univariate and multivariate models[J]. Computers and Electronics in Agriculture, 2010, 72(2): 53-60.

[19] Escalante H J, Rodriguez S V, Cordero J, et al. Sow-activity classification from acceleration patterns: A machine learning approach[J]. Computers and Electronics in Agriculture, 2013, 93: 17-26.

[20] Thompson R, Matheson S M, PL?TZ T, et al. Porcine lie detectors: Automatic quantification of posture state and transitions in sows using inertial sensors[J]. Computers and Electronics in Agriculture, 2016, 127: 521-530.

[21] Oczak M, Maschat K, Berckmans D, et al. Can an automated labelling method based on accelerometer data replace a human labeller? – Postural profile of farrowing sows[J]. Computers and Electronics in Agriculture, 2016, 127: 168-175.

[22] Cornou C, Lundbye-christensen S, Kristensen A R. Modelling and monitoring sows’ activity types in farrowing house using acceleration data[J]. Computers and Electronics in Agriculture, 2011, 76(2): 316-324.

[23] 劉龍申,沈明霞,姚文,等. 基于加速度傳感器的母豬產(chǎn)前行為特征采集與分析[J]. 農(nóng)業(yè)機械學報,2013,44(3):192-196. Liu Longshen, Shen Mingxia, Yao Wen, et al. Acquisition and snalysis of sows’ behavior before farrowing based on acceleration sensor[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(3): 192-196. (in Chinese with English abstract)

[24] Graves A. Long Short-Term Memory[M]//Studies in Computational Intelligence. Berlin: Springer-Verlag Berlin, 2012: 37-45.

[25] 楊亮,劉春紅,郭昱辰,等. 基于EMD-LSTM的豬舍氨氣濃度預測研究[J]. 農(nóng)業(yè)機械學報,2019,50(S1):353-360. Yang Liang, Liu Chunhong, Guo Yuchen, et al. Prediction of ammonia concentration in fattening piggery based on EMD-LSTM[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 353-360. (in Chinese with English abstract)

[26] 陳英義,程倩倩,方曉敏,等. 主成分分析和長短時記憶神經(jīng)網(wǎng)絡預測水產(chǎn)養(yǎng)殖水體溶解氧[J]. 農(nóng)業(yè)工程學報,2018,34(17):183-191. Chen Yingyi, Cheng Qianqian, Fang Xiaomin, et al. Principal component analysis and long short-term memory neural network for predicting dissolved oxygen in water for aquaculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(17): 183-191. (in Chinese with English abstract)

[27] 李萬,馮芬玲,蔣琦瑋. 改進粒子群算法優(yōu)化LSTM神經(jīng)網(wǎng)絡的鐵路客運量預測[J]. 鐵道科學與工程學報,2018,15(12):3274-3280. Li Wan, Feng Fenling, Jiang Qiwei. Prediction for railway passenger volume based on modified PSO optimized LSTM neural network[J]. Journal of Railway Science and Engineering, 2018, 15(12): 3274-3280. (in Chinese with English abstract)

[28] 趙明,杜會芳,董翠翠,等. 基于word2vec和LSTM的飲食健康文本分類研究[J]. 農(nóng)業(yè)機械學報,2017,48(10):202-208. Zhao Ming, Du Huifang, Dong Cuicui, et al. Diet health text classification based on word2vec and LSTM[J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(10): 202-208. (in Chinese with English abstract)

[29] Mirjalili S. Moth-flame optimization algorithm: A novel nature-inspired heuristic paradigm[J]. Knowledge-Based Systems, 2015, 89: 228-249.

[30] 袁培森,任守綱,翟肇裕,等. 基于半監(jiān)督主動學習的菊花表型分類研究[J]. 農(nóng)業(yè)機械學報,2018,49(9):27-34. Yuan Peisen, Ren Shougang, Zhai Zhaoyu, et al. Chrysanthemum phenotypic classification based on semi-supervised active learning[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(9): 27-34. (in Chinese with English abstract)

[31] Cornou C. Automated oestrus detection methods in group housed sows: Review of the current methods and perspectives for development[J]. Livestock Science, 2006, 105(1-3): 1-11.

[32] 梁武科,彭文季,羅興錡. 基于LVQ網(wǎng)絡的水電機組振動多故障診斷方法[J]. 農(nóng)業(yè)機械學報,2007,38(1):208-210. Liang Wuke, Peng Wenji, Luo Xingqi. Multi - fault diagnosis method of hydropower unit vibration based on LVQ network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2007,38(1):208-210. (in Chinese with English abstract)

[33] 宦娟,劉星橋. 基于K-means聚類和ELM神經(jīng)網(wǎng)絡的養(yǎng)殖水質(zhì)溶解氧預測[J]. 農(nóng)業(yè)工程學報,2016,32(17):174-181. Huan Juan, Liu Xingqiao. Dissolved oxygen prediction in water based on K-means clustering and ELM neural network for aquaculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(17): 174-181. (in Chinese with English abstract)

Identification of sow oestrus behavior based on MFO-LSTM

Wang Kai1, Liu Chunhong1,2, Duan Qingling1,2,3※

(1.,,100083,; 2.,100083,; 3.100083,)

Timely and accurate identification of oestrus behavior of sows can effectively increase the conception rate and litter size, which is of great significance to improve the breeding level and economic benefits of breeding enterprises.The traditional identification methods of oestrus behavior of sows have the problems of high working intensity, strong subjectivity and low automation level. Some identification methods of oestrus behavior of sows based on internet of things also have some problems, such as high false alarm times, high error rate and long recognition time. In order to solve the problems of low identification accuracy and efficiency, a oestrus behavior recognition method of sows based on Moth-Flame Optimization optimized Long Short Term Memory(MFO-LSTM) was proposed in this paper, and the verification test was carried out at WuFeng breeding farm in Xinghualing district, Taiyuan city, Shanxi Province. The posture data of sows were obtained by posture sensors installed on the neck of the sows. The posture data describing the sow's motion state contained three-axis acceleration, three-axis angular velocity, three-axis angle, three-axis magnetic field and quaternion. The collected posture data was manually marked according to the videos, and preprocessed to obtain a posture classification data set. Then, the MFO algorithm was used to optimize the numbers of first and second hidden layer neurons, maximum training period, block size and learning rate, thus, the LSTM network model was built. Postures of sows were divided into three categories, i.e. standing, lying and mounting. Through the statistics of the duration of each complete mounting behavior of the sows, the range of the recognition time of the oestrus behavior was obtained. The sows posture classification results were counted with different oestrus behavior recognition duration, and two characteristics of mounting behavior and activity were then extracted, so as to obtain the recognition feature matrix of oestrus behavior of sows. Finally, the feature matrix was input into the MFO-LSTM classification model to judge whether the sow was oestrus. The experimental results showed that the classification method of sows posture proposed could effectively distinguish the three postures of standing, lying and mounting. The classification effects of proposed method were better than that of the Support Vector Machine (SVM), Probabilistic Neural Network(PNN), Learning Vector Quantization (LVQ) and Extreme Learning Machine(ELM). The average accuracy, recall rate and F1 in the attitude data set were 98.02%, 96.26% and 96.18, respectively. On the basis of accurately identifying the sows’ posture, the effect of oestrus behavior recognition based on MFO-LSTM algorithm was verified. The test results showed that the recognition effect was best when the oestrus recognition duration was 30 min at this time, the error rate, recall rate and specificity of oestrus recognition were 13.43%, 90.63% and 81.63%, respectively. The oestrus behavior of sows recognition method proposed effectively reduced the error rate while maintaining a high recall rate and specificity. Compared with other methods, the error rate was reduced by more than 80%, the oestrus behavior of sow could be recognized after 30 min of oestrus.

behavior; monitoring; algorithms; sows; oestrus behavior; long short-term memory; moth-flame optimization

王凱,劉春紅,段青玲. 基于MFO-LSTM的母豬發(fā)情行為識別[J]. 農(nóng)業(yè)工程學報,2020,36(14):211-219.doi:10.11975/j.issn.1002-6819.2020.14.026 http://www.tcsae.org

Wang Kai, Liu Chunhong, Duan Qingling. Identification of sow oestrus behavior based on MFO-LSTM[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(14): 211-219. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2020.14.026 http://www.tcsae.org

2019-12-11

2020-06-09

國家重點研發(fā)計劃(2016YFD0700200);國家高技術研究發(fā)展計劃(863計劃)資助項目(2013AA102306)

王凱,研究方向為智能信息處理。Email:S20173081212@alu.cau.edu.cn

段青玲,博士,教授,主要從事智能信息處理研究。Email:dqling@cau.edu.cn

10.11975/j.issn.1002-6819.2020.14.026

TP391;S828

A

1002-6819(2020)-14-0211-09

猜你喜歡
錯誤率發(fā)情姿態(tài)
限制性隨機試驗中選擇偏倚導致的一類錯誤率膨脹*
母牛的發(fā)情鑒定和配種
母牛發(fā)情的鑒定方法
攀爬的姿態(tài)
學生天地(2020年3期)2020-08-25 09:04:16
全新一代宋的新姿態(tài)
汽車觀察(2018年9期)2018-10-23 05:46:40
跑與走的姿態(tài)
中國自行車(2018年8期)2018-09-26 06:53:44
正視錯誤,尋求策略
教師·中(2017年3期)2017-04-20 21:49:49
母驢配種注意啥
解析小學高段學生英語單詞抄寫作業(yè)錯誤原因
養(yǎng)羊何時配種好
新津县| 酒泉市| 武邑县| 双峰县| 兴宁市| 贵州省| 周口市| 陈巴尔虎旗| 开化县| 吴堡县| 阳信县| 张家川| 梁河县| 本溪| 桑植县| 外汇| 微山县| 越西县| 湾仔区| 鸡东县| 焦作市| 大悟县| 莱阳市| 普宁市| 临高县| 长顺县| 湘阴县| 西华县| 克拉玛依市| 资中县| 东平县| 阜康市| 新兴县| 马公市| 淮安市| 宣汉县| 绥化市| 德令哈市| 定安县| 富蕴县| 米脂县|