張媛媛 穆浩文 孫哲 郭松濤 許鵬飛
智能科技推動(dòng)野生動(dòng)物保護(hù)事業(yè)蓬勃發(fā)展,為該領(lǐng)域帶來(lái)新的活力與機(jī)遇。傳統(tǒng)的野生動(dòng)物監(jiān)測(cè)技術(shù)如紅外線技術(shù)、遠(yuǎn)程攝像、人工觀察等方法具有分辨率有限、成本高、覆蓋范圍小、易受天氣和環(huán)境影響等缺點(diǎn)。而智能科技通過(guò)先進(jìn)的數(shù)據(jù)采集設(shè)備與AI算法模型幫助科研人員提高監(jiān)測(cè)和追蹤野生動(dòng)物的效率,更準(zhǔn)確地了解物種分布、遷徙路徑,以及數(shù)量變化,為保護(hù)策略的制定提供有力支持。
智能科技助力野生動(dòng)物保護(hù)是指使用計(jì)算機(jī)視覺(jué)技術(shù)監(jiān)測(cè)野生動(dòng)物,主要體現(xiàn)為野生動(dòng)物的精準(zhǔn)檢測(cè)、追蹤和智能識(shí)別。計(jì)算機(jī)視覺(jué)技術(shù)監(jiān)測(cè)野生動(dòng)物的流程一般為:①數(shù)據(jù)采集。使用無(wú)人機(jī)、高清攝像機(jī)等智能設(shè)備采集目標(biāo)野生動(dòng)物的圖像或視頻。②數(shù)據(jù)處理。人工手動(dòng)篩選圖像,去除模糊圖像與無(wú)目標(biāo)圖像,再對(duì)剩余數(shù)據(jù)進(jìn)行標(biāo)注。③模型訓(xùn)練。將標(biāo)注好的數(shù)據(jù)分為訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù),根據(jù)不同的監(jiān)測(cè)要求選擇合適的深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練與測(cè)試。④模型評(píng)估。選擇合適的評(píng)價(jià)指標(biāo)度量模型,根據(jù)反饋改進(jìn)網(wǎng)絡(luò),進(jìn)而提升性能。
野生動(dòng)物智能精準(zhǔn)檢測(cè)有助于野生動(dòng)物計(jì)數(shù)、遏制非法獵捕野生動(dòng)物和保護(hù)瀕危野生動(dòng)物。野生動(dòng)物智能檢測(cè)是指在復(fù)雜場(chǎng)景中使用傳統(tǒng)機(jī)器學(xué)習(xí)方法或深度神經(jīng)網(wǎng)絡(luò)及其他算法對(duì)無(wú)人機(jī)、相機(jī)陷阱、車輛攝像頭等設(shè)備采集的視頻或圖像中的動(dòng)物進(jìn)行精確定位與分類。
發(fā)展迅猛的AI技術(shù)大力推動(dòng)目標(biāo)檢測(cè)模型的更新迭代,目標(biāo)檢測(cè)由最初基于傳統(tǒng)機(jī)器學(xué)習(xí)算法的檢測(cè)方法發(fā)展到基于深度學(xué)習(xí)的方法。動(dòng)物檢測(cè)方法跟隨AI發(fā)展的趨勢(shì),也逐漸由基于傳統(tǒng)機(jī)器學(xué)習(xí)方法的檢測(cè)方法過(guò)渡到深度學(xué)習(xí)檢測(cè)模型。順應(yīng)深度學(xué)習(xí)發(fā)展的熱潮,目標(biāo)檢測(cè)模型的更新層出不窮。兩階段的檢測(cè)模型如R-CNN[1]、Fast R-CNN[2]、Faster R-CNN[3]到單階段的檢測(cè)模型如YOLO系列、SSD[4]、RetinaNet[5]等都展示出優(yōu)越的檢測(cè)性能。這些卓越的模型最初用于檢測(cè)行人,以及車輛、房屋、樹(shù)木等物體,但也可以用于檢測(cè)難度更大的處于復(fù)雜場(chǎng)景中的動(dòng)物。大量研究已經(jīng)表明基于深度學(xué)習(xí)的檢測(cè)模型不僅可以檢測(cè)動(dòng)物,還能克服動(dòng)物檢測(cè)領(lǐng)域的挑戰(zhàn)并顯著提升動(dòng)物檢測(cè)的準(zhǔn)確率。
傳統(tǒng)的基于特征的檢測(cè)方法分為3步:①區(qū)域選擇。使用滑動(dòng)窗從左到右、從上到下對(duì)圖像進(jìn)行滑動(dòng),裁剪圖像。②特征提取。采用一些傳統(tǒng)機(jī)器學(xué)習(xí)算法如HOG、Haar、SIFT等來(lái)對(duì)圖像塊進(jìn)行特征提取。③分類器。如使用支持向量機(jī)等分類算法對(duì)目標(biāo)動(dòng)物進(jìn)行分類。雖然傳統(tǒng)的基于特征的目標(biāo)檢測(cè)方法因計(jì)算復(fù)雜度高、滑動(dòng)窗口冗余及復(fù)雜環(huán)境條件下魯棒性較低等固有缺陷導(dǎo)致其逐漸邊緣化,但基于深度學(xué)習(xí)的檢測(cè)模型受到計(jì)算機(jī)資源、檢測(cè)基礎(chǔ)理論、數(shù)據(jù)集等條件的限制,因此傳統(tǒng)檢測(cè)方法沒(méi)有銷聲匿跡,動(dòng)物檢測(cè)相關(guān)研究中仍有它的身影。
基于深度學(xué)習(xí)的檢測(cè)方法可以分為兩類:①兩階段檢測(cè)方法。將檢測(cè)中的定位與分類分開(kāi)操作,先生成區(qū)域建議再進(jìn)行分類。②單階段檢測(cè)方法。直接生成目標(biāo)動(dòng)物的位置坐標(biāo)和類別概率。兩階段的目標(biāo)檢測(cè)方法檢測(cè)精度高但速度慢,單階段的目標(biāo)檢測(cè)方法檢測(cè)速度快但精度不如兩階段的目標(biāo)檢測(cè)方法。在動(dòng)物檢測(cè)領(lǐng)域中,經(jīng)常根據(jù)不同場(chǎng)景與檢測(cè)需求選擇合適的檢測(cè)方法,兩階段與單階段的檢測(cè)方法都應(yīng)用廣泛。
隨著深度學(xué)習(xí)的蓬勃發(fā)展及眾多學(xué)者對(duì)目標(biāo)檢測(cè)模型的研究,基于深度學(xué)習(xí)的檢測(cè)方法已經(jīng)突破傳統(tǒng)目標(biāo)檢測(cè)算法帶來(lái)的瓶頸,并成功解決動(dòng)物檢測(cè)過(guò)程中遇到的許多挑戰(zhàn),成為當(dāng)下檢測(cè)算法的主流技術(shù)手段。與傳統(tǒng)目標(biāo)檢測(cè)方法相比,基于深度學(xué)習(xí)的檢測(cè)方法可以同時(shí)學(xué)習(xí)圖像的低級(jí)特征和高級(jí)特征,且學(xué)到的特征比傳統(tǒng)方法學(xué)到的更具有代表性。基于深度學(xué)習(xí)的檢測(cè)方法在一些問(wèn)題與挑戰(zhàn)的處理上具有良好的潛力,例如:①解決動(dòng)物與車輛在公路上發(fā)生碰撞的問(wèn)題。②解決野生動(dòng)物入侵人類居住區(qū)域的問(wèn)題。③防止偷獵野生動(dòng)物。④實(shí)現(xiàn)復(fù)雜自然場(chǎng)景下的動(dòng)物檢測(cè)。搖擺的樹(shù)、混濁的水、暴風(fēng)暴雨天氣等復(fù)雜的自然環(huán)境,以及動(dòng)物自身狀態(tài)多變嚴(yán)重影響檢測(cè)性能,而使用基于深度學(xué)習(xí)的模型可以有效改善這一困境。如2021年研究者針對(duì)復(fù)雜的水下環(huán)境[6],使用YOLOv4準(zhǔn)確檢測(cè)出處于渾濁水質(zhì)及低亮度環(huán)境中的水下動(dòng)物,其平均準(zhǔn)確率達(dá)到97.96% [7]。
除了深度學(xué)習(xí)模型以外,動(dòng)物檢測(cè)中還有一些使用運(yùn)動(dòng)目標(biāo)檢測(cè)算法的研究。常見(jiàn)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法有背景差分法(也稱背景減法)、幀間差分法、光流法等,在動(dòng)物檢測(cè)領(lǐng)域較為常見(jiàn)的是背景減法。如2019年有研究者以區(qū)分人與動(dòng)物為目的,采用背景減法檢測(cè)和分類運(yùn)動(dòng)目標(biāo),將人與動(dòng)物快速檢測(cè)出來(lái)[8]。
總而言之,動(dòng)物檢測(cè)研究涉及的數(shù)據(jù)主要來(lái)源于常規(guī)設(shè)備采集、無(wú)人機(jī)拍攝和相機(jī)陷阱捕獲。相比于傳統(tǒng)的目標(biāo)檢測(cè)算法,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法的使用率更高,大部分相關(guān)研究都是使用基于深度學(xué)習(xí)的方法來(lái)進(jìn)行目標(biāo)動(dòng)物檢測(cè)。而在基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法檢測(cè)動(dòng)物的研究中,盡管兩階段的Faster R-CNN應(yīng)用較為廣泛[3],但單階段的目標(biāo)檢測(cè)方法比兩階段的目標(biāo)檢測(cè)方法更受歡迎,尤其是YOLO與后來(lái)出現(xiàn)的RetinaNet[5]。除此以外,針對(duì)運(yùn)動(dòng)動(dòng)物目標(biāo)檢測(cè),背景減法在研究中出現(xiàn)的頻率較高。背景減法是將圖像序列中的當(dāng)前幀與已經(jīng)確定好或?qū)崟r(shí)獲取的背景參考模型(背景圖像)做減法,找不同,計(jì)算出與背景圖像像素差異超過(guò)一定閾值的區(qū)域,將其作為運(yùn)動(dòng)區(qū)域,從而來(lái)確定運(yùn)動(dòng)物體位置、輪廓、大小等特征。將背景減法與其他運(yùn)動(dòng)目標(biāo)檢測(cè)算法相結(jié)合也是一個(gè)提高檢測(cè)性能的發(fā)展方向。高性能的檢測(cè)模型不僅有助于動(dòng)物檢測(cè)的研究,同時(shí)也能推動(dòng)其他動(dòng)物智能監(jiān)測(cè)任務(wù)前行。
在動(dòng)物智能識(shí)別以及其他動(dòng)物智能監(jiān)測(cè)中,動(dòng)物追蹤發(fā)揮著極其重要的作用,有效的追蹤技術(shù)能夠減少科研人員在動(dòng)物智能監(jiān)測(cè)相關(guān)任務(wù)中消耗的時(shí)間與精力。動(dòng)物追蹤指使用一些追蹤算法如卡爾曼濾波算法或深度學(xué)習(xí)網(wǎng)絡(luò)給出圖像序列、視頻中的單個(gè)或多個(gè)目標(biāo)動(dòng)物的身份標(biāo)簽或者運(yùn)動(dòng)軌跡,并使得目標(biāo)動(dòng)物的身份標(biāo)簽隨著時(shí)間序列的更新而保持不變。
在視覺(jué)領(lǐng)域中,目標(biāo)追蹤技術(shù)有很多,如GPS追蹤、攝像機(jī)陷阱追蹤、車輛追蹤、無(wú)線電追蹤、衛(wèi)星追蹤、射頻識(shí)別等,它們各有優(yōu)缺點(diǎn)。但這些侵入性的方法并不適用于動(dòng)物追蹤領(lǐng)域,因?yàn)樗鼈儠?huì)給動(dòng)物帶來(lái)痛苦和壓力,損害動(dòng)物的健康。而基于計(jì)算機(jī)視覺(jué)的追蹤方法是更好的選擇,這些方法具有對(duì)動(dòng)物友好、易維護(hù)、成本低的優(yōu)點(diǎn)。
目前,在多數(shù)動(dòng)物追蹤的相關(guān)研究中,使用傳統(tǒng)機(jī)器學(xué)習(xí)方法如卡爾曼濾波算法,少數(shù)研究使用端到端的基于深度學(xué)習(xí)的追蹤網(wǎng)絡(luò)。盡管目標(biāo)追蹤在深度學(xué)習(xí)發(fā)展的浪潮下日趨成熟,但由于其研究的出發(fā)點(diǎn)不是針對(duì)動(dòng)物,所以這些經(jīng)典的追蹤模型很難直接應(yīng)用于動(dòng)物追蹤領(lǐng)域。因此,早已具備完整成熟體系的傳統(tǒng)追蹤算法則被廣泛用于動(dòng)物追蹤任務(wù)中。這些算法大多是基于檢測(cè)的追蹤算法,即先檢測(cè)圖像或視頻幀中的目標(biāo)動(dòng)物,然后在此基礎(chǔ)上使用一些追蹤算法追蹤這些動(dòng)物?;跈z測(cè)的追蹤能夠簡(jiǎn)化追蹤過(guò)程,自深度學(xué)習(xí)出現(xiàn)以來(lái),目標(biāo)檢測(cè)比目標(biāo)追蹤受到學(xué)者們更多的關(guān)注,相對(duì)而言目標(biāo)檢測(cè)的發(fā)展更為成熟。并且在動(dòng)物研究領(lǐng)域中,大量動(dòng)物智能監(jiān)測(cè)的研究是關(guān)于動(dòng)物檢測(cè)或基于動(dòng)物檢測(cè)的,因此在動(dòng)物追蹤中結(jié)合目標(biāo)檢測(cè)的模型具有很大的發(fā)展前景。
盡管使用基于傳統(tǒng)機(jī)器學(xué)習(xí)的追蹤算法可以在一定程度上解決動(dòng)物追蹤任務(wù)中遇到的困難,但是在面臨由于遮擋出現(xiàn)動(dòng)物身份切換、大量動(dòng)物群體的頻繁移動(dòng)、動(dòng)物移動(dòng)速度很快并改變行動(dòng)方向、水下動(dòng)物追蹤遇到漂浮物遮擋及水質(zhì)渾濁等挑戰(zhàn)時(shí),仍具有一定的局限性。在追蹤階段,直接應(yīng)用深度學(xué)習(xí)方法會(huì)使模型在面對(duì)這些挑戰(zhàn)時(shí)性能更上一層樓。
2017年研究者使用自己搭建的CNN跟蹤斑馬魚[9]。由于當(dāng)時(shí)的追蹤技術(shù)在追蹤大量目標(biāo)時(shí),無(wú)法在發(fā)生嚴(yán)重遮擋后長(zhǎng)期保持動(dòng)物身份的正確,因此開(kāi)發(fā)出一款名為CNNTracker的追蹤軟件。CNNTracker首先從每一幀中提取每條魚的頭部特征圖,然后利用兩幀中相同頭部點(diǎn)之間的位移和同一條魚的頭部特征圖形成連續(xù)兩幀之間的頭部點(diǎn)對(duì)。通過(guò)連接相應(yīng)的頭點(diǎn)對(duì),可以得到魚的軌跡片段。根據(jù)片段終點(diǎn)和起點(diǎn)之間的位移,以及終點(diǎn)和起點(diǎn)之間的幀差生成用于訓(xùn)練的初始軌跡。有些片段可能在很短的時(shí)間跨度內(nèi)共享相同的時(shí)間戳,如果這些片段的數(shù)量與圖像序列中魚的總數(shù)相同,則可以將這些片段與初始軌跡融合,并作為CNN訓(xùn)練的初始訓(xùn)練樣本。通過(guò)使用迭代CNN訓(xùn)練方法來(lái)優(yōu)化CNN的精度,將軌跡的每一段輸入最終訓(xùn)練的CNN中以確定它屬于哪個(gè)身份。這些片段根據(jù)其分配的身份進(jìn)行連接,形成時(shí)間順序的軌跡。最后,軟件檢測(cè)并修正軌跡錯(cuò)誤,填補(bǔ)軌跡空白,并評(píng)估軌跡的可信度。整個(gè)過(guò)程是完全自動(dòng)的,不受誤差傳播的影響,能為任何復(fù)雜的交叉給出可靠的正確標(biāo)識(shí),以及在嚴(yán)重遮擋下長(zhǎng)時(shí)間保持動(dòng)物的身份。
總體來(lái)說(shuō),基于深度學(xué)習(xí)的追蹤方法具有更強(qiáng)大的核心競(jìng)爭(zhēng)力,不論是專業(yè)的追蹤模型還是其他類型的深度學(xué)習(xí)網(wǎng)絡(luò),在面對(duì)動(dòng)物追蹤任務(wù)中涉及的挑戰(zhàn)時(shí)都具有優(yōu)秀的潛力。
動(dòng)物智能識(shí)別(身份識(shí)別)是指利用非生物特征或生物特征識(shí)別方法對(duì)照相機(jī)、無(wú)人機(jī)、深度相機(jī)、紅外相機(jī)等設(shè)備拍攝的圖像或視頻中的動(dòng)物進(jìn)行識(shí)別,即給出該動(dòng)物的身份標(biāo)簽。隨著計(jì)算機(jī)視覺(jué)技術(shù)的快速發(fā)展,動(dòng)物智能識(shí)別領(lǐng)域的相關(guān)研究也跨入新的高度。諸如耳標(biāo)、文身、植入芯片(如可注射應(yīng)答器)、射頻識(shí)別及油漆標(biāo)記等非生物特征識(shí)別方法,因具有侵入性、對(duì)動(dòng)物不友好、不易維護(hù)、易丟失、耗時(shí)耗力等缺點(diǎn),逐漸被發(fā)展成熟的計(jì)算機(jī)視覺(jué)技術(shù)所代替。動(dòng)物智能識(shí)別方法中蘊(yùn)含的計(jì)算機(jī)視覺(jué)技術(shù)是指基于生物特征的識(shí)別方法,主要表現(xiàn)為傳統(tǒng)機(jī)器學(xué)習(xí)方法與深度學(xué)習(xí)方法。
具有非侵入性、成本低、易維護(hù)等優(yōu)點(diǎn)的生物特征識(shí)別方法不僅深受廣大學(xué)者的歡迎,而且對(duì)動(dòng)物十分友好。最初的生物特征識(shí)別方法以傳統(tǒng)機(jī)器學(xué)習(xí)算法為代表。使用傳統(tǒng)機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)動(dòng)物智能識(shí)別主要包括4個(gè)階段:數(shù)據(jù)預(yù)處理、特征提取、識(shí)別分類(特征匹配)和評(píng)估?;趥鹘y(tǒng)機(jī)器學(xué)習(xí)方法的動(dòng)物識(shí)別技術(shù)常用于家畜識(shí)別,也可用于野生保護(hù)動(dòng)物的識(shí)別。如2017年研究者設(shè)計(jì)出一個(gè)狐猴識(shí)別系統(tǒng)LemurFaceID,首次使用面部特征識(shí)別狐猴[10]。LemurFaceID的實(shí)質(zhì)是通過(guò)LBP、MLBP和LDA相結(jié)合的方式實(shí)現(xiàn)特征提取與特征匹配,其準(zhǔn)確率高達(dá)98.7%±1.81%。
發(fā)展逐漸成熟的深度視覺(jué)技術(shù)給動(dòng)物智能識(shí)別研究帶來(lái)新機(jī)遇,解決了許多傳統(tǒng)機(jī)器學(xué)習(xí)方法不能處理的識(shí)別難題,生物特征識(shí)別方法也逐漸從傳統(tǒng)機(jī)器學(xué)習(xí)方法轉(zhuǎn)變?yōu)樯疃葘W(xué)習(xí)方法。不像傳統(tǒng)機(jī)器學(xué)習(xí)方法需要手動(dòng)提取特征,深度學(xué)習(xí)模型可以通過(guò)多層神經(jīng)元連接來(lái)實(shí)現(xiàn)自動(dòng)特征提取和表征學(xué)習(xí)。具體來(lái)說(shuō),深度學(xué)習(xí)模型通過(guò)多層神經(jīng)元連接來(lái)逐層學(xué)習(xí)圖像的特征,每一層都可以看作是對(duì)原始圖像的不同級(jí)別的抽象表示。初始層可能捕捉到像素級(jí)別的細(xì)節(jié),而后續(xù)層會(huì)逐漸學(xué)習(xí)更高級(jí)別、更抽象的特征。例如, CNN 中的卷積層使用卷積核來(lái)檢測(cè)圖像中的特定特征如邊緣或顏色斑塊。通過(guò)卷積操作,模型能夠捕捉到局部的空間關(guān)系。在訓(xùn)練過(guò)程中,為更好地區(qū)分不同類別的目標(biāo)并使得模型能根據(jù)不同的數(shù)據(jù)自動(dòng)提取和優(yōu)化特征,深度模型通過(guò)反向傳播算法調(diào)整權(quán)重以最小化預(yù)測(cè)誤差。
基于深度學(xué)習(xí)的動(dòng)物智能識(shí)別方法的基本流程是將含有目標(biāo)動(dòng)物的圖像或視頻作為輸入,送入預(yù)先訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)模型中,最后輸出目標(biāo)動(dòng)物的身份。一些研究在基本流程的基礎(chǔ)上進(jìn)行擴(kuò)展,常見(jiàn)的拓展方式有3種:①將識(shí)別與檢測(cè)結(jié)合起來(lái)形成一個(gè)自動(dòng)化的識(shí)別體系(兩階段模型);②應(yīng)用注意力機(jī)制或其他算法模塊;③設(shè)計(jì)或更換模型的損失函數(shù)。
基于深度學(xué)習(xí)的動(dòng)物智能識(shí)別方法形式多樣,應(yīng)用較為靈活。不論是家畜還是野生動(dòng)物,不論是提取動(dòng)物面部特征還是鼻印特征抑或皮毛特征,不論是視頻數(shù)據(jù)還是圖像數(shù)據(jù),不論是常規(guī)設(shè)備采集還是諸如無(wú)人機(jī)、監(jiān)控?cái)z像頭采集的動(dòng)物數(shù)據(jù),深度學(xué)習(xí)方法都能高效、精確地識(shí)別目標(biāo)動(dòng)物的身份。
挑戰(zhàn)
⑴山地林區(qū)野生動(dòng)物監(jiān)測(cè):走不到、看不全、看不清、難辨別。
目前技術(shù)主要是利用探測(cè)器網(wǎng)絡(luò)和AI相結(jié)合,逐步實(shí)現(xiàn)了人工監(jiān)測(cè)到半自動(dòng)化監(jiān)測(cè),也達(dá)到了智能化監(jiān)測(cè)。但現(xiàn)階段,數(shù)據(jù)探測(cè)、采集、處理及智能監(jiān)測(cè)等都面臨著困境:如何在探測(cè)層面實(shí)現(xiàn)大尺度野生動(dòng)物監(jiān)測(cè),解決走不到、看不全的問(wèn)題;如何建立自動(dòng)化數(shù)據(jù)采集體系,實(shí)現(xiàn)多源數(shù)據(jù)智能化處理和智能識(shí)別,解決看不清、難辨別的問(wèn)題。
⑵水生動(dòng)物智能監(jiān)測(cè):水下環(huán)境復(fù)雜多變,技術(shù)空白多。
水生態(tài)(水環(huán)境和魚類資源)問(wèn)題突出,智慧監(jiān)測(cè)與評(píng)估是水生態(tài)保護(hù)的必要手段和未來(lái)發(fā)展方向。國(guó)內(nèi)智能監(jiān)測(cè)技術(shù)發(fā)展緩慢,尤其是魚類智能化監(jiān)測(cè)還處于技術(shù)空白階段,國(guó)外設(shè)備使用不夠便捷,且存在跨域不可用的問(wèn)題,亟須研究相關(guān)設(shè)備及先進(jìn)技術(shù)來(lái)解決水下生物保護(hù)行業(yè)獲取清晰圖像、機(jī)器魚引導(dǎo)、仿生魚設(shè)計(jì)等問(wèn)題。
⑶智能識(shí)別與監(jiān)測(cè)技術(shù):初始數(shù)據(jù)庫(kù)創(chuàng)建難、環(huán)境不受控。
在數(shù)據(jù)采集工作過(guò)程中,野外環(huán)境變化不受控,如刮風(fēng)、暴雨、暴雪天氣會(huì)影響研究人員的觀測(cè)以及動(dòng)物的蹤跡。動(dòng)物行為動(dòng)作變化多樣以及動(dòng)物不配合等因素也會(huì)導(dǎo)致數(shù)據(jù)很難采集。此外,一些野生動(dòng)物的生存環(huán)境人類無(wú)法到達(dá),借助無(wú)人機(jī)等設(shè)備會(huì)驚擾動(dòng)物,也不便于采集數(shù)據(jù)。
未來(lái)
⑴野生動(dòng)物智能監(jiān)測(cè)未來(lái)發(fā)展方向:探索“數(shù)據(jù)+機(jī)理”驅(qū)動(dòng)的智能監(jiān)測(cè)技術(shù)。
⑵智能科技未來(lái)發(fā)展方向是人機(jī)協(xié)同、人機(jī)共融。
⑶生態(tài)監(jiān)測(cè)和新一代信息學(xué)科交融點(diǎn)應(yīng)該更多考慮在技術(shù)上的共性。
⑷落實(shí)產(chǎn)品化:研究成果與產(chǎn)品落地應(yīng)用需要市場(chǎng)驅(qū)動(dòng)和利益權(quán)衡?,F(xiàn)階段要在技術(shù)創(chuàng)新的基礎(chǔ)上形成一個(gè)完整的便于應(yīng)用的裝置,需要工程化設(shè)計(jì)和產(chǎn)業(yè)化推廣。建議組建創(chuàng)新性科技公司,或者聯(lián)合創(chuàng)新性公司開(kāi)展技術(shù)產(chǎn)業(yè)化,實(shí)現(xiàn)技術(shù)落地。
未來(lái)野生動(dòng)物智能監(jiān)測(cè)應(yīng)聚焦于數(shù)據(jù)與機(jī)理相結(jié)合的技術(shù),促進(jìn)人機(jī)共融與協(xié)同發(fā)展,并通過(guò)市場(chǎng)驅(qū)動(dòng)和產(chǎn)業(yè)化推廣,實(shí)現(xiàn)技術(shù)產(chǎn)品化和落地應(yīng)用。
[1]Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014: 580-587.
[2]Girshick R. Fast R-CNN//Proceedings of the IEEE International Conference on Computer Vision. 2015: 1440-1448.
[3]Ren S Q, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks. Advances in Neural Information Processing Systems, 2015, 28.
[4]Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector//Computer Vision–ECCV 2016: 14th European Conference. Springer, 2016: 21-37.
[5]Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection//Proceedings of the IEEE International Conference on Computer Vision. 2017: 2980-2988.
[6]Rosli M S A B, Isa I S, Maruzuki M I F, et al. Underwater animal detection using YOLOv4 //2021 11th IEEE International Conference on Control System, Computing and Engineering. IEEE, 2021: 158-163.
[7]Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection. arXiv preprint arXiv: 2004. 10934, 2020.
[8]Yousif H, Yuan J, Kays R, et al. Animal scanner: Software for classifying humans, animals, and empty frames in camera trap images. Ecology and Evolution, 2019, 9(4): 1578-1589.
[9]Xu Z P, Cheng X E. Zebrafish tracking using convolutional neural networks. Scientific Reports, 2017, 7(1): 42815.
[10]Crouse D, Jacobs R L, Richardson Z, et al. LemurFaceID: A face recognition system to facilitate individual identification of lemurs. Bmc Zoology, 2017, 2(1): 1-14.
關(guān)鍵詞:智能監(jiān)測(cè) 計(jì)算機(jī)視覺(jué) 深度學(xué)習(xí) 野生動(dòng)物保護(hù) ■