姚侃 徐鵬 張廣群 汪杭軍
摘 要:近年來,在自動化識別昆蟲技術中,基于圖像的昆蟲分類識別研究逐漸發(fā)展起來。本文在查閱了近20年來具有代表性文章的基礎上,對基于圖像的昆蟲分類識別研究的進展進行綜述,介紹了圖像獲取、圖像處理、分類方法三方面,并分析了現(xiàn)有方法的優(yōu)缺點。最后展望了基于圖像的昆蟲分類識別研究的研究趨勢和發(fā)展方向。
關鍵詞: 圖像分割; 昆蟲分類; 特征提取; 分類識別
文章編號: 2095-2163(2019)03-0029-07?中圖分類號: TP391.41?文獻標志碼: A
0?引?言
昆蟲是動物界中種類最多,數(shù)量最大,分布最廣,適應能力甚強,與人類關系極為密切的一類動物。迄今發(fā)現(xiàn)的昆蟲有120多萬種,占整個動物界種類的80% 左右[1]。更為重要的是,現(xiàn)在大部分農(nóng)業(yè)和林業(yè)上的害蟲屬于昆蟲,昆蟲識別是昆蟲研究和害蟲防治的基礎。傳統(tǒng)的昆蟲識別是通過分類學專家或具有昆蟲分類知識的技術人員對昆蟲進行種類的鑒定,但現(xiàn)有的分類學專家和掌握分類的技術人員無論在分布、或者在數(shù)目上均難于滿足時下正呈現(xiàn)擴大傾向的各類實際場景需求。近年來,信息技術的快速發(fā)展,以計算機代替人腦進行判別的方法成為了可能。以計算機為基礎的自動識別方法,可以采用最常見的數(shù)據(jù)形式—圖像。采集的昆蟲圖像經(jīng)過系統(tǒng)處理,進一步由圖像分類系統(tǒng)進行分類。采集圖像的方法不同,采獲的圖像也存在差別,不同的圖像需要不同的圖像處理和分類方法。因此,本次綜述擬分如下3點來展開分析:圖像獲取、圖像處理和分類方法。其中,圖像獲取包括圖像獲取的環(huán)境和設備,以及圖像的內(nèi)容(見本文第1節(jié))。圖像處理包括從圖像中獲取感興趣的區(qū)域,以及對分類有用的特征信息(見本文第2節(jié))。分類方法中,分類、即是基于提取的信息進行識別的實際步驟,本次研究則分傳統(tǒng)分類方法和深度學習方法兩方面進行綜述探討(見本文第3節(jié))。圖1即展示了本次研究中各主題要點間的相互關系。
1?圖像獲取
圖像獲取是昆蟲分類研究的基礎,圖像的獲取方法影響圖像的處理方法以及識別分類的成功率。本節(jié)將討論影響圖像效果的圖像獲取的環(huán)境和設備,以及圖像的內(nèi)容。
1.1?圖像獲取的環(huán)境和設備
圖像獲取的環(huán)境多種多樣,大體上本文將其分為2種,即:實驗室環(huán)境和自然環(huán)境。相應地,實驗室環(huán)境主要是采集昆蟲樣本后在實驗室中進行圖像采集,而自然環(huán)境主要是直接在自然環(huán)境下(比如:農(nóng)田、樹林、湖泊、誘蟲裝置等)進行圖像采集。
1.1.1?實驗室環(huán)境
研究指出,實驗室環(huán)境也是未來昆蟲識別研究的主要環(huán)境。實驗室環(huán)境背景比較單一,有助于圖像處理。且可以對昆蟲的姿態(tài)詳加規(guī)定,便于后續(xù)的算法設計和系統(tǒng)開發(fā)。但實驗室環(huán)境要求比較高,比如:特定的裝置、光照設備等,研究人員工作也相對繁重,比如:昆蟲姿態(tài)的設置、圖像采集設備的組裝等,且實驗室環(huán)境下的昆蟲一般都是在室外捕捉后帶至實驗室進行圖像采集。采集方式可綜合表述如下。
(1)相機拍攝。在實驗室環(huán)境下拍攝的昆蟲圖像大都存在陰影,為了消除陰影,Yang等人[2]將一根透明塑料棒固定在白色泡沫板上,昆蟲樣本插在塑料棒遠端,如圖2所示。Zayas等人[3]采用被儲糧害蟲所污染的小麥,其中包含小麥籽粒、儲糧害蟲和草籽。將樣品放置在一個箱子中,帶有背光照明,在樣品的上方放置了一個帶有白色啞光漆的圓屋頂,相機則置于圓頂上面,如圖3所示。分析可知,消除陰影即旨在減少拍攝過程中外界因素對昆蟲圖像質(zhì)量的影響,而為了獲取更多的昆蟲圖像特征,Yao等人[4]和呂軍等人[5]把昆蟲樣本放置在一個透明玻璃板上,上下均架有一部相機,獲得昆蟲頂部和底部的照片。針對不同特征數(shù)據(jù)的采集,所需要的拍攝方法也有不同。楊紅珍等人[6]建立了一套昆蟲圖像獲取的標準。在獲取昆蟲形態(tài)特征數(shù)據(jù)時,圖像采集主要采用標本底下加置透射光的方法;在獲取昆蟲的顏色或紋理特征數(shù)據(jù)時,應采用標本上方加置光源的方法,依靠反射光來獲取標本正面的顏色與紋理信息。還有研究人員對在實驗室環(huán)境中模擬出自然環(huán)境進行了研究,冼鼎翔等人[7]在封閉的恒定環(huán)境下,把燈誘昆蟲自然跌落在白色背景平臺上,盡可能使蟲體不粘連,模擬出一個在燈誘狀態(tài)下的昆蟲形態(tài),獲取相對真實的燈誘狀態(tài)下的昆蟲圖像。而邱道尹等人[8]通過在傳送帶上安裝攝像機鏡頭進行圖像采集,獲取相對真實的在傳送帶上混有昆蟲的圖片。
(2)相機通過顯微鏡拍攝。直接通過相機拍攝昆蟲,有些特征信息不是很明顯。為了拍攝到需要的特征信息,Weeks等人[9]、Arbuckle等人[10]、Favre等人[11]通過顯微鏡拍攝昆蟲某些細節(jié)或特殊部分,比如:翅膀等。Wen等人[12-13]將昆蟲冷凍20 min,而后隨機放置在一個白色平板上,從而獲得不同的昆蟲方向和2種姿勢下(俯視圖和側視圖)的圖像。Larios等人[14]設計了一個復雜的圖像采集裝置,昆蟲通過水流進入拍攝區(qū)域,然后形成漩渦使昆蟲原地旋轉(zhuǎn),相機拍攝的每一張照片都通過一組鏡子以90°的角度得到2幅圖像。Sarpola等人[15]改進了Larios等人[14]的裝置,采用2個攝像頭來捕捉不同方向上的圖像,其2個攝像頭角度為90°。
1.1.2?自然環(huán)境
自然環(huán)境的圖像采集沒有固定的采集設備,可以由隨身攜帶的手機、也可以采用數(shù)碼相機進行采集,且以自然光作為主要光源。但自然環(huán)境的背景比較復雜,采集后圖像處理任務要更加繁瑣。且采集圖像時昆蟲的姿態(tài)比較多樣化,增加了后續(xù)的算法設計和系統(tǒng)開發(fā)的難度。Yalcin等人[16]采集通過信息素陷阱捕獲的昆蟲,其背景是信息素陷阱的粘墊。Solissánchez等人[17]、楊信廷等人[18]采集圖像的來源是黃色的粘性陷阱,如圖4所示。為了采集更加真實的自然環(huán)境昆蟲圖像,Xie等人[19]、張永玲等人[20]直接在野外拍攝昆蟲,其背景存在植物,即如圖5所示。陳月華等人[21]為了更好地分割圖像,采集的圖像是一種帶有害蟲的葉片圖像,另一種是純?nèi)~片的圖像。
1.2?圖像內(nèi)容
采集圖像的內(nèi)容會關系到后期圖像處理的方法和分類的方法。其內(nèi)容大致可分為昆蟲要素和背景要素。一般來說,昆蟲要素分為昆蟲的數(shù)量多少和昆蟲的種類多少。現(xiàn)在大部分的識別系統(tǒng)是以一張圖像一只昆蟲為基礎。但也有以一張圖像多種昆蟲進行識別。文獻[4-5,7,16-18,21-23]采集的圖像就是多種昆蟲集合在一張圖像上,但其中的幾種昆蟲個體之間是不黏連的,而更為復雜的昆蟲重疊圖像對識別的影響也會更大,但這方面的研究到現(xiàn)在為止卻依然少見。背景要素可分為簡單背景和復雜背景?,F(xiàn)在大多數(shù)采用簡單背景,即一種顏色作為背景,例如:白色泡沫板[2]、白色背景平臺[7]、白色平板[12-13]、透明玻璃板[4-5]等。單色作為背景的好處是便于分割圖像。現(xiàn)在,復雜背景的研究也已引起了研究者的濃厚興趣,例如:植物葉片[19-21]、其他干擾物[3,8]等。復雜背景大多是存在于自然環(huán)境中采集的圖像里。
2?圖像處理
圖像處理是圖像能否應用于識別的關鍵步驟,對最終的圖像識別成功率也將產(chǎn)生決定性作用。本節(jié)研究主要立足于2個方面,即:圖像分割(把感興趣的昆蟲從背景中分離出來)和特征提取(提取昆蟲特征用于識別)。對此可做解析詳述如下。
2.1?圖像分割
圖像分割是將圖像分割成幾個獨特區(qū)域的過程,即從圖像中分割出感興趣的目標區(qū)域。但在某些情況下,圖像又不需要進行分割[19,24-25]。這里將分別研究手工分割方法和自動分割方法,具體如下。
2.1.1?手工分割方法
手工分割方法是由用戶自己來選擇感興趣的目標區(qū)域,文獻[26-29]設計的系統(tǒng),會向用戶顯示一個界面,可以讓用戶通過該界面來繪制感興趣區(qū)域的輪廓。手工分割相對精確,但在很多時候也是一個耗時繁重的工作。
2.1.2?自動分割方法
考慮到手工分割方法費時費力,因此大部分分割方法均為自動分割方法。依賴于閾值的分割方法在處理昆蟲圖像時得到了最多應用。閾值可以由系統(tǒng)設定,也可以由用戶輸入。還有一種閾值的產(chǎn)生可以視其為是一個聚類問題,其中必須有2個或更多個區(qū)域[12,30-31]。Wen等人[12]、Faithpraise等人[30]使用k-means算法生成閾值。Mayo等人[31]使用迭代算法Isodata來生成閾值。除了閾值分割,還有其它的分割方法能夠用于昆蟲圖像處理,Yalcin等人[16]使用了活動輪廓(Snake)模型,以簡單的閾值掩碼作為種子點獲得更精確的分割效果。Yao等人[4]使用背景分割法來分割昆蟲圖像。但是自動化后的圖像分割技術,有時候的分割并不齊全,還留有背景,或者分割的圖像邊緣也不完整,影響特征提取。圖像自動分割技術尚有可觀的待發(fā)展空間。
2.2?特征提取
特征提取是圖像識別的關鍵點。特征是一個事物與另一個事物不同的地方,是用來區(qū)分2個事物的評判標準。研究可知,特征選擇對圖像識別成功率也將帶來較大影響。在這里,研究參考文獻[32]的特征分類標準(見圖6),將特征分為3類,即:固定特征、中級特征和分級訓練特征。對每類特征的研究分析可展開如下論述。
2.2.1?固定特征
固定特征是能夠直接由特征提取器提取得到的,不需要再進一步訓練的特征。以全局特征來進行昆蟲識別是比較常見的識別方法。Arbuckle等人[10]以蜜蜂翅膀上的靜脈以及其所包圍的細胞為基礎,生成數(shù)字特征向量。該文獻認為翅膀上的靜脈幾乎都是指紋。Tofilski等人[33]也以翅膀靜脈為基礎,提取靜脈坐標來生成翅膀圖像,以此來作為特征。而Yang等人[2]用橢圓傅立葉系數(shù)重構翅膀輪廓,以翅膀輪廓作為特征進行識別。但以上方法只能用于特定昆蟲,沒有翅膀或甲殼類的昆蟲將無法使用。Gassoumi等人[23]、Leow等人[34]從感興趣區(qū)域的二進制圖像的形狀描述符中提取特征,測量面積、偏心率、長軸長度、短軸長度、周長、直徑、長度、方向等。這些幾何特征還是比較直觀的。但是同時也會受昆蟲姿態(tài)或拍攝角度等因素的限制,從而影響精確度。因此,Wang等人[28]舍棄了面積、周長、偏心度等參數(shù),而是采用自己設定的一些參數(shù),比如:頭長度跟身體長度的比例等等。為了提高識別率,Hu矩(Hu)、橢圓傅立葉描述符(EFD)、徑向距離函數(shù)(RDF)和本地二進制模式(LBP)這4個形狀描述符已開始應用至各類研究中。Yalcin等人[16]使用了Hu矩(Hu)、橢圓傅立葉描述符(EFD)、徑向距離函數(shù)(RDF)和本地二進制模式(LBP)提取特征,然后通過加權多數(shù)者,將基本特征的結果融合在一起,以獲得后期的行為決策。單一特征在識別過程中抗干擾能力較差,很多研究人員開始應用多種類型特征來提高抗干擾能力。Wang 等人[29]在CBIR的基礎上增加了一系列的形狀、顏色和紋理特征,使蝴蝶圖像識別達到了科的分類尺度。Yao等人[4]提取了每一種昆蟲的顏色、形狀和紋理特征,來描述整個昆蟲。還有一些研究人員選用局部特征進行昆蟲識別。Mayo等人[31]對圖像進行預處理以檢測昆蟲的位置,然后測量全局顏色特征,最后,用補丁提取局部顏色特征。而文獻[13-15,17,35-38]又提取了著名的SIFT(尺度不變特征變換)特征。Solissánchez等人[17]、Lytle等人[37]則提取SIFT特征直接匹配配對對象,以選票多少的形式來估計2幅圖像的相似性。
2.2.2?中層特征
中層特征是由特征提取器提取的固定特征,再通過程序進行訓練得到的特征。Weeks等人[9]應用數(shù)字自動識別系統(tǒng)(DAISI),通過采用主成分分析(PCA)方法獲取幾乎所有圖像信息的圖像特征。但PCA特征更適合物種之間識別。為了實現(xiàn)種內(nèi)的識別,Xie等人[19]繼而開發(fā)了名為物種自動化識別(SPIDA)的在線系統(tǒng),利用Daubechies 4函數(shù)從小波變換的分量子集中使用蜘蛛細節(jié)的圖像構建SPIDA的特征向量,用以識別不同的蜘蛛。而對局部特征的訓練,還使分類精度得到更為顯著的提升。文獻[13-15]采用了視覺詞典法。在該方法中,從圖像中提取局部特征數(shù)據(jù),并通過描述符的特征向量來表示局部特征數(shù)據(jù)。將訓練集的所有描述符聚類來創(chuàng)建視覺詞典。然后,使用該字典將新圖像的區(qū)域描述符映射成單詞,并將圖像的特征袋映射到用于構造圖像表示的一個詞典中。這些詞累積成直方圖,再將這些直方圖串聯(lián)起來,生成最終的特征向量。由于昆蟲圖像的不同特征對昆蟲分類的影響不同,文獻[19-20,35-36]利用先進的多任務稀疏表示和多核學習(MKL)技術開發(fā)了昆蟲識別系統(tǒng),多任務稀疏表示技術可以結合昆蟲的多個特征來提高昆蟲的分類精度。
2.2.3?分級訓練特征
分級訓練特征是由特征提取器提取的固定特征,經(jīng)系統(tǒng)訓練得到中級特征,再通過系統(tǒng)訓練得到分級訓練特征,分級訓練特征有很多中間表示。Wen等人[39]給出了一系列幾何、形狀、不變矩、紋理和顏色特征作為堆疊去噪自動編碼器(SDAE)的輸入。疊加去噪的自動編碼器(SDAE)是由多個自動編碼器(DAE)構成的一個深層網(wǎng)絡,相對于一般的自動編碼器(DAE)架構,SDAE架構將噪聲添加到訓練數(shù)據(jù)中,這意味著SDAE學習將會從真實數(shù)據(jù)中分離噪聲。
3?分類方法
圖像分類是圖像識別的最終步驟。傳統(tǒng)的圖像分類方法有很多,例如:ANN、SVM等,然而隨著計算機技術的發(fā)展,深度學習受到多方關注與重視,其在圖像識別中的應用研究成果也在增加。為此,本文將從2個方面給出探討論述如下。
3.1?傳統(tǒng)分類方法
3.1.1?單個分類器
現(xiàn)在常用的傳統(tǒng)單個分類器有決策樹、支持向量機(SVM)、人工神經(jīng)網(wǎng)絡(ANN),但也有很多其它的分類器,例如:ABIS(蜜蜂自動識別系統(tǒng))[10,27]、基于CBIR體系結構的識別系統(tǒng)[29]、基于核級特征融合的MKL方案[19]、LOSS V2算法[30]等。本節(jié)則擬就決策樹、支持向量機(SVM)、人工神經(jīng)網(wǎng)絡(ANN)這3種分類器的設計工作做出研究概論如下。
(1)決策樹。決策樹[40-41]就是一個類似流程圖的樹型結構, 其中樹的每個內(nèi)部節(jié)點代表對一個屬性的測試, 其分支就代表測試的結果, 而樹的每個葉子節(jié)點就代表一個類別, 樹的最高層節(jié)點就是根結點, 是整個決策樹的開始。Mayo等人[31]、Silva等人[42]使用C4.5算法生成了經(jīng)典決策樹。Larios等人[14]使用Logistic模型樹,且不同于經(jīng)典樹,因為該模型樹的節(jié)點是邏輯回歸分類器。決策樹可以短時間處理大量數(shù)據(jù),效率很高,但當類別太多時,卻容易出錯,另外在處理特征關聯(lián)性比較強的數(shù)據(jù)時,所得效果也并不好。
(2)支持向量機。支持向量機(SVM)是在統(tǒng)計學習的VC 維理論和結構風險最小化原理基礎上建立起來的機器學習方法,其訓練算法本質(zhì)上是一個二次規(guī)劃的求解問題。文獻[2,4,11,13,21,28,31,35-36,42]都使用了支持向量機(SVM)。研究可知,文獻[11,31,35-36]使用的是線性SVM,而文獻[2,4,13,21,28,42]使用的是核化SVM。文獻[2,4,21,28]在研究中將標準差的高斯徑向基函數(shù)σ作為一個核心。而Wen等人[13]、Silva等人[42]卻使用了帶有多項式核的SVM。SVM分類識別率相對較高,但對大規(guī)模訓練難于實施,解決多分類方面也還存在一定困難。
(4)人工神經(jīng)網(wǎng)絡。人工神經(jīng)網(wǎng)絡(Artificial Neural Network,ANN)是基于模仿人腦神經(jīng)網(wǎng)絡的結構和功能而建立的一種信息處理模型。該模型由大量基本神經(jīng)單元組成,具有較高的容錯性和自學習等特征,在處理復雜、非線性、模糊關系等問題方面有著獨特的優(yōu)勢。文獻[24,28,34, 43]使用人工神經(jīng)網(wǎng)絡(ANN)進行分類。Wang等人[28]采用了一個BP神經(jīng)網(wǎng)絡進行訓練,網(wǎng)絡具有3層,即:輸入層、隱藏層和輸出層。而Al-saqer等人[24]使用的神經(jīng)網(wǎng)絡用縮放共軛梯度反向傳播進行訓練。人工神經(jīng)網(wǎng)絡的使用,使得快速進行大量運算成為可能。
3.1.2?組合分類器
由于單個分類器識別的不穩(wěn)定性,還有一些識別方法由多個分類器組合而成。Russell等人[26]采用了SPIDA系統(tǒng),這是由經(jīng)過單獨訓練的ANNs組成的,而且每個ANNs都有2個輸出節(jié)點,一個是正的,一個是負的,每個ANNs的正輸出值被保存到一個文件中并進行排序。選擇前三名,再從數(shù)據(jù)庫中檢索這些物種的信息,并向用戶展示。除了ANN分類器組合,還有KNN分類器組合,Yalcin[16]使用4個K-最近鄰分類器(KNN)在不同的特征描述符上進行訓練,通過加權多數(shù)票投票,將基本特征的結果融合在一起,以獲得決策。但同種框架分類器組合不能進行比較,當該框架識別率較低時,難以提高識別率,因此Wen等人[12]使用基于識別相關性的不同框架。如果第一分類相關性水平不夠高,則運行第二分類。全局特征分類器(基于貝葉斯分類器)作為第一級分類器,局部特征分類器(具有最近鄰分類器)作為二級分類器。首先調(diào)用全局分類器,如果相關性太低(低于給定的閾值),則調(diào)用局部特征分類器以給出最終決定。
3.2?深度學習方法
近年來,深度學習發(fā)展迅速,其基本模型大致分為3類,即:深度信念網(wǎng)絡(Deep Belief Network,DBN)、卷積神經(jīng)網(wǎng)絡(Convolution Neural Networks,CNN)、遞歸神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)。在基于圖像的昆蟲分類研究上主要采用卷積神經(jīng)網(wǎng)絡(CNN),其基本結構包含輸入層、卷積層、激勵層、池化層、全連接層和輸出層。劉德營等人[44]利用Matlab(R2010b)和GitHub上一個開源的深度學習工具箱,以經(jīng)典CNN結構LeNet-5進行卷積,避免了傳統(tǒng)識別方法中復雜的圖像預處理過程。隨著深度學習框架的增加,運用不同框架對昆蟲圖像進行分類識別研究越來越多。周愛明等人[45]建立CaffeNet蝴蝶識別模型,其識別蝴蝶標本圖像時,與傳統(tǒng)SVM方法識別結果相差不大,但在識別自然環(huán)境下拍攝的蝴蝶圖像時,其識別成功率遠超傳統(tǒng)SVM方法。程曦等人[25]使用了Alexnet 和GoogLeNet兩種網(wǎng)絡模型,2種模型所得出的結果相差不大,且均超過了傳統(tǒng)方式下的識別準確率。為了提高自然環(huán)境下拍攝的昆蟲圖像的識別率,謝娟英等人[46]采用CNN的衍生算法、即Faster R-CNN算法對自然環(huán)境下拍攝的蝴蝶圖像進行識別,得到了較高的識別率。現(xiàn)在移動設備的識別軟件開發(fā)也逐漸成為學界矚目焦點,為了使程序能在移動設備上運行,樊景超[47]通過MobileNets構建深度學習模型進行分類識別,其所構建的模型能夠在移動設備上流暢運行,且具有較好的識別率。
4?討論
綜合前文論述可以得出,現(xiàn)在基于圖像的昆蟲分類識別研究已經(jīng)趨于相對成熟與完善,新的技術也將不斷地應用到基于圖像的昆蟲分類識別研究當中,但隨即也涌現(xiàn)出一些不容忽視的問題,亟待有效解決。
當今智能手機普及率達到了96%,通過智能手機采集圖像也日漸增多,而且相對于相機來說,智能手機不遜色于普通相機的拍攝體驗、攜帶方便、功能多樣等特點也使人們鐘愛于用手機進行拍攝。但其拍攝后圖像的復雜性卻勢必影響著圖像識別的成功率。因此,智能手機拍攝后的圖像處理即已經(jīng)成為時下的重點攻關研究課題之一。對于本文研究所用的圖像還是以實驗室背景下相機采集的圖像為主。
故而,在此前提下,圖像處理的技術需要及時做出相應的優(yōu)化、及改進,現(xiàn)有的圖像處理技術對自然環(huán)境下采集的圖像處理效果尚未臻至理想,且自然環(huán)境下的圖像以其復雜的背景和不同的姿態(tài)也在不斷挑戰(zhàn)著現(xiàn)有的圖像處理技術。
隨著深度學習技術的發(fā)展,深度學習技術應用于圖像識別領域的可行性業(yè)已得到驗證,將其應用于圖像識別領域的研究也會越來越多。其較高的識別成功率、較少的圖像處理步驟等優(yōu)勢就已成為吸引圖像識別領域的技術人員一直保持不懈探索前行的研究動力。但特別說明的是,傳統(tǒng)的識別方法仍是目前識別領域的主流,傳統(tǒng)識別方法的程序已可堪稱完備,且需要的圖像遠遠少于深度學習方法。
5?結束語
隨著現(xiàn)代科技的飛速進步,以手機拍攝的自然環(huán)境下的圖像將越來越多,這將是未來昆蟲圖像識別領域采集圖像的主要來源,且圖像中昆蟲個體的重疊或殘缺也將是今后圖像處理的另一個研發(fā)方向。圖像處理技術也需要繼續(xù)加大研究力度,進行探索、改進及創(chuàng)新,在復雜背景下能夠正確分割出害蟲圖像,提取有價值的特征信息。而且,深度學習技術的不斷發(fā)展,也將為基于圖像的昆蟲分類識別研究提供堅實基礎。可以預期在不久的將來,深度學習技術也將會是基于圖像的昆蟲分類識別研究這一領域的主流技術。
參考文獻
[1]閻錫海,王延鋒,李延清. 昆蟲起源、進化及其原因模糊性研究[J]. 延安大學學報(自然科學版),2003,22(1):81-84.
[2]YANG Heping, MA Chunsen, WEN Hui, et al. A tool for developing an automatic insect identification system based on wing outlines[J]. ?Scientific Reports, 2015, 5:12786.
[3]ZAYAS I Y, FLINN P W. Detection of insects in bulk wheat samples with machine vision[J]. Transactions of the ASAE, 1998, 41(3):883-888.
[4]YAO Qing, LV Jun, LIU Qingjie, et al. An insect imaging system to automate rice light-trap pest identification[J]. Journal of Integrative Agriculture, 2012, 11(6):978-985.
[5]呂軍,姚青,劉慶杰,等. 基于模板匹配的多目標水稻燈誘害蟲識別方法的研究[J]. 中國水稻科學,2012,26(5):619-623.
[6]楊紅珍,張建偉,李湘濤,等. 基于圖像的昆蟲遠程自動識別系統(tǒng)的研究[J]?.農(nóng)業(yè)工程學報,2008,24(1):188-192.
[7]冼鼎翔,姚青,楊保軍,等. 基于圖像的水稻燈誘害蟲自動識別技術的研究[J]. 中國水稻科學,2015,29(3):299-304.
[8]邱道尹,張紅濤,陳鐵軍,等. 基于機器視覺的儲糧害蟲智能檢測系統(tǒng)軟件設計[J]. 農(nóng)業(yè)機械學報,2003,34(2):83-85.
[9]WEEKS P J D, O'NEILL M A, GASTON K J, et al. Automating insect identification: Exploring the limitations of a prototype system[J]. Journal of Applied Entomology, 2003, 123(1):1-8.
[10]ARBUCKLE T, SCHRDER S, STEINHAGE V, et al. Biodiversity informatics in action: Identification and monitoring of bee species using ABIS[C]// Proc. 15th International Symposium Informatics for Environmental Protection. Zürich: CiteSeer, 2001:425-430.
[11]FAVRET C, SIERACKI J M. Machine vision automated species identification scaled towards production levels[J]. Systematic Entomology, 2016, 41(1):133-143.
[12]WEN Chenglu, GUYER D. Image-based orchard insect automated identification and classification method[J]. Computers and Electronics in Agriculture, 2012, 89(3):110-115.
[13]WEN Chenglu, GUYER D E, LI Wei. Local feature-based identification and classification for orchard insects[J]. Biosystems Engineering, 2009, 104(3):299-307.
[14]LARIOS N, DENG Hongli, ZHANG Wei, et al. Automated insect identification through concatenated histograms of local appearance features[C]// IEEE Workshop on Applications of Computer Vision. Austin, Texas: IEEE, 2007:26.
[15]SARPOLA M J, PAASCH R K, MORTENSEN E N, et al. ?An aquatic insect imaging system to automate insect classification[J]. Transactions of the Asabe, 2008, 51(6):2217-2225.
[16]YALCIN H. Vision based automatic inspection of insects in pheromone traps[C]// 2015 Fourth International Conference on Agro-Geoinformatics. Istanbul,Turkey:IEEE, 2015:333-338.
[17]SOLIS-SNCHEZ L O, CASTAEDA-MIRANDA R, GARCA-ESCALANTE J J, et al. Scale invariant feature approach for insect monitoring[J]. Computers and Electronics in Agriculture, 2011, 75(1):92-99.
[18]楊信廷,劉蒙蒙,許建平,等. 自動監(jiān)測裝置用溫室粉虱和薊馬成蟲圖像分割識別算法[J]. 農(nóng)業(yè)工程學報,2018,34(1):164-170.
[19]XIE Chengjun, ZHANG Jie, LI Rui, et al. Automatic classification for field crop insects via multiple-task sparse representation and multiple-kernel learning[J]. Computers & Electronics in Agriculture, 2015, 119:123-132.
[20]張永玲,姜夢洲,俞佩仕,等. 基于多特征融合和稀疏表示的農(nóng)業(yè)害蟲圖像識別方法[J]. 中國農(nóng)業(yè)科學,2018,51(11):2084-2093.
[21]陳月華,胡曉光,張長利. 基于機器視覺的小麥害蟲分割算法研究[J]. 農(nóng)業(yè)工程學報,2007,23(12):187-191.
[22]甄彤,范艷峰,鄒炳強,等. 谷物害蟲圖像識別中特征值提取技術的研究[J]. 微電子學與計算機,2004,21(12):111-115.
[23]GASSOUMI H, PRASAD R, ELLINGTON J. Neural network-based approach for insect classification in cotton ecosystems[C]//International Conference on Intelligent Technologies (InTech 2000). Bangkok, Thailand: Kluwer Academic Publishers, 2000:1-7.
[24]AL-SAQER S M, HASSAN G M. Artificial neural networks based red palm Weevil (Rynchophorus Ferrugineous, Olivier) recognition system[J]. American Journal of Agricultural & Biological Science, 2011, 6(3):356-364.
[25]程曦,吳云志,張友華,等. 基于深度卷積神經(jīng)網(wǎng)絡的儲糧害蟲圖像識別[J]. 中國農(nóng)學通報,2018,34(1):154-158.
[26]RUSSELL K N, DO M T, HUFF J C, et al. Introducing SPIDA-Web: Wavelets, neural networks and internet accessibility in an image-based automated identification system[M]//MACLEOD N. Automated Taxon identification in systematics: Theory, approaches and applications.New York :CRC Press, 2007: 131-152.
[27]FRANCOY T M, WITTMANN D, DRAUSCHKE M, et al. Identification of Africanized honey bees through wing morphometrics: Two fast and efficient procedures[J]. Apidologie, 2008, 39(5):488-494.
[28]WANG Jiangning, LIN Congtian, JI Liqiang, et al. A new automatic identification system of insect images at the order level[J]. Knowledge-Based Systems, 2012, 33(3):102-110.
[29]WANG Jiangning, JI Liqiang, LIANG Aiping, et al. The identification of butterfly families using content-based image retrieval[J]. Biosystems Engineering, 2012, 111(1):24-32.
[30]FAITHPRAISE F, BIRCH P, YOUNG R, et al. Automatic plant pest detection and recognition using k-means clustering algorithm and correspondence filters[J]. International Journal of Advanced Biotechnology and Research, 2013,4(2):189-199.
[31]MAYO M, WATSON A T. Automatic species identification of live moths[J]. Knowledge-Based Systems, 2007, 20(2):195-202.
[32]LECUN Y. What's wrong with deep learning? [EB/OL]. [2015-06-10]. http://www.pamitc.org/cvpr15/files/ lecun-20150610-cvpr-keynote.pdf, 2015.
[33]TOFILSKI A. DrawWing, a program for numerical description of insect wings[J]. Journal of Insect Science, 2004, 4(1):17.
[34]LEOW L K, CHEW L L, CHONG V C, et al. Automated identification of copepods using digital image processing and artificial neural network[J]. Bmc Bioinformatics, 2015, 16(S18):S4.
[35]LU An, HOU Xinwen, CHEN Xiaolin, et al. Insect species recognition using sparse representation[C]//Proceedings of the British Machine Vision Conference. Aberystwyth, UK:British Machine Vision Association, 2010,108:1-10.
[36]LU An, HOU Xinwen, LIU Chenglin, et al. Insect species recognition using discriminative local soft coding[C]// 2012 21st International Conference on Pattern Recognition. Tsukuba, Japan:IEEE, 2012:1221-1224.
[37]LYTLE D A, MARTNEZ-MUOZ G, ZHANG W, et al. Automated processing and identification of benthic invertebrate samples[J]. Journal of the North American Benthological Society, 2010, 29(3):867-874.
[38]LOWE D G. Object recognition from local scale-invariant features[C]// Proceedings of the Seventh IEEE International Conference on Computer Vision(ICCV). Corfu, Greece:IEEE, 1999:1150.
[39]WEN Chenglu, WU Daoxi, HU Huosheng, et al. Pose estimation-dependent identification method for field moth images using deep learning architecture[J]. Biosystems Engineering, 2015, 136:117-128.
[40]HAN J, KAMBER M. Data mining concept and techniques[M]. San Meteo, California:Morgan Kaufmann, 2006.
[41]BERSON A, SMITH S, THEARLING K. Building data mining applications for CRM[M]. New York: McGraw-Hill, Inc, 2000.
[42]Da SILVA F L, SELLA M L G, FRANCOY T M, et al. Evaluating classification and feature selection techniques for honeybee subspecies identification using wing images[J]. Computers and Electronics in Agriculture, 2015, 114(C):68-77.
[43]BONIECKI P, KOSZELA K, PIEKARSKA-BONIECKA H, et al. Neural identification of selected apple pests[J]. Computers and Electronics in Agriculture, 2015, 110:9-16.
[44]劉德營,王家亮,林相澤,等. 基于卷積神經(jīng)網(wǎng)絡的白背飛虱識別方法[J]. 農(nóng)業(yè)機械學報,2018,49(5):51-56.
[45]周愛明,馬鵬鵬,席天宇,等. 基于深度學習的蝴蝶科級標本圖像自動識別[J]. 昆蟲學報,2017,60(11):1339-1348.
[46]謝娟英,侯琦,史穎歡,等. 蝴蝶種類自動識別研究[J]. 計算機研究與發(fā)展, 2018, 55(8):1609-1618.
[47]樊景超. 基于MobileNets的果園害蟲分類識別模型研究[J]. 天津農(nóng)業(yè)科學,2018,24(9):11-13,26.