国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法

2021-11-25 13:20:14李道亮曹新凱李文升田港陸段青玲
農(nóng)業(yè)工程學報 2021年17期
關(guān)鍵詞:魚群魚體集上

張 璐,李道亮,曹新凱,李文升,田港陸,段青玲※

(1. 中國農(nóng)業(yè)大學國家數(shù)字漁業(yè)創(chuàng)新中心,北京100083;2.中國農(nóng)業(yè)大學信息與電氣工程學院,北京 100083;3. 中國農(nóng)業(yè)大學北京市農(nóng)業(yè)物聯(lián)網(wǎng)工程技術(shù)研究中心,北京 100083;4. 萊州明波水產(chǎn)有限公司,萊州261400)

0 引 言

中國是漁業(yè)大國,水產(chǎn)品產(chǎn)量以水產(chǎn)養(yǎng)殖為主。2019年全年養(yǎng)殖水產(chǎn)品產(chǎn)量達5 079萬t,占水產(chǎn)品總產(chǎn)量的78.38%[1]。隨著人工智能技術(shù)的發(fā)展,水產(chǎn)養(yǎng)殖也朝著自動化、智能化的模式轉(zhuǎn)變[2-4]。計算機視覺技術(shù)因其具有簡單、無損、高效等特點,成為提升現(xiàn)代水產(chǎn)養(yǎng)殖技術(shù)的重要手段[5-7]。在水產(chǎn)養(yǎng)殖中,養(yǎng)殖魚類生活在三維水體中,且由于其頻繁游動,導(dǎo)致圖像中魚體形狀呈現(xiàn)不規(guī)則、魚體之間存在復(fù)雜多樣粘連的特點[8]。因此,準確識別出圖像中的魚體目標是進行后續(xù)圖像處理的關(guān)鍵,是實現(xiàn)多種基本水產(chǎn)養(yǎng)殖操作自動化的基礎(chǔ)。本研究對粘連魚體目標進行識別研究,對于水產(chǎn)養(yǎng)殖中的魚群計數(shù)、養(yǎng)殖密度估算等具有重要應(yīng)用價值。

目前粘連目標識別研究多采用基于圖像特征閾值的方法,即先采用圖像處理技術(shù)分割出目標連通區(qū)域,再提取出目標連通區(qū)域的特征,通過設(shè)定特征閾值的方式判定該目標連通區(qū)域是否粘連[9]。Duan等[10-11]分別采用連通區(qū)域圓形度和連通區(qū)域面積作為粘連目標識別特征,人工設(shè)定特征閾值,實現(xiàn)了粘連魚卵的識別,在此基礎(chǔ)上進行粘連魚卵分割和魚卵計數(shù)研究。韓書慶等[12]采用連通區(qū)域復(fù)雜度和連通區(qū)域面積作為粘連區(qū)域判斷的依據(jù),通過試驗確定特征閾值,實現(xiàn)了粘連豬體區(qū)域的識別,在此基礎(chǔ)上分割出粘連豬體。勞鳳丹等[13]采用目標邊界復(fù)雜度和連通區(qū)域面積作為粘連目標識別的特征,通過模型學習訓練確定特征閾值,實現(xiàn)了復(fù)雜環(huán)境下粘連蛋雞的識別,在此基礎(chǔ)上進行蛋雞計數(shù)。在該類粘連目標識別方法中,特征的選取、特征閾值的確定都依賴于人工或者多次試驗,具有一定的主觀性。并且,當應(yīng)用目標改變時,特征、特征閾值可能需要重新確定,因而算法的普適性較差。

以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學習目標識別方法通過提取特征,學習數(shù)據(jù)規(guī)律,構(gòu)建目標分類模型,實現(xiàn)目標的自動識別[14-16],目前在水產(chǎn)養(yǎng)殖領(lǐng)域已有一些研究與應(yīng)用[17-19]。Taheri-Garavand等[20]利用基于卷積神經(jīng)網(wǎng)絡(luò)的VGG16結(jié)構(gòu)對鯉魚圖像進行特征自動提取,通過分類器對圖像進行分類,實現(xiàn)了鯉魚新鮮度的自動識別。Tamou等[21]采用基于卷積神經(jīng)網(wǎng)絡(luò)的AlexNet結(jié)構(gòu)自動提取魚類圖像特征,采用支持向量機分類器對魚類圖像進行分類,實現(xiàn)了水下活魚的識別。Rauf等[22]提出了一種32層的卷積神經(jīng)網(wǎng)絡(luò)模型,自動提取魚體圖像特征,實現(xiàn)了魚類品種的識別??梢姡疃葘W習技術(shù)在目標識別領(lǐng)域已有一定應(yīng)用[23-25],但尚未應(yīng)用于粘連目標識別中。

綜上,本研究將深度學習技術(shù)應(yīng)用于粘連魚體目標識別上,以解決目前粘連目標識別方法精度低、普適性差等問題。與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,深度可分離卷積網(wǎng)絡(luò)在保證相同卷積特征提取效果的基礎(chǔ)上,具有較低的計算復(fù)雜度,能夠進一步滿足實際生產(chǎn)中粘連魚體自動化、實時、準確識別的需求。因此,本研究引入深度可分離卷積網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建粘連魚體識別模型,提出了基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別模型。首先采集魚群圖像數(shù)據(jù),采用圖像處理技術(shù)分割出魚體連通區(qū)域圖像,構(gòu)建粘連魚體識別數(shù)據(jù)集;其次構(gòu)建基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別模型,采用遷移學習方法訓練模型;最后基于已訓練模型實現(xiàn)粘連魚體的識別。本研究識別方法可自動識別出粘連魚體,為實現(xiàn)水產(chǎn)養(yǎng)殖自動化、智能化提供支持。

1 材料與方法

1.1 魚群圖像采集

本研究在中國農(nóng)業(yè)大學國家數(shù)字漁業(yè)創(chuàng)新中心搭建圖像采集平臺,采集魚群圖像數(shù)據(jù),平臺示意圖如圖1a所示。平臺包括的硬件設(shè)備有:魚缸1個(長×寬×高為1 m×1 m×1 m)、增氧機4臺(WP-3300A,松寶,中山市松寶電器有限公司,中國)、攝像頭1個(??低?T86FWDV2-I3S,800萬像素,4 mm焦距)、計算機1臺(64位Windows 10操作系統(tǒng),Intel(R) Core(TM) i5-4590 CPU @ 3.3 GHz,8 GB內(nèi)存)等。采用支架將攝像頭固定在魚缸正上方,距離水面1.5 m,通過網(wǎng)線連接攝像頭與計算機。

采集到的魚群視頻數(shù)據(jù)被傳送到計算機中存儲。從采集到的魚群視頻數(shù)據(jù)中截取視頻幀,獲得魚群圖像(圖1b)。試驗采集的魚群圖像為紅-綠-藍(Red-Green-Blue,RGB)彩色圖像,圖像分辨率為3 840×2 160像素,圖像格式為.jpg格式,共4 000張。

1.2 魚體圖像預(yù)處理與數(shù)據(jù)集構(gòu)建

由于魚群集聚的特性,在一張魚群圖像中會存在多個魚體連通區(qū)域。粘連魚體識別是指識別出該連通區(qū)域中的目標魚體是否粘連。因此,從魚群圖像中分割出目標魚體,獲取魚體連通區(qū)域圖像是進行粘連魚體識別的基礎(chǔ)。本研究首先對目標魚體進行增強處理,再分割出魚體連通區(qū)域圖像,構(gòu)建粘連魚體識別數(shù)據(jù)集(圖2)。

首先,對魚群圖像進行顏色空間轉(zhuǎn)換、顏色分量提取和中值濾波處理,以增強圖像對比度。由于原始魚群圖像中魚體目標在色調(diào)-飽和度-明度(Hue-Saturation-Value,HSV)顏色空間(圖3a)中的明度(Value,V)分量圖像(圖3b)中與背景具有明顯的顏色反差。因此,提取HSV空間的V分量圖像[26]作為魚群圖像處理的初始圖像。在提取V分量圖像時,分辨率的閾值上限和閾值下限分別設(shè)置為100像素和225像素。在此基礎(chǔ)上,對圖像進行中值濾波處理,濾波核的尺寸為3像素,獲得中值濾波圖像(圖3c)。

其次,從背景中分割出目標魚體。由于本研究采集的魚群圖像來自同一試驗平臺,所有圖像具有相同的背景,因此采用背景差分法[10]實現(xiàn)目標魚體的分割,分割結(jié)果如圖3d所示。

最后,通過開運算、閉運算、小面積去除和空洞填充[10]去除圖像中孤立的小點、毛刺等噪聲(圖3e)以及填充魚體表面的空洞,獲得魚體連通區(qū)域圖像(圖3f)。開、閉運算中采用的正方形結(jié)構(gòu)元素的尺寸為3×3像素,小面積去除中面積閾值設(shè)置為300像素,空洞填充采用Python軟件OpenCV庫的Floodfill函數(shù)實現(xiàn)。

由圖3f可知,經(jīng)過預(yù)處理后,該魚群圖像中含有11個魚體連通區(qū)域圖像,為本研究粘連魚體識別數(shù)據(jù)集貢獻了11個樣本。由于卷積神經(jīng)網(wǎng)絡(luò)處理三通道圖像,而分割出的魚體連通區(qū)域圖像為二值圖像,因此需要獲取魚體連通區(qū)域圖像的RGB圖像。本研究采用Python軟件Pillow庫的Image.crop函數(shù)在原魚群圖像中切割出魚體連通區(qū)域圖像的RGB圖像,構(gòu)成粘連魚體識別數(shù)據(jù)集,共27 836張。水產(chǎn)養(yǎng)殖中魚群養(yǎng)殖密度較大,多條魚之間出現(xiàn)相互接觸的情況,并且由于其生活在三維水體中,俯視魚群時,不同水體層中的魚體會出現(xiàn)重疊的情況。上述情況導(dǎo)致圖像中的魚體是連接在一起的,則這類圖像稱為粘連魚體圖像。當圖像中只有一條魚時,該圖像稱為非粘連魚體圖像?;谏鲜龆x,人工標注粘連魚體識別數(shù)據(jù)集,則獲得粘連魚體圖像9 105張,非粘連魚體圖像18 731張。

1.3 粘連魚體識別模型

1.3.1 基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別模型構(gòu)建

MobileNet是一種基于深度可分離卷積的輕量級深度神經(jīng)網(wǎng)絡(luò),具有較低的參數(shù)量和計算量,可應(yīng)用于手機等智能終端[27]。因此,本研究選用該網(wǎng)絡(luò)構(gòu)建分類模型,識別出粘連魚體和非粘連魚體。本研究提出了一種粘連魚體識別模型的網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示。該模型由輸入層、卷積層、池化層和全連接層構(gòu)成。其中,卷積層由1個傳統(tǒng)卷積和13個深度可分離卷積塊構(gòu)成,傳統(tǒng)卷積由32個3×3步長為2的卷積核、批量規(guī)范化和激活函數(shù)構(gòu)成,深度可分離卷積塊由卷積核尺寸為3×3的深度可分離卷積、卷積核尺寸為1×1的傳統(tǒng)卷積、批量規(guī)范化和激活函數(shù)構(gòu)成。

首先將粘連魚體圖像的尺寸縮放至224×224像素作為模型輸入圖像;其次采用卷積核尺寸為3×3像素的傳統(tǒng)卷積對輸入圖像進行特征提取;再通過深度可分離卷積進行特征提取,并采用卷積核尺寸為1×1像素的傳統(tǒng)卷積進行通道處理,這一過程重復(fù)多次;然后通過平均池化層實現(xiàn)特征圖的壓縮降維;最后通過全連接層對卷積層和池化層提取的高維圖像特征進行降維平鋪,將結(jié)果輸入到Softmax分類器中實現(xiàn)粘連魚體和非粘連魚體的識別。

深度可分離卷積將傳統(tǒng)的卷積操作分為深度卷積操作和傳統(tǒng)卷積操作,以此減少卷積操作的參數(shù)量和計算量。假設(shè)輸入特征圖尺寸為DF×DF像素,輸入通道數(shù)為M個,卷積核尺寸為DK×DK像素,輸出通道數(shù)為N個,則傳統(tǒng)卷積的計算量R1和深度可分離卷積的計算量R2的數(shù)學表達式分別如式(1)和式(2)所示:

深度可分離卷積與傳統(tǒng)卷積的計算量比如式(3)所示:

由式(3)可知,深度可分離卷積計算量的減少與輸出通道數(shù)和使用的卷積核尺寸相關(guān)。例如,當卷積核尺寸為3×3像素,輸出通道數(shù)為64個時,深度可分離卷積比傳統(tǒng)卷積減少了約8~9倍的計算量。

在MobileNet中應(yīng)用深度可分離卷積時加入了批量規(guī)范化(Batch Normalization, BN),并使用了修正線性單元(Rectified Linear Unit,ReLU)中的ReLU6作為激活函數(shù),其結(jié)構(gòu)如圖5所示。

引入BN是為了在模型訓練過程中動態(tài)調(diào)整一個批量數(shù)據(jù)的均值和標準差,以保證網(wǎng)絡(luò)容量、加快網(wǎng)絡(luò)訓練速度、提高網(wǎng)絡(luò)泛化能力。其具體計算步驟如下:

假設(shè)輸入數(shù)據(jù)為X=X1…m,xi表示輸入的第i個數(shù)據(jù),共輸入m個數(shù)據(jù),輸出數(shù)據(jù)為yi,此批量數(shù)據(jù)X的均值和方差分別為μx和σx2,其計算如式(4)和式(5)所示:

進行數(shù)據(jù)歸一化得到x?i和yi的值分別如式(6)和式(7)所示:

式中x?i為對xi進行歸一化后得到的值,ε為防止除0引入的極小量,γ為尺度因子,β為平移因子。

激活函數(shù)采用ReLU6函數(shù)。假設(shè)a表示輸入特征值,則ReLU在a>0的區(qū)域使用a進行線性激活,有可能造成激活后的值太大,影響模型的穩(wěn)定性,為抵消ReLU函數(shù)的線性增長部分,使用了ReLU6函數(shù),其計算如式(8)所示:

1.3.2 基于遷移學習的粘連魚體識別模型訓練

深度學習模型的訓練階段分為2種策略,一種是在搭建的模型上從頭開始訓練,另一種是通過預(yù)訓練模型進行訓練,即遷移學習。遷移學習減少了構(gòu)建深度學習模型所需的訓練數(shù)據(jù)、計算力,能夠很好地解決小數(shù)據(jù)集容易在復(fù)雜網(wǎng)絡(luò)上的過擬合問題[28]。因此,本研究運用遷移學習思想,充分利用MobileNet網(wǎng)絡(luò)模型在ImageNet數(shù)據(jù)集上學習到的大量知識,將其用于粘連魚體圖像分類識別問題。

遷移學習包含2種訓練機制,其一,凍結(jié)卷積層,只對全連接層進行訓練;其二,對所有層進行訓練?;谶@2種訓練機制,本研究采用了下述2種方式訓練粘連魚體識別模型,基于試驗結(jié)果,選擇出效果較好的一種遷移學習訓練方式。訓練方式1:凍結(jié)全部卷積層,只對全連接層進行粗略訓練。訓練方式2:首先凍結(jié)全部卷積層,只對全連接層進行粗略訓練,其次解凍卷積層,對所有層進行精調(diào)訓練。

1.4 參數(shù)設(shè)置及評價與試驗環(huán)境

1.4.1 參數(shù)設(shè)置及評價

本研究粘連魚體識別圖像數(shù)據(jù)集共27 836張,隨機選擇90%用于訓練,10%用于測試,即訓練集包含25 052張圖像,測試集包含2 784張圖像。訓練集中包含用于模型訓練的圖像和模型驗證的圖像,兩者比例為9:1。

綜合考慮硬件設(shè)備性能及訓練效果,試驗每批次送入網(wǎng)絡(luò)中的訓練和測試圖像都是4幅,即批尺寸設(shè)置為4,動量參數(shù)設(shè)置為0.9,迭代次數(shù)為100。采用Adam優(yōu)化算法[29],分別設(shè)置初始學習率為0.01、0.001和0.000 1,基于試驗結(jié)果選擇出效果較好的學習率。損失函數(shù)采用交叉熵損失函數(shù)的損失值(loss value,Vloss)[30],計算如式(9)所示:

式中y?jc表示第j個魚體圖像屬于第c類的真實概率;yjc表示第j個魚體圖像屬于第c類的預(yù)測概率;n表示魚體圖像的總數(shù)量。

采用準確率(Accuracy)作為評價指標,其計算如式(10)所示:

式中t表示正確識別的魚體圖像數(shù)量。

為了進一步驗證本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法的優(yōu)越性,將其與基于支持向量機(Support Vector Machine,SVM)和基于反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)的機器學習識別方法進行了對比試驗。SVM和BPNN識別

方法中采用目前常用的粘連目標識別特征連通區(qū)域面積A和連通區(qū)域復(fù)雜度C作為模型分類特征。連通區(qū)域復(fù)雜度的計算如式(11)所示:

式中P表示連通區(qū)域周長。

1.4.2 試驗環(huán)境

本研究試驗的硬件環(huán)境:操作系統(tǒng)為64位Windows 10,中央處理器(Central Processing Unit,CPU)為Intel(R)Core(TM) i5-9300H,主頻為2.4 GHz,內(nèi)存為8 GB,圖形處理器(Graphics Processing Unit,GPU)為NVIDIA GeForce GTX 1660Ti;軟件配置:運算平臺為Cuda Toolkit 10.0.130,深度神經(jīng)網(wǎng)絡(luò)的GPU加速庫為Cudnn 10.0,編程語言為Python,深度學習庫為Keras 2.1.5 和Tensorflow-gpu 1.13.2。SVM方法基于Python軟件中的機器學習庫Scikit-learn(Sklearn)實現(xiàn),BPNN方法基于Python軟件中的深度學習庫Keras實現(xiàn)。

2 結(jié)果與分析

2.1 粘連魚體識別模型驗證結(jié)果

本研究提出了一個基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別模型,實現(xiàn)了粘連魚體的識別。在模型訓練過程中,分別采用了2種不同的遷移學習訓練方式(訓練方式1和訓練方式2),設(shè)置了3種不同的常見學習率(0.01、0.001和0.000 1),以選出較好的遷移學習訓練方式和學習率。采用不同遷移學習訓練方式和不同學習率在訓練集和驗證集上的訓練和驗證結(jié)果如表1所示。

由表1可知,在2種遷移學習訓練方式和3種學習率的組合下,基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法在訓練集和驗證集上的準確率均較高,表明了該方法的有效性,能夠準確識別出粘連魚體。當采用遷移學習訓練方式2在學習率為0.000 1時,基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法在訓練集上的準確率為100%,在驗證集上的準確率為99.60%,優(yōu)于其他訓練方式與學習率的組合,取得最好的結(jié)果,因此最終確定為本研究方法。

表1 基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別模型訓練和驗證結(jié)果Table 1 Training and validation results of recognition model for adhesive fish based on depthwise separable convolution network

2.1.1 不同遷移學習訓練方式試驗結(jié)果對比

遷移學習中基于預(yù)訓練模型,采取不同的訓練方式對于模型的收斂速度和準確率均有一定影響。采用2種不同遷移學習訓練方式在學習率為0.000 1時分別得到的損失值曲線和準確率曲線如圖6所示。當遷移學習采用訓練方式1時,模型的收斂速度很慢。完成100次訓練后,模型在訓練集上獲得的最小損失值為0.243,最大準確率為91.33%,模型在驗證集上獲得的最小損失值為0.301,最大準確率為88.38%。損失值較大,準確率較低,且2個指標在訓練集和驗證集上獲得的值相差較大。當遷移學習采用訓練方式2時,在粗略訓練階段,模型在訓練集上獲得的最小損失值為0.245,最大準確率為91.22%,模型在驗證集上獲得的最小損失值為0.453,最大準確率為83.23%,該階段損失值較大,準確率較低。在精調(diào)訓練階段,模型在訓練集上獲得的最小損失值為0,最大準確率為100%,模型在驗證集上獲得的最小損失值為0.032,最大準確率為99.60%,該階段損失值大幅度降低,準確率大幅度提升。上述結(jié)果表明,進行遷移學習時,精調(diào)階段的訓練有助于模型快速收斂。

2.1.2 不同學習率試驗結(jié)果對比

學習率是深度學習模型訓練過程中的重要超參數(shù),表示每次更新參數(shù)的幅度。合適的學習率可以加快模型訓練收斂速度。采用遷移學習訓練方式2在不同學習率下分別得到的訓練集和驗證集的損失值曲線和準確率曲線圖,如圖7所示。當學習率設(shè)置為0.01時,在粗略訓練階段,模型在訓練集上獲得的最小損失值為1.275,最大準確率為91.34%,在驗證集上獲得的最小損失值為0.896,最大準確率為92.93%,在精調(diào)訓練階段,模型在訓練集上獲得的最小損失值為5.254,最大準確率為67.41%,在驗證集上獲得的最小損失值為5.130,最大準確率為68.17%。由此可見,在該學習率下,模型在訓練集和驗證集上的損失值和準確率均沒有收斂到一個較好的值。并且,在進入遷移學習的精調(diào)階段后,在粗略訓練的基礎(chǔ)上,損失值大幅度上升,而準確率大幅度下降。原因在于,過大的學習率引起損失值梯度爆炸,參數(shù)更新過快,破壞了遷移學習中原本訓練好的權(quán)重信息,使遷移學習失去了意義。當學習率設(shè)置為0.001時,模型在訓練集上獲得的最小損失值為0,最大準確率為100%,在驗證集上獲得的最小損失值為0.028,最大準確率為99.44%。當學習率設(shè)置為0.000 1時,模型在訓練集上獲得的最小損失值為0,最大準確率為100%,在驗證集上獲得的最小損失值為0.032,最大準確率為99.60%。由圖7可以看出,在這2個學習率下,模型在訓練集和驗證集上的損失值和準確率均快速收斂并趨于平穩(wěn),且當學習率為0.000 1時,模型的性能最好。

2.2 識別模型試驗結(jié)果對比

將本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法與基于SVM和基于BPNN的機器學習識別方法進行了對比,試驗設(shè)置和結(jié)果如表2所示。由表2可知,本研究提出的粘連魚體識別方法在測試集上的識別準確率為99.32%,相較于基于SVM的93.86%和BPNN的67.03%,分別提高了5.46個百分點和32.29個百分點。由此可見,本研究方法的性能優(yōu)于基于SVM和BPNN的機器學習識別方法。原因在于上述2種機器學習識別方法依賴于手動提取特征,難以基于實際數(shù)據(jù)和具體對象進行特征的自適應(yīng)調(diào)整。

表2 識別模型對比試驗的參數(shù)設(shè)置和結(jié)果Table 2 Parameter settings and results of comparative experiments for recognition models

綜上,本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法在訓練集、驗證集和測試集上均取得很高的準確率,驗證了本研究方法的有效性;與基于SVM和BPNN的機器學習識別方法相比,準確率均有提升,表明了本研究方法的優(yōu)越性。本研究方法實現(xiàn)了粘連魚體的準確識別,對于提升水產(chǎn)養(yǎng)殖自動化、智能化具有重要意義。

3 結(jié) 論

針對目前粘連魚體識別方法準確率低、普適性差等問題,本研究提出了一種基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法。該方法是進行后續(xù)魚體圖像處理的關(guān)鍵,對于及時準確地進行水產(chǎn)養(yǎng)殖中的密度估算、魚群計數(shù),實現(xiàn)漁業(yè)自動化、智能化具有重要意義。主要結(jié)論如下:

1)在學習率分別為0.01、0.001和0.000 1時,粗略訓練與精調(diào)訓練相結(jié)合的遷移學習訓練方式獲得的驗證準確率分別為92.93%、99.44%和99.60%,僅采用對全連接層進行粗略訓練的遷移學習訓練方式獲得的驗證準確率分為91.41%、92.01%和88.38%,前者的訓練效果更好。

2)當采用對全連接層進行粗略訓練和對所有層進行精調(diào)訓練相結(jié)合的遷移學習訓練方式,在學習率為0.000 1時,模型快速收斂并取得最好的訓練準確率、驗證準確率和測試準確率,分別為100%、99.60%和99.32%,識別效果最好。

3)與基于支持向量機(Support Vector Machine,SVM)和基于反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)的機器學習識別方法對比,識別準確率分別提高了5.46個百分點和32.29個百分點,表明本研究提出的方法能夠根據(jù)實際數(shù)據(jù)和具體識別對象進行特征的自適應(yīng)調(diào)整,更加準確地實現(xiàn)粘連魚體的識別。

猜你喜歡
魚群魚體集上
軸流泵內(nèi)魚體的運動行為與撞擊損傷分析
淡水魚水平往復(fù)振動頭尾定向輸送方法
Cookie-Cutter集上的Gibbs測度
淡水魚腹背定向裝置設(shè)計及試驗
鏈完備偏序集上廣義向量均衡問題解映射的保序性
復(fù)扇形指標集上的分布混沌
魚群漩渦
中外文摘(2017年19期)2017-10-10 08:28:41
基于改進魚群優(yōu)化支持向量機的短期風電功率預(yù)測
電測與儀表(2016年3期)2016-04-12 00:27:44
基于人工魚群算法的光伏陣列多峰MPPT控制策略
多子群并行人工魚群算法的改進研究
曲靖市| 五莲县| 昭平县| 临海市| 丘北县| 益阳市| 嘉善县| 托里县| 泌阳县| 临江市| 琼结县| 遂宁市| 藁城市| 兴国县| 巴中市| 留坝县| 长治县| 青阳县| 延津县| 衡南县| 会理县| 常宁市| 茂名市| 宜阳县| 荥阳市| 安乡县| 乌鲁木齐县| 永年县| 云和县| 封开县| 长岭县| 凤阳县| 吉隆县| 河曲县| 上高县| 英超| 集安市| 巴林右旗| 沧州市| 石泉县| 崇州市|