国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)輕量化YOLOv4 模型的蝦只肉殼辨識(shí)方法

2023-07-14 14:28:28陳學(xué)深吳昌鵬黨佩娜劉善健
關(guān)鍵詞:剝殼特征提取損失

陳學(xué)深,吳昌鵬,黨佩娜,梁 俊,劉善健,武 濤

(華南農(nóng)業(yè)大學(xué)工程學(xué)院,廣州 510642)

0 引言

中國蝦產(chǎn)量位居世界第一,近年來增長迅速,年產(chǎn)量漲幅為12.5%[1-2]。機(jī)械剝殼是蝦只生產(chǎn)加工的重要環(huán)節(jié),由于現(xiàn)有技術(shù)和裝備不夠完善,脫殼后裸肉蝦中混雜的帶殼蝦需要進(jìn)一步人工清選,存在勞動(dòng)強(qiáng)度大、生產(chǎn)成本高、分選效率低等問題[3-4]。因此,準(zhǔn)確辨識(shí)裸肉蝦與帶殼蝦實(shí)現(xiàn)蝦只自動(dòng)分選十分必要。

國內(nèi)外學(xué)者主要采用機(jī)器視覺技術(shù)進(jìn)行了相關(guān)研究,分為傳統(tǒng)圖像處理和機(jī)器學(xué)習(xí)兩種方法。LEE 等[5]基于大津法(OTSU)提取了蝦只輪廓,結(jié)合快速曲線相似度評價(jià)方法,在藍(lán)色背景下實(shí)現(xiàn)了蝦只識(shí)別。羅艷[6]基于Zhang-Suen 細(xì)化算法有效去除多余分支,并提取了蝦只主骨架線,實(shí)現(xiàn)了蝦只識(shí)別。上述方法主要通過設(shè)定形狀、姿態(tài)閾值實(shí)現(xiàn)蝦只識(shí)別,識(shí)別方法對蝦只光照和背景有一定要求,抗干擾能力較差。

為提高蝦只肉殼辨識(shí)的抗干擾能力,更多學(xué)者采用機(jī)器學(xué)習(xí)方法,主要包括人工特征選擇的機(jī)器學(xué)習(xí)和自動(dòng)特征提取的深度學(xué)習(xí)兩種方法。HU 等[7]優(yōu)選了蝦只顏色、形狀、紋理特征,構(gòu)建了蝦識(shí)別模型。洪辰等[8]基于灰度差異法提取了蝦只骨架線,融合蝦只體長、頭胸甲長、頭胸甲寬等特征,構(gòu)建了蝦只識(shí)別模型。上述機(jī)器學(xué)習(xí)方法識(shí)別精度高度依賴特征提取的有效性,但不同品種、不同剝殼方式的蝦只特征存在差異,基于選擇特征的機(jī)器學(xué)習(xí)方法泛化能力不理想。

深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域取得了巨大成功,能夠不依賴特定特征,自動(dòng)學(xué)習(xí)原始圖像像素?cái)?shù)據(jù)的特征表達(dá),可獲得比原始數(shù)據(jù)表達(dá)能力更好的特征描述[9-10]。深度學(xué)習(xí)識(shí)別方法可分為兩類,一類基于區(qū)域推薦的目標(biāo)檢測方法[11]。龔瑞[12]采用此檢測方法基于Faster R-CNN模型實(shí)現(xiàn)蝦只自動(dòng)識(shí)別,準(zhǔn)確率為85%。另一類是基于回歸的目標(biāo)檢測方法,該方法可實(shí)現(xiàn)端到端的網(wǎng)絡(luò)結(jié)構(gòu),具有較高的識(shí)別精度,目前應(yīng)用最為廣泛[13-14]。其中,YOLO[15-16]系列最典型。劉雄[17]采用Darknet 作為YOLOv4模型特征提取網(wǎng)絡(luò),對蝦只剝殼效果進(jìn)行檢測,準(zhǔn)確率達(dá)90%以上。王淑青等[18]采用CIoU 作為YOLOv4 模型的損失函數(shù),有效提高了預(yù)測框回歸效果,同時(shí)引入CBAM 注意力機(jī)制增強(qiáng)模型特征抓取能力,模型檢測準(zhǔn)確率為97.8%。雖然改進(jìn)YOLOv4 模型在識(shí)別精度方面獲得了較好的效果,但仍存在網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、資源占用多等問題。為此,許多學(xué)者針對YOLOv4 主干特征提取網(wǎng)絡(luò)進(jìn)行輕量化處理[19-22],目前較成熟的輕量級(jí)網(wǎng)絡(luò)有Google 的MobilenetV3 系列[23]和Efficientnet Lite 系列[24],曠世的Shufflenet 系列[25],華為的GhostNet[26]等,上述輕量級(jí)網(wǎng)絡(luò)在一定程度上提高了模型的檢測效率。

本文根據(jù)蝦只肉殼辨識(shí)要求,在YOLOv4 模型基礎(chǔ)上,通過替換主干特征提取網(wǎng)絡(luò)、引入輕量級(jí)注意力機(jī)制、替換損失函數(shù)等改進(jìn)方法,構(gòu)建了裸肉蝦與帶殼蝦的辨識(shí)模型實(shí)現(xiàn)蝦只自動(dòng)分選。

1 數(shù)據(jù)集與預(yù)處理

1.1 圖像采集

模型樣本為經(jīng)過去頭處理的中國明對蝦,經(jīng)夾尾、開背、去腸、脫殼等機(jī)械剝殼處理,單只對蝦落料在傳送帶上,由蝦只肉殼辨識(shí)試驗(yàn)臺(tái)進(jìn)行裸肉蝦與帶殼蝦辨識(shí)分選。圖像采集于華南農(nóng)業(yè)大學(xué)工程學(xué)院蝦只肉殼辨識(shí)試驗(yàn)臺(tái),如圖1 所示。試驗(yàn)臺(tái)尺寸為190 cm×30 cm×90 cm,傳送帶輸送速度為0.1 m/s。圖像采集設(shè)備為HIKVISION 工業(yè)相機(jī),有效像素為1 800 萬。樣本采集時(shí)天氣晴朗,分為白天和晚上2 個(gè)時(shí)段,其中晚上采用人工光源。采集時(shí)相機(jī)鏡頭與水平方向分別以30°、45°、75°、90°夾角拍攝,圖像分辨率為2 928×3 904(像素),原圖像保存為jpg 格式,總計(jì)拍攝1 400 張圖像,人工篩選出質(zhì)量高、畫質(zhì)清晰的1 321 張作為圖像數(shù)據(jù)集。

圖1 蝦只肉殼辨識(shí)試驗(yàn)臺(tái)Fig.1 Shrimp meat and shell identification test bench

1.2 圖像預(yù)處理

為提高訓(xùn)練效果、增強(qiáng)模型泛化能力,對采集圖像進(jìn)行預(yù)處理。運(yùn)用OpenCV 改變原始圖像亮度和對比度以模擬不同光照亮度下的環(huán)境狀況;引入高斯噪聲與椒鹽噪聲,擾亂圖像可觀測信息,提升模型對目標(biāo)的捕捉能力;進(jìn)行圖像旋轉(zhuǎn),增加檢測目標(biāo)的姿態(tài)。通過圖像預(yù)處理增加了裸肉蝦圖像622 張,帶殼蝦圖像699 張,圖像數(shù)據(jù)集增強(qiáng)效果如圖2 所示。為降低信息泄露,更準(zhǔn)確反映模型效能,保證模型分辨準(zhǔn)確率,將訓(xùn)練集和測試集按9:1 進(jìn)行劃分,訓(xùn)練集為2 387 張,驗(yàn)證集為264 張。同時(shí)使用Labelimg 對處理的蝦只圖像進(jìn)行標(biāo)注,生成與圖片名稱相對應(yīng)的XML 文件。

圖2 蝦只圖像數(shù)據(jù)集增強(qiáng)Fig.2 Shrimp image dataset enhancement

2 YOLOv4 網(wǎng)絡(luò)模型改進(jìn)

2.1 幻象模塊(Ghost Module)引入

YOLOv4 模型由許多基本結(jié)構(gòu)塊組成,但由于大量卷積模塊計(jì)算得到的中間特征圖存在高度冗余,導(dǎo)致模型計(jì)算量增加[27-29]。本文引入幻象模塊(Ghost Module)使YOLOv4 模型更加緊湊,通過減少冗余特征圖,提升主干特征提取網(wǎng)絡(luò)的運(yùn)算速度。采用幻象模塊對輸入圖像進(jìn)行處理,流程如圖3 所示,具體實(shí)現(xiàn)步驟為:1)輸入圖像經(jīng)標(biāo)準(zhǔn)卷積運(yùn)算生成原始特征圖;2)原始特征圖經(jīng)低成本深度卷積得特征圖φ;3)特征圖經(jīng)標(biāo)準(zhǔn)卷積運(yùn)算輸出疊加特征圖。

圖3 幻象模塊示意圖Fig.3 Ghost module diagram

模型引入幻象模塊后,可代替YOLOv4 模型的普通卷積,為主干特征提取網(wǎng)絡(luò)替換提供了基礎(chǔ)。

2.2 主干特征提取網(wǎng)絡(luò)替換

構(gòu)建特征金字塔時(shí),YOLOv4 主干特征提取網(wǎng)絡(luò)CSPDarknet53 會(huì)將3 個(gè)有效特征層分別傳入到加強(qiáng)特征提取網(wǎng)絡(luò)SPP 和PANet 中[30-31],由于此過程需要進(jìn)行大量卷積計(jì)算,降低了網(wǎng)絡(luò)運(yùn)算速率?;孟笃款i結(jié)構(gòu)通過對圖像特征層“可分離卷積—深度可分離卷積和普通卷積—可分離卷積”處理,實(shí)現(xiàn)特征層寬高壓縮,使模型更輕量化。

為減少卷積計(jì)算量,在改進(jìn)YOLOv4 網(wǎng)絡(luò)中利用Ghost Module 代替CSPDarknet53 中的普通卷積獲得幻象瓶頸結(jié)構(gòu)(Ghost bottleneck),如圖4 所示。

圖4 幻象瓶頸結(jié)構(gòu)Fig.4 Ghost bottleneck structure

本文將輸入層的圖像大小調(diào)整為416×416×3,并使用Ghost Module 代替普通卷積,組成輕量化神經(jīng)網(wǎng)絡(luò)GhostNet,得到第一有效特征層(尺寸為52×52×40)、第二有效特征層(尺寸為26×26×112)、第三有效特征層(尺寸為13×13×160)3 個(gè)有效特征層,模型經(jīng)過改進(jìn)后減少了儲(chǔ)存容量,改進(jìn)前和改進(jìn)后有效特征層尺寸大小如表1 所示。由表1 可知,GhostNet 主干特征提取網(wǎng)絡(luò)比原CSPDarknet53 主干特征提取網(wǎng)絡(luò)的有效特征層更為輕量化,進(jìn)而提高了模型的檢測效率。

表1 有效特征層尺寸大小對比Table 1 Comparison of effective feature layer size

2.3 注意力機(jī)制嵌入

注意力機(jī)制模仿人類大腦視覺注意力機(jī)制,通過瀏覽全局圖像對輸入信息進(jìn)行注意力分配,確定重點(diǎn)關(guān)注區(qū)域,從而快速獲取關(guān)鍵信息[32-34]。為提高改進(jìn)YOLOv4模型蝦只肉殼辨識(shí)準(zhǔn)確率,在預(yù)測端嵌入典型SE 注意力機(jī)制模塊,擬合目標(biāo)通道相關(guān)特征信息,提高模型抗干擾和特征提取能力。SE 注意力機(jī)制處理流程如圖5 所示,具體實(shí)現(xiàn)步驟為:

圖5 SE 注意力機(jī)制流程圖Fig.5 SE attention mechanism flowchart

1)對輸入特征圖X(h’×w’×l’)進(jìn)行轉(zhuǎn)換,生成長為h、寬為w、通道為l的通道特征圖像Y;

2)SE 模塊對輸入特征圖X做全局平均池化,將通道特征圖像的長寬求和再取平均值生成空間注意力特征,有效提升對圖像的關(guān)注能力;

3)通過擠壓(Squeeze)操作將h×w×l的特征圖壓縮為1×1×l特征圖,壓縮層操作算法如式(1)所示;

4)通過激勵(lì)(Excitation)操作使用兩層全連接自適應(yīng)學(xué)習(xí)生成權(quán)重S,激勵(lì)操作算法如式(2)所示;

5)將通道注意力的權(quán)重S(1×1×l)、原始輸入特征圖Y(h×w×l),進(jìn)行逐通道乘以權(quán)重系數(shù),輸出具有通道注意力的特征圖(h×w×l)。

式中u(i,j)為特征圖上的單個(gè)特征值,Z為通道特征圖的平均特征值,H為特征圖的高度,W為特征圖的寬度。

式中w1、w2分別為兩個(gè)全連接層的權(quán)值,δ為連接層的ReLU 激活函數(shù),σ為Sigmoid 函數(shù)。Sigmoid 函數(shù)歸一化操作構(gòu)建各個(gè)注意力特征通道之間的關(guān)系,把每個(gè)通道的數(shù)值限制在0~1 之間,抑制無用特征通道信息,激活重點(diǎn)關(guān)注區(qū)域特征通道。

2.4 CIoU 損失函數(shù)設(shè)計(jì)

合理選擇損失函數(shù)可以使檢測框更適合蝦只尺寸,有助于提高模型收斂速度。YOLOv4 模型中采用GIoU損失函數(shù)作為位置回歸損失的評價(jià)指標(biāo),計(jì)算如式(3)所示。

式中A為預(yù)測框,B為真實(shí)框,C為包含A和B的最小凸集。

GIoU 損失函數(shù)原理如圖6a 所示,針對檢測框位置或大小不同時(shí),增加了相交尺度的衡量方式,但GIoU 損失函數(shù)無法區(qū)分相對位置關(guān)系,例如檢測框面積相同且在標(biāo)注框內(nèi)部不同位置時(shí),檢測框和標(biāo)注框差集D相同,導(dǎo)致模型目標(biāo)檢測誤差增大。相比較,ZHENG 等[35]提出的CIoU 損失函數(shù)可有效區(qū)分相對位置關(guān)系,減小目標(biāo)檢測誤差,原理如圖6b 所示,計(jì)算式如(4)~(7)所示。

圖6 GIoU 和CIoU 原理圖Fig.6 GIoU and CIoU schematic diagram

式中 ρ2(b,bgt)為預(yù)測框和真實(shí)框中心點(diǎn)的歐式距離,IoU為交并比,α 為權(quán)衡參數(shù),v為寬高比度量函數(shù),w、h和wgt、hgt分別為預(yù)測框高寬和真實(shí)框高寬,c為能夠同時(shí)包含預(yù)測框和真實(shí)框最小閉包區(qū)域的對角線距離,CIoU為CIoU Loss 函數(shù)。

與GIoU 損失函數(shù)相比,CIoU 損失函數(shù)考慮重疊面積、中心點(diǎn)距離和寬高比,可以直接最小化檢測框和標(biāo)注框中心點(diǎn)之間距離,使非極大值抑制得到的結(jié)果更為合理有效,模型預(yù)測框更為準(zhǔn)確。GIoU 和CIoU 損失函數(shù)的框選效果如圖7 所示,由圖7 可知GIoU 損失函數(shù)預(yù)測框未能將蝦只完整框選,而CIoU 損失函數(shù)預(yù)測框則完整框選了蝦只。

圖7 不同損失函數(shù)的框選效果Fig.7 Effects of frame selection with different loss functions

2.5 改進(jìn)后的YOLOv4 網(wǎng)絡(luò)模型

YOLOv4 模型經(jīng)過主干特征提取網(wǎng)絡(luò)替換、SE 注意力機(jī)制嵌入、CIoU 損失函數(shù)設(shè)計(jì),構(gòu)建的改進(jìn)YOLOv4網(wǎng)絡(luò)模型(GhostNet-YOLOv4)結(jié)構(gòu)如圖8 所示,模型經(jīng)過改進(jìn)減少了運(yùn)算量、增強(qiáng)了特征通道間的關(guān)注度、提高了預(yù)測框的回歸效果,可有效提升模型檢測準(zhǔn)確率和實(shí)時(shí)性。

圖8 改進(jìn)YOLOv4 網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.8 Improved YOLOv4 network architecture diagram

2.6 評價(jià)指標(biāo)

采用召回率(recall,R,%)、準(zhǔn)確率(precision,P,%)、AP值(average precision,AP,%)和mAP(mean average precision,%)4 個(gè)指標(biāo)對模型進(jìn)行性能評估,計(jì)算如式(8)~(11)所示。

式中TP和FP分別表示真實(shí)的正樣本和虛假的正樣本,F(xiàn)N為虛假的負(fù)樣本,M為檢測目標(biāo)的類別總數(shù),AP(k)為第k類AP值。

3 結(jié)果與分析

3.1 不同模型輕量化對比

為檢驗(yàn)?zāi)P透倪M(jìn)效果,選擇YOLOv7、EfficientNet Lite3-YOLOv4、ShuffleNetV2-YOLOv4、MobilenetV3-YOLOv4 模型,以及改進(jìn)YOLOv4 模型進(jìn)行輕量化對比驗(yàn)證,結(jié)果如表2 所示,由表2 可知,改進(jìn)YOLOv4 模型參數(shù)量最少、計(jì)算量最小、輕量化程度最高。

表2 不同目標(biāo)識(shí)別模型比較Table 2 Comparison of different target recognition models

3.2 試驗(yàn)平臺(tái)與模型訓(xùn)練結(jié)果

試驗(yàn)訓(xùn)練集包含裸肉蝦圖像為1 064 張,帶殼蝦圖像為1 109 張,兩者共存214 張。采用Pytorch-GPU1.2 深度學(xué)習(xí)框架,運(yùn)行的深度學(xué)習(xí)處理器為Intel Core-i5-12 400,3.20 GHz,顯卡為GeForce RTX 3 080,操作系統(tǒng)為Windows 10,NVIDIA 461.37 驅(qū)動(dòng),CUDA11 版本,CUDNN神經(jīng)網(wǎng)絡(luò)加速庫版本為7.6.5。基于試驗(yàn)平臺(tái)硬件運(yùn)行性能設(shè)置迭代訓(xùn)練樣本數(shù)為8,根據(jù)擬合效果選擇迭代次數(shù)為500 次。為提高模型穩(wěn)定性避免訓(xùn)練后期震蕩設(shè)置動(dòng)量因子為0.973,衰減系數(shù)為0.005,初始學(xué)習(xí)率為0.001,優(yōu)化器選擇sgd,使用Mosaic 數(shù)據(jù)增強(qiáng)與余弦退火算法。訓(xùn)練完成后根據(jù)后臺(tái)日志信息記錄繪制模型訓(xùn)練損失值變化趨勢圖,如圖9 所示。由圖9 可知,模型隨迭代次數(shù)增加,損失值逐漸減少。GhostNet-YOLOv4模型經(jīng)歷20 次迭代后,模型損失值收斂到2.5 以下,至350 次迭代后損失值趨于平穩(wěn),趨于穩(wěn)定后GhostNet-YOLOv4 模型損失值為1.2,相比YOLOv4 模型損失值減少了1.2,比YOLOv3 模型損失值減少了1.8,比MobilenetV3-YOLOv4 模型損失值減少了0.2,驗(yàn)證了GhostNet-YOLOv4 模型識(shí)別準(zhǔn)確性較優(yōu)。

圖9 模型訓(xùn)練損失值變化趨勢圖Fig.9 Model training loss value change trend diagram

3.3 蝦只肉殼辨識(shí)模型消融試驗(yàn)

為驗(yàn)證主干特征提取網(wǎng)絡(luò)GhostNet 替換、SE 注意力機(jī)制嵌入和CIoU 損失函數(shù)設(shè)計(jì)的改進(jìn)效果,采用平均精度均值(mAP)、參數(shù)量、權(quán)重作為模型性能評價(jià)指標(biāo)進(jìn)行消融試驗(yàn),結(jié)果如表3 所示,由表3 可知,模型經(jīng)過GhostNet 替換后mAP 提升了2.9 個(gè)百分點(diǎn),加入SE 注意力機(jī)制后mAP 提升了1.8 個(gè)百分點(diǎn),CIoU 損失函數(shù)設(shè)計(jì)后mAP 提升了1.4 個(gè)百分點(diǎn)。改進(jìn)YOLOv4模型的平均精度均值為92.8%,而YOLOv4 模型平均精度均值為86.7%,提高了6.1 個(gè)百分點(diǎn)。模型改進(jìn)后參數(shù)量和權(quán)重明顯減少。

表3 消融試驗(yàn)結(jié)果對比Table 3 Comparison of ablation test results

3.4 蝦只肉殼辨識(shí)效果

為驗(yàn)證GhostNet-YOLOv4 模型在不同環(huán)境蝦只肉殼辨識(shí)的有效性,選擇陰天及晴天傍晚等光照不足時(shí)段,以及在傳送帶速度為0.1 m/s 輸送狀態(tài)下進(jìn)行辨識(shí)效果試驗(yàn)。本文以相同訓(xùn)練集、不同模型進(jìn)行訓(xùn)練與測試,基于YOLOv3、YOLOv4、MobilenetV3-YOLOv4 和GhostNet-YOLOv4 模型在相同測試集上進(jìn)行測試,蝦只肉殼辨識(shí)測試集共1 000 張照片,部分結(jié)果如圖10 所示。

圖10 不同條件下各模型蝦只肉殼檢測效果Fig.10 The detection effect of shrimp in different models under different conditions

光照充足時(shí),各模型均可完成蝦只肉殼辨識(shí)。然而,光照不足時(shí),YOLOv4 和MobilenetV3-YOLOv4 檢測準(zhǔn)確率明顯下降,YOLOv3 模型甚至無法辨識(shí)或辨識(shí)錯(cuò)誤。與其他模型比較,蝦只輸送時(shí),GhostNet-YOLOv4 的檢測準(zhǔn)確率與置信度最高。

GhostNet-YOLOv4、YOLOv3、YOLOv4 和Mobilenet V3-YOLOv4 模型的裸肉蝦和帶殼蝦辨識(shí)準(zhǔn)確率P、召回率R曲線如圖11 所示,由圖11 可知,GhostNet-YOLOv4的P-R曲線包絡(luò)面積最大,說明蝦只肉殼辨識(shí)準(zhǔn)確率最高。

圖11 準(zhǔn)確率-召回率曲線圖Fig.11 Precision-recall curve diagram

不同模型的裸肉蝦和帶殼蝦辨識(shí)結(jié)果如表4 所示,與YOLOv3、YOLOv4、MobilenetV3-YOLOv4 模型相比,GhostNet-YOLOv4 模型裸肉蝦識(shí)別準(zhǔn)確率分別提高了6.9、3.5、1.1 個(gè)百分點(diǎn),帶殼蝦識(shí)別準(zhǔn)確率分別提高了9.2、3.8、2.7 個(gè)百分點(diǎn),模型總體識(shí)別準(zhǔn)確率分別提高了8.1、3.7、1.9 個(gè)百分點(diǎn)。與其他模型相比,GhostNet-YO LOv4 模型檢測速度最高,為25 幀/s,模型綜合性能最優(yōu)。

表4 不同模型蝦只肉殼檢測結(jié)果Table 4 Results of shrimp meat and shell detection with different training models

3.5 不同剝殼方式蝦只肉殼辨識(shí)效果

為驗(yàn)證不同剝殼方式蝦只肉殼辨識(shí)的實(shí)際效果,根據(jù)圖12 所示的蝦只不同剝殼方式,進(jìn)行去尾蝦、深切蝦、帶尾蝦、蝴蝶蝦的辨識(shí)性能試驗(yàn),測試集共1 815 張圖片,其中去尾蝦422 張、深切蝦464 張、帶尾蝦519 張、蝴蝶蝦410 張。結(jié)果如表5 所示。

表5 不同剝殼方式蝦只肉殼辨識(shí)準(zhǔn)確率Table 5 Precision of shrimp meat and shell recognition for different shelling methods %

圖12 不同剝殼方式的蝦只Fig.12 Shrimps with different shelling methods

由表5 可知,GhostNet-YOLOv4 模型辨識(shí)準(zhǔn)確率平均值為90.4%,與YOLOv3、YOLOv4、MobilenetV3-YOLOv4 模型相比,辨識(shí)準(zhǔn)確率平均值分別提高了10.6、4.5、3.9 個(gè)百分點(diǎn)。但受剝殼方式影響,深切蝦和蝴蝶蝦由于蝦體面積大,易造成肉殼相互遮疊,模型辨識(shí)準(zhǔn)確率較無遮擋的去尾蝦和帶尾蝦略低,但與其他模型相比,GhostNet-YOLOv4 模型辨識(shí)準(zhǔn)確率降幅最小。

3.6 不同品種蝦只肉殼辨識(shí)效果

為驗(yàn)證蝦只肉殼辨識(shí)模型對不同品種蝦的適應(yīng)性,選擇圖13 所示的黑虎蝦、羅氏蝦、日本對蝦3 種常見蝦只進(jìn)行辨識(shí)性能試驗(yàn),測試集共1 432 張圖片,其中羅氏蝦437 張、黑虎蝦477 張、日本對蝦518 張。結(jié)果如表6所示。

表6 不同品種蝦只肉殼辨識(shí)準(zhǔn)確率Table 6 Precision of shrimp meat and shell recognition for different species %

圖13 不同品種的蝦只Fig.13 Shrimps of different species

由表6 可知,GhostNet-YOLOv4 模型的蝦只肉殼辨識(shí)準(zhǔn)確率最高,平均值為87.2 %,與YOLOv3、YOLOv4、MobilenetV3-YOLOv4 模型相比,準(zhǔn)確率平均值分別提高了22.1、12、8 個(gè)百分點(diǎn)。受蝦只品種影響,上述3個(gè)品種的蝦只沒有經(jīng)過樣本訓(xùn)練,但與其他模型相比,GhostNet-YOLOv4 模型辨識(shí)準(zhǔn)確率降幅最小。

4 結(jié)論

1)構(gòu)建了改進(jìn)輕量化YOLOv4 模型,與YOLOv7、EfficientNet Lite3-YOLOv4、ShuffleNetV2-YOLOv4、MobilenetV3-YOLOv4 模型對比,改進(jìn)的模型參數(shù)量最少、計(jì)算量最小。消融試驗(yàn)表明改進(jìn)的模型平均精度均值為92.8%,比原YOLOv4 模型提升了6.1 個(gè)百分點(diǎn)。

2)本文通過GhostNet 主干特征提取網(wǎng)絡(luò)替換、SE注意力機(jī)制引入、CIoU 損失函數(shù)設(shè)計(jì)對YOLOv4 網(wǎng)絡(luò)模型進(jìn)行改進(jìn),有效提高了蝦只肉殼辨識(shí)性能,構(gòu)建的GhostNet-YOLOv4 模型總體平均識(shí)別準(zhǔn)確率為95.9%,檢測速度為25.0 幀/s。

3)對構(gòu)建的GhostNet-YOLOv4 模型進(jìn)行性能試驗(yàn)。結(jié)果表明,不同剝殼方式蝦只肉殼辨識(shí)準(zhǔn)確率平均值為90.4%,不同品種蝦只肉殼辨識(shí)準(zhǔn)確率平均值為87.2%。

猜你喜歡
剝殼特征提取損失
少問一句,損失千金
胖胖損失了多少元
蝦類剝殼機(jī)專利技術(shù)綜述
玉米抽穗前倒伏怎么辦?怎么減少損失?
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
L-08型蓮子剝殼機(jī)
Bagging RCSP腦電特征提取算法
一般自由碰撞的最大動(dòng)能損失
怎樣煮出易剝殼的雞蛋
蓖麻蒴果剝殼過程中的力學(xué)性能有限元仿真
筠连县| 新乡县| 陆川县| 石屏县| 鲁甸县| 吉安县| 西乌珠穆沁旗| 苏尼特右旗| 丹东市| 石棉县| 清原| 开江县| 开鲁县| 常德市| 永胜县| 遂溪县| 孝昌县| 金溪县| 濮阳市| 丹阳市| 峨边| 元阳县| 福州市| 连城县| 阳高县| 区。| 米泉市| 济宁市| 深泽县| 温州市| 天柱县| 和顺县| 方城县| 岑巩县| 福海县| 三河市| 合肥市| 夏津县| 梅河口市| 闵行区| 新乐市|