摘 要:針對(duì)具有相似灰度值的印制電路板(Printed Circuit Board,PCB) 焊點(diǎn)在檢測(cè)分割過(guò)程中的誤檢和漏檢問(wèn)題,提出改進(jìn)YOLOv8 的PCB 焊錫語(yǔ)義分割模型。在主干網(wǎng)絡(luò)引入坐標(biāo)注意力(Coordinate Attention,CA) 機(jī)制,準(zhǔn)確定位焊點(diǎn)空間位置,提升模型捕捉焊點(diǎn)空間信息能力;使用雙向特征金字塔網(wǎng)絡(luò)(Bi-directional Feature Pyramid Network,BiFPN)替換路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet) 特征金字塔,更好地捕捉目標(biāo)的邊界信息,并在原有基礎(chǔ)上增加一個(gè)分割層。引入EIoU 損失函數(shù),提供更精細(xì)的評(píng)估結(jié)果并提高泛化能力。通過(guò)對(duì)比實(shí)驗(yàn)得出,所提算法的平均像素精度(mean Pixel Accuracy,mPA) 達(dá)到90. 37% ,平均交并比(mean Intersection over Union,mIoU) 達(dá)到83. 76% ,每秒推理圖片張數(shù)(Frames Per Second,FPS) 達(dá)到43,實(shí)現(xiàn)了PCB 板更精準(zhǔn)的焊點(diǎn)分割。
關(guān)鍵詞:YOLOv8;語(yǔ)義分割;坐標(biāo)注意力機(jī)制;雙向特征金字塔網(wǎng)絡(luò);EIoU 損失函數(shù)
中圖分類(lèi)號(hào):TP751. 1 文獻(xiàn)標(biāo)志碼:A 開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
文章編號(hào):1003-3106(2024)07-1614-08
0 引言
印制電路板(Printed Circuit Board,PCB)是通過(guò)自動(dòng)化設(shè)備將電子元件焊接到PCB 上制作而成。制作過(guò)程中,由于設(shè)計(jì)錯(cuò)誤、制造問(wèn)題或材料損壞等會(huì)導(dǎo)致焊錫短路或開(kāi)路,影響產(chǎn)品正常使用。所以對(duì)PCB 產(chǎn)品質(zhì)量檢測(cè)的技術(shù)實(shí)現(xiàn)一直是主要的討論話題之一。早些年的實(shí)現(xiàn)通常依賴(lài)傳統(tǒng)的檢測(cè)技術(shù)和算法,例如OpenCV、halcon 和早期機(jī)器學(xué)習(xí)技術(shù)。張俊賢[1]設(shè)計(jì)了基于傳統(tǒng)算法的PCBA 焊錫檢測(cè)系統(tǒng),利用MARK 孔使用模版匹配進(jìn)行定位和仿射變換實(shí)現(xiàn)焊錫圖像自動(dòng)獲取。雷崢鳴[2]提出基于機(jī)器視覺(jué)的PCB 焊錫缺陷檢測(cè)系統(tǒng),改進(jìn)傳統(tǒng)的霍夫圓變換,實(shí)現(xiàn)精準(zhǔn)的圖像圓檢測(cè)和定位。但是近些年傳統(tǒng)的檢測(cè)技術(shù)逐漸不能滿足新型產(chǎn)品的檢測(cè)需求。
隨著神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的興起,語(yǔ)義分割技術(shù)逐漸在工業(yè)領(lǐng)域得到應(yīng)用,它對(duì)圖像的每個(gè)像素進(jìn)行分類(lèi),實(shí)現(xiàn)像素級(jí)的精細(xì)預(yù)測(cè)。語(yǔ)義分割技術(shù)發(fā)展分為2 個(gè)階段:傳統(tǒng)語(yǔ)義分割算法和基于深度學(xué)習(xí)的語(yǔ)義分割[3]算法。傳統(tǒng)語(yǔ)義分割算法中,常見(jiàn)方法包括閾值分割、邊緣檢測(cè)和區(qū)域法等。基于深度學(xué)習(xí)的語(yǔ)義分割算法中,包括全卷積網(wǎng)絡(luò)(Fully ConvolutionalNetwork,FCN)、U-Net、PSPNet 和Deeplab 系列等經(jīng)典網(wǎng)絡(luò)。FCN[4]是深度學(xué)習(xí)算法進(jìn)軍語(yǔ)義分割領(lǐng)域的開(kāi)山之作,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Net-work,CNN)模型(如AlexNet、VGGNet 等)中全連接層替換為全卷積層,構(gòu)建像素級(jí)的語(yǔ)義分割網(wǎng)絡(luò)。這一創(chuàng)新使得FCN 實(shí)現(xiàn)從像素到像素的準(zhǔn)確語(yǔ)義分割。PSPNet[5]針對(duì)FCN 在語(yǔ)義分割領(lǐng)域的問(wèn)題進(jìn)行改進(jìn),引入空間金字塔模塊,能夠提取圖像的上下文信息和多尺度信息,使得分割層能夠獲得更加豐富的全局上下文信息。這一改進(jìn)有效降低了FCN 中圖像類(lèi)別誤分割的概率。U-Net[6]也是基于FCN 架構(gòu)的改進(jìn),采用Encoder 和Decoder 的U 型結(jié)構(gòu)以及skip-connection,在醫(yī)學(xué)領(lǐng)域的圖像處理問(wèn)題中廣泛應(yīng)用。DeepLab 系列[7-10]是谷歌團(tuán)隊(duì)開(kāi)發(fā)的基于CNN 的語(yǔ)義分割模型。
毛萬(wàn)菁等[11]運(yùn)用改進(jìn)的U-Net 語(yǔ)義分割模型,對(duì)草莓在不同病害情況下進(jìn)行精準(zhǔn)分割。在編碼器部分引入CNN-Transformer 混合結(jié)構(gòu),并在解碼器中采用雙路上采樣模塊,并以hard-swish 激活函數(shù)取代ReLU 激活函數(shù)。使得模型在像素精度上達(dá)到92.56% ,平均交并比(mean Intersection over Union,mIoU)達(dá)到84. 97% ,超越了許多分割模型。在自動(dòng)駕駛領(lǐng)域,楊奎河等[12]提出了一種深度學(xué)習(xí)模型,架構(gòu)優(yōu)化基于YOLOSeg 算法,MobileNetv3 作為特征提取網(wǎng)絡(luò),并引入路徑聚合網(wǎng)絡(luò)(Path Aggregation Net-work,PANet)融合各種尺度的特征圖。相較于過(guò)去的RefineNet,該模型在分割速度每秒推理圖片張數(shù)(Frames Per Second,FPS)上提升了35,同時(shí)交并比(In-tersection over Union,IoU)平均提高幅度達(dá)到4. 9% 。
自FCN 以來(lái),深度學(xué)習(xí)在語(yǔ)義分割領(lǐng)域取得巨大進(jìn)步,YOLO 系列模型以其端到端的快速和輕量性能力更是在工業(yè)領(lǐng)域得到廣泛應(yīng)用。尤其是YOLOv5 模型,取得了引人矚目的成就[13-16]。
1 YOLOv8 算法
目前YOLO 系列的SOTA 模型是ultralytics 公司于2023 年發(fā)布的YOLOv8。按照模型寬度和深度不同分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x 五個(gè)版本。本文改進(jìn)的是YOLOv8n 模型。
YOLOv8 的Backbone 采用CSPDarknet 結(jié)構(gòu),它是Darknet 的一種改進(jìn),引入CSP 改善網(wǎng)絡(luò)結(jié)構(gòu)。CSPDarknet 把特征圖分為兩部分,一部分進(jìn)行卷積操作,另一部分進(jìn)行跳躍連接,在保持網(wǎng)絡(luò)深度的同時(shí)減少參數(shù)量和計(jì)算量,提高網(wǎng)絡(luò)效率。Neck 部分采用特征金字塔PANet[17],通過(guò)自頂向下路徑結(jié)合和自底向上特征傳播進(jìn)行多尺度融合。損失函數(shù)采用了CIoU[18]。YOLOv8 的網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。
2 改進(jìn)YOLOv8 算法
改進(jìn)YOLOv8 算法主要有以下3 點(diǎn):① 在Back-bone 的最后2 步分別添加坐標(biāo)注意力(Coordinate At-tention,CA)機(jī)制模塊[19],用于捕獲圖像的全局空間信息;② 在Neck 中用雙向特征金字塔網(wǎng)絡(luò)(Bi-direc-tional Feature Pyramid Network,BiFPN)[20]替換PANet進(jìn)行特征融合,并在原有基礎(chǔ)上增加一個(gè)分割層;③ 采用EIoU 損失函數(shù)替換CIoU 用于優(yōu)化模型。圖2 是本文改進(jìn)的YOLOv8 網(wǎng)絡(luò)結(jié)構(gòu)。
2. 1 CA 注意力機(jī)制
為了準(zhǔn)確提取焊點(diǎn)的位置空間信息,本文在主干網(wǎng)絡(luò)的C2f 和SPPF 之間引入CA 機(jī)制,更好地提取特征空間位置信息,達(dá)到精準(zhǔn)分割。CA 的實(shí)現(xiàn)過(guò)程如圖3 所示。
CA 的操作過(guò)程分為空間信息嵌入和空間注意力生成兩部分,CA 模塊前半部分是空間信息嵌入,輸入為x,分別沿水平和豎直方向?qū)斎胩卣鲌D計(jì)算一維平均池化進(jìn)行全局信息提取,得到高度和寬度方向的2 個(gè)特征圖:
CA 模塊的后半部分是空間注意力生成,連接由前半部分輸出具有全局感受野的2 個(gè)特征圖并通過(guò)1×1 卷積操作將維度變成原來(lái)的C / r,批量歸一化后將得到的特征圖F1 經(jīng)過(guò)Sigmoid 函數(shù)得到形如1×(W+H)×C / r 的特征圖。
f = δ(F1([zh ,zw ])), (3)
式中:f∈CC / r ×(w+h)表示空間信息的水平和垂直中間特征圖,r 表示下采樣率,δ 表示非線性激活函數(shù)。
將f 分成2 個(gè)張量f h ∈CC / r×H 和f w ∈CC / r×W ,f h和f w 再分別通過(guò)1×1 卷積得到和輸入x 相同的通道數(shù)。
gh = σ(Fh(f h )), (4)
gw = σ(Fw(f w ))。(5)
最后把空間信息加權(quán)進(jìn)行融合,輸出如下:
yc(i,j) = xc(i,j)× ghc(i)× gwc(j)。(6)
捕捉位置信息和通道信息,CA 相較于其他輕量級(jí)注意力機(jī)制表現(xiàn)出更出色的效果。
2. 2 BiFPN 和分割層
本文用BiFPN 替換YOLOv8 的PANet 特征金字塔,二者網(wǎng)絡(luò)結(jié)構(gòu)對(duì)比如圖4 所示。
和PANet 單一的自頂向下和自底向上進(jìn)行特征融合不同,BiFPN 靈活地去掉只有一條輸入邊的點(diǎn),因?yàn)檩斎雴我?,?duì)旨在融合不同特征的網(wǎng)絡(luò)貢獻(xiàn)很小。BiFPN 在處于同一層的輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)之間額外添加一條邊,以在不增加成本情況下融合更多特征信息。和PANet 只有一個(gè)雙向路徑不同,BiFPN 將雙向路徑當(dāng)做一個(gè)特征網(wǎng)絡(luò)層,重復(fù)使用多次以實(shí)現(xiàn)更高層次特征融合,并通過(guò)NAS 技術(shù)計(jì)算使用次數(shù)。
YOLOv8 本身有3 個(gè)分割層,本文在原有基礎(chǔ)上額外添加1 個(gè)分割層。通過(guò)添加額外的分割層,語(yǔ)義分割網(wǎng)絡(luò)可以進(jìn)行更深層次的特征提取和語(yǔ)義表示,有助于提高分割網(wǎng)絡(luò)對(duì)圖像中細(xì)微特征和邊界的感知能力。多個(gè)分割層也可以引入更多的上下文信息,幫助網(wǎng)絡(luò)更好地理解圖像中的語(yǔ)義關(guān)系和全局結(jié)構(gòu)。
2. 3 EIoU 損失函數(shù)
神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,損失函數(shù)用來(lái)度量模型預(yù)測(cè)值與實(shí)際值之間的差異并做出相應(yīng)處理,優(yōu)秀的損失函數(shù)可以?xún)?yōu)化模型性能和訓(xùn)練效果。EIoU損失函數(shù)[21]計(jì)算如下:
式中:Cw 和Ch 表示覆蓋2 個(gè)錨框的最小包圍框的寬度和高度,b 和bgt 表示預(yù)測(cè)框和目標(biāo)框的中心點(diǎn),ρ 表示歐幾里得距離,C 表示覆蓋2 個(gè)框的最小包圍框的對(duì)角線長(zhǎng)度。
EIoU 引入平滑系數(shù),在IoU 接近閾值邊界時(shí),匹配度得分更加平滑,避免IoU 波動(dòng)導(dǎo)致誤判,能更好地適應(yīng)不同大小目標(biāo)的評(píng)估,提高對(duì)小尺寸物體的檢測(cè)性能。因此本文采用EIoU 損失函數(shù),獲得更具有精度和魯棒性的模型。
3 實(shí)驗(yàn)分析
3. 1 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)使用的服務(wù)器配置和虛擬環(huán)境配置如表1所示。
3. 2 數(shù)據(jù)集的采集
數(shù)據(jù)集來(lái)自PCB 板的實(shí)際生產(chǎn)現(xiàn)場(chǎng),使用XRay 設(shè)備進(jìn)行采集。每張圖片的像素分辨率是1 537 pixel×1 537 pixel,共收集3 647 張產(chǎn)品圖片。從中選取具有代表性的500 張圖片用于模型訓(xùn)練。通過(guò)使用Python 模塊進(jìn)行隨機(jī)劃分,將數(shù)據(jù)集分為訓(xùn)練集350 張、驗(yàn)證集100 張和測(cè)試集50 張。為了確保算法的實(shí)際應(yīng)用性,訓(xùn)練集和驗(yàn)證集中不包含相同的產(chǎn)品圖片。
3. 3 評(píng)價(jià)指標(biāo)
語(yǔ)義分割常用評(píng)價(jià)指標(biāo)有F1-score 和宏平均(macro_average)、平均像素精度(mean Pixel Accura-cy,mPA)、mIoU 等[22]。焊錫的語(yǔ)義分割背景單一且類(lèi)別不多,宏平均值并不作為本文模型評(píng)價(jià)重點(diǎn),重點(diǎn)選mPA 和mIoU 作為本文模型評(píng)價(jià)指標(biāo)。
像素精度(Pixel Accuracy,PA)表示語(yǔ)義分割過(guò)程中正確分割像素個(gè)數(shù)占所有像素?cái)?shù)的比值。PA的計(jì)算如下:
式中:t 表示推理一張圖片需要的時(shí)間,單位ms。
3. 4 實(shí)驗(yàn)與結(jié)果分析
本文通過(guò)對(duì)比實(shí)驗(yàn),評(píng)估改進(jìn)的YOLOv8n 算法與U-Net、YOLOSeg 和YOLOv8n 在分割性能方面的表現(xiàn)。本次實(shí)驗(yàn)選擇0. 01 作為初始學(xué)習(xí)速率,批量樣本數(shù)設(shè)為4,并進(jìn)行150 次迭代(epoch)。在模型訓(xùn)練過(guò)程中,使用在COCO 數(shù)據(jù)集上經(jīng)過(guò)預(yù)訓(xùn)練的模型,并通過(guò)遷移學(xué)習(xí)優(yōu)化。
訓(xùn)練集用于模型的參數(shù)優(yōu)化,訓(xùn)練過(guò)程中通過(guò)輸入的數(shù)據(jù)和對(duì)應(yīng)的標(biāo)簽計(jì)算損失函數(shù)計(jì)算二者的差異,以最小化損失函數(shù)為目的進(jìn)行參數(shù)優(yōu)化。訓(xùn)練集的損失曲線體現(xiàn)模型收斂速度和魯棒性。本文改進(jìn)算法引入不同模塊與U-Net、YOLOSeg 和YOLOv8n 的訓(xùn)練集的損失函數(shù)對(duì)比如圖5 所示。
驗(yàn)證集用于epoch 結(jié)束后性能評(píng)估和參數(shù)調(diào)優(yōu),防止過(guò)擬合。參數(shù)調(diào)優(yōu)主要是超參數(shù),通過(guò)選擇最佳的超參數(shù)值從而提高泛化能力等性能。其驗(yàn)證集的損失函數(shù)對(duì)比如圖6 所示。
通過(guò)YOLOv8n + CA 和YOLOv8n + EIoU 與YOLOv8n 損失曲線對(duì)比得出,算法引入CA 機(jī)制后對(duì)損失曲線的收斂程度有所促進(jìn),但是效果并不明顯。YOLOv8n 算法改用EIoU 損失函數(shù),在訓(xùn)練過(guò)程收斂更快,總損失的降低也更加明顯。
通過(guò)YOLOv8n + CA 和YOLOv8n + EIoU 與YOLOv8n+CA+EIoU 損失曲線對(duì)比得出,同時(shí)引入CA 機(jī)制和EIoU 損失函數(shù),對(duì)損失曲線的收斂程度是疊加的,模型訓(xùn)練的效果更好。
通過(guò)本文算法與YOLOv8n+CA+EIoU 損失曲線對(duì)比得出,引入CA 機(jī)制和EIoU 損失函數(shù)后,使用BiFPN 或者PANet,對(duì)損失曲線的起到的優(yōu)化效果相差不大。得出用BiFPN 替換PANet 并不會(huì)惡化損失曲線的收斂。但是BiFPN 會(huì)提高邊緣信息的提取能力和模型的泛化能力。
表2 為不同算法和YOLOv8n 引入不同模塊的檢測(cè)精度對(duì)比,可以看出,YOLOv8n 的檢測(cè)精度高于UNet 和YOLOSeg 模型。YOLOv8n + CA 和YOLOv8n+ EIoU 對(duì)精度有一定程度提高,而且YOLOv8n + CA + EIoU 達(dá)到了更高的精度。YOLOv8n+CA+EIoU+BiFPN+分割層與YOLOv8n+CA+EIoU 相比,mPA 和mIoU 有所提升但增幅效果不顯著,甚至FPS 降低2。但是由圖7 的焊點(diǎn)分割泛化能力對(duì)比結(jié)果來(lái)看,YOLOv8n + CA +EIoU+BiFPN+分割層的泛化能力最好,綜合考慮選擇YOLOv8n + CA + EIoU + BiFPN + 分割層的模型。
由圖7 可以看出,圖7(b)和圖7(c)在焊點(diǎn)區(qū)域和背景區(qū)域像素值相近時(shí)存在個(gè)別像素分類(lèi)錯(cuò)誤,即對(duì)焊點(diǎn)像素存在分割遺漏,模型的魯棒性不佳。圖7(e)和圖7(f)對(duì)于3 個(gè)或更多焊點(diǎn)存在橋接時(shí)的分割效果存在橋接遺漏問(wèn)題。圖7 (b)、圖7(c)和圖7 (d)對(duì)于焊點(diǎn)邊緣分割效果均存在“一刀切”現(xiàn)象,即對(duì)于焊點(diǎn)細(xì)節(jié)分割魯棒性和表征能力較差。
針對(duì)以上模型存在的不足,本文基于YOLOv8n模型加入CA 機(jī)制,從而解決個(gè)別像素分類(lèi)錯(cuò)誤的問(wèn)題。使用BiFPN 和增加分割層,解決3 個(gè)或更多焊點(diǎn)存在橋接時(shí)的橋接遺漏問(wèn)題,其對(duì)于焊點(diǎn)邊緣信息分割更加準(zhǔn)確并有更好泛化能力。采用CA 機(jī)制和EIoU 損失函數(shù),從而避免IoU 波動(dòng)導(dǎo)致誤判,提高模型精度。如表2 所示相應(yīng)的mPA、mIoU 和FPS等參數(shù)均得到提升。本文算法相較于U-Net、YOLOSeg 和YOLO8n 而言,mPA 提高7. 2% 、10. 48%和2. 96% ,mIoU 提高5. 82% 、10. 48% 和5. 42% ,FPS 提高9、12 和6。通過(guò)使用相同數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn),證明了本文算法分割效果最好。
4 結(jié)束語(yǔ)
針對(duì)本文所收集的產(chǎn)品,進(jìn)行了焊錫語(yǔ)義分割實(shí)驗(yàn)?;冢伲希蹋希觯福?的模型,本文通過(guò)在Backbone中引入CA 機(jī)制,提取各個(gè)焊點(diǎn)的全局位置信息,從而實(shí)現(xiàn)對(duì)焊點(diǎn)的精準(zhǔn)分割。另外,通過(guò)采用EIoU 損失函數(shù),提高模型的精度,增強(qiáng)其魯棒性。最后使用BiFPN 金字塔增強(qiáng)邊緣信息的提取能力并提高模型泛化能力。通過(guò)與幾個(gè)經(jīng)典的語(yǔ)義分割模型進(jìn)行對(duì)比實(shí)驗(yàn)得出結(jié)論,本文改進(jìn)算法的mPA 達(dá)到90. 37% 、mIoU 達(dá)到83. 76% 、FPS 達(dá)到43。實(shí)驗(yàn)結(jié)果表明,本文算法優(yōu)于目前主流的語(yǔ)義分割模型U-Net、YOLOSeg 和YOLOv8n,但是檢測(cè)速度并沒(méi)有優(yōu)勢(shì),在未來(lái)研究中可以對(duì)模型進(jìn)一步改進(jìn)。如使用深度可分離卷積減少模型參數(shù)量或者使用輕量型的骨干網(wǎng)絡(luò)等。
參考文獻(xiàn)
[1] 張俊賢. 基于機(jī)器視覺(jué)的PCBA 焊錫缺陷檢測(cè)系統(tǒng)研究[D]. 杭州:浙江大學(xué),2021.
[2] 雷崢鳴. 基于機(jī)器視覺(jué)的PCB 焊錫缺陷檢測(cè)[D]. 廣州:廣東工業(yè)大學(xué),2021.
[3] 楊潔潔,楊頂. 基于深度學(xué)習(xí)的語(yǔ)義分割綜述[J]. 長(zhǎng)江信息通信,2022,35(2):69-72.
[4] SHELHAMER E,LONG J,DARRELL T. Fully ConvolutionalNetworks for Semantic Segmentation[J]. IEEE Transactionson Pattern Analysis and Machine Intelligence,2017,39(4):640-651.
[5] ZHAO H S,SHI J P,QI X J,et al. Pyramid Scene ParsingNetwork[C]∥2017 IEEE Conference on Computer Visionand Pattern Recognition (CVPR). Honolulu:IEEE,2017:6230-6239.
[6] RONNEBERGER O,FISCHER P,BROX T. UNet:Convolutional Networks for Biomedical Image Segmentation[C]∥ Medical Image Computing and ComputerassistedIntervention. Munich:Springer,2015:234-241.
[7] CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Semantic Image Segmentation with Deep Convolutional Netsand Fully Connected CRFS [EB / OL]. (2014 - 12 - 22)[2023-09-02]. https:∥arxiv. org / abs / 1412. 7062.
[8] CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:Semantic Image Segmentation with Deep ConvolutionalNets,Atrous Convolution,and Fully Connected CRFs[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(4):834-848.
[9] CHEN L C,PAPANDREOU G,SCHROFF F,et al. Rethinking Atrous Convolution for Semantic Image Segmentation[EB / OL]. (2017-01-17)[2023-09-02]. https:∥arxiv.org / abs / 1706. 05587.
[10] CHEN L C,ZHU Y K,PAPANDREOU G,et al. EncoderDecoder with Atrous Separable Convolution for Semantic ImageSegmentation[C]∥Proceedings of the European Conferenceon Computer Vision (ECCV ). Munich:Springer,2018:833-851.
[11] 毛萬(wàn)菁,阮炬全,劉朔. 基于注意力機(jī)制的改進(jìn)UNet草莓病害語(yǔ)義分割[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2023,32(6):251-259.
[12] 楊奎河,張宇. 交通場(chǎng)景下基于YOLOv5 的目標(biāo)檢測(cè)與分割算法[J]. 長(zhǎng)江信息通信,2023,36(4):48-50.
[13] 李孟浩,袁三男. 基于改進(jìn)YOLOv5s 的交通標(biāo)識(shí)檢測(cè)算法[J]. 南京信息工程大學(xué)學(xué)報(bào)(自然科版),2024,16(1):11-19.
[14] 曾耀,高法欽. 基于改進(jìn)YOLOv5 的電子元件表面缺陷檢測(cè)算法[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版),2023,57(3):455-465.
[15] 杜少聰,張紅鋼,王小敏. 基于改進(jìn)YOLOv5 的鋼軌表面缺陷檢測(cè)[J]. 北京交通大學(xué)學(xué)報(bào),2023,47 (2):129-136.
[16] 段必沖,馬明濤. 基于改進(jìn)YOLOv5 算法的口罩檢測(cè)研究[J]. 計(jì)算機(jī)工程與應(yīng)用,2023,59(16):223-231.
[17] LIU S L,QI L,QIN H F,et al. Path Aggregation Networkfor Instance Segmentation[C]∥2018 IEEE / CVF Conference on Computer Vision and Pattern Recognition. SaltLake City:IEEE,2018:8759-8768.
[18] ZHENG Z H,WANG P,LIU W,et al. DistanceIoU Loss:Faster and Better Learning for Bounding Box Regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.
[19] HOU Q B,ZHOU D Q,FENG J S. Coordinate Attention forEfficient Mobile Network Design[C]∥Proceedings of theIEEE / CVF Conference on Computer Vision and PatternRecognition. Nashville:IEEE,2021:13708-13717.
[20] TAN M X,PANG R M,LE Q V. EfficientDet:Scalableand Efficient Object Detection [C]∥ 2020 IEEE / CVFConference on Computer Vision and Pattern Recognition(CVPR). Seattle:IEEE,2020:10778-10787.
[21] ZHANG Y F,REN W Q,ZHANG Z,et al. Focal and Efficient IOU Loss for Aaccurate Bounding Box Regression[J]. Neurocomputing,2022,506:146-157.
[22] 于營(yíng),王春平,付強(qiáng),等. 語(yǔ)義分割評(píng)價(jià)指標(biāo)和評(píng)價(jià)方法綜述[J]. 計(jì)算機(jī)工程與應(yīng)用,2023,59(6):57-69.
作者簡(jiǎn)介
盧子冊(cè) 男,(1997—),碩士研究生。主要研究方向:計(jì)算機(jī)視覺(jué)、圖像處理和語(yǔ)義分割。
劉小芳 女,(1969—),博士,教授。主要研究方向:智能信息處理、模式識(shí)別和數(shù)據(jù)挖掘等。
王德偉 男,(1998—),碩士研究生。主要研究方向:圖像處理。