国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv5的陶瓷表面缺陷檢測(cè)算法

2024-09-19 00:00:00潘金晶曾成張晶李再勇耿雪娜
現(xiàn)代信息科技 2024年13期

摘 要:提出一種陶瓷表面缺陷檢測(cè)算法YOLOv5-G。該算法在YOLOv5框架的基礎(chǔ)上,將全局注意力機(jī)制(GAM)引入主干和頸部網(wǎng)絡(luò)中,該機(jī)制能夠在減少信息彌散的情況下放大全局交互特征,增強(qiáng)了網(wǎng)絡(luò)的特征表達(dá)能力;使用α-CIoU作為改進(jìn)算法的邊界框回歸損失函數(shù),自適應(yīng)地向上加權(quán)高IoU對(duì)象的損失和梯度,使得模型可以更加關(guān)注IoU高的目標(biāo),從而幫助提高定位精度。在工業(yè)相機(jī)成像的陶瓷表面缺陷數(shù)據(jù)集上進(jìn)行測(cè)試,結(jié)果表明,與YOLOv5模型相比,基于α-CIoU的YOLOv5模型的平均精度均值(mAP50)和召回率(Recall)分別提升了2.3%、4.6%;改進(jìn)算法的平均精度均值(mAP50)、精確率(Precision)、召回率(Recall)分別提升了3.9%、1.7%、5.1%。

關(guān)鍵詞:陶瓷表面缺陷;全局注意力機(jī)制;α-IoU;YOLOv5

中圖分類號(hào):TP183;TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2024)13-0070-06

Ceramic Surface Defect Detection Algorithm Based on Improved YOLOv5

PAN Jinjing1, ZENG Cheng1, ZHANG Jing1, LI Zaiyong1, GENG Xuena2

(1.CYG Vision Technology (Zhuhai) Co., Ltd., Zhuhai 519085, China; 2. School of Computer Science and Technology, Changchun University of Science and Technology, Changchun 130013, China)

Abstract: It propose a ceramic surface defect detection algorithm YOLOv5-G. This algorithm introduces the Global Attention Mechanism (GAM) into the backbone and neck networks based on the YOLOv5 framework. This mechanism can amplify the global interaction features while reducing the information dispersion, and enhances the feature expression capability of the network. Taking α-CIoU as the bounding box regression loss function of the improved algorithm, the loss and gradient of high IoU objects are adaptively weighted upward, so that the model can pay more attention to the targets with high IoU, thus helping to improve the positioning accuracy. The test is carried out on the ceramic surface defect data set of the industrial camera imaging, and the results show that compared with the YOLOv5 model, the Mean Average Precision (mAP50) and Recall rate of the YOLOv5-G model based on α-CIoU are increased by 2.3% and 4.6% respectively. The Mean Average Precision (mAP50), Precision and Recall of the improved algorithm are all significantly improved by 3.9%, 1.7% and 5.1% respectively.

Keywords: ceramic surface defect; GAM; α-IoU; YOLOv5

0 引 言

陶瓷的表面質(zhì)量直接影響到其外觀和使用壽命。因此,準(zhǔn)確、有效的陶瓷表面缺陷檢測(cè)方法是非常重要的。目前,陶瓷表面缺陷檢測(cè)仍然主要依賴于人工檢測(cè)。該方法效率低下且評(píng)價(jià)標(biāo)準(zhǔn)過于主觀,不能滿足工業(yè)生產(chǎn)的需求。為了提高檢測(cè)的效率和準(zhǔn)確性,越來越多的學(xué)者采用不同的技術(shù)進(jìn)行陶瓷表面缺陷檢測(cè)。目前陶瓷缺陷檢測(cè)方法主要包括超聲波檢測(cè)[1]、機(jī)器視覺檢測(cè)、X射線檢測(cè)法[2]等。超聲波檢測(cè)依賴于陶瓷表面的反射和折射,其檢測(cè)精度和靈敏度與缺陷的深度有關(guān),對(duì)于陶瓷表面顏色缺陷的檢測(cè)效果較差。X射線掃描陶瓷采用透射成像原理,可以檢測(cè)出小的內(nèi)外缺陷。但該方法成本高、效率低,不適用于大規(guī)模陶瓷缺陷檢測(cè)。機(jī)器視覺檢測(cè)方法主要分為傳統(tǒng)方法和基于深度學(xué)習(xí)的檢測(cè)方法。

傳統(tǒng)方法主要依據(jù)缺陷顏色、形狀等特征,利用圖像處理方法或結(jié)合傳統(tǒng)機(jī)器學(xué)習(xí)方法進(jìn)行檢測(cè)[3]。傳統(tǒng)方法依賴于經(jīng)驗(yàn)豐富的專家手工制作的特征,這些特征往往是有限的,有高度針對(duì)性的。由于陶瓷表面缺陷種類繁多,形態(tài)多樣,背景復(fù)雜,一旦產(chǎn)品材料或生產(chǎn)環(huán)境發(fā)生變化,傳統(tǒng)方法中的有限特征模板將難以應(yīng)用。

基于深度學(xué)習(xí)的代表性檢測(cè)算法主要包括Faster R-CNN [4]和YOLO系列[5-8]。Faster R-CNN通常具有較高的檢測(cè)精度,但處理速度較慢;YOLOv5模型具有準(zhǔn)確性、快速性、高效性優(yōu)點(diǎn),已被應(yīng)用于不同場景下的智能缺陷檢測(cè)。蔣亞軍等[9]在YOLOv5s的骨干網(wǎng)絡(luò)中加入CBAM模塊,并增加一個(gè)檢測(cè)頭,有效提高了紙杯缺陷的檢測(cè)能力,對(duì)小尺寸和特征不明顯紙杯缺陷的檢測(cè)效果有明顯提升;王恩芝等[10]在YOLOv5骨干網(wǎng)絡(luò)中加入卷積注意力模塊,并在頸部引入自適應(yīng)空間融合方法,提高了對(duì)織物缺陷的檢測(cè)精度;王旭等[11]在YOLOv5的骨干網(wǎng)絡(luò)中引入CBAM模塊,并用CARAFE算子替換原YOLOv5中最近鄰上采樣算子,有效地提高了對(duì)陶瓷環(huán)缺陷的檢測(cè)精度。

綜上,本文提出了一種改進(jìn)YOLOv5的陶瓷表面缺陷檢測(cè)算法YOLOv5-G。首先,在YOLOv5的骨干網(wǎng)絡(luò)和頸部中引入全局注意力機(jī)制(Global Attention Mechanism, GAM)[12],使模型在通道、高度及寬度這三個(gè)維度上進(jìn)一步提取缺陷特征,降低漏檢率。其次,引入α-IoU [13]作為改進(jìn)算法的邊界框損失函數(shù),自適應(yīng)地向上加權(quán)高IoU對(duì)象的損失和梯度,使得模型可以更加關(guān)注IoU高的目標(biāo),加速了預(yù)測(cè)框的收斂,提高了預(yù)測(cè)框的回歸精度。本文在工業(yè)相機(jī)成像的陶瓷表面缺陷數(shù)據(jù)集上進(jìn)行改進(jìn)前后模型的驗(yàn)證。結(jié)果表明,相較于YOLOv5模型,改進(jìn)算法的檢測(cè)精度有明顯提升,可以較好地應(yīng)用于陶瓷表面缺陷檢測(cè)任務(wù)中。

1 YOLOv5基本原理

YOLOv5作為單階段目標(biāo)檢測(cè)算法的SOTA(State-of the-Art),包括輸入端(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和頭部(Head)四部分。YOLOv5通過width_multiple和depth_multiple兩個(gè)參數(shù)來控制模型的寬度和深度,對(duì)應(yīng)s、m、l、x這4種規(guī)模的網(wǎng)絡(luò)。其中,YOLOv5s的深度及特征圖寬度最小,其余網(wǎng)絡(luò)在此基礎(chǔ)上不斷加深、加寬,復(fù)雜度與精度也隨之提升。本文為了滿足工業(yè)場景下檢測(cè)速度與精度的權(quán)衡,選擇了YOLOv5s_6.0為基礎(chǔ)模型。圖1展示了YOLOv5_6.0的網(wǎng)絡(luò)結(jié)構(gòu)。

1.1 輸入端

輸入端通過自適應(yīng)圖片縮放將原始圖片統(tǒng)一縮放到一個(gè)標(biāo)準(zhǔn)尺寸,進(jìn)行填充后,送入主干網(wǎng)絡(luò)中。使用Mosaic數(shù)據(jù)增強(qiáng),隨機(jī)地將4張圖片進(jìn)行縮放裁剪并拼接成新的圖片,該方法可以豐富檢測(cè)數(shù)據(jù)集,讓網(wǎng)絡(luò)的魯棒性更好。不同于傳統(tǒng)目標(biāo)檢測(cè)算法需要手動(dòng)設(shè)置錨框的大小和高寬比等參數(shù),YOLOv5在訓(xùn)練代碼中嵌入自適應(yīng)錨框計(jì)算功能,自動(dòng)獲取訓(xùn)練數(shù)據(jù)集所對(duì)應(yīng)的最佳錨框值,實(shí)現(xiàn)更精準(zhǔn)的目標(biāo)檢測(cè)。

1.2 主干網(wǎng)絡(luò)

主干網(wǎng)絡(luò)能夠從圖像中提取特征。如圖1所示,YOLOv5的主干網(wǎng)絡(luò)主要包括ConBNSiLU、C3及SPPF模塊。其中,ConBNSiLU是由2D卷積層、BN層及SiLU激活函數(shù)組成,其作用是進(jìn)行特征提取,減少計(jì)算量和參數(shù)量,達(dá)到提速效果。C3由n個(gè)Bottleneck、3個(gè)ConBNSiLU及Concat模塊構(gòu)成,C3減少了梯度信息的重復(fù),增加網(wǎng)絡(luò)的深度和感受野,提高了骨干網(wǎng)絡(luò)的特征提取能力。YOLOv5_6.0用SPPF結(jié)構(gòu)代替空間金字塔池化結(jié)構(gòu)SPP [14],將輸入串行通過3個(gè)5×5大小的最大池化層,在輸出與SPP相同的條件下,速度更快。SPPF可以在一定程度上融合多尺度特征。

1.3 頸部網(wǎng)絡(luò)

頸部由特征金字塔(Feature Pyramid Network, FPN)[15]及路徑聚合網(wǎng)絡(luò)(Path Aggregation Network, PANet)[16]構(gòu)成。FPN采用上采樣的方式將深層的強(qiáng)語義特征傳達(dá)到淺層,而PANet則通過下采樣的方式向深層傳達(dá)強(qiáng)定位信息,二者聯(lián)合,從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行參數(shù)聚合,生成具有多尺度信息的特征圖,以提高目標(biāo)檢測(cè)的準(zhǔn)確率。

1.4 輸出端

Head部分主要為檢測(cè)模塊,由3個(gè)1×1卷積構(gòu)成,對(duì)應(yīng)3個(gè)檢測(cè)特征層。當(dāng)輸入圖片大小為640×640時(shí),三個(gè)尺度上的特征圖大小分別為80×80、40×40、20×20,相對(duì)于輸入圖像分別做了8、16及32倍下采樣,分別適合檢測(cè)小目標(biāo)、中等目標(biāo)以及大目標(biāo)。三個(gè)特征層對(duì)應(yīng)的通道數(shù)為(類別數(shù)量+5)×每個(gè)檢測(cè)層上的錨框數(shù)量,其中5分別對(duì)應(yīng)目標(biāo)置信度和預(yù)測(cè)框坐標(biāo)。

1.5 損失函數(shù)

損失函數(shù)主要由3部分組成:分類損失、置信度損失及定位損失。其中,分類損失和置信度損失采用二元交叉熵來計(jì)算,定位損失采用CIoU [17]損失來計(jì)算。CIoU考慮了3個(gè)重要的幾何因素:目標(biāo)框與預(yù)測(cè)框的重疊面積、中心點(diǎn)距離及寬高比,保證了預(yù)測(cè)框和目標(biāo)框的寬高比的一致性,提高了預(yù)測(cè)框的定位精度,加快了網(wǎng)絡(luò)的收斂速度。CIoU公式為:

其中,ρ2(?)表示歐式距離,b、bgt分別表示預(yù)測(cè)框和目標(biāo)框的中心點(diǎn),c表示能夠包含兩框的最小閉包區(qū)域的對(duì)角線距離。α為懲罰參數(shù), 用來衡量高寬比的一致性,α和 的計(jì)算式為:

CIoU損失函數(shù)公式為:

2 改進(jìn)的YOLOv5模型

2.1 GAM引入Backbone和Neck

注意力機(jī)制是計(jì)算機(jī)視覺中的一個(gè)重要概念,它是指模型能夠在處理輸入數(shù)據(jù)時(shí),集中關(guān)注某些重要的部分,忽略其他無關(guān)的部分。在計(jì)算機(jī)視覺任務(wù)中,注意力機(jī)制可以幫助模型更好地理解輸入圖像或視頻,從而提高模型的性能。注意力機(jī)制在圖像任務(wù)中的性能改進(jìn)已有很多研究。Squeeze-and-Excitation Networks(SENet)[18]首次使用通道注意和通道特征融合來抑制不重要的通道,但效率較低。卷積注意力模塊(CBAM)[19]同時(shí)考慮了通道和空間維度,但忽略了通道-空間的相互作用,從而失去了跨維信息。考慮到跨維度交互作用的重要性,三重注意模塊(TAM)[20]利用每一對(duì)通道、空間寬度和空間高度的三維信息來提高效率。但每次操作僅應(yīng)用于兩個(gè)維度,而不是全部三個(gè)維度。GAM注意力機(jī)制能夠放大跨維度的交互作用,同時(shí)獲取通道,空間高度及寬度三個(gè)維度的特征,避免信息丟失,從而提高檢測(cè)的精度。

本研究在YOLOv5的骨干網(wǎng)絡(luò)及頸部引入GAM注意力模塊,如圖2(a)所示,給定輸入特征F1 ∈ RC×H×W,中間狀態(tài)和輸出如式(5)(6)所示:

其中,Mc和Ms分別表示通道和空間注意力圖,表示按元素進(jìn)行乘法操作。GAM中的通道注意子模塊使用三維排列來保留三個(gè)維度上的信息,如圖2(b)所示。通過一個(gè)兩層的MLP(多層感知器)放大跨維的通道-空間依賴性。在空間注意力子模塊中,如圖2(c)所示,為了關(guān)注空間信息,使用兩個(gè)7×7卷積層進(jìn)行空間信息融合。

GAM模塊能夠在減少信息彌散的情況下放大全局交互特征,增強(qiáng)了網(wǎng)絡(luò)的特征表達(dá)能力,能夠使得YOLOv5模型更加精準(zhǔn)地進(jìn)行目標(biāo)檢測(cè)。YOLOv5-G將GAM模塊引入主干網(wǎng)絡(luò)和頸部,改進(jìn)后的主干網(wǎng)絡(luò)如圖3所示。

2.2 α-IoU的引入

目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺的核心問題,其檢測(cè)性能依賴于損失函數(shù)的設(shè)計(jì)。邊界框損失函數(shù)作為目標(biāo)檢測(cè)損失函數(shù)的重要組成部分,其良好的定義將為目標(biāo)檢測(cè)模型帶來顯著的性能提升。早期的目標(biāo)檢測(cè)工作使用IoU作為定位損失。然而,當(dāng)目標(biāo)框與預(yù)測(cè)框沒有交集時(shí),IoU損失會(huì)出現(xiàn)梯度消失現(xiàn)象,導(dǎo)致無法繼續(xù)優(yōu)化。這激發(fā)了幾種改進(jìn)的基于IoU的損失設(shè)計(jì),包括GIoU [21]、DIoU [17]、CIoU,計(jì)算式為:

其中,B和Bgt表示預(yù)測(cè)框和目標(biāo)框,C表示包含B和Bgt的最小閉包,ρ2(?)表示歐幾里得距離,b和bgt表示預(yù)測(cè)框和目標(biāo)框的中心點(diǎn),w gt、hgt、w、h分別表示目標(biāo)框及預(yù)測(cè)框的寬高。

α-IoU表示一種新的IoU損失家族,通過在現(xiàn)有的IoU損失中引入power變換,用于控制IoU損失對(duì)總損失函數(shù)的貢獻(xiàn),實(shí)現(xiàn)精準(zhǔn)的預(yù)測(cè)框回歸和目標(biāo)檢測(cè)。α-IoU對(duì)現(xiàn)有的基于IoU的損失進(jìn)行了統(tǒng)一的冪化,合適的α值(即α>1)可以通過自適應(yīng)地向上加權(quán)高IoU對(duì)象的損失和梯度,使得模型可以更加關(guān)注IoU高的目標(biāo),從而幫助提高定位精度。將α-IoU應(yīng)用于GIoU、DIoU及CIoU,可得到α-GIoU,α-DIoU,α-CIoU,公式為:

本文將探究不同的α值(α = 1,2,3)與不同IoU損失的組合在本研究數(shù)據(jù)集上對(duì)YOLOv5模型性能的影響,并選取最優(yōu)的α值與IoU損失的組合。2NpFh3/ihd4P5CXGYCfvygbFL6xYphTLgX++Gq+Llp0=

3 實(shí)驗(yàn)分析

3.1 實(shí)驗(yàn)設(shè)置

本實(shí)驗(yàn)中使用的數(shù)據(jù)集來自工業(yè)相機(jī)成像,包含1 052張含標(biāo)簽圖片。樣品的缺陷主要包括2種類別:chip(缺口)和stain(臟污),部分缺陷樣本如圖4所示。按照8:1:1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。原始圖像尺寸為2 448×2 048×3,將所有輸入圖像尺寸統(tǒng)一裁剪為704×640×3。模型初始學(xué)習(xí)率為0.01,權(quán)重衰減系數(shù)為0.000 5,動(dòng)量為0.937,Batch size為16,Epoch為450,使用Adam優(yōu)化器進(jìn)行參數(shù)優(yōu)化。本實(shí)驗(yàn)基于PyTorch深度學(xué)習(xí)框架,CPU為Intel Core i7 6600U,GPU為NVIDIA GeForce RTX 3090,用于加速運(yùn)算,開發(fā)環(huán)境為Python 3.7.9,PyTorch 1.10.2,CUDA 11.6。

3.2 評(píng)估指標(biāo)

本實(shí)驗(yàn)采用精確率(P),召回率(R)以及目標(biāo)檢測(cè)領(lǐng)域常用的mAP50來評(píng)估YOLOv5模型及其改進(jìn)模型的性能。計(jì)算式為:

精確率表示模型預(yù)測(cè)正確物體的能力,該指標(biāo)表示在所有預(yù)測(cè)為缺陷的結(jié)果(TP+FP)中,模型預(yù)測(cè)為缺陷且正確的目標(biāo)(TP)的占比。召回率表示模型能夠找全正確物體的能力,該指標(biāo)表示在所有的缺陷樣本(TP+FN)中,模型預(yù)測(cè)為缺陷且正確的目標(biāo)(TP)的占比。APi表示第i類的模型平均精度,若是多類別,則使用mAP(mean Average Precision)來衡量模型性能,計(jì)算方法為將多個(gè)AP值累加后求平均。mAP50是指在IoU閾值取0.5時(shí)的mAP值。

3.3 實(shí)驗(yàn)結(jié)果分析

表1展示了YOLOv5模型在不同α值及IoU下,在測(cè)試集上的性能表現(xiàn)。通過表1可得出,YOLOv5在CIoU(α = 2)上具有最好的精確率,在CIoU(α = 3)上具有最好的召回率。對(duì)于不同模型的mAP50,CIoU(α = 3)表現(xiàn)最好,其次是GIoU和DIoU(α = 2)。YOLOv5+CIoU(α = 3)在本實(shí)驗(yàn)中獲得了最好的mAP50和召回率,分別較之于YOLOv5原始模型(YOLOv5+CIoU)提升了2.3%、4.6%。因此,我們選用CIoU(α = 3)作為改進(jìn)YOLOv5模型的邊界框回歸損失函數(shù)來提高模型的泛化能力。

改進(jìn)后的模型YOLOv5-G,在主干網(wǎng)絡(luò)及頸部添加GAM模塊,將α-CIoU作為邊界框損失函數(shù)。將原模型及改進(jìn)模型在測(cè)試集上進(jìn)行測(cè)試,觀察不同改進(jìn)對(duì)模型性能變化的影響。從表2可以觀察到,在引入GAM模塊后,相較于YOLOv5基礎(chǔ)模型,召回率提升了3.0%,mAP50提升了2.0%,但精確率略微有所下降。進(jìn)一步地,將α-CIoU(α = 3)作為邊界框損失函數(shù),YOLOv5-G相較于原模型,在精確率、召回率、mAP50上均有明顯提升,分別提升了1.7%、5.1%、3.9%。

圖5展示了原圖及改進(jìn)前后模型在陶瓷表面缺陷數(shù)據(jù)集上的檢測(cè)結(jié)果。第一、二組對(duì)比圖中,YOLOv5分別漏檢了一個(gè)chip缺陷及一個(gè)stain缺陷,而YOLOv5-G均將所有缺陷檢出;第三組圖像中,YOLOv5將圖左下角的微小陰影誤檢為chip缺陷,YOLOv5-G未出現(xiàn)誤檢現(xiàn)象;第四組對(duì)比圖中,YOLOv5漏檢了一塊較為明顯的stain缺陷,YOLOv5-G均以較高的置信度正確檢出,體現(xiàn)了更好的泛化性能。

4 結(jié) 論

本文基于YOLOv5提出了一種改進(jìn)的陶瓷表面缺陷檢測(cè)算法(YOLOv5-G),在主干網(wǎng)絡(luò)及頸部加入全局注意力(GAM)模塊,增強(qiáng)了模型的特征表達(dá)能力,提高了檢測(cè)精度。引入α-CIoU(α = 3)邊界框回歸損失函數(shù),進(jìn)一步提高了缺陷的定位精度。實(shí)驗(yàn)結(jié)果表明,YOLOv5-G算法相較于YOLOv5模型在精確率、召回率和平均精度值方面均得到了提升,具有優(yōu)秀的檢測(cè)精度,能較好地應(yīng)用于陶瓷表面缺陷檢測(cè)任務(wù)中。

參考文獻(xiàn):

[1] CHESNOKOVA A A,KALAYEVA S Z,IVANOVA V A. Development of a Flaw Detection Material for the Magnetic Particle Method [J/OL].Journal of Physics: Conference Series,2017,881(1):12022[2023-11-20].https://iopscience.iop.org/article/10.1088/1742-6596/881/1/012022.

[2] PLESSIS A D,YADROITSAVA I,YADROITSEV I. Effects of Defects on Mechanical Properties in Metal Additive Manufacturing: A Review Focusing on X-ray Tomography Insights [J/OL].Materials & Design,2020,187:108385[2023-11-20].https://doi.org/10.1016/j.matdes.2019.108385.

[3] 羅東亮,蔡雨萱,楊子豪,等.工業(yè)缺陷檢測(cè)深度學(xué)習(xí)方法綜述 [J].中國科學(xué):信息科學(xué),2022,52(6):1002-1039.

[4] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J].Advances in Neural Information Processing Systems,2017,39(6):1137-1149.

[5] REDMON J,F(xiàn)ARHADI A. YOLO9000: Better,F(xiàn)aster,Stronger [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu:IEEE,2017:6517-6525.

[6] REDMON J,F(xiàn)ARHADI A. Yolov3: An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].(2018-04-08)[2023-12-01].https://arxiv.org/abs/1804.02767.

[7] BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection [J/OL].arXiv:2004.10934 [cs.CV].(2020-04-23)[2023-11-22].https://arxiv.org/abs/2009.10934.

[8] github. ultralytics/yolov5 [EB/OL].[2023-11-26].https://github.com/ultralytics/yolov5.

[9] 蔣亞軍,曹昭輝,丁椒平,等.基于改進(jìn)YOLOv5s模型紙杯缺陷檢測(cè)方法 [J].包裝工程,2023,44(11):249-258.

[10] 王恩芝,張團(tuán)善,劉亞.基于改進(jìn)Yolo v5的織物缺陷檢測(cè)方法 [J].輕工機(jī)械,2022,40(2):54-60.

[11] 王旭,管聲啟,劉通,等.基于改進(jìn)YOLOv5的陶瓷環(huán)缺陷檢測(cè)算法 [J].輕工機(jī)械,2023,41(3):66-71.

[12] LIU Y C,SHAO Z R,HOFFMANN N. Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions [J/OL].arXiv:2112.05561 [cs.CV].(2021-12-10)[2023-10-26].https://arxiv.org/abs/2112.05561.

[13] HE J B,ERFANI S,MA X J,et al. Alpha-IoU: A Family of Power Intersection over Union Losses for Bounding Box Regression [J/OL].arXiv:2110.13675 [cs.CV].(2022-1022)[2023-10-26].https://arxiv.org/abs/2110.13675.

[14] HE K M,ZHANG X Y,REN S Q,et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

[15] LIN T Y,DOLLAR P,GIRSHICK R,et al. Feature Pyramid Networks for Object Detection [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:936-944.

[16] LI H C,XIONG P F,AN J,et al. Pyramid Attention Network for Semantic Segmentation [J/OL].arXiv:1805.10180 [cs.CV].(2018-11-25)[2023-11-19].https://arxiv.org/abs/1805.10180v1.

[17] ZHENG Z H,WANG P,LIU W,et al. Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression [C]//Proceedings of the 34th AAAI Conference on Artificial Intelligence.PaloAlto:AAAI Press,2020,34(7):12993-13000.

[18] HU J,SHEN L,ALBANIE S,et al. Squeeze-and-Excitation Networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:7132-7141.

[19] WOO S,PARK J,LEE JY,et al. CBAM: Convolutional Block Attention Module [C]//Proceedings of the 15th European Conference on Computer Vision.Munich:Springer,2018:3-19.

[20] MISRA D,NALAMADA T,ARASANIPALAI A U,et al. Rotate to Attend: Convolutional Triplet Attention Module [C]//Proceedings of the 2021 IEEE Winter Conference on Applications of Computer Vision.Waikoloa:IEEE,2021:3138-3147.

[21] REZATOFIGHI H,TSOI N,GWAK J Y,et al. Generalized Intersection Over Union: A Metric and a Loss for Bounding Box Regression [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:658-666.

作者簡介:潘金晶(1991—),女,漢族,安徽滁州人,首席算法專家,博士,研究方向:數(shù)據(jù)挖掘、推薦系統(tǒng)、深度學(xué)習(xí)、計(jì)算機(jī)視覺;曾成(1984—),男,漢族,湖北武漢人,首席軟件官,博士,研究方向:軟件算法及通信協(xié)議優(yōu)化、深度學(xué)習(xí)算法在工業(yè)檢測(cè)領(lǐng)域的應(yīng)用與優(yōu)化;張晶(1985—),女,漢族,湖北武漢人,總經(jīng)理,本科,研究方向:工業(yè)視覺檢測(cè)項(xiàng)目的開發(fā)和管理;李再勇(1990—),男,漢族,湖北襄陽人,項(xiàng)目經(jīng)理,研究方向:工業(yè)視覺檢測(cè)項(xiàng)目開發(fā)及管理;耿雪娜(1988—),女,漢族,吉林長春人,講師,博士,研究方向:故障診斷、自動(dòng)推理、專家系統(tǒng)的算法。

桂阳县| 淮滨县| 寻甸| 濮阳市| 喜德县| 汾西县| 甘洛县| 奉节县| 枞阳县| 长泰县| 察雅县| 盖州市| 乌拉特后旗| 合作市| 黄浦区| 宁津县| 资阳市| 宁晋县| 棋牌| 东平县| 孟州市| 当阳市| 东丰县| 沙田区| 舞钢市| 梁平县| 湘阴县| 晋江市| 阿拉善左旗| 馆陶县| 津市市| 青岛市| 昭苏县| 静宁县| 永德县| 怀远县| 北海市| 新兴县| 吴堡县| 中宁县| 西贡区|