国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

改進(jìn)YOLOv5模型的帶鋼表面缺陷檢測方法

2024-07-22 00:00:00陳萬志張春光
關(guān)鍵詞:特征提取注意力方向

摘 "要:針對帶鋼表面缺陷檢測中的漏檢和精度較低問題,提出一種融合swin-transformer和坐標(biāo)注意力(coordinate attention,CA)模塊的改進(jìn)YOLOv5模型檢測方法。在YOLOv5模型的主干網(wǎng)絡(luò)中引入swin-transformer特征提取模塊,使主干網(wǎng)絡(luò)更聚焦于圖像全局特征信息的提??;在特征融合網(wǎng)絡(luò)輸出分支末端嵌入CA模塊,進(jìn)一步增強(qiáng)目標(biāo)缺陷方向和位置信息的敏感度。研究結(jié)果表明:改進(jìn)模型在NEU-DET數(shù)據(jù)集上的平均精度值(mAP)達(dá)到了77.6%,較原YOLOv5模型提高了3個百分點。改進(jìn)模型提升了帶鋼表面缺陷檢測精度,具有更好的缺陷檢測能力。

關(guān)鍵詞:帶鋼表面缺陷檢測;swin-transformer模塊;坐標(biāo)注意力模塊;YOLOv5網(wǎng)絡(luò)

中圖分類號:TP389.1 " " " " " " 文獻(xiàn)標(biāo)志碼:A " " " " " " " " " 文章編號:1008-0562(2024)03-0359-07

Surface defect detection method of strip steel by improved YOLOv5 model

CHEN Wanzhi, ZHANG Chunguang

(College of software, Liaoning Technical University, Huludao 125105, China)

Abstract: Aiming at the problem of missing detection and low precision in strip surface defect detection, an improved YOLOv5 network model detection method combining swin-transformer and coordinate attention module (CA) is proposed. Firstly the swin-transformer module of feature extraction is introduced into the feature extraction backbone network of YOLOv5 to make it the backbone network more focused on extracting global feature information. Secondly, embed CA module at the end of the output branch of feature fusion network to further enhance the sensitivity of target defect direction and position information. The results show that the average precision value (mAP) of the improved network model on the NEU-DET data set reaches 77.6%, which is 3.0% higher than the original YOLOv5 network model. The improved network model improves the detection accuracy of strip surface defects and has better defect detection ability.

Key words: surface defect detection of strip steel; swin-transformer module; coordinate attention module; YOLOv5 network

0 "引言

帶鋼被廣泛應(yīng)用于航空航天、土地建筑、車輛生產(chǎn)等領(lǐng)域。在原材料、軋制工序、生產(chǎn)系統(tǒng)控制等各方面因素的影響下導(dǎo)致產(chǎn)出的帶鋼表面產(chǎn)生氧化皮、斑塊、裂紋、麻點、夾雜以及劃痕等瑕疵,這些瑕疵對帶鋼的性能有不良影響。因此,將質(zhì)量檢測環(huán)節(jié)引入生產(chǎn)線,可以提高生產(chǎn)效率、降低生產(chǎn)成本。早期帶鋼表面缺陷檢測方法有人工檢測法、激光掃描檢測法和漏磁檢測法等。人工檢測法是檢測人員在生產(chǎn)流水線上通過肉眼觀察判斷存在的缺陷,受生產(chǎn)線速度和人眼視覺靈敏度的影響,缺陷漏檢現(xiàn)象較多,且效率較低;激光掃描檢測法[1]是激光通過多面體棱鏡投射至鋼板表面,鋼板表面發(fā)射和散射的光經(jīng)過光電倍增管后將其轉(zhuǎn)化為電信號輸入計算機(jī),但這種方法極易受到粉塵和物質(zhì)的影響造成光反射位置偏移從而受到限制;漏磁檢測法[1]通過觀察漏磁場的形成判斷是否存在缺陷,磁通產(chǎn)生畸變代表表面缺陷存在,這種情況會形成漏磁場,但是在許多真實應(yīng)用場景中會存在許多小范圍缺陷區(qū)域,這樣的小范圍缺陷區(qū)域難以形成漏磁場,也就難以定位小型缺陷。

伴隨深度學(xué)習(xí)的發(fā)展,依靠深度學(xué)習(xí)的缺陷檢測方法得到了越來越深入的運(yùn)用。采用表征方式的深度學(xué)習(xí)檢測方法常包括分類網(wǎng)絡(luò)、目標(biāo)檢測、實例分割三類。其中,通常的分類網(wǎng)絡(luò)為ShuffleNet[2],檢測模型為Faster R-CNN[3]和YOLO[4]系列等,分割網(wǎng)絡(luò)為FCN[5]和Mask R-CNN[6]等?;谏疃葘W(xué)習(xí)的缺陷檢測方法也開始廣泛應(yīng)用于鋼鐵行業(yè)等工業(yè)領(lǐng)域中。李維剛等[7]利用K-means聚類算法優(yōu)化先驗框參數(shù),引入改進(jìn)的YOLOv3算法檢測帶鋼表面缺陷,較原有計算平均精度均值提高11%,但由于該模型的方法參數(shù)較多會直接影響到檢測的速度。董家順等[8]采用經(jīng)過優(yōu)化的K-means正反求和方法,克服了鋼材表層覆有氧化鐵皮以及弧形外表層所導(dǎo)致的光照不均的缺點,并提升測量準(zhǔn)確度。張宇[9]提出MFAM和FFAM兩種通道注意力模塊嵌入ResNet主干網(wǎng)絡(luò),提高帶鋼表面缺陷檢測精度,但在加權(quán)特征融合方法中未考慮到有效感受野的影響。馬燕婷等[10]引入transformer自注意力機(jī)制,結(jié)合BiFPN網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)YOLOv5網(wǎng)絡(luò)模型,檢驗精度較原YOLOv5算法提高了5.3%。目前,適用于帶鋼表面缺陷檢測的研究算法還有很多,然而聚焦全局特征信息的模型較少、對目標(biāo)方向和位置信息的敏感度較低,這也是帶鋼表面缺陷檢測不夠精準(zhǔn)的原因[11]- [20]。

針對缺陷類型較為龐雜多樣的帶鋼表面缺陷圖像數(shù)據(jù),提出基于改進(jìn)YOLOv5模型的帶鋼表面缺陷檢測方法,將swin-transformer模塊嵌入YOLOv5的特征提取網(wǎng)絡(luò),提取更高級的特征信息,減少計算量;將CA模塊嵌入到Y(jié)OLOv5的特征融合網(wǎng)絡(luò)分支末端,旨在強(qiáng)化網(wǎng)絡(luò)結(jié)構(gòu)對方向和位置等信息的敏感度。

1 "研究方法

深度學(xué)習(xí)中的注意力機(jī)制專注于圖像全局特征信息,可增強(qiáng)對感興趣區(qū)域位置信息的敏感度。實驗基于YOLOv5模型,結(jié)合swin-transformer自注意力機(jī)制模塊和CA機(jī)制模塊設(shè)計帶鋼表面缺陷檢測網(wǎng)絡(luò)模型,改進(jìn)后的網(wǎng)絡(luò)模型見圖1。

圖1模型設(shè)計要點為:將YOLOv5模型的特征提取網(wǎng)絡(luò)中的C3模塊替換為swin-transformer模塊,充分利用其全局通信能力,使主干網(wǎng)絡(luò)更聚焦于圖像全局特征信息的提取,提高鋼鐵表面缺陷檢測精度;在YOLOv5模型特征融合網(wǎng)絡(luò)的分支末端嵌入CA模塊,強(qiáng)化YOLOv5s模型對方向和位置等信息的敏感度,提高檢測精度、降低漏檢率。

1.1 "Swin-transformer模塊

原YOLOv5模型在特征提取網(wǎng)絡(luò)過程中經(jīng)過多個卷積層,多個C3模塊,再經(jīng)過SPPF模塊。主干特征提取網(wǎng)絡(luò)采用C3結(jié)構(gòu),帶來的參數(shù)量較大,檢測速度較慢,應(yīng)用受限。將原網(wǎng)絡(luò)中的C3模塊替換為融合特征提取能力更強(qiáng)的swin-transformer模塊,向前承接特征提取網(wǎng)絡(luò)中第5個CBS模塊,向后承接SPPF模塊,提取更高級的特征信息,建立全局通信,減少計算量,改進(jìn)YOLOv5s模型的特征提取網(wǎng)絡(luò)見圖2。圖2中 和 分別表示基于窗口的多頭注意力模塊和多層感知器的輸出特征; 和 分別表示基于移動窗口的多頭注意力模塊和多層感知器的輸出特征。

Swin-transformer模塊基于窗口的多頭自注意力模塊將特征圖內(nèi)所有像素劃分為多個窗口,在窗口內(nèi)部計算每個像素與其他像素的相關(guān)性。為解決窗口間不能實現(xiàn)信息交互的問題,基于移動窗口的多頭自注意力模塊劃分窗口不使用等大小窗口,而是在劃分窗口的同時向右向下遍歷 個像素,增強(qiáng)其建模能力,有效實現(xiàn)窗格間的交互和全局注意力機(jī)制,其注意力特征輸出表達(dá)式為

, (1)

式中:Q、K、V分別為查詢內(nèi)容矩陣、查詢結(jié)果矩陣和相似度矩陣;B為相對位置偏置; 為Q/K的維度。

以上計算過程見圖3,通過歸一化層和輸出層得到最終結(jié)果。

Swin-transformer模塊通過下采樣的層級設(shè)計逐漸增大感受野,使得注意力機(jī)制能夠注意到全局的特征。把注意力機(jī)制限定在單一窗口數(shù)量(window size固定)上,一方面可以引入CNN卷積操作的局部特性,另一方面又因為其只和窗口數(shù)量呈線性關(guān)系,可以減少計算量。

1.2 "CA模塊

卷積模塊有空間不可知性和通道特定性,這兩個特性造成卷積模塊的卷積核適應(yīng)各種空間區(qū)域的不同視覺模型的能力不足,靈活性差,為解決此問題,在特征融合網(wǎng)絡(luò)分支末端改進(jìn)模型。將卷積模塊替換為可捕獲位置信息和通道關(guān)系的CA注意力模塊,利用提取的位置信息高效處理通道間的關(guān)系,增強(qiáng)YOLOv5模型對方向和位置信息的敏感度。

CA模塊注意力機(jī)制見圖4,對尺寸為 的輸入特征圖分別按照X方向和Y方向進(jìn)行池化,其中 為還原比,用于控制塊大小。將每個CA模塊視為一個計算單元,CA模塊將通道注意力分解為2個同時進(jìn)行的X方向和Y方向一維特征編碼流程,將嵌入特定方向信息的兩個特征圖分別編碼為兩個注意力圖像,每個注意力圖都可捕獲對輸入特征圖沿著一個空間方向的長程依賴。

輸入特征圖在高度h方向的注意力權(quán)重為

, " " "(2)

輸入特征圖在寬度w方向的注意力權(quán)重為

, " " "(3)

式(2)、式(3)中: 為在垂直和水平方向上對空間信息進(jìn)行編碼的中間特征圖; 和 分別為沿著垂直和水平方向分成的兩個獨(dú)立張量; 和 分別為沿著垂直和水平方向的1×1卷積變換; 為sigmoid函數(shù)功能。

輸入特征圖則在高度h和寬度w方向上的注意力權(quán)重為

, " (4)

式中: 為c通道上的輸入; 為c通道上的輸入h方向的注意力權(quán)重; 為c通道上的輸入w方向的注意力權(quán)重。

CA模塊通過沿著兩個空間方向聚合特征,得到一對具有方向感知的特征圖,同時允許注意力模塊捕獲沿一個方向的長程依賴關(guān)系并保存其精確的位置信息,可使網(wǎng)絡(luò)更加準(zhǔn)確定位到感興趣的目標(biāo)區(qū)域。

2 "實驗與分析

2.1 "實驗數(shù)據(jù)集

實驗采用東北大學(xué)公開的NEU-DET數(shù)據(jù)集,該數(shù)據(jù)集共計灰度圖片1 800張,其中收集了6類帶鋼表面缺陷圖片各300張,分辨率為200×200。缺陷分別為壓入氧化鐵皮(rolled-in scale,RS)、斑塊(patches,Pa)、裂紋(crazing,Cr)、麻點(pitted surface,PS)、夾雜(inclusion,In)以及劃痕(scratches,Sc)。隨機(jī)抽取的訓(xùn)練集、驗證集、測試集的比例為8∶1∶1,即訓(xùn)練集1 440張,驗證集180張,測試集180張。圖片中采用XML格式記錄每個缺陷的位置、類別信息。

2.2 "實驗配置與評價標(biāo)準(zhǔn)

實驗采用的硬件配置為Corei7-10875H 處理器,NVIDIA RTX3070顯卡。軟件環(huán)境為CUDA10.1+cudnn8.0.4,網(wǎng)絡(luò)模型基于Pytorch框架搭建,Python版本為3.6,Pytorch版本為1.10.1。初始學(xué)習(xí)率(learning rate)設(shè)為0.01,經(jīng)過多次調(diào)參后設(shè)學(xué)習(xí)率為0.1;權(quán)重衰退值(weight_decay)設(shè)為0.000 5;設(shè)預(yù)熱初始動量為0.8;訓(xùn)練輪數(shù)(epoches)為200,batch_size值為2。

在所有檢測中,通過實際目標(biāo)和預(yù)測目標(biāo)的交并比IoU來判斷是否成功預(yù)測目標(biāo)位置,認(rèn)為IoU大于0.5時成功預(yù)測到了目標(biāo)位置。采用準(zhǔn)確率P(precision)、召回率R(recall)、平均精度均值mAP(mean average precision)作為實驗結(jié)果的評價指標(biāo)。

評價指標(biāo)的計算公式分別為

, " " " " (5)

, " " " "(6)

式(5)、式(6)中:TP為成功預(yù)測的正例;FP為被模型誤判為正例的負(fù)例;FN為被模型錯誤預(yù)測為負(fù)例的正例。

, " " " "(7)

式中:Nc為檢測類別數(shù);APi為某個目標(biāo)類的平均精度,能夠綜合考慮準(zhǔn)確率和召回率兩個方面的影響。

2.3 "實驗結(jié)果分析

通過消融實驗從平均精度均值、參數(shù)量和計算復(fù)雜度等方面更加直觀地展示改進(jìn)方法在帶鋼表面缺陷檢測中的檢測效果。實驗結(jié)果見表1。第1組為原YOLOv5模型對于NEU-DET數(shù)據(jù)集的實驗。第2組實驗基于第1組實驗在特征提取階段增加swin-transformer模塊,與第1組相比,其mAP值提高了1.5個百分點,參數(shù)量和計算復(fù)雜度均降低。第3組實驗基于第1組實驗在特征融合階段增加了CA模塊,其mAP值提高了1.2個百分點,表明嵌入CA模塊增加了網(wǎng)絡(luò)模型對于目標(biāo)方向和位置信息的敏感度。第4組實驗在第1組實驗的基礎(chǔ)上同時嵌入swin-transformer模塊和CA模塊,其mAP值從74.6%提高至77.6%,較第1組實驗提高3個百分點,參數(shù)量和計算復(fù)雜度均降低。

改進(jìn)前后YOLOv5模型在各類缺陷上的檢測結(jié)果對比見圖5。

由圖5可見,與原YOLOv5模型的缺陷檢測精度相比,改進(jìn)YOLOv5模型在多類缺陷檢測精度上均有所提升,例如,Cr類缺陷的檢測精度提高了13.2個百分點,PS類缺陷的檢測精度提高了2.9個百分點。這是由于Cr類、PS類缺陷經(jīng)過特征提取階段的swin-transformer模塊時,在較深的網(wǎng)絡(luò)中也可以進(jìn)行精確的特征提取,對Cr類缺陷和PS類缺陷的整體形狀具有更好的敏感性和表達(dá)能力,之后經(jīng)過特征融合階段的CA模塊時獲取更為精確的目標(biāo)框位置信息。

采用原YOLOv5模型和改進(jìn)YOLOv5模型對Cr類、PS類缺陷的檢測結(jié)果見圖6。圖6中,邊框指示每個圖像中缺陷的類別置信度和位置,黃色標(biāo)注框為PS類缺陷,橘黃色標(biāo)注框為Pa類缺陷,紅色標(biāo)注框為Cr類缺陷。將圖6(a)與圖6(b)的第1幅圖對比可知,改進(jìn)YOLOv5模型正確檢出Cr類缺陷,而原YOLOv5模型將Cr缺陷檢測為Pa缺陷;第2幅圖對比可知,改進(jìn)YOLOv5模型檢測PS類缺陷的置信度為0.8,而原YOLOv5模型檢測PS類缺陷的置信度為0.6;第3幅圖對比可知,改進(jìn)YOLOv5模型檢測PS類缺陷的置信度為0.9,而原YOLOv5網(wǎng)絡(luò)模型檢測PS類缺陷的置信度為0.7。改進(jìn)YOLOv5模型的檢測置信度更優(yōu)、分類更準(zhǔn)確。

在NEU-DET數(shù)據(jù)集上,將改進(jìn)后YOLOv5模型與目前主流目標(biāo)檢測模型(如Faster-RCNN模型、SSD300模型、YOLOv4模型和原YOLOv5模型)進(jìn)行分類的對比分析,結(jié)果見表2。從表2可知,改進(jìn)YOLOv5模型的mAP為77.6%,較原YOLOv5模型提高了3個百分點。相比SSD、YOLOv4、YOLOv5模型,F(xiàn)aster-RCNN模型的缺陷檢測精度較高,mAP達(dá)到77.2%,這是由于Faster-RCNN模型通過特征提取器生成預(yù)選框后再進(jìn)行目標(biāo)檢測,但計算量較大。SSD300模型在PS類缺陷中表現(xiàn)較好,但對Sc類缺陷的檢測性能較差,其原因是PS類缺陷多為大目標(biāo)、Sc類缺陷多為小目標(biāo)。SSD300模型的計算速度較快,但對小目標(biāo)類缺陷的檢測性能較差,易造成Sc類缺陷漏檢。YOLOv4模型的mAP為69.1%,精度相對較低。對于目標(biāo)較為分散復(fù)雜的RS類缺陷,改進(jìn)YOLOv5模型的檢測精度較原YOLOv5模型有所降低,這是因為算法通過預(yù)先設(shè)置anchor參數(shù)中先驗框尺寸來降低訓(xùn)練難度,NMS去除冗余錨框時并不十分精確??傮w看來,改進(jìn) YOLOv5模型融合了注意力機(jī)制,加強(qiáng)了對目標(biāo)缺陷檢測方向和位置信息的敏感度,同時增強(qiáng)全局通信能力,檢測精度最佳。

3 "結(jié)論

(1)改進(jìn)YOLOv5模型將swin-transformer自注意力模塊和CA模塊融合嵌入到Y(jié)OLOv5模型中,加強(qiáng)對全局特征信息的提取,減少計算量,同時形成具有方向感知和位置敏感的特征圖,提高定位能力,進(jìn)一步提高帶鋼表面缺陷檢測能力。

(2)將改進(jìn)YOLOv5模型與4種目標(biāo)檢測模型進(jìn)行對比實驗,結(jié)果表明,改進(jìn)YOLOv5模型的檢測精度最高。

(3)改進(jìn)YOLOv5模型與原YOLOv5網(wǎng)絡(luò)都需要預(yù)先設(shè)置anchor參數(shù)中先驗框的尺寸降低訓(xùn)練難度,這會導(dǎo)致模型需處理的參數(shù)增加,在進(jìn)一步的研究中可嘗試借鑒Anchor-Free的思想改進(jìn)目標(biāo)檢測算法,擺脫算法對先驗框的依賴,減小模型大小,進(jìn)一步加快檢測速度。

參考文獻(xiàn)(References):

[1] 米春風(fēng),盧琨,汪文艷,等.基于機(jī)器視覺的帶鋼表面缺陷檢測研究進(jìn)展[J].安徽工業(yè)大學(xué)學(xué)報(自然科學(xué)版),2022,39(2):180-188.

MI Chunfeng,LU Kun,WANG Wenyan,et al.Research progress on hot-rolled strip surface defect detection based on machine vision[J].Journal of Anhui University of Technology(Natural Science), 2022,39(2):180-188.

[2] ZHANG X Y,ZHOU X Y,LIN M X,et al.ShuffleNet:an extremely efficient convolutional neural network for mobile devices[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:6848-6856.

[3] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[4] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once: unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.June27-30,2016,Las Vegas,NV,USA.IEEE,2016:779-788.

[5] LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.June 7-12,2015,Boston,MA,USA.IEEE,2015:

3431-3440.

[6] KAIMING H,GEORGIA G,PIOTR D,et al.Mask R-CNN[J].IEEE transactions on pattern analysis and machine intelligence,2020,42(2):386-

397.

[7] 李維剛,葉欣,趙云濤,等.基于改進(jìn)YOLOv3算法的帶鋼表面缺陷檢測[J].電子學(xué)報,2020, 48(7):1284-1292.

LI Weigang,YE Xin,ZHAO Yuntao,et al.Strip steel surface defect detection based on improved YOLOv3 algorithm[J].Acta Electronica Sinica,2020,48(7):1284-1292.

[8] 董家順,王興東,李殿杰,等.基于改進(jìn)K-means算法的鋼管表面缺陷視覺檢測方法[J].武漢科技大學(xué)學(xué)報,2020,43(6):439-446.

DONG Jiashun,WANG Xingdong,LI Dianjie,et al.Visual inspection method for surface defects of steel pipes based on improved K-means algorithm[J].Journal of Wuhan University of Science and Technology,2020,43(6):439-446.

[9] 張宇.基于深度學(xué)習(xí)的帶鋼表面缺陷檢測方法[D].西安:西安工業(yè)大學(xué),2021:17-53.

[10] 馬燕婷,趙紅東,閻超,等.改進(jìn)YOLOv5網(wǎng)絡(luò)的帶鋼表面缺陷檢測方法[J].電子測量與儀器學(xué)報,2022,36(8):150-157.

MA Yanting,ZHAO Hongdong,YAN Chao,et al.Strip steel surface defect detection method by improved YOLOv5 network[J].Journal of Electronic Measurement and Instrumentation,2022, 36(8):150-157.

[11] 朱宏平.基于卷積神經(jīng)網(wǎng)絡(luò)的鋼表面缺陷檢測方法[J].工業(yè)控制計算機(jī),2020,33(8):83-84.

ZHU Hongping.Detection method of steel surface defects based on convolution neural network[J].Industrial Control Computer,2020,33(8):

83-84.

[12] 布申申,田懷文.基于卷積神經(jīng)網(wǎng)絡(luò)的帶鋼表面缺陷檢測算法[J].機(jī)械設(shè)計與制造,2022(7):29-33.

BU Shenshen,TIAN Huaiwen.Strip surface defect detection algorithm based on convolutional neural network[J].Machinery Design amp; Manufacture,2022(7):29-33.

[13] 黃鳳榮,李楊,郭蘭申,等.基于Faster R-CNN的零件表面缺陷檢測算法[J].計算機(jī)輔助設(shè)計與圖形學(xué)學(xué)報,2020,32(6):883-893.

HUANG Fengrong,LI Yang,GUO Lanshen,et al.Method for detecting surface defects of engine parts based on faster R-CNN[J].Journal of Computer-Aided Design amp; Computer Graphics,2020,32(6):883-893.

[14] WU R Q,ZHOU F,LI N,et al.Enhanced You Only Look Once X for surface defect detection of strip steel[J].Frontiers in Neurorobotics,2022,

16:1042780.

[15] ZHANG Y,LIU X F,GUO J,et al.Surface defect detection of strip-steel based on an improved PP-YOLOE-m detection network[J].Electronics,

2022,11(16):2603.

[16] ZHOU S Y,ZENG Y L,LI S C,et al.Surface defect detection of rolled steel based on lightweight model[J].Applied Sciences,2022,12(17):8905.

[17] LI S,WANG X Q.YOLOv5-based defect detection model for hot rolled strip steel[J].Journal of Physics:Conference Series,2022,2171(1):012040.

[18] 沈春光,李虎威,荊濤,等.基于深度學(xué)習(xí)的帶鋼表面缺陷檢測在小樣本數(shù)據(jù)集的應(yīng)用[J].軋鋼,2022,39(2):82-86.

SHEN Chunguang,LI Huwei,JING Tao,et al.Application of deep learning-based surface defect recognition of plate in small sample dataset[J].Steel Rolling,2022,39(2):82-86.

[19] REN K,CHEN Z,GU G H,et al.Research on infrared small target segmentation algorithm based on improved mask R-CNN[J].Optik,2023,

272:170334.

[20] REN R X,HUNG T,TAN K C.A generic deep-learning-based approach for automated surface inspection[J].IEEE Transactions on Cybernetics,

2018,48(3):929-940.

猜你喜歡
特征提取注意力方向
讓注意力“飛”回來
2022年組稿方向
2021年組稿方向
2021年組稿方向
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
“揚(yáng)眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
Bagging RCSP腦電特征提取算法
A Beautiful Way Of Looking At Things
位置與方向
基于MED和循環(huán)域解調(diào)的多故障特征提取
长寿区| 乌兰浩特市| 黔南| 沐川县| 罗定市| 密云县| 洛浦县| 措勤县| 北流市| 乌海市| 罗定市| 白河县| 上杭县| 镇坪县| 潮安县| 兰坪| 外汇| 黎城县| 桦川县| 金寨县| 安多县| 正宁县| 西乡县| 潼关县| 百色市| 河南省| 汕尾市| 安岳县| 永寿县| 铁力市| 台北市| 项城市| 军事| 沐川县| 壶关县| 茶陵县| 达尔| 阳高县| 邯郸县| 富川| 育儿|