国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于RT-YOLO-V5的芯片外觀缺陷檢測

2024-07-20 00:00:00郭翠娟王妍劉凈月席雨徐偉王坦
天津工業(yè)大學學報 2024年3期
關鍵詞:缺陷檢測特征融合卷積神經網絡

摘" " 要: 針對傳統(tǒng)的人工芯片檢測方法效率低、過分依賴人為操作且誤檢率高等產生的問題,提出了一種基于Res-CBS模塊與增加微檢測層(Tiny-scale detection layer)的RT-YOLO-V5檢測方法用于檢測芯片外觀缺陷。首先搭建了圖像采集系統(tǒng),并制作了芯片外觀缺陷檢測數(shù)據集。為解決芯片外觀缺陷形狀不規(guī)則、大小不統(tǒng)一、位置不確定帶來的檢測精度低等問題,在CBS模塊中增加短連接,融合輸入輸出的特征信息,減少信息損失,優(yōu)化推理速度;其次,增加一個微小尺度的檢測層,提高模型對微小目標的特征提取能力。實驗結果表明:使用改進后的網絡對芯片外觀缺陷進行檢測,平均精度(mAP)達到95.5%,相對于原始網絡提升了5.7%;除此之外,改進后的RT-YOLO-V5在先驗框損失(Box_loss)與小目標缺陷的檢測精度上都得到了一定的提升。

關鍵詞: YOLO-V5; 芯片; 缺陷檢測; 特征融合; 卷積神經網絡

中圖分類號: TP391.4" " " " " " 文獻標志碼: A" " " " " " " " 文章編號: 1671-024X(2024)02-0050-08

Chip appearance defect detection based on RT-YOLO-V5

GUO Cuijuan1,2, WANG Yan1,2, LIU Jingyue3, XI Yu3, XU Wei1,2, WANG Tan3

(1. School of Electronics and Information Engineering, Tiangong University, Tianjin 300387, China; 2. Tianjin Key Labo-ratory of Optoelectronic Detection Technology and System, Tiangong University, Tianjin 300387, China; 3. Microelectr-onic Device Reliability Laboratory Research and Test Center of Defense Technology for Aerospace Science and Industry, Beijing 100854, China)

Abstract: Aiming at the problems caused by traditional manual chip detection, with low efficiency, excessive dependence on human operation and high misdetection rate, an RT-YOLO-V5 detection method was proposed to detect chip appearance defects based on the Res-CBS module and an additional Tiny-scale detection layer. First of all, an image acquisition system was built, and a chip appearance defect detection dataset was produced. Due to the defects are irregular in shape, inconsistent in size and uncertain in location, the performance of YOLO-V5 network can no longer meet the detection requirements. A short connection was added to the CBS module, fusing the feature information of input and output, reducing the information loss and optimizing the inference speed. In addition, a tiny-scale detection layer is added as well, to improve the feature extraction capability of the model for tiny targets. The experimental results show that using the improved network for chip appearance defect detection, mAP reached 95.5%, which was a 5.7% improvement compared to the original network. In addition, the improved RT-YOLO-V5 has gained some improvement in both Box_loss and the accuracy of tiny-scale defect detection.

Key words: YOLO-V5; chip; defect detecting; feature fusion; convolutional neural network

近年來,隨著數(shù)字化時代及集成電路的蓬勃發(fā)展,芯片的需求量越來越大。同時,芯片向著小型化、高集成度方向發(fā)展,且廣泛應用于電子設備、計算機及工業(yè)等領域。芯片的制作要經過數(shù)道工藝流程,生產過程復雜。芯片的運輸需要使用專用包裝,以保證產品不會因外力作用而產生損傷。在生產及運輸過程中難免會存在磕碰,從而產生一些外觀缺陷,如污跡、劃痕、缺損以及引腳缺失等。隨著芯片尺寸的小型化發(fā)展,芯片外觀的缺陷檢測也變得愈發(fā)困難。芯片外觀存在缺陷會影響產品質量和芯片性能,損壞嚴重的芯片在后續(xù)的使用中會產生負面影響。芯片的應用領域對芯片的高穩(wěn)定性及外觀一致性要求較高。因此,在質量檢測過程中將存在缺陷的芯片挑出至關重要[1]。

為了減少芯片外觀缺陷帶來的損失,目前主要采用傳統(tǒng)的人工檢測方法進行檢測,利用人眼觀察工件照片,發(fā)現(xiàn)缺陷進而篩選工件。然而,該方法檢測速度慢,多依賴于檢測人員的經驗判斷。除此之外,人工檢測方法還容易受人為因素影響,誤判率高,檢測精度低且易造成檢測人員的用眼疲勞。為彌補人工檢測方法的不足,Chiou等[2]首先對彩色圖像中提取鍍金區(qū)域,然后采用形態(tài)學操作等技術對區(qū)域內的缺陷定位,并提取特征信息,對缺陷進行分類。Jin等[3]引入了一種自適應閾值法和一種無參考的路徑行走機制,計算芯片的位置和方向,并進行特征提取與缺陷檢測。研究人員還采用點模式匹配、點云與圖像融合等機器視覺方法對芯片存在的缺陷進行檢測。機器視覺檢測方法正在逐步取代人工檢測的方法,但是仍存在計算時間長、效率低、計算量大、靈活性低的問題。機器視覺檢測方法容易受到光照條件的影響,而且步驟復雜,每種算法只能檢測芯片上的某一特定的缺陷[4],需要檢測多種缺陷時只能利用多種不同算法分別檢測,精度與速度無法同時滿足。

近年來,涉及深度學習方法的圖像處理表現(xiàn)出了優(yōu)異的性能,并廣泛應用于工業(yè)[5-7]、農業(yè)[8-9]等領域。與傳統(tǒng)的機器視覺方法相比,深度學習具有運行速度快、精度高、泛化能力強、靈活性好等優(yōu)勢。為提高工業(yè)缺陷的檢測精度,Li等[10]提出一種基于改進的YOLO-V5和Optimized-Inception-ResnetV2的兩階段工業(yè)檢測框架,該框架通過使用YOLO-V5實現(xiàn)對缺陷的定位,而Optimized-Inception-ResnetV2提取缺陷的特征,實現(xiàn)準確的分類,但2個模型實施起來是比較繁瑣的。Xu等[11]在VGG-16中使用特征級聯(lián),以提高檢測性能。Huang等[12]使用YOLO-V4模型對芯片缺陷進行檢測,通過擴展淺層特征的特征融合,利用K-means++聚類方法對先驗框進行優(yōu)化,提高了小目標檢測精度。Shu等[13]利用空間金字塔池化(SPP-net)的優(yōu)勢,提出一種并行空間金字塔池化網絡(PSPP-net),解決了LED芯片表面質量安全檢查中的離線特征訓練提取和在線缺陷識別問題。上述研究充分驗證了深度學習在檢測外觀缺陷方面的優(yōu)異性能,但深度學習方法仍然存在小目標檢測精度低的問題,因此需要一種小目標檢測精度高、速度快的芯片外觀缺陷檢測方法。本文提出了一種RT-YOLO-V5的芯片缺陷檢測模型,并針對小目標檢測存在的不足進行改進。相對于其他檢測模型,該模型具有非接觸性、靈活性、精度高、速度快等優(yōu)勢,可以降低算法復雜度,提高芯片質量檢測的效率,降低人力成本。

1 網絡結構

1.1 YOLO-V5模型

YOLO(you only look once)系列的網絡檢測模型可以直接檢測到邊界框的位置及其類別信息,簡化計算的過程。該系列包括YOLO[14]、YOLO-V3[15]、YOLO-V4[15]以及YOLO-V5[15]等,本文使用YOLO-V5網絡模型實現(xiàn)對芯片外觀缺陷的檢測。該檢測模型具有速度快、精度高等優(yōu)點,適合部署到嵌入式設備上,以實現(xiàn)實時檢測[16]。YOLO-V5模型包括BackBone網絡、Neck網絡以及Head網絡,如圖1所示。

由圖1可知,BackBone網絡主要由CBS(CONV-BN-SiLU)模塊、C3模塊與SPPF(spatial pyramid pooling-fast)模塊組成,主要功能為提取輸入圖像中的特征信息。Neck網絡將高級特征與低級特征融合,以豐富模型的語義信息。Head網絡用于生成最終的檢測框[17],對不同尺度大小的目標進行檢測。與其他YOLO系列的檢測模型相比,YOLO-V5對小目標物體的檢測效果更佳,且計算量小。

針對芯片外觀的缺陷形狀不規(guī)則、大小不統(tǒng)一、位置不確定、而且存在很多尺寸較小的缺陷,原始的網絡模型存在小目標檢測精度較低,收斂速度較慢的問題,已經不能滿足芯片外觀缺陷檢測的要求,因此,本文對原始YOLO-V5進行了改進,提出了一種基于RT-YOLO-V5模型的芯片外觀缺陷檢測方法,如圖2所示。

為了優(yōu)化推理速度,增加特征融合,在CBS模塊中引入殘差思想,并將改進的CBS模塊命名為Res-CBS,如圖2中藍色部分所示;為提高網絡模型對芯片中微小尺度的目標的檢測能力,增加了一個微小尺度檢測層(Tiny-scale detection layer),如圖2中灰色陰影部分所示。通過上述改進,特征融合層和多尺度檢測層的特征尺度得到了進一步的優(yōu)化,使檢測模型能夠更好地適應微小目標的缺陷檢測,提高了檢測性能[3]。

1.2 Res-CBS模塊

CBS模塊不僅在BackBone網絡和Neck網絡中單獨作用,在其他的模塊如SPPF、C3中也被廣泛使用,如圖3所示。

由圖3可知,CBS模塊由Conv、Batch Normalization[18]及SiLU激活函數(shù)組成,分別對輸入的特征圖進行下采樣、批歸一化(batch normalization, BN)以及加入非線性因素。其中,批歸一化層和激活函數(shù)層都有助于提高訓練過程中模型的收斂速度[19]。

Conv3 × 3為普通的二維卷積,卷積核大小為3 × 3,功能為對輸入特征圖進行下采樣提取特征。BN操作是將每一層的輸出都規(guī)范為均值為0且方差為1的正態(tài)分布,保證在訓練過程中,每一層神經網絡的輸入都保持相同分布。當輸入的變化較小時,損失函數(shù)的變化會相對變大,梯度隨之變大,但又將梯度控制在一個合理的范圍內。因此,BN層在避免了梯度消失和梯度爆炸的同時,又加速了網絡模型的收斂速度。將BN層放在卷積層與激活函數(shù)層之間,相當于在激活函數(shù)的輸入與卷積層的輸出之間加入一個計算層,既可以產生更穩(wěn)定的分布,也可以防止梯度退化為0,出現(xiàn)梯度消失現(xiàn)象。YOLO-V5網絡模型使用非線性激活函數(shù)可以增加網絡表達能力,如下式和圖4所示。

Sigmoid(x) = (1)

SiLU(x) = x·Sigmoid(x)(2)

式中:激活函數(shù)SiLU是一個平滑函數(shù),處處可導,無上界,有下界,可以避免過擬合,產生更強的正則化效果,更容易訓練。

傳統(tǒng)的卷積層在信息傳遞時,會存在信息丟失、信息損耗等問題。當網絡越深時,訓練效果越差,梯度消失的現(xiàn)象也越來越明顯,淺層的參數(shù)無法更新。同樣的,隨著網絡深度增加,訓練精度下降,網絡產生退化現(xiàn)象。但這不是由過擬合產生的,而是由冗余的網絡層學習了不是恒等映射的參數(shù)造成的。為解決上述問題,本文引入了殘差[20]的思想,即在輸出與輸入之間引入短連接,可以解決網絡層數(shù)加深而出現(xiàn)梯度消失的問題。本文在原始CBS模塊的基礎上添加一個短連接,將輸入信息直接恒等映射到輸出中,如圖5所示。

通過對輸入輸出進行一個元素級(element-wise)的疊加,信息損失現(xiàn)象得到了緩解。短連接可以保持特征圖尺寸不發(fā)生變化且維持上一層的通道數(shù),在增加網絡深度的同時令網絡能夠學習更為復雜的特征信息,提取更加豐富的高級語義特征。在Res-CBS模塊的短連接上額外添加一個卷積核大小為1×1的卷積,可以調節(jié)通道數(shù),并不改變特征圖信息。Res-CBS模塊將輸入信息直接繞道傳輸?shù)捷敵鲋?,保存了信息的完整性,同時在保證網絡性能不受影響的情況下,提高了訓練效果。

1.3 微檢測層(Tiny-scale detection layer)

在網絡模型的特征提取過程中,淺層特征圖具有更多的細節(jié)特征,而深層特征圖具有更多的語義信息,但細節(jié)感知能力較弱。在Neck網絡中,每一次下采樣都是特征提取的過程。通過對輸入圖像進行特征提取,從而獲得更高層次的特征信息,但也會丟失一部分淺層細節(jié)信息。Neck網絡中的上采樣操作,將淺層細節(jié)特征與深層語義特征進行融合,生成新的特征圖。融合后的特征圖可以獲得更強的深層語義特征,同時也保留了淺層細節(jié)特征[21]。通過多尺度融合,網絡對小目標的檢測能力得到了有效地提升。

原始YOLO-V5網絡分別對輸入圖像進行了32倍、16倍和8倍下采樣。假設輸入圖像大小為640 ×640,模型將生成3個尺度大小分別為20 × 20、40 × 40、80 × 80的特征圖。這3個特征圖分別對應3個檢測頭,分別被用于大目標、中目標、小目標的檢測。特征圖的尺度越小,感受野將越大,包含的細節(jié)信息越少。但芯片本身尺寸較小,芯片表面更是存在很多微小尺寸的缺陷,這些缺陷分布在芯片表面,不容易被識別,但很容易影響芯片的性能及美觀性。經過多次進行下采樣操作后,特征圖會丟失較多微小缺陷的特征信息,進一步導致微小目標檢測精度下降。

原始模型中最小的下采樣倍數(shù)為8倍,可以檢測尺度大小為8 × 8的小目標。在特征提取過程中,當目標尺度小于8 × 8時,該目標的特征信息將會被過濾,從而導致目標被漏檢,模型檢測精度降低。因此,本文增加了一個如圖2所示命名為Tiny-scale detection layer的檢測層,該檢測層對圖像進行4倍下采樣,生成一個尺度為160 × 160的檢測頭,用于檢測尺度大小為4 × 4的微小目標。

模型識別缺陷的精確度和可靠性直接取決于所提取的特征和提取特征的方法[22]。特征信息越詳細,模型的精確度越高。新增加的檢測層在大小為80×80的特征圖基礎上繼續(xù)進行上采樣,并融合來自BackBone網絡的詳細信息。融合后的特征圖尺度大小為160×160,包含更多的細節(jié)信息和更強的語義信息,有利于小目標的檢測。改進后的檢測層提升了模型對微小缺陷的敏感性,提高了模型的檢測精度。

2 數(shù)據集

2.1 圖像采集系統(tǒng)的搭建

本文搭建了一套芯片外觀缺陷圖像采集系統(tǒng),如圖6所示。

采用數(shù)碼顯微鏡對圖像進行采集,同時,使用LED光源和前向照明的方式對待測物表面進行照亮。然后,將顯微鏡看到的實物圖像通過數(shù)模轉換,成像在計算機上。數(shù)碼顯微鏡具有微顯微攝像功能,可以將觀察到的圖像以不同的形式及不同的像素大小保存。數(shù)碼顯微鏡操作方便、直觀,適用于芯片外觀的檢測。

2.2 數(shù)據處理

現(xiàn)有樣本數(shù)量并不充足,無法滿足模型的訓練需求。因此,需要對現(xiàn)有圖像進行擴充以增加樣本數(shù)量。本文采用圖像旋轉、圖像均衡化的方法實現(xiàn)圖像的擴增。以圖像中心點為原點,分別對圖像進行90°旋轉和180°旋轉,增強模型的方向魯棒性。圖像均衡化操作可以增加圖像對比度,增強局部信息,提高網絡檢測性能。基于現(xiàn)有圖像建立芯片外觀缺陷檢測數(shù)據集,并將數(shù)據集按比例劃分為訓練集、測試集以及驗證集。圖7為缺陷類型樣本示意圖。

圖7(f)為尺寸較小、不易識別的各種類型的微小缺陷。使用Labelimg對制作好的數(shù)據集進行標注,共包括引腳缺失、劃痕、污跡、缺損、微小缺陷5種缺陷類型,但將其劃分為2種標簽類型,標注內容共分為2種:芯片引腳定位以及芯片表面缺陷,而芯片表面缺陷包括劃痕、污跡、缺損、微小缺陷等。

3 實驗環(huán)境及實驗結果分析

3.1 環(huán)境配置及評價指標

本文的實驗平臺采用的GPU為NVIDIA GeForce RTX 3060,Pytorch版本為1.10.0,Python版本為3.6.12。實驗訓練參數(shù)如表1所示。

本文采用精確度(precision,P)和平均精度均值(mean average precision,mAP)對模型性能進行評估。其中,平均查準率(average precision,AP)是單個類別在所有識別為外觀缺陷的情況下,正確識別缺陷所占的比例;mAP為所有類別AP的平均值,常用于衡量網絡模型性能的好壞。計算公式如下:

P = (3)

AP = (4)

mAP = "× ∑AP (5)

式中:TP為正確識別芯片外觀缺陷的數(shù)量;FP為錯誤識別芯片外觀的數(shù)量;n為某單一標簽類別的樣本數(shù)量。

3.2 對比實驗

為了進一步驗證RT-YOLO-V5的優(yōu)越性,本文選取4種不同的神經網絡與RT-YOLO-V5進行對比實驗,對比實驗結果如表2所示。

由表2可知,SSD[23]算法精確度最低,小目標的檢測能力較弱。Faster R-CNN[24]與YOLO-V4-Tiny[25]的mAP不相上下,但仍小于YOLO-V5網絡。YOLO-V4-Tiny為輕量級網絡,模型權重文件較小,但是該網絡的小目標檢測精度較低,無法滿足實際檢測環(huán)境的需求。以上實驗表明,原始YOLO-V5網絡模型的性能明顯優(yōu)于其他網絡模型。其mAP為89.8%,且權重文件的大小遠遠小于其他網絡模型。在原始網絡的基礎上,改進后的RT-YOLO-V5的mAP達到了95.5%。雖然改進后的網絡模型權重增大,但仍小于其他網絡,說明改進后的網絡模型仍然可以滿足實際檢測環(huán)境中對網絡模型權重文件大小的要求。

3.3 消融實驗

為了更直接地觀察不同改進對該檢測方法性能的影響,本文進行了消融實驗。各項指標如表3所示。

由表3可得,原始YOLO-V5網絡的mAP為89.8%,加入Res-CBS模塊后的mAP為94.2%,說明短連接增強了特征信息融合,減少了信息損失。在增加微檢測層后,mAP達到95.5%,證明該檢測層的增加提高了小目標的檢測精度,也提升了訓練效果。結果表明,RT-YOLO-V5不僅改善了檢測時出現(xiàn)的重疊現(xiàn)象,還提升了對微小缺陷的檢測能力。3種網絡模型對比結果如圖8所示。

圖8(a)和圖8(b)反映了改進后網絡模型的精確度與Recall都在一定程度上得到了提升。圖8(c)表明,改進后的網絡模型mAP要明顯高于原始YOLO-V5,表明RT-YOLO-V5模型具有較好的精度和魯棒性。Box_loss代表先驗框損失,可以根據損失值的大小,判斷預測框是否準確地定位了目標缺陷[26]。損失值越小,模型的預測效果越好。由圖8(d)可知,RT-YOLO-V5損失最小,證明模型的穩(wěn)定性較好。在經過150個周期后開始收斂,損失值趨于穩(wěn)定,模型達到最優(yōu)狀態(tài)。在0~50個周期時損失存在較大波動,模型可能存在過擬合現(xiàn)象。而隨著迭代次數(shù)的增加,過擬合帶來的影響減弱。

為了使結果更加直觀,本文將其可視化,如圖9所示。圖9中,綠色為引腳定位,紅色為芯片表面缺陷。由圖9(a)可知,原始的YOLO-V5模型只能檢測尺度較大、較明顯的缺陷,存在漏檢以及誤檢現(xiàn)象,且對小目標的敏感性較低。由圖9(b)可知,通過改進Res-CBS模塊,特征信息得到了進一步的融合,信息完整性也得到了保存,模型的檢測效果明顯提升。但在檢測結果中,仍存在少許漏檢現(xiàn)象及缺陷重復標記現(xiàn)象。而RT-YOLO-V5模型對小目標的檢測更加敏感,由圖9(c)可知,小目標檢測效果得到明顯提升,且重疊現(xiàn)象大幅下降。

4 結束語

本文提出了一種基于RT-YOLO-V5網絡模型的缺陷檢測算法,并將其應用于芯片外觀缺陷的識別與定位。該算法克服了由于芯片外觀缺陷尺寸不一、類型多樣等帶來的檢測困難的問題。本文首先通過圖像采集系統(tǒng)進行圖像采集,建立芯片外觀缺陷檢測數(shù)據集;同時,本文通過數(shù)據增強方法擴充數(shù)據集,防止網絡過擬合;其次,本文引入殘差思想,對CBS模塊進行改進,并增加一個微小尺度檢測層,用于檢測尺度為4×4的微小目標。通過對原始網絡進行改進,本文模型融合了淺層細節(jié)信息與深層語義信息,保存了信息的完整性。同時,該檢測模型避免了重要的特征信息的丟失,提高了微小尺度目標的檢測精度。改進后,模型的mAP達到了95.5%,模型大小僅為42.7 MB,遠遠小于其他模型。實驗證明,改進后的模型快速、準確地識別芯片外觀缺陷,比傳統(tǒng)的工業(yè)缺陷檢測方法更具有優(yōu)勢,更符合工業(yè)生產的要求。本文對芯片引腳的定位已達到較高精度,但是對表面缺陷檢測的精度還有待提升。為解決這一缺陷,未來將收集更多的數(shù)據集以提高網絡模型的精度。

參考文獻:

[1]nbsp; " LIN H, LI B, WANG X G, et al. Automated defect inspection of LED chip using deep convolutional neural network[J].Journal of Intelligent Manufacturing, 2019, 30(6): 2525-2534.

[2]" " CHIOU Y C, LIN C S, CHIOU B C. The feature extraction and analysis of flaw detection and classification in BGA gold-plating areas[J]. Expert Systems with Applications, 2008, 35(4): 1771-1779.

[3]" " JIN W X, LIN W Y, YANG X Q, et al. Reference-free path-walking method for ball grid array inspection in surface mounting machines[J]. IEEE Transactions on Industrial Electronics, 2017, 64(8): 6310-6318.

[4]" " LI Y T, HUANG H S, XIE Q S, et al. Research on a surface defect detection algorithm based on MobileNet-SSD[J]. Applied Sciences, 2018, 8(9): 1678.

[5]" " WEI R F, BI Y B. Research on recognition technology of aluminum profile surface defects based on deep learning[J]. Materials, 2019, 12(10): 1681.

[6]" " GAO Y P, GAO L, LI X Y, et al. A multilevel information fusion-based deep learning method for vision-based defect recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(7): 3980-3991.

[7]" " REN Q R, GENG J H, LI J Y. Slighter faster R-CNN for real-time detection of steel strip surface defects[C]//2018 Chinese Automation Congress (CAC). Xi′an: IEEE, 2018: 2173-2178.

[8]" " ZHANG X, GAO Q M, PAN D, et al. Research on spatial positioning system of fruits to be picked in field based on binocular vision and SSD model[J]. Journal of Physics: Conference Series, 2021, 1748(4): 042011.

[9]" " WU D H, LYU S C, JIANG M, et al. Using channel pruning-based YOLO v4 deep learning algorithm for the real-time and accurate detection of apple flowers in natural environments[J]. Computers and Electronics in Agriculture, 2020, 178(4): 105742.

[10]" LI Z, TIAN X C, LIU X, et al. A two-stage industrial defect detection framework based on improved-YOLOV5 and optimized-inception-ResnetV2 models[J]. Applied Sciences, 2022, 12(2): 834.

[11]" XU X J, LEI Y, YANG F. Railway subgrade defect automatic recognition method based on improved faster R-CNN[J]. Scientific Programming, 2018 (6): 1-12.

[12]" HUANG H X, TANG X D, WEN F, et al. Small object detection method with shallow feature fusion network for chip surface defect detection[J]. Scientific Reports, 2022, 12: 3914.

[13]" SHU Y F, LI B, LIN H. Quality safety monitoring of LED chips using deep learning-based vision inspection methods[J]. Measurements, 2021, 168: 108123.

[14]" REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 779-788.

[15]" 高星. 基于深度學習的口罩佩戴目標檢測研究[D]. 太原: 中北大學, 2023.

GAO X. Research on mask wearing target detection based on deep learning[D]. Taiyuan: North University of China, 2023(in Chinese).

[16]" LI S S, LI Y J, LI Y, et al. YOLO-FIRI: Improved YOLOV5 for infrared image object detection[J]. IEEE Access, 2021, 9: 141861-141875.

[17]" ZHAO J Q, ZHANG X H, YAN J W, et al. A wheat spike detection method in UAV images based on improved YOLOV5[J]. Remote Sensing, 2021, 13(16): 3095.

[18] IOFFE S, SZEGEDY C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the 32nd International Conference on International Conference on Machine Learning. Lille, France: ACM, 2015: 448-456.

[19] TABERNIK D, SELA S, KVAR"J, et al. Segmentation-based deep-learning approach for surface-defect detection[J]. Journal of Intelligent Manufacturing, 2020, 31(3): 759-776.

[20]" HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 770-778.

[21]" MA Z X, LI Y B, HUANG M H, et al. A lightweight detector based on attention mechanism for aluminum strip surface defect detection[J]. Computers in Industry, 2022, 136: 103585.

[22]" WONG N S, ROSDI B A, AKBAR M F, et al. FPGA implementation of convolutional neural network for defect identification on swiven cap[C]//Proceedings of the 6th International Conference on Electrical, Control and Computer Engineering. Singapore: Springer, 2022: 977-988.

[23]" LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector[C]//European Conference on Computer Vision. Cham: Springer, 2016: 21-37.

[24]" REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[25] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. Scaled-YOLOV4: Scaling cross stage partial network[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA:IEEE, 2021: 13024-13033.

[26]" CHEN Z Y, WU R H, LIN Y Y, et al. Plant disease recognition model based on improved YOLOV5[J]. Agronomy, 2022, 12(2): 365.

本文引文格式:

郭翠娟,王妍,劉凈月,等. 基于RT-YOLO-V5的芯片外觀缺陷檢測[J]. 天津工業(yè)大學學報,2024, 43(3): 50-57.

GUO C J, WANG Y, LIU J Y, et al. Chip appearance defect detection based on RT-YOLO-V5[J]. Journal of Tiangong University, 2024, 43(3): 50-57(in Chinese).

猜你喜歡
缺陷檢測特征融合卷積神經網絡
基于移動端的樹木葉片識別方法的研究
科技資訊(2017年11期)2017-06-09 18:28:13
基于SIFT特征的港口內艦船檢測方法
融合整體與局部特征的車輛型號識別方法
超聲波與特高頻方法下的GIS局部放電檢測技術分析
基于深度卷積神經網絡的物體識別算法
基于極限學習機的玻璃瓶口缺陷檢測方法研究
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
基于深度卷積網絡的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
基于卷積神經網絡的樹葉識別的算法的研究
基于MATLAB的道路交通標志識別
南漳县| 木兰县| 炉霍县| 墨脱县| 砚山县| 白玉县| 肇源县| 梁河县| 三门峡市| 布拖县| 双城市| 平舆县| 平乐县| 邛崃市| 内丘县| 淮北市| 香格里拉县| 柘城县| 镇坪县| 勐海县| 疏勒县| 玛沁县| 洛隆县| 凌云县| 淅川县| 广饶县| 田阳县| 抚顺市| 昂仁县| 阳信县| 共和县| 遂昌县| 张掖市| 荆门市| 崇信县| 定州市| 夏邑县| 麻江县| 南宫市| 桦甸市| 南昌县|