摘 要:對于晶圓表面缺陷檢測來說,缺陷樣本存在著樣本數(shù)量不足,缺陷表現(xiàn)形式多樣的問題。為解決此類問題,提出了一種基于改進(jìn)生成對抗網(wǎng)絡(luò)的晶圓表面缺陷檢測模型。該模型首先在GANomaly模型的基礎(chǔ)上引入了跳層連接,并引入CBAM注意力機(jī)制,用以更好地關(guān)注圖像重要區(qū)域,其次引入記憶模塊以約束潛在空間的表示,最后在原模型架構(gòu)上新增一個自編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點。實驗結(jié)果表明,該模型能夠準(zhǔn)確分辨具有缺陷的晶圓樣本,檢測精度達(dá)到了0.985,相較于GANomaly算法提升了6.7%。對于Mvtec AD數(shù)據(jù)集,檢測精度達(dá)到了0.79,相較于GANomaly算法提升了3%。
關(guān)鍵詞:晶圓表面缺陷;生成對抗網(wǎng)絡(luò);CBAM;記憶模塊
中圖分類號:T391.4 文獻(xiàn)標(biāo)識碼:A 文章編號:2096-4706(2024)20-0037-07
Wafer Surface Defect Detection Based on Improved Generative Adversarial Network
LING Hongwei, ZHANG Jianmin
(School of Artificial Intelligence, Jianghan University, Wuhan 430056, China)
Abstract: For wafer surface defect detection, there are problems that the number of defect samples is insufficient and the defects are in various forms. In order to solve such problems, a wafer surface defect detection model based on improved Generative Adversarial Network is proposed. Firstly, the model introduces layer hopping connection on the basis of the GANomaly model, and introduces CBAM Attention Mechanism to better focus on the important regions of the image. Secondly, it introduces a memory module to constrain the representation of the potential space. Finally, it adds a new autoencoder architecture discriminator on the original model architecture to ensure that the training is more stable and it is easier to converge to the optimal equilibrium point. The experimental results show that the model is able to accurately distinguish wafer samples with defects, and the detection accuracy reaches 0.985, which is improved by 6.7% compared to the GANomaly algorithm. For the Mvtec AD dataset, the detection accuracy reaches 0.79, which is improved by 3% compared to the GANomaly algorithm.
Keywords: wafer surface defect; Generative Adversarial Network; CBAM; memory module
0 引 言
現(xiàn)代半導(dǎo)體芯片[1]采用高級硅材料和精細(xì)制造工藝,具有高集成度、高性能、低能耗和快速處理速度等特點,使其在高科技領(lǐng)域中扮演著核心角色。晶圓作為重要組成材料,伴隨著芯片的高密度集成也為其帶來了艱巨挑戰(zhàn),由于晶體管數(shù)量的急劇增加,晶圓[2]在設(shè)計和制造過程中的復(fù)雜性也隨之增加,這就要求使用先進(jìn)的光刻技術(shù)和精確的制造流程來確保每個晶圓的性能。
早期,在計算機(jī)視覺和機(jī)器學(xué)習(xí)領(lǐng)域,表面缺陷檢測的經(jīng)典方法包括邊緣檢測[3]、紋理分析[4]、顏色分析[5]等。然而,這些方法大多需要大量的人工參與,不僅需要人工設(shè)定和調(diào)整特征提取的參數(shù),還需要人工標(biāo)注大量的訓(xùn)練樣本。此外,這些方法的抗噪聲能力和泛化能力往往較弱,對于復(fù)雜的、不規(guī)則的、多樣的表面缺陷[6],識別效果不盡如人意。因此,無監(jiān)督的缺陷檢測顯得尤為重要。
無監(jiān)督學(xué)習(xí)[7]因為其無須依賴標(biāo)簽數(shù)據(jù)的優(yōu)勢,已在圖像異常檢測領(lǐng)域得到廣泛應(yīng)用。隸屬于無監(jiān)督學(xué)習(xí)的生成對抗網(wǎng)絡(luò)(GAN)通過探究數(shù)據(jù)本身的內(nèi)在特性,能有效識別并挖掘出數(shù)據(jù)的共通性,測量異常得分以實現(xiàn)圖像異常的檢測。這使其在各類工業(yè)環(huán)境下的圖像異常檢測中發(fā)揮了重要作用。
2017年,Lee[8]提出的AnoGAN是第一個將GAN運用到缺陷檢測領(lǐng)域的模型,其引入雙向GAN來利用潛在空間編碼進(jìn)行異常評分,但其因為多次迭代,存在著計算復(fù)雜性大的問題。2018年,Akcay等人[9]提出GANomaly解決了AnoGAN計算復(fù)雜性的問題,其引入了自編碼器結(jié)構(gòu)作為生成器以提高計算效率,并開發(fā)了一個可解釋局部異常的標(biāo)準(zhǔn)化分?jǐn)?shù)。2019年,Youkachen等人[10]通過使用卷積自動編碼器(CAE)和銳化過程來提取輸入圖像的缺陷特征,然后應(yīng)用后處理進(jìn)行可視化,對熱軋鋼帶表面進(jìn)行缺陷分割。2019年,Yang等人[11]提出了一種基于無監(jiān)督多尺度特征聚類的全卷積自動編碼器(MS-FCAE)方法,該方法利用不同尺度級別的多個特征AE子網(wǎng)絡(luò)來重建多個紋理背景圖像。該方法在多個紋理數(shù)據(jù)集上實現(xiàn)了92.0%的精度。
為此,本文為實現(xiàn)更好的缺陷檢測能力,針對晶圓表面缺陷數(shù)據(jù)集提出了一種基于改進(jìn)生成對抗網(wǎng)絡(luò)的晶圓表面缺陷檢測模型,在GANomaly模型的基礎(chǔ)上引入了跳層連接,在反向傳播時,有效減少梯度消失、梯度爆炸現(xiàn)象,并在跳層連接處引入CBAM注意力機(jī)制[12]幫助模型更好地關(guān)注圖像的重要區(qū)域和重要特征;為約束潛在空間的表示從而引入記憶模塊MemAE[13],使得重構(gòu)后的圖像樣本分布接近正常樣本。最后,在原模型架構(gòu)上新增一個自編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點。
1 相關(guān)工作
1.1 模型總體結(jié)構(gòu)
本文所提出的基于改進(jìn)生成對抗網(wǎng)絡(luò)的晶圓表面缺陷檢測模型架構(gòu)如圖1所示,該模型由5部分構(gòu)成:編碼器GE、解碼器GD、記憶模塊M和判別器D1以及判別器D2。
生成器模塊由編碼器GE、記憶模塊M、解碼器GD組成:輸入圖像x,編碼器GE對其進(jìn)行編碼,獲取潛在特征z,記憶模塊檢索與其最為相似的特征,得到新的潛在特征,最后將輸入解碼器GD進(jìn)行上采樣,得到重構(gòu)圖像。
判別器模塊由判別器D1,D2組成:判別器D1獲取輸入圖像x和重建圖像 從而得到潛在表示,并預(yù)測其類標(biāo)簽。判別器D2根據(jù)BEGAN[14]模型思想,為自編碼器結(jié)構(gòu),以最小化生成器G和最大化判別器D2來達(dá)到,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點。
1.2 編碼器和解碼器
編碼器GE用于將高維圖像x映射到低維潛在特征z來捕獲輸入圖像的數(shù)據(jù)分布,輸入圖像x在編碼器網(wǎng)絡(luò)中通過5個模塊,每個模塊包含卷積層、BatchNorm層和LeakyReLU激活函數(shù)并輸出潛在特征z,也稱為帶有獨特表示的瓶頸特征。
解碼器GD用于將潛在特征映射為重構(gòu)圖像,有著與編碼器GE對稱的網(wǎng)絡(luò)結(jié)構(gòu),潛在特征在解碼器網(wǎng)絡(luò)中經(jīng)歷5個塊,每個模塊包含反卷積層、BatchNorm層和ReLU激活函數(shù)。另外該模型也同時引入了跳層連接,通過層與層之間的直接信息傳輸,保留了更多的圖像特征,從而幫助產(chǎn)生更好的重建。
1.3 MemAE記憶模塊
在生成器重構(gòu)圖像的過程中,往往會因為自編碼器的泛化能力過強(qiáng),部分異常也能被很好地重構(gòu),導(dǎo)致重構(gòu)誤差較小,降低了異常檢測的準(zhǔn)確率。為有效解決該問題,本文引入了記憶模塊MemAE用以強(qiáng)化正樣本特征,擴(kuò)大正常樣本與缺陷樣本之間的重構(gòu)誤差,其工作原理是通過獲取編碼器GE輸出的潛在特征z,將其用作查詢條件來檢索最相關(guān)的記憶項進(jìn)行重建得到以輸入到解碼器GD。在訓(xùn)練階段,記憶內(nèi)容被更新為更能代表正常樣本的記憶元素。在測試階段,通過記憶模塊的尋址操作得到的潛在特征僅包含與正樣本相關(guān)的圖像信息,針對缺陷樣本會產(chǎn)生更大的重構(gòu)誤差,以提高模型的檢測效果,記憶模塊結(jié)構(gòu)如圖2所示。
指定向量空間R,即,其中N表示記憶矩陣M所包含N個有效特征信息,而C表示特征信息的維度。MemAE模塊的計算為:
(1)
式(1)中,表示注意力權(quán)重系數(shù),用于衡量潛在特征z與記憶元素mi的相似性,而表示第i個注意力系數(shù),mi表示記憶矩陣M中第i個行向量。注意力系數(shù)計算式為:
(2)
式(2)中,表示潛在特征z與記憶元素mi的余弦相似度,為有效避免非常小的注意力權(quán)重使缺陷樣本仍舊具有較好的重構(gòu)效果,MemAE引入了稀疏處理的操作,如式(3)所示:
(3)
式(3)中,λ表示稀疏閾值,將小于λ的注意力權(quán)重系數(shù)wi設(shè)置為0,并進(jìn)行歸一化,其中ε>0且數(shù)值非常小,避免分母為0。
1.4 CBAM注意力機(jī)制
CBAM是一種混合注意力機(jī)制,旨在幫助模型更好地捕捉圖像中的重要信息,從而提高其性能和泛化能力。主要由通道注意力模塊和空間注意力模塊兩大部分組成。通道注意力模塊通過計算每個通道的重要性權(quán)重來告訴模型更應(yīng)該強(qiáng)調(diào)哪些通道的信息,以便更好地捕捉特征??臻g注意力模塊通過計算每個空間位置的重要性權(quán)重來告訴網(wǎng)絡(luò)應(yīng)該更關(guān)注哪些位置的信息,具體結(jié)構(gòu)如圖3所示。
通道注意力計算式為:
(4)
式(4)中,和表示平均池化特征和最大池化特征。
空間注意力計算式為:
(5)
式(5)中,和分別表示平均池化特征和最大池化特征。CBAM注意力機(jī)制通過通道和空間兩個維度,幫助神經(jīng)網(wǎng)絡(luò)更好地理解圖像,并提高其性能。
1.5 判別器
本模型分別包含判別器D1和判別器D2,判別器D1的主要任務(wù)是區(qū)分真實圖像或生成圖像,判別器D2的主要任務(wù)是用以約束生成器以強(qiáng)化生成器的重構(gòu)能力。兩者的目的均是最小化其輸入圖像x與重構(gòu)圖像之間的差異,讓生成器和判別器學(xué)習(xí)正常數(shù)據(jù)的底層分布。
其中判別器D1通過轉(zhuǎn)置卷積,BatchNorm2d,LeakyReLU激活函數(shù)不斷地改變特征維度,最后通過Sigmoid激活函數(shù)判斷圖像的真假。判別器D2采用自編碼器結(jié)構(gòu),用以強(qiáng)化生成器的重構(gòu)能力,以確保模型訓(xùn)練更穩(wěn)定,判別器整體卷積架構(gòu)如圖4所示。
1.6 損失函數(shù)
該模型的損失函數(shù)由判別器D1產(chǎn)生的對抗損失ladv1,重建損失lcon,潛在損失llat,和權(quán)重熵?fù)p失lw,SSIM損失,以及判別器D2產(chǎn)生的對抗損失ladv2組成,具體內(nèi)容如下:
1)對抗損失ladv1。為促使生成器G重構(gòu)出的圖像更接近輸入圖像,判別器D能有效對輸入圖像x與重構(gòu)圖像進(jìn)行分類,以達(dá)到最小化生成器G的損失,并使判別器D的損失最大化目的,損失函數(shù)為:
(6)
2)重建損失lcon。重建損失采用L1范數(shù),對輸入圖像x和重建圖像進(jìn)行處理來確保模型生成的圖像與正常樣本的上下文信息相似。具體損失函數(shù)為:
(7)
3)潛在損失llat。為減少冗余信息影響解碼器重構(gòu)圖像,將輸入圖像x和重建圖像輸入到判別器中,并分別提取維度為100的特征,使用L2范數(shù)進(jìn)行歸一化,潛在損失函數(shù)為:
(8)
4)權(quán)重熵?fù)p失lw。權(quán)重熵?fù)p失函數(shù)為強(qiáng)化記憶模塊MemAE對正樣本的記錄,使用注意力權(quán)重的交叉熵來表示權(quán)重熵?fù)p失,計算式為:
(9)
5)結(jié)構(gòu)相似度指數(shù)SSIM[15]。用于比較兩幅圖像之間的相似程度,不僅僅是像素級別的比較。主要通過亮度比較,對比度比較,結(jié)構(gòu)比較來評估兩幅圖像的相似度,計算式為:
(10)
6)對抗損失ladv2。為進(jìn)一步提高生成器的圖像重構(gòu)能力,在判別器D2處引用了對抗性損失函數(shù)以對生成器進(jìn)行約束。對抗性損失ladv2如式(11)所示:
(11)
模型訓(xùn)練的總體損失,計算式為:
(12)
式中λadv1、λcon、λlat、λssim、λadv2表示各個損失函數(shù)對應(yīng)的權(quán)重參數(shù),經(jīng)多次實驗調(diào)參得到λadv1=1、λcon=50、λlat=1、λssim=1。α作為訓(xùn)練中的超參數(shù)定義為2×10-4。
1.7 異常分?jǐn)?shù)
在后續(xù)測試中,將采用異常分?jǐn)?shù)進(jìn)行異常檢測的判定,其計算式為:
(13)
式(13)中,x′表示測試圖像,λ表示加權(quán)參數(shù),Lcon表示重建誤差,Llat表示原圖和重建圖進(jìn)入判別器潛在特征的損失。
測試中,對于測試樣本下的得分A可記為,Ai表示第i個異常分?jǐn)?shù),xi′表示測試集Dtest中第i個測試樣本。最后進(jìn)行歸一化處理,將每一個異常分?jǐn)?shù)縮放到[0,1]之間,計算式為:
(14)
式中,min(A)和max(A)分別表示異常得分集合A中的最小值和最大值,以為基準(zhǔn)對測試集進(jìn)行判定。
2 實驗結(jié)果及分析
2.1 數(shù)據(jù)集
本次實驗的晶圓數(shù)據(jù)集是由某半導(dǎo)體公司在實際生產(chǎn)環(huán)境中提供的,每張圖像大小均在130×130??偣?77張圖像數(shù)據(jù)集,其中訓(xùn)練集277張均為正樣本、測試集200張,由100個正樣本,100個負(fù)樣本組成,以達(dá)到數(shù)據(jù)平衡性,按照缺陷晶圓的圖像特征和命名規(guī)范,把采集的晶圓圖像缺陷類型分為以下三類:空Die缺陷(KD)、外來物缺陷(WLW)、污染缺陷(ZW),圖5展示了缺陷數(shù)據(jù)集中各類缺陷的晶圓圖像。
為進(jìn)一步驗證模型的性能,同時對公共數(shù)據(jù)集Mvtec AD數(shù)據(jù)集[16]進(jìn)行實驗。Mvtec AD數(shù)據(jù)集總共分為兩大類:紋理類與物體類,其中紋理類涵蓋了地毯、網(wǎng)格和皮革等5類數(shù)據(jù)集,物體類由瓶子、金屬螺母和電纜等10類數(shù)據(jù)集組成,其缺陷多樣,具有一定的說服力,樣本數(shù)據(jù)如圖6所示。
2.2 實驗環(huán)境
實驗所使用的平臺及運行環(huán)境配置如表1所示。
2.3 性能評估指標(biāo)
本文采取通過精確率(P)和召回率(R)、F1分?jǐn)?shù)(F)以及ROC的曲下面積AUC來對模型性能進(jìn)行度量。在缺陷實驗中,常用混淆矩陣(Confusion Matrix)來表示樣本預(yù)測值的正負(fù)和樣本真實值的正負(fù)之間的關(guān)系,混淆矩陣如表2所示。
2.4 訓(xùn)練細(xì)節(jié)及參數(shù)設(shè)置
輸入模型圖像大小均為64×64像素,Epoch為50,每批次輸入64張圖像,初始學(xué)習(xí)率為0.000 2,衰減動量b1 = 0.5,b2 = 0.999,異常分?jǐn)?shù)中加權(quán)參數(shù)λ = 0.9。
2.5 實驗結(jié)果
為了驗證模型的有效性,利用晶圓數(shù)據(jù)集與無監(jiān)督模型AnoGAN、EGBAD、GANomaly進(jìn)行對比實驗,對比結(jié)果如表3所示。
表3從精確率和召回率、F1分?jǐn)?shù)及AUC進(jìn)行全面評估模型晶圓表面缺陷檢測的能力。AnoGAN和EGBAD的AUC值分別為0.592、0.594,這意味著兩者無法有效的區(qū)分正常和異常樣本,不具備對異常圖像的缺陷檢測能力。相比之下GANomaly的整體效果得到了極大的提升,AUC值達(dá)到了0.918,具有較高的正樣本識別能力,同時也保持了相對較高的召回率。本文所提出的模型在所有評估指標(biāo)上均表現(xiàn)卓越,精確率達(dá)到完美的1.0意味著在識別異常時沒有產(chǎn)生任何誤報,而高召回率也確保了大多數(shù)異常能被識別,本模型的AUC值相較于GANomaly提升了6.7%,實驗中晶圓數(shù)據(jù)集缺陷檢測可視化數(shù)據(jù)圖如圖7所示。
為進(jìn)一步驗證本章對模型所做改進(jìn)對晶圓表面缺陷檢測的有效性,對模型增加的CBAM注意力機(jī)制,MemAE記憶模塊以及新增自編碼式判別器進(jìn)行消融實驗,實驗結(jié)果如表4所示。在表4中,Base表示基準(zhǔn)模型GANomaly;CBAM表示在生成器第3、4層引入跳層連接,并于第四層連接處添加CBAM注意力機(jī)制;MemAE表示在生成器模塊處引入記憶模塊;D2表示在判別器模塊中增添一個自編碼式判別器,表格中空白項表示無此項。
通過表3的數(shù)據(jù)可以直觀地看出,跳層連接處CBAM注意力機(jī)制的引入,極大程度提高了模型的圖像重構(gòu)能力,AUC值相較于基準(zhǔn)模型提高了3.3%,隨著MemAE記憶模塊的引入以及判別器D2的增添,AUC值相較于基準(zhǔn)模型分別提高了5.5%和6.7%。為驗證模型的有效性,本文同時也對公共數(shù)據(jù)集Mvtec AD數(shù)據(jù)集進(jìn)行了實驗,對比結(jié)果如表5所示。
分析表4中數(shù)據(jù)可知,本文所提出的基于改進(jìn)生成對抗網(wǎng)絡(luò)的晶圓表面缺陷檢測模型在平均性能上都獲得了較為優(yōu)秀的檢測性能,特別針對Screw、Toothbrush兩類數(shù)據(jù)集,AUC值都得到了明顯提高,而對于紋理類數(shù)據(jù)集Carpet由于較強(qiáng)的圖像重構(gòu)能力,無法達(dá)到有效的檢測效果,整體平均AUC相較于基準(zhǔn)模型Ganomaly提高了3%。
3 結(jié) 論
針對晶圓表面缺陷檢測,為解決有監(jiān)督學(xué)習(xí)獲取標(biāo)注數(shù)據(jù)昂貴、困難且缺乏先驗知識的問題,提出了基于改進(jìn)生成對抗網(wǎng)絡(luò)的晶圓表面缺陷檢測模型。在跳層連接處引入CBAM注意力機(jī)制幫助模型更好地關(guān)注圖像的重要區(qū)域和重要特征;為約束潛在空間的表示從而引入記憶模塊MemAE,使得重構(gòu)后的圖像樣本分布接近正常樣本。最后,在原模型架構(gòu)上新增一個自動編碼器架構(gòu)判別器,以確保訓(xùn)練更穩(wěn)定,更容易收斂到最佳平衡點。通過實驗驗證,本文所提出的模型對晶圓表面缺陷檢測AUC值達(dá)到了0.985,相較于GANomlay提升了6.7%,在公共數(shù)據(jù)集MVTec AD上AUC值達(dá)到了0.79,相較于基準(zhǔn)模型GANomaly提高了3%。證明該模型具有潛在價值,特別針對晶圓數(shù)據(jù)集能有效進(jìn)行缺陷檢測,對以后的晶圓表面缺陷檢測任務(wù)具有一定的指導(dǎo)意義;對于公共數(shù)據(jù)集MVTec AD缺陷檢測仍有一定的提升空間。
參考文獻(xiàn):
[1] 常凱,馮麗妃.我國半導(dǎo)體芯片制造底層技術(shù)短板待補(bǔ) [N].中國科學(xué)報,2023-11-09(1).
[2] 曹蕓玉.基于深度學(xué)習(xí)的晶圓表面缺陷檢測系統(tǒng)研究 [D].鄭州:華北水利水電大學(xué),2023.
[3] JIN Q F,CHEN L. A Survey of Surface Defect Detection of Industrial Products Based on a Small Number of Labeled Data [J/OL].arXiv:2203.05733 [cs.CV].(2022-03-11).https://arxiv.org/abs/2203.05733.
[4] 劉世民.基于機(jī)器視覺的某低壓斷路器復(fù)雜紋理面板的瑕疵檢測 [D].廈門:廈門理工學(xué)院,2022.
[5] 邱笑迎.基于顏色特征的面料花型圖案檢索算法 [J].計算機(jī)時代,2023(9):92-95.
[6] YANG W H. A Survey of Surface Defect Detection Based on Deep Learning [C]//2022 7th International Conference on Modern Management and Education Technology (MMET 2022).Dordrecht:Atlantis Press,2022:362-367.
[7] TAO X,GONG X Y,ZHANG X,et al. Deep Learning for Unsupervised Anomaly Localization in Industrial Images: A Survey [J].IEEE Transactions on Instrumentation and Measurement,2022,71:1-21.
[8] LEE D.Anomaly Detection in Multivariate Non-stationary Time Series for Automatic DBMS Diagnosis [J/OL].arXiv:1708.02635 [stat.ML].(2017-08-08).https://arxiv.org/abs/1708.02635.
[9] AKCAY S,ATAPOUR-ABARGHOUEI A,BRECKON T P. Ganomaly: Semi-supervised Anomaly Detection via Adversarial Training [C]//ACCV 2018:14th Asian Conference on Computer Vision.Perth:Springer,2019:622-637.
[10] YOUKACHEN S,RUCHANURUCKS M,PHATRAPOMNANT T,et al. Defect Segmentation of Hot-rolled Steel Strip Surface by Using Convolutional Auto-encoder and Conventional Image Processing [C]//2019 10th International Conference of Information and Communication Technology for Embedded Systems (ICICTES).Bangkok:IEEE,2019:1-5.
[11] YANG H,CHEN Y F,SONG K Y,et al. Multiscale Feature-clustering-based Fully Convolutional Autoencoder for Fast Accurate Visual Inspection of Texture Surface Defects [J].IEEE Transactions on Automation Science and Engineering,2019,16(3):1450-1467.
[12] WOO S,PARK J,LEE J-Y,et al. CBAM: Convolutional Block Attention Module [J/OL].arXiv:1807.06521 [cs.CV].(2018-07-17).https://arxiv.org/abs/1807.06521.
[13] GONG D,LIU L Q,LE V,et al.Memorizing Normality to Detect Anomaly: Memory-augmented Deep Autoencoder for Unsupervised Anomaly Detection [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul:IEEE,2019:1705-1714.
[14] BERTHELOT D,SCHUMM T,METZ L. BEGAN: Boundary Equilibrium Generative Adversarial Networks [J/OL].arXiv:1703.10717 [cs.LG].(2017-03-31).https://arxiv.org/abs/1703.10717v4.
[15] HORé A,ZIOU D. Image Quality Metrics: PSNR vs. SSIM [C]//2010 20th International Conference on Pattern Recognition.Istanbul:IEEE,2010:2366-2369.
[16] BERGMANN P,F(xiàn)AUSER M,SATTLEGGER D,et al. MVTec AD—A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:9584-9592.
作者簡介:凌鴻偉(1999—),男,漢族,四川德陽人,碩士在讀,研究方向:計算機(jī)視覺;通信作者:張建敏(1971—),女,漢族,湖北武漢人,教授,博士,研究方向:智能醫(yī)療與健康。