林志鵬, 曾立波, 吳瓊水
(武漢大學(xué)電子信息學(xué)院, 武漢 430072)
近些年來(lái), 深度學(xué)習(xí)在圖像分類(lèi),目標(biāo)識(shí)別,語(yǔ)義分割等領(lǐng)域取得了很大的成功[1]。使用深度學(xué)習(xí)方法進(jìn)行分類(lèi)任務(wù)的一個(gè)重要需求就是輸入數(shù)據(jù)集量級(jí)較大且數(shù)據(jù)盡可能地更多樣化,以求充分優(yōu)化模型的參數(shù)來(lái)提高模型性能[2]。但是很多真實(shí)世界圖片獲取是很困難的,能得到的樣本數(shù)目有限,比如醫(yī)學(xué)影像,每一例正樣本都意味著一個(gè)承受痛苦的病人。而訓(xùn)練的圖像數(shù)量較少會(huì)影響深度學(xué)習(xí)方法的分類(lèi)效果、降低分類(lèi)的準(zhǔn)確率[3]。所以如何利用少量數(shù)據(jù)得到較好的分類(lèi)效果是一個(gè)值得探究的問(wèn)題。
深度學(xué)習(xí)需要較大數(shù)據(jù)集訓(xùn)練模型[4],數(shù)據(jù)不足的情況下會(huì)出現(xiàn)模型過(guò)擬合,緩和此問(wèn)題的一類(lèi)方法是擴(kuò)充數(shù)據(jù)集。1995年,Bishop[5]提出在樣本中加入隨機(jī)噪聲能夠獲得好的識(shí)別效果。2004年,文獻(xiàn)[6]首次提出了使用神經(jīng)網(wǎng)絡(luò)生成新的訓(xùn)練集的方法。文獻(xiàn)[7]通過(guò)組合使用旋轉(zhuǎn)、縮放、平移鏡像原始圖像的方法增加樣本的數(shù)量。使用仿射變換增加圖像數(shù)量是現(xiàn)在常用的數(shù)據(jù)增強(qiáng)方法。還有研究通過(guò)加入隨機(jī)噪聲或隨機(jī)調(diào)整亮度、對(duì)比度的方法增加樣本數(shù)量,例如文獻(xiàn)[8]使用在圖像中加入高斯噪聲來(lái)生成新的人臉圖像。此外,還有隨機(jī)截取或隨機(jī)遮蓋的方法。文獻(xiàn)[9]使用替換興趣區(qū)域的圖像來(lái)生成新的圖像。這些方法沒(méi)有充分利用原始樣本的內(nèi)在特征,導(dǎo)致訓(xùn)練的模型具有局限性。
為此,設(shè)計(jì)新的高性能生成對(duì)抗網(wǎng)絡(luò),提出通過(guò)訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)增強(qiáng)的方法,學(xué)習(xí)原數(shù)據(jù)集的分布, 得到大量與原數(shù)據(jù)集獨(dú)立同分布的樣本,然后用來(lái)訓(xùn)練分類(lèi)網(wǎng)絡(luò),以期提升小樣本學(xué)習(xí)的效果。
生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network,GAN)是一種無(wú)監(jiān)督學(xué)習(xí)方法,主要是使用“動(dòng)態(tài)博弈思維”來(lái)訓(xùn)練生成式模型,生成與原數(shù)據(jù)相同分布的數(shù)據(jù)樣本。GAN可以看作生成網(wǎng)絡(luò)G(generator)和判別網(wǎng)絡(luò)D(discriminator)的組合。其中生成網(wǎng)絡(luò)G負(fù)責(zé)生成圖片,起初它會(huì)收到一個(gè)隨機(jī)的噪聲z,進(jìn)而通過(guò)該噪聲生成圖像,生成的假圖像記作G(z)。判別網(wǎng)絡(luò)D負(fù)責(zé)判別輸入圖像是否為真實(shí)圖像,如果D(x)=1,那么說(shuō)明判別這張圖像為真實(shí)圖像;如果D(x)=0,那么就是生成的假圖像。GAN網(wǎng)絡(luò)的模型框架圖如圖1所示。
圖1 GAN網(wǎng)絡(luò)模型框架Fig.1 GAN model structure
在訓(xùn)練過(guò)程中,先固定G(z)訓(xùn)練D(x)識(shí)別圖像來(lái)自原始圖像還是生成圖像,固定D(x)訓(xùn)練G(z) 生成圖片使D(x)識(shí)別其為原始圖像,兩步交替進(jìn)行。文獻(xiàn)[10],即GAN的原文中構(gòu)造了損失函數(shù):
Ez~pz(z)lg{1-D[G(z)]}
(1)
式(1)中:D(x)為判別器;z為噪聲輸入;G(z)為生成器。
并證明了在D(x)和G(z)訓(xùn)練到最好時(shí),對(duì)于原數(shù)據(jù)的分布pdata和生成樣本的分布pg有pdata=pg和D(x)=0.5,即生成圖像的數(shù)據(jù)分布擬合了原始圖像的數(shù)據(jù)分布,生成的圖像質(zhì)量足夠高以致判別器無(wú)法分辨。
自從2014年Lan Goodfellow提出GAN以來(lái),為了能夠使用GAN生成高質(zhì)量圖像樣本,希望將卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用到GAN上面,但是很多嘗試都失敗了。DCGAN(deep convolution GAN)依靠對(duì)判別器和生成器的架構(gòu)進(jìn)行實(shí)驗(yàn)枚舉,最終找到一組比較好的網(wǎng)絡(luò)架構(gòu)設(shè)置,成功將CNN應(yīng)用到GAN上[11],提高了生成樣本的質(zhì)量。
為了增加模型訓(xùn)練中的穩(wěn)定性,防止模型發(fā)散同時(shí)提高訓(xùn)練的速度,DCGAN提出了深度卷積生成對(duì)抗網(wǎng)絡(luò)的幾條指導(dǎo)方針。
(1)取消所有池化層,在判別網(wǎng)絡(luò)中使用相應(yīng)步長(zhǎng)的卷積,在生成網(wǎng)絡(luò)中使用相應(yīng)步長(zhǎng)的反卷積。
(2)在生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)中使用批標(biāo)準(zhǔn)化Batchnorm(BN層)。
(3)在隱藏層中不使用全連接層。
(4)在生成網(wǎng)絡(luò)中,輸出層使用Tanh激活函數(shù),其他層使用ReLu激活函數(shù)。
(5)在判別網(wǎng)絡(luò)中,使用LeakyReLU作為激活函數(shù)。
雖然DCGAN取得了很好的效果,但是沒(méi)有從理論上根本解決GAN一直以來(lái)面臨的問(wèn)題。這些問(wèn)題包括訓(xùn)練困難,需要精心設(shè)計(jì)模型結(jié)構(gòu),并小心協(xié)調(diào)G和D的訓(xùn)練程度;模型難以收斂,生成器輸出沒(méi)有意義的圖片;模式崩壞(mode collapse),生成的圖片缺乏多樣性。為了解決GAN訓(xùn)練不穩(wěn)定、模式崩潰(mode collapse)等問(wèn)題,WGAN(wasserstein GAN)從理論上分析了原始GAN的問(wèn)題所在,從而針對(duì)性地給出了以下改進(jìn)要點(diǎn)[12]。
(1)判別器最后一層去掉Sigmod。
(2)生成器和判別器的loss不取log。
(3)每次更新判別器的參數(shù)之后把它們的絕對(duì)值截?cái)嗟讲怀^(guò)一個(gè)固定常數(shù)c。
(4)不用基于動(dòng)量的優(yōu)化算法(例如momentum和Adam),推薦RMSProp或SGD。
容易證明一張圖片經(jīng)過(guò)仿射變換生成的大量樣本不滿足獨(dú)立同分布。但是因?yàn)榫矸e運(yùn)算本身并不具有旋轉(zhuǎn)不變性和平移不變性,所以這些樣本在一定程度上可以提高深度學(xué)習(xí)模型的泛化能力,但是效果非常有限。
前面提到在GAN收斂良好時(shí)有pdata=pg,所以此時(shí)向G(z)隨機(jī)噪聲z可以看作從pdata中隨機(jī)取樣的過(guò)程,可以證明G(z)生成的樣本滿足獨(dú)立同分布的條件,所以使用GAN生成樣本進(jìn)行數(shù)據(jù)增強(qiáng)在理論上是可行的。
DCGAN的論文中給出了用于LSUN數(shù)據(jù)集的網(wǎng)絡(luò)結(jié)構(gòu),生成尺寸64×64的較低質(zhì)量的圖片,這遠(yuǎn)不能達(dá)到要求。希望生成分辨率高達(dá)304×304的高質(zhì)量圖片,所以依據(jù)DCGAN和WGAN的原則設(shè)計(jì)了全新的生成網(wǎng)絡(luò)G和判別網(wǎng)絡(luò)D,盡量保證網(wǎng)絡(luò)的性能和穩(wěn)定性。與原DCGAN網(wǎng)絡(luò)相比,本文網(wǎng)絡(luò)卷積核更加多樣,卷積層數(shù)更深。加深網(wǎng)絡(luò)深度可以提高模型的性能,但是會(huì)大大減慢訓(xùn)練速度。同時(shí),更深的網(wǎng)絡(luò)有著更多的參數(shù),意味著模型將更難收斂。
設(shè)計(jì)的生成器G(z)采用6層卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如圖 2所示。生成網(wǎng)絡(luò)依照DCGAN和WGAN的原則沒(méi)有使用池化層,隱藏層中沒(méi)有使用全連接層,隱藏層每個(gè)卷積層后采用BN層和Relu激活函數(shù)。同時(shí),在判別器的輸出沒(méi)有sigmod層。反卷積核的大小不一,步長(zhǎng)為2。生成網(wǎng)絡(luò)的輸入是大小為100的噪聲,先經(jīng)過(guò)一個(gè)全連接層對(duì)噪聲進(jìn)行線性變換,然后再reshape成9×9×1 024的三維矩陣的形式,經(jīng)過(guò)6層反卷積層得到304×304×3的圖像。
圖2 生成網(wǎng)絡(luò)Fig.2 Generator net
圖3 判別網(wǎng)絡(luò)Fig.3 Discriminator net
本文設(shè)計(jì)的判別網(wǎng)絡(luò)D(x)采用了6層卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)如圖 3所示。依照DCGAN和WGAN的原則沒(méi)有使用池化層,隱藏層中沒(méi)有使用全連接層,隱藏層中每個(gè)卷積層后采用BN層和LeakyRelu激活函數(shù)。與此同時(shí),在判別器的輸出沒(méi)有sigmod層。卷積核的大小統(tǒng)一為5×5,步長(zhǎng)為2,全0填充。判別網(wǎng)絡(luò)的輸入是大小為304×304×3的圖像,經(jīng)過(guò)6層卷積層后得到10×10×1 024的三維矩陣,最后經(jīng)過(guò)全連接層得到最終的一維輸出。
判別網(wǎng)絡(luò)的損失函數(shù)采用的是sigmoid交叉熵,優(yōu)化方法是RMSProp(root mean square prop)。比較了不同深度G、D網(wǎng)絡(luò)的生成效果,發(fā)現(xiàn)在模型良好收斂的情況下,使用更深的G、D網(wǎng)絡(luò)生成的網(wǎng)絡(luò)圖像質(zhì)量更高。但是輸出圖像尺寸越大,網(wǎng)絡(luò)的深度越深,都會(huì)大大增加訓(xùn)練所需要的時(shí)間。
選擇的數(shù)據(jù)來(lái)源于Herlev數(shù)據(jù)集,選取Herlev數(shù)據(jù)集的第0、1類(lèi),分別為淺表鱗狀上皮和中層鱗狀上皮細(xì)胞,作為正常細(xì)胞,選取Herlev數(shù)據(jù)集的第3、4類(lèi),分別為輕度非典型增生細(xì)胞和中度非典型增生細(xì)胞作為異常細(xì)胞。正常細(xì)胞共有144例,異常細(xì)胞共有328例,數(shù)據(jù)集非常小而且數(shù)據(jù)不均衡,每類(lèi)中隨機(jī)選取50張作為分類(lèi)驗(yàn)證集,剩下的用于訓(xùn)練GAN網(wǎng)絡(luò)。
使用各個(gè)類(lèi)別圖片訓(xùn)練GAN來(lái)生成相應(yīng)類(lèi)別圖片來(lái)擴(kuò)充數(shù)據(jù)集。因?yàn)榫矸e本身不具有旋轉(zhuǎn)不變性,所以它無(wú)法自行得到旋轉(zhuǎn)和翻轉(zhuǎn)的泛化能力。最大值池化(max_polling)也只有小范圍的扭曲和旋轉(zhuǎn)不變性。對(duì)于細(xì)胞圖像的生成和分類(lèi)識(shí)別來(lái)說(shuō),要求模型具有對(duì)于旋轉(zhuǎn)圖像的泛化能力。所以對(duì)每個(gè)類(lèi)別的訓(xùn)練集圖片進(jìn)行旋轉(zhuǎn)和翻轉(zhuǎn)操作,以期望訓(xùn)練得到的生成模型具有生成旋轉(zhuǎn)圖像的泛化能力并盡量避免GAN發(fā)生模式崩潰。如此使圖片增加到原來(lái)的16倍,這些圖片直接作為GAN的訓(xùn)練集。GAN的訓(xùn)練集不包含分類(lèi)驗(yàn)證集的圖片。
首先訓(xùn)練GAN生成正常細(xì)胞,訓(xùn)練的參數(shù)設(shè)置如下。Batchsize設(shè)為64,學(xué)習(xí)率設(shè)為0.000 2,優(yōu)化指數(shù)衰減率β設(shè)為0.5,BN層的epsilon設(shè)為10-5,decay設(shè)為0.9。每個(gè)step訓(xùn)練1次判別網(wǎng)絡(luò)D,訓(xùn)練2次生成網(wǎng)絡(luò)G。訓(xùn)練循環(huán)次數(shù)不設(shè)限,每個(gè)循環(huán)進(jìn)行一次生成網(wǎng)絡(luò)的抽樣,一次抽樣16張圖片,訓(xùn)練的過(guò)程效果如圖4所示。
圖4 GAN訓(xùn)練過(guò)程Fig.4 GAN train process
從圖4中可以看到,隨著訓(xùn)練的進(jìn)行,生成的圖片質(zhì)量越來(lái)越高。實(shí)際上在前幾個(gè)epoch(訓(xùn)練迭代次數(shù))模型生成的樣本類(lèi)似噪聲;在9個(gè)epoch以后,生成的樣本開(kāi)始有了細(xì)胞的大致輪廓;在幾十個(gè)epoch以后,生成的樣本質(zhì)量就比較高了。到大概700個(gè)epoch以后,生成的圖像就足以以假亂真了。
圖5 原圖與生成圖像比較(正常細(xì)胞)Fig.5 Compare between source and the generated (normal cells)
如圖5所示在原始樣本中的數(shù)據(jù)分布在生成樣本中都有體現(xiàn),生成的圖片與原始圖片相像,但是又不完全相同,可以明顯看出生成樣本與原始樣本具有獨(dú)立同分布的關(guān)系。故生成樣本適合作為訓(xùn)練分類(lèi)網(wǎng)絡(luò)的訓(xùn)練集。
由于異常細(xì)胞的原始圖像清晰度較低,訓(xùn)練GAN生成高質(zhì)量的異常細(xì)胞樣本非常困難。首先嘗試生成304×304×3的圖片,但是模型收斂很慢而且質(zhì)量較低。調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)后嘗試生成96×96×3的圖片,如圖 6、圖7訓(xùn)練結(jié)果所示。由此可知,當(dāng)前網(wǎng)絡(luò)生成高分辨率圖像的性能還有待加強(qiáng),GAN在清晰度較高、特征鮮明的訓(xùn)練集上表現(xiàn)更好。
圖6 GAN訓(xùn)練過(guò)程(異常細(xì)胞)Fig.6 GAN train process(abnormal cells)
圖7 原圖與生成圖像比較(異常細(xì)胞)Fig.7 Compare between source and the generated (abnormal cells)
在2 300個(gè)epoch以后,模型發(fā)生了模式崩潰的現(xiàn)象,表現(xiàn)為生成圖像的多樣性不足,生成的圖片中有大量重復(fù),如圖8所示。這是因?yàn)橛?xùn)練到后面判別器Discriminator訓(xùn)練得太好,導(dǎo)致生成器Generator無(wú)法更新梯度。具體的原因可能是因?yàn)橛?xùn)練所用的數(shù)據(jù)集太小,導(dǎo)致模型落到了局部最小值點(diǎn)。
圖8 訓(xùn)練過(guò)程中出現(xiàn)的模式崩潰Fig.8 Mode Collapse
對(duì)于這種情況,決定使用1 000~2 000 epoch的訓(xùn)練過(guò)程采樣圖片擴(kuò)充數(shù)據(jù)集,因?yàn)檫@部分圖片質(zhì)量已經(jīng)很高,而且沒(méi)有發(fā)生模式崩潰。每類(lèi)隨機(jī)抽取了22 000張圖片。
比較了Adam和RMSProp兩種優(yōu)化算法的生成網(wǎng)絡(luò)效果,如圖 9所示。RMSProp優(yōu)化器生成的圖片邊緣紋理比較明顯,細(xì)節(jié)表現(xiàn)也更好。使用Adam優(yōu)化器生成的圖片邊緣比較模糊,細(xì)節(jié)也比較雜亂。這也驗(yàn)證了WGAN的改進(jìn)要點(diǎn),盡量避免基于動(dòng)量的優(yōu)化算法(例如momentum和Adam),優(yōu)先使用RMSProp或SGD來(lái)優(yōu)化模型。
圖9 不同優(yōu)化算法比較Fig.9 Compare between Adam and RMS
為了驗(yàn)證使用GAN擴(kuò)充的數(shù)據(jù)集是否改善小樣本學(xué)習(xí)的效果,使用基于Resnet的遷移學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練驗(yàn)證。
希望測(cè)試GAN生成的樣本在Resnet網(wǎng)絡(luò)上的表現(xiàn)。使用Keras的Resnet網(wǎng)絡(luò)作為預(yù)訓(xùn)練模型,固定卷積層的參數(shù),只訓(xùn)練重新搭建的全連接層。這樣Resnet的卷積層就相當(dāng)于特征提取器,提取到圖像的特征后輸入給全連接層,只需要訓(xùn)練全連接層根據(jù)圖像的抽象特征判斷圖像的類(lèi)別。
訓(xùn)練集就使用GAN生成的圖像,每類(lèi)抽取12 000張,總共24 000張圖片作為訓(xùn)練集,驗(yàn)證集使用原始的Herlev圖像,每類(lèi)50張,共有100張。Resnet網(wǎng)絡(luò)要求的輸入大小為224×224×3,但在此次測(cè)試中將網(wǎng)絡(luò)輸入大小設(shè)置為96×96×3,在訓(xùn)練前將所有圖片resize成相應(yīng)大小。訓(xùn)練過(guò)程中的dropout設(shè)為0.25,最后輸出的維度設(shè)為1,采用sigmod激活函數(shù),優(yōu)化算法選用AdaDelta,學(xué)習(xí)率等其他參數(shù)默認(rèn),訓(xùn)練的結(jié)果如圖10~圖13所示。
圖10 訓(xùn)練集準(zhǔn)確率Fig.10 Aceuraly rate on train dataset
圖11 訓(xùn)練集損失Fig.11 Loss on train dataset
圖12 驗(yàn)證集準(zhǔn)確率Fig.12 Aceuraly rate on val dataset
圖13 驗(yàn)證集損失Fig.13 Loss on val dataset
圖10、圖11是模型在訓(xùn)練集的準(zhǔn)確率和損失值??梢钥闯?在訓(xùn)練到第2個(gè)epoch時(shí)訓(xùn)練集的準(zhǔn)確率就達(dá)到了99.3%,損失值小于0.021,模型在訓(xùn)練集上迅速收斂。圖12、圖13是模型在驗(yàn)證集的準(zhǔn)確率和損失。訓(xùn)練到第6個(gè)epoch后,模型在驗(yàn)證集上準(zhǔn)確率達(dá)到最高97%,驗(yàn)證集上的損失也到達(dá)最小值。
對(duì)圖像數(shù)據(jù)進(jìn)行仿射變換是圖像數(shù)據(jù)增強(qiáng)最常用的方法,包括鏡像、翻轉(zhuǎn)、隨機(jī)截取等方式。在以往的工作中,文獻(xiàn)[13]對(duì)圖像放大后進(jìn)行隨機(jī)的平移、翻轉(zhuǎn)、剪切來(lái)進(jìn)行圖像數(shù)據(jù)增強(qiáng),應(yīng)用于肺部結(jié)節(jié)分類(lèi)任務(wù),將準(zhǔn)確率提升到98.1%。文獻(xiàn)[14]對(duì)每張圖像進(jìn)行翻轉(zhuǎn)、旋轉(zhuǎn)操作進(jìn)行數(shù)據(jù)增強(qiáng),應(yīng)用于肝包蟲(chóng)CT圖像分類(lèi),將準(zhǔn)確率提高到97.5%。但是由于上述文獻(xiàn)與本文所用數(shù)據(jù)集不同,分類(lèi)方法也不同,所以無(wú)法直接比較本文與上述文獻(xiàn)的數(shù)據(jù)增強(qiáng)方法的優(yōu)劣。因此下面在本文條件下做仿射變換數(shù)據(jù)增強(qiáng)實(shí)驗(yàn),以便于與本文提出的基于GAN的數(shù)據(jù)增強(qiáng)方法效果進(jìn)行比較。
作為比較,將本文用于訓(xùn)練GAN的原始數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)、翻轉(zhuǎn)等操作,將正常細(xì)胞擴(kuò)充到1 552例,異常細(xì)胞擴(kuò)充到1 128例。然后使用得到的仿射數(shù)據(jù)集訓(xùn)練Resnet分類(lèi)網(wǎng)絡(luò)。訓(xùn)練的結(jié)果如下所示,訓(xùn)練過(guò)程中訓(xùn)練集的準(zhǔn)確率很快接近100%,圖14、圖15只給出了測(cè)試集在訓(xùn)練過(guò)程上的結(jié)果。
圖14 仿射變換數(shù)據(jù)集正確率Fig.14 Aceuraly rate on val dataset
圖15 仿射變換數(shù)據(jù)集損失Fig.15 Loss on val dataset
可以看到,在仿射變換擴(kuò)充的數(shù)據(jù)集上,驗(yàn)證集準(zhǔn)確率最高只能維持在93%左右,低于使用GAN擴(kuò)充的數(shù)據(jù)集訓(xùn)練的模型準(zhǔn)確率97%。
通過(guò)GAN生成的圖片來(lái)擴(kuò)充數(shù)據(jù)集,在小樣本學(xué)習(xí)上得到了比較好的結(jié)果。其中在Resnet上測(cè)試集正確率高達(dá)97%,高于仿射變換擴(kuò)充的數(shù)據(jù)集的93%。設(shè)計(jì)的GAN網(wǎng)絡(luò)生成了高質(zhì)量的細(xì)胞圖像,分辨率高達(dá)304×304。而在DCGAN原文中生成圖像只有64×64,低于本文水平。其他文獻(xiàn)鮮有與本文相近的工作。文獻(xiàn)[15]使用細(xì)胞細(xì)粒度的形態(tài)學(xué)先驗(yàn)知識(shí)與CNN結(jié)合來(lái)同樣在herlev數(shù)據(jù)集上細(xì)胞分類(lèi),受限于數(shù)據(jù)集過(guò)小,二分類(lèi)準(zhǔn)確率94.5%,低于本文經(jīng)過(guò)數(shù)據(jù)增強(qiáng)后的結(jié)果97%。文獻(xiàn)[16]使用GMM-CGAN的方法,將386個(gè)樣本擴(kuò)充到38 600個(gè),并在分類(lèi)上比較于仿射數(shù)據(jù)集上正確率提高了18.2%,達(dá)到89.1%,效果也低于本文。這表明利用GAN生成的圖片訓(xùn)練的分類(lèi)模型性能優(yōu)異,具有較好的魯棒性和泛化性。
基于DCGAN和WGAN的原則設(shè)計(jì)了一種生成對(duì)抗網(wǎng)絡(luò)用于宮頸細(xì)胞圖像的數(shù)據(jù)增強(qiáng)。利用少量原始圖片生成了大量高質(zhì)量的生成圖片并應(yīng)用于分類(lèi)任務(wù),相較于其他工作,達(dá)到了較高的準(zhǔn)確率。證明了本文設(shè)計(jì)的GAN網(wǎng)絡(luò)具有較高的性能。更證明了訓(xùn)練GAN來(lái)進(jìn)行圖像數(shù)據(jù)增強(qiáng)的方法是行之有效的,可以有效提升小樣本學(xué)習(xí)的效果,使模型達(dá)到較高的分類(lèi)準(zhǔn)確率。此外,本文方法也可用于其他圖像數(shù)據(jù)集的數(shù)據(jù)增強(qiáng),也可用于幫助解決諸如圖像分割,目標(biāo)檢測(cè)數(shù)據(jù)集不足的問(wèn)題。