王晨,王一博,陶子勛,付昂揚(yáng),曹玥琦
摘要:為解決癌癥的診斷問(wèn)題,提高診斷的效率與準(zhǔn)確率,增強(qiáng)診斷的可靠性,運(yùn)用了TensorFlow搭建訓(xùn)練基于卷積神經(jīng)網(wǎng)絡(luò)的癌癥分類(lèi)模型,基于VGG16架構(gòu),采用深度單類(lèi)分類(lèi)算法,使用遷移學(xué)習(xí),采集正常細(xì)胞病理學(xué)數(shù)據(jù),來(lái)訓(xùn)練出可以識(shí)別癌變數(shù)據(jù)的模型,從而精準(zhǔn)自動(dòng)地將正常細(xì)胞與腫瘤病理學(xué)數(shù)據(jù)分類(lèi)。結(jié)果表明建立的基于遷移學(xué)習(xí)的分類(lèi)模型可以很好地幫助病理學(xué)家檢測(cè)癌癥,縮短診斷時(shí)間。
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);遷移學(xué)習(xí);DOC算法;圖像分類(lèi);VGG16模型
中圖分類(lèi)號(hào):TP391? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2021)34-0099-03
伴隨著人類(lèi)社會(huì)高速發(fā)展的同時(shí),環(huán)境的破壞大大提高了惡性腫瘤的發(fā)病率,癌癥的防治形勢(shì)仍然需要大眾廣泛的努力。癌癥發(fā)現(xiàn)得越晚,治愈概率越小,同時(shí),組織病理學(xué)圖像在臨床分析中會(huì)耗費(fèi)醫(yī)生大量的時(shí)間和精力,而且存在判斷錯(cuò)誤的現(xiàn)象,所以癌癥的及時(shí)發(fā)現(xiàn)仍是全世界的難題。而利用計(jì)算機(jī)輔助設(shè)計(jì)(CAD)[1]自動(dòng)處理病理學(xué)圖像不僅可以提高診斷效率,還可以提供更為準(zhǔn)確的診斷結(jié)果。深度學(xué)習(xí)自發(fā)展以來(lái),已被運(yùn)用于多個(gè)領(lǐng)域,也使得醫(yī)學(xué)影像分析有了新的突破。1999年,Golub等人利用基因芯片技術(shù)和機(jī)器學(xué)習(xí)將急性白血病進(jìn)行分類(lèi)[2],使得機(jī)器學(xué)習(xí)與醫(yī)學(xué)影像緊密聯(lián)系,在機(jī)器學(xué)習(xí)的范疇內(nèi),腫瘤數(shù)據(jù)分類(lèi)也變?yōu)榱搜芯繜衢T(mén)課題之一。應(yīng)用于病理學(xué)圖像分析的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)有深度置信網(wǎng)絡(luò)(DBN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、降噪自動(dòng)編碼器(DAE)等[3]。在現(xiàn)階段,由于資源的限制,腫瘤數(shù)據(jù)集的樣本量較小,為了解決特征選擇算法只能在各自數(shù)據(jù)集操作的局限性,F(xiàn)akoor等人提出了將無(wú)監(jiān)督學(xué)習(xí)和深度學(xué)習(xí)結(jié)合在一起的方法,利用稀疏自編碼器作為框架,使分類(lèi)器更有效運(yùn)用于多個(gè)腫瘤數(shù)據(jù)集。獲得高質(zhì)量模型保險(xiǎn)做法是增加模型深度或?qū)挾?,但這樣又會(huì)增加模型的復(fù)雜度并且有可能造成過(guò)擬合。Inception V3模型[4]將卷積核分解降維,節(jié)約了大量參數(shù),加速運(yùn)算并減輕了過(guò)擬合,同時(shí)增加了非線(xiàn)性擴(kuò)展模型表達(dá)能力。在醫(yī)學(xué)領(lǐng)域,深度學(xué)習(xí)已經(jīng)發(fā)揮了重大的作用,但隨著要處理的數(shù)據(jù)量越來(lái)越大,構(gòu)建更加具有高效率、魯棒性的分類(lèi)模型依然是需要研究的內(nèi)容。而且使用大量的標(biāo)簽數(shù)據(jù)訓(xùn)練才會(huì)表現(xiàn)良好的監(jiān)督學(xué)習(xí),這在數(shù)據(jù)采集方面是較為困難的問(wèn)題。在深度學(xué)習(xí)的基礎(chǔ)上使用遷移學(xué)習(xí)的方法,可以直接利用正常細(xì)胞圖像數(shù)據(jù)集建立分類(lèi)模型,實(shí)現(xiàn)兩種圖像的分離[5]。這不僅解決了使用不同數(shù)據(jù)集存在的數(shù)據(jù)分布差異、標(biāo)注數(shù)據(jù)過(guò)期的問(wèn)題,還使得分類(lèi)模型更適用于現(xiàn)代醫(yī)學(xué)環(huán)境,保證新的任務(wù)上的模型精度。
1相關(guān)理論
1.1卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)不同于一般的神經(jīng)網(wǎng)絡(luò)的是,它將每一個(gè)隱藏節(jié)點(diǎn)只與圖像的某個(gè)特定部分相連接,從而在卷積層用來(lái)提取特征時(shí)減少參數(shù)訓(xùn)練的數(shù)量[6]。并且通過(guò)卷積核的權(quán)值共享,可以減少參數(shù)的數(shù)量。在卷積層的線(xiàn)性卷積操作完成后,使用激活函數(shù)增加非線(xiàn)性變換,從而使該模型學(xué)習(xí)到非線(xiàn)性的變換。幾種激活函數(shù)如sigmoid函數(shù)、ReLU函數(shù)、softmax函數(shù)、tanh函數(shù)等。CNN主要包括數(shù)據(jù)輸入層,卷積層,激勵(lì)層,池化層和全連接層。
由于輸入的數(shù)據(jù)存在尺寸過(guò)大、類(lèi)型不符合等問(wèn)題,需要預(yù)處理輸入前的數(shù)據(jù)。常見(jiàn)的數(shù)據(jù)預(yù)處理的方式包括:均值化處理(將輸入數(shù)據(jù)的每個(gè)特征減去其均值)、格式轉(zhuǎn)換(使原始數(shù)據(jù)轉(zhuǎn)為符合模型訓(xùn)練的格式)、降維(數(shù)據(jù)集的維度發(fā)生改變,將高維數(shù)據(jù)集投影到達(dá)低維坐標(biāo)軸)等。通過(guò)數(shù)據(jù)預(yù)處理可以減少神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的等待時(shí)間,提高模型訓(xùn)練的準(zhǔn)確性和效率。
卷積計(jì)算層是CNN的重點(diǎn),先將整個(gè)圖片分割成多個(gè)具有重復(fù)成分的區(qū)域,不斷計(jì)算各個(gè)部分的值,從而達(dá)到增強(qiáng)原始數(shù)據(jù)的特征值,減少噪聲的目的。在每一層中使用相同的卷積核,保證了一個(gè)神經(jīng)元提取一個(gè)特征,多個(gè)神經(jīng)元提取不同的特征。在CNN中,計(jì)算是通過(guò)對(duì)輸入的數(shù)據(jù)與濾波器(帶固定值的矩陣)做內(nèi)積來(lái)提取數(shù)據(jù)的特定信息。每計(jì)算完一個(gè)部分的權(quán)重后,數(shù)據(jù)窗口移動(dòng)至下個(gè)區(qū)域,直到計(jì)算完全部的圖像信息。設(shè)定計(jì)算過(guò)程中的若干參數(shù)能夠獲取不同的卷積神經(jīng)網(wǎng)絡(luò),參數(shù)包括:深度(濾波器個(gè)數(shù),決定處理完的數(shù)據(jù)的厚度),步長(zhǎng)(計(jì)算過(guò)程中窗口一次滑動(dòng)的長(zhǎng)度)與填充值(在原始數(shù)據(jù)外各個(gè)維度填充若干個(gè)0以保證總長(zhǎng)度能整除步長(zhǎng))。
池化層用來(lái)降低數(shù)據(jù)維度,待處理的圖像過(guò)大,對(duì)圖像進(jìn)行池化,即類(lèi)似于壓縮的過(guò)程,通過(guò)一個(gè)下采樣方式來(lái)調(diào)整圖像的大小。經(jīng)過(guò)池化操作后,結(jié)果相比輸入縮小了,而特征并沒(méi)有變形,并且在空間范圍內(nèi)做了維度約減,從而使模型能夠抽取更加廣范圍的特征。同時(shí)減少了下一層的輸入大小,減少計(jì)算量和參數(shù)個(gè)數(shù),在一定程度上防止過(guò)擬合。
全連接層在CNN的最后,類(lèi)似傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),將兩層之間的所有神經(jīng)元連接。全連接層能夠?qū)μ卣鲌D進(jìn)行分類(lèi),將矩陣轉(zhuǎn)化為列向量,完全連接各個(gè)輸入。
1.2 VGG16架構(gòu)
在模型的搭建上適用于VGG16和AlexNet網(wǎng)絡(luò)架構(gòu),通過(guò)截取這兩種主干網(wǎng)絡(luò)中的部分卷積層和全連接層來(lái)應(yīng)用。該架構(gòu)的網(wǎng)絡(luò)示意圖如圖1所示。
截取的VGG16模型共有13個(gè)卷積層,2個(gè)全連接層,5個(gè)池化層。所有卷積層的卷積核大小都是3×3,用來(lái)檢測(cè)某一方面的特征,如形狀,顏色,對(duì)比度等。CNN層數(shù)的增加使提取的特征更加全面。
VGG16使用最大池化,即選擇特征圖中最大元素進(jìn)行下采樣,激活層采用修正線(xiàn)性單元(ReLu)激活函數(shù),將卷積層的計(jì)算進(jìn)行非線(xiàn)性映射,由圖1可知,VGG16全連接層主要是指Fc6和Fc7,用于后期檢測(cè)。
AlexNet是一種比VGG16更早提出的典型的CNN,它的網(wǎng)絡(luò)架構(gòu)由5個(gè)卷積層,2個(gè)全連接層和最后一層的標(biāo)簽層組成。[7]AlexNet和VGG16的主要區(qū)別是:1. VGG16的卷積核大小都是統(tǒng)一的3×3,而AlexNet每一層的卷積核大小并不統(tǒng)一。2.VGG16有16層網(wǎng)絡(luò),AlexNet只有8層,但相比之下,VGG16需要的迭代次數(shù)更少(迭代器數(shù)量多)。所以VGG16是一個(gè)具有更深網(wǎng)絡(luò)、更多參數(shù)、特征提取效果更好的結(jié)構(gòu)。
1.3 深度單類(lèi)分類(lèi)(DOC)算法[8]
DOC算法的訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,由兩個(gè)CNN組成,分為參考網(wǎng)絡(luò)R和輔助網(wǎng)絡(luò)S,兩類(lèi)特征提取網(wǎng)絡(luò)的權(quán)重相互捆綁。DOC的網(wǎng)絡(luò)架構(gòu)主要組件和CNN相同。參考網(wǎng)絡(luò)R是預(yù)先訓(xùn)練的網(wǎng)絡(luò),參考網(wǎng)絡(luò)則是特征提取網(wǎng)絡(luò)的組合。
在經(jīng)典的多分類(lèi)問(wèn)題中,特征學(xué)習(xí)的目標(biāo)是最大化與最小化類(lèi)間的距離。在DOC算法中,用兩個(gè)指標(biāo)來(lái)表示單類(lèi)的特征。緊湊性表示將圖像中提取的一組特征緊湊地放置在特征空間,由類(lèi)間距離決定。描述性是指給定的特征對(duì)不同的圖像有不同的表達(dá),在這種情況下,描述性特征有較大的類(lèi)間距離。單類(lèi)分類(lèi)的目標(biāo)是找到合適的特征表示,使其最大程度上展現(xiàn)緊湊性與描述性??梢杂霉奖硎緸椋?/p>
[g=maxD(gt+λC(gt)]
t是給定的數(shù)據(jù),[λ]為常數(shù),[D(g(t))]表示描述性,[C(g(t))]表示緊湊性。
1.4 遷移學(xué)習(xí)
在傳統(tǒng)的機(jī)器學(xué)習(xí)中,有許多需要大量數(shù)據(jù)標(biāo)注和訓(xùn)練的情況,為了對(duì)已有數(shù)據(jù)的利用和保證新訓(xùn)練模型的精度,遷移學(xué)習(xí)的思想引起了廣泛關(guān)注[9-10]。按照遷移的參照分類(lèi),可以分為基于實(shí)例的遷移,基于特征的遷移與基于參數(shù)的遷移,在確定好確定對(duì)象后,才能針對(duì)具體問(wèn)題得到解決方法,設(shè)計(jì)出合適的算法來(lái)遷移已有網(wǎng)絡(luò)。
為了避免數(shù)據(jù)過(guò)多造成的繁重重復(fù)的工作,我們采用遷移學(xué)習(xí)的方法,其中包括僅訓(xùn)練最后一個(gè)完全連接的層,訓(xùn)練整個(gè)網(wǎng)絡(luò),優(yōu)化模型從而減少樣本數(shù)量。通過(guò)遷移學(xué)習(xí),我們可以充分利用一切可以應(yīng)用的現(xiàn)有資源,經(jīng)過(guò)大數(shù)據(jù)訓(xùn)練好的模型與樣本結(jié)合起來(lái)調(diào)整模型參數(shù),稍加修改遷移到我們的研究中。
2實(shí)驗(yàn)結(jié)果與分析
2.1數(shù)據(jù)集
實(shí)驗(yàn)對(duì)癌癥數(shù)據(jù)進(jìn)行分類(lèi),數(shù)據(jù)來(lái)自TCGA(The Cancer Genome Atlas),是由美國(guó)國(guó)家癌癥研究所和國(guó)家人類(lèi)基因組研究所共同提供的大型癌癥基因組數(shù)據(jù)庫(kù)。在TCGA數(shù)據(jù)庫(kù)中下載了1021張肺癌圖像作為數(shù)據(jù)集。由于直接下載的圖像過(guò)大,在訓(xùn)練前對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,轉(zhuǎn)換成TensorFlow支持的TFRecord格式,并將處理好的數(shù)據(jù)按7:3隨機(jī)分為訓(xùn)練和測(cè)試集兩類(lèi)。
2.2實(shí)驗(yàn)設(shè)置
實(shí)驗(yàn)采用VGG16模型,輸入預(yù)處理完成的數(shù)據(jù),大小為224×224×3像素,各個(gè)卷積層的卷積核大小均為3×3,各個(gè)池化層的池化單元均為2×2[11],Conv1兩層卷積層和64個(gè)通道數(shù),輸出為(224,224,64),最大池化后輸出(112,112,64)。Conv2兩層卷積層和128個(gè)通道數(shù),經(jīng)過(guò)最大池化后輸出(56,56,128)。Conv3三層卷積層和256個(gè)通道數(shù),最大池化后輸出(28,28,256)。Conv4三層卷積層和512個(gè)通道數(shù),最大池化后(14,14,512)。Conv5三層卷積層和512個(gè)通道數(shù),最大池化后輸出(7,7,512)。全連接層Fc6將神經(jīng)元全部連接,輸出(1,1,4096),全連接層Fc7完全連接后輸出(1,1,1000)。網(wǎng)絡(luò)獲取足夠的特征后將最終矩陣轉(zhuǎn)化為向量,用于數(shù)據(jù)分類(lèi)和預(yù)測(cè)。
數(shù)據(jù)的分類(lèi)結(jié)果如表1所示:
共300條數(shù)據(jù)進(jìn)入訓(xùn)練好的模型測(cè)試,正常病理學(xué)圖像236張,肺癌細(xì)胞圖像64張,其中對(duì)正常細(xì)胞分類(lèi)正確的有219張,錯(cuò)誤的有17張,對(duì)肺癌細(xì)胞分類(lèi)正確的有58張,錯(cuò)誤的有6張。結(jié)果分析可得,模型的準(zhǔn)確率為92.3%,召回率為97.3%。說(shuō)明訓(xùn)練的模型在對(duì)細(xì)胞病理學(xué)圖像分類(lèi)上有較為良好的效果。
3結(jié)論
癌癥已經(jīng)成為當(dāng)今世界重視的醫(yī)學(xué)難題,對(duì)癌癥圖像快速準(zhǔn)確的診斷有利于患者的病情治療。而癌癥圖像相對(duì)正常細(xì)胞圖像來(lái)說(shuō)更難獲得,在深度學(xué)習(xí)的基礎(chǔ)上結(jié)合遷移學(xué)習(xí)能夠減少數(shù)據(jù)的使用,提高數(shù)據(jù)標(biāo)簽的利用率。通過(guò)數(shù)據(jù)驗(yàn)證,本文基于VGG16模型提出的腫瘤分類(lèi)模型取得了很好的效果,準(zhǔn)確率達(dá)到92.3%。
參考文獻(xiàn):
[1] Araújo T,Aresta G,Castro E,et al.Classification of breast cancer histology images using Convolutional Neural Networks[J].PLoS One,2017,12(6):e0177544.
[2] Raderschall E,Golub E I,Haaf T.Nuclear foci of mammalian recombination proteins are located at single-stranded DNA regions formed after DNA damage[J].PNAS,1999,96(5):1921-1926.
[3] 楊鑫,章真.基于深度學(xué)習(xí)的人工智能在數(shù)字病理學(xué)中的進(jìn)展[J].中國(guó)癌癥雜志,2021,31(2):151-155.
[4] Dong N,Zhao L,Wu C H,et al.Inception v3 based cervical cell classification combined with artificially extracted features[J].Applied Soft Computing,2020,93:106311.
[5] 莊福振,羅平,何清,等.遷移學(xué)習(xí)研究進(jìn)展[J].軟件學(xué)報(bào),2015,26(1):26-39.
[6] 周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.
[7] 盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)中的應(yīng)用研究綜述[J].數(shù)據(jù)采集與處理,2016,31(1):1-17.
[8] 余凱,賈磊,陳雨強(qiáng),等.深度學(xué)習(xí)的昨天、今天和明天[J].計(jì)算機(jī)研究與發(fā)展,2013,50(9):1799-1804.
[9] Perera P,Patel V M.Learning deep features for one-class classification[J].IEEE Transactions on Image Processing,2019,28(11):5450-5463.
[10] 石祥濱,房雪鍵,張德園,等.基于深度學(xué)習(xí)混合模型遷移學(xué)習(xí)的圖像分類(lèi)[J].系統(tǒng)仿真學(xué)報(bào),2016,28(1):167-173,182.
[11] 馮國(guó)徽.基于卷積神經(jīng)網(wǎng)絡(luò)VGG模型的小規(guī)模圖像分類(lèi)[D].蘭州:蘭州大學(xué),2018.
【通聯(lián)編輯:唐一東】