国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

全卷積深度學(xué)習(xí)網(wǎng)絡(luò)的細(xì)胞顯微圖像分割

2022-05-14 10:27:46雷幫軍
計(jì)算機(jī)仿真 2022年4期
關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)卷積特征

夏 平,王 塽,胡 蓉,雷幫軍

(1. 三峽大學(xué)水電工程智能視覺監(jiān)測湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 宜昌 443002;2. 三峽大學(xué)計(jì)算機(jī)與信息學(xué)院,湖北 宜昌 443002)

1 引言

醫(yī)學(xué)細(xì)胞顯微圖像處理是生物醫(yī)學(xué)識(shí)別領(lǐng)域中重要的研究課題[1]。隨著生物醫(yī)學(xué)技術(shù)的發(fā)展,對細(xì)胞顯微圖像的研究由定性分析逐漸向結(jié)構(gòu)定量化階段演進(jìn),細(xì)胞圖像的定量處理正是解決這一問題的方法和手段[2,3];在此過程中,細(xì)胞顯微圖像分割與識(shí)別是判斷細(xì)胞形態(tài)異常及細(xì)胞定量研究的前提和基礎(chǔ),通過對細(xì)胞層面的定量研究,揭示生物疾病的發(fā)病機(jī)制、發(fā)病原因,發(fā)掘產(chǎn)生疾病過程中功能代謝變化[4,5]。細(xì)胞圖像具有復(fù)雜的紋理特征,大小不一、形態(tài)各異;同時(shí),細(xì)胞的隨機(jī)分布在顯微鏡下會(huì)形成細(xì)胞重疊或粘連,導(dǎo)致顯微成像存在邊界丟失、模糊、不均勻等特點(diǎn);傳統(tǒng)的分割方法有閾值法[6]、邊緣檢測法[7]等。近年來,基于多尺度幾何分析[8]、水平集[9]、神經(jīng)網(wǎng)絡(luò)[11,12]、以及深度學(xué)習(xí)[10]等理論與方法應(yīng)用于細(xì)胞圖像的分割中,取得了較好的分割效果。深度學(xué)習(xí)[13,14]是基于多隱層的神經(jīng)網(wǎng)絡(luò),具有優(yōu)異的特征學(xué)習(xí)能力,能從不同的抽象層次自動(dòng)學(xué)習(xí)特征,具有學(xué)習(xí)更復(fù)雜特征的能力,實(shí)現(xiàn)對數(shù)據(jù)更本質(zhì)的刻畫;在此過程中, Ronneberger等提出了U-Net深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)[15],該網(wǎng)絡(luò)由一個(gè)收縮網(wǎng)絡(luò)及一個(gè)對稱的擴(kuò)張網(wǎng)絡(luò)組成,形成U型結(jié)構(gòu);收縮網(wǎng)絡(luò)用于捕獲分割圖像高維特征信息,擴(kuò)張網(wǎng)絡(luò)逐漸恢復(fù)圖像的細(xì)節(jié)信息及空間位置信息;擴(kuò)張網(wǎng)絡(luò)每次輸出獲取的圖像特征與相應(yīng)的收縮網(wǎng)絡(luò)獲取的特征合并,進(jìn)行邊界信息補(bǔ)全,以精準(zhǔn)定位圖像分割區(qū)域;該網(wǎng)絡(luò)已在生物醫(yī)學(xué)圖像分割中表現(xiàn)出良好的性能,研究者們在U-net網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上,針對處理的醫(yī)學(xué)圖像提出自己的改進(jìn)分割算法,并取得了優(yōu)良的分割效果[16-19]。

針對細(xì)胞顯微圖像的特點(diǎn),本文提出了一種融合BN(Batch Normalization)[20]的全卷積深度學(xué)習(xí)網(wǎng)絡(luò)的細(xì)胞顯微圖像分割算法,構(gòu)建了具有多隱層的、融合BN算法的增強(qiáng)型U-Net深度網(wǎng)絡(luò)。收縮網(wǎng)絡(luò)中通過不斷的卷積和池化操作獲取圖像特征,擴(kuò)張過程則通過上采樣和卷積操作來獲取圖像特征,并合并與之映射的收縮層特征補(bǔ)全丟失的邊界信息,提升預(yù)測邊緣信息的準(zhǔn)確性;同時(shí),為緩解深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練時(shí)網(wǎng)絡(luò)中間層的數(shù)據(jù)分布發(fā)生改變的問題,融入BN算法來標(biāo)準(zhǔn)化處理輸入層及每一隱層的輸入數(shù)據(jù),將處理后的數(shù)據(jù)輸入到網(wǎng)絡(luò)的下一層中;優(yōu)化了模型參數(shù),提高了網(wǎng)絡(luò)訓(xùn)練的速度及收斂性能;調(diào)整權(quán)值獲取細(xì)胞的自動(dòng)分割模型,實(shí)現(xiàn)細(xì)胞圖像的精細(xì)分割。

2 細(xì)胞圖像全卷積深度學(xué)習(xí)網(wǎng)絡(luò)建模

2.1 全卷積增強(qiáng)型U-Net網(wǎng)絡(luò)結(jié)構(gòu)建模

傳統(tǒng)的U-Net網(wǎng)絡(luò)由23個(gè)卷積層、10個(gè)網(wǎng)絡(luò)層構(gòu)成。深度神經(jīng)網(wǎng)絡(luò)中包含中間層數(shù)目越多,該網(wǎng)絡(luò)提取的圖像特征越豐富,分割精度就越高,但同時(shí)也會(huì)造成計(jì)算量加大,需要更大的存儲(chǔ)空間。為此,本文構(gòu)建了基于BN與全卷積深度學(xué)習(xí)網(wǎng)絡(luò)實(shí)現(xiàn)細(xì)胞圖像分割。

在構(gòu)建網(wǎng)絡(luò)過程中,通過對訓(xùn)練過程中信息的損失率(loss)及準(zhǔn)確率(accuracy)變化,綜合確定合適的網(wǎng)絡(luò)層數(shù)。對含有8個(gè)、10個(gè)、12個(gè)、及14個(gè)網(wǎng)絡(luò)層的網(wǎng)絡(luò)結(jié)構(gòu)分別進(jìn)行訓(xùn)練,得到相應(yīng)的loss及accuracy結(jié)果如圖1所示。

圖1 不同網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練中損失率、準(zhǔn)確率與循環(huán)次數(shù)關(guān)系

由圖1(a)、圖1(b)可知,12層網(wǎng)絡(luò)的loss較小,accuracy也明顯高于10層網(wǎng)絡(luò),其收斂更好、更快;當(dāng)繼續(xù)增大網(wǎng)絡(luò)層數(shù)時(shí),網(wǎng)絡(luò)計(jì)算量過大,超出計(jì)算機(jī)內(nèi)存的支持,無法進(jìn)行網(wǎng)絡(luò)訓(xùn)練?;诖?,本文構(gòu)建了含有12個(gè)網(wǎng)絡(luò)層的U-Net網(wǎng)絡(luò)結(jié)構(gòu),即在原收縮網(wǎng)絡(luò)中增加一個(gè)網(wǎng)絡(luò)層,即增加2個(gè)3×3 卷積層和1個(gè)2×2 池化層,相應(yīng)地,在原擴(kuò)張網(wǎng)絡(luò)增加一次上采樣。

構(gòu)建的全卷積網(wǎng)絡(luò)中,收縮網(wǎng)絡(luò)采用池化層逐漸縮減圖像數(shù)據(jù)的空間維度,而擴(kuò)張網(wǎng)絡(luò)通過上采樣層等網(wǎng)絡(luò)層逐步恢復(fù)目標(biāo)的細(xì)節(jié)和相應(yīng)的空間維度;收縮網(wǎng)絡(luò)與擴(kuò)張網(wǎng)絡(luò)間通過直接的信息連接,從而更好地恢復(fù)目標(biāo)細(xì)節(jié)。該網(wǎng)絡(luò)進(jìn)行細(xì)胞圖像分割流程如圖2所示。

圖2 全卷積深度學(xué)習(xí)網(wǎng)絡(luò)圖像分割流程

2.2 構(gòu)建增強(qiáng)型U-Net網(wǎng)絡(luò)的BN算法

網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)分布不同將導(dǎo)致網(wǎng)絡(luò)的泛化能力降低,并且,若訓(xùn)練時(shí)每批次數(shù)據(jù)的分布各不相同,網(wǎng)絡(luò)在每次迭代過程需學(xué)習(xí)適應(yīng)不同的數(shù)據(jù)分布,從而降低了網(wǎng)絡(luò)的訓(xùn)練速度;此外,網(wǎng)絡(luò)訓(xùn)練時(shí)中間層輸入數(shù)據(jù)的分布變化,層層累積致使網(wǎng)絡(luò)高層的輸入分布變化劇烈,以致于高層需要不斷適應(yīng)低層的參數(shù)更新,從而影響網(wǎng)絡(luò)的訓(xùn)練速度。

U-net網(wǎng)絡(luò)在網(wǎng)絡(luò)數(shù)據(jù)輸入中采用減均值、除標(biāo)準(zhǔn)差等方法[21]進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化處理,以降低樣本間的差異性;該方法一定程度上降低網(wǎng)絡(luò)輸入端數(shù)據(jù)的差異性,但未解決網(wǎng)絡(luò)中間層數(shù)據(jù)分布的變化。本文在網(wǎng)絡(luò)中融入BN算法[20],不僅可以標(biāo)準(zhǔn)化處理網(wǎng)絡(luò)輸入端的輸入數(shù)據(jù),還可標(biāo)準(zhǔn)化處理每一隱藏層的輸入數(shù)據(jù),將處理的數(shù)據(jù)輸入到網(wǎng)絡(luò)的下一層中。通過在網(wǎng)絡(luò)中引入BN 算法獨(dú)立地規(guī)范化每個(gè)輸入數(shù)據(jù),規(guī)范化的參數(shù)為最小批量尺寸數(shù)據(jù)的一階和二階統(tǒng)計(jì)量,實(shí)現(xiàn)了每個(gè)最小批量尺寸數(shù)據(jù)的統(tǒng)計(jì)量是整體統(tǒng)計(jì)量的近似估計(jì),即近似同分布。

BN算法在每次迭代中歸一化處理每層的輸入數(shù)據(jù),使得其數(shù)據(jù)分布為均值為0,方差為1。即[20]

(1)

式中,xk表示第k維輸入數(shù)據(jù),E[xk] 為第k維數(shù)據(jù)的均值,Var[xk] 為xk的方差。

BN算法可將網(wǎng)絡(luò)每層的數(shù)據(jù)分布固定,但缺點(diǎn)是強(qiáng)行歸一化處理破壞了已學(xué)習(xí)的數(shù)據(jù)特征。因此,本文對原BN算法進(jìn)行改進(jìn),解決以上不足。具體地:設(shè)置兩個(gè)可學(xué)習(xí)變量γ 和β,利用其還原網(wǎng)絡(luò)上一層已學(xué)到的數(shù)據(jù)分布,得到輸出為[20]

(2)

每個(gè)xk都有一對參數(shù)γ、β,訓(xùn)練中,正向傳播不改變當(dāng)前輸出,得到γ、β;反向傳播則根據(jù)γ和β通過鏈?zhǔn)角髮?dǎo),求出學(xué)習(xí)率來改變權(quán)值,恢復(fù)上一層數(shù)據(jù)所學(xué)到的特征;其中

(3)

引入了可學(xué)習(xí)重構(gòu)參數(shù)γ、β,使網(wǎng)絡(luò)可學(xué)習(xí)恢復(fù)原始網(wǎng)絡(luò)所要學(xué)習(xí)的特征分布;由此, 在全卷積深度學(xué)習(xí)網(wǎng)絡(luò)中融合改進(jìn)的BN算法可恢復(fù)網(wǎng)絡(luò)上一層所學(xué)習(xí)的數(shù)據(jù)特征,具體地,在網(wǎng)絡(luò)結(jié)構(gòu)的卷積層后增加一個(gè)歸一化層,做歸一化處理后進(jìn)入網(wǎng)絡(luò)的下一層。

2.3 構(gòu)建網(wǎng)絡(luò)參數(shù)

2.3.1 構(gòu)建緩解過擬合的網(wǎng)絡(luò)循環(huán)次數(shù)

本文采用在網(wǎng)絡(luò)中加入Dropout[22]操作及錯(cuò)誤率最小的網(wǎng)絡(luò)循環(huán)次數(shù)來緩解網(wǎng)絡(luò)的過擬合。Dropout本質(zhì)是在網(wǎng)絡(luò)訓(xùn)練中以概率p 丟棄神經(jīng)元,如圖3(a)所示,因而,每次訓(xùn)練的網(wǎng)絡(luò)僅為原網(wǎng)絡(luò)的一個(gè)子網(wǎng)絡(luò),且子網(wǎng)絡(luò)共享權(quán)重。即[22]

(4)

(5)

(6)

(7)

圖3 Dropout網(wǎng)絡(luò)模型(其中:? 表示丟棄的神經(jīng)元)

訓(xùn)練中,Dropout操作以概率p隨機(jī)丟掉不同神經(jīng)元改變訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu);由式(5)、式(6)知,其效果相當(dāng)于對多個(gè)不同的網(wǎng)絡(luò)訓(xùn)練結(jié)果取統(tǒng)計(jì)平均;不同網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練中可能產(chǎn)生不同的過擬合,通過“統(tǒng)計(jì)平均”使過擬合得到有效地平滑,從而整體上減少了過擬合;其次, dropout操作的隨機(jī)性使不同神經(jīng)元未必每次都出現(xiàn)在同一dropout網(wǎng)絡(luò)中,權(quán)值的更新不再依賴于有固定關(guān)系的隱含節(jié)點(diǎn)的共同作用,防止了某些特征僅在其它特定網(wǎng)絡(luò)下才出現(xiàn)的情況,增加了網(wǎng)絡(luò)魯棒性。

訓(xùn)練中,當(dāng)訓(xùn)練集的錯(cuò)誤率繼續(xù)減小,但驗(yàn)證集的錯(cuò)誤率出現(xiàn)波動(dòng)甚至增加,則此時(shí)網(wǎng)絡(luò)的泛化能力開始變差,開始出現(xiàn)過擬合;此時(shí),及時(shí)停止網(wǎng)絡(luò)訓(xùn)練能夠獲得較好泛化能力的網(wǎng)絡(luò)模型,以構(gòu)建較為合適網(wǎng)絡(luò)循環(huán)次數(shù)。如圖4所示,其中,圖4(b)為圖4(a)中epoch為25-50的部分?jǐn)?shù)據(jù)。從圖中可知,循環(huán)次數(shù)37次后,隨著循環(huán)次數(shù)增加,驗(yàn)證集的錯(cuò)誤率開始出現(xiàn)波動(dòng),訓(xùn)練時(shí)間增大,綜合考慮時(shí)間因素與錯(cuò)誤率來確定較佳的循環(huán)次數(shù)。訓(xùn)練時(shí),循環(huán)37次所用時(shí)間為42790s,accuracy為0.9855;循環(huán)30次的時(shí)間為33490s,accuracy為0.9845;兩者相比,精度只相差0.001,但訓(xùn)練時(shí)間卻明顯縮短,最終,本文選取30次為網(wǎng)絡(luò)訓(xùn)練的循環(huán)次數(shù)。

圖4 網(wǎng)絡(luò)循環(huán)次數(shù)與錯(cuò)誤率曲線

2.3.2 設(shè)置批量尺寸

本文構(gòu)建網(wǎng)絡(luò)的誤差反向傳播使用批量處理方式,網(wǎng)絡(luò)訓(xùn)練中批量尺寸(batchsize)設(shè)置決定了網(wǎng)絡(luò)收斂的方向與收斂速度;批量尺寸為m的數(shù)據(jù)損失率(L)、梯度(? )分別為[20]

(8)

(9)

則其方差為[20,23]:

(10)

結(jié)合2.2節(jié),數(shù)據(jù)滿足獨(dú)立同分布,因而有

(11)

由式(11)知,批量尺寸為m時(shí),數(shù)據(jù)方差減少m倍,從而提高了網(wǎng)絡(luò)收斂速度。

GPU對2n的batchsize可發(fā)揮更佳的性能[23],因此,本文選batchsize為2n測試;訓(xùn)練中,訓(xùn)練集大小為4900,循環(huán)次數(shù)為30次,在網(wǎng)絡(luò)正常訓(xùn)練前提下,選取batchsize為1、2、4、8、…進(jìn)行對比實(shí)驗(yàn)。結(jié)果如圖5及表1所示。

表1 不同batchsize運(yùn)行時(shí)間對比(單位:s)

由圖5及表1,batchsize=1,循環(huán)為22次時(shí),損失率開始出現(xiàn)波動(dòng),產(chǎn)生過擬合,此時(shí)精度為0.9842,訓(xùn)練時(shí)間為36496s;batchsize=2,循環(huán)為26時(shí), 損失率開始出現(xiàn)波動(dòng),產(chǎn)生過擬合,此時(shí)精度為0.9854,訓(xùn)練時(shí)間35776s;而batchsize=4無過擬合現(xiàn)象,訓(xùn)練完成后精度為0.9841,訓(xùn)練時(shí)間為33845s。batchsize為8時(shí),計(jì)算機(jī)因內(nèi)存不足無法訓(xùn)練;batchsize為1、2、4時(shí)精度相差不大,但batchsize=4的訓(xùn)練時(shí)間最短,且能使網(wǎng)絡(luò)較平滑的收斂。綜合以上因素,本文設(shè)置batchsize=4進(jìn)行網(wǎng)絡(luò)訓(xùn)練。

圖5 不同批量尺寸下訓(xùn)練集損失率、準(zhǔn)確率隨循環(huán)次數(shù)變換曲線

2.3.3 確定學(xué)習(xí)率

學(xué)習(xí)率是優(yōu)化算法中網(wǎng)絡(luò)權(quán)重更新的幅度大小,影響網(wǎng)絡(luò)的性能及其收斂性。自適應(yīng)矩估計(jì)(adaptive moment estimation, Adam)[24]算法利用梯度的一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整參數(shù)的學(xué)習(xí)率,保證經(jīng)過偏置校正后,每一次迭代學(xué)習(xí)率都有個(gè)確定范圍,使得參數(shù)θ比較平穩(wěn)。調(diào)整過程[24]

mt=β1·mt-1+(1-β1)·?

(12)

vt=β2·vt-1+(1-β2)·?2

(13)

(14)

(15)

參數(shù)θ更新公式

(16)

式中,η為學(xué)習(xí)率,常數(shù)ε設(shè)為10-8。

訓(xùn)練中,訓(xùn)練集為4900,迭代500次的條件下,結(jié)果如圖7所示。由圖6知,η=10-4時(shí)網(wǎng)絡(luò)收斂效果最好,使網(wǎng)絡(luò)能夠較迅速且平滑的收斂,因此,本文選η=10-4進(jìn)行網(wǎng)絡(luò)訓(xùn)練。

圖6 不同學(xué)習(xí)率下驗(yàn)證集損失率隨循環(huán)次數(shù)變換曲線

3 細(xì)胞圖像分割的具體流程

應(yīng)用第2部分構(gòu)建的全卷積深度學(xué)習(xí)網(wǎng)絡(luò)對細(xì)胞顯微圖像進(jìn)行分割;分割算法分為訓(xùn)練與分割兩部分;具體地:

1) 數(shù)據(jù)增強(qiáng):實(shí)驗(yàn)采用ISBI2012競賽組委會(huì)提供的公開數(shù)據(jù)集[25];該數(shù)據(jù)集包含訓(xùn)練集和測試集兩個(gè)圖像庫。為解決訓(xùn)練集過小問題,對原數(shù)據(jù)庫的訓(xùn)練集數(shù)據(jù)擴(kuò)增至4900幅圖像;擴(kuò)增時(shí)滿足: ①增強(qiáng)所得數(shù)據(jù)與原始數(shù)據(jù)獨(dú)立同分布或近似獨(dú)立同分布,并采用相同比例對細(xì)胞圖像進(jìn)行擴(kuò)增; ②增強(qiáng)后的數(shù)據(jù)集保留原圖像的重要特征。擴(kuò)增具體步驟:

① 基準(zhǔn)圖像作為訓(xùn)練集圖像的一個(gè)通道,將訓(xùn)練集原始圖與對應(yīng)的基準(zhǔn)圖合并;

① 進(jìn)行幾何變換、隨機(jī)彈性形變、隨機(jī)縮放、逆時(shí)針剪切變換等數(shù)據(jù)增強(qiáng)操作;

① 圖像增強(qiáng)后將合并圖像分離,得到4900幅訓(xùn)練集圖像和基準(zhǔn)圖像;

2) 數(shù)據(jù)預(yù)處理:將步驟1)中得到的訓(xùn)練集、基準(zhǔn)圖像進(jìn)行0-1歸一化處理,將數(shù)據(jù)轉(zhuǎn)換為大小相同的矩陣輸出;

4) 模型訓(xùn)練:采用對數(shù)損失函數(shù)binary_crossentropy,使用Adam函數(shù)最小化損失函數(shù),更新模型權(quán)重,并用驗(yàn)證集微調(diào)參數(shù)、優(yōu)化模型;

5) 將細(xì)胞顯微圖像的測試數(shù)據(jù)集載入到訓(xùn)練好的網(wǎng)絡(luò)模型中實(shí)現(xiàn)細(xì)胞顯微圖像分割。

4 實(shí)驗(yàn)結(jié)果及討論

4.1 實(shí)驗(yàn)參數(shù)與評價(jià)指標(biāo)

實(shí)驗(yàn)采用ISBI2012競賽提供的公開數(shù)據(jù)集[25],實(shí)驗(yàn)環(huán)境:AMAX臺(tái)式服務(wù)器上采用Ubuntu14.04.1 LTS (GNU/Linux 3.16.0-33-generic x86_64 )系統(tǒng),顯卡驅(qū)動(dòng):NVIDIA-Linux-x86_64-367.44,TITAN X Pascal GPU1.531GHz;實(shí)驗(yàn)參數(shù)設(shè)置:旋轉(zhuǎn)角度: rotation_range=0.2,水平偏移:width_shift_range=0.05,垂直偏移:height_shift_range=0.05,縮放: zoom_range=0.05,逆時(shí)針剪切變換:shear_range=0.05,訓(xùn)練循環(huán)次數(shù):nb_epoch=22,學(xué)習(xí)率:η=1.0e-4, Dropout=0.5,訓(xùn)練集圖像為4900幅。

采用概率Rand指數(shù)(probabilistic rand index, PRI)[27]、信息變化指數(shù)(variation of information, VoI)[28]、邊界偏移誤差指數(shù)(boundary displacement error, BDE)[29]和全局一致性誤差指數(shù)(global consistency error, GCE)[30]作為客觀評價(jià)指標(biāo)。PRI描述算法分割與人工分割之間的一致性屬性;VoI衡量算法分割與人工分割結(jié)果之間信息量的丟失情況;BDE反映算法分割結(jié)果與人工分割結(jié)果邊緣像素間平均距離差;BDE∈[0,∞],BDE值越小表示該算法分割結(jié)果的目標(biāo)輪廓與人工分割結(jié)果差異越小,分割效果越好;GCE反映度量不同分割結(jié)果之間的一致性誤差,GCE∈[0,1],GCE值越小反映細(xì)化誤差越小,分割效果越好。

4.2 實(shí)驗(yàn)結(jié)果對比分析

實(shí)驗(yàn)結(jié)果如圖7、表2所示。

圖7 五種不同算法分割細(xì)胞顯微圖像的效果比較(其中,縱向?qū)?yīng)的四個(gè)測試圖分別為圖a、圖b、圖c、圖d)

表2 不同算法分割結(jié)果的PRI、VoI、GCE、BDE評價(jià)指標(biāo)比較

由圖7知,從視覺效果上看, 相比于傳統(tǒng)的Ostu分割、脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)分割、空洞卷積及U-Net分割算法,本文算法的細(xì)胞顯微圖像分割效果的清晰度更高,對目標(biāo)區(qū)域的分割更精確;其原因在于,Otsu分割方法通過設(shè)置不同的閾值實(shí)現(xiàn)圖像分割,分割時(shí)目標(biāo)與背景差別越大,分割效果越好,但由于細(xì)胞圖像的背景中存在大量噪聲,影響了其分割效果;PCNN分割則是通過檢測圖像邊界點(diǎn),并多次迭代激活塊區(qū)域,獲取圖像的目標(biāo)區(qū)域信息,PCNN算法需要設(shè)置合適的門限參數(shù);空洞卷積在增大感受野的同時(shí)卷積窗口不連續(xù),并非所有的像素參與特征提取,損失了信息的連續(xù)性;相對于普通的U-Net網(wǎng)絡(luò)分割,本文改進(jìn)后的算法在原有的網(wǎng)絡(luò)結(jié)構(gòu)中增加了合適的網(wǎng)絡(luò)層數(shù),使得網(wǎng)絡(luò)提取的特征更豐富,計(jì)算的精度更高,且構(gòu)建的網(wǎng)絡(luò)融合了改進(jìn)的BN算法,加快了網(wǎng)絡(luò)的收斂,改善了梯度彌散,從而,分割效果有了明顯提高。

圖8將原圖a的五種不同分割算法結(jié)果左上角區(qū)域放大后,觀察細(xì)胞分割結(jié)果的目標(biāo)輪廓效果;由圖可知,本文算法分割效果的輪廓信息最清晰,細(xì)胞邊緣光滑性亦最好;U-Net算法次之,Otsu最差。

圖8 五種分割算法邊界偏移誤差比較(圖a結(jié)果)

由表2知,從客觀評價(jià)指標(biāo)看,本文算法的PRI提高0.04以上,高達(dá)0.99及以上,從而說明本文算法分割結(jié)果與人工分割圖像屬性一致性更高;本文算法的VoI為0.0879(圖a)及以下,而U-Net算法為0.3382,空洞卷積算法為0.5500,PCNN與Otsu算法均在1.1以上,與信息量丟失較少的U-Net算法相比,本文算法信息量的丟失僅為其25.99%,反映了本文算法分割保留了較高的圖像有效信息;本文算法的BDE相對于U-Net算法減少0.2以上,相對于空洞卷積算法減少0.5,相對于PCNN及Otsu則大幅減少4.5以上,說明了本文分割結(jié)果和人工分割圖像結(jié)果邊緣像素間平均距離更接近,即分割效果更接近與人工分割的效果;本文算法的GCE相對于U-Net算法減少0.04,相對于空洞卷積算法減少0.08,相對于PCNN及Otsu則大幅減少0.2以上,反映了本文算法分割結(jié)果的目標(biāo)區(qū)域內(nèi)一致性較好,U-Net算法次之,Otsu算法與PCNN算法的分割結(jié)果中出現(xiàn)大量離散點(diǎn)和孤立點(diǎn)。如圖9所示。因此,本文算法的四個(gè)評價(jià)指標(biāo)均優(yōu)于其它幾種分割算法,具有更好的分割精確和魯棒性。

圖9 五種分割算法區(qū)域內(nèi)一致性比較(圖a結(jié)果)

5 結(jié)論

本文提出了融合BN的全卷積深度學(xué)習(xí)網(wǎng)絡(luò)的細(xì)胞顯微圖像分割算法;通過構(gòu)建一個(gè)收縮網(wǎng)絡(luò)和一個(gè)擴(kuò)張網(wǎng)絡(luò)組成的全卷積深度學(xué)習(xí)網(wǎng)絡(luò)提取細(xì)胞圖像特征,收縮過程通過卷積和池化操作提取圖像特征,擴(kuò)張過程通過上采樣和卷積操作來獲取圖像特征,合并與之映射的收縮層特征補(bǔ)全丟失的邊緣信息,提升預(yù)測邊緣信息的準(zhǔn)確性;同時(shí),為緩解訓(xùn)練時(shí)網(wǎng)絡(luò)中間層的數(shù)據(jù)分布發(fā)生改變致使高層輸入劇烈變化而影響網(wǎng)絡(luò)收斂的問題,構(gòu)建改進(jìn)的BN算法標(biāo)準(zhǔn)化處理輸入層及每一隱層的輸入數(shù)據(jù),將處理后的數(shù)據(jù)輸入到網(wǎng)絡(luò)的下一層中;優(yōu)化了模型參數(shù),提高了網(wǎng)絡(luò)訓(xùn)練的速度及收斂性能,實(shí)現(xiàn)了細(xì)胞顯微圖像的分割。

本文構(gòu)建的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用于細(xì)胞圖像分割時(shí),輸入圖像大小非固定,解決了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)輸入圖像大小固定的限制,能實(shí)現(xiàn)端對端、像素到像素的訓(xùn)練。為保證本文算法的收斂性及泛化能力,在網(wǎng)絡(luò)中增加了Dropout 操作,構(gòu)建了錯(cuò)誤率最小的網(wǎng)絡(luò)循環(huán)次數(shù),以此緩解過擬合現(xiàn)象。實(shí)驗(yàn)方案驗(yàn)證了本文方法應(yīng)用于生物醫(yī)學(xué)細(xì)胞圖像目標(biāo)檢測和分割中的有效性與可靠性。

猜你喜歡
網(wǎng)絡(luò)結(jié)構(gòu)卷積特征
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
如何表達(dá)“特征”
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
不忠誠的四個(gè)特征
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
抓住特征巧觀察
基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對于創(chuàng)新績效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對算法研究進(jìn)展
郎溪县| 定安县| 潜山县| 河池市| 唐河县| 绥滨县| 勐海县| 南丹县| 上犹县| 囊谦县| 巩义市| 宣威市| 静乐县| 偏关县| 金华市| 昌邑市| 忻城县| 青海省| 德清县| 长葛市| 广宁县| 南城县| 宜春市| 慈溪市| 承德县| 阿图什市| 台南市| 通江县| 伊春市| 三都| 方城县| 定西市| 中山市| 依安县| 晴隆县| 靖宇县| 弥渡县| 石家庄市| 杨浦区| 靖江市| 南雄市|