楊 丹, 劉國如, 任夢成, 裴宏楊
(1.東北大學(xué) 信息科學(xué)與工程學(xué)院, 遼寧 沈陽 110819; 2.東北大學(xué) 遼寧省紅外光電材料及微納器件重點(diǎn)實(shí)驗(yàn)室, 遼寧 沈陽 110819; 3.東北大學(xué) 智能工業(yè)數(shù)據(jù)解析與優(yōu)化教育部重點(diǎn)實(shí)驗(yàn)室, 遼寧 沈陽 110819)
視網(wǎng)膜血管的結(jié)構(gòu)形態(tài)變化與糖尿病、青光眼、黃斑病變等有著密切的聯(lián)系.采用計(jì)算機(jī)視覺的手段對(duì)原始視網(wǎng)膜血管形態(tài)進(jìn)行分割具有十分重要的意義.
目前,視網(wǎng)膜血管分割根據(jù)是否需要標(biāo)簽主要分為有監(jiān)督和無監(jiān)督兩種.無監(jiān)督的方法是利用視網(wǎng)膜血管的結(jié)構(gòu)特征等先驗(yàn)知識(shí),然后通過常用的匹配濾波法、血管跟蹤以及形態(tài)學(xué)處理等方法來進(jìn)行分割.匹配濾波法是使用2維卷積核對(duì)視網(wǎng)膜圖像進(jìn)行卷積,通過濾波器得到的響應(yīng)值來判斷像素點(diǎn)是背景區(qū)域還是血管區(qū)域,雖然在健康清晰的眼底視網(wǎng)膜血管圖片上可以取得較好的分割效果,但是對(duì)患者的病理圖片分割時(shí)假陽性的概率會(huì)偏大[1].血管追蹤的方法是采用局部信息來分割兩點(diǎn)間的血管[2],借助局部區(qū)域中的種子點(diǎn)檢測血管,通過灰度強(qiáng)度和彎曲度的大小來確定血管縱向截面的中心,這樣可以準(zhǔn)確地計(jì)算出血管寬度,但基本上不能對(duì)沒有種子點(diǎn)的血管進(jìn)行檢測.形態(tài)學(xué)處理的方法是使用形變模型[3]和血管輪廓模型[4]等顯式的血管模型來提取眼底視網(wǎng)膜血管特征圖像的.Fraz等[5]采用視網(wǎng)膜血管中心線檢測和圖像形態(tài)學(xué)變換的方法對(duì)視網(wǎng)膜血管結(jié)構(gòu)進(jìn)行分割.Espona等[6]使用蛇模型算法對(duì)眼底視網(wǎng)膜血管進(jìn)行分割,并在該模型中引入了圖像形態(tài)學(xué)操作以及對(duì)能量參數(shù)的調(diào)整.該模型的設(shè)計(jì)是基于血管中心線,利用形態(tài)學(xué)方法對(duì)視網(wǎng)膜血管分割進(jìn)行輔助.
相比于無監(jiān)督的方法,有監(jiān)督方法首先對(duì)視網(wǎng)膜特征進(jìn)行選擇提取,然后以人工標(biāo)記的Label圖像對(duì)分類器進(jìn)行訓(xùn)練,最后生成相應(yīng)的分類模型對(duì)視網(wǎng)膜血管進(jìn)行分割.特征提取通常采用Gabor變換、離散小波變換、血管濾波、高斯濾波等方法.分類階段時(shí),大部分采用k-近鄰算法、支持向量機(jī)算法和人工神經(jīng)網(wǎng)絡(luò)[7]作為分類器.Staal等[8]提出一種基于脊線的有監(jiān)督模型對(duì)視網(wǎng)膜血管進(jìn)行自動(dòng)分割.該方法采用順序前向選擇算法得到脊線上像素點(diǎn)的最佳特征值,然后使用k-近鄰算法對(duì)每個(gè)像素點(diǎn)進(jìn)行分類.Ricci等[9]提出了將線操作與支持向量機(jī)算法相結(jié)合的視網(wǎng)膜血管分割方法.該方法使用兩個(gè)正交檢測器與像素的灰度值相結(jié)合的方式對(duì)特征圖像進(jìn)行提取,然后應(yīng)用支持向量機(jī)算法完成像素的分類.Wilfred等[10]采用了多隱藏層人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)對(duì)視網(wǎng)膜血管結(jié)構(gòu)進(jìn)行分割.實(shí)驗(yàn)表明該方法在DRIVE數(shù)據(jù)集上的準(zhǔn)確率達(dá)到了較好的效果.
近年來,深度學(xué)習(xí)在目標(biāo)檢測[11]、圖像識(shí)別[12]等計(jì)算機(jī)視覺領(lǐng)域取得了很大突破,因此現(xiàn)在越來越多的研究人員采用深度學(xué)習(xí)的方法進(jìn)行眼底視網(wǎng)膜血管分割.Ronneberger等[13]提出了一種用于生物醫(yī)學(xué)圖像分割的U-Net模型,該模型采用多級(jí)跳躍連接和編解碼器結(jié)構(gòu)提高了像素定位和提取局部特征的能力.Zhuang[14]提出了一種可以被看作多重U-Net的LadderNet模型用于視網(wǎng)膜血管分割,該模型有多對(duì)編碼器-解碼器支路,且每層每對(duì)相鄰的解碼器和解碼器支路之間都有跳躍連接.Wang等[15]提出了一種基于patch學(xué)習(xí)策略的Dense U-Net視網(wǎng)膜血管分割框架.該框架采用隨機(jī)抽取、隨機(jī)變換的策略提取擴(kuò)充patch,并利用重疊patch進(jìn)行圖像重建.Jin等[16]利用血管的局部特征以端到端的形式提出了一種可變形的視網(wǎng)膜血管分割網(wǎng)絡(luò)DUNet,該網(wǎng)絡(luò)將帶有提高輸出分辨率的上采樣操作用于提取上下文信息,并通過結(jié)合低級(jí)特征和高級(jí)特征來實(shí)現(xiàn)精確定位.
盡管上述方法在視網(wǎng)膜血管分割領(lǐng)域已經(jīng)取得了較好的結(jié)果,但對(duì)于微小血管和對(duì)比度較差圖像的分割仍需繼續(xù)改善.本文提出一種多尺度卷積核U-Net[13]視網(wǎng)膜血管分割方法.實(shí)驗(yàn)中首先通過對(duì)圖像進(jìn)行旋轉(zhuǎn)、平移等操作擴(kuò)充數(shù)據(jù)集;然后采用CLAHE算法提升圖像的對(duì)比度;最后,使用處理好的圖像對(duì)本文設(shè)計(jì)的多尺度卷積核U-Net模型進(jìn)行訓(xùn)練.經(jīng)過測試,可以發(fā)現(xiàn)本文提出的視網(wǎng)膜分割方法在靈敏性、特異性和準(zhǔn)確率方面有著較好的表現(xiàn),能夠更好地分割微細(xì)血管.
本文提出的多尺度卷積核U-Net卷積神經(jīng)網(wǎng)絡(luò)的視網(wǎng)膜血管分割方法可分為兩個(gè)階段,分別為訓(xùn)練階段和測試階段.訓(xùn)練階段可分為5個(gè)步驟:
1) 選用視網(wǎng)膜血管公開數(shù)據(jù)集DRIVE的20張圖像作為訓(xùn)練數(shù)據(jù)集,通過旋轉(zhuǎn)、鏡像、平移以及剪切的方法對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充;
2) 采用CLAHE算法對(duì)擴(kuò)充后的數(shù)據(jù)集進(jìn)行圖像預(yù)處理;
3) 使用處理好的數(shù)據(jù)集對(duì)本文設(shè)計(jì)的多尺度卷積核U-Net卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練;
4) 對(duì)訓(xùn)練得到的雙通道特征圖進(jìn)行Softmax歸一化;
5) 通過改進(jìn)的損失函數(shù)對(duì)歸一化結(jié)果進(jìn)行迭代優(yōu)化,得到完整的視網(wǎng)膜血管分割模型.
測試階段時(shí),首先對(duì)測試圖像進(jìn)行預(yù)處理;然后將處理過的圖像送入訓(xùn)練好的多尺度卷積核U-Net網(wǎng)絡(luò)模型進(jìn)行特征提取,并對(duì)提取到的特征圖歸一化操作;最后確定閾值進(jìn)行分割,得到的黑白輪廓圖即為結(jié)果圖像.流程示意圖如圖1所示.
圖1 實(shí)驗(yàn)流程示意圖
1) 總體設(shè)計(jì).本實(shí)驗(yàn)中所提出的多尺度卷積核U-Net卷積神經(jīng)網(wǎng)絡(luò)模型由編碼器和解碼器兩部分組成,主要結(jié)構(gòu)如圖2所示.編碼器部分采用改進(jìn)的Inception卷積網(wǎng)絡(luò)結(jié)構(gòu),從圖像中提取空間特征.這個(gè)模塊采用不同尺寸的卷積內(nèi)核,可以提高網(wǎng)絡(luò)的泛化能力和表現(xiàn)力.編碼器部分重復(fù)應(yīng)用了兩個(gè)Inception結(jié)構(gòu)和一個(gè)用于向下采樣的最大池化操作,其中每個(gè)卷積后面都有批量歸一化BN層和激活函數(shù)層,池化核的大小為2×2,步長為2,重復(fù)的次數(shù)是4.在下采樣的每一步中,都將特征通道的數(shù)量增加一倍.另一方面,根據(jù)編碼器獲得的特征利用解碼器構(gòu)造分割圖.它包括應(yīng)用2×2轉(zhuǎn)置卷積將特征通道數(shù)減少一半的上采樣操作,并在其中引入了最大值池化索引參數(shù),可以準(zhǔn)確地保存目標(biāo)特征的位置信息.此外,解碼器部分還涉及兩個(gè)3×3卷積,每個(gè)卷積后面都有一個(gè)與編碼器相同的BN層和激活函數(shù),并且在編碼器路徑上生成的每一組特征映射都被連接到解碼器路徑上的對(duì)應(yīng)特征映射.在最后一層,使用 1×1 大小的卷積生成一個(gè)與原始圖像大小相同的雙通道特征圖.
圖2 多尺度卷積核的U-Net模型結(jié)構(gòu)
2) 編碼器結(jié)構(gòu)設(shè)計(jì).本實(shí)驗(yàn)編碼階段采用的設(shè)計(jì)思想為將原始U-Net模型的3×3卷積操作替換為改進(jìn)的Inception結(jié)構(gòu).這個(gè)結(jié)構(gòu)可以追溯到GoogleNet[17],它是用來解決在制作更深層次網(wǎng)絡(luò)過程中增加的高計(jì)算成本問題.其體系結(jié)構(gòu)通過增加網(wǎng)絡(luò)的深度和寬度,同時(shí)保持計(jì)算預(yù)算不變,從而提高了網(wǎng)絡(luò)中計(jì)算資源的利用率.將不同大小的濾波器應(yīng)用于同一層,對(duì)不同尺度的信息進(jìn)行處理,然后將同一層進(jìn)行聚合,在下一階段中可以同時(shí)提取出不同尺度的特征.
本設(shè)計(jì)中,Inception結(jié)構(gòu)保留了U-Net模型中的3×3卷積核,加入了一個(gè)1×1,兩個(gè)3×3大小的卷積核,其中后者相當(dāng)于經(jīng)典Inception結(jié)構(gòu)中采用的一個(gè)5×5大小的卷積核[18].因?yàn)檫@兩種方案所得到的特征圖像上每個(gè)像素點(diǎn)的感受野大小是完全相同的,而兩個(gè)3×3卷積核串聯(lián)所需要的參數(shù)相比于5×5的卷積核少,從而在模型訓(xùn)練的過程中減少了計(jì)算量,實(shí)現(xiàn)模型訓(xùn)練效率的提升.具體的Inception模塊的設(shè)計(jì)如圖3所示.
圖3 Inception卷積模塊
首先對(duì)前層特征圖像進(jìn)行3組不同的卷積操作,得到3組具有不同感受野的特征圖,然后將其在最后一層進(jìn)行拼接,得到后層特征圖像.
3) 解碼器結(jié)構(gòu)設(shè)計(jì).這部分的設(shè)計(jì)思想為在原始U-Net模型的上采樣階段融入最大值池化索引參數(shù).這項(xiàng)操作源于SegNet模型,它是Badrinarayanan等[19]提出的一種端到端的卷積神經(jīng)網(wǎng)絡(luò)模型,可以實(shí)現(xiàn)圖像像素級(jí)別的語義分割.
如圖4所示,a,b,c,d分別表示2×2區(qū)域內(nèi)的最大值,在池化的過程中會(huì)保存它們的位置信息,在上采樣的過程中將在對(duì)應(yīng)的位置上直接保留運(yùn)算之后的值,在沒有位置信息的地方采用補(bǔ)0的方式進(jìn)行填充.通過最大索引上采樣的方式可以獲得淺層網(wǎng)絡(luò)中特征圖的邊緣和紋理信息,深度網(wǎng)絡(luò)可以學(xué)習(xí)圖像的語義信息.而且這個(gè)結(jié)構(gòu)具有一個(gè)更大的接受域,實(shí)現(xiàn)了低層信息和高層信息的融合,使網(wǎng)絡(luò)具有更豐富的特征學(xué)習(xí)能力.此外,這種結(jié)構(gòu)不會(huì)顯著增加計(jì)算復(fù)雜度和模型復(fù)雜度,允許梯度在網(wǎng)絡(luò)中有效傳播.
圖4 最大值池化索引結(jié)構(gòu)
在設(shè)計(jì)的解碼器結(jié)構(gòu)中,如圖5所示,通過反卷積、最大值索引上采樣以及淺層輪廓信息復(fù)制這三種方式所得到的特征圖,大小一致,通道數(shù)一致,在最后一個(gè)維度上進(jìn)行拼接,得到后層的輸入數(shù)據(jù).最后再經(jīng)過兩層3×3卷積操作,使模型可以充分學(xué)習(xí)融合后的細(xì)節(jié)特征,提升網(wǎng)絡(luò)的整體識(shí)別效率.
圖5 上采樣模塊
4) 激活函數(shù)層設(shè)計(jì).卷積操作之后加入的激活函數(shù),可以將非線性的特性引入到神經(jīng)網(wǎng)絡(luò)中,讓模型可以擬合出更加復(fù)雜的函數(shù).本文采用的是leaky ReLU函數(shù),其表達(dá)式為
(1)
其中ε是一個(gè)很小的常數(shù),這樣就可以使得輸入小于0時(shí)也有一個(gè)小的梯度,解決了ReLU函數(shù)梯度死亡的問題.
實(shí)驗(yàn)中采用Softmax進(jìn)一步操作,將網(wǎng)絡(luò)結(jié)構(gòu)輸出的結(jié)果歸一化到0~1之間的一個(gè)數(shù)值.這樣,每個(gè)像素點(diǎn)輸出的兩個(gè)值均為介于0~1之間的數(shù),且和為1,因此這兩個(gè)值的大小表示了該像素點(diǎn)屬于背景或者血管結(jié)構(gòu)的概率.
設(shè)定閾值為θ,當(dāng)經(jīng)過Softmax后的值大于θ時(shí)則該值轉(zhuǎn)為1,將該像素點(diǎn)分類為血管像素;反之小于θ時(shí)則該值轉(zhuǎn)為0,將其分類為背景像素.本實(shí)驗(yàn)中,θ為0.5.因此,最終的結(jié)果數(shù)據(jù)為只包含0或者1的二值圖像.取輸出通道中第一個(gè)通道的結(jié)果,輸出的黑白圖像就是最終分割后的結(jié)果圖像.
本文設(shè)計(jì)損失函數(shù)時(shí)采用Dice損失與交叉熵?fù)p失結(jié)合的方式進(jìn)行設(shè)計(jì).并且為解決因樣本量較少出現(xiàn)的擬合不足問題,在交叉熵?fù)p失函數(shù)中加入了代價(jià)敏感矩陣.總體的損失函數(shù)表示為
(2)
式中:D(·)表示Dice損失函數(shù);W,b表示模型中需要訓(xùn)練的參數(shù);x表示模型的輸入值;y表示樣本的標(biāo)簽值;p為模型的預(yù)測值;y(k)表示第k個(gè)樣本的標(biāo)簽值;p(k)為第k個(gè)模型的預(yù)測值;m表示樣本總數(shù)目;α為Dice與交叉熵?fù)p失之間的權(quán)重系數(shù),實(shí)驗(yàn)中可使用BP算法對(duì)目標(biāo)函數(shù)J(W,b,x,y)反向鏈?zhǔn)角蠼怅P(guān)于W和b的偏導(dǎo)數(shù)得到,取值在0~1之間.其中,交叉熵?fù)p失函數(shù)Lce的公式為
Lce=-∑ABC.
(3)
在神經(jīng)網(wǎng)絡(luò)模型中W的值越大過擬合現(xiàn)象越嚴(yán)重,因此在式(2)中加入L2正則化,可表示為
(4)
其中,λ表示正則化系數(shù).該方法可以明顯加快網(wǎng)絡(luò)的收斂速度.經(jīng)過一定次數(shù)的迭代,分割結(jié)果更接近真實(shí)值,網(wǎng)絡(luò)模型參數(shù)收斂到最優(yōu)值.
DRIVE數(shù)據(jù)集中的眼底視網(wǎng)膜血管圖像來自荷蘭Niemeijer’s團(tuán)隊(duì)的糖尿病性視網(wǎng)膜病變篩查項(xiàng)目[8].篩查對(duì)象為400多名年齡在25到90歲之間的糖尿病患者.數(shù)據(jù)集總共有40張眼底圖像照片,由佳能CR53相機(jī)拍攝,以JPEG的形式壓縮和保存,圖片像素大小為565×584.數(shù)據(jù)集被人工隨機(jī)分成訓(xùn)練集、測試集兩個(gè)部分,每部分有20張眼底視網(wǎng)膜圖像.有兩組醫(yī)學(xué)專家對(duì)測試集中的視網(wǎng)膜血管進(jìn)行了手工標(biāo)注分割,在一組專家的分割結(jié)果中,血管像素占總像素的12.7%,稱為集合A;在另一組專家的分割結(jié)果中,血管像素占總像素的12.3%,稱為集合B.本文選用集合A中專家的標(biāo)注作為參考標(biāo)準(zhǔn).
考慮到訓(xùn)練集的數(shù)量太少,模型容易過度擬合,以至于分類性能較差.因此,需要進(jìn)行數(shù)據(jù)擴(kuò)充.本文采用的擴(kuò)充方法分別為旋轉(zhuǎn)、鏡像、平移以及剪切等方法.具體步驟:首先對(duì)每張圖像間隔30°旋轉(zhuǎn)一次,然后進(jìn)行鏡像翻轉(zhuǎn)操作,接著是分別向4個(gè)角平移20到50個(gè)像素點(diǎn),最后對(duì)每張平移后的圖像進(jìn)行4次隨機(jī)裁剪,共得到17 280張512×512大小的圖像塊.
視網(wǎng)膜血管的原始圖像對(duì)比度低,血管特征不明顯.為了提高模型的性能,本文采用圖像對(duì)比度增強(qiáng)技術(shù)進(jìn)行圖像預(yù)處理.通過實(shí)驗(yàn)發(fā)現(xiàn)彩色視網(wǎng)膜圖像的綠色通道血管與背景對(duì)比度最高.因此,預(yù)處理的第一步提取原始圖像的綠色通道,第二步使用CLAHE算法[20]進(jìn)行圖像對(duì)比度提升,其原理為通過限制局部直方圖高度來限制局部對(duì)比度增強(qiáng)幅度,從而限制噪聲放大以及局部對(duì)比度的過度增強(qiáng).處理過程中先將原圖劃分為若干個(gè)子塊,對(duì)每個(gè)子塊直方圖設(shè)定閾值進(jìn)行裁剪、均衡處理,然后對(duì)每一個(gè)像素點(diǎn)采用插值法進(jìn)行灰度值重構(gòu).結(jié)果如圖6所示.
可以看出,通過CLAHE算法處理后的圖像對(duì)比度得到明顯加強(qiáng),原本大量聚集在0到10之間的像素值分布到更大的范圍內(nèi).
經(jīng)過預(yù)處理后的圖像作為多尺度卷積核的U-Net 卷積神經(jīng)網(wǎng)絡(luò)的輸入,進(jìn)行模型的訓(xùn)練.
本實(shí)驗(yàn)的硬件環(huán)境為型號(hào)i7-6700k處理器,16 GB的內(nèi)存,使用型號(hào)為RTX2070S的GPU加速圖像處理,卷積神經(jīng)網(wǎng)絡(luò)在TensorFlow1.4的開源深度學(xué)習(xí)框架下實(shí)現(xiàn),使用Python編程語言,使用的編譯器為Pycharm,另外還使用Numpy科學(xué)計(jì)算庫、OpenCV中的圖像處理的一些方法以及sklearn機(jī)器學(xué)習(xí)中的一些庫.
在模型的訓(xùn)練過程中利用隨機(jī)梯度下降優(yōu)化算法對(duì)網(wǎng)絡(luò)進(jìn)行迭代求解.訓(xùn)練輪數(shù)設(shè)置為100,批大小取20,每個(gè)訓(xùn)練輪數(shù)可以完成訓(xùn)練集中所有的數(shù)據(jù)的學(xué)習(xí).初始學(xué)習(xí)率被設(shè)置為0.001,每20個(gè)訓(xùn)練輪數(shù)學(xué)習(xí)率變?yōu)楫?dāng)前的0.1倍,直到模型最終迭代完100個(gè)訓(xùn)練輪數(shù)時(shí)訓(xùn)練停止.學(xué)習(xí)率公式為
Ir=lr,s×0.1(f(n/N)).
(5)
式中:lr,s為初始化學(xué)習(xí)率,取值為0.001;n為當(dāng)前迭代次數(shù);N為學(xué)習(xí)率下降周期,取值為17 280;f為向下取整函數(shù).最終算法運(yùn)行的時(shí)間為60 h左右.
圖6 CLAHE處理后的結(jié)果對(duì)比圖
本實(shí)驗(yàn)采用了3個(gè)評(píng)價(jià)指標(biāo)來進(jìn)行分析,其中S為靈敏性,衡量準(zhǔn)確檢測的屬于血管像素的數(shù)量占真實(shí)血管像素?cái)?shù)量的比率;T為特異性,衡量準(zhǔn)確檢測的屬于非血管像素的數(shù)量占真實(shí)非血管像素?cái)?shù)量的比率;A為準(zhǔn)確率,衡量準(zhǔn)確分類的像素?cái)?shù)量占圖像中總像素?cái)?shù)量的比率.公式為
(6)
(7)
(8)
式中:PTP為真正例數(shù),表示樣本真實(shí)為正例,預(yù)測值也為正例;PTN為真負(fù)例數(shù),表示樣本真實(shí)為負(fù)例,預(yù)測值也為負(fù)例;PFP為假正例數(shù),表示樣本真實(shí)為負(fù)例,預(yù)測值為正例;PFN為假負(fù)例數(shù),表示樣本真實(shí)為正例,預(yù)測值為負(fù)例.在本文的模型中正例為血管像素,負(fù)例為背景像素.
為了驗(yàn)證模型的有效性,將視網(wǎng)膜血管分割結(jié)果與U-Net模型進(jìn)行了比較.考慮到實(shí)驗(yàn)的嚴(yán)謹(jǐn)性,實(shí)驗(yàn)中U-Net模型的訓(xùn)練采用了相同的訓(xùn)練圖像、數(shù)據(jù)擴(kuò)充和預(yù)處理的方法以及環(huán)境配置.圖7為本文所提模型與U-Net模型對(duì)測試集中第1張視網(wǎng)膜圖像的分割結(jié)果,其中第二排和第三排的圖像是第一排的局部細(xì)節(jié).可以看出,U-Net模型在微細(xì)血管的位置,所得結(jié)果存在分裂;密集的地方,所得結(jié)果存在錯(cuò)誤識(shí)別的問題,如圓圈標(biāo)識(shí)位置所示,錯(cuò)誤地將背景像素檢測為血管像素了.而采用本文所設(shè)計(jì)的模型則基本沒有上述問題.這表明雖然U-Net模型可以檢測到大多數(shù)視網(wǎng)膜血管,但微血管和密集血管的檢測效果很差,本文提出的模型則具有較好的分類性能和探測更小血管的能力.因此,該模型在視網(wǎng)膜血管分割上的性能優(yōu)于U-Net模型.圖8展示了對(duì)測試集的全部分割結(jié)果.
為了進(jìn)一步證明所提方法視網(wǎng)膜血管分割的性能,與其他幾種現(xiàn)存方法進(jìn)行了定量分析,表1中列出了2014~2020年的幾種使用圖像語義分割類的方法對(duì)DRIVE數(shù)據(jù)集中視網(wǎng)膜血管圖像進(jìn)行分割的評(píng)估指標(biāo)對(duì)比.可以看出,本文方法的靈敏度為0.776 2,特異性為0.983 5,準(zhǔn)確率為0.969 4;相比于U-Net,DeepVessel,Res-UNet和專家手工分割的結(jié)果(Human observer)在各項(xiàng)評(píng)價(jià)指標(biāo)上均取得了更進(jìn)一步的效果.而且,本文所提方法的特異性和準(zhǔn)確率更是在表中排在首位,靈敏性方面可以與Deep FCN和R2U-Net相媲美,但分別低于DRIU 0.049 9,LadderNet 0.009 4,Dense U-Net 0.022 4,和DUNet 0.020 1.其中DRIU由于分割得到的圖像含有大量的噪聲,分割后的血管比真實(shí)的血管更粗,一些背景像元也被檢測為血管像元,因此靈敏度高,特異度低.而本文模型利用Inception結(jié)構(gòu)在多尺度下更充分地提取深層特征,接受域更大,可以很好地分割病理區(qū)域微細(xì)血管.除此,圖像預(yù)處理、最大值上采樣和加入了敏感矩陣的損失函數(shù)也做出了重要貢獻(xiàn).其余三種方法雖然在靈敏性的檢測上相比本文取得了較好的結(jié)果,但是在視網(wǎng)膜血管分割方法性能的分析中,本文方法測得的較高準(zhǔn)確率與之相比更有說服力,這證明了所提方法可以更好地對(duì)背景像素和血管像素進(jìn)行分類,在DRIVE數(shù)據(jù)集上有較強(qiáng)的魯棒性,相比現(xiàn)存其他方法具有一定的競爭力.
圖7 本文所提模型與U-Net模型在測試集的分割結(jié)果對(duì)比
圖8 對(duì)測試集圖像的全部分割結(jié)果
表1 與其他方法在DRIVE上結(jié)果對(duì)比
本文提出了多尺度卷積核U-Net模型的視網(wǎng)膜血管分割方法.結(jié)合Inception模塊設(shè)計(jì)出多尺度卷積核的特征提取結(jié)構(gòu),對(duì)不同寬度血管結(jié)構(gòu)進(jìn)行特征學(xué)習(xí);在上采樣過程中,融入了最大池化索引值,將深層語義特征、淺層輪廓特征以及采樣圖位置特征進(jìn)行融合,增加了模型對(duì)視網(wǎng)膜血管特征的學(xué)習(xí)能力;在損失函數(shù)上,采用了將Dice損失和交叉熵?fù)p失結(jié)合并加入代價(jià)矩陣的方法,改善了圖像中血管結(jié)構(gòu)像素點(diǎn)數(shù)量與背景像素點(diǎn)數(shù)量不均衡的問題.并以靈敏性、特異性和準(zhǔn)確率為評(píng)價(jià)指標(biāo)在DRIVE數(shù)據(jù)集上進(jìn)行了測試.結(jié)果表明,本文所提方法能獲得比專家更好的分割結(jié)果,在這些評(píng)估指標(biāo)上與其他現(xiàn)存方法相比是有競爭力的,具有應(yīng)用于疾病早期診斷的潛力.