吳 駿 ,張亞男 ,肖志濤 ,耿 磊 ,張 芳 ,楊 嵩 ,張東霞 ,宋舒雅
(1.天津工業(yè)大學(xué)電子與信息工程學(xué)院,天津 300387;2.天津工業(yè)大學(xué) 天津市光電檢測技術(shù)與系統(tǒng)重點(diǎn)實(shí)驗(yàn)室,天津 300387)
視盤是視神經(jīng)的起始端和眼底血管的發(fā)源地,其內(nèi)部匯聚著大量較粗的血管.在彩色眼底圖像中,視盤呈類圓形,是一個(gè)近似黃色或白色的亮斑,直徑約占眼底圖像的1/7.準(zhǔn)確的視盤檢測不僅可以輔助定位血管、黃斑等重要的眼底組織結(jié)構(gòu),還可輔助確定滲出物、微動(dòng)脈瘤等病變的位置,對(duì)眼底圖像分析具有重要的意義.
視盤檢測包括定位和分割2個(gè)步驟.根據(jù)視盤具有的特性,國內(nèi)外研究人員提出了諸多視盤定位方法,大致可以分為2類.第1類是利用視盤的亮度、形狀等外觀特性定位視盤,例如鄒北驥等[1]首先通過剪裁眼底圖像來避免圖像邊緣高亮環(huán)對(duì)視盤定位的影響,然后選取灰度值處于前0.2%的像素點(diǎn)定位視盤;柯鑫等[2]利用Itti模型對(duì)眼底圖像提取顏色、亮度和方向3個(gè)特征,將所得顯著圖中特征最顯著的區(qū)域視為視盤.這類方法對(duì)于正常的眼底圖像適用性良好,但是在病變眼底圖像上,眼底疾病會(huì)造成視盤缺損或亮度變化,還有些與視盤外觀相似的病變也會(huì)對(duì)視盤定位造成干擾.第2類是基于血管特性的視盤定位方法.由于視盤區(qū)域的血管密度較大,且主血管延伸曲線近似于2條相切拋物線,F(xiàn)oracchia等[3]采用2條幾何拋物線分別描述主血管的延伸路徑,利用2條拋物線的頂點(diǎn)位于視盤區(qū)域內(nèi)這一特性定位視盤;Soares等[4]首先進(jìn)行血管增強(qiáng),然后利用血管方向信息進(jìn)行視盤初定位,再利用血管匯聚度和亮度信息定位視盤.相較第1類方法,第2類方法準(zhǔn)確率相對(duì)較高,魯棒性較好,但是該類方法對(duì)血管的分割精度要求很高.在視盤分割方面,常用的方法是基于霍夫變換(Hough Transform)和主動(dòng)輪廓模型(Snake)的.例如 Sekhar等[5]根據(jù)視盤的形狀類似圓形的這一特性,利用圓形Hough變換分割視盤;李筱涵等[6]提出了結(jié)合迭代Otsu閾值化和Hough變換進(jìn)行視盤分割的方法.Yin等[7]結(jié)合邊緣檢測和圓形Hough變換提取視盤的初始輪廓,再利用Snake模型來檢測視盤邊緣檢;基于Hough變換的方法分割精度較低,而基于Snake模型的方法分割精度較高,但效果依賴于初始輪廓的選取.
觀察一幅圖像,并非所有的區(qū)域都會(huì)使觀察者產(chǎn)生同樣的視覺或心理感受,最重要的信息通常會(huì)集中在一些顯著區(qū)域,人類視覺系統(tǒng)篩選顯著區(qū)域主要利用的就是視覺注意機(jī)制.為了模仿人類視覺系統(tǒng)篩選信息的過程,1998年,Itti等[8]提出了最具代表性的基于視覺注意的圖像顯著性檢測模型—Itti模型,之后Harel等[9]在其基礎(chǔ)上提出了基于圖的顯著性(Graph based visual saliency,Gbvs)模型.這2個(gè)模型的主要區(qū)別在于在特征圖生成階段,Gbvs模型改進(jìn)了Itti模型中的“中心—周邊差”操作,在計(jì)算顯著圖時(shí)引入了馬爾科夫鏈,利用馬爾科夫鏈的穩(wěn)態(tài)平衡來衡量圖像的顯著性,更加全局、動(dòng)態(tài)地考慮了圖像中點(diǎn)與點(diǎn)之間的顯著性差異,從而檢測出更多的感興趣區(qū)域.
本文充分研究了視盤的視覺特征,將視覺注意機(jī)制與相位一致性[10]結(jié)合,對(duì)Gbvs模型進(jìn)行了改進(jìn),提出了一種基于改進(jìn)型Gbvs模型的視盤檢測方法.
視盤進(jìn)行檢測前,首先要對(duì)圖像進(jìn)行預(yù)處理,分為顏色通道選取和感興趣區(qū)域提取2個(gè)步驟.
彩色眼底圖像的紅(R)、綠(G)、藍(lán)(B)3個(gè)通道的圖像如圖1所示.
圖1 彩色眼底圖像的RGB通道圖像Fig.1 RGB channel images
由圖1可見,R通道圖像整體亮度偏高、對(duì)比度較低;B通道圖像整體偏暗,圖像對(duì)比度最差;而G通道圖像中視盤和血管結(jié)構(gòu)清晰,對(duì)比度高,因此選取G通道進(jìn)行視盤定位.
為了避免眼底圖像邊緣存在的高亮環(huán)對(duì)定位結(jié)果產(chǎn)生的不利影響,需要求取眼底圖像的掩模圖像,以確定眼底圖像的感興趣區(qū)域(region of interest,ROI).
具體方法如下:首先提取RGB通道的R通道,利用Otsu閾值分割方法出眼底圖像的掩模;然后對(duì)所得的掩模進(jìn)行先腐蝕再開運(yùn)算的形態(tài)學(xué)操作,得到新的掩膜模板;再將新的掩膜模板與G通道圖像相乘,得到相應(yīng)的ROI區(qū)域.感興趣區(qū)域提取結(jié)果如圖2所示.
圖2 感興趣區(qū)域提取Fig.2 ROI extraction
在對(duì)圖像進(jìn)行預(yù)處理后,利用改進(jìn)型Gbvs模型對(duì)預(yù)處理后的圖像進(jìn)行顯著性檢測.該模型可以分為3個(gè)部分:視覺特征提取、特征圖生成和顯著圖生成.在視覺特征提取階段,Gbvs模型與Itti模型類似,都提取了顏色、亮度、方向3類特征.由于眼底圖像的顏色容易受到被試個(gè)體差異以及拍攝環(huán)境的影響,因此其特征不穩(wěn)定.Gbvs模型利用Gabor濾波器僅在θ∈{0°,45°,90°,135°}4 個(gè)方向上對(duì)圖像進(jìn)行濾波并提取特征,不能全面描述視盤的邊緣特征.因此本文方法沒有提取顏色和方向兩類特征,而是針對(duì)眼底圖像的特點(diǎn),提取了亮度、對(duì)比度和PC 3類特征.
PC特征[11]是一種基于相位信息的圖像特征.相關(guān)生理學(xué)實(shí)驗(yàn)證明[12],人類的視覺系統(tǒng)對(duì)于圖像中相位信息高度一致的點(diǎn)會(huì)更加敏感,因此PC檢測符合人類視覺感知特性.PC特征可用于檢測階躍型邊緣和屋脊型邊緣,對(duì)圖像亮度或?qū)Ρ榷茸兓幻舾校哂泻軓?qiáng)的通用性,應(yīng)用于眼底圖像中能很好地描述圖像邊緣特征.此外,視盤亮度較高,與眼底其他組織相比對(duì)比度較強(qiáng),因此本文方法提取了亮度、對(duì)比度和相位一致性3類特征.
提取特征的過程為:首先把輸入圖像表示為3層高斯金字塔.其中第1層是輸入圖像,第2、3層金字塔數(shù)據(jù)是利用線性高斯濾波器對(duì)圖像進(jìn)行平滑和降采樣得到的結(jié)果,尺度分別為第1層圖像的1/2、1/4.然后對(duì)金字塔每一層分別提取3類特征,形成亮度高斯金字塔、對(duì)比度高斯金字塔和相位一致性高斯金字塔,一共得到9幅圖像,其中亮度3幅、對(duì)比度3幅、相位一致性3幅.3類特征提取的計(jì)算公式如下:
(1)亮度特征:設(shè)r、g、b分別代表彩色圖像的紅、綠、藍(lán)3色分量,由于本文方法只使用了眼底圖像的綠色通道,所以亮度特征為I=g.
(3)相位一致性特征[12]:
式中:o表示方向;n表示小波函數(shù)的尺度;E為局部能量;T為所有尺度上濾波器對(duì)噪聲的響應(yīng);?·」中的值為正則取值不變,若為其他值則取0;A表示單個(gè)濾波器的幅度;ε是為了防止分母為0而引入的常量,其值設(shè)為 0.000 1;PC(x,y)表示在點(diǎn)(x,y)的相位一致性.
本文方法選取了濾波器響應(yīng)最大的6個(gè)方向,令o=6;為不丟失眼底細(xì)節(jié),選取了3個(gè)尺度,令n=3.局部能量E可由信號(hào)與一對(duì)正交濾波器的卷積來計(jì)算,F(xiàn)ield[13]指出使用對(duì)數(shù)頻率尺度上傳遞函數(shù)為高斯函數(shù)的濾波器可以對(duì)圖像進(jìn)行更有效地編碼,而且人類視覺系統(tǒng)的度量也顯示出有響應(yīng)在對(duì)數(shù)頻率尺度上呈現(xiàn)對(duì)稱性的細(xì)胞,因此本文方法采用Log-Gabor小波來計(jì)算局部能量,其傳遞函數(shù)的形式為:
式中:ω0為濾波器的中心頻率.
特征圖生成運(yùn)用了圖論的知識(shí),其基本原理為:設(shè)各金字塔每一層圖像為M,以像素為節(jié)點(diǎn),將M的每個(gè)像素點(diǎn)都兩兩連接起來,將圖像M映射為1個(gè)無向圖GM.圖像中的每一個(gè)節(jié)點(diǎn)對(duì)應(yīng)的值代表其當(dāng)前狀態(tài),其所有邊的權(quán)重代表其轉(zhuǎn)移概率.基于馬爾科夫鏈的局部特性,馬爾科夫鏈會(huì)收斂于那些和周圍節(jié)點(diǎn)不相似的節(jié)點(diǎn),由此即可計(jì)算得到特征圖.
具體過程為:對(duì)于圖GM,首先利用節(jié)點(diǎn)之間的距離d,計(jì)算出任意像素之間的差異性,將其作為其對(duì)應(yīng)節(jié)點(diǎn)連成的邊的權(quán)重ω,并歸一化到[0,1];然后計(jì)算出權(quán)重矩陣,將其按列歸一化,歸一化后的矩陣稱為馬爾科夫矩陣,用以反映GM中任意一個(gè)節(jié)點(diǎn)和其他所有頂點(diǎn)的聯(lián)系;最后計(jì)算馬爾科夫矩陣最大譜對(duì)應(yīng)的特征向量,插值回原圖得到特征圖.由此計(jì)算出特征圖9幅,其中亮度3幅、對(duì)比度3幅、相位一致性3幅.連接權(quán)重定義如下:
式中:M(i,j)和 M(p,q)分別表示像素(i,j)和(p,q)的像素值;d((i,j)‖(p,q))表示(i,j)和(p,q)兩節(jié)點(diǎn)之間的距離;式(3)中 ω((i,j),(p,q))表示(i,j)和(p,q)兩節(jié)點(diǎn)的權(quán)重;式(4)中σ是一個(gè)參數(shù),其大小與鄰域范圍大小成正比.
首先對(duì)3個(gè)特征各自的特征圖進(jìn)行尺寸歸一化,再將每個(gè)特征的特征圖分別相加,得到3張顯著圖,如圖3所示.再將這3張顯著圖按照1∶1∶1的比例進(jìn)行線性相加,最終得到的總顯著圖表示為S,如圖4所示.
圖3 各特征顯著圖Fig.3 Saliency maps of features
圖4 總顯著圖Fig.4 Integrated saliency map
利用Gbvs模型得到的總顯著圖S是一張灰度圖像,其像素值的大小反映眼底圖像顯著性的大小.視盤通常是眼底圖像中顯著性較高的區(qū)域,因此可以利用窗口掃描的方法找到灰度均值最大的地方來定位視盤.在視盤定位中,滑動(dòng)窗口的大小即視盤直徑D的合理選取,對(duì)定位結(jié)果至關(guān)重要.根據(jù)文獻(xiàn)[14]的描述,視盤直徑與眼底圖像寬度大小的比例為1/8~1/5.因此,對(duì)于一幅尺寸為m×n的彩色眼底圖像,本文方法依據(jù)圖像的大小自動(dòng)獲取視盤直徑D為m/7.
窗口掃描具體步驟如下:
(1)首先定義一個(gè)直徑為視盤直徑D的滑動(dòng)窗口,利用此滑動(dòng)窗口以1個(gè)像素為步長,對(duì)S從左向右、從上到下進(jìn)行掃描;
(2)統(tǒng)計(jì)窗口內(nèi)像素灰度均值,像素均值最大時(shí)窗口所對(duì)應(yīng)的中心坐標(biāo),將坐標(biāo)值反饋到原圖作為最終的視盤中心位置,在檢測結(jié)果圖中用黑色“+”標(biāo)記.視盤定位示例如圖5所示.
圖5 視盤定位示例Fig.5 An example of optic disc location
眼底圖像RGB三通道中,雖然R通道圖像對(duì)比度較低,但是R通道圖中視盤區(qū)域最明顯,視盤內(nèi)部血管信息模糊、視盤的整體輪廓信息較為完整,因此在視盤分割過程中采用R通道作為預(yù)處理灰度圖像.視盤定位之后,本文采用基于鄰域插值運(yùn)算進(jìn)行消除血管,具體操作如圖6所示.
圖6 基于鄰域插值運(yùn)算消除血管Fig.6 Remove vessles based on neighborhood interpolation
首先,為了避免其他眼底組織的干擾,對(duì)R通道圖像截取以定位點(diǎn)為中心,長度約為2個(gè)視盤直徑(2D)大小的方形區(qū)域作為感興趣區(qū)域,如圖6(a)所示.為了減少視盤區(qū)域內(nèi)血管對(duì)視盤分割結(jié)果的影響,在進(jìn)行視盤分割之前,先把視盤區(qū)域的主血管消除掉.本文首先利用低帽變換以及Otsu閾值分割方法提取出視盤中的血管,如圖6(b)所示,在提取出血管之后,利用減除操作消除血管,然后利用最鄰近插值法在鄰域中填充被移除的血管位置的像素,消除血管后的結(jié)果如圖6(c)所示.鄰域插值算法能夠自動(dòng)尋找背景中最接近血管的像素填補(bǔ)血管位置像素的灰度值,所以在經(jīng)過插值運(yùn)算后的圖像看上去會(huì)比較平滑干凈,同時(shí)可以較好的保護(hù)視盤邊界.
消除血管之后,即可進(jìn)行后續(xù)的視盤分割.本文利用C-V模型在消除血管后的圖像上進(jìn)行視盤分割.首先設(shè)定一個(gè)初始位置,本文設(shè)定了一個(gè)以定位點(diǎn)作為中心,1倍視盤直徑(D)大小的圓作為初始輪廓,然后進(jìn)行曲線演化.C-V模型的基本思想是隱式表達(dá)一條平面封閉的曲線,寫成一個(gè)隨著曲線的運(yùn)動(dòng)而演化的二維曲面函數(shù)的水平集形式,其能量函數(shù)定義如下:
該模型假設(shè)有一條目標(biāo)曲線C將圖像分為目標(biāo)區(qū)和背景區(qū)2個(gè)部分,其中,I表示圖像,c1和c2分別表示著 2 個(gè)區(qū)域?qū)?yīng)的平均灰度值.λ2、λ1、μ、υ為各項(xiàng)的加權(quán)系數(shù),通常令λ1=λ2=1.公式前2項(xiàng)共同推動(dòng)曲線向目標(biāo)邊界運(yùn)動(dòng),稱為保真項(xiàng),在輪廓曲線收斂到目標(biāo)邊界時(shí),EC-V(C,c1,c2)達(dá)到最小值;公式的后 2項(xiàng)用來正規(guī)化曲線輪廓,被稱為正則約束項(xiàng)[15].其中l(wèi)ength(C)表示輪廓曲線C的長度,與C的光滑程度有關(guān),其值越小閉合曲線越光滑;而S0(inside(C))代表閉合曲線C的內(nèi)部區(qū)域面積.利用C-V模型求取目標(biāo)邊界的問題其實(shí)就是在求EC-V(C,c1,c2)的最小值.
C-V模型不依賴于圖像的梯度,而是根據(jù)強(qiáng)度均勻的同質(zhì)區(qū)域進(jìn)行水平集演化,對(duì)初始輪廓不敏感,并且可以捕捉圖像全局信息,因此能夠分割梯度信息不確定的模糊邊界,適用于視盤分割.
MESSIDOR眼底圖像數(shù)據(jù)集是法國國防研究部資助的一個(gè)項(xiàng)目,其中的眼底圖像都是在常規(guī)臨床檢查中使用眼底相機(jī)拍攝的.該數(shù)據(jù)集是當(dāng)前國際上已公開的包含眼底圖像數(shù)最多的圖像數(shù)據(jù)集,因此本文方法選擇在該數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)來驗(yàn)證方法性能.MESSIDOR數(shù)據(jù)集共包含1 200幅彩色眼底圖像,其中540幅健康眼底圖像,660幅病變眼底圖像.本文方法利用改進(jìn)后的Gbvs模型計(jì)算顯著圖,加入了對(duì)亮度和對(duì)比度不敏感的PC特征,因此對(duì)于一些對(duì)比度低的圖像仍然可以定位出視盤,部分定位結(jié)果如圖7所示.在對(duì)MESSIDOR數(shù)據(jù)集測試后,本文方法的平均定位準(zhǔn)確率為98.83%.
圖7 MESSIDOR數(shù)據(jù)集視盤定位結(jié)果Fig.7 Optic disc location results on MESSIDOR database
將本文方法與2種現(xiàn)有代表性方法[1-2]對(duì)于MESSIDOR眼底數(shù)據(jù)集測試的定位準(zhǔn)確率進(jìn)行比較,對(duì)比結(jié)果如表1所示.
表1 不同方法的視盤定位準(zhǔn)確率比較Tab.1 Comparison of disc localization accuracies among different methods
由表1可知,文獻(xiàn)[1]通過剪裁眼底圖像,然后利用圖像亮度特征進(jìn)行視盤定位,文獻(xiàn)[2]則利用Itti模型計(jì)算亮度、顏色、方向3類特征的綜合顯著圖進(jìn)行視盤定位.由于文獻(xiàn)[1-2]中的方法只利用視盤外觀特性定位,容易受到病變影響.本文方法利用改進(jìn)后的Gbvs模型計(jì)算顯著圖,以馬爾科夫鏈的穩(wěn)態(tài)平衡來衡量圖像的顯著性,更加全局地考慮了像素點(diǎn)之間的顯著性差異,能夠檢測出圖像中更多的ROI,而且改進(jìn)后的Gbvs模型加入了對(duì)亮度對(duì)比度不敏感的PC特征,因此本文方法與文獻(xiàn)[1-2]的方法相比效果更好.
此外,表1還給出了利用原始Gbvs模型及本文方法的準(zhǔn)確率比較結(jié)果.原始的Gbvs模型在視覺特征提取時(shí)選擇了的方向特征和顏色特征,但是受被試個(gè)體差異的影響以及Gabor濾波器只進(jìn)行4個(gè)方向?yàn)V波的局限性,這2個(gè)特征并不適合視盤檢測,而本文方法對(duì)Gbvs模型進(jìn)行了改進(jìn),改進(jìn)型Gbvs模型加入了對(duì)比度以及對(duì)亮度變換不敏感的PC特征,對(duì)于一些視盤亮度不顯著的眼底圖像,可以通過提取對(duì)比度和PC特征來獲得眼底視盤的顯著性,因此準(zhǔn)確率更高.
利用本文方法在MESSDIOR數(shù)據(jù)集上進(jìn)行視盤分割,部分分割結(jié)果如圖8所示.
圖8 MESSDIOR數(shù)據(jù)集部分眼底圖像視盤分割結(jié)果Fig.8 Partial fundus image segmentation results in MESSDIOR dataset
圖8為部分眼底圖像的視盤分割結(jié)果,圖中黑色線畫的圓圈表示采用本文方法的視盤邊界擬合結(jié)果.其中圖8(a)—圖8(c)邊界較為清晰,利用C-V模型可以較為精確的分割出視盤邊界.圖8(d)中視盤邊界比較模糊,圖8(e)和圖8(f)中視盤邊界分別被異物以及大量血管遮擋,但是采用由于本文方法在進(jìn)行視盤分割之前首先進(jìn)行了血管消除,因此仍能較好地檢測出視盤邊界.
為了驗(yàn)證本文方法的視盤分割性能,將本文方法與代表性方法[6]的視盤分割方法進(jìn)行比較,文獻(xiàn)[6]是利用結(jié)合迭代Otsu閾值化和Hough變換進(jìn)行視盤分割的.首先計(jì)算專家標(biāo)注的視盤區(qū)域與本文方法分割出的視盤區(qū)域之間的面積重疊比S,S定義如下:
式中:GT表示由專家手動(dòng)標(biāo)注的視盤區(qū)域;C表示利用本文方法分割出的視盤區(qū)域;GT∩C為這2個(gè)區(qū)域之間的交集;GT∪C為這2個(gè)區(qū)域的并集;S則表示著2個(gè)區(qū)域之間的重疊率,其中0≤S≤1,S的值越趨近于1,表示這2個(gè)區(qū)域重疊度越高,同時(shí)也就說明方法分割精度更高.
表2 本文方法和文獻(xiàn)[6]方法的重疊率比較Tab.2 Overlap rate comparison between the proposed method and the method of literature[6]
采用本文方法和文獻(xiàn)[6]方法對(duì)MESSIDOR數(shù)據(jù)集測試之后,計(jì)算數(shù)據(jù)集里所有圖像的重疊率S,表2中的數(shù)據(jù)代表不同面積重疊率對(duì)應(yīng)的圖像數(shù)占所有圖像數(shù)的百分比.例如表第2行第3列的數(shù)據(jù)表示本文方法分割的面積重疊率S≥0.95的圖像數(shù)占全部1 200幅圖像的2%.最后一列表示2種方法對(duì)MESSIDOR數(shù)據(jù)集所有圖像測試后的平均重疊率文獻(xiàn)[6]的方法利用Hough變換進(jìn)行視盤分割為75%;而利用本文方法得到的為79%,與文獻(xiàn)[6]方法相比,本文方法利用C-V模型進(jìn)行視盤分割,分割精度更高.表2中不同面積重疊率S對(duì)應(yīng)的視盤分割示例圖如圖9所示,圖中白色曲線是專家分割的視盤邊界,黑色曲線是本文方法的分割出的視盤邊界.
雖然本文方法整體檢測效果較好,但是對(duì)于一些眼底圖像也會(huì)檢測失敗,如圖10所示.
由于眼底圖像中存在著一些病變,其亮度、對(duì)比度、相位一致性這3類視覺特征顯著性要高于視盤,使得視盤定位失??;眼底圖像中視盤周邊有亮度大的病變干擾,而且視盤邊界比較模糊,因此造成視盤分割錯(cuò)誤.由于視盤既是眼底圖像中顯著性較高的區(qū)域,又是血管的發(fā)源地,因此針對(duì)上述視盤檢測時(shí)存在的問題,如果加入血管特征對(duì)本文方法進(jìn)行改進(jìn),檢測準(zhǔn)確率會(huì)進(jìn)一步提高,因此本文方法還值得進(jìn)一步研究.
圖9 不同面積重疊率的視盤分割結(jié)果示例Fig.9 Examples of optic disc segmentation for different area overlap rates
圖10 本文方法檢測失敗的結(jié)果示例Fig.10 Example of incorrect result of proposed method
本文提出一種結(jié)合視覺注意機(jī)制和相位一致性的眼底圖像視盤檢測方法.該方法將Gbvs模型所提取的顏色、亮度和方向3類視覺特征改為亮度、對(duì)比度和PC特征,其中PC特征符合人眼視覺特性,且不受亮度變化影響,因此可以彌補(bǔ)只利用亮度和對(duì)比度進(jìn)行視盤定位時(shí)受拍攝光照條件、視盤亮度變化干擾的不足;在進(jìn)行視盤分割前,首先采取鄰域插值方法消除血管,使視盤的真實(shí)邊界得以保留.由于本文方法全面地考慮了視盤的視覺特征,可以克服僅根據(jù)視盤亮度、形狀等外觀特性進(jìn)行定位與分割的缺陷.在MESSIDOR眼底圖像數(shù)據(jù)集上進(jìn)行測試,平均定位準(zhǔn)確率為98.83%,平均重疊率為79%,實(shí)驗(yàn)結(jié)果表明了本文方法的視盤定位準(zhǔn)確率和分割精度高于現(xiàn)有代表性方法,證明了該方法的有效性.
[1]鄒北驥,張思劍,朱承璋.彩色眼底圖像視盤自動(dòng)定位與分割[J].光學(xué)精密工程,2015,23(4):1187-1195.ZOU B J,ZHANG S J,ZHU C Z.Automatic localization and segmentation of optic disk in color fundus image[J].Optics and Precision Engineering,2015,23 (4):1187-1195 (in Chinese).
[2]柯鑫,江威,朱江兵.基于視覺注意機(jī)制的眼底圖像視盤快速定位與分割[J].科學(xué)技術(shù)與工程,2015,15(35):47-53.KE X,JIANG W,ZHU J B.Fast location and segmentation of optic disk in the fundus image based on visual attention[J].Science Technology and Engineering,2015,15(35):47-53(in Chinese).
[3]FORACCHIA M,GRISAN E,RUGGER A.Detection of optic disc in retinal images by means of a geometrical model of vessel structure[J].IEEE Transactions on Medical Imaging,2004,23(10):1189-1195.
[4]SOARES I,CASTELO-BRANCO M,PINHEIRO A.Optic disk localization in retinal images based on cumulative sum fields[J].IEEE Journal of Biomedical and Health Informatics,2016,20(2):574-585.
[5]SEKHAR S,AL-NUAIMY W,NANDI A K.Automated localization of retinal optic disk using hough transform[C]//Proceedings of 5th IEEE International S ymposium on Biomedical Imaging:From Nano to Macro,Paris,France:IEEE,2008:1577-1580.
[6]李筱涵.基于相位信息的眼底圖像視盤定位與分割方法研究[D].天津:天津工業(yè)大學(xué),2012.LI X H.Fundus optic disc localization and segmentation method based on phase congruency[D].Tianjin:Tianjin Polytechnic University,2012(in Chinese).
[7]YIN F,LIU J,ONG S H,et al.Model-based optic nerve head segmentation on retinal fundus images[C]//Proceedings of 2011 Annual International Conference of the IEEE Engineering in Medicine and Biology Society.Boston,USA:IEEE,2011:2626-2629.
[8]ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[9]HAREL J,KOCH C,PERONA P.Graph-based visual saliency[J].Advances in Neural Information Processing Systems,2007,19:545-552.
[10]吳駿,劉健,肖志濤,等.結(jié)合相位一致性和脈沖耦合神經(jīng)網(wǎng)絡(luò)的圖像檢索[J].天津工業(yè)大學(xué)學(xué)報(bào),2014,33(3):48-54.WU J,LIU J,XIAO Z T,et al.Image retrieval combining phase congruency and PCNN[J].Journal of Tianjin Polytechnic University,2014,33(3):48-54(in Chinese).
[11]KOVESI P.Image features from phase congruency[J].Journal of Computer Vision Research,1999,1(3):1-26.
[12]MORRONE M C,BURR D C.Feature detection in human vision:A phase-dependent model[J].Proceedings of the Royal Society of London,Series B,Biological Sciences,1988,235(1280):221-245.
[13]FIELD D J.Relations between the statistics of natural images and the response properties of cortical cells[J].Journal of Optical Society of America,1987,4(12):2379-2394.
[14]TASMAN W,JAEGER E A.Duane′s Ophthalmology[M].15th ed.Philadelphia:Lippincott Williams&Wilkins,2009.
[15]周昌雄.基于活動(dòng)輪廓模型的圖像分割方法研究[D].南京:南京航空航天大學(xué),2005.ZHOU C X.Research on method of image segmentation based on active contour model[D].Nanjing:Nanjing University of Aeronautics and Astronautics,2005(in Chinese).