孫鑫
【摘要】改進的廣義模糊C均值聚類分割算法(GIFP_FCM)是一種新型的模糊聚類算法。然而,GIFP_FCM對噪聲很敏感,這是因為該算法忽略了圖像的空間信息。為了解決這一問題,本文提出一種新算法,即非局部自適應(yīng)空間約束聚類算法(FCA_NLASC)。在該方法中,一種新的非局部自適應(yīng)空間信息被引入到改進的GIFP_FCM的目標(biāo)函數(shù)。該算法的特點是控制每個像素在非局部空間信息圖像中的噪聲。對于合成圖像和真實圖像,與GIFP_FCM算法比較,實驗結(jié)果表明,F(xiàn)CA_NLASC算法能夠較好地保持圖像細(xì)節(jié)特征, 并且對噪聲具有較強的魯棒性。
【關(guān)鍵詞】圖像分割;模糊C均值;模糊聚類;K均值;空間信息
圖像分割是計算機視覺和圖像處理中最重要的研究課題之一。圖像分割的任務(wù)是將圖像分成若干非重疊的均勻特征區(qū)域,如強度,顏色,質(zhì)地等。在過去的幾十年中,許多細(xì)分算法已經(jīng)被開發(fā)。模糊聚類是圖像分割算法中最廣泛使用的方法。由于引入每個圖像的模糊性,模糊聚類可以保留更多的信息。模糊聚類的一個主要缺點是對圖像中的噪聲較敏感。為了解決這個問題,本文將圖像中獲得的局部空間信息結(jié)合到模糊聚類算法中。
改進模糊分區(qū)的廣義模糊C均值聚類算法(GIFP_FCM)是一種新型的模糊聚類算法。在GIFP_FCM算法中,一個新的隸屬度約束條件被引入到目標(biāo)函數(shù)中以得到更清晰的分區(qū)。引入一個參數(shù),它可以控制GIFP_FCM算法的收斂速度,而且比FCM算法收斂地更快。當(dāng)GIFP_FCM算法用于正?;叶燃増D像時,對噪聲很敏感。但事實上,將局部空間信息引入GIFP_FCM算法中即可克服其對噪聲的靈敏度。然而,當(dāng)圖像中的噪聲為高電平時,一個像素的相鄰像素可能含有異常特征。因此,含局部空間信息的GIFP_FCM算法得不到滿意的分割效果。在本文中,首先定義了一種新的非局部自適應(yīng)空間條件,它由圖像恢復(fù)中的非局部均值方法獲得。然后,將該約束條件引入 GIFP_FCM的目標(biāo)函數(shù),并提出了一種新的模糊聚類算法,稱為非局部自適應(yīng)空間約束模糊聚類算法(FCA_NLASC),用以解決在灰度圖像中GIFP_FCM算法對噪聲的敏感度。在該算法中,非局部空間的每個像素分別作用于含噪聲的圖像。實驗表明,由于引入非局部空間信息,F(xiàn)CA_NLASC算法在處理含噪聲的灰度圖像分割時,比GIFP_FCM算法更有效。本文的其余部分安排如下。第1章介紹模糊聚類算法。第2章提出非局部自適應(yīng)空間約束的模糊聚類算法(FCA_NLASC)。第3章討論含參數(shù)的FCA_NLASC算法,并將該算法應(yīng)用于合成圖像,來驗證FCA_NLASC算法的分割效果。第4章給出結(jié)論。
1.模糊聚類算法
模糊C均值算法(FCM)是模糊聚類算法中使用最廣泛應(yīng)用的算法之一。假設(shè)表示有n個像素的圖像,其中xj表示第j個像素的灰度值。FCM算法就是通過最小化目標(biāo)函數(shù)將圖像X劃分為c個聚類,公式如下:
(1)
約束條件如下:
,, ? ? ? ? ?(2)
其中vi代表第i個聚類中心,uij代表第i個聚類中第j個像素的隸屬度。表示歐幾里德距離,參數(shù)m是每個模糊變量的加權(quán)指數(shù),它決定了分區(qū)結(jié)果的模糊性數(shù)量。改進的廣義模糊C均值聚類算法(GIFP_FCM)是基于FCM的新算法。GIFP_FCM的目標(biāo)函數(shù)如下:
(3)
它同樣需要滿足公式(2)中的約束條件。使用拉格朗日乘數(shù)法來最小化公式(3),則隸屬度函數(shù)uij和聚類中心vi更新為:
(4)
(5)
上式滿足:
,
其中參數(shù)控制GIFP_FCM算法的收斂速度。
2.非局部自適應(yīng)空間約束的模糊聚類算法(FCA_NLASC)
由于沒有考慮圖像的空間信息,GIFP_FCM在灰度圖像中對噪聲很敏感。為了克服噪聲,將非局部空間信息進入到GIFP_FCM算法中。
2.1 非局部空間信息
在高噪聲圖像中,某個中心像素附近的像素可能同樣處于非正常狀態(tài),因此利用局部信息并不能很好的引導(dǎo)分割。對于圖像中的每一個像素,附近都有一系列與它有相似結(jié)構(gòu)的像素,利用這些相似像素來表述空間信息即非局部空間信息。對于第j個像素,其非局部空間信息計算如下:
(6)
為以第j個像素為中心,半徑為r的搜索窗口,此區(qū)域內(nèi)的像素用來計算第k個像素的空間信息,同時滿足且。
第j個像素與第p個像素之間的相似度用加權(quán)的歐幾里得距離計算:
(7)
其中x(Nj)表示以第j個像素為中心,s為半徑的方形窗口內(nèi)的灰度向量,x(q)(Nj)表示向量x(Nj)的第q個元素。
(8)
其中,。(yq,zq)表示在鄰近方形窗口中第q個元素的坐標(biāo)。
因此,關(guān)于第j個像素與第p個像素的權(quán)重wjp計算如下:
(9)
其中h為過濾度參數(shù),控制權(quán)重函數(shù)wjp的衰減。Zj為歸一化的常數(shù):
因此,在搜索空間內(nèi)與x(Nj)有相似的鄰近灰度向量x(Np)的對應(yīng)像素p擁有更大的權(quán)值。本文所提出的方法通過利用像素的鄰近結(jié)構(gòu)能夠考慮到中心像素周圍更大范圍的空間信息。
2.2 目標(biāo)函數(shù)與受空間信息約束的自適應(yīng)參數(shù)
本文在GIFP_FCM算法的目標(biāo)函數(shù)中加入了由非局部空間信息產(chǎn)生的約束條件項:
其中為關(guān)于第j個像素的非局部空間信息。為受空間信息約束的自適應(yīng)參數(shù),它控制第j個像素的空間約束條件產(chǎn)生的影響。提出的利用非局部自適應(yīng)空間信息進行的模糊聚類的目標(biāo)函數(shù)如下:
(10)
滿足條件。
為了使目標(biāo)函數(shù)最小,利用拉格朗日數(shù)乘法得到隸屬度函數(shù)與聚類中心的更新公式如下:
(11)
(12)
為了使,定義:
,
我們利用計算空間信息的權(quán)重來確定關(guān)于第j個像素的受空間信息約束的自適應(yīng)參數(shù),使得不同像素對應(yīng)不同。
(13)
其中表示的范圍,為以第j個像素為中心的搜索窗口中像素相對應(yīng)的權(quán)值的最大值。的值影響著的精確性,在某種程度上估計了第j個像素在無噪聲圖像圖像中的值,因此,越大,對的空間限制作用就越大。
圖1
2.3 FCA_NLASC算法對圖像分割的步驟
輸入圖像,確定聚類數(shù):c,臨界值,最大循環(huán)次數(shù)T,搜索窗口的半徑r,方形窗口的半徑s與濾波度參數(shù)h。
(1)初始化聚類中心,設(shè)定循環(huán)次數(shù)k=1。
(2)計算非局部空間信息。先計算加權(quán)歐幾里得距離,再計算權(quán)重wjp,最后計算關(guān)于第j個像素的非局部空間信息。
(3)計算關(guān)于第j個像素的受空間信息約束的自適應(yīng)參數(shù)。
(4)更新隸屬度函數(shù)。
(5)計算聚類中心。
(6)如果或者循環(huán)次數(shù)k>T,則輸出分割的圖像,否則,k=k+1,繼續(xù)步驟4。
3.實驗結(jié)果和分析
本節(jié)中,對256*256像素的圖像進行了FCA _NLASC算法的測試。原圖像在圖1a中顯示,圖1b是加入噪聲的圖像。通過實驗確定參數(shù)如下:,,,,T=2500,r=10,s=3,h=800。圖1c是GIFP_FCM算法的分割結(jié)果,圖1d是FCA_NLASC算法的分割結(jié)果。所有的算法都在VC++6.0中編碼實現(xiàn)。 實驗結(jié)果表明,F(xiàn)CA_NLASC算法能夠較好地保持圖像細(xì)節(jié)特征,并且對噪聲具有較強的魯棒性。
4.結(jié)論
為了克服GIFP_FCM算法在灰度圖像中噪聲的影響,本文提出非局部自適應(yīng)空間信息的改進模糊聚類算法(FCA_NLASC)。該方法利用每個像素的非局部空間信息來改善噪聲對圖像的影響。實驗結(jié)果表明FCA_NLASC能有效地控制噪聲,而且能夠獲得較好的分割質(zhì)量。
參考文獻
[1]Y.Jiang,Z.H.Zhou,SOM.ensemble-based image segmentation,Neural Process.Lett.20(3)(2004):171-178.
[2]K.S.Chuang,H.L.Tzeng,S.Chen,J.Wu,T.J.Chen.Fuzzy c-means clustering with spatial information for image segmentation,Comput.Med.Imaging Graphics 30(1)(2006):9-15.
[3]W.L.Cai,S.C.Chen,D.Q.Zhang.Fast and robust fuzzy c-means clustering algorithms incorporating local information for image segmentation,Pattern Recognition 40(7)(2007):825-838.