郭和煬,劉俊如,趙漢理
(溫州大學(xué)智能信息系統(tǒng)研究所,溫州 325035)
圖像是一種重要的視覺信息表達(dá)媒介,通常會包含各種紋理信息。紋理體現(xiàn)了物體表面的共有內(nèi)在屬性,包含了物體表面結(jié)構(gòu)組織排列的重要信息以及其與周圍的聯(lián)系[1]。圖像紋理濾波器可以有效地過濾圖像中的紋理細(xì)節(jié)信息,同時(shí)較好地保持顯著的結(jié)構(gòu)邊緣信息。因此,基于結(jié)構(gòu)保持的圖像紋理濾波器可以將圖像中的紋理信息和顯著結(jié)構(gòu)信息進(jìn)行有效地分離。并且,圖像紋理濾波算法經(jīng)常作為一些圖像處理應(yīng)用的預(yù)處理操作,可以用來改善輸入圖像的信息,方便計(jì)算機(jī)理解圖像。圖像紋理濾波器可以優(yōu)化諸如邊緣檢測和圖像分割等圖像處理應(yīng)用。
本文提出了一種新的圖像紋理濾波算法。首先,該圖像紋理濾波算法采用一種改進(jìn)的基于方向的相對總變差尺度mdRTV(modified directional Relative Total Variation)來區(qū)分圖像的顯著結(jié)構(gòu)邊界和紋理細(xì)節(jié)區(qū)域。然后,基于最大-最小圖像棧確定自適應(yīng)紋理濾波半徑,運(yùn)用自適應(yīng)中值濾波生成一幅引導(dǎo)圖像。最后,對輸入圖像使用基于引導(dǎo)圖像的聯(lián)合雙邊濾波,得到最終的結(jié)構(gòu)保持的紋理濾波圖像。
圖像紋理濾波算法在圖像處理領(lǐng)域有著重要的作用,越來越多的研究學(xué)者專注于該課題的研究。近年來,已有很多優(yōu)秀的基于邊緣保持的圖像濾波算法被提出。
一種是基于細(xì)節(jié)信息過濾的圖像濾波算法。該種類型的濾波算法將圖像中的紋理濾除并保留圖像的顯著結(jié)構(gòu)信息。形態(tài)學(xué)濾波[2]是其中一個經(jīng)典的算法,基于時(shí)域信號處理,可以有效防止信號幅度衰減和相位移動的問題,同時(shí)信號的保真度也保持得較好。但是,形態(tài)學(xué)濾波可能會破壞圖像的細(xì)節(jié)和邊緣。雙邊濾波[3]則是結(jié)合了圖像中像素灰度值的相似性和像素之間的空間距離,既能保持圖像邊緣,又能達(dá)到抑制噪聲的效果。但是,雙邊濾波器還不能做到平滑任意尺度的圖像細(xì)節(jié)。Buades等[4]提出了基于塊相似性的非局部均值濾波算法,Perona等[5]提出了基于偏微分方程的各向異性擴(kuò)散濾波算法。Ma等[6]提出了一種加權(quán)中值濾波算法進(jìn)行圖像濾波和邊界保持操作。這些算法雖然在圖像濾波的過程中很好地保持了圖像的邊界結(jié)構(gòu)信息,但是并不能很好地處理圖像中的復(fù)雜紋理信息。
另一種是基于紋理信息過濾的圖像濾波算法。該種類型的濾波算法通過相應(yīng)操作對圖像中的紋理信息和顯著結(jié)構(gòu)信息進(jìn)行區(qū)分并且建立一幅引導(dǎo)圖像,然后基于引導(dǎo)圖像對輸入圖像進(jìn)行結(jié)構(gòu)保持的紋理濾波。Xu等[7]提出了一種基于相對總變差尺度(RTV,Relative Total Variation)的紋理濾波算法,從帶有復(fù)雜紋理信息的圖像中有效地提取出顯著結(jié)構(gòu)信息。Kara?can等[8]提出了一種基于局部區(qū)域協(xié)方差的紋理過濾方法。Cho等[9]提出了一種改進(jìn)的相對總變差尺度(mRTV,modified Relative Total Variation),運(yùn)用圖像塊偏移的思想建立引導(dǎo)圖像,實(shí)現(xiàn)對輸入圖像的紋理濾波。最近,Jeon等[10]則提出了基于方向的相對總變差尺度(dRTV,directional Relative Total Variation),設(shè)計(jì)了一種基于自適應(yīng)高斯濾波半徑的紋理尺度感知的圖像紋理濾波方法。
圖1示意了本文算法的主要步驟,算法流程具體如下。首先,根據(jù)輸入圖像(如圖1a所示)計(jì)算出一種新的用于區(qū)分圖像中顯著結(jié)構(gòu)信息和復(fù)雜紋理信息的尺度mdRTV。其次,將所生成mdRTV尺度圖像進(jìn)行歸一化處理,并且運(yùn)用中值濾波對歸一化后的mdRTV尺度圖像進(jìn)行平滑過濾(如圖1b所示)。然后,計(jì)算出每個像素的自適應(yīng)濾波半徑,并且根據(jù)自適應(yīng)濾波半徑對輸入圖像進(jìn)行自適應(yīng)中值濾波以生成一幅引導(dǎo)圖像(如圖1c所示)。最后,基于該引導(dǎo)圖像對輸入圖像進(jìn)行聯(lián)合雙邊濾波,獲得所要輸出的結(jié)構(gòu)保持的紋理濾波圖像(如圖1d所示)。
基于Cho等[9]的mRTV和Jeon等[10]的mRTV,本文提出了改進(jìn)的基于方向的相對總變差尺度mdRTV,其具體定義如下:
圖1 本文算法流程圖
式中,Iq表示輸入圖像I中像素點(diǎn)q的像素值,Np表示以像素點(diǎn)p為中心點(diǎn)的方形圖像塊,?∈[0,2π)表示圖像塊的旋轉(zhuǎn)角度,參數(shù)ε=10-3用于防止計(jì)算時(shí)出現(xiàn)分母為0的情況。因此,Tp(?)表示以像素點(diǎn)p為中心的圖像塊Np順時(shí)針旋轉(zhuǎn)?角度后的紋理特征尺度。
在具體實(shí)現(xiàn)中,在0到2π的角度范圍中等間距地遍歷12個角度值,分別計(jì)算出各個角度下的Tp(?)值。接著,將12個Tp(?)值中的最大值作為像素p所對應(yīng)的mdRTV值,此時(shí)所對應(yīng)的角度稱為最大方向角。如果像素點(diǎn)p對應(yīng)的mdRTV值較小,則像素點(diǎn)p位于紋理特征顯著區(qū)域或者較平坦區(qū)域。如果像素點(diǎn)p對應(yīng)的mdRTV值較大,則像素點(diǎn)p位于結(jié)構(gòu)邊界區(qū)域。具體地,最大方向角的計(jì)算公式如下:
對于彩色圖像的mdRTV值的計(jì)算,本文采用Cho等[9]的方法,首先對彩色圖像R、G、B三個通道分別計(jì)算mdRTV值,然后將三個通道的mdRTV值相加得到最終的mdRTV值。
圖像中位于結(jié)構(gòu)邊界附近的紋理區(qū)域像素點(diǎn)的mdRTV值可能會與結(jié)構(gòu)邊界上像素點(diǎn)的mdRTV值差異并不太明顯。
首先,本文采用Jeno等[10]的方法對mdRTV進(jìn)行歸一化:
式中,σe用于調(diào)控結(jié)構(gòu)邊界到紋理區(qū)域的像素點(diǎn)對應(yīng)的mdRTV值過渡情況,本文設(shè)為0.1。
然后,使用中值濾波對該歸一化后的mdRTV圖進(jìn)行平滑。中值濾波能夠很好地保持圖像顯著結(jié)構(gòu)信息,還能有效地濾除高對比度噪聲。在中值濾波前,將濾波窗口根據(jù)中心像素對應(yīng)的最大方向角進(jìn)行旋轉(zhuǎn),得到最終參與濾波的窗口像素。圖2給出了mRTV算法、dRTV算法和mdRTV算法的效果對比圖,圖中藍(lán)色表示RTV值較小,綠色和紅色表示RTV值較大。從效果對比圖和一些細(xì)節(jié)放大對比中可以看出dRTV算法以及本文提出的mdRTV算法在結(jié)構(gòu)信息地保持上都比mRTV算法做得更好,尤其是在一些角點(diǎn)的地方,dRTV算法和mdRTV算法得到的結(jié)果圖在連貫性和完整性上都比mRTV算法得到的效果圖更好。
圖2 mRTV、dRTV與mdRTV結(jié)果比較
使用自適應(yīng)濾波半徑的中值濾波生成引導(dǎo)圖像,中值濾波定義如下:
式中,每一個像素點(diǎn)p的濾波核大小不一定相同,在顯著結(jié)構(gòu)邊界的像素點(diǎn)的濾波核半徑較小,而在紋理區(qū)域的像素點(diǎn)濾波半徑較大。自適應(yīng)濾波半徑能夠使得引導(dǎo)圖像在經(jīng)過中值濾波后能夠達(dá)到結(jié)構(gòu)邊界信息保持清晰以及紋理區(qū)域過渡自然的效果,同時(shí)能夠過濾高對比的噪聲。
本文基于最大-最小圖像棧方法[11]來計(jì)算自適應(yīng)濾波半徑的大小。為了對顯著結(jié)構(gòu)區(qū)域的濾波半徑進(jìn)行有效限制,定義一個二值限制函數(shù)[11]:
式中,ξ表示當(dāng)前鄰近像素點(diǎn)與中心像素點(diǎn)p的距離,R為閾值參數(shù)。如果圖像大小是N×M個像素點(diǎn),則建立最大-最小圖像棧時(shí),圖像棧將有l(wèi)og2(max(N,M))張N×M個像素點(diǎn)大小的圖片,每一張圖像稱為圖像棧的一層。在第0層中圖像包含了EP的原始向量元素。第1層中任意坐標(biāo)值記為(m,n)的向量元素包含了第0層中像素坐標(biāo)值為:
(m±[0 ,20],n±[0 ,20])的3×3鄰域內(nèi)的最大值和最小值。以此類推,建立最大-最小圖像棧。通過遍歷最大-最小圖像棧就能夠得到任意像素點(diǎn)p周圍像素點(diǎn)的最大值和最小值在[EP-R,EP+R]范圍內(nèi)對應(yīng)的最高圖像層編號,并記為 fP,則像素p的濾波半徑就為2fP-1。
與Cho等[9]的做法類似,對輸入圖像基于引導(dǎo)圖像進(jìn)行聯(lián)合雙邊濾波,得到最終的輸出圖像:
式中,fσI(?)與 gσg(?)分別為聯(lián)合雙邊紋理濾波器的空間權(quán)重和值域權(quán)重函數(shù)。
對于彩色圖像,分別對R、G、B三個通道進(jìn)行聯(lián)合雙邊濾波得到最終的彩色濾波結(jié)果。
本文實(shí)驗(yàn)在一臺配置了酷睿i5 3470 CPU和8 GB內(nèi)存的個人電腦上進(jìn)行測試。本文方法通常僅需要一次迭代就能過濾圖像中的噪聲和小尺度的紋理。對于大尺度的紋理,也只需2~3次迭代。本文算法主要有兩個調(diào)節(jié)參數(shù),一個參數(shù)是迭代次數(shù)n∈{1,2,3},另一個參數(shù)是濾波核大小K∈{5,7,9}。聯(lián)合雙邊濾波中濾波核大小設(shè)為3K×3K,值域標(biāo)準(zhǔn)差設(shè)為σr∈{0.08,0.16},空域標(biāo)準(zhǔn)差設(shè)為 σs∈{K-1,K+1}。
圖3給出了本文算法與Cho等[9]和Jeon等[10]算法的紋理濾波對比效果。Cho等[9]的算法雖然能夠保持住大部分的結(jié)構(gòu)邊界信息,但是對一些低對比度的局部特征保持得不好,例如大魚眼睛的睫毛部分比較模糊。并且,Cho等[9]的算法和Jeon等[10]的算法不能很好地過濾結(jié)構(gòu)內(nèi)部的高對比度紋理,例如圖像的黑色背景還是能夠看到一些離散的白斑點(diǎn)。本文的算法能夠使得在結(jié)構(gòu)邊界和局部特征區(qū)域的像素點(diǎn)對應(yīng)的濾波半徑較小,而在紋理區(qū)域的像素點(diǎn)對應(yīng)的濾波半徑較大。因此,基于自適應(yīng)中值濾波的引導(dǎo)圖像能夠在較好地保持結(jié)構(gòu)邊界和局部特征的同時(shí),將復(fù)雜紋理背景過濾得更平滑。
圖3 算法結(jié)果比較
圖4示意了運(yùn)用本文的基于自適應(yīng)中值濾波半徑的紋理濾波算法所生成的更多紋理濾波效果。從圖中可以看出,本文算法有效地過濾了輸入圖像中的紋理細(xì)節(jié)信息,也保持了顯著的結(jié)構(gòu)邊界信息。
圖4 本文算法的濾波效果
本文提出了一種新的區(qū)分圖像的顯著結(jié)構(gòu)邊界和復(fù)雜紋理區(qū)域的尺度,基于最大-最小圖像棧的方式確定自適應(yīng)中值濾波半徑并生成引導(dǎo)圖像,最終運(yùn)用聯(lián)合雙邊濾波對圖像的紋理進(jìn)行過濾。通過與其他算法的實(shí)驗(yàn)比較證明了本文算法的有效性。
但是,本文方法還存在一些不足。一方面,對低對比度的結(jié)構(gòu)邊界不一定能完整的保持。另一方面,局部紋理特征可能會出現(xiàn)濾波過度的情況。在今后的工作中,將研究相關(guān)的方法解決這些缺點(diǎn)。
[1]Haralick R M.Statistical and Structural Approaches to Texture[J].Proceedings of the IEEE,1979,67(5):786-804.
[2]Maragos P A.Morphological Filters-Part II:Their Relations to Median,Order-Static,and Stack Filters[J].IEEE Trans Assp,1987,35:1170-1184.
[3]Tomasi C,Manduchi R.Bilateral Filtering for Gray and Color Images[C].6th International Conference on Computer Vision.Bombay.India:IEEE,1998:839-846.
[4]Buades A,Coll B,Morel J M.Neighborhood Filters and PDE's[J].Numerical Mathematics,2006,105:1-34.
[5]Perona P,Malik J.Scale-Space and Edge Detection Using Anisotropic Diffusion[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2002,12(7):629-639.
[6]Ma Z,He K,Wei Y,et al.Constant Time Weighted Median Filtering for Stereo Matching and Beyond[C].IEEE International Conference on Computer Vision.IEEE,2014:49-56.
[7]Xu L,Yan Q,Xia Y,ct al.Structure Extraction from Texture Via Relative Total Variation[J].ACM Transactions on Graphics,2012,31(6):439-445.
[8]Karacan L,Erdem E,Erdem A.Structure-Preserving Image Smoothing Via Region Covariances[J].ACM Transactions on Graphics,2013,32(6):1-11.
[9]Lee H,Lee H,Lee S,et al.Bilateral Texture Filtering[J].Acm Transactions on Graphics,2014,33(4):128.
[10]Jeon J,Lee H,Kang H,et al.Scale aware Structure Preserving Texture Filtering[J].Computer Graphics Forum,2016,35(7):77-86.
[11]Choudhury P,Tumblin J.The Trilateral Filter for High Contrast Images and Meshes[C].Eurographics Workshop on Rendering Techniques,Leuven,Belgium,June.DBLP,2005:5.