李平娜,吳清
(河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院,天津 300401)
改進(jìn)的頻域協(xié)調(diào)顯著性檢測(cè)及應(yīng)用
李平娜,吳清
(河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院,天津 300401)
為了提高頻域協(xié)調(diào)顯著性檢測(cè)算法對(duì)圖像中顯著目標(biāo)物體的檢測(cè)精確度,首先提出采用改進(jìn)的Log-Gabor濾波器代替DOG濾波器,使其得到的帶通濾波處理效果能夠更好地適應(yīng)自然場(chǎng)景圖像;然后將顏色特征作為先驗(yàn)信息融合到頻域特征中,改善原模型在處理顏色對(duì)比度較弱的圖像時(shí)的處理效果;最后基于改進(jìn)的顯著性檢測(cè)算法與原頻域協(xié)調(diào)顯著性檢測(cè)算法進(jìn)行對(duì)比實(shí)驗(yàn),并將其應(yīng)用到圖像的目標(biāo)自動(dòng)提取中。
頻域協(xié)調(diào);顯著性檢測(cè);顏色特征;目標(biāo)提取
快速、高效的圖像顯著性區(qū)域檢測(cè)技術(shù)能夠在很大程度上減少圖像中的冗余信息,提高圖像處理效率及效果。雖然目前的顯著性檢測(cè)方法有很多,但往往當(dāng)檢測(cè)結(jié)果精度提高的同時(shí)檢測(cè)速度會(huì)下降,本文旨在保持檢測(cè)速度快的同時(shí)提升檢測(cè)精度。
頻域協(xié)調(diào)算法FT[1]是Achanta提出的一種基于頻域?yàn)V波的自底向上的圖像顯著性檢測(cè)模型。FT算法集中于分析圖像的頻率信息,通過(guò)引入頻率調(diào)諧技術(shù),使用諸如顏色和亮度的特征計(jì)算區(qū)域的對(duì)比度,生成具有清晰邊界并且使圖像中顯著區(qū)域覆蓋較為完整的全分辨率顯著圖,從而得到圖像顯著目標(biāo)區(qū)域的邊界信息較為完整。FT模型雖然設(shè)計(jì)簡(jiǎn)單但計(jì)算速度非???。不足之處是該方法對(duì)于圖像中顏色對(duì)比度弱的區(qū)域處理結(jié)果較差,并且在具有復(fù)雜背景的場(chǎng)景中,特別是顯著物體在背景區(qū)域中沒(méi)有明顯凸出時(shí),通常不能被正確精準(zhǔn)地標(biāo)記出來(lái)。
在頻域協(xié)調(diào)模型的選擇上,考慮到log-Gabor濾波方法[2]沒(méi)有DC分量,使得帶寬不受限制并且log-Gabor濾波器的傳遞函數(shù)在高頻端擴(kuò)展了尾部,使得它比其他普通的帶通濾波器更能夠處理自然圖像,因此本文利用log-Gabor濾波器替代DOG濾波器進(jìn)行處理。同時(shí)為了提高顯著性檢測(cè)的準(zhǔn)確度,引入顏色特征先驗(yàn),對(duì)暖色調(diào)的紅色和黃色以及冷色調(diào)的綠色和藍(lán)色分開(kāi)處理。
本文方法主要包括3個(gè)部分:首先在頻域協(xié)調(diào)顯著性檢測(cè)的基礎(chǔ)上,采用Log-Gabor濾波器代替DOG濾波器確定圖像的頻域顯著值;然后計(jì)算關(guān)于顏色先驗(yàn)知識(shí)的顯著信息;最后將顏色特征先驗(yàn)與頻域協(xié)調(diào)數(shù)據(jù)進(jìn)行有機(jī)融合。各處理過(guò)程得到的主要結(jié)果如圖1所示。
圖1中f(x)為輸入圖像;SC(x)為顏色先驗(yàn)圖;SFT(x)為頻域協(xié)調(diào)顯著圖;S(x)為本文改進(jìn)的頻域協(xié)調(diào)顯著圖。
1.1 頻域協(xié)調(diào)顯著值計(jì)算
將待處理圖像{f(x)}由RGB顏色空間轉(zhuǎn)換到CIE Lab顏色空間,頻域中Log-Gabor濾波器g(x)(x=(x,y)∈R2)的傳遞函數(shù)表示為:
其中u=(u,v)∈R2為在頻域中的坐標(biāo),σF為控制濾波器的帶寬,w0為濾波器的中心頻率。通過(guò)對(duì)G(u)進(jìn)行數(shù)值傅立葉逆變換得到g(x)。頻域協(xié)調(diào)顯著值SF(x)定義為:
圖1 本文算法主要處理步驟示意圖
其中*表示卷積運(yùn)算。
1.2 顏色特征先驗(yàn)值計(jì)算
相關(guān)研究表明暖色調(diào)(如紅色和黃色)比冷色調(diào)(如綠色和藍(lán)色)更容易引起人眼的關(guān)注[3],為此可以通過(guò)以下方式進(jìn)行模擬計(jì)算。
對(duì)于一個(gè)給定的在RGB色彩空間中的圖像{f(x)},它會(huì)被變換到CIE Lab顏色空間。{fL(x)},{fa(x)}和{fb(x)}分別表示的是L通道、a通道以及b通道。在CIE Lab顏色空間中的a通道表示綠色-紅色的信息;b通道表示藍(lán)色-黃色信息。若像素的a值較大(較?。?,那么顏色更偏紅(綠)色。此外,若像素的b值較大(較?。?,那么顏色更偏黃(藍(lán))色。所以,如果一個(gè)像素具有較大的a或b值,則呈現(xiàn)暖色調(diào);否則呈現(xiàn)冷色調(diào)。
基于前述分析,可以通過(guò)定義一個(gè)度量指標(biāo)來(lái)評(píng)價(jià)一個(gè)像素的“顏色顯著性”。首先通過(guò):
其中σc是一個(gè)變量。
1.3 特征融合
自然界中的圖像包含著復(fù)雜的背景,用單一的因素進(jìn)行顯著性檢測(cè)很難將顯著區(qū)域準(zhǔn)確地提取出來(lái)。為此將顏色特征先驗(yàn)知識(shí)融合到頻域協(xié)調(diào)顯著性檢測(cè)數(shù)據(jù)中,提高頻域協(xié)調(diào)模型對(duì)顏色對(duì)比度弱的區(qū)域的檢測(cè)效果,提升顯著圖的精確度。假設(shè)給定的圖像為f(x),將顏色先驗(yàn)顯著圖SC(x)通過(guò)點(diǎn)乘的方式與頻域協(xié)調(diào)顯著圖SFT(x)融合在一起得到最終的全分辨率顯著圖S(x):
之后對(duì)S(x)進(jìn)行歸一化完成特征融合,進(jìn)一步降低顯著性檢測(cè)中背景區(qū)域的影響,提高檢測(cè)的精準(zhǔn)度。
為了驗(yàn)證本文算法的準(zhǔn)確性和有效性,在公開(kāi)測(cè)試集MSRA1000[1]上,分別使用Itti算法[4]、CA算法[5]以及FT算法和本文算法進(jìn)行了顯著區(qū)域檢測(cè)的對(duì)比實(shí)驗(yàn),結(jié)果如圖2所示。其中本文算法涉及到的參數(shù)分別為(1)式中w0=0.002,σF=6.2、(4)式中σC=0.25。
從圖2中可以看出Itti算法雖然能檢測(cè)出顯著物體的某些個(gè)顯著點(diǎn),不能將整個(gè)顯著目標(biāo)檢測(cè)出來(lái);CA算法可以得到顯著目標(biāo)的整體輪廓,卻不能獲得高亮一致的顯著圖;頻域協(xié)調(diào)算法得到的顯著圖,雖能體現(xiàn)顯著目標(biāo)的信息,但顯著圖中顯著區(qū)域和非顯著區(qū)域?qū)Ρ榷炔桓?;本文提出的改進(jìn)的頻域協(xié)調(diào)算法不僅能夠提高顯著區(qū)域和非顯著區(qū)域?qū)Ρ榷龋⑶夷軌虻玫骄鶆虻妮喞^為完整的顯著圖。
圖2 不同顯著性檢測(cè)方法的比較
圖像的顯著圖反映了圖像中顯著目標(biāo)的一些特性:顯著圖中的像素顯著值越大,代表這個(gè)像素顯著性越強(qiáng),越有可能屬于顯著目標(biāo)。通過(guò)顯著圖的閾值分割法能夠提取出顯著目標(biāo),得到圖像的顯著目標(biāo)圖,動(dòng)態(tài)閾值分割中,Otsu算法[6]的計(jì)算過(guò)程簡(jiǎn)單,且不受圖像對(duì)比度和亮度影響。因此,本文在圖像顯著圖二值化操作采用Otsu閾值分割法的基礎(chǔ)上,提出基于改進(jìn)的頻域協(xié)調(diào)顯著性檢測(cè)的目標(biāo)提取方法。首先,在檢測(cè)出的圖像顯著圖基礎(chǔ)上設(shè)置閾值并對(duì)顯著圖進(jìn)行二值化操作。在得到的二值化圖像中,具有有效值的區(qū)域代表的是顯著目標(biāo)區(qū)域;之后,利用二值化圖可以得到原圖像的顯著目標(biāo)圖。
設(shè)T為設(shè)定的初始閾值,灰度值大于T的為前景顯著區(qū)域,小于T的為背景非顯著區(qū)域。
w0:經(jīng)過(guò)閾值分割之后,前景域像素點(diǎn)個(gè)數(shù)和整個(gè)圖像像素點(diǎn)個(gè)數(shù)的比值
u0:經(jīng)過(guò)閾值分割之后,圖像中前景區(qū)域像素點(diǎn)的平均灰度
w1:經(jīng)過(guò)閾值分割之后,背景域像素點(diǎn)個(gè)數(shù)和整個(gè)圖像像素點(diǎn)個(gè)數(shù)的比值
u1:經(jīng)過(guò)閾值分割之后,圖像中背景域像素點(diǎn)的平均灰度
u=w0*u0+w1*u1:圖像的總平均灰度
其中,方差的計(jì)算公式如下:
為降低計(jì)算量提高效率,可將式(6)改進(jìn)為:
遍歷閾值T,使得T為某個(gè)值的時(shí)候,g值為最大值,即圖像中前景域和背景域的方差最大,此時(shí),該T值即為最佳閾值。通過(guò):
即可將圖像的顯著目標(biāo)區(qū)域提取出來(lái),完成的圖像目標(biāo)物體提取效果如圖3所示。
圖3 顯著目標(biāo)提取
其中,圖3中第一行為待處理圖像,第二行為本文提出的改進(jìn)的頻域協(xié)調(diào)顯著性檢測(cè)方法得到的顯著圖,第三行為利用了顯著圖閾值分割方法得到的顯著目標(biāo)提取效果圖,圖3第四行為待處理圖像的二值圖。可以看出,將本文提出的改進(jìn)的頻域協(xié)調(diào)顯著性檢測(cè)方法,應(yīng)用在圖像目標(biāo)提取領(lǐng)域可以有效地將輸入圖像中的顯著目標(biāo)提取出來(lái)。
本文對(duì)頻域協(xié)調(diào)顯著性檢測(cè)算法進(jìn)行了改進(jìn),并通過(guò)與原來(lái)算法以及Itti、CA算法的對(duì)比試驗(yàn),驗(yàn)證了改進(jìn)方法的有效性和可行性。在此基礎(chǔ)上提出了基于改進(jìn)的頻域協(xié)調(diào)算法的顯著目標(biāo)提取方法,能夠較好地將圖像中的顯著目標(biāo)從圖像中分離出來(lái)。
參考文獻(xiàn):
[1]Achanta R,Hemami S,Estrada F,et al.Frequency-Tuned Salient Region Detection[C].In Computer Vision and Pattern Recognition. 2009:1597-1604.
[2]Field D J.Relations Between the Statistics of Natural Images and the Response Properties of Cortical Cells[J].Journal of the Optical Society of America A Optics&Image Science,1987,4:2379-2394.
[3]Chen X and Wu Y.A Unified Approach to Salient Object Detection Via Low Rank Matrix Recovery[C].Conference on Computer Vision and Pattern Recognition,2012:853-860.
[4]Itti L,Koch C,and Niebur E.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J].IEEE Trans.Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[5]Goferman A S,L Zelnik-Manor,Tal A.Context-Aware Saliency Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(10):1915-1925.
[6]OTSU N.A Threshold Selection Method from Gray Level Histograms[J].IEEE Transaction on Systems.Man Cybernetics,1979,9(1): 62-66.
Detection and Application of Improved Frequency-Tuned Salient Region
LI Ping-na,WU Qing
(College of Computer Science and Engineering,Hebei University of Technology,Tianjin 300401)
In order to improve the efficiency and accuracy of the frequency-tuned salient region detection algorithm,first,proposes a modified Log-Gabor filter in place of the DOG filter so that the band-pass filtering effect can be better adapted to the natural scene image.Then,the color feature as priori information is fused to the frequency domain feature to improve the precision of the original model result with weak color contrast.Finally,the improved method is compared with the original frequency-tuned saliency detection algorithm,and it is applied to the automatic target extraction.
Frequency-Tuned;Saliency Detection;Color Feature;Target Extraction
1007-1423(2017)08-0077-04
10.3969/j.issn.1007-1423.2017.08.017
李平娜(1988-),女,河北石家莊人,碩士研究生,研究方向?yàn)閳D像處理與智能識(shí)別
2016-12-13
2017-03-10