楊國萍 劉本永
摘 ?要: 針對傳統(tǒng)GrabCut算法需要人工初始化而引起圖像分割效率低的問題,結(jié)合目標輪廓增強技術(shù),提出一種自動GrabCut算法。首先對圖像進行譜殘差計算,以獲取目標輪廓增強的視覺顯著圖;其次,對顯著圖進行預(yù)分割并通過快速連通區(qū)域分析進行前景估計并獲取掩膜,將獲取的掩膜代替人工交互初始化GrabCut算法,最后實現(xiàn)自動分割。實驗結(jié)果表明,該方法克服了手動的缺點,并在處理前后景顏色相似的圖像時,分割結(jié)果要優(yōu)于傳統(tǒng)方法。
關(guān)鍵詞:?圖像前后景分離;GrabCut算法;顯著圖;輪廓增強
中圖分類號: TP391????文獻標識碼:?A????DOI:10.3969/j.issn.1003-6970.2020.02.006
【Abstract】: The traditional GrabCut algorithm needs to be manually?initialized and thus it is inefficient in?image?foreground and background separation. Aiming at this problem,?we present?an automatic version,by combining target edge enhancement with the traditional GrabCut algorithm. Firstly, the saliency map with the target edge enhancement is obtained by acquiring the spectral residual of an image. Secondly, the foreground of the image?is estimated by adopting the?fast connected region analysis method?for achieving the mask and then?used to initialize the GrabCut to realize automatic segmentation. Experimental results show that the proposed algorithm surmount?the defects of manual operations, and the separation?results are better even?when the foreground and background of an image?are similar in color.
【Key words】: Image foreground and background separation; GrabCut algorithm; Saliency map; Edge enhancement
0??引言
圖像前背景分離[1]是計算機視覺的基礎(chǔ)環(huán)節(jié),其目的是把圖像中人們感興趣的區(qū)域(前景)從背景區(qū)域中提取出來,使圖像更加簡單、便于理解和分析。其效果好壞對后續(xù)圖像分析和圖像理解有著重要影響,因此提高圖像分離效率和精度具有重要意義。
現(xiàn)有圖像分離方法一般采用傳統(tǒng)圖像分割方法實現(xiàn),其種類較多,主要分為監(jiān)督分割法[2,3]、非監(jiān)督分割法[4,5]和交互式分割法[6-8]。其中交互式方法借助于人工介入,以提高分割準確性。Rother等提出
的GrabCut算法具有簡潔的交互性及較為理想的分割結(jié)果[9],因此該方法在圖像前后景分離中具有廣泛的應(yīng)用。但是該方法存在需要人工介入進行初始化的缺點,因此國內(nèi)外學(xué)者展開對GrabCut自動化改進算法的研究[10-12]。Pourjam通過主動形狀模型(Active Shape Model, ASM)訓(xùn)練得到感興趣目標的輪廓位置[13],但是其分離結(jié)果受限于訓(xùn)練模型的選取。王告等人采用K-means算法獲取目標區(qū)域并進行GrabCut初始化[14],具有良好的分離結(jié)果,但是當感興趣目標與背景顏色相近時,該算法容易對目標產(chǎn)生錯誤的判定,造成較差的分離結(jié)果。
人類視覺系統(tǒng)檢測視覺顯著性[15]的能力非常快速且可靠,依靠這種視覺顯著性機制可在觀察場景時從大量的信息中快速找到自己感興趣的區(qū)域,因此,視覺顯著性機制和傳統(tǒng)的圖像分割方法相結(jié)合[16]可以使人工交互的分割方法變成非監(jiān)督分割方法。在獲取圖像顯著區(qū)域方法的研究中,Itti和Koch提出的顯著圖為一幅亮度分布圖[17],它與原圖像大小相同,并且以亮度大小表示原圖像中對應(yīng)位置的顯著性程度,后來Walther[18]等對該顯著性模型進行了擴充,并且成功應(yīng)用于目標識別。Hou等人提出譜殘差模型,通過圖像頻譜相減和Fourier逆變換獲取輪廓增強后的顯著區(qū)域[19],該方法具有簡單快速的優(yōu)點。
針對以上問題,本文提出結(jié)合目標輪廓增強的自動GrabCut算法,該方法不需要人工交互,不僅能夠?qū)崿F(xiàn)圖像的自動前后景分離,還能夠解決已有算法在處理前后景顏色相近的圖像時無法有效進行前后景分離的問題。
Gibbs函數(shù)反映像素對于前景、背景的符合程度,還是判斷一幅圖像相鄰像素之間相似程度的標準。如果像素被賦予了一個更加接近真實的標簽,結(jié)果會使總能量函數(shù)減小,因此可以將圖像分割問題轉(zhuǎn)化為二元劃分問題,由模型參數(shù)的迭代來實現(xiàn)能量最小化,再用最大流最小分割方法求取有向圖的最優(yōu)解,得到分割結(jié)果。
3 ?改進的自動GrabCut圖像分割
綜合SR算法與原始GrabCut分割方法,提出基于目標輪廓增強的自動GrabCut分割方法,步驟如下:
(1)采用譜普殘差算法對圖像進行處理,獲取目標輪廓增強的顯著圖。
(2)采用γ變換[23]對顯著圖進行圖像增強處?理,用自適應(yīng)閾值法[24]進行二值化處理。
(3)經(jīng)過二值化處理后的圖像會出現(xiàn)空洞而影響后續(xù)的操作,采用形態(tài)學(xué)進行處理。
(4)對形態(tài)學(xué)處理后的二值圖像進行連通區(qū)域分析,自動獲取目標區(qū)域最小外接矩陣及矩陣四角的點坐標。
(5)根據(jù)獲取的目標位置信息在原圖像上進行GrabCut算法的初始化,得到分割結(jié)果。
各個步驟具體效果如圖1所示。
4??對比實驗
將傳統(tǒng)的GrabCut方法與所提方法進行比較,對比結(jié)果如圖2所示。比較第(Ⅱ)列和第(III)列,可以看出所提方法能夠達到原始的GrabCut算法分離效果,同時,在實驗中發(fā)現(xiàn),由于人工選取掩膜時存在人為因素的影響,如框取區(qū)域太大,可能使得分割結(jié)果未能達到預(yù)期效果。所提方法較好地解決了此類問題。
如圖3,第(1)列是原圖像,第(2)列是[6]中用K-means聚類方法對圖像內(nèi)像素進行二分類,第(3)列為[6]中方法(以下稱為KM-G)經(jīng)過形態(tài)學(xué)處理后的二值圖,第(4)列是所提方法獲取輪廓增強后的顯著圖,第(5)列是所提方法形成的二值圖。所提方法主要利用形成的二值圖進行目標區(qū)域標注和初始化GrabCut,KM-G方法用K-means算法對圖像進行預(yù)分割,同樣利用形成的二值圖進行目標區(qū)域標注和初始化GrabCut算法,因此獲取目標二值圖的完整程度對后續(xù)的分割有重要影響,由第(3)列和第(5)列可以看出,[6]的方法在處理簡單并且前后景顏色差異較大的圖像時,具有較優(yōu)的效果,但是在處理前后景顏色相近的圖像時,所提方法獲取目標二值圖要優(yōu)于KM-G方法,可以更好地獲取目標區(qū)域。表1表示兩種算法分別處理200張前后景顏色相近圖像(SC)和200張前后景顏色差異較大的圖像(DC)時計算平均準確率和平均召回率的對比結(jié)果。
其中,召回率越高,表示目標被分割的越完整,而準確率越高,表示分割的結(jié)果中所含的背景部分越少,由表1可以看出,本文所提方法在處理前后景顏色相近的圖像時,擁有更高的召回率和準確率,
表明本文所提方法在處理前后景顏色相近的圖像時,圖像分割效果明顯優(yōu)于已有的算法。
5??結(jié)語
圖像分割一直都是模式識別和圖像處理領(lǐng)域的熱門研究課題,傳統(tǒng)的GrabCut分割需要人機交互,效率較低。針對此問題,提出了一種基于目標輪廓增強的自動GrabCut算法。首先利用SR算法對目標輪廓增強,獲取感興趣目標的粗略位置,然后經(jīng)過形態(tài)學(xué)獲得二值化圖像,再進行連通區(qū)域分析得到初始化掩膜,最后用獲取的掩膜在原圖中對GrabCut算法初始化,得到最終的分離結(jié)果。本文所提算法實現(xiàn)了GrabCut算法自動化,對背景簡單的圖像有較好的前后景分離效果,且在處理前后景顏色相近的簡單背景圖像時,效果要優(yōu)于已有的一些算法。但是對于復(fù)雜圖像的處理效果較差,在后續(xù)的實驗中還需要進一步改進。
參考文獻
丁亮, 張永平, 張雪英. 圖像分割方法及性能評價綜述[J]. 軟件, 2010, 31(12): 78-83.
Arbeláez P, Maire M, Fowlkes C, Malik J. Contour detection and hierarchical image segmentatio-n. [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(5).
姜全春, 王寧, 李雷, 蔣林華. 一種新的基于超像素聚類的圖像分割算法[J]. 軟件, 2019, 40(06): 44-48.
李 健, 牛振山. 基于第2代 Curvelet的非監(jiān)督式紋理缺陷分割[J]. 中國圖象圖形學(xué)報, 2011, 16(10): 1812-1817.
陳潔, 胡永, 劉澤國. 基于標記的分水嶺圖像分割算法研究[J]. 軟件, 2012, 33(9): 115-117.
Jifeng Ning, Lei Zhang, David Zhang, Chengke Wu. Interactive image segmentation by maximal similarity based region merging[J]. Pattern Recognition, 2009, 43(2).
李斌, 李蓉, 周蕾. 分布式K-means聚類算法研究與實現(xiàn)[J]. 軟件, 2018, 39(01): 35-38.
王棟, 唐晶磊. 一種改進的One-Cut交互式圖像分割算法[J]. 計算機工程與科學(xué), 2018, 40(06): 1111-1118.
Rother C. GrabCut: Interactive foreground extraction using iterated graph cuts[J]. Proceedings of SIGGRAPH '04, 2004, 23.
劉輝, 石小龍, 漆坤元, 等. 融合深度信息的Grabcut自動圖像分割[J]. 小型微型計算機系統(tǒng), 2018, 39(10): 2309-?2313.
梁耀, 黎雙文, 劉鑫磊, 李豐果. 復(fù)雜背景下目標樹葉自動分割的GrabCut算法[J]. 華南師范大學(xué)學(xué)報(自然科學(xué)
版), 2018, 50(06): 112-118.
陳駿, 劉曉利. 基于分形的改進Grabcut目標自動分割[J]. 計算機工程與應(yīng)用, 2017, 53(01): 163-167+177.
Pourjam E, Ide I, Deguchi D, et al. Segmentation of human instances using grab-cut and active shape model feedback[C]//?MVA. IAPR Intern-ational Conference on Machine Vision Appli-cations. Kyoto: MVA, 2013: 77-80.
王告, 俞申亮, 巨志勇, 馬素萍. 一種改進Grabcut算法的彩色圖像分割方法[J]. 軟件導(dǎo)刊, 2019, 18(06): 171-175+2.
王文冠, 沈建冰, 賈云得. 視覺注意力檢測綜述[J]. 軟件學(xué)報, 2019, 30(02): 416-439.
張巧榮, 景麗, 肖會敏, 等. 利用視覺顯著性的圖像分割方法[J]. 中國圖象圖形學(xué)報, 2011, 16(5): 767-772.
Itti L, Koch C, Niebur E. A model of saliencybased visual attention for rapid scene analysis[J]. IEEE Trans-actions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
Walther D, Itti L, Riesenhuber M, et al. Attentional Selection for Object Recognition - a Gentle Way[M]//Biologically Motivated Compu-ter Vision. Springer Berlin Heidelberg, 2002.
Hou Xiaodi, Zhang Liqing. Saliency detection: a spectral residual approach[C]//Computer Vision and Pattern Recognition, 2007: 1-8.
BOYKOV Y, JOLLY M P. Interactive graphcuts for optimal boundary and region segmentation of objectsin N-D images[C]//IEEE International Conference on Computer Vision, 2001: 105-112.
Blake A, Rother C, Brown M, et al. Interactive Image Segmentation Using an Adaptive GMMRF Model[M]//?Computer Vision - ECCV 2004. Springer Berlin Heidelberg, 2004.
Wren C R, Azarbayejani A, Darrell T, et al. Pfinder: Real-?time tracking of the human body[J]. IEEE Transactions on Pattern?Analysis & Machine Intelligence, 1997, 19(7): 780-785.
朱錚濤, 蕭達安. 基于非線性調(diào)整的伽馬校正圖像增強算法[J]. 計算機工程與設(shè)計, 2018, 39(09): 2822-2826+2866.
郭璇, 鄭菲, 趙若晗, 等. 基于閾值的醫(yī)學(xué)圖像分割技術(shù)的計算機模擬及應(yīng)用[J]. 軟件, 2018, 39(3): 12-15.