国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種韓國(guó)禮服圖像的內(nèi)外廓形提取算法

2022-03-29 23:05高婷莊梅玲石歷麗劉靜王敬雪
現(xiàn)代紡織技術(shù) 2022年2期
關(guān)鍵詞:圖像識(shí)別

高婷 莊梅玲 石歷麗 劉靜 王敬雪

摘 要:為了實(shí)現(xiàn)韓國(guó)傳統(tǒng)禮服款式的信息化,針對(duì)韓國(guó)禮服高腰大擺的A字廓型和服飾用色搭配較相近的特點(diǎn),對(duì)韓國(guó)禮服圖像采用了內(nèi)外廓型分別提取的方法。在外輪廓識(shí)別中,采用角度θ和長(zhǎng)度c交叉的線形結(jié)構(gòu)形態(tài)學(xué)算法進(jìn)行外輪廓提取,并通過(guò)二元方差分析對(duì)雙因子的影響結(jié)果進(jìn)行客觀評(píng)價(jià),結(jié)合主觀視覺(jué)效果,得出最優(yōu)外輪廓的組合參數(shù)θ=10°,c=9;對(duì)于對(duì)比度較低的內(nèi)部飾品輪廓識(shí)別,設(shè)計(jì)CLAHE算法進(jìn)行圖像增強(qiáng),采用K-Means聚類算法進(jìn)行領(lǐng)飾圖像分割,再用矩形法賦值和基于插值的局部放大修復(fù)算法進(jìn)行填充修復(fù),最后用canny算法進(jìn)行輪廓提取得出內(nèi)部領(lǐng)飾輪廓圖。結(jié)果表明:內(nèi)外組合的輪廓提取算法可達(dá)到主觀視覺(jué)和客觀邊界長(zhǎng)度評(píng)價(jià)下的最優(yōu)效果,是適合韓國(guó)禮服圖像特點(diǎn)的有效算法。

關(guān)鍵詞:韓國(guó)禮服;圖像識(shí)別;線形結(jié)構(gòu)形態(tài)學(xué);CLAHE;K-Means

中圖分類號(hào):TS941.2

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1009-265X(2022)02-0197-11

收稿日期:20210303 網(wǎng)絡(luò)出版日期:20210708

基金項(xiàng)目:青島大學(xué)研究項(xiàng)目(JXGG2019080);陜西省科技廳項(xiàng)目(2016FP-07)

作者簡(jiǎn)介:高婷(1996-),女,山東臨沂人,碩士研究生,主要從事服裝與服飾數(shù)字化方面的研究。

通信作者:莊梅玲,E-mail:zmlqdu@126.com

An algorithm for extracting inner and outer contours of korean dress images

GAO Ting1, ZHUANG Meiling1, SHI Lili2, LIU Jing1, WANG Jingxue1

(1.College of Textiles & Clothing, Qingdao University, Qingdao 266071, China;

2.Clothing Department, Xi'an Academy of Fine Arts, Xi'an 710065, China)

Abstract: In order to achieve the informatization of the styles of traditionalKorean dresses, this paper extracts the inner and outer contours ofKorean dress images respectively, in view of the characteristics ofKorean dresses, that is, A-shaped contour with high waist and large hemline and similar color collocation in dress. During the recognition of outer contour, the outer contour is extracted using the linear structure morphology algorithm of angle θ and length c, and the effect of two factors was evaluated in an objective way through a binary variance analysis. Combined with the subjective visual effect, the optimal combined parameters for outer contour were obtained: θ=10°, c=9. For the recognition of inner contours of accessories with low contrast, a CLAHE algorithm was designed to enhance image. Secondly, K-means clustering algorithm was adopted to segment the collar image, and then rectangular assignment and local zoom repair algorithm based on interpolation were adopted for filling and repairing. Finally, Canny algorithm was used to extract contours and get the inner contour of collar. The experimental results indicate that the extraction method integrating inner and outer contours can achieve the best effect under subjective vision and objective evaluation of boundary length. It is an effective algorithm for the characteristics ofKorean dress images.

Key words: Korean dress; image recognition; linear structure morphology; CLAHE; K-Means

中韓兩國(guó)地理相鄰,自中國(guó)隋唐以來(lái),兩國(guó)文化交流就非?;钴S。韓國(guó)傳統(tǒng)禮服隨著時(shí)代的發(fā)展,印刻了獨(dú)特的文化烙印,因而研究韓國(guó)禮服款型的特點(diǎn),可從中吸取韓國(guó)傳統(tǒng)服裝文化的經(jīng)驗(yàn),從而更好地弘揚(yáng)本民族服飾文化。對(duì)韓國(guó)傳統(tǒng)禮服進(jìn)行數(shù)字化款式提取,實(shí)現(xiàn)傳統(tǒng)禮服款式信息的數(shù)據(jù)化,能夠儲(chǔ)存禮服信息實(shí)現(xiàn)數(shù)字化保護(hù),還有利于傳統(tǒng)文化的數(shù)字化保留記載,同時(shí)能夠增強(qiáng)中韓兩國(guó)服飾文化交流。

韓國(guó)禮服由寬松短衣和高腰長(zhǎng)裙組成。短衣前面交錯(cuò),由長(zhǎng)帶結(jié)成蝴蝶結(jié)系住,短上衣的長(zhǎng)度剛好到達(dá)胸部位置,腰部收緊,袖口寬松,體現(xiàn)女性的曲線之美;高腰長(zhǎng)裙系在胸部,長(zhǎng)裙蓬松,長(zhǎng)度較長(zhǎng),體現(xiàn)出了女子的端莊典雅[1]。目前存在的服裝輪廓提取算法主要是一些通用算法,比如傅里葉描述子輪廓特征提取算法、形態(tài)學(xué)處理算法等。傅里葉描述子輪廓特征提取算法使用預(yù)選的特征向量表示整個(gè)服裝輪廓,但提取的輪廓受所選擇的特征向量的影響明顯[2-3]。形態(tài)學(xué)處理算法主要針對(duì)有特殊造型的目標(biāo)處理,選擇合適的結(jié)構(gòu)元素進(jìn)行腐蝕膨脹等處理,從而獲得外輪廓,優(yōu)點(diǎn)是算法效率很高。如An 等[4] 對(duì)服裝圖像進(jìn)行形態(tài)學(xué)處理,獲得服裝外部輪廓邊緣;何曉軍等[5]提出一種結(jié)合模糊相似性的彩色形態(tài)學(xué)圖像處理方法。對(duì)于本研究的韓國(guó)禮服外輪廓,其外觀形態(tài)為相對(duì)簡(jiǎn)單的流線造型,形態(tài)學(xué)處理算法將是非常適合的,研究將結(jié)合A字型輪廓,設(shè)計(jì)線形結(jié)構(gòu)形態(tài)學(xué)算法并驗(yàn)證最佳參數(shù)進(jìn)行外輪廓提取。

對(duì)比外輪廓,韓國(guó)禮服的內(nèi)部細(xì)節(jié)非常豐富,有腰線、領(lǐng)飾、腰飾、門(mén)襟、分割線及裙擺上的褶、裥等設(shè)計(jì);并且韓服的整體色調(diào)相對(duì)淡雅,在色彩、明度、灰度差異不明顯,獲取的圖像清晰程度不高的情況下,增加了內(nèi)部廓型識(shí)別的難度,因此需要對(duì)禮服圖像進(jìn)行增強(qiáng)預(yù)處理。CLAHE(Contrast limited adaptive histogram equalization)算法[6]能有效的避免傳統(tǒng)的直方圖均衡化算法導(dǎo)致均衡化后的圖像具有明顯的塊狀分界問(wèn)題。CLAHE算法通過(guò)對(duì)比度限幅,圖像增強(qiáng)效果更好,且特別適用于低對(duì)比度圖像[7-9]。因此設(shè)計(jì)基于CLAHE算法對(duì)韓國(guó)禮服圖像進(jìn)行圖像增強(qiáng)預(yù)處理,增加對(duì)比度以便進(jìn)行內(nèi)部飾品輪廓的提取。

為了有效提取帶有特殊廓形特點(diǎn)的A字型服裝圖像,本文以韓國(guó)禮服圖像為例,采用了內(nèi)外廓型分別提取的方法,能夠有效地提取韓國(guó)禮服的整體輪廓。

1 算法設(shè)計(jì)思路

韓國(guó)禮服特點(diǎn):上衣短薄輕盈,下裙長(zhǎng)厚質(zhì)樸,腰線高達(dá)胸圍線,整體廓形呈現(xiàn)A字型;并且與歐美禮服在款式上通過(guò)夸張肩部、收緊腰部、擴(kuò)大底擺獲得X廓形,以及中式旗袍通過(guò)結(jié)構(gòu)設(shè)計(jì)整體造型呈現(xiàn)S型的廓形,形成明顯差異;并且韓國(guó)禮服用色講究淡雅,色彩對(duì)比度不高,所以在廓型及內(nèi)部細(xì)節(jié)的提取上有其獨(dú)特的需求。對(duì)于韓國(guó)禮服廓型的提取包括外部廓型和內(nèi)部飾品廓型提取2部分:外部廓型呈現(xiàn)流線型造型;而內(nèi)部的廓型提取涉及韓國(guó)色彩的弱對(duì)比,并且由于韓國(guó)禮儀中女性站立或坐立時(shí)雙手合攏在胸前,導(dǎo)致獲取的服裝圖像幾乎都存在遮擋導(dǎo)致服裝內(nèi)部不連續(xù)問(wèn)題,所以算法的設(shè)計(jì)對(duì)內(nèi)外輪廓分別進(jìn)行。

本研究的算法流程如圖1所示,根據(jù)韓國(guó)禮服高腰大擺的A字型外輪廓和用色相近的內(nèi)部飾品特點(diǎn),將韓國(guó)禮服的整體款型分成2部分進(jìn)行分別識(shí)別提?。篴)外輪廓提取算法;b)內(nèi)輪廓提取算法。首先,對(duì)輸入的韓國(guó)禮服圖像進(jìn)行外輪廓形態(tài)學(xué)處理,提取外輪廓;其次,采用CLAHE算法對(duì)韓國(guó)禮服圖像進(jìn)行圖像增強(qiáng);然后,使用K-Means聚類算法[10]進(jìn)行內(nèi)部領(lǐng)飾圖像分割;再用矩形法賦值和插值算法進(jìn)行填充修復(fù);最后將修復(fù)后的內(nèi)部領(lǐng)飾圖像用canny算法進(jìn)行輪廓提取。

2 基于線形結(jié)構(gòu)形態(tài)學(xué)的外輪廓提取算法

形態(tài)學(xué)圖像處理(簡(jiǎn)稱形態(tài)學(xué))是指一系列處理圖像形狀特征的圖像處理技術(shù)。形態(tài)學(xué)的基本思想是利用一種特殊的結(jié)構(gòu)元素來(lái)測(cè)量或提取輸入圖像中相應(yīng)的形狀或特征,以便進(jìn)一步進(jìn)行圖像分析和目標(biāo)識(shí)別[11]。因而結(jié)構(gòu)元素是形態(tài)學(xué)操作的關(guān)鍵,結(jié)構(gòu)元素的形狀與大小會(huì)直接影響目標(biāo)圖像的形態(tài)運(yùn)算結(jié)果。常見(jiàn)的結(jié)構(gòu)元素有矩形、圓形、橢圓形、菱形、線性、八邊形、三角形等[12]。實(shí)際應(yīng)用中,選擇與識(shí)別對(duì)象的輪廓更為相近的結(jié)構(gòu)元素,有利于提高所識(shí)別輪廓的準(zhǔn)確性。像圓形、橢圓形這類弧狀結(jié)構(gòu)主要適合于邊緣也趨向于曲線、棱角不分明的目標(biāo)輪廓識(shí)別[13]。以圖2的韓國(guó)禮服為實(shí)例,與其它禮服相比,在整體輪廓上更趨向于A型,禮服外輪廓形態(tài)學(xué)分析如圖3所示,輪廓上任一點(diǎn)P,過(guò)P點(diǎn)做輪廓的切線m基本上是保持與附近輪廓貼近的狀態(tài),隨著輪廓的變化,切線m的傾斜角θ會(huì)隨之變動(dòng),變化數(shù)值在[0,90°]范圍內(nèi),同時(shí)點(diǎn)P附近與切線m的貼近元素的數(shù)量可以通過(guò)長(zhǎng)度c來(lái)表征。角度θ和長(zhǎng)度c兩個(gè)變量決定著識(shí)別的精度,所以選擇線性的結(jié)構(gòu)元素變化角度θ和長(zhǎng)度c兩個(gè)變量,設(shè)計(jì)算法進(jìn)行韓國(guó)禮服的外輪廓識(shí)別。

基于上述思路,對(duì)圖2的韓國(guó)禮服圖像進(jìn)行外輪廓識(shí)別算法設(shè)計(jì)。算法中對(duì)兩個(gè)變量:角度θ和長(zhǎng)度c進(jìn)行交叉組合設(shè)計(jì)線性結(jié)構(gòu)元素,對(duì)圖2目標(biāo)識(shí)別。識(shí)別的精度從主觀和客觀兩方面進(jìn)行評(píng)價(jià)。主觀方面主要是通過(guò)人眼的視覺(jué)效果評(píng)價(jià),而客觀評(píng)價(jià)指標(biāo)是采用邊界長(zhǎng)度L,L為所提取的圖像邊緣的像素個(gè)數(shù)。L的計(jì)算方法如下:a)把目標(biāo)圖像轉(zhuǎn)化為二值化圖像,二值化圖像中白色區(qū)域即為目標(biāo)圖像中邊界;b)計(jì)算二值化圖像中白色點(diǎn)的個(gè)數(shù)即為L(zhǎng)值。

2.1 線形結(jié)構(gòu)形態(tài)學(xué)算法設(shè)計(jì)

對(duì)圖2的韓國(guó)禮服圖像進(jìn)行外輪廓識(shí)別的線形結(jié)構(gòu)形態(tài)學(xué)算法設(shè)計(jì)如下:

a)輸入圖像A(x,y),選擇線形結(jié)構(gòu)元素b(θ, c),對(duì)A(x,y)進(jìn)行腐蝕;

b)θ 0=0,以Δθ=10°進(jìn)行遞增,θ ∈[0,90°];c 0=0,以Δc=1進(jìn)行遞增;

c)對(duì)圖像A(x,y)外輪廓進(jìn)行腐蝕,得到腐蝕圖a(x,y)=A(x,y) Θ b(θ, c);

d)圖像輪廓A L=A(x,y)-a(x,y),輸出邊界圖像并計(jì)算L。

2.2 雙因素影響客觀分析

基于上述算法,對(duì)角度θ和長(zhǎng)度c雙因子設(shè)計(jì)交叉實(shí)驗(yàn),如表1所示。

對(duì)雙因素的影響進(jìn)行二元方差分析:根據(jù)雙因素方差分析原理對(duì)線形結(jié)構(gòu)元素長(zhǎng)度和角度對(duì)邊界長(zhǎng)度L的100組數(shù)據(jù)進(jìn)行方差分析,結(jié)果見(jiàn)表2。由表2可以看出:在顯著性水平α=0.05的情況下,F(xiàn) 0.05(9,81)=2。F c=99.27遠(yuǎn)大于臨界值2,因此因素c在本試驗(yàn)中影響效果極顯著;F θ=2.7787大于臨界值2,因此因素θ在本試驗(yàn)中影響效果顯著。即線形結(jié)構(gòu)元素長(zhǎng)度和角度對(duì)邊界長(zhǎng)度L的影響都顯著,且線形結(jié)構(gòu)元素長(zhǎng)度c對(duì)L的影響更明顯,而線形結(jié)構(gòu)元素角度θ對(duì)邊界長(zhǎng)度L的影響程度次之。

然后,通過(guò)將自變量-角度θ、長(zhǎng)度c對(duì)因變量-邊界長(zhǎng)度L的影響變化通過(guò)繪制三維圖,進(jìn)行更加形象化的分析,見(jiàn)圖4。而θ和c對(duì)L的單因素影響規(guī)律通過(guò)圖5顯示。

從圖4中發(fā)現(xiàn):隨著c的增加,輸出圖像的邊界長(zhǎng)度L也增加;而隨著θ的增加,輸出圖像的邊界長(zhǎng)度L值波動(dòng),沒(méi)有明顯正相關(guān)或負(fù)相關(guān);最終在θ=10°且c=9時(shí)L數(shù)最高為1000。

圖5的單因素影響表明:在長(zhǎng)度一定時(shí),0°<θ<60°時(shí),θ的影響比較平緩,而當(dāng)60°<θ≤80°,隨著θ的增加輸出圖像的邊界長(zhǎng)度L反而減小,在θ=80°時(shí),L達(dá)到最小,而后增加。

2.3 實(shí)驗(yàn)結(jié)果人眼視覺(jué)效果評(píng)價(jià)

將角度θ、長(zhǎng)度c在不同數(shù)值下的邊緣輪廓進(jìn)行提取。其中選擇c=9時(shí),θ從0~90°進(jìn)行實(shí)驗(yàn),處理圖像如圖6所示。選擇θ=10°時(shí),c從3~9的處理圖像如圖7所示。

通過(guò)人眼視覺(jué)從圖6和圖7中可清晰地看出圖像的明暗以及邊緣的粗細(xì)變化:a)在圖6中,隨著θ的增加,長(zhǎng)裙兩側(cè)邊緣線漸細(xì),而底部邊緣線漸粗,在θ=0°、θ=10°、θ=20°時(shí),圖像邊緣線更清晰,圖像也更明亮,在θ≥30°時(shí),圖像邊緣線明顯變細(xì),在θ=90°時(shí),圖像邊緣線最不清晰,且圖像最暗;b)在圖7中,當(dāng)長(zhǎng)度c過(guò)小時(shí),輸出圖像邊界不連續(xù);隨著c的增加,圖像長(zhǎng)裙底部的邊緣線漸粗且圖像亮度逐步增加,在c=3時(shí),輸入圖像邊緣線最不清晰且圖像最暗,在c=9時(shí),輸入圖像邊緣線最為清晰且圖像最為明亮。最后結(jié)合客觀評(píng)價(jià)得出最優(yōu)外輪廓的組合參數(shù)為θ=10°,c=9。

2.4 與其它邊界檢測(cè)算法的對(duì)比

為了驗(yàn)證本算法的有效性,又選擇了多幅韓國(guó)禮服圖像進(jìn)行處理,處理結(jié)果如圖8第1列所示,發(fā)現(xiàn)本算法提取的韓國(guó)禮服外輪廓都是比較清晰連續(xù)的。同時(shí)為了進(jìn)一步分析本文算法的優(yōu)勢(shì),將本文的5副韓國(guó)禮服圖像用本文算法和傳統(tǒng)的3種邊緣識(shí)別算法(sobel算子、roberts算子和canny算子)分別進(jìn)行處理,對(duì)處理結(jié)果進(jìn)行對(duì)比,見(jiàn)圖8。通過(guò)

圖8(b)—(e)結(jié)果對(duì)比,可發(fā)現(xiàn):sobel算子和roberts算子提取后的韓國(guó)禮服圖像邊緣是不連續(xù)的;canny算子屬于二階微分算子,提取后的圖像噪聲偏多,邊界與內(nèi)部噪聲混在一起,也存在著間斷不連續(xù)問(wèn)題。相比之下,本文的線形結(jié)構(gòu)形態(tài)學(xué)算法提取的外輪廓清晰且連續(xù),由此證明本文算法對(duì)于韓國(guó)禮服這種具有流線型外輪廓的服裝圖像具有更好的識(shí)別效果。

3 內(nèi)輪廓提取算法

本研究的韓國(guó)禮服圖像由于用色非常相近,所以存在著禮服裙與內(nèi)部領(lǐng)飾之間在灰度上非常接近,對(duì)比度不明顯,單純的轉(zhuǎn)化為灰度圖像導(dǎo)致飾品和禮服裙融為一體,難以提取飾品的輪廓,這也是韓國(guó)禮服飾品用色的突出特點(diǎn)。同時(shí),手臂的遮擋引起了飾品輪廓的間斷性也是需要重點(diǎn)解決的問(wèn)題。故設(shè)計(jì)了CLAHE算法首先增強(qiáng)圖像色彩間的對(duì)比度;再通過(guò)K-Means顏色聚類分割算法將領(lǐng)帶圖像分割出來(lái);最后用賦值和插值算法填充修補(bǔ)領(lǐng)帶中被手臂遮擋的區(qū)域。

3.1 基于CLAHE算法的禮服圖像增強(qiáng)

針對(duì)所處理的圖像中禮服裙與內(nèi)部領(lǐng)飾之間的對(duì)比度較低,很難識(shí)別出領(lǐng)飾輪廓的特點(diǎn),采用CLAHE算法進(jìn)行圖像增強(qiáng)處理。算法采用遞歸并通過(guò)增強(qiáng)局部區(qū)域的對(duì)比度,從而增強(qiáng)圖像局部細(xì)節(jié)的可視性。針對(duì)明度相近色相不同的韓國(guó)禮服圖像內(nèi)部細(xì)節(jié)的輪廓識(shí)別,運(yùn)用CLAHE算法增強(qiáng)禮服裙與配飾領(lǐng)帶之間的對(duì)比度,從而更容易提取領(lǐng)帶的輪廓。

算法步驟:

a)圖像分塊,將輸入圖像分為大小相等的n×m個(gè)不重疊子塊;計(jì)算每個(gè)子塊的高度H Size和寬度W Size.

b)繪制子塊的直方圖F i(g)(i=1,2,……,n×m),并求出子塊i出現(xiàn)的灰度級(jí)數(shù)H i,其中g(shù)為子塊i的灰度級(jí),g∈[0,H i-1].

c)計(jì)算限制閾值ClipLimit:

對(duì)限制閾值賦初值ClipLimit (0),按照式(1)求各子塊i的限制閾值ClipLimit (i),(i=1,2,……,n×m)

ClipLimit (i)=ClipLimit (0)×H Size×W SizeH i(1)

d)修剪直方圖

對(duì)每個(gè)子塊,使用ClipLimit (i)值進(jìn)行剪切,將剪切下來(lái)的像素?cái)?shù)目重新分配到直方圖的各灰度級(jí)中,有

totalExcess= ∑Hi-1g=0 (max(F i(g)-ClipLimit (i),0))(2)

avgBinIncr=totalExcessH i(3)

式中totalExcess是指超過(guò)ClipLimit (i)的像素值總數(shù);avgBinIncr是指直方圖中平均每個(gè)灰度級(jí)增加的像素?cái)?shù)。F i(g)(i=1,2,……,n×m)為經(jīng)重分配處理后的直方圖。

e)直方圖均衡,對(duì)F i(g)(i=1,2,……,n×m)進(jìn)行直方圖均衡化處理,均衡結(jié)果用H i(g)(i=1,2,……,n×m)表示。

f)像素點(diǎn)灰度值重構(gòu),根據(jù)H i(g)(i=1,2,……,n×m),得到每個(gè)子塊中心像素點(diǎn)的灰度值,將它們作為參考點(diǎn),采用雙線性插值技術(shù)進(jìn)行處理,如圖9所示,以P點(diǎn)為中心,計(jì)算四鄰域位置上的四個(gè)像素點(diǎn)A、B、C、D點(diǎn)的灰度大小,分別從0°方向和90°方向進(jìn)行圖像插值,通過(guò)兩個(gè)方向插值后呈線性組合方式確定待插值像素的灰度值。計(jì)算輸出圖像中各點(diǎn)的灰度值。

算法仿真:

設(shè)置參數(shù)n=4,m=6,賦初值ClipLimit (0)=2.5對(duì)圖2圖像,運(yùn)用CLAHE算法編程處理,以子塊i=2為例說(shuō)明仿真結(jié)果:計(jì)算ClipLimit (2)=27.43?;贑lipLimit (2)通對(duì)子塊2進(jìn)行裁剪,剪切的直方圖如圖10所示;將剪切下來(lái)的像素重新分配到子塊2的直方圖各灰度級(jí)中,重新進(jìn)行直方圖均衡,均衡結(jié)果見(jiàn)圖11(b);對(duì)均衡后的子塊2進(jìn)行插值重構(gòu)。其余的子塊采用同樣方法,將處理后的各子塊重新進(jìn)行組合,結(jié)果見(jiàn)圖12(b)。

通過(guò)圖12(a)與經(jīng)過(guò)CLAHE算法處理后的效果圖12(b)對(duì)比發(fā)現(xiàn):經(jīng)過(guò)CLAHE算法處理后的禮服裙中,原本灰度非常接近的裙身和領(lǐng)飾變得更易區(qū)分,二者的交界處顏色差異較原圖更明顯;裙身中的暗紋也較原圖更清晰可見(jiàn),為后續(xù)通過(guò)圖像分割進(jìn)行領(lǐng)飾輪廓的有效提取奠定了基礎(chǔ)。

3.2 基于K-Means的領(lǐng)帶圖像分割

為了提取圖像中領(lǐng)飾的輪廓,采用K-Means算法進(jìn)行圖像分割。K-Means聚類算法是一種典型的局域距離聚類算法,通過(guò)最小化n個(gè)樣本和聚類中心C K之間的距離之和,來(lái)達(dá)到將n個(gè)樣本劃分到k個(gè)簇中的目的[14]?;贙-Means聚類算法的圖像分割是將輸入圖像的像素值作為樣本的數(shù)據(jù)值,依據(jù)事先設(shè)定的K值進(jìn)行聚類,之后用每個(gè)對(duì)應(yīng)的聚類中心替代輸入圖像的像素點(diǎn),最后重構(gòu)此圖像[15]。

算法步驟:

a)輸入圖像和K值;

b)在輸入圖像中隨機(jī)選取K個(gè)初始的聚類中心;

c)計(jì)算輸入圖像中每個(gè)像素點(diǎn)到所有的初始聚類中心的歐式距離,然后根據(jù)最小的距離對(duì)每個(gè)像素點(diǎn)進(jìn)行重新劃分;

d)重新計(jì)算聚類的均值作為新的聚類中心;

e)循環(huán)步驟c)~d),直到聚類中心不再變化;

f)輸出分割結(jié)果。

算法仿真:

根據(jù)圖12(b)圖像的顏色種類數(shù)設(shè)置參數(shù)K=4,對(duì)圖12(b)圖像,運(yùn)用K-Means算法編程處理,分割結(jié)果見(jiàn)圖13所示。

通過(guò)圖13發(fā)現(xiàn):禮服圖像中腰線以下的領(lǐng)飾被分割出來(lái),但同時(shí)由于手臂的遮擋,領(lǐng)帶中間存在部分空缺。這時(shí)需要繼續(xù)進(jìn)行圖像修復(fù)。

3.3 基于賦值插值的領(lǐng)帶圖像修復(fù)

對(duì)于K-Means算法分割后的領(lǐng)帶,由于手部的遮擋產(chǎn)生的部分空缺,需要進(jìn)行填充修復(fù)。分為兩個(gè)步驟:

步驟一:區(qū)域填充

將目標(biāo)圖像轉(zhuǎn)化為二值化圖像;空缺區(qū)域即為背景黑色(像素為0);整個(gè)領(lǐng)飾呈現(xiàn)上窄下寬的走向,以空缺區(qū)域上方像素為1的列寬n為矩形寬度,以空缺區(qū)域的間隔行數(shù)m為矩形長(zhǎng)度,設(shè)置填充矩形n×m,將對(duì)應(yīng)區(qū)域進(jìn)行像素為1的填充。根據(jù)圖像區(qū)域反復(fù)調(diào)整n,m的值進(jìn)行實(shí)驗(yàn),使填充區(qū)域盡可能充滿。

根據(jù)空間像素,分別以a:79×20,b:79×17,c:82×17,d:82×15的4個(gè)矩形進(jìn)行填充實(shí)驗(yàn),獲得如圖14的填充結(jié)果。

步驟二:基于插值的局部放大修復(fù)算法

通過(guò)填充圖發(fā)現(xiàn),矩形與圖的下方較寬邊緣存在鋸齒狀不吻合問(wèn)題,所以設(shè)計(jì)基于插值的局部放大修復(fù)算法進(jìn)行修復(fù)。

算法步驟:

a)輸入放大點(diǎn)的坐標(biāo)(pointx,pointy)、放大半徑r以及放大強(qiáng)度strength,則放大區(qū)域space=r×r;

b)分別計(jì)算放大區(qū)域的邊界點(diǎn)的坐標(biāo),如圖15所示;

left=pointx-r;right=pointx+r;top=pointy+r;bottom=poiny-r;x∈[left,right], y∈[top,bottom];

c)計(jì)算放大區(qū)域內(nèi)放大后點(diǎn)的坐標(biāo)(posx,posy),計(jì)算式如下:

scale=1-x-pointx2+y-pointy2space(4)

scale=1-strength/100×scale(5)

posx=x-pointx×scale+pointx(6)

posy=y-pointy×scale+pointy(7)

d)最后采用最近鄰插值法[16],將當(dāng)前放大點(diǎn)灰度值(posx,poxy)作為取樣點(diǎn)(x,y)的灰度值,遍歷放大區(qū)域內(nèi)所有像素點(diǎn),輸出局部放大后的圖像。

修復(fù)算法仿真:

設(shè)置參數(shù)pointx=80,pointy=20,r=8,strength=80,對(duì)圖15圖像,運(yùn)用以上算法編程處理,結(jié)果見(jiàn)圖16所示。并通過(guò)canny算法對(duì)修復(fù)后的圖像進(jìn)行輪廓提取,如圖17所示。

算法優(yōu)越性檢驗(yàn):

基于賦值插值的領(lǐng)帶圖像修復(fù)算法包括矩形填充和邊緣修復(fù)兩部分,為了獲取更好的修復(fù)結(jié)果,研究選擇了4種尺寸的矩形進(jìn)行填充,然后分別進(jìn)行邊緣修復(fù)。通過(guò)最終的輪廓發(fā)現(xiàn):d(82×15型)的輪廓從視覺(jué)上最符合領(lǐng)飾原態(tài)。客觀上設(shè)計(jì)邊緣長(zhǎng)度L(白色邊緣像素點(diǎn)個(gè)數(shù))來(lái)表征所提取的領(lǐng)飾邊緣的完整程度。對(duì)4種結(jié)果進(jìn)行統(tǒng)計(jì)計(jì)算,如圖18,發(fā)現(xiàn):第4種82 ×15的矩形填充結(jié)果中L=2373,其邊緣修復(fù)最為完整,也進(jìn)一步驗(yàn)證了與視覺(jué)感覺(jué)一樣的最優(yōu)結(jié)果。

4 結(jié) 論

針對(duì)韓國(guó)禮服高腰大擺的A字廓型和服飾用色搭配比較相近的特點(diǎn),對(duì)韓國(guó)禮服圖像設(shè)計(jì)了內(nèi)外廓型分別提取的算法。

a)對(duì)于外輪廓提取,設(shè)計(jì)線形結(jié)構(gòu)形態(tài)學(xué)算法進(jìn)行了外輪廓提取,并通過(guò)二元方差分析對(duì)雙因子的影響結(jié)果進(jìn)行客觀評(píng)價(jià),結(jié)合主觀視覺(jué)效果,得出最優(yōu)外輪廓的組合參數(shù)θ=10°,c=9。

b)對(duì)于內(nèi)輪廓提取,將CLAHE算法用于提高韓國(guó)禮服圖像色相對(duì)比度,效果顯著,從而為后續(xù)的圖像分割奠定基礎(chǔ),然后采用K-Means算法分割出韓國(guó)禮服圖像中內(nèi)部領(lǐng)飾,最后通過(guò)基于賦值插值的領(lǐng)帶圖像修復(fù)最終的輪廓發(fā)現(xiàn):d(82×15型)的輪廓從視覺(jué)上最符合領(lǐng)飾原態(tài)。

實(shí)驗(yàn)結(jié)果表明本研究的內(nèi)外組合的輪廓提取算法達(dá)到了主觀視覺(jué)和客觀邊界長(zhǎng)度評(píng)價(jià)下的最優(yōu)效果,是適合于韓國(guó)禮服圖像特點(diǎn)的有效算法。然而,本文方法還有不足:提出的算法更適合于單目標(biāo)圖像款式因子的輪廓提取,對(duì)于多目標(biāo)圖像有一定的局限性。后續(xù)工作將著重圍繞這個(gè)問(wèn)題展開(kāi),同時(shí)考慮對(duì)提取的輪廓構(gòu)建相應(yīng)的數(shù)據(jù)庫(kù)。

參考文獻(xiàn):

[1]季勇,王革非.韓服與漢服之關(guān)系研究[J].絲綢,2012,49(11):76-80.

JI Yong, WANG Gefei. Study on the relationship between Hanfu and Hanbok[J].Journal of Silk,2012,49(11):76-80.

[2]李東,萬(wàn)賢福,汪軍.采用傅里葉描述子和支持向量機(jī)的服裝款式識(shí)別方法[J].紡織學(xué)報(bào),2017,38(5):122-127.

LI Dong, WAN Xianfu, WANG Jun.Clothing style recognition approachsupport vectorusing Fourier descriptors andmachines[J].Journal of Textile Research,2017, 38(5):122-127.

[3]孫國(guó)棟,徐亮.精確型傅里葉高度函數(shù)描述子的服裝款式識(shí)別方法[J].中國(guó)測(cè)試,2019,45(8):130-134.

SUN Guodong, XU Liang.Clothing style recognition approach based on the accurate Fourier heightfunctions shape descriptor[J]. Journal of China Test, 2019,45 (8):130-134.

[4]XIN A L, LI W. A method for garment design drawing extraction from garment image [C]. Advances in Textile Engineering and Materials. Switzerland: Trans Tech Publications Ltd,2013: 497-500.

[5]何曉軍,徐愛(ài)功,李玉.基于模糊相似性的彩色形態(tài)學(xué)圖像處理方法[J].計(jì)算機(jī)應(yīng)用研究,2019,36(1):258-263.

HE Xiaojun, XU Aigong, LI Yu.Color morphology image processing method based on fuzzy similarity[J].Journal of Computer Application Research, 2019, 36(1):258-263.

[6]ZUIDERVELDK. Contrast Limited Adaptive Histogram Equalization[M]. Graphics Gems. Amsterdam: Elsevier, 1994: 474-485.

[7]王建,龐彥偉,基于CLAHE的x射線行李圖像增強(qiáng)[J].天津大學(xué)學(xué)報(bào),2010,43(3):194-198.

WANG Jian, PANG Yanwei, X-ray baggage image enhancement based on CLAHE[J].Journal of Tianjin University, 2010, 43(3): 194-198.

[8]孫冬梅,陸劍鋒,張善卿.一種改進(jìn)CLAHE算法在醫(yī)學(xué)試紙條圖像增強(qiáng)中的應(yīng)用[J].中國(guó)生物醫(yī)學(xué)工程學(xué)報(bào),2016,35(4):502-506.

SUN Dongmei, LU Jianfeng, ZHANG Shanqing.The application of an improved CLAHE algorithm in image enhancement of medical test strip[J].Journal of Chinese Biomedical Engineering,2016,35(4):502-506.

[9]劉軒,劉佳賓.基于對(duì)比度受限自適應(yīng)直方圖均衡的乳腺圖像增強(qiáng)[J].計(jì)算機(jī)工程與應(yīng)用,2008,44(10):173-175.

LIU Xuan, LIU Jiabin. Mammary image enhancement based on contrast limited adaptive histogram equalization[J].Journal of Computer Engineering and Applications,2008,44(10):173-175.

[10]吳煥麗,崔可旺,張馨,等.基于改進(jìn)K-means圖像分割算法的細(xì)葉作物覆蓋度提取[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(1):42-50.

WU Huanli, CUI Kewang, ZHANG Xin, et al.Accuracy of fine leaf crop coverage by improvedK-means algorithm[J].Journal of Agricultural Machinery,2019,50(1):42-50.

[11]馬仲林.基于數(shù)字形態(tài)學(xué)的圖像邊緣檢測(cè)算法研究[D].蘭州:蘭州交通大學(xué),2020.

MA Zhonglin. Research on Image Edge Detection Algorithm Based on Digital Morphology[D].Lanzhou: Lanzhou Jiaotong University, 2020.

[12]周勇.基于超圖的自適應(yīng)數(shù)學(xué)形態(tài)學(xué)研究與應(yīng)用[D].西安:西安電子科技大學(xué),2019.

ZHOU Yong. The Research and Application of Adaptive Mathematical Morphology Based on Hypergraphs[D].Xi'an: Xidian University, 2019.

[13]李帥,郭力娜,曹應(yīng)舉等.基于不同結(jié)構(gòu)元素的地物邊界提取對(duì)比實(shí)驗(yàn)研究[J].唐山學(xué)院學(xué)報(bào),2018,31(3):14-19.

LI Shuai, GUO Lina, CAO Yingju, etc.A comparative and experimental researchon object edge extraction based on different structural elements[J].Journal of Tangshan University,2018, 31(3):14-19.

[14]LIU J, ZHUANG M L, AI R Y,et al. Analysis on the application of image processing technology in clothing pattern recognition[J]. Journal of Donghua University(English Edition), 2020, 37(3): 224-231.

[15]陳浩,裴瑞杰,汪鑫.基于ACO和K-means算法相結(jié)合的生菜葉片圖像分割方法[J].現(xiàn)代計(jì)算機(jī),2019,(21):45-49.

CHEN Hao, PEI Ruijie, WANG Xin.Image segmentation method of lettuce leaf based on ant colony optimization and K-means CIustering[J].Journal of Modern Computer,2019,(21):45-49.

[16]高強(qiáng),高敬陽(yáng),趙地.GNNI U-net:基于組歸一化與最近鄰插值的MRI左心室輪廓精準(zhǔn)分割網(wǎng)絡(luò)[J].計(jì)算機(jī)科學(xué),2020,47(8):213-220.

GAO Qiang, GAO Jingyang, ZHAO Di. GNNI U-net:Precise segmentation neural network of left ventricular contours for MRI images based on group normalization and nearest interpolation[J].Journal of ComputerScience,2020,47(8):213-220.

猜你喜歡
圖像識(shí)別
基于計(jì)算機(jī)視覺(jué)的圖像識(shí)別技術(shù)研究
無(wú)人駕駛技術(shù)中紅外圖像識(shí)別準(zhǔn)確率的實(shí)驗(yàn)研究
基于圖像識(shí)別技術(shù)的電力信息化建設(shè)探討
圖像識(shí)別技術(shù)的應(yīng)用與發(fā)展
人工智能背景下圖像識(shí)別技術(shù)淺析
《圖像識(shí)別初探》教學(xué)案例
基于字典學(xué)習(xí)的正則化魯棒稀疏表示腫瘤細(xì)胞圖像識(shí)別
基于圖像的物體尺寸測(cè)量算法研究
圖像識(shí)別交互系統(tǒng)
極限學(xué)習(xí)機(jī)在圖像分割中的應(yīng)用