路 凱,鐘躍崎,2,朱俊平,柴新玉
(1. 東華大學(xué) 紡織學(xué)院,上海 201620;2. 東華大學(xué) 紡織面料技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室,上海 201620)
?
基于視覺詞袋模型的羊絨與羊毛快速鑒別方法
路 凱1,鐘躍崎1,2,朱俊平1,柴新玉1
(1. 東華大學(xué) 紡織學(xué)院,上海 201620;2. 東華大學(xué) 紡織面料技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室,上海 201620)
為快速準(zhǔn)確地鑒別羊絨和羊毛,提出一種基于視覺詞袋模型的鑒別方法。該方法使用羊絨和羊毛的光學(xué)顯微鏡圖像作為實(shí)驗(yàn)樣本,將纖維鑒別問題轉(zhuǎn)化為圖像的分類問題。首先對(duì)光學(xué)顯微鏡圖像進(jìn)行預(yù)處理以增強(qiáng)特征,然后從纖維形態(tài)中提取局部特征并生成視覺單詞,再依據(jù)視覺單詞對(duì)纖維圖像進(jìn)行分類,從而達(dá)到鑒別纖維的目的。使用了4 400幅纖維圖像作為數(shù)據(jù)集,從中選擇不同的羊絨和羊毛的混合比作為訓(xùn)練集和測(cè)試集,得到的識(shí)別率最高為86%,最低為81.5%,鑒別1 000根纖維需要的時(shí)間小于100 s,訓(xùn)練好的分類器可保存并用于后期的檢測(cè)工作。
羊絨;羊毛;視覺詞袋模型;圖像處理;快速鑒別
羊毛和羊絨的鑒別一直是紡織行業(yè)的難題,目前常用的鑒別方法有光學(xué)顯微鏡法[1]、掃描電鏡法[2]、近紅外光譜鑒別法[3]、DNA分析法[4]。在顯微鏡下觀察到的動(dòng)物纖維表面形態(tài)差異可用于纖維鑒別[5],但通常只有經(jīng)過專業(yè)訓(xùn)練的專業(yè)人員才能比較準(zhǔn)確地觀察到二者的差別。Tang等[4]提出一種DNA分析的方法,采用熒光定量聚合酶鏈?zhǔn)椒磻?yīng)(PCR)引物與探針和羊絨羊毛的線粒體12S核糖體進(jìn)行反應(yīng),通過建立對(duì)數(shù)曲線來計(jì)算羊絨羊毛的混合比例。該方法客觀有效,但檢測(cè)過程中需要比較精密的儀器,且只能由專業(yè)人員操作,成本相對(duì)昂貴??偠灾?,上述幾種方法耗時(shí)長(zhǎng),成本高,而且往往需要專業(yè)人員操作,因此目前急需一種成本低、速度快、操作簡(jiǎn)單、精確度較高、穩(wěn)定可靠的檢測(cè)方法。近年來有一些基于圖像處理技術(shù)的羊絨與羊毛鑒別方法[6-7],通過測(cè)量纖維表面形態(tài)的一些特征測(cè)量如纖維直徑、鱗片高度、鱗片厚度等值來識(shí)別纖維,但這些特征的測(cè)量工作難度比較大,如鱗片的厚度在光學(xué)顯微鏡下很難檢測(cè),并且近年來羊絨和羊毛纖維變異程度很大,例如羊毛羊絨的直徑等特征差異越來越小,僅僅依靠挑選幾個(gè)特征已經(jīng)不能滿足實(shí)際工作中的鑒別需要。
視覺詞袋模型在圖像分類與目標(biāo)檢測(cè)中具有良好的效果,本文將該模型引入到纖維鑒別領(lǐng)域,提取顯微鏡圖像中纖維的形態(tài)特征并依據(jù)這些特征對(duì)纖維進(jìn)行分類。本文方法將纖維檢測(cè)技術(shù)與計(jì)算機(jī)視覺技術(shù)相結(jié)合,從大樣本中提取特征,從而達(dá)到客觀、快速地鑒別纖維的目的。
本文方法的思路是通過羊絨羊毛纖維的圖像來提取特征,并以此鑒別2種纖維圖像,這就將纖維的鑒別問題轉(zhuǎn)化為纖維圖像的分類問題。人們對(duì)圖像分類和物體識(shí)別已經(jīng)做了許多研究,在諸多方法中,視覺詞袋模型(Bag-of-Visual-Word,簡(jiǎn)稱BoVW)是比較受關(guān)注的方法,該方法原理簡(jiǎn)單,效果好。首先需要對(duì)獲取的顯微鏡圖像進(jìn)行預(yù)處理,然后介紹如何使用BoVW模型來表示纖維的特征,接下來使用支持向量機(jī)(SVM)對(duì)纖維圖像進(jìn)行鑒別分類,最后通過預(yù)測(cè)結(jié)果和真實(shí)值的比較來評(píng)價(jià)識(shí)別效果。
1.1 圖像預(yù)處理
圖1(a)、(b)示出常見的羊絨和羊毛纖維的顯微鏡照片。由圖可看出,二者外觀形態(tài)比較接近,顯然直徑等單一特征已經(jīng)不能作為識(shí)別依據(jù)。另外由圖1可看出,2種纖維表面的鱗片邊緣很不清晰,需要對(duì)圖像進(jìn)行增強(qiáng)處理。在拍攝的圖像中不可避免地會(huì)出現(xiàn)一些氣泡和雜質(zhì),這些干擾信息要盡量去除,而且還要盡可能地保留纖維有效信息。接下來的預(yù)處理過程將會(huì)增強(qiáng)纖維圖像表面,并且可去除纖維背景。
圖1 原始羊絨和羊毛顯微鏡圖像(×500)Fig.1 Original microscope images of cashmere and wool(×500). (a) Cashmere; (b) Wool
羊絨和羊毛纖維圖像的預(yù)處理過程相同,以圖1(b)中的羊毛纖維為例。首先將原始圖像轉(zhuǎn)換為灰度圖像,然后使用對(duì)比度拉伸、直方圖增強(qiáng)和濾波增強(qiáng)等3種方法對(duì)圖像進(jìn)行增強(qiáng)處理??砂l(fā)現(xiàn),對(duì)比度拉伸算法效果更好,能使圖像中纖維表面的鱗片邊緣清晰度明顯增強(qiáng)。圖2示出圖1(b)轉(zhuǎn)化成灰度圖的直方圖,可看到圖像中像素的灰度值集中在很小的區(qū)域,在灰度值150附近的區(qū)域,通過對(duì)100根隨機(jī)挑選的纖維圖像統(tǒng)計(jì)發(fā)現(xiàn),圖像95%以上的像素灰度值集中在[115,180]區(qū)間,將此區(qū)間的灰度值拉伸到[0,255]這個(gè)范圍,處理結(jié)果如圖3(a)所示??煽吹綀D像中纖維表面信息已經(jīng)有了明顯增強(qiáng)。
圖2 羊毛纖維圖像灰度直方圖Fig.2 Gray histogram of wool image
接下來,使用自動(dòng)局部閾值方法將纖維圖像二值化,如圖3(b)所示。可看到圖像中噪聲比較多,這里的目的是僅獲取纖維本身的圖像,需要去掉圖像中其他部分。使用圖像形態(tài)學(xué)操作,先通過“開”操作除掉圖中的孤立單像素小塊,然后計(jì)算圖中像素點(diǎn)連通區(qū)域的面積,將小于面積最大值一半的小塊去掉,再填充孔洞,并對(duì)所得圖像求反,最后去掉圖像邊界四周的幾行像素,得到的結(jié)果就是二值化的纖維輪廓,如圖3(c)所示;接下來將增強(qiáng)的圖像和輪廓二值圖進(jìn)行形態(tài)學(xué)中的“與”操作,即圖3(a)與圖3(c)相與,得到去掉背景的纖維增強(qiáng)圖,如圖3(d)所示。
圖3 羊毛圖像預(yù)處理(×500)Fig.1 Image pre-processing of wool fibers(×500).(a) Image enhancement; (b) Binary image; (c) Binary contour; (d) Background removal
1.2 視覺詞袋模型
BoVW的主要思想是創(chuàng)建一個(gè)由視覺單詞組成的詞典,其中視覺單詞是對(duì)纖維圖像中檢測(cè)到的關(guān)鍵點(diǎn)的描述,也就是圖像中纖維表面的特征表示,然后統(tǒng)計(jì)纖維圖像中的視覺單詞在詞典中出現(xiàn)的頻率,并將其轉(zhuǎn)換為直方圖,用直方圖向量表示纖維的特征。BoVW方法包括以下幾個(gè)步驟:1)特征提??;2)生成視覺單詞;3)建立視覺詞典;4)生成直方圖;5)分類。下面對(duì)模型的主要步驟進(jìn)行說明。
1.2.1 特征提取
圖像的特征提取就是通過獲取目標(biāo)圖像中的必要信息,借助于這些信息可有效區(qū)分其他類別圖像。特征提取是圖像分類與識(shí)別的前提,尺度不變特征變換(SIFT)是著名的方法之一,其對(duì)尺度縮放、亮度、旋轉(zhuǎn)保持不變,對(duì)亮度、仿射變換、噪聲也有較強(qiáng)魯棒性。這里使用SIFT獲取的關(guān)鍵點(diǎn)用128維向量表示[8-9]。SIFT方法包括以下步驟:1)尺度空間關(guān)鍵點(diǎn)檢測(cè);2)關(guān)鍵點(diǎn)定位;3)關(guān)鍵點(diǎn)的方向確定;4)關(guān)鍵點(diǎn)的描述。
按照上面各個(gè)步驟可得到纖維圖像中的關(guān)鍵點(diǎn),如圖4所示,關(guān)鍵點(diǎn)用圓圈中心表示。
圖4 纖維圖像的關(guān)鍵點(diǎn)檢測(cè)Fig.4 Keypoints detection
1.2.2 視覺單詞與詞典的生成
接下來需要將這些關(guān)鍵點(diǎn)轉(zhuǎn)換為視覺單詞。視覺詞袋模型中使用聚類算法對(duì)獲得的關(guān)鍵點(diǎn)進(jìn)行聚類,得到的聚類中心稱為視覺單詞,其中K-means聚類是最常用的方法。K-means方法的主要思想是在集合X={x1,x2,…,xi,…,xn}中找到k個(gè)聚類中心{m1,m2,…,mj,…,mk},使得集合X中的點(diǎn)到其所屬聚類中心的歐式距離最小,公式為
(1)
式中Wn表示集合中的點(diǎn)xi到聚類中心mj的歐式距離,聚類中心就是前面所述的視覺單詞,對(duì)應(yīng)于圖像中的特征。這里的視覺單詞就是纖維圖像表面圖案的各個(gè)特征,而一組圖像的視覺單詞的集合就是視覺詞典,表示為
V={w1,w2,…,wi,…,wM}
(2)
式中:V表示視覺詞典;wi為詞典中第i個(gè)視覺單詞;視覺單詞總數(shù)為M。將圖像中的視覺單詞在視覺詞典中出現(xiàn)的次數(shù)直方圖轉(zhuǎn)換為向量,并用其描述圖像,記為
BI=[t1,t2,…,ti,…,tM]
(3)
式中:BI表示數(shù)據(jù)集中第I個(gè)圖像的視覺單詞直方圖;ti表示視覺單詞wi在圖像中出現(xiàn)的次數(shù)。選取前500個(gè)視覺單詞作為描述圖像的特征,結(jié)果如圖5所示。
圖5 視覺單詞直方圖Fig.5 Visual word histogram
1.2.3 空間金字塔
借助空間金字塔匹配方法,可使得BoVW模型在計(jì)算視覺單詞時(shí)獲得特征點(diǎn)相對(duì)的空間位置關(guān)系,這樣可更好地描述圖像特征。
空間金字塔主要思想是在不同分辨率的層次上來計(jì)算圖像中的視覺單詞的匹配程度,將圖像分為多層(0,1,…,l,…,L),L為層數(shù),0≤l≤L,第l層將圖像水平和垂直方向都分為2l個(gè)方格,則圖像l層共有22×l(4l)個(gè)方格[10]。統(tǒng)計(jì)每個(gè)方格中的視覺單詞直方圖,如圖6所示。
圖6 空間金字塔示意圖Fig.6 Schematic diagram of spatial pyramid.(a)Level 0;(b)Level 1;(c)Level 2; (d) Histogram of level 0;(e)Histogram of level 1;(f)Histogram of level 2
實(shí)驗(yàn)樣品是鄂爾多斯羊絨集團(tuán)提供的20批羊絨和24批羊毛纖維,每批次選擇100根纖維,使用蒸餾水清洗后晾干。取纖維放置于清潔的載玻片上,均勻涂抹甘油后加上蓋玻片,由測(cè)試中心工程師拍攝。拍攝儀器為北京合眾視野的CU系列纖維投影儀,纖維圖像由安裝在光學(xué)顯微鏡上的CCD攝像機(jī)獲取,放大倍數(shù)為500,每副圖像上有1根纖維。GB/T 16988—2013《特種動(dòng)物纖維與綿羊毛混合物含量的測(cè)定》中規(guī)定,纖維總數(shù)不少于1 500根,這里選擇的纖維圖像總數(shù)為4 400張,其中包含2 000根羊絨圖像和2 400根羊毛圖像,實(shí)驗(yàn)的數(shù)據(jù)集從樣本容量中選擇不少于1 500根作為數(shù)據(jù)集。按照前面提到的方法流程進(jìn)行實(shí)驗(yàn)。首先,原始纖維圖像要按照1.1的方法進(jìn)行圖像預(yù)處理,將纖維圖像增強(qiáng),并且去掉背景;然后使用文中介紹的BoVW模型生成視覺單詞和視覺詞典,接下來用基于視覺詞典的視覺單詞直方圖向量表示纖維圖像;最后使用SVM對(duì)纖維圖像進(jìn)行分類。
2.1 評(píng)估指標(biāo)
實(shí)驗(yàn)中使用混淆矩陣來評(píng)估方法的有效性,總體識(shí)別率用準(zhǔn)確率的平均值A(chǔ)t表示,定義如下。
(4)
(5)
(6)
式中:Ac和Aw分別表示羊絨和羊毛的識(shí)別率;Rc和Rw分別表示正確識(shí)別羊絨和羊毛纖維的數(shù)量;Tc和Tw分別表示樣本中羊絨和羊毛纖維的數(shù)量。實(shí)驗(yàn)記錄了訓(xùn)練和測(cè)試所需的時(shí)間,采用計(jì)算機(jī)的處理器為Intel Xeon E5-2620,主頻為2.0 G,內(nèi)存為8 G。
2.2 結(jié)果與討論
表1示出羊絨與羊毛鑒別結(jié)果。實(shí)驗(yàn)中進(jìn)行的是監(jiān)督學(xué)習(xí)訓(xùn)練,每次從數(shù)據(jù)集中隨機(jī)選擇不同數(shù)量和比例的纖維圖像作為訓(xùn)練集和測(cè)試集,訓(xùn)練集與測(cè)試集的比例為6∶4。表中第1列給出了每次選擇的數(shù)據(jù)集的纖維數(shù)量,第2列給出了羊絨和羊毛的混合比。第3~4列為訓(xùn)練集和測(cè)試集的纖維數(shù)量,第5~7列分別為測(cè)試集中羊絨、羊毛以及平均識(shí)別率,第8~9列為訓(xùn)練和測(cè)試所耗費(fèi)的時(shí)間。從表1中實(shí)驗(yàn)結(jié)果可看到,在不同的纖維混合比的數(shù)據(jù)集上,測(cè)試集平均識(shí)別率最高為86.0%,最低為81.5%,表1中第8列數(shù)據(jù)表明該方法訓(xùn)練分類器的時(shí)間稍長(zhǎng),但實(shí)際應(yīng)用中分類器是提前訓(xùn)練好,可保存并多次使用,而鑒別樣本所需時(shí)間是表1中最后1列的測(cè)試時(shí)間,可得知本文方法鑒別1 000根纖維需要時(shí)間小于100 s。
表1 羊絨與羊毛鑒別結(jié)果Tab.1 Identification results and cashmere and wool
與其他鑒別方法相比,本文方法檢測(cè)速度快,適合用于初步鑒別,且樣本來源于光學(xué)顯微鏡圖像,成本比較低,易推廣到實(shí)踐中使用。
本文提出了一種基于視覺詞袋模型的羊絨羊毛鑒別方法,該方法使用羊絨羊毛纖維的光學(xué)顯微鏡圖像,借助于計(jì)算機(jī)視覺技術(shù)中的特征提取及特征描述方法,將纖維鑒別問題轉(zhuǎn)化為圖像分類問題。通過提取纖維圖像表面特征,并使用視覺單詞來表示纖維特征,然后使用SVM分類圖像,以此來鑒別羊絨羊毛纖維,最后通過實(shí)驗(yàn)驗(yàn)證該方法的效果。從實(shí)驗(yàn)結(jié)果看出本文方法速度快,方便靈活,但識(shí)別率不算高,適合用于羊絨和羊毛的初步鑒別,接下來的工作應(yīng)著眼于如何獲取纖維表面更多有效的特征,從而進(jìn)一步提高識(shí)別準(zhǔn)確度。
FZXB
[1] 盛冠忠, 李龍. 關(guān)于山羊絨鑒別有關(guān)問題的探討[J]. 毛紡科技, 2007(12): 52-55. SHENG Guanzhong, LI Long. Study on distinguishing problem of cashmere fiber[J]. Wool Textile Journal, 2007(12): 52-55.
[2] WORTMANN F J, PHAN K H, AUGUSTIN P. Quantitative fiber mixture analysis by scanning electron microscopy: part V: analyzing pure fiber samples and samples with small admixtures according to test method IWTO-58[J]. Textile Research Journal, 2003, 73(8): 727-732.
[3] ZOCCOLA M, LU N, MOSSOTTI R, et al. Identification of wool, cashmere, yak, and angora rabbit fibers and quantitative determination of wool and cashmere in blend: a near infrared spectroscopy study[J]. Fibers & Polymers, 2013, 14(8): 1283-1289.
[4] TANG M, ZHANG W, ZHOU H, et al. A real-time PCR method for quantifying mixed cashmere and wool based on hair mitochondrial DNA[J]. Textile Research Journal, 2014, 84(15): 1612-1621.
[5] WORTMANN F J, ARNS W. Quantitative fiber mixture analysis by scanning electron microscopy: part I: blends of mohair and cashmere with sheep′s wool[J]. Textile Research Journal, 1986, 56(7): 442-446.
[6] 季益萍, 楊云輝, 黃少君. 基于決策樹算法的羊絨羊毛鑒別[J]. 紡織學(xué)報(bào), 2013, 34(6): 16-20. JI Yiping, YANG Yunhui, HUANG Shaojun. Identification of wool and cashmere based on decision tree algorithm[J]. Journal of Textile Research, 2013, 34(6): 16-20.
[7] 石先軍,胡新榮,蔡光明. 基于鱗片紋圖基因碼的羊絨理論識(shí)別精度及正誤判率[J]. 紡織學(xué)報(bào),2014, 35(4): 5-10. SHI Xianjun, HU Xinrong, CAI Guangming, et al. Theoretical recognition accuracy and error rate for cashmere based on scale pattern gene code[J]. Journal of Textile Research, 2014, 35(4): 5-10.
[8] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2):91-110.
[9] 解文杰. 基于中層語(yǔ)義表示的圖像場(chǎng)景分類研究[D]. 北京:北京交通大學(xué), 2011: 69-77. XIE Wenjie. Research on middle semantic representation based image scene classification[D]. Beijing: Beijing Jiaotong University, 2011: 69-77.
[10] 趙春暉, 王瑩, KANEKO M. 一種基于詞袋模型的圖像優(yōu)化分類方法[J]. 電子與信息學(xué)報(bào), 2012, 34(9): 2064-2070. ZHAO Chunhui, WANG Ying, KANEKO M. An optimized method for image classification based on bag of words model[J]. Journal of Electron & Information Technology, 2012, 34(9):2064-2070.
Rapid identification method of cashmere and wool based on bag-of-visual-word
LU Kai1,ZHONG Yueqi1,2,ZHU Junping1,CHAI Xinyu1
(1.CollegeofTextiles,DonghuaUniversity,Shanghai201620,China;2.KeyLaboratoryofTextileScience&Technology,MinistryofEducation,DonghuaUniversity,Shanghai201620,China)
In order to identify cashmere and wool rapidly and accurately, a method based on bag-of-visual-word was proposed. Optical microscope images of cashmere and wool were taken as experimental samples in this method. The problem of fiber identification was changed to the problem of image classification. Firstly, fiber images were pre-processed to enhance their characteristics. Then, local features were extracted from fiber morphology and these local features were converted to visual words. Fiber images can be classified using visual words mentioned above. The experimental dataset contains 4 400 fiber images. Different mixing ratio of cashmere and wool were selected as train set and test set from the dataset. In this experiment, the highest recognition ratio is 86%, and the lowest is 81.5%. The time required to identify 1 000 fibers is shorter than 100 s. The trained classifier can be saved and used for the late detection.
cashmere;wool;bag-of-visual-word;image processing; rapid identification
10.13475/j.fzxb.20160606906
2016-06-27
2016-11-24
國(guó)家自然科學(xué)基金資助項(xiàng)目(61572124);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助項(xiàng)目(CUSF-DH-D-2016016);上海市自然科學(xué)基金資助項(xiàng)目(14ZR1401100)
路凱(1979—),男,講師,博士生。研究方向?yàn)槔w維圖像鑒別、紡織圖像技術(shù)。鐘躍崎,通信作者,E-mail:zhyq@dhu.edu.cn。
TS 102.3
A