国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Mask R-CNN深度學(xué)習(xí)的羊絨羊毛纖維識(shí)別技術(shù)

2022-03-29 22:47從明芳李子印盧鴦韓高鋒謝凌佳王啟真
現(xiàn)代紡織技術(shù) 2022年2期
關(guān)鍵詞:圖像處理深度學(xué)習(xí)

從明芳 李子印 盧鴦 韓高鋒 謝凌佳 王啟真

摘 要:為提高羊絨羊毛纖維定量的自動(dòng)化程度,引入基于掩模區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Mask R-CNN)深度學(xué)習(xí)技術(shù),對(duì)通過(guò)光學(xué)顯微鏡采集的圖片進(jìn)行圖片處理、算法模型優(yōu)化,以及學(xué)習(xí)和訓(xùn)練,建立起山羊絨和綿羊毛的自動(dòng)識(shí)別模型。采用測(cè)試集對(duì)所建立的模型進(jìn)行了驗(yàn)證測(cè)試,結(jié)果表明,對(duì)山羊絨和綿羊毛纖維的自動(dòng)識(shí)別正確率達(dá)到95%以上,證實(shí)了所建立的識(shí)別技術(shù)的可行性。

關(guān)鍵詞:山羊絨;綿羊毛;圖像處理;深度學(xué)習(xí);Mask R-CNN

中圖分類號(hào):TS102.3

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1009-265X(2022)02-0036-05

Recognition technology of cashmere and wool fibers based onmask R-CNN deep learning

CONG Mingfang1, LI Ziyin2, LU Yang1, HAN Gaofeng1,XIE Lingjia1, WANG Qizhen2

(1.Zhejiang Light Industrial Products Inspection and Research Institute, Hangzhou 310018, China;

2.College of Optical and Electronic Technology, China Jiliang University, Hangzhou 310018, China)

Abstract: To enhance the level of automation for wool fiber quantification, the mask R-CNN deep learning technology was introduced for the processing of the pictures collected by the optical microscope, optimization of algorithm model, learning and training. An automatic recognition model of cashmere and sheep wool was established. Through the verification test using a test set, it was found that the accuracy of automatic recognition of cashmere and sheep wool fibers reached more than 95%, confirming the feasibility of the recognition technology developed in this paper.

Key words: cashmere; sheep wool; image processing; deep learning; mask R-CNN

收稿日期:20210402 網(wǎng)絡(luò)出版日期:20210804

基金項(xiàng)目:國(guó)家市場(chǎng)監(jiān)督管理總局科技計(jì)劃項(xiàng)目(2019MK031)

作者簡(jiǎn)介:從明芳(1986-),女,浙江杭州人,工程師,碩士,主要從事紡織品檢測(cè)方面的研究。

通信作者:盧鴦,E-mail:69270913@qq.com

山羊絨纖維因條干均勻、手感柔滑、表面光澤好,被譽(yù)為“纖維之王”,素有“軟黃金”之美稱,由于產(chǎn)量稀少而價(jià)格昂貴[1]。山羊絨與綿羊毛同屬蛋白質(zhì)纖維,在外觀形態(tài)上非常相似,但價(jià)格差距懸殊,因此有些不良商家利用這一特點(diǎn)在羊絨制品中摻入細(xì)支綿羊毛、改性綿羊毛等以次充好。為切實(shí)維護(hù)企業(yè)、商家利益與消費(fèi)者保護(hù)權(quán)益,打擊假冒偽劣,需要對(duì)相關(guān)制品中羊絨羊毛的成分含量進(jìn)行準(zhǔn)確定量。目前對(duì)山羊絨與綿羊毛的鑒別和定量方法有顯微鏡法、掃描電鏡法、光譜法、染色法、DNA分析法等[2-5],其中應(yīng)用最廣泛的是顯微鏡法,即通過(guò)觀察山羊絨與綿羊毛在顯微鏡下纖維直徑、鱗片厚度和光滑程度、翹角大小等形態(tài)特征來(lái)進(jìn)行鑒別,在區(qū)分

出纖維種類后,根據(jù)根數(shù)比計(jì)算得到含量。但是由于這些形態(tài)特征并不十分明顯,通過(guò)人工目測(cè)識(shí)別與計(jì)數(shù),不僅對(duì)人員的專業(yè)技能要求高,耗時(shí)耗力,而且準(zhǔn)確度受主觀因素影響較大,不同機(jī)構(gòu)、不同檢測(cè)人員的檢驗(yàn)結(jié)果常常會(huì)有較大的差異[6]。

隨著計(jì)算機(jī)圖像技術(shù)和人工智能技術(shù)的高速發(fā)展,應(yīng)用顯微圖片與圖像處理技術(shù)結(jié)合實(shí)現(xiàn)自動(dòng)識(shí)別已成為山羊絨纖維鑒別技術(shù)研究的發(fā)展方向之一[2],近年來(lái)有不少將圖像識(shí)別、深度學(xué)習(xí)理論等應(yīng)用于山羊絨和綿羊毛鑒別的研究和探索[6-9],但目前市場(chǎng)上仍未見(jiàn)標(biāo)準(zhǔn)化、能廣泛使用的自動(dòng)識(shí)別方法和設(shè)備。從已有的實(shí)踐探索中可知,計(jì)算機(jī)圖像識(shí)別法的結(jié)果與所建模型數(shù)據(jù)庫(kù)的完整性密切相關(guān),不僅要求模型數(shù)據(jù)庫(kù)具有代表性,并且要有足夠的數(shù)據(jù)量,否則可能對(duì)結(jié)果造成不良的影響[1]。本文在采集大量山羊絨及綿羊毛纖維數(shù)據(jù)庫(kù)樣本基礎(chǔ)上,將其在顯微鏡下觀測(cè)的圖像進(jìn)行存儲(chǔ),通過(guò)圖片處理、算法模型優(yōu)化,采用掩模區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Mask region-based convolutional neural networks,Mask R-CNN)進(jìn)行學(xué)習(xí)和訓(xùn)練,期望將兩類纖維的識(shí)別準(zhǔn)確度提高,為實(shí)現(xiàn)替代人工的自動(dòng)識(shí)別提供參考。

1 實(shí) 驗(yàn)

1.1 樣本采集

為提高自動(dòng)識(shí)別數(shù)據(jù)庫(kù)的代表性,本文在纖維樣本的采集上一方面涵蓋從原料到成品,包括羊毛散纖維、羊毛毛條、羊毛織片、羊毛呢料、羊絨散纖維、羊絨織片、羊絨呢料等多種類型樣品。因?yàn)椴煌愋偷臉悠匪?jīng)歷的加工過(guò)程不同,在顯微形態(tài)上可能會(huì)有所差異[10]。另一方面盡量采集得到來(lái)自不同產(chǎn)地、不同種類和不同品質(zhì)的羊毛、羊絨樣品。

1.2 圖像采集

圖像的采集方法依據(jù)GB/T 16988-2013《特種動(dòng)物纖維與綿羊毛混合物含量的測(cè)定》標(biāo)準(zhǔn),取樣后采用切片器制備纖維縱向切片,將試樣切片放至顯微鏡載物臺(tái)上,放大500倍,調(diào)節(jié)焦距盡量使纖維邊緣顯示一細(xì)線。由專業(yè)人員采集光學(xué)電子顯微鏡下各類纖維的縱向形態(tài)圖片,通過(guò)人工識(shí)別方式對(duì)每根纖維類別進(jìn)行標(biāo)記。采集得到圖片15000張左右,內(nèi)含約60000根纖維,用于后續(xù)的研究。

1.3 圖像處理及模型構(gòu)建

1.3.1 纖維的分離

顯微鏡采集到的纖維圖像中,每一根纖維并不都是獨(dú)立、完整的,常存在纖維間的交錯(cuò),且纖維交錯(cuò)的方式錯(cuò)綜復(fù)雜,如圖1(a)所示。因此,首先需要將纖維與背景進(jìn)行分離,將分割后的纖維圖像轉(zhuǎn)化為灰度圖像,以利于減少來(lái)自背景的氣泡或雜質(zhì)干擾,并使纖維圖像輪廓得到增強(qiáng),有利于接下來(lái)的分離和特征提取。然后,通過(guò)分水嶺算法,利用圖像的梯度信息,將鄰域內(nèi)差值較小的像素點(diǎn)連接成封閉的輪廓,配合給定的標(biāo)記點(diǎn)將圖片中的羊絨羊毛纖維分割為單根纖維。分離后的圖片如圖1(b)所示。

1.3.2 纖維圖像的紋理特征提取

顯微鏡下山羊絨和綿羊毛的外觀特征差異主要表現(xiàn)在纖維鱗片形狀、整齊度、鱗片表面光滑程度、厚度、粗細(xì)均勻程度及光澤等方面。綿羊毛與山羊絨顯微圖像特征如圖2所示,山羊絨在顯微鏡下光線的透過(guò)性能好、纖維毛干均勻、鱗片較薄、包覆緊密、翹角很小、鱗片間距大,而綿羊毛纖維毛干不均勻、扭轉(zhuǎn)較多、鱗片厚、翹角大、鱗片的覆蓋面較小或根本不覆蓋、鱗片間距小。在實(shí)際檢測(cè)中,往往需要綜合考慮這些特征參數(shù), 而不能僅僅依據(jù)其中一兩個(gè)參數(shù)作出判斷。本文采用卷積神經(jīng)網(wǎng)絡(luò)技術(shù)建立模型,在網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,梯度下降更新出的網(wǎng)絡(luò)模型參數(shù)會(huì)自動(dòng)提取纖維的各類特征。

2 模型構(gòu)建

傳統(tǒng)的纖維識(shí)別需要先把單根纖維分割后,獲取纖維的特征,然后利用識(shí)別算法進(jìn)行分類,而Mask R-CNN卷積神經(jīng)網(wǎng)絡(luò)能夠在完成語(yǔ)義分割任務(wù)的同時(shí)實(shí)現(xiàn)目標(biāo)的分割和識(shí)別分類。對(duì)于圖像,語(yǔ)義分割技術(shù)不僅能識(shí)別出圖像中的目標(biāo),預(yù)測(cè)出其蒙版、包圍框,還能夠預(yù)測(cè)出目標(biāo)的種類,因此本文采用Mask R-CNN卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行纖維分割和識(shí)別以提高處理的效率。

Mask R-CNN卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其中重要的結(jié)構(gòu)有卷積主干網(wǎng)絡(luò)(CNN convolutional backbone)、區(qū)域生成網(wǎng)絡(luò)(RPN)、預(yù)測(cè)蒙版的掩模分支(Mask branch)、預(yù)測(cè)包圍框的邊框回歸(Box regression)結(jié)構(gòu)、類別識(shí)別的分類(Classification)結(jié)構(gòu)。

Mask R-CNN計(jì)算流程如下:

a)輸入一幅圖片,圖片應(yīng)與訓(xùn)練網(wǎng)絡(luò)時(shí)的預(yù)處理方式保持一致,如圖像RGB顏色通道的放置順序等;

b)將圖片輸入到訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)中計(jì)算獲得特征圖,如本研究中用的是ResNet-50殘差神經(jīng)網(wǎng)絡(luò);

c)對(duì)這個(gè)特征圖中的每一區(qū)域設(shè)定一個(gè)興趣區(qū)域,這個(gè)區(qū)域稱為候選區(qū)域,這樣就可以在特征圖中獲得多個(gè)興趣區(qū)域;

d)將這些候選興趣區(qū)域送入?yún)^(qū)域生成網(wǎng)絡(luò)(RPN網(wǎng)絡(luò))進(jìn)行二值分類和邊框回歸。二值分類能區(qū)分興趣區(qū)域的前景和背景,邊框回歸能通過(guò)興趣區(qū)域選框預(yù)測(cè)目標(biāo)真實(shí)選框,由此來(lái)過(guò)濾掉一部分候選區(qū)域;

e)對(duì)這些剩下興趣區(qū)域進(jìn)行熱點(diǎn)區(qū)域?qū)R(ROIAlign)操作,ROIAlign取消了量化操作,使用插值使特征聚集連續(xù),將原圖和特征圖對(duì)應(yīng)進(jìn)而將特征和特征圖對(duì)應(yīng);

f)對(duì)這些興趣區(qū)域進(jìn)行N類分類、邊框回歸和生成對(duì)應(yīng)掩模。

Mask R-CNN網(wǎng)絡(luò)是由深度卷積網(wǎng)絡(luò)發(fā)展而來(lái)的,但其中的很多結(jié)構(gòu)都不相同,特定優(yōu)化的結(jié)構(gòu)可以提升網(wǎng)絡(luò)擬合能力,能提升訓(xùn)練速度,減少過(guò)擬合風(fēng)險(xiǎn),實(shí)現(xiàn)特殊任務(wù)執(zhí)行。

3 結(jié)果與分析

3.1 Mosaic數(shù)據(jù)增強(qiáng)

Mosaic數(shù)據(jù)增強(qiáng)利用了4張圖片,對(duì)4張圖片進(jìn)行拼接,每一張圖片都有其對(duì)應(yīng)的包圍框,將4張圖片拼接之后就獲得一張新的圖片,同時(shí)也獲得這張圖片對(duì)應(yīng)的框框,將這樣一張新的圖片傳入到神經(jīng)網(wǎng)絡(luò)當(dāng)中去學(xué)習(xí),相當(dāng)于一下子傳入4張圖片進(jìn)行學(xué)習(xí)。

Mosaic數(shù)據(jù)增強(qiáng)時(shí)每次讀取4張圖像,分別對(duì)4張圖片進(jìn)行翻轉(zhuǎn)(對(duì)原始圖片進(jìn)行左右的翻轉(zhuǎn))、縮放(對(duì)原始圖片進(jìn)行大小的縮放)、色域變化(對(duì)原始圖片的明亮度、飽和度、色調(diào)進(jìn)行改變)等操作。操作完成之后然后再將原始圖片按照第一張圖片擺放在左上,第二張圖片擺放在左下,第三張圖片擺放在右下,第四張圖片擺放在右上4個(gè)方向位置擺好。完成4張圖片的擺放之后,利用矩陣的方式將4張圖片它固定的區(qū)域截取下來(lái),然后將它們拼接起來(lái),拼接成一張新的圖片,新的圖片上含有框框等一系列的內(nèi)容。

3.2 訓(xùn)練過(guò)程及結(jié)果

以上實(shí)驗(yàn)均是在同一臺(tái)計(jì)算機(jī)上完成的,配置如下:CPU:IntelCorei7-9700K@3.6GHz;RAM:32.0GB;RAM frequency:3000MHz;GPU:NVIDIA GeForce RTX 2080 Ti;VRAM:11GB。

訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),使用的是Python語(yǔ)言,IDE使用的是PyCharm,深度神經(jīng)網(wǎng)絡(luò)使用的是Pytorch庫(kù)來(lái)進(jìn)行編寫(xiě),并使用Qt5.9.2進(jìn)行界面設(shè)計(jì)編寫(xiě)。

在訓(xùn)練時(shí),其顯存使用量約為9 GB,一次訓(xùn)練耗時(shí)約11h。而在推斷時(shí),測(cè)試300張圖像,用時(shí)95.6s,平均速度0.319幀/s。在對(duì)一個(gè)標(biāo)準(zhǔn)批次,數(shù)量為20張的圖像測(cè)試時(shí)間為6~7s。訓(xùn)練數(shù)據(jù)見(jiàn)表1。

訓(xùn)練超參數(shù):超參數(shù)是一類必須在訓(xùn)練前設(shè)定的參數(shù)值,它們不能由訓(xùn)練得來(lái)。合理設(shè)定的超參數(shù)能夠減少訓(xùn)練時(shí)間,降低模型損失值,提高模型魯棒性。在識(shí)別羊絨羊毛纖維時(shí),需要根據(jù)纖維的特性,合理設(shè)置超參數(shù)。表2所示的訓(xùn)練超參數(shù)表是通過(guò)多次嘗試得到的參數(shù),這組參數(shù)能較好地實(shí)現(xiàn)網(wǎng)絡(luò)的訓(xùn)練。

在設(shè)定訓(xùn)練超參數(shù)時(shí),將啟用4個(gè)數(shù)據(jù)加載器DATALOADER,以滿足運(yùn)算時(shí)讀取數(shù)據(jù)的需求,加快訓(xùn)練速度。由于羊絨羊毛的形狀大多都是長(zhǎng)條形,所以將訓(xùn)練錨框ANCHOR的角度設(shè)定為-90,0和90,錨框ANCHOR的長(zhǎng)寬比例設(shè)定為0.33,1.0和3.0。網(wǎng)絡(luò)的訓(xùn)練將使用階梯式學(xué)習(xí)率,總迭代次數(shù)MAX_ITER為30000,分別在36000和50000次時(shí)降低學(xué)習(xí)率,這樣不僅訓(xùn)練速度提升,最終的模型損失值也能較低。求解器SOLVER使用的是Adam算法基礎(chǔ)學(xué)習(xí)率BASE_LR為0.00012,指數(shù)衰減率ρ 1=0.9和ρ 2=0.999;數(shù)值穩(wěn)定小常數(shù)。

訓(xùn)練結(jié)果:在測(cè)試集上,對(duì)600張圖像進(jìn)行測(cè)試,結(jié)果與人工識(shí)別結(jié)果進(jìn)行對(duì)比, 結(jié)果一致性在95%以上,具體測(cè)試結(jié)果如表3所示。

3.3 驗(yàn)證結(jié)果分析

使用Mask R-CNN卷積神經(jīng)網(wǎng)絡(luò),一次性從圖像中得出纖維分類并分割,達(dá)到了較高的識(shí)別準(zhǔn)確率,與人工檢測(cè)結(jié)果的一致性達(dá)到了95%以上,推斷速度達(dá)到了0.319幀/秒。對(duì)比其與傳統(tǒng)方法對(duì)羊絨羊毛纖維檢測(cè)識(shí)別能力,使用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別,其效果更加優(yōu)秀。

3.4 測(cè)試實(shí)例

為了測(cè)試所建立模型的識(shí)別效果,單獨(dú)采用測(cè)試集的100張圖片(其中純羊毛和純羊絨各20張圖片,綿羊毛與山羊絨混合的60張圖片),輸入所建立的羊毛羊絨自動(dòng)識(shí)別模型進(jìn)行測(cè)試,以圖片中每根纖維的識(shí)別準(zhǔn)確性(與人工判別一致性)為評(píng)價(jià)標(biāo)準(zhǔn),針對(duì)每張圖片,對(duì)應(yīng)輸出識(shí)別結(jié)果。輸出方式如圖4所示。

經(jīng)統(tǒng)計(jì),20張純羊毛圖片含羊毛140根,識(shí)別正確134根;20張純羊絨圖片中含羊絨128根,識(shí)別正確123根;60張羊毛羊絨纖維混合的圖片中,含羊毛120根,羊絨75根,識(shí)別正確187根。與人工識(shí)別結(jié)果相比,纖維自動(dòng)識(shí)別正確率達(dá)到95%以上,說(shuō)明模型能夠較好地實(shí)現(xiàn)對(duì)兩類纖維的自動(dòng)判別。具體統(tǒng)計(jì)結(jié)果見(jiàn)表4。

4 結(jié) 論

本文介紹了基于深度卷積神經(jīng)網(wǎng)絡(luò)技術(shù)深度學(xué)習(xí)的羊絨羊毛纖維識(shí)別模型建立過(guò)程,分析了圖像處理及模型構(gòu)建中數(shù)據(jù)增強(qiáng)及訓(xùn)練過(guò)程,并采用測(cè)試集對(duì)所建立的模型進(jìn)行了驗(yàn)證測(cè)試,形成結(jié)論如下:

a)通過(guò)大量山羊絨及綿羊毛纖維顯微圖片樣本的訓(xùn)練,將兩類纖維的識(shí)別準(zhǔn)確度提高到95%以上,為實(shí)現(xiàn)替代人工的自動(dòng)識(shí)別奠定了堅(jiān)實(shí)基礎(chǔ)。

b)由于山羊絨及綿羊毛纖維在顯微鏡下的形態(tài)差異本身并不明顯,且有的樣品經(jīng)過(guò)織造或染整加工,纖維形態(tài)會(huì)發(fā)生部分變化,采用經(jīng)典目光法判斷時(shí),不同人員之間的結(jié)果也會(huì)存在一定的分歧,還需要采集更多的山羊絨及綿羊毛纖維樣本擴(kuò)充數(shù)據(jù)庫(kù), 同時(shí)優(yōu)化算法,以進(jìn)一步提高識(shí)別的精準(zhǔn)程度,實(shí)現(xiàn)將其應(yīng)用于實(shí)際檢驗(yàn),建立起比傳統(tǒng)人工識(shí)別更客觀、高效的檢測(cè)方法。

參考文獻(xiàn):

[1]顧昊,王滿,閆暢,等.羊絨纖維鑒別方法綜述[J].中國(guó)纖檢,2017(1):69-71.

GU Hao, WANG Man, YAN Chang, et al. Review on the detection methods of cashmere fiber[J]. China Fiber Inspection, 2017(1): 69-71.

[2]馬海,吳桂芳,李志東,等.山羊絨纖維鑒別技術(shù)的現(xiàn)狀與發(fā)展趨勢(shì)[J].毛紡科技,2017,45(3):5-9.

MA Hai, WU Guifang, LI Zhidong,et al. Current situation and development trend of cashmere identification technology[J].Wool Textile Journal,2017, 45(3): 5-9.

[3]劉心如,張利平,王建福,等.可見(jiàn)-近紅外漫反射光譜技術(shù)對(duì)羊毛和羊絨的鑒別研究[J].光譜學(xué)與光譜分析,2013,33(8):2092-2095.

LIU Xinru, ZHANG Liping, WANG Jianfu,et al. Use of visible and near infrared reflectance spectroscopy to identify the cashmere and wool[J].Spectroscopy and Spectral Analysis, 2013,33(8) :2092-2095.

[4]陳國(guó)培,賴心田,唐復(fù)潤(rùn),等.羊毛及羊絨制品實(shí)時(shí)熒光PCR鑒定方法研究[J].紡織導(dǎo)報(bào),2013(2):88-91.

CHEN Guopei, LAI Xintian, TANG Furun, et al. Real-time PCR identification of wool and cashmere products[J].China Textile Leader, 2013(2):88-91.

[5]董曉東,楊素英,丁楠,等.DNA分析技術(shù)在動(dòng)物纖維鑒別領(lǐng)域的研究進(jìn)展[J].中國(guó)纖檢,2015(17):70-72.

DONG Xiaodong, YANG Suying, DING Nan, et al. The research advances of DNA technology in identiifcation for animal fibers[J]. China Fiber Inspection, 2015(17):70-72.

[6]季益萍,王瑞,楊鎖廷,等.計(jì)算機(jī)圖像識(shí)別技術(shù)檢測(cè)羊絨羊毛混紡比[J].毛紡科技,2008,36(10):58-60.

JI Yiping, WANG Rui, YANG Suoting, et al. Identifying blend ratio of wool and cashmere by computer image recognition technology[J].Wool Textile Journal, 2008, 36(10): 58-60.

[7]邢文宇,鄧娜,辛斌杰,等.基于多特征融合圖像分析技術(shù)的羊毛與羊絨鑒別[J].紡織學(xué)報(bào),2019,40(3):146-152.

XING Wenyu, DENG Na, XIN Binjie, et al. Identification of wool and cashmere based on multi-feature fusion image analysis technology[J].Journal of Textile Research, 2019, 40(3): 146-152.

[8]王軍慶,馬佩佩,李保榮,等.基于圖像處理的羊毛/山羊絨鑒別方法研究進(jìn)展[J].紡織科技進(jìn)展,2020(9):8-11.

WANG Junqing, MA Peipei, LI Baorong, et al. Research progress of wool/cashmere identification method based on image processing[J].Progress in Textile Science & Technology, 2020(9): 8-11.

[9]劉爽,許忠保,李春橋,等.基于數(shù)字圖像處理的羊絨與羊毛識(shí)別研究[J].棉紡織技術(shù),2019,47(10):30-34.

LIU Shuang, XU Zhongbao, LI Chunqiao, et al. Study on the recognition of cashmere and wool based on digital image processing[J].Cotton Textile Technology, 2019, 47(10) : 30-34.

[10]盛冠忠,李龍.關(guān)于山羊絨鑒別有關(guān)問(wèn)題的探討[J].毛紡科技,2007,35(12):52-55.

SHENG Guanzhong, LI Long. Study on distinguishing problem of cashmere fiber[J]. Wool Textile Journal, 2007, 35(12): 52-55.

猜你喜歡
圖像處理深度學(xué)習(xí)
基于線性源法與圖像處理的土壤飽和導(dǎo)水率快速測(cè)量方法
“課程思政”視域下職業(yè)學(xué)?!秷D像處理》課程教學(xué)改革實(shí)踐
構(gòu)建《Photoshop圖像處理》課程思政實(shí)踐教學(xué)路徑的探索
基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識(shí)別
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)