国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于雙參數(shù)閾值的蠶繭分割及雙宮繭識別研究

2023-07-04 07:10:28蔣昭瓊應(yīng)婧王春霞宋樂見何清燕郭鵬吝祥根鄧立黎
絲綢 2023年4期
關(guān)鍵詞:圖像分割計數(shù)閾值

蔣昭瓊 應(yīng)婧 王春霞 宋樂見 何清燕 郭鵬 吝祥根 鄧立黎

摘要: 針對粘連蠶繭難以準確分割、現(xiàn)有雙宮繭識別方法局限性等問題,本文提出了基于雙參數(shù)閾值的蠶繭分割計數(shù)、蠶繭形狀復(fù)原及雙宮繭識別的串聯(lián)算法。首先,應(yīng)用可變分割閾值結(jié)合形態(tài)學運算的方法對圖像進行分割計數(shù),再遍歷完成分割的每個蠶繭的像素點,應(yīng)用基于邊緣檢測與橢圓擬合的蠶繭形狀復(fù)原方法擬合蠶繭形狀,然后計算蠶繭長短軸比值和面積參數(shù),采用雙參數(shù)多級閾值對雙宮繭進行檢測。實驗結(jié)果顯示,圖像分割計數(shù)準確度為100%,雙宮繭全部檢出,雙宮繭與單宮蠶繭分類準確率為98.6%。該方法檢出了面積閾值法易漏檢的小雙宮繭,也較準確地識別出與長短軸比值閾值接近的蠶繭類型。

關(guān)鍵詞: 圖像分割;雙宮繭;計數(shù);分類;算法;閾值

中圖分類號: TS143.215

文獻標志碼: A

文章編號: 1001-7003(2023)04-0018-08

引用頁碼:

041103

DOI: 10.3969/j.issn.1001-7003.2023.04.003(篇序)

蠶繭原料的質(zhì)量直接影響生絲質(zhì)量,在繅絲前應(yīng)對蠶繭進行分選,剔除無法用于繅絲的下繭。傳統(tǒng)的蠶繭分選基本依靠人工視覺進行判別,勞動強度大、選繭效率低、漏選率高,選繭的準確性易受選繭人員的技術(shù)水平、精神狀態(tài)等主觀因素影響[1-3]。近年來,隨著人工智能的高速發(fā)展,機器視覺技術(shù)廣泛應(yīng)用于代替人眼進行測量和判定。目前,以蠶繭圖像為研究對象開展了一系列研究,包括蠶繭表面積的展開[4]與測量[5-7]、雌雄蠶蛹分類識別[8]、方格蔟蠶繭分割定位[9]與黃斑繭檢測[10]、蠶繭表面污斑面積的自動檢測[3]、下繭與上車繭的分類識別[1-2,11-13]等,充分展現(xiàn)出機器視覺技術(shù)在蠶繭分選領(lǐng)域的應(yīng)用潛力。在實際應(yīng)用中,蠶繭的分類識別首先需要解決目標蠶繭的計數(shù)問題。黃靜等[14]針對二值圖像中出現(xiàn)的多個對象相互粘連的情況,應(yīng)用形態(tài)學方法和K-means聚類算法,實現(xiàn)了對蠶繭圖像的分割和計數(shù)。孫衛(wèi)紅等[15]提出了一種基于凹點定向腐蝕的粘連蠶繭圖像分割方法,平均分割準確率為96.2%。古亭等[16]提出了一種基于距離變換的粘連蠶繭分割方法,計數(shù)準確率達99%以上??追笔サ龋?7]利用改進的多層次距離變換并結(jié)合分水嶺的分割算法,計數(shù)精度達到99.97%,但該方法在對大小差異大的蠶繭計數(shù)時會造成準確率下降。這些方法主要用于分割計數(shù),沒有進一步討論分割后的蠶繭種類識別。

雙宮繭是制作蠶絲被的最佳原料,在選繭過程中,要與其他類型下繭分開單獨歸為一類。目前機器視覺技術(shù)中,雙宮繭的識別主要有面積閾值法和橢圓長短軸比值閾值法。杜昕等[18]、宋亞杰等[19]通過不同蠶繭圖像面積計算方法,利用面積閾值來判斷是否為雙宮繭。Prasobhkumar等[20]采用橢圓擬合蠶繭形狀,計算橢圓的長短軸比值,將比值小于1.426的蠶繭判斷為雙宮繭。面積閾值法的缺點是較小的雙宮繭不能檢出。橢圓長短軸比值閾值法則不適用于頭尾相連類型的雙宮繭,且過度依賴于對蠶繭形狀的準確擬合。然而,由于蠶繭形狀的輕微不規(guī)則、附絲及蠶繭之間的粘連,使得橢圓擬合與實際形狀有出入,可能誤判在閾值附近的蠶繭種類。因此,僅依靠面積閾值或者擬合的橢圓長短軸比值閾值進行雙宮繭識別,均存在一定局限性。針對粘連蠶繭難以準確分割、雙宮繭識別局限性等問題,本文提出了基于可變閾值結(jié)合形態(tài)學運算的蠶繭分割計數(shù)、基于邊緣檢測與橢圓擬合的蠶繭形狀復(fù)原及基于雙參數(shù)多級閾值的雙宮繭識別算法。

1 方 法

1.1 圖像采集

蠶繭圖像采集裝置由光源、工業(yè)相機(??低昅V-CE200-10UC)、鏡頭(LOMOSEN ZX-SF3528T)、實驗架和計算機構(gòu)成。在蠶繭分選的視覺系統(tǒng)中,一旦結(jié)構(gòu)固定,每臺相機與測試視野之間的距離就不會改變,故本實驗采用固定的工業(yè)相機與測試臺距離,采集蠶繭圖像進行分析。

1.2 蠶繭圖像分割計數(shù)

圖像分割方法一般是通過灰度、顏色、紋理和形狀等特征對圖像進行分割。常見的傳統(tǒng)分割方法有基于閾值、邊緣、聚類的分割,這些方法在界限分明的目標分割中能又快又好地

完成分割,但對于光照不均勻、分割對象多、相鄰分割對象的邊緣灰度相近等情況較難完全分割。由于蠶繭圖像中蠶繭分布密集且有附絲干擾,相鄰蠶繭邊緣灰度相近,傳統(tǒng)圖像分割方法難以分割完全。為解決直接應(yīng)用傳統(tǒng)圖像分割算法的缺陷,本文提出了一種基于可變分割閾值結(jié)合形態(tài)學運算的圖像分割改進算法,其算法流程如圖1所示。

1) 將采集的彩色圖像I0轉(zhuǎn)化為灰度圖I1,再增加圖像對比度I2,然后提取圖像全局直方圖閾值T0,將其作為初始的圖像分割閾值T。

2) 應(yīng)用分割閾值T對圖像I2進行二值化、形態(tài)學腐蝕運算,得到二值圖I3,去掉I3中面積較小的連通區(qū)域,遍歷余下的每個連通區(qū)域,進行形態(tài)學膨脹運算,應(yīng)用單個蠶繭像素面積閾值S0及長寬閾值L0來判別該區(qū)域是否為兩個及以上的蠶繭相連。若不是,則該連通區(qū)域為單個蠶繭,將該區(qū)域像素點進行標記并計數(shù),依次存入數(shù)據(jù)集P;若是蠶繭相連,則將該區(qū)域像素點放入數(shù)據(jù)集O。

3) 若數(shù)據(jù)集O非空,對I2進行掩膜處理,使數(shù)據(jù)集O中像素點為前景,其余像素點為背景,得到新的只包含未分割開的蠶繭的灰度圖像I2;更新分割閾值T,新的分割閾值在上一級閾值的基礎(chǔ)上增加ΔT,即T=T+ΔT,返回步驟2。

4) 若數(shù)據(jù)集O為空集,或迭代次數(shù)到達上限,則退出循環(huán)。

分割好的蠶繭數(shù)據(jù)集P,由數(shù)組p1、p2…pi…pn組成,代表圖像中有n個蠶繭,向量pi為第i個蠶繭的像素點。

該算法應(yīng)用了連通區(qū)域的像素面積和連通區(qū)域像素點外接矩陣的長邊長兩個參數(shù),對每個連通區(qū)域是否進入下一級分割進行判定。

1.3 單個蠶繭形狀復(fù)原

由于高閾值分割導(dǎo)致得到的單個蠶繭圖像小于原圖像大小,要進一步對每個蠶繭進行分析,需要進行蠶繭形狀復(fù)原。由此提出基于邊緣檢測與橢圓擬合的蠶繭形狀復(fù)原算法:對于每個蠶繭,分割出的像素點組成的圖像小于等于實際圖像,重疊兩圖像后,前者在后者的內(nèi)部;選用合適的標準差和高低閾值,通過Canny算子進行邊緣檢測;根據(jù)像素點真值區(qū)域,適當拓寬確定目標區(qū)域位置,并進行裁剪,得到兩個大小相同的邊緣點組成的二值圖像roi0和roi1,roi0為分割出的像素點組成的圖像邊緣檢測圖,roi1為從原圖邊緣檢測圖中裁剪的目標區(qū)域;對roi0中的邊緣點進行去冗,去掉內(nèi)部點和多余的輪廓點,以減少運算量;遍歷roi0中的邊緣點,在roi1中找到非roi0邊緣輪廓區(qū)域內(nèi)的、與該點距離最近的點,由這些點進行橢圓擬合[21],得到該蠶繭的圖像(圖2)。

1.4 雙宮繭的識別

對于每一個蠶繭,經(jīng)過目標分割、形狀復(fù)原,得到橢圓擬合的蠶繭形狀。由擬合的橢圓長軸半徑a和短軸半徑b,通過下式可計算出橢圓長軸與短軸長度比值RT1和橢圓面積A。

RT1=a/b(1)

A=π×a×b(2)

根據(jù)橢圓傾斜角,將擬合橢圓的邊緣點旋轉(zhuǎn)后可得邊緣點的最小外接矩陣長邊與短邊比值。為減少直接最小二乘法橢圓擬合導(dǎo)致的橢圓長短軸比值與蠶繭實際值之間的誤差,通過下式估算單個蠶繭長短軸比值。

RT=RT1,RT1≥RT2(RT1+RT2)/2,RT1

式中:RT為估算的單個蠶繭長短軸比值;RT1為蠶繭邊緣點擬合的橢圓長短軸比值;RT2為蠶繭邊緣點的最小外接矩陣長短邊比值。

為了更簡便地應(yīng)用蠶繭面積進行比較,定義蠶繭的面積指數(shù)如下式所示。

SI=A-c0c0(4)

式中:SI為蠶繭的面積指數(shù);A為蠶繭橢圓擬合像素面積;c0為單宮蠶繭平均像素面積。

考慮到雙宮繭大小差異和形狀不規(guī)則,應(yīng)用單個蠶繭的長短軸長度比值RT和蠶繭的面積指數(shù)SI這兩個參數(shù),采用多級閾值RTj和SIj(j=1,2,3,…,M)判斷蠶繭是否為雙宮繭,j表示分段數(shù)量。通過一張或多張具有代表性的雙宮繭標記的蠶繭圖像,統(tǒng)計分析雙宮繭與單宮蠶繭的RT和SI取值,確定分段數(shù)量及每段對應(yīng)的閾值RTj和SIj。

2 結(jié)果與分析

2.1 預(yù)實驗

選用體積差異大的無附絲的蠶繭成像,包含雙宮繭和單宮蠶繭,蠶繭之間留有足夠的空隙。通過圖像灰度變換、圖像增強、Otsu閾值分割等算法,提取蠶繭區(qū)域像素值,得到該圖像采集條件下的單個蠶繭像素面積大約為340 000~800 000(用像素數(shù)量表示)??紤]到兩個較小的蠶繭在一起的情況,取700 000作為單個蠶繭的像素面積閾值S0,同時以蠶繭長軸長1 000(用像素數(shù)量表示)作為連通區(qū)域的像素長寬閾值L0。運用雙參數(shù)閾值S0和L0判斷圖像分割過程中連通區(qū)域是否為進入下一級閾值分割循環(huán)。

計算該圖像采集條件下的單宮蠶繭的蠶繭像素面積平均值約為465 000,則單宮蠶繭平均面積c0取值為465 000。

2.2 蠶繭分割實驗

圖3為采用可變閾值結(jié)合形態(tài)學運算對蠶繭圖像進行迭代分割的過程。初始二值化閾值T0由Otsu算法(即最大類間方差法)求得,圖像二值化后得到的圖像粘連嚴重(圖3(b))。通過增加形態(tài)學腐蝕步驟可分開粘連較少的蠶繭個體,使大部分蠶繭個體成為獨立連通區(qū)域(圖3(c)),減少后續(xù)分割迭代運算量。接著對每個連通區(qū)域進行形態(tài)學膨脹,以盡可能恢復(fù)每個蠶繭的形狀,然后將形態(tài)學膨脹后的連通區(qū)域的像素數(shù)和外接矩陣長寬值與對應(yīng)的閾值進行比較。像素數(shù)大于單個蠶繭像素面積閾值S0且外接矩陣長邊長度大于L0的連通區(qū)域被判別為可能有兩個及以上蠶繭相連,需要進一步分割,如圖3(c)中紅色線圈區(qū)域。圖3(d)為第一次分割后得到的分割好的22個蠶繭像素點組成的二值圖像,可以看出相鄰的蠶繭有相連的像素點,若不運用形態(tài)學運算,這些有像素點連接的蠶繭此次分割是分不開的。形態(tài)學運算采用的是半徑為100(用像素數(shù)量表示)的圓形結(jié)構(gòu)元素。當進行形態(tài)學腐蝕時,用半徑為100的圓在蠶繭的二值圖(二值圖中白色區(qū)域像素點取值為1,黑色區(qū)域取值為0)中滑動,圓心依次與圖像中的每個像素點重疊,計算圓形結(jié)構(gòu)重疊區(qū)域的局部最小值,僅當被圓覆蓋的局部圖像像素點取值均為1時,圓心對應(yīng)的像素點取值才為1,否則為0,此時可以將像素連接小于圓直徑的蠶繭分割開,運算后得到的形態(tài)學腐蝕圖會“變瘦”。而對分割后的連通區(qū)域進行形態(tài)學膨脹,則取圓形結(jié)構(gòu)重疊區(qū)域的最大值,只要區(qū)域中有一個像素點取值為1,則圓心對應(yīng)的像素點取值也為1,此時大部分“變瘦”的蠶繭又恢復(fù)原來的大小了。

以0.2倍T0的閾值變化速率增加圖像二值化分割閾值,

對需要進一步分割的區(qū)域?qū)?yīng)的蠶繭原圖進行分割。圖3(e~g)為圖3(c)中紅色線圈區(qū)域的蠶繭在分割閾值為T0的1.6倍時的圖像分割過程。分割結(jié)束后,根據(jù)每個蠶繭對應(yīng)的像素點,就能找到該蠶繭在圖中的位置(圖3(h))。

應(yīng)用該蠶繭目標分割算法,本文測試了10張圖片共222個蠶繭的分割計數(shù)。結(jié)果顯示,每張圖片中的蠶繭均分割完全,計數(shù)準確度100%,如表1所示。

2.3 蠶繭形狀復(fù)原

蠶繭圖像經(jīng)過目標分割后,應(yīng)對每個蠶繭的像素點進行處理以復(fù)原該蠶繭形狀,以便進行蠶繭種類識別(圖4)。從圖4(a~c)可以看出,高閾值分割的蠶繭、光照不均和表面污點的蠶繭在圖像分割中得到的像素點圖小于原圖像大小。本文以圖4(a)中的紅色線圈區(qū)域的蠶繭像素點為例,對單個蠶繭形狀復(fù)原過程進行描述。采用Canny算子(邊緣檢測算子),選用標準差為20,低閾值為0,高閾值為0.2,對像素點圖和原圖進行邊緣檢測,以像素點圖的邊緣點外接矩陣為中心,向四面擴展300像素點數(shù)來確定感興趣區(qū)域位置和大小,并對圖像進行裁剪,得到兩個大小相同的邊緣點組成的二值圖像roi0和roi1。為了可視化區(qū)分兩個邊緣點圖,本文以分割出的像素點組成的圖像代替其對應(yīng)的邊緣點圖roi0,如圖4(d)所示,白色區(qū)域為目標蠶繭像素點,點線部分為原圖邊緣檢測裁剪后的蠶繭輪廓邊緣點。

接著應(yīng)用兩個邊緣點圖的幾何關(guān)系篩選目標蠶繭的邊緣點,去除其他蠶繭和附絲的邊緣點。再對目標蠶繭邊緣點進行橢圓擬合,如圖4(e)所示。為了對比蠶繭形狀復(fù)原效果,本文在蠶繭原圖中用彩色線條畫出了擬合的橢圓,如圖4(c)(f)所示,可以看出大部分擬合的橢圓線條與蠶繭輪廓重合。

2.4 雙宮繭檢測實驗

由于蠶繭的輕微不規(guī)則及個別外點的存在,有的蠶繭擬合的橢圓與蠶繭輪廓有些許出入。從圖4(f)可以看出,該蠶繭擬合的橢圓短軸長度比實際蠶繭的短軸長,這樣會導(dǎo)致橢圓長短軸比值比蠶繭實際情況小,因此需要適當對長短軸比值進行校正。應(yīng)用橢圓擬合的傾斜角度,對目標蠶繭的輪廓邊緣點進行角度變換,得到新的坐標,使變換后的這些點擬合的橢圓長短軸與坐標軸平行。由此可得到這些邊緣點區(qū)域的最小外接矩陣的長邊與短邊像素長度比值RT2,并與擬合的橢圓長短軸比值RT1進行比較,應(yīng)用式(3)確定該蠶繭長短軸比值RT。通過擬合的橢圓面積A及預(yù)實驗中得到的單宮蠶繭平均像素面積c0,應(yīng)用式(4)可計算出面積指數(shù)SI。應(yīng)用估算的蠶繭長短軸半徑比RT和面積指數(shù)SI,來判斷該蠶繭是否為雙宮繭。在本文實驗中,通過統(tǒng)計分析,結(jié)合雙宮蠶繭特征,設(shè)定滿足以下條件之一即為雙宮繭,如下式所示。

①RT<1.4且SI>0②RT<1.5且SI>0.1③RT<1.6且SI>0.21④RT<1.7且SI>0.25⑤SI>0.4(5)

式(5)為雙宮繭識別的雙參數(shù)多級閾值,只要滿足其中一個條件則判別為雙宮繭。條件①和條件②主要依據(jù)蠶繭的長短軸半徑比進行判斷,為了限制邊緣不完整的蠶繭圖片被歸為雙宮繭,在長短軸半徑比閾值的基礎(chǔ)上,加了面積指數(shù)限制條件。條件③和條件④協(xié)同考慮蠶繭長短軸半徑比與面積指數(shù)。條件⑤主要依據(jù)雙宮蠶繭的面積比正常蠶繭大得多來進行判斷,能兼容頭尾相接的雙宮繭類型。若五個條件均不滿足,則認為不是雙宮繭(圖5)。

表2顯示了圖5中12個蠶繭的類型及其橢圓擬合參數(shù)。第1~7個蠶繭為雙宮繭,滿足條件①或條件②。其中第6個蠶繭和第7個蠶繭,若僅用Prasobhkumar等[20]橢圓擬合的長短軸半徑比閾值0.426來判斷,會被歸為單宮蠶繭類。若單純以面積來進行判別,第4個蠶繭的面積比第8~12個蠶繭的面積都小,會優(yōu)先將后者判斷為雙宮繭而漏檢前者。因而,采用基于估計的蠶繭長短軸比與面積參數(shù)相結(jié)合的雙參數(shù)判別方式對雙宮繭進行識別,比僅采用一種參數(shù)的方法實用性更強。

應(yīng)用本文提出的算法,分別對10張蠶繭圖片進行蠶繭圖形分割、蠶繭形狀復(fù)原及雙參數(shù)閾值的雙宮繭判別,實驗結(jié)果如表3所示。10張圖片共222個蠶繭,實際雙宮繭數(shù)為46個,檢出數(shù)共49個。檢出的49個蠶繭中,實際雙宮繭有46個,另外3個是誤檢為雙宮繭的單宮蠶繭??傮w上,雙宮繭與單宮蠶繭分類識別準確率為98.6%。

進一步對誤檢的蠶繭進行分析,本文截取了這3個誤檢蠶繭的橢圓擬合進行對比,如圖6所示。圖6(a)為板印蠶繭,可能由于蠶結(jié)繭時受到擠壓使得該視野面的面積較大。這類誤檢可以通過提取板印繭特征、建立多分類模型、板印繭類型優(yōu)先判定來排除。圖6(b)(c)蠶繭橢圓擬合不準確,通過分析發(fā)現(xiàn),因為蠶繭周邊附絲厚,部分位置附絲與蠶繭邊緣之間幾乎沒有灰度梯度,邊緣檢測時,這些位置的蠶繭的邊緣點未能檢出,而是擴張到更遠的附絲區(qū)域,此時采用直接最小二乘法進行橢圓擬合會使擬合的橢圓與蠶繭形狀差異較大,從而導(dǎo)致出現(xiàn)誤檢。實際人工選繭生產(chǎn)線上,會優(yōu)先去除附絲,以避免附絲遮擋蠶繭特征,影響選繭效率和準確度。機器視覺成像質(zhì)量同樣受附絲影響,實際應(yīng)用中也應(yīng)去除厚重的附絲,讓圖像顯現(xiàn)出蠶繭本身面貌,才能更準確分類。

3 結(jié) 論

蠶繭目標分割與定位是蠶繭種類識別的基礎(chǔ),為解決蠶繭分選環(huán)節(jié)雙宮繭機器視覺識別技術(shù)難題,針對粘連蠶繭難以準確分割、雙宮繭識別局限性等問題,本文提出了基于可變閾值結(jié)合形態(tài)學運算的雙參數(shù)控制的蠶繭分割計數(shù)算法、基于邊緣檢測與橢圓擬合的蠶繭形狀復(fù)原及基于雙參數(shù)的多級閾值雙宮繭識別方法,將蠶繭分割與種類識別串聯(lián),以保證方法的適用性。圖像分割計數(shù)算法能有效地標記蠶繭個體位置,分割計數(shù)準確度高達100%,保證后續(xù)的蠶繭種類識別能夠順利開展。通過蠶繭形狀復(fù)原算法擬合的蠶繭形狀,根據(jù)估算的蠶繭長短軸比值和面積指數(shù)兩個參數(shù),采用多級閾值對雙宮繭進行檢測,既能檢出面積閾值法不能檢出的小雙宮繭,也能避免橢圓長短軸比值閾值法識別雙宮繭的局限性。在雙宮繭檢測實驗中,雙宮繭全部檢出,極少數(shù)單宮蠶繭被誤檢為雙宮繭,雙宮繭與單宮蠶繭分類識別的準確率為98.6%。

本文提出的蠶繭目標分割和雙宮繭識別串聯(lián)算法,能有效地對機器視覺圖像進行處理得到各蠶繭目標是否為雙宮繭的結(jié)論。該串聯(lián)算法以預(yù)實驗確定所攝圖像中正常蠶繭面積、正常蠶繭長軸長作為先驗條件。對于輕微重疊的蠶繭目標可以分割開,但對于重疊放置嚴重的蠶繭可能會誤分割為同一個蠶繭,從而影響蠶繭分類識別。因此,此方法適用于蠶繭平鋪在視野中成像的圖像處理。

參考文獻:

[1]孫衛(wèi)紅, 黃志鵬, 梁曼, 等. 基于顏色特征和支持向量機的蠶繭分類方法研究[J]. 蠶業(yè)科學, 2020, 46(1): 86-95.

SUN Weihong, HUANG Zhipeng, LIANG Man, et al. Cocoon classification method based on color feature and support vector machine[J]. Acta Sericologica Sinica, 2020, 46(1): 86-95.

[2]陳國棟. 引入注意力機制的蠶繭識別算法[J]. 紡織報告, 2020, 39(11): 23-25.

CHEN Guodong. Cocoon recognition algorithm based on attention mechanism[J]. Textile Reports, 2020, 39(11): 23-25.

[3]陳浩, 楊崢, 劉霞, 等. 基于MATLAB的桑蠶繭選繭輔助檢驗方法的研究[J]. 絲綢, 2016, 53(3): 32-36.

CHEN Hao, YANG Zheng, LIU Xia, et al. Study on auxiliary testing method for mulberry silkworm cocoon sorting based on MATLAB[J]. Journal of Silk, 2016, 53(3): 32-36.

[4]孫衛(wèi)紅, 廖藝真, 梁曼, 等. 蠶繭表面圖像等效階梯柱面展開[J]. 中國圖象圖形學報, 2020, 25(3): 498-506.

SUN Weihong, LIAO Yizhen, LIANG Man, et al. Equivalent step cylinder unfolding of silkworm cocoon surface image[J]. Journal of Image and Graphics, 2020, 25(3): 498-506.

[5]甘勇, 孔慶華, 韋荔甫. 基于數(shù)字圖像處理的蠶繭表面積計算方法[J]. 光學技術(shù), 2007(1): 27-28.

GAN Yong, KONG Qinghua, WEI Lifu. A method to calculate cocoons superficial areas based on the digital image processing[J]. Optical Technique, 2007(1): 27-28.

[6]華中平, 甘勇. 基于圖像處理的蠶繭表面積計算方法[J]. 絲綢, 2004(3): 16-18.

HUA Zhongping, GAN Yong. A method to calculate cocoons superficial area based on image processing[J]. Journal of Silk, 2004(3): 16-18.

[7]周志宇, 劉喜昂, 楊東鶴. 機器視覺在蠶繭表面積測量中的應(yīng)用[J]. 紡織學報, 2006(12): 29-31.

ZHOU Zhiyu, LIU Xiang, YANG Donghe. Application of machine vision in measurement of cocoon superdicial area[J]. Journal of Textile Research, 2006(12): 29-31.

[8]龔攀, 李光林. 基于計算機視覺的蠶蛹性別識別應(yīng)用研究[J]. 農(nóng)機化研究, 2014, 36(1): 206-209.

GONG Pan, LI Guanglin. The recognition application research of the tupa gender based on computer vision[J]. Journal of Agricultural Mechanization Research, 2014, 36(1): 206-209.

[9]劉莫塵, 許榮浩, 李法德, 等. 基于顏色與面積特征的方格蔟蠶繭分割定位算法與試驗[J]. 農(nóng)業(yè)機械學報, 2018, 49(3): 43-50.

LIU Mochen, XU Ronghao, LI Fade, et al. Algorithm and experiment of cocoon segmentation and location based on color and area feature[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(3): 43-50.

[10]劉莫塵, 許榮浩, 閆筱, 等. 基于FCM及HSV模型的方格蔟黃斑繭檢測與剔除技術(shù)[J]. 農(nóng)業(yè)機械學報, 2018, 49(7): 31-38.

LIU Mochen, XU Ronghao, YAN Xiao, et al. Detection and elimination of yellow spotted cocoon in mountage based on FCM algorithm and HSV color model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(7): 31-38.

[11]李時杰, 孫衛(wèi)紅, 梁曼, 等. 基于CD-YOLO算法的蠶繭種類識別[J]. 中國計量大學學報, 2021, 32(3): 398-405.

LI Shijie, SUN Weihong, LIANG Man, et al. Cocoon species recognition based on CD-YOLO algorithms[J]. Journal of China University of Metrology, 2021, 32(3): 398-405.

[12]孫衛(wèi)紅, 楊程杰, 邵鐵鋒, 等. 基于MSRCR與注意力機制的群體蠶繭智能識別算法[J]. 絲綢, 2022, 59(6): 58-65.

SUN Weihong, YANG Chengjie, SHAO Tiefeng, et al. Intelligent recognition algorithm of group cocoons based on MSRCR and CBAM[J]. Journal of Silk, 2022, 59(6): 58-65.

[13]張印輝, 楊宏寬, 朱守業(yè), 等. 基于輕型調(diào)控網(wǎng)絡(luò)的下繭機器視覺實時檢測[J]. 農(nóng)業(yè)機械學報, 2022, 53(4): 261-270.

ZHANG Yinhui, YANG Hongkuan, ZHU Shouye, et al. Machine vision real time detection of inferior cocoons based on lightweight manipulation network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(4): 261-270.

[14]黃靜, 張琦, 江文斌. 基于改進K-means算法的蠶繭自動計數(shù)方法的研究[J]. 絲綢, 2014, 51(1): 37-40.

HUANG Jing, ZHANG Qi, JIANG Wenbin. Study on automatic cocoon counting method based on improved K-means algorithm[J]. Journal of Silk, 2014, 51(1): 37-40.

[15]孫衛(wèi)紅, 洪徐健, 梁曼, 等. 基于凹點定向腐蝕的粘連蠶繭圖像分割方法[J]. 蠶業(yè)科學, 2019, 45(3): 369-376.

SUN Weihong, HONG Xujian, LIANG Man, et al. Image segmentation method for adhesive cocoons based on directional erosion in concave point[J]. Acta Sericologic of Science, 2019, 45(3): 369-376.

[16]古亭, 李子印, 王樂. 基于距離變換的粘連蠶繭分割方法[J]. 計算機工程與應(yīng)用, 2019, 55(23): 177-181.

GU Ting, LI Ziyin, WANG Le. Method for segmentation of silkworm cocoons based on distance transformation[J]. Computer Engineering and Applications, 2019, 55(23): 177-181.

[17]孔繁圣, 李子印, 古亭, 等. 基于多層次距離變換的蠶繭分割計數(shù)算法[J]. 蠶業(yè)科學, 2020, 46(2): 190-196.

KONG Fansheng, LI Ziyin, GU Ting, et al. Cocoon segmentation and counting algorithm based on multi-level distance transformation[J]. Acta Sericologic of Science, 2020, 46(2): 190-196.

[18]杜昕, 劉文烽, 林毅堅. 基于機器視覺動態(tài)選繭系統(tǒng)的研究[J]. 企業(yè)科技與發(fā)展, 2018(4): 91-94.

DU Xin, LIU Wenfeng, LIN Yijian. Research on dynamic cocoon selection system based on machine vision[J]. Sci-Tech & Development of Enterprise, 2018(4): 91-94.

[19]宋亞杰, 謝守勇, 冉瑞龍. 機器視覺技術(shù)在蠶繭無損檢測中的應(yīng)用研究[J]. 現(xiàn)代農(nóng)業(yè)裝備, 2006(9): 48-51.

SONG Yajie, XIE Shouyong, RAN Ruilong. Application research on machine vision technology in nondestructive test of cocoon[J]. Modern Agricultural Equipment, 2006(9): 48-51.

[20]PRASOBHKUMAR P P, FRANCIS C R, GORTHI S S. Automated quality assessment of cocoons using a smart camera based system[J]. Engineering in Agriculture, Environment and Food, 2018, 11(4): 202-210.

[21]FITZGIBBON A, PILU M, FISHER R B. Direct least squares fitting of ellipses[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(5): 476-480.

Research on cocoon segmentation and double cocoon recognition based on two-parameter thresholds

JIANG Zhaoqiong1,2, YING Jing1,2, WANG Chunxia1,2, SONG Lejian1, HE Qingyan1,2, GUO Peng1, LIN Xianggen1, DENG Lili1

(1.Sichuan Research & Design Institute of Agricultural Machinery, Chengdu 610066, China; 2.Key Laboratory of Agricultural EquipmentTechnology for Hilly and Mountainous Areas, Ministry of Agriculture and Rural Affairs, Chengdu 610066, China)

Abstract:

The quality of cocoons directly affects the quality of raw silk. Before reeling, the cocoons should be sorted to remove the inferior cocoons that cannot be used for reeling. The double cocoon is the best raw material for making silk quilts. Therefore, it should be separated from other types of inferior cocoons and classified separately in the process of selecting cocoons. The traditional cocoon sorting basically relies on manpower, which involves high labor intensity, low efficiency of cocoon selection and high missing rate, and the accuracy of cocoon selection is easily affected by subjective factors such as the technical level and mental state of cocoon selection personnel. With the rapid development of artificial intelligence, machine vision technology is widely used to replace human eyes for detection and recognition. At present, in machine vision technology, the recognition of double cocoons mainly includes area threshold method and the threshold method of the ratio of long to short axis of ellipse. The disadvantage of the area threshold method is that small double cocoons cannot be detected. The threshold method of the ratio of long to short axis of ellipse is not applicable to the double cocoon of the head-to-tail type and relies too much on the accurate fitting of the cocoon shape. However, due to the slight irregularity of the cocoon shape, the attachment silk and the adhesion between the cocoons, the ellipse fitting is different from the actual shape, which may result in peoples misjudging the cocoon type near the threshold. Therefore, there are some limitations in the identification of double cocoons by only depending on the area threshold or the threshold of the ratio of long to short axis of the fitted ellipse.

Due to the dense distribution of cocoons in the cocoon image and the interference of attached silk, the gray scale of adjacent cocoons is similar, so it is difficult to conduct segmentation completely by traditional image segmentation methods. Therefore, the segmentation and counting problem of target cocoons should be solved first for the classification and recognition of cocoons. Aiming at the problems that it is difficult to accurately segment the adhered cocoons and the limitations of the existing double cocoon recognition methods, we proposed a series of algorithms for the segmentation and counting of cocoons, the shape restoration of cocoons and the recognition of double cocoons. Firstly, we proposed an improved image segmentation algorithm based on variable segmentation threshold by combining with morphological operation. Otsu binarization threshold was used as the initial segmentation threshold, and binarization, morphological erosion operation and morphological expansion operation were performed on the image. The pixel area threshold and length-width threshold of single cocoons were used to distinguish the connected region. If a cocoon is a single one, it is marked and counted. If it is determined to be connected to other cocoons, the segmentation threshold is increased again for another segmentation. Then, a cocoon shape restoration method based on edge detection and ellipse fitting was proposed. The pixels of each cocoon that had been segmented were traversed. The Canny operator was used to detect the edge of the original image. The pixel points of the segmented cocoon were used to determine the edge points of the cocoon, and the edge points were elliptically fitted to obtain the image of the cocoon. Finally, the ratio of long to short axis of the cocoon and the area parameters were calculated, and the double-parameter threshold was used to recognize the double cocoon. And then, the serial algorithm proposed in this paper was used to segment cocoon graphics, restore cocoon shape, and distinguish double cocoons in 10 cocoon images. The results show that the 222 cocoons of all the ten pictures are completely segmented, and the counting accuracy is 100%. A total of 46 double cocoons in the pictures are detected, and the classification accuracy of double cocoons and single cocoons is 98.6%. This method detects the small double cocoons which are easy to be missed by the area threshold method, and accurately identifies the cocoon type which is close to the threshold of the ratio of long to short axis.

The series algorithm of cocoon target segmentation and double cocoon recognition proposed in this paper can effectively process the machine vision image to get the conclusion whether each cocoon is a double one. In the series algorithm, the pre-experiment is used to determine the area of the normal cocoon and the length of the long axis of the normal cocoon as the prior conditions in the captured image. The cocoon target with slight overlap can be separated, but the cocoons with serious overlap may be mistakenly divided into the same group, thus affecting the classification and recognition of the cocoon. Therefore, this method is suitable for the image processing of cocoons laid flat in the field of vision.

Key words:

image segmentation; double cocoons; counting; classification; algorithm; threshold

收稿日期:

2022-08-26;

修回日期:

2023-03-01

基金項目:

四川省省級科研院所基本科研業(yè)務(wù)費項目(2021JBKY0014-05);四川省蠶桑創(chuàng)新團隊項目(SCCXTD-2022-17)

作者簡介:

蔣昭瓊(1984),女,高級農(nóng)藝師,主要從事農(nóng)產(chǎn)品質(zhì)量與品質(zhì)檢測技術(shù)、農(nóng)產(chǎn)品加工及貯藏技術(shù)研究。

猜你喜歡
圖像分割計數(shù)閾值
古人計數(shù)
遞歸計數(shù)的六種方式
古代的計數(shù)方法
小波閾值去噪在深小孔鉆削聲發(fā)射信號處理中的應(yīng)用
基于自適應(yīng)閾值和連通域的隧道裂縫提取
這樣“計數(shù)”不惱人
比值遙感蝕變信息提取及閾值確定(插圖)
河北遙感(2017年2期)2017-08-07 14:49:00
一種改進的分水嶺圖像分割算法研究
科技視界(2016年26期)2016-12-17 16:25:03
基于LabVIEW雛雞雌雄半自動鑒別系統(tǒng)
一種圖像超像素的快速生成算法
高邑县| 尖扎县| 南丹县| 金华市| 青川县| 裕民县| 通渭县| 胶南市| 古浪县| 壤塘县| 佳木斯市| 彭阳县| 四平市| 鹤峰县| 水城县| 玛曲县| 道真| 中方县| 合山市| 大理市| 同心县| 井研县| 西充县| 获嘉县| 亳州市| 南宫市| 玉林市| 安平县| 周至县| 图们市| 托克逊县| 陆川县| 阜平县| 东莞市| 皋兰县| 海宁市| 资中县| 镇雄县| 灵川县| 西峡县| 黑河市|