朱晨鵬,彭宏京*,肖慶華,施浩杰,吳廣
基于專(zhuān)屬0-1模型的茶葉驗(yàn)真方法
朱晨鵬1,彭宏京1*,肖慶華1,施浩杰1,吳廣2
1. 南京工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 南京 211800;2. 新立訊科技股份有限公司,江蘇 南京 210012
針對(duì)傳統(tǒng)濾波方法在茶葉特征選擇上都存在一定的盲目性,以及茶葉類(lèi)別數(shù)不確定等問(wèn)題,提出為每一類(lèi)茶葉都配備一個(gè)專(zhuān)屬0-1分類(lèi)器的驗(yàn)真方法。其中正樣本是目標(biāo)茶葉本身,標(biāo)簽為1,負(fù)樣本是其余茶葉類(lèi)型,標(biāo)簽為0,訓(xùn)練過(guò)程中迫使模型自動(dòng)提取出最適合于區(qū)分目標(biāo)茶葉的隱式特征進(jìn)行驗(yàn)真或驗(yàn)假,同時(shí)使用孿生網(wǎng)絡(luò)對(duì)負(fù)樣本進(jìn)行篩選,緩解了正負(fù)樣本不平衡的問(wèn)題。試驗(yàn)結(jié)果表明,該方法很好的適應(yīng)了茶葉類(lèi)別數(shù)不確定因素的干擾,具有較強(qiáng)的魯棒特性,是一種有效可行的方法。
0-1模型;茶葉驗(yàn)真;孿生網(wǎng)絡(luò);隱式特征
目前,市面上的茶葉真假難辨,為維護(hù)消費(fèi)者權(quán)益,研發(fā)一種高效的茶葉驗(yàn)真方法顯得尤為重要。茶葉的驗(yàn)證是包含兩幅圖像的問(wèn)題,一幅圖像為目標(biāo)茶葉本身,另一幅圖像為待驗(yàn)證茶葉,如何有效的提取目標(biāo)茶葉特征并與待驗(yàn)證圖片進(jìn)行校驗(yàn)成為了驗(yàn)真的關(guān)鍵。
傳統(tǒng)的驗(yàn)證方法[1-5]提取圖像顯式特征進(jìn)行特征匹配,但對(duì)于茶葉品種的多樣化缺乏很好的魯棒性,可能某種特征只適用于區(qū)分某種特定的茶葉,難以區(qū)分同一茶樹(shù)品種、嫩度和制茶工藝下不同茶季的茶葉。多特征組合也僅適用于某個(gè)特定的茶葉庫(kù),難以適應(yīng)將來(lái)新品種茶葉的產(chǎn)生。近年來(lái)基于深度卷積神經(jīng)網(wǎng)絡(luò)的特征提取方法受到廣泛關(guān)注,在茶葉鑒別上,余洪[6]提取茶葉圖像的12個(gè)顏色特征和22個(gè)紋理特征,最后使用主成分分析法提取特征參數(shù)的主成分?jǐn)?shù),采用PCA-GA-BP神經(jīng)網(wǎng)絡(luò)進(jìn)行分類(lèi)識(shí)別,對(duì)碧螺春、婺源綠茶的識(shí)別準(zhǔn)確率分別達(dá)92.5%和85%。
每一種茶葉都有它本身的特性,本文針對(duì)不同茶葉微調(diào)訓(xùn)練出一個(gè)專(zhuān)屬于它自身的0-1模型,該模型利用神經(jīng)網(wǎng)絡(luò)自動(dòng)提取出最適合于區(qū)分目標(biāo)茶葉的隱式特征進(jìn)行驗(yàn)真或驗(yàn)假。相比于之前傳統(tǒng)手工提取特征的方法更加高效,相比于全分類(lèi)模型,其準(zhǔn)確率分布更加平穩(wěn)。
本文所用的茶葉樣本均由新立訊科技股份有限公司與貴州省遵義茶葉交易所聯(lián)合提供,研究中采用的茶葉類(lèi)型如表1所示。
茶葉的驗(yàn)真包含兩幅圖像,一幅圖像為目標(biāo)茶葉本身,另一幅圖像為待驗(yàn)證茶葉。按照傳統(tǒng)的特征匹配方法,本文先提取了各類(lèi)茶葉的尺度不變性特征(Scale- invariant feature transform,SIFT)和方向梯度直方圖(Histogram of oriented gradient,HOG)特征兩種顯式特征進(jìn)行茶葉的驗(yàn)真,具體的驗(yàn)真準(zhǔn)確率如表2所示。
表1 茶葉樣本信息
由表2可以看出,使用兩種顯式特征進(jìn)行驗(yàn)真時(shí)準(zhǔn)確率都較低且分布不平衡,最高為70%,最低僅為7%。造成這種現(xiàn)象的原因一方面是茶葉分布沒(méi)有固定的形態(tài),不存在可以進(jìn)行特征比對(duì)的基準(zhǔn)圖片,在與待驗(yàn)證圖片集進(jìn)行特征匹配時(shí),隨機(jī)的一張茶葉圖片所提取的顯式特征并不具有代表性;另一方面是手工提取特征存在一定的盲目性,某一種特征可能只適用于區(qū)分某類(lèi)特定的茶葉,難以提取出能夠?qū)⑺胁枞~都區(qū)分出來(lái)的顯式特征。
考慮到每一類(lèi)茶葉都有它自身的特性,本研究提出一種基于專(zhuān)屬0-1模型的茶葉驗(yàn)真方法。該方法大致可以分為兩個(gè)階段:數(shù)據(jù)集的篩選階段和模型訓(xùn)練測(cè)試階段,整體的茶葉驗(yàn)證流程圖如圖1所示。
1.2.1 建立茶葉數(shù)據(jù)庫(kù)
本研究選取湄潭翠芽、碧螺春、雨花茶以及遵義紅構(gòu)成整體的茶葉數(shù)據(jù)庫(kù)。同時(shí),每一種茶葉類(lèi)型都具有不同的子類(lèi),共24類(lèi)。例如湄潭翠芽作為綠茶代表茶之一,有一芽一葉型、單芽型和全葉型等。
具體的采樣方法是在室內(nèi)自然光照的條件下,將茶葉平鋪在白紙上,盡量不要露出白底,使用一臺(tái)固定的采樣設(shè)備,本研究使用的是小米8手機(jī)的后置攝像頭,在固定高度的前提下進(jìn)行拍照,具體的采樣示例如圖2所示。采樣結(jié)束后,由于圖片的尺寸較大(3?024×4?032),如果直接將其等比例縮放至299×299作為模型的輸入,則會(huì)造成很大程度的失真。因此,本研究在原圖的基礎(chǔ)上對(duì)其進(jìn)行切割的操作,具體做法是先對(duì)原圖進(jìn)行不同比率的縮放,以模擬在不同高度下拍照導(dǎo)致的茶葉大小以及數(shù)量的變化。另外,選擇了3種比率進(jìn)行縮放,分別是30%、37.5%和50%。然后使用最大內(nèi)接矩框選出每張圖片的茶葉部分,最后進(jìn)行滑動(dòng)框的切割,滑動(dòng)框尺寸與模型輸入相同(299×299)。3種不同比率縮放后進(jìn)行滑動(dòng)框切割的效果如圖3所示。
表2 兩種顯式特征的驗(yàn)真準(zhǔn)確率
圖1 基于0-1模型的茶葉驗(yàn)真流程圖
1.2.2 數(shù)據(jù)處理與增強(qiáng)
為了使模型具有更強(qiáng)的泛化性,本研究對(duì)切割后的茶葉圖片進(jìn)行了數(shù)據(jù)增強(qiáng)[7],以模擬測(cè)試集中使用不同手機(jī)在各種采樣環(huán)境下茶葉所呈現(xiàn)的形態(tài)。增強(qiáng)的方面主要包括亮度調(diào)節(jié)、圖像銳化以及高斯模糊等。亮度的調(diào)節(jié)是將圖片轉(zhuǎn)換到HSV空間中,在原圖基礎(chǔ)上隨機(jī)增大或減小0~20%的亮度。同時(shí)為了突出茶葉的邊緣細(xì)節(jié),采取了銳化操作,使用的拉普拉斯濾波器為﹛[0, -1, 0],[-1, 5, -1],[0, -1, 0]﹜。最后為了模擬出不同分辨率設(shè)備的采樣效果,隨機(jī)抽取了一些切割后的圖片,對(duì)其施加高斯模糊。高斯濾波器的尺寸取3~21的隨機(jī)奇數(shù),標(biāo)準(zhǔn)差越大,模糊效果越明顯。數(shù)據(jù)增強(qiáng)的效果如圖4所示。
1.2.3 孿生網(wǎng)絡(luò)篩選負(fù)樣本
對(duì)于任意一種茶葉,其專(zhuān)屬驗(yàn)真模型的正樣本是它本身,負(fù)樣本是其余茶葉,但如果對(duì)其余每類(lèi)茶葉都選取固定的樣本數(shù)量作為負(fù)樣本,那么隨著茶葉類(lèi)別的增加,必然會(huì)造成正負(fù)樣本不平衡的情況。為了緩解這個(gè)問(wèn)題,本文提出在訓(xùn)練專(zhuān)屬模型前先使用孿生網(wǎng)絡(luò)將其余茶葉按照與目標(biāo)茶葉降維向量的歐式距離進(jìn)行升序排列,距離越小則相似度越高。對(duì)于相似度比較高的茶葉類(lèi)型,模型需要更多地樣本才能將它們和目標(biāo)茶葉區(qū)分開(kāi),因此在升序排列完成后,前1/2類(lèi)茶葉的負(fù)樣本取多,后1/2類(lèi)茶葉取少。孿生網(wǎng)絡(luò)[8-10]主要用于衡量?jī)蓚€(gè)輸入的相似程度,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。
圖2 茶葉采樣示例
圖3 縮放后進(jìn)行滑動(dòng)框切割后的圖片
圖4 數(shù)據(jù)增強(qiáng)效果圖
共享的網(wǎng)絡(luò)層將兩個(gè)通道的輸入映射到新的空間,形成輸入在新空間中的特征表示,最后通過(guò)Loss的計(jì)算,評(píng)價(jià)兩個(gè)輸入的相似度。本文使用VGG16[11]作為孿生網(wǎng)絡(luò)的基準(zhǔn)模型(Shared layers)進(jìn)行訓(xùn)練。使用倒數(shù)第二層(4?096個(gè)神經(jīng)元),即分類(lèi)層前一層的輸出值作為最后的降維向量。在訓(xùn)練之前,使用ImageNet預(yù)訓(xùn)練好的VGG16模型來(lái)初始化權(quán)重和偏置,能夠有效的促進(jìn)模型的收斂。損失函數(shù)設(shè)置為:
1.2.4 專(zhuān)屬0-1驗(yàn)真模型
在圖像識(shí)別中,因Inception V3[12]模型小、運(yùn)行速度快、可遷移性高而被廣泛使用,因此在為目標(biāo)茶葉篩選好負(fù)樣本后,采用遷移學(xué)習(xí)[13]的方式對(duì)Inception V3進(jìn)行微調(diào)得出目標(biāo)茶葉的專(zhuān)屬0-1驗(yàn)真模型,其中正樣本是目標(biāo)茶葉本身,標(biāo)簽為1,負(fù)樣本是其余茶葉類(lèi)型,標(biāo)簽為0。如圖6所示,首先使用ImageNet中預(yù)訓(xùn)練好的模型初始化所有參數(shù),由于微調(diào)只訓(xùn)練全連接層的參數(shù),所以每張圖片經(jīng)過(guò)最后一層池化層pool_3后得到的特征向量都被保存在Bottleneck文件中,最后在訓(xùn)練時(shí)只需讀取該文件中存儲(chǔ)的數(shù)據(jù)作為輸入就可以調(diào)整全連接層參數(shù)。損失函數(shù)設(shè)置為二元交叉熵?fù)p失函數(shù):
其中是末端神經(jīng)元的實(shí)際輸出值,是logits的期望輸出值,當(dāng)輸入圖片是目標(biāo)茶葉時(shí),為1,否則為0。
測(cè)試階段使用的測(cè)試集是由多個(gè)不同型號(hào)的手機(jī)按照1.2.1章節(jié)的采樣方法得到,在驗(yàn)證目標(biāo)茶葉的真假時(shí),首先調(diào)出該目標(biāo)茶葉的專(zhuān)屬0-1驗(yàn)真模型,然后將待驗(yàn)證的茶葉圖片經(jīng)過(guò)滑動(dòng)框切割后逐個(gè)輸入模型,最后目標(biāo)茶葉驗(yàn)真準(zhǔn)確率的計(jì)算公式為:True圖片個(gè)數(shù)/切割圖片總數(shù)。
選取了一款明后采摘的雨花茶和西湖龍井作為新加入茶,并測(cè)試模型對(duì)這兩款新茶的驗(yàn)證準(zhǔn)確率。
圖5 孿生網(wǎng)絡(luò)結(jié)構(gòu)圖
圖6 微調(diào)示意圖
為了驗(yàn)證本研究中茶葉驗(yàn)真方法的優(yōu)越性,我們進(jìn)行了兩組對(duì)比試驗(yàn)和一組針對(duì)負(fù)樣本篩選階段的消融試驗(yàn),對(duì)比試驗(yàn)分別與神經(jīng)網(wǎng)絡(luò)中的圖像匹配方法和基于Inception V3的全分類(lèi)模型進(jìn)行比較,兩組對(duì)比試驗(yàn)的驗(yàn)真準(zhǔn)確率如表3所示。
孿生網(wǎng)絡(luò)作為神經(jīng)網(wǎng)絡(luò)中經(jīng)典的圖像匹配方法,最初被用于人臉和手寫(xiě)簽名的驗(yàn)證,它可以用來(lái)衡量?jī)蓮堓斎雸D片的相似度,兩者降維向量之間的歐式距離越小,則相似度越高。當(dāng)利用它來(lái)驗(yàn)證現(xiàn)有茶葉是否為目標(biāo)茶葉時(shí),只需要比較現(xiàn)有茶葉圖片與數(shù)據(jù)庫(kù)中各類(lèi)茶葉圖片的距離大小,如果與目標(biāo)茶葉的距離最小,則代表與其相似度最高,待驗(yàn)證茶葉為真,否則為假。本節(jié)訓(xùn)練一個(gè)以VGG16為共享層,并使用Image_Net初始化參數(shù)的孿生網(wǎng)絡(luò),批次大小設(shè)為16,學(xué)習(xí)率為1e-5,總共迭代的步數(shù)為5?000步,收斂效果見(jiàn)圖7。
如表3所示,孿生網(wǎng)絡(luò)的平均驗(yàn)證準(zhǔn)確率為66.8%,它對(duì)于類(lèi)與類(lèi)之間差異很大的茶葉分類(lèi)的驗(yàn)真準(zhǔn)確率很高,例如雨花茶和碧螺春。但是對(duì)于同一茶樹(shù)品種、嫩度和制茶工藝下,不同生產(chǎn)季節(jié)原料的茶葉驗(yàn)真(3號(hào)和4號(hào))效果不太理想。
圖7 孿生網(wǎng)絡(luò)收斂圖
如果將茶葉驗(yàn)真看作是一個(gè)全分類(lèi)問(wèn)題,測(cè)試時(shí)只需要將待驗(yàn)證茶葉圖片放入分類(lèi)器,如果分類(lèi)正確則為真,否則為假。為了使試驗(yàn)具有可比性,本研究使用Inception V3網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行微調(diào)。參與訓(xùn)練全分類(lèi)網(wǎng)絡(luò)模型的茶葉數(shù)據(jù)集共包含了4個(gè)類(lèi)別的茶葉,分別是湄潭翠芽、雨花茶、碧螺春和遵義紅。各類(lèi)別茶葉再進(jìn)行細(xì)分總共有24個(gè)小類(lèi),因此在訓(xùn)練模型時(shí),總類(lèi)別數(shù)為24,批次大小為100,使用梯度下降法進(jìn)行訓(xùn)練,學(xué)習(xí)率為0.01迭代7?500步。
從圖8可以看出,全分類(lèi)模型的訓(xùn)練以及驗(yàn)證準(zhǔn)確率都在70%~75%之間,最終使用測(cè)試集對(duì)模型進(jìn)行測(cè)試,測(cè)試集由多個(gè)不同型號(hào)的手機(jī)按照1.2.1章節(jié)的采樣方法得到,大約5?100張圖片,平均驗(yàn)證準(zhǔn)確率為71.2%。
表3 茶葉驗(yàn)證準(zhǔn)確率對(duì)比
圖8 模型訓(xùn)練結(jié)果
以湄潭翠芽3號(hào)為目標(biāo)茶葉,為其訓(xùn)練一個(gè)專(zhuān)屬的0-1驗(yàn)真模型,觀察其相較于之前兩種驗(yàn)真方法,驗(yàn)證準(zhǔn)確率是否提高。
目標(biāo)茶葉本身作為正樣本集,經(jīng)過(guò)數(shù)據(jù)增強(qiáng)后約有8?000張圖片,標(biāo)簽設(shè)置為1。然后將正樣本圖片作為1,其余類(lèi)別的茶葉圖片作為2,輸入1.2.3章節(jié)中訓(xùn)練好的孿生網(wǎng)絡(luò)模型,按照與目標(biāo)茶葉降維向量的歐式距離對(duì)其余茶葉類(lèi)進(jìn)行升序排列,距離越小則與目標(biāo)茶葉相似度越高。前10類(lèi)茶葉分別是1、2、4、5、10、11、23、24、8號(hào)和9號(hào)茶葉,每類(lèi)隨機(jī)選取700張圖片。后13類(lèi)茶葉每類(lèi)僅選取20張圖片,共同組合作為負(fù)樣本集,標(biāo)簽為0。
該試驗(yàn)部分使用Inception V3的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行微調(diào),批次大小為100,使用梯度下降法進(jìn)行學(xué)習(xí),學(xué)習(xí)率設(shè)為0.01迭代10?000步。驗(yàn)真和驗(yàn)假的測(cè)試準(zhǔn)確率如表4所示。專(zhuān)屬于3號(hào)茶葉的0-1分類(lèi)器平均驗(yàn)證準(zhǔn)確率(包括驗(yàn)真和驗(yàn)假)為93.2%,相較前兩種方法都有很大提高。此外,對(duì)于與目標(biāo)茶葉很不相似的茶葉類(lèi)型,0-1模型對(duì)它們的驗(yàn)假準(zhǔn)確率仍然很高??梢?jiàn),對(duì)于相似度較高的茶葉類(lèi)型,模型往往需要更多樣本學(xué)習(xí)才能加以區(qū)分,而對(duì)于很不相似的茶葉類(lèi)型僅需要少量學(xué)習(xí)樣本。
本研究還進(jìn)行了第一階段的消融試驗(yàn),用于證明孿生網(wǎng)絡(luò)篩選負(fù)樣本的有效性。試驗(yàn)以3號(hào)茶葉為目標(biāo)茶葉,將其余23類(lèi)茶葉每類(lèi)均取300張圖片作為負(fù)樣本集進(jìn)行訓(xùn)練,得到專(zhuān)屬于3號(hào)茶葉的0-1驗(yàn)真模型。測(cè)試準(zhǔn)確率如表5所示。當(dāng)每類(lèi)茶葉都選取固定樣本數(shù)量作為負(fù)樣本集時(shí),平均驗(yàn)假準(zhǔn)確率有所降低,由93.3%降到了79.1%??赡苁菫榱吮3终?fù)樣本的平衡性,可供模型學(xué)習(xí)的相似茶葉類(lèi)型樣本數(shù)隨之減少,由每類(lèi)700張減少到每類(lèi)300張,最終導(dǎo)致了驗(yàn)假準(zhǔn)確率的降低。因此,使用孿生網(wǎng)絡(luò)篩選負(fù)樣本,可以在保證驗(yàn)證準(zhǔn)確率不降低的前提下,減少不必要的負(fù)樣本數(shù)量,從而有效的緩解了數(shù)據(jù)集不平衡的問(wèn)題。
表4 采用3號(hào)茶樣的驗(yàn)證模型準(zhǔn)確率
表5 消融試驗(yàn)對(duì)比
現(xiàn)實(shí)生活中茶葉類(lèi)型數(shù)不確定,同一種茶葉在不同茶季采摘都會(huì)呈現(xiàn)出不一樣的形態(tài)。因此,為了評(píng)估模型對(duì)新茶的泛化性強(qiáng)弱,選取了清明節(jié)后采摘的雨花茶和西湖龍井作為新加入茶,并測(cè)試模型對(duì)這兩款新茶的驗(yàn)證準(zhǔn)確率。
對(duì)孿生網(wǎng)絡(luò)模型和0-1模型的新茶泛化性進(jìn)行了比較,孿生網(wǎng)絡(luò)模型對(duì)這兩款未知茶葉的匹配準(zhǔn)確率分別為39%和78%。0-1模型對(duì)這兩款未知茶葉的平均驗(yàn)假準(zhǔn)確率分別為95%和98%??梢?jiàn)新茶葉的加入并不會(huì)對(duì)之前訓(xùn)練好的專(zhuān)屬0-1模型造成影響,依然可以適應(yīng)茶葉數(shù)量不確定因素的干擾,進(jìn)行準(zhǔn)確判別。另外,雖然孿生網(wǎng)絡(luò)在人臉驗(yàn)證上表現(xiàn)出了很好的泛化性,但是在茶葉驗(yàn)真上,孿生網(wǎng)絡(luò)的泛化性并不穩(wěn)定,例如對(duì)于新加入的雨花茶,它的匹配準(zhǔn)確率并不高。
陸江峰等[14]通過(guò)提取茶葉形狀復(fù)雜性和圓形度等17種外觀形狀特征,并以其中6項(xiàng)參數(shù)作為BP神經(jīng)網(wǎng)絡(luò)的輸入,達(dá)到了80%的鑒別準(zhǔn)確率。然而對(duì)于形狀相似的茶葉,需要另外選取其他特征進(jìn)行輔助鑒別。本文基于Inception_v3為每一類(lèi)茶葉配備一個(gè)專(zhuān)屬的0-1驗(yàn)真模型,可以自動(dòng)提取出最有利于區(qū)分目標(biāo)茶葉的特征進(jìn)行驗(yàn)真,有效的避免了傳統(tǒng)方法依賴手工提取茶葉特征的問(wèn)題。從試驗(yàn)結(jié)果和分析可以看出,不論在驗(yàn)真還是驗(yàn)假方面,都達(dá)到了90%以上的驗(yàn)證準(zhǔn)確率。近年來(lái)使用紅外光譜進(jìn)行茶葉驗(yàn)證的方法[15]雖然可以達(dá)到較高的準(zhǔn)確率,但受儀器種類(lèi)、品牌、分析條件和樣品前處理方法等因素影響,實(shí)現(xiàn)標(biāo)準(zhǔn)化較難。本文模型的輸入為茶葉原始圖像并且是端到端的訓(xùn)練,較光譜圖方法在自動(dòng)化程度上有了大幅提升。
與傳統(tǒng)的特征匹配相比,本研究提出的基于專(zhuān)屬0-1模型的茶葉驗(yàn)真方法具有以下兩個(gè)優(yōu)點(diǎn),第一,為每一類(lèi)茶葉都配備了一個(gè)驗(yàn)真模型,因此每一類(lèi)茶葉用于驗(yàn)真的隱式特征均不相同,而且只有0-1(真假)兩個(gè)分類(lèi),迫使模型在訓(xùn)練過(guò)程中自動(dòng)提取出最有利于區(qū)分目標(biāo)茶葉的一種隱式特征進(jìn)行驗(yàn)真和驗(yàn)假,提高了茶葉驗(yàn)真的準(zhǔn)確率。第二,模型與模型之間各自獨(dú)立,互不干擾,新加入的茶葉模型并不會(huì)對(duì)其他模型產(chǎn)生任何影響,適應(yīng)了未來(lái)茶葉類(lèi)別數(shù)不確定因素的干擾。
本研究提出的基于專(zhuān)屬0-1模型的茶葉驗(yàn)真方法可以對(duì)茶葉庫(kù)中任意一類(lèi)茶葉進(jìn)行較高準(zhǔn)確率的驗(yàn)真,但如果某一類(lèi)茶葉與目標(biāo)茶葉很相似時(shí),則會(huì)導(dǎo)致在驗(yàn)假過(guò)程中產(chǎn)生誤判的情況,例如茶葉庫(kù)中的1號(hào)和3號(hào),1號(hào)茶葉的驗(yàn)假準(zhǔn)確率只有63%。因此,下一步的研究方向是結(jié)合其他模型或特征來(lái)進(jìn)行投票,采用投票機(jī)制多方面的判斷目標(biāo)茶葉的真假。
[1] Lee J A, Yow K C. Optimizing image matches via a verification model [J]. International Journal of Intelligent Systems, 2010, 25(11): 1103-1120.
[2] Fischler M A, Bolles R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography [J]. Communications of the ACM, 1981, 24(6): 381-395.
[3] Prasetyo H, Wiranto W, Winarno W. Image-based vehicle verification using steerable gaussian filter [J]. Journal of Telecommunication, Electronic and Computer Engineering, 2018, 10(2/3/4): 65-69.
[4] Zhang D, Oreifej O, Shah M. Face verification using boosted cross-image features [J]. Computer Science, 2013. https://arxiv.org/pdf/1309.7434v1.pdf.
[5] Wang F, Xiang X, Cheng J, et al. NormFace: L2Hypersphere embedding for face verification [C]//ACM Conference on MultiMedia. 2017: 1041-1049
[6] 余洪. 基于計(jì)算機(jī)視覺(jué)技術(shù)的茶葉品質(zhì)分級(jí)研究[D]. 南昌: 江西農(nóng)業(yè)大學(xué), 2017. Yu Hong. Research on classification of tea quality based on computer vison technology [D]. Nanchang: Jiangxi Agricultural University, 2017.
[7] Wang J, Perez L. The effectiveness of data augmentation in image classification using deep learning [J]. Computer Science, 2017.https://arxiv.org/pdf/1712.04621v1.pdf.
[8] Sumit C, Raia H, Yann L C. Learning a similarity metric discriminatively, with application to face verification [C]//Proceedings of the 2005 IEEE Conference on Computer Vision and Pattern Recognition, 2005: 202-209.
[9] Melekhov I, Kannala J, Rahtu E. Siamese network features for image matching [C]//International Conference on Pattern Recognition, 2016: 378-383.
[10] Gregory K, Richard Z, Ruslan S. Siamese neural networks for one-shot image recognition [C]//International Conference on Machine Learning, 2015: 37-44.
[11] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. Computer Science, 2014. https://arxiv.org/pdf/1409.1556v1.pdf.
[12] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision [J]. Computer Science, 2015. https://arxiv.org/pdf/1512.00567v1.pdf.
[13] Pan S J, Qiang Y. A survey on transfer learning [J]. IEEE Transactions on Knowledge & Data Engineering, 2010, 22(10): 1345-1359.
[14] 陸江峰,單春芳.基于數(shù)字圖像的茶葉形狀特征提取及不同茶葉鑒別研究[J]. 茶葉科學(xué), 2010, 30(6): 453-457.Lu J F, Shan C F. Shape extraction and varietial discrimination of tea based on digital image [J].Journal of Tea Science, 2010, 30(6): 453-457.
[15] 劉英, 吳曙光. 指紋圖譜技術(shù)在茶葉研究上的應(yīng)用[J]. 茶葉科學(xué), 2013, 33(1): 13-20. Liu Y, Wu S G. Application of fingerprint technique in tea research [J]. Journal of Tea Science, 2013, 33(1):13-20.
Tea Authenticity Verification Method Based on Exclusive Binary Classifier
ZHU Chenpeng1, PENG Hongjing1*, XIAO Qinghua1, SHI Haojie1, WU Guang2
1. School of Computer Science and Technology, Nanjing University of Technology, Nanjing 211800, China;2. Newlixon Tech. Co., Ltd , Nanjing 210012, China
Owing to blindness in the selection of tea features in traditional filteringmethods and the uncertainty of tea categories, a verification method was proposed to equip each type of tea with a exclusive 0-1 classifier. The positive sample is the target tea itself, the label is 1. The negative sample is the remaining tea type, and the label is 0. During the training process, the model is forced to automatically extract the implicit features that are most suitable for distinguishing the target tea for true and false. This method uses the Siamese network to screen the negative samples, which alleviates the problem of imbalance between positive and negative samples. The experimental results show that this method is well adapted to the disturbance of uncertainty of tea categories and has strong robustness. It is an effective and feasible method.
binary classifier, tea verification, siamese network, feature extraction
TS272;Q946.84+1;
A
1000-369X(2021)02-228-09
2020-01-08
2020-05-14
國(guó)家重點(diǎn)研發(fā)計(jì)劃(2018YFC0808500)
朱晨鵬,男,碩士研究生,主要從事計(jì)算機(jī)視覺(jué)方面的研究。*通信作者:penghongjing@163.com
(責(zé)任編輯:趙鋒)