国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于MV-PearlNet的珍珠細(xì)粒度分類方法

2021-02-04 13:51:52陳晉音
關(guān)鍵詞:珍珠特征提取卷積

錢 濤,熊 暉,陳晉音

(浙江工業(yè)大學(xué) 信息工程學(xué)院,杭州310023)

1 引 言

珍珠作為一種珠寶,自古以來(lái)就深受人們喜愛(ài).珍珠的價(jià)值與它的屬性特征有關(guān),如大小、光澤、形狀和紋理等.對(duì)珍珠分類后再進(jìn)行銷售可以大大提高收益.目前,珍珠的分類分揀主要依賴人工,對(duì)于珍珠分揀任務(wù),同時(shí)考慮珍珠的多個(gè)特征比較困難,而且工作量大、成本高.同時(shí)分類準(zhǔn)確度容易受個(gè)人視力、鑒別能力、情緒等因素影響.因此迫切需要設(shè)計(jì)自動(dòng)圖像分類模型來(lái)替代人工去處理細(xì)粒度珍珠圖片.

圖像分類的核心部分是圖像特征提取和特征分類.傳統(tǒng)的機(jī)器學(xué)習(xí)算法已經(jīng)提出了許多特征提取方法,比較代表性的有基于灰度強(qiáng)度、顏色直方圖、顏色矩陣等圖像顏色屬性的特征提取法[1,2],基于邊界的傅立葉描述子、區(qū)域的矩不變量、有限元法、小波變換等形狀特征提取法[3,4],基于共生矩陣、鄰接圖、統(tǒng)計(jì)灰度特征、直方圖特征等紋理特征提取法[5,6].李革等人[7]將珍珠圖像轉(zhuǎn)化到極坐標(biāo)系下,通過(guò)傅里葉系數(shù)來(lái)描述珍珠形狀,對(duì)珍珠進(jìn)行形狀分類.李益紅等人[8]提出新的珍珠形狀檢測(cè)算法,通過(guò)4個(gè)方向的邊緣算子獲得珍珠邊緣后,劃分到4個(gè)象限.通過(guò)計(jì)算各個(gè)象限中邊緣鏈碼之間的相似度來(lái)判斷形狀的均勻性,提出四象限邊緣鏈碼自相似檢測(cè)算法.在判斷珍珠形狀均勻性方面取得不俗的效果.以上所提到的這些算法在珍珠圖片分類上都取得了一定的效果,但它們利用單一特征的珍珠分類運(yùn)用到實(shí)際復(fù)雜場(chǎng)景中效率并不高.宣琦等人[9]設(shè)計(jì)了一種新的局部紋理提取方法,并通過(guò)提取珍珠多視角表面圖像的形狀特征、全局紋理特征和局部紋理特征訓(xùn)練支持向量機(jī),獲得了良好的分類效果.這些傳統(tǒng)的手工特征提取法分別取得了一系列成果,但仍存在著許多不足:1)特征主要是低級(jí)特征,不具有語(yǔ)義信息,對(duì)于細(xì)粒度分類來(lái)說(shuō)不具有區(qū)分度,很難使用一種手工特征來(lái)區(qū)分出所有的類別;2)特征需要有先驗(yàn)知識(shí)作為指導(dǎo),對(duì)于設(shè)計(jì)人員要求較高,比較耗時(shí)耗力.

深度學(xué)習(xí)典型的代表結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)具有主動(dòng)學(xué)習(xí)目標(biāo)對(duì)象特征的特點(diǎn),近年來(lái)被廣泛應(yīng)用于圖像識(shí)別上.2012年,8層的AlexNet網(wǎng)絡(luò)[10]被提出,由于開(kāi)創(chuàng)性的使用RELU激活函數(shù),并使用LRN(Local Response Normalization)對(duì)輸出結(jié)果做平滑處理,在ILSVRC比賽上獲得最佳分類結(jié)果.2014年,GoogLeNet[11]采用Inception結(jié)構(gòu),使網(wǎng)絡(luò)達(dá)到22層,在ILSVRC-2014中獲得了第一的成績(jī).2015年,采用各層之間跨越幾層直連的Resnet模型被提出,通過(guò)在中間層添加輔助損失(Auxiliary Loss)的方式,使模型達(dá)到了152層,并且在ILSVRC-2015分類比賽中獲得第一名[12].Tian等人[13]提出一種批量重歸一化去噪網(wǎng)絡(luò)(BRDNet),通過(guò)增加網(wǎng)絡(luò)的寬度和采取殘差學(xué)習(xí)方式,使模型獲得更多的功能.Jiang等人[14]將CNN用在蘋(píng)果農(nóng)藥殘留檢測(cè)上.Taheri等人[15]針對(duì)年齡識(shí)別問(wèn)題,提出一種有向無(wú)環(huán)圖卷積神經(jīng)網(wǎng)絡(luò)(DAG-CNN),將年齡估計(jì)的特征提取和分類階段融合到單個(gè)自動(dòng)學(xué)習(xí)過(guò)程中,有效地提高了性能.以上的CNN模型只能處理單視角圖片,無(wú)法同時(shí)提取目標(biāo)圖片的多角度的特征信息,所以對(duì)于珍珠等視覺(jué)差異小的對(duì)象的細(xì)粒度分類,總體性能表現(xiàn)不佳.Xuan等人[16]基于多流卷積神經(jīng)網(wǎng)絡(luò)(MS-CNN)設(shè)計(jì)了一種自動(dòng)珍珠分級(jí)機(jī),在珍珠分類上取得良好的效果,但模型訓(xùn)練過(guò)程中并未考慮中間層損失的特征,導(dǎo)致特征利用不充分.

針對(duì)已有CNN模型的特點(diǎn)與不足,為了充分利用珍珠多視角圖像信息,本文提出基于多視圖珍珠卷積神經(jīng)網(wǎng)絡(luò)模型MV-PearlNet的自動(dòng)圖像分類方法.主要有以下幾點(diǎn)貢獻(xiàn):1)針對(duì)珍珠圖像特征提取不充分,提出了一種能同時(shí)提取多視角圖像特征的CNN結(jié)構(gòu);2)為了充分利用前面層丟失的信息,采用中間層特征融合后的特征作為珍珠的特征表達(dá);3)考慮到可能存在的訓(xùn)練數(shù)據(jù)量不足的情況下,通過(guò)結(jié)合K-means算法的方式進(jìn)行主動(dòng)類標(biāo)學(xué)習(xí),一定程度上解決帶類標(biāo)數(shù)據(jù)不足的問(wèn)題,提高模型對(duì)于珍珠的分類準(zhǔn)確率.

2 基于MV-PearlNet珍珠精細(xì)分類卷積神經(jīng)網(wǎng)絡(luò)

2.1 MV-PearlNet模型結(jié)構(gòu)

針對(duì)上文中提到的珍珠圖像特征所具有的特點(diǎn)以及目前主流深度學(xué)習(xí)模型存在的不足,本文對(duì)已有的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),提出了多視角卷積神經(jīng)網(wǎng)絡(luò)模型.該模型共有5個(gè)視角的圖像輸入,每個(gè)視角CNN模型輸入一個(gè)視圖,其中第1個(gè)網(wǎng)絡(luò)的輸入為左視圖圖像,第2個(gè)網(wǎng)絡(luò)的輸入為右視圖,第3個(gè)網(wǎng)絡(luò)的輸入為主視圖,第4個(gè)網(wǎng)絡(luò)的輸入為俯視圖,第5個(gè)網(wǎng)絡(luò)的輸入為后視圖,充分利用了珍珠多視角圖像.此外,為了有效的融合各視角圖像之間的特征信息,本文設(shè)計(jì)了一個(gè)Else-Wise層將5個(gè)網(wǎng)絡(luò)的輸出逐元素相加進(jìn)行特征融合,最后輸入到softmax層得到分類標(biāo)簽.對(duì)于輸入的珍珠5視圖輸入,模型會(huì)輸出一個(gè)預(yù)測(cè)標(biāo)簽y′,通過(guò)損失函數(shù)l(y′,y)計(jì)算出y′與真實(shí)標(biāo)簽y之間的損失,本文中MV-PearlNet選擇交叉熵作為損失函數(shù),模型各個(gè)分支網(wǎng)絡(luò)通過(guò)鏈?zhǔn)角髮?dǎo)法則反向傳播進(jìn)行聯(lián)合訓(xùn)練,來(lái)更新模型參數(shù).多個(gè)視角的模型共同訓(xùn)練能夠使得各個(gè)網(wǎng)絡(luò)接近最優(yōu)方向,可明顯提升整體網(wǎng)絡(luò)的性能.MV-PearlNet的具體結(jié)構(gòu)如圖1中所示.

圖1 MV-PearlNet結(jié)構(gòu)示意圖Fig.1 Schematic diagram of MV-PearlNet structure

由于GoogLenet網(wǎng)絡(luò)具有良好的分類性能,本文中MV-PearlNet每個(gè)單視角CNN模型都是基于GoogLenet網(wǎng)絡(luò),前面幾層由交替堆疊的卷積層和池化層組成,后面緊跟著9個(gè)inception模塊,每個(gè)inception模塊由一系列1×1,3×3和5×5的卷積核以及一個(gè)3×3的最大化池化層組成,此部分具體結(jié)構(gòu)如圖1中每個(gè)模塊引申出來(lái)的部分,這主要是為了降低參數(shù)量和模型復(fù)雜度,同時(shí)為了避免梯度消失的問(wèn)題.整個(gè)模型被分成3個(gè)部分,每3個(gè)inception結(jié)構(gòu)都會(huì)添加一個(gè)目標(biāo)損失函數(shù),構(gòu)成了2個(gè)輔助分類模塊和1個(gè)最終的分類模塊,記為s1模塊,s2模塊和s3模塊.MV-PearlNet移除了LRN層,用BN(Batch Normalization)層[17]來(lái)替代.來(lái)起到加速收斂,縮短訓(xùn)練時(shí)間,控制過(guò)擬合,降低網(wǎng)絡(luò)對(duì)初始化權(quán)重的敏感性作用.

假設(shè)輸入模型的批量圖片數(shù)據(jù)集為B={x1,…,xn},則整個(gè)BN過(guò)程可以描述如下:

(1)

(2)

(3)

(4)

整個(gè)訓(xùn)練過(guò)程中,卷積層的權(quán)重在5個(gè)視角之間共享.因此實(shí)際模型比沒(méi)有權(quán)重共享的模型占有更小的內(nèi)存.同時(shí)考慮到個(gè)體每個(gè)視角圖片之間存在差異,每個(gè)視角的CNN模型的全連接層之間的權(quán)重更新是獨(dú)立的.

本文將第l層的第k個(gè)神經(jīng)元輸出定義為fk,則可以用一系列的公式來(lái)表述訓(xùn)練的過(guò)程:

(5)

其中:

(6)

(7)

(8)

最終將這些特征通過(guò)全連接層的中間激活函數(shù)來(lái)堆疊起來(lái)形成最終的特征.

對(duì)于全連接層,文中使用ff1(x)表示第1個(gè)全連接層的特征圖,A表示是相應(yīng)的激勵(lì)函數(shù),*表示卷積運(yùn)算的過(guò)程,wf1表示第1個(gè)全連接層的卷積核的權(quán)重,bf1表示全連接層的偏置量.具體用公式可以表示成:

(9)

對(duì)于MV-PearlNet來(lái)說(shuō),每個(gè)視角的CNN模型前向傳播過(guò)程都是一致的.如圖1所示,在倒數(shù)第2層進(jìn)行平均池化操作之前,添加一個(gè)Else-Wise層,采用逐元素求和的操作來(lái)對(duì)多個(gè)視角的特征進(jìn)行特征融合,我們得到一個(gè)新的特征F(x).

F(x)=∑k∈φ(ff1(x))k

(10)

其中φ是索引集{1,2,…,5}.F(x)包含了每個(gè)視角的信息,充分應(yīng)用了各視角圖像的特征信息.

特征融合之后,用Softmax函數(shù)在訓(xùn)練階段調(diào)整向后傳播的網(wǎng)絡(luò)權(quán)重,特征F(x)最終被送入Softmax函數(shù).模型將非線性Relu函數(shù)(y=max(0,x))用于除最后一個(gè)完全連接層以外的所有卷積層和所有全連接的層.相比于sigmoid函數(shù),它具有更好的擬合能力.

2.2 基于特征融合后的類標(biāo)學(xué)習(xí)

本小節(jié)詳細(xì)闡述采用MV-PearlNet模型提取珍珠圖片特征的過(guò)程.其中MV-PearlNet模型分類器之前的層次結(jié)構(gòu)相當(dāng)于一個(gè)通用的特征提取器,輸入模型的圖片會(huì)生成一個(gè)類似于SIFT的具有很好泛化能力的特征向量.模型在下采樣的過(guò)程中,基于局部梯度的特征不可避免地丟失視覺(jué)信息.CNN中間層提取的特征是有用的,它們可以表達(dá)圖像的中間或低級(jí)信息.因?yàn)檩^低層的特征圖包含著圖像的更多結(jié)構(gòu)細(xì)節(jié),簡(jiǎn)單圖像在較低層處能很好地表示,較高層的特征圖更多的表現(xiàn)目標(biāo)對(duì)象的語(yǔ)義信息,具有復(fù)雜背景的圖像的前景可以在較高層激活,這些特征對(duì)于細(xì)粒度分類任務(wù)都是重要的,所以在分類問(wèn)題中,從多個(gè)階段采用CNN模型提取特征是值得的.為了增加特征的區(qū)分度,本文在考慮語(yǔ)義信息等高級(jí)特征的同時(shí),也考慮到了底層的紋理,輪廓等特征.

在特征提取模塊,將輔助分類器模塊s1,s2,提取的特征與最后s3的輸出特征進(jìn)行融合作為珍珠高維特征表示,從而提高特征的表達(dá)能力,具體過(guò)程如下列式子所示:

(11)

(12)

(13)

則整個(gè)MV-PearlNet提取的特征可以表示為:

(14)

考慮到MV-PearlNet模型提取的融合后的特征維度過(guò)高,對(duì)實(shí)驗(yàn)造成維度災(zāi)難的影響,所以實(shí)驗(yàn)先對(duì)融合后的特征進(jìn)行降維,這里采用主成分分析(Principle Component Analysis,PCA)[18]降維統(tǒng)計(jì)分析算法.假設(shè)MV-PearlNet模型提取的特征f是一個(gè)n*d維的數(shù)據(jù),其標(biāo)準(zhǔn)化后的矩陣為Z.則矩陣Z中的組成元素zij計(jì)算公式如下:

(15)

則可以計(jì)算出特征樣本的協(xié)方差矩陣C,其中C每個(gè)元素則可以表示為:

(16)

其中i,j=1,…,d則進(jìn)一步可以求出協(xié)方差矩陣C對(duì)應(yīng)的特征向量u1,…,ud,特征根λ1,…,λd.選取前k個(gè)最大特征值構(gòu)建映射矩陣W,最后將特征矩陣Z轉(zhuǎn)換到新的子空間,則主成分矩陣Y即為ZW.

然后使用K-means算法[19]對(duì)處理后的特征進(jìn)行聚類,隨機(jī)初始化K個(gè)聚類中心,K值是珍珠數(shù)據(jù)的種類個(gè)數(shù).通過(guò)計(jì)算樣本到聚類中心的歐式距離,將每個(gè)對(duì)象分配到距離最近的那個(gè)簇內(nèi),重新計(jì)算聚類中心為:

(17)

其中ei是聚類得到的簇,i=1,…,k,重新計(jì)算各個(gè)元素到新聚類中心的歐式距離,重新劃分簇,重復(fù)這個(gè)步驟,直到聚類中心不再發(fā)生變化或者達(dá)到預(yù)設(shè)的最大迭代次數(shù).為了準(zhǔn)確了解相應(yīng)的簇對(duì)應(yīng)的類標(biāo),實(shí)驗(yàn)中,為了保證聚類簇中的樣本純度,實(shí)驗(yàn)只提取聚類中心周邊的樣本作為該簇中的代表樣本,將每個(gè)簇中的代表樣本都打上相應(yīng)的類標(biāo).此方法起到擴(kuò)大數(shù)據(jù)集的作用,也省去了人工打類標(biāo)的繁瑣工作,更經(jīng)濟(jì)、方便快捷.整體流程如圖2所示.

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集

本文論證模型的數(shù)據(jù)集使用的是從諸暨淡水湖中采集到的珍珠,通過(guò)單目多視角攝像裝置采集珍珠的圖像.單目多視角攝像裝置主要包括一個(gè)普通的CMOS攝像機(jī)和4個(gè)平面鏡,一次拍攝可以獲取俯視圖、主視圖、左視圖、右視圖、后視圖等5個(gè)視角的珍珠表面圖像,裝置具體細(xì)節(jié)可以參考文獻(xiàn)[20].實(shí)驗(yàn)從每類珍珠中都采集了1500顆作為圖像采集樣本,共采集到5個(gè)面總計(jì)10500張珍珠圖像.考慮到實(shí)驗(yàn)的科學(xué)性,采集到的圖像樣本都由專業(yè)的珍珠從業(yè)人員打上標(biāo)簽.珍珠按照珍珠顆粒大小以及紋理可以被細(xì)分成7個(gè)類:二檔沖頭、短螺紋、高檔米珠、差米形、中檔米珠,高檔顆頭螺紋、高檔面光,具體如圖3所示.實(shí)驗(yàn)將采集到的珍珠圖片背景顏色設(shè)置為黑色,通過(guò)閾值可以輕松得到珍珠部分的圖像[21],然后按照6∶2∶2的比例劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集,即訓(xùn)練集最多為900顆珍珠數(shù)據(jù).

圖2 類標(biāo)學(xué)習(xí)的主要流程Fig.2 Main process of class learning

3.2 實(shí)驗(yàn)參數(shù)設(shè)置與結(jié)果分析

文中所有深度模型使用Tensorflow深度庫(kù)來(lái)實(shí)現(xiàn),并在NVIDIA Tesla K40c GPU上進(jìn)行訓(xùn)練.實(shí)驗(yàn)通過(guò)隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)進(jìn)行端到端的訓(xùn)練,批量大小(Batch size)對(duì)于SGD方法很重要,值太小的話可能導(dǎo)致模型不會(huì)收斂,值太大則會(huì)耗盡內(nèi)存,通過(guò)結(jié)合GPU的運(yùn)算能力,最終設(shè)置為20,優(yōu)化器選擇動(dòng)量?jī)?yōu)化器(Momentum Optimizer),學(xué)習(xí)率為0.05,動(dòng)量為0.9,衰減為0.9,epsilon為0.1.卷積核權(quán)重采用符合均值為0,標(biāo)準(zhǔn)差為0.01的高斯分布來(lái)初始化,偏置值都初始化為0.1.網(wǎng)絡(luò)訓(xùn)練過(guò)程中,實(shí)驗(yàn)的迭代次數(shù)為43000,每迭代10000次,學(xué)習(xí)率衰減為原來(lái)的1/2.該實(shí)驗(yàn)共設(shè)計(jì)了3組對(duì)比實(shí)驗(yàn),通過(guò)對(duì)比AlexNet、GoogLenet和VGG19 3種模型與MV-PearlNet的分類準(zhǔn)確度來(lái)驗(yàn)證方案的正確性.AlexNet、GoogLenet、VGG19和MV-PearlNet在測(cè)試數(shù)據(jù)上的正確率如表1中呈現(xiàn).同時(shí)為了驗(yàn)證MV-PearlNet的有效性,每個(gè)模型增加了一組將多視圖圖像全部作為訓(xùn)練集輸入單一卷積網(wǎng)絡(luò)中的實(shí)驗(yàn)(如表1中“同時(shí)輸入”一列表示).圖4、圖5分別顯示訓(xùn)練階段的損失變化趨勢(shì)和驗(yàn)證集上準(zhǔn)確率的變化趨勢(shì).

圖3 7類珍珠的示例圖Fig.3 Example of seven types of pearls

表1 Alexnet,GoogLenet,VGG19與MV-PearlNet分類結(jié)果對(duì)比Table 1 Alexnet,GoogLenet,VGG19 and MV-PearlNet classification results comparison

從表1中可以看出,MV-PearlNet的表現(xiàn)總是比主流單視圖CNN模型好.在珍珠的細(xì)粒度分類任務(wù)中,MV-PearlNet獲得的準(zhǔn)確度最高可達(dá)到91.47%,明顯高于Alexnet,GoogLeNet和VGG19模型的84.71%,87.42%,87.51%.MV-PearlNet的性能提升主要?dú)w結(jié)于這幾點(diǎn):使用了多視圖特征,使特征的表達(dá)能力更強(qiáng);使用了特征融合,使表達(dá)輪廓、顏色、紋理的低層次特征和表達(dá)珍珠語(yǔ)義信息的高層次特征融合,產(chǎn)生高視覺(jué)相關(guān)性的類之間的區(qū)分度更加明顯的效果.相比于MV-PearlNet,單視角模型僅僅使用了一個(gè)面的特征,對(duì)于每個(gè)視角特征差異微小的球狀珍珠來(lái)說(shuō),并不具有充分的表達(dá)能力.

在進(jìn)一步的實(shí)驗(yàn)中,在使用的珍珠總量數(shù)據(jù)集一定的情況下,為了模型訓(xùn)練更充分,達(dá)到提高分類準(zhǔn)確率目的,將MV-PearlNet和K-means算法結(jié)合起來(lái),分別使用7類珍珠中的300顆作為無(wú)監(jiān)督學(xué)習(xí)的學(xué)習(xí)對(duì)象,將MV-PearlNet提取的特征作為珍珠的特征表達(dá)輸出.PCA算法進(jìn)行降維后得到2100×50的特征向量,K-means算法的K設(shè)定為7,為了降低聚類算法聚類中心的隨機(jī)選擇對(duì)聚類結(jié)果的影響,本文采取了實(shí)驗(yàn)20次取平均值的方法來(lái)降低實(shí)驗(yàn)結(jié)果的隨機(jī)性.我們使用聚類的準(zhǔn)確度和純度作為評(píng)價(jià)指標(biāo)對(duì)聚類結(jié)果進(jìn)行評(píng)估.最終900顆的特征提取最充分,20次的實(shí)驗(yàn)結(jié)果的準(zhǔn)確度為76.52%,純度為76.61%.將聚類后打上類標(biāo)的數(shù)據(jù)和之前的訓(xùn)練集一起放入模型進(jìn)行訓(xùn)練,分類結(jié)果表2所示.

圖4 訓(xùn)練階段時(shí)驗(yàn)證集上準(zhǔn)確率變化趨勢(shì)Fig.4 Trend of accuracy on the verification set during the training phase

圖5 訓(xùn)練階段loss值變化趨勢(shì)Fig.5 Trend of loss value during training

表2 類標(biāo)學(xué)習(xí)前后分類結(jié)果對(duì)比Table 2 Comparison of classification results before and after class labeling

從表2可以看出,在訓(xùn)練數(shù)據(jù)量一定的情況下,擴(kuò)充后的模型分類正確率不同程度提高了,訓(xùn)練集數(shù)量越少提升效果越明顯,效果最明顯的提高了3.63%.這主要是因?yàn)椋涸谟邢薜挠?xùn)練集前提下,通過(guò)MV-PearlNet模型結(jié)合K-means的方法對(duì)未帶標(biāo)簽的數(shù)據(jù)進(jìn)行類標(biāo)學(xué)習(xí),起到了擴(kuò)充訓(xùn)練數(shù)據(jù)量的效果,一定程度上豐富了訓(xùn)練樣本,改善了因訓(xùn)練數(shù)據(jù)不足導(dǎo)致的欠擬合現(xiàn)象,提高了模型的分類準(zhǔn)確率.這也一定程度證明了通過(guò)聚類算法打上類標(biāo)增加數(shù)據(jù)量的方法的有效性.

4 結(jié)束語(yǔ)

本文針對(duì)珍珠細(xì)粒度分類中單一視角模型不能充分利用圖像的特征問(wèn)題提出了MV-PearlNet模型,該模型能同時(shí)處理多個(gè)視角的圖像輸入,并自動(dòng)學(xué)習(xí)圖像的特征.同時(shí)針對(duì)訓(xùn)練數(shù)據(jù)量不足的問(wèn)題,提出了基于MV-PearlNet結(jié)合K-means算法的擴(kuò)充數(shù)據(jù)集的方法.該方法充分結(jié)合了MV-PearlNet主動(dòng)學(xué)習(xí)特征的能力以及K-means算法簡(jiǎn)單快速的特點(diǎn),通過(guò)在珍珠數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證后,表明在訓(xùn)練數(shù)據(jù)集不足的情況下,通過(guò)此方法進(jìn)行類標(biāo)學(xué)習(xí)后擴(kuò)充了訓(xùn)練數(shù)據(jù)集,能一定程度提升模型的分類準(zhǔn)確率.

猜你喜歡
珍珠特征提取卷積
“小珍珠”
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
為了喝到珍珠
幽默大師(2020年5期)2020-06-22 08:19:30
“種”珍珠真神奇
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
綠珍珠城(上)
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
Bagging RCSP腦電特征提取算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
阿克苏市| 酒泉市| 濉溪县| 祁东县| 海宁市| 兴仁县| 思茅市| 涞水县| 壶关县| 屯门区| 河源市| 那坡县| 宁武县| 搜索| 阜阳市| 时尚| 寿光市| 楚雄市| 阿图什市| 晋城| 汉沽区| 托里县| 尤溪县| 长汀县| 荆州市| 固始县| 三明市| 黎城县| 洱源县| 会东县| 桐柏县| 朝阳市| 紫云| 涪陵区| 老河口市| 图片| 永康市| 瑞丽市| 镇安县| 图木舒克市| 怀宁县|