国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡(luò)的古玩圖片分類(lèi)方法

2017-05-31 06:41:12顧亞風(fēng)葉學(xué)義夏經(jīng)文
軟件導(dǎo)刊 2017年5期
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別深度學(xué)習(xí)

顧亞風(fēng) 葉學(xué)義 夏經(jīng)文

摘要摘要:針對(duì)現(xiàn)有的網(wǎng)上古玩圖片分類(lèi)算法需要人工設(shè)計(jì)特征、依賴(lài)個(gè)人經(jīng)驗(yàn)的不足,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的分類(lèi)方法。將背景分離后的圖片輸入網(wǎng)絡(luò),自動(dòng)提取特征進(jìn)行分類(lèi),在達(dá)到較好分類(lèi)結(jié)果的同時(shí)網(wǎng)絡(luò)結(jié)構(gòu)更加簡(jiǎn)單,并且設(shè)置合適的特征圖個(gè)數(shù)使網(wǎng)絡(luò)取得較好的識(shí)別率。實(shí)驗(yàn)結(jié)果表明,該方法應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)能夠解決網(wǎng)上古玩圖片分類(lèi)問(wèn)題,與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比網(wǎng)絡(luò)結(jié)構(gòu)更簡(jiǎn)單、識(shí)別率更高;與常用的Hog特征相比,在測(cè)試時(shí)間相近的情況下該方法識(shí)別率更高。

關(guān)鍵詞關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);古玩圖片;圖像識(shí)別

DOIDOI:10.11907/rjdk.162768

中圖分類(lèi)號(hào):TP317.4

文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào)文章編號(hào):16727800(2017)005017405

0引言

隨著電子商務(wù)的發(fā)展,大批藝術(shù)品交易網(wǎng)站隨之興起,藏品交易規(guī)模也越來(lái)越大。而當(dāng)前的古玩網(wǎng)上交易平臺(tái)還不能夠?qū)崿F(xiàn)對(duì)現(xiàn)有藏品圖片的自動(dòng)分類(lèi),客戶(hù)在尋找目標(biāo)藏品時(shí)不得不在眾多圖片中一一瀏覽。因此需要一種有效的方法來(lái)完成面向圖像內(nèi)容的分類(lèi)。

在基于內(nèi)容的圖像檢索領(lǐng)域,常使用人工設(shè)計(jì)的特征-如根據(jù)花瓶、碗、盤(pán)子的不同形態(tài)特征:目標(biāo)輪廓的圓度、質(zhì)心、寬高比等[1],繼而使用BP神經(jīng)網(wǎng)絡(luò)、SVM分類(lèi)器等對(duì)特征進(jìn)行學(xué)習(xí)分類(lèi)。文獻(xiàn)[2]基于植物葉片的形狀特征,如葉片形狀的狹長(zhǎng)度、矩形度、球狀性、圓形度、偏心率、周長(zhǎng)直徑比等,利用BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)植物葉片進(jìn)行分類(lèi)。文獻(xiàn)[3]研究印品圖像的各類(lèi)形狀缺陷,利用圖像缺陷形狀的輪廓長(zhǎng)度、面積和圓形度等幾何特征,導(dǎo)入SVM分類(lèi)器進(jìn)行訓(xùn)練,得到分類(lèi)器模型實(shí)現(xiàn)分類(lèi)。文獻(xiàn)[4]提出了一種基于Zernike矩的水果形狀分類(lèi)方法,通過(guò)提取圖像中具有旋轉(zhuǎn)不變性的Zernike矩特征,并運(yùn)用PCA方法確定分類(lèi)需要的特征數(shù)目,最后將這些特征輸入到SVM分類(lèi)器中,完成水果形狀的分類(lèi)。上述方法都要求對(duì)目標(biāo)形狀分割的準(zhǔn)確性,而分割過(guò)程中由于存在目標(biāo)陰影、目標(biāo)分割不完整問(wèn)題,會(huì)影響到人工特征的準(zhǔn)確選取。除了上述人工特征外,最常用的特征是HOG[5,6]、SIFT[7,8]等。HOG的核心思想是所檢測(cè)的局部物體外形能夠被光強(qiáng)梯度或邊緣方向的分布所描述。HOG表示的是邊緣結(jié)構(gòu)特征,因此可以描述局部形狀信息。SIFT在圖像的空間尺度中尋找極值點(diǎn),并提取出其位置、尺度、旋轉(zhuǎn)不變量。SIFT特征對(duì)于旋轉(zhuǎn)、尺度縮放、亮度變化保持不變。但是,這兩種特征在實(shí)際應(yīng)用中,描述子生成過(guò)程冗長(zhǎng)、計(jì)算量太大。而且在上述方法中特征設(shè)計(jì)需要啟發(fā)式的方法和專(zhuān)業(yè)知識(shí),很大程度上依靠個(gè)人經(jīng)驗(yàn)。

卷積神經(jīng)網(wǎng)絡(luò)不需要手動(dòng)設(shè)計(jì)提取特征,可以直接將圖片作為輸入,隱式地學(xué)習(xí)多層次特征,進(jìn)而實(shí)現(xiàn)分類(lèi)[9]。相比目前常用的人工設(shè)計(jì)特征然后利用各分類(lèi)器,具有明顯的優(yōu)勢(shì)。近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)已成為語(yǔ)音、圖像識(shí)別領(lǐng)域研究熱點(diǎn)。它的權(quán)值共享特點(diǎn)使得網(wǎng)絡(luò)復(fù)雜度降低,權(quán)值數(shù)量減少。而且,卷積神經(jīng)網(wǎng)絡(luò)直接將圖片作為輸入,避免了復(fù)雜的特征設(shè)計(jì)和提取,具有一定的平移、縮放和扭曲不變性[10]。本文采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)古玩圖片進(jìn)行分類(lèi)。首先,將背景分離后的圖片作為網(wǎng)絡(luò)的輸入,相比原圖作為輸入,此方法的網(wǎng)絡(luò)結(jié)構(gòu)更加簡(jiǎn)單。然后,卷積層通過(guò)不同的卷積核對(duì)輸入圖片進(jìn)行卷積得到不同特征圖,采樣層進(jìn)一步對(duì)特征圖進(jìn)行二次提取,最終提取到合適的特征輸入分類(lèi)器進(jìn)行分類(lèi),而在卷積層、采樣層中特征圖的大小、數(shù)目都會(huì)影響到網(wǎng)絡(luò)的分類(lèi)能力。因此,本文通過(guò)優(yōu)化網(wǎng)絡(luò)參數(shù),使網(wǎng)絡(luò)達(dá)到較好的分類(lèi)效果。

1卷積神經(jīng)網(wǎng)絡(luò)

1989年,LECUN等[11]提出了卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Networks,CNN),CNN是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),一般至少有2個(gè)非線(xiàn)性可訓(xùn)練的卷積層、2個(gè)非線(xiàn)性的固定采樣層和1個(gè)全連接層,一共至少5個(gè)隱含層[12]。百度于2012年底將深度學(xué)習(xí)技術(shù)成功應(yīng)用于自然圖像OCR識(shí)別和人臉識(shí)別,此后深度學(xué)習(xí)模型被成功應(yīng)用于一般圖片的識(shí)別和理解。從百度經(jīng)驗(yàn)來(lái)看,深度學(xué)習(xí)應(yīng)用于圖像識(shí)別不但大大提升了準(zhǔn)確性,而且避免了人工特征抽取的時(shí)間消耗,從而大大提高了在線(xiàn)計(jì)算效率[13]。

卷積神經(jīng)網(wǎng)絡(luò)作為一種高效的深度學(xué)習(xí)方法[14],在許多圖像識(shí)別方面取得了很好的成效[1519]。該網(wǎng)絡(luò)作為一種多隱層神經(jīng)網(wǎng)絡(luò),可以提取圖像的多層次特征進(jìn)行識(shí)別。

卷積神經(jīng)網(wǎng)絡(luò)主要包括卷積層和采樣層,卷積層通過(guò)可學(xué)習(xí)的卷積核對(duì)輸入圖片進(jìn)行卷積得到特征圖,卷積操作即加強(qiáng)了輸入圖片的某種特征,并且降低噪聲。卷積之后的結(jié)果通過(guò)激活函數(shù)(通常選擇Sigmoid函數(shù)或Tanh函數(shù))作用輸出構(gòu)成該層的特征圖。特征圖上的每一個(gè)神經(jīng)元只與輸入圖片的一個(gè)局部區(qū)域連接,每個(gè)神經(jīng)元提取的是該局部區(qū)域的特征,所有神經(jīng)元綜合起來(lái)就得到了全局特征,與神經(jīng)元相連接的局部區(qū)域即為局部感受野[20]。而在卷積層中一般存在多張?zhí)卣鲌D,同一張?zhí)卣鲌D使用相同的卷積核,不同特征圖使用不同的卷積核[21],此特點(diǎn)稱(chēng)為權(quán)值共享,即同一張?zhí)卣鲌D上的所有神經(jīng)元通過(guò)相同的卷積核連接局部感受野。卷積神經(jīng)網(wǎng)絡(luò)的局部感受野和權(quán)值共享特點(diǎn)大大減少了網(wǎng)絡(luò)訓(xùn)練的參數(shù)個(gè)數(shù),降低了網(wǎng)絡(luò)模型的復(fù)雜度。

采樣層對(duì)卷積層提取到的特征圖進(jìn)行局部非重疊采樣,即把特征圖分為互不重疊的N×N個(gè)子區(qū)域,對(duì)每個(gè)子區(qū)域進(jìn)行采樣。卷積神經(jīng)網(wǎng)絡(luò)的采樣方式一般有兩種:最大值采樣和均值采樣。最大值采樣即選取區(qū)域內(nèi)所有神經(jīng)元的最大值作為采樣值,均值采樣為區(qū)域內(nèi)所有神經(jīng)元的平均值作為采樣值。最大值采樣偏向于提取目標(biāo)的特征信息,而均值采樣偏向于提取背景的特征信息[22]。采樣后的特征平面在保留了區(qū)分度高特征的同時(shí)大大減少了數(shù)據(jù)量,它對(duì)一定程度的平移、比例縮放和扭曲具有不變性。

卷積神經(jīng)網(wǎng)絡(luò)通過(guò)卷積層和采樣層的循環(huán)往復(fù)提取到圖像由低層次到高層次的特征,最后一般通過(guò)全連接層將所有特征圖展開(kāi)得到一維向量,然后輸入到分類(lèi)器進(jìn)行分類(lèi)。

卷積神經(jīng)網(wǎng)絡(luò)在處理二維圖像時(shí),卷積層中每個(gè)神經(jīng)元的輸入與上一層的局部感受野相連接,并提取該局部的特征,權(quán)值共享特點(diǎn)又使得各神經(jīng)元保持了原來(lái)的空間關(guān)系,將這些感受不同局部區(qū)域的神經(jīng)元綜合起來(lái)就得到了全局信息。采樣層對(duì)特征圖進(jìn)行局部特征提取,不會(huì)改變神經(jīng)元之間的空間關(guān)系,即二維圖像經(jīng)過(guò)卷積層、采樣層仍然保持二維形式。因此,卷積神經(jīng)網(wǎng)絡(luò)有利于提取形狀方面的特征。雖然卷積神經(jīng)網(wǎng)絡(luò)的局部感受野、權(quán)值共享和子采樣使網(wǎng)絡(luò)大大減少了需要訓(xùn)練參數(shù)的個(gè)數(shù),但是該網(wǎng)絡(luò)作為多隱層神經(jīng)網(wǎng)絡(luò)還是十分復(fù)雜的。對(duì)于不同的數(shù)據(jù)庫(kù),為了達(dá)到比較好的分類(lèi)效果,網(wǎng)絡(luò)的層數(shù)、卷積層特征圖個(gè)數(shù)以及其它參數(shù)的設(shè)置都需要探究。

2基于卷積神經(jīng)網(wǎng)絡(luò)的古玩圖片分類(lèi)

2.1特征提取及傳遞

不同古玩的主要區(qū)別在于形狀不同,而花瓶、盤(pán)子和碗在古玩中最常見(jiàn),因此將這3類(lèi)圖片作為實(shí)驗(yàn)對(duì)象,對(duì)于其它種類(lèi)的古玩圖片的分類(lèi),該網(wǎng)絡(luò)同樣適用。卷積神經(jīng)網(wǎng)絡(luò)采用如下圖所示的5層網(wǎng)絡(luò)結(jié)構(gòu),并對(duì)網(wǎng)絡(luò)各層的特征圖數(shù)目、大小均作了修改。對(duì)于網(wǎng)絡(luò)的輸入,先將原圖像進(jìn)行目標(biāo)與背景分割,然后進(jìn)行灰度化、統(tǒng)一分辨率的處理,最后輸入到卷積神經(jīng)網(wǎng)絡(luò)。由于訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的根本目的是提取不同古玩的特征,而背景不是目標(biāo)的一部分,對(duì)古玩識(shí)別來(lái)說(shuō)并不提供任何有用的信息,反而對(duì)特征的提取造成干擾,所以去除背景噪聲后,網(wǎng)絡(luò)結(jié)構(gòu)會(huì)更加簡(jiǎn)單,同時(shí)也利于網(wǎng)絡(luò)對(duì)特征的學(xué)習(xí)。但是因?yàn)檫M(jìn)行了去背景的預(yù)處理,網(wǎng)絡(luò)也失去了對(duì)復(fù)雜背景下圖片的識(shí)別能力,所以使用該網(wǎng)絡(luò)進(jìn)行古玩圖片分類(lèi)前都要進(jìn)行目標(biāo)分割的預(yù)處理過(guò)程。

卷積神經(jīng)網(wǎng)絡(luò)對(duì)古玩圖片的特征提取過(guò)程如下:

(1)輸入網(wǎng)絡(luò)的圖片為100×100大小的預(yù)處理圖,卷積神經(jīng)網(wǎng)絡(luò)的輸入層之后為卷積層,卷積層通過(guò)卷積核與輸入圖像進(jìn)行卷積得到特征平面,卷積核大小為5×5。如圖2所示,特征平面上每個(gè)神經(jīng)元與原圖像5×5大小的局部感受野連接。卷積核移動(dòng)步長(zhǎng)為1個(gè)像素,因此卷積層C1的特征平面大小為96×96。這種卷積操作在提取到輸入圖像的某一方面特征時(shí),必然會(huì)損失掉圖像的其他特征,而采取多個(gè)卷積核卷積圖像得到多個(gè)特征平面則會(huì)一定程度上彌補(bǔ)這個(gè)缺陷。因此,在卷積層C1中使用了6個(gè)不同的卷積核與輸入圖像進(jìn)行卷積,得到6種不同的特征平面圖。如圖3所示,同一張?zhí)卣鲌D上的所有神經(jīng)元共享一個(gè)卷積核(權(quán)值共享),圖中連接到同一個(gè)特征圖的連接線(xiàn)表示同一個(gè)卷積核,6個(gè)不同的卷積核卷積輸入圖片得到6張不同的特征平面圖。卷積之后的結(jié)果并非直接儲(chǔ)存到C1層特征圖中,而是通過(guò)激活函數(shù)將神經(jīng)元非線(xiàn)性化,從而使網(wǎng)絡(luò)具有更強(qiáng)的特征表達(dá)能力。激活函數(shù)選擇Sigmoid函數(shù)。

卷積層中所使用的卷積核尺寸若過(guò)小,就無(wú)法提取有效表達(dá)的特征,過(guò)大則提取到的特征過(guò)于復(fù)雜。對(duì)于卷積層中特征圖個(gè)數(shù)的設(shè)置,在一定范圍內(nèi),特征圖的個(gè)數(shù)越多,卷積層提取到越多有效表達(dá)原目標(biāo)信息的特征,但是特征圖個(gè)數(shù)如果過(guò)多,會(huì)使提取到的特征產(chǎn)生冗余,最終使分類(lèi)效果變差。卷積層的各平面由式(1)決定: Xlj=f(∑i∈MjXl-1j*klij+blj)(1)

式(1)中,Mj表示選擇輸入的特征圖集合,l是當(dāng)前層數(shù),f是激活函數(shù),klij表示不同輸入特征圖對(duì)應(yīng)的卷積核,blj為輸出特征圖對(duì)應(yīng)的加性偏置。

(2)卷積層C1后的采樣層S1由6個(gè)特征平面組成,采樣層對(duì)上一層特征圖進(jìn)行局部平均和二次特征提取。采樣過(guò)程如圖4所示,特征平面上的每個(gè)神經(jīng)元與上一層4×4大小的互不重合的鄰域連接進(jìn)行均值采樣,最終每個(gè)平面的大小為24×24。采樣層的各平面由式(2)決定:

Xlj=f(βljdown(Xl-1j)+blj)(2)

式(2)中,down(.)表示一個(gè)下采樣函數(shù),l是當(dāng)前層數(shù),f是激活函數(shù),βlj表示輸出特征圖對(duì)應(yīng)的乘性偏置,blj為輸出特征圖對(duì)應(yīng)的加性偏置。

(3)卷積層C2與C1層操作方式一樣,唯一區(qū)別的是C2層每個(gè)特征圖由6個(gè)不同的卷積核與上一層6個(gè)特征圖分別卷積求和得到,因此C2層一共有6×6個(gè)不同的卷積核,卷積核大小為5×5,C2層每個(gè)平面大小為20×20,共6個(gè)特征平面。

(4)采樣層S2與S1層操作一樣,對(duì)上一層4×4大小鄰域進(jìn)行均值采樣,輸出6個(gè)5×5大小的特征平面。本文所用的網(wǎng)絡(luò)共包括2個(gè)卷積層、2個(gè)采樣層、1個(gè)全連接層,由于輸入圖片已經(jīng)過(guò)背景分離的預(yù)處理,采樣層S2特征圖大小為5×5,所以圖1所示5層網(wǎng)絡(luò)已經(jīng)有很好的表達(dá)能力。如果直接將原圖作為輸入,那么網(wǎng)絡(luò)的層數(shù)以及特征圖的個(gè)數(shù)將比圖1所示的網(wǎng)絡(luò)更加復(fù)雜。

(5)全連接層將上一層6個(gè)5×5大小的二維平面展開(kāi)成為1×150大小的一維向量輸入Softmax[23]分類(lèi)器,輸出層一共有3個(gè)神經(jīng)元(即分類(lèi)的種類(lèi)數(shù)目),分類(lèi)器將提取到的特征向量映射到輸出層的3個(gè)神經(jīng)元上,即實(shí)現(xiàn)分類(lèi)。

2.2網(wǎng)絡(luò)訓(xùn)練

訓(xùn)練方式為有監(jiān)督地訓(xùn)練,網(wǎng)絡(luò)對(duì)盤(pán)子、花瓶和碗共三類(lèi)圖片進(jìn)行分類(lèi),所以分類(lèi)器輸出一個(gè)3維向量,稱(chēng)為分類(lèi)標(biāo)簽。在分類(lèi)標(biāo)簽的第k維中1表示分類(lèi)結(jié)果,否則為0。訓(xùn)練過(guò)程主要分為兩個(gè)階段:

第一階段:向前傳播階段。

將預(yù)處理過(guò)的圖片輸入卷積神經(jīng)網(wǎng)絡(luò)計(jì)算得到分類(lèi)標(biāo)簽。

第二階段:向后傳播階段。

計(jì)算輸出的分類(lèi)標(biāo)簽和實(shí)際分類(lèi)標(biāo)簽之間的誤差。根據(jù)誤差最小化的原則調(diào)整網(wǎng)絡(luò)中的各個(gè)權(quán)值。分類(lèi)個(gè)數(shù)為3,共有N個(gè)訓(xùn)練樣本。那么第n個(gè)樣本的誤差為:

En=12∑3k=1(tnk-ynk)2(3)

式(3)中,tn表示第n個(gè)樣本的網(wǎng)絡(luò)輸出標(biāo)簽,tnk對(duì)應(yīng)標(biāo)簽的第k維,yn表示第n個(gè)樣本的實(shí)際分類(lèi)標(biāo)簽,ynk對(duì)應(yīng)標(biāo)簽的第k維。為了使誤差變小,利用權(quán)值更新公式(4)更新各層神經(jīng)元的權(quán)值,一直訓(xùn)練直到網(wǎng)絡(luò)誤差曲線(xiàn)收斂。

W(t+1)=W(t)+η·δ(t)·X(t)(4)

式(4)中,W(t)表示計(jì)算第n個(gè)樣本時(shí)的權(quán)值,W(t+1)表示計(jì)算第n+1個(gè)樣本的權(quán)值,η為學(xué)習(xí)速率,選取經(jīng)驗(yàn)值,δ為神經(jīng)元的誤差項(xiàng),X表示神經(jīng)元的輸入。

3實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)在MatlabR2012a平臺(tái)上完成,CPU 2.30GHz,內(nèi)存4GB,所采用的圖像由相關(guān)古玩網(wǎng)站提供,分辨率統(tǒng)一格式化為100×100。由于盤(pán)子、花瓶和碗在各種古玩種類(lèi)中它們之間的形狀差別比較明顯,本文實(shí)驗(yàn)對(duì)這三類(lèi)古玩圖片進(jìn)行分類(lèi)。對(duì)古玩圖片進(jìn)行了水平翻轉(zhuǎn)處理,增加圖片數(shù)據(jù)量,以加強(qiáng)網(wǎng)絡(luò)對(duì)古玩圖片分類(lèi)的魯棒性。實(shí)驗(yàn)數(shù)據(jù)如表1所示,圖5列出了3類(lèi)圖片的部分樣本,實(shí)驗(yàn)所用圖片均與圖5所示圖片類(lèi)似,背景比較單一,少數(shù)圖片下方有類(lèi)似陰影。

為了形象表示網(wǎng)絡(luò)各層提取的不同特征,圖6展示了當(dāng)網(wǎng)絡(luò)輸入為盤(pán)子時(shí)的各層特征圖。卷積層C1中6張?zhí)卣鲌D分別提取到了輸入圖片的不同特征,而由于權(quán)值共享,同一張?zhí)卣鲌D中神經(jīng)元的空間關(guān)系保持不變,所以6張?zhí)卣鲌D都抓住了盤(pán)子的圓形特征。采樣層S1對(duì)C1進(jìn)行均值采樣,相當(dāng)于模糊濾波,所以S1層各特征圖看起來(lái)模糊了一些。卷積層C2中每張?zhí)卣鲌D由6個(gè)不同的卷積核卷積S1層各特征圖疊加而成,S2層與S1層處理方式相同。

為了說(shuō)明將背景分離后的圖片作為輸入的網(wǎng)絡(luò)與原圖輸入的網(wǎng)絡(luò)之間的差異,設(shè)計(jì)了如表3所示的兩種網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)CNN4只需要4層網(wǎng)絡(luò)層就可以達(dá)到0.19%的錯(cuò)誤率,而原圖作為輸入的CNN8共6層網(wǎng)絡(luò)層,在網(wǎng)絡(luò)達(dá)到收斂的情況下,錯(cuò)誤率為5.24%。由此可以說(shuō)明,將背景分離后圖片作為輸入的網(wǎng)絡(luò)結(jié)構(gòu)更加簡(jiǎn)單。

網(wǎng)絡(luò)的訓(xùn)練采用了批量訓(xùn)練方式,即將樣本分多批,當(dāng)一批樣本前向傳播完之后才進(jìn)行權(quán)值更新,每批大小為100,訓(xùn)練集共2 200張圖片,網(wǎng)絡(luò)迭代次數(shù)為1時(shí)共進(jìn)行22次權(quán)值更新,所以權(quán)值更新的計(jì)算次數(shù)與迭代次數(shù)有如下關(guān)系:

計(jì)算次數(shù)=22×迭代次數(shù)(5)

圖7為網(wǎng)絡(luò)在訓(xùn)練集上的誤差曲線(xiàn)圖,橫坐標(biāo)為誤差反向傳播的計(jì)算次數(shù),縱坐標(biāo)為訓(xùn)練集上的均方誤差。可以看出,當(dāng)網(wǎng)絡(luò)訓(xùn)練次數(shù)達(dá)到270次(計(jì)算次數(shù)約6 000)時(shí),訓(xùn)練集誤差趨于平緩,網(wǎng)絡(luò)已經(jīng)基本擬合。訓(xùn)練好的網(wǎng)絡(luò)可以用來(lái)對(duì)測(cè)試集圖片進(jìn)行分類(lèi),表4為不同迭代次數(shù)下訓(xùn)練的網(wǎng)絡(luò)在測(cè)試集上的分類(lèi)錯(cuò)誤率,可以看出迭代次數(shù)在達(dá)到270次后,網(wǎng)絡(luò)在測(cè)試集的錯(cuò)誤率收斂,此時(shí)只有2張圖片出現(xiàn)分類(lèi)錯(cuò)誤。

表5給出了圖像分類(lèi)算法中常用的人工特征+BP神經(jīng)網(wǎng)絡(luò)、人工特征+SVM分類(lèi)器以及Hog特征+SVM分類(lèi)器與CNN方法的性能比較。人工設(shè)計(jì)的特征包括圖片中目標(biāo)輪廓的最大長(zhǎng)寬比、質(zhì)心、圓度等特征。從準(zhǔn)確率方面來(lái)看,CNN方法的準(zhǔn)確率高于其他方法,Hog特征方法的準(zhǔn)確率遠(yuǎn)遠(yuǎn)高于人工特征的方法,說(shuō)明了特征的好壞對(duì)圖像分類(lèi)效果有著很大程度上的影響,CNN提取到的特征比Hog和人工設(shè)計(jì)的特征更具代表性。從測(cè)試時(shí)間來(lái)看,Hog方法與CNN方法相差不多,采用人工特征的方法時(shí)間最長(zhǎng)。綜合兩個(gè)方面,CNN方法在測(cè)試時(shí)間和HOG方法相近的情況下,準(zhǔn)確率最高。

4結(jié)語(yǔ)

針對(duì)網(wǎng)上古玩圖片分類(lèi)問(wèn)題,為了克服現(xiàn)有算法中人工設(shè)計(jì)特征困難以及往往依賴(lài)個(gè)人專(zhuān)業(yè)經(jīng)驗(yàn)的不足,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的方法。將背景分離后的目標(biāo)圖片作為網(wǎng)絡(luò)輸入,可以實(shí)現(xiàn)自動(dòng)提取特征進(jìn)行分類(lèi),背景分離后圖片作為網(wǎng)絡(luò)輸入使得網(wǎng)絡(luò)結(jié)構(gòu)更加簡(jiǎn)單,并且設(shè)置了合適的特征圖個(gè)數(shù)以使網(wǎng)絡(luò)在古玩圖片集上取得較好的分類(lèi)準(zhǔn)確率。實(shí)驗(yàn)數(shù)據(jù)表明,該方法能夠解決網(wǎng)上古玩圖片的分類(lèi)問(wèn)題,并且分類(lèi)準(zhǔn)確率達(dá)到99%,其準(zhǔn)確率優(yōu)于常用的Hog特征以及人工特征方法。另外該方法不僅可以應(yīng)用于網(wǎng)上古玩圖片,還可應(yīng)用于鞋類(lèi)、服裝等其它商品圖像的分類(lèi)。

參考文獻(xiàn)參考文獻(xiàn):

[1]K KAVITHA,M.V.SUDHAMANI.Object based image retrieval from database using combined features[C].in Signal and Image Processing (ICSIP),2014.

[2]董紅霞,郭斯羽,一種結(jié)合形狀與紋理特征的植物葉片分類(lèi)方法[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(23):185188.

[3]舒文娉,劉全香,基于支持向量機(jī)的印品缺陷分類(lèi)方法[J].包裝工程,2014,35(23):138142.

[4]應(yīng)義斌,桂江生,饒秀勤,基于Zernike矩的水果形狀分類(lèi)[J].江蘇大學(xué)學(xué)報(bào):自然科學(xué)版,2007,28(1):3639.

[5]ZHU Q,YEH M C,CHENG K T,et al.Fast human detection using acascade of histograms of oriented gradients[C].Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006.

[6]M VILLAMIZAR,J SCANDALIANS,A SANFELIU S.Combining colorbased invariant gradient detector with Hog descriptors for robust image detection in scenes under cast shadows[C].In Robotics and Automation,ICRA IEEE International Conference on.Barcelona,Spain:IEEE,2009.

[7]CHEN J,LI Q,PENG Q,et al.CSIFT based localityconstrained linear coding for image classification[J].Formal Pattern Analysis & Applications,2015,18(2):441450.

[8]AHMAD YOUSEF K M,ALTABANJAH M,HUDAIB E,et al.SIFT based automatic number plate recognition[C].International Conference on Information and Communication Systems.IEEE,2015.

[9]LAWRENCE S,GLIES C L,TSOI A C,et al.Face recognition:a convolutional neuralnetwork approach[J].IEEE Transactions on Neural Networks,1997,8(1):98113.

[10]TREVOR HASTIE,ROBERT TIBSHIRANI,J FRIEDMAN.The elements of statistical learning[M].New York:Springer,2001.

[11]Y LECUN,L BOUOU,Y BENGIO.Gradientbased learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):22782324.

[12]DAHL J V,KOCH K C,KLEINHANS E,et al.Convolutional networks and applications in vision[C].International Symposium on Circuits and Systems (ISCAS 2010),2010:253256.

[13]余凱,賈磊,陳雨強(qiáng),等.深度學(xué)習(xí)的昨天、今天和明天[J].計(jì)算機(jī)研究與發(fā)展,2013(09):17991804.

[14]MAIRAL J,KONIUSZ P,HARCHAOUI Z,et al.Convolutional kernel networks[DB/OL].http://arxiv.org/pdf/1406.3332v2.pdf.

[15]賈世杰,楊東坡與劉金環(huán),基于卷積神經(jīng)網(wǎng)絡(luò)的商品圖像精細(xì)分類(lèi)[J].山東科技大學(xué)學(xué)報(bào):自然科學(xué)版,2014(6):9196.

[16]程文博等,基于卷積神經(jīng)網(wǎng)絡(luò)的注塑制品短射缺陷識(shí)別[J].塑料工業(yè),2015(7):3134,38.

[17]鄧柳,汪子杰,基于深度卷積神經(jīng)網(wǎng)絡(luò)的車(chē)型識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究,2016(4):14.

[18]T JONATAN,S MURPHY,Y LECUN,et al.Realtime continuous pose recovery of human hands using convolutional networks[J].ACM Transaction on Graphics,2014,33(5):3842.

[19]S SKITTANON,A C SURENARAN,J C PLATT,et al.Convolutional networks for speech detection[C].Interspeech.Lisbon,Portugal:ISCA,2004.

[20]HUBEL D H,WIESEL T N.Integrative action in the cat's lateral geniculate body[J].Journal of Physiology,1961,155(2):385398.

[21]JAKE BOUVRIE.Notes on convolutional neural networks[DB/OL].http://cogprints.org/5869/1/cnn_tutorial.pdf.

[22]YU D,WANG H,CHEN P,et al.Mixed pooling for convolutional neural networks[M].Rough Sets and Knowledge Technology.Springer International Publishing,2014:364375.

[23]SCHMIDHUBER J,MEIER U,CIRESAN D.Multicolumn deep neural networks for image classification[C].IEEE Conference on Computer Vision & Pattern Recognition,2012.

責(zé)任編輯(責(zé)任編輯:陳福時(shí))

猜你喜歡
卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別深度學(xué)習(xí)
基于Resnet-50的貓狗圖像識(shí)別
電子制作(2019年16期)2019-09-27 09:34:50
高速公路圖像識(shí)別技術(shù)應(yīng)用探討
圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
電子制作(2018年19期)2018-11-14 02:37:04
圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
電子制作(2018年14期)2018-08-21 01:38:16
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
蒙城县| 通渭县| 台北县| 桦甸市| 包头市| 东辽县| 重庆市| 东平县| 长治县| 江北区| 林芝县| 时尚| 响水县| 祁阳县| 北辰区| 五台县| 科技| 黔西县| 江津市| 溆浦县| 阿尔山市| 温宿县| 仲巴县| 资源县| 太湖县| 葵青区| 青神县| 法库县| 定边县| 桓台县| 榆社县| 武汉市| 伊通| 安义县| 无极县| 四会市| 兴海县| 新和县| 会宁县| 司法| 山阳县|