国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多層非負局部Laplacian稀疏編碼的圖像分類

2018-10-16 08:29張景會吳克風孟曉靜
計算機應用 2018年9期
關鍵詞:字典負性準確率

萬 源,張景會,吳克風,孟曉靜

(1.武漢理工大學 理學院,武漢 430070; 2.北京機電工程研究所,北京 100074)

0 引言

近年來,圖像分類成為機器學習領域的研究熱點,而圖像表示是圖像分類的核心問題,其中應用最廣泛的是稀疏編碼。Yang等[1]提出一種基于尺度不變特征變換(Scale-Invariant Feature Transform, SIFT )描述子并結合空間金字塔匹配(Spatial Pyramid Matching, SPM)的稀疏編碼(Sparse Coding)算法(ScSPM);為了防止編碼過程中圖像塊之間的相似性信息丟失,Gao等[2]在ScSPM的基礎上引入圖形Laplacian算子,提出基于Laplacian的ScSPM(Lsc-SPM)圖像分類算法,提高了稀疏編碼的穩(wěn)定性,增強了稀疏編碼的魯棒性。雖然兩者能在一定程度上提高分類精度,但沒有考慮到局部性,在某些假設下,局部性比稀疏性更重要,因此Wang等[3]提出一種基于局部約束的線性編碼(Locality-constrained Linear Coding, LLC);近鄰數(shù)K的大小影響著LLC編碼的分類性能,編碼中的某些正值元素與負值元素的差值絕對值隨K值的變化而變化,導致LLC編碼的不穩(wěn)定,因此劉培娜等[4]在LLC優(yōu)化模型的目標函數(shù)中加入非負性約束,提出了一種稱為非負局部約束的線性編碼算法(Non-Negative Locality-constrained Linear Coding, NNLLC);Han等[5]利用非負矩陣分解(Non-negative Matrix Factorization, NMF)和Laplacian算子,提出基于非負性和依賴性約束的稀疏編碼方法(Lap-NMF-SPM)。

以上稀疏編碼方法都是在單層結構的基礎上進行的,而近年來,在視覺識別領域通過深度學習方法直接從數(shù)據(jù)中學習有效特征變得越來越流行,已有很多學者驗證了多層架構模型比單層結構具有更強的特征學習能力,例如自動編碼器[6]、限制玻爾茲曼機[7]、卷積神經網絡(Convolutional Neural Network, CNN)[8]等深層架構。Guo等[9]提出一種基于兩層局部約束稀疏編碼體系結構的新特征學習方法,利用雙層結構來學習中間層特征,并采用局部約束項來保證編碼的局部平滑性,取得了較好的效果;He等[10]將稀疏編碼擴展到多層體系結構,提出一種新的稱為深度稀疏編碼(Deep Sparse Coding, DeepSC)的無監(jiān)督特征學習框架,該方法通過從稀疏到密集模塊連接不同層次的稀疏編碼器,得到了良好的分類性能;Gwon等[11]提出一個基于多層稀疏編碼的深度稀疏編碼網絡(Deep Sparse-coded Network, DSN),采用最大值融合后的稀疏編碼作為下層的密集輸入,將融合當作神經網絡里的非線性激活函數(shù),克服了簡單堆疊稀疏編碼器的缺點。Zhang等[12]引入深度稀疏編碼網絡(Deep Sparse Coding Net, DeepSCNet)的深層模型,結合CNN和稀疏編碼技術的優(yōu)勢進行圖像特征表示。Papyan等[13]提出一個新的多層卷積稀疏模型(Multi-Layer Convolutional Sparse Coding, ML-CSC),并使用分層閾值算法來解決該問題。Zhou等[14]提出一個深度稀疏編碼網絡的圖像分類算法,可以直接從圖像像素自動發(fā)現(xiàn)高判別性特征。雖然上述多層稀疏編碼方法能在一定程度上減少重構誤差,提高分類性能,但是都忽視了圖像的局部信息,導致編碼不穩(wěn)定。為了達到全局稀疏,避免局部特征之間可能相互抵消,更多地提取特征之間的空間幾何信息,萬源等[15]提出融合局部性和非負性的Laplacian稀疏編碼的圖像分類算法,有效解決了局部性信息缺失和特征相互抵消的問題,改善編碼的不穩(wěn)定并保持特征之間的相互依賴性。

很多研究表明,與單層稀疏編碼相比,深層架構模型通過一層層的非線性網絡結構來表征數(shù)據(jù)的內在分布,提取圖像更深層次的抽象特征,有效刻畫圖像的內在信息,具有高效的特征表達能力,克服了單層模型的局限性。因此本文將稀疏編碼模型擴展到多層架構模型中,提出一個多層融合局部性和非負性的Laplacian稀疏編碼算法。另外,在稀疏編碼階段,本文利用非負局部Laplacian稀疏編碼,不僅考慮了特征之間的局部關系與空間關系,而且解決了特征之間可能會相互抵消的問題,達到了全局稀疏的目的。本文的方法可以學習不同的特征層次結構,同層的稀疏編碼可以保持圖像塊之間的空間平滑度,下層在上層的基礎上可以捕獲圖像的更多空間信息,使得圖像表示具有更強的魯棒性。

1 相關工作

對于圖像分類來說,局部特征編碼不僅可以精確地模擬圖像,還可以提高圖像分類性能。簡要介紹兩種編碼方法:稀疏編碼和Laplacian稀疏編碼。稀疏編碼使用少量的基向量來學習圖像的有效表示,目的是學習M空間中的超完備(基向量的個數(shù)遠大于維數(shù))字典U,并選取盡可能少的基向量,將輸入特征向量簡潔、有效地表示為這些基向量的線性組合。

1.1 稀疏編碼

詞袋模型(Bag of Words,BoW)和空間金字塔匹配模型(Spatial Pyramid Matching,SPM)是圖像分類中兩種經典的編碼方法,能夠很好地進行圖像表示,但在生成視覺字典的過程中,BoW和SPM使用的K-means方法極易造成重構誤差,從而導致語義信息的丟失。因此,Yang等[1]引入稀疏編碼(Sparse Coding, SC)概念對傳統(tǒng)的向量量化方法進行改進,提出ScSPM方法,具體優(yōu)化問題如下:

(1)

其中,X∈RD×N為特征矩陣,U∈RD×M為非負字典,S∈RM×N為相應的稀疏編碼,第一項為重構誤差項,第二項為稀疏性懲罰項,λ為正則化參數(shù),l1范數(shù)用來保持編碼的稀疏性,其中‖·‖F(xiàn)表示矩陣的Frobenius范數(shù)。

1.2 Laplacian稀疏編碼

考慮到傳統(tǒng)稀疏編碼方法對特征的敏感性,導致相似的特征編碼成不同的碼字,Gao等[2]在稀疏編碼的基礎上引入Laplacian矩陣以保留相似局部特征編碼的一致性,提出Laplacian稀疏編碼方法,有效改善了編碼的不穩(wěn)定性,保留了圖像塊之間的相似性信息。具體優(yōu)化問題如下:

(2)

由于同時優(yōu)化目標函數(shù)中的U和S,該問題是非凸的,這樣很難找到一個全局最小值,但是優(yōu)化函數(shù)分別關于U或者S是凸的,那么交替優(yōu)化U和S就會存在全局最優(yōu)解,因此交替固定U(或者S)來優(yōu)化S(或者U)。

2 本文方法

單層稀疏編碼雖然能夠有效地表示圖像,但多層稀疏編碼可以學習不同的特征層次結構,同層的稀疏編碼可以保持圖像塊之間的空間平滑度,下層可以在上層的基礎上捕獲圖像的更多空間信息?;诖耍疚奶岢鲆粋€兩層的具有非負性和局部性約束的Laplacian稀疏編碼(Laplacian Sparse Coding by incorporating Locality and Non-negativity, LN-LSC)方法,用于學習可辨別性的層次特征。圖1為本文提出的MLLSC圖像分類模型的結構示意圖。

在圖1中,本文提出了一個2層的稀疏編碼架構,主要包括輸入層、兩個稀疏編碼隱藏層、輸出層,每個稀疏編碼層都可以學習相應級別的特征表示,并訓練相應的字典和稀疏編碼。在稀疏編碼階段,迭代地使用近似解析解來更新字典以最小化優(yōu)化誤差;在池化階段,利用平均區(qū)域劃分對稀疏編碼進行最大值融合;此外,將局部非負性約束項引入到優(yōu)化函數(shù)中,以強調特征量化期間的平滑限制。本文方法旨在通過連續(xù)編碼過程盡可能多地提取具有可判別性的特征,最終實驗結果證明,兩層結構比單層稀疏編碼結構更有效。MLLSC算法模型主要包括以下幾個步驟:

圖1 MLLSC算法的整體框架

2.1 單層Laplacian稀疏編碼的改進

盡管Laplacian稀疏編碼(Laplacian Sparse Coding, LSC)能在一定程度上減小重構誤差,但是LSC具有不穩(wěn)定性,忽略了特征之間的局部信息;并且在LSC的優(yōu)化問題中減法的使用導致特征之間相互抵消,造成圖像特征信息的丟失。因此本文采用融合局部性和非負性的Laplacian稀疏編碼方法,即將局部性加入到Laplacian稀疏編碼的優(yōu)化函數(shù)中,保證了相似的特征具有相似的編碼,且在優(yōu)化問題的約束條件中引入非負性,克服了圖像局部性特征信息丟失的缺陷,達到了全局稀疏的目的。首先從局部特征中隨機選取部分特征作為模板特征來訓練非負字典U和稀疏編碼V,具體的優(yōu)化問題如下所示:

(3)

其中:X=[x1,x2,…,xN]為圖像的SIFT特征矩陣;U=[u1,u2,…,uM]為非負字典,S=[s1,s2,…,sN]為相應的稀疏編碼,ui為字典U的第i個基向量;di表示局部適應器[3],它為每個基向量賦予不同的自由度,其與輸入描述子xi的相似性成比例;⊙代表兩個列向量逐元素相乘;tr(·)表示矩陣的跡。具體表達式為:

di=exp(dist(xi,U)/θ)

dist(xi,U)=[dist(xi,u1),dist(xi,u2),…,dist(xi,uM)]T

其中:θ為調整權重衰減的參數(shù);dist(xi,bj)表示xi和bj之間的歐氏距離。

2.2 學習局部約束的非負字典和稀疏編碼

本節(jié)將對引入局部性和非負性的Laplacian稀疏編碼的優(yōu)化問題進行求解,主要訓練局部性約束的非負字典,學習相應的稀疏編碼。

對于式(3),同時優(yōu)化U和S雖然是非凸的,但交替優(yōu)化U和S卻是凸的,從而求得全局最優(yōu)解。首先固定X和U,目標函數(shù)轉化為如下優(yōu)化問題:

s.t.S≥0

(4)

將目標函數(shù)轉化為矩陣跡的形式,并引入Lagrange乘子φij≥0,且φ=[φij]。構造拉格朗日函數(shù)[15]如下:

L(S,φ)=tr(XTX-2STUTX+STUTUS)+

tr(α(d⊙S)T(d⊙S)+βSHST)-tr(βSWST+φST)

(5)

(6)

現(xiàn)固定特征矩陣X和系數(shù)矩陣S來學習字典U,式(3)變成了具有二次約束的最小二乘問題:

(7)

本文采用拉格朗日對偶的方法來求解該問題。設λ=[λ1,λ2,…,λM],其中λi表示第i個不等式約束‖uj‖2-1≤0的拉格朗日乘子,最終得到拉格朗日對偶問題如下:

s.t.λi≥0,i=1,2,…,M

(8)

其中,Λii=λi,該問題可通過共軛梯度方法來解決,Λ*為最優(yōu)解,則可得最優(yōu)字典:

U*=(XST)(SST+Λ*)-1

(9)

2.3 多層LN-LSC算法的描述

多層稀疏編碼采用空間連續(xù)的圖像塊作為輸入,使得學習到的圖像表示更有效。其中,一幅圖像的兩層非負局部Laplacian稀疏編碼過程如圖2所示。

圖2 一幅圖像的編碼流程

其中輸入層是圖像的SIFT特征描述子:{x1,x2,…,xN},{xN+1,xN+2,…,x2N},…,{xiN-N+1,xiN-N+2,…,xiN}。

然后對提取的SIFT特征描述子進行融合局部性和非負性的LSC(LN-LSC),在編碼過程中進行字典學習,利用梯度下降法更新字典U,根據(jù)式(4)求出字典;然后根據(jù)稀疏編碼S的更新規(guī)則對稀疏編碼進行迭代更新,最后得到第一層的稀疏編碼:

?

利用LN-LSC算法得到每個特征描述子的稀疏向量S∈RM×N之后,將每一個圖像塊得到的稀疏編碼進行最大值融合,可得圖像塊的稀疏表示:

zl=max{|sl1|,|sl2|,…,|slN|};l=1,2,…,M

其中:sli表示稀疏向量sl的第i個元素;而zl是融合之后每個圖像塊稀疏表示的第l個元素。每一個圖像塊的稀疏向量用z=[z1,z2,…,zM]來表示,即:

?

為了防止過擬合現(xiàn)象的出現(xiàn),在進行第二層LN-LSC之前,對第一層最大值融合后的稀疏編碼進行主成分分析(Principal Components Analysis, PCA)降維,去掉冗余特征,降低特征的維數(shù),保留圖像主要信息,利用特征向量張成的子空間Γ=(μ1,μ2,…,μr)及特征變換Y=ΓX,得到降維后的特征矩陣,其中μ1,μ2,…,μr(r≤n)為特征值對應的特征向量:

?

一方面,將第一層融合后的稀疏編碼與第二層融合后的稀疏編碼結合作為輸出;另一方面,將PCA降維后的密集編碼作為第二層的輸入。第一層的最大值融合是針對每個圖像塊的SIFT特征描述子的稀疏編碼進行的,得到的是每個圖像塊的稀疏表示;而第二層的最大值融合是針對每個圖像塊的稀疏向量進行的,得到的是每個圖像的稀疏表示。第二層進行與第一層同樣的操作,進行最大值融合:

zl=max{|s1l|,|s2l|,…,|spl|};l=1,2,…,M

其中,spl表示第p個圖像塊稀疏表示的第l個元素,則整個圖像的稀疏表示為:ZⅡ=[z1,z2,…,zM],zi表示整個圖像稀疏表示ZⅡ的第i個元素。圖3為了第一層和第二層稀疏編碼和最大值融合的過程:

圖3 第一、二隱層的稀疏編碼及最大值融合過程

3 實驗及結果分析

本文使用Corel-10、Scene-15、Caltech-101和Caltech-256四個數(shù)據(jù)集驗證MLLSC圖像分類算法的有效性。首先采用實驗驗證的方法,從準確率方面驗證本文模型的合理性,將本文方法與3種單層稀疏編碼方法和1種多層稀疏編碼模型進行對比,再次證明本文方法在整體分類性能上的優(yōu)勢。為了準確評估分類模型的性能,本文采用10-折交叉驗證方法。

3.1 數(shù)據(jù)集

本節(jié)主要介紹4個標準的數(shù)據(jù)集,4個數(shù)據(jù)集如下:

Corel-10:該數(shù)據(jù)集包含10種類別圖像,每個類別有100張圖像,該數(shù)據(jù)集共有1 000張圖像。

Scene-15:該數(shù)據(jù)集包含15種場景圖像,每個類別有200~400張圖像,該數(shù)據(jù)集共有4 485張圖像。

Caltech-101:該數(shù)據(jù)集包含101種對象類別的圖像,每個類別約有31~800張圖像,該數(shù)據(jù)集共有9 144張圖像。

Caltech-256: 該數(shù)據(jù)集包含256類對象,每一類圖片的數(shù)量都大于等于80張。本文從每一類中分別隨機選擇15、30和60作為訓練樣本,其余的作為測試樣本。

其中,Corel-10數(shù)據(jù)集的部分樣本圖像如圖4所示。

圖4 Corel-10數(shù)據(jù)集部分圖像

為了驗證本文方法的有效性,將本文方法和以下幾種方法進行對比分析。

1) ScSPM:利用稀疏編碼的空間金字塔匹配的圖像分類算法,在圖像的不同尺度上進行稀疏編碼,并結合空間金字塔匹配方法表示圖像。

2) LScSPM:Laplacian稀疏編碼方法,利用局部特征之間的依賴關系構建Laplacian矩陣,并將Laplacian矩陣引入到稀疏編碼的目標函數(shù)中來保持局部特征的一致性。

3) LN-LSC:融合局部性和非負性的Laplacian稀疏編碼方法,將局部性和非負性加入到拉普拉斯稀疏編碼的目標函數(shù)中,使得編碼過程更穩(wěn)定,保留更多的特征。

4) DeepSC:深度稀疏編碼算法(Deep Sparse Coding)將稀疏編碼擴展到多層體系結構,通過稀疏到密集模塊連接不同層次的稀疏編碼器,從稀疏到密集模塊是局部空間融合和低維嵌入的步驟,能夠學習圖像的多層稀疏表示。

3.2 實驗設置

本文采用10-折交叉驗證來測試MLLSC算法的有效性。將Corel-10、Scene-15和Caltech-101三個標準數(shù)據(jù)集隨機分成10份,依次將其中9份作為訓練樣本,剩余1份作為測試樣本進行測試。每次實驗都會得出相應的準確率,每次準確率的平均值作為對算法精度的估計;最后,將MLLSC算法與其他方法進行比較并分析結果的有效性。

本文選取4×4的粒度對圖像進行平均區(qū)域劃分,將每個圖像平均分成p=16(4×4)個圖像塊。在特征提取階段,利用16×16的滑動窗口、步長為8進行SIFT特征提取,每個局部特征描述子均為128維,即D=128;在訓練字典階段,固定兩個隱稀疏編碼層字典的大小為M=1 024;利用K近鄰構建相似矩陣時,取K=5。

在本文優(yōu)化問題中,目標函數(shù)和約束條件所涉及的參數(shù)主要包括α,β和θ,針對不同的數(shù)據(jù)集,設置參數(shù)的值也不同。比如:對于數(shù)據(jù)集Corel-10和Scene-15設置α=0.4,β=0.2,而對于Caltech-101數(shù)據(jù)集,設置α=0.3,β=0.1。構造總的優(yōu)化函數(shù)時,在3個數(shù)據(jù)集上,α和β的不同取值對分類效果的影響如圖5所示。

圖5 α和β對分類準確率的影響

3.3 算法性能比較

這一節(jié)對本文所做實驗進行性能分析,基于四個標準數(shù)據(jù)集的分類效果,將本文所提出的方法與三種單層稀疏編方法包括ScSPM、LScSPM、LN-LSC,一種多層稀疏編碼方法DeepSC進行比較。其中,表1為MLLSC算法與三種單層稀疏編碼方法在Corel-10、Scene-15兩個數(shù)據(jù)集上的分類準確率,表2為Caltech-101數(shù)據(jù)集上不同訓練樣本下的分類準確率,分別與三種單層稀疏編碼模型和一種多層稀疏編碼模型對比驗證的結果,表3為Caltech-256數(shù)據(jù)集不同訓練圖像數(shù)目下的分類準確率,同樣對比三種單層稀疏編碼模型和一種多層稀疏編碼模型。

表1 4種方法在Corel-10和Scene-15上的分類結果

表2 5種方法在Caltech-101數(shù)據(jù)集上的分類結果 %

從表1的實驗結果可以看出,本文算法在2個數(shù)據(jù)集上的測試結果整體優(yōu)于其他算法。除了MLLSC算法之外,LN-LSC算法的準確率最高,與LN-LSC相比,MLLSC的準確率提高了約3%。對于前三種算法,均是在單層結構上進行的,而本文方法結合深度學習模型強大的學習能力,提出一個多層架構,將圖像的層次稀疏特征集合到一起,捕捉了圖像信息的多個方面,學習到圖像的更多特征信息,因而有效提高了圖像的分類性能。另一方面,LScSPM算法僅在優(yōu)化函數(shù)中加入了Laplacian正則項,忽略了特征的局部性和非負性,而本文算法結合了局部性和非負性,使相似的特征盡可能地編碼成相似的碼字,在一定程度上改善了編碼的不穩(wěn)定性,并克服了局部信息丟失和特征相互抵消的缺陷,有效提高了分類準確率。

表3 5種方法在Caltech-256數(shù)據(jù)集上的分類結果 %

由表2的實驗結果可以看出:本文方法的分類性能均優(yōu)于其他方法,在融合局部性和非負性的Laplacian稀疏編碼的基礎上構建多層稀疏編碼架構,有效提高分了類性能;與ScSPM算法相比較,DeepSC算法的平均分類準確率提高約6%,說明多層稀疏編碼能在不同的層次和不同的空間范圍上學習圖像的稀疏表示,能夠有效學習圖像的特征信息,提高了圖像的分類性能。與DeepSC算法相比,MLLSC算法在優(yōu)化函數(shù)中不僅引入了Laplacian正則項,而且在優(yōu)化函數(shù)中添加了局部性,在約束條件中添加了非負性約束,減小了量化誤差,使得編碼更加穩(wěn)定,準確率提高1%~6%。與LN-LSC算法相比,MLLSC將稀疏編碼方法擴展到了多層架構,可以學到圖像的層級特征,獲得圖像的更多特征信息,而且本文利用平均區(qū)域劃分(Average Region Division,ARD)來代替了空間金字塔劃分,使得融合后的特征向量更稀疏。

為了充分證明MLLSC算法的有效性,將MLLSC算法與已有的四種算法在Caltech-256數(shù)據(jù)集上進行實驗驗證,結果如表3所示,當訓練圖像數(shù)目為15,30,60時,與三種單層稀疏編碼算法相比,MLLSC算法在分類準確率上取得了較好的結果;特別地,與深層稀疏編碼算法DeepSC相比,訓練圖像數(shù)目分別為15、30和60時, MLLSC算法的準確率分別提高了約2.1%、1%和1.3%。由此可見,本文方法將單層稀疏編碼擴展到多層架構,并且每層稀疏編碼均在Laplacian稀疏編碼的基礎上引入了局部性和非負性,有效提高了圖像的分類性能。

3.4 不同參數(shù)值對算法的影響

影響分類準確率的因素很多,圖6給出了在數(shù)據(jù)集Caltech-101上,ScSPM、LScSPM、LN-LSC和MLLSC方法選擇不同訓練樣本數(shù)和不同尺寸大小的字典的分類準確率。在該數(shù)據(jù)集上訓練樣本數(shù)分別設置為:15,20,25,30,35,40,45,50,55和60。由圖6(a)可知,隨著訓練樣本數(shù)的增加,MLLSC的分類準確率呈現(xiàn)平穩(wěn)上升趨勢;分別設置字典大小分別為:256,512,1 024,2 048和4 096。由圖6(b)可知,隨著字典尺寸的增加,所有方法的分類效果逐漸變優(yōu)直至呈現(xiàn)平穩(wěn)趨勢。當訓練樣本數(shù)或字典大小一定時,本文方法都優(yōu)于其他單層結構的稀疏編碼方法,說明了本文方法在多層的基礎上提取了圖像的更多重要信息,進而提高了分類準確率。因此,本文MLLSC框架能夠學習到圖像的層次特征,捕獲圖像的重要信息,從而使得圖像的特征表達更有效。

圖6 不同參數(shù)下的分類準確率比較

3.5 復雜度分析

假定模板特征數(shù)量為N,字典大小為M,一幅圖像的區(qū)域劃分數(shù)量為p,構造Laplacian算子的計算復雜度為o(N*N),局部性約束的計算復雜度為o(N*M),假設第一層循環(huán)迭代t1次,第一層總的計算復雜度為o(t1*N*(N+M)),同理第二層總的計算復雜度為o(t2*M*M),針對編碼融合階段,空間金字塔劃分過程中涉及到金字塔的層數(shù)pLevels和直方圖的個數(shù)nBins,因此復雜度為o(N*+pLevels*nBins),而本文方法在融合階段利用的是平均區(qū)域劃分,計算復雜度為o(p*M),遠小于利用空間金字塔劃分的復雜度。綜上所述:MLLSC算法總的計算復雜度為o(t1*N*(N+M)+t2*M*M)。

4 結語

特征學習一直是機器學習的核心問題,受單層稀疏編碼優(yōu)異特征學習能力的推動,本文提出了多層-融合局部性和非負性的Laplacian稀疏編碼算法(MLLSC),將稀疏編碼擴展到深層特征學習框架。多層框架通過池化步驟連接來自不同層次的稀疏編碼器,其由局部空間融合步驟和降維步驟組成。這種新方法能夠在不同的抽象層次和不同的空間范圍上學習圖像的稀疏表示。本文在多個視覺對象識別數(shù)據(jù)集上測試MLLSC,均取得較高的分類準確率,且優(yōu)于所對比的稀疏編碼方法。下一步目標是將本文提出的MLLSC方法擴展到其他的分類,如音頻識別問題等。

[13] PAPYAN V, ROMANO Y, ELAD M. Convolutional neural networks analyzed via convolutional sparse coding [J]. Journal of Machine Learning Research, 2017,18:1-52.

[14] ZHOU S, ZHANG S, WANG J. Deep sparse coding network for image classification [C]// ICIMCS ’15: Proceedings of the 7th International Conference on Internet Multimedia Computing and Service. New York: ACM, 2015: Article No. 24.

[15] 萬源,史瑩,吳克風,等.融合局部性和非負性的Laplacian稀疏編碼的圖像分類[J].模式識別與人工智能,2017,30(6):481-488.(WAN Y, SHI Y, WU K F, et al. Laplacian sparse coding by incorporating locality and non-negativity for image classification [J]. Pattern Recognition and Artificial Intellgence, 2017, 30(6): 481-488.

猜你喜歡
字典負性準確率
無痛分娩用于初產婦的臨床效果觀察及對負性情緒的影響
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預報參考產品質量檢驗分析
安寧療護對老年腫瘤臨終患者主要照顧者負性情緒及心理應激的影響
共患難, 更同盟:共同經歷相同負性情緒事件促進合作行為*
頸椎病患者使用X線平片和CT影像診斷的臨床準確率比照觀察
非負性在中考中的巧用
字典的由來
大頭熊的字典
兰溪市| 桃园县| 老河口市| 玛多县| 洛南县| 隆子县| 大埔县| 伊春市| 德安县| 上高县| 永仁县| 外汇| 微山县| 鄂尔多斯市| 高清| 沂南县| 商城县| 筠连县| 太保市| 柏乡县| 长白| 武功县| 来凤县| 西华县| 唐海县| 新闻| 海丰县| 大安市| 米林县| 阿巴嘎旗| 青川县| 宁海县| 香港 | 湟中县| 梓潼县| 林西县| 罗山县| 平南县| 马尔康县| 两当县| 沁源县|