国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于樣本冗余度的主動學(xué)習(xí)優(yōu)化方法

2021-03-16 13:57:12范純龍王翼新張振鑫
計算機應(yīng)用與軟件 2021年3期
關(guān)鍵詞:冗余度信息量特征向量

范純龍 王翼新 宿 彤 張振鑫

1(沈陽航空航天大學(xué)計算機學(xué)院 遼寧 沈陽 110136) 2(遼寧省大規(guī)模分布式系統(tǒng)實驗室 遼寧 沈陽 110136)

0 引 言

近幾年,圖像識別及其分類是深度學(xué)習(xí)領(lǐng)域中的重要應(yīng)用,其中有監(jiān)督學(xué)習(xí)是重要方法之一。但是利用該方法解決圖像分類問題需要大量的有標簽數(shù)據(jù),然后利用分類器的參數(shù)學(xué)習(xí)樣本中的特征,從而達到較好的分類效果。對于大量有標簽數(shù)據(jù)的需求,網(wǎng)絡(luò)技術(shù)的普遍應(yīng)用可以使人們很容易獲得海量數(shù)據(jù),但是在一些實際應(yīng)用中[1-3],取得無標簽樣本很容易而標注樣本是代價昂貴或耗費時間的。基于此類常見的問題,Angluin[1]提出了“主動學(xué)習(xí)”。

主動學(xué)習(xí)的目的是減少對樣本數(shù)據(jù)的標注成本,用最少的有標簽樣本達到接近全樣本訓(xùn)練效果。主動學(xué)習(xí)按照樣本抽樣模式可分為流樣本模式和池樣本模式,由于流樣本模式的選擇策略需要根據(jù)不同的任務(wù)進行適當?shù)恼{(diào)整,很難作為通用方法使用。所以,近些年來主動學(xué)習(xí)主要在池樣本模式上發(fā)展[4-6],即在固定的大量無標簽樣本集中,根據(jù)選擇策略反復(fù)選擇對當前分類器而言信息量大的樣本,其中按照選擇策略原理不同,主要有基于不確定度[3,5,7-8]、泛化能力[9-10]、模型空間[11-12]等方法。這些策略都是根據(jù)樣本與當前分類器或樣本分布之間的關(guān)系,每次選擇的樣本數(shù)量多、信息量大且訓(xùn)練效果明顯,但是沒有考慮到樣本對分類器而言信息重疊問題,即信息冗余問題。盡管每次選擇樣本的信息量足夠大,但是信息冗余問題會導(dǎo)致選擇多余的無意義樣本,主動學(xué)習(xí)會因此失去意義。

主動學(xué)習(xí)的分類器選擇主要有SVM[5,7,13]、神經(jīng)網(wǎng)絡(luò)[3,8-9,14]和KNN分類器[15]。為了解決選擇樣本信息冗余問題,很多學(xué)者在以SVM為分類器的基礎(chǔ)上做了很多研究[13,16-17],提出了樣本相似性、代表性等概念解決了該問題。但是這些方法在計算這些指標時的計算量很大,且在多分類時訓(xùn)練分類器個數(shù)較多,實用性不高。進一步地,有學(xué)者提出將神經(jīng)網(wǎng)絡(luò)作為分類器,神經(jīng)網(wǎng)絡(luò)有能同時進行多分類且分類效果好的優(yōu)點。目前方法主要考慮如何更準確度量樣本不確定性,利用不確定性選擇分類邊界附近樣本,并將之作為信息量大的樣本。在解決信息冗余問題上,由于神經(jīng)網(wǎng)絡(luò)沒有明確的可解釋性,除了可視化方法外,無法明確地判斷樣本對神經(jīng)網(wǎng)絡(luò)的信息具體是什么,所以目前方法考慮更好地度量樣本對分類器的不確定性[3,8-9,14,18],沒有考慮冗余問題。

綜上所述,SVM在計算量大、樣本類別多的情況下訓(xùn)練麻煩,在以神經(jīng)網(wǎng)絡(luò)為分類器條件下沒有解決多個樣本之間信息冗余問題。針對此問題,提出DRAL(Discriminative And Redundancy Active Learning)方法,該方法用帶有多層感知機(multi-layer perception,MLP)的卷積神經(jīng)網(wǎng)絡(luò)CNN計算得到樣本潛變量向量表示樣本信息,用不確定性方法選擇信息量大的樣本構(gòu)成候選集,利用余弦距離從候選集選出信息量大且冗余度小的樣本集。不確定性方法經(jīng)過該方法提升后,在LeNet-5和NIN(Network in Network)[19]神經(jīng)網(wǎng)絡(luò)上,用Mnist、Fashion-mnist和Cifar-10數(shù)據(jù)集測試,在相同準確率條件下,最低減少11%標記樣本。

本文的主要貢獻在于:通過利用神經(jīng)網(wǎng)絡(luò)計算的潛變量,在度量樣本信息量基礎(chǔ)上提出一種降低樣本冗余度方法。

1 相關(guān)工作

樣本選擇策略是主動學(xué)習(xí)過程中的核心問題,在池樣本模式下,根據(jù)不同分類器有不同選擇策略。

以SVM為分類器條件下,利用樣本與支持向量之間的距離明確地度量了樣本的信息量,例如SVM的批模式主動學(xué)習(xí)方法等[20-22],但是考慮到樣本之間分布問題,使用最大均值差異(Maximum Mean Discrepancy,MMD)[23]度量了樣本集之間的分布差異,從而保證了無標簽集和有標簽集的分布一致性,例如邊緣分布批模式方法(Batch Mode Active Learning,BMAL)[13]、代表性方法(Discriminative and Representative Model Active Learning,DRMAL)[16]。進一步地,使用相似度稀疏模型(Dissimilarity-based Sparse Modeling Representative Selection,DSMRS)[24]和互信息方法度量了樣本集之間相似性從而降低了樣本集之間的冗余性。例如自適應(yīng)主動學(xué)習(xí)方法[15]、凸規(guī)劃主動學(xué)習(xí)方法(Convex Programming Active Learning,CPAL)[25]等。

以神經(jīng)網(wǎng)絡(luò)為分類器條件下,與SVM類似,越接近分類邊界的樣本信息量越大,目前大多數(shù)采用不確定性方法度量。由于神經(jīng)網(wǎng)絡(luò)未能明確解釋原因,有些學(xué)者認為當前方法選擇樣本不夠接近分類邊界,需要重新選擇在分類邊界附近的樣本,例如:計算多次dropout后的結(jié)果均值作為最終分類結(jié)果的貝葉斯算法(Deep Bayesian Active Learning, DBAL)[8];利用生成對抗樣本的Deepfool算法[26]攻擊無標記樣本(Deep Fool Active Learning, DFAL)算法;考慮到樣本分布關(guān)系,為了保證有標記樣本集和無標記樣本集的分布一致性,利用加入了分類器自定標簽的高可信樣本方法(Cost-Effective Active Learning,CEAL)[27],用歐氏距離把樣本選擇問題變成K中心問題[9],這些方法都保證了分布一致性且可以選擇信息量大且數(shù)量多的樣本,但是沒有解決信息冗余問題。本文提出DRAL方法降低了冗余度,達到更好的效果。

2 問題描述

本節(jié)定義了主動學(xué)習(xí)問題,通過帶有MLP的CNN中的“潛變量”間接度量了樣本信息量和樣本信息冗余度。結(jié)合主動學(xué)習(xí)過程,定義了最小化冗余度問題。

假設(shè)有m類n個樣本。基于池樣本選擇樣本模式的主動學(xué)習(xí)問題如下:

問題1假設(shè)有標記集樣本數(shù)量為nL,L={xi|i=1,2,…,nL};無標記集樣本數(shù)量為nU,U={xi|i=1,2,…,nU},xi∈Rk且nL+nU=n;樣本標簽集:Y={yi|i=1,2,…,nL}且yi∈Rm。CNN模型的損失函數(shù)為l(L,Y;f(θ)),其映射為RnL×k×RnL×m→RnL。每次從U中選擇k個樣本構(gòu)成Si集放入到L中,主動學(xué)習(xí)問題為:

minLE[l(L,Y;f(θ))]-E[l(L+U;f(θ))]

其中損失函數(shù)是信息交叉熵函數(shù),即:

(1)

式中:T是迭代次數(shù);1{·}是指示函數(shù),當CNN預(yù)測正確時為1,否則為0;p(yi=j|xi;θ)是經(jīng)過Softmax過程后在j類的輸出結(jié)果。

由于CNN沒有明確的可解釋性,所以明確樣本對CNN的具體信息是什么很困難。鑒于此問題,假定CNN經(jīng)過卷積層后接有MLP全連接層,并規(guī)定MLP中的隱層輸出向量為潛變量,通過潛變量抽象表示樣本信息。潛變量向量的模長表示信息量,通過計算樣本間距離大小表示信息冗余。常用距離度量有歐氏距離和余弦距離,余弦距離計算效果更好且計算得出結(jié)論相同,所以選擇余弦距離。進一步地,內(nèi)積度量樣本間的信息冗余度,即內(nèi)積越大表示潛變量的相似度越高,被比較的兩個樣本間的信息量冗余度越高。

I=[I1,I2,…,In]

為了解決問題1,通過降低冗余度達到該目的,即選擇信息量大且冗余度小的樣本集。問題1變?yōu)槿绾芜x擇樣本集Si,使得樣本間冗余度最小。

問題2假設(shè)已有冗余度矩陣R,從U中選擇樣本集Si,使得R的均值最小,即:

minLaverage(R)

3 冗余度方法

冗余問題主要在多次選擇的Si樣本集之間或者單次選擇的Si集中樣本之間。假設(shè)每次選擇完Si,經(jīng)過標記后CNN在集合L上收斂,因此,每次迭代選擇的Si樣本集之間信息冗余少,冗余問題主要在Si集中的樣本之間。

圖1 si集的冗余度問題分析情況

3.1 不確定性方法

(1) 低可信度[26]:

x*=argmaxx[1-p(ymax|xi;θ)]

(2)

式中:ymax=max(yi=j|xi;θ)。樣本在各個分類概率中的最大值由小到大排序,選擇前K個樣本。

(2) 信息熵[26]:

(3)

按照信息熵由大到小排序,選擇前K個樣本。

(3) 貝葉斯估計[8]:

(4)

在多次dropout值條件下平均分類結(jié)果,然后結(jié)合式(2)和式(3)選擇樣本。

3.2 冗余度算法

如圖1(a)所示,上述不確定性方法選擇樣本過程僅是按照給定計算指標排序選擇一些樣本作為Si集,該過程中并沒有考慮樣本冗余,從而選擇了無意義的樣本?;诖藛栴}提出DRAL方法,如圖1(b)所示,將位于CNN分類邊界附近的樣本構(gòu)成候選樣本集,該集合包括所有類別。最后,從該候選樣本集中選擇冗余度小的樣本子集。

根據(jù)不確定性方法選擇位于CNN分類邊界附近的樣本構(gòu)成候選樣本集。計算所有候選樣本間的潛變量間余弦距離矩陣:

(5)

利用距離矩陣得到冗余度小的樣本集,即每次從候選集選出與待標記集最不相似的樣本,特別地,若L為空集則選擇與候選集最相似樣本。冗余度算法如算法1所示。

算法1冗余度算法

輸入:距離矩陣D;樣本數(shù)目k。

輸出:待標記樣本集L。

1. While |L|

2. IfL=?:

3.P=average_column(D);/*根據(jù)式(5)計算距離矩陣D行均值向量*/

4. Index=min(P);/*得到與整個候選集最相似的樣本索引*/

5. Else

6.D1=D(L);P=average_row(D1);/*按照L中樣本在候選集中索引,把D行向量拼接成D矩陣,計算D列均值*/

7. Index=max(P);/*取出與L樣本集最不相似的樣本*/

8.L=L+index;/*做標記,放入L中*/

9.D=L-D;/*按照L中樣本在候選集中索引,把D列向量刪除*/

10. End while

11. returnL

3.3 DRAL方法

從上述算法可看出,利用余弦距離、冗余度算法的目的是從候選樣本集中選擇具有類別多樣性、冗余度小的樣本集。結(jié)合上述不確定性方法,DRAL算法過程如算法2所示。

算法2DRAL算法

輸入:有標簽樣本集L;無標記樣本集U;每次選擇樣本數(shù)K;候選樣本數(shù)NK;最大迭代次數(shù)T;當前迭代次數(shù)t。

輸出:CNN模型。

1. 在L上初始化CNN;

2. whilet

3.C=uncertain(U);

/*根據(jù)不確定方法(1)或方法(2)或

/方法(3),在U中選擇NK個樣本,構(gòu)成候選集C*/

4.Dis=D(C);

/*計算所有樣本之間余弦距離,構(gòu)成距離矩陣D*/

5.Q=R(Dis,K);

/*由算法1可得,從候選集C中得到樣本

/數(shù)目為K的待標記樣本集Q*/

6.L=L+Q;U=U-Q;

/*在有標簽集添加Q,從無標簽集刪除Q*/

7. CNN=train(CNN,L);

/*在L上訓(xùn)練CNN*/

8. end while

9. return CNN

假設(shè)在無標記樣本池中,一輪內(nèi)選出K個樣本,以LeNet-5網(wǎng)絡(luò)為分類器有S個卷積核,設(shè)單個卷積核計算時間為ts,DRAL方法和不確定性方法的時間復(fù)雜度分析如下:

不確定性方法:

TU=Ts+Tk

(6)

DRAL方法:

TD=Ts+Tk+TR

(7)

式中:Ts是經(jīng)過網(wǎng)絡(luò)訓(xùn)練時間;Tk是排序選擇樣本時間;TR是冗余度計算時間。

Ts=tsKS=O(tsS)

(8)

Tk=K=O(1)TR=NK=O(N)

(9)

顯然,tsS?N>1,則Ts?TR>Tk,時間主要消耗在訓(xùn)練神經(jīng)網(wǎng)絡(luò)上,則式(6)與式(7)有如下關(guān)系:

TU≈TD≈O(tsS)

(10)

由式(10)可得出兩種方法的運行時間大致相同。

4 實驗與結(jié)果分析

4.1 數(shù)據(jù)集和網(wǎng)絡(luò)結(jié)構(gòu)

在Lenet和NIN模型上對Mnist、Fashion-mnist,以及Cifar-10進行多次實驗。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)見表1和表2,數(shù)據(jù)集的說明如下:

(1) Mnist:28×28灰度圖,共10類。用于識別手寫數(shù)字數(shù)據(jù)集,其中:訓(xùn)練集50 000幅,驗證集5 000幅,測試集10 000幅。實驗用10 000幅作為無標記樣本池。

(2) Fashion-mnist:28×28灰度圖,共10類。用于識別時尚服裝數(shù)據(jù)集,其中:訓(xùn)練集50 000幅,測試集10 000幅。由于復(fù)雜度比Mnist更高,實驗用20 000幅作為無標記樣本池。

(3) Cifar-10:32×32×3彩色圖,共10類。用于識別普適物體的小型數(shù)據(jù)集,其中:訓(xùn)練集50 000幅,測試集10 000幅。實驗用20 000幅作為無標記樣本池。

表1 Mnist和Fashion-mnist實驗網(wǎng)絡(luò)結(jié)構(gòu)

表2 Cifar-10實驗網(wǎng)絡(luò)結(jié)構(gòu)

續(xù)表2

4.2 實驗參數(shù)

為了降低實驗偶然性的影響,每個數(shù)據(jù)集實驗都是平均了5次的結(jié)果。每次實驗中,為了避免模型在訓(xùn)練過程中具有傾向性,每次迭代選擇的驗證集是從現(xiàn)有的有標簽集中的每類隨機均勻抽取2%樣本,且在各個數(shù)據(jù)集實驗的CNN初始化網(wǎng)絡(luò)參數(shù)一樣。

實驗使用Python平臺的Keras工具包,將DRAL方法與不確定性方法中的低可信度[26]、信息熵[26]和貝葉斯方法[8]進行了多次對比。對于Mnist數(shù)據(jù)集,n0=100,T=15,N=3,K=100,特征向量長度128,網(wǎng)絡(luò)結(jié)構(gòu)見表1。對于Fashion-mnist數(shù)據(jù)集,n0=200,T=20,N=10,K=150,特征向量長度256,網(wǎng)絡(luò)結(jié)構(gòu)見表1,特別地,F(xiàn)c層輸出長度變?yōu)?56。Cifar-10數(shù)據(jù)集,考慮到數(shù)據(jù)集復(fù)雜性和網(wǎng)絡(luò)訓(xùn)練問題為了能減少過擬合和結(jié)果穩(wěn)定性,dropout值降低,n0=1 000,T=20,N=30,K=150,dropout=0.25,特征向量長度512。本文實驗對比的是3.1節(jié)的不確定性方法。

4.3 實驗結(jié)果分析

為了驗證DRAL算法有效性,由于數(shù)據(jù)集的復(fù)雜度不同,因此不同的數(shù)據(jù)集使用不同的網(wǎng)絡(luò)結(jié)構(gòu)。結(jié)果見圖2。

圖2 DRAL算法在不同數(shù)據(jù)集上的實驗結(jié)果

可以明顯看出,DRAL算法在原有的不確定性方法中有明顯的提升。以不確定性方法的最高準確率所需樣本為對比,在Mnist中,不確定性方法達到98%時,entropy最高減少28%樣本,Bayesian方法最低減少16%樣本;在Fashion-mnist中,不確定性方法達到85%時,least最高減少30%樣本,entropy最少減少14%樣本;在Cifar-10中,三種方法在達到52%準確率時,least最高減少22%,Bayesian最少減少11%樣本。從上述結(jié)果分析可知,DRAL方法在三種方法最高減少30%樣本,最低減少11%樣本。

從這些結(jié)果中可以發(fā)現(xiàn),原來的三種不確定性方法所選擇的樣本的信息對于分類器而言具有冗余性。因為DRAL算法主要是經(jīng)過冗余度算法選出冗余度小的樣本集。圖2中準確率升高,相同樣本數(shù)目下,信息量變大,冗余度因此降低。以時間為代價,DRAL方法可以合理有效提升不確定性方法。

為了降低潛變量特征向量長度和候選樣本數(shù)目對樣本冗余度研究的影響,對潛變量特征向量長度和候選樣本數(shù)目進行了實驗。在Fashion-mnist中,特征向量分別是128和256以及候選樣本數(shù)目分別是300和1 000的條件下,都經(jīng)過DRAL-least方法的兩組實驗。信息冗余度與特征向量長度和候選樣本數(shù)目關(guān)系實驗結(jié)果如圖3所示。

圖3 DRAL算法中特征向量長度和候選樣本數(shù)與冗余度的關(guān)系

圖3(a)實驗是在Fashion-mnist數(shù)據(jù)集中,候選樣本數(shù)量1 000的條件下,特征向量長度分別為128和256。由于CNN在最后一層的寬度不同,所以初始化網(wǎng)絡(luò)參數(shù)不一致,對于此問題,本實驗盡可能讓初始化網(wǎng)絡(luò)在測試集上效果相同。可以看出,當模型準確率達到80%時,前者比后者多了100個有標記樣本。所以,特征向量越長所帶有的信息量更多。

圖3(b)實驗是在同樣的數(shù)據(jù)集中,在n0=200、T=20、K=100、特征向量長度為256的條件下,候選集的樣本數(shù)量分別是300和1 000,初始化網(wǎng)絡(luò)參數(shù)均相同。同樣地,當模型準確率達到80%時,前者比后者多用了100個有標記樣本。通過該實驗可以比較出,若候選樣本數(shù)量較少時,候選樣本集所帶有的信息量不足,但冗余度小,此時會受到樣本數(shù)目的影響。

經(jīng)過上述實驗可以看出,經(jīng)過CNN計算得出的特征向量維度越高,候選樣本越多帶有的信息量越多,經(jīng)過DRAL算法提升后效果越明顯。而所選擇的候選樣本數(shù)目越多,信息冗余性越強。經(jīng)過DRAL算法提升效果越好。

5 結(jié) 語

在主動學(xué)習(xí)池樣本選擇模式下,本文提出一種減少樣本信息冗余的DRAL方法,使用不確定性方法經(jīng)過CNN選擇大量的候選樣本構(gòu)成候選集,在候選集中利用樣本余弦距離關(guān)系進行第二次篩選,從而得到信息量較大且冗余度小的樣本集。該方法可以有效地減少樣本數(shù)據(jù)冗余,進一步減少模型所需的有標記樣本數(shù)量。未來可以進一步優(yōu)化不確定性方法。

猜你喜歡
冗余度信息量特征向量
一種航天測控冗余跟蹤弧段處理方法
上海航天(2024年1期)2024-03-08 02:52:28
二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
克羅內(nèi)克積的特征向量
基于信息理論的交通信息量度量
一類特殊矩陣特征向量的求法
上海某基坑工程考慮冗余度的支撐體系設(shè)計
山西建筑(2017年29期)2017-11-15 02:04:38
橋梁設(shè)計的冗余度分析
EXCEL表格計算判斷矩陣近似特征向量在AHP法檢驗上的應(yīng)用
如何增加地方電視臺時政新聞的信息量
新聞傳播(2016年11期)2016-07-10 12:04:01
橋梁設(shè)計的冗余度
来宾市| 商城县| 永寿县| 两当县| 小金县| 广德县| 平陆县| 巫山县| 凤台县| 嘉义县| 亳州市| 田东县| 休宁县| 建始县| 西林县| 毕节市| 镇巴县| 五家渠市| 沂南县| 东莞市| 茶陵县| 五河县| 诸暨市| 磴口县| 定西市| 凤山县| 宜都市| 沙湾县| 临颍县| 胶州市| 维西| 澄迈县| 酉阳| 荣成市| 花垣县| 昌平区| 邹平县| 阳江市| 翁源县| 建德市| 万州区|