国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于信息復(fù)用的Boosting瀑布型分類器高效訓(xùn)練方法

2014-11-18 03:15:16閆勝業(yè)
電子與信息學(xué)報(bào) 2014年10期
關(guān)鍵詞:瀑布人臉層級

閆勝業(yè)

(南京信息工程大學(xué)信息與控制學(xué)院 南京 210044)

1 引言

瀑布型分類器是模式識別領(lǐng)域的基本技術(shù)之一。一般來講,瀑布型分類器能夠在基本不損失分類性能的條件下,大幅度提高分類器的運(yùn)行效率。因此,瀑布型分類器被廣泛地應(yīng)用在各種模式識別算法中,特別是在需要多次運(yùn)行分類器、對分類運(yùn)行時間要求比較高的場合,比如特定目標(biāo)物體檢測(人臉[113]-,人體[14,15],文本[16,17]等等)。

瀑布型分類器由多個順序串聯(lián)的層級分類器構(gòu)成。在分類過程中,一個待分類圖像窗口被順序輸入到各個層級分類器中,只有在待分類圖像通過前一個層級分類器的基礎(chǔ)上,它才會被輸入到下一個層級分類器進(jìn)行進(jìn)一步的處理。一旦某個層級分類器將待分類圖像判斷為非物體對象,那么,待分類圖像窗口將被最終決策為非物體圖像。輸入圖像只有通過所有層級分類器,才被判決為目標(biāo)物體。在瀑布型分類器中,各層級分類器的復(fù)雜度隨層級增加遞增,這就實(shí)現(xiàn)了使用簡單分類器對大部分的簡單圖像窗口進(jìn)行排除,而復(fù)雜的層級分類器只對少數(shù)復(fù)雜圖像窗口進(jìn)行判決,從而達(dá)到提高計(jì)算效率的目的。

一個具有典型意義的瀑布型分類器模型由Viola等人[2]在 2001年提出,并成為一個里程碑式的工作。文獻(xiàn)[2]提出的瀑布型分類器學(xué)習(xí)模型因?yàn)槠淠軌蚍奖阕詣拥赝瓿捎?xùn)練并且性能良好而具有非凡的意義。在文獻(xiàn)[2]提出的算法中,只需輸入每個層級分類器要達(dá)到的最小檢測率、最大誤檢率以及訓(xùn)練樣本,訓(xùn)練算法就會自動地按照這個誤檢率和檢測率標(biāo)準(zhǔn)對每個層級分類器進(jìn)行學(xué)習(xí)。一旦某個層級分類器的誤檢率和檢測率滿足要求(誤檢率小于最大誤檢率,同時檢測率大于最小檢測率),則本層級的子分類器訓(xùn)練結(jié)束,進(jìn)入下一個層級分類器的學(xué)習(xí)。下一個層級分類器的學(xué)習(xí)過程會收集前面層級分類器檢測失敗的反例訓(xùn)練樣本,并重新迭代訓(xùn)練一個相同類型的層級分類器,繼續(xù)訓(xùn)練一個在新的樣本集上達(dá)到最小檢測率和最大誤檢率的層級分類器。由于每個層級的子分類器都具有相同的構(gòu)造,所以學(xué)習(xí)起來非常方便,并且由于Boosting學(xué)習(xí)算法[18]的引入以及大規(guī)模特征集的引入,還能夠保證瀑布型分類器最終的分類性能。因此,繼Viola等人在人臉檢測問題上對此瀑布型分類器進(jìn)行了嘗試之后,孫銳等人[14]在人體檢測中進(jìn)行了嘗試,Hanif等人[16]在文本檢測中進(jìn)行了嘗試,另外,在人臉檢測中圍繞特征、學(xué)習(xí)算法等方面的改進(jìn)方法還有很多,具體的介紹超出了本文的研究范圍。

盡管Boosting瀑布型分類器已經(jīng)展示了其易用性和有效性,此算法仍然存在一個缺點(diǎn),那就是訓(xùn)練時間過長,以基于Haar特征的人臉檢測瀑布型分類器的訓(xùn)練為例,在使用30000個Haar特征,20000個訓(xùn)練樣本的規(guī)模下,訓(xùn)練時間在1個星期以上。然而快速訓(xùn)練對應(yīng)用開發(fā)非常重要,在模型開發(fā)中,往往需要訓(xùn)練多個模型,以獲得性能最好的分類器,如果分類器訓(xùn)練速度過慢的話,將造成明顯的障礙。針對此,本文提出一種改進(jìn)的基于Boosting的瀑布型分類器訓(xùn)練算法,在不影響分類性能的情況下,提高基于 Boosting算法的瀑布型分類器的訓(xùn)練速度。

訓(xùn)練時間過長的主要原因之一是層級分類器需要學(xué)習(xí)特征的數(shù)目過多,以上文中提到的人臉檢測器為例,一般來講,要學(xué)到一個分類性能良好的分類器,最后得到的層級分類器中往往包含上千個Haar特征,假設(shè)最后獲得的瀑布型分類器中包含2500個 Haar特征,學(xué)習(xí)獲得一個 Haar特征需要90 s的時間,那么,完成一個瀑布型分類器的訓(xùn)練要消耗至少2500×90 s=225000 s=2.6 d的時間。本文設(shè)計(jì)了一個算法,在瀑布型分類器訓(xùn)練過程中,將已獲得的層級分類器的信息在后繼分類器中進(jìn)行復(fù)用,以減少需要學(xué)習(xí)新特征的次數(shù),并最終提高瀑布型分類器總的訓(xùn)練速度。本文提出的訓(xùn)練算法在兩個層次上復(fù)用共享信息:第1個層次,在分類器層次上,前一個層級的分類器在新的訓(xùn)練方法中成為第1個特征,并被應(yīng)用在當(dāng)前層級分類器的訓(xùn)練樣本集上,進(jìn)行弱分類器的學(xué)習(xí);第2個層次,在特征層次上,所有前面層級分類器已經(jīng)學(xué)到的特征重新在當(dāng)前層級分類器的訓(xùn)練樣本集上進(jìn)行學(xué)習(xí),獲得新的弱分類器來適應(yīng)新的樣本。在正面人臉檢測上的實(shí)驗(yàn)表明,本文提出的新算法相比傳統(tǒng)方法能夠大幅度提高層級分類器的訓(xùn)練速度,提高幅度近10倍,分類器的訓(xùn)練時間從3 d降到了8 h。

本文的前期工作已在文獻(xiàn)[6]中發(fā)表,但文獻(xiàn)[6]只提出了特征層次的信息復(fù)用方法,本文在分析了復(fù)用信息于訓(xùn)練速度提升的意義基礎(chǔ)上,引入分類器層次的信息復(fù)用,提出兩個層次(特征層次和分類器層次)信息聯(lián)合復(fù)用的方法。另外,對新算法的實(shí)驗(yàn)也表明,同時復(fù)用兩個層次的信息,能夠進(jìn)一步提高分類器的訓(xùn)練速度。

2 分類器層次的信息復(fù)用Nested 瀑布型分類器

文獻(xiàn)[2]提出的瀑布型分類器分類流程如圖1所示,圖中各個層級分類器相互獨(dú)立訓(xùn)練得到,沒有采取任何形式的信息復(fù)用。在這種瀑布型分類器的訓(xùn)練過程中,每個層級分類器都在新收集的樣本下重新使用Boosting算法訓(xùn)練的強(qiáng)分類器。如果使用來表示特征計(jì)算函數(shù),使用來表示弱分類器函數(shù),使用來表示Boosting中的強(qiáng)分類器函數(shù),使用x來表示待分類圖像。那么文獻(xiàn)[2]提出的瀑布型中第n個層級分類器函數(shù)可以表示為

圖1 文獻(xiàn)[2]提出的瀑布型分類器結(jié)構(gòu)

Nested瀑布型對文獻(xiàn)[2]提出的瀑布型分類器進(jìn)行了改進(jìn),在分類器的層次上對前面層級分類器中獲得的分類信息在當(dāng)前層級中復(fù)用,它由文獻(xiàn)[3]提出。相比于文獻(xiàn)[2]提出的瀑布型分類器,在Nested瀑布型分類器中,每個層級分類器中的第1個弱分類器不是由新挑出的特征構(gòu)成,而是將前一個層級分類器學(xué)得的分類函數(shù)直接作為特征,使用自舉法(Bootstrap)得到的反例樣本和正例樣本進(jìn)行適應(yīng)學(xué)習(xí)獲得。然后,在此弱分類器的基礎(chǔ)之上,才進(jìn)一步添加新的特征。由于前個層級分類器對于新的“自舉”得到的樣本依然具有一定的分類能力,所以進(jìn)一步需要添加的新的特征數(shù)目會減少。在基于Boosting的學(xué)習(xí)中,挑選特征的時間往往大大高于從一個固定特征學(xué)習(xí)弱分類器的時間,所以Nested在增加了一個小的時間代價同時(學(xué)習(xí)弱分類器),卻減少了更大量的時間消耗(新添加特征的挑選),所以 Nested瀑布型分類器能夠提高層級分類器的訓(xùn)練效率。Nested瀑布型分類器的層級分類器分類函數(shù)可以表示為

對比式(1),可以看出,相比文獻(xiàn)[2]提出的瀑布型分類器,Nested瀑布型分類器的層級分類器函數(shù)多了“Nested項(xiàng)”。

Nested瀑布型分類器的結(jié)構(gòu)見圖2。圖中弱分類器使用圓圈表示,Nested弱分類器使用半圓表示,特征使用矩形框表示。每個虛線圓角矩形框中都是一個層級分類器。Nested項(xiàng)使得相鄰的層級分類器內(nèi)部相互連接,形成一個“嵌入式”的結(jié)構(gòu),所以此分類器結(jié)構(gòu)被命名為Nested瀑布型分類器。如果去除Nested弱分類器項(xiàng),Nested瀑布型分類器與文獻(xiàn)[2]提出的瀑布型分類器完全一樣。

圖2 Nested瀑布型分類器

3 特征層次的信息復(fù)用Fea-Accu瀑布型分類器

Nested瀑布型分類器在分類器的層次上實(shí)現(xiàn)了不同層級分類器之間的共享信息復(fù)用,但忽略了在更細(xì)節(jié)的特征級別的信息共享。實(shí)際上,位于前面的層級分類器中每個已經(jīng)學(xué)習(xí)獲得的特征對于后繼層級分類器來說依然具有很大的通用性。本節(jié)簡要介紹特征層次的信息復(fù)用,詳見文獻(xiàn)[6]。

特征層次的信息復(fù)用實(shí)現(xiàn)方式如下:對每個層級分類器的學(xué)習(xí),在開始添加新的特征之前,對前面所有層級分類器已經(jīng)學(xué)習(xí)得到的所有特征,在新的當(dāng)前樣本集上重新進(jìn)行適應(yīng)性學(xué)習(xí),獲得新的弱分類器。這些特征的更新順序采用了一種非常簡單的方式,順序更新。然后,在這些弱分類器的基礎(chǔ)上,根據(jù)需要,學(xué)習(xí)新的特征,添加新的弱分類器。由于特征層次往往包含巨大的共享信息,所以在適應(yīng)性學(xué)習(xí)之后,需要新挑選的特征數(shù)目往往大量減少。如上面提到的,在Boosting學(xué)習(xí)框架下,從固定特征學(xué)習(xí)弱分類器的時間要遠(yuǎn)遠(yuǎn)小于挑選新特征的時間,所以從訓(xùn)練時間上來講,層級分類器總的訓(xùn)練時間大大減少。

這種從特征層次進(jìn)行不同層級分類器信息共享的瀑布型分類器如圖3所示。圖中黑色矩形表示特征,Ki表示第i個層級分類器的特征數(shù)目, h表示弱分類器,H表示層級強(qiáng)分類器,每個層級的弱分類器擁有雙下標(biāo),其中第1個下標(biāo)表示層級序號,第2個下標(biāo)表示在本層級中本弱分類器的序號,每個層級的強(qiáng)分類器擁有單下標(biāo),表示層級序號。圖中,每個特征下面的弱分類器都來自于同一個特征,但是隸屬于不同的層級分類器函數(shù),比如對于特征f1,在第1個層級分類器H1中,作為新挑選出的特征學(xué)習(xí)得到的分類器是h11,而在第2個層級分類器中,此特征被重新使用學(xué)習(xí)了一個新的弱分類器h21,依次類推。由于特征在每個層級分類器中都呈現(xiàn)一種累加的結(jié)構(gòu),所以此瀑布型分類器結(jié)構(gòu)被命名為Fea-Accu瀑布型分類器,其中“Fea”是英文單詞“Feature”的縮寫,“Accu”是英文單詞“Accumulating”的縮寫。

圖3 Fea-Accu瀑布型分類器

采用前面的符號定義,F(xiàn)ea-Accu瀑布型分類器函數(shù)可以表示為

4 分類器層級及特征層次的信息聯(lián)合復(fù)用Nested Fea-Accu瀑布型分類器

前面兩節(jié)分別描述了 Nested瀑布型分類器和Fea-Accu瀑布型分類器。Nested瀑布型分類器從分類器層次對瀑布型分類器已經(jīng)獲得的層級分類器進(jìn)行復(fù)用,F(xiàn)ea-Accu瀑布型分類器從更細(xì)節(jié)的特征層次出發(fā),對瀑布型分類器中已經(jīng)獲得的層級分類器中每個特征都進(jìn)行復(fù)用。從復(fù)用信息的角度來說,對前面層級分類器中已獲得的信息復(fù)用程度越高,訓(xùn)練代價才可能越低。而分類器層次復(fù)用的信息和特征層次復(fù)用的信息還是有所不同的,因此,本節(jié)進(jìn)一步提出了Nested Fea-Accu瀑布型分類器結(jié)構(gòu),將兩種層次的共享信息復(fù)用進(jìn)行聯(lián)合。

Nested Fea-Accu瀑布型分類器采用了一種簡單的串聯(lián)方式實(shí)現(xiàn)兩種層次共享信息的同時復(fù)用。首先,每個層級分類器的訓(xùn)練都先進(jìn)行分類器層次信息的復(fù)用,也就是學(xué)習(xí)Nested瀑布型分類器中的Nested項(xiàng),然后進(jìn)行特征層次的信息復(fù)用,就是學(xué)習(xí)Fea-Accu瀑布型分類器中的Fea-Accu項(xiàng),最后,再根據(jù)需要添加新的特征。這種同時使用Nested瀑布型分類器和 Fea-Accu瀑布型分類器的思想進(jìn)行不同層級分類器信息共享的分類器結(jié)構(gòu),被命名為Nested Fea-Accu瀑布型分類器。采用前文中的符號定義,Nested Fea-Accu瀑布型分類器的層級分類器函數(shù)表示為

對比式(4)和式(2),式(3),可以觀察到Nested項(xiàng)和Fea-Accu項(xiàng)被同時添加到了Nested Fea-Accu的層級分類器函數(shù)中。

5 實(shí)驗(yàn)

本節(jié)對Nested 瀑布型分類器,F(xiàn)ea-Accu瀑布型分類器和Nested Fea-Accu瀑布型分類器在提高訓(xùn)練效率方面進(jìn)行了專項(xiàng)和綜合評估,具體調(diào)查了包括:復(fù)用信息的分類能力、信息復(fù)用之后需新選特征數(shù)目、訓(xùn)練時間等等。另外,還對 Nested Fea-Accu瀑布型分類器的分類性能進(jìn)行了評估,下面從評估過程中使用的實(shí)驗(yàn)配置開始陳述。

實(shí)驗(yàn)在正面人臉檢測問題上進(jìn)行,其中正例訓(xùn)練樣本集包括20000個人臉訓(xùn)練樣本,每個層級分類器使用10000個非人臉樣本作為直接的反例樣本訓(xùn)練集,這 10000個非人臉訓(xùn)練樣本從一個包含30000幅圖像的圖像集合中收集得到。這30000幅圖像中的每幅圖像都進(jìn)行了人工檢查,以確認(rèn)不包含人臉圖像。每個訓(xùn)練樣本圖像的大小為24×24。Haar特征被用來進(jìn)行強(qiáng)分類器的學(xué)習(xí)。對于這樣的一個訓(xùn)練圖像大小,均勻采樣得到 31728個 Haar特征,這個特征集合被用來進(jìn)行特征的挑選及弱分類器的學(xué)習(xí)。RealBoost學(xué)習(xí)算法[14]用來學(xué)習(xí)強(qiáng)分類器。

第 1組實(shí)驗(yàn)調(diào)查 Nested瀑布型分類器、Fea-Accu瀑布型分類器和Nested Fea-Accu瀑布型分類器復(fù)用信息的效果。具體來說,實(shí)驗(yàn)調(diào)查了Nested項(xiàng),F(xiàn)ea-Accu項(xiàng)和Nested Fea-Accu項(xiàng)在當(dāng)前訓(xùn)練樣本集上的信度分布曲線。實(shí)驗(yàn)選擇在第10層的層級分類器上進(jìn)行,其它層級的情況是類似的。圖 4給出了在新“自舉”得到的反例樣本集上和正例樣本集上3個分類器的信度-樣本數(shù)目分布曲線。其中縱坐標(biāo)是人臉數(shù)目和非人臉數(shù)目,橫坐標(biāo)是3個分類器響應(yīng)值量化一致后的信度。人臉信度分布曲線和非人臉信度分布曲線分得越開越好。從圖中可以得出3個結(jié)論:(1)3種復(fù)用的分類器對當(dāng)前樣本都具有一定的分辨能力;(2)Fea-Accu 和Nested Fea-Accu瀑布型分類器對當(dāng)前樣本的分辨能力都要明顯好于Nested瀑布型分類器;(3)Nested Fea-Accu瀑布型分類器對當(dāng)前樣本的分辨能力要略好于 Fea-Accu瀑布型分類器。以上是直接觀察獲得的結(jié)論,為了更嚴(yán)謹(jǐn)?shù)貙^(qū)分性進(jìn)行探討,我們還對3種瀑布型分類器情況下的人臉分布和非人臉分布的 Bhattacharyya 距離[19]進(jìn)行了計(jì)算。Bhattacharyya 距離是一種判斷兩個連續(xù)概率分布分離性的重要衡量指標(biāo),連續(xù)情況下的概率密度函數(shù)的Bhattacharyya 距離計(jì)算需要進(jìn)行微積分操作,這里由于分布函數(shù)形式未知,所以采用了一種離散情況下 Bhattacharyya距離近似計(jì)算方法,使用累加代替積分來進(jìn)行Bhattacharyya距離計(jì)算。計(jì)算過程中將分布函數(shù)劃分為41個bin,獲得Nested瀑布型分類器,F(xiàn)ea-Accu分類器和Nested Fea-Accu分類器的 Bhattacharyya 距離分別為201.56, 243.80, 249.42。這些數(shù)據(jù)得到的結(jié)論和圖4觀察得到的結(jié)論一致,Nested Fea-Accu瀑布型分類器的區(qū)分性最好。

圖4 信度-樣本數(shù)目曲線

以上以第10個層級分類器為例,對3種復(fù)用方法的復(fù)用效果進(jìn)行了對比調(diào)查。另外,我們還對Nested Fea-Accu項(xiàng)在Nested Fea-Accu瀑布型分類器中各個層級分類器中的復(fù)用效果進(jìn)行了調(diào)查。仍然使用 Bhattacharyya距離來考察層級分類器中Nested Fea-Accu項(xiàng)的可區(qū)分性指標(biāo),圖 5給出了在Nested Fea-Accu瀑布型分類器中,從第1個層級分類器到第15個層級分類器中計(jì)算得到的Bhattacharyya距離。從圖5中可以看出,在第1個層級分類器中,Bhattacharyya距離為0。在后面所有的層級分類器中,Bhattacharyya距離變化不大,保持在一個比較好的水平。這表明,本文算法能夠持續(xù)提供良好的信息復(fù)用,即使在層級分類器的增加,反例樣本變得越來越復(fù)雜的情況下。這個現(xiàn)象可以這樣解釋,對于第1個層級,由于Nested Fea-Accu新增加特征項(xiàng)包含特征個數(shù) 0,導(dǎo)致正負(fù)樣本完全混疊,Bhattacharyya 距離也為0。對于從第2個層級開始的層級分類器,隨著層級的增加,雖然反例樣本變得越來越復(fù)雜,對反例樣本和正例樣本進(jìn)行區(qū)分需要更多的特征,但是由于相應(yīng)Nested Fea-Accu項(xiàng)從前面層級分類器中繼承的特征數(shù)目也越來越多,分類器適應(yīng)更復(fù)雜樣本的能力也越來越強(qiáng),所以Nested Fea-Accu項(xiàng)的可區(qū)分性能夠始終保持在一個比較好的水平。

第 2組實(shí)驗(yàn)調(diào)查 Viola經(jīng)典瀑布型分類器,Nested瀑布型分類器,F(xiàn)ea-Accu瀑布型分類器和Nested Fea-Accu瀑布型分類器中需要新添加特征的數(shù)目。實(shí)驗(yàn)分別訓(xùn)練了4個檢測器,4個檢測器都訓(xùn)練至目標(biāo)誤檢率在百萬分之一以下。4個瀑布型分類器中每個層級分類器中新添加的特征數(shù)目如圖 6所示,從圖中可以看出,隨著層級的增加:(1)Nested 瀑布型分類器需要添加的新的特征的數(shù)目少于Viola 經(jīng)典分類器;(2)Fea-Accu分類器需要添加的新的Haar特征的數(shù)目明顯少于Nested瀑布型分類器;(3)Nested Fea-Accu瀑布型分類器相對于 Fea-Accu瀑布型分類器能夠更進(jìn)一步地減少新添加的特征的數(shù)目。對于Viola經(jīng)典瀑布型分類器,Nested瀑布型分類器,F(xiàn)ea-Accu瀑布型分類器和Nested Fea-Accu瀑布型分類器,總的需要新添加的特征數(shù)目分別為1236個,788個,213個,162個。

第3組實(shí)驗(yàn)結(jié)果匯報(bào)在同一機(jī)器上訓(xùn)練4個瀑布型分類器的所需的時間。訓(xùn)練Nested瀑布型分類器需要約 62 h,訓(xùn)練 Nested瀑布型分類器需要約40 h,訓(xùn)練Fea-Accu瀑布型分類器需要約10 h,而訓(xùn)練Nested Fea-Accu瀑布型分類器需要的時間最短,只要約8 h。

以上從不同角度對本文提出的 Nested Fea-Accu瀑布型分類器的在提高訓(xùn)練效率方面進(jìn)行了調(diào)查,下面進(jìn)一步調(diào)查Nested Fea-Accu瀑布型分類器的分類性能。性能測試在 CMU正面人臉測試集上[1]進(jìn)行。圖7給出了Nested Fea-Accu瀑布型分類器的ROC曲線,一起還列出了在CMU正面人臉檢測集上其它研究者報(bào)告的結(jié)果,可以看出,本文方法的結(jié)果是最好的。另外,值得說明的是,雖然在圖中沒有展示Nested瀑布型分類器和Fea-Accu瀑布型分類器的ROC曲線,性能對比中,Viola經(jīng)典瀑布型分類器,Nested瀑布型分類器,F(xiàn)ea-Accu瀑布型分類器和Nested Fea_Acuu瀑布型分類器獲得的測試結(jié)果非常接近,這是因?yàn)檫@4種分類器使用了相同的訓(xùn)練樣本。圖 8展示了一些使用 Nested Fea-Accu瀑布型分類器在實(shí)際視頻圖像中的一些檢測結(jié)果,這些檢測結(jié)果還展示了存在旋轉(zhuǎn)情況下的正面人臉檢測結(jié)果,這是通過多次旋轉(zhuǎn)圖像,并應(yīng)用Nested Fea-Accu瀑布型分類器多次實(shí)現(xiàn)。

圖5 Nested Fea-Accu瀑布型分類器中每個層級Nested Fea-Accu項(xiàng)的可區(qū)分性調(diào)查

圖6 4種瀑布型分類器新 添加特征數(shù)目的對比圖

圖7 CMU正面人臉測 試集上的ROC曲線

圖8 正面人臉檢測結(jié)果示例

最后,關(guān)于檢測速度,這4種瀑布型分類器的檢測速度非常接近,對于一副320×240的圖像,在一個Intel Core? 2.00 GHz的機(jī)器上,檢測時間都在1 s左右??紤]到本文重點(diǎn)是設(shè)計(jì)一個訓(xùn)練Boosting瀑布型分類器的高效算法,將不針對如何提高檢測速度的問題進(jìn)行詳細(xì)討論。在擁有一個高性能的瀑布型分類器之后,有很多預(yù)處理算法可以提高瀑布型分類器的檢測時間,比如基于LAB預(yù)處理分類器的算法[20]。

6 結(jié)束語

本文提出了一種利用信息復(fù)用思想提高 Boosting瀑布型分類器訓(xùn)練速度的方法,文中提供了詳細(xì)的實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明本文方法能夠在保持瀑布型分類器分類性能的同時,大幅提高訓(xùn)練速度,對基于Boosting瀑布型分類器相關(guān)的模式識別算法開發(fā)具有很強(qiáng)的借鑒意義。

[1] Rowley A H, Baluja S, and Kanade T. Neural network-based face detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 23-38.

[2] Viola A P and Jones J M. Rapid object detection using a boosted cascade of simple features[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Kauai, 2001: 511-518.

[3] Huang Chang, Ai Hai-zhou, Wu Bo, et al.. Boosting nested cascade detector for multi-view face detection[C].Proceedings of the 17th International Conference on Pattern Recognition, Cambridge, 2004: 415-418.

[4] Li Z S and Zhang Z Q. FloatBoost learning and statistical face detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(9): 1112-1123.

[5] Bourdev D L and Brandt J. Robust object detection via soft cascade[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, San Diego, 2005:236-243.

[6] Yan Sheng-ye, Shan Shi-guang, Chen Xi-lin, et al.. Fea-Accu cascade for face detection[C]. Proceedings of the International Conference on Image Processing, Cario, 2009: 1217-1220.

[7] Cheng X, Ruan L, Fookes C, et al.. Efficient real-time face detection for high resolution surveillance applications[C].Proceedings of the 6th International Conference on Signal Processing and Communication Systems, Queensland, 2012:1-6.

[8] Wu Di and Cao Jie. Face detection in video sequences using a novel local normalization technique and simplified Gabor features[J]. Journal of Computational Information Systems,2012, 8(11): 4789-4796.

[9] Ahmad F, Najam A, and Ahmed Z. Image-based face detection and recognition: “state of the art”[J]. IJCSI International Journal of Computer Science, 2012, 9(1):169-172.

[10] Wu Zheng-wang, Liu Yue-hu, Du Shao-yi, et al.. A save-fail mechanism for face detection validation[C]. Proceedings of the IEEE Intelligent Vehicles Symposium, Xi’an, 2009:490-493.

[11] Chen Shi-gang, Ma Xiao-hu, and Zhang Shu-kui. AdaBoost face detection based on Haar-like intensity features and multi-threshold features[C]. Proceedings of the International Conference on Multimedia and Signal Processing, Guilin,2011: 251-255.

[12] Wei Zhe, Dong Yuan, Feng Zhao, et al.. Face detection based on multi-scale enhanced local texture feature sets[C].Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing, Kyoto, 2012:953-956.

[13] 蔡燦輝, 朱建清. 采用 Gentle AdaBoost 和嵌套級聯(lián)結(jié)構(gòu)的實(shí)時人臉檢測[J]. 信號處理, 2013, 29(8): 956-963.Cai Can-hui and Zhu Jian-qing. Real-time face detection using Gentle AdaBoost and nesting cascade structure[J].Journal of Signal Processing, 2013, 29(8): 956-963.

[14] 孫銳, 陳軍, 高雋. 基于顯著性檢測與HOG-NMF特征的快速行人檢測方法[J]. 電子與信息學(xué)報(bào), 2013, 35(8): 1921-1926.Sun Rui, Chen Jun, and Gao Jun. Fast pedestrian detection based on saliency detection and HOG-NMF features[J].Journal of Electronics & Information Technology, 2013, 35(8):1921-1926.

[15] Benenson R, Mathias M, Timofte R, et al.. Pedestrian detection at 100 frames per second[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island, 2012: 2903-2910.

[16] Hanif M S and Prevost L. Text detection and localization in complex scene images using constrained AdaBoost algorithm[C]. Proceedings of the Tenth International Conference on Document Analysis and Recognition,Barcelona, 2009: 1-5.

[17] Neumann L and Matas J. Real-time scene text localization and recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island,2012: 3538-3545.

[18] Schapire R E and Singer Y. Improved Boosting algorithms using confidence-rated predictions[J]. Machine Learning,1999, 37(3): 297-336.

[19] Theodoridis S, Pikrakis A, Koutroumbas K, et al..Introduction to Pattern Recognition: A Matlab Approach[M].Burlington: Academic Press, 2010: 119-120.

[20] Yan Sheng-ye, Shan Shi-guang, Chen Xi-lin, et al.. Locally Assembled Binary (LAB) feature with feature-centric cascade for fast and accurate face detection[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, 2008: 1-7.

猜你喜歡
瀑布人臉層級
瀑布之下
有特點(diǎn)的人臉
瀑布是怎樣形成的
軍工企業(yè)不同層級知識管理研究實(shí)踐
基于軍事力量層級劃分的軍力對比評估
三國漫——人臉解鎖
動漫星空(2018年9期)2018-10-26 01:17:14
瀑布
任務(wù)期內(nèi)多層級不完全修復(fù)件的可用度評估
瀑布
馬面部與人臉相似度驚人
壶关县| 黑龙江省| 宁阳县| 安图县| 庐江县| 时尚| 黄陵县| 芒康县| 长岛县| 丰台区| 正阳县| 白河县| 交口县| 浦县| 弋阳县| 中江县| 宜州市| 张家界市| 陵水| 舞钢市| 白朗县| 班戈县| 荃湾区| 乐山市| 武夷山市| 昌平区| 思茅市| 枣庄市| 伽师县| 松潘县| 即墨市| 镇巴县| 遂昌县| 康乐县| 丰顺县| 天气| 云梦县| 古蔺县| 宝兴县| 梁平县| 湘阴县|