国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于Face R—CNN的人臉檢測研究

2018-11-01 03:04:18張瑞國
電腦知識與技術(shù) 2018年19期
關(guān)鍵詞:人臉檢測卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

張瑞國

摘要:Faster R-CNN是目標(biāo)檢測中最具有代表性和最成功的方法之一,并且在各種物體檢測應(yīng)用中變得越來越普遍。本文提出了一種基于Faster R-CNN的魯棒性深度人臉檢測方法。并且開發(fā)了一些新的技術(shù),包括設(shè)計一個新的多任務(wù)損失函數(shù),以及線上示例挖掘,還有多方面的多層次培訓(xùn)策略來提高Faster R-CNN的速度。所提出的方法非常適合于人臉檢測,我們稱之為Face R-CNN。并且對FDDB和WIDER FACE兩種最具有挑戰(zhàn)性的人臉檢測數(shù)據(jù)集進行了實驗,以此證明所提出方法相比于現(xiàn)有技術(shù)的優(yōu)越性。

關(guān)鍵詞:深度學(xué)習(xí); 卷積神經(jīng)網(wǎng)絡(luò); 人臉檢測; 候選區(qū)域; 多尺度信息融合

中圖分類號:TP301 文獻標(biāo)識碼:A 文章編號:1009-3044(2018)19-0213-05

Abstract:Faster R-CNN is one of the most representative and successful methods for object detection,and has been becoming increasingly popular in various objection detection applications. In this report, we propose a robust deep face detection approach based on Faster R-CNN. In our approach, we exploit several new techniques including new multi-task loss function design, online hard example mining, and multi-scale training strategy to improve Faster R-CNN in multiple aspects. The proposed approach is well suited for face detection, so we call it Face R-CNN. Extensive experiments are conducted on two most popular and challenging face detection benchmarks, FDDB and WIDER FACE, to demonstrate the superiority of the proposed approach over state-of-the-arts.

Key words:Deep Learning; Convolution Network; face detection; candidate region; Multi-scale Information Fusion

1 人臉檢測概述

人臉檢測是計算機視覺和模式識別領(lǐng)域中關(guān)于面部應(yīng)用中所面臨的基本問題。但是,由于真實世界的人臉圖像的顯著變化,它仍然具有很大挑戰(zhàn)性。圖1就是一個典型的例子,其中的人臉圖像表現(xiàn)出了由于遮擋,縮放,照明,姿勢和表情而引起的大量變化。

人臉檢測是目標(biāo)檢測中的一個特例。最近,基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)[20,21,19,23]在物體檢測方面取得了良好的表現(xiàn)。其表現(xiàn)最佳的是基于區(qū)域性的CNN檢測。其中Fast R-CNN[19]和Faster R-CNN [23]是最受歡迎的兩種方法。Fast R-CNN是根據(jù)感興趣的區(qū)域來進行訓(xùn)練,這是由區(qū)域建議方法(如選擇性搜索)而生成的[9]. Faster R-CNN 沿用了Fast R-CNN的基本框架,它是通過構(gòu)建區(qū)域網(wǎng)絡(luò)來對生成目標(biāo)進行改進。Faster R-CNN由于有更快的速度和更高的效率,從而成為各種檢測任務(wù)的主要框架[11,27,1]. 最近,許多基于Faster R-CNN的識別方法 [6,24,29,3]已被開發(fā)用于人臉檢測任務(wù),并展示出了良好的性能。

盡管基于Faster R-CNN的方法取得了很大進展[6,24,29,3],但這些方法仍然存在一些問題[6, 24, 29, 3], 其中的一個常見問題是他們使用softmax損失函數(shù)來監(jiān)督Fast R-CNN模塊中面部/非面部分類的深度特征學(xué)習(xí)(遵循Faster R-CNN的標(biāo)準做法)。然而,已經(jīng)表明,softmax損失函數(shù)只會改善人臉特征的類間變化,但不能改善人臉特征的類內(nèi)變化。以往的研究表明,類間變化和類內(nèi)變化對于學(xué)習(xí)CNN特征的判別力非常重要。為了減少內(nèi)部的差異,同時擴大學(xué)習(xí)CNN特征的類間變化,我們通過在最初的多任務(wù)損失函數(shù)中增加一個新開發(fā)的稱為中心丟失的損失函數(shù)[33]來改進Faster R-CNN框架。 通過增加中心損失函數(shù),可以有效減少學(xué)習(xí)特征的類內(nèi)變化,從而可以增強學(xué)習(xí)特征的判別力。

圖1:我們展示了一個有關(guān)人臉檢測的圖像,它可以代表人臉在遮擋,比例,照度,姿態(tài)和表情方面的一些變化。

因此。 為了進一步提高檢測精度,本研究還采用了在線硬示例挖掘(OHEM)技術(shù)[1]和多尺度訓(xùn)練策略。 這項工作的主要貢獻總結(jié)如下:

1) 考慮到人臉檢測的特殊性,提出了一種基于Faster R-CNN人臉檢測方法,該方法通過集成中心丟失,在線示例挖掘和多尺度訓(xùn)練等多種新興技術(shù),實現(xiàn)人臉檢測。

2) 所提出的方法不同于可用的基于Faster R-CNN的人臉檢測方法。 首先,這是第一次嘗試使用中心損失來減少人臉檢測中的類內(nèi)差異。 其次,在我們的方法中使用在線示例挖掘不同于其他方法。 通過適當(dāng)設(shè)定正樣品和負樣品之間的比例,OHEM和中心損失函數(shù)的組合可以帶來更好的性能。

3) 所提出的方法在WIDER FACE [25]和FDDB這兩個公共領(lǐng)域的人臉檢測數(shù)據(jù)集上獲得優(yōu)于現(xiàn)有技術(shù)的性能。

2 相關(guān)工作

過去二十年來,人臉檢測因其應(yīng)用日益廣泛而得到普遍關(guān)注。早期的研究包括基于級聯(lián)的方法[17,14,2,18]和基于可變形部件模型(DPM)的方法[13,22,30]。在2004年,Viola和Jones [17]提出了基于Haar-like特征的級聯(lián)AdaBoost分類器用于人臉檢測。之后,一些工作[14,2,18]通過使用更高級的特征和分類器來提高效率和質(zhì)量[17]。除了基于級聯(lián)的人臉檢測方法外,DPM[22,30,13]提出使用可變形部分模型。DPM的方法是用一系列可變形部件來定義一張臉,并訓(xùn)練一個分類器來查找這些部件及其關(guān)系?;谏疃葘W(xué)習(xí)的方法是目前人臉檢測方面的一個主要進展。構(gòu)建級聯(lián)CNN以學(xué)習(xí)從粗到精策略的人臉檢測器。最近,有幾種方法[6,24,29,3]使用Faster R-CNN框架來改善人臉檢測性能。 [16]比以前的方法顯著提高了人臉檢測性能。

圖2:基于Faster R-CNN基本框架。 我們首先用預(yù)訓(xùn)練的卷積網(wǎng)絡(luò)提取卷積特征。 然后,由RPN產(chǎn)生候選特征(結(jié)果),F(xiàn)ast R-CNN提煉結(jié)果。 我們將中心損耗作為輔助信號添加到Fast R-CNN的分類層上。 PRN和Fast R-CNN共享底層卷積功能。

在線示例挖掘的方法已被證明對物體檢測任務(wù)有效。 在文獻[1]中,作者提出了一個在線示例挖掘(OHEM)算法(使用Fast R-CNN框架進行訓(xùn)練)來提高對象檢測性能。 [24,29,12]也使用示例挖掘算法來提高人臉檢測的性能。

損失函數(shù)在深度卷積網(wǎng)絡(luò)中也起著關(guān)鍵作用。 深度卷積網(wǎng)絡(luò)中最廣泛使用的損失函數(shù)是softmax損失函數(shù)。 然而,softmax損失函數(shù)關(guān)注于類間差異,而忽略了特征學(xué)習(xí)中的類內(nèi)變化,這會影響分類精度。 為了增強學(xué)習(xí)特征的判別能力,最近在深度卷積網(wǎng)絡(luò)中使用了對比損失[32,34]和三重損失[5]。 中心損失[33]是通過最小化樣本與學(xué)習(xí)中心之間的距離來提出的。 中心損失高效,易于實施,并且可以很好地推廣到其他視覺任務(wù)。 在這份報告中,我們將使用中心損失來改善人臉檢測的性能。

3 基于R-CNN的人臉檢測研究

由于Faster R-CNN框架在目標(biāo)檢測任務(wù)中獲得了很大成功,我們可以將其用作設(shè)計人臉檢測新模型的通用平臺??紤]到人臉檢測任務(wù)的具體屬性,我們從多個方面改進了R-CNN框架。首先,基于新開發(fā)中心損失函數(shù)[33],我們在Fast R-CNN模型中設(shè)計了一個新的多任務(wù)損失函數(shù),用于監(jiān)督面部/非面部分類的有差異的深度學(xué)習(xí)特征。其次,在深度學(xué)習(xí)中,我們使用在線示例挖掘算法[1]生成樣本(其中正樣本與負樣本的比率設(shè)置為1:1)以供后續(xù)處理。第三,我們使用多尺度訓(xùn)練策略來幫助提高檢測性能。通過整合上述技術(shù),所提出的方法非常適合于人臉檢測任務(wù),這得到了我們實驗結(jié)果的驗證。因此我們稱之為Face R-CNN。 Face R-CNN的詳細算法詳述如下:

3.1 Faster R-CNN基本結(jié)構(gòu)

我們使用Faster R-CNN框架[23]作為基礎(chǔ)架構(gòu)。如圖2,它包含一個基本的卷積層,一個區(qū)域網(wǎng)絡(luò)(RPN)模塊和一個Fast R-CNN模塊。在基本的卷積網(wǎng)絡(luò)中,通過卷積層和最大池化層對輸入圖像進行處理,并生成卷積特征圖。RPN模塊在要識別圖像中產(chǎn)生一組矩形方框,這些方框很可能包含面部結(jié)構(gòu),卷積特征圖的頂部具有完全卷積網(wǎng)絡(luò)builton。RPN的損耗層含有二元分類層和邊界框回歸層。然后將生成的區(qū)域圖像輸入到Fast R-CNN模塊并作為感興趣區(qū)域。用RoI池化層進行處理以提取固定長度的特征向量。將最終的輸出是用于分類和回歸這兩個完全連接的層。在RPN階段,分類和回歸的學(xué)習(xí)應(yīng)用是基于錨的方法。 也就是說,一組預(yù)定義的框我們將它稱為錨,用作回歸的框引用。

錨與框的大小與長寬相關(guān),以便可以覆蓋各種形狀的邊界框。 我們的框架和Faster R-CNN之間的主要區(qū)別在于Fast R-CNN模塊。我們是根據(jù)新開發(fā)的中心損失函數(shù)設(shè)計了一個新的多任務(wù)丟失函數(shù)來監(jiān)督特征學(xué)習(xí),如下一節(jié)所述。

3.2 損失函數(shù)

3.2.1 中心損失函數(shù)

這是一種新開發(fā)的損失函數(shù),并且在人臉識別任務(wù)中得到了良好的驗證。 中心損失函數(shù)的基本思想是鼓勵網(wǎng)絡(luò)學(xué)習(xí)最小化類內(nèi)差異的區(qū)分特征,同時擴大類間變化。

中心損失函數(shù)的公式如下:

其中[x]表示輸入特征向量,[cyi]表示[yi]th中心。 這些中心在每次迭代時都會根據(jù)最小批次進行更新,因此可以輕松地使用標(biāo)準SGD進行培訓(xùn)。 對于人臉檢測任務(wù),只有兩個中心分別代表面部和非面部。 我們的目的是最大限度地減少類內(nèi)變化。

有一點需要注意的是,中心損失函數(shù)應(yīng)該與softmax損失函數(shù)一起優(yōu)化[33]。 已經(jīng)表明,中心損失函數(shù)在減少類內(nèi)變化方面非常有效,softmax損失函數(shù)在最大化學(xué)習(xí)特征的類間變化方面具有某些優(yōu)點。 因此,使用中心損失函數(shù)和softmax損失函數(shù)的組合來對特征進行判別是非常合理的。

3.2.2 多任務(wù)損失函數(shù)

在RPN階段,我們將多任務(wù)損失函數(shù)最小化。損失函數(shù)是分類損失與回歸損失的組合。 分類損失是背景/前景類別上的softmax損失。回歸損失我們采用的是SmoothL1損失。

對于Fast R-CNN階段,我們根據(jù)之前介紹的中心損失函數(shù)設(shè)計了一個多任務(wù)損失。 我們對分類任務(wù)使用中心損失函數(shù)和softmax損失函數(shù)來進行的聯(lián)合監(jiān)督,對邊界框回歸任務(wù)使用SmoothL1損失。

整個損失函數(shù)被表達為:

公式中,[p]是所選區(qū)域中是否為人臉的預(yù)測概率。如果是人臉,則[p*]是1,如果不是,則為0。[t]是表示預(yù)測邊界框的4個參數(shù)化坐標(biāo)的矢量,并且[t*]是真實值的坐標(biāo)。SmoothL1損失用于回歸。 超參數(shù)[λ],[μ]控制三項損失之間的權(quán)重。

3.3 在線示例挖掘

在線示例挖掘(OHEM)是一種簡單而有效的自舉技術(shù)。其核心思想是找出那些未能正確預(yù)測出的人臉圖像并將它們提供給網(wǎng)絡(luò)。

圖3:WIDER FACE驗證集和測試集上的回歸曲線。所有這些方法都使用相同的Scenario-Int標(biāo)準[25]。我們的方法(Face R-CNN)通過驗證和測試集中的三個子集(簡單,中等和困難)始終獲得優(yōu)于先前方法的優(yōu)越性能,從而在這一具有挑戰(zhàn)性的環(huán)境中設(shè)置了新的最新技術(shù)基準。

為了加強判別力,我們再次進行嘗試。 由于損失函數(shù)可以展現(xiàn)出當(dāng)前的網(wǎng)絡(luò)表現(xiàn),我們會根據(jù)其損失函數(shù)對生成的建議進行排序,并將N個表現(xiàn)最差的示例展示出來。

標(biāo)準OHEM可能會遇到數(shù)據(jù)不平衡的問題,因為選定的正樣本中可能包含大量的負樣本(反之亦然)。我們注意到,在使用中心損失函數(shù)的學(xué)習(xí)過程中保持正面和負面訓(xùn)練樣本的平衡非常重要。為此,我們將OHEM分別應(yīng)用于正樣本和負樣本,并在小微量批次中將正樣本和負樣本的比例設(shè)置為1:1。在訓(xùn)練期間,OHEM以交替的方式進行在線SGD訓(xùn)練。 對于SGD迭代,OHEM通過執(zhí)行當(dāng)前網(wǎng)絡(luò)的正向傳遞完成。 然后在下一次迭代中將所選的示例饋送到網(wǎng)絡(luò)。

3.4 多尺度訓(xùn)練

我們沒有在FasterR-CNN框架中對所有訓(xùn)練圖像使用固定比例,而是在訓(xùn)練過程中通過將原始圖像調(diào)整為不同大小來為每幅圖像設(shè)計一個多尺度表示。 通過這種方式,學(xué)習(xí)模型更適合于低分辨率的人臉。 在測試過程中,相應(yīng)地執(zhí)行多尺度測試,并將不同尺度下的圖像合并為最終輸出。

4 實驗

我們對WIDER FACE [25]和FDDB [28]這兩個公共領(lǐng)域的人臉檢測數(shù)據(jù)集進行了大量的實驗。WIDER FACE數(shù)據(jù)集在32,203幅圖像中總共收集了393,703張貼有標(biāo)簽的人臉,其中50%用于測試,40%用于訓(xùn)練,10%用于驗證。這是公有領(lǐng)域中最具挑戰(zhàn)性的人臉檢測數(shù)據(jù)集。 FDDB是另一個眾所周知的人臉檢測數(shù)據(jù)集。 它包含2,845張圖像中的5,171張標(biāo)簽面。 圖5展示了WIDER FACE和FDDB的一些例子。

4.1 具體實施細節(jié)

我們使用VGG19和ImageNet預(yù)先訓(xùn)練好的模型來進行訓(xùn)練。在RPN階段,錨點跨越多個比例和長寬比。當(dāng)IoU比率大于等于0.7時,我們將其定義為正樣本,低于0.3時,定義為負樣本。在Fast R-CNN階段,我們定義IoU比率高于0.5為正樣本,IoU比率在0.1和0.5之間的負樣本。我們使用softmax損失函數(shù)和中心損失函數(shù)來共同監(jiān)督學(xué)習(xí)。

在RPN階段,我們采用非最大抑制(NMS)。將NMS的IoU設(shè)置為0.7。接著,制定了總共2000個目標(biāo),然后使用OHEM方法處理這些目標(biāo)以選擇可作為Fast R-CNN訓(xùn)練的樣本。RPN的最小批量大小為256,F(xiàn)ast R-CNN的最小批量大小為128。這就是我們在工作中采用的聯(lián)合訓(xùn)練的方法。

我們進行大規(guī)模多尺度的訓(xùn)練,并且將輸入圖像調(diào)整為多個不同的尺度。在測試階段,也進行多尺度測試,并在訓(xùn)練階段使用相同的圖像尺度進行訓(xùn)練。

4.2 基準比較

4.2.1 WIDER FACE數(shù)據(jù)集

WIDER FACE有三個子集(簡單,中等和困難)用于根據(jù)不同難度級別進行評估。遵循(Scenario-Int)設(shè)定的標(biāo)準,我們在WIDER FACE訓(xùn)練集上訓(xùn)練模型,并對WIDER FACE的驗證集和測試集進行評估實驗。如圖3所示,在WIDER FACE的驗證集合和測試集中,所提出的Face R-CNN始終在三個子集中獲得第一名,在WIDER FACE上。顯著優(yōu)于現(xiàn)有結(jié)果[16,3,12,2,26,25]。

4.2.2 FDDB數(shù)據(jù)集

FDDB是應(yīng)用比較廣泛的人臉檢測數(shù)據(jù)集 [28],其中規(guī)定了兩種評估協(xié)議,分別用于10倍的交叉驗證和無限制訓(xùn)練。我們的實驗嚴格遵循無限制訓(xùn)練(使用FDDB以外的數(shù)據(jù)進行訓(xùn)練)。

在文獻[16]中,我們使用WIDER FACE的訓(xùn)練集來訓(xùn)練我們的模型(在圖4中表示為Model-A),并與FDDB上最近公布的頂級方法[16,12,4,31,15]進行比較。所有這些方法都使用[28]中定義的無限制訓(xùn)練協(xié)議(使用FDDB以外的數(shù)據(jù)進行訓(xùn)練)。如圖4,根據(jù)訓(xùn)練結(jié)果我們繪制出了這些方法的離散ROC曲線和連續(xù)ROC曲線,從中我們可以看出,我們的方法始終能夠?qū)崿F(xiàn)離散ROC曲線和連續(xù)ROC曲線方面的最新性能。而且,我們的離散ROC曲線優(yōu)于(高于)以前的最佳曲線[16]。盡管我們的連續(xù)ROC曲線低于最佳曲線[31],但我們的離散ROC曲線遠高于最佳曲線[31]。此外,我們對訓(xùn)練集進行放大(通過增加一個收集的數(shù)據(jù)集進行人臉檢測),并訓(xùn)練我們的人臉檢測數(shù)據(jù)(表示為模型-B)。模型-B的離散和連續(xù)ROC曲線也繪制在圖4中。不出所料,我們提出的Face R-CNN的性能可以進一步提高。而且,在2000個目標(biāo)中,我們獲得了98.74%的離散ROC曲線的準確率,這是FDDB上所有已發(fā)表方法中最新的技術(shù)。

5 結(jié)論

在這份技術(shù)報告中,我們提出了一個強大的人臉檢測模型,稱為Face R-CNN,它集成了幾項新開發(fā)的技術(shù),包括新的多任務(wù)丟失函數(shù)設(shè)計,在線示例挖掘和多尺度訓(xùn)練。 并對所提出的方法進行了驗證。

結(jié)果顯示我們有更好的WIDER FACE面部數(shù)據(jù)集和FDDB數(shù)據(jù)集。實驗結(jié)果表明我們的方法優(yōu)于現(xiàn)有技術(shù)。

參考文獻:

[1] A.Shrivastava,A.Gupta,and R.Girshick.Training Region-based Object Detectors with Online Hard Example Mining.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016.

[2] B.Yang,J.Yan,Z.Lei,and S.Z.Li.Aggregate channel features for multi-view face detection.In IJCB,

2014.

[3] C.Zhu,Y.Zheng,K.Luu,and M.Savvides.CMS-RCNN:Contextual multi-scale region-based cnn for

unconstrained face detection.arXiv preprint arXiv:1606.05413,2014.

[4] E.Ohn-Bar and M.Trivedi.To Boost or Not to Boost?On the Limits of Boosted Trees for Object Detection.In International Conference on Pattern Recognition(ICPR),2016.

[5] F.Schroff,D.Kalenichenko,and J.Philbin.Facenet:A unified embedding for face recognition and clustering.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015.

[6] H.Jiang and E.Learned-Miller.Face detection with the Faster R-CNN.arXiv preprint arXiv:1606.03473,2016.

[7] H.Li,Z.Lin,X.Shen,J.Brandt,and G.Hua.A convolutional neural network cascade for face detection.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015.

[8] H.Qin,J.Yan,X.Li,andX.Hu.Joint training of cascaded cnn for face detection.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016.

[9] J.Uijlings,K.van de Sande,T.Gevers,and A.Smeulders.Selective search for object recognition.International Journal of Computer Vision(IJCV),2013.

[10] J.Yu,Y.Jiang,Z.Wang,Z.Cao,and T.Huang.Unitbox:An advanced object detection network.In ACM MM,2016.

[11] K.He,G.Gkioxari,P.Dollr,and R.Girshick.Mask R-CNN.arXiv preprint arXiv:1703.06870,2017.

[12] K.Zhang,Z.Zhang,Z.Li and Y.Qiao.Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks.IEEE Signal Processing Letters,2016.

[13] M.Mathias,R.Benenson,M.Pedersoli,and L.Van Gool.Face detection without bells and whistles.In European Conference on Computer Vision(ECCV),2014.

[14] M.Pham,Y.Gao,V.Hoang,and T.Cham.Fast polygonal integration and its application in extend-ing haarlike features to improve object detection.In IEEE Conference on Computer Vision and PatternRecognition(CVPR),2010.

[15] Open source code and models.MXNet.https://github.com/tornadomeet/mxnet-face#

face-detection/,2016.

[16] P.Hu and D.Ramanan.Finding Tiny Faces.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2017.

[17] P.Viola and M.J.Jones.Robust real-time face detection.IJCV,2004.

[18] Q.Zhu,M.-C.Yeh,K.-T.Cheng, and S.Avidan.Fast human detection using a cascade of histograms of oriented gradients.In IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2006.

[19] R.Girshick and J.P.N.Fotheringham-Smythe and G.Gamow.Fast R-CNN.In IEEE International Conference on Computer Vision(ICCV),2015.

[20] R.Girshick,J.Donahue,T.Darrell,and J.Malik.Rich feature hierarchies for accurate object detection and semantic segmentation.In IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2014.

[21] R. Girshick,J.Donahue,T.Darrell,and J.Malik.Region-based convolutional networks for accurate object detection and segmentation.TPAMI,2015.

[22] R.Ranjan,V.M.Patel,and R.Chellappa.A deep pyramid deformable part model for face detection.CoRR,2015.

[23] S. Ren, K. He, R. Girshick, and J. Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. In Advances in neural information processing systems, 2015.

[24] S. Wan, Z. Chen, T. Zhang, B. Zhang, and K. Wong. Bootstrapping face detection with hard negative examples. arXiv preprint arXiv:1608.02236, 2016.

[25] S. Yang, P. Luo, C.-C. Loy, and X. Tang. Wider face: A face detection benchmark. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.

[26] S. Yang, P. Luo, C. C. Loy, X. Tang. From Facial Parts Responses to Face Detection: A Deep Learning Approach. In IEEE International Conference on Computer Vision (ICCV), 2015.

[27] T. Lin, P. Dollr, R. Girshick, K. He, B. Hariharan, and S. Belongie. Feature Pyramid Networks for Object Detection. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.

[28] V. Jain and E. Learned-Miller. FDDB: A benchmark for face detection in unconstrained settings. Technical Report UMCS-2010-009, 2010.

[29] X. Sun, P. Wu, and S. Hoi. Face Detection using Deep Learning: An Improved Faster RCNN Approach.arXiv preprint arXiv:1701.08289, 2016.

[30] X. Zhu and D. Ramanan. Face detection, pose estimation, and landmark localization in the wild. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2012.

[31] Y. Li, B. Sun, T. Wu, and Y. Wang. Face Detection with End-to-End Integration of a ConvNet and a 3D Model. In European Conference on Computer Vision (ECCV), 2016.

[32] Y. Sun, X. Wang, and X. Tang. Deep learning face representation by joint identification-verification. In Advances in Neural Information Processing Systems, 2014.

[33] Y. Wen, K. Zhang, Z. Li, and Y. Qiao. A Discriminative Feature Learning Approach for Deep Face Recognition. In European Conference on Computer Vision (ECCV), 2016.

[34] Y. Wen, Z. Li, and Y. Qiao. Latent factor guided convolutional neural networks for age-invariant face recognition. In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.

猜你喜歡
人臉檢測卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
基于人臉特征定位的SNS網(wǎng)站應(yīng)用組件研究與設(shè)計
基于Android平臺的人臉識別系統(tǒng)設(shè)計與實現(xiàn)
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于Matlab的人臉檢測實驗設(shè)計
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
基于JSeg和顯著性檢測的服裝圖像分割方法
莒南县| 安多县| 岳阳县| 武定县| 三江| 舞钢市| 祁门县| 普兰店市| 榆中县| 昭平县| 连云港市| 泽库县| 启东市| 广宗县| 台前县| 宁陕县| 隆化县| 浮山县| 淳安县| 龙泉市| 肥东县| 邳州市| 牙克石市| 林西县| 微博| 永昌县| 利川市| 芦溪县| 柏乡县| 石首市| 东阳市| 临夏县| 崇信县| 莱州市| 漾濞| 文成县| 盐亭县| 镶黄旗| 平定县| 营口市| 民丰县|