国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像隱私保護

2023-10-13 12:13:28王祥根崔佳佳
關(guān)鍵詞:人臉差分分類器

沈 博, 王祥根, 田 澍, 崔佳佳

(1. 華北計算技術(shù)研究所, 北京 100083; 2. 北京信息科技大學(xué) 信息與通信工程學(xué)院, 北京 100192)

隨著智能手機和高像素相機的發(fā)展,人們獲取與共享人臉照片更加便捷。例如,社交媒體上的用戶通過Facebook,Instagram,Twitter和YouTube等應(yīng)用,實時發(fā)布手機或相機中拍攝的照片;谷歌、百度和微軟等主要云服務(wù)商都為用戶提供了基于圖片的免費服務(wù),用戶可以保存和管理自己的照片,并隨時下載到手機或電腦上。通過收集這些人臉照片,利用生物識別技術(shù)對大量圖像進行處理和分析,可為企業(yè)與個人提供更具有個性化的服務(wù)。但由于人臉圖像中通常包含敏感的個人信息,簡單地共享或發(fā)布人臉圖像數(shù)據(jù)后,攻擊者對其進行身份推斷得到的社會關(guān)系會造成個人隱私泄露。因此,設(shè)計面向人臉圖像的隱私保護發(fā)布方法是十分必要的。

已有的人臉圖像隱私保護方法包括基于傳統(tǒng)圖像處理[1]與基于深度學(xué)習(xí)[2]2類?;趥鹘y(tǒng)圖像處理的隱私保護方法通過混淆圖像中的敏感信息來達到隱私保護的目的,如遮蔽、像素化和模糊化。雖然該類方法計算復(fù)雜度較低,但通常會降低原始圖像的質(zhì)量,產(chǎn)生較差視覺質(zhì)量的圖像數(shù)據(jù),無法為人臉識別或分類任務(wù)提供有效數(shù)據(jù)。為解決傳統(tǒng)圖像處理方法的不足,基于深度學(xué)習(xí)的圖像合成方法被提出,通過神經(jīng)網(wǎng)絡(luò)模型從面部數(shù)據(jù)中去除或隱藏生物特征信息,發(fā)布替代原始人臉的高質(zhì)量合成圖像,用于人臉識別模型的訓(xùn)練與應(yīng)用。

給定一張人臉圖像,如何生成一張與其具有相似外觀和相同背景的圖像,同時隱藏真實身份并且允許人臉檢測器進行檢測與識別是現(xiàn)有工作研究的核心問題。Hukkelas等[3]提出DeepPrivacy方法,利用條件生成對抗網(wǎng)絡(luò)合成圖像,在不破壞原始數(shù)據(jù)分布的情況下對圖像中的身份信息進行匿名處理;Chen等[4]利用深度卷積生成對抗網(wǎng)絡(luò)合成與原始圖像屬性匹配的高逼真人臉圖像,同時采用定性與定量相結(jié)合的方式衡量合成圖像的隱私性和可用性;Sun等[5]通過設(shè)計參數(shù)化的GAN人臉圖像隱私保護模型,允許在合成圖像中添加細粒度的臉部細節(jié)信息,產(chǎn)生具有更高視覺真實感的合成圖像;Meden等[6]通過使用生成神經(jīng)網(wǎng)絡(luò)合成代替人臉確保隱私性,同時保留非身份相關(guān)方面數(shù)據(jù)以實現(xiàn)可用性;Maximov等[7]提出基于條件生成對抗網(wǎng)絡(luò)的圖像和視頻匿名化模型,能夠去除面部和身體的識別特征,同時生成可用于任何計算機視覺任務(wù)的高質(zhì)量圖像和視頻;Xue等[8]利用深度神經(jīng)網(wǎng)絡(luò)提出在特征空間中使用對抗性擾動的新型人臉圖像去識別框架,生成圖像在有效保留與身份相關(guān)的信息的同時確保其他屬性與原始圖像保持一致。

上述基于深度學(xué)習(xí)的人臉圖像隱私保護方法,可以幫助解決人臉圖像發(fā)布和共享時引起的隱私問題,但仍存在一些有待解決的問題:一是現(xiàn)有方法沒有提供形式化的隱私保證來證明合成圖像的隱私保護效果;二是未考慮語義完整性,不能有效保持隱私性和可用性之間的優(yōu)化權(quán)衡。導(dǎo)致上述問題的主要原因是基于對抗生成網(wǎng)絡(luò)的方法通常只關(guān)注圖像內(nèi)容之間的轉(zhuǎn)換,而忽略了訓(xùn)練圖像的其他關(guān)鍵語義條件信息,包括人臉輪廓、身份等屬性信息,因而無法有效引導(dǎo)網(wǎng)絡(luò)生成具有高視覺保真度和準確身份屬性的人臉圖像。同時,在實際訓(xùn)練中,由于針對具有統(tǒng)一身份的人臉圖像收集成本較高,訓(xùn)練效率不夠理想,基于對抗生成網(wǎng)絡(luò)的方法仍然面臨著樣本類別不均衡的問題,因而容易導(dǎo)致模型出現(xiàn)過擬合,影響人臉合成質(zhì)量。此外,在沒有高級條件語義信息的指導(dǎo)下,現(xiàn)有的人臉隱私保護方法對人臉圖像身份隱藏的效率相對低下。針對以上問題,本文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像隱私保護方法,利用卷積自動編碼器對原始人臉圖像進行解耦,實現(xiàn)身份信息的差分隱私保護,并在卷積生成對抗網(wǎng)絡(luò)的基礎(chǔ)上添加分類器保持原始圖像和合成圖像間的語義一致性,代替原始圖像發(fā)布。該方法在保留原始人臉圖像的關(guān)鍵特征的基礎(chǔ)上,可有效平衡隱私保護和數(shù)據(jù)可用性,保持圖像的語義完整性,同時提供可證明的隱私保證。

1 預(yù)備知識

1.1 差分隱私

設(shè)數(shù)據(jù)集D和D′具有相同屬性結(jié)構(gòu),二者的對稱差記為D?D′,|D?D′|表示對稱差D?D′中的記錄個數(shù),若|D?D′|=1,則D和D′稱為相鄰數(shù)據(jù)集。

定義1ε-差分隱私[9]。給定相鄰數(shù)據(jù)集D和D′,若存在隱私算法M,Range(M)是M的取值范圍,若算法M在數(shù)據(jù)集D和D′上的任意輸出結(jié)果S(S∈Range(M))滿足

Pr[M(D)∈S]≤eεPr[M(D′)∈S]

(1)

則稱算法M滿足ε-差分隱私。

其中,參數(shù)ε表示隱私預(yù)算,ε值越大,隱私保護強度越低值越小隱私強度越高。采用Laplace機制實現(xiàn)ε-差分隱私。

定義2 Laplace機制[10]。設(shè)函數(shù)f:D∈n→d,如果算法M的輸出滿足

M(D)=f(D)+Z

(2)

且Z∈n是服從位置參數(shù)為0,尺度參數(shù)為Δf/ε的Laplace分布,則算法M提供ε-差分隱私。Laplace機制引入噪聲的大小與函數(shù)f的敏感度Δf和隱私預(yù)算ε有關(guān),Laplace機制的敏感度Δf由L1-范數(shù)定義。

定義3L1-敏感度。設(shè)函數(shù)f:D∈n→d對所有相鄰數(shù)據(jù)集D和D′的L1-敏感度為

差分隱私具有以下2個重要的性質(zhì)[11],它們是判斷一個機制是否滿足差分隱私的標準。

性質(zhì)2 變換不變性。給定任意算法M1滿足ε-差分隱私,對任意算法M2(不一定滿足差分隱私),則有M(·)=M2(M1(·))滿足ε-差分隱私。

1.2 自動編碼器

1.3 生成對抗網(wǎng)絡(luò)

生成對抗網(wǎng)絡(luò)(generative adversarial networks, GANs)由生成器模塊G和判別器模塊D組成,生成器模塊的目標是根據(jù)學(xué)習(xí)的概率模型生成圖像內(nèi)容。判別器模塊的主要目的是判斷生成的圖像內(nèi)容是真是假,并對此作出接受或拒絕圖像內(nèi)容的決定。GANs利用零和極小極大(G,D)=[logD(X)]+進行博弈完成對抗學(xué)習(xí),其中為隱向量的先驗分布,G(·)為生成函數(shù),D(·)為輸出范圍為[0,1]的判別函數(shù)。當D(X)=0時表示判別器D將樣本X分類為生成的,反之D(X)=1表示判別器D將樣本X分類為真實的。在GAN網(wǎng)絡(luò)的訓(xùn)練過程中,將判別器和生成器生成的人臉圖像之間產(chǎn)生的期望值作為每一批次人臉質(zhì)量判別的依據(jù)。為了使模型具有較高的人臉圖像合成質(zhì)量并保證其魯棒性,通常會將訓(xùn)練模型分成多個小批量數(shù)據(jù)集,并將每個批評的樣本取期望的平均值作為網(wǎng)絡(luò)訓(xùn)練的依據(jù),同時保證損失函數(shù)在一個小批量梯度下降的過程中交替地進行最小化和最大化,保證GAN網(wǎng)絡(luò)模型的訓(xùn)練效率。

1.4 問題描述

1) 對于身份屬性x∈Xid,在訓(xùn)練期間未使用的屬性分類器fx的性能降低;

2 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像隱私保護模型

根據(jù)1.3節(jié)的問題定義及描述,本文結(jié)合生成對抗網(wǎng)絡(luò)、自動編碼器與差分隱私設(shè)計面向人臉圖像發(fā)布的隱私保護模型。如圖1所示,該模型包括預(yù)訓(xùn)練和圖像合成2個部分。

圖1 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像隱私保護方法框圖Fig.1 Overview of privacy-preserving face images protection based on convolutional neural networks

1) 基于卷積自動編碼器與差分隱私的預(yù)訓(xùn)練。首先,利用自動編碼器來捕獲人臉圖像X中的身份屬性和其他屬性的隱空間信息表示;其次,根據(jù)身份屬性的隱空間表示之間的距離對其添加Laplace擾動;最后,基于解碼器人臉圖像進行重構(gòu)。

3) 人臉屬性判別及輸出。為了生成具有隱私保護屬性的高質(zhì)量的人臉圖像,本文在生成對抗網(wǎng)絡(luò)判別過程中引入了具有輔助引導(dǎo)功能的人臉屬性分類器和人臉判別器,用于監(jiān)督學(xué)習(xí)本文提出的基于卷和自動編碼器與差分隱私的預(yù)訓(xùn)練網(wǎng)絡(luò)框架。在訓(xùn)練過程中,輔助分類器被嵌入到判別器中,用于多個人臉屬性的分類,然后將可控屬性的約束反饋給生成器,以合成具有隱私保護功能的人臉圖像,同時保證了人臉圖像的實用性。同時,人臉判別器的目的是減少原始圖像和合成面部圖像之間的結(jié)構(gòu)差異,使得生成圖像域原始面部圖像具有更相似的統(tǒng)計分布。最后,將合成后并具有隱私保護功能的人臉圖像輸出發(fā)布。

2.1 基于卷積自動編碼器與差分隱私的預(yù)訓(xùn)練

該階段由表征解耦、加噪擾動與表征重構(gòu)3個子網(wǎng)絡(luò)構(gòu)成,通過卷積自動編碼器和差分隱私實現(xiàn)預(yù)訓(xùn)練,使生成對抗網(wǎng)絡(luò)在訓(xùn)練過程中滿足差分隱私保護,在有效抵抗成員推斷攻擊的同時,實現(xiàn)可證明的隱私保護。

2.1.1 表征解耦

利用CACIAE人臉識別模型[12]將給定輸入人臉圖像X進行解耦成身份屬性與其他屬性(表情、光照、背景等信息),分別用隱空間信息x′id和x′att表示。將身份屬性與其他屬性的隱空間信息分別定義為Encid(X)=X′id、Encatt(X)=X′att,其中X′id,X′att表示人臉圖像X的隱空間信息。

2.1.2 加噪擾動

通過根據(jù)圖像中身份屬性表征向量之間的距離度量控制噪聲[13],提出一種基于距離度量的ε-差分隱私機制。

定義4 基于距離度量的ε-差分隱私機制。設(shè)距離函數(shù)d:n→n,若隱私算法M:n→n在圖像X的表征向量X1與X2上的任意輸出結(jié)果S滿足

Pr[M(X1)∈S]≤eεd(X1,X2)Pr[M(X2)∈S]

(3)

則稱算法M滿足基于距離度量的ε-距離差分隱私。

證明 由公式(3)可得

由Laplace分布可得

2.1.3 表征重構(gòu)

2.2 基于卷積生成對抗網(wǎng)絡(luò)的人臉圖像合成

根據(jù)定理,在預(yù)訓(xùn)練階段已經(jīng)通過添加擾動噪聲的方式保護身份屬性,該階段算法滿足差分隱私保護。因此,在圖像合成階段對數(shù)據(jù)做任何處理都不會對隱私保護有所影響,同時可有效抵抗在利用卷積生成對抗網(wǎng)絡(luò)合成圖像時的成員推斷攻擊。

在人臉圖像合成階段,為了避免經(jīng)典的GANs存在訓(xùn)練不穩(wěn)定、生成過程不可控以及不具備可解釋性等問題,本文提出一種基于深度卷積生成對抗網(wǎng)絡(luò)(Deep Convolutional GAN, DCGAN)的人臉圖像合成模型SynthesisNet,該模型由生成器模塊、判別器模塊與分類器模塊3個子網(wǎng)絡(luò)組成。

2.2.1 損失函數(shù)

為了生成與原始圖像相似的身份保護圖像,設(shè)計生成器G的損失函數(shù)LG,tot并利用反向傳播的方式進行訓(xùn)練:

LG,tot=LG,orig+LG,info+LG,class

(4)

LG,class=

其中:LG,orig,LG,info分別表示生成器網(wǎng)絡(luò)原始損失函數(shù)、合成圖像與原始圖像之間的信息損失函數(shù);LG,class表示衡量生成圖像的標簽與分類器為該圖像預(yù)測標簽之間差異的損失函數(shù),l(·)表示返回輸入記錄的標簽屬性值函數(shù);remove(·)表示去除輸入圖像標簽屬性函數(shù);C(·)表示分類器神經(jīng)網(wǎng)絡(luò)預(yù)測標簽函數(shù)。

判別器網(wǎng)絡(luò)D用于分辨圖像是真實圖像還是合成圖像,使用DCGAN中的原始損失函數(shù)LD,tot訓(xùn)練判別器網(wǎng)絡(luò)。為了保持合成圖像與原始圖像之間的身份一致性,在原始DCGAN網(wǎng)絡(luò)模型基礎(chǔ)上,設(shè)計分類器C的損失函數(shù)LC,tot用于預(yù)測合成圖像標簽:

LC,tot=Lc,class+LG,class

(5)

其中Lc,class=[|l(X)-C(remove(X))|]。

因此,訓(xùn)練神經(jīng)網(wǎng)絡(luò)的總損失函數(shù)的加權(quán)和為Ltot=LG,tot+LD,tot+LC,tot=Lorig+λG,infoLG,info+λC,totLC,tot,其中λG,info,λC,tot為平衡不同項的權(quán)重參數(shù)。

在實際訓(xùn)練時,在預(yù)訓(xùn)練階段隨機抽取2個人臉圖像提取其身份屬性和其他屬性,并在基于DCGAN的圖像合成模型時需要根據(jù)實時的生成效果調(diào)整訓(xùn)練參數(shù),將它們進行合成。

2.2.2 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

如圖2所示,SynthesisNet模型使用實例歸一化(instance normalization, IN)[15]代替批量歸一化,將ReLU激活函數(shù)、LeakyReLU激活函數(shù)分別用于生成器G和判別器D,并引入輔助分類器C[16]到判別器中。

圖2 SynthesisNet模型的網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Network structure of face image synthesis model

1) 生成器網(wǎng)絡(luò)G。由多個反向卷積層組成,用于生成與真實人臉圖像具有相同分布的偽圖像。它的輸入是128×128的RGB人臉圖像X,前2個反卷積層使用步長為2,由實例歸一化層組成,并應(yīng)用非線性ReLU激活函數(shù)計算每一層,最后將圖像上采樣到128×128。

2) 判別器網(wǎng)絡(luò)D與分類器網(wǎng)絡(luò)C。如圖2所示,將判別器網(wǎng)絡(luò)D和分類器網(wǎng)絡(luò)C組合成一個網(wǎng)絡(luò),用于判別圖像是生成圖像還是真實圖像,并保持真實圖像與生成圖像的語義一致性。分類器網(wǎng)絡(luò)C與判斷器網(wǎng)絡(luò)D具有相同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練分類器從圖像中判斷標簽與其他屬性之間的相關(guān)性,保持生成器合成圖像在語義上的正確性。例如,輸入圖像性別“性別=女,年齡段=青年,種族=白種人”,分類器可以確保輸出圖像的語義完整性,即為“性別=女,年齡段=青年,種族=白種人”。雖然DCGAN中的判別器D在一定程度上可以實現(xiàn)語義一致性,但其本身存在一些生成實例不正確的問題,為此引入分類器網(wǎng)絡(luò),幫助判別器提高語義完整性,減少分類錯誤。判別器D的輸入是128×128的真實或生成圖像,除最后一個卷積層外的所有層在2個網(wǎng)絡(luò)之間共享參數(shù),所有共享的卷積層使用LeakyReLU非線性激活函數(shù)。在最后一層,2個網(wǎng)絡(luò)使用單獨的卷積層,其中判別器D根據(jù)DCGAN計算損失,返回一個標量分數(shù),同時分類器網(wǎng)絡(luò)返回每個屬性類的概率向量。

3 實驗評估

本文采用的實驗環(huán)境為8GB內(nèi)存,Intel Core i5處理器,2.3 GHz;GPU為NVIDIA GeForce GTX 970。所有實驗在Ubuntu 14.04操作系統(tǒng)上執(zhí)行,分別采用Python和TensorFlow作為本實驗的編程語言和機器學(xué)習(xí)庫。

3.1 實驗設(shè)置

3.1.1 數(shù)據(jù)集

本實驗使用3種公開數(shù)據(jù)集:

1) MUCT數(shù)據(jù)集[17]。包含276位受試者的3 755張圖像,其中1 844位為男性,1 911位為女性,使用5個網(wǎng)絡(luò)攝像頭在不同光照下捕獲。

2) MORPH數(shù)據(jù)集[18]。MORPH數(shù)據(jù)集包含55 134張面部圖像,涵蓋13 000個獨特的身份,其年齡跨度從16~77歲。同時,該數(shù)據(jù)集還包含多樣的人臉圖像屬性信息,包括不同年齡、性別等。在具體的網(wǎng)絡(luò)學(xué)習(xí)中,本文將MORPH數(shù)據(jù)集分為訓(xùn)練集和測試集,其中,訓(xùn)練集包含50 020張人臉圖像,測試集中包含4 925張人臉圖像,根據(jù)上述數(shù)據(jù)集比例進行實驗對比分析,驗證人臉圖像的隱私保護性能。

3) CelebA數(shù)據(jù)集[19]。包含202 599張人臉圖像,其中84 434位為男性,118 165位為女性。

由于CelebA的種族標簽分布嚴重偏向白種人,而MORPH則嚴重偏向非洲血統(tǒng)的人,因此,在實驗時將CelebA和MORPH數(shù)據(jù)集以留出法的方式分為訓(xùn)練集和測試集,訓(xùn)練出種族分布相對均衡的模型。MUCT數(shù)據(jù)集用于合成圖像的隱私性和可用性評估。

3.1.2 評價指標

1) 可用性。使用IS(Inception Score)[20]和FID(Fréchet Inception Distance)[21]作為可用性評價指標。IS用來衡量GANs網(wǎng)絡(luò)生成圖像的質(zhì)量,IS=exp(xDKL(p(y|x)||p(y))),其中x表示給定的圖像,y為標簽。IS值越高,圖像質(zhì)量越好。FID使用Inception network分別提取真實圖像與合成圖像中間層的特征,計算2個多維特征分布之間的距離,FID=+Tr(C+Cr-2(CCr)1/2),其中m,mr分別表示真實圖像與合成圖像的特征均值;C,Cr分別表示真實圖像與合成圖像的協(xié)方差;Tr表示矩陣對角線上的元素和。

2) 隱私性。采用基于Inception-Resnet backbone[22]的身份距離作為圖像隱私性的評價指標,衡量真實人臉圖像與合成人臉圖像的身份差異。

3.2 實驗結(jié)果與分析

本節(jié)對提出的SynthesisNet模型與DeepPrivacy模型[3],FaceDCGAN模型[4]、HybridGAN模型[5]在隱私性與可用性方面進行比較、評估與分析。

3.2.1 可用性評估

1) 視覺評估

首先將SynthesisNet與其他3個模型分別在MUCT數(shù)據(jù)集、MORPH數(shù)據(jù)集和CelebA數(shù)據(jù)集上訓(xùn)練生成合成圖像,結(jié)果見表1。DeepPrivacy模型與HybridGAN模型利用匿名化的思想對原始人臉圖像進行隱私保護處理,產(chǎn)生的合成人臉圖像精度不高,結(jié)果容易發(fā)生面部錯位的問題;而FaceDCGAN模型無法保證原始圖像與合成圖像之間的語義一致性;SynthesisNet模型在細節(jié)上的表現(xiàn)好于其他模型的結(jié)果。該模型在實驗中使用預(yù)訓(xùn)練的方式解耦面部特征后對其進行合成處理,在保證原始圖像與合成圖像之間的語義一致性的同時,合成圖像的視覺效果在精度方面也顯著提升。

表1 SynthesisNet與其他模型在視覺評估方面的比較結(jié)果Table 1 Comparison between SynthesisNet and other models in visual evaluation

2) 定量分析

在3個數(shù)據(jù)集上對SynthesisNet模型與其他3個模型計算可用性評估指標IS和FID,結(jié)果見表2。從表2中可以看出,在3個數(shù)據(jù)集上SynthesisNet模型的性能明顯優(yōu)于其他3個模型,其原因是本文提出的方法使用卷積自動編碼器提取圖像更高維的隱空間信息來充分表示完整的人臉屬性,將該屬性作為輸入可以緩解利用反向傳播訓(xùn)練生成對抗網(wǎng)絡(luò)時產(chǎn)生的梯度消失問題,提高模型的泛化能力。

表2 SynthesisNet模型與其他模型的可用性比較結(jié)果Table 2 The results of SynthesisNet and other models in the utility evaluation

3.2.2 隱私性評估

為了在人臉圖像數(shù)據(jù)集上評估身份差分隱私機制的隱私保護效果,首先提取每張測試圖像的身份表征并計算敏感度,然后將隱私預(yù)算ε設(shè)置為0.01到1評估提出模型的隱私保護效果,實驗結(jié)果如圖3所示。從圖3中可以看出,當ε從0.01增加到1時真實圖像與合成圖像的身份距離逐漸變小,這說明較小的隱私預(yù)算保證了更好的人臉圖像的隱私性,通過調(diào)整ε的大小可得到理想的隱私保護效果。

圖3 SynthesisNet在3個數(shù)據(jù)集上的隱私性分析Fig.3 Privacy analysis of SynthesisNet in three datasets

4 結(jié) 語

人臉圖像隱私保護問題是目前數(shù)據(jù)發(fā)布領(lǐng)域的研究熱點。針對現(xiàn)有的方法缺少可證明的隱私性、無法在保持隱私性和可用性之間優(yōu)化權(quán)衡的同時生成語義合理的圖像的問題,本文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像隱私保護方法,利用卷積自動編碼器與差分隱私為生成對抗網(wǎng)絡(luò)提供預(yù)訓(xùn)練后的人臉圖像,并合成偽圖像代替原始圖像發(fā)布。該方法可有效平衡圖像隱私性和可用性,在保持人臉圖像的語義完整性的同時,為發(fā)布圖像提供可證明的隱私保證。在未來的工作中,嘗試將本文的方法進一步優(yōu)化,將其應(yīng)用于保護高分辨率的視頻人臉圖像。

猜你喜歡
人臉差分分類器
有特點的人臉
數(shù)列與差分
三國漫——人臉解鎖
動漫星空(2018年9期)2018-10-26 01:17:14
BP-GA光照分類器在車道線識別中的應(yīng)用
電子測試(2018年1期)2018-04-18 11:52:35
加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
基于差分隱私的大數(shù)據(jù)隱私保護
馬面部與人臉相似度驚人
相對差分單項測距△DOR
太空探索(2014年1期)2014-07-10 13:41:50
長得象人臉的十種動物
奇聞怪事(2014年5期)2014-05-13 21:43:01
阜平县| 玛沁县| 时尚| 沁源县| 剑川县| 青岛市| 开化县| 泸西县| 山东省| 交口县| 甘孜县| 天全县| 林周县| 房产| 沿河| 金塔县| 张家口市| 承德市| 临西县| 视频| 屯门区| 高陵县| 雅江县| 都江堰市| 竹溪县| 满城县| 瓮安县| 凌海市| 博罗县| 长子县| 新丰县| 关岭| 临清市| 称多县| 新闻| 乳源| 和平区| 乌海市| 和林格尔县| 吴江市| 三江|