国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法

2024-08-15 00:00張仁斌崔宇航張子石

摘 要:利用自編碼器模型檢測(cè)惡意模型更新的聯(lián)邦學(xué)習(xí)框架是一種優(yōu)秀的投毒攻擊防御框架,但現(xiàn)有的基于自編碼器的模型存在訓(xùn)練困難、異常檢測(cè)能力不足等問題。針對(duì)以上問題,提出了一種基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法:服務(wù)器端通過抑制訓(xùn)練樣本的隨機(jī)屬性,生成更穩(wěn)定的訓(xùn)練數(shù)據(jù)集,并使用該數(shù)據(jù)集對(duì)β-VAE異常檢測(cè)模型進(jìn)行即時(shí)訓(xùn)練。利用該模型計(jì)算客戶端上傳的任務(wù)模型更新的異常分?jǐn)?shù),然后根據(jù)動(dòng)態(tài)閾值來檢測(cè)并移除異常更新。通過三個(gè)聯(lián)邦學(xué)習(xí)任務(wù)對(duì)算法進(jìn)行了驗(yàn)證,即在MNIST數(shù)據(jù)集上使用邏輯回歸(logistic regression,LR)模型進(jìn)行分類、在FEMNIST數(shù)據(jù)集上使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)進(jìn)行分類以及在Shakespeare數(shù)據(jù)集上使用循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)進(jìn)行字符預(yù)測(cè)。實(shí)驗(yàn)結(jié)果表明,在多種攻擊場景下,該算法下的任務(wù)模型相較于其他防御算法都取得了更高的準(zhǔn)確率。這表明在非獨(dú)立同分布場景下,該算法對(duì)聯(lián)邦學(xué)習(xí)投毒攻擊具有良好的魯棒性。

關(guān)鍵詞:聯(lián)邦學(xué)習(xí); 異常檢測(cè); 投毒攻擊; 防御機(jī)制; 深度學(xué)習(xí)

中圖分類號(hào):TP18;TP309 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2024)08-035-2496-06

doi:10.19734/j.issn.1001-3695.2023.11.0553

Algorithm for detecting malicious model updates offederated learning based on β-VAE

Zhang Renbina,b, Cui Yuhanga, Zhang Zishia

(a.School of Computer Science & Information Engineering, b.Anhui Province Key Laboratory of Industry Safety & Emergency Technology, Hefei University of Technology, Hefei 230601, China)

Abstract:The federated learning framework that uses autoencoder model to detect malicious model updates is an excellent defense framework for poisoning attacks. However, the existing autoencoder-based models face several challenges such as training difficulties and limited anomaly detection capability. In view of the above problems, this paper proposed an algorithm for detecting malicious model updates of federated learning based on β-VAE: the central server stabilized the training dataset by suppressing random attributes of the training samples, and used the dataset to train β-VAE anomaly detection model in real time. The model computed the anomaly score of task model updates uploaded by the clients, and then to detect and exclude malicious model updates based on the dynamic threshold of anomaly score. This paper evaluated the performance of the proposed algorithm on three federated learning tasks. Specifically, these tasks include classification on the MNIST dataset using the logistic regression(LR) model, classification on the FEMNIST dataset using the convolutional neural network(CNN) model, and character prediction on the Shakespeare dataset using the recurrent neural network(RNN) model. The experimental results show that, the task model under this algorithm achieves higher accuracy compared to other defense algorithms. This indicates that in Non-IID scenarios, the algorithm exhibits strong robustness against poisoning attacks in federated learning.

Key words:federated learning; anomaly detection; poisoning attack; defense mechanism; deep learning

谷歌提出的聯(lián)邦學(xué)習(xí)(federated learning,F(xiàn)L)[1]為數(shù)據(jù)價(jià)值的利用與隱私數(shù)據(jù)保護(hù)的矛盾[2]提供了解決方案。然而,傳統(tǒng)聯(lián)邦學(xué)習(xí)框架很容易遭受惡意客戶端的投毒攻擊[3,4],即通過修改本地訓(xùn)練數(shù)據(jù)集或局部模型來影響全局模型的性能和準(zhǔn)確性。對(duì)于惡意客戶端的攻擊,服務(wù)器端無法直接阻止或糾正其行為,需要采取其他聯(lián)邦學(xué)習(xí)安全保護(hù)機(jī)制來確保聯(lián)邦學(xué)習(xí)系統(tǒng)的安全性和可靠性。研究表明,基于深度學(xué)習(xí)的異常檢測(cè)方法可以識(shí)別并過濾異常模型更新。然而,異常檢測(cè)模型的訓(xùn)練過程需要耗費(fèi)大量的共享數(shù)據(jù)和算力,這在聯(lián)邦學(xué)習(xí)框架下難以實(shí)現(xiàn)。為了緩解服務(wù)器端對(duì)資源的過度依賴,同時(shí)增強(qiáng)聯(lián)邦學(xué)習(xí)框架的魯棒性,本文提出了一種基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法。服務(wù)器端首先通過降低訓(xùn)練樣本的隨機(jī)性來生成更可控的訓(xùn)練數(shù)據(jù)集。然后使用該數(shù)據(jù)集對(duì)β-VAE異常檢測(cè)模型進(jìn)行即時(shí)訓(xùn)練。最后,利用該模型計(jì)算客戶端上傳的模型更新的異常分?jǐn)?shù),并根據(jù)動(dòng)態(tài)閾值識(shí)別和移除異常模型更新。

1 相關(guān)工作

在聯(lián)邦學(xué)習(xí)中,客戶端的本地訓(xùn)練數(shù)據(jù)集是私有的,且服務(wù)器端不會(huì)直接參與客戶端模型的訓(xùn)練過程,因此惡意客戶端發(fā)起投毒攻擊的可能性非常高。投毒攻擊主要分為數(shù)據(jù)投毒和模型投毒:數(shù)據(jù)投毒通過修改訓(xùn)練數(shù)據(jù)集,降低模型對(duì)某一類數(shù)據(jù)或全體數(shù)據(jù)的分類精度;模型投毒則通過直接修改模型參數(shù)影響全局模型。實(shí)際上,模型投毒比數(shù)據(jù)投毒更有效[5,6]。

專門針對(duì)數(shù)據(jù)投毒的防御方法有數(shù)據(jù)清洗[7],通過過濾掉可疑的訓(xùn)練數(shù)據(jù)點(diǎn)來緩解數(shù)據(jù)投毒的影響,一些研究[8,9]致力于利用不同的穩(wěn)健統(tǒng)計(jì)模型來改進(jìn)數(shù)據(jù)清洗技術(shù)。Koh等人[10]的工作指出,更強(qiáng)的數(shù)據(jù)投毒可能打破數(shù)據(jù)清洗防御。更普遍的防御方法是服務(wù)器端對(duì)模型更新進(jìn)行檢測(cè)[11,12]。其中一種是基于統(tǒng)計(jì)的異常檢測(cè)方法,Chen等人[13]提出了GeoMed(geometric median)方法,使用局部模型更新的幾何中值來生成全局模型。Blanchard等人[14]提出了基于歐氏距離的Krum方法,選擇一個(gè)與其他局部模型更新最相似的局部模型更新來生成全局模型。雖然這些穩(wěn)健的統(tǒng)計(jì)方法簡單且與底層學(xué)習(xí)系統(tǒng)高度解耦,但是無法消除異常模型對(duì)全局模型的影響。另外一種是基于深度學(xué)習(xí)的異常檢測(cè)方法,利用神經(jīng)網(wǎng)絡(luò)模型識(shí)別并移除異常模型更新,保證全局模型的聚合過程不受異常模型更新影響。Zhao等人[15]提出了基于生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network,GAN)的防御策略PDGAN(poisoning defense GAN),PDGAN從模型更新中重建訓(xùn)練數(shù)據(jù),并通過生成的數(shù)據(jù)來審計(jì)每個(gè)局部模型的準(zhǔn)確率,準(zhǔn)確率低于預(yù)定義閾值的模型將被識(shí)別為異常模型,并且異常模型更新將從本輪迭代的聚合過程中移除。由于需要使用局部模型來訓(xùn)練PDGAN,所以這種方法在迭代初期無法檢測(cè)到異常模型更新。Sattler等人[16]提出了CFL(clustered federated learning)[17]算法的魯棒性應(yīng)用,根據(jù)模型更新的余弦相似度將更新分為正常模型更新和異常模型更新。該算法僅在IID設(shè)置下有效,且需要經(jīng)過多個(gè)輪次才能準(zhǔn)確劃分模型更新,未被識(shí)別的惡意攻擊對(duì)模型性能的影響在后續(xù)幾輪中持續(xù)存在[11]。Li等人[18]利用變分自動(dòng)編碼器(variational autoencoder,VAE)計(jì)算模型更新的異常分?jǐn)?shù),將大于動(dòng)態(tài)閾值的更新識(shí)別為異常更新,并將異常更新從本輪迭代中移除。Gu等人[19]在此基礎(chǔ)上進(jìn)一步考慮每一輪更新的差異,使用條件變分自動(dòng)編碼器(conditional VAE,CVAE)融入時(shí)間信息。然而,隨著任務(wù)模型在訓(xùn)練過程中逐漸收斂,相鄰輪次的更新差異逐漸減小,因此使用時(shí)間信息作為標(biāo)簽來區(qū)分不同輪次的更新并不合適?;谧跃幋a器的異常檢測(cè)模型中,為了能夠準(zhǔn)確地區(qū)分異常模型和正常模型,通常需要使用大量的共享數(shù)據(jù)進(jìn)行耗時(shí)的訓(xùn)練,然而在實(shí)際部署中,很難滿足模型訓(xùn)練過程中對(duì)共享數(shù)據(jù)和計(jì)算資源的需求。

綜上,針對(duì)以上研究方法的不足,且為了緩解服務(wù)器端對(duì)資源的過度依賴,同時(shí)為了增強(qiáng)聯(lián)邦學(xué)習(xí)框架的魯棒性,本文提出了基于β-VAE的聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法。在共享數(shù)據(jù)受限的情況下,服務(wù)器端首先利用初始化的全局任務(wù)模型,降低訓(xùn)練數(shù)據(jù)集的隨機(jī)偏差,生成更加穩(wěn)定的訓(xùn)練數(shù)據(jù)集。然后使用該數(shù)據(jù)集對(duì)β-VAE異常檢測(cè)模型進(jìn)行即時(shí)訓(xùn)練,以鼓勵(lì)其學(xué)習(xí)正常數(shù)據(jù)更有效的潛在表示。最后,利用該模型計(jì)算客戶端上傳的模型更新的異常分?jǐn)?shù),并根據(jù)異常分?jǐn)?shù)的動(dòng)態(tài)閾值檢測(cè)和排除異常更新,使用FedAvg算法[20]對(duì)正常更新進(jìn)行聚合操作,以實(shí)現(xiàn)對(duì)聯(lián)邦學(xué)習(xí)的保護(hù)。

2 聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法

聯(lián)邦學(xué)習(xí)框架分為兩種:客戶端-服務(wù)器架構(gòu)[21]和對(duì)等網(wǎng)絡(luò)架構(gòu)[22]。本文提出的聯(lián)邦學(xué)習(xí)異常更新檢測(cè)算法是基于客戶端-服務(wù)器架構(gòu)設(shè)計(jì)的,算法框架如圖1所示。本文算法包含n個(gè)客戶端和1個(gè)服務(wù)器端。服務(wù)器端包含少量的共享數(shù)據(jù)Ds、1個(gè)β-VAE異常檢測(cè)模型和1個(gè)全局模型w。共享數(shù)據(jù)Ds劃分為多個(gè)非獨(dú)立同分布數(shù)據(jù)集,用于訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型。

結(jié)合圖1,本文算法的流程如下:

a)初始化全局模型w0;

b)使用w0在非獨(dú)立同分布數(shù)據(jù)集上訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型,得到模型參數(shù)集合Ws;

c)提取集合Ws中每個(gè)模型參數(shù)的低維代理向量,得到異常檢測(cè)模型的訓(xùn)練集Dt;

d)對(duì)β-VAE異常檢測(cè)模型進(jìn)行即時(shí)訓(xùn)練;

e)將全局模型w0分發(fā)給每個(gè)客戶端進(jìn)行迭代訓(xùn)練;

f)客戶端k(k=1,2,…,n)根據(jù)第t輪迭代的全局模型wt-1,訓(xùn)練本地?cái)?shù)據(jù)集,獲得局部模型wtk;

g)每個(gè)客戶端將局部模型上傳到服務(wù)器端;

h)服務(wù)器端使用β-VAE異常檢測(cè)模型識(shí)別并移除異常更新;

i)使用FedAvg算法對(duì)正常更新進(jìn)行聚合,將聚合得到的全局模型wt分發(fā)給客戶端;

j)重復(fù)步驟f)~i),直至全局模型收斂。

本文提出的異常檢測(cè)模型的即時(shí)訓(xùn)練方法涉及步驟a)~e),將在2.1節(jié)中詳細(xì)闡述。步驟h)的異常檢測(cè)過程將在2.2節(jié)中詳細(xì)闡述。

2.1 異常檢測(cè)模型的即時(shí)訓(xùn)練方法

聯(lián)邦學(xué)習(xí)中,基于自編碼器的異常檢測(cè)模型的性能,受限于服務(wù)器端共享數(shù)據(jù)的數(shù)量和質(zhì)量。本文試圖尋找一種有效的訓(xùn)練方法,在共享數(shù)據(jù)受限的場景下依然可以訓(xùn)練出性能良好的異常檢測(cè)模型。對(duì)于異常檢測(cè)模型而言,其關(guān)鍵在于如何準(zhǔn)確識(shí)別出異常數(shù)據(jù)。為了實(shí)現(xiàn)這一目標(biāo),通常會(huì)使用異常分?jǐn)?shù)的均值作為動(dòng)態(tài)閾值來區(qū)分異常數(shù)據(jù)和正常數(shù)據(jù),在這個(gè)過程中,只需要保證異常數(shù)據(jù)和正常數(shù)據(jù)在異常分?jǐn)?shù)上具有一定的區(qū)分度即可。在無監(jiān)督學(xué)習(xí)中,異常檢測(cè)模型需要從訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)正常的行為模式,因此為了提高模型的準(zhǔn)確性和泛化能力,應(yīng)盡量確保訓(xùn)練數(shù)據(jù)具有更多與正常數(shù)據(jù)相似的特征。

在本文中,虛擬任務(wù)模型和真實(shí)任務(wù)模型的模型參數(shù)將作為異常檢測(cè)模型的輸入數(shù)據(jù)。由于服務(wù)器端持有的共享數(shù)據(jù)有限,虛擬任務(wù)模型無法充分訓(xùn)練以更新模型的大部分參數(shù)值,而其中的隨機(jī)值可能會(huì)影響異常檢測(cè)模型對(duì)正常數(shù)據(jù)潛在表示的學(xué)習(xí)。針對(duì)這個(gè)問題,本文試圖通過統(tǒng)一虛擬任務(wù)模型和真實(shí)任務(wù)模型的初始化參數(shù),以降低虛擬任務(wù)模型之間、虛擬任務(wù)模型與真實(shí)任務(wù)模型之間的隨機(jī)偏差,從而生成具有高度一致性特征的訓(xùn)練數(shù)據(jù)集。本文認(rèn)為,在服務(wù)器端共享數(shù)據(jù)有限的場景下,相同的初始化模型在同一個(gè)任務(wù)下訓(xùn)練得到的模型之間具有較高的相似度,不同的初始化模型在同一個(gè)任務(wù)下訓(xùn)練得到的模型之間具有較低的相似度。為了驗(yàn)證這一想法的正確性,在聯(lián)邦學(xué)習(xí)框架下,本文使用聯(lián)邦學(xué)習(xí)開源的基準(zhǔn)數(shù)據(jù)集LEAF提供的異構(gòu)MNIST數(shù)據(jù)集對(duì)LR模型進(jìn)行實(shí)驗(yàn)。

首先,初始化w*和wk(k=1,…,n)共n+1個(gè)模型參數(shù)。然后,模擬服務(wù)器端在小規(guī)模測(cè)試集上使用w*訓(xùn)練n個(gè)正常模型于集合T*={w*i|1≤i≤n},使用wk(k=1,…,n)訓(xùn)練n個(gè)正常模型于集合TK={wki|1≤i=k≤n},每個(gè)模型訓(xùn)練10輪,接下來,模擬真實(shí)客戶端在訓(xùn)練集上使用w*訓(xùn)練n個(gè)正常模型于集合TN={wNi|1≤i≤n}和n個(gè)異常模型于集合TA={wAi|1≤i≤n},每個(gè)模型訓(xùn)練100輪。最后,使用式(1)分別計(jì)算集合T*、TK與集合TN、TA之間的相似度:

sim(A,B)=1n2∑ni=1∑nj=111+d(ai,bj)(1)

其中:sim(A,B)代表集合A和B的相似度;d(ai,bj)代表模型ai和bj之間歐氏距離,ai∈A且bj∈B,本實(shí)驗(yàn)中n=50。

實(shí)驗(yàn)結(jié)果如表1所示。從表1中可以看出,相比于集合TK,集合T*與TN和TA相似度差異更大。表明集合T*中的模型具有更多可以區(qū)分集合TN和TA中模型的特征,這些特征與集合TN中的模型特征更為相似,從而為異常檢測(cè)模型提供了更有益的學(xué)習(xí)環(huán)境,使其能夠更好地學(xué)習(xí)集合TN中的正常模型的行為E5vujLJRrBzpiWMtRrZCHQ==模式。

因此,在聯(lián)邦學(xué)習(xí)中,可以通過使用相同初始化模型參數(shù)來減小虛擬任務(wù)模型之間的隨機(jī)差異,生成更穩(wěn)定的訓(xùn)練數(shù)據(jù)集。根據(jù)以上結(jié)論,本文提出一種異常檢測(cè)模型的即時(shí)訓(xùn)練方法。結(jié)合圖1,異常檢測(cè)模型的即時(shí)訓(xùn)練方法具體流程如下:服務(wù)器端在初始化全局模型w0后,使用該模型參數(shù)和有限的共享數(shù)據(jù)訓(xùn)練多個(gè)異構(gòu)的虛擬任務(wù)模型,并收集虛擬任務(wù)模型參數(shù)。為了避免維度過高的問題,采用隨機(jī)采樣的方法提取出模型參數(shù)的低維代理向量,并作為訓(xùn)練數(shù)據(jù)訓(xùn)練異常檢測(cè)模型。完成訓(xùn)練之后,將w0分發(fā)給客戶端開始聯(lián)邦學(xué)習(xí)的協(xié)同訓(xùn)練過程??紤]到共享數(shù)據(jù)有限,為了防止虛擬任務(wù)模型和異常檢測(cè)模型過擬合,同時(shí)減少服務(wù)器端的計(jì)算量,訓(xùn)練過程只進(jìn)行若干輪次。此外,由于服務(wù)器端獲取的共享數(shù)據(jù)質(zhì)量無法保證,所以服務(wù)器端訓(xùn)練的多個(gè)虛擬任務(wù)模型應(yīng)當(dāng)具有異構(gòu)性。

基于自編碼器的異常檢測(cè)模型[18,19]在特定的環(huán)境和條件下訓(xùn)練完成后,可以重復(fù)使用并具有一定的穩(wěn)定性。然而,當(dāng)環(huán)境和條件發(fā)生變化時(shí),該模型的可用性可能會(huì)受到影響,并且重新訓(xùn)練模型需要耗費(fèi)大量的時(shí)間和資源。相比之下,本文的訓(xùn)練方法具有即時(shí)性和靈活性,在任務(wù)模型和相關(guān)參數(shù)確定后,只需要使用少量的共享數(shù)據(jù)進(jìn)行一次簡單的訓(xùn)練即可。

由于異常檢測(cè)模型的訓(xùn)練集是從虛擬任務(wù)模型訓(xùn)練初期的參數(shù)集中提取的,這可能導(dǎo)致異常檢測(cè)模型過度擬合任務(wù)模型訓(xùn)練初期的參數(shù)。聯(lián)邦學(xué)習(xí)的協(xié)同訓(xùn)練過程在異常檢測(cè)模型訓(xùn)練完成后開始,隨著迭代次數(shù)的增加,由于訓(xùn)練數(shù)據(jù)和學(xué)習(xí)率等因素的影響,模型參數(shù)的變化逐漸增大,使得每一輪的模型參數(shù)和訓(xùn)練初期的模型參數(shù)相差越來越大,導(dǎo)致正常更新的異常分?jǐn)?shù)逐漸上升。一般情況下,異常更新試圖縮小與正常模型的差異,異常更新的異常分?jǐn)?shù)也會(huì)隨之增長,并不會(huì)影響基于動(dòng)態(tài)閾值的分類方法的準(zhǔn)確性。

2.2 基于β-VAE的異常檢測(cè)模型

利用上述訓(xùn)練方法中的數(shù)據(jù)集生成方式,可以得到與真實(shí)客戶端的模型更新更相似的虛擬模型更新,在此基礎(chǔ)上,使用基于歐氏距離的相似性檢測(cè)算法來識(shí)別異常更新。然而,這種無監(jiān)督方法在面對(duì)高維數(shù)據(jù)的情況下缺乏效率,并且在識(shí)別異常更新中潛在異常因子方面存在難度。為了解決這些問題,本文采用了數(shù)據(jù)降維技術(shù)和特征提取的技術(shù),以有效應(yīng)對(duì)上述挑戰(zhàn)。VAE[23]是一個(gè)具備數(shù)據(jù)降維和特征提取功能的無監(jiān)督神經(jīng)網(wǎng)絡(luò)模型,編碼器模塊將原始數(shù)據(jù)x投影到低維嵌入z,然后解碼器模塊從這些低維嵌入重建原始數(shù)據(jù)。異常數(shù)據(jù)的重建誤差會(huì)顯著大于正常數(shù)據(jù),因而常被用于數(shù)據(jù)的異常檢測(cè)[24]。首先,原始數(shù)據(jù)x通過編碼器近似得到后驗(yàn)分布q(z|x)。再選取具有獨(dú)立特性的高斯分布作為先驗(yàn)分布p(z)~N(0,1),從中采樣得到符合后驗(yàn)分布的潛在變量z,即z~q(z|x)。最后將潛在變量z輸入解碼器近似生成分布pθ(x|z),采樣得到重建數(shù)據(jù)。和θ分別是編碼器和解碼器的模型參數(shù)。VAE的損失函數(shù)如式(2)所示。

L(x)=Euclid Math TwoEApq(z|x)[log pθ(x|z)]-DKL(q(z|x)‖p(z))(2)

其中:-DKL(q(z|x)‖p(z))稱為KL散度項(xiàng),反映先驗(yàn)分布p(z)和后驗(yàn)分布q(z|x)之間的相似性,具有獨(dú)立特性的先驗(yàn)分布p(z),鼓勵(lì)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到可分離的潛在變量表示z,在一定程度上具備了解耦的性能。為了加強(qiáng)模型對(duì)數(shù)據(jù)的有效解耦,Higgins等人[25]提出了β-VAE模型,在VAE的損失函數(shù)中增加了一個(gè)大于1的超參數(shù)β,進(jìn)一步約束模型對(duì)潛在變量的學(xué)習(xí),提升解耦性能,鼓勵(lì)分解更多的潛在表征[26]。β-VAE的損失函數(shù)如式(3)所示。

L(x)=Euclid Math TwoEApq(z|x)[log pθ(x|z)]-βDKL(q(z|x)‖p(z))(3)

本文基于β-VAE設(shè)計(jì)異常檢測(cè)模型,在聯(lián)邦學(xué)習(xí)協(xié)同訓(xùn)練開始前,在使用2.1節(jié)的數(shù)據(jù)集生成方式得到穩(wěn)定的訓(xùn)練數(shù)據(jù)集上,以式(3)為損失函數(shù),對(duì)異常檢測(cè)模型進(jìn)行訓(xùn)練。

在模型檢測(cè)階段,將客戶端上傳的模型更新的低維代理向量xtest輸入到編碼器中并映射到潛在空間得到低維嵌入z,再利用解碼器重建出test。對(duì)于異常模型更新,β-VAE難以有效地縮小輸入xtest和重構(gòu)輸出test之間的誤差以及后驗(yàn)分布q(z|xtest)和先驗(yàn)分布p(z)之間的分布距離,因此本文使用損失函數(shù)值作為給定模型更新的異常分?jǐn)?shù)。通過計(jì)算輸入xtest和重構(gòu)輸出的test之間的均方誤差(mean square error,MSE),得到重構(gòu)分?jǐn)?shù)Scorerecon,如式(4)所示。

Scorerecon=MSE(xtest,test)(4)

通過計(jì)算后驗(yàn)分布q(z|xtest)和先驗(yàn)分布p(z)之間的KL散度,得到KL分?jǐn)?shù)ScoreKL,如式(5)所示。

ScoreKL=βKL(q(z|xtest)‖p(z))(5)

結(jié)合上述兩種分?jǐn)?shù)得到最終的異常分?jǐn)?shù)Scoreano。

Scoreano=Scorerecon+ScoreKL(6)

本文將檢測(cè)閾值設(shè)置為所有異常分?jǐn)?shù)的平均值,異常分?jǐn)?shù)高于閾值的更新被視為異常更新。參數(shù)β的大小影響著異常檢測(cè)模型的訓(xùn)練和檢測(cè)。當(dāng)增大β時(shí),目標(biāo)函數(shù)中的重建誤差項(xiàng)所占的比重減小,而KL散度項(xiàng)所占的比重增大。這意味著模型更加注重優(yōu)化潛在空間的結(jié)構(gòu),而不是簡單地通過最小化重建誤差來學(xué)習(xí)潛在變量。在檢測(cè)階段,高β值一定程度上減弱了重構(gòu)分?jǐn)?shù)的正常增長對(duì)異常分?jǐn)?shù)的影響,解決了使用本文的即時(shí)訓(xùn)練方法可能導(dǎo)致的問題。因此,適當(dāng)增大β的值,對(duì)提升算法的魯棒性和穩(wěn)定性具有重要作用。

由于修改后的訓(xùn)練目標(biāo)懲罰了重構(gòu)質(zhì)量,高β值可能會(huì)導(dǎo)致重構(gòu)質(zhì)量的下降[27],但是該模型的主要目標(biāo)并非僅僅是重建輸入數(shù)據(jù),而更為關(guān)鍵的是提高對(duì)潛在變異因素的辨別能力。

3 實(shí)驗(yàn)及分析

3.1 實(shí)驗(yàn)設(shè)置

本文使用三個(gè)訓(xùn)練任務(wù)來評(píng)價(jià)所提算法在非獨(dú)立同分布場景下對(duì)拜占庭攻擊和后門攻擊的魯棒性。第一個(gè)訓(xùn)練任務(wù)是使用LR模型對(duì)MNIST數(shù)據(jù)集[28]進(jìn)行分類。本文將MNIST數(shù)據(jù)集分布到100個(gè)客戶端中,每個(gè)客戶端只擁有兩個(gè)標(biāo)簽的樣本,以模擬數(shù)據(jù)非獨(dú)立同分布的情況。在每一輪通信中,隨機(jī)選取50個(gè)客戶端參與聚合,每個(gè)客戶端使用0.01的學(xué)習(xí)率訓(xùn)練5輪。第二個(gè)訓(xùn)練任務(wù)是使用CNN模型對(duì)FEMNIST(federated extended MNIST)數(shù)據(jù)集[29]進(jìn)行分類。FEMNIST數(shù)據(jù)集是通過基于不同的手寫作者對(duì)extended MNIST中的數(shù)據(jù)進(jìn)行分區(qū)來構(gòu)建的,每個(gè)客戶端只擁有一個(gè)作者的手寫數(shù)據(jù),符合數(shù)據(jù)的非獨(dú)立同分布。在每一輪通信中,隨機(jī)選取30%的客戶端參與聚合,每個(gè)客戶端使用0.01的學(xué)習(xí)率訓(xùn)練5輪。第三個(gè)訓(xùn)練任務(wù)是使用RNN模型對(duì)Shakespeare數(shù)據(jù)集[1,29]進(jìn)行字符預(yù)測(cè)。Shakespeare數(shù)據(jù)集是由莎士比亞完整作品[30]構(gòu)建的數(shù)據(jù)集,每個(gè)客戶端擁有一個(gè)角色的臺(tái)詞數(shù)據(jù),符合數(shù)據(jù)的非獨(dú)立同分布。在每一輪通信中,隨機(jī)選取30%的客戶端參與聚合,每個(gè)客戶端使用0.8的學(xué)習(xí)率訓(xùn)練1輪。

本文使用的實(shí)驗(yàn)數(shù)據(jù)全部來自于聯(lián)邦學(xué)習(xí)開源的基準(zhǔn)數(shù)據(jù)集LEAF[29],具體統(tǒng)計(jì)信息如表2所示。

在異常檢測(cè)模型訓(xùn)練階段,從測(cè)試數(shù)據(jù)集中選取5%的數(shù)據(jù)用于虛擬客戶端的訓(xùn)練,虛擬客戶端使用相同的參數(shù)配置訓(xùn)練10輪,從模型更新中提取低維代理向量作為異常檢測(cè)模型的訓(xùn)練數(shù)據(jù)。使用0.003的學(xué)習(xí)率和0.000 1的權(quán)重衰退值對(duì)β-VAE模型訓(xùn)練10輪。攻擊者通常需要在攻擊成功率和攻擊效果之間進(jìn)行權(quán)衡,為了增強(qiáng)攻擊效果,異常更新往往需要具備更多或更強(qiáng)的異常因子,以盡可能讓全局模型偏離正常模型,但這也會(huì)增加被服務(wù)器端檢測(cè)出的風(fēng)險(xiǎn)。例如在同值攻擊中,Gu等人[19]將異常模型參數(shù)全部設(shè)置為100,而正常模型參數(shù)往往都較小,以至于這種攻擊的攻擊效果良好但隱蔽性較差,以此來證明所提算法在防御投毒攻擊的優(yōu)越性并不合適。因此,本實(shí)驗(yàn)的同值攻擊將異常模型參數(shù)全部設(shè)置為0,一方面保留異常特征,另一方面加強(qiáng)異常更新的隱蔽性。本文的其他攻擊模式與文獻(xiàn)[18]中描述的類似。

為了驗(yàn)證所提算法對(duì)拜占庭攻擊和后門攻擊的防御性能,本文采用任務(wù)模型的準(zhǔn)確率作為實(shí)驗(yàn)的主要評(píng)價(jià)指標(biāo)。由于后門攻擊只針對(duì)某些特定的子任務(wù),對(duì)主任務(wù)的準(zhǔn)確率影響較小,所以使用后門攻擊的成功率作為額外的評(píng)價(jià)指標(biāo)。

3.2 實(shí)驗(yàn)結(jié)果及分析

將本文算法與經(jīng)典聯(lián)邦學(xué)習(xí)算法FedAvg以及多種聯(lián)邦學(xué)習(xí)防御方法進(jìn)行對(duì)比。傳統(tǒng)方法包括基于歐氏距離的GeoMed方法和Krum方法?;谧跃幋a器的異常檢測(cè)方法包括Fedvae[18]和Fedcvae[19]。為確保實(shí)驗(yàn)結(jié)果的可靠性,本文進(jìn)行了一系列實(shí)驗(yàn),涉及數(shù)據(jù)集、攻擊方式、防御策略以及惡意客戶端占比等多個(gè)變量。每個(gè)變量均包含多個(gè)取值。對(duì)于每一組變量取值,都進(jìn)行了三次獨(dú)立實(shí)驗(yàn),并以這三次實(shí)驗(yàn)結(jié)果的均值作為該組變量取值對(duì)應(yīng)的實(shí)驗(yàn)結(jié)果,以提高實(shí)驗(yàn)結(jié)果的穩(wěn)定性和可信度。具體而言,本文考慮了三種拜占庭攻擊,分別是噪聲攻擊、符號(hào)翻轉(zhuǎn)攻擊和同值攻擊。分別在惡意客戶端占比為30%和50%兩種環(huán)境下評(píng)估本文算法的性能。除此之外,本文還評(píng)估了各種算法在MNIST數(shù)據(jù)集下面對(duì)后門攻擊的魯棒性。實(shí)驗(yàn)基于云環(huán)境,使用Python 3.7下PyTorch框架進(jìn)行模型搭建。主要硬件參數(shù)為CPU Intel Xeon Platinum 8350 C,內(nèi)存42 GB,GPU NVIDIA GeForce RTX 3090,12 GB顯存。

噪聲攻擊,惡意客戶端將高斯噪聲添加到模型參數(shù)中,即wk=k+ε,其中k是第k個(gè)客戶端訓(xùn)練得到的真實(shí)模型參數(shù),是一個(gè)來自高斯分布的向量。在本實(shí)驗(yàn)中,~N(0,0.1)。實(shí)驗(yàn)結(jié)果如圖2所示,在附加噪聲攻擊下,基于自編碼器的異常更新檢測(cè)算法的性能相近,而本文算法在MNIST數(shù)據(jù)集和FEMNIST數(shù)據(jù)集中表現(xiàn)得更好,任務(wù)模型準(zhǔn)確率平均提升了約0.7%和0.8%,在Shakespeare數(shù)據(jù)集上的性能略低于Fedvae。GeoMed在三個(gè)數(shù)據(jù)集獲得的準(zhǔn)確率均優(yōu)于Fed-Avg和Krum,這表明相較于其他傳統(tǒng)算法,GeoMed對(duì)噪聲攻擊具有更強(qiáng)的魯棒性。

符號(hào)翻轉(zhuǎn)攻擊,惡意客戶端翻轉(zhuǎn)其模型參數(shù)的符號(hào),即wk=σk,其中k是真實(shí)模型參數(shù),σ是一個(gè)常數(shù)。在本實(shí)驗(yàn)中,σ=-1。實(shí)驗(yàn)結(jié)果如圖3所示,在本文算法下,任務(wù)模型獲得了更快的收斂速度和更高的準(zhǔn)確率。相較于Fedvae,本文算法在MNIST數(shù)據(jù)集和FEMNIST數(shù)據(jù)集上的任務(wù)模型準(zhǔn)確率分別平均提升了約0.3%和3%。在Shakespeare數(shù)據(jù)集上,F(xiàn)edvae和Fedcvae的任務(wù)模型準(zhǔn)確率不穩(wěn)定,并且只有30%左右,甚至比Krum算法的表現(xiàn)還要差。而Fedcvae在三個(gè)深度學(xué)習(xí)方法中的效果最差,F(xiàn)edcvae在Fedvae的基礎(chǔ)上添加了每一輪的時(shí)間信息,試圖讓自編碼器學(xué)習(xí)到更多知識(shí),但這種方法增強(qiáng)了時(shí)間信息對(duì)異常分?jǐn)?shù)的影響,減弱了原始數(shù)據(jù)的重構(gòu)分?jǐn)?shù)對(duì)異常分?jǐn)?shù)的影響,進(jìn)而降低了異常檢測(cè)的性能。GeoMed在惡意客戶端占比不同的場景下,模型準(zhǔn)確率表現(xiàn)出隨惡意客戶端占比提高而下降的趨勢(shì),原因在于惡意攻擊者試圖移動(dòng)所有更新的幾何中心遠(yuǎn)離真實(shí)的中心。在惡意客戶端占比較高的場景下,Krum通過選取與其他模型相似度最高的模型作為全局模型,在一定程度上可以保證模型準(zhǔn)確率的穩(wěn)定性。

同值攻擊,惡意客戶端將模型參數(shù)直接修改為wk=c1,其中1∈Euclid ExtraaBpd是一個(gè)全1的向量,c是一個(gè)常數(shù)。在本實(shí)驗(yàn)中,c=0。實(shí)驗(yàn)結(jié)果如圖4所示,在本文算法下,任務(wù)模型依舊獲得了穩(wěn)定的收斂速度和準(zhǔn)確率,而Fedvae和Fedcvae在FEMNIST數(shù)據(jù)集和Shakespeare數(shù)據(jù)集上的準(zhǔn)確率穩(wěn)定在5%和18%。這是因?yàn)樵谕倒糁?,惡意客戶端將模型參?shù)設(shè)置為0,則可能出現(xiàn)異常更新反而獲得更小的異常分?jǐn)?shù)的情況。在使用基于動(dòng)態(tài)閾值的分類方法進(jìn)行異常檢測(cè)時(shí),就會(huì)將異常更新判定為正常的更新,將正常更新判定為異常的更新。如果異常檢測(cè)結(jié)果完全錯(cuò)誤,那么全局模型的參數(shù)將被竄改成0??蛻舳穗y以執(zhí)行模型參數(shù)的梯度下降算法,最終導(dǎo)致全局模型發(fā)散。在惡意客戶端占比為50%的場景下,GeoMed和Krum在FEMNIST數(shù)據(jù)集和Shakespeare數(shù)據(jù)集上同樣喪失了防御能力,這表明全0的模型更新不僅會(huì)使得所有更新的幾何中心遠(yuǎn)離真實(shí)的中心,還會(huì)增加異常更新與其他模型更新的相似性度量值,導(dǎo)致GeoMed和Krum計(jì)算或選擇了異常的模型作為全局模型。

后門攻擊是一種定向的模型投毒攻擊[5]。在后門攻擊中,惡意客戶端的目標(biāo)是在保證主任務(wù)的準(zhǔn)確率的同時(shí),誘導(dǎo)目標(biāo)子任務(wù)的失敗。例如,在圖像分類任務(wù)中,后門攻擊通過將標(biāo)簽為“7”的圖像錯(cuò)誤標(biāo)記為“5”,導(dǎo)致模型在標(biāo)簽為“7”的圖像上的錯(cuò)誤分類。但是由于聯(lián)邦學(xué)習(xí)的客戶端很多,參數(shù)聚合時(shí)抵消了后門攻擊的大部分貢獻(xiàn),這種樸素的后門攻擊難以成功植入[6]。本實(shí)驗(yàn)使用基于放大模型參數(shù)的模型替換攻擊,將后門模型的權(quán)重按比例增大,提高攻擊成功率。在MNIST數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如圖5所示。

如圖5所示,在基于自編碼器的深度學(xué)習(xí)算法下的任務(wù)模型都獲得了較高的準(zhǔn)確率和較低的后門成功率,且在本文算法下,任務(wù)模型擁有較高的準(zhǔn)確率和較快的收斂速度,后門攻擊的成功率更低。雖然GeoMed獲得較高的準(zhǔn)確率,但后門成功率并不穩(wěn)定,表明GeoMed不能完全消除后門攻擊對(duì)子任務(wù)的影響。Krum無法識(shí)別出異常模型更新中隱藏的后門攻擊,因此任務(wù)模型的后門成功率較高。

為了探究本文算法中重要參數(shù)β的影響,設(shè)計(jì)算法在FEMNIST數(shù)據(jù)集上對(duì)同值攻擊下參數(shù)β的影響進(jìn)行了分析實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖6所示,參數(shù)β取值分別為6、8和8.5時(shí),全局模型準(zhǔn)確率分別在第30輪、第40輪和第110輪達(dá)到第一峰值后驟降,之后緩慢上升到達(dá)第二峰值后再次驟降,反復(fù)循環(huán),最終生成了如圖6所示的峰形折線圖。而每次達(dá)到的峰值呈現(xiàn)下降趨勢(shì),最終降至最低。準(zhǔn)確率曲線出現(xiàn)這種走勢(shì)主要是兩個(gè)原因疊加造成的:一是本文的訓(xùn)練方法具有一定的局限性,二是同值攻擊本身具有特殊的攻擊形式。

首先,異常檢測(cè)模型的訓(xùn)練數(shù)據(jù)相對(duì)于測(cè)試數(shù)據(jù)并不是無偏的,虛擬任務(wù)模型只完成了初期的訓(xùn)練,導(dǎo)致異常檢測(cè)模型過于適應(yīng)任務(wù)模型訓(xùn)練初期的參數(shù)。在異常檢測(cè)階段,隨著迭代次數(shù)的增加,正常更新的異常分?jǐn)?shù)緩慢增長。其次,在同值攻擊環(huán)境下,每一輪迭代的異常更新保持不變,異常分?jǐn)?shù)穩(wěn)定在一個(gè)較高的分?jǐn)?shù)上。最終,正常更新的異常分?jǐn)?shù)呈現(xiàn)上升追趕的趨勢(shì),在某一時(shí)刻超過異常更新的異常分?jǐn)?shù),導(dǎo)致這一輪的檢測(cè)錯(cuò)誤率較高,全局模型準(zhǔn)確率驟降。下一輪的正常更新的重構(gòu)分?jǐn)?shù)重新回到較低的值,異常檢測(cè)模型可以再次準(zhǔn)確識(shí)別,全局模型準(zhǔn)確率緩慢上升。伴隨著多次檢測(cè)失敗,正常更新的異常因子逐漸增多,導(dǎo)致全局模型完全被異常更新污染,最終無法收斂。本文通過適當(dāng)增大參數(shù)β的值,試圖減少重構(gòu)分?jǐn)?shù)的正常增長對(duì)異常分?jǐn)?shù)的影響,對(duì)異常檢測(cè)模型的即時(shí)訓(xùn)練方法進(jìn)行修正。圖6的實(shí)驗(yàn)結(jié)果也證實(shí)了這一方法的有效性,通過逐漸增大參數(shù)β的值,曲線的第一次驟降時(shí)刻逐漸后延,當(dāng)β取值為10時(shí),準(zhǔn)確率持續(xù)上升并保持穩(wěn)定。這是因?yàn)槿帜P鸵呀?jīng)逐漸收斂,正常模型更新的異常分?jǐn)?shù)也趨于穩(wěn)定,準(zhǔn)確率不會(huì)再出現(xiàn)驟降的情況。

根據(jù)上述分析,適度增大β值可以提高算法的穩(wěn)定性和魯棒性。另外,任務(wù)模型的復(fù)雜度、本地訓(xùn)練的次數(shù)等影響模型收斂快慢的因素,也可能會(huì)影響β的取值。針對(duì)不同的任務(wù)模型,β應(yīng)當(dāng)如何取值是今后工作需要關(guān)注的問題。

4 結(jié)束語

本文主要針對(duì)現(xiàn)有聯(lián)邦學(xué)習(xí)異常檢測(cè)框架中自編碼器模型存在的訓(xùn)練困難以及異常檢測(cè)能力不足等問題,提出一種新的聯(lián)邦學(xué)習(xí)系統(tǒng)異常更新檢測(cè)算法。本文提出了一種異常檢測(cè)模型的即時(shí)訓(xùn)練方法,通過提高訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)之間的相似度來優(yōu)化訓(xùn)練數(shù)據(jù)集,使異常檢測(cè)模型學(xué)習(xí)到更有利于正常數(shù)據(jù)的數(shù)據(jù)特征。同時(shí),在保證可用性的前提下,有效降低了服務(wù)器端對(duì)共享數(shù)據(jù)和算力的需求。為了進(jìn)一步提高聯(lián)邦學(xué)習(xí)框架的魯棒性,本文利用β-VAE模型優(yōu)異的特征解耦和分離能力設(shè)計(jì)了異常檢測(cè)模型,從而提高了識(shí)別變異因子的能力。實(shí)驗(yàn)結(jié)果表明,相較于各種防御算法,本文算法在任務(wù)模型準(zhǔn)確率方面表現(xiàn)更佳,驗(yàn)證了本文算法的有效性。未來將考慮針對(duì)更復(fù)雜的攻擊方式設(shè)計(jì)自適應(yīng)的防御算法。

參考文獻(xiàn):

[1]McMahan B, Moore E, Ramage D, et al. Communication-efficient learning of deep networks from decentralized data[C]//Proc of the 20th International Conference on Artificial Intelligence and Statistics. San Francisco: Morgan Kaufmann Publishers, 2017: 1273-1282.

[2]Li Li, Fan Yuxi, Lin Kuoyi. A survey on federated learning[C]//Proc of International Conference on Control & Automation. Pisca-taway,NJ: IEEE Press, 2020: 791-796.

[3]Kairouz P, McMahan H B, Avent B, et al. Advances and open problems in federated learning[J]. Foundations and Trends in Machine Learning, 2021, 14(1-2): 1-210.

[4]孫爽, 李曉會(huì), 劉妍, 等. 不同場景的聯(lián)邦學(xué)習(xí)安全與隱私保護(hù)研究綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(12): 3527-3534. (Sun Shuang, Li Xiaohui, Liu Yan, et al. Survey on security and privacy protection in different scenarios of federated learning[J]. Application Research of Computers, 2021, 38(12): 3527-3534.)

[5]Bhagoji A N, Chakraborty S, Mittal P, et al. Analyzing federated learning through an adversarial lens[C]//Proc of International Conference on Machine Learning.[S.l.]: JMLR.org. 2019: 634-643.

[6]Bagdasaryan E, Veit A, Hua Y, et al. How to backdoor federated learning[C]//Proc of International Conference on Artificial Intelligence and Statistics. Cambridge, MA: MIT Press, 2020: 2938-2948.

[7]Cretu G F, Stavrou A, Locasto M E, et al. Casting out demons: sanitizing training data for anomaly sensors[C]//Proc of IEEE Symposium on Security and Privacy. Piscataway, NJ: IEEE Press, 2008: 81-95.

[8]Shen Yanyao, Sanghavi S. Learning with bad training data via iterative trimmed loss minimization[C]//Proc of International Conference on Machine Learning.[S.l.]: JMLR.org. 2019: 5739-5748.

[9]Tran B, Li J, Madry A. Spectral signatures in backdoor attacks[C]//Proc of Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2018: 8000-8010.

[10]Koh P W, Steinhardt J, Liang P. Stronger data poisoning attacks break data sanitization defenses[J]. Machine Learning, 2022, 111(1): 1-47.

[11]Sun Jingwei, Li Ang, DiValentin L, et al. FL-WBC: enhancing robustness against model poisoning attacks in federated learning from a client perspective[C]//Proc of the Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2021: 12613-12624.

[12]Lu Shiwei, Li Ruihu, Chen Xuan, et al. Defense against local model poisoning attacks to Byzantine-robust federated learning[J]. Frontiers of Computer Science, 2022, 16(6): 166337.

[13]Chen Yudong, Su Lili, Xu Jiaming. Distributed statistical machine lear-ning in adversarial settings: Byzantine gradient descent[C]//Proc of ACM on Measurement and Analysis of Computing Systems.New York:ACM Press, 2017: 1-25.

[14]Blanchard P, El Mhamdi E M, Guerraoui R, et al. Machine learning with adversaries: Byzantine tolerant gradient descent[C]//Proc of Annual Conference on Neural Information Processing Systems. Amsterdam: Elsevier, 2017.

[15]Zhao Ying, Chen Junjun, Zhang Jiale, et al. PDGAN: A novel poisoning defense method in federated learning using generative adversa-rial network[C]//Proc of International Conference on Algorithms and Architectures for Parallel Processing. Cham: Springer, 2019: 595-609.

[16]Sattler F, Müller K R, Samek W. Clustered federated learning: model-agnostic distributed multitask optimization under privacy constraints[J]. IEEE Trans on Neural Networks and Learning Systems, 2020, 32(8): 3710-3722.

[17]Sattler F, Müller K R, Wiegand T, et al. On the Byzantine robustness of clustered federated learning[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway,NJ: IEEE Press, 2020: 8861-8865.

[18]Li Suyi, Cheng Yong, Wang Wei, et al. Learning to detect malicious clients for robust federated learning[EB/OL]. (2020-02-01) . https://arxiv.org/pdf/2002.00211.pdf.

[19]Gu Zhipin, Yang Yuexiang. Detecting malicious model updates from federated learning on conditional variational autoencoder[C]//Proc of IEEE International Parallel and Distributed Processing Symposium. Piscataway, NJ: IEEE Press, 2021: 671-680.

[20]McMahan H B, Moore E, Ramage D, et al. Federated learning of deep networks using model averaging[EB/OL]. (2016-02-17) . https://arxiv.org/pdf/1602.05629.pdf.

[21]Konecˇny J, McMahan H B, Ramage D, et al. Federated optimization: distributed machine learning for on-device intelligence[EB/OL]. (2016-10-08) . https://arxiv.org/pdf/1610.02527.pdf.

[22]Feng Siwei, Yu Han. Multi-participant multi-class vertical federated learning[EB/OL]. (2020-01-30) . https://arxiv.org/pdf/2001.11154.pdf.

[23]Kingma D P, Welling M. Auto-encoding variational Bayes[EB/OL]. (2022-12-10) . https://arxiv.org/pdf/1312.6114.pdf.

[24]An J, Cho S. Variational autoencoder based anomaly detection using reconstruction probability[J]. Special Lecture on IE, 2015, 2(1): 1-18.

[25]Higgins I, Matthey L, Pal A, et al. β-VAE: learning basic visual concepts with a constrained variational framework[EB/OL]. (2022-07-22). https://openreview. net/forum?id=Sy2fzU9gl.

[26]Burgess C P, Higgins I, Pal A, et al. Understanding disentangling in β-VAE[EB/OL]. (2018-04-10) . https://arxiv.org/pdf/1804.03599.pdf.

[27]Sikka H D. A deeper look at the unsupervised learning of disentangled representations in β-VAE from the perspective of core object recognition[D]. Cambridge, MA: Harvard University, 2020.

[28]LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

[29]Caldas S, Duddu S M K, Wu P, et al. Leaf: a benchmark for federated settings[EB/OL]. (2019-12-09) . https://arxiv.org/pdf/1812.01097.pdf.

[30]Shakespeare W. The complete works[M]. 1836.