国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

高效聯(lián)邦學(xué)習(xí):范數(shù)加權(quán)聚合算法

2024-05-24 17:07:14陳攀張恒汝閔帆
關(guān)鍵詞:隱私保護(hù)

陳攀 張恒汝 閔帆

摘 要:在聯(lián)邦學(xué)習(xí)中,跨客戶端的非獨(dú)立同分布(non-IID)數(shù)據(jù)導(dǎo)致全局模型收斂較慢,通信成本顯著增加?,F(xiàn)有方法通過收集客戶端的標(biāo)簽分布信息來確定本地模型的聚合權(quán)重,以加快收斂速度,但這可能會(huì)泄露客戶端的隱私。為了在不泄露客戶端隱私的前提下解決non-IID數(shù)據(jù)導(dǎo)致的收斂速度降低的問題,提出FedNA聚合算法。該算法通過兩種方法來實(shí)現(xiàn)這一目標(biāo)。第一,F(xiàn)edNA根據(jù)本地模型類權(quán)重更新的L1范數(shù)來分配聚合權(quán)重,以保留本地模型的貢獻(xiàn)。第二,F(xiàn)edNA將客戶端的缺失類對(duì)應(yīng)的類權(quán)重更新置為0,以緩解缺失類對(duì)聚合的影響。在兩個(gè)數(shù)據(jù)集上模擬了四種不同的數(shù)據(jù)分布進(jìn)行實(shí)驗(yàn)。結(jié)果表明,與FedAvg相比,F(xiàn)edNA算法達(dá)到穩(wěn)定狀態(tài)所需的迭代次數(shù)最多可減少890次,降低44.5%的通信開銷。FedNA在保護(hù)客戶端隱私的同時(shí)加速了全局模型的收斂速度,降低了通信成本,可用于需要保護(hù)用戶隱私且對(duì)通信效率敏感的場(chǎng)景。

關(guān)鍵詞:聯(lián)邦學(xué)習(xí);通信成本;隱私保護(hù);非獨(dú)立同分布;聚合;權(quán)重更新

中圖分類號(hào):TP181?? 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2024)03-008-0694-06

doi:10.19734/j.issn.1001-3695.2023.07.0327

Efficient federated learning:norm-weighted aggregation algorithm

Chen Pana,b,Zhang Hengrua,b,Min Fana,b

(a.School of Computer Science,b.Laboratory of Machine Learning,Southwest Petroleum University,Chengdu 610500,China)

Abstract:In federated learning,the non-independent and identically distributed(non-IID) data across clients leads to slower convergence of the global model and significantly increases communication costs.Existing methods collect information about the label distribution of clients to determine aggregation weights for local models,accelerating convergence,but this may leak clients privacy.To address the slower convergence caused by non-IID data without leaking clients privacy,this paper proposed the FedNA aggregation algorithm.FedNA achieved this goal in two ways.Firstly,it assigned aggregation weights based on the L1 norm of the class weight updates of local models to retain their contributions.Secondly,it set the class weight updates corresponding to missing classes at the clients to 0 to mitigate their impact on aggregation.Experiments were conducted under four different data distributions on two datasets.The results show that compared to FedAvg,the FedNA algorithm can reduce the number of iterations required to reach steady state by 890 at best,lowering communication costs by 44.5%.FedNA maintains clients privacy while accelerating the convergence of the global model and decreasing communication costs.It is suitable for situations that need to protect clients privacy and are sensitive to communication efficiency.

Key words:federated learning;communication cost;privacy protection;non-IID;aggregation;weight updates

0 引言

聯(lián)邦學(xué)習(xí)(federated learning,F(xiàn)L)[1~5]是一種分布式機(jī)器學(xué)習(xí)范式,旨在解決隱私保護(hù)和數(shù)據(jù)孤島問題[6]。FL結(jié)合本地計(jì)算和模型傳輸?shù)乃枷虢鉀Q中心化機(jī)器學(xué)習(xí)方法的隱私風(fēng)險(xiǎn)[7]。在訓(xùn)練過程中,客戶端將數(shù)據(jù)保存在本地,僅將本地模型訓(xùn)練得到的權(quán)重更新上傳到服務(wù)器。服務(wù)器將客戶端上傳的本地模型的權(quán)重更新進(jìn)行聚合以更新全局模型,然后將更新后的全局模型發(fā)送回客戶端作為新的本地模型。通過重復(fù)的本地訓(xùn)練和服務(wù)器聚合,最終得到一個(gè)最優(yōu)的全局模型。

FL系統(tǒng)中客戶端之間的數(shù)據(jù)通常是非獨(dú)立同分布(non-IID)[7]的。例如,客戶端A可能是一家小型醫(yī)院,主要收治年輕人,而客戶端B可能是一家大型綜合醫(yī)院,收治各個(gè)年齡段的患者。這兩個(gè)醫(yī)院的患者數(shù)據(jù)在年齡分布上存在明顯的差異。數(shù)據(jù)的non-IID會(huì)使FL的收斂速度受到很大影響,導(dǎo)致通信成本顯著增加。聚合方法在FL中起著重要作用,它對(duì)全局模型的收斂速度有著顯著的影響。FedAvg[2]是FL中常用的聚合算法,其核心思想是客戶端擁有的數(shù)據(jù)量越大,在模型聚合時(shí)賦予其本地模型的權(quán)重就越高。由于它沒有考慮在non-IID數(shù)據(jù)下不同本地模型的貢獻(xiàn)差異,所以具有較高的通信成本。FedCA-TDD[1]保留了不同本地模型的貢獻(xiàn),提高了FL的收斂速度,但其需要收集客戶端樣本的標(biāo)簽分布信息。出于隱私原因,服務(wù)器不應(yīng)從客戶端收集任何有關(guān)其本地訓(xùn)練樣本的信息。

實(shí)驗(yàn)發(fā)現(xiàn),客戶端上傳的本地模型權(quán)重更新的分類器部分能反映本地模型對(duì)全局模型的貢獻(xiàn)?;诖耍疚奶岢隽寺?lián)邦范數(shù)加權(quán)聚合(federated norm weighted aggregation,F(xiàn)edNA),它在不收集任何客戶端隱私數(shù)據(jù)的前提下,能夠降低FL的通信成本。FedNA根據(jù)每個(gè)本地模型對(duì)全局模型的貢獻(xiàn)大小,動(dòng)態(tài)確定其在聯(lián)邦聚合時(shí)的權(quán)重系數(shù)。具體來說,對(duì)于模型的特征提取器部分,貢獻(xiàn)被定義為客戶端訓(xùn)練數(shù)據(jù)的數(shù)據(jù)量。對(duì)于模型的分類器部分,貢獻(xiàn)被定義為模型類權(quán)重更新的L1范數(shù)。此外,如果客戶端的數(shù)據(jù)集缺失某些類別,則將對(duì)應(yīng)類別的權(quán)重更新置零,以減少其所帶來的負(fù)面影響。實(shí)驗(yàn)結(jié)果表明,F(xiàn)edNA與其他先進(jìn)方法相比,顯著降低了通信成本。

1 相關(guān)工作

1.1 聯(lián)邦學(xué)習(xí)

傳統(tǒng)的FL系統(tǒng)由K個(gè)客戶端和一個(gè)服務(wù)器組成,客戶端由[K]進(jìn)行索引??蛻舳薻擁有本地?cái)?shù)據(jù)集Dk,整個(gè)FL系統(tǒng)中的數(shù)據(jù)表示為D=∪k∈[K]Dk,其包含了C個(gè)類別的數(shù)據(jù)。FL系統(tǒng)的每一次迭代過程包含了客戶端選擇、本地模型訓(xùn)練、模型權(quán)重更新傳輸和服務(wù)器端聚合。在第t次迭代中,服務(wù)器將最新的全局模型ωtglobal分發(fā)給隨機(jī)選擇的U個(gè)由[U]t索引的客戶端。隨后,客戶端k∈[U]t使用本地?cái)?shù)據(jù)對(duì)模型進(jìn)行優(yōu)化,目標(biāo)函數(shù)為

ωt+1global=ωtglobal+∑k∈[U]t|Dk|∑k′∈[U]t|Dk′|Δωtk(2)

1.2 聯(lián)邦學(xué)習(xí)的非獨(dú)立同分布

現(xiàn)有的一些研究[2,9,10]表明,non-IID數(shù)據(jù)是FL的一個(gè)重大挑戰(zhàn)。由于用戶行為的多樣性,來自不同客戶端的訓(xùn)練數(shù)據(jù)存在顯著差異。例如,不同地區(qū)的植被數(shù)據(jù)由于維度、氣候等因素的影響,往往服從不同的分布。non-IID的數(shù)據(jù)會(huì)導(dǎo)致FL模型的準(zhǔn)確率降低,同時(shí)也會(huì)增加通信成本。

關(guān)于FL在non-IID數(shù)據(jù)上的模型準(zhǔn)確率的研究有很多。Zhao等人[11]提出在客戶端之間共享一個(gè)小的公共數(shù)據(jù)集,以緩解客戶端之間數(shù)據(jù)的non-IID,這與FL的初衷相悖[12~14]。與訓(xùn)練單個(gè)全局模型的方法不同,Arivazhagan等人[15]提出在每個(gè)客戶端上設(shè)計(jì)訓(xùn)練個(gè)性化模型,以緩解non-IID帶來的準(zhǔn)確率下降問題。Li等人[9]提出為客戶端的局部目標(biāo)函數(shù)添加一個(gè)近端項(xiàng),以提高整體收斂的穩(wěn)定性。Wang等人[16]設(shè)計(jì)了一種FL客戶端選擇機(jī)制,以獲得均勻的數(shù)據(jù)分布,提高模型的準(zhǔn)確率。

1.3 聯(lián)邦學(xué)習(xí)的通信成本

在FL中,客戶端和服務(wù)器之間需要不斷進(jìn)行數(shù)據(jù)傳輸,因此通信成本是一個(gè)挑戰(zhàn)。一些學(xué)者提出應(yīng)用模型壓縮技術(shù)來減少傳輸?shù)男畔⒘?,從而降低通信成本。Shi等人[17]提出將訓(xùn)練算法與局部計(jì)算、梯度稀疏Flexible Sparsification相結(jié)合,從而減少迭代的總數(shù)。Sattler等人[18]擴(kuò)展了現(xiàn)有的top-k梯度稀疏化,提出了Sparse Ternary Compression壓縮框架。Han等人[19]通過修剪、訓(xùn)練量化和霍夫曼編碼對(duì)DNN模型進(jìn)行深度壓縮。還有一些研究考慮發(fā)送不頻繁的權(quán)重更新。Gao等人[20]提出一種錯(cuò)誤補(bǔ)償雙壓縮機(jī)制的通信高效分布式SGD方法得到更低的通信復(fù)雜度。Nishio等人[21]提出選擇盡可能多的設(shè)備參與每次訓(xùn)練迭代,從而減少通信迭代的總數(shù)。此外,鄭賽等人[22]基于生成模型生成模擬數(shù)據(jù)實(shí)現(xiàn)一輪通信完成模型訓(xùn)練,減少了通信數(shù)量。Ma等人[1]提出了FedCA-TDD,基于類加權(quán)聚合策略提高了FL系統(tǒng)的收斂速度,降低了通信成本。

2 聯(lián)邦范數(shù)加權(quán)聚合

2.1 問題設(shè)置

考慮一個(gè)傳統(tǒng)的FL系統(tǒng),其中一個(gè)服務(wù)器和多個(gè)客戶端協(xié)作訓(xùn)練一個(gè)分類模型。從功能來看,分類模型可以看作是由特征提取θ和分類器w={wc}Cc=1組成,其中{wc}Cc=1稱為類權(quán)重(class weight)。整個(gè)分類模型的參數(shù)表示為ω={θ,w}。FL的一個(gè)主要特點(diǎn)是分布式環(huán)境下的頻繁通信。每輪訓(xùn)練迭代需要將模型權(quán)重更新從各客戶端發(fā)送到服務(wù)器,然后再將全局模型參數(shù)分發(fā)給各客戶端。客戶端數(shù)據(jù)間的non-IID導(dǎo)致通信成本的顯著增加。本文目標(biāo)是在維持模型性能的前提下減少模型參數(shù)傳輸來減輕通信開銷。最近的一項(xiàng)研究[23]表明,F(xiàn)L中的non-IID場(chǎng)景可以細(xì)分為特征分布偏斜、標(biāo)簽分布偏斜、不同特征下的概念轉(zhuǎn)移、不同標(biāo)簽下的概念轉(zhuǎn)移和數(shù)量偏斜五個(gè)類別。標(biāo)簽分布偏斜和數(shù)量偏斜是本文的主要關(guān)注點(diǎn)。

2.2 核心思想

在聯(lián)邦學(xué)習(xí)中,non-IID數(shù)據(jù)導(dǎo)致各客戶端對(duì)不同類別樣本的貢獻(xiàn)存在差異。具體而言,某一類樣本較豐富的客戶端對(duì)該類別的參數(shù)擬合貢獻(xiàn)更大。如何在不收集客戶端隱私數(shù)據(jù)的前提下在聚合時(shí)對(duì)客戶端的貢獻(xiàn)進(jìn)行保留是一個(gè)挑戰(zhàn)。為了探究類別權(quán)重更新在反映客戶端貢獻(xiàn)方面的潛力,本文進(jìn)行了實(shí)驗(yàn)研究。為簡(jiǎn)化問題,在有10個(gè)客戶端的FL系統(tǒng)中使用MNIST數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。可視化本地模型訓(xùn)練過程中的類權(quán)重更新{Δwc}Cc=1的L1范數(shù),如圖1所示。結(jié)果顯示,{Δwc}Cc=1的L1范數(shù)的模式與客戶端訓(xùn)練樣本標(biāo)簽分布的模式呈現(xiàn)出相似性。

基于此,從本地模型的類權(quán)重更新中提取本地模型對(duì)全局模型的貢獻(xiàn)。此外,先前的一些研究表明[24~26],客戶端訓(xùn)練樣本的標(biāo)簽分布或數(shù)量分布偏移的影響更多體現(xiàn)在模型中的分類器上,分類器對(duì)偏移更敏感。由此,本文對(duì)客戶端上傳的模型權(quán)重更新的特征提取器和分類器兩個(gè)部分,分別采用不同的方法確定權(quán)重進(jìn)行加權(quán)平均。在特征提取器部分,客戶端本地訓(xùn)練數(shù)據(jù)的數(shù)量定義為權(quán)重,這與FedAvg相似。在分類器部分,客戶端本地模型的類權(quán)重更新的L1范數(shù)定義為權(quán)重。通過類權(quán)重更新L1范數(shù)對(duì)分類器權(quán)重更新進(jìn)行加權(quán)平均,能夠保留本地模型對(duì)不同類別的貢獻(xiàn)。

此外,softmax函數(shù)在分類任務(wù)中發(fā)揮著重要作用。在訓(xùn)練過程中,當(dāng)輸入樣本標(biāo)簽為1時(shí),softmax將對(duì)應(yīng)類別的類權(quán)重推向該類別的特征中心,同時(shí)將其他類別的類權(quán)重拉離該類別特征中心。最終,各類別的類權(quán)重接近各自的特征中心,如圖2(a)所示。然而,在FL中,客戶端可能僅包含部分類別的訓(xùn)練樣本,將不存在的類別稱為客戶端的缺失類。因此,在客戶端的本地訓(xùn)練期間,對(duì)應(yīng)于缺失類的類權(quán)重可能出現(xiàn)偏移,如圖2(b)和(c)所示。圖中,不同顏色的小圓代表不同類別樣本的特征。圖(a)客戶端有所有類別的樣本,類權(quán)重接近特征中心;圖(b)和(c)客戶端缺少某些類別的樣本,類權(quán)重遠(yuǎn)離特征中心。缺失類的類權(quán)重更新會(huì)在聚合期間對(duì)模型收斂產(chǎn)生負(fù)面影響。因此,如果客戶端沒有某個(gè)類別的訓(xùn)練樣本,本文考慮將該類別對(duì)應(yīng)的類權(quán)重更新置0。

圖3顯示了FedNA和FedAvg在non-IID情況下的分類器部分的聚合結(jié)果。可以看出,F(xiàn)edNA能夠保留本地模型對(duì)每個(gè)類別的貢獻(xiàn),其聚合后的L1范數(shù)接近于本地模型類別權(quán)重更新的L1范數(shù)。同時(shí),F(xiàn)edNA僅依賴于客戶端上傳的模型參數(shù),不收集任何額外隱私數(shù)據(jù),避免了FedCA-TDD算法需要收集類別分布信息的隱私風(fēng)險(xiǎn),對(duì)用戶隱私提供了保護(hù)。雖然FedNA所使用的分類器的L1范數(shù)可以在一定程度上反映客戶端的標(biāo)簽分布,但這種反映具有很大的誤差,圖1也印證了這一點(diǎn)。

2.3 FedNA算法

FedNA算法對(duì)分類模型的兩個(gè)部分使用不同的加權(quán)策略。對(duì)于特征提取器部分,客戶端本地訓(xùn)練樣本的數(shù)量決定權(quán)重;對(duì)于分類器部分,類權(quán)重更新的L1范數(shù)決定了其權(quán)重。客戶端k類權(quán)重的聚合權(quán)重定義如下:

3 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)設(shè)置

1)數(shù)據(jù)集

在MNIST[27]和EMNIST Balanced[28]數(shù)據(jù)集上評(píng)估了本文方法和基準(zhǔn)方法,數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。為了模擬真實(shí)世界的FL系統(tǒng),需要將數(shù)據(jù)集的訓(xùn)練數(shù)據(jù)按照一定策略分配給每個(gè)客戶端,每個(gè)客戶端都有自己的本地訓(xùn)練集。為了模擬FL中客戶端之間數(shù)據(jù)的non-IID場(chǎng)景,本文采用了如下兩種方案:

a)按照文獻(xiàn)[29,30]的方法對(duì)pc~Dirk(α)進(jìn)行采樣,并按照pc,k的比例隨機(jī)分配c類訓(xùn)練數(shù)據(jù)給客戶端k。non-iid(α)用于表示這種模擬方法,其中α用于控制non-IID的程度,較小的α值對(duì)應(yīng)更不平衡的數(shù)據(jù)分布。

b)首先將數(shù)據(jù)集中的數(shù)據(jù)按類別進(jìn)行排序,然后將這些數(shù)據(jù)分成100×s個(gè)分片。每個(gè)客戶端從這些分片中隨機(jī)選擇s個(gè)分片作為本地訓(xùn)練集。由于所有分片都具有相同的大小,所以客戶端具有相同數(shù)量的訓(xùn)練樣本。non-iid-bs(s)用于表示這種模擬方法,其中s用于控制客戶端擁有的分片數(shù)量,較小的s值對(duì)應(yīng)于更不平衡的數(shù)據(jù)分布。

2)FL系統(tǒng)設(shè)置

實(shí)驗(yàn)中,F(xiàn)L系統(tǒng)的默認(rèn)設(shè)置如表2所示??蛻舳吮镜赜?xùn)練使用隨機(jī)梯度下降優(yōu)化器進(jìn)行優(yōu)化,動(dòng)量參數(shù)設(shè)為0.5,損失函數(shù)為交叉熵。客戶端本地訓(xùn)練中使用了兩個(gè)自定義的CNN模型。第一個(gè)模型用于MNIST數(shù)據(jù)集的訓(xùn)練,其網(wǎng)絡(luò)結(jié)構(gòu)如表3所示,第二個(gè)更復(fù)雜的模型則用于EMNIST Balanced數(shù)據(jù)集的訓(xùn)練,其網(wǎng)絡(luò)架構(gòu)如表4所示。

3)評(píng)價(jià)指標(biāo)

本文采用了以下三個(gè)指標(biāo)評(píng)價(jià)本文方法與基準(zhǔn)方法。

a)全局模型的測(cè)試準(zhǔn)確性。即最后30次迭代的全局模型在測(cè)試數(shù)據(jù)集上的測(cè)試準(zhǔn)確率的均值和標(biāo)準(zhǔn)差,用于評(píng)估模型的全局表現(xiàn)。

b)首次到達(dá)預(yù)期準(zhǔn)確率所需的迭代次數(shù)。用于比較不同算法的收斂速度。

c)穩(wěn)定在預(yù)期準(zhǔn)確率所需的迭代次數(shù)。在數(shù)據(jù)為non-IID的情況下,F(xiàn)L訓(xùn)練過程中的測(cè)試準(zhǔn)確率會(huì)出現(xiàn)波動(dòng),所以需要考慮到達(dá)穩(wěn)定狀態(tài)所需的迭代次數(shù)。如果連續(xù)10次記錄的測(cè)試準(zhǔn)確率都超過了預(yù)期準(zhǔn)確率,則認(rèn)為模型穩(wěn)定在預(yù)期準(zhǔn)確率,到達(dá)穩(wěn)定狀態(tài)。

預(yù)期準(zhǔn)確率的設(shè)置遵循實(shí)驗(yàn)結(jié)果。不同數(shù)據(jù)集在不同分布下,本文取各方法最后30次迭代的平均測(cè)試準(zhǔn)確率的最小值,然后保留兩位有效數(shù)字作為預(yù)期準(zhǔn)確率。表5展示了不同數(shù)據(jù)集在不同分布下的預(yù)期準(zhǔn)確率。

3.2 實(shí)驗(yàn)結(jié)果

本文在兩個(gè)數(shù)據(jù)集上的四種數(shù)據(jù)分布下對(duì)FedNA和基線方法進(jìn)行了評(píng)估,測(cè)試準(zhǔn)確率曲線如圖4~7所示。其中,F(xiàn)edNA w/o ZG表示未使用權(quán)重更新置零(ZG)的FedNA。從圖4~7可知,在收斂速度方面,F(xiàn)edNA表現(xiàn)明顯優(yōu)于FedAvg,與FedCA-TDD幾乎相同。值得注意的是,F(xiàn)edNA無須收集客戶端本地?cái)?shù)據(jù)的標(biāo)簽分布。FedNA w/o ZG的收斂速度也優(yōu)于FedAvg,這對(duì)于那些對(duì)隱私要求較高的場(chǎng)景非常有幫助。此外,隨著non-IID程度的增加,F(xiàn)edNA在收斂速度上的優(yōu)勢(shì)變得更加明顯。

本文方法和基線方法的評(píng)價(jià)指標(biāo)結(jié)果如表6、7所示。迭代次數(shù)這一行“/”左右的兩個(gè)數(shù)字分別為穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)。此外,本文將所有方法的迭代次數(shù)以FedAvg為基準(zhǔn)進(jìn)行標(biāo)準(zhǔn)化和可視化,結(jié)果如圖8、9所示。通過觀察表6、7和圖8、9可以得出結(jié)論,在大多數(shù)情況下,F(xiàn)edNA需要的迭代次數(shù)明顯少于FedAvg,與FedCA-TDD幾乎相同。例如,在non-iid-bs(2)分布下的EMNIST Balanced數(shù)據(jù)集中,F(xiàn)edNA和FedCA-TDD穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 110/910和1 080/910,而FedAvg為2 000/1 550。FedNA w/o ZG與FedAvg相比也表現(xiàn)出明顯的優(yōu)勢(shì)。例如,在non-iid-bs(1)分布下的EMNIT Balanced數(shù)據(jù)集中,F(xiàn)edNA w/o ZG穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 680/1 080,而FedAvg為1 920/1 630。FL訓(xùn)練的總通信成本是通過計(jì)算每輪通信成本乘以達(dá)到目標(biāo)準(zhǔn)確率所需的訓(xùn)練迭代次數(shù)得到的[1]。FedNA每次迭代的傳輸數(shù)據(jù)量與FedAvg相同,但達(dá)到目標(biāo)準(zhǔn)確率所需的迭代次數(shù)更少,降低了總通信成本。值得注意的是,在non-iid-bs(2)分布下的EMNIST Balanced數(shù)據(jù)集中,F(xiàn)edNA達(dá)到穩(wěn)定狀態(tài)所需的迭代次數(shù)比FedAvg少890次,可降低44.5%的通信成本。

本文測(cè)試了FedCA-TDD、FedNA、FedNA w/o ZG和FedAvg算法最終的測(cè)試準(zhǔn)確率。結(jié)果顯示,F(xiàn)edNA、FedNA w/o ZG、FedCA-TDD的平均測(cè)試準(zhǔn)確率分別為0.917、0.916和0.916,而FedAvg為0.905。FedAvg準(zhǔn)確率略低于本文方法。例如,在EMNIST Balanced數(shù)據(jù)集上的non-iid-bs(1)和non-iid-bs(2)分布下,F(xiàn)edNA分別為0.827和0.848,而FedAvg分別為0.809和0.819。這表明,在提高收斂速度、減低通信成本的同時(shí),本文方法并未對(duì)模型性能產(chǎn)生不利影響。

3.3 消融實(shí)驗(yàn)

本文對(duì)沒有NA或ZG的FedNA在不同分布下的EMNIST Balanced數(shù)據(jù)集上進(jìn)行消融實(shí)驗(yàn),結(jié)果如表8所示。對(duì)比FedNA w/o NA和FedAvg可以發(fā)現(xiàn),NA可以提高FedNA的收斂速度。例如,在數(shù)據(jù)分布為non-iid(0.1)時(shí),F(xiàn)edNA w/o NA穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 130/890,而FedAvg為2 000/1 530。此外,對(duì)比FedNA w/o ZG和FedNA的迭代次數(shù)可以發(fā)現(xiàn),ZG也可以提高FedNA的收斂速度。例如,在數(shù)據(jù)分布為non-iid(0.05)時(shí),F(xiàn)edNA w/o NA穩(wěn)定在預(yù)期準(zhǔn)確率和首次達(dá)到預(yù)期準(zhǔn)確率的迭代次數(shù)分別為1 950/960,而FedAvg為2 000/1 260。綜上,ZG和NA對(duì)最終收斂速度的提升都有不同程度的貢獻(xiàn)。

4 結(jié)束語

本文提出了一種新的聯(lián)邦學(xué)習(xí)聚合方法FedNA,旨在降低在non-IID數(shù)據(jù)下的聯(lián)邦學(xué)習(xí)的通信成本。FedNA根據(jù)客戶端的類權(quán)重更新的L1范數(shù)為客戶端分配權(quán)重,保留了本地模型的貢獻(xiàn)。此外,F(xiàn)edNA將客戶端缺失類的類權(quán)重更新設(shè)置為零,消除了其在聚合時(shí)對(duì)模型的負(fù)面影響。本文在兩個(gè)數(shù)據(jù)集上模擬了四種數(shù)據(jù)分布來進(jìn)行實(shí)驗(yàn)。結(jié)果表明,與FedAvg相比,F(xiàn)edNA算法最多可以減少44.5%的通信開銷。與現(xiàn)有方法相比,F(xiàn)edNA既有效地保護(hù)了客戶端的隱私,又加速了全局模型的收斂速度,降低了通信成本。

在未來的工作中,筆者將探索在不同的訓(xùn)練階段如何自適應(yīng)地調(diào)整類加權(quán)策略,從而實(shí)現(xiàn)更加高效的聚合策略。

參考文獻(xiàn):

[1]Ma Zezhong,Zhao Mengying,Cai Xiaojun,et al.Fast-convergent federated learning with class-weighted aggregation[J].Journal of Systems Architecture,2021,117:102125.

[2]McMahan H B,Moore E,Ramage D,et al.Communication-efficient learning of deep networks from decentralized data[C]//Proc of International Conference on Artificial Intelligence and Statistics.[S.l.]:PMLR,2017:1273-1282.

[3]Konecˇny J,McMahan H B,Yu F X,et al.Federated learning:strategies for improving communication efficiency[EB/OL].(2017-10-30).https://arxiv.org/abs/1610.05492.

[4]McMahan H B,Moore E,Ramage D,et al.Federated learning of deep networks using model averaging[EB/OL].(2016-02-17).https://arxiv.org/abs/1602.05629v1.

[5]Konecˇny J,McMahan H B,Ramage D,et al.Federated optimization:distributed machine learning for on-device intelligence[EB/OL].(2016-10-08).https://arxiv.org/abs/1610.02527.

[6]Zhai Kun,Ren Qiang,Wang Junli,et al.Byzantine-robust federated learning via credibility assessment on non-IID data[J].Mathematical Biosciences and Engineering,2022,19(2):1659-1676.

[7]Zhang Chen,Xie Yu,Bai Hang,et al.A survey on federated learning[J].Knowledge-Based Systems,2021,216:106775.

[8]Cao Xiaoyu,F(xiàn)ang Minghong,Liu Jia,et al.FLTrust:Byzantine-robust federated learning via trust bootstrapping[EB/OL].(2022-04-12).https://arxiv.org/abs/2012.13995.

[9]Li Tian,Sahu A K,Zaheer M,et al.Federated optimization in heterogeneous networks[EB/OL].(2020-04-21).https://arxiv.org/abs/1812.06127.

[10]Li Qinbin,Diao Yiqun,Chen Quan,et al.Federated learning on non-IID data silos:an experimental study[C]//Proc of the 38th IEEE International Conference on Data Engineering.Piscataway,NJ:IEEE Press,2022:965-978.

[11]Zhao Yue,Li Meng,Lai Liangzhen,et al.Federated learning with non-IID data[EB/OL].(2018-06-02).https://arxiv.org/abs/1806.00582.

[12]Jeong E,Oh S,Kim H,et al.Communication-efficient on-device machine learning:federated distillation and augmentation under non-IID private data[EB/OL].(2023-10-19).https://arxiv.org/abs/1811.11479.

[13]Wu Xizhu,Liu Song,Zhou Zhihua.Heterogeneous model reuse via optimizing multiparty multiclass margin[C]//Proc of the 36th International Conference on Machine Learning.[S.l.]:PMLR,2019:6840-6849.

[14]Yao Xin,Huang Tianchi,Zhang Ruixiao,et al.Federated learning with unbiased gradient aggregation and controllable meta updating[EB/OL].(2020-12-16).https://arxiv.org/abs/1910.08234.

[15]Arivazhagan M G,Aggarwal V,Singh A K,et al.Federated learning with personalization layers[EB/OL].(2019-12-02).https://arxiv.org/abs/1912.00818.

[16]Wang Hao,Kaplan Z,Niu D,et al.Optimizing federated learning on non-IID data with reinforcement learning[C]//Proc of IEEE Confe-rence on Computer Communications.Piscataway,NJ:IEEE Press,2020:1698-1707.

[17]Shi Dian,Li Liang,Chen Rui,et al.Toward energy-efficient federated learning over 5G+mobile devices[J].IEEE Wireless Communications,2021,29(5):44-51.

[18]Sattler F,Wiedemann S,Myuller K R,et al.Robust and communication efficient federated learning from non-IID data[J].IEEE Trans on Neural Networks and Learning Systems,2019,31(9):3400-3413.

[19]Han Song,Mao Huizi,Dally W J.Deep compression:compressing deep neural network with pruning,trained quantization and Huffman coding[C]//Proc of International Conference on Learning Representations.2016.

[20]Gao Hongchang,Xu An,Huang Heng.On the convergence of communication efficient local SGD for federated learning[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2021:7510-7518.

[21]Nishio T,Yonetani R.Client selection for federated learning with hete-rogeneous resources in mobile edge[C]//Proc of IEEE International Conference on Communications.Piscataway,NJ:IEEE Press,2019:1-7.

[22]鄭賽,李天瑞,黃維.面向通信成本優(yōu)化的聯(lián)邦學(xué)習(xí)算法[J].計(jì)算機(jī)應(yīng)用,2023,43(1):1-7.(Zheng Sai,Li Tianrui,Huang Wei.Federated learning algorithm for communication cost optimization[J].Journal of Computer Applications,2023,43(1):1-7.)

[23]Kairouz P,McMahan H B,Avent B,et al.Advances and open pro-blems in federated learning[J].Foundations and Trends in Machine Learning,2021,14(1-2):1-210.

[24]Li Xinchun,Zhan Dechuan.FedRS:federated learning with restricted softmax for label distribution non-IID data[C]//Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining.New York :ACM Press,2021:995-1005.

[25]Luo Mi,Chen Fei,Hu Dapeng,et al.No fear of heterogeneity:classifier calibration for federated learning with non-IID data[J].Advances in Neural Information Processing Systems,2021,34:5972-5984.

[26]Kang Bingyi,Xie Saining,Rohrbach M,et al.Decoupling representation and classifier for long-tailed recognition[C]//Proc of the 8th International Conference on Learning Representations.2020.

[27]LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of IEEE,1998,86(11):2278-2324.

[28]Cohen G,Afshar S,Tapson J,et al.EMNIST:extending MNIST to handwritten letters[C]//Proc of International Joint Conference on Neural Networks.Piscataway,NJ:IEEE Press,2017:2921-2926.

[29]Yurochkin M,Agarwal M,Ghosh S,et al.Bayesian nonparametric fe-derated learning of neural networks[C]//Proc of International Confe-rence on Machine Learning.[S.l.]:PMLR,2019:7252-7261.

[30]Wang Hongyi,Yurochkin M,Sun Yuekai,et al.Federated learning with matched averaging[C]//Proc of International Conference on Learning Representations.2020.

猜你喜歡
隱私保護(hù)
移動(dòng)商務(wù)消費(fèi)行為分析研究
適用于社交網(wǎng)絡(luò)的隱私保護(hù)興趣度匹配方案
可搜索加密在云計(jì)算移動(dòng)學(xué)習(xí)中的應(yīng)用
基于層次和節(jié)點(diǎn)功率控制的源位置隱私保護(hù)策略研究
關(guān)聯(lián)規(guī)則隱藏算法綜述
大數(shù)據(jù)環(huán)境下用戶信息隱私泄露成因分析和保護(hù)對(duì)策
大數(shù)據(jù)安全與隱私保護(hù)的必要性及措施
大數(shù)據(jù)時(shí)代中美保護(hù)個(gè)人隱私的對(duì)比研究
新聞界(2016年15期)2016-12-20 09:47:10
社交網(wǎng)絡(luò)中的隱私關(guān)注及隱私保護(hù)研究綜述
大數(shù)據(jù)時(shí)代的隱私保護(hù)關(guān)鍵技術(shù)研究
缙云县| 阿瓦提县| 宜章县| 内江市| 灯塔市| 镶黄旗| 马公市| 儋州市| 鄂尔多斯市| 阳城县| 岑巩县| 镶黄旗| 鄄城县| 鹤庆县| 察哈| 丹凤县| 云和县| 荆门市| 尼玛县| 连城县| 监利县| 合山市| 永顺县| 施秉县| 诏安县| 淮南市| 新津县| 隆安县| 宜良县| 新丰县| 方正县| 泾阳县| 安徽省| 那坡县| 米泉市| 峡江县| 隆子县| 安新县| 辽源市| 尤溪县| 望谟县|