分布式机器学习&联邦学习论文阅读笔记(持续更新)_分布式机器学习论文-程序员宅基地

技术标签: 机器学习  分布式  

一、开源框架

FedML

https://github.com/FedML-AI/FedML

二、数据异构问题

FedProx

对FedAvg有两点改进。Local的损失函数加上一项Local模型与全局模型的距离,以控制局部模型与全局模型不要太过偏离,因为数据异构的情况下,局部模型可能收敛方向同全局模型发生偏移。动态调整本地的迭代次数,提高对数据异构的容忍度。
https://arxiv.org/pdf/1812.06127.pdf

Bridging Median and Mean Algorithms(NeurIPS 2020)

基于中位数的算法(SignSGD、MedianSGD)在非同构数据下优化过程中与均值存在gap,通过对传播的梯度增加噪声的方法降低这个gap,使模型更好的收敛。
https://proceedings.neurips.cc/paper/2020/file/f629ed9325990b10543ab5946c1362fb-Paper.pdf

FedProto(AAAI 2022)

联邦学习中的异构问题,除了数据的异构还有模型的异构。本文引用了prototype learning中的概念用于联邦学习,同时解决数据异构和模型异构问题。方法可以概括为如下:
client将本地数据中同一类的数据在representation layer的输出取均值得到每一个类在本地的prototype,将这个表示共享到server,server对同一个类的来自不同client的prototype进行聚合。client在训练时也要在损失函数中加入一项local prototype与global prototype的正则化项。
https://arxiv.org/abs/2105.00243

三、边缘计算负载问题

FedGKT(NeurIPS 2020)

对于大型的CNN,一般的联邦学习方法使得边缘节点承担过大的计算量,而如果使用Split Learning,传播梯度的时候会使通信承担过多的负载。本文简化边缘节点的神经网络模型,将提取出的feature周期性的转移到Server去做分类训练,同时本地还维护一个分类器。另外,还将Server和Client的分类器Softmax输出双向传递,在各自的代价函数中加入二者的KL散度项,使边缘节点和计算中心可以各自得到对方的知识
https://proceedings.neurips.cc/paper/2020/file/a1d4c20b182ad7137ab3606f0e3fc8a4-Paper.pdf

四、通信量压缩

FetchSGD(ICML 2020)

一种压缩通信量的方法。通过sketch(类似于一种哈希)将client经过多轮训练的梯度进行压缩传到Server,Server将收到的数据解压缩,并将多个Client的梯度聚合,使用top-k将模型更新传回到各个节点
https://arxiv.org/pdf/2007.07682v2.pdf

五、个性化联邦学习

Ditto(ICML 2021)

给一般的联邦学习算法增加了一个plugin,即在训练全局模型的同时,维护一个本地模型,本地模型的代价函数增加一项本地模型与全局模型的距离,为这一项配一个超参数lamda,以自适应调整本地模型与全局模型的关联程度,增加局部模型的个性化,应对恶意节点攻击
https://arxiv.org/pdf/2012.04221.pdf

FedAMP(AAAI 2021)

文章的出发点是,当多个节点的数据分布为Non-I.I.D.的时候,直接在Server训练一个全局模型是不合理的。作者提出,对于数据分布相似的节点,应该让他们进行更密切的合作,这样可以训练出更好的个性化模型。具体来说,优化目标变成了
m i n W { G ( W ) : = ∑ i = 1 m F i ( w i ) + λ ∑ i < j m A ( ∣ ∣ w i − w j ∣ ∣ 2 ) } min_{W}\{\mathcal{G}(W):=\sum_{i=1}^mF_{i}(w_{i})+\lambda\sum_{i<j}^mA(||w_{i}-w_{j}||^2)\} minW{ G(W):=i=1mFi(wi)+λi<jmA(wiwj2)}
A函数单调增,且为凹函数,这是一个小技巧,后面会用到。交替优化的时候先优化后一项,经过k轮优化得到一个 U k U^{k} Uk,再优化 G \mathcal{G} G得到各个节点的个性化模型。 U k U^{k} Uk的每一列i可以视作各个模型的线性组合,且与当前节点i的模型的相似度越大,线性组合的系数就越大,原因就在于A函数的凹的性质。于是聚合的时候模型相似的节点之间相互影响就越明显。
https://arxiv.org/abs/2007.03797

pFedHN(ICML2021)

基于Hypernetwork实现个性化的联邦学习,用于解决各个节点的计算能力不平衡、数据分布异构情况下,训练不同节点的个性化模型。由于每个client模型大小不同,无法用Hypernetwork输出全部的参数,因此尝试为不同的client输出固定大小的特征提取器。Hypernetwork的输入是每个client的一个embedding。训练过程中,client独立训练若干轮后,将参数的差值作为误差项反向传播到中心的HN。HN不光将模型参数进行优化,对输入的embedding也进行优化。新加入节点后,固定HN不变而训练优化新增的embedding,以加快训练速度。
https://arxiv.org/pdf/2103.04628.pdf

FedMeta

Meta-Learning和FL的结合版本,实现client的个性化。
Meta-Learning的目标是,对于多个样本分布不同的任务,训练一个公共的模型 θ \theta θ θ \theta θ的目标是对于每个任务,在这个任务的样本下继续训练少量epoch,就能达到很好的效果。本文使用了基于MAML的几种Meta-Learning算法。
对于每个任务的样本集,按比例将其划分为Support Set和Query Set。
MAML算法是,首先在Support Set中计算 θ \theta θ的loss,计算更新后的参数存储在 θ t \theta_t θt中;然后在Support Set中使用模型 θ t \theta_t θt计算loss,并求对 θ \theta θ的梯度,然后更新 θ \theta θhttps://arxiv.org/abs/1703.03400)。
另外两种算法是对MAML的改进。Meta-SGD让inner-loop的学习率不再是常量,FOMAML则是去掉MAML中的二阶项以降低计算规模。
这样一来,FL的个性化与Meta-Learning结合起来的想法就很自然了。
Client先从Server获取模型 θ \theta θ,通过局部训练计算出 θ \theta θ在Query Set上的梯度,将梯度上传给Server;Server的动作是先选取Client,然后发送模型,等待接受梯度,更新模型。
https://arxiv.org/pdf/1802.07876.pdf

Per-FedAvg

思路与FedMeta基本类似,使用了FL的FedAvg计算框架套用了MAML的算法,更偏重于理论分析。
https://arxiv.org/abs/2002.07948

FEDGEN

在一般的基于知识蒸馏的聚合算法中,通常需要server持有一组无标签的代理数据集来辅助知识蒸馏,但是作者认为很多时候这样的要求是很难满足的。FEDGEN的方法是,让每个client共享自己的标签分布,但是不提供x,这样保证了隐私问题,server通过收集client的标签构建全局的标签分布,并且在server端训练一个生成器,根据全局标签分布和client传过来的模型生成符合全局数据分布的样本,将样本下发给client辅助他们进行训练,这些样本是携带所有client的信息的,这些信息可以更好的辅助每一个client的训练。另外,在该系统中client和server相互传输的模型只包含神经网络的最后一层,也就是预测层,一方面这提升了通信效率,另一方面这还更好的保护了隐私。
在我的另一片博客里有对FEDGEN更详细的介绍
论文阅读笔记–Data-Free Knowledge Distillation for Heterogeneous Federated Learning(FEDGEN)
https://arxiv.org/abs/2105.10056

(转载请注明出处)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/Shawn2134123/article/details/121145105

智能推荐

『论文笔记』TensorFlow1.8.0+Python3.6+CUDA-9.0+Faster-RCNN训练自己的数据集!_calling a constexpr __host__ function("real") from-程序员宅基地

文章浏览阅读764次,点赞2次,收藏2次。Tensorflow1.6.0+Keras 2.1.5+Python3.5+Yolov3训练自己的数据集! 文章目录前期准备一. Faster-RCNN简要介绍1.1. Faster-RCNN网络结构图前期准备主要参考github代码 :https://github.com/CharlesShang/TFFRCNN主要参考CSDN文章1:https://blog.csdn.net/Pat..._calling a constexpr __host__ function("real") from a __host__ __device__ fun

[激光原理与应用-74]:数据采集卡 - 数模转换芯片AD7606_高速数据采集adc-程序员宅基地

文章浏览阅读1.6k次,点赞20次,收藏24次。AD7606是一款由Analog Devices(ADI)公司生产的16通道高速模拟数字转换器(ADC)芯片。该芯片采用了SAR(逐次逼近寄存器)架构,可以将模拟信号转换为数字信号。AD7606具有16个单端/8个差分输入通道,并支持可编程增益放大器和内部参考电压。它的转换速率可高达200 kSPS,并通过串行接口(SPI)与微控制器MCU或数字信号处理器(DSP)进行通信。该芯片具有广泛的应用领域,包括数据采集系统、仪器仪表、工业自动化、医疗设备等。_高速数据采集adc

yolov2训练_[人工智能]Mxyolov3 0.1版本发布,轻松训练K210模型-程序员宅基地

文章浏览阅读6.6k次,点赞13次,收藏73次。Mx-yolov3在过去的一段时间里,收到了许多反馈和BUG,但由于各种原因,很久没有去更新Mx-yolov3;经过几天的修改和改进,新的版本诞生了,我们将它定为1.0版本(你可以在软件界面右下角看到版本号,为了今后能更好的识别软件版本,新版本的软件您可以在“Import 创客”公众号中发送"Mx3"以此来获得下载链接);下面我们就来看看1.0版本做了哪些改进和修复。01改进和修复#增加..._yolov2.tflite 转kmodel

El表达式详解-程序员宅基地

文章浏览阅读105次。EL表达式 1、EL简介1)语法结构 ${expression}2)[]与.运算符 EL 提供.和[]两种运算符来存取数据。 当要存取的属性名称中包含一些特殊字符,如.或?等并非字母或数字的符号,就一定要使用 []。例如: ${user.My-Name}应当改为${user["My-Name"] } ..._el解析

pytorch学习记录_[exception|indice_conv|subm]feat=torch.size([47693-程序员宅基地

文章浏览阅读401次。1、shape与size()print('*' * 100)print('查看数据形状')data1 = torch.randn((7,3,32,32))print("shape:",data1.shape)print("size:",data1.size())查看数据形状shape: torch.Size([7, 3, 32, 32])size: torch.Size([7, 3, 32, 32])2、squeeze与unsqueeze#压缩print('*' * 100)p_[exception|indice_conv|subm]feat=torch.size([47693, 16]),w=torch.size([7, 7,

一个python实现的kline-chart图表程序(一)_python使用kimi chart-程序员宅基地

文章浏览阅读230次。至于MA,MACD,VOL这些应该属于指标,可以从基础数据计算得来或是直接加载,当然可加载的还有其它一些指标,比如买卖点或是直线,射线,线段或是矩形什么的。最好能把这个框架高度模块化,然后想计算什么指标直接加进去,或是做个什么插件,嗯,插件这一块明显还不熟,先做到高度封装的Kline再说。起因是想研究量化交易,然后核查算法的落角点,比如哪些指标的组合可以入场做单,没有一个形象化的工具算法写起来总是感觉差强人意。初步想法是需要一个数据串,里面记录一组开高低收量,然后打开程序后可以将这个基础数据显示成K线。_python使用kimi chart

随便推点

为什么未来的趋势是全栈运营-程序员宅基地

文章浏览阅读453次。感谢关注天善智能,走好数据之路↑↑↑欢迎关注天善智能,我们是专注于商业智能BI,大数据,数据分析领域的垂直社区,学习,问答、求职一站式搞定!全栈的概念起源于全栈工程师,英文Full Stack Developer。指代掌握多种技能,并且能够用这些技能独立完成产品。当我们说就差一个程序员的时候,需要的其实是一位全栈工程师。可能你已经理解我说的全栈运营的概念,全栈运营即运营多...

Kafka源码调试(二):编写简单测试客户端程序,以及发送事务消息的日志留档_kafka日志输出发送的消息-程序员宅基地

文章浏览阅读358次。1. 写一个测试客户端,采用流式应用的典型 “consume-transform-produce” 模式2. 记录 Kafka broker 节点日志,客户端日志等用于后续文章参照对比_kafka日志输出发送的消息

Android12 MTK平台 禁用SCTP协议_android sntp 禁用-程序员宅基地

文章浏览阅读831次,点赞22次,收藏23次。【代码】Android12 MTK平台 禁用SCTP协议。_android sntp 禁用

2022 年 MathorCup 高校数学建模挑战赛——大数据竞赛赛道 赛道 B:北京移动用户体验影响因素研究_影响客户语音业务和上网业务满意度的主要因素-程序员宅基地

文章浏览阅读543次,点赞4次,收藏5次。详细介绍采用信息增益率、XGBoost、随机森林综合筛选特征。_影响客户语音业务和上网业务满意度的主要因素

哈夫曼码编/译码系统-程序员宅基地

文章浏览阅读991次,点赞22次,收藏24次。编写一个哈夫曼码的编/译码系统,实现对输入的文本信息自动统计并依此为依据建立一个哈夫曼码的编/译码系统。

Revisiting Salient Object Detection: Simultaneous Detection, Ranking, and Subitizing of Multiple Sal_salient object ranking-程序员宅基地

文章浏览阅读1.2k次,点赞2次,收藏3次。问题:作者认为,显著性目标检测领域迄今为止的工作解决的是一个相当病态的问题。即不同的人对于什么是显著性目标没有一个普遍的一致意见。这意味着一些目标会比另一些目标更加显著,并且不同的显著性目标中存在着一个相对排名。本文方法:本文方法解决了考虑了相对排名这个更普遍的问题,并且提出了适合于衡量该问题的数据与度量方法,本文解决方案是基于相对显著性和分段式细化的分层表示的深度网络。该网络也可以解..._salient object ranking

推荐文章

热门文章

相关标签