联邦学习--论文汇总(十)_expanding the reach of federated learning by reduc-程序员宅基地

技术标签: 机器学习  联邦学习  

                      两篇关于压缩模型的联邦学习文章

[1] He C , Annavaram M , Avestimehr S . Group Knowledge Transfer: Federated Learning of Large CNNs at the Edge[J]. 2020.

[2] Caldas S , J Konečny, Mcmahan H B , et al. Expanding the Reach of Federated Learning by Reducing Client Resource Requirements[J]. 2018.

引言概括

针对边缘计算,对于模型规模大、节点多、客户端带宽受限的挑战,今天的两篇都提出了新颖的思想:

在一些图像数据集进行有损压缩是可以接受的,保留关键参数就可以满足需求,现在采用的是将全局模型有损压缩为小模型,客户端对小模型训练后,再压缩服务器进行解压后聚合,此处颠覆了我们的以往认知,这样的好处是既减少了通信量,又不是很影响精度,解决了客户端数量多、模型规模大的瓶颈。

Group Knowledge Transfer: Federated Learning of Large CNNs at the Edge(组知识迁移:边缘设备的大型CNN联邦学习)

思想:  FedGKT可以有效地在边缘上训练小CNN,通过知识蒸馏周期性地将小CNN的知识转移到一个大容量的服务器端CNN。

瓶颈: 扩大卷积神经网络的规模(宽度、深度)有效提高模型的精度,模型太大阻碍边缘设备训练,边缘设备缺乏GPU加速器和足够的内存,无法在资源受限的边缘设备上训练大型CNN。

优点:

  1. 减少对边缘计算的需求
  2. 降低大型cnn的通信成本(带宽)
  3. 异步训练,同时保持与FL相当的模型精度

在这里插入图片描述
通信成本:
在这里插入图片描述

规则

在这里插入图片描述
W表示全局CNN在每个用户的网络权重,以前的FedAvg算法:

在这里插入图片描述

(1)特征提取器,分类,压缩至边缘本地训练
(2)周期性迁移到服务器端
(3)再迁移回边缘端(ResNet-56 or ResNet-110 压缩到边缘端和服务端)
(4)全局模型

将全局模型优化到非凸模型问题,修改目标函数,同时求解服务端模型和边缘模型,两个分区:
(1)一个小的特征提取模型 W e W_e We, 加入分类器 W c W_c Wc
(2)一个大规模服务端模型 W s W_s Ws

在这里插入图片描述

l s l_s ls l c l_c lc表示服务器模型和边缘模型的损失函数, f ( k ) f^{(k)} f(k)是包含特征提取器和分类器:
在这里插入图片描述
H i ( k ) H^{(k)}_i Hi(k)是由特征提取器 f e ( k ) f^{(k)}_e fe(k)对第i个样本的特征映射吗,服务器将 H i ( k ) H^{(k)}_i Hi(k)作为输入特征,最终结果由两者堆叠,在本地进行离线推理。

注:可能数据集太小,训练效果不好,易受到改变和干扰,输入不好

解决办法:引入知识蒸馏损失放入到优化方程中,双向迁移:
在这里插入图片描述
l C E l_{CE} lCE是预测值和真实标签的交叉熵,KL是散度函数
在这里插入图片描述
改进的交替最小化,重构优化:
在这里插入图片描述

超参数(当精确率稳定,学习率下降):

1.通信轮
2.边缘的epoch:取1
3.服务器的epoch:iid 20 ,non-iid 10
4.服务端的学习率
在这里插入图片描述
步骤:
1.在每一轮的训练中,客户端使用本地SGD来训练几个epoch,然后将提取的特征图和相关的日志发送到服务器。
2. 当服务器接收到从每个客户端提取的特征和日志时,它训练更大的服务器端CNN。
3. 服务器将其全局logit发送回每个客户机。

实验

在16个客户端和一个GPU服务器上运行所有数据集和模型。任务是对CIFAR-10、CIFAR-100和CINIC-10上进行图像分类。
将训练样本分成K个不平衡的分区,测试精度采用top-1,与最好的FedAvg比较,FedProx在大型CNN下性能不如FedAvg,不采用FedMA,不包括归一化层,模型架构:ResNet-56和ResNet-110,设计一个小型的CNN架构ResNet-8,包含8个卷积层的紧凑CNN,有相同的输入维度匹配边缘特征提取器的输出。

数据分布(我之前也是想这样分组):

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

方法的局限性:

  1. 隐私安全:但基于以前的差分隐私和多方计算,交换隐藏的特征图比交换模型或梯度更安全。在训练阶段隐藏映射交换。模型或梯度交换可能泄露隐私,缺乏分析
  2. 通信成本:隐藏向量比权重或梯度小,每个数据点的隐藏向量可以独立传输,FedGKT比梯度或模型交换要求更小的带宽,通信代价取决于数据点的数量,在样本数量非常大,图像分辨率非常高的情况下,方法和分割学习总的来说都有很高的通信成本。
  3. 标签缺陷:只能用于监督学习,缺乏足够的标签
  4. 可伸缩性:在跨设备设置中,我们需要使用大量的智能手机协同训练模型(如客户端数量高达100万)。

Expanding the Reach of Federated Learning by Reducing Client Resource Requirements(通过减少客户机资源需求扩展联邦学习的范围)

背景

网络速度和节点数量是区分FL与传统数据中心分布式学习的两个核心系统方面,网络带宽可能会慢几个数量级,而工作节点的数量可能会大几个数量级,导致在训练阶段系统地排除带宽或网络访问受限的客户端,从而降低了这些模型的用户体验。

在训练和推理方面,深度模型往往需要大量的计算资源、大模型,采用有损压缩方法:修剪网络和模型蒸馏

方法可行性:
1.服务器和客户端可以交换

2.基于Dropout ,使每个设备在更小的模型上进行本地操作,提供可应用于服务器上更大的全局模型的更新。

3.彼此兼容,而且与现有的客户机到服务器压缩兼容。

4.客户机到服务器的更新大小减少。

5.局部训练过程现在对每个梯度计算需要更少的FLOPS,减少了局部计算代价。

思想

(1)在服务器到客户端的全局模型上使用有损压缩;
(2) Federated Dropout,它允许用户在全局模型的更小的子集上进行有效的本地训练,同时也减少了客户端到服务器的通信和本地计算,降低了通信成本,同时也降低了本地训练的计算成本。
(3) 使用随机的Hadamard变换减少后续量化产生的误差,向量的信息更均匀地分布在其分量上。

在这里插入图片描述

方法:

  1. 有损压缩: 使用轻量级有损压缩技术,应用于已经训练过的模型,并且在反向时(即解压后)保持模型的质量。

  2. 将模型中的每个待压缩权矩阵重新塑造为向量w,基变换,子样本,量化结果向量,通过网络发送,逆变换,获得w的噪声版本

基变换:减少量化等扰动产生的误差,Hadamard变换更均匀地将矢量的信息分布在其维度之间,应用Kashin[1977]的经典结果,在每个维度上尽可能多地传播矢量信息,与使用随机Hadamard变换相比,Kashin的表示减少了后续量化产生的错误。

子样本:每个权重矩阵中元素的1−s部分归零,适当地重新缩放剩下的值,只传递非零值和允许恢复相应索引的随机种子

概率量化:量化后区间是w的无偏估计,分成 2 q 2^q 2q个区间,当落入区间后,用此区间的最大或最小值代替[第一篇汇总的论文,Konen J , Mcmahan H B , Yu F X , et al. Federated Learning: Strategies for Improving Communication Efficiency[J]. 2016]。

Federated Dropout: 每个客户端不是局部训练一个更新到整个全局模型,而是训练一个更新到更小的子模型。这些子模型是全局模型的子集,因此,计算出的局部更新可以很自然地解释为对更大的全局模型的更新。为了节约计算和通信成本,用0代替固定数量的全连接层激活函数,紫墨鑫具有相同的简化架构。即使一些单位被删除了,激活仍然与原始的权重矩阵相乘,它们只是有一些无用的行和列。服务器可以将必要的值映射到这个简化的体系结构中,这意味着只有必要的系数被传输到客户端,重新打包为更小的密集矩阵。

      所有矩阵相乘的维数都更小, 2.需要应用更少的滤波器(对于卷积层)

在这里插入图片描述

(1)通过Federated Dropout 构造子模型
(2)有损压缩,并发送到客户端
(3)客户端解压,使用本地数据训练
(4)压缩更新,发送到服务器
(5)解压
(6)聚合到全局更新

实验:
数据集 MNIST , CIFAR-10 和扩展MNIST或EMNIST ,测试FedAvg和有损压缩

在这里插入图片描述

模型组成: 两个5X5的卷积层CNN,32通道,第二个是64通道,每个连接2X2的最大池化层,有512个单元的全连接层和reLu激活函数,最后连接softmax输出层,超过 1 0 6 10^6 106参数。

有损压缩(改变三个变量):

  1. 基变换类型:无变换或单位变换、随机Hadamard transform (HD) and Kashin’s representation (K).
  2. 子样本率s,保留的重量比例
  3. 量化位q的个数

在这里插入图片描述

实验结果

(1)对于每个模型,我们都能够找到一个至少与我们的基线匹配的压缩参数设置
(2) Kashin表示对激进量化值是最有用的
(3)子抽样在服务器到客户端设置中似乎并不是那么有用
(4)改变了模型每一层上保留的神经元(或卷积层的过滤器)的百分比(联邦退出率)

在这里插入图片描述

未来:

  1. 引入步长,考虑对不同子模型的使用有效性
  2. 更小的、也许是个性化的子模型最终被聚合成一个更大、更复杂的模型,可以由服务器管理。
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_45671820/article/details/116934992

智能推荐

分布式光纤传感器的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告_预计2026年中国分布式传感器市场规模有多大-程序员宅基地

文章浏览阅读3.2k次。本文研究全球与中国市场分布式光纤传感器的发展现状及未来发展趋势,分别从生产和消费的角度分析分布式光纤传感器的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规格产品的价格、产量、产值及全球和中国市场主要生产商的市场份额。主要生产商包括:FISO TechnologiesBrugg KabelSensor HighwayOmnisensAFL GlobalQinetiQ GroupLockheed MartinOSENSA Innovati_预计2026年中国分布式传感器市场规模有多大

07_08 常用组合逻辑电路结构——为IC设计的延时估计铺垫_基4布斯算法代码-程序员宅基地

文章浏览阅读1.1k次,点赞2次,收藏12次。常用组合逻辑电路结构——为IC设计的延时估计铺垫学习目的:估计模块间的delay,确保写的代码的timing 综合能给到多少HZ,以满足需求!_基4布斯算法代码

OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版-程序员宅基地

文章浏览阅读3.3k次,点赞3次,收藏5次。OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版

关于美国计算机奥赛USACO,你想知道的都在这_usaco可以多次提交吗-程序员宅基地

文章浏览阅读2.2k次。USACO自1992年举办,到目前为止已经举办了27届,目的是为了帮助美国信息学国家队选拔IOI的队员,目前逐渐发展为全球热门的线上赛事,成为美国大学申请条件下,含金量相当高的官方竞赛。USACO的比赛成绩可以助力计算机专业留学,越来越多的学生进入了康奈尔,麻省理工,普林斯顿,哈佛和耶鲁等大学,这些同学的共同点是他们都参加了美国计算机科学竞赛(USACO),并且取得过非常好的成绩。适合参赛人群USACO适合国内在读学生有意向申请美国大学的或者想锻炼自己编程能力的同学,高三学生也可以参加12月的第_usaco可以多次提交吗

MySQL存储过程和自定义函数_mysql自定义函数和存储过程-程序员宅基地

文章浏览阅读394次。1.1 存储程序1.2 创建存储过程1.3 创建自定义函数1.3.1 示例1.4 自定义函数和存储过程的区别1.5 变量的使用1.6 定义条件和处理程序1.6.1 定义条件1.6.1.1 示例1.6.2 定义处理程序1.6.2.1 示例1.7 光标的使用1.7.1 声明光标1.7.2 打开光标1.7.3 使用光标1.7.4 关闭光标1.8 流程控制的使用1.8.1 IF语句1.8.2 CASE语句1.8.3 LOOP语句1.8.4 LEAVE语句1.8.5 ITERATE语句1.8.6 REPEAT语句。_mysql自定义函数和存储过程

半导体基础知识与PN结_本征半导体电流为0-程序员宅基地

文章浏览阅读188次。半导体二极管——集成电路最小组成单元。_本征半导体电流为0

随便推点

【Unity3d Shader】水面和岩浆效果_unity 岩浆shader-程序员宅基地

文章浏览阅读2.8k次,点赞3次,收藏18次。游戏水面特效实现方式太多。咱们这边介绍的是一最简单的UV动画(无顶点位移),整个mesh由4个顶点构成。实现了水面效果(左图),不动代码稍微修改下参数和贴图可以实现岩浆效果(右图)。有要思路是1,uv按时间去做正弦波移动2,在1的基础上加个凹凸图混合uv3,在1、2的基础上加个水流方向4,加上对雾效的支持,如没必要请自行删除雾效代码(把包含fog的几行代码删除)S..._unity 岩浆shader

广义线性模型——Logistic回归模型(1)_广义线性回归模型-程序员宅基地

文章浏览阅读5k次。广义线性模型是线性模型的扩展,它通过连接函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。广义线性模型拟合的形式为:其中g(μY)是条件均值的函数(称为连接函数)。另外,你可放松Y为正态分布的假设,改为Y 服从指数分布族中的一种分布即可。设定好连接函数和概率分布后,便可以通过最大似然估计的多次迭代推导出各参数值。在大部分情况下,线性模型就可以通过一系列连续型或类别型预测变量来预测正态分布的响应变量的工作。但是,有时候我们要进行非正态因变量的分析,例如:(1)类别型.._广义线性回归模型

HTML+CSS大作业 环境网页设计与实现(垃圾分类) web前端开发技术 web课程设计 网页规划与设计_垃圾分类网页设计目标怎么写-程序员宅基地

文章浏览阅读69次。环境保护、 保护地球、 校园环保、垃圾分类、绿色家园、等网站的设计与制作。 总结了一些学生网页制作的经验:一般的网页需要融入以下知识点:div+css布局、浮动、定位、高级css、表格、表单及验证、js轮播图、音频 视频 Flash的应用、ul li、下拉导航栏、鼠标划过效果等知识点,网页的风格主题也很全面:如爱好、风景、校园、美食、动漫、游戏、咖啡、音乐、家乡、电影、名人、商城以及个人主页等主题,学生、新手可参考下方页面的布局和设计和HTML源码(有用点赞△) 一套A+的网_垃圾分类网页设计目标怎么写

C# .Net 发布后,把dll全部放在一个文件夹中,让软件目录更整洁_.net dll 全局目录-程序员宅基地

文章浏览阅读614次,点赞7次,收藏11次。之前找到一个修改 exe 中 DLL地址 的方法, 不太好使,虽然能正确启动, 但无法改变 exe 的工作目录,这就影响了.Net 中很多获取 exe 执行目录来拼接的地址 ( 相对路径 ),比如 wwwroot 和 代码中相对目录还有一些复制到目录的普通文件 等等,它们的地址都会指向原来 exe 的目录, 而不是自定义的 “lib” 目录,根本原因就是没有修改 exe 的工作目录这次来搞一个启动程序,把 .net 的所有东西都放在一个文件夹,在文件夹同级的目录制作一个 exe._.net dll 全局目录

BRIEF特征点描述算法_breif description calculation 特征点-程序员宅基地

文章浏览阅读1.5k次。本文为转载,原博客地址:http://blog.csdn.net/hujingshuang/article/details/46910259简介 BRIEF是2010年的一篇名为《BRIEF:Binary Robust Independent Elementary Features》的文章中提出,BRIEF是对已检测到的特征点进行描述,它是一种二进制编码的描述子,摈弃了利用区域灰度..._breif description calculation 特征点

房屋租赁管理系统的设计和实现,SpringBoot计算机毕业设计论文_基于spring boot的房屋租赁系统论文-程序员宅基地

文章浏览阅读4.1k次,点赞21次,收藏79次。本文是《基于SpringBoot的房屋租赁管理系统》的配套原创说明文档,可以给应届毕业生提供格式撰写参考,也可以给开发类似系统的朋友们提供功能业务设计思路。_基于spring boot的房屋租赁系统论文