模型不可知的联合相互学习

TP181; 主流的联邦学习(federated learning,FL)方法需要梯度的交互和数据同分布的理想假定,这就带来了额外的通信开销、隐私泄露和数据低效性的问题.因此,提出了一种新的FL框架,称为模型不可知的联合相互学习(model agnostic federated mutual learning,MAFML).MAFML仅利用少量低维的信息(例如,图像分类任务中神经网络输出的软标签)共享实现跨机构间的"互学互教",且MAFML不需要共享一个全局模型,机构用户可以自定制私有模型.同时,MAFML使用简洁的梯度冲突避免方法使每个参与者在不降低自身域数据性能的前提下...

Full description

Saved in:
Bibliographic Details
Published in国防科技大学学报 Vol. 45; no. 3; pp. 118 - 126
Main Authors 周伟, 李艺颖, 陈曙晖, 丁博
Format Journal Article
LanguageChinese
Published 国防科技大学 计算机学院,湖南 长沙 410073 01.06.2023
Subjects
Online AccessGet full text
ISSN1001-2486
DOI10.11887/j.cn.202303014

Cover

More Information
Summary:TP181; 主流的联邦学习(federated learning,FL)方法需要梯度的交互和数据同分布的理想假定,这就带来了额外的通信开销、隐私泄露和数据低效性的问题.因此,提出了一种新的FL框架,称为模型不可知的联合相互学习(model agnostic federated mutual learning,MAFML).MAFML仅利用少量低维的信息(例如,图像分类任务中神经网络输出的软标签)共享实现跨机构间的"互学互教",且MAFML不需要共享一个全局模型,机构用户可以自定制私有模型.同时,MAFML使用简洁的梯度冲突避免方法使每个参与者在不降低自身域数据性能的前提下,能够很好地泛化到其他域的数据.在多个跨域数据集上的实验表明,MAFML可以为面临"竞争与合作"困境的联盟企业提供一种有前景的解决方法.
ISSN:1001-2486
DOI:10.11887/j.cn.202303014