Your Location:
Home >
Browse articles >
基于非独立同分布和长尾数据的双解耦联邦学习
常规文章 | Updated:2024-06-03
    • 基于非独立同分布和长尾数据的双解耦联邦学习

    • Federated learning on non-IID and long-tailed data via dual-decoupling

    • 在分布式机器学习领域,引入了一种名为通过模型和逻辑校准进行联邦双解耦(FedDDC)的新解决方案,以解决联邦学习中非IID和长尾分布的挑战。这种方法的特点是解耦全局模型、客户端置信度重新加权、分类器重新平衡和解耦知识蒸馏,显著提高了全局模型在非IID和长尾数据上的准确性,优于现有的最先进方法。
    • 信息与电子工程前沿(英文)   2024年25卷第5期 页码:728-741
    • DOI:10.1631/FITEE.2300284    

      中图分类号: TP18
    • 收稿:2023-04-23

      录用:2023-08-22

      纸质出版:2024-05-0

    Scan QR Code

  • 王朝晖, 李红娇, 李晋国, 等. 基于非独立同分布和长尾数据的双解耦联邦学习[J]. 信息与电子工程前沿(英文), 2024,25(5):728-741. DOI: 10.1631/FITEE.2300284.

    Zhaohui WANG, Hongjiao LI, Jinguo LI, et al. Federated learning on non-IID and long-tailed data via dual-decoupling[J]. Frontiers of Information Technology & Electronic Engineering, 2024, 25(5): 728-741. DOI: 10.1631/FITEE.2300284.

  •  
  •  

0

浏览量

265

Downloads

0

CSCD

>
文章被引用时,请邮件提醒。
Submit
工具集
下载
参考文献导出
分享
收藏
添加至我的专辑

相关文章

Federated mutual learning: a collaborative machine learning method for heterogeneous data, models, and objectives
Prototypical clustered federated learning for heart rate prediction
Knowledge distillation for financial large language models: a systematic review of strategies, applications, and evaluation
FedMcon: an adaptive aggregation method for federated learning via meta controller&
Prototype-guided cross-task knowledge distillation

相关作者

沈弢
张杰
贾鑫康
张凤达
吕喆奇
况琨
吴超
吴飞

相关机构

浙江大学计算机科学与技术学院
浙江大学软件学院
浙江大学公共管理学院
复旦大学智能复杂体系基础理论与关键技术实验室
麦考瑞大学计算学院
0