联邦学习学习方法及科研论文分析

联邦学习科研论文,综述文章

88a15600c8934093910945500eb328dd.png

 

联邦学习推荐入门资料

学习资料分享,取路径如下(not free)


链接: https://pan.baidu.com/s/1020JvXk5JZug7HksnhaPgA
提取码:pn86 

2643105ce789421ba414b8f7b86a4449.png

 

联邦学习目录

联邦学习 (Federated Learning) 是一种去中心化机器学习范式,能在保护参与训练的边缘节点数据隐私的情况下完成联合机器学习建模。FedML公司联合创始人及FL技术的早期研究者Prof. Salman Avestimehr教授则喜欢用”Train locally and Aggregate Globally”这样的定义来概括联邦学习(如图),是指边缘节点进行建模训练,中央节点进行全局聚合计算,从而使得普惠的模型效果超过所有边缘个体。Fedearetd Learning最佳入门资料可以参考2019年Google主导、FedML创始人参与联合发表的综述《Open Problems and Advances in Federated Learning. FnTML 2021》以及2022年的升级版《A field guide to federated optimization》这两篇众多全球顶尖学者参与的文章。


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部