1. 首页 >生活 > 正文

联邦学习综述多方计算的视角

导读 联邦学习(FL)已成为一种流行的机器学习范例,它允许多个数据所有者协作训练模型,而无需共享其原始数据集。它具有对敏感数据进行广泛分析应...

联邦学习(FL)已成为一种流行的机器学习范例,它允许多个数据所有者协作训练模型,而无需共享其原始数据集。它具有对敏感数据进行广泛分析应用的潜力。

例如,联邦学习已应用于疾病预测和诊断等医疗大数据分析,而无需向第三方服务泄露患者的私人医疗信息。银行和保险公司还利用它来训练准确的机器学习模型,以进行风险评估或客户推荐。

联邦学习通过将训练过程分解为本地训练和模型聚合,实现协作模型训练,而无需在数据所有者之间共享原始数据集。一篇描述联邦学习调查的论文已发表在《计算机科学前沿》杂志上。

每个数据所有者在其自己的数据分区上执行本地训练,并且仅传达中间结果,例如在集中式服务器或其他数据所有者处的模型聚合的梯度。使用中央服务器来协调模型聚合的联邦学习称为集中式FL,而以点对点方式聚合的模型称为分散式FL。

集中式FL会给服务器带来很高的计算工作量,而去中心化FL则涉及对等点之间的过多通信。因此,最近提出了半集中式FL,通过进行集群或分层模型聚合来平衡计算和通信成本。

我们专注于具有隐私保证的联邦学习。请注意,交换中间结果(例如梯度)而不是原始数据集仍然可能泄露隐私。因此,在联邦学习期间,必须使用额外的技术来确保安全通信和计算。

特别令人感兴趣的是多方计算,这是一种通用且基本的技术类别,它采用多方私有输入进行聚合计算,而不泄露每一方的私有数据。常见的多方计算技术包括乱码电路、秘密共享、同态加密、差分隐私等。

近年来,通过多方计算增强联邦学习隐私性的浪潮激增。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!