联邦学习综述多方计算的视角
发布日期:2024-02-29 15:07:59
导读 联邦学习(FL)已成为一种流行的机器学习范例,它允许多个数据所有者协作训练模型,而无需共享其原始数据集。它具有对敏感数据进行广泛分析应...
联邦学习(FL)已成为一种流行的机器学习范例,它允许多个数据所有者协作训练模型,而无需共享其原始数据集。它具有对敏感数据进行广泛分析应用的潜力。
例如,联邦学习已应用于疾病预测和诊断等医疗大数据分析,而无需向第三方服务泄露患者的私人医疗信息。银行和保险公司还利用它来训练准确的机器学习模型,以进行风险评估或客户推荐。
联邦学习通过将训练过程分解为本地训练和模型聚合,实现协作模型训练,而无需在数据所有者之间共享原始数据集。一篇描述联邦学习调查的论文已发表在《计算机科学前沿》杂志上。
每个数据所有者在其自己的数据分区上执行本地训练,并且仅传达中间结果,例如在集中式服务器或其他数据所有者处的模型聚合的梯度。使用中央服务器来协调模型聚合的联邦学习称为集中式FL,而以点对点方式聚合的模型称为分散式FL。
集中式FL会给服务器带来很高的计算工作量,而去中心化FL则涉及对等点之间的过多通信。因此,最近提出了半集中式FL,通过进行集群或分层模型聚合来平衡计算和通信成本。
我们专注于具有隐私保证的联邦学习。请注意,交换中间结果(例如梯度)而不是原始数据集仍然可能泄露隐私。因此,在联邦学习期间,必须使用额外的技术来确保安全通信和计算。
特别令人感兴趣的是多方计算,这是一种通用且基本的技术类别,它采用多方私有输入进行聚合计算,而不泄露每一方的私有数据。常见的多方计算技术包括乱码电路、秘密共享、同态加密、差分隐私等。
近年来,通过多方计算增强联邦学习隐私性的浪潮激增。
标签: