联邦学习与贝叶斯神经网络的融合:鲁棒且感知不确定性的分布式变分推理☆
Federated learning meets Bayesian neural network: Robust and uncertainty-aware distributed variational inference☆
https://www.sciencedirect.com/science/article/abs/pii/S0893608025000140?via%3Dihub
精彩片段
创新的 BNN-FL 融合:先验选择、高斯权重聚合、方差控制。
FedUAB增强了服务器和客户端模型,并增加了不确定性量化功能。
摘要
联邦学习(FL)是分布式机器学习中用于数据隐私保护的常用框架。然而,当前的联邦学习面临诸多问题和挑战,例如客户端数据量有限以及数据异构性。这些问题导致基于客户端训练的模型容易出现漂移和过拟合,最终聚合模型的性能仅为次优水平。为了解决上述问题,我们提出了一种将贝叶斯神经网络(BNN)显式集成到联邦学习框架中的新方法。该方法能够显著增强模型的鲁棒性。我们将此方法称为 FedUAB,即“具有不确定性感知 BNN 的联邦学习”。在 FedUAB 算法中,每个联邦学习客户端都使用反向传播贝叶斯算法独立训练一个 BNN。近似模型的权重被建模为高斯分布,这不仅缓解了过拟合问题,也更好地保障了数据隐私。此外,我们还应用了创新方法来克服贝叶斯神经网络(BNN)和模糊逻辑(FL)融合中的其他关键挑战,例如选择最优先验分布、聚合来自多个客户端的高斯分布权重以及严格管理权重方差。在模糊逻辑环境的模拟中,FedUAB 的服务器端全局模型和客户端个性化模型均展现出卓越的性能,优于传统的模糊逻辑和其他贝叶斯模糊逻辑方法。此外,它还具备量化和分解不确定性的能力。我们的项目已在https://github.com/lpf111222/FedUAB/ 开源。
引言
随着数据量激增和数据隐私问题日益凸显,由单个服务器集中执行复杂的学习任务已变得不切实际。联邦学习(FL)应运而生,旨在应对这些挑战,并在随后的几年中不断发展进步。联邦学习可被视为一种特殊的客户端训练形式,强调利用本地数据,无需服务器端传输,从而确保用户隐私得到有效保护。通过实现设备端训练并将上传数据限制为计算结果,可以降低敏感信息泄露的风险(Wahab et al., 2021; Yang et al., 2019)。
与集中式机器学习不同,FL客户端用户偏好、地理分布和数据收集方法的多样性,必然导致客户端训练数据的非独立同分布(NonIID)属性。因此,FL领域仍面临诸多重要挑战。本研究重点关注以下三个问题:
客户端漂移:客户端特定模型与总体全局模型的偏差归因于客户端间数据分布的不相同和非独立性(Du et al., 2024, Jing et al., 2023)。这种情况会导致全局模型的性能下降和准确性降低,因为局部更新可能无法有效地促进全局学习目标的实现(Zhao et al., 2018)。
客户端过拟合:单个客户端数据量的限制可能导致客户端模型训练过程中出现过拟合。在过拟合的情况下,训练损失迅速下降,使得模型权重难以有效更新(Li & Zhan, 2021)。FL 的过拟合模型通常表现为过度自信和缺乏鲁棒性,在分布外(OoD)样本上表现不佳。
数据隐私保护:FL 通常采用添加随机噪声作为保护隐私的方法,例如差分隐私 (DP) (Wei 等人,2020),但对模型的权重施加随机干扰必然会导致性能不可预测的下降 (Wang 等人,2023)。
本文从贝叶斯神经网络(BNN)的角度探讨了上述挑战。通过利用BNN,模型的鲁棒性得到增强,本文提出的综合方法确保了BNN在模糊逻辑(FL)中的无缝应用,从而为模糊逻辑算法的发展做出了一定的贡献。
本研究提出了一套整合并应用模糊逻辑(FL)和贝叶斯神经网络(BNN)的综合解决方案。BNN 与深度神经网络(DNN)的区别在于其权重的概率分配,这与 DNN 的固定值方法截然不同。这种概率建模与神经网络的结合产生了概率推理输出,从而可以评估预测的不确定性。BNN 的概率推理方法也显著增强了其在处理有限数据、噪声和数据错配(OoD)问题时的鲁棒性(Goan & Fookes,2020)。
我们充分利用贝叶斯神经网络(BNN)的优势,将BNN显式集成到模糊逻辑(FL)中,而不是像dropout等方法那样模拟BNN的效果。这种方法旨在解决非独立同分布(NonIID)导致的客户端漂移和过拟合问题。通过这种方式,我们利用概率模型权重,有望增强客户端数据隐私保护。此外,该模型还保留了BNN的不确定性量化能力。我们将此解决方案命名为FedUAB(具有不确定性感知BNN的模糊逻辑)。
然而,在模糊逻辑架构中训练贝叶斯神经网络(BNN)面临诸多问题,事实上,这方面的研究相对较少。由于性能提升有限等问题,BNN目前并非研究热点。要使其适用于分布式模糊逻辑场景,需要解决以下挑战:
如何为训练数据有限的 FL 客户端设计有效的损失函数来训练 BNN?
如何在 FL 服务器上聚合从不同客户端接收的概率分布形式的模型权重?
最优先验分布是什么?
我们如何在保证 FedUAB 有效性的同时,兼顾高精度和量化不确定性的能力?
本文将逐一探讨上述挑战,并展示 FedUAB 的有效性。下图 1 展示了 FedUAB 的整体架构,其结构与传统的模糊逻辑类似,区别在于贝叶斯神经网络的训练、权重聚合以及不确定性评估,而这些正是本研究的创新之处。
本研究提出的 FedUAB 将 BNN 集成到 FL 框架中,具有以下优势和贡献:
我们提出了一种在自由客户端上训练贝叶斯神经网络(BNN)的方法。每个客户端维护自己的BNN,每个权重均服从高斯分布。客户端使用反向传播贝叶斯算法训练BNN模型,该算法通过优化称为变分自由能的压缩指标来更新权重。这种变分推理方法中概率采样的随机性也间接地保护了训练数据的隐私。
本文基于概率融合理论,提出了一种新颖的FL权重聚合方法。该方法将多个客户端的权重(每个权重服从高斯分布)聚合为新的全局权重,这些全局权重仍然服从高斯分布。聚合后的新权重作为初始权重和先验信息,用于后续的FL训练。
训练后的 FedUAB 模型可以通过蒙特卡罗采样获得更高精度和量化不确定性的输出,甚至可以将不确定性分解为偶然不确定性和认知不确定性。
实验证实了上述 FedUAB 的优势,并提供了量化和分解不确定性的实际例子。
本文余下部分结构如下:第 2 节回顾并总结了 BNN 及其与 FL 集成的相关工作。第 3 节结合图 1 概述了 FedUAB。第 4 节描述了 BNN 在 FL 中的实现细节。第 5 节展示了实验结果。最后,第 6 节总结了全文。
原文链接:https://www.sciencedirect.com/science/article/abs/pii/S0893608025000140?via%3Dihub
热门跟贴