
联邦学习中的后门攻击实例分析
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文对联邦学习环境下的后门攻击进行了案例研究与深入探讨,揭示潜在的安全威胁,并提出相应的防御策略。
后门攻击是联邦学习中的常见威胁之一,其目的是让模型对具有特定特征的数据做出错误的预测,但不会影响到主任务的表现。接下来我们讨论一种在横向联邦场景下的后门攻击行为。
这里介绍两种带有后门的毒化训练数据集:第一种方式不需要手动修改图片数据,而是选择所有具备明显某种特征(例如红色的小车)的样本,并期望模型将这类具有特定颜色或物体属性的数据错误地分类为其他类别(如小鸟)。第二种方式是在原始图像上人为添加某些特征信息,比如在原图中加入红色条纹,目的是让含有这种人工标记的图片被误判成另一类别的数据。
对于正常参与联邦学习过程中的客户端来说,在本地进行模型训练时遵循传统的梯度下降方法。而恶意参与者则需确保其上传到全局模型的数据既能适应毒化样本集又能保持在标准测试集上的良好性能,同时还要防止局部更新导致的显著偏差,以保证与整体系统的一致性。
全部评论 (0)
还没有任何评论哟~


