
改进版Deep Leakage from Gradients: iDLG的代码
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
iDLG是基于改进版Deep Leakage from Gradients技术的代码实现,旨在提升模型训练过程中的隐私保护能力,防止敏感数据泄露。
改进的深度泄漏(iDLG)代码概述:人们普遍认为,在协作学习和联合学习这类分布式系统里分享梯度不会泄露训练数据中的私人信息。然而,[1]提出了一种方法证明了从公开共享的梯度中可以获取到私有训练数据的可能性。他们的“从梯度深度泄漏”(DLG)技术通过在监督下合成虚拟的数据和相应的标签来实现这一点。但是,这种方法难以收敛,并且无法稳定地发现真实标签。
本段落揭示了共享梯度确实泄露了真实的标签信息,并提出了一种简单而可靠的方法来精确提取这些数据。特别的是,我们的方法能够准确恢复DLG未能找到的真实标签,因此命名为改进的深度泄漏(iDLG)。此方法适用于任何通过交叉熵损失在单热编码标签上训练过的可微模型。
我们从数学角度详细解释了如何利用梯度信息提取真实标签,并通过实验数据证明了相较于原始DLG技术的优势。我们的实验表明,在MNIST数据集上的准确率可以达到89.9%。
全部评论 (0)
还没有任何评论哟~


