
在模型攻击下的深度学习中实现差异隐私保护(PrivateDeepLearning)
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
《PrivateDeepLearning》探讨了如何在面对模型攻击时,于深度学习框架内实施有效的差异隐私保护策略,旨在保障数据安全与模型性能之间的平衡。
在研究论文的标题中提到的技术包括AdLM、pCDBN、dp-Autoencoder 和 StoBatch。这些技术分别用于实现深度学习中的差异隐私保护:
1. **具有对抗性学习认证鲁棒性的可扩展差分隐私自适应拉普拉斯机制**:该方法旨在提高模型在面对攻击时的鲁棒性和隐私保护能力。
2. **卷积深度信念网络中保留差分隐私的方法**:此技术专注于在使用CDBN进行特征提取的过程中保持数据的差异性隐私。
3. **用于人类行为预测应用中的自动编码器差异性隐私保护方法**:该研究探索了如何通过dp-Autoencoder来保护训练过程中产生的敏感信息。
这些软件均基于TensorFlow编写,需要Python 3和Tensorflow版本1.1或更高版本的支持。具体操作步骤如下:
- 使用以下命令在MNIST数据集上计算差异专用LRP:
```
python dpLRP_MNIST.py
```
- 计算Cifar10的差分专用LRP,使用此命令:
```
python3 dpLRP_Cifar10.py
```
- 在MNIST数据集上运行AdLM模型,请执行以下命令:
```
python3 AdLM.py
```
- 对于在Cifar10上的AdLM模型的实验,则需要使用下面这个命令来启动程序:
```
python3 AdLMCNN_
```
全部评论 (0)
还没有任何评论哟~


