Advertisement

Awesome-Differential-Privacy: 差分隐私的机器学习

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
Awesome-Differential-Privacy 是一个专注于差分隐私在机器学习领域应用的资源集合。它涵盖了各种工具、库及研究文章,旨在促进安全的数据分析和模型训练实践。 差分隐私学习与集成 1. 直观解释:提供易于理解的差分隐私概念介绍。 2. 学术论文: - 2.1 调查研究中的算法基础,包括CCS、S&P、NDSS、USENIX和Infocom等会议中关于差分隐私的研究成果。 - SoK: 差分隐私综合概述 - 课程:秋季19/20 CSE 660, 秋季2017 cs295-数据隐私研究小组,CS 860-私有数据分析算法(2020年秋季) 3. 视频: - 差分隐私的最新进展II - 差分隐私的最新发展I - 采样与差分隐私放大技术 - 讲解从理论到实践应用中的差分隐私 4. 代码实现:提供DP算法的具体代码实现。 - K-匿名算法实现 - 随机响应机制的应用示例 - 拉普拉斯和指数机制的实施细节

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Awesome-Differential-Privacy:
    优质
    Awesome-Differential-Privacy 是一个专注于差分隐私在机器学习领域应用的资源集合。它涵盖了各种工具、库及研究文章,旨在促进安全的数据分析和模型训练实践。 差分隐私学习与集成 1. 直观解释:提供易于理解的差分隐私概念介绍。 2. 学术论文: - 2.1 调查研究中的算法基础,包括CCS、S&P、NDSS、USENIX和Infocom等会议中关于差分隐私的研究成果。 - SoK: 差分隐私综合概述 - 课程:秋季19/20 CSE 660, 秋季2017 cs295-数据隐私研究小组,CS 860-私有数据分析算法(2020年秋季) 3. 视频: - 差分隐私的最新进展II - 差分隐私的最新发展I - 采样与差分隐私放大技术 - 讲解从理论到实践应用中的差分隐私 4. 代码实现:提供DP算法的具体代码实现。 - K-匿名算法实现 - 随机响应机制的应用示例 - 拉普拉斯和指数机制的实施细节
  • Differential Privacy Library: Diffprivlib
    优质
    Diffprivlib是一款专为机器学习和数据分析设计的差异隐私库,旨在帮助开发者在保护数据隐私的同时进行安全的数据分析。 Diffprivlib v0.4 是一个通用库,用于在差异隐私领域进行试验、研究和开发应用程序。使用 diffprivlib 可以执行以下操作: - 尝试不同的隐私设置并探索分类和聚类模型中差异隐私对机器学习准确性的影响。 - 使用我们广泛的机制来构建自己的差异隐私应用程序。 Diffprivlib 支持 Python 版本 3.7 至 3.9。以下是入门示例:首先,我们将加载 diffprivlib 并执行80/20的训练集与测试集拆分。 ```python from sklearn import datasets from sklearn.model_selection import train_test_split dataset = datasets.load_iris() X_train, X_test, y_train, y_test = train_test_split(dataset.data, dataset.target) ```
  • Differential Privacy in Deep Learning - PPT.pdf
    优质
    本PDF演示文稿探讨了深度学习中差分隐私的应用,旨在保护数据隐私的同时训练出有效的模型,适合研究者和技术爱好者阅读。 Deep Learning with Differential Privacy---PPT.pdf
  • 笔记__包含Notes及高斯制详解文档.rar
    优质
    本资料为差分隐私学习入门级资源包,内含详尽的学习笔记与高斯机制讲解文档,适合初学者快速掌握差分隐私的基础理论和实践技巧。 差分隐私早期学习笔记包括“差分隐私_notes”汇报文档以及详细证明高斯机制(The Gaussian Mechanism)的文档。
  • 保护.pptx
    优质
    本演示文稿探讨了在实施机器学习技术时面临的隐私保护挑战,并提出了一系列旨在平衡数据利用和用户隐私的技术解决方案。 这篇关于隐私保护与机器学习的PPT基于2014年的一篇论文制作而成,共有26页内容,适合大约40分钟的演讲时间。该PPT涵盖了背景介绍、机器学习的基本概念、隐私攻击的方式以及各种隐私保护的方法,并重点介绍了差分隐私这一重要的保护方式。
  • 在联邦应用案例
    优质
    本案例探讨了差分隐私技术如何应用于联邦学习框架中,确保数据训练过程中的用户隐私安全。通过具体实施细节和实验结果,分析其有效性和实用性。 与集中式差分隐私相比,在联邦学习场景下引入差分隐私技术不仅需要关注数据层面的隐私安全问题,还需考虑用户层面(即客户端)的安全性。需要注意的是,由于添加了噪音数据,在前几轮迭代中算法可能会出现不稳定的情况。读者可以自行调整conf.json文件中的超参数值,例如梯度裁剪参数c和噪音参数sigma等,以观察不同配置对结果的影响。DP-FedAvg算法是将联邦学习的经典Federated Average方法与差分隐私技术相结合的一种方式,具体实现包括本地客户端的参数裁剪和服务端聚合时添加噪音。
  • 谷歌政策条款 Googles Privacy Policy Terms
    优质
    谷歌的隐私政策条款概述了公司如何收集、使用和分享用户信息,旨在保护用户的隐私权并确保透明度。 您使用谷歌产品、软件、服务及网站(以下统称为“服务”)受您与谷歌之间法律协议的条款约束。这里的“谷歌”指的是Google Inc.,其主要营业地在美国加利福尼亚州山景城阿米瑟剧院路1600号。本段落件解释了该协议是如何制定的,并概述了一些关键条款。
  • 基于秘密SecureML保护训练
    优质
    本研究提出了一种利用秘密分享技术改进SecureML框架的方法,旨在增强隐私保护下的机器学习模型训练安全性与效率。 我对论文《SecureML》的理解是:该研究利用秘密分享技术来进行机器学习训练,以此来保障数据的隐私性。
  • 基于密码保护方法.pdf
    优质
    本文探讨了利用密码学技术增强机器学习过程中的数据隐私保护方法,旨在提供安全的数据分析框架,同时确保参与方的数据机密性。 本段落介绍隐私保护机器学习领域常用的密码学工具和技术,包括通用安全多方计算(Secure Multi-Party Computing, SMPC)、隐私保护集合运算、同态加密(Homomorphic Encryption, HE)等,并探讨了如何利用这些技术解决数据整理、模型训练和测试以及预测阶段的隐私问题。 在隐私保护机器学习中,密码学方法至关重要,因为它们能够在不暴露原始数据的情况下执行复杂的计算任务。本段落将深入介绍几种主要工具和技术。 通用安全多方计算(SMPC)是一种允许多个参与者共同进行复杂运算而不泄露各自输入的技术,在联合学习场景下尤其有用。例如,各个机构可以在本地计算模型参数的梯度,并通过SMPC协议安全地汇总这些数据,确保每个参与者的原始信息和过程保密。 隐私保护集合运算是另一种关键工具,它允许在匿名化数据集构建中进行如交集、并集或差集操作等运算。这有助于不同机构联合分析患者数据而不侵犯个人隐私。例如,在疾病研究中各医院可以利用这种技术计算共同的病患群体而无需揭示任何单个患者的健康信息。 同态加密(HE)允许直接在密文上进行计算,从而保护模型训练和预测阶段的数据安全。云服务提供商可以在不解密的情况下接收并处理用户数据,并返回经过加密的结果给用户,在这个过程中原始数据保持保密状态。 除了上述技术外,还有零知识证明等其他密码学方法可以确保一方能够验证另一个方的声明而无需透露具体信息;以及差分隐私通过添加随机噪声来保护个体隐私。这些技术和工具帮助研究人员开发出更高效的算法和协议,并为大规模分布式AI系统的实现提供了可能性,同时保证了用户数据的安全性和私密性。 随着技术的进步,我们期待看到更多创新性的隐私保护机制应用于实际机器学习任务中,从而推动人工智能领域的健康发展。
  • 从理论到实践
    优质
    本文探讨了差分隐私的概念及其在实际应用中的实现方法,分析了从理论研究到工程实践的关键挑战与解决方案。 Differential Privacy From Theory to Practice 是由普渡大学的宁晖(Ninghui Li)撰写的一本书籍,共有140页。这本书全面介绍了差分隐私理论及其在实践中的应用。