Advertisement

SememePSO-Attack: ACL 2020论文《单词级文本对抗攻击的组合优化方法》的代码与数据

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
SememePSO-Attack是ACL 2020论文提出的一种针对单词级文本对抗攻击的组合优化方法,旨在通过粒子群算法改进文本扰动策略。该项目提供了相关代码和数据资源。 SememePSO攻击ACL 2020论文“作为组合优化的单词级文本对抗攻击”的代码和数据。如果发现有帮助,请引用我们的论文。 @inproceedings{zang2020word, title={Word-level Textual Adversarial Attacking as Combinatorial Optimization}, author={Zang, Yuan and Qi, Fanchao and Yang, Chenghao and Liu, Zhiyuan and Zhang, Meng and Liu, Qun and Sun, Maosong}, booktitle={Proceedings of ACL}, year={2020}} 该存储库主要由袁Yuan和杨成浩贡献。要求使用tensorflow-gpu == 1.14。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • SememePSO-Attack: ACL 2020
    优质
    SememePSO-Attack是ACL 2020论文提出的一种针对单词级文本对抗攻击的组合优化方法,旨在通过粒子群算法改进文本扰动策略。该项目提供了相关代码和数据资源。 SememePSO攻击ACL 2020论文“作为组合优化的单词级文本对抗攻击”的代码和数据。如果发现有帮助,请引用我们的论文。 @inproceedings{zang2020word, title={Word-level Textual Adversarial Attacking as Combinatorial Optimization}, author={Zang, Yuan and Qi, Fanchao and Yang, Chenghao and Liu, Zhiyuan and Zhang, Meng and Liu, Qun and Sun, Maosong}, booktitle={Proceedings of ACL}, year={2020}} 该存储库主要由袁Yuan和杨成浩贡献。要求使用tensorflow-gpu == 1.14。
  • 分析
    优质
    本研究聚焦于对抗样本对机器学习模型的安全威胁,深入剖析其生成原理与攻击模式,旨在提升模型鲁棒性。 要实现对抗样本攻击,请运行test.py文件。如果想测试其他图片,可以修改代码中的图片路径。
  • 关于防御技术综述
    优质
    本文综述了针对文本对抗样本的最新研究进展,详细探讨了各种攻击方法和防御策略,为理解当前挑战及未来发展方向提供全面视角。 近年来,对抗样本攻击与防御成为研究热点。攻击者通过微小的改动生成对抗样本来使深度神经网络预测出错。这些对抗样本揭示了神经网络的脆弱性,并有助于修复这些问题以提高模型的安全性和鲁棒性。
  • Flat-Lattice-Transformer: ACL 2020
    优质
    Flat-Lattice-Transformer是ACL 2020的一篇论文提出的创新模型,该模型引入了一种新颖的扁平化格结构,显著提升了大规模序列到序列任务中的性能与效率。此条目提供相关代码资源链接。 平面变压器ACL 2020论文的代码:FLAT使用平格变压器进行中文命名实体识别(NER)。模型及结果可在我们的ACL 2020文件中找到。 所需环境: - Python: 3.7.3 - PyTorch: 1.2.0 - FastNLP: 0.5.0 - Numpy: 1.16.4 如何运行代码? 下载字符嵌入和单词嵌入。具体包括:字符及Bigram嵌入(gigaword_chn.all.a2b.{uni或bi}.ite50.vec);词(格)嵌入,如yj(ctb.50d.vec) 或 ls(sgns.merge.word.bz2)。 步骤: 1. 修改paths.py以添加预训练的嵌入和数据集。 2. 运行以下命令:python preprocess.py 若需在MSRA NER 数据集中进行FLAT模型的训练,可使用 --clip_msra 参数。
  • 综述——侧重多种比较
    优质
    本文旨在总结并对比分析当前主流的对抗攻击算法,揭示不同攻击手段的特点及效果,为相关领域的研究者提供参考。 对抗攻击算法总结包括以下几种:MIM、FGSM、PGD、C&W、L-BFGS、JSMA 以及 MalGAN 和 DeepFool 等方法。这些技术主要用于评估机器学习模型的鲁棒性,通过向输入数据添加微小扰动来尝试使模型产生错误预测。
  • tBERT:源自ACL 2020实现
    优质
    tBERT是基于ACL 2020论文开发的开源代码库,旨在提供一种改进的BERT模型变体,适用于特定任务的自然语言处理。 tBERT 该存储库提供了论文“ tBERT:用于语义相似性检测的主题模型和BERT联合力”的代码。设置下载预训练的BERT,在主目录中创建缓存文件夹: ```bash cd ~ mkdir tf-hub-cache ``` 进入缓存文件夹后,下载并解压缩预训练的BERT模型: ```bash cd tf-hub-cache wget https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-12_H-768_A-12.zip unzip uncased_L-12_H-768_A-12.zip ``` 下载预处理数据,转到tBERT存储库: ```bash cd /path/to/tBERT/ ``` 从仓库中获取主题模型和原始数据集: ```bash wget https://www.dropbox.com/s/6p26mkwv62677zt/original_data.tar.gz ``` 解压下载的文件。
  • 在AAAI 2021上关于六篇相关
    优质
    本文综述了在AAAI 2021会议上发表的六篇有关对抗攻击的研究论文,涵盖了从理论分析到实际应用的最新进展。 近年来,关于对抗攻击(Adversarial Attack)的相关研究论文数量显著增加。这些研究涵盖了多个领域,包括传统的对抗攻击方法、基于图数据的新型攻击手段以及在自然语言处理(NLP)和计算机视觉(CV)中的应用与防御技术等前沿话题。这一主题因其创新性和实用性而备受关注,成为了当前的研究热点之一。
  • 基于GAN生成式
    优质
    本项目利用生成式对抗网络(GAN)技术开发了一种新型的生成式对抗攻击方法,旨在增强AI系统的安全性与鲁棒性。通过构建智能且高效的算法模型,该项目能够模拟并预测潜在的安全威胁,为防御系统提供关键信息和策略建议。代码开源,便于研究者学习、实验及改进。 生成式对抗攻击(GAN)代码介绍及解释,适合初学者入门学习的资料。
  • 利用生成网络技术
    优质
    本研究探索了如何运用生成对抗网络(GAN)创建能够有效干扰机器学习模型预测准确性的对抗性样本,以深入理解并提升深度学习系统的鲁棒性和安全性。 基于生成对抗网络的对抗样本攻击方法由田宇和刘建毅提出。随着深度学习技术的广泛应用,其安全问题逐渐引起了人们的关注。在这一领域中,对抗样本攻击成为了一个热点研究方向。如何应对这类威胁成为了深入探讨的问题之一。