论文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的对抗样本领域,因为有词嵌入的存在,很难将特征空间的扰动向量映射到词汇表中的有效单词。因此在CV领域的方法不能直接用于NLP领域,一般的方法是在词级别或者字符级别直接修改 ...
Generating Fluent Adversarial Examples for Natural Languages ACL 为自然语言生成流畅的对抗样本 摘要 有效地构建自然语言处理 NLP 任务的对抗性攻击者是一个真正的挑战。首先,由于句子空间是离散的。沿梯度方向做小扰动是困难的。其次,生成的样本的流畅性不能保证。在本文中,我们提出了MHA,它通过执行Metropolis Hastings ...
2019-08-14 19:56 2 408 推荐指数:
论文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的对抗样本领域,因为有词嵌入的存在,很难将特征空间的扰动向量映射到词汇表中的有效单词。因此在CV领域的方法不能直接用于NLP领域,一般的方法是在词级别或者字符级别直接修改 ...
Generating Adversarial Examples with Adversarial Networks 2020-03-08 22:40:38 Paper: IJCAI-2018 Code: https://github.com/mathcbc/advGAN_pytorch ...
本文介绍的是斯坦福自然语言处理工具的升级版:Stanza,在v1.0.0之前,这个工具被称为StanfordNLP。 2021年了,今天想使用斯坦福自然语言处理工具发现人家升级了,不用安装JDK了, ...
NDSS https://arxiv.org/abs/1812.05271 摘要中的创新点确实是对抗攻击中值得考虑的点: 1. effective 2. evasive recogniz ...
《Explaining and harnessing adversarial examples》 论文学习报告 组员:裴建新 赖妍菱 周子玉 2020-03-27 1 背景 Szegedy有一个有趣的发现:有几种机器学习模型 ...
Explaining and Harnessing Adversarial Examples 注:研究不深,纯个人理解,可能有误 1论文简介: Szegedy提出有几种机器学习的模型容易受到对抗样本的攻击。在训练数据的不同子集上训练的具有不同体系结构的模型会误分类同一对抗样本。这表明对抗样本 ...
导读: 本文为CVPR2018论文《Deep Adversarial Subspace Clustering》的阅读总结。目的是做聚类,方法是DASC=DSC(Deep Subspace Clustering)+GAN(Generative Adversarial Networks)。本文 ...
导读: 本文为CVPR2018论文《Deep Adversarial Subspace Clustering》的阅读总结。目的是做聚类,方法是DASC=DSC(Deep Subspace Clustering)+GAN(Generative Adversarial Networks)。本文 ...