論文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的對抗樣本領域,因為有詞嵌入的存在,很難將特征空間的擾動向量映射到詞匯表中的有效單詞。因此在CV領域的方法不能直接用於NLP領域,一般的方法是在詞級別或者字符級別直接修改 ...
Generating Fluent Adversarial Examples for Natural Languages ACL 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理 NLP 任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向做小擾動是困難的。其次,生成的樣本的流暢性不能保證。在本文中,我們提出了MHA,它通過執行Metropolis Hastings ...
2019-08-14 19:56 2 408 推薦指數:
論文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的對抗樣本領域,因為有詞嵌入的存在,很難將特征空間的擾動向量映射到詞匯表中的有效單詞。因此在CV領域的方法不能直接用於NLP領域,一般的方法是在詞級別或者字符級別直接修改 ...
Generating Adversarial Examples with Adversarial Networks 2020-03-08 22:40:38 Paper: IJCAI-2018 Code: https://github.com/mathcbc/advGAN_pytorch ...
本文介紹的是斯坦福自然語言處理工具的升級版:Stanza,在v1.0.0之前,這個工具被稱為StanfordNLP。 2021年了,今天想使用斯坦福自然語言處理工具發現人家升級了,不用安裝JDK了, ...
NDSS https://arxiv.org/abs/1812.05271 摘要中的創新點確實是對抗攻擊中值得考慮的點: 1. effective 2. evasive recogniz ...
《Explaining and harnessing adversarial examples》 論文學習報告 組員:裴建新 賴妍菱 周子玉 2020-03-27 1 背景 Szegedy有一個有趣的發現:有幾種機器學習模型 ...
Explaining and Harnessing Adversarial Examples 注:研究不深,純個人理解,可能有誤 1論文簡介: Szegedy提出有幾種機器學習的模型容易受到對抗樣本的攻擊。在訓練數據的不同子集上訓練的具有不同體系結構的模型會誤分類同一對抗樣本。這表明對抗樣本 ...
導讀: 本文為CVPR2018論文《Deep Adversarial Subspace Clustering》的閱讀總結。目的是做聚類,方法是DASC=DSC(Deep Subspace Clustering)+GAN(Generative Adversarial Networks)。本文 ...
導讀: 本文為CVPR2018論文《Deep Adversarial Subspace Clustering》的閱讀總結。目的是做聚類,方法是DASC=DSC(Deep Subspace Clustering)+GAN(Generative Adversarial Networks)。本文 ...