Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理(NLP)任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向 ...
論文地址:https: www.aclweb.org anthology P 已有研究工作: 在文本的對抗樣本領域,因為有詞嵌入的存在,很難將特征空間的擾動向量映射到詞匯表中的有效單詞。因此在CV領域的方法不能直接用於NLP領域,一般的方法是在詞級別或者字符級別直接修改原始樣本,來實現對抗性攻擊。 本文的工作和創新點: 關注的是文本分類的對抗樣本的問題。其主要難點在於,句子空間是離散的,沿梯度方向 ...
2020-04-20 23:50 0 757 推薦指數:
Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理(NLP)任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向 ...
Generating Adversarial Examples with Adversarial Networks 2020-03-08 22:40:38 Paper: IJCAI-2018 Code: https://github.com/mathcbc/advGAN_pytorch ...
參考:機器之心 論文:Pre-trained Models for Natural Language Processing: A Survey 首先簡要介紹了語言表示學習及相關研究進展; 其次從四個方面對現有 PTM (Pre-trained Model) 進行系統分類 ...
本文把對抗訓練用到了預訓練和微調兩個階段,對抗訓練的方法是針對embedding space,通過最大化對抗損失、最小化模型損失的方式進行對抗,在下游任務上取得了一致的效果提升。有趣的是, ...
Detection of Adversarial Training Examples in Poisoning Attacks through Anomaly Detection——閱讀筆記 小組成員:岑鵬,吳易佳,秦紅梅 2020.4.15 1. 背景 ...
NDSS https://arxiv.org/abs/1812.05271 摘要中的創新點確實是對抗攻擊中值得考慮的點: 1. effective 2. evasive recogniz ...
參考:NLP重鑄篇之對抗文本攻擊 [ 論文源碼: github ] 作者提出了一種對抗樣本生成算法TEXTFOOLER。 論文中,作者使用這種方法,對文本分類與文本蘊含兩種任務做了測試,成功的攻擊了這兩種任務的相關模型,包括:BERT,CNN,LSTM,ESIM等等。 問題定義 ...
本文介紹的是斯坦福自然語言處理工具的升級版:Stanza,在v1.0.0之前,這個工具被稱為StanfordNLP。 2021年了,今天想使用斯坦福自然語言處理工具發現人家升級了,不用安裝JDK了, ...