原文:論文閱讀 | Generating Natural Language Adversarial Examples through Probability Weighted Word Saliency

論文地址:https: www.aclweb.org anthology P 已有研究工作: 在文本的對抗樣本領域,因為有詞嵌入的存在,很難將特征空間的擾動向量映射到詞匯表中的有效單詞。因此在CV領域的方法不能直接用於NLP領域,一般的方法是在詞級別或者字符級別直接修改原始樣本,來實現對抗性攻擊。 本文的工作和創新點: 關注的是文本分類的對抗樣本的問題。其主要難點在於,句子空間是離散的,沿梯度方向 ...

2020-04-20 23:50 0 757 推薦指數:

查看詳情

論文閱讀 | Generating Fluent Adversarial Examples for Natural Languages

Generating Fluent Adversarial Examples for Natural Languages ACL 2019 為自然語言生成流暢的對抗樣本 摘要 有效地構建自然語言處理(NLP)任務的對抗性攻擊者是一個真正的挑戰。首先,由於句子空間是離散的。沿梯度方向 ...

Thu Aug 15 03:56:00 CST 2019 2 408
論文閱讀 | Adversarial Training for Large Neural Language Models

本文把對抗訓練用到了預訓練和微調兩個階段,對抗訓練的方法是針對embedding space,通過最大化對抗損失、最小化模型損失的方式進行對抗,在下游任務上取得了一致的效果提升。有趣的是, ...

Thu Oct 15 01:01:00 CST 2020 2 780
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM