原文:论文阅读 | Robust Neural Machine Translation with Doubly Adversarial Inputs

用对抗性的源实例攻击翻译模型 使用对抗性目标输入来保护翻译模型,提高其对对抗性源输入的鲁棒性。 生成对抗输入:基于梯度 平均损失 gt AdvGen 我们的工作处理由白盒NMT模型联合生成的扰动样本 gt 知道受攻击模型的参数 ADVGEN包括encoding, decoding: 通过生成对训练损失敏感的对抗性源输入来攻击NMT模型 用对抗性目标输入对NMT模型进行了防御,目的是降低相应对抗性 ...

2019-09-25 11:22 0 329 推荐指数:

查看详情

论文阅读 | A Robust Adversarial Training Approach to Machine Reading Comprehension

背景 方法 作者们提出了一种模型驱动的方法,使用自动对抗的方法自动生成未观察过的对抗样本,并运用生成的样本最终提升阅读理解模型的效果鲁棒性,全程无需人工参与。 该方法可以简单地划分为三个步骤: (1)对每个训练样本利用对抗的方法生成一个干扰向量输入,使得它能够误导当前 ...

Sun May 24 21:29:00 CST 2020 0 601
论文阅读 | Adversarial Training for Large Neural Language Models

本文把对抗训练用到了预训练和微调两个阶段,对抗训练的方法是针对embedding space,通过最大化对抗损失、最小化模型损失的方式进行对抗,在下游任务上取得了一致的效果提升。有趣的是, ...

Thu Oct 15 01:01:00 CST 2020 2 780
Neural_machine_translation_with_attention_v4a

Neural Machine Translation Welcome to your first programming assignment for this week! You will build a Neural Machine Translation (NMT) model ...

Tue Jul 14 07:35:00 CST 2020 0 1584
论文泛读·Adversarial Learning for Neural Dialogue Generation

原文翻译 导读   这篇文章的主要工作在于应用了对抗训练(adversarial training)的思路来解决开放式对话生成(open-domain dialogue generation)这样一个无监督的问题。   其主体思想就是将整体任务划分到两个子系统上,一个是生成器 ...

Wed Jan 03 17:28:00 CST 2018 0 1538
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM