原文:論文閱讀 | Robust Neural Machine Translation with Doubly Adversarial Inputs

用對抗性的源實例攻擊翻譯模型 使用對抗性目標輸入來保護翻譯模型,提高其對對抗性源輸入的魯棒性。 生成對抗輸入:基於梯度 平均損失 gt AdvGen 我們的工作處理由白盒NMT模型聯合生成的擾動樣本 gt 知道受攻擊模型的參數 ADVGEN包括encoding, decoding: 通過生成對訓練損失敏感的對抗性源輸入來攻擊NMT模型 用對抗性目標輸入對NMT模型進行了防御,目的是降低相應對抗性 ...

2019-09-25 11:22 0 329 推薦指數:

查看詳情

論文閱讀 | A Robust Adversarial Training Approach to Machine Reading Comprehension

背景 方法 作者們提出了一種模型驅動的方法,使用自動對抗的方法自動生成未觀察過的對抗樣本,並運用生成的樣本最終提升閱讀理解模型的效果魯棒性,全程無需人工參與。 該方法可以簡單地划分為三個步驟: (1)對每個訓練樣本利用對抗的方法生成一個干擾向量輸入,使得它能夠誤導當前 ...

Sun May 24 21:29:00 CST 2020 0 601
論文閱讀 | Adversarial Training for Large Neural Language Models

本文把對抗訓練用到了預訓練和微調兩個階段,對抗訓練的方法是針對embedding space,通過最大化對抗損失、最小化模型損失的方式進行對抗,在下游任務上取得了一致的效果提升。有趣的是, ...

Thu Oct 15 01:01:00 CST 2020 2 780
Neural_machine_translation_with_attention_v4a

Neural Machine Translation Welcome to your first programming assignment for this week! You will build a Neural Machine Translation (NMT) model ...

Tue Jul 14 07:35:00 CST 2020 0 1584
論文泛讀·Adversarial Learning for Neural Dialogue Generation

原文翻譯 導讀   這篇文章的主要工作在於應用了對抗訓練(adversarial training)的思路來解決開放式對話生成(open-domain dialogue generation)這樣一個無監督的問題。   其主體思想就是將整體任務划分到兩個子系統上,一個是生成器 ...

Wed Jan 03 17:28:00 CST 2018 0 1538
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM