原文:論文閱讀 | Adversarial Training for Large Neural Language Models

本文把對抗訓練用到了預訓練和微調兩個階段,對抗訓練的方法是針對embedding space,通過最大化對抗損失 最小化模型損失的方式進行對抗,在下游任務上取得了一致的效果提升。有趣的是,這種對抗訓練方法不僅能夠在BERT上有提高,而且在RoBERTa這種已經預訓練好的模型上也能有所提高,說明對抗訓練的確可以幫助模型糾正易錯點。 方法:ALUM 大型神經語言模型的對抗性訓練 。 做法:在embe ...

2020-10-14 17:01 2 780 推薦指數:

查看詳情

Domain-adversarial training of neural networks - 1 - 論文學習

Domain-adversarial training of neural networks Abstract 我們介紹了一種新的用於域自適應的表征學習方法,其中訓練和測試時的數據來自相似但不同的分布。我們的方法直接受到域 ...

Fri Apr 23 19:28:00 CST 2021 0 606
論文閱讀 | A Robust Adversarial Training Approach to Machine Reading Comprehension

背景 方法 作者們提出了一種模型驅動的方法,使用自動對抗的方法自動生成未觀察過的對抗樣本,並運用生成的樣本最終提升閱讀理解模型的效果魯棒性,全程無需人工參與。 該方法可以簡單地划分為三個步驟: (1)對每個訓練樣本利用對抗的方法生成一個干擾向量輸入,使得它能夠誤導當前 ...

Sun May 24 21:29:00 CST 2020 0 601
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM