Adversarial Training Methods For Semi-Supervised Text Classification 虛擬對抗訓練思路指引


       模型搞到這時候,就是要以不斷提升泛化力和魯棒性,當今兩個主流的方法是(1)知識蒸餾;(2)對抗學習

本節主要說對抗訓練,它是一種能夠有效提高模型魯棒性和泛化能力的訓練手段,基本原理:在原始輸入上增加對抗擾動,得到對抗樣本,再利用對抗樣本進行訓練,從而提高模型表現。

在自然語言處理中,這個任務處理的就是離散數據,所以一般會把對抗擾動添加到嵌入層中,為了最大化對抗樣本的擾動能力,使用梯度上升方式生成對抗樣本。

可以看2017年的論文《Adversarial Training Methods For Semi-Supervised Text Classification》,雖然這篇文章不是那么新,但這個思路可以作為當今訓練的一個手段,提升你模型2-3%也是不錯的。

列出一些資料供大家學習參考:

paper:   https://arxiv.org/abs/1605.07725

1.https://tobiaslee.top/2017/10/16/Adversarial-Training-Methods-For-Semi-Supervised-Text-Classification-%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0/

2.源碼參考:https://github.com/tensorflow/models/blob/master/research/adversarial_text/data/document_generators.py


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM