原文:論文閱讀 | Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment

參考:NLP重鑄篇之對抗文本攻擊 論文源碼: github 作者提出了一種對抗樣本生成算法TEXTFOOLER。 論文中,作者使用這種方法,對文本分類與文本蘊含兩種任務做了測試,成功的攻擊了這兩種任務的相關模型,包括:BERT,CNN,LSTM,ESIM等等。 問題定義 一個有效的樣本:和原樣本近似。 給定文本x,以及訓練好的模型F,F x y,一個有效的對抗樣本要滿足: 其中是相似度函數,值域在 ...

2020-06-03 14:36 0 832 推薦指數:

查看詳情

《2019-TINYBERT DISTILLING BERT FOR NATURAL LANGUAGE UNDERSTANDING》-閱讀心得

摘要:預訓練語言模型如BERT等已經極大地提高了多項自然處理任務的性能,然而預訓練語言模型通常具需要很大計算資源,所以其很難在有限的資源設備上運行。為了加速推理、減小模型的尺寸而同時保留精度,首先提出了一個新穎的遷移蒸餾方法,它是一種基於遷移方法的知識蒸餾思路。利用整個新穎的KD方法,大量 ...

Thu Feb 06 00:42:00 CST 2020 0 1055
《How to Fine-Tune BERT for Text Classification》-閱讀心得

文章名《How to Fine-Tune BERT for Text Classification》,2019,復旦大學 如何在文本分類中微調BERT模型? 摘要:預訓練語言模型已經被證明在學習通用語言表示方面有顯著效果,作為一種最先進的預訓練語言模型,BERT在多項理解任務中取得了驚人的成果 ...

Sat Feb 08 21:47:00 CST 2020 0 1896
論文列表——text classification

https://blog.csdn.net/BitCs_zt/article/details/82938086 列出自己閱讀text classification論文的列表,以后有時間再整理相應的筆記。閱讀價值評分純粹是基於自己對於文章的理解,標准包括:動機、方法、數據集質量、實驗安排、相關 ...

Tue Oct 16 21:05:00 CST 2018 0 787
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM