原文:论文阅读 | Is BERT Really Robust? A Strong Baseline for Natural Language Attack on Text Classification and Entailment

参考:NLP重铸篇之对抗文本攻击 论文源码: github 作者提出了一种对抗样本生成算法TEXTFOOLER。 论文中,作者使用这种方法,对文本分类与文本蕴含两种任务做了测试,成功的攻击了这两种任务的相关模型,包括:BERT,CNN,LSTM,ESIM等等。 问题定义 一个有效的样本:和原样本近似。 给定文本x,以及训练好的模型F,F x y,一个有效的对抗样本要满足: 其中是相似度函数,值域在 ...

2020-06-03 14:36 0 832 推荐指数:

查看详情

《2019-TINYBERT DISTILLING BERT FOR NATURAL LANGUAGE UNDERSTANDING》-阅读心得

摘要:预训练语言模型如BERT等已经极大地提高了多项自然处理任务的性能,然而预训练语言模型通常具需要很大计算资源,所以其很难在有限的资源设备上运行。为了加速推理、减小模型的尺寸而同时保留精度,首先提出了一个新颖的迁移蒸馏方法,它是一种基于迁移方法的知识蒸馏思路。利用整个新颖的KD方法,大量 ...

Thu Feb 06 00:42:00 CST 2020 0 1055
《How to Fine-Tune BERT for Text Classification》-阅读心得

文章名《How to Fine-Tune BERT for Text Classification》,2019,复旦大学 如何在文本分类中微调BERT模型? 摘要:预训练语言模型已经被证明在学习通用语言表示方面有显著效果,作为一种最先进的预训练语言模型,BERT在多项理解任务中取得了惊人的成果 ...

Sat Feb 08 21:47:00 CST 2020 0 1896
论文列表——text classification

https://blog.csdn.net/BitCs_zt/article/details/82938086 列出自己阅读text classification论文的列表,以后有时间再整理相应的笔记。阅读价值评分纯粹是基于自己对于文章的理解,标准包括:动机、方法、数据集质量、实验安排、相关 ...

Tue Oct 16 21:05:00 CST 2018 0 787
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM