原文:《2019-TINYBERT DISTILLING BERT FOR NATURAL LANGUAGE UNDERSTANDING》-阅读心得

摘要:预训练语言模型如BERT等已经极大地提高了多项自然处理任务的性能,然而预训练语言模型通常具需要很大计算资源,所以其很难在有限的资源设备上运行。为了加速推理 减小模型的尺寸而同时保留精度,首先提出了一个新颖的迁移蒸馏方法,它是一种基于迁移方法的知识蒸馏思路。利用整个新颖的KD方法,大量的知识编码在一个大的 老师 BERT可以很好地被迁移到一个小的 学生 TinyBERT模型那里。我们引入一个 ...

2020-02-05 16:42 0 1055 推荐指数:

查看详情

paper阅读:UniLM(Unified Language Model Pre-training for Natural Language Understanding and Generation)

概述:   UniLM是微软研究院在Bert的基础上,最新产出的预训练语言模型,被称为统一预训练语言模型。它可以完成单向、序列到序列和双向预测任务,可以说是结合了AR和AE两种语言模型的优点,Unilm在抽象摘要、生成式问题回答和语言生成数据集的抽样领域取得了最优秀的成绩。 一、AR与AE ...

Sun Dec 29 07:06:00 CST 2019 0 1752
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM