原文:《2019-TINYBERT DISTILLING BERT FOR NATURAL LANGUAGE UNDERSTANDING》-閱讀心得

摘要:預訓練語言模型如BERT等已經極大地提高了多項自然處理任務的性能,然而預訓練語言模型通常具需要很大計算資源,所以其很難在有限的資源設備上運行。為了加速推理 減小模型的尺寸而同時保留精度,首先提出了一個新穎的遷移蒸餾方法,它是一種基於遷移方法的知識蒸餾思路。利用整個新穎的KD方法,大量的知識編碼在一個大的 老師 BERT可以很好地被遷移到一個小的 學生 TinyBERT模型那里。我們引入一個 ...

2020-02-05 16:42 0 1055 推薦指數:

查看詳情

paper閱讀:UniLM(Unified Language Model Pre-training for Natural Language Understanding and Generation)

概述:   UniLM是微軟研究院在Bert的基礎上,最新產出的預訓練語言模型,被稱為統一預訓練語言模型。它可以完成單向、序列到序列和雙向預測任務,可以說是結合了AR和AE兩種語言模型的優點,Unilm在抽象摘要、生成式問題回答和語言生成數據集的抽樣領域取得了最優秀的成績。 一、AR與AE ...

Sun Dec 29 07:06:00 CST 2019 0 1752
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM