原文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

摘要: 提出了一个新的语言表示模型 language representation , BERT: Bidirectional Encoder Representations from Transformers。不同于以往提出的语言表示模型,它在每一层的每个位置都能利用其左右两侧的信息用于学习,因此,它具有强大的表示能力,所以,BERT在预训练之后,只需要加一个简单的输出层,并在新结构上fine ...

2019-07-16 23:02 0 771 推荐指数:

查看详情

paper阅读:UniLM(Unified Language Model Pre-training for Natural Language Understanding and Generation)

概述:   UniLM是微软研究院在Bert的基础上,最新产出的预训练语言模型,被称为统一预训练语言模型。它可以完成单向、序列到序列和双向预测任务,可以说是结合了AR和AE两种语言模型的优点,Unilm在抽象摘要、生成式问题回答和语言生成数据集的抽样领域取得了最优秀的成绩。 一、AR与AE ...

Sun Dec 29 07:06:00 CST 2019 0 1752
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM