原文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

摘要: 提出了一個新的語言表示模型 language representation , BERT: Bidirectional Encoder Representations from Transformers。不同於以往提出的語言表示模型,它在每一層的每個位置都能利用其左右兩側的信息用於學習,因此,它具有強大的表示能力,所以,BERT在預訓練之后,只需要加一個簡單的輸出層,並在新結構上fine ...

2019-07-16 23:02 0 771 推薦指數:

查看詳情

paper閱讀:UniLM(Unified Language Model Pre-training for Natural Language Understanding and Generation)

概述:   UniLM是微軟研究院在Bert的基礎上,最新產出的預訓練語言模型,被稱為統一預訓練語言模型。它可以完成單向、序列到序列和雙向預測任務,可以說是結合了AR和AE兩種語言模型的優點,Unilm在抽象摘要、生成式問題回答和語言生成數據集的抽樣領域取得了最優秀的成績。 一、AR與AE ...

Sun Dec 29 07:06:00 CST 2019 0 1752
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM