CPT中文預訓練模型:理解和生成


CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation

復旦大學,邱錫鵬老師團隊


使用不平衡的Transformer編碼器解碼器架構,用MLM和DAE聯合預訓練,均可用於NLU和NLG。

CPT: a novel Chinese Pre-trained Unbalanced Transformer for both NLU and NLG tasks.

BERT、RoBERTa、ZEN、NEZHA、ERNIE-1.0/2.0可以文本理解,但是不能文本生成;
PanGu-α、CPM、CPM-2、BART可以文本生成,但是不能文本理解;
CPT既可以文本理解,又可以文本生成。

微調的任務


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM