CPT中文预训练模型:理解和生成


CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation

复旦大学,邱锡鹏老师团队


使用不平衡的Transformer编码器解码器架构,用MLM和DAE联合预训练,均可用于NLU和NLG。

CPT: a novel Chinese Pre-trained Unbalanced Transformer for both NLU and NLG tasks.

BERT、RoBERTa、ZEN、NEZHA、ERNIE-1.0/2.0可以文本理解,但是不能文本生成;
PanGu-α、CPM、CPM-2、BART可以文本生成,但是不能文本理解;
CPT既可以文本理解,又可以文本生成。

微调的任务


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM