2020年中文NLP頂級預訓練模塊


   對於BERT后時代,不得不說強有力的預訓練模型是刷榜、出色完成任務的基礎,現在列舉幾個對此很有幫助的資源,同大家一起進步!!!

一:互聯網新聞情感分析復賽top8(8/2745)解決方案及總結; 地址:https://zhuanlan.zhihu.com/p/101554661

大佬的這篇知乎博客總結的非常好,打開了另一塊天地,同學們可以深挖這里面的內容

二:CCF BDCI 2019 互聯網新聞情感分析 復賽top1解決方案;地址:https://github.com/cxy229/BDCI2019-SENTIMENT-CLASSIFICATION

站在巨人的肩膀上,你將成長更快

三:哈工大的RoBERTa-wwm-ext-large; 地址:https://github.com/ymcui/Chinese-BERT-wwm

深入學習里面的東西

四:中文預訓練RoBERTa模型;地址:https://github.com/brightmart/roberta_zh

也不錯

少年們,加油吧!!!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM