對於BERT后時代,不得不說強有力的預訓練模型是刷榜、出色完成任務的基礎,現在列舉幾個對此很有幫助的資源,同大家一起進步!!!
一:互聯網新聞情感分析復賽top8(8/2745)解決方案及總結; 地址:https://zhuanlan.zhihu.com/p/101554661
大佬的這篇知乎博客總結的非常好,打開了另一塊天地,同學們可以深挖這里面的內容
二:CCF BDCI 2019 互聯網新聞情感分析 復賽top1解決方案;地址:https://github.com/cxy229/BDCI2019-SENTIMENT-CLASSIFICATION
站在巨人的肩膀上,你將成長更快
三:哈工大的RoBERTa-wwm-ext-large; 地址:https://github.com/ymcui/Chinese-BERT-wwm
深入學習里面的東西
四:中文預訓練RoBERTa模型;地址:https://github.com/brightmart/roberta_zh
也不錯
少年們,加油吧!!!