花費 25 ms
【NLP】徹底搞懂BERT

# 好久沒更新博客了,有時候隨手在本上寫寫,或者Evernote上記記,零零散散的筆記帶來零零散散的記憶o(╥﹏╥)o。。還是整理到博客上比較有整體性,也方便查閱~ 自google在2018年10月 ...

Wed Jan 16 23:21:00 CST 2019 5 142967
自然語言處理中的語言模型預訓練方法(ELMo、GPT和BERT)

自然語言處理中的語言模型預訓練方法(ELMo、GPT和BERT) 最近,在自然語言處理(NLP)領域中,使用語言模型預訓練方法在多項NLP任務上都獲得了不錯的提升,廣泛受到了各界的關注。就此,我將 ...

Sun Oct 21 18:59:00 CST 2018 18 37251
word2vec前世今生

word2vec前世今生 2013年,Google開源了一款用於詞向量計算的工具——word2vec,引起了工業界和學術界的關注。首先,word2vec可以在百萬數量級的詞典和上億的數據集上進行高效 ...

Wed Jul 20 04:24:00 CST 2016 6 75313
【NLP】十分鍾快覽自然語言處理學習總結

十分鍾學習自然語言處理概述 作者:白寧超 2016年9月23日00:24:12 摘要:近來自然語言處理行業發展朝氣蓬勃,市場應用廣泛。筆者學習以來寫了不少文章,文章深度層次不一,今天因為某 ...

Fri Sep 23 08:51:00 CST 2016 4 57415
激活函數(ReLU, Swish, Maxout)

神經網絡中使用激活函數來加入非線性因素,提高模型的表達能力。 ReLU(Rectified Linear Unit,修正線性單元) 形式如下: \[\begin{equation ...

Sat Feb 18 21:26:00 CST 2017 4 49739

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM