花费 79 ms
【NLP】彻底搞懂BERT

# 好久没更新博客了,有时候随手在本上写写,或者Evernote上记记,零零散散的笔记带来零零散散的记忆o(╥﹏╥)o。。还是整理到博客上比较有整体性,也方便查阅~ 自google在2018年10月 ...

Wed Jan 16 23:21:00 CST 2019 5 142967
自然语言处理中的语言模型预训练方法(ELMo、GPT和BERT)

自然语言处理中的语言模型预训练方法(ELMo、GPT和BERT) 最近,在自然语言处理(NLP)领域中,使用语言模型预训练方法在多项NLP任务上都获得了不错的提升,广泛受到了各界的关注。就此,我将 ...

Sun Oct 21 18:59:00 CST 2018 18 37251
word2vec前世今生

word2vec前世今生 2013年,Google开源了一款用于词向量计算的工具——word2vec,引起了工业界和学术界的关注。首先,word2vec可以在百万数量级的词典和上亿的数据集上进行高效 ...

Wed Jul 20 04:24:00 CST 2016 6 75313
【NLP】十分钟快览自然语言处理学习总结

十分钟学习自然语言处理概述 作者:白宁超 2016年9月23日00:24:12 摘要:近来自然语言处理行业发展朝气蓬勃,市场应用广泛。笔者学习以来写了不少文章,文章深度层次不一,今天因为某 ...

Fri Sep 23 08:51:00 CST 2016 4 57415
激活函数(ReLU, Swish, Maxout)

神经网络中使用激活函数来加入非线性因素,提高模型的表达能力。 ReLU(Rectified Linear Unit,修正线性单元) 形式如下: \[\begin{equation ...

Sat Feb 18 21:26:00 CST 2017 4 49739

 
粤ICP备18138465号  © 2018-2024 CODEPRJ.COM