花费 78 ms
深入理解Transformer及其源码

   深度学习广泛应用于各个领域。基于transformer的预训练模型(gpt/bertd等)基本已统治NLP深度学习领域,可见transformer的重要性。本文结合《Attenti ...

Thu Oct 24 10:27:00 CST 2019 3 8575
Tensorflow应用之LSTM

学习RNN时原理理解起来不难,但是用TensorFlow去实现时被它各种数据的shape弄得晕头转向。现在就结合一个情感分析的案例来了解一下LSTM的操作流程。 一、深度学习在自然语言处理中的应用 ...

Fri Aug 31 08:56:00 CST 2018 0 13718
【机器学习】RNN学习

感谢中国人民大学的胡鹤老师,课程容量巨大,收获颇丰。 之前提到的CNN模型主要用到人类的视觉中枢,但其有一劣势,无论是人类的视觉神经还是听觉神经,所接受到的都是一个连续的序列,使用CNN相当于割裂了 ...

Sun Dec 17 03:24:00 CST 2017 3 17722
TensorFlow之RNN:堆叠RNN、LSTM、GRU及双向LSTM

RNN(Recurrent Neural Networks,循环神经网络)是一种具有短期记忆能力的神经网络模型,可以处理任意长度的序列,在自然语言处理中的应用非常广泛,比如机器翻译、文本生成、问答系统 ...

Mon Apr 29 23:31:00 CST 2019 0 7299
详解循环神经网络(Recurrent Neural Network)

本文结构: 模型 训练算法 基于 RNN 的语言模型例子 代码实现 1. 模型 和全连接网络的区别 更细致到向量级的连接图 为 ...

Sun Sep 30 23:37:00 CST 2018 0 8258
深度学习之seq2seq模型以及Attention机制

RNN,LSTM,seq2seq等模型广泛用于自然语言处理以及回归预测,本期详解seq2seq模型以及attention机制的原理以及在回归预测方向的运用。 1. seq2seq模型介绍   se ...

Wed Nov 15 02:49:00 CST 2017 0 8972

 
粤ICP备18138465号  © 2018-2024 CODEPRJ.COM