花費 8 ms
深入理解Transformer及其源碼

   深度學習廣泛應用於各個領域。基於transformer的預訓練模型(gpt/bertd等)基本已統治NLP深度學習領域,可見transformer的重要性。本文結合《Attenti ...

Thu Oct 24 10:27:00 CST 2019 3 8575
Tensorflow應用之LSTM

學習RNN時原理理解起來不難,但是用TensorFlow去實現時被它各種數據的shape弄得暈頭轉向。現在就結合一個情感分析的案例來了解一下LSTM的操作流程。 一、深度學習在自然語言處理中的應用 ...

Fri Aug 31 08:56:00 CST 2018 0 13718
【機器學習】RNN學習

感謝中國人民大學的胡鶴老師,課程容量巨大,收獲頗豐。 之前提到的CNN模型主要用到人類的視覺中樞,但其有一劣勢,無論是人類的視覺神經還是聽覺神經,所接受到的都是一個連續的序列,使用CNN相當於割裂了 ...

Sun Dec 17 03:24:00 CST 2017 3 17722
TensorFlow之RNN:堆疊RNN、LSTM、GRU及雙向LSTM

RNN(Recurrent Neural Networks,循環神經網絡)是一種具有短期記憶能力的神經網絡模型,可以處理任意長度的序列,在自然語言處理中的應用非常廣泛,比如機器翻譯、文本生成、問答系統 ...

Mon Apr 29 23:31:00 CST 2019 0 7299
詳解循環神經網絡(Recurrent Neural Network)

本文結構: 模型 訓練算法 基於 RNN 的語言模型例子 代碼實現 1. 模型 和全連接網絡的區別 更細致到向量級的連接圖 為 ...

Sun Sep 30 23:37:00 CST 2018 0 8258
深度學習之seq2seq模型以及Attention機制

RNN,LSTM,seq2seq等模型廣泛用於自然語言處理以及回歸預測,本期詳解seq2seq模型以及attention機制的原理以及在回歸預測方向的運用。 1. seq2seq模型介紹   se ...

Wed Nov 15 02:49:00 CST 2017 0 8972

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM