目前實現了基於tensorflow的支持的帶attention的seq2seq。基於tf 1.0官網contrib路徑下seq2seq 由於后續版本不再支持attention,遷移到melt並做了進一步開發,支持完全ingraph的beam search(更快速) 以及outgraph ...
新代碼在contrib seq seq python ops attention decoder fn.py 和之前代碼相比 不再采用conv的方式來計算乘,直接使用乘法和linear 給出了兩種attention的實現 傳統的 bahdanau : additive Bahdanau et al., ICLR Neural Machine Translation by Jointly Learn ...
2017-01-31 22:41 1 2283 推薦指數:
目前實現了基於tensorflow的支持的帶attention的seq2seq。基於tf 1.0官網contrib路徑下seq2seq 由於后續版本不再支持attention,遷移到melt並做了進一步開發,支持完全ingraph的beam search(更快速) 以及outgraph ...
v1.0中 tensorflow漸漸廢棄了老的非dynamic的seq2seq接口,已經放到 tf.contrib.legacy_seq2seq目錄下面。 tf.contrib.seq2seq下面的實現都是dynamic seq2seq接口。 按照google的rd說法下個月將會給出更加完 ...
python3.6,tensorflow1.11 測試代碼: tensorflow在eager模式下進行測試,方便調試,查看中間結果 tf.nn.dynamic_rnn在tensorflow/python/ops/rnn.py中定義,進入其中調試 最后調用 ...
tensorflow基於 Grammar as a Foreign Language實現,這篇論文給出的公式也比較清楚。 這里關注seq2seq.attention_decode函數, 主要輸入 decoder_inputs, initial_state ...
一、關於Attention,關於NMT 未完待續、、、 以google 的 nmt 代碼引入 探討下端到端: 項目地址:https://github.com/tensorflow/nmt 機器翻譯算是深度學習在垂直領域應用最成功的之一了,深度學習在垂直領域的應用的確能解決很多之前繁瑣的問題 ...
論文地址:https://arxiv.org/abs/1710.10903 代碼地址: https://github.com/PetarV-/GAT 我並沒有完整看過這篇論文,但是在大致了解其原理 ...