1、sequence to sequence
https://zhuanlan.zhihu.com/p/27608348
最基礎的Seq2Seq模型包含了三個部分,即Encoder、Decoder以及連接兩者的中間狀態向量,Encoder通過學習輸入,將其編碼成一個固定大小的狀態向量S,繼而將S傳給Decoder,Decoder再通過對狀態向量S的學習來進行輸出。
2 、注意力機制(attention mechanism)(由sequence to sequence。encoder-decoder機制演變而來)
https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.html
https://blog.csdn.net/tg229dvt5i93mxaq5a6u/article/details/78422216 **********
3、Pointer network(attention演變而來)