原文:论文阅读笔记|NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE

Abstract 从Bert到Transformer到Attention,想要了解这一套体系的内部机制,便从将Attention机制运用到NLP问题中的第一篇论文开始阅读。 Neural Machine Translation NMT 旨在建一个单个神经网络,这个网络可以共同调整以最大化模型的表现。 在传统的Encoder Decoder模型中,源文本被Encoder转化为一个固定长度的向量,而D ...

2019-05-18 15:05 0 465 推荐指数:

查看详情

Learning Convolutional Neural Networks for Graphs》论文阅读

首先,容我吐槽一下这篇论文的行文结构、图文匹配程度、真把我搞得晕头转向,好些点全靠我猜测推理作者想干嘛,😈 背景 我们知道传统的CNN针对的是image,是欧氏空间square grid,那么使用同样square grid的卷积核就能对输入的图片进行特征的提取。在上一篇论文中,使用的理论 ...

Mon Apr 20 09:28:00 CST 2020 0 1532
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM