花费 82 ms
案例学习--Self-Attention及其实现实现

文章链接 第0步. 什么是self-attention? 原文链接: Transformer 一篇就够了(一): Self-attenstion 接下来,我们将要解释和实现self-atte ...

Thu Aug 05 07:18:00 CST 2021 0 158
【学习笔记】浅谈文本生成中的采样方法

    本文学习记录一下,文本生成过程,以及过程中如何 选择/采样 下一个生成的词。首先将简单介绍一下文本生成(text generation)的完成过程;然后简单介绍下常用的采样(sampling) ...

Wed Jun 30 00:24:00 CST 2021 0 186
案例学习--Transformer 及其实现细节]

原文链接 1. 包的导入 2. 使用 Spacy 构建分词器 首先,我们要对输入的语句做分词,这里我使用 spacy 来完成这件事,你也可以选择你喜欢的工具来做。 3. ...

Thu Aug 05 07:20:00 CST 2021 0 122
案例学习--理解语言的 Transformer 模型

本教程训练了一个 Transformer 模型 用于将葡萄牙语翻译成英语。这是一个高级示例,假定您具备文本生成(text generation)和 注意力机制(attention) 的知识。 Tra ...

Thu Aug 05 07:15:00 CST 2021 0 114
搭建一个简单的三层神经网络

1. 背景 使用numpy库手动实现一个前向传播过程 使用pytorch搭建一个简单的分类网络,搭配cifar-10数据集,完成的一个简单物体分类模型的搭建、训练、预测和评估。 2. ...

Fri May 28 07:03:00 CST 2021 0 953

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM