花费 8 ms
空洞卷积(Atrous Convolution)的优缺点

空洞卷积(atrous convolution)又叫扩张卷积(dilated convolution),其实就是向卷积层引入了一个称为“扩张率(dilation rate)”的新参数,这个参数定义了卷 ...

Mon Nov 09 18:00:00 CST 2020 0 4903
神经网络之全连接层(线性层)

对于神经网络的全连接层,前面已经使用矩阵的运算方式实现过,本篇将引入tensorflow中层的概念, 正式使用deep learning相关的API搭建一个全连接神经网络。下面是全连接神经网络的结构图 ...

Mon Jan 27 21:23:00 CST 2020 1 5093
tensor数据基操----索引与切片

玩过深度学习图像处理的都知道,对于一张分辨率超大的图片,我们往往不会采取直接压平读入的方式喂入神经网络,而是将它切成一小块一小块的去读,这样的好处就是可以加快读取速度并且减少内存的占用。就拿医学图像处 ...

Sat Jan 18 06:07:00 CST 2020 1 3367
tensorflow张量排序

本篇记录一下TensorFlow中张量的排序方法 tf.sort和tf.argsort 计算准确率实例: ...

Fri Jan 24 06:27:00 CST 2020 1 2830
Tensor--tensorflow的数据类型

在tensorflow2.0版本之前,1.x版本的tensorflow的基本数据类型有计算图(Computation Graph)和张量(Tensor)两种,但tensorflow2.0之后的版本取消 ...

Sat Jan 18 04:07:00 CST 2020 1 2616
Auto-Encoder(自编码器)原理

1.无监督学习 无监督学习和监督学习是机器学习的两个方向,监督学习主要适用于已经标注好的数据集(如mnist分类问题),无监督学习则是希望计算机完成复杂的标注任务,简单的解释就是——教机器自己学习, ...

Fri Feb 07 05:48:00 CST 2020 2 2457
tensor维度变换

维度变换是tensorflow中的重要模块之一,前面mnist实战模块我们使用了图片数据的压平操作,它就是维度变换的应用之一。 在详解维度变换的方法之前,这里先介绍一下View(视图)的概念。所谓V ...

Sat Jan 18 16:17:00 CST 2020 1 2351
Tensor的合并与分割

先来看一下有哪些接口用来进行张量的合并与分割: tf.concat用来进行张量的拼接,tf.stack用来进行张量的堆叠,tf.split用来进行张量的分割,tf.unstack是tf.split的 ...

Thu Jan 23 04:29:00 CST 2020 1 2262
Keras高层API之Metrics

在tf.keras中,metrics其实就是起到了一个测量表的作用,即测量损失或者模型精度的变化。metrics的使用分为以下四步: step1:Build a meter step ...

Fri Jan 31 05:32:00 CST 2020 1 1354

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM