原文:ng-深度学习-课程笔记-4: 浅层神经网络(Week3)

神经网络概览 Neural Networks Overview 先来快速过一遍如何实现神经网络。 首先需要输入特征x,参数w和b,计算出z,然后用激活函数计算出a,在神经网络中我们要做多次这样的计算,反复计算z和a,然后用损失函数计算最后的a和y的差异。 可以把很多sigmoid单元堆叠起来构成一个神经网络。我们用上标方括号表示第几层,用上标圆括号表示第几个样本。 训练的时候通过反向传播来计算导 ...

2017-10-31 08:00 0 1083 推荐指数:

查看详情

DeepLearning.ai学习笔记(一)神经网络深度学习--Week3浅层神经网络

介绍 DeepLearning课程总共五大章节,该系列笔记将按照课程安排进行记录。 另外第一章的前两周的课程在之前的Andrew Ng机器学习课程笔记(博客园)&Andrew Ng机器学习课程笔记(CSDN)系列笔记中都有提到,所以这里不再赘述。 1、神经网络概要 ...

Thu Aug 31 00:09:00 CST 2017 0 6691
ng-深度学习-课程笔记-13: 目标检测(Week3)

1 目标定位( object localization ) 目标定位既要识别,又要定位,它要做的事就是用一个框框把物体目标的位置标出来。 怎么做这个问题呢,我们考虑三目标的定位问题,假定图中最多只 ...

Sat Nov 25 05:22:00 CST 2017 0 1120
吴恩达 DeepLearning.ai课程笔记(1-3)神经网络深度学习 --- 浅层神经网络

以下为在Coursera上吴恩达老师的DeepLearning.ai课程项目中,第一部分《神经网络深度学习》第二周课程部分关键点的笔记笔记并不包含全部小视频课程的记录,如需学习笔记中舍弃的内容请至 Coursera 或者 网易云课堂。同时在阅读以下笔记之前,强烈建议先学习吴恩达老师的视频课程 ...

Wed Nov 08 05:08:00 CST 2017 1 920
ng-深度学习-课程笔记-3: Python和向量化(Week2)

1 向量化( Vectorization ) 在逻辑回归中,以计算z为例,$ z = w^{T}+b $,你可以用for循环来实现。 但是在python中z可以调用numpy的方法,直接一句$z = np.dot(w,x) + b$用向量化完成,而且你会发现这个非常快。 ng做了个实验,求 ...

Sun Oct 15 06:25:00 CST 2017 0 2207
神经网络深度学习(二)浅层神经网络

1、计算神经网络的输出(正向传播): 矩阵表示: 向量化: 2、多个样本的向量化(正向传播): 3、激活函数: (1)sigmoid函数仅用于二分分类的情况,较少使用; a = 1 / (1 + e-z) g'(z) = g(z ...

Mon Nov 04 06:28:00 CST 2019 0 370
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM