花费 36 ms
【零基础】神经网络优化之mini-batch

一、前言   回顾一下前面讲过的两种解决过拟合的方法:   1)L0、L1、L2:在向前传播、反向传播后面加个小尾巴   2)dropout:训练时随机“删除”一部分神经元   本篇要介绍的优化方法叫mini-batch,它主要解决的问题是:实际应用时的训练数据往往都太大了,一次加载到电脑 ...

Mon Oct 28 07:12:00 CST 2019 0 676

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM