原文:Deep learning:十五(Self-Taught Learning练习)

前言: 本次实验主要是练习soft taught learning的实现。参考的资料为网页:http: deeplearning.stanford.edu wiki index.php Exercise:Self Taught Learning。Soft taught leaning是用的无监督学习来学习到特征提取的参数,然后用有监督学习来训练分类器。这里分别是用的sparse autoenco ...

2013-03-24 17:57 55 20034 推荐指数:

查看详情

Deep learning:三十五(用NN实现数据降维练习)

  前言:   本文是针对上篇博文Deep learning:三十四(用NN实现数据的降维)的练习部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下载 ...

Wed May 01 04:03:00 CST 2013 75 24151
Deep learning:九(Sparse Autoencoder练习)

  前言:   现在来进入sparse autoencoder的一个实例练习,参考Ng的网页教程:Exercise:Sparse Autoencoder。这个例子所要实现的内容大概如下:从给定的很多张自然图片中截取出大小为8*8的小patches图片共10000张,现在需要用sparse ...

Wed Mar 20 18:58:00 CST 2013 103 51508
Deep learning:四(logistic regression练习)

  前言:   本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...

Sun Mar 17 05:59:00 CST 2013 12 29183
Deep learning:二(linear regression练习)

  前言   本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...

Sat Mar 16 00:20:00 CST 2013 25 37188
Deep learning:四十五(maxout简单理解)

  maxout出现在ICML2013上,作者Goodfellow将maxout和dropout结合后,号称在MNIST, CIFAR-10, CIFAR-100, SVHN这4个数据上都 ...

Mon Nov 18 18:10:00 CST 2013 13 54726
Deep learning:五(regularized线性回归练习)

  前言:   本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单 ...

Sun Mar 17 23:15:00 CST 2013 6 16014
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM