原文:Deep learning:十五(Self-Taught Learning練習)

前言: 本次實驗主要是練習soft taught learning的實現。參考的資料為網頁:http: deeplearning.stanford.edu wiki index.php Exercise:Self Taught Learning。Soft taught leaning是用的無監督學習來學習到特征提取的參數,然后用有監督學習來訓練分類器。這里分別是用的sparse autoenco ...

2013-03-24 17:57 55 20034 推薦指數:

查看詳情

Deep learning:三十五(用NN實現數據降維練習)

  前言:   本文是針對上篇博文Deep learning:三十四(用NN實現數據的降維)的練習部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下載 ...

Wed May 01 04:03:00 CST 2013 75 24151
Deep learning:九(Sparse Autoencoder練習)

  前言:   現在來進入sparse autoencoder的一個實例練習,參考Ng的網頁教程:Exercise:Sparse Autoencoder。這個例子所要實現的內容大概如下:從給定的很多張自然圖片中截取出大小為8*8的小patches圖片共10000張,現在需要用sparse ...

Wed Mar 20 18:58:00 CST 2013 103 51508
Deep learning:四(logistic regression練習)

  前言:   本節來練習下logistic regression相關內容,參考的資料為網頁:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...

Sun Mar 17 05:59:00 CST 2013 12 29183
Deep learning:二(linear regression練習)

  前言   本文是多元線性回歸的練習,這里練習的是最簡單的二元線性回歸,參考斯坦福大學的教學網http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...

Sat Mar 16 00:20:00 CST 2013 25 37188
Deep learning:四十五(maxout簡單理解)

  maxout出現在ICML2013上,作者Goodfellow將maxout和dropout結合后,號稱在MNIST, CIFAR-10, CIFAR-100, SVHN這4個數據上都 ...

Mon Nov 18 18:10:00 CST 2013 13 54726
Deep learning:五(regularized線性回歸練習)

  前言:   本節主要是練習regularization項的使用原則。因為在機器學習的一些模型中,如果模型的參數太多,而訓練樣本又太少的話,這樣訓練出來的模型很容易產生過擬合現象。因此在模型的損失函數中,需要對模型的參數進行“懲罰”,這樣的話這些參數就不會太大,而越小的參數說明模型越簡單 ...

Sun Mar 17 23:15:00 CST 2013 6 16014
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM