http://openaccess.thecvf.com/content_cvpr_2017/papers/Jie_Deep_Self-Taught_Learning_CVPR_2017_paper.pdf Deep Self-Taught Learning for Weakly ...
前言: 本次實驗主要是練習soft taught learning的實現。參考的資料為網頁:http: deeplearning.stanford.edu wiki index.php Exercise:Self Taught Learning。Soft taught leaning是用的無監督學習來學習到特征提取的參數,然后用有監督學習來訓練分類器。這里分別是用的sparse autoenco ...
2013-03-24 17:57 55 20034 推薦指數:
http://openaccess.thecvf.com/content_cvpr_2017/papers/Jie_Deep_Self-Taught_Learning_CVPR_2017_paper.pdf Deep Self-Taught Learning for Weakly ...
前言: 本文是針對上篇博文Deep learning:三十四(用NN實現數據的降維)的練習部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下載 ...
前言: 現在來進入sparse autoencoder的一個實例練習,參考Ng的網頁教程:Exercise:Sparse Autoencoder。這個例子所要實現的內容大概如下:從給定的很多張自然圖片中截取出大小為8*8的小patches圖片共10000張,現在需要用sparse ...
前言: 本節來練習下logistic regression相關內容,參考的資料為網頁:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...
前言 本文是多元線性回歸的練習,這里練習的是最簡單的二元線性回歸,參考斯坦福大學的教學網http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...
maxout出現在ICML2013上,作者Goodfellow將maxout和dropout結合后,號稱在MNIST, CIFAR-10, CIFAR-100, SVHN這4個數據上都 ...
/ex3/ex3.html.其實在上一篇博文Deep learning:二(linear regres ...
前言: 本節主要是練習regularization項的使用原則。因為在機器學習的一些模型中,如果模型的參數太多,而訓練樣本又太少的話,這樣訓練出來的模型很容易產生過擬合現象。因此在模型的損失函數中,需要對模型的參數進行“懲罰”,這樣的話這些參數就不會太大,而越小的參數說明模型越簡單 ...