數據降維的重要性就不必說了,而用NN(神經網絡)來對數據進行大量的降維是從2006開始的,這起源於2006年science上的一篇文章:reducing the dimensionality of data with neural networks,作者就是鼎鼎有名的Hinton,這篇 ...
前言: 本文是針對上篇博文Deep learning:三十四 用NN實現數據的降維 的練習部分,也就是Hition大牛science文章reducing the dimensionality of data with neural networks的code部分,其code下載見:http: www.cs.toronto.edu hinton MatlabForSciencePaper.html ...
2013-04-30 20:03 75 24151 推薦指數:
數據降維的重要性就不必說了,而用NN(神經網絡)來對數據進行大量的降維是從2006開始的,這起源於2006年science上的一篇文章:reducing the dimensionality of data with neural networks,作者就是鼎鼎有名的Hinton,這篇 ...
前言: 本次實驗主要是練習soft- taught learning的實現。參考的資料為網頁:http://deeplearning.stanford.edu/wiki/index.php/Exercise:Self-Taught_Learning。Soft-taught ...
前言: 這節主要是練習下PCA,PCA Whitening以及ZCA Whitening在2D數據上的使用,2D的數據集是45個數據點,每個數據點是2維的。參考的資料是:Exercise:PCA in 2D。結合前面的博文Deep learning:十(PCA和whitening ...
前言: 本節主要是來練習下在machine learning(不僅僅是deep learning)設計前的一些數據預處理步驟,關於數據預處理的一些基本要點在前面的博文Deep learning:三十(關於數據預處理的相關技巧)中已有所介紹,無非就是數據的歸一化和數據的白化,而數據 ...
前言: 本節來練習下logistic regression相關內容,參考的資料為網頁:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...
前言 本文是多元線性回歸的練習,這里練習的是最簡單的二元線性回歸,參考斯坦福大學的教學網http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc ...
前言: 現在來進入sparse autoencoder的一個實例練習,參考Ng的網頁教程:Exercise:Sparse Autoencoder。這個例子所要實現的內容大概如下:從給定的很多張自然圖片中截取出大小為8*8的小patches圖片共10000張,現在需要用sparse ...
maxout出現在ICML2013上,作者Goodfellow將maxout和dropout結合后,號稱在MNIST, CIFAR-10, CIFAR-100, SVHN這4個數據上都取得了start-of-art的識別率。 從論文中可以看出,maxout其實一種激發 ...