前言: 最近打算稍微系統的學習下deep learing的一些理論知識,打算采用Andrew Ng的網頁教程UFLDL Tutorial,據說這個教程寫得淺顯易懂,也不太長。不過在這這之前還是復習下machine learning的基礎知識,見網頁:http ...
前面的文章已經介紹過了 種經典的機器學習算法:線性回歸和logistic回歸,並且在后面的練習中也能夠感覺到這 種方法在一些問題的求解中能夠取得很好的效果。現在開始來看看另一種機器學習算法 神經網絡。線性回歸或者logistic回歸問題理論上不是可以解決所有的回歸和分類問題么,那么為什么還有其它各種各樣的機器學習算法呢 比如這里馬上要講的神經網絡算法。其實原因很簡單,在前面的一系列博文練習中可以 ...
2013-03-18 15:05 13 20204 推薦指數:
前言: 最近打算稍微系統的學習下deep learing的一些理論知識,打算采用Andrew Ng的網頁教程UFLDL Tutorial,據說這個教程寫得淺顯易懂,也不太長。不過在這這之前還是復習下machine learning的基礎知識,見網頁:http ...
前言: 本次主要是重新復習下Sparse autoencoder基礎知識,並且加入點自己的理解。關於sparse autoencoder在前面的博文Deep learning:八(Sparse Autoencoder)中已有所介紹。 基礎知識: 首先來看看 ...
CRF:Conditional Random Field,即條件隨機場。 首先介紹一下基礎背景知識。機器學習中的分類問題可以分為硬分類和軟分類。硬分類常見的模型有SVM、PLA、LDA等。SVM可以稱為max margin classifier,基於幾何間隔進行分類。軟分類一般分為logistic ...
【GiantPandaCV導語】Deep Mutual Learning是Knowledge Distillation的外延,經過測試(代碼來自Knowledge-Distillation-Zoo), Deep Mutual Learning性能確實超出了原始KD很多,所以本文分析這篇 ...
循環神經網絡(RNN) 人們的每次思考並不都是從零開始的。比如說你在閱讀這篇文章時,你基於對前面的文字的理解來理解你目前閱讀到的文字,而不是每讀到一個文字時,都拋棄掉前面的思考,從頭開始。你的記憶是 ...
損失函數(loss function)是用來估量你模型的預測值f(x)與真實值Y的不一致程度,它是一個非負實值函數,通常使用L(Y, f(x))來表示,損失函數越小,模型的魯棒性就越好。損失函數是經驗 ...
目前,深度學習(Deep Learning,簡稱DL)在算法領域可謂是大紅大紫,現在不只是互聯網、人工智能,生活中的各大領域都能反映出深度學習引領的巨大變革。要學習深度學習,那么首先要熟悉神經網絡(Neural Networks,簡稱NN)的一些基本概念。當然,這里所說的神經網絡不是生物學 ...
一、softmax函數 softmax用於多分類過程中,它將多個神經元的輸出,映射到(0,1)區間內,可以看成概率來理解,從而來進行多分類! 假設我們有一個數組,V,Vi表示V中的第i個元素 ...