這篇主要記錄學習途中遇到的問題及解決方法。相關學習筆記見https://www.cnblogs.com/guohaoblog/p/12306118.html 1、線性回歸 問題來源:https://pytorch.org/docs/stable/notes ...
task .線性回歸 優化函數 隨機梯度下降 當模型和損失函數形式較為簡單時,上面的誤差最小化問題的解可以直接用公式表達出來。這類解叫作解析解 analytical solution 。本節使用的線性回歸和平方誤差剛好屬於這個范疇。然而,大多數深度學習模型並沒有解析解,只能通過優化算法有限次迭代模型參數來盡可能降低損失函數的值。這類解叫作數值解 numerical solution 。 在求數值解 ...
2020-02-14 20:55 0 204 推薦指數:
這篇主要記錄學習途中遇到的問題及解決方法。相關學習筆記見https://www.cnblogs.com/guohaoblog/p/12306118.html 1、線性回歸 問題來源:https://pytorch.org/docs/stable/notes ...
一、從零開始實現 1.1 首先引入Fashion-MNIST數據集 1.2 初始化模型參數 原始圖像中每個樣本都是28*28的,所以要展平每個圖像成長度為784的向量。 權重78 ...
一、 導入 二、初始化參數 三、Softmax的實現 四、優化算法 五、訓練 ...
在學習pytorch版本的深度學習中,大多會因為這個包困擾,如果直接安裝d2lzh包,在后期使用中會導致某些函數無法實現。因此仍舊需要安裝d2lzh_pytorch'd2lzh_pytorch'下載傳送門,下載解壓后,直接放入包文件里即可。 我的文件路徑,可參考一下 ...
Task03:過擬合、欠擬合及其解決方案;梯度消失、梯度爆炸;循環神經網絡進階 task03筆記見:https://www.cnblogs.com/guohaoblog/p/12324894.html 過擬合、欠擬合及其解決方案 1、關於驗證數據集的描述錯誤的是: A、測試數據 ...
Task04:機器翻譯及相關技術;注意力機制與Seq2seq模型;Transformer 學習筆記見:https://www.cnblogs.com/guohaoblog/p/12324983.html 機器翻譯及其技術 1、數據預處理中分詞(Tokenization)的工作 ...
Task05:卷積神經網絡基礎;leNet;卷積神經網絡進階 學習筆記見:https://www.cnblogs.com/guohaoblog/p/12325038.html 卷積神經網絡基礎 1、假如你用全連接層處理一張256×256的彩色(RGB)圖像,輸出包含1000個神經元 ...
多層感知機 隱藏層 激活函數 小結 多層感知機 之前已經介紹過了線性回歸和softmax回歸在內的單層神經網絡,然后深度學習主要學習多層模型,后續將以多層感知機(multilayer percetron,MLP),介紹多層神經網絡的概念。 隱藏層 多層感知機 ...