原文:李宏毅-Network Compression課程筆記

一 方法總結 Network Pruning Knowledge Distillation Parameter Quantization Architecture Design Dynamic Computation 二 Network Pruning 模型通常是過參數的,即很多參數或者neuron是冗余的 例如非常接近 ,因此我們可以移除這些參數來對模型進行壓縮。 . 重要性判斷 那么怎么判斷哪 ...

2019-12-22 11:04 0 1160 推薦指數:

查看詳情

2021春機器學習課程筆記——Convolutional Neural Network

本文作為自己學習老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! CNN理解角度一 圖像的表達形式 對於一個Machine來說,一張輸入的圖像其實是一個三維的Tensor。 如上圖所示,三個維度分別 ...

Sat Apr 24 02:39:00 CST 2021 0 310
機器學習課程筆記-3.梯度下降精講

梯度下降偽代碼 梯度下降可以優化損失函數的值,使其盡量小,即可找到最好(在數據集上擬合效果最好)的模型參數。 現在假設模型\(f\)中只有一個參數\(w\),則損失函數為\(L(f)=L(w)\) ...

Mon Dec 28 02:09:00 CST 2020 0 325
2021春機器學習課程筆記——Introduction of Machine/Deep Learning

本文作為自己學習老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! 一、Machine Learning概念理解 Machine Learning主要的任務是尋找一個合適的Function來完成我們的工作(非常不嚴 ...

Thu Apr 08 17:48:00 CST 2021 0 312
深度學習筆記-Transformer

Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2se ...

Wed Nov 25 00:18:00 CST 2020 0 1162
深度學習筆記-為什么要深度?

問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候 ...

Thu Jun 04 04:58:00 CST 2020 0 662
2021春機器學習課程筆記——生成對抗模型模型

本文作為自己學習老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! 概率生成模型 概率生成模型(Probabilistic Generative Model)簡稱生成模型,指一系列用於隨機生成可觀測數據的模型 ...

Tue Aug 10 02:25:00 CST 2021 0 102
mate learning學習筆記

mate learning = learn to learn 如下圖所示,mate learning就是 輸入訓練資料到 F,輸出的是一個可以用來識別圖像的 f*。 F(training d ...

Fri Apr 10 23:00:00 CST 2020 0 593
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM