本文作為自己學習李宏毅老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! CNN理解角度一 圖像的表達形式 對於一個Machine來說,一張輸入的圖像其實是一個三維的Tensor。 如上圖所示,三個維度分別 ...
一 方法總結 Network Pruning Knowledge Distillation Parameter Quantization Architecture Design Dynamic Computation 二 Network Pruning 模型通常是過參數的,即很多參數或者neuron是冗余的 例如非常接近 ,因此我們可以移除這些參數來對模型進行壓縮。 . 重要性判斷 那么怎么判斷哪 ...
2019-12-22 11:04 0 1160 推薦指數:
本文作為自己學習李宏毅老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! CNN理解角度一 圖像的表達形式 對於一個Machine來說,一張輸入的圖像其實是一個三維的Tensor。 如上圖所示,三個維度分別 ...
梯度下降偽代碼 梯度下降可以優化損失函數的值,使其盡量小,即可找到最好(在數據集上擬合效果最好)的模型參數。 現在假設模型\(f\)中只有一個參數\(w\),則損失函數為\(L(f)=L(w)\) ...
本文作為自己學習李宏毅老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! 一、Machine Learning概念理解 Machine Learning主要的任務是尋找一個合適的Function來完成我們的工作(非常不嚴 ...
Transformer英文的意思就是變形金剛,Transformer現在有一個非常知名的應用,這個應用叫做BERT,BERT就是非監督的Transformer,Transformer是一個seq2se ...
問題:越深越好? 層數越多,參數越多,model比較復雜,數據又多的話,本來誤差就越小,這為什么歸因於”深“呢? 矮胖結構 v.s. 高瘦結構 真正要比較”深“和”淺“的model的時候 ...
本文作為自己學習李宏毅老師2021春機器學習課程所做筆記,記錄自己身為入門階段小白的學習理解,如果錯漏、建議,還請各位博友不吝指教,感謝!! 概率生成模型 概率生成模型(Probabilistic Generative Model)簡稱生成模型,指一系列用於隨機生成可觀測數據的模型 ...
mate learning = learn to learn 如下圖所示,mate learning就是 輸入訓練資料到 F,輸出的是一個可以用來識別圖像的 f*。 F(training d ...
比較有用的是conditioned generator,能夠控制輸入的vector來控制對應的文字音像 ...