P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...
.背景知識 one hot gt word class gt word embedding 不過傳統的word embedding解決不了多義詞的問題。 . ELMO 為了解決上述問題,首先有了ELMO。 它是一個雙向的RNN網絡,這樣每一個單詞都對應兩個hidden state,進行拼接便可以得到單詞的Embedding表示。當同一個單詞上下文不一樣,得到的embedding就不同。 當然也可 ...
2020-04-07 19:25 0 615 推薦指數:
P1 一、線性回歸中的模型選擇 上圖所示: 五個模型,一個比一個復雜,其中所包含的function就越多,這樣就有更大幾率找到一個合適的參數集來更好的擬合訓練集。所以,隨着模型的復雜度提 ...
Regression 1、首先,什么是regression(回歸) 2、然后,實現回歸的步驟(機器學習的步驟) step1、model(確定一個模型)——線性模型 step2、goodness of function(確定評價函數)——損失函數 step3、best ...
Transfer Learning 1、什么是遷移學習 2、如何實現遷移學習 1)source有label,target有label 一、model fine-tuning(模型微調) 方法一、conservative training(保守訓練 ...
一、introduction How do we utilize the structures and relationship to help our ...
1.RNN和CNN的局限性 RNN是seq2seq的模型,RNN不易平行化,如果是單向的話,要輸出\(b^3\),需要先看完\(a^1, a^2, a^3\)。如果是雙向的話,可以看完整個句子。 ...
課程筆記 前言 兩種可解釋性: 局部解釋:為什么這種圖是貓? 全局解釋:貓是什么樣子的? 為什么需要可解釋機器學習?(打開黑盒) 一般的提升效果的方法就是一頓暴調參數,可解釋性可以幫助我們更好地提升模型性能。 其實人也是個黑盒(這個觀點太6了)。 可解釋機器學習的目標,不需要 ...