深度學習一直被認為是一個黑盒子,但是試圖對模型的理解仍然是非常必要的。先從一個例子來說明解釋神經網絡的重要性:古代一個小鎮上的一匹馬能夠做數學題,比如給它一個題目 2+3 ,它踏馬蹄 5 下后就會停下,這匹馬被當地稱作神馬漢斯。后來人們發現,漢斯其實並不會做數學題,它通過觀察主人的反應來判斷 ...
機器學習模型不可解釋的原因 前些天在同行交流群里,有個話題一直在群里熱烈地討論,那就是 如何解釋機器學習模型 ,因為在風控領域,一個模型如果不能得到很好的解釋一般都不會被通過的,在銀行里會特別的常見,所以大多數同行都是會用 LR 來建模。但是,機器學習的模型算法這么多,不用豈不是很浪費 而且有些算法還十分好用的,至少在效果上,如XGBoost GBDT Adaboost。 那么,有同學就會問了, ...
2019-10-20 20:47 0 644 推薦指數:
深度學習一直被認為是一個黑盒子,但是試圖對模型的理解仍然是非常必要的。先從一個例子來說明解釋神經網絡的重要性:古代一個小鎮上的一匹馬能夠做數學題,比如給它一個題目 2+3 ,它踏馬蹄 5 下后就會停下,這匹馬被當地稱作神馬漢斯。后來人們發現,漢斯其實並不會做數學題,它通過觀察主人的反應來判斷 ...
0x00 概述 在進行線性回歸分析時,容易出現自變量(解釋變量)之間彼此相關的現象,我們稱這種現象為多重共線性。 適度的多重共線性不成問題,但當出現嚴重共線性問題時,會導致分析結果不穩定,出現回歸系數的符號與實際情況完全相反的情況。 本應該顯著的自變量不顯著,本不顯著的自變量卻呈現出顯著性 ...
為實踐者和研究者提供機器學習可解釋性算法的開源 Python 軟件包。InterpretML 能提供以下兩種 ...
課程筆記 前言 兩種可解釋性: 局部解釋:為什么這種圖是貓? 全局解釋:貓是什么樣子的? 為什么需要可解釋機器學習?(打開黑盒) 一般的提升效果的方法就是一頓暴調參數,可解釋性可以幫助我們更好地提升模型性能。 其實人也是個黑盒(這個觀點太6了)。 可解釋機器學習的目標,不需要 ...
前言 過去幾個月,一直在學習機器學習模型,輸入只是學習的一部分,輸出可以幫助自己更熟練地掌握概念和知識。把一個復雜的事物簡單的講述出來,才能表示真正弄懂了這個知識。所以我將在博客中盡量簡單地把這些模型講述出來,以加深自己的掌握,也為他人提供一點點參考。感謝大神劉建平Pinard的博客,如有 ...
在機器學習的實踐中,我們通常會遇到實際數據中正負樣本比例不平衡的情況,也叫數據傾斜。對於數據傾斜的情況,如果選取的算法不合適,或者評價指標不合適,那么對於實際應用線上時效果往往會不盡人意,所以如何解決數據不平衡問題是實際生產中非常常見且重要的問題。 什么是類別不平衡問題 ...