原文:如何解決機器學習樹集成模型的解釋性問題

機器學習模型不可解釋的原因 前些天在同行交流群里,有個話題一直在群里熱烈地討論,那就是 如何解釋機器學習模型 ,因為在風控領域,一個模型如果不能得到很好的解釋一般都不會被通過的,在銀行里會特別的常見,所以大多數同行都是會用 LR 來建模。但是,機器學習的模型算法這么多,不用豈不是很浪費 而且有些算法還十分好用的,至少在效果上,如XGBoost GBDT Adaboost。 那么,有同學就會問了, ...

2019-10-20 20:47 0 644 推薦指數:

查看詳情

談談機器學習模型的可解釋性

深度學習一直被認為是一個黑盒子,但是試圖對模型的理解仍然是非常必要的。先從一個例子來說明解釋神經網絡的重要性:古代一個小鎮上的一匹馬能夠做數學題,比如給它一個題目 2+3 ,它踏馬蹄 5 下后就會停下,這匹馬被當地稱作神馬漢斯。后來人們發現,漢斯其實並不會做數學題,它通過觀察主人的反應來判斷 ...

Fri Jul 30 00:39:00 CST 2021 0 249
機器學習筆記之多重共線性問題以及如何解決

0x00 概述 在進行線性回歸分析時,容易出現自變量(解釋變量)之間彼此相關的現象,我們稱這種現象為多重共線性。 適度的多重共線性不成問題,但當出現嚴重共線性問題時,會導致分析結果不穩定,出現回歸系數的符號與實際情況完全相反的情況。 本應該顯著的自變量不顯著,本不顯著的自變量卻呈現出顯著性 ...

Wed Feb 10 19:10:00 CST 2021 0 802
【筆記】機器學習 - 李宏毅 -- Explainable ML 可解釋性機器學習

課程筆記 前言 兩種可解釋性: 局部解釋:為什么這種圖是貓? 全局解釋:貓是什么樣子的? 為什么需要可解釋機器學習?(打開黑盒) 一般的提升效果的方法就是一頓暴調參數,可解釋性可以幫助我們更好地提升模型性能。 其實人也是個黑盒(這個觀點太6了)。 可解釋機器學習的目標,不需要 ...

Wed Mar 04 01:39:00 CST 2020 0 932
機器學習總結(4)—分類中的模型(決策及RF.GBDT集成模型

前言   過去幾個月,一直在學習機器學習模型,輸入只是學習的一部分,輸出可以幫助自己更熟練地掌握概念和知識。把一個復雜的事物簡單的講述出來,才能表示真正弄懂了這個知識。所以我將在博客中盡量簡單地把這些模型講述出來,以加深自己的掌握,也為他人提供一點點參考。感謝大神劉建平Pinard的博客,如有 ...

Thu Nov 12 01:43:00 CST 2020 0 554
機器學習】如何解決數據不平衡問題

  在機器學習的實踐中,我們通常會遇到實際數據中正負樣本比例不平衡的情況,也叫數據傾斜。對於數據傾斜的情況,如果選取的算法不合適,或者評價指標不合適,那么對於實際應用線上時效果往往會不盡人意,所以如何解決數據不平衡問題是實際生產中非常常見且重要的問題。 什么是類別不平衡問題 ...

Fri Mar 01 21:32:00 CST 2019 3 13665
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM