機器學習可解釋性分析 可解釋性通常是指使用人類可以理解的方式,基於當前的業務,針對模型的結果進行總結分析; 一般來說,計算機通常無法解釋它自身的預測結果,此時就需要一定的人工參與來完成可解釋性工作; 目錄: 是什么:什么叫可解釋性; 為什么:為什么要對模型結果進行解釋 ...
一直在關注可解釋機器學習領域,因為確實在工作中有許多應用 模型檢查,特征重要性是否符合預期和AUC一樣重要 模型解釋,比起虛無縹緲的模型指標,解釋模型學到的規律更能說服業務方 樣本解釋,為什么這些用戶會違約,是否有指標能提前預警 決策歸因,有時模型只是提取pattern的方式,最終需要給到歸因 決策,例如HTE模型和XAI結合是否也是一種落地方式 年被H O Driverless AI 提供的可解 ...
2020-06-14 22:03 0 695 推薦指數:
機器學習可解釋性分析 可解釋性通常是指使用人類可以理解的方式,基於當前的業務,針對模型的結果進行總結分析; 一般來說,計算機通常無法解釋它自身的預測結果,此時就需要一定的人工參與來完成可解釋性工作; 目錄: 是什么:什么叫可解釋性; 為什么:為什么要對模型結果進行解釋 ...
為實踐者和研究者提供機器學習可解釋性算法的開源 Python 軟件包。InterpretML 能提供以下兩種 ...
深度學習一直被認為是一個黑盒子,但是試圖對模型的理解仍然是非常必要的。先從一個例子來說明解釋神經網絡的重要性:古代一個小鎮上的一匹馬能夠做數學題,比如給它一個題目 2+3 ,它踏馬蹄 5 下后就會停下,這匹馬被當地稱作神馬漢斯。后來人們發現,漢斯其實並不會做數學題,它通過觀察主人的反應來判斷 ...
課程筆記 前言 兩種可解釋性: 局部解釋:為什么這種圖是貓? 全局解釋:貓是什么樣子的? 為什么需要可解釋機器學習?(打開黑盒) 一般的提升效果的方法就是一頓暴調參數,可解釋性可以幫助我們更好地提升模型性能。 其實人也是個黑盒(這個觀點太6了)。 可解釋機器學習的目標,不需要 ...
目錄 1.基本概念 2.選擇機器學習算法 3.使用R進行機器學習 1.基本概念 機器學習:發明算法將數據轉化為智能行為 數據挖掘 VS 機器學習:前者側重尋找有價值的信息,后者側重執行已知的任務。后者是前者的先期准備 過程:數據——> ...
首先xgboost有兩種接口,xgboost自帶API和Scikit-Learn的API,具體用法有細微的差別但不大。 在運行 XGBoost 之前, 我們必須設置三種類型的參數: (常規參數)ge ...
在這里學習的,在此簡要做了些筆記。 壹、可解釋性概述 1. 可解釋性是什么 人類對模型決策/預測結果的理解程度。 對於深度學習而言,可解釋性面臨兩個問題:①為甚會得到該結果?(過程)②為甚結果應該是這個?(結果) 理想狀態:通過溯因推理,計算出輸出結果,可是實現較好的模型解釋性。 衡量一個 ...