原文:谈谈机器学习模型的可解释性

深度学习一直被认为是一个黑盒子,但是试图对模型的理解仍然是非常必要的。先从一个例子来说明解释神经网络的重要性:古代一个小镇上的一匹马能够做数学题,比如给它一个题目 ,它踏马蹄 下后就会停下,这匹马被当地称作神马汉斯。后来人们发现,汉斯其实并不会做数学题,它通过观察主人的反应来判断什么时候停下。因此当一个训练好的网络模型根据输入来输出他的答案时,有时候虽然也能得到正确的结果,但是我们更多时候还需要知 ...

2021-07-29 16:39 0 249 推荐指数:

查看详情

【笔记】机器学习 - 李宏毅 -- Explainable ML 可解释性机器学习

课程笔记 前言 两种可解释性: 局部解释:为什么这种图是猫? 全局解释:猫是什么样子的? 为什么需要可解释机器学习?(打开黑盒) 一般的提升效果的方法就是一顿暴调参数,可解释性可以帮助我们更好地提升模型性能。 其实人也是个黑盒(这个观点太6了)。 可解释机器学习的目标,不需要 ...

Wed Mar 04 01:39:00 CST 2020 0 932
机器学习可解释性系列 - 是什么&为什么&怎么做

机器学习可解释性分析 可解释性通常是指使用人类可以理解的方式,基于当前的业务,针对模型的结果进行总结分析; 一般来说,计算机通常无法解释它自身的预测结果,此时就需要一定的人工参与来完成可解释性工作; 目录: 是什么:什么叫可解释性; 为什么:为什么要对模型结果进行解释 ...

Wed Sep 30 23:43:00 CST 2020 1 1208
深度学习模型可解释性初探

1. 可解释性是什么 0x1:广义可解释性 广义上的可解释性指: 比如我们在调试 bug 的时候,需要通过变量审查和日志信息定位到问题出在哪里。 比如在科学研究中面临一个新问题的研究时,我们需要查阅一些资料来了解这个新问题的基本概念和研究现状,以获得对研究方向的正确认识 ...

Sat Oct 13 23:07:00 CST 2018 0 2665
模型可解释性方法--lime

模型无关的局部可解释性方法(LIME) 在机器学习模型事后局部可解释性研究中,一种代表方法是由Marco Tulio Ribeiro等人提出的Local Interpretable Model-Agnostic Explanation(LIME)。 一般地,对于每一个输入实例,LIME ...

Fri Jul 03 17:35:00 CST 2020 0 1697
关于深度学习可解释性

在这里学习的,在此简要做了些笔记。 壹、可解释性概述 1. 可解释性是什么 人类对模型决策/预测结果的理解程度。 对于深度学习而言,可解释性面临两个问题:①为甚会得到该结果?(过程)②为甚结果应该是这个?(结果) 理想状态:通过溯因推理,计算出输出结果,可是实现较好的模型解释性。 衡量一个 ...

Sat Jan 15 00:10:00 CST 2022 0 1106
复杂模型可解释性方法——LIME

一、模型可解释性     近年来,机器学习(深度学习)取得了一系列骄人战绩,但是其模型的深度和复杂度远远超出了人类理解的范畴,或者称之为黑盒(机器是否同样不能理解?),当一个机器学习模型泛化性能很好时,我们可以通过交叉验证验证其准确,并将其应用在生产环境中,但是很难去解释这个模型为什么会做 ...

Fri Oct 18 06:16:00 CST 2019 0 1339
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM