原文:《人工智能的下一個挑戰 —— 可解釋性和可詮釋性?》

https: www file.huawei.com media corporate pdf cyber security ai security white paper cn.pdfHW AI安全白皮書 谷歌可解釋人工智能白皮書, 頁pdf,Google AI Explainability Whitepaper 月 日專知 導讀 近幾年,隨着人工智能的迅速發展,人工智能對各行各業也產生了深遠的 ...

2019-12-23 16:13 0 749 推薦指數:

查看詳情

關於深度學習的可解釋性

在這里學習的,在此簡要做了些筆記。 壹、可解釋性概述 1. 可解釋性是什么 人類對模型決策/預測結果的理解程度。 對於深度學習而言,可解釋性面臨兩個問題:①為甚會得到該結果?(過程)②為甚結果應該是這個?(結果) 理想狀態:通過溯因推理,計算出輸出結果,可是實現較好的模型解釋性。 衡量一個 ...

Sat Jan 15 00:10:00 CST 2022 0 1106
模型可解釋性方法--lime

與模型無關的局部可解釋性方法(LIME) 在機器學習模型事后局部可解釋性研究中,一種代表方法是由Marco Tulio Ribeiro等人提出的Local Interpretable Model-Agnostic Explanation(LIME)。 一般地,對於每一個輸入實例,LIME ...

Fri Jul 03 17:35:00 CST 2020 0 1697
演化計算可能是人工智能下一個熱點

演化計算--人工智能下一個熱點 演化計算經常用到智能優化和機器學習當中,但是這種機器學習跟大家平常說的深度學習的機器學習不是很一樣。演化計算在機器人的腦體一體化設計中應該有相當大的用武之地。演化計算可能是人工智能下一個熱點。本文整理自2018深圳國際機器人 ...

Sat Jul 27 02:51:00 CST 2019 0 571
【譯】BERT表示的可解釋性分析

Word2Vec已經過去很長時間了。當時似乎每一個玩機器學習的人都能背出“國王減去男人加上女人等於女王”這條“ ...

Fri Mar 01 17:54:00 CST 2019 0 988
復雜模型可解釋性方法——LIME

一、模型可解釋性     近年來,機器學習(深度學習)取得了一系列驕人戰績,但是其模型的深度和復雜度遠遠超出了人類理解的范疇,或者稱之為黑盒(機器是否同樣不能理解?),當一個機器學習模型泛化性能很好時,我們可以通過交叉驗證驗證其准確,並將其應用在生產環境中,但是很難去解釋這個模型為什么會做 ...

Fri Oct 18 06:16:00 CST 2019 0 1339
卷積神經網絡模型可解釋性

卷積神經網絡模型可解釋性 缺乏可解釋性仍然是在許多應用中采用深層模型的一個關鍵障礙。在這項工作中,明確地調整了深層模型,這樣人類用戶可以在很短的時間內完成他們預測背后的過程。具體地說,訓練了深度時間序列模型,使得類概率預測具有較高的精度,同時被節點較少的決策樹緊密地建模。使用直觀的玩具例子 ...

Mon May 04 20:08:00 CST 2020 0 1632
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM