Metropolis-Hastings算法


(學習這部分內容大約需要1.5小時)

摘要

馬爾科夫鏈蒙特卡洛(Markov chain Monte Carlo, MCMC)是一種近似采樣算法, 它通過定義穩態分布為 \(p\) 的馬爾科夫鏈, 在目標分布 \(p\) 中進行采樣. Metropolis-Hastings 是找到這樣一條馬爾科夫鏈的非常一般的方法: 選擇一個提議分布(proposal distribution), 並通過隨機接受或拒絕該提議來糾正偏差. 雖然其數學公式是非常一般化的, 但選擇好的提議分布卻是一門藝術.

預備知識

學習 Metropolis-Hastings 算法需要以下預備知識

學習目標

  • 知道細致平衡條件(detailed balance conditions)說的是啥
  • 知道 Metropolis-Hastings 算法的定義
  • 證明 M-H 算法滿足細致平衡條件
  • 如果不仔細選擇提議分布, 請注意可能的故障模式: 緩慢的 mixing 和低接受概率.

核心資源

(閱讀/觀看以下其中一個)

免費

付費

  • Pattern Recognition and Machine Learning(PRML)
    簡介: 一本研究生機器學習教材, 聚焦於貝葉斯方法
    位置: Section 11.2, pages 537-542
    網站
    作者: Christopher M. Bishop

  • Machine Learning: a Probabilistic Perspective(MLAPP)
    簡介: 一本非常全面的研究生機器學習教材
    位置: Section 24.3-24.3.6, pages 848-855

    網站
    作者: Kevin P. Murphy

增補資源

免費

付費

  • Probabilistic Graphical Models: Principles and Techniques
    簡介: 一本非常全面的概率AI研究生教材
    位置: Section 12.3.4, pages 515-518

    網站
    作者: Daphne Koller,Nir Friedman

相關知識

  • Gibbs 采樣 是一種常用的特殊 M-H 算法

  • 其他 M-H 算法包括:

    在某些條件下, 我們可以確定最佳的 M-H 接受率.


返回貝葉斯機器學習路線圖


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM