伽馬分布


 伽瑪分布(Gamma Distribution)是統計學的一種連續概率函數。Gamma分布中的參數α稱為形狀參數(shape parameter),β稱為 尺度參數(scale parameter)。
假設隨機變量X為 等到第α件事發生所需之等候時間, 密度函數為
 
特征函數為
 
 

Gamma的可加性

編輯
當兩隨機變量服從Gamma分布,且單位時間內頻率相同時,Gamma
數學表達式
若隨機變量X具有概率密度
其中α>0,β>0,則稱隨機變量X服從參數α,β的伽馬分布,記作G(α,β).
性質:
1、β=n,Γ(n,α)就是Erlang分布。Erlang分布常用於可靠性理論和 排隊論中 ,如一個復雜系統中從第 1 次故障到恰好再出現 n 次故障所需的時間;從某一艘船到達港口直到恰好有 n 只船到達所需的時間都服從 Erlang分布;
2、當α= 1 , β = 1/λ 時,Γ(1,1/λ) 就是參數為λ的 指數分布,記為exp (λ) ;
3、當α =n/2 ,β=1/2時,Γ (n/2,1/2)就是數理統計中常用的χ2( n) 分布。
4、 數學期望( 均值)、 方差分別為
對於Γ(a ,β ),E( X) =a/β,D ( X) =α / (β*β)
5、(Gamma 分布的可加性):設隨機變量 X1 , X2 , …, Xn 相互獨立,並且都服從Gamma 分布,即Xi ~Γ(αi , β),i =1 ,2 , …, n , 則:
X1 + X2 + …+ Xn ~ Γ(α1 +α2 + …+αn ,β )
 
 
 
其實你只要記住了 Gamma function \Gamma(\alpha) = \int_0^\infty t^{\alpha-1}e^{-t}dt
做積分變換 t = \beta x,可得 \Gamma(\alpha,\beta) = \beta^\alpha\int_0^\infty x^{\alpha-1}e^{-x\beta}dx,從而
\frac{1}{\Gamma(\alpha,\beta) } \beta^\alpha\int_0^\infty x^{\alpha-1}e^{-x\beta}dx = 1
那么 Gamma distribution 就很好記了。

並且伽馬分布與一大坨分布有着曖昧的關系,比如:
Erlang distributionChi-squared distributionExponential distributionBeta distributionNormal distribution

最后來個分布族譜圖:


Gamma分布即為多個獨立且相同分布(iid)的指數分布變量的和的分布。
(最新修改,希望能夠行文布局更有邏輯)

—————— 泊松過程——————
指數分布泊松分布的關系十分密切,是統計學中應用極大的兩種分布。
其中 泊松過程是一個顯著應用。

泊松過程是一個 計數過程,通常用於模擬一個(非連續)事件在連續時間中發生的次數。
\{N(t):t\geq 0\}為一個泊松過程,則其滿足三個性質:
N(0)=0(t=0時什么都沒發生)

N(t+s)-N(t)(增量)之間互相獨立:
擴展補充: N(t+1)-N(t)N(t)-N(t-1)互相獨立,且在計數過程中
Pr(N(t+1)=n_{t+1}|N(t)=n_{t},N(t-1)=n_{t-1},...,N(1)=n_{i})
=Pr(N(t+1)=n_{t+1}|N(t)=n_{t})
這是因為
Pr(N(t+1)=n_{t+1}|N(t)=n_{t},N(t-1)=n_{t-1},...,N(1)=n_{i})
=Pr(N(t+1)=N(t)+n_{t+1}-n_{t}|N(t)=n_{t},N(t-1)=n_{t-1},...,N(1)=n_{i})
=Pr(N(t+1)=n_{t+1}|N(t)=n_{t})

Pr(N(t+s)-N(s)=n)=Pr(N(t)=n)=e^{-\lambda t} \frac{(\lambda t )^{n}}{n!}
N(t) \sim Poi(\lambda t)
根據增量獨立性,易知其成立。

—————— 泊松→指數——————
假設 T_{i}為第 i-1次事件與第 i次事件的間隔時間。
Pr(T_{1}>t)=Pr(N(t)=0)=e^{-\lambda t}
所以 T_{1} \sim Exp(\lambda)

Pr(T_{i}>t|T_{i-1}=s)=Pr(N(t+s)-N(s)=0)=e^{-\lambda t}
所以 T_{i} \sim Exp(\lambda)

即泊松過程的事件間隔時間為指數分布。

—————— 指數→Gamma—————
再令 S_{n}=\sum_{i=1}^{n}{T_{i}} ,即從頭開始到第 n次事件的發生的時間,該隨機變量分布即為Gamma分布。
S_{n} \sim Gamma(n,\lambda )
Gamma分布即為多個獨立且相同分布(iid)的指數分布變量的和的分布。

—————— 證明——————
假設 X_{1},X_{2},X_{3},...X_{n}\sim Exp(\lambda )且互相獨立

①Moment Generating Function(MGF):
MGF的定義為 M_{X}(t)=E[e^{tX} ]=1+tX+\frac{t^{2}X^{2}}{2!} +\frac{t^{3}X^{3}}{3!}+...\frac{t^{n}X^{n}}{n!}+...
E[X^{n}]=M_{X}^{(n)} (0)=\frac{d^{n}M_{X}(t)}{dt} |_{t=0}
其性質為 M_{X+Y}(t)=M_{X}(t)\times M_{Y}(t)

下證:
X_{i} \sim Exp(\lambda)\Leftrightarrow M_{X_{i}}(t)=(1-\frac{t}{\lambda} )^{-1}
S=\sum_{i=1}^{n}{X_{i}}
M_{S}(t)=\prod_{i=1}^{n} M_{X_{i}}(t)=\prod_{i=1}^{n} (1-\frac{t}{\lambda} )^{-1}=(1-\frac{t}{\lambda} )^{-n}
為Gamma分布的MGF。
MGF: Moment-generating function

②數學歸納法:
已知 Gamma(1,\lambda)=Exp(\lambda)
所以當 n=1時成立。
假設 n\leq kS_{n}=\sum_{i=1}^{n}{X_{i}} \sim Gamma(n,\lambda )成立
n=k+1時,
S_{k+1}=S_{k}+X_{k+1}
其中 S_{k} \sim Gamma(k,\lambda), X_{k+1} \sim Exp(\lambda)
Pr(S_{k+1}=x)
=\int_{0}^{x} Pr(S_{k}=y)Pr(X_{k+1}=x-y)dy
=\int_{0}^{x} \frac{\lambda^{k}}{\Gamma (k)} y^{k-1}e^{-\lambda y}\times \lambda e^{-\lambda (x-y)}dy
=\frac{\lambda^{k+1}}{\Gamma (k)}e^{-\lambda x}\int_{0}^{n}  y^{k-1}dy
=\frac{\lambda^{k+1}}{\Gamma (k)}e^{-\lambda x} \frac{y^{k}}{k}|_{y=0}^{n}
=\frac{\lambda^{k+1}}{\Gamma (k+1)}x^{k}e^{-\lambda x}
Gamma(k+1, \lambda)的pdf。證畢。

當然,Gamma分布與Beta,Chi-square分布也有着十分緊密的聯系,不過在統計學應用中都不如與指數分布的聯系來得重要。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM