概率统计学习——(二)随机变量及其分布


参考自 盛骤, 谢式千, 潘承毅. 概率论与数理统计 第四版[M]// 概率论与数理统计, 第四版. 高等教育出版社, 2008.

随机变量及其分布

设随机实验的样本空间为S={e}. X=X(e)是定义在样本空间S上的实值单值函数. 称X=X(e)为随机变量
书中作者注: 严格地说“对于任意实数x,集合{e|X(e)≤x} (即: 使得X(e)≤x的所有样本点e所组成的集合) 有确定的概率” 这一要求应包括在随机变量的定义之中,一般来说,不满足这一条件的情况,在实际应用中是很少遇到的

离散型随机变量

有些随机变量,它全部可能取到的值是有限个,或可列无限多个,这种随机变量称为离散型随机变量.

三种重要的离散型随机变量

  • (0-1)分布, 也称两点分布
    随机变量X只能取0或者1,它的分布律是
    \(P\{X=k\}=p^{k}(1-p)^{1-k}, k=0,1 \quad(0<p<1)\)
    则称X服从以p为参数的(0-1)分布或两点分布

  • 伯努利试验、二项分布
    试验E只有两个可能的结果,A和\(\bar{A}\),则称E为伯努利(Bernoulli)试验. 将E独立重复地进行n次,则称这一串重复的独立试验为n重伯努利试验.
    这里重复是指在每次试验中P(A)=p保持不变;“独立”是指各次试验的结果互不影响.

在n次试验中A发生k次的概率为\(\left(\begin{array}{l}n \\ k\end{array}\right) p^{k}(1-p)^{n-k}\),记q=1-p,即有
\(P\{X=k\}=\left(\begin{array}{l}n \\ k\end{array}\right) p^{k} q^{n-k}, k=0,1,2, \cdots, n\)
注意到\(\left(\begin{array}{l}n \\ k\end{array}\right) p^{k}(1-p)^{n-k}\)刚好是二项式\((p+q)^{n}\)展开式中出现\((p)^{k}\)的那一项,我们成随机变量X服从参数为n,p的二项分布,并记为\(X \sim b(n, p)\).
特别,当n=1时二项分布化为
\(P\{X=k\}=p^{k} q^{1-k}, \quad k=0,1\).
这就是(0-1)分布。

  • 泊松分布
    设随机变量X所有可能取的值为0,1,2,...,而去各个值的概率为
    \(P\{X=k\}=\frac{\lambda^{k} \mathrm{e}^{-\lambda}}{k !}, k=0,1,2, \cdots,\)
    其中λ>0是常数. 则称X服从参数为λ的泊松分布,记为\(X \sim \pi(\lambda)\)
    易知\(P\{X=k\} \geqslant 0, k=0,1,2, \cdots,\) 且有
    \(\sum_{k=0}^{\infty} P\{X=k\}=\sum_{k=0}^{\infty} \frac{\lambda^{k} \mathrm{e}^{-\lambda}}{k !}=\mathrm{e}^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda^{k}}{k !}=\mathrm{e}^{-\lambda} \cdot \mathrm{e}^{\lambda}=1\)

泊松定理 设λ>0是一个常数,n是任意正整数,设\(n p_{n}=\lambda\),则对于任一固定的非负整数k,有

\[\lim _{n \rightarrow \infty}\left(\begin{array}{l} n \\ k \end{array}\right) p_{n}^{k}\left(1-p_{n}\right)^{n-k}=\frac{\lambda^{k} \mathrm{e}^{-\lambda}}{k !}\]

定义 设X是一个随机变量,x是任意实数,函数

\[F(x)=P\{X \leqslant x\},-\infty<x<\infty \]

称为X的分布函数.
对于任一实数x1,x2 (x1<x2)有

\[\begin{aligned} P\left\{x_{1}<X \leqslant x_{2}\right\} &=P\left\{X \leqslant x_{2}\right\}-P\left\{X \leqslant x_{1}\right\} \\ &=F\left(x_{2}\right)-F\left(x_{1}\right) \end{aligned}\]

因此,若已知X的分布函数,我们就知道X落在任意区间(x1,x2]上的概率,从这个意义上说,分布函数完整地描述了随机变量的统计规律性.

分布函数F(x)具有以下的基本性质:
1° F(x)是一个不减函数.
2° 0≤F(x)≤1,且

\[\begin{array}{c} F(-\infty)=\lim _{x \rightarrow-\infty} F(x)=0 \\ F(\infty)=\lim F(x)=1 \end{array}\]

连续型随机变量及其概率密度

如果对于随机变量X的分布函数F(x),存在非负函数f(x),使对于任意实数x有

\[F(x)=\int_{-\infty}^{x} f(t) \mathrm{d} t \]

则称X为连续性随机变量,其中函数f(x)称为X的概率密度函数,简称概率密度.
三种重要的连续型随机变量

  • 均匀分布
    若连续型随机变量X具有概率密度

\[f(x)=\left\{\begin{array}{ll} \frac{1}{b-a}, & a<x<b \\ 0, & \text { 其他, } \end{array}\right.\]

则称X在区间(a,b)上服从均匀分布. 记为X~U(a,b).
X的分布函数为

\[F(x)=\left\{\begin{array}{ll} 0, & x<a \\ \frac{x-a}{b-a}, & a \leqslant x<b \\ 1, & x \geqslant b \end{array}\right.\]

  • 指数分布
    若连续型随机变量X的概率密度为

\[f(x)=\left\{\begin{array}{ll} \frac{1}{\theta} \mathrm{e}^{-x / \theta}, x>0 \\ 0, & \text { 其他 } \end{array}\right.\]

其中θ>0为常数,则称X服从参数为θ的指数分布.
X的分布函数为

\[F(x)=\left\{\begin{array}{ll} 1-\mathrm{e}^{-x / \theta}, & x>0 \\ 0, & \text { 其他 } . \end{array}\right.\]

服从指数分布的随机变量X具有以下性质:
对于任意s, t>0, 有

\[P\{X>s+t \mid X>s\}=P\{X>t\} \]

事实上

\[\begin{aligned} P\{X>s+t \mid X>s\} &=\frac{P\{(X>s+t) \cap(X>s)\}}{P\{X>s\}} \\ &=\frac{P\{X>s+t\}}{P\{X>s\}}=\frac{1-F(s+t)}{1-F(s)} \\ &=\frac{\mathrm{e}^{-(s+t) / \theta}}{\mathrm{e}^{-s / \theta}}=\mathrm{e}^{-t / \theta} \\ &=P\{X>t\} \end{aligned}\]

以上性质称为无记忆性.
如果X是某一元件的寿命,那么上式表明,已知元件已使用了s小时,它总共能使用至少s+t小时的条件概率,与从开始使用时算起它至少能使用t小时的概率相等. 这就是说,元件对它已使用过s小时没有记忆. 具有这一性质是指数分布有广泛应用的重要原因.
指数分布在可靠性理论与排队论中有广泛的应用.

  • 正态分布(高斯分布)
    若连续型随机变量X的概率密度为

\[f(x)=\frac{1}{\sqrt{2 \pi} \sigma} \mathrm{e}^{-\frac{(x-\mu)^{2}}{2 \sigma^{2}}},-\infty<x<\infty \]

其中μ, σ (σ>0)为常数,则称X服从参数为μ, σ的正态分布或高斯分布, 记为$$X \sim N\left(\mu, \sigma^{2}\right)$$
具有以下性质
1° 曲线关于x=μ对称.
2° 当x=μ时取到最大值

\[f(\mu)=\frac{1}{\sqrt{2 \pi} \sigma} \]


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM