1. 总体与样本 0x1:数理统计中为什么要引入总体和个体这个概念 概率论与数理统计中,一个很重要的研究对象就是总体的概率分布,理论上说,我们希望获得被研究对象的总体样本,基于这份总体样本进一步研究其概率分布,但是遗憾地是,几乎在100%的情况下,我们都不可能获得真正的总体,我们只能获取有限 ...
. 随机变量的数字特征 x :为什么我们需要统计随机变量的数字特征 随机变量的分布函数 或概率函数,或密度函数 已经非常全面了,精确地描述了这个随机变量取值的统计规律性,那为什么我们还需要研究随机变量的数字特征呢 这个小节我们来讨论一下这个话题。 . 实际问题背后概率分布函数的复杂性 在很多实际问题中 特别是一些具体的非物理的问题域 ,从实际问题场景中采样得到的样本集,一般时候都不会 符合一个经 ...
2019-07-07 16:13 5 601 推荐指数:
1. 总体与样本 0x1:数理统计中为什么要引入总体和个体这个概念 概率论与数理统计中,一个很重要的研究对象就是总体的概率分布,理论上说,我们希望获得被研究对象的总体样本,基于这份总体样本进一步研究其概率分布,但是遗憾地是,几乎在100%的情况下,我们都不可能获得真正的总体,我们只能获取有限 ...
注:在统计学的应用中,参数估计和假设检验是最重要的两个方面。参数估计是利用样本的信息,对总体的未知参数做估计。是典型的“以偏概全”。 0. 参数及参数的估计 参数是总体分布中的参数,反映的是总体某方面特征的量。例如:合格率,均值,方差,中位数等。参数估计问题是利用从总体抽样得到的信息 ...
3.2 回归参数的估计 与一元线性回归类似,我们需要对回归参数进行估计。估计的方法一般有两种,最小二乘估计和最大似然估计。 3.2.1 回归参数的普通最小二乘估计 多元线性回归方程未知参数 \(\beta_0\),\(\beta_1\),\(\cdots\),\(\beta_p ...
3.3 回归参数估计量的性质 归纳回归参数估计量的性质如下。 3.3.1 线性性 在多元线性回归中,无论应用最小二乘估计还是最大似然估计,得到回归参数向量 \(\hat{\bm{\beta}}\) 是随机向量 \(\bm{y}\) 的一个线性变换,具体表示为 \[\hat{\bm ...
今天的主角是指数分布,由此导出\(\Gamma\)分布,同样,读者应尝试一边阅读,一边独立推导出本文的结论。由于本系列为我独自完成的,缺少审阅,如果有任何错误,欢迎在评论区中指出,谢谢! 目录 Part 1:指数分布的参数估计 Part 2:独立同分布指数分布之和 ...
非线性回归是在对变量的非线性关系有一定认识前提下,对非线性函数的参数进行最优化的过程,最优化后的参数会使得模型的RSS(残差平方和)达到最小。在R语言中最为常用的非线性回归建模函数是nls,下面以car包中的USPop数据集为例来讲解其用法。数据中population表示人口数,year表示年份 ...
注:点估计是参数估计中的一种。点估计常用的方法有两种:矩估计和最大似然估计。之所以要做估计,最本质的问题是我们能获得的信息量(样本的数量)有限,因此只能在有限的信息中,用合理的方法、在可接受的精度或置信度下做近似计算,以便对总体有一个大概的认识,也就是将某种在有限样本中获得的规律,推广到更大的样本 ...
注:区间估计是除点估计之外的另一类参数估计。相对于点估计只给出一个具体的数值,区间估计能够给出一个估计的范围。 0. 点估计 vs 区间估计 根据具体样本观察值,点估计提供了一个明确的数值。但是这种判断的把握有多大,点估计本身并没有给出。区间估计就是为了弥补点估计的这种不足而提 ...