估计器的性质和克拉美-罗下界(第一篇MD包含LATEX的文章)

开头澄清: estimator = 统计器 bias = 偏差 variance = 方差
补充证明:
https://baibizhe.github.io/2020/02/26/%E7%AC%AC%E4%B8%80%E4%BB%BD%E8%A1%A5%E5%85%85%E8%AF%81%E6%98%8E/

1、估计量(也称估计器)性能衡量标准

例如某个要估计的参数\(\theta\) 的估计器(estimator)为\(\hat{\theta}\) . 例如:(\( \bar{x}\)) 是 \(\mu\) 的estimator。顺便提一句,这个estimator无偏的。
还有最大似然可能满足i),ii),iii)三条性质哦,是个很好的estimator哦,证明看有证明过的吧
https://baibizhe.github.io/2020/02/26/%E7%AC%AC%E4%B8%80%E4%BB%BD%E8%A1%A5%E5%85%85%E8%AF%81%E6%98%8E/
,太尼玛长了。

  • i)无偏性:无偏估计。
    如果满足\(E[ \hat{ \theta}] = \theta\),那么\(\hat{ \theta}\)就是\(\theta\)无偏estimator ,

注意!! 我们不能单说“一个estimator是无偏的(or有偏的)”,必须说“ 一个estimator是XXX的无偏(or有偏的)estimator” .不过实际中大家有可能偷懒就把后面那个省略了。
例子: 补充证明1.1。

  • ii)有效性:有效性描述的是估计量到真值的偏离程度。
    Relative efficiency:
    Let \(T_1\) and \(T_2\) be two different estimators of \(\theta\).
    Effciency of T1 relative to T2 is de ned as \(\operatorname{eff}\left(T_{1}, T_{2}\right)=\frac{\operatorname{var}\left[T_{2}\right]}{\operatorname{var}\left[T_{1}\right]}\)
    只有两个estimator同时无偏或者有相同的bias才有意义, 这尼玛看公式就看懂了,不举例子了,你要是看不懂,那你不如去斗地主啊,这么菜学什么统计
  • iii)一致性:一致性体现了当样本总数逐渐增加时,估计量渐渐收敛于真值。
    例如\(T_n\) 是 \(\theta\) 的一个estimator,如果\(T_n \xrightarrow[\text{概率上}][\text{}] \theta \)(意思就是\(T_n\)会趋向于\(\theta\)。这时候 这个estimator才是一致的。例子 :补充证明1.2
    可以用大数定理+斯卢茨基定理+连续映射定理证明。

额外的:如果一个estimator \(T_n\) 随着n趋向于无穷大 \(MSE(T_n) \rightarrow 0 \),这个estimator是 MSE consistent 。例子 :补充证明1.3
额外的:充分统计量
A statistic T(X1;X2…..Xn) is said to be sufficint for \(\theta\) if the conditional distribution of X1;X2; …Xn, given T = t, does not dependon \(\theta\).
举个例子,例如我知道我尼玛无聊的扔了五次硬币 结果分别为(1,0,1,1,0)这个统计量如果是充分的,那么我尼玛又无聊的扔了五次硬币,并不会给我带来额外的信息。(结果还是三个1和两个0)

2、CRLB 克拉美-罗下界

  • 在研究估计过程中有什么用:对任何无偏估计量的方差确定一个下限,无偏估计量只能无限制的逼近CRLB,而不会低于CRLB。若存在估计量到达此下限,则这个估计量就是MVUE。同时,CRLB为比较无偏估计量的性能提供了一个标准。
    CRLB是衡量一个无偏估计器是否有效的重要工具,也就是说,给定一个无偏估计器,我们可以利用克拉美-罗下界去判断这个估计器是否是最优的。这个证明放到另外一页吧 例子 :补充证明1.4 挺长的。没啥逼事别硬看。