先来一个随机变量吧
\[X
\]
我们知道它的期望
\[E[X]=\mu
\]
现在你对它的方差突然很感兴趣
那按理来说你本应这么求
\[\sigma^2=E[(X-\mu)^2]
\]
你理所当然地求不了。
好耶ヽ(??▽?)ノ
啊啊。
不过还可以估计。
直觉来说吗,我们会觉得可以这样
\[s^2=E[(X-\overline{X})^2]=\frac{1}{n}\sum\limits_{i=1}^n(X_i-\overline{X})^2
\]
实际上呢,平均值跟期望往往不太一样。这会对方差和我们的估计值产生怎样的影响呢?
嗯……
\[\sum\limits_{i=1}^n(X_i-\overline{X})^2\le \sum\limits_{i=1}^n(X_i-\mu)^2
\]
从数学的角度考虑这是一个非常显然的结果。
那,
\[s^2\le \sigma^2
\]
怎么办呢。
机智的某某某把 \(s^2\) 的分母改成了 \(n-1\) 就得到了样本方差 \(S^2\)
实际上
\[E[s^2]=E\left[\frac{1}{n}\sum\limits_{i=1}^n\left((X_i-\mu)-(\overline{X}-\mu)\right)^2\right]=\cdots=E\left[\frac{1}{n}\sum\limits_{i=1}^n(X_i-\mu)^2\right]-E\left[(\overline{X}-\mu)^2\right]
\]
也就是说
\[E[s^2]=\sigma^2-E[(\overline{X}-\mu)^2]
\]
嗯?怎么继续化呢
首先,我们注意到
\[E[\overline{X}]=E\left[\frac{\sum\limits_{i=1}^nX_i}{n}\right]=\frac{1}{n}\sum\limits_{i=1}^nE[X_i]=\frac{1}{n}\sum\limits_{i=1}^n\mu=\mu
\]
你会发现一个很有趣的事实
\[E[(\overline{X}-\mu)^2]=E\left[(\overline{X}-E[\overline{X}])^2\right]=Var(\overline{X})=\cdots=\frac{\sigma^2}{n}
\]
于是
样本方差
\[S^2=\frac{1}{n-1}\sum\limits_{i=1}^n(X_i-\overline{X})^2
\]
可以证得
\[E[S^2]=\sigma^2
\]
Sample Variance
原文:https://www.cnblogs.com/ccryolitecc/p/14540975.html