有限和有时很难求,而经过极限由优先过渡到无限,则问题反而被简化
\[ \lim_{n\to\infty}1+x+\frac{x^2}{2!}+\cdots+\frac{x^n}{n!}=\lim_{n\to\infty}\sum_{i=1}^{n}\frac{x^i}{i!}=e^x \]
在概率中,也有类似的现象,而概率论就是生活中规律的总结,支撑其发展的根基便是生活中的现象。
\[ \lim_{n\to\infty}P(|\frac{1}{n}\sum_{i=1}^{n}X_i-a|\ge\varepsilon)=0(伯努利大数定理) \]
称为“ \(\overline{X}_n\) 依概率收敛于 a ”,为了证明上述定理,我们需要引入马尔可夫概率不等式:
\[ P(Y\ge\varepsilon)\le\frac{E(Y)}{\varepsilon}\ (马尔可夫不等式)\若Var(Y)存在,则:P(|Y-EY|\ge\varepsilon)\le\frac{Var(Y)}{\varepsilon^2}(切比雪夫不等式)\证明:\\begin{align} &\because E(Y)=\int_0^\infty yf(y)dy\ge\int_\varepsilon^\infty yf(y)dy\ge\varepsilon\int_\varepsilon^\infty f(y)dy=\varepsilon P(Y\ge\varepsilon),(1式得证)\\end{align}\令[Y-EY]^2代替Y。以\varepsilon^2代替\varepsilon,并注意P(|y|>a)=P(y^2>a^),带入马尔可夫不等式可证明切比雪夫不等式 \]
由上式,设\(\frac{1}{n}\sum_{i=1}^{n}X_i=\overline{X}_n\),可以证明:
\[
\because E(\overline X_n)=\sum_{i=1}^{n}E(X_i)/n=na/n=a\\begin{align}
\therefore \lim_{n\to\infty}P(|\frac{1}{n}\sum_{i=1}^{n}X_i-a|\ge\varepsilon)
&=\lim_{n\to\infty}P(|\overline{X}_n-a|\ge\varepsilon)\&\leq\lim_{n\to\infty}\frac{Var(\overline X_n)}{\varepsilon^2}\&=\lim_{n\to\infty}\frac{1}{n^2\varepsilon^2}\sum_{i=1}^{n}Var(X_i)\&=\frac{1}{n^2\varepsilon^2}n\sigma^2\\&=\frac{\sigma^2}{n\varepsilon^2}\to0(当n\to\infty时)
\end{align}
\]
设\(X_1.X_2,\dots,X_n,\dots\)为独立同分布的随机变量,\(E(X_i)=a,Var(X_i)=\sigma^2(0<\sigma<\infty)\)。则对任何实数 x ,有
\[
\begin{align}
\Phi(x)&=\lim_{n\to\infty}P(\frac{1}{\sqrt n\sigma}(\sum_{i=1}^nX_i-na)\leq x)
=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-t^2/2}dt\&=\lim_{n\to\infty}P(\frac{1}{\sqrt{np(1-p)}}(\sum_{i=1}^nX_i-np)\leq x)
\end{align}
\]
差不多了
原文:https://www.cnblogs.com/rrrrraulista/p/12255340.html