统计学分为描述性统计和推断统计。推断统计是指通过样本数据对总体特征作出推断,它有3个要素:1.随机观测的样本数据;2.问题的条件和假定;3.对总体所做出的以概率的形式进行表述的推断。因此推断统计与概率论是密不可分的。
随机事件是概率论中一个很重要的概念,它不是指一个试验,而是指一个试验的结果,可以用A、B、C等表示,必然事件用$\Omega$表示,不可能事件用$\Phi$表示。
随机事件简称为事件,要注意这一概念是指试验的结果(而不是试验本身),这个结果可以是数值,也可以用文字表述。
基本事件是指不能分解成多个事件的随机事件。在一次试验中,虽然试验的结果有多种可能性,但一次试验的结果只能是所有结果中的一个,即只能发生一种基本事件。而试验的所有结果的总和,即所有基本事件的全体,称为样本空间,记为$\Omega$(必然事件)。
上面说了一次试验的结果是有多种可能的,那么所有结果中,事件A(可能是基本事件,也可能是几个基本事件的组合)发生的可能性有多大?这个可能性就是事件A的概率,记为$P(A)$,它显然是一个数值。概率有古典定义、统计定义、主观概率定义,我们重点关注统计定义。
概率的统计定义:
相同条件下,随机试验$n$次,事件A发生$m$次,比值$m/n$称为事件A发生的频率;随着$n$的增大,该频率在一常数$p$上下波动,趋于稳定,频率的稳定值即为事件A发生的概率:
$$P(A)=\frac{m}{n}=p$$
1.对于任一随机事件A,有
$0\leq P(A)\leq 1$
2.
$$P(\Omega )=1$$
$$P(\Phi )=0$$
3.若A与B互斥,则
$$P(A\cup B)=P(A)+P(B)$$
对于任一的2个随机事件A和B,它们的和等于:
$$P(A\cup B)=P(A)+P(B)-P(A\cap B)$$
所有的事件都是在一定的条件下发生的,如果在试验原本的条件之上,又已知了试验结果的部分信息,则事件A发生的概率一般会改变。如在事件B已经发生的情况下,事件A发生的概率,就叫做事件B发生条件下事件A发生的条件概率,记为$P(A\mid B)$。
这里的条件就是“事件B已经发生”,这是我们额外知晓的信息,这个信息相当于给了我们一个“情报”,使我们得以在一个缩小的范围内考虑问题。它会对事件A发生的概率造成影响,一般来说,$P(A\mid B)\neq P(A)$。
条件概率$P(A\mid B)$、概率$P(AB)$、$P(B)$之间的关系如下:
$$P(A\mid B)=\frac{P(AB)}{P(B)}$$
由此我们可以得到概率的乘法公式:
$$P(AB)=P(B)\cdot P(A\mid B)$$
上面我们说知晓事件B的发生“一般”会改变事件A发生的概率,那么到底什么时候会改变,什么时候又不影响呢?我们将一个事件的发生不影响另一个事件发生的现象称为这2个事件相互独立。因此在时间A与事件B独立时,$P(A\mid B)=P(B)$。
与独立易混淆的一个概念叫做互斥,很明显,如果事件A和B互斥,则它们必然不独立(有你无我,都影响了对方的发生),独立一定不互斥,互斥一定不独立。
原文:https://www.cnblogs.com/zm-pop-pk/p/11361227.html