概率入门

1 minute read

Published:

概率

这一段较繁琐,但是确实是必须有的内容。

随机实验中出现的可能结果称为样本点,所有样本点组成的全集称为样本空间 $\Omega$。

样本空间的子集称为事件。若样本点 $\omega$ 属于事件 $A$,称事件 $A$ 发生,否则称事件 $A$ 不发生

$\Omega - A$ 称为 $A$ 的对立事件,记为 $\bar{A}$。

$A \cap B$ 代表 $A,B$ 同时发生的事件;$A \cup B$ 代表 $A,B$ 至少一个发生的事件。

为了简洁,可以将 $A \cap B$ 记作 $AB$。

$A \cap B = \varnothing$ 时(即 $A,B$ 不能同时发生),称 $A,B$ 互斥。当 $A,B$ 互斥时,$A \sqcup B$ 可以记作 $A + B$。

一个重要的性质是 De Morgan 律:

\[\overline{\bigcap A_i} = \bigcup \overline{A_i}\] \[\overline{\bigcup A_i} = \bigcap \overline{A_i}\]

在古典概型中:样本空间 $\Omega$,每个 $\omega \in \Omega$ 发生可能性相同,则 $\frac {\lvert A \rvert} {\lvert \Omega \rvert}$ 称为事件 $A$ 发生的概率,记作 $P(A)$。

几何概型涉及到测度之类的东西不敢乱写,直觉上和古典概型是差不多的。

概率的有限可加性:若 $A_1, A_2, \cdots, A_n$ 互斥,则

\[P(\sum A_i) = \sum P(A_i)\]

条件概率

对于事件 $A,B$,$P(B \mid A)$ 指在 $A$ 发生的前提下 $B$ 发生的概率。

\[P(B \mid A) = \frac {P(A \cap B)} {P(A)}\]

经典推论:

\[P(B \mid A) P(A) = P(A \cap B) = P(A \mid B) P(B)\] \[P(A \mid B) = \frac {P(B \mid A) P(A)} {P(B)}\]

若 $A$ 不影响 $B$ 发生,即 $P(B \mid A) = P(B)$,则称 $A,B$ 独立。等价的定义是:

\[P(A \cap B) = P(A) P(B)\]

多个事件 $A_1, \cdots, A_n$ 互相独立的定义为:对于任意 $S \subseteq {1, \cdots, n}$,

\[P(\bigcap\limits_{i \in S} A_i) = \bigcap\limits_{i \in S} P(A_i)\]

多个事件两两独立不能导出相互独立。

全概率公式

对于互斥且互补(collectively exhaustive,即并集为整个样本空间)的事件 $A_1, \cdots, A_n$,有

\[P(B) = \sum\limits_{i=1}^n P(A_i) P(B \mid A_i)\]

经典例题:假阳性

有一种病,患病率 $1\%$。做核酸,测得的结果正确率 $99\%$(即患病人群中假阴性 $1\%$,健康人群中假阳性 $1\%$)。

已知你是阳性,求你患病的概率。

令 $A_1$ 为患病,$A_2$ 为未患病,$B$ 为阳性。

\[\begin{aligned} & P(A_1 \mid B) \\ =& \frac {P(B \mid A_1) P(A_1)} {P(B)} \\ =& \frac {P(B \mid A_1) P(A_1)} {P(B \mid A_1) P(A_1) + P(B \mid A_2) P(A_2)} \\ =& \frac {99\% \times 1\%} {99\% \times 1\% + 1\% \times 99\%} \\ =& 50\% \end{aligned}\]

第三行的这个很长的式子称为 Bayes 公式。听起来很高大上,但是实际上只是条件概率的基础推论罢了。