- 前言
- 3.1,为什么要使用概率论
- 3.2,随机变量
- 3.3,概率分布
- 3.4,边缘概率
- 3.5,条件概率
- 3.7,条件概率、联合概率和边缘概率总结
- 3.8,期望、方差和协方差
- 3.9,常用概率分布
- 3.10,常用函数的有用性质
- 3.11,贝叶斯定理
- 3.12,连续型变量的技术细节
- 3.13,信息论-相对熵和交叉熵
- 3.14,结构化概率模型
- 参考资料
本文首发于 github。最新版以
github
为主。如果看完文章有所收获,一定要先点赞后收藏。毕竟,赠人玫瑰,手有余香。
本文内容大多来自《深度学习》(花书)第三章概率与信息论。目录的生成是参考此篇 文章。
概率论是用于表示不确定性声明的数学框架。它不仅提供了量化不确定性的方法,也提供了用于导出新的不确定性声明(statement
)的公理。概率论的知识在机器学习和深度学习领域都有广泛应用,是学习这两门学科的基础。
在人工智能领域,概率论主要有两种用途。
- 首先,概率定律告诉我们
AI
系统应该如何推理,基于此我们设计一些算法来计算或者估算由概率论导出的表达式。 - 其次,我们可以用概率和统计从理论上分析我们提出的
AI
系统的行为。
虽然概率论允许我们在存在不确定性的情况下做出不确定的陈述和推理,但信息论允许我们量化概率分布中不确定性的数量。
这是因为机器学习必须始终处理不确定的量,有时可能还需要处理随机(非确定性)的量,这里的不确定性和随机性可能来自多个方面。而使用使用概率论来量化不确定性的论据,是来源于 20 世纪 80 年代的 Pearl (1988) 的工作。
不确定性有三种可能的来源:
- 被建模系统内在的随机性。
- 不完全观测。
- 不完全建模:使用了一些必须舍弃某些观测信息的模型。
随机变量(random variable
)是可以随机地取不同值的变量,它可以是离散或者连续的。
离散随机变量拥有有限或者可数无限多的状态。注意这些状态不一定非要是整数; 它们也可能只是一些被命名的状态而没有数值。连续随机变量伴随着实数值。注意,随机变量只是对可能状态的描述;它必须与指定这些状态中的每一个的可能性的概率分布相结合。
我们通常用无格式字体 (plain typeface
) 中的小写字母来表示随机变量本身,而用手写体中的小写字母来表示随机变量能够取到的值。例如,
中文维基百科用
$X$ 表示随机变量,用$f_{X}(x)$ 表示概率密度函数,本文笔记,不同小节内容两者混用。
概率分布(probability distribution
)是用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小。
如果狭义地讲,它是指随机变量的概率分布函数。具有相同概率分布函数的随机变量一定是相同分布的。连续型和离散型随机变量的概率分布描述方式是不同的。
离散型变量的概率分布可以用概率质量函数(probability mass function
, PMF
,也称概率密度函数)来描述。我们通常用大写字母
虽然通常每一个随机变量都会有一个不同的概率质量函数,但是概率质量函数也可以同时作用于多个随机变量,这种多个变量的概率分布被称为联合概率分布(joint probability distribution
)。
如果一个函数 PMF
,必须满足以下条件:
-
$P$ 的定义域必须是$\textrm{x}$ 所有可能状态的集合。 -
$\forall x \in \textrm{x}, 0 \leq P(x)\leq 1$ 。不可能发生的事件概率为0
,能够确保一定发生的事件概率为1
。 -
$\sum_{x \in \textrm{x}}P(x)=1$ ,归一化(normalized
)。
常见的离散概率分布族有:
- 伯努利分布
- 二项分布:一般用二项分布来计算概率的前提是,每次抽出样品后再放回去,并且只能有两种试验结果,比如黑球或红球,正品或次品等。
- 几何分布
-
Poisson
分布(泊松分布):Poisson
近似是二项分布的一种极限形式。 - 离散均匀分布:即对于随机变量
$\textrm{x}$ ,因为其是均匀分布(uniform distribution
),所以它的PMF
为$P(\textrm{x}=x_{i}) = \frac{1}{k}$ ,同时$\sum_{i}P(\textrm{x} = x_{i}) = \sum_{i}\frac{1}{k} = \frac{k}{k} = 1$ 。
连续型随机变量的概率分布可以用概率密度函数(probability desity function, PDF
)来描述。
通常用小写字母 PDF
,其必须满足以下条件:
-
$p$ 的定义域必须是$\textrm{x}$ 所有可能状态的集合。 -
$\forall x \in \textrm{x}, p(x)\geq 0$ 。注意,并不要求$p(x)\leq 1$ 。 -
$\int p(x)dx=1$ 。
概率密度函数
因此,我们可以对概率密度函数求积分来获得点集的真实概率质量。特别地,$x$ 落在集合
常见的连续概率分布族有:
- 均匀分布
- 正态分布:连续型随机变量的概率密度函数如下所示。其密度函数的曲线呈对称钟形,因此又被称之为钟形曲线,其中$\mu$ 是平均值,$\sigma$ 是标准差。正态分布是一种理想分布。$${f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}e^{\left(-{\frac {1}{2}}\left({\frac {x-\mu }{\sigma }}\right)^{2}\right)}}$$
- 伽玛分布
- 指数分布
边缘概率好像应用并不多,所以这里理解定义和概念即可。 边缘概率的通俗理解描述,来源于 数学篇 - 概率之联合概率、条件概率、边缘概率和贝叶斯法则(笔记)。
有时候,我们知道了一组变量的联合概率分布,但想要了解其中一个子集的概率分布。这种定义在子集上的概率分布被称为边缘概率分布(marginal probability distribution
)。
对于离散型随机变量 sum rule
)来计算边缘概率
“边缘概率”的名称来源于手算边缘概率的计算过程。当
连续性变量的边缘概率则用积分代替求和:
条件概率(conditional probability
)就是事件 A 在事件 B 发生的条件下发生的概率,表示为
设
花书中期望的条件概率定义(表达式不一样,但意义是一样的,维基百科的定义更容易理解名字意义,花书中的公式更多的是从数学中表达):
将给定
$\textrm{x} = x$ 时,$\textrm{y} = y$ 发生的条件概率记为$P(\textrm{y} = y|\textrm{x} = x)$ ,这个条件概率的计算公式如下:$$P(\textrm{y}=y|\textrm{x}=x)=\frac{P(\textrm{y}=y, \textrm{x}=x)}{P(\textrm{x}=x)}$$ 条件概率只在$P(\textrm{x}=x)\geq 0$ 时有定义,即不能计算以从未发生的事件为条件的条件概率。
任何多维随机变量的联合概率分布,都可以分解成只有一个变量的条件概率相乘的形式,这个规则被称为概率的链式法则(chain rule
)。条件概率的链式法则如下:
两个随机变量 independent
):
两个相互独立的随机变量同时发生的概率可以通过各自发生的概率的乘积得到。
如果关于
采用一种简化形式来表示独立性和条件独立性:
-
条件概率(
conditional probability
)就是事件 A 在事件 B 发生的条件下发生的概率。条件概率表示为$P(A|B)$ ,读作“A 在 B 发生的条件下发生的概率”。 - 联合概率表示两个事件共同发生的概率。
A
与B
的联合概率表示为$P(A\cap B)$ 或者$P(A,B)$ 或者$P(AB)$ 。 - 仅与单个随机变量有关的概率称为边缘概率。
为了便于理解,本章中的数学公式描述采用中文维基百科中的定义。
在概率分布中,期望值和方差或标准差是一种分布的重要特征,期望、数学期望、均值都是一个意思。统计中的方差(样本方差)是每个样本值与全体样本值的平均数之差的平方值的平均数,其意义和概率分布中的方差是不一样的。
在概率论和统计学中,一个离散性随机变量的期望值(或数学期望,亦简称期望,物理学中称为期待值)是试验中每次可能的结果乘以其结果概率的总和。换句话说,期望值像是随机试验在同样的机会下重复多次,所有那些可能状态平均的结果,也可理解为该变量输出值的加权平均。
如果
并不是每一个随机变量都有期望值的,因为有的时候上述积分不存在。如果两个随机变量的分布相同,则它们的期望值也相同。
1,如果 1
)。
若级数
2,如果
虽然是针对于连续的随机变量的,但与离散随机变量的期望值的计算算法却同出一辙,由于输出值是连续的,所以只是把求和改成了积分。
期望值
花书中期望的数学定义(表达式不一样,但意义是一样的):
1,某个函数
$f(x)$ 相对于概率分布$P(x)$ 的期望(期望值)是当从$P$ 中抽取$x$ 时$f$ 所取的平均或平均值。对于离散型随机变量,期望可以通过求和得到: $$\mathbb{E}{\textrm{x}\sim P}[f(x)] = \sum{x} P(x)f(x)$$2,对于连续型随机变量可以通过求积分得到:
$$\mathbb {E}_{\textrm{x}\sim p}[f(x)] = \int p(x)f(x)dx$$
- 在统计学中,估算变量的期望值时,经常用到的方法是重复测量此变量的值,再用所得数据的平均值来估计此变量的期望值。
- 在概率分布中,期望值和方差或标准差是一种分布的重要特征。
在概率论和统计学中,方差(英语:variance
)又称变异数、变方,描述的是一个随机变量的离散程度,即该变量离其期望值的距离,是随机变量与其总体均值或样本均值的离差的平方的期望值。
方差差是标准差的平方、分布的二阶矩,以及随机变量与其自身的协方差,其常用的符号表示有
方差作为离散度量的优点是,它比其他离散度量(如平均差)更易于代数运算,但缺点是它与随机变量的单位不同,而标准差则单位相同,这就是计算完成后通常采用标准差来衡量离散程度的原因。
方差的正平方根称为该随机变量的标准差。
有两个不同的概念都被称为“方差”。一种如上所述,是理论概率分布的方差。而另一种方差是一组观测值的特征,分别是总体方差(所有可能的观测)和样本方差(总体的一个子集)。
设
方差的表达式可展开如下:
也就是说,$X$ 的方差等于
一般而言,一个有限的容量为
$${\begin{aligned} \sigma ^{2}&={\frac {1}{N}}\sum {i=1}^{N}\left(x{i}-\mu \right)^{2} \end{aligned}} $$
花书中方差的定义: 方差(
variance
)衡量的是当我们对$x$ 依据它的概率分布进行采样时,随机变量$\textrm{x}$ 的函数值会呈现多大的差异,或者说一个随机变量的方差描述的是它的离散程度,也就是该变量离其期望值的距离。方差定义如下:$$Var(f(x)) = \mathbb{E}[(f(x) - \mathbb{E}[f(x)])^2]$$
期望与方差运算性质如下:
来源: 知乎文章-【AP统计】期望E(X)与方差Var(X)。
协方差也叫共变异数(英语:Covariance),在概率论与统计学中用于衡量两个随机变量的联合变化程度。
期望值分别为
协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。
协方差的绝对值如果很大则意味着变量值变化很大并且它们同时距离各自的均值很 远。如果协方差是正的,那么两个变量都倾向于同时取得相对较大的值。如果协方 差是负的,那么其中一个变量倾向于取得相对较大的值的同时,另一个变量倾向于 取得相对较小的值,反之亦然。其他的衡量指标如 相关系数(correlation
)将每个变 量的贡献归一化,为了只衡量变量的相关性而不受各个变量尺度大小的影响。
下表列出了一些常用概率分布的方差。
伯努利分布(英语:Bernoulli distribution
),又名两点分布或者 0-1
分布,是一个离散型概率分布,为纪念瑞士科学家雅各布·伯努利而命名。若伯努利试验成功,则伯努利随机变量取值为 1
。若伯努利试验失败,则伯努利随机变量取值为 0
。记其成功概率为
- 其概率质量函数为: $$f_{X}(x) = p^{x}(1-p)^{1-x} = \left{\begin{matrix} p \quad if ;x = 1 \ 1-p \quad if ; x = 0 \end{matrix}\right.$$
- 其期望值为:
$$\operatorname {E} [X] = \sum_{i=0}^{1} x_{i}f_X(x) = 0 + p = p$$ - 其方差为:
Multinoulli
分布(多项式分布,也叫范畴分布 categorical dis- tribution
)是一种离散概率分布,它描述了随机变量的可能结果,该随机变量可以采用
有几种不同的方法用来说明一个随机变量。最直观的方法是概率密度函数,这种方法能够表示随机变量每个取值有多大的可能性。
高斯分布 Gaussian distribution
(也称正态分布 Normal distribution
)是一个非常常见的连续概率分布。高斯分布在统计学上十分重要,经常用在自然和社会科学来代表一个不确定的随机变量。
若随机变量
则其概率密度函数为
正态分布的数学期望值
正态分布概率密度函数曲线呈钟形,也称之为钟形曲线(类似于寺庙里的大钟,因此得名)。我们通常所说的标准常态分布是位置参数
采用正态分布在很多应用中都是一个明智的选择。当我们由于缺乏关于某个实 数上分布的先验知识而不知道该选择怎样的形式时,正态分布是默认的比较好的选择,其中有两个原因。
- 第一,我们想要建模的很多分布的真实情况是比较接近正态分布的。
- 第二,在具有相同方差的所有可能的概率分布中,正态分布在实数上具有最 的不确定性。因此,我们可以认为正态分布是对模型加入的先验知识量最少的分布。
在概率论和统计学中,指数分布(Exponential distribution
)是一种连续概率分布,表示一个在 sharp point
) 的分布,其使用指示函数(indicator function
)
指数分布可以用来表示独立随机事件发生的时间间隔,比如旅客进入机场的时间间隔、电话打进客服中心的时间间隔等。
若随机变量
两者意义相同,只是
指数分配概率密度函数曲线如下所示。
深度学习中的概率分布有一些经常出现的函数,比如 logistic sigmoid
函数:
logistic sigmoid
函数通常用来产生伯努利分布的参数 sigmoid
函数的图示。从图中可以明显看出,sigmoid
函数在变量取绝对值非常大的正值或负值时会出现饱和(saturate
)现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。
sigmoid
函数的一些性质在后续学习 BP
算法等内容时会很有用,我们需要牢记:
本小节只是简单介绍基本概念和公式,更全面和深入的理解建议看《机器学习》书籍。
贝叶斯定理(英语:Bayes' theorem
)是概率论中的一个定理,描述在已知一些条件下,某事件的发生概率。比如,如果已知某种健康问题与寿命有关,使用贝叶斯定理则可以通过得知某人年龄,来更加准确地计算出某人有某种健康问题的概率。
通常,事件 A 在事件 B 已发生的条件下发生的概率,与事件 B 在事件 A 已发生的条件下发生的概率是不一样的。但是,这两者是有确定的关系的,贝叶斯定理就是这种关系的陈述。贝叶斯公式的一个用途,即透过已知的三个概率而推出第四个概率。贝叶斯定理跟随机变量的条件概率以及边际概率分布有关。
作为一个普遍的原理,贝叶斯定理对于所有概率的解释是有效的。这一定理的主要应用为贝叶斯推断,是推论统计学中的一种推断法。这一定理名称来自于托马斯·贝叶斯。
贝叶斯定理是关于随机事件 A 和 B 的条件概率的一则定理。
其中 A 以及 B 为随机事件,且
在贝叶斯定理中,每个名词都有约定俗成的名称:
-
$P(A\mid B)$ 是已知 B 发生后,A 的条件概率。也称作 A 的事后概率。 -
$P(A)$ 是 A 的先验概率(或边缘概率)。其不考虑任何 B 方面的因素。 -
$P(B\mid A)$ 是已知 A 发生后,B 的条件概率。也可称为 B 的后验概率。某些文献又称其为在特定 B 时,A 的似然性,因为$P(B\mid A)=L(A\mid B)$ 。 -
$P(B)$ 是 B 的先验概率。
贝叶斯理论亦可用于概率分布,贝叶斯理论与概率密度的关系是由求极限的方式建立:
注意到
中文维基百科中贝叶斯理论与概率密度关系定义:
$$f(x|y)={\frac {f(x,y)}{f(y)}}={\frac {f(y|x),f(x)}{f(y)}}$$
连续型随机变量和概率密度函数的深入理解需要用到数学分支测度论(measure theory
)的相关内容来扩展概率论,测度论超出了本书范畴。
原书中有测度论的简要介绍,本笔记不做记录和摘抄,感兴趣的可以阅读原书。
信息论是应用数学、电子学和计算机科学的一个分支,早期备用在无线通信领域。在深度学习中,主要是使用信息论的一些关键思想来表征(characterize
)概率分布或者量化概率分布之间的相似性。
信息论的基本想法是一个不太可能的事件居然发生了,要比一个非常可能的事件发生,能提供更多的信息。
定义一个事件
在本文中,我们总是用
自信息只处理单个的输出。我们可以用香农熵(Shannon entropy
)来对整个概率分布中的不确定性总量进行量化:
换句话说,一个概率分布的香农熵是指遵循这个分布的事件所产生的期望信息总量。
如果我们对于同一个随机变量 Kullback-Leibler (KL) divergence
,也叫相对熵)来衡量这两个概率分布的差异:
$$D_{KL}(P\parallel Q) = \mathbb{E}{\textrm{x}\sim p}\begin{bmatrix} log \frac{P(x)}{Q(x)} \end{bmatrix} = \mathbb{E}{\textrm{x}\sim p}[log P(x) - log Q(x)]$$
KL 散度有很多有用的性质,最重要的是它是非负的。KL 散度为 0 当且仅当
一个和 KL 散度密切联系的量是交叉熵(cross-entropy
)$H(P, Q) = H(P) + D_{KL}(P||Q)$,其计算公式如下:
和 KL 散度相比,少了左边一项,即熵
上式的写法是在前面所学内容数学期望的基础上给出的,还有一个写法是《机器学习-周志华》书中附录 C 中给出的公式,更为直观理解:
$$KL(P\parallel Q) = \int_{-\infty }^{+\infty} p(x)log \frac{p(x)}{q(x)} dx$$ 其中$p(x)$ 和$q(x)$ 分别为$P$ 和$Q$ 的概率密度函数。 这里假设两个分布均为连续型概率分布,对于离散型概率分布,只需要将积分替换为对所有离散值遍历求和。
KL
散度满足非负性和不满足对称性。将上式展开可得:$$\text{KL 散度} KL(P\parallel Q) = \int_{-\infty }^{+\infty}p(x)logp(x)dx - \int_{-\infty }^{+\infty}p(x) logq(x)dx = -H(P) + H(P,Q)$$ $$\text{交叉熵} H(P,Q) = \mathbb{E}{\textrm{x}\sim p} log Q(x) = - \int{-\infty }^{+\infty} p(x) logq(x)dx$$
其中,$H(P)$ 为熵(
entropy
),$H(P,Q)$ 为交叉熵(cross entropy
)。
在信息论中,熵
$H(P)$ 表示对来自$P$ 的随机遍历进行编码所需的最小字节数,而交叉熵$H(P,Q)$ 表示使用$Q$ 的编码对来自$P$ 的变量进行编码所需的字节数。因此 KL 散度可认为是使用基于$Q$ 的编码对来自$P$ 的变量进行编码所需的“额外字节数”;显然,额外字节数非负,当且仅当$P=Q$ 时额外字节数为0
。
略
- https://zh.m.wikipedia.org/zh-hans/%E6%96%B9%E5%B7%AE#
- 《深度学习》
- 《机器学习》