极客时间已完结课程限时免费阅读

02 数学基础 | 月有阴晴圆缺,此事古难全:概率论

02 数学基础 | 月有阴晴圆缺,此事古难全:概率论-极客时间

02 数学基础 | 月有阴晴圆缺,此事古难全:概率论

讲述:王天一

时长11:11大小5.12M

除了线性代数之外,概率论(probability theory)也是人工智能研究中必备的数学基础。随着连接主义学派的兴起,概率统计已经取代了数理逻辑,成为人工智能研究的主流工具。在数据爆炸式增长和计算力指数化增强的今天,概率论已经在机器学习中扮演了核心角色。
同线性代数一样,概率论也代表了一种看待世界的方式,其关注的焦点是无处不在的可能性。对随机事件发生的可能性进行规范的数学描述就是概率论的公理化过程。概率的公理化结构体现出的是对概率本质的一种认识。
将同一枚硬币抛掷 10 次,其正面朝上的次数既可能一次没有,也可能全部都是,换算成频率就分别对应着 0% 和 100%。频率本身显然会随机波动,但随着重复试验的次数不断增加,特定事件出现的频率值就会呈现出稳定性,逐渐趋近于某个常数。
从事件发生的频率认识概率的方法被称为“频率学派”(frequentist probability),频率学派口中的“概率”,其实是一个可独立重复的随机实验中单个结果出现频率的极限。因为稳定的频率是统计规律性的体现,因而通过大量的独立重复试验计算频率,并用它来表征事件发生的可能性是一种合理的思路。
在概率的定量计算上,频率学派依赖的基础是古典概率模型。在古典概率模型中,试验的结果只包含有限个基本事件,且每个基本事件发生的可能性相同。如此一来,假设所有基本事件的数目为 n,待观察的随机事件 A 中包含的基本事件数目为 k,则古典概率模型下事件概率的计算公式为
从这一基本公式就可以推导出复杂的随机事件的概率。
前文中的概率定义针对都是单个随机事件,可如果要刻画两个随机事件之间的关系,这个定义就不够看了。在一场足球比赛中,球队 1:0 取胜和在 0:2 落后的情况下 3:2 翻盘的概率显然是不一样的。这就需要引入条件概率的概念。
条件概率(conditional probability)是根据已有信息对样本空间进行调整后得到的新的概率分布。假定有两个随机事件 A 和 B,条件概率就是指事件 A 在事件 B 已经发生的条件下发生的概率,用以下公式表示
上式中的 称为联合概率(joint probability),表示的是 A 和 B 两个事件共同发生的概率。如果联合概率等于两个事件各自概率的乘积,即 ,说明这两个事件的发生互不影响,即两者相互独立。对于相互独立的事件,条件概率就是自身的概率,即
基于条件概率可以得出全概率公式(law of total probability)。全概率公式的作用在于将复杂事件的概率求解转化为在不同情况下发生的简单事件的概率求和,即
全概率公式代表了频率学派解决概率问题的思路,即先做出一些假设(),再在这些假设下讨论随机事件的概率()。
对全概率公式稍作整理,就演化出了求解“逆概率”这一重要问题。所谓“逆概率”解决的是在事件结果已经确定的条件下(),推断各种假设发生的可能性(。由于这套理论首先由英国牧师托马斯·贝叶斯提出,因而其通用的公式形式被称为贝叶斯公式:
贝叶斯公式可以进一步抽象为贝叶斯定理(Bayes' theorem):
式中的 被称为先验概率(prior probability),即预先设定的假设成立的概率; 被称为似然概率(likelihood function),是在假设成立的前提下观测到结果的概率; 被称为后验概率(posterior probability),即在观测到结果的前提下假设成立的概率。
从科学研究的方法论来看,贝叶斯定理提供了一种全新的逻辑。它根据观测结果寻找合理的假设,或者说根据观测数据寻找最佳的理论解释,其关注的焦点在于后验概率。概率论的贝叶斯学派(Bayesian probability)正是诞生于这种理念。
在贝叶斯学派眼中,概率描述的是随机事件的可信程度。如果手机里的天气预报应用给出明天下雨的概率是 85%,这就不能从频率的角度来解释了,而是意味着明天下雨这个事件的可信度是 85%。
频率学派认为假设是客观存在且不会改变的,即存在固定的先验分布,只是作为观察者的我们无从知晓。因而在计算具体事件的概率时,要先确定概率分布的类型和参数,以此为基础进行概率推演。
相比之下,贝叶斯学派则认为固定的先验分布是不存在的,参数本身也是随机数。换言之,假设本身取决于观察结果,是不确定并且可以修正的。数据的作用就是对假设做出不断的修正,使观察者对概率的主观认识更加接近客观实际。
概率论是线性代数之外,人工智能的另一个理论基础,多数机器学习模型采用的都是基于概率论的方法。但由于实际任务中可供使用的训练数据有限,因而需要对概率分布的参数进行估计,这也是机器学习的核心任务。
概率的估计有两种方法:最大似然估计法(maximum likelihood estimation)和最大后验概率法(maximum a posteriori estimation),两者分别体现出频率学派和贝叶斯学派对概率的理解方式
最大似然估计法的思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就最符合训练数据的分布。最大后验概率法的思想则是根据训练数据和已知的其他条件,使未知参数出现的可能性最大化,并选取最可能的未知参数取值作为估计值。在估计参数时,最大似然估计法只需要使用训练数据,最大后验概率法除了数据外还需要额外的信息,就是贝叶斯公式中的先验概率。
从理论的角度来说,频率学派和贝叶斯学派各有千秋,都发挥着不可替代的作用。但具体到人工智能这一应用领域,基于贝叶斯定理的各种方法与人类的认知机制吻合度更高,在机器学习等领域中也扮演着更加重要的角色。
概率论的一个重要应用是描述随机变量(random variable)。根据取值空间的不同,随机变量可以分成两类:离散型随机变量(discrete random variable)和连续型随机变量(continuous random variable)。在实际应用中,需要对随机变量的每个可能取值的概率进行描述。
离散变量的每个可能的取值都具有大于 0 的概率,取值和概率之间一一对应的关系就是离散型随机变量的分布律,也叫概率质量函数(probability mass function)。概率质量函数在连续型随机变量上的对应就是概率密度函数(probability density function)。
需要说明的是,概率密度函数体现的并非连续型随机变量的真实概率,而是不同取值可能性之间的相对关系。对连续型随机变量来说,其可能取值的数目为不可列无限个,当归一化的概率被分配到这无限个点上时,每个点的概率都是个无穷小量,取极限的话就等于零。而概率密度函数的作用就是对这些无穷小量加以区分。虽然在 时, 都是无穷小量,但后者永远是前者的 2 倍。这类相对意义而非绝对意义上的差别就可以被概率密度函数所刻画。对概率密度函数进行积分,得到的才是连续型随机变量的取值落在某个区间内的概率。
定义了概率质量函数与概率密度函数后,就可以给出一些重要分布的特性。重要的离散分布包括两点分布、二项分布和泊松分布,重要的连续分布则包括均匀分布、指数分布和正态分布。
两点分布(Bernoulli distribution):适用于随机试验的结果是二进制的情形,事件发生 / 不发生的概率分别为 。任何只有两个结果的随机试验都可以用两点分布描述,抛掷一次硬币的结果就可以视为等概率的两点分布。
二项分布(Binomial distribution):将满足参数为 p 的两点分布的随机试验独立重复 n 次,事件发生的次数即满足参数为 (n,p) 的二项分布。二项分布的表达式可以写成
泊松分布(Poisson distribution):放射性物质在规定时间内释放出的粒子数所满足的分布,参数为 的泊松分布表达式为 。当二项分布中的 n 很大且 p 很小时,其概率值可以由参数为 的泊松分布的概率值近似。
均匀分布(uniform distribution):在区间 (a, b) 上满足均匀分布的连续型随机变量,其概率密度函数为 1 / (b - a),这个变量落在区间 (a, b) 内任意等长度的子区间内的可能性是相同的。
指数分布(exponential distribution):满足参数为 指数分布的随机变量只能取正值,其概率密度函数为 。指数分布的一个重要特征是无记忆性:即 P(X > s + t | X > s) = P(X > t)。
正态分布(normal distribution):参数为正态分布的概率密度函数为
时,上式称为标准正态分布。正态分布是最常见最重要的一种分布,自然界中的很多现象都近似地服从正态分布。
除了概率质量函数 / 概率密度函数之外,另一类描述随机变量的参数是其数字特征。数字特征是用于刻画随机变量某些特性的常数,包括数学期望(expected value)、方差(variance)和协方差(covariance)
数学期望即均值,体现的是随机变量可能取值的加权平均,即根据每个取值出现的概率描述作为一个整体的随机变量的规律。方差表示的则是随机变量的取值与其数学期望的偏离程度。方差较小意味着随机变量的取值集中在数学期望附近,方差较大则意味着随机变量的取值比较分散。
数学期望和方差描述的都是单个随机变量的数字特征,如果要描述两个随机变量之间的相互关系,就需要用到协方差和相关系数。协方差度量了两个随机变量之间的线性相关性,即变量 Y 能否表示成以另一个变量 X 为自变量的 的形式。
根据协方差可以进一步求出相关系数(correlation coefficient),相关系数是一个绝对值不大于 1 的常数,它等于 1 意味着两个随机变量满足完全正相关,等于 -1 意味着两者满足完全负相关,等于 0 则意味着两者不相关。需要说明的是,无论是协方差还是相关系数,刻画的都是线性相关的关系。如果随机变量之间的关系满足 ,这样的非线性相关性就超出了协方差的表达能力。
今天我和你分享了人工智能必备的概率论基础,着重于抽象概念的解释而非具体的数学公式,其要点如下:
概率论关注的是生活中的不确定性或可能性;
频率学派认为先验分布是固定的,模型参数要靠最大似然估计计算;
贝叶斯学派认为先验分布是随机的,模型参数要靠后验概率最大化计算;
正态分布是最重要的一种随机变量的分布。
在今天的机器学习中,大量任务是根据已有的数据预测可能出现的情况,因而贝叶斯定理得到了广泛应用。那么在生活中,你能想到哪些实例,是从已有的观测结果反过来推演假设成立的呢?
欢迎发表你的观点。
分享给需要的人,Ta购买本课程,你将得18
生成海报并分享

赞 24

提建议

上一篇
01 数学基础 | 九层之台,起于累土:线性代数
下一篇
03 数学基础 | 窥一斑而知全豹:数理统计
unpreview
 写留言

精选留言(41)

  • 王天一
    置顶
    2017-12-13
    @Karl 一个优等生和一个差生打架,老师肯定认为是差生的错,因为差生爱惹事,这就是最大似然估计;可如果老师知道优生和差生之间原本就有过节(先验信息),把这个因素考虑进来,就不会简单地认为是差生挑衅,这就是最大后验估计。 两种方式分别对应不同的机器学习算法,具体应用在机器学习模块中分别有介绍。
    183
  • 王天一
    置顶
    2017-12-12
    @yy 基础部分主要是引入概念,在后续的算法介绍中会涉及概念与方法的具体应用
    18
  • Karl
    2017-12-13
    我数学基础不太好,老师讲的虽然能基本看懂,但就只是停留在理论层面,无法联系到实际情况中。希望老师能多加一些现实世界中的实例,来对理论加以说明。比如讲到,“在贝叶斯学派眼中,概率描述的是随机事件的可信程度。如果手机里的天气预报应用给出明天下雨的概率是 85%,这就不能从频率的角度来解释了,而是意味着明天下雨这个事件的可信度是 85%”,像有类似于“明天降水概率为 85%”这样的实例时,我一下就明白了。再比如老师讲到:“最大似然估计法的思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就最符合训练数据的分布”,这句话对我来说理解起来就很困难,如果老师能再举一例,如结合AlphaGo的原理等,就会很容易理解了。
    展开
    28
  • 王天一
    2017-12-14
    @奋斗达人 这是一个贝叶斯定理应用的经典问题:有一种病在人群中的患病率是1%,其检查结果的可靠程度是95%,也就是得病的人95%会得到阳性结果,没得病的人95%会得到阴性结果。如果一个人检查的结果是阳性,那他得病的概率是多少? 用贝叶斯定理解决这个问题,得到的结果会出乎意料。
    共 4 条评论
    20
  • 吴文敏
    2017-12-29
    极大似然是寻找一组参数使得观测数据出现的概率最大,最大后验是寻找当前观测数据下出现概率最大的一组参数。王老师的这个解释十分透彻:)
    17
  • 漫漫越
    2019-03-14
    患病概率:(0.95*0.01)/(0.95*0.01+0.05*0.99)=16.1%

    作者回复: 完全正确!

    共 2 条评论
    12
  • 小牛人
    2018-05-25
    得病的概率是16.1%

    作者回复: Bingo

    8
  • wolfog
    2018-01-13
    想问下天一老师,明天下雨的概率是85%那一段说贝叶斯学派认为概率是随机事件的可靠度。而频率学派则无法从频率的角度解释。我想问问频率学派无法解释的原因是下面的解释吗? 频率学派认为概率是随机事件在次数增多时频率的一个趋近值,而很显然明天下雨这个事件无法重复多次,所以频率学派的关于概率的定义明显就无法再这里定义。 感谢天一老师
    展开

    作者回复: 没错,这是一锤子买卖的事情

    8
  • 听天由己
    2017-12-27
    概率论从直觉上比线性代数容易理解,可还是要花时间去琢磨。 思考题我有几个想法: 1、产品中最常见的就是电商系统的推荐,亚马逊在一方面很早就开始实践,根据你已经买过的东西的信息来判断购买其他商品的可能性; 2、垃圾邮件过滤器,给定一封邮件,它是垃圾邮件的可能性是多大。机器甄别可能用处更大 3、第三就是拼写纠错与语义分词。 这几个方面是我结合实践生活和学习想到的,要真正将问题转化成模型与数学语言真的好难。
    展开

    作者回复: 没错,最常见的例子就是文本分类。建模确实难度很大,而且没有通用的规则,使用哪些工具需要具体情况具体分析。

    7
  • yy
    2017-12-12
    希望关于数学基础的部分,描述一下在人工智能领域使用比较频繁,或者比较重要的部分。如果是一位数学基础不好的听众。可能更想知道如何去学习这一方面的知识。
    7
  • 奋斗达人
    2017-12-13
    对于基础薄弱或零基础人员,贝叶斯原理足够望而生畏。建议在基础知识的篇尾给出一两个带解答的范题,最后给出一两个习题。只学习没有考察无法衡量学习的成果。
    6
  • 快乐松鼠蹦蹦跳
    2018-06-05
    @奋斗达人 这是一个贝叶斯定理应用的经典问题:有一种病在人群中的患病率是1%,其检查结果的可靠程度是95%,也就是得病的人95%会得到阳性结果,没得病的人95%会得到阴性结果。如果一个人检查的结果是阳性,那他得病的概率是多少? 用贝叶斯定理解决这个问题,得到的结果会出乎意料。 记得这样的题目,概率论学过,人工智能学过,但是总的都是模棱两可。现在学了这么多年,终于知道自己模糊的地方住在哪里了。套用贝叶斯公式求解,结果是0.1610
    展开

    作者回复: Bingo

    5
  • 野山门
    2017-12-12
    很有收获。但后面的有些公式有点烧脑。如果能有更多例子,更加细化推理过程就更好了。主要是很多年以前学的概率等全部忘记了。:)
    4
  • Andy
    2017-12-12
    在推荐系统中应该可以用到,某一个产品的购买信息可以被商家获取,那么商家可以对用户分类,用先验来计算此产品被某类用户购买的概率,当遇到新客户的时候就可以用贝叶斯公式来求解此客户买此产品的概率,进而依照概率来判断是否做推荐
    4
  • 秋应
    2018-05-25
    犯罪现场调查,应该就是从既得结果去推测犯罪过程吧。
    3
  • 凡拾
    2018-03-22
    思考题的理解—根据欺诈的结果推算哪种因素符合会最大概率出现欺诈,这算不算贝叶斯?2.在估计参数时,最大似然估计法只需要使用训练数据,最大后验概率法除了数据外还需要额外的信息,就是贝叶斯公式中的先验概率。为什么要额外信息不理解

    作者回复: 因为最大似然假定待估计的参数是固定的,估计的准确与否取决于数据;最大后验则认为参数也是随机变量,有自己的先验分布。这就是额外的信息,因为数据本身体现不出参数的先验特性。

    3
  • 哈哼
    2019-04-06
    打架那个例子,清新脱俗呀
    2
  • 凌波微步
    2018-10-25
    感觉在学校学的课程太渣了,枯燥的介绍公式,学完不知道怎么用,知识没有串起来。学了王老师这一课,受益匪浅,感觉学得很爽。后面的课程要坚持学下去!

    作者回复: 学校的课程也是很充实的,只是设计上有些问题。

    2
  • Sdylan
    2018-03-13
    王老师,离散随机变量中的二项分布选取发生事件应该是从事件总数n中有k次发生的概率,应该是Cnk而非Ckn。

    作者回复: 我查了下,国内教材通行的写法是k上n下,一些国外教材的写法是n上k下。其实只要明确两者的大小关系就清楚了,最清晰的写法还是括号形式的上n下k。

    2
  • fang
    2018-03-12
    二项分布Ckn kn 上下位置是否写反了

    作者回复: 我查了下,国内教材通行的写法是k上n下,一些国外教材的写法是n上k下。其实只要明确两者的大小关系就清楚了,最清晰的写法还是括号形式的上n下k。

    2