在当下,机器学习、人工智能领域吸引了许多同学投身其中,其中包含了大量非科班出身或者从其他行业切换赛道转行而来的朋友们,大家在学习的过程中发现学习曲线陡峭、难度较大,普遍的心声就是:机器学习难,首要就是数学知识需要的太多了!
大学学过数学,为什么还是不会用、用不好?其实在大学阶段,大家都学过概率论、线性代数和微积分的课程,为什么到了机器学习领域需要使用的时候,却难以支撑了呢?我感觉有以下几点原因,相信你也曾经感同身受。
第一,大学课程中的知识点并没有完全覆盖机器学习领域所需。 回想一下大学概率统计课程内容的内容,虽然很重要,但其实远远不够。事实上,我们还需要补充随机过程、随机理论、蒙特卡洛思想、采样方法、概率图等一些重要的基础知识,才能说知识结构相对完整。同样的,大学本科的线性代数中一般也不会介绍相似矩阵、矩阵分解、数据降维等重要内容,最优化的思想和应用在高等数学中也鲜有涉及。
第二,大学课程的学习重计算技巧,轻内在逻辑。 大家一定都有这种感觉,学习大学数学的时候,我们是不是一天到晚苦于去计算行列式、特征值;去求微分、求积分;去罗列很多种分布,然后算期望、算方差、算事件概率。这样的结果就是数学变成了算术,还是在不停的做程序一秒钟就能做的事儿。至于说知识背后的内在逻辑和应用方法,基本上是非常欠缺的,因此大家很容易考完就忘。
第三,大学学了数学,却不知道学了能干什么。几十年如一日的教学内容没能深刻挖掘学科与当下前沿技术的交汇点,使得同学们常常有这样的困惑:这门课学了之后有什么用?自然学完之后,很快也就还给老师了。同时大学开设的数学基础课目的是讲授基础理论,本来也不是为了给大家打牢机器学习的数学基础。
这个专栏和传统的数学教材有何不同?首先,我们会集中力量紧紧围绕机器学习核心算法中所涉及到的数学知识展开介绍,做好精确打击。 我们的讲解会结合好数学的本质内涵,用浅显易懂的语言讲透深刻的数学思想,构建起整个专栏理论体系。
然后,我们还会加强基础知识与算法、应用案例之间的联系。 我们在讲解数学内容的时候会注重延伸到后续的算法应用场景,将其进行相互关联,形成学以致用的实践导向。
同时,我们会运用好 Python 工具,做好和工程应用的无缝对接。 整个专栏内容都以 Python 语言为工具进行教学内容的实践,利用numpy、scipy、matplotlib、pandas 等工具强化知识的理解、提升工作的效率。
此外,我们还十分重视专栏本身的写作技巧。作者深入浅出的讲解技巧和逻辑严密的写作文风也将助你在充满挑战的学习道路上不断前进。
专栏作者我们会按照概率统计、线性代数、微积分与最优化以及概率图与随机过程的顺序来安排专栏内容。
第 01 部分:概率思想。这一部分里,我们首先从条件概率和贝叶斯方法入手,阐明条件、独立、相关这些基本概念,掌握联合、边缘的计算方法,和大家一起构建起认知世界的概率思维体系。
第 02 部分:随机变量。这里,我们将重点介绍随机变量主干内容,从单一随机变量的分布过渡到多元随机变量的分析,最后重点围绕大数定理和中心极限定理,并初步接触蒙特卡洛方法,带领读者建立重要的极限思维。
第 03 部分:统计推断。这一部分我们关注的是如何从部分的样本集合中去推断出我们关心的总体特征,这在现实世界中的意义非常重要。在介绍参数估计的思想方法基础上,我们重点关注极大似然估计和贝叶斯估计这两种方法。
第 04 部分:随机过程。这一部分我们会关注由一组随机变量构成的集合,即:随机过程。股票的波动、语音信号、视频信号、布朗运动等都是随机过程在现实世界中的实例。我们在随机过程的基本概念之上,重点分析马尔科夫链,梳理由静到动的演变,探索变化的过程和不变的稳态。
第 05 部分:采样理论。这一部分重点关注如何获取服从目标分布的近似采样方法,从基本的接受-拒绝采样入手,逐渐深入到马尔科夫链-蒙特卡洛方法,在动态的过程中进一步深化对随机过程、随机理论与极限思想的理解。
第 06 部分:概率模型。这一部分介绍概率图模型中的一种典型模型:隐马尔科夫模型,熟悉状态序列的概率估计和状态解码的基本方法,为后续进一步拓展概率图模型的学习打好基础。
第二篇:线性代数第 07 部分:构筑空间。这一部分我们将从空间坐标表示与线性变换入手,快速建立线性代数直观感受,理解向量和矩阵运算的几何意义;同时探索空间——这个线性代数的概念基石,理解空间中的映射和变换的本质,深入学习矩阵在其中的灵魂作用;
第 08 部分:空间投影。这一部分我们将从空间投影的现象入手,很好的将理论和工程进行紧密的结合,掌握线性代数在近似与拟合中的理论基础,学习最小二乘法的原理与实际应用,并实践线性拟合、无解方程组的近似解问题;
第 09 部分:矩阵特征。这一部分是矩阵分析的核心重点,我们需要深刻领会矩阵相似性的几何意义以及特征值、特征向量的提取方法,用以打好数据降维的理论基础;
第 10 部分:数据降维。这一部分是整个线性代数知识脉络的交汇点,可以说是矩阵分析中最为精彩的地方,利用前三部分打下的良好概念基础,我们应该去深入的学习特征值分解和奇异值分解的方法,并利用这些工具进行数据的压缩和降维,实现对样本数据的主成分分析。
第三篇:微积分与最优化第 11 部分:微分基础。这一部分从一元函数的导数和微分入手,迅速理清连续与可微、切线与导数等重要概念,巩固好核心基础,同时从切线的几何意义出发顺势引出微分的数值求法。在此基础上进一步讨论一元函数的泰勒近似,引导读者利用高阶导数基于有限的级数项在指定点对函数进行近似处理;
第 12 部分:多元分析。这一部分由一元过渡到多元函数,导数与微分的概念得以进一步全面和深化,引出了多元函数的极限、连续以及偏导数,并在多元微分的几何意义的基础上,讨论了多元函数的泰勒近似。同时从偏导数的几何意义出发,引出了这一部分最为重要的概念:多元函数的梯度向量和黑塞矩阵,探究梯度与函数值变化的重要关系,为优化方法的介绍打好基础。
第 13 部分:优化基础。这一部分讨论了最优化的概念基础,首先我们分析最优化问题的由来和背景,然后重点讨论函数极值存在的条件以及探索函数极值过程中常用的迭代法。
第 14 部分:多元极值。这一部分面向几个典型的实际算法,分别举了多元函数极值求取的一阶方法和二阶方法的典型例子,对许多材料当中耳熟能详、反复出现的梯度法、最速下降法以及牛顿法都进行了深入的介绍和完整的实现,综合了整个四部分内容,形成了微分与优化的完整知识闭环。
第四篇:概率图与随机过程第 15 部分:模型中的单点——入手高斯分布:勾画概率模型核心概念:从最基础的单中心高斯分布入手展开,通过一维及多维高斯分布的形态、性质、由来及应用串联起随机变量、分布特征、参数估计、极大似然等核心概念,并分门别类的梳理典型的判别模型和生成模型。
第 16 部分:模型中的多点——混合模型与隐变量:EM的迭代探索:接着进入到概率模型中的“多点”,即以多中心高斯混合模型为例,由复杂模型中的隐变量所带来的参数估计困境,牵引出EM算法以及迭代探索的重要思想;
第 17 部分:模型中的线——剖析随机过程:一组变量观测:然后由点到线,介绍随机过程---即一组随机变量的呈现形式,主要介绍马尔科夫过程和高斯过程,并基于马尔科夫链的性质重点介绍统计推断中的随机近似方法;
第 18 部分:模型中的面——详解概率图模型:解构复杂概率关系:最后进入到概率模型中的面:反映随机变量复杂关联关系的概率图模型,深刻剖析概率图模型背后的概率原理,重点介绍四类典型概率图模型以及推断、学习与滤波等问题。
适宜人群- 对人工智能感兴趣的开发者
- 想入门机器学习的初学者
- 想加强数学基本功的读者
- 本专栏为图文内容,共计 71 篇。
- 本专栏为虚拟产品,一经付费概不退款,敬请谅解。
- 本专栏可在 GitChat 服务号、App 及网页端 gitbook.cn 上购买,一端购买,多端阅读。
粉丝专享特惠:凡订阅过《机器学习中的数学》系列(《机器学习中的数学 I:概率统计》、《机器学习中的数学 II:线性代数》 、《机器学习中的数学 III:微积分与最优化》、《机器学习中的数学 Ⅳ:概率图与随机过程》)任一专栏的用户,即可 ¥59 换购本专栏。注意:在 GitChat 微信服务号或 GitBook.cn 网站(不包含 App)购买可享受粉丝特惠。
订购本专栏可获得专属海报(在 GitChat 服务号领取),分享专属海报每成功邀请一位好友购买,即可获得 25% 的返现奖励,多邀多得,上不封顶,立即提现。
提现流程:在 GitChat 服务号中点击「我-我的邀请-提现」。
订阅本专栏后,即可加入 专属交流群,服务号会自动弹出入群二维码和暗号。如果你没有收到那就先关注微信服务号「GitChat」,或者加我们的小助手「GitChatty6」咨询。(入群方式可查看第 4 篇文末说明)。
做机器学习数学基础系列专栏和大家一起共同交流学习,是我们准备了很久的一个计划。因为在当下,机器学习、人工智能领域吸引了许多同学投身其中,其中包含了大量非科班出身或者从其他行业切换赛道转行而来的朋友们,大家在学习的过程中发现学习曲线陡峭、难度较大,普遍的心声就是:机器学习难,首要就是数学知识需要的太多了!
的确如此,机器学习是一个综合性强、知识栈长的学科,需要大量的前序知识作为铺垫,最核心、最基础的就是他的绝大多数算法模型和实际应用都依赖于以概率统计、线性代数和微积分为代表的数学理论和思想方法。
比方说吧:
面对一个统计样本,你想估计出你感兴趣的参数,极大似然估计以及有偏性无偏性你能不掌握?如果不巧碰上包含隐变量的场景,EM迭代的思想你可是躲都躲不开;
想进行语音识别?隐马尔可夫模型你不可不会;想对一句话进行词性标注?条件随机场你敢不懂?
在进行贝叶斯推断的时候,如果对马尔科夫链蒙特卡洛方法等近似推断一无所知,可能一个复杂的概率分布就让你举步维艰;
对时间序列进行预测,或许卡尔曼滤波、粒子滤波对你来说是一个好的选择;
进行样本分类、聚类这些常规操作时,逻辑回归、高斯判别、高斯混合等各种模型都应该如数家珍;
对高维数据进行降维分析,提取和聚焦他的主成分,背后就是线性代数中空间的概念和矩阵分解的技巧;
想将待处理的数据在不同维度的空间中进行变换处理,以寻找到最佳的观测角度,使得数据处理达到最好的效果,矩阵的相似变换是不是得好好理解?
想在不太影响观察效果的前提下,利用很小的存储空间就能近似的达到原有图像的视觉效果,利用矩阵进行图像的数字表示和变换处理是基础之中的基础;
想理解神经网络的训练过程,想获取复杂函数的最值,离不开梯度的概念以及多元微分和优化方法;
因此,可以看出,数学基础是机器学习绕不开的一块阵地。
机器学习里,这几门数学课各自扮演的角色?围绕概率统计、线性代数和微积分这三大核心内容,我们推出了一套系列专栏,一共包含以下四大部分:
- 《机器学习中的数学 I:概率统计》
- 《机器学习中的数学 II:线性代数》
- 《机器学习中的数学 III:微积分与最优化》
- 《机器学习中的数学 Ⅳ:概率图与随机过程》
在进入到专栏大纲之前,我们首先来看看这四门专栏在机器学习中各自都扮演了什么样的角色,细致的梳理一下学科的内在逻辑。
第一:概率统计是利用数据发现规律、推测未知的思想方法
其实这和机器学习的目标是高度一致的。机器学习中的思想方法和核心算法大多是构筑在统计思维方法之上的。核心的概率思想和基础概念将围绕着条件概率、随机变量、随机过程、统计推断、概率图等内容展开,体现了概率统计在机器学习中的灵魂作用。
第二:线性代数是利用空间投射和表征数据的基本工具
他可以方便的对数据进行各种变换,从而让我们更直观清晰的挖掘出数据的主要特征和不同维度的信息。整个线性代数的主干内容是沿着空间变换这条主线,从构筑空间、近似拟合、相似矩阵、数据降维这四大板块,环环相扣的展开并呈现出与机器学习算法紧密结合的最核心内容。
第三:微积分与最优化是机器学习模型中问题最终解决的落地手段
当我们建立好算法模型之后,问题的最终求解往往都会涉及到优化问题,需要我们去探寻数据空间中的极值,这一切如果没有微分理论和计算方法作为支撑,任何漂亮的模型都无法落地。因此夯实多元微分的基本概念,掌握最优化的实现方法是问题最终解决的必经之路。
第四:概率图与随机过程直面机器学习应用实战,是概率基本理论的升华和综合应用
同学们在机器学习的实战应用中,将大量应用模型进行问题的描述和求解,这需要我们重点剖析机器学习算法应用中的核心概率图模型与随机过程思想方法,弥合概率统计基本概念与人工智能应用之间的巨大鸿沟,使读者能够理清典型算法应用背后所蕴藏的核心模型与重要统计思想。
大学学过数学,为什么不会用、用不好?其实在大学阶段,大家都学过概率论、线性代数和微积分的课程,为什么到了机器学习领域需要使用他的时候,却难以支撑了呢?我感觉有以下几点原因,相信你也曾经感同身受。
第一,大学课程中的知识点并没有完全覆盖机器学习领域所需。 机器学习数学基础萌发于高等数学、线性代数和概率统计,但绝不仅仅满足于本科的教学内容,回想一下大学概率统计专栏内容包含了什么?事件的概率、随机变量及其分布、数字特征、参数估计与假设检验。差不多就这些,很重要,很核心,但似乎是远远不够的吧。事实上,我们还需要补充随机过程、随机理论、蒙特卡洛思想、采样方法、概率图等一些重要的基础知识,才能说知识结构相对完整。同样的,大学本科的线性代数中一般也不会介绍相似矩阵、矩阵分解、数据降维等重要内容,最优化的一些思想和应用在高等数学中也鲜有涉及。
第二,大学课程的学习重计算技巧,轻内在逻辑。 大家一定都有这种感觉,学习大学数学的时候,我们是不是一天到晚苦于去计算行列式、特征值;去求微分、求积分;去罗列很多种分布,然后算期望、算方差、算事件概率。这样的结果就是数学变成了算术,还是在不停的做程序一秒钟就能做的事儿。至于说知识背后的内在逻辑和应用方法,基本上是非常欠缺的,因此大家很容易考完就忘。
第三,大学学了数学,却不知道学了能干什么。几十年如一日的教学内容没能深刻挖掘学科与当下前沿技术的交汇点,使得同学们常常有这样的困惑:这门课学了之后有什么用?自然学完之后,很快也就还给老师了。同时大学开设的数学基础课目的是讲授基础理论,本来也不是为了给大家打牢机器学习的数学基础。所以如果大家不专门针对性的分清重点,强化相关重点内容的学习,自然觉得平铺直叙没有针对性。
这么一来,想以此打好机器学习的数学基础,恐非易事。
专栏的亮点与特色那么,我们这个专栏和传统的数学教材有何不同呢?这里我想我们有必要来介绍一下他的特色:
首先,我们会集中力量紧紧围绕机器学习核心算法中所涉及到的数学知识展开介绍,做好精确打击。我们的讲解会结合好数学的本质内涵,用浅显易懂的语言讲透深刻的数学思想,构建起整个专栏理论体系;
然后,我们还会加强基础知识与算法、应用案例之间的联系。 我们在讲解数学内容的时候会注重延伸到后续的算法应用场景,将其进行相互关联,形成学以致用的实践导向;
同时,我们会运用好python工具,做好和工程应用的无缝对接。 整个专栏内容都以python语言为工具进行教学内容的实践,利用numpy、scipy、matplotlib、pandas等工具强化知识的理解、提升工作的效率;
重要的是,我们还十分重视专栏本身的写作技巧。 作者深入浅出的讲解技巧和逻辑严密的写作文风也将助你在充满挑战的学习道路上不断前进。
专栏作者简介那么,在我们的专栏里,会按照怎样的学习路径和方法去学好这些重要的内容呢?接下来,我们会按照概率统计、线性代数、微积分与最优化以及概率图与随机过程的顺序来安排专栏内容。
第一篇:概率统计第01部分:概率思想。这一部分里,我们首先从条件概率和贝叶斯方法入手,阐明条件、独立、相关这些基本概念,掌握联合、边缘的计算方法,和大家一起构建起认知世界的概率思维体系。
第02部分:随机变量。这里,我们将重点介绍随机变量主干内容,从单一随机变量的分布过渡到多元随机变量的分析,最后重点围绕大数定理和中心极限定理,并初步接触蒙特卡洛方法,带领读者建立重要的极限思维。
第03部分:统计推断。这一部分我们关注的是如何从部分的样本集合中去推断出我们关心的总体特征,这在现实世界中的意义非常重要。在介绍参数估计的思想方法基础上,我们重点关注极大似然估计和贝叶斯估计这两种方法。
第04部分:随机过程。这一部分我们会关注由一组随机变量构成的集合,即:随机过程。股票的波动、语音信号、视频信号、布朗运动等都是随机过程在现实世界中的实例。我们在随机过程的基本概念之上,重点分析马尔科夫链,梳理由静到动的演变,探索变化的过程和不变的稳态。
第05部分:采样理论。这一部分重点关注如何获取服从目标分布的近似采样方法,从基本的接受-拒绝采样入手,逐渐深入到马尔科夫链-蒙特卡洛方法,在动态的过程中进一步深化对随机过程、随机理论与极限思想的理解。
第06部分:概率模型。这一部分介绍概率图模型中的一种典型模型:隐马尔科夫模型,熟悉状态序列的概率估计和状态解码的基本方法,为后续进一步拓展概率图模型的学习打好基础。
第二篇:线性代数第07部分:构筑空间。这一部分我们将从空间坐标表示与线性变换入手,快速建立线性代数直观感受,理解向量和矩阵运算的几何意义;同时探索空间——这个线性代数的概念基石,理解空间中的映射和变换的本质,深入学习矩阵在其中的灵魂作用;
第08部分:空间投影。这一部分我们将从空间投影的现象入手,很好的将理论和工程进行紧密的结合,掌握线性代数在近似与拟合中的理论基础,学习最小二乘法的原理与实际应用,并实践线性拟合、无解方程组的近似解问题;
第09部分:矩阵特征。这一部分是矩阵分析的核心重点,我们需要深刻领会矩阵相似性的几何意义以及特征值、特征向量的提取方法,用以打好数据降维的理论基础;
第10部分:数据降维。这一部分是整个线性代数知识脉络的交汇点,可以说是矩阵分析中最为精彩的地方,利用前三部分打下的良好概念基础,我们应该去深入的学习特征值分解和奇异值分解的方法,并利用这些工具进行数据的压缩和降维,实现对样本数据的主成分分析。
第三篇:微积分与最优化第11部分:微分基础。这一部分从一元函数的导数和微分入手,迅速理清连续与可微、切线与导数等重要概念,巩固好核心基础,同时从切线的几何意义出发顺势引出微分的数值求法。在此基础上进一步讨论一元函数的泰勒近似,引导读者利用高阶导数基于有限的级数项在指定点对函数进行近似处理;
第12部分:多元分析。这一部分由一元过渡到多元函数,导数与微分的概念得以进一步全面和深化,引出了多元函数的极限、连续以及偏导数,并在多元微分的几何意义的基础上,讨论了多元函数的泰勒近似。同时从偏导数的几何意义出发,引出了这一部分最为重要的概念:多元函数的梯度向量和黑塞矩阵,探究梯度与函数值变化的重要关系,为优化方法的介绍打好基础。
第13部分:优化基础。这一部分讨论了最优化的概念基础,首先我们分析最优化问题的由来和背景,然后重点讨论函数极值存在的条件以及探索函数极值过程中常用的迭代法。
第14部分:多元极值。这一部分面向几个典型的实际算法,分别举了多元函数极值求取的一阶方法和二阶方法的典型例子,对许多材料当中耳熟能详、反复出现的梯度法、最速下降法以及牛顿法都进行了深入的介绍和完整的实现,综合了整个四部分内容,形成了微分与优化的完整知识闭环。
第四篇:概率图与随机过程第15部分:模型中的单点——入手高斯分布:勾画概率模型核心概念:从最基础的单中心高斯分布入手展开,通过一维及多维高斯分布的形态、性质、由来及应用串联起随机变量、分布特征、参数估计、极大似然等核心概念,并分门别类的梳理典型的判别模型和生成模型。
第16部分:模型中的多点——混合模型与隐变量:EM的迭代探索:接着进入到概率模型中的“多点”,即以多中心高斯混合模型为例,由复杂模型中的隐变量所带来的参数估计困境,牵引出EM算法以及迭代探索的重要思想;
第17部分:模型中的线——剖析随机过程:一组变量观测:然后由点到线,介绍随机过程---即一组随机变量的呈现形式,主要介绍马尔科夫过程和高斯过程,并基于马尔科夫链的性质重点介绍统计推断中的随机近似方法;
第18部分:模型中的面——详解概率图模型:解构复杂概率关系:最后进入到概率模型中的面:反映随机变量复杂关联关系的概率图模型,深刻剖析概率图模型背后的概率原理,重点介绍四类典型概率图模型以及推断、学习与滤波等问题;
专栏大纲最后,朋友们可以快速的浏览一下专栏大纲,了解一下专栏的主干内容。
万丈高楼平地起,希望这个专栏能够陪伴大家走好机器学习实践与学习的最初时光,帮助大家梳理清纷繁复杂的知识网络,构筑好算法模型的数学基础,更重要的是能和大家一起逐渐形成一种思维习惯:源于理论,我们条分缕析;面向实践,我们学以致用。有了扎实的数学理论和方法基础,相信同学们都能登高望远、一往无前。
理论基石:条件概率、独立性与贝叶斯 从概率到条件概率 条件概率的发生背景从这一篇开始,我们就正式进入到概率统计的内容板块中了。
对于概率,相信大家都不会陌生,在各阶段的数学课上,它都是高频出现的常客,最简单的概率场景比如掷骰子:第一次掷出的点数为 $5$ 的概率为多大?你会毫不犹豫的说出答案:$\frac{1}{6}$。
这太简单了。接下来我增加一个限定条件:已知在抛出骰子是奇数的情况下,抛掷点数为 $5$ 的可能性有多大?
发现了没有,在第二个问题中我就没有直接的只问投掷出 $5$ 这个事件的概率,而是增加了一个前提条件:这次抛掷出的点数为奇数。
生活中这类场景更多,我们一般不会直接去推断一个事件发生的可能性,因为这样实际意义并不明显,而且也不容易推断出结果。比如我问你今天下雨的概率是多大?你可能是一头雾水,什么地点?什么月份?当日云层的厚度?这些条件都没有提供,这样是无法给出一个有意义、有价值的合理推断的。
而且在实际情况下,一个事件一般而言也不会是孤立的发生,它会伴随着其他事情一同出现,单独谈一个事件的概率,一般而言也是不存在的。
因此,在实际的应用中,我们更关心的是条件概率,也就是在给定部分信息的基础上对试验结果的推断。这些给定的信息就是我们附加的条件,是我们研究时关注的重点。
条件概率的具体描述这里,我们来具体描述一下条件概率:
假设我们知道给定事件 $B$ 已经发生,在此基础上希望知道另一个事件 $A$ 发生的可能性,此时我们就需要构造出 条件概率,它需要先顾及事件 $B$ 已经发生的信息,然后再求出事件 $A$ 发生的概率。
这个条件概率描述的就是在给定事件 $B$ 发生的情况下,事件 $A$ 发生的概率,我们专门把它记作:$P(A|B)$。
那我们回到投掷骰子的问题中来,在投出奇数点数骰子的前提下,投出 $5$ 的概率有多大?奇数点数一共有 ${1,3,5 }$ 三种,其中出现 $5$ 的概率是 $\frac{1}{3}$。很明显,和单独问投出点数是 $5$ 的概率计算结果是不同的。
下面我们来抽象一下条件概率的场景。
我们再回到最简单、最容易理解的情景下来看,即在古典概率的模式下来分析:假定一个试验有 $N$ 个等可能的结果,事件 $A$ 和 $B$ 分别包含 $M1$ 个和 $M2$ 个结果,这其中有 $M_{12}$ 个结果是公共的,这就是同时发生事件 $A$ 和事件 $B$,即 $A\cap B$ 事件所包含的试验结果数。
形象的描述一下上述场景,如图所示:
那我问你,单纯的发生事件 $A$ 和事件 $B$ 的概率是多少?你肯定会脱口而出,分别是 $\frac{M1}{N}$ 和 $\frac{M2}{N}$,那进一步到条件概率中来,已知在事件 $B$ 发生的