到现在已经很久么有进行tensorflow的说明了,不过我们还是用这个主题继续将一下机器学习相关的数学基础,在上一次提到了概率论和统计分析,我们这次详细讲讲概率,提到概率就不得不提随机变量,简单的说随机变量就是在某一个范围内可能取得任意一个值的变量,由于其取值是不确定的,由此而产生了概率,由随机变量的描述可以看出,其实概率是一种描述随机变量状态的一个数学基础,随机变量可能是连续的,也可能是离散的,这个跟所选的随机变量有关。提到了随机变量就必须提出另外一个重要的概念,那就是就是概率分布,概率分布是描述一个或一系列随机变量处理其取值范围内任意一种状态的可能性,这个描述很说明概率实际上用来描述随机变量,而随机变量的取值是随机的,因此对随机变量的描述只能描述为处于某种状态的可能性。由于是描述可能性,因此概率分布有一些特点:

  • 概率分布必须包含随机变量的所有可能
  • 概率分布的取值必须在0-1之间
  • 概率分布之和必须为1

以上三点都很容易理解,其实主要理解了随机变量的意义之后概率分布的几个特点就很好理解了。提到了概率分布那么就必须提一提概率密度,任意类型的随机变量都有概率分布,然而只有连续型的随机变量有概率密度而离散型的随机变量通常用概率质量函数来描述,即对任意一个值存在一个分布的可能性,为什么我们对连续型的随机变量要提概率密度,实际上对于连续型的随机变量,其处于定义域内的任意一个状态的可能性为0,因为其取值是无穷的,所以我们不能用 $x - P(x)$ 来描述某一个连续型的随机变量处于某一个状态的可能性,但是我们从另一点了解概率分布函数和为1,因此实际上我们可以通过对概率分布函数的导数来描述连续型随机变量在某一个状态的可能,则 $f(x)=\frac{\Delta(P(x))}{\Delta x}$ 其中 $f(x)$ 为概率密度函数。
边缘概率:边缘概率主要是针对联合概率分布来说的,实际上对于联合概率分布来说,我们有可能不需要了解其联合分布,或者只针对性的研究某联合概率分布中变量的子集的分布,对于这种分布的研究我们称之为边缘概率。
条件概率:条件概率比较简单,对于联合概率分布,某一个随机变量确定的情况下联合概率我们称为条件概率,条件概率还有一种扩展形式称为马尔科夫条件概率,即链式条件概率。
以上都是介绍了条件概率的描述,下面介绍的是概率的计算,实际上主要介绍期望,方差和协方差,这些都是统计的基本量,我在这里也就不特别介绍了,每种计算方法也都很简单,不管是随机变量还是离散变量其期望,方差和协方差的计算都没有什么区别,所以这里我就不赘述了。
实际上本章还有一些典型的随机分布,在这里也就不提了,反正从伯努力分布到高斯分布,也就这么一些常用的,然后他们之间的一些特点大家有兴趣好好复习一下概率论,对理解随机变量这些东西是很有好处的。