概率统计极简入门:通俗理解微积分/期望方差/正态分布前世今生(23修订版)

原标题:数据挖掘中所需的概率论与数理统计知识(12年首次发布,23年重编公式且反复改进)

修订背景

本文初稿发布于12年年底,十年后的22年底/23年初ChatGPT大火,在写ChatGPT通俗笔记的过程中,发现ChatGPT背后技术涉及到了RL/RLHF,于是又深入研究RL,研究RL的过程中又发现里面的数学公式相比ML/DL更多,于此激发我一边深入RL,一边系统重修微积分、概率统计,从而注意到了本文,先是重新排版且用LaTeX重新一一编辑所有公式,然后不断反复修改,以让之越发通俗,修改记录见本文最末

23年版前言

十年之前的2012年,我在微博上说,“今年5月接触DM,循序学习决策树.贝叶斯,SVM.KNN,感数学功底不足,遂补数学,从rickjin‘正态分布的前后今生’中感到数学史有趣,故买本微积分概念发展史读,在叹服前人伟大的创造之余,感微积分概念模糊,复习高等数学上册、概率论与数理统计,感概道:微积分是概数统计基础,概数统计则是DM&ML之必修课。”

然数学不是那么好学的,特别是很多教材不顾各个公式定理的先后发明顺序

  1. 比如历史上先有的积分后有的微分(包括导数),但大部分教材都是先介绍微分后介绍积分
  2. 再比如历史上是先有的中心极限定理而后才有的正态分布,但大部分教材依然是先介绍正太分布后再介绍中心极限定理,这么编排当然有一定的依据(比如简化介绍篇幅),然历史经常是曲折而非一蹴而就的

所以我在写微积分、概率统计包括后面的RL笔记时,决定把各个公式/定理、概念/技术的介绍统一放到历史这个大背景下,结合国内外教材的各种写法,阐述各自的发明历史、从无到有的推导过程、以及为解决什么而出现。

毕竟太多教材一上来就展示了天才的想法,但对各种天才想法是怎么一步步想到的则因篇幅限制而不谈

  • 如果我们穿越到各个天才发明者的时代,通过他们已有的知识逐步推导出他们发明的创造,比如当年牛顿/莱布尼茨到底是怎么发现微分中值定理的
  • 如果我们回到牛顿/莱布尼茨那个时代,又怎么思考出这个定理?

如此,才会让我们理解更加深刻,且当我们不再执着于背各种公式/定理/概念/技术时,很多困惑都能更快解开,之前我也走了不少弯路。

本文分为五个部分,层层递进:

  1. 第一节、根据历史发明顺序,依次介绍微积分中积分、导数,微分、微积分基本定理等;
  2. 第二节、介绍随机变量及其分布
  3. 第三节、介绍数学期望.方差.协方差.相关系数.中心极限定理等概念;
  4. 第四节、依据数理统计学简史介绍正态分布的前后由来,彻底颠覆以前读书时大学课本灌输给你的观念,一探正态分布之神秘芳踪,知晓其前后发明历史由来
  5. 第五节、论道正态,介绍正态分布的4大数学推导

最终,你会发觉每一个学过概率论与数理统计的朋友都有必要了解数理统计学简史,毕竟只有了解各个定理、公式的发明历史、演进历程、相关联系,才能更好的理解你眼前所见到的知识,才能更好的运用之。

第一节、微积分的基本概念

    开头前言说,微积分是概数统计基础,概数统计则是DM&ML之必修课”,是有一定根据的,包括后续数理统计当中,如正态分布的概率密度函数中用到了相关定积分的知识,包括最小二乘法问题的相关探讨求证都用到了求偏导数的等概念,这些都是跟微积分相关的知识。故咱们第一节先复习下微积分的相关基本概念。

    几乎没有一门新的数学分支是某个人单独的成果,如笛卡儿和费马的解析几何不仅仅是他们两人研究的成果,而是若干数学思潮在16世纪和17世纪汇合的产物,是由许许多多的学者共同努力而成。

    甚至微积分的发展也不是牛顿与莱布尼茨两人之功。在17世纪下半叶,数学史上出现了无穷小的概念(单单无穷小、无穷大的概念就讨论了近200年),然就算牛顿和莱布尼茨提出了微积分,但微积分的概念尚模糊不清,在牛顿和莱布尼茨之后,后续经过一个多世纪的发展,诸多学者的努力,才真正清晰了微积分的概念。

    也就是说,从无穷小到极限,再到微积分定义的真正确立,经历了几代人几个世纪的努力,而课本上所呈现的永远只是冰山一角。

1.1、积分 :由求解无数个无穷小的面积组成的面积S发展而来

可能很多人都没想到,虽然如今一般的数学教材讲微积分时,是先讲微分,再讲积分,可历史上是先有的积分而后才有的微分。那怎么理解这个积分的概念呢?

1.1.1 积分发展起源:如何求一条曲线围成的面积?

在古代比如阿基米德时代(公元前3世纪,阿基米德在世期间:公元前287年至公元前212年,顺带说下中国秦朝是:公元前221年至公元前206年),计算长方形、正方形的面积很好求,但如何求一条曲线比如一条底朝上的抛物线和直线BC所围成弓形的面积呢?

阿基米德在面对这个问题时是用的穷竭法

  1. 具体做法是用无数个三角形去逼近这个弓形,就好像我们用很多三角形的瓷砖去铺满这块弓形的地板一样
  2. 先画了一个蓝色的大三角形ABC(过A点的切线与直线BC平行)
    你会发现三角形ABC的面积肯定比弓形的面积小了左右两边两个小弓形的面积,那如何求这两个小弓形的面积呢?
    答案是用图中2个绿色三角形去逼近,并发现2个绿色三角形的面积之和刚好是1个蓝色三角形面积的\small \frac{1}{4}
    再之后又用4个黄色三角形去填充剩余的弓形,且发现4个黄色三角形的面积之和刚好是2个绿色三角形的\small \frac{1}{4},相当于1个蓝色三角形面积的\small \frac{1}{16},也就是\small (\frac{1}{4})^2
    该过程可以无限重复下去,且每次新画的三角形的面积都是上一轮三角形面积的\small \frac{1}{4}
    最终使用的三角形越多,这些三角形的面积之和就越接近大弓形的面积,从而用三角形的面积之和来逼近这个弓形面积
  3. 很显然,如果我们把所有三角形的面积都折算成第一个蓝色三角形\small ABC(用\small \triangle ABC表示)的面积,那么大弓形的面积S就可以这样表示:
    S = \triangle ABC + \frac{1}{4}\triangle ABC + (\frac{1}{4})^2\triangle ABC + (\frac{1}{4})^3\triangle ABC + \cdots
  4. 阿基米德计算了几项,直觉告诉他这个结果在不断地逼近\small \frac{4}{3}\triangle ABC,也就是说你用的三角形越多,面积S就越接近\small \frac{4}{3}\triangle ABC
    于是阿基米德就猜测:如果我把无穷多个三角形的面积都加起来,这个结果应该刚好等于\small \frac{4}{3}\triangle ABC..  

穷竭法可以精确地算出一些曲线围成的面积,但是它有个问题:穷竭法对于不同曲线围成的面积使用不同的图形去逼近。比如上面使用的是三角形,在其它地方就可能使用其它图形,不同图形证明技巧就会不一样,这样就比较麻烦。

1.1.2 积分概念的正式提出

到了一千年以后的十七世纪,大家就统一使用矩形来做逼近:不管你是什么曲线围成的图形,我都用无数个矩形来逼近你,而且都沿着x轴来做切割

举个例子,抛物线y=x^2的图像大概就是下面这样,我们来具体算一算这条抛物线在0到1之间与x轴围成的面积是多少,怎么求呢?

  1. 用无数多的矩形来逼近原图形,假设0到1之间被平均分成了n份,那么每一份的宽度就是\frac{1}{n},那每一个矩形对应的横坐标则分别为\frac{1}{n}2 \times \frac{1}{n} = \frac{2}{n}3 \times \frac{1}{n} \cdots,而矩形的高度就是函数y=x^2的纵坐标的值
    于此,第1个矩形的高度为\small (\frac{1}{n})^2,第2个为\small (\frac{2}{n})^2,第3个为\small (\frac{3}{n})^2……
  2. 于是,所有矩形的面积之和\small S就可以写成这样:

  3. 如果n是无穷大,那么这个表达式的后两项\small \frac{1}{2n}\small \frac{1}{6n^2}从直觉上来看就应该无限趋近于0,或者说等于无穷小,似乎也可以扔掉了,从而抛物线y=x^2与x轴在0到1之间围成的面积S就只剩下第一项\small \frac{1}{3}

再之后,积分这个词就被造出来了,用来表示“由无数个无穷小的面积组成的面积S”,比如,如果一条曲线y=f(x)和x轴在a和b之间围成的面积为S,那么,我们就可以这样表示这部分面积S

比如当我们要求y=x^2与x轴在0到1之间围成的面积时,f(x) = x^2a=0b = 1,接着用无数个矩形来逼近原面积(此时每个矩形的底自然就变成了无穷小,这个无穷小的底就是上面的dx,而x^2表示的就是函数的纵坐标,相当于矩形的高,面积自然就是底dx和高x^2相乘),根据上文无穷个矩形累加得到的面经S等于\frac{1}{3},则意味着

S = \int_{0}^{1} x^2dx = \frac{1}{3}

但如果每次都用无穷个矩形去逼近曲线所围成的面积,则还是相对比较复杂的,有没有更简便的计算方式呢?这就需要引入微分了,而讲微分之前,需要先了解导数。

1.2、导数

    设有定义域和取值都在实数域中的函数y = f(x)

  1. f(x)在点x_0的某个邻域内有定义,则当自变量xx_0处取得增量\Delta x(点x_0 + \Delta x仍在该邻域内)时,相应地函数y取得增量\Delta y = f(x_0 + \Delta x) - f(x_0)
  2. 如果\Delta y\Delta x之比当\Delta x \rightarrow 0时的极限存在,则称函数y = f(x)在点x_0处可导,并称这个极限为函数y = f(x)在点x_0处的导数,记为f'(x_0) 
  3. 即:f'(x_0) = \lim_{\Delta x\rightarrow 0} \frac{\Delta y}{\Delta x} = \lim_{\Delta x\rightarrow 0} \frac{f(x_0+\Delta x)-f(x_0)}{\Delta x}

    也可记为

y'|_{x=x_0}\frac{dy}{dx}|_{x=x_0}\frac{df'{x}}{dx}|_{x=x_0}

由于导数的定义中用到了极限的定义,什么是极限呢?
设函数f(x)在点x_0的某一去心邻域内有定义

  • 如果存在常数A,对于任意给定的正数e (不论它多么小),总存在正数d,使得当x满足不等式0<|x-x_0|<d时,对应的函数值f(x)都满足不等式|f(x)-A|<e , 那么常数A就叫做函数f(x)x\rightarrow x_0的极限,记为 \lim_{x\rightarrow x_0} f(x) =A,或f(x)\rightarrow A,当x\rightarrow x_0
  • 换言之\lim_{x\rightarrow x_0} f(x) =A,等价于:\forall \varepsilon >0,\exists \delta >0,当0 <|x-x_0|<\delta时,|f(x)-A|< \varepsilon

有了导数,我们就能轻而易举地求一条曲线的极值(极大值或极小值)。因为只要导数不为0,曲线在这里就是在上升(大于0)或者下降(小于0)的,只有导数等于0的地方,才有可能是一个极值点

 接下来我们考虑下速度位移公式,s = v\cdot t

  • 当物体做匀速运动的轨迹就是一条平行于t轴的直线,速度v_1乘以时间t_0刚好就是它们围成的矩形的面积s,而速度乘以时间的物理意义就是它的位移,所以,面积代表位移

  • 当物体不是做匀速运动(轨迹是曲线)的时候,可以把时间切割成很多小段,在每一小段里把它们近似当作匀速运动,这样每一个小段的面积就代表每一个小段里的位移
    然后再把所有小段的面积加起来,得到的总面积还是代表总位移,即曲线v(t)t轴在t_1t_2之间围起来的黄色图形的面积s一样代表位移

反过来,对曲线在时刻t1求导,是不就是t_1时刻的瞬时速度v(t_1),也就是说我们对速度v做一次积分能得到位移s,而对位移s求一次导数(微分)就能得到速度v,相当于积分和微分是一种互逆运算关系: 

此举意味着什么呢,意味着当我们求某个函数比如y = x^2的面积时,当通过求y = x^2积分不太好求时,我们可以先计算y = x^2的原函数y = \frac{1}{3}x^3 +C,因为原函数就是位移公式,本身就是表示的面积!

1.3、微分

咱们先来看微分的定义,再通俗解释什么是微分。

设函数y = f(x)在某区间内有定义

对于区间内一点,当x_0变动到附近的x_0 + \Delta xx_0 + \Delta x也在此区间内)时,函数的增量\Delta y = f(x_0 + \Delta x) - f(x_0)可表示为\Delta y = A\Delta x + \circ (\Delta x)

  • 其中A是不依赖于\Delta x的常数),而\circ (\Delta x)是比\Delta x高阶的无穷小,那么称函数f(x)在点x_0是可微的
  • A\Delta x称作函数在点x_0相应于自变量增量\Delta x的微分,记作dy,即dy = A\Delta xdy\Delta y的线性主部(当\Delta x \rightarrow 0时, dy近似于\Delta y )
  • 且通常把自变量x的增量\Delta x称为自变量的微分,记作dx,即dx = \Delta x

实际上,前面讲了导数,而微分则是在导数的基础上加个后缀,即为:dy = f'(x_0)\Delta x

定义倒是很简洁,但到底什么是微分呢?顾名思义,微分即微小的量,如何定义微小?极限!

为形象说明,举个例子,比如针对一个边长为x的正方形,当横边和纵边的长度都增加\Delta x时,相信你能很快的计算出新的正方形的面积会是(x+\Delta x)^2,相当于相比旧正方形新正方形的面积增加了:

(x+\Delta x)^2 - x^2 = x^2 + 2\cdot x\cdot \Delta x +(\Delta x)^2 -x^2 = 2x\Delta x + (\Delta x)^2

这个面积增加的结果用\Delta y表示,可以很明显的看出当\Delta x趋向于无穷小时,(\Delta x)^2可以小到忽略,从而意味着面积的增加\Delta y基本可以认为等于2x\Delta x,即\Delta y \approx 2x\Delta x = dy

说白了,y = x^2的微分dy = 2x\Delta x,再结合导数的概念:\lim_{\Delta x\rightarrow 0} \frac{\Delta y}{\Delta x} = \frac{2x\Delta x}{\Delta x}= \frac{dy}{dx} = 2x『相当于(x^2)' = 2x』,从而有dy = f'(x)\Delta x

1.4 牛顿-莱布尼茨公式:通过原函数反向求定积分

    接下来,咱们讲介绍微积分学中最重要的一个公式:牛顿-莱布尼茨公式

如果函数F(x)是连续函数f(x)在区间[a, b]上的一个原函数,则

\int_{a}^{b} f(x)dx = F(b)- F(a)

此公式也称为微积分基本定理。这个公式由此便打通了原函数与定积分之间的联系,它表明:一个连续函数在区间[a, b]上的定积分等于它的任一个原函数在区间[a, b]上的增量。

相当于函数f(x)反向求导得到的原函数F(X)本来就表示面积,那么F(b)-F(a)自然就是这两点之间的面积之差,于是公式左右两边就都表示面积

如此,便给定积分提供了一个有效而极为简单的计算方法,大大简化了定积分的计算手续。比如针对f(x)=x^2,当要求f(x)与x轴在0到1之间围成的面积时​,即要计算\int_{1}^{0} x^2dx,由于\frac{1}{3}x^3x^2的一个原函数,所以

\int_{0}^{1}x^2dx = \frac{1}{3} 1^3 - \frac{1}{3} 0^3 = \frac{1}{3}

1.5、偏导数

    对于二元函数z = f(x,y)如果只有自变量x 变化,而自变量y固定 这时它就是x的一元函数,这函数对x的导数,就称为二元函数z = f(x,y)对于x的偏导数。
    定义  设函数z = f(x,y)在点(x_0,y_0)的某一邻域内有定义,当y固定在y_0xx_0处有增量时,相应地函数有增量 f(x_0 + \Delta x,y_0) - f(x_0,y_0),如果极限\lim_{\Delta x\rightarrow 0} \frac{f(x_0+\Delta x) - f(x_0)}{\Delta x}存在,则称此极限为函数z = f(x,y)在点(x_0,y_0)处对 x 的偏导数,记作:  

\frac{\partial z}{\partial x}|_{x=x_0,y=y_0}\frac{\partial f}{\partial x}|_{x=x_0,y=y_0},或f(x_0,y_0)

类似的,二元函数对y求偏导,则把x当做常量。

此外,上述内容只讲了一阶偏导,而有一阶偏导就有二阶偏导,这里只做个简要介绍,具体应用具体分析,或参看高等数学上下册相关内容。接下来,进入本文的主题,从第二节开始。

第二节、离散.连续.多维随机变量及其分布

2.1、几个基本概念点

(一)样本空间

         定义:随机试验E的所有结果构成的集合称为E的 样本空间,记为S={e},
        称S中的元素e为样本点,一个元素的单点集称为基本事件

(二)条件概率

  1. 条件概率就是事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为P(A|B),读作“在B条件下A的概率”。
  2. 联合概率表示两个事件共同发生的概率。A与B的联合概率表示为P(A\cap B)或者P(A,B)
  3. 边缘概率是某个事件发生的概率。边缘概率是这样得到的:在联合概率中,把最终结果中不需要的那些事件合并成其事件的全概率而消失(对离散随机变量用求和得全概率,对连续随机变量用积分得全概率)。这称为边缘化(marginalization)。A的边缘概率表示为P(A),B的边缘概率表示为P(B)。 

在同一个样本空间Ω中的事件或者子集A与B,如果随机从Ω中选出的一个元素属于B,那么这个随机选择的元素还属于A的概率就定义为在B的前提下A的条件概率。从这个定义中,我们可以得出P(A|B) = |A∩B|/|B|,分子、分母都除以|Ω|得到

P(A|B) = \frac{P(A\cap B)}{P(B)}

有时候也称为后验概率。

同时,P(A|B)与P(B|A)的关系如下所示:

P(B|A) = P(A|B)\frac{P(B)}{P(A)}

(三)全概率公式和贝叶斯公式

    1、全概率公式

    假设{ Bn : n = 1, 2, 3, ... } 是一个概率空间的有限或者可数无限的分割,且每个集合Bn是一个可测集合,则对任意事件A有全概率公式:

Pr(A) = \sum_{n}^{}Pr(A\cap B_n)

又因为Pr(A\cap B_n) = Pr(A|B_n)Pr(B_n),所以,此处Pr(A | B)是B发生后A的条件概率,所以全概率公式又可写作:

Pr(A) = \sum_{n}^{}Pr(A|B_n)Pr(B_n)

在离散情况下,上述公式等于下面这个公式:Pr(A) = E(Pr(A|B_n))

但后者在连续情况下仍然成立:此处N是任意随机变量。这个公式还可以表达为:"A的先验概率等于A的后验概率的先验期望值。 

    2、贝叶斯公式

    贝叶斯定理(Bayes' theorem),是概率论中的一个结果,它跟随机变量的条件概率以及边缘概率分布有关。在有些关于概率的解说中,贝叶斯定理(贝叶斯更新)能够告知我们如何利用新证据修改已有的看法。
    通常,事件A在事件B(发生)的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而,这两者是有确定的关系,贝叶斯定理就是这种关系的陈述。

    如此篇blog第二部分所述“据维基百科上的介绍,贝叶斯定理实际上是关于随机事件A和B的条件概率和边缘概率的一则定理。

P(A|B) = \frac{P(B|A)P(A)}{P(B)}

如上所示,其中P(A|B)是在B发生的情况下A发生的可能性。在贝叶斯定理中,每个名词都有约定俗成的名称:

  • P(A)是A的先验概率或边缘概率。之所以称为"先验"是因為它不考虑任何B方面的因素。
  • P(A|B)是已知B发生后A的条件概率(直白来讲,就是先有B而后=>才有A),也由于得自B的取值而被称作A的后验概率。
  • P(B|A)是已知A发生后B的条件概率(直白来讲,就是先有A而后=>才有B),也由于得自A的取值而被称作B的后验概率。
  • P(B)是B的先验概率或边缘概率,也作标准化常量(normalized constant)。

    按这些术语,Bayes定理可表述为:后验概率 = (相似度*先验概率)/标准化常量,也就是說,后验概率与先验概率和相似度的乘积成正比。另外,比例P(B|A)/P(B)也有时被称作标准相似度(standardised likelihood),Bayes定理可表述为:后验概率 = 标准相似度*先验概率。”    综上,自此便有了一个问题,如何从从条件概率推导贝叶斯定理呢?

     根据条件概率的定义,在事件B发生的条件下事件A发生的概率是

P(A|B) = \frac{P(A\cap B)}{P(B)}

同样地,在事件A发生的条件下事件B发生的概率

P(B|A) = \frac{P(A\cap B)}{P(A)}

整理与合并这两个方程式,我们可以找到

P(A|B)P(B) = P(A\cap B) = P(B|A)P(A)

这个引理有时称作概率乘法规则。上式两边同除以P(B),若P(B)是非零的,我们可以得到贝叶斯定理

2.2、随机变量及其分布

2.2.1、何谓随机变量

    何谓随机变量?即给定样本空间(S,F),其上的实值函数X:S\rightarrow R称为(实值)随机变量。

    如果随机变量X的取值是有限的或者是可数无穷尽的值,则称X为离散随机变量(用白话说,此类随机变量是间断的)X = { x_1,x_2,x_3,\cdots ,}

如果X由全部实数或者由一部分区间组成,则称X为连续随机变量,连续随机变量的值是不可数及无穷尽的(用白话说,此类随机变量是连续的,不间断的):-\propto <a <b <\propto

也就是说,随机变量分为离散型随机变量,和连续型随机变量,当要求随机变量的概率分布的时候,要分别处理之,如:

  • 针对离散型随机变量而言,一般以加法的形式处理其概率和;
  • 而针对连续型随机变量而言,一般以积分形式求其概率和。

    再换言之,对离散随机变量用求和得全概率,对连续随机变量用积分得全概率。这点包括在第4节中相关期望.方差.协方差等概念会反复用到,望读者注意之。

2.2.2、离散型随机变量的定义

    定义:取值至多可数的随机变量为离散型的随机变量。概率分布(分布律)为

 且P_i \geq 0,\sum_{i=1}^{\propto }P_i = 1

(一)(0-1)分布

     若X的分布律为:

 同时,p+q=1,p>0,q>0,则则称X服从参数为p的0-1分布,或两点分布。

    此外,(0-1)分布的分布律还可表示为:X\sim 0-1(p)B(1,p),或P(X=k) = p^k(1-p)^{1-k},k=0,1..

我们常说的抛硬币实验便符合此(0-1)分布。

(二)、二项分布

    二项分布是n个独立的是/非试验中成功的次数的离散概率分布,其中每次试验的成功概率为p。这样的单次成功/失败试验又称为伯努利试验。举个例子就是,独立重复地抛n次硬币,每次只有两个可能的结果:正面,反面,概率各占1/2。

    设A在n次伯努利试验中发生k次,则

P(X=k) = C_{n}^{k}p^k(1-p)^{n-k},k=0,1,...,n

并称X服从参数为p的二项分布,记为:X \sim B(n,p)

与此同时,1= (p+q)^n = \sum_{k=0}^{n}C_{n}^{k}p^kq^{n-k},其中q = 1-p

(三)、泊松分布(Poisson分布)

        Poisson分布(法语:loi de Poisson,英语:Poisson distribution),即泊松分布,是一种统计与概率学里常见到的离散概率分布,由法国数学家西莫恩·德尼·泊松(Siméon-Denis Poisson)在1838年时发表。

    若随机变量X的概率分布律为

P(X = k) = \frac{\lambda ^k e^{-\lambda} }{k!},k=0,1,2,...,\lambda >0

称X服从参数为λ的泊松分布,记为:X \sim \pi (\lambda )

有一点提前说一下,泊松分布中,其数学期望与方差相等,都为参数λ。 

泊松分布的来源

    在二项分布的伯努力试验中,如果试验次数n很大,二项分布的概率p很小,且乘积λ= n p比较适中,则事件出现的次数的概率可以用泊松分布来逼近。事实上,二项分布可以看作泊松分布在离散时间上的对应物。证明如下。

    首先,回顾e的定义:

\lim_{n\rightarrow \propto } (1 - \frac{\lambda }{n})^n = e^{-\lambda }

二项分布的定义:

P(X=k) = (_{k}^{n})p^k(1-p)^{n-k}

如果令p = \lambda /nn趋于无穷时P的极限:

 上述过程表明:Poisson(λ) 分布可以看成是二项分布 B(n,p) 在 np=λ,n→∞ 条件下的极限分布。

最大似然估计

    给定n个样本值k_i,希望得到从中推测出总体的泊松分布参数λ的估计。为计算最大似然估计值, 列出对数似然函数:

\begin{aligned} L(\lambda ) &= log \prod_{i=1}^{n}f(k_i|\lambda ) \\&= \sum_{i=1}^{n} log \tfrac{e^{-\lambda }\lambda ^{k_i}}{k_i!} \\&= -n\lambda + (\sum_{i=1}^{n}k_i) log(\lambda ) - \sum_{i=1}^{n}log(k_i!) \end{aligned}

对函数L取相对于λ的导数并令其等于零:

\frac{d}{d\lambda }L({\lambda }) = 0,与-n + (\sum_{i=1}^{n}k_i)\frac{1}{\lambda } = 0

解得λ从而得到一个驻点(stationary point):

\hat{\lambda}_{MLE} = \frac{1}{n} \sum_{i=1}^{n}k_i

检查函数L的二阶导数,发现对所有的λ 与ki大于零的情况二阶导数都为负。因此求得的驻点是对数似然函数L的极大值点:

\frac{\partial ^2L}{\partial \lambda ^2} = \sum_{i=1}^{n} -\lambda ^{-2}k_i

证毕。OK,上面内容都是针对的离散型随机变量,那如何求连续型随机变量的分布律呢?请接着看以下内容。

2.2.3、随机变量分布函数定义的引出

    实际中,如上2.2.2节所述,

  • 对于离散型随机变量而言,其所有可能的取值可以一一列举出来,
  • 可对于非离散型随机变量,即连续型随机变量X而言,其所有可能的值则无法一一列举出来,

    故连续型随机变量也就不能像离散型随机变量那般可以用分布律来描述它,那怎么办呢(事实上,只有因为连续,所以才可导,所以才可积分,这些东西都是相通的。当然了,连续不一定可导,但可导一定连续)?

    既然无法研究其全部,那么我们可以转而去研究连续型随机变量所取的值在一个区间(x1,x2] 的概率:P{x1 < X <=x2 },同时注意P{x1 < X <=x2 } = P{X <=x2} - P{X <=x1},故要求P{x1 < X <=x2 } ,我们只需求出P{X <=x2} 和 P{X <=x1} 即可。

    针对随机变量X,对应变量x,则P(X<=x) 应为x的函数。如此,便引出了分布函数的定义。

    定义:随机变量X,对任意实数x,称函数F(x) = P(X <=x ) 为X 的概率分布函数,简称分布函数。

    F(x)的几何意义如下图所示:

 且对于任意实数x1,x2(x1<x2),有P{x1<X<=x2} = P{X <=x2} - P{X <= x1} = F(x2) - F(x1)。

    同时,F(X)有以下几点性质:

2.2.4、连续型随机变量及其概率密度

    定义:对于随机变量X的分布函数F(x),若存在非负的函数f(x),使对于任意实数x,有:

F(x) = \int_{-\propto }^{x}f(t)dt

 则称X为连续型随机变量,其中f(x)称为X的概率密度函数,简称概率密度。连续型随机变量的概率密度f(x)有如下性质:

  1. \forall -\propto <x<\propto ,f_X(x)\geq 0
  2. \int_{-\propto }^{\propto }f_X(x)dx = 1
  3. \forall -\propto <a<b<\propto ,P[a<X\leq b] = F_X(b) - F_X(a) = \int_{a}^{n}f_X(x)dx

针对上述第3点性质,我重点说明下:

  1. 在上文第1.4节中,有此牛顿-莱布尼茨公式:如果函数F (x)是连续函数f(x)在区间[a, b]上的一个原函数, 则\int_{b}^{a}f(x)dx = F(b) - F(a)
  2. 在上文2.2.3节,连续随机变量X 而言,对于任意实数a,b(a<b),有;

故综合上述两点,便可得出上述性质3

    且如果概率密度函数f_X(x)在一点x上连续,那么累积分布函数可导,并且它的导数:F'_X(x) =f_X(x)。如下图所示:

接下来,介绍三种连续型随机变量的分布,由于均匀分布及指数分布比较简单,所以,一图以概之,下文会重点介绍正态分布。

(一)、均匀分布

若连续型随机变量X具有概率密度

则称X 在区间(a,b)上服从均匀分布,记为X~U(a,b)。

 易知,f(x) >= 0,且其期望值为(a + b)/ 2。

(二)、指数分布

    若连续型随机变量X 的概率密度为

其中λ>0为常数,则称X服从参数为λ的指数分布。记为X \sim Exp(\lambda )X \sim E(\lambda )

(三)、正态分布

     在各种公式纷至沓来之前,我先说一句:正态分布没有你想的那么神秘,它无非是研究误差分布的一个理论,因为实践过程中,测量值和真实值总是存在一定的差异,这个不可避免的差异即误差,而误差的出现或者分布是有规律的,而正态分布不过就是研究误差的分布规律的一个理论。

    OK,若随机变量X服从一个位置参数为u、尺度参数\sigma为的概率分布,记为:X \sim N(u,\sigma ^2),则其概率密度函数为

f(x) = \frac{1}{\sigma \sqrt{2\pi }}e^{-\frac{(x-u)^2}{2\sigma ^2}}

我们便称这样的分布为正态分布或高斯分布。

正态分布的数学期望值或期望值等于位置参数,决定了分布的位置;其方差的开平方,即标准差等于尺度参数,决定了分布的幅度。正态分布的概率密度函数曲线呈钟形,因此人们又经常称之为钟形曲线。它有以下几点性质,如下图所示:

 正态分布的概率密度曲线则如下图所示:

当固定尺度参数\sigma,改变位置参数u的大小时,f(x)图形的形状不变,只是沿着x轴作平移变换,如下图所示:

 而当固定位置参数,改变尺度参数的大小时,f(x)图形的对称轴不变,形状在改变,越小,图形越高越瘦,越大,图形越矮越胖。如下图所示:

 故有咱们上面的结论,在正态分布中,称u为位置参数(决定对称轴位置),而\sigma为尺度参数(决定曲线分散性)。同时,在自然现象和社会现象中,大量随机变量服从或近似服从正态分布。

    而我们通常所说的标准正态分布是位置参数, 尺度参数的正态分布,记为:

f(x) = \frac{1}{ \sqrt{2\pi }}e^{-\frac{x^2}{2}}

相关内容如下两图总结所示(来源:大嘴巴漫谈数据挖掘):

第三节、从数学期望、方差、协方差到中心极限定理

3.1、数学期望、方差、协方差

3.1.1、数学期望

    在概率论和统计学中,数学期望分两种(依照上文第二节相关内容也可以得出),一种为离散型随机变量的期望值,一种为连续型随机变量的期望值。

不过,并不是每一个随机变量都有期望值的,因为有的时候这个积分不存在。如果两个随机变量的分布相同,则它们的期望值也相同。

  • 一个离散性随机变量的期望值(或数学期望、或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和。换句话说,期望值是随机试验在同样的机会下重复多次的结果计算出的等同“期望”的平均值。

    例如,掷一枚六面骰子,得到每一面的概率都为1/6,故其X的所有取值相对于其概率的加权平均便是期望值,计算如下:

    再比如,假设现在有一个幸运轮,每次转动幸运轮都会出现一个数(m_1,m_2,\cdots,m_n中的某一个数,这些数代表你所得的钱数/奖励,且这些数出现的概率分别为p_1,p_2,\cdots ,p_n),你一共可以转动k次,k_i次转动的结果为m_i,于是你得到的总钱数为:m_1k_1 + m_2k_2 + \cdots m_nk_n,所以每次转动所得的钱数为

    M = \frac{m_1k_1 + m_2k_2 + \cdots m_nk_n}{k}

    假定k是一个很大的数,依据大数定律(随着样本容量的增加,样本平均值几乎必然地收敛到总体均值),我们有理由假定概率与频率互相接近,即

    \frac{k_i}{k} \approx p_i,i = 1,\cdots ,n

    如此,你每次转动幸运轮所期望得到的钱数是

    M = \frac{m_1k_1 + m_2k_2 + \cdots m_nk_n}{k} \approx m_1p_1 + m_2p_2 + \cdots m_np_n

    承上,如果X 是一个离散的随机变量,输出值为x1, x2, ..., 和输出值相应的概率为p1, p2, ...(概率和为1),若级数\sum_{i}^{}p_ix_i绝对收敛,那么期望值E[X]是一个无限数列的和:

    E[X] = \sum_{i}^{}p_ix_i

    上面掷骰子、幸运轮的例子都是用这种方法求出期望值的。看到这里可能会有同学疑问:期望的意义到底是什么,如七月在线「ChatGPT原理解析课」里的“波奇”所说:“正常的平均值没有考虑概率的分布,数学期望是考虑了概率加权的均值,比如你买彩票重复无限次获得的奖金怎么算,你中1万块和中1块钱的概率是不同的,用概率加权完假如数学期望是20,那可以理解成你重复无限次平均奖金就是20
  • 而对于一个连续型随机变量来说,如果X的概率分布存在一个相应的概率密度函数f(x),若积分绝对收敛,那么X 的期望值可以计算为:

    E[X] = \int_{-\propto }^{\propto }xf(x)dx

    实际上,此连续随机型变量的期望值的求法与离散随机变量的期望值的算法同出一辙,由于输出值是连续的,只不过是把求和改成了积分。

3.1.2、方差与标准差

方差    

    在概率论和统计学中,一个随机变量的方差(Variance)描述的是它的离散程度,也就是该变量离其期望值的距离。一个实随机变量的方差也称为它的二阶矩或二阶中心动差,恰巧也是它的二阶累积量。方差的算术平方根称为该随机变量的标准差。

    其定义为:如果E(X)是随机变量X的期望值(平均数) 设为服从分布F的随机变量,则称为随机变量或者分布的方差:

Var(X) := E(X-E(X)^2) = E(X^2) - E(X)^2

其中,μ为平均数,N为样本总数。 

    分别针对离散型随机变量和连续型随机变量而言,方差的分布律和概率密度如下图所示:

标准差

    标准差(Standard Deviation),在概率统计中最常使用作为统计分布程度(statistical dispersion)上的测量。标准差定义为方差的算术平方根,反映组内个体间的离散程度:

\sigma = \sqrt{\frac{1}{N}\sum_{i=1}^{N}(x_i - \bar{x})^2}

简单来说,标准差是一组数值自平均值分散开来的程度的一种测量观念。一个较大的标准差,代表大部分的数值和其平均值之间差异较大;一个较小的标准差,代表这些数值较接近平均值。例如,两组数的集合 {0, 5, 9, 14} 和 {5, 6, 8, 9} 其平均值都是 7 ,但第二个集合具有较小的标准差。

    前面说过,方差的算术平方根称为该随机变量的标准差,故一随机变量的标准差定义为:

\sigma = \sqrt{E((X-E(X))^2)} = \sqrt{E(X^2)-(E(X))^2}

须注意并非所有随机变量都具有标准差,因为有些随机变量不存在期望值。 如果随机变量为具有相同概率,则可用上述公式计算标准差。 

    上述方差.标准差等相关内容,可用下图总结之:

 样本标准差

    在真实世界中,除非在某些特殊情况下,找到一个总体的真实的标准差是不现实的。大多数情况下,总体标准差是通过随机抽取一定量的样本并计算样本标准差估计的。说白了,就是数据海量,想计算总体海量数据的标准差无异于大海捞针,那咋办呢?抽取其中一些样本作为抽样代表呗。

    而从一大组数值当中取出一样本数值组合,进而,我们可以定义其样本标准差为:

s= \sqrt{\frac{1}{n-1}\sum_{i=1}^{n}(x_i-\bar{x})^2}

样本方差s^2是对总体方差\sigma ^2的无偏估计。s中分母为 n-1 是因为(x_i-\bar{x})的自由度为n-1(且慢,何谓自由度?简单说来,即指样本中的n个数都是相互独立的,从其中抽出任何一个数都不影响其他数据,所以自由度就是估计总体参数时独立数据的数目,而平均数是根据n个独立数据来估计的,因此自由度为n),这是由于存在约束条件:\sum_{i=1}^{n}(x_i-\bar{x}) = 0

3.1.3、协方差与相关系数

协方差

    下图即可说明何谓协方差,同时,引出相关系数的定义:

 相关系数 

    如上篇kd树blog所述相关系数 ( Correlation coefficient )的定义是:

\rho _XY = \frac{Cov(X,Y)}{\sqrt{D(X)}\sqrt{D(Y)}} = \frac{E((X-EX)(Y-EY))}{\sqrt{D(X)}\sqrt{D(Y)}}

(其中,E为数学期望或均值,D为方差,D开根号为标准差,E{ [X-E(X)] [Y-E(Y)]}称为随机变量X与Y的协方差,记为Cov(X,Y),即Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},而两个变量之间的协方差和标准差的商则称为随机变量X与Y的相关系数,记为)
    相关系数衡量随机变量X与Y相关程度的一种方法,相关系数的取值范围是[-1,1]。相关系数的绝对值越大,则表明X与Y相关度越高。当X与Y线性相关时,相关系数取值为1(正线性相关)或-1(负线性相关)。
    具体的,如果有两个变量:X、Y,最终计算出的相关系数的含义可以有如下理解:

  1. 当相关系数为0时,X和Y两变量无关系。
  2. 当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。
  3. 当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。

   根据相关系数,相关距离可以定义为:

D_{xy} = 1 - \rho _{xy}

这里只对相关系数做个简要介绍,欲了解机器学习中更多相似性距离度量表示法,可以参看上篇kd树blog第一部分内容。

    自此,已经介绍完期望方差协方差等基本概念,但一下子要读者接受那么多概念,怕是有难为读者之嫌,不如再上几幅图巩固下上述相关概念吧(来源:大嘴巴满谈数据挖掘):

3.1.4、协方差矩阵与主成成分分析

协方差矩阵

    由上,我们已经知道:协方差是衡量两个随机变量的相关程度。且随机变量 之间的协方差可以表示为

     故根据已知的样本值可以得到协方差的估计值如下:

    可以进一步地简化为:

    如此,便引出了所谓的协方差矩阵: 

主成成分分析

    尽管从上面看来,协方差矩阵貌似很简单,可它却是很多领域里的非常有力的工具。它能导出一个变换矩阵,这个矩阵能使数据完全去相关(decorrelation)。从不同的角度看,也就是说能够找出一组最佳的基以紧凑的方式来表达数据。这个方法在统计学中被称为主成分分析(principal components analysis,简称PCA),在图像处理中称为Karhunen-Loève 变换(KL-变换)。

    根据wikipedia上的介绍,主成分分析PCA由卡尔·皮尔逊于1901年发明,用于分析数据及建立数理模型。其方法主要是通过对协方差矩阵进行特征分解,以得出数据的主成分(即特征矢量)与它们的权值(即特征值)。PCA是最简单的以特征量分析多元统计分布的方法。其结果可以理解为对原数据中的方差做出解释:哪一个方向上的数据值对方差的影响最大。

    然为何要使得变换后的数据有着最大的方差呢?我们知道,方差的大小描述的是一个变量的信息量,我们在讲一个东西的稳定性的时候,往往说要减小方差,如果一个模型的方差很大,那就说明模型不稳定了。但是对于我们用于机器学习的数据(主要是训练数据),方差大才有意义,不然输入的数据都是同一个点,那方差就为0了,这样输入的多个数据就等同于一个数据了。

    简而言之,主成分分析PCA,留下主成分,剔除噪音,是一种降维方法,限高斯分布,n维眏射到k维

  1. 减均值,
  2. 求特征协方差矩阵,
  3. 求协方差的特征值和特征向量,
  4. 取最大的k个特征值所对应的特征向量组成特征向量矩阵,
  5. 投影数据=原始样本矩阵x特征向量矩阵。其依据为最大方差,最小平方误差或坐标轴相关度理论,及矩阵奇异值分解SVD(即SVD给PCA提供了另一种解释)。

    也就是说,高斯是0均值,其方差定义了信噪比,所以PCA是在对角化低维表示的协方差矩阵,故某一个角度而言,只需要理解方差、均值和协方差的物理意义,PCA就很清晰了。

3.2、中心极限定理

    本节先给出现在一般的概率论与数理统计教材上所介绍的2个定理,然后简要介绍下中心极限定理的相关历史。

3.2.1、独立同分布的中心极限定理

    独立中心极限定理如下两图所示:

3.2.2、棣莫弗-拉普拉斯中心极限定理

 此外,据wikipedia上的介绍,包括上面介绍的棣莫弗-拉普拉斯定理在内,历史上前后发展了三个相关的中心极限定理,具体可以参考Wikipedia

3.2.3、历史

    1776年,拉普拉斯开始考虑一个天文学中的彗星轨道的倾角的计算问题,最终的问题涉及独立随机变量求和的概率计算,也就是计算如下的概率值
    令 Sn=X1+X2+⋯+Xn, 那么

P(a<S_n<b) = ?

在这个问题的处理上,拉普拉斯充分展示了其深厚的数学分析功底和高超的概率计算技巧,他首次引入了特征函数(也就是对概率密度函数做傅立叶变换)来处理概率分布的神妙方法,而这一方法经过几代概率学家的发展,在现代概率论里面占有极其重要的位置。基于这一分析方法,拉普拉斯通过近似计算,在他的1812年的名著《概率分析理论》中给出了中心极限定理的一般描述:

    [定理Laplace,1812]设 ei(i=1,⋯n)为独立同分布的测量误差,具有均值μ和方差σ2。如果λ1,⋯,λn为常数,a>0,则有

P\left ( |\sum_{i=1}^{n} \lambda _i(e_i-u)| \leq a\sqrt{\sum_{i=1}^{n}\lambda _{i}^{2}} \right ) \approx \frac{2}{\sqrt{2\pi}\sigma } \int_{0}^{a} exp\left ( -\frac{x^2}{2\sigma ^2} \right )dx

    这已经是比棣莫弗-拉普拉斯中心极限定理更加深刻的一个结论了,在现在大学本科的教材上,包括包括本文主要参考之一盛骤版的概率论与数理统计上,通常给出的是中心极限定理的一般形式: 

    [Lindeberg-Levy中心极限定理] 设X1,⋯,Xn独立同分布,且具有有限的均值μ和方差σ2,则在n→∞时,有

\frac{\sqrt{n}(\bar{X}-u)}{\sigma } \rightarrow N(0,1)

多么奇妙的性质,随意的一个概率分布中生成的随机变量,在序列和(或者等价的求算术平均)的操作之下,表现出如此一致的行为,统一的规约到正态分布。

 概率学家们进一步的研究结果更加令人惊讶,序列求和最终要导出正态分布的条件并不需要这么苛刻,即便X1,⋯,Xn并不独立,也不具有相同的概率分布形式,很多时候他们求和的最终归宿仍然是正态分布。

 在正态分布、中心极限定理的确立之下,20世纪之后,统计学三大分布χ2分布、t分布、F分布也逐步登上历史舞台:

 如上所述,中心极限定理的历史可大致概括为:

  1. 中心极限定理理的第一版被法国数学家棣莫弗发现,他在1733年发表的卓越论文中使用正态分布去估计大量抛掷硬币出现正面次数的分布;
  2. 1812年,法国数学家拉普拉斯在其巨著 Théorie Analytique des Probabilités中扩展了棣莫弗的理论,指出二项分布可用正态分布逼近;
  3. 1901年,俄国数学家李雅普诺夫用更普通的随机变量定义中心极限定理并在数学上进行了精确的证明。

    如今,中心极限定理被认为是(非正式地)概率论中的首席定理。

第四节、从数理统计简史中看正态分布的历史由来

    本节将结合《数理统计学简史》一书,从早期概率论的发展、棣莫弗的二项概率逼近讲到贝叶斯方法、最小二乘法、误差与正态分布等问题,有详有略,其中,重点阐述正态分布的历史由来。

    相信,你我可以想象得到,我们现在眼前所看到的正态分布曲线虽然看上去很美,但数学史上任何一个定理的发明几乎都不可能一蹴而就,很多往往经历了几代人的持续努力。因为在科研上诸多观念的革新和突破是有着很多的不易的,或许某个定理在某个时期由某个人点破了,现在的我们看来一切都是理所当然,但在一切没有发现之前,可能许许多多的顶级学者毕其功于一役,耗尽一生,努力了几十年最终也是无功而返。

 如上文前三节所见,现在概率论与数理统计的教材上,一上来介绍正态分布,然后便给出其概率密度分布函数,却从来没有说明这个分布函数是通过什么原理推导出来的。如此,可能会导致你我在内的很多人一直搞不明白数学家当年是怎么找到这个概率分布曲线的,又是怎么发现随机误差服从这个奇妙的分布的。我们在实践中大量的使用正态分布,却对这个分布的来龙去脉知之甚少。

    本文接下来的第四节将结合陈希儒院士的《数理统计学简史》及“正态分布的前世今生”为你揭开正态分布的神秘面纱。

4.1、正态分布的定义

    上文中已经给出了正态分布的相关定义,咱们先再来回顾下。如下两图所示(来源:大嘴巴漫谈数据挖掘):

 相信,经过上文诸多繁杂公式的轰炸,读者或有些许不耐其烦,咱们接下来讲点有趣的内容:历史。下面,咱们来结合数理统计简史一书,及正态分布的前世今生系列,从古至今论述正态分布的历史由来。 

4.2、早期概率论:从萌芽到推测术

4.2.1、惠更新的三个关于期望的定理

(一)惠更新的论赌博的计算

    所谓概率,即指一个事件发生,一种情况出现的可能性大小的数量指标,介于0和1之间,这个概念最初形成于16世纪,说来可能令你意想不到,凡事无绝对,早期很多概率论中的探讨却与掷骰子等当今被定义为违法犯罪的赌博活动有着不可分割的联系,可以说,这些赌博活动反而推动了概率论的早期发展(但如今,还是要强调一句,拒绝赌博,哪怕只是小赌)。

    历史是纷繁多杂的,咱们从惠更斯的机遇的规律一书入手,此人指导过微积分的奠基者之一的莱布尼兹学习数学,与牛顿等人也有交往,终生未婚。如诸多历史上有名的人物一般,他们之所以被后世的人们记住,是因为他们在某一个领域的杰出贡献,这个贡献可能是提出了某一个定理或者公式,换句话来说,就是现今人们口中所说的代表作,一个意思。

    而惠更新为当代人们所熟知的应该是他在《摆式时钟或用于时钟上的摆的运动的几何证明》、《摆钟》等论文中提出了物理学史上钟摆摆动周期的公式:

2\pi \sqrt{\frac{l}{g}}

(二)创立数学期望

    与此同时,惠更斯1657年发表了《论赌博中的计算》,被认为是概率论诞生的标志。同时对二次曲线、复杂曲线、悬链线、曳物线、对数螺线等平面曲线都有所研究。

    《论赌博中的计算》中,惠更斯先从关于公平赌博值的一条公理出发,推导出有关数学期望的三个基本定理,如下述内容所示:

  • 公理:每个公平博弈的参与者愿意拿出经过计算的公平赌注冒险而不愿拿出更多的数量。即赌徒愿意押的赌注不大于其获得赌金的数学期望数。

    对这一公理至今仍有争议。所谓公平赌注的数额并不清楚,它受许多因素的影响。但惠更斯由此所得关于数学期望的3 个命题具有重要意义。这是数学期望第一次被提出,由于当时概率的概念还不明确,后被拉普拉斯( Laplace ,1749 —1827) 用数学期望来定义古典概率。在概率论的现代表述中,概率是基本概念,数学期望则是二级概念,但在历史发展过程中却顺序相反(没想到吧,^_^,还有很多你没想到的事情,且听娓娓道来)。
        关于数学期望的三个命题为:

  • 命题1  若某人在赌博中以等概率1/2获得赌金a元、b元,则其数学期望值为:a*1/2+b*1/2,即为( a + b)/2;
  • 命题2  若某人在赌博中以等概率1/3获得赌金a 、b 元和c元 ,则其数学期望值为( a + b + c)/3元;
  • 命题3  若某人在赌博中以概率p 和q ( p ≥0 , q ≥0 , p + q = 1) 获得赌金a元、b元 ,则获得赌金的数学期望值为p*a + q*b 元。

    这些今天看来都可作为数学期望定义,不准确的说,数学期望来源于取平均值。同时,根据上述惠更斯的3个命题不难证明:若某人在赌博中分别以概率p1...,pk(p1+..+pk=1)分别赢得a1,..ak元,那么其期望为p1*a1+...+pk*ak,这与本文第一节中关于离散型随机变量的期望的定义完全一致(各值与各值概率乘积之和)。

    但惠更新关于概率论的讨论局限于赌博中,而把概率论由局限于对赌博机遇的讨论扩展出去的则得益于伯努利,他在惠更新的论赌博中的计算一书出版的56年,即1733年出版了划时代的著作:《推测术》。伯努利在此书中,不仅对惠更斯的关于掷骰子等赌博活动中出现的额各种情况的概率进行了计算,而且还提出了著名的“大数定律”,这个定律在历史上甚至到今天,影响深远,后续诸多的统计方法和理论都是建立在大数定律的基础上。

(三) 伯努利的大数定律及其如何而来

    同样,咱们在读中学的时候,之所以记住了伯努利这个人,可能不只是因为物理课上老师所讲的伯努利方程p + \frac{1}{2}\rho v^2 + \rho gh = C,其中C为常量,更多是因为其谐音梗(伯努利 \rightarrow 白努力)。

    当然,伯努利的贡献不仅在此,而在于他的大数定律。那何谓伯努利大数定律呢?

    设在n次独立重复试验中,事件X发生的次数为n_x。事件X在每次试验中发生的概率为P。则对任意正数,下式成立:

\lim_{n\rightarrow \propto } P\left \{ |\frac{n_x}{n}-p| < \varepsilon \right \} = 1

定理表明事件发生的频率依概率收敛于事件的概率。定理以严格的数学形式表达了频率的稳定性。就是说当n很大时,事件发生的频率于概率有较大偏差的可能性很小。 

    这个定理如何而来的呢?

    咱们来看一个简单的袋中抽球的模型,袋中有a个白球,b个黑球,则从袋中取出白球的概率为p=a/(a+b),有放回的充袋中抽球N次(每次抽取时保证袋中a+b个球的每一个都有同等机会被抽出),记得抽到的白球的次数为X然后以X/N 这个值去估计p,这个估计方法至今仍是数理统计学中最基本的方法之一。

    伯努利试图证明的是:用X/N 估计p 可以达到事实上的确定性,即:任意给定两个数ε>0和η>0,取足够大的抽取次数N,使得事件\left \{ |\frac{X}{N}-p| > \varepsilon \right \}的概率不超过η,这意思是\left \{ |\frac{X}{N}-p| > \varepsilon \right \}表面估计误差未达到指定的接近程度η。 

    换句话说,我们需要证明的是当N充分无限大时,X/N 无限逼近于p,用公式表达即为:

\lim_{N\rightarrow \propto } \frac{X}{N}= p

    (N趋于无穷大)

    尽管现在我们看来,上述这个结论毫无疑问是理所当然的,但直到1909年才有波莱尔证明。此外,此伯努利大数定律是我们今天所熟知的契比雪夫不等式的简单推论,但须注意的是在伯努利那个时代,并无“方差”这个概念,更不用说从这个不等式而推论出伯努利大数定律了。

    此外,常用的大数定律除了伯努利大数定律之外,还有辛钦大数定律、柯尔莫哥洛夫强大数定律和重对数定律等定律。这里稍微提下辛钦大数定律,如下图所示

 在1733年,棣莫弗发展了用正态分布逼近二项分布的方法,这对于当时而言,是一实质性的深远改进。

4.3、棣莫弗的二项概率逼近

    同上文中的惠更新、伯努利一样,人们熟悉棣莫弗,想必是因为著名的棣莫弗公式,如下:

(cos\theta + i sin\theta )^n = cos(n\theta ) + isin(n\theta )

据数理统计学简史一书上的说明,棣莫弗之所以投身到二项概率的研究,非因伯努利之故,而又是赌博问题。有一天一个哥们,也许是个赌徒,向棣莫弗提了一个和赌博相关的一个问题:A,B两人在赌场里赌博,A,B各自的获胜概率是p和q=1−p,赌n局,若A赢的局数X>np,则A付给赌场X−np元,否则B付给赌场np−X元。问赌场挣钱的期望值是多少?按定义可知,此期望值为:

D_N = E(|X-Np) = \sum_{i=1}^{N}|i-Np|b(N,p,Np)

上式的b(N,p,Np)为二项概率,棣莫弗最终在Np为整数的条件下得到:

D_N = 2Npqb(N,p,Np)

当m=N/2时,N趋于无穷

b(m) \sim \sqrt{\frac{2}{\pi N}}

也就是说上述问题的本质上是上文第一节中所讲的一个二项分布。虽然从上述公式可以集结此问题,但在N很大时,b(N,p,i)计算不易,故棣莫弗想找到一个更方便于计算的近似公式。

    棣莫弗后来虽然做了一些计算并得到了一些近似结果,但是还不够,随后有人讲棣莫弗的研究工作告诉给了斯特林,于是,便直接催生了在数学分析中必学的一个重要公式斯特林公式(斯特林公式最初发表于1730年,而后棣莫弗改进了斯特林公式):

m! \sim \sqrt{2\pi }m^{m+\frac{1}{2}}e^{-m}

1733年,棣莫弗有了一个决定性意义的举动,他证明了当N趋于去穷时,有下列式子成立:

\frac{b(m+d)}{b(m)} \sim exp(-\frac{2d^2}{N})

不要小瞧了这个公式。当它与上面给出的这个公式b(m) \sim \sqrt{\frac{2}{\pi N}}结合后,便有了:

b(m+d) \sim \frac{2}{\sqrt{2\pi N}}e^{-\frac{2d^2}{N}}

根据上面式子,近似地以定积分代替和,得到下式:

P_d = \sum_{i:|m-i|\leq d}^{} b(i) \sim \frac{2}{\sqrt{2\pi N}} \sum_{i:|m-i|\leq d}^{}e^{ {-2} (\frac{d}{\sqrt{N}})^2 } \sim \frac{2}{\sqrt{2\pi }} \int_{\frac{-d}{\sqrt{N}}}^{\frac{d}{\sqrt{N}}}e^{-2x^2}dx = \frac{1}{\sqrt{2\pi }} \int_{\frac{-2d}{\sqrt{N}}}^{\frac{2d}{\sqrt{N}}}e^{-\frac{x^2}{2}}dx

不知道,当读者读到这里的时候,是否从上式看出了些许端倪,此式可隐藏了一个我们习以为常却极其重要的概念。OK,或许其形式不够明朗,借用rickjin的式子转化下:

没错,正态分布的概率密度(函数)在上述的积分公式中出现了!于此,我们得到了一个结论,原来二项分布的极限分布便是正态分布。与此同时,还引出了统计学史上占据重要地位的中心极限定理。

    「棣莫弗-拉普拉斯定理」:设随机变量Xn(n=1,2...)服从参数为p的二项分布,则对任意的x,恒有下式成立:

\lim_{n\rightarrow \propto } P\left \{ \frac{X_n-X_p}{\sqrt{np(1-p)}\leq x} \right \} = \int_{-\propto }^{x} \frac{1}{\sqrt{2\pi }} exp(\frac{-t^2}{2}) dt

我们便称此定理为中心极限定理。而且还透露着一个极为重要的信息:1730年,棣莫弗用二项分布逼近竟然得到了正太密度函数,并首次提出了中心极限定理。

    还没完,随后,在1744年,拉普拉斯证明了:

\frac{1}{\sqrt{2\pi }} \int_{-\propto }^{\propto } e^{-\frac{x^2}{2}}dx = 1

最终,1780年,拉普拉斯建立了中心极限定理的一般形式(也就是上文3.2节中所讲的中心极限定理的一般形式):

   「Lindeberg-Levy中心极限定理」设X1,⋯,Xn独立同分布,且具有有限的均值μ和方差σ2,则在n→∞时,有

\frac{\sqrt{n}(\bar{X}-u)}{\sigma } \rightarrow N(0,1)

棣莫弗的工作对数理统计学有着很大的影响,棣莫弗40年之后,拉普拉斯建立中心极限定理的一般形式,20世纪30年代最终完成独立和中心极限定理最一般的形式,在中心极限定理的基础之上,统计学家们发现当样本量趋于无穷时,一系列重要统计量的极限分布如二项分布,都有正态分布的形式,也就是说,这也构成了数理统计学中大样本方法的基础。

    此外,从上面的棣莫弗-拉普拉斯定理,你或许还没有看出什么蹊跷。但我们可以这样理解:若取c充分大,则对足够大的N,事件\left | \frac{X}{N}-\frac{1}{2} \right | \leq \frac{C}{\sqrt{N}}的概率可任意接近于1,由于\lim_{N\rightarrow \propto } \frac{C}{\sqrt{N}} = 0,故对于任意给定的\varepsilon >0, 有下式成立:

\lim_{N\rightarrow \propto } P\left ( \left | \frac{X}{N}-\frac{1}{2}\leq \varepsilon \right | \right ) = 1

而这就是上文中所讲的伯努利大数定律(注:上面讨论的是对称情况,即p=1/2的情况)。

    我之所以不厌其烦的要论述这个棣莫弗的二项概率逼近的相关过程,是想说明一点:各个定理.公式彼此之前是有着紧密联系的,要善于发现其中的各种联系。

    同时,还有一个问题,相信读者已经意识到了,如本文第一节内容所述,大部分概率论与数理统计教材讲正态分布的时候

  1. 一上来便给出正态分布的概率密度(函数),然后告诉我们说,符合这个概率密度(函数)的称为正态分布,紧接着阐述和证明相关性质
  2. 最后说了一句:”在自然现象和社会现象中,大量随机变量都服从或近似服从正态分布,如人的身高,某零件长度的误差,海洋波浪的高度“
  3. 然后呢?然后什么也没说了。连正态分布中最基本的两个参数为、和的意义都不告诉我们(位置参数即为数学期望,尺度参数为即为方差,换句话说,有了期望和方差,即可确定正态分布)

 随后,教材上便开始讲数学期望,方差等概念,最后才讲到中心极限定理。或许在读者阅读本文之后,这些定理的先后发明顺序才得以知晓。殊不知:正态分布的概率密度(函数)形式首次发现于棣莫弗-拉普拉斯中心极限定理中,即先有中心极限定理,而后才有正态分布(通过阅读下文4.6节你将知道,高斯引入正太误差理论,才成就了正态分布,反过来,拉普拉斯在高斯的工作之上用中心极限定理论证了正态分布)。

    如rickjin所言:“学家研究数学问题的进程很少是按照我们数学课本的安排顺序推进的,现代的数学课本都是按照数学内在的逻辑进行组织编排的,虽然逻辑结构上严谨优美,却把数学问题研究的历史痕迹抹得一干二净。DNA双螺旋结构的发现者之一James Waston在他的名著《DNA双螺旋》序言中说:‘科学的发现很少会像很多人所想象的一样,按照直接了当合乎逻辑的方式进行的。’ ”

4.4、贝叶斯方法

    前面,介绍了惠更斯、伯努利和棣莫弗等人的重大成果,无疑在这些重要发明中,二项分布都占据着举重轻重的地位。这在早期的概率统计史当中,也是唯一一个研究程度很深的分布。但除了伯努利的大数定律及棣莫弗的二项逼近的研究成果外,在18世纪中叶,为了解决二项分布概率的估计问题,出现了一个影响极为广泛的贝叶斯方法,贝叶斯方法经过长足的发展,如今已经成为数理统计学中的两个主要学派之一:贝叶斯学派,牢牢占据数理统计学领域的半壁江山。

    贝叶斯当时发表了一篇题为An essay towards solving a problem in the doctrine of chances(机遇理论中一个问题的解)的遗作,此文在他发表后很长一段时间起,在学术界没有引起什么反响,直到20世纪以来,突然受到人们的重视,此文也因此成为贝叶斯学派最初的奠基石(又一个梵高式的人物)。

    有人说贝叶斯发表此文的动机是为了解决伯努利和棣莫弗未能解决的二项分布概率P的“逆概率”问题。所谓逆概率,顾名思义,就是求概率问题的逆问题:已知时间的概率为P,可由之计算某种观察结果的概率如何;反过来,给定了观察结果,问由之可以对概率P作何推断。也就是说,正概率是由原因推结果,称之为概率论;而逆概率是结果推原因,称之为数理统计。

    由于本文中,重点不在贝叶斯定理,而本文第一节之2.1小节已对其做简要介绍,再者,此文从决策树学习谈到贝叶斯分类算法、EM、HMM第二部分也详细介绍过了贝叶斯方法,故为本文篇幅所限,不再做过多描述。

4.5、最小二乘法,数据分析的瑞士军刀

    事实上,在成百上千的各式各样的攻击方法中,取算术平均恐怕是最广为人知使用也最为广泛的方法,因为可能一个小学生都知道使用算术平均来计算自己每天平均花了多少零花钱而以此作为向爸妈讨要零花钱的依据。而我们大多数成年人也经常把“平均说来”挂在嘴边。故此节要讲的最小二乘法其实并不高深,它的本质思想即是来源于此算术平均的方法。

    不太精确的说,一部数理统计学的历史,就是从纵横两个方向对算术平均进行不断深入研究的历史,

  • 纵的方面指平均值本身,诸如伯努利及其后众多的大数定律,棣莫弗-拉普拉斯中心极限定理,高斯的正太误差理论,这些在很大程度上都可以视为对算术平均的研究成果,甚至到方差,标准差等概念也是由平均值发展而来
  • 横的方面中最为典型的就是此最小二乘法

    而算术平均也是解释最小二乘法的最简单的例子。使误差平方和达到最小以寻求估计值的方法,则称为最小二乘估计(当然,取平方和作为目标函数知识众多可取的方法之一,例如也可以取误差4次方或绝对值和,取平方和是人类千百年实践中被证实行之有效的方法,因此被普遍采用)。

     何谓最小二乘法?实践中,常需寻找两变量之间的函数关系,比如测定一个刀具的磨损速度,也就是说,随着使用刀具的次数越多,刀具本身的厚度会逐渐减少,故刀具厚度与使用时间将成线性关系,假设符合f(t)=at + b(t代表时间,f(t)代表刀具本身厚度),a和b是待确定的常数,那么a、b如何确定呢?

    最理想的情形就是选取这样的a、b,能使直线y = at + b所得到的值与实际中测量到的刀具厚度完全符合,但实际上这是不可能的,因为误差总是存在难以避免的。故因误差的存在,使得理论值与真实值存在偏差,为使偏差最小通过偏差的平方和最小确定系数a、b,从而确定两变量之间的函数关系f(t)=at + b。 

    这种通过偏差的平方和为最小的条件来确定常数a、b的方法,即为最小二乘法。最小二乘法的一般形式可表述为:

在此,说点后话,最小二乘法是与统计学有着密切联系的,因为观测值有随机误差,所以它同正态分布一样与误差论有着密切联系(说实话,最小二乘法试图解决的是误差最小的问题,而正态分布则是试图寻找误差分布规律的问题,无论是最小二乘法,还是正态分布的研究工作,至始至终都围绕着误差进行)。

    那么,最小二乘法是如何发明的呢?据史料记载,最小二乘法最初是由法国数学家勒让德于1805年发明的。那勒让德发明它的动机来源于哪呢?

    18世纪中叶,包括勒让德、欧拉、拉普拉斯、高斯在内的许多天文学家和数学家都对天文学上诸多问题的研究产生了浓厚的兴趣。比如以下问题:

  • 土星和木星是太阳系中的大行星,由于相互吸引对各自的运动轨道产生了影响,许多大数学家,包括欧拉和拉普拉斯都在基于长期积累的天文观测数据计算土星和木星的运行轨道。
  • 勒让德承担了一个政府给的重要任务,测量通过巴黎的子午线的长度。
  • 海上航行经纬度的定位。主要是通过对恒星和月面上的一些定点的观测来确定经纬度。

    这些问题都可以用如下数学模型描述:我们想估计的量是\beta _0,...,\beta _p,另有若干个可以测量的量x_1,...,x_p,这些量之间有线性关系

y = \beta _0 + \beta _x x_1 + ...+\beta _p x_p

如何通过多组观测数据求解出参数\beta _0,...,\beta _p呢?欧拉和拉普拉斯采用的都是求解线性方程组的方法: 

 但是面临的一个问题是,有n组观测数据,p+1个变量,如果n>p+1,则得到的线性矛盾方程组,无法直接求解。所以欧拉和拉普拉斯采用的方法都是通过一定的对数据的观察,把n个线性方程分为p+1组,然后把每个组内的方程线性求和后归并为一个方程,从而就把n个方程的方程组化为p+1个方程的方程组,进一步解方程求解参数。这些方法初看有一些道理,但是都过于经验化,无法形成统一处理这一类问题的一个通用解决框架。
    以上求解线性矛盾方程的问题在现在的本科生看来都不困难,就是统计学中的线性回归问题,直接用最小二乘法就解决了,可是即便如欧拉、拉普拉斯这些数学大牛,当时也未能对这些问题提出有效的解决方案。可见在科学研究中,要想在观念上有所突破并不容易。有效的最小二乘法是勒让德在1805年发表的,基本思想就是认为测量中有误差,所以所有方程的累积误差为:

我们求解出导致累积误差最小的参数即可

 上面我们已经看到,是勒让德最初发明的最小二乘法,那为何历史上人们常常把最小二乘法的发明与高斯的名字联系起来呢?(:勒让德时期的最小二乘法还只是作为一个处理测量数据的代数方法来讨论的,实际上与统计学并无多大关联,只有建立在了测量误差分布的概率理论之后,这个方法才足以成为一个统计学方法。尽管拉普拉斯用他的中心极限定理定理也可以推导出最小二乘法,但无论是之前的棣莫弗,还是当时的勒让德,还是拉普拉斯,此时他们这些研究成果都还只是一个数学表达式而非概率分布)。

    因为1829年,高斯提供了最小二乘法的优化效果强于其他方法的证明,即为高斯-马尔可夫定理。也就是说勒让德最初提出了最小二乘法,而却是高斯让最小二乘法得以巩固而影响至今。且高斯对最小二乘法的最大贡献在于他是建立在正太误差分布的理论基础之上的(后续更是导出了误差服从正态分布的结论),最后,1837年,统计学家们正式确立误差服从正态分布,自此,人们方才真正确信:观测值与理论值的误差服从正态分布。

4.6、误差分布曲线的建立

    十八世纪,天文学的发展积累了大量的天文学数据需要分析计算,应该如何来处理数据中的观测误差成为一个很棘手的问题。我们在数据处理中经常使用平均的常识性法则,千百年来的数据使用经验说明算术平均能够消除误差,提高精度。平均有如此的魅力,道理何在,之前没有人做过理论上的证明。算术平均的合理性问题在天文学的数据分析工作中被提出来讨论:测量中的随机误差应该服从怎样的概率分布?算术平均的优良性和误差的分布有怎样的密切联系?

    伽利略在他著名的《关于两个主要世界系统的对话》中,对误差的分布做过一些定性的描述,主要包括:

  • 误差是对称分布的分布在0的两侧
  • 大的误差出现频率低,小的误差出现频率高

    用数学的语言描述,也就是说误差分布函数f(x)关于0对称分布,概率密度随|x|增加而减小,这两个定性的描述都很符合常识。

4.6.1、辛普森的工作

    许多天文学家和数学家开始了寻找误差分布曲线的尝试。托马斯•辛普森(Thomas Simpson,1710-1761)先走出了有意义的一步。 

  • 设真值为\theta,而x_1,...,x_n为n次测量值,现在用测量值去估计真值\theta,那么每次测量的误差为e_i = x_i - \theta
  • 但若用算术平均\bar{x} = (\sum_{i-1}^{n}x_i)/n去估计\theta呢,则其误差为\bar{e} = (\sum_{i-1}^{n}e_i)/n,相当于(\sum_{i-1}^{n}x_i-\theta )/n

    Simpson证明了,对于如下的一个概率分布

 Simpson的误差态分布曲线

    有这样的估计:P(|\bar{e}|<x) \geq P(|e_i| <x)

    也就是说,|\bar{e}|相比于|e_1|取小值的机会更大。辛普森的这个工作很粗糙,但是这是第一次在一个特定情况下,从概率论的角度严格证明了算术平均的优良性。

4.6.2、拉普拉斯的工作

    在1772-1774年间,拉普拉斯也加入到了寻找误差分布函数的队伍中。与辛普森不同,拉普拉斯不是先假定一种误差分后去设法证明平均值的优良性,而是直接射向应该去怎么的分布为误差分布,以及在确定了误差分布之后,如何根据观测值x_1,...,x_n去估计真值\theta

    拉普拉斯假定误差密度函数f(x)满足如下性质:

-f'(x) = mf(x)

m>0,且为常数,上述方程解出f(x) = c\cdot e^{-mx},其中,c>0且为常数,由于f(-x) = f(x),得f(x) = c\cdot e^{mx}。故当x<0,结合概率密度的性质之一(参看上文2.2.4节):\int_{-\propto }^{\propto }f(x)dx = 1,解得c=m/2

    由此,最终1772年,拉普拉斯求得的分布密度函数为:

f(x) = \frac{m}{2} e^{-m|x|}

这个概率密度函数现在被称为拉普拉斯分布:

 以这个函数作为误差密度,拉普拉斯开始考虑如何基于测量的结果去估计未知参数的值,即用什么方法通过观测值x_1,...,x_n去估计真值\theta呢?要知道咱们现今所熟知的所谓点估计方法、矩估计方法,包括所谓的极大似然估计法之类的,当时可是都还没有发明。 

    拉普拉斯可以算是一个贝叶斯主义者,他的参数估计的原则和现代贝叶斯方法非常相似:假设先验分布是均匀的,计算出参数的后验分布后,取后验分布的中值点,即1/2分位点,作为参数估计值。可是基于这个误差分布函数做了一些计算之后,拉普拉斯发现计算过于复杂,最终没能给出什么有用的结果,故拉普拉斯最终还是没能搞定误差分布的问题。

    至此,整个18世纪,可以说,寻找误差分布的问题,依旧进展甚微,下面,便将轮到高斯出场了,历史总是出人意料,高斯以及其简单的手法,给了这个误差分布的问题一个圆满的解决,其结果也就成为了数理统计发展史上的一块重要的里程碑。

4.6.3、高斯导出误差正态分布

    事实上,棣莫弗早在1730年~1733年间便已从二项分布逼近的途径得到了正态密度函数的形式,到了1780年后,拉普拉斯也推出了中心极限定理的一般形式,但无论是棣莫弗,还是拉普拉斯,此时他们这些研究成果都还只是一个数学表达式而非概率分布,也就是压根就还没往误差概率分布的角度上去思索,而只有到了1809年,高斯提出“正太误差”的理论之后,它正太理论才得以“概率分布“的身份进入科学殿堂,从而引起人们的重视。

   追本溯源,正态分布理论这条大河的源头归根结底是测量误差理论。那高斯到底在正态分布的确立做了哪些贡献呢?请看下文。

    1801年1月,天文学家Giuseppe Piazzi发现了一颗从未见过的光度8等的星在移动,这颗现在被称作谷神星(Ceres)的小行星在夜空中出现6个星期,扫过八度角后在就在太阳的光芒下没了踪影,无法观测。而留下的观测数据有限,难以计算出他的轨道,天文学家也因此无法确定这颗新星是彗星还是行星,这个问题很快成了学术界关注的焦点。高斯当时已经是很有名望的年轻数学家了,这个问题也引起了他的兴趣。高斯一个小时之内就计算出了行星的轨道,并预言了它在夜空中出现的时间和位置。1801年12月31日夜,德国天文爱好者奥伯斯(Heinrich Olbers)在高斯预言的时间里,用望远镜对准了这片天空。果然不出所料,谷神星出现了!

高斯为此名声大震,但是高斯当时拒绝透露计算轨道的方法直到1809年高斯系统地完善了相关的数学理论后,才将他的方法公布于众,而其中使用的数据分析方法,就是以正态误差分布为基础的最小二乘法。那高斯是如何推导出误差分布为正态分布的呢?请看下文。
    跟上面一样,还是设真值为\theta,而x_1,...,x_n为n次独立测量值,每次测量的误差为e_i = x_i - \theta,假设误差ei的密度函数为f(e),则测量值的联合概率为n个误差的联合概率,记为

L(\theta ) = L(\theta;x_1,...x_n) = f(e_1)\cdots f(e_n) = f(x_1 - \theta )\cdots f(x_n-\theta )

 到此为止,高斯的作法实际上与拉普拉斯相同,但在继续往下进行时,高斯提出了两个创新的想法。

    第一个创新的想法便是:高斯并没有像前面的拉普拉斯那样采用贝叶斯的推理方式,而是直接取L(\theta )达到最小值的\hat{\theta } = \hat{\theta} (x1,...,x_n)作为\theta的估计值,这也恰恰是他解决此问题采用的创新方法,即

\hat{\theta } = arg min_\theta L(\theta )

现在我们把L(\theta )称为样本的似然函数,而得到的估计值θˆ称为极大似然估计。高斯首次给出了极大似然的思想,这个思想后来被统计学家R.A.Fisher系统地发展成为参数估计中的极大似然估计理论。
    高斯的第二点创新的想法是:他把整个问题的思考模式倒过来,既然千百年来大家都认为算术平均是一个好的估计,那么就直接先承认算术平均就是极大似然估计(换言之,极大似然估计导出的就应该是算术平均),所以高斯猜测:

 然后高斯再去寻找相应的误差密度函数f以迎合这一点。即寻找这样的概率分布函数f,使得极大似然估计正好是算术平均\hat{\theta } = \bar{x}。通过应用数学技巧求解这个函数f,高斯证明了所有的概率密度函数中,唯一满足这个性质的就是(记为(11)式):

f(x) = \frac{1}{\sqrt{2\pi }\sigma }exp\left ( -\frac{x^2}{2\sigma ^2} \right )

而这恰巧是我们所熟知的正态分布的密度函数N(0,\sigma ^2),就这样,误差的正态分布就被高斯给推导出来了!

    但,高斯是如何证明的呢?也就是说,高斯是如何一下子就把上面(11)式所述的概率密度函数给找出来的呢?如下图所示(摘自数理统计学简史第127页注2,图中开头所说的高斯的第2原则就是上面所讲的高斯的第二点创新的想法,而下图最后所说的(11)式就是上面推导出来的概率密度函数):

 进一步,高斯基于这个误差分布函数对最小二乘法给出了一个很漂亮的解释。对于最小二乘公式中涉及的每个误差e_i,有e_i \sim N(0,\sigma ^2),则结合高斯的第一个创新方法:极大似然估计及上述的概率密度,(e1,⋯,en)的联合概率分布为

(e_1,...,e_n) \sim \frac{1}{ (\sqrt{2\pi }\sigma)^n }exp\left ( -\frac{1}{2\sigma ^2}\sum_{i=1}^{n}e_{i}^{2} \right )

要使得这个概率最大,必须使得\sum_{i=1}^{n}e_{i}^{2}取最小值,这正好就是最小二乘法的要求。

    高斯的这项工作对后世的影响极大,它使正态分布同时有了”高斯分布“的名称,不止如此,后世甚至也把最小二乘法的发明权也归功于他,由于他的这一系列突出贡献,人们    采取了各种形式纪念他,如现今德国10马克的钞票上便印有这高斯头像及正态分布的密度曲线f(x) = \frac{1}{\sqrt{2\pi }\sigma }exp\left ( -\frac{x^2}{2\sigma ^2} \right ),借此表明在高斯的一切科学贡献中,尤以此”正太分布“的确立对人类文明的进程影响最大。

 至此,咱们来总结下:

  1. 如你所见,相比于勒让德1805给出的最小二乘法描述,高斯基于误差正态分布的最小二乘理论显然更高一筹,高斯的工作中既提出了极大似然估计的思想,又解决了误差的概率密度分布的问题,由此我们可以对误差大小的影响进行统计度量了
  2. 但事情就完了么?没有。高斯设定了准则“最大似然估计应该导出优良的算术平均”,并导出了误差服从正态分布,推导的形式上非常简洁优美。但是高斯给的准则在逻辑上并不足以让人完全信服,因为算术平均的优良性当时更多的是一个经验直觉,缺乏严格的理论支持。高斯的推导存在循环论证的味道:因为算术平均是优良的,推出误差必须服从正态分布;反过来,又基于正态分布推导出最小二乘和算术平均,来说明最小二乘法和算术平均的优良性,故其中无论正反论点都必须借助另一方论点作为其出发点,可是算术平均到并没有自行成立的理由

    也就是上面说到的高斯的第二点创新的想法“他把整个问题的思考模式倒过来:既然千百年来大家都认为算术平均是一个好的估计,那么就直接先承认算术平均就是极大似然估计(换言之,极大似然估计导出的就应该是算术平均)”存在着隐患,而这一隐患的消除又还得靠咱们的老朋友拉普拉斯解决了。

    受高斯启发,拉普拉斯将误差的正态分布理论和中心极限定理联系起来,提出了元误差解释。他指出如果误差可以看成许多微小量的叠加,则根据他的中心极限定理,随机误差理应当有高斯分布(换言之,按中心极限定理来说,正态分布是由大量的但每一个作用较小的因素的作用导致而成)。而20世纪中心极限定理的进一步发展,也给这个解释提供了更多的理论支持。

    至此,误差分布曲线的寻找尘埃落定,正态分布在误差分析中确立了自己的地位。在整个正态分布被发现与应用的历史中,棣莫弗、拉普拉斯、高斯各有贡献,拉普拉斯从中心极限定理的角度解释它,高斯把它应用在误差分析中,殊途同归。不过因为高斯在数学家中的名气实在是太大,正态分布的桂冠还是更多的被戴在了高斯的脑门上,目前数学界通行的用语是正态分布、高斯分布,两者并用。

4.6.4、正态分布的时间简史

    至此,正态分布从首次出现到最终确立,其时间简史为:

  1. 1705年,伯努力的著作推测术问世,提出伯努利大数定律
  2. 1730-1733年,棣莫弗从二项分布逼近得到正态密度函数,首次提出中心极限定理
  3. 1780年,拉普拉斯建立中心极限定理的一般形成
  4. 1805年,勒让德发明最小二乘法
  5. 1809年,高斯引入正态误差理论,不但补充了最小二乘法,而且首次导出正态分布
  6. 1811年,拉普拉斯首次提出元误差理论,并利用中心的极限定理论证正态分布
  7. 1837年,海根正式提出元误差学说,自此之后,逐步正式确立误差服从正态分布

    如上所见,是先有的中心极限定理,而后才有的正态分布(当然,最后拉普拉斯用中心极限定理论证了正态分布),能了解这些历史,想想,都觉得是一件无比激动的事情。所以,我们切勿以为概率论与数理统计的教材上是先讲的正态分布,而后才讲的中心极限定理,而颠倒原有历史的发明演进过程。


第五节、论道正态,正态分布的4大数学推导

    如本blog内之前所说:凡是涉及到要证明的东西、理论,便一般不是怎么好惹的东西。绝大部分时候,看懂一个东西不难,但证明一个东西则需要点数学功底,进一步,证明一个东西也不是特别难,难的是从零开始发明创造这个东西的时候,则更显艰难(因为任何时代,大部分人的研究所得都不过是基于前人的研究成果,前人所做的是开创性工作,而这往往是最艰难最有价值的,他们被称为真正的先驱。牛顿也曾说过,他不过是站在巨人的肩上。你,我则更是如此)。

     上述第4节已经介绍了正态分布的历史由来,但尚未涉及数学推导或证明,下面,参考概率论沉思录,引用“正态分布的前世今生”等相关内容,介绍推导正太分布的4种方法,曲径通幽,4条小径,殊途同归,进一步领略正态分布的美妙。

    「注:本节主要整编自rickjin写的"正态分布的前后今生"系列」

5.1、 高斯的推导(1809)

    第一条小径是高斯找到的,高斯以如下准则作为小径的出发点

误差分布导出的极大似然估计 = 算术平均值

    设真值为\theta,而x_1,...x_n为次独立测量值,每次测量的误差为e_i = x_i - \theta,假设误差的密度函数为f(e),则测量值的联合概率为n个误差的联合概率,记为

L(\theta ) = L(\theta ;x_1,...,x_n) = f(e_1)\cdots f(e_n) = f(x_1-\theta )\cdots f(x_n-\theta )

为求极大似然估计,令

\frac{d logL(\theta )}{d\theta } = 0

整理后可以得到

\sum_{i=1}^{n} \frac{f'(x_i-\theta )}{f(x_i-\theta )} = 0

    令g(x) = f'(x)/f(x),由上式可以得到

\sum_{i=1}^{n}g(x_i - \theta ) = 0

由于高斯假设极大似然估计的解就是算术平均\bar{x},把解带入上式,可以得到

\sum_{i=1}^{n}g(x_i - \bar{x}) = 0

在上式中取n=2,有

g(x_1-\bar{x}) + g(x_2 - \bar{x}) = 0

    从而此时有x_1 - \bar{x} = -(x_2 - \bar{x}),并且x_1,x_2是任意的,由此得到:g(-x) = -g(x)。再取n = m+1,并且要求x_1 = \cdots x_m = -x,且x_{m+1} = mx,则有\bar{x} = 0,并且

\sum_{i=1}^{n} g(x_i - \bar{x}) = mg(-x)+g(mx)

所以得到g(mx) = mg(x),而满足上式的唯一的连续函数就是g(x) = cx,从而进一步可以求解出

f(x) = Me^{cx^2}

由于f(x)是概率分布函数,把f(x)正规化一下就得到正态分布密度函数N(0,\sigma ^2)

5.2、Herschel(1850)和麦克斯韦(1860)的推导

    第二条小径是天文学家John Hershcel和物理学家麦克斯韦(Maxwell)发现的。1850年,天文学家Herschel在对星星的位置进行测量的时候,需要考虑二维的误差分布,为了推导这个误差的概率密度分布f(x,y),Herschel设置了两个准则:

  1. x轴和y轴的误差是相互独立的,即误差的概率在正交的方向上相互独立;
  2. 误差的概率分布在空间上具有旋转对称性,即误差的概率分布和角度没有关系。

    这两个准则对于Herschel考虑的实际测量问题看起来都很合理。由准则1,可以得到应该具有如下形式

f(x,y) = f(x)\cdot f(y)

    把这个函数转换为极坐标,在极坐标下的概率密度函数设为g(r,\theta ),有

f(x,y) = f(rcos\theta ,rsin\theta ) = g(r,\theta )

    由准则2,g(r,\theta )具有旋转对称性,也就是应该和\theta无关,所以g(r,\theta ) = g(r),综合以上,我们可以得到

f(x)f(y) = g(r) = g(\sqrt{x^2+y^2})

    取y=0,得到g(x)=f(x)f(0),所以上式可以转换为

log [ \frac{f(x)}{f(0)} ] + log [ \frac{f(y)}{f(0)} ] = log [ \frac{f(\sqrt{x^2+y^2})}{f(0)} ]

    令log\left ( f(x))/f(0) \right ) = h(x),则有

h(x) + h(y) = h\sqrt{x^2+y^2}

    从这个函数方程中可以解出h(x) = ax^2,从而可以得到f(x)的一般形式如下

f(x) = \sqrt{\frac{a}{\pi }}e^{-ax^2}

    而f(x)就是正态分布N(0,1/\sqrt{2a}),而f(x,y)就是标准二维正态分布函数。

 f(x,y) = \frac{a}{\pi }exp(-a(x^2+y^2))

    1860年,我们伟大的物理学家麦克斯韦在考虑气体分子的运动速度分布的时候,在三维空间中基于类似的准则推导出了气体分子运动的分布是正态分布\rho (v_x,v_y,v_z) \propto exp(-a(v_{x}^{2}+v_{y}^2+v_{z}^2))。这就是著名的麦克斯韦分子速率分布定律。大家还记得我们在普通物理中学过的麦克斯韦-波尔兹曼气体速率分布定律吗?

    所以这个分布其实是三个正态分布的乘积。你的物理老师是否告诉过你其实这个分布就是三维正态分布?
    Herschel-Maxwell推导的神妙之处在于,没有利用任何概率论的知识,只是基于空间几何的不变性,就推导出了正态分布。美国诺贝尔物理学奖得主费曼(Feymann)每次看到一个有\pi的数学公式的时候,就会问:圆在哪里?这个推导中使用到了x^2+y^2,也就是告诉我们正态分布密度公式中有个\pi,其根源来在于二维正态分布中的等高线恰好是个圆。

5.3、Landon的推导(1941)

    第三条道是一位电气工程师,Vernon D. Landon 给出的。1941年,Landon 研究通信电路中的噪声电压,通过分析经验数据他发现噪声电压的分布模式很相似,不同的是分布的层级,而这个层级可以使用方差\sigma ^2来刻画。因此他推理认为噪声电压的分布函数形式是p(x;\sigma ^2)。现在假设有一个相对于\sigma而言很微小的误差扰动e,且e的分布函数是q(e),那么新的噪声电压是x' = x+e。Landon提出了如下的准则

  1. 随机噪声具有稳定的分布模式
  2. 累加一个微小的随机噪声,不改变其稳定的分布模式,只改变分布的层级(用方差度量)

    用数学的语言描述:如果x' \sim p(x;\sigma ^2),e\sim q(e),x' =x+e,则有x' \sim p(x;\sigma ^2 +var(e))。现在我们来推导函数p(x;\sigma ^2)应该长成啥样。按照两个随机变量和的分布的计算方式,x'的分布函数将是x的分布函数和e的分布函数的卷积,即有 

 f(x') = \int p(x'-e;\sigma ^2)q(e)de

    把p=p(x;\sigma ^2)在x′处做泰勒级数展开(为了方便,展开后把自变量由x′替换为x),上式可以展开为

f(x) = p(x;\sigma ^2) - \frac{\partial p(x;\sigma ^2)}{\partial x} \int eq(e)de + \frac{1}{2}\frac{\partial ^2p(x;\sigma ^2)}{\partial x^2}\int e^2q(e)de + \cdots

p = p(x;\sigma ^2),则有

f(x) = p - \frac{\partial p}{\partial x}\bar{e} + \frac{1}{2}\frac{\partial ^2p}{\partial x^2}\bar{e^2} + o(\bar{e^2})

    对于微小的随机扰动e,我们认为他取正值或者负值是对称的,所以\bar{e} = 0。所以有式子8

 对于新的噪声电压是x′=x+e,方差由\sigma ^2增加为\sigma ^2 + var(e) = \sigma ^2 + \bar{e^2},所以按照Landon的分布函数模式不变的假设,新的噪声电压的分布函数应该为p(x;\sigma ^2+\bar{e^2})。把p(x;\sigma ^2+\bar{e^2})在处做泰勒级数展开,得到式子9

f(x) = p+\frac{\partial p}{\partial \sigma ^2}\bar{e^2} + o(\bar{e^2})

比较(8)和(9)这两个式子,可以得到如下偏微分方程

\frac{1}{2} \frac{\partial ^2p}{\partial x^2} = \frac{\partial p}{\partial \sigma ^2}

    而这个方程就是物理上著名的扩散方程(diffusion equation),求解该方程就得到

p(x;\sigma ^2) = \frac{1}{\sqrt{2\pi \sigma }}exp\left ( -\frac{x^2}{2\sigma ^2} \right )

又一次,我们推导出了正态分布!
    概率论沉思录作者E.T.Jaynes对于这个推导的评价很高,认为Landon的推导本质上给出了自然界的噪音形成的过程。他指出这个推导基本上就是中心极限定理的增量式版本,相比于中心极限定理来说,是一次性累加所有的因素,Landon的推导是每次在原有的分布上去累加一个微小的扰动。而在这个推导中,我们看到,正态分布具有相当好的稳定性;只要数据中正态的模式已经形成,他就容易继续保持正态分布,无论外部累加的随机噪声是什么分布,正态分布就像一个黑洞一样把这个累加噪声吃掉。

5.4、正态分布和最大熵

    还有一条小径是基于最大熵原理的,物理学家E.T.Jaynes在最大熵原理上有非常重要的贡献,他在《概率论沉思录》里面对这个方法有描述和证明,没有提到发现者,不过难以确认这条道的发现者是否是Jaynes本人。
    熵在物理学中由来已久,信息论的创始人香农(Claude Elwood Shannon)把这个概念引入了信息论,读者中很多人可能都知道目前机器学习中有一个非常好用的分类算法叫最大熵分类器。要想把熵和最大熵的来龙去脉说清楚可不容易,不过这条道的风景是相当独特的,E.T.Jaynes对这条道也是偏爱有加。
    对于一个概率分布p(x),我们定义它的熵为

H(p) = - \int p(e)logp(e)de

如果给定一个分布函数p(x)的均值u和方差\sigma ^2(给定均值和方差这个条件,也可以描述为给定一阶原点矩和二阶原点矩,这两个条件是等价的)则在所有满足这两个限制的概率分布中,熵最大的概率分布p(x|u,\sigma ^2)就是正态分布N(u,\sigma ^2)
    这个结论的推导数学上稍微有点复杂,不过如果已经猜到了给定限制条件下最大熵的分布是正态分布,要证明这个猜测却是很简单的,证明的思路如下。
    考虑两个概率分布p(x)q(x),使用不等式logx \leq x-1,得

\int p(x)log\frac{q(x)}{p(x)}dx \leq \int p(x)(\frac{q(x)}{p(x)}-1)dx = \int q(x)dx - \int p(x)dx = 0

于是

\int p(x)log\frac{q(x)}{p(x)}dx = \int p(x)log\frac{1}{p(x)}dx + \int p(x)logq(x)dx \leq 0

    所以

H(p) \leq - \int p(x)logq(x)dx

熟悉信息论的读者都知道,这个式子是信息论中的很著名的结论:一个概率分布的熵总是小于相对熵。上式要取等号只有取q(x) = p(x)
    对于p(x),在给定的均值u和方差\sigma ^2下,我们取q(x) = N(u,\sigma ^2),则可以得到

 由于的均值方差有如下限制:\int p(x)(x-u)^2dx = \sigma ^2,于是

    而当p(x) = N(u,\sigma ^2)的时候,上式可以取到等号,这就证明了结论。
    E.T.Jaynes显然对正态分布具有这样的性质极为赞赏,因为这从信息论的角度证明了正态分布的优良性。而我们可以看到,正态分布熵的大小,取决于方差的大小。这也容易理解,因为正态分布的均值和密度函数的形状无关,正态分布的形状是由其方差决定的,而熵的大小反应概率分布中的信息量,显然和密度函数的形状相关。

   所谓横看成岭侧成峰,远近高低各不同,正态分布给人们提供了多种欣赏角度和想象空间。法国菩萨级别的大数学家庞加莱对正态分布说过一段有意思的话,引用来作为这个小节的结束:
    Physicists believe that the Gaussian law has been proved in mathematics while mathematicians think that it was experimentally established in physics.
—Henri Poincaré

参考文献及推荐阅读

  1. 高等数学第六版上下册,同济大学数学系编;
  2. 微积分概念发展史,[美] 卡尔·B·波耶 著,唐生 译;
  3. 微积分到底是什么
  4. 概率论与数理统计,高教版,盛骤等编;
  5. 浙大版概率论与数理统计电子PPT课件;
  6. 数理统计学简史,陈希孺院士著;
    (极力推荐上书,相信每一个学概率统计的朋友都有必要看一看,同时,此书也是正态分布的前后今生这一节的主要参考)
  7. rickjin,正态分布的前后今生:http://t.cn/zlH3Ygc ;
  8. 正态分布的前后今生系列集成版上:http://t.cn/zjJStYq,下:http://t.cn/zjoAtUQ;
  9. 大嘴巴漫谈数据挖掘:Sina Visitor System;
  10. 误差论与最小平方法 & 数学传播,蔡聪明;
  11. 正态分布进入统计学的历史演化,吴江霞;
  12. Probability Theory & The Logic of Science (概率论沉思录),E.T. Jaynes 著; 
  13. 手写数学公式编辑器:http://webdemo.visionobjects.com/equation.html?locale=zh_CN;
  14. wikipedia上标准差:http://zh.wikipedia.org/wiki/%E6%A0%87%E5%87%86%E5%B7%AE
  15. 泊松分布与概率分布:http://zh.wikipedia.org/wiki/%E6%B3%8A%E6%9D%BE%E5%88%86%E4%BD%88;
  16. wikipedia上一堆概念;
  17. ....

23年版后记

初学者在学习AI和RL的过程当中,一般有一半的问题都是因为数学不够扎实,而之所以会出现一半的数学问题,其中又有一半的原因是因为大部分数学教材不够通俗

附录:23年的修改记录

  1. 2.6-2.7,第一轮修改
    改进全文排版,并用LaTeX重新一一编辑文中所有公式(特别是那些不清晰的)
  2. 2.8-9日,第二轮修改
    考虑到历史上是先有的积分概念后再有的微分,故把微积分那一节从之前的先介绍微分再介绍积分改成先介绍积分再介绍微分,且举了通俗易懂的例子解释到底什么是积分、微分,以及彼此的互逆运算关系
  3. ..

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/9182.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT 插件(八个插件,个个优秀)

webpilot——联网搜索图片、视频、文档、人脉等 1. 有哪些免费的高清无版权的图片网站&#xff0c;请从这些网站里找一些图片给我&#xff0c;图片搜索关键词为:Shanghai aerial&#xff0c;把图片的url链接发我&#xff1b; 2. 有哪些免费的GIF图片网站&#xff0c;请从这些网…

从ChatGPT看AI未来趋势和挑战 | 万字长文

ChatGPT 持续成为大家关注的焦点&#xff0c;开启通用人工智能(AGI)之门。北京交通大学桑基韬教授和于剑教授撰写的《从ChatGPT看AI未来趋势和挑战》&#xff0c;详述了ChatGPT 的“能”与“不能”&#xff0c;AI中什么是“真”以及AI的未来趋势&#xff0c;非常值得关注&#…

高等数学(第七版)同济大学 习题1-1 个人解答

高等数学&#xff08;第七版&#xff09;同济大学 习题1-1 函数作图软件&#xff1a;Mathematica 部分图片采用ChatGPT生成 1. 求下列函数的自然定义域 \begin{aligned}&1. 求下列函数的自然定义域&&&&&&&&&&&&&&am…

大佬太快了 !这本ChatGPT、AI绘画的书籍免费赠送给大家 !

a15a 著&#xff0c;贾雪丽&#xff0c;0xAres&#xff0c;张炯 编 电子工业出版社-博文视点 2023-04-01 ISBN: 9787121353932 定价: 79.00 元 新书推荐 &#x1f31f;今日福利 &#xff5c;关于本书&#xff5c; 《一本书读懂AIGC&#xff1a;ChatGPT、AI绘画、智能文明与生产…

ChatGPT生成 SD 和 Midjourney 的提示(prompt)

探索Midjourney之旅&#xff0c;学习绘画与AI&#xff0c;一同成长。加入「阿杰与AI」公众号&#xff0c;参与内容社群建设。 1.Midjourney 新手快速起步指南2.Prompts-提示指令3.Explore Prompting-提示指令的探索4.Blend-叠加5.Midjourney Discord的使用手册6.Versions-版本…

人工智能前沿——6款AI绘画生成工具

>>>深度学习Tricks&#xff0c;第一时间送达<<< 目录 一、【前言】 二、【6款AI绘画生成工具】 1.DeepAI 2.NightCafe 3.Deep Dream Generator 4.StarryAI 5.Fotor 6.Pixso 一、【前言】 AI不仅影响商业和医疗保健等行业&#xff0c;还在创意产业中…

AI绘画工具+ChatGPT,新时代的倚天剑屠龙刀

当下&#xff0c;人工智能正对各个领域产生深远影响。其中&#xff0c;AI绘画工具和ChatGPT影响更为广泛。 AI绘画工具可以根据文本描述自动生成图像&#xff0c;属于计算机视觉和生成模型的结合。譬如&#xff0c;输入“一只白色的鸟&#xff0c;站在枯枝上&#xff0c;背景是…

使用ChatGPT为Stable Diffusion生成画面的关键词

在使用SD进行绘图的时候常常苦于某个换面想不到关键词,可以通过ChatGPT模板批量生成关键词。 先来看下演示效果。 案例结果 这个例子是根据古诗《陋室铭》编写的关键词描述。 仿照例子,并不局限于我给你的单词,给出一套详细描述“山不在高,有仙则名。”的prompt,注意…

如何让ChatGPT生成Midjourney提示词

​关注文章下方公众号&#xff0c;即可免费获取AIGC最新学习资料 导读&#xff1a;最近AI绘画非常的火&#xff0c;今天我们看ChatGPT如何生成Midjourney提示词&#xff0c;让AI教AI做事。 本文字数&#xff1a;900&#xff0c;阅读时长大约&#xff1a;3分钟 正如 Midjourney…

ChatGPT 为 Midjourney 或 DALL-E 等 AI 艺术生成提示

人工智能为创意产业开辟了一个充满可能性的全新世界。人工智能最令人兴奋的应用之一是生成独特的原创艺术作品。Midjourney 和 DALL-E 是人工智能生成艺术的两个突出例子&#xff0c;它们已经引起了艺术家和艺术爱好者的关注。在本文中&#xff0c;将探索如何使用 ChatGPT 为 A…

【文献阅读】“ChatGPT: Jack of all trades, master of none”

【文献阅读】“ChatGPT: Jack of all trades, master of none” 摘要背景问题任务介绍研究方法ChatGPT对话示例衡量指标 量化分析ChatGPT “博而不精”任务难易程度与ChatGPT 的表现随机上下文小样本个性化对话上下文对生成结果的影响是否用测试数据集来微调对性能表现的影响 质…

QQ邮箱验证码登录(移动端邮箱验证登录)

获取邮箱授权码 登录邮箱------->点击设置------->点击账户&#xff0c;下拉------->找到POP3/IMAP/SMTP/Exchange/CardDAV/CalDAV服务------->按照步骤开启POP3/SMTP服务 ------->获取授权码 2.在pom.xml中添加依赖&#xff1a; <!--mail--><depend…

关于学校edu邮箱登录第三方邮件客户端(例如Outlook、Foxmail、QQ邮箱、邮件App等)的注意事项

求实习&#xff0c;找工作的时候用了学校的邮箱&#xff0c;但发现收件不方便查看&#xff0c;很容易错过重要信息&#xff0c;所以需要添加到第三方手机客户端中。以iphone12自带的邮件app为例&#xff1a; 第一步 iphone打开设置——邮件——账户——添加账户——其他——添…

outlook登录QQ邮箱

前期准备 QQ邮箱 软件:outlook 步骤 1.打开网页版QQ邮箱:登录QQ邮箱 2.登录 3.打开设置 4.点击账户 5.点击管理服务 6.发送短信 7.生成授权码 8.复制授权码 9.打开outlook,点击文件 10.添加账户,输入复制的授权码, 注意,这里一定是复制的授权码,不是QQ密码!!! 注意,这里…

Outlook登录163邮箱,qq邮箱以及企业邮箱等邮箱

我用的是outlook2013版本 首先打开文件选择添加账户手动设置或其他服务器类型选择POP或IMAP&#xff0c;点下一步下面以163邮箱为例&#xff0c;qq邮箱和企业邮箱都类似(163邮箱和qq邮箱的pop怎么开启在下一篇博客&#xff0c;一定要先看&#xff0c;里面有登录密码的设置)&…

邮箱客户端如何登录?

邮箱登录的几种方式你了解么&#xff1f;什么情况下用什么登录&#xff0c;了解了这些你使用邮箱时会变得更加顺畅&#xff01;今天就以TomVIP邮箱为例&#xff0c;用不同场景为大家说明一下使用邮箱快捷的办公方式&#xff01; 邮箱客户端登录 客户端相当于是另外一个应用程…

桌面客户端上登入Gmai 邮箱

我是小虾&#xff0c;外贸小白正在精进。如果你恰好也是一名外贸人&#xff0c;欢迎关注我的公众号&#xff1a;万能的Excel 获取更多关于邮件营销资料&#xff01; 针对桌面的客户端收发Gmail 邮件&#xff0c;不管是Outlook, foxmail 等都会遇到--无法登录到 传入&#xff…

个人邮箱怎么在微信里登陆?

在使用个人邮箱时&#xff0c;可能会遇到这种情况&#xff1a;来了一封重要的邮件&#xff0c;但是手边没有电脑&#xff0c;登陆不了邮箱。那么我们应该怎么办呢&#xff1f;其实&#xff0c;现在使用微信同样可以做到登陆邮箱&#xff0c;随时随地查收邮件。下面就以Tom邮箱为…

ChatGPT 与 MindShow 一分钟搞定一个PPT

前言 PPT制作是商务、教育和各种场合演讲的重要组成部分。然而&#xff0c;很多人会花费大量时间和精力在内容生成和视觉设计方面。为了解决这个问题&#xff0c;我们可以利用两个强大的工具——ChatGPT和MindShow&#xff0c;来提高制作PPT的效率。 一、ChatGPT 与 MindShow…

ChatGPT 研究框架(PPT)

推荐阅读干货文章&#xff1a; 全球边缘计算大会上海站讲师演讲材料已出&#xff0c;欢迎戳下方链接查看现场精彩回放&#xff01;2023年3月31日&#xff0c;全球边缘计算大会北京站&#xff0c;欢迎合作&#xff01;