反过来看积分,那就是微分的逆运算——速度是距离的微分,那么距离就是速度的积分。
积分就是integral整合的意思。
微积分本身的历史,恰当地说明了人类的认知每前进一步,都是要水到渠成,不会有什么“奇点”出现。
牛顿和莱布尼兹的时代,不论从力学角度,还是从纯数学角度,都已经具备了微积分成型的初步思想准备,不是牛顿和莱布尼兹,也会是其它人发明出来。
再论概率和统计。
概率和微积分一样,过去两百年里对核心概念的认识一直都在更新。概率、随机性也和很多数学概念一样,与我们日常的经验和估计,都是有着相当大的距离的。
比如,随机抛硬币出现正反面的概率是50%,你真抛10次,肯定不会正好有5次出现一个面,出现一个面的实际概率大约只有25%。
在随机事件中,要得到符合期望,哪怕是符合期望区间的结果,唯一的办法就是超出我们估计范围地增加事件发生次数。
比如要保证1%概率的事件能发生哪怕1次,那么你最好得重复做260次以上,100万分之一的中奖率,那么你最好要买260万次彩票以上。
在微观粒子世界,之能出现诸多宏观世界无法想象的事件,诸如量子隧穿这类的,没有别的巧,就是发生次数足够大,基数足够大。
彩票中奖率比我们每天出门被车撞死的概率小很多,大家都不相信自己每天出门会被车撞死,却相信自己有可能中奖。
应对小概率事件的计算方式是泊松分布,也是保险公司精算的基础。泊松分布的关键,就是冗余量和基数的问题,基数要够大,同时留有一定的冗余量,以备小概率事件。应付大概率事件的计算方式是高斯分布,也就是通常我们说的正态分布。
对于正态分布,最需要注意的是标准差σ,1个σ的置信度区间在68%,2个σ的置信度区间在95%,3个σ的置信度是99.7%。你要提高差错容忍度,或者风险容忍度,才能拥有较高的确定性。
标准差σ,在市场上,就是风险。我们总说标准普尔500指数在过去50年中平均每年的增长率是7-8%,以此说明投资股票的必要性。
但需要知道的是,这个增长率的标准差是16%!这是一个大得吓人的标准差,也就是极高的风险。
这么大的标准差,7-8%的增速,完全可以被淹没——也就是何以如此高的增长率下,绝大多数投资者并没有发财,而且还有相当数量的破产者。
这还只是个平均数,具体到个股上,标准差更大。你都很难分辨,所谓的平均增速,其中有多少是市场波动本身造成的。
美国每年涨幅最好的10个基金和10个股票,到第二年都会跌出前十名。不是说你超过了大盘三四次,就神了,那很有可能就是随机性带来的结果。
有趣的是概率论的公理化。
此前说了,数学的关键在于公理、逻辑和定理,即不依赖于任何客观经验,自成一体。概率论发展了一百多年,很大程度上,还只是对经验的总结,而完成了其公理化的,就是俄罗斯数学家柯尔哥莫洛夫。
其实此人是数学史上少有的,能与牛顿、莱布尼茨、高斯等人并肩的全能型学者。
他的对概率论的公理化推进如下:
公理一:任何事件的概率是在0和1之间的一个实数。
公理二:样本空间的概率为1,即所有会发生的事件集合概率为1。其意思也就是,样本空间中的事件是一定会发生的。
公理三:如果两个事件互斥,那么一个事件或另一个事件发生的概率,就是这两个事件独立发生概率之和。
何等清晰明确!也就是说,有了这三个最简洁的公理,概率论体系所有复杂情况都能推导出来。
我们最缺乏的,恰恰就是这种思维。时至今日,我们强调经验,强调特色,强调差异,就是不愿意接纳普适性。
关于条件概率和联合概率,需要注意的,也在于事实可能与我们的常识或者日常判断出入很大。
比如说,两种疾病A和B,A的死亡率是10%,B的死亡率是2%,哪种危险?不假思索的话,当然是死亡率高的危险。但经过概率论训练的头脑,就会知道,单纯看一个指标,一种比率,是不能说明任何问题的。
所谓的A疾病的死亡率10%,其实是一种条件概率,即一个人染上A疾病后可能面临的死亡率,也就是说,其实A疾病还有一个染病率或者发病率被隐藏了。
好比狂犬病是100%死亡率,多吓人,但要考虑到它的发病率小于一亿分之一;流感的死亡率只有千分之一,但它的发病率高达10%。谁更可怕?
条件概率的逆向思考,就是贝叶斯过程——贝叶斯公式。条件概率是知道条件,然后出现这种条件下的结果的概率,贝叶斯正好反过来,知道了结果,那么出现那种条件的概率。——敝号2021年随笔的《随机漫步的傻瓜》中详细描述了贝叶斯过程。
贝叶斯公式之所以牛,因为它实现了因果关系的转换概率测算。最简单的例子,就是前两年我们都听到起茧的,如果测试为阳性,感染的可能性有多大。乍一听当然简单,经过训练的头脑才会明白其中暗含了很多条件。
Eg:如果检测结果为阳性,染病的可能性为99%。同时,感染率为0.5%,用试剂随机检测人群,0.2%的人呈阳性,那么感染者通过试剂被检测出来的可能性有多大?这种试剂是不是合适大规模筛查?
一般看到99%的阳性,就觉得可能性很大,其实不然。
从条件概率角度来看,一个人首先要感染,然后是检测了结果呈阳性,才是题目要的结果,也就是P(Y=阳性/X=染病)。
贝叶斯公式列出来:P(Y=阳性/X=染病)=P(X=染病/Y=阳性)P(Y=阳性)/P(X=染病)
按照上述题目中给出的结果,代入,结果其实比我们想象的要低很多:40%左右。
也就是随机检测出来呈阳性的人,是真感染者的可能性,只有40%。
结论就是,如果检测为阳性,来确认某个人是否被感染,是有效的。但是,用于随机大规模筛查,其有效性就很低了。
这就是为啥当初大规模筛查需要的是政治动员,而不是科学依据。
这个数字与疫情期间我国很多地方统计的结果接近,所以说当初反对动辄就全员筛查核酸的声音,其实是有科学依据的。
科学防疫,真不是“一个都不放过”。
对小概率事件更需要重视,也需要研究,以防小概率成了黑天鹅。
美国语言学家齐普夫对词频进行研究后,发现了一个齐普夫定律——齐普夫常数的存在。比如,汉字“的”的词频为6%,排第一,“是”的词频是3%,排第二,“一”的词频2%,排第三,如果把它们的排序序号,与词频相乘,总是一个稳定的数6%。
后来人们发现这个规律也适用于很多排序,比如财富排序也是这样。
阿兰·图灵的学生古德,在齐普夫定律的基础上发展出了一个解决如何量化重视小概率事件的做法——总的来说,小概率事件因为概率太小,很难在有限时间段里被统计到,因而大多数小概率事件出现的次数都是0。
而那些出现频度高的事件,因为总是被统计,反而会被放大了对他们出现概率的估计。
所以,古德的办法,就是一种折衷——把高频事件的概率,按照一定的数学变换方法,分配给低频度事件,就创造了古德—图灵折扣估计法。
这个折扣估计法,会人为地放大那些小概率事情的可能性。其作用,就是提示人们在做决策时,要有一定的冗余,要有一定的备用资源。
这也是诸多大片里提到过的,第十人决策——不论前九个人如何一致,那么也要保证有第十个人哪怕是从最不合理的角度提出反对意见,并根据这个反对意见,分配一定资源做出准备。
全书毕。
数学通识思维,就和逻辑与法律通识一样,是判断与思维,而非计算与精确。数学思维就是天才直觉的洞见,与锋利如刃的逻辑力量,直击事物的精微变化和关联互动。
精神感知上的精确与微妙。