各种机器学习动画和速查表

文摘   2024-10-08 10:55   辽宁  
正所谓一图胜千言、浓缩的都是精华,下面是我整理的一些机器学习动画和速查表。
动画
1. 神经网络基本元素
   1.1. 卷积
   1.2. 反卷积
   1.3. 全连接层
   1.4. 最大池化
   1.5. 激活函数
   1.6. 损失函数
2. 传统机器学习
   2.1. 主成分分析
   2.2. AdaBoost集成方法
   2.3. 贝叶斯回归
速查表
1. 偏差-方差权衡
2. 分类中的数据不平衡
3. 主成分分析
4. 贝叶斯定理和分类器
5. 回归分析
6. 机器学习中的正则化
7. 卷积神经网络
8. 著名的卷积神经网络
9. 机器学习中的集成方法
文末附pdf下载链接
1.1.卷积
如果你了解信号处理中的高通、低通滤波器;或者用过数字图像处理中的平滑、边缘检测,那你应该对卷积不陌生。
只不过在那些领域滤波器的参数是根据经验设定的,而卷积神经网络中的卷积核参数是通过学习得到的。
上面的动画是通过滑动的方式来实现卷积操作。
其实还有一种更直观的方式:矩阵乘法,卷积也可以看作是一种特殊的矩阵乘法。
如下图所示,假设输入图像大小4*4,卷积核大小3*3,不padding,stride=1。

具体操作如下图所示,由于一个3*3的卷积核要在输入上不同位置卷积卷积4次,所以通过补0的方式,将卷积核分别置于一个4*4矩阵的四个角落,然后将四个4*4的卷积核进行拼接

进一步,我们将输入拉成长向量。

最终的卷积操作就可以表示成下面的矩阵和向量乘法的形式。

1.2. 反卷积
卷积操作得到的特征图不会大于输入图像。
对于像AutoEncoder中的Decoder,或者UNet中的上采样部分,我们希望将特征图恢复到输入大小。
当然,可以使用传统的图像处理方法,例如,使用双线性插值最近邻插值进行缩放。
但对于复杂任务,就需要用到一种可学习的反卷积操作。
反卷积可以看作是卷积的逆过程,所以,反卷积也可以看作是一种矩阵乘法。
但这里并不能恢复到原始的数值,只是恢复了原始的形状。
1.3. 全连接层
人类大脑由数十亿个神经元组成,神经元通过突触相互连接。科学家发现人类学习过程通常涉及突触的强度变化,这种现象被称为突触可塑性。
神经网络通过模拟大脑神经元的连接来实现人工智能。
如下图所示的人工神经网络,节点代表神经元,节点之间的连线代表突触的链接,节点之间的权重代表突触连接的强度,通过反向传播过程得到
其实,很多科学发明都源自大自然带来的灵感,例如,飞机,雷达等。

人工智能大讲堂
专注人工智能数学原理和应用
 最新文章