介绍
卷积神经网络 (CNN) 是一种用于深度学习的网络架构,它直接从数据中学习。
CNN 对于在图像中查找模式以识别对象特别有用。它们对于非图像数据(如音频、时间序列和信号数据)的分类也非常有效。
内核、滤波器或特征检测器
在 卷积神经网络 中,内核只不过是用于从图像中提取特征的滤波器。
公式 = [i-k]+1
i -> Size of input , K-> Size of kernel
i -> 输入大小 , K-> 内核大小
Stride 步幅
步幅是神经网络滤波器的一个参数,用于调整在图像或视频上的移动量。
如果我们设置步幅为1,那么它会逐个像素地移动。
如果我们设置步幅为2,那么它会跳过两个像素来取值。
公式 =[i-k/s]+1
i -> Size of input , K-> Size of kernel, S-> Stride
i -> 输入大小,K-> 内核大小,S->步幅
Padding 填充
填充是与卷积神经网络相关的术语,因为它指的是在图像被卷积神经网络的卷积核处理时添加到图像上的像素数量。
例如,如果CNN中的填充设置为零,那么添加的每个像素值都将是零。
当我们使用滤波器或卷积核扫描图像时,图像的大小会变小。我们需要避免这种情况,因为我们希望保留原始图像的大小以提取一些低级特征。
所以,我们将在图像外部添加一些额外的像素。
公式 =[i-k+2p/s]+1
i -> Size of input , K-> Size of kernel, S-> Stride, p->Padding
i -> 输入大小,K-> 内核大小,S->步幅,p->填充
Pooling 池
卷积神经网络中的池化是一种泛化卷积滤波器提取的特征并帮助网络识别特征的技术,而与它们在图像中的位置无关。
Flatten
展平是将所有来自池化特征映射的二维数组结果转换为单个长连续线性向量的过程。展平后的矩阵被输入到全连接层以对图像进行分类。
对于初学者来说,学习 卷积神经网络(CNN)是非常重要的,因为它是深度学习领域中非常基础和实用的技术之一。
学习 CNN 需要一定的数学和编程基础,包括线性代数、微积分、编程语言等。
如果大家有需要的话我可以把 点头研究院 制作的这份人工智能学习路线分享给大家(从基础知识到进阶知识都包含在内)
这份学习路线和不管你是零基础的 研究生还是本科生,或者是转行人员 都可以根据这份路线图进行学习。
每一个知识点推荐的学习资源都是经过反复修改调整的,非常适合新手学习。(并且每个教程都包含超链接,大家点击既可跳转学习)
路线图里的PDF和材料都打包好了
为了避免添加人数过多出现频繁,大家可以随便添加一个小助手,让她发给你
用于构建 CNN 的层
卷积神经网络与其他神经网络的区别在于它们在图像、语音或音频信号输入方面的卓越性能。
它们有三种主要类型的层,它们是:
卷积层
池化层
全连接 (FC) 层
卷积层
该图层是用于从输入图像中提取各种要素的第一层。
在这一层中,我们使用过滤器或内核方法从输入图像中提取特征。
池化层
该层的主要目的是减小卷积特征图的大小,以降低计算成本。
这是通过减少层之间的连接并独立操作每个特征图来实现的。
根据所使用的方法,有几种类型的池化操作。我们有最大池化和平均池化。
全连接层
全连接 (FC) 层由权重和偏置以及神经元组成,用于连接两个不同层之间的神经元。
这些层通常放置在输出层之前,并形成 CNN 架构的最后几层。
Dropout
CNN 的另一个典型特征是 Dropout 层。
Dropout 层是一个掩码,它抵消了某些神经元对下一层的贡献,并使所有其他神经元保持不变。
激活函数
激活函数决定是否应该激活神经元。
这意味着它将决定神经元对网络的输入在预测过程中是否重要。
有几个常用的激活函数,例如 ReLU、Softmax、tanH 和 Sigmoid 函数。
这些函数中的每一个都有特定的用法。
Sigmoid: 用于 CNN 模型中的二元分类
tanH - tanh 函数与 sigmoid 函数非常相似。唯一的区别是它在原点周围是对称的。在本例中,值的范围是从 -1 到 1。
Softmax:它用于多项式逻辑回归,通常用作神经网络的最后激活函数,以将网络的输出归一化为预测输出类的概率分布。
RelU:与其他激活函数相比,使用 ReLU 函数的主要优点是它不会同时激活所有神经元。
如果喜欢本篇的内容记得点点再看,并把他转发到你的朋友圈。请永远不要停止学习,这是你武装自己对抗这个世界最有力的武器!