本文重点
卷积神经网络CNN是一种前馈神经网络,其特点是每层的神经元结点只响应前一层局部区域范围内的神经元。一个深度卷积神经网络的模型通常由若干卷积层叠加若干全连接层组成,当然中间页存在各种由激活函数构成的非线性操作以及池化操作。
如何训练卷积神经网络呢?同样使用反向传播算法来完成模型的训练任务,相比较于其它的网络模型,卷积神经网络的参数共享特性使得需要优化的参数数目大量的缩减了,这样提升了模型的训练效率以及可扩展性。
前面的课程中我们搭建了卷积神经网络,很普通,在人工智能的历史上有许多著名的卷积神经网络,它们的诞生一次一次的刷新网络模型的效果,比如LeNet、AlexNet、VGG、GoogLeNet、Resnet、DenseNet。
这些都是学习卷积神经网络必须要学习得网络模型,它们在设计网络模型的时候应用了很多技巧,这些技巧可以帮助我们从中得到启发,本专栏我们将把上面介绍的网络模型全部搭建出来,然后通过一个实例来进行介绍。
关于这些网络模型的一些细节,然后为什么这样搭建之类的,本专栏并不进行介绍,因为这属于理论部分,本专栏从实践角度展开的,如果对这些网络模型不懂得,可以看我们的专栏学习《每天五分钟计算机视觉》
卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙。
卷积神经网络主要用于处理网格结构的数据,因此卷积神经网络对于时间序列以及图像数据的分析以及识别具有显著的优势,这也是我们学习它的原因。
卷积神经网络的核心
卷积操作的本质包含局部连接和权值共享