每天五分钟深度学习:神经网络的前向传播的计算过程(单样本)

职场   2024-11-27 23:59   浙江  

本文重点

本节课程我们学习神经网络的输出是如何计算的,这个过程叫做神经网络的前向传播。

神经网络的结构

如上所示是一个具有单隐藏层的神经网络,其中输入层不算神经网络的层数。

在这个神经网络中,x表示输入特征,a表示每个神经元的输出,W表示权重参数。

神经网络的隐藏层的计算

我们可以认为神经网络中的某一个神经元就是执行一个逻辑回归,神经网络我们可以简单的看成是由许多逻辑回归一层一层的嵌套组成的。那么我们先来学习一下逻辑回归算法是如何计算的:

逻辑回归就是两个步骤,首先按步骤计算z,然后计算出a,也就是说一个神经网络做了好多次重复的逻辑回归计算。

现在我们回到神经网络中,我们从隐藏层中的第一个神经元开始计算。

它和逻辑回归类似,也是分为两步:

隐藏层中的第二个神经元、第三个神经元,以及第四个神经元和第一个神经元计算过程一样,只是下标不同,计算过程为:

神经网络的隐藏层计算(向量化)

如上所示,就完成了神经网络的隐藏层的计算了,我们可以看到我们因为隐藏层有三个神经元,所以我们需要依次计算3次,但是如果我们用for循环做这个的话,一定会非常的低效,为了解决这个问题,我们需要向量化

参数的向量化,将神经网络中的参数纵向堆积出来,例如隐藏层中的w纵向堆积起来变成一个(3,3)的矩阵,我们用w[1] 来表示这个参数矩阵。

我们的输入数据单样本x可以使用列向量来表示

然后还会有一个b[1]向量(偏置向量)

因此我们就可以完成神经网络的向量化计算表示了:

每天五分钟玩转人工智能
一个人没有梦想和神经网络有什么区别?
 最新文章