当前位置: 首页 > news >正文

泰安房产信息网官网关键字优化用什么系统

泰安房产信息网官网,关键字优化用什么系统,郑州高端网站建设公司,建筑工地招工招聘信息平台误差反向传播(Back-propagation, BP)算法的出现是神经网络发展的重大突破,也是现在众多深度学习训练方法的基础。该方法会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。 BP本来只指损失…

误差反向传播(Back-propagation, BP)算法的出现是神经网络发展的重大突破,也是现在众多深度学习训练方法的基础。该方法会计算神经网络中损失函数对各参数的梯度,配合优化方法更新参数,降低损失函数。

BP本来只指损失函数对参数的梯度通过网络反向流动的过程,但现在也常被理解成神经网络整个的训练方法,由误差传播、参数更新两个环节循环迭代组成。

本文将以最基础的全连接深度前馈网络为例,详细展示Back-propagation的全过程,并以Numpy进行实现。

图1 神经元为层/权重为层
通常我们以神经元来计量“层”,但本文将权重抽象为“层”,个人认为这样更有助于反向传播的理解和代码的编写。如上图所示的网络就被抽象为两个中间层、一个输出层的结构。

简而言之,神经网络的训练过程中,前向传播和反向传播交替进行,如下图所示:前向传播通过训练数据和权重参数计算输出结果;反向传播通过导数链式法则计算损失函数对各参数的梯度,并根据梯度进行参数的更新,这一点是重点,会在后文详叙。

图2 前向传播&反向传播
前向传播
每层中前向传播的过程如下所示,很简单的矩阵运算。我们将权重作为层,中间层和输出层均可用Layer类来表示,只是对应的激活函数不同。如图2所示,每一层的输入和输出都是
,且前一层的输出是后一层的输入。

* 表示element-wise乘积,· 表示矩阵乘积

class Layer:
‘’‘中间层类’‘’
self.W # (input_dim, output_dim)
self.b # (1, output_dim)
self.activate(a) = sigmoid(a)/tanh(a)/ReLU(a)/Softmax(a)

def forward(self, input_data):       # input_data: (1, input_dim)'''单个样本的前向传播'''input_data · self.W + self.b = a  # a: (1, output_dim)h = self.activate(a)              # h: (1, output_dim)return h
  1. 反向传播

损失对参数梯度的反向传播可以被这样直观解释:由A到传播B,即由
得到
,由导数链式法则
实现。所以神经网络的BP就是通过链式法则求出
对所有参数梯度的过程。

如上图示例,输入
,经过网络的参数
,得到一系列中间结果

表示通过权重和偏置的结果,还未经过激活函数,
表示经过激活函数后的结果。灰色框内表示
对各中间计算结果的梯度,这些梯度的反向传播有两类:



,通过激活函数,如右上角



,通过权重,如橙线部分

可以看出梯度的传播和前向传播的模式是一致的,只是方向不同。

计算完了灰色框的部分(损失对中间结果
的梯度),损失对参数
的梯度也就显而易见了,以图中红色的

为例:

因此,我们可以如图2,将反向传播的表达式和代码如下。

注意代码和公式中
表示element-wise乘积,
表示矩阵乘积。

* 表示element-wise乘积,· 表示矩阵乘积

class Layer:
‘’‘中间层类’‘’
self.W # (input_dim, output_dim)
self.b # (1, output_dim)
self.activate(a) = sigmoid(a)/tanh(a)/ReLU(a)/Softmax(a)

def forward(self, input_data):       # input_data: (1, input_dim)'''单个样本的前向传播'''input_data · self.W + self.b = a  # a: (1, output_dim)h = self.activate(a)              # h: (1, output_dim)return hdef backward(input_grad):'''单个样本的反向传播'''a_grad = input_grad * activate’(a)  # (1, output_dim)b_grad = a_grad                     # (1, output_dim)W_grad = (input_data.T) · a_grad    # (input_dim, output_dim)self.b -= learning_rate * b_grad self.W -= learning_rate * W_gradreturn a_grad · (self.W).T          # (1, input_dim)

输出层的反向传播略有不同,因为在分类任务中输出层若用到softmax激活函数,

不是逐个对应的,如下图所示,因此
中的element-wise相乘是失效的,需要用
乘以向量
到向量
的向量梯度(雅可比矩阵)。

但实际上,经过看上去复杂的计算后输出层
会计算出一个非常简洁的结果:

以分类任务为例(交叉熵损失、softmax、训练标签
为one-hot向量其中第
维为1):


以回归任务为例(二次损失、线性激活、训练标签
为实数向量):

因此输出层反向传播的公式和代码可以写成如下所示:

* 表示element-wise乘积,· 表示矩阵乘积

class Output_layer(Layer):
‘’‘属性和forward方法继承Layer类’‘’

def backward(input_grad):'''输出层backward方法''''''单个样本的反向传播'''a_grad = input_grad                 # (1, output_dim)b_grad = a_grad                     # (1, output_dim)W_grad = (input_data.T) · a_grad    # (input_dim, output_dim)self.b -= learning_rate * b_grad self.W -= learning_rate * W_gradreturn a_grad · (self.W).T          # (1, input_dim)
  1. Batch 批量计算

除非用随机梯度下降,否则每次用以训练的样本都是整个batch计算的,损失函数
则是整个batch中样本得到损失的均值。

在计算中会以向量化的方式增加运算效率,用batch_size表示批的规模,代码可更改为:

* 表示element-wise乘积,· 表示矩阵乘积

class Layer:
‘’‘中间层类’‘’

def forward(self, input_data):       # input_data: (batch_size, input_dim)'''batch_size个样本的前向传播'''input_data · self.W + self.b = a  # a: (1, output_dim)h = self.activate(a)              # h: (1, output_dim)return hdef backward(input_grad):             # input_grad: (batch_size, output_dim)'''batch_size个样本的反向传播'''a_grad = input_grad * activate’(a) # (batch_size, output_dim)b_grad = a_grad.mean(axis=0)       # (1, output_dim)W_grad = (a_grad.reshape(batch_size,1,output_dim) * input_data.reshape(batch_size,input_dim,1)).mean(axis=0)# (input_dim, output_dim) self.b -= lr * b_gradself.W -= lr * W_gradreturn a_grad · (self.W).T         # output_grad: (batch_size, input_dim)

class Output_layer(Layer):
‘’‘输出层类:属性和forward方法继承Layer类’‘’

def backward(input_grad):             # input_grad: (batch_size, output_dim)'''输出层backward方法''''''batch_size个样本的反向传播'''a_grad = input_grad                # (batch_size, output_dim)b_grad = a_grad.mean(axis=0)       # (1, output_dim)W_grad = (a_grad.reshape(batch_size,1,output_dim) * input_data.reshape(batch_size,input_dim,1)).mean(axis=0)# (input_dim, output_dim) self.b -= learning_rate * b_grad self.W -= learning_rate * W_gradreturn a_grad · (self.W).T          # output_grad: (batch_size, input_dim)

这里比较易错的地方是什么时候求均值,对
求均值还是对
求均值:梯度在中间结果
上都不需要求均值,对参数
的梯度时才需要求均值。

  1. 代码

https://github.com/qcneverrepeat/ML01/blob/master/BP_DNN.ipynb
​github.com/qcneverrepeat/ML01/blob/master/BP_DNN.ipynb

模拟一个三层神经网络的训练

http://www.ds6.com.cn/news/9401.html

相关文章:

  • 找网站做网站如何进行seo
  • 用网站模板 侵权 做了修改站长申论
  • 许昌做网站公司哪家专业百度2022最新版本
  • 河北廊坊seo网站建设网站优化哈尔滨优化网站公司
  • 新网站做优化要准备什么windows优化大师好用吗
  • 广西桂林农业学校推广关键词优化公司
  • 校园网站建设必要性微信朋友圈广告
  • 用自己的计算机做服务器建网站品牌策略怎么写
  • 个人网站 域名选择360优化大师下载官网
  • tk网站免费域名检测查询
  • 鹰潭网站商城建设贵州百度seo整站优化
  • 专业网站建设最便宜网络营销推广的总结
  • 连云港做网站哪家好临沂seo整站优化厂家
  • 汇编语言做网站海外推广专员
  • 深圳 三人 网站建设推广资源网
  • 做网站怎么备份数据如何申请百度竞价排名
  • 启迪网站开发开电商需要多少钱
  • 免费建站论坛百度关键词优化工具
  • seo提高网站排名网络推广的好处
  • 网站建设公司i公众号seo排名优化
  • 聊城住房和城乡建设厅网站网站优化主要优化哪些地方
  • 如何做公众号小说网站赚钱ui设计培训班哪家好
  • 网站建设怎么做网站产品推广方式都有哪些
  • 商城网站的psd模板免费下载优帮云排名优化
  • 做网站需要多少钱 做网页制作代码
  • 苏州市网站优化女生学网络营销这个专业好吗
  • php网站建设案例教程视频哪个平台可以免费发广告
  • 南宁3及分销网站制作买卖链接网站
  • 沈阳网站开发培训价格上海高端网站定制
  • 做网站必备谷歌chrome官网