当前位置: 首页 > news >正文

帮公司做网站夸克搜索

帮公司做网站,夸克搜索,wordpress 主题调试,网站将导航条不滚动怎么做一、原因 神经网络梯度 假设现在有一个 层的神经网络,每层的输出为一个对输入作 变换的函数结果 用 来表示第 层的输出,那么有下列公式: 链式法则计算损失 关于某一层某个参数 的梯度: 注意到, 为向量&am…

一、原因

神经网络梯度

· 假设现在有一个 d 层的神经网络,每层的输出为一个对输入作 f_t 变换的函数结果

· 用 h^t 来表示第 t 层的输出,那么有下列公式:

h^t = f_t(h^{t-1})

· 链式法则计算损失 l 关于某一层某个参数 w_t 的梯度:

\frac{\partial l}{\partial w_t}=\frac{\partial l}{\partial h^d}\frac{\partial h^d}{\partial h^{d-1}}...\frac{\partial h^t}{\partial w_t}

· 注意到,h^t 为向量,这相当于一个 d-t 次的矩阵乘法

这个传递可能造成以下问题:

· 假设每次的梯度为1.5,但随着神经网络的规模变大,往后传递过去可能就有 1.5^{100}=4*10^{17} 这么大,从而产生梯度爆炸。

· 假设每次的梯度为0.8,同样的道理,传递过去可能有 0.8^{100}=2*10^{-10} 这么小,从而使模型最后的变化幅度很小,出现梯度消失。

二、梯度消失

假设用sigmoid函数作为激活函数

· 导数的问题是,当输入相对较大或者较小时,求导计算之后,每次向上传递的梯度会变得很小

· 累乘起来之后,这个值可能就会变得更小

可能造成的问题:

· 梯度值非常接近0,使得模型无法训练,每次训练改变幅度非常小

· 在神经网络较深时,对于底部层尤为严重

        · 反向传播时,顶部的训练可能较好,拿到的梯度较正常

        · 越到底部,梯度越小,底部层无法训练,使得神经网络无法变深

三、梯度爆炸

假设我们使用ReLU函数作为隐藏层的激活函数

· ReLU激活函数的导数会使大于0的输出求导后都是1,小于等于0的输出求导后都是0

· 首先将链式法则的求导公式代入ReLU激活函数转化一下,得到下式

· 这时,h^{t-1} 与 w_t 相乘后再在ReLU函数里求导的结果就是0或1,那么每次传递的就是 w_t 转置值

· 如果中间层 d-t 很大,那么最后累乘的结果就会很大,最终导致梯度爆炸

可能造成的问题:

· 值超过上限(如16位浮点数,可能数值上溢)

· 对学习率非常敏感

        · 若学习率较大—大参数值—更大的梯度

        · 若学习率较小—训练效果小

        · 需要不断调整学习率

http://www.ds6.com.cn/news/50107.html

相关文章:

  • 丰台网站制作百度指数总结
  • 网站服务器和网站备案吗nba最新消息
  • 知乎有趣的网站国际新闻最新消息中国
  • 简洁大气企业网站网络推广公司哪家做得好
  • 淮北网站建设费用营销说白了就是干什么的
  • 学校网站模板 html免费发布信息网平台
  • 天长网站建设百度权重3的网站值多少
  • 重庆做网站公司哪家好临汾网络推广
  • 东莞网站优化关键词排名爱网站关键词挖掘工具
  • 网站链接结构今天新闻联播
  • 买产品做企业网站还是博客常见的网站推广方式有哪些
  • php动态网站设计与开发百度站长平台电脑版
  • 设计师个人网站模板电商网站建设公司哪家好
  • 网站模板素材怎么用色盲测试图 考驾照
  • 麦壳云网站建设宁波网站推广优化外包
  • 专业中山建网站公司网络广告推广方案
  • 哈尔滨企业做网站seo关键词排名优化技巧
  • 自己买服务器做视频网站下载百度app到手机上
  • 网站开发未来发展趋势免费广州seo
  • 东莞企业公司网站建设现在有哪些网址
  • wordpress 摘要不显示seo前线
  • 网站建设与规划实验心得体会网络推广seo怎么弄
  • 专业建设特色宜昌seo
  • 手机电脑网站排名百度seo优化公司
  • dede网站禁止ip访问免费发帖推广的平台
  • 北京网站制作外包已矣seo排名点击软件
  • 专业的网站设计网络广州百度seo代理
  • 网站建设中需求分析说明书seozou是什么意思
  • 网站做系统做排名靠谱吗bing搜索引擎国内版
  • 动漫制作专业学校前十名seo公司推荐推广平台