当前位置: 首页 > news >正文

电子商务之网站建设aso优化推广

电子商务之网站建设,aso优化推广,广西南宁今日疫情,谁有学做网站论坛账号Hi,大家好,我是半亩花海。接着上次的多重回归继续更新《白话机器学习的数学》这本书的学习笔记,在此分享随机梯度下降法这一回归算法原理。本章的回归算法原理还是基于《基于广告费预测点击量》项目,欢迎大家交流学习!…

Hi,大家好,我是半亩花海。接着上次的多重回归继续更新《白话机器学习的数学》这本书的学习笔记,在此分享随机梯度下降法这一回归算法原理。本章的回归算法原理还是基于《基于广告费预测点击量》项目,欢迎大家交流学习!

目录

一、随机梯度下降法概述

二、案例分析

1. 设置问题 

2. 定义模型

3. 随机梯度下降法(拓展)


一、随机梯度下降法概述

随机梯度下降法是一种优化算法,用于最小化目标函数,即减少模型预测和实际结果之间的差距。它是梯度下降算法的一种变体,其核心原理是在每次迭代搜索中,算法随机选择一个样本或数据点(或一小批样本),计算该样本的梯度,然后用这个梯度更新模型参数

随机梯度下降算法(Stochastic Gradient Descent,SGD)和批量梯度下降算法(Batch Gradient Descent,BGD)的区别在于:随机梯度算法每次只使用少数几个样本点或数据集(每次不重复)的梯度的平均值就更新一次模型;而批量梯度下降算法需要使用所有样本点或数据集的梯度的平均值更新模型。、

举一个经典而形象的例子:假设你现在在山上,为了以最快的速度下山,且视线良好,你可以看清自己的位置以及所处位置的坡度,那么沿着坡向下走,最终你会走到山底。但是如果你被蒙上双眼,那么你则只能凭借脚踩石头的感觉判断当前位置的坡度,精确性就大大下降,有时候你认为的坡,实际上可能并不是坡,走一段时间后发现没有下山,或者曲曲折折走了好多路才能下山。类似的,批量梯度下降法就好比正常下山,而随机梯度下降法就好比蒙着眼睛下山

因此,随机梯度下降算法的效率明显提高,目前已经得到了广泛应用。

例子来源于:《详解随机梯度下降法(Stochastic Gradient Descent,SGD)_随机梯度下降公式-CSDN博客》


二、案例分析

1. 设置问题 

在介绍随机梯度下降法之前,我们先得知道之前研究过最速下降法,它除了计算花时间以外,还有一个缺点那就是容易陷入局部最优解

在讲解回归时,我们使用的是平方误差目标函数。这个函数形式简单,所以用最速下降法也没有问题。现在我们来考虑稍微复杂一点的,比如这种形状的函数:

用最速下降法来找函数的最小值时,必须先要决定从哪个 x 开始找起。之前我用 g(x) 说明的时候是从 x = 3 或者 x=-1 开始的,那是为了讲解而随便选的作为初始值。选用随机数作为初始值的情况比较多。不过这样每次初始值都会变,进而导致陷入局部最优解的问题。

假设这张图中标记的位置就是初始值

倘若从这个点开始找,似乎可以求出最小值。但是如果我们换一个初始点,如下所示,那么可能没计算完就会停止,便陷入了局部最优解

这个算法虽然简单,但是容易发生各种问题,但最速下降法也不会白学,随机梯度下降法就是以最速下降法为基础的。

2. 定义模型

由 《机器学习 | 回归算法原理——最速下降法(梯度下降法)-CSDN博客》可知,最速下降法的参数更新表达式为:

\theta_j:=\theta_j-\eta \sum_{i=1}^n\left(f_{\boldsymbol{\theta}}\left(\boldsymbol{x}^{(i)}\right)-y^{(i)}\right) x_j^{(i)}

这个表达式使用了所有训练数据的误差,而在随机梯度下降法中会随机选择一个训练数据,并使用它来更新参数。下面这个表达式中的 k 就是被随机选中的数据索引。

\theta_j:=\theta_j-\eta\left(f_{\boldsymbol{\theta}}\left(\boldsymbol{x}^{(k)}\right)-y^{(k)}\right) x_j^{(k)}

最速下降法更新 1 次参数的时间,随机梯度下降法可以更新 n 次。 此外,随机梯度下降法由于训练数据是随机选择的,更新参数时使用的又是选择数据时的梯度,所以不容易陷入目标函数的局部 最优解,在实际运用上的确会收敛

3. 随机梯度下降法(拓展)

我们前面提到了随机选择 1 个训练数据的做法,此外还有随机选择 m 个训练数据来更新参数的做法。设随机选择 m 个训练数据的索引的集合为 K,则更新参数如下:

\theta_j:=\theta_j-\eta \sum_{k \in K}\left(f_{\boldsymbol{\theta}}\left(\boldsymbol{x}^{(k)}\right)-y^{(k)}\right) x_j^{(k)}

现在假设训练数据有 100 个,那么在 m = 10 时,创建一个有 10 个随机数的索引的集合,例如 K = {61, 53, 59, 16, 30, 21, 85, 31, 51, 10},然后重复更新参数,这种做法被称为小批量(mini-batch)梯度下降法。 这像是介于最速下降法和随机梯度下降法之间的方法。

ps:不论是随机梯度下降法还是小批量梯度下降法,我们都必须考虑学习率 \eta,将 \eta 设置为合适的值是尤为重要。

http://www.ds6.com.cn/news/1517.html

相关文章:

  • 电商网站建设设计报告总结个人代运营一般怎么收费
  • 湖北网站建设多少钱百度关键词搜索趋势
  • 哪里的郑州网站建设免费推广产品的网站
  • 互动网站建设多少钱怎样搭建网站
  • 游戏里买卖号的网站怎么做兰州seo公司
  • 房屋设计装修app杭州最好的seo公司
  • 响应云网站模板下载小红书seo优化
  • 网站权重优化营销网站制作
  • 网站制作价格便宜深圳网络推广公司有哪些
  • 网站开发人员晋升体系windows优化大师使用方法
  • 微信公众平台微网站开发网络销售平台
  • 东莞网上做公司网站广州抖音推广
  • 惠州网站制作公司优化推广
  • 卖鞋的网站建设思路什么都不懂能去干运营吗
  • 北京商城网站建设报价网站推广计划方法
  • 涿州网站制作网站设计与制作毕业论文范文
  • 商丘微网站seo课程总结怎么写
  • 外贸网站优化建设seo自动优化软件安卓
  • 基于企业网站的网络营销方法南宁优化推广服务
  • 权威的大连网站建设中国最新军事新闻最新消息
  • 北京软件制作公司群站优化之链轮模式
  • 广东企业网站建设公司价格郑州靠谱seo整站优化
  • 登录注册网站怎么做软文广告的案例
  • 阳江专业手机网站制作公司淘宝引流推广怎么做
  • 七彩建设集团官方网站搜索引擎公司排名
  • 福田皇岗社区做网站seo快速排名上首页
  • vps内存wordpress优化seo技术培训山东
  • 重庆模板建站哪家好长沙网络推广
  • 35互联做网站亚洲7号卫星电视
  • 深圳专业制作网站公司吗企业所得税优惠政策