当前位置: 首页 > news >正文

什么网站可以找试卷做网络培训平台有哪些

什么网站可以找试卷做,网络培训平台有哪些,揭阳网页制作,佛山当地网站建设公司目录 前言 一、什么是调整学习率? 二、调整学习率的作用 三、怎么调整学习率 1.有序调整 2.自适应调整 3.自定义调整 4.调整示例 前言 在深度学习中,调整学习率是非常重要的,它对模型的训练效果和收敛速度有显著影响。 一、什么是调整…

目录

前言

一、什么是调整学习率?

二、调整学习率的作用

三、怎么调整学习率

1.有序调整

2.自适应调整

3.自定义调整

4.调整示例


前言

        在深度学习中,调整学习率是非常重要的,它对模型的训练效果和收敛速度有显著影响。

 

一、什么是调整学习率?

  1. 学习率是深度学习中一个关键的超参数,控制着模型在每次更新时权重的调整幅度。它决定了梯度下降算法在最小化损失函数时的步长。较大的学习率可能导致模型不收敛或震荡,而较小的学习率则可能使收敛速度过慢。因此,选择合适的学习率对于模型训练的成功至关重要。
  2. 常用的学习率有0.1、0.01以及0.001等,学习率越大则权重更新越快。一般来说,我们希望在训练初期学习率大一些,使得网络收敛迅速,在训练后期学习率小一些,使得网络更好的收敛到最优解。

 

二、调整学习率的作用

        调整学习率的目的是优化模型训练过程,提高收敛速度,并确保最终模型的性能。通过合理调整学习率,可以避免训练过程中的震荡或不收敛,帮助模型更有效地找到最优解,最终提升模型的泛化能力和准确性。

 

三、怎么调整学习率

  • Pytorch学习率调整策略通过 torch.optim.lr_sheduler 接口实现。

1.有序调整

  1. 等间隔调整(Step),
  2. 多间隔调整(MultiStep),
  3. 指数衰减(Exponential),
  4. 余弦退火(CosineAnnealing)

下图是不同方法的概念图:

代码展示:

"""有序调整学习率"""
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)"""等间隔调整"""
torch.optim.lr_scheduler.StepLR(optimizer, step_size=, gamma=0.1)
# optimizer: 神经网络训练中使用的优化器,
# step_size: 学习率下降间隔数,单位是epoch,而不是iteration.
# gamma:学习率调整倍数,默认为0.1
# 每训练step_size个epoch,学习率调整为lr=lr*gamma."""多间隔调整"""
torch.optim.lr_shceduler.MultiStepLR(optimizer, milestones=, gamma=0.1)
# milestone(list): 一个列表参数,表示多个学习率需要调整的epoch值,
# 如milestones=[10, 30, 80],即10轮时将gamma乘以学习率lr,30轮时、80轮时与10轮时操作一致"""指数衰减"""
torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=)
# gamma:学习率调整倍数的底数,指数为epoch,初始值为lr, 倍数为γepoch,每一轮都调整"""余弦退火"""
torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=, eta_min=0)
# T_max:学习率下降到最小值时的epoch数,即当epoch=T_max时,学习率下降到余弦函数最小值,当epoch>T_max时,学习率将增大
# eta_min: 学习率调整的最小值,即epoch=T_max时,lr_min=eta_min, 默认为0.

 

2.自适应调整

  • 依训练状况伺机而变,通过监测某个指标的变化情况(loss、accuracy),当该指标不怎么变化时,就是调整学习率的时机(ReduceLROnPlateau)
"""根据指标调整学习率"""
torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1,patience=10,verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)
  • 参数解释:
  • optimizer: 需要调整学习率的优化器。
  • mode: 字符串,选择监控的指标类型。'min' 表示当被监控的指标停止下降时,学习率将减小; 'max' 表示当指标停止上升时减小学习率。
  • factor: 每次调整学习率时,学习率将乘以这个因子(通常在 0 到 1 之间)。例如,float = 0.1表示学习率减少到原来的 10%。
  • patience: 监控指标在没有改善时等待的 epochs 数。在这段时间内,如果指标没有改善,学习率将被调整。
  • verbose: 布尔值,是否在调整学习率时打印消息。
  • threshold: 改变学习率的最小阈值。如果变化小于该阈值,则认为没有改善。这个值可以是绝对值或相对值,具体取决于 threshold_mode
  • threshold_mode: 字符串, 'rel' 表示使用相对阈值(与当前值的比例), 'abs' 表示使用绝对阈值。
  • cooldown: 在学习率被减少后,允许继续训练的 epochs 数。在此期间,将不会调整学习率。
  • min_lr: 学习率的最小值,防止学习率降到过低。
  • eps: 一个很小的值,避免除以零的错误,通常在计算时用作保护。

 

3.自定义调整

  • 通过自定义关于epoch的lambda函数调整学习率(LambdaLR)。
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda)
# 参数:
# lr_lambda(function or list): 自定义计算学习率调整倍数的函数,通常是epoch的函数,当有多个参数组时,设为list.

 

4.调整示例

  • 在每个epoch的训练中使用 scheduler.step() 即可进行学习率的更新
"""有序调整学习率"""
loss_fn = nn.CrossEntropyLoss()  # 处理多分类
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.5)  # 调整学习率epochs = 50for t in range(epochs):print(f"Epoch {t + 1}\n--------------")train(train_dataloader, model, loss_fn, optimizer)test(test_dataloader, model, loss_fn)scheduler.step()  # 在每个epoch的训练中.使用scheduler.step()语句进行学习率更新
print(best_acc)
http://www.ds6.com.cn/news/40847.html

相关文章:

  • 政府门户网站建设的重要性想学销售去哪培训
  • wordpress建站教程视频教程网络营销心得体会300字
  • 阿里巴巴国际站关键词推广树枝seo
  • 网站建设用dw南宁网站seo大概多少钱
  • html网站开发简历全球网站流量排名100
  • 做一个网络公司需要多少钱seo sem关键词优化
  • 绍兴网站制作推广某个网站seo分析实例
  • 深圳装修公司排行榜seo建站公司推荐
  • 湛江网站建设方案书网络营销推广方式都有哪些
  • 简单做任务赚钱网站自媒体平台注册下载
  • 男女真实做性视频网站seo排名优化培训网站
  • 微信社群管理seo公司
  • 海报制作在线宣城网站seo
  • 做视频网站用哪个cms餐饮营销手段13种手段
  • 淘宝网站开发实训报告目录百度推广工具
  • 有哪些网站是做采购招标的必应搜索引擎怎么样
  • 社区团购最新模式抖音关键词优化
  • h5网站是什么意思长沙网站seo外包
  • 网站开发工具总结刷推广链接的网站
  • 如何让自己做的网页有网站汕头seo排名收费
  • 有哪些做婚礼平面设计的网站上海搜索引擎优化1
  • 做企业网站的sem优化和seo的区别
  • wordpress远程代码执行微信小程序排名关键词优化
  • 帮做暑假作业网站可以免费领取会员的软件
  • 百石网怎么做网站百度下载安装
  • 自己制作网站视频教程知名seo公司
  • 网推所什么意思seo优化服务商
  • 网站如何做绿标企业网址怎么申请
  • 济南网站建设外包公司重庆seo网站运营
  • 广东省东莞市建设培训中心网站seo主要做什么